"Standardowa edukacja zapewni Ci przeżycie. Samokształcenie - fortunę".   Jim Rohn

"Jeśli trwacie w nauce mojej, jesteście prawdziwie moimi uczniami i POZNACIE PRAWDĘ ,A PRAWDA WAS WYZWOLI"    - Jezus z Nazaretu

Rozwój nauki


Od prehistorii do dalekiej przyszłości (41)


Długie spojrzenie

Tu mówimy tylko o setkach lub tysiącach lat. To nic w porównaniu z miliardami lat wszechświata. Początek wszechświata miał miejsce 13,8 miliarda lat temu (bya), powstanie Słońca i Ziemi nastąpiło 4,6 roku, życie pojawiło się na Ziemi o 3,5 roku, złożone życie powstało około 1 roku, a nasza specjacja z szympansów miała miejsce 7 milionów Lata temu. Zarejestrowana historia sięga zaledwie 5000 lat wstecz, rewolucja naukowa miała miejsce zaledwie kilkaset lat temu, a my mamy nowoczesną technologię tylko przez ostatnie sto lat - maleńki ułamek naszego istnienia jako gatunku. Dokąd zmierzamy? Obecnie mamy przed sobą długą listę pytań naukowych, gdy patrzymy w przyszłość. Te pytania będą nas zajmować przez wiele lat, a wiele nieoczekiwanych odkryć w przyszłości doprowadzi do kolejnych pytań. Ekscytujące czasy dla nauki. Tak ekscytujące, że można się zastanawiać, czy nie zdając sobie z tego sprawy, faktycznie żyjemy obecnie w "złotym wieku nauki", kiedy obecnie dokonuje się większości ważnych i fundamentalnych odkryć, jakich można dokonać. W skali miliardów lat ten Złoty Wiek Nauki może być zaledwie przeskokiem - bardzo wyjątkowym czasem w naszej egzystencji jako gatunku. To oczywiście oznaczałoby, że w końcu nadejdzie czas - za sto, tysiąc, milion lat - kiedy uzyskamy odpowiedzi na większość ważnych i fundamentalnych pytań. Nauka bez wątpienia trwałaby nadal, być może coraz bardziej zajmując się kwestiami o coraz mniejszym znaczeniu, i oczywiście nasza ciekawość nigdy nie umrze, ale większość działalności naukowej byłaby skończona. Jeśli w przyszłości nadejdzie taki czas, wówczas tęsknie spoglądalibyśmy wstecz na miniony Złoty Wiek Nauki, w którym obecnie mamy szczęście żyć. Wkroczylibyśmy w "świat po odkryciu". Czy do tego czasu nauka bardzo nas odmieni od tego, czym jesteśmy obecnie? Mimo całego postępu naukowego i technologicznego w ciągu ostatnich kilkuset lat nie przeszliśmy całkowitej przemiany. Ale tak naprawdę w ciągu ostatnich kilku tysięcy lat znacząco zmieniliśmy zarówno siebie, jak i otaczający nas świat. Dziesięć tysięcy lat temu nadal żyliśmy jako łowcy-zbieracze, tak jak przez poprzednie kilka milionów lat; 99,9% naszego istnienia spędziliśmy w tym stanie. Ale wszystko zaczęło się powoli, ale znacząco zmieniać, po pojawieniu się rolnictwa. Z biegiem czasu spowodowaliśmy dramatyczną ewolucję kilku gatunków poprzez selektywną hodowlę. Zmieniliśmy oblicze samej planety, z ogromnymi obszarami oczyszczonymi pod uprawę lub do wypasu przez nasze udomowione zwierzęta i krajobrazami poprzecinanymi drogami i linie kolejowe oraz usiane miastami i miasteczkami. Według niektórych badań nasza własna ewolucja również mogła przyspieszyć na przestrzeni lat i może być teraz nawet sto razy szybsza niż kilka milionów lat temu. Jednym z czynników może być nasza znacznie większa populacja, która może wytwarzać znacznie korzystniejsze mutacje zdolne do szybszego rozprzestrzeniania się. Innym może być innowacyjność i konkurencja w naszym coraz bardziej technologicznym świecie. W ostatnich latach nasze życie zmieniło się dramatycznie na wiele sposobów. Żyjemy w warunkach o kontrolowanej temperaturze, mamy niezawodne i szerokie źródła pożywienia, chronimy się przed wieloma chorobami. Mamy sztuczne aparaty słuchowe i wzrokowe, rozruszniki serca, cudowne leki, przeszczepy, sztuczne części ciała i zaczynamy robić sztuczne organy. Na obu końcach naszego życia nastąpił ogromny postęp w medycynie. Nasza średnia długość życia wzrosła ponad dwukrotnie w ciągu ostatniego stulecia. Nasze życie szybko się zmienia. A genetyka może zmienić zasady gry. Na wielu frontach dokonuje się zadziwiający postęp. Rewolucyjna nowa technologia o nazwie CRISPR umożliwia szybkie i łatwe wycinanie, wklejanie i edytowanie dowolnej sekwencji DNA do lub z genomu. Aplikacje są nieograniczone. Bakterie i inne formy życia o nowych cechach mogą być modyfikowane w ciągu zaledwie kilku tygodni. Najważniejszym i kontrowersyjnym zastosowaniem może ostatecznie być modyfikacja i ewolucja ludzi, ale do tego oczywiście wymagana byłaby szeroka dyskusja i aprobata społeczna. Wytworzono już "komórki syntetyczne", w których organizm jest kontrolowany przez sztucznie zaprojektowane i programowalne DNA; potencjalne zastosowania obejmują produkcję paliw, olejów, białek, szczepionek, materiałów i antybiotyków. A w 2014 roku powstał pierwszy żywy i rozmnażający się organizm ze sztucznym kodem genetycznym; kod bakterii zawiera sześć liter zamiast zwykłych czterech. Zmieniono fundamentalny kod życia i stworzono zupełnie nowe drzewo ewolucyjne, które może żyć równolegle, ale zasadniczo różnić się od wszystkich istniejących na Ziemi form życia, odporne na wszystkie inne bakterie i wirusy. Tak więc przeszliśmy od bycia częścią świata przyrody i całkowicie poddani ewolucji darwinowskiej, do kontrolowania zasobów planety i życia innych zwierząt, a teraz do kontemplacji możliwości kontrolowania własnego losu i tworzenia zupełnie nowych rodzajów życia. . To ogromne kroki w historii ludzkości. Dokąd nas to zaprowadzi? Niektórzy w tej dziedzinie skomentowali, że "teraz, gdy wiemy, że możemy przepisać życie, jest bardzo mało prawdopodobne, że przestaniemy".2 Pracujemy nad genomem dopiero od kilkudziesięciu lat, a komórka jest znacznie bardziej złożona niż samo DNA . Gdzie będziemy za tysiąc czy milion lat? Czy w tym przyszłym czasie zmienimy naszą chemię, uciekniemy od naturalnej ewolucji i będziemy w pełni kontrolować nasze własne przeznaczenie? Nawet jeśli to możliwe, czy byłoby to mądre? Ogromnie skorzystaliśmy z 3,5 miliarda lat naturalnej ewolucji. Dała nam nieskazitelnie dopracowaną obronę przed wszelkiego rodzaju potencjalnymi chorobami, zarazkami i zaburzeniami. Czy nie byłoby nierozsądnie porzucić to wszystko i spróbować przejąć kontrolę nad własną ewolucją? Prawdopodobnie. Ale byliśmy odpowiedzialni za ostatnie dziesięć tysięcy lat ewolucji szarego wilka we wszystkie rodzaje psów, a to z pewnością nie zabiło psów, chociaż (po prostu) zostało to zrobione przez selektywną hodowlę. Idea bezpośredniego wtrącania się do ludzkiego genomu budzi najwięcej alarmów. Z drugiej strony mamy na to dziesiątki, stulecia lub tysiąclecia, jeśli tak zdecydujemy, po drodze z wielką starannością i dowiadując się znacznie więcej niż obecnie wiemy o zawiłościach epigenotypu. Jest więc przynajmniej możliwe, że moglibyśmy w końcu bezpiecznie "ewoluować". Ale czy nawet wtedy możemy sobie zaufać? Gdybyśmy w końcu zrobili ten krok, nasza własna ewolucja (i każdego innego wybranego przez nas gatunku) mogłaby stać się ogromnie szybsza niż ewolucja darwinowska poprzez dobór naturalny, gdy sami określimy, kim chcemy się stać. Czy mielibyśmy potencjał do nieśmiertelności? Czy stworzylibyśmy wiele nowych form życia biologicznego? Czy życie w tym przyszłym czasie byłoby czymś, czego nie możemy sobie teraz nawet wyobrazić? Ale nawet taki rozwój genetyki może blednąć w porównaniu z rozwojem "sztucznej inteligencji" (AI). Idea zaawansowanych komputerów zdolnych do samodzielnego myślenia (i bycia świadomym) istnieje od ponad pół wieku, ale pomimo wielkiego szumu, beznadziejnie wyprzedzała swoje czasy. Musieliśmy sami skrupulatnie zaprogramować komputery - mogły robić tylko dokładnie to, co im kazałyśmy. Ale ostatnio nie tylko stały się niezwykle potężne (miliardy razy szybsze niż ludzki mózg), ale także stały się zdolne do uczenia się. Opanują coraz większą liczbę zadań, takich jak gra w szachy i Go, rozpoznawanie tekstu, mowy i twarzy; są lepsze i bezpieczniejsze od ludzi w latających i lądujących samolotach, a na horyzoncie widać pojazdy autonomiczne. Cele długoterminowe obejmują planowanie, wnioskowanie i złożoną robotykę. Ogromne inwestycje idą w sztuczną inteligencję, która może okazać się rewolucyjna. Jednocześnie trwają liczne badania nad rozwojem "obliczeń kwantowych", które mogą zastąpić obecne komputery cyfrowe "analogowymi" komputerami kwantowymi o znacznie większej mocy. Sztuczna inteligencja jest w czołówce technologii - do tego stopnia, że żartowano, że "sztuczna inteligencja to wszystko, co jeszcze nie zostało zrobione". Czy wystarczająco potężne i wyrafinowane komputery i sztuczna inteligencja pewnego dnia w odległej przyszłości sprawią, że ludzki umysł (i my) stanie się zbyteczny? Różne badania wskazują, że istnieją fizyczne i metaboliczne ograniczenia potencjalnej mocy organicznych mózgów, takich jak nasz. A informacje zachowane w naszych mózgach z lat edukacji i doświadczeń są rozpraszane i tracone wraz z atomami naszych ciał, kiedy nieuchronnie umieramy; ponieważ "nosiciel" jest śmiertelny, każde nowe pokolenie musi uczyć się wszystkiego od nowa. Nie ma takich ograniczeń dla komputerów, które mogą być niezwykle potężne i nieśmiertelne. Całkowita zawartość informacyjna naszej cywilizacji, która obecnie znacznie przekracza możliwości pojedynczego ludzkiego mózgu, mogłaby być łatwo dostępna dla wysoce zaawansowanych "maszyny myślącej". Nigdy by nie zginęła i mogłaby zostać udostępniona ogromnej liczbie z nich. Można sobie również wyobrazić, że myślące maszyny przyszłości mogą być zdolne do studiowania i poznawania świata tak, jak my teraz. I nie jest całkowicie wykluczone, że mogliby rozwijać samoświadomość, świadomość i zdolność planowania i tworzenia, tak jak my teraz, ale na znacznie większą skalę. Wszystko to jest w tej chwili tylko dzikimi spekulacjami, ale - ponieważ komputery istnieją dopiero od mniej niż wieku, a tutaj mówimy o możliwościach na następne tysiące lub miliony lat - czy kiedyś będzie to możliwe? W bardzo długim okresie może nasza obecna era ludzkiej biologii i brainpower ("wetware") to tylko krótki moment w historii inteligencji we wszechświecie? Czy nasze kreacje - myślące maszyny - mogą przejąć i kontynuować postęp, który początkowo wprawiliśmy w ruch? Jeśli to jest nasze dziedzictwo, które kontynuują, to tak naprawdę nie "przejmą" - byliby naprawdę naszymi potomkami. Ostatecznie może to być nasze solidne, myślące maszyny, a nie wrażliwi biologiczni ludzie, którzy skolonizują galaktykę. Fantastyka naukowa jest pełna ekstrapolacji współczesnej nauki o podróżach międzygwiezdnych, wykorzystujących tunele czasoprzestrzenne i inne podobnie ekstrawaganckie pomysły. Które (jeśli w ogóle) staną się rzeczywistością? Chociaż program Apollo 50 lat temu był inspirujący, nastąpiła godna uwagi przerwa, a podróże ludzi do odległych gwiazd pozostają odległym marzeniem. Wygląda na to, że utkniemy w naszym Układzie Słonecznym na długo. Jednak statek kosmiczny Pioneer 10, wystrzelony w 1972 roku, wyszedł poza heliosferę i ostatecznie całkowicie opuści Układ Słoneczny, a teraz poważnie myśli się o wysłaniu maleńkiego statku kosmicznego do Alpha Centauri, najbliższego Ziemi układu gwiezdnego (zaledwie 4 lat świetlnych), używając naziemnych laserów, aby rozpędzić je do 20% prędkości światła, aby mogły odbyć podróż za 20 lat. Od dawna rozważano inne koncepcje podróży kosmicznych na duże odległości, w tym systemy napędowe jonów i antymaterii. Plany ostatecznej kolonizacji Marsa (9 miesięcy podróży z Ziemi) mogą któregoś dnia się urzeczywistnić i zapewnią dodatkowe ubezpieczenie przetrwania naszego gatunku; obecnie mamy na to "okno możliwości" - podczas gdy wciąż mamy wymaganą technologię i zanim zniszczymy Ziemię. Ale to maleńkie kroczki w porównaniu np. z kolonizacją całej galaktyki. Szacuje się, że gdybyśmy mogli opanować wszystkie wymagane technologie napędu, przetrwania i prokreacji, galaktyka mogłaby w zasadzie zostać skolonizowana w ciągu zaledwie 10 milionów lat. Ponieważ jest to bardzo krótkie w kosmologicznych skalach czasowych, rodzi to słynne pytanie Fermiego "Gdzie są wszyscy?" - czy nasi galaktyczni sąsiedzi już tu nie byli? Wielki Wybuch miał miejsce 13,8 miliarda lat temu, a pierwsze gwiazdy i galaktyki powstały ponad 13 miliardów lat temu. W ciągu miliardów lat poprzedzających powstanie naszego Słońca i Ziemi 4,6 miliarda lat temu uformuje się ogromna liczba gwiazd. Jeśli życie jest powszechne we wszechświecie, mogło powstać wiele razy, miliardy lat przed pojawieniem się życia na Ziemi. Te wczesne formy życia byłyby teraz o miliardy lat bardziej zaawansowane niż my. Jeśli tak, to jesteśmy całkowicie nowicjuszami we wspólnotach wszechświata. Możemy być w sytuacji współczesnych mieszkańców dżungli, którzy komunikują się za pomocą bębnów, zupełnie nieświadomi istnienia rozległej globalnej sieci komunikacji radiowej, której fale przechodzą przez nie. Co wiemy o możliwości życia w innym miejscu we wszechświecie? Aby to uprościć (ponieważ nie mamy pojęcia, jakie egzotyczne formy "życie" mogłoby przybrać we wszechświecie), ograniczamy nasze poszukiwania do życia, jakie znamy tu na Ziemi, i zaczynamy od rozważenia, jakie mogą być planety podobne do Ziemi gdzie indziej w galaktyce i wszechświecie. Pierwsze planety poza naszym Układem Słonecznym odkryto w latach 90. XX wieku. Od tego czasu, na podstawie intensywnych poszukiwań przeprowadzonych w ciągu ostatnich dwóch dekad, znaleźliśmy ponad 3700 takich "planet pozasłonecznych", a teraz wiemy wystarczająco dużo o ich cechach charakterystycznych i gwiazdach macierzystych, aby móc oszacować ich demografię nie tylko w naszym Galaktyka, ale także w całym obserwowalnym wszechświecie. W naszej Galaktyce jest około 100 miliardów planet podobnych do Ziemi i miliardy bilionów w obserwowalnym wszechświecie. Średni wiek osób w naszej galaktyce i innych w pobliżu to 7-8 miliardów lat. To o kilka miliardów lat więcej niż wiek Ziemi. Powstaje zatem pytanie, na ilu z tych planet może istnieć życie. Głównym kryterium pozwalającym na podtrzymanie życia, jakie znamy, jest to, że planeta powinna znajdować się w "strefie nadającej się do zamieszkania" swojej gwiazdy macierzystej (nie za blisko i nie za daleko od gwiazdy, aby móc utrzymać wodę w stanie ciekłym ). Udział planet podobnych do Ziemi, które spełniają to kryterium, wynosi około 10%. Różne inne czynniki mogą odgrywać rolę, takie jak obłoki międzygwiazdowe, interakcje międzygwiezdne, aktywność gwiazd, wpływ innych planet w układzie, migracja orbitalna, rezonanse, oddziaływania księżyców i pływów, zderzenia asteroid i komet oraz duże zdarzenia wulkaniczne. Inną, bardziej złowrogą możliwością jest "sterylizacja" planety przez wysokoenergetyczne promieniowanie (promienie gamma) pochodzące z agonii masywnych gwiazd (supernowych). Rozbłyski gamma wywołałyby reakcje chemiczne w atmosferze planety, niszcząc jej warstwę ozonową, a tym samym narażając życie na powierzchni i płytkich wodach na śmiertelne promieniowanie ultrafioletowe z macierzystej gwiazdy przez lata i tworząc smog, który mógłby spowodować "kosmiczna zima". Całe życie może zostać zniszczone, z wyjątkiem niektórych ekstremofili oraz życia pod powierzchnią i głębinowych. Ta katastrofa promieniowania gamma, występująca w dowolnych regionach Wszechświata o dużej gęstości masywnych gwiazd, może wysterylizować te regiony. Obejmuje to gęste obszary centralne normalnych galaktyk i gęste obszary formowania się gwiazd w ramionach spiralnych galaktyk takich jak nasza. Obejmuje to również stosunkowo małe galaktyki gwiazdotwórcze, które istniały we wczesnym wszechświecie; cały wszechświat sprzed około 5 miliardów lat mógł zostać "wysterylizowany". Inne takie zagrożenia radiacyjne obejmują same supernowe, promienie kosmiczne i dżety emanujące z kwazarów i aktywnych jąder galaktyk. Nasze Słońce ze swoją planetarną świtą znajduje się w szczególnie łagodnym regionie naszej Galaktyki - pomiędzy ramionami spiralnymi i w pośredniej odległości od centrum Galaktyki. Niemniej jednak istnieją przesłanki, że nawet nasza Ziemia mogła zostać dotknięta przez zdarzenia promieniowania gamma w przeszłości. Istnieje duże prawdopodobieństwo, że Ziemia doświadczyła co najmniej jednego śmiertelnego rozbłysku gamma w ciągu swojego życia i 50% szans na jeden w ciągu ostatnich 500 milionów lat; w rzeczywistości masowe wymieranie późnego ordowiku, które zgładziło około 80% gatunków na Ziemi 443 miliony lat temu, mogło w rzeczywistości być spowodowane przez promieniowanie gamma, a w głębokich rdzeniach lodowych Antarktyki można znaleźć charakterystyczne oznaki aktywności promieniowania gamma w czasach dwóch znanych supernowych (1006 i 1054). Mamy więc szczęście, że dotarliśmy tam, gdzie jesteśmy (ale oczywiście, gdybyśmy nie byli, nie byłoby nas tutaj, aby to komentować). Ale z drugiej strony istnieje ogromna liczba planet we wszechświecie, nawet w regionach położonych z dala od wspomnianych powyżej zagrożeń radiacyjnych. A jeśli życie jest nieuniknione w sprzyjających warunkach, skorzysta z okazji tak szybko, jak będzie to możliwe. Co więcej, życie, jakie znamy, wydaje się mieć wytrwałą zdolność do trzymania się w obliczu przeciwności. A więc, czy mimo wszystkich niebezpieczeństw wszechświat tętni życiem? Czy jesteśmy sami? Jakie są szanse na to, że inteligentne życie wyewoluowało, tak jak na Ziemi? Czy jesteśmy jedną z pierwszych inteligentnych form życia we wszechświecie, czy też istnieją hordy innych, które są już o miliardy lat bardziej zaawansowane? Przez ostatnie pół wieku szukaliśmy możliwych sygnałów od jakiejkolwiek pozaziemskiej inteligencji, która może być "tam". Kiedy w 1967 r. odkryto pierwsze pulsary, które są tak precyzyjne jak zegar atomowy, na pierwszy rzut oka pojawiła się oczywista myśl, że mogą one być latarniami nawigacyjnymi jakiejś ogromnej cywilizacji galaktycznej i nazwano je LGM od "małych zielonych ludzików". Szybko jednak zdano sobie sprawę, że są to po prostu gwiazdy neutronowe odmian ogrodowych. Podobnie, tajemnicze szybkie wybuchy radiowe (FRB), które zostały wykryte w ostatnich latach, prawdopodobnie mają naturalne wyjaśnienie w kategoriach łączenia się gwiazd neutronowych lub czarnych dziur, ale tutaj znowu niektórzy spekulują, że mogą one być spowodowane cywilizacjami pozagalaktycznymi. Obecnie trwają poszukiwania możliwych dowodów inteligencji pozaziemskiej w kilku oknach widma elektromagnetycznego. Nie trzeba dodawać, że gdybyśmy kiedykolwiek mieli do czynienia z zaawansowanym życiem pozaziemskim, byłby to bez wątpienia największy szok intelektualny, kulturowy, emocjonalny i religijny, jaki moglibyśmy sobie wyobrazić. Jeśli mamy problem z wyobrażeniem sobie, jak może wyglądać nasze życie za setki lub tysiące lat od teraz, pomyśl, jak różni mogą być typowi mieszkańcy wszechświata - miliardy lat bardziej zaawansowani niż my. Mieli mnóstwo czasu na skolonizowanie swoich galaktyk. Dlaczego nie było tu naszych galaktycznych sąsiadów? A może byli? Czy to możliwe, że ich nieuniknionym losem było zabicie się, być może przez nuklearny holokaust lub pandemię wirusową? Wydaje się to mało prawdopodobne, ponieważ powinni byli skolonizować inne światy, aby katastrofy na jednym nie wpłynęły na inne. Więc nadal istnieją, w formach, których nigdy nie możemy sobie wyobrazić? Obecnie myślimy o inteligentnym, wodnym życiu biologicznym na innych planetach, ale życie na innych planetach może bardzo różnić się od nas, a wspomniane powyżej "maszyny myślące" mogą preferować przestrzeń międzygwiezdną lub środowiska czarnych dziur jako siedliska. Posiadamy nowoczesną technologię tylko przez ostatnie sto lat - jak możemy mieć jakiekolwiek pojęcie o tym, jacy mogą być inni mieszkańcy wszechświata - a zatem jacy my możemy być za miliardy lat od teraz. Największe osiągnięcia w odległej przyszłości mogą pochodzić z odkryć, których jeszcze nie dokonano i których obecnie nie możemy sobie nawet wyobrazić. Umysł zastanawia się, co może nam przynieść przyszłość. To będzie nie lada przygoda.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (40)


Czy nauka może być kiedykolwiek kompletna?

Czy są jakieś granice nauki? Czy w końcu możemy wszystko wiedzieć? W latach po opublikowaniu Principii Newtona można by pomyśleć, że możemy wiedzieć wszystko o świecie, przynajmniej w zasadzie. Był to wszechświat "w zegarku", a wszystkie wydarzenia - przeszłe, teraźniejsze i przyszłe - łączyła ścisła przyczynowość i można je było poznać z nieograniczoną dokładnością. Jednak teraz okazuje się, że napotykamy wiele przeszkód i przeszkód, a ideał pełnej wiedzy zniknął z naszego zasięgu. Jedną z oczywistych kwestii, ponieważ polegamy na obserwacjach i eksperymentach, aby poznać rzeczywisty świat, jest stale obecny problem niepewności pomiaru. Zawsze możemy zmniejszyć niepewność, zwiększając czas trwania obserwacji lub liczbę eksperymentów, ale pewna niepewność, jakkolwiek niewielka, zawsze będzie obecna. Inną kwestią jest przytłaczająca skala rzeczywistego świata - ogromna liczba cząstek we wszechświecie i ogromna złożoność żywych systemów. Z pierwszym z nich można się uporać poprzez zrozumienie zasad rządzących, a nie rejestrowanie poszczególnych przypadków, a fizyka odniosła spory sukces w tym przedsięwzięciu. Fizycy marzą o "Teorii wszystkiego" ("Teorii Ostatecznej"), która jest kompletną teorią fizyki fundamentalnej. Zawierałby całą fizykę, która leży u podstaw wszystkiego w świecie naturalnym i fizycznym. W zasadzie Teoria Wszystkiego mogłaby się rozwinąć, aby wyjaśnić i przewidzieć wszystko we wszechświecie, ale w praktyce istnieje ogromna przepaść między elegancką prostotą fizyki na najbardziej podstawowym poziomie a ogromną złożonością otaczającego nas świata. Biolodzy są absolutnie zszokowani ideą czegoś takiego jak "Teoria wszystkiego". Uważają za absurd nawet rozważanie takiej koncepcji; są pewni, że nauka nigdy nie będzie kompletna. Ich reakcja jest zrozumiała, ponieważ na co dzień konfrontują się z ogromną złożonością żywych systemów. Zajmują się najbardziej ekstremalnymi zawiłościami istniejącymi we wszechświecie, w przeciwieństwie do fizyków, którzy dążą do ostatecznej prostoty ukrytego świata (nauka jest stosunkowo prosta zarówno w największej, jak i najmniejszej skali, ale biologia znajduje się pośrodku, gdzie złożoność jest największa). Ewolucja nigdy się nie zatrzymuje, więc mają do czynienia z ciągle zmieniającymi się systemami i całą biosferą z ogromną liczbą nakładających się i przeplatających się bytów, działań i wpływów. Zrozumienie podstawowych zasad tych systemów będzie monumentalnym zadaniem. I nawet przy tych zasadach biolodzy sądzą, że może nigdy nie być możliwe dokonanie dokładnych prognoz. Nawet proste i deterministyczne równania różnicowe pierwszego rzędu mogą prowadzić do pozornie losowych i dziwacznych wyników. A co z innymi obszarami złożoności? Robimy całkiem niezłą robotę z pogodą w skali czasowej do tygodnia lub dwóch, ale czy kiedykolwiek będziemy w stanie przewidzieć "efekt motyla" (np. burze na półkuli północnej spowodowane trzepotaniem skrzydeł motyla w dżungla amazońska)? Nawet przy niezawodnej fizyce, jak moglibyśmy kiedykolwiek poznać "warunki początkowe" z jakąkolwiek precyzją? Czy kiedykolwiek będziemy w stanie wiarygodnie przewidzieć trzęsienia ziemi? Ile kiedykolwiek dowiemy się o wnętrzu Ziemi? Prawie wszystkie nasze obserwacje Wszechświata są dokonywane przez wykrywanie promieniowania elektromagnetycznego i istnieją pewne praktyczne ograniczenia. Przy bardzo niskich (radiowych) częstotliwościach nasz widok staje się zaciemniony: ziemska jonosfera pochłania promieniowanie poniżej 1 MHz, a ośrodek międzygwiazdowy pochłania promieniowanie poniżej około 100 kHz. A na końcu widma o wysokiej częstotliwości promienie gamma oddziałują z fotonami Kosmicznego Tła Mikrofalowego, zasłaniając galaktyki poza naszą własną. Podobne ograniczenia dotyczą innego okna na wszechświat, promieni kosmicznych; przy niskich energiach wiatr słoneczny wieje je wokół i do ośrodka międzygwiazdowego, a przy wysokich energiach są niszczone przez interakcje z fotonami CMB, ograniczając ich użycie do najbliższych galaktyk. Co więcej, naładowane promienie kosmiczne są wielokrotnie odchylane przez złożone międzygwiezdne pola magnetyczne, więc lokalizacja ich źródeł jest trudna lub niemożliwa do ustalenia. W zasadzie moglibyśmy dowiedzieć się więcej, gdybyśmy kiedyś podjęli rozległe podróże w kosmos, ale nawet wtedy nasza wiedza byłaby nękana tego rodzaju ograniczeniami. Prędkość światła jest skończona i nic - nawet informacja - nie może podróżować szybciej niż prędkość światła w próżni. Z tego powodu nie możemy zobaczyć rozszerzającego się wszechświata poza nasz "stożek światła" - nasz pogląd na wszechświat jest ograniczony (a tym bardziej wraz z upływem czasu, gdy ekspansja przyspiesza). Pozostaje niejasne, czy z czarnej dziury można kiedykolwiek wydobyć jakiekolwiek wpadające informacje. Nie możemy zobaczyć całej drogi z powrotem do Wielkiego Wybuchu (za pomocą fal elektromagnetycznych) z powodu zaciemniającego Kosmicznego Tła Mikrofalowego. Nawet gdyby scenariusz wieloświata opisany we wcześniejszej części okazał się prawdziwy, nigdy nie bylibyśmy w stanie wykryć innych wszechświatów. Co więcej, prawa fizyki w naszym własnym wszechświecie byłyby prawdopodobnie spowodowane przypadkową "pogodą" w naszym lokalnym skrawku multiwersu - nie byłyby fundamentalne. W poszukiwaniu najbardziej fundamentalnych składników materii zbudowaliśmy gigantyczne akceleratory, które powodują zderzenia cząstek z prędkością bliską prędkości światła. Chaos wytworzony przez te wysokoenergetyczne zderzenia jest badany pod kątem oznak coraz bardziej fundamentalnej fizyki. Ale szybko zbliżamy się do punktu malejących zysków i wkrótce możemy nie być w stanie pozwolić sobie na ogromny koszt coraz większych akceleratorów wymaganych do osiągnięcia najwyższych energii. Kolejnym potencjalnym ograniczeniem w naszych dążeniach do zrozumienia fundamentalnej fizyki mogą być różnice w samych prawach fizyki. W tej chwili mamy bardzo silne górne limity zmienności pewnych podstawowych "stałych" (mniej niż milion miliardów rocznie), ale nawet niewielkie różnice w czasie lub przestrzeni mogą ograniczyć nasze ostateczne zrozumienie fizyki. Zasada nieoznaczoności Heisenberga, nakłada fundamentalne ograniczenie na naszą wiedzę o świecie subatomowym. Zarówno pozycja, jak i pęd cząstki nie mogą być znane z nieograniczoną precyzją; jeśli pozycja jest dokładnie znana, pęd nie może być i na odwrót. To samo dotyczy czasu i energii. Ta niepewność ma charakter samoistny - nie wynika z błędu pomiaru. Jest to centralna cecha mechaniki kwantowej i nie można jej uniknąć. Świat subatomowy jest określony przez prawdopodobieństwa. Istnieją inne ograniczenia naszej zdolności do posiadania pełnej wiedzy. Jak podkreślił Karl Popper, nigdy nie można udowodnić, że teoria jest prawdziwa; można ją tylko sfałszować. Bez względu na to, ile przeprowadzono eksperymentów, które zgadzają się z teorią, nie dowodzą one, że teoria jest poprawna. Ale wystarczy jeden eksperyment, który nie zgadza się z teorią, aby udowodnić, że jest ona fałszywa. Dlatego nigdy nie możemy być pewni, że nasze teorie świata są absolutnie poprawne. Innym ograniczeniem naszych teoretycznych modeli świata subatomowego jest to, że mogą nie być unikatowe. Chociaż możemy mieć jeden model, który pasuje do wszystkich danych, możemy nigdy nie być pewni, że nie może istnieć inny model, który równie dobrze pasuje do danych. W początkach teorii kwantowej Erwin Schroodinger przedstawił model matematyczny opisujący zachowanie elektronów w atomach za pomocą fal prawdopodobieństwa, a Werner Heisenberg opisał te same zjawiska w kategoriach przeskoków kwantowych między poziomami energii. W jednym przypadku równanie falowe, w drugim mechanika macierzowa. Paul Dirac stworzył bardziej abstrakcyjny formalizm i wykazał, że wszystkie są matematycznie równoważne. I, bardziej ogólnie, dualizm falowo-cząsteczkowy jest powszechnym tematem w mechanice kwantowej. Najlepsze, co możemy zrobić, to stworzyć modele, które działają, ponieważ odtwarzają nasze wyniki eksperymentalne i obserwacyjne. I oczywiście wszelkie nieskończoności w przestrzeni, czasie lub gęstości mogą uczynić naszą wiedzę naukową niekompletną. Nawet gdybyśmy byli w stanie stworzyć "Teorię wszystkiego", która jest wyjątkowa i wyjaśnia wszystkie obserwacje świata we wszystkich skalach, nigdy nie bylibyśmy pewni, czy obejmuje ona absolutnie wszystko, co istnieje. Zawsze może być coś więcej, co nam umyka. I nawet gdyby taka teoria faktycznie zawierała wszystko, co istnieje, a nauka byłaby wówczas kompletna, nigdy nie bylibyśmy w stanie jej udowodnić. Czy brakuje nam czegoś na jeszcze głębszym poziomie? Czy istnieje jakiś zupełnie inny sposób postrzegania świata, który jest wokół nas i na naszych oczach, ale którego wciąż jesteśmy całkowicie nieświadomi? Nauka obejmuje wszystko, co istnieje w świecie naturalnym i fizycznym, ale czy robi to na wszystkie możliwe sposoby? Wielu fizyków powiedziałoby, że wciąż brakuje nam głębokiego zrozumienia mechaniki kwantowej, pomimo jej fenomenalnego sukcesu. Czy jesteśmy w takiej samej sytuacji, jak starożytni Grecy, zanim pomyśleli o przyczynach naturalnych? Na nieco mniej fundamentalnym poziomie przypomina to naszą sytuację w XIX wieku przed teorią elektromagnetyzmu Maxwella. Wiedzieliśmy tylko o niewielkiej optycznej części widma, która obejmuje mniej niż bilionową część zakresu długości fal całego widma elektromagnetycznego; nie mieliśmy absolutnie żadnej świadomości istnienia pasm radiowych, podczerwonych, ultrafioletowych, rentgenowskich i gamma, z których wszystkich używamy dzisiaj. Czego więc teraz brakuje? Ostatnie i jeszcze bardziej ezoteryczne ograniczenie: gdybyśmy mimo wszystkich powyższych ograniczeń w jakiś sposób osiągnęli pełną wiedzę i chcieli ją zakodować w zbiorze aksjomatów, z których można by wydedukować całą wiedzę, byłoby ograniczenie narzucone przez twierdzenia o niezupełności Gödla, które dowodzą, że nie można stworzyć żadnego znaczącego systemu matematyki, który byłby zarówno spójny, jak i kompletny. Nauka byłaby ograniczona przez niekompletność właściwą matematyce aksjomatycznej. Tak więc, na podstawie naszej obecnej wiedzy, wydaje się, że istnieje wiele przeszkód uniemożliwiających nam kiedykolwiek osiągnięcie celu, jakim jest absolutna kompletność w nauce. Być może rozwój nauki przyszłości zmieni ten obraz, ale w tej chwili wydaje się to mało prawdopodobne. Żyjemy w realnym świecie, a nie w platońskim świecie idealnych ideałów. Jednak nie jest wykluczone, że pewnego dnia w odległej przyszłości nauka będzie w miarę kompletna w bardziej pragmatycznym sensie, dostarczając "wiedzy roboczej" o wszystkich rzeczach, które możemy wykryć. Musimy zaakceptować, że nasze pomiary nigdy nie mogą być doskonałe - zawsze będą niepewności. Musimy również zaakceptować fakt, że istnieją praktyczne ograniczenia mocy naszych obiektów obserwacyjnych i eksperymentalnych. Nadal możemy być przytłoczeni złożonością życia. Nie ma możliwości uniknięcia ograniczeń nałożonych przez zasadę niepewności. Teorie, bez względu na to, jak dobrze zostaną potwierdzone, w zasadzie zawsze pozostaną tymczasowe, ponieważ zawsze istnieje możliwość, że niektóre przyszłe pomiary mogą się z nimi nie zgadzać, wymuszając modyfikację lub nawet radykalną zmianę. Będziemy musieli pogodzić się z faktem, że nasze teoretyczne koncepcje i modele świata subatomowego, jakkolwiek udane, mogą nie być jedyne w swoim rodzaju; są one przecież tylko narzędziami koncepcyjnymi, które umożliwiają nam dokonywanie skutecznych przewidywań. To jest prawdziwy świat i staramy się jak najlepiej zrozumieć, co w nim jest i jak to wszystko działa. Przeszliśmy już długą drogę w tym kierunku, z fizyką newtonowską i einsteinowską, która ma zastosowanie zarówno na Ziemi, jak i we wszechświecie, mechaniką kwantową, która stanowi podstawę całej chemii i rewolucji elektronicznej, Modelem Standardowym fizyki cząstek elementarnych, który wyjaśnia wszystkie eksperymentalne wyniki światowych akceleratorów cząstek oraz zrozumienie ewolucji wszechświata, ewolucji życia i genetycznych podstaw życia. Kto wie, jak daleko zaprowadzi nas ta droga?


Rozwój nauki


Od prehistorii do dalekiej przyszłości (39)


Co pozostaje do odkrycia?

Żartowano, że "Trudno przewidywać, zwłaszcza co do przyszłości". To, że możemy teraz z dużą dokładnością przewidywać ruchy planet i właściwości gwiazd na przestrzeni tysięcy i miliardów lat, nie oznacza, że możemy przewidzieć, co wydarzy się w przyszłym roku na Ziemi. To naprawdę bardzo otrzeźwiające pomyśleć, jak niewiele możemy przewidzieć na temat przyszłości naszego życia lub ludzkiego rozwoju, w tym nauki. Paleofuturologia zajmuje się badaniem przewidywań z przeszłości dotyczących przyszłości, a Internet jest zaśmiecony przewidywaniami, które się sprawdziły lub się nie sprawdziły. Jules Verne był prawdopodobnie najbardziej utytułowanym futurologiem, być może dlatego, że dużo czytał i poddawał swoje pomysły krytyce ekspertów. I równie dobrze może być trudniej przewidywać nowe osiągnięcia naukowe niż nowe osiągnięcia technologiczne. Futurolog Michio Kaku powiedział, że "Obstawianie przeciwko przyszłości jest bardzo niebezpieczne". Lord Kelvin jest prawdopodobnie najbardziej znaną osobą, która oświadczyła, że "latające maszyny cięższe od powietrza są niemożliwe", co zrobił w 1895 roku, zaledwie 8 lat przed tym, jak bracia Wright udowodnili, że się mylił. Inny słynny cytat pochodzi od samego Einsteina, który w 1932 r. twierdził, że "Nie ma najmniejszego wskazania, że energia jądrowa będzie kiedykolwiek dostępna". Pisarze science fiction nie przewidzieli Internetu, który jest prawdopodobnie największym osiągnięciem technicznym ostatniego półwiecza. Mniej znane są "obiecujące dziedziny radioastronomii" podkreślone przez wybitnego australijskiego astronoma radiowego Joe Pawseya w 1962 roku, u szczytu ery nowych odkryć w tej dziedzinie. Były to zjonizowane gazy widoczne w absorpcji, polach magnetycznych w przestrzeni międzygwiazdowej, rozbłyskach słonecznych i liczbie źródeł radiowych, które do tego czasu były dość prozaiczne. Całkowicie nieprzewidziane były główne odkrycia - kwazary, tło mikrofalowe, masery międzygwiazdowe i pulsary - które miały miejsce w ciągu następnych 5 lat! I znowu, pod koniec XIX wieku pojawiły się straszne stwierdzenia, że fizyka dobiega końca - tuż przed rewolucją kwantową i teorią względności. Mając na uwadze takie przykłady, większość naukowców, co zrozumiałe, niechętnie ryzykuje jakiekolwiek domysły dotyczące przyszłego rozwoju poza zaledwie kilka najbliższych lat. Trzeba więc bardzo ostrożnie podchodzić do ekstrapolacji i przewidywań, nawet na następne dziesięciolecia, nie mówiąc już o wiekach. W tej chwili fundamentalna fizyka wydaje się przeżywać kryzys. Pomimo ogromnego sukcesu Modelu Standardowego (SM) fizyki cząstek elementarnych, fizycy z niecierpliwością poszukują jakichkolwiek dowodów "nowej fizyki" poza SM. Odkrycie bozonu Higgsa w Wielkim Zderzaczu Hadronów (LHC) w CERN w 2012 roku zwycięsko zablokowało SM, ale teraz, po kilku kolejnych latach działania, nie wykryto żadnej nowej cząstki i nie ma śladu niczego nieoczekiwanego; SM nadal wyjaśnia wszystkie wyniki. Ponadto istnieje poważny problem: niewielka masa bozonu Higgsa. Ta masa, 125 GeV, zgadza się z latami pośrednich dowodów, więc nie było to samo w sobie zaskoczeniem. Ale mechanika kwantowa przewiduje wartość, która jest tysiące bilionów razy większa. Najpopularniejszą propozycją pogodzenia małej obserwowanej wartości z ogromną wartością przewidywaną przez mechanikę kwantową była supersymetria, w której każda cząstka ma bliźniaczkę, która wnosi przeciwne warunki do masy bozonu Higgsa, co skutkuje niemal anulowaniem i małą masą dla Higgsów. To dostrojenie jest wymagane, aby atomy (i życie) istniały w naszym wszechświecie. Ale jak dotąd w danych LHC nie znaleziono żadnych dowodów na supersymetrię lub inne podobne propozycje, które pozostają całkowicie wyjaśnione przez samą SM. Przypomina to problem, który pojawił się w kosmologii obserwacyjnej w 1998 roku. Porównując supernowe w bliskim i odległym wszechświecie, odkryto, że tempo ekspansji wszechświata przyspiesza. Przyczyna tego przyspieszenia jest nieznana; w naszej ignorancji nazwano ją "ciemną energią", która ma odpychającą siłę w całym wszechświecie. Teoria kwantowa mówi nam, że "pusta przestrzeń" jest w rzeczywistości pełna losowych "wahań próżni", które mogą wywołać właśnie takie odpychanie, z wyjątkiem tego, że ta energia kwantowa jest 10120razy większa niż wskazują na to obserwacje odległych supernowych. Przy tej ogromnej wartości we wszechświecie nigdy nie powstałyby żadne galaktyki. Podobnie jak w przypadku bozonu Higgsa, oczekiwano, że ta ogromna wartość może zostać sprowadzona dokładnie do zera przez nieznaną jeszcze symetrię, która się znosi, ale teraz wykryto ciemną energię, która nie jest ani zerem, ani ogromną wartością kwantową. , stanowi poważny problem dla teorii kwantowej. Ponownie wydaje się, że aby galaktyki i życie we wszechświecie istniały, konieczne jest nadzwyczajne dostrojenie. Oprócz tych dwóch bardzo uderzających przypadków istnieje kilka innych "zbiegów okoliczności" we właściwościach naszego wszechświata, które również wydają się być niezbędne do istnienia gwiazd, galaktyk i życia. Należą do nich niewielkie niejednorodności we wczesnym Wszechświecie, fakt, że nasz Wszechświat ma trzy wymiary przestrzeni i jeden czas, obecny wiek Wszechświata, stosunek ciemnej materii do ciemnej energii, siła grawitacji w stosunku do innych siły, stosunek sił elektromagnetycznych i silnych, siła oddziaływania słabego, stosunek mas neutronów do protonów oraz istnienie krytycznego stanu wzbudzonego w jądrze węgla. Wszystko to razem sprawia wrażenie, że nasz wszechświat może być dostrojony w sposób pozwalający na istnienie gwiazd, galaktyk i życia, jakie znamy. Fred Hoyle powiedział, że to wszystko jest tak nieprawdopodobne, aby wszechświat wydawał się "dorabianiem", a kilku innych naukowców stwierdziło, że wymaga to specjalnego wyjaśnienia. Ulubionym wyjaśnieniem jest "zasada antropiczna": możemy istnieć tylko we wszechświecie, który umożliwił nam istnienie. Brzmi to jak zwykła tautologia, ale została posunięta dalej. Różne niezależne kierunki badań w ciągu ostatnich kilku dekad doprowadziły do koncepcji, że nasz wszechświat może być tylko jednym z wielu wszechświatów w ogromnym (być może nieskończonym) "wieloświecie". Koncepcja kosmicznej inflacji wprowadzona przez Alana Gutha w 1979 r. doprowadziła do koncepcji n nieskończonego i wiecznego morza wszechświatów, które nieustannie powstają w różnym czasie - nadmuchując regiony, z których każdy ostatecznie staje się oddzielnym wszechświatem. Różne wszechświaty mogą mieć różne prawa fizyki i różne właściwości. Każde z 10500 możliwych rozwiązań teorii strun może zostać zrealizowane w różnych wszechświatach multiwersu. A zgodnie z interpretacją mechaniki kwantowej "wielu światów" wszystko, co może się zdarzyć, dzieje się w lesie równoległych wszechświatów. Zasugerowano, że koncepcja wieloświata może stanowić wyjaśnienie pozornych "zbiegów okoliczności" i dostrojenia wspomnianych powyżej. Jeśli różne wszechświaty mają różne właściwości i prawa fizyki, to mógłby istnieć podzbiór, który miałby warunki wymagane do życia, jakie znamy. Skoro tu jesteśmy, nasz wszechświat musi być jednym z nich. Inne wszechświaty leżą poza naszym horyzontem przyczynowym, więc nigdy nie możemy ich wykryć. Dla niektórych naukowców wieloświat jest atrakcyjną hipotezą. Dla innych wydaje się to nienaukowe, jeśli nigdy nie będzie można uzyskać dowodów doświadczalnych lub obserwacyjnych żadnego z innych wszechświatów (dla nich istnieje tylko jeden wszechświat - nasz - i oczywiście musi on mieć odpowiednie warunki, ponieważ w przeciwnym razie nie byłoby nas tutaj). W koncepcji multiwersu prawa fizyki i własności naszego wszechświata byłyby przypadkowe - tylko ze względu na "warunki pogodowe" w naszym lokalnym skrawku multiwersu - a zatem poza zrozumieniem. Wydawałoby się, że to koniec fizyki. Wszystko to podkreśla znaczenie LHC i poszukiwanie dowodów "nowej fizyki" poza Modelem Standardowym. W miarę jak LHC osiąga coraz wyższe energie, tysiące fizyków ślęczą nad ogromnymi ilościami wytwarzanych danych, z niepokojem wypatrując pierwszych wskazówek "nowej fizyki". To ekscytujący, choć napięty czas na fizykę. Poza problemami opisanymi powyżej, co jeszcze mogłoby motywować do istotnych zmian w naszym modelu fizyki fundamentalnej? Po pierwsze, istnieją różne powody, by uważać SM za niezadowalające pomimo jego niezwykłych sukcesów: jego liczne parametry i cząstki (w naszych teoriach fizycznych poszukuje się jak największej oszczędności), prawdopodobna niestabilność elektrosłabej próżni, masy neutrina, nienaturalna hierarchia skal masy, niemożność wyjaśnienia przewagi materii nad antymaterią w naszym wszechświecie oraz niemożność wyjaśnienia ciemnej materii we wszechświecie. Jednym z możliwych przyszłych kroków byłoby zjednoczenie sił elektrosłabych i silnych w "Teorię Wielkiej Zunifikowanej". Wspomniana powyżej supersymetria złagodziłaby również niektóre z obecnych problemów z SM, byłaby naturalnym kandydatem na zimną ciemną materię i może odgrywać istotną rolę w opisanej poniżej teorii strun. Ale dużym krokiem byłoby uwzględnienie samej siły grawitacji. Jest to bardzo trudne, ponieważ teoria grawitacji Einsteina obejmuje płynne zmiany przestrzeni i czasu, przeciwieństwo nagłej dyskrecji fizyki kwantowej. W ciągu ostatnich kilkudziesięciu lat wielu teoretyków zwróciło uwagę na nową koncepcję teoretyczną: teorię strun, według której najbardziej fundamentalnymi bytami są "struny" w 11-wymiarowej przestrzeni. Niezliczone cząstki są po prostu manifestacją różnych wzorców wibracyjnych, które mogą wytworzyć struny. Ogromne znaczenie ma fakt, że teoria strun może prawdopodobnie zjednoczyć mechanikę kwantową i grawitację w jedną wielką "teorię wszystkiego". Ma jednak kilka problemów, w tym nadmierną liczbę rozwiązań i brak dowodów eksperymentalnych, i nie wszyscy uważają, że idzie w dobrym kierunku. Ostatnio na pierwszy plan wysunęła się nowa, ekscytująca i być może rewolucyjna idea. Splątanie kwantowe, które wydaje się być niezależne od przestrzeni i czasu, może w rzeczywistości być głębszym i jeszcze bardziej podstawowym aspektem rzeczywistości, dając początek samej czasoprzestrzeni jako zjawisku emergentnemu. Splątanie może być konieczne, aby zaistniała przestrzeń i czas, łącząc je w gładką czasoprzestrzeń i zapewniając kwantową teorię grawitacji. W tej chwili jest to wysoce spekulacyjne, ale setki fizyków są teraz zaangażowane i nastąpił znaczny postęp. To są gorące dni dla fizyki teoretycznej. Poszukiwania ciemnej materii trwają od dziesięcioleci i wciąż pojawiają się z pustymi rękami. XENON1T w pobliżu tunelu Gran Sasso we Włoszech i PandaX w Syczuanie w Chinach są odpowiednio największymi i najgłębszymi podziemnymi obiektami eksperymentalnymi na świecie, a oba wykazały negatywne wyniki pod koniec 2017 r. Eksperymenty w CERN i kilku innych laboratoriach oraz obserwacje za pomocą teleskopów kosmicznych nie znaleźli również żadnych śladów ciemnej materii. Najpopularniejszą propozycją, wysuniętą w latach 80., było to, że ciemna materia może być słabo oddziałującymi, masywnymi cząstkami zwanymi WIMP, ale wydaje się to obecnie wątpliwe, a teoretycy zastanawiają się nad innymi możliwymi kandydatami, być może aksionami (podobnymi do masywnych fotonów). Innymi, znacznie mniej popularnymi możliwościami jest to, że ciemna materia może istnieć w "ukrytym sektorze" i nie wchodzić w interakcje z normalną materią lub że ciemna materia w ogóle nie istnieje, przy czym dynamiczne efekty obserwowane w galaktykach i gromadach galaktyk są wyjaśniane przez modyfikacje praw grawitacji (mało prawdopodobne, biorąc pod uwagę to, co wiemy o wielkoskalowych właściwościach wszechświata, i niepopularne, ponieważ fizycy nie chcą majstrować przy prawach fizyki). Poszukiwania trwają. Wielkie pytania w kosmologii i astronomii pokrywają się z tymi z fizyki fundamentalnej, ponieważ bardzo wczesny wszechświat był bardzo mały, gorący i gęsty, składał się z cząstek elementarnych i pól siły, a jego możliwe pochodzenie (i cała koncepcja wieloświata) jest tematem w obu dyscyplinach. Podczas gdy inne wszechświaty w multiwszechświecie (jeśli istnieją) nie byłyby obserwowalne, możliwe jest znalezienie dowodów na inflację we wczesnym wszechświecie, taką jak polaryzacja w kosmicznym tle mikrofalowym. I być może inne wskazówki co do możliwego istnienia wieloświata mogłyby w końcu znaleźć się w naszym własnym wszechświecie (sugerowano nawet, że niezwykle chłodny obszar CMB może być "siniakiem" w naszym wszechświecie powstałym w wyniku zderzenia z innym wszechświatem ), ale w tej chwili pozostaje to wysoce spekulacyjne. Ciemna materia i ciemna energia to również nakładające się tematy fizyki fundamentalnej, kosmologii i astronomii. Coraz lepsze wyznaczanie parametrów kosmologicznych na podstawie obserwacji mikrofalowego tła i rozmieszczenia interweniującej materii może dostarczyć ważnych wskazówek. Odkryte niedawno fale grawitacyjne z połączenia podwójnych gwiazd neutronowych umożliwiły określenie bezwzględnej odległości od źródła, a tym samym tempa rozszerzania się Wszechświata, bez użycia chwiejnej kosmologicznej "drabiny odległości". Niedługo może stać się również możliwe bezpośrednie obserwowanie przyspieszenia ekspansji Wszechświata, wykorzystując superduże teleskopy niedalekiej przyszłości do precyzyjnych obserwacji linii absorpcyjnych w widmach kwazarów (obecnie dowody na przyspieszenie są pośrednie). , z obserwacji odległych supernowych). Ewolucja wszechświata od Wielkiego Wybuchu do chwili obecnej jest mapowana z coraz większą klarownością. Kosmiczne tło mikrofalowe (CMB), które dostarczyło tak wielu informacji kosmologicznych, jest postrzegane jako 380 000 lat po Wielkim Wybuchu. Po tej epoce wszechświat przeszedł przez okres zwany kosmologicznym ciemnym wiekiem, kiedy materia była neutralna i nie emitowała światła. Stopniowo materia stawała się coraz bardziej skoncentrowana w gęstych obszarach, w których ostatecznie uformowały się pierwsze gwiazdy i galaktyki i ponownie oświetliły wszechświat. Ta faza przejściowa nazywana jest epoką rejonizacji i miała miejsce, gdy wszechświat miał kilkaset milionów lat. Możemy zobaczyć "bliską stronę" epoki rejonizacji z gwałtownego spadku liczby kwazarów i galaktyk, patrząc wstecz od teraźniejszości do tamtych czasów. Epoka rejonizacji to ostatnia granica astronomii klasycznej i główny cel dla następnej generacji dużych naziemnych teleskopów optycznych i radiowych, które są obecnie opracowywane, a także Kosmicznego Teleskopu Jamesa Webba (JWST).Powinno być możliwe badanie pierwszych gwiazd i galaktyk w bliskiej podczerwieni, a także neutralnego wodoru z ciemnego wieku na długich falach radiowych (ostatnio zgłoszone wstępne odkrycie za pomocą małego radioteleskopu, jeśli zostanie potwierdzone, byłoby ważnym odkryciem ). Nieregularności w neutralnym wodorze ciemnych wieków, jeśli można je zmapować, mogą dostarczyć ważnych informacji kosmologicznych, uzupełniających te z CMB. Jak wspomniano wcześniej, ważne nowe okno we wszechświecie właśnie zostało otwarte wraz z pierwszym wykryciem fal grawitacyjnych w 2015 roku -zniekształceniami samej czasoprzestrzeni spowodowanymi połączeniem dwóch supermasywnych czarnych dziur. Te czarne dziury są tak masywne (około 30 mas Słońca), że uważa się, że mogą być pozostałościami niektórych z pierwszych gwiazd we wszechświecie. Tak więc nowa dziedzina astronomii fal grawitacyjnych rzuci światło na astrofizykę zapadniętych gwiazd, populację masywnych czarnych dziur i implikacje dla epoki pierwszych gwiazd, a być może nawet samego Wielkiego Wybuchu. Kolejnym nowym oknem na wszechświat jest astronomia neutrin. Jak wspomniano, obecnie ukończone są ogromne nowe obserwatoria neutrin, a w nadchodzących latach można spodziewać się nowych, ekscytujących wyników. Gwałtownie rozwijającą się dziedziną astronomii są planety pozasłoneczne. Od czasu pierwszego odkrycia w 1995 roku istnieje obecnie ponad 3700 znanych planet poza naszym Układem Słonecznym, krążących wokół innych gwiazd. Uważa się, że liczba planet w naszej galaktyce może przekraczać liczbę gwiazd, więc w naszej galaktyce mogą znajdować się setki miliardów planet. Charakterystyki tych planet pozasłonecznych są badane coraz bardziej szczegółowo - ich orbity, masy, a nawet skład chemiczny ich atmosfer. Szczególnie interesujące są te, które leżą w "strefie nadającej się do zamieszkania" - w zakresie odległości od gwiazdy macierzystej, która jest "właściwa" na całe życie - ani za gorąco, ani za zimno. W naszym układzie słonecznym tylko Ziemia i Mars leżą w strefie nadającej się do zamieszkania. Tak więc badanie planet pozasłonecznych ma duże znaczenie dla rozważań nad możliwością istnienia życia w innym miejscu we wszechświecie. Jednocześnie trwają poszukiwania śladów możliwego życia pozaziemskiego w naszym Układzie Słonecznym, być może na Marsie lub księżycach planet olbrzymów. Wielkie pytanie brzmi: "Czy jesteśmy sami we wszechświecie?" W naszym Układzie Słonecznym najbardziej prawdopodobne ciała, na których można znaleźć życie pozaziemskie, to Mars i niektóre księżyce Jowisza i Saturna. To życie prawdopodobnie byłoby mikroskopijne (wciąż nie wiemy dokładnie, jak zdefiniować życie), ale jego odkrycie miałoby jednak ogromne znaczenie. Jednym z podstawowych pytań byłoby, czy ma taką samą chiralność ("leworęczność" lub "praworęczność") jak życie na Ziemi. Wszystkie formy życia na Ziemi mają tę samą chiralność: DNA jest zawsze prawoskrętne, a aminokwasy zawsze lewoskrętne. Jeśli życie pozaziemskie jest pod tym względem inne, dowodziłoby to, że powstało niezależnie od życia na Ziemi, co tym bardziej zwiększa prawdopodobieństwo, że życie uformowało się we wszechświecie - że wszechświat tętni życiem. Jedno z bardzo ważnych pytań w biologii pokrywa się z astronomią - pochodzenie życia. W astronomii nie tylko badamy same szybko proliferujące egzoplanety, ale możemy również badać rzeczywiste procesy powstawania planet. Gigantyczne radioteleskopy, w szczególności Atacama Large Millimetre/Submillimetre Array (ALMA), mogą zajrzeć głęboko w osłonięte pyłem jądra obszarów powstawania gwiazd z wysoką rozdzielczością i czułością. Na obrazach dysków protoplanetarnych wyraźnie widać luki spowodowane formowaniem się planet, a spektroskopia ujawnia tysiące linii widmowych z cząsteczek organicznych - możliwych zarodków przyszłego życia na nowo powstających planetach. ALMA działa dopiero od 2013 roku, a w nadchodzących latach możemy spodziewać się wielu ważnych odkryć. Jak życie na wczesnej Ziemi wyłoniło się z chemii abiotycznej, pozostaje tajemnicą. Odkryto skamieniałe zapisy życia, które istniały 3,5 miliarda lat temu, a sama Ziemia uformowała się 4,6 miliarda lat temu, więc gdzieś w ciągu miliarda lat życie w jakiś sposób mogło się uformować. Eksperymenty laboratoryjne odtwarzały prawdopodobne warunki w tym czasie; udało im się stworzyć aminokwasy - niektóre z elementów budulcowych życia - ale nie samo życie. Prowadzone są szczegółowe badania nad możliwymi sposobami, w jakie molekuły prebiotyczne mogły się łączyć, tworząc żywe systemy, ale jest to skomplikowana sprawa, a postęp jest powolny. Alternatywnym podejściem jest próba samodzielnego stworzenia życia - "sztucznego życia". Wtedy rzeczywisty sposób, w jaki pierwotnie uformowało się życie na wczesnej Ziemi, byłby tylko kwestią historii, a nie fundamentalnej nauki. Możliwe było stworzenie syntetycznego DNA z "gotowych" substancji chemicznych i zbadano sposoby "samoorganizacji" błon komórkowych, ale te etapy, choć ważne, wciąż są bardzo dalekie od wytworzenia kompletny system mieszkaniowy od podstaw. Niemniej optymiści w tej dziedzinie uważają, że prawdziwe sztuczne życie może w końcu powstać w laboratorium. Wielkie pytanie w biologii komórki nie zmieniło się od wielu dziesięcioleci: co jest między genomem a fenotypem (obserwowane cechy organizmu), tj. czym jest "epigenotyp"? To ogromne pytanie, naprawdę wiele pytań w jednym. Istnieje ogromna liczba kombinacji i sieci interakcji i warstw, które przekazują informacje z genomu do fenotypu. W przeciwieństwie do przypadku sekwencjonowania ludzkiego genomu, który miał ustalony punkt końcowy, nie mamy jasnego wyobrażenia o możliwych wynikach wielu obecnych kierunków badań. Gdy dowiadujemy się więcej, odkrywamy coraz więcej zawiłości. Aby wyleczyć raka i inne choroby, musimy najpierw zrozumieć epigenotyp, a to może zająć trochę czasu. Takie choroby są ostatecznie spowodowane przez podstawowy proces samego starzenia, który powoli zaczyna być rozumiany. Postęp w zrozumieniu starzenia się pomoże we wszystkim innym i być może pewnego dnia umożliwi odwrócenie skutków starzenia, przynajmniej w przypadku niektórych z 200 rodzajów tkanek w naszych ciałach. Gwałtowny rozwój biologii zaowocował szeroką gamą nowych tematów, które są obecnie badane. Jednym z fascynujących pytań jest to, jak my, ludzie, ewoluowaliśmy, by tak bardzo różnić się od innych zwierząt. Liczba genów w naszym genomie jest znacznie mniejsza niż pszenicy, a nasze mózgi są tylko trzy razy większe od mózgów szympansów. Jak więc wytłumaczyć naszą znacznie lepszą siłę umysłu? Oczywiście nie chodzi o rozmiar genomu czy mózgu. Wydaje się, że najprawdopodobniej wynika to ze znacznie zwiększonej złożoności interakcji i modulacji ekspresji genów. Dostępność kompletnych sekwencji genomów współczesnych ludzi, ludzi archaicznych, szympansów oraz kilku innych zwierząt i organizmów otworzyła całe pole ewolucji różnicowej. Stwierdzono, że istnieją sekwencje DNA, które są zachowane u innych zwierząt, ale u ludzi uległy szybkim zmianom; są to tak zwane ludzkie regiony przyspieszone (HAR). Są ich tysiące; zamieszkują regiony genomu zwane wcześniej "śmieciowym DNA" i prawie wszystkie z nich są "wzmacniaczami", które modulują ekspresję genów. Być może więc ewolucja naszego ogromnego potencjału umysłowego mogła wynikać z HAR i ich zdolności do tworzenia systemów o wielkiej złożoności. Zostały odkryte zaledwie 10 lat temu, a ta ekscytująca dziedzina szybko się rozwija. Nowe narzędzia powstają niemal tak szybko, jak nasza znajomość biologii molekularnej. CRISPR został uznany za przełom roku 2015 przez Amerykańskie Stowarzyszenie na rzecz Postępu Nauki, a teraz mówi się o możliwości "medycyny precyzyjnej" w przyszłych latach. Jednym z przełomowych zastosowań CRISPR jest możliwość oznaczania i śledzenia historii każdej komórki w organizmie. CRISPR został również ostatnio wykorzystany do stworzenia syntetycznej komórki, która zawiera najmniejszy genom ze wszystkich znanych, niezależnych organizmów, funkcjonujący i reprodukujący się z zaledwie 473 genami. Ostatecznym celem jest zbudowanie od podstaw jak najmniejszego genomu, aby można było zrozumieć funkcję każdego genu; wtedy można zaprojektować i zbudować bardziej złożone systemy mieszkalne, mając pewność co do ich funkcji. Zupełnie inny rodzaj postępu technicznego umożliwia badanie i stymulację pojedynczych neuronów w mózgu, a innym postępem naukowcom udało się ostatnio precyzyjnie zmierzyć aktywność setek neuronów jednocześnie, otwierając zupełnie nowe pole - badanie czynnościowej aktywności neuronalnej w czasie rzeczywistym. Wciąż ogłaszane są nowe odkrycia, a to bardzo ekscytujący czas we wszystkich tych dziedzinach. Ale głównym tematem biologii pozostaje "Jak działają systemy?" To jest źródło prawie wszystkich wielkich pytań w biologii, w tym epigenotypu, i jest to ogromne wyzwanie. Jak działa metabolizm jako system, w jaki sposób łączy się ze środowiskiem i genomem, w jaki sposób umożliwia doborowi naturalnemu wpływanie na zmiany, jaki ma to związek z chorobą? Próbowano różnych strategii, ale daleko im do głównego celu długoterminowego, jakim jest zrozumienie podstawowych sygnatur wszelkiego rodzaju złożonych systemów. Opracowuje się coraz więcej narzędzi i rozwija się wiedza, ale problemy pozostają zniechęcające. Jest wiele do zrobienia i podejmowane są różne podejścia, a my nie mamy pojęcia, jakie odkrycia, zwroty akcji i zwroty w tej dziedzinie będą w przyszłości. Tak więc we wszystkich trzech dziedzinach rozważanych powyżej - fundamentalnej fizyce, astronomii i kosmologii oraz biologii - pozostają głębokie i głębokie tajemnice i możemy oczekiwać ekscytujących odkryć i postępów naukowych w nadchodzących latach i dziesięcioleciach. Ale czy możemy zgadywać na podstawie wiedzy, co do długoterminowego rozwoju nauki? Martin Harwit próbował to zrobić dla stosunkowo dobrze zdefiniowanej dziedziny astronomii w swojej książce z 1981 r. Cosmic Discovery. Astronomia jest szczególnie podatna, ponieważ opiera się na czystych obserwacjach przy użyciu niewielkiej liczby okien obserwacyjnych (nauka eksperymentalna byłaby znacznie trudniejsza, ponieważ warunki i parametry są nieskończenie zmienne). Harwit rozważał "wielowymiarową przestrzeń parametrów obserwacji", w której "odkrycie" jest zjawiskiem, które jest oddzielone od innych co najmniej tysiąckrotnie w dowolnym z parametrów. Harwit podaje szereg przykładów, aby pokazać, że to kryterium rzeczywiście rozróżnia różne znane zjawiska. Harwit zauważa, że takie zjawiska były czasami odkryte dwukrotnie na dwa całkowicie niezależne sposoby przy użyciu dwóch oddzielnych instrumentów, które różnią się co najmniej tysiąckrotnie w jednej ze swoich zdolności obserwacyjnych. Sugeruje, że takie duplikacje mogą wskazywać, że liczba potencjalnych odkryć w wielowymiarowej przestrzeni parametrów jest skończona, a odkrycie większej liczby duplikacji (i triplikacji) może dać nam sposób na oszacowanie całkowitej liczby potencjalnych odkryć w całym wielowymiarowym parametrze przestrzeń - oszacowanie całkowitej liczby zjawisk kosmicznych, które można odkryć. Korzystając z tego pomysłowego podejścia i danych, które miał w tamtym czasie, Harwit oszacował, że całkowita liczba potencjalnych odkryć wynosi około 130, a do tego czasu znaleźliśmy już jedną trzecią z nich (1981). To oczywiście tylko prymitywne oszacowanie iz pewnością mogą być krytycy, ale koncepcja jest intrygująca.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (38)


Czy obecne tempo nauki będzie kontynuowane?

Krótki przegląd historii nauki ujawniły kilka odrębnych okresów: niezwykle długi okres powolnego rozwoju paleolitu, powstawanie miast, miast i cywilizacji, "cud grecki", który wprowadził pojęcie przyczyn w przyrodzie, okresy islamu i średniowiecza, rewolucja naukowa, która zrodziła się z tradycję grecką i ustanowioną nowoczesną naukę, a także kilka ostatnich stuleci gwałtownego wzrostu w nauce. Z pewnością znajdujemy się teraz w wysokim punkcie historii nauki. Ale czy to wykładnicze tempo wzrostu utrzyma się w przyszłości? Pojęcie postępu ma dziś kluczowe znaczenie dla naszego światopoglądu. Cały czas oczekujemy nowej nauki i nowych technologii: ulepszeń we wszystkim i na bieżąco. To bardzo nowe zjawisko. Czy zawsze tak będzie w przyszłości? Z pewnością nie było to w przeszłości. Większość naszych przodków żyła z dnia na dzień, mając jedynie nadzieję, że jutro będzie takie jak dzisiaj. Nauka jest obecnie integralną częścią samej tkanki naszego społeczeństwa. Nauka i technologia są ze sobą ściśle powiązane i razem dały nam standard życia znacznie wyższy, niż można było sobie wyobrazić w poprzednich stuleciach. Choć korzenie współczesnej nauki są europejskie, to jest ona szybko adoptowana przez wszystkie kultury świata, ponieważ jej zalety są tak oczywiste. Najbardziej znaną adaptacją "Zachodniej nauki" była japońska restauracja Meiji z końca XIX wieku. W ciągu dziesięcioleci Japonia przeszła od społeczeństwa rolniczego do nowoczesnego przemysłowego; do lat czterdziestych XX wieku była w stanie konkurować militarnie z samymi mocarstwami zachodnimi, a do lat sześćdziesiątych była jedną z głównych potęg gospodarczych świata. Wzrost Chin jest jeszcze bardziej niezwykły; wyłonił się ze zniszczeń spowodowanych przez rewolucję kulturalną pod koniec lat 70., a jego PKB wynosi obecnie 60% PKB USA. Inne szybko rozwijające się kraje dokonują dziś transformacji. W rezultacie sama nauka staje się przedsięwzięciem ogólnoświatowym, a coraz więcej naukowców i inżynierów powiększa pulę talentów, a rozwój nauki jest dalej rozwijany. Prawdą jest jednak, że przeszliśmy już dość długą drogę od rewolucji naukowej, od niektórych z "wielkich pytań" z przeszłości do odpowiedzi. Zbadaliśmy daleko poza Układ Słoneczny, aż do początków wszechświata 13,8 miliarda lat temu. Fizyka newtonowska i einsteinowska wyjaśniają wydarzenia w największych skalach. Znaleźliśmy atom i studiowaliśmy fizykę w skalach miliony razy mniejszych. Mechanika kwantowa i Model Standardowy fizyki cząstek elementarnych wyjaśniają wydarzenia w świecie atomowym i subatomowym, stanowiąc podstawę elektryczności, chemii i nowoczesnej elektroniki. Rozumiemy dryf kontynentalny. Odkryliśmy genetyczne podstawy życia i wyjaśniliśmy, w jaki sposób życie ewoluuje. Wydaje się, że pod koniec XX wieku kilka ważnych pytań zostało "zamkniętych". Przy tak monumentalnym postępie można się zastanawiać, ile jeszcze zostało do zrobienia. Ale podobne poglądy były wyrażane pod koniec XIX wieku. Odradzano studentom zagłębianie się w fizykę, ponieważ wszystko zostało już zrobione. W 1874 r. Philipp von Jolly, profesor fizyki na Uniwersytecie w Monachium, odradzał Maxowi Planckowi zagłębianie się w fizykę, mówiąc, że "Prawie wszystko jest już odkryte, a pozostaje tylko zapełnić kilka dziur". W 1894 roku Albert Michelson powiedział, że "wszystkie ważniejsze fundamentalne prawa i fakty nauk fizycznych zostały odkryte…Naszych przyszłych odkryć należy szukać w szóstym miejscu po przecinku", a w 1900 roku William Thomson (Lord Kelvin) ogłosił, że "Obecnie w fizyce nie ma nic nowego do odkrycia. Pozostaje tylko coraz dokładniejszy pomiar." Byli to poważni profesjonalni naukowcy i nie żartowali. Ale wkrótce potem, w 1900 i 1905, Planck i Einstein napisali swoje przełomowe artykuły, które doprowadziły do mechaniki kwantowej, wszechświata zakrzywionej czasoprzestrzeni i bomby atomowej. W porównaniu z końcem XIX wieku, w chwili obecnej istnieje wiele pytań i pomysłów na przyszły postęp, które podsumowano poniżej, więc przyszłość nauki z pewnością nie wygląda ponuro. Jest jednak kilka praktycznych aspektów, których ostatecznie nie da się uniknąć. Duże projekty w nauce, zwłaszcza w fizyce cząstek elementarnych i astronomii, stają się zbyt drogie, aby poszczególne kraje mogły sobie na nie pozwolić; słynnym przykładem był Superconducting Super Collider w USA, który miałby trzykrotnie większą energię zderzenia niż LHC, ale został odwołany w 1993 roku, ponieważ przewidywany koszt wzrósł do 12 miliardów dolarów (w 1993 roku!). Nawet przy współpracy międzynarodowej niektóre przyszłe projekty staną się tak drogie, że nigdy nie zostaną zbudowane. A drogie projekty konkurują z wieloma tańszymi dziedzinami nauki, wymagając trudnych wyborów między różnymi dziedzinami nauki. Kolejnym ograniczeniem jest liczba naukowców, których populacja jest skłonna wspierać. Ponieważ tempo wzrostu liczby naukowców znacznie przekracza tempo wzrostu całej populacji, istnieje oczywiście pewna górna granica liczby naukowców, którą społeczeństwo byłoby gotowe wspierać. Tak więc, chociaż nadal istnieją ekscytujące perspektywy dla nauki, stroma krzywa wzrostu teraźniejszości prawdopodobnie będzie musiała kiedyś się spłaszczyć w przyszłości. Czy kiedykolwiek będziemy się cofać (znowu)? Widzieliśmy, jak nauka wznosi się i upada trzy razy w ciągu ostatnich dwóch i pół tysiąca lat. We wszystkich trzech okazjach (w epoce greckiej, islamskiej i średniowiecznej) wzrost był szybki, po którym w końcu nastąpił spadek. Gwałtowny wzrost można wytłumaczyć nagłym pojawieniem się nowatorskiego i stymulującego sposobu myślenia, który pojawił się u wczesnych filozofów greckich w VI wieku p.n.e. i który został następnie wprowadzony wraz z nagłą falą tłumaczeń na arabski w imperium islamskim w VIII wieku po raz kolejny z falą tłumaczeń na łacinę i powstaniem uniwersytetów w średniowiecznej Europie w XII wieku. We wszystkich trzech przypadkach po ostrym wzroście nastąpił okres wielkiej aktywności w filozofii przyrody i myśli naukowej, a następnie upadek. Dlaczego ta działalność zniknęła w świecie greckim i islamskim, a gwałtownie spadła w średniowiecznej Europie? Przyczyna upadku filozofii greckiej po jej szczytowym okresie około 400 r. p.n.e. nie jest do końca jasna i prawdopodobnie nie jest prosta. Grecka filozofia przyrody była do pewnego stopnia tolerowana przez imperia rzymskie i bizantyjskie, ale z pewnością nie była przez nie rozwijana. Być może uważano, że mądrości starożytnych filozofów greckich nigdy nie da się przewyższyć i że wszystko, co można było powiedzieć, zostało już powiedziane. Chrześcijaństwo było głównym czynnikiem w późniejszych latach. Wielka Biblioteka Aleksandryjska została zniszczona, a Akademia Platońska w Atenach została ostatecznie zamknięta dekretem. Niezależnie od ostatecznych przyczyn, działalność greckiej filozofii przyrody zanikła, aż pozostały z niej nieme zwoje pism wielkich filozofów. Upadek Islamskiego Złotego Okresu Nauki po jego szczycie jest znacznie łatwiejszy do wyjaśnienia. Siły religijne stały się mniej tolerancyjne dla "zagranicznych" studiów, a wpływowe głosy, takie jak głos al-Ghazaliego, sprzeciwiały się filozofii Arystotelesa. Madrasy odrzuciły greckie klasyki i ograniczyły swoje programy nauczania do Koranu. Książki naukowe i medyczne zostały spalone przez Ulama. A świat arabski został zaatakowany przez krzyżowców i Mongołów; Bagdad został zniszczony przez Mongołów w 1258 roku, wraz ze słynną akademią naukową zwaną Domem Mądrości i jej cenną zawartością. Nauka islamska nigdy się nie podniosła. Gwałtowny spadek aktywności naukowej w średniowiecznej Europie w XIV wieku był prawie na pewno spowodowany zarazą znaną jako Czarna Śmierć w latach 1347-1350, która zabiła ponad jedną trzecią populacji. Trudno wyobrazić sobie gorszą katastrofę, powodującą ogromne zamieszanie i przemieszczenie. Ale aktywność intelektualna stopniowo odradzała się, prowadząc w końcu do renesansu i rewolucji naukowej. Można by pomyśleć, że współczesna nauka nigdy nie upadnie tak, jak filozofia przyrody i nauka w tych wcześniejszych okresach. Współczesna nauka, oprócz wyjaśniania nam świata, jest ilościowa i predykcyjna, a zatem ma ogromną wartość dla społeczeństwa. Jest ściśle powiązany z technologią i stanowi podstawę naszej nowoczesnej cywilizacji. Jest teraz tak głęboko wpleciona w samą tkankę naszej cywilizacji, że można by pomyśleć, że nie może zniknąć, chyba że zniknie cała nasza cywilizacja. Ale otrzeźwiająca jest myśl, jak krucha jest w rzeczywistości nasza wiedza. Wyobraź sobie, że za pomocą jakiejś magii cała zapisana wiedza na świecie (w tym wszystkie książki i media elektroniczne) zniknęła za jednym zamachem, a wszelkie nauczanie ustało. Nasza cywilizacja mogłaby trwać przez jakiś czas, ale wkrótce zaczęłaby się rozpadać. Gdyby trwało to wystarczająco długo (powiedzmy pięćdziesiąt lub sto lat), cała wiedza zgromadzona w minionych tysiącleciach zostałaby utracona. Ludzkość powróciłaby do egzystencji z epoki kamienia łupanego. Za sto lat. Oczywiście wydaje się to absurdalne, ale nie jest wykluczone, że coś takiego mogło się wydarzyć. Nie jest całkowicie nie do pomyślenia, że jakaś maniakalna osoba lub grupa przejmuje kontrolę nad lejcami władzy i uważa naukę za wroga. Całe biblioteki mogłyby zostać podpalone, a intelektualiści skazani na śmierć. Podobne rzeczy zdarzały się już wcześniej, nawet w niedawnej historii. Naziści spalili książki i dokonali straszliwego holokaustu; zniszczyli potencjał naukowy kraju, którego odbudowa zajęła dekady. Chińska "rewolucja kulturalna" zabiła dziesiątki milionów i zniszczyła całe pokolenie naukowców. Komuniści z Kambodży Czerwoni Khmerzy zabili ponad 20% populacji, wielu z nich było celowanych jako intelektualiści, ponieważ nosili okulary. Hitler, Mao Zedong i Pol Pot najwyraźniej do końca nie okazywali skruchy. Dziś radykalni fundamentaliści islamscy chcą zniszczyć cywilizację zachodnią i cofnąć świat do siódmego wieku. Można sobie wyobrazić, że w ciągu dziesięcioleci lub stuleci nauka może być zagrożona przez jakąś szaloną tyranię lub kult, chociaż fakt, że nauka rozprzestrzeniła się teraz na cały świat, zmniejsza prawdopodobieństwo, że szaleństwo w jednej części będzie katastrofalne dla reszta. Jak stabilna jest nasza cywilizacja? Praktycznie wszystkie cywilizacje przeszłości upadły i zniknęły. Najsłynniejsze jest oczywiście Imperium Rzymskie. Powtarzające się cykle wzlotów i upadków były powszechne przez tysiąclecia w Mezopotamii, Egipcie, Indiach, Azji Południowo-Wschodniej, Chinach, Afryce i obu Amerykach. Wielkie budowle, takie jak Angkor Wat w Kambodży i świątynie Majów w Ameryce Środkowej, były otoczone dżunglami i zaginęły na wieki. W wielu przypadkach populacje drastycznie spadły. Typowy cykl trwał setki lat. Przyczyny poważnych upadków były szeroko dyskutowane i obejmują zmiany klimatyczne, wydarzenia tektoniczne, problemy z wodą i glebą, migracje, wojny i inwazje, wyczerpywanie się zasobów, przeludnienie, choroby, upadek kulturowy i wojnę domową; nie ma jednego wyjaśnienia. Stratyfikacja gospodarcza może być głównym czynnikiem destabilizującym, a fakt, że 0,1% górnych Amerykanów ma tyle samo bogactwa, co dolne 90%, nie jest zbyt dobry (sami trzej najbogatsi mają łączny majątek w wysokości 1 biliona dolarów - więcej niż połowa cała populacja); to rozwarstwienie jest podtrzymywane i wzmacniane przez edukację, kontrolę i możliwości bogatych oraz skutki automatyzacji i offshoringu miejsc pracy dla ubogich. Kilka ostatnich książek omawia możliwość, że nasza współczesna cywilizacja globalna, która przetrwała już znacznie dłużej niż wiele innych, może upaść kiedyś w niezbyt odległej przyszłości, jeśli nie będziemy sobie z nią dobrze radzić. Napisano wiele książek o możliwości różnego rodzaju apokalipsy: nuklearnego holokaustu, zabójczej asteroidy lub komety, potwornej erupcji wulkanicznej lub ogólnoświatowej pandemii. Uważa się, że uderzenie asteroidy zniszczyło dinozaury 65 milionów lat temu, a supererupcja Toba na Sumatrze 75 000 lat temu mogła spowodować globalną zimę wulkaniczną trwającą wiele lat, prawdopodobnie zmniejszając populację ludzką do zaledwie kilku tysięcy. Martin Rees ostrzegał przed różnymi tego typu możliwościami w swojej książce Our Final Century (2003) i zwraca uwagę, że owoce samej nauki mogą być zabójcą. Nasze nowoczesne, oparte na Internecie społeczeństwo jest podatne na zagrożenia i może zostać poważnie uszkodzone przez ogromne wyrzuty masowe z korony słonecznej, takie jak "wydarzenie Carringtona" z 1859 r., które uszkodziło systemy telegraficzne w całej Europie i Ameryce Północnej; wydarzenia tej wielkości są spodziewane co kilkaset lat. Ale nawet to blednie w porównaniu z atakiem impulsu elektromagnetycznego (EMP) przez jakiegoś wroga. Bomba wodorowa eksplodująca na wysokości kilkuset kilometrów wytworzyłaby obfite promieniowanie gamma i EMP, które siały spustoszenie na całym kontynencie. Według raportu Kongresu USA z 2017 roku może on wyłączyć sieć elektryczną nawet na rok, dziesiątkując infrastrukturę potrzebną do utrzymania setek milionów populacji, która może istnieć tylko dzięki nowoczesnej technologii. Elektronika i systemy elektromechaniczne zawiodą. Zaopatrzenie w wodę, komunikacja i transport zostałyby sparaliżowane. Lokalne zaopatrzenie w żywność szybko się wyczerpie, a krajowy łańcuch dostaw zostanie wyłączony. Płatności elektroniczne przestałyby istnieć. Zapaść społeczna może nastąpić w ciągu tygodni, a masowy głód w ciągu miesięcy. Takie zagrożenia można by złagodzić poprzez wzmocnienie infrastruktury krytycznej przed takimi potencjalnymi zagrożeniami, ale koszt nie byłby nieznaczny. Podobne potencjalne zagrożenia mogą pochodzić z cyberataków obcych mocarstw, hakowania i zakłócania naszej infrastruktury internetowej, w tym elektrowni, sieci elektrycznej, komunikacji, finansów i sieci dystrybucyjnych. Niedawnym dramatycznym przykładem skutków utraty energii elektrycznej były zniszczenia spowodowane we wrześniu 2017 r. przez huragan Maria w Puerto Rico. Cała wyspa, licząca 3,4 mln mieszkańców, całkowicie straciła energię elektryczną (w większości obszarów na kilka miesięcy), ponieważ delikatna sieć energetyczna została zniszczona. Portorykańczycy musieli zmierzyć się z nową, ponurą i nieprzyjemną rzeczywistością. W domach ani na ulicach nie było świateł - w nocy było prawie zupełnie ciemno, nawet w miasteczkach i miasteczkach. Pokolenie młodych ludzi wychowanych na smartfonach nagle odkryło, że w ogóle nie mogą się komunikować. Nie było klimatyzacji ani nawet wentylatorów w czasach, gdy temperatura znacznie przekraczała 30 °C, przy dużej wilgotności i komarach. Gotowanie nie było możliwe na urządzeniach elektrycznych. Lodówki i zamrażarki nie działały, a w tych temperaturach jedzenie zepsuło się w ciągu zaledwie kilku dni. Nawet supermarkety nie były w stanie utrzymać produktów. Chociaż ulice były zalane, było mało bezpiecznej wody do picia. Kanalizacja nie działała, ponieważ opiera się na pompach. Bez działających wind i zaopatrzenia w wodę wysokie budynki mieszkalne stały się nie do zamieszkania. Pompy benzynowe nie działały, podobnie jak samochody. Fabryki, biura i banki oparte na energii elektrycznej nie mogły funkcjonować. Szkoły zamknięte. Szpitale zostały sparaliżowane i musiały polegać na generatorach do produkcji energii elektrycznej przy malejących zapasach paliwa. W ciągu miesięcy setki osób najbardziej uzależnionych od leków, urządzeń medycznych i opieki medycznej spokojnie zmarło, a inni ulegli chorobom; wysiłek, aby uniknąć poważnej katastrofy zdrowia publicznego w populacji 3,4 miliona, był wyścigiem z czasem. Tysiące zmarło. Jedną z książek na temat upadku społeczeństwa jest The Knowledge (2015) Dartnella, w której przewiduje katastrofalną pandemię, która szybko zabija prawie całą populację świata, pozostawiając jedynie rozproszone grupy dziesiątek lub setek ocalałych. Dartnell opisuje scenę. Na początku ludzie są w stanie zebrać to, czego potrzebują do życia, z rozkładającej się zawartości supermarketów i nadal mogą prowadzić samochody. Ale ogólnoświatowa sieć, która podtrzymywała cywilizację, została rozbita i było tylko kwestią czasu, zanim ocaleni zostaną zmuszeni do uprawiania własnej żywności lub zbierania jej z drzew i krzewów oraz polowania na każdą przyrodę, jaką mogą znaleźć. Biblioteki nadal by istniały, ale większość zawartej w nich wiedzy byłaby mało przydatna, chyba że istnieje specjalna sekcja poświęcona przetrwaniu. Dartnell udziela porad, jak przetrwać, zaczynając od wykorzystania pozostałości zaginionej cywilizacji, a także podaje realne przykłady obszarów na świecie, które od czasu do czasu doznały poważnych komplikacji. Nasza ceniona wiedza jest "żywą rzeczą", którą należy stale pielęgnować i rozwijać w miarę pojawiania się nowych wyników naukowych i technologicznych. Na całym świecie istnieje ogromna branża, która wspiera i aktualizuje tę wiedzę zarówno w konwencjonalnych bibliotekach, jak i mediach elektronicznych; bibliotekarze nieustannie kopiują "całą" wiedzę na najnowsze nośniki danych - to niekończący się proces. Ale te konwencjonalne biblioteki (zwłaszcza elektroniczne) mogą nie przetrwać globalnej katastrofy, a nawet gdyby przetrwały, mogą być marginalnie użyteczne dla odizolowanych grup zdesperowanych ocalałych; ezoteryczne szczegóły fizyki kwantowej czy genetyki molekularnej nie przydałyby się zbytnio w poszukiwaniu pożywienia na następny tydzień. Potrzebny jest praktyczny "podręcznik końca świata", który można wykorzystać do ponownego uruchomienia cywilizacji, przynajmniej lokalnie. Istnieją różne inicjatywy w tym kierunku: Szwecja niedawno wydrukowała taki podręcznik, a Dartnell (2017) proponuje przenośny "odporny na apokalipsę" e-czytnik (zasilany panelami słonecznymi) zawierający niezbędne informacje. Istnieją inne aspekty naszej cywilizacji i naszej planety, które są również chronione przed możliwymi katastrofami, globalnymi lub lokalnymi. Svalbard Global Seed Vault w Norwegii i Millennium Seed Bank w Anglii przechowują duplikaty nasion przechowywanych w bankach genów na całym świecie, zapewniając ubezpieczenie na wypadek wyginięcia tysięcy gatunków roślin uprawnych. Zamarznięte zoo w San Diego przechowuje kriogenicznie plemniki, jaja i zarodki tysiąca gatunków roślin i zwierząt z całego świata. Smithsonian′s National Zoo w Waszyngtonie przechowuje największą na świecie kolekcję mrożonego mleka od setek gatunków ssaków i jest częścią Amphibian Ark, współpracy obejmującej 32 kraje mające na celu ochronę płazów przed możliwością globalnego wyginięcia. Coral Restoration Foundation w Florida Keys utrzymuje największą na świecie kolekcję gatunków koralowców z zagrożonych raf. Istnieje Międzynarodowe Towarzystwo Repozytoriów Biologicznych i Środowiskowych reprezentujące ponad tysiąc biobanków na całym świecie. Pełny opis globalnych środków podejmowanych obecnie w celu złagodzenia skutków możliwych katastrof niewątpliwie zapełniłby wiele książek.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (37)


Świat masowo współzależny

Mówi się, że Thomas Young (1773-1829) był "ostatnim człowiekiem, który wiedział wszystko". Był erudytą i lekarzem, który wniósł ważny wkład w dziedzinie optyki, mechaniki, energii, fizjologii i egiptologii. Oprócz ojczystego angielskiego, w wieku czternastu lat znał grekę i łacinę oraz jedenaście innych języków. Najbardziej znany jest z ustanowienia falowej teorii światła. W Encyclopaedia Britannica porównał gramatykę 400 języków. Przyczynił się do rozszyfrowania kamienia z Rosetty. Z pewnością robił wrażenie, ale nawet on byłby całkowicie przytłoczony dzisiejszą wiedzą o świecie. Dziś nasza ogromna wiedza naukowa jest dzielona między nas wszystkich. Każda jednostka może poznać tylko niewielki ułamek wiedzy o świecie; są eksperci w każdej możliwej niszy, a my polegamy na nich, jeśli chodzi o ich wiedzę. Ale teraz, dzięki Internetowi, wszyscy możemy uzyskać dostęp do całej wiedzy świata, gdziekolwiek jesteśmy - jak Wielka Biblioteka Aleksandryjska, ale znacznie większa i bardziej dostępna. Niezależnie od dziedziny, bez względu na niewielką niszę, jest ona dostępna (z pewnymi wyjątkami, takimi jak tajna obrona lub prywatne badania przemysłowe i materiały chronione prawem autorskim). Internet jest prawdopodobnie największym postępem, jaki świat poznał w ciągu ostatniego półwiecza. Można by uznać Internet za rozwój wyłącznie ilościowy - po prostu więcej tego, co znamy od dziesięcioleci. Wydaje się jednak, że w ciągu ostatnich 10-15 lat gwałtowny wzrost i niesamowita moc Internetu przekroczyły jakiś magiczny próg. "Własność wyłaniająca się" jest właściwością złożonego systemu, której nie posiadają tworzące go jednostki - jak "wilgotność wody" lub "temperatura gazu". Świadomość jest czasami określana jako wyłaniająca się właściwość mózgu. Wystarczająco duży wzrost ilościowy może objawiać się jako zmiana jakościowa. Być może więc moglibyśmy uznać Internet za nową własność - całkowicie nowe zjawisko. Jednym z cudów Internetu jest darmowa internetowa, publicznie edytowalna encyklopedia Wikipedia. Została założona w 2001 roku, a do 2018 roku zawierał ponad pięć milionów artykułów w języku angielskim (40 milionów we wszystkich 293 językach) i ma 33 miliony użytkowników. Recenzja artykułów naukowych pojawiających się zarówno w Encyclopaedia Britannica, jak i Wikipedia została opublikowana w Nature w 2005 r. i wykazała, że ich jakość jest dość podobna. Wolontariusze na całym świecie zorganizowali się samodzielnie, aby dbać o artykuły w swoich dziedzinach wiedzy. Ale nawet poza Wikipedią wyszukiwarki mogą znajdować artykuły, dokumenty i całe kursy online. Dostępnych jest niezliczona ilość stron internetowych, więc można przejść bezpośrednio do źródła. To była rewolucja dla miliardów użytkowników. Warto zauważyć, że sieć World Wide Web została wynaleziona przez Tima Bernersa-Lee w 1989 roku w CERN - kolejne odgałęzienie czystej nauki. Internet jest teraz kluczowy dla prawie wszystkiego, ale to tylko jeden z cudów współczesnego życia. Dzięki nauce i technologii zbudowaliśmy wielowymiarowy świat, który jest tak masowo współzależny, że jest prawie niezrozumiały. Rozważ skromny ołówek. Ani ty, ani ja nie bylibyśmy w stanie zrobić tego sami. Składa się z czterech części (grafitowego rdzenia, drewnianej skorupy, gumki i metalowej rurki utrzymującej gumkę w miejscu). Wszystkie pochodzą z różnych miejsc. Technologia i maszyny, które sprawiają, że każda z nich jest inna, są z kolei zaprojektowane i wykonane przez setki innych. Robotnicy, którzy wytwarzają jedną część, nie znają robotników, którzy wytwarzają inne części. Rozejrzyj się wokół wielu prostych rzeczy, które widzisz - młotek, filiżankę, materac, zamek błyskawiczny, czajnik, nożyczki, krzesła, klamkę, żarówkę, biurko, drabinę - wszystko to zostało wykonane przez różni ludzie w różnych miejscach korzystający z różnych maszyn i różnych surowców. Na drugim biegunie znajduje się jumbo jet 747. Ma około sześciu milionów części. Pochodzą one z całego świata i wymagają wielu niezależnych technologii produkcyjnych i różnych surowców. Samochód ma około 30 000 części, aż do najmniejszej śrubki, i znowu istnieje wiele niezależnych firm, które produkują i dostarczają te części. Pracownik, który pomógł zrobić 747, nosi koszulę wykonaną przez kogoś, kto jest pasażerem tego samolotu. Nie znają się - mieszkają po przeciwnych stronach planety. Cały współczesny świat miliardów ludzi jest masowo połączony, a pracownicy są zarówno producentami, jak i konsumentami. Typowy właściciel samochodu nie ma pojęcia, jaka jest większość części samochodu, a już na pewno nie ma pojęcia, skąd pochodzą. Mówi się, że obecnie 80% światowego handlu obejmuje międzynarodowe łańcuchy dostaw, a części wielu produktów przekraczają kilka granic. Globalizacja jest coraz bardziej ciasno utkaną tkaniną. Nasz złożony, współzależny świat nauki i technologii przypomina niesamowite przedsięwzięcia superorganizmów - mrówek, os, termitów i pszczół. Każda osoba wnosi swój wkład, bez wiedzy o tym, co robi większość innych. I cudem to działa, z korzyścią dla wszystkich. W rzeczywistości nasz współzależny świat jest znacznie bardziej złożony niż świat superorganizmów, ponieważ istnieje o wiele więcej stopni swobody. W ich przypadku istnieje ograniczona liczba typów osobników - królowych i robotnic wykonujących skończoną liczbę ściśle określonych zadań - podczas gdy ludzie na całym świecie wykonują niemal nieograniczony zakres różnorodnych czynności. W naszym przypadku to działa, ponieważ choć każdy kieruje się własnym interesem (kierując się "niewidzialną ręką" Adama Smitha, zarabiając przy tym pieniądze), ostatecznie przyczynia się do wspólnego dobra. Coś tak złożonego nie może być zorganizowane "odgórnie" - wymaga wolności jednostki. Bylibyśmy całkowicie zagubieni, gdyby ten ogromny gmach złożonego przedsięwzięcia technologicznego i handlowego nagle się zawalił. Nasz współczesny świat wymaga stałej uwagi, napraw i wymiany, aby móc dalej funkcjonować. Kilkudniowa przerwa w dostawie prądu może siać spustoszenie. Półki supermarketów muszą być codziennie uzupełniane. Cały globalny system jest coraz bardziej połączony w jedno, więc jest podatny na wstrząsy, takie jak globalny kryzys finansowy z 2008 roku. Wkrótce do Internetu będzie podłączonych ponad 20 miliardów urządzeń. Z taką zależnością od technologii odeszliśmy od korzeni, a nasz współzależny świat stał się bardzo wrażliwy. Musimy nim zarządzać z wielką ostrożnością.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (36)


Nauka i religia

Nauka i religia miały się zderzyć. W wyjaśnianiu świata są one sprzeczne - religie przeszłości próbowały wyjaśniać wydarzenia w kategoriach panteonu istot nadprzyrodzonych, podczas gdy nauka odnosi sukcesy w wyjaśnianiu wydarzeń w kategoriach praw i przyczyn, które są częścią samego świata przyrody. Musimy również wiedzieć coś o pochodzeniu, rozwoju i naturze religii. Jedną z wczesnych motywacji do wiary religijnej była niewątpliwie tajemnica śmierci. Wydaje się, że niektóre inne gatunki zwierząt również opłakują swoich zmarłych, ale wydaje się, że nasi przodkowie poszli o krok dalej. Istnieją dowody na ludzkie obrzędy pogrzebowe sprzed stu tysięcy lat. Ponieważ żywi oddychają, a umarli nie, można by pomyśleć, że coś ważnego opuściło ciało po śmierci: nadprzyrodzona "dusza". W takim razie być może ta "esencja" zmarłego nadal gdzieś istnieje - w życiu pozagrobowym. Być może wszyscy skończymy w tym miejscu, znowu razem. Ozdoby i narzędzia zostały znalezione w niektórych bardzo starożytnych grobach, być może przeznaczonych do użytku przez zmarłych w życiu pozagrobowym. Praktyka ta ewoluowała przez tysiąclecia i zaowocowała kilkoma spektakularnymi przykładami, które możemy zobaczyć do dziś, takimi jak Wielkie Piramidy Faraonów w Egipcie i pochowana Armia Terakotowa w Xi′an, mająca chronić grobowiec pierwszego cesarza Chin. Inną wielką tajemnicą dla naszych wczesnych przodków byłby sam fakt istnienia życia, świata i niebios. Skąd to wszystko się wzięło? Być może jakaś wszechmocna istota stworzyła wszystko, łącznie z przestrzenią i czasem. I być może ta nadprzyrodzona istota również czuwała i chroniła ludzi, a nawet od czasu do czasu komunikowała się z nimi. Ponieważ świat jest skomplikowanym miejscem, z wiatrem, deszczem, powodziami, suszami, błyskawicami i grzmotami, być może za te zjawiska odpowiadali także mniejsi bogowie. Panteony religii ostatecznie obejmowałyby duchy, diabły, demony, anioły i mity. W niektórych z tych "politeistycznych" religii, które pojawiły się praktycznie we wszystkich kulturach na całym świecie, mogą istnieć setki bogów i tysiące mitów. Prawdopodobnie w historii ludzkości istniały tysiące tych religii, w każdą z nich żarliwie wierzyli w swoim czasie, ale prawie wszystkie zniknęły. Spośród głównych współczesnych religii hinduizm z pewnością najbardziej przypomina wczesne religie politeistyczne. Sięga tysięcy lat i wywodzi się z różnorodności wpływów, które tworzą bogatą i złożoną kulturę. Według pism hinduskich istnieją setki milionów bogów, chociaż wszyscy mogą być uważani za wyraz jednego Boga. Centralnym motywem hinduizmu jest koło życia: wszyscy żyjemy w ciągłym cyklu narodzin, życia i śmierci. W śmierci odradzamy się, aby żyć innym życiem (niekoniecznie jako człowiek - można wrócić jako dowolny gatunek). To, jak ktoś żyje w tym życiu i poprzednich życiach (czyja karma) określa, jak będzie żył w następnym. Ostatecznym celem pozostaje ostateczne uwolnienie z koła życia. Siddhartha Gautama (Budda), urodzony w 580 r. p.n.e., był przerażony doktryną nieskończonych cykli. Różne doświadczenia i spostrzeżenia doprowadziły go do wniosku, że pragnienie jest przyczyną ludzkiego cierpienia. Potem, słynnie kontemplując pod dzikim drzewem figowym, był w stanie uwolnić się nawet od samego pragnienia i wszedł w stan ekstazy - został uwolniony z koła życia i stał się Oświeconym. Na wieść o tym grupa mnichów została jego wyznawcami i chociaż buddyzm jest bardziej praktyką niż wyznaniem wiary, stał się główną religią w Azji Wschodniej. Konfucjusz urodził się w 551 r. p.n.e., w czasie niepokoju w Chinach. W przeciwieństwie do gniewu i przemocy, które szalały w całym kraju, zaproponował, aby watażkowie skupili się na dobru ludzi. Uważał, że światem należy zarządzać etycznie, zachęcał do współczucia i rozwijania umiejętności radzenia sobie z nieporozumieniami. Powinniśmy cenić społeczeństwo ponad pragnienia jednostki. Podkreślono uprzejmość i szacunek. Była to filozofia na rzecz poprawy codziennego życia. Oczywiście uznała rzeczywistość śmierci, ale uznała, że umarli nie przestali istnieć - raczej są stale obecni w naszym życiu i społecznościach i mają być czczeni. Konfucjanizm jest w dużej mierze filozofią życia, ale także religią. Inną ważną religią w Chinach jest taoizm. Lao Tse urodził się około 600 roku p.n.e. i wypracował inne podejście do życia. Konfucjusz stawiał dobro społeczeństwa ponad dobro jednostki, ale Lao Tse podkreślał wolność jednostki. Podziwiał całość natury i czuł, że ludzie powinni być jej częścią. W harmonii panuje pokój. Nie lubił zasad i organizacji społeczeństwa i zachęcał do bycia częścią płynnego przepływu natury. Wierzył, że równowaga we wszystkim jest ważna i wprowadził uzupełniające się koncepcje Yin i Yang. Taoizm jest także czymś więcej niż filozofią i ma wielu bogów. Ludzie mogą stać się nieśmiertelnymi bogami poprzez medytację i tłumienie ludzkich pragnień. Religie, które powstały na Bliskim Wschodzie, były bardzo różne. Abraham, który mieszkał w Mezopotamii około 1800 r. p.n.e, wprowadził przejście od politeizmu do monoteizmu i jest uważany za ojca założyciela judaizmu, chrześcijaństwa i islamu. Abraham był prorokiem. W historii religii było setki proroków. Są to "wybrani", którzy twierdzą, że mieli wizję lub doświadczenie mistyczne, a następnie ogłaszają je światu, rozpoczynając nowy ruch lub religię. Według przekazanych nam opowieści Abraham był zdenerwowany politeizmem Mezopotamii, zwłaszcza czczeniem bożków. W końcu usłyszał głos Boga mówiący mu dobitnie, że jest tylko jeden Bóg i że powinien opuścić tę krainę czcicieli bożków. Posłusznie wyruszył wraz z rodziną i stadami i osiedlił się w ziemi Kanaan (dzisiejszy Izrael i Palestyna). Przez kolejne tysiąclecia stanęli przed kilkoma wyzwaniami, ale zwyciężyli. Jednak w 63 r. p.n.e. Rzymianie przejęli władzę, a w 70 r. n.e. rozproszyli Izraelitów (Żydów) na cztery strony świata na dwutysięczne wygnanie. Historia proroka Jezusa z Nazaretu wywarła ogromny wpływ na religię i historię świata. Praktycznie wszyscy uczeni zgadzają się, że taka osoba rzeczywiście istniała, ale poza tym historyczna dokładność różnych relacji pisanych przez jego zwolenników jest raczej niepewna. Znane są opowieści o jego narodzinach, jego współczuciu i cudach. Oprócz swoich dwunastu uczniów przyciągał wielu zwolenników. Czy był Mesjaszem (Chrystusem), którego judaizm oczekiwał od lat? Czy był Synem Bożym? Żydowscy przywódcy religijni postrzegali go jako pretendenta, a Rzymianie postrzegali go jako awanturnika w trudnej części imperium. Jego ukrzyżowanie i późniejsze opowieści o jego zmartwychwstaniu stało się legendą i narodziło się chrześcijaństwo. Rozprzestrzeniło się szeroko, a Rzymianie prześladowali chrześcijan w całym imperium, ale w oszałamiającym odwróceniu chrześcijaństwo stało się oficjalną religią Cesarstwa Rzymskiego w roku 380. Kolejny prorok pojawił się wieki później na Półwyspie Arabskim. Muhammad, urodzony w Mekce w 570 r., zaczynał jako poganiacz wielbłądów i odniósł sukces jako handlarz. Ale został rozczarowany zepsuciem i bałwochwalstwem, które widział wokół siebie. Poszedł modlić się do jaskini, miał wizje i słyszał głosy dochodzące do niego przez anioła. W 613 zaczął głosić kazania w Mekce. On i jego muzułmańscy zwolennicy musieli walczyć z establishmentem, ale zwyciężyli. Mahomet zmarł w 632, ale jego walka trwała dalej. Przesłanie było po prostu "Nie ma boga oprócz Allaha, a Mahomet jest prorokiem Allaha". Ostatnia część miała na celu zadeklarowanie, że nie może być już absolutnie żadnych proroków. Ale oczywiście byli. Na przestrzeni dziejów w głównych religiach dochodziło do schizm. Niedługo po śmierci Mahometa spory o sukcesję spowodowały, że islam podzielił się na dwie grupy, sunnitów i szyitów, którym gwałtownie sprzeciwiano się od tamtej pory. W 1054 utrzymujące się różnice między dwiema wersjami chrześcijaństwa spowodowały Wielką Schizmę: Kościół katolicki na zachodzie i Kościół prawosławny na wschodzie. W 1517 Marcin Luter, zdając sobie sprawę, że wierzący mogą otrzymać słowo Boże bezpośrednio z nowo wydrukowanej Biblii, a nie przez skorumpowane duchowieństwo, rozpoczął protestancką reformację w Wittenberdze w Saksonii; Od tego czasu protestanci i katolicy żyli innym życiem i doszło do wielu gwałtownych starć między nimi, a także między protestantami a innymi protestantami. Kolejną schizmę z Kościołem katolickim spowodował angielski Henryk VIII, który pragnął nowej żony; rezultatem był nowy Kościół Anglii. Protestantyzm stał się bogatym nowym źródłem proroków. W 1648 roku George Fox w Anglii doznał objawienia i usłyszał głos Boga. Powiedział, że w ogóle nie ma potrzeby zorganizowanej religii i twierdził, że wszyscy ludzie są równi - mężczyźni czy kobiety, niewolnicy czy wolni. Tak narodził się ruch kwakrów; uciekli przed prześladowaniami, jadąc do Ameryki. W 1830 roku Józef Smith w północnej części stanu Nowy Jork miał wizję; anioł powiedział mu, aby unikał skorumpowanych lokalnych kościołów i szukał zakopanych złotych płyt z pismami proroków starożytnej Ameryki. Podobno je znalazł, napisał Księgę Mormona i założył Kościół Świętych w Dniach Ostatnich. Został zamordowany w więzieniu, ale potem Brigham Young poprowadził mormonów w długą wędrówkę do Utah, gdzie osiedlili się. Ostateczną cechą religii proroczych jest wiara bahaicka. Została założona w Iranie w połowie XIX wieku przez człowieka, który nazywał siebie Bábem i powiedział, że jest heroldem Boga przygotowującym drogę dla przyszłego proroka. Ponieważ islam ogłosił, że nie może być więcej proroków podążających za Mahometem, Báb został aresztowany i stracony. Kilka lat później człowiek o imieniu Bahá′u′lláh powiedział, że jest oczekiwanym prorokiem i narodziła się wiara Bahá′i. Bahá′u′lláh został uwięziony, wygnany i zmarł w palestyńskim więzieniu w 1892 roku, ale wiara trwa nadal. Jest to idea objawienia progresywnego, kiedy kolejni prorocy, słysząc od Boga, zmieniają swoją kolej. Przez tysiąclecia pojawiały się i znikały niezliczone religie, bogowie i mity. Pozostało nam dzisiaj tylko kilka głównych religii i kilkaset mniejszych. Co mamy z tym wszystkim zrobić? Jednej rzeczy, której możemy być pewni, jest to, że religia była główną przyczyną przemocy i wojen na przestrzeni dziejów. Z pewnością dotyczy to trzech religii Abrahamowych. Mówi się, że w imię religii przelano więcej krwi niż z jakiejkolwiek innej przyczyny w historii. Ponieważ religie opierają się wyłącznie na wierze, ich twierdzenia i wyznania są traktowane jako absolutne - jedyna prawdziwa wiara. Dlatego też zderzenie religii może być walką na śmierć i życie. Historia jest pełna takiej przemocy między chrześcijanami a żydami, chrześcijanami a poganami, chrześcijanami a muzułmanami, sunnitami a szyitami, katolikami a protestantami, muzułmanami a hinduistami, buddystami a hinduistami. Dziś religie głównego nurtu są w dużej mierze pokojowe, ale wciąż istnieją ogniska brutalnego ekstremizmu religijnego. Nauka i religia różnią się całkowicie w sposobie, w jaki "wyjaśniają" świat. Niektóre religie mają sztywne, dogmatyczne wierzenia, których nie można kwestionować, podczas gdy nauka ma teorie, które zawsze podlegają testom eksperymentalnym lub obserwacyjnym. Więc jeśli taka wiara religijna zostanie zakwestionowana, reakcja może być gwałtowna. Ale jeśli teoria naukowa jest kwestionowana, można przeprowadzić obiektywny test, aby sprawdzić jej słuszność = wszyscy wiedzą, że ostatecznym arbitrem debaty naukowej jest sama natura. Większość naukowców w przeszłości była religijna, a niektórzy nadal są. Przez wieki wspólnym tematem było to, że nauka odsłaniała cuda i prawa natury, które Bóg ustanowił. Ale istnieje długa historia interakcji między religią a nauką, w większości antagonistycznych. Religia wyprzedziła filozofię przyrody o dziesiątki tysięcy lat. We wczesnych cywilizacjach, jak widzieliśmy wcześniej, światopogląd był całkowicie zdominowany przez religie, bogów, duchy i mity. Atmosfera w tych wczesnych cywilizacjach monolitycznych i religijnych nie sprzyjała wolnemu i racjonalnemu myśleniu i niezależna kontemplacja natury. Starożytna Grecja była zupełnie innym miejscem, składała się z niezależnych państw-miast. Istniała religia, ale była rozdrobniona i nie było ogólnej kasty kapłańskiej, która narzucałaby dogmaty. Obywatele byli wolni, a debata była zwyczajem, więc nie jest zaskakujące, że zakorzeniła się tam filozofia przyrody. Zaczęło się od rewolucyjnej idei, że przyczyny wydarzeń są częścią samego świata fizycznego i mogą być badane przez racjonalną myśl, bez uciekania się do religii czy mitologii. Filozofia grecka osiągnęła swój zenit około 300-400 r. p.n.e., a następnie powoli upadała. Przyczyny jego upadku były szeroko dyskutowane, ale wzrost chrześcijaństwa był niewątpliwie głównym czynnikiem w późnych stadiach. Kiedy w siódmym i ósmym wieku pojawiło się imperium islamskie, istniał tylko jeden tekst w języku arabskim, Koran, który zachęcał do nauki i wiedzy. Rezultatem był masowy "ruch tłumaczeń" klasyków greckich na arabski, co doprowadziło do powstania nauki islamskiej w tradycji greckich filozofów przyrody. Trwało to około 400 lat - "Złoty Wiek Nauki Islamskiej". Jego spadek był spowodowany reakcją na wpływy nieislamskie; książki zostały spalone, a medresy ograniczyły swoje programy nauczania do Koranu. Chrześcijaństwo przez pewien czas miało pozytywny wpływ na filozofię przyrody w średniowieczu i we wczesnym średniowieczu: w wielu klasztorach zebrano, zachowano i przetłumaczono na łacinę niektóre greckie klasyki. I wiele innych zostało przetłumaczonych przez różnych uczonych z arabskiego i greckiego na łacinę. Kiedy więc w XI i XII wieku powstawały pierwsze europejskie uniwersytety, ich programy nauczania obejmowały głównie klasykę grecką. Arystoteles był najbardziej wpływowym greckim filozofem przyrody na przestrzeni lat, aw XIII wieku Kościół rzymskokatolicki zaczął się martwić oczywistym konfliktem między jego światopoglądem a dogmatami Kościoła. Arystoteles uważał wszechświat za wieczny; Kościół uważał, że został stworzony przez Boga. Arystoteles uważał, że zdarzenia są zdeterminowane przez naturalną przyczynę i skutek; Kościół utrzymywał, że Bóg może powodować wydarzenia przez Bożą interwencję i cuda. Geocentryczne kule krystaliczne Arystotelesa staną na drodze biblijnemu Wniebowstąpieniu do nieba. Kościół przez lata zakazał czytania i nauczania dzieł Arystotelesa na Uniwersytecie Paryskim pod groźbą ekskomuniki. Uczony Tomasz z Akwinu zmagał się z tymi kwestiami i początkowo był zdecydowanie przeciwny przez teologów, ale w końcu znalazł kompromis i "tomizm" stał się oficjalnym stanowiskiem Kościoła rzymskokatolickiego. Nawet ruch protestancki XVI wieku był wrogo nastawiony do racjonalnej myśli: Marcin Luter kilkakrotnie z naciskiem głosił, że rozum jest największym wrogiem wiary. W XVI wieku Kopernik zaproponował swój heliocentryczny model kosmosu. Wiedział, że jest to sprzeczne z geocentrycznym i antropocentrycznym światopoglądem Arystotelesa, który wcześniej został przyjęty przez Kościół rzymskokatolicki jako część "tomizmu", więc jego praca nie została opublikowana, dopóki nie znalazł się na łożu śmierci. Kilkadziesiąt lat później heretyk Giordano Bruno został spalony na stosie przez Kościół, po części za poparcie modelu heliocentrycznego. Na początku XVII wieku Galileo Galilei dokonał swoich słynnych odkryć astronomicznych, które mocno wspierały pogląd kopernikański. Opublikował na ten temat dwie książki, z których jedna była szczególnie zapalająca. Jego książki i książki Kopernika zostały zakazane przez Kościół. Galileusz został zmuszony przez rzymską inkwizycję do wyrzeczenia się swoich przekonań i skazany na dożywotnie areszt domowy. Kościół rzymskokatolicki ostatecznie ułaskawił go w 1992 roku, 350 lat po jego śmierci. Mniej więcej w czasie procesu Galileusza arcybiskup James Ussher w Irlandii obliczył na podstawie Biblii, że rok stworzenia to 4004 r. p.n.e. W XIX wieku wiek i historia Ziemi były głównym problemem i istniały dwa przeciwstawne poglądy. Jednym z nich był katastrofizm, zgodnie z którym Ziemia została ukształtowana przez katastrofalne wydarzenia, takie jak biblijny potop. Drugim był uniformitaryzm, zgodnie z którym Ziemia została ukształtowana przez długotrwałe procesy geologiczne, takie jak te, które obserwujemy dzisiaj. Zarówno uniformitaryzm, jak i teoria ewolucji Darwina sugerowały, że wiek Ziemi byłby znacznie większy niż wcześniej sądzono, w przeciwieństwie do 6000 lat od biblijnego stworzenia. Obecnie wiadomo, że wiek Ziemi wynosi 4,6 miliarda lat. Z biegiem czasu surowe realia świata życia stały się jasne dla przyrodników. Zdali sobie sprawę, że życie musi żywić się życiem - że mięsożercy i roślinożercy nie mają innego wyjścia, jak jeść inne żywe istoty, aby uzyskać energię i cząsteczki organiczne potrzebne do życia. Jest to z konieczności bardzo okrutny świat - "czerwony w zębach i szponach", jak to ujął Tennyson. Jak kochający Bóg mógł stworzyć tak potworny świat? To była bardzo niepokojąca rzeczywistość, z którą ci wierzący musieli się zmierzyć. Po swojej słynnej wyprawie na Beagle na początku XIX wieku Karol Darwin napisał zarys swoich poglądów na ewolucję przez dobór naturalny. Zatrzymał to dla siebie, ponieważ nie chciał zdenerwować swojej żony, która była dość religijna, i nie był jeszcze przygotowany do ujawnienia swoich poglądów współczesnym i Kościołowi, o którym wiedział, że wywoła wrogą reakcję. Jedną rzeczą było sugerowanie, że ewolucja może mieć miejsce w świecie życia jako całości, ale myśl, że my, ludzie, możemy pochodzić od małp, byłaby dla wielu zbyt wielkim wyzwaniem (pomimo oczywistych podobieństw anatomicznych - szympans DNA to 98,5 % taki sam jak nasz). Darwin w końcu opublikował swoje arcydzieło O powstawaniu gatunków za pomocą doboru naturalnego w 1859 roku. Ponieważ było tak dokładne i przekonujące, natychmiast zyskało uznanie, ale także wywołało oczekiwane ataki. W 1860 roku w Oksfordzie odbyła się "Wielka Debata". Przyjaciel Darwina, Thomas Huxley, poparł pogląd ewolucjonistów, podczas gdy Samuel Wilberforce, biskup Oksfordu, podtrzymał koncepcje biblijnego stworzenia. Nic dziwnego, że obie strony ogłosiły zwycięstwo, a debata trwa do chwili obecnej, z okresowymi wybuchami, takimi jak 1925 Scopes Monkey Trial, który odbył się w Tennessee. W ciągu ostatnich dziesięcioleci pogląd religijny przybrał postać "inteligentnego projektu", który ma stanowić alternatywę dla teorii ewolucji Darwina. Jak się okazuje, mechanizm teorii Darwina był już opracowywany przez Gregora Mendla mniej więcej w tym samym czasie, kiedy Darwin opublikował Origins, a ostatecznego potwierdzenia teorii Darwina dostarczyło niedawno coś, o czym nigdy nie mógł marzyć- genetyka molekularna : sekwencje mutacji w genomach doskonale pasują do historii ewolucji z teorii ewolucji Darwina poprzez dobór naturalny. To bardzo uderzające, że nauka pojawiła się tylko raz w historii świata i zdołała przetrwać swój niepewny przebieg jako cienka nić od starożytnych Greków od epoki islamu i średniowiecza do rewolucji naukowej i współczesnej nauki. Fakt, że na bardzo wczesnym etapie historii istniały już wcześniej wszechobejmujące światopoglądy religijne, prawdopodobnie pomaga wyjaśnić, dlaczego filozofia przyrody nie pojawiła się w innych częściach świata. Nauka została uprzedzona przez religię, a religie stały się bardzo nietolerancyjne dla wolnego myślenia. Historia świata mogła być zupełnie inna. Ale nauka przetrwała i nie ma wątpliwości, że na przestrzeni lat zastąpiła religię w wyjaśnianiu szerokiego zakresu doświadczeń w świecie naturalnym i fizycznym. Przerażające i tajemnicze zjawiska, takie jak błyskawice, grzmoty, deszcz, powodzie, susze, trzęsienia ziemi, zaćmienia, komety, meteory, Słońce, Księżyc, planety i gwiazdy, które skłoniły starożytne kultury do wzywania różnych bogów, mitów i modlitw są teraz wyjaśnione przez naukę. Możemy teraz nie tylko wyjaśnić te zjawiska w kategoriach praw właściwych naturze, ale możemy również wykorzystać te prawa do stworzenia ogromnej liczby udanych przewidywań przyszłych wydarzeń na świecie, w wielu przypadkach z zadziwiającą dokładnością. Rzeczywiście, nauka odniosła tak wielki sukces, że liczba istotnych pytań pozostawionych w naszym łatwo obserwowalnym świecie, w którym religia wciąż może twierdzić, że dostarcza jedynej odpowiedzi, jest bardzo mała. Kościół musiał pogodzić się z ciągłym postępem nauki i nie ma już problemu z rzeczywistościami naukowymi, takimi jak wszechświat, natura materii i podstawa życia. Ciekawie więc wyobrazić sobie świat, w którym religia nigdy nie istniała, ale w którym ludzie żyją tak jak my teraz, w świecie, w którym nauka wyjaśniła wszystko, co ma. Co teraz skłoniłoby ludzi do myślenia, wierzeń i modlitw religijnych? Po tym wszystkim, co nauka wyjaśniła, jakie kwestie pozostałyby, aby motywować wiarę religijną? Jednym z nich byłby niewątpliwie strach przed śmiercią. To zrozumiałe, ale sama śmierć nie jest tajemnicą. Wiemy, co dzieje się z ciałem. Chodzi oczywiście o możliwość istnienia "duszy" i "życia po śmierci". Praktycznie wszyscy neuronaukowcy zgadzają się, że dusza jest niczym więcej niż świadomością, której doświadczamy, a sama świadomość jest wyłącznie funkcją materialnego mózgu. Jeśli tak jest, nie może istnieć bez mózgu i po prostu przestaje istnieć, kiedy ciało fizyczne i mózg umierają. Codziennie dowiadujemy się więcej o świadomości. Innym jest pytanie "Jaki jest cel życia?" To nie jest istotne pytanie dla nauki, która działa z przyczyn przeszłych, a nie dla przyszłych celów. Jeśli to oznacza "Jaki jest mój cel w życiu?", to jest to tylko sprawa osobista. Jeśli ma to sugerować istnienie podmiotu nadającego cel, to znowu nauka nie ma nic do powiedzenia w tej sprawie, poza faktem, że nie ma naukowych dowodów na istnienie takiego podmiotu. Początki życia i wszechświata były przez tysiące lat sednem większości, jeśli nie wszystkich religii. Oba są ważnymi tematami w nauce i poczyniono znaczne postępy. Wiemy, że życie na Ziemi rozpoczęło się między 4,6 a 3,5 miliarda lat temu, a pochodzenie życia jest aktywnym polem badań; zostanie rozwiązany, jeśli w końcu zrozumiemy procesy, które mogą prowadzić od chemii abiotycznej do życia, lub jeśli jakiś rodzaj sztucznego życia faktycznie zostanie wyprodukowany w laboratorium. Teraz wiemy, że w naszej galaktyce są miliardy planet podobnych do Ziemi i prawdopodobnie miliardy bilionów we wszechświecie; nasza planeta Ziemia prawdopodobnie nie jest wyjątkowa i trudno sobie wyobrazić, że jesteśmy sami we wszechświecie. Wiadomo, że początek naszego wszechświata miał miejsce 13,8 miliarda lat temu, a jego ewolucja jest obecnie dobrze znana. Niektórzy naukowcy uważają, że nawet jego pochodzenie jest obecnie rozumiane przez naukę; inni nie posunęliby się tak daleko, ale w każdym razie nauka z pewnością odniosła sukces w rozwikłaniu wielu tajemnic bardzo wczesnego wszechświata. Inną rodziną tematów, o których czasami się wspomina, są zjawiska paranormalne i nadprzyrodzone. Jeśli są dosłownie "nadprzyrodzone", to oczywiście nauka nie ma o nich nic do powiedzenia, ponieważ nie mają one nic wspólnego ze światem przyrody, w którym żyjemy. Ale wszelkie zjawiska, które mają jakikolwiek wpływ na świat materialny (w tym mózg), są z pewnością potencjalnymi tematami badań naukowych. Jak dotąd żadne takie zjawiska nie weszły w skład ściśle ustalonej wiedzy naukowej. Istnieje jeden dość uderzający tok myślenia wywodzący się ze współczesnej nauki, który można uznać za istotny dla wiary religijnej, a który nie jest powszechnie znany. Jak omówiono w następnym rozdziale, istnieje kilka "zbiegów okoliczności" we właściwościach wielkoskalowych i fizyce wszechświata, które wydają się być niezbędne dla życia, jakie znamy. Wygląda na to, że nasz wszechświat jest "dostrojony do życia". Dla niektórych naukowców tłumaczy się to "zasadą antropiczną": możemy istnieć tylko we wszechświecie, który ma odpowiednie warunki do życia. Jeśli istnieje rozległy wieloświat różnych wszechświatów (jak myśli wielu naukowców), nie jest niespodzianką, że nasz wszechświat jest jednym z tych, które mają odpowiednie warunki, ponieważ w przeciwnym razie nie byłoby nas tutaj. Ale każda osoba o skłonnościach religijnych może być skłonna interpretować to w kategoriach Boga, który zaprojektował wszechświat specjalnie dla nas. Debaty na temat zasady antropicznej i wieloświata trwają do dziś. Nie ma wątpliwości, że zdecydowana większość wierzących postrzega swoją religię jako pokojową i szanującą inne religie, pomimo obecnych gorących punktów i ataków terrorystycznych. A wiele religii dzisiejszego świata pełni wiele pozytywnych funkcji kulturowych. Na świecie są duże regiony, w których religie pomagają zachować stabilność, promować dobre wartości i wykonywać dobre uczynki; mogą zapewnić poczucie komfortu i bezpieczeństwa osobom, miejscom i ceremoniom ważnych wydarzeń życiowych (narodziny, małżeństwo i śmierć) oraz wspierać społeczności społeczne. Społeczeństwa świeckie i humanizm mogą ostatecznie zastąpić religię w wielu z tych funkcji. Ani moralność, ani organizacja i prowadzenie cywilizowanego społeczeństwa nie wymaga religii, a celebransi humanistyczni mogą kierować wydarzeniami związanymi z narodzinami, ślubami i pogrzebami. Interesujące jest porównanie postaw religijnych w różnych częściach dzisiejszego świata. Amerykanie są znacznie bardziej religijni niż Europejczycy, a wiara religijna w większości krajów europejskich nadal spada. Sondaże wskazują, że 98% z Indonezyjczyków, 80% Hindusów, 60% Amerykanów, 21% Europejczyków i 3% Chińczyków uważa religię za "bardzo ważną". Jak większość ludzi, naukowcy rzadko omawiają swoje przekonania religijne, jeśli w ogóle. Newton zakończył swoje Principia wychwalając Boga za Jego dzieła. Kiedy wielki naukowiec Pierre-Simon Laplace został zapytany przez Napoleona, dlaczego nie wspomniał o Bogu w swojej nowej książce, odpowiedział: "Panie, nie potrzebowałem tej hipotezy". Darwin obawiał się, że jego teoria może obrazić wrażliwość religijną jego żony. Dla Einsteina Bóg jest po prostu wszystkim, co istnieje i nie odgrywa żadnej roli w życiu codziennym (pogląd zwany panteizmem). Ale w ostatnich latach wielu czołowych naukowców na świecie było pytanych o ich poglądy religijne. Sondaż przeprowadzony w 1998 r.8 wśród członków Narodowej Akademii Nauk w USA wykazał, że odpowiednio tylko 7% i 8% naukowców wierzy w Boga i nieśmiertelność. W przeciwieństwie do tego, około 95% amerykańskiej populacji wierzy w Boga, a ponad 70% w nieśmiertelność. Podobna ankieta9 została przeprowadzona również wśród członków Royal Society of London w 2013 r. i ponownie tylko 8% naukowców wyraziło wiarę w Boga i świadomość przeżywania śmierci. Biolodzy mają tendencję do bycia bardziej ateistycznymi niż fizycy i rzadziej akceptują fakt, że nauka i religia są kompatybilne. Obie tendencje przypisuje się większej ekspozycji na surowe kwestie ewolucji i życia oraz faktowi, że współczesne nauki biologiczne ponoszą ciężar ingerencji religijnej i społecznej w takich sprawach, jak genetyka, klonowanie i badania nad komórkami macierzystymi, a także ewolucja (wciąż ulubiony cel kreacjonistów i zwolenników inteligentnego projektu). Niektórzy naukowcy wolą być skutecznie poza kontinuum teista-agnostyk-ateista10 - nie mają "pozycji" i po prostu nie przejmują się religią. Są po prostu zajęci życiem w prawdziwym świecie nauki, a religia nie jest dla nich problemem. Nauka w miarę upływu czasu wyjaśnia coraz więcej zjawisk w świecie przyrody. Religie były zazwyczaj reakcyjne i nawet dzisiaj widzimy nieustanne starcie między Kościołem a liberalnymi poglądami na wiele tematów. Ale nauka pozostaje neutralna i bezstronna; dotyczy tylko obiektywnej wiedzy o świecie naturalnym i fizycznym.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (35)


Nauka i filozofia nauki

Interesujące jest to, że komunikacja między naukowcami a historykami i filozofami nauki jest stosunkowo niewielka. Większość dzisiejszych naukowców nigdy nie miała żadnych kursów z historii lub filozofii nauki; są całkowicie pochłonięci obecnymi granicami nauki i własnymi wysiłkami naukowymi. Pierwotnie naukowcy byli filozofami nauki. Nazywano ich filozofami przyrody - tymi, którzy badali świat przyrody. Od czasów greckich, poprzez okresy islamu i średniowiecza, aż po rewolucję naukową, promocja metody naukowej miała duży wpływ na ustanowienie nowoczesnej nauki, a filozofowie przyrody zmagali się z wieloma podstawowymi zagadnieniami dotyczącymi wiedzy i rzeczywistości. W XIX wieku filozofia przyrody stała się znana jako nauka, a filozofowie przyrody jako naukowcy. To, co teraz znamy jako filozofię nauki, rozgałęziło się następnie jako odrębna dyscyplina - filozofowie badający zasady i praktykę nauki z zewnątrz. Pierwszym ważnym ruchem w filozofii nauki w XX wieku byli pozytywiści logiczni. Bardzo podziwiali rygor i postęp nauki, co zachęciło ich do pracy nad nową i ambitną "filozofią naukową", która kładła nacisk na weryfikację, logikę i znaczenie i obejmowałaby matematykę, język i naukę, a także filozofię. Rozważano nawet możliwość zredukowania matematyki do systemu logicznego, który mógłby zakodować całą fizykę. Ale te wielkie i rewolucyjne idee zostały stopniowo zniszczone przez dziesięciolecia przez sukcesję logików i filozofów, od logicznego pozytywizmu do słabszego logicznego empiryzmu i wreszcie do poglądów wyrażanych ogólnie w filozofii nauki. Pozytywiści logiczni, podobnie jak opinia publiczna, postrzegali postęp nauki jako kumulacyjny, nieustannie tworzący coraz więcej wiedzy. Uważali jednak (zazwyczaj złożoną) historię wydarzeń, które doprowadziły do naukowej hipotezy, za nieistotną; wszystko, co się dla nich liczyło, to proces weryfikacji. Dla większości naukowców najbardziej znanym dwudziestowiecznym filozofem nauki był Karl Popper, jeden z głównych krytyków pozytywizmu logicznego. Silną motywacją dla niego było odrzucenie tego, co uważał za nienaukowe lub pseudonaukowe twierdzenia, wysuwane np. przez Zygmunta Freuda. W opinii Poppera takie twierdzenia pozwalają na dowolny możliwy wynik, a więc nie mogą być potwierdzone ani zaprzeczone. Jego odpowiedzią, jak wspomniano wcześniej, było twierdzenie, że teorie naukowe muszą być falsyfikowalne. Oznacza to, że muszą dokonywać przewidywań, których fałszywość można udowodnić na podstawie jakichkolwiek obserwacji lub eksperymentów, które mogą być z nimi sprzeczne. Falsyfikowalność jest ważnym kryterium we współczesnej nauce. Popper zgodził się również z osiemnastowiecznym filozofem Davidem Hume′em, że teorie oparte na indukcji (która obejmuje większość nauki i życia codziennego) nigdy nie mogą być całkowicie udowodnione. Indukcja obejmuje ekstrapolację. Nigdy nie można udowodnić, że teoria oparta na ograniczonej próbce świata przyrody ma zastosowanie do wszystkich próbek, bez względu na to, ile eksperymentów lub obserwacji ją potwierdza. Popper próbował wyobrazić sobie metodę naukową, która zawierałaby jedynie falsyfikację, która byłaby prawdziwie dedukcyjna, prowadząc do teorii, które można udowodnić jako absolutnie prawdziwe. Thomas Kuhn jest uważany za najbardziej wpływowego historyka i filozofa nauki ostatniego stulecia. Jego książka The Structure of Scientific Revolutions (1962) zmieniła sposób postrzegania nauki przez filozofów. Do tego czasu filozofia nauki "oczyszczała" naukę, lekceważąc wszystko, co poprzedzało hipotezę, jako nieistotne i badając jedynie proces uzasadniania. Kumulatywny charakter nauki uznano za pewnik. Kuhn przyjął ortogonalny pogląd, w którym historia odgrywa dominującą rolę, a nauka rozwija się nie płynnie, ale ewolucyjnie. W prostym modelu Kuhna nauka toczy się w serii rewolucji, pomiędzy którymi występują okresy względnego spokoju, w których można uprawiać "normalną naukę". Każdy z tych okresów charakteryzuje się dominującym "paradygmatem"; jest to aktualny światopogląd naukowców i określa, nad czym pracują i jak to robią. Nazwał ich pracę w tych okresach "rozwiązywaniem zagadek", przez co miał na myśli, że podobnie jak w przypadku zagadek gazetowych, jest praktycznie zagwarantowane (przez istnienie paradygmatu), że mają rozwiązanie. Nauka odbywa się w kontekście tego paradygmatu, a naukowcom nie wolno kwestionować paradygmatu ani wychodzić poza niego. W ten sposób, według Kuhna, "normalna nauka" jest wydajna i kumulatywna. Z biegiem czasu "normalna nauka" zaczyna ujawniać anomalie w paradygmacie. Na początku zakłada się, że są to błędy napotkanego naukowca. Ale wraz ze wzrostem ich liczby staje się jasne, że sam paradygmat ma problemy. Rozwija się kryzys. Na tym etapie proponuje się alternatywy dla paradygmatu i ostatecznie okazuje się, że jedna wygląda najbardziej obiecująco. Wywiązuje się bitwa między zwolennikami starego i nowego paradygmatu. To rewolucja. Paradygmaty mogą być "niewspółmierne", o różnych wartościach i standardach, a przeciwnicy "przemawiają" między sobą. Ostatecznie nowy paradygmat ma największe poparcie i rewolucja się skończyła. Większość naukowców przechodzi do "normalnej nauki" w kontekście nowego paradygmatu, a pozostali albo opuszczają pole, albo umierają. Ten cykl powtarza się w kółko. Model Kuhna wydaje się sztuczny i sztuczny. W niektórych przypadkach zmuszał fakty do dostosowania się do swojego modelu. W niektórych dziedzinach zajmował skrajne pozycje. Najwyraźniej nienawidził podręczników naukowych za "ukrywanie" prawdziwej historii nauki. Jego "kryzysy" rozciągały się na dziesięciolecia, stulecia, a nawet tysiąclecia, a nie lata. Uważał, że po wszystkich rewolucjach nie będzie przyrostu wiedzy netto. Jego znajomość historii była imponująca, ale jego przykłady ograniczały się głównie do Kopernika, Newtona, Lavoisiera i Einsteina - prawie nie wspominając o Darwinie, Faradayu czy Maxwellu. Mimo to jego książka wywarła ogromny wpływ, sprzedając się w liczbie ponad miliona egzemplarzy i znajdując się na listach najlepszych książek ostatniego stulecia. Wywarł duży wpływ nie tylko na filozofię nauki, ale także na socjologię i inne dziedziny humanistyki. Zaraz po publikacji pojawiła się ostra krytyka i gorące debaty, a Kuhn spędził lata łagodząc niektóre ze swoich bardziej ekstremalnych stanowisk. Jego najtrwalszym wkładem była popularyzacja terminów "paradygmat" i "zmiana paradygmatu". Praktykującym naukowcom model Kuhna może wydawać się dość osobliwy i obcy. Z pewnością istnieją rewolucje i paradygmaty wszelkich rozmiarów, ale nauka to znacznie więcej. Naukowcy wcale nie ograniczają się do swoich paradygmatów - dążą do tego, by widzieć "nieszablonowo" i chcieliby być pierwszymi, którzy dokonają kolejnej wielkiej zmiany w nauce. A odkrycie odgrywa ważną rolę w nauce, podczas gdy w modelu Kuhna prawie nie występuje. Książka Kuhna, mimo ogromnego wpływu na filozofię, nie wpłynęła na bieg nauki. W latach 60. i 70. na scenę wkroczył buntownik Paul Feyerabend. Sprzeciwiał się pojęciu Kuhna o "normalnej nauce", które uważał za ograniczające wolność naukowców, i z tego samego powodu skrytykował samą metodę naukową. Uważał, że paradygmaty Kuhna nie mogą ograniczać naukowców, którzy zawsze poszukują nowych pomysłów. Jego książka Against Method z 1975 r. wprowadziła termin "anarchia epistemologiczna", odrzucając wszelkie zasady i ograniczenia nauki oraz pozostawiając naukowców wolną myśl, kreatywność i oportunizm. Jego podejście zostało scharakteryzowane jako "wszystko jest możliwe", co sugeruje, że jego zdaniem nie może istnieć ścisła definicja nauki. Jedna z ważnych debat w filozofii nauki w ciągu ostatniego stulecia toczyła się między naukowymi realistami a antyrealistami. Realiści utrzymują na przykład, że byty subatomowe, takie jak elektrony i miony, są fizycznie realne, podczas gdy antyrealiści uważają, że mogą to być jedynie użyteczne fikcje, umożliwiające postawienie hipotez, przewidywań i dalszych odkryć. Stanowisko realistyczne jest zgodne ze zdroworozsądkowym poglądem, że nauka odkrywa prawdziwe rzeczy, które są "tam". Antyrealiści utrzymują, że mogą, ale nie muszą być prawdziwi - nie ma sposobu na podjęcie decyzji, więc ich stanowisko jest agnostycyzmem. Argumenty zostały wysunięte dla obu tych stanowisk. Realiści twierdzą, że skoro teoria zawierająca elektrony i miony odniosła ogromny sukces, byłby to niezwykły zbieg okoliczności, gdyby istoty te rzeczywiście istniały. Ale antyrealiści wskazywali, że w przeszłości istniały pozornie udane teorie, zakładające takie rzeczy jak flogiston, kaloryczność i eter, które okazały się fałszywe. Innym argumentem realistów jest to, że nie można wytyczyć twardej linii między domeną nieobserwowalnego a obserwowalnego. Istnieje kontinuum, więc równie rozsądne jest traktowanie elektronów i mionów jako tak rzeczywistych, jak trudno widocznych bakterii i drzew. Antyrealiści argumentowali, że teorie zakładające te byty mogą być nieunikalne; może istnieć wiele innych możliwych teorii, które równie dobrze mogłyby wyjaśnić dane. Realiści wskazują następnie, że udane teorie są rzadkie i że naukowcy mogą mieć trudności ze znalezieniem nawet takiej, która pasuje do danych. Debata trwa. Niektórzy pracujący naukowcy poświęcili również czas na zastanowienie się nad podstawami nauki - pytaniami, które zainteresowałyby starożytnych Greków. Znakomitym przykładem był Einstein, który choć był jednym z ojców założycieli mechaniki kwantowej, później bardzo zaniepokoił się implikacjami (w przeciwieństwie do wielu innych fizyków, których motto brzmiało "zamknij się i oblicz", ponieważ przewidywania mechaniki kwantowej były tak trafne i precyzyjne, a było tak wiele do zrobienia). Niepewność kwantowa sugeruje, że światem subatomowym rządzi prawdopodobieństwo, a Einstein powiedział kiedyś: "Bóg nie gra w kości". Uważał, że musi istnieć jakaś głębsza, ukryta rzeczywistość, w której ścisła przyczyna i skutek determinują zdarzenia. W latach trzydziestych miał wiele frustrujących dyskusji z Neilsem Bohrem. Zirytowany w 1935 roku wraz z dwoma kolegami wymyślił "eksperyment myślowy", który wydawał się w zasadzie zaprzeczać przewidywaniom teorii kwantowej, chociaż nigdy nie sądzili, że taki eksperyment może kiedykolwiek zostać przeprowadzony. Ale w 1963 fizyk John Bell wpadł na pomysłową wersję eksperymentu, który był możliwy do wyobrażenia, i w następnej dekadzie został przeprowadzony. Teoria kwantowa okazała się słuszna, a Einstein się mylił. Ten wynik, zainspirowany wytrwałością Einsteina, okazał się w rzeczywistości ważnym krokiem naprzód w fizyce. Niemniej jednak, pomimo ostatnich oszałamiających sukcesów w eksperymentach kwantowych, nadal istnieją obawy dotyczące fundamentalnych implikacji mechaniki kwantowej. Z pewnością ważne (a także interesujące) zarówno dla naukowców, jak i filozofów jest rozważenie podstaw nauki. A poglądy niektórych filozofów, takich jak Karl Popper, z pewnością miały wpływ na sposób, w jaki wielu naukowców podchodzi do swojej pracy dzisiaj. Bliższa interakcja między naukowcami a historykami i filozofami dnia dzisiejszego byłaby niewątpliwie korzystna.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (34)


Nasz globalny wpływ

Kilka milionów lat temu nasi przodkowie nie mieli większego wpływu na środowisko niż jakikolwiek inny gatunek; żyli w zgodzie z naturą. Z czasem wczesne narzędzia umożliwiły ludziom stopniowe przechodzenie w górę łańcucha pokarmowego, polując na mniejszą zdobycz, podczas gdy z kolei polują na nich większe zwierzęta. Ale pierwszym wielkim krokiem była umiejętność rozniecania ognia, setki tysięcy lat temu. Nagle każdy człowiek mógłby spalić cały las, gotując zamieszkującą ją florę i faunę oraz zmieniając krajobraz w preferowane przez ludzi łąki. To był początek ludzkości zmieniającej oblicze planety. W ciągu siedmiu milionów lat, odkąd nasi przodkowie oddalili się od szympansów, istniało ponad dwa tuziny gatunków z rodzaju Homo, z których nasz, Homo sapiens, był tylko jednym. Teraz jesteśmy jedynymi, którzy zostali. Co się stało z innymi? Wydaje się prawdopodobne, że Homo sapiens wyewoluował lepsze zdolności poznawcze i językowe, podstawowe cechy dla elastycznej współpracy w dużych grupach społecznych. Chociaż doszło do krzyżowania się ras (kilka procent naszego DNA pochodzi od neandertalczyków i denisowian), prawdopodobnie albo prześcignęliśmy ich w walce o zasoby, albo wyeliminowaliśmy ich poprzez przemoc i ludobójstwo. Bez względu na przyczynę, wyginęły niedługo po pojawieniu się naszych przodków: Homo denisova ponad pięćdziesiąt tysięcy lat temu, Homo neanderthalis jakieś trzydzieści tysięcy lat temu, a Homo floresiensis około dwunastu tysięcy lat temu. Przetrwał tylko nasz gatunek Homo sapiens. Wyeliminowaliśmy nie tylko naszych kuzynów. Wznieśliśmy łańcuch pokarmowy i staliśmy się budzącym strach zwierzętami w Afryce i Azji; inne zwierzęta nauczyły się nas unikać. Ale to była zupełnie inna historia, kiedy migrowaliśmy do innych części świata. Tam duże, rodzime zwierzęta nie odczuwały wrodzonego strachu przed przybyszami ludzkimi i dlatego można je było łatwo zgładzić w stosunkowo krótkim czasie. Pierwsza taka inwazja ludzi miała miejsce w Australii około 50-60 tysięcy lat temu, w wyniku czego prawie wszystkie egzotyczne gatunki dużych zwierząt zostały wkrótce wyeliminowane, a wiele mniejszych gatunków również wyginęło. Podobne rzeczy miały miejsce gdzie indziej, kiedy przybyli ludzie. Większość mamutów i innych dużych zwierząt Ameryki Północnej i Południowej zniknęła 10 000 lat temu, niedługo po tym, jak ludzie przedostali się przez Cieśninę Beringa, przedostali się przez lodowce na Alasce i rozprzestrzenili się po obu Amerykach. Duże zwierzęta z Madagaskaru gwałtownie zniknęły 1500 lat temu, kiedy przybyli pierwsi ludzie, i to samo stało się w Nowej Zelandii, kiedy przybyli Maorysi około 800 lat temu. Fale wymierania przetoczyły się przez wyspy Pacyfiku. Tylko kilka odległych wysp uniknęł tego losu, w tym słynne Wyspy Galapagos u wybrzeży Ekwadoru. Jest więc jasne, że główne wymierania spowodowane przez człowieka trwają bardzo długo - tysiące, a nawet dziesiątki tysięcy lat. Staliśmy się najbardziej śmiercionośnym gatunkiem na świecie - "globalnym super-drapieżnikiem". Rewolucja rolnicza, która miała miejsce dziesięć tysięcy lat temu niezależnie w różnych częściach świata, spowodowała poważne zmiany zupełnie innego rodzaju. Zaczęliśmy uprawiać kilka gatunków roślin do celów spożywczych. To było dobre dla roślin, ale zrezygnowaliśmy z naszego wolnego stylu życia łowiecko-zbierackiego na całe życie ciężkiej pracy pochylania się i pielęgnowania roślin na małych działkach, z bardzo restrykcyjną dietą. Strata dla jednostki, ale zysk dla ludzkości, której liczba może wzrosnąć, prowadząc do wiosek, miast i cywilizacji. Większość naszej dzisiejszej diety nadal pochodzi z roślin udomowionych tysiące lat temu - pszenicy, ryżu, kukurydzy, prosa, jęczmienia i ziemniaków. Nasi przodkowie spalili lasy i zarośla, aby zrobić miejsce dla rolnictwa, a te uprzywilejowane rośliny mogły się rozwijać kosztem innych gatunków, które uważano za "chwasty". Nasi przodkowie również udomowili i wyhodowali wiele gatunków zwierząt, m.in. owce, kozy, bydło, osły, konie, wielbłądy, świnie, kury, psy i koty. Były one używane w różny sposób do jedzenia, odzieży, pracy w gospodarstwie, transportu i jako zwierzęta domowe. My, wraz z naszą świtą wybranych roślin i zwierząt, staliśmy się zdecydowanie najpotężniejszym i dominującym gatunkiem na świecie. Ale to był dopiero początek. Poważne problemy środowiskowe, z którymi mamy dziś do czynienia, wynikają z kilku fundamentalnych czynników: przeludnienia, gwałtownego rozwoju i nadmiernej konsumpcji w "krajach rozwiniętych". Ludzka populacja liczyła zaledwie kilka milionów 10 000 lat temu, kiedy rozpoczęło się rolnictwo, 200 milionów w czasach rzymskich, 1 miliard w 1800 roku, 2,5 miliarda w 1950 roku i 7,6 miliarda obecnie. Odpowiednie tempo wzrostu wyniosło około 0,09% rocznie. od czasów rzymskich do 1800 r. 0,6% rocznie. od 1800 do 1950 r. i 1,7% rocznie. od 1950 roku do chwili obecnej. Gwałtowne wykładnicze tempo wzrostu populacji w ciągu ostatnich kilkuset lat zbiegło się z szybkim rozwojem przemysłu i technologii, a połączenie miało duży wpływ na środowisko. Produkcja żywności na nasz użytek obejmuje obecnie w całości 38% powierzchni lądowej Ziemi. Dwie trzecie tej kwoty przypada na pastwiska, a liczba udomowionych zwierząt wynosi dziesiątki miliardów, więcej niż liczba ludzi i znacznie więcej niż jakiekolwiek dzikie odpowiedniki. Wraz z nadejściem epoki industrialnej w ciągu ostatnich kilku stuleci posunęliśmy się znacznie dalej w naszym wpływie na Ziemię i środowisko. Wczesne fabryki zaczęły wyrzucać do atmosfery toksyczne chemikalia, w krajobrazie zbudowano linie kolejowe i drogi, miasta gwałtownie się rozrosły, lasy wykarczowano, a rzeki zatamowano. Stworzyliśmy teraz masowo energochłonne społeczeństwo oparte na paliwach kopalnych i elektryczności dla fabryk, oświetlenia, ogrzewania i klimatyzacji, zbudowaliśmy rozległe miasta drapaczy chmur i wyprodukowaliśmy miliardy pojazdów i samolotów do podróży oraz gigantyczne statki do transportu. Lista jest długa. Globalne zużycie energii wzrosło pięciokrotnie w latach 1800-1950 i kolejne pięciokrotnie w ciągu ostatnich 65 lat, co odpowiada wykładniczym stopom wzrostu wynoszącym 1,1% i 2,5% rocznie. odpowiednio. W 2016 r. zużycie energii pierwotnej obejmowało 34% ropy naftowej, 29% węgla, 25% gazu ziemnego, 7% tradycyjnych biopaliw oraz 6% energii jądrowej, wodnej, słonecznej, wiatrowej i innych odnawialnych źródeł energii. Termin "Olej szczytowy" odnosi się do maksymalnej szybkości wydobycia, po której nastąpi spadek; na początku lat 70. spodziewano się, że zostanie osiągnięty do 2020 r., ale ciągłe odkrycia nowych rezerw i pojawienie się szczelinowania zmieniły równanie. Zasoby węgla mogły w zasadzie wystarczyć na kilka wieków. Zużycie energii kontynuuje swój nieustanny wzrost. Wpływ tego wszystkiego jest przerażający. Zagrażamy istnieniu nie tylko innych gatunków, ale także naszego. Klasycznym równaniem naszego wpływu na środowisko (I) jest I = PAT, gdzie P to populacja ludzka, A to zamożność na mieszkańca, a T to technologia wyczerpywania zasobów i zanieczyszczania środowiska. Co my zrobiliśmy? Cóż, po pierwsze, jesteśmy główną przyczyną tak zwanego "szóstego" masowego wymierania lub wymierania holoceńskiego, które, jak się szacuje, powoduje wymieranie setki, a nawet tysiące razy większe niż normalne tempo "tła". Poprzednie pięć masowych wymierań miało miejsce 443, 360, 250, 200 i 65 milionów lat temu, a każde wyginęło w zakresie 60-95% całego życia; dwa były prawdopodobnie spowodowane zmianą klimatu, dwa były spowodowane superwulkanami, a ta, która zabiła dinozaury, była skutkiem uderzenia dużej asteroidy. Holocen to obecna epoka geologiczna, która rozpoczęła się około 11 700 lat temu i obejmuje historię ludzkości od nadejścia cywilizacji rolniczych i najwcześniejszych do chwili obecnej. Szacuje się, że połowa wszystkich dzikich zwierząt wyginęła w ciągu ostatnich 50 lat, a połowa wszystkich pozostałych gatunków może wyginąć do końca tego stulecia. Artykuł z 2017 roku zatytułowany "World Scientists′ Warning to Humanity: A Second Notice" i podpisany przez 15 364 naukowców ze 184 krajów stwierdza, że "rozpętaliśmy masowe wymieranie, szóste w ciągu około 540 milionów lat, w którym wiele obecnych form życia może zostać unicestwiona lub przynajmniej skazana na zagładę do końca tego stulecia". Wskazali, że "w latach 1970-2012 liczebność kręgowców zmniejszyła się o 58%, a populacje słodkowodne, morskie i lądowe zmniejszyły się odpowiednio o 81, 36 i 35%". Dokument ten był kontynuacją pierwszego ostrzeżenia podpisanego w 1992 roku przez ponad 1700 naukowców, w tym większość żyjących wówczas laureatów Nagrody Nobla. Autorzy z 1992 roku ostrzegali, że "jeśli chcemy uniknąć ogromnej ludzkiej nędzy, konieczna jest wielka zmiana w naszym zarządzaniu Ziemią i życiem na niej", że ludzie są "na kursie kolizyjnym ze światem przyrody" i że jesteśmy " przesuwając ekosystemy Ziemi poza ich możliwości wspierania sieci życia". Wyrazili zaniepokojenie szerokim zakresem problemów: zubożenie ozonu, dostępność słodkiej wody, zubożenie życia morskiego, martwe strefy oceanów, utrata lasów, niszczenie bioróżnorodności, zmiana klimatu i ciągły wzrost populacji ludzkiej. Autorzy artykułu z 2017 r. byli w stanie odnotować pewien postęp w ciągu minionych 25 lat: gwałtowną redukcję substancji zubożających warstwę ozonową, niewielki spadek współczynników dzietności ludzi, nieznaczny spadek tempa wylesiania oraz wzrost odnawialnych źródeł energii. -sektor energetyczny. Ale wiele pozostaje do zrobienia. Różnorodność biologiczna nadal cierpi z powodu wielu różnych czynników, w tym degradacja lasów deszczowych i raf koralowych, niszczenie siedlisk, nadmierne polowania, przełowienie, zakwaszenie oceanów, zanieczyszczenie, inwazja obcych gatunków, wprowadzone choroby, spadek liczby zapylaczy i zmiana klimatu. Wprowadzanie przez ludzi inwazyjnych gatunków roślin i zwierząt do ustalonych ekosystemów ma ogromny wpływ na rodzimą florę i faunę na dużych obszarach. Sieci dróg i infrastruktury w różnych krajach miały duży wpływ na siedliska przyrodnicze i przetrwanie gatunków, a głównymi czynnikami były degradacja i zanieczyszczenie powietrza, wody i gleby. Pestycydy wpływają na znacznie więcej organizmów niż tylko ich zamierzone cele i mogą powodować rozległe zanieczyszczenie gleby i wody. Wiele zakłóceń w ekosystemach może mieć subtelne i dalekosiężne skutki. Niektóre z najbogatszych środowisk na planecie zostały poważnie osłabione. Miliony akrów lasów deszczowych zostały zniszczone, aby zapewnić ziemię dla zwierząt gospodarskich; rosnący popyt na mięso był głównym motorem wylesiania i nisz czenia siedlisk. Wylesianie nie tylko usuwa ważnego pochłaniacza dwutlenku węgla; wpływa również bezpośrednio na globalny klimat. Rafy koralowe są morskimi odpowiednikami bogatych w życie lasów deszczowych. Ale umierają na całym świecie z powodu ocieplenia oceanów, zakwaszenia, przełowienia, wydobycia koralowców, zanieczyszczenia i innych czynników. Dziesięć procent raf koralowych na świecie już nie żyje, a ponad 60% jest zagrożonych. A duże regiony świata zostały przez lata zdegradowane przez pestycydy, nawozy, górnictwo oraz różne zanieczyszczenia chemiczne i inne przemysłowe: środki czyszczące, aerozole, ołów i wiele innych. Szacuje się, że 40% gruntów rolnych na świecie zostało poważnie zdegradowanych. Tworzywa sztuczne nie ulegające degradacji są znanymi odpadami współczesnego społeczeństwa i sugeruje się, że w ciągu kilku dziesięcioleci w oceanach może być więcej plastiku niż ryb. W nadchodzących latach dostępność świeżej wody stanie się poważnym problemem w wielu krajach. Ale najważniejsza jest zmiana klimatu, która ma wpływ na prawie wszystko na świecie. Dzięki spalaniu paliw kopalnych zwiększyliśmy ilość dwutlenku węgla w atmosferze o około 40% od początku rewolucji przemysłowej, a większość tego wzrostu nastąpiła od 1970 r. Dwutlenek węgla jest "gazem cieplarnianym". Podobnie jak w konwencjonalnej szklarni, energia słoneczna dociera do powierzchni Ziemi jako światło widzialne, a następnie jest ponownie wypromieniowywana z powierzchni jako promieniowanie cieplne o długości fal podczerwonych; część tego promieniowania cieplnego jest pochłaniana i wyłapywana przez gazy cieplarniane w atmosferze, powodując globalne ocieplenie i zmianę klimatu. Średnia temperatura na świecie wzrosła o 0,85 C w okresie od 1880 do 2012 roku. Międzyrządowy Zespół ds. Zmian Klimatu (IPCC), reprezentujący poglądy ponad 2000 naukowców, podsumował w swoim raporcie z 2014 roku, że "Wpływ człowieka na system klimatyczny jest jasne", że "ostatnie antropogeniczne emisje gazów cieplarnianych są najwyższe w historii" oraz, że "ocieplenie systemu klimatycznego jest jednoznaczne". Populacja i wzrost gospodarczy są odpowiedzialne za większość wzrostu emisji CO2. Światowa populacja nadal rośnie, podobnie jak konsumpcja na mieszkańca. Jaki jest ten kierunek w przyszłości? Organizacja Narodów Zjednoczonych podaje trzy prognozy populacji, przy założeniu wysokiego, średniego i niskiego współczynnika dzietności; te przewidują populację w 2100 na odpowiednio 16,5, 11,2 i 7,3 miliarda. Prosta ekstrapolacja z obecnej populacji wynoszącej 7,6 miliarda prowadzi nieuchronnie do wzrostu populacji w ciągu najbliższych kilku dekad ("rozmachu populacji"). Ale jaką populację może utrzymać Ziemia (jej "nośność")? Opinie są bardzo zróżnicowane, ponieważ zależą od tak wielu nieznanych czynników, zwłaszcza przyszłej konsumpcji per capita w obecnie rozwijającym się świecie (który ma najszybszy wzrost liczby ludności). ONZ podsumowała 65 różnych szacunków w 2012 roku i ustaliła, że najczęstsza to około ośmiu miliardów. Tak więc wyraźnie wzrost liczby ludności będzie kluczowym czynnikiem we wszelkich dyskusjach na temat przyszłego rozwoju. Spalanie paliw kopalnych i procesy przemysłowe spowodowały wzrost o około 78% całkowitej emisji gazów cieplarnianych w latach 1972-2010. Podstawowymi paliwami kopalnymi są ropa naftowa, węgiel i gaz ziemny. Większość światowej ropy naftowej jest wykorzystywana w transporcie. Transport drogowy jest największą przyczyną zmian klimatycznych, a także ma negatywny wpływ na jakość powietrza, powodując smog i kwaśne deszcze. Transport kolejowy jest nieco mniej zanieczyszczający. Podróże lotnicze wytwarzają cząstki stałe i gazy, które przyczyniają się do zmian klimatycznych, a szybki wzrost podróży lotniczych jest poważnym problemem, niektórzy wzywają do wprowadzenia specjalnego podatku od podróży lotniczych. Żegluga zanieczyszcza emisje gazów cieplarnianych i zanieczyszczenie olejami. Ropa naftowa może być toksyczna dla prawie wszystkich form życia, a jednak jest częścią prawie wszystkich aspektów współczesnego społeczeństwa. Węgiel jest nadal używany w wielu elektrowniach na całym świecie i jest bardzo zanieczyszczający. Więc nawet pomijając zmiany klimatyczne, paliwa kopalne mają wiele negatywów. Zmiana klimatu ma charakter globalny, podobnie jak jej konsekwencje. Ma wpływ na wszystko, od lodowców, jezior i oceanów po ekosystemy, produkcję żywności i dobrostan człowieka. Spowodowała znaczny wzrost częstotliwości i nasilenia ekstremalnych zjawisk pogodowych: fal upałów, suszy, powodzi, cyklonów i pożarów, a ostatecznie doprowadzi do długotrwałych zmian. Ocieplenie i zakwaszenie oceanów wynikające z pochłaniania CO2 będzie miało coraz bardziej negatywny wpływ na życie morskie i rafy koralowe. A duża część gatunków stoi w obliczu zwiększonego ryzyka wyginięcia, ponieważ nie będą w stanie nadążyć za szybkim tempem zmian klimatycznych. Jednym z najbardziej oczywistych skutków globalnego ocieplenia jest topnienie lodowców w pasmach górskich na całym świecie oraz pokrywy lodowe Grenlandii i Antarktydy. To, wraz z rozszerzalnością cieplną ocieplającego się oceanu, powoduje wzrost poziomu morza. W najnowszym raporcie IPCC przewiduje się, że wzrost poziomu morza wyniesie od 30 cm do 1 m do 2100 r., a niektóre szacunki mówią o 2 m, jeśli emisje dwutlenku węgla będą się utrzymywać. Skutki są dodatkowo potęgowane przez pływy, tsunami i fale sztormowe spowodowane coraz częstszymi ekstremalnymi zjawiskami pogodowymi. Naraża to ponad miliard ludzi żyjących na obszarach przybrzeżnych i miastach, 10% światowej populacji, na poważne ryzyko. Niektóre ze 130 nadmorskich miast o populacji liczącej milion lub więcej mogą zostać zalane, a całe kraje mogą zniknąć (na przykład Malediwy składają się z 1100 wysp położonych zaledwie 1,3 m nad poziomem morza). Na niektórych nisko położonych wyspach w regionie Pacyfiku już poważnie ucierpiały rafy koralowe, plaże i rolnictwo, a populacje zostały przeniesione; Bangladesz to poważna katastrofa, która może się wydarzyć. IPCC szacuje, że globalny wzrost temperatury od teraz do końca stulecia wyniesie ponad 5 C dla scenariusza z bardzo wysoką emisją gazów cieplarnianych i mniej niż 1 C w przypadku rygorystycznego scenariusza łagodzenia. Słynna obecnie umowa paryska z 2015 r. ma na celu utrzymanie globalnego wzrostu temperatury w tym stuleciu znacznie poniżej 2 C i dążenie do jeszcze mniejszego wzrostu o 1,5 C powyżej poziomu sprzed epoki przemysłowej. Została podpisana przez blisko 200 krajów. Ale nawet jeśli antropogeniczne emisje gazów cieplarnianych miałyby zostać całkowicie zatrzymane, wiele skutków zmian klimatycznych będzie trwało przez wieki; Wiele z już wyrządzonych szkód jest nieodwracalnych w skali od setek do tysięcy lat, chyba że większość CO2 można jakoś usunąć z atmosfery. Oznacza to, że podnoszenie się poziomu mórz będzie trwało przez wiele stuleci, podobnie jak zakwaszenie oceanów. Inne zjawiska wielkoskalowe, takie jak biosystemy, węgiel glebowy i pokrywy lodowe, mają swoje własne, długie skale czasowe. "Zegar Zagłady" to koncepcja wymyślona w 1947 roku przez grupę atomistów. Jest aktualizowany corocznie; początkowo miał wskazywać na zagrożenie globalną wojną nuklearną, ale potencjalne zagrożenia związane ze zmianami klimatycznymi i niewłaściwym wykorzystaniem pojawiających się technologii i nauk przyrodniczych zostały uwzględnione od 2007 r. Początkowo ustalono go na siedem minut przed północą; zmieniał się na przestrzeni lat i osiągnął swój najbardziej "optymistyczny" punkt w czasie 17 minut przed północą w 1991 r., kiedy Stany Zjednoczone i Związek Radziecki podpisały pierwszy traktat o redukcji zbrojeń strategicznych, a Związek Radziecki został formalnie rozwiązany. Jednak na początku 2018 roku Zegar osiągnął dwie minuty przed północą. Nauka z pewnością przyczyniła się do wszystkich powyższych problemów, o ile dała nam wiedzę (scientia po łacinie), która ostatecznie stoi za wszystkimi technologiami. Nauka była więc czynnikiem umożliwiającym i dała nam wielką moc. To, w jaki sposób wykorzystamy tę moc - na dobre czy na złe - zależy wyłącznie od nas. Nie trzeba dodawać, że nadużyliśmy go, zwłaszcza w ciągu ostatnich dwóch stuleci, a teraz musimy ponieść konsekwencje. Ale nauka może być również częścią rozwiązania. To dlatego, że byliśmy w stanie naukowo zmierzyć i zrozumieć skutki, jakie wywarliśmy na środowisko, byliśmy w stanie uświadomić sobie, co zrobiliśmy, zmienić kurs, złagodzić skutki, a w (miejmy nadzieję w większości) przypadkach je odwrócić. Odnotowano kilka godnych uwagi sukcesów. Jednym z nich jest ozon. Obecne zaniepokojenie przyczynami zmian klimatu i tym, co z nimi zrobić, przypomina debatę nad domniemanym związkiem między chlorofluorowęglowodorami (CFC) a ścieńczeniem ochronnej warstwy ozonowej ponad 30 lat temu. Problem został ostatecznie rozwiązany po odkryciu dziury ozonowej nad Antarktydą i mocnych dowodach łączących dziurę ozonową z CFC. Podpisano międzynarodowe porozumienie w sprawie kontroli produkcji CFC, opracowano mniej szkodliwe substytuty, a dziura ozonowa obecnie się kurczy. Dramatycznym przykładem nauki, technologii i zdrowego rozsądku, które mają ogromny wpływ na przetrwanie i dobrobyt ludzi, była "Zielona Rewolucja" w ubiegłym stuleciu. Pod koniec lat 60. wierzono, że nastąpi nieuchronny globalny kryzys żywnościowy, a w 1968 r. amerykański biolog Paul Ehrlich opublikował swoją książkę The Population Bomb, w której przewidział, że w latach 70. setki milionów ludzi umrą z głodu. To, wraz z najlepiej sprzedającym się raportem Klubu Rzymskiego z 1972 r. Granice wzrostu i kryzys naftowy z 1973 r., wywołało wielkie przeczucie. Ale wtedy Zielona Rewolucja była już w toku. Był to zwieńczenie dziesięcioleci badań i rozwoju w kierunku wysoko wydajnych i odpornych na choroby upraw, w szczególności odmian pszenicy karłowatej i ryżu, w połączeniu z zaawansowanymi pomysłami na nawozy syntetyczne, pestycydy oraz nowe metody nawadniania i uprawy. Amerykański agronom i genetyk Norman Borlaug stał się znany jako "ojciec Zielonej Rewolucji", otrzymał w 1970 roku Pokojową Nagrodę Nobla i przypisuje mu się uratowanie ponad miliarda ludzi przed głodem. Istnieją różne spekulacyjne pomysły na rozwiązanie problemu zmian klimatycznych. Jeden z nich polega na usunięciu dużej części CO2 z atmosfery poprzez "emisje ujemne": uprawę ogromnych obszarów szybko rosnących roślin i drzew w celu wydobycia CO2 z atmosfery, a następnie spalanie go w elektrowniach, wychwytywanie CO2 i składowanie go pod ziemią. Inny polega na bezpośrednim chłodzeniu atmosfery. Zauważono, że potężne erupcje wulkaniczne, takie jak Pinatubo w 1991 roku, mogą czasami chwilowo ochłodzić atmosferę. Czy to zjawisko ochładzania można by sztucznie odtworzyć, aby trwale przeciwdziałać ocieplającemu efektowi gazów cieplarnianych? Pomysł polega na tym, że warstwa aerozolu stratosferycznego jest tworzona przez gazowy dwutlenek siarki, który utlenia się do kropelek kwasu siarkowego, które z kolei odbijają światło słoneczne, zmniejszając w ten sposób ilość energii docierającej do niższych poziomów, a tym samym ją ochładzając. Taki proces (wpływający na warstwę ozonową) jest uważany za ryzykowny i od dawna stanowi tabu wśród wielu naukowców, ale obecnie istnieje poparcie dla ograniczonych badań i gotowość do wielu obserwacji kolejnej wielkiej erupcji, aby lepiej zrozumieć możliwość "inżynieryjnego chłodzenia". Ponieważ obecnie istnieje podwyższona świadomość kwestii środowiskowych, zarówno rządy, jak i społeczeństwo wykazały chęć wprowadzania korekt tam, gdzie to możliwe, i do pewnego stopnia modyfikowania zachowań. Wiele dróg wodnych zostało oczyszczonych w ciągu ostatnich kilkudziesięciu lat. Coraz większy nacisk kładzie się na ochronę gatunków. Branże transportowe kładą większy nacisk na efektywność energetyczną i redukcję zanieczyszczeń, a tendencja jest skierowana w stronę publicznego transportu, zwiększone wykorzystanie pojazdów elektrycznych i rowerów. Wiele odpadów jest poddawanych recyklingowi, tworząc nowe i dochodowe gałęzie przemysłu. Następuje masowa zmiana z żarówek na oświetlenie LED, co daje znaczne oszczędności energii. Wiele pozostaje do zrobienia, ale takie kroki są zachęcające. Jak zauważyli mówcy i autorzy, tacy jak Hans Rosling i Stephen Pinker, istnieje wiele oznak, że społeczeństwo jako całość zmierza w kierunku lepszego świata. Podejmowane są również ważne kroki, aby odzwyczaić się od paliw kopalnych i przejść na odnawialne i czyste źródła energii. Koszt paneli słonecznych nadal gwałtownie spada; Prawo Swansona (podobne do prawa Moore′a w elektronice) stwierdza, że cena modułów słonecznych spada o 20% za każde podwojenie produkcji; spadła z 77 USD za wat w 1977 r. do 0,36 USD w 2014 r. W kilku krajach energia słoneczna jest już tańsza niż energia elektryczna z paliw kopalnych z sieci. Moc wiatru ma znikomy wpływ na środowisko i jest kompatybilne z innymi zastosowaniami gruntów, ale gigantyczne farmy wiatrowe mogą być plagą dla krajobrazu i nigdy nie zapewnią dużej części naszego zapotrzebowania na energię. Elektrownie wodne są również czyste, ale tamy, które są często zaangażowane, mogą być negatywne dla wielu gatunków i środowiska (chociaż mogą być również korzystne dla wody pitnej, nawadniania i ochrony przeciwpowodziowej). Energia jądrowa (rozszczepiania) pozostaje tylko niewielkim wkładem w zasoby energetyczne z powodu odpadów radioaktywnych, niebezpieczeństw katastrof w elektrowniach jądrowych i wynikającego z nich zanieczyszczenia o bardzo długim okresie półtrwania. Unia Europejska (UE) pozyskuje teraz 30% swojej energii elektrycznej ze źródeł odnawialnych (więcej niż z węgla), a do 2030 r. ta część wzrośnie do 50%. Jednak energia termojądrowa jest długofalowym rozwiązaniem naszych potrzeb energetycznych. Jest to proces, który zasila Słońce. Paliwem dla reaktorów będą izotopy wodoru, deuter i lit, które można pozyskać z wody morskiej, dostarczając energię na miliony, a nawet miliardy lat. W wyniku reakcji powstaje tylko nieszkodliwy hel. Fuzja jest wewnętrznie bezpieczna - trudno jest kontynuować, ale jeśli pojawi się problem, po prostu się zatrzymuje. Istnieje pewna ilość odpadów radioaktywnych z powodu napromieniowania neutronami ścian reaktora, ale ich okres półtrwania to zaledwie dziesięciolecia - nic takiego jak setki tysięcy lat dla odpadów z dzisiejszych reaktorów rozszczepienia. Fuzja była reklamowana jako "przyszłość" od ponad pół wieku, ale wiele się nauczono i obecnie opracowywane są bardzo obiecujące prototypy, w szczególności ogromny ITER o wartości 20 miliardów dolarów budowany we Francji przez międzynarodowe konsorcjum (UE , Chiny, Rosja, Stany Zjednoczone, Indie, Japonia i Korea Południowa); jeśli się powiedzie, do 2050 r. mogą zostać uruchomione pierwsze komercyjne reaktory termojądrowe. Energia termojądrowa nie spowoduje globalnego ocieplenia; obecne zużycie energii na świecie to zaledwie 0,02% energii słonecznej uderzającej w Ziemię (i tylko 0,1%, nawet jeśli wszystkie kraje zużywają ją w takim samym tempie na mieszkańca jak Stany Zjednoczone) - zupełnie nieistotne w porównaniu ze światłem słonecznym. Słynny obraz "Earthrise" dramatycznie podkreśla, na jakiej delikatnej, wyjątkowej i cennej planecie żyjemy. Możemy mieć tylko nadzieję, że nie jest za późno, aby skorygować nasz kurs, aby zapewnić, że Ziemia i jej biosfera będą trwałym naszym domem w odległej przyszłości.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (33)


Moce i niebezpieczeństwa nauki

Przez niewinne przeszukiwanie świata w poszukiwaniu sekretów natury z czystej ciekawości, naukowcy mogą nieumyślnie umożliwić pewne potencjalnie niebezpieczne zmiany. Czasami jest to nieprzewidywalne. Stało się to na przykład, gdy udało nam się dotrzeć do wnętrza jądra atomu i do wnętrza jądra żywej komórki. Kiedy dotarliśmy do wnętrza jądra atomowego, odkryliśmy, że można z niego wydobyć energię. W latach dwudziestych naukowcy badający jądro atomowe robili to z czystej ciekawości i podniecenia. Nie było obawy, do czego te badania mogą doprowadzić. W latach 30. XX wieku niektórzy naukowcy zdawali sobie sprawę, że energię można wydobyć z jądra atomu, ale początkowo nawet Einstein wątpił, czy kiedykolwiek stanie się to rzeczywistością. Pomysł jądrowej reakcji łańcuchowej został po raz pierwszy zaproponowany przez węgierskiego naukowca Leo Szilarda w 1933 r. W 1938 r. niemieccy chemicy Otto Hahn i Fritz Strassmann odkryli rozszczepienie jądrowe; wyjaśnienia teoretycznego dostarczyli wkrótce Lise Meitner i Otto Frisch. Enrico Fermi i współpracownicy dokonali pierwszego rozszczepienia jądrowego w USA w 1939 roku, a Szilard i Walter Zinn udowodnili, że reakcja łańcuchowa jest możliwa. Ponieważ większość naukowców w tej dziedzinie mieszkała i pracowała w Niemczech, istniała obawa, że naziści mogą opracować "bombę atomową" w oparciu o te wydarzenia. Szilard napisał list do prezydenta Roosevelta ostrzegający go przed taką możliwością i sugerujący, że USA powinny rozpocząć własny program nuklearny; Einstein został przekonany do podpisania listu w sierpniu 1939 r., co dodawało propozycji jego ogromnego prestiżu. Tak narodził się Projekt Manhattan. Niemcy nigdy nie opracowały takiej bomby, ale Projekt Manhattan odniósł sukces; pierwsza bomba atomowa eksplodowała w Nowym Meksyku w lipcu 1945 roku, a w następnym miesiącu dwie bomby zostały zrzucone bez specjalnego ostrzeżenia na Hiroszimę i Nagasaki w Japonii, kończąc II wojnę światową. Na temat projektu Manhattan i poglądów zaangażowanych naukowców napisano wiele książek. W pracy nad projektem było poczucie entuzjazmu, ale kiedy wróciły wieści o straszliwym zniszczeniu, wielu naukowców wpadło w introspekcję i głęboko się zaniepokoiło, a wielu poczuło się winne. W październiku 1945 J. Robert Oppenheimer, jeden z najwybitniejszych "ojców" bomby atomowej, odwiedził prezydenta Harry′ego Trumana, aby przekonać go do poparcia międzynarodowej kontroli nad bronią jądrową. Ale niektórzy inni naukowcy przystąpili do opracowania znacznie potężniejszej bomby wodorowej. Obawy społeczeństwa osiągnęły szczyt w latach 50. wraz z kampanią "zakaz bomby". Niemniej jednak, nawet dzisiaj, dekady po zimnej wojnie, nadal żyjemy w cieniu światowych arsenałów nuklearnych, a mały błąd może szybko doprowadzić do nuklearnego zapomnienia. Bomba atomowa z pewnością uświadomiła wszystkim potęgę nauki, ale także głęboko zaniepokoiła nie tylko bombą, ale także to, co może przynieść przyszłość nauki. Czy wszyscy powinni przestać uprawiać naukę? Ale jeśli nie będzie trwało w jednym miejscu, bez wątpienia będzie kontynuowane w innych. Rosnąca liczba krajów, które opracowały bombę, stale przypomina o tym problemie. Kiedy dotarliśmy do jądra żywej komórki, odkryliśmy podstawę życia, DNA. Chociaż było to ekscytujące i fundamentalne odkrycie dla nauki, otworzyło również drogę do wielu potencjalnych manipulacji i zastosowań. Tak więc genetyka to kolejna dziedzina nauki, która przez lata budziła niepokój, chociaż nastroje społeczne różnią się w zależności od konkretnego zastosowania i technologii. Testy genetyczne są postrzegane pozytywnie, a klonowanie negatywnie (do tej pory sklonowaliśmy 23 gatunki ssaków, w tym naszego bliskiego krewnego szympansa). Postawy wydają się być pozytywne w przypadku zastosowań, które zachowują naturalny porządek, a negatywne w przypadku zastosowań, które go zmieniają. Rozwój badań genetycznych był stopniowy i nie było nagłego szoku, który spowodowałby kryzys opinii publicznej. Pożyteczne zastosowania nauk genetycznych rosną i wskazują na rewolucję w medycynie w nadchodzących dziesięcioleciach. Ale pojawiły się poważne kontrowersje dotyczące niektórych osiągnięć, w szczególności inżynierii genetycznej, zmieniającej samo DNA organizmu. O ile prawdą jest, że selektywna hodowla roślin i zwierząt (prowadzona od tysięcy lat) powoduje modyfikacje genomu, a zatem jest rodzajem inżynierii genetycznej, nigdy nie budziła kontrowersji. Ale nowsze innowacje wywołały poruszenie. Jak wspomniano powyżej, rośliny modyfikowane genetycznie (GM) są obecnie dość szeroko stosowane i dają wiele korzyści. Wielu rolników postrzega je jako korzystne, a naukowcy są zgodni, że nie stanowią zagrożenia dla zdrowia, ale wielu z ogółu społeczeństwa pozostaje sceptycznych. Wspomniana również powyżej terapia genowa polega na bezpośredniej ingerencji w ludzki genom, a ze względu na ogromną złożoność zarówno genomu, jak i komórki, która go zawiera, wielu naukowców, a także opinia publiczna, obawia się prawdopodobieństwa niezamierzonych konsekwencji. Istnieją również obawy, że terapia genowa może być stosowana nie tylko do leczenia chorób, ale także do modyfikacji lub wzmacniania różnych cech człowieka, takich jak wygląd, budowa ciała, inteligencja czy charakter. Czołowi naukowcy z największych światowych organizacji wezwali do wprowadzenia moratorium na dziedziczne zmiany genomu ludzkiego, a wiele krajów kategorycznie zabroniło takiej terapii genowej. Prawdopodobnie minie dużo czasu, zanim te poglądy się zmienią, ale w międzyczasie zawsze pozostaje możliwość kontynuowania tego rodzaju badań w innych krajach. Kontrowersje są bardzo szerokie: oskarżenia religijne, że naukowcy "grają w Boga", kwestie "patentowania życia", a w konkretnym przypadku upraw GM krytyka procesów regulacyjnych, etykietowania produktów, obawy o przepływ genów i zanieczyszczenie innych organizmów oraz ogólnie kwestie środowiskowe i zdrowotne. Istnieje podstawowa obawa przed wtrącaniem się w naturalny sposób rzeczy i ogólnie zakłócaniem delikatnej równowagi natury. Od ponad dekady szaleje kontrowersje wokół wykorzystania pluripotencjalnych embrionalnych komórek macierzystych. Są to niezróżnicowane komórki, które mogą stać się dowolnym rodzajem komórek i mogą się rozmnażać w nieskończoność. Mają wiele zalet w stosunku do wcześniej stosowanych "dorosłych" komórek macierzystych, ale ich uzyskanie skutkuje zniszczeniem zarodka. Wywołało to burzę protestów opartych na etyce. Czy niszczenie embrionu w celu wyleczenia wielu pacjentów jest uzasadnione? W którym momencie zaczyna się życie? Kilka krajów zakazało używania embrionalnych komórek macierzystych, a w innych pozostaje to kontrowersyjne. Ostatnie odkrycia mogą wyeliminować potrzebę embrionalnych komórek macierzystych, a te nowe badania mogą nawet otworzyć zupełnie nowa możliwość: odwrócenie skutków starzenia przynajmniej w niektórych komórkach. Sztuczne życie to kolejna bardzo kontrowersyjna dziedzina. Podjęto już różne kroki w tym kierunku, produkując samoreplikujące się organizmy ze sztucznym DNA, a nawet zupełnie nowym kodem genetycznym z sześcioma literami zamiast zwykłych czterech. Chociaż tego rodzaju badania są ekscytujące i być może pewnego dnia pokażą, w jaki sposób życie na Ziemi mogło powstać z cząsteczek abiotycznych, są jednocześnie niepokojące; gdyby kiedykolwiek powstało prawdziwe sztuczne życie, z pewnością wywołałoby to wielki szok, ponieważ konsekwencje byłyby głębokie. I oczywiście przypomina upiorną powieść science fiction napisaną przez Mary Shelley w 1818 roku o Frankensteinie, naukowcu, który stworzył groteskową, ale mądrą istotę. Ponieważ coraz więcej laboratoriów na całym świecie jest w stanie wykonywać stosunkowo wyrafinowane prace i stają się dostępne potężniejsze narzędzia, takie jak CRISPR, zawsze pojawia się na horyzoncie możliwość nieumyślnego lub celowego wytworzenia zabójczego wirusa i pandemii. A biologia "zrób to sam" jest teraz możliwa dla amatorów, przy użyciu wielu takich samych technik, jak w głównych instytucjach badawczych. To era "biologii garażowej". Czy dżin jest wypuszczany z butelki? Podjęto wysiłki, aby uregulować tę działalność, ale jak dotąd były one stosunkowo nieskuteczne, a samozwańczy "biohakerzy" uważają, że otwartość i przejrzystość są lepsze niż przepisy. Broń biologiczna i chemiczna stanowi ciągłe zagrożenie dla ludzkości. Broń biologiczna opiera się na czynnikach chorobotwórczych, takich jak bakterie, wirusy, grzyby i toksyny. Ich użycie sięga wieków: na przykład zarażone zarazą ciała rzucane przez ufortyfikowane mury podczas bitwy lub zarażone ospą koce rozdawane rdzennej ludności. Broń biologiczna z 1972 r. Konwencja zabrania 180 sygnatariuszom opracowywania, produkcji i gromadzenia zapasów broni biologicznej i toksycznej, ale nadal istnieją obawy. Chociaż ospa została oficjalnie usunięta ze świata (ogromne zwycięstwo zdrowia publicznego w 1980 r.), zatwierdzone próbki są przechowywane w dwóch laboratoriach, jednym w USA i jednym w Rosji, i zawsze jest możliwe, że wirus wpadnie w iewłaściwe ręce. Ponieważ praktycznie cała populacja świata nie ma obecnie odporności na ospę, niewielkie uwolnienie drobnego aerozolu (na przykład na dużym lotnisku) może szybko rozprzestrzenić chorobę na całym świecie. I istnieje wiele innych potencjalnych (i prawdopodobnie syntetycznych) broni biologicznych; ponieważ informacje o ich wytwarzaniu są szeroko dostępne w Internecie, ich wykorzystanie przez zbójeckie państwo lub organizację terrorystyczną stanowi ciągłe zagrożenie. Broń chemiczna różni się od broni biologicznej; używają toksycznych chemikaliów, które mogą wyrządzić krzywdę lub śmierć. Przykładami są gaz musztardowy, gaz fosfinowy i różne środki nerwowe. Niektóre zostały odkryte przypadkowo kilkadziesiąt lat temu przez naukowców próbujących opracować pestycydy. Chociaż sponsorowana przez ONZ Konwencja o broni chemicznej z 1997 r. została podpisana przez 192 kraje, a ponad 93% światowych zapasów zostało zniszczonych, nadal istnieją obawy; zapasy są utrzymywane w niektórych krajach jako środek ostrożności przed jakimkolwiek agresorem. Argumentowano, że masowa wojna biologiczna lub chemiczna jest mało prawdopodobna, ponieważ może odbić się odwrotnie, a nawet spowodować globalną pandemię; wydaje się jednak mało prawdopodobne, że kiedykolwiek będziemy całkowicie wolni od potencjalnego zagrożenia bronią biologiczną i chemiczną. Nikt by nie pomyślał, że teoria ewolucji Darwina poprzez dobór naturalny byłaby jednym z niebezpiecznych osiągnięć naukowych. Niestety, jego teoria zachęciła jego kuzyna Sir Francisa Galtona do wpadnięcia na pomysł tego, co nazwał eugeniką w 1883 roku, aby poprawić populację ludzką (chociaż sam Darwin zdecydowanie się z tym nie zgadzał). Pożądane cechy ludzkie (przypuszczalnie genetyczne) miały być wspierane, a niepożądane zniechęcane. Pomysł zyskał popularność i był w pełnym rozkwicie na początku XX wieku w wielu krajach. Łącznie w samych Stanach Zjednoczonych wysterylizowano około 60 000 osób; Nazistowskie Niemcy, chcąc ustanowić "czystą" rasę aryjską, doprowadziły eugeniki do dobrze znanych ekstremów, pokazując, jak strasznie źle może się stać. Eugenika została oczerniona i upadła po II wojnie światowej. Na szczęście współczesna analiza genetyczna obala starożytne stereotypy rasowe, ujawniając złożone interakcje, które miały miejsce między społeczeństwami w przeszłości. Siła współczesnej elektroniki doprowadziła do gwałtownego spadku prywatności. Ogromne komputery i banki danych na świecie zawierają informacje o wszystkich. Banki posiadają elektroniczną ewidencję naszych rachunków oszczędnościowych, inwestycji, numerów kart kredytowych i transakcji finansowych. Firmy ubezpieczeniowe znają nasze historie medyczne, szczegóły dotyczące domu i samochodu. Wszystko dobrowolnie umieszczone na Facebooku pozostaje na zawsze - mnóstwo informacji o szczegółach naszego życia, znajomych, aktywności, poglądach politycznych, troskach i aspiracjach. Przeglądanie stron internetowych pozostawia ślad elektroniczny, a zakupy on-line dostarczają informacji o naszych osobistych preferencjach i nie tylko. Nasze smartfony zawsze wiedzą, gdzie jesteśmy, a duża liczba kamer bezpieczeństwa może nas śledzić za pomocą technik rozpoznawania twarzy. Lekarze i szpitale coraz częściej udostępniają nasze dane medyczne. Rządy zbierają informacje dotyczące bezpieczeństwa, w tym odciski palców i zdjęcia, a także numery ubezpieczenia społecznego, numery paszportów i nasze schematy podróżowania, gdy przechodzimy przez lotniska. Po cichu się zgadzamy, bo wiemy, że te rzeczy są dla nas korzystne, ale też niosą ze sobą nowe zagrożenia. Informacje mogą dostać się w niepowołane ręce. Dane o setkach milionów ludzi mogą zostać nagle skradzione z dużego banku. "Kradzież tożsamości" może powodować poważne problemy dla ofiar. A niektóre agencje rządowe po cichu próbują zgromadzić jak najwięcej informacji o swoich obywatelach, co nieco przypomina "Wielkiego Brata" z książki George′a Orwella "Nineteen Eighty-four". Zaniepokojenie tym może wydawać się naciągane, ale w przeszłości zdarzało się, że rządowe rejestry były wykorzystywane do złych celów, takie jak dobrze zorganizowane holenderskie rejestry miejskie, które ułatwiały nazistom znalezienie Żydów. Utrata prywatności we współczesnym świecie jest bezprecedensowa. Czy możemy z tym żyć? Czy sztuczna inteligencja (AI) jest dla nas zagrożeniem? Czy istnieje niebezpieczeństwo, że sztuczna inteligencja stanie się nieuczciwa i wróży ludzkości zagładę? Czy możemy nawet teraz nie rozumieć decyzji podejmowanych przez niektóre maszyny AI? W ostatnich latach pojawiła się pewna histeria na temat tej możliwości, napędzana przez dziesięciolecia science fiction oraz szybko rosnącą moc i potencjał najnowocześniejszych samouczących się systemów sztucznej inteligencji i robotyki. Z pewnością sztuczna inteligencja jest głównym czynnikiem w automatyzacji zastępowania miejsc pracy, jak omówiono w poprzedniej sekcji, oraz w utracie prywatności, jak wspomniano powyżej. Ale roboty AI są oddalone o lata świetlne od bycia czymś w rodzaju świadomych i czujących istot z science fiction (a niektórzy twierdzą, że takie osiągnięcia są całkowicie niemożliwe, nawet w odległej przyszłości), więc histeria wydaje się nieuzasadniona. Co więcej, są one przecież tylko ludzkimi tworami (nawet jeśli są zdolne do samodzielnego uczenia się), a ludzkość zawsze może trzymać rękę na przycisku "przerwij". Niemniej jednak rozsądne wydaje się ustanowienie środowiska regulacyjnego w celu monitorowania bieżących wydarzeń, które wiążą się z miliardami dolarów rocznie, i zapewnienia, że sztuczna inteligencja zawsze robi dokładnie to, czego chcemy, i nic więcej. Jak dotąd AI jest naszym przyjacielem i sługą, w komputerach i smartfonach, których używamy, w wyszukiwarkach, rozpoznawaniu twarzy i mowy, a wkrótce w samojezdnych samochodach i diagnozach medycznych. Mówi się, że kombinacja komputer-człowiek jest o wiele potężniejsza niż same komputery lub sam człowiek - zwycięskie partnerstwo w grach takich jak szachy z komputerem ścigającym się przez wszystkie możliwe ruchy z niesamowitą prędkością i ludzkim dodawaniem intuicji i osądu. A mariaż sztucznej inteligencji z neuronauką już zaczyna przynosić rezultaty. Dzięki interfejsowi mózg-komputer, w którym komputer komunikuje się z chipem osadzonym w mózgu, osoba niepełnosprawna fizycznie może poruszać kursorem komputera, sterować zmotoryzowanym wózkiem inwalidzkim i poruszać ramieniem robota wyłącznie za pomocą myśli. A naukowcy mogą już rozróżniać proste "myśli" - na przykład myślenie o tenisie lub łóżku - za pomocą funkcjonalnego rezonansu magnetycznego. Może nadejść dzień, w którym komputery będą mogły bardziej ogólnie "odczytywać" procesy umysłowe i wykonywać polecenia mózgu, zmieniając życie poważnie upośledzonych ludzi i poprawiając życie innych. Na tej nowej granicy dokonywane są duże inwestycje, zarówno publiczne, jak i prywatne. Ale znowu istnieją poważne obawy. W jakim stopniu to wszystko wpłynie na życie prywatne i zmieni samo pojęcie tego, co to znaczy być człowiekiem? Gdzie rysujemy linię? Obecnie pojawiają się apele o uregulowanie tego rodzaju badań, ale są one rozwijane na tak wiele sposobów przez tak wielu badaczy w tak wielu krajach, że ich powstrzymanie może nie być łatwe. Z pewnością jest jedna arena, na której sztuczna inteligencja i roboty nie będą łagodne. "Zabójcze roboty" mogą przynieść trzecią rewolucję w wojnie. Autonomiczne systemy uzbrojenia mogą umożliwić konflikty zbrojne na skalę znacznie większą niż kiedykolwiek wcześniej, w skali czasowej szybszej niż ludzie mogą sobie wyobrazić. Mogą być wykorzystywane zarówno przez terrorystów, jak i narody. Autonomiczne systemy uzbrojenia są obecnie na krawędzi rozwoju; obecnie rozwija je kilkanaście krajów. Zarówno sprzęt, jak i oprogramowanie rozwijają się wykładniczo, a ta "podwójna wykładnicza" może szybko przyspieszyć ten rozwój. W 2015 roku ponad tysiąc naukowców i ekspertów technologicznych napisało list ostrzegający przed tym niebezpieczeństwem, a w 2017 roku 116 założycieli firm zajmujących się robotyką i sztuczną inteligencją napisało list otwarty do ONZ, wzywając do zakazu broni autonomicznej podobnej do broni chemicznej. Nanotechnologia to nowa i ekscytująca granica w nauce i technologii. Jest to badanie i manipulacja materią w niezbadanej dotąd dziedzinie przestrzeni parametrów, w skali od 1 do 100 nanometrów (nm). Richard Feynman zasiał pierwsze nasiona w swoim przemówieniu z 1959 r. Jest mnóstwo miejsca na dole. Dolna granica 1 nm jest wyznaczona przez wielkość atomów, a górna granica zbliża się do rozmiarów komórkowych form życia i skali mikrotechnologii. Poniżej 100 nm efekty kwantowe stają się znaczące i pojawia się szereg specjalnych właściwości fizycznych, więc nanoskale pokrywają intrygujący zakres (dokładna granica między klasyczną a kwantową jest przedmiotem dyskusji - w tym zakresie termodynamika klasyczna konfrontuje mechanikę kwantową w tym, co obecnie nazywa się "termodynamiką kwantową" ). Nanotechnologia jest bardzo szeroka, począwszy od pasywnych nanomateriałów, które mogą być wykorzystywane w różnych zastosowaniach, po inżynierię funkcjonalnych maszyn molekularnych wykorzystujących kontrolę atomową i inspirowanych niezliczonymi przykładami znalezionymi w świecie przyrody. Dwa osiągnięcia w latach 80. dodatkowo stymulowały pojawienie się nanotechnologii: wynalezienie skaningowego mikroskopu tunelowego zdolnego do obrazowania i manipulowania pojedynczymi atomami w materiałach oraz odkrycie tak zwanych "piłkówek", naturalnie występujących cząsteczek składających się z 60 atomów węgla ułożonych w pusta kula, pokazująca, jakie egzotyczne zjawiska są możliwe. Obaj zdobyli Nagrody Nobla. W następnych dziesięcioleciach zaczęła pojawiać się szeroka gama produktów nanotechnologicznych, które dziś mogą liczyć w tysiącach. Początkowo ograniczały się do zastosowań pasywnych, takich jak kosmetyki, kremy przeciwsłoneczne, powłoki powierzchniowe, taśmy gekonowe, opakowania do żywności, odzież, paliwa i nanowłókna w rakietach tenisowych i skrzydłach samolotów, ale wkrótce mogą obejmować różnego rodzaju czujniki, magazynowanie energii, zabiegi medyczne, nanoelektronika i wielu innych. Możliwość istnienia nanomaszyn ("nanorobotów") została omówiona przez Feynmana w swoim przemówieniu z 1959 r., ale pozostawała spekulacjami przez wiele dziesięcioleci (w tym koncepcja science fiction z lat 80. dotycząca "szarej mazi" maleńkich samoreplikujących się robotów konsumujących wszystko na swojej drodze). Ale teraz stały się rzeczywistością. Nagroda Nobla w dziedzinie chemii 2016 została przyznana "za projektowanie i syntezę maszyn molekularnych". Molekularny "nanowóz" został wybrany przez Chińską Akademię Nauk jako jedno z dziesięciu głównych odkryć naukowych na całym świecie w 2011 roku. W 2017 roku na Uniwersytecie w Manchesterze zbudowano robota molekularnego, którego można zaprogramować do budowy różnych cząsteczek; ma ramię, które może manipulować poszczególnymi cząsteczkami. Sześciobiegowa "molekularna skrzynia biegów" została niedawno wykonana przez zespół z Uniwersytetu Tokijskiego. W nadchodzących latach nanotechnologia dotrze do nas wszystkich. Potencjalne korzyści są ogromne, ale istnieją poważne obawy dotyczące wpływu, jaki zastosowanie nanomateriałów na skalę przemysłową może mieć na zdrowie i środowisko. Nanocząsteczki są zanieczyszczeniami wystarczająco małymi, aby mogły zostać wchłonięte przez skórę, a mimo to są już w powszechnym użyciu. Nanowłókna, podobnie jak azbest, mogą prowadzić do chorób płuc, jeśli są wdychane w wystarczających ilościach. Podobnie jak w przypadku wszystkich nowych technologii, praktycznie nic nie wiadomo o długoterminowych skutkach produktów nanotechnologicznych. Pojawiają się wezwania do ściślejszych regulacji, ale zamieszanie dotyczące odpowiedzialności. W międzyczasie pojawiły się propozycje opóźnionych zatwierdzeń, ulepszonego etykietowania i zwiększonych informacji dotyczących bezpieczeństwa. Każdy duży krok naprzód niesie ze sobą ryzyko.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (32)


Nauka i społeczeństwo

Powyższe przykłady pokazują, jak bardzo nauka jest zaangażowana w niezliczone rzeczy, które są częścią naszego codziennego świata. Nauka zmieniła nasze życie i jest głęboko zakorzeniona w naszej nowoczesnej cywilizacji. Prawdopodobnie nie da się oszacować ekonomicznej wartości, jaką nauka dodała społeczeństwu, ale jest ona oczywiście ogromna. Nauka to wiedza, a wiedza to potęga (scientia potentia est). Ale nawet pomijając swoją wielką użyteczność, nauka jest ogromnym triumfem intelektualnym - prawdopodobnie największym osiągnięciem ludzkości. Same zasady nauki stały się powszechną walutą. Pomysł, że coś musi zostać przetestowane, zanim zostanie zaakceptowane, wydaje nam się oczywisty. Złotym standardem jest "wiedza oparta na dowodach". Nawet reklamy telewizyjne głoszą, że ich produkty "zostały naukowo udowodnione"; słowo "naukowo" wyraźnie ma być ostatecznym stemplem aprobaty. Nauka to jeden z najbardziej szanowanych zawodów na świecie. Ale większość ludzi byłaby zaskoczona, słysząc, że były to badania oparte na ciekawości, które dały zdecydowanie najgłębsze, szeroko zakrojone i ważny wkład: prawa fizyki Newtona, praca Faradaya i Maxwella na temat elektromagnetyzmu, teoria ewolucji Darwina, teorie względności Einsteina, mechanika kwantowa, która stanowi podstawę całej chemii i elektroniki oraz odkrycie struktury DNA przez Cricka i Watsona (podstawa życia) , żeby wymienić tylko kilka - wszystko z czystej ciekawości. Badania ukierunkowane na ciekawość umożliwiły nasz współczesny świat, ale nawet dzisiaj trudniej jest pozyskać fundusze na "niepoważne" badania oparte na ciekawości niż na "poważne" badania zorientowane na cel. Na przestrzeni lat stosunek społeczeństwa do nauki zmieniał się. Chociaż nikt dzisiaj nie wątpiłby w potęgę nauki, istniały i nadal istnieją obawy dotyczące niektórych tworów nauki, jak omówiono to w następnej sekcji. To bardzo pozytywna rzecz, że członkowie społeczeństwa są świadomi działalności naukowej i zabierają głos, gdy widzą potencjalny problem. Badania naukowe - poza tymi, które są prowadzone do celów wojskowych - są otwarte na publiczną analizę. A sami naukowcy w razie potrzeby otwarcie krytykują się nawzajem. Jeśli wydaje się, że jeden lub więcej naukowców zmierza w kierunku, który może mieć negatywne konsekwencje, inni zwrócą na to uwagę. Ta otwartość jest jedną z mocnych stron nauki. Zainteresowanie społeczne nauką jest bardzo ważne. Świat nauki może być szczególnie atrakcyjny dla małych dzieci, pobudzając ich zainteresowanie i wyobraźnię. Są podekscytowani planetami w astronomii, wulkanami w geografii i owadami w biologii, co może doprowadzić ich do kariery naukowej. Również dorośli mogą odkryć, że nowe osiągnięcia naukowe i technologiczne są zdumiewające i ekscytujące; ich uznanie dla faktu, że nauka dała nam zarówno naszą cenną wiedzę o świecie, jak i wysoki standard życia w dzisiejszych czasach, skłania ich do płacenia za przedsięwzięcie naukowe ze środków publicznych. "Nauka obywatelska" rośnie dzięki szerokiej dostępności komputerów, smartfonów i wszelkiego rodzaju czujników. Wczesna wersja miała formę dobrowolnego udostępnienia wolnej mocy obliczeniowej w domowych komputerach połączonych dla profesjonalistów, aby mogli wydajniej wykonywać obliczenia lub polować na obce sygnały. Jednak naukowcy obywatele są teraz bardziej aktywnymi uczestnikami, badającymi obrazy i ogromne bazy danych w poszukiwaniu wyjątkowych zjawisk, poszukującymi zdarzeń niebieskich, pomagającymi w składaniu modelowych białek i DNA online, monitorującym warunki atmosferyczne, jakość powietrza, warunki glebowe lub temperatury wody na miejsca na drodze, przeprowadzanie badań dzikich zwierząt i nagrywanie śpiewów, komunikacji i zachowania zwierząt, by wymienić tylko kilka. Jest to współpraca korzystna dla wszystkich, umożliwiająca obywatelom czerpanie radości z nauki i poczucia wnoszenia wkładu oraz poszerzanie zakresu pracy naukowców. W przeważającej części nauka rozwija się bez powodowania większych zawirowań. Jakie były główne wydarzenia, które eksplodowały w świadomości społecznej od początku rewolucji naukowej? Mała książka Galileusza The Starry Messenger, zawierająca jego astronomiczne odkrycia, z pewnością liczyłaby się jako jedna; szybko stał się sławny w całej Europie. Principia Newtona, które zmieniły świat, były kolejnym. Arcydzieło Darwina O powstawaniu gatunków było tak fascynujące, że niemal natychmiast zostało szeroko zaakceptowane. Teoria szczególnej teorii względności Einsteina była postrzegana jako rewolucja w nauce, a wykrycie zakrzywienia światła przez Słońce, które przewidział, było spektakularnym wydarzeniem. Potem oczywiście bomba atomowa, która eksplodowała na arenie światowej. Ustalenie struktury DNA w 1953 roku wywołało wielkie emocje. Stworzenie sztucznego życia, jeśli i kiedy to nastąpi, byłoby monumentalne. A odkrycie życia pozaziemskiego, najprawdopodobniej formy mikrobiologicznej na Marsie, na zawsze zmieniłoby nasz pogląd na nasze miejsce we wszechświecie. Ale mimo wszystko nauka ma problem z komunikacją. Współczesny świat nauki i technologii, w którym żyjemy, jest dla wielu zarówno zniechęcający, jak i zaskakujący. Przyznając, że cuda, takie jak elektryczność, komputery i samoloty, są niezaprzeczalnie realnymi i niepodważalnymi pamiątkami potęgi nauki, wciąż istnieją rozterki i zagadki w naszym codziennym życiu i naszych poglądach na świat. Czy fluor w naszej wodzie jest naprawdę bezpieczny? Czy nasze dzieci powinny mieć szczepienia? Czy naprawdę jesteśmy potomkami małp? Mamy zdroworozsądkowe poglądy na świat, a nauka często wydaje się sprzeczna z intuicją. Jak zatem podejmujemy decyzje w naszym życiu? Staramy się być racjonalni, ale trudno jest stłumić nasze naturalne przekonania i przekonania naszej społeczności. Istnieje zrozumiała tendencja do polegania bardziej na opiniach przyjaciół i rodziny niż na ekspertach, abstrakcyjnych statystykach i zimnym technicznym żargonie nauki i techniki. Chcemy absolutnej pewności i niepokoi nas fakt, że wiedza naukowa jest zawsze prowizoryczna. Ale naukowcy również mają do czynienia z tymi problemami. Muszą przedłożyć swoje wyniki do formalnej oceny wzajemnej, zanim będą mogły zostać opublikowane. Dzięki temu procesowi uświadamiają im wysokie standardy ustanowione dla ogromnego zasobu rygorystycznie ustalonej wiedzy naukowej. To najlepsze, co ludzie mogą zrobić. Nauka dostarcza zarówno najbardziej rzetelnej dostępnej wiedzy, jak i sposobu - naukowej metody - podejmowania decyzji w oparciu o dowody. Wielu naukowców dokłada wszelkich starań, aby wyjaśnić ogółowi społeczeństwa cuda i moce nauki, ale wciąż jest wiele do zrobienia. Pośród tego wszystkiego kwitnie chałupniczy przemysł zwątpienia. Towarzystwo Płaskiej Ziemi nadal istnieje. Od dawna twierdzono, że lądowania Apollo Moon zostały sfałszowane. Fluoryzacja wody, powszechnie akceptowana pół wieku temu, wciąż wywołuje gniewne demonstracje w niektórych społecznościach. Ruch antyszczepionkowy przez niektórych poważnie podważa wysiłki na rzecz immunizacji szerszej społeczności. Sprzeciw wobec upraw modyfikowanych genetycznie (GM) trwa, mimo że GM nie jest bardziej niebezpieczne niż tradycyjna hodowla. I oczywiście istnieje instynktowny sprzeciw wobec poglądu, że zachodzą antropogeniczne zmiany klimatyczne. Wątpiących rozkoszuje się walką z konsensusem ekspertów. Teorie spiskowe obfitują i nigdy nie umrą. Co bardziej złowrogie, sceptycyzm jest czasami promowany przez własne interesy, takie jak przemysł paliw kopalnych w przypadku zmian klimatycznych; wszystko, co muszą zrobić, to zasiać ziarno wątpliwości. Przed laty redagowane i recenzowane książki, czasopisma naukowe i encyklopedie zapewniały najwyższej jakości dostęp do wiedzy naukowej. Ale w dzisiejszym świecie istnieją fałszywe wiadomości, fałszywa nauka i pozbawione faktów "bańki". A Internet sprawia, że jest to łatwiejsze niż kiedykolwiek dla wątpiących w naukę, którzy mogą żyć w swoich bańkach, wzmacniając swoje przesłanie wraz z podobnie myślącymi wątpiącymi na całym świecie. To są nowe problemy dla społeczeństwa. W obliczu tych problemów nauka może robić tylko to, co robiła zawsze - dostarczać możliwie najlepszej, opartej na dowodach wiedzy na temat świata przyrody i świata, w którym żyjemy. Niezbędne jest zachowanie wysokich standardów zawodowych, tak aby ciało wiedza naukowa jest zawsze wiarygodnym, neutralnym i bezstronnym zasobem, który jest jednakowo dostępny dla wszystkich. Naukowcy są doceniani za swój wkład, a za przełomowe odkrycia i postępy w nauce co roku przyznawane są różne prestiżowe nagrody. Nagrody Nobla są zdecydowanie najbardziej znane i nadają laureatom niemal status celebrytów. Została założona w 1895 roku przez Szweda Alfreda Nobla, który dorobił się fortuny na wynalezieniu dynamitu. Przeznaczył 94% swoich aktywów na ustanowienie trzech Nagród Nobla w dziedzinie nauki (Fizyka, Chemia i Fizjologia lub Medycyna) oraz dwóch innych (Literatura i Pokój). Całkowity majątek Fundacji Nobla wynosi obecnie około 520 milionów dolarów, a każda nagroda (często dzielona między dwóch lub trzech odbiorców) w 2017 roku wyniosła 1,1 miliona dolarów. Każdego roku trzy nagrody naukowe są przyznawane "za zasługi dla ludzkości" przez szwedzkie akademie, po rozważeniu nominacji od tysięcy naukowców z całego świata, a wspaniała ceremonia wręczenia nagród odbywa się w Sztokholmie, a nagrody wręcza król Szwecji. Chociaż nagrody Nobla były bardzo korzystne w uhonorowaniu i promowaniu nauki, oczywiście były kontrowersje. W ciągu 116 lat od przyznania pierwszych Nagród Nobla kobiety otrzymały tylko 2%, 3% i 6% nagród odpowiednio z fizyki, chemii i medycyny. Żaden czarnoskóry człowiek nie otrzymał jeszcze nagrody Nobla w dziedzinie nauki. Nagrody Nobla często uwzględniają zarówno całe kariery, jak i nagradzane odkrycia. Od 1974 nie są przyznawane pośmiertnie. Pomiędzy odkryciem a nagrodą mija często długie (nawet dziesięciolecia) opóźnienie, które teraz zwykle pojawia się znacznie później w życiu. Ponieważ nie więcej niż trzech naukowców może dzielić jedną nagrodę, może się to wydawać nieco niesprawiedliwe w stosunku do innych w dużych, nowoczesnych kolaboracjach obejmujących setki lub tysiące. Nawet w ostatnich czasach (2010-2017) ponad dwie trzecie nagród Nobla w dziedzinie nauki nadal trafia do osób urodzonych w Europie (39%) i USA (30%); Japonia wzrosła do 15%, ale Chiny i inne wschodzące giganci azjatyckie nie odnotowały jeszcze znaczącego wyniku. Kilka nagród było bardzo kontrowersyjnych. A Nagrody Nobla wypaczają pogląd na naukę: pomijają szereg innych nauk z pierwszej linii. Dzisiaj w niektórych z tych innych dziedzin przyznawane są inne, podobnie hojne nagrody. W 1980 r. szwedzki przemysłowiec Holger Crafoord i jego żona ustanowili Nagrodę Crafoorda dla dyscyplin nieobjętych Nagrodą Nobla. Ta nagroda, obecnie w wysokości 750 000 dolarów, jest przyznawana corocznie na zasadzie rotacji dla astronomii i matematyki, nauk o Ziemi i nauk biologicznych. Podobnie jak w przypadku Nagrody Nobla, laureata wybiera Królewska Szwedzka Akademia Nauk, a nagrodę wręcza król Szwecji (w znacznie bardziej kameralnej ceremonii). Ostatnio na scenie pojawiły się mega-nagrody. W 2012 roku Jurij Milner i inni przedsiębiorcy wprowadzili zestaw nagród Przełom dla nauk przyrodniczych, fizyki podstawowej i matematyki; przy 3 milionach dolarów są to najbardziej lukratywne nagrody akademickie na świecie. Deweloper nieruchomości Samuel Tang przedstawił Nagrodę Tang jako azjatyckie uzupełnienie Nagrody Nobla. Pojawiły się pewne kontrowersje dotyczące motywacji przyznawania tych nagród, związanych z nimi dużych sum oraz zniekształceń, jakie mogą one powodować w czystej i nieskażonej nauce. Nauka i technologia radykalnie zmieniły sposób, w jaki żyjemy i pracujemy. Rewolucja przemysłowa sprowadziła masy ludzi ze wsi do fabryk w miastach i miasteczkach. Było wiele załamań rąk nad dyslokacjami, które spowodowałoby to w społeczeństwie, ale świat się przystosował. W 1700 roku tylko 19% Brytyjczyków mieszkało w miastach; dziś robi to 90%. W 1800 roku tylko 5% Amerykanów mieszkało w miastach i miasteczkach; dziś robi to 82%. W 1850 r. 67% wszystkich Amerykanów mieszkało na farmach na wsi; dziś robi to tylko 2%. W 1960 roku 24% amerykańskich robotników pracowało w produkcji; dziś tylko 8%. Najpierw był pośpiech ze wsi do pracy w fabrykach. Potem roboty odbierały pracę w fabrykach. A ostatnio komputery odbierają pracę w biurze. Wciąż świat się przystosowywał. Są one czasami nazywane "technologiami przełomowymi". Ostatnim skrajnym przypadkiem była fotografia: w ciągu zaledwie dekady prawie całkowicie zmieniła się z filmu na cyfrową, a Kodak, zatrudniający w szczytowym okresie ponad 100 000 pracowników, zbankrutował. Sprzeciwy wobec maszyn odbierających pracę robotnikom sięgają setek lat wstecz. W latach 80. XVI wieku gildie pończoszników w Wielkiej Brytanii sprzeciwiły się wprowadzeniu maszyny dziewiarskiej, która pozbawiłaby ich umiejętności. Pod koniec XVIII wieku i na początku XIX wieku "ruch luddyjski" gwałtownie sprzeciwiał się używaniu zautomatyzowanego sprzętu tekstylnego i zniszczonych maszyn, co skutkowało karą śmierci za "złamanie maszyny". W latach 30. słynny ekonomista John Maynard Keynes przewidywał, że 15-godzinny tydzień pracy będzie normą dla jego wnuków (jeśli już, to mamy teraz 15-godzinny dzień pracy). W miarę wprowadzania na przestrzeni lat kolejnych fal nowych technologii, wyniki netto uległy i nadal się poprawiają, poziom życia wzrasta, płace rosną wraz z wydajnością, pracownicy przystosowują się do nowych zawodów, a bezrobocie jest niskie lub umiarkowane. Czy może to trwać wiecznie, czy pewnego dnia będzie "świat bez pracy"? Jednym z powodów (obok globalizacji) dla ostatnich ruchów populistycznych zmieniających politykę narodową w niektórych krajach jest niepokojące tempo nieustannych zmian technologicznych i poczucie, że niektórzy członkowie populacji są "pozostawiani w tyle". W odpowiedzi na to wszystko coraz częściej mówi się o "uniwersalnym dochodzie podstawowym" (UBI), który ma być wypłacany wszystkim obywatelom kraju w celu utrzymania chronicznie bezrobotnych. Pomysł istnieje od dawna, ale zyskuje na popularności i kilka krajów przeprowadza obecnie testy. Szwajcaria faktycznie przeprowadziła referendum w czerwcu 2016 r. w sprawie wprowadzenia UBI, ale zostało odrzucone przez 77% głosujących. W tym czasie stopa bezrobocia w Szwajcarii wynosiła tylko 5,1%, a obecnie wynosi 7,3% w UE, 3,8% w USA i tylko 2,5% w wysoce zrobotyzowanej Japonii, więc pomysł UBI wydaje się przedwczesny; przynajmniej w skali kraju nic jeszcze nie wskazuje na ten nowy świat bez pracy. Ale czy tym razem jest inaczej? Czy jesteśmy w punkcie przegięcia? Czy roboty i "sztuczna inteligencja" (AI) wkrótce będą w stanie zrobić prawie wszystko? Bezprecedensowy, wykładniczy wzrost nauki i technologii w ostatnich latach doprowadził do tego, że roboty i komputery są tak potężne, że mogą teraz przejąć wiele zadań, o których wcześniej myśleliśmy, że mogą to zrobić tylko ludzie. Niektóre bardzo zaawansowane badania wykazały niedawno, że nawet połowa wszystkich miejsc pracy w krajach rozwiniętych może być zagrożona przejęciem przez automatyzację w ciągu najbliższych 10-20 lat; jedno z badań szacuje, że do 2030 r. automatyzacja może wpłynąć na aż 800 milionów miejsc pracy na całym świecie. Są to głównie prace, które są powtarzalne i rutynowe i obejmują zawody w transporcie i logistyce, obsłudze biurowej i administracyjnej, sprzedaży i usługach oraz pracy w produkcji. Telemarketerzy, sporządzający rozliczenia podatkowe, asystenci prawni, kucharze fast-foodów, kasjerzy bankowi, klucze do wprowadzania danych, urzędnicy ds. pożyczek, pracownicy i wiele innych są narażeni na wysokie ryzyko. Pracownicy na wielu z tych zawodów mają zwykle najniższe wykształcenie i najniższe zarobki. Zawody o najmniejszym ryzyku automatyzacji to te, które wymagają znacznych umiejętności poznawczych, kreatywnych i społecznych, a te są skorelowane z wyższym wykształceniem i wysokimi zarobkami. Do tej kategorii należą lekarze, dentyści, pielęgniarki, pracownicy służby zdrowia, nauczyciele, prawnicy, inżynierowie, naukowcy, architekci oraz kadra kierownicza i kadra kierownicza wyższego szczebla. Jednak chociaż automatyzacja może zastąpić siłę roboczą, może ją również uzupełniać i tworzyć zupełnie nowe gałęzie przemysłu, co skutkuje wzrostem produktywności i wzrostem zatrudnienia. I, jak często wcześniej, przesiedleni pracownicy powinni mieć nadzieję i mieć możliwość przeniesienia się i znalezienia alternatywnego zatrudnienia w tych nowych branżach i innych. Grunt się zmienia, a pracownicy muszą być elastyczni. Dni, w których pracownik ma tylko jedną pracę i jednego pracodawcę w życiu, szybko mijają, a w przyszłości kariera może obejmować szereg różnych prac. Wielkie niebezpieczeństwo polega na tym, że (w pewnym momencie w przyszłości) wielu pracowników zwolnionych ze swoich miejsc pracy może nie być już w stanie znaleźć pracy, którą mogą wykonywać, ale komputery i roboty nie - technologia przesuwa się w górę łańcucha pokarmowego. Byliby chronicznie bezrobotni. Czy można tego uniknąć na zawsze? Jeśli nie, rządy musiałyby w końcu uciec się do skrócenia tygodnia pracy lub ostatecznie wprowadzić coś takiego jak UBI. Sugerowano, że UBI można opłacić "podatkiem od robotów" w celu redystrybucji bogactwa od właścicieli robotów do chronicznie bezrobotnych. Ale bezrobocie to problem społeczny, a nie tylko finansowy. Jak będzie wyglądał ten przyszły świat? Możemy mieć tylko nadzieję, że tak jak w przeszłości, tak iw przyszłości, społeczeństwo się dostosuje. Edukacja to sposób na wyprzedzanie krzywych, a na zglobalizowanym rynku z offshoringiem miejsc pracy oznacza to wyścig między krajami świata. OECD (Organizacja Współpracy Gospodarczej i Rozwoju) śledzi relatywną jakość systemów edukacyjnych w 72 krajach świata w swoim trzyletnim badaniu pod nazwą PISA (Program Międzynarodowej Oceny Uczniów). Ponad pół miliona uczniów, reprezentujących 28 milionów 15-latków w 72 krajach, przystąpiło do dwugodzinnego testu w 2015 roku; były oceniane z przedmiotów ścisłych, matematyki, czytania, wspólnego rozwiązywania problemów i umiejętności finansowych. W pierwszej dziesiątce krajów w nauce znalazły się (kolejno) Singapur, Japonia, Estonia, chińskie Tajpej, Finlandia, Makao (Chiny), Kanada, Wietnam, Hongkong (Chiny) i B-S-J-G (Chiny).4 Wielka Brytania, Niemcy i Holandia zdobyli remis na 15. miejscu, a USA na 25. miejscu. W czytaniu ponownie znalazł się Singapur, a za nim Kanada i Hongkong. W matematyce w pierwszej trójce znalazły się Singapur, Hongkong i Makao. Edukacja naukowa jest niezbędna nie tylko dla początkujących naukowców. Nauka jest główną częścią naszego dziedzictwa i kultury, dlatego ważne jest, aby obywatele, przywódcy i decydenci dobrze rozumieli szerokie koncepcje nauki i jej rolę we wspieraniu nowoczesnej technologii i społeczeństwa. Nauka jest sercem naszej gospodarki opartej na wiedzy. Ale edukacja naukowa to coś więcej niż uczenie się "faktów". Jest to sposób poznania; uczy nas potężnego sposobu myślenia: stawiania hipotez i eksperymentów, zbierania danych i dowodów oraz używania logicznego rozumowania w celu osiągnięcia zrozumienia i wiedzy. Uczy nas rozwiązywania problemów oraz analizowania i omawiania spraw ważnych dla nas wszystkich, we wszystkich dziedzinach. Nauka powinna być częścią edukacji każdego. Ale tradycyjne sposoby nauczania przedmiotów ścisłych miały swoje wady. Koncentrowali się na podstawowych faktach, prawach i teoriach, a nie na szerszych koncepcjach nauki oraz dynamicznej i ewoluującej naturze "prawd" naukowych. Podkreślali raczej zapamiętywanie niż myślenie. Mogą być nudni. Łatwiej było sprawdzić naukowe słowa lub fakty niż naukowe zrozumienie. Zostało to podkreślone przez użycie pytań wielokrotnego wyboru w celu uzyskania "właściwej" odpowiedzi; to zbanalizowało edukację naukową. Stary system nagradzał tych, którzy mogli kontynuować naukę na wyższych poziomach, zamiast zachęcać każdego ucznia do zaangażowania się w naukę. Spowodowało to spadek zainteresowania nauką i karierą naukową wielu studentów na całym świecie. Nauka szkolna była postrzegana jako abstrakcyjna i nieistotna. Nie było zachęty do pomysłów i swobodnej dyskusji. Nauka była również postrzegana jako trudna (zwłaszcza w połączeniu z matematyką) - po co studiować naukę, gdy jest więcej interaktywnych, interesujących i mniej trudnych przedmiotów? Nie pomogły stereotypy naukowców: starcy w białych fartuchach pracujący z probówkami w dusznych i ciemnych zakamarkach laboratoriów. I była publiczna i rodzicielska apatia do nauki. Ta sytuacja i możliwe środki zaradcze zostały omówione w kilku dokumentach w ostatnich latach. Wśród nich są: raport Amerykańskiej Narodowej Rady Badawczej Akademii Narodowych Taking Science to School (2007), badanie UNESCO Current Challenges in Basic Science Education (2009) oraz OECD PISA 2015 Results in Focus. Krótkie akapity podsumowują niektóre z głównych punktów. Wszystkie te dokumenty podkreślają potrzebę bardziej dynamicznego podejścia do nauczania przedmiotów ścisłych. Studenci powinni być aktywnie zaangażowani, a nie tylko bierni słuchacze. Stare sposoby koncentrowały się na przekazywaniu informacji, ale nowoczesne podejście obejmuje omawianie i rozumienie pojęć. Dziś fakty możemy znaleźć w Internecie, ale musimy wiedzieć, jak je wykorzystać. Uczniowie powinni wiedzieć, jak naprawdę robi się naukę, w tym niezwykłe historie o intuicji, kreatywności, odkryciu i zbiegu okoliczności. Kiedy uczniowie biorą udział w eksperymentach, widzą, jak nauka dzieje się na ich oczach. Czują podekscytowanie, a nawet pasję. W krytycznej dyskusji i interpretacji wyników pracują jak naukowcy. To daje im motywację i pewność siebie. A pracując razem w grupach, podejmując decyzje i racjonalnie wnioskując, rozwijają umiejętności, które można zastosować w wielu obszarach dorosłego życia. Nauczyciele są kluczowymi graczami. Sposób, w jaki uczą, przewodzą i inspirują są silnie skorelowane z wynikami ich uczniów. Finlandia to ulubiona historia sukcesu edukacyjnego wszystkich. Nauczanie jest tam najbardziej prestiżowym zajęciem. Tylko co dziesiąty kandydat trafia do jednej z ośmiu fińskich szkół kształcących nauczycieli i prawie wszyscy pozostają w zawodzie aż do emerytury. Pensje fińskich nauczycieli są wysokie w porównaniu z podobnie wykształconymi pracownikami. Wyniki pokazują to: Finlandia zajmuje piąte miejsce na świecie w rankingu PISA. Pracując razem w grupach, podejmując decyzje i racjonalnie wnioskując, rozwijają umiejętności, które można zastosować w wielu dziedzinach dorosłego życia. Nauczyciele są kluczowymi graczami. Sposób, w jaki uczą, przewodzą i inspirują są silnie skorelowane z wynikami ich uczniów. Finlandia to ulubiona historia sukcesu edukacyjnego wszystkich. Nauczanie jest tam najbardziej prestiżowym zajęciem. Tylko co dziesiąty kandydat trafia do jednej z ośmiu fińskich szkół kształcących nauczycieli i prawie wszyscy pozostają w zawodzie aż do emerytury. Pensje fińskich nauczycieli są wysokie w porównaniu z podobnie wykształconymi pracownikami. Wyniki pokazują to: Finlandia zajmuje piąte miejsce na świecie w wynikach PISA w dziedzinie nauki. Singapur, który jest najlepszy we wszystkich trzech kategoriach PISA, rotuje grupy wybitnych nauczycieli przez najwyższe poziomy aparatu kształtowania polityki edukacyjnej. Kształcenie ustawiczne jest ważne. Nauczyciele zyskują szacunek, na jaki zasługują, a to dodatkowo stymuluje ich w pracy z uczniami. Ponieważ oprócz nauczania podstawowych pojęć przyrodniczych rozwija umiejętności poznawcze, oceniania i komunikacji, nauczanie przedmiotów ścisłych może być równie ważne dla uczniów podejmujących inne zawody, jak dla tych, którzy rozpoczynają karierę naukową. W Chinach obserwuje się tendencję do włączania przedmiotów ścisłych do podstawowego przedmiotu edukacji podstawowej od przedszkola wzwyż. Teraz bardziej niż kiedykolwiek istnieje możliwość zewnętrznego wsparcia edukacji naukowej. Lokalnie działają koła i stowarzyszenia naukowe, muzea nauki, wizyty profesjonalnych naukowców, konkursy naukowe i targi naukowe. Ale największe zmiany pochodzą z Internetu. W Internecie dostępna jest szeroka gama materiałów, w tym eksperymenty i wykłady prowadzone przez jednych z najlepszych ekspertów na świecie, strony internetowe muzeów nauki na całym świecie, globalna współpraca z innymi szkołami i stowarzyszeniami naukowymi oraz globalna nauka zawody. Współpraca może odbywać się między nauczycielami, badaczami i twórcami programów nauczania. To zupełnie nowy świat edukacji naukowej. Jednak w tym świecie, w którym żyje ponad 7,6 miliarda ludzi, nie każdy ma możliwość zrobienia kariery naukowej. Daleko stąd. Świat traci potencjał dziesiątek milionów ludzi, którzy mogliby doskonalić się w nauce, gdyby tylko mieli szansę. Nawet dzisiaj zaawansowane społeczeństwa zajmują się większością nauki, a większość naukowców to mężczyźni. Wielu naukowców w przeszłości rzeczywiście wyrosło ze skromnych początków, ale byli to głównie młodzi mężczyźni żyjący w świecie zachodnim. Reszta świata stara się teraz nadrobić zaległości, ale jest wiele przeszkód. W Trzecim Świecie przeszkody są ogromne: bieda, uprzedzenia, kultura, język, słaba edukacja i prawie całkowity brak możliwości. W małych wioskach wielu z tych krajów życie rodzinne i wiejskie jest wszystkim, a świat zewnętrzny jest stosunkowo mało znany. Edukacja jest ograniczona, oczekiwania niskie, a najpilniejsze potrzeby rodziny mają pierwszeństwo. Nawet opuszczenie wioski w celu uczęszczania na wyższą uczelnię w lokalnym mieście może być wstrząsającym doświadczeniem. Z pewnością rządy i organizacje pomocowe podejmują wysiłki na rzecz poprawy sytuacji, ale postęp jest powolny. W większości krajów jest co najmniej kilka uniwersytetów, a rządy dokładają starań, aby poprzez dotacje i pożyczki uczynić edukację uniwersytecką jak najbardziej dostępną. Jednak w wielu krajach jest niewiele możliwości kariery naukowej, a bardziej opłacalne finansowo perspektywy biznesu i bankowości kuszą wielu do podążania w tych kierunkach. Tak wielu z tych, którzy chcą wytrwać w nauce muszą dokonać trudnego wyboru opuszczenia rodziny i kraju i wyjazdu za granicę na zaawansowane szkolenia i karierę zawodową. Indie mają dużą liczbę uniwersytetów i od dziesięcioleci posiadają kilka najwyższej klasy instytutów badawczych. Ale ma też ogromną populację (1,3 miliarda), wielu nadal mieszka w małych wioskach, a wspomniane powyżej przeszkody mają również tutaj zastosowanie. Ma ponad tysiąc języków i dialektów, z których 22 to "oficjalne"; Język hindi jest zdecydowanie największym językiem, którym posługuje się ponad 40% populacji, i - co jest ogromną zaletą - Indie są drugim co do wielkości anglojęzycznym krajem na świecie, z około 125 milionami osób mówiących po angielsku. Niestety, nadal istnieje znaczna dyskryminacja oparta na systemie kastowym społeczeństwa hinduskiego, chociaż jest to konstytucyjnie niezgodne z prawem, a rząd zapewnił kwoty i inne akcje afirmatywne, aby wspierać niższe kasty. Przez pewien czas sądzono, że samo istnienie wielu ośrodków doskonałości naukowej w końcu "spłynie" do mas, ale zdano sobie sprawę, że bardziej proaktywne podejście "oddolne" może być lepsze w znajdowaniu utalentowanych młodych ludzie w najbiedniejszych wioskach. Chiny produkują obecnie więcej doktoratów naukowych niż jakikolwiek inny kraj na świecie. Rząd komunistyczny stara się, aby edukacja była jednakowo dostępna dla wszystkich. Aby zapewnić utrzymanie wszystkim swoim 55 mniejszościom etnicznym, ustanowiła premie i kwoty. Czesne uniwersyteckie jest niskie, są też stypendia i pożyczki. Ale nieuchronnie dzieci urzędników państwowych i bogatych biznesmenów mają przewagę. Wynagrodzenia dla doktorów i naukowców są stosunkowo niskie, a wielu z najlepszych kusi większe możliwości w bogatszych krajach. Nawet w bogatych krajach wiele dzieci z ubogich środowisk boryka się ze słabym wykształceniem, dysfunkcyjnymi rodzinami, zniechęceniem sąsiadów i rówieśników do osiągnięć intelektualnych oraz niewystarczającymi funduszami na studia. Niektóre z tych problemów są często związane z rasą. A kursy naukowe mogą być jednymi z najdroższych w uczęszczaniu. Najlepsze uniwersytety w USA mogą kosztować 60 000 USD rocznie. Istnieją różne źródła pomocy materialnej - rodzice, stypendia, stypendia - ale często student pracuje w niepełnym wymiarze godzin, co umniejsza jego osiągnięcia na uczelni. Ale na górze jest pewna ulga - na studiach podyplomowych czesne jest często pokrywane ze stypendiów i stanowisk dydaktycznych. Połowa światowej populacji, 3,8 miliarda ludzi, to kobiety, ale przez lata były one rażąco niedostatecznie reprezentowane w nauce. W wielu biednych i rozwijających się krajach dziewczęta i kobiety są ograniczane, zarówno w edukacji, jak iw karierze. A w wielu "zaawansowanych społeczeństwach" rządy nie pozwalały zamężnym kobietom pracować (z wyjątkiem okresu wojen) aż do drugiej połowy XX wieku, a nawet samotne kobiety były w dużej mierze wykluczone z głównych zawodów. A do listopada 2016 r. tylko 49 z 911 nagród Nobla zostało przyznanych kobietom. Ale to zmieniło się dramatycznie w ciągu ostatnich kilkudziesięciu lat. Obecnie ponad połowa studentów nauk ścisłych i technologii w krajach rozwiniętych to kobiety, a w 2011 roku kobiety stanowiły 20, 30, 40 i 50% doktoratów odpowiednio z fizyki, matematyki, chemii i nauk biologicznych w USA. , kobiety stanowią obecnie połowę absolwentów studiów licencjackich i magisterskich. Kobiety zajmowały czołowe stanowiska w głównych organizacjach naukowych, takich jak Europejska Organizacja Badań Jądrowych (CERN) i Europejskie Obserwatorium Południowe (ESO) oraz w największych korporacjach technicznych, takich jak IBM i Hewlett Packard. I oczywiście kobiety były liderkami kilku krajów, w tym Argentyny, Australii, Brazylii, Kanady, Chile, Chorwacji, Finlandii, Niemiec, Islandii, Indii, Indonezji, Irlandii, Liberii, Litwy, Nepalu, Nowej Zelandii, Nikaragui, Pakistanu, Filipin, Korea Południowa, Sri Lanka, Szwajcaria, Tajwan i Wielka Brytania. Tak więc szklany sufit z pewnością zaczął pękać, ale wciąż jest wiele do zrobienia, zwłaszcza w krajach słabo rozwiniętych.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (31)


Nauka we wszystkim

Nauka jest tak bardzo częścią naszego współczesnego życia, że zwykle nie jesteśmy tego świadomi lub po prostu przyjmujemy to za pewnik. Kiedy zapalamy światło, ubieramy się, regulujemy klimatyzację, gotujemy posiłek, korzystamy z lodówki, bierzemy leki, sprawdzamy godzinę, jedziemy do pracy, napijemy się kawy, przeglądamy maile, lecimy na konferencję, bierzemy zdjęcie, dzwonimy do znajomego, kopiujemy dokument, kupujemy artykuły spożywcze, oglądasz telewizję, słuchasz muzyki, korzystasz ze zmywarki, poddajesz się operacji oka lub rezonansu magnetycznego, bierzesz antybiotyki - korzystamy z wiedzy naukowej zgromadzonej w ciągu ostatnich lat kilkaset lat przez oddanych naukowców, którzy kierowali się czystą ciekawością. Zdecydowanie największym wkładem naukowym w nasz współczesny świat jest elektryczność. Bez tego nasz nowoczesny styl życia by się zawalił. Elektryczność w taki czy inny sposób zasila dużą część nowoczesnej technologii. To generator elektryczny wytwarza tę energię elektryczną. A jednak sam generator został stworzony z czystej ciekawości przez naukowca Michaela Faradaya, który "bawił się" właściwościami elektryczności i magnetyzmu. Silnik elektryczny jest po prostu odwrotnością generatora: wykorzystuje energię elektryczną do wytwarzania ruchu mechanicznego. Silniki elektryczne są wszechobecne, napędzają duże maszyny, roboty w fabrykach, samochody elektryczne, wszelkiego rodzaju pompy, sprzęty kuchenne, pralki i suszarki do ubrań, wiertarki, odkurzacze, odtwarzacze DVD i komputerowe dyski twarde - wszystko to wywodzące się od Faradaya i jego ciekawości. Źródła energii do zasilania wszystkiego za pomocą elektryczności to ogromny problem w dzisiejszym żądnym władzy społeczeństwie. Oprócz bezpośredniego światła słonecznego nasi wcześni przodkowie mieli po prostu zwykłe ogniska na ciepło. We wczesnych cywilizacjach używali udomowionych wołów i koni do pomocy przy ciężkiej pracy, wody i wiatru do napędzania prostych maszyn do mielenia zboża i pompowania wody oraz wiatru w żaglach, aby zabierać je w odległe miejsca i ułatwiać handel. Pojawienie się energii parowej sięga starożytnych Greków, ale dopiero w XVII i XVIII wieku innowacje Thomasa Newcomena i Jamesa Watta dały początek silnikowi parowemu opalanemu węglem, który napędzał rewolucję przemysłową i otworzył ogromne nowe możliwości . Pod koniec XIX wieku elektryczność stała się walutą energii i nagle energia mogła być rozprowadzana praktycznie wszędzie. "Sieci" elektroenergetyczne rozciągają się na całe kraje i kontynenty. Generatory mogłyby przetwarzać ruch mechaniczny wytwarzany przez przepływ wody w elektrowni wodnej i ciśnienie pary w elektrowniach węglowych na energię elektryczną, które następnie mogą być przesyłane na duże odległości do fabryk i miast. Elektrownie jądrowe, wykorzystujące proces rozszczepienia jądrowego, dołączyły do sieci energetycznych w latach 50. XX wieku. Ale dzisiaj istnieją poważne obawy dotyczące wpływu elektrowni opalanych paliwami kopalnymi na klimat oraz potencjalnego skażenia radioaktywnego i niebezpieczeństwa "stopienia" elektrowni jądrowych, a ogromne wysiłki podejmowane są w celu uzyskania czystszych rozwiązań. Olbrzymie turbiny wiatrowe przetwarzają energię poruszającego się powietrza bezpośrednio na energię elektryczną za pomocą generatorów. Ogromne tablice paneli słonecznych wykorzystują efekt fotoelektryczny Einsteina do konwersji energii promieniowania słonecznego bezpośrednio na energię elektryczną, a baterie są używane do dostarczania energii przez 24 godziny. Po wynalezieniu Alessandro Volty w 1800 r. akumulatory elektryczne stały się koniem roboczym wielu osiągnięć naukowych i technicznych w XIX i XX wieku. Obecnie podejmowane są znaczne wysiłki w celu opracowania akumulatorów przyszłości, które mogą być używane nie tylko w panelach słonecznych, ale także w wielu zastosowaniach, w tym w samochodach elektrycznych. Wielką nadzieją na przyszłość jest zrównoważona fuzja jądrowa - proces, który zasila Słońce. Jest z natury bezpieczna i czysta, a jej paliwo, izotopy wodoru, deuter i tryt, można pozyskać z wody morskiej w praktycznie nieograniczonych ilościach. Inną badaną innowacją jest "sztuczny liść" zdolny do przekształcania energii słonecznej, wody i dwutlenku węgla w bogate w energię paliwa płynne; proces ten może być dziesięć razy bardziej wydajny niż naturalna fotosynteza. Oświetlenie elektryczne jest oczywiście wszechobecne w naszych domach, ulicach i budynkach. Najpopularniejszymi formami są lampy żarowe (znane żarówki), lampy fluorescencyjne (takie jak neony) i nowoczesne lampy LED (diody elektroluminescencyjne). Dziwne zjawisko fluorescencji niektórych skał było znane od dawna, a w połowie XVIII wieku zaobserwowano promieniste poświaty z częściowo opróżnionych szklanych naczyń zawierających rtęć i naładowanych elektrycznością statyczną. W 1802 Humphry Davy wyprodukował pierwsze światło żarowe, przepuszczając prąd elektryczny przez cienki pasek platyny, a w 1806 stworzył znacznie jaśniejszą lampę z łuku elektrycznego między dwoma prętami węgla drzewnego. W 1856 r. niemiecki dmuchacz szkła Heinrich Geissler wykonał próżniową szklaną rurkę zawierającą metalowe elektrody na każdym końcu, która wytwarzała świecący blask i ostatecznie doprowadziła do rozwoju komercyjnych lamp fluorescencyjnych. Pod koniec lat 70. XIX wieku żarówki zostały niezależnie wynalezione przez kilku badaczy, po czym nastąpiła komercjalizacja, w szczególności przez Josepha Swana w Anglii i Thomasa Edisona w USA. Trzeba było pokonać różne przeszkody techniczne; włókna wykonane z wolframu i obecność gazu obojętnego w bańce dały dłuższe życie. Ale są one notorycznie nieefektywne: większość energii jest wypromieniowywana w postaci ciepła, a mniej niż 5% zapewnia światło widzialne. Dioda LED rozwiązuje ten problem, zużywając tylko 10% energii wymaganej do porównywalnej żarówki żarowej o znacznie dłuższej żywotności. Jest to urządzenie półprzewodnikowe, które po aktywacji polem elektrycznym emituje światło w procesie zwanym elektroluminescencją. Badania nad diodami LED rozpoczęły się po raz pierwszy w latach 50. XX wieku. Wczesne diody LED emitowane w podczerwieni, ale w przełomowym artykule z 1962 r. Nick Holonyak i S. Bevacqua, pracujący w laboratorium badawczym General Electric, ogłosili stworzenie pierwszej widocznej (czerwonej) diody LED; Holonyak przewidział, że diody LED w końcu zastąpią żarówkę i miał rację. W latach 90. ostatecznie opracowano niebieskie diody LED, które wraz z wcześniejszymi diodami czerwonymi i zielonymi mogły w końcu generować białe światło; Isamu Akasaki, Hiroshi Amano i Shuji Nakamura wspólnie otrzymali Nagrodę Nobla w dziedzinie fizyki 2014 za ten rewolucyjny rozwój. Moc świetlna diod LED wzrosła wykładniczo (podobnie do prawa Moore′a) i są one teraz opłacalne komercyjnie. Jesteśmy w trakcie kolejnej wielkiej rewolucji technologicznej. Masowe instalacje oświetlenia LED do użytku komercyjnego, publicznego i prywatnego są obecnie powszechne, a oczekuje się, że rynek lamp LED będzie szybko rósł, z 2 miliardów dolarów w 2014 r. do 25 miliardów dolarów w 2023 r. - skumulowana stopa wzrostu wynosząca 25% rocznie. Kuchenka mikrofalowa wytwarza fale elektromagnetyczne o odpowiednim zakresie częstotliwości do podgrzewania żywności. Promieniowanie elektromagnetyczne o szerokim zakresie częstotliwości zostało przewidziane przez teorię elektromagnetyzmu Maxwella opublikowaną w 1864 roku, a w 1886 Heinrich Hertz udowodnił to przewidywanie, odkrywając fale radiowe. W 1945 roku amerykański inżynier Percy Spencer przypadkowo odkrył efekt grzewczy silnej wiązki radiowej (mikrofalowej) i w tym samym roku wyprodukowano pierwszą kuchenkę mikrofalową. Mikrofale w odpowiednim zakresie częstotliwości (pomiędzy konwencjonalnymi częstotliwościami radiowymi i podczerwonymi) oddziałują z cząsteczkami, takimi jak woda, powodując ich rotację i interakcję z innymi cząsteczkami, wytwarzając ciepło. Nasze lodówki i klimatyzatory używane na co dzień zapewniają chłodzenie, zmieniając gaz w ciecz i ponownie w gaz w nieskończonym cyklu. Trzech francuskich naukowców odegrało kluczową rolę w ustaleniu odpowiedniej wiedzy. Jednym z nich był XVII-wieczny francuski naukowiec Blaise Pascal, który wykazał, że ciśnienie wody wzrasta wraz z głębokością i że każde ciśnienie zewnętrzne przyłożone do zawartego w nim nieściśliwego płynu (takiego jak woda) jest przenoszone równomiernie przez płyn (podstawowe prawo hydrauliki, znane jako prawo Pascala). W tym samym stuleciu Guillaume Amontons odkrył, że temperatura określonej objętości gazu jest proporcjonalna do jego ciśnienia. Na początku XIX wieku Sadi Carnot, "ojciec termodynamiki", badał najbardziej wydajne cykle termodynamiczne i podał pierwsze sformułowanie słynnej drugiej zasady termodynamiki; jedną z konsekwencji jest to, że ciepło zawsze przepływa z ciał cieplejszych do zimniejszych, a temperatury zbliżają się do "równowagi termodynamicznej". Mogą się one wydawać ezoterycznymi fragmentami wiedzy, ale mają fundamentalne znaczenie dla wielu praktycznych zastosowań we współczesnym świecie. W lodówkach prąd napędza sprężarkę, która zwiększa ciśnienie (i temperaturę) czynnika chłodniczego w stanie gazowym, wypychając go do wężownic skraplacza znajdujących się z tyłu lodówki. Ponieważ wężownice te są w pełni wystawione na działanie chłodniejszego powietrza w kuchni, przegrzany gaz w wężownicach skrapla się pod wysokim ciśnieniem do postaci ciekłej. Ta nasycona ciecz przechodzi następnie przez urządzenie rozprężne i wpływa do wężownic parownika (znajdujących się w lodówce), w których może się rozprężać, obniżając ciśnienie, a tym samym temperaturę. Staje się zimną cieczą, która pochłania ciepło z wnętrza lodówki, odparowując do fazy gazowej. Powstała para nasycona wraca do sprężarki, gdzie cykl zaczyna się od nowa. Rezultatem netto jest wymuszony transfer ciepła z lodówki do kuchni na zewnątrz, dzięki czemu lodówka jest zimna, a zamrażarka jeszcze zimniejsza. Brak ruchomych części, z wyjątkiem sprężarki (i czynnika chłodniczego). Bardzo mądre. Laser jest jedną z największych innowacji technologicznych w historii. Pochodzi z przewidywań Einsteina z 1916 r. o stymulowanej emisji z atomów i został zrealizowany przez Charlesa Townesa i współpracowników w latach 50., jak opisano powyżej. Dziś oczywiście lasery mają wiele zastosowań: skanery kodów kreskowych, światłowody, chirurgia laserowa, napędy dysków optycznych, odtwarzacze CD, drukarki laserowe, pomiar zasięgu i prędkości, spawanie i wiele innych. Są wszechobecne w naszym współczesnym świecie. Rewolucja internetowa i telekomunikacyjna radykalnie zmieniła nasz świat. Wczesnymi prekursorami były sieci lokalne w latach pięćdziesiątych, łączące różnych użytkowników za pomocą jednego komputera. Amerykański informatyk Joseph Licklider zaproponował globalną sieć w 1960 roku i kierował grupą badawczą w Departamencie Obrony USA. Pierwsze połączenie pomiędzy UCLA i Stanford zostało ustanowione w 1969 roku - narodzinach Internetu. Coraz więcej węzłów zostało szybko podłączonych, a Internet się rozrósł. Innym ważnym osiągnięciem było wynalezienie World Wide Web (WWW) przez Tima Bernersa-Lee w CERN w 1989 roku; umożliwiło to powiązanie dokumentów i innych zasobów oraz dostęp do nich przez przeglądarkę internetową. WWW jest głównym narzędziem używanym do interakcji w Internecie. To, że wydarzenia te nastąpiły w tym samym czasie, co rewolucja elektroniczna i telekomunikacyjna, nie jest przypadkiem, a ogólny rozwój był spektakularny. Internet jest prawdopodobnie najważniejszym osiągnięciem technologicznym ostatniego półwiecza. Szacuje się, że za kilka lat do Internetu będzie podłączonych 20 miliardów urządzeń. Ekrany telewizyjne wyewoluowały z lamp elektronopromieniowych używanych do badań fizyki podstawowej około roku 1900. W przypadku telewizji wiązki elektronów były emitowane z katody w lampie próżniowej, aby oświetlić materiał fosforowy na ekranie na drugim końcu; wiązki były kierowane przez pola magnetyczne, które szybko skanowały ekran, tworząc obraz. Nowoczesne ekrany telewizyjne są zupełnie inne. Są cienkie, płaskie i zużywają mniej energii. Najpopularniejsze ekrany to LCD, plazma i LED. LCD oznacza wyświetlacz ciekłokrystaliczny. Ciekłe kryształy mają niezwykłe właściwości optyczne: pole elektryczne może sprawić, że piksel ciekłokrystaliczny będzie przełączał się na żądanie między przezroczystym a nieprzezroczystym, wykorzystując swoje właściwości polaryzacyjne. Potencjał wyświetlaczy optycznych jest oczywisty. Ekran plazmowy wykorzystuje małe komórki elektrycznie naładowanych zjonizowanych gazów (zwanych plazmami), a ekrany LED wykorzystują światło emitujące diody, o których mowa powyżej. Rynek komercyjny zdominowany jest obecnie przez technologie LCD i LED. Urządzenia komputerowe sięgają starożytności, ale ich współczesne odpowiedniki znajdują się na pograniczu zaawansowanej nauki. Najwcześniejsze pomoce matematyczne były prostymi urządzeniami liczącymi. Liczydło, które po raz pierwszy pojawiło się w Mezopotamii w trzecim tysiącleciu p.n.e., mogło być używane do prostych zadań arytmetycznych. W ciągu następnych tysiącleci opracowano różne inne pomoce liczące, urządzenia i narzędzia do określonych celów (jednym z najsłynniejszych był mechanizm z Antikythery, wykonany przez starożytnych Greków), ale wielki krok w kierunku nowoczesnego komputera został wykonany w 1833 roku przez Karola Babbage,′a "ojca komputera". Kontynuując swoją wcześniejszą pracę nad komputerami mechanicznymi, opracował znacznie bardziej ogólną koncepcję, w której karty dziurkowane dostarczałyby dane wejściowe do maszyny zawierającej jednostkę logiczną, pamięć i sterowanie poprzez rozgałęzienia i pętle, z wyjściem w postaci drukarki, plotera lub karty perforowane. Byłby to komputer naprawdę ogólnego przeznaczenia - ale jego pomysły wyprzedzały swoje czasy o sto lat. Kolejny ważny krok został wykonany w 1936 roku przez Alana Turinga, który zaproponował "uniwersalną maszynę obliczeniową", która może obliczyć wszystko, wykonując instrukcje i być programowalna; jest to podstawowa zasada stosowana w nowoczesnych komputerach. W tym czasie nastąpiła zasadnicza zmiana, ponieważ stare mechaniczne maszyny analogowe były zastępowane w latach 30. i 40. elektronicznymi komputerami cyfrowymi, łączącymi zalety dużej szybkości elektroniki z dokładnością i niezawodnością cyfrową (włącz/wyłącz lub binarne) sygnały. W latach pięćdziesiątych elektroniczne lampy próżniowe (zawory) zostały zastąpione znacznie mniejszymi, bardziej wydajnymi, bardziej niezawodnymi i trwalszymi tranzystorami. Monumentalny krok podjęto w 1958 r. wraz z wprowadzeniem "układu scalonego", w którym wszystkie elementy układu elektronicznego są całkowicie zintegrowane na "chipie" materiału półprzewodnikowego. Jack Kilby otrzymał Nagrodę Nobla w dziedzinie fizyki w 2000 roku za ten doniosły rozwój, który bezpośrednio doprowadził do fenomenalnej rewolucji elektronicznej i komputerowej w przeszłości pół wieku. Teraz, jak wspomniano powyżej, komponenty chipa stają się tak małe, że zbliżają się do skali atomowej (miliony mogą zmieścić się w kropce "i"), a nowe technologie będą potrzebne, jeśli moc obliczeniowa ma nadal rosnąć wykładniczo. Pomysły obejmują nowe projekty chipów, alternatywy dla krzemu, ulepszoną architekturę komputera, wydajniejsze algorytmy i programowanie, nowatorskie tranzystory, zastosowanie tunelowania kwantowego, technik optycznych, a nawet emulacji mózgów biologicznych. Wiele innowacji i kreatywności będzie zaangażowanych w tworzenie coraz lepszych komputerów. Ale wielkim osiągnięciem na horyzoncie jest informatyka kwantowa. W rozmowie z 1981 roku Richard Feynman zastanawiał się, jak można prawdopodobnie symulować ogromną złożoność natury (w tym fizykę kwantową) za pomocą komputera i zasugerował, że być może niezwykle potężny "komputer kwantowy" mógłby wykonać tę pracę. Czy taki komputer byłby możliwy? Pomysł przenikał przez kilkadziesiąt lat i wystartował w ostatnich latach. Podstawową jednostką informacji w klasycznym komputerze jest bit, który (niezależnie od jego fizycznej realizacji) ma tylko dwa możliwe stany, 1 i 0 ("włączony" i "wyłączony"). Odpowiednikiem kwantowym jest kubit. Komputery kwantowe mają potencjalnie dwie ogromne zalety w porównaniu z komputerami klasycznymi - dwie najdziwniejsze i najbardziej ezoteryczne cechy mechaniki kwantowej - superpozycję i splątanie. W superpozycji kubit może istnieć jednocześnie w nieokreślonej mieszaninie stanów 1 i 0. A w splątaniu stany kwantowe odrębnych cząstek są nieruchome względem siebie - są "związane razem", tak że to, co dzieje się z jedną, natychmiast wpływa na drugą, bez względu na to, jak daleko od siebie. Ostatnio udało się splątać całe chmury atomów. Splątanie jest niezbędnym składnikiem komputera kwantowego - uwalnia moc superpozycji, umożliwiając równoległe działanie na ogromną liczbę wielu stanów. Maszyna z 300 kubitami reprezentowałaby 2300 różnych ciągów jedynek i zer (porównywalnych z liczbą atomów w widzialnym wszechświecie), a ponieważ kubity są splątane, wszystkimi tymi liczbami można manipulować jednocześnie. Badane są różne możliwości pełnienia roli kubitu, w tym spiny elektronów, jąder, atomów lub cząsteczek, różne tryby światła, stany wewnętrzne uwięzionych jonów, quasi-cząstki zwane anyonami oraz stany małych obwodów nadprzewodzących i prądy. Kubity są niezwykle delikatne, a izolacja (a w niektórych przypadkach temperatura kriogeniczna) jest wymagana, aby zminimalizować dekoherencję kwantową. Ale chociaż komputery kwantowe są wciąż w powijakach, nastąpiło wiele zmian, a ostatnie postępy były szybkie. Zbudowano już kilka eksperymentalnych komputerów kwantowych na małą skalę, rekord w utrzymaniu superpozycji kwantowej wzrósł z 2 s w 2012 r. do 6 h w 2015 r., a niedawno ogłoszono procesor 72-kubitowy. Jakie zastosowania są przewidziane? Komputery kwantowe nie zastąpią klasycznych komputerów w wielu przyziemnych funkcjach obliczeniowych ogólnego przeznaczenia, ale będą się wyróżniać w niektórych obszarach. Dekodowanie zaszyfrowanych wiadomości, przeszukiwanie dużych baz danych i symulowanie złożonych systemów (cząsteczki biologiczne, nowe leki i materiały oraz kwantowe problemy z wieloma ciałami) znajdują się na szczycie listy, a wiele innych jest badanych. Rozwój komputerów kwantowych przebiega równolegle z rozwojem wykorzystania technologii kwantowej w sposób bardziej ogólny i istnieją silne powiązania i synergie. Splątanie kwantowe jest teraz używane w teleportacji kwantowej, mającej zastosowanie w komunikacji. Bezpieczna komunikacja kwantowa została przetestowana przy użyciu satelitów, a sieci komunikacji kwantowej są obecnie tworzone między wieloma miastami w różnych krajach. Docelowo może istnieć globalny Internet kwantowy z zabezpieczeniami wzmocnionymi kwantowo za pomocą routerów kwantowych i ogromnych komputerów w chmurze kwantowej. Rozważa się wiele nowych technologii opartych na mechanice kwantowej, takich jak kryptografia, sztuczna inteligencja, GPS o milimetrowej precyzji, optyczne VLBI, projektowanie nanotechnologiczne, superprecyzyjne zegary atomowe, technologia wirtualna, precyzyjne czujniki, pojazdy autonomiczne i Internet przedmiotów. Wyobraź sobie, że po raz pierwszy możesz usłyszeć najlepszą muzykę na świecie. Dla większości ludzi ta oszałamiająca zmiana była spowodowana gramofonem wprowadzonym przez Emila Berliner w 1887 roku. Pojawienie się elektryczności umożliwiło to wszystko. Zbadano różne technologie nagrywania i odtwarzania, a ostatecznie jako standard pojawiły się nagrania na płytach. Rysik nagrywający został użyty do wykonania rowka na powierzchni płyty, a nagrany dźwięk mógł być następnie odtwarzany, gdy rysik wykrył nieregularności w rowku, wzmocnił go i odtworzył przez głośnik. Udoskonalenia miały miejsce przez następne pół wieku; analogowa płyta winylowa stała się bardzo lubiana przez audiofilów i kolekcjonerów. W latach 60. popularne stały się magnetofony i przez pewien czas istniały trzy konkurujące ze sobą typy; ostatecznie na rynku konsumenckim zwyciężyły niższej jakości, ale wygodniejsze kompaktowe kasety audio. W latach 80. płyty i taśmy zostały w dużej mierze wyparte przez cyfrowe płyty kompaktowe (CD), które przez dwie dekady dominowały na rynku muzycznym. Płyta jest wytrawiana przez wiązkę laserową do nagrywania i odczytywana przez inną wiązkę laserową do odtwarzania. Monumentalnym krokiem było opracowanie całkowicie półprzewodnikowych urządzeń cyfrowych. Nie posiadają ruchomych części, wymagają mniej energii i są lżejsze, bardziej przenośne i bardziej wytrzymałe niż odtwarzacze płyt. Apple iPod stał się ikoną na początku 2000 roku, a teraz smartfony mogą przenosić ogromne ilości muzyki oprócz wszystkiego, co mogą zrobić. Kolejną ważną innowacją, wywołaną rewolucją telekomunikacyjną, jest streaming muzyki z Internetu, udostępniający praktycznie całą muzykę świata. Skromny telefon powstał pod koniec XIX wieku. Kilka osób przypisuje się jego wynalazkowi w różnych formach, ale Alexander Graham Bell jest powszechnie uznawany za wynalazcę pierwszego praktycznego telefonu i jako pierwszy go opatentował w 1876 roku. We wczesnych telefonach fale dźwiękowe powodowane przez głos powodowały membrana wibrująca, zmieniająca kompresję granulek węgla między dwiema metalowymi płytami. Elektryczność przechodząca przez granulki była w ten sposób modulowana, a zmodulowany sygnał mógł być przesyłany przewodem. Na końcu odbiorczym modulowany sygnał elektryczny zmieniała się siła elektromagnesu, który z kolei wibrował membranę, tworząc fale dźwiękowe. Podstawowe zasady nie zmieniły się zbytnio przez lata, ale technologia na pewno się zmieniła. Nowoczesne systemy telefonii komórkowej wykorzystują bezprzewodowe sygnały radiowe do przesyłania informacji cyfrowych. Mały mikrofon w telefonie komórkowym zamienia głos dzwoniącego na strumień informacji cyfrowych, który jest przekazywany za pośrednictwem sygnałów radiowych do telefonu odbiorcy. Możemy używać telefonów komórkowych w dowolnym miejscu w zasięgu komunikacji radiowej i nie tylko do prowadzenia rozmów telefonicznych - nowoczesny smartfon ma tysiące potencjalnych "aplikacji". Sposób, w jaki płacimy za rzeczy, zmienił się w niewyobrażalny sposób jeszcze kilkadziesiąt lat temu. Handel powstał ponad 10 000 lat temu w formie barteru - bezpośredniej wymiany towarów. Ostatecznie standardy i waluty zostały wynalezione, aby służyć jako pośrednicy i ułatwiać handel, a pierwsze monety pojawiły się w VII wieku p.n.e. Przez te wszystkie lata nic się nie zmieniło. Waluta papierowa została wprowadzona przez Chińczyków dwa tysiące lat temu, a banki i koncepcja depozytów pojawiły się 500 lat temu. Ale jeszcze 50 lat temu dla większości ludzi finanse nadal oznaczały depozyty, konta bankowe, gotówkę i czeki. Następnie stopniowo wprowadzono karty kredytowe - początkowo prosty rodzaj płatności oparty na podpisach i przetwarzaniu ręcznym; proces został ostatecznie skomputeryzowany w latach siedemdziesiątych. Od tego czasu nastąpiły poważne zmiany technologiczne. Pasek magnetyczny, opracowany z technologii komputerowego przechowywania danych, został wprowadzony na kartach kredytowych w latach 70-tych. Elektroniczny układ scalony został dodany w latach 80. i 90. XX wieku. Hologramy zabezpieczające zostały dodane, aby jeszcze bardziej zniechęcić fałszerzy. A systemy zbliżeniowe wykorzystujące technologie indukcji radiowej, które nie wymagają fizycznego kontaktu między kartą a czytnikiem, zostały wprowadzone w ciągu ostatnich dwudziestu lat, umożliwiając natychmiastowe płatności zbliżeniowe do określonej kwoty. Te i inne technologie zaczynają zmniejszać zapotrzebowanie na gotówkę. W Chinach ta zmiana szybko zachodzi dzisiaj; w ciągu ostatnich 3 lat prawie wszyscy w największych chińskich miastach przeszli z gotówki na smartfony do dokonywania płatności. Czy gotówka stanie się przestarzała? Tymczasem pojawiają się waluty internetowe, takie jak Bitcoin, które mogą jeszcze bardziej zmienić krajobraz. Liczba zdjęć zrobionych w ciągu zaledwie jednego roku wynosi teraz kilka bilionów - znacznie więcej niż wszystkie zdjęcia zrobione na filmie w całej historii fotografii. Droga do fotografii była długa. Kamera otworkowa (światłoszczelne pudełko z maleńkim otworem na jednym końcu, który daje odwrócony obraz na drugim końcu) była znana starożytnym Chińczykom i Grekom ponad dwa tysiące lat temu. W XVII wieku otworek został wymieniony przez obiektyw, a aparat służył jako pomoc w rysowaniu. W 1614 roku Angelo Sala odkrył, że sproszkowany azotan srebra jest zaczerniany przez Słońce. Na początku XIX wieku Thomas Wedgewood, Humphry Davy i Nicéphore Niépce odnieśli pewien sukces w uchwyceniu prymitywnych, nietrwałych obrazów cieni przy użyciu azotanu srebra. Niépce użył bitumu jako powłoki na cynie, która twardniała pod wpływem światła; rezultatem była najstarsza zachowana fotografia. Po przedwczesnej śmierci Niépce&pime;a, jego partner Louis Daguerre kontynuował pracę, stosując procesy oparte na srebrze, a w 1839 r. w końcu ogłosił pierwszy praktyczny proces fotograficzny we Francuskiej Akademii Nauk i na świecie. Szybko nastąpiło wiele zmian, z których najważniejszym był film fotograficzny Amerykanina George′a Eastmana w 1884 r., a aparat Eastman Kodak Brownie udostępnił fotografię masowemu rynkowi w 1901 r. Wiek później fotografia została całkowicie zrewolucjonizowana przez niezwykłą "przełomową technologię". Do wykrywania światła można użyć tablic elektronicznych zamiast folii. Jednym z wielu cudów stworzonych przez rewolucję elektroniczną ostatniego półwiecza jest urządzenie ze sprzężeniem ładunkowym (CCD), wynalezione w 1969 roku przez Willarda Boyle′a i George′a Smitha w Bell Labs. Obraz wyświetlany na tablicy bardzo czułych kondensatorów nadaje każdemu elementowi ładunek elektryczny odpowiadający otrzymywanemu światłu. Obwód sterujący przesuwa ładunek elektryczny z jednego kondensatora do drugiego, a ostatecznie do wzmacniacza ładunku i digitizera. W ten sposób obraz jest przechwytywany i "odczytywany" w postaci cyfrowej, która może być następnie przechowywana w układzie pamięci lub komputerze. Obrazy wytwarzane przez takie cyfrowe detektory mają ogromne zalety w porównaniu z filmem fotograficznym. Są o wiele bardziej czułe, można je oglądać natychmiast (w porównaniu z godzinami, dniami lub tygodniami w przypadku filmu), nic nie kosztują i można nimi łatwo manipulować, kopiować i wysyłać na cały świat w ciągu kilku sekund. Z perspektywy czasu widać wyraźnie, że technologia cyfrowa szybko przyćmiłaby film. Ostateczna ironia polega na tym, że chociaż Kodak wynalazł fotografię cyfrową w 1975 r. i wprowadził pierwsze komercyjne aparaty cyfrowe w 1995 r., utknął z filmem jako podstawową działalnością i zbankrutował w 2012 r. W rzeczywistości fotografia cyfrowa prawie całkowicie zastąpiła kliszę w ciągu dekady - prawdopodobnie najszybsze "przełom technologiczny" w historii. Nie zawsze myślimy o tym w ten sposób, ale współczesny samochód to cud inżynierii, wykorzystujący wiele różnorodnych technologii. Jego sercem jest silnik spalinowy. Trudno sobie wyobrazić, że płynny, cichy ruch nowoczesnego samochodu jest w rzeczywistości wynikiem tysięcy eksplozji, które co minutę mają miejsce w kilku cylindrach, które przekształcają tę energię w ruch obrotowy napędzający koła. Równie ważna jak mechanizm napędowy jest zdolność do zatrzymania się; wymaga to również dużej siły, a zapewnia ją hydrauliczny układ hamulcowy oparty na prawie Pascala i zamianie energii kinetycznej na ciepło. Przeszliśmy długą drogę, odkąd pierwszy samochód został opracowany przez Karla Benza w 1885 roku. Nowoczesne samochody są projektowane przy użyciu systemów komputerowego wspomagania projektowania i mogą być dynamicznie testowane w zaawansowanych symulacjach komputerowych, zanim jeszcze powstanie prototyp. Linie montażowe są wysoce zautomatyzowane. Typowy dzisiaj samochód ma dziesiątki "komputerów" (jednostek centralnych) kontrolujących wiele jego funkcji, a liczba ta będzie rosła. W rzeczywistości samochód zaczyna przypominać samolot odrzutowy pod względem technologicznym - może nie jest to zaskakujące, ponieważ samochody poruszają się w znacznie bardziej zatłoczonym i złożonym środowisku niż samoloty. A wymagania będą coraz większe w miarę zbliżania się ery autonomicznych samochodów. Kiedy gdzieś podróżujesz, możesz śledzić swoją pozycję w czasie rzeczywistym w samochodzie lub w telefonie komórkowym. Jest to możliwe dzięki GPS (Globalny System Pozycjonowania), ukończony przez Departament Obrony USA w 1995 roku. Został on bezpłatnie udostępniony użytkownikom cywilnym i komercyjnym na całym świecie, a inne kraje i grupy krajów również udostępniły swoje własne systemy. System GPS obejmuje co najmniej 24 satelity działające jednocześnie. Opiera się na dokładnej wiedzy o czasie i dokładnie znanych pozycjach satelitów. Satelity przenoszą bardzo stabilne zegary atomowe, które są zsynchronizowane ze sobą oraz z zegarami naziemnymi. Ciągle przesyłają swój aktualny czas i pozycję do dowolnego odbiornika na ziemi; Aby odbiornik mógł obliczyć swoją pozycję (z dokładnością do kilku metrów), w polu widzenia odbiornika muszą znajdować się co najmniej cztery satelity. Oczywiście wiele dziedzin wiedzy naukowej połączyło się, aby to umożliwić, w tym fizyka zegarów atomowych, zrozumienie fal radiowych i technologie wystrzeliwania satelitów na orbitę. Najbardziej ezoteryczna fizyka obejmuje teorie szczególnej i ogólnej teorii względności Einsteina: szczególna teoria przewiduje, że zegary satelitarne opóźnią się w stosunku do zegarów naziemnych ze względu na ich prędkość, a ogólna teoria przewiduje, że zegary satelitarne wyprzedzą zegary naziemne ze względu na mniejsze pole grawitacyjne, którego doświadczają ze względu na ich wysokość nad Ziemią. Oba efekty muszą zostać obliczone, w przeciwnym razie w pozycjach GPS będą się pojawiać błędy narastające przy około 10 km dziennie! Tak więc, chociaż teorie Einsteina mogą normalnie wydawać się dalekie od codziennego życia, bez nich system GPS byłby bezużyteczny. Znajomość czasu kiedyś opierała się na ruchach ciał niebieskich, a później na kołysaniu wahadła, ale dziś opiera się na 400 zegarach atomowych przechowywanych w krajowych laboratoriach na całym świecie. Zegary te są stale porównywane ze sobą za pomocą GPS i innych sieci komunikacji satelitarnej, a "czas" jest średnią ważoną z nich wszystkich. Zegary są oparte na precyzyjnych częstotliwościach emitowanych przez atomy, gdy zmieniają poziom energii; zaangażowana fizyka atomowa została opracowana przez naukowców Nilsa Bohra, Alberta Einsteina i innych sto lat temu. Międzynarodowa sieć zegarów jest synchronizowana z dokładnością do jednej miliardowej sekundy dziennie. Obecnie opracowywane są jeszcze dokładniejsze zegary, które nie zyskają ani nie stracą ani sekundy w ciągu całego życia wszechświata, czyli 13,8 miliarda lat. Jak latają samoloty? Dwa główne wymagania to szybkość i kształt skrzydeł. Prędkość jest zapewniana przez silniki odrzutowe, które wykorzystują trzecie prawo Newtona. Paliwo spalające się w silnikach wytwarza gorący gaz, który jest wyrzucany z tylnej części silników, a reakcja ta popycha samolot do przodu. Kształt skrzydeł samolotu (zwanych profilem) zapewnia jego unoszenie. Góra jest zakrzywiona, a spód płaski. Powoduje to, że powietrze przechodzące nad górą porusza się szybciej niż powietrze przepływające poniżej; Zgodnie z zasadą nazwaną na cześć naukowca Daniela Bernoulli, który po raz pierwszy opublikował ją w 1738 roku, szybciej poruszające się powietrze powyżej ma niższe ciśnienie niż wolniej poruszające się powietrze poniżej, co skutkuje siłą skierowaną ku górze. Jeszcze większą siłę nośną może zapewnić "kąt natarcia" skrzydeł, który zwiększa się, gdy pilot podciąga nos samolotu tak, że większa część spodniej części skrzydeł napotyka przepływ powietrza. Na tej zasadzie samoloty mogą nawet latać do góry nogami. Helikoptery polegają na obrotowych łopatach do podnoszenia; w razie potrzeby pilot może kontrolować kąt ostrzy. Helikopter był najwcześniejszą znaną "latającą maszyną". Około 400 r. p.n.e. chińskie dzieci bawiły się bambusowymi zabawkami latającymi składającymi się z ostrzy przymocowanych do patyka, które można było obracać, aby obracać urządzenie, tworząc windę. W XV wieku Leonardo da Vinci tworzył projekty maszyn latających; rozważał zarówno lot pionowy, jak i poziomy, i zdał sobie sprawę, że sama siła robocza nie wystarcza do trwałego lotu poziomego. Pomimo wielu prób na przestrzeni wieków, dopiero gdy silnik spalinowy stał się dostępny, osiągnięto trwały załogowy lot cięższy od powietrza - Orville i Wilbur Wright w 1903 r. do lotu poziomego, a Louis i Jacques Breguet w 1907 r. do lotu pionowego. Rozwój od tego czasu był oczywiście błyskawiczny. Względnie niedocenianym bohaterem wielu rzeczy, które się poruszają, w tym statków, samochodów, samolotów, satelitów i statków kosmicznych, jest urządzenie znane jako żyroskop. Wszyscy znamy bączki jako zabawki dla dzieci; powstały niezależnie we wszystkich wczesnych kulturach świata. Wirujące bączki nadal wirują z powodu bezwładności: pierwsza zasada ruchu Newtona mówi, że ruch ciała będzie trwał dopóki nie zostanie do niego przyłożona siła zewnętrzna. W 1852 Léon Foucault użył żyroskopu (a także swojego słynnego wahadła), aby zademonstrować obrót Ziemi wokół własnej osi. Klasyczny żyroskop precyzyjny to szybko obracające się koło zamontowane na dwóch lub trzech gimbalach. Koło zachowuje swoją orientację niezależnie od ruchu ramy zewnętrznej, dzięki czemu czujniki mogą wykrywać wszelkie przyspieszenia. Miniaturyzacja żyroskopu poszła w ostatnich dziesięcioleciach do skrajności. MEMS (Micro Electromechanical Systems) to urządzenia mechaniczne wielkości mikrometrów wbudowane w elektroniczne chipy; używają wibrujących elementów zamiast obracających się kół do wykrywania przyspieszeń i orientacji, podobnie jak niektóre owady, takie jak muchy i nazywane są żyroskopami o strukturze wibracyjnej. Tak więc technologia żyroskopów przeszła od wirujących blatów przez kardanowe koła do mikroelektroniki. Mają dziś ogromną liczbę zastosowań, w tym stabilizację i nawigację statków, samolotów i statków kosmicznych, systemy naprowadzania w pociskach, Segwaye, tunele podziemne, aktywację samochodowych poduszek powietrznych oraz stabilizację obrazu w kamerach i osobistych smartfonach. Akceleratory cząstek zostały pierwotnie opracowane wiele dekad temu do badań w dziedzinie fizyki cząstek, ale obecnie są również wykorzystywane do wielu innych celów. Obecnie na całym świecie działa ponad 30 000 akceleratorów. Cyklotrony są wykorzystywane do produkcji radioizotopów dla medycyny. Synchrotrony mogą wytwarzać niezwykle intensywne wiązki promieniowania elektromagnetycznego (EMR), które mają szerokie zastosowanie: biologia (struktura molekularna), badania medyczne (mikrobiologia, radioterapia nowotworów), chemia (analiza składu), nauki o środowisku (toksykologia, czystość). technologie), rolnictwo (genomika roślin, badania gleb), eksploracja minerałów (analiza próbek rdzeniowych, badania rud), materiały (materiały nanostrukturalne, polimery, materiały elektroniczne i magnetyczne), inżynieria (obrazowanie defektów struktur, obrazowanie procesów przemysłowych ), kryminalistyka (identyfikacja bardzo małych próbek) oraz badania nad dziedzictwem kulturowym (nieniszczące techniki w paleontologii, archeologii i historii sztuki). Ostatecznym źródłem promieniowania elektromagnetycznego jest nowy europejski laser rentgenowski na swobodnych elektronach (XFEL) o długości 3,4 km, który wytwarza miliardy razy jaśniejsze impulsy promieniowania rentgenowskiego niż konwencjonalne synchrotrony. Superszybka rozdzielczość czasowa umożliwia śledzenie szybkiej biologii na poziomie atomowym. Niektóre elementy złączne i kleje, których dziś powszechnie używamy, zostały zainspirowane obserwacjami natury. Pomysł na rzep wpadł na pomysł szwajcarskiego inżyniera, który spacerował z psem po lesie w 1941 roku i był zaintrygowany zadziorami, które przylgnęły do jego ubrania. Pomyślał o sposobie odtworzenia mechanizmu za pomocą wielu maleńkich haczyków na kawałku materiału, które mogłyby zaczepić się o inny, podatny kawałek materiału, a później z łatwością odciągnąć; opatentował rzep w 1955 roku. Dziś jest on używany w wielu różnych zastosowaniach. Jak wspomniano powyżej, niesamowita zdolność gekonów do chodzenia po gładkich pionowych powierzchniach przyciągnęła uwagę wielu ludzi na przestrzeni wieków, a kiedy mechanizm został zrozumiany, szybko skopiowano go i wykorzystano do bandaży medycznych i urządzeń do przyklejania i przenoszenia dużych tafle szkła nie pozostawiające śladów po uwolnieniu. Ale jest jedna substancja, do której nawet gekony nie mogą się przyczepić: teflon, który został przypadkowo odkryty przez naukowca z DuPont w 1938 roku podczas poszukiwania nietoksycznych czynników chłodniczych. Jest to jedna z najbardziej śliskich znanych substancji i odpycha inną materię, w tym stopy gekonów. Najbardziej znany jest ze stosowania w patelniach z powłoką zapobiegającą przywieraniu, ale jest również używany w wielu innych zastosowaniach. Z drugiej strony, jedna z najbardziej lepkich znanych substancji (cyjanoakrylan) została po raz pierwszy odkryta przypadkowo w 1942 roku przez naukowców z Goodrich, którzy próbowali wykonać przezroczyste celowniki z plastiku na potrzeby działań wojennych. Został ponownie odkryty przez badaczy Eastman Kodak w 1951 roku, a ten "superklej" szybko stał się sławny i szeroko stosowany. Inna forma kleju została ostatnio zainspirowana naturą: śluz ślimaków okazuje się mieć niezwykłe właściwości, które są bardzo korzystne w przypadku klejów medycznych. Niektóre ślimaki wydzielają lepką substancję, która odstrasza drapieżniki. Międzynarodowy zespół naukowców zbadał właściwości tego szlamu. Jest to matryca zwana hydrożelem, sieć skrobiowych łańcuchów cząsteczek, która składa się głównie z wody. Jego niezwykłe właściwości adhezyjne wynikają z oddziaływań elektrostatycznych, wiązań kowalencyjnych i wzajemnego przenikania. Ponieważ jest rozciągliwy, może poruszać się wraz z tkankami ciała, zachowując przyczepność i pozostawia mniej blizny niż przy normalnych technikach chirurgicznych. Może nawet przyklejać się do mokrych powierzchni i jest skuteczny w obecności krwi. Może być wstrzykiwany, może być przyczepiony do bijącego serca, będzie mocno przylegał do skóry, tętnic i narządów wewnętrznych i może ewentualnie zastąpić szwy w gojeniu ran. Duży wkład w medycynę od skromnego ślimaka. Nauka oczywiście odgrywa dziś ogromną rolę w medycynie. Ale medycyna późno stała się naukowa. Starożytne greckie humory były w dużej mierze częścią myśli medycznej na początku XIX wieku, a długa tradycja upuszczania krwi wymarła dopiero w połowie tego stulecia. Do tego czasu ruch zdrowia publicznego, ze swoim zorganizowanym i zdroworozsądkowym podejściem, zaczął mieć znaczący pozytywny wpływ na ogólny stan zdrowia i długowieczność. Ale dopiero pod koniec XIX wieku skrupulatne badania naukowe odkryły przyczyny kilku chorób. Mikroskop, długo ignorowany przez prawie dwa stulecia, w końcu ujawnił bakterie wywołujące choroby, takie jak wąglik, cholera i gruźlica. Louis Pasteur i Robert Koch byli pionierami w tej dziedzinie, tworząc "złoty wiek bakteriologii". W latach osiemdziesiątych XIX wieku Pasteur z wielkim sukcesem wyprodukował szczepionki przeciwko wąglikowi i wściekliźnie, a następnie antytoksyna błonicy. Najnowocześniejsza medycyna przeniosła się do laboratorium. Dwie z wyjątkowych historii sukcesu w medycynie naukowej dotyczą insuliny i penicyliny. Droga do insuliny była długa. Cukrzyca była znana jako choroba od tysiącleci (obecnie jest ponad 400 milionów przypadków, a cukrzyca jest siódmą najczęstszą przyczyną zgonów w świecie zachodnim), ale dopiero w ciągu dziesięcioleci, od lat 60. XIX wieku do lat 20. XX wieku, fragmenty łamigłówki była stopniowo układana. W 1869 roku badania mikroskopowe trzustki ujawniły niezwykłe skupiska materii, zwane później wysepkami. W 1889 roku odkryto, że usunięcie trzustki u psów powoduje cukrzycę i wkrótce zasugerowano, że wysepki mogą odgrywać rolę regulacyjną w trawieniu. W 1901 stało się jasne, że cukrzyca jest spowodowana zniszczeniem wysepek. Nastąpiły dwie dekady prób wyizolowania tego, co wydzielają wysepki. W 1921 Frederick Banting z University of Toronto wymyślił sposób na uzyskanie czystego ekstraktu z wysepek, zanim zostaną zniszczone przez enzymy trzustki, a on i jego koledzy zdołali wytworzyć aktywny hormon insuliny (insula, łac. wyspa). Pierwszy zastrzyk insuliny podano 14-letniemu chłopcu, który leżał umierający w 1922 roku i szybko wyzdrowiał. Równie dramatyczne były przypadki ożywienia pacjentów w śpiączce cukrzycowej po podaniu insuliny i glukozy. Były to spektakularne osiągnięcia, które uratowałyby i poprawiły życie milionów ludzi. Penicylinę nazwano "cudownym lekiem wszechczasów", "cudownym lekiem" i "najważniejszym odkryciem minionego tysiąclecia". Wywołał rewolucję w medycynie. Fleming miał "przygotowany umysł" i dyscyplinę, by zbadać i szczegółowo go śledzić. Ale był słabym komunikatorem, a jego doniosłe odkrycie nie przyciągnęło uwagi aż do 1939 roku, kiedy zespół z Oksfordu kierowany przez Australijczyka Howarda Floreya oczyścił penicylinę i wykazał, że leczy ona zakażone myszy i niektórych ludzi. Po tym czasie produkcja penicyliny została zwiększona na potrzeby działań wojennych, zwłaszcza w USA, a pod koniec wojny produkowano ponad 600 miliardów sztuk rocznie. W ciągu kilku dni wyleczył infekcje, gangrenę i zapalenie płuc i uratował życie setkom tysięcy rannych żołnierzy. Ale to był dopiero początek naukowej historii. Penicylina była szeroko stosowana po drugiej wojnie światowej i w tamtych upalnych czasach przewidywano, że medycyna całkowicie pokona wszystkich mikroskopijnych wrogów człowieka w ciągu jednego pokolenia. Niespodzianką była jednak zdolność mikroorganizmów do ewolucji i uodpornienia się na penicylinę. Aby poradzić sobie z nowymi szczepami bakterii, naukowcy musieli wyprodukować nowe typy penicyliny. W 1945 r. określono strukturę chemiczną penicyliny za pomocą krystalografii rentgenowskiej i stało się możliwe opracowanie nowych form penicyliny. Udało się to, ale w końcu stało się jasne, że śmiercionośnych mikroorganizmów nigdy nie da się całkowicie wyeliminować, a ich zagrożenie można jedynie złagodzić. Niemniej jednak penicylina okazała się niezwykle skutecznym lekiem; Szacuje się, że w XX wieku uratował dziesiątki, a nawet setki milionów istnień ludzkich i nadal to czyni. Obecnie szeroko stosowane są różnorodne zaawansowane urządzenia do obrazowania medycznego. Mikroskopy elektronowe mogą widzieć wirusy, tak jak tradycyjne mikroskopy mogły widzieć bakterie w XIX wieku; zapewniają powiększenia do dziesięciu milionów razy, pięć tysięcy razy większe niż tradycyjne mikroskopy. Działają na zasadzie oświetlania celu wiązką elektronów i wykrywania na różne sposoby promieniowania przepuszczanego i rozproszonego. Obrazowanie rentgenowskie jest używane przez większość minionego stulecia, po odkryciu promieni rentgenowskich przez Wilhelma Röntgena w 1895 roku. Wiązka promieniowania rentgenowskiego może przechodzić przez ludzkie ciało, ale gęste materiały (takie jak kości) absorbują promieniowanie rentgenowskie bardziej niż inne tkanki, dzięki czemu wyraźnie wyróżniają się na obrazie uzyskanym przez detektor cyfrowy umieszczony po drugiej stronie ciała. Skaner tomografii komputerowej (CT lub CAT) wykorzystuje obrotową ramę zawierającą źródło promieniowania rentgenowskiego z jednej strony i detektor z drugiej; rama obraca się wokół pacjenta, dzięki czemu obrazy przekrojowe mogą być tworzone przez komputer. Można je następnie połączyć, aby uzyskać obrazy 3D widziane pod różnymi kątami. Pozytonowa tomografia emisyjna (PET) wykorzystuje znacznik emitujący pozytony, który jest wprowadzany do organizmu; emituje bardzo energetyczne fotony (promienie gamma), które można wykryć i ponownie przekształcić w obrazy 3D. Obrazowanie metodą rezonansu magnetycznego (MRI) opiera się na absorpcji lub emisji fal radiowych przez określone jądra atomowe w obecności zewnętrznego pola magnetycznego. Jest to bardzo wszechstronna technika obrazowania, która nie stwarza (obecnie minimalnych) zagrożeń związanych z promieniowaniem rentgenowskim. Ultradźwięki to zupełnie inny rodzaj techniki obrazowania. Gwałtownie przemienny ładunek elektryczny wytwarza drgania w elemencie ceramicznym poprzez efekt piezoelektryczny (odkryty w XIX wieku), który z kolei wytwarza fale dźwiękowe o wysokiej częstotliwości (zdecydowanie zbyt wysokie, abyśmy mogli je usłyszeć). Pulsująca wiązka tych fal jest kierowana na cel, a odbite echa są wykrywane i wyświetlane w dwóch wymiarach w czasie rzeczywistym. To wszystko są imponująco wyrafinowane techniki i z pewnością pokazują, że współczesna medycyna intensywnie wykorzystuje zaawansowaną wiedzę naukową. Dźwięk całkowicie zadziwił wczesnych naukowców. Jak mogli "słyszeć" widzialny ruch czyichś ust lub pęknięty słoik? Wydawało się, że nie ma żadnego widocznego związku przyczynowego między tymi wydarzeniami a dźwiękami, które słyszeli. Historia dźwięku jest dość mroczna. Arystoteles był najwyraźniej jednym z pierwszych, którzy zasugerowali, że dźwięk rozchodzi się falami, a Leonardo da Vinci czasami przypisywał ten sam wgląd. Pitagoras odkrył, że wysokość dźwięku jest związana z długością szarpanej struny, a Galileusz odkrył bardziej bezpośrednio, że zależy od częstotliwości fal. W 1640 roku Marin Mersenne był w stanie zmierzyć prędkość dźwięku, a kilka lat później Otto von Gericke i Robert Boyle udowodnili, że powietrze jest medium, w którym przemieszczają się fale dźwiękowe: umieszczenie dzwonka w naczyniu próżniowym bez powietrza uciszyło dzwon. Ustalono więc, że fale dźwiękowe to fale gęstości rozchodzące się w powietrzu. W ciągu ostatnich dwóch stuleci możliwe stało się kopiowanie, manipulowanie i przesyłanie dźwięku na wiele różnych, bardzo sprytnych sposobów. Nowoczesne aparaty słuchowe to ciekawe przykłady współczesnej technologii. Standardowy miniaturowy aparat słuchowy zasilany bateryjnie zawiera mały mikrofon, który wykrywa dźwięk i przekształca go w prąd elektryczny, wzmacniacz i głośnik do odtwarzania wzmocnionego dźwięku przez małą rurkę bezpośrednio do ucha wewnętrznego. W cyfrowym aparacie słuchowym chip wzmacniacza przetwarza sygnały z mikrofonu na postać cyfrową, które mogą być następnie przetwarzane (jak w komputerze) w celu dostosowania do otoczenia i specyficznych potrzeb użytkownika, aby zapewnić wyraźniejsze dźwięki. Nieco inny rodzaj "aparatu słuchowego" zapewniają słuchawki z redukcją szumów, z których może korzystać każdy, kto ma normalny słuch. Znacznie redukują niepożądany hałas otoczenia (na przykład w samolocie lub w pobliżu dmuchaw do liści), jednocześnie odtwarzając wysokiej jakości muzykę. Zasada jest taka:: hałas otoczenia jest mierzony przez mikrofon i generowany jest kształt fali, który jest dokładnie odwrotny, aby zapewnić niemal idealną eliminację w czasie rzeczywistym; w międzyczasie użytkownik może cieszyć się nieskażoną muzyką lub ciszą, zgodnie z życzeniem. Implant ślimakowy to zupełnie inny i znacznie bardziej wyrafinowany rodzaj aparatu słuchowego, zapewniający słyszenie dźwięku osobom głęboko głuchym lub bardzo niedosłyszącym. Omija uszkodzone części ucha i bezpośrednio stymuluje nerw słuchowy. Składa się z części zewnętrznej za uchem oraz implantu, który jest chirurgicznie umieszczany pod skórą. W części zewnętrznej sygnały z mikrofonu trafiają do elektronicznego procesora dźwięku, a zmodyfikowane sygnały trafiają do nadajnika. W implancie sygnały te są odbierane przez indukcję elektromagnetyczną przez odbiornik, który zamienia je na impulsy elektryczne, które są wysyłane do układu elektrod, który z kolei stymuluje nerw słuchowy do wysyłania sygnałów do mózgu. Setki tysięcy takich urządzeń zostało już wszczepionych na całym świecie z wysokim wskaźnikiem powodzenia, szczególnie w przypadku małych dzieci. Amerykańskie Narodowe Instytuty Zdrowia uważają implant ślimakowy za "jedno z najbardziej przełomowych osiągnięć biomedycznych w ciągu ostatnich 30 lat". Co ciekawe, niektóre z najsilniejszych sprzeciwów wobec implantu ślimakowego pochodzą ze społeczności Głuchych, która uważa go za afront wobec kultury mniejszości. Serce jest samym rdzeniem naszej istoty, a dla milionów ludzi w ciągu ostatniego półwiecza nawet to było regulowane przez wytwór nauki i technologii: sztuczny rozrusznik serca. Służy do utrzymania odpowiedniego tętna, gdy występują problemy z naturalnym rozrusznikiem serca lub systemem przewodzenia elektrycznego. Historia sięga roku 1889 w Anglii, kiedy John Macwilliam odkrył, że może dawać impulsy elektryczne, aby przywrócić normalny rytm serca u pacjenta. W 1926 roku Mark Lidwill i Edgar Booth w Sydney w Australii wykonali urządzenie z igłą wbitą w komorę serca i użyli go do ożywienia martwego dziecka. Wyrażano jednak obawy społeczne dotyczące idei "ingerowania w naturę" w ten sposób. Niemniej jednak rozwój wydarzeń trwał nadal po II wojnie światowej. Kanadyjski inżynier elektryk John Hopps stworzył pierwszy zewnętrzny (przezskórny) rozrusznik serca w 1950 roku, po którym nastąpił szereg innowacji. Pierwsza implantacja sztucznego rozrusznika serca została wykonana w Szwecji w 1958 roku przez Rune Elmqvista i Ake Senninga; urządzenie początkowo zawiodło kilka razy, ale biorca otrzymał 26 różnych rozruszników serca w ciągu swojego 86-letniego życia i przeżył zarówno wynalazcę, jak i chirurga. Najnowocześniejsze są obecnie bezprzewodowe rozruszniki serca wielkości pigułki, które można wprowadzać przez cewnik do nóg bezpośrednio do serca. Nawet tworzenie nowych istot ludzkich jest teraz pod wpływem nauki i technologii. Ponad pięć milionów żyjących dzisiaj ludzi zostało "stworzonych" przez IVF (zapłodnienie in vitro), w którym komórka jajowa jest łączona z plemnikiem w laboratorium, a następnie przenoszona do macicy (matki lub innej kobiety). Wkrótce jedno na dziesięć brytyjskich dzieci urodzi się z zapłodnienia in vitro. To naprawdę niezwykłe, że miliony ludzi zawdzięczają swoje istnienie nauce i technologii. Pierwsze dziecko in vitro urodziło się w 1978 roku, a brytyjski fizjolog Sir Robert Edwards otrzymał za to osiągnięcie w 2010 roku Nagrodę Nobla w dziedzinie fizjologii lub medycyny. Z drugiej strony tabletki antykoncepcyjne zostały wprowadzone w 1960 r. Są bardzo skuteczne w zapobieganiu owulacji i odwracalnie hamują płodność kobiet; są obecnie używane przez ponad 100 milionów kobiet na całym świecie. Regeneracyjne komórki macierzyste są coraz częściej wykorzystywane do leczenia lub zmniejszania różnych problemów medycznych i chorób. Niedawno ogłoszono dwa przełomowe badania. Jeden z nich wydaje się być "zmieniaczem gry" w przypadku stwardnienia rozsianego (MS), w którym układ odpornościowy atakuje nerwy mózgu i rdzenia kręgowego. W przypadku grupy pacjentów z postacią rzutowo-remisyjnej postaci stwardnienia rozsianego zastosowano chemioterapię w celu wyeliminowania wadliwych komórek układu odpornościowego, które następnie zastąpiono komórkami macierzystymi z krwi i szpiku kostnego pacjenta. Po 3 latach leczenie to powiodło się w 94% przypadków, w porównaniu z 40% w przypadku leczenia standardowego. Pacjenci nazywali to odmieniającym życie "cudownym lekarstwem": będąc na wózku inwalidzkim lub nie potrafiąc czytać, mogli znów żyć normalnie. Drugi przełom dotyczy wzroku. Zaćma powoduje ślepotę, a operacje zaćmy, w których zmętniałą soczewkę pacjenta zastępuje się przezroczystą soczewką z tworzywa sztucznego, są najczęstszą operacją na świecie. Nowa technika polega na usunięciu zmętniałej soczewki, ale pozostawieniu torebki soczewki, membrany, która nadaje soczewce wymagany kształt. Pobliskie regeneracyjne komórki macierzyste są następnie umieszczane w błonie i magicznie rosną w nową, w pełni funkcjonującą "żywą" przezroczystą soczewkę. Jest to z powodzeniem stosowane u niemowląt poniżej drugiego roku życia, które mają wrodzoną zaćmę i mogą potencjalnie być używane dla milionów starszych osób z zaćmą, przywracając im wzrok za pomocą własnych komórek. DNA jest obecnie wykorzystywane na coraz więcej sposobów. Kilka fundamentalnych przełomów naukowych - określenie struktury DNA w 1953 roku, złamanie kodu genetycznego na początku lat 60. i zsekwencjonowanie całego genomu ludzkiego w 2003 roku - otworzyło szerokie spektrum zastosowań. Jednym z nich jest profilowanie DNA (lub "odciski palców"). 99,9% ludzkiego DNA jest takie samo u każdej osoby, ale istnieją małe fragmenty, które się różnią i można je zbadać, aby odróżnić osoby, w niektórych przypadkach identyfikując przestępcę lub mordercę. Testy DNA mogą również identyfikować anomalie genetyczne i dostarczać informacji o członkach rodziny i genealogii, w tym o głównych lokalizacjach geograficznych odległych przodków. Manipulacje genetyczne stają się teraz powszechne. Jednym z pierwszych zastosowań było zastosowanie w uprawach genetycznie modyfikowanych (GM), które rozpoczęły się w 1982 roku. Celem jest wprowadzenie do rośliny pożądanej nowej cechy, której inaczej by nie miała, takiej jak odporność na owady i choroby oraz ograniczenie psucia się uprawy. Metody obejmowały "pistolety genowe" i mikroiniekcję w celu włączenia obcego DNA (który ma pożądaną cechę) do komórek roślinnych; zostaje zintegrowany z własnym DNA rośliny. Ostatnio dostępne stały się bardziej precyzyjne techniki edycji DNA, takie jak CRISPR. Koncepcja ta została szeroko zaakceptowana przez rolników, a obecnie ponad 10% gruntów ornych na świecie jest obsadzanych uprawami GM; w USA ponad 90% powierzchni upraw bawełny, kukurydzy i soi zawiera odmiany GM. Technologia GM zaowocowała znacznie mniejszym zużyciem pestycydów i znacznie wyższymi plonami. Naukowcy są zgodni, że uprawy GM nie stanowią większego zagrożenia dla zdrowia niż konwencjonalna żywność, ale wiele osób pozostaje sceptycznych i kontrowersje nadal trwają. Terapia genowa jest postrzegana jako sposób na rozwiązanie problemu genetycznego u jego źródła poprzez modyfikację genomu, zastępowanie lub zakłócanie wadliwych genów. T. Friedmann i R. Roblin wprowadzili tę koncepcję w 1972 r. w swoim artykule Gene Therapy for Human Genetic Disease? ale nalegał na ostrożność w wykonywaniu tego rodzaju prac. Pierwsze próby pochodzą z lat 80., ale wczesne niepowodzenia tłumiły entuzjazm. Ostatnio jednak pojawiły się pewne znaczące osiągnięcia i coraz większe nadzieje na przyszłość. W 2017 roku Amerykańska Agencja ds. Żywności i Leków (FDA) zatwierdziła terapie genowe dla dwóch rodzajów raka. W obu przypadkach własne komórki odpornościowe pacjenta są genetycznie przeprogramowane, aby celować i zabijać komórki rakowe. W tym samym roku FDA zatwierdziła również pierwszą terapię genową dla postaci dziedzicznej ślepoty; choroba ta jest wywoływana przez pojedynczy wadliwy gen, a lekarstwo obejmuje nieszkodliwy wirus genetycznie zmodyfikowany, aby przenosić zdrową wersję genu, dostarczaną do siatkówki. W Wielkiej Brytanii inny genetycznie zmodyfikowany wirus wydaje się bardzo obiecujący jako lek na hemofilię A (która zapobiega krzepnięciu w przypadku ciężkiego krwawienia). Niedawno naukowcy przeprowadzili bezpośrednią edycję genomów ludzkich embrionów za pomocą CRISPR w celu usunięcia i zastąpienia pojedynczego zmutowanego segmentu genu, który powoduje częstą i śmiertelną chorobę serca. Embriony w eksperymentach nie były przeznaczone do implantacji, a badania są dalekie od zastosowania klinicznego, ale czy w końcu otworzy drzwi do wyeliminowania tego i wielu innych zaburzeń genetycznych? A to dopiero początek; Świnie poddane edycji genów, oczyszczone ze szkodliwych wirusów, mogą w przyszłości dostarczyć przeszczepy narządów ludzkich, a geny zmniejszające płodność mogą zostać wszczepione niepożądanym owadom - możliwości wydają się nieskończone, ale także potencjalne ryzyko niezamierzonych konsekwencji - naukowcy będą mieć zachować ostrożność. Istnieje ważne rozróżnienie między dwiema podstawowymi kategoriami komórek: komórki somatyczne to zróżnicowane komórki ciała i tkanek jednostki, a komórki rozrodcze to komórki biorące udział w rozmnażaniu. Terapia genowa na komórkach somatycznych (SCGT) wpływa tylko na jednostkę, ale terapia genowa na komórkach zarodkowych (GGT) jest dziedziczna i przekazywana wszystkim późniejszym pokoleniom. Istnieje silny sprzeciw wobec GGT i w wielu krajach jest on zabroniony (chociaż "turystyka medyczna" może w końcu stać się branżą). Oprócz oczywistych zagrożeń medycznych związanych z GGT, istnieją poważne obawy natury etycznej, ponieważ mogłoby to spowodować (przynajmniej w zasadzie) "projektowanie dzieci" z pewnymi "preferowanymi" cechami - nową formę znienawidzonej eugeniki. Nauka o materiałach jest obecnie rozwijającą się dziedziną na styku chemii, fizyki i metalurgii. Obejmuje materiały, od ceramiki i polimerów po stopy metali i półprzewodniki, i ma fundamentalne znaczenie dla wielu gałęzi przemysłu. Grafen jest niezwykłym przykładem. W 2004 roku Andre Geim i Konstantin Novoselov wyprodukowali arkusze węgla o grubości pojedynczego atomu. Ich praca została dwukrotnie odrzucona przez Nature (jako niemożliwa) i ostatecznie opublikowana w Science. Za ten fundamentalny rozwój zostali nagrodzeni Nagrodą Nobla w dziedzinie fizyki w 2010 roku. Grafen jest pierwszym znanym dwuwymiarowym materiałem, który kiedykolwiek był znany, i jest najlżejszym, najcieńszym i najmocniejszym materiałem kiedykolwiek testowanym (200 razy mocniejszym od stali). Przewodzi ciepło i elektryczność (znacznie lepiej niż miedź) i jest prawie przezroczysta. Istnieje ogromna liczba potencjalnych zastosowań, w tym elastyczne, półprzezroczyste telefony komórkowe i lekkie samoloty. Nanotechnologia sięga nawet głębiej niż "konwencjonalna" materiałoznawstwo i obejmuje manipulację materią w skali atomowej lub molekularnej, co już skutkuje tysiącami zastosowań (w tym "taśmą gekona"). Kiedy myślimy o załogowych misjach Apollo na Księżyc z lat 60.,mają tendencję do myślenia o złożonej dynamice orbitalnej (opartej na prawach Newtona), wyrafinowanych komputerach (opartych na mechanice kwantowej) i systemach napędowych rakiet (opartych na trzecim prawie Newtona). Ale równie ważna, choć stosunkowo mało spektakularna, była materiałoznawstwo, które zostało wykorzystane do produkcji ogromnych zbiorników na paliwo; ich ściany musiały być mocne, ale niezwykle lekkie (a przez to cienkie), a nie mogły być wykonane przy użyciu technologii z poprzednich dekad. Program Apollo obejmował ogromną liczbę postępów naukowych i technologicznych. Meteorologia jest jedną z nauk o atmosferze i dostarcza naszych prognoz pogody. Dopiero gdy fizyka atmosfery została dobrze zrozumiana i wykorzystana w dużych symulacjach komputerowych, możliwe stało się znaczne usprawnienie przewidywania pogody w ciągu ostatnich kilkudziesięciu lat. Dane wejściowe do modeli zapewniają stacje pogodowe na lądzie i boje pogodowe na morzu, radiosondy wystrzeliwane w troposferę i stratosferę oraz satelity pogodowe, a modele są aktualizowane co 10-20 minut. Ludzie nadal muszą monitorować modelowanie i interpretować wyniki, ale wkład ludzki może nie być już potrzebny w pewnym momencie w przyszłości. Powyższe przykłady tylko zarysowują powierzchnię. Istnieje niezliczona ilość innych zastosowań nauki - w naszych domach, biurach, fabrykach, drogach, mostach, samochodach, ciężarówkach, pociągach i samolotach - we wszystkich aspektach naszego życia. Po przeszukaniu świata przyrody w poszukiwaniu wiedzy na temat jego zawartości i tego, jak to wszystko działa, byliśmy w stanie wykorzystać tę wiedzę w ogromnej różnorodności zastosowań dla naszej własnej korzyści, dzięki pomysłowości, kreatywności i przemysłowi. A zarówno nasza wiedza naukowa, jak i technologia, którą tworzy, rosną w tempie wykładniczym. Byliśmy w stanie kontrolować i dostosowywać wiele aspektów otaczającego nas świata, aby znacznie poprawić nasze życie. To, co jest naprawdę uderzające, to fakt, że większość osiągnięć technicznych, które uczyniły nasz świat "nowoczesnym", miały miejsce właśnie od końca XIX wieku - mniej niż dwa wcielenia - nic w porównaniu z tysiącami lat zapisanej historii i milionami lat ludzkości. ewolucja. W rzeczywistości, jeśli ktoś miałby wskazać jeden wiek, który doświadczył najbardziej dramatycznych wydarzeń w całej historii, byłby to prawdopodobnie lata 1870-1970. Ten 100-letni okres przyniósł odkrycie elektronu (podstawa dla całej elektroniki), wprowadzenie teorii względności Einsteina, odkrycie wszechświata i jego ekspansji, rozwój fizyki kwantowej oraz odkrycie DNA i kodu genetycznego (podstawa przez całe życie) i wyprodukowaliśmy "bezkonny buggy" (samochód), telefon, radio, samolot (jednorazowe przejście z nielatania do latania), elektryczną pralkę do ubrań (która pomogła w emancypacji kobiet) , gramofon (ci, którzy nigdy nie słyszeli symfonii, teraz mogli ją usłyszeć za naciśnięciem przełącznika), filmy, telewizja, bomba atomowa i energia atomowa, komputer, odrzutowce, a wszystko to zwieńczone spektakularnym lądowaniem na Księżycu w 1969 - ogromne osiągnięcie (i to pomimo dwóch wojen światowych i wielkiego kryzysu). Wydarzenia od 1970 roku nie były tak oczywiste i dramatyczne, z wyjątkiem monumentalnej eksplozji Internetu i komunikacji, ale nauka i technologia z pewnością rozwijały się w bardziej subtelny sposób w zawrotnym tempie aż do chwili obecnej. Ostatni komentarz na temat nauki i technologii. Oba są ogromnymi tematami, ale wydaje się, że o wiele łatwiej jest dokonać przeglądu nauki niż technologii, ponieważ istnieje tylko jedna rzeczywistość, podczas gdy istnieje ogromna liczba różnorodnych technologii, które mogą rozwinąć się z niego.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (30)


Współpraca międzynarodowa

W dzisiejszych czasach w nauce coraz powszechniejsze stają się szeroko zakrojone międzynarodowe kolaboracje. Jest kilka powodów. Duże obiekty doświadczalne lub obserwacyjne, takie jak opisane poiżej, są bardzo drogie. A ponieważ są w czołówce nauki, są bardzo poszukiwane. Ale mogą jednocześnie obsługiwać tylko ograniczoną liczbę użytkowników. Oczywistym rozwiązaniem dla naukowców jest tworzenie dużej współpracy i ubieganie się o czas jako grupa. Ponadto często jest to duża współpraca, obejmująca wiele instytucji z różnych krajów, która produkuje kosztowne i złożone detektory i instrumenty dla tych gigantycznych obiektów, a współpraca ta jest nagradzana otrzymaniem znacznych bloków czasu, gdy obiekt po raz pierwszy staje się dostępny; Oprócz dostępu do pierwszej nauki, ta współpraca zapewnia testowanie i kalibrację obiektu oraz jego detektorów i instrumentów, a jest to ważna usługa dla ogólnych użytkowników naukowych, gdy mają swoją kolej na korzystanie z obiektu. Istnieje kilka innych powodów dużej współpracy międzynarodowej. Nauka, którą chcą się zajmować, jest często złożona, obejmująca różne obszary wiedzy, a dobrze prowadzona współpraca ekspertów z różnych dziedzin może zrobić znacznie więcej niż kilku niezależnych naukowców pracujących na własną rękę. Często cele naukowe wymagają dużych próbek i redukcji danych, a to oznacza współpracę wielu osób. A głównym powodem, dla którego we współczesnej nauce pojawiła się duża współpraca, jest to, że stało się możliwe dzięki rewolucji komputerowej i internetowej. Niektóre inne powody są mniej oczywiste. Unia Europejska zachęca i ułatwia szeroko zakrojoną ogólnoeuropejską współpracę w ramach wysiłków zmierzających do zbliżenia różnych krajów. A rządy generalnie uważają, że współpraca międzynarodowa jest atrakcyjna, zarówno ze względu na korzyści, jakie taka współpraca może zapewnić, jak i ze względu na prestiż bycia częścią czegoś, co jest ważne dla ludzkości i przekracza granice państwowe. Umowy można zawierać, handlując czasem na różnych obiektach w różnych krajach. A w przypadku indywidualnych naukowców z kraju, który nie jest członkiem konsorcjum, które zbudowało obiekt, dostęp do tego obiektu nadal można uzyskać, będąc częścią dużej światowej współpracy obejmującej naukowców z państw członkowskich. Kraje najbardziej otwarte na naukowców z innych krajów i współpraca międzynarodowa mają największy wpływ na naukę. Rzeczywiście, ta otwartość jest ściślej powiązana z wpływem naukowym niż kwota, jaką kraj wydaje na B+R, a naukowcy, którzy są mobilni na arenie międzynarodowej, mają znacznie wyższe wskaźniki cytowań niż naukowcy, którzy nie są. Obecnie międzynarodowe projekty i współpraca stanowią ponad 20% globalnych wydatków na badania naukowe, a w niektórych krajach nawet do 50%. W Stanach Zjednoczonych ponad 60% stażystów pochodzi z zagranicy, podobnie jak ponad jedna trzecia wszystkich amerykańskich laureatów Nagrody Nobla w nauce. Kraje europejskie zajmują wysokie pozycje zarówno pod względem otwartości, jak i wpływu naukowego, a Unia Europejska ustanowiła Europejską Przestrzeń Badawczą w celu ich dalszego wzmacniania; UE jako blok osiąga obecnie dobre wyniki. Kraje, które odwracają się od mobilności naukowej i współpracy międzynarodowej, robią to na własne ryzyko. Współpraca naukowa może nawet stanowić pomost między krajami, które są przeciwnikami. Wczesny przykład, o którym mowa wcześniej była para ekspedycji tranzytowych Wenus z 1761 i 1769, kiedy rządy brytyjski i francuski zapewniły bezpieczne przejście obywatelom ich rywala, ponieważ byli oni "na misji dla całej ludzkości". Nowszy przykład miał miejsce w głębinach zimnej wojny w 1969 roku. Interferometria o bardzo długiej linii bazowej (VLBI), wykorzystująca anteny radiowe na różnych kontynentach do współpracy jako jeden "teleskop", dający niezwykle ostre obrazy, była w powijakach. Naukowcy z USA i Związku Radzieckiego zdecydowali się na współpracę. Ken Kellermann z amerykańskiej Narodowej Organizacji Radioastronomicznej dołączył do swoich sowieckich odpowiedników w obserwatorium radiowym na Półwyspie Krymskim w celu prowadzenia obserwacji we współpracy z obserwatoriami radiowymi w USA. Zegar atomowy, który przywiózł z USA, miał problemy i musiał to zrobić polecieć do Sankt Petersburga, aby zsynchronizować go z innymi w Szwecji. Przyszło mu do głowy, że dla Sowietów podczas lotu wyglądałoby to tak samo, jakby Rosjanin nie mówiący po angielsku leciał lotem krajowym z Chicago do Dallas, z "atomowym" czymś na siedzeniu obok niego. Jeszcze niedawno w Jordanii zbudowano międzynarodowe synchrotronowe źródło światła o nazwie SESAME; współpraca obejmuje Izrael, Iran i Autonomię Palestyńską.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (29)


Wsparcie nauki

Świat wydaje obecnie 1,5 biliona dolarów rocznie na badania i rozwój. To jest 1,7% całkowitego produktu krajowego brutto (PKB) wynoszącego 87 bilionów dolarów. Dane te pochodzą z Raportu naukowego UNESCO: Towards 2030. Część PKB przeznaczana na badania i rozwój znacznie się różni w zależności od kraju. W krajach rozwiniętych zazwyczaj mieści się w przedziale 1,5-3%. W 2013 r. było to 1,6% w Wielkiej Brytanii, 2,2% we Francji, 2,8% w USA, 2,9% w Niemczech i 2,4% w OECD. W niektórych krajach był znacznie wyższy: 3,5% w Japonii i 4,2% w Republice Korei. Na drugim końcu skali znajdują się kraje najsłabiej rozwinięte, ze średnią 0,2%. Dlaczego tylko kilka procent? Dlaczego nie pięć lub dziesięć procent? Na badania i rozwój wydajemy tylko kilka centów z każdego dolara, a na rozrywkę wydajemy dwa razy więcej. W jakiś sposób wydaje się, że większość rozwiniętych krajów na całym świecie właśnie zadowoliła się budżetem badawczo-rozwojowym wynoszącym zaledwie 2-3% ich PKB. A jednak wszyscy zgodziliby się, że badania i rozwój to droga do dobrobytu gospodarczego. W jaki sposób finansowana i wykorzystywana jest ta działalność badawczo-rozwojowa? W Wielkiej Brytanii, Francji, USA i Niemczech około 30% B+R jest finansowane przez rząd (około 20% w Japonii i Republice Korei). Pozostałe 70% stanowią przedsiębiorstwa (około 80% w Japonii i Republice Korei). W USA większość funduszy na badania podstawowe pochodzi od rządu, a większość badań podstawowych przeprowadzają uniwersytety. Oczywiście nie jest to takie proste. W Stanach Zjednoczonych Narodowa Fundacja Nauki (NSF) od ponad pół wieku zapewnia fundusze na podstawowe badania naukowe, a agencje takie jak Narodowa Agencja Aeronautyki i Przestrzeni Kosmicznej (NASA), Narodowe Instytuty Zdrowia (NIH) , Departament Energii, Brookhaven, Fermilab, SLAC, National Radio Astronomy Observatory i wiele innych zapewniają zarówno zaplecze, jak i wsparcie dla badań. W Europie Europejska Rada ds. Badań zapewnia finansowanie badań naukowych i technologicznych prowadzonych w Unii Europejskiej, aw poszczególnych krajach istnieją niezależne agencje i organizacje finansujące. Ponadto istnieją organizacje międzyrządowe, które zapewniają zaplecze i wspierają badania w różnych dziedzinach, takie jak Europejska Organizacja Badań Jądrowych (CERN), Europejska Agencja Kosmiczna (ESA), Europejskie Obserwatorium Południowe (ESO) i Europejskie Laboratorium Biologii Molekularnej ( GODŁO). Pozarządowe instytuty badawcze powstały na przestrzeni lat w kilku krajach, takich jak Carnegie Institution for Science w USA, instytuty Maxa-Plancka w Niemczech, Tata Institute of Fundamental Research w Indiach oraz Perimeter Institute for Theoretical Physics w Kanadzie. Tak więc na całym świecie istnieje wiele dróg do badań naukowych. W słynnym raporcie do prezydenta USA z 1945 roku zatytułowanym Science, The Endless Frontier, Vannevar Bush, ówczesny dyrektor Biura Badań Naukowych i Rozwoju Stanów Zjednoczonych, wyraził pogląd, że badania podstawowe są "stymulatorem postępu technologicznego". Napisał, że "Nowe produkty i nowe procesy nie wydają się w pełni rozwinięte; opierają się na nowych zasadach i nowych koncepcjach, które z kolei są skrupulatnie rozwijane przez badania w najczystszych dziedzinach nauki". Bush był bardzo wpływowy w tworzeniu Narodowej Fundacji Nauki. Ważna jest równowaga między nauką czystą a nauką stosowaną. Zwroty z badań podstawowych mogą być ogromne, ale wspieranie badań ukierunkowanych na ciekawość, które mogą wydawać się niepoważne, wymaga pewnej odwagi, zamiast pewnych zwrotów z nauk stosowanych. Tak więc, w dzisiejszych czasach napiętych budżetów, niektóre kraje rozwinięte mają tendencję do przesuwania swoich zasobów w kierunku badań zorientowanych na cel kosztem czystej nauki. Uważają, że kuszące jest dążenie do tego, co, jak mają nadzieję, będzie szybkim zwrotem technologii i innowacji, a nie długoterminowymi korzyściami płynącymi z czystych badań. Wyobraź sobie skrajny przypadek, w którym rozwinięty kraj całkowicie zaprzestaje prowadzenia czystych badań. Następnie opiera się na innych krajach, aby kontynuować prowadzenie czystych badań, które są otwarcie publikowane i dostępne dla całego świata. Światowa wiedza naukowa stale rośnie, a kraj opt-out po prostu wykorzystuje tę wiedzę, aby zasilać swoją technologię. Ale traci znacznie więcej niż własne czyste badania. Cała jego zdolność do badań podstawowych - podstawa jego technologii - zostaje zniszczona; naukowcy z całą swoją ciekawością, wyobraźnią, kreatywnością i powiązaniami ze światową społecznością naukową odeszli. Kraj zostaje zredukowany do wydrążonego statusu trzeciej kategorii. Kilkadziesiąt lat temu zapytano wybitnego indyjskiego radioastronoma, dlaczego jego kraj powinien wspierać tak pozornie nieistotne badania naukowe, skoro znajduje się w tak poważnych tarapatach ekonomicznych. Odpowiedział, że Indie nie mogą kupować importowanych maszyn w nieskończoność - muszą opracować własną technologię, a to wymaga wszechstronnej podstawy naukowej, w tym m.in. wysoki poziom aktywności w naukach ścisłych oraz doskonałość w nauczaniu przedmiotów ścisłych. Indie są obecnie głównym uczestnikiem wielu najważniejszych dziedzin czystych badań.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (28)


Duża i mała nauka

Nauka odbywa się w całej skali. Istnieje zrozumiałe napięcie między dużą i małą nauką. Ograniczone fundusze dostępne na naukę mogą wspierać dużą liczbę małych projektów i osób, które mogą zapewnić kreatywność i szczęście, które prowadzą do przełomów koncepcyjnych, ale do osiągnięcia postępów w niektórych głównych dziedzinach potrzebne są coraz droższe obiekty i współpraca międzynarodowa. Największe i najdroższe placówki naukowe, jakimi dysponujemy, są wykorzystywane do badania największych i najmniejszych skal w świecie przyrody: wszechświata i cząstek elementarnych. Aby badać wszechświat, najlepiej byłoby, gdyby nasze teleskopy znajdowały się nad ziemską atmosferą, która zniekształca i pochłania większość promieniowania elektromagnetycznego pochodzącego z kosmosu. W rzeczywistości przez atmosferę możemy patrzeć tylko w dwóch oknach: optycznym i radiowym. Aby obserwować resztę widma - podczerwień, ultrafiolet, promieniowanie rentgenowskie i promieniowanie gamma - musimy użyć satelitów i statków kosmicznych. Stało się to możliwe na początku lat 60. i od tego czasu uruchomiliśmy ich bardzo wiele. Wysłaliśmy statek kosmiczny, aby zbadał wszystkie planety w naszym Układzie Słonecznym, a także niektóre asteroidy i komety. Te misje międzyplanetarne zazwyczaj kosztują od 300 do 3 miliardów dolarów. Mamy duże satelity i statki kosmiczne badające wszechświat we wszystkich możliwych zakresach fal. W sumie na przestrzeni lat wystrzelono około 80 teleskopów kosmicznych różnej wielkości. Główne obserwatoria kosmiczne kosztują zazwyczaj 1-2 miliardy dolarów i służą globalnej społeczności użytkowników. Najbardziej znanym jest Teleskop Kosmiczny Hubble′a (HST), wystrzelony w 1990 roku i pracujący w pasmach optycznych i bliskiej podczerwieni; jego skumulowany koszt, obejmujący budowę i dwie dekady eksploatacji, wynosi około 10 miliardów dolarów. Kolejnym ważnym projektem jest Kosmiczny Teleskop Jamesa Webba (JWST), międzynarodowa współpraca o wartości 8,8 miliarda dolarów prowadzona przez NASA, który miał zostać wystrzelony w 2020 roku; skupi się na zakresach ave w podczerwieni i powinien być w stanie wykryć pierwsze gwiazdy i galaktyki we wszechświecie. Z ziemi możemy obserwować wszechświat na falach radiowych i optycznych, a także możemy budować znacznie większe teleskopy. Obecne najnowocześniejsze teleskopy optyczne/bliskiej podczerwieni obejmują Bardzo Duży Teleskop Europejskiego Obserwatorium Południowego (VLT) w Chile, bliźniacze teleskopy Kecka na Mauna Kea na Hawajach oraz bliźniacze teleskopy Gemini na Mauna Kea i w Chile. Mają lustra o średnicy 8-10 mi mogą obsługiwać bardzo duże instrumenty. Typowy koszt kapitału mieścił się w przedziale 300-600 milionów dolarów. Dzięki interferometrii i gwiazdom naprowadzania laserowego te duże teleskopy mogą teraz konkurować z HST w kilku dziedzinach astronomii. Teleskopy nowej generacji to Ekstremalnie Duży Teleskop (ELT) ESO o średnicy 39 m, amerykański Teleskop Trzydziestometrowy (TMT) oraz 25-metrowy Giant Magellan Telescope (GMT). ELT, największy teleskop optyczny/podczerwony na świecie, będzie kosztować 1,2 miliarda dolarów, a koszt operacyjny ma wynieść około 55 milionów dolarów rocznie. W zakresie fal radiowych największymi teleskopami są VLA (Very Large Array) w Nowym Meksyku, który działa głównie na falach centymetrowych, oraz Atacama Large Millimetre/submillimetre Array (ALMA), współpraca 20 krajów pod przewodnictwem Europy, USA i Japonii , z kosztem kapitałowym 1,5 mld USD. Następnym planowanym dużym radioteleskopem jest Square Kilometer Array (SKA), który będzie pracował na falach centymetrowych i metrowych; będzie kosztować około 1-2 miliardów dolarów, a jej dwa komponenty będą zlokalizowane w Australii i Afryce Południowej. Teleskop Czerenkowa (CTA) będzie zupełnie innym rodzajem teleskopu. Pośrednio wykryje promieniowanie elektromagnetyczne o najwyższej energii uderzające w Ziemię: promienie gamma o energiach do 1014 elektronowoltów. Energetyczne promienie gamma inicjują kaskady cząstek atmosferycznych (tzw. pęki powietrzne), które z kolei wytwarzają "światło Czerenkowa", które można wykryć w zakresie ultrafioletowym i optycznym. Korzystając z ogromnej gamy teleskopów, możliwe jest określenie zarówno kierunku, jak i energii nadchodzących promieni gamma. Otwiera to zupełnie nowe okno na wszechświat, z szeroką gamą tematów, w tym ekstremalnymi środowiskami w pobliżu czarnych dziur i innymi egzotycznymi zjawiskami, pochodzeniem promieni kosmicznych i granicami fizyki fundamentalnej, takimi jak poszukiwania ciemnej materii - i zawsze jest możliwość zupełnie nieoczekiwanych odkryć. CTA będzie składać się z 99 teleskopów w Chile (utrzymywanych przez ESO) i 19 teleskopów w La Palma w Hiszpanii. Jest to międzynarodowa współpraca ponad 1300 naukowców i inżynierów z ponad 200 instytutów w 32 krajach; szacowany koszt to 480 milionów dolarów, a "pierwsze światło" zaplanowano na 2021 rok. (pod ziemią, pod lodem lub pod wodą) i patrząc raczej w dół niż w górę: teleskopy neutrinowe. Neutrina mogą przechodzić przez całą Ziemię niemal bez przeszkód, więc są bardzo trudne do wykrycia. Ich sygnatury mogą być łatwo zatopione przez promienie kosmiczne wpadające do atmosfery, więc najlepiej jest zagłębić się jak najgłębiej i spojrzeć w dół na neutrina przechodzące przez drugą stronę Ziemi. Olbrzymie Obserwatorium IceCube Neutrino na Biegunie Południowym to siatka detektorów osadzonych w lodzie 1500-2500 m pod powierzchnią w kilometrach sześciennych. Został ukończony w 2010 roku kosztem 280 milionów dolarów. Ponieważ IceCube, będąc na Antarktydzie, obserwuje półkulę północną, kolejne obserwatorium neutrin (KM3NeT, zajmujące 5-6 km3 Morza Śródziemnego) jest w trakcie obserwacji półkuli południowej. Obydwa zapewnią pełne pokrycie nieba - globalne obserwatorium neutrin. Teleskopy fal grawitacyjnych otworzyły ostatnio kolejne nowe okno na niebie. Obserwatorium fal grawitacyjnych laserowego interferometru (LIGO), składające się z dwóch dużych interferometrów po przeciwnych stronach Stanów Zjednoczonych, jest największym projektem, jaki kiedykolwiek został sfinansowany przez amerykańską Narodową Fundację Nauki, o łącznych kosztach przekraczających 1 miliard dolarów. Obejmuje ona ponad tysiąc naukowców na całym świecie (sam wstępny dokument dotyczący wykrywania miał ponad 1500 współautorów). Panna jest podobna, obserwatorium fal grawitacyjnych we Włoszech; obejmuje 19 laboratoriów w sześciu krajach członkowskich i kilkuset naukowców. NASA i Europejska Agencja Kosmiczna (ESA) rozważają taki interferometr w kosmosie o nazwie LISA. Astronomia rozwija się na wielu frontach, a wiele z nich obejmuje znacznie mniejsze obiekty niż te wymienione powyżej. Kilka starszych obserwatoriów o ugruntowanej pozycji nadal korzysta z teleskopów o średnicy 1-5 metrów jeszcze mniejszych i często goszczą w nich nowe i innowacyjne małe projekty, zwłaszcza jeśli są wyposażone w zaawansowaną technologię. Teleskopy niewielkich rozmiarów, wyposażone w najnowocześniejsze instrumenty, służą do przeglądów dużych obszarów nieba. Szerokokątne małe teleskopy mogą wskazywać pozycje rozbłysków światła związanych z egzotycznymi zdarzeniami, takimi jak łączenie fal grawitacyjnych w głównych obserwatoriach naziemnych. Teleskopy optyczne i radiowe niewielkich rozmiarów przeznaczone do konkretnych projektów istnieją w miejscach najlepiej dostosowanych do ich przeznaczenia, takich jak wysoki płaskowyż Atacama, na którym znajduje się ALMA, czy Biegun Południowy. Eksperymenty z balonami są często wykorzystywane, ponieważ mogą osiągać duże wysokości i przebywać tam tygodniami za skromną cenę. Czasami ważnych odkryć dokonuje się przy pomocy bardzo małych obiektów, nawet gołym okiem. W nocy 23 lutego 1987 roku kanadyjski astronom Ian Shelton obserwował Wielki Obłok Magellana (LMC, pobliską galaktykę) przez teleskop w Obserwatorium Las Campanas w Chile i ze zdziwieniem zobaczył niespodziewaną jasną gwiazdę nałożoną na wizerunek PKM. Wyszedł na zewnątrz i zobaczył to na własne oczy. Mniej więcej w tym samym czasie zobaczył go inny astronom z Las Campanas, podobnie jak astronom amator z Nowej Zelandii. Szybko rozeszła się wieść, że w LMC pojawiła się supernowa. Była to najbliższa supernowa od ponad 380 lat, wystarczająco jasna do szczegółowych badań. W ciągu kilku godzin najpotężniejsze teleskopy na półkuli południowej zostały przeszkolone na tym obiekcie, co dostarczyło wielu informacji o supernowych, w tym o pierwszym wykryciu neutrin z supernowej. Pierwsza pozasłoneczna planeta krążąca wokół normalnej gwiazdy została odkryta w 1995 roku przez Michela Mayora i Didiera Queloza przy użyciu skromnego teleskopu o długości 1,9 m w Observatoire de Haute-Provence we Francji. Wykorzystali nowatorską metodę, w której wykryto ruch tam i z powrotem samej gwiazdy wywołany przyciąganiem grawitacyjnym orbitującej planety. Było to jedno z najważniejszych odkryć astronomicznych minionego stulecia. Od tego czasu odkryto ponad 3700 planet pozasłonecznych. Jeszcze mniejszy obiekt wykorzystano do odkrycia pierwszego przypadku planety pozasłonecznej przechodzącej przed swoją gwiazdą macierzystą. David Charbonneau i współpracownicy dokonali tej obserwacji w 1999 roku za pomocą 10-centymetrowego teleskopu na parkingu w Boulder Colorado. Obecnie astronomowie amatorzy biorą udział w pracach nad planetami pozasłonecznymi, obserwując tranzyty za pomocą małych teleskopów na swoich podwórkach. Amatorzy odkryli również wiele supernowych. Najbardziej płodną osobą od lat był wielebny Robert Evans z Australii, który był w stanie przyjrzeć się 50-100 galaktykom na godzinę, wykorzystując swoją niesamowitą pamięć morfologii około 1500 galaktyk, aby odkryć jakiekolwiek zmiany. Dzięki Internetowi i nowoczesnej technologii cyfrowej "naukowcy obywatelscy" odgrywają coraz większą rolę w astronomii, na przykład badając ogromne bazy danych i obrazy pod kątem zjawisk inaczej pomijanych oraz udostępniając cyfrowo 100-letnie artykuły i obrazy współczesnym badaczom w dziedzinie astronomii. projekt o nazwie "Astronomy Rewind". Mała nauka może płacić duże dywidendy! Granica fizyki fundamentalnej leży przy najwyższych energiach, a to wymaga bardzo dużych akceleratorów cząstek. Największym jest gigant: Wielki Zderzacz Hadronów (LHC) w CERN, 21-osobowej Europejskiej Organizacji Badań Jądrowych, zatrudniający 2300 pracowników. Można to opisać tylko w samych superlatywach: "największy, najbardziej złożony obiekt eksperymentalny, jaki kiedykolwiek zbudowano i największa pojedyncza maszyna na świecie". Przyspiesza cząstki do bardzo wysokich energii w tunelu o obwodzie 27 km poniżej granicy francusko-szwajcarskiej niedaleko Genewy. Jest to współpraca z ponad 10 000 naukowców i inżynierów z ponad 100 krajów, obejmująca setki uniwersytetów i laboratoriów. Może wytwarzać 600 milionów zderzeń protonów na sekundę. Ogromny strumień danych jest dystrybuowany za pośrednictwem Worldwide LHC Computing Grid - największej na świecie rozproszonej sieci obliczeniowej - do 170 centrów obliczeniowych w 35 krajach. Podczas gdy zderzenia LHC mogą wytworzyć najwyższe temperatury wywołane przez człowieka (ponad bilion stopni Celsjusza), jego elektromagnesy są zimniejsze niż przestrzeń kosmiczna. W 2012 roku osiągnął swój pierwszy główny cel, wykrycie bozonu Higgsa, a wraz z dalszym wzrostem jego energii trwają poszukiwania nowej fizyki poza Modelem Standardowym. Koszt LHC wyniósł około 5 miliardów dolarów, a budżet operacyjny około 1 miliarda dolarów rocznie. Zapewni naukę na najwyższym poziomie przez wiele lat. Rozważa się już jego następców w dłuższej perspektywie - być może jeszcze większą wersję LHC lub liniowy zderzacz elektronów. Na świecie istnieją oczywiście inne placówki z własnymi głównymi programami badawczymi w zakresie fizyki fundamentalnej. W Stanach Zjednoczonych wyróżnia się Brookhaven National Laboratory na Long Island w stanie Nowy Jork, zatrudniające około 3000 pracowników i roczny budżet przekraczający 700 milionów dolarów, a także National Accelerator Laboratory SLAC w pobliżu Uniwersytetu Stanforda zatrudniające 1700 pracowników i roczny budżet około 350 milionów dolarów. oraz Fermi National Accelerator Laboratory (Fermilab) w pobliżu Chicago z 1800 personelem i rocznym budżetem około 350 milionów dolarów. Każdy z nich ma różne akceleratory i eksperymenty. Fizyka podstawowa na poziomie uniwersyteckim i instytutowym jest zwykle podzielona na eksperymentalną i teoretyczną. Wielu eksperymentatorów jest zaangażowanych w zespoły LHC lub laboratoria średniego szczebla, takie jak te wymienione powyżej. Prowadzone są różnorodne badania, takie jak poszukiwania ciemnej materii, precyzyjne pomiary parametrów podstawowych, testy precyzji Modelu Standardowego, oscylacje neutrin, asymetria materia-antymateria, rozpad nukleonu i inne rzadkie procesy, precyzyjne pomiary rozpadu beta, poszukiwania dla nieskończenie małych anizotropii w rozkładzie ładunku elektronu, badania anihilacji elektron-pozyton, poszukiwania naruszenia parzystości ładunku w sektorze neutrin, badania rzadkich rozpadów mezonów i ogólnie poszukiwanie nowych zjawisk fizycznych. Fakt, że (poza bozonem Higgsa) LHC jak dotąd nie znalazł żadnych nowych cząstek ani innych nieoczekiwanych wyników, stanowi nowy bodziec do eksperymentów laboratoryjnych. Być może wielki przełom w "nowej fizyce" poza Modelem Standardowym nadejdzie raczej z małego laboratorium niż z gigantycznego LHC. W naukach przyrodniczych największym dotychczas projektem był Human Genome Project (HGP). Jego celem było określenie sekwencji wszystkich par zasad w ludzkim DNA i mapowanie wszystkich genów w genomie zarówno fizycznie, jak i funkcjonalnie. Rozpoczęto go w 1990 r., a ukończono w 2003 r., kosztem 3 miliardów dolarów. Sekwencjonowanie przeprowadzono w 20 instytutach w sześciu krajach. Ukończenie HGP było monumentalnym osiągnięciem. Był to jednak tylko jeden (gigantyczny) krok w kierunku zrozumienia biologii komórki, która jest niezwykle złożona. Ekspresja genomu jest silnie regulowana przez czynniki "epigenetyczne", a ostatecznym celem jest zrozumienie całego "epigenotypu" - wszystkich cząsteczek i interakcji, od genomu po fenotyp. Trwają lub są planowane różne nowe badania. Roadmap Epigenomics Project to inicjatywa US National Institutes of Health o wartości 200 milionów dolarów rozpoczęta w 2008 roku w celu zbadania regulacji aktywności i ekspresji genów, która nie jest zależna od sekwencji genu (epigenomika odnosi się do zmian epigenetycznych w całym genomie). Międzynarodowe Konsorcjum Epigenomu Człowieka (IHEC), z udziałem siedmiu krajów członkowskich, został oficjalnie uruchomiony w 2010 roku i ma na celu stworzenie tysiąca referencyjnych epigenomów dla międzynarodowej społeczności naukowej do 2020 roku. zbadać różnice między identycznymi bliźniakami ze względu na czynniki epigenetyczne. Ogromną wartość będzie miał nowy katalog białek wskazujący, które białka działają w różnych typach tkanek organizmu. W 2013 r. zainicjowano ogromny międzynarodowy projekt o nazwie ENCODE (Encyklopedia elementów DNA), którego celem jest zidentyfikowanie każdego funkcjonalnego elementu ludzkiego genomu. Projekt Human Cell Atlas, rozpoczęty w 2016 roku, ma ambitny cel stworzenia katalogu referencyjnego wszystkich ludzkich komórek, wraz z ich właściwościami i interakcjami. A 100 milionów dolarów Inicjatywa BRAIN (Brain Research through Advancing Innovative Neurotechnologies) została rozpoczęta w Stanach Zjednoczonych, również w 2013 roku, w celu zapewnienia dynamicznego zrozumienia funkcji mózgu. Wszystkie te duże projekty wzbogacą naszą wiedzę na temat systemów genetycznych i biologicznych, wspierając szeroką gamę indywidualnych badań. Tymczasem, na końcu skali małej nauki, duża liczba projektów pojedynczych laboratoriów czyni postępy na wielu frontach w biologii, od bakterii po złożoność ludzi. Mówi się, że kreatywne nauki działają "oddolnie", a nie "odgórnie". Duża liczba niezależnych projektów w małej nauce umożliwia kreatywność, zbieg okoliczności i przełomy koncepcyjne, które mogą prowadzić do poważnych postępów; wielu laureatów Nagrody Nobla w tych dziedzinach pracowało w małych laboratoriach. Ile dzisiejszych projektów na małą skalę zrewolucjonizuje nasze rozumienie biologii i nas samych? Opisany powyżej rozwój CRISPR pięknie pokazuje, jak wiele małych niezależnych laboratoriów na całym świecie pracujących równolegle i komunikujących się ze sobą może stworzyć rewolucyjną naukę i technologię. Jak wspomniano w ostatniej części, duży instytut o szerokich celach, zawierający "ekosystem" mniejszych grup i jednostek, może czasami łączyć zalety zarówno dużej, jak i małej nauki. W tym przeglądzie obiektów i eksperymentów nie uwzględniono teorii. Teorie mają ogromne znaczenie w wyjaśnianiu i nadawaniu sensu naszym eksperymentom i obserwacjom oraz w przewidywaniu. Są częścią "małej" nauki, ale tylko dlatego, że potrzebują tylko ołówka, mózgu i (czasami) komputera. Są podstawową częścią nauki. Za każdym ważnym faktem kryje się ważna teoria


Rozwój nauki


Od prehistorii do dalekiej przyszłości (27)


Badania zorientowane na ciekawość a badania zorientowane na cel

Kierowana ciekawością brzmi niepoważnie, a zorientowanie na cel brzmi poważnie. Ale w rzeczywistości to badania napędzane ciekawością (znane również jako czyste badania, badania podstawowe lub "badania błękitnego nieba") dały nam najbardziej i najbardziej fundamentalną - wiedzę naukową. Dzieje się tak, ponieważ eksploruje cały świat przyrody, podczas gdy badania ukierunkowane na cel koncentrują się na konkretnych problemach technicznych. Badania napędzane ciekawością doprowadziły do powstania praw Newtona, elektromagnetyzmu, teorii względności Einsteina, mechaniki kwantowej i naszej wiedzy o ewolucji i podstawy życia, wszystko to stanowi podstawę naszego współczesnego świata. Natomiast badania zorientowane na cel mają charakter pochodny i skoncentrowany, podążają z góry ustalonymi ścieżkami badawczymi; wykorzystuje podstawy uzyskane z czystej nauki do tworzenia cudów technicznych, takich jak telefon, radio, telewizja, Internet, smartfon, samolot, energia jądrowa i podróże kosmiczne. Zrozumiałe jest zatem, że krótkoterminowe badania zorientowane na cel są wykonywane głównie przez duże korporacje poszukujące zysków finansowych, podczas gdy długoterminowe badania motywowane ciekawością pozostawia się do finansowania rządom, często za pośrednictwem uniwersytetów. Ponieważ nie ma gwarantowanego zwrotu ekonomicznego z badań inspirowanych ciekawością, zawsze istnieje walka o uzyskanie odpowiedniego wsparcia - nawet jeśli ostatecznie to czysta nauka stanowi podstawę naszego współczesnego świata. Energia elektryczna jest bez wątpienia najdoskonalszym przykładem badań napędzanych ciekawością, prowadzących do technologii zmieniającej świat. Na początku dziewiętnastego wieku Michael Faraday stał się sławą dzięki swoim eksperymentom z elektrycznością i magnetyzmem. Z perspektywy czasu bardzo zabawne jest myślenie, że każdy mógł zakwestionować wartość jego badań, ale tak się stało. Zapytany o jego zastosowanie zażartował "a jaki jest pożytek z niemowlęcia?" A kiedy ówczesny premier zadał to samo pytanie, Faraday odpowiedział: "Dlaczego panie, istnieje duże prawdopodobieństwo, że wkrótce będzie pan mógł go opodatkować!" Praca Faradaya miała monumentalny wpływ na światowy postęp i zmieniła sposób, w jaki żyjemy. Przekształcił miasta. Elektryczna pralko-suszarka do ubrań pomogła w emancypacji kobiet. Energia elektryczna stała się wszechobecna w domach, biurach i przemyśle. Dała nam radio, telewizję i Internet. Faraday stałby się bardzo bogaty, gdyby był w stanie opatentować elektryczność. Ta historia o naukowcach rewolucjonizujących społeczeństwo bez zysku finansowego powtarza się raz po raz. Co zaskakujące, rozwój Wi-Fi powstał w oparciu o ciekawość poszukiwań eksplodujących czarnych dziur we wszechświecie. W 1974 roku Stephen Hawking wykazał, że hipotetyczne pierwotne czarne dziury powstałe we wczesnym wszechświecie mogą eksplodować dzisiaj wszędzie wokół nas we wszechświecie, a Martin Rees wykazał, że najlepiej te eksplozje można wykryć na falach radiowych. Australijski radioastronom John O′Sullivan i dwaj koledzy pracujący wówczas w Holandii postanowili przeprowadzić poszukiwania. Jednym z problemów, z jakimi się zmierzyli, był fakt, że te bardzo krótkie rozbłyski byłyby rozmywane pod względem częstotliwości przez ośrodek międzygwiazdowy. O′Sullivan zaprojektował system do radzenia sobie z tym problemem, a obserwacje prowadzono w wielu kierunkach i na wielu najbardziej obiecujących celach. Nie znaleziono wybuchających czarnych dziur; artykuł został należycie opublikowany w Nature w 1978 r., podając zerowy wynik, a astronomowie przeszli do innych projektów. O′Sullivan był jednak zaintrygowany problemem technicznym, nad którym pracował. Wiele lat później, kiedy wrócił do Australii, zastanawiał się, czy coś podobnego można wykorzystać do rozwiązania problemu wielościeżkowej propagacji w bezprzewodowych sieciach komputerowych (wiele przeszkód w typowym biurze - kable, szafki na akta, ściany i meble - opóźnia i rozmywa sygnał radiowy w taki sam sposób, jak ma to miejsce w ośrodku międzygwiazdowym). Opracował chip komputerowy, który potrafił wykonywać bardzo szybkie transformaty Fouriera w celu oczyszczenia sygnału. To był początek rewolucji Wi-Fi. Organizacja, dla której pracował (Australia′s Commonwealth Scientific and Industrial Research Organisation, CSIRO) opatentowała wynalazek O′Sullivana, który okazał się dla nich niezwykle opłacalny, a także wielka rewolucja dla całego świata: jest teraz wiele miliardów Urządzenia Wi-Fi na świecie.

Od eksplodujących czarnych dziur po Wi-Fi: niezwykła historia czystej nauki wnoszącej ogromny wkład w społeczeństwo. Laser to kolejny doskonały przykład czystej nauki dającej początek całej branży. W 1916 Albert Einstein przewidział, że promieniowanie elektromagnetyczne o odpowiedniej długości fali może "stymulować" wzbudzony atom lub cząsteczkę do obniżenia się do stanu o niższej energii i emitowania większej ilości promieniowania o tej samej długości fali. Proces ten nazywa się "emisją stymulowaną". Jeśli w grę wchodzi kilka atomów lub cząsteczek tego samego typu i następuje "odwrócenie populacji" stanów energetycznych, może dojść do kaskady emisji - wzmocnienia oryginalnego sygnału. W 1947 roku Willis Lamb i Robert Retherford osiągnęli stymulowaną emisję za pomocą cząsteczek wodoru na Uniwersytecie Columbia. Charles Townes, również na Columbii, uważał, że znacznie silniejsze wzmocnienie mogłoby skutkować, gdyby użył populacji wzbudzonych cząsteczek we wnęce rezonansowej o odpowiednich wymiarach, co mogłoby wytworzyć pętlę sprzężenia zwrotnego. On i jego koledzy odnieśli sukces w 1954 roku, wykorzystując cząsteczki amoniaku -zbudowali pierwszy "maser" (wzmocnienie mikrofalowe poprzez wymuszoną emisję promieniowania). Ogromnie wzmocniona energia została skoncentrowana w niezwykle ostrej linii widmowej. W 1958 Townes i Arthur Schawlow zaproponowali system dla długości fal optycznych i podczerwonych - maser emitujący światło, który szybko nazwano "laserem" - a Townes otrzymał w 1964 roku Nagrodę Nobla w dziedzinie fizyki za pracę nad maserami i laserami. Lasery są teraz wszędzie, ale Townes, naukowiec do końca, przeniósł się na nowe dziedziny, ostatecznie zostając profesorem w Berkeley do końca życia i wykonując pionierską pracę w kilku pogranicznych obszarach astronomii. Inną rewolucyjną technologią, która zrodziła się z czystej ciekawości, jest edycja genomu CRISPR, która umożliwia dokładne, szybkie i łatwe wstawianie, usuwanie lub edytowanie określonych genów lub sekwencji genów w dowolnym genomie. To był monumentalny krok - umożliwia nam przepisanie samego kodu życia, potencjalnie dając nam kontrolę nad naszym własnym genetycznym przeznaczeniem. Istnieje wiele mniej kontrowersyjnych zastosowań, od leczenia chorób genetycznych po ulepszone uprawy. Amerykańskie Stowarzyszenie Postępu Naukowego nazwało go przełomem roku 2015. Wszystko zaczęło się od fundamentalnego pytania, jak bakterie zwalczają infekcje wirusowe. Stwierdzono, że mechanizm ten obejmował regiony bakteryjnego DNA zwane "CRISPR" (zgrupowane regularnie rozmieszczone krótkie powtórzenia palindromiczne). Stwierdzono, że regiony DNA umieszczone pomiędzy tymi powtarzającymi się sekwencjami ("geny powiązane z CRISPR" lub po prostu "geny cas") idealnie pasują do DNA znanych wirusów bakteryjnych, a związane z nimi cząsteczki RNA CRISPR precyzyjnie kierują białkami Cas w celu zidentyfikowania, pocięcia i zniszczyć wirusowe DNA. To w zasadzie rozwiązało podstawowy problem działania odporności adaptacyjnej bakterii. Ale wywołało to również prowokacyjne pytanie, czy można stworzyć taki system, który może celować i ciąć dowolną pasującą sekwencję DNA (nie tylko wirusowy DNA). Mając to na uwadze, znany obecnie system został zmodyfikowany, uproszczony i rygorystycznie przetestowany. Zadziałało! Opracowano nową i niezwykle potężną technologię precyzyjnej modyfikacji dowolnej sekwencji DNA. To był rewolucyjny rozwój. Wiodącymi naukowcami w tej pracy byli Jennifer Doudna i jej zespół z Uniwersytetu Kalifornijskiego w Berkeley. Ale wiele kluczowych kroków na tej drodze zostało wykonanych przez kilku innych naukowców pracujących w różnych laboratoriach na całym świecie - był to niezwykły przykład międzynarodowej współpracy naukowej w najlepszym wydaniu. Ludzie od dawna zastanawiali się, jak gekony mogą tak łatwo wspinać się po pionowych i zwisających powierzchniach. Mogą mocno trzymać, a następnie zwolnić, bez śladu. Sam Arystoteles zapisał obserwacje tego zjawiska. Okazuje się, że opiera się na niezwykłym systemie. Gekony mają miliony maleńkich, suchych, przylepnych włosków zwanych szczecinami na noskach, które mogą zapewnić bliski kontakt zarówno z szorstkimi, jak i gładkimi powierzchniami. Czasowo wiążą się z powierzchniami na poziomie molekularnym. Ponadto mają sztywne ścięgna przymocowane do poduszek, które zapewniają wysoką, elastyczną sztywność w kierunkach przyłożenia sił. Rezultatem jest mocny klej, który można łatwo usunąć i nie pozostawia śladów. Tajemnica stóp gekona była oczywistym celem dla ciekawskich badaczy, a teraz, gdy jest zrozumiała, że została skopiowana za pomocą nanotechnologii i zastosowana do klejów i urządzeń do przenoszenia na skalę przemysłową - na przykład bandaże szpitalne, które można usunąć bez bólu lub uszkodzenia oraz urządzenia do mocowania i przenoszenia dużych płyt szklanych. Ta nowa technologia została uznana za jedną z pięciu najważniejszych przełomowych odkryć naukowych 2012 roku. Czasami może się zdarzyć coś odwrotnego. Czasami badania zorientowane na cel nieumyślnie wytwarzają wiedzę o wielkim znaczeniu dla czystej nauki. Dwa znane przykłady, opisane powyżej, pochodzą z Bell Labs - odkrycie emisji radiowej z Drogi Mlecznej, zapoczątkowujące początek radioastronomii w 1933 r., oraz odkrycie niezwykle ważnego kosmicznego tła mikrofalowego w 1964 r.; więcej takich przykładów podano poniżej. Z pewnością wiele obszarów badań zorientowanych na cel pokrywa się z badaniami czystymi, a w procesie pracy nad praktycznymi problemami inżynierowie i naukowcy wzbogacają światową wiedzę naukową. Na przykład techniczne wyzwania związane z obliczeniami kwantowymi są na pograniczu fizyki kwantowej, a opracowując rozwiązania swoich problemów, informatycy poszerzają światową wiedzę na temat zachowania systemów kwantowych. Można mieć to, co najlepsze z obu światów, nawet w jednym instytucie. Wyznaczony jest szeroki cel, a poszczególni naukowcy lub grupy naukowców mogą swobodnie prowadzić własne badania oparte na ciekawości, podążając własnymi ścieżkami i jakimikolwiek przypadkowymi odkryciami, jakie mogą napotkać, w kontekście ogólnego celu. Nigdy nie wiadomo, dokąd nadejdzie kolejne wielkie odkrycie . A szczęśliwy traf może wynikać zarówno z nauki czystej, jak i stosowanej. Posiadanie naukowców z różnych dziedzin wiedzy pracujących w tym samym instytucie może zwiększyć prawdopodobieństwo korzystnego zapylenia krzyżowego. "Ekosystemy" obejmujące badania w dziedzinie czystej nauki, nauk stosowanych i technologii mogą być niezwykle korzystne dla wszystkich. Oczywiście na świecie istnieje wiele różnych sposobów organizowania nauki. Ale ogólnie można powiedzieć, że zgromadzona wiedza naukowa wynikająca z czystej nauki zasila technologię poprzez nauki stosowane. Nawet prezydent USA Ronald Reagan powiedział kiedyś, że "chociaż badania podstawowe nie zaczynają się od konkretnego praktycznego celu", to jest to "jedna z najbardziej praktycznych rzeczy, jakie robi rząd". Podstawy, na których opiera się nasze rozumienie świata, pochodzą z badań opartych na ciekawości.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (26)


Nauka dzisiaj

Wzrost wykładniczy


90% wszystkich naukowców, którzy kiedykolwiek żyli, żyje dzisiaj. W przeciwieństwie do tego mniej niż 7% wszystkich ludzi, którzy kiedykolwiek żyli, żyje dzisiaj. Szacuje się, że w połowie XVIII wieku było kilkuset naukowców. Gdyby liczba naukowców rosła w tym samym tempie, co ogólna populacja, liczba naukowców wynosiłaby dziś kilka tysięcy. Zamiast tego, według UNESCO, na świecie jest obecnie około ośmiu milionów naukowców. Wzrost liczby naukowców w ciągu ostatnich kilkuset lat jest tysiące razy większy niż w całej populacji. Tempo wzrostu liczby naukowców od połowy XVIII wieku wynosi około 4% rocznie, co odpowiada czasowi podwojenia około 18 lat i znacznie szybszemu niż około 0,8% rocznie. tempo wzrostu całej populacji w tym okresie. Obecnie w Chinach liczba naukowców rośnie w szaleńczym tempie 6,6% rocznie, podczas gdy ogólna populacja rośnie zaledwie o 0,6% rocznie. Nie ma wątpliwości, że liczba naukowców dramatycznie wzrosła w ciągu ostatnich kilkuset lat. Liczba naukowców to tylko jeden ze sposobów monitorowania rozwoju nauki. Ich efektywny dorobek pojawia się w publikacjach, a zarówno liczba czasopism i liczbę opublikowanych artykułów naukowych. Derek de Solla Price zapoczątkował badania tego typu na początku lat sześćdziesiątych. Początkowo korzystał z liczby czasopism naukowych i stwierdził, że ich tempo wzrostu wynosi około 5,6% rocznie. - okres podwojenia wynoszący 13 lat. Następnie przerzucił się na korzystanie z liczby streszczeń artykułów opublikowanych w różnych dziedzinach i stwierdził, że ogólna stopa wzrostu wyniosła 4,7% rocznie, co daje podwojenie czasu 15 lat. Zastanawiał się, kiedy ten szybki wzrost może osiągnąć nasycenie i ustabilizować się, i zasugerował, że mogło się to już zacząć. Teraz, ponad 60 lat później, możemy z całą pewnością stwierdzić, że tempo wzrostu mierzone ceną nie spłaszczyło się ani nie spadło - utrzymuje się do chwili obecnej niesłabnące. Kilka organizacji krajowych i międzynarodowych regularnie monitoruje rozwój nauki. Niedawny artykuł zbadał tempo wzrostu w kilku dyscyplinach naukowych w latach 1907-2007 i stwierdził, że ogólnie obecny wskaźnik nadal wynosi około 4,7% rocznie, chociaż istnieją znaczne różnice między dziedzinami. Zrozumiałe jest, że młode dyscypliny mają zwykle wysokie tempo wzrostu, a bardziej dojrzałe dyscypliny mają tendencję do wolniejszego tempa wzrostu. Coraz większy udział niektórych krajów rozwijających się ma z pewnością wpływ. W sumie co roku publikuje się ponad 1,5 miliona recenzowanych artykułów. Oprócz liczby czasopism i artykułów do określenia tempa wzrostu można wykorzystać również liczbę cytowań publikacji. W niedawnym badaniu obejmującym okres 1650-2012 oszacowano, że tempo wzrostu wynosiło mniej niż 1% rocznie. od połowy XVI do połowy XVIII wieku, a następnie 2-3% rocznie. do okresu międzywojennego, a następnie 8-9% rocznie. do 2012 r. Przy 8-9% rocznie światowy dorobek naukowy podwaja się w ciągu mniej niż dekady! Szacunki te komplikują różne czynniki - bardzo stare prace są rzadziej cytowane, niektóre prace mogą być liczone więcej niż raz, a niektórzy naukowcy publikują dziś więcej niż jedną pracę na temat tego samego wyniku - ale przynajmniej zgadzają się z innymi badaniami pokazując, że dzisiejsza nauka rozwija się wykładniczo. Oczywiście tempo wzrostu musi w końcu się wyrównać, zanim wszyscy na świecie zostaną naukowcami, ale w tej chwili nie widać końca. Ponieważ osiem milionów naukowców na świecie stanowi zaledwie 0,1% całej populacji, jest miejsce na większy wzrost. Jeszcze bardziej spektakularny wzrost wykładniczy jest widoczny w wielu technologiach, które napędzają czołowe badania naukowe. W 1965 Gordon Moore, współzałożyciel Intela, napisał artykuł, w którym zauważył, że liczba tranzystorów w układzie scalonym podwaja się co 2 lata i przewidział, że trend ten utrzyma się przez następną dekadę. Stało się to znane jako "prawo Moore′a". W rzeczywistości trwa do chwili obecnej. Wzrost od 1965 r. wynosi sto milionów razy, co wyjaśnia, dlaczego nasze nowoczesne komputery są tak potężne, a mimo to tak małe. Możliwość upakowania coraz większej liczby tranzystorów do układu scalonego wkrótce zacznie się jednak nasycać, ponieważ zbliżają się one do rozmiarów pojedynczych atomów. Ale prawo Moore′a, jeśli jest postrzegane jako miara mocy komputerów, może nadal obowiązywać przez jakiś czas w przyszłości dzięki lepszemu projektowi i bardziej wydajnym algorytmom. A potem pojawia się perspektywa zupełnie nowej technologii - obliczeń kwantowych, która obiecuje znacznie większą moc w niektórych zastosowaniach, jak opisano poniżej. Czymś innym, co podwaja się co 2 lata od ponad pół wieku, jest energia wiązki w akceleratorach cząstek. M. Stanley Livingston, współtwórca cyklotronu na początku lat 30. XX wieku, zauważył ten spektakularny trend w 1962 roku i od tego czasu znany jest jako "krzywa Livingstona". Czułość radioteleskopów wzrosła od 1960 roku z czasem podwojenia wynoszącym około 3,5 roku. Teleskopy optyczne również zyskały znacznie większą czułość, dzięki zwiększonym rozmiarom i bardzo potężnym detektorom cyfrowym, które stały się dostępne pod koniec lat 70., zapewniając prawie 100% sprawność w porównaniu z 1% sprawnością klisz fotograficznych. Koszt sekwencjonowania ludzkiego genomu gwałtownie spadł z 10 milionów dolarów 10 lat temu do około 1000 dolarów obecnie. A całkowita dostępna dla nas pojemność przechowywania informacji, głównie w postaci cyfrowej, podwaja się co 2 lata i jest mierzona w zettabajtach. Tak więc liczba naukowców rosła coraz szybciej, a wydajność ich narzędzi również wzrosła bardzo szybko - razem dostarczyły one znacznie więcej nauki niż kiedykolwiek wcześniej. Dramatyczną ewolucję naszych horyzontów naukowych podkreśla fakt, że nieco ponad sto lat temu nie wiedzieliśmy o mechanice kwantowej, wszechświecie i genetycznych podstawach życia.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (25)


Esencja wszystkiego

Przedstawiona powyżej złożoność daje wyobrażenie o tym, jak nauka naprawdę "dzieje się". W grę mogą wchodzić osobowości, interakcje społeczne, strategie, technologia, zbiegi okoliczności, nieporozumienia i błędy. Istnieje skomplikowana, wielowymiarowa sieć przeplatających się wyników obserwacyjnych i eksperymentalnych oraz powiązanych ze sobą hipotez i teorii, a zmiana jednej z nich może wpłynąć na pozostałe. Oczywiście wiele przykładów podanych powyżej to przypadki niezwykłe, a większość codziennej nauki nie odbiega zbytnio od standardowej podręcznikowej metody naukowej. Ale jasne jest, że niemożliwe byłoby objęcie całej tej różnorodności prostym algorytmem lub modelem. Nauka jest działalnością człowieka, dlatego jest nieskończenie ciekawa i zróżnicowana. Znaczna część złożoności wiąże się z ustanowieniem eksperymentalnych lub obserwacyjne "fakty" oraz proponowanie nowych hipotez i teorii. Nikt nie zaprzeczy, że ten etap procesu naukowego może być bardzo nieuporządkowany (a przez to bardzo interesujący). Ale także testowanie hipotez i teorii nie zawsze jest tak proste, jak sugerowałby standardowy podręcznikowy model; w niektórych przypadkach natychmiastowa, przytłaczająca obserwacja lub eksperyment jest traktowana jako rozstrzygający dowód, aw innych przypadkach hipotezy mogą trwać przez dziesięciolecia lub nawet stulecia, zanim przekonujące dowody staną się dostępne. Aha! momenty (inaczej znane jako momenty eureka! lub epifanie) zdarzały się często w historii nauki. Coś nagle staje się jasne i oczywiste. Odkrycie księżyców Jowisza i faz Wenus natychmiast przekonało Galileusza o słuszności heliocentrycznego obrazu kosmosu. Odkrycie zmian pozycji niektórych gwiazd w stosunku do innych pokazały Halleyowi, że nie są przymocowane do sfery niebieskiej. Odkrycie Maxwella, że fale elektromagnetyczne przemieszczają się z prędkością światła, natychmiast pokazało, że światło jest zjawiskiem elektromagnetycznym. "Odkrycie" układu okresowego pierwiastków dało jasność chemii. Odkrycie linii widmowych na Słońcu i innych ciałach niebieskich nagle wyjaśniło, że są one wykonane z tego samego materiału co my. Wykres H-R ujawnił ewolucję gwiazd. "Odkrycie" relacji prędkość-odległość przekonało Lemai?tre'a i Hubble'a, że wszechświat się rozszerza. Odkrycie struktury DNA natychmiast implikowało jego funkcje - aha! chwila dla biologów. Głębokie Pole Hubble'a nagle i oszałamiająco ujawniło po raz pierwszy wczesny wszechświat. A odkrycie ciemnej energii, w wyniku której powstał płaski wszechświat, było z pewnością aha! chwila dla kosmologów. Można próbować wcisnąć każdy z nich w prosty model testu hipotez, ale nie zawsze tak "dzieje się" nauka. Następuje nagła realizacja. Istnieje natychmiastowa implikacja. Cały scenariusz staje się jasny. A wydarzenia takie jak te dzieją się w tym samym czasie, w którym ewoluuje wiele innych części obrazu. Działalność naukowa jest cudownie złożona i różnorodna. Obejmują one zbieranie i klasyfikowanie oraz mierzenie i określanie liczb, takich jak stała Avagadro, stała Hubble'a, prędkość światła i masy cząstek elementarnych. Obejmują one rozpoznawanie skamielin i ich implikacji dla geologicznych skal czasowych, widzenie i interpretowanie niesamowitych struktur neuronów oraz zainspirowany pomysł Plancka o kwantach. Zawierają mapy Ziemi i ludzkiego genomu. Obejmują one opisy ruchów chromosomów podczas podziału komórki, zasady Chargaffa dotyczące podstaw DNA oraz proste eksperymenty Galileusza z kulkami toczącymi się po pochyłej płaszczyźnie. Nie ma prostego algorytmu kodującego całą tę różnorodność. Po to jest historia. Ale w końcu, pomimo całego tego bogactwa i złożoności, podstawowe podstawowe zasady nadal obowiązują. Obserwacje i eksperymenty prowadzą do hipotez i przewidywań, które z kolei muszą być sprawdzone przez inne obserwacje i eksperymenty. Teorie muszą być falsyfikowalne, a wyniki eksperymentalne i obserwacyjne muszą być powtarzalne przez innych. Teorie i wyniki eksperymentalne lub obserwacyjne muszą być rygorystycznie testowane, a te, które zawiodą, muszą zostać zmodyfikowane lub odrzucone. Wiedza naukowa ostatecznie musi być ugruntowana poprzez kontakt z realnym światem. Liczy się to, co działa.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (24)


Szczęśliwy traf

Zbieg okoliczności (szczęśliwy przypadek, powodzenie lub szczęście) z pewnością odgrywał rolę w nauce na przestrzeni lat, a istnieje kilka książek na ten temat, ponieważ jest to zarówno tak ważne, jak i tak intrygujące. Ale co innego natknąć się na coś, a co innego rozpoznać jego znaczenie. Jak powiedział kiedyś Louis Pasteur: "Szansa sprzyja przygotowanemu umysłowi". Nierzadko zdarza się, że nowe zjawisko jest dostrzegane, ale ignorowane. Winston Churchill kiedyś zażartował, że "mężczyźni od czasu do czasu natykają się na prawdę, ale większość z nich podnosi się i spieszy, jakby nic się nie stało". Potrzeba czegoś wyjątkowego, aby takie potknięcie przemienić w odkrycie: chęć rozważenia nieoczekiwanego, otwarty umysł, poczucie zdziwienia, ciekawość, intuicja, wgląd, determinacja, aby to śledzić i kreatywność w wyobrażaniu sobie, co może to oznaczać i jak to pasuje. Wiele ważnych odkryć w nauce było nieoczekiwanych. Zbieg okoliczności ma szczególne znaczenie w dziedzinach takich jak medycyna, ponieważ żywe systemy są na ogół zbyt złożone, aby można je było przewidywać lub badać za pomocą prostych eksperymentów; ich zachowanie musi zostać odkryte, więc często w grę wchodzi zbieg okoliczności. Znaczącym przykładem jest "odkrycie" szczepionki na ospę. Przez tysiąclecia ospa była straszną plagą, zabijając ponad pół miliarda ludzi w ciągu historii. Jest to wysoce zakaźna śmiertelna choroba przenoszona przez wirusa przenoszonego drogą powietrzną. Ale z biegiem lat zdano sobie sprawę, że osoby, które przeżyły chorobę, uodporniają się na reinfekcję. Chińczycy i Arabowie byli jednymi z pierwszych, którzy wykorzystali tę wskazówkę, aby zapewnić szczepienia zdrowym ludziom, wystawiając ich na małe próbki uzyskane ze strupów lub pęcherzy ofiar; rezultatem była zazwyczaj łagodna, tymczasowa postać choroby - i szczepienie przeciwko jakimkolwiek późniejszym poważnym ekspozycjom. Ale zawsze istniało poważne niebezpieczeństwo pełnoobjawowej ospy prawdziwej lub przeniesienie choroby, jeśli dawki były nadmierne. Pod koniec XVIII wieku zdano sobie sprawę, że dojarki były ogólnie odporne na ospę. Ale były w pełni narażone na ospę krowią, znacznie łagodniejszą chorobę, i to właśnie ta ekspozycja dała im odporność na ospę prawdziwą. W 1796 roku angielski lekarz Edward Jenner zaszczepił 8-latkowi ropę z pęcherzy krowianki na rękach dojarki, a następnie udowodnił ponad wszelką wątpliwość, że chłopiec stał się odporny na ospę. Jego gruntowne badania były wielkim przełomem i stały się dobrze znane w całej Europie, zapewniając podstawę dla nowej i skutecznej szczepionki przeciwko ospie. Nawet Napoleon zaszczepił wszystkie swoje francuskie wojska, chwaląc Jennera jako "jednego z największych dobroczyńców ludzkości". Jenner jest powszechnie uważany za "ojca immunologii", a w 2002 roku BBC nazwała go jednym ze 100 największych Brytyjczyków w historii. W 1979 roku Światowa Organizacja Zdrowia ogłosiła ospę prawdziwą chorobą, która została zwalczona, dzięki ogromnemu globalnemu wysiłkowi na rzecz zdrowia publicznego, którego ważną częścią była ta skuteczna szczepionka. Ale małe fiolki wirusa ospy zachowały się w laboratoriach w USA i Rosji i pozostaje to potencjalnym zagrożeniem. Anestezjologia zawdzięcza swoje istnienie także zbiegowi okoliczności. Sięga również od dawna, obejmując mikstury tak różnorodne, jak mak lekarski w Mezopotamii i kokaina z liści koki w cywilizacji Inków, a termin znieczulenie wywodzi się (oczywiście) od greckiego słowa anaisthetos ("bez sensacji"). Ale współczesny rozwój anestezjologii rozpoczął się od serii przypadkowych odkryć. W 1799 Humphry Davy zasłynął z przeprowadzenia serii eksperymentów nad odurzającymi właściwościami podtlenku azotu, który nazwał "gazem rozweselającym", wykorzystując siebie i przyjaciół ze społeczeństwa jako królików doświadczalnych. Inhalacja gazem rozweselającym szybko stała się modą, pojawiającą się na prywatnych imprezach i objazdowych pokazach. Ale Davy dostrzegł także poważną stronę i napisał na ten temat klasyczną książkę w 1800 roku. Mając świadomość, że podtlenek azotu wydaje się być w stanie uśmierzać ból, zrobił proroczą uwagę, że "może być prawdopodobnie z korzyścią stosowany podczas operacji chirurgicznych". Minęły dziesięciolecia, aż do lat czterdziestych XIX wieku, kiedy kilku amerykańskich dentystów i chirurgów zaczęło używać podtlenku azotu i eteru, które już wtedy miały podobne, pobudzające działanie, do bezbolesnych operacji. Słowo szybko się rozprzestrzeniło. Innym odurzającym gazem odkrytym w latach 30. XIX wieku był eter chlorowy, który stał się znany jako chloroform. Miał kilka zalet w porównaniu z podtlenkiem azotu i eterem, a w 1847 r. Szkot James Simpson promował jego stosowanie przy porodzie. Słynny był on używany dla królowej Wiktorii w 1853 r. W czasie narodzin księcia Leopolda, a Simpson został pasowany na rycerza w 1866 r. za swoją pionierską pracę. Chloroform stał się preferowanym środkiem znieczulającym podczas wojny krymskiej i wojny secesyjnej (do tego czasu operacje na polu bitwy, takie jak amputacje, były wykonywane bez żadnego uśmierzenia bólu). Z tych wczesnych "rustykalnych" zmian, pole anestezjologia przeszła do innych, bardziej wyrafinowanych leków, ale dokładnie, jak one działają, wciąż pozostaje pewną tajemnicą. Penicylinę odkryto również przypadkiem. Alexander Fleming, profesor bakteriologii w St. Mary′s Hospital w Londynie, wrócił z wakacji we wrześniu 1928 roku i znalazł coś niezwykłego na jednej ze swoich szalek Petriego zawierającej kolonie bakterii gronkowca złocistego. Był obszar, na którym rosła pleśń, otoczony strefą, która była wolna od kolonii, jakby pleśń wydzieliła coś, co zabiło bakterie. Odkrył, że ta "wydzielina pleśni" może zabić szeroką gamę szkodliwych bakterii. Nieoczekiwanie odkrył penicylinę. Wyizolowanie czystej penicyliny z "wydzielin pleśni" okazało się bardzo trudne, ale w końcu udało się to Howardowi Florey, Ernstowi Chainowi i ich kolegom z Oksfordu. Fleming, Florey i Chain otrzymali wspólnie Nagrodę Nobla w 1945 roku za ten ratujący życie lek. Podobna historia miała miejsce w przypadku Paula Ehrlicha, niemieckiego lekarza i naukowca zajmującego się różnymi dziedzinami nauk medycznych pod koniec XIX wieku. Jednym z jego wkładów było opracowanie technik barwienia w celu identyfikacji organizmów wywołujących choroby. W szczególności próbował zabarwić Bacillus gruźlicy. Próbował przez kilka miesięcy różnych barwników, bez skutku. Pewnej nocy zostawił poplamione preparaty na nieoświetlonym piecu w swoim domowym laboratorium, aby wyschły na noc. Kiedy wrócił następnego ranka, był zszokowany, widząc ogień w piecu, który jego gospodyni rozpaliła, nie zauważając zjeżdżalni. Po obejrzeniu szkiełek pod mikroskopem stwierdził, że dzięki przypadkowemu podgrzaniu prątki gruźlicy wyraźnie się wyróżniają, co ułatwia identyfikację. On (i jego gospodyni?) nieświadomie opracował ważną technikę barwienia, która jest nadal w użyciu. Jak wspomniano, podczas wykładu w 1820 r. Hans Christian Ørsted zauważył, że igła kompasu odchyla się, gdy prąd elektryczny z baterii jest włączany i wyłączany. To małe, ale zdumiewające, przypadkowe odkrycie otworzyło całe pole elektromagnetyzmu i elektrodynamiki. Odkrycie promieni rentgenowskich szturmem podbiło świat. W 1895 Wilhelm R öntgen był profesorem fizyki na Uniwersytecie w Wüzburgu. Badał zachowanie promieni katodowych emanujących z lamp próżniowych i aby zablokować blask światła wewnątrz tuby, zakrył tubę całkowicie czarnym kartonem. W jego laboratorium znajdował się również papierowy ekran pomalowany platynocyjankiem baru, który fluoryzował pod wpływem promieni katodowych; ten artykuł nie miał nic wspólnego z jego obecnym eksperymentem. Kiedy przeprowadzał swój eksperyment w zaciemnionym pokoju, był zdumiony, widząc, jak ten ekran fluoryzuje, mimo że znajdował się z jednej strony daleko od linii ognia promieni katodowych. Studiował to niezwykłe zjawisko, które nazwał promieniami X. Jego wizerunek dłoni żony pokazującej wszystkie wewnętrzne kości i jej pierścionek natychmiast stał się sławny. Wkrótce zdano sobie sprawę, że promienie rentgenowskie są energetyczną formą elektromagnetyzmu. Dwa niezwykle podobne, niespodziewane wydarzenia w Bell Labs w New Jersey doprowadziły do dwóch najważniejszych odkryć astronomicznych XX wieku. We wczesnych latach trzydziestych Karl Jansky zbudował antenę radiową do badania wszelkich szumów radiowych, które mogłyby zakłócać transatlantyckie transmisje głosu radiowego. Na niebie wykrył uporczywy szum radiowy, którego natężenie każdego dnia wzrastało i spadało. W końcu ustalił, że pochodzi z Drogi Mlecznej. Odkrył emisję radiową z naszej Galaktyki iw ten sposób rozpoczął nową dziedzinę radioastronomii. Trzydzieści lat później, jak opisano wcześniej, Arno Penzias i Robert Wilson użyli czułej anteny (o znacznie wyższej częstotliwości niż w pracy Jansky′ego), która została zbudowana do komunikacji satelitarnej, tym razem do dokładnego pomiaru emisji ze źródeł radiowych i tła nieba. Oni również znaleźli uporczywy szum radiowy, który w tym przypadku był równomiernie rozłożony na niebie - było to promieniowanie reliktowe z Wielkiego Wybuchu. W 1967 roku Jocelyn Bell była studentką w Cambridge, która wykorzystywała nowo wybudowany duży układ radiowy i zjawisko scyntylacji międzyplanetarnej (analogicznej do migotania gwiazd) do znajdowania kwazarów. Zastosowanie scyntylacji międzyplanetarnej wymagało, aby teleskop był w stanie wykryć szybko zmieniające się sygnały, nawet w ciągu jednej dziesiątej sekundy. W trakcie swoich obserwacji zauważyła coś, co nazwała "trochę zadupania" na jednym z zapisów wykresu. Wydawało się, że różni się od scyntylacji lub interferencji spowodowanych przez człowieka i wydaje się, że powtarza się na różnych przejściach określonego obszaru nieba. Zwróciła na to uwagę swojemu przełożonemu Antony′emu Hewishowi, który zgodził się, że należy to kontynuować. Zanim przybył do obserwatorium, aby zobaczyć na własne oczy, zarejestrowała "zarost" w szybszym trybie i było jasne, że było to spowodowane bardzo regularnie rozmieszczonymi impulsami. Udało im się wtedy potwierdzić, że źródło tych impulsów porusza się nad niebem - jest to pozaziemskie źródło pulsacji. Jedną z myśli, która natychmiast przyszła do głowy, było to, że może to być spowodowane sygnałami lub latarniami pozaziemskiej cywilizacji. Nazwali go LGM-1 (od "Małych Zielonych Ludzików") i posunęli się tak daleko, że zastanawiali się, komu o tym opowiedzieć; premier wydawał się oczywistym wyborem. Jednak po kilku tygodniach brak jakichkolwiek dowodów na (planetarny) ruch orbitalny z precyzyjnie rozmieszczonych impulsów wydawał się wykluczać tę możliwość. Dzięki dalszym obserwacjom na niebie Bell znalazł jeszcze trzy takie źródła. Bell i Hewish odkryli pulsary, które po ogłoszeniu szybko uznano za szybko obracające się gwiazdy neutronowe - spektakularne odkrycie. Hewish podzielił Nagrodę Nobla z fizyki z 1974 r. z Martinem Ryle za pionierską pracę w dziedzinie radioastrofizyki, powołując się na "decydującą rolę Hewish w odkryciu pulsarów". Pominięcie Jocelyn Bell w tej nagrodzie wzbudziło duże kontrowersje. W 1979 roku trzech astronomów, Dennis Walsh, Bob Carswell i Ray Weymann, używało dużego teleskopu w Arizonie do poszukiwania obiektów quasi-gwiazdowych (kwazarów) na podstawie katalogu źródeł radiowych. Szukali niebieskich, punktowych (podobnych do gwiazd) obiektów w pobliżu pozycji źródeł radiowych. W jednym przypadku, w którym zidentyfikowali taki niebieski obiekt za pomocą źródła radiowego (który był zatem kwazarem), zauważyli, że w pobliżu znajduje się inny niebieski obiekt gwiezdny, zaledwie 6 łuków od pierwszego obiektu. Jeden z astronomów zasugerował, że to inny kwazar, który przypadkowo znalazł się wyjątkowo blisko linii widzenia pierwszej, a nie tylko niebieska gwiazda. Postawiono jednego dolara, że to kolejny kwazar. Kiedy spektroskopia ujawniła, że rzeczywiście był to kwazar, dolar został zapłacony. Ale po bliższym przyjrzeniu się okazało się, że widma dwóch kwazarów są identyczne. W rzeczywistości są to dwa obrazy tego samego kwazara, widziane dwukrotnie z powodu "soczewkowania grawitacyjnego" (zjawisko przewidziane przez ogólną teorię względności Einsteina). To słynne i ważne odkrycie było początkiem zastosowania soczewkowania grawitacyjnego do badania wielkoskalowego rozkładu masy we wszechświecie. Ponieważ drugi obraz nie jest "kolejnym" kwazarem, ale tym samym widzianym dwukrotnie (o wiele ważniejsze odkrycie), dolar został spłacony.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (23)


Nieporozumienia

Jeden z wieloletnich sporów nauk geologicznych dotyczył uniformitaryzmu kontra katastrofizm w historii Ziemi. Katastrofizm to pogląd, że główne cechy geograficzne Ziemi wynikały z gigantycznych katastrofalnych wydarzeń, które miały miejsce w krótkim czasie, takich jak biblijna powódź. Głównym orędownikiem katastrofizmu był francuski paleontolog Georges Cuvier, który kierował się raczej zapisem kopalnym niż względami teologicznymi. Poparciem dla uniformitaryzmu byli James Hutton i Charles Lyell, którzy utrzymywali, że Ziemia została ukształtowana przez długotrwałe działania sił, takich jak wypiętrzenie, typowe wulkany i trzęsienia ziemi, erozja i sedymentacja, które trwają do dziś. Przez lata wyrażano wiele poglądów, ale obecny pogląd łączy obie skrajności: historia Ziemi to powolne, stopniowe procesy przerywane od czasu do czasu przez naturalne katastrofy. W ciągu roku od opublikowania Darwina O powstawaniu gatunków za pomocą doboru naturalnego, 30 czerwca 1860 roku w Muzeum Uniwersytetu Oksfordzkiego odbyła się słynna debata, znana jako "Wielka Debata" lub Debata Huxley-Wilberforce. Thomas Huxley, bliski przyjaciel Darwina, bronił poglądów Darwina, podczas gdy Samuel Wilberforce, biskup Oksfordu, podtrzymywał ideę biblijnego stworzenia i szydził, że człowiek może pochodzić od małpy. Obie strony twierdziły, że wygrały, a sprawa pozostaje kwestią do chwili obecnej, szczególnie dla osób o silnych przekonaniach religijnych. Inna Wielka Debata, zwana w astronomii debatą Shapleya-Curtisa, dotyczyła natury mgławic spiralnych i rozmiaru wszechświata. Problem polegał na tym, czy mgławice były stosunkowo małymi obiektami znajdującymi się w naszej galaktyce Drogi Mlecznej, czy w rzeczywistości były niezależnymi galaktykami, a zatem dużymi i odległymi. Debata odbyła się 26 kwietnia 1920 r. w Smithsonian Museum of Natural History i była skutecznie kontynuowana w artykułach opublikowanych w 1921 r. Curtis wykazał, że w mgławicy Andromeda jest więcej nowych niż w Drodze Mlecznej, co potwierdza ideę, że Andromeda jest odrębną galaktyką z własnym tempem występowania nowych. Zwrócił także uwagę na ciemne pasy obecne w innych galaktykach, podobne do obłoków pyłowych w naszej Drodze Mlecznej oraz duże przesunięcia Dopplera w mgławicach. Ostatecznie Hubble i inni wyraźnie pokazali, że nasza Galaktyka Drogi Mlecznej jest tylko jedną z wielu galaktyk we wszechświecie, a sprawa została rozwiązana. Jednym z najbardziej znanych argumentów wszechczasów była kosmologia Wielkiego Wybuchu kontra kosmologia stanu ustalonego w latach 40. do 60. XX wieku. Czy wszechświat miał początek, czy jest wieczny? Wszystko zaczęło się od odkrycia Hubble′a w 1929 roku, że wszechświat się rozszerza. Obserwowana relacja przesunięcia ku czerwieni do galaktyk (prawo Hubble′a) sugerowała, że wszechświat był w przeszłości mniejszy, a ekstrapolacja wstecz sugerowała początek wszechświata. Istniały już modele teoretyczne opisujące całą tę ewolucję, oparte na ogólnej teorii względności Einsteina, w szczególności katolickiego księdza Georgesa Lemaître′a, który pierwszy moment wszechświata nazwał Pradawnym Atomem. Jednak większość astronomów nadal uważała, że wszechświat nie ma początku, po części dlatego, że wczesna skala odległości Hubble′a błędnie podała wiek wszechświata, który był znacznie niższy niż dobrze znany wiek Ziemi. Kwestia naprawdę zaczęła się gotować pod koniec lat 40., kiedy George Gamow, Ralph Alpher i Robert Herman analizowali implikacje bardzo zwartej, gorącej i gęstej wczesnej fazy wszechświata, a Fred Hoyle, Hermann Bondi i Thomas Gold zaproponowali stałą model stanu jako alternatywa. W tym modelu wszechświat jest wieczny, stale się rozszerza, ale zawsze wygląda tak samo, ponieważ między galaktykami, które oddalają się od siebie, nieustannie tworzy się nowa materia. Można by argumentować, że powstanie tej nowej materii w przestrzeni między galaktykami nie jest tak naprawdę nie bardziej niezwykłe niż stworzenie całego wszechświata na początku ("Wielki Wybuch", jak Hoyle nazwał to żartobliwie w wywiadzie dla BBC). Co mogłoby rozróżnić te dwa modele? Alpher, Bethe i Gamow obliczyli, że pierwotne pierwiastki (hel, deuter, lit i beryl) mogły powstać w pierwszych minutach wszechświata, a Alpher i Herman zdali sobie sprawę, że zanikającą poświatę "Wielkiego Wybuchu" można zaobserwować już dzisiaj jako chłodna kąpiel promieniowania obecna wszędzie na niebie. Zaczęły gromadzić się dowody obserwacyjne dotyczące tych dwóch modeli. Obfitość helu obserwowana w gwiazdach i mgławicach dobrze zgadzała się z wartością przewidywaną z modelu Wielkiego Wybuchu. Szacowany wiek wszechświata stawał się coraz większy wraz z poprawą obserwacji (pierwotne oszacowanie Hubble′a było dziesięciokrotnie błędne), więc rozbieżność z wiekiem Ziemi zniknęła. Nowa dziedzina radioastronomii polegała na odnajdywaniu niektórych galaktyk w dużych odległościach (tak jak były dawno temu), które wydają się zupełnie inne od pobliskich galaktyk, co sugeruje, że galaktyki (i wszechświat) mogły się zmieniać z czasem. Jedno z badań wykazało, że istnieje znacznie więcej słabych (odległych) źródeł radiowych niż jasnych (pobliskich), co ponownie sugeruje, że wszechświat ewoluował; wynik ten wywołał poruszenie, ale okazał się błędny. W 1962 r. odkryto pierwszy "kwazar" (obiekt quasi-gwiazdowy): silny obiekt emitujący fale radiowe o dużym przesunięciu ku czerwieni (co oznacza bardzo dużą odległość), który jest tak jasny jak pobliskie gwiazdy. To również wywołało burzę - jak tak odległy obiekt może być tak jasny? Doprowadziło to niektórych astronomów do zasugerowania, że przesunięcia ku czerwieni mogą wcale nie być związane z odległością. Pośród całego tego zamieszania jedna oszałamiająca obserwacja niemal natychmiast rozstrzygnęła debatę na korzyść modelu Wielkiego Wybuchu: nieoczekiwane odkrycie Kosmicznego Tła Mikrofalowego przez Penziasa i Wilsona w 1964 roku.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (22)


Fałszywie pozytywne

Aby zaobserwowane "zdarzenie" mogło zostać uznane za odkrycie w rygorystycznych naukach fizycznych, musi to być coś, co zdarza się przypadkowo rzadziej niż raz na 3,5 miliona razy. Nazywa się to "wydarzeniem pięciu sigma". Zdarzenia jednosigmowe mają prawdopodobieństwo jeden do trzech, a zdarzenia dwusigmowe mają prawdopodobieństwo jeden do 22, zdarzenia trzysigma mają prawdopodobieństwo jeden do 370, a zdarzenia pięciosigma mają tylko jeden do 3,5 miliona prawdopodobieństwo bycia przypadkowym. Tak więc zdarzenia jedno- i dwusigmowe są zwykle ignorowane, zdarzenia trójsigmowe są uważane za interesujące, a zdarzenie pięciosigma jest "wykryciem". Odkrycia (pierwsze wykrycia) często zawyżają prawdziwą wielkość sygnału, który najłatwiej może się wyróżniać, gdy zbiega się z dodatnim skokiem szumu. A w każdym eksperymencie lub obserwacji mogą występować subtelne efekty instrumentalne, które mogą maskować się jako sygnał, tak więc uważna kontrola eksperymentu i kalibracja mają ogromne znaczenie. Z tych i innych powodów kryterium pięciosigma, które może wydawać się przesadą, jest ściśle przestrzegane w rygorystycznych naukach fizycznych. Najsłynniejszym niedawnym przykładem możliwego sygnału, który zniknął, jest zdarzenie dwusigma, które zaobserwowano w dwóch niezależnych detektorach największego na świecie akceleratora cząstek, Wielkiego Zderzacza Hadronów (LHC, krótko opisanego w Rozdziale 4), w grudniu 2015 roku. Pomimo jego niskiego poziomu istotności oraz ze względu na ogromne znaczenie wyników uzyskanych z LHC, w kolejnych miesiącach opublikowano około 500 prac teoretycznych spekulujących na temat tego, co to może oznaczać. Jednak do sierpnia 2016 roku, po dodaniu nowych danych z miesięcy, "sygnał" zniknął poniżej poziomu szumu. Więcej wyników fałszywie dodatnich obejmuje te wynikające z poszukiwań impulsów lub zdarzeń przejściowych w astronomii. W 1989 wykryto sygnał optyczny o okresowości 0,5 ms w kierunku supernowej 1987A, co dało początek ponad 50 artykułom na temat jej implikacji dla modeli gwiazd neutronowych, ale później odkryto, że jest to spowodowane interferencją z autoguidera. na teleskopie. W ostatniej dekadzie znaleziono ponad 50 przejściowych impulsów radiowych trwających tylko kilka milisekund, pochodzących z różnych kierunków nieba; są to tak zwane "szybkie impulsy radiowe" (FRB). W 2010 roku za pomocą radioteleskopu Parkesa w Australii wykryto 16 podobnych impulsów, ale były one wyraźnie pochodzenia ziemskiego i nazwano je perytonami. Później odkryto, że były one spowodowane przedwczesnym otwarciem drzwi kuchenki mikrofalowej w pobliskiej kuchni. Ale same FRB są prawdziwym fenomenem astronomicznym; wydają się być pozagalaktyczne, ale ich dokładne pochodzenie i fizyczna natura są w tej chwili niejasne. Sonda WMAP badająca Kosmiczne Tło Mikrofalowe zdawała się wskazywać w 2001 roku, że epoka rejonizacji, główne "przejście fazowe" Wszechświata, była znacznie wcześniejsza (kiedy Wszechświat był o 60% mniejszy) niż oczekiwano na podstawie obserwacji kwazarów i galaktyki z teleskopów naziemnych. W ciągu następnych kilku lat napisano setki prac teoretycznych wyjaśniających zaskakującą rozbieżność w terminach "wczesna rejonizacja", "rejonizacja rozszerzona" lub "podwójna rejonizacja". W rzeczywistości rozbieżność wynosiła tylko jedną sigma, ale to nie odstraszyło teoretyków. Dzięki dalszym danym z 2005 r. oszacowanie WMAP zostało zredukowane do mniej więcej oczekiwanego zasięgu, a najnowsze wyniki ze statku kosmicznego Planck dają wynik w rozsądnej zgodności z dowodami uzyskanymi z teleskopów naziemnych. Tak więc rozbieżność wyparowała, a wyniki z różnych źródeł informacji zbiegły się (ale nadal pozostają niejasności, a faktyczna szczegółowa historia epoki rejonizacji nie została jeszcze ustalona). Przy bardzo wysokim poziomie sygnału do szumu we wrześniu 2015 r. wydarzyła się wielka niespodzianka: pierwsze wykrycie fal grawitacyjnych, jak wspomniano w Rozdz. 2. Normalnie można by oczekiwać, że wraz z udoskonalaniem przyrządów każde pierwsze wykrycie będzie marginalne, tuż powyżej poziomu szumu. Ale prawie gdy tylko dwa zmodernizowane interferometry LIGO zostały włączone, oba wykryły niewiarygodnie silny "ćwierk" (o stosunku sygnału do szumu wynoszącym 24!) rozciągający się na ponad dwie dziesiąte sekundy, z dokładnie tą zawiłą sygnaturą. przewidywane z równań Einsteina. Od razu było to oczywiste w danych. Nie było co do tego wątpliwości - LIGO wykryło dwie czarne dziury o masach 29 i 36 mas naszego Słońca, które w końcowym crescendo łączą się w pojedynczą czarną dziurę. To zdumiewające, że pierwsze wykrycie było tak niewiarygodnie silne. Ale historia jest jeszcze bardziej intrygująca. Ponieważ LIGO jest tak złożone i niezwykle czułe (precyzja jednej dziesięciotysięcznej średnicy protonu), w ramach współpracy powstała tajna i oddana grupa, której jedynym zadaniem jest wytwarzanie "ślepych zastrzyków" - fałszywych sygnałów dodawanych do danych bez informowania analityków o przetestowaniu detektora i systemu analizy. To są ostateczne "fałszywe pozytywy". Kiedy wykryto sygnał z września 2015 r., szybko potwierdzono, że nie był to fałszywie pozytywny wynik - był rzeczywiście bardzo realny - monumentalne odkrycie i narodziny zupełnie nowego okna na wszechświat. Prawdopodobnie najsłynniejszym fałszywym alarmem wszech czasów była "zimna fuzja". Zwykle myślimy o fuzji jądrowej jako procesie w temperaturach dziesiątek milionów stopni, który napędza gwiazdy i bomby wodorowe. Jednak w 1989 roku znany elektrochemik Martin Fleischmann i Stanley Pons z University of Utah wysunęli zaskakujące twierdzenie, że udało im się w laboratorium przetopić wodór w hel, wytwarzając ciepło i śladowe ilości produktów ubocznych reakcji jądrowych. elektroliza ciężkiej wody (tlenku deuteru) na powierzchni elektrody palladowej. Ponieważ miało to miejsce w temperaturze pokojowej, nazwano to "zimną fuzją". Ogłoszenie tego wyniku zdarzyło się w czasie zwiększonej świadomości problemów środowiskowych, takich jak kryzys naftowy, globalne ocieplenie i trwający ruch antynuklearny, a wyciek ropy Exxon Valdez miał miejsce zaledwie dzień po ogłoszeniu. Tak więc możliwość nieograniczonego źródła czystej energii, wykorzystującego jako paliwo tylko wodę morską, wywołała medialny szał. Ale ogłoszenie szybko spotkało się z lawiną wrogich komentarzy i artykułów, a cały odcinek stał się brzydki i ostatecznie dość smutny. Fleischmann i Pons pospieszyli z ustaleniem swojego priorytetu, pospiesznie przesyłając swoją publikację i komunikat prasowy. Bardzo szybko wielu innych naukowców w kilku krajach ogłosiło, że próbowali, ale nie byli w stanie odtworzyć deklarowanych wyników. Niektórzy, którzy myśleli, że dokonali pozytywnych wykryć, później znaleźli błędy i musieli wycofać swoje dokumenty. Nie pomogło to, że Fleischmann i Pons nie podali odpowiednich szczegółów swojego eksperymentu, a później okazało się, że w rzeczywistości nie wykryli produktów ubocznych reakcji jądrowych. Mimo to odmówili przyznania się do błędów w swojej pracy i nigdy nie wycofali swojej pracy. Z roszczeniem, roszczeniami wzajemnymi, różnymi interpretacjami, a nawet procesami sądowymi, media donosiły o "zamieszaniu fuzji", "cyrku", a nawet patologicznej nauce ścisłej. Zimna fuzja w końcu stała się dziedziną pariasów, oddzieloną od głównego nurtu nauki, a pozostali entuzjaści zimnej fuzji mieli trudności z publikowaniem w głównych czasopismach. Niemniej jednak, biorąc pod uwagę możliwość, jakkolwiek niewielką, czystego i niedrogiego źródła energii odnawialnej, na badania nad zimną fuzją wydano na przestrzeni lat w różnych krajach dziesiątki milionów dolarów, a niektóre z tych badań są kontynuowane nawet do chwili obecnej dzień. Była to niezwykle złożona historia obejmująca wiele aspektów nauki, naukowców oraz ich osobowości i interakcji; o tej sadze napisano całe książki. Zupełnie inny rodzaj fałszywie pozytywnych wyników może pochodzić z teorii, a nie eksperymentu i obserwacji. Eksperymentaliści mogą mieć trudności z pogonią za nieuchwytnymi teoriami. Zabawny, ale frustrujący epizod, który rozegrał się w latach 70. i 80. dotyczący możliwej struktury Kosmicznego Tła Mikrofalowego (CMB). Już od samego odkrycia CMB było jasne, że jego temperatura była niezwykle stała na całym niebie. Ale zdano sobie sprawę, że w CMB musi istnieć struktura (niewielkie wahania temperatury) - nasiona potrzebne do powstania pierwszych gwiazd i galaktyk. Początkowo teorie sugerowały, że może to być część na tysiąc. Kiedy nowe obserwacje osiągnęły ten poziom i nie znalazły żadnej struktury, teorie zostały zrewidowane i przewidziały część na 10.000. A kiedy obserwacje osiągnęły ten poziom, ponownie teorie zostały zrewidowane, przewidując część na sto tysięcy. Wreszcie, niezwykle wyrafinowane pomiary przy użyciu sondy COBE (a później sondy WMAP i Planck) wykazały strukturę na tym poziomie. To była ulga, ponieważ wszelkie mniejsze fluktuacje zostałyby zagłuszone przez zmiany w emisji na pierwszym planie galaktyki, a my nigdy byśmy o nich nie wiedzieli.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (21)


Błędy

W nauce, podobnie jak w każdym innym ludzkim przedsięwzięciu, z pewnością popełniane są błędy, a kilka z nich podsumowano poniżej. Zdecydowanie najbardziej znanym jest to, co Einstein nazwał "moim największym błędem". Swoją nową ogólną teorię względności stosował do wszechświata w 1917 roku. Wiedział, że według astronomów wszechświat jest statyczny, ale jego równania na to nie pozwalały - musiał się rozszerzać lub kurczyć. Aby rozwiązać ten problem, dodał do swoich równań stałą, zwaną stałą kosmologiczną, i to sprawiło, że wszechświat stał się statyczny. Trzynaście lat później Hubble odkrył ekspansję wszechświata, a Einstein z obrzydzeniem odrzucił swoją stałą. Wydaje się prawdopodobne, że popełnił dwa błędy, a nie tylko jeden. Wstawienie stałej było jednym błędem. Ale teraz wiemy, że usunięcie go również było prawdopodobnie błędem, ponieważ przyspieszenie ekspansji Wszechświata odkryto w 1998 r jest to prawdopodobnie spowodowane stałą kosmologiczną! Innym dobrze znanym błędem była struktura potrójnej helisy Paulinga dla DNA. Linus Pauling z Caltech był jednym z najsłynniejszych biochemików swoich czasów. Stopniowo pojawiała się idea, że DNA może być podstawowym materiałem genetycznym, a jeśli tak, to jego struktura będzie miała krytyczne znaczenie. Pauling zaczął się nad tym zastanawiać w 1951 roku, ale dopiero w listopadzie 1952 zaczął poważnie nad tym pracować. Ale potem przedstawił swoją pracę na ten temat pod koniec grudnia 1952 roku - zajęło mu zaledwie miesiąc, aby dojść do wniosku o strukturze DNA! Kiedy Crick i Watson zobaczyli preprint Paulinga, od razu wiedzieli, że jest on błędny, i ścigali się, aby opublikować poprawną strukturę podwójnej helisy w kwietniu 1953 roku. Gdzie Pauling tak się pomylił? Zdjęcia rentgenowskie, które miał, były słabej jakości. Jego ocena gęstości DNA była błędna. Zlekceważył krytyczne zasady Chargaffa. Jego model kolidował z kwasowością DNA. Po prostu pospieszył z opublikowaniem artykułu zawierającego kilka podstawowych błędów i opartego na słabych danych. Nieprzyjemnie natknąć się na kogoś, kto jest jednym z 20 największych naukowców wszechczasów. Mimo to otrzymał Nagrodę Nobla w dziedzinie chemii w 1954 r. "za badania nad strukturą wiązania chemicznego i jego zastosowanie do wyjaśnienia struktury substancji złożonych". Mały błąd w Holandii doprowadził do bardzo ważnego wyniku. Na początku lat czterdziestych astronom Jan Oort dowiedział się, że Amerykanie Karl Jansky i Grote Reber wykryli fale radiowe pochodzące z płaszczyzny Drogi Mlecznej naszej galaktyki. Był szczególnie zainteresowany, ponieważ fale radiowe mogą swobodnie przemieszczać się przez międzygwiazdowy pył, a więc mogą dawać niezakłócony widok na całą galaktykę. A jeśli istnieją jakieś wykrywalne linie widmowe na długości fal radiowych, mogą one ujawnić ruchy odległych części galaktyki za pomocą efektu Dopplera. Oort poprosił studenta, Henka van de Hulsta, aby dowiedzieć się, jakie linie widmowe mogą występować na falach radiowych. Van de Hulst po raz pierwszy rozważył linie rekombinacji radiowej wodoru - radiowe odpowiedniki dobrze znanych linii wodoru widzianych w optycznych długościach fal. Na szczęście przecenili "poszerzenie presji" tych linii i doszli do wniosku, że nie są obiecujące. W wyniku tego błędu upierał się i badał inne możliwości, aż w końcu wymyślił "spekulacyjną" 21-centymetrową linię neutralnego wodoru, który okazał się znacznie silniejszy i odegrał ogromną rolę w radioastronomii. Kolejny błąd odegrał ważną rolę w debacie między kosmologią stanu ustalonego a kosmologią Wielkiego Wybuchu w latach pięćdziesiątych. Zgodnie z modelem stanu ustalonego wszechświat jest zasadniczo wszędzie taki sam, podczas gdy w modelu Wielkiego Wybuchu przeszłość bardzo różniła się od teraźniejszości. Martin Ryle i jego koledzy z Cambridge przeprowadzili przegląd źródeł radiowych za pomocą swojego nowego radioteleskopu, który wydawał się wykazywać, że liczba odległych (słabych) źródeł była znacznie większa niż liczba bliskich (silnych) źródeł, co, gdyby było prawdziwe, byłoby dowód bardzo silnej ewolucji, najwyraźniej wspierający model Wielkiego Wybuchu. Wywołało to ogromne poruszenie w debacie. Ale Bernard Mills i Bruce Slee przeprowadzili obserwacje za pomocą innego rodzaju radioteleskopu w Australii i odkryli, że rzeczywiste liczby źródeł radiowych były znacznie mniej strome. Wyniki z Cambridge zostały mocno skażone efektami instrumentalnymi ("zamieszanie"), a astronomowie z Cambridge ostrożnie poprawili swoje błędy w swoim następnym teleskopie. (Jak się okazało, model Wielkiego Wybuchu był poprawny, ale źródła z Cambridge nie były!) Pomimo tego zawstydzającego epizodu, Martin Ryle podzielił się Nagrodą Nobla w dziedzinie fizyki z 1974 roku.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (20)


Mody i paradygmaty

"Efekt pędu" może być dobry lub zły. Kiedy pojawia się nowe odkrycie, nowy instrument lub obiecująca nowa teoria, to zdrowa rzecz, na którą zwraca się uwagę - naukowcy domagają się podążania nowym tropem lub używania nowego instrumentu, a teoretycy piszą artykuły na temat nowej nauki, która może wyniknąć, lub obiecująca nowa teoria rysuje artykuły, które mogą być krytyczne lub wspierające, i sugeruje możliwe nowe eksperymenty lub obserwacje w celu przetestowania teorii. Rzeczywiście, często pojawia się wyraźny wzrost liczby publikacji po nowych wynikach eksperymentalnych lub obserwacyjnych lub prowokacyjnej nowej teorii. Ta szybka reakcja jest korzystna, ponieważ sprawia, że nauka jest bardziej wydajna, zwłaszcza w czasach takich jak obecne, kiedy pojawia się tak wiele nowych obiektów i technologii. Niemniej jednak przyciąganie naukowców z innych dziedzin może być szkodliwe dla tych innych dziedzin i w każdym przypadku kwestią oceny historycznej jest to, czy z perspektywy czasu ogólny efekt był pozytywny dla rozwoju nauki. W niektórych przypadkach modę można postrzegać jako "przełomową", a w innych krok naprzód. Było kilka ostatnich przykładów modnych. Na przykład fala około 500 prac teoretycznych została wywołana słabym sygnałem widocznym w danych LHC w grudniu 2015 r., ale zaledwie kilka miesięcy później "sygnał" zniknął w szumie. Niezwykle szalone wydarzenie miało miejsce w 1987 roku i do dziś nazywane jest "Woodstock of Physics" (w nawiązaniu do słynnego Woodstock Music Festival 1969). Była to całonocna sesja maratonu Amerykańskiego Towarzystwa Fizycznego na temat nadprzewodnictwa wysokotemperaturowego. Nadprzewodniki mają ogromny potencjał, ponieważ mogą przewodzić prąd bez rezystancji, ale ich zastosowanie zostało ograniczone do ekstremalnie niskich temperatur (poniżej około -240 °C). W połowie lat 80. pojawiła się lawina artykułów na temat nadprzewodników "wysokotemperaturowych" (znacznie powyżej -240 °C), wywołując wielkie podekscytowanie, więc zaplanowano ostatnią sesję na ten temat. Fizycy ustawiali się w kolejce na godziny przed sesją; 2000 wcisnęło się do sali balowej, wielu w przejściach, a inni oglądali na zewnątrz na monitorach telewizyjnych. Sesja zakończyła się ostatecznie o 3 nad ranem, ale wielu z nich zostało na noc na dyskusję. Spotkanie było sensacją medialną, a wiele laboratoriów na całym świecie wystartowało w terenie. Inne przykłady mody obejmują odkrycia pierwszych kwazarów, pulsarów i molekuł międzygwiazdowych w latach 60. (wielu astronomów rzuciło się do akcji i zbudowano nowe radioteleskopy), oszałamiające Głębokie Pole Hubble′a z 1995 roku ujawniające niezliczone młode galaktyki w bardzo odległym wszechświecie pierwszy raz (ogromne przeglądy odległych galaktyk z udziałem setek astronomów są obecnie powszechne) i odkrycie pierwszych planet pozasłonecznych w połowie lat 90. (setki astronomów rzuciły się w nowe pole, w wyniku czego ponad 3700 takich planet pozasłonecznych są już znane). "Paradygmat" to główny nurt światopoglądu dyscypliny naukowej, a "zmiana paradygmatu" to znacząca zmiana w tym światopoglądzie. Świat naukowca jest pełen paradygmatów, dużych i małych. Odkrycia struktury DNA, kwazarów, kosmicznego tła mikrofalowego, dryfu kontynentów, najodleglejszych galaktyk, planet pozasłonecznych i przyspieszenia ekspansji wszechświata były zdumiewającymi "przesunięciami paradygmatu"; nagle zrozumieliśmy mechanizm leżący u podstaw wszelkiego życia, zdaliśmy sobie sprawę z ogromnej skali wszechświata i mieliśmy bezpośrednie dowody na jego pochodzenie, zrozumieliśmy główne cechy geologiczne na powierzchni planety, mieliśmy zupełnie nowe spojrzenie na wczesny wszechświat , zdaliśmy sobie sprawę z możliwości istnienia niezliczonych innych światów zdolnych do goszczenia życia i mieliśmy dowody na dominującą formę energii masowej w naszym wszechświecie. To były naprawdę monumentalne zmiany paradygmatu. Na przestrzeni dziesięcioleci naukowcy tworzą swoje teorie i eksperymenty w kontekście paradygmatu panującego w ich dziedzinie. Jest całkowicie naturalne i zrozumiałe, że naukowcy mają światopogląd, który dostarczyła nauka z przeszłości. Nie mogło być inaczej. Ale ważne jest, aby zarówno eksperymentatorzy, jak i teoretycy od czasu do czasu wyjrzeli "po wyjęciu z pudełka", aby pomyśleć o możliwych eksperymentach i teoriach, które mogą prowadzić do nowej nauki. Nie zawsze jest to łatwe, ponieważ panele recenzujące dotyczące finansowania są z natury konserwatywne. Czasami najlepsze propozycje to takie, które zapewnią zarówno konwencjonalne rezultaty (po części dla zadowolenia panelu), jak i zewnętrzną szansę na coś całkowicie rewolucyjnego. Nawet jeśli naukowcy przeprowadzają konwencjonalny eksperyment, jest to zawsze, jako nieświadomy produkt uboczny, test paradygmatu. Zwykle wynik jest zgodny z paradygmatem i staje się po prostu częścią ustalonego zasobu wiedzy w tej dziedzinie. Ale sytuacja staje się ciekawa, gdy wynik jest niezgodny z paradygmatem. Jeśli niespójność ma marginalne znaczenie statystyczne, może zostać zignorowana jako "szum" lub eksperyment może zostać powtórzony - kwestia dokładnej oceny. Jeśli ma to duże znaczenie, a naukowcy są pewni swojego eksperymentu, wynik z pewnością zostanie opublikowany (sugestie, że naukowcy nie chcą wstrząsać paradygmatem są całkowicie błędne - każdy naukowiec chciałby zasłynąć jako ten, który powoduje poważna zmiana kierunku nauki). Będą wtedy pytania innych o każdy szczegół pracy, dokopywanie się do błędów i subtelnych efektów oprzyrządowania: "nadzwyczajne roszczenia wymagają nadzwyczajnych dowodów". Inni powtórzą eksperyment, aby zobaczyć, czy można go odtworzyć. Będzie mnóstwo artykułów sugerujących, jak nowy wynik można jakoś pogodzić z paradygmatem. Ale w końcu, jeśli nowy wynik wytrzymuje wszelkie badania, sam paradygmat będzie musiał zostać przynajmniej zmodyfikowany, jeśli nie zastąpiony. Czasami zdarza się, że jeden lub więcej naukowców nie akceptuje zmiany. Zostali "uspadnięci" przez przestarzały pomysł, że nie chcą się poddać, nawet w obliczu przytłaczających dowodów. Niektórzy z nich delektują się poczuciem, że mają rację, a wszyscy inni się mylą - że są renegatami, a wszyscy inni biernie zgadzają się z poglądem głównego nurtu. To może trwać przez dziesięciolecia, a alternatywne scenariusze umierają tylko wtedy, gdy ci naukowcy to zrobią. W międzyczasie zdecydowana większość naukowców kontynuuje nowe idee, które prowadzą do postępu i weryfikacji wiedzy. Było kilka przykładów naukowców, którzy zostali okaleczeni przez usidlenie na przestrzeni lat. Nieco pokrewnym zjawiskiem jest socjologia nauki. Znany jako "efekt złota", wprowadzony przez astrofizyka Thomasa Golda, jest to dziwaczne zjawisko, w którym idea naukowa może przenikać i stać się powszechnie akceptowana w danej dziedzinie poprzez interakcje społeczne na konferencjach, komitetach i nieformalnych dyskusjach, bez żadnego wsparcia ze strony empirycznej dowód. Osobowości mogą odgrywać pewną rolę, a najbardziej dominujące lub prestiżowe osoby mają nadmierny wpływ. "Klub" po prostu uwierzył w tę ideę, a to może mieć realny i zniekształcający wpływ na postępy w tej dziedzinie, w tym decyzje dotyczące wniosków i publikacji. Zostało to odnotowane zwłaszcza w medycynie. Oczywiście taki pomysł ma tylko skończony czas życia; albo ostatecznie zostanie poddany próbie, albo inna (potwierdzona) wiedza go przytłoczy. Natura zawsze ma ostatnie słowo.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (19)


Fałszowanie i weryfikacja

Naukowcy czasami po prostu deklarują przestrzeganie zasad logiki, ale mimo to nauce w jakiś sposób udaje się zrobić postęp. Fałszowanie i weryfikacja są ściśle powiązane z dedukcją i indukcją. Dedukcja polega na wyciągnięciu logicznego wniosku lub wywnioskowaniu konkretnych przypadków z prawa ogólnego. Indukcja polega na wywnioskowaniu ogólnego prawa z poszczególnych instancji. W Principia, IV Reguła "Reguła rozumowania w filozofii" Newton stwierdził: "W filozofii eksperymentalnej mamy uważać twierdzenia zebrane przez ogólną indukcję na podstawie zjawisk za dokładne lub prawie prawdziwe. . … do czasu, gdy pojawią się inne zjawiska, przez co mogą być albo dokładniejsze, albo podlegające wyjątkom". Hipotezy i teorie mogą być sfalsyfikowane przez indywidualne obserwacje lub eksperymenty, które są z nimi sprzeczne. To tylko kwestia logiki dedukcyjnej. Filozof z lat 30. XX wieku Karl Popper słynął z tego, że upierał się, że teoria musi być falsyfikowalna, aby można ją było uznać za "naukową"; musi "podejmować ryzyko" i formułować prognozy, które, jak można sobie wyobrazić, mogą okazać się błędne. Pozostaje to kluczową zasadą w dzisiejszej nauce. Z drugiej strony, teorii nigdy nie można udowodnić w zasadzie, bez względu na to, ile obserwacji lub eksperymentów je potwierdza. To jest słynny "problem indukcji". Osiemnastowieczny filozof David Hume argumentował z problemu indukcji, że nie może istnieć teoria rzeczywistości poza tym, czego bezpośrednio doświadczamy. A upieranie się Poppera, że teoria, która została poparta wieloma eksperymentami, nie jest bardziej wiarygodna niż ta, która została poparta tylko przez kilka, wydaje się dla większości z nas przeczyć zdrowemu rozsądkowi. Nieco bardziej zniuansowanym i intuicyjnym podejściem do problemu indukcji jest wnioskowanie bayesowskie, nazwane na cześć osiemnastowiecznego angielskiego statystyka i pastora Thomasa Bayesa. Korzystając z twierdzenia Bayesa i "wstępnych informacji" można oszacować prawdopodobieństwo poprawności hipotezy i zaktualizować to prawdopodobieństwo (w jedną lub drugą stronę), gdy dostępnych będzie więcej informacji. Statystyki bayesowskie są powszechnie używane we współczesnej nauce. Niemniej jednak naukowcy zgodziliby się, że ostatecznie - w zasadzie - żadna teoria nie może być nigdy uznana za absolutnie udowodnioną. Ale w "prawdziwym" świecie nauki zarówno kroki prowadzące do hipotezy lub teorii, jak i testowanie tej hipotezy lub teorii mogą być złożone i zróżnicowane. Indukcja i dedukcja oraz weryfikowalność i falsyfikowalność nie zawsze są zgodne ze standardowym formatem podręcznika. Nauka jest pragmatyczna i istnieją wyjątki od zasad przedstawionych powyżej. Długotrwałe i dobrze poparte teorie nie mogą być od razu odrzucone przez pojedynczy negatywny eksperyment, istnieją wyjątkowe przypadki, w których pojedyncze odkrycie lub opracowanie zostało uznane za "konkluzywne", najwyraźniej ignorując problem indukcji, i tam to przypadki, w których hipoteza została zaakceptowana jako "model roboczy" w oczekiwaniu na ostateczne "potwierdzenie", które może pojawić się dopiero kilkadziesiąt lub nawet wieki później. Prawdziwa nauka jest pragmatyczna i niezbyt uzależniona od subtelniejszych zasad logiki. Jeśli teoria jest taka, która była wspierana przez lata, obejmuje szeroką gamę faktów obserwacyjnych lub eksperymentalnych i jest częścią "sieci" wiążącej ją z różnymi innymi udanymi teoriami, negatywny wynik eksperymentalny może prowadzić do modyfikacji teoria, a nie całkowite odrzucenie. Negatywny eksperyment zostanie zbadany i powtórzony, a jeśli okaże się, że jest poprawny, zostaną rozważone modyfikacje teorii, ale ostateczny werdykt niekoniecznie będzie natychmiastowy. I chociaż teorii nigdy nie można uznać za całkowicie zweryfikowaną w zasadzie, może ona stać się tak ugruntowana, że zasadniczo uważa się ją za "fakt", taki jak teoria, że Słońce zawsze wschodzi jutro. Niemal natychmiastowa powszechna akceptacja Kosmicznego Tła Mikrofalowego (CMB) jako rozstrzygającego dowodu kosmologii Wielkiego Wybuchu w 1964 roku stawia czoła problemowi indukcji. Jest to wybitny przypadek, w którym jedno odkrycie było powszechnie uważane za skutecznie "udowodnione" teorię. Odkryto, że ma właściwości przewidywane 16 lat wcześniej: ma przewidywaną temperaturę i jest niezwykle jednorodny na całym niebie. Ten oszałamiający wynik był tak imponujący, że szybko został zaakceptowany jako przytłaczający dowód dla teorii Wielkiego Wybuchu, a konkurencyjny model stanu ustalonego został odrzucony przez wszystkich z wyjątkiem kilku jego najbardziej zagorzałych zwolenników. W rzeczywistości to "potwierdzenie" modelu Wielkiego Wybuchu było jednocześnie "falsyfikacją" modelu stanu ustalonego, który wytworzyłby superpozycję pól promieniowania z wielu gwiazd i galaktyk, a zatem nie mógłby odpowiadać jednorodności CMB . Spektakularne natychmiastowe sukcesy insuliny w 1922 roku i penicyliny w 1939 roku (opisane poniżej) również nie wymagały niekończącego się łańcucha wspierających eksperymentów. Od razu było oczywiste, że działają, a następnie podjęto ogromne wysiłki, aby wyprodukować jak najwięcej tych "cudownych leków", ratując miliony istnień ludzkich. Istnieje wiele przykładów, w których "weryfikacja" nastąpiła dekady, a nawet wieki po hipotezie, podczas gdy w międzyczasie "hipoteza" stała się (częścią) paradygmatu. Teoria atomowa Daltona została zaproponowana w 1808 roku, niezwykle udany układ okresowy pierwiastków został zaproponowany w latach 60. XIX wieku przy założeniu, że atomy istnieją, Einstein przedstawił swój "dowód" na ich istnienie prawie 100 lat po tym, jak Dalton przedstawił swoją teorię i dopiero teraz, kolejne 100 lat później wreszcie "widzieliśmy" poszczególne atomy, a nawet ich strukturę orbitalną. Teoria ewolucji Darwina poprzez dobór naturalny była przyjęta przez naukowców od czasu jej zaproponowania w 1859 roku, mimo że mechanizm był początkowo nieznany (mówi się, że "biologia nie ma sensu bez ewolucji"). Ale dopiero w ciągu ostatnich kilku dekad teoria Darwina została w przeważającej mierze potwierdzona przez genetykę molekularną. Ogólna teoria względności Einsteina została natychmiast poparta znanym postępem peryhelium Merkurego, a wkrótce potem zaobserwowanym zakrzywieniem światła przez Słońce. Ale inne dowody przyszły powoli. Najbardziej zdumiewającym potwierdzeniem, prawie dokładnie sto lat po sformułowaniu swojej teorii przez Einsteina, było wykrycie fal grawitacyjnych w 2015 roku z dwóch łączących się masywnych czarnych dziur - dokładnie takiego złożonego i zawiłego sygnału, jaki przewidywała jego teoria. W fizyce cząstek elementarnych bozon Higgsa, przewidywany w 1964 roku, był ostatnim i kluczowym kamieniem węgielnym niezwykle udanego Modelu Standardowego i został ostatecznie wykryty w 2012 roku przez Wielki Zderzacz Hadronów, prawie 50 lat po jego przewidywaniu; w międzyczasie "wiedziano", że musi istnieć, a Model Standardowy kontynuował swoje sukcesy nawet przy braku wykrycia bozonu Higgsa. Teoria Newtona jest nadal używana w większości codziennych zastosowań, pomimo zmiany pojęciowej spowodowanej teorią względności Einsteina. Dzisiaj zarówno teoria strun, jak i koncepcja wieloświata mają wielu zwolenników, chociaż żadna z nich nie ma żadnego wsparcia eksperymentalnego ani obserwacyjnego; oba mają atrakcyjne cechy i wielu teoretyków pracuje nad nimi od dziesięcioleci, ale w tej chwili są to tylko hipotezy. Naukowcy są po prostu ludźmi i potrafią różnie reagować na wydarzenia naukowe. Załóżmy, że w jakiejś dziedzinie nauki zbudowano wspaniały "wielki gmach" wiedzy teoretycznej i eksperymentalnej. Przypuśćmy teraz, że w mgnieniu oka zostaje całkowicie zniszczony przez jeden przytłaczający negatywny eksperyment. Niektórzy naukowcy są zdruzgotani, a inni radują się. Zrujnowani są zszokowani, że tak piękna konstrukcja, stworzona przez dziesięciolecia drobiazgowych prac teoretycznych i eksperymentalnych, została zniszczona, najwyraźniej cofając naukę o lata. Inni cieszą się, że w końcu nauczyliśmy się czegoś nowego - w przeciwieństwie do wszystkich wyników, które jedynie potwierdziły i potwierdziły gmach. Oczywiście gmach nie jest faktycznie zniszczony; Modyfikowanie może zająć lata, ale wiedza w nim zawarta nigdy nie zostanie utracona.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (18)


Nauka aktywna i pasywna

Świat możemy poznawać na różne sposoby, wszystkie ważne. W eksperymentach mamy ogromną zaletę, że możemy zmieniać parametry (rozmiar, masę, czas, temperaturę, prędkość, prąd elektryczny, pole magnetyczne, właściwości chemiczne itp.), dzięki czemu badane zjawisko może być badane w różnych warunki. Dzieje się tak zazwyczaj w fizyce, chemii i kilku innych dziedzinach. Warunki laboratoryjne są kontrolowane i możemy powtarzać eksperyment tyle razy, ile chcemy, zmieniając parametry, aby wydobyć maksimum informacji. Ale kiedy nie ma się kontroli nad warunkami, jedyną opcją jest obserwacja i nagrywanie. Tak jest oczywiście w astronomii i w dużej części biologii. Jednak nawet w astronomii wciąż można stawiać hipotezy i wykorzystywać nowe obserwacje do ich testowania. Dzisiejsze obserwacje są niezwykle mocne. Dzięki satelitom można wykorzystać całe spektrum elektromagnetyczne. Przeglądy gwiazd i galaktyk nad ogromnymi obszarami nieba miały ogromne znaczenie w historii astronomii. Katalogi gwiazd sięgają czasów starożytnych, a w nowszej historii Tycho Brahe, William i John Herschel oraz wielu innych astronomów i głównych obserwatoriów krajowych wnieśli ważny wkład. Odkryto, że widma mogą ujawnić chemię i fizykę odległych gwiazd i galaktyk. Klasyfikacja gwiazd umożliwiła zrozumienie ich ewolucji za pomocą diagramu Hertzsprunga-Russella. "Zbieranie" gwiazd zmiennych przez Henriettę Leavitt doprowadziło do odkrycia zmiennych cefeid i skali odległości wszechświata. Współczesne katalogi galaktyk różnych typów na różnych długościach fal umożliwiły badanie ich ewolucji, a ostatecznie wielkoskalowej struktury i ewolucji Wszechświata. Nasze rozumienie wszechświata i jego zawartości jest niezwykłe, biorąc pod uwagę, że opiera się na "zwykłej obserwacji". Podczas badania zachowań i procesów poznawczych zwierząt zrozumiałe jest, że naukowcy początkowo wprowadzali zwierzęta do laboratorium i próbowali je przetestować w warunkach laboratoryjnych, tak jak robiłyby to z ludzkim niemowlęciem. Ale w końcu zdano sobie sprawę, że w badaniach nad wieloma gatunkami było to kontrproduktywne. Oczywiście większość zwierząt nie radziłaby sobie dobrze w sztucznym otoczeniu, a my naprawdę możemy wiedzieć, do czego są zdolne, obserwując je w ich naturalnym środowisku. Na szczęście opracowaliśmy wyrafinowane kamery, czujniki i inne urządzenia, które pozwalają nam obserwować ich "prywatne życie" w nocy, na drzewach, w ich tunelach, pod wodą, w locie oraz przy niskich i dużych prędkościach. Jednymi z najbardziej znanych wczesnych pionierów, którzy badali zwierzęta w ich naturalnym środowisku, byli Karl von Frisch, Konrad Lorenz i Nikolaas Tinbergen, którzy w 1973 r. wspólnie otrzymali Nagrodę Nobla w dziedzinie fizjologii lub medycyny "za odkrycia dotyczące organizacji i wywoływania indywidualnych i społecznych wzorców zachowań ". Tinbergen skomentował, że on i pozostali dwaj laureaci Nagrody Nobla byli początkowo uważani za "zwykłych obserwatorów zwierząt", ale mocno promował podejście "obserwowanie i zastanawianie się" w badaniu zachowania zwierząt. Wyniki tych i wielu innych badań na przestrzeni lat są zdumiewające i możemy być jedynie pod wrażeniem niesamowitych talentów innych zwierząt. Podobnie jak w astronomii, kolekcjonowanie i klasyfikacja również odgrywały kluczową rolę w naukach przyrodniczych. Sięgają one czasów starożytnych Greków: Arystoteles był "ojcem zoologii", a Teofrast był "ojcem botaniki". John Ray i Francis Willughby byli odpowiednikami podczas rewolucji naukowej, podróżując po Anglii i Europie kontynentalnej i torując drogę dla schematu klasyfikacji Carla Linneusza, który jest nadal używany. Sam Darwin był kolekcjonerem, a jego szeroka wiedza była oczywiście niezbędna do sformułowania teorii ewolucji przez dobór naturalny. Dziś znamy miliony gatunków: około 300 000 gatunków roślin, 70 000 gatunków grzybów, milion gatunków owadów, 300 000 gatunków innych zwierząt i znacznie więcej w mikroskopijnym świecie. Dzięki temu bogactwu informacji stało się możliwe zobaczenie relacji i złożenie jednego "drzewa życia", które jest centralne we współczesnej biologii. Zbieranie i badanie skamieniałości sięga tysięcy lat. Arystoteles zauważył, że niektóre skamieniałości w skałach były podobne do muszelek widzianych na plażach, co sugeruje, że skamieliny były niegdyś żywymi stworzeniami. Angielski inżynier William Smith zauważył na początku XIX wieku, że skały w różnym wieku (w oparciu o prawo superpozycji zaproponowane pod koniec XVII wieku przez Duńczyka Nicolasa Steno) zawierają różne grupy i typy skamieniałości, co sugeruje, że następowały one po sobie w zwykły sposób. Ta zasada "sukcesji faunalnej" stała się jednym z kluczowych dowodów ewolucji Darwina. Od czasów Darwina zapis kopalny został rozszerzony do mikroskamieniałości i stromatolitów sprzed ponad 3,4 miliarda lat. W XX wieku stało się możliwe wykorzystanie bezwzględnych metod datowania radiometrycznego do weryfikacji i poprawy względnego wieku skamieniałości, a zapis kopalny obejmuje obecnie wszelkie zachowane szczątki niegdyś żyjącego stworzenia, od kości, muszli i egzoszkieletów po skamieniałe drewno, włosy oraz fragmenty DNA. Skamieniałości odegrały kluczową rolę w ustaleniu teorii ewolucji Darwina i pozostają ważne do dziś, dodając kolejne ważne szczegóły do drzewa życia. Dzisiejsze "kolekcje" stały się tak ogromne, że mówi się o "Big Data". Ogromne, jednorodne bazy danych wszelkiego rodzaju mogą być analizowane w sposób, który nigdy wcześniej nie był możliwy. Dane można "wydobyć" pod kątem bardzo subtelnych lub bardzo rzadkich zjawisk, których nigdy nie można wykryć w małych próbkach. To nowy sposób uprawiania nauki - nowe narzędzie do odkrywania - a zastosowań jest nieskończona. Jeden z nich polega na wykorzystaniu uczenia komputerowego i sztucznej inteligencji, aby znaleźć obiecujące cząsteczki dla nowych leków z podzbiorów setek miliardów cząsteczek w ogromnym wszechświecie chemicznym. Innym jest wykorzystanie komputerów do porównywania noc po nocy cyfrowych obrazów tych samych pól setek tysięcy gwiazd w poszukiwaniu rzadkich i nieznacznych zmian jasności poszczególnych gwiazd - oznak wewnętrznych procesów fizycznych, planet pozasłonecznych lub soczewek grawitacyjnych. System o nazwie DNAStack został opracowany przez Google, aby pomóc globalnej społeczności genetyków w organizacji i analizie ogromnej liczby próbek DNA z całego świata w celu identyfikacji chorób i defektów, zapewniając nauce moc obliczeniową na skalę przemysłową. Wielki Zderzacz Hadronów wytwarza 600 milionów zderzeń protonów na sekundę, z których tylko około sto jest interesujących; wymaga to filtrowania w czasie rzeczywistym i odrzucania ponad 99,9999% zdarzeń. Starożytne sztuki kolekcjonowania i analizowania wymagają obecnie najpotężniejszych komputerów i sztucznej inteligencji. Odkrywa to bogate źródło nowej wiedzy. Może obejmować eksplorację, obserwację, eksperyment, a często przypadek. Galileusz skierował teleskop w niebo i odkrył wiele cudów. Fraunhofer odkrył ostre linie absorpcyjne w widmie Słońca. Maxwell odkrył, że stała w jego równaniach jest równa prędkości światła. Lemaître i Hubble odkryli ekspansję wszechświata. Crick i Watson odkryli strukturę podwójnej helisy DNA. Mayor i Queloz odkryli pierwszą planetę pozasłoneczną. W 1981 roku Martin Harwit opublikował przełomową książkę zatytułowaną Cosmic Discovery. Omówił w nim koncepcję wielowymiarowej obserwacyjnej przestrzeni parametrów w dziedzinie astronomii. Parametry obejmują rodzaj nadchodzącego nośnika (fotony, promienie kosmiczne, neutrina lub fale grawitacyjne), długość fali lub energię nośnika, który można wykryć, rozdzielczość kątową, widmową i czasową instrumentu, właściwości polaryzacyjne, czułość oraz czas i kierunek obserwacji. Każdy parametr jest osią w tej wielowymiarowej przestrzeni. Celem jest prowadzenie obserwacji, które są otwarte na największą możliwą objętość w tej obserwacyjnej przestrzeni parametrów, aby zmaksymalizować szansę na nowe odkrycie ("świadome oczekiwanie nieoczekiwanego"). Harwit uważał "odkrycie" za zjawisko, które jest oddzielone od innych co najmniej tysiąckrotnie w dowolnym parametrze. Ta koncepcja była bardzo przydatna w myśleniu o nowych obserwacjach lub eksperymentach. Oprócz ukierunkowania pomiaru lub zjawiska na wynik, który jest praktycznie gwarantowany ("znana niewiadoma", w żargonie zarządzania ryzykiem i NASA, co zadowoliłoby konserwatywną komisję przeglądową), wszelkie obserwacje, eksperymenty, nowy teleskop lub nowy instrument powinien być również otwarty na nieoczekiwane nowe odkrycia ("nieznane niewiadome"). Taka była również filozofia usprawiedliwiająca przenoszenie małych detektorów lub eksperymentów na duże teleskopy naziemne, podczas gdy te wykonują swoje główne misje - piggy-backers są niedrogie, ale mogą zapewnić ogromne korzyści w postaci zupełnie nowych i nieoczekiwane odkrycia. Istnieje wiele innych możliwych sposobów "planowania" odkryć. Na przykład, gdy duży obszar nieba został zbadany zarówno za pomocą obrazowania wielokolorowego, jak i spektroskopii, zamiast od razu szukać nieznanego, można zacząć od poszukiwania znanego. Baza danych milionów obiektów może być najpierw przeanalizowana automatycznie przez komputer, który identyfikuje znane klasy obiektów (gwiazdy, galaktyki itp.) i umieszcza je w "znanym" pliku; pozostałe obiekty to te interesujące, które należy badać jeden po drugim, aby odkryć nowe zjawiska. Odkrywanie jest jedynym sposobem poznania wielu zjawisk. Na przykład pulsary nigdy nie były przewidywalne. Są to niezwykle regularne błyski światła wytwarzane przez szybko obracające się jądra zapadniętych gwiazd. Są zbyt skomplikowane i obejmują zbyt wiele nieprawdopodobnie nałożonych warstw fizyki. Podobnie wiele zjawisk w złożonym świecie biologii można poznać tylko poprzez odkrycie. Mówi się, że we wszechświecie "to, co nie jest surowo zabronione, jest absolutnie obowiązkowe". Natura wymyśli na to sposób. I tylko odkrycie go znajdzie.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (17)


Samotność i praca zespołowa

To naprawdę niezwykłe, jak samotna była nauka o aktywności do ostatniego półwiecza. Jak wspomniano powyżej, prawie 90% prób jednych z najważniejszych naukowców na świecie urodzonych przed 1900 r. pracowało samotnie. Współczesny świat naukowy, w którym żyjemy, ze wszystkimi jego technicznymi cudami, jest dziełem zaledwie kilkuset kluczowych naukowców, którzy pracowali głównie w pojedynkę. Oczywiście utrzymywali kontakt z innymi poprzez kontakty, publikacje, korespondencję i dziwne spotkania, a wielu naukowców pracowało na uniwersytecie lub instytucie, gdzie możliwe były codzienne interakcje. Ale w dużej mierze sami wykonywali swoją pracę. Pomyśl o nazwiskach takich jak Kopernik, Galileo, Newton, Hooke, Herschel, Einstein, Hubble, Zwicky, Boyle, Black, Priestly, Cavendish, Lavoisier, Dalton, Mendelejew, Boltzmann, Planck, de Broglie, Schroodinger, Huygens, Young, Faraday , Maxwella, Lyella, Darwina i Mendla. Chociaż wszyscy żyli i mieszali się w społeczeństwie, ich praca naukowa należała wyłącznie do nich. Na przestrzeni lat zdarzały się przypadki, w których kilku naukowców połączyło siły, na przykład Tycho z Keplerem jako asystentem, Ray z Willughbym oraz Michelson i Morley. Ale te przypadki były rzadkie przed ostatnim stuleciem. Zdarzały się również przedsięwzięcia naukowe, w których brały udział zespoły składające się z setek, jeśli nie tysięcy naukowców, ale prawie wszystkie z nich były całkiem nowe. Jedyną dużą współpracą przed ostatnim stuleciem był tranzyt ekspedycji Wenus w latach 1761 i 1769. Były to prawdziwie międzynarodowe kolaboracje - stu lub dwustu obserwatorów z dziewięciu lub dziesięciu krajów, którzy podróżowali po całym świecie, aby prowadzić obserwacje. Ponieważ były one uważane za "misje dla całej ludzkości", uczestniczące kraje nakazały swoim wojskom wsparcie obserwatorów podróżujących przez ich ziemie, nawet jeśli kraje te były ze sobą w stanie wojny. To były niezwykłe i wyjątkowe przedsięwzięcia. W ostatnim czasie miały miejsce kolaboracje na ogromną skalę. Wielkie akceleratory cząstek i ich detektory są niezwykle drogie i niezwykle złożone, w co zaangażowały się tysiące naukowców. Wielki Zderzacz Hadronów to wspólny wysiłek 21 państw członkowskich CERN i kilku innych krajów, z centrami obliczeniowymi w 35 krajach i angażujący tysiące naukowców i techników. Astronomia stała się również "wielką nauką". Duże teleskopy optyczne i radiowe oraz ich oprzyrządowanie są drogie, a duże międzynarodowe zespoły często angażują się nie tylko w tworzenie tych obiektów, ale także w analizę i publikowanie wyników naukowych. Satelity i misje kosmiczne są również bardzo drogie i ponownie zaangażowane są setki naukowców. Dwa zespoły, które odkryły przyspieszenie ekspansji Wszechświata, obejmowały kilkudziesięciu indywidualnych naukowców, a współpraca, która odkryła fale grawitacyjne w 2015 roku, zaangażowała ponad tysiąc naukowców pracujących w ponad 80 instytucjach naukowych. Projekt genomu ludzkiego obejmował tysiące osób pracujących na ponad 20 uniwersytetach i instytutach w sześciu krajach. Pozostaje największym na świecie wspólnym projektem w naukach przyrodniczych. Przyglądając się historii nauki podanej w rozdz. 2, jasne jest, że duża współpraca jest nowym zjawiskiem, które pojawiło się zaledwie w ciągu ostatnich kilkudziesięciu lat i jest obecnie stałą cechą współczesnej nauki.

Znajomości

Czasami osobiste powiązania pomogły naukowcom na różne krytyczne sposoby, na przykład zająć strategiczne pozycje, które umożliwiłyby im osiągnięcie ich celów naukowych lub zdobycie środków lub wskazówek, które pomogą im w ich pracy. Jedno bardzo szczęśliwe połączenie powstało na początku XVII wieku - takie, które utorowało drogę Newtonowi do stworzenia jego teorii powszechnej grawitacji. Kiedy astronom Tycho Brahe przeniósł się do Pragi w 1600 roku wraz ze swoim obszernym zestawem dokładnych danych astronomicznych, zatrudnił młodego matematyka Johannesa Keplera jako swojego asystenta. Wkrótce potem Tycho zmarł, a Kepler miał pełny dostęp do cennych danych. Dzięki matematycznemu zapleczu i kopernikańskiemu modelowi Kepler był w końcu w stanie wyprowadzić swoje trzy prawa ruchu planet, które były kluczowe dla prac Newtona kilkadziesiąt lat później. Inne połączenie pomogło uruchomić prace Newtona nad powszechną grawitacją. Edmund Halley, znajomy Newtona z Royal Society, złożył ważną wizytę w Newton w 1684 roku, wspominając dyskusję, jaką odbył z Robertem Hooke i Christopherem Wrenem na temat tego, czy odwrotne kwadratowe prawo przyciągania może wyjaśnić prawa Keplera. W ciągu kilku miesięcy Newton udowodnił, że może, a w ciągu dwóch lat opublikował Principia. Dla kariery Karola Darwina kluczowe znaczenie miało także osobiste powiązanie. Podczas pobytu w Cambridge Darwin studiował pod kierunkiem Johna Henslowa, profesora botaniki, który bardzo cenił Darwina. W 1831 roku, kiedy Admiralicja przygotowywała wyprawę pomiarową, którą miał przeprowadzić HMS Beagle pod dowództwem kapitana Roberta FitzRoya, Henslow zaproponował zaproszenie Darwina do udziału w ekspedycji w celu zbadania historii naturalnej i geologii Ameryki Południowej. Darwin chętnie zaakceptował, a reszta, jak mówią, jest historią. Innym ważnym połączeniem w historii nauki była przyjaźń uczniów, którą Einstein nawiązał z Marcelem Grossmannem. Kiedy Einstein był bezrobotny przez dwa lata po ukończeniu ETH, to teść Grossmanna pomógł mu znaleźć pracę w Szwajcarskim Urzędzie Patentowym w Bernie. I właśnie wtedy, gdy Einstein pracował w Bernie, miał błyskotliwe spostrzeżenia, które doprowadziły do jego czterech słynnych artykułów w 1905 roku. Kiedy Francis Crick i James Watson próbowali zrozumieć strukturę DNA w Cambridge na początku lat pięćdziesiątych, byli w pełni świadomi kluczowe zdjęcia rentgenowskie zostały uzyskane przez Rosalind Franklin w grupie kierowanej przez Maurice'a Wilkinsa w King's College w Londynie. W krytycznym momencie, w styczniu 1953 roku, Wilkins pokazał im najlepsze obrazy Franklina bez wiedzy i zgody Franklina. To nieautoryzowane "połączenie" dało Crickowi i Watsonowi jedną z ostatnich wskazówek do rozwiązania struktury DNA. (Franklin był wówczas także bliski rozwiązania; niestety zmarła w 1958 roku, cztery lata przed przyznaniem za tę pracę Nagrody Nobla - Crickowi, Watsonowi i Wilkinsowi).

Zapylenie krzyżowe

Przeniesienie wiedzy zdobytej w jednej dziedzinie na inną może być niezwykle korzystne. To może być rewolucyjne. Może się to zdarzyć na kilka sposobów - naukowcy z dwóch różnych dziedzin rozmawiają ze sobą, naukowiec czytający lub przenoszący się do innych dziedzin lub adoptujący nową technologię z innej dziedziny. W 1943 roku znany fizyk Erwin Schrödinger wygłosił w Dublinie serię publicznych wykładów na temat wykraczający poza jego własną dziedzinę wiedzy - życie. Zastanawiał się, jak podstawowa fizyka i chemia w komórce mogą wyjaśnić tajemnice życia. Na podstawie swoich wykładów napisał w 1944 roku bardzo wpływową książkę zatytułowaną Czym jest życie? Książka ta przyciągnęła uwagę wielu innych, między innymi Francisa Cricka. Crick był fizykiem, który pracował nad projektami wojennymi, a w 1947 zaczął studiować biologię, po części motywowany książką Schrödingera. Udał się do Cambridge, gdzie poznał Jamesa Watsona, a ich współpraca doprowadziła do odkrycia struktury DNA. W latach 80. Crick zajął się innym ze swoich zainteresowań: świadomością. Zdał sobie sprawę, że świadomość od dawna była uważana za temat tabu przez wielu neuronaukowców, i w 1994 roku opublikował książkę The Astonishing Hypothesis: The Scientific Search for the Soul, w której twierdził, że neuronauka rozwinęła się do takiego stopnia, że powinna być zdolna. badania, w jaki sposób mózg może wytwarzać świadome doświadczenia. Jego książka była inspirująca, a badanie świadomości stało się aktywnym polem badań. Robert May to kolejny fizyk, który przeniósł się do nauk przyrodniczych. Jest fizykiem teoretykiem, który zainteresował się dynamiką populacji zwierząt. Wniósł znaczący wkład w dziedzinę biologii populacyjnej, wykorzystując swoje umiejętności matematyczne, pomógł rozwinąć ekologię teoretyczną i zastosował te narzędzia do badań nad chorobami i bioróżnorodnością. Niektóre dziedziny matematyki rozwinięte dawno temu zostały przyjęte i wykorzystane do zupełnie nieprzewidzianych celów. Transformacja Fouriera, opracowana przez Josepha Fouriera na początku XIX wieku dla jego badań nad przepływem ciepła, jest centralnym narzędziem w krystalografii rentgenowskiej i radioastronomii; "szybka transformata Fouriera" jest główną funkcją Wi-Fi, z której wszyscy dzisiaj korzystamy. A wielowymiarowa geometria Riemanna, opracowana z czystego zainteresowania w połowie XIX wieku, została wykorzystana przez Einsteina siedemdziesiąt lat później w jego ogólnej teorii względności.

Timing

Często zdarza się, że czas jest "właściwy" na dokonanie konkretnego odkrycia naukowego lub rozwoju. Nauka dokonana w ciągu poprzednich lat lub dziesięcioleci przygotowała drogę i wszystko, co jest potrzebne, to aby naukowiec (naukowcy) wykonali decydujący krok. Czasami powoduje to, że dwóch lub więcej naukowców ma ten sam pomysł w tym samym czasie. Kilka głównych odkryć przedstawionych w rozdz. 2 zostały wykonane niezależnie przez różne osoby lub zespoły. Teoria ewolucji przez dobór naturalny została opracowana niezależnie przez Darwina i Wallace′a i Darwinowi przypisuje się to. Układ okresowy pierwiastków został opracowany niezależnie przez czterech naukowców, a Mendelejew otrzymał uznanie. Prawa dziedziczenia Mendla zostały odkryte niezależnie przez pięciu naukowców, ale w tym przypadku Mendel wyprzedził pozostałych czterech o 30 lat, więc przysługiwał mu. Ekspansję wszechświata zaproponowali zarówno Georges LemaÎtre, jak i Edwin Hubble; Hubble miał przekonujące dane i otrzymał uznanie. Strukturę DNA odkryli zarówno Franklin, jak i Crick i Watson; Crick i Watson szybciej napisali wynik, więc otrzymali uznanie. Mikrofalowe tło zostało przypadkowo odkryte przez Penziasa i Wilsona, ale Dicke i jego zespół budowali w tym momencie teleskop specjalnie po to, by je znaleźć, i zrobiliby to w ciągu kilku miesięcy. Przyspieszenie ekspansji wszechświata zostało odkryte przez zespoły Perlmuttera oraz Schmidta i Reissa zasadniczo w tym samym czasie. Istnieje wiele innych przykładów. Pod koniec XVII wieku nadszedł czas na powszechne prawo grawitacji. Galileusz dostarczył decydujących dowodów dotyczących prawa grawitacji na powierzchni Ziemi, a Kepler przedstawił swoje trzy prawa ruchu planet. Edmund Halley, Robert Hooke i Christopher Wren z Towarzystwa Królewskiego dyskutowali o możliwości wyjaśnienia praw Keplera za pomocą odwrotnego kwadratu prawa przyciągania. Można się jednak zastanawiać, czy ktokolwiek poza Newtonem mógł to wszystko połączyć w tak przytłaczające arcydzieło jak Principia. Podobnie na początku XX wieku każdy fizyk wiedział, że prędkość światła w równaniach Maxwella jest stała, a eksperyment Michelsona-Morleya nie znalazł dowodów na istnienie "eteru". Ale znowu, wymagało to geniuszu Einsteina, aby przepracować swoje "eksperymenty myślowe" i wymyślić specjalną teorię względności. Jego ogólna teoria względności również była arcydziełem, chociaż w tym przypadku nikt inny nie był bliski zrobienia tego, co on robił. Kiedy zastosował ją do wszechświata, stała się (i nadal jest) teoretyczną ramą kosmologii. Ale inni szybko doszli do wielu jego implikacji. W dzisiejszych zatłoczonych dziedzinach nauki nie dziwi fakt, że wielu naukowców martwi się możliwością "złapania" przez innego naukowca, który tylko trochę szybciej publikuje ten sam wynik.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (16)


Determinacja

To imponujące, jak wiele z tych osób naprawdę walczyło o zdobycie pozycji, w której mogliby uprawiać naukę. Byli silnie zmotywowani, wytrwali i zdeterminowani. Sam Galileusz najpierw wstąpił do klasztoru, a następnie został studentem medycyny, zanim w końcu zakochał się w matematyce i porzucił uniwersytet, aby zostać nauczycielem matematyki i filozofii naturalnej. Newton został zabrany ze szkoły w wieku 16 lat, aby zarządzać rodzinną farmą. Uciekł przed tym losem i udało mu się uzyskać posadę w Cambridge. W dużej mierze zignorował formalny program nauczania, aby poświęcić się nauce i matematyce. Na szczęście poradził sobie na tyle dobrze, że mógł zostać w Cambridge. Pracował jako samotnik, często z wielką intensywnością, a jego Principia była absolutnym tour de force. Herschel zbudował własne gigantyczne teleskopy i spędził dekady samotnych nocy badając niebo. Humphry Davy, syn farmera, nie miał formalnego wykształcenia poza prowincjonalnym gimnazjum. Nauczył się francuskiego, a w wieku 18 lat przeczytał arcydzieło Lavoisiera w oryginalnym języku. Udało mu się zostać asystentem w instytucie badawczym w Bristolu, gdzie zasłynął ze swoich eksperymentów, a w wieku 23 lat został profesorem chemii w Royal Institution w Londynie. John Dalton również zaczynał od skromnych początków, jako syn tkacza. Uczęszczał do lokalnej szkoły, a gdy miał zaledwie 15 lat, dołączył do swojego brata w prowadzeniu szkoły Quaker. Wygłaszał również publiczne wykłady i ostatecznie był w stanie utrzymać się jako prywatny nauczyciel w Manchesterze, dając mu czas na wykonywanie swojej słynnej nauki. Matka Karola Darwina zmarła, gdy miał osiem lat, a podstawowe wykształcenie otrzymał w szkole z internatem. W wieku 16 lat został wysłany do szkoły medycznej w Edynburgu, ale zmienił się na kursy z historii naturalnej. Następnie został wysłany do Cambridge na wykształcenie odpowiednie dla duchownych, ale będąc upartym, ponownie przeszedł na kursy z historii naturalnej. Niedługo po ukończeniu studiów otrzymał list, który zmienił jego życie - zaproszenie do wyprawy na Beagle. Dymitr Mendelejew był najmłodszym w 14-osobowej rodzinie na Syberii. Jego ojciec oślepł i zmarł, gdy Mendelejew miał 13 lat. Jego matka próbowała opiekować się rodziną i zabrała Mendelejewa do Sankt Petersburga, aby otrzymać wykształcenie. Początkowo nie mogąc dostać się na uniwersytet, został studentem-nauczycielem, zanim mógł studiować chemię i rozpocząć karierę naukową. Gregor Mendel urodził się w biednej rodzinie rolniczej. Wykształcenie podstawowe otrzymał w miejscowej szkole i odbył dwuletnie studia uniwersyteckie, zanim skończyły mu się pieniądze. Został zakonnikiem w klasztorze, co ostatecznie doprowadziło do ukończenia uniwersytetu i powrotu do klasztoru, gdzie prowadził swoje słynne badania. Mówią, że "naukowiec z problemem jest jak pies z kością" - jest zdeterminowany i nie podda się. Na przestrzeni lat było kilka niezwykłych przykładów tej wytrwałości. Albert Einstein przez całe życie wykazywał niezwykłą determinację. Poszedł do szkoły w Monachium, ale nienawidził szkolnego reżimu i wyjechał, aby dołączyć do swojej rodziny, która przeniosła się do Włoch. W tym czasie napisał krótki artykuł na temat stanu eteru w polu magnetycznym - zapowiedź tego, co ma nadejść. W wieku 16 lat próbował, ale nie udało mu się zapisać do prestiżowego ETH w Zurychu, i ukończył szkołę średnią w lokalnej szwajcarskiej szkole. Następnie udało mu się wejść do ETH i ukończył ich program z matematyki i fizyki. Spędził dwa frustrujące lata na poszukiwaniu pracy, aż w końcu, dzięki znajomości (Marcel Grossmann), został egzaminatorem w szwajcarskim urzędzie patentowym w Bernie. Tam napisał swoje słynne artykuły z 1905 roku, początek jego gwiezdnej kariery. Przez następne dziesięć lat męczył się i zmagał z nowym projektem, który miał zakończyć się jednym z największych naukowych triumfów w historii. Wiedział, że jego szczególna teoria względności jest niekompletna, ponieważ dotyczy tylko ruchu jednostajnego, i chciał uogólnić ją tak, aby obejmowała grawitację i przyspieszenie. W 1907 miał to, co nazwał "najszczęśliwszą myślą w moim życiu": równoważność masy grawitacyjnej i bezwładnej, zwaną "zasadą równoważności". Zdał sobie sprawę, że grawitacja zagina promienie świetlne i spowalnia zegary. W 1911 zaczęły się pojawiać pewne podstawowe cechy ogólnej teorii względności, ale dopiero w 1912 zdał sobie sprawę, że właściwa teoria wymaga geometrii nieeuklidesowej. Na szczęście był to właśnie obszar wiedzy jego starego przyjaciela Marcela Grossmanna, który zapoznał Einsteina z pracami Bernharda Riemanna, wielkiego matematyka, który w latach pięćdziesiątych XIX wieku opracował geometrię wielowymiarowej przestrzeni zakrzywionej. Fizyczna teoria ogólnej teorii względności wymagałaby czterowymiarowej czasoprzestrzeni, w której "czasoprzestrzeń mówi materii, jak się poruszać, a materia mówi czasoprzestrzeni, jak się zakrzywiać" (według słów fizyka Johna Wheelera). Einstein i Grossmann wspólnie realizowali dwie przeciwstawne strategie, jedną wychodząc od znanych wymagań fizyki klasycznej, a drugą wychodząc od czysto matematycznego formalizmu. Mieli nadzieję, że zbiegną się one w jedną poprawną teorię. Einstein i Grossmann otrzymali teorię, która spełniała wymagania fizyczne, ale nie była prawidłowa we wszystkich układach współrzędnych - to znaczy, że nie była ogólnie kowariantna. To było rozczarowanie, ale uznali, że to najlepsze, co można było zrobić, i w 1913 opublikowali to w tak zwanym artykule Entwurf (Zarys). W tym samym roku Einstein i Michele Besso użyli równań pola Entwurfa do obliczenia dobrze znanego postępu peryhelium Merkurego; uzyskana przez nich wartość była znacznie mniejsza niż obserwowana. W tym samym artykule zbadali obracające się układy odniesienia i uzyskali błędny wynik, który ich zdaniem potwierdzał słuszność zasady Macha - że bezwładność jest wynikiem połączonego efektu całej materii we wszechświecie, a nie "przestrzeni absolutnej" fizyki Newtona. Te nieprawidłowe wyniki, w połączeniu z dokuczliwą obawą Einsteina, że równania pola Entwurfa nie są ogólnie kowariantne, skłoniły go do wznowienia wysiłku jesienią 1915 r. Tym razem zaczął od matematycznego punktu widzenia i zażądał ogólnej kowariancji. W szaleńczym wysiłku układał kawałki w całość. Wśród tego wszystkiego miał przedstawić cztery artykuły w Królewskiej Pruskiej Akademii Nauk w listopadzie 2015 roku. W pierwszym z nich szczerze podsumował wszystkie błędy, które popełnił w ciągu ostatnich kilku lat, wyjaśnił swoje ponowne poszukiwania kowariancji równania pola i triumfalnie przedstawił swój nowy wynik. W drugim wykładzie wprowadził niewielką, ale znaczącą poprawę. W trzecim wykazał, że jego nowa teoria dała poprawny wynik dla postępu peryhelium Merkurego. A w czwartym i ostatnim wykładzie zrobił ostatni, decydujący krok; w ten sposób osiągnął swój cel, jakim była prawdziwie kowariantna teoria ogólnej teorii względności - ogromne osiągnięcie intelektualne i monumentalny krok w nauce. Einstein sam był zdumiony siłą formalizmu matematycznego, która prowadzi do poprawnej teorii. O swoich zmaganiach skomentował jednemu koledze "niestety uwieczniłem swoje ostatnie błędy w tej bitwie w papierach akademickich", drugiemu "co roku [Einstein] wycofuje to, co napisał rok wcześniej", a do trzeciego podpisał słowami "zadowolony, ale kaput". Einstein, zdeterminowany do końca, spędził resztę życia na donkiszotowskim wysiłku aby stworzyć zunifikowaną teorię, która łączyłaby grawitację i elektromagnetyzm. Nigdy mu się to nie udało i nawet dzisiaj zunifikowana teoria łącząca wszystkie siły natury pozostaje świętym Graalem współczesnej fizyki. Innym bardzo zdeterminowanym naukowcem był niemiecki meteorolog Alfred Wegener, który był pod wrażeniem tego, że kształty dzisiejszych kontynentów na mapie świata wydają się pasować do siebie jak gigantyczna układanka. Czy to możliwe, że kontynenty były w przeszłości razem, a z czasem rozeszły się? Inni spekulowali na ten temat już wcześniej (nawet wracając do Aberhama Orteliusa w XVI wieku), ale Wegener zaczął go bardziej brać na serio. Porównał typy skał, geologię i skamieniałości po przeciwnych stronach Oceanu Atlantyckiego i stwierdził, że wydają się one do siebie w znacznym stopniu do siebie pasować. W 1912 zaproponował, że kontynenty rzeczywiście się rozeszły, a w 1915 opublikował książkę O powstawaniu kontynentów i oceanów. Ale jego teoria była w większości wyśmiewana, głównie z powodu braku przekonującego mechanizmu. Jego przeciwnikami byli zawodowi geolodzy, którzy widzieli w nim outsidera, a jego raczej dogmatyczny styl nie pomagał. Niemniej jednak był zdeterminowany, trzymał się swojej teorii i nadal przedstawiał więcej dowodów. Niestety zginął podczas wyprawy na Grenlandię w 1930 roku w wieku 50 lat, kilkadziesiąt lat wcześniej zanim jego teoria została ostatecznie i dramatycznie potwierdzona. Na początku lat sześćdziesiątych napływały nowe, niezwykłe dowody wspierające teorię "dryfu kontynentalnego", a pod koniec tej dekady teoria ta została w przeważającym stopniu potwierdzona. Wiele nowych dowodów pochodzi z badań dna morskiego za pomocą echosond i magnetometrów, które ujawniły rozległe grzbiety śródoceaniczne sączące się z magmy, powodujące równoległe strefy odwracających się kierunków pola magnetycznego, promieniujących symetrycznie po obu stronach jak paski zebry - w efekcie gigantyczny magnetofon okresowych przeskoków w polu magnetycznym Ziemi. Tempo oddzielenia obu Ameryk od Europy i Afryki wynosi kilka cm rocznie - mniej więcej tak szybko, jak rosną paznokcie, wystarczająco szybkie, aby można je było rutynowo obserwować w czasie rzeczywistym za pomocą pomiarów GPS i wystarczająco, aby Ocean Atlantycki uformował się w zaledwie 200 miliony lat, bardzo krótko w geologicznej skali czasu. Niedawno w Australii, oddalonej o 11 000 km, znaleziono kawałek tarczy kanadyjskiej, co potwierdza istnienie superkontynentu, który zaczął się rozpadać ponad miliard lat temu. Wegener jest teraz honorowany jako ojciec założyciel tej wielkiej rewolucji naukowej. Jeszcze innym przykładem determinacji jest Leonard Hayflick, badający niektóre właściwości komórek zwierzęcych i ludzkich od 1958 roku. Od dawna "wiedziano", że wszystkie normalne komórki są nieśmiertelne. Kiedy Hayflick badał hodowle tkankowe, ku swojej frustracji odkrył, że komórki, nad którymi pracował, reprodukowały się tylko ograniczoną liczbę razy - około 50 razy w jego badaniach. Walczył, żeby zobaczyć, co robi źle, ale w końcu przyszło mu do głowy, że być może komórki rzeczywiście mają skończone czasy życia. On i jego kolega Paul Moorhead przeprowadzili następnie skrupulatne eksperymenty w 1961 roku, pokazując, że rzeczywiście tak jest, ale ich artykuł, który zaprzeczał półwiecznemu dogmatowi, został początkowo odrzucony. Potrzeba było czasu, aby ich wyniki zostały powszechnie zaakceptowane, ale odkrycie zostało ostatecznie okrzyknięte wielkim przełomem, a zjawisko stało się znane jako "limit Hayflicka". Było to monumentalne odkrycie, pokazujące, że komórka ma kluczowe znaczenie zarówno dla śmierci, jak i dla życia. Od tego czasu stwierdzono, że limit Hayflicka jest związany z długościami niekodującymi powtarzające się sekwencje zlokalizowane na końcach nici DNA zwanych telomerami; chronią one DNA, dopóki nie zostaną wyczerpane przez kolejne replikacje, kiedy komórka umiera. Z drugiej strony istnieje enzym zwany telomerazą, który może uzupełniać telomery i nieśmiertelność niektórych komórek (takich jak komórki macierzyste i komórki rakowe). Te i późniejsze badania miały poważne konsekwencje dla biologii komórki i ogólnych dyskusji na temat starzenia się. Zaskakującą konsekwencją ograniczenia Hayflicka jest to, że atomy i cząsteczki w naszych ciałach pojawiają się i znikają z czasem; są nieustannie wymieniane. Skala czasowa zależy od rodzaju tkanki - w niektórych przypadkach dni, w innych lata. Przez dziesięciolecia praktycznie wszystkie atomy w naszym ciele zostały zastąpione. Więc jeśli spojrzysz na zdjęcie zrobione sobie 20 lub 30 lat temu, patrzysz na zupełnie inne ciało - żaden z atomów i cząsteczek tej osoby nie jest teraz w tobie obecny! Przechowywana jest informacja, a nie atomy. Informacje są zakodowane w twoim DNA i mózgu; jest to ta informacja, która określa, kim jesteś i nadaje ci tożsamość na całe życie. Badacz z Perth w Australii Zachodniej był tak zdeterminowany, że ryzykował życiem, aby udowodnić swoją teorię. Od dawna wierzono, że śmiertelne wrzody żołądka i dwunastnicy są spowodowane stresem, a firmy farmaceutyczne zarabiały miliardy dolarów rocznie na lekach zobojętniających. Ale pod koniec lat 70. patolog Robin Warren z Perth Australia zauważył, że małe zakrzywione bakterie często znajdują się w pobliżu obszarów zapalnych. Barry Marshall był młodym stażystą w tym samym szpitalu i zainteresował się odkryciami Warrena. W 1982 roku oboje rozpoczęli badanie biopsji od stu pacjentów. Odkryli, że wszyscy pacjenci z wrzodami dwunastnicy mieli nadmiar bakterii, które stały się znane jako Helicobacter pylori, a następnie zdali sobie sprawę, że to właśnie te bakterie faktycznie spowodowały wrzody. Kiedy ogłosili swoje odkrycia, nastąpiła burza niedowierzania. Ich artykuł został odrzucony. Zdali sobie sprawę, że ich odkrycia zagrażają nie tylko przemysłowi wartemu 3 miliardy dolarów, ale także całej dziedzinie gastroendoskopii. Aby definitywnie udowodnić swój przypadek, musieli zarazić zwierzęta tymi bakteriami. Nie byli w stanie tego zrobić na szczurach lub myszach, ponieważ H. pylori atakuje tylko naczelne. W desperacji, wiedząc oczywiście, że nie może przeprowadzić eksperymentu na innym człowieku, Marshall wyhodował niektóre bakterie od pacjenta, zmieszał je z bulionem i sam wypił! Po 5 dniach zachorował, a 10 dni później, gdy endoskopia wykazała niezliczone ilości bakterii, zapalenia i zapalenia żołądka, zażył antybiotyki i został wyleczony. Jego eksperyment na sobie był znany na całym świecie, a on i Warren zostali nagrodzeni w 2005 roku Nagrodą Nobla w dziedzinie fizjologii lub medycyny "za odkrycie bakterii Helicobacter pylori i jej roli w zapaleniu żołądka i chorobie wrzodowej". Dramatyczny przykład bardzo zdeterminowanego naukowca.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (15)


Ciekawość

Ciekawość była głównym motorem - być może głównym motorem - prawie wszystkich naukowców opisanych w historii wcześniej. Ze słownikowych definicji jest to "chęć poznania lub nauczenia się czegoś". Dlatego często prowadzi to do eksperymentu, obserwacji lub koncepcji, których wynik lub implikacje nie są jeszcze znane: "Zastanawiam się, co by się stało, gdyby … ". Kopernik zastanawiał się, jak wyglądałby Układ Słoneczny, gdyby uważano, że Słońce znajduje się w centrum, a nie Ziemia, i wymyślił implikacje. Galileusz był ciekaw, jak szybko kulki o różnych masach staczają się po pochyłych płaszczyznach i obserwował niebo przez jego nowy teleskop. Newton chciał zrozumieć właściwości światła. Halley był zaintrygowany tym, czy gwiazdy poruszają się po niebie. Young był ciekaw, co by się stało, gdyby światło przeszło przez dwie bliskie równoległe szczeliny. Faraday zastanawiał się, czy magnes może indukować prąd elektryczny. Darwin chciał wiedzieć, jak ewoluowały gatunki. Mendel interesował się dziedzicznością grochu. Michelson i Morley byli zainteresowani tym, czy mogą wykryć eter za pomocą eksperymentów na świetle. Einstein zastanawiał się, jak by to było jeździć na wiązce światła i wymyślił swoją słynną specjalną teorię względności. Rutherford był ciekaw, co by się stało, gdyby cząstki alfa zostały wrzucone do złotej folii. Millikan chciał wiedzieć, czy może obalić efekt fotoelektryczny Einsteina. Gamow chciał wiedzieć, jakie byłyby konsekwencje, gdyby nasz wszechświat zaczął się w gorącej i gęstej fazie. Hamilton zastanawiał się, jak organizm mógłby skorzystać z pomocy swoim krewnym. Perlmutter, Schmidt, Riess i ich koledzy byli ciekawi, jak ewoluowała ekspansja wszechświata. Czysta ciekawość zawsze była głównym motorem nauki. Niedawnym imponującym przykładem jest Nicky Clayton, która zaczęła obserwować zachowanie zachodnich sójek podczas przerwy na lunch na trawnikach Uniwersytetu Kalifornijskiego w Davis. W przeciwieństwie do większości z nas, którzy po prostu od niechcenia zauważyli sójki i ruszyli dalej, stała się naprawdę bardzo zaciekawiona ich zachowaniem - tak ciekawa, że stało się to głównym programem badawczym, kiedy pojechała do Cambridge. Jeśli sójka ma więcej pożywienia, niż potrzebuje w tej chwili, będzie buforować (przechowywać i ukrywać) nadmiar, czasami raz za razem. Wymaga to doskonałej pamięci. Ponowne buforowanie ma miejsce tylko wtedy, gdy inne sójki obserwują lub słuchają, i robią to tylko doświadczeni złodzieje ("trzeba złodzieja, aby go poznać"). Ponowne buforowanie jest bardziej prawdopodobne, jeśli druga sójka jest dominującym członkiem grupy i mało prawdopodobne, jeśli ta druga sójka jest jej własnym partnerem, z którym normalnie dzieliłaby się jedzeniem. Badania te mają duże znaczenie w dziedzinie poznania zwierząt. Dodają dowody na to, że niektóre zwierzęta wykorzystują swoją wiedzę o przeszłości do planowania przyszłości i sugerują, że te sójki mogą, podobnie jak ludzie, mieć "teorię umysłu" - zdolność przypisywania świadomości lub "umysłu" innym . Przypadkowa ciekawość trawnika w Davis doprowadziła do wielkiego przełomu w zachowaniu zwierząt. Ryszard Maleszka był ciekaw, w jaki sposób larwy pszczoły miodnej mogą stać się pszczołami robotnicami (dziesiątki tysięcy w ulu, które umierają w ciągu kilku tygodni) lub królowymi (po jednej w ulu, która żyje kilka lat) - dokładnie tym samym genomem, dając bardzo różne wyniki . Jedyną znaną różnicą było to, że pszczoły robotnice karmią larwy obfitymi ilościami substancji zwanej "mlekiem pszczelim" i to właśnie te larwy mogą stać się królowymi składającymi jaja. Kiedy w 2006 roku zsekwencjonowano genom pszczoły miodnej, Maleszka zobaczył dowody na metylację (mechanizm kontroli epigenetycznej) i zastanawiał się, czy to właśnie stanowi różnicę między larwami, które stają się robotnicami, a królowymi. On i jego koledzy odkryli, że mogą naśladować działanie mleczka pszczelego poprzez wyciszenie metylacji genomu. Mogły kontrolować, które larwy rozwijają się w królowe, a które w robotnice zasadniczo "za naciśnięciem przycisku"; w swoim eksperymencie udało im się sprawić, że 72% larw zamieniło się w królowe, podczas gdy zwykle w ulu liczącym dziesiątki tysięcy pszczół jest tylko jedna królowa. To dowiodło, że za różnicę między robotnicami a królowymi odpowiada proces epigenetyczny, a wszystkie szczegółowe instrukcje, jak zachowywać się jak robotnica lub królowa, są zakodowane w tym samym genomie. Wykazał również niezwykłą kontrolę nad całym gatunkiem.

Wyobraźnia

Wyobraźnia jest w historii nauki niemal tak samo widoczna, jak ciekawość, a obie te cechy zwykle pojawiają się razem w życiu poszczególnych naukowców. Ponownie ze słownika wyobraźnia to "zdolność do tworzenia nowych pomysłów". Newton wyobraził sobie siły rządzące otaczającym nas światem i wpadł na pomysł, że to samo prawo grawitacji może rządzić wydarzeniami zarówno w kosmosie, jak i na Ziemi. Linneusz wykonał ważny krok koncepcyjny w tworzeniu systemu klasyfikacji roślin i zwierząt, który jest nadal używany. Dalton, badając gazy na początku XIX wieku, opracował teorię atomową bardzo podobną do współczesnego poglądu. Darwin ocenił ogromne ilości informacji o świecie życia i miał wgląd w to, że gatunki ewoluują w wyniku doboru naturalnego. To wciąż zdumiewające, że ta jedna teoria, tak prosta w koncepcji, wyjaśnia ogromną różnorodność życia na planecie. Maxwell miał wyobraźnię i matematykę, aby zjednoczyć elektryczność i magnetyzm w swojej teorii elektromagnetyzmu. Mendelejew i inni mieli wyobraźnię, aby zobaczyć, jak właściwości pierwiastków są powiązane z ich masami atomowymi, a Mendelejew miał wgląd, aby zostawić luki w tej tabeli, które zostaną wypełnione przez jeszcze nieodkryte pierwiastki. Planck zastanawiał się nad promieniowaniem ciała doskonale czarnego i doznał błysku inspiracji, że wytwarzające je oscylatory mogą być skwantowane. Einstein miał "szczęśliwą myśl", że przyspieszenie i grawitacja są równoważne i stworzył swoją ogólną teorię względności. Bohr wyobraził sobie, jak można rozwiązać problemy z modelem atomu, zakładając skoki kwantowe między poziomami energii. W swojej pracy doktorskiej Louis de Broglie wysunął śmiałą sugestię, że cząstki materialne można opisać za pomocą fal, wprowadzając koncepcję dualizmu falowo-cząsteczkowego. Po niekończących się dyskusjach z Bohrem Heisenberg wymyślił zaskakującą "zasadę niepewności", pokazującą, że w subatomowym świecie panuje prawdopodobieństwo. Na podstawie zaobserwowanych ruchów i odległości galaktyk Lemaître i Hubble zdali sobie sprawę, że wszechświat się rozszerza, a Lemaître wyciągnął wniosek, że musiał być "początek". Waddington zastanawiał się, w jaki sposób geny mogą powodować zróżnicowany rozwój w różnych typach komórek ciała i wprowadził koncepcję "krajobrazu epigenetycznego". Hoyle i współpracownicy wymyślili pomysłową "teorię stanu ustalonego" wszechświata jako alternatywę dla teorii Wielkiego Wybuchu. Gell-Mann wynalazł "kwarki", aby uprościć fizykę cząstek w czasie, gdy odkryto ogromną liczbę cząstek. Guth pomyślał o "inflacji" jako o sposobie rozwiązania problemu , głównego problemu ówczesnej kosmologii. A Mayor i Queloz opracowali genialną metodę odkrycia pierwszej pozasłonecznej planety. Na szczególną uwagę zasługuje jeden wybitny przykład natchnionej wyobraźni. Karl von Frisch, Austriak pracujący w Monachium w 1917 roku, odkrył osobliwy wzorzec behawioralny u pszczół miodnych. Kiedy pszczoła wraca do ula, czasami wykonuje to, co nazywał "wanzltanz" (taniec tańczenia). Idzie w linii prostej, machając brzuchem w przód i w tył, potem zawraca i powtarza ten występ raz za razem. Podejrzewał, że może to być jakaś forma komunikacji symbolicznej i miał rację. Kierunek prostego marszu kołyszącego jest skorelowany z kierunkiem do nowego źródła pożywienia w stosunku do kierunku Słońca. Długość marszu z kołysaniem związana jest z odległością od jedzenia. A wigor tańca machającego jest związany z pożądaniem zaopatrzenia w żywność. To było zdumiewające. Von Frisch kontynuował te badania przez dziesięciolecia. Jego wnikliwe badania początkowo spotkały się z burzą niewiary i krytyki, gdy zostały ogłoszone, ale taniec pszczół miodnych jest obecnie powszechnie uważany za najbardziej wyrafinowany znany przykład komunikacji z innymi naczelnymi. Von Frisch podzielił nagrodę Nobla z 1973 roku w dziedzinie fizjologii lub medycyny za tę niezwykłą pracę.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (14)


Drogi do wiedzy

Szeroki przegląd historyczny przedstawiony poniżej ,wielu naukowców i ich osiągnięć daje możliwość przyjęcia ortogonalnego podejścia i przyjrzenia się różnorodności sposobów, w jakie poszczególni naukowcy faktycznie wykonywali swoją pracę i osiągali wspaniałe wyniki. Byli sami czy w grupach? Czy była to czysta inspiracja i kreatywność, czy wytrwałe dążenie do zbierania danych i stawiania hipotez? Czy wiedzieli, czego szukać, czy natknęli się na odkrycia? Czy byli we właściwym miejscu we właściwym czasie? Drogi do wiedzy nie zawsze są tak czyste i uporządkowane, jak sugerowałaby to klasyczna, podręcznikowa metoda naukowa. Jaka jest więc nauka? Tu zostanie wykazane, korzystając z indywidualnych historii i anegdot, że nauka może być tak złożona, jak każda ludzka działalność, oraz że w proces naukowy można włączyć dowolną z różnorodnych cech, czynników i metod. Niektóre z nich, w przypadkowej kolejności (a czasem nakładające się, czasem sprzeczne), to automotywacja, inteligencja, pasja, pragmatyzm, wolność, powiązania, błędy, eksperymentowanie, ciekawość, praca zespołowa, edukacja, odkrywanie, obserwacja, dedukcja, wytrwałość, kontakty towarzyskie, osąd, myślenie lateralne, zapylanie krzyżowe, kreatywność, samotność, wyobraźnia, pomysłowość, zbieranie, synteza, wytrwałość, intuicja, okazja, wgląd, fałszowanie, technologia, instynkt, sceptycyzm, nieporozumienia, otwarty umysł, uczciwość, wyczucie czasu, zbieg okoliczności, determinacja, weryfikacja, eksploracja, interpretacja, komunikacja, inspiracja, indukcja, doświadczenie, teoria, spekulacje, hipotezy, refleksje - a jest wiele innych. Ciekawość, inteligencja, wolność, wykształcenie, motywacja i determinacja są oczywiście niezbędne. Szczęście i zbieg okoliczności mogą czasami odgrywać pewną rolę - natknąć się na odkrycie lub znaleźć kluczową wskazówkę, która prowadzi do poważnego rozwoju. Błędy mogą się zdarzyć, a czasem mogą okazać się korzystne. Wiele wspaniałych wyników naukowych pochodzi z zawziętych i czasochłonnych eksperymentów, obserwacji i pobierania próbek. Bardzo ważne mogą być powiązania - inne, które kierują naukowca na właściwe tory lub we właściwej roli. Czasami nawet ignorancja może być czynnikiem; naukowiec beztrosko kontynuuje śledztwo, nie wiedząc, że inni powiedzą, że nie da się tego zrobić, i natrafia na ważny wynik, który zaskakuje wszystkich. Samotność jest czasem niezbędna do spokojnej refleksji i inspiracji; w innych przypadkach praca zespołowa jest pomocna, a nawet niezbędna. Myślenie lateralne (lub "myślenie nieszablonowe") często prowadzi do nowych wyników. Zapylenie krzyżowe między różnymi dyscyplinami może przynieść świeże pomysły i technologie, dzięki czemu pomaga poznać ludzi z różnych dziedzin; rezultaty mogą czasami być rewolucyjne. Wyobraźnia może prowadzić do zupełnie nowych ścieżek nauki. Argumenty i nieporozumienia są naturalnymi i ważnymi składnikami procesu naukowego: dyskutowane są różne poglądy, czego rezultatem jest zwiększenie ścisłości w naszej wiedzy na badany temat. Zdecydowanie największymi krytykami każdego naukowca są inni naukowcy. Większość nauki, którą zajmujemy się dzisiaj, zależy od technologii - narzędzi, których używamy do dokonywania naszych odkryć i obserwacji. A teoria jest niezbędnym partnerem w eksperymentach i obserwacjach, wyjaśnianiu wyników, budowaniu naukowego światopoglądu i przewidywaniu nowych zjawisk. Formalna edukacja jest niezbędna w dzisiejszej nauce, chociaż warto zauważyć, ilu naukowców z przeszłości było w dużej mierze samokształceniem. Wojna i pokój to z pewnością ważne czynniki. Podczas gdy talent naukowy i zasoby są przekierowywane w czasie wojny, "wojna jest matką wynalazków" i doprowadziła do rozwoju technologicznego, który później miał duży wpływ na naukę: radar doprowadził do radioastronomii, łamanie kodów doprowadziło do komputerów, rozwój bomby atomowej do głównych powojennych obiektów do badania świata subatomowego, a Sputnik doprowadził podczas zimnej wojny do wielu satelitów i technologii, które otworzyły całe spektrum elektromagnetyczne do obserwacji wszechświata. Stało się jasne, że zaawansowana technologia będzie niezbędna w przyszłych wojnach, a powojenne finansowanie nauki i technologii gwałtownie wzrosło. Ale pokój jest oczywiście niezbędny dla długoterminowego rozwoju nauki. We współczesnej nauce komunikacja i kontakt są o wiele ważniejsze niż sto czy dwieście lat temu. Terminy są krótsze, a komunikacja szybsza. Finansowanie musi być zabezpieczone, więc trzeba umieć dobrze przygotowywać wnioski o dotacje i czas na korzystanie z dużych obiektów. Udział w konferencjach i kontakt z innymi jest ważny, zarówno aby być na bieżąco z najnowszymi osiągnięciami, jak i poznawać innych naukowców z całego świata. Częściowo to dzięki takim osobistym kontaktom, jak i publikacjom, buduje się swoją reputację w danej dziedzinie. Pewne wyobrażenie o roli, jaką przez lata odgrywały różne cechy i czynniki, można uzyskać z przeglądu karier i osiągnięć setki najważniejszych naukowców, których nazwiska pojawiły się ponizej. W żadnym wypadku nie jest to wszechstronna ani nawet dobrze zdefiniowana próba statystyczna (sam fakt, że są to jedni z najbardziej odnoszących sukcesy naukowców w historii, wskazuje na silny efekt selekcji), ale mając na uwadze te zastrzeżenia, może to dać przybliżone pojęcie jak rozwijała się nauka. Wszyscy ci naukowcy byli inteligentni, silnie zmotywowani i zdeterminowani. Wszyscy kierowali się czystą ciekawością (pieniądze nie były celem, nie wykonywali rozkazów i nie mieli na myśli wniosków). Wszyscy byli dość dobrze wykształceni jak na ówczesne standardy; większość z nich miała formalne wykształcenie, a niektórzy byli samoukami. Naprawdę uderzające jest to, że prawie 90% naukowców urodzonych przed 1900 r. pracowało i publikowało samodzielnie. Podczas gdy większość z nich miała jakieś "powiązania" - pomocne kontakty i współpracowników na całym świecie, którzy wymieniali z nimi poglądy i informacje - ci naukowcy mieli własne pomysły, wyciągali własne wnioski i publikowali na własną rękę. A niektóre z nich rzeczywiście były samotne. Pozostali pracowali w partnerstwach lub małych grupach. Tendencja do współpracy rosła powoli z czasem, szczególnie w ciągu ostatniego stulecia, i znacznie mniej niż połowa naukowców urodzonych po 1900 roku publikowała samodzielnie. Dziś oczywiście są bardzo duże zespoły, nawet w tysiącach. Połowa z tych stu naukowców była zaangażowana w jakieś prace eksperymentalne (chociaż tylko około połowa z tych przypadków zostałaby uznana za "standardowe eksperymenty podręcznikowe"). Ponad jedna trzecia wykonała prace obserwacyjne. Technologia na pewnym poziomie była oczywiście zaangażowana w większość tych eksperymentów i obserwacji, a nowe odkrycia były wynikiem około dwóch trzecich z nich. Ponad połowa naukowców wykonała prace teoretyczne. (Należy zauważyć, że eksperyment, obserwacja, odkrycie i teoria nie wykluczają się wzajemnie). Tylko niewielka część naukowców była "zbieraczami znaczków" - wykonującymi wyczerpującą i drobiazgową, ale niezbędną pracę terenową, polegającą na katalogowaniu wszystkich form życia i skamieniałości z całego świata oraz wszystkich gwiazd i galaktyk na niebie. I szczęście było w pracach mniej niż jednej piątej naukowców, chociaż wiele książek zostało napisanych na temat zbiegów okoliczności w nauce, ponieważ historie są tak niezwykłe i fascynujące. Ostatecznie w tym przeglądzie pojawiły się tylko dwa błędy - słynne Einsteina i Paulinga - ale jest to niewątpliwie efekt selekcji, ponieważ tych stu naukowców należy do najbardziej udanych wszechczasów. Nawiasem mówiąc, po szybkim spojrzeniu widać, że większość filozofów przyrody i naukowców żyła stosunkowo długo. W okresie greckim, islamskim, średniowiecznym i "nowoczesnym" (od 1600 do chwili obecnej) mediana długości życia wynosiła odpowiednio 73, 75, 62 i 75 lat. Natomiast średnia długość życia od epoki paleolitu do jednego lub dwóch wieków temu wynosiła zaledwie 25-35 lat; średnia światowa w 1900 r. wynosiła 31. W klasycznym Rzymie i Wielkiej Brytanii w 1850 r. oczekiwana długość życia od urodzenia wynosiła odpowiednio 20-30 lat i 40 lat, a nawet dla tych, którzy przeżyli niemowlęctwo do dziesiątego roku życia, całkowita długość życia wynosiła odpowiednio wciąż tylko odpowiednio 48 i 58 lat. Co może wyjaśnić długie życie filozofów przyrody i naukowców? Dorobek naukowy zwykle osiąga szczyt pod koniec lat 30., jeśli nie wcześniej, więc nie ma to nic wspólnego z długim czasem życia. Być może wynikało to z ich stosunkowo spokojnego, odosobnionego i refleksyjnego życia w dość dobrych warunkach społeczno-ekonomicznych, z dala od niebezpieczeństw i trudów normalnego życia. Bez względu na przyczynę, wszyscy odnieśliśmy wiele korzyści z ich długiego życia w nauce. Niektóre cechy i czynniki w nauce omówiono w poniższych sekcjach, wraz z przykładami i anegdotami ilustrującymi ich udział w rozwoju jednej lub więcej dziedzin nauki.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (13)


Nasze ewoluujące perspektywy

Patrząc wstecz, możemy wyraźnie zobaczyć szerokie kontury historii, która doprowadziła do współczesnej nauki. Nasi przodkowie żyli jako zwykli łowcy-zbieracze przez 99,9% czasu, odkąd oddalili się od szympansów około 7 milionów lat temu. Zmiany były lodowato powolne. Minęły miliony lat, zanim wynaleźli kamienne narzędzia, a kolejny milion lat minął, zanim zaczęli używać ognia. Dziesiątki tysięcy lat temu zaczęli opracowywać szereg innowacji, począwszy od ulepszonej broni, biżuterii, malowideł jaskiniowych i symboli po obrzędy pogrzebowe. Po milionach lat ewolucji w końcu upodobnili się do współczesnych ludzi. Dziesięć tysięcy lat temu rozwinęli rolnictwo, a ich świat się zmienił. Byli w stanie żyć w osadach, populacje rosły, a pierwsze główne cywilizacje powstały około pięciu tysięcy lat temu. Nastąpił rozwój oparty na elementarnej nauce - astronomii, inżynierii i innych dziedzinach - ale żadna z tych cywilizacji nie stworzyła filozofii naturalnej, racjonalnego badania świata przyrody i podstaw współczesnej nauki. Czemu? Głównym powodem było niewątpliwie istnienie dobrze ugruntowanych religii, które twierdziły, że wyjaśniają świat w kategoriach bogów i mitów, najwyraźniej nie pozostawiając nic więcej do zrobienia. A ich imponujące kapłaństwo, głęboko zakorzenione w hierarchii państwowej, powstrzymałoby każdą próbę wolnego myślenia. Ale w szóstym wieku p.n.e. miał miejsce pierwszy z dwóch fundamentalnych kroków w rozwoju nauki - "cud grecki". Świat miał być wyjaśniony racjonalnym myśleniem w kategoriach przyczyn, które były częścią samej natury, a nie religiami, bogami i mitami. To był rewolucyjny rozwój. Dlaczego Grecja? Składał się ze zdecentralizowanych państw-miast, a obywatele byli stosunkowo wolni. W Grecji z pewnością istniała religia, ale była ona podzielona, bez ogólnej kasty kapłańskiej, która narzucałaby dogmaty. Debata była zwyczajem, a nowatorskie pomysły mogły się rozwijać. Filozofem, który miał decydującą intuicję, był Tales z Miletu, wykształcony, mądry w świecie i erudyta. Uważany jest za ojca filozofii przyrody. Ta filozoficzna tradycja w Grecji trwała tysiąc lat, osiągając szczyt około 300-500 r. p.n.e., czasy Sokratesa, Platona i Arystotelesa. To Arystoteles wniósł największy wkład w filozofię przyrody, a jego prace zdominowały krajobraz naukowy na prawie dwa tysiące lat. Ale ta grecka tradycja filozoficzna stopniowo zanikała, bez wyraźnego powodu. Być może uważano, że powiedziano wszystko, co można było powiedzieć - że mądrość wielkich postaci epoki klasycznej nigdy nie zostanie przekroczona. Późniejsze lata nałożyły się na Cesarstwo Rzymskie, które nie miało czasu na tak frywolne rozważania, a nowy kult chrześcijaństwa był antagonistyczny wobec "pogańskich" studiów. Do roku 500 n.e. Wielka Biblioteka Aleksandryjska została zniszczona, a Rzym upadł. Ale w siódmym wieku nastąpił ważny nowy rozwój: powstanie islamu. Zainteresowanie klasykami greckimi było duże i podjęto poważne wysiłki w zakresie tłumaczenia na język arabski. Podążając za tradycją grecką, nauka islamska, zwłaszcza w astronomii, matematyce i medycynie, rozkwitła w Islamskim Złotym Okresie, który osiągnął szczyt około 1000 r. n.e., ale potem osłabł, gdy postawa utwardziła się wobec "zagranicznych" i nieislamskich studiów. Tymczasem w Europie Zachodniej na łacinę tłumaczono klasyki greckie, niektóre z oryginalnej greki, a wiele innych z dostępnych kopii arabskich. Klasztory odegrały w tej działalności znaczącą rolę. W latach 1100-1200 powstało kilka uniwersytetów w Europie Zachodniej, a programy nauczania koncentrowały się na klasyce greckiej. W ciągu następnych kilku stuleci wielu średniowiecznych i renesansowych myślicieli europejskich na tych uniwersytetach wykroczyło poza poziom oryginalnych greckich filozofów przyrody, ale do 1600 roku dominującym światopoglądem nadal pozostał pogląd Arystotelesa i Ptolemeusza. W szesnastym i siedemnastym wieku miał miejsce drugi fundamentalny krok w rozwoju nauki - rewolucja naukowa. Kopernik zmienił centrum kosmosu z Ziemi na Słońce, Kepler i Galileusz dostarczyli przekonujących dowodów na poparcie tej heliocentrycznej koncepcji, a Newton udowodnił jedność Ziemi i kosmosu oraz ustanowił prawa fizyczne, które rządzą wszystkim. Wydarzenia można było przewidzieć i to z zadziwiającą dokładnością. To był monumentalny krok. Arystoteles i Ptolemeusz zostali zepchnięci na półki historii. Świat działa zgodnie z podstawowymi prawami fizycznymi, które wielokrotnie sprawdzano. Była to oszałamiająca i kompletna rewizja naszego spojrzenia na świat. Narodziła się nowoczesna nauka. W XVIII i XIX wieku ten światopogląd stał się jeszcze bardziej ugruntowany. Termin "filozofia przyrody" został stopniowo zastąpiony słowem "nauka" w odniesieniu do studiów nad światem przyrody i świata fizycznego. Eksperymenty Faradaya i równania Maxwella wyjaśniły i zunifikowały elektryczność i magnetyzm, Darwin przedstawił swoją przekonującą teorię ewolucji przez dobór naturalny, a fizyka wydawała się być prawie ukończona - nie wydawało się, aby było wiele więcej do zrobienia. Ale potem, na początku XX wieku, miało miejsce więcej rewolucji. Teoria względności Einsteina zastąpiła koncepcję absolutnej przestrzeni i czasu Newtona, a mechanika kwantowa pojawiła się, aby stworzyć podstawę naszej wiedzy o świecie atomowym i subatomowym. Genetyczne podstawy życia stały się znane. Stwierdzono, że nasz wszechświat jest znacznie większy niż oczekiwano i odkryto jego ekspansję. Nauczyliśmy się latać, wynaleźliśmy radio, telewizję, energię atomową i Internet, polecieliśmy na Księżyc. Wzrost naszej wiedzy naukowej i możliwości technologicznych w ciągu zaledwie kilku tysięcznych jednego procenta naszej egzystencji był spektakularny. Fakt, że filozofia przyrody powstała tylko raz - w Grecji - podkreśla jej wyjątkowość i znaczenie: była cennym skarbem dla całej ludzkości. Przeszła delikatną linią przez historię, od Greków, przez okresy islamu i średniowiecza, po rewolucję naukową, aż po dzień dzisiejszy. A teraz jest dostępny dla całego świata. Warto zauważyć, że nie było ogólnego planu rozwoju nauki. Jednostki po prostu dodały na swój własny sposób wiedzę o swoich czasach, a wynikiem netto na przestrzeni wieków jest ogromny zasób wiedzy naukowej, którą mamy dzisiaj. Tak więc w całej historii nauki miały miejsce tylko dwie główne rewolucje: pojawienie się greckiej filozofii naturalnej w VI wieku p.n.e. wprowadzającej pojęcie przyczyn naturalnych oraz rewolucja naukowa w XVII wieku wprowadzająca przewidywania ilościowe i sprawdzalne prawa natury. Co by się stało, gdyby te dwa fundamentalne kroki w Rise of Science nie miały miejsca? Wystarczy spojrzeć na rozwój reszty świata przez większą część tego okresu. W kilku częściach świata wciąż istnieją społeczności łowców-zbieraczy. W wielu innych obszarach ludzie do niedawna prowadzili skromną egzystencję w cieniu gigantycznych struktur dawno minionych cywilizacji. Chiny mają długą historię innowacji, ale do niedawna większość ludności żyła jako biedni chłopi i zillagers. Japonia wyłoniła się ze swojego feudalnego społeczeństwa dopiero pod koniec XIX wieku. Czy rewolucja przemysłowa w Wielkiej Brytanii nadal miałaby miejsce? Uważa się, że istniały różne czynniki sprawcze; z pewnością najważniejszą była stymulacja zapewniona przez głęboko nowy światopogląd rewolucji naukowej. Świat mógł być wyjaśniany, przewidywany i manipulowany dla dobra ludzkości. To było inspiracją dla Wieku Oświecenia, który był racjonalny, optymistyczny i zorientowany na postęp i byłby ogromnym bodźcem dla energii i przedsiębiorczości rewolucji przemysłowej. Podczas gdy innowacje we wczesnych stadiach rewolucji przemysłowej nie obejmowały bezpośrednio zaawansowanej wiedzy naukowej (pierwszy silnik parowy został faktycznie wyprodukowany przez starożytnych Greków), wynalazki po 1800 r. (takie jak telegraf) wymagały czegoś więcej niż elementarnej wiedzy naukowej i zaawansowana nauka szybko zaczęła odgrywać główną rolę w późniejszym rozwoju. Niezwykła rewolucja w zdrowiu publicznym w dużej części Europy w połowie XIX wieku również początkowo nie zależała bezpośrednio od zaawansowanej nauki. Dawno minęły czasy, kiedy chorobę lub epidemię przypisywano jedynie przesądom lub religii, a w celu zrozumienia przyczyn i znalezienia rozwiązań przyjęto racjonalne i zdroworozsądkowe podejście. Inicjatywy zdrowia publicznego z połowy XIX wieku były w dużej mierze odpowiedzialne za znaczny wzrost zdrowia i długowieczności w tym okresie. Jednak pod koniec XIX wieku w medycynie miała miejsce prawdziwie naukowa rewolucja, ponieważ rzeczywiste przyczyny chorób zostały zidentyfikowane w laboratorium i "cudowne lekarstwa" stały się możliwe. Ogólnie rzecz biorąc, zastosowanie zaawansowanej wiedzy naukowej w technologii i medycynie przyspieszyło gwałtownie w XIX wieku, tworząc wir innowacji, który przyspieszył pod koniec tego stulecia i w następnym. Rezultatem był bezprecedensowy, wykładniczy wzrost zarówno w nauce, jak i technologii w ciągu ostatnich dwóch lub trzech wcieleń - niewielki ułamek historii człowieka. Dziś korzyści płynące z rewolucji naukowych są oczywiste. Bez nich świat wyglądałby tak, jak setki, a nawet tysiące lat temu. I nie tylko technologia i standard życia są dziś o wiele lepsze. Nasza wiedza o świecie jest znacznie większa niż jeszcze kilkaset lat temu. Dziś wiemy o podstawie i jedności wszelkiego życia oraz o tym, jak ewoluowało, wiemy o atomie i jego składnikach, uwolniliśmy potencjał energii jądrowej i rozumiemy wszechświat, jego ewolucję i zawartość. Nasza dzisiejsza wiedza jest ogromna i tak naprawdę dopiero zaczęliśmy z niej korzystać. Przyszłość nauki i technologii jest naprawdę świetlana.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (12)


Samo życie

Jaka jest podstawa życia? Podobnie jak w przypadku pytań postawionych w poprzednich częściach, badanie życia również sięga czasów starożytnych Greków. Arystoteles był uważany za "ojca zoologii", ponieważ badał i klasyfikował setki gatunków, a Teofrast (ok. 371-287 r. p.n.e.) był "ojcem botaniki". Gromadzenie i klasyfikacja gatunków była głównym zajęciem wśród przyrodników na przestrzeni lat, szczególnie tych, którzy żyli podczas i po rewolucji naukowej. To ciekawy zbieg okoliczności, że osoba, która zasadniczo stworzyła podwaliny badań nad światem życia, żyła i pracowała w czasach Newtona. Czasy oczywiście dojrzały do innowacji i nowych dziedzin nauki. John Ray (1627-1705) stał się najwybitniejszym przyrodnikiem XVII wieku. Był synem wiejskiego kowala i udało mu się dotrzeć do Trinity College w Cambridge. Jego talenty były jasne iw 1649 roku został Fellow of Trinity. Członkowie mieli swobodę studiowania tego, co chcieli, a dla Raya była to botanika. Ponieważ w tym czasie nie było żadnego schematu klasyfikacji roślin, postanowił go stworzyć. Na szczęście dla nauki w końcu połączył siły z kolegą, Francisem Willughbym (1635-1672), który podzielał wiele jego zainteresowań. Odbyli kilka wycieczek terenowych, nie tylko w Anglii, ale także w większości kontynentalnej Europy, Ray koncentrował się na roślinach, a Willughby na zwierzętach. Mówi się, że podróż europejska była dla nich tym, czym podróż Beagle była dla Darwina. Wrócili z żywą znajomość świata żywego oraz ogromną ilości okazów i notatek. Willughby zmarł w 1672 roku, ale Ray wytrwał w planowanych publikacjach. Ornitologia i historia ryb zostały opublikowane pod nazwiskiem Willughby′ego w 1677 i 1686 roku, a trzy ogromne tomy Ray′s History of Plants zostały opublikowane w 1686, 1688 i 1704 roku. Jego History of Insects została opublikowana pośmiertnie w 1710 roku dla bardziej znanego Carla Linneusza. Ray był jednym z pierwszych, którzy rozpoznali skamieniałości jako szczątki niegdyś żyjących roślin i zwierząt, i zastanawiał się nad pomysłem, że całe gatunki mogły zniknąć z planety. Zastanawiał się również nad implikacjami obecności skamieniałości ryb znalezionych w wysokich górach oraz długiej skali czasowej wymaganej, by góry wzniosły się tak wysoko. Tymczasem mikroskop, opracowany na początku XVII wieku, dostarczył szeregu niesamowitych odkryć w biologii, od budowy oka muchy po komórki żywej materii i pierwsze przebłyski drobnoustrojów. Obietnica tej nowej technologii została podkreślona wspaniałymi ilustracjami w książce Roberta Hooke′a Micrographia, opublikowanej w 1665 roku. Z biegiem czasu mikroskopy stały się potężniejsze i bardziej niezawodne i ostatecznie odegrały istotną rolę w wyjaśnianiu samych procesów życiowych, jak zobaczymy później. Carl Linnaeus (1707-1778) słynie z tego, że dał nam schemat klasyfikacji roślin i zwierząt. Urodził się w południowej Szwecji, studiował medycynę na uniwersytetach w Lund i Uppsali. Od dzieciństwa interesował się roślinami kwitnącymi, które studiował równolegle z lekcjami. Odbył kilka wypraw botanicznych, zanim uzyskał stopień naukowy w 1735 r. i ostatecznie został mianowany na katedrę botaniki w Uppsali w 1742 r. Był niezłomnym klasyfikatorem. Jeszcze jako student opublikował swoje idee taksonomii w Systema Naturae w 1735 roku. Praca ta została poprawiona, zaktualizowana i opublikowana w dziesięciu wydaniach, ostatnie w 1758 roku. W jego systemie hierarchia życia (odgórna) to królestwo, typ, klasa, rząd, rodzina, rodzaj i gatunek. Linneusz wprowadził dwumianową nomenklaturę, nadając każdemu żywemu organizmowi dwuwyrazową nazwę (rodzaj i gatunek). Na podstawie wyników własnych i innych wycieczek Linneusz sklasyfikował tysiące roślin i zwierząt. Jego system jest używany do dziś. Co znamienne, Linneusz był na tyle odważny, aby włączyć ludzkość (Homo sapiens) do swojego systemu, pod zwierzchnictwem Animalii. Stwierdził, że nie widzi żadnego naukowego powodu, aby oddzielić ludzkość od jego systemu klasyfikacji, który obejmował małpy. Tematem związanym z ewolucją życia był wiek Ziemi. W 1620 r. irlandzki arcybiskup James Ussher (1581-1656) obliczył na podstawie Biblii, że rok stworzenia to 4004 p.n.e. W XVIII wieku było to już kwestionowane z różnych kierunków. Wiedza pochodząca z Chin wskazywała, że pierwsi cesarze datowali się na około 3000 lat p.n.e., a chińska historia musiała się znacznie wcześniej cofnąć. Ray zwrócił uwagę na prawdopodobny konflikt między wiekiem gór a biblijną skalą czasową. Linneusz miał również wątpliwości, co do istnienia skamieniałości z dala od dzisiejszych mórz. Sam Newton powiedział, że kula rozgrzanego do czerwoności żelaza wielkości Ziemi musiałaby ostygnąć ponad 50 000 lat. Co najmniej jedna osoba próbowała przeprowadzić eksperyment z użyciem gorących kul żelaza: Georges Louis Leclerc (hrabia de Buffon, 1707-1788), znany powszechnie z monumentalnej 44-tomowej Histoire Naturelle, oszacował, że Ziemia musi mieć co najmniej 75 000 lat . Inny Francuz, Jean Fourier (1768-1830), znany z matematycznej transformacji Fouriera, użył równań przepływu ciepła do oszacowania wieku 100 milionów lat. A dowody kopalne zdawały się wskazywać na bardzo długi okres czasu. Georges Cuvier (1769-1832) stał się prawdopodobnie najbardziej wpływowym biologiem na świecie na początku XIX wieku. Przez większość swojego życia był pracownikiem Muzeum Historii Naturalnej w Paryżu. Zajmował się anatomią porównawczą i wydał na ten temat pięciotomową pracę. Podkreślił różnice między anatomią zwierząt mięsnych i roślinożernych, a następnie na tej podstawie był w stanie odróżnić skamieniałości. Uważał, że raz stworzone gatunki pozostają w tej samej formie, dopóki nie wyginą. Położył podwaliny pod naukę paleontologii. Stało się możliwe umieszczenie warstw, w których znaleziono skamieniałości, w porządku chronologicznym. Wierzył, że Ziemia doświadczyła serii katastrof, które doprowadziły do wyginięcia, i podobnie jak inni, sądził, że historia życia cofnęła się bardzo daleko w czasie. Protegowany Cuvier, Jean Baptiste Lamarck (1744-1829), również pracował w Muzeum Historii Naturalnej i zasłynął swoim pomysłem, że cechy mogą być nabywane przez jednostki w ciągu ich życia, a następnie przekazywane kolejnym pokoleniom. Klasycznym przykładem jest żyrafa, która (według Lamarcka), rozciągając się do najwyższych liści na drzewie, w rzeczywistości wydłuża szyję przez całe życie; w rezultacie jego potomstwo rodzi się z dłuższą szyją ("dziedzictwo Lamarcka"). W przeciwieństwie do Cuvier, Lamarck uważał, że gatunki nigdy nie wymierają - po prostu zmieniają się w inną formę. Te idee podjął Etienne Geoffroy Saint-Hilaire (1772-1844), który poszedł o krok dalej. Zaproponował, że środowisko może odgrywać bezpośrednią rolę w ewolucji: jeśli modyfikacje Lamarcka doprowadzą do szkodliwych skutków, te osobniki umrą i zostaną zastąpione innymi, lepiej dostosowanymi do ich środowiska. Dla naszych współczesnych uszu zaczyna to brzmieć trochę jak darwinizm. Pod koniec XVIII wieku wzrosła świadomość procesów geologicznych, które ukształtowały Ziemię i określiły środowiska, do których gatunki musiały się przystosować. James Hutton (1726-1797) znany jest z zasady uniformitaryzmu - że gdyby było wystarczająco dużo czasu, wszystkie cechy otaczającego nas świata można by wyjaśnić w kategoriach tych samych procesów geologicznych, które znamy dzisiaj - ciągłej erozji i podnoszenia na duchu , ze sporadycznymi trzęsieniami ziemi i aktywnością wulkaniczną. Nie ma nic tak ekstremalnego jak gwałtowne konwulsje przewidziane przez alternatywny pogląd znany jako katastrofizm. Ale uniformitaryzm wymagał, aby wiek Ziemi był ogromnie wyższy niż wcześniej przewidywano. Charles Lyell (1797-1875), początkowo prawnik, który zafascynował się geologią, odbył w 1828 roku historyczną ekspedycję geologiczną przez Europę i wrócił podzielając poglądy Huttona. I był pod wrażeniem myśli o tym, jak życie będzie musiało dostosować się w dłuższej perspektywie do ciągle zmieniającego się środowiska spowodowanego procesami geologicznymi. Jego książka Zasady geologii była bardzo popularna i wpływowa. W drugim wydaniu napisał, że wiele gatunków, które kiedyś żyły na Ziemi, najwyraźniej wyginęło i zostało zastąpione przez inne gatunki, a powodem ich wyginięcia mogła być rywalizacja o zasoby. Scena była teraz doskonale przygotowana dla Karola Darwina (1809-1882). Urodził się niedaleko Shrewsbury w rodzinie lekarza, z trzema siostrami i bratem. Jego wczesne lata były szczęśliwe, aż do śmierci matki, gdy miał 8 lat. Został wysłany do pobliskiej szkoły z internatem, gdzie zainteresował się historią naturalną. W wieku 16 lat został wysłany do szkoły medycznej w Edynburgu, ale najwyraźniej nienawidził widoku krwi i przeszedł na kursy historii naturalnej. Dwa lata później został przeniesiony do Christ′s College w Cambridge, tym razem, aby pracować nad dyplomem przygotowującym do zostania duchownym wiejskim. Ponownie przeszedł na kursy z historii naturalnej i został uznany za wybitnego studenta. Pomimo zaniedbania konwencjonalnego programu nauczania, udało mu się uzyskać szanowany stopień naukowy i ukończył go w 1831 roku. I wtedy, niespodziewanie (dzięki kontaktom z Cambridge), otrzymał zaproszenie, by towarzyszyć kapitanowi Robertowi FitzRoyowi na HMS Beagle w 5-letniej podróży dookoła świata w celu studiowania historii naturalnej i geologii w szczególności Ameryki Południowej. Wypłynęli w 1831, kiedy Darwin miał zaledwie 22 lata. To była epicka podróż, pełna przygód i doświadczeń, które nakarmiły jego płodny umysł. Beagle miał zbadać wybrzeże Ameryki Południowej, ale Darwin miał swobodę eksploracji i większość czasu spędzał na wyprawach lądowych. Widział lasy tropikalne w Brazylii, wjeżdżał z gauchos w głąb Argentyny, przeżył trzęsienie ziemi w Chile, badał dziką przyrodę wysp Galapagos, odwiedzał Tahiti, widział torbacze Australii, badał atole wysp Kokosowych (Keelinga), oraz odwiedził Mauritius. Opracował pomysły dotyczące wypiętrzenia po trzęsieniu ziemi, różnorodności pokrewnych gatunków na różnych wyspach Galapagos i tworzenia atoli koralowych. Jego okazy i listy były co jakiś czas odsyłane do Anglii, tak że po powrocie w 1836 roku był już dobrze znany w kręgach naukowych. Darwin opisał okres między 1836 a 1842 rokiem (kiedy on i jego nowa żona Emma przeprowadzili się z Londynu do nowego domu w Kent) jako swój najbardziej twórczy okres intelektualny. W tym czasie kontaktował się z wieloma naukowymi luminarzami kraju, w tym z samym Lyellem, prowadził wykłady i zyskał uznanie jako pisarz. W 1839 roku opublikowano jego Podróż Beagle′a, został wybrany członkiem Towarzystwa Królewskiego i ożenił się. Jego ojciec dokonał ustaleń finansowych, aby Darwin mógł kontynuować swoją pracę jako samofinansujący się "dżentelmen naukowiec" do końca życia. Darwin i jego żona osiedlili się w swoim domu w Kent i mieli dziesięcioro dzieci. Darwin mógł swobodnie studiować, pisać i korespondować z innymi przyrodnikami. Zanim Beagle powrócił do Anglii, Darwin był przekonany, że ewolucja była faktem. Ale co to spowodowało? Darwin rozpoczął swój pierwszy zeszyt na temat Transformacji gatunków w 1837 roku. Duży wpływ na Darwina miała książka Esej o zasadach populacji autorstwa Thomasa Malthusa (1766-1834). Malthus wykazał, że populacje mają moc do gwałtownego wzrostu, chyba że są kontrolowane przez drapieżniki, choroby i niedobory pożywienia. Darwin zdał sobie sprawę, że to może być kluczem: konkurencja w obrębie gatunku i między gatunkami może spowodować, że tylko najsilniejsi (najlepiej przystosowani) będą w stanie rozmnażać się i przetrwać. Ci mniej sprawni umrą i wyginą, a zostaną zastąpieni tymi lepiej przystosowanymi do swoich okoliczności ("przetrwanie najsilniejszych"). Stało się to teorią ewolucji przez dobór naturalny; został już nakreślony przez Darwina, zanim przeniósł się do Kent. W 1844 r. napisał rękopis przedstawiający swoje pomysły, do którego dołączył list do żony z prośbą o opublikowanie go po jego śmierci. Nie spieszył się z publikacją, ponieważ martwił się o możliwą reakcję Kościoła i opinii publicznej, a także martwił się, że zdenerwuje Emmę, pobożną chrześcijankę. Zamiast tego w dużej mierze zwrócił uwagę na nowy projekt: pąkle. W 1854 ukończył trzytomową pracę na ten temat, za którą został odznaczony Królewskim Medalem Towarzystwa Królewskiego. W tym samym roku zaczął gromadzić swoje notatki i rękopisy, przygotowując się do ogromnej pracy na temat ewolucji gatunków. W 1858 r. Darwin był zszokowany, gdy otrzymał od Alfreda Russela Wallace′a (1823-1913) artykuł zatytułowany O tendencji różnorodności do odchodzenia na czas nieokreślony od oryginalnego typu. Wallace bardzo interesował się historią naturalną i zarabiał na życie, zbierając i sprzedając okazy w Brazylii i na Dalekim Wschodzie muzeom i bogatym kolekcjonerom w Anglii. Spotkał raz Darwina i obaj rozpoczęli korespondencję; Darwin stał się nawet jednym z klientów Wallace′a. Wallace rozwinął swoje własne początkowe pomysły na ewolucję i opublikował je w artykule w 1855 roku. Przyjaciele Darwina zaniepokoili się, że Darwin może być uprzedzony i namawiali go do opublikowania. Podobnie jak Darwin, Wallace był motywowany pracą Malthusa i w 1858 miał taką samą intuicję, jak Darwin w 1837. Kiedy Darwin otrzymał pracę Wallace′a w 1858, prosząc o opinię, postąpił słusznie, przekazując korespondencję Lyellowi , proponując wysłanie artykułu WallacePrime;a do dziennika. Lyell miał inny pomysł - aby szkic Darwina z 1844 r. został dodany do artykułu Wallace′a i zaoferowany Towarzystwu Linnejskiemu jako wspólna publikacja. Gazeta została odczytana Towarzystwu i opublikowana bez wywołania poruszenia. Wallace był zachwycony tym rezultatem i wdzięczny Darwinowi. Darwin podjął wówczas ogromny wysiłek, aby ukończyć swoje magnum opus, O powstawaniu gatunków za pomocą doboru naturalnego, czyli o zachowaniu uprzywilejowanych ras w walce o życie, które zostało opublikowane z wielkim uznaniem w 1859 roku. Zostało szeroko zaakceptowane, ponieważ zostało był tak dobrze uargumentowany i tak dobrze udokumentowany wszelkiego rodzaju przykładami. Na zawsze zmienił dziedzinę historii naturalnej. Wciąż jednak pozostawały dwa pytania dotyczące teorii Darwina, które były przedmiotem dyskusji w późniejszych latach XIX wieku. Jedna dotyczyła bardzo długiej skali czasowej wymaganej do ewolucji. Fizycy, w szczególności William Thomson (Lord Kelvin), przekonywali, że zgodnie z ówczesną fizyką Słońce nie będzie w stanie dalej świecić za niczym zbliżonym do wymaganego. Sprawa ta została rozwiązana we wczesnych dekadach XX wieku, kiedy zdano sobie sprawę, że procesy subatomowe mogą utrzymywać Słońce przez wiele miliardów lat. Drugi problem polegał na tym, że mechanizm lub dziedziczność, wymagana do ewolucji przez dobór naturalny, pozostawał nieznany. Jak się okazało, odpowiedź na tę drugą kwestię opracowywał już morawski zakonnik Gregor Mendel (1822-1884). Mendel urodził się w biednej rodzinie rolniczej, która wykorzystywała swoje zasoby, by go kształcić. Ukończył liceum (gimnazjum) i studiował filozofię i fizykę przez 2 lata na Uniwersytecie Olmuetz. Do tego czasu wyczerpał swoje zasoby finansowe i został zakonnikiem w klasztorze św. Tomasza w Bruenn, aby poszerzyć swoją edukację. Po ukończeniu studiów teologicznych został wysłany na 2 lata na Uniwersytet Wiedeński, gdzie jego kursy obejmowały fizykę, statystykę, chemię i fizjologię roślin. Do klasztoru powrócił w 1853 roku jako nauczyciel. Miał wystarczająco dużo czasu na badania, a w latach 1856-1868 (po czym został wyniesiony na opata) wykonał przełomową pracę nad dziedzicznością grochu. Mendel miał dużą działkę w ogrodzie doświadczalnym klasztoru i pracował z tysiącami roślin grochu. Jego praca wymagała dużej staranności, dyscypliny, dokładnych zapisów i dobrych statystyk. Każdą z jego eksperymentalnych roślin zapylano ręcznie. Jego praca wyraźnie ujawniła rolę pewnych czynników w określaniu cech rośliny (jej "fenotypu"). Dziś nazywamy te czynniki genami. Przychodzą parami; jeden jest dominujący w wyrażaniu w fenotypie, a drugi jest recesywny. Wyniki jego badań wykazały, że jedna czwarta roślin grochu miała czystorasowe geny recesywne, jedna czwarta była czystorasowa dominująca, a dwie na cztery były hybrydami. Był w stanie dokonać uogólnień, które stały się znane jako prawa dziedziczenia Mendla. Pokazał, że dziedziczenie działa nie przez mieszanie cech dwojga rodziców, ale poprzez branie indywidualnych cech od każdego z nich. Miał szczęście, że wybrał groch, który jest tak prosty genetycznie; dziedziczenie w większości organizmów jest bardziej skomplikowane. Mendel przedstawił swoje wyniki Towarzystwu Nauk Przyrodniczych w Bruenn w 1865, opublikował je w gazecie (w języku niemieckim) w 1866 w Verhandlung des naturforschenden Vereins Bruenn i wysłał kopie do czołowych biologów w całej Europie, ale oprócz doniesień lokalnych gazet, niewielki wpływ. Wielka szkoda, że ani Darwin, ani jego współpracownicy nie dowiedzieli się o pracy Mendla - dostarczyłoby to mechanizmu jego teorii i posunęłoby genetykę do przodu o ponad 30 lat. Niemniej jednak jego prawa (i jego pismo) zostały ponownie odkryte przez czterech innych na przełomie wieków. Bardzo podobne badania przeprowadził holenderski botanik Hugo de Vries (1848-1935), który w 1899 r. miał opublikować wyniki własnej pracy, gdy natknął się na artykuł Mendla. Ten sam los spotkał Niemca Carla Corrensa (1864-1933), Austriaka Ericha von Tschermaka (1871-1962) i Amerykanina Williama Spillmana (1863-1931), ale wszyscy czterej uznali Mendla za prawdziwego odkrywcę prawa nazwane jego imieniem. Jednak podstawa chemiczna nie była jeszcze znana. Od dawna ustalono na podstawie badań pod mikroskopem, że wszystkie żywe istoty składają się z komórek i że wszystkie komórki powstają z innych komórek przez podział. Wiadomo było, że komórka składa się z zewnętrznej ściany otaczającej pewnego rodzaju lepki płyn i centralnego skupienia zwanego jądrem. Naukowcy zaobserwowali penetrację plemnika do komórki jajowej, z dwoma jądrami łączącymi się w jedno. W 1879 Walther Flemming (1843-1915), używając kolorowych barwników do podkreślenia wewnętrznych cech komórek, odkrył, że jądro zawiera wyraźne struktury przypominające nitki, które nazwał chromosomami. Zobaczył, że kiedy komórka się dzieli, chromosomy są duplikowane i dzielone między dwie komórki potomne. August Weismann (1834-1914) zwrócił uwagę na różnicę między procesem podziału komórek w celu wzrostu i produkcji komórek jajowych lub plemników. Amerykanin Thomas Morgan (1866-1945) położył podwaliny zarówno pod genetykę, jak i ewolucję drogą doboru naturalnego. Pracował z muszką owocową Drosophila, która miała podwójne zalety szybkiego cyklu rozrodczego i tylko czterech chromosomów. Znalazł kilka stabilnych dziedzicznych mutacji u Drosophila, które dostarczyły istotnych wskazówek dotyczących dziedziczności i ewolucji, a on i jego koledzy napisali bardzo wpływową książkę The Mechanism of Mendlow Heredity w 1915 roku. Teoria Darwina miała teraz solidne podstawy genetyczne, a następnym krokiem było określić naturę samych chromosomów. Wiadomo było, że skład chemiczny jądra różni się od składu białek. W 1869 szwajcarski biochemik Friedrich Miescher (1844-1895) był w stanie wyekstrahować z jądra to, co nazwał nukleiną (obecnie znaną jako kwas dezoksyrybonukleinowy lub DNA) i wykazał, że jest to kwas zawierający fosfor, a zatem w przeciwieństwie do znanego grupy cząsteczek biologicznych, takich jak węglowodany i białka. W 1885 roku Oskar Hertwig (1849-1922), świadomy badań Flemminga i Weismanna, posunął się nawet do stwierdzenia, że "Nucleina jest substancją, która jest odpowiedzialna za przenoszenie cech dziedzicznych". Wielu się nie zgodziło. Chromosomy również zawierają białka i sądzono, że tylko białka mogą przenosić kod życia. Phoebus Levene (1863-1940) badał strukturę i funkcję kwasów nukleinowych i wykazał, że składniki DNA są połączone w kolejności fosforan-cukier-zasada. Utrzymywał, że DNA jest stosunkowo małą cząsteczką i że jest zorganizowane w taki sposób, że nie może przenosić informacji genetycznej. Jego pomysły zostały szeroko zaakceptowane i poparły pogląd, że ważne informacje w komórce zawarte są w strukturze złożonych białek, a DNA odgrywa jedynie wspierającą rolę. Jednak podczas ważnego rozwoju w 1944 r. Oswald Avery (1877-1955) i współpracownicy rozwiązali zagadkę, która obejmowała zjawisko transformacji genetycznej między dwoma typami bakterii wywołujących zapalenie płuc; byli w stanie udowodnić, że za to odpowiedzialne jest DNA, a nie białka. Może więc materiał genetyczny to w końcu DNA? Artykuł autorstwa Avery′ego i współpracowników zachęcił Erwina Chargaffa (1905-2002) do badania DNA u osobników i gatunków. Odkrył, że skład DNA jest identyczny we wszystkich tkankach danego gatunku, ale różni się w zależności od gatunku - czego można by się spodziewać, jeśli jest biologiczną sygnaturą gatunku. DNA zawiera "cząsteczki zasad" zwane A, C, G i T, a Chargaff wykazał również, że ilość zasady A w próbce DNA jest taka sama jak w przypadku T, a ilość G jest taka sama jak w przypadku C. Relacje te stały się znane jako zasady Chargaffa i były kluczowe w wyjaśnianiu struktury DNA. Na przełomie lat 40. i 50. XX wieku nad strukturą DNA pracowały trzy grupy: Linus Pauling (1901-1994) w Caltech, Maurice Wilkins (1916-2004) i Rosalind Franklin (1920-1958) w King′s College London oraz Francis Crick (1916-2004) i James Watson (1928-) w Cambridge. Pauling był jednym z najsłynniejszych biochemików swoich czasów, a teraz zwracał uwagę na DNA. Odkrył formy helikalne w białkach, a więc z pewnością byłby dostrojony do śladów spiralności w DNA. Na początku 1953 Pauling ogłosił, że znalazł strukturę DNA - potrójną helisę. Kiedy Crick i Watson zobaczyli wstępny wydruk artykułu, od razu wiedzieli, że wynik Paulinga był błędny, ponieważ był niezgodny z danymi z krystalografii rentgenowskiej uzyskanymi przez Franklin. Crick był fizykiem, który zajął się biologią, a Watson był ambitnym młodym amerykańskim doktorem biologii molekularnej, który miał na celu DNA. Dzielili biuro w Cambridge i rozpoczęli nieoficjalną współpracę w celu opracowania struktury DNA przy użyciu metody budowania modelu. Było dla nich jasne, że struktura musi umożliwiać dokładny proces kopiowania, aby identyczna kopia mogła przejść do komórek potomnych. Byli również bardzo świadomi zasad znalezionych przez Chargaffa, który odwiedził Cambridge w 1952 roku. Kiedy Watson pokazał Wilkinsowi kopię papieru Paulinga na początku 1953 roku, Wilkins odpowiedział, pokazując Watsonowi odbitkę jednego z najlepszych zdjęć rentgenowskich Franklin, bez jej wiedzy. To naruszenie etykiety było kluczowe w doprowadzeniu Cricka i Watsona do właściwego rozwiązania - podwójnej helisy. Opublikowali swoją pracę, A Structure for Deoxyribose Nucleic Acid, która spotkała się z wielkim uznaniem w kwietniu 1953 roku. Było to monumentalne odkrycie. Franklin była bliska opublikowania własnej wersji podwójnej helisy, gdy z Cambridge nadeszła wiadomość o wyniku Cricka i Watsona. Franklin i Wilkins otrzymali pewne uznanie za swoją pracę: ich własne oddzielne artykuły zostały opublikowane razem z artykułem Cricka i Watsona w tym samym numerze Nature. Prosta i elegancka konstrukcja podwójnej helisy od razu sugeruje jej funkcję. Jest idealny dla wszystkich trzech funkcji DNA - informowania komórek o tym, co mają być i co robić, zapewniania podstawy do reprodukcji komórek i przekazywania kodu genetycznego z pokolenia na pokolenie. Dziedziczenie oparte na DNA z łatwością dostarcza mechanizmu ewolucji przez dobór naturalny. To zdumiewające, że wszystkie zawiłości życia opierają się na tej prostej podwójnej helisie, która jest wspólna dla wszystkich form życia. Ale jak to właściwie działało? George Gamow zasugerował, że kod genetyczny jest zapisany w trójkach wzdłuż długości nici DNA. Pojedyncza trójka, zawierająca trzy pozycje, z których każda może być zajęta przez jedną z czterech możliwych podstaw, pozwala na 64 możliwe kombinacje. To więcej niż wystarczająco, aby wyjaśnić 20 aminokwasów, z których składają się białka. W jaki sposób informacje zakodowane w DNA są wykorzystywane do wytworzenia aminokwasów? Crick zasugerował, że jakiś nieznany "adapter" był zaangażowany w przekazywanie informacji z DNA. Marshall Nirenberg (1927-2010) wraz z kolegą jako pierwsi opracowali kod genetyczny odpowiadający określonemu aminokwasowi - główny i słynny przełom - a Robert Holley (1922 - 1993) odkrył transfer RNA, "adapter", który Crick zaproponował. Tym i innym naukowcom udało się złamać cały kod genetyczny syntezy białek. Mogliśmy teraz odczytać wiadomości zakodowane w DNA! Teraz, gdy poznano strukturę i funkcję DNA, długoterminowym celem było zmapowanie całego ludzkiego genomu - sekwencji pozycji wszystkich trzech miliardów par zasad wzdłuż nici naszego DNA. Pierwszym krokiem było wycięcie i wykonanie wielu kopii małych odcinków DNA; można to zrobić, wykorzystując specjalne enzymy do cięcia i bakterie do tworzenia wielu kopii. Następnie trzeba było znaleźć kolejność pary zasad w tych odcinkach DNA i połącz wszystkie informacje w całość. Kluczowe enzymy, które umożliwiły cięcie i manipulację DNA, odkryli Werner Arber (1929-), Daniel Nathans (1928-1999) i Hamilton Smith (1931-). Te "enzymy restrykcyjne" potrafią rozpoznać określoną sekwencję lub miejsce w DNA i pociąć genom na krótkie nici. Końce tych nici można następnie oznaczyć znacznikiem radioaktywnym, aby można je było zidentyfikować. W wielkim przełomie w 1977 roku Frederick Sanger (1918-2013) i jego koledzy opracowali technikę szybkiego sekwencjonowania, która umożliwiła sekwencjonowanie długich odcinków DNA. Stało się to znane jako "metoda Sangera". (Sanger wcześniej wykazał w latach pięćdziesiątych, że każde białko ma unikalną sekwencję genetyczną - kluczową dla rozwiązania kodowania białek przez DNA). Po kilku innych krokach technicznych, bardzo ambitny międzynarodowy Projekt Genomu Ludzkiego mający na celu określenie sekwencji DNA całego ludzkiego genomu został uruchomiony w 1990 roku. Został ukończony w 2003 roku pod kierownictwem Francisa Collinsa (1950-), dyrektora NIH (Narodowe Instytuty Zdrowia USA), dwa lata przed terminem. Kosztował trzy miliardy dolarów i wymagał ogromnego sekwencjonowania i mocy obliczeniowej w 20 instytutach w sześciu krajach. Pozostaje największym na świecie wspólnym projektem biologicznym. (Mniejszy i tańszy prywatny konkurencyjny projekt, wspomagany danymi z projektu finansowanego ze środków publicznych, został ukończony w tym samym czasie przez Craiga Ventera (1946-) i jego firmę Celera Genomics). Sekwencjonowanie ludzkiego genomu było ogromnym sukcesem, który ukrył wieki poszukiwań tajemnic życia. Od tego czasu zsekwencjonowano genomy wielu innych gatunków. Japoński kwiat, Paris japonica, ma najdłuższy znany DNA z 149 miliardami par zasad, pszenica ma 15 miliardów, ludzki genom ma 3 miliardy, a najmniejszy niewirusowy genom to bakteria o 160 tysiącach par zasad, więc nasz jest bynajmniej nie wyjątkowe pod względem długości. Chociaż historia DNA jest naprawdę spektakularna i fundamentalna, jest to tylko jedna część biologii molekularnej. Komórka jest znacznie bardziej złożona. Kilka z ważniejszych osiągnięć biologii molekularnej w ciągu ostatnich kilku dekad podsumowano w poniższych akapitach, aby dać wyobrażenie o złożoności i postępie. Pod koniec lat 30. Conrad Waddington (1905-1975) rozważał, w jaki sposób geny mogą wytwarzać zjawiska rozwojowe, i napisał książkę o "epigenetyce" (przedrostek "epi" oznacza "nad" lub "powyżej" - epigenetyka jest systemem regulacyjnym nałożonym na sam genom). Ukuł termin "epigenotyp", który odnosi się do wszystkich złożonych jednostek i interakcji, które działają między genomem a fenotypem. Wprowadził także bardzo wpływową koncepcję "krajobrazu epigenetycznego", która daje metaforyczny obraz tego, jak regulacja genów moduluje rozwój, taki jak różnicowanie komórek. Było jasne, że znajomość mechanizmów ekspresji genów będzie miała kluczowe znaczenie. W 1961 Francois Jacob (1905-1975) i Jacques Monod (1910-1976) badali bakterię E. coli i odkryli, że istnieją specyficzne białka, które mogą tłumić transkrypcję odpowiednich genów - odkryto pętlę sprzężenia zwrotnego. To kluczowe odkrycie umożliwiło badanie zasad regulacji genów - sposobu ekspresji genów. Zjawiska regulacyjne występują obecnie na każdym poziomie ekspresji genów. W 1967 Mark Ptashne (1940-) wyizolował białko z wirusa, który infekuje bakterie, wykorzystując DNA bakterii do samoreprodukowania. Białko działa poprzez przyłączanie się do określonego miejsca na bakteryjnym DNA. Wraz z innymi Ptashne odkrył, że białka regulujące geny działają jak klucze, które pasują do określonych zamków. Po wystąpieniu tego wiązania klucz białkowy oddziałuje z innymi białkami wiążącymi, aby włączyć lub wyłączyć gen. On i jego koledzy odkryli później, że ten sam mechanizm działa w innych organizmach, takich jak drożdże, muszki owocowe, rośliny i ludzie - wyjaśnia to aktywację genów w naturze. Sydney Brenner (1927-) wniósł kilka ważnych wkładów do biologii molekularnej i rozwoju zwierząt. Jego odkrycia na początku lat sześćdziesiątych doprowadziły do powstania centralnego paradygmatu biologii molekularnej - że informacja przepływa z DNA do białek, a nigdy odwrotnie. Wprowadził pojęcie "komunikacyjnego RNA". Cytowano go, że powiedział, że "pytania stojące przed biologią pregenomiczną i postgenomiczną są nadal takie same - wypełnianie luki między genotypem a fenotypem". Całkowicie nowa dziedzina biologii molekularnej została nagle otwarta w 1998 r. przez Andrew Fire (1959-), Craiga Mello (1960--) i współpracowników, kiedy opublikowali artykuł w Nature pokazujący, że istnieje duża liczba maleńkich fragmentów dwuniciowych RNA, które może zniszczyć informacyjne RNA, zanim zdąży wyprodukować białko, skutecznie wyłączając gen. Proces ten jest znany jako interferencja RNA lub wyciszanie genów przez dwuniciowe RNA. Ta ważna praca zrewolucjonizowała wiedzę na temat procesów i regulacji w biologii molekularnej. W 1958 roku John Gurdon (1933-) z powodzeniem sklonował żabę przy użyciu nienaruszonych jąder z komórek somatycznych (ciała) kijanki. Na tej podstawie wywnioskował, że zróżnicowane komórki somatyczne mają potencjał powrotu do pluripotencji. Ta praca stała się dobrze znana, a jego techniki są nadal używane. W tym czasie nie był w stanie udowodnić, że przeszczepione jądra pochodzą z w pełni zróżnicowanej komórki, ale zostało to ostatecznie potwierdzone w 1975 roku. Spowodowało to istotną zmianę w sposobie myślenia genetyków na temat różnicowania komórek. Znacznie później, w zdumiewającym przełomie w 2006 roku, Shinya Yamanaka (1962-) i współpracownicy byli w stanie wytworzyć pluripotencjalne komórki macierzyste z normalnej tkanki somatycznej u dorosłych myszy przy użyciu nowatorskiej techniki obejmującej zasadniczo regulatory epigenetyczne. (Komórki pluripotencjalne mogą dać początek wszystkim różnym typom komórek tworzących ciało; komórki macierzyste są pluripotencjalne). To otworzyło potencjalnie bardzo ważny sposób odwrócenia skutków starzenia. I rzeczywiście, w kolejnym przełomie w 2016 roku, Juan Carlos Izpisua Belmonte (1960-) i współpracownicy wykorzystali regulujące "czynniki Yamanaka", aby częściowo "cofnąć zegar epigenetyczny" w komórkach myszy, które starzeją się przedwcześnie; w rzeczywistości wydłużyły długość życia tych myszy o 30%, wyraźnie pokazując, że starzenie się nie jest procesem nieodwracalnym. Zainspirowały ich badania nad regeneracją utraconych ogonów lub kończyn przez niektóre jaszczurki i ryby. W artykule przeglądowym z 2018 r.12 zasugerowali, że starzenie się, które jest nieuniknionym spadkiem z powodu nieustannego szarpania entropii i jest głównym czynnikiem ryzyka większości naszych chorób, może w zasadzie zostać spowolnione przez okresowe "przeprogramowanie" epigenetyczne in vivo 200 typy komórek w naszych ciałach. Nacisk kładziony jest na wydłużenie zdrowych lat życia, ale taka praca oczywiście ma również wpływ na ogólną długowieczność człowieka. Tymczasem inni badacze biorą różne podejścia do problemu starzenia się, które teraz zaczyna wydawać się mniej trudne niż w przeszłości. Biologia molekularna jest nieskończenie złożona i fascynująca, dzięki czemu powstało bogactwo wiedzy. Ale jest też kilka innych dziedzin biologii, które pojawiły się na scenie w XX wieku. Jednym z nich jest neuronauka. Camillo Golgi (1843-1926) i Santiago Ramón y Cajal (1852-1934) wykonali wczesne przełomowe prace nad strukturą układu nerwowego. Golgi odkrył metodę barwienia tkanki nerwowej, dzięki której po raz pierwszy można było zobaczyć w mózgu poszczególne neurony oraz ich unikalne i niezwykle złożone struktury. Ze swojej pracy wywnioskował, że układ nerwowy to jedna sieć. Ramón y Cajal jest często określany mianem "ojca współczesnej neuronauki". Udoskonalił i zastosował metodę barwienia Golgiego, a jego szczegółowe rysunki neuronów stały się sławne. Odkrył, że neurony istnieją jako oddzielne byty, a nie jako węzły w ciągłej sieci, jak sugerował Golgi. Ich wzajemne relacje są ciągłe, a nie ciągłe. Nazywało się to teorią neuronów i stało się podstawą współczesnej neuronauki. Pod koniec lat 30. Alan Hodgkin (1914-1998) i Andrew Huxley (1917-2012) opracowali metody, które umożliwiły im rejestrowanie prądów w żywych aksonach przy użyciu dostępnego w tym czasie surowego sprzętu. Podążając za pionierską pracą Johna Younga (1907-1997), wykorzystali gigantyczny akson kałamarnicy atlantyckiej, który ma największe znane neurony, w celu dostarczenia prądów jonowych, które można zmierzyć. W 1939 roku udało im się donieść o pierwszym wykryciu "potencjałów czynnościowych", sygnałów elektrycznych, które umożliwiają koordynację aktywności organizmu przez ośrodkowy układ nerwowy. Po wojnie kontynuowali tę pracę i byli w stanie pokazać, jak przekazywane są potencjały czynnościowe. Ich hipoteza o istnieniu "kanałów jonowych" w błonach komórkowych została potwierdzona kilkadziesiąt lat później. Karl Lashley (1890-1958) był jednym z czołowych badaczy mózgu na świecie, przeprowadzającym eksperymenty i badania nad mózgiem od lat 20. do wczesnych 50. XX wieku. Mierzył zachowanie wytresowanych szczurów przed i po specyficznym wywołanym uszkodzeniu mózgu, próbując znaleźć pojedyncze biologiczne centrum pamięci. W końcu doszedł do wniosku, że wspomnienia nie są zlokalizowane w jednej części mózgu, ale raczej rozprzestrzeniają się w korze. Ta wpływowa praca doprowadziła do uprzedzeń antylokalizacji wśród naukowców, które utrzymywały się przez dziesięciolecia. W rzeczywistości wiemy teraz, że większość tkanek mózgowych jest wysoce wyspecjalizowana, chociaż typowy akt poznawczy rzeczywiście aktywuje wiele obszarów mózgu. Znajomość obwodu neuronowego niekoniecznie mówi nam, jak on działa. Eve Marder (1948-) zbadała bardzo prosty obwód zaledwie 30 neuronów zaangażowanych w kontrolę układu pokarmowego raka. Odkryła, że połączenia i zachowanie komórek są modulowane przez "zupę" dziesiątek różnych substancji chemicznych, zmieniając funkcjonalność obwodu. Pokazała, jak mózg może się zmieniać podczas rozwoju, pozostając jednocześnie stabilnym strukturalnie. Mówi się, że taka złożoność, pochodząca z pozornie bardzo prostego obwodu, może być uważana za metaforę całej biologii. W niesamowitym niedawnym badaniu Davidowi Glanzmanowi i współpracownikom z UCLA udało się "przeszczepić" pamięć z jednego zwierzęcia na drugie. Wytrenowali kilka ślimaków z traumatycznymi wstrząsami, więc nauczyli się wycofywać do swoich muszli na 50 sekund zamiast zwykłej jednej sekundy. Następnie wstrzyknęli RNA z tych ślimaków innym, niewytrenowanym ślimakom, które następnie wycofały się na podobnie długi czas po wyczuciu kranu. Oprócz tego, że jest to dramatyczny nowy rozwój, jest to zgodne z ideą, że pamięć obejmuje zmiany epigenetyczne wywołane przez RNA w neuronach. Matematyka została wprowadzona do biologii na początku ubiegłego wieku. Trzy główne postaci, które rozwinęły matematyczną teorię genetyki populacyjnej to Ronald Fisher (1890-1962), John Haldane (1892-1964) i Sewall Wright (1889-1988). Wykorzystali matematykę do połączenia genetyki Mendla i doboru naturalnego, który stał się znany jako neodarwinowska współczesna synteza ewolucyjna. Narzędzia matematyczne stworzone przez Fishera w szczególności stworzyły podwaliny współczesnej nauki statystycznej, nie tylko w biologii, ale także w psychologii i kilku innych dziedzinach. Wszyscy trzej wnieśli inny ważny wkład w naukę o ewolucji; Haldane rozważył możliwe pochodzenie życia z cząsteczek nieorganicznych i wprowadził koncepcję "pierwotnej zupy", która później stała się znana jako hipoteza Oparina-Haldane′a. William Hamilton (1936-2000) był jednym z najważniejszych teoretyków ewolucji ostatniego stulecia. Zajmował się problemem, który niepokoił zarówno Fishera, jak i Haldane′a: jak organizm może zwiększyć sprawność swoich genów, pomagając swoim krewnym na własny koszt - stworzył rygorystyczną podstawę genetyczną dla istnienia altruizmu. Jego dwa artykuły z 1964 roku zatytułowane The Genetic Evolution of Social Behavior oraz jego artykuł z 1970 roku Selfish and Spiteful Behavior in a Evolutionary Model są uważane za fundamentalne. Był jednym z prekursorów socjobiologii i wniósł wiele do biologii ewolucyjnej i ekologia behawioralna. Edward Wilson (1929-) jest uważany za "ojca socjobiologii", a w 1975 roku opublikował książkę Sociobiology: The New Synthesis, stosując swoje teorie zachowania owadów na kręgowcach i ludziach. Jego włączenie ludzi wywołało wówczas burzę protestów (niektórzy protestowali, że ludzie nie są zwierzętami). Richard Dawkins (1941-) spopularyzował te idee i przedstawił pogląd genocentryczny w swojej książce z 1976 r. Samolubny gen. To tylko kilka z osiągnięć w niektórych dziedzinach biologii w ciągu ostatnich kilkudziesięciu lat. Biologia rozwija się na wszystkich frontach iz pewnością jest obecnie jedną z największych dziedzin nauki.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (11)


Światło

Czym jest światło? Badania nad optyką, magnetyzmem i elektrycznością sięgają starożytnych Greków. Euklides miał pogląd, że światło porusza się po liniach prostych, i studiował odbicie światła. Tales badał magnetyzm i pocierał bursztyn suchą szmatką, aby przyciągnąć pióra (greckie słowo oznaczające bursztyn to electra). Czy istnieje jakiś związek między tymi trzema zjawiskami? Wszystkie były badane raz za razem w czasie cudu greckiego, okresu islamu i średniowiecza oraz rewolucji naukowej. Na początku XVIII wieku, jak wspomniano powyżej, Newton ustalił, że białe światło jest kombinacją wszystkich kolorów w widmie, wykazano, że światło porusza się ze skończoną prędkością i istniały dwie konkurujące ze sobą teorie dotyczące natury światła - strumień cząstek (teoria korpuskularna Newtona) lub zjawisko falowe (proponowane przez Christiaana Huygensa, Roberta Hooke′a i innych). Teoria korpuskularna panowała przez stulecie. Kolejnym ważnym krokiem był Anglik Thomas Young (1773-1829). Jego nazwisko jest niemal synonimem słynnego "eksperymentu z podwójną szczeliną", w którym pokazał, że dwie wiązki światła, powstałe w wyniku przepuszczenia światła przez dwie cienkie równoległe szczeliny, ulegają dyfrakcji, a następnie interferują ze sobą w taki sposób, że wzmacniają się wzajemnie. inne w niektórych kierunkach i znoszą się nawzajem w innych kierunkach. Rezultatem jest wyraźnie wzór fal, podobny do tego, który widać, gdy fale z dwóch kamyków wrzuconych do stawu z wodą oddziałują ze sobą. Jak powiedział Royal Society w 1803 roku: "Eksperymenty mogą być powtarzane z wielką łatwością, ilekroć świeci słońce, i bez żadnego innego aparatu, który jest pod ręką dla każdego." Pomimo klarowności i mocy tego eksperymentu, początkowa niechęć do rezygnacji z korpuskularnej teorii giganta takiego jak Newton trwała. Niedługo później młody Francuz nazwiskiem Augustin-Jean Fresnel (1788-1827), inżynier budownictwa drogowego pracujący przy projektach drogowych, zainteresował się optyką jako hobby, nieświadom prac Younga. W końcu opracował własną falową teorię światła, którą w 1818 r. przedstawił w konkursie na wyjaśnienie właściwości światła, zorganizowanym przez Francuską Akademię Nauk. Wszyscy trzej sędziowie poparli teorię korpuskularną Newtona, a jeden z nich, matematyk i fizyk Siméon Denis Poisson (1781-1840), uważał, że znalazł fatalny błąd w teorii Fresnela. Obliczył, że zgodnie z teorią Fresnela dotyczącą dyfrakcji wiązka światła powinna wytworzyć jasną plamę dokładnie za małym blokującym dyskiem, gdzie oczywiście (zgodnie z teorią korpuskularną i zdrowym rozsądkiem Newtona) powinien znajdować się najciemniejszy cień. Przewodniczący komisji, fizyk Dominique-Francois-Jean Arago (1786-1853), przeprowadził eksperyment i, ku wielkiemu zdumieniu, obserwował przewidywaną jasną plamę. To przekonało większość naukowców o falowej naturze światła, teorii, która dominowała przez cały XIX wiek. Tymczasem zjawisko elektryczności budziło coraz większe zainteresowanie również w XVIII i na początku XIX wieku. Amerykanin Benjamin Franklin (1706-1790) wniósł istotny wkład w badania nad elektrycznością w połowie XVIII wieku, za co został wybrany członkiem Towarzystwa Królewskiego. Najbardziej znany jest z pomysłu pokazania, że błyskawica jest elektrycznością, puszczając latawiec podczas burzy z piorunami, i wynalazł piorunochron. Ogromny wkład w późniejsze badania zjawisk elektrycznych wniósł Włoch Alessandro Volta (1745-1827). Pobudzony częściowo sporem z innym Włochem, Luigim Galvanim (1737-1798), dotyczącym drgania żabich nóg (które Galvani nazywał "zwierzęcą elektrycznością"), Volta zdał sobie sprawę, że żabie nogi służą jedynie jako przewodniki między dwoma metalami. Po serii eksperymentów wynalazł "stos woltaiczny", znany dziś jako bateria. Jego wynalazek był stosem naprzemiennych płatków srebra i cynku, oddzielonych tekturą nasączoną solanką; wytwarzał stały przepływ energii elektrycznej, gdy górna i dolna płyta były połączone drutem. To doniosłe odkrycie zostało ogłoszone na spotkaniu Towarzystwa Królewskiego w 1800 roku. Nagle naukowcy mogli pracować z ciągłymi prądami elektrycznymi, które można było włączać i wyłączać zgodnie z potrzebami. Bateria Volty stała się nieodzownym narzędziem w badaniach naukowych, podobnie jak w dzisiejszym życiu codziennym. W 1820 r. Duńczyk Hans Christian Ørsted (1777-1851) zauważył, że igła kompasu odchyla się, gdy prąd elektryczny w pobliskim przewodzie jest włączany i wyłączany - dziwaczny przypadek "działania na odległość". Igła była skierowana pod kątem prostym do drutu. Była to pierwsza oznaka związku między elektrycznością a magnetyzmem. Michael Faraday (1791-1867) zasłynął pracami na te tematy. Wychował się w biedzie, ale ostatecznie został uczniem u introligatora w Londynie, co dało mu możliwość obszernego czytania. Przeprowadzał również eksperymenty w dziedzinie chemii i elektryczności, był aktywnym członkiem Miejskiego Towarzystwa Filozoficznego. Dzięki wytrwałości i łutowi szczęścia, w 1813 roku został asystentem laboratoryjnym w Royal Institution, pracując z nikim innym jak Humphry Davy nad swoimi chemicznymi eksperymentami. W końcu stał się znany ze swoich talentów. Kiedy usłyszał o eksperymentach Ørsteda, opracował własne w 1821 roku i odkrył, że potrafi sprawić, by drut przewodzący prąd elektryczny obracał się w sposób ciągły wokół magnesu nieruchomego. To odkrycie, które doprowadziło do powstania silnika elektrycznego, uczyniło go znanym w całej Europie. Elektryczność może wywoływać ruch! Faraday wrócił do swojej pracy nad chemią i został dyrektorem laboratorium RI i profesorem chemii w Fullerton, ale w 1831 powrócił do elektryczności i magnetyzmu i dokonał kolejnego doniosłego odkrycia. Odkrył, że jeśli przesunął magnes przez pętlę drutu, indukował się w nim prąd elektryczny. Ruch może wytwarzać energię elektryczną! Jego odkrycia z lat 1821 i 1831 były pięknie symetryczne. Oprócz pierwszego silnika elektrycznego wyprodukował teraz pierwszy generator elektryczny. Historia na tym się nie skończyła. Faraday ostrożnie badał nowe spekulacje, zgodnie z którymi istnieją magnetyczne i elektryczne "linie siły" (teraz nazwalibyśmy je polami), że zaburzenia w nich rozprzestrzeniają się po pewnym czasie i że samo światło można wyjaśnić w kategoriach wibracji linie siły. James Clerk Maxwell kontynuował w miejscu, w którym skończył Faraday. Urodził się w Edynburgu w stosunkowo znaczącej rodzinie, a wychował się w Galloway (południowo-zachodnia Szkocja). Jego ojciec był prawnikiem, interesował się nauką i technologią. Matka Maxwella zmarła, gdy miał osiem lat, a on miał raczej brutalnego nauczyciela, dopóki w wieku dziesięciu lat nie został wysłany do Akademii Edynburskiej. Jego ojciec zabrał go na pokazy naukowe i spotkanie Towarzystwa Królewskiego w Edynburgu, a w wieku 15 lat jego pierwsza praca naukowa została opublikowana w materiałach tego towarzystwa. Studiował na Uniwersytecie w Edynburgu, a następnie w Cambridge, gdzie został w Fellow of Trinity (stara uczelnia Newtona). Stamtąd został profesorem w Aberdeen, a następnie w 1860 w King′s College w Londynie, gdzie stworzył swoją teorię elektromagnetyzmu, która zjednoczyła elektryczność i magnetyzm. W 1864 opublikował monumentalną pracę A Dynamical Theory of the Electromagnetic Field. Jego równania wykazały, że prędkość fali elektromagnetycznej jest równa 1/(εoμo)1/2, gdzie εo i μo to odpowiednio stałe elektryczne i magnetyczne. Kiedy wstawił wartości tych dwóch stałych, określone niezależnie od pomiarów elektrycznych i magnetycznych, odkrył, że prędkość jest dokładnie taka sama jak prędkość światła (w granicach błędów eksperymentalnych)! Pisał, że "nie da się uniknąć wniosku, że światło jest falowaniem poprzecznym tego samego ośrodka, który jest przyczyną zjawisk elektrycznych i magnetycznych". Odkrył, że samo światło jest zjawiskiem elektromagnetycznym. Światło, elektryczność i magnetyzm są przejawami jednego zjawiska fizycznego: elektromagnetyzmu. Teoria Maxwella była największym krokiem w fizyce od czasów Principii Newtona. Ale wciąż był problem. Jeśli elektromagnetyzm jest zjawiskiem falowym, to w czym fale? Jakie jest medium? Pojęcie eteru przenikającego przestrzeń sięga - oczywiście - starożytnych Greków (to znaczy "świeże powietrze" lub "czyste niebo", a istniał grecki bóg, Eter). Została przyjęta w XVII i XVIII wieku jako nazwa ośrodka przenoszącego fale świetlne, a pod koniec XIX wieku jako nazwa ośrodka przenoszącego fale elektromagnetyczne. Jeśli istnieje takie medium, możemy być w stanie wykryć "wiatr eterowy" na podstawie ruchu Ziemi wokół Słońca. Amerykanie Albert Michelson (1852 - 1931) i Edward Morley (1838-1932) przeprowadzili w 1887 roku dokładny eksperyment porównujący prędkość światła w różnych kierunkach, wykazując, że nie ma wykrywalnej różnicy między prędkością światła w kierunku Ziemi. ruchu i pod kątem prostym do niego lub w dowolnym innym kierunku. Był to pierwszy znaczący dowód przeciwko obecności eteru (a ten bardzo drobiazgowy eksperyment został żartobliwie nazwany "najsłynniejszym nieudanym" eksperymentem w historii). W 1905 Albert Einstein przyjął zupełnie inne podejście. Założył, że stała w teorii Maxwella - prędkość światła - jest rzeczywiście stała, niezależnie od ruchu obserwatora, czy poruszającego się w kierunku lub od źródła światła, czy w jakimkolwiek innym kierunku. To było całkowicie pomysł nieintuicyjny, ale doszedł do logicznego wniosku. W jednym ze swoich "eksperymentów myślowych" zastanawiał się, jak by to było "jechać na wiązce światła", a jego przejażdżki tramwajem do pracy w Bernie skłoniły go do myślenia o tym, jak różni obserwatorzy postrzegają swój ruch i wydarzenia wokół nich. Rezultatem była jego rewolucyjna specjalna teoria względności, opublikowana w trzecim z jego czterech słynnych artykułów z 1905 roku, zatytułowanym O elektrodynamice ciał w ruchu. Konsekwencje były dziwaczne (tak jak słynny "paradoks bliźniąt", w którym podróżujący w kosmosie bliźniak wraca do domu i stwierdza, że postarzał się znacznie mniej niż jego bliźniak w domu), ale były nieuniknione. Pytania Einsteina dotyczące światła doprowadziły go do całkowitej rewolucji w naszych koncepcjach przestrzeni i czasu. Zniknęły Newtonowskie koncepcje przestrzeni absolutnej i równoczesności (chociaż fizyka Newtona nadal działa równie dobrze w życiu codziennym). Podsumowując, pod koniec 1905 roku Einstein napisał trzystronicowy artykuł "spinoff" na podstawie swojej specjalnej teorii względności: Czy bezwładność ciała zależy od jego zawartości energetycznej? Tam wprowadził swoje słynne równanie E = mc2. Do tego czasu proponowana natura światła przeszła kilka iteracji, w tym promienie Euklidesa, fale Huygensa i Hooke′a, ciałka Newtona, fale Younga i Fresnela, a następnie z innego słynnego artykułu Einsteina z 1905 r. na temat efektu fotoelektrycznego wspomnianego w poprzednim rozdziale , po raz kolejny "cząstki" (w tym przypadku fotony), co potwierdził Millikan. Ale nawet to nie był koniec. W latach dwudziestych światło (jak wszystko inne) postrzegano jako opisywane zarówno jako cząstki, jak i fale. Ostatecznie został włączony do Standardowego Modelu Fizyki Cząstek; siła elektromagnetyczna została zunifikowana z siłą słabą w "siłę elektrosłabą" i przewiduje się dalszą unifikację. Tak więc światło z pewnością wiło się dość udręczoną ścieżką w całej historii nauki.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (10)


Bardzo małe

Jaka jest najmniejsza jednostka? Starożytni Grecy nazywali to atomem. Jak wspomniano wcześniej, najwcześniejszymi znanymi nam myślicielami, którzy rozważali tę kwestię, byli greccy filozofowie Leucippus, Demokryt, a później Epikur. Uważali, że cała materia składa się z atomów oddzielonych pustą przestrzenią. W przeciwieństwie do tego, Arystoteles wyraźnie odrzucił atomizm, ponieważ sprzeciwiał się idei próżni lub pustki, podczas gdy atomizm przewidywał atomy poruszające się w pustce i oddziałujące ze sobą. Kolejna wzmianka na ten temat pojawiła się jakieś dwa tysiące lat później, w czasie rewolucji naukowej. Kartezjusz odrzucił ideę atomów z tego samego powodu, co Arystoteles: "Natura nie znosi próżni" - gęstszy materiał natychmiast wypełniłby pustkę. Z drugiej strony odrodzenie atomizmu było najważniejszym wkładem Pierre′a Gassendiego (1592-1655) w naukę. Uważał, że między atomami nie ma nic i że mogą się połączyć, tworząc to, co nazwał molekułami. Istniały bowiem dowody na to, że pustka może istnieć. Evangelista Torricelli (1608-1647) był włoskim naukowcem, który znał Galileusza pod koniec życia. Pobudzony pewnymi pomysłami Galileusza wynalazł pierwszy barometr w 1643 roku. Napełnił szklaną rurkę, zamkniętą na jednym końcu, rtęcią i włożył ją otwartym końcem do miski z rtęcią. Następnie kolumna rtęci opadła, pozostawiając szczelinę między szczytem kolumny rtęci a szczytem szklanej rurki. Kartezjusz wiedział o tym eksperymencie, ale nadal twierdził, że istnieje dużo drobniejszy płyn, który wypełnia wszystkie luki i zapobiega istnieniu próżni, nawet w głębokim kosmosie. Po śmierci Kartezjusza Otto von Guericke (1602-1686) wynalazł pompę próżniową tak doskonałą, że potrafiła zgasić świece i wyciszyć dźwięk dzwonka podczas usuwania powietrza. W 1657 wykonał dwie półkule o średnicy pół metra i wypompował z nich całe powietrze, zamykając je razem za pomocą uszczelnienia próżniowego. Próżnia była tak dobra, że 16 koni, po osiem zaprzęgniętych z każdej strony kuli ziemskiej, nie mogło rozdzielić połówek. Kartezjusz bez wątpienia nadal upierałby się, że jego superdrobny płyn jest wszędzie, ale z drugiej strony dla Newtona pustka w pustej przestrzeni jest absolutna. Robert Boyle (1627-1691) posunął te idee dalej. W swoim najsłynniejszym eksperymencie użył szklanej rurki w kształcie litery J, z otwartą górą i zamkniętym krótkim końcem. Wlał rtęć do rurki, aby wypełnić zagięcie w kształcie litery U na dole, odcinając powietrze na krótszym końcu. Mógł wtedy dowolnie zwiększać ciśnienie powietrza, dolewając więcej rtęci do długiego końca. To, co znalazł, stało się znane jako prawo Boyle′a: objętość zajmowana przez gaz jest odwrotnie proporcjonalna do ciśnienia na nim. Zauważył, że można to łatwo wytłumaczyć koncepcją atomową, ale nie modelem świata Kartezjusza. Odrzucił cztery starożytne "żywioły" - ziemię, wodę, powietrze i ogień - na podstawie eksperymentów. Uprawiał alchemię, ale próbował wprowadzić do niej metodę naukową i napisał słynną książkę Sceptyczny chemik, która stała się punktem zwrotnym, gdy alchemia przekształciła się w chemię. Poparł hipotezę atomową, sugerując, że atomy mogą swobodnie poruszać się w cieczach, ale są łączone na różne sposoby, w zależności od ich kształtów, tworząc różne ciała stałe. Jego zdaniem rola chemii polegała na określeniu, z czego zrobione są rzeczy. W 1691 Halley próbował oszacować wielkość atomów za pomocą złocenia cienkich drutów. Zapytał rzemieślników, ile złota użyli do rysowania i złocenia drutu srebrnego. Na podstawie tych informacji oraz średnicy i długości drutu oszacował, że grubość złota wokół srebra wynosi 120 nm - górna granica wielkości atomu złota. Teraz wiemy, że rzeczywisty rozmiar jest tysiąc razy mniejszy, ale przynajmniej ta pierwsza próba została podjęta. Jak na ironię, droga do bardzo małego nie obejmowała mikroskopu, który wynaleziono na początku XVII wieku. Zamiast tego obejmowało badanie gazów, co doprowadziło do powstania chemii, cząsteczek, atomów, a nawet mniejszych jednostek. Joseph Black (1728-1799) był młodym mężczyzną pracującym nad doktoratem na Uniwersytecie w Edynburgu, kiedy przeprowadził badania, które uczyniły go sławnym. Aby umożliwić dokonanie ważnych odkryć, opracował wrażliwą wagę, która była o wiele dokładniejsza niż jakakolwiek inna w tamtych czasach. Odkrył, że wapień można podgrzać lub potraktować kwasami, aby wytworzyć gaz, który nazwał "powietrzem stałym", który był gęstszy niż powietrze i gasił zarówno ogień, jak i życie zwierząt. Nazywamy to dwutlenkiem węgla. Pokazał, że powietrze jest mieszaniną gazów, co było wówczas rewolucyjne. Kolejnych dziesięć gazów, w tym amoniak, podtlenek azotu i tlenek węgla, zidentyfikował Joseph Priestly (1733-1804). Jego najsłynniejszym odkryciem był tlen. We wszystkich tych pracach interpretował wyniki w kategoriach niesławnej teorii flogistonu promowanej przez niemieckiego chemika Georga Stahla (1659-1734). Zgodnie z tą teorią spalanie jest wyjaśnione przez substancję (flogiston) opuszczającą spalany materiał. Priestly nie odkrył związku między spalaniem a tlenem, ale zaobserwował pewne charakterystyczne właściwości tego nowego gazu - że zapalona świeca zapalała się po zanurzeniu w gazie i że mysz dobrze się rozwijała w zamkniętym naczyniu wypełnionym gazem. Henry Cavendish (1731-1810) pochodził z arystokratycznej rodziny w Anglii. Uczęszczał do prywatnej szkoły, a następnie do Cambridge. Do świata nauki wprowadził go ojciec i poświęcił się temu do końca życia. Jego badania obejmowały chemię, fizykę i Ziemię. Ceniony był za precyzję swojej pracy. Był również znany z odkrycia wodoru, lub tego, co nazwał "palnym powietrzem", i przeprowadził staranne eksperymenty nad jego właściwościami. Pokazał, że woda nie jest pierwiastkiem, a raczej mieszaniną dwóch innych substancji - ważną wskazówką dla przyszłych prac. Człowiekiem, który połączył wszystkie te odkrycia w prawdziwą naukę chemiczną, był Antoine Lavoisier (1743-1794). Jego ojciec był prawnikiem w Paryżu, a Lavoisier studiował prawo na uniwersytecie w Paryżu, ale uczęszczał także na kursy matematyki i nauk ścisłych, które określiły kierunek jego kariery. Był niezależnie zamożny, więc mógł podążać za swoim kaprysem. Oprócz rozwijania zainteresowań naukowych został członkiem kilku rad arystokratycznych i administratorem znienawidzonego Ferme Generale ("farmy podatkowej"). Pomogły one sfinansować jego badania naukowe, ale także doprowadziły do jego śmierci: został zgilotynowany w 1794 roku. Ale jego kariera naukowa była znakomita. Jest powszechnie uważany za "ojca nowoczesnej chemii". Znany jest z rozpoznania roli tlenu w spalaniu i położył kres teorii flogistonu. Wyprodukował pierwszy obszerny spis pierwiastków. Książka, którą opublikował w 1789 roku, Traité Elémentaire de Chimie (Podstawowy traktat o chemii), jest czasami uważana za chemiczny odpowiednik Principia Newtona. Humphry Davy (1778-1829) stał się wybitnym naukowcem bez formalnego wykształcenia poza prowincjonalnym gimnazjum. Był synem rolnika z Kornwalii, który prowadził egzystencję. Udało mu się nauczyć się francuskiego i przeczytać Traité Elémentaire Lavoisiera w oryginalnym języku, gdy miał zaledwie 18 lat. W następnym roku został asystentem w nowym instytucie badawczym w Bristolu. Przeprowadzał eksperymenty z podtlenkiem azotu; stało się to powszechnie znane jako "gaz rozweselający" ze względu na swoje odurzające właściwości i zyskało jego imię. Został wykładowcą w nowopowstałym Royal Institution w Londynie, a w ciągu roku, w wieku 23 lat, został mianowany profesorem chemii. W trakcie swojej pracy wyizolował potas, sód i chlor i został prezesem Towarzystwa Królewskiego. To było niesamowite przejście od samouka amatora na najwyższe stanowisko w brytyjskiej nauce. Innym naukowcem, który zyskał rozgłos od skromnych początków, był John Dalton (1766-1844). Jego ojciec był tkaczem, a Dalton uczęszczał do lokalnej szkoły kwakrów. Kiedy miał zaledwie 15 lat dołączył do swojego brata i kuzyna w prowadzeniu szkoły kwakrów i pozostał tam do 27 roku życia. Oprócz obowiązków w szkole zaczął wygłaszać publiczne wykłady. Stał się na tyle dobrze znany, że zaproponowano mu posadę nauczyciela w Manchesterze, a kilka lat później odkrył, że jest w stanie zarabiać na życie jako prywatny korepetytor; to dało mu czas na naukę i pozostał w Manchesterze do końca życia. Jednym z jego zainteresowań była natura mieszanin gazów, której kulminacją było prawo ciśnienia cząstkowego, znane jako prawo Daltona. Rozważał również, z czego zbudowane są pierwiastki i wymyślił teorię atomową. Jego zdaniem każdy pierwiastek składa się z niezniszczalnych atomów unikalnych dla tego pierwiastka, które mogą łączyć się z atomami innych pierwiastków w prostych proporcjach, tworząc związki chemiczne. Atomy różnych pierwiastków różnią się wielkością i wagą. Dalton opublikował te idee w swojej książce A New System of Chemical Philosophy w 1808 roku; zawierał wykaz szacunkowych "mas atomowych". Jego teoria miała mieszany odbiór, ponieważ niektórym (znowu) trudno było zaakceptować ideę atomów oddzielonych pustą przestrzenią, ale powoli zyskała akceptację jako heurystyczny model rzeczywistości. Dalton otrzymał wiele wyróżnień i został członkiem Towarzystwa Królewskiego. Szwedzki chemik Jöns Berzelius (1779-1848) był wychowywany przez wujka po tym, jak oboje jego rodzice zmarli, gdy był młody. Studiował medycynę na Uniwersytecie w Uppsali, a następnie przeniósł się do College of Medicine w Sztokholmie. Został tam profesorem w wieku 28 lat, a jego zainteresowania przeniosły się na chemię. Badał proporcje pierwiastków w wielu związkach chemicznych i opracował tabelę względnych mas atomowych dla wszystkich 40 pierwiastków znanych w tym czasie. Jego praca dostarczyła mocnych dowodów na rzecz teorii atomowej Daltona. Dwa inne wydarzenia z początku XIX wieku rozwinęły teorię atomową. Po pierwsze, francuski chemik Joseph Louis Gay-Lussac (1778-1850) odkrył, że gazy łączą się w prostych proporcjach objętościowych (para wodna składa się z dwóch części wodoru i jednej części tlenu). Pobudzony tym odkryciem włoski fizyk Amadeo Avogadro (1776-1856) postawił hipotezę, że dana objętość dowolnego gazu przy danym ciśnieniu i temperaturze zawiera taką samą liczbę cząstek (atomów lub molekuł). Idea atomu (i cząsteczki) stała się powszechna pod koniec XIX wieku, m.in. dzięki pracom Edwarda Franklanda (1825-1899), Archibalda Coupera (1831-1892) i Friedricha Kekule (1829-1896). Wprowadzono pojęcie wartościowości - zdolność jednego pierwiastka (lub atomu) do łączenia się z innym. A koncepcja wiązań między atomami była łatwa do zobrazowania, na przykład łączenie atomów węgla w pierścienie wiązaniami łączącymi je z innymi atomami. W latach 60. XIX wieku czterech naukowców niezależnie "odkryło" słynny układ okresowy pierwiastków. Zdali sobie sprawę, że jeśli pierwiastki są ułożone w kolejności ich mas atomowych, istnieje okresowy wzór, w którym pierwiastki oddzielone wielokrotnością ośmiokrotności masy atomowej wodoru mają podobne właściwości chemiczne. Pierwszymi trzema byli francuski mineralog Alexandre Beguyer de Chancourtois (1820-1886), angielski chemik John Newlands (1837-1898) i niemiecki chemik Lothar Meyer (1830-1895). Wszystkie przedstawiały istotę układu okresowego pierwiastków, ale żadna nie była tak przekonująca jak ta Dymitra Mendelejewa (1834-1907). Mendelejew urodził się na Syberii jako najmłodszy z 14 dzieci. Jego ojciec, nauczyciel, oślepł, gdy Mendelejew był bardzo młody; jego matka utrzymywała rodzinę z huty szkła, która została zniszczona przez pożar, gdy Mendelejew miał 14 lat, rok po śmierci ojca. Jego matka zabrała go następnie do Petersburga, aby otrzymał odpowiednie wykształcenie. Nie mogąc uzyskać miejsca na uniwersytecie, został nauczycielem. W końcu udało mu się uzyskać tytuł magistra chemii na Uniwersytecie w Sankt Petersburgu, gdzie pracował przez 2 lata, zanim wyjechał na sponsorowany przez rząd program do Paryża i Heidelbergu. Po powrocie do Rosji zrobił doktorat i został profesorem chemii na uniwersytecie w Petersburgu, gdzie przebywał przez wiele lat. W 1869 Mendelejew opublikował swoją słynną pracę "O stosunku właściwości do atomowych ciężarów pierwiastków". Poszedł dalej niż tylko odnotowanie szerokiego wzoru. Podobnie jak inni ułożył pierwiastki w rzędy po osiem, w kolejności rosnącej masy atomowej; elementy o podobnych właściwościach chemicznych zostały następnie wyrównane w kolumnach tabeli. Ale były pewne nieprawidłowości i luki. Podjął inicjatywę zmiany kolejności niektórych pierwiastków o podobnych masach atomowych, aby upewnić się, że wszystkie kolumny zawierają tylko pierwiastki o podobnych właściwościach. Pozostawił również trzy luki w tabeli, twierdząc, że odpowiadają one trzem jeszcze nieodkrytym elementom, i przewidział, jakie właściwości będą miały te elementy. I rzeczywiście, do 1886 roku wszystkie te trzy pierwiastki zostały odkryte, co dało ogromny wzrost zaufania do układu okresowego pierwiastków. Nie było wątpliwości, że znaleziono fundamentalną właściwość świata chemicznego. Poszukiwanie najbardziej podstawowych składników materii przechodziło teraz z rąk chemików do fizyków. W drugiej połowie XIX wieku fizycy rozwijali teorię kinetyczną gazów, która opiera się na ruchach składowych atomów i cząsteczek (zakładając, że istnieją). Dwóch liderów w tej dziedzinie to Szkot James Clerk Maxwell (1831-1879) i Austriak Ludwig Boltzmann (1844-1906). W artykule przedstawionym w 1859 roku Maxwell wykazał, że cząsteczki w powietrzu o temperaturze 15 C doświadczają ponad ośmiu miliardów zderzeń na sekundę, ze średnią swobodną ścieżką wynoszącą sześć milionowych części centymetra. To szaleństwo aktywności jawi się nam w skali makroskopowej jako gładki, ciągły gaz. Maxwell pokazał związek między ciepłem a ruchem: temperatura jest miarą średniej prędkości cząsteczek. Boltzmann dalej rozwinął tę teorię, a rozkład prędkości cząsteczek wokół ich średniej stał się znany jako rozkład Maxwella-Boltzmanna. Dokonano wówczas różnych szacunków dotyczących rozmiarów cząsteczek. W 1865 r. Austriak Johann Loschmidt (1821-1895) stwierdził, że w cieczy molekuły stykają się ze sobą, ale w postaci gazowej są rozdzielone, i użył średniej swobodnej drogi do oszacowania wielkości molekuł tworzących powietrze około jednej milionowej milimetra, niedaleko od współczesnej wartości. Jeden z czterech słynnych artykułów opublikowanych przez Einsteina w 1905 roku, jego annus mirabilis, dotyczył ruchów Browna. Może się wydawać, że Einstein podjął ten temat dość niejasny, ale był zdeterminowany, aby udowodnić, że atomy są prawdziwe. W 1827 r. Szkot Robert Brown (1773-1858) zauważył, że ziarna pyłku unoszące się w wodzie, widziane przez mikroskop, poruszają się w bardzo chaotyczny sposób. Szybko ustalono, że ten rodzaj ruchu występuje we wszystkich maleńkich ziarnach zawieszonych w cieczy lub powietrzu, a zjawisko to nazwano ruchem Browna. Sugerowano, że może to być spowodowane oddziaływaniem cząsteczek ośrodka na ziarna, ale wydawało się, że nie ma możliwości udowodnienia tej hipotezy. Artykuł Einsteina dał wreszcie jasny statystyczny opis zjawiska. Ziarna podążają "losowym marszem", w którym przebyta odległość jest proporcjonalna do pierwiastka kwadratowego zajętego czasu. Einstein przewidział prędkość sześciu tysięcznych milimetra na minutę dla cząstek wielkości mikrometrów w wodzie o temperaturze 17 C. Francuski fizyk, który podjął wyzwanie pomiaru tego ruchu, Jean Perrin (1870-1942), był w stanie potwierdzić przewidywania Einsteina . W końcu udowodniono fizyczną rzeczywistość atomów i cząsteczek. Ale czy atom naprawdę jest najmniejszym bytem? A może ma podkonstrukcję? Czy są jeszcze mniejsze podmioty? W latach 60. XIX wieku badania przeprowadzone przy użyciu lamp próżniowych z prądem elektrycznym przepływającym między elektrodą dodatnią i ujemną wykazały, że świecące promienie emitowane z katody (elektrody ujemnej) wydawały się podążać za liniami prostymi. Stały się one znane jako promienie katodowe. Sugerowano, że mogą składać się z cząstek materii. William Crookes (1832-1919) wykazał, że jeśli w rurze zostanie umieszczona przeszkoda, powstaje ostro zarysowany cień, a promienie mogą spowodować obrót małego koła łopatkowego - co wskazuje na to, że przenoszą pęd. W 1894 J.J. Thomson (1856-1940) wykazał, że poruszają się one znacznie wolniej niż światło, a do 1897 r. pojawiło się coraz więcej dowodów na to, że przenoszą ładunek elektryczny, są odchylane przez pola magnetyczne i powodują ujemnie naładowaną płytę metalową. W 1897 roku, po zmierzeniu stosunku ładunku do masy promieni katodowych, Thomson doszedł do wniosku, że cząstki składające się na promienie katodowe są ponad tysiąc razy mniejsze od atomu - odkrył elektron, pierwszą znaną cząstkę subatomową. Mniej więcej w tym samym czasie niemiecki fizyk teoretyczny Max Planck (1858-1947) pracował nad zupełnie innym problemem: promieniowaniem ciała doskonale czarnego. Idealne ciało czarne to takie, które pochłania całe promieniowanie, które na nie pada, i dla którego emitowane promieniowanie zależy tylko od jego temperatury. Widmo emitowanego promieniowania zostało zmierzone w wielu eksperymentach, ale bardzo trudno było stworzyć matematyczny model, który dawałby takie widmo w całości. Planck w końcu odniósł sukces w 1900 roku, ale przy znacznych kosztach: musiał założyć, że energie hipotetycznych promieniujących "oscylatorów" są wielokrotnościami jednostki elementarnej - są "skwantowane". Początkowo uważał to za założenie heurystyczne - ale to zadziałało. To założenie, niezgodne z fizyką klasyczną, oznaczało narodziny fizyki kwantowej. To prowadzi nas do innego z czterech słynnych artykułów Einsteina z 1905 roku: O heurystycznym punkcie widzenia dotyczącym produkcji i transformacji światła. Zaproponował w nim, że samo światło jest skwantowane: zachowuje się tak, jakby składało się z wzajemnie niezależnych kwantów, czyli fotonów. W tym samym artykule zastosował tę hipotezę do efektu fotoelektrycznego, w którym promieniowanie elektromagnetyczne może wybijać elektrony z powierzchni blachy. Czy zatem światło jest falą, jak zakładano w ciągu ostatniego stulecia, czy też strumieniem cząstek, jak w nowej teorii Einsteina? Rzeczywistość efektu fotoelektrycznego został ostatecznie udowodniony przez Amerykanina Roberta Millikana (1868-1953), który w rzeczywistości postanowił obalić tę teorię, ponieważ wierzył, że światło jest falą. Po odkryciu elektronów J.J. Thomson zaproponował model wewnętrznej struktury atomu w 1904 roku, swój "model budyniu śliwkowego". Zasugerował, że atom składa się z elektronów zanurzonych w "zupie" ładunku dodatniego, która równoważy ujemne ładunki elektronów. Model ten został przetestowany eksperymentalnie przez Nowozelandczyka Ernesta Rutherforda (1871-1937) i jego zespół z Uniwersytetu w Manchesterze, wystrzeliwując nowo odkryte "cząstki alfa" w cienką złotą folię. Szukając odchyleń dodatnio naładowanych cząstek alfa, byli w stanie zbadać wnętrze atomów złota. Odkryli, że podczas gdy większość cząstek alfa przeszła prosto, kilka zostało odbitych i ku ich zdumieniu znaleźli nawet rzadkie przypadki, w których cząstki alfa wracały prosto z powrotem. Wniosek Rutherforda z 1911 roku był taki, że atom zawiera bardzo małe dodatnio naładowane jądro, które odbija i odbija dodatnio naładowane cząstki alfa, otoczone elektronami o małej masie. Jądro zajmuje tylko około jednej stutysięcznej średnicy atomu: atomy to w większości pusta przestrzeń zawierająca pola elektromagnetyczne. Problem z modelem Rutherforda polegał na tym, że był niestabilny - nic nie mogło powstrzymać ujemnie naładowanych elektronów przed spadnięciem do dodatnio naładowanego jądra. Można sobie wyobrazić, że elektrony krążą po orbitach wokół jądra, podobnie jak planety wokół Słońca, ale elektrony orbitujące szybko traciłyby energię pod wpływem promieniowania elektromagnetycznego i wpadały do jądra. Duński fizyk Niels Bohr (1885-1962) odwiedził Rutherforda w Manchesterze przez 6 miesięcy w 1912 roku i tam wymyślił swój kwantowy model atomu, opublikowany w 1913 roku. Zaproponował, aby elektrony krążyły wokół jądra w sposób stabilny, dyskretne poziomy energii ("orbity"), ale mogą przeskakiwać z jednego poziomu energii na drugi, emitując (lub pochłaniając) dyskretny kwant energii elektromagnetycznej. W ten sposób był w stanie wyjaśnić obserwowane linie widmowe atomów wodoru (fizyka klasyczna nie potrafiła wytworzyć tych dyskretnych cech). Było to niezwykłe osiągnięcie i wielki krok w dziedzinie fizyki kwantowej. Jego model, z udoskonaleniami dokonanymi w ciągu następnej dekady, stanowił podstawę naszego zrozumienia chemii. W latach dwudziestych opublikowano szereg ważnych artykułów z dziedziny fizyki kwantowej. W 1924 Louis de Broglie (1892-1987) ukończył na Sorbonie pracę doktorską, w której zasugerował, że tak jak fale elektromagnetyczne można opisać w kategoriach cząstek, tak wszystkie cząstki materialne, takie jak elektrony, można opisać w kategoriach cząstek. fale. Wszystko ma naturę dwufalowo-cząsteczkową. Stało się to znane jako dualizm falowo-cząsteczkowy, główny temat mechaniki kwantowej. Niedługo po tym, jak de Broglie sformułował swoją śmiałą hipotezę, dyfrakcja elektronów została zaobserwowana w dwóch niezależnych eksperymentach, jednym przeprowadzonym przez Clintona Davissona (1881-1958) i Lestera Germera (1896-1971), a drugim przez George′a Thomsona (1892-1975). Potwierdziła się zdumiewająca rzeczywistość dualizmu falowo-cząsteczkowego. Dwa inne koncepcyjnie różne modele matematyczne opisujące zachowanie elektronów w atomach zostały opublikowane w 1926 roku. Jeden z nich, autorstwa Erwina Schrödingera (1887-1961), oparty był w całości na falach, opisując świat subatomowy za pomocą równania falowego. Drugi, autorstwa Wernera Heisenberga (1901-1976), przyjął podejście cząsteczkowe, polegające na "przeskakiwaniu kwantowym" między poziomami energii. Paul Dirac (1902-1984) stworzył bardziej abstrakcyjny formalizm i wykazał, że pozostałe dwa podejścia były zawarte w tym formalizmie i były sobie matematycznie równoważne. Bardzo różne teorie, wszystkie poprawne, opisujące te same zjawiska. Najbardziej zaskakującym artykułem był artykuł opublikowany przez Heisenberga w 1927 roku na temat słynnej "zasady niepewności". Pokazał, że zgodnie z mechaniką kwantową niemożliwe jest jednoczesne poznanie wszystkich właściwości układu z idealną dokładnością, nawet co do zasady. Na przykład, jeśli położenie cząstki jest dokładnie znane, jej pęd nie może być; im dokładniejsza pozycja, tym mniej dokładny pęd i na odwrót. To samo dotyczy czasu i energii. Nie wynika to z ograniczeń naszych pomiarów - to fundamentalna właściwość samej natury. Wartości tych właściwości są określane przez "fale prawdopodobieństwa". Einstein zawsze był tym zdenerwowany i sądził, że pewnego dnia zostanie odnaleziona podstawowa rzeczywistość, w której panowałaby ścisła przyczynowość, a nie zwykłe prawdopodobieństwo i niepewność. Powiedział: "Bóg nie gra w kości". Ale kolejne eksperymenty przeprowadzone dekady później obaliły pogląd Einsteina i potwierdziły przewidywania mechaniki kwantowej. Choć może się to wydawać dziwaczne, wydaje się, że taki jest świat. Również w 1927 r. Dirac opublikował coś, co uważano za ostateczne równanie falowe elektronu. Miał dwa rozwiązania, z których drugie wydawało się opisywać cząstkę, która ma taką samą masę jak elektron, ale ładunek dodatni. Uświadomiono sobie, że na przykład energetyczne fotony można przekształcić w pary cząstek - zwykłe elektrony naładowane ujemnie i elektrony naładowane dodatnio. Zjawisko to zaobserwował następnie w 1932 roku Carl Anderson (1905-1991) w swoich badaniach promieni kosmicznych. Nazwał dodatni elektron pozytonem. Była to pierwsza znana cząstka "antymaterii"; wiadomo, że każda cząstka ma "antycząstkę" o przeciwnym ładunku. Tymczasem trwały prace nad właściwościami jądra atomowego. Kontynuując badania przeprowadzone w Niemczech i Francji, polegające na bombardowaniu jąder cząstkami alfa, James Chadwick (1891-1974) przeprowadził podobne eksperymenty w 1932 r. i doszedł do wniosku, że cząstki alfa wybijają z jądra nieznane wcześniej cząstki neutralne. Ustalił, że ich masa jest nieco większa niż masa protonu - odkrył neutron. Ale co trzymało jądro razem? Prace teoretyczne Wolfganga Pauliego (1900-1958) i Enrico Fermiego (1901-1954) wykazały, że "silne oddziaływanie jądrowe" bliskiego zasięgu może utrzymywać razem protony i neutrony oraz że inna siła krótkiego zasięgu, "słaba siła jądrowa" , może wyjaśnić proces radioaktywnego rozpadu beta, w którym protony i neutrony mogą być przekształcane w siebie nawzajem. W końcu zidentyfikowano cząstki i siły jądra atomowego. Późniejsze prace teoretyczne w latach 30. i 40. ostatecznie przyniosły kompletną teorię opisującą interakcje promieniowania elektromagnetycznego i materii, z pełną zgodnością między mechaniką kwantową a szczególną teorią względności Einsteina (wspomnianą poniżej). Elektrodynamika kwantowa (QED), jak znana jest teoria, została opracowana niezależnie przez Japończyka Sinitiro Tomonagę (1906-1979) oraz Amerykanów Juliana Schwingera (1918-1994) i Richarda Feynmana (1918-1988). Wszystkie ich podejścia są matematycznie równoważne. Miarą sukcesu QED jest fakt, że jego przewidywania dotyczące "momentu magnetycznego" elektronu zgadzają się z eksperymentem z dokładnością do jednej części na dziesięć miliardów! W latach pięćdziesiątych i sześćdziesiątych w nowych detektorach cząstek odkryto zdumiewającą lawinę nowych cząstek subatomowych. Wysokoenergetyczna kolizja dwóch protonów może spowodować potok setek nowych i nieoczekiwanych cząstek, z których większość ma bardzo krótki żywot. W 1964 r. głównym uproszczeniem tego "hadronowego zoo" był model kwarków opracowany przez Murraya Gell-Manna (1929-2019) i George′a Zweiga (1937-). Zgodnie z tym modelem protony i neutrony zawierają trzy jeszcze bardziej fundamentalne jednostki zwane "kwarkami", które nigdy nie mogą uciec od swoich macierzystych protonów i neutronów. Po raz pierwszy "zauważono" je w eksperymentach pod koniec lat 60., które ujawniły, że są punktowe, pasujące do modelu kwarków. Tak więc najpierw atomy, potem elektrony, protony i neutrony, a teraz fizyka podstawowa kwarków badała w coraz mniejszych skalach, do 10-18 m, a nawet miliony razy mniejszych od atomów! W tych burzliwych czasach miała miejsce ciągła seria ważnych teoretycznych i eksperymentalnych odkryć. W 1967 roku Sheldon Glashow (1932-), Steven Weinberg (1933-2021) i Abdus Salam (1926-1996) zainicjowali "Standardowy Model Fizyki Cząstek" łącząc siły elektromagnetyczne i słabe w siłę "elektrosłabą". Chromodynamika kwantowa (QCD) to nowoczesna wersja fizyki jądrowej, która ma zastosowanie w skali kwarków i była ulepszeniem modelu kwarków Gell-Manna. David Gross (1941-), David Politzer (1949-) i Frank Wilczek (1951-) wszyscy wnieśli duży wkład w QCD. W 1984 roku duża współpraca w CERN (Europejska Organizacja ds. Badań Nuklearnych) kierowane przez Carlo Rubbię (1934) i Simona Van der Meera (1925-2011) odkryły masywne nośniki słabej siły. W 2012 r., Wielki Zderzacz Hadronów (LHC) w CERN odkrył "bozon Higgsa", który jest odpowiedzialny za powstawanie mas wszystkich fundamentalnych cząstek. "Mechanizm Higgsa" został zaproponowany prawie 50 lat wcześniej przez Petera Higgsa (1929-) i kilku innych teoretyków. Bozon Higgsa był ostatnim pozostałym fragmentem Modelu Standardowego, a jego odkrycie było doniosłym wydarzeniem dla fizyki fundamentalnej. Model Standardowy fizyki cząstek klasyfikuje teraz wszystkie znane cząstki subatomowe i obejmuje siły elektromagnetyczne, słabe i silne. Wyjaśnia wszystkie wyniki eksperymentów z akceleratorów na świecie. Zgodnie z Modelem Standardowym podstawowymi składnikami materii są rodziny "fermionów" ("leptony" i "kwarki") oraz ich antycząstki. "Bozony" są nośnikami oddziaływań podstawowych: "fotony" przenoszą oddziaływanie elektromagnetyczne, "gluony" oddziaływanie silne, a cząstki "W" i "Z" oddziaływanie słabe. Bozon Higgsa powoduje powstanie masy cząstki. Model Standardowy zapewnia dokładne podstawy fizyczne leżące u podstaw chemii, biologii, elektroniki, inżynierii, materiałoznawstwa, astrofizyki, większości kosmologii i fizyki życia codziennego. QCD rządzi światem protonów, neutronów i innych "hadronów"; QED rządzi światem światła, atomów i chemii. Model Standardowy był monumentalnym tour de force - najbardziej udaną teorią znaną człowiekowi - z przewidywaniami, które zgadzają się z eksperymentami z dokładnością do jednej części na dziesięć miliardów. To niezwykły czas. Coraz więcej danych z LHC napływa i jest analizowanych w każdym szczególe, i nadal zgadzają się one z przewidywaniami Modelu Standardowego, opracowanego 40 lat temu. Można by dojść do wniosku, że teoria okazała się tak skuteczna, że praca jest już wykonana - że era odkryć minęła, jeśli chodzi o badanie "Bardzo małego". Ale niezadowoleni fizycy z niepokojem szukają jakiejkolwiek możliwej "nowej fizyki" poza Modelem Standardowym (który pomimo całego swojego sukcesu, wciąż jest uważany za niekompletny i niezadowalający pod wieloma względami).


Rozwój nauki


Od prehistorii do dalekiej przyszłości (9)


Bardzo duże

Jaki jest największy przedmiot? Podczas gdy Principia Newtona ostatecznie rozstrzygnęły kwestię ruchów planet, pozostało wiele pytań, które pozostały. Jak duży jest układ słoneczny? Jakie komety pojawiają się od czasu do czasu? Jakie są gwiazdy? Jak daleko są? Czy są skoncentrowane w powłoce tuż poza Układem Słonecznym, czy rozciągają się w nieskończoność? Korzystając z praw Keplera, astronomowie znali względne odległości wszystkich planet od Słońca na podstawie ich okresów orbitalnych. Ale bezwzględna skala Układu Słonecznego była trudniejsza do ustalenia. Giovanni Cassini (1625-1712) użył metody "paralaksy" do określenia odległości Marsa od Ziemi. W 1672 wysłał swojego kolegę do Gujany Francuskiej, przebywając w Paryżu. Przeprowadzili jednoczesne obserwacje Marsa i wykorzystali kąt między dwiema liniami widzenia, aby określić odległość do Marsa. Ponieważ znane były względne odległości wszystkich planet od Słońca, wystarczyło określić tylko jedną z nich, aby poznać je wszystkie. Jednostka astronomiczna (AU), odległość od Ziemi do Słońca, to standardowa skala odległości używana w opisie Układu Słonecznego. Obliczenia Cassini dały 138 mln km dla UA, co jest dość zbliżone do obecnie akceptowanej wartości 150 mln km. Układ słoneczny jest duży. W 1664 r. James Gregory (1638-1675) wskazał, że obserwacje przejścia Wenus przez tarczę Słońca, wykonane z różnych punktów na Ziemi, mogą również posłużyć do określenia odległości od Ziemi do Słońca za pomocą prostej geometrii. Edmund Halley podążył za tym później, przewidując, że następne tranzyty będą miały miejsce w 1761 i 1769 roku i podając szczegóły, jak należy przeprowadzić obserwacje. Ponieważ te dwa tranzyty zdarzają się tylko co 243 lata, była to okazja, której nie można przegapić. Nie tylko podałyby skalę Układu Słonecznego, ale także dostarczyłyby informacji istotnych dla problemu wyznaczania długości geograficznej na morzu. Kolejną zachętą dla narodów do wzięcia udziału w tym przedsięwzięciu był prestiż narodowy. Była to pierwsza prawdziwie międzynarodowa współpraca naukowa i to była ogromna. Aby było to możliwe, naukowcy z kilku różnych krajów musieli komunikować się, współpracować i uzgodnić plan. Ponieważ niektóre z zaangażowanych krajów (takich jak Wielka Brytania i Francja) były w tym czasie w stanie wojny, zapewniły bezpieczne przejście obywatelom swoich rywali. W 1761 roku około 120 obserwatorów z dziewięciu krajów objęło 62 stanowiska na całym świecie. Wielu z nich musiało miesiącami znosić ciężkie trudy, aby dostać się na wyznaczone stanowiska. Niestety ta pierwsza próba tranzytu była w dużej mierze nieudana z powodu złej pogody, więc stawka była bardzo wysoka dla tranzytu z 1769 roku. W przypadku tego drugiego tranzytu kapitan James Cook (1728-1779) zabrał HMS Endeavour w swoją słynną podróż na Tahiti, aby tam poczynić obserwacje, a rząd francuski polecił swojej marynarce wojennej, aby się w nią nie ingerowała, ponieważ był "z misją dla całej". ludzkości. Tym razem było około 250 obserwatorów z dziesięciu krajów w 130 lokalizacjach, w tym z Europy, Syberii, Ameryki Północnej, Indii, Św. Heleny, RPA, Indonezji, Chin, a także Tahiti. Pomimo początkowych rozczarowań, ostateczne wyniki były imponujące: dały wartość AU 150,8 mln km, w granicach 0,8% prawidłowej wartości 149,6 mln km. Wśród tego wszystkiego pojawiły się wczesne oznaki, że prędkość światła jest skończona. Obserwacje wykazały, że zaćmienia księżyców Jowisza zdarzają się "przed terminem", gdy Jowisz jest najbliżej Ziemi, i opóźniony, gdy Jowisz jest daleko. po drugiej stronie Słońca. Czas potrzebny na dotarcie światła do Ziemi zależy od odległości Jowisza - podróż światła wymaga czasu. Spostrzeżenie to było zasługą duńskiego astronoma Ole Rømera (1644-1710), który pracował w Obserwatorium Paryskim; jego oszacowanie prędkości światła mieściło się w granicach 25% prawdziwej wartości, ale jego wnioski były wówczas kontrowersyjne. Kolejna wskazówka na temat skończonej prędkości światła pochodzi z odkrycia przez Jamesa Bradleya (1693-1762) "aberracji światła": obserwowany kierunek padającego na Ziemię światła otrzymanego z odległej gwiazdy jest nieznacznie zmieniany przez ruch gwiazdy. Ziemia krążąca wokół Słońca; efekt zależy od prędkości Ziemi w stosunku do prędkości światła. Dało to również bezpośredni dowód ruchu Ziemi wokół Słońca. Newton zasugerował, że tajemnicze komety mogą być po prostu ciałami poruszającymi się po bardzo wydłużonych elipsach wokół Słońca, w którym to przypadku mogą pojawiać się od czasu do czasu. Mając to na uwadze, Halley przeszukał zapisy historyczne w poszukiwaniu komet o podobnych orbitach oddzielonych podobnymi okresami czasu i znalazł jeden intrygujący przypadek w kometach z lat 1531, 1607 i 1682. Uważał, że mogą to być ponowne pojawienia się tej samej komety (i że różnica między interwałami może wynikać po prostu z perturbacji planet znajdujących się na torze), w takim przypadku następne pojawienie się nastąpi pod koniec 1758 lub na początku 1759. Późniejsze szczegółowe obliczenia uwzględniające perturbacje Jowisza przewidywały, że kometa zbliży się do Słońca w ciągu kilku tygodni od połowy kwietnia 1759 r. i rzeczywiście zaobserwowano to 13 marca 1759 r. - powrót "komety Halleya" dostarczył zdumiewającego potwierdzenia fizyki Newtona. Nawigatorzy na morzu mogli z łatwością określić swoją szerokość geograficzną, mierząc w południe wysokość Słońca, ale określenie długości geograficznej stanowiło poważny problem. Do końca XVIII wieku nie było żadnego rozwiązania, powodując wiele trudności i utratę niezliczonych statków i istnień ludzkich - podróżowali "na ślepo" na zachód lub wschód. Określenie długości geograficznej wymagało porównania czasu lokalnego z "czasem standardowym" w porcie macierzystym. Jak można było poznać czas w tak odległym miejscu? W XVIII wieku istniały dwie konkurujące ze sobą możliwości - wykorzystanie ruchu Księżyca na tle gwiazd stałych jako zegara niebieskiego lub "noszenie" na pokładzie standardowego czasu w niezawodnym chronometrze (zegar precyzyjny), który jest dokładny nawet na falującym morzu . Ponieważ miało to duże znaczenie dla brytyjskiej marynarki wojennej i floty handlowej, rząd brytyjski zaproponował dużą nagrodę za najlepsze rozwiązanie. Wiele innych europejskich narodów morskich również było zaangażowanych w próbę rozwiązania tego problemu, który dotknął ich wszystkich, a wysiłek ten stał się jednym z największych przedsięwzięć naukowych, jakie kiedykolwiek podjęto. O dziwo, wygrał chronometr. Zegarmistrz John Harrison (1693-1776) wykonał serię zaskakująco wyrafinowanych i kompaktowych chronometrów, dokładnych do 5 s w ciągu 80 dni, a po transatlantyckich próbach swojego najlepszego chronometru w 1764 roku ostatecznie zdobył nagrodę. Wiele czasu i wysiłku poświęcono na stworzenie ulepszonych katalogów gwiazd, podając ich pozycje i jasności, aby zapewnić nawigatorom na morzu dokładny katalog gwiazd. Królewskie Obserwatorium w Greenwich zostało założone w tym celu w 1675 r., a pierwszym wynikiem był katalog 3000 gwiazd opublikowany w 1725 r. Aby ułatwić określenie długości geograficznej za pomocą Księżyca, w 1766 r. pojawił się pierwszy z corocznych almanachów morskich. Podobne prace prowadzono w innych krajach. Kiedy chronometry zostały wybrane jako preferowana metoda określania długości geograficznej na morzu, obserwatoria założone w głównych portach na całym świecie zapewniały nawigatorom dokładną astronomiczną kalibrację ich chronometrów przed wypłynięciem w morze. Kilka innych katalogów zostało przygotowanych w celach czysto naukowych. William Herschel (1738-1822) wykonał 2-metrowy teleskop "podwórkowy" do poszukiwania "gwiazd podwójnych" (gwiazd znajdujących się blisko siebie na niebie) i opublikował katalogi setek z nich w latach 1782-1784. Był w stanie potwierdzić, że są to gwiazdy podwójne krążące pod wpływem wzajemnego przyciągania grawitacyjnego. Później zbudował teleskop zwierciadlany o długości 6 m, aby badać niebo w poszukiwaniu mgławic (rozproszonych obszarów światła) i gromad gwiazd, a skończył z katalogami klasyfikującymi tysiące z nich. Jego pracę kontynuował jego syn John (1792-1871), a połączone wysiłki zaowocowały powstaniem New General Catalog zawierającego 7840 obiektów głębokiego nieba, opublikowanego w 1888 roku. Natura mgławic była niepewna - czy wszystkie odległe gromady gwiazd udają pojedyncze rozproszone obiekty? William Parsons (1800-1867), 3. hrabia Rosse, zbudował gigantyczny teleskop z lustrem o średnicy 1,8 m, aby odpowiedzieć na to pytanie w 1845 roku. Okazało się, że niektóre mgławice mają strukturę spiralną i rozdzielił gwiazdy w Mgławicy Oriona , ale ostatecznie nie dał ostatecznej odpowiedzi co do natury mgławic - na spektroskopię trzeba było poczekać. Spektroskopia po raz pierwszy stała się narzędziem w XIX wieku. W 1802 r. William Wollaston (1766-1828) powtórzył słynny eksperyment Newtona ze światłem słonecznym, ale zamiast otworka użył wąskiej szczeliny o szerokości 1,3 mm i ku swemu zdziwieniu znalazł w widmie siedem ciemnych linii. Niemiecki optyk Joseph Fraunhofer (1787-1826) wynalazł spektroskop w 1814 roku, a wraz z nim odkrył jasną pomarańczową linię w widmie ognia i 576 ciemnych linii w widmie słonecznym. Do 1859 roku dwaj inni Niemcy, Wilhelm Bunsen (1811-1899) i Gustav Kirchhoff (1824-1887), ustalili, że gorące ciała stałe i ciecze wytwarzają widmo ciągłe (bez linii), podczas gdy świecące gazy tworzą widmo z jasnymi liniami. W 1864 roku astronom William Huggins (1824-1910) odkrył, że jedna z mgławic ma jasne widmo, co dowodzi, że "prawdziwe" mgławice gazowe istnieją. Później odkryto, że gdy przez gaz przechodziło widmo ciągłe, pojawiały się ciemne linie charakterystyczne dla tego gazu. W astronomii te linie, jasne i ciemne, są liniami emisyjnymi i absorpcyjnymi z powodu atomów w gwiazdach i mgławicach - tych samych atomów, które obserwujemy tutaj na Ziemi. Dlatego możemy wykorzystać naszą wiedzę o atomach, które obserwujemy w laboratorium, aby określić, z czego zbudowane są odległe gwiazdy i mgławice! Odwrotna sytuacja również jest prawdziwa. Podczas zaćmienia Słońca w 1868 roku Pierre Jansen (1824-1907) i Norman Lockyer (1836-1920) zaobserwowali w widmie Słońca nieznany wzór linii. Lockyer sądził, że musi to być spowodowane jakimś nieznanym jeszcze pierwiastkiem, który nazwał "helem" (od greckiego Helios: Słońce). Hel został następnie zidentyfikowany na Ziemi 27 lat później, w 1895 roku. Udowodniono więc, że tak jak prawa grawitacji Newtona obowiązują zarówno na Ziemi, jak i w kosmosie, to samo dotyczy fizyki atomowej. Materia w odległym wszechświecie jest taka sama jak materia na Ziemi! Oszałamiająca rewelacja. Dwie nowe planety zostały dodane do pierwotnych sześciu w XVIII i XIX wieku, jedna przypadkowa odkryta, a druga prognoza oparta na mechanice newtonowskiej. Odkrycia dokonał w 1781 roku William Herschel podczas serii obserwacji za pomocą swojego dużego teleskopu. Znalazł niezwykły obiekt, którym okazała się planeta Uran. Jest prawdopodobne, że Uran był obserwowany kilka razy wcześniej (nawet przez Hipparcha w 128 r. p.n.e.), ale nie został rozpoznany jako planeta. Dalsze obserwacje wykazały, że jego ruch odbiega od prostej orbity planetarnej. Rozważono możliwe przyczyny i wywnioskowano, że najprawdopodobniej perturbacje grawitacyjne wywołane przez inny masywny obiekt. Obliczenia przeprowadzone zarówno w Anglii, jak i we Francji przewidziały położenie tego obiektu, a obserwacje z 1846 r. znalazły go i ujawniły, że rzeczywiście była to inna planeta - Neptun. Kolejny oszałamiający sukces fizyki Newtona. A co z gwiazdami? Do czasu rewolucji naukowej astronomowie postrzegali gwiazdy jako część zewnętrznej sfery niebieskiej, niezmienną zarówno pod względem położenia, jak i jasności. Jednak w 1572 Tycho odkrył supernową nagle pojawiającą się jasno na niebie, a następnie stopniowo zanikającą, i zdał sobie sprawę, że mimo wszystko gwiazdy mogą nie być tak nieciekawe. W swojej wpływowej siedemnastowiecznej kosmologii René Descartes (1596-1650) zaproponował, że gwiazdy są świecącymi obiektami, takimi jak nasze Słońce, tylko znacznie bardziej odległymi i rozproszonymi po całym wszechświecie. Ta nowa koncepcja otworzyła zupełnie nowy kierunek studiów. Czy gwiazdy się poruszają? Czy różnią się jasnością? Jak są rozmieszczane w przestrzeni? Aby odpowiedzieć na pierwsze pytanie, Halley pracował z wczesną wersją katalogu gwiazd Royal Greenwich Observatory i porównał pozycje gwiazd z tymi z mniejszego katalogu sporządzonego przez Hipparcha w II wieku p.n.e. W 1718 r. odkrył, że w kilku przypadkach różnice w pozycjach były znacznie większe niż rozmiar kątowy Księżyca na niebie. Było to znacznie większe, niż można by to wytłumaczyć błędami w starożytnym katalogu, wskazującymi, że gwiazdy faktycznie się poruszały - kolejny przekonujący dowód przeciwko sferze niebieskiej gwiazd stałych. Obserwowana rotacja plam słonecznych sugerowała możliwość, że inne gwiazdy również mogą się obracać, a w rezultacie mogą różnić się jasnością pozorną. Ale oprócz nowych (gwiazd, które rozjaśniają się nagle i na krótko, czego skrajnym przykładem była "supernowa" odkryta przez Tycho), oczekiwane zmiany byłyby niewielkie i trudne do wykrycia za pomocą ówczesnych teleskopów. Niemniej jednak w XVIII wieku odkryto, że niektóre gwiazdy wykazują znaczne różnice, w jednym przypadku z powodu zaćmienia, a w innym przypadku z powodu pulsacji - jedna z tak zwanych "cefeid", które miały odegrać kluczową rolę w XX wieku. kosmologia. Ale ogólnie rzecz biorąc, właściwe badanie naukowe takich zmian jasności musiało poczekać na późniejsze zmiany. Jak daleko są gwiazdy? W modelu heliocentrycznym Ziemia okrąża Słońce każdego roku, a więc co pół roku znajduje się po przeciwnych stronach swojej orbity, a obserwacje danej gwiazdy pokażą ją pod różnymi kątami - będzie się wydawało, że się przesunęła (tzw. "roczna paralaksa"). Fakt, że efekt ten był zbyt mały, aby można go było zaobserwować, oznaczał, że gwiazdy musiały znajdować się w bardzo dużych odległościach, jak argumentowali zarówno Arystarch, jak i Kopernik. Na początku XVIII wieku ulepszone próby pomiaru paralaksy sprawiły, że odległość do gwiazd wyniosła ponad 0,4 miliona AU. Innym podejściem do szacowania odległości gwiazd było założenie, że Słońce jest typową gwiazdą i porównanie jego jasności z jasnością gwiazd. Ponieważ pozorna jasność obiektu jest odwrotnie proporcjonalna do kwadratu jego odległości od nas, odległości do gwiazd można określić na podstawie odległości Ziemi od Słońca. W ten sposób Christiaan Huygens (1629-1695) oszacował, że gwiazda Syriusz (najjaśniejsza na niebie) jest oddalona od nas o 28 000 AU. Newton użył wariantu tej metody, dając Syriuszowi milion AU od nas. Nie był daleko - teraz wiemy, że Syriusz jest oddalony o 0,54 miliona AU. Ale świętym Graalem w określaniu odległości gwiazd nadal było dokonywanie bezpośrednich pomiarów gwiezdnych paralaks. Wymagało to precyzyjnego pomiaru zmian pozornej pozycji "pobliskiej" gwiazdy w stosunku do tła odległych gwiazd w związku z ruchem orbitalnym Ziemi wokół Słońca. Efekty są bardzo małe (ułamki "sekundy łuku", czyli około jednej dwutysięcznej średnicy Księżyca) i trzeba było zmierzyć się z kilkoma komplikacjami. Ale w końcu, po ponad stu latach wysiłków kilku astronomów, w 1838 roku Friedrich Wilhelm Bessel (1784-1846) doniósł o przekonującym pomiarze gwiazdy z paralaksą 0,3 sekundy łuku, co sugeruje odległość 10 lat świetlnych. To tylko jedna z najbliższych gwiazd, a jej światło potrzebuje 10 lat, aby do nas dotrzeć! Wreszcie astronomowie zaczęli zdawać sobie sprawę z niesamowitych rozmiarów wszechświata. Te wczesne pomiary musiały być wykonane na oko, a to był powolny biznes. Do roku 1900 znanych było tylko około 60 paralaks, ale to wystarczyło, aby uzyskać przydatne statystyki dotyczące właściwości gwiazd. Dysponując odległością i pozorną (obserwowaną) jasnością gwiazdy, można było określić jasność rzeczywistą (wewnętrzną). Używając klisz fotograficznych do rejestrowania obrazów i widm gwiazd, stało się możliwe określenie ich koloru i kompozycji. Kolejnym ważnym parametrem była masa gwiazdy. Te informacje uzyskano z badań gwiazd podwójnych - par gwiazd krążących wokół siebie. Obserwacje spektroskopowe podają prędkości obu gwiazd z wykorzystaniem efektu Dopplera. Masy gwiazd w układzie podwójnym można następnie obliczyć za pomocą fizyki Newtona. Dzięki tym składnikom stało się możliwe badanie fizyki gwiazd - narodziła się astrofizyka. Istotny związek między dwoma parametrami gwiazdy został odkryty niezależnie w 1910 roku przez dwóch astronomów, Duńczyka Ejnara Hertzsprunga (1873-1967) i Amerykanina Henry′ego Norrisa Russella (1877-1957). Parametrami są jasność gwiazdy i jej kolor (wskazujący na jej temperaturę). Wykres pokazujący tę zależność nazywa się diagramem H-R i pozostaje jednym z najważniejszych narzędzi w badaniu gwiazd. Większość gwiazd leży w tak zwanym "ciągu głównym", z gorącymi, masywnymi gwiazdami na jednym końcu i chłodnymi, małomasywnymi gwiazdami na drugim. Odchodzą od ciągu głównego w charakterystyczny sposób, gdy się starzeją, więc całe życie całych klas gwiazd można prześledzić na diagramie H-R. Samo Słońce jest przeciętną gwiazdą i leży w środku ciągu głównego. Diagram H-R dał astrofizykom potężne narzędzie do zrozumienia ewolucji gwiazd. Mając dostępne odległości, w zasadzie cały wszechświat można odwzorować w trzech wymiarach. Jaka jest jego struktura? Newton uważał, że liczba gwiazd może być nieskończona i że są one równomiernie rozmieszczone w przestrzeni; każda gwiazda byłaby w spoczynku i pozostawałaby w takim stanie, ponieważ jest przyciągana równo ze wszystkich stron przez przyciąganie grawitacyjne wszystkich pozostałych. Być może zdecydował się zignorować najbardziej oczywistą, wielkoskalową cechę nocnego nieba, Drogę Mleczną, która składa się z ogromnej liczby gwiazd, a może nie był tego świadomy, ponieważ nie jest ona zbyt widoczna na półkuli północnej. W rzeczywistości, w 1750 roku angielski astronom Thomas Wright (1711-1786) zaproponował, że Droga Mleczna to duży dysk gwiazd, który widzimy z boku, ponieważ nasz Układ Słoneczny jest w nim osadzony. Załóżmy jednak, że wszechświat jest znacznie większy i (średnio) jednolity w największych skalach. Idea nieskończonej liczby niezmiennych gwiazd w wiecznym wszechświecie nieskończonym w przestrzeni i czasie napotyka na trudności, jak różni ludzie zauważyli na przestrzeni wieków. Dziś na zauważenie tego paradoksu zasługuje Wilhelm Olbers (1758-1840). Paradoks Olbersa stwierdza, że fakt, że niebo jest ciemne w nocy, wyklucza nieskończony i wieczny wszechświat zawierający nieskończoną liczbę niezmiennych gwiazd. Powodem jest to, że w takim wszechświecie gwiazdy (które mają skończone rozmiary) nakładałyby się na siebie w każdej linii widzenia, więc całe nocne niebo byłoby tak samo jasne jak powierzchnia Słońca we wszystkich kierunkach. Ten paradoks utrzymywał się aż do dwudziestego wieku, kiedy to ostatecznie rozwiązał go niezwykły rozwój kosmologii. To Albert Einstein (1879-1955) stworzył matematyczną i fizyczną teorię przestrzeni, czasu i materii, która jest używana do dziś. Po ukończeniu swojej specjalnej teorii względności z 1905 roku , Einstein miał wielką ambicję poszerzenia swojej teorii o ogólną teorię względności, która obejmowałaby przyspieszenie i grawitację; szczególna teoria i prawa Newtona byłyby szczególnymi przypadkami tej ogólnej teorii. Jego głównym spostrzeżeniem było uświadomienie sobie, że nie ma różnicy między przyspieszeniem a grawitacją - są one równoważne. Potrzebował zaawansowanej matematyki, aby stworzyć swoją ogólną teorię, i znalazł je w pracach dziewiętnastowiecznego matematyka Bernharda Riemanna (1826-1866), który opracował geometrię zakrzywionych powierzchni w wielu wymiarach. W ogólnej teorii względności Einsteina przestrzeń i czas są traktowane jako jedna "czasoprzestrzeń", która oddziałuje z materią. Obecność materii zakrzywia czasoprzestrzeń, więc mówi się o "zakrzywionej przestrzeni". Po błyskotliwych i wyczerpujących wysiłkach Einstein w końcu opublikował swoją teorię w 1916 roku. Zrozumiałe, że pragnął, aby jego nowa teoria miała jakieś podstawy empiryczne. W XIX wieku zdano sobie sprawę, że prawa Newtona nie wyjaśniają dokładnie obserwowanego postępu peryhelium Merkurego; istniała rozbieżność 43 sekund kątowych na wiek. Zaproponowano różne wyjaśnienia, w tym zakłócenie przez jakieś małe, niewidoczne ciało lub gładki rozkład nieznanej "ciemnej materii". Jak się okazało, nie jest wymagana żadna nieznana sprawa; Einstein wykazał, że jego teoria całkowicie wyjaśnia tę rozbieżność. Zaproponował także dwa inne testy swojej teorii: zaginanie światła przez potencjał grawitacyjny Słońca i przesunięcie ku czerwieni światła w silnym polu grawitacyjnym. Na początku XIX wieku było wiadomo, że zaginanie światła przez masywny obiekt jest przewidziane przez teorię grawitacji Newtona. Korpuskuły światła z odległej gwiazdy przesuwającej się tuż przy powierzchni Słońca zostałyby odchylone o około 0,9 sekundy kątowej. W swojej pracy z 1916 roku Einstein wykazał, że ogólna teoria względności przewiduje dwa razy większe odchylenie i zaproponował dokonanie pomiaru. Pomimo szalejącej wówczas wojny, dowiedział się o tym angielski astrofizyk Arthur Eddington (1882-1944), który zaproponował Królewskiemu Towarzystwu plany obserwowania zaćmienia Słońca, które miałoby nastąpić w 1919 roku. Najpierw sfotografował zaćmienie, pokazując otaczające pole gwiazd, a następnie (w nocy, miesiące później) sfotografował ten sam obszar nieba ze Słońcem na uboczu. Porównanie dwóch fotografii powinno ujawnić, że gwiazdy znajdujące się najbliżej tarczy Słońca podczas zaćmienia wydają się przesunięte w kierunku na zewnątrz Słońca. Stwierdzono, że przesunięcia były dokładnie takie, jakie przewidział Einstein. To trafiło na pierwsze strony gazet na całym świecie. Einstein, co zrozumiałe, chciał zastosować swoją ogólną teorię do największego ze wszystkich bytów - wszechświata - co zrobił w artykule z 1917 roku. Wiedział, że wśród astronomów panuje obecnie pogląd, że wszechświat jest statyczny. Potwierdzały to stosunkowo niewielkie ruchy nawet najodleglejszych gwiazd. Jednak zgodnie z jego równaniami wszechświat nie mógł być statyczny - musiał się rozszerzać lub kurczyć. Ale potem zdał sobie sprawę, że proste dodanie stałej (nazywanej teraz stałą kosmologiczną) do jego równań może sprawić, że wszechświat stanie się statyczny. Włączył stałą i opublikował swoją pracę. Później zorientuje się, jaki to był ogromny błąd. W międzyczasie postępowały ważne prace nad obserwacjami gwiazd zmiennych, które odegrają kluczową rolę w odkryciach odległego Wszechświata. Henrietta Swan Leavitt (1868-1921) pracowała w zespole z Harvardu badając klasę gwiazd zwaną "zmiennymi cefeidami", które zostały zaobserwowane w "chmurze" gwiazd znanym jako Mały Obłok Magellana (SMC). Znalezienie tych gwiazd na wielu płytach fotograficznych było żmudnym procesem. Wszystkie cefeidy przechodzą regularne cykle rozjaśniania i ściemniania, trwające od 1 do 70 dni. Ostatecznie Leavitt odkryła, że jaśniejsze cefeidy mają dłuższe okresy. Do roku 1912 miała wystarczająco dużo danych o 25 cefeidach, aby wyrazić tę zależność jasności od okresu w matematycznym wzorze. Zdała sobie sprawę, że powodem, dla którego ten związek jest tak wyraźny, jest to, że SMC jest tak daleko, że wszystkie gwiazdy znajdują się w przybliżeniu w tej samej odległości od nas. Tak więc związek jest w rzeczywistości między okresem a wewnętrzną jasnością. Było to spektakularne odkrycie, umożliwiające pomiar odległości kosmicznych. Wystarczyło znaleźć odległości do kilku cefeid w naszym sąsiedztwie (metodą paralaksy), aby można było określić ich jasność wewnętrzną. Wtedy wewnętrzne jasności wszystkich innych cefeid można wywnioskować z zależności okres-światło. W ten sposób możliwe stało się określenie odległości odległych cefeid już na podstawie pomiarów ich okresów i pozornych jasności. Możemy mierzyć odległości do odległych gwiazd i galaktyk! Herzsprung jako pierwszy zmierzył odległości do pobliskich cefeid w 1913 roku. Jego kalibracja wskazywała, że odległość do SMC wynosi 30 000 lat świetlnych! (Teraz wiemy, że odległość, skorygowana o wyginięcie przez pył, w rzeczywistości wynosi 197 000 lat świetlnych). Ta praca nad cefeidami pojawiła się w samą porę, aby wykorzystać dane z największych teleskopów na świecie, najpierw 1,5-metrowego reflektora na Mount Wilson w Kalifornii, a następnie 2,5-metrowego teleskopu Hooker na tej samej górze, ukończonego w 1918 roku. Harlow Shapley (1865-1972) był pierwszym, który zmierzył "Galaktykę Drogi Mlecznej" tymi teleskopami przy użyciu cefeid. Powszechnie uważano, że Droga Mleczna dominuje we wszechświecie, a Słońce znajduje się w centrum tego dysku gwiazd, ale wykazał, że centrum Drogi Mlecznej jest w rzeczywistości oddalone od nas o około 30 000 lat świetlnych i oszacował że sama Droga Mleczna ma około 300 000 lat świetlnych średnicy. Istniały inne rozproszone plamy światła, ale wielu uważało, że są to tylko satelity Drogi Mlecznej lub mgławice gwiezdne lub gazowe w Drodze Mlecznej. Niektórzy inni, w szczególności Amerykanin Heber Curtis (1872-1942), uważali, że mogą to być odległe galaktyki w rozległym wszechświecie galaktyk, z których nasza Droga Mleczna jest tylko jedną. Edwin Hubble (1889-1953) przybył na Mount Wilson w samą porę, aby dokonać jednych z największych odkryć, jakie kiedykolwiek dokonano na temat wszechświata. Studiował matematykę i astronomię na Uniwersytecie w Chicago i był jednym z pierwszych stypendystów Rhodesa w Oksfordzie. Studiował także prawo, ale nie kontynuował tej kariery. W wieku 25 lat rozpoczął studia magisterskie z astronomii w Yerkes Observatory na Uniwersytecie w Chicago, a doktorat obronił w 1917 roku. Następnie wstąpił do armii amerykańskiej, ale było za późno na walkę. Po roku spędzonym w Cambridge przeniósł się na stanowisko pracownika w Obserwatorium Mount Wilson, gdzie pozostał do końca życia. W 1925 Hubble był w stanie rozdzielić pojedyncze gwiazdy w mgławicy spiralnej (Mgławica Andromedy, obecnie znana jako Galaktyka Andromedy). Zidentyfikował kilka cefeid w mgławicy i był w stanie określić ich odległość na około 900 000 lat świetlnych. Samo w sobie było to ważne odkrycie, ponieważ pokazało, że przynajmniej niektóre z mgławic spiralnych są w rzeczywistości odległymi galaktykami. Następnie znalazł cefeidy w kilku innych podobnych mgławicach spiralnych i ponownie wskazano duże odległości. Przesunął granice teleskopu, aby znaleźć najbardziej odległe galaktyki dostępne w tym czasie. Stało się jasne, że istnieje związek między odległością do galaktyki a jej przesunięciem ku czerwieni. Vesto Slipher (1875-1969) pracował w Obserwatorium Lowella i mógł uzyskać przesunięcie ku czerwieni, ale nie odległości. Odkrył, że 39 z jego mgławic miało przesunięcie ku czerwieni, podczas gdy tylko dwie miały przesunięcie ku niebieskiemu. Naturalną interpretacją tych wyników było to, że większość mgławic szybko się od nas oddala. W 1927 r. belgijski ksiądz i astronom Georges Lemaître (1894-1966) opublikował artykuł, w którym wyprowadził i wyjaśnił związek między odległością a prędkościami recesji galaktyk w kategoriach wszechświata rozszerzającego się od początku (w tym celu wykorzystał ogólną teorię Einsteina teorii względności, ale bez założenia, że wszechświat jest statyczny). Ale to lepsze wyniki Hubble′a w 1929 roku najlepiej pokazały prosty fakt, że przesunięcie ku czerwieni galaktyki jest proporcjonalne do jej odległości od nas, która wywarła największy wpływ. Był to oszałamiający wynik i stał się znany jako Prawo Hubble′a. Cały wszechświat się rozszerza! Kiedy Einstein usłyszał o rozszerzającym się wszechświecie, powiedział, że wstawienie stałej kosmologicznej było "największym błędem w moim życiu" i z niesmakiem usunął ją ze swoich równań w 1931 roku. Jeśli zostawiłby swoje równania w ich oryginalnej formie, zostałyby uznane za przewidywanie ekspansji wszechświata - wielkie odkrycie. Niemniej jednak jego ogólna teoria względności stała się teoretyczną i matematyczną ramą dla rozszerzającego się wszechświata, a wielce oczerniana stała kosmologiczna miała powrócić w późniejszym kontekście pod koniec stulecia. Długoletnią tajemnicą na przestrzeni wieków było to, jak świecą gwiazdy. Jakie jest ich cudowne źródło energii i jak mogą działać tak długo? Pod koniec dziewiętnastego wieku doszło do konfliktu między ogromnymi skalami czasowymi, które wydawały się wymagane dla geologii i ewolucji z jednej strony, a krótkimi czasami życia przewidywanymi dla gwiazd przez fizyków z drugiej. William Thomson (Lord Kelvin) (1824-1907) założył, że energia Słońca pochodzi z jego energii grawitacyjnej przekształcanej w ciepło, gdy powoli kurczy się pod własnym ciężarem, i oszacował wiek Słońca na około 30 milionów lat. Ale przed końcem dziewiętnastego wieku fizycy odkryli radioaktywność, możliwe źródło stałej produkcji energii słonecznej, chociaż czasy życia nadal okazywały się zbyt krótkie. Niemniej jednak pomysł, że może być zaangażowany jakiś proces subatomowy, zyskiwał na popularności. Biorąc pod uwagę rozwój fizyki subatomowej i słynne równanie Einsteina E = mc2 (pokazujące równoważność masy i energii) na początku XX wieku, Eddington był w stanie stwierdzić w 1920 roku, że energia subatomowa w materii jest prawie niewyczerpana i wystarczająca aby zaopatrywać Słońce przez 15 miliardów lat. Energia pochodzi z faktu, że masa atomu helu jest mniejsza niż całkowita masa czterech atomów wodoru, które tworzą go, więc energia jest uwalniana przez "spalanie" reakcji syntezy jądrowej wodoru w hel. Ważna realizacja nastąpiła pod koniec lat 20., kiedy Albrecht Unsold (1905-1995) i William McCrea (1904-1999) ustalili ogromną przewagę atomów wodoru na Słońcu w porównaniu z innymi pierwiastkami. Kluczowe interakcje w procesie syntezy jądrowej zostały zidentyfikowane przez wielu fizyków pod koniec lat 30. XX wieku, w szczególności Hansa Bethe′a (1906-2005) i Carla von Weizsackera (1912-2007). Badania te skorzystały również z wojennych wysiłków zmierzających do opracowania broni jądrowej, a później reaktorów jądrowych. Ale już na początku lat pięćdziesiątych uważano, że nic nie może powstrzymać centralnego kolapsu gwiazdy pod koniec spalania wodoru. Pogląd ten został całkowicie zmieniony w 1952 roku, kiedy Edwin Salpeter (1924-2008) pokazał, jak może przebiegać spalanie helu, prowadząc do powstania "cięższych" pierwiastków (tych z większą ilością protonów w jądrach, takich jak węgiel, tlen i neon). Ten przełom miał poważne implikacje nie tylko dla ewolucji gwiazd, ale także dla kosmologii, a nawet życia we wszechświecie. Ale to wciąż nie była cała historia. Dwa lata później Fred Hoyle (1915-2001) wykazał, że mechanizm Salpetera nie będzie wystarczająco szybki, aby dać obserwowane proporcje ciężkich pierwiastków, i przewidział kluczowy "rezonans" w jądrze węgla-12, który został następnie znaleziony w przewidywana energia. Droga do tworzenia ciężkich elementów była teraz jasna. Wreszcie w 1957 r. ostateczną pracę przeglądową na temat budowy pierwiastków w gwiazdach opublikowali Margaret Burbidge (1919-2020), Geoffrey Burbidge (1925-2010), William Fowler (1911-1995) i Fred Hoyle. Ustalono więc, jak świecą gwiazdy i że prawie wszystkie elementy są zrobione w gwiazdach. Same atomy w naszych ciałach powstały z gwiazd! Ale ten normalny proces nukleosyntezy w zwykłych gwiazdach wytwarza tylko pierwiastki do żelaza. Elementy cięższe od żelaza (takie jak miedź, srebro, złoto i uran) trzeba było wykonać w inny sposób. Ostatecznie odkryto, że krótkie, ale niezwykle energetyczne oddziaływania powstające w wybuchach supernowych mogą wytworzyć te cięższe pierwiastki w odpowiedniej ilości. Coraz bardziej wyrafinowane modele komputerowe mogą szczegółowo śledzić te interakcje, ale dane obserwacyjne były trudne do zdobycia, ponieważ supernowe są rzadkie, a większość z nich jest odległa. Na szczęście w 1987 roku w Wielkim Obłoku Magellana, bliskim sąsiedztwie naszej Galaktyki, nastąpiła eksplozja supernowej; była to najbliższa supernowa od czasów Galileusza. Uzyskano mnóstwo szczegółowych danych obserwacyjnych przy użyciu szerokiej gamy najpotężniejszych teleskopów i satelitów. Teraz nawet supernowe zostały dobrze zrozumiane. Wracając do odkrycia Hubble′a z 1929 r., George Gamow (1904-1968) i jego koledzy Ralph Alpher (1921-2007) i Robert Herman (1914-1997) poważnie potraktowali ekspansję wszechświata pod koniec lat 40. XX wieku i opracowali możliwe konsekwencje wczesny wszechświat był w bardzo gęstym, a zatem bardzo gorącym stanie (co Hoyle żartobliwie nazwał "Wielkim Wybuchem"). Jedną z ważnych konsekwencji było to, że doprowadziłoby to do powstania lekkich pierwiastków we wszechświecie - wodoru, deuteru, helu i litu. Artykuł ogłaszający tę ważną przepowiednię został opublikowany przez Alphera i Gamowa w 1948 r., a przewidywane liczebności zostały następnie potwierdzone przez obserwacje. Inną konsekwencją wczesnej gorącej fazy byłaby obecność zanikającej poświaty. Promieniowanie ochłodziłoby się wraz z rozszerzaniem się wszechświata i zostałoby przesunięte ku czerwieni do znacznie większych długości fal. W 1948 r. Alpher i Herman obliczyli, że będzie teraz tak zimno jak 5 K (5° powyżej "zera absolutnego", czyli -268 C) i będzie wykrywalne na falach milimetrowych. W 1964 r. dwóch radioastronomów, Arno Penzias (1933-) i Robert Wilson (1936-) używało anteny, która została pierwotnie zaprojektowana do satelitarnej komunikacji radiowej w Bell Laboratories, aby dokładnie zmierzyć emisję ze źródeł radiowych i tła nieba. Musieli zidentyfikować i usunąć wszystkie obce szumy ze swoich danych i po dużym wysiłku (delikatnie usunęli nawet dwa gołębie i ich odchody z anteny), pozostawiono im stały szum 3,5 K, sto razy większy niż oczekiwano. i stały na całym niebie. W tym samym czasie astrofizycy Robert Dicke (1916-1997), Jim Peebles (1935-) i David Wilkinson (1935-2002) przygotowywali się do poszukiwania poświaty Wielkiego Wybuchu na oddalonym o 40 km Uniwersytecie Princeton. Kiedy Penzias został poinformowany o pracy w Princeton, zadzwonił do Dicke i zdali sobie sprawę, że Penzias i Wilson przypadkowo odkryli Kosmiczne Tło Mikrofalowe (CMB), jak to się nazywa. Było to ogromne odkrycie, uważane za ostateczny dowód na korzyść modelu Wielkiego Wybuchu. CMB był następnie obserwowany przez trzy główne statki kosmiczne (COBE, WMAP i Planck) oraz wiele eksperymentów naziemnych i balonowych, a jego właściwości okazały się być skarbnicą informacji o właściwościach wielkoskalowych i pochodzeniu wszechświata. CMB ma bardzo szczególne widmo - jest to najdoskonalsze widmo "ciała doskonale czarnego" znane człowiekowi, a ta cecha praktycznie potwierdza, że jest to poświata Wielkiego Wybuchu. Jest jednolita na niebie z dokładnością do jednej części na 100 000. A jednak zawiera słabe odciski galaktyk embrionalnych, widzianych jako zaledwie 380 000 lat po Wielkim Wybuchu. Ale w ciągu ostatniego stulecia pojawiły się dwie główne tajemnice dotyczące wszechświata, które nie zostały jeszcze rozwiązane. W latach trzydziestych szwajcarski astronom Fritz Zwicky (1898-1974) badał ruchy najbardziej zewnętrznych członków gromady galaktyk i odkrył, że poruszają się one znacznie szybciej niż oczekiwano z fizyki newtonowskiej: ich ruchy powinny były wyrzucić je z gromady. ale gromada jest wyraźnie nienaruszona. Zwicky postawił hipotezę, że w gromadzie i wokół niej może znajdować się duża ilość niewidocznej materii, która zapewnia wystarczającą masę grawitacyjną, aby utrzymać gromadę w stanie nienaruszonym. Prace Very Rubin (1928-2016) i innych z lat 60. i 70. XX wieku wykazały coś podobnego w prędkościach gwiazd i gazu w zewnętrznych obszarach galaktyk. Najbardziej zewnętrzne gwiazdy i gaz mogłyby pozostać na miejscu tylko wtedy, gdyby galaktyki były otoczone gigantycznymi, masywnymi "halo" niewidocznej "ciemnej materii". Inne linie dowodowe wskazywały w tym samym kierunku. Teraz jest jasne, że całkowita masa ciemnej materii w naszym wszechświecie jest ponad pięciokrotnie większa od masy zwykłej materii, o której wiemy. Zwykła materia jest po prostu "pianą" na ogromnym, niewidzialnym oceanie ciemnej materii. Przeprowadzono wiele badań i poszukiwań, wskazując, że brakująca masa musi mieć jakąś egzotyczną formę, taką jak cząstki elementarne, o których jeszcze nie wiemy. Brakuje nam jednego z głównych składników wszechświata. Teraz mamy też "ciemną energię". W latach 90. dwie duże grupy astronomów kierowane przez Saula Perlmuttera (1959-), Briana Schmidta (1967-) i Adama Riessa (1969-) wykorzystywały odległe supernowe do wykrywania długo poszukiwanego parametru spowolnienia Wszechświata (wszystkie materia we wszechświecie powoduje spowolnienie ekspansji z powodu przyciągania grawitacyjnego). Zamiast tego w 1997 roku odkryli, że ekspansja wszechświata przyspiesza. Zostało to przypisane tajemniczej "ciemnej energii", która ma odpychającą siłę w całym wszechświecie (podobną do stałej kosmologicznej wprowadzonej przez Einsteina w 1916 r.). Materia i energia są równoważne zgodnie z Einsteinem E = mc2; ciemna energia, ciemna materia i zwykła materia stanowią odpowiednio 68%, 27% i 5% całkowitej masy-energii Wszechświata. Więc teraz okazuje się, że nie wiemy, z czego składa się 95% wszechświata. Ale pomimo ciągłych tajemnic ciemnej materii i ciemnej energii, właściwości naszego wszechświata na dużą skalę zostały teraz dość dokładnie zmierzone i mówi się, że żyjemy w erze "kosmologii precyzyjnej". Właściwości te doprowadziły do niezwykłych nowych hipotez dotyczących pochodzenia naszego wszechświata i możliwości istnienia innych "wszechświatów" - być może nieskończonej ich liczby. W 1979 roku Alan Guth (1947-) zastanawiał się nad pewnymi problemami w standardowym modelu Wszechświata Wielkiego Wybuchu. Zdał sobie sprawę, że wszystkie można by rozwiązać, gdyby nasz wszechświat doświadczył krótkiego okresu hiperekspansji na bardzo wczesnym etapie swojego istnienia. Stało się to bardzo popularną hipotezą, którą zaczęto nazywać "kosmologią inflacyjną". Od tego był mały krok do zasugerowania, że ten epizod inflacyjny nie był w rzeczywistości częścią Wszechświata Wielkiego Wybuchu, ale że był przyczyną Wielkiego Wybuchu. Ta i inne idee doprowadziły do koncepcji "wieloświata", w którym wszechświaty powstają cały czas w wyniku spontanicznych zdarzeń kreacji w nieskończonej "kwantowej próżni". Obecnie trwają poszukiwania jakichkolwiek dowodów dotyczących tych hipotez. Wreszcie wracamy do punktu, w którym zaczęliśmy w tej sekcji: układu słonecznego. Ponieważ wiemy o jednej gwieździe otoczonej planetami (nasz układ słoneczny), rozsądne jest pytanie, czy mogą istnieć inne. Znalezienie planet krążących wokół innych gwiazd może wydawać się zadaniem niewykonalnym, ponieważ gwiazdy są o wiele jaśniejsze niż planety. Jednak w ramach jednego z największych odkryć astronomicznych w ubiegłym stuleciu, pierwsza taka "planeta pozasłoneczna" krążąca wokół normalnej gwiazdy została odkryta w 1995 roku przez szwajcarskich astronomów Michela Mayora (1942-) i Didiera Queloza (1966-) przy użyciu nowatorskiej techniki. Od tego czasu odkryto ponad 3700 planet pozasłonecznych; w samej naszej galaktyce jest prawdopodobnie ponad sto miliardów. Prawie wszystkie dziedziny astronomii odniosły ogromne korzyści z wielu nowych technologii, które stały się dostępne w ciągu ostatniego stulecia. Obserwacjom udostępniono całe widmo elektromagnetyczne: pasmo radiowe, milimetrowe i optyczne (obserwowalne za pomocą teleskopów naziemnych) oraz podczerwone, ultrafioletowe, rentgenowskie i gamma (obserwowalne za pomocą teleskopów w kosmosie). Zbudowano gigantyczne teleskopy, wyposażone w ogromne, zaawansowane technologicznie instrumenty wspierane przez ogromną moc obliczeniową. Dokonano wielu odkryć, w tym kwazarów, pulsarów, radiogalaktyk, czarnych dziur, podwójnych promieni rentgenowskich, rozbłysków gamma, dżetów protogwiazdowych, maserów międzygwiazdowych, wciąż tajemniczych "szybkich rozbłysków radiowych" i wielu innych. To była bonanza. Oprócz samego widma elektromagnetycznego, we wszechświecie istnieją trzy inne okna obserwacyjne: promienie kosmiczne (cząstki energetyczne, które oddziałują z atmosferą Ziemi), neutrina (czaszki widmowe, które mogą przechodzić przez Ziemię) oraz fale grawitacyjne (zniekształcenia czasoprzestrzeni). samo). Promienie kosmiczne były badane od wielu dziesięcioleci. Prawie wszystkie są protonami i naładowanymi jądrami atomowymi, pochodzą ze Słońca i poza Układem Słonecznym i dostarczają unikalnych informacji dla fizyki fundamentalnej. Niestety, pozasłoneczne promienie kosmiczne są odchylane od swoich pierwotnych torów przez galaktyczne pola magnetyczne, więc ich źródła nie mogą być dokładnie określone. Niemniej jednak w ostatniej dekadzie współpraca ponad 400 naukowców z 69 instytutów w 16 krajach zbudowała ogromne Obserwatorium Pierre Auger w Argentynie, aby badać wysokoenergetyczne promienie kosmiczne (powyżej 1018 elektronowoltów) poprzez obserwację wytwarzanych przez nie pęków powietrza. Obserwatorium składa się z 1600 detektorów zbiorników wodnych wielkości samochodu rozmieszczonych na obszarze 3000 km2 wraz z 24 dedykowanymi teleskopami. Duży rozmiar jest wymagany, ponieważ energetyczne promienie kosmiczne są bardzo rzadkie - tylko jeden na km2 na stulecie przy najwyższych energiach. Niedawno przeanalizowano 12-letnie obserwacje rejestrujące dziesiątki tysięcy zdarzeń, a z ich ogólnego rozmieszczenia na niebie można było wywnioskować, że te ultrawysokoenergetyczne cząstki są najprawdopodobniej pozagalaktyczne - pochodzą spoza naszej galaktyki. Neutrina, w przeciwieństwie do promieni kosmicznych, mogą bez przeszkód przechodzić przez prawie wszystko, więc czuły teleskop neutrinowy może zidentyfikować ich źródła i zbadać ich fizykę. Ale właśnie dlatego, że mogą przejść przez prawie wszystko, są niezwykle trudne do wykrycia. Słońce wytwarza ogromny strumień neutrin, które wykryto w kilku eksperymentach. Przez kilkadziesiąt lat wydawało się, że liczba ta jest o połowę niższa, niż oczekiwano z teorii ("Problem neutrin słonecznych"), ale ta rozbieżność została teraz rozwiązana. Wspomniana powyżej supernowa z 1987 roku w Wielkim Obłoku Magellana wytworzyła ogromną liczbę neutrin (około 1058), a 19 z nich zostało wykrytych w dwóch eksperymentach w głębokich kopalniach w USA i Japonii. Tych kilka odkryć dostarczyło wielu informacji o neutrinach i zapoczątkowało astronomię neutrin. Opracowywane są coraz większe teleskopy neutrinowe. Ostatnio zupełnie inne okno na wszechświat otworzyło się wraz z odkryciem fal grawitacyjnych - zniekształcenia samej czasoprzestrzeni przez odległe zdarzenie kataklizmiczne. Ten rodzaj promieniowania przewidział Einstein w 1916 r. w swojej ogólnej teorii względności, ale nawet on wątpił, czy kiedykolwiek zostanie wykryty z powodu słabości sygnałów. Ale od lat sześćdziesiątych podejmowane są coraz bardziej wyrafinowane wysiłki. Obserwatorium laserowego interferometru grawitacyjnego (LIGO), składające się z dwóch dużych interferometrów po przeciwnych stronach Stanów Zjednoczonych, dokonało wreszcie przełomu we wrześniu 2015 roku. Bardzo specyficzny i złożony sygnał "ćwierkający" spowodowany połączeniem dwóch odległych supermasywnych czarnych dziur (29 i 36 mas Słońca) zostały jednocześnie wykryte przez dwa interferometry, co jest spektakularnie zgodne z przewidywaniami teorii Einsteina. Jeszcze kilka takich zdarzeń zostało wykrytych w ciągu następnych kilku lat przez LIGO i europejski odpowiednik o nazwie Panna; najciekawszym z nich było połączenie dwóch gwiazd neutronowych w sierpniu 2017 r. Połączenie supermasywnych czarnych dziur nie pozostawia żadnych pozostałości, ale połączenie mniej masywnych gwiazd neutronowych powoduje powstanie relatywistycznych dżetów, reakcje jądrowe i obfitość gorącego gazu - uczta promieniowanie elektromagnetyczne dla naszych bardziej konwencjonalnych obserwatoriów. Kosmiczny Teleskop Fermi Gamma-Ray NASA wykrył błysk gamma mniej niż dwie sekundy po połączeniu gwiazd neutronowych, nowy punkt świetlny na niebie został szybko zidentyfikowany przez teleskopy naziemne i ponad 70 zespołów obserwatorów na wszystkich siedmiu kontynenty pracowały przez całą dobę w szaleństwie, aby zbadać następstwa tej "kilonowej". To była rzadka okazja. Doprowadziła do prawdopodobnie największej mobilizacji astronomów w historii i zasypu artykułów, z których jeden ma tysiące współautorów. W odległości zaledwie 130 milionów lat świetlnych połączenie to było najbliższym wydarzeniem (jak dotąd) zarówno w astronomii fal grawitacyjnych, jak i promieniowania gamma. Chociaż dostarczyło to ogromnej ilości nowych informacji na temat wielu procesów astrofizycznych, dodało również dalsze potwierdzenie teorii Einsteina, która poprawnie przewidziała zarówno sygnał złożonej fali grawitacyjnej, jak i czasową koincydencję z rozbłyskiem gamma (fale grawitacyjne również podróżują). z prędkością światła). Na całym świecie i w kosmosie buduje się więcej interferometrów z falami grawitacyjnymi i nie ma wątpliwości, że fale grawitacyjne już teraz zapewniają ważne nowe okno na wszechświat.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (8)


Rewolucja naukowa

Drugi z dwóch podstawowych etapów Powstania Nauki miał miejsce w XVI i XVII wieku w Europie - Rewolucja Naukowa. Mikołaj Kopernik (1473 - 1543) urodził się w polskim mieście Toruniu. Uczęszczał na Uniwersytet Krakowski i miał kontakt z najważniejszymi dostępnymi dziełami intelektualnymi, od starożytności po współczesne dzieła tego czasu. Następnie udał się do renesansowych Włoch i studiował prawo, medycynę i klasykę na Uniwersytetach w Bolonii, Padwie i Ferrarze. W 1506 powrócił do Polski, gdzie został kanonikiem katedry we Fromborku, praktykował medycynę i do końca życia pełnił różne obowiązki cywilne. Podczas studiów miał kontakt z astronomią i zainteresował się starożytnym modelem Ptolemeusza do obliczania pozycji Słońca, Księżyca i planet. Zdał sobie sprawę z niektórych głównych niedociągnięć tego modelu, w szczególności z jego trudności z "ruchami wstecznymi" niektórych planet, jego niepowodzenia w wyjaśnieniu, dlaczego Merkury i Wenus nigdy nie zapuszczają się daleko od Słońca, jego błędnego przewidywania, że Księżyc powinien się znacznie różnić pod względem widocznej wielkości i ogólnie nieporęcznej struktury z epicyklami, deferentami i ekwantami. Zastanawiał się, czy prościej i bardziej elegancko byłoby uznać Słońce, a nie Ziemię, za centrum wszechświata. Nie był rewolucjonistą. Chciał ulepszyć, a nie zastąpić system ptolemejski; na przykład utrzymywał ruchy okrężne, które były podstawą klasycznego modelu. Ale jego heliocentryczny model natychmiast rozwiązał niektóre problemy. Specyficzne ruchy planet zewnętrznych były automatycznie wyjaśniane przez różne orbity różnych planet, gdy poruszały się one względem siebie wokół Słońca. Merkury i Wenus były bliżej Słońca niż Ziemi, co wyjaśnia, dlaczego na niebie nigdy nie pojawiają się daleko od Słońca. Księżyc był jedynym ciałem, które krążyło wokół Ziemi, co wyjaśnia, dlaczego jego widoczne rozmiary nie różnią się znacząco. Tak więc, choć prawdą jest, że model kopernikański wciąż wymagał epicykli i nie był dużo prostszy (ani dokładniejszy) niż model ptolemejski, to rozwiązał niektóre problemy i był z pewnością bardziej elegancki. Ale, podobnie jak model heliocentryczny zaproponowany przez Arystarcha ponad 1500 lat wcześniej, miał kilka własnych problemów. Najpoważniejsze było to, że obserwowane względne położenia gwiazd powinny zmieniać się wraz z orbitowaniem Ziemi wokół Słońca (po przeciwnych stronach orbity gwiazdy są widziane pod różnymi kątami). Zarówno Arystarch, jak i Kopernik odpowiedzieli, że efekt ten byłby zbyt mały do wykrycia, gdyby gwiazdy znajdowały się w bardzo dużej odległości od Ziemi. Były też "zdroworozsądkowe" kwestie: dlaczego rzeczy nie odlatują z obracającej się Ziemi, gdy porusza się ona wokół Słońca, dlaczego nie czujemy wielkiego, stałego wiatru ze wschodu, dlaczego obiekty spadają prosto na Ziemię, a nie na zachód, dlaczego ptaki nie mają więcej trudności z lotem na wschód niż na zachód, dlaczego kula armatnia pokonuje tę samą odległość na wschód lub na zachód? Odpowiedź udzielona na niektóre z tych pytań była taka, że obiekty znajdujące się na lub w pobliżu powierzchni Ziemi mają udział w jej ruchu wokół Słońca. Kopernik nie spieszył się więc z opublikowaniem swojej teorii. Poza możliwą krytyką, z którą musiałby się zmierzyć, może również okazać się wysoce niepopularny zarówno w Kościele rzymskokatolickim, jak i Kościele protestanckim, dla którego Ziemia jest na zawsze w centrum wszechświata jako kwestia dogmatu religijnego. W 1514 r. Kopernik wstępnie opublikował anonimowy traktat, który rozdał niektórym swoim najbliższym przyjaciołom. Pod koniec życia został ostatecznie przekonany do wydania książki De revolutionibus orbium coelestium (O obrotach sfer niebieskich), dedykowanej Papieżowi. Książka została wydana w 1543 roku, w roku jego śmierci. Jak na taką "rewolucyjną" książkę przez wiele dziesięcioleci poświęcano jej niewiele uwagi. Jednym z powodów było to, że była raczej techniczna. Czytali ją różni astronomowie, a jeden z nich obliczył nawet na jej podstawie nowy zestaw tablic astronomicznych. Ale dopiero w XVII wieku jego dzieło stało się sławne, a Kościół rzymskokatolicki zakazał księgi i wszelkich nauk o dziełach Kopernika - ta historia wkrótce się rozwinie. Kilkadziesiąt lat po Koperniku dostępne stały się pomiary astronomiczne o znacznie większej dokładności. Duński astronom Tycho Brahe (1546 - 1601) zbudował duże i obszerne obserwatorium na północ od Kopenhagi i przeprowadził serię obserwacji o bezprecedensowej dokładności przez okres dwóch dekad. W 1600 roku pod nowym patronem przeniósł się do Pragi i zatrudnił asystenta o nazwisku Johannes Kepler (1571 - 1630). Kepler był młodym niemieckim matematykiem, którego praca w astronomii matematycznej przyciągnęła uwagę Tycho. W przeciwieństwie do Tycho był zwolennikiem modelu heliocentrycznego. Wkrótce po przybyciu Keplera zmarł Tycho, a Kepler został mianowany szefem obserwatorium. Pracując z obszernymi danymi Tycho na przestrzeni kilku lat w kontekście modelu heliocentrycznego, Kepler odkrył swoje trzy prawa ruchu planet: planety poruszają się po eliptycznych orbitach wokół Słońca (nie okręgów), linia od Słońca do planety jest równa, obszary w równych czasach, a kwadrat okresu ruchu orbitalnego planety jest proporcjonalny do sześcianu jej średniej odległości od Słońca. Te trzy prawa dostarczyły astronomicznej podstawy dla teorii powszechnego ciążenia Newtona, która miała powstać pod koniec stulecia. W 1627 Kepler opublikował nowy zestaw tablic, Tablice Rudolfińskie, wykorzystując dokładne obserwacje Tycho, heliocentryczny model Układu Słonecznego i jego wiedzę o eliptycznych orbitach planet. Zgodność modelu z danymi obserwacyjnymi była godna uwagi; to był ogromny krok naprzód w astronomii.

Galileo Galilei (1564-1642) był jedną z kluczowych postaci rewolucji naukowej i jednym z największych naukowców w historii. Był pierwszym współczesnym naukowcem, który używał matematyki do opisywania ruchów obiektów i eksperymentów do testowania hipotez. Jego wczesne lata były mieszane - w wieku 15 lat wstąpił do klasztoru, w wieku 17 lat został studentem medycyny na uniwersytecie w Pizie, następnie zakochał się w matematyce i porzucił studia, aby zostać nauczycielem matematyki i filozofii naturalnej. Miał dociekliwy umysł, uwielbiał się kłócić i kwestionował arystotelesowską mądrość tamtych czasów. W przeciwieństwie do Arystotelesa uważał, że wszystkie przedmioty spadają z tą samą prędkością. Już w młodym wieku odkrył, że okres kołysania wahadła zależy tylko od jego długości, a nie od masy czy długości łuku. Powrócił na Uniwersytet w Pizie jako profesor matematyki w 1589 roku, a jego sława jako niezależnego i inteligentnego myśliciela stopniowo się rozprzestrzeniała. W 1592 został mianowany kierownikiem katedry matematyki na uniwersytecie w Padwie, części Republiki Weneckiej. Spędzone tam 18 lat wspominał jako najszczęśliwsze w swoim życiu. Pracował nad różnymi praktycznymi problemami, w tym fortyfikacjami wojskowymi, działaniem systemów bloczków i podstawowym kalkulatorem uniwersalnym, który wynalazł. Przeprowadził swoje słynne eksperymenty z piłkami toczącymi się po pochyłej płaszczyźnie, ustalając, że piłki o różnej masie przyspieszają w tym samym tempie pod wpływem grawitacji; wiedział, że to samo miałoby zastosowanie, gdyby kule spadały swobodnie - to tylko skrajny przypadek, w którym pochylona płaszczyzna jest pionowa. Miał "zegar wodny" jako stoper, mierzący nagromadzoną wodę pochodzącą z naczynia z otworem w dnie. Jego eksperymenty były ilościowe, w przeciwieństwie do jakościowej nauki Greków. Galileusz pomyślał o bezwładności i wyobraził sobie statek na morzu poruszający się ze stałą prędkością; wszystko na statku (rzucane piłki, spadające przedmioty) zachowuje się tak, jakby statek był w stanie spoczynku. Zastanawiał się, co sprawia, że kule armatnie lecą w powietrzu. W przeciwieństwie do Arystotelesa zasugerował, że wszystkie ciała w ruchu mają tendencję do utrzymywania tego ruchu, a ciała w spoczynku pozostają w spoczynku; stało się to prawem bezwładności i pierwszą zasadą dynamiki Newtona. Galileo badał hydrostatykę i magnetyzm. Był zwolennikiem modelu kopernikańskiego, korespondował z Keplerem i innymi naukowcami. Pokazał, że "nowa gwiazda", która nagle i zdumiewająco pojawiła się jako najjaśniejsza gwiazda na niebie w 1604 roku, nie ma żadnego obserwowalnego ruchu w stosunku do innych gwiazd i argumentował, że musi być tak daleko, jak inne gwiazdy, kwestionując pogląd Arystotelesa o niezmiennej sferze niebieskiej. ("Nowa gwiazda" była w rzeczywistości znacznie słabszą gwiazdą, która właśnie zakończyła swoje życie w spektakularnej eksplozji; takie zdarzenia nazywa się "supernowymi".) I udowodnił, że trajektoria pocisku wystrzelonego z armaty jest łagodnie zakrzywiona, parabola, w przeciwieństwie do poglądu Arystotelesa, w którym pocisk najpierw przemieszcza się poziomo, a następnie spada na ziemię. W 1609 Galileusz po raz pierwszy usłyszał o wynalezieniu teleskopu przez holenderskiego producenta okularów Hansa Lippersheya (1570-1619). Kopie tej wczesnej wersji, z trzykrotnym powiększeniem, były już używane jako zabawki na targach w całej Europie. Galileo natychmiast zdał sobie sprawę z potencjalnego znaczenia militarnego i handlowego takiego instrumentu dla Wenecji, co umożliwiło łatwiejsze dostrzeżenie i identyfikację odległych statków. Szybko zbudował własny, znacznie potężniejszy teleskop, osiągając w końcu moc powiększania 20-30 razy. Miał inspirację, by skierować swój teleskop na niebo i dokonał zdumiewających odkryć: najjaśniejsze cztery księżyce Jowisza poruszające się po orbitach wokół samego Jowisza (udowadniając, że nie wszystko po prostu porusza się wokół Ziemi), góry i kratery na Księżycu (co nie jest zatem idealną sferą, jaką wyobrażali sobie starożytni), oraz niezliczonymi gwiazdami tworzącymi Drogę Mleczną. Opublikował je w 1610 r. w krótkiej książce Siderius Nuncius (Gwiaździsty posłaniec), która natychmiast stała się sławna w całej Europie. Wkrótce potem Galileuszowi zaoferowano dobrze płatną dożywotnią posadę filozofa i matematyka u Wielkiego Księcia Toskanii. Kiedy przybył do Florencji usłyszał, że Kepler potwierdził jego odkrycie czterech księżyców Jowisza. Następnie Galileusz odkrył również, że Saturn nie jest idealną sferą, odkrył fazy Wenus (co można wyjaśnić tylko wtedy, gdy Wenus krąży wokół Słońca) i zaobserwował plamy na Słońcu, skazy, które ujawniły, że Słońce również nie jest idealne. przypuszczano, że jest to ciało niebieskie. Odkrycia te dostarczyły bardzo mocnych bezpośrednich dowodów na korzyść modelu kopernikańskiego i przeciwko starożytnemu modelowi ptolemejskiemu, ale Galileusz uważał, aby nie promować samego modelu kopernikańskiego. Doskonale zdawał sobie sprawę z losu Giordano Bruno (1548-1600), który został spalony na stosie przez rzymskokatolicką inkwizycję, po części za bycie zwolennikiem modelu heliocentrycznego. Utrzymywał dobre stosunki z członkami hierarchii kościelnej, w tym z samym Papieżem. Nadal byli arystotelesowscy sceptycy co do obserwacji Galileusza, sugerując, że mogą one być spowodowane artefaktami jego teleskopu, ale Galileusz przetestował swój teleskop na pobliskich i znanych obiektach, aby wykazać, że tak nie jest, a jezuicki komitet kościelny poparł wszystkie główne twierdzenia obserwacyjne Galileo. Jednak z biegiem lat Galileo zaczął wyrażać poparcie dla modelu kopernikańskiego, mimo początkowych zastrzeżeń. W 1616 roku papieska komisja doszła do wniosku, że pogląd, iż Słońce leży w centrum wszechświata, a Ziemia porusza się w przestrzeni kosmicznej jest heretycki, a książka Kopernika De Revolutionibus została zakazana przez Kościół. W następnym roku papież, a następnie inkwizycja, zadekretowali, że Galileusz nie może popierać ani nauczać światopoglądu kopernikańskiego. W związku z tym Galileusz zwrócił uwagę na swoje zainteresowania związane z innymi tematami naukowymi. W 1623 r. wybrano nowego papieża (Urbana VIII), który był znacznie bardziej pozytywnie nastawiony do Galileusza, a w następnym roku Galileusz miał u niego sześć audiencji i otrzymał różne odznaczenia. Co najważniejsze, nowy papież udzielił mu pozwolenia na napisanie książki o dwóch systemach świata, ptolemejskim i kopernikańskim, o ile zachowa neutralne stanowisko. Galileusz wydał książkę w 1631 roku pod tytułem Dialogo sopra i due massimi sistemi del mondo (Dialog o dwóch głównych systemach światowych). Była to wyimaginowana debata między dwoma adwokatami, Salvari (w sprawie Kopernika) i Simplicio (w sprawie Ptolemeusza). Niestety, użycie nazwy Simplicio sugerowało, że tylko prostak uwierzy w światopogląd ptolemejski, a tekst wydawał się zdecydowanie opowiadać się za poglądem kopernikańskim. Papież i Kościół poczuli się urażeni. Papieskiej komisji nakazano zbadanie sprawy, w wyniku czego Galileuszowi nakazano stanąć przed inkwizycją za herezję. Ponownie świadomy losu Brunona, Galileusz został ostatecznie zmuszony do wyrzeczenia się wiary w kopernikanizm ("Wyrzekam się, przeklinam i brzydzę się moimi błędami"). Początkowy wyrok to dożywocie, później skrócono go do dożywotniego aresztu domowego. Biorąc pod uwagę, że jego dom był bardzo ładną willą w Arcetri na obrzeżach Florencji i że mógł kontynuować swoje inne studia, okazało się, że nie był to taki zły wynik. Tam ukończył swoje arcydzieło o fizyce, dyskursach i demonstracjach matematycznych dotyczących dwóch nowych nauk. Obejmował jego życiową pracę nad mechaniką, bezwładnością, wytrzymałością materiałów, naturą płynów, ciężarem powietrza, zachowaniem światła, lotem pocisków, kołyszącym się wahadłem, obciążoną belką i wieloma innymi. Dało to prawo Galileusza o spadaniu ciał - odległość, jaką ciało pokonuje podczas swobodnego spadania, jest proporcjonalna do kwadratu czasu spadania. Omówiono też metodę naukową: znaczenie obserwacji i powtarzanych eksperymentów w testowaniu hipotez. Nie mógł być wydany we Włoszech ze względu na zakaz jego twórczości, więc został przemycony i wydany w Lejdzie w 1638 roku. Miał ogromny wpływ na dalszy rozwój nauki w Europie. Traktowanie Galileusza przez Kościół poważnie osłabiło ilość i jakość nauki we Włoszech, które przez dziesięciolecia stały się względnym zaściankiem. Ale Europa, podobnie jak Grecja, miała tę zaletę, że składała się z wielu różnych regionów i państw. Odkrycia i idee Galileusza mogły swobodnie rozkwitać w pozostałej części Europy, zwłaszcza w protestanckich regionach północy, które nie były już pod kontrolą Kościoła katolickiego. Reformacja była niezbędna dla przetrwania nauki; gdyby do tego nie doszło, prawdopodobnie książka Galileusza w ogóle nie zostałaby opublikowana, a prace Keplera i Newtona prawdopodobnie zostałyby zakazane. Kościół ostatecznie zniósł zakaz dotyczący książki Kopernika De revolutionibus w 1758 r. i Dialogu Galileusza w 1822 r., a w 1992 r., 350 lat po śmierci Galileusza, Kościół ostatecznie ułaskawił Galileusza.

Isaac Newton (1642-1726) urodził się w rodzinie rolniczej w Lincolnshire w Anglii. Został wychowany najpierw przez rodziców, potem przez dziadków ze strony matki, a potem w gimnazjum. Mówi się, że był samotnym dzieckiem. Gdy miał 16 lat został zabrany ze szkoły do prowadzenia rodzinnego gospodarstwa rolnego. Doświadczenie nie trwało długo, ponieważ nie interesował się rolnictwem. W wieku 18 lat miał szczęście, że został przyjęty do Trinity College w Cambridge. W końcu odkrył, że mógł zignorować większość formalnego programu nauczania i spędzać większość czasu na studiowaniu wszystkiego, co chciał, w tym wielkich dzieł nauk ścisłych i matematyki. Mimo obsesji na punkcie własnej pracy udało mu się zdobyć stypendium, które umożliwiło mu pozostanie w Cambridge do 1668 roku. Okres ten przerwała w 1665 roku szalejąca wówczas zaraza. Uniwersytet został tymczasowo zamknięty, a Newton wrócił do Lincolnshire na dwa okresy, aż do 1667 roku, kiedy plaga w końcu dobiegła końca. Według niego lata 1663-1668 były jednymi z jego najbardziej produktywnych. Niektórzy historycy nazwali rok 1666 annus mirabilis Newtona. Słynna historia Newtona, który zainspirował się do myślenia o powszechnej grawitacji, gdy zobaczył spadające z drzewa jabłko, odnosi się do jego czasów w Lincolnshire. Z pewnością Newton miał w tamtym okresie wiele swoich wspaniałych pomysłów, ale jego praca dojrzewała przez znacznie dłuższy okres. Jego niezwykłe zdolności i osiągnięcia w tamtym czasie zostały nagrodzone mianowaniem profesora matematyki w 1669 roku, które to stanowisko piastował aż do wyjazdu z Cambridge w 1687 roku. Newton miał różnorodne zainteresowania naukowe - optykę, matematykę, mechanikę i grawitację - przez dłuższy czas pracował także nad alchemią i interpretacjami Biblii. W optyce użył pryzmatu do rozszczepienia białego światła na kolory tęczy. Następnie odwrócił proces, ponownie wytwarzając białe światło, pokazując, że białe światło jest w rzeczywistości mieszanką wszystkich kolorów. Pokazał również, ponownie używając pryzmatu, że kolorów składowych nie można dalej redukować ani zmieniać, wskazując, że są one naprawdę właściwościami światła, a nie artefaktami załamania. Był to genialny wynik eksperymentalny, ujawniający jedną z podstawowych właściwości światła. Jako techniczny efekt swojej pracy nad optyką, Newton zaprojektował i zbudował teleskop zwierciadlany, aby uniknąć komplikacji wynikających z załamywania światła przez soczewki. Kiedy zostało to pokazane Royal Society w Londynie w 1671 roku, został natychmiast wybrany członkiem Towarzystwa, a jego słynna praca na temat optyki została opublikowana w 1672 roku. Myślał o świetle jako strumieniu cząstek (który nazwał korpuskułami), w kontraście z poglądami innych, według których światło jest zjawiskiem falowym. Jednym z nich był inny członek Royal Society, Robert Hooke (1635-1703), z którym Newton przez lata miał różne spory. To właśnie w liście do Hooke′a z 1675 roku Newton zadeklarował słynne słowa: "Jeżeli widziałem dalej, to przez stanie na ramionach olbrzymów". Spory i spory dotyczące szczegółów jego pracy z 1672 r. sprawiły, że Newton był sfrustrowany i stał się samotnikiem w Cambridge. Przez lata jego twórczość rozwijała się, ale trzymał ją w dużej mierze dla siebie. Był obsesyjny i długo pracował nad swoimi zainteresowaniami. W 1684 Edmund Halley (1656-1742), Hooke i Christopher Wren (1632-1723) dyskutowali o orbitach planet w Royal Society. Podejrzewali, że wszystkie trzy prawa Keplera mogą działać, jeśli Słońce pociągnie planety z siłą, która słabnie wraz z odległością zgodnie z prawem "odwrotności kwadratu", ale nie byli w stanie tego udowodnić. Później w tym samym roku Halley był w Cambridge i odwiedził samotnego Newtona. Wspomniał o hipotezie orbitalnej i zapytał Newtona, czy może ją udowodnić. Newton powiedział, że może i pod koniec roku wysłał Halleyowi dowód w krótkim artykule zatytułowanym De motu corporum in gyrum (O ruchu ciał na orbicie). Było to oszałamiające osiągnięcie, ale Newton odmówił opublikowania artykułu, mówiąc, że wolałby dalej studiować tę sprawę przed publikacją. W ciągu następnych 18 miesięcy Newton dokonał herkulesowego wysiłku, którego kulminacją była prawdopodobnie największa publikacja w historii nauki. Philosophiae Naturalis Principia Mathematica Newtona (Matematyczne zasady filozofii naturalnej), opublikowana w 1687 roku, była monumentalnym tour de force, który na zawsze zmienił naukę. Raz na zawsze zerwano kajdany starożytnego arystotelesowskiego światopoglądu jakościowego i zastąpiono je precyzyjnym, ilościowym i wykonalnym światopoglądem wielkiej mocy. Wszechświat i cała jego zawartość działają według ustalonych praw, które umożliwiają dokładne przewidywanie. Jest to "zegarowy" wszechświat. Wynikało z tego, że gdyby wszystko było znane w jednym czasie, w zasadzie można by wszystko przewidzieć w przyszłości. Zmiana była absolutnie rewolucyjna. Principia połączyły wszystkie inne wielkie osiągnięcia rewolucji naukowej - heliocentryczną teorię Kopernika, prawa Keplera dotyczące ruchu planet oraz fizyczne idee, eksperymenty i obserwacje astronomiczne Galileusza - w jedną monumentalną syntezę. Jednym z koronnych osiągnięć Principii było pokazanie, że prawo grawitacji jest uniwersalne - dotyczy zarówno odległych planet, jak i obiektów na Ziemi. Aby opisać orbity planet, Newton musiał wynaleźć rachunek różniczkowy, kolejne ważne osiągnięcie. Korzystając z rachunku różniczkowego, orbity można opisać jako serię nieskończenie małych segmentów, które razem tworzą gładką krzywą. Ruch orbitalny planety jest spowodowany tym, że jej ruch styczny jest stale odchylany do wewnątrz przez przyciąganie grawitacyjne Słońca. W ten sposób Newton był w stanie stworzyć trzy prawa Keplera. A prawa Newtona mogą przewidywać nieograniczoną dokładność, zarówno dla ruchów planet, jak i obiektów spadających na ziemię. Principia zawiera ogólną teorię siły i ruchu. Słynne trzy aksjomaty lub prawa ruchu Newtona, wyrażone współczesnymi terminami, to po prostu (1) ciało pozostaje w stanie spoczynku lub w ciągłym ruchu, jeśli nie ma siły wypadkowej działające na nie, (2) przyspieszenie ciała jest równe działającej na nie sile wypadkowej podzielonej przez jego masę (F = ma), oraz (3) dla każdego działania zachodzi równa i przeciwna reakcja. W Principia Newton wykazał, że wiele różnych zjawisk można matematycznie wyjaśnić i przewidzieć. Obejmowały one ruchy dwóch ciał wokół wspólnego środka ciężkości, ruchy Księżyca, planet, komet, księżyców planet zewnętrznych i samego Słońca, dlaczego ta sama strona Księżyca zawsze jest zwrócona w stronę Ziemi, przypływy morza, figura Ziemi, precesja równonocy, ruch ciał w ośrodku oporowym, gęstość i kompresja płynów, hydrostatyka, ruchy zawieszonych ciał, prędkość dźwięku w powietrzu oraz ruch płynów. Od ruchów planet po hydrostatykę, wszystko opracowane z matematyczną precyzją: nie było wątpliwości, jak obszerna była ta praca. Principia została natychmiast uznana za książkę, która zmieni świat. Był szeroko czytany w Wielkiej Brytanii i całej Europie. Newton stał się sławny. Zanurzył się w politykę i został na rok parlamentarzystą. W 1700 został mistrzem mennicy w Londynie. Jego wysoka pensja pozwoliła mu żyć w dobrym stylu i cieszył się znacznie bardziej towarzyskim życiem. W 1703 został prezesem Towarzystwa Królewskiego. Zmarł w 1726 r. w wieku 84 lat. Wraz z wydaniem Principia rewolucja naukowa została zakończona. Dzieła Arystotelesa zostały zepchnięte na półki historii. Światem rządziły niezmienne prawa fizyki. Był to drugi z dwóch monumentalnych kroków w rozwoju nauki. Jakościowy i opisowy światopogląd Arystotelesa został zastąpiony przez ilościowy i predykcyjny światopogląd Newtona, który działał - i to z zadziwiającą dokładnością. Połączenie praw Newtona, z ich zdolnością do precyzyjnego przewidywania matematycznego, wraz z metodą naukową - wykorzystaniem eksperymentów i obserwacji do rygorystycznego testowania takich przewidywań - zapewniło niezwykle potężny sposób rozumienia i przewidywania świata. To było naprawdę rewolucyjne. Był to nowy sposób myślenia o świecie i ogromny krok dla cywilizacji. Narodziła się nowoczesna nauka. Nauka otrzymała ogromny impuls i działała na coraz większej liczbie frontów. Rozwój nauki po rewolucji naukowej stał się wykładniczy i do opisania tego wszystkiego potrzebna byłaby kompletna biblioteka. W poniższym krótkim przeglądzie śledzę kilka najważniejszych dziedzin nauki od czasu rewolucji naukowej, aby dać wyobrażenie o powstaniu nauki w ciągu ostatnich kilkuset lat. Są to Bardzo Duże (do wszechświata), Bardzo Małe (do atomu), Światło (od optyki do fotonów) i Samo Życie (od botaniki i zoologii do DNA).


Rozwój nauki


Od prehistorii do dalekiej przyszłości (7)


Nauka średniowieczna

Pierwsze zalążki średniowiecznej nauki w Europie zostały już zasiane, gdy ostatni żar imperium rzymskiego wciąż się tlił. Tłumaczeń klasyków greckich na łacinę dokonywali Boecjusz (ok. 480-525) i Kasjodor (ok. 490-580). Izador z Sewilli (ok. 560-636) napisał pierwszą europejską encyklopedię, która stała się popularna w całej średniowiecznej Europie. Pierwsze irlandzkie klasztory stały się ważne w szerzeniu nauki na innych. Czcigodny Beda (674-735) pisał rękopisy dla szkół klasztornych z tekstami praktycznymi i oryginalnymi pracami naukowymi, a także jego poglądami na historię, kosmologię, astronomię, nauki przyrodnicze, matematykę i kalendarz. Jego prace były przez wieki głównymi źródłami wiedzy. W 789 Karol Wielki założył szkoły klasztorne i katedralne na całym swoim obszarze, zapoczątkowując szeroko zakrojone odrodzenie intelektualne znane jako renesans karoliński, które pomogło stworzyć scenę dla nauki europejskiej. Gerbert d′Aurillac (ok. 945 - 1003) był pierwszą ważną postacią intelektualną w tej tradycji, która kładła nacisk na naukę praktyczną, a także na klasykę. Wysiłki związane z tłumaczeniem z greki i arabskiego na łacinę nabierały tempa, dając dostęp do greckiej klasyki i oryginalnych wkładów ze świata islamskiego. Ważnymi tłumaczami byli Konstantyn Afrykanin (ok. (1114-1187). Pod koniec XII wieku większość dostępnych tekstów greckich i arabskich została przetłumaczona na łacinę i ta wiedza stanowiła dużą część programów nauczania na nowych uniwersytetach europejskich. Wszystkie te osiągnięcia spowodowały odrodzenie, które nazwano renesansem XII wieku, a nauka europejska nagle zaczęła się rozwijać. Pierwsze europejskie uniwersytety znajdowały się w Bolonii (1088), Paryżu (1150), Oksfordzie (1167), Cambridge (1209) i Padwie (1222). Do 1500 w całej Europie było już 80 uniwersytetów - niezwykły wzrost potencjału intelektualnego Europy. Uniwersytet był ważną i wyjątkową instytucją; żadna z wielkich cywilizacji nie miała czegoś takiego. Szacuje się, że ponad pół miliona studentów ukończyło europejskie uniwersytety w okresie do roku 1500. Ponieważ znaczna część programów na tych uczelniach była poświęcona twórczości Arystotelesa, nieuchronnie doszło do starcia z dogmatem Kościół rzymskokatolicki. W 1210 roku na uniwersytecie paryskim zakazano czytania i nauczania dzieł Arystotelesa dotyczących filozofii przyrody na okres 40 lat pod karą ekskomuniki, a w 1277 roku potępiono 219 konkretnych dzieł. Arystoteles utrzymywał, że wszechświat jest wieczny, a wydarzenia są zdeterminowany przez przyczynę i skutek, podczas gdy katolicyzm utrzymywał, że Bóg stworzył wszechświat i że mógł określić, co wydarzyło się w dowolnym momencie, poprzez Boską interwencję i cuda. Kościół sprzeciwiał się również panteizmowi Arystotelesa, poglądowi, że Bóg jest samą naturą, a nie troskliwym antropomorficznym Bogiem. Geocentryczne kule krystaliczne Arystotelesa stanęły na drodze biblijnego Wniebowstąpienia. Dwóch uczonych usiłowało pogodzić te przeciwstawne poglądy: Albertus Magnus (ok. 1200-1280) i Tomasz z Akwinu (ok. 1225-1274). Poglądy obu były zdecydowanie przeciwne przez teologów katolickich. W szczególności Tomasz walczył o znalezienie kompromisu i skończył na chrystianizacji arystotelizmu i arystotelizacji chrześcijaństwa. Od tego momentu "tomizm" stał się oficjalnym stanowiskiem Kościoła katolickiego (a Tomasz został świętym w 1323 r.). Oznaczało to, że niektóre doktryny Arystotelesa, takie jak światopogląd geocentryczny, zostały zamrożone jako dogmat Kościoła, a to stanowiło poważny problem, który musiał zostać przezwyciężony kilkaset lat później w Rewolucji Naukowej. Odrodzenie intelektualne Europy Zachodniej trwało, a w niektórych przypadkach przekroczyło poziom osiągnięty przez myślicieli greckich. Robert Grosseteste (ok. 1175 - 1253) był wpływową postacią w Anglii, rozwijając naukową metodę weryfikacji i falsyfikacji oraz badając szeroki zakres tematów, w tym optykę, akustykę, astronomię, reformę kalendarza, matematykę i (jak wiele innych) Tęcza. Roger Bacon (ok. 1220-1292) był pod silnym wpływem Grosseteste w Oksfordzie; on również miał szerokie zainteresowania i pisał na zasadach nauk eksperymentalnych. Peter Peregrinus (ok. 1265) badał właściwości magnesów i opublikował swoją pracę we wpływowym traktacie De Magnete. Innym wczesnym naukowcem europejskim był Jordanus Nemorarius (ok. 1120), najbardziej znany ze swoich prac nad statyką (badanie sił w równowadze). Metodologia naukowa Grosseteste′a została rozszerzona przez Williama Ockhama (ok. 1285-1349), który w słynnej "Brzytwie Ockhama" podkreślił pożądaną ekonomię wyjaśnień naukowych: "Jednostki nie mogą być mnożone ponad konieczność" (tj. preferowana jest najprostsza teoria). Jest to zasada przewodnia nawet dzisiaj, z dobrych powodów. Wielu myślicieli studiowało dynamikę, antycypując prace Newtona kilkaset lat później. Wśród nich byli oksfordzcy Thomas Bradwardine (ok. 1290-1349), William Heytesbury (ok. 1330-1340), John of Dumbleton (ok. 1331-1349) i Richard Swineshead (ok. 1340). W Paryżu Jean Buridan (ok. 1295-1358) stworzył "teorię impetu", która zbliżyła się do praw ruchu Newtona i stała się dobrze znana w całej Europie. Prace Buridana kontynuowała jedna z jego uczennic, Nicole Oresme (ok. 1320-1382), która miała prorocze idee zarówno w dziedzinie dynamiki, jak i astronomii. Badania optyki kontynuowane były przez prace Witelo (ok. 1230-1275), Johna Pechama (ok. 1230-1292) i Dietricha z Fryburga (ok. 1250-1311). Powstało kilka wpływowych tekstów na temat astronomii, które uzupełniały i rozszerzały te ze źródeł greckich i arabskich, w tym te autorstwa Grosseteste′a, Johannesa de Sacrobosco (ok. 1220) i Campanus z Nowary (ok. 1260). Inni współtwórcy astronomii w okresie średniowiecza to Wilhelm z St. Cloud (o. 1290), Jan z Sycylii (ok. 1290), Jan z Saksonii (ok. 1330), Levi ben Gerson (1288-1344) i Ryszard z Wallingford (ok. 1292-1336). W latach 1347-1350 plaga znana jako Czarna Śmierć zniszczyła Europę, zabijając jedną trzecią populacji, i doprowadziła do nagłego zakończenia wielu z tych działań naukowych. Powtarzało się z przerwami przez wieki, a aktywność intelektualna stopniowo powracała. Niektórzy z bardziej znanych uczonych w tym okresie zdrowienia to Mikołaj z Kuzy (1401-1464), Georg Peurback (1423-1461) i Johannes Regiomontanus (1436-1476). Z pewnością najbardziej znanym ze wszystkich był Leonardo da Vinci (1452-1519). Był ostatecznym "człowiekiem renesansu", który oprócz swojej wspaniałej sztuki interesował się niezwykłą różnorodnością przedmiotów, w tym astronomią, optyką, matematyką, anatomią, botaniką, zoologią, geologią, astrologią, alchemią, hydrodynamiką i inżynierią. W wielu dziedzinach znacznie wyprzedzał swoje czasy. Tymczasem Johannes Gutenberg (1398-1468) wprowadził do Europy w 1439 roku prasę drukarską i ruchomą czcionkę - monumentalną innowację, która stanowiła podstawę innych ważnych wydarzeń, które doprowadziły do współczesnego świata. Było to jedno z najważniejszych wydarzeń w historii. W 1492 roku Krzysztof Kolumb (1451-1506) odnalazł Nowy Świat, otwierając przed Europą zupełnie nowe możliwości odkrycia. A w 1517 Marcin Luter (1483-1546) rozpoczął protestancką reformację. Wszystkie te zapierające dech w piersiach wydarzenia radykalnie zmieniły Europę, poszerzyły jej horyzonty i zachęciły do otwartego i innowacyjnego myślenia. Dotarcie do tego punktu zajęło Europie ponad tysiąc lat od zniszczenia Wielkiej Biblioteki Aleksandryjskiej. Wielkie dzieła starożytnych greckich filozofów oraz uczonych islamskich i średniowiecznych były teraz wszystkie znane, drukowane i dobrze studiowane, a podekscytowanie wywołane niezwykłym rozwojem renesansu było inspirujące. Scena była teraz przygotowana na ważny punkt zwrotny w historii nauki


Rozwój nauki


Od prehistorii do dalekiej przyszłości (6)


Nauka islamska

Ważnym nowym wydarzeniem było powstanie islamu, które rozpoczęło się w VII wieku. Bagdad został ustanowiony stolicą imperium islamskiego pod rządami Abbasydów w 762 roku, a wkrótce jego populacja wzrosła do ponad miliona. Jedyną księgą w języku arabskim w tamtym czasie był Koran, a studiowanie go wywołało bardziej ogólne zainteresowanie nauką. Koran podkreślał religijny obowiązek wszystkich muzułmanów poszukiwania wiedzy i oświecenia. Co więcej, zdano sobie sprawę, że świat islamski był pod wieloma względami daleko w tyle za innymi imperiami, a Abbasydzi mieli obsesję na punkcie kultury perskiej. Było też duże zainteresowanie astrologią. A zajęcia praktyczne, takie jak inżynieria rolnicza, kalendarz i rachunkowość, wymagały specjalistycznej wiedzy. Z tych i innych powodów masowy "ruch tłumaczeniowy" miał miejsce w ciągu dwóch stuleci: mądrość wcześniejszych cywilizacji Greków, Persów i Hindusów została przetłumaczona na język arabski. Kiedy ruch się rozpoczął, był nie do powstrzymania. Elity społeczeństwa Abbasydów w Bagdadzie rywalizowały ze sobą o najważniejsze rękopisy, zarówno o prestiż, jak i o praktyczne korzyści, jakie mogły zapewnić. Okres historyczny Abbasydów trwał do podboju Bagdadu przez Mongołów w 1258 roku i uważany jest za "złoty wiek islamu". Powstały wówczas tłumaczenia niemal wszystkich znanych dziś dzieł greckiej filozofii przyrody. Co więcej, po podboju Hiszpanii przez Maurów, który rozpoczął się w VIII wieku, uczeni muzułmańscy przywieźli ze sobą te dzieła, a na ziemi hiszpańskiej nastąpił złoty wiek cywilizacji islamskiej. W miarę, jak dostępnych było coraz więcej tłumaczeń, nieuchronnie powstawały lokalne, oryginalne badania - działalność naukowa stała się częścią świata islamskiego. W przeciwieństwie do wczesnych cywilizacji i ich politeistycznych religii, które twierdziły, że wszystko wyjaśniają, islam nie stanowił nieprzeniknionej przeszkody, która uniemożliwiałaby naukę. Wręcz przeciwnie, Koran zachęcał muzułmanów do studiowania przyrody, uważał naukę za ważną i podkreślał potrzebę dowodów i dowodów. Te poglądy miały święty i holistyczny aspekt, ponieważ przyrodę, ludzkość i kosmos postrzegano jako dzieła samego Boga. Nauka islamska, w tym astronomia, matematyka i medycyna, stała się światowym liderem na okres kilku stuleci, z działalnością rozciągającą się od Azji Środkowej po Iberię. "Nagłe" pojawienie się tak wielu greckich klasyków niewątpliwie odpowiada za stromość rozwoju nauki islamskiej. Interesujące jest zastanowienie się, dlaczego tak wiele oryginalnych prac w filozofii przyrody było stymulowanych przez klasyków greckich w świecie islamu, ale nie w istniejącym w tym samym czasie Cesarstwie Bizantyńskim. Być może dlatego, że klasyka grecka była dla muzułmańskich uczonych całkowicie nowa i ekscytująca, podczas gdy Bizantyjczycy mogli uważać filozofię naturalną za część ponurego standardowego programu nauczania, który nie był już w stanie wzbudzić żadnego wielkiego podniecenia. Jednym z pierwszych wielkich naukowców islamu był chemik Jabir ibn Hayyan (ok. 721-815), który mieszkał w Kufie, niedaleko Bagdadu. Jego badania chemiczne i metoda naukowa były jak na tamte czasy zaawansowane i stał się znany w Europie jako Alchemik Geber. Al-Khwarizmi (nazwa łacińska Algorithmus) (ok. 780-850), matematyk, astronom i geograf z Bagdadu, był najbardziej znany z napisania pierwszej książki o algebrze, Kitab-al-Jebr. Miał wpływ na popularyzację hinduskiego systemu dziesiętnego w Europie, a także w świecie islamskim. Również w Bagdadzie al-Kindi (nazwa łacińska Alkindus) (ok. 800-873) stał się znany jako "filozof Arabów". Pracował i pisał o fizyce, astronomii, matematyce, medycynie, muzyce, farmacji i geografii oraz działał w ruchu translatorskim . Perski lekarz, filozof i chemik Ibn Zakariyya al-Razi (łac. Rhazes) (ok. 854-925) urodził się w starożytnym mieście Rayy (część dzisiejszego Teheranu) i pracował zarówno tam, jak i w Bagdadzie. Prowadził kilka szpitali, był pierwszym zwolennikiem metody naukowej i napisał dwie książki medyczne, które stały się jednymi z najważniejszych w średniowiecznej Europie. Na drugim końcu świata islamskiego Abu al-Qasim al-Zahrawi (łac. Abulcasis) (ok. 936-1013) mieszkał w pobliżu Kordoby i był największym chirurgiem islamu i średniowiecznego świata. Napisał encyklopedię medyczną, która zawierała działy dotyczące chirurgii i narzędzi chirurgicznych; została przetłumaczona na łacinę i rozsławiła go w całej Europie. Wszyscy trzej najwięksi naukowcy islamu żyli i pracowali między 950 a 1050 rokiem, u szczytu islamskiego złotego okresu. Ibn al-Haytham (nazwa łacińska Alhazen) (ok. 965-1039) urodził się w Basrze i pracował w Egipcie. Był fizykiem, prawdopodobnie największym w całym okresie między starożytnymi Grekami a Galileuszem. Jego książka o optyce miała ogromny wpływ na zachodnią naukę i wniósł ważny wkład do astronomii. Był także wczesnym orędownikiem metody naukowej. Perski al-Biruni (973-1048) urodził się w mieście Chiwa i podróżował i pracował w całej Azji Środkowej. Był jednym z największych erudytów w historii - filozofem, astronomem, matematykiem, geografem i antropologiem. Napisał kilka ważnych książek i zasłynął z pomiaru wielkości Ziemi z niespotykaną dotąd dokładnością. Inny perski uczony, Ibn Sina (łac. Avicenna) (980-1037), urodził się w pobliżu Buchary, mieszkał i pracował w środkowej i zachodniej Azji, zmarł w Hamadanie. Uważany jest za najbardziej wpływowego i najważniejszego myśliciela islamu oraz jednego z najważniejszych w historii - niemal tak samo wpływowego w zachodniej filozofii jak sam Arystoteles. Najbardziej znany jest jako filozof i lekarz, pisał ważne prace z obu dziedzin. Wniósł także wkład w matematykę i fizykę, w tym pojęcia światła, ciepła, ruchu i nieskończoności. Mówi się, że jego wkład w naukę był tak wielki, że faktycznie zniechęcał do dalszych studiów w tych dziedzinach. Innym znaczącym uczonym perskim był Omar Chajjam (1048-1131), jeden z wielkich matematyków okresu średniowiecza. Urodził się i pracował w Nishapur. Jego wkład obejmował prace nad równaniami sześciennymi i badaniami kalendarzowymi. Również perski al-Ghazali (łac. Algazel) (1058-1111) urodził się w Tus i pracował w Niszapurze i Bagdadzie. Był najsłynniejszym teologiem w historii islamu. Wniósł wkład do nauki, ale był najbardziej znany ze swoich ataków na filozofię Arystotelesa i jej zwolenników, takich jak Ibn Sina, i był obwiniany (słusznie lub niesłusznie) za upadek złotego wieku nauki islamskiej. Ibn Rushd (łac. Averroes) (1126-1198), urodzony w Kordobie, był jednym z najbardziej znanych filozofów średniowiecza. On, bardziej niż ktokolwiek inny, był odpowiedzialny za wprowadzenie filozofii Arystotelesa do Europy. Był ostatnim z wielkich filozofów muzułmańskich i głęboko wpłynął na myśl zachodnią. Nasr al-Din al-Tusi (1201-1274) był kolejnym perskim erudytą, który podobnie jak al-Ghazali urodził się w Tus. Przyczynił się do astronomii, fizyki, matematyki, chemii, biologii, medycyny i filozofii. Jego życie zostało zakłócone przez inwazję mongolską, ale później przekonał mongolskiego przywódcę, by wybudował mu obserwatorium w Maragha, które stało się najważniejszym ośrodkiem astronomicznym na kilka stuleci. Po osiągnięciu szczytu około 900-1000 AD, nauka islamska zaczęła podupadać. Konserwatywne siły religijne stały się mniej tolerancyjne dla "zagranicznych" studiów, a uczelnie znane jako madrasy ograniczyły swoje programy nauczania do religii, z wyłączeniem filozofii i nauki. Osoby takie jak al-Ghazali dodali do niezadowolenia. W 1194 r. Ulama spalili w Kordobie teksty naukowe i medyczne. A świat arabski został zaatakowany przez Mongołów i krzyżowców. W 1258 roku Mongołowie zniszczyli Bagdad i większość zawartych w nim ksiąg. Wyparowały warunki wolnej i oświeconej nauki. Ale do tego czasu wiele najważniejszych greckich klasyków zostało przekazanych do Europy, gdzie pochodnia nadal płonęła.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (5)


W tranzycie

W 285 r. zdano sobie sprawę, że Cesarstwo Rzymskie stało się zbyt duże, by można było go kontrolować. Zostało podzielone, a część zachodnia, zwana później Świętym Cesarstwem Rzymskim, pozostawała pod administracją Rzymu, podczas gdy Cesarstwo Wschodniorzymskie, znane później jako Cesarstwo Bizantyjskie, miało być zarządzane z Bizancjum (Konstantynopol). To rozróżnienie ostatecznie zaowocowało dwiema bardzo różnymi historiami, mimo że obie połówki łączyły się kilka razy. Cesarstwo Zachodniorzymskie, które obejmowało Europę Zachodnią, przeszło różne wstrząsy polityczne i gospodarcze, aż w końcu uległo rozpadowi. Sam Rzym został splądrowany przez kolejnych najeźdźców, w tym Galów w 387, Wizygotów w 410 i Wandalów w 455. Tradycyjnie uważa się, że Zachodnie Cesarstwo Rzymskie zakończyło się w 476. W tym momencie na Europę nastały Ciemne Wieki. Stała się sceną spustoszenia, kulturowym i gospodarczym zaściankiem z rozproszonym rolnictwem, plemionami i miastami (miasta rzymskie nie mogły utrzymać się i wyludniły się). W szóstym wieku jedynymi pozostałościami greckiego złotego wieku w Europie były sporadyczne fragmenty w odizolowanych klasztorach. Większość mieszkańców była analfabetami. Europa wydawała się bardzo mało prawdopodobnym miejscem, aby odziedziczyć po Grecji płaszcz wysokiej cywilizacji. W przeciwieństwie do tego, gdzie indziej na świecie istniały wielkie współczesne imperia, które znacznie przyćmiewały Europę. Obejmowały one Bizancjum, większe Indie, Chiny, Mezoamerykę i Amerykę Południową. Chiny nie miały sobie równych. Chińskie imperia i dynastie były największe na świecie i zapewniały tysiące lat ciągłości kulturowej. W 1200 populacja liczyła 115 milionów ludzi, w pięciu miastach ponad milion. Do najważniejszych osiągnięć należy nie tylko Wielki Mur, ale także Wielki Kanał, najdłuższy na świecie o długości 1800 km. Kiedyś Chiny miały największą flotę na świecie, z setkami statków w szczytowym momencie (słynne ekspedycje na kolosalnych statkach na początku XV wieku dotarły do wybrzeży Afryki, ale zostały nagle zatrzymane przez nowego cesarza, który chciał skoncentrować się na Chinach, rozwpju wewnętrznym i bezpieczeństwie). Biurokracja dla tak dużego scentralizowanego państwa była oczywiście ogromna. Wspierała działalność naukową - matematykę, kartografię, geografię, sejsmologię, meteorologię, astronomię, astrologię, alchemię, medycynę - ale wszystko oczywiście w celach praktycznych. Lista chińskich innowacji jest długa i obejmuje proch strzelniczy (produkt uboczny alchemii), kompas magnetyczny, papier, drukowane książki z ruchomą czcionką, taczki, parasol, zaawansowaną metalurgię, mosty wiszące, kołowrotek wędkarski, porcelanową porcelanę , lakier, tkaniny, w tym jedwab, mechaniczna kusza i pierwszy na świecie sejsmometr. Dzięki swojej długiej historii astronomii, dostarczyła najdłuższego nieprzerwanej serii rekordów astronomicznych na świecie. Dlaczego więc Chiny nie rozwinęły filozofii przyrody tak jak Grecy? Dlaczego nie nastąpiła naukowa rewolucja? W przeciwieństwie do Grecji Chiny były jednym wielkim imperium, kontrolowanym przez silną władzę centralną. Podobnie jak w innych wczesnych cywilizacjach, masowa administracja centralna byłaby generalnie autorytatywna, konserwatywna i wszechobecna. Pierwszy chiński cesarz palił księgi i grzebał uczonych. Biurokraci, którzy rządzili krajem, byli wykształceni w konfucjanizmie, który zajmował się wyłącznie sprawami ludzkimi i państwowością. Buddyści uważali świat przyrody za iluzję, a taoiści uznaliby samą myśl o jakimkolwiek "porządku" w naturze, który zwykli śmiertelnicy mogliby uznać za naiwność i klątwę dla fundamentalnych zasad taoizmu. Było więc kilka możliwych powodów braku filozofii przyrody. Inną możliwością jest to, że przez te wszystkie tysiąclecia nikomu nie przyszło do głowy pomysł studiowania nieodłącznych właściwości i działania świata przyrody. W każdym razie, mimo całej swej wielkości, Chinom, podobnie jak innym wymienionym wyżej cywilizacjom biurokratycznym, brakowało filozofii naturalnej w sensie greckim i nigdy nie doszło do rewolucji naukowej. Można by się spodziewać, że grecka tradycja filozoficzna byłaby kontynuowana w Bizancjum, wschodniej części Cesarstwa Rzymskiego. W przeciwieństwie do Cesarstwa Zachodniorzymskiego nie upadło; przeciwnie, przetrwał nieprzerwanie, z różnymi wzlotami i upadkami, przez ponad tysiąc lat, aż do 1453 roku. Sama Grecja była częścią Cesarstwa Bizantyjskiego i, wygodnie, dominującym językiem był grecki. Przetrwała znaczna liczba klasyków greckich, z którymi zapoznało się wielu uczonych bizantyjskich. Edukacja była dość powszechna i istniały dłuższe okresy względnego spokoju, które sprzyjałyby nauce. Istniały "szkoły" filozofii, a studentów szkolono w tradycyjnych sztukach wyzwolonych, przygotowując się do kariery w państwowej biurokracji. Jednak chrześcijaństwo miało znaczący wpływ na naukę, podobnie jak we wszystkich innych dziedzinach życia bizantyjskiego. Nacisk położono na pogodzenie "pogaństwa" z dogmatem chrześcijaństwa, więc duch nieograniczonej wolności myślenia, który był tak ważny dla starożytnych greckich filozofów, zniknął. Na przestrzeni wieków prawie cała działalność Bizancjum związana z klasyką grecką miała jedynie formę nauczania, debat, komentarzy, adnotacji, konserwacji i przekazu. Było bardzo mało oryginalnych prac - z pewnością nic, co mogłoby się równać z pracą starożytnych Greków. A sama filozofia przyrody została w dużej mierze zignorowana. Jednym godnym uwagi wyjątkiem był Jan Filopon (ok. 490-570), chrześcijanin, który był bardzo krytyczny wobec Arystotelesa. Odrzucał dynamikę Arystotelesa na rzecz "teorii impetu" (zapobiegając koncepcji bezwładności), przeciwstawiał się twierdzeniu Arystotelesa, że ciała ciężkie spadają szybciej niż ciała lekkie, i wysuwał wczesne argumenty na rzecz empiryzmu. Miał duży wpływ na Galileusza, który odniósł się do niego ponad tysiąc lat później we własnych pracach. Ale ogólnie rzecz biorąc, poza Filoponem i kilkoma mniej wpływowymi komentatorami, nie było wielkiego rozkwitu nowych idei w filozofii przyrody, pomimo tysiącletniego istnienia Cesarstwa Bizantyjskiego.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (4)


"Cud grecki"

Pierwszy z dwóch fundamentalnych etapów Powstania Nauki miał miejsce w VI wieku p.n.e., w starożytnej Grecji. Poszczególni myśliciele zaczęli kontemplować świat i swoje w nim miejsce. Zamiast bezmyślnie słuchać elity kapłańskiej lub wyjaśniać rzeczy przez wymyślanie kolejnego mitycznego boga, starali się zrozumieć wszystko w oparciu wyłącznie o obserwację, racjonalne myślenie i przyczyny, które były częścią naturalnego świata. Uważali, że za zjawiskami natury stoi wewnętrzny porządek, który może być rozpoznany przez ludzki umysł. Religia nie odgrywała w tym procesie żadnej roli. Myśliciele greccy poszukiwali podstawowych właściwości i podstawowych zasad wszechświata. Ta "filozofia natury" jest znacznie głębsza, szersza i głębsza niż to, co zwykle uważamy za naukę. Badała naturalne przyczyny wydarzeń. Poszukiwała podstaw rządzących światem. Uwzględniała samą naturę rzeczywistości. Kwestionował pochodzenie i ewolucję wszechświata. Spekulowała na temat pierwiastków i atomów, które mogą składać się na materię. Zadawała pytania dotyczące życia i śmierci, podstawowych zasad fizyki, kształtu i wielkości Ziemi, natury Układu Słonecznego oraz anatomii zwierząt i ludzi. Badała dziedziny biologii, botaniki, zoologii, geologii i psychologii oraz kwestionował możliwość istnienia dusz i rolę mózgu. Wywołała pytania o świat przyrody bez ograniczeń. Dążyła do wiedzy dla niej samej. Światopogląd zmienił się z religii i mitologii na jedną z przyczyn, które były częścią samego świata realnego i dostępne dla racjonalnej myśli. Świat miała wyjaśniać nie religia, ale nauka. Było to osiągnięcie monumentalne - naukowy światopogląd. Bardzo trudno jest nam zdać sobie sprawę, jak bardzo radykalne i rewolucyjne było to, ponieważ jesteśmy przyzwyczajeni do takiego myślenia. To był zdumiewający przełom i zdarzył się tylko raz w całej historii świata. Dlaczego Grecja? Dlaczego to Grecy dokonali tego historycznego przełomu? Głównym powodem był niewątpliwie fragmentaryczny charakter cywilizacji, w której żyli, ze względu na złożoną geografię Grecji, podzielonej na góry, doliny, wzgórza, rzeki i drogi wodne. Starożytna Grecja składała się z setek zdecentralizowanych pojedynczych państw-miast, w których władzę dzieliła niewielka grupa arystokratów lub kupców. A wolność była niezbędna. Obywatele tych miast byli wolni od granic wsi, od państwa i religii. Starożytna Grecja była chyba wyjątkowa pod tym względem, że chociaż religie, kulty i mity z pewnością istniały, były podzielone, często z różnymi bogami w różnych miastach, a niektóre jednostki miały nawet swoich osobistych bogów. To wszystko wydawało się podejrzanie arbitralne. A niektórzy bogowie byli kapryśni, co nie ucieszyłoby wszystkich. I w końcu nie było całości kasty kapłańskiej do narzucania dogmatów, więc nawet samą religię można kwestionować. Drzwi były otwarte dla alternatywnych widoków. Gdyby niektórzy z tych obywateli posiadali niezależne bogactwa, mogliby poświęcić czas na wyobrażenie sobie i przemyślenie radykalnie nowych myśli. Większość z nich umiała czytać i pisać, byli stosunkowo dobrze wykształceni i mieli pewną wiedzę o świecie dzięki podróżom. Język grecki był nowatorski i stosunkowo łatwy do czytania i pisania, co z pewnością sprzyjałoby powstaniu wyrafinowanej filozofii. Sama demokracja była grecką innowacją; obywatele mogliby rozkoszować się swobodną debatą, a nowatorskie pomysły wszelkiego rodzaju mogłyby się rozwijać. Dzięki długiej linii brzegowej i wielu wyspom Grecja była krajem żeglarskim, dobrze połączonym z całym światem poprzez handel i wystawiony na działanie szerokiej różnorodności kultur i idei. Większość pierwszych filozofów przyrody mieszkała w Ionii, która była wówczas najbogatszą i najbardziej zurbanizowaną częścią Grecji. Małe nieformalne "szkoły" filozofii przyrody rozwinęły się wokół bardziej znanych myślicieli. W sumie były setki, może tysiące greckich myślicieli. Niektóre z najbardziej znanych wymieniono poniżej. Tales z Miletu (ok. 625-545 r. p.n.e.) był pierwszym z tych filozofów. Milet był tętniącym życiem miastem na wybrzeżu Azji Mniejszej i jako ośrodek handlowy byłby bogatym skrzyżowaniem idei i wpływów. Tales był nie tylko filozofem. Był mądry w świecie i erudytą. Według różnych źródeł urodził się w zamożnej rodzinie, był dobrze wykształcony, zaangażował się w biznes i politykę. Prawdopodobnie odbył podróż do Egiptu, która dałaby mu cenne doświadczenie. Udzielał kluczowych rad w obronie Jonów przed Persami, co przyniosło mu sławę. Mówi się, że przewidział zaćmienie Słońca 28 maja 585 r. p.n.e. (zdumiewające osiągnięcie w tamtym czasie, jeśli to prawda), które nagle zakończyło wojnę. Był "człowiekiem świata". Pośród tego wszystkiego zwrócił swoje talenty na filozofię przyrody. Tales starał się wyjaśnić działanie wszechświata w kategoriach naturalnych, a nie nadprzyrodzonych. Jego odrzucenie mitologicznych wyjaśnień było kluczową innowacją, którą podążali kolejni greccy filozofowie przez następne tysiąc lat. Dlatego jest powszechnie uważany za "ojca założyciela filozofii przyrody". Podobnie jak wielu kolejnych filozofów, poruszał wiele tematów. Uważany jest za pierwszego prawdziwego astronoma i matematyka, pracował także nad metafizyką, etyką, historią, inżynierią i geografią. Obliczył wysokość piramidy z triangulacji, mierzył odległości łodzi od portu, badał magnetyzm i elektryczność statyczną. Postawił hipotezę, że cała przyroda opiera się na jednej substancji: wodzie. Miał dwóch uczniów, Anaksymandra (ok. 610-546) i Anaksymenesa (ok. 585-528) i wszyscy swobodnie angażowali się w krytyczne dyskusje na temat teorii innych. Tales miał głęboki wpływ na innych greckich myślicieli, a tym samym na rozwój filozofii zachodniej. Pitagoras z Samos (ok. 570-495 r. p.n.e.) był greckim filozofem i matematykiem Jońskim, najbardziej znanym z twierdzenia Pitagorasa. Zasłużył się także muzyką, astronomią i medycyną. Eksperymentował z dźwiękami z różnych długości struny i podobno odkrył, że wysokość dźwięku jest odwrotnie proporcjonalna do długości struny. Odkrycie to skłoniło go do spekulacji, że wszystkie zjawiska fizyczne mogą być zrozumiane przez fundamentalne zależności matematyczne, a poszukiwania takich związków doprowadziły go do twierdzenia Pitagorasa. Cofając się nieco w mistycyzm, założył kult oparty na wierze w kosmicznie znaczące liczby. Wierzyli, że ruchy ciał niebieskich wytwarzają w przestrzeni "muzykę sfer". Uważał samą Ziemię za kulę. Przypisywano mu wiele odkryć z różnych dziedzin. Według Empedoklesa (ok. 500-430 r. p.n.e.) składnikami świata są ziemia (tj. ciało stałe), woda (ciecz), powietrze (gaz) i ogień (ciepło), osobno lub w różnych mieszaninach (cztery "starożytne pierwiastki"). Leucippus (f. V w.) był twórcą teorii atomowej i twierdził, że wszystko w świecie materialnym ma naturalne wytłumaczenie. Jego najsłynniejszym uczniem był Demokryt. Demokryt (ok. 420 r. p.n.e.) jest powszechnie uważany za ojca współczesnej nauki. Podążając za Leucippusem, rozwinął sformułowanie teorii atomowej. Uważał, że cała materia składa się z atomów (od greckiego słowa atomos, oznaczającego niepodzielny), skupionych w grupach. Różne materiały składają się z różnych typów atomów. Na poparcie ich teorii podano empiryczne argumenty. Ponieważ materia może zmieniać kształt, atomy muszą być oddzielone pustą przestrzenią. Demokryt zasugerował, że światło składa się z przechodzących atomów. Spekulował na tematy tak różnorodne, jak życie pierwszych ludzi i zawartość wszechświata. Utrzymywał, że wszechświat pierwotnie składał się z atomów w chaosie, a zderzenia ostatecznie utworzyły większe jednostki, takie jak Ziemia. Utrzymywał, że każdy świat ma początek i koniec. Niektóre z tych koncepcji mogą wydawać się naszym współczesnym uszom dość znajome. Pisał także o epistemologii, estetyce, matematyce, etyce, polityce i biologii. Uważany za ojca medycyny i kompozytora słynnej przysięgi Hipokratesa, Hipokrates z Kos (ok. 460-370 r. p.n.e.) kierował najsłynniejszą szkołą dla lekarzy tamtych czasów. Zgodnie z tradycją filozoficzną swoich poprzedników uważał, że choroby mają przyczyny naturalne (nie nadprzyrodzone) i muszą być leczone środkami fizycznymi. Uważał, że choroba wynika z braku równowagi pomiędzy czterema głównymi płynami organizmu, czyli "humorami". Inni w ciągu następnych dwóch stuleci mogli faktycznie pisać - większość przypisywanych mu dzieł, ale Korpus Hipokratesa miał ogromny wpływ i wiele podręczników medycznych przetrwało z tej epoki. Chociaż Sokrates (ok. 470-399 r. p.n.e.) był wybitną postacią w filozofii, koncentrował się na kwestiach moralnych i nie wniósł bezpośredniego wkładu do nauki. Ale jego metoda badawcza, znana jako metoda Sokratejska, miała wpływ na metodę naukową. Zawierał argumenty, które mogą prowadzić do przyjęcia lub obalenia danej tezy; wiedza może być możliwa, ale musi być w stanie wytrzymać kontrolę. Sam nigdy nic nie napisał, a wszystkie informacje o nim pochodziły od innych, w szczególności od jego ucznia Platona. Platon (ok. 428-348 r. p.n.e.) był centralną postacią w historii filozofii zachodniej. Jego nauczycielem był Sokrates, a najsłynniejszym uczniem Arystoteles. Mówi się, że ci trzej położyli podwaliny zachodniej filozofii i nauki. Zainteresowania Platona obejmowały epistemologię, metafizykę, matematykę, logikę, retorykę, etykę, sprawiedliwość, politykę i edukację. Utrzymywał, że rzeczywistość, jakiej doświadczamy, jest jedynie repliką idealnych form intelektualnych. W swojej Alegorii jaskini opisał więźniów, którzy w końcu wyłaniają się, by ujrzeć wyższą prawdę. Powiedział, że rzeczywisty świat można wydedukować tylko poprzez racjonalne myślenie. Matematyka była kluczowa dla Platona; prawdy matematyczne są doskonałe, w przeciwieństwie do fizycznego świata naszych zmysłów. Do czterech elementów Empedoklesa dodał piąty, który nazwał "eterem" - czystą substancją wypełniającą górne obszary kosmosu. Spośród wszystkich greckich filozofów, Arystoteles (384-322 r. p.n.e.) miał zdecydowanie największy wpływ na rozwój nauki. Studiował i pisał na wiele tematów, w tym metafizykę, fizykę, geologię, biologię, zoologię, medycynę, anatomię, fizjologię, psychologię, etykę, językoznawstwo, logikę, retorykę, poezję, muzykę, politykę i rząd. Jego obszerna praca z zakresu nauk przyrodniczych (około 170 prac) miała dominujący wpływ w czasach islamu, średniowiecza i renesansu, aż do rewolucji naukowej w XVII wieku. Arystoteles rozwinął coś, co w tamtych czasach wydawało się zdroworozsądkowym spojrzeniem na świat. Zaczął od czterech podstawowych elementów Empedoklesa (ziemia, woda, powietrze i ogień) i, podobnie jak Platon, dodał piąty element, eter (lub "kwintesencję"). Utrzymywał, że Ziemia jest kulą; jego dowody obejmowały fakt, że cień Ziemi na Księżycu podczas zaćmienia jest kołem oraz fakt, że kadłub odpływającego statku znika za horyzontem, zanim zrobią to żagle. Gdy rzeczy spadają w kierunku Ziemi, Ziemia jest naturalnie w centrum wszechświata. Woda w naturalny sposób zmierza w kierunku kuli otaczającej Ziemię, a powietrze w kierunku wyższej kuli. Ogień naturalnie zmierza ku górze. Arystoteles przyjął pogląd, że ciała niebieskie są połączone z szeregiem koncentrycznych sfer, jak proponowali niektórzy inni filozofowie greccy. Są one zbudowane z piątego elementu, kwintesencji. Utrzymywał, że wszechświat jest ogromną, ograniczoną sferą bez początku i końca w czasie. Dokonał obserwacji obejmujących niezwykle szeroki zakres zjawisk przyrodniczych i usystematyzował to, co było wówczas znane. Omówił skutki siły i bezwładności. Obserwował właściwości dźwigni. Utrzymywał, że cięższy przedmiot spada szybciej niż lżejszy przedmiot. Pracował w dziedzinie optyki. Został "ojcem zoologii", klasyfikując setki gatunków. Wierzył, że nie ma ostrej granicy między żywymi a nieożywionymi istotami i że istnieje kontinuum od roślin i zwierząt do ludzi. Uważał serce za siedzibę inteligencji i sugerował możliwość istnienia duszy poza ciałem. Arystoteles rozróżniał "ruch naturalny" i "ruch gwałtowny". W ruchu naturalnym pięć wspomnianych wyżej żywiołów zmierza w kierunku swoich naturalnych miejsc (np. obiekt spadający na Ziemię lub bąbel powietrza unoszący się w wodzie). Nie ma siły do wyjaśnienia. Z drugiej strony w gwałtownym ruchu naruszona zostaje naturalna tendencja przedmiotu (np. przedmiotu rzucanego) i trzeba przywołać siłę, aby wyjaśnić tę nienaturalną zmianę. Badał wiele rodzajów zmian i zaproponował cztery rodzaje przyczyn: przyczynę materialną, przyczynę formalną, przyczynę sprawczą i przyczynę ostateczną. Spośród nich przyczyna sprawcza jest najbardziej podobna do tego, co dzisiaj rozumiemy przez "przyczynę". Najbardziej intrygująca z nich jest ostateczna przyczyna - cel lub cel zmiany. Takie pojęcie nazywa się "teleologią" i nie jest częścią współczesnej nauki. Biorąc pod uwagę, że ludzie są przyzwyczajeni do robienia rzeczy w określonym celu, naturalne jest, że mogą przypisywać "cel" wydarzeniom w świecie przyrody. I oczywiście pasuje do wielu religii, które wierzą w celowego boga. Jest jednak całkowicie nie do pogodzenia ze sprawdzonymi zasadami nowoczesnej nauki, w których wydarzenia wynikają z przyczyn przeszłych, a nie ku przyszłym celom; wynikają z samej natury, a nie z jakiegoś ukrytego celu. Hipotezy Arystotelesa były również sprzeczne ze współczesną nauką, ponieważ były raczej jakościowe niż ilościowe, nie zawierały żadnych przewidywań i nie przeprowadzano żadnych eksperymentów w celu sprawdzenia hipotez w rzeczywistym świecie. Niemniej jednak jego praca, ponieważ była tak obszerna i wszechstronna i ponieważ wydawała się zgodna z tak wieloma zdroworozsądkowymi poglądami, była powszechnie akceptowana jako mądrość otrzymana przez prawie dwa tysiące lat. Po pewnych modyfikacjach w XIII wieku stał się zasadniczo oficjalną filozofią Kościoła rzymskokatolickiego. W rezultacie, jak zobaczymy, początkowo stanowiła przeszkodę dla nowych koncepcji nauki, które zostały wprowadzone w XVI i XVII wieku. Filozofia grecka otrzymała impuls wraz z budową Wielkiej Biblioteki Aleksandryjskiej w III wieku p.n.e. Jej ambitnym celem było zgromadzenie całej wiedzy świata; u szczytu zawierał setki tysięcy zwojów. Przez setki lat był głównym ośrodkiem naukowym, i pracowało tam wielu wybitnych myślicieli. Nawiązując do Demokryta, Epikur (341-270 r. p.n.e.) ustanowił system, który widział działanie natury w kategoriach losowo zderzających się atomów. Po śmierci rozproszenie atomów duszy wyklucza możliwość życia pozagrobowego. Celem życia jest przyjemność, którą można znaleźć w umiarze i kontemplacji. Epikur był wczesnym orędownikiem metody naukowej, twierdząc, że w nic nie można wierzyć bez przetestowania przez bezpośrednią obserwację i logiczną dedukcję. W swoim słynnym dziele Elementy Euklides (ok. 300 r. p.n.e.) dokonał syntezy wiedzy matematycznej Greków do jego czasów. Służył jako główny podręcznik dopiero sto lat temu. Wydedukował zasady "geometrii euklidesowej" z niewielkiej liczby aksjomatów. Swoje doświadczenie zastosował w dziedzinach takich jak optyka, harmonika i astronomia. Herofilus (ok. 330-260 r. p.n.e.), uważany za pierwszego anatoma, przeprowadzał sekcje ludzkich zwłok i wiwisekcje żywych zwierząt, aby zrozumieć działanie ciała. Zdał sobie sprawę, że mózg jest centrum układu nerwowego i zidentyfikował niektóre jego regiony. Jego współczesny Erasistratus (ok. 315-240 r. p.n.e.) rozpoznał główną funkcję serca jako pompy i odkrył, że zawiera ono cztery główne zastawki jednokierunkowe. W przeciwieństwie do poglądów Arystotelesa i większości innych myślicieli greckich, Arystarch z Samos (ok. 310-230 r. p.n.e.) zaproponował, że w centrum wszechświata jest Słońce, a nie Ziemia. Oszacował względne odległości Słońca i Księżyca od Ziemi oraz ich rozmiary. Jego heliocentryczny model został odrzucony przez innych z powodów zdroworozsądkowych: wirująca Ziemia krążąca wokół Słońca powodowałaby silne wiatry, obiekty byłyby zrzucane z jej powierzchni, a ciała wyrzucone w górę wylądowałyby gdzie indziej. Bardziej technicznym problemem była "paralaksa gwiezdna": jeśli Ziemia krąży co roku wokół Słońca, wówczas obserwowane względne pozycje gwiazd zmieniają się w ciągu 6 miesięcy, czego nie zaobserwowano. Tak więc to nie heliocentryczny model Arystarcha, ale raczej klasyczny model geocentryczny, który ostatecznie wyłonił się z czasów greckich na przestrzeni wieków. Największym matematykiem greckich filozofów był Archimedes (ok. 287-212 r. p.n.e.). Ponadto był wybitnym wynalazcą, a także wniósł wkład do fizyki i astronomii. Opracował sposoby określania pól i objętości różnych dwu- i trójwymiarowych powierzchni, nowatorski sposób obliczania wartości π Zasłynął odkryciem zasady Archimedesa: ciało zanurzone w płynie doświadcza siły wyporu równej ciężarowi wypieranego płynu. Mówi się, że odkrył tę zasadę podczas kąpieli i wykrzyknął "Eureka!" (Znalazłem to!). Opracował formułę, która wyjaśnia, jak działają dźwignie. Wynalazł śrubę Archimedesa do pompowania wody, wynalazł silniki wojenne, stworzył działający model Układu Słonecznego, globus niebieski i inne cuda. Pomysłowego pomiaru obwodu Ziemi dokonał Eratostenes (ok. 284-192 r. p.n.e.). Wiedział, że w samo południe w czasie przesilenia letniego w egipskim mieście Syene Słońce znajdzie się dokładnie nad jego głową, a jego promienie docierają do dna znajdującej się tam głębokiej studni. Tak więc dokładnie w tym czasie zmierzył kąt wzniesienia Słońca w Aleksandrii, prawie na północ od Syene. Znając odległość między dwoma miastami, łatwo było obliczyć obwód Ziemi, zakładając, że jest to kula. Hipparch (ok. 190-120 r. p.n.e.) był największym astronomem starożytnego świata. Skatalogował 850 gwiazd wraz z ich pozycjami, odkrył "precesję równonocy" (niewielkie ruchy pozorne gwiazd, o których wiadomo, że są teraz spowodowane chwiejnością osi obrotu samej Ziemi), obliczył odległość od Ziemi do Księżyca i wynalazł szereg nowych instrumentów astronomicznych. Niezwykły przykład technologii możliwej w tamtym czasie został wydobyty z wraku statku u wybrzeży greckiej wyspy Antikythera. Nazywa się mechanizm Antikythera i uważa się, że został zbudowany w II wieku p.n.e. Zawierał ponad 30 biegów i przewidywał pozycje astronomiczne, wschody i zachody głównych gwiazd i konstelacji, fazy Księżyca, ruchy planet, zaćmienia i inne. Było to z pewnością najbardziej złożone urządzenie znane ze starożytnej Grecji i uważane jest za pierwszy znany "komputer". Sugerowano, że mógł nad tym pracować Hipparch, a być może także Archimedes. Ta wyrafinowana technologia pozostała niezrównana przez następne dwa tysiąclecia. Ptolemeusz (ok. 100-178 r. n.e.) słynie ze swojego modelu ruchów ciał niebieskich, w którym Ziemia znajduje się w centrum wszechświata, opublikowanego w traktacie znanym jako Almagest. Jego model został przedstawiony w tabelach, które można wykorzystać do określenia przeszłych lub przyszłych pozycji ciał niebieskich. W jego modelu Ziemia jest kulą i nie porusza się. Jest w centrum kosmosu. Ciała niebieskie są doskonałymi kulami, które poruszają się po Ziemi po okręgach; W kolejności odległości od Ziemi są to: Księżyc, Merkury, Wenus, Słońce, Mars, Jowisz, Saturn i wreszcie sfera gwiazd stałych. Aby wyjaśnić pewne osobliwości obserwowanych ruchów planet ("ruch wsteczny" jest czasem widocznym ruchem wstecznym), jego model wykorzystywał urządzenia zwane "deferentami", "epicyklami" i "ekwantami". Almagest podał również listę 48 gwiazdozbiorów, których nazwy przetrwały do dziś, zawierającą 1022 gwiazd. Zastąpił większość wcześniejszych greckich prac dotyczących astronomii i stał się powszechnie akceptowany. Stał się jednym z najbardziej wpływowych tekstów naukowych wszechczasów i pozostał dominującym modelem astronomicznym do przewidywania ruchów ciał niebieskich w ciągu następnych 1400 lat. W innym monumentalnym traktacie, Geografii, Ptolemeusz przedstawił całą wiedzę geograficzną swoich czasów. Geografia zawierała współrzędne geograficzne całego świata znanego wówczas Cesarstwu Rzymskiemu, wraz z mapami i omówieniami metod i danych. Lekarz Galen (ok. 129-210 r. n.e.) zasłynął z pracy nad anatomią człowieka. Udowodnił, że zarówno tętnice, jak i żyły transportują krew. Napisał setki prac z zakresu nauk medycznych; przekazał wiele z tradycji Hipokratesa, ale poszedł też znacznie dalej, dodając aspekty anatomiczne i fizjologiczne. Miał dominujący i trwały wpływ na myśl zachodnią aż do rewolucji naukowej w XVII wieku, a nawet później. Okres wielkich filozofów greckich trwał ponad tysiąc lat, od Talesa do Galena i kilku późniejszych myślicieli, osiągając szczyt około 500-300 lat p.n.e., okres Sokratesa, Platona i Arystotelesa. Był to niezwykły czas swobodnego myślenia i spekulacji na temat świata, w którym żyjemy. Ale w końcu i stopniowo zanikał.

Chociaż Imperium Rzymskie pokonało Grecję w II wieku p.n.e., nie położyło absolutnego końca greckiemu zainteresowaniu myśleniem abstrakcyjnym, ale też nie przejęło samej tradycji greckiej. Niektórzy Rzymianie zainteresowali się tym, ale ogólnie panowała wzajemna pogarda - Grecy patrzyli z góry na kulturową niższość Rzymu, a większość Rzymian postrzegała myślenie greckie jako wywrotowe i niebezpieczne dla Imperium. Niemniej jednak wiele dzieł greckich zostało ostatecznie przetłumaczonych na łacinę. Czysta nauka Greków wpłynęła na stosowaną naukę Rzymian. Niektórzy rzymscy poeci inspirowali się klasykami greckimi. Inni Rzymianie nauczali sztuk wyzwolonych w oparciu o pisma greckie, a jeszcze inni pisali na tematy naukowe w odniesieniu do myślicieli greckich. Było wiele szkół filozoficznych rozsianych po całym Imperium Rzymskim, ale nie było więcej oryginalnych myślicieli. Tak więc ogólnie wielka kultura intelektualna zapoczątkowana przez Greków nie była wspierana przez Rzymian. Dlaczego grecka tradycja w filozofii przyrody ostatecznie dobiegła końca? To pytanie było od dawna dyskutowane. Czy dlatego, że uważano, że wszystko, co można zrobić, zostało już zrobione i że wielkość ("otrzymana mądrość") filozofów przeszłości nigdy nie może zostać przekroczona? Być może był to fakt, że wiele z tego, co zostało napisane, było jakościowe i spekulacyjne (z kilkoma wyjątkami, takimi jak Almagest) bez praktycznego wpływu na rozwój człowieka - nie można było tego właściwie wykorzystać do niczego, więc poza czystym zainteresowaniem uznano, że nie ma to znaczenia dla trwającego życia. Gdyby była ilościowa i zdolna do dokonywania wiarygodnych prognoz w życiu codziennym, z pewnością stałaby się częścią tkanki cywilizacji. Historia świata byłaby zupełnie inna. Ale na to świat musiał poczekać do rewolucji naukowej ponad tysiąc lat później. Zaproponowano różne inne możliwe przyczyny upadku greckiej filozofii przyrody. Nie odgrywała oczywistej roli w społeczeństwie, a różne kulty i sekty, które nie miały z nią sympatii, rosły. Nastąpił wzrost sceptycyzmu i przesądów, sprzeciw wobec samej filozofii naturalnej (w przeciwieństwie do innych gałęzi filozofii), ogólny upadek życia intelektualnego i brak ciągłości między nauczycielem a uczniem. W późniejszych okresach Cesarstwa Rzymskiego warunki gwałtownie się pogorszyły; niestabilność polityczna, kryzysy militarne, epidemie i malejący dobrobyt miałyby negatywny wpływ. Powszechnie uważa się, że rozwój chrześcijaństwa był głównym czynnikiem w późniejszych stadiach upadku filozofii greckiej. Najpierw chrześcijaństwo pojawiło się jako niejasny kult wyłaniający się ze wschodu w pierwszym wieku, a chrześcijanie byli powszechnie prześladowani w całym Imperium Rzymskim. Ale w oszałamiającym odwróceniu, w 380 chrześcijaństwo stało się oficjalną religią państwową Cesarstwa Rzymskiego. Chrześcijanie zdobyli przewagę i mogli wtedy swobodnie prześladować "pogan". Chrześcijański dekret cesarski z tego samego roku nakazał zamknięcie wszystkich pogańskich instytucji w cesarstwie. Obejmowały one Wielką Bibliotekę i Muzeum w Aleksandrii. Według niektórych opowieści wraz z setkami tysięcy cennych zwojów został spalony i zniszczony przez fanatycznych chrześcijan, ale były też najazdy Syryjczyków i Arabów. W każdym razie zniknął na początku V wieku. Kolejnym poważnym ciosem było zamknięcie słynnej Akademii Platońskiej w Atenach dekretem cesarskim w 529 roku. Ale jest oczywiste, że schyłek filozofii greckiej miał już miejsce na wieki przed Chrystusem, więc chrześcijaństwo mogło mieć wpływ tylko na późniejszych etapach schyłku. Niemniej jednak wyraźnie efekt był druzgocący i oznaczał definitywny koniec greckiego złotego okresu.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (3)


Wczesne cywilizacje

Główne wczesne cywilizacje (Mezopotamia, Egipt, Rzeka Indus, Rzeka Żółta, Mezoameryka i Ameryka Południowa) pojawiły się od około 5000 do 3000 lat temu, co stanowi niewielki zakres w porównaniu z czasem od exodusu z Afryki około 50 000 lat temu. Szczególnie interesujące jest to, że przynajmniej ci w Eurazji i Ameryce musieli wyłonić się niezależnie od siebie. To (podobnie jak pojawienie się wczesnych religii i pisma) wydaje się sugerować, że wszyscy ludzie rozwijali się prawie w tym samym tempie, nawet jeśli znajdowali się po przeciwnych stronach planety. Cywilizacje te charakteryzowały się zazwyczaj dużą gęstością zaludnienia, miastami, scentralizowaną władzą, specjalizacją pracy, rozwarstwieniem społecznym, opodatkowaniem, monumentalnym budownictwem, uzależnieniem od intensywnego rolnictwa i gospodarki wodnej, nadwyżką produkcji i piśmiennictwa. Cztery z nich znajdowały się w pobliżu dużych źródeł wody: Tygrys i Eufrat (Mezopotamia), Nil (Egipt), Indus (Dolina Indusu) i Żółta Rzeka (Chiny). Inne, zlokalizowane w Mezoameryce i Ameryce Południowej, opierały się na dużych sieciach irygacyjnych. Nawadnianie było niezbędne dla nich wszystkich. Dokonano szeregu ważnych prac i innowacji. Budowali kanały, wały i tamy. Urządzenia oparte na zasadzie dźwigni były używane w Egipcie i Mezopotamii do podnoszenia wody z rzek i wlewania jej do kanałów. Mezopotamczycy opracowali pompy składające się z serii wiader przymocowanych do lin, aby czerpać wodę ze studni. W ramach tych systemów wynaleźli koło pasowe. Udomowiono woły i konie. Do uprawy roli woły były używane do ciągnięcia pługów. Opracowano "pług siewnikowy" - pług z lejkiem dołączonym do zrzucania nasion w bruzdę. W celu zjednoczenia odległych imperiów zbudowano systemy dróg. Koło zostało początkowo wynalezione około 6000 lat temu, aby ułatwić kształtowanie ceramiki, ale głównym przełomem w transporcie było wynalezienie osi, dzięki której dwa koła przymocowane do osi mogły obracać się w pozycji pionowej nad ziemią. Rezultatem były wozy i rydwany. Egipt miał własną autostradę biegnącą przez całą długość kraju - Nil. Egipcjanie wynaleźli żaglówki, które pływały po Nilu, płynąc na północ z prądem i płynąc na południe z wiatrem. Handel byłby ważnym składnikiem tych gospodarek. Monumentalne budowle były znakiem rozpoznawczym tych cywilizacji. Wielka Piramida w Egipcie jest największą budowlą z litego kamienia, jaką kiedykolwiek zbudowano. Wielki Mur Chiński, ukończony w latach 221-207 r. p.n.e. i mający 22 000 km długości, jest największym projektem budowlanym w historii. Budowa tak rozległych struktur wymagała planowania, projektowania, ogromnej siły roboczej i wiedzy technicznej. Złożone budynki również wymagały innowacji; kamienny łuk był bardzo ważnym wkładem Mezopotamczyków. Metalurgia i chemia były ważne w kilku z tych wczesnych cywilizacji. Metale obejmowały miedź, brąz, cynę, srebro i złoto; obróbka metali obejmowała skomplikowane technologie, od wydobycia i hutnictwa po kucie lub odlewanie metalu w użyteczne przedmioty. Było też duże zainteresowanie alchemią. Aby zachować ciała zmarłych, Egipcjanie opracowali mumifikację, która wymagała znajomości związków chemicznych o właściwościach konserwujących. Mezopotamczycy poznali właściwości różnych substancji chemicznych i zastosowali je do produkcji wielu produktów, od mydła po odzież, szkło i glazurowaną ceramikę. Medycyna była szeroko praktykowana. Wcześni Egipcjanie mieli silną tradycję nauk medycznych, o czym świadczą podręczniki papirusowe. Opracowali również farmaceutyki w postaci naturalnych ekstraktów; lecznicze właściwości kilku z nich zostały potwierdzone przez współczesną naukę. Pewna forma pisania była jedną z cech charakterystycznych wczesnych cywilizacji i opracowano różne techniki. Najwcześniejszym był system pisma klinowego na glinianych tabliczkach, pochodzący z Mezopotamii około 3000 roku p.n.e. Mniej więcej w tym samym czasie pojawiły się hieroglify w Egipcie. Podobnie jak w innych kulturach, obie te w końcu ewoluowały, by reprezentować dźwięki języka mówionego. Wczesne cywilizacje rozwinęły systemy arytmetyki i geometrii. Obejmowały one równania liniowe, kwadratowe i sześcienne, metody obliczania powierzchni, objętości i procentu składanego oraz przybliżone wyznaczanie wartości π. Miały one oczywiście znaczenie dla ówczesnego rolnictwa i inżynierii, dla księgowości wymaganej przez dużą biurokrację oraz dla handlu. Opracowano standaryzowane wagi i miary oraz wprowadzono pierwsze pieniądze. Wszystkie te cywilizacje prowadziły obserwacje astronomiczne. Miały one znaczenie dla różnych celów, od religii i astrologii po przewidywania ważnych wydarzeń astronomicznych i ziemskich. Wysoce regularne coroczne wylewy Nilu można było z góry przewidzieć na podstawie pierwszego pojawienia się gwiazdy Syriusza nad horyzontem. Astronomowie mezopotamscy mogli przewidzieć drogi głównych ciał niebieskich i czas pojawienia się Księżyca w nowiu. Połączyli gwiezdne kropki, aby nazwać konstelacje, podzielili niebo na znaki zodiaku i zidentyfikowali Drogę Mleczną. Ich szczegółowe zapisy ruchów gwiazd i planet, zaćmień Słońca i Księżyca oraz pojawiania się komet dostarczyły pokaźnej bazy danych dla Greków, którzy poszli za nimi. Wymyślili okrąg 360 stopni i godzinę sześćdziesięciu minut. Tak więc podstawowa nauka i wynikające z niej technologie były wyraźnie istotne w tych wczesnych cywilizacjach. Wiele imponujących innowacji i zmian zostało dokonanych w celach czysto utylitarnych - aby służyć państwu i jego celom. Szkolnictwo wyższe z praktycznymi zastosowaniami było wspierane przez przywódców państwowych i religijnych. Wiedza była z pewnością przydatna w zarządzaniu rolnictwem, ewidencji i administracji państwowej, handlu i handlu, architekturze i inżynierii, medycynie, religii, kalendarzu i astrologii. Utrzymywany był przez legiony anonimowych skrybów i biurokratów, zatrudnionych przez państwo do jego celów. Ale żadna z tych wielkich cywilizacji nie stworzyła "filozofii przyrody", racjonalnego badania nieodłącznych właściwości i działania świata naturalnego i fizycznego - podstawy współczesnej nauki. Żaden filozof przyrody nie jest nam znany z żadnej z tych cywilizacji, pomimo ich bogactwa, wielkości i tysiącleci istnienia. Czemu? Biedni chłopi, wieśniacy i robotnicy nie mieliby wykształcenia, czasu wolnego ani swobody kontemplacji świata i byliby zanurzeni w mackach życia małej wioski. Ich celem było samo przetrwanie. Wszelkie uczone osoby zostałyby zatrudnione i uwikłane w działania państwa i prawdopodobnie nie miałyby ochoty, czasu ani pozwolenia, by spojrzeć poza jego cele. A wielkie cywilizacje biurokratyczne byłyby ogłupiające i nietwórcze. Ale najbardziej zniechęcającą przeszkodą była niewątpliwie religia. Te wczesne cywilizacje były pełne bogów, duchów, demonów i niekończących się mitów. Światopoglądy tamtych czasów były całkowicie religijne i mitologiczne. Ugruntowane religie wyjaśniały wszystko. W tamtych czasach było zwyczajem odpowiadać na pytanie wzywając boga lub wymyślając jakieś inne mitologiczne wyjaśnienie. Były setki, jeśli nie tysiące bogów i wiele innych duchów i mitów. Religie zostały w pełni zintegrowane z codziennym życiem i rytuałami. W różnych formach dbały o potrzeby jednostek, dawały wiarę w siłę wyższą i życie po śmierci. Religia była głęboko zakorzeniona i stanowiła część tkanki społecznej społeczeństwa. W obliczu tych wszechogarniających religii i mitologii nie było potrzeby i miejsca na zupełnie inne spojrzenie na świat. Religie wyjaśniły już wszystko na temat świata i było nie do pomyślenia, aby zwykli śmiertelnicy mogli znaleźć jakiekolwiek prawdy o świecie, które nie były jeszcze znane tym religiom. Samo istnienie tych religii stanowiłoby poważną przeszkodę dla niezależnego myślenia, a kapłaństwo z pewnością stłumiłoby wszelkie próby wolnego myślenia. A prawdy o wszechświecie mogły być uważane za absolutne i dane od Boga, w którym to przypadku człowiek nie powinien ich kwestionować ani proponować alternatywy. Mściwy gniew bogów sam w sobie wystarczyłby, by powstrzymać wolne myślenie. A potem był mariaż religii, polityki i władzy. Starożytny Egipt był teokracją. Faraon rządził na podstawie mandatu bogów. Reprezentował wolę bogów poprzez prawa i politykę. Pod nim była hierarchia państwowa, biurokracja i wojsko oraz potężne kapłaństwo, które pomagało utrzymać status quo. Zakorzenione przywileje rządzących w tak monolitycznej, hierarchicznej cywilizacji byłyby ogromne i oczywiście byłoby to zniechęcającą perspektywą zaproponowania zupełnie innego światopoglądu, który mógłby im zagrozić. Nie jest więc zaskakujące, że te wczesne cywilizacje nie stworzyły niczego, co przypominałoby naturalną filozofię. To musiało poczekać na wielkich myślicieli greckich.


Rozwój nauki


Od prehistorii do dalekiej przyszłości (2)


Krótka historia

Z mgieł czasu


Nasi przodkowie wyłonili się z mgły czasu z rozwijającą się świadomością siebie i świata, w którym się znaleźli. Około 7 milionów lat temu rozstali się z szympansami. W tym czasie nasi przodkowie i szympansy zaczęli osobno ewoluować i ostatecznie stali się zupełnie różnymi gatunkami. Szympansy pozostały w swoim naturalnym środowisku, ale nasi przodkowie mieli bardzo trudne i wymagające doświadczenia. Przenieśli się ze swoich znajomych lasów do zupełnie nowych siedlisk, zaczynając od otwartych sawann Afryki, a w końcu zimnych równin Azji, gór i lodu Europy, a ostatecznie reszty świata. Te nowe środowiska wymusiłyby na naszych przodkach znaczące zmiany ewolucyjne, gdy walczyli o adaptację. Rezultatem (jak dotąd) jesteśmy my. Jedną z pierwszych kluczowych adaptacji ewolucyjnych był dwunożność, umiejętność chodzenia na dwóch nogach. Wymagał szeregu istotnych zmian anatomicznych w kręgosłupie, miednicy, nogach i stopach. Ale przyniosło to duże korzyści. Na trawiastych sawannach można było zobaczyć inne duże zwierzęta - zarówno drapieżniki, jak i ofiary - ze znacznie większych odległości. Można było poruszać się szybciej i sprawniej. Zwolniono ręce do innych zadań, co z czasem miało stawać się coraz ważniejsze. Ślady naszych wczesnych przodków zostały znalezione w zestalonym popiele wulkanicznym datowanym na ponad 3,5 miliona lat temu. Ponieważ nasi wcześni przodkowie (tak jak my) nie mieli naturalnej ofensywnej lub defensywnej broni ani zbroi (takich jak poroże, duże zęby, pazury i muszle innych zwierząt), opracowanie narzędzi było bardzo ważnym krokiem. Bez nich nasi przodkowie mieli tylko gołe ręce. Najstarsze znane narzędzia kamienne pochodzą sprzed 2,5 miliona lat. Początkowo były to jedynie odpowiednio ukształtowane kamienie, którymi można było zdrapywać ciała martwych zwierząt. Ale uznanie ich użyteczności było małym, ale bardzo ważnym krokiem. Narzędzia rozwijały się powoli przez wieki. Pierwsze użycie ognia miało miejsce ponad milion lat temu. Prawdopodobnie miałaby to postać płonącej gałęzi wyjętej z pożaru spowodowanego uderzeniem pioruna i przewieziona do obozu. Powstałe ognisko zapewniłoby ciepło, pewną ochronę przed dzikimi zwierzętami i środki do gotowania jedzenia (co mogło być szczególnie korzystne dla energochłonnych mózgów). Można go podtrzymywać, dodając więcej gałęzi w razie potrzeby. Wielkim przełomem byłoby odkrycie sposobu na samodzielne rozpalenie ognia za pomocą tarcia. Potem mieli przenośne narzędzie o ogromnej wartości. Kolejną ważną zmianą ewolucyjną był wzrost rozmiarów mózgów naszych przodków. Kilka milionów lat temu nie były większe niż dzisiejsze szympansy, około 300-400 cm3. Ale potem z czasem zaczęły rosnąć, a dziś mają około 1400 cm3 objętości. Kora przedczołowa, siedziba naszych najwyższych zdolności poznawczych, jest siedmiokrotnie większa niż kora przedczołowa szympansów. Biorąc pod uwagę ogromny koszt tak dużych mózgów - trudności w porodzie i zapotrzebowanie energetyczne mózgu (około 50% całkowitego spożycia w przypadku niemowląt) - korzyści musiały być ogromne. Przyczyna tej niezwykłej ewolucji nie jest jeszcze jasna, ale zalety dużej mocy umysłowej są dziś oczywiste dla nas wszystkich. Znajomość materiałów na narzędzia, natury ognia, tego, które jagody są bezpieczne, a które są trujące, zachowań i wzorców migracji zwierząt oraz innych kluczowych faktów dotyczących świata była niezbędna do przetrwania i zostałaby przekazana wieki z pokolenia na pokolenie przez miliony lat. To była nauka na najbardziej podstawowym poziomie. Przez większość tego czasu nie było komunikacji ustnej ani pisemnej - młodzi uczyliby się, obserwując praktyki starych. Ale bardziej ogólna forma komunikacji byłaby oczywiście bardzo korzystna. Tak więc pochodzenie języka byłoby monumentalnym krokiem naprzód. Kiedy i jak to się stało? Niestety ze względu na oczywisty brak bezpośrednich dowodów bardzo trudno jest odpowiedzieć na te pytania, choć hipotez jest wiele. Język i mowę można uważać za różne rzeczy, ale rozwój krtani z pewnością byłby ważnym krokiem. Połączenie dużego mózgu, w pełni rozwiniętej krtani i języka dałoby naszym przodkom ogromną przewagę. Ewolucja naszych wczesnych przodków nie przebiegała po jednej linii. Z biegiem czasu, według ostatnich szacunków, doprowadziło to do powstania aż 27 różnych linii genealogicznych i narysowano wstępne "drzewo genealogiczne". W jednym czasie na planecie mogło żyć kilka różnych gatunków. W końcu wyginęły wszystkie, oprócz nas. Homo to rodzaj naczelnych, który obejmuje współczesnych ludzi. Homo habilis pojawił się w zapisie kopalnym około 2,8 miliona lat temu i prawdopodobnie stworzył pierwsze narzędzia. Homo erectus i Homo ergaster byli prawdopodobnie pierwszymi, którzy użyli ognia i skomplikowanych narzędzi, i jako pierwsi opuścili Afrykę i zamieszkali w Europie i Azji około 1-2 mln lat temu. Homo neanderthalensis (neandertalczycy), o mózgach tak dużych jak nasz, żyli w Europie już 400 000 lat temu. Anatomicznie współcześni ludzie (Homo sapiens), nasi bezpośredni przodkowie, po raz pierwszy pojawili się około 200 000 lat temu, a poważna fala migracji z Afryki miała miejsce około 50 000 lat temu. Z analizy genetycznej wynika, że ludzie mogli napotkać "wąskie gardło populacji", zmniejszając populację do zaledwie kilku tysięcy i niebezpiecznie ograniczając różnorodność genetyczną, ale oczywiście wyzdrowieliśmy. Neandertalczycy zniknęli z zapisu kopalnego około 30 000 lat temu. Nasz , to jedyny żyjący gatunek z rodzaju Homo. Przez większość ostatnich 2 milionów lat technologia narzędzi ewoluowała bardzo stopniowo. Ale potem, około 50-100 tysięcy lat temu, zaczęły pojawiać się różnego rodzaju innowacje. Niektórzy badacze widzą dowody na "wielki krok naprzód" w technologii i kulturze około 50 tysięcy lat temu, podczas gdy inni widzą bardziej stopniowy rozwój w ciągu ostatnich 100 tysięcy lat. W każdym razie zaszły istotne zmiany. Dowody obejmują użycie bardziej skutecznych narzędzi wykonanych z kości, broni kompozytowej, takiej jak włócznie z kamiennymi lub kościanymi grotami, łuk i strzały, wędkarstwo, malowidła jaskiniowe, biżuteria, transport materiałów na duże odległości oraz obrzędy pogrzebowe. Najistotniejsze były nowe działania o charakterze symbolicznym i abstrakcyjnym. Anatomicznie współcześni ludzie stawali się nowoczesnymi behawioralnie ludźmi. Religia stopniowo się rozwijała. Wszystkie znane kultury świata praktykowały jakąś formę religii. Zarówno wtedy, jak i teraz, obejmowała wiarę w istoty nadprzyrodzone i zajmowała się duchowym aspektem kondycji ludzkiej, życiem i śmiercią oraz możliwością życia pozagrobowego. Każda społeczność stworzyła bogów na swój obraz. Były antropomorficzne i ściśle odzwierciedlały wartości społeczności. Pomogli zrozumieć ludzką kondycję. Byli bogowie na wszystko i jest zrozumiałe, że prymitywni ludzie wymyślili bogów, duchy i mity, aby wyjaśnić przerażające lub tajemnicze zjawiska naturalne, takie jak błyskawice, grzmoty, komety, meteory, zaćmienia, tęcze, trzęsienia ziemi, narodziny i śmierć. Oczywiście wszystkie te zjawiska naturalne są dziś wyjaśnione przez naukę, ale w dawnych czasach dobrze byłoby "zrozumieć" je w kategoriach bogów, a z pewnością byłoby krzepiące wiara w życie pozagrobowe. Religia była także potężną siłą jednoczącą członków społeczności. Około 10 000 lat temu niektórzy z naszych przodków porzucili swój styl życia łowiecko-zbierackiego. Osiedlili się w jednym miejscu, założyli rolnictwo i udomowili zwierzęta. Zmiany te niewątpliwie miały miejsce przez dłuższy czas. Nauczyli się, jak uprawiać kilka roślin, obserwując najpierw, że pochodzą one z nasion i stopniowo doskonalili swoje techniki. Wilki, które podążały za nimi od obozowiska do obozowiska, jedząc resztki we wcześniejszych czasach, w końcu stały się oswojonymi psami. Nasi przodkowie nauczyli się trzymać inne zwierzęta, które można wykorzystać na mleko, żywność i odzież, takie jak krowy i owce. Nie wszyscy nasi przodkowie zrezygnowali z trybu łowiecko-zbierackiego, a niektórzy kontynuują ten styl życia do dnia dzisiejszego w tak odległych miejscach, jak Nowa Gwinea, środkowa i południowa Afryka, dorzecze Amazonki, Syberia, Alaska, północna Kanada, zachodnia. Australia, Ziemia Ognista, Malezja i Wyspy Andamańskie. Ale z tych, którzy wybrali osiadłą egzystencję, powstały wsie, miasta, a w końcu całe cywilizacje.


Rozwój nauki


Od prehistorii do dalekiej przyszłości


Współczesna nauka i technologia dały nam wiedzę i standardy życia daleko wykraczające poza najśmielsze oczekiwania naszych przodków, którzy żyli zaledwie kilka wcieleń temu. Zaledwie kilka wcieleń temu (wykorzystując jako skalę czasową naszą współczesną długość życia wynoszącą 80 lat, niewielki ułamek naszej egzystencji jako gatunku), nasi przodkowie nie mieli pojęcia, z czego składa się materia, jak działa życie ani co leży poza naszym Układem Słonecznym i najbliższe gwiazdy. Elektryczność była tylko ciekawostką, a atom tylko spekulacją. Teraz wiemy o atomie i jego składnikach, rozumiemy podstawy życia i zbadaliśmy wszechświat. Dzisiaj elektryczność jest szeroko rozprowadzana po krajach i zasila nasze gałęzie przemysłu i domy, a nasi przodkowie byliby jeszcze bardziej zdumieni tym, jak wykorzystujemy energię atomową. Spojrzeliby na Księżyc i zastanawiali się, z czego jest zrobiony. Teraz spacerowaliśmy po Księżycu i wysłaliśmy statki kosmiczne na wszystkie planety Układu Słonecznego. Trzy wcielenia temu nasi przodkowie podróżowali pieszo lub na wozach po polnych drogach; nieliczni bogaci podróżowali konnymi lub zaprzężonymi w konie powozami. Dzisiaj rutynowo podróżujemy samochodem z prędkością 100-200 km na godzinę po utwardzonych drogach i autostradach. W tamtych czasach podróże zamorskie odbywały się w drewnianych łodziach z żaglami, co trwało miesiące, a komunikacja na odległość odbywała się za pośrednictwem listów przewożonych konno lub wysyłanych za granicę, ponownie w drewnianych łodziach z żaglami. Dziś podróżujemy przez pół świata w ciągu zaledwie godzin w ogromnych samolotach odrzutowych, które latają 10 km nad ziemią i są bliskie prędkości dźwięku, i mamy praktycznie natychmiastową komunikację na całym świecie za pośrednictwem telefonu, poczty elektronicznej i mediów społecznościowych. Nasi przodkowie w tym czasie mieszkali w chatach, drewnianych zagrodach lub kamiennych domach na wsiach i miasteczkach, w których tylko kominki służyły do ogrzewania i świece do oświetlania. Wodę do użytku domowego trzeba było nosić ręcznie. Dziś mieszkamy w dobrze ocieplonych domach z oknami termopanelowymi, centralnym ogrzewaniem, klimatyzacją i oświetleniem elektrycznym, a ciepło i zimno w pomieszczeniach przyjmujemy za pewnik. Bieżąca woda jest zawsze dostępna od ręki. Jeszcze kilka wcieleń temu mężczyźni pracowali na farmach ręcznie, przy pomocy koni lub wołów, a kobiety prały ubrania ręcznie. Dziś tylko niewielki ułamek ludzi pracuje w gospodarstwach rolnych, z maszynami wykonującymi ciężką pracę a pralka pomogła wyzwolić kobiety. W tym czasie żywność była produkowana lokalnie i musiała być szybko konsumowana, konserwowana lub wkładana do lodu, zanim się zepsuła. Dziś mamy żywność z całego świata, która jest zawsze dostępna w supermarketach i lodówkach w domu, aby zachować świeżość. W tamtych czasach życie naszych przodków było uzależnione od kaprysu pogody. Teraz mamy satelity pogodowe obserwujące całą kulę ziemską i masowe symulacje komputerowe, które ostrzegają nas o nadchodzących katastrofach i sporządzają prognozy z niezwykłą dokładnością. Prostą muzykę i skecze w tym czasie produkowali w domu lub wiosce członkowie rodziny, miejscowi lub małe grupy podróżujące; tylko zamożni mogli doświadczyć muzyki kameralnej, koncertów, oper i sztuk teatralnych. Dziś mamy całą światową muzykę i ogromną różnorodność rozrywek najlepszych światowych wykonawców, gdziekolwiek jesteśmy, za dotknięciem przycisku na naszych iPodach, smartfonach, odtwarzaczach CD, telewizorach i komputerach z urządzeniami do strumieniowania podłączonymi do Internetu. Trzy wcielenia temu jedynymi obrazami były rysunki i obrazy. Teraz co roku wykonujemy biliony zdjęć cyfrowych. Średnia długość życia wtedy wynosiła zaledwie 30 lat. Dziś jest ich ponad 80 w większości krajów rozwiniętych. W tamtych czasach upuszczanie krwi było powszechnym lekarstwem, a przyczyny chorób były zupełnie nieznane. Teraz rozumiemy i wyleczyliśmy wielu z nich, dysponujemy potężnymi urządzeniami do obrazowania, które pozwalają zajrzeć do wnętrza ludzkiego ciała oraz wyrafinowanymi lekami i metodami diagnozy i operacji, które ratują miliony istnień ludzkich. Świat kilka wcieleń temu był nocą prawie całkowicie ciemny, a nasi przodkowie byliby zdumieni olśniewającym widokiem nowoczesnego Nowego Jorku, Hongkongu czy Tokio nocą. Nasi przodkowie zaledwie kilka wcieleń temu zaniemówiliby na widok startującego promu kosmicznego lub na myśl o łodzi podwodnej, która może dotrzeć do najgłębszych części oceanu, i uznaliby nowoczesny komputer lub smartfon za cud. Pisarz science fiction Arthur C. Clarke zauważył kiedyś, że każda wystarczająco zaawansowana technologia w oczach znacznie mniej rozwiniętego społeczeństwa byłaby "nie do odróżnienia od magii". Nasza wiedza o świecie wzrosła wykładniczo i każda osoba może ewentualnie nadążyć. W każdej niszy są eksperci. Ale dzięki Internetowi większość światowej wiedzy jest teraz łatwo dostępna dla nas wszystkich. Przez prawie cały czas istnienia ludzkości nasi przodkowie nie spodziewali się postępu; prowadzili egzystencję i mieli tylko nadzieję, że jutro będzie takie jak dzisiaj. Ale teraz żyjemy w świecie fenomenalnego wzrostu wykładniczego; jesteśmy uzależnieni od postępu i bierzemy go za pewnik, ponieważ jesteśmy do niego przyzwyczajeni. Dzisiejsze dzieci nie znają nic poza naszym współczesnym światem smartfonów, samochodów i samolotów. Ostatnie dwa lub trzy wcielenia były naprawdę wyjątkowe. Świat kilka wcieleń temu wyglądałby tak samo, jak setki, a nawet tysiące lat wcześniej. Dopiero od tego czasu nasze życie zmieniło się tak dramatycznie dzięki nauce i technologii. Ale historia nauki sięga znacznie dalej, do zarania ludzkości.