Musimy pamiętać, że sukces rewolucji komputerowej opiera się na kilku ważnych zasadach fizyki. Nasze komputery dokonują obliczeń z szybkością zbliżoną do szybkości światła, a to – jak podkreślał Albert Einstein – prędkość graniczna we wszechświecie. Michio Kaku, wybitny amerykański fizyk, podkreśla, że u podstaw rewolucji komputerowej leżą trzy czynniki. Po pierwsze, kombinacja swobody elektronów i ich olbrzymia szybkość pozwalają nam przesyłać sygnały elektryczne w zawrotnym tempie, co wykreowało rewolucję elektryczną w poprzednim stuleciu; po drugie, nie ma ograniczeń w ilości informacji, jaką można zmieścić w wiązce lasera; po trzecie, siłą napędową rewolucji komputerowej była miniaturyzacja tranzystorów.
Pierwszy czynnik jest wynikiem badań rozpoczętych przez angielskiego lekarza Williama Gilberta, który odkrył, że wiele materiałów w przyrodzie można naładować elektrycznie. I to on od greckiej nazwy bursztynu (elektron) nazwał tę dziedzinę fizyki elektryką. Innym krokiem milowym było odkrycie fal elektromagnetycznych przez Rudolfa Hertza w 1888 r. oraz odkrycie dziewięć lat później elektronu przez Josepha Thomsona.
Także laser nie jest wcale najnowszą nowinką techniczną. Istnieje od 1952 r. Co prawda urządzenie wymuszające wzmocnienie mikrofali ze względu na zastosowanie amoniaku nazwano maserem, ale zasada działania była podobna do lasera rubinowego uruchomionego pierwszy raz 16 maja 1960 r. przez amerykańskiego astrofizyka Theodore’a Maimana.
Najważniejszym czynnikiem popychającym rozwój rewolucji informatycznej jest jednak chip komputerowy, który zawiera setki, tysiące, a nawet miliony tranzystorów ułożonych na maleńkiej krzemowej płytce. Chip stał się symbolem naszych czasów – epoki elektroniki i informatyki – ale przecież jest urządzeniem starszym od wielu naszych dziadków. Już w 1926 r. powstała lampa próżniowa Loewe 3NF, która była prekursorem układu scalonego. Oprócz trzech triod zawierała dwa kondensatory i cztery rezystory, dzięki czemu całość tego układu mogła posłużyć jako jednoobwodowy radioodbiornik reakcyjny.
Koncepcja bardziej znanego nam dzisiaj układu scalonego zrodziła się w genialnym umyśle angielskiego naukowca Geoffreya Dummera. Nie zbudował on co prawda pracującego układu, ale zaszczepił pomysł, który znakomicie rozwinęli w 1958 r. dwaj amerykańscy inżynierowie: Robert Noyce z Fairchild Semiconductor i Jack Kilby z Texas Instruments. Niezależnie od siebie zbudowali działające dwa modele układów scalonych. Nie wiemy do końca, który z tych panów naprawdę pierwszy opracował swój układ. Historia uznała jednak, że był nim Kilby, który zademonstrował swój wynalazek 12 września 1958 r., czyli na pół roku przed Noyce’em. W dowód uznania za ten czyn w 2000 r. Jack Kilby otrzymał za pierwszy w historii działający układ scalony Nagrodę Nobla z fizyki.
Miniaturyzujmy elektronikę do oporu
Komputery zmieniają nasz świat i sposób życia, ale także poważnie przyczyniają się do zmian środowiskowych. Wszystkie elementy chłodnicze znajdujące się w komputerach są bezpośrednimi źródłami gazów cieplarnianych. Od 2014 do 2020 roku emisja gazów cieplarnianych z urządzeń elektronicznych i ich odpadów wzrosła o 53 proc. Szacuje się, że do 2030 r. z elektroodpadów będą emitowane 852 tony metrycznych związków dwutlenku węgla.
Nieustanny postęp technologiczny powoduje także mnożenie się szczególnie niebezpiecznych e-odpadów. Sam ich transport ma dramatyczny wpływ na zmiany klimatyczne. Jedynym ratunkiem jest radykalna miniaturyzacja komponentów elektronicznych.
A już dzisiaj chipy, które znajdują się w naszych laptopach, można zobaczyć jedynie pod mikroskopem. Czy taka miniaturyzacja jest procesem nieskończonym i bezpiecznym dla środowiska? Na obydwa pytania odpowiedź brzmi: niestety, nie. Wzrost mocy chipów jest zależny od regulacji długości światła ultrafioletowego. Im staje się ona krótsza, tym w płytce krzemowej można zastosować mniejsze tranzystory. Długość fali światła UV wynosi zaledwie kilka nanometrów, co oznacza, że najmniejszy tranzystor, jaki uda się stworzyć, będzie mieć średnicę ok. 30 atomów.
Emisja dwutlenku węgla z urządzeń elektronicznych i ich odpadów tylko w latach 2014–2020 urosła o 53 proc.
Foto: AdobeStock
Wspomniany amerykański fizyk Michio Kaku uważa jednak, że „atomizacja” mikroprpcesorów znacząco wpłynie na ograniczenie wydobycia rud metali rzadkich i szlachetnych, a tym samym przyczyni się znacząco do ograniczenia śladu węglowego.
Kaku uważa, że ludzkość musi wkrótce przejść z epoki krzemowej w epokę postkrzemową. „Tranzystory będą tak małe, że odgrywać zacznie rolę teoria kwantowa i fizyka atomowa – podkreśla prof. Kaku – a elektrony wyciekną poza obwody. Najcieńsza warstwa w komputerze będzie miała grubość pięciu atomów. W takiej sytuacji zgodnie z prawami fizyki zacznie decydować teoria kwantowa”.
O przyszłości rozwoju naszej cywilizacji decydować będzie zatem teoria, której historia rozpoczęła się 120 lat temu, kiedy wielki niemiecki uczony Max Planck, obalając teorię Maxwella, odkrył, że energie fal elektromagnetycznych emitowanych przez ciała są skwantowane, czyli skokowe. Późniejsze odkrycia Alberta Einsteina, Nielsa Bohra, Louisa de Broglie’a, Wernera Heisenberga, Erwina Schrödingera, Paula Diraca i innych wielkich naukowców wprowadziły nasze myślenie w zupełnie inny wymiar poznawczy – mechaniki kwantowej, w której wszelka nasza dotychczasowa logika całkowicie się załamuje.
Pobierz cały dodatek specjalny Walka o klimat: Zielona konkurencyjność
Foto: Gremi Media