Jak powstrzymać zmiany klimatyczne na naszej planecie

Głównym źródłem emisji gazów cieplarnianych, zmieniających klimat Ziemi, są przede wszystkim przemysłowe metody przetwarzania nieodnawialnych źródeł energii. Nie możemy jednak zapominać o rolnictwie i przemyśle elektronicznym.

Publikacja: 28.11.2024 19:50

Koncepcja działania wiatraków nie zmieniła się od 400 lat. To wciąż czyste i efektywne serce rozmait

Koncepcja działania wiatraków nie zmieniła się od 400 lat. To wciąż czyste i efektywne serce rozmaitych instalacji, w tym służących wytwarzaniu energii.

Foto: AdobeStock

Kto ponosi główną winę za bardzo groźne zmiany klimatyczne na naszej planecie? Przede wszystkim należy wskazać na trzy gałęzie gospodarki: transport, wytwarzanie elektryczności i ciepła (w tym cały proces ogrzewania domów) oraz przemysł, do którego zalicza się przede wszystkim produkcję hutniczą, przemysł chemiczny i petrochemiczny oraz procesy wydobywcze w kopalniach.

Ale nie tylko na tych obszarach powinna się skupiać nasza strategia do walki z globalnym ociepleniem. Do głównych źródeł produkcji gazów cieplarnianych należy bowiem zaliczyć rolnictwo, a konkretnie szeroko pojęty przemysł mięsny. Jest to wbrew wszelkim pozorom branża równie groźna dla środowiska co przemysł ciężki i transport razem wzięte.

Nowoczesne sposoby użytkowania gruntów odpowiadają bowiem za ponad 18 procent emisji gazów cieplarnianych. Podobnie masowa hodowla tzw. przeżuwaczy, czyli wielotysięcznych stad bydła domowego, owiec i kóz. Hodowla zwierząt przeżuwających w dwojaki sposób wpływa na zmiany klimatyczne i środowiskowe. Po pierwsze, eksploatacja ogromnych obszarów wypasu tych zwierząt powoduje magazynowanie dwutlenku węgla w glebie. Po drugie, same zwierzęta są źródłem emisji gazów cieplarnianych pochodzących z procesów trawiennych. „Przeżuwacze” hodowlane produkują bowiem dwa rodzaje związków lotnych: metan (CH4) i podtlenek azotu (N2O).

Z jednej strony gazy te znacznie krócej pozostają w atmosferze niż gazy cieplarniane produkowane przez transport czy przemysł, takie jak dwutlenek węgla (CO2), sześciofluorek siarki (SF6), fluorowcopochodne węglowodorów (HFCs) czy perfluoropochodne związki węgla (PFCs). Z drugiej strony eksperci z Organizacji ds. Wyżywienia i Rolnictwa ONZ (FAO) wskazują, że metan ma około dwudziestopięciokrotnie większy wpływ na klimat niż dwutlenek węgla. Jeszcze gorzej jest z podtlenkiem azotu, który jest nawet trzystukrotnie bardziej szkodliwy niż dwutlenek węgla.

Czytaj więcej

Dania wprowadzi podatek od emisji CO2 w rolnictwie. To pierwszy taki kraj na świecie

Co zatem należy zrobić, żeby ograniczyć emisję tych szkodliwych substancji do atmosfery? Przede wszystkim zmniejszyć hodowlę bydła i trzody chlewnej. Na początku lat 60. XX wieku statystyczny mieszkaniec naszej planety zjadał ok. 23 kg mięsa rocznie. Ponad 60 lat później przeciętny człowiek konsumuje 43,6 kg mięsa rocznie. A przecież w 1960 r. na świecie żyło 3 miliardy ludzi. Ta liczba pod koniec lat 30. XXI wieku zostanie potrojona. Z kalkulacji FAO wynika, że wkrótce spożycie na osobę wyniesie 69,5 kg.

Do lat 70. XX wieku problem emisji gazów cieplarnianych pochodzenia zwierzęcego dotyczył głównie wielkich hodowli bydła z obszaru środkowych równin Ameryki Północnej. Jednak obecnie to nie one stanowią największe zagrożenie dla klimatu. Hodowle w Brazylii, Indiach i Chinach przekroczyły bowiem łącznie 200 milionów sztuk bydła. Takie skupienie dużych zwierząt jednego gatunku jest wręcz ekstremalnym zagrożeniem dla środowiska i klimatu planety.

Dlaczego? Nie tylko z powodu wspomnianych gazów powstających w przewodach pokarmowych zwierząt w wyniku fermentacji zachodzącej podczas procesu trawienia. Te stanowią zaledwie 31 procent z całej puli gazów cieplarnianych produkowanych przez przemysł mięsny. Aż 58 procent wytwarza produkcja pasz. Do tego doliczyć należy transport (7 procent) oraz przechowywanie i produkcję obornika (4 procent). Zwierzęta nie tylko konsumują ogromne ilości roślin, które są sadzone coraz częściej na obszarach wyciętych lasów tropikalnych Ameryki Południowej czy Azji Południowo-Wschodniej, ale też wydalają ogromne ilości odchodów, które wbrew pozorom wcale nie przyczyniają się do ubogacenia ziemi rolnej.

Ropa naftowa i węgiel muszą odejść do lamusa

W połowie XIX wieku taką samą rolę jak dzisiaj ropa naftowa pełniło ptasie guano. Nie tylko zawierało saletrę używaną do produkcji prochu strzelniczego, ale było przede wszystkim idealnym nawozem mającym w sobie niezbędne dla uprawy zbóż fosforany wapnia i magnezu, azotu oraz potasu – podstawę energii prostej dla roślin. Jak pisał pewien farmer do swojego kongresmena: „ponadto guano, dzięki społecznym nawykom ptaków, które je produkują, jest zwykle dostępne na ogromnych, skoncentrowanych i nieustannie regenerujących się hałdach”.

Jak ważny był to surowiec? Nie mniej ważny niż dzisiejsza ropa naftowa. Dość powiedzieć, że na początku lat 50. XIX w. Wielka Brytania importowała ponad 200 tysięcy ton rocznie guana, a Stany Zjednoczone aż 760 tysięcy ton. Zapotrzebowanie na ten nawóz rosło wraz z przyłączaniem się nowych terytoriów rolniczych do Unii. Amerykanie, którzy zaczęli z niepokojem przyglądać się polityce kolonialnej mocarstw europejskich, doszli do wniosku, że należy bronić światowych zasobów guana za wszelką cenę.

Guano było kiedyś surowcem o fundamentalnym znaczeniu dla globalnej gospodarki. Ludzkość zdołała je

Guano było kiedyś surowcem o fundamentalnym znaczeniu dla globalnej gospodarki. Ludzkość zdołała je jednak zastąpić i z kopalinami, miejmy nadzieję, stanie się to samo

Foto: AdobeStock

Dlatego 18 sierpnia 1856 r. Kongres Stanów Zjednoczonych przegłosował ustawę o wyspach z guanem (ang. Guano Islands Act). Uprawniała ona każdego amerykańskiego obywatela do przejęcia w imieniu Stanów Zjednoczonych wszystkich wysp, na których znalazłby guano, czyli żyzne odchody ptaków morskich. Próba wywozu guana z takiego terytorium musiałaby się zakończyć wojną z USA. Choć wartościowy surowiec się zmienił, to metody ochrony amerykańskich interesów pozostają takie same.

Problem nadmiernego popytu na guano jako najlepszy nawóz świata rozwiązał dopiero niemiecki chemik Fritz Haber, który w latach 1905–1910 opracował metodę syntezy amoniaku z azotem i wodorem (w 1918 r. otrzymał za to Nagrodę Nobla).

Czytaj więcej

Bilion dolarów rocznie to za mało. Eksperci o rosnących kosztach zmian klimatu

Obecnie oczekujemy podobnego przełomu w światowej energetyce i na rynku paliwowym. Chcąc powstrzymać destrukcyjne zmiany klimatyczne na naszej planecie, naukowcy od lat poszukują odnawialnych paliw syntetycznych, które skutecznie zastąpiłyby ropę naftową. Do grupy pięciu głównych alternatyw dla paliw kopalnych należą: energia odnawialna, energia jądrowa, wodór, biomasa i energia geotermalna. Energię odnawialną definiuje się jako energię pochodzącą ze źródeł naturalnych, które mogą się odnawiać, takich jak energia wiatrowa, słoneczna, pływowa lub wodna. W rzeczywistości nie jest to żaden nowy pomysł.

Od koźlaka do farm wiatrowych

Jednym ze stałych elementów krajobrazu współczesnej Polski są wyrastające jak grzyby po deszczu farmy wiatrowe. Są to samodzielne elektrownie wytwarzające energię elektryczną przez generatory napędzane prądami powietrza. Jednak koncepcja turbin wiatrowych wcale nie jest współczesnym wynalazkiem. To zmodyfikowany pomysł Chińczyków z VII w. Do Europy dotarł dzięki Persom, którzy w IX w. zaczęli budować wiatraki z osią pionową. Sto lat później Europejczycy udoskonalili perski wynalazek, budując wiatraki z osią poziomą – służyły one pierwotnie do mielenia zboża na mąkę.

Jednak nieustanne doskonalenie mechanizmu pozwoliło na zastosowanie wiatraków także do rozdrabniania skał, wyciskania oleju czy mielenia drewna na papier. Dzięki rozwojowi mechaniki już w XV w. zaczęto stosować wiatraki do produkcji sznurów, a modernizacja tych urządzeń pozwoliła także zaopatrzyć w niezbędną energię mechaniczną zakłady tkackie. Żyjący na nadmorskich terenach depresyjnych Holendrzy zaczęli używać wiatraków do zasilania pomp osuszających poldery.

Wiatrak stał się niezwykle ważnym elementem gospodarki Starego Kontynentu. Także w Polsce był on ważnym trybikiem, a może wręcz fundamentem stabilnego rozwoju gospodarczego. Do dzisiaj zachowały się nieliczne zabytkowe wiatraki, wśród których wyróżnić można trzy typy takich urządzeń.

Najbardziej prymitywny, choć najpopularniejszy, był wiatrak kozłowy, nazywany koźlakiem. Pierwsze tego typu wiatraki pojawiły się w Wielkopolsce i na Kujawach dopiero w XIV w. Wkrótce okazało się, że topografia naszego kraju idealnie nadaje się do zastosowania tego typu mechanizmów. W ciągu roku występuje bowiem u nas od 120 do 150 dni wietrznych. Szacuje się zatem, że jeden koźlak mógł w tym czasie zemleć od 60 do 90 ton ziarna. O wiele solidniejszym od koźlaka wiatrakiem był paltrak. Dzięki zastosowaniu wpuszczonych do ziemi, wzmocnionych żeliwem zagłębień fundamentu, wiatrak znacznie łatwiej obracał się wraz z całym mechanizmem w kierunku wiatru.

W XVII w. holenderski konstruktor Jan A. Leeghwater stworzył wiatrak z nieruchomym, murowanym i okrągłym korpusem. Konstrukcja dachowa wraz ze śmigłami była obracana na potężnym łożysku. Urządzenie to zyskało nazwę wiatraka holenderskiego lub holendra, chociaż tak naprawdę w 1750 r. udoskonalił go szkocki inżynier Andrew Meikle. W jego młynie wiatrowym znajdziemy tzw. żagle sprężynowe (ang. spring sails), wstawione w miejsce skrzydeł z płótna żaglowego. Ramiona miały kształt migawek, których ruch był kontrolowany za pomocą specjalnych dźwigni. Służyło to do chronienia skrzydeł młynu przed gwałtownymi wiatrami i burzami.

Współczesne farmy wiatrowe, wytwarzające energię elektryczną za pomocą turbin powietrznych, niewiele się zmieniły w swojej pierwotnej konstrukcji od wynalazku chińskiego sprzed 1300 lat. Nadal konstrukcja wiatraka opiera się na tej samej zasadzie, choć nie służy już do mielenia ziaren czy wyciskania oleju z pestek roślin. Mimo że stosujemy nowoczesne materiały, przeznaczenie wiatraków nadal jest podobne. Farmy wiatrowe wytwarzają energię elektryczną, która zasila nowoczesne młyny, wyciskarki oleju, urządzenia mielące drewno czy zasilające zakłady włókiennicze. W Holandii niezmiennie wiatraki służą do zasilania pomp usuwających nadmiar wody z kanałów do morza. Chociaż zarówno rodzaj energii zasilającej pompy, ich budowa, jak i sam proces technologiczny są nieporównywalnie nowocześniejsze i wydajniejsze niż wieki temu, to sama koncepcja technologiczna nie zmieniła się od 400 lat.

Silnik spalinowy ma już 300 lat. Czas go zmienić!

Innym przykładem trwałości pomysłów stworzonych przez naszych przodków jest koncepcja silnika spalinowego, który powinniśmy wreszcie zamienić na silniki pracujące na bazie energii odnawialnej. Bardzo dużo się teraz mówi o konieczności wprowadzenia przyjaznych środowisku naturalnemu środków transportu napędzanych silnikiem elektrycznym, ale niewielu producentów pali się do szybkiej zmiany linii produkcyjnych.

Trudno się dziwić, skoro silnik spalinowy okazał się w ciągu ostatnich 130 lat tak dochodową koncepcją.

Protoplastą silnika spalinowego był parowy silnik tłokowy skonstruowany w 1763 r. przez szkockiego inżyniera Jamesa Watta. Była to udoskonalona wersja atmosferycznego silnika parowego angielskiego kowala Thomasa Newcomena. Ten stosunkowo prosty mechanizm wytwarzający parę wodną poruszającą pod niskim ciśnieniem tłoki stał się krokiem milowym prowadzącym do wybuchu rewolucji przemysłowej zmieniającej nasz świat. Stąd też Newcomena nie bez kozery nazywa się często ojcem chrzestnym epoki przemysłowej.

Przez blisko trzy stulecia mechanika przeszła ogromną drogę rozwoju – od konstrukcji parowego silnika atmosferycznego do współczesnych silników rakietowych. Jednak nadal koncepcja działania jest ta sama: aby w wyniku sprężania i rozprężania substancji gazowych wytworzyć moment pędu obrotowego.

W 1801 r. francuski wynalazca Philippe Lebon zaprezentował termolampę wytwarzającą światło w wyniku spalania gazu pozyskanego z drewna. Pomysł nie przyjął się ze względu na wytwarzane spaliny. Lebon się jednak nie poddał i opracował konstrukcję silnika napędzanego przez gaz spalany w mieszance z powietrzem. Zapłon następował za pomocą iskry. Ale i ten pomysł nie spodobał się jego recenzentom. Dlatego jego silnik spalinowy musiał poczekać aż 59 lat, zanim zainteresował się nim inny Francuz – inżynier Jean-Joseph Étienne Lenoir, który skonstruował dwusuwowy silnik spalinowy wykorzystujący spalanie gazu miejskiego. 24 stycznia 1860 r. wynalazca otrzymał certyfikat patentowy nr 43624. Lenoir umieścił swój silnik w starym wozie konnym, a koła połączył z silnikiem za pomocą łańcucha. Ten pierwszy w dziejach samochód przejechał trasę z Paryża do Joinville-le-Pont, rozpoczynając tym samym burzliwą erę motoryzacji.

Dziesięć lat później, w roku 1870, austriacki mechanik Siegfried Marcus przedstawił wózek ręczny napędzany pierwszym w historii silnikiem benzynowym. Jednak na pierwszą taśmową produkcję samochodów ludzkość musiała poczekać jeszcze 15 lat, do czasu kiedy w 1885 r. niemiecki konstruktor Carl Benz zbudował swój trzykołowy automobil.

W tym samym okresie nad podobnymi pojazdami pracowali dwaj inni Niemcy, których nazwiska zostały upamiętnione w nazwach jednych z najlepszych samochodów świata: August Wilhelm Maybach i Gottlieb Wilhelm Däumler, którego nazwisko zostało później zmienione na Daimler. Nigdy nie dojdziemy, komu należy się tytuł twórcy silnika o spalaniu wewnętrznym. Pewne jest natomiast, że jeszcze przez wiele lat doskonalona będzie koncepcja zapoczątkowana przez panów Benza, Maybacha i Daimlera.

Być może silnik elektryczny okaże się godnym następcą wynalazku XVIII- i XIX-wiecznych geniuszy, ale zasada jego działania pozostanie taka sama: niezależnie, czy jest to proces spalania paliwa, czy przetwarzanie energii elektrycznej, będzie ona musiała zostać zamieniona w energię mechaniczną poruszającą tłoki silnika, tak jak życzył tego sobie w 1860 r. Étienne Lenoir.

Zmiana będzie jednak miała ogromne znaczenie dla środowiska naturalnego naszej planety. Szacuje się, że transport odpowiada za 19,2 procent światowej emisji dwutlenku węgla. Dzięki właściwemu wdrożeniu różnorodnych działań zapobiegawczych można znacząco ograniczyć wpływ transportu na zmiany klimatyczne. Jednym z ciekawych rozwiązań wydaje się opracowywany przez amerykańską firmę Cummins silnik na gaz ziemny o zapłonie iskrowym i unikalnym układzie cylindrów zapewniającym niezbędne chłodzenie.

Ciekawą propozycją jest też zastosowanie silnika na eter dimetylowy – bezbarwny gaz rozpuszczalny w cieczach. Taki projekt opracował Andre Boehman, profesor inżynierii mechanicznej i dyrektor W.E. Lay Automotive Laboratory. Takie paliwo może być użyte w silnikach wysokoprężnych oraz turbinach gazowych.

Ten poczciwy emeryt tranzystor

Ale jak w czasach rewolucji informatycznej poradzić sobie z zanieczyszczającym środowisko i przyczyniającym się do globalnego ocieplenia przemysłem elektronicznym? W końcu elektronice powierzyliśmy odpowiedzialność za większość obszarów naszego życia.

Musimy pamiętać, że sukces rewolucji komputerowej opiera się na kilku ważnych zasadach fizyki. Nasze komputery dokonują obliczeń z szybkością zbliżoną do szybkości światła, a to – jak podkreślał Albert Einstein – prędkość graniczna we wszechświecie. Michio Kaku, wybitny amerykański fizyk, podkreśla, że u podstaw rewolucji komputerowej leżą trzy czynniki. Po pierwsze, kombinacja swobody elektronów i ich olbrzymia szybkość pozwalają nam przesyłać sygnały elektryczne w zawrotnym tempie, co wykreowało rewolucję elektryczną w poprzednim stuleciu; po drugie, nie ma ograniczeń w ilości informacji, jaką można zmieścić w wiązce lasera; po trzecie, siłą napędową rewolucji komputerowej była miniaturyzacja tranzystorów.

Pierwszy czynnik jest wynikiem badań rozpoczętych przez angielskiego lekarza Williama Gilberta, który odkrył, że wiele materiałów w przyrodzie można naładować elektrycznie. I to on od greckiej nazwy bursztynu (elektron) nazwał tę dziedzinę fizyki elektryką. Innym krokiem milowym było odkrycie fal elektromagnetycznych przez Rudolfa Hertza w 1888 r. oraz odkrycie dziewięć lat później elektronu przez Josepha Thomsona.

Także laser nie jest wcale najnowszą nowinką techniczną. Istnieje od 1952 r. Co prawda urządzenie wymuszające wzmocnienie mikrofali ze względu na zastosowanie amoniaku nazwano maserem, ale zasada działania była podobna do lasera rubinowego uruchomionego pierwszy raz 16 maja 1960 r. przez amerykańskiego astrofizyka Theodore’a Maimana.

Najważniejszym czynnikiem popychającym rozwój rewolucji informatycznej jest jednak chip komputerowy, który zawiera setki, tysiące, a nawet miliony tranzystorów ułożonych na maleńkiej krzemowej płytce. Chip stał się symbolem naszych czasów – epoki elektroniki i informatyki – ale przecież jest urządzeniem starszym od wielu naszych dziadków. Już w 1926 r. powstała lampa próżniowa Loewe 3NF, która była prekursorem układu scalonego. Oprócz trzech triod zawierała dwa kondensatory i cztery rezystory, dzięki czemu całość tego układu mogła posłużyć jako jednoobwodowy radioodbiornik reakcyjny.

Koncepcja bardziej znanego nam dzisiaj układu scalonego zrodziła się w genialnym umyśle angielskiego naukowca Geoffreya Dummera. Nie zbudował on co prawda pracującego układu, ale zaszczepił pomysł, który znakomicie rozwinęli w 1958 r. dwaj amerykańscy inżynierowie: Robert Noyce z Fairchild Semiconductor i Jack Kilby z Texas Instruments. Niezależnie od siebie zbudowali działające dwa modele układów scalonych. Nie wiemy do końca, który z tych panów naprawdę pierwszy opracował swój układ. Historia uznała jednak, że był nim Kilby, który zademonstrował swój wynalazek 12 września 1958 r., czyli na pół roku przed Noyce’em. W dowód uznania za ten czyn w 2000 r. Jack Kilby otrzymał za pierwszy w historii działający układ scalony Nagrodę Nobla z fizyki.

Miniaturyzujmy elektronikę do oporu

Komputery zmieniają nasz świat i sposób życia, ale także poważnie przyczyniają się do zmian środowiskowych. Wszystkie elementy chłodnicze znajdujące się w komputerach są bezpośrednimi źródłami gazów cieplarnianych. Od 2014 do 2020 roku emisja gazów cieplarnianych z urządzeń elektronicznych i ich odpadów wzrosła o 53 proc. Szacuje się, że do 2030 r. z elektroodpadów będą emitowane 852 tony metrycznych związków dwutlenku węgla.

Nieustanny postęp technologiczny powoduje także mnożenie się szczególnie niebezpiecznych e-odpadów. Sam ich transport ma dramatyczny wpływ na zmiany klimatyczne. Jedynym ratunkiem jest radykalna miniaturyzacja komponentów elektronicznych.

A już dzisiaj chipy, które znajdują się w naszych laptopach, można zobaczyć jedynie pod mikroskopem. Czy taka miniaturyzacja jest procesem nieskończonym i bezpiecznym dla środowiska? Na obydwa pytania odpowiedź brzmi: niestety, nie. Wzrost mocy chipów jest zależny od regulacji długości światła ultrafioletowego. Im staje się ona krótsza, tym w płytce krzemowej można zastosować mniejsze tranzystory. Długość fali światła UV wynosi zaledwie kilka nanometrów, co oznacza, że najmniejszy tranzystor, jaki uda się stworzyć, będzie mieć średnicę ok. 30 atomów.

Emisja dwutlenku węgla z urządzeń elektronicznych i ich odpadów tylko w latach 2014–2020 urosła o 53

Emisja dwutlenku węgla z urządzeń elektronicznych i ich odpadów tylko w latach 2014–2020 urosła o 53 proc.

Foto: AdobeStock

Wspomniany amerykański fizyk Michio Kaku uważa jednak, że „atomizacja” mikroprpcesorów znacząco wpłynie na ograniczenie wydobycia rud metali rzadkich i szlachetnych, a tym samym przyczyni się znacząco do ograniczenia śladu węglowego.

Kaku uważa, że ludzkość musi wkrótce przejść z epoki krzemowej w epokę postkrzemową. „Tranzystory będą tak małe, że odgrywać zacznie rolę teoria kwantowa i fizyka atomowa – podkreśla prof. Kaku – a elektrony wyciekną poza obwody. Najcieńsza warstwa w komputerze będzie miała grubość pięciu atomów. W takiej sytuacji zgodnie z prawami fizyki zacznie decydować teoria kwantowa”.

O przyszłości rozwoju naszej cywilizacji decydować będzie zatem teoria, której historia rozpoczęła się 120 lat temu, kiedy wielki niemiecki uczony Max Planck, obalając teorię Maxwella, odkrył, że energie fal elektromagnetycznych emitowanych przez ciała są skwantowane, czyli skokowe. Późniejsze odkrycia Alberta Einsteina, Nielsa Bohra, Louisa de Broglie’a, Wernera Heisenberga, Erwina Schrödingera, Paula Diraca i innych wielkich naukowców wprowadziły nasze myślenie w zupełnie inny wymiar poznawczy – mechaniki kwantowej, w której wszelka nasza dotychczasowa logika całkowicie się załamuje.

Pobierz cały dodatek specjalny Walka o klimat: Zielona konkurencyjność

Foto: Gremi Media

Kto ponosi główną winę za bardzo groźne zmiany klimatyczne na naszej planecie? Przede wszystkim należy wskazać na trzy gałęzie gospodarki: transport, wytwarzanie elektryczności i ciepła (w tym cały proces ogrzewania domów) oraz przemysł, do którego zalicza się przede wszystkim produkcję hutniczą, przemysł chemiczny i petrochemiczny oraz procesy wydobywcze w kopalniach.

Ale nie tylko na tych obszarach powinna się skupiać nasza strategia do walki z globalnym ociepleniem. Do głównych źródeł produkcji gazów cieplarnianych należy bowiem zaliczyć rolnictwo, a konkretnie szeroko pojęty przemysł mięsny. Jest to wbrew wszelkim pozorom branża równie groźna dla środowiska co przemysł ciężki i transport razem wzięte.

Pozostało 96% artykułu
Klimat
Bezczynność konkurencyjności szkodzi
Klimat
Katastrofalne rekordy najwyraźniej nam powszednieją
Klimat
Ratując klimat, Unia Europejska chce zadbać o przemysł
Klimat
Rynki pod specjalnym nadzorem unijnych regulatorów
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Materiał Promocyjny
Bank Pekao SA z ofertą EKO kredytu mieszkaniowego