Sztuczna inteligencja i postęp naukowo-techniczny
Wraz z postępem technologicznym i coraz szerszym zastosowaniem sztucznej inteligencji (AI), nasza zdolność do automatyzacji procesów i poprawy efektywności komunikacji stale rośnie. Jednym z najbardziej widocznych przejawów tego rozwoju są chatboty AI, które stają się coraz popularniejsze w różnych dziedzinach życia, od obsługi klienta po dostarczanie informacji i prowadzenie rozmów towarzyskich. Model językowy, bazujący na zaawansowanych technikach sztucznej inteligencji, zwłaszcza architekturze Transformer, to potężne narzędzie przetwarzania tekstu. Dzięki metodzie znanej jako Word Embeddings, na przykład za pomocą technologii Word2Vec lub GloVe, tekst jest zamieniany na liczbowe reprezentacje, czyli wektory, które odzwierciedlają jego znaczenie w przestrzeni cech. Ten proces, zwany embeddingiem, umożliwia modelowi rozumienie semantycznych związków między słowami, co jest kluczowe w analizie tekstu. Jednakże, w miarę jak korzystamy z tych nowoczesnych technologii, warto zwrócić uwagę na ich wpływ na środowisko naturalne i klimat, gdyż przetwarzanie tekstów za pomocą tych zaawansowanych modeli wymaga dużych zasobów obliczeniowych i jest związane z wysokim zużyciem energii.
Wpływ AI na klimat
Należy zauważyć, że zarówno szkolenie modeli językowych AI, jak i działanie centrów danych, które są niezbędne do ich funkcjonowania, wymagają ogromnych ilości energii elektrycznej oraz zasobów wodnych. Czynniki takie jak złożoność algorytmów, ciągła aktywność, integracja z dużymi systemami oraz potrzeba przechowywania dużych ilości danych mogą przyczyniać się do zwiększonego zużycia zasobów energetycznych. Chatboty AI, podobnie jak inne aplikacje oparte na sztucznej inteligencji, mogą zużywać znaczną ilość energii, zwłaszcza jeśli działają na dużą skalę lub korzystają z zaawansowanych modeli językowych. Niektóre z chatbotów, które mogą zużywać duże ilości energii, to te, które obsługują duże ruchy użytkowników lub są zintegrowane z systemami, które wymagają ciągłego przetwarzania danych, takie jak chatboty obsługujące obszary usługowe, komunikatory czy platformy społecznościowe. Dodatkowo, chatboty, które korzystają z zaawansowanych technologii, takich jak głębokie uczenie maszynowe, mogą również wymagać więcej zasobów obliczeniowych, co przekłada się na większe zużycie energii.
Z jednej strony, pomaga nam poprawić procesy i wydajność energetyczną, co prowadzi do oszczędności energii i redukcji emisji dwutlenku węgla. Na przykład, AI może zarządzać sieciami energetycznymi, przewidywać zapotrzebowanie na energię oraz wykorzystywać odnawialne źródła energii. Z drugiej strony, szkolenie dużych modeli do genreacji tekstu , takich jak GPT-4 czy GPT-5, wymaga dużych ilości energii elektrycznej i zasobów obliczeniowych, co zwiększa nasz wpływ na środowisko. Na przykład, szkolenie modelu GPT-3 pochłonęło 1287 MWh energii i wytworzyło ponad 550 ton ekwiwalentu dwutlenku węgla. Centra danych, będące głównym elementem AI, zużywają dużo wody do chłodzenia serwerów. „The Guardian” przewiduje, że do 2030 roku szkolenie modeli AI może stanowić nawet 3,5% globalnego zużycia energii elektrycznej.
Chociaż te aplikacje mogą wydawać się niewinne, ich powszechne wykorzystanie przyczynia się do zwiększenia zapotrzebowania na zasoby obliczeniowe i energię, co może przekładać się na większe zużycie wody i emisję gazów cieplarnianych. Dlatego ważne jest, aby rozwój i wykorzystanie chatbotów AI również odbywało się w sposób zrównoważony, z uwzględnieniem ich wpływu na środowisko i klimat.
Rozmowa z botem opartym na sztucznej inteligencji przyczynia się do zużycia znacznych ilości wody. Badania sugerują, że za każdym razem, gdy korzystamy z AI, nawet na pozór niewielkie ilości wody są zużywane na chłodzenie serwerów i utrzymanie infrastruktury. W związku z tym, rozwój AI i jej wykorzystanie wymaga także uwzględnienia środowiskowych konsekwencji, w tym zużycia wody, co staje się coraz ważniejszym aspektem w dyskusji nad zrównoważonym rozwojem technologii. Przyjęło się, że podczas konwersacji z modelem AI może zostać wykorzystanych nawet 500 ml wody, przy zadawaniu od 25 do 50 pytań. Szacuje się, że proces szkolenia modelu GPT-3,5 w centrach danych Microsoft w USA łącznie zużywa 5,4 miliona litrów wody, z czego 700 000 litrów jest wykorzystywane do chłodzenia serwerów na miejscu. Przewidywane zużycie wody dla chatbota GPT-4 oscyluje od 3,5 do 5 milionów litrów, a dla GPT-5 może osiągnąć poziom do 10 milionów litrów, co stanowi jedynie część na sam proces uczenia się na podstawie informacji i uzyskanych danych.
Wiele centrów danych, w których przechowywane są te modele językowe, wymaga systemów chłodzenia, które zużywają ogromne ilości wody. Dlatego też, w kontekście długoterminowej zrównoważonej strategii, konieczne jest rozważenie alternatywnych rozwiązań chłodzenia, które będą mniej obciążające dla środowiska wodnego. Dążenie do wykorzystania bardziej przyjaznych dla środowiska technologii i infrastruktury może również pomóc w ograniczeniu negatywnego wpływu chatbotów na zużycie energii.
Chatboty wykorzystujące zaawansowane algorytmy, takie jak sieci neuronowe lub głębokie uczenie maszynowe, mogą wymagać większej mocy obliczeniowej, co prowadzi do zwiększonego zużycia energii. Niektóre chatboty działają w trybie ciągłym, 24 godziny na dobę, 7 dni w tygodniu, co może prowadzić do stałego zużycia energii, nawet jeśli nie są aktywnie wykorzystywane przez użytkowników. Dodatkowo, produkcja półprzewodników, niezbędnych do działania AI, również zużywa ogromne ilości wody. Google w 2022 roku zużył 21,2 miliarda litrów wody. Dlatego ważne jest, aby rozwój i wykorzystanie AI odbywały się w sposób zrównoważony, z myślą o ochronie środowiska.
Inwestycje w zieloną energię oraz rozwój ekologicznych technologii w AI
Firmy i instytucje badawcze podejmują wysiłki w celu zmniejszenia negatywnego wpływu AI na środowisko, poprzez poprawę wydajności energetycznej modeli i infrastruktury obliczeniowej, oraz inwestycje w zieloną energię. Dążenie do wykorzystania bardziej przyjaznych dla środowiska technologii i infrastruktury może również pomóc w ograniczeniu negatywnego wpływu chatbotów na zużycie energii.
W związku z tym, aby zmniejszyć wpływ chatbotów na środowisko, istotne jest projektowanie ich w sposób efektywny pod względem energetycznym oraz unikanie nadmiernego zużycia zasobów obliczeniowych. Dodatkowo, rozwój i wykorzystanie AI powinno odbywać się z myślą o ochronie środowiska, poprzez inwestycje w zieloną energię oraz rozwój ekologicznych technologii. Czy należy zaprogramować sztuczną inteligencję, aby rozwiązać ten problem?