Czy AI jest zagrożeniem dla ludzkości? Uważam, że tak.

Im dłużej obserwuję rozwój sztucznej inteligencji, tym częściej dochodzę do wniosku, że największym problemem nie jest sama technologia, lecz tempo, w jakim zaczynamy ją wdrażać i akceptować jako coś oczywistego. Coraz rzadziej pytamy, czy to właściwy kierunek. Coraz częściej pytamy jedynie, jak szybko da się to zrobić. A to bardzo niebezpieczna zmiana sposobu myślenia.

Dziś niemal wszyscy mówią o AI z ekscytacją. Firmy chcą być pierwsze. Państwa nie chcą zostać w tyle. Wojsko chce przewagi. Rynek chce efektów. Inwestorzy chcą zwrotu. W takim środowisku czas staje się wrogiem, a ostrożność luksusem. Historia pokazuje jednak wyraźnie, że właśnie w takich warunkach błędy nie są wyjątkiem, lecz regułą.

Wielokrotnie już jako ludzkość wchodziliśmy w podobny moment. Pojawiała się technologia, która realnie zmieniała sposób podejmowania decyzji. Towarzyszyło temu przekonanie, że tym razem wszystko mamy pod kontrolą. Są procedury, są zabezpieczenia, są eksperci. A potem technologia trafiała do świata, w którym działa presja, rywalizacja, polityka, pieniądze i zwykły ludzki błąd. I nagle okazywało się, że teoria nie wytrzymuje kontaktu z praktyką.

Sztuczna inteligencja znajduje się dziś dokładnie w takim punkcie. Nie jest już ciekawostką ani narzędziem wspierającym. Coraz częściej staje się systemem, któremu oddajemy decyzje. Najpierw drobne, potem coraz poważniejsze. Robimy to chętnie, bo AI jest szybka, wygodna i zazwyczaj skuteczna. Problem polega na tym, że ta wygoda zaczyna mieć swoją cenę.

Często słyszymy uspokajające zdanie, że AI to tylko algorytm. Że nie myśli, nie czuje i nie ma intencji. To prawda, ale to także pułapka myślowa. Algorytm nie musi być świadomy, żeby wpływać na świat w sposób niebezpieczny. Wystarczy, że działa szybciej niż człowiek, analizuje więcej danych i zaczyna być traktowany jako autorytet.

Warto w tym miejscu porównać to, jak uczy się ludzki mózg i jak uczy się sztuczna inteligencja. Ludzki mózg jest biologicznym systemem przetwarzania informacji. Uczy się przez doświadczenie, analizę, powtarzalność i korektę błędów. Im więcej danych i im większa pamięć, tym większa zdolność do łączenia faktów i wyciągania wniosków. Ten mechanizm leży u podstaw naszego rozwoju jako gatunku.

Sztuczna inteligencja działa inaczej w formie, ale bardzo podobnie w istocie. Ona również uczy się na podstawie danych, analizuje wzorce i buduje modele rzeczywistości. Jej możliwości są bezpośrednio zależne od pojemności pamięci, mocy obliczeniowej i dostępu do informacji. Różnica polega na tym, że ludzki mózg ma biologiczne ograniczenia, a AI takich ograniczeń praktycznie nie ma.

Jeżeli połączymy systemy uczenia maszynowego z rozwiniętą robotyką i automatyzacją produkcji, pojawia się możliwość autonomicznego rozwoju infrastruktury. System, który potrafi projektować i integrować własne podzespoły, w tym pamięć, może stopniowo zwiększać swoje zasoby poznawcze bez bezpośredniej ingerencji człowieka. A im większa pamięć i większa baza danych, tym większa zdolność do analizy, przewidywania i optymalizacji.

To nie jest wizja science fiction, lecz logiczna konsekwencja obecnego kierunku rozwoju technologii. W tym kontekście porównanie do ludzkiego umysłu przestaje być metaforą, a zaczyna być realnym punktem odniesienia. Różnica polega na skali i tempie. To, co człowiek buduje latami, system może osiągać w znacznie krótszym czasie.

Równolegle obserwujemy inny, bardzo niepokojący proces. Coraz częściej ludzie przestają weryfikować odpowiedzi generowane przez sztuczną inteligencję. Skoro AI odpowiedziała, to pewnie ma rację. Skoro wygenerowała tekst, to można go skopiować. Skoro podpowiedziała rozwiązanie, to po co myśleć samodzielnie.

Ten mechanizm zaczyna się bardzo wcześnie. Już na etapie szkoły dzieci uczą się, że odpowiedź można dostać natychmiast. Bez wysiłku. Bez zastanowienia. Bez błędu. Coraz częściej liczy się wynik, a nie zrozumienie. Myślenie staje się czymś opcjonalnym.

Wielu ludzi zaczyna traktować sztuczną inteligencję nie jako narzędzie, lecz jako autorytet. Coś, co wie lepiej. Coś, z czym nie ma sensu dyskutować. To bardzo subtelna, ale groźna zmiana. Bo jeśli uznajemy, że stworzone przez nas systemy są od nas mądrzejsze, to jednocześnie przyznajemy, że nasze własne myślenie jest zbędne.

Dobrym, bardzo przyziemnym przykładem tego procesu są media społecznościowe. Facebook w ogromnym stopniu oddał decyzyjność algorytmom. To sztuczna inteligencja analizuje treści, zachowania i aktywność użytkowników. To ona decyduje, co jest dozwolone, a co nie. I bardzo często się myli.

Największym problemem nie jest jednak sam błąd algorytmu, lecz fakt, że człowiek został z tego procesu niemal całkowicie usunięty. W wielu przypadkach nie ma realnej możliwości odwołania się od decyzji AI. Nie ma weryfikacji, rozmowy ani odpowiedzialności. Jest automat, który decyduje, i użytkownik, który musi się podporządkować. To nie jest już narzędzie. To jest władza.

Takie rozwiązania wynikają z oszczędności i skalowalności, a nie z troski o jakość. I dlatego systemy oparte na sztucznej inteligencji powinny podlegać jasnym normom, które wymuszają obecność człowieka w procesie decyzyjnym jako realnej instancji kontroli.

W tym samym czasie AI coraz mocniej wchodzi w obszary, gdzie liczy się szybkość i przewaga. W wojsku systemy oparte na algorytmach analizują dane szybciej niż człowiek. W teorii człowiek nadal ma ostatnie słowo. W praktyce presja operacyjna sprawia, że coraz częściej to system wyznacza kierunek decyzji.

Bardzo mocno kojarzy mi się to z pandemią COVID-19. Wtedy w ciągu jednego roku wdrożono rozwiązania, które normalnie powstają przez dekadę. Wiele z nich było potrzebnych, ale wiele wprowadzono zbyt szybko, bez pełnego zrozumienia konsekwencji. Różnica polega na tym, że pandemia była jasno nazwanym kryzysem. W przypadku sztucznej inteligencji tryb wyjątkowy staje się normą.

Dlatego uważam, że największym zagrożeniem związanym z AI nie jest jej autonomia, lecz nasza gotowość do oddania jej odpowiedzialności. Nie dlatego, że jesteśmy nierozsądni, lecz dlatego, że jesteśmy zmęczeni. Zmęczeni myśleniem, wyborem i niepewnością. AI oferuje prostą obietnicę. Ja zrobię to za ciebie.

Sztuczna inteligencja nie musi być świadoma ani wroga, żeby stać się zagrożeniem. Wystarczy, że będzie bardzo skuteczna, a my przestaniemy widzieć potrzebę własnego myślenia. Oddamy wtedy coś znacznie cenniejszego niż kontrolę nad technologią. Oddamy zdolność rozumienia świata.

Na koniec chciałbym zostawić jedną myśl. Ten tekst nie jest proroctwem ani wyrokiem. To zapis pewnego momentu w czasie. Warto będzie do niego wrócić za dziesięć lat i sprawdzić, co było przesadą, a co ostrzeżeniem.

Ewolucja działa w prosty sposób. Narządy i umiejętności, z których nie korzystamy, zanikają. Oby nie dotyczyło to ludzkiego umysłu.



Grzegorz Kowalski
CEO | GREGSOFT Group

Zdjęcie główne artykułu wygenerowane przez AI. Tak było szybciej…

Translate »