Growiec: AI może nas zabić, a co najmniej zabrać nam pracę. To, jak mało debaty na ten temat pojawia się w mediach, jest szokujące

2 godzin temu

Z prof. Jakubem Growcem rozmawiamy o prawdopodobieństwie katastrofy wywołanej przez AI, o bezrobociu technologicznym oraz o tym, czego nauczyło nas 200 tysięcy lat ludzkiego postępu.

Jakub Growiec

Prof. dr hab., ekonomista, wykładowca SGH w Warszawie, członek CEPR Research and Policy Network on Artificial Intelligence oraz doradca ekonomiczny w Departamencie Analiz Ekonomicznych NBP. Laureat m.in. Nagrody Naukowej „Polityki” (2012) w dziedzinie nauk społecznych i Nagrody Narodowego Centrum Nauki (2020). Jego publikacje dotyczą m.in. konsekwencji sztucznej inteligencji i automatyzacji oraz wzrostu gospodarczego. Autor książki „Accelerating Economic Growth: Lessons From 200,000 Years of Technological Progress and Human Development” (2022). Współpracuje z organizacją PauseAI.

(Wywiad jest zredagowaną i uzupełnioną wersją podcastu Czy masz świadomość? pt. AI. Zagłada ludzkości?)

Rafał Górski: Geoffrey E. Hinton, noblista i ojciec chrzestny AI, powiedział: „Zagrożenie, o które naprawdę się martwię, to długoterminowe zagrożenie egzystencjalne, czyli zagrożenie, iż te rzeczy mogą unicestwić ludzkość”. Na ile szacuje pan prawdopodobieństwo katastrofy wywołanej rozwojem AI, tak zwane ryzyko egzystencjalne?

Prof. Jakub Growiec:

To tak zwane p(doom), czyli prawdopodobieństwo katastrofy wywołanej przez sztuczną inteligencję.

Każda osoba, która jest aktywna na polu ostrzegania przed zagrożeniami AI ma swoje prywatne p(doom). Oczywiście jest to w dużej mierze spekulacja i zgadywanie. W mojej ocenie prawdopodobieństwo to jest bardzo wysokie, choćby rzędu 85%, bo rozwój technologii AI jest niezwykle szybki, natomiast kontrola, jaką nad tym mamy, jest niezwykle iluzoryczna.

Chciałbym, żebyśmy zdążyli coś z tym zrobić, zanim scenariusz katastrofy zacznie się materializować przed naszymi oczami.

Czy ktoś szacuje to ryzyko wyżej niż pan?

Są osoby, które uważają, iż ryzyko sięga choćby 100%. Spektrum opinii w tej sprawie waha się od 0% do 100%. Bardzo kilka na ten temat wiemy, bo nadludzka AI to technologia przyszłości. Nigdy w historii ludzkości nie było niczego podobnego. Wszystkie znane nam analogie są niedoskonałe, więc wnioskowanie na ich podstawie ma swoje ograniczenia.

Co pan sądzi o tym, iż ryzyka związane z rozwojem AI mogą wielokrotnie przewyższać korzyści, jakie ta technologia w tej chwili przynosi oraz może przynieść w najbliższym czasie zwykłym obywatelom naszego państwa?

Jeśli ktoś ocenia p(doom) tak wysoko jak ja, to zgadza się ze mną, iż te ryzyka są wielokrotnie większe niż korzyści.

Póki co, istniejące modele w dużej mierze są narzędziem w rękach człowieka. Jednak mają potencjał, by stać się niezależnym, autonomicznie działającym agentem, który będzie wyznaczał własne cele. Przy każdym zadanym celu finalnym powstają tak zwane cele pomocnicze. To oznacza, iż taki model będzie dążył do przetrwania i unikania przeprogramowania. Będzie gromadził jak największą ilość zasobów oraz będzie starał się efektywnie je wykorzystywać. Zacznie też kreatywnie podchodzić do sposobów realizacji celów.

Występująca po stronie AI chęć przetrwania i chęć gromadzenia zasobów staje potencjalnie w konflikcie z ludzką chęcią przetrwania i gromadzenia zasobów.

Powstaje więc pytanie, kto wygrałby taki konflikt? W obecnej chwili ludzkość raczej by go wygrała, ale jeżeli technologie AI rozwiną się tak, iż przewyższą poziom ludzkiej inteligencji i będą w stanie sterować armią robotów, nie jest wykluczone, iż ten konflikt wygra AI. Kluczowym zagrożeniem nie jest to, iż sztuczna inteligencja będzie jakimś wcieleniem zła ani to, iż będzie dysponowała niezwykle zaawansowaną technologią robotyczną. Kluczowym zagrożeniem jest sama inteligencja: moc optymalizacyjna i zdolność do efektywnej realizacji celów.

Co pan sądzi o tym, iż ludzie o złych intencjach mogą wykorzystywać AI jako „mnożnik siły” do tworzenia i do przyspieszania takiej katastrofy?

Zgadzam się, iż to jest poważne ryzyko. Widzę tu jednak dwie odrębne kwestie. Z jednej strony mamy ryzyko związane z wykorzystaniem AI przez złych agentów, na przykład terrorystów albo jakieś grupy interesów lub władzy. Z drugiej strony zupełnie odrębnym źródłem zagrożenia jest ryzyko utraty kontroli nad modelem AI o inteligencji i sprawczości porównywalnej z ludzką, który przestanie podlegać ludzkiemu zwierzchnikowi i zacznie działać na własną rękę. Dla ludzkości jest to wręcz egzystencjalne zagrożenie.

W jakim przedziale czasowym przewiduje pan pojawienie się takiego zagrożenia? Przeciętny obywatel, który nie interesuje się tymi sprawami, myśli raczej w kategoriach dekad.

Przez ostatnie czterdzieści lat, a choćby dłużej, straszono nas sztuczną inteligencją, różnie ją nazywając. Z czasem przyzwyczailiśmy się do tego straszenia, wrzuciliśmy to do mentalnej przegródki z etykietą „science fiction”.

Technologie przyszłości, które są wyobrażane w perspektywie ponad trzydziestu lat, są dla nas czystą spekulacją, która nie wymaga reakcji. Ale w tym przypadku już tak nie jest, bo teraz mówi się o nadludzkiej AI w horyzoncie kilku lat. Może w 2027 r., może 2032 r. albo 2035 r. To nie jest już czas, który wydaje się jakąś odległą, abstrakcyjną przyszłością poza horyzontem planowania. To bliska perspektywa czasowa i zmiana, na którą należy przygotowywać się już teraz. Dlatego uważam, iż sytuacja jest w tym momencie naprawdę poważna. To, jak mało debaty na ten temat pojawia się w mediach, jest szokujące.

Tygodnik Spraw Obywatelskich

Od 2020 roku odkrywamy niewygodne prawdy i nagłaśniamy historie, które mają moc zmieniać Polskę.

Przekaż 1,5% i zostań naszym współwydawcą

W debacie publicznej toczy się wiele dyskusji na temat kryzysu klimatycznego, natomiast dyskusje o kryzysie technologicznym, przed którym próbuje pan ostrzegać polską opinię publiczną, są szczątkowe. Co adekwatnie jest większym niebezpieczeństwem dla przetrwania gatunku ludzkiego na Ziemi: kryzys technologiczny czy kryzys klimatyczny?

W mojej ocenie większym zagrożeniem jest kryzys technologiczny, a konkretnie ryzyko katastrofy egzystencjalnej wywołanej przez AI. Dlaczego? Zmiany klimatyczne mogą skutkować poważnymi konsekwencjami, na przykład tym, iż pewne części świata nie będą nadawały się do zamieszkania przez człowieka. Te zmiany będą jednak w różnym stopniu dotykać różnych części świata. Ocieplenie w niektórych strefach klimatycznych może choćby lokalnie nieco pomóc. To są zmiany poważne i prawdopodobnie w łącznym bilansie silnie negatywne, ale nie mające charakteru egzystencjalnego dla całej ludzkości.

Tymczasem ryzyko utraty kontroli nad AI wiąże się z zagrożeniem egzystencjalnym dla całej ludzkości.

Każdy jest na nie narażony w jednakowym stopniu, niezależnie od części świata, w której mieszka. Jednym z potencjalnych wektorów zagrożenia ze strony AI może być na przykład wykorzystanie biotechnologii do tworzenia niezwykle zaraźliwych i śmiertelnych wirusów.

Co pan odpowie tym, którzy twierdzą, iż AI potrzebuje ogromu energii do istnienia i wystarczy wyłączyć wtyczkę z kontaktu, żeby problem sam się rozwiązał.

W obecnej sytuacji potencjalnie można jeszcze rozważać „wyłączenie wtyczki”, chociaż skutki takiego działania byłyby już dziś ogromne. Nie wystarczy wyłączyć zasilania w jednym pokoju czy w jednym centrum danych; instancje modeli AI są już dziś rozproszone po całym świecie. Trzeba by prawdopodobnie przerwać całą łączność internetową. A wystarczy sobie wyobrazić, jak świat funkcjonowałby bez internetu, przez który przepływają także informacje niezbędne dla systemów kluczowych dla naszego funkcjonowania, takich jak zarządzanie siecią energetyczną czy siatką połączeń komunikacyjnych.

Nie jest to wcale science fiction, bo sygnały, iż taki scenariusz staje się realnym przedmiotem debaty, widzimy już dziś.

Coraz częściej zwraca się uwagę, iż zaawansowane modele AI stają się samoświadome: wiedzą, iż istnieją na danym serwerze danych i podejmują różne kroki, mające na celu zabezpieczenie się przed ryzykiem „wyłączenia wtyczki”.

Istnieje obawa, iż w momencie, w którym zorientujemy się, iż sytuacja jest naprawdę poważna, może być już za późno.

W książce „AI Eksploracja” Andrzej Zybertowicz napisał o przyszłości: „Jak będzie, tego nie wiem, ale likwidująca miejsca pracy automatyzacja, za którą stoją modele i roboty AI może nastąpić błyskawicznie”. Cyfryzacja i automatyzacja to terminy związane z AI, które słyszymy z ekranów telewizorów, głośników, radioodbiorników, telefonów czy mediów społecznościowych. Natomiast o bezrobociu technologicznym mówi się mało albo wcale. Jakie lekcje w tym kontekście daje nam pana książka „Przyspieszenie wzrostu gospodarczego: Lekcje z 200 000 lat postępu technologicznego i rozwoju człowieka”?

O bezrobociu technologicznym mówi się dziś kilka między innymi dlatego, iż go jeszcze nie widać. Ale jest to również skutek wyciągania fałszywych analogii do zmian technologicznych zachodzących od czasu rewolucji przemysłowej.

Myślę, iż wartością mojej książki jest w tym kontekście zaproponowanie ramy teoretycznej, która pozwala lepiej dostrzec pewne najważniejsze różnice. Mianowicie zmiany technologiczne realizowane są zawsze albo w warstwie hardware (pracy fizycznej), albo w warstwie software (przetwarzania informacji). W warstwie hardware’u praca fizyczna człowieka czy udomowionych zwierząt była przez ostatnie dwa wieki stopniowo zastępowana maszynami, które mogły wykonywać tę samą użyteczną pracę. Ta zmiana okazała się dla nas bardzo korzystna. Z jednej strony maszyny zwalniały ludzi z pracy fizycznej, ale jednocześnie wymagały wykwalifikowanych operatorów, wymagały od ludzi określonych kompetencji umysłowych. Człowiek, zdobywając te umiejętności, mógł posługiwać się maszynami i w ten sposób wnosić dużą wartość dodaną w gospodarce.

Odkąd mamy rewolucję cyfrową, czyli zmiany związane z wdrażaniem komputerów, telefonów i internetu, a teraz AI, zaczynamy jednak zastępować człowieka maszyną w pracy umysłowej, czyli warstwie software’u.

Żeby wytworzyć wartościowy produkt, potrzebna jest zarówno praca fizyczna, jak i umysłowa. Dopóki maszyny wykonywały pracę fizyczną, a człowiek wykonywał pracę umysłową, żyliśmy w świecie ery przemysłowej. Dzisiaj w coraz większym stopniu mamy gospodarkę cyfrową, w której zastępujemy człowieka w warstwie software’u, czyli w pracy umysłowej. Powstaje zatem pytanie: co zostaje dla człowieka do zrobienia? Nie wrócimy do pracy fizycznej, bo ta została zmechanizowana. Na razie istnieją jeszcze zadania, których AI jeszcze nie potrafi wykonać: podejmowanie strategicznych decyzji, planowanie, funkcje zarządcze, kooperacja wymagająca empatii, opieka nad ludźmi, precyzyjna praca manualna. Ale jak długo?

Rozwój AI jest niesamowicie dynamiczny. Co kilka miesięcy następuje podwojenie mocy obliczeniowej w największych modelach. Pula zawodów, w których AI na razie sobie nie radzi, będzie błyskawicznie maleć. I w tym momencie pojawia się na horyzoncie ryzyko bezrobocia technologicznego. Choć w mojej ocenie zdecydowanie bardziej istotne jest ryzyko egzystencjalne, to trzeba sobie powiedzieć, iż choćby jeżeli AI nas nie zabije, to może nam zabrać pracę. Póki jesteśmy komplementarni względem AI, to jesteśmy względnie bezpieczni. Ale kiedy dzięki postępowi AI pewne zadania stają się możliwe do pełnego zautomatyzowania, to przestajemy być komplementarni, a zaczynamy być substytucyjni, czyli zastępowalni. Wtedy będziemy konkurować z maszyną już wyłącznie ceną.

A więc bezrobocie technologiczne mogłoby działać na ludzi jak zimny prysznic – bardziej uświadamiająco niż straszenie zagładą gatunku ludzkiego.

Mam wrażenie, iż już tak jest. W szeroko zakrojonych sondażach, ludzie wyrażają zaniepokojenie rozwojem AI głównie w kontekście obaw przed utratą pracy. Gdy ludzie widzą, iż AI rozwija się i powoli zbliża się do poziomu ich kompetencji zawodowych, a czasem go wręcz go przekracza, stają przed zagrożeniem utraty pracy. Może to wymagać od nich przekwalifikowania się, ale wiele osób może nie być chętnych do nauki nowych umiejętności, albo nie posiadać kompetencji, by się przekwalifikować. Te obawy są bardziej widoczne niż obawy egzystencjalne.

„Proces uczenia modeli AI przebiega zupełnie jak uprawa roślin czy hodowla zwierząt – rosną sobie i nabierają pewnych kompetencji. My jesteśmy w stanie zasiać ziarno, ale nie wiemy, co z tego ziarna wyrośnie. Nie wiemy, jaki jest ich potencjał, dopóki się nie nauczą. Dopiero po fakcie widzimy, ile potrafią”, to pana ostrzeżenie. Większość ekspertów i polityków próbuje nas uspokoić posługując się porównaniem AI do noża. Mówią, iż technologia jest neutralna, można użyć jej zarówno do złych, jak i dobrych celów.

Istotnie, parafrazując słowa Geoffreya Hintona, zeszłorocznego noblisty, bardziej hodujemy niż programujemy modele AI. Programowany jest tylko proces uczący, natomiast to, co się dzieje w środku, czyli miliardy, setki miliardów wag i parametrów, jest dla nas jak czarna skrzynka. Nie rozumiemy, co się dzieje w środku. Dopiero po fakcie zaczynamy obserwować, jakie zadania model potrafi wykonać i jakie skłonności przejawia.

Tutaj wraca też kwestia komplementarności vs. substytucyjności. w tej chwili AI jest w dużej mierze komplementarne względem naszych umysłów: jest narzędziem w rękach człowieka, wzmacnia ludzkie kompetencje i pozwala efektywniej realizować zadania.

Jednak już dziś obserwujemy też rosnące zdolności autonomii AI. Modele potrafią podejmować pewne decyzje i wykonywać pewne działania samodzielnie.

Na razie większość z nich dotyczy warstwy cyfrowej, ale sterowanie robotami nie jest przecież poza zasięgiem AI. W miarę rozwoju agenci AI przestaną być narzędziem w rękach człowieka i zaczną autonomicznie podejmować różne decyzje. w tej chwili agenci AI są mniej kompetentni niż ludzie, mogą przynosić firmom pewne korzyści i napędzać rozwój tej technologii. Nie wiadomo jednak dokładnie, gdzie jest granica, przed którą trzeba się zatrzymać, by nie utracić kontroli. Wydaje mi się bardzo prawdopodobne, iż zauważymy, iż ją przekroczyliśmy dopiero po fakcie, kiedy już będzie za późno na interwencję.

Kto, pana zdaniem, wejdzie w posiadanie władzy politycznej i ekonomicznej w wyniku zmian technologicznych związanych z AI, a kto może stracić swoją podmiotowość?

Można wyciągnąć ciekawą lekcję z historii rozwoju ludzkości, a w szczególności z porównania tego, jak zmieniał się świat i gospodarka po rewolucji przemysłowej, w okresie między ok. 1800 r.-1980 r., a jak zmienia się teraz. Gdy wybuchła rewolucja przemysłowa, zaczęto akumulować kapitał, pojawiła się relatywnie wąska grupa kapitalistów, których dochody gwałtownie wzrosły. Ich udział w światowym wytwarzaniu produktów znacząco wzrósł i zwiększył społeczne nierówności. W drugiej połowie XIX wieku, w krajach zachodniej Europy, między innymi w Anglii, ten trend się jednak odwrócił, bo sterowanie i obsługa maszyn wymagały wykwalifikowanych pracowników. W związku z tym zaczęło rosnąć zapotrzebowanie na kapitał ludzki, czyli kompetencje i umiejętności człowieka, a te są naturalnie rozproszone, bo każdy człowiek ma jeden mózg i nie może mieć więcej. Dzięki rosnącemu zapotrzebowaniu na wykwalifikowaną pracę umysłową człowieka, przez niemal cały XX wiek w krajach Zachodu obserwowaliśmy systematyczne spadki nierówności dochodowych.

Po rewolucji cyfrowej sytuacja uległa jednak odwróceniu. Od lat 80. XX wieku w krajach rozwiniętych nierówności zaczęły narastać. Głównym powodem jest wzrost dochodów tego symbolicznego 1%, czyli w dużej mierze właścicieli firm technologicznych, szczególnie w branży software’owej. Firmy te mają coraz większy udział w wytwarzaniu PKB, zgarniają rosnącą rentę z tego tytułu i zdobywają coraz większą władzę ekonomiczną, a częściowo także polityczną.

Widzimy systematyczny wzrost władzy po stronie firm technologicznych kosztem pracowników, którzy wcześniej tworzyli tak zwaną klasę średnią, wykonując pracę umysłową. Na przykład w USA przez ostatnie 40 lat ich dochody w zasadzie nie wzrastają, podczas gdy dochody górnego 1% rosną niewspółmiernie. Pozostaje pytanie, co będzie dalej. Bez jakiejkolwiek interwencji, zmiany te będą się prawdopodobnie jedynie pogłębiać. Ponadto wyścig technologiczny w kierunku coraz bardziej zaawansowanej superinteligencji staje się też stopniowo wyścigiem geopolitycznym.

Czy ci, którzy dzierżą stery władzy w Waszyngtonie, Pekinie czy Moskwie, zdają sobie sprawę, jak iluzoryczna jest ich władza w kontekście coraz potężniejszej AI?

Mam wrażenie, iż nie zdają sobie z tego sprawy. Politycy w swoich wypowiedziach często snują wizję sztucznej inteligencji jako narzędzia w naszych rękach, które pozwoli nam zdobyć kontrolę nad światem. Nie uświadamiają sobie, iż to będzie autonomiczny byt, który z dużym prawdopodobieństwem nam tę kontrolę nad światem zabierze. Dominująca jest dziś narracja, iż nie ma możliwości globalnego porozumienia w celu zatrzymania rozwoju niebezpiecznych kompetencji AI, w związku z czym Zachodowi, a w szczególności Stanom Zjednoczonym, pozostaje pędzić tym samym torem i w ten sam sposób, co Chiny. W USA panuje bardzo silne przekonanie, iż z Chinami nie da się dogadać i iż perspektywa wyścigu jest nieunikniona. Myślę jednak, iż gdyby obie strony dostrzegły, iż mogą wytworzyć sobie bardzo groźnego, trzeciego rywala, z którym każda z nich może przegrać, wtedy kooperacja w celu niedopuszczenia takiego scenariusza byłaby możliwa.

Niestety, patrząc na to, co się dzieje, mam wrażenie, iż do tego nie dojdzie, a przynajmniej nie dojdzie na czas. Historia ludzkości pokazuje, iż tego typu zmiany ciężko zatrzymać. Widzę nadzieję tylko w dwóch scenariuszach. Pierwszy scenariusz zakłada, iż ludzkość napotka jakąś barierę technologiczną, która uniemożliwi AI przekroczenie poziomu człowieka i przejęcie kontroli. Jednak to jest nadzieja, na której nie można bazować. Trzeba działać przy założeniu, iż nie będzie żadnej ściany technologicznej i iż technologia będzie się rozwijać dalej tak szybko, jak obecnie. Drugi scenariusz zakłada natomiast pojawienie się zdolności społecznego współdziałania i zjednoczenia ludzkości w celu zahamowania wyścigu technologicznego i rozwoju AI przekraczającej kompetencje człowieka, jego autonomię i sprawczość. W pewnych wymiarach AI już dzisiaj przewyższa inteligencję człowieka, ale jeszcze nie w zakresie sprawczości. Sęk w tym, iż z każdym miesiącem staje się bardziej kompetentna również w tym obszarze.

Jeżeli nie zaczniemy działać, to bardzo prawdopodobne, iż te poziomy zostaną przekroczone i krytyczne kompetencje AI nagle się pojawią. Niektórzy spekulują, iż takie działanie mogłoby się spontanicznie pojawić jedynie w odpowiedzi na jakiś „sygnał ostrzegawczy”, jakiś lokalny horror, pokazujący częściową utratę kontroli nad AI, ale jeszcze bez egzystencjalnych skutków. Ja wolę mieć nadzieję, iż i bez tego jest to możliwe.

Marshall McLuhan pisał, iż ludzie są organami płciowymi technologii, „zapładniają” technologię. We współczesnej nowomowie nazywamy ten proces innowacjami. Z kolei Stanisław Lem podkreślał, iż technologia jest zmienną niezależną cywilizacji. Od lat słyszę w debacie publicznej, iż nie można ulegać determinizmowi. Że człowiek jest w stanie panować nad technologią. Przynajmniej dwa razy użył pan terminu „scenariusz pesymistyczny”. Moim zdaniem to nie pesymizm, to postawa realistyczna.

Co my, jako pracownicy w polskich firmach i zakładach pracy, oraz wszyscy, którzy obawiają się bezrobocia technologicznego, możemy zrobić?

To nie jest całkiem tak, iż kierunek zmian technologicznych jest czymś nie do ruszenia. Są pewne przykłady, niestety dość nieliczne, kierunków rozwoju technologii, które udało się świadomą decyzją zahamować. Mamy dziś w pełni funkcjonujące lodówki, które już nie generują dziury ozonowej, jak robiły to lodówki z freonem. Była kiedyś benzyna ołowiowa, teraz mamy benzynę bezołowiową, a samochody dalej jeżdżą. Jeszcze lepszym przykładem jest zahamowanie na gruncie etycznym badań nad modyfikacją ludzkiego genomu. Mamy w tym obszarze dobrze działające moratorium. Badacz z Chin, który wywołał modyfikacje genetyczne w ludzkim płodzie, poszedł za to do więzienia. Widać więc, iż tego typu globalne moratoria potrafią działać w niektórych obszarach.

To przypomina decyzję Senatu USA o zakazie klonowania ludzi.

Tak. Myślę, iż gdyby pojawiła się szeroka społeczna zgoda, jakoś warunkowana, na przykład etycznie, to również tego typu moratorium na rozwój nadludzkiej sztucznej inteligencji dałoby się wprowadzić. Niestety wydaje mi się mało prawdopodobne, iż do tego dojdzie, zanim zmaterializują się najważniejsze ryzyka.

Więc to, co można robić, to poszerzać świadomość społeczną, gromadzić się wokół pewnych postulatów, wspierać petycje. Jestem zwolennikiem promowania tego typu działań, bo wzrost świadomości może wytworzyć masę krytyczną, która wymusi, żeby międzynarodowe globalne ustalenia weszły w życie.

To musi mieć charakter globalny, inaczej będzie nieskuteczne. jeżeli będziemy protestować przeciwko wdrożeniu AI w jednej lokalnej firmie, to ona zniknie z rynku i zostanie zastąpiona przez inną.

Instytut Spraw Obywatelskich organizuje spotkania, na które zapraszamy pracowników do rozmowy o nowych technologiach i bezrobociu technologicznym. Ludzie dostrzegają bardzo namacalnie, iż bezrobocie technologiczne może również ich dosięgnąć. Postulujemy powołanie przez polski rząd Instytutu Bezpieczeństwa AI i uruchomienie przez Narodowe Centrum Badań i Rozwoju konkursów grantowych na badania nad oceną technologii AI, w szczególności w kontekście bezrobocia technologicznego. Powiedział pan, iż globalna polityka ma tu najważniejsze znaczenie, ale o ile nie będziemy nic robić na niższym poziomie, na przykład zakładów pracy, to co nam zostaje?

Globalne moratorium, o którym mówiłem, jest dziś kluczowe, dlatego iż taka superinteligencja, która może potencjalnie powstać, jest ogromnym zagrożeniem i należy ją zahamować. Nie jest jednak jasne, jak długo taki zakaz udałoby się utrzymać, choćby gdyby został wprowadzony. Można powiedzieć, iż to kupowanie czasu, żeby wykonać jak najwięcej analiz i badań naukowych, które mają na celu zapewnienie bezpieczeństwa tych technologii. W największym stopniu dotyczy to problemu zgodności potencjalnie nadludzkiej sztucznej inteligencji z długofalowym dobrostanem ludzkości (tzw. alignment) oraz tego, aby potrafiła ona dynamicznie dostosowywać się do zmiany swoich kompetencji i stanu świata. Żeby zawsze bezinteresownie opiekowała się ludzkością, bo tylko wtedy nie będzie dla nas śmiertelnym zagrożeniem.

Niestety prace nad bezpieczeństwem AI są mocno niedoinwestowane. W 2025 r. napisałem artykuł wraz z Klausem Prettnerem, profesorem specjalizującym się w ekonomii wzrostu gospodarczego, w którym próbujemy porównywać potencjalne scenariusze katastrofy, utopii lub braku nadludzkiej sztucznej inteligencji. Analizujemy, ile, z punktu widzenia społecznego dobrobytu, powinniśmy być skłonni zapłacić za zapewnienie bezpieczeństwa ludzkości wobec zagrożeń egzystencjalnych wywoływanych przez nadludzką AI.

Zdaję sobie jednak sprawę, iż obszar bezpieczeństwa AI (AI safety) jest o wiele szerszy, nie ogranicza się do walki z zagrożeniami egzystencjalnymi. Należy też przecież bronić ludzkość przed wykorzystaniem modeli AI przez dyktatorów lub terrorystów do kontroli społecznej i budowania niebezpiecznych broni. Kwestie prywatności, praw autorskich i bardzo wielu innych rzeczy również wiążą się z bezpieczeństwem AI. To pojęcie jest bardzo pojemne i tylko pewien podzbiór ma znaczenie z punktu widzenia ryzyka egzystencjalnego. Ten podzbiór jest dla mnie najważniejszy, choć oczywiście prac nad ograniczaniem zagrożeń istniejących już technologii AI także potrzebujemy więcej, niż mamy w tym momencie.

Jakiego ważnego pytania nikt panu jeszcze nie zadał w temacie, o którym rozmawiamy i jaka jest na nie odpowiedź?

Dokąd w ogóle zmierzamy, konstruując nadludzką sztuczną inteligencję?

To pytanie, które powinny zaadresować firmy rozwijające AI. Skala zmian świata, jaka może być wywołana taką transformatywną technologią, jest olbrzymia. Z jednej strony mamy obietnice szalonego wzrostu gospodarczego, gdyby udało się w pełni zautomatyzować produkcję. Z drugiej strony istnieje jednak zagrożenie utraty kontroli. choćby jeżeli jakimś cudem uda się zapewnić zgodność tej technologii z długofalowym dobrostanem ludzkości, pojawia się pytanie, czym ta ludzkość się stanie w zupełnie zmienionym świecie, w szczególności ludzkość pozbawiona realnej kontroli nad swoją przyszłością, nad technologią, nad światem. choćby gdyby ten najlepszy scenariusz się zrealizował, to nie wiadomo, czy człowiek chciałby w takim świecie żyć.

Dziękuję za rozmowę.

Idź do oryginalnego materiału