Na świecie są dwa rodzaje naukowców – ci, którzy są ekspertami w małym, ale głębokim wycinku ludzkiej wiedzy, i ci, którzy próbują spojrzeć na jak najszerszy zakres problemów za pomocą pewnego ogólnego narzędzia. Do drugiej grupy należy również Jan Kulveit, ekspert od ryzyka i zagrożeń dla ludzkości, który pracuje w Oksfordzkim Instytucie Przyszłości Ludzkości i Centrum Studiów Teoretycznych Uniwersytetu Karola.
Dzięki swojemu ogólnie brzmiącemu polu już trzy lata temu pomógł rządowi przewidzieć rozwój pandemii covidowej. Procenty, czy ten czy inny scenariusz się spełni, padały z jego ust dość często. Z tą samą matematyczną precyzją poświęca się badaniu ludzkich wartości sztucznej inteligencji i jej harmonii. Według niego jej wybuch może – choć niekoniecznie – oznaczać zagrożenie dla ludzkości.
„Sztuczna inteligencja jest dość wyraźnie transformująca i pod pewnymi względami prawdopodobnie ważniejsza niż wszystko, co ludzkość odkryła do tej pory. Naprawdę trudno przecenić to znaczenie”. mówi Jan Kulveit w podcaście Čestmíra Strakatý’ego, którego można posłuchać w odtwarzaczu poniżej. Podobne głosy słychać często, zwłaszcza w ostatnich tygodniach. Jak sobie wyobrazić tę przemianę?
Naukowiec z Oksfordu przedstawia przykład, który ma biologiczną istotę. Chociaż my, ludzie, jesteśmy genetycznie najbliżsi szympansom, chociaż te naczelne są gatunkiem zagrożonym na skraju wyginięcia, jako ludzie rozwinęliśmy coś, co odróżnia nas od wielu innych gatunków. Kulveut to cała kultura, lepszy przekaz myśli, języka i sposobu myślenia, czego np. kot nie potrafi. Ale co się stanie, gdy ktoś – a raczej coś – przewyższy w tym wszystkim ludzi?
Kulveit jest przekonany, że ludzie nie są już tymi, którzy opanowują zupełnie nowe modele językowe, takie jak GPT-4. Według niego dynamika zaczyna się odwracać i widzi przyczyny w sposobie narodzin tej technologii. „Model najpierw nauczył się zapamiętywać z grubsza, albo napotkał problemy typu jeden plus trzy, a ktoś mu powiedział, że to cztery. Kiedy widzi tysiące i tysiące takich przykładów, może się zdarzyć, że nauczy się głębszej logiki, abstrakcji i zasadniczo tworzy świat modelu niejawnego. Problem polega na tym, że nie rozumiemy dokładnie, czego się nauczył ani jak się tam dostał. Dlatego nawet nie rozumiemy w pełni jego wyników”. wyjaśnić.
Odnosi się więc do tzw. problemu czarnej skrzynki, który od lat rozwiązują badacze zajmujący się sztuczną inteligencją. Nikt nie wie dokładnie, dlaczego jego produkcja jest taka, jaka jest. Możesz więc śmiać się z tego, dlaczego TikTok oferuje Ci pięćdziesiąty film z uroczym kotem. Ale prawdopodobnie nie będziesz się tak śmiać, gdy ta sama zasada działa nawet z narzędziami tak potężnymi, jak model języka GPT.
To nie tak, że nic nie stoi na przeszkodzie, aby zrozumieć sztuczną inteligencję. To po prostu nie działa samo.
Według Kulveita jednym z możliwych scenariuszy dalszego rozwoju może być utrata przez ludzkość większości kontroli nad swoją przyszłością. „Nie daję żadnego prawdopodobieństwa rewolcie robotów. Ale możemy sobie wyobrazić świat, w którym na przykład sztuczna inteligencja całkowicie zdominuje firmy. Nawet jeśli zastąpisz nią pewne osoby, nadal otrzymasz mniej więcej tę samą firmę. myślenie, na którym działa firma, może być stopniowo zastępowane przez sztuczną inteligencję, co doprowadziłoby do sytuacji, w której duża część gospodarki jest zautomatyzowana i stopniowo tracimy zrozumienie tego, co się dzieje. opisuje Kulveit.
Kulveit uważa również za niepokojące, że osiągnęliśmy obecną sytuację, w której modele językowe mogą obsługiwać wiele funkcji lepiej niż ludzie bez fundamentalnego przełomu naukowego. W rzeczywistości narzędzia takie jak ChatGPT czy Dall-E są po prostu wynikiem ciągłego procesu, w którym inżynierowie dodają coraz więcej danych do modeli, dzięki czemu rosną i są w stanie opisywać rzeczywistość większą liczbą parametrów.
Jednocześnie nie jest jasne, gdzie leżą granice tego wzrostu, a zatem teoretycznie nie ma ograniczeń co do ich możliwości. Jednocześnie kapitalistyczna logika nakazuje, aby wszystkie duże firmy technologiczne były zmotywowane do kontynuowania tego rozwoju. A przy zaciekłej konkurencji nie mogą się nawet zatrzymać i spróbować dowiedzieć się, dlaczego model zachowuje się tak, a nie inaczej.
Na szczęście ludzie wiedzą, jak podejmować inne decyzje niż na podstawie liczb „Ludzie motywują rynki, ale nie tylko. Jeśli ktoś opracuje sztuczną inteligencję, która ma 50 procent szans na spowodowanie globalnej katastrofy, nawet jeśli zarobi na tym miliard dolarów, prawdopodobnie jej nie udostępni. Jako ludzie my” nie jesteśmy szaleńcami. Problem polega na tym, że możemy nie wiedzieć, że opracowaliśmy tego rodzaju sztuczną inteligencję. mówi Kulveit.
Niemniej jednak uważa się za bardziej optymistę w swojej dziedzinie. Scenariusze katastroficzne utożsamia z tymi, w których sztuczna inteligencja jest wręcz przeciwnie, w harmonii z człowiekiem.
„To nie tak, że nic nie stoi na przeszkodzie, aby zrozumieć sztuczną inteligencję. Po prostu sama nie działa. Ludzkość osiągnęła już niezwykłe rzeczy. Na przykład nie mieliśmy trzeciego świata ani wojny nuklearnej – jeszcze. scenariusz, który niewielu uważał za prawdopodobny po wynalezieniu broni nuklearnej. I nie sądzę, aby broń nuklearna była zasadniczo mniej rozwiązywalna niż sztuczna inteligencja ”. decydować.
„Total twitterowy guru. Maven zombie. Myśliciel przez całe życie. Hardcore alkoholowy ninja. Przyszły idol nastolatków”.