Aktuální nejmodernější AI modely jsou již nadlidské v mnoha oblastech, ale naštěstí ne ve všech. Pokud dosáhneme superinteligence před tím, než vyřešíme problém sladění cílů, hrozí nám riziko vyhynutí. Proto je nezbytné mít odhad, kdy bychom mohli mít superinteligenci, abychom nebyli zaskočeni. Pokud budou naše předpovědi příliš vzdálené, možná se nestihneme včas připravit.
Ale o kolik se můžeme mýlit? Kdy budeme mít superinteligenci? Může to být dříve, než si mnozí myslí.
AI modely potřebují algoritmy, data a čipy. Každá z těchto složek se díky masivním investicím do AI rychle zlepšuje. Zlepšení jednotlivých složek se sčítají, což vede k exponenciálnímu růstu schopností AI.
Je zcela možné, že prosté škálování nás dovede k nebezpečným schopnostem během jednoho nebo dvou let, ale se všemi těmito faktory dohromady to může být ještě dříve.
V roce 2022 si AI výzkumníci mysleli, že bude trvat 17 let, než bude AI schopna napsat bestseller pro New York Times. O rok později vyhrál čínský profesor literární soutěž s knihou napsanou AI.
Na platformě Metaculus byla komunitní předpověď pro (slabou) AGI v roce 2057 ještě před třemi lety, a nyní je to 2027 2026.
Nyní se podíváme na definici AGI, kterou tato anketa použila:
GPT-4 dosahuje 94,4 % v Winograd Schema Challenge a 93 % v SAT čtení a 89 % v SAT matematice. Turingův test ještě neprošel, ale pravděpodobně ne kvůli nedostatku schopností. GPT-4 je optimalizován tak, aby lidi nemátl. Není pro obchod dobré, když AI říká lidem, že je člověk. Zbývá tedy jen Montezuma’s Revenge. Není nepředstavitelné, že by ho GPT-4 dokázal dokončit díky šikovnému nastavení, jako je použití AutoGPT k analýze obrazovky a generování správných vstupů. V květnu 2023 GPT-4 dokázal napsat kód, aby získal diamantové vybavení v Minecraftu. Stručně řečeno: GPT-4 splnil 2 ze 4 kritérií s jistotou, přičemž další dvě jsou na dosah.
Jsme tam. Máme (slabou) AGI. Trvalo to ne 35 let, ale tři. Zmýlili jsme se desetinásobně.
Existuje mnoho důvodů, proč lidé podceňují pokrok AI.
Naštěstí stále existují věci, které AI nedokáže. Nedokáže hackovat lépe než nejlepší hackeři a nedokáže dělat AI výzkum tak dobře jako nejlepší AI výzkumníci. Když dosáhneme jedné z těchto hranic, budeme v nové fázi zvýšeného rizika.
Tak kdy dosáhneme bodu, kdy AI bude umět všechny tyto věci na nadlidské úrovni? Kdy budeme mít superinteligenci?
Klíčovým bodem, který bychom měli zvážit, je bod, kdy AI bude schopna provádět AI výzkum lépe než někdo jako Ilya Sutskever (bývalý hlavní vědec OpenAI). AI, která by dokázala přinášet smysluplné příspěvky k AI algoritmům a architekturám, by se pravděpodobně mohla zlepšovat sama. Nazvěme tento bod potenciálního sebezdokonalování Ilyův práh. Když ho dosáhne, může se AI sama zlepšovat, ať už na základě výslovného zadání, nebo proto, že být chytřejší je užitečný podcíl jiných cílů (AI již tvoří vlastní podcíle). Tyto iterace mohou trvat týdny (trénink GPT-3 trval 34 dní), ale je také možné, že bude implementováno určité zlepšení za běhu, které umožní významný pokrok během několika minut: výbuch inteligence.
Tak jak daleko jsme od Ilyova prahu? Je velmi těžké předpovědět kdy se určité schopnosti objeví s tím, jak LLMy škálujeme, ale zatím jsme viděli mnoho schopností, o nichž se dříve myslelo, že jsou daleko. Nejnovější AI modely již překonávají většinu lidských programátorů, takže není nepředstavitelné, že budoucí modely překonají všechny programátory.
Lepší čipy, více dat a lepší algoritmy přispějí k dosažení Ilyova prahu. Nemáme ponětí, jak sladit takovou AI (dokonce OpenAI to přiznává), a důsledky existence nesladěné superinteligence pravděpodobně budou katastrofální.
Spoluzakladatel Anthropic Ben Mann věří, že existuje 30% šance, že Claude 3 (jejich nejnovější model) se může autonomně replikovat, pokud bude jemně naladěn a chytře zadáván. Bývalý výzkumník OpenAI Daniel Kokotajlo si myslí, že existuje 15% šance, že budeme mít AGI v roce 2024. Nikdo neví jistě, kdy dosáhneme Ilyova prahu. Ale sázky jsou příliš vysoké na to, abychom předpokládali, že máme mnoho času. Musíme jednat s ohledem na malou šanci, že jsme vzdáleni jen měsíce. Musíme pozastavit vývoj frontier AI právě teď. Je na každém z nás, abychom jednali a zajistili, že nás nic nezaskočí.
Autor Jiří Kosárek