📋
Povolování nasazení AI modelů
Než bude model nasazen veřejnosti, musí projít bezpečnostními testy a hodnocením nezávislou agenturou – podobně jako léky schvaluje lékový úřad.🔬
Povolování nových tréninkových běhů
Souhlas agentury bude nutný pro trénink AI modelů nad určitou velikost (přibližně 1 miliarda parametrů). Parametr si lze představit jako jeden „spoj“ v neuronové síti – čím více parametrů, tím výkonnější a potenciálně nebezpečnější model.🚫
Blokování modelů výkonnějších než GPT-5
Trénink obecné AI překonávající GPT-5 bude povolen pouze tehdy, pokud lze bezpečnost zaručit. Takovým modelem se rozumí AI s více než 10¹² parametry nebo trénovaná s více než 10²⁵ výpočetními operacemi.🤝
Pravidelná odborná setkání
Agentura bude svolávat vědce a tvůrce politik, aby sledovali pokroky ve výzkumu bezpečnosti a mohli rychle reagovat na nová rizika.🔒
Omezit zveřejňování průlomových algoritmů
Nové tréninkové algoritmy (jako byla architektura Transformer) mohou způsobit náhlý skok ve schopnostech AI. Publikaci takových algoritmů by bylo možné omezit podobně, jako jsou omezeny jiné formy nebezpečných informací.💻
Omezit výpočetní výkon hardwaru
Pokud se stane možné trénovat superinteligenci na běžném hardwaru, situace se vymkne kontrole. Je proto třeba zvážit regulaci výpočetního výkonu – například přes omezení výroby čipů a nových výpočetních paradigmat (fotonické čipy, kvantové počítače).