O nás
Chci se zapojit
O AI
Zapojte se
Načítání
Zdroje – proč na bezpečnosti AI záleží
Zde na PauseAI.cz
Rizika umělé inteligence
Existenciální riziko umělé superinteligence
Proč bychom mohli mít superinteligenci dříve, než si většina lidí myslí?
Další zdroje v češtině
Články:
Umělá superinteligence: největší existenciální hrozba pro lidstvo? – Jiří Košárek
Umělá inteligence – Michaela Řeřichová
Existenční rizika a AI
Existenční rizika vývoje umělé inteligence na Wikipedii
Videa:
John Sherman – Existenciální riziko umělé inteligence
Can we build AI without losing control over it? | Sam Harris
V angličtině
Videa:
Please Look Up: For Humanity, An AI Safety Podcast Episode #1
Will Superintelligent AI End the World? | Eliezer Yudkowsky | TED
Roman Yampolskiy: Dangers of Superintelligent AI | Lex Fridman Podcast #431
Eliezer Yudkowsky: Dangers of AI and the End of Human Civilization
How to Keep AI Under Control | Max Tegmark | TED
Max Tegmark: The Case for Halting AI Development
Possible End of Humanity from AI? Geoffrey Hinton at MIT Technology Review’s EmTech Digital
EMERGENCY EPISODE: Ex-Google Officer Finally Speaks Out On The Dangers Of AI! – Mo Gawdat
Eliezer Yudkowsky – Why AI Will Kill Us, Aligning LLMs, Nature of Intelligence, SciFi, & Rationality
Misalignment, AI & Moloch | Daniel Schmachtenberger and Liv Boeree
Eliezer Yudkowsky – AI Alignment: Why It’s Hard, and Where to Start
Lethal Intelligence Guide [Part 1] – The Ultimate Introduction to Existential Risk from upcoming AI
Články:
The ‘Don’t Look Up’ Thinking That Could Doom Us With AI
Pausing AI Developments Isn’t Enough. We Need to Shut it All Down
Knihy:
AI: Unexplainable, Unpredictable, Uncontrollable – Roman V. Yampolskiy
Uncontrollable: The Threat of Artificial Superintelligence and the Race to Save the World – Darren McKee
Our Final Invention: Artificial Intelligence and the End of the Human Era – James Barrat
Life 3.0: Being Human in the Age of Artificial Intelligence – Max Tegmark
Další zdroje:
The Compendium – Connor Leahy, Gabriel Alfour, Chris Scammell, Andrea Miotti, Adam Shimi
A Narrow Path – How to Secure Our Future
AI 2027
Statement on AI Risk
Pause Giant AI Experiments: An Open Letter
Sparks of Artificial General Intelligence: Early experiments with GPT-4
Machine Intelligence Research Institute
Future of Life Institute
Další zdroje na PauseAI.info