AI破滅論

AIアライメント・安全性

もし誰かがそれを作れば、全員が死ぬ

本動画は、高いP doom(破滅確率)を持つAI安全性研究者ロン・シャピによる、超知能AIがもたらす実存的リスクについての詳細な議論である。シャピは2050年までに50%の確率で人類が絶滅する可能性を主張し、その根拠として、現在の技術では超...
AIアライメント・安全性

AIは我々全員を殺すのか?ゲストはそうかもしれないと言う | インタビュー

この動画は、AI安全性研究の第一人者であるエリエザー・ユドコウスキーが、なぜ超人的AIが人類を滅亡させる可能性が高いかを詳しく解説したインタビューである。彼は機械知能研究所の創設者であり、OpenAIの設立やDeepMindの初期投資にも関...