実存的リスク

AIアライメント・安全性

準備できる時間はあと2年しか残されていない – ローマン・ヤンポルスキー博士

本動画は、AI安全性研究の第一人者であるローマン・ヤンポルスキー教授へのインタビューである。教授は「AI安全性」という用語の創始者であり、10年以上にわたって研究を続けてきた。彼の主張は明確かつ衝撃的である。制御不能な超知能が誕生すれば、そ...
AGI・ASI

AI科学者がトムに警告:超知能が我々を殺す…それも間もなく | ローマン・ヤンポルスキー博士

この動画は、AI安全性研究の第一人者であるローマン・ヤンポルスキー博士が、超知能による人類絶滅の可能性について警鐘を鳴らす内容である。博士は超知能が人類を滅ぼす確率を極めて高いと評価し、AGIが2027年頃に到達する可能性を示唆する。現在の...
AIアライメント・安全性

私たちを滅ぼしうるAIの未来 | 人工超知能が近づいている — ニック・ボストロム × ヨナス・フォン・エッセン

本動画は、著名な哲学者ニック・ボストロムと記憶の世界チャンピオンであるヨナス・フォン・エッセンによる、人工超知能(ASI)の到来とそれがもたらす実存的リスクについての深い議論である。ボストロムは11年前に『スーパーインテリジェンス』を著し、...
シンギュラリティ・知能爆発・レイカーツワイル

オックスフォード大学のAI研究主任:「シンギュラリティはでたらめだ」

オックスフォード大学のAI研究者が、シンギュラリティ(技術的特異点)の概念に対して批判的な見解を示している。機械が人間並みの知能を獲得し、自己改良を繰り返して制御不能になるという物語は、SF映画のプロットとしては魅力的だが、技術的には深く疑...
AIアライメント・安全性

もし誰かがそれを作れば、全員が死ぬ

本動画は、高いP doom(破滅確率)を持つAI安全性研究者ロン・シャピによる、超知能AIがもたらす実存的リスクについての詳細な議論である。シャピは2050年までに50%の確率で人類が絶滅する可能性を主張し、その根拠として、現在の技術では超...
哲学・思想

「『反・反・反・反古典的自由主義』について」ピーター・ティール | オックスフォード・ユニオン

この講演は、PayPalやPalantirの共同創設者であるピーター・ティールが、オックスフォード・ユニオンの200周年記念年における最初の講演として行った「反・反・反・反古典的自由主義」と題した演説である。ティールは自身のスタンフォード大...