存亡リスク

AIアライメント・安全性

なぜ法律、条約、規制ではAIから人類を救えないのか ビッグタバコの戦略家が明かす真実

本動画は、かつてビッグタバコの規制対策を指揮したピーター・スパーバーが、AI安全コミュニティに向けて衝撃的な警告を発する内容である。スパーバーは、新しい法律や条約、規制によってAIから人類を守るという従来のアプローチが根本的に誤りであると断...
バイオテクノロジー・合成生物学

史上最悪の技術を阻止するため、私はすべてを辞めた

本動画は、J・クレイグ・ヴェンター研究所の准教授であり、Mirror Biology Dialogues Fundの共同ディレクターを務めるジェームズ・スミス氏へのインタビューである。スミス氏は2024年12月にScience誌で発表され、...
AIアライメント・安全性

「AIの父」が存亡リスクを警告 | GZERO World with Ian Bremmer

ノーベル物理学賞を受賞し「AIの父」と称されるGeoffrey Hintonが、自らが生み出したニューラルネットワーク技術がもたらす深刻なリスクについて警告を発している。ChatGPTなどの生成AIの基礎を築いた彼は、現在では内部告発者の立...
AI依存・リスク・課題

AIリスク、スーパーインテリジェンス、そして待ち受ける戦い——リヴ・ボリーとの深い対話|For Humanity #74

本動画は、元プロポーカーチャンピオンでありAI安全性の提唱者であるリヴ・ボリーとの対話を通じて、AI開発がもたらす実存的リスクについて多角的に検証するものである。ポーカーで培ったゲーム理論の視点から、AI企業間の競争構造、米中のAI開発競争...
AIアライメント・安全性

超知能についての真実…

この動画はAI安全性研究の先駆者であるEliezer YudkowskyがChris Williamsonのインタビューに応じ、超知能の出現が人類にもたらす実存的脅威について詳細に論じたものである。Yudkowskyは、現在のAI技術では超...
AIアライメント・安全性

なぜ超人的AIは私たち全員を殺すのか – エリエゼル・ユドカウスキー

本動画は、AI安全性研究の第一人者であるエリエゼル・ユドカウスキーが、超知能AIがもたらす実存的脅威について詳細に論じたものである。ユドカウスキーは、現在のAI開発の軌道が継続すれば人類の絶滅は避けられないと警告し、その理由を技術的・物理的...
AIアライメント・安全性

AIは我々全員を殺すのか?ゲストはそうかもしれないと言う | インタビュー

この動画は、AI安全性研究の第一人者であるエリエザー・ユドコウスキーが、なぜ超人的AIが人類を滅亡させる可能性が高いかを詳しく解説したインタビューである。彼は機械知能研究所の創設者であり、OpenAIの設立やDeepMindの初期投資にも関...
Apple・ティムクック

私たちがiPhone Airについて本当に思うこと|第153回

この動画は、AI研究者エリーザー・ユドコウスキーが新著『If Anyone Builds It, Everyone Dies』について語る対談である。ユドコウスキーは、人工超知能の開発が人類の絶滅をもたらすという立場から、AI開発の即座の停...