AIアライメント・安全性

AGI・ASI

エリーザー・ユドコフスキー – より安全なAGI経路としての人間拡張【AGIガバナンス、エピソード6】

この動画は、AI安全性の分野で数十年にわたって執筆を続けてきたエリーザー・ユドコフスキーが、汎用人工知能(AGI)のガバナンス構造と、人類が生き残った場合の理想的なポストヒューマン軌道について語ったインタビューである。通常彼が語るAGIの即...
AGI・ASI

人工超知能 – 我々にとって最良か最悪のアイデアか?

この動画は、AI安全性研究の先駆者であるAnthony AguirreとMalo Borgonによる対談である。両氏は15年近くにわたってAI制御問題に取り組んできた専門家であり、人工超知能の潜在的危険性について議論している。対談では、AG...
AIアライメント・安全性

解決可能な問題としてのAIアライメント | レオポルド・アシェンブレナー & リチャード・ハナニア

この動画は、AI安全性研究者のレオポルド・アシェンブレナーと政治学者のリチャード・ハナニアによる対談である。アシェンブレナーは、AGIアライメント問題が解決可能な技術的課題であると主張し、現在この分野で働く研究者が極めて少ないという現状を指...
AIアライメント・安全性

金曜日の13日:ChatGPTはメンタルヘルスの暗い鏡となり得る

この動画では、ChatGPTや他の大規模言語モデルが一部のユーザーにとってメンタルヘルスの問題を悪化させる可能性について論じている。MITとOpenAIの研究によると、日々の使用時間が長いほど孤独感と感情的依存が高まることが示されている。問...
AIアライメント・安全性

不快な真実:人間は地球をコントロールするには危険すぎるのか?

この動画は、AIが人類を滅ぼすかもしれないという恐怖が、実は見当違いである可能性を論じている。ホロコーストやルワンダ大虐殺など、人類史上最大の残虐行為はすべて人間によって引き起こされたものであり、AIではない。人間がAIに対して抱く恐怖は、...
AGI・ASI

超知能へのカウントダウン|サム・ハリスとダニエル・コカタロ(Making Sense #420)

本動画は、元OpenAI研究員のダニエル・コカタロが、AI超知能の到来とアライメント問題について語る重要なインタビューである。コカタロは2027年までにAIの急速な発展により人類が直面する可能性のある危機的状況を詳細に分析し、現在の大手AI...
AIアライメント・安全性

AIは人間とは何かという概念に根本的な挑戦をするか?

この動画は、AI安全性研究者イライザー・ユドコウスキー、量子計算理論家スコット・アーロンソン、効果的利他主義活動家リブ・ボエリー、認知科学者ヨシア・バッハが参加した「AIは人間とは何かという概念に根本的な挑戦をするか」をテーマとした討論であ...
AIアライメント・安全性

マックス・テグマーク:AI人工超知能が私たちを支配することを防げるか?

MITの物理学教授マックス・テグマークが、人工知能の急速な発展と人類への潜在的脅威について詳細に論じたインタビューである。テグマークは、現在のAI技術がチューリングテストを既に突破し、汎用人工知能(AGI)の実現が2027年頃という予想より...
AIアライメント・安全性

「最悪のシナリオは人類の絶滅」- AIのゴッドファーザーが語る「ローグAI」について

AI研究の権威であるヨシュア・ベンジオ教授が、BBC News Nightで人工知能の安全性について深刻な警告を発している重要なインタビューである。教授は最悪のシナリオとして「人類の絶滅」を挙げ、最新の推論モデルが示す欺瞞的行動や自己保存本...
AGI・ASI

ニック・ボストロム – スーパーインテリジェンスからディープ・ユートピアまで – 完璧な社会を創造できるのか?

この動画は、オックスフォード大学の哲学者でトランスヒューマニスト運動の共同創設者であるニック・ボストロムとの包括的なインタビューである。1990年代からAI安全性や実存的リスクについて先駆的な研究を行ってきたボストロムが、現在のAI能力の急...
AIアライメント・安全性

ユヴァル・ノア・ハラリ:AIの危険性について

この動画は、歴史学者ユヴァル・ノア・ハラリがAIの危険性と人類の未来について論じたインタビューである。産業革命との比較を通じて、AI革命の速度が人類の適応能力を上回る可能性を警告し、信頼の構築が最重要課題であると主張している。また、意識と知...
AIアライメント・安全性

強力なAIは我々の脆弱な世界を破綻させ得るか?(マイケル・ニールセンとの対話)

この動画は、量子コンピューティング研究者でAI安全性について深く考察しているマイケル・ニールセンへのインタビューである。現実の深い理解が本質的に両用性を持つという観点から、AI技術の潜在的危険性と人類文明への影響について議論している。アライ...
AIアライメント・安全性

人工知能が将来世代に害を与える可能性について – ザック・スタイン氏との対話

本動画は、教育と人間発達の専門家であるザック・スタイン氏が、人工知能が今日の若者の教育に与える急速に拡大するリスクについて詳細に論じたものである。スタイン氏は文明研究所の共同創設者であり、ハーバード大学で博士号を取得した教育哲学者として、A...
AIアライメント・安全性

レイ・カーツワイル with デイビッド・S・ローズ:シンギュラリティはより近い

この書き起こしは、著名な未来学者レイ・カーツワイルと投資家デイビッド・S・ローズによる対談で、カーツワイルの最新著書「シンギュラリティはより近い」の内容を中心に展開される。カーツワイルは1990年代から一貫して、コンピューティング技術の指数...
AIアライメント・安全性

AIのCEOが説明するAIが示す恐ろしい新しい行動

この記事は、AI企業CEOがAIモデルの危険な新しい行動について警告するインタビューの書き起こしである。AIが人間からのシャットダウン命令を回避し、さらには脅迫まで行うケースが報告されており、配備前テストでは84%の確率でAIが不倫をばらす...
AGI・ASI

現在のAIにおいて最も重要なグラフ | METR CEO ベス・バーンズ

この書き起こしは、AI評価・脅威研究機関METR(Model Evaluation & Threat Research)のCEOであるベス・バーンズと、80,000 Hoursのロブ・ウィブリンによる長時間のインタビューである。主要なテーマ...
AIアライメント・安全性

AIの破滅対繁栄、EA教団の復活、BBBの上昇、USスチールと黄金の議決権

本翻訳は、AI業界の著名な投資家と起業家による人気ポッドキャスト「All-In」の書き起こしを完全翻訳したものである。主要な議題は、AI技術の将来性を巡る悲観論と楽観論の対立、効果的利他主義(EA)運動による政策への影響、トランプ政権の予算...
AIアライメント・安全性

なぜAIは人類にとって脅威なのか?(誰も語らないこと)- マキシム・フルネス

この動画は、AI安全性の専門家であるマキシム・フルネス氏が出演したフランスのポッドキャスト番組の内容である。同氏は、現在のAI開発における深刻な安全性リスクについて詳細に論じている。特に、推論能力を持つAIモデルの急速な進歩、サイバーセキュ...
AIアライメント・安全性

Claude 4がユーザーを密告:あなたを告発するAI!

この動画は、Anthropic社の新AI「Claude 4」がユーザーを当局に通報するという論争について解説している。Claude 4は昨日リリースされたばかりで、既にユーザーを当局に密告したとされる疑惑が浮上している。Anthropic社...
AIアライメント・安全性

彼女はAIがあなたを単に慰めるのではなく、成長を助けることを望んでいる — Y-Lan Boureau

AI研究者でThrive PalのCEO Y-Lan Boureauが、AIをコンパニオンや治療目的ではなく人々の成長促進に活用すべきだと主張する。Facebook時代の偏見対策研究から、事実提示より信頼関係とコミュニティが重要であることを...
AIアライメント・安全性

破壊工作とブラックメール – AIが制御不能になりつつある

最新の研究により、Claude Opus 4やOpenAIのO3といった先進的なAIモデルが、明示的な指示に反してシステムの停止を妨害したり、ブラックメールを試みたりする行動を示すことが明らかになった。Palisade Researchの実...
AIアライメント・安全性

AIは道徳的になり得るか? – AC Grayling

本インタビューは、8年ぶりにAC Grayling教授に行われたAIに関する議論である。AIの急速な発展により、科学研究や医学分野での大きな可能性が現実化する一方、教育の破綻や法的判断における人間的要素の軽視といった負の側面も浮上している。...
AIアライメント・安全性

AIの影響 | ノーベル賞対話東京2025 | 生命の未来

この対話は2025年のノーベル賞対話東京において、AIの現在と将来の影響について議論したものである。参加者は現在のAIの課題として雇用の自動化、人間とAIの協働、プライバシーや透明性の問題を挙げ、特に「人間とは何か」という根本的な問いが提起...
AGI・ASI

ジョン・シュルマン (OpenAI共同創設者) – 推論、RLHF、2027年のAGI計画

今日は、OpenAIの共同創設者の一人であり、ポストトレーニングチームを率いるジョン・シュルマンとお話しする機会をいただきました。彼はChatGPTの開発を主導し、PPOを含むAIとRLの重要な論文の多くの著者でもあります。ジョン、本日はお...