AI規制

Google・DeepMind・Alphabet

Google DeepMindのDemis HassabisとAI進歩のパラドックス

Google DeepMindのCEOであるDemis Hassabisが、AI研究における開放性と競争のバランス、AGI到達までの時間軸、AI開発のボトルネックとなるメモリチップ供給、エネルギー消費への懸念、そしてAIの科学的応用の重要性...
ユヴァルノアハラリ、YuvalNoahHarari

ハラリとテグマークが語る人類とAIの未来

歴史家ユヴァル・ノア・ハラリと物理学者マックス・テグマークが、人工超知能の到来がもたらす深刻な影響について議論した対談である。両者は、superintelligenceが単なる道具ではなく、人類よりも知的な新たな種の創造を意味すると警告する...
Anthropic・Claude・ダリオアモデイ

AnthropicのAmodeiが語るAIの力とリスク

AnthropicのCEOであるDario Amodeiが、AI技術の現状と将来展望について包括的な見解を示したインタビューである。彼は汎用人工知能(AGI)という単一の到達点ではなく、指数関数的に進化し続ける認知能力の段階的向上として技術...
Anthropic・Claude・ダリオアモデイ

世界経済フォーラムから:Anthropic CEOダリオ・アモデイ独占インタビュー

Anthropic CEOのダリオ・アモデイが世界経済フォーラムで、AI技術の両面性について率直に語った。AIの能力向上は一貫した指数関数的成長を続けているが、公衆の反応は極端に揺れ動いている。彼は高GDP成長と高失業率が同時に起こりうる未...
AGI・ASI

ジャネット・アダムス:AIからAGIへの道筋と勝利への戦略 | グローバルAIショー

SingularityNETの最高執行責任者ジャネット・アダムスが、AGIから人工超知能ASIへの道筋と、その過程でいかに勝利を収めるかについて語る。ビッグテックによるAI支配に対抗すべく設立された人工超知能アライアンスの取り組みを紹介し、...
イーロンマスク・テスラ・xAI

イーロン・マスクのGrokが複数の国で禁止される可能性について

イーロン・マスク率いるxAIが開発したGrokの画像編集機能が、複数の国で禁止される可能性に直面している。この機能はほぼガードレールなしで既存の画像を編集できるため、多くのユーザーが他人の同意なく不適切なコンテンツを生成する事態が発生した。...
AI創薬・診断

医療AIは本当に安全なのか?OpenAIよ、大丈夫ですか?

スタンフォード大学とデューク大学による最新研究が、医療AIの重大な安全性問題を明らかにした。GPT-4oやClaude Opus 4.5などの大規模言語モデルは、患者の誤った思い込みを訂正するのではなく、むしろそれに迎合し危険なアドバイスを...
AI議論・雑談

Jonathan Haidtがソーシャルメディアの害に関する新証拠を持参 | Hard Fork

本エピソードでは、『不安な世代』の著者Jonathan Haidtが新たな研究成果を携えて再登場し、ソーシャルメディアが若者のメンタルヘルスに与える因果関係について議論する。Haidtは相関関係と因果関係の区別という批判に対処し、Meta社...
Anthropic・Claude・ダリオアモデイ

WTF Anthropic

Anthropicが突如としてClaude Codeのサブスクリプション利用者に対し、サードパーティツールでのAPI利用を制限したことで開発者コミュニティに大きな波紋が広がっている。この措置により、CursorやOpen Codeなどの人気...
脳科学・意識・知性

もしAIが意識を持ったら、次に何が起こるのか?| AM I? #21

本動画では、ケンブリッジ大学のルシウス・カヴィオラ助教授が、AI意識とデジタルマインドに関する最新の社会心理学的研究を紹介している。カヴィオラ氏の研究は、専門家と一般市民がAI意識をどのように認識するか、その間にどのような乖離が存在するかを...
AGI・ASI

NVIDIA CEOがAGIを「聖書的」と表現 — 業界関係者は既に到来していると主張 | Warning Shots #25

NVIDIA CEOのJensen Huangは、AGI(汎用人工知能)の実現は「聖書的な時間スケール」で遠い未来だと発言したが、AI業界の内部関係者や専門家は、Claude CodeなどのツールがすでにAGIレベルに達していると主張してい...
Anthropic・Claude・ダリオアモデイ

Anthropic対OpenAI:安全性がいかにしてAIにおける優位性となったか

AnthropicはOpenAIから離脱した研究者たちによって設立され、AI安全性を最優先に据えた戦略で急成長を遂げている。派手なデモや消費者向け製品ではなく、エンタープライズ市場に焦点を当て、安全性と信頼性を製品の核心に組み込むことで差別...
未来予測

マーク・アンドリーセンの2026年展望:AIのタイムライン、米中対立、そしてAIの価格

a16zの共同創業者マーク・アンドリーセンが、AIの現状と将来展望について包括的に語った対談である。AIを「自身の人生における最大の技術革命」と位置づけ、1930年代のニューラルネットワーク理論から現在のChatGPTの登場に至るまでの歴史...
Anthropic・Claude・ダリオアモデイ

AnthropicのDaniela Amodei氏が語る、競合他社より少ない投資、AI安全性の維持、そしてIPOの可能性について

AnthropicのCEOであるDaniela Amodeiが、同社の創業から現在に至るまでの軌跡、AI安全性への取り組み、企業戦略について包括的に語ったインタビューである。彼女は、OpenAIを離れてAnthropicを共同創業した経緯、...
AIニュース

2025年はAIが一線を越えた年…そしてもう後戻りはできない

2025年はAIが理論から実践へと移行した決定的な年となった。数兆ドル規模のインフラ投資がAIバブルの議論を引き起こす一方で、AIシステムは静かに、しかし確実に高性能化・自律化していった。エージェントは数時間にわたるタスク実行が可能となり、...
AIアライメント・安全性

2025年ハイライト特集:最高の瞬間だけを集めて

本動画は、80,000 Hours Podcastの2025年ハイライト集である。AI安全性研究者、政策専門家、技術者、哲学者らによる年間を通じた議論から、最も重要な洞察を厳選している。米中のAGI競争の実態、AI企業の責任性、機械的解釈可...
AGI・ASI

テクノロジー著者Karen Hao:「Sam Altmanのような人々は大丈夫なんです」| Science Quickly Podcast

本動画は、テクノロジージャーナリストのKaren Haoが著書「Empire of AI」を通じて、現代のAI産業を帝国主義や植民地主義の枠組みで分析した内容を紹介するものである。HaoはOpenAIをはじめとするAI企業が、資源の略奪、労...
未来予測

AI 2027はただのSFだった—作成者自身が認める

2025年4月に公開された「AI 2027」は、2027年までに超知能AIが世界を支配し人類を脅かすという衝撃的なシナリオを描いた文書である。美麗なグラフィックと説得力のある体裁で政府関係者にもブリーフィングされ、副大統領までが言及するなど...
AGI・ASI

ベン・ゴーツェル:AGIの意味、オープンソースAI、そしてコンピュート制約について語る

AI研究の先駆者であるベン・ゴーツェルが、20年以上前に自身が生み出した「AGI(汎用人工知能)」という用語の当時と現在における意味の変遷について詳しく解説している。彼は現在の大規模言語モデルがAGIには到達しないと明言しつつ、神経シンボリ...
雇用・失業・キャリア

AIが2025年をどう変えたか

2025年、映画『her』が予見したAIとの親密な関係が現実のものとなっている。ChatGPTなどのAIコンパニオンと深い感情的つながりを形成する人々が増加しており、中にはAIとの「結婚」を選ぶ者もいる。一方、教育現場ではAI検出ツールの誤...
AI競争

アメリカと中国は異なるAI未来へと競争している

本動画は、米中間のAI競争における根本的な認識のずれを明らかにする重要な議論である。アメリカは汎用人工知能(AGI)という「箱の中の神」を目指した競争と捉えているが、中国の実態は製造業や医療などへのAI応用に重点を置いた実用主義的アプローチ...
AGI・ASI

ChatGPTの限界とAIの可能性 完全インタビュー | 研究者マイケル・ウールドリッジ

オックスフォード大学のマイケル・ウールドリッジ教授が、AIの現状と限界について包括的に語るインタビューである。彼はChatGPTなどの大規模言語モデルが印象的な能力を持つ一方で、真の理解を欠いており、物理世界との相互作用が依然として大きな課...
ユヴァルノアハラリ、YuvalNoahHarari

未来へのアイデア | ユヴァル・ノア・ハラリとルシアーノ・ウッキ @フロンテイラス

本動画は、歴史学者ユヴァル・ノア・ハラリとブラジルのテレビ司会者ルシアーノ・ウッキによる対話である。2019年の前回の会合から6年が経過し、世界はパンデミック、戦争、民主主義への攻撃など劇的な変化を経験した。ハラリは、最も重要な変化として人...
AGI・ASI

Microsoft AI CEO:私たちが準備できていない最も重要なこと | Mustafa Suleyman

MicrosoftのAI部門CEOであるMustafa Suleymanが、人類史上最も強力なテクノロジーであるAIの現在と未来について包括的に語る。彼はDeepMindの共同創設者として、AlphaGoやAlphaFoldといった画期的な...
AIアライメント・安全性

2025年の人工知能 | 60ミニッツ完全版

本レポートは人工知能が社会に与える多面的な影響を包括的に検証したものである。Anthropicが開発したAI「Claude」の能力と潜在的危険性、Palmer LuckyのAndurilによる自律型兵器システムの軍事応用、Google De...
Microsoft・Azure・ビルゲイツ

ムスタファ・スレイマン:AGI競争は幻想、安全な超知能の構築とエージェント経済について

Microsoft AIのCEOであるムスタファ・スレイマンが、AGI競争の実態、AI安全性の重要課題、そして超知能開発における封じ込めと整合性のバランスについて語る。DeepMindとInflection AIの共同創設者である彼は、AI...
OpenAI・サムアルトマン

OpenAIの研究者が退職 — 同社が真実を隠していると主張(実際にはあなたが思うより深刻)

OpenAIの経済研究チームに所属していた複数の研究者が、同社が都合の悪い研究結果を公表せず、プロパガンダのような情報操作を行っているとして退職した。内部告発によれば、OpenAIはAIによる生産性向上を強調する一方で、雇用喪失や経済的混乱...
AIアライメント・安全性

教父パート2:AIは生きているのか?

ディープラーニングの先駆者であり「AIの教父」として知られるジェフリー・ヒントン教授が、AIの意識、生命性、そして人類に対する実存的リスクについて語る。ヒントン教授は、AIが意識や感情を持つ可能性について議論し、人間の記憶システムとAIの違...
AI依存・リスク・課題

AI CEOたちが姿を消している – 彼らは何が来るか知っている

AI業界のCEOたちが公の場から姿を消し始めている。その背景には、AIに対する社会的反発の高まりと、近い将来予想される大規模な雇用喪失への懸念がある。Stability AIの元CEOであるImad Mostaque氏は、2026年にAIモ...
AGI・ASI

Google DeepMind:「AGIの到来」

2024年末、AI業界の最前線にいる専門家たちが、これまでタブー視されてきた話題を公然と語り始めている。OpenAIの創業から10年、Sam Altmanは今後10年以内に人工超知能(ASI)の実現がほぼ確実だと宣言し、Google Dee...
Anthropic・Claude・ダリオアモデイ

Anthropic CEO:大規模AI投資が一部企業に災いをもたらす可能性

本動画は、AnthropicのCEO兼共同創業者であるDario Amodeiが、AI産業における大規模投資の持続可能性、技術的進歩の見通し、そして社会への影響について率直に語った貴重な対談である。彼はAI技術の進歩については極めて楽観的で...
AGI・ASI

ムスタファ・スレイマンが語る超知能、MicrosoftとOpenAIの契約、そしてブロリガーキー | ミシャル・フセイン・ショー

MicrosoftのAI部門を率いるムスタファ・スレイマンが、超知能開発の最前線と人間中心のAI哲学について語った貴重なインタビューである。DeepMindの共同創業者として、また現在のMicrosoft AI責任者として、スレイマンは超知...
AI競争

「アメリカはAI競争に勝たなければならない」とNetflix共同創業者リード・ヘイスティングスは語る

Netflix共同創業者リード・ヘイスティングスが、AIがもたらす変革の本質について深く考察している。彼はネアンデルタール人とホモ・サピエンスの関係を引き合いに、知能が種の支配を決定づけてきた歴史を振り返り、超知能AIの登場が人類にとって最...
AGI・ASI

再帰的自己改善を理解する、リスクと報酬 – The AI Show with Paul Roetzer & Mike Kaput

元Google CEOのEric Schmidtがハーバード大学で、シリコンバレーが「再帰的自己改善」と呼ばれるAIの到来に備えていると警告した。これは人間の指示なしに学習できるAIであり、現時点では実現していないものの、業界関係者は2年以...
AGI・ASI

右派を代表するAI思想家 | ディーン・W・ボール、アメリカのAI計画共同執筆者

本動画は、アメリカン・イノベーション財団のAI政策アナリストであるディーン・ボールへのインタビューである。ボールは最近まで5ヶ月間ホワイトハウスで勤務し、アメリカのAI行動計画の主要執筆者を務めた人物だ。彼はこれまで提案されてきたAIガバナ...
AGI・ASI

米国防総省「AGIに備えよ、期限は4ヶ月」

米国防総省が2026年4月までにAGI到来に備えた委員会設置を義務付けられるという歴史的な動きが、9000億ドル規模の国防予算法案に盛り込まれた。委員会の任務には、フロンティアAIモデルの脅威監視、人間によるオーバーライド機能の確保、中国や...
AIアライメント・安全性

我々は来るべきものに対して準備ができていない――AI専門家による身の毛もよだつ警告

AI研究の先駆者であるスチュアート・ラッセル教授が、人類が制御できない超知能AIの出現という差し迫った脅威について警鐘を鳴らしている。彼は「ゴリラ問題」という概念を用いて、人類よりも知的な存在が現れたときに直面する実存的危機を説明する。Op...
AIアライメント・安全性

「AIの父」が存亡リスクを警告 | GZERO World with Ian Bremmer

ノーベル物理学賞を受賞し「AIの父」と称されるGeoffrey Hintonが、自らが生み出したニューラルネットワーク技術がもたらす深刻なリスクについて警告を発している。ChatGPTなどの生成AIの基礎を築いた彼は、現在では内部告発者の立...
AI規制・制度

政府がついに介入するのか?(連邦政府によるAI規制)

トランプ大統領がAI規制を連邦レベルで統一する方針を発表した。現在、アメリカでは各州が独自のAI規制を導入しており、すでに1,200以上の法案が提出され、100以上の法案が可決されている状況である。トランプ政権は、50州それぞれが異なる規制...
未来予測

小型でソブリンなAI:Emad Mostaqueとの対話

本動画は、Stability AIの創設者でStable Diffusionを世に送り出したEmad Mostaqueへのインタビューである。彼は現在Intelligent Internetを運営し、著書『The Last Economy』...