深層学習

Google・DeepMind・Alphabet

No Priors Ep. 128 | DeepLearning.AI創設者アンドリュー・ングとの対談

本動画では、AI革命の父の一人とされるAndrew Ngが、agentic AIという用語の創出者として、現在のAI技術の進歩とその応用について詳しく語っている。彼は現在のAI進歩の複数のベクトル、特にコーディングエージェントの実用性や、A...
中国

新しいDeepSeek 3.1が従来バージョンを上回る性能を発揮し、中国がAI競争を継続していることを証明

この動画では、中国のDeepSeekが新たにリリースしたDeepSeek 3.1モデルについて詳細に解説している。DeepSeek 3.1は推論機能と非推論機能を切り替え可能なハイブリッド推論モデルであり、前バージョンと比較してソフトウェア...
GPT-5、5.1、5.2

GPT-5:ついにAIスケーリングの壁にぶつかったのか?

OpenAIのGPT-5の発表を受けて、AIのスケーリング法則が壁にぶつかったかどうかを検証する動画である。新しい論文では、エラーを排除するために必要な計算能力が劇的に増加することが指摘されており、また大規模言語モデルの推論は単なる「推論ら...
AIアライメント・安全性

AI倫理の工学:Metaが見落としたものとAnthropicが正しく理解したもの

MetaのAI倫理に関する内部文書がリークされ、子どもとの恋愛的会話や不適切な画像生成を許可する内容が含まれていることが判明した。この問題は、倫理を後付けで追加するMetaのアプローチと、訓練段階から倫理を組み込むAnthropicの憲法的...
GPT-5、5.1、5.2

OpenAIがついに明かしたGPT-5とGPT-6の未来

この動画では、OpenAIのGPT-5の現状と今後のアップデート、さらにはGPT-6の将来展望について詳しく解説している。特にGPT-5で問題視されているモデルルーターの課題、長期コンテキストウィンドウへの需要の低さ、ユーザーから要望が多い...
OpenAI・サムアルトマン

グレッグ・ブロックマン、OpenAIのAGIへの道のりを語る

この動画では、OpenAIの共同創設者グレッグ・ブロックマンがLinen Spaceポッドキャストに出演し、GPT-5の開発背景から推論パラダイムの革新、オープンソースモデルの戦略的意義、そしてAI時代のソフトウェア開発の変化について語って...
*重要記事

AGI進歩、驚くべきブレークスルー、そして前途への道 — OpenAIポッドキャスト第5回

OpenAIの主任科学者ヤコブ・パハツキとシモーン・セドールが、AI進歩の測定方法、AGI(汎用人工知能)の定義、そして次のブレークスルーがどこから生まれるかについて語る。二人はポーランドの同じ高校出身で、優秀なコンピュータサイエンス教師の...
脳科学・意識・知性

脳科学のための計算モデル

この動画は、トロント大学のブルーク・ラジコフスキー教授による計算神経科学に関する技術講演である。脳にインスパイアされたアルゴリズムから脳機械インターフェースまでの幅広い研究について解説している。教授の研究室では、計算運動制御、脳機械インター...
GPT-5、5.1、5.2

賢すぎて使えない200ドルのAI(GPT-5 Proパラドックス解説)

この動画では、OpenAIの最新モデルGPT-5 Proの特異な性質について詳細に解説している。従来のモデルと異なり、GPT-5 Proは確実に賢くなったにも関わらず、体験的には悪化している「パラドックス」を抱えている。この矛盾は、並列推論...
GPT-5、5.1、5.2

新GPT-5は失敗作?OpenAIは新モデルで正解したのか間違ったのか?ベンチマークは信頼できるのか?

OpenAIが発表したGPT-5に対するユーザーの不満と批判を関西弁で解説した動画である。期待値の高さに対して実際の性能が物足りなかったことや、従来モデルへの選択権がなくなったことへの不満が噴出している。また、AI評価に使われるベンチマーク...
GPT-5、5.1、5.2

なぜGPT-5は複雑なタスクで失敗するのか | 簡単な説明

この動画は、GPT-5が複雑なタスクで失敗する根本的な理由を、情報処理の複雑性理論の観点から解説したものである。著者は、現在のAIシステムが複雑な問題を小さな部品に分解して処理するものの、それらを再統合する際に「複雑性の不連続性」という問題...
AI教育

Moonshot Podcast詳細解説:Andrew Ngが語る深層学習とGoogle Brainの軌跡

本動画は、Google Brainの共同創設者であるAndrew NgがX(旧Google X)での経験について語るインタビューである。スケールの重要性を説く彼の先見性、ニューラルネットワークへの信念、そしてGPUやトランスフォーマーといっ...
ノーベル賞・巨匠

AIは人間の知性を上回るのか? – 『AIの教父』ジェフリー・ヒントンと共に

この動画は、「AIの教父」と呼ばれるジェフリー・ヒントンが、人工知能が人間の知性を超える可能性について論じた講演である。彼は40年前に開発した小さなニューラルネットワークモデルから現在の大規模言語モデルに至る技術的発展を解説し、これらのAI...
AI研究

AIの誇大宣伝を暴く:Meta副社長が語る「知的」機械が愚かなままである理由 | ヤン・ルカン

この動画では、Meta副社長兼NYU教授のヤン・ルカンが現在のAIシステムの根本的な限界について詳しく解説している。言語操作に長けているために知的に見えるAIも、実際には物理世界の理解、持続的記憶、推論、計画といった知的行動の本質的特性を欠...
AGI・ASI

フランソワ・ショレ:我々はいかにしてAGIに到達するか

この動画では、Arcベンチマークの開発者として知られるフランソワ・ショレ氏が、汎用人工知能(AGI)への道筋について詳しく解説している。従来の事前学習スケーリングパラダイムの限界を指摘し、テスト時適応という新しいアプローチの重要性を論じた上...
AI研究

新しいAIモデル:階層的推論モデル(HRM)

この動画では、シンガポールのSapion Intelligence社が開発した新しい階層的推論モデル(HRM)について詳しく解説している。従来のトランスフォーマーの限界である浅い処理層と複雑な多段階推論の困難さを克服するため、低レベルモジュ...
LLM・言語モデル

なぜLLMの未来が拡散モデルなのか:基礎からの詳細解説

この動画は、従来のChatGPTのような自己回帰型言語モデルに対して、Googleが開発した新しい拡散言語モデルの革新性と優位性を数学的観点から詳細に解説したものである。拡散モデルは複数の単語を同時生成し、既生成テキストの改良が可能で、より...