不確実性

歴史

ハラリ:2026年に安全という幻想を破壊する真実

歴史家ユヴァル・ノア・ハラリの視点から、現代社会が抱える安全性の幻想とその崩壊について論じる。人類は長い歴史の中で、農業革命から産業革命、そしてデジタル革命を経て、かつてない安定と予測可能性を手に入れたかのように見える。しかし、それは歴史上...
AI研究

あなたの質問に答えます:因果的世界モデルを持つAI?

この動画は、単純な予測モデルを超えた因果的世界モデルを持つ社会認識人工知能の構築について解説している。物理エンジン、社会エンジン、感情エンジンという3つの専門化された「脳」を持つAIシステムの設計手法を説明し、因子化潜在状態という概念を用い...
AIハルシネーション・幻覚

OpenAIがついに幻覚を解決…

OpenAIが発表した新しい論文が、大規模言語モデルがなぜ幻覚を起こすのかという根本的な問題を解明している。この研究では、AIモデルの幻覚は本質的な欠陥ではなく、むしろ人間の試験戦略と同様の合理的な行動であることが示されている。学生が試験で...
AIハルシネーション・幻覚

なぜ言語モデルは幻覚を起こすのか(2025年9月)

この動画は言語モデルのハルシネーション(幻覚)問題について2025年9月時点での最新の研究論文を詳細に解説している。従来ハルシネーションはAIの謎めいたバグと考えられてきたが、実際には統計学習の仕組みと現在の評価システムが生み出す予測可能な...
LLM・言語モデル

なぜLLMはハルシネーションを起こすのか(そしてそれを止める方法)

本動画では、現代の大規模言語モデル(LLM)におけるハルシネーション(幻覚)問題について、OpenAIの最新研究論文を基に詳細な解説を行う。ハルシネーションが発生する根本原因は、モデルの訓練と評価方法にあり、現在の精度ベースの評価システムが...
哲学・思想

自己認識の代償

この動画は、表面的な社会構造や慣習の裏に隠された現実に気づいてしまった人の心境を描いた実存主義的な考察である。話者は、集団的な否認によって成り立つ「壮大な幻想」から目覚めてしまった時の苦悩と、その後の受容の過程を関西弁で語る。スピリチュアル...
AI研究

AI脳流出:重要な判断をChatGPTに外注するのはやめよう

MITの研究でAIが人間の思考力を奪うという結果が話題となった中、多くの人がChatGPTに重要な決断を丸投げしている現状を批判し、AIを単なる答え検索ツールとしてではなく分析パートナーとして活用する重要性を解説する動画である。特に金融分野...