カルチャーシリーズ

AGI・ASI

AGIはどこまで良くなりうるのか

本動画は、AGIやASIが人類の支配権を奪った場合に最良の結果が得られる可能性について探求する思考実験である。従来のAI安全性議論では人間が常に制御を保持すべきとされてきたが、果たしてそれが最適解なのか。ニック・ボストロムをはじめとする悲観...
LLM・言語モデル

LLMは効率的ではないが、AGIには十分である

本動画は、大規模言語モデル(LLM)の本質を「大規模圧縮モデル」として再定義し、すべての知能を「情報、問題空間、目標」という3つの要素に還元して解説している。事前学習されたモデルは圧縮された情報であり、特定の問題空間に配置され、目標達成のた...