意識とクオリア

AIアライメント・安全性

準備できる時間はあと2年しか残されていない – ローマン・ヤンポルスキー博士

本動画は、AI安全性研究の第一人者であるローマン・ヤンポルスキー教授へのインタビューである。教授は「AI安全性」という用語の創始者であり、10年以上にわたって研究を続けてきた。彼の主張は明確かつ衝撃的である。制御不能な超知能が誕生すれば、そ...
AGI・ASI

AI科学者がトムに警告:超知能が我々を殺す…それも間もなく | ローマン・ヤンポルスキー博士

この動画は、AI安全性研究の第一人者であるローマン・ヤンポルスキー博士が、超知能による人類絶滅の可能性について警鐘を鳴らす内容である。博士は超知能が人類を滅ぼす確率を極めて高いと評価し、AGIが2027年頃に到達する可能性を示唆する。現在の...