ゲノム編集

AGI・ASI

AI科学者がトムに警告:超知能が我々を殺す…それも間もなく | ローマン・ヤンポルスキー博士

この動画は、AI安全性研究の第一人者であるローマン・ヤンポルスキー博士が、超知能による人類絶滅の可能性について警鐘を鳴らす内容である。博士は超知能が人類を滅ぼす確率を極めて高いと評価し、AGIが2027年頃に到達する可能性を示唆する。現在の...