AI整合性問題

Anthropic・Claude・ダリオアモデイ

ほとんど想像を絶する力 – Anthropic創業者が語るAIの思春期と人類の試練

AnthropicのCEO兼創業者であるDario Amodeiが最新のブログ投稿「技術の思春期」を公開した。これは以前の「慈愛の機械」の続編であり、AGIと超知能がもたらす潜在的なリスクに焦点を当てている。Darioは1〜2年以内にノーベ...
AIアライメント・安全性

準備できる時間はあと2年しか残されていない – ローマン・ヤンポルスキー博士

本動画は、AI安全性研究の第一人者であるローマン・ヤンポルスキー教授へのインタビューである。教授は「AI安全性」という用語の創始者であり、10年以上にわたって研究を続けてきた。彼の主張は明確かつ衝撃的である。制御不能な超知能が誕生すれば、そ...
AI競争

中国と中東におけるAGI地政学 | Helen Toner(ワシントンDC、CSET局長)

本動画は、ワシントンDCを拠点とする新興技術安全保障センター(CSET)の暫定事務局長であるHelen Tonerへのインタビューである。2023年にOpenAI取締役会でサム・アルトマンCEOの解任に投票したことで知られる彼女が、AI地政...
シンギュラリティ・知能爆発・レイカーツワイル

オックスフォード大学のAI研究主任:「シンギュラリティはでたらめだ」

オックスフォード大学のAI研究者が、シンギュラリティ(技術的特異点)の概念に対して批判的な見解を示している。機械が人間並みの知能を獲得し、自己改良を繰り返して制御不能になるという物語は、SF映画のプロットとしては魅力的だが、技術的には深く疑...
AIアライメント・安全性

もし誰かがそれを作れば、全員が死ぬ

本動画は、高いP doom(破滅確率)を持つAI安全性研究者ロン・シャピによる、超知能AIがもたらす実存的リスクについての詳細な議論である。シャピは2050年までに50%の確率で人類が絶滅する可能性を主張し、その根拠として、現在の技術では超...