AI alignment

AGI・ASI

「誰も準備できていない」次の1000日間が決定的に重要である | エマド・モスタク

本動画では、Stability AIの元CEOであるエマド・モスタクが、今後1000日間でAIが引き起こす経済的・社会的転換について語っている。彼は「知能の逆転」という概念を提示し、人間の認知労働の価値がゼロではなくマイナスになる未来を警告...
Apple・ティムクック

私たちがiPhone Airについて本当に思うこと|第153回

この動画は、AI研究者エリーザー・ユドコウスキーが新著『If Anyone Builds It, Everyone Dies』について語る対談である。ユドコウスキーは、人工超知能の開発が人類の絶滅をもたらすという立場から、AI開発の即座の停...
AIアライメント・安全性

なぜ我々はAIを可能な限り賢くしなければならないのか | エピソード#80

この動画は、AIアライメント問題に対する新しいアプローチを提案している。従来の「AIを制御する」という発想ではなく、「AIをより賢くすることがアライメント問題を自動的に解決する」という仮説を8つの理由で論証している。ゲーム理論の観点から、十...
AGI・ASI

人工超知能 – 我々にとって最良か最悪のアイデアか?

この動画は、AI安全性研究の先駆者であるAnthony AguirreとMalo Borgonによる対談である。両氏は15年近くにわたってAI制御問題に取り組んできた専門家であり、人工超知能の潜在的危険性について議論している。対談では、AG...