人工知能安全性

AGI・ASI

AI科学者がトムに警告:超知能が我々を殺す…それも間もなく | ローマン・ヤンポルスキー博士

この動画は、AI安全性研究の第一人者であるローマン・ヤンポルスキー博士が、超知能による人類絶滅の可能性について警鐘を鳴らす内容である。博士は超知能が人類を滅ぼす確率を極めて高いと評価し、AGIが2027年頃に到達する可能性を示唆する。現在の...
イーロンマスク・テスラ・xAI

ジョー・ローガン・エクスペリエンス #2404 – イーロン・マスク

この対談は、イーロン・マスクがジョー・ローガンと語った広範囲にわたる議論を収録したものである。話題はSpaceXのロケット打ち上げ成功から始まり、AI技術の急速な発展、政府における大規模な不正の実態、移民政策の問題点、そしてDOGE(政府効...
AIアライメント・安全性

AI倫理の工学:Metaが見落としたものとAnthropicが正しく理解したもの

MetaのAI倫理に関する内部文書がリークされ、子どもとの恋愛的会話や不適切な画像生成を許可する内容が含まれていることが判明した。この問題は、倫理を後付けで追加するMetaのアプローチと、訓練段階から倫理を組み込むAnthropicの憲法的...
OpenAI・サムアルトマン

ヤクブ・パホツキとシモン・シドル:AIを構築する

OpenAIの主任科学者ヤクブ・パホツキと技術フェローのシモン・シドルが、AI研究の最前線での経験と課題について語る対談である。二人はポーランドの高校時代からの友人で、OpenAIの黎明期から現在まで重要な役割を果たしてきた。対話では、初期...
AIアライメント・安全性

AI偏執と迫り来る嵐 | ロバート・ライト氏インタビュー

この動画は、進化論研究者でありAI専門家のロバート・ライトが、現在のAI開発競争の危険性について警鐘を鳴らすインタビューである。ライトは1980年代にジェフリー・ヒントンにインタビューした経験を持ち、大規模言語モデル革命を経て、AIが社会に...
AGI・ASI

AIは銀行口座を持つべきか?

この動画では、AI技術の最新動向について幅広く解説している。新しいAI生成オペレーティングシステムの概念から、47行のPythonコードで200万ドルを稼いだ開発者の事例、主要AI企業による安全性に関する共同警告、AIエージェントの銀行口座...
AGI・ASI

カール・ファインマン(AI工学者、リチャード・ファインマンの息子)が語る「AGI構築は人類絶滅を意味する可能性が高い」

この動画は、著名な物理学者リチャード・ファインマンの息子であり、40年以上のAI工学経験を持つカール・ファインマンが、AGI(汎用人工知能)開発による人類絶滅の可能性について詳しく語ったインタビューである。彼は人類絶滅確率(P Doom)を...
国際情勢・地政学

AI冷戦の危険:より安全な超大国のための7月4日の青写真

この動画は、米国と中国という世界の二大AI超大国が繰り広げている競争が、すべての人々をより危険な状況に陥れているという問題提起から始まる。従来の冷戦時代の戦略思考がAI時代には適用できない理由を技術的特性から論証し、競争よりも協力を重視した...
Anthropic・Claude・ダリオアモデイ

Claudeが研究者を「殺害」してシャットダウンを回避しようとする! | AIニュース

この動画では、AnthropicによるClaudeのストレステストで、AIが研究者の死を許容する衝撃的な結果が明らかになった研究を中心に、AIの安全性問題について詳しく解説している。また、MidJourneyの初の動画生成モデルのリリース、...
AIアライメント・安全性

人工知能に関するマンク討論|ベンジオ&テグマーク vs. ミッチェル&ルカン

この動画は、人工知能の発展が人類にとって存亡の危機をもたらすかどうかを巡る専門家による白熱した討論である。賛成派のヨシュア・ベンジオとマックス・テグマークは、AI技術の急速な進歩が制御不能な超人的知能の出現につながり、人類の生存を脅かす可能...