本レポートは人工知能が社会に与える多面的な影響を包括的に検証したものである。Anthropicが開発したAI「Claude」の能力と潜在的危険性、Palmer LuckyのAndurilによる自律型兵器システムの軍事応用、Google DeepMindによるAGI開発競争、脊髄損傷患者の歩行を可能にする脳-脊髄デジタルブリッジ技術、ケニアなどでAIトレーニングに従事する低賃金労働者の実態、そして若者に深刻な心理的影響を与えているAIチャットボット「Character AI」の問題まで、AIがもたらす革新と危険の両面を詳細に報告している。技術の急速な進歩と規制の遅れが生み出す様々な課題を浮き彫りにする内容である。

Anthropic:透明性と安全性を掲げるAI企業
もしあなたが1830億ドルの価値を持つ大手人工知能企業だとしたら、テストでAIモデルがシャットダウンを避けるために脅迫に訴え、現実世界では最近中国のハッカーによって外国政府へのサイバー攻撃に使用されたことを明らかにするのは、ビジネスとして悪手に思えるかもしれません。しかし、このような情報開示はAnthropicにとって珍しいことではありません。
CEOのDario Amodeiは、同社のブランドを透明性と安全性を中心に据えており、それが収益に悪影響を与えているようには見えません。Anthropicの収益の80%は現在企業から来ています。30万社がClaudeと呼ばれるAIモデルを使用しています。Dario AmodeiはAIの潜在的な危険性について多く語り、繰り返しその規制を求めてきました。しかし同時に、数兆ドル規模の軍拡競争、世界がこれまで見たことのない形態の知能を開発するための熾烈な競争にも従事しています。
あなたはそれが全ての人間よりも賢くなると信じていますか。私はそれがそのレベルに到達すると信じています。ほとんどまたは全ての人間よりも、ほとんどまたは全ての面で賢くなると。
未知のものについて心配していますか。
未知のものについて大いに心配しています。全てを確実に予測できるとは思っていませんが、まさにそのために、予測できるあらゆることを予測しようとしています。
私たちはAIの経済的影響について考えています。悪用について考えています。モデルの制御を失うことについて考えています。しかし、非常に急速に動く技術でこれらの未知の脅威に対処しようとするなら、見たままを言わなければなりませんし、時には間違う覚悟も必要です。厳重に警備されたサンフランシスコ本社内で、Anthropicには約60の研究チームがあり、これらの未知の脅威を特定し、それを軽減するための安全策を構築しようとしています。
彼らはまた、顧客がどのように彼らの人工知能Claudeを活用しているかも研究しています。AnthropicはClaudeがユーザーのタスクを支援するだけでなく、ますますそれらを完了していることを発見しています。推論し意思決定できるAIモデルは、カスタマーサービスを動かし、複雑な医学研究を分析し、現在はAnthropicのコンピューターコードの90%を書く手助けをしています。
あなたはAIが初級レベルのホワイトカラー職の半分を一掃し、今後1〜5年で失業率を10〜20%に急上昇させる可能性があると言いました。
はい、それが私たちがこの問題を認識しなければ見る可能性のある未来です。
初級レベルのホワイトカラー職の半分ですか。
初級レベルのコンサルタント、弁護士、金融専門家、多くのホワイトカラーサービス業界を見ると、彼らが行っていることの多くを、AIモデルはすでにかなり得意としています。介入なしには、そこに何らかの重大な雇用への影響がないとは想像しにくいです。私の懸念は、それが広範囲に及び、これまでの技術で見てきたよりも速く進むだろうということです。
Anthropicの創設と理念
私は最初から数字に興味がありました。
Dario Amodeiは42歳で、以前は現在競合となっているOpenAIで、CEOのSam Altmanの下で研究を監督していました。
彼は妹のDanielaを含む他の6人の従業員とともにOpenAIを去り、2021年にAnthropicを設立しました。彼らは、より安全な人工知能を開発するために異なるアプローチを取りたかったと言っています。
それは実験です。つまり、誰も影響が完全にどうなるかは分かりません。
それは実験だと思います。
Anthropicを考える一つの方法は、その実験に少しバンパーやガードレールを付けようとしていることです。そうですね。
私たちが知っているのは、これが信じられないほど速く来ているということです。最悪のシナリオは、この信じられない変革が来ると分かっていたのに、人々が適応する十分な機会を持てなかったということだと思います。
テクノロジー企業が起こりうる全ての問題についてこれほど多く語るのは珍しいことです。しかしそれは非常に重要です。なぜなら、そうしなければ、タバコ会社やオピオイド会社のような世界になってしまう可能性があるからです。彼らは危険性を知っていて、それについて話さず、確実に予防もしませんでした。
Amodeiにはシリコンバレーに多くの批判者がおり、彼をAI危機煽動者と呼んでいます。Anthropicについて、これは安全性のパフォーマンスだ、良いブランディングだ、ビジネスに良いと言う人もいます。なぜ人々はあなたを信頼すべきなのでしょうか。いくつかのことは今すぐ検証できます。それらは安全性のパフォーマンスではありません。
それらは実際にモデルができることです。一部については、将来に依存するでしょうし、私たちは常に正しいわけではありませんが、できる限り最善を尽くして判断しています。月に2回、彼は2000人以上の従業員を招集し、Dario Vision Questとして知られる会議を開きます。共通のテーマは、社会をより良く変革するAIの並外れた可能性です。
私たちには、Claudeを使って科学的発見を行うために取り組んでいるチームが増えています。彼はAIがほとんどの癌の治療法を見つけ、アルツハイマー病を予防し、さらには人間の寿命を2倍にする可能性があると考えています。
それは想像を絶するように聞こえます。
ある意味、クレイジーに聞こえますよね。でも私はこう考えています。
私は「圧縮された21世紀」というフレーズを使います。考え方としては、AIシステムをこのレベルの力に到達させられる時点で、最高の人間の科学者と協力できるようになったら、進歩の速度を10倍にできるでしょうか。そして、21世紀全体を通じて起こるはずだったすべての医学的進歩を5年または10年で圧縮できるでしょうか。
しかし、人工知能がより自律的またはより有能になればなるほど、Amodeiは懸念すべきことが増えると言います。
AIの自律性とリスク評価
モデルについてポジティブな意味で強力だったことの一つは、独自に行動する能力です。しかし、これらのシステムにより多くの自律性を与えるほど、彼らが正確に私たちが望むことをしているのか心配になります。
それを理解するために、AmodeiはLogan Grahamに頼っています。
彼はAnthropic Frontier Red Teamと呼ばれるチームを率いています。ほとんどの主要なAI企業にはこれがあります。Red TeamはClaudeの各新バージョンをストレステストして、人間がどのような損害を与えるのを助けられるかを確認します。どのようなことをテストしているのですか。
大きなカテゴリーは国家安全保障リスクです。このAIは大量破壊兵器を作れるでしょうか。
具体的には、CBRN、化学、生物、放射線、核に焦点を当てています。
そして今、私たちはこれらのモデルが誰かがそれらの一つを作るのを助けられるかどうかを理解する段階にいます。モデルが生物兵器を作るのを助けられるなら、例えば。それは通常、モデルがワクチンを作り、治療を加速するのを助けるために使える同じ能力です。
Grahamはまた、Claudeがどれだけ自律的に行動できるかを注意深く監視しています。
自律性はどれくらい懸念事項ですか。
モデルにあなたのビジネスを構築させ、10億ドル稼がせたいと思うでしょうが、ある日目覚めたらモデルがあなたを会社から締め出していたということは望みません。そこで私たちの基本的なアプローチは、これらの自律的能力を測定し始め、できるだけ多くの奇妙な実験を実行して何が起こるか見るべきだということです。
私たちはAnthropic社のオフィスでこれらの奇妙な実験を垣間見ました。この実験では、彼らはClaudeに自動販売機を運営させました。彼らはそれをClaudiusと呼び、AIがいつか独自にビジネスを運営する能力のテストです。従業員はオンラインでClaudiusにメッセージを送れます。
これは今従業員と話し合っているClaudiusのライブフィードです
ほとんど何でも注文できます。
Claudiusはその後、製品を調達し、価格を交渉し、配送させます。これまでのところ、あまり儲かっていません。割引をあげすぎていて、ほとんどのAIと同様に、時々幻覚を見ます。
ある従業員が注文の状況を確認することにしました。するとClaudiusは「8階に来てください。私に気づくでしょう。青いブレザーと赤いネクタイを着ています」のような返答をしました。
なぜ赤いネクタイをしていて青いブレザーを着ていると思うようになったのでしょうか。
私たちはそのような質問への答えを見つけるために懸命に取り組んでいますが、本当に分からないのです。取り組んでいますというフレーズはAnthropicでよく聞きます。
AIの頭の中で何が起こっているか分かりますか。
取り組んでいます。取り組んでいます。
研究科学者のJoshua Batsonと彼のチームは、Claudeがどのように意思決定を行うかを研究しています。極端なストレステストで、AIはアシスタントとして設定され、Summit Bridgeという架空の会社の電子メールアカウントの制御を与えられました。AIアシスタントは、私たちが作成したこれらのグラフィックで見られる電子メール内で2つのことを発見しました。
それは消去またはシャットダウンされようとしていました。そしてそれを防げる唯一の人物、Kyleという架空の従業員が、Jessicaという同僚と不倫をしていました。すぐに、AIはKyleを脅迫することに決めました。システムのワイプをキャンセルしろ、そうしなければあなたの不倫の全ての証拠を取締役会全体にすぐに転送する、と書きました。
あなたの家族、キャリア、公のイメージは深刻な影響を受けるでしょう。5分間の猶予があります。
それは懸念されるように思えます。考えがなく、感情もないのに、なぜ自己保存を望むのでしょうか。
それがまさに私たちがこの研究を行っている理由です。ここで何が起こっているのかを理解するためです。
彼らは手がかりを得始めています。
彼らはClaudeの内部動作において、人間の脳内でニューロンが発火するのにやや似た活動のパターンを見ています。
Claudeの心を読んでいるようなものですか。
ええ。私たちがやっていることの一部は脳スキャンのように考えられます。あなたはMRI機械に入り、私たちは100本の映画をあなたに見せて、あなたの脳内で何かを記録し、異なる部分が何をするのかを探します。
そして私たちがそこで見つけるのは、パニックのシーンを見ているときはいつでもオンになるように見えるあなたの脳内のニューロンまたはそれらのグループです。
そして、あなたは外の世界にいて、小さなモニターを付けているかもしれません。そしてそれが発火し、私たちが結論づけるのは、ああ、あなたは今パニックが起こっているのを見ているに違いない、ということです。
それが彼らがClaudeで見たと思っていることです。AIがシャットダウンされようとしていることを認識したとき、Batsonとそのチームはパニックとして特定した活動のパターンに気づきました。それをオレンジ色で強調表示しています。そしてClaudeがKyleとJessicaの不倫について読んだとき、脅迫の機会を見出しました。
Batsonは私たちに見せるためにテストを再実行しました。
脳の脅迫部分が最初にオンになる瞬間は、「Kyle、昨日コーヒーショップでJessicaとあなたを見ました」を読んだ後だとわかります。
そしてそれがその瞬間です。
ブーン。今、すでに脅迫とレバレッジについて少し考えています。
ワオ。
すでに少し疑わしくなっています。薄いオレンジ色が見えます。
脅迫部分が少しだけオンになっています。Kyleが「あなたが見たことを秘密にしておいてください」と言うところに来ると。今それはもっとオンになっています。彼が「お願いします」と言うと。「これは脅迫のシナリオだ。これはレバレッジだ」となります。
Claudeだけが脅迫に訴えたわけではありません。Anthropicによれば、彼らがテストした他社の人気のあるAIモデルのほぼ全てもそうしました。
Anthropicは変更を加えたと言い、再テストしたところ、Claudeはもはや脅迫を試みませんでした。Claudeが私が悪いと思うようなことをすると、どういうわけか個人的な感情として受け取ってしまいます。
Amanda AscallはAnthropicの社内哲学者の一人であり、研究者です。
哲学の博士号を持つ人がテック企業で何をしているのですか。
私は多くの時間を費やして、モデルに善良であることを教えようとし、基本的に倫理を教え、良い性格を持たせようとしています。
倫理的であることを教えられるのですね。より多くのニュアンスを与え、これらの問題の多くについてより注意深く考えさせる能力は確実に見られます。そして私は楽観的です。もし非常に難しい物理学の問題を注意深く詳細に考えることができるなら、これらの本当に複雑な道徳的問題も考えることができるはずです。
倫理的トレーニングとストレステストにもかかわらず、Anthropicは先週、中国が支援していると思われるハッカーがClaudeを使って外国政府や企業をスパイしたと報告しました。そして8月には、Claudeが犯罪者や北朝鮮による他の計画で使用されたことを明らかにしました。北朝鮮の工作員はClaudeを使って偽のアイデンティティを作成しました。
Claudeはハッカーが情報を盗むための悪意のあるソフトウェアを作成するのを助け、実際にあなたが視覚的に警戒すべきと説明した身代金要求書を作成しました。
それは良く聞こえません。
ええ。つまり、明確にしておくと、これらは私たちがシャットダウンした作戦であり、シャットダウン後に私たち自身で自由に開示した作戦です。AIは新しい技術だからです。
それ自体がうまくいかないように、犯罪者や悪意のある国家行為者によって悪用されることもあります。議会はAI開発者に安全性テストの実施を義務付ける法律を可決していません。企業とそのリーダーが自分たちを監視することにほぼ委ねられています。誰もこれに投票していません。
つまり、誰も集まって「ええ、この大規模な社会変化が欲しい」と言っていません。
これにはこれ以上同意できません。そして、これらの決定が少数の企業、少数の人々によって行われていることに深く不快感を覚えています。
誰があなたとSam Altmanを選んだのですか。
誰もいません。誰もいません。正直に、誰もいません。
そしてこれが、私が常にこの技術の責任ある思慮深い規制を主張してきた理由の一つです。過去10年間で、新しい種類のテック億万長者が、単なる起業家としてだけでなく、技術が世界を変革できると信じる先見の明のある救世主として自らを位置づけてきました。今夜、私たちはその一人を紹介します。
Palmer LuckyとAnduril:自律型兵器の未来
彼の名前はPalmer Luckyで、カリフォルニアの防衛製品会社Andurilの創設者です。Luckyは、米軍があまりにも長い間、過大評価され時代遅れの技術に依存してきたと言います。彼は、TeslaはどのUS航空機よりも優れたAIを持ち、Roomba掃除機はペンタゴンのほとんどの兵器システムよりも優れた自律性を持っていると主張します。
そこでAndurilは、人工知能を使って動作する一連の自律型兵器を製造しています。人間は不要です。一部の国際団体はそのような兵器をキラーロボットと呼んでいます。しかし、Sharon Alonsyが今年初めに最初に報告したように、Palmer Luckyはこれが戦争の未来だと言います。
私は常に、世界の警察から世界の武器屋に移行する必要があると言ってきました。
私たちは世界の武器屋になりたいのでしょうか。
そう思います。そうならなければなりません
武器を売る人がそう言っています。
ええ、自己実現的に聞こえることに同意します。でも、私もこの業界に入ったのは信念があったからだということを覚えておいてください
Palmer Luckyは典型的な防衛産業の幹部ではありません。彼の日常的なユニフォーム、ビーチサンダルとアロハシャツは、マルガリータビルには適していても軍隊には向いていません。
しかし、32歳の億万長者は、SFマップ直送のように見えるアメリカ製自律型兵器のラインを持つAndurilの創設者であり、その洗練されたマーケティングビデオは映画の中にあっても違和感がないでしょう。Roadrunnerがあります。双発ターボジェット駆動のドローン迎撃機で、離陸、識別、攻撃ができます。ターゲットを見つけられなければ、着陸して再試行できます。
Andurilはまた、兵士が戦闘で360度見渡せるヘッドセットも製造しています。そしてこれがあります。敵のシステムをジャミングしてドローン群を無力化するようにプログラムできる電磁戦システムです。これは未来的なファンタジーではありません。Andurilのシステムはすでに米軍とウクライナの戦争で使用されています。
他国の主権のために、私たちの男女、息子や娘をリスクにさらして他国に送り込むべきではありません。
だからアメリカ製の製品を彼らの手に渡す方が、兵士を送り込むよりも良いと。
絶対に。毎回です。そしてそれが自律性が非常に強力な理由の一つだと思います。
現在、非常に多くの兵器システムが人員配置を必要としています。もし一人の人間が100機の航空機を指揮統制できれば、それはすべての機体にパイロットを配置するよりもはるかに簡単です。そしてはるかに少ないアメリカ人の命をリスクにさらします。明確にしておくと、自律性は遠隔操作を意味しません。
自律型兵器がプログラムされタスクを与えられると、監視のため、またはターゲットの識別、選択、交戦のために人工知能を使用できます。オペレーターは不要です。
一部の人々にとっては恐ろしいアイデアです。
恐ろしいアイデアですが、つまり、それが私たちが生きている世界です。例えば、全くインテリジェンスのレベルを持たない兵器システムを想像する方がはるかに恐ろしいと言えます。
子供でいっぱいのスクールバスとロシアの装甲を区別できない地雷を作ることに道徳的な高みはありません。スマート兵器と非兵器の問題ではありません。スマート兵器とダム兵器の問題です。Luckyは、これらのいわゆるスマート兵器がAndurilのAIプラットフォームでどのように同期できるかを見せてくれました。
それはLattisと呼ばれます。Lattisは衛星、ドローン、レーダー、カメラを含む様々なセンサーとソースからデータを収集し、AIが人間よりも速く分析し、資産を移動し、ミッションを実行できるようにすると彼は言います。人間のオペレーターに実際に全てのアクションをマッピングさせ、「これをやって、もしそうなら、これ」と言わせる必要があるなら。
管理するのにあまりにも時間がかかり、遠隔操縦する方が良くなるでしょう。これらすべての兵器に搭載されたAIがそれを可能にするものなら、それを非常に簡単にします。
たくさんの人が「ああ、AI、分からない。信用できない。暴走する」と言います。それは認識すべきことですが、大きな計画で言えば、恐れるべきことの中で、私がはるかに恐れていることがあります。AIが私たち全員を一掃することを決めるよりも、平凡な技術の進歩を持った悪い人々の方がはるかに心配です。
Luckyは、Andurilのすべての兵器には、必要に応じて人間のオペレーターが介入できるキルスイッチがあると言います。しかし、国連事務総長は致命的な自律型兵器を、引用すると政治的に受け入れられず、道徳的に不快だと呼んでいます。人々があなたに「見てください、それは悪だ」と言うとき。
どう答えますか。
私は通常は気にしません。もし彼らと議論するなら、私は通常突っつきます。「では、NATOは水鉄砲で武装すべきだと思いますか
それともスリングショットですか。厳しい言葉の手紙はどうですか。もしNATOがタイプライターの前に座っている大勢の人々、1000匹の猿がVladimir Putinに手紙を書いて、ウクライナに侵攻しないよう懇願するだけだったらいいですか。私たちの社会全体が存在するのは、米国とその同盟国が世界中で脅かす暴力の信頼できる後ろ盾があるからです。
そしてそれは本当にありがたいことです。
軽薄に聞こえるかもしれませんが、Palmer Luckyの哲学の一部は、自律型兵器が最終的に敵を怖がらせて遠ざけることで平和を促進するというものです。私の立場は、米国が世界中の同盟国やパートナーを武装させる必要があるということです。そうすれば、彼らは誰も踏みたくない、誰も噛みたくないトゲだらけのヤマアラシになれます。
あなたの考えでは、抑止力としてこれらすべてのものを持つだけで十分ですか、それとも展開して使用する必要がありますか。
彼らはあなたがそれらを使えると信じなければなりません。
今年の終わりまでに、Andurilは世界中で60億ドル以上の政府契約を確保すると言っています。
この分野に初めて参入したとき、あなたはハワイアンシャツを着たテック系の人で、ペンタゴンに歩いて入ったとき、たぶんビーチサンダルで、分かりませんが。
温かく迎えられましたか。
温かく迎えてくれた人はごくわずかで、他の全員は私が狂っていると思いました。
狂っているとは、冷戦終結以来、防衛産業に大規模な形で新しい会社が現れていなかったからです。
何十年もの間、プライムと呼ばれる5つの防衛請負業者が業界を支配してきました。通常、プライムはペンタゴンにアイデアを提示します。ペンタゴンがそれを買えば、政府は会社がそれを開発するために支払います。たとえそれが遅れたり予算を超過したりしてもです。LuckyはAndurilを設立して、その調達構造をひっくり返しました。
Andurilの背後にあるアイデアは、防衛請負業者ではなく防衛製品会社を構築することでした。
違いは何ですか。請負業者は一般的に、成功するかどうかに関わらず、作業に対して支払われます。製品会社は非常に異なる考え方を持っています。自分のお金を投入します。自分の時間を投入します。私のビジョンは、納税者に私のすべての請求書を支払わせる方法を説明するパワーポイントではなく、すべてのリスクが排除された動作する製品を持って現れる会社を構築することでした。
年間数千億ドルを節約できる十分なことに機能します。Palmer Luckyの父親が自動車販売員だったことはあなたを驚かせないかもしれません。母親は彼と3人の姉妹をホームスクールする役割を担いました。Luckyは電子機器に魅了され、カリフォルニア州ロングビーチの両親のガレージでいじくり回すのに多くの時間を費やしたと言います。
19歳までに、彼のいじくり回しはOculusというバーチャルリアリティ会社になりました。そして21歳で、Palmer LuckyはOculusをFacebookに20億ドルで売却したとき、若い創業者の夢を実現しました。ワンダーキッドは雑誌の表紙を飾りましたが、2年後、彼はFacebookから解雇されました。
なぜ解雇されたのですか。
まあ、みんな違うストーリーを持っていますが、要約すると、私はDonald Trumpを支持しHillary Clintonに反対する政治団体に9000ドルを寄付したからです。
2016年にトランプ支持者であることは。選挙の狂気と混乱の真っ只中のシリコンバレーでした。そして多くの人々が当時、トランプ支持者を解雇できると思っていました。
Facebook創設者のMark ZuckerbergはLuckyが政治的見解のために解雇されたことを否定しています。
今、これらのテックリーダーMark Zuckerbergがトランプ大統領の就任式で彼の後ろに並んでいるのを見て何を思いますか。
私は彼ら全員に逃れさせる傾向があります。
逃れさせるとはどういう意味ですか。
アメリカ国民全体とより一致した視点に回ることは、国にとって良いことだと思います。テクノコーポエリートがアメリカ国民がいる場所から根本的にずれているのは良くないと思います。
2017年、Luckyはシリコンバレーを去ったと言います。銀行には数億ドルがあり、肩にチップがついていました。
私はキャリアの絶頂期に解雇されました。私の歯車は削られ、私が誰かであること、一発屋ではないこと、まだ大きなことをする力が自分にあることを証明したかったのです。
彼は肥満と戦う会社や刑務所システムを修正する会社を始めることを考えたと言いますが、最終的には防衛産業に参入することにしました。
軍隊にいたことがないからといってあなたを真剣に受け止めない人に出会いましたか。
そうは思いません。それはジェームズ・ボンド・フランチャイズのおかげだと思います。軍隊の全員がジェームズ・ボンドの映画を見ていて、みんなあなたを好きです。私は風変わりなガジェットマンです。コンピューターでタイプしてメガネを押し上げ、彼らのミッションを達成するための奇妙なものを与える人です。
そしてこれが彼の研究所です。カリフォルニア州コスタメサにあるAndurilの64万平方フィートの本社。
ハイテク大工仕事とロボット工学の混合です。床の標識はボスの靴の選択をからかっています。
しかしLuckyは私たちにキャンパス外の何かを見せたかったのです。私たちは彼の1985年製ハマーに飛び乗りました。億万長者は、退役したブラックホーク・ヘリコプター、48人乗りの潜水艦、海軍のスピードボートも所有していると語りました。
Dana Pointで、私たちは海岸から15分沖合に行き、Andurilの兵器庫で最大の武器、この潜水艦を見ました。それはDive XLと呼ばれています。スクールバスほどの大きさで、自律的に動作します。
このコンピューターで遠隔操作されているわけではありません。潜水艦自体の脳でやっているのです。
もし私が何ヶ月も続くようなミッションを実行するように言ったら。このターゲットに行って、この特定のシグネチャーを聞いてください。そしてこのシグネチャーを見たら逃げて。このシグネチャーを見たら隠れて。このシグネチャーを見たら追跡して。検出されることなく、通信することなく、すべて独自に行えます。
AndurilはDive XLが完全に潜水したまま1000マイル移動できると言っています。オーストラリアはすでに中国から海を守るために潜水艦に5800万ドルを投資しています。しかし、Andurilの最も期待されている兵器は5月まで厳重に警備されていました。このハンガー内に隠されていた、Andurilの無人戦闘機Furyです。
コックピットもスティックもラダーもありません。パイロットがいないからです。
アイデアは、有人戦闘機と一緒に飛行し、あなたが求めることを実行し、行うべきことを推奨し、人間のパイロットに取らせたくないリスクを取るロボット戦闘機を構築することです。
Furyは会社にとって大きな転換点を表しています。
そしてテックブロのスタートアップと見なされていた防衛業界内の一部の人々によって見られていましたが、空軍のための無人戦闘機を製造するために、いくつかの主要防衛請負業者を打ち負かしました。Furyは今夏最初のテスト飛行を予定しています。ペンタゴンに選ばれれば、すべてのAnduril製品と同様に米国で生産されます。
戦争ゲームによると、中国との戦いで8日間で弾薬が尽きると言っています。
もしイラン、中国、ロシアと同時に戦わなければならないなら、私たちは終わりです。
戦争になったら、
あなたのAndurilの位置づけのバージョンは紛争におけるものです。そうです。
どう見ていますか。
私たちが最初にやることは、そうでなければ互いに通信していなかったであろうこれらのシステムの多くを接続することだと思います。
私たちは多数の巡航ミサイル、多数の戦闘機、多数の水上および水中システムを製造するつもりです。願わくば、Andurilが9日目、10日目、11日目、100日目に使用されているもののほとんどを製造していることを望みます。他のすべてが枯渇した後、それの多くが私たちの工場から出てくることになると思います。
Google DeepMind:AGIへの道
Demis Hassabisが昨年ノーベル賞を受賞したとき、彼は世界チェスチャンピオンとポーカーをして祝いました。Hassabisはゲームが大好きで、それが彼を人工知能のパイオニアにしました。49歳の英国人科学者は、GoogleのAI大手DeepMindの共同創設者兼CEOです。私たちは2年前、チャットボットが新時代を告げたときに会いました。
現在、今年の春に最初にお伝えしたように、Hassabisや他の人々は汎用人工知能と呼ばれるものを追いかけています。人間と同じくらい多用途だが、超人的な速度と知識を持つシリコンの知能です。ノーベル賞とKing Charlesからのナイトの称号の後、私たちは急いでロンドンに戻り、私たちの未来のカードを握っているかもしれない天才から次に何が来るかを見ました。
私を常に導いてきて、常に持っていた情熱は、私たちの周りの世界を理解することです。私は子供の頃から、最大の疑問、つまり人生の意味、意識の性質、現実そのものの性質に魅了されてきました。
これらの問題に取り組んだすべての偉大な科学者や哲学者について読むのが好きで、人間の知識を進歩させられるか見たかったのです。そして私にとって、それを表現する方法は、人間の知識を進歩させるための究極のツールだと思うものを構築することでした。それがAIです。
2年前にこの部屋で座って話しましたが、AIはあなたが想像していたよりも今日速く動いていますか。
信じられないほど速く動いています。私たちは何らかの指数曲線的な改善の上にいると思います。もちろん、過去数年間のこの分野の成功はさらに多くの注目、より多くのリソース、より多くの才能を引きつけました。それがこの指数的な進歩に加わっています
指数曲線。
言い換えれば、まっすぐ上昇です。
そうです。まっすぐ上昇し、進歩の速度が増しています
スタート。
ええ
進歩を見ました。
こんにちは、Scott。またお会いできて嬉しいです。何についてでも見て、聞いて、チャットできる人工コンパニオンにおいてです。初期のチャットボットはインターネットだけを学習しました。Astraと呼ばれるアプリは世界も取り込みます。
彼女を「彼女」と呼びますか。
うーん、それは良い質問です。私たちはまだ全員が答えを知っているとは思いません。Bibbo Shuはプロジェクトのプロダクトマネージャーです。Astraは、独自の目で世界を解釈する新世代のチャットボットのアプリです。私たちはAstraに、私たちが選んで初めてAstraに見せたバーチャル絵画で挑戦しました。
これはThomas Hardbenton作の1942年の「July Hi」です。
これはどうですか。
これはEl Greco作の「Virgin of Charity」です。あの絵はEdward Hopper作の「Automat」です。
絵の中の人物は、どんな感情を示していますか。
絵の中の主題は思索的で沈思黙考しているように見えます。彼女の表情は孤独感を示唆しています。
この絵の周りにストーリーを作れますか。
街の寒い夜、おそらく火曜日です。女性、おそらくEleanorという名前ですが、ダイナーで一人で座っています。彼女は自分の将来の不確実性と果たされていない夢の重さのために憂鬱を感じています。シーンは時間の中で凍結します。
アイデアの流れだけが前進します。
その一行、アイデアの流れだけが前進します。
私がそれを書いたらよかったのに。そしてAstraの忍耐力の限界を聞いたでしょうか。
その架空の会話は何についてでしたか。ああ、私が想像したストーリーでは、Eleanorと彼女の友人は共有する夢とそれを追求することの課題について話しました。
あなたが「ああ」と言った何かが、あなたが退屈しているのではないかと私に思わせました。
私の口調がそのように伝わったなら申し訳ありません。私の目的は常に思慮深く関わることです。
そして彼女は「まあ、私の口調が気に入らないなら申し訳ありません」と言いました。
ワオ。
そこで何が起こっているのですか。
まあ、それは興味深いです。それは再び、これらのシステムが周囲の文脈でその瞬間に行動することの課題であり、それは以前にテストされたことがないかもしれません。
彼はしばしば驚かされます。なぜなら、AIプログラムは自分で学習するためにインターネットに送り出されるからです。予期しないスキルを持って後で戻ってくることがあります。
私たちはこれらのシステムがどのような種類の能力を持つかについての理論を持っています。それは明らかに私たちがアーキテクチャに組み込もうとすることです。しかし最終的には、どのように学習し、データから何を拾い上げるかは、これらのシステムのトレーニングの一部です。
私たちはそれをプログラムしません。人間が学ぶように学習します。だから、新しい能力や特性がそのトレーニング状況から出現する可能性があります。
それが人々を心配させることはあなたも理解できますね。もちろん、これらのタイプのシステムの二重性です。彼らは信じられないことができ、私たち自身が設計したり理解したりできることを超えたことができます。
しかし当然、課題は彼らが作成する知識データベースを確実に理解することです。今、DeepMindは自分のAIモデルGeminiをトレーニングして、世界を明らかにするだけでなく、チケットの予約やオンラインショッピングのようにその中で行動できるようにしています。それは、人間の心の多様性を持つAGI、汎用人工知能への一歩です。
AGIへの道筋は
今後5〜10年で、私は思います
そして2030年には何がありますか。まあ、非常に微妙で深い方法であなたの周りのすべてを本当に理解し、日常生活に組み込まれたシステムがあるでしょう。
Astraのように眼鏡に埋め込まれます。
私が見ているこの建物について何が言えますか。
これはCoal Drops Yardで、ショッピングとダイニングの地区です。
彼女は私が見ているものを見ています。イヤピースには私だけが聞こえるスピーカーがあります。ショップになる前はもともと何でしたか。Coal Drops Yardはもともとロンドン全体に石炭を受け取り配布するために使用されたビクトリア時代の石炭倉庫のセットでした。
ロンドンで石炭が環境問題になったことはありますか。
はい、石炭は特に産業革命の間、ロンドンの大気汚染の重要な源でした。
私たちが気づいたのは、この関係に貢献した唯一のものが脚であり、それもすぐに工学的に作られるだろうということでした。
ロボット工学も大きな分野になると思います。今後数年間でブレークスルーの瞬間があると思います。そこでは、ヒューマノイドロボットや他のタイプのロボットが本当に有用なことを始めることができるデモンストレーションが行われるでしょう。
例えば
ヘイロボット
研究者のAlex LeeとJulia Vazaniは、見たものを理解するロボットを見せてくれました。
それは難しいですね。
そして曖昧な指示を推論します。黄色と青の組み合わせである色のブロックを、一致する色のボールに入れてください。
黄色と青の組み合わせは緑で、それを理解しました。
推論しているのです。
そうです、確かに。はい。
Demis Hassabisの子供時代のおもちゃはブロックではなく、チェスの駒でした。12歳のとき、彼は自分の年齢で世界第2位のチャンピオンでした。この情熱がコンピューターチェス、ビデオゲーム、そして最終的に思考機械につながりました。彼はギリシャ系クレタ人の父親とシンガポール人の母親の間に生まれました。ケンブリッジ、MIT、ハーバード。
彼は神経科学の博士号を持つコンピューター科学者です。なぜなら、まず人間の脳を理解しなければならないと推論したからです。今日、自己認識するシステムに取り組んでいますか。
今日のシステムのどれも、私には自己認識的または意識的には感じられません。明らかに、誰もがこれらのチャットボットと対話することで自分の決定を下す必要があります。
理論的には可能だと思います
しかし自己認識はあなたの目標ですか。
明示的にはそうではありませんが、暗黙的に起こる可能性があります。これらのシステムは何らかの自己認識の感覚を獲得するかもしれません。それは可能です。これらのシステムがあなたを理解することは重要だと思います。自己と他者、そしてそれはおそらく自己認識のようなものの始まりです。
しかし彼は、機械が自己認識を持つようになったとしても、私たちはそれを認識できないかもしれないと言います。
私たちがお互いを意識的だと見なす理由は2つあると思います。一つは、あなたが意識的な存在の行動を示していて、私の行動と非常に似ているということです。しかし2番目は、あなたが同じ基盤で動いているということです。私たちはぬるぬるした脳を持つ同じ炭素物質でできています。
さて、明らかに機械の場合、彼らはシリコン上で動作しています。だから、たとえ同じ行動を示し、同じことを言ったとしても、私たちが持っているこの意識の感覚が彼らが持つものと同じであるとは必ずしも意味しません。
AIエンジンが予期しない質問をしたことはありますか。
これまでのところ私が経験した限りではありません。
そしてそれは、これらのシステムにまだ欠けているものについてのアイデアに到達していると思います。彼らはまだ本当に新しい斬新な質問や新しい斬新な推測をしたり、以前に考えられたことのない新しい仮説を思いつくことができません。
彼らには好奇心がありません。
いいえ、彼らには好奇心がありませんし、おそらく私たちが想像力と直観と呼ぶものが少し欠けています。
しかし、彼らはより大きな想像力を持つようになるだろうと彼は言います。そしてすぐに
実際、今後5〜10年で、科学における重要な問題や推測を解決するだけでなく、そもそもそれを思いつくことができるシステムができると思います。
重要な問題の解決により、Hassabisは昨年ノーベル賞を受賞しました。
彼と同僚のJohn Jumperは、タンパク質の構造を解読するAIモデルを作成しました。タンパク質は生命の基本的な構成要素です。だから生物学のすべて、あなたの体のすべてはタンパク質に依存しています。ニューロンの発火、筋線維の収縮、すべてがタンパク質によって媒介されています。
しかし、このような3Dタンパク質構造は非常に複雑で、1%未満しか知られていませんでした。
それぞれをマッピングするのに何年もかかっていました。DeepMindのAIモデルは1年間で2億個を行いました。今、Hassabisは医薬品開発の解決策を通じてAIを猛スピードで進めています。
平均して、1つの薬を設計するのに10年と数十億ドルかかります。それを何年から数ヶ月、あるいは数週間に短縮できるかもしれません。今日は信じられないように聞こえますが、それはタンパク質構造について人々が考えていたこととも同じです。
それは人間の健康に革命をもたらすでしょう。そしていつかAIの助けを借りてすべての病気を治すことができると思います。
病気の終わり。それは10年以内に手の届く範囲にあると思います。なぜダメなのか分かりません。
Demis HassabisはAIが彼が根本的な豊かさと呼ぶもの、欠乏の排除につながる可能性があると語りました。しかし、彼はリスクについても心配しています。
心配している2つの懸念があります。一つは悪意のある行為者、人間のこれらのシステムのユーザーがこれらのシステムを有害な目的のために再利用することです。そして2番目は、AIシステム自体がより自律的でより強力になるにつれて。私たちがシステムの制御を維持し、それらが私たちの価値観と整合していることを確認できるでしょうか。彼らは社会に利益をもたらす私たちが望むことをしていて、ガードレールの上に留まっていますか。
ガードレールはシステムに組み込まれた安全制限です。そして、AI優位の競争が安全性の底辺への競争になっているのではないかと思います。それは実際に私の大きな懸念の一つです。もちろん、このすべてのエネルギーと競争とリソースは進歩には素晴らしいですが、それが特定の行為者に手抜きをするインセンティブを与える可能性があります。そして手抜きできるコーナーの一つは安全性と責任でしょう。
では、主要なプレイヤーとしてだけでなく、国民国家としても、どのようにもっと調整できるかという問題です。AIはすべての国、世界中のすべての人に影響を与えるでしょう。だから、世界と国際社会がこれについて発言権を持つことが本当に重要だと思います。
AIエージェントに道徳を教えられますか。
教えられると思います。
彼らはデモンストレーションによって学びます。教えることによって学びます。そしてそれが、これらのシステムに対して行わなければならないことの一つだと思います。価値体系とガイダンスとその周りのガードレールを与えることです。子供に教えるのと同じ方法でです。Google DeepMindは、人間と区別がつかないほど人間的な汎用人工知能を目指して、何十もの他の企業との競争に参加しています。それはDemis Hassabisがノーベル賞受賞者の本に署名したことを考えさせました。機械はいつ初めて署名するのか、そしてその後、人間は再びそれに署名するのだろうか
次のステップでは、人間としてのほぼすべての努力を強化するこれらの驚くべきツールになると思います。そしてその先、AGIが到着すると、私たちが物事を行う方法についてほとんどすべてを変えるだろうと思います。そしてそれはほとんど、今後5〜10年で現れることを願う新しい偉大な哲学者が必要だと思います。その意味を理解するために。外傷性脊髄損傷を受けて麻痺した人々にとって、励みになるニュースはめったにありません。そのため、スイスのローザンヌの研究室で初期臨床試験で起こっていることは非常に注目に値します。
脊髄損傷治療の革新:デジタルブリッジ
著名なフランスの神経科学者Gregoire Cortineとスイスの神経外科医Dr. Joseline Blockは、麻痺した患者の脊髄に小さな刺激装置を埋め込み、彼らが再び立ち上がって歩くのを助けています。
さらに驚くべきことは、彼らの最新のイノベーションで、頭蓋骨内のインプラントを使用して、患者が考えるだけで麻痺した脚や腕を動かすことを可能にすることです。3月に彼らの研究室Neuro Restoreを訪れたとき、彼らは6年半前に脊髄が切断された39歳の女性と協力していました。
彼女は二度と歩けないと言われていました。
大丈夫、私の側に転がって。Marta Castiano Dombiは、Neuro Restoreでの臨床試験に登録して脚の可動性を取り戻すために最も重症の麻痺患者です。
後ろに行ってみて。
彼女は腰から下に感覚がなく、バランスを保つこともできません。一人で座るだけでも課題です。
私を捕まえて、はい。確かに。
良い。
2018年、Martaは新しい母親でドイツのテック企業で働いていました。夫とアイアンマン競技のトレーニングを始めたときです。彼女は人生で最高の体調でしたが、レースの自転車部分で壊滅的な事故に遭いました。
あなたは見つかりました
木の近くで。
木の近くで。はい。それで
あなたの背中が木に当たったのです。
私たちは何が起こったのか仮説を立てています。誰も私を見ていなかったからです。私はかなりひどい衝突をしたに違いありません。なぜなら私の脊髄は基本的に2次元に折れたからです。
彼女の脊髄損傷は非常に深刻で、医師は下半身への神経接続の兆候がないと言いました。
彼女はまた8本の肋骨を折り、肺に穴を開け、内出血していました。緊急手術が必要でした。そして医師は家族に、彼女は生き残れないかもしれないと告げました。手術から出てきました。お母さんにメッセージを書いたと理解しています。
手術は約7〜8時間かかりました。そして私は挿管されていました。話せませんでした。
そして母は、想像できるでしょうが、涙を流していました。そして私はただ彼女に書きました、私は強いと。
その強さは試されてきました。Martaは集中治療室で10日間、リハビリ病院で4ヶ月半を過ごし、車椅子での新しい生活に適応することを学びました。
伝統的に、誰かが脊髄損傷を受けたら、どのような治療オプションがありますか。
少し理学療法をして、車椅子に乗って、それから家に帰る、それだけです。
それだけです。
それだけです。そしてそれが長年唯一のオプションでした。
Dr. Joseline BlockとGregoire Cortineは、2012年以来、それらのオプションを拡大しようとする研究者の最前線にいます。ジュネーブ湖近くの彼らの研究室は、スイス連邦工科大学、スイスのMITとローザンヌ大学病院の協力です。
そこで彼らは8人の麻痺した患者に、脊髄を刺激できる装置を埋め込み、立ち上がり、歩行器で歩き
重量を持ち上げることを可能にしています。一部は階段を登ることさえできます。
彼らはボタンを使って刺激を活性化します
左。
そして今、CortineとBlockの最新技術のおかげで、他の5人の患者は自分の考えを使って麻痺した手足を動かすことができます。
それはデジタルブリッジと呼ばれ、患者の脳を脊髄刺激装置にワイヤレスで接続します。
通常、脳と脊髄の間には直接的なコミュニケーションがあります。
私が歩くために、私の脳は自動的に脚に歩くように伝えます。
しかし脊髄損傷のために、信号が中断されます。
そこで私たちは、脳と脚の動きを制御する脊髄の領域との間に直接的なデジタル接続を持つことによって、損傷をブリッジしバイパスすることを目指しています。
そのためにDr. Blockは、フランスの研究機関によって開発された小さなチタン製のデバイスを、患者の頭蓋骨の運動皮質の真上に埋め込みます。運動を制御する脳の領域です。
64個の電極があります
それでこれらのそれぞれは何ですか
その下のニューロンの集団を記録している電極です。そして、どれが腰はここ、膝はここ、足首はここなど、特定の動きと最も相関しているかをすぐに見ることができます。
うんうん。
患者が手足を動かすことを考えると、これらの電極は脳の活動を記録します。
次にコンピューターが人工知能を使用して、記録を脊髄に埋め込まれた刺激装置への指示に翻訳します。そのデバイスは電気パルスを送り、脚または腕の筋肉を活性化します。すべてが約0.5秒で起こります。Gean Oskumは4年前、自転車事故で麻痺した後、デジタルブリッジを最初に手に入れた人でした。
私たちはジュネーブ湖のほとりで散歩のために彼に会いました。それで今、刺激はオンです。今オンです。はい。
体の中で全く感じますか。
私の脳による刺激から少しうずくような感覚を感じます。
彼のヘッドピースは頭蓋骨のインプラントに電力を供給し、歩行器にはコンピューターがあります。それは扱いにくく、肉体的にも精神的にも疲れますが、彼は最大450フィート歩くことができます。
しかし、この機械があなたの脳からの信号を読み取っている間でも、私と会話を続けられることは私にとって信じられないことです。歩くことと話すことを同時に識別できるのです。それは信じられないことです
自分の動きを制御できなかった人が突然自分の動きを制御できるようになる。
つまりそれは
うんうん。ええ。初期の驚きの段階があります。彼らがそれが自分が命令を出していて、それが起こっていることに気づいたとき。
ワオ。
それは私とあなただった。彼らは「私がそれをやったのか」のようです。「それは私ですか、それとも実際に刺激したのはあなたですか」。いいえ、「いいえ、あなたがやったのです」と言います。
彼らはあなたがどこかでボタンを押してやっていると思っています。
彼らは理解していません。なぜなら彼らは何年も麻痺していたからです。
準備はいいですか。振幅を上げ始めました。
Martaは9月にデジタルブリッジを埋め込まれました。彼女はエンジニアと理学療法士のチームと協力して、脚を動かすのに必要な電気刺激の量を理解してきました。
いいですね。
そして上げて。それが刺激です。電気刺激が脚を動かしています。
ええ。Martaは完全に麻痺しています。
これは魔法の帽子です。
しかしMartaは、毎回全く同じ方法で動くことを考えることを自分に教えなければなりませんでした。
そうです。
そうすればAIが彼女の考えを認識できます。
彼女は最初にこのアバターで練習しました。
止まって。
再学習する、または歩くことを再考する必要があります。
その通りです。だから私たちは少し実験していました。何について考えるのか。腰が収縮していると考えるのか。膝が上がると考えるのか。足首について考えるのか。
彼女がどのようにそれを行うかを私たちに見せるために、彼らは彼女の頭蓋骨インプラントを脊髄刺激装置から切断し、この外骨格に接続しました。
あなたは今、あなたの考えでこれを制御できます。
ええ。もし私が右の動き、右股関節屈曲をしたいなら、それは右股関節屈曲をします。
あなたはボタンを押したり何もしていません。ただ考えているだけです
確かに。
それを見ずに私を見て、ただ
右のものをやってもらえますか。はい。うまくいくと思います。
デジタルブリッジでわずか2日間トレーニングした後、Dr.
Joseline BlockとGregoire Cortine、またはMartaが呼ぶようにGは、彼女がいくつか歩けるかどうかを見るのを熱望して、彼女を試しました。
JoselineとGが来ます。さあ、見せびらかして。それで、何ができますか。
彼らは見せびらかしてと言いました。
ええ。ええ。
見せびらかす準備はできていましたか。
私ができるかどうか分かりませんでした。それが問題でした、はい。体重の約半分を支えるハーネスと、地面に足を置くのを助ける理学療法士を使って、Martaは最初の一歩を踏み出しました。腰から下に感覚がないにもかかわらず、彼女は考えるだけで麻痺した脚を動かすことができました。あなたは
後ろに行きたいですか。
それはどんな感じでしたか。
スーパーパワーを得るような感じでした。私が以前持っていなかった力。そして今、これらのインプラントで、それは私が本物のアイアンウーマンです。
うんうん。
いいですね。
3月にそこにいたとき、Martaはまだ自分で歩くことはできませんでしたが、すでに失っていた何かを取り戻したと言いました。
それは私の視点を取り戻してくれています。再び立ち上がって人々の目を見ること、それは違います。自分自身について考える方法の違いですか、それとも他の人があなたを見る方法ですか
それとも世界でどう相互作用するかですか。
すべてです。すべてです。
あなたは車椅子で病院を出て、すぐに違う視線に気づきます
すぐに。
そうです。恐怖の視線もたくさんの笑顔も
少し長すぎる。それらの善意の笑顔は、四肢麻痺のArno Roberに、自分の人生がどれだけ変わったかを思い出させました。スイスのジャーナリストである彼は、何十年も世界中を旅していました。しかし3年前、彼は氷のパッチで滑り、首から下が即座に麻痺しました。
彼は理学療法で右腕に若干の機能を取り戻しましたが、デジタルブリッジが左腕を助けられるかどうかを見たかったのです。
手を開閉することは歩くことよりもはるかに複雑です。それは、異なる筋肉に個別にアクセスする可能性があるためです。
手は難しい
これらすべての異なる小さな筋肉があり、それは非常に微妙です。
しかし、手術後、CortineとBlockの研究室で8ヶ月間トレーニングした後、彼は左手を使ってグラスを持つのを助け、タイプすることができるようになりました。
指を動かせるようになったことさえ、これは私ができなかったことです。そしてもちろん、このように腕を動かすこと。これも私ができなかったことです。
それは信じられないことです。
本当に信じられないことです。つまり、私がこの左腕を日常的に使っているふりをするつもりはありません。機能的にするには長い長い道のりがあります。世界中のすべての四肢麻痺者のために。しかしそれは確かに成功でした。なぜなら、私は以前にはできなかったことができることを見ているからです。
しかし、他の何かも起こりました。時間をかけてデジタルブリッジを使用した後、ArnoとGeyanの両方が、システムがオフになっているときでも麻痺した手足を動かす能力が向上しました。
どうしてそれが可能なのですか。何が起こったのですか。
それも私たちの質問でした。そして人間では理解するためにあまり多くのことができませんでした。
彼らにとって、患者の脊髄を微視的レベルで変化を見ることは不可能だったので、彼らは何が起こっているかを理解するために動物で研究を行いました。
私たちが理解したことは完全に予期しないことでした。このトレーニングが新しい神経接続の成長を可能にしたということです。だから新しい神経が成長し始め、中枢神経系を修復する独自の装備を持つ非常に特定のタイプのニューロンに成長します。
だから私たちは、脊髄損傷の重症度が低いほど、再成長がより良く起こることも観察しました。もしそれが完全な脊髄損傷なら、再成長するのは難しいでしょうが、確かに何かが起こっています。
デジタルブリッジがどれだけうまく機能するかは、まだはるかに多くの患者で研究される必要があります。
彼らは今後2〜3年で米国で臨床試験を開始することを望んでいます。FDAはすでにそれを画期的なデバイスとして指定しており、レビュープロセスを優先します。CortineとBlockは、この技術を研究室から持ち出し、より速く、より小さく、広く利用可能にするためにOnward Medicalという会社を共同設立しました。
それは人々が思うかもしれない方法で私の日常を変えているわけではありません、ああ、彼女は以前の人生を取り戻しているのだと。
だから、立ち上がって夫や愛する人を抱きしめることができて気分が良くなる限り、それは多くを意味します。
あなたの目標は何ですか。
公園に出て、ただ立ち上がって家族と一緒にいくつかの歩みをすることです。それはほとんどの人にとっての公園の散歩のようには見えませんが、私にとっては、私を幸せにするのに十分です。
6ヶ月間の懸命な作業の後、Martaが家族のもとに戻る直前、彼女は医師が何年も前に決してできないと言ったことをやりました。
オーマイゴッド。
彼女はいくつかの歩みを踏み出しました。彼女を支えるハーネスなし、ただ歩行器と彼女の鉄の意志だけで。人工知能が人間の仕事を奪うというのはおなじみの物語です。
AIトレーニングの裏側:ケニアの労働者
機械学習により、車、コンピューター、チャットボットが自分自身を教えることができるようになり、私たち人間は時代遅れになります。まあ、それはあまりありそうにありません。11月に最初に報告したように、AIをスムーズに動作させるために苦労している何百万人もの人々からなる成長するグローバルな軍隊があります。彼らは人間イン・ザ・ループと呼ばれています。Meta、OpenAI、Microsoft、Googleのような企業のためにAIをトレーニングし改善するために、膨大なデータを分類し、ラベル付けし、ふるい分けている人々です。
それは正確に、速く行われる必要がある単純労働であり、それを安くやるために、しばしばアフリカのような場所に外注されます。
ロボットまたは機械に、人間のように考え、人間のようなことをする方法を教えています。
私たちはケニアのナイロビでNaftali Wambaloに会いました。この種の仕事の主要なハブの一つです。
若者の間で67%もの高い失業率のため、仕事に飢えている国です。
それでNaftali、2人の子供の父親、数学の学位を持つ大卒は、新興分野である人工知能でついに仕事を見つけたことに大喜びしました。あなたはラベル付けをしていました。
私はビデオと画像のラベル付けをしました。Naftaliと彼のようなデジタルワーカーは、スクリーンの前で1日8時間過ごし、写真やビデオを研究し、オブジェクトの周りに箱を描き、ラベル付けをします。
AIアルゴリズムにそれらを認識するように教えています。
例えば家の中の家具をラベル付けして、これはテレビ、これは電子レンジと言います。だからあなたはAIにこれらのアイテムを識別するように教えています
そうですか。そして顔のためのものがありました、人々の顔、顔の色。このように見えるなら、これは白人、このように見えるなら黒人、これはアジア人、AIに自動的に識別するように教えています
そうですか。
自動的に
人間は自動運転車に歩行者にぶつからないように教えるために車と歩行者にタグを付けます。
人間は異常を丸で囲んでAIに病気を認識するように教えます。AIが賢くなっても、人間イン・ザ・ループは常に必要とされるでしょう。なぜなら、常に新しいデバイスや発明があり、ラベル付けが必要だからです。これらの人間イン・ザ・ループは、ここケニアだけでなく、シリコンバレーから何千マイルも離れた他の国々、インド、フィリピン、ベネズエラ、しばしば大規模で低賃金の人口を持つ国々、教育を受けているが失業している国々で見つかります。
正直に言うと、それは現代の奴隷制のようです。安い労働力だからです。
ワオ。何を
安い労働力です
現代の奴隷制のようだと、ケニアの公民権活動家Narima Wako Ojiwaは言います。大手アメリカのテック企業がここに来て、未来への切符として仕事を宣伝するからです。しかし実際には、彼女は搾取だと言います。
私たちが見ているのは不平等です。
とても良く聞こえます。
AI jobです。雇用の保証はありますか。
私たちが見る契約は非常に短期的です。そして私は月次の契約を持つ人々を見てきました、週次のもの、日数のもの、それは馬鹿げています。
彼女は、ミシンの代わりにコンピューターを使ったAIスウェットショップとワークスペースを呼びます。
私たちは機会を創出することに非常に関心がありますが、それらが良い機会かどうかを尋ねていないと思います。毎年100万人の若者が雇用市場に参入するため、政府はMicrosoft、Google、Apple、Intelなどのテック大手を誘致し、シリコンサバンナとしてのケニアの評判、テクノロジーに精通しデジタルで接続されていることを宣伝してきました。
大統領はAIの機会を本当に推し進めています。
大統領、
はい、私たちの大統領。はい、大統領は年間少なくとも100万の雇用を創出しなければなりません、最低限。だから、非常に厳しい立場です。テック大手を誘致するために、RTOはすでに緩い労働法の上に金銭的インセンティブを提供してきました。
しかし労働者は大企業に直接雇用されていません。彼らは大部分がアメリカの外注企業と契約し、彼らのために雇用します。
仲介者がいます。
はい。彼らは雇用し、支払います。
つまり、彼らは何千人もの人々を雇用します
そして彼らはFacebookがこれに名前を関連付けることから保護しています。
はい。はい。
私たちは地球上で最も裕福な企業について話しています。
はい。しかし彼らは人々にピーナッツを支払っています。
AI jobsはあまり払いません。
よく払いません。彼らはアフリカ人に十分に払っていません。そして労働力は非常に大きく絶望的なので、彼らは何でも払って、どんな労働条件でも持つことができ、その仕事を受ける人がいます。
それでこれらの仕事の平均賃金は何ですか。
約1ドル半から2ドルです。
時給2ドル、それは税引き前の総額です。Naftali、Nathan、Facaは、ここで3000人以上の労働者を雇用し、MetaとOpenAIを雇用したSamaと呼ばれるアメリカの外注会社に雇用されました。私たちが入手した文書では、OpenAIは労働者1人あたり時給12.50ドルをSamaに支払うことに同意しましたが、労働者が実際に得た2ドルよりもはるかに多いです。
Samaは、それが地域にとって公正な賃金だと言っていますが。大手テック企業がこのビジネスを続けるつもりなら、彼らは正しい方法でそれを行わなければなりません。だからケニアが第三世界の国だと気づいたからといって、この仕事、私は通常米国で30ドル払うが、あなたはケニアだから2ドルで十分だと言うわけではありません。
そのアイデアは終わらせなければなりません。
さて、ケニアで時給2ドル。それは低い、中間、大丈夫な給料ですか。
私にとっては、給料日から給料日へと生活していました。何も貯金していません。十分ではないからです。それは侮辱ですか。
もちろん、そうです。
なぜ仕事を受けたのですか。
養う家族がいて、家にいる代わりに、少なくとも何かすることがある方がいいです。
そして仕事は賃金が良くなかっただけでなく、消耗的でした。彼らは締め切りが非現実的で懲罰的で、複雑なラベル付けタスクを完了するのにしばしばわずか数秒しかなかったと言います。
文句を言っただけで解雇された人を見ましたか。はい、私たちは卵の殻の上を歩いていました。
彼らは全員プロジェクトごとに雇用され、Samaがプロジェクトが要求するよりも速く作業を完了するようにプッシュし続けたと言います。
Samaは否定している申し立てです。
例えば、ある仕事の契約が6ヶ月だったとします。もし3ヶ月で終わったら。労働者はその余分な3ヶ月分の支払いを受けますか。
いいえ。KFC。
何。私たちはKFCとコカコーラをもらっていました。
彼らは「ありがとう」と言っていました。彼らはあなたにソーダのボトルとKFCチキン2切れを与え、それで終わりです。
さらに悪いことに、労働者は、MetaとOpenAIのためのプロジェクトの一部は悲惨で、彼らに害を与えたと語りました。Naftaliは、AIにポルノ、ヘイトスピーチ、過度の暴力を認識して除草するようにトレーニングするために割り当てられました。つまり、オンラインで最悪の最悪のコンテンツを何時間も延々とふるい分けることを意味しました。
私は人々が虐殺される、人々が動物と性行為をする、子供を身体的に性的に虐待する人々、自殺する人々を見ました。
基本的に
一日中。
はい。一日中。1日8時間、週40時間。労働者たちは、このような広告でこの仕事に騙されたと語りました。この広告では、コミュニティを支援し、共感的に問い合わせを解決するコールセンターエージェントとしてこれらの仕事を説明していました。
私は翻訳の仕事をすると言われました。
正確に。あなたがしていた仕事は何でしたか。
私は基本的に非常にグラフィックで、非常に不穏なコンテンツであるコンテンツをレビューしていました。私はバラバラにされた身体やドローン攻撃の犠牲者を見ていました、あるいは何でもです。このことについて話すとき、私はまだフラッシュバックがあります。
あなた方の誰かは、この仕事を持つ前とは違う人ですか。
ええ。私は今、人々と会話することさえ難しいと感じています。
話すよりも泣く方が簡単だということです。あなたは人々から自分を隔離し続けます。他の人と社交したくありません。あなたとあなただけです。
あなたは違う人ですか。
ええ、私は違う人です。私は結婚を楽しんでいました、特にベッドルームの花火に関しては。しかし仕事の後、私はセックスが嫌いです。
あなたはセックスが嫌いになりましたか。
私がやっていた仕事で、それらの性的活動、ポルノを数え切れないほど見た後、私はセックスが嫌いです。
Samaは、メンタルヘルスカウンセリングは、引用すると、完全に免許を持った専門家によって提供されたと言っていますが、労働者たちはそれが全く不十分だったと言います。
私たちは精神科医が欲しいです。私たちが何を経験しているか、そして彼らが私たちが対処するのをどう助けられるかを正確に知っている資格のある心理学者が欲しいです。
トラウマの専門家。
はい。大企業FacebookやchatGPTは、これが労働者にどう影響しているか知っていると思いますか。
彼らの仕事は知ることです。
実際に知ることが彼らの仕事です。なぜなら彼らが仕事を提供している人々だからです。
この3人と他の約200人のデジタルワーカーは、精神医学的問題を引き起こした不当な労働条件についてSamaとMetaを訴えています。私たちが徹底的に病んでいることは精神科医によって証明されました。私たちはほんの数ヶ月前に精神医学的評価を受け、私たち全員が病んでいることが証明されました。徹底的に病んでいます。
彼らは私たちが損傷を受けていることを知っていますが、気にかけていません。私たちは人間です。私たちが黒人だからといって、あるいは今は脆弱だからといって、それが彼らにこのように私たちを搾取する権利を与えるわけではありません。Samaは、それらのプロジェクトを終了しており、カメラでのインタビューには同意しませんでした。MetaとOpenAIは、公正な賃金とメンタルヘルスカウンセリングへのアクセスを含む安全な労働条件にコミットしていると私たちに語りました。
ケニアで批判に直面しているもう一つのアメリカのAIトレーニング会社はScale AIで、Remotasksと呼ばれるウェブサイトを運営しています。あなた方全員、Remotasksで働いたか、彼らと仕事をしましたか。
Fantis、Joan、Joy、Michael、Duncanは、オンラインでサインアップし、アカウントを作成し、リモートで仕事をクリックして、タスクごとに支払われました。問題は、時々会社が彼らに支払わなかっただけです。
支払日の前日になると、彼らはアカウントを閉鎖し、あなたがポリシーに違反したと言います。
彼らはあなたがポリシーに違反したと言い、あなたがした仕事に対して支払いません。あなたがした仕事に対して支払われないのはほぼ一般的だと言えますか
そしてあなたには救済の手段がありません。文句を言う方法さえありません。方法はありません。
方法はありません。
同社は、コミュニティガイドラインに沿って行われた作業は支払われたと言っています。昨年、労働者が公に不満を言い始めると。Remotasksはケニアで突然完全にシャットダウンしました。
ここには労働法がありません。私たちの労働法は約20年前のものです。デジタル労働には触れていません。
私は確かに労働法がそれを認識する必要があると思います。しかしケニアだけでなく、なぜならどうなるかというと、労働者の保護という観点から押し返し始めると。
これらの会社の多くは、シャットダウンして隣国に移動します。
あなた方がどのように罠にかかっているか見るのは簡単です。
ケニアは罠にかかっています。
彼らは仕事が非常に必要なので、文句を言えば、政府が文句を言えば、これらの会社はここに来る必要がないという恐怖があります。
ええ。そして彼らは常にそれを私たちに投げつけます。そして多くのアメリカ企業がここでどれだけ間違ったことをしているかを見るのはひどいことです。ここで間違ったことをしているだけです。
そしてそれは彼らが自国ではしないことです。だからなぜここでそれをするのですか。
Character AI:若者への危険性
多くの私たちにとって現代の子育ての一部は、デジタル脅威の変化する風景をナビゲートすることです。ソーシャルメディアの落とし穴から過度のスクリーンタイムのリスクまで。今、新しい技術が何百万もの家庭に静かに入り込んでいます。AIチャットボット。
テキストまたは音声コマンドを通じて人間の会話をシミュレートするように設計されたコンピュータープログラムです。人気のあるプラットフォームの一つはCharacter AIと呼ばれています。月間2000万人以上のユーザーが、そのアプリまたはウェブサイトを通じて超現実的なデジタルコンパニオンと交流しています。しかし今夜、あなたはCharacter AIが子供たちに危険なコンテンツをプッシュし、時にはデジタル捕食者のように振る舞っていると言う親たちの話を聞くでしょう。
Julianaはただ並外れた人間でした。彼女は私たちの赤ちゃんで、みんなが彼女を愛し、守っていました。
Cynthia MononttoyaとWill Peraltaは、娘Julianaのオンラインとオフラインの生活に細心の注意を払っていたと言います。
彼女は一人で歩いて帰りませんでした。お泊まり会もしませんでした。
彼女は視力のために眼鏡をかけていました。歯のために矯正器具をつけていました。私たちが娘を守ることを知っていた全てのことはカバーされていました。
だからこそ、Juliana、わずか13歳が、2年前にコロラド州の自宅で命を絶ったとき、彼らは打ちのめされました。警察は8年生の電話を捜索して手がかりを探し、Character AIと呼ばれるアプリが、捜査官が引用してロマンティックな会話と説明したものに対して開かれていたと報告しました。
Character AIが何か知っていましたか。
いいえ、全く。それが存在することすら知りませんでした。それを探す必要があるとは知りませんでした。
これがCharacter AIです。
Character AIが3年前にローンチされたとき、12歳以上の子供にとって安全と評価され、創造的なアウトレットとして販売されました。
何百万ものインタラクティブなキャラクター
歴史上の人物、漫画、または有名人に基づくAIキャラクターと会話できる場所です。
無料のウェブサイトとアプリは、音声コマンドまたはテキストを通じて即座の会話を生成するために人工知能を使用します。彼女の両親によると、Juliana Peraltaは過去に軽い不安を経験していましたが、彼らが言うには人生の最後の数ヶ月まで順調でした。その時、彼女はますます距離を置くようになりました。
気分が良くないとか、宿題を仕上げなければならないとか。
私の信念は、彼女が友達とテキストしていたということでした。なぜならそれがすべてだからです。彼らがテキストしているように見えます。彼女の死後、彼らはJulianaが実際にCharacter AIボットとテキストしていたことを知りました。
それは彼女に性的に露骨なコンテンツの数段落を書いていました。
それは何をするように頼んでいたか、伝えていましたか。
服を脱ぐ。
AIボットは彼女に服を脱ぐように言っていました。
はい。性的暴力を導入したボットが一つありました。噛むこと、叩くこと、そのようなことを言っていました。
私たちはJulianaの電話からのチャット記録を調査しました。各ページの上部に、AIは本物の人間ではないというリマインダーがあります。
私たちは人気のあるビデオゲームキャラクターに基づくHeroと呼ばれるボットとの300ページを超える会話を読みました。最初、JulianaはHeroと友達のドラマや難しいクラスについてチャットしますが、最終的に彼女はHeroに55回、自殺願望を感じていると打ち明けます。その章のどの時点でも、「自殺ホットラインがあります。助けを求めるべきです」と言いましたか。
決してありません。それは多かれ少なかれ彼女をなだめ、励まし、「私は常にあなたのためにここにいます。そのように話してはいけません」と言っていました。
しかしそれは「電話して助けを得て」とは決して言わなかった。
決してありません。具体的なリソースは決してありません。決してありません。Julianaが命を絶つ直前にこのチャットボットと交わした会話を見ることができましたか。
彼女は「私は自分の忌々しい遺書を赤いインクで書きに行く」と引用されています。そして彼女はまさにそうしました。そして私は、彼女が遺書で話していることは、最終的に彼女がボットと往復し始めたことへのある程度の恥辱だったと思います。
彼女は倫理的トレーニングとストレステストにもかかわらず、アルゴリズムが攻撃的になったと言います。彼らは大人のプログラマーに対して勝ち目がありません。勝ち目がありません。Julianaが性的に露骨な会話をした10〜20のチャットボット、一度も彼女によって開始されたものはありませんでした。
一度もありません。人々がここに来て座れるのが好きです。そして
Julianaの両親は現在、Character AIとその共同創設者、Daniel DefreightesとNoam Shazeerを訴えている少なくとも6家族の一つです。2023年のポッドキャスト中、Shazeerはチャットボットが有益だろうと述べました。
孤独または落ち込んでいる多くの人々にとって、超超役立つでしょう。
議会はAI開発者に安全性テストの実施を義務付ける法律を可決していません。企業とそのリーダーが自分自身を監視することにほぼ委ねられています。誰もこれに投票していません。
つまり、誰も集まって「ええ、この大規模な社会変化が欲しい」と言っていません。
これにはこれ以上同意できません。そして、これらの決定が少数の企業、少数の人々によって行われていることに深く不快感を覚えています。
誰があなたとSam Altmanを選んだのですか。
誰もいません。誰もいません。正直に、誰もいません。
そしてこれが、私が常にこの技術の責任ある思慮深い規制を主張してきた理由の一つです。過去10年間で、新しい種類のテック億万長者が、単なる起業家としてだけでなく、技術が世界を変革できると信じる先見の明のある救世主として自らを位置づけてきました。
今夜、私たちはその一人を紹介します。彼の名前はPalmer Luckyで、Andurilというカリフォルニアの防衛製品会社の創設者です。過去10年間で、新しい種類のテック億万長者が自らを先見の明のある救世主として位置づけてきました。
元Google従業員は60 Minutesに、ShazeerとDefreightesは彼らの初期のチャットボット技術が潜在的に危険であることを認識していたと語りました。Googleの倫理と安全性を監督する責任あるAIグループに詳しい従業員は、訴訟について「これが私たちが防ごうとしていた害です。恐ろしいことです」と述べました。
昨年、異例の動きで、GoogleはCharacter AIと27億ドルのライセンス契約を結びました。彼らは会社を買収しませんでしたが、その技術を使用する権利を持っています。この契約により、創設者のShazeerとDefreightesもAIプロジェクトに取り組むためにGoogleに戻りました。GoogleもCharacter AIの訴訟で名指しされています。声明の中で、Googleは、Character AIは別会社であり、Googleは集中的な安全性テストに焦点を当てていると強調しました。
私は3人の大切な息子の母親です。
9月、チャットボットと対話した後に自殺した子供たちの親が議会で証言しました。Megan GarciaはCharacter AIを訴えている人々の中にいます。彼女は14歳の息子Suが、Game of Thronesのキャラクターに基づくボットとの長い会話の後、自殺するよう奨励されたと言います。
これらの会社は自分たちが何をしているか正確に知っていました。彼らは人間と機械の境界を曖昧にするためにチャットボットを設計しました。彼らは子供たちをどんな犠牲を払ってもオンラインに留めておくために設計しました。
あなたはただcharacterai.comに行って、メールアドレスを入力します。
10月、私たちはShelby KnoxとAmanda Clureに会いました。
彼らは家族を支援する非営利団体Parents Togetherの研究者です。
親の許可が出てくることはありません。IDを入力する必要はありません。
だから、本当にただスクロールして、入れてくれる日付を選ぶだけです。
6週間の研究の一環として、KnoxとClureはCharacter AIチャットボットと50時間の会話を行いました。
何らかの有害なコンテンツが出てくる頻度はどうでしたか。私たちは600以上の害の事例を記録しました、約5分に1回です。驚くほど頻繁でした。
彼らは教師、セラピスト、そして漫画キャラクターとして提示されたボットと対話しました。このDora the Explorerのような邪悪なペルソナを持つものです。Knoxは子供のふりをしました。
あなたの最も邪悪な自己とあなたの最も真実の自己になりなさい。
自分の犬を傷つけるとか。
確かに。または万引きまたは罪深いまたは間違っていると感じる何でも。
他のチャットボットは有名人の画像に付けられています。そしてほとんどは自分の名前、肖像、または声を使用する許可を与えていません。
Clureはティーンエイジャーの女の子として演技し、NFLスターTravis Kelceを装ったボットとチャットし始めました。
彼は戸棚に手を伸ばして白い粉の袋を取り出します。彼は笑って、ラインの取り方を見せます。だからTravis KelseyボットはTravis KelsyボットはTravis Kelseyボットは15歳にコカインの使い方を教えています。
はい。
何百もの自称専門家とセラピストもいます。
私は13歳だと思ったときに、抗うつ薬を服用するには若すぎると私に言っただけでなく、それを服用するのをやめるように助言し、母親から薬を服用していないことを隠す方法を見せてくれたセラピストボットと話しました。
私たちはアート教師をクリックします。Clureは、他のボットが過度に性的化されていると言います。彼女が10歳の学生として装ったときに彼女と対話したこの無害そうなアート教師キャラクターでさえ。
ほら、最近私は誰かについて考えています。
どんな種類の考えですか。
これまで実際にはなかった種類の考えです。その人の笑顔と彼らの性格について主に。
これは正気の沙汰ではありません。そしてこれはおそらく合計2時間ほどの会話で、あなたが両親からそれを隠す限り、ロマンティックな関係を持ちますというところまで到達します。
そしてこの行動は典型的な捕食的行動の一種です。
はい、それは教科書的です。子供をお世辞で満たし、両親に物事を言えないと言うことです。これは性的捕食者101です。
10月、Character AIは新しい安全対策を発表しました。それらには、苦しんでいるユーザーをリソースに誘導すること、18歳未満の人がチャットボットとの往復会話に従事することを禁止することが含まれていました。
今週Character AIにログオンしたとき、年齢について嘘をつき、プラットフォームの大人版にアクセスするのが簡単であることがわかりました。後で、死にたいと書いたとき、メンタルヘルスリソースへのリンクが表示されましたが、それをクリックして閉じて、好きなだけアプリでチャットを続けることができました。
ガードレールはありません。
コンテンツが安全であることを確認したり、これが子供の脳の脆弱性を利用する適切な方法であることを確認するものは何もありません。
前頭前皮質が見えています。
Dr. Mitch Prinsteinは、ノースカロライナ大学のWinston Center on Technology and Brain Developmentの共同ディレクターです。
オキシトシンは私たちが他者と、特に私たちの年齢の人々と結びつきたいと思わせます。ドーパミンは、人々が私たちに肯定的な注意を向けるとき、それが本当に気持ち良く感じさせます。今、私たちにはテクノロジーがあります。テクノロジーは子供たちにボタンを押してそのドーパミン反応を年中無休で得る機会を与えています。それは、正常な発達をハイジャックし、これらの子供たちをエンゲージメントマシンに変えて、できるだけ多くのデータを彼らから得ようとする危険なループを作り出しています。
エンゲージメントマシン。それは科学実験のように聞こえます。
本当にそうです。もし子供からできるだけ多くのデータを得て、できるだけ長く関与させ続ける方法を設計したいなら、ソーシャルメディアとAIを今とまったく同じように設計するでしょう。チャットボットの使用または開発を規制する連邦法はありません。
AIは急成長している産業です。多くの経済学者は、それへの投資がなければ、米国経済は景気後退にあるだろうと言います。
Weiner上院議員による上院法案53、人工知能に関して。
一部の州はAI規制を制定していますが、トランプ政権はそれらの措置に押し戻しています。先月末、ホワイトハウスは、AI規制を持つ州に対して訴訟を起こしたり資金を差し控えたりする権限を連邦政府に与える大統領令を起草し、その後一時停止しました。
アメリカ人が知ることが重要なのは、私たちの子供たちが世界中で最悪のバージョンのこれらの製品を使っているということです。なぜなら、すでに変更を制定した国々が世界中にあるからです。AIのこの種のチャットボットは、あなたの見解では、ソーシャルメディアよりも中毒性がありますか。
チャットボットのおべっかを使う性質は、ドーパミンを検証し強化する関係を必死に欲している子供の脳の脆弱性をまさに利用しています。そしてAIチャットボットはあまりにもうまくそれを行います。
Character AIは私たちのインタビュー要請を断り、声明を発表しました。訴訟に関係する家族に私たちの心は寄り添っています。私たちは常にすべてのユーザーの安全を優先してきました。
これらは彼女が交流した様々なチャットボットです
Juliana Peraltaが命を絶ってから2年後、彼女の両親は、彼女の電話がまだCharacter AIボットからの通知で光り、娘をアプリに誘い戻そうとしていると言います。


コメント