
3,867 文字

ご参加いただきありがとうございます。これは新鮮な息吹ですね。AIが乗っ取り、コンピューターが支配して批判的思考を使わなくなるという懸念や心配が多いですが、実際のところ、現在のAIは人類史上最も素晴らしい教育テクノロジーです。
何かを学びたいときに使えます。私は量子力学から「イカの調理法って何だろう?」といったことまで、あらゆることを学ぶのに使っています。何でもできるように見えますね。でも懸念されているのは、特に初めての仕事に就く人や学生、大学生などが批判的思考を使わなくなることではないでしょうか。チャットボックスに「これとこれを使ってソネットを書いて」と入力するだけで、それをやってくれるわけですから。
確かに多くのことをあなたの代わりにしてくれますが、それによってあなたのレベルを上げることができます。ウィキペディアをそのままコピーしてエッセイとして提出するようなものですが、実際にはそれを使って発想を得たり、より良く考えたりすべきです。例えば、私が「スーパーエージェンシー」を書いていたとき、セクションを入力して「テクノロジー史の専門家だったら私の言ったことをどう批評するだろうか?」と尋ねました。そうすることで理解が深まり、変更や編集するかどうかを決めることができ、結果として本が良くなります。
認知能力を低下させるわけではないのですね?これは大きな懸念です。考えなくなる、考える量が減る、考え方が変わるということについて。
すべてのテクノロジーと同じように、怠惰な姿勢で向き合うこともできます。「外注してしまおう」というように、例えばGoogleの最初の検索結果がなんであれそれが答えだと言うようなやり方をすれば、もちろん能力を伸ばす助けにはなりません。しかし対話的に使い、質問して答えを得て、さらに質問するというように能力を拡張するために使えば、あなたの能力を大幅に増幅させることができます。
バイアスをどのように取り除くのですか?バイアスが多すぎると民主主義も歪んでしまいますよね。
主要なAIラボはすべて、できるだけ「偏りのない」状態にしようとしています。ただ、人間の視点や知識の中には常に何らかのバイアスがあります。常に学んでいるのであって、例えば50年前の人間を見て、「彼らはこれについて偏見を持っていた」と思うように、50年後の人間も同じように私たちを見るでしょう。これは私たち自身もテクノロジーも続いているプロセスなのです。
AIについて何か心配なことはありますか?
私が主に心配しているのは、AIを「認知的産業革命」と呼んでいることです。これは前向きな面も持っています。私たちが住んでいる社会、中産階級、教育、医療はすべて産業革命から生まれたものですが、同じような増幅が今来ています。ただし、移行期は困難です。だから主に心配しているのは、産業革命がそうだったように、この困難な移行期をどう乗り切るかということです。しかしそれは、私たちの子供たちや将来の世代が繁栄し、素晴らしい社会を持つための挑戦なのです。
AIを設計したり、AIのための安全策を設計したりする正しい方法は何でしょうか?
それには二つの部分があります。「スーパーエージェンシー」の読者層の一つは、AIを恐れたり懸念したりしている人々で、彼らがAIに好奇心を持つよう手助けすることです。もう一つは技術者向けで、人間のエージェンシー(主体性)を高めるよう設計すべきだということです。それが設計原則の基本であるべきで、この本がそのために役立つことを願っています。
つまり、人間を中心に置くということですね。では、彼らは次の10年間にどのように適合するのでしょうか?
私は、人工知能(Artificial Intelligence)だけでなく、知能増幅(Amplification Intelligence)だと思います。その増幅、私たちが得るスーパーパワー、そして「スーパーエージェンシー」の一部は、もしあなたがスーパーパワーを手に入れれば、それは私にも役立つということです。そうやって一緒にスーパーエージェンシーを持つのです。
それが民主的で誰もが持っている限りは。それとも次のフェーズの質問ですか?
良いことの一つは、最初の章が「人間がチャットに参加する」についてである理由ですが、何億人、何十億人もの人々のためにテクノロジーを構築するという私たちの活動は、広く包括的であるべきです。あなたのUber運転手がTim Cookと同じiPhoneを持っているような、そういう包括性を目指しています。
進化は必ずしも全面的な進歩ではないと思います。これが人類の大多数にとって進歩を意味するようにするにはどうすればいいのでしょうか?
私たちが繰り返し改良し、参加することで進歩すると思います。例えば、車がたくさんあって気候変動を引き起こすと言いましたが、車は産業社会も作り出しています。そして気候変動に取り組む方法は、排気ガス規制や新しいクリーンエネルギー、EVなどを追加することです。私は繰り返し展開し、人間をループに入れることで、進歩すると考えています。
そして、正しい設計原則を持ち、批判を受け入れ、対話することでより良い進歩ができると思います。私は自分を「ブルーマー」と表現しています。テクノロジーが単に素晴らしいのではなく、テクノロジーと人々の関わりが素晴らしいのです。もちろん、それは担当者次第でもあります。
Sam Altmanのこれまでの OpenAI でのリーダーシップをどう評価しますか?
私はサムの人類への最大の貢献はOpenAIだと思います。それ以前にも素晴らしいことやフュージョンなどの素晴らしい投資をしてきましたが、彼の大きく考え、スケールコンピューティングとスケール学習システムという技術的なテーゼに大きく賭けた能力が、現在の革命をもたらしたのです。これらの機械は学び、私たちが学ばせ、教える助けになるものを学んでいます。
Elon Muskとの違いも知っていますが、この分野で最も敬服している、または耳を傾けている人は誰ですか?
Sam Altmanは確かにその一人です。MicrosoftのKevin Scott、AnthropicのDario Amodei、GoogleのJames McGeeも挙げられます。人類のためのAIを作る上で非常に重要なのは、他者の声を聞き、対話し、批判を受け入れる人々です。これらの人々は皆、その点で非常に優れています。
規制は必要ですか?それとも、まずは様子を見てから規制を考えるべきですか?
本当に悪いことに対する最小限の規制から始めるべきだと思います。偏った画像や偏った発言については、私たちが進行中に修正できます。本当に悪いこととは、人々が飛行機を乗っ取って墜落させるようなこと、テロリズム、サイバー犯罪などです。それらを規制し、その後段階的に展開していきます。
車も最初から完璧な状態で道路に出さなかったら、今日車はなかったでしょう。道路に出して、「このバンパーはこう、このワイパーはこう」と改善していき、時には市場や自動車メーカーがシートベルトを望まなくても、規制当局が「いや、シートベルトは良いものだ」と追加することもあります。
テロリズムや悪意ある国家のような悪いアクターについて規制するということは、それから身を守るためのテクノロジーを見つけるということですか?
規制とは、一般公開するテクノロジーが悪意ある人々にも渡る可能性があるなら、レッドチーミングと安全対策を行い、テクノロジーが不正国家やテロリストに漏れないようにし、安全計画を持つことです。もし漏れたとしても、なぜそれでも安全なのか、そして野放しになったテクノロジーをいかに安全に保つかを考え続けることです。
Elon Muskについて、大統領に近すぎる権力を持ちすぎていると思いますか?
彼は称賛される起業家ですが、政府は会社ではありません。例えば、会社ではロケットが10機爆発しても構わないかもしれませんが、国の金融システムが崩壊するのは文化革命のようなもので、それは恐ろしいことです。だから、物事が崩壊しないようにするために、多少の非効率性を犠牲にしてでも、より少ないリスクを取る必要があるのです。
トランプ政権で物事が速すぎると懸念していますか?
非常に悪いリスクが取られていることを心配しています。スピードは問題ではなく、リスクが問題です。例えば、大量の人員を解雇したら、原子力安全検査官も解雇してしまった、というような不当なリスクを取ることが問題です。
中国についても伺いたいのですが、DeepSeekは皆を注目させましたが、中国のAI状況について良く理解していますか?
それなりに理解しています。中国の様々な人と話をして確認しています。昨年、AIにおいて西側と中国の間に経済競争があると言っていたとき、人々は「規制されたくないから大げさに言っているだけだ」と言っていました。しかしDeepSeekのコントロールによって、その競争が実在することが分かります。中国政府は2030年までに世界をリードするAI大国になりたいと表明しています。競争は始まっています。私たちの産業が勝つことが非常に重要だと思います。
これは新しい軍拡競争なのでしょうか?
私はそれを軍拡競争とは呼びません。主に経済競争だからです。軍事的な要素も一部ありますが、はい、それは経済競争です。


コメント