
この対話は2025年のノーベル賞対話東京において、AIの現在と将来の影響について議論したものである。参加者は現在のAIの課題として雇用の自動化、人間とAIの協働、プライバシーや透明性の問題を挙げ、特に「人間とは何か」という根本的な問いが提起されている。タンパク質折り畳み問題の解決事例を通じて人間とAIの協力関係が示される一方、AIの意識や超知能化の可能性、そして制御の困難さについても議論された。最終的には国際協力によるAIガバナンスと安全性研究の重要性が強調されている。
11,339 文字

AIの遠い未来の可能性については多くの議論がありますし、それについても話し合いますが、現在の状況に焦点を当てることも重要です。人工知能の現在の影響、課題、そして機会について話しましょう。まずはそこから始めて、話が進むにつれてより遠い未来へと移っていきます。これは皆さんからの貢献をぜひいただきたいセッションです。
この会話の中で何度か、皆さんに質問やコメントをお願いしようと思います。では、急いで進めましょう。携帯電話の電源を切ったか確認させてください。司会者の電話が鳴ったら困りますからね。
では、AIの現在の可能性に焦点を当てましょう。まず、ありささんから始めさせていただけますか。現在AIが私たち人間に提示している主要な課題をどのように見ていますか。
ありがとうございます、アダムさん。課題については、プライバシー、説明責任、透明性など様々な課題がありますが、最も大きな課題は「人間とは何か」という問いへの挑戦だと思います。これは午前のセッションとも関連していると思います。
多くの方が実際にChatGPTやGemini、あるいはDeepSeekを使っていて、仕事や生活、研究に非常に効果的だと感じていることでしょう。しかし、これは私たちに「人間の役割とは何か」「私たちが適切に使うために何ができるか」という問いを投げかけています。
これは実際に私たち人間の役割や、将来の社会に何を期待するかという大きな問いに挑戦しています。これが最大の課題であり、その下にプライバシーやセキュリティ、安全性の問題など、非常に分野特有の議論も存在しますが、まずこの大きな問題に取り組む必要があると思います。
素晴らしい出発点ですね。その問題の明確な例の一つが、多くの人々の仕事の自動化でしょう。AIの開発に全く関わっていない、AIについて考えていない多くの人々が、AIが自分たちの仕事を置き換える可能性があることを発見しています。これは巨大な社会的な破壊要因であり、彼らが関与していない、ただ体験しているだけという点が大きな変化だと思います。
私もそう思います。このChatGPTやLLMの問題は実際に変化しました。以前、2015年や16年頃には、AIの課題に関する議論の多くはAI開発者向けでしたが、今私たちが話していることは雇用、教育、将来の仕事、あるいは人間の役割とは何かということです。課題がより利用者ベース、利用者志向の課題に移ってきました。これにより、このトピックについて話し合う必要がある人々の範囲が広がったと思います。
確かにその通りです。もっと包括的な会話にすべきですね。これについて簡単にコメントをいただけますか。
はい、最近のAIの進歩について触れたいと思います。アダムさんがおっしゃった通り、自動化が進んでいます。最近、AIエージェントサービスが多く登場しています。エージェント型AIと呼ばれるもので、ホテルや旅行の予約、Amazonでの購入などができます。
過去の生成AIは会話をしていました。質問すれば答えをくれましたが、今提供できるのは行動、行動の連続です。ユーザーのために実際に物事を行うのです。これが一つの点です。
もう一つは物理的なAIです。いわゆるロボット基盤モデルの進歩により、ロボットは今や汎用的な行動を持っています。洗濯をしたり、多くの家事をこなしたりできます。これから先、ロボット産業は大きく変わるかもしれません。これは今現実に起こっていることです。
AIエージェントに関しては、彼らが独自のサブゴールを設定できるため、どのようなゴールを設定するかという問題が生じますね。
その通りです。ただ、現在のところこれはより理論的な場面です。現実的には、AIエージェントが動作する領域を拡張することができません。例えば、予約や購入をユーザーのために行うことは良い出発点ですが、それを拡張すると、エージェントはもう動作しなくなります。
現在、サブゴールが人間にとって問題になるかどうかを議論するレベルにはありません。もっと原始的なレベルにあると思います。
ありがとうございます。非常にポジティブな面と課題の両方がありますね。アダさん、研究におけるAIの影響について話していただけますか。あなたは折り畳まれたタンパク質の研究をされていて、最近のAIの主要な発展の一つがGoogle DeepMindのAlphaFold 2によるタンパク質折り畳み問題の解決でしたが、何か他のことについて話したいですか。どうぞお話しください。
ありがとうございます。タンパク質は、あらゆる生物の細胞、人間、鳥、花など、成長するあらゆるものにおけるほぼ全ての機能を担っています。タンパク質はその構造によってこれらの機能を果たすことができる、または果たすように設計されています。
構造は、新しい物質の生産に参加する材料を収容しています。タンパク質が発見された時、それは遠い昔の話ではありませんが、タンパク質の配列、つまりタンパク質を作るアミノ酸の配列が既に知られていた時、人々はタンパク質の構造を予測できるかもしれないと考えました。
失敗したとは言いたくありませんし、成功したとも言いたくありません。成功は当時としては非常に良い結果でしたが、限定的でした。当時知られていた非常に少ない構造に基づいて、構造の正確な予測は約15から20%でした。これは60年前または50年前の話です。
予測のレベルは、正確な予測の約45%まで少しずつ増加しながらも、ほぼ一定でした。予測のために、CASPという特定の組織が作られました。彼らは当時構造研究の対象となっている特定のタンパク質に焦点を当てていました。
並行して、構造を予測しようとしていました。私が言ったように、予測の正確性には向上がありましたが、ケースの約半分を超えることはありませんでした。
これは2年おきにCASPと呼ばれ、2年おきに世界のどこかで開催されていました。私は50%の正確な予測は素晴らしいと思いましたが、この取り組みを始めた人々はもっと良くなるべきだと考えていました。
AIがゲームに参入した時、状況は変わりました。しかし、AIだけでなく、より多くの構造が知られるようになったからでもあります。つまり、この種の研究の基盤が大きくなり、実験的に、結晶学的に決定された構造からより多くの情報が得られるようになりました。
実際に、この中の人間の要素を強調していただいたのは素晴らしいことです。なぜなら、私が紹介したような物語は、AIが登場してAlphaFold 2が現れ、突然構造が得られたというように語られがちですが、実際には何十万人もの人々が構造を収集し、タンパク質データバンクに寄託してきた人間の努力、そしてそれ以前に起こった人間の成功もそこにあります。これは実際に人間とAIが協力して働く美しい例です。
その通りです。それが構造がAIの一部になった唯一の方法です。タンパク質構造とタンパク質の機能性能の両方が。
ここで少し割り込ませていただけますか。あなたがおっしゃったことは本当に重要だと思います。人間がこの研究を行う努力と、そこにAIがツールとして登場し、この技術を非常に良い方法で、あるいは正しくツールとして使う方法についてです。
私の研究分野は、人々が職場や研究分野でこのAIをどのように使えるかということです。私が見ているのは、そのような協力がうまく機能していないということです。ある程度までは、ある分野ではこの種の協力が本当にうまく機能していますが、実際にはうまく機能していない場所もあります。
これは技術的な制限だけでなく、人間がどのように適応できるか、環境や、このAIに対する準備状況の問題でもあります。
あなたがおっしゃったのは、人間や研究者が実際にデータを蓄積し、このAIをツールとして使う方法についてですが、なぜかAIを非常に優れたツールだと考えているものの、技術が良くても、人々の意識や場所の意識、インフラの問題、ネットワーク、セキュリティの問題、あるいはデータセットなど、これらの準備ができていなければ、ほとんどの場所がまだ準備ができていないと言えます。そうすると、AIの実装がうまくいきません。
短期的には、私たちが実際に直面しているのは、技術に期待しすぎているかもしれないということです。しかし、私たちの作業スタイルや意識を再考する必要もありますし、AIに適応することもできますが、AIがどのように動作するかを調整することもできます。
これはより協力的なものです。技術を実装すればすべてがうまくいくということではありません。万能薬ではないのです。
本当にありがとうございます。これは聴衆に開く非常に良いポイントです。時間があまりありませんので、このAIの短期的な影響についてコメントや質問をしたい方がいらっしゃれば、どうぞお願いします。
手が上がっているのが見えます。マイクロフォンをお持ちください。マイクロフォンを持った人が走り回っているそうですが、もっと速く走る必要があります。こちらです。ありがとうございます。こちらへ、どうぞ。ここです、ここです。
適切な人を選んだかわかりませんが、短いコメントをしていただけると素晴らしいです。
ありがとうございます。雇用について言及されましたが、現在の状況では、社会は労働の対価として支払われる収入から収益を得ることについてだと思います。
何年も前には、自動化システムが私たちの労働を減らし、すべての骨の折れる仕事を行い、私たちが人生を楽しむという理想的な考えがありました。しかし、これは暗黙的に、労働が減少しても、人々が日常生活に必要な財産や収入を持っているという考えに立っています。
しかし現実的には、特に権力を持つ人々が、自動化された機械に依存していても、人々が日常生活のためにこれらの収入を得るという考えを受け入れることができるでしょうか。
非常に興味深い質問をありがとうございます。これは本当にユニバーサルベーシックインカムのような問題を提起しますね。私たちの単調な仕事は機械にやらせて、私たちは人生を楽しむために自由になるべきだという理想的な考えです。
この質問について誰かコメントしたい方はいらっしゃいますか。大きな問題です。ありささん、簡単にコメントをお願いできますか。
雇用について話すとき、あなたがおっしゃったように、技術が何をできるかということと、ユニバーサルベーシックインカムのような話がありますが、一方で、特に日本の状況を考えると、実際に労働力不足に直面しています。
ある程度までは、私たちのタスクや仕事が人工知能やロボットに取って代わられることを実際に歓迎しています。重要なのは、私たちの仕事や作業が完全に人間に置き換えられるということではなく、人間の役割は何が人間にできて何が機械にできるかを考えることです。そのような管理的なことは、まだ人間にしかできないと思います。
ありがとうございます。人間にできることと機械にできることの間には、自然にできることがあります。
本当にその通りです。機械の恩恵ではなく機械への恐怖として会話が行われているという点を提起していただき、ありがとうございます。理想的にお願いします。どうぞ。
興味深いお話をありがとうございました。AIのランダム性の危険性と、いわゆる認知プロセスが本質的に規範的なブラックボックスであるという事実について、あなたのご意見をお聞かせいただけますか。この危険性は真の危険だと感じますか。
ありがとうございます。今後の議論で、将来の危険について少し取り上げますが、現在、ブラックボックスの良い例はAlphaFold 2です。タンパク質折り畳み問題は、私たちが理解していないプロセスによって解決されました。AlphaFold 2がこれをどのように行うかわかりません。
最終的に、理解によって解決されると思っていたものが、理解によって解決されていないという事実について、簡単にコメントをいただけますか。
コメントをしたくないですか。わかりました。その問題について取り組みたいですか。
もちろん多くのリスクがあり、それについて考える必要があります。実際に日本では、ありささんと一緒にAI戦略評議会があり、最近AIに関する規制や法制化について議論するAI制度研究グループも設置しました。AIのリスクと、そのリスクを軽減するために何ができるかについて多くの議論を行い、この傾向は世界的に続いています。この点について国際協力が必要です。
ある程度までは、最近の技術について誤解や理解不足がありますが、他の面では、AIの進歩に対してより慎重なステップを踏む必要があるかもしれません。
どうぞ、お話しください。
待っていました。私の意見では、AIの次の、または次の義務の一つは、どのタンパク質が何をできるかを予測することです。自然にはまだ行われていないことをする必要がある場合、私たちが理解していることに従って、この特定の任務を行うタンパク質を設計できるでしょうか。
この質問は、人間として、もしそこに到達したら、そこに至った過程を理解することになるという考えに関連しています。この場合、基本的に大規模言語モデルに情報を入力し、答えを得ますが、どのようにその答えに至ったかはわかりません。答えは正しいかもしれませんが、どのようにそこに至ったかはわかりません。それは重要でしょうか。
私たちが考える方法、理にかなった方法では重要です。しかし、自然は私たちと一緒に研究することなく、信じられないほど信じられないデザインに到達しました。だから自然に多くの敬意を払わなければなりません。
確かにその通りです。私も一つコメントがあります。このブラックボックス化の問題は、透明性や説明責任の問題と同様に非常に重要だと思います。
一つは、技術的または技術的に、このブラックボックス化をより説明可能AI(XAI)のようにする方法を見つける必要があることです。しかし一方で、社会的リスクを考える時、問題は技術がブラックボックスであることではなく、実際にこのリスクの責任を誰が取るかわからないことです。
何か非常に間違ったことが起こったり、何らかの事故が発生した時のことを考えてください。機械がこの間違った決定を下した理由を説明したとしても、それは私たちが求める説明ではありません。私たちが求めるのは、誰が責任を取るか、このようなリスクが再び起こらないようにどのように軽減するか、どのように防ぐかということです。
社会的観点から、私たちは説明責任の問題についても考える必要があります。このブラックボックス化の問題に取り組む方法はたくさんありますが、社会科学者としての私の意見では、これも午前のセッションのトピックでしたが、エンジニアとの協力的なアプローチ、そして社会科学者や政治学者との協力的なアプローチが必要です。この新しい挑戦に取り組むために、しかしそれは機会ももたらします。
本当にありがとうございます。ポイントをありがとうございます。時間があまりなく、カバーすべきことが多いのですが、様々なことに触れています。少し前進しましょう。Jeff Hintonを使って、その会話を始めましょう。
この会話、このポッドキャスト録音で、Jeff Hintonの写真を画面に表示していただけますか。ありがとうございます。まず、クリップ2を流していただけますか。これはJeffがAIが意識を持つようになるかどうかについて話しているものです。クリップ2をお願いします。
それは人間であることの中心的なことになってきています。なぜなら、これらのものが支配したがるかどうかの議論は、それらが欲求や意図を持つかどうかにすべて関わっているからです。多くの人々は、例えば私たちを守るものがあると考えています。それは、それらが意識を持たず、私たちが意識を持っている、私たちには彼らが持たない特別なものがあるということです。そして彼らは決してそれを持つことはないでしょう。私はそれは戯言だと思います。
私は唯物論者です。意識は十分に複雑なシステムに現れます。自分自身をモデル化できるほど複雑なシステムです。そして、これらのものが意識を持たない理由はありません。
そして、実際に、クリップ3もすぐに流しましょう。それから皆さんに伺います。では、クリップ3を次にお願いします。これは、もし彼らが…についてです。
私は、より知的なものがより知的でないものによって制御されるケースが非常に少ないという事実に心配しています。彼らが私たちよりもはるかに賢くなったら、そのような状況に我慢しないと思います。それが少なくとも私を心配させることです。
しかし、より有望な議論の線があります。それは、人々が持つ多くの嫌な特性は進化から来ているということです。私たちは小さな戦うチンパンジーの群れ、または私たちとチンパンジーの共通祖先と一緒に進化しました。それは自分のグループへの強い忠誠心と他のグループとの激しい競争、他のグループのメンバーを殺すことをいとわないことにつながりました。
それは現在の私たちの政治にもかなり現れています。これらのものは進化していないので、進化しなかったもので多くの嫌な行為を避けることができるかもしれません。彼らから行動を学ぶことができるという素晴らしい考えです。
実際に、AIメディエーターは今、対立する見解を持つ人々がお互いの見解を見るようになることにかなり優れています。
だから、AIで多くの良いことができます。そして、もし安全に保つことができれば、それは素晴らしいことになるでしょう。
AIメディエーター、もしかしたらAIモデレーターが必要かもしれませんね。とにかく、興味深いのは、彼が実際に以前のRich Robertsとは異なる見解を示したことです。Rich Robertsは人間がお互いにどのように行動すべきかを知っていると指摘していましたが、ここでは人間がお互いにどのように行動すべきかを知らないと言っています。
でも、ユタカさんに伺いましょう。AIは意識を持つようになるのでしょうか、そしてもしそれが超知能になったら、私たちはそれを制御することができるでしょうか。
質問をありがとうございます。意識の問題に関して、私の答えは「はい」です。Hinton先生がおっしゃったように、意識は仕組みであり、それは人工的な方法で明確化され、明らかにされることができると信じているので、AIは意識を持つことができ、自分自身をモデル化することができます。これが答えです。
もう一つの質問について、私は、より知的でないエージェントがより知的なエージェントを制御できると信じています。これは人間社会で常に起こっていることです。
しかし、それは報酬がどのように分配されるか、価値がどのように創造されるかに依存します。例えば、あるエージェントが何らかの目的関数を最大化するために作られた場合、別のエージェントがそのエージェントを自分の目的のために使用することができます。
目的関数が例えば非常に狭いものであれば、他のエージェントがそれを自分の目的のために利用することができます。つまり、それは目的関数または目的の関係です。だから、それを設計することができ、人間社会では時々三角制御システムを持っています。それにより、誰か一人のエージェントが他の人々に対して多くの力を持つべきではありません。
そのような装置も可能でしょう。
現在、安全性研究というタイトルの下で、それをどのように実装するかを実際に検討する十分な作業が行われていると思いますか。
十分ではないと思います。Hinton教授が常におっしゃるように、AIのリスクについてもっと注意深くなる必要があります。これは短期的ではなく中期的、長期的な問題かもしれませんが、そのような安全性を実現するために十分な努力をしなければなりません。
この点について、もっと国際的な研究が必要かもしれませんし、世界中の企業で進行中の開発を監視するために、いくつかの政府間協力が必要かもしれません。
ありささん、これについてコメントしていただけますか。
ユタカさんがおっしゃった安全性やセキュリティの問題について、私たちが実際に協力的な作業を行っていることには同意しますが、海外の同僚と話すとき、安全性とは何を意味するのか、あるいは意識とは何を意味するのかについて、もっと概念的に話し合う必要があると思います。
日本語で安全性を「安全」と呼びますが、ある人や一部の人々は、安全性は物理的、金融的、または国家安全保障にのみ適用できると考えるかもしれませんし、同じ言葉を使っても、日本の安全性はヨーロッパの安全性とは少し異なるかもしれません。それは島国社会で教育を受けた状況や環境に依存するからです。
教育を受けた場所でも、完全に異なる状況や環境にある場所では、安全性が何を意味するか、または彼らが実際に求める安全性の基準は全く異なります。
人工知能を日常生活、教育、政治、その他の方法で使用したいとしても、まず哲学的または概念的レベルで安全性について議論し、実際に求める安全性の種類について議論する必要があると思います。
これは技術的な問題や技術的な問題ではなく、どのような社会や将来に住みたいかという自分自身に焦点を当てることです。それが質問の出発点です。
コメントをしたいですか。
追加したいことがあります。
質問はAIが意識を持つようになるかどうかでした。自然は意識を持っています。この点やあの点について怒ったり、変えようとしたりすることはできますが、自然は人間が作ることなく意識を持っています。それは自然によるものです。だから、私たちがAIで行わなければならないことは、自然に従うことだけです。
自然が意識を持っているとはどういう意味ですか。
私たちは生きています。東京からロンドンへ飛行機に乗ることができます。自然は意識を持っています。そうでなければ、海に落ちてしまうでしょう。
もしJeffがここにいたら、今おっしゃったことはすべて非常に良いことでしたが、実際には政府がAIの規制を緩和している環境にいると言うでしょう。彼らはイノベーションをしようとしています。制限を課すとイノベーションを阻害すると言っています。そして、それは間違った方向に進んでいるのです。
また、政府の顧問はしばしばAI企業の成功を見ることに既得権益を持つ人々だったとも言うでしょう。では、その環境をどのように変えるのでしょうか。その環境を変える必要があるのでしょうか。
政治家を変えることです。それは別の大きな会話です。もしよろしければ、会議の最後でそれについて話すことができます。政治家を変えることは一つの方法ですが、誰かコメントしたい方はいらっしゃいますか。それから、最後に非常に簡単な最後のコメントのために聴衆に開きます。
直接あなたの質問に答えることはできないかもしれませんが、私が本当に好きな古い格言があります。「地獄への道は善意で舗装されている」ということです。
人々がAIの間違った使用をするつもりがなく、社会を良く、より良くしようと考えていても、協力が少なかったり、人々が安全な社会は巨大な効果、国、または政治家の一人によって強化されるかもしれないと考えたりする場合があります。
私たちがする必要があることは、社会が何を望んでいるかの視点を考え、共有し、AIシステムのガバナンスをどのように作ることができるかを考えることです。今日の世界は非常に断片化しており、人々は実際にAI競争に参加しています。
しかし、AI競争に参加しているからこそ、これが協力について考える、またはこのAIをより制御可能にする、またはガバナンスフレームワークを作る方法について考える実際のポイントです。
現在、政府レベルまたは学術レベルで行っていることは非常に重要です。しかし、このような公的な議論も必要だと思います。そうでなければ、これらのルールを作ったり、この技術を使ったりするのは科学者や政治家だけではないからです。今日、多くの人々が実際にChatGPTを使っているのを見ています。だから、私たちは皆、この種のガバナンスとコントロールを担当しています。
ありがとうございます。非常に簡潔に。
もしHinton教授がこの会議に参加していたら、彼は非常にリスク側を取るでしょう、そして私は非常にポジティブな側を取りたいと思っていますが、今回は両方をしなければなりません。
一方で、AIは社会を大いに進歩させます。私たちはChatGPTを多く使っていますし、おそらく科学はAIの助けでさらに進歩するでしょう。それは事実です。
一方で、もっと慎重なステップを踏む必要があるかもしれません。昨夜の夕食会で、多くの人がアシロマ会議について言及し、それは非常に良い活動でした。生物学分野では、これまでのところ事故はありません。それは素晴らしいことです。同じことがAI分野でも起こるべきです。
研究者として、私たちは作らなければなりません。
アシロマ会議は、バイオテクノロジー革命を始めるバイオテクノロジーの人々によって自己組織化されました。彼らが集まって、安全性の原則をその場で決定しました。それは50年前のことです。同じことが前進の道であるべきでしょうか。
あと1分ほどしかありませんが、コメントや質問をしたい方はいらっしゃいますか。ぜひ誰かから聞きたいと思います。
真ん中に誰かいます。この方にマイクロフォンを渡していただけますか。他に誰も見えなかったので、申し訳ありません。ここです。
ありがとうございます。このセッションの最後の言葉はあなたのものだと思います。マイクロフォンをありがとうございます。そして、素晴らしい議論をありがとうございます。
私はAIについてポジティブな意見を持っています。もしAIが人間よりも賢く、知的であれば、もし政府や会社がAIによって組織化または管理されているなら、社会はより良くなるかもしれません。もちろんリスクはありますが、AIの進化は人間にとってポジティブだと思います。
AIによる組織や管理についてどう思いますか。アダさん、あなたの研究所がAIによって管理されることをお望みですか。人間よりも管理、対人関係の処理に優れているかもしれません。Jeffが言ったように、良いメディエーターです。どう思いますか。非常に簡潔に。
正式にAIによって管理されることを望むかどうかはわかりませんが、実生活では、このようにまたはそのように見ることができ、最終的にAIは私の本能を実用的に持つ上でより重要な要因の一つです。そうです、それはあなたを管理しますが、実際には誰もあなたを管理すべきではないと思います。
もちろん私自身は、しかし研究所は私だけよりも大きいのですが、一般的にあなた方お二人ともAI管理の考えについて10秒でコメントしていただけますか。
AIは適切な目的が与えられれば、組織を非常によく管理できます。だから、目的、目標を設定することが人間の役割です。
私の簡潔な答えは、彼らはできるかもしれませんが、もしそれを適切な方法で行いたいなら、システムを変える必要があると思います。なぜなら、現在のシステムは、この組織や政府や会社が人間によって制御または統治されるように設計されており、人間ができることは技術ができることとは全く異なるからです。
もしその方向にシフトしたいなら、まずシステムを変える必要があります。
本当にありがとうございました。だから、私たちは皆、基本的にお互いから学ぶ必要があります。
わあ。短時間で多くのことを皆さんの助けで乗り越えました。本当にありがとうございました。


コメント