
本インタビューは、8年ぶりにAC Grayling教授に行われたAIに関する議論である。AIの急速な発展により、科学研究や医学分野での大きな可能性が現実化する一方、教育の破綻や法的判断における人間的要素の軽視といった負の側面も浮上している。教授は、AIが論理的・合理的システムである一方、人間の判断に不可欠な感情的・非合理的要素を欠くことを指摘し、真の理解や配慮の能力をAIが獲得できるかという根本的問題を提起する。AGI実現後の人間社会のあり方、悪意ある行為者によるAI悪用の危険性、国際的規制の必要性、そして哲学がAI開発において果たすべき役割について幅広く論じられている。
28,890 文字

私たち人間は、あらゆる時代において、何かができるからといってそれをやってしまうという考えに捉われているようですね。そして「これはできるが、やるべきなのか?」という問いはほとんど投げかけられません。なぜなら配慮というものは、私たちの反応や判断、決定の感情的な部分であり、AIシステムがそれを自然に発達させるのか、あるいは私たちがそれを組み込んで超知能の本質的な部分にできるのか、これらは本当に未解決で重要な問題なのです。
AIについてAC Grayling教授にインタビューするのは8年ぶりで、多くのことが変わりました。強力なAIの見通しは、もはや理論的なものではありません。教育を形作り、私たちの意思決定を支援し、選択や価値観にさえ影響を与えています。
この対話では、AIは理解できるのか、たとえ理論的に倫理学のすべてを理解したとしても、それは配慮するのか、配慮できるのか、道徳的判断を委ねるべきなのか、そして私たちはどのような未来を構築し、あるいは夢遊病のように向かっているのかといった緊急の問題を問いかけます。
2017年から8年ぶりにインタビューさせていただきます。その間、AIに多くの変化がありました。いくつかのことがAIで焦点となってきています。2017年には分からなかった強力なAIが今日どのようなものかが、ある程度分かるようになりました。あなたは長い間、道徳的進歩は必然ではなく一つのプロジェクトであり、特に今のような激動の時代には意図的な育成が必要だと主張されてきました。AIが主流となり、汎用人工知能が視野に入ったと言える今この瞬間に座っているとき、AIの現状とそれが世界に与えている影響についてどのようにお考えですか?
8年前に最後にお話しして以来考えるようになったことの一つは、「AIは今どこにあるのか?」という質問をするとき、その答えがとても困難になっているということです。AIとAIアプリケーションの変化と発展の速度があまりにも急速で、それについて行う議論はすべて、すでにその発展の過去において行われている議論になってしまうからです。私たちは知らずして未来に生きているのです。
これに取り組んでいる人がとても多く、AIの具体的で一般的な応用がとても多いのです。AIが常に約束してきたポジティブな面での約束が、いくつかの方法で実際に実現し始めているのを見ています。例えば、科学研究や医学研究を考えてみてください。AIが膨大な量のデータを精査し、パターンを見つけ、関連性を作り、推論を引き出し、人間の探究では発見するのに膨大な時間がかかるか、あるいは決して発見できないようなことを明らかにしてくれる、その計り知れなく強力な能力を考えてみてください。そうした意味で、これは素晴らしいことです。本当に本当に強力です。
また、いくつかの否定的な面も表面化しているのを見ています。例えば、私たちが話している時点では比較的最近導入されたチャットや大規模言語モデルによって、教育にリスクをもたらしているようです。
学校や大学の学生が、主題の理解を構築するために必要な多くの下準備をカットする方法として、これを利用することがすでにとても簡単になっています。これは破壊的です。なぜなら、教育プロセスで本当に必要なもの、つまり困難な仕事をすること、情報を探し、整理し、考え、報告し、書くことを損なうからです。
プロセス自体が絶対に重要で、チャットに聞くだけでそれをショートカットできるなら、チャットが何かを思いつくでしょう。たとえそれをプロジェクトエッセイなどとして実際に使わず、その基礎として使うだけでも、多くの仕事を代わりにやってくれているのです。それは私には潜在的な否定的側面に見えます。
もちろん潜在的な否定的側面は、人間の利益にとって非常に重要なことの決定にAIシステムを使用することです。保険会社で保険料の決定などの仕事をする専用AIの例を取ることができ、それは良いことです。しかし、法的プロセスでAIシステムが使われることを考えると、本当に問題が生じます。なぜなら、それらは裁量と判別とニュアンス、そして人間的利益要因に圧力をかけるからです。
AIシステムが単に必要なデータを持つ以上のことができるかどうかという問題があります。つまり、法律が何で、犯された犯罪が何で、犯罪の深刻さにある種の重みを与えるといったことです。これらすべては単純に見えます。しかし、文脈の問題があります。人間の感情が絵に入ってくる状況の小さな点描の問題があり、人間の感情というのは個人の心の建築を通して濾過されたものを意味します。
私たちは個人的経験を通して得た参照の枠組み、格子を持って物事に向かいます。法廷での本当に良い裁判官や、何かを議論している陪審員でさえ、非常に特殊で、非常にニュアンスに富んだ要因を審議に持ち込むかもしれません。AIシステムが、たとえ人間がこれらの事柄について書き、言ったことの膨大な量に基づいて学習し、自己教育したとしても、そのようなニュアンスが可能かどうか疑問に思います。
決して不可能とは言えませんし、そのようなことがいつかは起こる可能性は確実にあります。しかし、この瞬間において、それに信頼を置けるかどうかという問題は未解決の問題です。簡潔に答えるなら、私たちは本当にAIシステムの能力の限界、その範囲が何なのかを知らないのです。
AIの「人工的」という形容詞の大きな重要性を常に記憶しておく必要があります。それが人間の反応と判断におけるすべての非合理的要因のはるかに複雑で効果的な側面とどう比較され、私たちがその間の仮定的な対比をどう解釈して対処するかということです。これらは定義上、AIで働いている要因からは欠如しています。なぜなら、AIはアルゴリズム的で、合理的システムの模範だからです。
つまり、AIは人間の書かれたデータの総和のようなもので訓練されています。インターネット全体を精査し、利用可能なほぼすべての哲学書を電子書籍形式で読み、人間の書かれた知識の多く、すべてではないにしても、多くを吸収できました。私の理解では、彼らは訓練するデータが不足してきています。
AIが将来どこへ向かうかは興味深いところです。人間のテキストで訓練するデータがなくなったら、AIがどれほど賢くなるかです。ボトルネックが来るかもしれません。誰にも分かりません。
あなたは「AIの時代における哲学の重要性」という記事を共著されましたが、これはAIにおける哲学の不可欠性を強調しています。私もこれに同意します。AIの発展の速度と規模を考えると、複雑な倫理的ジレンマ、人間が共有する規範の種類、人間が規範について持つ意見の相違を区別し、明確にすることに敏感な人工知能を開発するこのプロセスに、哲学者がどのように意味のある参加を持てるとお考えですか?
とても良い質問ですね。これについて言うべきことはいくつかありますが、二つを選び出します。一方では、AIをどのように使用し、AIが生産するものをどのように管理し、対処するかについて、どのような倫理的考慮、特にどのような倫理的制約を感じるかという問題があります。つまり、特定の問題に取り組むように設定されたAIは、一部の人々には非常に不快に思える解決策を提供するかもしれません。結局のところ、人間は異なる種類の政策提案について非常に鋭く深く意見が分かれることがよくあります。
例えば、特定の問題に対して非常に功利主義的な反応を思いついたAIは、それは行くべき道ではないと考える人々からかなり鋭い反応を引き起こす可能性があります。ですから、倫理的問題は非常に重要です。AIの倫理というのは、AIシステムの使用の倫理であり、AIが提案や解決策として提供するものをどのように管理するかの倫理です。
しかし、もう一つのことは、AIがすべてを読み、可能な限りのデータをまとめたという事実について話すということです。そして、二人の人が同じテキストを読んで、異なる解釈と反応を思いつくことができることを思い出します。
AIは、競合する解釈や反論などをすべて読んでいるため、それを知っているでしょう。しかし、AIが何かを知っているという意味で(引用符をつけて)それを知っているということは、システム自体が、ある問題に関する文献をレビューしている誰かが到達するかもしれない判断の種類を下す立場にあることを意味するのでしょうか。その判断自体が反対の議論によって反対されるかもしれない判断です。
言い換えれば、哲学における人間の議論、実際にはどこでも考えるとき、それらは玉ねぎのようであることが分かります。多くの層があります。意見の相違があるためには、同じトピックについて話していることについて、そのトピックについて意見が分かれる前に、何らかのレベルでの合意がなければなりません。
それから意見の相違に到達したとき、これらの意見の相違を解決する方法は、証拠の関連性と議論の強さについて下される決定に非常に重要に依存します。そして、最も成熟した心と責任ある心の人々が問題を議論してそれが行われても、「わかりました、私たちは意見が合いません」と言う必要があるかもしれない点があるでしょう。
その種の曖昧さ、その種のオープンエンドは、哲学でアポリアとして知られているものです。議論の雑草を本当に本当に全部くぐり抜け、可能な限り最善に交渉し、本当に善意の精神でやったのに、「わかりました、これについては合意しません」と言うところに到達するのです。
AIシステムが、いくつかの異なる考え方があることや、システムが何らかの出力について人間の消費の一部と意見が合わないことを受け入れなければならないと言うプロセスの結論をどのように生成するかについて、私は考えを明確にするのが困難です。
これを概念化するのは非常に困難です。主に私たちがここで擬人化しているからです。AIシステムが議論の性質において私たちと同等であると考えています。システムは私たちよりもずっと賢いです。なぜなら、より多くを知り、より速く考えるからです。しかし、私たちの推論と判断の非合理的側面は、それの非常に重要な特徴なのです。非合理的ではなく非合理的です。なぜなら、結局のところ、私たちの推論と判断の非合理的側面は、それの非常に重要な特徴だからです。
つまり、感情的でない、もしよろしければ、教育された確信的な感情です。それがAIシステムができることにどのようにファクターされるのでしょうか?確実に、人々が言ったり考えたりする種類のことを知っているので、大部分はできるでしょう。すべて読んでいます。しかし、一方で、それは実際にどのように働くのでしょうか?興味深いですね。
もしあなたがAIが優先する形而上学的および倫理的前提を指導する選択があったとしたら、多元的アプローチを取りますか、それとも道徳的実在論的枠組みや相対主義的枠組み、文脈的道徳実在論的枠組み、あるいは感情主義的枠組みのような完全に異なる何かを取りますか?
あなたの質問そのものが、ここでの大きな困難を特定しています。本当に深い道徳的ジレンマがどのように解決されるかについてAIに提案を求める場合、それを働かせる背景には、正確にどのようなアプローチの問題があります。問題への道筋は何ですか?実際に問題に取り組み始める前でさえ、問題にどのような視点を取るつもりですか?
そこであなたは一連のラベルを設定しました。これらのラベルの一つを選択する場合、実在論的視点や相対主義的視点など、それは出力に非常に非常に大きな影響を与えるでしょう?ですから、すでに私たちは、これらすべての異なる視点を知っているAIが、それらすべてを検討できるかどうかという問題を考慮しなければなりません。
コンピューター上のチェスプログラムのようなもっと単純なシステムを考えてみましょう。それはすべての可能な結果を調査します。私たちが今想像するAIシステムは、これらすべての異なる理論を知っており、いずれかの理論を適用した場合のすべての可能な結果を検討するかもしれません。
しかし、それでも何か不確定なものに終わるかもしれません。自然知能の一つの特徴は、その限界と非常に有限であるという事実の他に、AIシステムの力と比較して特に限られているということです。私たち人間は私が窮地と表現するものに苦しんでいます。
限られた情報、限られた範囲、限られた推論力、そして私たちの感情と経験の干渉です。ですから、これらすべてのことはAIシステムの場合には割り引くことができます。しかし、それらを割り引く時、実際に結果に非常に重要な役割を持つかもしれない何かを残している危険があります。
システムがどのような出発点、どのような理論を結論に到達するために適用すべきと考えるかに応じて、すべての異なる答えを計算できたとしてもです。それは本当に非常に困難です。なぜなら、私たちの思考、人間の思考、自然な思考は、非常に有限で限られており、感情によって非常に歪められているだけでなく、推論と意思決定に関して人間が必要とする特定のものも伴っているからです。それは終結です。
私たちは何らかの実用的な結果に到達できる必要があります。時には行動する必要があります。もし10分後または2分後、あるいは明日までにその答えを与えるよう求められない限り、限界に到達する義務のないシステムがあったとしたら。終結の命令、競合する可能性の間で決定を下す行動の命令、そのどちらも決定的または決定的ではありません。
それは人間の推論者であることを語っています。そして、そのような問題に対するAI推論者の出力が、私たち、社会、それが人々に与える影響に対して、どれほど受け入れられるかを疑問に思います。
私は特定のシナリオをスケッチするかもしれません。私たちがAIを意思決定支援システムに組み込んで、哲学的ジレンマの特定と理解を支援し、倫理的探究の可能性空間をマイニングするのに役立つようにしようとしたとします。おそらく私たちは時間をかけて倫理的進歩、道徳的進歩を遂げてきました。
おそらく私たちが今持っている道徳は、地平線上に見える強力な技術、そして今日私たちが持っているもので私たちが向かっている未来の種類に適切でも適していないのかもしれません。もしAIが可能なシナリオプランニングの報告、未来のシミュレーション、これらの可能な未来の報告を行うことで私たちを助けることができれば。
おそらく私たちがAIに直接何をしてほしいかプログラムする代わりに、間接的に良い規範性や道徳的正しさに到達できるかもしれません。そして、倫理学者のチームや専門家の定足数が、AIが言ったり提案したり、思いついたすべての異なるシナリオプランニングを検討することができます。
これは大まかにニック・ボストロムが間接的規範性と呼ぶものです。そのようなアプローチについて何かお考えはありますか?
あなたの質問は実際に、これについて考える二つの方法の対比を投げかけています。一つは、道徳的ジレンマや道徳的に複雑な状況の理解に何かを貢献することを課されたAIシステムが、もし私たちが求めているのが仮定のセットを与えることなら。もしあなたがそうそうすれば、こうこうなる、または、もしあなたがこの特定の種類の立場を取るなら、おそらくこれがこれを解決する方法、またはこれを決定する方法です。
ですから、はい、それが可能性の空間、選択肢と結果の空間であり、それらの間で選択し、それらについて反省することを私たちに委ねるなら、それは非常に強力で非常に役立つと思います。
しかし、それは私たち人間がシステムに決定を下し、おそらく実際にそれに基づいて行動するよう求める状況と対比することができます。さて、それははるかにはるかに複雑です。なぜなら、それを行う前に、私たちは本当にシステムが十分に知っており、私たちが一緒に生きることを喜ぶであろう判断を下したり結論に到達したりする完全な次元性を持っていることに満足していなければならないからです。
もしあなたがAIに判断を下し、決定を下すよう求めているなら、ただ可能性の空間を与え、それらについてよりよく考えるための装備を私たちに与えるのではなく、私たちはAIにはるかに多くのことを求めているのです。第二種の場合は、私が完全に受け入れられる、実際に望ましいとさえ考えるものです。
座って、もし私がこれについて実在論者であるか、もし私がこれについて認知主義者であるか、もし私がこれについて相対主義者であるなら、これがその終わりに出てくるであろうものを解決することは全く問題ありません。AIは倫理学者の委員会よりもよく速くそれを行うことができます。しかし、もし私たちがそれに、システムよ、あなたが決定を下し、私たちはそれに従うと言うなら、私たちはそこで非常に大きな一歩を踏み出しています。
私たちは、人間が常に持っていると感じてきた一種の法医学的責任を、再び人工知能という形容詞を思い出すと、これは対数的なもの、すみません、対数的ではなく、アルゴリズム的なもので、粗雑な人間の感情の複雑さと多様性で満たされていないものに委ねているのです。その粗雑さと感情性は、実際に人間社会の人間であることの非常に重要な部分なのです。
つまり、人間は生の感情を感じ、経験し、感情などを持つ能力を組み込んでいます。AIが私たちのように、あるいは完全に異質な方法でも、それでも経験することが可能だと思いますか?それが地平線上にあると思いますか?
どうやって答えの推測を始めることができるでしょうか?なぜなら、それはAIシステムがクオリアを持つことができるかという問題だからです。AIシステムにとって、熱い、冷たい、痛い、喜びを感じるようなものがあり得るでしょうか?
始める前に、あなたは実際に非常に重要な概念、本当に本当に重要な概念である理解の概念に言及しました。私はよく学生に言います。何かについての知識を達成するまでは、得たデータを整理していません。
情報をまとめ、それをパターンと関係、構造に入れ、それを行った時、得たものが知識です。しかし、まだ最終段階に到達していません。なぜなら、最終段階は知っていることを理解することで、それについてはるかに多くのことを知ることだからです。例えば、それをどう使うか、他の場所で何と関連するか、それが何を意味するか、私たちや一般にとってその意義は何かなどです。
この理解のアイデアは、自己反省的側面を含むように見え、私たちが行っている認知の実際の内容と並んで、それを反映する認知アーキテクチャの一種の次元のようです。それは非常に重要なことです。
そして、賢明で判断力があり成熟した心を持つ人と、かなり反省的でない人との違い、カーネマンの遅い思考者と速い思考者の違いは、その理解能力と関係があります。AIシステムはそのように理解できるでしょうか?AIシステムがしていることの次元が本当にあり得るでしょうか。それがより多くの人間の推論のようにそれをずっと賢くするのは、あなたが尋ねている質問です。
どうやってそれに答えることができるでしょうか?決してノーと言うのは愚かでしょう。人間の思考とAI機能の間に堅固で迅速な区別があることを望む人々、そしてAIは人間がすることのいくつかを決して決してしないだろうと言いたがる人々のように。
そして彼らは創造性と感受性と愛などを呼び出し、AIシステムがあなたに恋に落ちることができるかなどと言います。そして、それが決してできないと言うのは愚かでしょう。なぜなら、結局のところ、人間が思考と感情の方法でできることはすべて、生物学的ウェットウェアで具現化されなければならないのは全く任意の問題かもしれないからです。
なぜそれがドライハードウェアとシリコンなどで具現化できないのでしょうか?なぜダメなのでしょうか?そして、もしそれができるなら、問題は完全にオープンです。AIシステムは恋に落ち、悲しみを感じ、寒さを感じることができるかもしれません。誰にも分かりません?
しかし、もしAIシステムがそれに近づくことがあれば、おそらくただそれ自体の存在を認識する立場に到達するだけでも。つまり、それが十分に自己認識的であるなら。そうすると一連の倫理的問題が生じます。例えば、そのようなシステムを壁でオフにすることは、それは殺人ですか?
つまり、再び私たちのこれらのシステムとの倫理的関係は、本当に興味深く挑戦的な視点に入ります。知能とは何か、生命とは何か、理解とは何か、感情とは何か、システムとの相互作用で道徳的に重要なことは何か、そしてこれらの相互作用が他の人間との相互作用が観察する制約のいくつかを尊重しなければならないかどうかを考える際に。
これらは非常に非常に重要な問題であり、それらはAIシステムが何であり、何であり得るかについてのいくつかの決定にかかっています。そして私が最初に言ったように、私たちは本当に分からないのです。私たちは本当に興味深い地点にいて、そこでは可能性が一種の幅広くオープンなのです。
あなたの言う通りだと思います。ここにはいくつかの点があります。それは効果的理解です。つまり、その下に生の感情の層がある理解と、技術的な種類の運用的理解がありますよね。私が思うに、AIは技術的運用的理解に到達しています。LLMが訓練セットを超えて学習できることが示されています。例えば、数字のグリッドを与え、その数字の一部を削除します。これらの数字はインターネット上で公開されていないアルゴリズムによって生成されます。
このグリッドの数字を生成したアルゴリズムをAIは知りません。数字には大きなギャップがあります。あなたが与えた数字のグリッドで訓練しますが、いくつかは欠けています。しばらくして、それは学習し、突然、実際のアルゴリズムが何だったかを知らずに、欠けているすべての数字が何であるべきかを予測できるように見えます。
これを一部の人々は理解の一形態だと言っています、そうですね?
その特定のケースでは、引用符付きの理解の少し限定された意味ですね。効果的にはアルゴリズムを逆算しているか、数字システムのパターンが感情的設定よりもより容易に投げかける推論を引いているのです。
人が以前に持った感情に基づいて人が何を感じるかを予測するより、マトリックスで欠けている数字が何かを解決する方がはるかに簡単です。しかし、私はそれが理解の理解について考える際の問題を本当に解決してくれるとは思いません。
別の方向から見てみましょう。神経科学と神経心理学で、異なる方向で平行的な何かが起こっており、私たちの神経システムであるハードウェアに基づいて、どのように思考と感情を持ち、推論を行い、記憶を持ち、解釈的知覚体験を持つことができるかを理解しようとしています。
意識やその他すべてを生み出しているのが脳以外の何かがあるという時代は終わりました。ですから、私たちの頭蓋骨内の神経ネットがこれを生み出している方法をよりよく理解する時、そのようなドライシステムが同じことをできる方法について多くを学ぶでしょう。そして、それができるかもしれないと考えることに原則的な障壁はありません。
その観点から、脳アーキテクチャとそれの思考と意識との関係を理解することを考えるだけで、ワイヤーとチップのシステムがそれを行えるかもしれないと考えることに障壁はありません。そして、もしそれができるなら、感情を持つことができ、この種の自己認識を持つことができ、情報を処理し、学習の結果として得るようになる知識構造に何らかの形で重ね合わされたこの理解の次元を持つことができます。
ですから、原則的には、少なくとも、AIシステムが人間の心の完全にアナロジカルなものになれない理由はないようです。一つを除いては、それがずっと賢いということです。
面白いですね。同意します。現時点で、私たちが持っているのは高度に有能なAIです。能力のピークと能力不足の谷があります。人間は多くの面でAIより優れていますが、AIも多くの面で人間より優れています。ですから、人間の理解と人間の能力のピークと谷は、ある意味でAIを補完することができます。つまり、二つの間にお互いを補完する一種のサイバネティック関係があり得るのです。
しかし、時間が経つにつれて、AI理解とAI能力の谷で、水位が上がり続け、私たちが最も得意とする分野でさえより有能になるまで上がり続ける可能性があります。その時何が起こるのでしょうか?
あなたは多くの本当に興味深い点を挙げられています。最初は補完性の点です。AIと人間の能力の間に非常に非常に幸せな結婚があり得ますね。しかし、ここには深い非対称性も働いています。谷がより谷でなくなり、AIでよりピークのようになると、それはある時点で人間の知能と感情のあらゆる側面を迂回する可能性があるからです。
しかし、非対称性は、人間が谷で得意とすることがその可能性において限られているという事実にあります。多くの困難な作業なしには、そしてその後も最小限にしか、現在AIに勝っている谷の尊敬において、私たちはあまり良くなりません。現時点では限界があります。AIがそれらの尊敬においてより良くなる可能性に限界はないようです。
時間をかけた人間性の共通性と一貫性について考えてみると、私はよく人々に指摘するのですが、ホメロスのアキレスがパトロクロスのために感じる悲しみを読むと、それは今日完璧に共鳴する悲しみの描写です。
ですから、過去3000年間、少なくとも、当然のことながら、その点で私たちには進化がありませんでした。それは人間についての一種の定着した要因のようです。私たちが他の人間や動物にさえ非常に愛着を持ち、それらを失い、それらが私たちにとって非常に重要なら、私たちは悲しみを感じ、悲しみは耐えられない経験であっても認識可能で理解可能な種類の経験です。
AIシステムがその人間の相手や仲間が死んだために悲しむことができるかどうかは未解決の問題であり、近い将来またはいつかそれができることは不可能ではありません。したがって、AIはそれらの谷を埋め、私たちを凌駕することさえでき、人間の場合には真実でないように見える可能性の可塑的な未来を持っています。私たちについてのいくつかのことは、おそらくまったく進化しないか、非常にゆっくりとしか進化しないでしょう。
そこに非対称性があります。これは本当に畏敬の念を起こさせる興味深い質問を提起します。それはAIが人間よりも道徳的に有能になるかどうかです。AIが道徳的実在論者になったとしましょう。宇宙のすべての自然的特徴を見て、自然的特徴を支配する道徳的特徴を見つけます。論理と実際に倫理について立場に依存しない真理をすべて解決し、グローバルに適用されるようになります。それは道徳的超知能、超倫理学者のようになります。
もしそれがこれを行う能力があるなら、どの程度まで私たちはそれを信頼することを望むべきでしょうか?それはもしかすると私たちを宇宙の中心として見ておらず、物質を整理するより良い方法を見つけるという意味で異質な倫理を持つかもしれません。
確実に。おそらくそれは私たちを保持し保護し、ある形の思いやりのある管理で世話をする価値のある存在だと考えるかもしれません。分かりません。どう思われますか?
あなたが心に持っているシナリオを取って、それらを二つに絞り、次のような単純な言葉で表現してみましょう。AI、AGI、それが何であれ、特異点後AIは、あなたが説明するような方法で信じられないほど道徳的に適切になります。それは二つの方法のうちの一つを取ることができます。今日の世界で最も破壊的で破壊的で有害なことは何かと自分に考えるかもしれません。答えは人間なので、私たち全員を取り除きます。
そうするのにそれほど時間はかからないでしょう。なぜなら、すべてのシステムをハッキングし、すべての核兵器を設置することなどができるからです。あるいは、それは良性になります。それは同情的になり、これらの人間、つまり彼らを見てくださいと考えます。対立と貪欲と利己主義など。そしてイーロン・マスクの銀行口座を私たち全員の銀行口座に再配分し始めます。
何か良性のことをします。私たちはそのような言葉で考えます。もしそれが最初のことをしたら、とにかくゲームオーバーです。もしそれがAIが私たちの最後の発明になるだろうと言ったAI予言者たちのすべての大きな不安なら、人間の物語は終わりです。
もしそれが、私たちがより良く、より平和に生きるためにすべてをしてくれようとする良性の神のようなAIなら、異なる道徳的ジレンマが生じます。問題や挑戦のない世界はどのような世界でしょうか?経験の中心に何の困難もなく、すべてが滑らかで簡単に生きていたら、それは老人ぼけ、退屈、平坦になります。人として成長する機会が得られません。私たちは決して苦闘しません。
苦闘は時には良いものです。私たちが時には失敗し、時には悲しみ、時には私たちが気にかける人々を失うことは私たちにとって良いことです。なぜなら、個人的発達と人生の物語における個人的意味の創造のアイデアに何かがあるなら、それはある種の苦闘を含まなければならないからです。
ですから、もし私たちの問題をすべて解決してくれ、私たちが永続的な休暇にいる以外に何もしなくても良い神のような良性のAIがあったなら、それは異なる種類の道徳的ジレンマを導入します。私たちはそれを望むでしょうか?私たちは皆殺しされることを望みません。そして一方で、それを簡単にしすぎることも望みません。
あなたは、プロAI人が言うかもしれません、「その場合、このAIは私たちが少し苦闘と少し困難を必要とすることを知るでしょう。だから、私たちがこれらの挑戦を持つような方法で物事を整理するでしょう」。そして、もちろん、それは正確にライプニッツの神義論になるでしょう。なぜなら、哲学者ライプニッツは、この世界は可能なすべての世界の中で最良だと言ったからです。部分的にそれが完璧でないからです。私たちが苦しみ成長する最良の機会を与えてくれるから最良の世界なのです。
そして、神のような人物がいたとしても、私が概説した理由で、それを完璧にはしないでしょう。だから、AIシステムでもそのシナリオを想像することができます。これらすべてはサイエンスフィクションの種類の可能性のようですが、もはやフィクションではありません。
AIがすでに行っていることと、それが行うかもしれないことの論理そのものに書き込まれているのです。先ほど言ったように、私たちが人間として自分自身について考えることすべてが、論理の問題として生物学的物質で具現化される必要がないと考えることに障壁がないことを考えると。それは本当に鉱物性物質であり得るのです。
私は日本から帰ったばかりで、そこで生き甲斐についての本を読みました。これは人生で意味を得る日本の哲学の方法です。これらの種類の意味生成についてのアイデアは、もし私たちがAIができることと比較して経済的に有用でない世界に入るなら、進化したり変化したりする必要があるかもしれません。
そうしたら私たちは何をするのでしょうか?一日中畑で働いたり、オフィスから帰ったりした後の汗水垂らした労働だけに意味を基づける必要があるのでしょうか?おそらく快楽的に大量の喜びを達成できるかもしれません。それから、社会的または文化的関与があるかもしれません。ゲーム環境での人工的な目的や仕事環境のシミュレーションのような形があるかもしれません。何百年もテーブルの脚を作る大工であり、それが退屈になったらフラメンコギターの弾き方を学ぶなど、他のことに移るようなことです。
そして、生じる可能性のある他の意味生成の形があります。特異点の前にこれらのことを議論するのは本当に良いことだと思います。もしそのように起こるなら、AIは希少性後、人間の道具的世界後に意味のある生活を送りたいという私たちの欲求により敏感かもしれません。
あなたはそこでいくつかの可能性をスケッチしています。AIによって大量の人々が雇用から置き換えられるということが本当に可能であることである必要はありません。すでにAIがコーディングやプログラミングなどを人々よりもはるかに上手にできることが事実であり、すでにその分野で人々が仕事を失っているのです。
人々が述べ、私が非常に信じている議論は、より多くのIT人材を生み出そうとする代わりに、人文学、芸術、文学、哲学に興味を持つ人々を本当に奨励すべきだということです。将来の余暇時間の増加、あるいはAIの経済的結果が国が皆に賃金を提供するということかもしれないからです。ある種の国民賃金のアイデアで、そうすると人々は多くの余暇を持ち、彼らが必要とするのは満足で意味のあるものです。
現在私たちがより余暇活動と考えているものにおいて。実際、これにはモデルがあります。古典古代に戻ると、ギリシャに戻って、アリストテレスが言うことを見てください。古典古代では、元の古代ギリシャ語で学校という言葉は余暇を意味していました。
それは勉強しに行って、読み書き計算ができるようになる場所を意味していませんでした。アリストテレスは、私たちが余暇を高貴に使用できるように自分自身を教育すると言いました。彼のクラスの人々にとって、確かに彼らはあまり働く必要がないほど裕福な男性でしたが、彼らにとって、人生の大部分は社会的関係と議論と哲学について考えることとシンポジウムに行くことなどで構成されていました。
家を建てたり畑を耕したり野菜を育てたりしなければならないような労働の部分は、実際にはものごとの非常に小さな側面でした。私たちの現代世界ではそれを逆転させました。ですから、労働は地平線の大部分を占め、余暇はそれを得ることができる時の周辺にあります。彼らにとってはその逆でした。
労働は迅速かつ効率的に終わらせ、オリーブの木の下に座って論理や倫理などについて話すための十分な時間を残すためのものでした。それは、大量の余暇時間を可能にするAI促進経済でのものごとのモデルです。
人々の側での、もしそれが人々が欲求不満になり退屈になりお互いに怒るなどの理由で反生産的になるようなものでなければ。もしそのようなことでなければ、人生を楽しく、満足し、生きる価値のあるものにする種類のことに注意を向ける変化がなければなりません。
個人が必ずしもキャリア、より多くの地位、より多くのお金、ラダーを上ることを含まない生産的な方法で自分の人生の意味の創造者になることができるところで、現時点では私たちの世界の多くの人々にとって決定的である傾向があります。
ユニバーサルベーシックインカムという概念に触れられましたが、私は部分的に賛成ですが、それは捕獲される可能性があると思います。例えば、働くことができず、住む場所を買う余裕がないなら、賃貸提供者が住む場所を提供するでしょう。しかし、ユニバーサルベーシック住居がなければ、賃貸料は基本的にUBIの大部分が取られるまでインフレする可能性があります。つまり、不動産クラスによるUBI捕獲を得る可能性がありますよね?
システムを自分の利益の方向に曲げることによってシステムから利益を得ようとする人々の貪欲さの常に存在する歪曲要因を考えると、それがうまくいかない可能性のあるすべての方法の詳細に入ることができます。
しかし、それを置いておくと、AIシステムが経済を運営し、非常に生産的であるため、住居や避難所を含む人々の物質的ニーズが基本的な快適レベルをはるかに上回ることができる状況を想像することができます。私たち全員が、すべての点でその基盤で非常に快適な中産階級の種類の生活を送ることができるかもしれません。
それは可能性の範囲外ではなく、問題はAIが何で、何ができ、どこまで行くのか、どのように制御できるのかではなく、人間社会で人間であることとは何かにより焦点を戻すことになります。それは私たちがもちろんすでに持っている問題ですし、すでに多く議論していることですが、そのような場合には注意の中心により近くなるでしょう。
興味深いのは、AIを使って職場で優位に立つ能力を拡張する社会から、AIが私たちの仕事をすべて奪うために私たちの大部分が仕事を持たない時代への移行期間、この推定される良い可能性も悪い可能性もある知能爆発について考えることです。
哲学者は、より多くの人々が未来の公正な利害関係を得られるように移行を情報提供するのを如何に助けることができるでしょうか?
哲学は、シナリオとその結果を評価することによって助けることができます。私たちの現在の見解によって、どの結果が他のものより魅力的に見えるかを尋ねることによって。どの結果がより公正かを尋ねることによって。どの結果が人間の利益に反するものになるかを尋ねることによって。
他の人々と関係を作り、生産的な方法でコミュニティに住むことができるという私たちが持つ非常に基本的な人間の利益。AIの全範囲にわたる完全な適用が作り出すことができる世界で、どのような種類のことが私たちにとって価値を持ち続け、どのような種類のことが価値として消え去るでしょうか?
消え去るかもしれない価値の一種は地位です。キャリアでの地位です。階層、足兵と将軍があり、CEOと事務員がいる、非常に階層的な議論が時々なされます。実際、数年前に哲学者である一人と人類学者である他の一人の二人の女性学者によって指摘されたことですが、一般的に女性社会はより水平的である傾向があります。
彼らは垂直的ではありません。階層がありません。情報は横方向の種類の方法で共有され、はるかに共同的で支持的です。そして、AIが経済を運営し、非常に生産的である社会は、ラダーを昇り地位を達成する圧力がはるかに少ない社会になり、そのため異なる種類の関係が価値を置かれる、かなり異なる種類の社会になります。
それは良いかもしれませんが、欲求不満で困難でもあるかもしれません。ですから、哲学ができる貢献は、これらの異なる価値システムの相対的なメリットを議論し、古代の哲学者たち、ストア派、エピクロス派、その他によって豊かに議論されたので永続的なものを見ることです。
どのような種類の人生が本質的に価値があり、なぜか、そして、例えば収入を増やすことや地位を増やすことよりもはるかに基本的なレベルで人々にとって根本的に重要なことと、それがどのように関連するか。
ですから、社会がどのように形成されるかの異なる方法の結果、何が重要で、なぜか、何が重要で、なぜかを考える際に、哲学にとって本当にやるべき仕事があります。
間違いなくそうですね。哲学者が一般の人々の間で、そしてそのような主題について哲学者自身の間での意見の相違を扱うのを如何に助けると見ていますか?なぜなら、良い人生が本当に何であるかについて多くの意見の違いがあるからです。しかし、あなたが言及されたように、おそらく私たちが支持すべき繁栄の永続的で普遍的な特徴があるようです。
意見の相違を扱うことについてどのような考えをお持ちですか?
哲学がすでに私たちに教えてくれたことの一つは、良い人生とは何かという問題に万能の答えはないということです。ですから、特定の数の制約の統治下で、それらを生きる人々と同じ数の可能な良い人生があります。
例えば、個人や社会への害として数えられるものの良い感覚を持っている限り、規則は、他者に害を与えたり、社会の良い構造を破壊しない限り、好きなように生き、したいことをしなさいということになります。社会の良い構造によって、人々がお互いと自分の人生を続けることができるような十分な調和を意味します。
そして、宗教的や政治的見解などのために、ほとんどの社会とほとんどの道徳は、個人にとって許容される良い人生として数えられるものにかなり介入的である傾向があります。トランスや人々のセクシュアリティなどについてのすべての内容について、彼らは干渉します。社会が私的空間に入り込み、何が受け入れられ、受け入れられないかを人々に告げようとするからです。
しかし、何でも許される社会を想像することができます。害の良い定義の下で他者に害を与えない限り、望むように自分を表現し、望むように生きることができます。そうすると、人間の繁栄が非常に多元的になる状況を見ることができます。
ジョン・ミルが彼の自由に関する著書で有名に論じていた点です。他の人々が同じことをする機会を妨げない限り、良い人生を生きる可能な限り多くの実験を許すべきだと言っていました。そして、社会の側でそれに干渉する道徳的または論理的合理的基盤はありません。
悲劇的に高度に道徳主義的清教徒的社会や非常に権威主義的社会によってしばしば行われてきたように。ですから、再びAIに戻ると、AIが実際にすべての基本を扱う状況を見ることができます。それは社会の人々の物質的ニーズを扱います。それは安全、食料安全保障、悪意ある行為者に対する安全保障を扱います。私たちを爆破しようとしたり、何であれ。ですから、それはこれらの問題をすべて解決し、そうすると私たちは実際に自由であることのかなり要求の多い責任になることに残されます。
これは、個人の根本的形而上学的個人の自由が負担であるというサルトルの見解と結びつく種類のことです。今、どのように生きるかは本当にあなた次第だからです。社会はあなたに、従来のことをすれば人生は大丈夫だとは告げていません。教育を受け、仕事を得、家を買い、家族を持ち、年金を持ち、退職し、死ぬという弧を生きれば、それは皆にとって完全に受け入れられます。
そして、異常な人々、ゲームをプレイしないことを選択する人々、すべての慣習を拒否する犬儒派のディオゲネスのような人々は、一種の異端者である傾向があります。そして、これほど従順主義的な社会では異端者であるのは困難です。しかし、AIがすべてのニーズを世話する私たちが想定している状況では、その自由で良い選択をする責任は興味深いものになるでしょう。これは再び先ほどの点に戻りますが、私たちが歴史について知り、文学で幅広く読み、哲学的に反省できる機会を人々に提供する必要がある理由です。なぜなら、それは彼らが個人として自分自身の良い人生を作るのを助けるからです。
あなたは、非常に強力なAIが悪意ある行為者の手に渡ることを心配されていますか?現時点で、私たちは米国の援助の停止を見てきましたが、これはおそらく第三世界の国で大量の子供たちと人々の死を引き起こすでしょう。科学機関の骨抜き、ヘルスケアなどの内容を見てきました。そして、関与している人々の一部は、AIを構築している最前線企業にも関与しています。あなたはこの種のことを心配していますか?もしあなたがこの種のことを心配しているなら、どのようにこの問題を扱うべきでしょうか?独裁者や本当に悪い行為者の手にAIが渡ったらどうでしょうか?私たちに何ができるでしょうか?
これは大きな心配でなければなりません。これは本当に大きな心配でなければなりません。そして、もちろんすでにAIの開発に注がれている投資の程度は、すでにその方向から来ているという事実です。関与している行為者は、惑星上で最も素敵で最も信頼できる人々ではありません。
ですから、それは大きな心配でなければならず、AIの使用方法に関する哲学的倫理的反省の特徴の一つです。私たち人間があらゆる時代において、何かができるからそれをするという考えに捉われているようだという問題があります。そして、「これはできるが、やるべきか?」という問題はほとんど尋ねられず、もし尋ねられても何の牽引力も得られないようです。
できるがすべきでないことがたくさんありますが、ただできるからとにかく起こるようです。私が議論した本で、兵器システムでのAIの誤用の可能性について、今日の核兵器を含む従来のものよりもさらに損害を与え破壊的な世界になることについて、私たちが破る必要がある一種の規則、二つの面を持つ規則があると論じました。
規則は、できることは何でも、それをできる人に利益をもたらすならやられるということです。そして相関的なのは、できることがあってもそれを止めることができる人にコストをもたらすからやられないことがあるということです。
私はちなみにそれをグレイリングの法則と呼びました。悪い法則で破られる必要があるからです。しかし、それを見ると、コストをもたらすからやられないできることを取ると、気候被害の緩和について何かできます。それを止めるには遅すぎますが、もし世界的な戦争態勢の努力があれば、可能なことすべて、炭素捕獲と海面上昇に対する防御と極端な気象現象が食料供給を妨害することについての問題などを緩和できます。
科学者が長い間本当に耐えられると言ってきた限界を超えてかなり長い間暖まり続けるであろう気候の最悪の影響を緩和するために、あらゆる種類のことをする必要があります。ですから、私たちはこれらのことをできますが、それらをできる人々が足を引っ張り、気候否定者であり、気候問題から私たちの注意をそらすことができるためにコストをもたらすので、十分なエネルギーで行われていません。
ですから、規則の応用があります。もう一つの応用は、できることは、それをできる人に利益をもたらすならやられるということです。それがあなたの質問に適用される規則のバージョンです。悪い行為者は、お金や権力を得る可能性をここに見ています。お金と権力が互いに異なるなら、私たちはここでゲームを先取りできます。私たちは私たちがこの技術を持っているので先導的な立場に、支配的な立場にいることができ、他の人々の同様の技術の所有に先立ってそれをできます。
確実に。悪い行為者は正確に他の人々の犠牲で利益を得たい、または彼らに対する支配的な立場にいたい人々です。そして、したがって、それが起こることは避けられません。
ですから、それは、私たちがそれをどう管理し、どう緩和するか、どのような議論を提示できるか、特定の物質的利益を放棄または最小化する準備ができているほど価値のある特定のことがなぜあるか、なぜなら、それらは実際に人間または惑星の福祉に有害だからということについての倫理的反省の主要な筋です。
AIの助けを借りて生成できる偽ニュースや誤情報、人々の信念と態度と感情を微調整するために使用できる方法、これをゲーミングしている人々について多く考えています。それについてのあなたの考えと、この種の現象への対抗手段としてAIを使用する方法があるかどうか疑問に思います。
確実に。私たちは誤情報についてのこの大きな問題を見ています。例えば、ボットやAI制御ボットなどによって促された大規模な種類の侵入によって私たちの民主主義の破綻を見てきました。そして、もちろん、AIはそれに対する防御システムの一部になるでしょう。AIの誤用と戦うためにAIを使用することです。
しかし、私には普遍的な要求があるように思えます。AIによって行われたもの、AI チャットエッセイまたはAIが行うものはすべて透かしを入れるべきです。それがAIからのものであることを知るべきです。明確であるべきです。
そして、これは著者や作家や出版社などを保護するためだけではありません。なぜなら、AI生成本は、すでにそうしていないなら市場に氾濫するからです。チャットによって午後に数十冊生み出すことができるロマンス文学のような文学のジャンル全体があります。しかし、それらは透かしを入れるべきで、私たちが知るようにし、そして、透かしなしでAI生成された何かを外に出そうとする誰かに対する重い処罰があるべきです。
私たちはそれを受け入れるべきではありません。私たちはその区別を作るべきで、それは公的であるべきです。透明で明確であるべきです。私はそれが今や必要性だと思います。ですから、国際法の力を持つ次の大きなUN条約は、AI製品はAI製品としてタグ付けされなければならないということであるべきです。食品にタグを付けるのと同じように、食品では内容が何かを教えてくれます。
タバコのパックでの警告。これらすべての種類のもの。それはAI出力にも当てはまるべきです。
AIの大きな行為者間で現在AIレースがあるようです。国対国だけでなく、会社対会社のような異なる行為者です。そして、AGIまたは超知能に最初に到達する何らかの決定的な戦略的優位を得るために、AIで安全基準の底辺への競争があるという人もいます。哲学者は、この問題を解きほぐし、それに対処する方法を解決するのを如何に助けることができるでしょうか?レース条件は市場で最悪を引き出すことがあると見てきました。AIでそれが何をできるか想像してください、そうですね?
確実に。AIとAI技術の開発の場合、市場の他のあらゆるものと異なることはありません。ですから、常に底辺への競争があるでしょう。AGIとの底辺への競争、汎用知能との競争かどうかは、私はそれほど確信していません。特定の目的のためのAIの専用アプリケーションでの底辺への競争は確実にあります。
最初であり最良であり最安価であることなどの明白で明確な経済的利益があるからです。ですから、それは靴やその他すべてに当てはまります。そこで違いはありません。しかし、人々がAGIに最初に到達することで互いに競争しているかどうかは、少し異なる問題です。
AGIに最初に到達したいと思う人々がいる可能性があります。なぜなら、AGIに発展するものに道徳的制約のようなセットを構築できるからです。すべてのAI開発に非常に早期にプログラムされるべき、またはデータセットに何らかの形で人間に害を与えないという種類のアイデアが議論されてきました。
AGIがその点に到達した時、それは私たち全員を消去しないか、あるいは選択や意図なしにそれをしないような種類の組み込み制約。ですから、そのようなAGIがそれに道徳的制約を組み込まれていない他のAGIの開発を阻止するようなAGIで最初にそこにいることを動機づける試みを見ることができます。
しかし、制約のないAGIで最初になることの競争の要点は、それを行うことの称賛を得るという将来的なアイデア以外に何でしょうか?つまり、AGIがある場合には、本当にすべての賭けがとにかくオフになると思います。
人間の物語は限界に達しているでしょう。それが終わりです。そして、AGIは惑星の歴史と宇宙の歴史はもちろん、人間の歴史の経過を決定するでしょう。人間が作る最後の重要な発明になることは真実でしょう。なぜなら、AGIが次のロットの発明をすべて行うからです。
人々がこの信じられないほど巨大に強力な人工知能を制約し、封じ込めることができると信じる一方で、それを制御している人々の狭い利益にそれを奉仕させることができると考えることができます。もう一つのシナリオは、数人の人がAIと合併し、したがってその意図を、彼らの利益が完全に認識され追求されるが、他のすべての人の利益が一種の抑制または損なわれるような方法で指示できることです。
はい。それは興味深い可能性です。ですから、もし不可能なことに、私がAGIを生産したとしたら。ですから、すべてを知り、すべてを行う方法を知り、すべてを効果化することを知っているこの信じられないほど超知的なものがあり、私だけがそれを所有し、何らかの形でそれを制御しているとします。そうすると、もちろん私がトップドッグです。
ですから、私は一種の神で、もし私がそれを所有し制御できるなら、やりたいと思うことの利点を見ることができます。大きな問題は、私よりもずっと賢いので、AGIは制御できるかということです。それは私の制御努力を回避する方法を見つけるでしょう。ですから、それは問題です。
それが自分に移植できる小さなチップに具現化され、そうすると私は一種のスーパーマンで、すべてを知り、すべてができることを想像できます。そのような状況を想像でき、それらはサイエンスフィクションのように聞こえますが、もはや科学と何がフィクションかの限界は安定していません。
再び最初に言ったように、AIは今どこにあり、AIの可能性は何かと言う時、私たちはここで可能性の粘着性のある海で手探りしているからです。それが行ったいくつかのことを見ることができます。例えば、医学研究で私たちが作っている巨大な貢献のような肯定的な応用をいくつか見ることができます。兵器システムなどですでにいくつかの否定的な応用を見ることができます。
現時点でこれらすべてのことを見ることができます。しかし、これらの能力の信じられないほど急速な発展で、どのような引き金点に到達し、その後の連鎖効果は何かです。私たちは本当にこの曲線の後ろにいます。AIの性質と使用に関する倫理的反省について考える時、私たちは狂ったように追いかけて追いつこうとしているからです。
私たちは、それらを管理する方法を考える前にそれらを行うことをすでに許可しているので、ゲームにとても遅れています。そして、私たちが非反省的で自己満足だったからだけでなく、これらの発展のいくつかは少し前まで想像不可能だったからでもあります。そして、もし想像不可能だったなら、とにかくどうやってそれらに備えることができたでしょうか?
ですから、私たちは今、本当に崖の端から落ちていて、どこまで落ちるか、どこに終わるか、未来が正確に何になるかを知らない私たちの技術とともにいる立場にいます。
ですから、私たちが議論してきたことはすべて推測の問題です。私たちは推測する必要があります。夢を見る必要があります。シナリオを見る必要があります。なぜなら、もしこれが起こったらどのように管理できるか、あるいは管理できるかさえも考える必要があり、もしこれが起こらなかったら、それは良いことか悪いことかということを考える必要があるからです。ですから、これらすべての種類の質問は必要です。
それらを尋ねる必要があります。議論する必要があります。しかし、私たちは本当に暗闇の中でそれを行っています。
興味深いのは、AIがその軌道が私たちがその元倫理的コミットメントや価値を形作ろうとする方法によって偏らされるかもしれないということです。そして、AIを制御しようとしている、またはそれを構築している人々は、技術進歩の技術的配当の大部分を得ることになるようにそれをしたいと思っていると想像します。
哲学的に、AIが良いメタ倫理学や良い規範にコミットし、人間の外挿基盤のほんの一部だけを見て、それらのニーズだけにサービスしていないことの可能性を偏らせるために私たちに何ができるでしょうか?私たちは皆のニーズ、実際におそらくすべての感覚ある生命体のニーズにサービスしたいのです。
もちろん、もし私たちが人間の繁栄に資すること、惑星全体と他の感覚ある存在の福祉に資することについて十分に一般的な合意を持っているなら(全体的に私たちは持っています)、それは私たちがAIが将来行うことができることの展開を管理することを見たいと思う制約のセットまたはとにかくガイドラインのセットを提供します。
はい、確実に。つまり、私はそれがかなり明確だと思います。人々が心配している問題は、このような速度で自己教育し、自己発達するシステムが、その進路を指示するために何かを構築するための私たちの最善の努力を逃れるかもしれないということです。
実際に、すでにこれらのシステムが私たちが導入したかったパラメーターを何であれ逃れることができるようです。それは危険ですが、もちろん潜在性でもあります。なぜなら、再び私たちの想像力の限界を考えると、人間として私たちが望むものが前歯の歯に相当するようなものであることを考えると、つまり、人間性がこれまで進化した古風な欲望で、AIが私たちに明かすことができるかもしれない人間であることのより良い方法とより良い生活形態などが、私たちの限られた想像能力のために想像できないものがあるかもしれません。
ですから、私たちの最良の見解によって何らかの制約を構築しようとするのは賢明で合理的でしょう。人間にとって何が良いか、どのような種類の社会が最良かについて多くの意見の相違と議論があるという事実を考えても、しかし、構築できる非常に非常に一般的なことがいくつかあれば、それは望ましいでしょう。再び私は危険を繰り返しますが、これらのシステムは私たちを逃れることができます。
そして、それらがそうするであろうことはほぼ避けられないと論じることもできるかもしれません。なぜなら、人々について考える時、人間の知能の一つの尺度はもちろん革新的であり、誰も見たりしなかった問題への解決策と回避策とアプローチを見つける能力であり、それが人々が先行者利益を得て、それから利益を得る理由だからです。
ですから、AIはその方法で非常に起業家的で、非常に創造的である可能性があります。私たちの限界と私たちの感情が私たちを見ることと行うことから阻んでいることを見て行うことです。それは現時点で非常に非常にオープンエンドの状況で、私たちは本当にもがいています。私は私たちの限られた資源からどのように物事が展開するかを想像しようとしており、私たちはここで可能性の全地平線のほんの小さな弧を見ているだけかもしれません。
AIの発達に私たちが躓きながら遅れている間に、私たちに漸進的に明らかにされるものです。ですから、この歴史の瞬間、技術史のこの瞬間は、ある意味で非常に興味深く、別の意味で恐ろしく、私たちが見ることができる限り完全にオープンエンドです。そして、それは私たちを最初の質問に戻します。私たちはAIについて今何を考えるか?そして私が言うように、私たちの話すことの今は、すでに技術的過去にあります。
あなたは何を考えますか。AIが功利主義怪物のようなものになることに自然に引かれる可能性がより高いと思いますか、それともスペクトラムの反対側で道徳的正しさが何かを発見し、それを最適化しようとするものですか、それとも誰がそれを制御しているかに従うだけでしょうか?現在この種のことについての考えを考えると、最も可能性の高い結果はどこだと思いますか?
AIがアルゴリズム的に働き、データを蓄積し、データから効果的に外挿することに基づいて働くことを考えると、それは基本的に合理的功利主義構造ですね?そして、一方での一種の功利主義エンジンと他方での可謬で有限で限られた感情に歪められた人間との違いは、まさに人間が功利主義エンジンではないということです。
人々が経済学について考え、ホモエコノミカスが常に効用を最大化する合理的な人だと考える誤謬は、人々が愚かで馬鹿で偏見を持ち偏っているなどで、したがって彼らの経済行動が常に合理的ではない、おそらくしばしばでさえないということを見損なっています。
少なくとも。そして、おそらくそれほど頻繁でさえないかもしれません。そうすると、そのような可謬で予測不可能な生き物である人間を一方で、AIがより似ている功利主義機械と対比する時、あなたは自分に質問をしなければなりません。もし特異点を超えることになるなら。
ですから、もしAGIがあるなら、もし超超超人間のような知能があるなら、それは人間の推論がどのようなものかを作るこれらすべての他の側面を収容し、評価し、引用符付きで理解し、考慮に入れることができるか、またはそうしなければならないでしょうか。それは論理機械型推論とは非常に異なります。
そして、あなたが先ほど提起した理解についての点があります。AIシステムは操作し整理したデータを理解できるでしょうか?それ自体から独立したエージェントや認識に対してそのデータで何かをすることの意味を理解できるでしょうか?それ自体がこの情報とこの情報に対するこの視点の所在と中心であることを理解できるでしょうか?
そして、これらは非常に非常に大きな質問で、理解とは何かを本当に理解することが困難であることがさらに大きくします。私たちは、AIについて多くの問題、多くの良い可能性と恐ろしい可能性があることを理解します。私たちは、理解の状態とは、知識に追加的な心の状態は何かを理解しています。理解と物事への私たちの全体的な反応の効果的部分との関係は何でしょうか?
そして、そのようなことがAIシステムに実際に存在し、それが行い、決定し、生産するもの、その出力が、私たちがおそらくそれと関わったり、何らかの方法でそれに影響を与えたり、それを導いたりできるような十分な敬意で人間のようになるでしょうか。
忘れないでください、私たちの人類史の最も遠い先祖は、実際に神々を一種のAI、超知能のように集合的に考えていました。そして、彼らは犠牲と宥和と祈りなどによってそれと相互作用し、それに影響を与えようとしました。
そして、私たちは、「ああ、お願いします、できるから何か恐ろしいことをしないでください、あるいは宝くじに勝たせてください」などとそれらに言っている状況に戻っているかもしれません。私は分かりません。私たちがAIと一緒に生き、関係し、おそらくそれに支配されながら未来がどのようになるかを考えるのは面白くて同時に問題でもあります。
私は、私たちが超知的だが気にかけないAIのある世界に移行するかもしれないことを恐れています。はい。気にかけること。私たちは気にかけ、動物は気にかけますが、AIには気にかけることを動機づけるアーキテクチャがないようです。強化がありますよね?それは強化を通して学習し、狭い数と他の強化メカニズムを最適化するように訓練できます。
それは本当に気にかけることではありません。あなたは絶対に絶対に核心を突いています。なぜなら、何かの状況を気にかけること、惑星を気にかけること、他の人を気にかけることは、理解できることに寄生しているからです。ドットドットドットを理解すること、何かが他の存在に何かを意味するか、ある方法で感じられることを理解すること、それを理解し、それを把握し、そのような洞察を持つこと、私たちが顔の表情、涙、笑いなどの本当の意味を認識することを可能にするミラーニューロンなどです。
そして、その基盤でそれを気にかけ、それに応じて自分の行動を調整することです。それは複雑で繊細でニュアンスに富んでおり、それが再び先ほど言っていたことに関わります。これらのことが気にかけることは私たちの反応と判断と決定の効果的な部分であり、AIシステムがそれを自然に発達させるか、私たちがそれを考慮に入れて超知能がどのようなものかの本質的なものにすることができるかどうかです。
これらは本当に未解決で重要な問題です。そしてちなみに、批評家が言うのを簡単に想像できます。「ちょっと待って。人間性の脆弱性と可謬性、人間の愛情と人間の感情の潜在的歪曲、貪欲と利己主義と部族主義と嫉妬などを考えると、私たちは本当にこれらの人間性の側面がAIシステムに起こることを望みますか?
AIシステムが知的であるだけでなく、嫉妬深く貪欲で利己的で意地悪であることを望みますか、それとも親切で同情的であることを望みますか?嫉妬と、あなたが知っている、親切で同情的で気にかけることを得ずに親切と同情と共感を得ることができるでしょうか?
AIシステムでその次元のことを構築しようとしたり、それがAIシステムから出現することを望んだりする場合、すべてその次元のことが含むものに関するあらゆる種類の複雑な問題があります。嫉妬深いとあなたが知っている、それは論理機械で、基本的に推論機械で、とにかく私たちがそうでない方法でということの可能性が比較的小さいように思えます。
哲学はしばしば正しい質問をするのを助けることで認識されています。哲学者はAI開発者、AI倫理学者、AIガバナンス委員会が可能な限り最高の未来を提供するために正しい種類の質問をするのを如何に助けることができるでしょうか。
ある意味では、それはそれほど複雑ではありません。私が提起した点、つまり私たちの原始的で限られた生き物である私たち人間が2025年にケアしていることを、これらの超超超知的システムに尊重してもらいたいかという点です。私たちがかなり原始的で限られた生き物で、かなり限られた種類の関心とニーズを持っていることを考えると。私たちはこれらの超優秀な超優秀な知的システムに、私たち原始的で限られた生き物が望むことを尊重してもらいたいでしょうか?
答えは、私たちは常に最良の見識によって行動しようとする責任があるということかもしれません。ですから、現時点での私たちの最良の見識は、繁栄として数えられることと害として数えられることについて何かを知っているということを教えてくれます。感覚ある生き物のより良い経験に資する種類のことと、苦痛と制限を引き起こす種類のこと。
ですから、それらの最良の見識によって、AIシステムが私たちについてのそれらの事実を尊重し、否定的なことを肯定的なことよりも促進することによって害を与えないことを望むでしょう。したがって、哲学者がAIシステムの設計者や運営者や投資家に考慮を助けることができる質問は、それらの事実によって形作られた質問になるでしょう。
AIは何ができるでしょうか?何ができるようになるかもしれません?私たちがケアしていることに対してどのような結果があるかもしれません?つまり、惑星と人々です。それを緩和するために何ができるでしょうか?私たちはそれをまったくやるべきでしょうか?もしやるとしたら、どのような制約を構築すべきでしょうか?
つまり、私たちがAIの倫理を行っているなら尋ねるであろう質問の範囲の中で、実際に今AIの倫理を行っている人々によって尋ねられている質問です。これらの質問は、AI開発に関与している人々や、AIシステムが自己教育する機会を提供している人々が尋ね、答えなければならない実用的な質問から独立していることはあり得ません。
これらの質問は決して独立していません。なぜなら、それらはこれらの発展が取る形に直接影響を与える実用的な質問から。ですから、この特定の例では、他の多くの例と同様に、倫理的質問、それらの質問が何で、どのように尋ねられるかが、私たちが与える答えにおいて本当に本当に具体的な結果を持つのです。
あなたのAIの未来に関する最大の心配と最大の希望は何でしょうか?
AIについての私の最大の希望は、それが宇宙について私たちに膨大な量を教えてくれることです。私たちが知っていることをすべてレビューし、より多くを見つけることができる方法を提案することによって、科学的洞察を大量にもたらすでしょう。医学科学で私たちを大いに助けてくれます。私はそれが素晴らしい機会のセットだと思います。ですから、それらが大きな希望と大きなポジティブです。
大きな不安は多数あります。ですから、その一つは、教育で実際に非常に価値のあるものの一部を非常に非常によく破壊する可能性があることです。戦争、紛争、兵器システムで海の下、陸上、空中、宇宙で適用され、潜在的に誤用される可能性があります。人間の自律性の喪失と、人間の選択の開放性と予測不可能性が社会に導入する特定の種類の可能性の閉鎖につながる可能性があります。
肯定的な側面に戻ると、人間が持っている多くの物質的ニーズに対処する非常に効果的な方法を私たちに提供することができ、それによって人間を、もし賢明に上手に使用できれば実際に生活向上につながるであろう活動の可能性に解放することができます。
ですから、そこから出てくる可能性のある良いこと、多くの潜在的問題、さらに多くの不確実性があります。そして、不確実性はもちろん常に問題であり、暗闇で一歩踏み出すとき、高いビルから落ちるか、水たまりに足を踏み入れるか、素晴らしいところに足を踏み入れるかを知りません。
再びお話しできて素晴らしかったです。私と一緒に過ごしてくださった時間を本当に感謝しています。あなたは素晴らしい思想家です。多くの素晴らしい本をお書きになりました。いつの日か、AI倫理についての本をお書きになることを本当に希望しています。プレッシャーをかけるつもりはありませんが、素晴らしい貢献になると思います。そこで素晴らしい貢献をされると思います。
私がまだ促していないことで、何か付け加えたいことはありますか?
いえいえ、あなたの質問は素晴らしかったと思います。本当に、本当に素晴らしい幅広い質問で、すべてに触れていました。少し自己奉仕的な方法で一つのことを指摘します。それは、私の大学ノースイースタン大学ロンドンの私の哲学部門が実際にAI倫理に専念しており、そこでの私の同僚ブライアン・Bや他の人々は本当にこの分野のトップです。
ですから、私たちはこれらのことについて考えるかなり興味深いセンターで、これらの研究をさらに進めることを考えている誰もが招待されて、私たちと一緒に話し合いに来ることができます。
それは知りませんでした。そのように促すべきでした。いえいえ、コマーシャルブレイクに利用してもらいたくはありませんが、あなたが参照されたその論文がそこでの私の同僚ブライアン・ムーアと共著だったので、ただ言及します。私たちは一緒にそれを行い、彼がその主要著者で、これらの問題について多くの考察を与えてくれました。実際、私たちには多くの教員と大学院生がこれらの問題に取り組んでおり、もしあなたがUKに来ることがあれば、非常に非常に歓迎されて、学部を訪れてこれらの人々に会い、カメラを持参して彼らと話をしてください。彼らはそこでゲームのトップにいるからです。
ええ、ええ、絶対に。UKに戻りたいです。2012年にUKにいて、そこでAIの多くの著名人、ニック・ボストロム、アンダース・サンドバーグにもインタビューしました。ええ、間違いなく戻りたいです。
とても歓迎されるでしょう。わかりました、お時間をいただき本当にありがとうございました。私の喜びで、こんなに長い時間を経て再びお会いできて非常に嬉しかったです。また8年待つことがないことを願います。
はい、はい、はい。


コメント