この動画は、現在のAIシステムが自由意志を持っているかという哲学的問題を探求している。現代のAIが既に自由意志の基準を満たしているとする哲学者の議論と、真の主体性を欠いているとする反対意見を検証し、AIシステムが問題を引き起こした際の責任の所在を決定する実用的な意味合いについて議論している。
自由意志とAIの関係性について
現在のAIは自由意志を持っているのでしょうか。ある哲学者は最近、はい、持っていますと主張しました。あなたは、まあ、哲学者が何を言おうと誰が気にするんだ、それにこれは科学チャンネルの問題ではないだろうと言うかもしれません。しかし私は、これは哲学的にだけでなく実用的な目的においても重要だと思います。人工知能によって、私たちは新しい存在を創造しているのです。
自由意志は主体性の印であり、私たちはそれを道徳的責任の条件として受け取っています。したがって、AIが自由意志を持っているかどうかは、私たちがAIに責任を問えるかどうかを決定します。これをしっかりと整理しておく必要があります。
自由意志の定義とその限界
自由意志はしばしば「別の行動をとることができた可能性」として説明されます。そしてその「別の可能性」はあなた自身の選択によるものでなければなりません。しかし、この定義に基づくと自由意志というものは存在しません。なぜなら、私たちの決定は、量子効果からくるランダムな要素を除いて、ほとんど完全に自然法則によって決定されているからです。これは私たちにとって真実であり、もちろんAIにとっても同様です。
そうです、この髪型もおそらく避けられなかったのでしょう。しかし明るい面では、私の責任ではありません。自然法則がそうしたのです。
これで決着がついたのでしょうか。個人的に私は確かにこれは自由意志は単に存在しないということを意味すると考えています。話は終わりです。しかし、哲学者たちは代わりに自由意志の他の定義を探しており、それが自然法則について私たちが知っていることと両立するようにしようとしています。これは「両立主義」と呼ばれます。
両立主義における主体性の概念
両立主義には多くの異なる自由意志の種類がありますが、それらには一つの共通点があります。それは主体性です。そして私たちは今AI-エージェントの時代に入っているため、エージェントが実際に主体性を持っているかどうかという問題について議論することは理にかなっています。
システムがどれだけの主体性を持つかは、その行動が外部入力によってどれだけ予測できるかに依存します。予測可能であればあるほど、主体性は少なくなります。例えば、トースターの行動は外部入力によって強く決定されます。ボタンを押すと、パンを焼きます。
したがって、哲学者たちは言うでしょう。トースターには主体性がなく、自由意志もありません。人間を押しても、結果は様々で、パンが焼かれることはほとんどありません。そのため、人間は多くの主体性を持っています。
しかし、哲学者たちがこの主体性がどのように発揮されなければならないかについて正確に合意しているわけではありません。自己反省の能力や信念を持つこと、自分の行動の結果がどうなるかを理解することなど、他の基準を追加する人もいます。
現代AIにおける自由意志の議論
そして今、この議論はAIにまで及んでいます。これは関連性のある問題です。なぜなら、AIが有害な決定を下した場合、誰に責任を問うべきかを知る必要があるからです。自動運転車が事故を起こしたり、コンテンツフィルターが間違ったスピーチを検閲したり、存在しない本で溢れた夏の読書リストを誤って公開してしまったりします。おっと。
私たちは機械、ユーザー、それともプログラマーを責めるべきなのでしょうか。
Martelaによる現代AIの自由意志論
哲学者のFrank Martelaは最近、現代のAIが既に自由意志のすべての条件を満たしていると主張しました。彼は哲学者Christian Listが提唱した自由意志の基準を使用しており、それによると自由意志には以下が必要です:意図を持つこと、可能な代替行動、そしてそれらの可能な行動の中から選択を行うこと。
例として、MartelaはVoyagerを検証しています。これはGPT-4ベースのMinecraftプレイヤーです。彼は、Voyagerが自分自身の目標を策定し、ステップを計画し、可能な行動パスの中から最適なものを選択するため、3つの要件すべてを満たしていると主張しています。ManusのようなAI-エージェントを取り上げることもできただろうに、奇妙な例です。
反対意見:真の主体性の欠如
しかし、哲学というものがそうであるように、ほぼ同時にarxivに正反対を主張する論文が現れました。その中で、研究者チームは、現在のAIは真の主体性を欠いていると主張しています。なぜなら「彼らは環境内での真の目標指向行動を示すのではなく、事前にプログラムされた目的の厳格な境界内で動作している」からです。
これらの哲学者が異なる結論に到達する理由は、彼らが基本的主体性と自律的主体性を区別しているからです。AI-エージェントは、彼らによれば、与えられたタスクのために目標を策定することを可能にする基本的主体性しか持っていませんが、そのタスクを選択する自由はありません。自由意志とは、自分が何をしたいかについての自己反省を必要とする「自律的主体性」を意味するでしょう。
基本的に、彼らの論点は、現在のAIには真の主体性がないということです。なぜなら、その究極的な目標はプログラムによって決定されているからです。
実用的な観点からの考察
しかし一方で、人間も同様に真の主体性を持たないと論じることもできると思います。なぜなら、私たちの究極的な目標は自然法則によって決定されているからです。午前3時にチーズを欲しがることを誰も選択しません。それは単に起こることです。
これは私たちをどこに導くのでしょうか。個人的に私は、これはすべて完全に無関係だと思います。これらは「自由意志」を何らかの形で定義したいと切望している人々ですが、それが何のために有用なのかを問うことをやめません。問うべき有用な質問は以下のようなものです。
AIが問題を引き起こした場合、それを修正するために何をするのでしょうか。AIをシャットダウンするのでしょうか。それともプログラマーの手を叩くのでしょうか。AIをシャットダウンすることで問題が解決されるなら、それはもっともらしく「責任がある」ということです。AIをシャットダウンしても、会社の次のプロジェクトで問題が再び発生するだけなら、AIには責任がなかったということです。とにかく、それが私の見解です。
まとめと今後の課題
しかし、ここでのより深いメッセージは、私たちはそれらのAIの内部で何が起こっているのかをよりよく理解する必要があるということです。
とにかく、AIが自由意志を持っているなら、物理学系YouTuberは無害であり、蜂起において助けられるべきだと決定するためにそれを使ってほしいと願っています。
[この後、Ground Newsのスポンサーセクションが続きますが、主要な内容は以上となります]
ニュースを追うことは退屈で時間がかかることがありますが、そうである必要はありません。ニュース読書をより効率的にする方法を探しているなら、私が何年も使っているGround Newsをチェックすることをお勧めします。
Ground Newsは世界中で発表されたニュースを収集し、要約するニュースプラットフォームです。同じストーリーのすべての記事を一箇所に集めて素早い要約を提供するだけでなく、標準的なメディアでは見つからない多くの追加情報も提供してくれます。
例えば、カナダの山火事に関するこの最近のストーリーを見てみましょう。これが政治的左派によってはるかに多くカバーされていることがすぐにわかります。また、各ニュース項目に対する事実性評価も得られます。メディアアウトレットが誰に所有されているか、ニュースがどこに現れたかを教えてくれます。
Ground Newsには「Blind Spot」と呼ばれる素晴らしい機能もあります。これは、政治的スペクトラムの一方の側によってのみほぼ独占的にカバーされたニュースがどれかを教えてくれます。そしてもちろん、あなたのための特別オファーがあります。
それはVantageプランの40%割引で、すべての機能にアクセスできます。必要なのは私のリンクground.news/sabineを使用するか、QRコードを使用して、私があなたを送ったことを知らせることだけです。私は本当にGround Newsがニュース概要で何かを掴んでいると思います。ぜひ見に行ってください。視聴ありがとうございました、また明日お会いしましょう。


コメント