本動画は、急速に発展するAI技術が人間の雇用を完全に奪うという懸念に対し、技術の段階的な社会実装や精度の課題といった現実的な観点から反証を提示する解説である。AIの能力向上と実際の業務への定着には大きなズレがあり、多くの職業においてAIは人間を直ちに置き換えるのではなく、生産性を高めるためのツールとして機能する可能性が高いと論じている。

爆発的なAIブームと世間の懸念
4年前にChatGPTが登場して以来、私たちが耳にするのはAIがいかに巨大なものになるか、いかにして人間を置き換える人工超知能へと至る可能性があるか、どれほど急速に迫ってきているか、そして一部の人にとってはどれほど危険なものになり得るかということばかりです。
私たちは2000人の人員を投入し、年間20億ドルを費やしています。これはリスク、詐欺対策、マーケティング、アイデア創出、カスタマーサービスなどあらゆるものに影響を与えますが、これでもまだ氷山の一角にすぎません。
AI。AI。AI。AI。
どんなノーベル賞受賞者よりも賢い人が10万人、1億人いるところを想像してみてください。
AIが人工超知能になれば、私たちを置き換えてしまうかもしれませんね。
しかし、もし彼らが間違っていたらどうでしょうか。AIが私たちをユートピアにもディストピアにも導かないとしたら。AIがただの普通の技術だとしたらどうでしょう。
AIは普通のテクノロジーであるという発言が、これほどまでに物議を醸すことには驚かされました。
AIは強力だが普通の技術である
アーヴィンド・ナラヤナンはプリンストン大学の情報技術政策センターの所長であり、コンピューターサイエンスの教授です。また、AIスネークオイル、人工知能にできること、できないこと、そしてその見分け方という本の共著者でもあります。
私たちは、AIが電力やインターネット、さらには産業革命に匹敵するほど強力な汎用目的技術であることを認めています。しかし、そうした過去のすべての技術と同様に、現在起こっており今後も起こり続けるのは、この技術が社会へ徐々に統合されていく過程だと考えています。
もしそれが漸進的なものだとしたら、アメリカの企業はそのようには投資していないように見えます。AIに最も多くの資金を注ぎ込んでいるアメリカの6大企業は、今年だけで7500億ドル以上を支出すると予測されています。これはアイルランドのGDP全体よりも多い額です。そして一部の企業は、すでに大規模なレイオフがAIによって引き起こされていると主張しています。しかし、ナラヤナン氏はより慎重な見方をしています。
私たちは、これが経済の法則や人間の行動の限界を時代遅れにするような、差し迫った人工超知能だとは考えていません。AIが労働力を奪う理由としてよく挙げられるものには、多くの誤謬が含まれています。
AIの開発者は、いわゆる性能ベンチマークを見て、AIはカスタマーサービスの質問に答える能力において人間と同等だから、確実にカスタマーサービス担当者を置き換えるだろうと言います。
そうかもしれませんが、私たちが提案したのは、能力とは別に信頼性を見てみようということです。能力だけでは不十分で、信頼性が必要です。つまり、毎回同じ質問に信頼できる答えを返すのか、それとも顧客ごとに異なる答えを出してしまうのか。どのタスクを引き受けることができ、どのタスクが範囲外なのかを把握しているのでしょうか。
二つ目の大きな理由は、仮にAIを導入したとして、それが本当に労働者の生産性を高め、より多くの仕事をこなせるようにし、結果として彼らの仕事に対する需要を実際に増やすことになるのか、という点です。
知識労働者の未来と生産性の向上
メットライフのチーフ・マーケット・ストラテジストもこの意見に同意しています。
人工知能が何をするものか、そしてなぜ人々がそれを懸念しているのかを考えるとき、人々は知識労働者が絶滅してしまうのではないかと恐れているのだと思います。しかし現実には、知識労働者は常にテクノロジーを使って知識の限界を広げています。そして限界を広げたとき、そこには新たに問うべき別の質問が生まれるのです。
一日の始まりに100個の質問があり、テクノロジーの助けを借りてそのうちの50個に素早く答えられたとしても、残り50個になるわけではありません。答えるべき新しい質問が50個生まれただけなのです。そして、より多くの質問に答えるほど、私の価値は高まります。私の価値が高まれば、私の働く会社の価値も高まるのです。
現在、一部の企業はAIに数千億ドルを投資しています。彼らはどこかから投資利益率を得なければなりません。実際に収益と利益を増やすか、あるいはどこかでコストを削減するかです。雇用に対する懸念の一部はそこにあると思います。雇用を削減しなければならないと言う人もいますね。そのあたりはどのように計算が合うとお考えですか。それだけの投資に対する見返りはどのようにして得られるのでしょうか。
そうですね、それは非常に短期的な世界の見方だと思います。多くの企業にとって最善なのは何かという長期的な視点で考えるなら、投資を行い、その見返りがどこにあるのかを確実に理解することです。
AI導入の実態とソフトウェアエンジニアへの影響
最近、企業はAIが労働者を置き換えることができると言ってレイオフを正当化しています。しかし一部の批評家は、この動きをAIウォッシングと呼び、企業が株主を満足させるために昔ながらのコスト削減をAI導入のように見せかけているだけだと反論しています。
歴史的に見てきたのは、技術が進歩するにつれて、人々はより高いレベルの抽象化やパフォーマンスへと移行し、自分自身で直接作業を行う代わりに、技術が作業を行うのを監督する仕事へとシフトしていくということです。そして、これまでAIで見られていることは、このパターンと一致しています。
ですから私の予想では、経済全体にわたって労働に大規模な影響が出るとは思えません。ただし、事実としてかなり否定的な影響を受ける特定の職業やセクターは存在するかもしれません。
ソフトウェアエンジニアリングは、AI導入のペースにおいても、またその影響においても、明らかにトップを走っていると思います。すべてのコードを手作業で書いていた時代に戻ることは、キーボードが登場する前のパンチカードの時代に戻るように感じられるほどです。
しかし重要なのは、ソフトウェアエンジニアリングにAIが急速に導入されている企業でさえ、それがソフトウェアエンジニアをAIに置き換えることにつながっているのかどうかは、実はあまり明確ではないということです。実際、ソフトウェアエンジニアの求人数は増え続けています。
つい最近まで、ソフトウェアエンジニアなどの求人は減少傾向にありました。しかし昨年、プログラマーの需要は他の労働市場とは異なり、急増しました。
導入スピードを落とす現実的な障壁と法的リスク
よく言われることの一つに、AIはインターネットや電力と同じくらい影響力が大きいかもしれないが、その到来ははるかに速いというものがあります。そのスピードは何か違いをもたらすのでしょうか。
AIは歴史上最も早く普及したテクノロジーである、という主張が数多くなされています。しかし、このエッセイを書く際にその数字を見たとき、私たちはあまり納得できませんでした。
例えば、カスタマーサービスの担当者をチャットボットに置き換えるなど、経済に本当に大きな影響を与えそうなものを見てみましょう。ChatGPTが出たとき、私を含め非常に多くの人が、労働への影響という点においてそれが最初に起こることだと思いました。チャットボットという名前にも現れていますからね。
では、なぜそれが依然としてほとんど起こっていないのでしょうか。実は、リスクを伴い、法的責任が絡み、企業が構造的および組織的な変更を迫られるような、より深いレベルでのAIの統合に目を向けると、ことはそう単純ではないことがわかります。
私たちが耳にした話の一つに、エア・カナダがカスタマーサービス用のチャットボットを導入したところ、顧客が返金について尋ねた際に、存在しない返金ポリシーをでっち上げたというものがあります。顧客は怒って訴訟を起こしました。争いはカナダの最高裁判所まで持ち込まれ、裁判所は航空会社に対し、その存在しない返金ポリシーを遵守するよう命じる判決を下したのです。
多くの場合、スピード制限となるのは、人間が導入した規制の壁などの要因ですが、そこには極めて正当な理由があります。よく、すべての規制は血で書かれていると言われますが、少なくとも安全規制についてはその通りです。
例えば、AIが医療分野に急速に進出できない理由を考えてみると、それはAIが自律的に人体実験を行うことを私たちが許さないからです。がんの治療法を見つけるためだとしてもですね。
医療現場におけるAIの可能性と責任の所在
彼女はその現状を直接目の当たりにしてきました。彼女は腫瘍内科医であり、最近120億ドルの評価を受け、医師向けのChatGPTとも呼ばれている医療用チャットボット、オープンエビデンスの臨床戦略担当副社長として採用されました。
AIツールが医師を完全に置き換えるといった壮大な発言については、私は少し慎重な立場をとっています。しかし、AIツールが臨床現場の一部となる世界は間違いなくやってくると思いますし、正直なところ、そのような世界に足を踏み入れることを楽しみにしています。私はAIが医師に取って代わるとは決して思っていません。
自社ツールの有効性を語る声明を出す企業創設者は皆、このツールは診断を下したり臨床問題を解決したりする際に、医師のグループを上回る成績を収めましたといったことを言います。彼らがそうした発言を全面的に押し出すことでやろうとしているのは、ツールの有効性をアピールすることだと思います。
と同時に、AIツールが幻覚を起こしたり、偏った回答を提供したり、偽陰性を出したりすることによって起こり得るマイナス面に対する法的責任を一切負わないようにしているのです。これは深刻な問題だと私は考えています。
アルゴリズムが失敗したときに何が起こるかに対する責任を割り当てたり引き受けたりすることなく、そのような発言をするのは、実際には非常に不適切だと思います。もし医師がアルゴリズムの生成した推奨事項を採用し、それが間違っていたと判明した場合、どうなるのでしょうか。誰がその責任を負うというのでしょうか。
AIの脅威論への反論と具体的なリスク管理
ほとんどのテクノロジーと同様に、AIも改善を続けていくでしょう。そして、たとえ今はすべてを正しくこなせなくても、その改善の可能性ゆえに、人間が扱いきれないほど賢くなってしまうのではないかと懸念する声もあります。
そうした懸念の声を上げている一人に、AIのゴッドファーザーとして知られるノーベル賞受賞のコンピューターサイエンティストがいます。
もし、ある望遠鏡が約10年後に地球に到達するエイリアンの侵略艦隊を捉えたとしましょう。私たちは恐怖を感じ、何らかの対策を講じるはずです。まさにそれと同じ状況なのです。
私たちは今、そうしたエイリアンを作り出している最中ですが、彼らは約10年後にここにやって来て、私たちよりも賢くなるのです。私たちはこれらとどのように共存していくのか、極めて真剣に考えなければなりません。
仕事を失うだけでなく、実際にはもっと大きな危険が潜んでいるかもしれないと主張する人々に対しては、どう答えますか。
ヒントン氏のような方々と私が意見を異にしているのは、大きく二つの点です。一つ目は、さまざまなものをひっくるめてAIのリスクという一つの包括的なカテゴリーにまとめ、それを単一のAI問題として扱ってしまうと、多くの明確さが失われ、実際に問題に対処するための多くのアプローチの道筋を失ってしまうということです。
人々が心配しているリスクの一つの形態として、AIはハッキングが得意であり、ソフトウェアの新たな脆弱性を見つけ出して重要なシステムを乗っ取るかもしれない、というものがあります。それは確かに懸念すべきことですが、実はその特定のリスクには非常に具体的な解決策が存在します。
しかし、AIに母性本能のようなものを吹き込むべきだという考え、コンピューターサイエンスの用語ではアライメントと呼ばれますが、AIが魔法のようにあらゆる可能な状況で何をすべきか正しく理解するだろうという考えは、私には夢物語に思えます。
なぜなら、あらゆる可能な状況において正しい行動とは一体何でしょうか。人間同士でさえその点については合意できていないのです。それなのに、そのような状況でAIがどうすべきかについて、私たちがどうして合意できるでしょうか。
ですから、すべてをこのアライメントという一つのかごに盛るようなやり方は、非常に脆弱なシナリオを招くことになります。もし誰かがアライメントされていないAIシステムを作ってしまえば、そこですべてが終わってしまうからです。
世界中のあらゆる子供たちが、あなたの定めたルールや直感といったものに従わない独自のAIシステムを作り出すのを、一体どうやって止めるというのでしょうか。なぜなら私たちが見てきたトレンドによれば、今日データセンターを必要とするようなものが、数年後には母親の家の地下室でできるようになるからです。
AIにも不可能なこと、そして未知の未来
この新しいAIの世界が何を可能にするにせよ、それには絶対にできないことが一つあると彼は言います。それは、未来を予測することです。
一度こうなれば、軍事的あるいは地政学的な戦略をどうすべきかを見つけ出すために、私たちはAIに頼らざるを得なくなるでしょう。しかし、実際に研究を見てみると明らかになるのは、人間が未来を予測するのがそれほど得意ではない理由は、私たちの生物学的な限界によるものではないということです。
それは、未来に何が起こるかを推測するための世の中に存在するデータがかなり限られているからであり、同時に、未来というものは純粋に未知のものだからです。
そして未来が純粋に未知であるからこそ、ヒントン氏やナラヤナン氏のような専門家を含め私たち人間の誰一人として、さらにはAI自身でさえ、それがどれほど大きくなるのか、どれほど速く成長するのかを予測することはできないのです。


コメント