AIスネークオイル:プリンストン大学教授がAIの真実を暴く | CXOTalk #866

AGIに仕事を奪われたい
この記事は約37分で読めます。

21,693 文字

AI Snake Oil: Princeton Professor Exposes AI Truths | CXOTalk #866
In CXOTalk episode 867, Princeton professor Arvind Narayanan, co-author of AI Snake Oil, reveals why many AI products fa...

AIは真実と半真実、嘘と天才が入り混じった状態です。では私たちはどうすべきでしょうか。本日のCXOトーク第866回エピソードのゲストは、まさにこのトピックについて本を書きました。「AIスネークオイル」の著者であるアーヴィン・ナナンは、プリンストン大学のコンピュータサイエンス教授で研究者であり、プリンストン情報技術政策センターのディレクターも務めています。
アーヴィン、AIスネークオイルについてお聞きしたいと思います。
AIスネークオイルとは、宣伝通りには機能しないし、おそらく機能し得ないAIのことです。AIには確かに本物の進歩がありますが、実現不可能と思われることを謳う製品も多くあります。例えば採用自動化ソフトウェアは、応募者の面接動画から、職務適性に関する発言内容ではなく、ボディランゲージや表情を分析して、その職位への適性を判断できると主張します。このような製品が、本物のAI進歩と並行して多く存在しています。そこで共著者のサシュ・カポールと私は、何が本物で何が偽物かを見分けるより良い方法が多くの人々に必要だと考え、この本を執筆しました。
詐欺のことを言っているのですか?それとも技術的限界のことでしょうか?その感覚を教えてください。
それらが混在しています。まれに詐欺の事例もあります。Do Not Payという企業の例を挙げると、彼らは「ロボット弁護士」を開発したと主張し、連邦取引委員会から問題視されました。ロボット弁護士など存在しませんでした。さらに彼らは、イヤホンを装着して最高裁判所でそのロボット弁護士を使って弁論を行う弁護士に100万ドルを支払うと主張し、自社の技術力の高さをアピールしようとしました。
少なくとも部分的には詐欺的だったはずです。最高裁判所では電子機器の持ち込みが禁止されているので、実行不可能だと分かっていたはずです。この宣伝から数年経った今でも、彼らがそのようなものを開発した証拠はありません。連邦取引委員会の告発内容を見ると、彼らが様々なことを捏造していた詳細が記載されています。これが1つのカテゴリーです。
しかしより一般的なのは、うまく機能する何かの核心部分を取り上げ、それをクライアントや投資家が聞きたがっていると考えて誇張するケースです。多くの場合、何世紀も前からある統計手法、例えば回帰分析をAIと称して再ブランド化しているだけです。確かにこれらのモデルはデータのパターンを捉えることはできますが、完璧な神託ではありません。採用自動化ソフトウェアを販売して動画分析について主張する時、それは私にとって一線を越えています。
私はエンタープライズソフトウェア業界にいますが、今や全てのエンタープライズソフトウェア製品がAIをベースにしていると言われています。実際にはAIがベースではなく、一部のAI機能があるだけですが、あなたはそのことを指摘しているのではありませんよね?
主にそうではありません。確かにそういったことも多く起きています。本の中で私たちが特に伝えたいこと、人々に理解してもらいたいことは、全く機能しそうもないAIのカテゴリーがあるということです。そういった製品を購入する価値すらありません。
他のケースでは、宣伝が誇張されすぎているため、AIの製品がどれだけ自分に役立つか、自分で評価する必要があります。マーケティング資料だけを信用することはできません。単純な誇張の問題ではなく、AIのパフォーマンスは特定のデータセットや、入力したいクエリに大きく依存する可能性があり、多くの場合、顧客は非常に失望し、AIが期待通りに機能しないことに気付きます。
そして、AIが本当にうまく機能する可能性のあるカテゴリーもあります。これはエンタープライズの文脈というよりも、社会全般に関することですが、AIがあまりにもうまく機能するからこそ、特定のAIアプリケーションには抵抗すべき場合があります。顔認識はその良い例です。私にとって、顔認識に関する懸念は、間違いを起こすことよりも、主に権威主義的な政府による大規模な監視に使用される可能性があることです。中国やロシアの両国でそのように使用されていることが分かっています。群衆の中から顔を特定できるほどうまく機能するため、危険なのです。これらは認識しておくべきことであり、AIの展開を望まない、あるいはAIの展開に抵抗したい理由となります。
本の中で、予測AIと生成AIの区別をされていますが、今後の議論の基礎として、その違いについて説明していただけますか?
もちろんです。AIに関する多くの混乱はここから生まれています。AIは単一の技術やアプリケーションではなく、緩やかに関連する多くの技術やアプリケーションを包含する包括的な用語です。ChatGPTのような生成AIと、例えば銀行が信用リスク評価に使用する「AI」とは大きく異なります。
後者は予測AIの一種で、特に人の将来を予測して、その人に関する決定を下します。例えば、その人はローンを返済できるか、採用した場合にその職務でうまくやっていけるか、刑事司法制度においてその人は犯罪を犯すかといった予測をします。そしてそれらの予測に基づいて、その人の人生に大きな影響を与える決定が下されます。例えば保釈の否認です。これは裁判までの数ヶ月または数年間、勾留されることを意味します。
これは私たちが非常に懐疑的な分野で、証拠によれば、これらのツールはランダムな数値生成器よりもわずかに優れている程度です。これは、パターンを生成することに重点を置く生成AIとは大きく異なります。将来の人々の行動を予測することとは異なるのです。
では、予測AIと予測分析を全面的に否定しているわけではありませんね。これらの技術には多くの肯定的な例もありますから。では、あなたが言うAIスネークオイルと、機能するものとの区別をどのように付けているのでしょうか?
採用プロセスで統計とアナリティクスを使用する良い方法について話しましょう。応募者のパフォーマンスの良し悪しに影響を与える要因についてデータを見ることで、応募者に関する発見が得られるかもしれません。また、職場に関する発見もあるかもしれません。特定のマネージャーとその管理スタイルが、特定のタイプの応募者に適していないかもしれません。実際、このような洞察の方がより実行可能です。なぜなら、組織内で何かを変更することで、何年にもわたって採用に恩恵をもたらす可能性があるからです。個々の応募者に関する決定を下すよりも良いでしょう。
これが1つのポイントです。アナリティクスは自動化された意思決定とは異なります。これが教訓です。銀行の信用リスク予測の例を挙げましたが、これらの技術は完璧には機能しませんが、それでも銀行はそれらの限界があっても判断を下す必要があります。貸出のリスク評価を全くしなければ、破産してしまうでしょう。そのため、これは私にとって理にかなっています。注意は必要ですが。
別の例を挙げましょう。IRSは監査を行い、税金詐欺のリスクが高い人を特定するためにAI技術を使用するかもしれません。これも適切な応用だと思います。ここでの違いは、人生を変えるような決定を下しているわけではないことです。監査は多くの人にとって煩わしいことですが、最終的には実際に税金を誤魔化した場合にのみ罰金が科せられます。そのため、道徳的な計算も異なります。
技術的な理由と道徳的な理由の両方から、予測AIのある応用は他のものよりもはるかに正当化できると考えています。特定の応用は、関係する人々により深刻な影響を与え、対象となる人々には発言権がありません。そして残念ながら、多くの場合、自動化された決定に対して救済措置がほとんどないか全くありません。私は、既存のシステムの多くが抱える問題だと思います。AIの存在がその問題をおそらく悪化させています。
すでにそうなっていますが、採用担当者が応募者を不採用にした場合、将来の応用に役立つようなフィードバックは得られません。本の中でも多く語っていますが、AIが露呈させることの多くは、私たちのプロセスや組織、制度にすでに存在する問題です。それらはAIを鏡として使い、技術自体をいじるのではなく、より深いレベルで何がうまく機能していないかを見て修正する機会だと思います。
ニュースレターを購読してください。cxotalk.comにアクセスし、今後の素晴らしい番組をチェックしてください。TwitterとLinkedInの両方で質問が寄せられているので、そちらに移りましょう。
最初の質問は、常連リスナーのアラロン・コンからのTwitterでの質問です。彼は「AIが直接的にも間接的にも消費者にどんどん押し付けられていく中で、消費者にはオプトアウトの方法があるべきでしょうか」と尋ねています。これは政策的な問題です。
アプリケーションによって異なります。オプトアウトには様々な形態があり得ます。生成AIについて話す場合、多くのアーティストやその他のクリエイターは、自分のデータがAIのトレーニングに使用されることからオプトアウトしたいと考えています。多くのクリエイティブな人々は、オプトアウトだけでは不十分で、集団交渉のような形が必要だと主張しています。
経済的な交渉という観点から考えると、オプトアウトは個人と時価総額1兆ドルの企業との間の交渉です。力の非対称性があまりにも大きいため、アーティストにとってあまり有利ではありません。オプトアウトは彼らにとって大きな利益にはなりません。なぜなら、他にも何百万人ものアーティストの情報が使用されており、AIモデルにはほとんど影響を与えないからです。そのため、AI企業はアーティストのオプトアウトを恐れる理由がなく、このプロセスはうまく機能しません。
ソーシャルメディアのレコメンデーションアルゴリズムについても考えてみましょう。多くの問題の原因とされていますが、その証拠はまだ進行中です。しかし、これまでに分かっていることだけでも、多くの人々はアルゴリズムの選択権や、時系列順のフィードに戻す選択肢を望んでいます。これらはオプトアウトが非常に重要な介入となり得る例です。
ここには深い政策的な意味があります。Netflixが間違った映画を推薦したり、Amazonが興味のない商品を推薦したりするのとは全く異なります。ローンを申請した際にアルゴリズムが誤って信用リスクが高いと判断し、家を買えなくなったり、刑事司法制度があなたが犯罪を犯したと誤って判断したりする場合とは異なります。
この答えは、あなたが既に触れた異議申し立ての可能性、決定に対する上訴の可能性、救済措置の可能性であるべきです。なぜこれらのシステムにそういった仕組みがないのか、それはとても明白なことに思えますが、その答えは微妙です。多くの場合、AIベンダーは財政的に逼迫し、意思決定プロセスでコストを削減したい意思決定者のところに来て、「プロセスを自動化してコストを大幅に削減できます」と言います。
しかし、必然的に間違いが起きて人々が不満を言う時、AIベンダーは「人間が常にループに入っている必要がある」という細字の規約に逃げ込みます。では、常に人間がループに入っているなら、本当に効率性の向上は実現できているのでしょうか。人間のプロセスの利点を保ちながら効率性を向上させる方法はあると思いますが、それには革新が必要です。多くの既存のシステムでは、二者択一の状況になっていて、その中間の最適点を見出す方法がありません。しかし、そこに到達できると思います。
もちろん、私たちは皆、例えばLinkedInへのストリーミングなどで使用する、シュリンクラップライセンス契約やクリックスルー契約に同意していますが、実際にそれらの契約を読む人はどれだけいるでしょうか。とはいえ、それらは技術ベンダーに抜け道を提供しています。
LinkedInからエディス・イム・ポアイさんから質問が来ています。彼女は「なぜ人々が現在このAIスネークオイルに騙されやすいのか、その理由をいくつか説明していただけますか?また、一般の人々がより良い情報を得てAIスネークオイルを避けるにはどうしたらよいでしょうか」と尋ねています。
さらに「人々がAIの採用に対して恐れすぎないようにしたいとも思います。そこで、人々に前向きなアプリケーションを採用するよう促すにはどうすればよいでしょうか」と続けています。私からも付け加えさせていただくと、「それと同時に、どのように自分を守ればよいのでしょうか」という質問です。
AIの種類によって異なります。これまであまり話していない生成AIについて少し話しましょう。生成AIは急速に進歩している技術である一方で、多くのスネークオイルも存在します。例えば、学生がAIを使って宿題を不正にしていないかを検出するAIは、残念ながら私の見る限り機能していません。
生成AIの多くは非常に有用です。では、機能しないものを避けながら、どのように消費者に生成AIの探求を促すことができるでしょうか。私が言いたいのは、テクノロジストやテック企業がメディアで描かれる方法のために、今日のテクノロジーCEOが何を言おうと、それに対する敬意が強すぎるということです。そこまで彼らに従う必要はないと思います。
もちろん彼らは非常に賢い人たちですが、より多くのお金を稼ぐために何かを言う既得権益も持っています。良い例を挙げると、2ヶ月前まで、事実上すべてのテクノロジーCEOは、モデルをより大きく、よりスマートにスケールアップし、おそらくAGI(汎用人工知能)まで到達すると言っていました。
しかし11月のNeurIPS会議の頃になると、突然シナリオが一変しました。今やモデルのスケーリングは終わり、推論のスケーリングやテスト時の計算スケーリングと呼ばれるものを行っているそうです。彼らが以前正しかったのか、今正しいのかを言っているわけではありません。
しかし、新しい証拠もないのに、突然自分の主張を完全に覆せるということは、今は金銭的な利害関係からそうしているのだと明確に示しています。私の見解では、彼らの一部は他の目的のために資金を調達したいがために、このように言っているのです。これは彼らの製品に関する主張などを本当には信用できないことを明確に示しています。
生成AIの良いニュースは、私の経験上、これらの製品を数時間使用すれば、企業の主張やメディアの報道、あるいは多くの場合、査読付きの学術文献よりも、あなたのユースケースでどのように機能するかについて、はるかに良い情報が得られるということです。
そのため、生成AI製品があなたにとって有用かどうかを判断する主な方法として、自分自身の評価を信頼することをお勧めします。他の評価方法を完全に除外する必要はありませんが、それを主な判断基準として使用してください。
実験の文化と同時に、企業やメディア、研究者から私たちに伝えられることに対して、少し懐疑的になる文化も促進したいと思います。大企業も小企業も既得権益を持っています。例えば、Facebookが最近、フェイクニュースの可能性のある情報の評価方法について方針を転換したことを見てください。Facebookはユーザーを獲得し、サービスを販売したい、あるいは無料で提供したいと考えています。そのため、当然ながらそこには既得権益があります。
その通りです。実際、私たちのAIスネークオイルの本には、ソーシャルメディアでコンテンツのモデレーション(つまり、どのコンテンツを残し、どのコンテンツを削除するか)や、レコメンデーションアルゴリズムに使用されるAIについて語る章が1章まるまであります。
私たちが到達した結論の1つは、ソーシャルメディア企業が直面している大きな課題は、パブリックスクエア、つまり私たちが行っているすべての会話の裁定者として、公衆の目に正当性を持っていないということです。これが、彼らがどのような決定を下しても、一方または他方、おそらく両方から激しい反発を受ける理由の1つだと思います。
これは10年以上前から一貫した特徴です。AIを加えることで、人間によるコンテンツモデレーションの労力は節約できるかもしれません。しかし、その根本的な正当性の問題の解決にはなりません。実際、むしろ事態を悪化させます。なぜなら、人々はAIに対して非常に懐疑的な態度を取っており、あまり信頼されていない企業がAIを展開すると、事態は悪化するだけだからです。
AIが避けられない間違いを起こすことへの反発のために、AIの役割が縮小されていることは、このことと非常に一致しています。また、政治的な風向きに応じて変化することも多くあります。おそらく、ソーシャルメディア企業は原則に基づいた決定を下すのではなく、そのような対応を余儀なくされているのでしょう。なぜなら、彼らは公衆から信頼されていないからです。
皆さん、今ご覧の方は、CXOトークのニュースレターを購読する絶好の機会です。cxotalk.comにアクセスしていただければ、今後の素晴らしい番組についてお知らせします。今すぐ質問することもできます。この機会を活用してください。TwitterまたはXでご覧の方は、ハッシュタグcxotalkを使用してください。LinkedInでご覧の方は、チャットに質問を投稿してください。アーヴィン・ナナンにほぼ何でも質問できる機会は、他にはないでしょう。ぜひこの機会を活用してください。
LinkedInのグレッグ・ウォルターズから質問が来ています。彼は「AIはIMDbなどよりもはるかに多くのことを見ることができるため、AIにはすべてのデータの匿名性を解除する能力があると考えていませんか」と尋ねています。
ここでの問題は、データがどの程度匿名化され、匿名化が解除され、それに関連する問題のセットが何かということだと思います。AIを使ってプライバシーを侵害し、あるウェブサイトやアプリから別のウェブサイトやアプリへ、あるデータセットから別のデータセットへとデータをリンクしようとする方法は確かに存在します。
大学院生時代の15年以上前、私の研究の多くは、まさにこのトピックに関するものでした。これらの大きなプライバシーの脆弱性を示すアルゴリズムを開発していました。最終的に私が到達した結論は、解決策の一部は技術的なものですが、主にプライバシーの懸念に対する解決策は、社会的、経済的、法的なものでなければならないということです。
確かに、AIによって悪意のある人々がプライバシーを侵害しやすくなる可能性はありますが、一般的にこれを行う人々の多くは商業的な動機を持っています。より多くの製品を販売したいなどの理由からです。外国の国家機関が特定の個人のデータや情報を狙うことは稀です。
そのようなリスクの高い人々も一部いますが、大多数の人々にとっては、規制を整備し、深刻なプライバシー侵害を伴うビジネスモデルへのインセンティブを取り除くことが重要です。この点で多くの進展があったと思います。米国には包括的な連邦プライバシー法はありませんが、州レベルでは多くのことが起きています。
もちろんEUには、GDPRのような規制があります。多くの人々がイノベーションへの影響を懸念していますが、これらは2つの地域が取っている異なるアプローチです。しかし全体として、プライバシーの面では進展があったと言えるでしょう。
ここで、この国際的な側面に興味をお持ちの方にお知らせしたいのですが、4月頃に、オンラインの有害性に非常に焦点を当てている下院議員2名との番組を予定しています。AIのトピックがその議論の中心になることでしょう。興味がある方は、CXOトークのサイトをチェックして日程をご確認ください。
アラロン・カーンから非常に興味深い質問が来ています。先ほどのエディスからの質問に関連していると思いますが、アラロンは「一般の人々はどのようにしてAIスネークオイルを見分けることができるのか、また、誰が道徳的・倫理的権威を作り出すべきなのか。政府なのか、営利組織なのか、非営利組織なのか、それともある種のパブリックスクエアなのか」と尋ねています。
つまり、2つの質問です。スネークオイルをどのように見分けるのか、そして何がスネークオイルで何が受け入れられるのかについて、誰が道徳的権威を作り出すのかということです。
生成AIに関しては、それが自分にとって機能するかどうかは、私たち一人一人が専門家です。TwitterやLinkedIn、あるいはどこかで、AIの専門家ではないかもしれませんが、自分の分野の専門家である普通の人々が、弁護士や医師など、自分の目的のためにこれらの主張されているAI製品を試してみて、その経験を投稿しているのを見ると、非常に良い証拠になると思います。
うまく機能した場合は、生産的に使用している方法を共有し、ある程度機能する場合は落とし穴を共有し、全く機能しない場合はマーケティングで描かれた方法とは異なる理由を共有します。私はそのような経験報告をとても価値があると考えています。マーケティング資料や、多くの場合、査読付きの研究よりも価値があると感じます。なぜなら、研究ではすべてのユーザーに対してAIを均一に適用する必要があり、あなたのAIアプリケーションが他の業界や同じ業界、異なる企業とどのように異なるかといったニュアンスの多くを見逃してしまうからです。
予測AIに関しては、一般の人々がこれを行うのは、専門知識が不足しているからではなく、予測AIが消費者技術ではないため、より困難な場合があります。これが大きな違いです。企業が展開します。人事部門かもしれませんし、刑事司法制度かもしれません。私たちにはアクセス権がありません。
そのため、規制を通じて、あるいはAIツールのクライアントがベンダーと交渉して、これらのツールがどのように評価されたかについて、単なる「97%の精度」といった見出しの数字を超えた厳密なデータを持つことを主張することが、本当に重要なステップの1つだと思います。どのようなデータセットが使用され、どのような文脈で展開されたのかを深く掘り下げ、そのデータを見て、自分で判断することを求める必要があります。
道徳的権威を持つのは誰かという点については、その意味でAIは、私たちが他の何かを規制する方法と何ら変わりはありません。規制は最終的に公衆の集合的意思から生まれ、それがメディアを通じて特定の問題を露呈させたり、非営利組織が特定の事柄を提唱したり、企業が模範を示したり、様々な方法でチャネル化されます。そして最終的に、規制当局がこれらすべてに基づいて政策を作成または執行します。
業界に関する興味深い質問がいくつか来ています。順番に取り上げていきましょう。グレッグ・ウォルターズは「教育複合体」内のスネークオイルについて尋ねています。
はい、それは確かに多くあります。可能性も大いにあると思いますが、最近のAIへの熱狂以前に遡っても、エドテックは失敗した製品の墓場のようなものでした。非常に多くの失敗例があります。私たちは本の中でそのいくつかについて触れています。また、「AIスネークオイル」というニュースレターでも、「AIジャーナリズムの18の落とし穴」というような記事を掲載しており、ニューヨークタイムズを含むメディアがエドテック製品をどのように報道し、それらの主張がいかに無批判に報道されたかを検証しています。それらの主張から数年後を振り返ると、多くの製品は今では消滅しています。
では、なぜこれが繰り返し起こるのでしょうか。まず、確かに可能性はあり、価値のある製品も多くあります。教育者として、私たちは確かに多くのテクノロジー製品を使用しており、その中には increasingly AIを、少なくとも単純な形で取り入れているものもあります。例えば、採点にはGradeScopeを使用していますが、これは採点者の効率を上げるために、学生の回答を異なるクラスターにグループ化するためにある程度のAIを使用しています。AIが採点を行うわけではありませんが、採点者を支援することはできます。これらは、小規模ではありますが、有用な活用方法の例です。
AIチュータリングに関する研究も多く出てきています。これも適切に行えば、非常に有用だと思います。私も学習モードの時によくAIを使用しています。落とし穴はありますが、有用な技術だと感じています。
とはいえ、この分野にスネークオイルが多い根本的な構造的理由は、より良い教育への主要なボトルネックが、より良い技術ではなく、学習の社会的前提条件にあると思います。少なくとも私の経験ではそうです。例えば、10年前には、これらの有名な教授たちがビデオ講義をオンラインで公開し、Courseraや他のオンラインソースで利用できるようになったため、大学は時代遅れになるだろうという想定がありました。
もちろん、それは起こりませんでした。大学教育の価値は、オンラインで自由に入手できる情報ではなく、学習が行われる社会的条件を作り出すこと、モチベーション、コミットメント、一対一のインタラクションなど、そういったものであることが分かりました。そして、ボトルネックがそのような社会的問題である場合、技術に過度の信頼を寄せることは、ほぼ必然的に失敗する運命にあります。
予測AIに関連する問題は、未熟な技術、未熟なアルゴリズム、未熟なデータセットの機能なのか、それとも既得権益と、製品を販売したり視聴者を獲得したりするといった、あらかじめ定められた目標がある場合に生じるバイアスの機能なのか、どの程度でしょうか。
両方です。後者の方が大きいと思います。インセンティブやそういった要因の方が重要です。しかし、技術についても少し話しましょう。技術にはある程度の限界があると思いますが、一般に想定されるような方法ではありません。これらのモデルを改善しても何も改善されないということではありません。限界はそこにはありません。
問題は、結局のところ、教師あり機械学習のアプローチを取る限り、つまり、パターンマッチングを行うモデルを使用する限り、そのパターンマッチングがいかに優れていても、それを使って因果推論に関する決定を下そうとすることです。例えば、この人を採用したら、その人のパフォーマンスにどのように影響するか、これは因果関係の問題です。医療でも同様です。
AIを展開することで、これらの因果関係の問題をすべて純粋な予測の問題に還元しているのです。これが今日の技術が根本的に限界を持つ方法です。プリンストンの同僚を含む多くの研究者がこの問題に取り組んでおり、機械学習に因果推論の技術を統合する方法もあります。これが前進への道筋となる可能性があります。万能薬にはなりませんが、今日私たちが持っているものよりも、データに基づくより良い意思決定システムにつながる可能性があると思います。
しかし、それでもなお、根本的な問題の多くは技術に関するものではありません。本の中で議論している一例は、大学で中退するリスクのある学生を予測するソフトウェアです。私はこれをスネークオイルとは呼びません。意図は良いもので、そのような学生を助け、より良い成果を出せるよう、より多くのリソースを投入することができます。
これがどの程度正確なのかは詳しく調べていませんが、少なくとも有用であるには十分な精度があっても不思議ではありません。完璧に正確である必要はありません。問題は、特定の大学がこれをどのように使用していたかです。ある調査報告があり、今日、多くの財政的プレッシャーにさらされている大学の長いテールについて語っていますが、彼らはこれを学期の最初、新入生が入学したばかりの時に使用して、誰が中退する可能性があるかを予測し、事前にプログラムを辞めるよう促そうとしていました。
なぜ彼らはこのような学生に敵対的な方法で使用していたのでしょうか。それは、学生が非常に早い段階でプログラムを辞めれば、登録数にカウントされず、したがって卒業率が良く見えると考えたからです。製品が良い意図を持って作られ、非常にうまく機能したとしても、最終的に意思決定の対象者を助けるのではなく害を与えるような方法で使用するのであれば、それは技術の問題ではありません。
そうですね。技術の適応や使用があり、人々がスケールを操作することで、意図しない結果を招く可能性があります。
その通りです。時には意図的な結果もありますが、非常に多くの場合、意図しない結果が生じます。
LinkedInからSHキアラさんが「AIの業界が誇張された主張や不公正な慣行に対して説明責任を果たす上で、アカデミアはどのような役割を果たせるでしょうか」と質問しています。
製薬業界について考えてみましょう。誇張された主張や不公正な慣行が多くありましたが、医療コミュニティ、つまり実践医師や学術医学研究者がいました。多くの医学研究が最終的に薬を改善する目的に向けられていますが、医師は自動的に業界と同じ方向を向いているわけではありません。実際、利益相反に関する厳格なルールがあり、独立性は強く重視されています。資金源に多くの注目が集まっています。
一方、コンピュータサイエンスの学術界では、もちろん学術界はそれよりもはるかに広いのですが、AIを構築している人々の間では、歴史的にそのような認識はありませんでした。コンピュータサイエンスの学術分野は、実際に業界を支援する方法として、より多くの技術を構築し、アイデアのプロトタイプを作り、業界が採用し商業化できる概念実証製品を構築する方法として発展してきました。
壁はなく、実際、業界と学術界を行き来することは高く評価されています。人々は複数の所属を持ち、それらの間に矛盾を感じていません。これが必ずしも悪いことだと言っているわけではありません。このようになっている理由はありますが、学術コンピュータサイエンスコミュニティの強力なサブセットが、業界を支援することではなく、業界への対抗力となることにアイデンティティを見出す必要があると思います。業界から出てくる主張を事実確認するためです。
歴史的に、コンピュータサイエンスはそのような文化を持っていませんでした。今では発展し始めており、私はこの役割を果たすコンピュータサイエンティストの非常に小さなマイノリティの一員であることを誇りに思っています。もちろん学術界はより広く、テクノロジー業界に非常に批判的な人文科学の研究者など、多くの人々がいます。それは本当に良いことだと思います。
そして、そのような批判的な声は、技術についてより多くの情報を得れば、さらに効果的になる可能性があります。彼らは最善を尽くしていると思いますが、例えばコンピュータサイエンティストとの協力があれば、より生産的になる可能性があります。これも学術界がこの役割をより効果的に果たす方法の1つです。
学術界には明らかに専門知識があり、ソフトウェアベンダーよりも中立的な視点を持っていることが期待されます。
その通りです。しかし、コンピュータサイエンスの大部分ではこれまでそうではありませんでした。また、コンピュータサイエンス以外の分野でも、化学、政治学、医学など、どの分野であれ、機械学習を使って進歩を遂げようとする人々は、誇張や誇大広告に陥りやすい傾向があります。
彼らはお金を稼ぐためにそうしているわけではありませんが、誇張された論文はアイデアの市場でより成功する傾向があります。残念ながら、同じような悪いインセンティブが存在します。学術界は自己規律を行う必要があると思います。そうすれば、より中立的で責任ある存在としての評価に値するようになります。現時点ではその評価に値しているとは思えません。
これは人間の本質の核心に触れることで、AIに特有のことではなく、人間の野心や目標などに関係しています。先ほど言ったように、AIは人々によって動かされているので、AIも他の何かと同じように、同じような困難に直面することになります。
それは妥当な観察だと思います。
CIOマガジンのシニアライターであるポーラ・ルーニーから興味深い質問が来ています。彼女の記事で使えるような回答を提供できればと思います。ポーラの質問はこうです:「CIOのような経験豊富な技術者が信じているAIベンダーによって広められている誤解や虚偽のトップ3は何でしょうか」
CIOは、理論的には分かっているはずなのに、信じたいがために信じてしまうことが多くあると思います。その1つは、これがAIである、あるいは今日のバズワードであるAIエージェントであると主張することです。実際には従来型の自動化に過ぎません。
業界で私が観察している1つのトレンドは、ChatGPTが登場した後、明らかに大きな取り残される恐れがあり、多くの企業が大規模なAI投資を決定したことです。それから2年が経ち、多くの企業の取締役会や投資家は、この投資のリターンはどこにあるのか、このAIは企業に何をもたらしたのかと尋ね始めています。
このような状況で、多くのCIOが奨励されているのは、従来型の自動化をAIエージェントとして再ブランド化することです。AIエージェントがスネークオイルだと言っているわけではありませんが、少なくとも現時点では非常に誇張されています。これによって自分自身を欺くことができますが、同時に投資家をある程度欺いて、企業でのAIユースケースの探求に資金を投入させることができます。これが、CIOがある意味でAIスネークオイルに騙される例の1つです。
AIエージェントは、ある意味で偉大な到来の次なるものだと思いますか?
ある意味では、それらはすでに現実のものです。例えばチャットボットを見てみましょう。初期のチャットボットは、大規模言語モデルのウェブラッパーに過ぎませんでした。大規模言語モデルを取り、丁寧な応答をするようにファインチューニングし、基本的にそれをウェブ上に解き放っただけです。
しかし、今日のチャットボットはそうではありません。それらは本格的な製品で、記憶を持ち、コードを書いて実行する能力を持ち、ウェブを検索して情報を見つける能力を持っています。他にも多くの機能があり、バニラのLLM(大規模言語モデル)よりも有用なものにする数十の機能があります。これらの機能の多くをエージェント的と呼ぶのは合理的だと思います。ある意味で、チャットボットを使用する時、私たちはすでにAIエージェントを使用しています。これはAIエージェントが機能している一例です。もう1つの例を挙げると、オンラインでより良い研究を行う方法があります。科学的研究や新しいアイデアを生み出すことではなく、特定のトピックについて多くの情報を非常に効率的にコンパイルしたり、何十もの異なるウェブ検索を行って大きなリストをコンパイルしたりするようなものです。
Google Deep Researchのようなツールは、私にとって非常に有用だと感じています。これは非常にエージェント的なものです。これらはエージェント型AIの成功例です。コーディングにおいても、いくつかのエージェント的なユースケースがあります。小規模ではありますが、重要な成功があります。
誇大宣伝は、AIエージェントが人間の労働者の代替になるというような主張の周りにあります。正直なところ、それは少し馬鹿げていると思います。自分の仕事や他の人の仕事について考えてみると、1日の中で必要な数十、おそらく数百の小さなタスクがあります。インターネット上のテキストから訓練されただけで、エージェントがそれらすべてを学習できるという考えは、非常に説得力に欠けると思います。
これらの繊細なタスクを企業の文脈で実行するように訓練する唯一の方法は、それらの状況で実践し、間違いから学ぶことです。これは数年、おそらく数十年かかるプロセスになるでしょう。エージェントを真空の中で訓練し、その後解き放つだけの問題ではありません。エージェントは私たちが行うすべてを自動化することはできませんが、すでに小規模ながら重要な有用なことを行っています。
LinkedInのティカ・ナギさんが「AIを通じたスーパーインテリジェンスについてのあなたの見解は?」と質問しています。
この銀河の脳のような超知能を構築するという考えは、特定の仮定に依存しています。それは私たち対AIという仮定に依存しています。AIの歴史を見ると、そうではありませんでした。AIが賢くなるにつれて、私たちはその賢さを自分たちのワークフローに組み込むことができ、少なくとも現時点では、私たちの知性の方がはるかに一般的で柔軟であるため、AIの能力を私たちのワークフローに組み込むことで、実際に私たちの知性を高めています。
現在、予見可能な将来において、労働者対AI、あるいは人間対AIのような力学に陥る理由はありません。モデルがどんなに小さくても、最終的には私たちをより賢くするのです。スーパーインテリジェンスという概念全体を、超有用な自動化ツールとしてではなく、制御されない方法で、私たちのために何かを行うのではなく、自分で何をするか決定するような方法で解き放つことを前提としています。
これが私が指摘したい重要なポイントです。スーパーインテリジェンスを構築するかどうかは、技術の能力に関する問題ではなく、それをどのように展開するかについての規範的な選択なのです。予測不可能すぎるため有害になる可能性が高いスーパーインテリジェンスとしてではなく、AIがどれだけ賢くなっても、人間の能力を増強する方法で展開することを選択できます。
AIビジネスやAIベンダーの人々から、スーパーインテリジェンスがもたらす素晴らしさに水を差していると非難されることはありますか?それはとても近いと言われていますが。
様々な視点から私たちのメッセージを好まない人々がいます。AIを推進する人々もいれば、AIと実存的リスクを非常に懸念し、私たちがそれらのリスクを最小化しようとしていると考える人々もいます。
私たちはリスクを最小化しようとしているわけではありません。単に、今どのような政策的対応をすべきかについて、特定の見解を持っているだけです。また、AI倫理やAI開発の資本主義的モデル全般を非常に懸念し、実際にはすべてのAIにもっと強く反対すべきだと考える人々もいます。
私たちは特定のタイプのAIが約束を果たしていないことについて語っているだけです。ある意味で、一方向からではなく、様々な方向から非難されているのは良いことだと捉えています。おそらく何らかの健全な中間地点にいるのでしょう。私はその立場にいることを気にしません。
健全な中間地点とは、一方からだけでなく、みんなから攻撃されるということですね。
その通りです。
本の中で議論されている1つのことは、制度の性質と、欠陥のある制度がこのAIスネークオイルの問題にどのように寄与しているか、あるいは寄与していないかということです。それについて話していただけますか?
典型的な例は採用と人事です。先ほど、この分野のいくつかの欠陥のある製品を批判しましたが、これらの製品がそれほど成功している理由は、求人に応募がある人なら誰でも、1つのポジションに数百、おそらく1000の応募があり、それらすべてを手作業で読んで面接することは不可能だからです。
そのため、AIベンダーが来て「この問題の大部分を自動化できます」と言うと、それはとても魅力的に聞こえます。たとえ心の奥底で製品が誇大広告に応えられないかもしれないと分かっていても、この効率性の向上から恩恵を受けるために、懐疑的な態度を脇に置きたくなります。
しかし、1つのポジションに応募者が多すぎるという根本的な状況があるなら、それは組織や制度の問題です。技術はそれを解決する可能性は低いでしょう。なぜなら、今や求職者もAIを使用して、応募できる機会を大幅に増やしています。これは単にアームズレースを作り出しているだけで、より多くの技術がこのアームズレースから私たちを救い出すとは思えません。
その代わりに、採用の方法を改革することを考えるべきです。そこには多くの素晴らしいアイデアがあります。履歴書と面接だけでなく、2週間や1ヶ月の有給プロジェクトで一緒に働くことで、その人のスキルとポジションへの適性をより深く評価するソフトウェア企業を知っています。これは1つのアイデアに過ぎず、他にも多くのアイデアがあります。
私は部分的な抽選にも本当に賛成です。アイデアとしては、ポジションに対する基本的な資格の評価はできますが、それを超えて応募者をランク付けしようとすることは、自分自身を欺くだけの行為です。なぜなら、誰かの職務パフォーマンスがどうなるかは非常に不確実だからです。
人々の職務パフォーマンスのばらつきは、ある人が他の人よりも能力が高いことの結果ではありません。それはばらつきの小さな部分しか説明しません。多くは、このマネージャーとの相性が良くないなど、採用時点では決定されていないような要因によるものです。
私たちにできる最善のことは、基本的なフィルタリングを行い、その後ランダムに選択することです。もしそれについて率直であれば、プロセスを劇的に簡素化し、実際に応募者にも明確さと安心感をもたらすことができます。応募者の質を下げることなく、採用プロセスで多くの手間を省くことができます。
アーヴィン、あなたは1つの特定のユースケースと、そのプロセスを改善する方法について説明しました。もちろん、業界やプロセス、見ているものによって大きく異なります。AI自体を見る方法、AIを管理する方法、政策的な観点からAIを潜在的に規制する方法について、これらすべてのユースケースに共通する根本的な変化を促す方法はありますか?
この質問をする理由は、包括的なAIコントロールと政策が、このユースケースやアプリケーション固有の問題群に直面した時に、実際に何かを達成できるのかという深い示唆があるからです。
政策と規制の大部分は、業界固有、ユースケース固有であるべきだと思います。しかし、少なくともAI全般のコントロールについて考える必要がある場合が2つあると思います。
1つは、モデルの重みを公開することについての問題です。それを禁止すべきか、政策立案者は中立であるべきか、あるいは実際に公的資金を使用してオープンウェイトモデルを構築し公開することを奨励すべきか。これはもちろん非常に論争の的となる問題です。私たちはオープンな側に傾いており、その理由について多く書いています。
オープン性にはリスクもありますが、その利点はすべての業界で実現されるでしょう。なぜなら、モデルを取得してカスタマイズすることがはるかに容易になり、オンプレミスで実行できるため潜在的にコストを下げることができ、同じ理由でプライバシーの面でも良いからです。横断的な利点をもたらす可能性があります。
もう1つは労働です。よろしければ歴史的なアナロジーを挙げさせてください。産業革命の後、最終的には誰もの生活水準が向上し、それは起こった最良のことの1つでしたが、30〜40年の間、ひどい労働条件をもたらしました。人々は地方から都市に移住し、安全条件は恐ろしく、1日16時間労働で、職場の安全性はなく、集団交渉もありませんでした。現代の労働運動はそこから生まれました。
今日、AIが資本と労働の関係の大規模な再構成を引き起こしているという懸念があります。大規模な失業が発生する可能性があり、仕事が必ずしも失われない分野でも、AIによって仕事がより退屈なものになる可能性があります。例えば、今や仕事が1日中AIのためのデータラベリングだけになるかもしれません。そして、そのような仕事の多くは、低所得国にアウトソースされ、人々は本当にひどい労働条件について不満を訴えています。
おそらく、AI時代のための新しい労働運動が必要かもしれません。これも横断的なものになり、あらゆる労働者を何らかの形で助ける可能性があります。
つまり、あなたの言っているのは、今この瞬間、私たちはプレAIから成熟したAIまでの過渡期にあり、これらの社会的問題や雇用の問題、経済モデルが解決されていない、この中間的な混乱期にいるということですね。
その通りです。
では、何をすべきでしょうか?まずはユーザー、つまりビジネスリーダーから始めましょう。何がスネークオイルなのか、そして私たちの企業内で何をすべきなのかを評価するためのフレームワークはありますか?
1つ提案できることは、先ほど「AIジャーナリズムの18の落とし穴」という記事について触れましたが、これはジャーナリストだけでなく、ニュースを見たり読んだりして、新しいAI製品について多くの情報を得ている人なら誰でも使えるものです。私たちの特定のリストを見る必要はありませんが、どのような落とし穴に注意すべきかについて、何らかの方法を心に留めておく必要があります。
なぜなら、これらの中には単に繰り返し発生する問題があるからです。例えば、正確にどのように評価されたのかという文脈なしに「97%の精度」というような主張を目にするかもしれません。これでは、その評価があなたの特定の状況に実際に適用可能かどうかを判断することができません。これがAIに関する情報に遭遇した時にできることの1つです。
2つ目は、あなたの組織におけるAIの実験、パイロット、展開、ガードレールの設定に関する文化はどのようなものでしょうか。ここには個々の労働者の役割があり、ボトムアップの側面がありますが、トップダウンの側面も重要です。
トップダウンの観点から、企業はいくつかのことを行う必要があります。プライバシーと機密性などの適切なガードレールを設定する必要があります。これらは個々の労働者に任せることはできず、企業レベルで強制される必要があります。そしてもっと微妙な問題もあります。例えば、イーサン・ミック教授が書いているように、多くの場合、従業員がAIベースの革新、つまりワークフローを速くする方法を実験する時、それを会社全体で共有することを躊躇する可能性があります。
なぜなら、より多くの仕事を任せられるだけで、この革新を同僚に紹介したことに対する評価を得られないことを心配するからです。これも再びトップダウンで対処する必要があります。どのように人々に実験の自由を与え、新しいことを考え出し、そしてその報酬の一部を得られるようにするのか。これらはいくつかの例ですが、他にも多くのことがありますが、あまり長くなりすぎないようにしたいと思います。
マーケティングの観点からはどうでしょうか。スネークオイルについて話す時、実際には宣伝されていることと、それが生み出す期待と、結果の現実との間のギャップについて話しているように思えます。
マーケティングを見ると、まず何かをAIと呼ぶという決定から始まり、そこには非常に大きなインセンティブがあるなど、物事が誇張される方法が多くあります。おそらくこの点については、市場が少し自己修正するかもしれません。すべてをAIと呼ぶことへの反発が始まっているので、人々はすべてにAIのラベルを貼ることをやめるかもしれません。
しかし、何かをAIと呼ぶのであれば、本当に基本的なことを1つか2つ期待します。どの部分がAIなのか、どのような種類のAIで、AIはどのようなタスクを解決するように求められているのかを明確にすることです。これだけでも多くの明確さをもたらすでしょう。人々は自分で、これはAIが実行できるタスクだと考えるかどうかを評価できます。
さらに一歩進んで、その証拠を示すことです。これら2つのステップで、AIに関連する誇大広告の大部分に対処できると思います。しかし、言うは易く行うは難しです。これらの誤ったインセンティブが多くあるからです。
ソフトウェア企業内には、視聴者を獲得し、製品を販売するための多くのプレッシャーがあります。AIは多くの場合ブラックボックスであり、直接的に言わなくても、「私たちはこれを持っており、あなたの問題を解決できます」と示唆することは非常に魅力的です。
全くその通りです。政策立案者についてはどうお考えですか?政府の政策について、それは起こるべきか、何で構成されるべきか、そしてどのようにそこに到達すべきかについて、どのようなお考えをお持ちですか?
多くの人々は政策立案者を嘲笑したり、不満を言ったりするのを好みますが、私は首を突っ込んで言いますが、これまでのところ、AIについて彼らはかなり良い仕事をしています。もちろん私も不満はありますが、週に少なくとも1回は何らかの形で政策立案者と仕事をしており、彼らを間近で観察する機会を得ています。
いくつかの肯定的なことを言い、うまくいっていない分野についても話したいと思います。2024年だけでも、米国の50の州議会で1000近くのAI法案が提出され、その中の数十の法案が可決されています。実際、多くの人々が過剰規制を懸念しています。このような無法地帯というアイデアは全く事実ではありません。
私は多くのAI規制が、技術そのものではなく、人々がそれをどのように使用するかに焦点を当てていると思います。米国では一般的に分野ごとのアプローチを取っており、これは基本的に正しい方法だと思います。
もう1つ懸念される分野は、政策立案者があまり技術に詳しくないということです。それは非常に事実ですが、テレビに出てくる政治家が実際に政策を作っているわけではありません。それは彼らのスタッフであり、機関であり、司法長官などです。そして、それらの場所では、ChatGPTやAIリスクなどへの懸念から、過去数年で技術的専門知識が大幅に増加しています。
これらはすべて進歩の分野です。まだ長い道のりがあると思います。例えば、米国とEUを比較すると、私たちは彼らに比べて大きく遅れているという人もいます。連邦レベルでの法制化があまりなく、それについての懸念もあります。おそらくこの50州のアプローチは正しい方法ではなく、企業に過度の規制負担を課すだけかもしれません。これらはすべて不満を言う理由となりますが、高いレベルでは物事がうまくいっていることを認識する必要があります。政策の分野で災害が起きているわけではありません。
アルサン・KHさんが「理想的なAIレディな組織をどのように作ればよいのでしょうか。レガシー組織とスタートアップでは、どちらの方がチャンスがあるでしょうか」と質問しています。
レガシー組織かスタートアップかは分かりませんが、本当に業界とユースケースを中心に考える必要があると思います。AIは魔法の弾丸のように見られることが多いですが、既存のワークフローでAIがどのように役立つかを探す前に、まず自分の問題が何かから始める必要があります。ワンストップショップのソリューションとして見るのではなく、逆に考える必要があります。
取締役会は、高度に技術的で非常に急速に変化するAIのような技術における倫理的評価、評判、財務的脆弱性をどのように評価できるでしょうか?
良いニュースは、AIが高度に技術的で急速に変化しているのは事実ですが、AIのどの側面が害や懸念、評判リスクを引き起こすのかを考える時、それらは既知の量だということです。例えば、以前はより単純な形のAI、より単純な機械学習モデルについて、バイアスが大きな問題でしたが、生成AIモデルでも大きな問題です。
私たちは基本的にバイアスの監査方法を知っており、それはモデルの詳細にはそれほど依存しません。AIバイアス監査人の全コミュニティがあり、より最近のAIモデルについても取り組んでいます。技術によってではなく、何が間違う可能性があるのか、どのような害やリスクがあるのか、それらのリスクを最小限に抑えるためにどのようなプロセスを導入したのかによって分類すれば、技術の気まぐれにそれほど左右されません。
また、先ほど学術界について話しましたが、このバイアスの問題を本当に研究している学者がいて、彼らもビジネスの人々の助けになれると確信しています。
その通りです。
アーヴィン・ナナン、お時間を取っていただき、ありがとうございました。とても興味深い議論でした。
ありがとうございました。あなたと視聴者からの質問、すべてが素晴らしかったです。
視聴者の皆様にも大きな感謝を申し上げます。その前に、ニュースレターを購読してください。cxotalk.comにアクセスし、今後の素晴らしい番組をチェックしてください。皆様、良い1日をお過ごしください。また次回お会いしましょう。

コメント

タイトルとURLをコピーしました