OpenAIの経済研究チームに所属していた複数の研究者が、同社が都合の悪い研究結果を公表せず、プロパガンダのような情報操作を行っているとして退職した。内部告発によれば、OpenAIはAIによる生産性向上を強調する一方で、雇用喪失や経済的混乱といった負の影響を軽視し、規制強化や世論の反発を避けるために不都合な研究を隠蔽している疑いがある。この問題はOpenAIの透明性の欠如を浮き彫りにし、Anthropicなど競合他社がAIの雇用への影響について率直に語る姿勢と対照的である。AI技術の急速な普及に伴い、社会的反発も高まっており、企業の倫理的責任が改めて問われている。

OpenAIの研究隠蔽疑惑が浮上
OpenAIの研究者の何人かが、同社が真実を隠していると言って退職しました。いいえ、これはクリックベイトではありません。これは実際の記事であり、OpenAIは実際に今回真実を隠しているのです。ですから、その真実が何であるかを知ることが重要です。
Wiredからのこの記事はかなり衝撃的です。OpenAIのスタッフが退職し、同社の経済研究がAI擁護に傾いていると主張していることについて書かれています。
本質的に彼らが言っているのは、状況に近い4つの情報源、おそらくOpenAIの内部関係者が、基本的にOpenAIは実際の研究を公表することに消極的であると主張し始めているということです。なぜなら、それがAIの影響についてあまりにも否定的だからです。そして同社は、経済研究チームの範囲を拡大しただけだと言っています。
今、彼らがここで本質的に言っているのは、OpenAIは基本的に生産性の向上を強調する一方で、実際には雇用の喪失を軽視し、混乱を一時的または管理可能なものとして描き、規制を促進したり、世論の反発を引き起こしたり、採用を遅らせたりする可能性のある研究の公表を避けているということです。
これは狂っています。これは本当に狂っています。なぜなら、もしOpenAIが完全に透明な会社であるなら、彼らはその研究を公表するはずだからです。しかし、その研究が彼らの最善の利益に反するものになるやいなや、彼らは単にそれについて話さないのです。そして、なぜこれがとても重要なのかを理解する必要があります。なぜなら、何かがあなたの最善の利益になるからといって、その情報を明かさないということではないからです。
そして、他の会社がどのように異なるアプローチを取ってきたか、そしてなぜこれがOpenAIにとって単にひどく見えるのかをお見せします。これは単なる小さな状況ではないことを理解する必要があります。この状況は、人々が非常にイライラして、経済研究チームで働いていた少なくとも2人の従業員が完全に退職するところまで到達したのです。
皆さん、考えてみてください。おそらくかなりまともな給料を支払われ、おそらく何らかの株式報酬があり、会社の評価額が伸びているOpenAIのような会社を辞めるためには、それはかなり倫理的な理由でなければなりません。ほとんどの人は、高額な6桁の給与や本当に高い給与を、正当な理由なしに手放すことはありません。
つまり、それらの報告書には何が書かれていたのでしょうか?それらが公表されない程度まで、そしてそれらの研究者が単に辞めることを決めた程度まで、それらの報告書には何が含まれていたのでしょうか?私はその程度が明確な決裂点を示していると思います。なぜなら、私たちは以前にこのパターンを見たことがあり、それについては後で話します。そして正直なところ、OpenAIの従業員が辞めたその時点は、会社内で重要なことが起こった重要な瞬間でした。
研究者の告発内容
これらの従業員の1人は経済学研究者のトム・カニンガムでした。そして、社内で共有された彼の最後の別れのメッセージの中で、彼は経済研究チームが本当の研究をすることから逸脱し、代わりに雇用主のプロパガンダのように振る舞っていると書きました。そして、それはひどいことです。私たちは今、OpenAIが経済やAI導入に関する研究報告を公表したときに、もはやそれを信頼できない地点に達しているのでしょうか?なぜなら、OpenAIに雇われているそれらの研究者は、明らかにOpenAIの立場を支持する方法でその研究をある程度誘導するような何らかのインセンティブを持っているからです。
それはもちろん非倫理的です。私は大胆な推測をして、おそらくそれがOpenAIがそれらの個人に微妙に要求したことである可能性が高く、それがおそらく彼らが辞める必要性を感じた理由だと言います。つまり、この状況でプロパガンダの手先として行動するように求められていないなら、なぜ他にこれを辞めるのでしょうか?正直なところ、それが私にとって意味をなす唯一のことです。
この記事全体は、OpenAIがさまざまなシナリオでAIが経済にとってどれほど悪い可能性があるかを理解していることを私に示しています。しかし、もちろん、彼らは単にその研究を公表しないことを選択しています。なぜなら、それが彼らのパブリックイメージをさらに損なうからです。ですから、透明であることよりも、彼らは単にその研究を隠すことを選択しているのです。
OpenAIの対応と問題点
さて、これについて狂っていることは、OpenAIが解決策を構築しているようには見えないということです。研究者の1人、OpenAIの最高戦略責任者は、実際に会社は難しいテーマについて研究を公表するだけでなく、解決策を構築すべきだと言うメモを送りました。難しいテーマに関する私の見解は、それらについて話すべきではないということではないと言っています。
クアンは次のように書いています。むしろ、私たちは単なる研究機関ではなく、世界のアクター、実際にはAIという主題を世界に持ち込む主要なアクターでもあるため、それらの結果に対する私たちの主体性を引き受けることが期待されています。そして、それは非常に真実です。OpenAIは単に研究を公表するだけでなく、実際に社会にとって有益な方法でAIを実装する方法について、その分野を先駆けるべきです。
さて、皆さん、覚えておいてください。AIは経済にとって、社会にとって悪いものである必要はありません。それは実際に社会にとって良い方法で実装することができます。今のところ、私たちは単に無謀な道を歩んでいるだけです。さて、もしあなたがOpenAIが実際に何をしているのか本当に疑問に思っているなら、私はこの文書を見つけました。それは「AI at work」と呼ばれています。OpenAIの労働力青写真です。
基本的に、これはAIが時間とともに仕事を徐々に再形成することを理解している文書であり、これは私が推測するに、ある種、AIを単に全員を置き換えるのではなく、ある程度変革的な方法で労働力に実装するための彼らの計画の一部です。ここに書かれているのを見ることができます。もしこれらの傾向が急速に加速すれば、新しい仕事が創出される速度よりも速い速度で、多くの新卒者にとって梯子の最初の段が手の届かないところに押し上げられる可能性があり、企業と政府からの強力な対応が必要になると書かれています。企業と政府。
まあ、政府はおそらくとにかくAI企業によってロビー活動をされているでしょう。そして彼らはその対応がどのようなものかについて話しています。それはAI教育とトレーニングの取り組みを加速することから始まるので、新卒者と残りの労働力は次に来るものに対してより良い準備ができるようになります。さて、私はこのビデオがOpenAIに対する完全な否定的なものになることを望んでいません。研究を公表しないことは絶対にひどいことですが。
彼らは、すでに200万人のアメリカ人がOpenAI Academyプラットフォームに参加していると言っています。OpenAI認定を通じて、彼らは2030年までに1000万人のアメリカ人がAIスキルを向上させるのを支援し、雇用主が信頼を持って雇用するために必要な自信を与えます。そして、OpenAIジョブプラットフォームを通じて、彼らは何百万もの人々により良い仕事と長期的なセキュリティを通じて安定と成長への道を与えることによって、労働力を未来に備えさせるのを支援します。
私が言わなければならない唯一のことは、彼らが実際にこれらの期待に応えることを願っているということです。彼らの会社がまだ苦労している場合でも。なぜなら、これらのAIの影響は明らかに来ているからです。さて、これがOpenAIから人々が去った唯一の時ではないことに注意することが重要です。私が最初に話したように、さまざまな異なる理由で人々がOpenAIを去った数回の異なる時がありました。
過去の退職者と透明性の問題
つまり、さまざまな異なる倫理的理由で人々が去りました。誰かがスーパーアライメントチームを去り、基本的にOpenAIは実際に安全性に焦点を当てる代わりに、輝かしい製品に焦点を当てているだけだと言いました。それからもちろん、他の誰かも去り、別の研究者マイルズ・ブランデージも去り、基本的にOpenAIが公表しないであろう彼自身の研究を公表したいと言いました。
そして、私が面白いと思ったことの1つは、最初に私がOpenAIが研究を公表したくない理由について話したことを覚えていますか。もちろん、それは彼らの最善の利益ではないからです。しかし、AnthropicのようなCEOが、AIの雇用喪失は現実のものになるだろうし、私たちはそれに備える必要があると完全にオープンに述べているという事実はとても異なります。少なくともそれらのホワイトカラーの仕事の50から60パーセントは、AIがすでにそれらのタスクで平均的な人間を超えているため、今後1から5年以内になくなるという意味で。
ですから、私はその対比が際立っていると思います。なぜなら、それは単に透明性のレベルを示しているだけで、より多くの人々がAnthropicの製品を使いたいと思い、彼らをより信頼するようになるからです。なぜなら、もし彼らが実際に何が起こっているかの真実を言うことができ、研究を隠さず、現実から逃げないなら、それはOpenAIにとって良く見えないだけです。
私はAI技術について考えます。そして、それが良くなるにつれて、繰り返しますが、もし私たちがこれをうまく扱わなければ、私たちはここで選択肢があります。私たちが悪い結果に運命づけられていると言っているのではありませんが、もし私たちがこれをうまく扱わなければ、私はその急速な成長が多くの人々にとっての雇用の置き換えと結びつく可能性があることを心配しています。
あなたははるかに大きなパイを得ることができますが、そのパイはより少ない数の人々により集中する可能性もあり、何も得られない人々がいる可能性があります。それが私の懸念です。そして具体的に、あなたが言ったようなエントリーレベルのホワイトカラーの仕事のような仕事を見ると、法律事務所で働く人々、例えば1年目のアソシエイトのことを考えます。文書のレビューがたくさんあります。それは非常に反復的ですが、すべての例が異なります。それはAIが非常に得意とするものです。もしあなたがコンサルティング会社でのエントリーレベルの仕事での1年目のことを考えると、典型的なエントリーレベルのホワイトカラーの仕事ですよね。
もしあなたがエントリーレベルの事務作業のことを考えると、物事を調整し、物事をスケジュールし、物事を整理し、メモを取る人々です。
もしあなたが金融会社でのエントリーレベルの仕事のことを考えると、財務文書の日常的な分析を行う、ですよね。これらはエントリーレベルのホワイトカラー労働の主力です。それでも、それらはAIがすでにかなり得意としていることであり、AIは急速に良くなっています。
AIへの反発の高まり
さて、昨日のビデオで話したように、AIへの反発は悪化し続けるだけだということを覚えておいてください。
そして、これは私が文字通り見つけたばかりの記事で、存在することさえ知りませんでした。しかし、生成AIが社会全体に広がり続けるにつれて、技術に対する反発と否定的な影響が同時に高まるだろうという事実について話しています。貢献者の1人が、AIシステムに対する新しい種類の周辺的な敵意があるという事実について話しているのを見ることができます。
そして、労働者を置き換える技術に対して反乱を起こすことについての本の中で、AI企業が基本的にそれをスピードランしたという事実について話しています。それはシリコンバレーのスピードランのようなものです。さて、もちろん、彼らはオンラインでの否定的な反応が今現在のより大きな傾向を示しているという事実について話しています。Chat GPTを使用するアメリカ人が増えているにもかかわらず、多くの人々が実際にAIの彼らの生活への侵入にうんざりしており、反撃する準備ができています。
そして、もしあなたが昨日のビデオを見て、私がこれについて話し、AI CEOがおそらく公開スピーチへのアプローチを変えるだろうという事実について話したなら、もしあなたがオンラインにいて、人々がAIについてどのように話しているかを見たなら、これが比較的真実であることを理解するでしょう。しかし、これについてあなたがどう思うか教えてください。
誰かが実際にOpenAIを辞めて、彼らが研究を公表していないと言ったことは狂っていると思いますか、それともこれがOpenAIにとって彼らの透明性の欠如という点でさらに悪いと思いますか?非常に多くの異なるスキャンダルと非常に多くの異なることがあり、正直に言うと、それは今後のOpenAIにとって良く見えません。
私が単に感じるのは、彼らが私たちに全体像を決して教えてくれない非常に多くのことがあるということです。そして、私は本当に彼らが将来それを変えることを願っています。なぜなら、彼らの世間の認識は、確かに今のところ少なくとも史上最低だからです。あなたがどう思うか教えてください。それでは皆さん、また会いましょう。


コメント