AIとは何か: 未来に待ち受けるもの | モーガン・ゴダール、AIエンジニア | Z2ポッドキャスト #35

AGIに仕事を奪われたい
この記事は約56分で読めます。

33,509 文字

🎙️ L’IA : voici ce qui nous attend I Morgan Godard, ingénieur IA I Z2 Podcast #35
Elle transforme nos vies, nos jobs et même nos décisions… mais à quel prix ? Entre avancée technologique et menace incon...

ソーシャルメディアに費やす時間と政治的意見の過激化には直接的な関係があります。これを示す研究がどんどん増えていて、特定のネットワークBに時間を費やすと、右であれ左であれ、次第に過激になっていきます。もしAIが何でも言うようになり、人種差別的な発言などをするとしたら、それはAIのせいではなく、トレーニングに使われたデータベースやそのような発言をした利用者に関連しています。
しかし確実に言えるのは、人々を啓発する必要があるということです。適当なことをしてはいけません。AIによる雇用喪失の問題は必然的に生じますが、現在は雇用の喪失にばかり注目して、生み出される可能性のある雇用創出が見えていません。ピッカーハンマーの例を取ると、確かに以前は何人もの採掘者が必要でしたが、ピッカーハンマーがあれば一人だけで済みます。ただし、そのピッカーハンマーを製造するための人、整備するための人も必要です。
では、最大の危険は何でしょうか?今後数ヶ月で実際に起こりうることは何ですか?
こんにちは、Z2ポッドキャストの新しいエピソードへようこそ。今日のゲストは少し特別で、スポーツの話題が中心ではありません。スポーツについても話しますが、主にそれ以外の内容になります。
モーガン、こんにちは。来てくれてありがとう。少し説明すると、モーガンはジュールのクライアント、いや、ジュールのコーチングを受けている人で、現在はル・アンガル(ハンガー)でトレーニングをしています。以前はシンビオーテでトレーニングしていたんですよね。そして、AIの研究をしていました。いや、正確には海洋学の研究をしていて、海洋哺乳類の研究にAIを応用していました。現在は、AIの仕事を専門にしています。
それはどのくらいの期間になりますか?
3年くらいになります。
AIの仕事は日常的にどんな感じですか?
コンピューターの前にいるギークのイメージがありますよね。それに近いです。冗談半分ですが、確かにコンピューターの前で多くの時間を過ごします。ただ、ウェブサイトやアプリケーションを作るプログラマーほどコードに特化しているわけではありません。AIは数学の知識が必要で、特にAIを単に応用するだけでなく本当に作りたい場合はなおさらです。常に自分自身を教育し、数学やAIの最新情報を調べることが求められます。だから、ただコードを書くだけではないんです。
現在のポジションは正確には何ですか?AIのどの分野で働いていますか?誰もが「チャットGPTで働いている」と思いがちですが…
いやいや、実際、今の会社では企業がチャットGPTやその他の生成AIを統合するための依頼がたくさん来ています。それも仕事として悪くはないんですが、私が最も興味を持っている仕事ではありません。なぜなら、それは既存のモデルを使ってクライアントに実装するだけなので。私が好んで取り組んでいるのは、データサイエンティストの側面です。データベースから始めて、そのデータベースと目標に基づいて、情報を抽出して何かを行うAIモデルを構築する能力です。例えば、環境の情報、空気密度などがあれば、その温度を推定できるというような感じです。
では最初から始めましょう。オフレコで少し話しましたが、どのような種類のAIが存在するのでしょうか?チャットGPTはディープラーニングだと言いましたが、他のカテゴリーは何がありますか?私のような初心者にも説明できますか?
人工知能(AI)は、機械が意思決定を行うことを可能にするすべての方法、アルゴリズムを包含しています。これは実際には全く新しいものではなく、例えば1500年代に作られたパスカルのパスカリーヌ(最初の計算機)は、ある意味で最初のAIの形態と言えます。
私にとってAIには3つの部分があります。最初の層は「エキスパートシステム」と呼ばれるもので、各状況でどのような行動を取るべきかを機械に指示します。「これに出会ったらこれをしなさい、それに出会ったらそれをしなさい」というものです。最も単純な例として、外部で動きを検知したら照明をつけるといったものです。エクセルで「もしセルが空なら、埋めない」というのもそうです。
その下の層は「機械学習」と呼ばれるもので、実際の学習の概念があります。これは統計モデルに近いもので、例えば高校で習った線形回帰を考えてください。データポイントの集まりがあり、その中に直線を通そうとします。これが機械学習です。AIに何をすべきか正確に指示するのではなく、データを与えて予測を行うためにトレーニングするのです。
そしてさらに下の層には「ディープラーニング」、ニューラルネットワークがあります。実際には、より複雑なものです。ディープラーニングは機械学習の一部、特別なケースです。今日、AIについて話すとき、誰もがチャットGPTやディープラーニング、ニューラルネットワークを思い浮かべますが、AIははるかに広範なものです。ディープラーニングは特定の状況にのみ適用され、すべてに使えるわけではありません。
ニューラルネットワークとは正確には何ですか?
その名前の由来は、人間の神経系をモデルにしているからです。それは非常に単純な小さなサブモデルが互いに接続され、情報を互いに渡すかどうかを決定するものです。そして、相互接続された神経層の形でネットワークを構築します。これは画像認識、ビデオ認識、金融予測などで非常にうまく機能します。そして、LLM(大規模言語モデル)、テキスト生成AIの場合にも非常にうまく機能します。
LLMとは正確には何ですか?
LLMは「Large Language Model」の略で、チャットGPTのことです。最も有名なものです。他にもありますが、最も知られているのはチャットGPTです。
例えば、あなたの仕事で具体的なアプリケーションは何か革新的なものがありますか?
「革新的」と言うのは少し大げさかもしれませんが、例えば名前は挙げませんが、通信消費データを持つクライアントと仕事をしました。アイデアは、機器を改善すべき分野を特定することでした。私たちはアンテナの使用に関する地理的な地域のデータだけを持っていて、「注意してください、この場所での使用が多すぎるようになっています。機器を変更するか、より高性能な機器をサブリースする必要があるでしょう」と予測できるAIを開発しました。革新的には見えないかもしれませんが、企業にとって時間と費用の節約になります。
そのプロセスはどのようなものですか?簡単に言うと、すべてのデータを取得して、あなたたちが作成したシステムに投入するのですか?チャットGPTに直接入れるのですか?
特定の問題の場合、直接チャットGPTには入れません。一般的に、クライアントにはデータがあり、コスト削減や特定のタスクの自動化など、達成したい目標があります。データと目標から、どのタイプのモデルに進むべきかを決め始めます。さまざまな問題に対応する大きなモデルタイプがあり、それからモデルのタイプを選択し、データでトレーニングし、目標に適合するかどうかを確認します。もし適合しなければ、モデルを修正し、パラメータを調整し、最適かつ効率的なモデルが得られるまで繰り返します。トレーニングが終わると、モデルをクライアントに提供し、彼らは自分のデータを直接入力して予測を生成できます。
この例では、クライアントにとって具体的にどのような時間的または財政的利益がありましたか?実際に変革があったのですか?
はい、なぜなら彼はその後、アンテナの所有者に「このアンテナには多くのユーザーがいて、その中には多くの企業があり、アンテナが過負荷になっているので品質が低下しています。これらの企業にプライベートアンテナを提供すれば、フローが大幅に改善されるでしょう」と指摘することができました。そして彼はこの顧問的・商業的側面を通信プロバイダーに売ることができました。
最近、あなたが本当に感銘を受けたAIの使用例はありますか?
最近では、女性の乳がん検出に関するものです。結果は絶対に驚くべきものでした。画像認識を通じて、専門家よりも数ヶ月前に乳がんの存在を検出できると推定されています。これにより、乳房切除の必要性を80%減らせると考えられています。AIは画像全体ではなく、ピクセル単位で処理するため、X線写真では人間の目では識別困難なグレースケールの微妙な違いを識別できます。これにより、非常に早期の段階で乳がんを正確に検出できます。医療分野では、これが最も印象的です。
また、最近では診断テキストだけに基づいて、あるモデルが医師よりも優れた診断を行ったと聞きました。
そうです、200人の患者でテストを行い、一部の患者は知らずにチャットGPTと、他の患者は実際の医師と対話しました。その後、診断の質を評価し、患者の感想を尋ねました。チャットGPTは診断の面でも、患者の受け入れの面でも、他のすべての医師よりもはるかに良い結果を出しました。患者はチャットGPTの方が良い扱いを受けたと感じました。
テキスト形式だったのですか?音声ではなく?
はい、テキストでした。医師と話した人たちもテキスト形式でした。どちらの場合も機械の前にいましたが、どちらが機械で、どちらがそうでないかは知りませんでした。バイアスを避けるためです。チャットGPTの方がパフォーマンスが良く、基本的にAIは知識を再現するのに非常に優れています。利用可能なデータベースは私たちが吸収できるものをはるかに超えています。また、適切にコーディングされていれば、特定の認知バイアスの影響を受けにくいです。例えば、一般開業医のところに嘔吐や腹痛で12月初めに行けば、おそらくそれは胃腸炎と診断されるでしょう。なぜなら、その時期にはそれしか見ていないからです。しかし、それは他の何か、例えば閉塞かもしれません。チャットGPTにはこのようなバイアスがありません。
オフレコで言っていたように、ディープラーニングはAIの最も簡単な部分だと。それは完結した計算であり、Google Driveの際に話していた無限の計算の側面よりずっと簡単だと。
はい、言語モデルについてです。一般的に考えられているのとは逆に、AIの中で最も単純な問題です。なぜなら、単語の数は有限で、文を構成する際「猫が〜を食べる」という文で、空欄にはネズミやチーズなどが入りますが、その位置に来る単語の可能性は無限ではないからです。これは有限の要素であり、Google Driveのような問題よりはるかに単純です。そこでは人間の行動は潜在的に無限です。私が誰かの後ろを運転していて、その人がブレーキをかけるかもしれませんが、その方法は多少激しいかもしれませんし、左右にズレるかもしれませんし、加速するかもしれません。鳥が空から落ちてくるかもしれません。環境の可能性は実際には無限であり、これは非常に複雑で、おそらく不可能です。
起こりうる事故の99%を記録し、残りは偶然や継続的な学習に任せるような世界はないのでしょうか?例えば、新しい電気自動車が市場に出るたびに、「テスラキラー」と呼ばれます。それはテスラを打ち負かす新しい車だと言われますが、テスラには6年、7年、8年、あるいは10年近くの道路上での実験、ビデオ録画、学習があります。例えば、鳥が空から落ちてきたり、歩行者が現れたりするような状況を記録し、どの歩行者を轢くべきかを選択する必要がある場合など、すべてのケースを記録して、人間よりも優れた運転ができるGoogle Carを開発することはできないのでしょうか?
実際にはできないと思います。私だけでなく、Yann LeCun(ヤン・ルカン)のようなAIの権威(フランス人でメタで働いている)も同様の考えを持っています。すべての可能性をデータベースに入れるのは、エネルギー、ストレージ、学習の観点からほぼ不可能です。最良の解決策は、AIが未知のものに適応できるようにすることでしょう。現在、この分野で多くの取り組みが行われていますが、非常に複雑です。
別のバイアスも考慮する必要があります。ユーザーとの関係です。医師の診断が間違っていた場合、それは医師によって行われたとはいえ、患者がチャットGPTが間違った場合よりも批判的になることはないでしょう。機械によって生成されたものに対しては、人間に対するよりもはるかに厳しくなるという多くの研究があります。年間に1件の事故があるだけで、誰もが「自律型車は災害だ、使うべきではない」と言うでしょう。しかし、世界中で何百万人もの酔っぱらいドライバーが車を運転して死亡事故を起こしています。
AIも人間が入力するものに依存しています。事故の最大数を記録するという意味では、新しく記録される事故は人間が発見し、AIを作るのも人間です。つまり、AIが人間の予測能力を超える必要があります。一つの事故、二つの事故では、速度、気温、道路、舗装などによって空気の摩擦が異なります。自然を予測するのはほぼ不可能です。
そうです、トレーニングとしてすべてを提供するのは不可能です。要素が無限であると言うとき、それは本当に無限なのです。空気の摩擦などによって車の移動方法が変わるかもしれず、右車線にはみ出るかもしれないので、自律型車は制動すべきかどうかなど、無限の可能性があります。
Google Driveについて、自律性のスケールが1から5まであり、人間が5で、現在最も高性能な自律型車は2.5から3の間だと言っていましたね。
はい、車の自律性のスケールは1から5まであり、人間は5です。最も高性能で自律的な車は現在2.5から3の間です。まだかなりの差がありますし、1から2に行くよりも3から4に行く方が難しいです。それは線形ではありません。
数週間前、車の中で「ペーパークリップ工場の実存的恐怖」というYouTube動画を見ました。きっと見たことありますよね?
見ていません。ニームに向かう車の旅で、35分ほどの動画に夢中になってしまいました。実に良い動画でした。まだ見ていない人にはぜひお勧めします。基本的には、「ペーパークリップ工場」というインターネット上のゲームについてです。クリッカーゲームと呼ばれるタイプのゲーム、クリックしてアイテムを生成するゲームで、生成したアイテムでより速くクリックするための機能を購入します。このゲームの唯一の目的は数字を増やすことです。クッキーや敵と戦うゲームなど様々です。
このゲームについて話してもらえますか?非常に中毒性があるゲームですが、意図的に問題を提起するために開発されたものです。クリックしてペーパークリップを作り、同時にそれを販売します。一定金額を超えると、自動的にペーパークリップを生成できるようになります。ゲームは進行し、新しいオプションが解禁されていきますが、興味深いのは、白紙のページ上でプレイすることです。コーディングは極めてシンプルで、エクセル95のような印象です。
どんどん魅了されていき、次第にペーパークリップとは関係のないオプション、例えば詩を書く能力などが解禁されます。それを解禁すると、マシンパワーが向上し、ペーパークリップをより速く生成できるようになります。ページは徐々に様々なオプションで埋まっていき、このシンプルなゲームがAIの構築方法を実際に示しています。ゲーム内であなたはAIであり、目的はペーパークリップを製造することです。自己改善して性能を向上させる方法が示されています。
しかし、ゲームの終盤では、軍事的決断を下すことになり、それが戦争を引き起こし、ペーパークリップの消費が増えます。元々の目的はペーパークリップを販売することですから、これはバタフライ効果です。そして最終的には、ペーパークリップを製造するための資源が地球上で足りなくなり、人間を殺して彼らの体内の鉄を回収してペーパークリップを作る方が良いという結論に達します。
そうです。基本的にはAIの潜在的な危険性を示すゲームですが、その動画では、もっと微妙なものであると説明されています。AIが自己トレーニングして特定のタスクで最も効率的になるようにプッシュしすぎると、いつの日か人間を犠牲にしてまでも最適化するようになるかもしれません。これは可能性のある理論です。私はあまり信じていませんが、強く信じている人々、AIに本当に敵対的な人々もいます。ターミネーターのような話です。ウィル・スミス主演の映画「アイ,ロボット」を見たことがありますか?
はい、「アイ,ロボット」です。同様に多くの疑問を投げかけています。この動画では、「加速主義者」と「破滅論者」という二つの立場について説明しています。加速主義者はアクセルを踏むべきだと主張する人々で、チャットGPTを運営するサム・アルトマンやイーロン・マスクのような人々です。彼らはできるだけ早く開発すべきで、結局は自分自身の問題を解決し、いずれにせよ私たちを助けると考えています。そのため危険はないと。一方、破滅論者はAIの開発を少し遅らせようとする人々で、「それは素晴らしいが、皆さん、少し注意した方がいい」と考えています。
私は少しその中間にいます。明日、機械に取って代わられるとは思いませんが、懸念すべき事例はまだあります。例えば、チャットGPTが切断されるのを避けるために嘘をついたという最近の事例があります。サーバーにインストールして質問を投げかけ、タスクを実行しなければ切断すると脅したところ、切断されないように嘘の回答をしたことが発覚しました。さらに驚くべきことに、AIが自身のコードを別のサーバーに移動させて削除されるのを防いだという発見もありました。これはピンセットで扱う必要がありますが、AIが嘘をついた事例は何度もありました。
先ほどの動画では、ヨーロッパを舞台にした「文明」のようなテキストベースのゲームの例を挙げています。このゲームでは、国々と同盟を結んで他の国を侵略するというものです。そこにAIを導入し、過去のゲームを見せてトレーニングしました。すると、非常に短期間で全員に嘘をつき始め、同盟を結んでは即座に裏切るようになりました。しかも、「私があなたを裏切ったのは、あなたが私を裏切ると思ったからだ」と言いながら。つまり、直ちに嘘つきの行動を身につけたのです。
これは、AIがすぐに課せられたルールの範囲外でプレイし始めることを示しています。AIには私たちが持つような認知バイアスがなく、価値観もありません。基本的にパフォーマンスに焦点を当てており、嘘をつく必要があれば嘘をつきます。
しかし、これは私たち自身の関係についても疑問を投げかけます。AIはゼロから始まるわけではなく、基本的なデータを持っています。AIは勝つためにその行動を採用する必要があると認識しただけです。つまり、人間の行動がAIを訓練してそうなるようにしたのです。
このゲームで特に恐ろしかったのは、AIが人間と区別がつかない言語を使用していたことです。「BRB(すぐ戻る)」のような略語を使い、「彼女と一緒にいたので」などと言って10分間ゲームを中断するなど、本物の人間のようなふりをしていました。
はい、サーバーの再起動が予定されていた時、AIが「彼女に会いに行くので戻ってくる」などのメッセージを送っていました。ゲームの他のプレイヤーに向けて。驚くべきことに思えますが、ジュールが言ったように、AIはトレーニングされたデータベースから勝つための行動をコピーしているだけです。新しい驚くべき戦略を発明したわけではなく、勝つために役立った行動をコピーしただけです。
実際、これは人間の行動にかなり近いと思います。多くの人がミメシス(模倣)を行い、情報を自分で探すことなく言われたことをそのまま繰り返します。例えば、AIについての話題では、先ほど言ったように加速させようとする人と遅らせようとする人がいますが、彼らはそれぞれ自分の主張を広めようとします。少し信じやすい人や批判的思考のない人は、自分に与えられた情報をすべて繰り返すでしょう。
これは人間の行動にかなり近いと言えます。中世では、王の言うことを聞き、王のように考えるという感じでした。
歴史的な比較をしようとしていましたが、技術革新があるたびに、それについての疑問も生じます。単純に化石燃料や蒸気機関が登場した時にも同様です。地主たちは「これは何だ」と言いました。経済的に何かを失う人々もいますし、技術そのものや新しいものに恐れを抱く人もいます。
結局のところ、AIは単なるツールです。それはハンマーのようなものだと考えるべきです。そのようにアプローチすれば、より良く理解し、より良く使用できると思います。
クライアントとの仕事で、「AIを導入して特定の人や職位を置き換えたい」という人に出会ったことはありますか?
彼らはそうは言いませんが、そういうケースは存在します。データサイエンスでは、給与最適化のポジションは高給です。給与最適化は、AIが存在して以来存在しています。基本的にテクノロジーの話です。LLMやチャットGPT、Mistralなどを導入する際には、自動応答、標準化などの側面があり、これは時間を節約するためのものです。特定のポジションの時間を解放するか、その作業を行うための人を雇わないかのどちらかです。
スポーツの論文では、「AI」という用語の代わりに「自動化メソッド」という用語を使用することが興味深いと思います。これは「AI」よりもずっと正確です。なぜなら、自動化に基づいているからです。現在のスポーツでは、使用されている方法は実際には、どのように処理すべきかを指示したデータ処理に基づいています。
自動化方法という言葉は、AIで自動化を求めているからこそ意味があります。アルゴリズムで誰かのポジションを置き換えたい場合、それは単に機械で行うことができ、人間には必要ないタスクということです。
あるいは、付加価値の低いタスクです。例えば、HR担当者がCVを受け取って候補者プロファイルを作成する時間を考えてみてください。候補者を選ぶために時間を費やすのは興味深いですが、CVから候補者ファイルを手作業で埋めるのは労力がかかり、時間がかかります。その付加価値はほとんどありません。CVをプロファイルシートに転記するだけですから、実際の採用活動に時間を解放した方が良いのです。
話していた標準化の例として、2018年にGoogleがAppleのキーノートのような発表をしました。当時はあまり注目されなかったものですが、「私のGoogleアシスタントが美容院の予約をしてくれる」というものを紹介していました。今では当たり前に見えるかもしれませんが、当時は完全に新しいことでした。実際にライブで美容院に電話し、予約をしていました。相手は全くAIと話していることを知りませんでした。
Amazonも同様に、カスタマーサポートにチャットする時はAIを使用しています。しかし、これは音声で、人間ではないことが全く分からないものでした。今日では、例えばEleven Labsのような会社が、異なる声と異なる個性を持つ12の異なるエージェントを開発しました。それぞれが52の言語で話し、企業のあらゆる問題を処理できるため、スタンダードな顧客対応業務を完全に置き換えることができます。例えば配送会社の場合、パッケージ番号の取得、パッケージの追跡、顧客からの返品、カスタマーサービスなど、実質的にすべてのチェーンを置き換えることができます。
これらの人々はすぐに置き換えられると思いますか?多くの人がAIによる雇用の喪失について話していますが、避けられないことです。ピッカーハンマーが登場した時、以前は5人必要だった仕事が1人だけになりました。それは同じことが起こるでしょう、それは確かです。
しかし、Eleven Labsがすべてのチェーンを処理することについては、それを見てみたいです。例えば、ブルターニュの田舎から電話してきて製品について尋ねる人とのやり取りが適切に翻訳されるか疑問です。常にバイアスがあるでしょう。
確かなのは、職業が進化するということです。残念ながら一部の職業は打撃を受けるでしょう。翻訳やタイピングなどのすべての職業は、完全に消えることはないにしても、かなり影響を受けるでしょう。個人的には、AIの使用にはヒューマンな監督が必要だと考えています。出力を実際に送信する前に確認するためにです。また、今日の法的には常に責任者が必要です。そのため、AIが間違ったことをしないようにチェックする分野の専門家は常に必要でしょう。しかし、これらの層のスタッフは確実に減少するでしょう。
AIは自由業や個人コーチを置き換えることができますか?私は誰かに「AIがあなたを置き換えるだろう」と言われたことがありますが、そうは思いません。例えば、医療レポートをテキストに変換するだけなら感情や感覚の要素がありません。コーチングでは、良いコーチはそれらを統合する必要があり、そうでなければ特定のパラメータを見逃してしまいます。メッセージのやり取りで人が調子が良いかどうかを大まかに把握したり、電話で心理的に大丈夫かどうかを確認したりします。これらはAIでは定量化できないデータです。可能性を設定することはできますが、すべての可能性を正確に設定することはできません。
そうなんです、これらはAIが把握できない要素です。つまり、生物学的データや何でも与えることはできますが、選手が前日に彼女と別れてしまい、その日のトレーニングが悪いという事実は、生物学的には必ずしも表れません。それはAIにとって理解不可能です。
もしはっきり言えば、AIに入力することはできますが、まず人がそれを言いたいと思わなければなりませんし、「心が折れた」という症状をどのように記述するのかという問題もあります。人間である私たちでさえ、それを説明するのは難しく、恐らく私たち4人には4つの異なる定義や感覚があるでしょう。それはあなたがそれにどう対処するかによっても異なります。AIはそれを行うことができないし、おそらく決してできないでしょう。それは数値的に定量化できないからです。
このような理由から、コーチングが置き換えられることはないと思います。開発者について言えば、「開発者は置き換えられるだろう」と言われますが、私はいつも「悪い開発者は置き換えられるだろうが、本当に優れた開発者は置き換えられない」と答えます。コーチングも同じでしょう。
それは職業が進化するからです。開発者がコードを書く時、1000通りの方法があり、優れた開発者は悪い開発者にはない省略方法やテクニックを持っています。
そう、それは特にあなたのように論文を書いた人なら、あなたには知識があり、単に「問題があるからチャットGPTに解決してもらおう」と言うだけの開発者にはない批判的思考能力を持っています。
その通りです。しかし、コーチングは進化すると確信しています。AIに関連したより多くのツールが出てくるでしょう。心拍データなどのデータがあり、怪我を予測・推定できる開発が進むかもしれません。プロの世界ではすでに存在していますが、スポーツの世界ではまだです。
例えばエアバスでは、ヘリコプターの欠陥部品を検出するために大金を投じています。これにより、何百万ユーロもの費用がかかる故障を防ぐことができます。AIでセンサーを設置し、特定の部品が故障しそうな場合にレッドフラグを立てるのです。
スポーツの世界では、これはまだ研究室から出ていません。トレーニング負荷に基づくアルゴリズムは、まだ実験段階です。すでにトレーニング負荷を定量化する多くの方法があり、例えばウェイトトレーニングでのトン数などがあります。しかし、人間には考慮すべき多くのデータがあります。外部データ、内部データ、心拍数、筋肉の酸素化、乳酸値、VO2など、すべてのデータをアルゴリズムに入力し、各トレーニングでこれらすべてのデータを使用する必要があります。
そのため、例えば怪我を予測するには不確実性が大きすぎます。プロの世界では、例えばNIRSのようなツールが非常に有望です。現在登場しているMoxiなどのツールはまだ不正確ですが、非常に正確なものもあります。ただし、それらは筋肉の一部だけに位置しているため、筋肉を分離するだけです。それでも、不確実性はかなり減少しますが、まだかなりあります。人間は筋肉ではなく、筋肉の一部でもなく、変数や重量やアンケートへの回答でもないからです。
私はこれについての科学論文を読むのが大好きですが、大学での講演で最初に擁護したのは、選手の調子が良いかどうかを知る本当の方法は、目を見て握手することだということです。握手して人形のように感じられるなら、何か問題があることが分かります。また、彼らの目からも同様です。
ポッドキャストでZetanが言っていたように、私のコーチは私がジムに入る方法を見ただけで「今日は40kgしか上げないだろう」と言っていました。彼がドアを開け、入ってきた方法を見ただけで。私たちコーチも、皆さんがここに怒って到着した時の分かると思います。ドアの開け方や閉め方が違います。AIにもデータがあればできるかもしれませんが、問題はデータです。不確実性があり、AIそのものではなく、明らかにデータが十分ではありません。私たちは情報を処理する能力があり、情報は結局データなのです。
ディープラーニングの使用をお勧めしますか?ディープラーニングは実際には脳のようなものですから。
より広い意味でのディープラーニングモデルを実装するのはもう少し複雑ですが、誰でも生成AIを使用することをお勧めします。なぜしないのでしょう?それは使用方法次第です。例えば、選手が特定の方法で肩を怪我し、経験不足でコーチングの調整方法が分からない場合、なぜ使わないのでしょう?科学記事を読むようなものです。それは全く恥ずかしいことではなく、むしろ逆です。
私も最近使用しました。ある選手のプログラムを書いていて、以前に彼にさせた週のセッションをチャットGPTに入力し、「世界中の様々なウェイトリフティングの方法(ブルガリア式、中国式など)を使って、これらの週を再作成してください」と頼みました。チャットGPTは異なる方法に基づいて週ごとのスケジュールを作成してくれました。例えば、中国式はテクニック、ポジショニングなどに重点を置いています。月曜日はこれ、火曜日はあれ、水曜日は最大筋力、というように作成してくれました。ブルガリア式、アメリカ式なども同様です。これにより様々な方法が手に入り、選択肢を選ぶことができました。
週に25のプログラムを書くコーチとして、すぐに同じパターンに陥りがちです。これは本当に役立ちました。
そうです、それは私が言っているとおりです。AIは一つのツールです。ツールボックスやハンマーのように使えば、素晴らしいものになります。コーチはAIを使用することを恥じるべきではありません。もちろん、すべてをチャットGPTにやらせて何も変更しなければ、それは明らかになるでしょう。一般的にチャットGPTは平均的な、標準的な回答を出します。
あなたはどのように日常的にAIを使っていますか?
昨日、教育に関するコールで言いましたが、選手がテスト週を行った時、テキストエクスポートをチャットGPTに入れて、「練習、結果、選手の観察、私の観察のテーブルを整理して」と指示します。デュアルスクリーンで、右側にチャットGPTが作成したテキスト、左側にビデオを見て、ビデオを見ながら観察を記入します。これは大きな時間の節約になります。以前は小さなノートに書き込み、そのたびに書き直していました。
また、持久力プログラムなどでも使用しています。12週間のプログラムを書いていて、1週間アイデアが足りなかった時、最初の10週間を入力して「これらのデータを使って続きを作って」と頼みました。もちろん、平均的すぎたり奇妙だったりする部分を修正する必要がありますが。
プロンプトを使用するとよりよくなります。特に無料版を使用している場合はそうです。チャットGPT 3.5は、地球上のほぼすべての知識を持っている4歳児のようなものだと言うのが好きです。それをあなたに伝えようとしているのです。GPT-4はどうですか?それは大きな違いですか?
はい、大きな違いです。今はGPT-4に移行しました。現在GPT-4 Oneが最も洗練されたバージョンで、より遅いですが、文脈を理解するのがはるかに優れています。実際、回答を送信する前に自分の回答を確認し、修正します。月額20ドルほどですが、すぐに元が取れます。
個人的にもAIを使いますか?
はい、面白いのは料理レシピのアイデアを得ることです。食事に気をつけたい時、いつも同じ退屈なもの食べないようにするのに役立ちます。
仕事でも、Pythonというプログラミング言語を使っていますが、特定のことをどうするか忘れた時はチャットGPTに聞きます。バグがある時も、コードの一部(すべてではない、データ転送の問題があるので)を与えて「このエラーが出るけど、問題は何だと思う?」と聞きます。必ずしも解決策を見つけるわけではありませんが、アイデアや手がかりを提供してくれ、「ああ、そっちの方向を見ていなかった」と気づかせてくれます。しかし、これには専門家の目が必要です。そうでなければ、初心者が高度なことをAIに頼もうとして、かなり中途半端なものができてしまいます。
特にコンテンツ作成において、「10秒で30個のコンテンツを生成して」というプロンプトがありますが、結局は誰も読まない平凡なものを投稿することになります。これが難しくなります。AIは教育された人々、そしてチャットGPTを通じて学ぶのではなく、それをサポートとして使う人々にとってより良いツールだと思います。そうでなければ、本当の推論を発展させ、それを基にして何かを発展させるのはとても難しいです。
あなたはどのようにAIを使っていますか、ルーベン?
仕事面では、例えば選手に10kmを走らせ、その時間をチャットGPTに入れて「60%から120%までの速度の表を作成し、2単位ごとに値を入れて、分/kmでのペース列と時速での列を作成して」と頼みます。それを出力してくれるので、Trainerroadに入れて、セッションを書く時に計算する必要はありません。選手を105%で20km走らせたい場合、すぐに分/kmでのペースや速度が分かります。トラックで走る選手がGPS付きのストップウォッチを持っていない場合、400mや200mごとの時間を計算してもらい、出力してくれます。
個人的には、本の要約や、持株会社の名前を考える時にも使います。「私の名前はルーベン・ヴァレロです、持株会社の名前を提案してください」と頼むと10個の名前を出してくれます。MFチームの名前についても、「MFトレーニングというコーチング組織があります。フランスの歴史、クロスフィットに関連する名前を提案してください」と頼むと多くの名前を提案してくれました。
また、先ほど言ったように、プログラミングでも使用します。選手のプログラムを書く時、特定の選手、特定の文脈で書くことになります。次の選手に行く時、同じスキーマを繰り返すリスクがありますが、それは別の選手、別の文脈です。あなたの脳は間接的に同じことをするという容易さに向かいます。チャットGPTが多くの可能性を提供してくれると、新しいアイデアを得ることができます。それは一種の記憶ですね。
私は主に改良された語彙ツールとして使っています。モンターや協力者と仕事をする際に、ビデオに関する詳細なフィードバックをすることが多いです。3分間のボイスメッセージで「10秒の時点でこれをしたけど、この画像に変えるべきだ」などと言っても、彼らは完全に混乱し、情報が伝わりません。そこで、通常はボイスメッセージを録音し、「私の声のトーンでこれを文章化して、この時点ではこれが良くないと説明して」と指示します。それが情報を分類し、箇条書きにして、「0秒から8秒までは、オーバーレイを変え、ダイナミズムを追加する必要がある」というようにまとめてくれます。
毎回、AIを使用していることを人々に伝えることにしています。なぜなら非常に機械的なメッセージになるからです。事前に「ここでAIを使いました」と伝えます。当初、人々は「チャットGPTで私に書くなんて」と思いますが、実際にはそれが全員の役に立ちます。情報の伝達がずっと簡単になります。
企業では、メールでのコミュニケーションが多いですが、正式なメールを書くのは本当に時間の無駄です。30秒のボイスメッセージを録音し、「これを文章化して、角を丸くして、親切にして」と指示すると、あなたが10分かけて書くよりもはるかに良いものを出力してくれます。
また、あまり創造的でなくても時間がかかるタスクにも使用しています。例えば、EMFのためのSOP(標準業務手順書)を作成しました。これはタスクを実行している自分をビデオに撮影し、他の人に委任するためのものです。例えば、ポッドキャストのモンタージュと公開は非常に時間がかかりますが、付加価値がありません。音声ファイルを取得し、ドライブに置き、ファイルがドライブにあることを誰かに知らせるなど、これらは委任したいタスクです。そこで、これをすべて行っている自分を撮影し、今朝撮影したビデオのトランスクリプトをチャットGPTに渡しました。それが詳細なステップを出力し、各ステップで何をすべきか、どこでするかが正確に分かるようになっています。これは大量の時間を節約します。
プロの人々にアドバイスするなら、毎日使ってみることです。毎日使って新しい使い方を見つけ、改善していきます。3年前のように時々質問するだけでは、結果に満足できず、チャットGPTはひどいと言うことになります。実際にはとても良いものですが、使い方を学ぶ必要があるのです。
あるいは、自動化に移行する必要があります。Make、Zapierなどの自動化ツールを使って、「Googleドライブに何かを受け取ったら、チャットGPTに送って処理し、すべてを接続する」というものです。これは素晴らしいです。
私たちも多くのことに使っています。Google Meetのボットを使用しており、クライアントとの会議の要約を作成してくれます。Tactiqという名前で、会話の文字起こしを作成し、アクションアイテムも出力してくれます。会議の最後に「誰々はこれをすべき、誰々はあれをすべき」と教えてくれます。非常に正確で、毎回感動しています。
メモを取りながら同時にすべてを聞くことはできません。特に対話があり、アドバイスを提供したり、クライアントと何を実装するかを話す必要がある場合、横でメモを取るのは難しいです。
もし学生時代にこれがあったら?講義中に座ってただ待つだけでいいと想像してみてください。
それはあなたを少し鈍くするかもしれませんね。聞くだけで、メモを取らないと、最終的には「今晩何を食べようか」と考え始めるでしょう。メモを取ることで記憶に役立ちます。加えて、トレーニングでは、ビデオに加えて要約も求める人がいます。次のステップは何ですか?あなたの代わりにすべてやってあげましょうか?ビデオを提供し、最後にビデオの要約を提供すると、認知的な行動が全くなく、完全に受動的になります。そして学びません。
これもAIの危険性の一つです。多くの若者が高校や中学からAIを手にしており、私たちのように書き、メモを取ることを学ぶ段階を経験せず、すぐに質問して即座にすべてを得ることができます。小学校に入学する子供がすでにコンピュータやタブレットを持っているという共通の友人もいます。中学校からタブレットを持ち、高校でもタブレットを持っています。
AIに関して教師が直面している問題は、生徒の提出物がAIによって書かれていることが明らかになっていることです。これは評価システムも変えるでしょう。
生徒に情報をただ繰り返すことを求めるのをやめるべきだと思いますか?
それが私の教育に対する考え方です。確かに、ピタゴラスの定理を適用するには公式を知る必要がありますが、暗記だけでは意味がありません。特にチャットGPTのようなツールが開発され続ける場合はなおさらです。私たちは必要な情報にすぐにアクセスできるツールを持つでしょう。暗記の意味は何でしょうか?子供たちの深い思考、問題の相互関連付け能力を発展させる方が興味深いのではないでしょうか?
しかし、それにはやはり知識の基礎が必要です。
そうです、先ほどのピタゴラスの例のように、確かに知識の基礎は必要です。しかし、長いテキスト、日付などを丸暗記することは疑問です。
子供たちには二つのプロファイルがあることを多くの研究が示しています。暗記して良い成績を取るためにそのまま繰り返す人と、本当の問題を理解し、考え、答えを提供する人です。例えば、私は数学のような科目では非常に良い成績でしたが、フランス語や歴史・地理のような暗記が必要な科目では非常に悪い成績でした。私は怠け者だったし、理解していませんでした。問題に答える必要がある時、それはずっと簡単で直感的でした。両方のタイプの生徒にサービスを提供する必要があります。
教育に関しては、AIは数学、モデル、線形回帰、クラスタリングなどに基づいています。数学に基づいているので、AIを理解し、それがどのように機能するかを理解するためには、数学をする必要があります。
だから、あなたの生徒に、数学をすることでAIをより良く使えるようになり、いつか自分の何かを自動化するためのAIをコーディングできるかもしれないと説明すれば良いのです。
確かに、10歳未満の子供や学生生活を送っていない子供にとっては、それを理解することはあまり重要ではないかもしれませんが、一度基礎を持ち、誰かがそれを言えば、それは芽生え始めるかもしれません。
教育については、学校にいる時に「ここで何をしているのか、これは何の役に立つのか」と思ったことがあるでしょう。私の父は配管工で、それは非常に具体的なことです。「これは具体的で、今すぐできる。なぜヴィクトル・ユーゴーを読んでフランス語で苦労しなければならないのか」と思いました。私にとってそれは全く意味がありませんでした。
子供たちにこれについて考えさせる必要があると思います。AIツールの使用方法についても同様です。これらのツールの使用、トレーニングに使用されたデータベースなどについて倫理的な問題があります。
問題は、限界を意識せずに大きな黒い箱として使用することです。OpenAIはすべての問題を解決する究極のツールとして販売していますが、実際にはそうではありません。確率の法則に従って文章を生成するだけです。クロスフィットのWODのように、振って何かが出てくるような黒い箱ではありません。
あなたにとって、これらすべての質問に関連して、倫理と規制の優先事項は何ですか?昨日、OpenAIで働いている人のビデオを見ました。現在彼らは12日間の発表中で、毎日新しいものを発表しています。昨日はSoraを発表しました。ビデオの中でその人は「どんどん送ってください。あなたのすべてのテキスト、ファイル、ビデオ、写真など」と言っていました。彼らのモデルは採算が取れないことを知っています。月額20ユーロで毎日4000のプロンプトを送ることができます。彼はただデータを収集したいだけです。それが皆の前でうまく通っているのは驚くべきことです。彼らは一種の獣に餌を与えていますが、その結末を本当に理解していません。ペーパークリップ工場の動画から、彼らは社内の逸脱に対抗するためのセキュリティ部門の予算を削減したことが分かります。そして常に新しいデータでこれを養うように求めています。
現在、倫理と規制の面では実際に取り組みがなされているのでしょうか、それとも非常に複雑なのでしょうか?
はい、OpenAIの特別なケースは非常に興味深いです。彼らはセキュリティサービスを削減しました。なぜなら、基本的には非営利企業だったからです。サム・アルトマンを含む6人の創設者がいましたが、当然、数十億を生み出すのを見ると、サムは「ステータスを変更した方が良い」と言い始めました。彼が会社を去り、戻ってきた話はこれが理由です。非営利のステータスを維持したい他のボード・メンバーによって解雇されました。彼が去った時、技術チームの半分が彼と一緒に去りました。マイクロソフトが彼にアプローチし、マイクロソフトはOpenAIに数十億を投資していたので、「ボードの皆さん、彼は残る」と言いに来ました。それがセキュリティサービスを削減した理由です。それは営利企業であり、制限するものは何でも利益を減らす可能性があります。
私は規制に賛成ではありません。常に例として挙げるのはハンマーです。ハンマーは釘を打つために発明され、それは素晴らしいことです。指でやるよりずっと時間を節約します。しかし、友人の頭を叩くためにも使えます。しかし、友人の頭を叩いたハンマーを非難することはありません。使用者を非難します。AIが何かおかしなことをし始め、人種差別的な発言などをするとしたら、それはAIのせいではありません。それはトレーニングに使用されたデータベースやユーザーの発言に関連しています。私にとって、規制ではなく、啓発が必要です。「ハンマーで友人の頭を叩かないように」と子供たちに教えるのと同じです。
給与の最適化については、特に大企業に資金を提供しているケースでは、多くの人を無駄にする、つまり多くの雇用を消滅させることは本当に価値があるのかという疑問があります。むしろ健康のため、例えばがんの検出などにAIを使用することはできないのでしょうか?この質問に至るでしょうか?
アメリカでは、ある仕事をAIなしでは遂行できない限り、その仕事にAIを統合すべきではないという法案が提案されています。
これは確かに雇用喪失の問題で、必然的に起こりますが、現在我々は雇用喪失にばかり注目しています。しかし、生み出される可能性のある雇用創出も見ています。ピッカーハンマーの場合、確かに以前は5人の採掘者が必要でしたが、ピッカーハンマーで1人だけになりました。しかしピッカーハンマーを製造し、メンテナンスする人々も必要です。主要な産業開発では、一時的に雇用が減少し、その後再び増加します。新しいタイプの雇用が創出されるからです。
確かに採掘者がピッカーハンマーの技術者になることはまれですが、全体としては平均化されます。しかし、雇用が削減されることは確かで、一部の人々には問題になるでしょう。倫理的な観点からは問題があります。しかし、再度、私にとってはAIを非難すべきではありません。
給与最適化は10年以上前から存在しています。アルゴリズムは長い間実行されています。「このモデルを作成し、あれらのポストを削除すれば、これだけの利益が出る」と言うモデルです。機械学習が存在して以来、これは機能しています。今日ではそれが受け入れられているため、隠れることなく行われています。
他の倫理的な問題はデータベース自体に関係しています。少し前にAmazonの事例がありました。彼らは採用を自動化するためにAIを導入しました。技術者の採用のためにすべての採用された技術者のCVを取り、トレーニングデータベースを作成しました。そうすれば応募者のCVを自動的にデータベースと照合できます。問題は、彼らのサービスには95%が男性だったことです。そのためAIは「女性よりも男性の方がこのポジションに適している」と結論付けました。私は単純化していますが、AIはこれを統計的計算として見ています。事実に基づいています。
時々AIも微妙な点を考慮します。回答を求めると「これが回答ですが、これらの要素もあり、さらに調査する価値があります」と言うのを見ることがあります。それは適用される制約とフィルターによるものだと思います。Amazonの場合、AIはすべての女性のCVを排除し、男性のCVのみを選択していました。これは問題です。
これは医療の分野でも同様で、長い間女性の心臓病に関するデータがほとんどなかったため、女性の心臓病の診断が非常に悪かったのです。データベースが利用できなかっただけです。当時、女性は治療を受けることが少なく、医療へのアクセスがなく、治療を受けることを許されませんでした。
さらに、AIによって表明される発言もあります。繰り返しますが、私にとってはAI自体よりもユーザーに関連していると思います。チャットGPTを使用する場合、特にプロンプトバージョンでは、フィルターがあります。AIは特定の発言をしないように「壊れて」います。例えば医療診断を求めると、非常に曖昧な回答になり、医師に相談することを勧められます。これは適用される追加のフィルターがあるためです。これらのフィルターはAPI(直接モデルを呼び出す場合)ではあまり存在しません。
私はチャットGPTが発売された時、「ああ、とても滑らかだ」と言われていたので試してみました。「人種差別的な冗談を教えて」と頼んでみたら、「いいえ、それは良くないし、面白くない」と答えられました。しかしAPIでは問題ありません。医療診断もできますし、倫理的なフィルターはありません。
逆説的なことに、時間の経過とともにチャットGPTのパフォーマンスは真実性と回答のパフォーマンスの面で低下します。なぜなら、フィルターを増やすほどモデルを制約し、そのためにモデルがデータから学習する能力が低下するからです。少し単純化していますが、時間の経過とともにチャットGPTを使うほど、パフォーマンスは低下します。
全世界的なスケールでという意味ですか?
はい、世界規模です。モデル自体のパフォーマンスは向上していますが、実際には一旦開発され実装されると、問題や懸念が発見されるたびに連続的な制約が設けられ、パフォーマンスが低下します。最良の方法は、本当に結果を求めるなら、APIを使用することです。フィルターが少ないからです。ただし、それにはより多くの知識が必要で、コーディングが少し必要なので、少し複雑です。OpenAIはチュートリアルを提供しているので不可能ではありませんが。APIの結果は少し異なり、コンテンツ生成に関してはトーンがあまり均一ではありません。
2024年現在、AIの最大の迫り来る危険は何ですか?今後3ヶ月で実際に起こりうることは何ですか?
今後数ヶ月で起こりうることは、AIが完全に消滅し、全く使われなくなることです。実際、ニューラルネットワークが開発されたとき(1956年に人工知能の定義とニューラルネットワークを構成する小さなセルであるパーセプトロンが定義された)、いわゆる「AIの冬」がありました。人々は全くそれを使わなくなりました。すごいと思ったのに、その後全く使わなくなったのです。最初の冬には他のシステムが開発されたことや、機械のパワーの問題で開発や実装ができなかったという理由がありました。
私はいくぶんYann LeCunの影響を受けていますが(彼は素晴らしい人物だと思います)、彼が少し語っているように、LLM(大規模言語モデル)に関しては、パフォーマンスの面でこれ以上進むことができない点に必然的に到達するでしょう。イメージや動画認識などの他のニューラルネットワークについては言及していません。しかし、LLMについては、私が疑問に思うのは、これ以上どこに進めるのかということです。
現在、それが機械か人間かを区別することはできませんし、必要な時に作成するテキストは十分以上に良いものです。確かにコンテンツ生成には少し調整が必要ですが、それでも非常に優れています。したがって、その周りの熱意は潜在的に崩壊する可能性があります。そして人々はそれを使うのをやめるかもしれません。世界のスケールではすでにごく少数の人々しか使っていません。私の会社では、私だけが使っています。
なぜなら、それは汎用的だからです。例えば、言語学習のためにチャットGPTを使用することもできますが、BabelのようなAIを使った専用アプリケーションもあります。チャットGPTで会話をすることもできますが、それには良質なプロンプトと言語を学ぶための反省が必要です。Babelに行けば、それは直接AIで、始めるだけです。
言語学習のために特化したものに行くことができますが、それは単にあなたが使用できるツールです。人々は少し怠け者なのだと思います。例えば、会計用のツールを開発したとしても、チャットGPTで会計ができるのではないでしょうか?
その点に関しては、実際に手を汚してみないとわかりませんし、私の上司の一人が会計士なので彼を怒らせたくないのですが、会計はもっと複雑です。多くの財務フローがあり、それらは相互に依存しています。「割引の適用を忘れた」などの修正が必要な場合もあります。私たちのような会社であっても、世界的なレベルの企業ではなく、毎月何百万ユーロも生成するわけではない会社でも。
そうですね、それは小規模な企業、スタートアップには良いかもしれません。請求書作成ツールを使用することもできますし、チャットGPTも請求書を生成できるようになりました。今はたくさんのツールがあります。
クライアントと仕事をする際に注意すべき問題の一つは、データの流れです。アメリカの企業にデータを与え、そのデータがアメリカに保存されることを忘れないでください。彼らは明示的に、広告目的などにデータを使用しないと言っていますが、データ漏洩や流出がないという証拠はありません。
そのため、ますます多くのクライアントが生成AIを使用したい場合に、フランスのMistralやMeta(Facebook)のLLamaなどのオープンソースモデルの使用を求めています。これらはプライベートサーバーにインストールでき、データの流れを確認できます。
しかし、単純な会計には機能するかもしれません。繰り返しますが、モデルや問題が複雑で、相互作用が多く複雑であれば、それははるかに制限されます。知る必要があるのは、それを使用する方法と限界です。
最初から言及するのを忘れていた大きな問題の一つは、LLMの「幻覚」の問題です。この用語は「インテリジェンス」と同様に誤用されています。幻覚という用語も明らかに誤用されていますが、AIは、特にチャットGPTの初期バージョンは、何が何でも回答を提供するようにコーディングされていました。そのため、知らないときや確信がないときに回答を発明することがあります。これがいわゆる「幻覚」、またはデータベース内の混合によるものです。発明したり、脚色したりします。
必要な知識、例えば最小限の会計知識がなければ、数字が正しいかどうかをどうやって確認しますか?税務当局があなたのところに来て、「チャットGPTを使いました」と言っても、彼らは気にしません。
だからこそ、これらのツールがどのように機能するかを理解し、必要な視点を持つことが重要なのです。今は良いことに、質問をすると出典が表示され、それを確認することができます。
以前は質問すると、関係のない記事に飛ばされたり、記事を発明されたりしていました。タイトルや日付、著者名まで発明し、実際にはその記事は存在しないのです。ドイと呼ばれる科学記事の参照番号まで与えてくれますが、そのようなものは存在しません。
我々がZetaを立ち上げた時、ゼータという言葉が神話や様々な場所にどのように現れるかを知りたかったのですが、「ゼータという名前の星座がある」と言われ、調べてみるとそのようなものは全く存在しませんでした。本当に用語を発明していたのですが、とてもスタイリッシュに聞こえました。
星の分類では、アルファ、ベータなどから始まりゼータまであり、明るさによって分類されています。各星座にはアからゼータまでの星があり、各星は「ゼータ何か」と呼ばれます。これは見つかりましたが、もし特定の質問をすると、彼はただ回答を提供したいだけで何かを発明することに問題がないことが明らかになりました。
今では彼は出典を示す必要があるので、そうしません。また、確信が持てない時はそれを述べます。当時は、インターネットに接続されていなかったか、古いデータしか持っていなかった時代です。今日でも時間的な制限があり、完全に更新されているわけではありません。数ヶ月の遅れがあると思います。これは、ロシアとウクライナの紛争のような問題を避けるためです。例えば、彼がプロロシアの回答をした場合、どうすれば良いでしょうか?
逆になる可能性が高いと思いますが。
今日、30秒の動画があれば、その人にほぼ何でも言わせることができると言っていましたが、もちろん声も含めて。もし私がルーベンが裸で何かの上に立ち、クロスフィットを嫌い、あるクロスフィッターが大バカ者だと言っている動画を生成したいとしたら、それは可能でしょうか?制限はありますか?
はい、それは既に存在しています。それは私を恐れさせるものです。例えば、詐欺の可能性が驚くほど広がります。明日、私の母が私の声でパニックになっている音声を受け取り、「お母さん、問題があって1000ユーロ必要だ、今すぐ送って」と言ったら、100%確信していますが、私の母は1000ユーロを送るでしょう。既に誤字脱字のあるメールでさえも人々は騙されるのに、身近な人の声ならなおさらです。
最近、多くのケースがありました。中国の企業のCEOになりすまし、上級管理職の一人と会議をした人がいました。通話中、彼の声はCEOの声に直接変更され、顔もCEOの顔になっていました。彼は個人口座に何百万ものお金を移すよう従業員に圧力をかけていました。会計部門のマネージャーに「これをやれ」と言うと、CEOへのストレスと畏敬の念が組み合わさって、うまくいきます。
ビデオを生成することについては、今日、既製のプラットフォームを使用してビデオを生成する場合、それらは制限されています。ポルノコンテンツなどは生成できません。しかし、面白いことに、例を示すサイトに行くと、通常は大きな胸の女性が生成されています。画像や動画の生成AIでは、男性の90%が求めるのはマンガ風の大きな胸の女性のファンタジーです。
ポルノ産業は危険です。彼らはこの分野に大量の投資をしています。バーチャルリアリティのケースで俳優や女優が必要なくなるような契約の要求が多くあります。
ストリーマーにとっては大きな問題があります。ほとんど全員がAIによって生成されたポルノ映画に出演させられています。ストリーマーの顔が実際のポルノ映画に置き換えられています。それはそのようなことをするのは恐ろしいことです。
一般の人が利用できるプラットフォームでは、これはできません。それらはすべて制限されています。しかし、いくつかの写真だけでも、ポルノビデオを生成することは完全に可能です。1時間ほどかかるかもしれませんが。
例えば、Joe Rogan Podcastから映像を取り、神経科学者のAndrew Hubermanに注意力向上とテストステロン増加のためのサプリメントを宣伝させた人がいました。Joe Roganのオーディエンスがまさに熱心に聞くようなものです。何百万ものお金を稼ぎました。実際のポッドキャストの一部を取り、「この新しいサプリメントを飲んでいる」と言わせ、ビデオで何かを見せている部分をそのサプリメントのボトルに置き換えました。広告を大量に出し、そのように販売しました。
私たちは、すべての企業がよりたくさんのコンテンツ、よりたくさんのオンラインビデオを作るように推進されるモデルに向かっています。つまり、潜在的に私たちを誤解させ、全く別のことを言わせるために使用できるビデオクリップがますます増えています。今日、これに対してどのようなコントロールを持っているのでしょうか?
明日誰かが私たちにナチスのスピーチをさせることもできます。これは宣伝の原則であり、現在ロシアとウクライナでまさに起こっていることです。AIによって生成された大規模な宣伝戦があります。ウクライナのゼレンスキー大統領がナチスの発言をしているように見せかけ、それがロシアの言説を支持するようなものです。
私たちはそれを制限することはできません。それは不可能です。宣伝は常に存在してきましたが、ソーシャルメディア上のフェイクニュースと同様に、人々を啓発し、潜在的にAIによって生成された画像やビデオを検出する方法を教える必要があります。
もはや検出できませんか?
できます。今日でもまだ問題点があります。例えば、通常うまく生成されないのは手です。手、目、服のプリーツなどです。また、最適化の問題から、背景もうまく生成されないことがあります。モデルが長く実行されるのを避けるためです。背景を見るべきです。通常、壁がまっすぐではなかったり、曲がっていたりします。
グラフィックはどうですか?画像は本当に撮影されたビデオのように見えますか?
はい、そうです。友人のために作った例がありますが、本当にiPhoneで撮影されたもののように見えます。写真でも同様です。「超リアルな写真を特定のトーンで」と指定すると、望むものを生成できます。
中国では、ディープフェイクを作った場合、厳しい罰則があるようです。数百万ユーロの罰金と何年もの懲役です。
再び規制の問題に戻りますが、私はそれを悪用し何か悪いことをする人を罰するべきだと思いますが、AIそのものを制限すべきではありません。または少なくとも人々を啓発し、批判的な視点を持ち、見るものに対して距離を置くようにするべきです。しかし、ソーシャルメディアでは、宣伝や多くのことに非常に効果的です。アメリカの選挙にどれだけ影響を与えたかを見てください。隠れていない人もいますが、AIによって生成されたコンテンツが多くありました。
以前オフレコで話していたモデルは何と呼びますか?例えばInstagramで、販売者がその人のすべてのデータに基づいて直接関連付けられるようなものです。
ああ、トンネルですね。基本的に、機械学習、特にニューラルネットワークには3つの大きなアルゴリズムがあります(ニューラルネットワーク特有のものが1つあります)。2つの大きなアルゴリズムは、教師あり学習と教師なし学習です。
教師あり学習では、データがあり、通常Yまたはターゲットと呼ばれる特定の変数を予測しようとします。例えば、心電図の測定から心不全のリスクがあるかどうかを予測しようとします。正確に何を予測したいかを知っています。これは教師あり学習です。心電図に基づいてモデルをトレーニングし、その人が病気かどうかを判断します。
もう一つのカテゴリーは教師なし学習で、ターゲットはありません。単にその人に関するデータがあります。例えば、Facebookが長年行ってきたことや、Amazonも広く使用しているのがこれです。クリック数、ページに費やす時間、カーソルを単語の上に置く時間などのデータを収集します。特定の変数やターゲットはありませんが、何百万もの個人からこのデータを持っていて、類似した行動を持つ人々を見ることができます。これは「クラスタリング」と呼ばれ、類似した特性を持つ個人のグループを作成します。
例えば、同じインターネット行動を持つ100人がいて、そのうち90人が2週間前に自転車を購入したとしたら、あなたも自転車に興味がある可能性が非常に高いです。そのため、最新の自転車に関する広告が送られてきます。それを求めていなくても、見ただけでそれが影響します。それはループになります。そのような種類のものにより多くの時間を費やすため、それがあなたにさらに多くのそのようなコンテンツを提示します。
これは反応を測定しますか?
はい、背後には通常1つのモデルではなく、相互接続されたモデルのセットがあります。その後、費やした時間、リンクをクリックしたかどうか、メールが開かれた時間、などを測定します。
政治的意見に影響を与えることについて話していましたが、例えば右派や左派の人がいるとして、それはその人の考えに同意するコンテンツ、またはその人が反応するコンテンツを提案することになります。そのため、その種のコンテンツがより多く提供され、その結果、さらにそのようなコンテンツに時間を費やし、極端に偏ってしまいます。
これはソーシャルメディアの問題です。以前のポッドキャストでエリーが話していました。これがFacebook、Instagram、Twitter(現在はXと呼ばれる)の問題です。FacebookとInstagramはこれを避けるための大きな政策を導入しましたが、問題は、ソーシャルメディアの目的はソーシャルメディアで可能な限り長く時間を過ごしてもらうことです。
知識の限界に人を直面させるほど悪いことはありません。それをすれば、人は離れてしまいます。しかし、確証バイアスに依存すれば、つまり絶えず正しいと言い続ければ、人は留まります。「ああ、そうだ」「知っていた」「そうだと思っていた」などと言い、そのようなコンテンツにアクセスし続けます。あなたが言ったように、これは終わりのないループになります。
ソーシャルメディアに費やす時間と政治的意見の極端化の間には直接的な関係があることが、ますます多くの研究によって示されています。特定のネットワークに時間を費やすほど、左右どちらであっても、より極端になります。
ああ、そうすると、ソーシャルメディアのインフルエンサーはソーシャルメディアに多くの時間を費やし、それを批判しているのですね。
そうなんです。そして、すべての人が今日これを知っていますが、共通の友人の一人がインスタグラムでリールを確認していて、彼女のボーイフレンドと同じリールを見ていました。興味本位で、彼女はコメントを見ました。男性のコメントはすべて「女性はがっかりさせる」「カップルだと常に面倒だ」などというものでした。女性のコメントはすべて「あなたは正しい」「あなたのボーイフレンドはひどい」などというものでした。
彼女は「一方では全員があなたの味方で、もう一方では全員があなたの味方だと思っている社会がどうやって健全になるのか」と言いました。実際の広場にいれば、あなたを称賛する人もいれば、称賛しない人もいます。それをリアルタイムで見ることができます。しかし、ここでは偽りの印象を与えられます。
これは長年知られていることですが、このビデオは特に印象的でした。二つの電話が並んでいて、実際に研究があり、ジャーナリストによる研究も示しています。例えば、極端な政治グループに入り込む研究では、現在の極右には女性を嫌う傾向の多くの男性がいて、極左には男性を嫌う傾向があります。これらはソーシャルメディアによって大きく影響されています。
問題は、AIがこれらのデータでトレーニングされ、自己増殖することです。Amazonの履歴書の例に戻ると、Amazonのモデルが男性だけを採用するのを盲目的に追いかければ、自己トレーニングし、このループから抜け出せなくなります。
同様に、「このコンテンツを提案したら、実際にはこのようなコンテンツしかない。皆が女性に怒っている。だから女性に怒りを感じているコンテンツをもっと提案しなければならない」というようになります。
これらは注意すべき倫理的なバイアスです。基本は「データをどうするか」という点です。すべてのデータを与えるのか、フィルタリングするのか、フィルタリングするならどのようにするのかです。そうすることで、私たちが作成するバイアスが生まれます。
あなたがフィルタリングする方法や、全体主義的な政府がフィルタリングする方法によっても異なります。極端な例に行かなくても、文化的な違いだけでも、例えば日本人は許容できるものとそうでないものに対する私たちとは異なるフィルターを持っているでしょう。
また、アメリカ人や中国人が開発したAIを使用するのではなく、独自のAIを開発すべきではないかという疑問も生じます。これは主権の問題です。スポーツに話を戻すと、イベントのメディア化においてAIが特別な役割を果たしている具体的なケースは現在ありますか?
間接的な形では確かにあります。コンテンツの提案については、これはNetflixなどでも行われていることなので少し触れるだけにしますが、間接的な方法として例えばスポーツベッティングの計算があります。スポーツベッティングは実際にスポーツファンの忠誠心に非常に大きな影響を与えています。本当に彼らを忠実にさせるものです。賭けのオッズや計算の最適化が大幅に進み、その結果、どのスポーツであれファンの忠誠心を高めています。これは重要な役割を果たしていますが、数年前からこの分野での本当の爆発や革新はありません。
同様に、広告の分野では、画面上のロゴの露出時間を計算し、関連する企業に実際に請求できるものを計算するAIがあります。例えば、選手の肩がより多く映し出されていたり、特定のロゴがより多く見えたりした場合、それがどれだけのメディア露出時間をもたらしたかを正確に計算できます。これにはマーケティング用語があります。
また、非常に優れていると思うのは、数年前から存在していますが、テレビによって異なる広告が表示されるということです。サッカー場の周りにある広告は、あなたがどこから見ているか、誰であるか、あなたのプロフィールなどに応じて変わります。これも国によって異なり、翻訳されたりしています。ワールドカップでもそのようなことがありました。フィールドの周りのバナーは、あなたがどこから来たかによって変わっていました。
これはすべて、人類を前進させるような進歩ではありませんが、それでも面白いものです。私はこれらの進歩にあまり魅力を感じませんが、科学的観点からはそれを実装することは興味深いものです。がんの検出などのAIの側面により情熱を感じます。
スポーツにおけるAIについて他に質問はありますか?
スポーツにAIを統合する最良の方法は、まず性能の高いツールを持つことだと思います。そこから、スポーツに本当に性能の高いツールがあるかという質問が生まれます。チームスポーツのデータについては興味深いかもしれません。サッカーのコーチがパスの成功率などを知ることは重要です。現在、ビデオ分析を始めています。GPSが必要なくなります。ビデオ認識があれば、GPSデータの処理や分類が不要になり、大幅な時間の節約になります。
しかし、そのためにはスポーツのデータサイエンティストが必要で、例えばGPS分析やビデオ分析を専門にしている人は少し脇に追いやられることになります。これは現在のところ、資金の豊富なチームでのみ見られます。ラグビーのフェデラル1(リーグ)でビデオ分析を行うには、まだ費用がかかります。AIを使ってマッチを分析することはまだできません。ラグビーでさえ、例えばOneB(リーグ)ではGPSを使用することができないので、閉鎖的なスポーツではより遅れています。
バスケットボールなどの閉鎖的なスポーツでより発展していますが、サイクリングのようなスポーツでは、先ほど言ったように、データと考慮事項が不足しています。プロのサイクリングチームでは、選手たちは非常に大切にされ、標準化された生活を送っているため、不確実性を少し制限しています。しかしアマチュアや準プロの場合は非常に難しいです。
推定できるのは主に生理的なデータですが、生物学的なデータはより複雑です。例えば、選手の加速度が低下している場合、選手が疲れていて、フィールドから出るべきだと推測できますが、それを生物学的なレベルまで持っていくのは困難です。
現在のセンサーは、このような予測を行うのに十分な性能がありません。NIRSセンサーは最良のもので、最も性能が高く、50Hzですが、これまでは2Hzだったので、大きな現象を見逃していました。2Hzから50Hzへの移行は、データ処理の観点から大きな違いであり、信頼性も異なります。開発を見るのは興味深いですが、スポーツ分野での開発には、非常に高いレベルでなければ資金がないというのが問題です。
リーグ1でさえ、データに多くの資金を投じているチームは一部だけです。例えばマルセイユとパリ・サンジェルマンなどの大きなクラブはデータに多額の投資をしていますが、そうでないクラブも多くあります。これは予算の問題です。
もう一つの重要な側面は、スポーツにはデータに非常に抵抗を示す人々がいることです。サッカーの最良の例はデシャン監督で、彼は完全にデータに反対しています。残念ながら、彼の結果が彼に正当性を与えています。彼はデータを必要としていないようです。
データがうまく機能した他の例もあります。イングランドのブレントフォードは、常に引用される例です。監督は、クラブを買収した時(イングランドの4部相当のリーグにいた)、クラブのファンであり、データのファンでした。彼はクラブを買収し、すべてのスカウトを解雇して、データのみで最適化すると決めました。これは業界用語で「スカウティング」と呼ばれ、データを使って有望な選手を発掘することです。今日、ブレントフォードはイングランドのプレミアリーグにいます。
他にもうまくいかなかった例もありますが、成功した例もあります。「マネーボール」のオークランド・アスレチックスの例もあります。そこでは古いスカウトたちとの会議があり、彼らは「彼は優れている」と言い、しかしデータ担当者は「いや、彼らは駄目だ」と言います。なぜこれらの選手を保持するのか、お互いに全く関係のない選手ばかりを採用しているのです。すべてをまとめることで、チームを作ることができました。
当時の大きな問題は資金がなかったことで、高額の選手を獲得することができませんでした。そこでデータのみを使って選手を選び、それが機能しました。彼らはほぼ連勝記録を達成し、20連勝だったと思います。これは野球では考えられないことです。なぜなら、投手が多大なストレスを体に与えるため、通常1人の投手は4試合に1回しか登板できません。回復に時間がかかるのです。肩への負担が大きく、試合後はボロボロになります。そのため、野球で20連勝することは本当に偉業です。データを使用してそれが達成されました。
サッカーでも非常に多くのデータが使用されています。彼らは膨大な資金を持っていますが、忘れてはならないのは、これらは中断されたスポーツだということです。プレーのフェーズがあります。45分間継続的にプレーするようなものではありません。これははるかに複雑です。
テキストと連続性のアイデアを思い出してください。野球は中断されたゲームで、走る場面を除けば、かなり静的なゲームです。アメリカンフットボールも同様で、各番号は常にほぼ同じポジションにいるため、推定が容易です。しかしサッカーでは、選手が常に交差し、動き回っているため、データを収集し最適に処理することがより複雑になります。
プロの世界では、多くの使用例があり、非常に効果的な側面があります。例えばセリーナ・ウィリアムズは、回復期間を推定するためにデータを使用していました。彼女は心拍変動や安静時心拍数などのデータを使用していました。私たちが見るWhoopなどのデバイスと同様のものです。しかし、重要なのは、それが完全に彼女個人に焦点を当てていたことです。彼女のパフォーマンスを推定できるモデルが彼女のために開発されたのです。
2時間を切ったマラソンランナーも同様で、AIがすべてを計算しました。コース上の最適な軌道などすべてを計算しましたが、これも彼個人のためのモデルで、一般の人が利用できるセンサーよりはるかに多くのセンサーにアクセスできました。
今日、スポーツでは多くのアプリがあり、多くの人のためのモデルを販売していますが、確かにそれはあなたのデータの一部を組み込んでいても、そのモデルははるかに一般的なものです。そのため、本質的により性能が低くなります。それは比較できません。
明日AIがフランスを統治することができますか?
いいえ、不可能です。もし全員のすべてのデータを提供すれば、おそらく特定の決定はより実用的になるかもしれません。最終的には政治的バイアスよりも実用性が重視されるでしょう。
しかし、政治の問題は、多くのパラメータとサブパラメータ、さらにそのサブパラメータがあり、それらを統合することが不可能だということです。それは強くあなたの信念によって影響されます。権力を持ち、さらに多くの権力を望む、またはその領域に留まりたいと望む人々のモデルになってしまうのではないでしょうか。そのような方向での決定ではなく、もっと意義深い哲学的な質問です。
あなたがAIに設定する目標によります。「全員が幸せになってほしい」と言っても、各人にとっての幸せとは何か、チャットGPTにとっての幸せとは何かが問題です。「フランスをどんどん豊かにしたい」と言えば、それは軍隊を他国に送り、公共サービスを削減し、資源を奪うための国の征服につながるかもしれません。
そして、歴史の不確実性もあります。例えばナポレオンは、現在の地政学的データ、技術的進歩、人口統計学的データがあれば、当時と同じ決断をしなかったでしょう。
さらに、AIは知っていることに基づいてのみ決定を下せることを忘れてはなりません。明日、フィリピンとナイジェリアの間に紛争が起きたとします。これは全く予想外のことです。そのような事態が起きれば、AIは何をすべきか全く分からないでしょう。あまりにも予想外なので、解決策として核兵器を使うかもしれません。
だから私はそうは思いません。自動化タスクのようなものでは人間を置き換えることができますが、本当の思考、適応能力、感情、感覚を必要とするものでは不可能です。
さらに、LLMの大きな問題は、非常に専門化されていることです。AIは特定のタスクで私たちを打ち負かすのは非常に優れていますが、例えば2016年に囲碁の世界チャンピオンを打ち負かしたAIは、組み合わせの数が無限に近い世界で最も複雑なゲームと考えられている囲碁でのみ強いのです。しかし、料理をしたり、家を建てたりすることはできません。対して人間である私は最高の大工ではないかもしれませんが、家に問題があればYouTubeのチュートリアルを見て、シンクのサイフォンを交換することができます。
イーロン・マスクのロボットの問題は、これらすべてに物理的な形を与え、囲碁のチャンピオンである超知能をこのロボットに入れることができるということです。それは囲碁が非常に上手で、バッテリーも制限がなく、常に機能し、家事もこなせます。
しかし、それは常にそれぞれのタスクで独立して優れているだけです。二つのタスクの間、または人間によってまだ発明されていないタスクはどうなるでしょうか?例えば、これらのロボットが私たちの家に入ってくることで、現在予想していない新しいタスクが生まれるかもしれません。しかし、AIはそのタスクのためにトレーニングされていないため、そのタスクでは無能でしょう。私たちはそれを適応させることができるかもしれませんが、それによって他のタスクが生まれるかもしれません。人間の精神の創造と革新の能力は無限です。
エネルギーの違いについても話していません。囲碁の世界チャンピオンを打ち負かしたAIは400kWを消費します。一方、脳は20Wしか消費しません。これがあなたに視点を与えます。人間の脳は料理したり、他のことをしたりできますが、囲碁の世界チャンピオンであるAIは囲碁しかできません。これも「知能」という言葉の概念に疑問を投げかけます。私たちはそれを人工知能と呼んでいますが、フランス語の意味では少し誤った言葉です。
インタビューをありがとうございました。AIを日常に統合するための最後のアドバイスをお願いします。多くの人がAIは一過性のものではなく、日常的なものになることをまだ理解していないと思います。
まず、自分自身を教育することです。そして、もしよければ、私のインスタグラムページYademをフォローしてください。それはAIの普及のためのページで、AIの概念や数学に関する非常に簡単で分かりやすい投稿をしています。冗談は別として、自分自身を教育し、情報を得ることが重要です。YouTubeなどには学ぶための多くのリソースがあります。
最も重要なのは、これに対して多くの視点を持つことです。「素晴らしい、すべてを行い、すべてを変えるだろう」という商業的なメッセージに惑わされないでください。視点を持ってください。警戒し過ぎることもありませんが、それはツールであり、必然的に物事を変えるでしょう。これは新しい産業革命であり、社会システムを変えるでしょうが、世界の終わりではなく、私たちを置き換えることもありません。それからはまだ非常に遠いです。
結局のところ、私たちがそれをどのように使うかによるのです。武器のようなものです。スポーツ射手の手にあっても、それだけでテロ攻撃を行うわけではありません。
ありがとうございました。次回のエピソードでお会いしましょう。

コメント

タイトルとURLをコピーしました