OpenAIがチャットGPTに学習モード機能を追加し、単純な回答提供ではなく批判的思考力の育成を目指している。同時にGoogleのNotebookLMが音声要約に加えて動画要約機能を導入した。MITの研究によると、チャットGPTの使用が脳の活動を低下させる一方で、既に知識基盤がある場合には逆に学習効果を高める可能性があることが示されている。これらの技術革新は教育分野に大きな変革をもたらしており、AIの適切な活用方法が重要な課題となっている。

OpenAIがチャットGPTに学習モード機能を追加
おう、みんな、OpenAIがチャットGPTの学習モードを解禁したで。これがもうバッチリのタイミングやねん。なんでかって言うたら、今めっちゃ多くの人がチャットGPTを批判しとるからや。MITの研究発表なんかでも、チャットGPTを使うと脳の働きが悪なるって言うとるしな。そのことについても今日話すで。
そんでGoogleのNotebookLMも新しい機能を発表したんや。めちゃくちゃエエもんが出てきてるで。もう見ただけで感動したわ。ほんまに凄いねん。せやから一緒に見ていこうや。
毎回いいねを押してくれるみんな、チャンネル登録してくれるみんな、ほんまにありがとうな。特にこのAIチャンネルをサポートしてくれとるメンバーのみんなには感謝しとるで。
メンバーは限定動画が見れるねん。インテリジェントエージェントの作り方を教えとるし、WhatsApp連携、MCP、PDF読み込みとかの解説もしとる。それに動画の先行公開もあるで。
学習モードの具体的な機能
今日のニュースは、このチャットGPTの新しい学習モードについてや。アイデアはシンプルで、要するに学生が自分で批判的思考力を身につけるのを手伝うんや。単純に質問の答えをもらうだけやなくてな。今までやったら質問入れて、答えもろて、コピペして、学校の課題に貼り付けて、はい終わりやったからな。文章書くことすら覚えんでもええぐらいやったからな、チャットが全部やってくれるからな。
でもそれを嫌がる人が多かったんや。それでめちゃくちゃ批判されるようになってん。
実際どうなるかって言うたら、チャットGPTがユーザーに質問して理解度をテストするんや。場合によっては、学生がちゃんと材料に取り組まん限り、直接の答えを出すのを拒否するねん。分かるか?時々しつこく答えを求めてきても、チャットが状況に応じて答えへんって準備されとるんや。
これは誰でも使えるで。無料も有料もProもチームも、火曜日から使えるようになったんや。それが昨日やな。教育プランの契約者もすぐに使えるようになるで。
教育現場での課題と変化
問題はこれやねん。学校で広く使われるようになって、教育者の間で恐怖が広がったんや。それで生成AIを禁止するところが出てきた。これはアメリカの話やけど、日本でも確実に同じような議論が起こっとるやろうな。
でもこれは2023年の話やからな。当然、今どうなったかって言うたら、先生たちもチャットGPTがこれから生活の一部になるって諦めたんや。教育現場におる人やったら分かると思うけど、もうどうしようもないやろ?人はチャットGPTを使うんや、好きか嫌いかに関係なくな。
アイデアはこれや。チャットGPTを単なる回答メカニズムやなくて、学習ツールとして改善することや。みんなが心配しとるのはこれやからな。私たちの知的能力を失うんちゃうか、考える力が弱くなるんちゃうかって。長期的にこういうツールを使うとどうなるんかって。
今チャットGPTに入って、ツールのメニューをクリックしたら、「学習と勉強」っていうのが選べるようになっとるで。クリックしたら、「宿題を手伝って」「トピックを説明して」「模擬テストを作って」って選択肢が出てくる。
例えば「模擬テストを作って」をクリックしたら、こんな感じで始まるねん。「テストを作る前に、目標を教えて。どの科目?数学、歴史、物理?勉強レベルは?9年生、高校、大学入試?多肢選択、記述式、どっちがええ?何問ぐらい欲しい?」って聞いてくるねん。
そこで「AI初心者レベルで勉強してる。多肢選択で1問だけ」って答えたら、「AIの初心者レベルの多肢選択問題や。問題1:次のうちAIを最もよく表しとるのはどれや?A:一人で動くロボット、B:人間の知能をシミュレートして作業をするプログラム、C:クラウドにファイルを保存するアプリ、D:ゲーム専用のプログラミング言語。どれが正解やと思う?」って出てくるねん。
わざと間違った答えを選んでみたら、「ナイストライやけど、Dは正しくないで。復習してみよう」って言うて説明し始めるねん。「これはAIについて正しくない。AIはプログラミング言語やないし、ゲームだけのもんでもない」って説明してくれて、「もう一回選択肢を見てみよう。今度はヒント付きや」って言うて、Dを除いて他の選択肢だけ残して、「AIは学習したり、決定したり、人間みたいに問題を解決するシステムのことや。どれが一番正しそう?」って聞いてくるねん。
そこで「B」を選んだら、「そうや、Bが正解や。人間の知能をシミュレートして作業をするプログラムや」って答えてくれる。でも広い意味で言うたら、この定義はあんまりよくないねんな。いつでも人間の知能をシミュレートしとるわけやないからな。時には意図的に人間とは全然違う知能を作ることもあるからな。
学習効果の向上
そやから必ずしも正しくない。でも続けて説明してくれるねん。「これがまさにAIの定義や。人間の能力、学習、推論、パターン認識を真似しようとしとるんや。チャットボット、自動運転車、映画推薦システムなんかがそうや」って。
そこで「でもAIっていつでも人間の知能を真似しとるんか?」って疑問をぶつけてみたら、「あー、いつもってわけやないな」って認めてくれる。そうやってやり取りが始まって、チャットがいろいろ説明してくれる傾向があるねん。人間の知能を真似するって説明し始めて、「もっと現代的で実用的な定義を言うたら、普通やったら知能が必要な作業をするシステムのことで、人間を真似するかどうかは問わん」って、だんだん面白くなってくるねん。
自分の疑問や質問が、実際に脳を使わせて、思考を使わせて、もうちょっと進んだ定義にたどり着かせてくれたのが分かるやろ?当然、この会話を続けていったら、みんなも気づくと思うけど、このAIがしとる相互作用のタイプは、もっと教育的になっとるんや。この相互作用では説明的で解説的なことをめっちゃ気にしとるねん。
実際の使用例
別の例では、「人工神経ネットワークについて学んでて、どう動くか理解したい」って始めたら、「素晴らしい、人工神経ネットワークは魅力的なトピックや」って答えて、質問をいくつかしてくるねん。「今のレベルはどんなもん?人工ニューロン、層、重み、バックプロパゲーションって言葉聞いたことある?それとも最初から始めたい?神経ネットワークって何で何に使うんかから?」って。
「ちょっとは知っとるけど、最初から始めよう」って答えたら、最初から説明してくれるねん。「人工神経ネットワークって何?人間の脳からインスピレーションを得たコンピューターモデルや。例を見て問題を解決することを学ぶんや」って、ちゃんと正しい説明をして、いろんな教育的なアナロジーを使って説明してくれる。
最後の方で、「猫か犬かの答えを出す」って説明があって、最後に「自分の言葉で簡単な神経ネットワークがどう動くか説明してみてくれる?そうしたらどこを手伝ったらええか分かるから」って聞いてくるねん。
そこでわざと挑発的な答えを言うてみた。「簡単な神経ネットワークは猫と犬を繋げて活性化する」って。そしたら「ナイス、大事な部分は理解しとるな。ネットワークが入力(猫と犬の画像みたいな)を出力に繋げて、どっちがどっちかを決めるのに活性化を使うって分かっとる。でも一緒にその説明をもうちょっと良くしていこうや」って答えてくれる。
違いが分かるか?意味不明なこと言うたのに、めっちゃ丁寧に気を遣って、小さな修正をし始めるねん。「こんなバージョンでやってみて」って言うて、正しい説明を始めるねん。「簡単な神経ネットワークは、例えば画像のピクセルみたいな入力データを受け取って…」って、ちゃんとした説明をして、思考と推論を刺激してくれるねん。
最後に「ちょっとした練習問題やってみよう」って言うて実験を説明して、質問をしてくるねん。「正解はまだないで、君の推論を見たいんや」って言うて、考えさせようとしてくるねん。これがめっちゃ面白いと思うねん。受動的に質問に答えるだけの役割やなくて、相互作用を作り始めとるからな。
MITの研究について
このタイプのツールは、最近出てきとる研究発表と関係があるねん。例えばMITのやつ。「チャットGPTが批判的思考力を蝕んでるかもしれん」っていうMITの新しい研究や。この研究は前に発表されたもんやねん。
ミゲル・ニコレリスがいつものように、この記事をAIが人の知能を下げとる証拠として使っとるねん。あらゆるポッドキャストでこの記事について話しとる。でもこの記事について見過ごされとる興味深い詳細があるねん。何が起こっとるか理解してみよう。
研究者は54人の参加者(18歳から39歳、ボストン地域)を3つのグループに分けて、いくつかのエッセイを書かせたんや。1つのグループはチャットGPTを使って、もう1つのグループはGoogleを使って、3つ目のグループは何も使わんと頭だけで最初からエッセイを書くねん。
エッセイを書いた人たちのうち、チャットGPTユーザーは脳の関与が最も少なくて、神経的、言語的、行動的レベルで一貫して劣るパフォーマンスを示したんや。要するに、頭に測定器つけて脳波を測ったら、まるでリラックスして何もしてへんような状態やったんや。質問を投げて、「チャットGPT、これ書くの手伝って」って言うて、基本的にチャットGPTが全部文章を書いて、その人たちは答えをちょっと修正したり、最後にちょっと手を入れるだけやったからな。基本的にチャットとのやり取りやな。みんなもやったことあるやろ?
研究結果の詳細
何ヶ月にもわたって、チャットGPTユーザーは次のエッセイごとにどんどん怠けるようになって、研究の最後にはコピペに頼ることが多くなったんや。この研究では1つのエッセイだけやなくて、何段階にも分けて続けたからな。
重要な詳細は、この研究はピアレビューされてへんし、サンプルも小さいってことや。著者がこれを発表したのは、ちょっと騒ぎを起こしたかったからやねん。公共政策がAIと関連付けられるのを見て、これが調査すべき問題やってことをはっきりさせたかったんや。
評価者がエッセイを見たら、チャットGPTを使った人たちは極めて似通ったエッセイを提出しとって、オリジナリティがなくて、同じ表現やアイデアに基づいとった。魂がないって言われたようなもんやな。脳波検査では、低い実効制御と低い注意関与が明らかになったんや。当然やろうな?ディープリサーチの高度検索をクリックして「AIの最高の記事を見つけて」って聞いたら、後ろ向いて料理作りに行って、戻ってきたら何が起こったか見るだけやもんな。積極的なプロセスはせんのや。本当に全部の作業をするのはAIやからな。
脳だけを使ったグループと比較すると、より高い神経接続性を示したんや。特にアルファ、シータ、デルタ帯域で、これらは創造的発想、記憶負荷、意味処理と関連しとるねん。
それに加えて、脳をもっと使っただけやなくて、このグループはより関与して好奇心があって、著作権を主張して、自分のエッセイにより大きな満足感を表したんや。この著作権の問題が面白いねんな。誰かが君の作品をコピーしても、チャットGPTで作った場合とは感じ方が違うねん。チャットが作ったんやったら、もう著作権なんてどうでもええと思うやろ?
最後に、Googleの検索を使った3番目のグループも高い満足感と活発な脳機能を示したんや。Googleでは検索を選択せなあかんし、何が起こっとるか読まなあかんから、ツールを使っとるけど、全部文章を書いてくれるチャットGPTとは違って、相互作用があるからな。
興味深い実験結果
参加者は前に書いた試みの1つを書き直すように求められたんや。チャットGPTグループはツールなしでやらなあかんくて、脳だけのグループは今度はチャットGPTを使えるようになったんや。面白いやろ?ある時点でチャットGPTを使った人からチャットGPTを取り上げて、頭だけでやった人にチャットGPTを与えるねん。
1番目のグループは自分のエッセイをほとんど覚えてなくて、弱いアルファ波とシータ波を示したんや。でもタスクは実行されて、効率的で便利やったと言えるねん。まあ、「OK、通った」みたいな感じやけど、よく分からんって感じやな。
頭を使ったグループは良いパフォーマンスを示して、EEGの全周波数帯域で脳接続性の大幅な増加を見せたんや。これはAIを正しく使えば、害を与えるよりも学習を向上させる可能性があるっていう希望をもたらすねん。
この部分が分かったか分からんけど、研究者がインタビューでコメントしとるねん。つまりこういうことや。最初の段階で考えた人、頑張って書いた人、チャットもGoogleも使わんかった人は、チャットGPTを使った時に、すでに頭の中に知識があって、その知識について考えて反映しとったから、チャットに何を聞いたらええか分かっとったんや。AIをどう自分のために使ったらええか分かっとって、使わんかった時よりもええ結果を出したんや。
違いが分かるか?微妙な違いやけど。俺には完全に納得できるねん。今でも、チャンネル用の動画作ったり、実生活で何かする時、内容によっては、特に興味のあるトピックやったら、AIを使わんで自分でやるねん。
個人的な経験と見解
トピックにめっちゃ興味があったら、自分で検索することを好むねん。テキストを読み始めて、特にチャンネル用のコンテンツを作る時は、反対意見も見たいし、人が何を言うとるかも見たいし、研究しとることに関連するトピックも見たいからな。
正しい答えを知りたいだけやなくて、トピックを理解したいねん。正しい答えを知ることとトピックを熟知することの違いが分かるか?トピックを熟知しとる人は正しい答えを知っとるだけやなくて、批判者も知っとるし、同じトピックについて話しとる人も知っとるねん。
例えば、ニコレリスが報道でこの研究を引用する時、すでに知識のある人がAIを使った時にポジティブな結果があったっていう部分を省略しとるのを俺は知っとる。なんで知っとるかって?トピックを理解しようとしとるからや。単に答えを知りたいだけやないからな。
みんなも気づいとると思うけど、AIにやらせたくないことがあって、一方で別にどうでもええことはAIに任せた方がええってのがあるやろ?
これは前の研究の結果とも関連しとるねん。その研究でも面白いことが分かったんや。例えば、ある分野にめっちゃ強いけど、その仕事をするのに他の分野のサポートが必要な時、チャットGPTは弱い部分をめっちゃ助けてくれるねん。弱い部分での恩恵は、強い部分での恩恵より比例的にはるかに大きいねん。
0から50%に少ない努力で上がって、得意分野では50%から60%に上がるような感じや。これを実感するのはめっちゃ面白いねん。
コメントで教えてくれや。同じように感じとるか、今選択しとることがあるか。「これはAIに任せる、これは自分でやる」って決めとることがあるか。AIが迷子になりそうな時や、本当に自分がやりたい部分は手動でやることを選んどるか聞かせてくれや。
NotebookLMの新機能
次のニュースはNotebookLMについてや。これはめっちゃ気に入ったで。NotebookLMがユーザーの文書をAI生成のビデオ概要に変換するようになったんや。
覚えとるか?前はポッドキャストだけ聞けたやろ?今度は基本的に進化してビデオ形式になったんや。NotebookLMに「ビデオ概要」っていう新機能が追加されて、AIを使って複雑な情報をもっとアクセシブルな視覚的フォーマットで提示するねん。
直接的に言うたら、このビデオ概要ボタンができて、ビデオを生成してくれて、研究しとるトピックについてのビデオが見れるようになったんや。これは素晴らしいと思うねん。こういうのがどんどん面白くなってくるのを見てみいや。
トピックを取って、その文書から画像を取って、スライドに置いて、ナレーションするねん。音声概要の視覚的補完として機能して、似たようなカスタマイゼーション・オプションを提供するねん。ユーザーは学習目標を設定したり、対象読者を指定したり、特定のトピックをハイライトしたりできるねん。
面白いやろ?「この全文書の中から、これについてだけ話して」って言えるねん。ツールは「トピックに詳しくないから理解するのを手伝って、図表を説明して」みたいな一般的な質問に答えるし、専門読者向けの詳細な指示も提供するねん。
実装はすでに英語で全ユーザーに開始されて、もっと多くの言語が計画されとるねん。これはもう気づいたで。テストしたら英語になって、後でポルトガル語に変えなあかんかったけど、ポルトガル語で話してって頼んだら動いたんや。
実際のテスト結果
テストをいくつかやってみたで。MITの認知に関する研究について書いたあの記事を使ったんや。無料アカウントでテストしたら、まだメニューが出てけえへんかった。それから有料アカウントでやったら、このグラフィカルな4つのメニューが出てきたんや。
これが有料アカウントだけなのかは読んでへん。無料アカウントでも出とるかコメントで教えてくれや。時間の問題なのか、すぐに出るようになるのか、それとも有料アカウントだけなのか、テストしとる人の参考になるからな。
基本的なアイデアは、AIと認知の文書を添付したことや。これはMITで話したテーマや。音声要約(すでにあった)とビデオ要約(新機能)ができるねん。
再生してみたら最初のバージョンが出てくるねん。英語で書かれて英語で話しとるねん。「Your brain on chat」って。まだ英語やねん。
英語やって分かるやろ?進めていくと、54人の参加者を3つのチーム(チャット、検索エンジン、脳だけ)に分けたって話をしとって、まさに俺たちが見とった通りや。記事の画像も使っとるねん。
でもポルトガル語にするにはどうしたらええか考えて、カスタマイズオプションで「ブラジルポルトガル語、PTBRでビデオを作って」ってだけ書いたんや。それだけで2番目のバージョンが生成されて、ポルトガル語になったんや。「あなたの脳とチャットGPT」って。
ちゃんと動いとるやろ?スライドも作って、フェーズ1、パート2って分けて、綺麗にしとる。グラフも入れて、起こっとることを全部説明しとる。素晴らしいねん。勉強にぴったりや。教育分野はチャットGPTで最も影響を受けとる分野の1つやからな。
みんなも感じとるんちゃう?こういう相互作用や質問や、俺たちが見とる全部のことがどんどん良くなっとるからな。何をしたかを見るのが面白いねん。グラフを翻訳して、著作権の割合も入れとる。脳だけを使った人は80%以上の著作権があったって、全部綺麗に説明しとる。
起こっとることを全部説明して、ナレーションして、示しとることについて考えさせてくれるねん。スライドの品質を見てみいや。記事の画像を使って、俺たちが見とることの品質がどんなもんか。めっちゃヤバい時代やで。こんな状況を経験するなんて想像したことなかった。
技術革新と市場動向
多くの人がAIはただのハイプで、すぐにAIが力を失い始めて、これはCEOが「いつかAGIを作る」って言うとる企業の話やって主張し続けとるねん。でも俺が到達しとる結論はそうやない。
Nvidiaの株を見てみいや。2023年に成長し始めて、ずっと成長しとった。トランプが就任した時に下落があったけど、アメリカの他の企業も関税で下落したからな。でもその後成長、成長、成長で、現在も成長し続けとる。
Microsoftも同じや。トランプの関税で下落があったけど、その後上昇、上昇、上昇で今も成長しとる。「アメリカ全体が成長しとるから、AIだけやない。他の企業も成長しとる」って思うかもしれんけど、違うねん。他の企業は下落の後ちょっとだけ成長したんや。
例えばAppleとTeslaや。下落があって、ちょっと上がって安定したんや。だから今アメリカ企業の株で見とる成長は、やってくるAIと異常に繋がっとるってことが分かるねん。
ハイプじゃないってどうやって結論づけられるか?AGIと関係ないってどうやって結論づけられるか?まさにこれらのツールのおかげで分かるねん。AGIがなくても、これらのツールはすでに有用やねん。
どこに向かっとるか分かったか?AGIがあったら最高や、素晴らしい、もっとできることが増える。でもなくても、今のレベルですでに知能の大幅な向上になっとるねん。すでに俺たちの考える能力を上位レベルに引き上げとるねん。この上位レベルの知能がすでにとんでもない付加価値を持っとるから、ハイプじゃないねん。
成長し続けるで、このバブルは弾けん。せいぜい減速するかもしれんけど、新しい発見がされて、今すでに優秀なものがさらに改善されたら、この歴史的瞬間の重要性をさらに加速させる新しいことが次々出てくるだけや。
俺たちは変化を理解して気づかなあかん。世界は変わったんや。チャットGPTのこの変化は小さな変化やなかったし、2、3年で過ぎ去るようなもんでもないねん。ビニールレコードやCDみたいに、もう存在することすら忘れてしまうような技術とは違うねん。
これは確実に変わるで。技術も変わるし、いろんな意味で変わるねん。例えば、Instagramでシェアしたこの投稿を見てみいや。この巨大な箱を押しとる2人の画像で、IBMって書いてある。これは1956年の5MBのハードドライブやねん。1956年にはこんなもんが全部必要やったんや。
例えば、俺の手にあるこの小さなSDカードは512MBで、古いカードやから。指先に収まるサイズで、このサイズになっとるのは失くさんためだけや。本当はもっと小さな四角でもええねん。
将来、今AIを動かすのにほぼ都市サイズのデータセンターが必要やけど、同じ道をたどるんやろうか?どんどん小さなサーバーになるんやろうか?疑問やな。コメントで考えを聞かせてくれや。
2つの可能な道があると思うねん。1つは量子コンピューティングやけど、これはあんまり可能性低いと思う。もうちょっと時間がかかりそうや。でも今準備されとる技術があって、数年以内に実現しそうなのがフォトニクスや。
みんな量子について話しとるけど、フォトニクスについてはほとんど話してへん。基本的にコンピューターの銅の配線を光子、光の効果に置き換えるねん。これで通信の並列性が増加して、通信速度が上がって、摩擦が減る。つまり熱が下がって、いろんなことが改善されるねん。でもこれは別のビデオで話そう。
まとめ
コメントで考えを聞かせてくれや。チャンネルをサポートして、こういうビデオを続けて見たかったら、メンバーになってくれや。メンバーはインテリジェントエージェントの限定ビデオと先行公開ビデオが見れるで。
いいねを押してくれや。ありがとうな。


コメント