この動画は、AI革命が労働市場に与える影響について、視聴者から寄せられた質問を12の項目に分けて回答している。AIによるレイオフの見極め方、耐久性のある職種の特定、新卒者の就職戦略、習得すべきAIスキル、中堅職員のキャリア転換方法など、実践的なアドバイスを関西弁で分かりやすく解説している。技術的な詳細よりも、人間にしかできない高信頼性・高曖昧性の業務に焦点を当て、AI時代を生き抜くための具体的な戦略を提示している内容である。

AIが仕事に与える影響への12の回答
毎月何百もの質問が寄せられるんやけど、お問い合わせフォームからもコメント欄からも山のように来るわ。それらを12個の重要な質問に絞り込んだんや。このAI革命で一番難しい部分を突いてくる質問ばっかりやで。そやから、ここでワシの答えを全部教えたるわ。
最後にはボーナスとして、みんなが聞かへんけどワシやったら考えるようなことも話すで。まずは12の質問から始めよか。
1. AIレイオフの見極め方
「ネイト、AIによるレイオフの見出しをよう見るんやけど、自分の役職が次やられるんか、それとも単に変わるだけで大丈夫なんか、どうやって見分けたらええんや?」
使える経験則を教えたるわ。自分の役職を一連のタスクとして見て、そのタスクのうちAIが何パーセント引き受けられるかを見るんや。そんで割引して考えるんやで。
なんで割引するかって言うたら、ワシが何度も言うてるように、役職ってのは単なるタスクの束やないからや。役職には糊付け作業があるんや。そやから自分に聞かなアカンのは、その役職のタスクの30%を取り除いたとして、雑用が減った分、チームの使命や会社の使命をもっと効果的に達成するのに活用できるんか?それとも、ただ食い荒らされて空洞化しただけで、実際にはやることがあんまり残ってへんような感じになるんか?ってことや。
後者やったら、ただの空洞化やと感じるんやったら、そん時は心配せなアカン。
具体例を挙げたるわ。カスタマーサクセスは最も打撃を受けた役職の一つやと思うけど、まだ希望を持つべき理由も示してるで。
カスタマーサクセスの現実
カスタマーサクセスは、サム・アルトマン自身も含めてシリコンバレーの大手が「もうCS職はなくなる」って言うてる例や。それでも同時に、CSの仕事をAIに任せると主張してた大手企業が後戻りしてるのも見てるやろ。なんでかって言うたら、良い引き継ぎが必要やし、実際に顧客を助けられる人間をループに入れる必要があるからや。顧客ヘルプってのは、めっちゃ文脈に依存するもんやからな。
ワシもAIメニューを何個も、AIチャットを何個も渡り歩いたわ。みんなこぞって導入しとるからな。あんたもそうやろ。でも、10年以上前にAmazonで働いてたワシの相棒のトーア(本名や)と仕事したときほど良い体験はできてへん。質問にも答えてもらえたし、トーアはユーモアのセンスもあって、みんな楽しい時間を過ごせたんや。
カスタマーサクセスロボットでそんな体験をしたことは一度もないわ。そやからCSは変わると思う。そのタスクの大部分がAIに引き継がれるって議論できる例やと思う。AIがデータベースを基にテキストを書くのは簡単すぎるし、もっと親しみやすくなるやろう。でも多分、トーアほどではないやろうけどな。
でもワシが思うに、CSの担当者として見たら、システムを設計できるべきやし、特別な価値を提供できる場所を見つけて踏み込んでいけるべきや。ワシが知ってるCSの担当者で、あまりにも優秀やから会社の拡張売上を伸ばしてる人がおるで。AIエージェントが会社の拡張売上を伸ばすのと同じくらい得意になることはないやろう。
タスクと使命の区別
答えの一部は、タスクの負荷と使命を見ることや。自分の使命がどこに合わせられてるかと、タスクがどこに合わせられてるかの違いやな。もう一つの部分は、自分ではコントロールできへんことや。
そやから、自分の役職が次やられるかどうかを見分ける方法の一部は、率直に言うと、リーダーシップがAIを理解してるかどうかや。
リーダーシップはAIについて、ワシが話してるような細かいやり方で話してるか?それとも「AIはコストカッターや」って言うて、こういう役職は喜んで捨てるって感じで話してるか?彼らはそれについて間違ってるかもしれへん。多分間違ってる。早急に捨てる傾向のある人は、後で後悔する傾向があるんや。そういう大きな話はいっぱいあるで。さっき一個挙げたやろ、クララのことや。
でも、もしそういう風に考えてるんやったら、リーダーシップを観察して他の役職を見つけるか、AIのせいやなくてリーダーシップの態度のせいで、違うキャリアパスを探しに行く価値があるで。この二つは区別したいんや。
タスクの観点から答えを知りたかったら、自動化されるタスクは何かを見て、束ねることや糊付け作業ができることや使命への合致に対して割引して考えるんや。会社の観点から見たかったら、自分のリーダーシップを見るんや。彼らが実際にAIの細かい部分を認める気があるんか、それとも単にコストカットの鉈として見てるだけなんかを見るんやで。
2. 白collar職の削減時期
「ネイト、日付が知りたいんや。専門家は白collar職の削減がいつから本格化するって言うてるんや?」
専門家はこの件で意見が分かれてるんや。本当に分かれてる。一つの答えはないんや。答えを出せたらええんやけどな。知ってると主張する人はいっぱいおる。
2027年やって主張する人もおるし、2030年やって主張する人もおる。2028年やって主張する人もおる。起こるって主張する人もおるし、まだそうなるかどうか確信してない人のグループもある。
あんたの考え方によるんや。ワシやったら、今後2~3年で役職の大幅な再編と白collar職全体への大幅な混乱があると仮定するで。
これは、白collar職の削減がそれらの職種全体での大量レイオフを意味すると仮定するのとは違うんや。それが実証的な証拠に組み込まれてるとは思わへん。仕事のやり方を変えるか?絶対にや。実際、それはまだ始まったばかりや。ほとんどの人がもう仕事を持ってへん。それが起こってるかどうかはまだはっきりしてへん。
データでははっきりしてへんし、AIシステムの能力とその成長方向を考えてもはっきりしてへん。レイオフはあるやろうか?ある。2026年と2027年に職業の混乱が本格化してもっと混乱が見られるやろうか?ある。
でも、この話をするときに、よく混同してしまうのは、30%、40%、50%の失業率になって、みんな生活保護を受けなアカンような世紀末シナリオでのパンの列レベルの混乱と、蒸気機関の発明や인터넷の発明に相当する技術変化が圧縮された技術変化レベルの混乱なんや。過去の革命とは違って、これは全部今起こってるから、その変化をめっちゃ早く交渉せなアカンのやけど、この二つを違う未来として明確に表現してへんのや。
ワシの予想は、これは他の技術変化みたいなもんやけど、めっちゃ圧縮されてるってことや。そやから衝撃は今後数年間、もっとドラマチックに感じられるやろう。他の人はもっと世紀末シナリオに賭けてる。もっと世紀末シナリオに賭けてる人は、2027年と2028年ってよく言うんや。
その良いニュースは、彼らが正しいか間違ってるかがすぐに分かるってことや。そんなに時間はかからへん。初級レベルの初期キャリアパスの範囲内でも十分や。
ってことは、将来のために計画したいんやったら、彼らが間違ってることを前提に計画すべきやってことや。なんでかって言うたら、彼らが間違ってる場合に備えてスキルを築く計画を立てても損はないからや。もし彼らが正しかったら、関係ないんや。そやから、とにかくスキルを築いた方がええんや。これはよく人を驚かせるんやけどな。
3. AI耐性のある持続可能な役職
「ネイト、AIが食い荒らせへん仕事が欲しいんや。みんなが群がる前に、本当に持続可能な役職をどうやって見つけたらええんや?みんな誇大宣伝で右往左往してる感じやわ」
流行らへんものがあるって提案したいんや。信頼を仲介する方法を理解することは流行らへん。
ビジネスの文脈で信頼を築く方法を理解することは絶対に流行らへんし、AIに奪われることもない。広く急速に変化する文脈を意識せなアカン高文脈状況で働く方法を理解することは流行らへん。消えへん。AIはそれをトークン化するのが下手やからAIには奪われへん。AIは信頼をトークン化するのが下手なんや。信頼は本当にトークン化できへん。
信頼は人間の取引なんや。グレーでずっと変化してる高曖昧性状況を処理する方法を理解すること。AIはそれも得意やない。実際、AIモデルに対するワシの最大の不満の一つは、能力が向上したのに曖昧性の処理が上手くなってへんことや。
議論の余地があるけど、具体的になるのが上手くなったから、むしろ悪くなったかもしれへん。そやから、本当にめちゃくちゃな現実世界の制約がある場所を探すんや。深い関係が必要な場所を探すんや。成果を出さなアカン場所、特に責任に対して成果を出さなアカン場所を探すんや。
外科医の例
良い例として、ロボットが外科医の役職を引き継ぐって言われてきたけど、外科医には責任があるんや。外科医は訴えられる可能性がある。外科医は正しくやらなアカン。外科医は身銭を切ってるんや。ロボットはそうやない。
そやから皮肉なことに、外科医は手術室にロボットが関わってくるにつれて変化して変わる役職やと思うけど、すでにそうなってるけど、外科医自体が消えるってことやないんや。
テック業界でも似たような役職が見られるで。これらがシニアや深いキャリアの人だけに利用可能やってことか?そうは思わへん。AIが仕事に対する前提をめちゃくちゃひっくり返してるから、まだ完全に定義されてへん尻尾の機会がいろんな種類で開かれてるってのが本当におもしろいことやと思うんや。
AIアーキテクトは全く新しい役職や。まだ完全に定義してへん。確かにAIとシステム理解についてある程度の経験が必要やろうけど、めっちゃ新しい役職の例や。もう一つの新しい役職、AIエンジニア。良いAIエンジニアになるってどういう意味や?それ以外にもいっぱい役職があるで。良い言葉がない役職もある。
プロダクト管理がどこに向かってるのか、どう混乱してるのかよく分からへんけど、エンジニアより技術的知識が少なくて済むけど、おそらく以前より多く必要で、ロードマップに駆動されへん世界では全く違うマインドセットが必要な役職の例や。
そやから、ここでの機会は、持続可能な関係的で取引的やない構造を探すことやと思うんや。高文脈、高曖昧性、高信頼の交差点、めっちゃ取引的やない場所、関係指向である必要がある場所、物事を理解するために文脈を深く知る必要がある場所やな。
ちなみに、AIエンジニアとAIアーキテクトが信頼と曖昧性と文脈を深く理解する必要がないと思ってるんやったら、ニュースがあるで。責任に対して成果を出さなアカン場所や。
構造化されてないデータの問題を追いかけるんや。まだ簡単にトークン化されへん問題を追いかけるんや。AIは摂取できへんもんは食えへんからな。そやから、そういう空間を探すんや。
そんで、それらを全部あんたのために名付けることはできへん。まだ出現してる最中やからな。それが今後2~3年の本当におもしろいところの一つや。
そやから、あんた自身でそれらを見つけるための原則を教えようとしてるんや。
4. 新卒者の就職戦略
「ネイト、ワシは新卒やけど、エントリーレベルの役職が蒸発してるみたいや。今、どこで本当の経験を積んだらええんや?このはしごにどうやって乗ったらええんや?これは公平やないで」
2008年もめっちゃ厳しかったで、教えたるわ。
まず、問題の一部は、他の人は以前の職歴に頼れるけど、それがなかったら難しいから、就職活動の壊れたパイプラインの打撃を他の誰よりも激しく受けてるってことや。役立つことがいくつかあるけど、一番確実に見てきたのは、あんたの側での容赦ない実行が必要になるんや。これは3番とつながってる。
一番役立つと思うのは、プロジェクトを新しい履歴書として扱うことや。物を出荷できなアカン。何を作ってるかを見せられなアカン。コミュニティのニーズとつながって、それに応じて何かを作れることを見せられなアカン。
テックにいて、公開された成果物を残すものを作ってるんやったら、マーケティングにいて、ストーリーを語ろうとしてるんやったら、今すぐストーリーを語り始めなアカン。
複製するのが難しい、自分が取り組んでることの公開された足跡を残さなアカン。ストーリーテリングのTikTokがいっぱいあるんやったら、実際に動作する、実際に配信したコードがある強いGitHubがあるんやったら、それは実際に動くんや。壊れたプロジェクトの束やなくて、少なくとも人が見て調査できるものなんや。
そん時に問題になるのは、AIがこれを全部あんたのためにやったかやなくて、あんたが求めてる役職のための構築原則を理解してるかってことや。なんでかって言うたら、エンジニアやったらGitHubが必要で、エンジニアやなかったらGitHubを持つべきやないってルールが変わってるからや。
確かに、エンジニアは多分まだGitHubを持つべきやろうけど、エンジニアやない人も今は技術的なトピックについて話せる必要があるんや。そやから、何かを作る機会があって、あんたが技術者やないんやったら、それを恐れたらアカン。
部分的な見習い制度みたいなものを探すことも提案するで。問題を解決してもらいたい創業者のための小さなパートタイムの仕事や。インディー創業者がいっぱいおるんや。その一人一人が、自動化したいと思ってるほどの時間を持ってへんのや。作りたいと思ってるほどの時間を持ってへんのや。彼らを助けに行け。彼らはあんたを紹介してくれるで。彼らを助けに行け。作って見せられるものが手に入るで。
どうやってそれを手に入れるんや?「誰がワシに注意を払うんや?」って感じやろ。プロジェクトを見せて「だからあんたはワシのところに来るべきや。見て、ワシの仕事を見せられるで」って言えるようにすべきや。
そやから、そこにあるはしごが変わってるのは、役職自体が変わってるからや。それが今、採用がめちゃくちゃ壊れてる理由の一部や。採用する人でさえ、24ヶ月後に何が必要になるかを考えて予測して、それに向けて採用しようとしてるからや。
その混乱の一部は、以前はなかった新卒向けの役職が新しく開かれてるってことも言いたいんや。例えば、最初からAIの流暢さを明確に示して、一緒にいるチームにAIの流暢さをもたらすのを手伝えるエントリーレベルの人向けの役職があるんや。それは新しいことや。そんな役職は以前は存在してへんかった。
そやから、一部は、2010年代の安定したテック職を追いかけてたんやったら、それらはめっちゃ早く変わってるかも知れへんけど、開かれてる他のもんがあるってことを理解することや。
そやから、公開された成果物を見て、手に入る部分的な見習い制度を見て、それらが開かれるのを待つんやなくて、それらを売り込みに行けって言いたい。DMで連絡取れ。
そんで、あんたの学位の道の真ん中に従来はなかったかもしれへんけど、今はある役職が開かれてるってことを認識しとけ。
5. 習得すべきAIスキル
「ネイト、サイクルを無駄にできへん。今年学ぶべきAIスキルはどれや?」
何度も出てくるものがいくつかあるって教えたるわ。はっきりした答えがあると思うで。人がこの4つの大きな領域をカバーしてたら、すでにほとんどの人より先に行ってるってのを見てきたんや。これらについてはSubstackにいっぱい書いてあるで。
1番目、プロンプトアーキテクチャ。プロンプトがどう動作するかを理解すること。これは汎用スキルの一つやと思う。
2番目、検索拡張生成、RAGがどう動作するか、どこで動作しへんかを理解すること。これは重要や。基本的なベクターデータベースの衛生管理、埋め込みの理解、更新パイプラインの理解、自分で作らんでもベクターデータベースをどう構築するかの理解、どう動作するかの理解。そうしたら目がうつろにならへんし、本当に本当に役立つで。
4番目は軽量エージェントオーケストレーション。NADやLangraphのようなツールがどうやってタスクを繋げるのを可能にするかを理解して、それを公開された成果物にできるんや。物を繋いで、自動化するんや。
最後の1つ、5番目、データストーリーテリング。生のモデル出力を洗練されたものに変える方法を理解すること。これはメタスキルや。必ずしも技術的なスキルだけやない。
コピー&ペーストする人は破滅や。破滅って滅多に言わへんけど、破滅や。モデル出力を洗練して、批判的に考えて、モデル出力と関わることができる人。それは、ワシが呼び出した大きなスキルの一つに戻るんや。AIが食い荒らせへん場所を探せ。
モデル出力を洗練して鋭くする方法を知ることは、まさにワシが描写してる高曖昧性、高文脈の仕事の種類や。そやから、LLMでのデータストーリーテリングが上手くなれ。それがスキル5番や。
5つをもう一度言うで。プロンプト、プロンプトエンジニアリング、または今人気の用語やったらコンテキストエンジニアリング。RAG、ベクターデータベースがどう動作するかの理解、これはRAGと関連してるけど、構造的な観点から少しレベルが下やから少し違う。
エージェントオーケストレーションの理解が4番目、そんでLLMでのデータストーリーテリングが5番目や。
6. 技術スタックの変化への対応
「ネイト、スタックが6ヶ月ごとに変わるんや。ツールが静止してくれへん時に、どうやって先を行ったらええんや?」
これをやる最良の方法は、Google20%時間をスケジュールすることや。実際に20%の時間をこれに費やせって言うてるんやない。みんながその贅沢を持ってるわけやないのは分かってる。
でも、スタック自体は、そんなに早く変わらへん基礎の上に築かれてるんや。トランスフォーマーアーキテクチャがこのAI革命全体の根底にあるんや。変わってへん。そやから、変わらへんものを理解するんや。ワシのコンテンツでめっちゃ頻繁に呼び出してる。
そんで、特定の月に何に賭けて探求したいかについて仮説を立てることについて規律を持って、あんたの大きな意図と目標に沿ってそれを作るんや。あんたの使命やな。
キャリアパスについて話した時に、チームの使命、会社の使命などに貢献できるかって使命に合わせるっていうアイデアについて話したやろ。あんたの個人的な使命はどうや?本当にやり遂げたいことを明確に表現できるか?夢見てる高曖昧性や高信頼問題はこれらや。
それから逆算して、ちなみにAIはそのためのツールやから、どの技術スキルやどのAIツールがその大きな使命に沿ってるかを理解して、そこに集中して、時間を区切ったやり方でやるんや。
週4時間を1ヶ月間取って、本当にやるって言うんや。タイマーをセットするんや。座るんや。やるんや。TikTokをスクロールしたらアカン。Netflixを見たらアカン。実際にやるんや。出荷についてツイートしたらアカン。実際にやるんや。
そんで戻ってきて、あんたのスキルが望む方向に成長したかどうかを見るんや。1ヶ月で進歩があったかどうかを見るんや。他の習慣と同じや。築かなアカンのや。
そやから、ワシのアドバイスは基本的に、コンパスがあったらツールがそんなに動いてるように感じへんってことや。そやから、そのコンパスを開発するんや。
7. 中堅職員のAI隣接役職への転換
「ネイト、ワシは中堅やねんけど、すでに知ってることを、ゼロから始めることなくAI隣接役職に変換するにはどうしたらええんや?」
あんたのドメインアドバンテージを見るんや。すでに強いドメイン専門知識、規制の流暢さ、顧客アクセス、レガシーデータ、ストーリーテリング、洗練能力を持ってる場所はどこや?
今、それをLLMと組み合わせて、その深いドメイン専門知識を持ってるから他の人が簡単に置き換えられへん橋になるんや。既存のシニア従業員がAIにもっと踏み込んでほしいけど、そうしてへんから心配してるって言う人がおるで。そんな人になったらアカン。あんたにはドメイン専門知識があるんや。
あんたにはアドバンテージがある。暗黙知を商品化するんや。コンサルティングに行きたいんやったら、インディー役職に行きたいんやったら、あんたのキャリアの後半に夢見てきたものが何であれ、その暗黙知を、あんたより早いキャリアのはしごを登ってる人が早く上がって、あんたが学ばなアカンかった領域の秘密をもっと早く学ぶ手助けをするものに商品化できるんや。
最終的には、内部であれ、何らかの独立した役職をやってるんであれ、あんたの垂直分野でAI翻訳者として行動できる立場にいるべきや。翻訳できへんもの、理解が困難なもの、長年の知識から来る困難な専門知識は、あんたが持ち歩くものやし、今それをAIと上手く組み合わせたから、プレミアムを要求できるはずや。
そやから、実際には、ワシのドメインがゼロから始めることなくAI隣接役職に行くための信じられへんスタート地点を与えてくれるって見方をしたらええと思うんや。必要なのはAIリテラシーに飛び込むことだけや。さっき呼び出した基本的な部分、数問前に説明したもんやな。エージェントを理解して、RAGを理解して、AIでのデータストーリーテリングを理解することや。
プロンプトエンジニアリングを理解し始めることができたら、それらは手に入れ始めることができるもんやから、あんたは手強くなるで。めっちゃ強い候補になるんや。
8. 職場でのChatGPT使用の安全性
「8番目、仕事でChatGPTを使ってるんやけど、法務が関わってくる前のキャリア安全な使用法は何や?」
答えは、レッドデータをマスクせなアカンってことや。レッドデータは、あんたの会社が個人的または機密的やと考えてるものすべてや。AIに入れたらアカン。やったらアカン。リスクを取りたくないやろ。
マスクできるで。マスクってのは機密情報を全部隠すってことやけど、とにかく人はやってまうんや知ってる。大規模なシャドーIT問題があるけど、あんた個人のリスクは不釣り合いなんや。
会社は職場でAIを不適切に使用したことであんたを追及できるし、その方向での裁判事件が今後6ヶ月で出てくることを期待してるんや。起こるで。漏らしたらアカンものを漏らす人が出てくるわ。
Claudeが投資家に重要な非公開情報を開示したって例がすでにあって、それは識別可能な情報源からは来てへんくて、その会社が行った取締役会議から来たってことが推測されてるんや。先週その話に出くわしたわ。会社名は明かさへん。よくある話やないで。そんな話を聞いたのは初めてや。
でも起こることやし、それが会社が心配してることや。そやから、やったらアカンのや。
9. 5年間のロードマップと安定した産業
「9番目、ネイト、5年間のロードマップが必要や。どの産業が安定してるように見えるんや?」
ロードマップは変わってると思うって言わなアカン。高曖昧性エリア、高信頼エリアなど、人間に優しい持続可能なタスクエリアへの長期的な賭けについて考えるべきやと思う。
そやから、産業が必ずしも正しいレンズやないと思うけど、あんたの質問を真剣に受け取って答えるわ。調達サイクルが遅い規制された高リスク垂直分野は大丈夫やと思う。エネルギー、ヘルスケア、防衛、AIはそこでは何らかの置き換え世界をする前に、ずっと前に補強するようになるで。
ビットより原子が先に来る場所と、どうやって関わることができるかを見るんや。今、そこではロボティクス革命に飛び込んでるけど、先進製造業、グリッドインフラ、サプライチェーンやな。
そんで、ロングテール専門サービス、専門法務、複雑保険、特注金融を見るんや。一般的にモデルがあんたの特定の専門知識ほど有用になるのが困難な場所やな。他にも場所があるで。言ったように、すべての産業にニッチがあると思う。
AIに産業が引き継がれるような同じやり方は見てへん。B2B SaaSで働く人が誰もいなくなる、全部AIになるって感じやない。一部の人は、それが夢やったって言うやろうけど、現実は、信頼を得て困難な問題を解決できる人のための場所がこれらの産業すべてにあるってことや。でも、それがワシの見解や。
産業を見たいんやったら、エネルギー、ヘルスケア、防衛、サプライチェーン、グリッド、インフラ、それらは全部関連してると思う。
10. AI時代に重要な人間スキル
「10番目、ネイト、人間スキルに頼ってるんや。機械が雑用をやってくれる時に、どのスキルが重要になるんや?」
さっき少し言ったけど、問題フレーミングについて話したし、信頼構築について話した。高曖昧性状況を処理する方法を理解することについて話した。
でも、それをスキルに落とし込みたいんやったら、実際に問題フレーミングはその一部やと思う。だから頭に浮かんだんや。問題フレーミングは、曖昧なものを解決可能なものに変える行為や。それは実際に、良いPMがテーブルに持ってくる核心スキルの一つや。
テイストはよく話題になるけど、良い理由があるんや。何が良いかを選ぶ本能や。LLM駆動のストーリーテリングについて話して、洗練せなアカンとき、洗練を助けるのはテイストなんや。
ナラティブ説得、ステークホルダーを合わせるストーリーを作り上げる方法を理解すること。それは常に直感的やない。常に明白やない。
特にリーダーシップにいるんやったら、営業にいるんやったら、ナラティブはめっちゃ重要や。マーケティングでは、ナラティブはめっちゃ重要や。プロダクトでは、率直に言って、不確実性の下での判断や。それは高曖昧性ナビゲーションと一緒に行くスキルや。
78%の信頼度で出荷するのに十分やと決める。AIは身銭を切ってへん。AIはその判断をしてくれへん。
そやから、そういう種類のスキルセットを探すんや。分布の非トークン化部分を攻撃してるから重要なスキルセットやな。問題フレーミング、テイスト、ナラティブ、説得、判断は全部良い例やけど、それだけのリストやないで。
11. 手頃な学習オプション
「11番目、ネイト、高いブートキャンプは余裕がないんや。学習を始めるための手頃なオプションはどこにあるんや?」
YouTubeや。実際にYouTubeについて全体的なSubstackをやったんやけど、アンドレ・カルパシーみたいなAIリーダーをYouTubeで調べて、彼らが言うことを見ろとも言うで。アンドレを言うのは、彼が才能ある教師やし、めっちゃ技術的に流暢やからや。
彼はAI分野の技術創設者や。学びたいんやったら、学びに行ける場所の例やな。でも、それだけをする必要はないで。「それはワシには技術的すぎる」って言うんやったら、あんたが上手くなりたいキーワードやトピックを選んで、あんたの北極星使命に合わせて、YouTubeでそれについての30、40、50分のビデオを大抵は掘り起こせるで。
正直に言うと、YouTubeを迷惑にする部分は、クリックベイトビデオもいっぱいあることや。特別なサムネイルを見せてくれて、6分間の誇大宣伝と30秒の洞察を得るようなビデオがあるんや。それはあんたにとって本当に価値がないで。
そやから、あんたの特定の興味分野で有用なYouTubeビデオが何かを見つけなアカンけど、それが学習ポートフォリオの残りへの窓になるんや。他のソース、他の参考文献を参照するからや。本を参照するし、コースを参照する。無料コースかもしれへん。監査できる大学のAIコースがめっちゃいっぱいあるんや。
そやから、実際にリスキリングに手頃なオプションがいっぱいあると思うし、最後に言いたいのは、AIは体験的技術やから、体験的にリスキリングできるし、すべきやってことや。そんでAIを使ってAIを学ぶのを手伝ってもらうべきや。そのためのプロンプトも書いたで。
AIを使ってAIを学ぶのを手伝ってもらえ。
12. 地方でのAI訓練とネットワーク構築
「12番目、ネイト、サンフランシスコから遠く離れて住んでるんや。どうやったら高品質のAI訓練を受けたり、ネットワークにつながったりできるんや?不可能に思えるわ」
できるし、テックハブに移りたいんやったら、大抵そこには大きなアップサイドがあるで。そやから、それをテーブルに置いとこか。それがあんたのオプションやったら、考えてみ。
それがあんたのオプションやないんやったら、移りたくないからかもしれへん。平和と静寂が好きなんや。分かるで。ワシもサンフランシスコに住んでへん。そん時は、協力的問題解決を中心とした強いオンラインコミュニティを構築してる場所にいたいんや。
公開された成果物を出す理由の一部は、さっきの答えで言ったように、あんたが興味ある分野を中心にオンラインコミュニティを形成できるからや。そうすることができたら、その分野で構築してる他の人と協力して、彼らと話して、関わって、彼らがいるソーシャルプラットフォームが何であれ、Discordかもしれへん、Xかもしれへん、誰が知ってる?あんたが興味ある問題に取り組んでる人を見つけるんや。
そんで、彼らに他の人を案内してもらって、ホップホップホップするんや。資本を調達したいんやったら、どこかに行きたいんやったら、コールドDMに全体的な芸術があるで。でも、これはそれについてやない。これは、物理的にどこかにいられへん時にデジタルでネットワークを構築することについてや。
共通の興味分野から始めろって言いたい。実際に構築してる場所から始めるんや。公開された成果物を出すんや。それについて話し始めるんや。構築してる人を見つけ始めるんや。彼らと関わり始めるんや。そんで、そのウェブを本当に有機的に構築し始めるで。偽物みたいに感じへん。
最後になったけど、このリストになかった2つのことで、人に話してほしいと思うことは何や?
実行ギャップの問題
1番目、実行ギャップについてもっと話してほしいと思う。AIで構築、学習、自分を活用する能力がこれまでになかったほどあるんや。誇大宣伝は耳をつんざくほどやけど、実際に実行することでの本当の苦労を見てるんや。
挑戦の一部はスタート・ストップ問題やと思う。AIで何かを始めるのは本当に簡単やけど、簡単さは欺瞞的や。AIで学習のS曲線を通り抜けるのは実際にはめっちゃ難しいんや。定義されてへんからな。
チャットウィンドウに入力してて、何を聞いたらええか分からんかったら、詰まったと感じるんや。その精神的ブロックは本当に大きくて、どうやって前に進み続けたらええか分からんのや。
答えは、行きたい方向に何でも試してみて、そこから反復することなんや。でも、それが間違ったことになる、間違ったことを学ぶ、間違った場所に集中するって恐怖を乗り越えなアカンのや。
そやから、実行ギャップが十分に話されてへんと思うんや。AIで確実に実行する人は、AIを学んでる初心者であっても、珍しいんや。
新しく解決可能になった問題
2番目に呼び出したいことは、以前は解決できへんかった、興味ある問題の種類について十分話してへんってことや。ワシはそれに興味があるんや。それに魅了されてるんや。考えるのをやめられへん。
以前は解決できへんかった、今解決可能な問題の種類は何や?ChatGPTの成功に目がくらんで、問題が全部エーテルに消えて、実際にやることが何も残ってへんと仮定することがあると思う。でも、それは本当やないと思う。問題が不足してるわけやない。
今解決策を思いつくことができる全く新しいクラスの問題があるんや。例として、ワシの図書館をAIで整理する良い方法がまだないんや。信じて、試したんや。o3が提供する最高の画像認識でさえ、ワシの全ての本を記憶に保持して、全てのタイトルを認識して、確実に見つけて、確実にリストアップして、ワシの図書館の整理を手伝うには十分やないんや。手でやらなアカン。
人は手でやるのを楽しむって言えるけど、本をいっぱい整理してるんやったら、それは正当な問題や。それはただの一例や。めっちゃ重要な例やって言うてるんやない。それが本当のAI問題の例やって言うてるんや。AIはそれが得意なはずや。特化したツールがあったらAIは得意かもしれへんけど、まだ存在してへん。そんな問題が何百、何千とあるんや。
それらについてもっと話したらええのにと思う。そやから、以上や。ワシが最もよく聞かれる質問への12の答えと、人がもっと聞いてほしい2つの最終的な反省や。乾杯。


コメント