ピーター・ノービグ:人工知能:現代的アプローチ | レックス・フリードマン・ポッドキャスト #42

レックス・フリードマン、LexFridman
この記事は約40分で読めます。

Googleの研究ディレクターであるピーター・ノービグが、AI分野の名著「人工知能:現代的アプローチ」の執筆背景から最新の第4版での変化、そしてAI技術の発展について語った対談である。90年代からの AI技術の変遷、特に論理ベースのアプローチから確率・機械学習ベースへの転換を振り返り、現在の深層学習ブームとその課題について議論している。また、16万人が受講した大規模オンライン講座(MOOC)の経験、プログラミング教育の変化、Googleでの検索品質向上の取り組みについても詳述している。

Peter Norvig: Artificial Intelligence: A Modern Approach | Lex Fridman Podcast #42

ピーター・ノービグとの対談開始

これから始まるんは、ピーター・ノービグとの対談や。彼はGoogleの研究ディレクターで、スチュアート・ラッセルと一緒に「人工知能:現代的アプローチ」っちう本を書いた人なんや。この本は、俺も含めて研究者の世代全体を教育し、人工知能の分野に導いてくれたもんなんや。これは人工知能ポッドキャストや。気に入ったらYouTubeで登録して、iTunesで5つ星をつけて、Patreonで支援するか、単純にTwitterで俺とつながってくれ。@lex_friedmanや、F-R-I-D-M-A-Nのスペルでな。

そして今から、ピーター・ノービグとの対談を始めるで。

「人工知能:現代的アプローチ」の変遷

レックス・フリードマン:俺も含めてAIコミュニティのほとんどの研究者は、「人工知能:現代的アプローチ」の全3版、赤、緑、青の本を持ってるんや。これはスチュアート・ラッセルと一緒に書いた、分野を定義する教科書として多くの人に知られとるやろ。第1版から第2版、第3版、そして今作業してる第4版まで、この本はどう変わってきて、君自身はそれとの関係でどう変わってきたんや?

ピーター・ノービグ:ああ、長い年月やったし、たくさんの変化があったな。第1版から第2版か第3版への変化の一つは、コンピューティングパワーの向上やったんや。第1版では述語論理について書いたけど、すぐに数百万の短い述語表現があって、それらはメモリに収まるはずがないから、より簡潔な一階述語論理を使うつもりやって言うてたんや。

でも、すぐに気づいたんは、述語論理は実はええもんやったんや。なぜなら、本当に高速なSATソルバーとかがあって、見てみたら数百万の表現しかないし、それは今ではメモリに簡単に収まるし、何十億でも収まるようになったからな。

だから、ハードウェアが拡張されただけで、必要な技術のタイプが変わったんや。

レックス・フリードマン:第2版でも、リソースの制約が大幅に緩和されたんやな?

ピーター・ノービグ:ああ、そうや。第2版は2000年代初頭、95年が第1版で、2001年頃やったな。それから先では、GPUとか、深層学習用のTPUみたいなより特殊な機械、カスタムASICなんかで、またハードウェアの進歩を見始めてるんや。

それから、今回特に気づいたもう一つのことは、最初の3版全部で、AIを期待効用の最大化として定義するって言うてたんや。君の効用関数を教えてくれたら、それを最適化するための27章分のクールな技術があるでっていう感じでな。

でも、今回の版では、もうちょっと言うてるんや。最適化の部分は簡単な部分かもしれんくて、難しいのは「自分の効用関数は何か、何を望むのか」を決めることで、もし俺がエージェントの集合体や社会やったら、「全体として何を望むのか」を決めることやってな。

レックス・フリードマン:この版でその話題に触れて、効用についてもうちょっと深く入ってるんやな?

ピーター・ノービグ:そうや、技術レベルでは、ほとんど哲学的な方向に押し進めてるんや。哲学の章は常にあったし、それをサポートできて嬉しかったんやけど、今は中国語の部屋みたいな議論よりも、こういう倫理的で社会的な問題により重点を置いてるんや。公平性とバイアスの問題、そして効用の集約の問題に入ってるんや。

人間の価値観の符号化

レックス・フリードマン:人間の価値観を効用関数に符号化するっていうのは、純粋にデータを通じて学習的な方法でできることなんか、それとも何か体系的な方法があるんか?

ピーター・ノービグ:明らかに、まだ良い答えはないんや。扉を開くことを始めたばっかりやからな。だから一つの答えはないけど、それを学習しようとする技術はあるんや。逆強化学習について話してるんやけど、強化学習では何かアクションを取って、報酬を得て、どんなアクションを取るべきかを見つけるんや。逆強化学習では、誰かがアクションを取るのを観察して、「もしこのアクションをしたなら、これをやろうとしてたに違いない」っていうのを見つけるんや。

もちろん、それには制限があるんや。多くの人は自己破壊的なアクションを取るし、ある意味で最適ではないやり方をするからな。だから、それを学習したくないんや。実際に取ったアクションじゃなくて、なんとか完璧なアクションを学習したいんや。だから、その分野にとっては挑戦やな。

それからもう一つの大きな部分は、何が達成できるかについての理論的なもんや。再犯を予測して、誰が仮釈放や保釈を受けるべきかを決めるプログラムみたいな仕事を見てるんやけど、それをどう評価するかっていう問題があるんや。

大きな問題の一つは、保護されたクラス間での公平性や。保護されたクラスっていうのは、性別や人種みたいなもんやな。二つのことが欲しいんや。一つは、例えば10点中6点のスコアを取ったら、人種に関係なく同じ意味を持ってほしいっていうこと。つまり、人種に関係なく60%の再犯率を持ってほしいっていうことや。

そのプログラムの商用版の作成者の一人は、「それを最適化しようとしてるし、見てくれ、達成したで。そういうバランスに到達した」って言うてるんや。

でも、一方で、もし間違いを犯すなら、保護されたクラスの両側に平等に影響してほしいとも言いたいんや。でも実際はそうならへんのや。白人よりも黒人に害を与える間違いを犯す可能性が2倍高いんや。だから不公平に見えるんや。

だから、「両方の目標を達成したい」って言いたいんやけど、分析してみると、理論的に両方の目標を達成するのは不可能やっていうことが分かるんや。だから、一つを他と引き換えにせなあかんのや。

その分析は、何を目指せるか、どれだけ得られるかを知るのに本当に役立つんや。すべてを手に入れることはできへんけど、分析は確実にトレードオフポイントをどこに置くべきかは教えてくれへん。でも、それでも人間として、そのトレードオフをどこに置くべきかを熟考できるんや。

少なくとも今は、情報に基づいた方法で議論してるんや。不可能なことを求めてるんじゃなくて、「ここが現状で、ここを目指してる。この戦略はあの戦略より良い」って言うてるんや。

レックス・フリードマン:それは本当に強力で重要な第一歩やと言えるけど、保護されたクラスでのシステムでの望ましくないレベルのバイアスを除去するっていう意味では実行可能なもんやな。

それから、君の卒業式のスピーチを聞いたことがあるんやけど、Angry Birdsについて言及してたような、もうちょっと曖昧なもんがあるんや。システムに戻ってくること、ゲームをプレイする瞬間を楽しむこと、いいねをもらうことなんかを最適化するドーパミンの楽しみを与えるシステムを作りたいんか、それとも何らかの長期的な改善なんか?そういうことを考えてるんか?

技術と社会のジレンマ

ピーター・ノービグ:それは本当に哲学的な領域に入ってるな。それも本当に重要な問題やと思うで。確実にそれについて考えてるけど、それをAIの問題としてはあんまり考えてへんねん。君が言うように、我々は注意の市場っていう社会とインフラを構築したんや。

社会として、無料のものが好きやって決めたんや。だから、スマホのアプリは全部無料であってほしいんや。それは、みんなが君の注意を奪い合って競争してることを意味するんや。そして、最終的には広告やゲーム内課金なんかで何らかの方法でお金を稼ぐんやけど、他のアプリ全部を倒して君の注意を独占することでしか勝てへんのや。

我々は、それらが君と一緒に働くんじゃなくて、君に対抗して働いてるように見える市場を構築したんや。ゲームのルールを変えて、「これらのものは俺の味方や。短期的には楽しませてくれるし、長期的にも助けてくれる」って感じられるような方法を見つけたいんや。

レックス・フリードマン:それらは必ずしも対立する目標じゃないんやな。ただ、この全く新しい世界を理解しようとする現在の直接的なインセンティブが、ドーパミンの急激な放出を与えるという簡単な部分にあるように見えるんや。

でも、ちょっと戻って、「人工知能:現代的アプローチ」の本の執筆の始まりについて聞かせてくれ。90年代にスチュアートと一緒に座って、フィールド全体をカバーする本を書こうと決めた時のことや。AIとか、実際に他の多くのコンピューターサイエンス分野でも、そういうことを成功裏にやった唯一の本の一つやからな。それは巨大な取り組みやったはずや。かなり気が遠くなるようなもんやったんとちゃう?

教科書執筆の経緯

ピーター・ノービグ:そのプロセスはどんな感じやったか、フィールド全体をカバーしようと想像してたんか、それとも段階的なアプローチやったんか、どんな感じやったんかな?

俺の推測やけど、バークレーの他のAI教員と昼飯を食いに行った時に生まれたんや。「分野が変わってるし、現在の本はちょっと遅れてるようやな。最近新しい本は出てへんし、我々がやるべきや」って言うてたんや。みんな「ああ、それは素晴らしいことやな」って言うたけど、何もせえへんかったんや。

それで、俺は結局業界に向かうことになって、Sun Labsに行ったんや。だから、「俺の学術出版のキャリアは終わりやな」って思うてたんやけど、1年後の会議でスチュアートにまた会って、「いつも話してたあの本、君らもう半分終わってるやろ?」って言うたら、「いや、話し続けてるけど何もしてへん」って言うんや。だから、「やっぱりやるべきやな」って言うたんや。

なぜかっていうと、みんなが分野が変わってる時期やって感じてたからや。それは二つの方法でやった。昔ながらの良いAIは主にブール論理に基づいてて、不確実性を扱うための技術は少しあったし、主に知識工学に基づいてたんや。

95年に分野が二つの方法で変わってるのを見たんや。一つは、ブール論理よりも確率に向かって動いてること、もう一つは、知識工学よりも機械学習に向かって動いてることや。他の本はその波をまだ捉えてへんかった。まだもうちょっと古い学校にあったからな。もちろん、その途中の部分はあったけど、今から完全にその観点を取って始めれば、違う種類の本ができるって言うたんや。それをまとめることができたんや。

レックス・フリードマン:文字通りのプロセスは覚えてる?章を書き始めたんか、アウトラインを作ったんか?

ピーター・ノービグ:アウトラインを作ったと思うで。それから、各人に章を割り当てたんや。その時、俺はボストンに引っ越してて、スチュアートはバークレーにおったから、基本的にインターネット越しでやったんや。

今日のようにやるのとは違うてたで。ダイヤルアップ回線でtelnetして、一つのシェルにtelnetして、cat ファイル名をタイプして、相手側でキャプチャされることを祈ってたんや。確実に画像や図は送り合えへんかったからな。

AI分野の予測と変化

レックス・フリードマン:90年代のその日から、分野がどこに向かうかを予想してた?学習ベースの方法、データ駆動の方法への成長を見てたんか?

ピーター・ノービグ:確実に学習が重要やと思うてたで。でも、今日ほど重要やとは思ってへんかったな。ビッグデータっていうアイデアを見逃してたし、深層学習のアイデアはまだ発明されてへんかった。

本を最初から完全に機械学習の観点から取ることもできたんやけど、我々は違う表現の種類を最初に開発して、完全に観測可能か部分的に観測可能か、決定論的か確率的かっていう、異なる環境の種類について話すっていう観点からやることを選んだんや。機械学習の軸を最初に焦点を当てるよりも、そういう軸に沿ってより複雑にしたんや。

レックス・フリードマン:深層学習の熱狂は特定の問題セットに対して非常に成功してるけど、一般的なケースでは最終的に挑戦に直面するっていう意味で、知覚システムと世界で行動せなあかんロボットの違いを考えると、第5版や第6版では、深層学習がより大きなAIの視点の中で章としての位置を取って、AI現代的アプローチみたいな幅広さに戻ると思う?

ピーター・ノービグ:まだどう展開するかは分からへんと思うで。新しい版では深層学習の章があるんや。その章のゲスト著者としてイアン・グッドフェローに頼んだんや。彼は深層学習の本全体を一章に凝縮できるって言うて、素晴らしい仕事をしてくれたと思うで。

我々も彼に古いニューラルネットの章を渡して、「これを楽しんで、現代化してくれ」って言うたら、「その半分は大丈夫やった」って言うてくれたんや。確実に開発された新しいものはたくさんあるけど、コアの部分は同じやったからな。

だから、そこで何ができるかについてより良い理解を得ると思うし、他の技術でできることも全部組み込む必要があるんや。深層学習は畳み込みネットワークから始まって、知覚に非常に近かったけど、それ以来、アクションとある程度の長期計画ができるように移ってきたんや。でも、表現と推論、ワンショット学習なんかでより良い仕事をする必要があるんや。

どう展開するかはまだ分からへんと思うで。

象徴システムの知恵

レックス・フリードマン:80年代の専門家象徴システムの成功と、確実にその後の部分的な衰退を見ると、論理と推論なんかで行われた仕事に、君の見解では再び立ち上がる知恵の核があると思う?

ピーター・ノービグ:確実に表現と推論のアイデアは重要やと思うで。時々、世界について一から学習するのに十分なデータがないから、表現のアイデアを持たなあかん。それがプログラムされたものか、教えられたものかは関係なく、それから推論のステップを取ることができるようにならなあかんのや。

昔ながらの良いAIの問題は、一つは、原子的なシンボルに基づいてすべてを基盤にしようとしたことやと思うんや。三角形の性質を定義しようとしてる時は素晴らしいんや。必要十分条件があるからな。でも、現実世界のものはそうじゃないんや。現実世界は混乱してて、鋭いエッジはないし、原子的シンボルはあるから、それは貧弱なマッチやったんや。

それからもう一つの側面は、推論が普遍的で、どこにでも適用されることやった。ある意味では良いことやけど、それをどこに適用するかについてのガイダンスがないことも意味するんや。だから、こういうパラドックスが出てくるんや。「山があって、砂を一粒取り除いても、まだ山や。でも、それを繰り返しやってると、ある時点で山じゃなくなる」みたいなな。論理では、物事を繰り返し適用することを止めるものは何もないんや。

でも、深層学習みたいなもので、正しい名前が何かは本当に分からへんけど、そういうアイデアを分離できるかもしれん。一つは、山は単なる原子的な概念じゃなくて、より複雑な表現を持つ単語の埋め込みみたいなもんやって言えるかもしれん。

二つ目は、「砂を一粒取り除くルールがあって、それを何回もできるけど、ほぼ無限にはできへん」っていうことを何らかの方法で学習できるかもしれん。でも、整数で帰納をやってる時は、確実に無限回やってもええんや。これらの戦略がいつ適用可能かを学習する必要があるんや。戦略が完全に中立で、いつでもどこでも利用可能やっていうんじゃなくてな。

説明可能性と信頼性

レックス・フリードマン:ニューラルネットワークを使う時、データから学習したり自動的に表現を形成したりする時は、あんまり説明可能じゃないんや。このニューラルネットワークがどう世界を見てるか、なぜ多くのケースで輝かしい成功を収めて、驚くべき方法で小さな失敗を悲惨に犯すのかが、我々人間には内省的じゃないんや。これは、単純により多くのデータ、より良いデータ、より組織化されたデータがその問題を解決するのか、それとももうちょっと説明可能な象徴システムの要素を持ち込む必要があるのか、どう思う?

ピーター・ノービグ:俺は説明可能性だけについて話すよりも、信頼と検証について話すことを好むんや。説明はそれらの目標に向けて使う一つのツールやと思うし、これらのシステムを信頼せずに使いたくないし、どこで機能してどこで機能しないかを理解したいっていうのは重要な問題やと思うんや。説明はその一部になり得るんや。

ローンを申し込んで拒否されたら、なぜかの説明が欲しいやろ。ヨーロッパではGDPRがあって、それを得る権利があるって言うてるからな。

でも、説明だけでは十分じゃないんや。我々は人や組織、企業なんかと付き合うのに慣れてるし、彼らは説明をくれるけど、その説明が現実と関係してるっていう保証はないんや。

銀行は「十分な担保がなかったからローンが得られへんかった」って言うかもしれん。それは本当かもしれんし、俺の宗教が気に入らへんかったか、他の何かかもしれん。説明からは分からへんのや。それはコンピューターが決定したか人間が決定したかに関係なく真実やからな。

俺はもっと欲しいんや。説明が欲しいし、会話ができるようになりたいんや。「この説明をくれたけど、これについてはどうなんや?もしこれが起こってたらどうなってた?何を変える必要があるんや?」って言い合えるようになりたいんや。

単一の出力としての説明よりも、会話の方が良い考え方やと思うんや。さまざまな種類のテストが必要やと思うで。決定が本当に俺の担保に基づいてたのか、それとも宗教や肌の色に基づいてたのかを知るためには、俺のケースだけを見てても分からへんけど、すべてのケースを見たらパターンを検出できるんや。

その種の能力が欲しいし、敵対的テストも欲しいんや。画像のオブジェクト認識でかなり良くやってるって思うてたんや。「見てくれ、ImageNetなんかで人間レベルの性能にかなり近いで」って言うてたのに、これらの敵対的画像を見始めると、「ちょっと待てや、その部分は人間の性能とは全然違うやん」って言うことになるんや。

レックス・フリードマン:本当に簡単に混乱させることができるんやな?

ピーター・ノービグ:本当に簡単にな。人間に対してもそういうことはできるけど、違う方法でやろな。人間はドレスが何色やったか分からへんし、機械への攻撃とは違う攻撃に対して脆弱やからな。

でも、機械への攻撃は本当に印象的で、我々が何をやったかについての考え方を本当に変えるんや。俺の考え方は、問題の一部は低次元のメタファーに誘惑されてることやと思うんや。

教科書を見て、「よし、今度は空間をマッピングした。猫はここ、犬はここにある。真ん中に違いが分からへん小さなスポットがあるかもしれんけど、ほとんど全部カバーしてる」って言うんや。

そのメタファーを信じるなら、「ほぼそこにいる。敵対的画像は2、3個しかないやろ」って言うことになる。でも、それは間違ったメタファーやと思うんや。本当に言うべきことは、「ほとんどカバーした2次元の平面空間じゃなくて、100万次元の空間で、猫はこのクレイジーな道に出ていく紐や。道から少しでも外れたら、どこでもない土地にいて、何が起こるか分からへん」っていうことや。

俺たちはそこにいると思うし、今それに対処せなあかんのや。だから、説明っていうよりも、モデルが何で、何をしてるかの理解やったんや。そして今、それをどう修正するかを探求し始めることができるんや。

AIシステムへの信頼

レックス・フリードマン:システムの堅牢性の検証に戻るけど、この「信頼」っていう言葉について、我々はロボットに対して適用する基準について、ちょっと厳しすぎると思う?人間同士の間には、非言語的で言語的なコミュニケーションのダンスがあるやろ。人間に同じ種類の基準を適用すると、お互いをかなり早く信頼するんや。君と俺は前に会ったことないけど、ある程度の信頼があるやろ。何もクレイジーに間違ったことは起こらへんっていうな。

でも、AIを見る時は、常に懐疑主義を通してアプローチしてるように見えるんや。彼らは大変な努力を通して、我々の信頼のわずかな片鱗にさえ値するっていうことを証明せなあかんみたいにな。それについてどう思う?そのバリアをどう破って、そのギャップを埋めるんや?

ピーター・ノービグ:それは正しいと思うで。それは大きな問題やと思うんや。俺の友達のマーク・モファットっていう博物学者が言うてるのを聞いたんやけど、人間について最も驚くべきことは、コーヒーショップや都市の忙しい通りに歩いて入って、前に会ったことがない人たちがたくさん周りにいても、お互いを殺さへんっていうことや。チンパンジーにはそれはできへんって言うんや。チンパンジーが自分の部族じゃない奴らがいる状況になったら、悪いことが起こるんや。特にコーヒーショップには美味しい食べ物が周りにあるからな。

でも、俺たち人間はそれを理解したんや。大部分においてはな。まだ戦争もするし、ひどいこともするけど、大部分において、お互いを信頼して一緒に生活することを学んだんや。それは俺たちのAIシステムにとっても重要になるやろな。

それから、AIに重点が置かれることが多いけど、多くの場合、AIは技術の一部やけど、実際にはメインなもんじゃないと思うんや。我々が見てきたことの多くは、AI技術よりもコミュニケーション技術によるもんが大きいんや。良い決定を下したいけど、何らかのシステムを持てる理由は、データを収集して世界中の多くの人々に届けることができるコミュニケーションを持ってるからや。それは、ドーパミンの急激な放出を与えるっていう簡単な部分にある現在の直接的なインセンティブとして、この全く新しい世界を理解しようとする中で対処してる、より大きな変化やと思うんや。

MOOCの経験と教育の未来

レックス・フリードマン:世界中の多くの人々に届けるっていう話で、教育の側面について、君がやった多くのことの中で、16万人の学生が登録した人工知能入門コースを教えたんやな。これは最初の成功した大規模オープンオンラインコース(MOOC)の例の一つや。その経験から何を学んだ?MOOCの未来、オンライン教育についてどう思う?

ピーター・ノービグ:それをやるのは本当に楽しかったで。特に最初にいるっていうのがな。エキサイティングで新しかったからや。でも、競争が少なかったっていうことも意味してたんや。

MOOCについて聞くことの一つは、修了率がめっちゃ低いから失敗に違いないっていうことや。認めるけど、俺は主要な貢献者やで。おそらく50の異なるコースを始めて終わらせてへんからな。でも、俺が欲しかったものは正確に得たんや。終わらせるつもりは全然なかったからな。ただ、話題を見るか、どうやってこのクラスをやってるかの教育法を見るために、ちょっとかじりたかっただけやからな。

俺が学んだメインなことは、入った時は挑戦は情報やと思うてたんや。「君に知ってほしいことを取って、明確にして、よく説明したら、俺の仕事は終わりで、良いことが起こる」って思うてたんや。でも、コースをやってる間に学んだのは、「ああ、情報は必要やけど、実際には動機が最も重要なもんや」っていうことやった。学生が続けなかったら、コンテンツがどれだけ良くても関係ないからな。

最初のクラスの一つやったから、外部の動機に助けられたと思うんや。魅力的にして、コミュニティがお互いに協力してより動機的になるような方法を設定するのに良い仕事をしようとしたけど、実際の多くは「これは新しいもんで、新しいもんの一部になることに本当にワクワクしてる」っていうことやった。だから、学生は自分の動機を持ってきたんや。

これは素晴らしいことやと思うで。世界中に今まで機会がなかった人がたくさんいるからな。スタンフォードに行ってクラスを取ったり、MITに行ったり、他の学校に行ったりする機会は決してなかったやろけど、今はそれを彼らに持って行くことができるんや。彼らが自分の動機を持ってきたら、前はできへんかった方法で成功できるんや。

でも、それは本当にそれをやる準備ができてる人の最上位層だけやねん。残りの人たちは見えへんし、動機を持ってへんし、もし彼らが押し通して、それをやることができたら、どんな利点があるかが見えへんのや。だから、それをやることができるまでには長い道のりがあると思うし、技術に基づく部分もあるけど、より多くはコミュニティのアイデアに基づいてるんや。実際に人々を集めなあかんのや。

集まるっていうのは、一部はオンラインでできると思うけど、一部は本当に人と人とで、そのタイプのコミュニティと信頼を築くためにやらなあかんと思うんや。

レックス・フリードマン:我々が開発した意図的なメカニズムがあるんや。特に若い人たちの短い注意力やな。オンラインでより短い動画があるから、インターネットと一緒に育った人たちは、脳の発達の仕方が、かなり短い注意力を持ってるんや。

俺も育ってる時は同じやったと思うで。多分違う理由でやけど。物理的な教室に座ることを強制されてへんかったら、今ほど学んでへんかったやろな。時々退屈で、時々眠りながらでも、時々非常に困難なコンピューターサイエンスのコースを通して、そのプロセスを強制的にやったからな。

対面教育の経験と、君が最初に持って、自分で教えたオンライン教育の違いは何やと思う?そのギャップを埋めることは可能なんか?

対面教育とオンライン教育

ピーター・ノービグ:二つの問題があると思うんや。一つは対面かオンラインかっていう物理的な場所の種類で、もう一つは所属みたいなもんやな。君が続けたのは、一部は教室にいて、他のみんなも同じように苦しんでるのを見たからやけど、登録してて、授業料を払って、社会、両親、仲間みんなが君が続けることを期待してたからでもあるんや。

それは二つの別々なもんや。巨額の授業料を払って、みんなが登録して「ああ、君はこれをやってる」って言うけど、俺は自分の部屋にいて、クラスメートは違う部屋にいるっていうことを確実に想像できるやろ。そういう風に設定することもできるんや。だから、オンライン対オフラインだけじゃないんや。

もっと重要なのは、君が作ったコミットメントやと思うんや。確実に、クラス外で人に会って、みんなで一緒にやってるから一緒に話すっていう、そういうインフォーマルなもんを持つことは重要やな。動機を保つためにも、実際に最も重要な学習が起こる場所でもあるからな。そういうのを持ちたいんや。

特に今、より高い帯域幅と拡張現実、仮想現実に入り始めてるから、同じ物理的な場所にいなくても、それを得ることができるかもしれんな。

レックス・フリードマン:例えばスタンフォードで、登録学生のためのコースが文字通りオンラインだけで、カリキュラムの一部で、対面がない近い将来を見ることは可能やと思う?

ピーター・ノービグ:それを見始めてるな。ジョージア工科大学には、そういう方法でやってる修士課程があることを知ってるで。多くの場合、学生の制約なんかを考慮して、修士プログラムとかより高等教育の観点で忍び込んでるんや。

でも、文字通りスタンフォード、MIT、バークレー、そういう場所全部が今後数十年でオンラインのみになることは可能なんか?多分ないやろな。彼らは物理的なキャンパスに大きなコミットメントを持ってるからな。財政的にも文化的にも勢いがあるんや。

それから、仮想的にやるのが本当に難しいことがあるんや。俺たちは、自分のコンピューターと自分の紙なんかがあれば、どこでも仕事ができる分野にいるけど、生物学の実験室にいる場合は、家に適切なものが全部あるわけじゃないからな。

プログラミング教育の進化

レックス・フリードマン:プログラミングについて、君も自分でたくさんプログラミングをやってきたな。2001年に「10年でプログラミングを教える」っていう素晴らしい記事を書いたんやな。「21日でプログラミングを教える」っていうすべての本への回答としてな。

今日プログラミングを始める人にアドバイスをするとしたら、その記事を書いてから数年経ってるけど、その旅に取り組む最良の方法は何や?

ピーター・ノービグ:たくさんの異なる方法があると思うし、プログラミングは今より多くのことを意味してるんや。その記事を書いた時は、プロのソフトウェアエンジニアになることについてもっと考えてたんや。それはキャリア全体にわたる研究分野やと思うてたからな。

でも今は、そのプロレベルの地位を達成することなく、プログラミングが解決したいことを解決する一部になる、人々ができることがたくさんあると思うんや。100万行のコードを書きに行くつもりはないけど、生物学者や物理学者、歴史学者でさえ、何かデータがあって、そのデータに質問をしたいっていう場合があるんや。そういうことのためには、10年は要らへんと思うんや。そういう種類の質問に答えることができるショートカットがたくさんあるからな。

今日、コーディングを学ぶこと、子供たちにコーディングを教えることに多くの重点が置かれてるのを見るんや。それは素晴らしいと思うけど、メッセージをちょっと変えてほしいと思うんや。

コードがメインなもんじゃないんや。JavaScriptの構文を知ってるかとか、この視覚的言語でこれらのブロックを接続できるかは、俺は本当に気にしてへん。でも、俺が気にするのは、問題を分析して、解決策を考えて、実行して、モデルを作って、そのモデルを動かして、テストして、結果を見て、それらが合理的かを確認して、質問をして答えることができるかっていうことや。だから、それはモデリングと問題解決により関係してて、それをやるためにコーディングを使うんやけど、コーディング自体のためにコーディングを学ぶだけじゃないんや。

レックス・フリードマン:それは本当に興味深いな。実際、多くの場合、データと一緒に作業して、データから有用な何かを抽出することを学ぶことなんやな。問題解決って言う時は、実際には何らかのデータセットを収集して、それをクリーンアップして、それについて興味深いことを言うことを意味してて、それはあらゆる分野で有用やっていうことやな。

ピーター・ノービグ:俺は時々、古いやり方に固執してるのを感じることがあるんや。若い従業員と一緒にプロジェクトに取り組んでて、「この問題を解決するのに役立つ新しいパッケージがある」って言うたら、俺はマニュアルを読み始めるんや。マニュアルを読むのに2時間かけてたら、同僚が戻ってきて「終わったで」って言うんや。

「パッケージをダウンロードして、インストールして、いくつか呼び出してみて、最初のは動かへんかったけど、2番目のは動いた。今は終わった」って言うんや。俺は「でも、これがどう動くか、あれがどう動くかについて100の質問があるで」って言うんや。彼らは「誰が気にするんや?全体を理解する必要はない。複雑で大きなパッケージの残りは理解してへんけど、正しい答えを得た」って言うんや。

俺はその考え方に入るのが難しいんや。全体を理解したいし、マニュアルを書いたなら多分読むべきやと思うんや。でも、それが必ずしも正しい方法じゃないんやな。より多くの不確実性と、すべてを知らないことにもっと快適に対処することに慣れなあかんと思うんや。

レックス・フリードマン:俺も同じことで苦労してるんや。ドナルド・クヌースとの間のスペクトラムの代わりにな。問題について何か言う前に、本当に機械語のアセンブリまで下がらなあかんっていう、非常に君が言った通りのことや。俺のグループには20歳くらいの学生が何人かいるけど、俺が多分数週間かかる問題を数時間でほぼ何でも解決できるんや。俺はマニュアルを読もうとするからな。

習得の性質っていうのは、生物学みたいな外部の分野がプログラミングを適用することについて言及してるけど、コンピューター科学者についてはどうや?時間とともに、今はより高いレベルの抽象化が利用可能になってるんや。今週はTensorFlowサミットがあるやろ。深層学習に特に興味がないけど、まだコンピューター科学者なら、機械学習の基本的な内部をほとんど知らずに、TensorFlowで信じられないほどのことを達成できるんや。

習得の性質は、コンピューター科学者にとってでも変わってると思う?専門プログラマーであることの意味みたいなことはどうや?

プログラミングの進化

ピーター・ノービグ:それは本当やと思うで。我々は実際にはプログラマーに焦点を当てるべきじゃなかったんや。それはまだスキルやからな。本当に焦点を当てたいのは結果なんや。

俺が始めた時は、ライブラリ関数っていうのは平方根があって、それくらいやった。他はすべて一から構築してたんや。それから、多くの場合、必要なもんの大きな部分をやってくれるたくさんのものをダウンロードできるエコシステムを構築したんや。だから今は、製造よりもアセンブリの問題により関係してるんや。

レックス・フリードマン:習得とプログラマーを見る別の観点から、計算的な方法で問題について推論する人について、Googleは雇用の観点から、プログラマーのチームを構築する観点から、誰かが良いプログラマーかどうかをどう判断するんや?

もう一度、プログラマーっていう言葉から離れたいんやけど、大規模データなんかの問題を解決できる人について、面接プロセスを通してそういうチームをどう構築するんや?

ピーター・ノービグ:会社が成長すると、探してる人のタイプがより拡張的になると思うんや。初期の頃は、人を面接して、「彼らはジェフ・ディーンにどれくらい近いか?」っていう質問をしようとしてたんや。ほとんどの人はかなり遠かったけど、あんまり遠くない人を取って、本当に素晴らしいプログラマーの同質的なグループを得たんや。

会社が成長すると、「みんなが同じスキルセットを持ってほしくない」って言うんや。だから今は、健康分野で生物学者を雇って、物理学者を雇って、機械エンジニアを雇って、社会科学者や民族学者、異なる背景を持って異なるスキルを持ってくる人々を雇ってるんや。

レックス・フリードマン:まだコードレビューに参加することがあるって言うてたけど、Lispから数十年のプログラミングまでの背景を考えて、若い開発者の人たちのコードでよく見て、ハイライトしがちなエラーは何や?

ピーター・ノービグ:素晴らしい質問やな。時々デザインの柔軟性を見ようとするんや。このAPIはこの問題を解決するけど、将来どこに向かうんや?他に誰がこれを呼ぼうとするんや?彼らがそれをやりやすくしてるんか?

それはデザインの問題や。ドキュメンテーションなのか、なんとなく定まらへんもんなのか、開発者の立場に立った時にどう感じるかっていうことなんか?このタイプのもんを使うか?

感じ方やと思うんや。だから、ドキュメンテーションは良いけど、それはデザインの質問により関係してるんや。デザインが正しければ、ドキュメンテーションが良いかどうかに関係なく、人々は理解するやろ。デザインが間違ってたら、使いにくくなるんや。

レックス・フリードマン:君自身は長年にわたってプログラマーとしてどう変わった?ある意味で、すでに言い始めてるけど、マニュアルを読みたい、言語がどう使われるべきかの構文のコアを理解したいっていうことやけど、80年代、90年代から今日までの進化はどんな感じやった?

ピーター・ノービグ:一つのことは、前ほど効率性の小さな詳細について心配する必要がないっていうことやな。90年代にLispの本をやった時のことを覚えてるんやけど、やりたかったことの一つは、「オブジェクトシステムのやり方はこうや」って言うことやった。基本的に、各オブジェクトがハッシュテーブルで、メソッドを検索して、こうやって動くっていうことにするつもりやったんや。

それから、「もちろん、本当のCommon Lispオブジェクトシステムはもっと複雑で、効率性タイプの問題が全部あって、これは単なるおもちゃで、実際の生活では誰もこれをやらへん」って言うたんや。Pythonがまさに俺が言った通りのことをやったんやって分かったんや。

Pythonは「オブジェクトはただの辞書や」って言うて、少しの小さなトリックもあるけど、ほとんどは、80年代に100倍遅すぎたであろうもんが、今はほとんどすべてにとって十分速いんや。

だから、プログラマーとして、効率的なコードを書こうとする強迫観念を手放さなあかんかったんや。「本当に重要なのは、プロジェクトを完了するのにかかる総時間で、その大部分はプログラマーの時間になる」って言うんや。ちょっと効率が悪くても、理解と修正が簡単になるなら、それが正しいトレードオフやからな。

Lispの美しさと限界

レックス・フリードマン:君はLispについてかなり書いてるな。プログラミングの本はLispで書いてるし、Lispのコードがたくさんあるんや。俺自身とLispが何かを知らへん人は調べるべきやけど、多くのAI研究者にとって、それは好きな言語やけど、この頃は使わへん好きな言語なんや。Lispのどの部分が最も美しくて強力やと思う?

ピーター・ノービグ:美しい部分は簡潔性やと思うんや。半ページで言語全体を定義できるし、他の言語にはそれがないんや。だから、すべてを頭に入れておけるって感じるんや。

多くの人は「それは単純すぎる。やりたいことがたくさんあるのに、JavaやPythonなんかには100とか200とか300の異なる構文ルールがある。それら全部要らへんのか?」って言うんや。Lispの答えは「ノー、8個くらいの構文ルールしか与えへんけど、自分で定義することを許可する」やったんや。

それは非常に強力なアイデアやった。俺の問題と俺のデータから始めて、その問題とそのデータのために欲しい言語を構築できるっていうアイデア。それから、Lispがその言語を定義できるようにするんや。だから、同時にある言語でのプログラマーと言語デザイナーっていうレベルを混ぜてるんや。それが君の問題と最終的なコードの間のより良いマッチを可能にするんや。Lispは他の言語よりもそれを良くやってたと思うで。

レックス・フリードマン:関数型プログラミングの非常にエレガントな実装やけど、なぜLispはPythonみたいな言語の大衆的な採用と成功を持たへんかったと思う?括弧のせい?括弧が全部のせい?

ピーター・ノービグ:いくつかのことがあると思うんや。一つは、単一のプログラマーや小さなチームと、良い趣味を持ったスキルのあるプログラマーのために設計されてたっていうことや。「俺は言語デザインをやってるし、良い選択をせなあかん」って言える人のためにな。良い選択をしたら素晴らしいけど、悪い選択をしたら自分を傷つけることができるし、チームの他の人がそれを理解するのが難しくなることがあるんや。

だから、Lispが良かった人数の観点でのプロジェクトの規模には限界があったと思うんや。業界として、我々はそれを超えて成長したんや。

一部は括弧やと思うで。Lispの頭字語についてのジョークの一つは「Lots of Irritating Silly Parentheses(たくさんのイライラするばかげた括弧)」や。俺の頭字語は「Lisp Is Syntactically Pure(Lispは構文的に純粋)」で、「括弧と原子だけで十分」って言うてたんや。

AIの教科書があって、90年代にやったから疑似コードが本にあったんやけど、「AIの言語やったから、オンラインでLispを使う」って言うたんや。前にLispをやったことがない学生の何人かが文句を言うてたのを覚えてるんや。何が起こってるかよく理解してへんかったからな。

ある学生が「この疑似コードがこのLispにどう対応してるかが理解できへん」って文句を言うてたのを覚えてるんや。疑似コードのシンボルとコードの間には一対一の対応があって、唯一の違いは括弧やったんや。だから、「ある人にとっては、ある数の左括弧が脳をシャットオフするに違いない」って言うたんや。

その意味でPythonは反対の方向に行ったんや。その時点で「Lispだけを持つことはできへん」って言うたんや。AIを教えるのに10週間とか12週間とか15週間しかないのに、そのうち2週間をLispを教えるのに無駄にしたくなかったからや。だから、別の言語を持たなあかんって言うたんや。

Javaはその時最も人気のある言語やったから、それをやり始めたんや。でも、疑似コードとJavaの間に一対一の対応を持つのは本当に困難やって言うたんや。Javaがめっちゃ冗長やからな。

それから、「調査をして、俺の疑似コードに最も似てる言語を見つける」って言うたんや。Pythonが基本的に俺の疑似コードやったことが分かったんや。なんとなく俺はGuidoにチャンネルを合わせて、Pythonと同じ疑似コードをデザインしてたんや。その時点ではPythonのことを聞いたことがなかったのにな。それ以来、良いマッチやったから、それを使ってるんや。

Pytudes と Google での経験

レックス・フリードマン:Pythonについて、君のGitHubリポジトリのPytudesの話は何や?Pythonでのパズルと演習で、かなり楽しそうやな。

ピーター・ノービグ:ただ楽しいと思うんや。パズルをやるのが好きやし、教育者でもあるからな。Udacityでクラスをやったんや。Udacity 212やったと思うけど、基本的にPythonを使った問題解決で、異なる問題を見ることやった。

レックス・フリードマン:Pytudesはそのクラスの演習のためのもんやったんか?

ピーター・ノービグ:クラスが最初にあったんや。Pytudesにあるもんの一部は、クラスにあったもんの書き上げやったし、一部は新しい問題に取り組み続けることやった。

レックス・フリードマン:Pytudesの組織的な狂気は何や?ただクールな演習の集まり?

ピーター・ノービグ:俺が楽しいと思ったもんだけやな。

レックス・フリードマン:君は2001年から2005年までGoogleの検索品質のディレクターやったんやな。わずか数人の従業員がいる初期の頃で、会社がクレイジーに成長してる時やった。つまり、Google革命は我々が知識を発見し、共有し、集約する方法やからな。これは文明の基本的な側面の一つやろ。情報が共有されるっていうことの。歴史を通して異なるメカニズムがあったけど、Googleはそれを10倍改善したんや。君もその一部やったんやろ。人々がその情報を発見することでな。哲学的または技術的レベルでの初期の頃の挑戦は何やった?

ピーター・ノービグ:確実にエキサイティングな時期やったし、君が言うように、毎年規模を2倍にしてたんや。挑戦は、正しい答えを得たかったっていうことやった。それが何を意味するかを理解せなあかんかったし、それを実装せなあかんかったし、すべてを効率的にせなあかんかった。そして、良い答えを提供してるかどうかを継続的にテストして確認せなあかんかったんや。

レックス・フリードマン:良い答えって言う時は、人々がキーワードの観点でタイプしてることに対して、彼らが得る結果が、彼らにとってのその結果の望ましさによって順序付けられてるっていう意味やな。最初にクリックするもんが、実際に探してたもんである可能性が高いみたいなな?

ピーター・ノービグ:我々が持ってたメトリクスの一つは最初のもんに焦点を当ててたんや。一部はページ全体に焦点を当ててたから、トップ3くらいに焦点を当ててたんや。だから、どれくらいうまくやってるかについて、たくさんの異なるメトリクスを見たし、うまくやってへんクエリのタイプがあるかもしれんっていうサブクラスに分解して、それを修正しようとしたんや。

早い段階で、我々が敵対的な立場にあることを理解し始めたんや。最初は「図書館のカードカタログみたいなもんや。本はここにあって、我々は横にいて、そこにあるもんを反映してるだけや」って思うてたんや。

でも、我々が変更を加えるたびにウェブマスターが変更を加えるし、それはゲーム理論的やっていうことを理解したんや。だから、「今我々にとって正しい動きかどうか」だけじゃなくて、「もしこの動きをしたら、カウンターの動きは何になるか?それで我々をより悪い場所に連れて行くのか?その場合はその動きはしないで、違う動きをする」っていうことを考えなあかんかったんや。

レックス・フリードマン:インターネットの人気と成長で、人々が新しいコンテンツを作ってるのを見つけたと思うけど、コンテンツの作成をガイドするのを手伝ってるようなもんやった?

ピーター・ノービグ:それは確実に本当やな。我々は確実にネットワークの構造を変えたんや。非常に初期の頃を考えてみると、ラリーとセルゲイがPageRankの論文を持ってて、ジョン・クラインバーグがハブと権威のモデルを持ってたんや。ウェブはハブから作られてるって言うてて、それは「犬についてのクールなリンクの俺のページ」みたいなもんで、人々はただリンクをリストアップしてたんや。

それから、ほとんどの人がリンクする犬についてのページである権威があったんや。それはもう起こらへんのや。人々はクールなリンクのページを作る手間をかけへん。我々がその機能を引き継いだからな。だから、それが機能する方法を変えたんや。

レックス・フリードマン:当時、インターネットが今日ほど大規模に活気に満ちたもんになるって想像してた?既に急速に成長してたけど、もう一つ…今日座って、ただ驚きでインターネットを見たことはある?絶えず作られ、絶えず共有されるコンテンツの量は失業してるんや?

ピーター・ノービグ:俺にとっては常に驚きやったな。未来を予測するのがあんまり得意じゃないと思うんや。1980年頃に大学院生やった時のことを覚えてるんやけど、ARPANETがあって、それを商業化してこのインターネットを持つっていう提案があったんや。

このクレイジーなゴア上院議員がそれは良いアイデアやと思うてたんや。俺は「おいおい、商業会社がこの技術を理解することを期待できへん。絶対にできるわけがない。dot-comドメインは持てるかもしれんけど、どこにも行かへん」って思うてたんや。だから俺は間違ってて、アル・ゴアが正しかったんや。

同時に、商業会社であることの意味の性質も変わったんや。だからGoogleの設立は、前にあった会社とは違うんや。当時は可能やなかったビジネスモデルがたくさんあるからな。

人間レベルの知能への道

レックス・フリードマン:未来を予測することについて、人間レベルの知能にアプローチするシステムを構築するのに何が必要やと思う?もちろん、人間レベルの知能を作ることに夢中になりすぎるべきじゃなくて、人間にとって非常に有用なシステムを作るべきやって話したことがあるけど、そのレベルにアプローチするのに何が必要やと思う?

ピーター・ノービグ:確実に人間レベルの知能は一つのもんじゃないと思うんや。たくさんの異なるタスク、たくさんの異なる能力があるんや。それが目標であるべきやとも思わへんのや。人間レベルで掛け算ができる電卓を作りたいとは思わへん。それは後退やからな。

だから、多くのもんに対しては、人間レベルをはるかに超えることを目指すべきやし、他のもんについては人間レベルが目指すのに良いレベルかもしれん。また他のもんについては、「これはやらんとこ。既に人間がいてそのタスクを引き受けることができるから」って言うんや。

君が言うように、俺は有用なツールが何かに焦点を当てるのが好きやな。場合によっては、人間レベルにあることが、ツールを有用にするその閾値を越えるための重要な部分なんや。

スマホやテーブルに座るスピーカーで今得られるこれらのパーソナルアシスタントみたいなもんで見るんやけど、それらと会話できるようになりたいんや。業界として、これらのもんが何をできるかについての正しいモデルが何かをまだ理解してへんと思うんや。人と同じように会話するっていうモデルを目指してるけど、まだそのモデルを提供してへんのや。

天気を聞くことはできるし、良い歌を再生することはできるし、他に5つか6つのことはできるけど、それができることは尽きるんや。

レックス・フリードマン:深い意味のある繋がりという観点でな。君は映画「her」を好きなAI映画の一つとして言及したことがあるけど、人間がAIシステム、AIアシスタントと恋に落ちることは可能やと思う?天気はどうやから深い繋がりを持つまでの大きな跳躍をするっていうことやな。

人間とAIの感情的繋がり

ピーター・ノービグ:人として、それが我々が大好きなことやと思うんや。映画「her」の上映があって、パネルディスカッションがあった時に、誰かが「herに似てると思う他の映画は何や?」って聞いたんや。俺の答えは「ライフ・オブ・ブライアン」やった。それはSF映画じゃないけど、両方の映画は必ずしも現実じゃないもんを信じたがることについてなんや。

レックス・フリードマン:ちなみに知らへん人のために、それはモンティ・パイソンやで。

ピーター・ノービグ:見事に言うたな。それが俺たちのやり方やと思うんや。信頼したい、信じたい、恋に落ちたいんや。必ずしもそんなに必要じゃないんや。俺の子供たちはテディベアと恋に落ちたんや。テディベアはあんまりインタラクティブじゃなかったのにな。だから、それは全部俺たちが自分の感情をデバイスやもんに押し付けてることやねん。俺たちがやるのが好きなことやと思うし、そうし続けるやろな。

レックス・フリードマン:人間として、その繋がりを切望して、AIはその他の端で俺たちを捕まえるために少しだけ仕事をせなあかんっていうことやな。

ピーター・ノービグ:確実に犬レベルに到達できたら、多くの人がペットにたくさんの愛を投資してるからな。自律走行車で作業してる時に言われたように、無生物の車にたくさんの愛を投資してる人もいるんや。だから、本当にそんなに必要ないんや。

知能のテスト

レックス・フリードマン:ちょっとばかげてるか哲学的かもしれへん話題にとどまるけど、君の見解では知能の良いテストは何や?チューリングテストみたいな自然な会話は良いテストなんか?別の言い方をすると、今日コンピューターがそれをやってるのを見たら、何が君を感動させるんや?

ピーター・ノービグ:いつも感動してるで。でも、本当に感動的なもんっていうと、囲碁をプレイしたり、StarCraftをプレイしたり、それらは全部かなりクールやからな。確実に会話は重要やと思うで。

時々、システムを騙しやすいこういうテストがあるんや。会話ができるチャットボットを持つことはできるけど、本当に知的かどうかを本当に明らかにするほど深くなる必要がある状況に決して入らへんのや。

チューリングはそれを提案したけど、もし彼が生きてたら「本当に真剣に意味してへんかった」って言うやろと思うんや。これは俺の意見やけど、チューリングのポイントは、会話のテストが良いテストやっていうことじゃなかったと思うんや。彼のポイントは、テストを持つことが正しいことやっていうことやったと思うんや。

哲学者が「いや、AIは不可能や」って言う代わりに、「ただテストをして、その結果が答えを教えてくれる」って言うべきやっていうことやった。必ずしも会話テストである必要はないんや。

レックス・フリードマン:技術が進化するにつれて、新しいより良いテストを考え出すのが多分正しい方法やな。

AI の脅威と未来

一般大衆の多くが、多くじゃないけど一部の声の大きい部分が心配してるように、人工知能の存在的脅威について心配してる?将来をもっと遠くまで見ると、君が言ったように、ほとんどの人は多くを予測できへんから、そういう謎に包まれてる時は、最悪のケースを考え始めることになるんや。それは君の心の空間を多く占めてることなんか?

ピーター・ノービグ:確実に脅威について考えるし、危険について考えるで。どんな新しい技術でも、ポジティブとネガティブがあるし、強力な技術やったら、良いことにも悪いことにも使えるからな。

確実にロボット黙示録、ターミネータータイプのシナリオについては心配してへん。雇用の変化について心配してるし、それに十分速く反応できるかどうかを心配してるんや。

今日すでに見てることやと思うけど、多くの人が所得格差の働き方について不満を持ってるし、自動化はそういう種類の問題を加速させるのに役立つ可能性があるんや。

強力な技術は常に武器として使えるんや。ロボットでもドローンでも何でもな。その一部はAIのおかげで見てるけど、多くはAIを必要としてへん。AIを含む無人機と、CRISPR技術が利用可能になることと、どっちがより悪い脅威かは分からへん。

我々は直面せなあかん脅威がたくさんあって、その一部はAIを含むし、一部は含まへんのや。

レックス・フリードマン:技術が提示する脅威について、技術がそれらの脅威を緩和すること、新しい機会を作ったり、これらのもんのより有害な影響から我々を守ったりすることについて、ほとんど楽観的なんか?

ピーター・ノービグ:未来を予測するのは難しいし、社会として、これまで核システムや他のもんを生き延びてきたからな。もちろん、この会話をしてる社会だけが生き延びてるから、それは生存者バイアスかもしれんけどな。

今後の課題と展望

レックス・フリードマン:近い将来、君自身にとって、コミュニティにとって、広くエキサイティングで挑戦的で影響力のある問題として目立つもんは何や?

ピーター・ノービグ:我々が話したこれらの会話でのアシスタンスは素晴らしい分野やと思うし、常識的推論とデータの力を組み合わせることは素晴らしい分野やと思うんや。

レックス・フリードマン:会話での関係か、それとも単に広く一般的にか?

ピーター・ノービグ:プログラマーとして、俺は今日のTensorFlowなんかでの現在のシステムの観点から、より広いクラスの人々にとってそれらをもっと使いやすくできるか、そして従来のタイプのプログラミングに機械学習を適用できるかっていう、両方のプログラミングツールに興味があるんや。

Googleに行ってクエリをタイプして、何かのスペルを間違えたら、「こういう意味でしたか?」って言うんや。それができる理由は、たくさんの他の人が似たようなエラーをして、それを修正したからや。俺たちのコードベースとバグ修正スペースに入って、コードの行をタイプした時に、「こういう意味でしたか?今日これをタイプしたら、明日多分このバグ修正をタイプすることになりますよ」って言えるはずやねん。

レックス・フリードマン:それはコーディング、プログラミング体験のアシスタントの本当にエキサイティングな応用やな。

ピーター・ノービグ:あらゆるレベルでな。だから、AIコミュニティ全体を代表して安全に言えると思うけど、まず第一に君がやった素晴らしい仕事に感謝してるで。確実にAI現代的アプローチの本でやった素晴らしい仕事にな。第4版、そして第5版なんかを本当に楽しみにしてると思うで。

ピーター、今日話してくれて本当にありがとう。

ピーター・ノービグ:ありがとう。楽しかったで。

コメント

タイトルとURLをコピーしました