
23,907 文字

全てのこれら5つの部族は70年前から存在しています。彼らは最初から存在していたのです。AIの世界では変化が絶え間なく、かつてないほど急速に進んでいますが、ある事柄は驚くほど一定しています。そのひとつがこの5つのパラダイムです。彼らは変わっていません。その全てが50年代に何らかの形で発明され、今日でも同じものが存在しています。
私が一般の人々に5つの学派について話すとき、すぐに彼らの心に響くのは「類推による推論」です。なぜなら私たちは常にそれを行っているからです。誰もがそれを理解できます。
Thumaは家具とホームグッズを専門とするモダンデザイン企業で、本質だけを残して不要なものを排除することでオアシスを作り出します。プレミアム素材と意図的なディテールで高級なベッドを作るThumaは、私の家の再編成プロセスにおいて、リノベーションとリデザインの重要な候補として真剣に検討しています。Thumaは形、職人技、機能性の完璧なバランスを組み合わせており、17,000以上の5つ星レビューがあるThumaベッドコレクションは、シンプルさが最も洗練された形であることの証明です。日本の継手技術を使用し、無垢材から精密にカットされたピースで作られ、静かで安定した土台と、クリーンなライン、微妙な曲線、ミニマリストのスタイルを持っています。Thumaベッドコレクションは、どんなデザイン美学にも合う4つの特徴的な仕上げで利用可能で、ヘッドボードのアップグレードも希望に応じてカスタマイズできます。最初のベッド購入で100ドル引きを受けるには、thuma.co/ionaiにアクセスしてください。
こんにちは、私はペドロ・ドミンゴスです。私はワシントン大学のコンピュータサイエンスの教授でありAI研究者です。数年前、私は「マスターアルゴリズム」という本を書きました。これは機械学習の5つの部族、つまり5つの主要なパラダイムの紹介でした。私たちはそれらを一つずつ見てきました。伝統的にAIを支配してきたシンボリスト、今日支配している接続主義者(ディープラーニング)、そして常に存在し続けるベイジアンについて取り上げました。そして今日は最後の二つ、進化論者と類推主義者について話します。進化論者は進化に着想を得たAIを行い、類推主義者は類推による推論を行います。
では、どちらから始めましょうか?進化論者から始めるのが良いでしょうか、それとも逆に?どちらがより現代的かというと、両方とも現代的です。おそらく進化論者は接続主義者からの良い橋渡しになるでしょう。なぜなら彼らには非常に重要な共通点があるからです。それは両者とも生物学に着想を得ているということです。進化論者と接続主義者は両方とも心理学に着想を得たAIを信じています。他の者たちはそうではありません。他の者たちはそれは愚かな考えだと思っています。なぜなら生物学は混沌としていて最適ではないからというわけです。しかし接続主義者は脳の構造に着想を受けています。もしハードウェアでそれを再現できれば、私たちは正しい道を進んでいることになります。
しかし進化論者は言います。「ちょっと待って、それは実際には問題全体ではない。その構造はどこから来たのか?」あなたはただパラメータを調整しているだけで、それは大したことではありません。本当に知りたいのは、どうやって最初に脳を作るかということです。自然には脳やロボットなど多くのものを作るためのアルゴリズムがあります。それが進化です。実際に進化をアルゴリズムとして考えることができます。実際、19世紀の人々はすでに同等のことを言っていました。確か誰だったか、おそらくジョージ・ブールだったでしょうか、コンピュータの基盤となる論理を発明した人ですが、彼は「神は動物や植物を創造するのではなく、動物や植物が作られるアルゴリズムを創造するのだ」という趣旨のことを言いました。
つまり、私たちがやろうとしていることは、コンピュータ上で小さな神になり、進化のプロセスを模倣することです。ただし、動物や植物を進化させる代わりに、プログラム、回路、ロボットを進化させます。実際、人々はあらゆる範囲のものを行ってきました。ラジオやアンプなどの設計が、いわゆる遺伝的アルゴリズム(遺伝学に着想を得たものなので)によって作られたものに基づく特許さえあります。また、プログラムを進化させる遺伝的プログラミングという分野全体もあります。
興味深いのは、基本的な遺伝的アルゴリズムは、進化に関する私たちの基本的な理解をコンピュータにほぼ文字通り翻訳したものだということです。ビット列の集団があり、複数の世代があります。最初はランダムな文字列から始めます。これが驚くべきことです。ランダムな文字列から始めて、しばらくすると驚くべきことをしているのです。例えば、コーネル大学(あるいは今は別の場所かもしれません)にいるホド・リプソンという人がいて、彼のラボでは文字通りロボット昆虫をゼロから進化させています。最初はシミュレーションで行い、しばらくすると実際に製造します。3Dプリントなどで作り、実際の世界で這ったり飛んだりし始めます。
ランダムな文字列から始め、それを変異させ、交差させます。これが進化的コンピューティングの重要な点で、例えば勾配降下などには存在しない部分です。タスクに基づいて、その文字列から作られたシステムやプログラムなどの適応度を測定します。いつものように、何らかの報酬や目的関数があります。そして最も性能の良いものが交配します。文字通り、コンピュータ上でのセックスです。そして子孫が新しい世代となり、今度はそれらが評価されます。これは進化の非常に基本的な模倣であり、驚くほど効果があります。
歴史や、なぜ他の機械学習と分かれたのか、そしてAIの重要な部分を本当に捉えているのかどうかについて疑問を持つ人々がいるかもしれませんが、確かに興味深いことがたくさんあります。
ここで質問させてください。あなたが「文字列」と言う時、それは関数のことを指しているのですか?それとも文字列とは何のことですか?
申し訳ありません、技術的な専門用語に陥ってしまいました。コンピュータサイエンスでの文字列とは、単にビットの列のことです。例えば、文字の列、例えば英語の文章はコンピュータ科学者にとっては文字の文字列です。文字列のように見えるからです。長い線形のものです。そしてゲノム、DNAはTGATC等々の文字の文字列です。驚くべきことに、あなたと私がどうやって作られているかについてのすべてが、これらの文字列の束に符号化されているのです。それは少し理解しがたいことですが、そこにすべてあるのです。もし私たちがそれらの文字列の操作方法を知っていれば、大きな進歩を遂げるかもしれません。
文字列は関数ではなく、コンピュータサイエンスで考えられる最も単純なものの一つです。あなたが「ランダムな文字列から始める」と言いましたが、それらはどのように進化するのですか?アルゴリズムがそれらに作用するのですか?
そのアイデアは驚くほど単純で、機能すべきではないのですが、実際には機能します。その証拠は実生活の進化です。簡単な例を挙げましょう。これは実際の例ですが、ラジオを作りたいとします。ラジオは複数の電子部品を組み合わせたものです。トランジスタ、抵抗器、コンデンサなどです。それを何らかの周波数に合わせる必要があります。その方法は知っていますが、もっと効率的なラジオの作り方があるかもしれません。
遺伝的アルゴリズムの方法は、ランダムな文字列の束から始めることです。しかし、その文字列はラジオの作り方の仕様です。例えば、ある位置に1があると、このトランジスタがその抵抗器に接続されていることを意味します。トランジスタと抵抗器の山があり、私の文字列は単に誰が誰に接続されているかを指定するだけです。必要なコンポーネントがすべてあり、それらが何であるかを知っていて、可能な接続を許可すれば、これらの文字列の一つがあなたのラジオになります。そして別の文字列は潜在的にさらに良いラジオになるかもしれません。
今、あなたはランダムな文字列を取り、対応するラジオを構築します。実際には、それをシミュレートするだけで済みます。電気技師が使用するパッケージがあります。そして、それはおそらく恐ろしいラジオでしょう。最初の1000個の世代はすべて恐ろしいラジオですが、そのうちの一つが何かを少しだけ拾い上げることがあります。ランダムに、あるものは他のものよりも良いでしょう。
そこで、それらの二つの文字列を取り、ランダムに変異させます。進化の一部はランダムな変異によって駆動されるからです。つまり、ビットの一部をただフリップするだけです。つまり、このトランジスタはこの抵抗器に接続されていましたが、今はランダムにそのコンデンサに接続させてみましょう。そして原則的により強力なのは、ここが本当に興味深い部分ですが、「ここに実際にラジオを記述するのにランダムよりも優れているように見える二つの文字列がある。進化で行うように、それらの間でクロスオーバーをしよう」と言います。つまり、一方の文字列の半分と他方の半分を取り、いわば母と父から取り、今や新しい文字列が生まれます。これは新しいラジオです。もしかしたら、その文字列は前のものよりもっとゴミかもしれませんが、考えてみてください。この文字列がここに何か良いものを持っていて、この文字列がここに何か良いものを持っていれば、この部分とこの部分を選ぶと、新しい文字列は実際に前のどちらよりも良くなります。それを100世代行うと、驚くべきことに実際に素晴らしいラジオができあがります。
その変異を駆動し、子孫の中からリーダーや勝者を選ぶのは、強化学習ですか?それとも評価アルゴリズムは何ですか?
それは強化学習ではありませんが、実際、強化学習を加速された進化と考えることができます。それは良い考えで、一部の人々は実際にこれを形式化しており、興味深い教訓があります。強化学習は動物が行うことであり、それは何かを適切に行う方法を発見することです。強化学習がある前は、それは進化によってのみ行うことができました。ですから、実際にはその逆で、強化学習を進化するためのより効率的な方法と考えることができます。実際、私たち人間がアイデアを持つことは、さらに効率的な進化の方法だと考えることができます。物事はどんどん加速していくのです。
しかし進化は、少なくともこの基本的なバージョンの進化(これは実際には進化についての漫画的な理解です)は、実際にはこれだけです。進化はどのように動物を評価するのか?それは彼らを世界に放り出し、彼らが生き残って繁殖するかどうかを見ることです。それだけです。もちろん、ダーウィンは持っていませんでしたが、進化には数学的理論があり、いわゆる「現代的総合」の一部です。そこには適応度関数という概念があり、これは強化学習における報酬関数に相当するものです。報酬関数とは、ストーブに触れると痛みを得る、アイスクリームを食べると快楽を得るというものです。進化における適応度関数は本質的に、あなたが何人の子孫を持つかというものですが、あなたが何人の子孫を持つかは、あなたがどれだけ環境に適応しているかによって決まります。あなたが鳥であれば、より良い翼を持っていたり、より軽い骨格を持っていれば、より良く、より速く、より遠くまで飛ぶことができます。それがあなたの適応度関数です。
遺伝的アルゴリズムにおける全ての技術は、適応度関数の定義にあります。例えば、先ほど話したラジオの例では、適応度関数は文字通り、SPICEと呼ばれるソフトウェアパッケージかもしれません。これは任意の電子回路をシミュレートするものです。あなたはランダムな文字列、あるいはある時点ではランダムではない文字列を使って回路を定義し、その回路をソフトウェアで作成し、SPICEに通して、ラジオとしてテストします。例えばFM101を聴こうとして、それが機能するかどうかを試します。これは遺伝的アルゴリズムでの一連のテストであり、それは回路を実世界に出して、それが実際にラジオを聴くという目的に適しているかどうかを見ることに相当します。
このプロセスで、1万世代後には何かができあがるとおっしゃいましたが、それは全て自動化されているのですか?それとも介入が必要ですか?
様々なバリエーションがありますが、基本的なバージョンでは介入は必要なく、驚くほどうまく機能します。しかも必ずしも1万世代も必要ありません。私は昔、コネクションマシンというデモを見たことがあります。これは最初の大規模な並列コンピュータの一つでした。それは次のようなことをしました。これはグラフィックス展示会のようなもので、10個のランダムな画像を表示し、あなたが最も好きなものを選びます。そして、これを半ダースほど繰り返します。他の人々が列に並んでいる間に、実際にわずか10世代ほどで、それは実際に素晴らしい画像を生成し始めます。そう、進化は驚くほど効果的な学習方法です。
この方法を使った実用的なアプリケーションはありますか?昆虫について話されましたが、それはCMUでとおっしゃいましたか?
昆虫はコーネル大学のリプソンという人物のもので、彼は今はNYUか別の場所に移動したと思います。先ほど述べたように、この方法で設計された実際のラジオやアンプなどがあります。遺伝的アルゴリズムの人々は、サッカーをするロボットなどの遺伝的アルゴリズムの成功例のリストを持っています。
しかし、これは非常に議論の的になっています。機械学習の他の人々は「いや、それらのアプリケーションは本当に現実的ではなく、単に貪欲な探索でできる」と言っています。実際、かつて非常に有名な論争がありました。機械学習界の一般的な見解は、それは役に立たないというものです。実際、機械学習の多くの人々が私の本を見たとき、「なぜそれについての章を書いたのか」と言いました。一方で、2000年頃のニューラルネットワークについても同じことが言えたでしょう。「なぜそれについての章を書いたのか、それはくだらなくて機能しない」と。だから、自分で賭けをしてください。
では類推主義者について話しましょう。類推主義者は類推による推論に基づいて機械学習とAIを行います。まず、類推による推論とは何でしょうか。それは、私が解決すべき問題を持っていて、以前に解決した類似の問題を記憶から取り出すことです。通常、解決策を一つずつ小さな部分から構築していくのですが、これは信じられないほど高価で非効率的です。チェーントート・プロンプティングを行い、誰かが「ブラブラブラ」と言うようなものです。類推主義者は「ああ、それはとても面倒だ」と言います。あなたと私が行うこと、そして私たちが毎日自動的に行うことは、最も小さなことから最も大きなことまで、記憶から類似のエピソードや問題を取り出し、その問題の解決策を新しい問題に適応させることです。これは信じられないほど強力なことです。
実際、「類推主義者」という用語は、「ゲーデル、エッシャー、バッハ」の著者であるダグラス・ホフスタッターによって作られました。彼の最新の本は「表面と本質:思考の燃料と火としての類推」というもので、それは基本的に、認知における全てのことが、最も単純な言葉の使用から、アインシュタインのような人々の最高の成果まで、すべてが類推による推論であり、他には何もないということを証明する600ページの本です。つまり、彼は本当に類推がマスターアルゴリズムであると考えています。
もちろん、私は彼が少し行き過ぎていると思います。なぜなら、類推はいくつかの問題を解決しますが、全ての問題を解決するわけではないからです。しかし、この議論が多くの力を持っていることは否定できません。私は類推による推論がAIで最も不当に無視されている学派であると思います。興味深いことに、私が5つの学派について一般の人々に話す時、彼らに最も共感されるのは類推による推論です。ベイジアン学習、それは何ですか?記号的AIや、全部それはよく分からない。ニューラルネットワーク、はい、脳ですが、それは数字の山です。しかし、類推による推論は誰でも理解できます。なぜなら私たちは常にそれを行っているからです。
つまり、直感的な魅力が多くあり、さらに重要なことに、心理学や認知科学では、何十年もさかのぼる何千もの論文があり、これらのことがすべて類推によって行われることを示しています。しかし、これがAIに影響を与えたのは数十年前かもしれません。より関連性が高いのは、AlexNetの爆発まで、機械学習における支配的なパラダイムはカーネルマシンだったということです。視覚を含め、誰もがカーネルマシンを使って全てを行っていました。視覚の最先端はいわゆるサポートベクターマシンであり、これはカーネルマシンの単純な形です。それが最先端でした。それが人々が正しいと信じていたことです。彼らは自分たちを類推主義者と呼んでいませんが、カーネルマシンは類推による推論の原始的な形です。それは類似度関数です。
リスナーのために、カーネルマシンとは何かを説明していただけますか?
カーネルマシンとは何か、まず、カーネルとは何かというと、それは二つのオブジェクト間の類似性を測定する関数を表す扱いにくい数学用語にすぎません。二つのオブジェクトを与えると、例えばあなたと私を与えると、いくつかの属性に基づいて私たちがどれだけ似ているかのスコアを与えます。例えば、あなたの身長や賢さ、職業などです。あるいは、ピクセルやもっと洗練されたものに基づいて、画像がどれだけ似ているかを測定します。カーネルマシンでは、秘訣はカーネルをどう設計するかにあり、それは学習することもできます。
カーネルマシンはカーネルに加えて、過去に見た例の集まりを持っています。いわゆる訓練データです。そのほとんどを捨てますが、いくつかの重要なものを保存し、それらがサポートベクトルになります。サポートベクターマシンという名前はサポートベクトルという用語から来ており、ベクトルは例にすぎません。それはピクセルやその他の値の列です。これらのサポートベクトルを保存するのは、それらがあなたが行う決定をサポートするからです。
そして新しい例が来ると、それは実際に非常に単純です。例えば、私は医者で、新しい患者を診断したいとします。私は医学について何も知りません。私が持っているのは過去の患者のファイルです。目の前に新しい患者がいて、「あなたの症状は何ですか?」と尋ねます。彼女のベクトルを記入し、そしてファイルシステムで最も類似した症状を持つ患者を探します。「ああ、この患者は何々を持っていた、あなたも同じものを持っている」と言います。これは信じられないほど愚かで単純に聞こえますが、十分な例でこれを行えば、任意の関数を学習できるという数学的証明があります。実際、最近傍法は最も単純な類推・類似性ベースのアルゴリズムであり、可能な限り単純です。カーネルマシンは本当に最近傍アルゴリズムのより洗練されたバージョンです。
サポートベクターマシンを超えて、類推主義者はどのように新しいアーキテクチャやアルゴリズムを開発して新しいことを行うのですか?
例を挙げましょう。まず、構造マッピングとは何かを説明しましょう。構造マッピングは類推による推論における恐らく最も重要な概念です。構造マッピングのアイデアは、すべての問題、すべての領域には構造があり、新しい問題を解決するために私がすることは、見た問題から構造をマッピングすることです。
例えば、構造マッピング、類推による推論の有名な例としては、ニールス・ボーアの原子モデルがあります。彼の時代、人々はアルファ粒子を原子に向けて発射すると、ほとんどがそのまま通過し、いくつかは跳ね返ることを発見しました。電子が周囲にあることは知っていましたが、明らかに正電荷は中央の小さなものに集中しているようでした。ほとんどは真空です。これは何を思い起こさせるでしょうか?それは原子核を太陽、電子を惑星とする太陽系を思い起こさせます。そこでニールス・ボーアは「太陽系との類推で原子のモデルを作ろう」と考えました。それは歴史的に見ると完全に正確ではなかったことが判明しましたが、量子力学の発展において重要なステップでした。
彼は何をしたのでしょうか?彼は原子と太陽系の間の類似性に気づき、中央に太陽があり、様々な距離で周囲を回る惑星がある太陽系の構造を、原子にマッピングしました。これは多くの点で、異なる殻(大まかに言えば、異なる距離にある電子)を持つ原子の驚くほど正確な描写です。構造をマッピングすることで、問題解決において大きな飛躍が得られます。もはや森の中で迷っているわけではなく、「これが問題を解決しようとする方法だ」と言え、それを調整することができます。
より現代的で関連性の高い例を挙げると、類推ベースのAIの一形態に「ケースベース推論」というものがあります。これは過去の事例に基づく推論であり、数十年にわたりコールセンターやヘルプセンターで非常に人気がありました。それは次のように機能します。例えば、あなたはマイクロソフトで、Windowsに問題を抱えている人々のためのヘルプデスクを持っているとします。電話がかかってきて「プリンターが動作せず、ゴミを吐き出している、助けてください」と言われます。するとシステムは、いくつかの定型的な質問をして「ああ、私のデータベースや知識ベースにあるこれらの特性を持つ問題は何か」を探し、同じ解決策を提案するだけでなく、それを調整します。「あなたはWindowsの別のバージョンを持っているので、この部分が変わります。あなたのプリンターはHPではなくEpsonなので、この部分が変わります」というように、その解決策を新しい顧客に適応させます。驚くべきことに、これは多くの場合機能し、問題を解決します。もちろん、人間に尋ねたり、大きな記号的AIやたくさんのお金を使ってLLMに同じ結論を得させるよりもはるかに低コストです。
それは私には一種の検索のように聞こえますが、より複雑な問題を解決する方法ではないように思えます。それとも、より複雑な問題を解決する方法はあるのでしょうか?
最近傍法やカーネルマシンは実質的に、検索を行わないと言えるかもしれません。例えば、基本的なニューラルネットの問題は検索を行いません。すべての例を記憶し、単に答えを出力します。例えば、乳がんかどうかなどです。しかし、最近傍法には記憶すべき最良の例を巧みに選択するバージョンがあり、すべてを記憶する必要がなく、より効率的になります。それがサポートベクターマシンであり、実際には最良の例を探すための巧妙な方法です。そこですでに検索が行われています。
構造マッピングやケースベース推論の利点は何かというと、確かにここでも検索は行われていますが、重要なのは、この検索が一歩ずつ解決策を見つける試みよりもはるかに効率的だということです。問題解決に関連する「チャンク」(心理学ではこう呼びます)全体を取り出し、それを調整するだけでよいのです。あなたの言うとおり、理想的な日には検索はなく、答えを見つけてあなたに与えるだけです。あなたの問題が誰かが持っていた問題とまったく同じであれば、実際にそれはかなりの割合で起こります。しかし、より一般的には検索が行われますが、その検索のステップ数は数百万ではなく、十数個かもしれません。
では残りの30分で、これらの学派が今日どのような立場にあるのか、そしてマスターアルゴリズムについて話しましょう。数年前にあなたの本について話したとき、マスターアルゴリズムはおそらく単一のアルゴリズムではなく、あらゆる問題のさまざまな部分に対応するアルゴリズムのシステムや一族だとおっしゃっていました。確かに強化学習はトランスフォーマーアーキテクチャを持つ生成AI と融合していますが、これらの異なる学派の間でどの程度の融合や協力が行われているのでしょうか?それともまだかなり分かれたままなのでしょうか?
いいえ、そうではありません。実際、これには非常に興味深い歴史があります。まず第一に、これら5つの部族すべてが70年前からあるということです。彼らは最初から存在していました。AIの世界では変化が絶え間なく、かつてないほど急速に進んでいますが、ある事柄は驚くほど一定しています。その一つがこれら5つのパラダイムです。彼らは変わっていません。その全てが50年代に何らかの形で発明され、今日でも同じものが存在しています。もう一つの非常に興味深い点は、10年ごとに異なるものが支配的になるということです。60年代にはニューラルネットワークが支配的で、70年代には記号的AI、90年代はベイジアンの時代、2000年代はカーネルの時代で、その後ニューラルネットワークが復活しました。
今回は違うと言えるかもしれません。ニューラルネットワークが永遠に支配し、他は今や無関係になるかもしれません。多くの人がそう考えています。あるいは、歴史から推測すると、他のどれかがいつか復活するかもしれません。
かつては、これらのパラダイムはかなり分離していて、人々は敵対的な関係にありました。1990年頃、シンボリストは「ニューラルネットはくだらない」と言い、ニューラル派は「記号的AIはくだらない」と言っていました。そしてベイジアンがやってきて「いや、あなたたち両方がくだらない」と言いました。私はICML(記号的な機械学習の会議)とNIPS(ニューラルネットワークの会議)の両方に参加していたことがありますが、両方に参加していた人はほんの数人しかいませんでした。
しかし、それらは実際に融合しました。これは主にサポートベクターマシンによってもたらされました。サポートベクターマシンが最初にニューラルネットワークのコミュニティを占領し、次に記号的コミュニティを占領しました。そして人々は無差別に一方や他方で発表し始めました。現在、ICMLとNIPSの間には違いがありません。そのレベルでは、物事は完全に融合しています。
これらのパラダイムで識別可能に働いている人々はまだいますが、それらを組み合わせる多くの仕事をしている人々も多く、私もその一人です。例えば、ニューロシンボリックAIと呼ばれる分野全体があり、その全体の議題はニューラルAIと記号的AIを組み合わせることです。実際、これは80年代に人気があり、1990年頃のジェフ・ヒントンは「コネクショニスト・シンボル処理」と呼ばれるものを行っていました。それは行ったり来たりしますが、実際に今この瞬間、記号的なものとニューラルなものを組み合わせることが流行しています。必ずしもその名前ではありませんが、論文で見られるのは、これらのニューラルモデルに推論させることであり、それはもちろん記号的AIの目的です。
人々は時に意識的に、時に無意識的に、また車輪を再発明しながら、記号的AIからの技術を持ち込んでいます。例えば、O1とは何ですか?ChatGPT O1は、ニューラルシステムである LLM と記号的な検索を組み合わせたもので、彼らは公開していない方法で行っています。これが今起きていることです。
したがって、パラダイムを組み合わせるという議題は非常に活発であり、力を増しています。しかしこれは盛衰があります。数年前にも同様のものがありましたが、消えていきました。私の賭けでは、最終的にはこれらのアイデアを組み合わせる必要があり、それも二つだけでなく、すべてのアイデアを組み合わせる必要があるでしょう。それがどれくらいの時間がかかるかは未解決の問題です。
マスターアルゴリズムが必ずしも一つだけではないという意味は、記号的な問題があるときに呼び出す記号的なサブルーチンを持つというような浅い組み合わせではありません。例えば、検索拡張生成は実際にはニューラルシステムの中の記号的なサブルーチンです。しかし、それは二つの非常に浅い組み合わせであり、本の中でなぜそれが答えではないかを説明しました。私は本当に二つの深い統一が必要だと考えています。
良い例は電磁気学です。マクスウェルは「物理的世界はあるときは電気のサブルーチンを呼び出し、あるときは磁気のサブルーチンを呼び出すプログラムだ」とは言いませんでした。全く違います。彼が brilliantly に示したのは、それらが同じ力だということです。それは組み合わせではなく、統一です。これが実際に必要なことだと私は信じています。そして、AIが成熟したとき、成熟した科学と同様に、これが私たちが持つことになるでしょう。
ここで重要なのは、そのアルゴリズムには単一の形がないということです。ここでも良い例はチューリングマシンです。アラン・チューリングはチューリングマシンの概念を発見または発明しました。これは何でもできる機械です。当時は非常に奇妙なアイデアでした。ミシンは縫い、タイプライターはタイプしますが、縫いもタイプもする機械は何でしょうか?それがコンピュータです。コンピュータの本質は、何でもする機械ということです。しかし、チューリング完全またはチューリング等価と呼ばれるものには、今日おそらく数百または数千の異なるものがあります。彼の実際の機械は誰も使っていません。私たちは Von Neumann コンピュータを持っています。あなたの携帯電話やすべての人が持っているものは Von Neumann コンピュータであり、これはアーキテクチャです。実際の機械は Von Neumann アーキテクチャですが、概念的には同じです。そして新しいものが続けて出てくるでしょう。
私の言いたいことは、マスターアルゴリズムの最初の形に達する必要があり、ある意味ではそれがどんな形であるかは問題ではないということです。異なることに適した多くのバリエーションがあるでしょうが、機械学習では、演繹的推論が持っているチューリングマシンの概念さえまだ持っていません。それが私たちが最初に到達する必要があるものです。
これらの推論モデルがより強力になるにつれて、それらが様々な部族を統一する問題を解決するのに役立つと思いますか?推論モデルが科学研究を発展させる能力に自信はありますか?
マスターアルゴリズムへの道は多くあり、人々はそれらを追求しています。これらのうちの任意の二つから始めて、それらを組み合わせ、統一し、次に第三のものを導入することができます。これが私が過去20年間に行ってきたことで、そこに到達する多くの方法があります。
現在最も人気のある方法は、接続主義システム、つまりディープラーニングシステムから始めて、記号的推論能力を追加することです。これまでに行われた方法はほとんどが非常に浅く、私はそれが時間の試練に耐えるとは思いません。しかし、私はそれらを深く組み合わせる具体的な方法があると思います。
例えばトランスフォーマーを考えてみましょう。トランスフォーマーはニューラルネットワークの一種ですが、以前のアーキテクチャであるマルチレイヤーパーセプトロンよりもはるかに強力です。それが何をしているかを理解しようとする多くの試みがありますが、私の理解では、それは以前のニューラルネットワークが持っていなかった記号的AIの能力の一部を実際に持っています。そのため、トランスフォーマーは私たちがまだ完全に理解していない方法で、接続主義と記号的特徴の組み合わせであり、それがそれをそれほど強力にしています。実際、今日のマスターアルゴリズムに最も近いものはトランスフォーマーであり、考えてみると、今日あなたがメディアで毎日見るこれらすべてのことを行う一つのアルゴリズムです。それは驚くべきことです。
しかし、研究を進めるためにAIを使うというアイデアについて、トランスフォーマーベースのシステムにそういった可能性を見ますか?それともAI自体は思考を進めることができず、人間の直感や創造的思考などがまだ必要だと思いますか?ある時点で、これらのモデルが十分に強力になり、取り込むことができる人間の知識が十分にあるようになれば、ある程度の創造性があるようです。
いくつかの質問がありますので、一つずつ試みましょう。創造性について、人々はかつてコンピュータが持つことは決してないと考えていました。モラヴェックのパラドックスというものがあります。それは、人間にとって簡単なことは、進化が5億年かけて私たちを進化させたため、人間にとって簡単だという概念です。
私は様々な講演で使用しているスライドがあり、そこには「簡単:創造性、難しい:信頼性」という線があります。そして人々に「信頼性は難しく、創造性は簡単だ」と言うと、数年前までは「何を話しているんだ、頭がおかしいのか」と言われました。しかし今日では、私はただ自分の主張を証明するだけです。創造性は、DALL-EやMidJourneyなどを使って、ビデオ、詩、音楽を生成するなど、簡単なのです。信頼性については、今日LLMを信頼できるようにする方法を誰も知らず、それが問題です。
私は創造性や直感に魔法的なものは何もないと思います。私はかつて音楽家で、曲を書いていましたが、人々は曲を書くのはミューズからやってくる何か魔法的なインスピレーションだという考えを持っていますが、そうではありません。実際、誰でも普通の曲を書くことができます。ヒット曲を書くのは本当に難しいですが、ギターやピアノを弾くことを一年ほど学び始めると、普通の曲を書くでしょう。創造性は魔法ではありません。ですから、人間が行うことで、最終的にAIができないものはないと思います。コミュニティの多くの人々がこれを信じています。非常に難しく、長い時間がかかるかもしれませんが、脳で起こることについて神秘的な信念がない限り、それは原子の集まりであり、還元主義を信じるなら、マスターアルゴリズムは存在します。なぜなら、それは今あなたと私の頭の中で動いているものだからです。
では、例えばAIが本物の科学的発見をできるという観点では、今日どこにいるのでしょうか?AIは例えば一般相対性理論を考え出したり、それを標準モデルと統一する問題を解決したりできるでしょうか?その答えは、今日私たちはそれに近づいていないということです。これは非常に興味深いことで、実際、人々はこれについて言及しています。科学全体でのAIの応用は非常に急速に進んでいます。物理学、経済学、生物学などは今日AIでいっぱいですが、それはより低レベルのことを行うAIです。しかし、ニュートンやアインシュタインのような人々が行ったような本当に創造的なことは行いません。これは興味深いです。なぜならLLMはより大きな知識ベースを持ち、これまで書かれたすべての論文を読んでいるからです。それなのに、発見はどこにあるのでしょうか?その知識ベースを持つ人間なら、毎日驚くべきことをしているでしょう。
明らかにまだ何かが欠けており、研究者である私たちの仕事はその欠けているものを発見することです。私はヤン・ルカンとの長い論争を持っています。彼は逆伝播がマスターアルゴリズムだと考え、機械学習が進化しても、最終的には解決策はまだ勾配降下法だと考えています。彼はある種の基本的な接続主義者です。私は彼に「アインシュタインはどのように勾配降下法によって一般相対性理論を思いついたのか」と質問しますが、彼にはその答えがありません。明らかに何かが欠けています。
あなたが定義したこれらの学派の一つに欠けているものがあると思いますか?
それはまさに正しい質問です。例えば、ダグラス・ホフスタッターは彼の本の中で、一般相対性理論は類推によって発見されたものの一例だと言っています。だから明らかに類推による推論は重要です。また、ディープラーニングの生みの親であるジェフ・ヒントンは常に「ニューラルネットワークは記号的AIよりも優れている。なぜなら、それらは類推によって推論するからだ」と言っています。しかし「ジェフ、ニューラルネットワークでの類推による推論はどこにあるのか、説明してくれ」と言うと、答えがありません。
私はニューラルネットワークで類推による推論がどこで起きているかについて自分の考えを持っています。そして最終的に、ある意味でニューラルネットワークのように見えるが、類推による推論や記号的推論も行う単一のアルゴリズムを持つことになると思います。
これらのシステムに類推による推論を組み込むことについて、活発な研究はありますか?
「自動発見」と呼ばれる長年の活発な研究分野があります。それは70年代にパット・ラングレーなどの人々が始めました。彼らは「このシステムはケプラーの法則やボイルの法則などの単純な法則を再発見する」ということを示しました。最近、それはまた注目を集め、人々はAIを使って微分方程式や様々なシステムの働きを発見する研究を行っています。それはまだケプラーのレベルであり、ニュートンのレベルではありません。ニュートンのレベルはこの類推による推論の一部を必要とすると思います。
残念ながら、主流のAI研究では多くのことが行われていますが、これは行われていません。「ニューラルネットワークがどのように類推によって推論し、それによって科学的発見を行うか」という明示的な質問を行う人はあまりいません。これは私にとっては scandal (スキャンダラスなこと) です。AI の人々の一部がこれを行う代わりに、LLMに対してより多くの調整を行っているだけなのです。
進化論的な部族や学派も非常に期待が持てます。ランダムな文字列から始める必要はなく、すでに非常に進んだシステムから始めて、そこから進むことができます。そういったことをしている人々はいますか?
います。あなたが非常に良い点を指摘したように、おそらくランダムな文字列から始めることは望ましくありません。残念ながら、多くの機械学習の人々、特に接続主義者と進化論者は、「いや、私たちはすべてをゼロから学びたい。知識を入れることはずるだ」という基本的な機械学習の態度を持っています。ベイジアンと記号主義者はその問題を全く持っていません。むしろ、ベイジアンは事前確率分布に関するものであり、これは文字通り事前知識を入れることですし、記号主義者は学習と知識ベースAIを組み合わせることに関するものです。これは私が優れたアイデアだと思うことです。なぜそれを捨てるのでしょうか?
今日のLLMが行っていることは、テキストから知識ベースを獲得していることだと考えることができます。それは非常に複雑な方法で行われていますが、その知識ベースとの推論に柔軟です。それは非常に不透明であり、明らかに欠けているのはそのテキストの上で推論する能力です。これはまさにO1やDeepSeekなどが試みていることです。
この全てを見る一つの方法は、ある意味で物事は正しい方向に進んでおり、最終的にはそこに到達するだろうということです。
これらの異なる分野や学派に関する研究が十分にあり、これらのAI推論モデルがそれらすべてを横断し、類似点を見つけたり、進化的アルゴリズムが既存のものを進化させる機会を見つけたりすることができるはずだと思います。
進化論者から始めると、彼らは現時点で他から最も遠い部族です。他の四つ、サポートベクターマシンの人々は、この時点ですべて混ざり合っていますが、進化論者はほとんどありません。しかし、いくつかのことがあります。例えば、敵対的生成ネットワーク(GAN)には、共進化の風味があります。それが彼らが入ってくる可能性のある一つの道です。
また、マルチエージェントシステムという分野全体もあります。一種の強化学習があり、それは遺伝的アルゴリズムのアイデアに非常に近いです。OpenAIはかつて論文を発表し、「多くの問題で驚くべきことに、強化学習の代わりに単純な遺伝的アルゴリズムを使用するとうまくいく」ということを示しました。
これらの多くが起こっていますが、残念なことに問題は、今日かつてないほど多くのAI研究がありますが、そのほとんどが非常に狭い前線に沿ったものだということです。一般的な見解は、「続けてこれを突き詰めていき、結局多くのことを行えば問題を解決するだろう」というものです。私はそれほど確信していません。なぜなら、「9人の女性が1ヶ月で赤ちゃんを作ることはできない」という言い回しがあります。一般相対性理論に到達するために、千人のランダムな物理学者が一世紀ただ自分たちのことをしているだけでは機能しません。あるいは、私がよく言う別の言い方では、「AIを解決することはスプリントではなく、マラソンだ」ということです。本当に深く進む必要があると思います。それを試みる人々はいますが、十分ではないと思います。そしてそれを行えば、これらの人々がただ無意味に回っていただけで、それらすべては歴史のゴミ箱に捨てられることが分かるでしょう。残念ながら、それがそうなるでしょう。私はそれらのうちどの部分にいたいのかを知っています。
私は先週、量子コンピューティングについて話していました。それは進んでおり、実用的な量子コンピュータに到達するまでの時間は短くなっているように見えます。それがこれらのことを進展させると思いますか?量子コンピュータでは、量子物理学とニュートン物理学が交わる場所を理解し始めるでしょう。例えば、ウイルスがタンパク質に付着するとき、量子レベルでは何が起こるのか。現在、それについての考え方は非常にニュートン的で、形状などで考えていますが、量子コンピューティングの進展がこれらの問題の一部に対処する可能性があるかどうかについて考えていますか?
量子コンピューティングの約束は、古典的なコンピューティングよりも指数関数的に速く問題を解決できるということです。それが実現すれば、AIでそれを使うことができます。私たちは宇宙で最大の量子コンピューティングの消費者になるでしょう。だから、これは量子コンピューティングの第一の約束です。
しかし、いくつかの注意点があります。その一つは、様々なことをハイプしている人々ではなく、真面目で知識のある量子コンピューティングの人々に話すと、古典的なコンピュータと同じような汎用量子コンピュータが存在する可能性は非常に低いと言うでしょう。それは起こりそうにありません。特定の問題のための量子コンピュータがあるかもしれませんが、それが望みです。そしてそれらの問題のいくつかはAIにあります。
実際、量子コンピューティングの一種は、ローカルな最適解からトンネリングすることによってグローバルな最適解を見つけることに関するものです。D-Waveという会社がこれを行ったと主張しており、それを使うことができるかもしれません。それが約束です。
しかし、それが実現するかどうか、それがどのくらい早く実現するかについては、まだ分かりません。私は量子コンピューティングで何が起きているかを大まかに追跡していますが、それは主に好奇心からであり、それ以上のものではありません。量子コンピューティングは非常に難しい問題であり、賭けを置くのは難しいです。
量子コンピューティングには、重ね合わせの中のすべての計算があり、そこに魔法が起こるという考えがありますが、エラー修正が本当に問題です。全体が非常に脆弱であり、それを堅牢にすることは非常にコストがかかります。堅牢な量子ビットを持つには千量子ビットが必要で、超低温が必要です。最初の本物の量子コンピュータで何か有用なことをするものは、何年も、おそらく数十年も先のことです。
AIの人として、私の態度は「彼らに大成功を願う」というものです。しかしAIの私たちはその成功に依存することはないと思います。ある意味で、AIは指数関数的により速い計算を行う別の道についてのものです。それは古典的なアルゴリズムについて賢くなることです。実際、一部の人々の疑念であり、デミスが先日話していたものは、多分AIやコンピュータサイエンスでより一般的に、量子コンピューティングが必要なくなるほど十分に賢いアルゴリズムを発見するかもしれないということです。その指数関数的な利益を、古典的なコンピュータを使用する他の方法ですでに持つことができるかもしれません。
また、量子機械学習などについての論文もたくさんあります。AIに関連する可能性のある量子コンピューティングの別の興味深い方法があります。それは、研究分野が影響を与える方法です。それは彼らが試みていたことではなく、失敗したが、人々が他の場所で有用だったアイデアを思いついたからです。量子コンピューティングが最終的に機械学習で有用になるアイデアを生み出す可能性は十分あります。世界にはほとんど潜在的に機械学習で使用できないものはありません。それが量子コンピューティングで起こる可能性を見ることができますが、今のところ、実用的なコンピュータのフロントであれ、そのフロントであれ、AIの人々が注意を払う必要があると思われるものは見ていません。それにもかかわらず、イリヤ・サツケヴァーが彼の新しい会社で行っていることは、AIのための量子コンピューティングだという噂を聞いています。見守りましょう。
あなたが本を書いてから、AIは劇的にそして非常に急速に進歩しており、鈍化している様子はありません。2、3ヶ月前には全てが鈍化していると言われていましたが、私はそれが鈍化しているとは思いません。マスターアルゴリズムにどれくらい近づいているかについて、あなたの頭の中にはタイムラインのようなものがありますか?
素晴らしい質問です。私の答えは、私たちはほとんどそこに到達しているかもしれないし、まだ遠いかもしれないということです。本当に誰も知りません。正確な予測を与える人は、それを作り上げているか自己欺瞞しています。
技術はS字カーブで進歩します。最初は遅い進歩、次に速い進歩、その後再び遅くなり、プラトーに達します。S字カーブの初期部分は数学的には指数関数のように見えますが、人々が忘れるのは、減速が来るということです。最初は収益が増加する段階があり、これが興奮する段階です。その後、収益が減少する段階があり、これはほとんどの技術がその存在のほとんどの時間行き詰まっている段階です。例えば、車、飛行機、テレビなどです。
過去10年間のAIで起きたことは、明らかに私たちはその上昇カーブにいたということです。そして数年ごとに、人々は「ああ、物事は今鈍化している」と言います。実際、2017年にICLEARでイリヤと会話したとき、彼は「ああ、ディープラーニングは鈍化している。もう進歩はない」と言いました。私は「そう急がないで。新しいことが起こるだろう」と言いました。そして一ヶ月後、トランスフォーマーの論文が出ました。
今日、物事が鈍化していると主張することもできます。特に物事が鈍化している様子は、同じ量の進歩を生み出すために指数関数的により多くのリソースが必要になるということです。実際、OpenAIやAnthropicの人々は「そうです、そういうことです。10億ドルをくれて、今度は100億ドルが必要で、明日は1兆ドルになるでしょう」と言っています。それは私にとっては警鐘です。その基準では物事は鈍化していますが、それは普通のことです。
問題は、私たちにもう一つの後押しを与えるような新しいアイデアがあるかどうかです。例えば、AlexNetはそのようなアイデアの一つでした。それは本当にGPUで物事を行うことだけでしたが、それは公正なゲームです。トランスフォーマーは別のアイデアであり、多くの点で、トランスフォーマーが登場してから(それはほぼ10年前です)、あるいはアテンションが登場してから(アテンションは今10年経っています)、AIに主要な進歩はなかったと言う人もいます。
誰が知っているでしょうか?これは予め定められたものではありません。私たち研究者はアイデアを考え出さなければならず、もしそうすれば、指数関数はどこかで飽和するまで継続するでしょう。問題は、それがもうすぐ飽和するのか、そして1年、10年、100年飽和するのかということです。
私の希望は、いいえ、私たちはプラトーに達しようとしているわけではなく、過去10年の速い進歩は次の10年と比べれば遅く見えるだろうということです。それを頭に入れておいてください。しかし、これは魔法では起こりません。それは主要な新しいアイデアを必要とします。O1やDeepSeekを行っている人々に敬意を払いますが、それらは調整に過ぎません。それらは素晴らしく、完全に良い仕事ですが、指数関数の次の段階を与えるものではありません。
サム・アルトマンは、彼が保護しようとし、興奮を生み出そうとする独自のモデルを持っていますが、彼の話を聞くと、この推論は発展し続けると感じられます。ジェフ・ヒントンの話を聞くと、彼はすでにこれらの事前学習された生成モデルがある程度意識を持っていると考えています。彼がこれらのモデルに見いだすものは信じられないです。また、リッチ・サットンのチーム、イリヤのチーム、そしてこれらの人々すべてが、AGI(人工一般知能)から ASI(人工超知能)へとジャンプし始めています。一般知能さえ心配しないでください。
私はジャーナリストで、2017年に最初にあなたに会ってから、この分野が何をしてきたかを見てきました。もし私たちが超知能に到達すれば、基本的にマスターアルゴリズムを持つことになりますね?
マスターアルゴリズムを持てば、定義上AGIを持ちます。そうでなければ、それはマスターアルゴリズムではありません。そして人々が指摘し続けるように、それを持てば、それを拡大するだけで、人間の知能の10倍、1000倍、100万倍の知能を持つことができます。その部分は簡単です。難しい部分はそのマスターアルゴリズムに到達することです。
あなたがサム、ジェフなどの人々に言及しましたが、これらはすべて異なるケースであり、彼らが言うことには異なる理由があり、それを少し理解することは良いことです。サム・アルトマンは非常に賢い人ですが、彼はベンチャーキャピタリストであり、素晴らしいハスラーです。資本を調達し、機会を嗅ぎ分けるのが上手です。人々を説得することも上手です。しかし、彼の技術的知識は、彼自身も認めると思いますが、あまり深くありません。
彼が数年前にリード・ホフマンとのインタビューで「トランスフォーマーはそれをしないだろう」と言ったのを覚えています。彼は今そのようなことは言いませんが、それは都合がいいからです。彼は何か他のものが来なければならないと言いましたが、それが何かは知りませんでした。私はそれが真実だと思います。ただ、今日彼がそう言うのは聞かないでしょう。
多くの人々にとって、そしてサムもその罠に部分的に陥っていると思いますが、これらのアルゴリズムが行っていることを見て、非常に興奮し、「超知能はもうすぐだ」と言うのは簡単です。アルゴリズムが実際よりもはるかに多くのことをしているように見えるということは、機械学習で学ぶべき教訓です。それが驚くべきことをする例を見つけて「わあ、超知能だ」と思いますが、子供でさえしないであろう愚かなことをする他の例もあります。そしてその問題はまだ私たちと共にあります。あまり熱中しすぎないようにする必要があります。
ジェフ・ヒントンは、ニューラルネットワークができることについて永続的に楽観的過ぎる人です。それが彼を40年間続けさせてきたので、彼に敬意を表します。一方で他の人々は諦めました。しかし彼は常に過小評価していると思います。彼はマスターアルゴリズムを信じています。リッチ・サットンも同様です。実際、私は本を書いていた時に多くの人に尋ねました。そして最も強い「はい」を得たのはジェフとリッチでした。もちろん彼らにとってそれは異なります。
しかし、私はジェフが信じるマスターアルゴリズムと脳の働き方は単純すぎると思います。実際、私はジェフが人間の脳の真の複雑さ、あるいは同じことを行う単純化されたアルゴリズムさえも大幅に過小評価していると思います。
10年ごとに、そして実際にはこれは分野でよく知られたジョークであり、彼自身も自己卑下の方法でそれを言うでしょうが、彼は常に「私はちょうど脳の仕組みを理解した。私たちは意識などの境界にいる」と考えています。ある意味で、チャットGPTについての彼の最新の発言は、ジェフと完全に一致していますが、残念ながら、それはジェフがそこにあるもの以上のものを見ていて、人間レベルの知能への道の長さと難しさを過小評価していることとも完全に一致しています。
リッチ・サットンも、ニューラルネットワークではなく強化学習を中心に、彼自身の方法でそのような傾向があります。彼はある意味でジェフのように非常に成功しましたが、リッチはそれほどではなかったので、有名な「苦い教訓」を学び、今は少し賢くなっていると思います。
しかし結局のところ、AIの創設者たちは狂っていました。1950年代には、10年以内に人間レベルの知能を持つと言っていました。彼らは狂人でした。しかし、その狂人たちに感謝します。なぜなら彼らが分野を始めたからです。ある意味で、そのような狂人や楽観的な人々を持つことは良いことです。しかし、投資家として何に投資するかを決めるなら、ジェフやリッチやサムのような人々が言うことを大きな塩粒で受け取るでしょう。
しかし、今では音声や画像などのモデルがあり、それらは単一のモデルではなく、モデルの集合体ですが、それらはすべての異なるモダリティを扱い、それらすべての異なるモダリティで回答を生成することができます。それは確かに90年代や2000年代初頭よりもはるかに一般的です。AGIは一瞬で到来するものではなく、スペクトルがあり、私たちはそのスペクトルの初期部分にいるように思えます。これらのモデルはマルチモーダルであり、ある程度の推論能力を持っています。そのように見ると、進展があり、私たちはそのスペクトルに沿って進んでいます。
そのポイントをさらに強く作らせてください。これらはモデルの集合体ではなく、トランスフォーマーベースのモデルの一部は、同じモデル、まったく同じモデルが音声、ビデオ、テキスト、スピーチなどすべてを行います。これは驚くべきことです。これは本当に私たちがこれまでに得た最もマスターアルゴリズムに近いものであり、90年代の場所とはまったく比較できません。90年代、私は500例のデータセットで医療診断やクレジット割り当てなどを学習しようとして博士論文を書いていました。今は完全に異なる場所にいます。
それを全て言った上で、あなたは重要な点を指摘しました。AGIは一点ではなく、人間の知能はさまざまな能力の集まりであり、その一部ではコンピュータはすでに人間よりもはるかに優れています。彼らは人間よりもはるかに速く数を加えることができ、チェスをより上手にプレイできますが、他の点では遅れています。AGIに到達する点や超知能に到達する点はないでしょう。最終的には、これらの各次元でどれくらい進んでいるかを考える必要があります。それらの次元のいくつかでは、私たちは進んでいます。
しかし、大きな注意点は、私のハウスボットはどこにもないということです。AGIからは程遠いです。人間をそれらのすべてのことで打ち負かした時にAGIに到達したと言えるかもしれませんが、スペクトルの二つの端を取ると、アインシュタインを生み出すことについては遠いです。誰よりも多くを知っているこれらのシステムがありますが、アインシュタインはいません。また、メイドは信じられないほど洗練されたシステムですが、今のAIは模倣できません。ベッドを作り、食器洗い機を入れるなど、私たちはそれを持っていません。
私はロボット工学者ではありませんが、ロボット工学の人々と話します。メディアで聞くかもしれないことにもかかわらず、現在、次の5年か10年のうちにあなたの家にハウスボットを持つための道はありません。
1時間を超えました。ここで終わりにしましょう。このシリーズを本当に楽しみ、リスナーが多くを学んだことを願っています。あなたは新しい本に取り組んでいますか?
私は書きたい本がいくつかあり、それに向けてメモを取っています。しかし、最近「2040: A Silicon Valley Satire」という本を出版しました。現在の私の主な仕事は研究を行うことです。私は大きな違いを生み出すと思うものを持っています。それを準備して発表し、その結果を見た後、次の本を書くつもりです。
Thumaは家具とホームグッズを専門とするモダンデザイン企業で、本質だけを残して不要なものを排除することでオアシスを作り出します。プレミアム素材と意図的なディテールで高級なベッドを作るThumaは、私の家の再編成プロセスにおいて、リノベーションとリデザインの重要な候補として真剣に検討しています。Thumaは形、職人技、機能性の完璧なバランスを組み合わせており、17,000以上の5つ星レビューがあるThumaベッドコレクションは、シンプルさが最も洗練された形であることの証明です。日本の継手技術を使用し、無垢材から精密にカットされたピースで作られ、静かで安定した土台と、クリーンなライン、微妙な曲線、ミニマリストのスタイルを持っています。Thumaベッドコレクションは、どんなデザイン美学にも合う4つの特徴的な仕上げで利用可能で、ヘッドボードのアップグレードも希望に応じてカスタマイズできます。最初のベッド購入で100ドル引きを受けるには、thuma.co/ionaiにアクセスしてください。


コメント