バイオロジーに訪れたWaymoの瞬間:Ginkgo BioworksのJason Kelly

バイオテクノロジー
この記事は約42分で読めます。

この動画は、Ginkgo BioworksのJason Kellyが、AIと自律実験室によって科学研究、とりわけバイオテクノロジーとバイオ医薬品産業の根本がどう変わるのかを語った対談である。従来のIT革命が生命科学にほとんど影響を与えなかった一方で、今回のAIは実験そのものを高速化・自動化し、研究コスト構造や知識創出の仕組みを一変させる可能性があるという主張が中心にある。設計、実験、データ共有、発見の速度が再定義されることで、創薬だけでなく人類全体の科学進歩のペースまで変わりうるという、極めて大きな視座が提示されている。

Biology's Waymo Moment: Ginkgo Bioworks' Jason Kelly
Jason Kelly founded Ginkgo Bioworks in 2008 with a simple but radical idea: DNA is code, and cells are programmable. Six...

バイオとAIが交差する転換点

これまでのテックの革命は、インターネットにしても、ソーシャルメディアにしても、何であれ、バイオテクノロジーやバイオ医薬品業界にとっては完全に無意味でした。もちろん、多少コミュニケーションが良くなるとか、そういうのはあります。ですが、せいぜい裏方のITの雑務みたいなものだったんです。こんなものではありませんでした。

でも今回は違います。これは実際に、私たちが科学をどうやるかという根本を変えるものです。そして、バイオ医薬品のような大きな科学産業は破壊的な変化を受けるはずです。私は本気でそう信じています。ここ30年のテックでは、そんなことは起きませんでした。

今日は、Ginkgo Bioworksの創業者兼CEOであるJason Kellyをお迎えできて本当にうれしいです。ご参加ありがとうございます。

ええ、ありがとう、Anya。

あなたは2008年にGinkgo Bioworksを始めて、生物をプログラム可能にすることを目指しましたよね。そしてプログラム可能という言葉は、AI時代になってまったく別の意味も帯びるようになりました。今日はその話ができるのをとても楽しみにしています。ここまでの歩みをまず教えてもらえますか。

Ginkgoの歩みを手短に話しますね。そう、創業は2008年です。ただ、実際に資金調達をしたのは2014年になるまでありませんでした。

なので、4年から5年は自己資金でやっていたんです。バイオの人でなければ意味がわからないかもしれませんが、バイオテックのVCというのは、たとえば若い人をあまり好まないんです。私たちは大学院を出たばかりで会社を始めました。しかも2008年で、薬を作ろうとしていたわけでもない。だから、まったく投資不可能な会社だったんです。

その最初の6年間は、フルタイムで会社に集中していたんですか。

もちろんです。

ええ、もちろん。基本的には、助成金に応募したり、政府のグラントを取ったり、受託サービス業をやったりしていました。かなり過酷な立ち上がりでしたね。

それで2014年の夏に、Sam Altmanが、今や超有名人ですが、YCを引き継いだ直後にブログ記事を書いたんです。シリコンバレーのモデルは、ディープテックにも通用すると思う、たとえば核分裂やバイオテクノロジーや材料科学にも使えるはずだ、という内容でした。

そこで私は彼にメールを書いたんです。ありがとう、みたいな感じで。私たちはもう創業5年目で、ボストンのラボに15人いて、YCにはまったく合わないような会社でした。でも、この文章は砂漠の中のオアシスみたいでした。こんな変な会社に投資してくれる人なんて誰もいなかったので。

すると彼が、いや、会いに来るべきだと言ってきたんです。そこでサンフランシスコに飛んで会いに行ったら、君はYCをやるべきだと言われて、私は、じゃあYCをやるべきなんだな、となったわけです。

それでYCに参加しました。だから、Ginkgoが資本を持った会社として本格的に動き始めたのは2014年から、と区切るならそこですね。

Ginkgoのミッションとプロダクトの変遷

2014年以降、プロダクトはどう変わってきたんでしょうか。

ミッション自体は変わっていません。でも、プロダクトは本当にいろいろな道を通ってきました。

私たちはずっと、生物を工学的に扱いやすくしたいと思っていました。それが最初の発想です。

ちょっと待ってください。私の記憶では、生物をプログラム可能にするという言い方だった気がします。今の、生物を工学的に扱いやすくするという表現は、少しニュアンスが違うようにも感じますが。

私がSequoiaと話していたときからずっと、コンピューターサイエンスのラッパーをかぶせて、生物を工学的に扱いやすくする、という感じではありました。だから、それがずっと私たちのミッションではありましたよ。

なるほど、わかりました。

でも、そのアナロジーは本質的に正しいんです。DNAはコードなんですよね。0と1ではなく、A、T、C、Gですが。コンピューター以外で、コード化されたプロダクトと呼べるものは、実はバイオテクノロジーくらいなんです。

なのでGinkgoの核にある考え方は、DNAコードを設計できれば、細胞に何かをさせるようプログラムできる、というものでした。細胞は、コンピューターのようにプログラム可能なんです。ただしコンピューターが情報を動かすのに対し、細胞は原子を動かします。

つまり、細胞で好きなものを作れるようになれば、それは最終的に巨大な市場、巨大な機会になると私たちは考えています。でも課題は、現時点で私たちの細胞をプログラムする能力がとても低いことです。では、それをどう改善するか。それがGinkgoの背後にある核心的な発想でした。

プロダクトそのものは、時間とともにどう変わってきたのでしょうか。

最初の市場参入のやり方は、私たちがファウンドリーと呼ぶものを作ることでした。要するに、バイオテクノロジーに伴うラボ作業を自動化する中央集約型の研究所です。

ここでもコンピューターサイエンスの人向けに言うなら、DNAコードをコンパイルしてデバッグするには、物理的なプロセスが必要なんです。A、T、C、Gといっても、実際にはホスホロアミダイト化学で欲しいDNA断片を合成して、それを細胞に入れて、細胞を育てて、テストしなければならない。これがコンパイルとデバッグのサイクルに相当します。

つまり、技術的に取り組んできたものの半分は、どうすればそれをもっと安くできるか、でした。上達したいなら、より多く、より速く、より安く試さなければなりませんから。

そしてもう半分は、どうすればプログラミング自体をうまくできるか、です。つまり、ラボで試す設計を選ぶとき、それが狙い通りに機能する確率をどうやって上げるのか。要するに、生物の設計をうまくし、試すコストを下げる。この2つが、この15年間ずっと私たちの双子の活動でした。

AIの時代になると、その両側面に機会が見えてきます。今に至るまで、やり方は少しずつ変わってきましたが、2つの半分があるという理解で合っていますか。

だいたいそうですね。設計の部分はソフトウェア寄りに聞こえますし、テストの部分はソフトウェアに制御されたハードウェア寄りに聞こえます。

まさにその通りです。

生物設計と実験実行という二つの問題

今、設計側をリードしている人たちには、たとえばChai Bioのような会社があります。タンパク質モデルをやっていますし、Arc Instituteの人たちは、今日ちょうどEVO 2というゲノムモデルの論文を出したばかりです。今では、生物設計の問題を解こうとしているコミュニティ全体があるんです。AIを使って。

ここ2年のGinkgoにおける大きな変化は、私自身はその問題に取り組むのをやめたことです。私たちなりの解法もありましたが、細胞を設計するのは難しいんです。とても厄介です。

なので今は、問題のもう半分、つまりラボで試すことをどうやってより安く、より速くするか、という側に集中しています。そして、どうすればそこにAIモデルを使えるのか。OpenAIと一緒にやったプロジェクトもありますので、その話もできます。

そのいわばバックエンド側に注力しているプレイヤーは、他にもいるんでしょうか。設計をフロントエンド、テストをバックエンドと考えると、その部分の市場に似たアプローチで取り組んでいる会社はありますか。

もちろん、みんな何らかの形ではやっています。でも、同じ発想でそこを狙っているかという意味ですよね。

新しい会社はいくつかあります。たとえばこちらにはMedraのような会社があって、ロボットアームを使って加速しようとしています。

ライフサイエンス機器業界もありますが、シリコンバレー的な姿勢ではないと言えます。つまり、物事の根本を変えようとしているわけではなく、これまで通りにやっている人たちに次の道具を提供しているだけなんです。

私たちは常に、何か新しいプラットフォームはないのか、と問いかけてきました。エレクトロニクスにおけるIntel初期の平面型半導体製造へのジャンプのようなものはないのか。全部をまったく違うやり方でやることで、将来的に大幅によくできないか。そこが、この10年間Ginkgoがユニークだった点だと思っています。

この事業のこちら側に注力することになったきっかけは何だったのでしょう。

この半分、つまり実験側ということですよね。

私は、こっちは工学の問題で、あっちは科学の問題だと思っています。

なるほど。

最初は両方に取り組みましたし、その分かなり痛い目にも遭いました。でも工学の問題のいいところは、最終的には粉々に砕けるまで押し切れることです。科学の問題は、当たれば素晴らしいですが、はるかに予測不能なんです。

今のGinkgoには、この問題に本気で取り組み、最後までやり切るだけの資源が揃ってきました。だから今はこっちを向いているんです。

Arc Instituteのような取り組みを含め、科学側のエコシステムは今どの段階にあると思いますか。論文以外の意味ある成果を、もうすぐ生み出し始めるのでしょうか。

いい質問ですね。

なぜ生物学は難しいのか

生物設計が難しい理由は、生物という基盤そのものがすごいからなんです。細胞の中で起きていることを考えてみてください。あれは実質的に、Intelや今ならNVIDIAやTSMC級の原子配置を、ほとんどただ同然でやっているんです。

分子を組み立てることができて、自己修復し、自己複製もする。物理的な基盤としては狂っているほどすごいんです。40億年の進化の産物ですから。

つまり、細胞に埋め込まれた複雑さは、人々が思っているよりずっと大きいと思います。そこには長い行軍があります。

ただその一方で、今ある薬の半分以上はバイオテクノロジーで作られています。がんも治します。今の限られた道具しかなくても、すでに巨大な価値は生まれているんです。だから、問題全体を解かなくてもいいんです。今日のやり方より少し良くなるだけで、大きな価値は作れます。

その意味で、タンパク質モデルにはすでにかなり近い将来の機会があると思います。実際にそうなっていますよね。ChaiはLillyと大きな契約を結びました。かなり現実的な機会が、すでに近いところにあると思います。

OpenAIとの共同研究と自律実験室

OpenAIと、そしてSam Altmanの話が出ましたが、最近彼らとの提携と研究成果を発表しましたよね。その話を詳しく聞かせてください。

ええ、これはかなり面白いと思います。AIを追っている人にとっても、かなり刺激的です。

私たちがやったのは、自律ラボと呼んでいるものを使うことでした。ラボ側の効率を本当に上げたければ、人間を実験台からどかさなければなりません。

これはバイオテクノロジーに限らず、かなり広く科学一般にも言えることですが、理論を除いた科学、つまり数学のように全部をコンピューター上でシミュレートできる領域ではなく、私たちが実際にお金を使っている科学の大半は実験研究なんです。

新しいことを知りたければ、結局は世界に手を突っ込んで、つついてみないといけない。仮説は持てますが、本当に確かめるには試すしかありません。だから、私の見るところ、前に進めるのは実験科学なんです。

そこで問われたのは、ロボットラボを与えたら、推論モデルは実験科学の仕事をできるのか、でした。答えは、ええ、かなりうまくできた、です。

プロジェクトの内容を説明すると、セルフリー合成という生化学の問題を使いました。

DNAの断片、A、T、C、Gがありますよね。これを今あなたの細胞に入れれば、高校で習ったセントラルドグマの通り、DNAがRNAになり、RNAがタンパク質になります。つまりDNAを細胞に入れると、タンパク質ができるんです。

セルフリーというのは、細胞を壊して中身だけ取り出し、それを試験管に入れて、そこにDNAを加えるやり方です。細胞の中身は残っているので、タンパク質が作られます。

ある意味、世界最小の3Dプリンターみたいなものですね。科学者はこれを使っていろいろ最適化するんですが、普通は非常に高価です。

それで、昨年8月にStanfordのMike Jewettの研究室から、セルフリータンパク質合成をどれだけ安くできるかのベンチマーク論文が出ました。そこで私たちは、モデルでそれを最適化してみよう、と考えました。

各ラウンドでは384ウェルプレートを使いました。プレートの各ウェルは小さな液体のカップみたいなもので、その中で実験できます。そこに3万件の実験をやらせたんです。そして実験が終わるとデータを返し、次の実験セットを設計させる。

その4ラウンド目で最先端を超えました。6ラウンド目では、最先端を40%上回りました。

それはすごいですね。その40%向上というのは、単にサイクルタイムが速かったからなのか、それとも実験設計がより賢かったからなのか。どうやって最先端を超えたのでしょう。

ここが私の大きなポイントなんです。これから科学は違うやり方になると思っています。少なくとも、私が見始めているものを前提にするなら。

実験科学において科学者がやっていることは何か。まずアイデアを思いつき、そのアイデアに関する問いを立てる実験を設計します。そして実験を回し、データを持ち帰り、それを解釈し、学んだことに基づいてもう一度つつく。何度かそのプロセスを繰り返して、たとえばこのがんはこう働いているとか、この材料はこういう性質だとか、そうした理解にたどり着くんです。

そのサイクルは、結局ロジックなんです。生物をモデル化したり、何かをシミュレートしたりする必要はありません。あちら側の問題ではないんです。必要なのは、ある意味プログラマーのように論理的であること、いくつかの手順を回し、データ解析をし、結論を導くことです。

だから、モデルがやったのはそれだけです。特別に何かすごいことをしたわけではありません。本当に突破を可能にしたのは、ものすごく賢かったからではなく、実験を実際に回せたからなんです。そして、科学者のように実験設計ができるのかという問いに対する答えは、ええ、余裕でできた、でした。

ここから、アメリカで科学をどうやるかについて、本当に面白い問いが開くと思っています。

科学のやり方そのものが変わる

たしかに、将来の姿として、科学的方法、つまり設計や仮説検証などは推論モデルが行い、実際のテストは自律ラボが行う、という世界は想像しやすいです。その未来像のどこに問題があるのでしょうか。そして、それが正しい未来像だとしたら、どれくらい先の話だと思いますか。

私は、こうやって進むと思っています。本当にそう思います。今の平均的な科学者より、私はこの点ではかなり攻めた見方をしていると思います。

では、正面から競争させたらどうなると思うのか、その上で平均的な科学者がどう反論するのかも教えてください。

科学者が反発するのは、このモデルが自分と同じくらい、あるいはそれ以上に創造的になれるなんて話に対してでしょうね。それについては、私も気持ちはわかります。

私は、もっと創造的になるとは言っていません。

いや、ものすごく創造的になると言っていますよ。

いやいや、それはシリコンバレー的な言い方でしょう。私はボストンに住んでいますから。

私が言いたいのは、24時間365日ラボを回せるということです。

もうひとつ例を出しましょう。今の科学のやり方では、あなたにもラボがあり、私にもラボがあり、みんな同じ分野に取り組んでいます。たとえばAlzheimer’sの研究をしているとしましょう。あなたにはあなたの仮説があり、私には私の仮説がある。それぞれが独自に追いかけ、1年や2年かけてデータを集めます。そして最後に見えたことを論文にまとめて発表し、それをみんなが読むわけです。

つまり、私たちは1年か2年ごとに情報交換しているだけなんです。しかも、あなたが行ったすべての実験を私は見られません。2年間であなたが見たと考えるものを蒸留した出力だけを受け取っているんです。

それを、今回のOpenAIプロジェクトで見たことに基づく、これから起こるべき姿と比べてみましょう。

これからは、私たち全員のラボにあるあらゆる機器を備えたロボットラボがあるべきです。つまり、どんな実験でも回せるラボです。実現は技術的に難しいですが、そこは一旦解決済みとしましょう。

その上に、100人のAI科学者を乗せるんです。全員がAlzheimer’sについて別々の仮説を追いかけます。そして、あなたのラボでやるのと同じように実験を回す。でもその日の終わりには、どんな実験をし、そこからどんな生データが出たかを、ほかの100のAIに渡します。毎日です。毎日です。

そうすれば、互いに学び合うことができます。仮説は違っていても、同じ領域で働いているわけですから。たとえば、あなたの実験が仮説に反する結果になったとしても、そのデータは私の仮説には重要かもしれない。普通なら、私はそれを見ることすらありません。

そしてこの仕組みはそのまま動き続け、毎週、ラボノートの要約やミニ論文のようなものを吐き出します。100のAIがその週に何を突き止めたのかを、私たちが読んで使える形で出してくれるんです。そこから、これは切ろうとか、こっちは伸ばそうとか、人間側が指示もできます。

だから第一の不公平な優位性は、情報共有と、大量のプロジェクトをまたぐ広い文脈を扱う能力です。AIは、私たちが今やっているやり方よりも、社会的な構造そのものが違うレベルで優れていると思います。

AI科学者が持つ二つの不公平な優位性

二つ目の不公平な優位性です。科学にお金をどう使っているかを見てください。NIHの間接経費がどうのとか、大学のオーバーヘッドがどうのとか、いつも話題になりますよね。では間接経費とは何か。要するに、手作業のラボに払っているんです。

ラボは24時間365日そこにありますが、実際に使われるのは週5日です。設備もある。でも私たち3人のラボには、だいたい同じ設備がそれぞれ別々に置いてあるんです。みんな同じ仕事をしないといけないから。でも設備を共有しません。私のラボのドアの向こうにある機械は私しか使わないし、あなたのラボの機械はあなたしか使わない。だから設備稼働率はとても低いんです。

研究費の使い道を見ると、バイオ医薬品が年間600億から800億ドル、NIHが400億ドルくらい使っていますが、そのうち試薬に使われるのは5%未満です。ほとんどすべてがオーバーヘッド、人件費、規制対応、ラボスペースです。

もし効率的に運用しているなら、NIHの研究プログラムは間接経費や人員数で予算を組むのではなく、試薬ベースで予算化されるべきです。科学の従量課金って、本来そういうものだからです。実験するなら、化学物質を消費し、プラスチックのプレートを使い、物理世界で原子をいじるために何かを燃やす。それが支配的なコストであるべきです。でも現実は逆です。5%未満なんです。

だからAIたちのもうひとつの優位性は、ロボットラボを動かせるなら、研究プロジェクトのコストの90%が試薬になる世界で研究できるということです。それは、今のやり方と比べて、1ドルあたりのデータ量が10倍になるのとほぼ同じです。

この二つを組み合わせると、たとえAIのほうが科学者より賢くなくても、むしろ多少劣っていたとしても、勝つと思うんです。本当に勝つと思います。

だから、NIHの資金配分を見直さなければいけない。バイオ医薬品企業のR&D責任者は全員これを気にしなければならない。そして、ここには盲点があります。

私たちはYC出身で、テック界隈の人もたくさん知っていますし、ずっとその周辺にいたんですが、これまでのテック革命、インターネットやソーシャルメディアなどは、バイオテクノロジーやバイオ医薬品にとって完全に無意味でした。多少コミュニケーションが楽になる程度で、せいぜいバックオフィスのITでしかなかった。でもこれは違うんです。これは科学のやり方の根本を変える。そしてバイオ医薬品のような大きな科学産業を実際に揺るがす。私は本気でそう信じています。ここ30年のテックにはなかったことです。

計算の革命とコミュニケーションの革命

私たちのパートナーのConstantineがよく使う枠組みがあります。計算の革命とコミュニケーションの革命、というものです。コミュニケーションは情報の分配であり、計算は情報の処理です。あなたが言っているのは、要するに情報の処理のやり方が変わるということですね。これまでの革命はどれも情報流通側の変化で、あなたがやっていることの核心には届かなかった。

まったく同感です。それが本質だと思います。

だから、バイオ医薬品企業のリーダーも、研究大学のリーダーも、そして科学によって製品を生み出したり政府のために研究したりしている人たちも、これを無視してはいけません。AIは、本当に別物です。

私は15年、20年この界隈のそばにいましたが、テックの人たちがようやく本当に面白いものを作った、と感じたのは初めてです。

要するに、AIこそがクラウドラボを本物にする触媒だと考えているわけですね。クラウドラボ自体は前からありうる話だったけれど、誰も本当に移行しなかった。AIがその移行を促す理由になる、と。

ええ。クラウドラボの話もできますが、その前に自律ラボの話をして、それからクラウドのほうにつなげましょう。

なぜ自律ラボは難しかったのか

なぜ難しかったのか。平均的なテックの人が今の科学を見たら、博士号を持つようなとても優秀な人たちが、かなりの給料をもらって、ラボベンチの前に立って手で液体を移しているわけです。

私はMITでバイオエンジニアリングのPhDをやりましたが、5年間ひたすら手で液体を動かしていました。本当にそればかりです。学部時代の友人たちなら絶対にやりたがらないような作業です。完全に手作業です。

でも、科学の最先端で勝負したければ、物理的な作業をやらなければならない。だからみんなそういう技能を身につけるんです。

それでシリコンバレーの人たちは、じゃあ自動化すればいいじゃないかと言います。でも、なぜそれが難しいのか。

答えは、高ミックス・低ボリュームだからです。これはHadrienのような製造側でやっている会社にも当てはまります。工業においても、高ミックス・低ボリュームは歴史的に自動化が難しい。

私はバイオの人に説明するとき、輸送のアナロジーを使っています。縦軸に自動化レベル、横軸に柔軟性、つまりやらせることのバリエーションを取るんです。

輸送でいうと、低ミックス・高自動化は地下鉄です。座っていればどこかへ連れて行ってくれる。でも、その路線の駅に行きたい場合に限る。

低自動化・高バリエーションは車です。ハンドルを握って、ペダルを踏んで、自宅でもスーパーでも好きなところへ行ける。過去100年、輸送システムはそういうものでした。そこにGoogleのおかげでWaymoが出てきて、地下鉄の自動化と車の柔軟性が両立するようになった。

あまりに驚くべきことなので、私たちはもはやそれを自動化とは呼ばない。新しい言葉を作って、自律運転と呼ぶようになったんです。

産業革命以来、私たちは基本的に、バリエーションの少ないものばかりを自動化してきました。織機の時代からずっと。そして、その柔軟性の壁にぶつかった。AIはその壁を越えさせるものです。

だから、産業革命以降の物理インフラのあらゆる部分を、変動性が高まるところへ進むという観点で見直さなければならない。そういうことなんです。

ラボの世界で難しいのもそこです。自動化自体はあります。でも地下鉄なんです。同じ実験を繰り返すだけ。Questのような診断会社には自動化がありますし、製薬のハイスループットスクリーニングにもあります。でも変動には対応できない。

だから、車による移動が全移動距離の99%を占めるのと同じように、ラボの仕事の99%はいまだにベンチで行われているんです。そこを直さなければいけない。

自律ラボに必要な技術スタック

Waymoのたとえは面白いですね。多くの人が実際に体験して、あまりに魔法みたいだと感じるものになりました。あちらにはセンサースイートがありました。レーダー、LiDAR、カメラがあり、その上に認識やプランニングや制御のソフトウェアがあり、それを車両メーカーのハードに接続している。そして現実世界で十分集められない大量のコーナーケースをシミュレーションしなければならなかった。

その単語群を、あなたの世界に当てはめると何になりますか。何が難しくて、どこが大変なんでしょう。

その問いはとてもいいですね。自動化から自律化へ持っていく問題は、分野ごとに違うんです。

車では、難しいのは物理世界が常に変わることです。1マイル走るごとに世界が違う。コーンが置いてあったり、雨が降っていたりする。でもラボでは、それはまったく問題ではありません。私のラボは毎日同じラボなんです。同じ部屋にロボットがいて、何も変わらない。物理環境はまったく変化しません。

だから、自律運転車をもたらしたスタックが、そのまま自律ラボをもたらすわけではありません。私の問題はそこではないんです。

私の世界で難しいのは、科学者の要求のばらつきです。この機器を使いたい、あの機器を使いたい、この組み合わせでやりたい、という変動性です。

そこで大きな問題のひとつは、長い長いしっぽにあるサードパーティ製の卓上機器を何千台分も、一つの巨大なシステムに統合して、自分たちのソフトウェアで全部制御できるようにすることです。これが第一の問題です。卓上機器の統合ですね。

第二の問題は、人間が科学をするときに手で何をしているか、です。少なくともバイオでは、大半は液体ハンドリングです。

ピペットという、ものすごく高性能なストローみたいなものを使って、少量の液体を吸い上げ、正しい場所に出します。でも液体が粘性を持っていて、シロップのようだった場合、人間は目で見ながら、親指で圧力を微調整しているんです。実は液体ハンドリングは思っているよりずっと厄介な問題で、人間はその管理をかなりやっている。

だから大きな塊は二つです。ひとつは液体ハンドリングを解くこと。もうひとつは、サンプルを千種類の機器に送り届けること。この二つを片付ければ、終わりです。

かなり解けそうな問題に聞こえますね。

ええ、めちゃくちゃ解けます。完全に解ける問題だと私も思います。ただ、とにかく仕事量が多いんです。

Ginkgoの現在地

そこは今どのあたりまで来ているんでしょうか。

正直に言えば、ほぼ動いています。

最後の大きな壁は何ですか。

技術的に多くの人がこれを難しくしている理由のひとつは、ハードウェアだけを作ろうとするからです。でも自分たちでは研究をしない。だから顧客のところへ行って、うちのロボットを使いませんか、と聞くことになる。でも顧客はラボベンチに立っていて、いや、いいです、と言う。試したくないわけです。だから採用の壁がとても大きい。

私たちには利点があります。研究を自社でやっているからです。元々の事業が研究パートナーシップだったので、今でもそうですが、Ginkgoにはたくさんの科学者がいます。彼らは言ってみれば、5年から7年前のPalo Altoで、Waymoがポストに突っ込まないかとハンドルの横に手を添えて座っていたGoogleのエンジニアみたいなものです。今の私の科学者たちがそうです。

彼らが自社システムを実際に使って、壊しながら試しています。ボストンの大きなラボには今50台のロボットがあり、これから100台に増えます。そのシステム上で、彼ら自身が仕事を流し込み、いろいろ壊してくれているわけです。

たくさんの仕事を並列で走らせるとなると、スケジューリングがかなり難しそうですね。

そうなんです。実験には厳密なタイミングが必要なので、そのスケジューリングをうまく回すのはアルゴリズム的に難しい。そこはかなりいろいろ解かなければなりませんでした。

それから、ベンチではたまにしか使われない装置を、一日中確実に動かし続けるのも難しい。そういうものを一つずつ潰してきたわけですが、今の時点では工学上の問題ですね。

ピペッティングや液体ハンドリングは解決したんですか。

よかったことに、その問題に取り組んできた業界はもともとあります。液体ハンドリングロボティクスという分野ですね。要は、いろいろな液体ハンドラーを揃えて、扱う液体のクラスがわかっていれば、何とか管理できるんです。

もう一つ大きな問題があります。科学者はコードを書きません。

なるほど。

ここが痛いんです。ロボットを使ってください、と言って、みんながやってきたのはビジュアルプログラミング言語を作ることでした。LabViewみたいなものです。完全にひどいですよ。Pythonは書けないから、フローチャートを組んでくださいみたいな世界です。でも、それすら彼らは嫌がるんです。誰もそんなものをプログラムしたくない。

私たちは、科学者たちが自動化を直接使い始めたことで、この問題に直面しました。たとえば3週間ほど前だったと思いますが、プレートを送ったんです。小さなウェルが並んだ液体入りプレートですね。保存するときは蒸発しないようにシールします。

そのシールされたプレートをピペッティングロボットに送ってしまった。するとピペットヘッドが下りてきて、シールに刺さって止まってしまう。Slackでは、おい何やってるんだ、液体ハンドラーに送る前にシールを剥がせよ、みたいなやり取りになるわけです。

でもこれは、ベンチでは液体ハンドリングの達人である科学者にとって最悪なんです。基本的なミスをしてしまった気分になって、本当に嫌な思いをする。これはUIが悪いということです。

それで私は、これはばかげている、と思ったんです。今後、コードを書くやり方はCloud CodeかCodex経由だけにしよう、と。

つまり、人間はやりたいことを文章でプロトコルとして提出するだけにする。モデルがそれを解釈してくれる。そしてもしモデルがシール付きのプレートを送ったなら、私たちはスキルファイルを更新して、二度と起きないようにする。それで前に進める、と。

これは、科学者にとってロボティクスの使いやすさにおける大きな前進です。Cloud CodeやCodexで起きていることは、そこなんです。

だから、ありがとう、という感じですよ。そういう倒すべき壁がいくつもありました。まだ進行中ではありますが、今ボストンではかなりユニークな実験が起きています。50人の科学者が、一つの大きなロボットシステムにジョブを投げ込んでいる。そんな場所は今のところ地球上のどこにもありません。かなり面白い光景です。

ヒューマノイドは必要か

すごいですね。ヒューマノイドの未来は見ていますか。

いいえ。

本当にですか。ヒューマノイドの一番強い主張は、物理世界は人間型に合わせて設計されている、という点ですよね。今のラボも、人間が歩き回ってピペットを使い、機械の間を移動する前提で作られている。だから、ロボットアームで別の仕組みを作るより、ヒューマノイドに人間のラボ科学者がやっていることをやらせるほうがよいのでは、という考え方もあります。

人間が主にやっているのは、環境の中でサンプルを移動することです。それをやるには、二足歩行でうろつくより、はるかにいい方法があります。トラックに載せればいいんです。私たちのシステムにはきれいなトラックがあって、プレートは非常に高い信頼性で動きます。ミクロン単位の精度で所定の位置に届けられ、アームがそれをつかんで機器に載せる。その問題はそれで消えます。

もうひとつの理由は、長期的には人間こそが制約になるからです。TSMCをヒューマノイドが破壊的に変えるか、みたいな話を考えてみてください。工場に入ってチップをエッチングするのか。そんなわけないですよね。生物学はミクロの世界の学問なんです。人間型にする意味がありません。

ラボの規模は大きくなるのか、小さくなるのか

では、ラボのスケール単位はどう変わるのでしょう。将来のラボは、データセンターのように巨大な施設になるのかと想像していました。

実際には小さくなります。

本当ですか。

もしMerckのキャンパスを歩けば、あちこちの建物に何百万平方フィートものラボベンチが広がっているのが見えるはずです。人間が歩き回って、必要な機器を見つけられるように作られている。稼働率は低いけれど、必要なときには使えるように置かれているわけです。科学者たちは過去2週間考えていたことをもとに実験をしに来る。そういうサイクルなんです。

しかも、今は科学者のいるところにラボが必要です。新しいチームが新しい拠点にできたら、そこにもラボが必要になる。だからラボを複製する。

でも、これからは科学者がコンピューター経由で実験を注文し、その注文が中央集約型の自律ラボに送られる世界を考えてみてください。ローカルクラウドみたいなものです。

そうなると、科学者のいる場所にラボは不要になります。人間が物理的にいるから発生していた重複がすべて消えます。卓上機器の稼働率も、ベンチの20%未満から70%まで上げられる。ということは、設備そのものも少なくて済む。さらに、ヒューマノイドなんて入れなければ、トラックのまわりにぎっしり詰め込めるので、かなりコンパクトになります。

今の時点で、スペースの大幅削減が起きています。大きな節約ポイントのひとつです。

私たちはDepartment of Energyに97台のロボットを売りました。Genesisミッションという、Trumpが進めているAI for Scienceの一環です。あれも、従来のラボ群を同等の機能で作るより、はるかに高密度になります。営業上の売り文句の一つでもあります。支出を減らせますよ、と。前にも言いましたが、お金は試薬に使われているのではなく、基本的には屋根の下の空間、つまりラボスペースと人件費に使われているからです。

Ginkgoのロボット製品とは何か

仕事の単位は何なんでしょう。97台のロボットを売ったというのは、97個の箱を売ったという意味ですか。

そうです。私たちの装置はラックと呼んでいます。Reconfigurable Automation Cartの略です。要するに、卓上機器が一つ入り、6軸のロボットアームが付き、磁気浮上トラックの一部が付いた箱です。ラボとしては特別なものではなく、製造技術から来たかなり伝統的な構成です。

それをレゴブロックのようにつないでいくんです。ボストンのラボでは、それが50台つながっています。サンプルはトラック上を移動し、各機器の前にはアームがいて、それがサンプルを持ち上げて機器に置く。

私たちの販売単位はその箱で、そこに加えて箱ごとのサービス料金とソフトウェアサブスクリプションがあります。そして最終的には、自動化に適した試薬も売りたいと思っています。それが従量課金的な部分だからです。

だから今のビジネスの半分は、自律ラボを作って売ることです。たとえばPacific Northwest National LabやDepartment of Energy、あるいはMerckのような顧客に対して。そしてもう半分は、あなたが言った通り、ボストンの自分たちのラボをクラウドとして運用し、そこから注文を受けて実験を回すことです。

学習データとしての実験結果

トレーニングの話もしたいです。今まで話してきたことの多くは、私には推論のユースケースに見えます。推論モデルを使う話ですよね。でも、あなたたちはここで途方もなく有用なデータセットを生成していますよね。それはモデルの重みに逆伝播されるような形で使われるべきではないでしょうか。

いい質問です。まだわかっていません。

課題にはレベルがいくつかあります。一つは、先ほど言ったような物理作業の提出です。これはラボにも当てはまるし、軽工業のような場にも当てはまると思っています。可変性のある要求をどう扱うか、ですね。

科学者からのさまざまな要求が見えますし、物理機器が壊れるロングテールのエッジケースも見えます。そういうものは、デジタルツインを作れば解決するとか、そういう話ではないと思っています。実際に回してみるしかない。液体のクラスなんてカメラでは見抜きにくいし、いろいろなエッジケースがある。

Waymoが走り回る中で見つけたエッジケースと同じように、私たちも一つのシステム上で大量の可変的な作業を回すことでエッジケースを見つけています。これが一つ目の学習です。完全にモデル学習というよりは、巨大なファイルを蓄積していく感覚に近いかもしれません。

もう一つ大きいのは、モデルが人間の意図を受け取って、それを実験計画に変換する能力です。ここはとても面白い。もし本当にモデルが科学を吹き飛ばすような存在になるなら、そこが核心です。

OpenAIとのプロジェクトのように、どの実験がうまくいき、どれがうまくいかなかったかを見ていけば、理論上は、モデルをより優れた科学者に育てていけます。NewtonやEinsteinのような人たちこそ、最終的に人類を前へ進めた人たちです。それ以外は多くがノイズとも言える。私たちはぐるぐる同じところを回っているだけかもしれない。でも科学だけは違う。

だから、そのループは十分可能だと思います。フロンティアモデルの側も、そこに関心を持ち始めていると思います。私の考えでは、人間の知能で最も重要な部分の一つは、知識のフロンティアを押し広げる能力だからです。

スプレッドシートも便利ですし、歯医者のバックオフィス業務でもお金にはなります。でも、本当に賢くなってほしいなら、ここが最も重要な場所です。

Project Genesisとは何か

先ほどProject Genesisに触れていましたが、それは何で、なぜ重要なんでしょうか。

これはホワイトハウスとOSTP、つまりOffice of Science and Technology Policyから出てきたものです。Department of Energyが運営しています。

それは、Department of Energyが大規模科学プロジェクトをやる場所だからでもあります。Manhattan Projectに始まり、人類ゲノム計画も実はDepartment of Energyのプロジェクトでした。プロジェクト型の大きな科学は、だいたいDepartment of Energyに入るんです。一方、よりオープンエンドな科学はNational Science Foundationですね。

Genesisはプロジェクトです。一般のアメリカ市民に関係するブレークスルーを見たい分野のリストを出しています。バイオ関連もいくつかありますし、材料科学、新エネルギーなどもあります。

そして何をしたいかというと、アメリカの大きな科学の多くを担っている国立研究所にAIモデルを持ち込み、研究を加速することです。向こう数年で科学の加速率を倍にするのが目標です。

方法の一つは、国立研究所に既にあるデータをモデルに入れて、これまでに集めたデータから新しい発見ができるかを試すことです。もう一つは、モデルの向く方向に新しいデータを生み出せる自律ラボを持ち込むことです。

Department of Energyとの契約のときには、Secretary Wrightと私でワシントンで最初の18台のロボットの除幕をして、契約にも署名しました。本当にかっこよかったです。

科学オタクとしては、これは非常に良い一歩だと思っています。近いうちにちゃんとした成果が見えたほうがいい。最終的には議会がこれに興奮して、将来もっと大きなお金をつけないと、本当の大勝負にはならないからです。でも私はこの方向性が好きです。

アメリカにとっての意味

理想的なシナリオでは、それはアメリカに何をもたらしますか。

私は以前、ワシントンでNational Security Commission on Emerging Biotechnologyの議長を2年ほど務めていました。今はIndianaのSenator Youngがやっています。Eric Schmidtが7年ほど前に議長を務めたAIの委員会もあります。

そこで学べるのは、アメリカが戦略的に重要な技術分野でどう競争力を保つか、ということです。サイバーの委員会が15年ほど前にあって、その後AI、そして私たちのバイオエンジニアリング・バイオテク委員会がありました。

ソ連崩壊以降、私たちはある種の不公平な優位を持っていました。自動的に科学で先頭に立てていたんです。科学にお金を出せる国がほかになかったからです。しかも、科学は単に研究費を出せばいいものではありません。科学者も必要で、そのためには研究大学で人材を育てなければならない。かなり特殊なシステムです。

それが以前は通用していました。でも中国の台頭で、もうそうではありません。科学論文の数で見れば、今は中国のほうが多い。

私の世界、つまりバイオ医薬品、ここで言うのは製造ではなく新薬の発見ですが、その分野で見ると、業界の仕組みは、スタートアップが薬を見つけ、それをMerckやPfizerに売る、というものです。彼らが市場化のチャネルを担う。MerckやPfizerは、それを20億ドル、50億ドル、100億ドルで買うわけです。臨床のどの段階にあるかによります。

3年前までは、中国発は5%未満でした。でも前四半期は40%を超えました。これはイノベーションです。製造ではなく、発見の側です。

なぜ中国でそれがそんなに早く伸びているんでしょうか。

科学者の数が私たちと同じくらいいて、彼らも同じくらい優秀で、給料はもっと安い。しかも、科学は手を動かす実験労働に依存しています。つまり中国にもっと多くの実験者がいて、1ドルあたりの研究量が多いなら、研究で勝たない理由が見当たりません。

だから私たちは、実験作業のやり方を変え、AIを持ち込んで知的な馬力そのものを増やさなければならない。そうしないと科学で追いつけなくなります。

技術的な不意打ちは受けたくないですよね。DARPAの起源もそうです。インターネットありがとう、DARPA、という話ですが、そもそもの設立理由はSputnikでした。ソ連が先に人工衛星を打ち上げたことで、二度と技術面で不意を打たれないようにしよう、と作られたんです。

これは表に出にくいですが、とても重要です。技術で驚かされるのは本当に危険です。だから国家安全保障の観点でも、国のためにも、人類全体のためにも、科学的発見の速度は重要だと思っています。

産業界の基礎研究は復活するのか

もうひとつ気になっていることがあります。SamとOpenAIの件もそうですが、あれが始まったときは、ほとんど絵空事の研究プロジェクトみたいなものでした。Bell Labsっぽいというか、まあやってみようという感じで。最初はみんな、なんだこれは、非営利だって、みたいな反応だった。

でも今や、直近のラウンドでいくらでしたっけ、5,000億ドルでしたか。

8,300億ドルです。

そう、それです。要するに、産業界における基礎研究は価値を生みうる、というシグナルに私には見えるんです。そしてここ30年から40年、私たちはそれを忘れていたと思うんです。世の中のお金の多くは、工学、工学、工学でした。たぶん無理だろうけれど、とにかく試してみよう、みたいなことではなかった。製薬は比較的そうでしたが、他の多くの産業は違いました。

これから変わると思いますか。化学業界でも何でも、モデルと科学の加速を前提にするなら、Dow Chemicalのような企業にとって最も価値があるのは、もっと大きなブレークスルーを狙うことになるのではないでしょうか。新しい化学プラントを作るとか、ルイジアナに何か置いたら採算が合うか計算するとかではなく、本気で賭けに出るような。

そういう兆しは見えますか。産業側がまた研究に目覚める、というのが、私の素朴な希望の一つなんです。

Sony、あなたも意見がありそうですね。

いくつかそういう例は出てきていると思います。先ほど出たChaiもそうです。たとえばタンパク質設計のプロセスを根本から考え直しているような、研究側の人たちから出てくる可能性が高いと思います。かなり大きな賭けに出ている人たちですね。

ただ難しいのは、特に今はまだバイオ冬の時代なので、どうやって資金調達するかという歌と踊りです。私たちにはより良い探索エンジンがあります、より良い候補分子があります、とどう証明するのか。バイオの世界には情報の非対称性という大きな問題があって、外からは本当に見えにくいんです。

GoogleのIsomorphicが近い存在かもしれません。あれは実際に深い懐が後ろにあって、その物語を本当に証明する資金があるからです。でも私の賭けとしては、垂直統合された研究チームが大きく振るケースですね。

課題は、そうした会社を最後まで資金で支えることです。

ただ、より多くのブレークスルーや基礎研究が必要かと聞かれれば、答えは疑いなくイエスです。それこそが、このAIの波から生まれる素晴らしい配当の一つだと思います。

第一段階は、さまざまなカテゴリーで人間レベルの知能になることだと思います。そしてそれは、今私たちがやっていることを、より速く、より安く、より良くやる方向に主に使われるでしょう。

第二段階は、個別のカテゴリーごとに一つずつ超知能化していくことです。ブレークスルーはそこから来ると思います。

今は、その移行期にいる感じがします。いろいろな領域で人間レベルになりつつあり、これからいろいろな領域で超知能化が始まり、大量のブレークスルーが見え始める。数か月から数年のスパンで、かなり面白くなってくると思います。

AIは産業の局所的超知能を生むか

具体例を出します。私たちは先日、GoogleのAlphaChipプロジェクトをやっていたチームに投資しました。AIシステムを使って、人間のチップ設計者より性能の高いチップを設計しているんです。

だから、産業のさまざまな片隅に局所的な超知能のポケットが出てくると思います。きっとそうなるでしょう。

AlphaGoの37手みたいなものですね。

37手です。いつも番号を忘れるんですよね。

そう、それです。37手。ああいう感じのことですね。

ええ。もしそれが本当なら、アプローチは二つあると思います。一つは今あなたが言ったように、超知能そのものが、人間には思いつかない何かを直感することです。

もう一つは、実験を大幅に加速する問題を解けるなら、かなり近いことが起きると思うんです。組み合わせ論的なアプローチですね。物理世界の多くはシミュレーションできません。だから、その機械をどれだけ速く回せるかが勝負になる。そして、あなたが言うように、その結果をフィードバックしてモデルを賢くできるかどうかが次の鍵になる。

もしそうやってブレークスルーが起きると信じるなら、商業化はどうなるのか、ベンチャーはどうなるのかも考えなければならない。室温半導体みたいな狂ったブレークスルーが出たとして、それをどう事業化するのか。大企業に売るのか、自分でやるのか。とても興味深いテーマです。

創造コストが下がると、ベンチャーは増えるのか

この前ちょうど、ベンチャーキャピタル業界は縮小するのかという話をしました。あらゆるものの生産コストが安くなり、効率が上がりすぎるからです。

でも、クラウドへの移行を思い出してみると、同じことを考えたかもしれません。自前でデータセンターを建てなくても、クラウドサービスを立ち上げればいい。だから縮小すると思いきや、実際には逆で、創造の爆発が起きました。

すると分配はさらに競争的になります。会社は無数に生まれるけれど、そのどれもがノイズをかき分けて目立つために必死に戦わなければならなくなる。同じことが起きるのではないかと思います。創造コストはどんどん下がり、分配コストは上がる。世の中に物が多すぎるからです。

それは面白いですね。そうかもしれません。

言語モデルか、DNAネイティブモデルか

言語ベースの基盤モデルが正しい土台だと思いますか。それとも誰かがA、T、C、Gネイティブのモデルを訓練して、それが本命になると思いますか。

ArcのEVOはまさにA、T、C、Gネイティブのモデルですよね。1兆塩基のDNAで訓練されています。それはすばらしいと思いますし、とても刺激的です。きっと使われるようになるでしょうし、推論モデルが仕事をするためのツールの一つになると思います。すでにそういう位置づけです。

たとえば、私たちのOpenAIプロジェクトでも、推論モデルはAlphaFoldにアクセスし、タンパク質を設計し、それを合成させ、試薬として実験に投入することができます。そういう使い方は可能です。なので、そうしたモデル群は強力なツールになると思います。

でもやはり私は、推論モデルは実験科学者の仕事をできると思っています。つまり、今すでに箱の中に1000人の実験科学者がいるようなものなんです。それはもう事実です。奇跡を待つ必要はありません。

AIで創薬は本当に加速しているのか

では質問です。AlphaFoldをはじめ、AIが創薬をどう変えるかという論文はたくさん出ました。でも、創薬の速度は実際に加速したのでしょうか。

ではここから、バイオで実際に何ができるのか、その厄介さも含めて少し深掘りしましょう。

私は、子どものころにJurassic Parkが公開されたのが13歳くらいで、それ以来ずっとやりたいことは、ああいう世界を現実にすることなんです。遺伝子工学は本当に最高だと思っています。だからこれをやっているんです。

最近、マンモスを復活させた会社を見ましたか。

ええ、よく知っています。Colossalですね。大好きです。まだマンモスは復活していませんが、ダイアウルフはやりましたね。

そうそう、マンモスじゃなくてダイアウルフでした。

マンモスもいずれ来るでしょう。

でも私が本当に興奮しているのは、将来的に子どもたちがコンピューターをプログラムするのと同じように、生物を設計できるようになることです。それが私の望む世界です。

問題は、そこへどうやってたどり着くか。そして、生物をプログラムする上での問題の一つは、動いているアプリケーション・エコシステムが治療薬しかないことです。

バイオテクノロジー市場の85%は治療薬です。10%くらいが農業、つまり植物の遺伝子工学です。そして残り5%が工業用途です。たとえば冷水用洗濯洗剤に入っている酵素は、汚れを落とすためのバイオテクノロジーの産物です。お湯を使わなくて済むようにする酵素ですね。それが5%。

これが、プログラム可能な物質コンパイラ、つまり細胞に対して、私たちがこれまで思いついたアプリケーションの全体なんです。正直言って、かなり情けない。

でも考えてみてください。もしコンピューターのアプリケーションが創薬しかなかったら、私たちはコンピューターって面倒くさいだけだなと思っていたはずです。だから、本当にGinkgoや私たちのようなところがやっているのは、生物を設計して新しいことをさせるための基盤を、速く、安く、簡単にすることなんです。

ただ現実には、ROIが立つアプリケーションは薬しかない。そこに問題があります。薬には面倒な特徴がある。最大のものは、お金になるまでの時間が長すぎることです。基本的には規制の問題ですね。人に何かを入れるのは慎重でなければならない。それ自体は理解できます。

中国はこの点でも私たちを食っています。向こうでは治験を6か月で回せるのに、こちらでは第1相だけで2年半かかる。狂っています。実はAustraliaもかなり先を行っていて、FDAもいずれAustraliaに合わせると思います。そこはよいことです。

それでも、スマホアプリを出すみたいな話にはなりません。だからそれは依然として問題です。

治療薬以外にも、培養肉や栄養など、いろいろ試みはありました。でも、他産業を本当に破壊するほど良くなったことはまだない。それが起きてくれれば大きな加速になります。単にその業界だけでなく、遺伝子工学全体にとって。そして遺伝子工学が加速すれば、コンピューターで起きたようなフライホイールが回り始める。

ただ、薬というアプリを選んだ現実に目を向けると、薬の開発コストは過去25年、毎年高くなり続けています。安くなっていません。これは本来起きるべきことの逆です。

なぜか。私の意見では、手作業だからです。病気が難しくなったとかもありますが、科学者は高くなり、家賃も高くなっている。それだけです。彼らが実際に生産的になったわけではない。新しい道具を与えて少しはよくなっていますが、コストの大半は手作業なんです。手作業は安くなりません。

それが根本原因だと思っています。だから私は15年やってきて、まずこの問題を解くところに立ち戻っているんです。人をラボから外さない限り、泥沼から抜け出せないと思っているからです。

そこを自動化してしまえば、ようやく上に登り始められる。そこから先は、いろいろな狂ったことができるようになる。最終的にはチップ産業のようになるはずです。人間が介在しない、異星人の技術みたいなやり方になっていく。

チップだって、以前は真空管だったんです。人間スケールのエレクトロニクスでした。でもそこから変わった。ラボ作業と遺伝子工学にも同じことが起きます。私は断言します。ただ最初の一歩は、真空管を置くことです。人間を間に挟まないシステムに移ること。それが必要です。

近未来のバイオアプリケーション

アプリケーションの空間はどう変わると思いますか。

そこはかなり予測不能です。ただ、近い将来に楽しみなものはいくつかあります。

GLP-1の薬はご存じですよね。Lillyの時価総額は1兆ドル近い。あれは本当にすごいと思います。私の見方では、あれは消費者向け製品なんです。

私はZepboundを使っていますが、本当に最高です。iPhone以来の最高のものだと思っています。食べ物のことを考えなくてよくなる。仕事や子どものことなど、自分の時間を他のことに使える。昼食を抜かなきゃ、太るかも、みたいなことを考えなくていい。意志力を取り戻した感じです。素晴らしい。

あれにとんでもない価値がついているのは、病気を治しているからではありません。今のバイオテク産業、治療薬産業というのは、基本的には病気産業なんです。

でも人生のうち、病気でいる時間はどれくらいでしょう。人によりますが、限られています。それに対して、体重を7キロ落としたいと思う時間はどれくらいあるか。眠りを良くしたい時間はどれくらいあるか。筋肉を増やしたい時間はどれくらいあるか。より気分よく生きたい時間はどれくらいあるか。消費者向け空間におけるバイオテクの応用は、とてつもないんです。

寿命が2年延びるとしたら、その価値はいくらでしょう。5年延ばすバイオ製品の価値はいくらでしょう。Sequoia Capitalなら数字を言ってくれ、と言いたくなります。

顧客次第ですね。

50兆ドルですよ。限界がありません。健康な寿命を何年か積み増してくれるものの価値に上限なんてない。異常なほど大きい。私たちの医療システム全体が、それを達成しようとしているわけです。その総消費コストを考えてみてください。それがもし錠剤や注射でできたらどうなるか。

だから一つは、そういう新しい薬です。ただ今は、そういうものを承認するルート自体がまだ十分にありません。FDAをはじめとする規制は、病気を治療することに向いているからです。

ここで、MAGAだ何だと揶揄する人もいますが、その中の、病気の治療だけでなく病気になる前の健康を考えるべきだ、という線は、業界にとってかなり良いと思っています。とても良いことです。

もう一つは、YC時代の私たちの最初の投資家の話です。誰だかわかりますか。Angelですね。Brian Johnsonです。あのころは、まだ今のような不老長寿のキリストみたいな人ではなく、ちょっと太めのVCのBrianでした。

でもBrianがやったことで面白いのは、モニタリングを普通のものにしたことです。私は彼に、そんなにいろいろ介入して怖くないのかと聞いたことがあります。すると彼は、常に測定しているからだ、と言うんです。毎週のように検査し、最も測定された人間として、年間200万ドルも診断に使っている。

これももう一つの領域です。私たちはOura Ringのようなものを愛していますが、あれは正直まだしょぼい。心拍を教えてくれるのはいいけれど、体内で起きている本当の核心は分子レベルなんです。

本来やるべきなのは、毎週血液サンプルを取って、大量の項目を時系列で読み出し、いろいろな介入を試し、それが自分に分子レベルでどう効くかを見ていくことです。実際に重要なのはそこだからです。老化も分子レベルの現象です。見た目がどうとか、そういう話ではありません。

Functionのような会社もありますし、Questで検査する人もいます。でも、私が去年のクリスマスにやったときなんて10本も採血されました。本当に最悪の体験です。在宅検査もありますが、まだまだ初期段階です。だから近い将来のバイオアプリとしては、そこも大きいと思います。

GLP-1系はその一つですし、そういった分子モニタリングもあります。

そして、もちろんいつかJurassic Parkみたいな何か、つまり他の奇妙でとんでもないものが出てきてくれることも、私はずっと期待しています。

誰もが実験できる未来

実はGinkgoでは、最近クラウドラボサービスも始めました。39ドルから実験を走らせられます。何かサンプルを送り返すわけではありませんが、データは返します。つまり、実験を発注すると、私たちが実験をして、データが返ってくる。

最後に言いたいのは、科学は天才だけの神聖な営みのように思われがちですが、実際には人間の好奇心を形式化したものなんです。人間はみんな何かに好奇心を持っています。その好奇心に対して、本気で答えを出そうとするプロセスが科学なんです。

そして私は、もしそのコストを下げたら、多くの人を科学から遠ざけている本当の壁は、難解さではなくラボそのものだと思っています。

ラボにはアクセスできません。完全なゲートキープです。法的な意味ですら、簡単には入れない。そこに大きな壁がある。

では、それが消えたらどうなるでしょう。普通の人が実験を注文できるようになったらどうなるか。モデルが、その人の世界に対する問いを実験に落とし込む手助けをしてくれたらどうなるか。人々は実際に問いを立て、実験するようになるでしょうか。何百万人もの人が科学者になりたがるようになるでしょうか。

突飛に聞こえるかもしれません。でも、シリコンバレーとコンピューター産業に感謝しつつ、1960年代に時計を戻してみてください。IBMとメインフレームの時代に、子どもたちがコンピューターをプログラムするようになると言ったら、みんな頭がおかしいと思ったはずです。

だから私は、もしこれらのコストを本当に下げられたら、子どもたちや普通の人たちが独自の科学的問いを立てて、実際にそれを試すようになるかもしれないと信じています。それはすばらしい市場になるでしょう。そんな未来は、このAI for Scienceを機能させた先にあると思っていますし、とても楽しみにしています。

本当にすばらしい未来像ですね。

ありがとうございます。とても刺激的でした。

呼んでくれてありがとう。

コメント

タイトルとURLをコピーしました