この動画では、Whizの共同創設者であるYinon Costicaが、生成AIの急速な発展がサイバーセキュリティに与える影響について詳しく解説している。AIツール自体の脆弱性、クラウドインフラの露出リスク、AI生成コードの問題点、そして攻撃者によるAI活用の現状など、多角的な視点から分析を展開している。特に、新しい技術スタックとしてのAIが抱える根本的なセキュリティ課題と、それに対する防御側の対応について実践的な洞察を提供している。

AIが生み出す新たなセキュリティ脅威の現実
AIが進歩するにつれて、どのような新しいセキュリティ脅威が現れているのか。今日はWhizの共同創設者であるYinon Costicaがスタジオに来て、何が起きているのかについて話してもらおう。Yinon、会えてうれしいです。番組へようこそ。
ありがとう、Alex。
さて、AIは素晴らしいことをやっているね。エンジニアのために何行ものコードを生成して、人々がこれまでよりもずっと速く物を作るのを助けている。その反面、悪い奴らも何行ものコードを生成して、これまでよりもずっと速く攻撃するのを助けているわけや。君はWhizの共同創設者で、同社は現在Googleへの売却プロセス中で、320億ドルで売却される予定やそうや。その通りやな。
君はこの話をするのにピッタリの人やね。なぜならWhizはサイバーセキュリティ会社やからや。特に生成AIが台頭する中で、何が起きているかについて話すために、君のようなサイバーセキュリティ専門家を迎えるのは初めてや。
コードを書く能力が爆発的に向上したことが、サイバーセキュリティにどんな影響を与えているのか、現状を少し教えてもらえる?
そうやね、面白いことに、コードを書く能力というのはAIの一面に過ぎないんや。AI全体について考えるとき、まず私が考えるのは、全く新しいスタックが作り出されているということや。私たちは今、技術のビッグバン時代にいて、プロンプト、モデル、インフラ、プラットフォームなど、様々な技術や能力を再発明している。それらが一緒に機能して、顧客がAIを活用できるようにしているんや。
AIはChatGPTのクエリのような従業員ベースで使えるし、CursorやGitHub Copilotのようなサービスの一部としても使える。さらに企業独自に開発されたAIとして、アプリケーションの開発を始めることもできる。これらは全て新しい技術を活用しているんや。
新しい技術はソフトウェアベースで、ソフトウェア自体は明らかに脆弱性を持つ可能性がある。AIについて考えるとき、まず理解する必要があるのは、それがコードであり、コードは私たちがこれまで出荷してきた他のソフトウェアと同様に脆弱性を持つということや。
面白いことに、ちょうど2週間前にPwnToWnがあった。PwnToWnを知ってるやろう?研究者を集める素晴らしいイベントで、今年は初めてAIカテゴリーが設けられたんや。AIカテゴリーって何やと思う?基本的に特定の技術の脆弱性を見つけるコンテストで、より影響力の大きい脆弱性を見つけるほど、大きな報奨金がもらえるんや。
今回このPwnToWnイベントで初めてAIカテゴリーが設けられ、6つの技術が提示された。この6つのうち4つが実際に調査され、最も影響力の大きい脆弱性、つまりリモートコード実行(RCE)を持つことが判明した。これは、その技術で何でもできるということを意味する。
ここから学ぶことは、AIはソフトウェアとして非常に新しく、基本的な要素が存在するということや。脆弱性を持つ可能性があり、実際に他の技術やソフトウェアと同様に、その上で自分のコードを実行するために使うことができるんや。これが第一の層やね。
研究コンテストから見えるAIの脆弱性
第二の層に移る前に、理解を確認したいんやけど、これは研究コンテストやったんやな?
そうや。
6つのAIアプリケーションが開発され、そのうち5つが非常に脆弱で、悪意のある者がそれらの脆弱性を使ってリモートアクセスし、好きなようにソフトウェアを実行できるということやった?
その通りや。Nvidia、PostgreSQL、Radiusなど、AIテクノロジーを構築するために使われる6つの技術があった。これらはAIアプリケーションを構築するために使われる一般的な技術や。6つのうち4つが実際に最高レベルの重要な脆弱性を持っていた。
ちなみに、AIは現在、研究によって開示される脆弱性が最も多い。このPwnToWnコンテストでAIが1位を獲得したが、これは活発な研究分野であることを理解する必要がある。新しい技術やから、信頼できるソフトウェアのレベルに到達するための成熟度に関して、まだまだやることがあるんや。
AI対応技術の出力が脆弱やったというだけじゃなく、AI自体を構築するために使われる実際の構築ツールが脆弱やったということやな。これらの企業や、人工知能ツールに依存するエンジニアたちは、それらが非常に新しいため、知らない可能性がある。君が主張しているのは、彼らが知らない可能性があるが、悪意のある者が基本的にこれらのツールで書いているコードにハッキングして、ツール自体だけでなく出力もコントロールできるということやな?
その通りや。これが私たちが見ていることで、怖いことや。新しい技術スタックで、構築されており、時間をかけて成熟している。学んでいて、セキュリティを確保し、改善している。しかし、他の技術と同様に、これは新しいソフトウェアであり、現在ペンテスターだけでなく脅威アクターによってもテストされているということも忘れてはいけない。
これが一つ目やね。新しい技術スタックで、理解することが重要や。AIについて理解すべき最も重要なことは、それが他のソフトウェアと同様のソフトウェアやということや。
5分で、私が来る前に問題になるとは予想していなかったことを既に教えてくれた。それはコードだけではないということやね。出力するために使われる基盤ツールもやと。新しいソフトウェアを導入しているということやな。
次に話そうとしているのは、AI生成コード自体の信頼性の問題やない?
それでもない。まず、インフラストラクチャを見てみよう。なぜなら、結局のところ、これらの新しいツールを実行しているが、他のアプリケーションと同様にインフラストラクチャの上で動いているからや。アイデンティティ、ワークロードがあり、基本的なコンポーネントを使っている。
トレーニングデータセットを公開される可能性のあるバケットに保存している。過度に許可されたアイデンティティを使用している。同様に侵害されたり設定ミスのあるVMやコンテナを使用している。
技術的でない、またはあまり技術的でない聞き手に翻訳すると、君が話しているインフラストラクチャは、人々がAIプログラムを構築し、それからクラウドに依存しているということやな。オンラインで動くソフトウェアを基本的にサポートするために使われる全てのツール、オンラインで動くソフトウェアで、そこにも脆弱性がある可能性があるということやな。
その通りや。脆弱性、設定ミス。実際、プログラムがあってクラウドシステムで動作しているが、プログラムの動作方法の大部分を知らずに露出しているんや。
その通りや。
AIアプリケーションに関するインシデントを見ると、非常に大きなソフトウェアプロバイダーが、全てのトレーニングデータセット、多くの機密データが含まれたバケットを露出させたインシデントがあった。彼らはそれを露出させるつもりはなかった。これは過去10年間に経験した非常に基本的なセキュリティ問題が、今AIに適用されたものや。
AIについて考えるとき、全てが新しいわけではない。新しいソフトウェアであり、既存のインフラストラクチャや。それをセキュリティ化することを考えるとき、基本が適用され、それを覚えておくことが非常に重要や。脆弱性のパッチ、設定のセキュリティ化、アイデンティティの管理など、基本が適用される。これが私たちが考える第二の層、インフラストラクチャや。
企業のAI導入における隠れたリスク
それについてもう一つ質問させて。基本的に、多くの組織が現在やっていることは、会社向けにパーソナライズされたAIツールを構築したいとき、私たちに特化した何かを構築したい、私たちの仕事をして、従業員を置き換えたり補強したりできるものを、と言うことやと想像する。
組織からすべてをダウンロードして、それをボットに投げ込もう。そして、そのボットがトレーニングにそのデータを使わない、他の場所に吐き出さないとAPIプロバイダーから約束されている。しかし、彼らが見逃すのは、会社からこの重要で安全な情報をすべてダウンロードするとき、それをどこかに保存する可能性があることや。
その通りや。
会社専用のボットをトレーニングし始めるとき、データの宝の山や母船以外にどこに置くんや?
その通りや。だから、私が脅威アクターなら、なぜ昔ながらの技術を使わないんや?この貴重なデータを流出させるために、バケット、データベース、設定ミスを露出させるために使っている技術を。複雑なAIプロンプトなどを通す必要があるやろうか?インフラストラクチャに直接行けばええやん。
これが私たちが気をつけなければならない第二の層で、これらは全て適用してフォローしているベストプラクティスやが、AIアプリケーションにも同じように適用される。実際にAI関連のインシデントを見ると、その大多数はこの層で、インフラストラクチャを安全でない方法で使用することによって、脅威アクターが過去にクラウドで慣れ親しんだことをするだけやねん。
AI生成コードの脆弱性と責任問題
今度は、最初に質問したことに戻ろう。私たちはそれに向けて積み重ねてきたからやね。AI作成コードはどの程度脆弱なんや?
AI作成コードは面白い。一つには、それがより脆弱な可能性があるのは、セキュリティを確保するよう指示していないからや。AIを使ってアプリケーションを構築するとき、アプリケーションに何をしてほしいかも指示する必要がある。
どのようにセキュリティを確保してほしいかを指示する必要がある。最小特権の適用、使用しない場合のデータ削除など。人間が開発してレビューする場合に今日適用するセキュリティのベストプラクティスがあるが、AIでは同じ方法で指定する必要がある。
例として、私たちの研究チームが、AIコードジェネレーターなどのAI生成器にフィードできるルールセットをリリースした。このルールセットは、指定しない場合よりもセキュアなコードを構築するようAIを導く。これは一つの側面に過ぎないが、AIによって生成されたコードをセキュアにすることに関してより興味深いのは、実際に修正が必要になったときに何が起こるか、そしてそのコードの所有者は誰なのかということや。
非常に興味深い質問が生じる。もし私がコードの開発者で、脆弱性があったり誰かがセキュリティ問題を報告した場合、私はそのコードを書いたし、隅々まで知っているし、誰かにレビューしてもらった。しかし、アプリケーション全体をv0でコードしたとしよう。面白いことに、v0を紹介する最初のブログ投稿で、投稿した人は「そのコードが存在することすら忘れることができる」と言った。
しかし、ダメや。コードは脆弱で、何かが起こったときは、それに戻って修正する必要がある。しかし、それを行うにはコードを知る必要がある。だから、AIを通じて生成されたコードに関する責任について、より広い質問があり、何かが起こったときに誰がそれに戻って修正するのかということや。
ちなみに、セキュリティだけじゃない。信頼性、可用性、スケールもある。長期的にセキュリティ、可用性、信頼性にわたって出荷したソフトウェアを維持する適切な能力があることをどうやって保証するんや?
セキュアなAI開発のための指針と課題
君の言っていることは、基本的にAIはセキュアなコードを構築するための指示やプロトコルをプロンプトに導入すれば、かなりセキュアなコードを構築できるということやな。
その通りや。
それは公平に見えるし、良さそうやな。
しかし、その反面は、私たちが今見ているのは、エンジニアが書いているコードから取り除かれ始めているということや。多くの場合、彼らはそのコードを処理を通じて導いているが、v0でやって、AIが残りをやっている。
v0コーディングやAIコーディングアプリケーションを持つ開発者がいる会社で、既にサイバーセキュリティ問題を見ているか?
そうや、実際に非常に知られた例があって、アプリケーションをv0でコードしたと投稿した人たちがいて、数時間後や数日後にハッキングされて、スキルがなかったので回復方法がわからなくなったということがある。
私の見方では、v0コーディングは加速する素晴らしい方法やが、実際にコードを知り、コード内の問題に対処し、アプリケーションを使用し成熟させながら、メンテナンスプロセスでAIをさらに導く責任からは解放されない。
これは私たちが行い、実行する必要がある成熟度の問題やと思う。もう一つの側面は、エージェントアーキテクチャがどのように機能するかを考えるときやね。君は一つの役割、開発者についてのみ話しているが、エージェンティックコンセプトを未来に早送りするなら、セキュリティレビューアーもエージェントであってもええやないか?
コードをコミットし、コードを開発し、次にコードのセキュリティレビューが必要やが、それも私たちが提供したすべてのセキュリティベストプラクティスガイドラインでセキュリティを念頭に置いたエージェントによって実行される。誰かがアーキテクチャを見て、誰かがデータプライバシーを見るべきやろう。
今日はまだ存在しないが、AIを早送りすると、コーディングをするだけではない。開発ライフサイクルの他の事も行うことができ、それに頼ることができる。
しかし、これは私をもっと怖がらせる。君が「オーケー、v0コードをする人たちがいる」と言ったとき。ちなみに、v0コーディングはプロンプトによるコーディングや。「このアプリケーションを作って」と言うと、アプリケーションを作ってくれる。自分でコードを書くのとは対照的に。
私は、オーケー、v0コーディングが主流になれば、役割が明確に定義されるやろうと思った。開発者の役割は監査、監視、脆弱性の探索、対処になる。だから彼らの専門知識は実際に物を作ることではなく、それらをセキュアにし、ボットが扱えない方法で改善することになる。
しかし君が今言っているのは、構築することが核心的能力であるAIボットをセキュアにすることが核心的能力である別のAIボット、エージェントを見据えた未来があるということやな。
その通りや。
それなら、トリプルリスクやダブルリスクやないか?なぜなら、今度は構築することが核心的能力であるAIボットと、セキュアにすることが核心的能力であるAIボットがいる。何かがうまくいかなくなったとき、診断して対処するスキルを持つ人間は確実にいないやろう。
実際にはお互いに対立しない。加速や自動化をより多くできるが、何かが起こったときに詳細で説明できる人間をループに入れる必要性からは実際には解放されない。だから2つの別々の質問があり、それが最初に言った理由や。そうや、v0コーディングは改善できるし、悪くなる可能性もあるが、様々な方法で改善もできる。しかし、コードの所有者は誰か、何かが起こったときの運用モデルは何か、AIが問題を修正できない場合は誰がするのか、時間をかけて誰がそれを所有するのか、という実際の必要性からは解決されない。
これはおそらく最も重要な課題やと思う。技術は継続し加速し、アプリケーションを構築するのを助けてくれるが、それでも何かが起こったときに誰に頼るべきかを知り、対処できることを知っている運用モデルを理解する必要がある。
考えてみて。君は企業で、アプリケーションを開発している。セキュリティを忘れて、基本的な信頼性について話そう。何らかの理由でアプリケーションがダウンした。AIが解決してくれるかもしれない、解決してくれないかもしれないと待って頼ることはできない。悪い戦略やと思う。
だから結局のところ、説明責任が必要や。これをどうやって維持するんや?私が開発者で、アプリケーションを出荷し、それが明日ダウンした場合、自分で構築したかAIを通じて構築したかは関係ないが、修正して再び動かすことができなければ、私は仕事をしていないことになる。
これは大きな質問や。自動化の増加を活用しながら、どうやってアプリケーションを所有し続けるか?
攻撃者によるAI活用の実態
AIの構築に使うツールの脆弱性、AI用の重要な情報を保存するインフラストラクチャの脆弱性、そして今はAIコード、特にv0コーディングの脆弱性について話したな。
しかし、これにはもう一つの側面がある。人々が今、プロンプトだけで物を構築できることを気に入っている。もしくはもう少し洗練されている。プロンプトして、少しコードして、お互いを構築し合って、10人のチームが必要だったものが一人でできるようになった。
しかし、脅威アクターと呼んでいる人たちがいる。私は悪いアクターと呼ぶが、基本的にはダメージを与えたり、コンピュータープログラムにハッキングしたりしようとする悪い奴らや。彼らもこれらのツールを自由に使える。
だから、ソフトウェアにハッキングしようと、これらのツールを使っているのを既に見ているか?そして、それが既に見ているハッキングの洗練度とレベルを上げているか?
脅威アクターがAIを使うことができる方法はいくつかある。
まず最初は、AIアプリケーションにハッキングすることや。AIアプリケーションにハッキングする方法を考え、なぜ魅力的なのかを考えると、AIにはリスク要因の三要素と呼ばれるものがある。一つ、それは露出している。二つ、プライベートデータにアクセスできる。三つ、クエリ、つまり送信するチャットクエリ、プロンプトなど、脅威アクターにも露出される信頼できないコンテンツがある。
だから、AIアプリケーションを直接標的にして、プロンプトを通じて機密データを抽出しようとする層がある。これが一つ。
二つ目にできることは、既に知られていることをより自動化し、反復することや。これはAIについて見ている一つのことで、反復的なテストの自動化に非常に優れている。だから、一種類の攻撃や一種類の脆弱性を試す代わりに、より多くのオプションを試してテストするために、目的構築されたアプリケーションを通じて自動化し反復することができる。
そして、第三の層がある。AIを使って新しいタイプの脅威を発見できるか?新しい脆弱性を見つけるために脆弱性研究を行えるか?その場合、非常に特定のことを行うためにAIをトレーニングしたからや。
これらが見ることができる3つのレベルで、面白いことに、一つずつ取り組んでみよう。AIアプリケーションを直接標的にするとき、それは他の攻撃サーフェスと同じや。今、脅威アクターに対してAIアプリケーション、プロンプト、モデル内のデータをどうやってセキュアにするかを理解する必要がある。それはAIに適用されたアプリケーションセキュリティのようなもので、全く新しいスタック、全く新しいタイプのアプリケーション、まだセキュアにする方法を学ぶことがたくさんある。そして、脅威アクターは今日それを行うことができる。今日彼らにとって非常に利用可能やと思う。私たちが露出するプロンプトは、脅威アクターによってもテストされるということを考えるべきや。これが一つ。
攻撃者と防御者の非対称性の悪化
第二の層、自動化。これは深刻な問題、セキュリティにおける攻撃者対防御者の非対称性に触れる。歴史的に考えると、馴染みのない人のために、この非対称性は、防御者が常にすべての前線ですべての時間を守らなければならないのに対し、攻撃者は実際に機能する一つのことだけを見つければ侵入できることを意味する。
だから非対称性は狂っている。より多くの資産を持つほど、防御者としてセキュリティを確保する必要があり、外にあるすべてをセキュアにする必要があるため、どんどん難しくなる。しかし、脅威アクターは一つの脆弱性を見つけるだけで、それでも侵入できる。
だから歴史的に、私たちは基盤をセキュアにし、積極的にリスクを除去し、検出し対応する能力を改善することで、より良くなってきた。これがセキュリティが歴史を通じてあった場所や。
この非対称性に対処する能力を改善する。そして今、AIでは興味深いことに、脅威アクターははるかに多くを自動化できるが、防御の観点からは、脅威アクターが得ることができる改善と同じオーダーの改善を与えてくれない。
本質的には、私たちが直面しようとしている非対称性の重大な悪化がある。なぜなら、脅威アクターとしてより多くをテストできるが、防御者としては同じオーダーでより多くを検出するのに役立たないからや。これは私たちがますます見ようとしている課題で、脅威アクター側でのより多くの自動化や。理由は、検出の観点から、防御者の観点から、高い偽陽性率に耐えることができないからや。
脅威アクターの観点からは、偽陽性を気にしない。一つだけ必要や。検出から、高い偽陽性率があると、終わりや。
干し草の中の針も見つけることができない。なぜなら、0.1%、0.001%、0.001%でも、望むだけ低くても、受ける脅威の試行回数を掛けると、ノイズに爆撃される。そしてノイズはセキュリティの敵や。
彼らはDDoSのように君のインフラを攻撃で爆撃できる。
セキュリティチームをDDoSする。
それはまさにそういうことや。DDoSは基本的にウェブサイトに大量のトラフィックを送って停止させることや。続けて。
実際にセキュリティを実行する。いい話を教えよう。技術指向ではないが、ある時、建物に入って、その建物の警備員の新しい従業員トレーニングを見た火災警報のすぐそばにいた。そして、ツアーをしていた人が「もしアラームが鳴ったら、これは火災警報やから、ここに行って、それを止めて、アラームが止まる」と言っていた。そして新入社員の女性が「実際の火事だったらどうするんですか?」と尋ねた。彼は「聞いて、実際の火事やない。誤警報や」と答えた。
この話がなぜ好きかというと、これがまさにセキュリティチームが偽陽性に直面しなければならない課題やからや。ハイフィデリティなアラートの検出において本当に正確でなく、セキュリティチームが何かを見たとき、それが実際に非常に迅速に対処しなければならないものであることを確実にするために特別な努力をしなければ、実際の脅威に対処できなくなってしまう。
だから、リスクは、脅威アクターまたはシステムにハッキングしようとする者として自動化すると、すべての偽陽性に注意を払う必要があるため、セキュリティチームを圧倒することができ、最終的に防御を突破されるということや。
その通りや。これに対処する良い方法がある。実際には、検出により多く投資するのではなく、基盤により多く投資してノイズを減らすことや。
常に検出しようとしていると、難しくなる。アラートに爆撃される。積極的にリスクと最初に攻撃される可能性を減らしているなら、つまり脆弱性にパッチを当て、設定ミスを修正しているなら、ノイズを下げるはるかに良いポジションにいる。
これがセキュリティが多くの時間を投資してきた場所で、AIが脅威アクターによって適用されると悪化するやろう。
脅威アクターの多様化と現状
脅威アクターって誰や?みんなや。AIは技術として非常にアクセスしやすい。アクセスしやすいということを理解する必要がある。簡素化されており、大規模に使用でき、非常に高価ではない。それを使用するために超大国である必要はない。正直なところ、それを使用するために多くの資金は必要ない。アクセスしやすいんや。
組織犯罪、政府、みんなのような?
国家、組織化された10代、地下室の10代やね。簡単や。アクセスしやすい。なぜしないやろう?
まあ、捕まったら刑務所に行く可能性がある。
ああ、私が言っているのは脅威アクターとして、なぜAIを使わないのかということや。つまり、同じ答えや。
ああ、なぜ何か悪いことをすることを既に決めた場合にAIを使わないのかということやな。既に脅威アクターなら、もちろんAIを使うやろう?
だから、脅威アクターとして、それは君のスティックの新しいツールで、今それを活用して加速し自動化できると言っているんや。
サイバー犯罪について考えることがある。それはビジネスや。私たちがいつもそうやとは知らないが、悪い奴らだけやない。これらはビジネスのようなものや。ランサムウェアについて考えると、それはビジネスや。それにはルールがある。身代金を払うとデータが得られる。それはルールや。だまされることはない。ビジネスやから、評判を維持する必要があるからや。
だから、ビジネスとして、他のビジネスがAIを見てどうやって加速し自動化に使えるかを考えているのと同じように、サイバー犯罪、国家も同じ論理を持っている。
今日、2025年において、これらの悪い奴ら、地下室の10代、何と呼んでも、ビジネス、彼らは数年間かなり洗練された生成AIにアクセスしてきた。
ChatGPTの導入以来見てきた曲線について少し話してくれ。以前に見たのと同じような脅威を見ているのか、それとも指数関数的に エスカレートしたのか?
現在、私たちが見ているのは、私たちは見ていて、AIの状況をリリースし、脅威を監視している。すべてのクラウドAI関連のインシデントを監視するサイトthreats.ioがあり、基本的に根本原因、技術の内訳を行っている。正直に言うと、今日見ているのは同じものがもっと多いということや。
脅威の状況に大きな変化を見ているわけではない。インフラストラクチャ、機能することがわかっている物事に本当に立ち戻っている。だから、同じ脆弱性やが、攻撃の規模は上がっているか?
いつも彼らはより多くをしようとしている。しかし、ブルーサイド、防御者サイドでも、インフラストラクチャの保護に非常に優れていることを覚えておく必要がある。私たちが見ているトレンドで、攻撃の増加率とレッドサイドについて話すのは常に簡単で、いつもそうやろうと思う。常により多くを試すやろう。しかし、それがより成功することを意味するわけではない。なぜなら、ブルーサイドでは、セキュリティの見方において大きな変革があり、基盤を改善し、プロセスを改善し、積極的にリスクを削減する能力、検出し対応する能力を改善するのに役立っているからや。
私たちがまだセキュアにする方法を知っている基盤にいるので、クレイジーなことが起こっているフェーズにはまだいないと思う。
なぜ脅威は現在まだ制御可能なのか
私は言っていない。それについて質問しているだけや。
いや、まだや。クレイジーなことは見ていない。
なぜそう思う?なぜなら、生成AIに関するすべての会話で、常にこの「サイバーセキュリティ部分を見なければならない」が会話の一部にあるからや。これらのツールが悪い奴らの手にあるという理由で。しかし、現実には、彼らが突破する実際の能力は高くない。
君の答えは、企業がインフラストラクチャをセキュアにするより良い仕事をしているからだけなのか?もしそうなら、実際には大きな問題ではないということやな。
過去10年間を考えるとき、自動化のプロセスにいると思う。自動化は私たちにとって新しいことではない。自動化はAIのずっと前から行われてきたし、AIのずっと後も行われる。10年前に脅威アクターがキーボードで手動で行っていたことを継続し自動化する旅に常にいる。
クラウド攻撃を見ると、例えば、脅威アクターとしてアカウントに入るとすぐに何をするかを自動化する能力。私は何をする?かなり自動化できる。この自動化のレベルを見てきた。例えばランサムウェアでこの自動化のレベルを見てきた。過去10年間にわたって自動化が起こるのを見てきた。
しかし、セキュリティ内での対応として、この自動化に対応する能力を基本的に開発してきた。
AIはより多くを自動化できるもう一つの層や。現在、クレイジーな新しい脅威はまだ見ていないから話していない。私たちは現在、既知の脅威、既知のリスクの自動化の加速を見ているフェーズにいる。これはセキュリティが過去10年間にいた旅で、一歩上に過ぎない。
面白いことに、君が話していることは、生成AIの進歩の多くに従っていると思う。これは非常に有望な技術やが、悪い奴らも企業やから、企業が実際に行動に移そうとしても混合した結果を見ており、悪いアクターにも同じことが起こっているということを君から得ている。しかし、質問は、これらのモデルがはるかに知的になると、より大きなリスクにさらされるのかということや。
将来的なAI脅威:脆弱性研究の自動化
より良くなったときに、はいの分野があると信じている。脆弱性研究を例に取ってみよう。
脆弱性とは何かを説明しよう。脆弱性は定義により、許可されていない方法で、一つの信頼レベルから別の信頼レベルに移動する能力や。
例えば、リモートコードを実行できるなら、外側から内側に移動している。これは最悪の事態やから、文字通り外部から内部環境でリモートでコードを実行しているからや。それが脆弱性や。
脆弱性は認証されていないアクセス、つまり認証バイパスの場合もある。ログインして、偽のパスワードを与えるトリックがあるのに、まだログインできる。オーケー、それは認証バイパスや。許可なしにより高い信頼に入ることができた。だから、それは脆弱性や。
脆弱性を研究し見つける能力。これはセキュリティスペースのボトルネックのようなものや。なぜなら、脆弱性は脅威アクターが低い信頼から高い信頼環境に移動できるものやからや。
AIによる脆弱性研究を自動化する能力は、多くの脆弱性を見つけることができ、同じペースでパッチを当てることができない競争を開く可能性がある。
今日、脆弱性を検出するためにAIを活用しているソリューションが既にある。これらは、君のコードを分析し、今日まで非常に深い研究が必要やったが、自動化されているコード内の脆弱性を見つけるためにAIを使っているセキュリティ会社や。セキュリティの観点から本当に素晴らしい。
脅威アクターは、より速く脆弱性を見つけ、それを実行に移すプロセスを自動化するためにそれを兵器化しようとするかもしれない。そうすれば、業界で呼ぶゼロデイ脆弱性を常に使うことができる。ゼロデイ脆弱性とは、それを見つけた脅威アクター以外誰も見たことがない脆弱性を意味する。レーダーの下にある。それがゼロデイ脆弱性の意味や。
リスクになり得るものを見ると、脆弱性を見つけ、運用化し、実行に移す永続的なものを作ることができるなら、怖い。しかし、今日もまた検出メカニズムなどを見ている。戦いを続けているんや。
Google買収の背景とWhizの役割
会話も深くなったが、Whizが何なのかを本当に紹介する良い時期やな。最初に、WhizはGoogleに320億ドルで売却されたと言った。君の会社がやっていることは、基本的にまさにそれや。組織がクラウドに持っているすべてを見て、それらの脆弱性を積極的に見つけようとする。間違っていたら訂正してくれ。
その通りや。Whizは任意のクラウド環境に非常に迅速に接続し、クラウドに対するすべてのリスクを評価する。私たちはそれらをアタックパスと呼んでいる。話したノイズ、ノイズを取り除く。脅威アクターが環境にアクセスを得るために使用できる重要なアタックパスが実際に何なのかに焦点を当て、セキュリティ・開発チームに表面化させて、悪い奴らが見つける前に積極的にリスクを削減できるようにする。
オーケー、それがWhizのやることや。興味深いことに、これはクラウドだけで起こることではない。オンプレミス、プライベートクラウドでも同じことができるが、コーディングフェーズでもできる。これはもっと面白い。これは開発中に、何が重要なアタックパスになるかを実際に予測し、ガードレールを設け、開発者がクラウドに到達する前に開発中に正しい選択をするのを助けることができることを意味する。
これはさらに予防的なセキュリティのようなものや。そして最後の柱は検出のようなもので、私たちがいたくない場所やが、コントロールを持つ必要がある。これは、クラウド環境を監視し、疑わしい活動を見ている場合に検出し対応することや。これがWhizのやることについて少しや。
生成AIからの脅威の増大が、Googleが会社を買収したいと思った理由に影響したと思うか?
セキュリティは再び、私たちが何十年もの間この戦いを続けている。業界として劇的に改善していると思う。生成AIは一つには、ソフトウェアの使用を増やす。だからクラウドセキュリティは今日さらに重要になった。なぜなら、AIがあらゆるビジネスで大規模に使用されることを理解しているからや。
ちなみに、歴史的にクラウドを見てきた。3つのクラウド移行の波があったと私は呼んでいる。最初はクラウドネイティブやった。Spotifyは、オーケー、私たちはSpotifyスタジオで録音している。だからクラウドネイティブ、クラウドで始まった、クラウドに生まれた。それからコロナが来た。
コロナは実際に第二の波を持ってきた。企業がオンプレミスに留まることは彼らのビジネスから切り離される可能性があることを理解し、クラウドに移行することが進む道であることを理解した。それから第二の波が来た。コロナ中に大手、銀行、金融、製薬、彼らは皆クラウドに移行した。それは遊び場ではなく戦略やということを理解したからや。
そして今、第三の波を見ている。それはAIや。AIはクラウドの使用を増強し、クラウドとAIへの技術変革の使用を増強し、すべて同じ方向に積み重なる。
先ほどの点に戻ると、AIはソフトウェアの使用を増やし、私たちが基盤と呼ぶもの、クラウドAIセキュリティの重要性を増やす。どうやってセキュアなアプリケーションを構築するか。絶対に組織にとって戦略的に重要なもの、クラウドとAIセキュリティに影響する。これが一つ。
第二に、AIはこれまで以上に速く革新することを要求すると思う。これは興味深い部分で、新しいスタック、新しい脅威について話し、技術の採用ペースについても話すことができるが、これも驚異的や。私たちはこれまで以上に革新している時代にいる。ついていくためには、セキュリティがビジネスが前進することを可能にし、技術の使用からビジネスをブロックするセキュアなソリューションではないソリューションが必要や。
Whizを見ると、Whizは実際に組織がビジネスをブロックするのではなく、ビジネスを可能にする方法で技術を採用できるようにする技術や。これは外にある企業にとって重要な属性になる。そうでなければ、AIは動いているし、ビジネスはAIと共に動くし、他の企業もAIについていかなければならない。なぜなら、これが今後数年間でビジネスを定義するようになるからや。
私が追加するのは、明らかにGoogleは、スタートアップや、AIを構築しようとする誰でも、一つの場所になろうとしている。最近の四半期でクラウドで四半期対四半期30%のような途方もない成長を見ていると思うが、これはAIが構築されるにつれてしばらく続いている。もしこれらの脆弱性が実際に現れ始めて、より困難になる可能性があるなら、WhizはそこでGoogleを助けるのに非常に適していると思う。
サイバーセキュリティの歴史に馴染みのない人のために、興味深いコンセプトがある。2000年、つまり2000年頃にMicrosoftによる非常に興味深い取り組みがあった。それは信頼できるコンピューティングと呼ばれ、人間が自分のコンピュートを信頼できなければ使わないだろうという概念に関するものやった。それはWindows、彼らが出荷するすべてのソフトウェアをセキュアにするMicrosoft内の全取り組みを始めた。
これはセキュリティ業界を永遠に変えた。なぜなら、これが人々がそれを信頼するためにはセキュリティが組み込まれなければならないという概念を作り出したからや。AIについて、クラウドについて考えるとき、セキュリティはこれらのプロセスに焼き込まれなければならない。だから、今後、クラウドとAIを活用することを信頼できる。
セキュリティは大規模に技術を使用する能力の礎石や。そして、私たちはそれを解決しなければならない?私たちはクラウドとAIを信頼できることを確実にしなければならない。
明らかにGoogleもそう思っている。これは彼らの歴史上最大の買収やったと思う。
その通りや。
だから、知る必要があることすべてを教えてくれる。
休憩を取らなければならない。戻ってきたら、大きなブラックスワンイベントがどのようなものか、悪いアクターがヒューマノイドロボットを見たときにハッキングできるかどうか、そして君がDeepSeekについて出した非常に興味深いレポートについても話したい。
すぐ戻る。
DeepSeekインシデントの詳細分析
戻ってきた。Big Technology PodcastでWhizの共同創設者でプロダクト担当副社長のYinon Costicaと一緒や。DeepSeekについてすぐに話そう。WhizがDeepSeekが話題になっていたときに出した興味深いリリースがあり、多くのヘッドラインを獲得した。
ここに君のブログからある。Whiz研究がチャット履歴を含む機密情報を漏洩するDeepSeekデータベースの露出を発見。私がこれに問題を持ったのは、AmazonのRe:inventカンファレンスで君に会ったばかりで、Whizがやることは積極的にコードを調べて露出される可能性があるものを見つけることやと話してくれたからや。休憩前に話していたとおりやな。
このブログ投稿を見て、それはWhizがやることやと思った。多くの異なる会社について似たような見出しを書くことができるやろう。そして、ニュースサイクルがそれと一緒に走り、DeepSeekを恐れていた人々がそれを指して「ほら、DeepSeekは中国共産党に君の情報を漏洩させようとしている」と言ったが、実際にはそうやなかった。
この状況についての私の読み方をどう思う?
オーケー、DeepSeekの詳細に戻ろう。何が起こったか?DeepSeekが導入され、企業、メディア、すべてから多くの注目と関心を得、私たちの研究チームからもそうやった。DeepSeekを調べていて、研究チームは再び基盤について話したが、非常に高度なAI中心の能力ではない。それは結局のところ、簡単に言うと露出したデータベースで、DeepSeekから多くの機密データを含んでいる。彼らは私たちが開示した後に露出を閉鎖し、それから私たちはDeepSeekがオープンデータベースを持っていたという事実についてブログ投稿を公開した。簡単に言うと。
DeepSeekには、その週にいくつか注目に値することがあると思う。一つ、DeepSeek採用は、技術が私たちの資産内でどれだけ速く伝播できるかを一時停止して理解する必要があることやった。1週間以内に、ほぼ10%の組織がDeepSeekを使用していた。それを受け入れろ。1週間以内にや。
これは、新しい技術の急速な採用に直面しているときにセキュリティの観点から何をする必要があるかの一つの側面やと思う。結局のところ、DeepSeekは興味深い質問を提起する。機密データでトレーニングするために使おうとする、新しい技術を導入するときに尋ねるべき質問は何や?ちなみに、DeepSeekだけやない、導入している他の技術でもある。
DeepSeekが興味深かったのは、一方では急速な採用、二つ目はどこから来たかという質問、どこからともなく現れて、突然みんながモデルをダウンロードして使い始めた。三つ目は、人々に知らせるべきやと感じた重要な脆弱性を見つけた。これらの分野はチームが技術を安全に使用する方法について質問をすることが本当に重要で、それはビジネスが技術を使用することを禁止するのではなく、私たちが必要とするセキュリティ対策を導入することや。
このDeepSeek技術から学んだことは、技術がこれまで以上に速く採用される、私たちのチームが技術で何をしているかを知る必要がある、そして三つ目は、私たちが使用している技術のセキュリティ態勢について精査を行う必要があるということや。再び、他のAIツールと同様にDeepSeekも。先ほど話したように、新しいスペース、新しいソフトウェアや。進行しながら開発されている。過去10年間に行ってきたように、採用されながら技術を精査する必要がある。新しいことやない。
しかし、私のポイントは、君たちがDeepSeekで見つけたような似たような脆弱性を毎日見つけていると感じることや。
そのとおりや。
そして、このリリースがメディアに走らせた。DeepSeekに対する恐怖が既にあり、メディアがそれと一緒に走って、ほら、DeepSeekのポイント全体はデータ流出演習やったと言った。これがメディアが受け取るものや。
そうや、しかし本当に何やったかを君から聞きたい。一般的に、過去1年半にわたってAIスタック全体の研究に焦点を当ててきたと思う。AISPM、AIセキュリティポスチャー管理というAIをセキュアにする製品をローンチした。何が使用されているか使用されていないかのAI状況報告をリリースした。また、多くのAI技術を研究し、脆弱であることを発見したと思う。先ほど言ったように、これらの基盤技術の6つのうち5つが脆弱やった。
DeepSeekの脆弱性は、君が通常見つけるものより悪かったか?
多くの機密データを露出する非常に典型的な露出やった。しかし、歴史的に見ると、例えばMicrosoftがAIをトレーニングするために使用されたバケットの機密データにアクセスできるトークンをリリースするなど、似たようなインシデントがあった。AI開発のためにリリースされたNvidiaのツールキットにはより複雑な脆弱性があると思う。
メディアがそれで何をするかは一つのことやが、研究は過去数年間にわたって共有してきたAIに関する研究を示している。最初に始めたメッセージは、AIは実際に新しいツールのスタック、それらはソフトウェアツール、脆弱性を持っている、私たちが使用するツールとインフラストラクチャをセキュアにする努力をする必要があるということや。同じ方法でインフラストラクチャセキュリティを行う必要性を除外することを意味しない。
基本的にDeepSeekインシデントから含めてすべてが受け取るべきメッセージはそれやと思う。これは起こる非常に一般的な設定ミスや。
データベースを露出させる。
君と話して、私もそう思っていて、よしと思おうとしていた。しかし、君たちが話すのは良いと思う。しかし、文脈でメディアが逃したのは、これはいつもみんなに起こっているということやと思う。
そうや、みんなや、新しいみんなや。
超知能とサイバーセキュリティの未来
いくつかのワイルドなことについて話そう。もう少しパイ・イン・ザ・スカイなことやね。すべてのAIラボは超知能を開発しようとしている。ここ数ヶ月でAGIから超知能へと進んだ。
超知能で見つけることができるであろう一つのことは、何でも破ることができる能力や。最近話した研究者が興味深い思考実験を与えてくれて、君にもやってみたいと思う。
もしAIラボが脆弱性の検出に専門的なAIシステムを構築し、今日のどんなシステムも通り抜けることができるなら、申し訳ないがAIセキュリティで働く誰にも悪気はないが、超知能のアイデアは今日存在するものを超越できるということや。そして、同じものを構築することに近づいている他のラボを見たと想像する。最終的にはインターネット上のセキュリティを破壊することになるが、この技術が拡散したときに起こり得ることのために、競合するAIを削除する責任があるのか?
君は脅威の観点から見ている。私は常に防御者の観点から考えようとする。この種のものに対して防御する技術をより速く生成できるのか?
しかし、超知能のアイデアは少し心配にならないか?なぜなら、私たちは確実にそれが起こるかどうか、それが良い人によって開発されるのか悪い人によって開発されるのか確信が持てないからや。そして、いわゆる良い人によって開発されたとしても、そこで隠れた悪いことが起こっている可能性がある。
それはどの技術にも当てはまる。量子コンピューティングも別の例や。多くの新しい技術があるし、常に導入される新しい技術があるやろう。私は防御者として、一般的に良い人として、制御された方法でセキュアに技術を採用し続けるのに役立つ適切なガードレールと基盤を作る方法について考える必要があると思う。
もちろん、今までセキュリティで見てきた最悪のケースシナリオをはるかに上回るシナリオについて考えることはできる。しかし、歴史的にそうやなかったと思う。
歴史的に、同じことがクラウドについて言われた。データリークについて言われた。コンテナについて言われた。導入された多くの異なるイノベーションについて言われた。私は業界として、十分に優れていたと思う。
ポジティブな観点を与えよう。過去に導入された技術のほとんどは、セキュリティについて全く考えずに導入された。業界でセキュリティの大きな赤字に陥った悲しい話を考えるとき、セキュリティは常に後から来たからや。ボルトオンで来た。自律走行車を発明し、それからオーケー、それらが制御され、コントロールなしにあちこちに衝突する場所にクラッシュできることがわかったので、セキュアにする必要があると理解した。
今日AIセキュリティの背後にある概念は、ずっと後でではなく、今日実際によく考えられているし、それは、セキュリティチームの成熟度だけでなく、安全なAIとは何か、AIアーキテクチャをどうやってセキュアにするかについて議論を持っている業界の成熟度を多く示している。以前とは違って、新しい技術について話し、それらのセキュリティは常にイノベーションの阻害要因として認識されていた。
まず正しく理解し、それからセキュアにしよう。みんなを怖がらせないようにしよう。ブロックされないように。しかし今日、それは実際にもっと統合された議論や。もちろんAIを使うやろうが、もちろんガードレール、セキュリティも導入し、基準も設ける。質問もする。
だから、これを行うとき、最初からAIをセキュアにする筋肉も発達させる。それは実際に成熟度を多く示していると思う。私は実際にポジティブや。これについて。なぜなら、これまでになかったポジションにいると思うからや。技術とその技術のセキュリティについて同時に話すのは比較的新しいことや。素晴らしいことや。
セキュリティにいるから楽観的なんやと思うが、セキュリティ会社を共同創設していたら楽観的やろうが、リスクを過小評価していると思う。
業界として、リスクは常にあるし、リスクは常に怖いもので、普通の人が技術を見ただけで考えることをはるかに超えていると思う。
しかし、セキュリティ業界と開発業界内に適切なガードレールを構築する強力な基盤があると思うし、アプリケーション環境をセキュアにする方法について確立された実績があるので、革新を続けることができると信じている。Whizだけでなく業界全体について話すが、今日AIセキュリティに関するイノベーションのペースを見ると、AIセキュリティに焦点を当てたソリューションを提供することに既に焦点を当てている新興企業の数を見ろ。AIファイアウォール、AIセキュリティポスチャー管理ツール、AIセキュリティゲートウェイ。
既に導入されているAI対応コントロールを基本的に作成しているセキュリティ業界ソリューション全体の配列がある。既に導入されている。未来的やない。既存のソリューションや。成熟する必要がある、研究する必要がある、もっとやることがある。しかし、そこに向けた能力を構築している。
量子コンピューティングとセキュリティ対策
量子はどうや?量子について言った。みんな、量子が暗号化を破り、セキュリティを破ると話している。
量子という言葉を聞くだけで既に大きな笑顔やな。面白いことや。これも演習やと思う。もしもの演習やな。ポスト量子暗号学、つまり量子コンピューティングが起こった場合に耐えることができる暗号を基本的に使用する能力に対するより多くの認識を見ていると思う。
何が起こるかわからない。推測の分野にはいない。基盤を改善するのは良い習慣やと思う。再び同じスレッドやと思う。実際には面白いことに、量子コンピューティングセキュリティについて、AIのように同じスピーチをしているのを聞くやろう。
AIでセキュアにする必要がある基盤に本当に優れている必要があるイニシアチブを実行する基盤がある。話したことは何でもそうやが、量子コンピューティングでは、この時代に適した暗号ツールを使用することについてやるべきや。
量子コンピューティングについて変わった一つのことは、それが思っているより近いかもしれないという考えで、脅威アクターが今データを盗んでいるので、解明したら後で復号化できるということやね。
面白いことや。今盗んで後で復号化する。そうや、それは実験や。考えやね。注意を払う必要もある。特に規制された企業、政府で、今日自分たちのデータを量子後暗号リスクに対してセキュアにしたいと思っている企業がますます多くなっていると思う。
自律システムへの脅威と創造的攻撃手法
これで終わりたい。もし最終的に現れるなら、自律走行車とヒューマノイドロボットのハッキングの脅威について少し話したい。同じ「私たちがそれに先んじることができると確信している」という反応を得ないような方法で質問する必要がある。実際に何が起こりそうかを知りたいからや。
最近、病院への攻撃について話しているのを聞いた。システムが故障し、派遣を送ったり人々にケアを提供したりできなくなった。
これが仮定として起こった場合、人々の家にいる、または社会に組み込まれているヒューマノイドロボット、または道路中にある自律走行車に脆弱性があるとしたら、それは典型的なソフトウェアハックからレベルアップするのか?
サイバーの歴史で非常に驚くべきことが起こったことがある。例えば、オーブンに侵入したらどうなるか、IPを持っている。リモートカメラに侵入する。そこに何かをインストールするだけや。
歴史的に、実際にこれらすべてのIoTを利用して特定の目標を標的にしたDoS攻撃があり、彼らはそれをダウンさせた。何百万もの何百万ものデバイスが特定のエリアに殺到することを話しているからやが、誰がこれらのIoTのこの使用を考えたやろう?脅威アクターによる非常に創造的な使用やな。
脅威アクターがこの種のものを利用する方法について考える方法やと思う。創造的や。常に直接的な方法やない。オーケー、自律走行車をハッキングして人に衝突させ、ロボットを人の家に入って物をさせるやろう。しかし、例えば重大な停電を引き起こす可能性があると思う。
それを使うことができる。社会の重大な機能不全を引き起こす可能性がある。あまりにもそれに頼りすぎたり、それに対してセキュアにする適切な方法がない場合や。
物事が進化するにつれて、これが直接的な方法だけでなく、サイバーで起こり得る他のキャンペーンの一部としてどのように使用できるかについて常に考える必要があると思う。この創造性は、革新するときは素晴らしいが、脅威アクターによって使用されるときは恐ろしい。サイバーだけでなく、あらゆる場所で見ている。
私たちが日常生活に技術を適用する方法と、私たちが導入するガードレールについて、常に注意深くある必要があると思う。やりたくない最後のことは、ある時点で壊れる何かに信頼を築くことで、それを保護するガードレールがないことや。
この会話を通して、私たちはAIにより多くのコードを書くことに依存し、今度はエージェントが私たちの代わりにコンピューター使用で行動を取るか、車やヒューマノイドロボットかを問わず、社会で自律的に働く技術により多く依存することになると話してきたので、クレイジーやね。
だから、人々がサイバーセキュリティが重要な理由のトレンドを見るとき、生活にサイバーを入れれば入れるほど、いわば、よりセキュリティが必要になる?
その通りや。カバーする資産が多いほど、より多くのセキュリティが必要や。言いたい概念の一つは、少なくとも顧客とのクラウドセキュリティの経験から、セキュリティの礎石やったものや。セキュリティの民主化という概念や。
セキュリティチームだけが全世界のセキュリティをやることを考えるなら、スケールしない。しかし、従業員、人間、開発者、セキュリティチーム、ITチームとしての私たちの責任と、私たちが使用するシステムの回復力、つまり私たちが使用する技術のサイバー回復力にどのように貢献できるかを考えるなら、これはもっとスケーラブルなセキュリティアプローチになると思う。
サイバーセキュリティの最も興味深いトレンドの一つは、実際にその民主化の側面や。別の非常に簡単な例は、フィッシングメールやね。セキュリティチーム、一つのセキュリティトレーニングチームだけがすべてのメールをフィルタリングしようとするなら、何かが入ってきて、結局のところ機能するやろう。
人々が他の人の声を偽装して侵入しようとすることについても話していない。
見ろ、それは今起こっている。それは起こっている。ライブケースを見てきた。それに対して保護する。これは私が言ったように、業界全体のすべてのセキュリティ製品がAI対応になる必要があるもう一つや。
アンチフィッシングツールについて考えるなら、AI生成能力を通じて作成された、非常に標的化され、非常に信頼できるように見えるメールに対処できる必要がある。だからメールセキュリティツールはそれらを見つけることができるべきや。
偽音声メッセージを通じたフィッシング、ディープフェイクのようなもの。基本的にはディープフェイクのものや。だから、これらは業界全体が全体にわたって成熟しなければならないものや。現在導入されているソリューションがある。
セキュリティは今日のセキュリティではない。これは私が楽観的であることや。今日のセキュリティは、新しい脅威を見つけ、大規模に運用可能な方法でそれらに対応することに向けられていると思う。しかし、新しい技術と共に新しい脅威が来ることを認識しなければならない?
人間の側面もあると思うが、誰かがお金が必要だとかそういうことを言っているとき、もう信じることはできない。奇妙やね。
親や兄弟、子供のように聞こえても、これがAI生成音声やないことを確認しようとしているだけやと言わなければならない。私がだまそうとしているいくつかのことがここにある。
その通りや。それが結局のところ私たちの責任や。人間、従業員、開発者として、この回復力のあるシステムの一部であることを確実にする方法において、みんな?
今日の会話の後、どう感じるかを考えようとしている。一方では、私が考えたこともない脅威のスペクトラムを広げるのに役立ったが、実際のツール自体をハッキングする能力でもあるし、一方では、生成AIが今日機能している方法は、セキュリティ脆弱性や攻撃の大規模な急増につながっていないように見える。常にエスカレートするのを見ているにもかかわらずや。
だから、君の観点、楽観的で去ることを選択し、話し続けなければならないやろう。
素晴らしい。お招きいただき、ありがとうございます。
ありがとう、Yinon。聞いてくれたみなさん、ありがとうございます。金曜日に今週のニュースを分析して戻ってきます。再びありがとう、次回のBig Technology Podcastでお会いしましょう。


コメント