企業におけるAI導入の課題について、Octa社のShiv Ramji氏が語る動画である。多くの企業がAIの実験やプロトタイプ作成は行っているものの、実際に本番環境で運用できているのはごく少数という現状を分析。その主要因として、AI エージェントが持つ非決定論的な性質と、従来のアプリケーションとは異なる広範なシステムアクセス能力がもたらすセキュリティリスクを挙げている。解決策として、適切な本人認証・認可システム、データガバナンス、そして人間によるループ内監視の重要性を説く内容となっている。

企業AI導入における現状と課題
今日はなんで企業がまだAIをうまく活用できてへんのか、そんでどうやったら解決できるんかっちゅう話をしていこか思てます。今日はOcta社のOzero部門の社長、Shiv Ramji氏に来てもろて、この対談はOcta提供でお送りしてます。Shivさん、お会いできて嬉しいです。番組へようこそ。
ありがとうございます。スタジオまで来てくれてほんまありがとう。
95%の企業が収益化に苦戦
うちらはいつも、企業が生成AIの可能性は見えてるけど、それを市場に持ってくんが難しいっちゅう話をしてるやん。MITの調査によると、AIを導入しようとしてる企業の95%が収益性を伴って実装できてへんっちゅうデータがあるんやけど、あんたは最近この件について講演したんやろ?どんなことが分かったん?
そうやな。うちらはいつもお客さんと話してるんやけど、会場にいてる全員に「AI の実験やプロトタイプ作りをしてる人、手を挙げて」って聞いたら、80%ぐらいの人が手を挙げたんや。それで「その実験やプロトタイプが本番環境で動いてる人は手を挙げ続けてて」って言ったら、ほんの数人しか手が残らんかったんや。
なんでそうなるんかを掘り下げたら、セキュリティの懸念がめちゃくちゃ大きいことが分かったんや。AIチャットボットやエージェントっちゅうのは非決定論的で、どんなシステムにでもアクセスできてまうから、CIOやCTOの人たちが神経質になってしまうのも当然やと思うで。内部インフラの多くが十分に保護されてへん可能性があるからな。
従来のアプリケーションを考えてみ。今使ってるアプリ、仕事でも個人でも、そのアプリでできることって決定論的やろ?何かを検索したり、自分の情報を更新したり、何かを注文したりはできるけど、アプリに対して「推論と調査をして、結果を持って帰って、また出て行ってもっと調べて」って指示はできへんやん。
AIは非決定論的なアクセスパターンを持ってるから、うちらが話をしてるお客さんや企業にとって、ガードレールなしでこれらのエージェントを本番環境に実装するのは大きなリスクを生むことになるんや。
ソフトウェアの根本的な書き換え
ちょっと聞かせてもらいたいんやけど、この技術で遊んでる企業って、AIに既存のシステムをナビゲートさせてるだけやなくて、AIにとって有用になるようにソフトウェアの基盤全体を書き直すっちゅう可能性を見てるっちゅうことなん?もしAIが既存のアプリをナビゲートするだけやったら、こういう問題は大きな問題にならへんはずやからな。
でもAIに役立つように何かを書き直そうとしたら、そこで問題にぶち当たるっちゅうわけや。
その通りや。そしてそれこそがAIの力やと思うねん。これらのエージェントは非決定論的で、うちらの代わりに推論してくれて、実際どんな機械インターフェースとも話ができるからな。
機械インターフェースっちゅうのは、APIかもしれへんし、Google DriveやMicrosoft Driveに保存されてる文書かもしれへんし、内部のwikiかもしれへん。オープンウェブにもアクセスできるしな。これってめちゃくちゃパワフルやから、みんな「うわあ、これらのエージェントやチャットボットでめっちゃすごいことができそうや」って気づくねん。
でも同時に、チャットボットが機密情報にアクセスしてしまうリスクもある。いつも考えてるのは、例えば会社で働いてて、人事業務をするチャットボットがあるとするやろ?誰かがそのHRチャットボットに「Shivの給与情報を見てきて」って言えたとしたら?それは非常にプライベートで機密性の高い情報や。でもそれがアクセス権のない人に公開されてしもたら、それは破滅的やで。
実際に起きたセキュリティ問題
実際にこういう例はもう起きてるんや。最近思い出すのは、この夏のことやけど、McDonald’sがチャットボットで問題を起こしたんや。McDonald’sで働きたい人の応募を処理するチャットボットやったんやけど、いくつか問題があった。内部APIが社内で露出してしもて、管理者アカウントのパスワードが「1234」やったんや。めちゃくちゃセキュアなパスワードやな、なあ?全然セキュアやないやん?
そんで数百万人の応募者情報がこのチャットボットから漏洩してしもた。破滅的やったな。
面白いことに、別の例もあったと思うねん。チャットボットアプリケーションで、誰かが自分の会社について質問したら、チャットボットがアクセス権を持ってたもんやから、CEOのメールからの回答を共有してしもたっちゅうやつや。
そう。こういうことは日常茶飯事で起きてるんや。
技術ではなくセキュリティが問題
ちゃんと理解したいから確認させてもらうで。これ重要やと思うねん。うちらがいつも話してる統計で、AI構築物の20%しか本番環境に移行でけへんっちゅうのがあるやろ?それでもまだ甘い見積もりかもしれへん。
あんたが今日言うてることは、これらの企業が展開を躊躇してるのは技術が足を引っ張ってるんやなくて、この確率論的技術を展開し始めたときに出てくるセキュリティとアクセスの問題やっちゅうことやな?
そうや。僕はこれをすごくシンプルに説明するのが好きなんや。理解しやすいからな。
チャットボットでもエージェントでも、まず理解せなあかんのは「誰がこの情報にアクセスする権利があるんか」っちゅうことや。これは典型的な本人認証とアクセス管理の問題やな。
エージェントがあんたの代わりに働いてるとしたら、そのエージェントが認証されてて、有効なエージェントやっちゅうことを確認したい。あんたもエージェントと認証し合って、あんたがエージェントにあんたの代わりに作業する権限を与えてるっちゅうことも確認したい。これが「誰」の部分や。
そんで「エージェントが何をできるか」っちゅう部分が出てくる。エージェントがあんたの代わりに働いてるなら、理想的にはエージェントがアクセスできるのは、あんた自身がアクセス権を持ってる情報だけやろ?でもエージェントがあんたにはアクセス権がなかった情報にアクセスしてしもたら、それは問題やな。つまり「何にアクセスでけて、何ができるか」っちゅうのがめちゃくちゃ重要なんや。
これは全部、典型的な本人認証とアクセス管理の問題や。でもエージェントの場合は、もうちょっと踏み込んで、ずっと細かい粒度の認可が必要になってくるんや。
今日のシステムは粗い粒度の認可をしてるんや。つまりAlexは特定のグループに属してて、そのグループはこれらの文書を読むことができるとか、Alexはこのグループに属してて、そのグループは書き込みができるとか、そういう感じや。
でもうちらが職場で毎日してることを考えてみ。アクセスしてるアプリケーションってめちゃくちゃ多いやろ?あるアプリでは読むだけ、書き込みもできるかもしれへん、閲覧だけかもしれへん、コメントだけかもしれへん、オーナーやから何でもできるかもしれへん。権限のウェブがめちゃくちゃ複雑になるし、リアルタイムでアップデートされる。
本人認証が解決せなあかん最初の核心問題で、2番目の問題は認可、つまり何にアクセス権があって、その情報で何ができるかっちゅうことやな。
ボトムアップでの AI 導入の課題
これは本当に問題やと思うんやけど、間違ってたら教えて。今日の組織でのAI実装について僕が理解してるのは、多くの場合ボトムアップで来てるっちゅうことや。
CEOは「AI戦略を作れるか?」って言うて、リーダーシップに押し付けるけど、実際はAIをよく知ってる人、この番組を聞いてる人、ニュースを追ってる人、自分で実験してる人が、組織内でのユースケースを見つけて、OpenAIやAnthropicとのAPI契約をして実装しようとするケースが多いんや。
問題は、こういうプロジェクトが進み始めると、あんたが話してるような問題にぶち当たるっちゅうことや。そんで本格的に進めるためには、誰からの賛同が必要なん?
今のほとんどの企業では、最高情報セキュリティ責任者(CISO)や最高セキュリティ責任者(CSO)がこれらすべてを解決する任務を負ってると思うで。しかも彼らは通常、公開される可能性がある内部APIの全てのインベントリすら持ってへん。完全に新しい領域やからな。
新しい領域への対応
これは新しい領域やし、10年間働いてきた人にとっても全く新しいことや。率直に言うて、彼らのせいやない。今まではアプリケーションが正面玄関やったからな。
Alexがログインしたら、アプリが本当にAlexがアクセスできるデータやデータベースをコントロールしてた。でもAIエージェントやチャットボットの世界では、データベースが開いてたら、あんたが頼んだタスクに関連してたらそのデータベースにクエリを投げに行くんや。
だからCISOやCIOやCSOにとって、これは本当に負担になると思うねん。「ちょっと待てよ、うちらが持ってるシステム全部のインベントリすら持ってへんのに、どれがセキュアでどれがそうやないかなんて分からへん」って感じやからな。
彼らにとって、これを解決して理解するのはかなり厄介な問題になる。そんで彼らが、システムをロックダウンしたり、これらのプロジェクトが本番環境に移行できるように十分なガードレールを確保したりする責任を負わされてるんや。
AI ガバナンスプロセスの重要性
前に話してくれたけど、全体で10%の企業しかAIガバナンスプロセスを設置してへんっちゅう話やったな。
正しいで。AIガバナンスプロセスや文書って何なん?それがないことで、どうやって企業の足を引っ張ってるんやろか?
企業によってアプローチは違うと思うし、解決方法は一つやない。明らかに、企業が展開してるフレームワークはいくつかあるけど、基本的にはAIガバナンスやなくて、実際はデータガバナンスなんや。
機密データや重要なデータを保管してるシステム全てで、アクセス権を持つべき人だけがアクセスできるようにするシステムを確実に持ちたいんや。
機密性にはいろんなレベルがある。誰かがチームのミーティングノートにアクセスしたぐらいやったら、そんなに大きな問題やないかもしれへん。でも僕がミーティングにいて、顧客について話してて、その顧客情報に権限のない人がアクセスしたら、それは問題やな。僕の給与情報が開示されるのも問題やし、チームが機密のM&Aプロジェクトに取り組んでて、そのプロジェクト名や会社名が社内で流出したら、それも問題や。
だから多くの企業で良いやり方っちゅうのは、会社が持ってる機密情報の種類を分類して、その情報へのアクセスを本当にロックダウンして、権限を管理する中央集権的な方法を持つことや。そうすることで、あんたが作るアプリでも、エージェントでも、チャットボットでも、基本的には誰がどの情報にアクセスできるかっちゅうポリシーの中央集権的フレームワークを通すようになる。
今日の多くの企業では、例えば顧客データの分類は持ってるかもしれへん。それは一般的やからな。でも内部のものすべてに対する分類は持ってへん。
社内では文書を書いたり、投稿したりするし、内部にwikiページもあるし、内部データベースもあるかもしれへんし、外部には公開されてへん内部専用のAPIもあるかもしれへん。従来の世界では「これは心配せんでもええやろ」って思ってたかもしれへんけど、今は実際にこれら全てのエンドポイントを心配せなあかんと思うねん。チャットボットがアクセスできて、これらの経路のどれからでも情報が漏洩する可能性があるからな。
AI導入のメリット
AIの問題や暗い話ばっかりしてきたから、もうちょっと建設的な話もしたいねん。これがうまくいったとき、何ができるようになるん?
今まで見てきた例で、メリットが一番分かりやすいのはソフトウェアエンジニアリングやと思うねん。
大手テック企業から出てる統計をもう聞いたことあると思うけど、彼らのコードの10~30%がエージェントによって書かれてるって言ってるところがあるんや。
90%って言ってるところもあるけど、みんな「それはおかしいやろ」って感じやから、10~30%が現実的やな。
そうやな。最先端にいる企業やったら、もっと高いかもしれへんけど、そこでのメリットは見えてるやろ?エージェントがあんたのコードベースを学習して、推奨事項を出して、コードを書いて、システムを分析してくれる。だからエージェントはめちゃくちゃ有用で、エンジニアの生活をずっと良くしてくれてる。
エンジニアは幸せになってる。コパイロットやコンパニオンみたいな形でサポートしてくれるエージェントがいるからな。それってめちゃくちゃすごいことやし、生産性が上がって、ずっと速くリリースできるようになってる。
コーディング以外での活用
コーディング領域以外ではどうなん?コーディング以外のユースケースでも可能性はあるん?
他のカテゴリもある。ヘルスケアは規制が厳しいけど、手動プロセスや手動入力がめちゃくちゃ多いんや。だから顧客名は言えへんけど、患者や顧客の医療情報を処理するためにエージェントを使ってるお客さんがいる。そこではめちゃくちゃメリットがあるし、他のシナリオも想像できるやろ。
リテールも、そしてすぐにリテールとeコマースも、エージェントが大きな役割を果たす分野やと思う。旅行も別のカテゴリやと思うで。
11月に日本に旅行したいとして、エージェントに「適切な航空料金を見つけて、旅程を組んで」って指示できるとする。エージェントが僕の好み、食事の好み、ホテルの好みを知ってたら、それは本当に価値があるやん。めちゃくちゃ忙しいから、これを自分で解決する時間がないし、エージェントが全部の作業を代わりにやってくれたら、消費者として極めて助かる。
もちろん、適切なセキュリティコントロールがあって、僕が承認してへん航空券にサインアップしたり購入したりしてへんことが前提やけどな。
だからエージェントがうちらの生活を楽にしてくれるシナリオはたくさんある。今日見てるのは、言語と指示があるカテゴリ(ソフトウェアエンジニアリングみたいな)や、手動作業が多くて自動化が助けになるカテゴリで、これらのカテゴリが一番メリットを享受してるんや。
ヘルスケアでの重要性
ヘルスケアでの重要性について少し話してみよか。
僕の父は足病医で、もう引退してるけど、キャリアの大部分をノートを取って電子医療記録(EMR)に入力したり、保険用のフォームを記入したりするのに費やしてた。患者データを適切に保護して、間違った場所で公開されへんようにする適切なシステムがあれば、父の人生から何時間、何日、何週間、何ヶ月、場合によっては何年もの時間を節約できたかもしれへん。
そして実際に患者の世話により多くの時間を費やせたかもしれへん。
それはあんたが言うてくれたすごく良い例やな。シンプルなこと、データ入力のことやけど、うちらの経済でデータ入力にどれだけの時間を費やしてるか、みんな過小評価してるで。うちらはめちゃくちゃデータ入力をしてるから、そこでAIがもう大きなインパクトを与えてるのが見えると思うし、まだ初期段階やから、興味深いユースケースがもっと出てくると思う。
AI インターフェースの進化
もう一つ、まだ完全には展開されてへんと思うのは、チャットボットやエージェントのインターフェースもめちゃくちゃ速く進化してることや。ChatGPTが出てきたときのチャットボットとの対話体験、あれがAIと対話する方法になったけど、まだ完全には体験してへんシナリオや体験がもっと構築されてると思う。
その例として、企業が独自のブラウザをローンチしてるのが見えてる。これらのブラウザはあんたのために色んなことをしてくれるんや。メールを読んで、メールに対してアクションを取って、あんたの代わりにタスクを実行してくれる。
あんたがインターネットを閲覧する方法を模倣して、それを基本的に模倣して、あんたがやる方法でやるように確認する別のエージェントもある。
だからうちらはまだ初期段階で、AIと対話する新しい方法がまだ完全には体験されてへん。それがおそらく、うちらがまだ完全には理解してへんような素晴らしいメリットと生産性向上をもたらすと思うねん。
エージェントが価値ある理由
もうちょっと深掘りしよか。番組でよく話すのは、AIにはいろんな使い方があるっちゅうことや。
僕にとっては3つのカテゴリに分かれる。エージェント、思考パートナー、コンパニオン。思考パートナーとコンパニオンは、AIコンパニオンに思考を任せるのをどれだけ信頼するかによって、同じものになることもある。
なんでエージェントのユースケースを信じてるん?ビジネス界では少しバズワードになってきてるからな。なんでそれが誇大広告に値するん?
エージェントには超興味深い特徴が3つあると思うねん。
一つ目は、非同期やっちゅうこと。ノートパソコンや携帯の前にいる必要がないし、入力もマウスやタイピングの速さに限定されへん。だから非同期や。
二番目は、今特にエージェントでは、長時間動作するタスクができるっちゅうこと。今日の体験で質問したり調査したりするときは、エージェントがかなり早く応答してくれると思うけど、かなりの調査が必要なタスクは長時間かかることがある。
だからエージェントは長時間動作するタスクに完璧やと思う。数分、数時間、数日や数週間動作するタスクもあると思う。そういうユースケースももうすぐ来るから、めちゃくちゃ興味深いやろうな。これらのモデルは大きくなってるし、コンテキストウィンドウも大きくなってるから、エージェントが数日間何かに取り組んで、結果を持って帰ってくるシナリオが見えてくるやろう。
最後の部分は、非決定論的やっちゅうこと。これがめちゃくちゃパワフルやと思うねん。特定のプロンプトがあったり、エージェントにいくつかのタスクを頼んだりして、結果や出力を持って帰ってきたとする。そんで「あ、これは僕が頼んだものとちょっと違うな。前に渡したものを取って、でもこれらの修正を加えて。今度は違うことをするか、今やったことを強化して」って言えるんや。
他の情報源にアクセスしたり、あんたの代わりに追加の調査をしたりするかもしれへん。だからそれは信じられないほどパワフルやと思うねん。
エージェントはこの3つの特徴を持ってて、うちらの生活をかなり深い方法で本当に改善する可能性があると思う。
実際の導入プロセス
実際にこれらを構築してる人たちのために、実用的な洞察を少し得たいねん。あんたはOctaで働いてるやん。Octaは企業がエージェントをセットアップするのを手助けしてるんやろ?最初に話した厄介な問題を処理して、実際にエージェントをセットアップするために、企業と協力するプロセスはどうやって進んでるん?
現在、うちらの顧客やエージェント体験を構築してる開発者を本当に助ける4つのことをやってるで。
一つ目はかなりシンプルで、エージェントとユーザーの両方を検証することや。あんたが言う通りの人物、Alexやっちゅうことを確認して、あんたが基本的に同意したエージェントが、あんたの代わりに作業をする権限を持ってるっちゅうことも確認するんや。
二つ目は、お客さんがAPIを安全にするための機能を提供してることや。この世界では、エージェントがたくさんのシステムと話をするから、システムごと、APIごとにセキュリティの扱い方を解決するのはめちゃくちゃ面倒なんや。
うちらはこれをスケーラブルな方法で行って、開発者がうちらの製品を使って、全てのAPIとエージェントの通信が安全やっちゅうことを確実にするのを超簡単にしてるんや。トークンボールトっちゅう機能があるねん。
3つ目は、エージェントには常に人間をループに入れる必要があることや。少なくとも今のところはな。さっきの旅行の例みたいに、11月に日本に行きたくて、エージェントに最高の旅程を見つけるためのたくさんの条件を与えるけど、エージェントが旅程を購入する前に、おそらく僕はそれをレビューしたいやろ?だから常にレビューしたいタスクがあるから、人間をループに入れるって呼んでるんや。非同期認可っちゅうのが3つ目のことや。
最後は、エージェントには情報が必要やっちゅうことや。RAG(Retrieval Augmented Generation)として一般的に知られてる情報や。あんた独自のカスタムデータをこれらのエージェントに与えたいかもしれへん。どうやってするん?細かい粒度の権限と細かい粒度の認可が必要なんや。
これが提供してる4つ目の機能や。この一連の製品パッケージはOzero for AI agentsって呼ばれてて、お客さんが今日、エージェントを本番環境で安全にデプロイできるようにするために使ってるものなんや。
エージェントの企業内での位置づけ
これらのエージェントは企業内で人間の従業員として設定されてるん?例えば異なるソフトウェアシステムでシートを持ってたりするん?それとも外部に設定されてるん?
めちゃくちゃ良い質問やな。エージェントは今、プリンシパルとして扱われると思うねん。人間はプリンシパルやろ?だからエージェントも独自のエンティティ、プリンシパルとして扱われるようになると思う。
明らかに人間を検証するけど、エージェントも検証せなあかん。だから同じ原則がエージェントにも適用される。
ソフトウェアシステムでは、従業員400人とエージェント1000体が同じタイプの認可で並んでるっちゅうことか?
実際に今起きてることや。顧客名は言えへんけど、おそらくHRシステムを使ってるやろ?会社のみんなのディレクトリがあるやつや。うちらの顧客で、従業員とエージェントが同じディレクトリに並んでるのを見たことがある。
並んでるんや。
人間とAIの識別問題
検証について少し話してくれへん?さっき「これが本当にAlexかどうか確認せなあかん」って言うてたけど、もし僕が代わりにAIに何かをさせてる場合、ロボットと人間を区別できるん?
それは今、信じられないほど難しいと思うねん。今日の検証方法を考えてみよか。例えば、Alex、銀行口座を開設するとしたら、セルフィーを撮って、運転免許証の写真を撮って、写真の中のすべての横断歩道を選んだりするやろ?そういうことをするんや。
でもAIがこれにめちゃくちゃ上達してて、何が人間によって生成されて何がAI生成かを人間が検出するのは信じられないほど難しくなってる。でも機械も苦労してると言いたいねん。機械も偽陽性率があって、それはかなり高いんや。
だから検証は本当に問題になると思う。2つの側面があるねん。一つはAlexが人間かどうかをどう検証するか。もう一つは、Alexが生成したコンテンツが実際にAlexによって生成されたかどうかや。これらは2つの異なる検証分野や。
検証可能なデジタル認証情報がどんどん増えてくると思うし、それがAlexが言う通りの人物かどうかを確実に検証する一つの方法になるやろう。
この分野はかなり速く発展してるし、標準も開発されてる。うちらはすでにいくつかサポートしてるけど、デジタル認証情報でもっと多くのものが見えてくると思う。どんどん、オフラインの認証情報、パスポート、ID、学校の証明書なんかも全部デジタル認証情報になって、時々検証するようになるやろう。
機密情報や検証を必要とするシステムとやり取りするときは、基本的に検証済みの認証情報とやり取りすることになる。それが詐欺を減らして防止するために確実にできることの一つやと思う。だから誰かがあんたのアイデンティティを盗むことができなくなるんや。
キャプチャ突破の問題
Wharton大学のEthan Molick教授が、最新のボットか最新のモデルの一つにキャプチャを生成させて、それをクリアさせたっちゅう例を見たことあるか?彼らが取り組んでるのはかなり複雑なキャプチャや。もし彼らがそれをクリアできるなら、他のものもクリアできると思うか?
可能やと思うねん。これが面白くなる理由や。これはレースみたいなもんやからな。悪意のある行為者がシステムにアクセスを得たり、企業に大きな損害を与えたりするのをどう防ぐかっちゅうことや。彼らが思いつくいろんな詐欺やメカニズムがあるからな。
最近読んだ記事で、すべての企業がZoomやオンラインで候補者を面接してるっちゅう話があった。コンピュータにインストールできるツールがめちゃくちゃあって、面接官が聞いてる質問をリアルタイムで翻訳・分析して、返せる回答を提供してくれるんや。
だから一部の企業は実際に「全面接は対面でやる」って言うようになってる。ここ数年からの大きな逆戻りや。
だからこれらの検証方法やメカニズムの一部は、煩わしいかもしれへんけど、もっと対面でやるようになると思う。空港に行くときに使うClearみたいなもんを考えてみ。
スポーツ観戦でも使うで。スポーツ観戦に入るのにサブスクリプション料金を払わんでもええからな。
そうや。でもそれは面白い例やな。最初の検証を対面で行ったからや。誰かが実際にIDやパスポートをチェックして「あんたは本当に言う通りの人なんか?」って確認した。
そんで今、空港の列を通ったり、ゲームに入ったりできるようになってる。対面での高保証検証みたいなもんや。文字通りパスポートをチェックして、あんたが言う通りの人かを検証したんや。
だからそういうメカニズムの一部がもっと重要になってくると思うし、面接の例が一番分かりやすいやつで、企業が「もうZoom面接はやめや。直接来てもらう」って言うようになってる。
今日のうちらを見てみ。実際に対面でここにいるし、面白いのはClaraのCEO、Sebastian Simorowskiにインタビューしたことがあるねん。彼は今、AIアバターが決算説明会に出てるんや。
ZoomのCEOもAIアバターが決算説明会をやってる。本当に見分けがつかなくなる時点に到達するやろうな。
だからこの検証部分がめちゃくちゃ重要になってくる。
検証、人間の検証、そんでコンテンツもやな。
コンテンツ側では、すでに開発されてる標準があるけど、うちらは「これは本物の人間なんか?」ってウインクし合わなあかんのか?
そんなことはないけど、デジタル透かしはしばらく前からあるし、コンテンツ検証に関する標準も開発されてるから、何がオリジナルで何がAI生成かを判断するための透かし技術がもっと普及すると思うねん。
全てのAI生成コンテンツが悪いって言うてるわけやないで。人々が画像や動画を生成してるし、Instagramに行ったらこれらの面白いイエティとか、なんやイエス様とか、ダッドジョークとかなんとかジョークとか、コンテンツを作ってるのが見えるやろ。
そのコンテンツを愛して、見て、楽しんでる人たちがいる。だから両方に場所があると思うけど、これはAlexによって生成されたコンテンツやっちゅうことを検証したいシナリオがあるやろうから、どうやってそれをするかっちゅうことで、これらの透かし技術の一部がもっと採用されると思うねん。
Octaの製品について
Shiv、これは魅力的やった。Octaが提供してるものについてもっと知りたい人は、どこに行けばええん?
ozero.comに行ってもらえれば、AIを安全にするためにうちらが持ってるすべての機能が見えるで。もしエージェントを構築してるなら、もしくは企業で既にエージェントを持ってて、それを安全にしたいなら、明らかにocta.comを訪問してほしい。
うちらは2つの製品を持ってて、2つの異なるユースケースに対応してる。両方とも今日、デプロイに利用できるで。
まとめ
Shiv、会えて嬉しかった。来てくれてほんまにありがとう。企業がこの問題を解決して、本番環境に移行する20%の数字や95%が収益性がないっちゅう数字が改善されるのを見ることになるかもしれへんな。
そう願ってるで。
収益性がないのが減って、上がるっちゅうことやな。
会えて嬉しかった、Shiv。来てくれてありがとう。
ありがとうございました。
みなさん、見てくれてありがとう。またすぐにフィードで別の動画をお届けします。


コメント