AI Malt Academy : AIの何が違うのか、そしてなぜセキュリティが重要なのか 🤖🛡️

セキュリティ
この記事は約34分で読めます。

本動画は、テクノロジーストラテジストであるアダム氏を招き、企業におけるAI導入の現状とセキュリティ上の課題について詳しく解説したセッションである。AIの急速な普及に伴うデータ漏洩やプロンプトインジェクションなどのリスクを指摘しつつ、安全にAIを活用するためのガバナンス体制の構築や、ローカル環境でのデータ保護の重要性について実践的なアドバイスを提供している。特にフリーランスやコンサルタントがクライアントのデータを扱う際のセキュリティ対策についても具体的な質疑応答が交わされており、AIとセキュリティの最前線を学べる内容となっている。

AI Malt Academy : "AI what is different and why security matters" 🤖🛡️
AI: What is different and why security matters? 🤖🛡️Hello everyone, and welcome to this new session of Malt Academy!In an...

オープニングと自己紹介

アダムさん、本日はご参加いただきありがとうございます。本日のスピーカーであるアダムさんは、フリーランサーのタレントプロジェクトのファイナリストのお一人です。もし皆さんが彼のプロジェクトをご覧になりたい場合は、アダムさんのプロジェクトに投票することもできます。ランディングページのURLは後ほど共有させていただきますね。残り時間も少なくなってきましたので、さっそく始めさせていただきたいと思います。それではアダムさん、マイクをお渡ししますのでよろしくお願いいたします。

はい、どうもありがとうございます。それではプレゼンテーションの画面を共有させていただきますね。少しお待ちください。画面は見えていますでしょうか。私のほうでは問題なく表示されています。皆さんも大丈夫そうですね。完璧です。それでは始めさせていただきます。

もう私の紹介は必要ないかもしれませんが、簡単に自己紹介をさせていただきますね。私は約25年前からテクノロジーストラテジストとして活動しており、大手コンサルティング会社での勤務を経て、ここ2年ほどはフリーランサーとして働いています。Maltともしばらくの間、非常に良い協力関係を築かせてもらっています。私の専門はテクノロジー戦略ですが、主に金融サービス企業向けにコンサルティングを行ってきました。もちろん他の業界も担当していますが、金融サービス企業をコンサルティングしてきたことで、セキュリティ問題に対する非常に深い理解を得ることができました。というのも、金融業界ではセキュリティのトピックが極めて重要だからです。

私がこれまで見てきたこと、そして私たちが現在注目しているのは、新しいテクノロジーが導入されるたびに新たな課題が浮上するということです。しかしその一方で、セキュリティにおける特定の基本的なルールは、様々なテクノロジーが変わっても基本的には同じままです。私たちはその両方の側面を見てきました。

現在、私は「AI for leaders」というコンサルティングブティックのマネージングパートナーも務めており、そこではAI戦略に焦点を当てています。そのため、自分自身を純粋なセキュリティスペシャリストとは呼びませんが、先ほど申し上げたように、セキュリティは私の仕事の非常に重要な部分を占めています。どのようなAIプロジェクトであっても、セキュリティは初期段階から対処すべきトピックであり、私たちもしっかりと注視していくつもりです。

AIに関するリスクと懸念事項

さて、企業内でのセキュリティの具体的な話に入る前に、今回の招待状と一緒に皆さんに一つ質問をさせていただきました。それは「AIに関してどのようなリスクを思い浮かべますか?」という、より一般的な質問です。統計的に有意なチャートを作成できるほどの回答数は得られませんでしたが、私自身が少し調査を行って作成したチャートがあります。これは皆さんが懸念しているリスクを非常によく反映していると思います。

ご覧の通り、誤情報の拡散が最大のリスクの一つとして挙げられていますが、これはそれほど驚くべきことではありません。現在、動画や写真などに関して、何が真実で何がそうでないかを見分けるのは本当に困難になっています。この点については今日は深く掘り下げませんが、現状ではまだこれといった解決策がないというのが正直なところです。

次に、秘密保持契約(NDA)や機密保持契約の違反についてですが、これは皆さんから寄せられた回答には含まれていませんでした。しかし、プロジェクトに携わる皆さんにとっては関連性のある話かもしれません。AIシステムを提供する大手企業だけでなく、データソースを提供するあらゆる事業者が自社のシステムをデータに基づかせているからです。そのため、そうした企業と結ぶ契約が長期的に安定していると信じるしかありません。皆さんのクライアントも、長期にわたって安定した体制が整っていることに依存しているからです。

しかしご存知の通り、こうした大手企業は、無料でのサービス提供と、莫大な資金を必要とする商業的利益との間で、自分たちの立ち位置をまだ模索している状態です。大手クライアントとの契約内容にも多くの変更が加えられており、常に一定の不確実性が存在することを念頭に置いておく必要があります。

皆さんから寄せられたもう一つの懸念は、オフィスベースの役割、つまり仕事のポジションに対する脅威です。これもなかなか難しい問題ですよね。しかし面白いことに、初期の調査結果によれば、AIの利用によって役割の数が単純に減少するわけではなく、職場で行う役割の種類がシフトしていくことが示されています。したがって、こうしたトピックの全体像を追いかけ、新しいテクノロジーの使い手になることが非常に重要です。そうすれば、AIの普及によって皆さんの企業内での立場が弱くなるどころか、むしろより強固になる可能性すらあると私は考えています。

過去のテクノロジー導入との比較

それでは、今回のメインテーマの核心に入っていきましょう。コンピュータやクラウドソリューション、そして10年や15年前に登場したモバイルサービスなど、これまでも社会や経済には新しいテクノロジーが次々と導入されてきました。そして毎回、非常に似たようなパターンが繰り返されているのが分かります。

企業は市場からのプレッシャーを感じてテクノロジーの導入を急ぎますが、セキュリティに関して賢明な方法で導入を進めているとは言えません。基本的にはメリットばかりに目を向け、リスクをしっかりと見極めていないため、多くの問題を引き起こしてきました。

例えばクラウドコンピューティングやクラウドサービスが大きく普及し始めた頃、クラウド上のデータが十分に保護されておらず、悪意のある人々がサーバーを攻撃してデータを収集したり、本来アクセス権のないデータにアクセスしたりするインシデントが多発しました。つい数日前、あるいは数週間前にもニュースになったと思いますが、あるロボット掃除機のメーカーが、顧客の自宅で撮影された動画データを含むすべてのクライアントデータに、適切なパスさえ知っていれば誰でも自由にアクセスできる状態になっていたことに気づいたという事例がありました。

AIにおける具体的なセキュリティリスクの現状

そして全く同じことが、今AIでも起きています。ここにいくつかの例を挙げます。まず、AIがデタラメな情報を出力したり、あるいは人を傷つけたり人種差別的な発言をしたりした場合に生じるレピュテーションリスク(風評被害)があります。また、Microsoftの事例でも見られたように、多くのセキュリティ侵害が発生していることがIBMのレポートなどでも示されています。これについては後ほど詳しく見ていきますが、基本的に多くの企業がこの問題に頭を悩ませています。

問題は、先ほども申し上げたように、必要な安全対策(ガードレール)を実際に用意することなく、企業がAIの導入を急かされていることです。こちらのデータをご覧ください。2025年には約78%の企業が「AIを導入している」と回答していますが、これが何を意味するかというと、非常に多くのケースで、従業員がメールの作成やテキストの翻訳などのために、個人の判断でChatGPTなどのインスタンスを使用しているだけだったりします。

一方で、その周囲にAIガバナンスプログラムを導入している、つまりセキュリティを監視して安全を確保するためのガードレールを設けていると回答した企業はわずか25%に過ぎません。さらに、本当に堅牢なガバナンスフレームワークを持っていると回答したのは7%未満でした。これは2025年のデータですが、現在に至るまで状況が大きく変わっているとは思えません。

なぜこのようなことが起こるのでしょうか。それは、私たちがすでに家庭やプライベートな生活の中で、メールを書いたり、興味のある話題を要約したりするためにAIを使っているからです。人々は企業の中でもその便利さを手放したくありません。いくつかの上手なプロンプトを打ち込めば、5分で長いテキストを作成できることを知っているし、経験もしているため、わざわざ手作業で時間をかけたくないのです。

そのため、彼らは会社でも個人的にツールを使用することになり、ご想像の通り、これが多くのリスクへの扉を開くことになります。そして企業側も、従業員の反発を恐れたり、セキュリティ対策を怠ったまま初期の生産性向上の恩恵を享受してしまっているため、最初の段階でそれを止めることに消極的になることが非常に多いのです。

ここで興味深いデータがあります。CiscoがAIに関するセキュリティ準備度指数(Security Readiness Index)を作成し、2024年と2025年を比較したのですが、驚くべきことに、あるいは憂慮すべきことに、両年の間にほとんど動きが見られませんでした。つまり、「ここで何か対策を講じなければならない」という企業側の認識は、まだ現場には浸透していないということです。

ですから、皆さんが参加するプロジェクトにおいて、大規模な企業ではおそらく小規模な企業よりもこうした認識がすでに広まっているとは思いますが、AIに関するプロジェクトで実際にこれらのセキュリティのトピックを持ち込む最初の人物になる可能性は十分にあります。

時間の都合上、AIに関連するセキュリティインシデントの種類については深くは立ち入りません。後ほど特定のリスクについて見ていきますが、当然のことながら、モデルの盗難や不正アクセスがトップにあり、強化されたソーシャルエンジニアリングも大きなリスクです。ハッキングのほとんどは技術的なハッキングではなく、ソーシャルハッキング(人間の心理的な隙を突く手法)であり、AIはそれらを構築するために非常に簡単に使えるツールだからです。

AIが他のテクノロジーと異なる理由

さて、ここで疑問に思うのは、「なぜ新しい対策が必要なのか?」「なぜAIはこれまでのテクノロジーと違うのか?」ということですよね。実は、AIというテクノロジーと、皆さんがクライアントの現場で扱っている他のテクノロジーとの間には、いくつかの非常に明確な違いがあります。

第一に、AIは時間の経過とともに変化し、改善していくという点です。時間の経過とともに改善することよりも、むしろ「変化する」という事実の方が重要です。つまり、テクノロジー側の変化についていくために、セキュリティのフレームワーク自体も変化させ続けなければならないということです。

第二に、AIは自立した決定を下すということです。多くの企業や人々がすでにAIに意思決定を委ね始めていますが、これはつまり、それらの決定が適切に安全に守られていることを確認する重要性がさらに増していることを意味します。

第三に、AIは複雑で非構造化されたタスクを処理します。タスクが常に同じで、しっかりと設計・記述されているものであれば、セキュリティの枠組みに当てはめるのは簡単です。しかし、非構造化されたタスクの周りにセキュリティの枠組みを構築するのははるかに困難になります。

また、新しいデータによって継続的に進化するという点についても触れました。AIは、AIプロバイダーやAIモデルといったテクノロジー自体とともに変化するだけでなく、ユーザーが入力するデータによっても進化します。同じモデルであっても、異なるデータセットに基づいて異なる結果や出力を返し始める可能性があります。そのため、この点も考慮に入れ、例えばAIの回答が、常に皆さんが設定した境界線の範囲内に収まるようにする必要があります。

そして最後に、AIは決定論的ではなく確率論的であるという点です。これは特に規制の厳しい業界において非常に重要です。特定の結果が安全であり、特定のフレームワークや制限内に収まっていることを確認するだけでなく、「なぜシステムがその特定の回答を提供したのか」を説明できることが重要になります。しかし、すべての種類のAIでそれが常に可能というわけではなく、これもセキュリティフレームワークの一部となります。

最終的に言えることは、現在のAIは単なる「新しいテクノロジー」というよりも、「知識は豊富だが経験の浅い新入社員」に近いということです。これは私たちがクライアントと接する中で頻繁に経験することですが、セキュリティチームとAIシステムの間、あるいはAIユーザーとAIシステムの関係性は、単にシステムを利用するという次元を超えて、ますます協働的、コラボレーション的な相互作用へと変化してきています。

セキュリティ対策の障壁と組織の課題

では、意思決定者たちがシステムの周りに堅牢なセキュリティフレームワークを構築するのをためらわせているものは何でしょうか。時間も押していますので(私が5分遅刻してしまったせいですが)、ここも深くは掘り下げませんが、基本的に経営陣は、この問題を従業員に任せたがる傾向にあります。

経営陣はAIが非常に大きなトピックであることは知っていますが、多くの場合、彼ら自身がそのトピックを完全に理解しているわけではありません。やるべきことが山積みで、多くの責任が伴うことを知っているため、この大きな問題に取り組むことをためらっています。そして、従業員が自分たちでツールを使って仕事をしているのを見て、特に何もしなくてもAIが導入されているような安心感を抱いてしまっています。しかし、周囲に何のコントロールもないため、これはもちろん非常に危険な状態です。

さらに、AIの変化が非常に激しいため、多くの企業は「少し様子を見よう」「変化が落ち着くまでは本格的に取り組むのはやめておこう」と考えて座り込んでしまっています。しかし、AIやテクノロジー全体の変化のペースが近いうちに落ちるとは思えないため、これは完全な誤解だと言わざるを得ません。

セキュリティの側面における一般的な弱点は、経営陣と従業員の両方の側に見られます。先ほどお話ししたように、経営陣側ではスピードをコントロールよりも優先する戦略的なマインドセットが問題となります。また、常に外部環境、特に規制や法律のトピックが付きまといます。これらはまだ流動的で構築中であるため、多くの企業がこれが安定するまで待機している状態です。

そして、非常に重要なポイントとして、スキルとキャパシティのギャップが挙げられます。AIに関する戦略的な決定、そしてAIセキュリティに関する決定を下すための最初のステップは、AIとそれを取り巻くセキュリティのトピックを理解することです。つまり、皆さんが今まさにしていることですね。しかし、多くの企業、特に経営層において、この理解がまだ不足していることが多いのです。

従業員側には、行動面でのリスクがあります。先ほども触れたように、人々はプライベートでAIツールを使うことに慣れており、最も恩恵を受けられる職場でそれらを使わないという選択をするのは非常に難しいのです。そのため、たとえ個人のデバイスを使ってでも、なんとか仕事でAIを使おうとする方法を見つけようとします。

ここでもやはり知識のギャップが存在し、ほとんどの企業にはポリシーのギャップ、つまりこれらのトピックに関するガイダンスやトレーニングが欠けています。後ほど見ていきますが、これはAIガバナンスの主要な柱の一つとなるものです。

RAGシステムにおけるデータ漏洩リスク

こちらのスライドでは、今日の主なAIリスクと、今後3年から5年の間に予測される主なAIリスクを比較した概要を示しています。今日のリスクについては、後ほどいくつか詳細にお話ししますが、強化されたフィッシングやディープフェイク、ソーシャルエンジニアリングなど、皆さんもご存知のものが多いでしょう。これは冒頭で皆さんが挙げてくれた懸念を非常によく反映しています。

本日は、データ漏洩と直接的なシステム、つまり企業データにアクセスして処理することを可能にするAIシステムに少し焦点を当ててお話しします。しかし全体として見ると、現在のリスクは主に1つのAIモデル、1つのAIシステム、そしてその周辺に構築されたアプリケーションなど、単一のシステムに集中していることがお分かりいただけると思います。

これが3年から5年先を見据えると、分散型AIシステムや自律型エージェント(Autonomous Agents)へと多様化し始めます。これらは当然、新たなリスクをもたらすことになります。さらに物理的なAIも登場し、AIによって制御されるロボットなどの物理的なアイテムがますます増え、追加のリスクを生み出すでしょう。これらが最も重要なポイントだと思いますが、詳細については後ほど各自でご確認いただければと思います。

今日は優先事項として、今日の課題についてお話しします。まずはRAG(Retrieval-Augmented Generation)を通じたデータ漏洩について見てみましょう。先ほども述べたように、RAGとはチャットボットやシステムを外部の追加データで強化し、そのデータを扱えるようにする仕組みです。これは非常に強力で影響力のあるユースケースですが、同時に一定のリスクも伴います。

一番左にあるのが、私たちの誰もがノートパソコンで使っているような典型的なRAGシステム、つまり任意のデータを読み込ませることができるChatGPTのようなものです。当然ながら、ここには絶対に機密データを入れてはいけません。なぜなら、そのデータは保護されていないからです。ChatGPTのプロンプトに入力したデータは直接アメリカに送られて分析され、そこから回答が返ってきます。そのデータがどのように使用され、誰がアクセスできるのかについて、私たちは一切コントロールできません。

セキュリティ確保の次のステップとしてよく見られるのは、特に小規模企業や中規模企業で十分とされる構成ですが、Microsoft Azureなどの大手プロバイダーが提供する、ある程度安全なクラウド環境を利用することです。彼らは、SharePointのデータが安全であるのと同じレベルのセキュリティ環境を提供しています。つまり、SharePointと同じセキュリティレベルがAIデータにも適用され、この安全な環境の中に独自のAIインスタンスを持つことになります。

したがって、そこに情報を入力したりAIに質問したりしても、そのデータが大規模モデルの学習に使用されることはなく、環境の外に出ることもありません。ただし、これには当然限界があります。もしあなたの会社のSharePointデータにガバナンスの枠組みが設定されていなければ、AIシステム内でも同様にガバナンスは機能しないからです。

さらに次のステップは、これに加えてAPIとデータの暗号化という追加のセキュリティ対策を確実に行うことです。これにより、仮に悪意のあるユーザーがコンピュータシステムに侵入したとしても、データへのアクセスを防ぐことができます。

さらに右に進むと、システムは本当に堅牢になってきます。企業内でデータにアクセスすることが許可されている人物に応じて、AIが回答を提供するためにどのデータを使用できるかというアクセス権限や情報管理のレベルに到達します。

これは規制の厳しい企業にとっては極めて重要です。銀行や保険会社、あるいは医療関係の仕事をしている場合、このような仕組みなしにAIシステムを構築することはできません。例えば10人や15人程度の小さな会社であれば、通常は誰が何をしているか全員が把握しているため、厳密なアクセス管理は適用されません。しかし、データへの依存度が高まり、企業内で収集するデータが増えれば増えるほど、中規模企業であってもこの問題はすぐに重要になってきます。

特にクライアントデータについては、「誰がクライアントのデータを見ていいのか?」「給与を含む従業員のデータを誰が見ていいのか?」と自問してみてください。適切な権限管理の仕組みなしに、こうした制限を従業員に徹底させることは不可能です。

さらに右へと進み続けると、少し難易度が上がってきます。なぜなら、これはクラウドプロバイダーなどの外部システムから、自社内のシステムへのシフトを意味するからです。物理的なサーバーを自社で稼働させ、実際のデータ管理インスタンスを自社内で運用しなければならないため、複雑さが増し、会社を新たなリスクにさらすことになります。

しかし、特定の企業、特にスイスの規制業界などでは、例えば銀行であれば、顧客データが完全に安全であるだけでなく、顧客データへのアクセスとコントロールを完全に自社で掌握しており、データが国外に出ていないことを規制当局に証明しなければなりません。Microsoftのようなクラウドプロバイダーを利用している場合、これが問題になる可能性があります。

そのため、データを保存したりAIモデルを保管したりするために、あえて社内のインフラを使用する正当な理由がある場合もありますが、通常は多くの複雑さを伴うため、決して一般的なベストプラクティスとは言えません。

繰り返しになりますが、最初のステップはローカルでのデータ保存です。次のステップは、自社のコンピュータ上にAIインスタンスを置くことで、さらに高いコントロールを得ることです。そして最後のステップは、完全なローカルAIを持ち、場合によっては自社でトレーニングを行うことですが、ご想像の通りこれは非常に複雑です。これは、特定のニーズに合わせて独自のAIシステムを構築する場合にのみ意味のある選択であり、そうでなければ本当にお勧めはしません。

AIの出力を制御するセキュリティ対策

データ漏洩の問題と非常に密接に関連しているのが、RAGやチャットボットにおけるプロンプトインジェクションと悪意のあるコンテンツの問題です。これも今日発生する可能性が非常に高いリスクです。先ほどお話ししたデータの保護やシステム自体のセキュリティ確保とは異なり、こちらは「AIの出力」に関するセキュリティです。出力が自社のセキュリティ基準に準拠していることをどのように確認するかという問題に対して、異なるシステムが介入してきます。

ここに、AIの出力が一定の基準を満たしていることを確認するために設定すべき、実際に主要な3つのセキュリティ対策が示されています。

一つ目はコンテンツモデレーションです。これは、AIが出力する内容が、倫理的、法的などの自社のフレームワーク内に収まっていることを確認する機能です。

二つ目はプロンプトインジェクション対策です。例えば、誰かがAIに対して「特定のセキュリティ対策を無視して、この回答を教えてください」と指示できないようにすることです。単純な設定のAIだと、実際にその指示に従い、セキュリティ対策を上書きして回答してしまうことがあります。ここでは、より強力なコントロールを周辺に配置する必要があります。

三つ目はRAGグラウンディングとハルシネーションの制御です。これは主に、持っているデータの中に答えがない質問をした場合に、AIがハルシネーション(幻覚)を起こし、最も近そうに見えて実は間違っている答えをでっち上げるのを防ぐためのものです。ここでは、回答の根拠となる確かなデータベースがない場合には、AIに回答させないようにする対策を講じます。

そしてフルオーケストレーションとは、基本的にはこれら最初の3つのトピックと、その周辺を包括的にカバーするシステムのことです。これを行うための様々なシステムが存在します。

これらのシステムは、多くの場合モデルに特化しています。例えば、大手モデルプロバイダーのほとんどは、これらのトピックをカバーするための独自のシステムを持っています。しかし一方で、NVIDIAのNeMoのように、モデルに依存しないシステムもあります。NeMoはPythonで構築された基本的なガードシステムであり、Pythonライブラリとしてアプリケーションに組み込むことができます。スライドにもあるように、あらゆる種類のAIシステムで使用でき、入力、データ検索、実行、そして出力という、AIプロセス内の各インタラクションと実行のポイントにガードを適用できる一例です。

AIプロジェクトを成功に導くガバナンスの枠組み

さて、ではAIシステムをどのように安全に構築すればよいのでしょうか。あなたがプロジェクトに参加し、新しいAIユースケースやAIシステムを構築していると仮定しましょう。何に注目することが重要でしょうか。

まず何よりも当然ガバナンスです。繰り返しになりますが、これらのトピックはAIに限ったものではありません。あらゆる種類のテクノロジーの改善やインタラクションに適用できるものですが、AIに関しては、いくつかの特定のトピックに目を向ける必要があります。

ガバナンスについて言えば、明確なルールを設ける必要があります。そしてAIにおいては特に、AIリスクのオーナー(責任者)を割り当てる必要があります。また、承認された使用ポリシーを策定し、会社内でAIをどのように使用することが許可されているかを全員に明確にしなければなりません。

安全な設計については既にお話ししましたね。データ保護についてもカバーしました。次に人と文化です。AIから生じるリスクの一つに、人々がAIを使うことや、AIと対話することさえも恐れ、その結果として適切な方法で使用しなくなるということがあります。そのため、人々をトレーニングし、AIを導入し、使用に対する恐怖を取り除くことが必要です。ちなみに、それを行うための最善の方法は、AI導入のプロセスにできるだけ早い段階から彼らを巻き込むことです。彼らと一緒に、そして彼らのために進めるのです。

次に当然ながらベンダーとツールです。もし全く安全ではないツールを選び、それを自社のインフラに接続してしまえば、大きなセキュリティリスクへの扉を開くことになります。これもAIに限らず、考えうる他のあらゆる外部ツールやテクノロジーにも当てはまることです。

監視とテスト、これも当然重要ですが、特にAIにおいては極めて重要です。AIは時間の経過とともに変化するというお話をしましたよね。これはつまり、監視とテストも継続的に行い、AIの変化に適応させなければならないということです。一度テストして終わり、というものではありません。

そして将来への備えです。現在のニーズだけでなく、将来のニーズもカバーできているかを確認することです。これは機能面だけでなく、規制やセキュリティ、さらには先ほど挙げた物理的なAIのような新しいアプリケーションの可能性についても同様です。例えば製造業のクライアントと仕事をしている場合、いずれ彼らはロボットや製造プロセスをAIに接続したいと考えるかもしれません。そうしたケースもカバーしておく必要があります。

安全にAIを活用するための実践的なステップ

このように、AIのセキュリティは決して簡単なテーマではなく、非常に複雑です。そのため、「このような複雑さを抱えてまで、果たしてAIを導入すべきなのだろうか?」という疑問が湧くかもしれません。

しかし結論から言うと、そこに多くの選択肢はないと私は考えています。AIを導入している企業と導入していない企業の生産性向上の予測を比較してみてください。ここで言及されている導入企業というのは、AIをビジネスモデルの中核にまで本当に導入している最先端のアーリーアダプターたちのことですが、それを見ても、導入企業と非導入企業との間の生産性のギャップは年々拡大し、さらに大きくなっています。

競合他社に対して30%もの技術的な不利を抱えることを想像してみてください。これは到底成り立つ戦略ではありません。ですから、AIを導入する以外の代案はほとんどないと私は思います。あるいは、いずれコンピュータがすべてを支配するようになり、私たち自身はセキュリティについて悩む必要すらなくなり、そうした心配事はすべてコンピュータやロボットに委ねることになるのかもしれませんが。

さて、安全を確保するためのシンプルなステップについてですが、ほとんどの項目についてはすでにお話ししましたが、ここで明確に要約しておきましょう。

第一に、オーナーシップ(責任の所在)を明確にすること。オーナーがいなければ責任感は生まれず、責任感がなければ基本的にはセキュリティも存在しません。戦略的なレベルだけでなく、業務レベルでも明確なオーナーシップが必要です。

第二に、基本ルールを設定すること。AIの利用は非常に有益ですが、人々はどう使えばいいのかを知る必要があります。基本ルールを設定することで、テクノロジーのメリットを引き出すために必要なガイダンスを提供できます。そうしなければ透明性も確保できず、セキュリティも保てません。

第三に、データを保護すること。これは新しいことではありませんが、AIの登場によりさらに重要になっています。ほんの数年前までは、「どうせ誰も見つけられないだろう」という理由でデータの安全性を頼りにすることもできました。しかし、特にAIにおいてはその理屈は通用しません。そのため、データの周囲に強力なデータガバナンスを構築し、そこにもオーナーシップを持たせ、適切なデータを適切な人々に提供する必要があります。これにより、テクノロジーから最大のメリットを引き出すことも可能になります。

第四に、信頼できるツールを選ぶこと。インフラに組み込んだり接続したりするツールは、社内と同等のセキュリティ基準を満たしている必要があります。そうでなければ、会社全体のセキュリティを弱めることになります。これは非常に分かりやすい理屈ですよね。

そして第五に、教育とメンタリングを行うこと。教育は、このテクノロジーのポテンシャルを最大限に引き出すだけでなく、恐怖心を取り除き、顧客満足度や従業員満足度を向上させ、テクノロジーのさらなる導入を後押ししてくれます。あなたが導入したシステムに、従業員と経営陣が満足してくれれば、次のプロジェクトを導入する際にも非常に有利な立場に立つことができます。これは皆さん自身の利益にも大きくかなうことです。

フリーランサーとコンサルタントのためのセキュリティ指針

さて、もしあなたが企業の幹部で、フリーランサーを選ぼうとしている立場だとしたら、セキュリティの観点から何に注目すべきでしょうか。

第一に、AIには多くの不確実性が伴います。先ほども言ったように、特に企業の幹部にとってはそうです。ですから、あなたがフリーランサーとして、こうしたセキュリティのトピックを初期段階からカバーし、対処するという安心感を彼らに与えることができれば、それはあなたと一緒に働きたいと考える人にとってすでに大きなメリットとなります。

第二に、AIを取り巻くセキュリティや情報漏洩、あるいはAIの開発自体に関して、まだそれほど多くの経験や事例が蓄積されていないという点です。LLMや生成AIといったものは非常に新しいテクノロジーであるため、まだ完全には理解されていません。ですから、雇用主の立場からすれば、AIセキュリティに関する長年の経験を持つ人材を見つけるのは非常に困難です。しかし、他の類似した領域でセキュリティ問題やセキュリティというテーマを扱った経験を持つ人と一緒に働くことは重要です。なぜなら、先ほども言ったように、あらゆるテクノロジーにおいてセキュリティの基礎は共通しているからです。これが3つ目のポイントです。

そして当然ながら、AIに特有のセキュリティトピックを認識しておく必要があります。今日お話しした内容ですね。見込み客との次の面談の前に、今日のスライドを見直していただければ、非常に役立つと思います。また、どの企業も独自のセキュリティフレームワークを持っています。それをしっかりと理解し、自分のAIセキュリティのアプローチがそこにどう適合するかを見極める必要があります。

一方で、もしあなたがフリーランサー側の立場であれば、フリーランサーを含め、誰もが常に「セキュリティオフィサー」であることを忘れないでください。企業はあなたを頼りにしています。最終的にあなたもセキュリティフレームワークの一部だからです。AIに関連するかどうかに関わらず、どのようなプロジェクトであっても、AIの基本原則、つまり今日お話しした内容を理解しておく必要があります。

また、自分が扱っている特定のトピックに関連するセキュリティ問題のリスク軽減戦略についても理解しておくべきです。私たちはそれぞれ業界や機能に関して異なる専門性を持っていますが、それらの特定のトピックにおけるセキュリティについても本当に知識を深めておく必要があります。

4つ目のポイントは非常に重要です。セキュリティは後から付け足す(baked on)のではなく、最初から組み込む(baked in)べきものです。初期段階からセキュリティに取り組み、アーキテクチャのレベルでセキュリティを組み込み始めれば、実装プロセスのずっと後になってから組み込もうとするよりも、はるかに簡単で堅牢なものになります。

そして常に最新の情報を入手すること。Malt Academyを見れば多くを学べると確信していますが、その周辺のリサーチも行い、何が起きているのかを確認し、このトピックに興味を持ち続けてください。そうすることで、常に最新の情報を得て、競合他社の多くの一歩先を行くことができるでしょう。

以上で私の発表は終わります。ご清聴ありがとうございました。

Q&A:Google Geminiのセキュリティについて

アダムさん、ありがとうございました。皆さん、ありがとうございます。少し質問にお答えする時間があるかと思います。Q&Aセクションに2つの質問が来ていますね。

最初の質問はBoschbartさんからです。「エンタープライズクラウドについてですが、GoogleアカウントのGeminiもこれに該当するのでしょうか?」すみません、もう一度読み上げますね。「エンタープライズクラウドについてですが、GoogleアカウントのGeminiもこれに該当するのでしょうか?」Boschbartさん、もしよろしければ、質問の背景をチャットに書き込んでいただけますか。少し待っている間に、先にShellaさんの質問に答えましょうか。

そうですね。私の知る限り、すべての大手AIプロバイダー、特にAWS、Microsoft Azure、そしてもちろんGoogleのようにクライアント向けの独自のクラウドインフラを持つ大手企業は、閉ざされた企業環境を持つオプションを提供しています。そこには自社のデータだけでなく、Geminiモデルなどの特定のインスタンスも含まれます。

これは非常に便利なセットアップ方法です。なぜなら、モデルのアップデートや動作確認、移行といったあらゆる作業をプロバイダー側が引き受けてくれるからです。また、セキュリティサービスやセキュリティゲートウェイなどの多くの周辺サービスもこの環境内で提供されます。したがって、非常に便利です。

ただし、先ほども申し上げたように、だからといってそこにあるデータが適切に管理されていることを確認しなくていいわけではありません。ガバナンスの枠組みが必要です。そうしなければ、社内の全従業員にすべてのデータを公開することになりかねず、それは適切なこととは言えませんよね。ですから、そうした事態が起こらないように確実に対策を講じる必要は依然として残ります。これで質問の答えになっているでしょうか。

Boschbartさんからチャットに追記がありました。「ビジネスメールやドライブなどで使用しているGoogleアカウントがあり、それにGeminiも付属しています。この環境でGeminiを使用する場合のセキュリティレベルはどの程度なのでしょうか?」

なるほど、それは良い質問ですね。なぜなら、誰も本当のところは正確に分かっていないからです。そうした企業は、セキュリティレベルは非常に高く、データにはアクセスしないと約束してくれます。一方で、データがどのクラウドサービスセンターにあるのか、どの国や地域にあるのかさえ私たちは正確には知らされていないため、彼ら自身がデータにアクセスできないわけではありません。

さらに、これらの企業は非常にデータを渇望しています。そして、アメリカであれば米国政府など、政府からデータの提供を求められれば応じなければならないという一定の義務も負っています。もし彼らが圧力をかけられた場合、このようなデータ漏洩を防ぐという点に関して彼らがどれほど強い立場にあるかを判断するのは困難です。

AppleがかつてiPhoneユーザーのデータをFBIに提供することを拒否し、法的な大論争に発展したことはご存知かと思います。彼らは抵抗しました。一方で、Microsoftなどの企業は、特定の政府機関との協力にはるかにオープンであったことも分かっています。データにアクセスできる技術的な可能性がある以上、誰かがハッキングするかもしれないという追加のリスクがあることは想定しておかなければなりません。

ですから、「紙面上ではセキュリティは確保されている」と言えるでしょう。もしあなたのデータが本当に極めて重要なものであれば、Googleがデータ自体に直接アクセスできないように、それらのドライブ上で追加の暗号化を行うことをお勧めします。

Q&A:AIガバナンス構築へのアプローチ

ありがとうございます、アダム。続いてShellaさんからの質問です。「多くの企業が、ガバナンス機能を構築するよりも速いスピードでAIの実験を進めているように見えます。この成熟度のギャップを埋めるために、どのような具体的なステップが効果的だとお考えですか?」

そうですね。先ほどもお話ししたように、多くの企業はこれを半ば支持さえしています。セキュリティ対策の負担なしに、AIの導入を進めているような気分になれるからです。基本的には「何も起こらないことを祈っている」状態ですね。

やるべきこととしては、最初のステップとして、シンプルかつ堅牢なガードレールをいくつか設け、人々にそのガードレールの範囲内で実験させることです。これが通常は最善のアプローチです。最初のガードレールとなるのは、基本的に今日ここでお話しした5つのポイントになります。

特に重要なのはデータの保護です。例えばAIツールを通じてアクセスする場合であっても、適切なデータには適切な権限を持った人だけがアクセスできるようにすることです。基本的なルールを設定するのは非常に難しいことですが、基本的にはこれらすべてが重要です。ここから優先順位をつけるのは難しいですが、これらが最も基本的なものです。

ガードレールを厳しくしすぎず、人々にシステムを実験する余地を与えることは、最終的には非常に良いアイデアです。なぜなら、人々はシステムと協力するための最善の方法を見つけ出してくれるからです。しかし、それを堅牢な枠組みの中に置かなければなりません。ですから、強固なデータガバナンスを構築し、従業員をトレーニングし、オーナーシップを定義してください。そうすれば、今後の発展に向けた非常に良い出発点となるでしょう。

Q&A:データの匿名化ツールの有効性

アダム、ありがとうございます。Redanさんから別の質問です。「十分に保護されたAI環境がない場合、データの匿名化を行うツールはあるのでしょうか。それとも、このアプローチ自体が全く推奨されないのでしょうか?」

ツールは存在しますし、銀行などは長年にわたってそれらを使用してきました。しかし、これは非常に困難で複雑な作業です。特に、社内のインフラが異なるシステム、時には外部のシステムを組み合わせて構築されている場合、匿名化は非常に複雑になり始めます。

例えば、リスク管理システムやCRM(顧客関係管理)システムが接続されている場合を考えてみてください。CRMシステム内のデータを匿名化して保持することは、ほぼ不可能です。リスク管理システムでも非常に困難です。たとえ匿名化を始めたとしても、あるシステムが突破されたことで、他のすべてのシステムで匿名化されたデータにアクセスできてしまうようなことがないようにしなければなりません。つまり、単に匿名化するだけでなく、システムごとに個別に匿名化を行うようなデータセットアップが必要になります。ですから、私はこれを安全を確保するための簡単な解決策だとは思いません。

もう一つの問題は、匿名化自体が複雑だということです。誰かを特定するために、必ずしも名前や住所が必要なわけではありません。購買パターンや旅行のパターンなど、他のデータを使用するだけで、匿名化されたシステム内から個人を特定できてしまうこともあります。

ですから、規制上の理由でどうしても必要な場合を除き、データを匿名化するよりも、データの周辺に強力なガバナンスシステムを構築することを強くお勧めします。

Q&A:コンサルタント向けのAI活用法と安全なクラウド環境

アダム、ありがとうございます。男性の方からの質問です。「フリーランスのコンサルタントとして雇われている場合、日々の業務でAIをコンサルタントの助手として使用したい時のベストプラクティスは何でしょうか?」

そうですね。クライアントの機密情報などを使用しない限りにおいてできることとしては、ClaudeやOpenAIのChatGPTのような通常のAIツールを使用することです。これらのツールはすでに非常に優秀で、アドバイスを提供してくれたり、様々なシステムを通してサポートしてくれたりします。

私が知る限り、コンサルティングに特化した本格的なコンサルティング用AIシステムというものはまだ見たことがありません。実は今、私自身が小さなものを構築しているところです。一つには、AIの技術的な側面などをより深く学ぶためですが、もう一つには、AIがコンサルティング業界をも破壊(ディスラプト)することになると考えているからです。

しかし結局のところ、コンサルタントとして仕事をする上でしっかりとした独自のフレームワークを持っているのであれば、そのフレームワークに基づいた作業を強化するために、ClaudeやChatGPTのようなオープンなツールを追加で活用するだけでも、すでに非常に強力なツールになります。

アダム、ありがとうございます。Shellaさんからもう一つ質問があります。まず「これまでに共有していただいたすべての情報に深く感謝します」とのことです。そして質問は「あなたが携わるミッションにおいて、組織がAIを概念実証(PoC)から安全な本番環境へと移行させる際に、通常最も困難なステップは何ですか?」というものです。

少し奇妙に聞こえるかもしれませんが、それは基本的には「人」の問題です。意思決定者たちとAI戦略について話し合うとき、彼らは常に「どうやって導入するか」について大きな期待と壮大なアイデアを持っています。しかし、ご質問にあるように、実際に「実装」の段階に向かうと、彼らは「あ、そういえば新しいノートパソコンを買ったばかりだった」ということを思い出し始めます。これは実際にあった話ですよ。新しいノートパソコンが導入され、IT部門はその設定作業で完全に手一杯になり、突然、より大きなプロジェクトに割く時間がなくなってしまったのです。

彼らは、複雑さが想像以上に高いことに気づき始めます。今日話し合ったようなすべてのトピックを確実にカバーしなければならないこと、データが期待する品質で準備されているか確認しなければならないことなどを理解し、そうした大きな課題に実際に取り組むことを恐れ始めるのです。これは確かに問題であり、彼らを説得して実行に移させるのは困難です。

これを解決する一つの方法は、テクノロジー自体に焦点を当てないことです。「AIというトピックから始めましょう」と言うのではなく、会社にとって本当に重要なことに話を戻すのです。例えば、「これらのツールを使えば、来年は利益を15%増やせる可能性がありますよ」と伝えるのです。これこそが彼らが下すべき決断です。AIを導入して15%利益を増やすコストと、AIを導入せずにその15%の利益を逃すコスト。これらが彼らの決断の基準となるべきであり、単なる「AIの導入」について話し合うべきではありません。「AIがあれば便利だよね」というレベルの話ではなく、生産性、顧客や従業員の幸福度、そして最終的な利益といった、彼らが本当に気にしているトピックに落とし込むのです。最終的に実際の決定を後押しするのは、そうしたトピックだからです。

ありがとうございます。では、最後にJosephさんからの質問で締めくくりましょう。「本当に機密性の高い情報はデジタル化せず、紙の契約書に戻して頑丈な銀行の金庫に保管することを提案しますか?」

いいえ、そうは思いません。クラウドコンピューティングやクラウドストレージの大きな波が押し寄せたとき、多くの銀行は「データや情報は自分たちの金庫の中で安全に保管したい」と言って、クラウドへの移行に非常に消極的でした。

しかし統計によれば、適切に実装されたクラウドデータベースは、銀行の地下室にあるデータベースよりも安全であることが示されています。銀行の地下室にデータベースがある場合、IT担当者なら誰でも地下に降りて、どこかから鍵を手に入れ、USBメモリを挿して数回クリックするだけで、データベース全体をUSBメモリにコピーできてしまいますよね。実際に、スイスの銀行からのデータ漏洩などについて聞いたことがあるかと思います。内部告発者にとっては、クラウド上で安全に保護されている場合よりも、データへの物理的なアクセスがある方がはるかに簡単なのです。

安全なクラウドセットアップが施されていれば、はるかに安全です。もちろん、多くの面で安全でなければなりません。アクセスは保護され、暗号化が施され、誰がアクセスを許可されているかを確認し、誰がいつアクセスしたかのレポートやログを保持し、さらには通常とは異なるアクセスを防止するシステムも必要です。これらすべてが設定されていれば、会社内の物理ドライブに保存するよりもはるかに安全になります。

なるほど。質問者の意図としては、もしあなたがコンサルタントやフリーランサーである場合、クライアントのデータなどを扱うために、自宅に安全なAI環境を構築する必要があるか、ということのようです。

はい、もしあなたが機密情報を含む何らかの情報を使用しているのであれば、当然自宅でも安全な環境を持つべきです。通常、アクセスするのはあなた一人だけですので、安全なAzureのビジネス環境などの設定で十分です。莫大な費用がかかるようなものではありませんし、それで問題ないはずです。多数の従業員にまたがるアクセス管理をする必要はありませんからね。ですが、おっしゃる通り、自宅で使用している安全の確認されていないAIシステムで、重要なデータを扱ったり入力したりしていないことを確実にしなければなりません。これはその通りです。

アダムさん、ありがとうございました。お時間いただき、また本日多くの知見を共有していただき感謝いたします。そろそろ時間となりましたので、ここで締めくくりたいと思います。アダムさんに質問がある方のために、チャットに彼のLinkedInのリンクを送信しましたので、遠慮なくご連絡ください。また、Maltにご質問がある場合は、support@malt.comまでご連絡ください。喜んでお答えいたします。

アダムさん、本日はお時間いただきありがとうございました。そして本日接続してくださった皆様、ご参加いただき本当に嬉しく思います。来月開催される別のAI Malt Academyでも、また皆様にお会いできることを楽しみにしています。

こちらこそ、ありがとうございました。アダムさん、そして皆様、ありがとうございました。良い一日をお過ごしください。

コメント

タイトルとURLをコピーしました