AIツールの安全性とは? 新たな“仕事の相棒”にまつわるセキュリティリスク

OpenAIのChatGPTやマイクロソフトのCopilotのような生成AIツールは、日々の仕事に欠かせないものとして定着しつつある。しかし、プライバシーやセキュリティへの配慮から、留意すべき点があることも事実だ。
Microsoft Copilot AI app icon
Photograph: MR3D/Alamy/AFLO

OpenAIのChatGPTやマイクロソフトのCopilotのような生成AIツールは急速な進化を遂げている。それに伴い、この技術がプライバシーやセキュリティにまつわるさまざまな問題を引き起こすのではないかとの懸念が、特にビジネスの現場で高まっている。

2024年5月、マイクロソフトの最新AIツール「Recall(回顧)」は、個人情報の保護を訴える活動家たちに「プライバシーの悪夢」のあだ名をつけられた。作業中のコンピューターのスクリーンショットを数秒おきに撮り続ける機能のせいで与えられた呼び名だ。この機能が英国のデータ保護規制機関である情報コミッショナー事務局(ICO)の目に留まり、マイクロソフトは近日中に発売予定のノートPC「Copilot+ PCs」の安全性について詳細の開示を求められることになった。

OpenAIChatGPTを巡る懸念の声も高まっている。間もなくリリースされるChatGPTのMac用アプリにスクリーンショット機能が搭載されていることから、個人情報が盗まれる可能性をプライバシーの専門家たちから指摘されたのだ。

米下院は職員に対しマイクロソフトのCopilotの使用を禁止している。「未承認のクラウドサービスに議会の情報が流出する恐れがある」として、ユーザーに及ぼすリスクを国土安全保障省のサイバーセキュリティ局に指摘されたためだ。

一方、市場分析の専門企業であるガートナーは、「Copilot for Microsoft 365の使用は、組織内外への機密情報漏洩リスクを高める恐れがある」と警告している。また24年5月には、グーグルが最新の検索機能である「AI Overview」の修正を迫られる事態が発生した。さまざまな質問に対してこのAI アシスタントが連発した珍回答のスクリーンショットが拡散されたことが原因だ。

意図しない情報流出の懸念

仕事で生成AIを利用する人々にとって最大の難問のひとつが、意図せず機密情報を流出させてしまうリスクだ。生成AIのほとんどが「巨大なスポンジのような性質をもっています」と、リスク管理企業GRC International GroupのAI部門長を務めるカムデン・ウールヴェンは言う。「インターネット上の膨大な情報を吸い上げ、言語モデルの訓練に使用しているのですから」

AI企業はいずれも、「言語モデルの訓練に使える情報を切実に求めており、そうしたデータ収集を好ましい行為に見せかけようとしている印象すらあります」と、ソフトウェア企業Elementsuiteの創業者で最高経営責任者(CEO)のスティーブ・エルコックは言う。こうして集められたデータの膨大さは、「見知らぬ誰かの“エコシステム”」に機密情報が流出する可能性の高さを示すものにほかならないと、デジタルコンサルタント企業xDesignの最高製品技術責任者(CPTO)であるジェフ・ワトキンスは語る。「将来的に、これらの情報が巧妙に抜き取られる恐れもあります」

そればかりか、人工知能(AI)システムそのものがハッカーの標的にされる恐れもある。「理論上、攻撃目的のハッカーが企業のAIツールの基盤となる大規模言語モデル(LLM)への侵入に成功した場合、機密データの盗難や虚偽情報の生成、AIを悪用したマルウェアの拡散を許す事態にもなりかねません」とウールヴェンは言う。

一般向けグレードのAIツールがリスクを伴うのは当然と言えるかもしれない。ところが、セキュリティ専門のコンサルティング企業Prism Infosecで主席コンサルタントを務めるフィル・ロビンソンによると、マイクロソフトのCopilotのように業務用として安全だと広く認識されているAI機能にも、潜在的な問題が次々と発生しているという。

「アクセス権を厳しく制限しない限り、理論上はAIを利用して機密情報を盗み見ることが可能になります。自社の給与体系やM&Aの動向、信用情報を含む書類等の閲覧を希望した従業員によって、後にその情報が外部に漏れたり売られたりするかもしれません」

article image
いまや多くの生成AIスタートアップが、今後は資金を「生成」しなければならないことに気づき始めている。その解決策のひとつは、まず生成AIの生み出す「ハルシネーション」を取り払ったうえで、サービスを受注する対象企業を絞ることだ。

ほかに、AIツールが従業員を監視する目的に使われるかもしれないという懸念もある。個人のプライバシーを侵害する恐れのある行為だ。マイクロソフトはRecall機能について、「撮影したスナップショットは利用者個人に帰属し、PC上でローカルに保存されます」「保存されたスナップショットは信頼性の高いプライバシー保護機能で常に利用者の制御下に置かれます」と説明している。

それでも、「この技術が従業員の監視目的に利用される日は、そう遠くないかもしれません」とElementsuiteエルコックは言う。

アクセス権を最小限にするべき

生成AIの利用にはいくつものリスクが潜んでいる。しかし、企業や一人ひとりの従業員が対策を講じることで、プライバシーと安全性を改善できる可能性はある。何よりも、ChatGPTやグーグルのGeminiのような誰でも使えるツールのプロンプトに機密情報を入力してはいけないと、データ管理企業Samaのマーケティングおよびコミュニティ担当バイスプレジデントを務めるリサ・アヴォカートは言う。

プロンプトを作成する際には、過度な情報共有を避けるため、具体的な表現は控えるべきだ。「『当社の予算はこの金額です。ある極秘プロジェクトの支出について提案書をつくってください』などとリクエストしてはいけません。『予算配分に関する提案書のテンプレートを作成してください』といった聞き方をすべきです」とアヴォカートは言う。「AIは原案の作成のみに使用し、機密情報は後から必要に応じて追加していけばいいのです」

AIツールを調べものに使う場合は、示された回答が正しいかどうか確認することで、誤情報を連発したグーグルのOverviewのようなトラブルを回避できるとアヴォカートは言う。「情報の出典や関連リンクを示すようAIにリクエストしてください。AIにコードを書かせる場合も、そのまま使えると思い込まず、自分の目で確認するべきです」

マイクロソフトはCopilotに修正の必要があることを認め、ユーザーが求める情報へのアクセス権を最小限にとどめる「最小権限の原則」を適用すべきとの見解を示している。まさにいまが「大事なタイミングなのです」とPrism Infosecのロビンソンは言う。「あらゆる組織にとってこうした体制の基盤づくりが必須となるでしょう。その一方で、AI技術を妄信したり、これですべてがうまくいくと決めつけたりすることは慎まなければなりません」

ユーザー自身が設定を無効にするか、法人向けプランに切り替えない限り、ChatGPTはユーザーから得た情報を言語モデルの訓練に利用し続けることも知っておいた方がいい。

ユーザー側での制御機能の発表

製品にAI技術を導入している企業は、いずれもセキュリティおよびプライバシー保護のために万全の対策を講じていると訴える。マイクロソフトは、新AI機能「Recall」のセキュリティとプライバシーへの配慮について強調するとともに、この機能は[設定]>[Privacy & Security]>[Recall & snapshots]の手順で有効化と無効化を制御できると説明している(編注:6月7日、マイクロソフトはデフォルトでRecall機能の無効化を発表した)。

またグーグルは、ビジネス用ツール「Workspace」に生成AIを組み込んだことにより、「ユーザーの個人情報についてユーザー自身に選択の自由と制御権を提供するという、グーグルの基本的なプライバシー保護方針に変化が生じることはありません」とし、こうした情報を広告に利用することは一切ないと保証している

OpenAIは、自社製品がいかにセキュリティとプライバシーの確保に努めているかを繰り返し訴え、法人向けプランではさらに高いレベルの制御が可能だと強調している。『WIRED』の取材に対しOpenAIの広報担当者は、「ChatGPTに学ばせたいのは、この世界のさまざまな情報であって、個人のプライバシーではありません。すべての人の情報とプライバシーを守るため、わたしたちはあらゆる措置を講じています」と語った。

OpenAIによると、同社はユーザー自身が個人情報にアクセスしたり、情報をエクスポートまたは削除したりできるセルフサービス型のツールのほか、言語モデルの改善を目的とする情報使用からオプトアウトできる機能など、データの利用を制御するさまざまな手段を提供しているという。同社の説明によると、ChatGPT Team、ChatGPT Enterprise、ChatGPT APIの3モデルについてはデータや会話が訓練に利用されず、利用状況に基づく学習を行なわない仕様に初期設定されているという。

いずれにしても、AIはすでに仕事仲間として職場に定着しているようだ。こうした技術がさらに高度化し、あらゆる職場で使われるようになるにつれ、リスクは高まるばかりだろうとGRC International Groupのウールヴェンは言う。「画像や音声、動画を分析、生成できるGPT-4oのような多モード型AIがすでに登場しています。企業はいまや、テキストベース以外のデータの保全についても配慮を求められるようになったのです」

人も企業もこのことを意識し、AIをほかのあらゆる外部サービスと同様に扱う心構えをもつべきだとウールヴェンは言う。「人目に晒されたくないことは、一切外に漏らしてはいけません」

(Originally published on wired.com, translated by Mitsuko Saeki, edited by Mamiko Nakano)

※『WIRED』による生成AIの関連記事はこちら


Related Articles
Google search engine seen through cracked phone screen
AIが検索結果の概要を生成して表示するGoogle 検索の「AI Overviews」が誤った回答を生成することが発覚し、これをグーグルが認めて技術的な改善を施した。一方で、ネット上で拡散した「誤回答の事例」には偽物が含まれていたことも明らかになっている。
Multi layered paper cut outs of a blue and green magnifying glass with a red question mark in the center on a yellow background
検索結果の概要をAIが生成して表示するGoogle 検索の「AI Overviews」に誤った回答を生成する問題が発生し、その対応にグーグルが追われている。この問題は、虚偽や誤りを示すことがある生成AIの現時点での限界を改めて浮き彫りにしたといえる。
Photo illustration of Jesus at the last supper working on a laptop with two AI angels floating from above.
最新のデータによると、上司がそれを望むかどうかに関係なく、従業員はAIを使っていることがわかった。この変化はイノベーションというよりも、労働者の切羽詰まった状況から生まれているようだ。

編集長による注目記事の読み解きや雑誌制作の振り返りのほか、さまざまなゲストを交えたトークをポッドキャストで配信中!未来への接続はこちらから