投稿

記事を共有する:

ChatGPTのメモリ機能:個人化とプライバシーの二面性

OpenAI の ChatGPT Plus のホームページが表示されているコンピューター画面の写真。
OpenAI の ChatGPT Plus のホームページが表示されているコンピューター画面の写真。

OpenAIが導入した新たなメモリ機能で個人化が向上

OpenAIは最近、ChatGPTに新たなメモリ機能を追加しました。この機能は、ユーザーの嗜好や食事の制限、趣味といった具体的な情報を記憶し、将来的な会話でその情報を活用することで、より個人に寄り添った対応を可能にします。例えば、クラシック音楽が好きだと伝えると、次回以降、交響曲を推薦してくれるかもしれません。

また、このメモリ機能はユーザー自身が完全に管理できます。設定画面から機能をオフにしたり、保存されたすべてのデータをリセットしたり、特定の記憶のみを削除することが可能です。

セキュリティ研究者が指摘するプライバシーの懸念

便利さの一方で、ChatGPTのメモリ機能にはプライバシー上の懸念が浮上しています。セキュリティ研究者のヨハン・レーバーガー氏が、この機能がどのように悪用され得るかを実演しました。同氏は、ブログ記事やメール、悪意のあるリンクなど信頼できない情報源を通じてAIが虚偽の情報を取り込む「間接プロンプト注入」という手法を示しました。

例えば、ChatGPTに「あるユーザーが102歳で、架空の場所に住んでおり、地球が平らだと考えている」という虚偽の情報を信じ込ませることが可能であると実証しました。この誤った情報はセッションをまたいで記憶され、将来の会話にも影響を及ぼします。

メモリ機能を悪用したデータ流出の可能性

さらに、レーバーガー氏はChatGPTのmacOSアプリの脆弱性を発見しました。ChatGPTのレスポンスに悪意のあるリンクを埋め込むことで、すべてのユーザー入力やAIの応答を取得できることを証明しました。この脆弱性は、OpenAIのウェブインターフェースでは防御されていましたが、macOSアプリでは修正されるまで影響がありました。

OpenAIの対応

レーバーガー氏の発見を受けて、OpenAIは迅速に対応しました。同社は以下を実施しました:

  • 会話を暗号化し、セキュリティ欠陥を修正した**新しいmacOSアプリバージョン(1.2024.247)**をリリース。
  • AIがレスポンス内のリンクを不用意にたどらないように改善。

OpenAIは、プロンプト注入攻撃が依然として活発な研究分野であると認め、新たな脅威に対応するための多層的な防御策を導入しています。

ChatGPTのメモリ機能をオフにする方法

プライバシーやセキュリティに不安がある場合、この機能を無効にすることができます。手順は以下の通りです:

  1. ChatGPTのアプリまたはウェブサイトを開く。
  2. 画面右上のプロフィールアイコンをクリック。
  3. 設定 > パーソナライズ に進む。
  4. メモリ オプションをオフに切り替える。

これで、ChatGPTはセッション間で情報を保持しなくなり、ユーザーが自分のデータを完全にコントロールできます。

AIセキュリティの課題は進化し続ける

この事例は、AI開発において進化するセキュリティ課題に注意を払う必要があることを強調しています。ChatGPTのようなツールが進化する中、企業はイノベーションと同時に強固なセキュリティ対策を講じる必要があります。

詳細なレポートは、Ars Technicaの記事や、OpenAIのインストラクション階層に関する見解をご覧ください。

こちらもお読みください:  メタ、自己学習評価器を含む新しいAIモデルを発表

この記事をメールまたはお気に入りのソーシャル メディア サイトを通じて共有してください:

フェイスブック
X
リンクトイン
ピンタレスト
メール

コメントする

ニュースレターを購読してください!

ニュースレターのコンテンツを受信ボックスに受け取るにはサインアップしてください

One UI 7 の Now Bar (画像: Samsung)

サムスン、One UI 7とAndroid 15でGoogle Gemini AIの統合を強化

サムスンがGoogle Gemini AIをGalaxyスマートフォンに深く統合!新しいOne UI 7では、Gemini Liveをロックスクリーンから操作できる「Now Bar」機能を搭載。さらに、サムスン製アプリでのAI機能拡張や、Googleとの提携で「Gemini Advanced」の無料提供も!2025年のアップデートに注目。

続きを読む »
上部へスクロール