平成30年度 秋期 情報処理安全確保支援士試験 午後Ⅰ問3過去問題解説 ‐サクラ先輩と学ぶ! B社のセキュリティ事件簿~Web脆弱性とWAFの導入~
Автор: 【過去問10年分】情報処理技術者試験解説チャンネル
Загружено: 2026-02-06
Просмотров: 20
Описание:
AIが学習した「秘密のデータ」を暴くサイバー攻撃、「モデルインバージョン」の脅威と対策を徹底解説します。今回の動画では、情報処理安全確保支援士試験でも問われるこの攻撃の仕組みをはじめ、混同しやすい「モデル抽出」や「ポイズニング」との決定的な違いを整理します。さらに、差分プライバシーや過学習の抑制といった、開発現場で必須となる最新のセキュリティ対策技術についても分かりやすく紹介します。
今回の動画で中心となるのはモデルインバージョン攻撃という概念で、これはAIモデルに対して外部から入力を調整しながら繰り返し質問を投げかけ、その出力結果を詳細に分析することによって、AIが学習に使用した本来非公開であるはずの元のデータを推測し再構成してしまう攻撃手法を指します。この攻撃の恐ろしい点は、データベースに直接侵入することなくAPI経由のやり取りだけで、学習に使われた個人の顔写真や医療カルテ、生体情報といった極めてセンシティブな機密情報が漏洩してしまうリスクがあることです。これと明確に区別しなければならないのがモデル抽出攻撃で、こちらは学習データそのものではなく、入力と出力の関係性を観察することでモデルの機能や性能そのものを模倣したコピー品を作成することを目的としています。また、ポイズニング攻撃は学習段階で悪意のあるデータを混入させてAIの判断を狂わせる手法であり、完成したモデルから情報を盗むインバージョンとは攻撃のタイミングや目的が根本的に異なります。これらの脅威に対抗するために、動画ではいくつかの技術的な対策についても解説しています。まず差分プライバシーは、学習データに数学的なノイズを加えることで統計的な有用性を保ちながら個人の特定を困難にする技術です。次に過学習の抑制ですが、AIが特定のデータを丸暗記してしまうと逆算されやすくなるため、正則化を用いてモデルの汎用性を高めることが防御になります。さらに出力情報の制限も有効で、攻撃者が逆算の手がかりとする信頼度スコアの詳細な数値を隠し、大まかな結果のみを返すことで攻撃の難易度を上げることができます。最後にアクセス回数制限、いわゆるレートリミットを設けることで、攻撃に必要な大量のクエリ試行を物理的に阻止するという対策も現場では必須の知識となります。
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: