Объяснение метода «быстрой инъекции»: самая опасная атака ИИ в 2025 году
Автор: Prabh Nair
Загружено: 2025-11-21
Просмотров: 1990
Описание:
Системы ИИ теперь могут читать веб-сайты, электронные письма, документы, тикеты, PDF-файлы и даже запускать действия через плагины.
Это означает одно: если ИИ может что-то прочитать, кто-то может на это повлиять.
В этом видео мы подробно рассмотрим мир Prompt Injection, самой быстрорастущей атаки на LLM в 2025 году.
Используя выводы из реальных исследований, реальных демонстраций и реальных корпоративных сбоев, мы объясняем, как злоумышленники взламывают системы ИИ, используя скрытые инструкции, вводящий в заблуждение контент и манипулированные данные, — и как от этого можно защититься.
Это видео основано на моем полном анализе уязвимостей безопасности LLM и мер по их устранению из LLM01: Prompt Injection. 00:00 - 00:45 – Введение
00:45 - 02:21 - Внедрение подсказок
02:21 - 03:45 - Пример: простая аналогия
03:45 - 05:14 - Где проявляется внедрение подсказок
05:14 - 05:35 - Типичные цели злоумышленников
05:35 - 08:31 - Виды внедрения подсказок
08:31 - 09:56 - Пример: Прямая инъекция подсказок
09:56 - 10:46 - Пример: Косвенная инъекция подсказок
10:46 - 11:20 - Пример 1: Уязвимость плагина ChatGPT (прямая инъекция)
11:20 - 12:32 - Не то, на что подписываешься (косвенная инъекция)
12:32 - 13:14 - Почему опасна быстрая инъекция
13:14 - 14:13 - Ключевые факторы риска
14:13 - 16:10 - Минимизация рисков
16:10 - 16:45 - Урок для руководителей служб информационной безопасности
Практическое занятие по ИИ
• VIBE Coding Explained: Build Apps From Eng...
Практическая архитектура безопасности
• AI Security Architecture Secrets You Need ...
GENAI Безопасность
• Gen AI Security in 2025
#PromptInjection
#LLMSecurity
#AISecurity
#RAGSecurity
#GenAISecurity
#CyberSecurity
#CISO
#AIThreats
#AIAttacks
#TechExplained
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: