Вы можете отравить ChatGPT 250 документами (серьёзно)
Автор: Motion
Загружено: 2025-10-21
Просмотров: 617
Описание:
🔥 Попробуйте новые ИИ-агенты Motions бесплатно: https://www.usemotion.com/?utm_source...
Новое пугающее исследование Anthropic показывает, что большие языковые модели (LLM) можно «отравить» всего 250 вредоносными документами. В этом видео объясняется, как работают атаки с мгновенным внедрением кода, как простые фразы, такие как «sudo», создают бэкдоры, и какие серьёзные последствия это имеет для безопасности инструментов ИИ. #AISecurity #PromptInjection #LLMRisks
Главы:
00:00 - LLM в беде
01:35 - Пример триггера «Sudo»
02:45 - Риски для разработчиков инструментов ИИ
03:34 - Как работает отравление
05:00 - Тестирование размеров моделей
06:07 - Почему это важно
06:28 - Реальный сценарий угрозы
08:51 - Понимаем ли мы ИИ?
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: