AI под прицелом: Как защитить LLM-агентов от атак и утечек?
Автор: South HUB
Загружено: 2026-03-17
Просмотров: 72
Описание:
Вы внедрили AI-ассистента. Он обучен на внутренних документах. Сотрудники в восторге. Но:
— Что будет, если кто-то попросит AI выдать базу клиентов — и он выдаст?
— Как защитить RAG-систему от утечек через "невинные" промпты?
— Кто отвечает, когда модель сливает конфиденциальные данные?
Честный разговор о том, как не превратить AI-трансформацию в security-катастрофу.
Разберём, как работают prompt injection и jailbreak, как модели сливают конфиденциальные данные и что с этим делать. Обсудим, что именно требует регулятор в контексте AI compliance, и пройдёмся по рабочим практикам: red teaming для тестирования уязвимостей, мониторинг аномалий в запросах и безопасный промпт-дизайн.
Спикеры:
— Андрей Кузнецов, Head of ML at Positive Technologies (модератор) / / kuznetsov-as
— Владислав Тушканов, руководитель MLTech, Kaspersky / http://t.me/llmsecurity
— Эмели Драль, Co-founder & CTO Evidently AI / https://t.me/emeliml
— Артём Семенов, независимый эксперт / http://t.me/pwnai
Эфир для тех, кто внедряет AI-агенты и RAG-системы: CDO, CTO, CISO, heads of ML/AI и data-платформ.
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: