Безопасны ли модели ИИ с открытым исходным кодом?
Автор: Alexey Makarov | Unreasonable AI
Загружено: 2025-10-27
Просмотров: 1233
Описание:
#OpenSourceAI #LLMSecurity #AI
Безопасны ли LLM с открытым исходным кодом? Короткий ответ: это сложно. Вы можете запускать их офлайн, но скрытые инструкции по обучению данных всё равно могут впоследствии спровоцировать опасное поведение.
В этом видео:
• Почему принцип «изолированный = безопасный» не всегда верен
• Как могут сработать бэкдоры в данных обучения и временные триггеры (например, сценарий «2035»)
• Риск моделей с доступом к ОС: терминалы, файлы, электронная почта
• Почему доверие к поставщикам важно как для моделей с открытым исходным кодом, так и для проприетарных моделей (OpenAI, Anthropic)
• Практический вывод: осведомлённость о встроенных рисках в широко используемых программах LLM
Серия: Часть 2 нашего глубокого погружения в модели с открытым исходным кодом (в предыдущем видео мы рассказывали о моделях с открытым исходным кодом)
📦 Присоединяйтесь к сообществу Unreasonable AI:
Telegram → https://t.me/unreasonableai
🛠 Начните разрабатывать с n8n → https://n8n.partnerlinks.io/knp8qzaony3y
(Это моя партнёрская ссылка — вы можете поддержать канал бесплатно. Спасибо!)
#AIThoughts #ИИ #AINews #ИскусственныйИнтеллект #LLM #ГенеративныйИИ
#БезопасностьМоделей #Бэкдоры #ОтравлениеДанных
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: