ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Прототипы с дифференциальной приватностью для несбалансированного трансферного обучения

Автор: Google TechTalks

Загружено: 2026-01-26

Просмотров: 90

Описание: Доклад на Google TechTalk, 28.08.2024, представленный Дариушем Вахдани.
Семинар по конфиденциальности в машинном обучении. АННОТАЦИЯ: Было показано, что модели машинного обучения (МО) допускают утечку конфиденциальной информации из своих обучающих наборов данных. Дифференцированная конфиденциальность (ДП), обычно реализуемая с помощью алгоритма стохастического градиентного спуска с дифференциальной конфиденциальностью (ДП-СГС), стала стандартным решением для ограничения утечки информации из моделей. Несмотря на недавние улучшения, подходы к обучению с использованием ДП-СГС для обеспечения конфиденциальности по-прежнему обычно испытывают трудности в условиях высокой конфиденциальности ($\varepsilon\leq 1$) и малого объема данных, а также когда обучающие наборы данных с конфиденциальной информацией несбалансированы. Для преодоления этих ограничений мы предлагаем обучение прототипов с дифференциальной конфиденциальностью (ДПФ) в качестве новой парадигмы для трансферного обучения с обеспечением конфиденциальности. ДПФ использует общедоступные предварительно обученные кодировщики для извлечения признаков из конфиденциальных данных и генерирует прототипы ДП, которые представляют каждый конфиденциальный класс в пространстве вложений и могут быть публично выпущены для вывода. Поскольку наши прототипы DP можно получить всего из нескольких частных обучающих данных и без итеративного добавления шума, они обеспечивают высокую полезность прогнозов и надежные гарантии конфиденциальности даже в рамках концепции чистого DP. Мы также показываем, что компромисс между конфиденциальностью и полезностью может быть дополнительно улучшен при использовании общедоступных данных, выходящих за рамки предварительного обучения кодировщика: в частности, мы можем конфиденциально выбирать наши прототипы DP из общедоступных точек данных, используемых для обучения кодировщика. Наша экспериментальная оценка с четырьмя современными кодировщиками, четырьмя наборами данных для обработки изображений и в различных режимах данных и несбалансированности демонстрирует высокую производительность DPPL при надежных гарантиях конфиденциальности в сложных условиях обучения с использованием частных данных.

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Прототипы с дифференциальной приватностью для несбалансированного трансферного обучения

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Privacy Ripple Effects from Adding or Removing Personal Information in Language Model Training

Privacy Ripple Effects from Adding or Removing Personal Information in Language Model Training

Модели угроз для запоминания: конфиденциальность, авторское право и все, что между ними.

Модели угроз для запоминания: конфиденциальность, авторское право и все, что между ними.

Persistent Pre-Training Poisoning of LLMs

Persistent Pre-Training Poisoning of LLMs

За пределами доверия: доказательство справедливости и конфиденциальности в машинном обучении

За пределами доверия: доказательство справедливости и конфиденциальности в машинном обучении

Стабильные оценки для быстрой частной статистики

Стабильные оценки для быстрой частной статистики

Нейросети захватили соцсети: как казахстанский стартап взорвал все AI-тренды и стал единорогом

Нейросети захватили соцсети: как казахстанский стартап взорвал все AI-тренды и стал единорогом

UNISOC: как китайский

UNISOC: как китайский "мусор" захватил мир и спас Samsung

ФАИНА РАНЕВСКАЯ знала ТАЙНЫ советского кино! Орлова, Высоцкий, Гурченко - правда ШОКИРУЕТ!

ФАИНА РАНЕВСКАЯ знала ТАЙНЫ советского кино! Орлова, Высоцкий, Гурченко - правда ШОКИРУЕТ!

Cascading Adversarial Bias from Injection to Distillation in Language Models

Cascading Adversarial Bias from Injection to Distillation in Language Models

Going Back and Beyond: Emerging (Old) Threats in LLM Privacy and Poisoning

Going Back and Beyond: Emerging (Old) Threats in LLM Privacy and Poisoning

Когда ИИ Полностью ЗАМЕНИТ ЧЕЛОВЕКА? | Либерманы

Когда ИИ Полностью ЗАМЕНИТ ЧЕЛОВЕКА? | Либерманы

Роботы, Которых Никто Не Ожидал Увидеть на CES 2026

Роботы, Которых Никто Не Ожидал Увидеть на CES 2026

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

Вывод на основе смешанных данных: что токенизаторы BPE раскрывают об обучающих данных?

Вывод на основе смешанных данных: что токенизаторы BPE раскрывают об обучающих данных?

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Leveraging Per-Instance Privacy for Machine Unlearning

Leveraging Per-Instance Privacy for Machine Unlearning

Потоковая передача данных непрерывного частного подсчета с использованием биннинга

Потоковая передача данных непрерывного частного подсчета с использованием биннинга

SAMSUNG против TSMC: БИТВА 2 нанометров | РАЗБОР

SAMSUNG против TSMC: БИТВА 2 нанометров | РАЗБОР

В погоне за константами и ее последствиях для дифференциальной конфиденциальности

В погоне за константами и ее последствиях для дифференциальной конфиденциальности

Каскадная враждебная предвзятость от внедрения до дистилляции в языковых моделях

Каскадная враждебная предвзятость от внедрения до дистилляции в языковых моделях

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]