ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

POPri: Private Federated Learning using Preference-Optimized Synthetic Data

Автор: Google TechTalks

Загружено: 2026-01-26

Просмотров: 103

Описание: A Google TechTalk, 2025-12-17, presented by Charlie Hou
Privacy in Machine Learning Seminar. ABSTRACT: In practical settings, differentially private Federated learning (DP-FL) is the dominant method for training models from private, on-device client data. Recent work has suggested that DP-FL may be enhanced or outperformed by methods that use DP synthetic data (Wu et al., 2024; Hou et al., 2024). The primary algorithms for generating DP synthetic data for FL applications require careful prompt engineering based on public information and/or iterative private client feedback. Our key insight is that the private client feedback collected by prior DP synthetic data methods (Hou et al., 2024; Xie et al., 2024) can be viewed as an RL (reinforcement learning) reward. Our algorithm, Policy Optimization for Private Data (POPri) harnesses client feedback using policy optimization algorithms such as Direct Preference Optimization (DPO) to fine-tune LLMs to generate high-quality DP synthetic data. To evaluate POPri, we release LargeFedBench, a new federated text benchmark for uncontaminated LLM evaluations on federated client data. POPri substantially improves the utility of DP synthetic data relative to prior work on LargeFedBench datasets and an existing benchmark from Xie et al. (2024). POPri closes the gap between next-token prediction accuracy in the fully-private and non-private settings by up to 58%, compared to 28% for prior synthetic data methods, and 3% for state-of-the-art DP federated learning methods.

https://arxiv.org/abs/2504.16438

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
POPri: Private Federated Learning using Preference-Optimized Synthetic Data

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Privacy Ripple Effects from Adding or Removing Personal Information in Language Model Training

Privacy Ripple Effects from Adding or Removing Personal Information in Language Model Training

Модели угроз для запоминания: конфиденциальность, авторское право и все, что между ними.

Модели угроз для запоминания: конфиденциальность, авторское право и все, что между ними.

Fine-Tuning Generation Models | Chapter 12 — Hands-On Large Language Models

Fine-Tuning Generation Models | Chapter 12 — Hands-On Large Language Models

Differentially Private Synthetic Data without Training

Differentially Private Synthetic Data without Training

Private Adaptations of Large Language Models

Private Adaptations of Large Language Models

LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!

LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!

Persistent Pre-Training Poisoning of LLMs

Persistent Pre-Training Poisoning of LLMs

За пределами доверия: доказательство справедливости и конфиденциальности в машинном обучении

За пределами доверия: доказательство справедливости и конфиденциальности в машинном обучении

Going Back and Beyond: Emerging (Old) Threats in LLM Privacy and Poisoning

Going Back and Beyond: Emerging (Old) Threats in LLM Privacy and Poisoning

21 неожиданный способ использовать Gemini в повседневной жизни

21 неожиданный способ использовать Gemini в повседневной жизни

Leveraging Per-Instance Privacy for Machine Unlearning

Leveraging Per-Instance Privacy for Machine Unlearning

Чем ОПАСЕН МАХ? Разбор приложения специалистом по кибер безопасности

Чем ОПАСЕН МАХ? Разбор приложения специалистом по кибер безопасности

Может ли у ИИ появиться сознание? — Семихатов, Анохин

Может ли у ИИ появиться сознание? — Семихатов, Анохин

Выступление Сергея Караганова на Зиновьевских чтениях — 2026

Выступление Сергея Караганова на Зиновьевских чтениях — 2026

Privacy Auditing of Large Language Models

Privacy Auditing of Large Language Models

Управление поведением LLM без тонкой настройки

Управление поведением LLM без тонкой настройки

Вывод на основе смешанных данных: что токенизаторы BPE раскрывают об обучающих данных?

Вывод на основе смешанных данных: что токенизаторы BPE раскрывают об обучающих данных?

The Limits and Possibilities of One Run Auditing

The Limits and Possibilities of One Run Auditing

Как я использую ИИ для качественного анализа всего

Как я использую ИИ для качественного анализа всего

"Можно наличкой?" Почему в магазинах стали чаще это просить? Дмитрий Потапенко

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]