Практическое занятие 13: Создание федеративного обучения с использованием FedAvg, FedProx, FedDAN...
Автор: BrainOmega
Загружено: 2025-07-30
Просмотров: 4550
Описание:
💖 Поддержите BrainOmega
☕ Купите мне кофе: https://buymeacoffee.com/brainomega
💳 Stripe: https://buy.stripe.com/aFa00i6XF7jSbf...
💰 PayPal: https://paypal.me/farhadrh
🎥 Хотите реализовать федеративное обучение с нуля на наборе данных MNIST и сравнить FedAvg, FedProx, FedDANE и FedSGD? В этом практическом занятии мы разделим набор данных MNIST между клиентами, построим модель CNN, напишем вспомогательные функции для усреднения, реализуем четыре оптимизатора на стороне клиента и организуем цикл агрегации и оценки на сервере. Никаких волшебных библиотек — только чистый PyTorch и пошаговое руководство!
💻 Код на GitHub: https://github.com/frezazadeh/federat...
⸻
🔖 Разделы и временные метки
00:00:00 1. Введение и обзор: Что такое федеративное обучение?
00:01:50 2. Структура проекта и конфигурация (config.py)
00:03:14 3. Разделение данных (data_loader.py)
00:04:25 4. Архитектура модели (model.py)
00:05:40 5. Вспомогательные функции (utils.py): Усреднение моделей и градиентов
00:08:22 6. Оптимизаторы (optimizers.py): FedAvg, FedProx, FedDANE, FedSGD
00:11:02 7. Клиентская логика (client.py): Локальный цикл обучения
00:15:05 8. Серверная логика (server.py): Выбор и агрегация клиентов
00:17:44 9. Основной скрипт (main.py): Оркестрация и сохранение модели
00:19:18 10. Заключение
⸻
📚 Что вы узнаете
• Теория федеративного обучения — понимание обучения с сохранением конфиденциальности без централизации данных.
• Клиент-серверная архитектура — разделение данных, локальное обучение и безопасное агрегирование обновлений.
• Реализация четырех алгоритмов — FedAvg, проксимальный член FedProx, коррекция градиента FedDANE и глобальное применение градиента FedSGD.
• Чистый код PyTorch — от загрузки данных до сохранения модели, объяснение каждой строки кода.
• Расширяемость — узнайте, как адаптировать фреймворк к новым наборам данных, большему количеству клиентов или продвинутым стратегиям выбора.
⸻
✅ Почему стоит посмотреть это видео?
• Полное руководство — никаких пропущенных шагов или «черных ящиков»: вы напишете каждый компонент самостоятельно.
• Подробный анализ кода — детальные объяснения гиперпараметров, логики оптимизатора и функций агрегирования.
• Практическая работа — клонируйте репозиторий, запускайте скрипты и наблюдайте, как ваша глобальная модель улучшается с каждым раундом.
• Подготовка к реальному федеративному обучению — заложите основу для решения задач в области здравоохранения, Интернета вещей или мобильного федеративного обучения.
⸻
👍 Если вам это помогло, пожалуйста:
• Поставьте лайк 👍
• Подпишитесь 🔔, чтобы получать больше подробных обзоров машинного обучения и руководств по программированию
• Поделитесь с вашей сетью
💬 Присоединяйтесь к обсуждению:
• Какой федеративный оптимизатор, по вашему мнению, лучше всего балансирует производительность и конфиденциальность?
• Как бы вы расширили этот код для неидентичных разделов данных или более сложных моделей?
⸻
#FederatedLearning #FedAvg #FedProx #FedDANE #FedSGD #PyTorch #MNIST #DeepLearning #Privacy #DistributedAI #MachineLearningTutorial
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: