ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Fine-tuning LLMs with PEFT and LoRA - Gemma model & HuggingFace dataset

Автор: AI Bites

Загружено: 2024-03-01

Просмотров: 12381

Описание: In this video, I give a code walkthrough of finetuning the latest Gemma 2B parameter model from Google in the HuggingFace ecosystem.

I have created a new Databricks-dolly-mini dataset derived from the Databricks-dolly-15k dataset. The newly created dataset is then used to fine-tune Gemma 2b to visualize the training progress and the results.


⌚️ ⌚️ ⌚️ TIMESTAMPS ⌚️ ⌚️ ⌚️
0:00 - Intro
1:24 - Preliminaries & Installation
2:44 - Run inference on pre-trained Gemma-2b
4:44 - Motivation for Parameter Efficient Fine-tuning (PEFT)
7:58 - Create a custom dataset for finetuning
11:58 - Tips for fine-tuning (parameters)
19:29 - Supervised Fine-tuning
20:30 - Training visualization & Interpretations
23:04 - Conclusion


RELATED LINKS
Colab Notebook: https://github.com/ai-bites/generativ...
Google's Gemma: https://blog.google/technology/develo...
Databricks Dolly 15k dataset: https://huggingface.co/datasets/datab...
New Databricks Dolly mini dataset: https://huggingface.co/datasets/ai-bi...
LoRA paper: https://arxiv.org/abs/2106.09685
My LoRA video:    • LoRA (Low-rank Adaption of AI Large Langua...  
My QLoRA video:    • QLoRA paper explained (Efficient Finetunin...  


MY KEY LINKS
YouTube:    / @aibites  
Twitter:   / ai_bites​  
Patreon:   / ai_bites​  
Github: https://github.com/ai-bites​


WHO AM I?
I am a Machine Learning researcher/practitioner who has seen the grind of academia and start-ups equally. I started my career as a software engineer 16 years ago. Because of my love for Mathematics (coupled with a glimmer of luck), I graduated with a Master's in Computer Vision and Robotics in 2016 when the now happening AI revolution started. Life has changed for the better ever since.

#machinelearning #deeplearning #aibites

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Fine-tuning LLMs with PEFT and LoRA - Gemma model & HuggingFace dataset

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

GGUF quantization of LLMs with llama cpp

GGUF quantization of LLMs with llama cpp

Fine-tuning Large Language Models (LLMs) | w/ Example Code

Fine-tuning Large Language Models (LLMs) | w/ Example Code

Retell’s NEW AI QA Tool Just Changed Voice Agents

Retell’s NEW AI QA Tool Just Changed Voice Agents

Объяснение LoRA (и немного о точности и квантизации)

Объяснение LoRA (и немного о точности и квантизации)

Объяснение статьи QLoRA (Эффективная тонкая настройка квантованных LLM)

Объяснение статьи QLoRA (Эффективная тонкая настройка квантованных LLM)

Почему RAG терпит неудачу — как CLaRa устраняет свой главный недостаток

Почему RAG терпит неудачу — как CLaRa устраняет свой главный недостаток

Настройте свою собственную крошечную ламу на основе пользовательского набора данных

Настройте свою собственную крошечную ламу на основе пользовательского набора данных

Почему диффузия работает лучше, чем авторегрессия?

Почему диффузия работает лучше, чем авторегрессия?

Подробное объяснение тонкой настройки LoRA и QLoRA

Подробное объяснение тонкой настройки LoRA и QLoRA

Самая сложная модель из тех, что мы реально понимаем

Самая сложная модель из тех, что мы реально понимаем

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Замена Claude Code за 0₽? Cline + Qwen = сайт на Vibe Code с нуля

Замена Claude Code за 0₽? Cline + Qwen = сайт на Vibe Code с нуля

Низкоранговая адаптация больших языковых моделей: объяснение ключевых концепций LoRA

Низкоранговая адаптация больших языковых моделей: объяснение ключевых концепций LoRA

«Хорошо, но мне нужна Llama 3 для моего конкретного случая использования» — вот как

«Хорошо, но мне нужна Llama 3 для моего конкретного случая использования» — вот как

Anyone can Fine Tune LLMs using LLaMA Factory: End-to-End Tutorial

Anyone can Fine Tune LLMs using LLaMA Factory: End-to-End Tutorial

it only took 2 characters

it only took 2 characters

Fine-tuning LLMs with PEFT and LoRA

Fine-tuning LLMs with PEFT and LoRA

Обучить собственную модель искусственного интеллекта не так сложно, как вы (вероятно) думаете

Обучить собственную модель искусственного интеллекта не так сложно, как вы (вероятно) думаете

Fine-tuning Language Models for Structured Responses with QLoRa

Fine-tuning Language Models for Structured Responses with QLoRa

LoRA (низкоранговая адаптация больших языковых моделей ИИ) для тонкой настройки моделей LLM

LoRA (низкоранговая адаптация больших языковых моделей ИИ) для тонкой настройки моделей LLM

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]