ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

LLMs | Parameter Efficient Fine-Tuning (PEFT) | Lec 14.1

Автор: LCS2

Загружено: 2024-09-27

Просмотров: 4844

Описание: tl;dr: This lecture covers various techniques of Parameter Efficient Fine-Tuning (PEFT) that enable significant modifications to LLMs without overhauling their entire structure, focusing on customizing models for specific applications with minimal computational cost and resource usage.

🎓 Lecturer: Dinesh Raghu [https://research.ibm.com/people/dines...]
🔗 Get the Slides Here: http://lcs2.in/llm2401
📚 Suggested Readings: - [The Power of Scale for Parameter-Efficient Prompt Tuning](https://arxiv.org/pdf/2104.08691)
[Prefix-Tuning: Optimizing Continuous Prompts for Generation](https://arxiv.org/pdf/2101.00190)
[Parameter-Efficient Transfer Learning for NLP](https://arxiv.org/pdf/1902.00751)
[LoRA: Low-Rank Adaptation of Large Language Models](https://arxiv.org/pdf/2106.09685)

This lecture delves into Parameter Efficient Fine-Tuning (PEFT) techniques, which are crucial for adapting large language models (LLMs) without the need for extensive retraining of all parameters. We'll explore innovative methods such as prompt tuning, prefix tuning, adapters, and low-rank adaptation (LoRA), which enable more targeted and resource-efficient modifications to pre-trained models. These techniques are essential for anyone looking to customize LLMs for specific tasks while maintaining scalability and efficiency.

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
LLMs | Parameter Efficient Fine-Tuning (PEFT) | Lec 14.1

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

LLMs | Quantization, Pruning & Distillation | Lec 14.2

LLMs | Quantization, Pruning & Distillation | Lec 14.2

Domain adaptation and fine-tuning for domain-specific LLMs: Abi Aryan

Domain adaptation and fine-tuning for domain-specific LLMs: Abi Aryan

Объяснение LoRA (и немного о точности и квантизации)

Объяснение LoRA (и немного о точности и квантизации)

Parameter Efficient Fine Tuning PEFT

Parameter Efficient Fine Tuning PEFT

LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!

LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!

LLM (Parameter Efficient) Fine Tuning - Explained!

LLM (Parameter Efficient) Fine Tuning - Explained!

Large Language Models

Large Language Models

Fine-tuning LLMs with PEFT and LoRA

Fine-tuning LLMs with PEFT and LoRA

LLMs | Mixture of Experts(MoE) - I  | Lec 10.1

LLMs | Mixture of Experts(MoE) - I | Lec 10.1

LoRA - Объяснено!

LoRA - Объяснено!

Fine-Tuning BERT for Text Classification (w/ Example Code)

Fine-Tuning BERT for Text Classification (w/ Example Code)

Гипотеза Какея (не смеяться, это серьёзная математика) | LAPLAS

Гипотеза Какея (не смеяться, это серьёзная математика) | LAPLAS

Visualizing transformers and attention | Talk for TNG Big Tech Day '24

Visualizing transformers and attention | Talk for TNG Big Tech Day '24

How to Fine-tune LLMs with Unsloth: Complete Guide

How to Fine-tune LLMs with Unsloth: Complete Guide

A Guide to Parameter-Efficient Fine-Tuning - Vlad Lialin | Munich NLP Hands-on 021

A Guide to Parameter-Efficient Fine-Tuning - Vlad Lialin | Munich NLP Hands-on 021

Fine-tuning LLMs with PEFT and LoRA - Gemma model & HuggingFace dataset

Fine-tuning LLMs with PEFT and LoRA - Gemma model & HuggingFace dataset

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

Intro to Fine-Tuning Large Language Models

Intro to Fine-Tuning Large Language Models

Fine-tuning LLMs on Human Feedback (RLHF + DPO)

Fine-tuning LLMs on Human Feedback (RLHF + DPO)

EASIEST Way to Fine-Tune a LLM and Use It With Ollama

EASIEST Way to Fine-Tune a LLM and Use It With Ollama

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]