ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Colin Raffel: Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer

Автор: Ai2

Загружено: 2020-01-20

Просмотров: 15841

Описание: Transfer learning, where a model is first pre-trained on a data-rich task before being fine-tuned on a downstream task, has emerged as a powerful technique in natural language processing (NLP). The effectiveness of transfer learning has given rise to a diversity of approaches, methodology, and practice. In this talk, I will discuss our recent paper where we explored the landscape of transfer learning techniques for NLP by introducing a unified framework that converts every language problem into a text-to-text format. Our systematic study compared pre-training objectives, architectures, unlabeled datasets, transfer approaches, and other factors on dozens of language understanding tasks. By combining the insights from our exploration with scale and our new "Colossal Clean Crawled Corpus", we achieved state-of-the-art results on many benchmarks covering summarization, question answering, text classification, and more. I will wrap up by discussing some of our ongoing and future work on transfer learning for NLP.

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Colin Raffel: Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Anna Rogers: Towards AI Complete Question Answering

Anna Rogers: Towards AI Complete Question Answering

Visualizing transformers and attention | Talk for TNG Big Tech Day '24

Visualizing transformers and attention | Talk for TNG Big Tech Day '24

Build an Ecosystem, Not a Monolith

Build an Ecosystem, Not a Monolith

Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer

Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer

Атака на кортеж правительства / Заговор против президента

Атака на кортеж правительства / Заговор против президента

Visual Foundation Model Flywheel

Visual Foundation Model Flywheel

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

[1hr Talk] Intro to Large Language Models

[1hr Talk] Intro to Large Language Models

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

ICLR 2021 Keynote -

ICLR 2021 Keynote - "Geometric Deep Learning: The Erlangen Programme of ML" - M Bronstein

Transfer learning and Transformer models (ML Tech Talks)

Transfer learning and Transformer models (ML Tech Talks)

Stanford CS25: V2 I Introduction to Transformers w/ Andrej Karpathy

Stanford CS25: V2 I Introduction to Transformers w/ Andrej Karpathy

Applying the four step

Applying the four step "Embed, Encode, Attend, Predict" framework to predict document similarity

УХТОМСКИЙ - физиолог ДОКАЗАЛ, что МОЗГ сам выбирает РЕАЛЬНОСТЬ. ОДИН против всех !

УХТОМСКИЙ - физиолог ДОКАЗАЛ, что МОЗГ сам выбирает РЕАЛЬНОСТЬ. ОДИН против всех !

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks, with Patrick Lewis, Facebook AI

Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks, with Patrick Lewis, Facebook AI

T5: Exploring Limits of Transfer Learning with Text-to-Text Transformer (Research Paper Walkthrough)

T5: Exploring Limits of Transfer Learning with Text-to-Text Transformer (Research Paper Walkthrough)

LSTM is dead. Long Live Transformers!

LSTM is dead. Long Live Transformers!

Музыка для работы за компьютером | Фоновая музыка для концентрации и продуктивности

Музыка для работы за компьютером | Фоновая музыка для концентрации и продуктивности

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]