ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Vidéo 8 Transformer Chap 3

Автор: JayXploreAI

Загружено: 2026-01-15

Просмотров: 13

Описание: Dans la vidéo précédente nous avons parlé de l’opération d’imbrication des mots d’un prompt.L'étape suivante va enrichir ces traits par un chiffrage du contexte de la phrase… C'est l'étape d'attention qui est le cœur du transformer.C'est au mérite reconnu des chercheurs chez Google d'avoir créé cette fonctionnalité en intégrant 50 années de recherches sur le phénomène de l'attention chez l'humain. Il s’agit d’un processus assez complexe pour lequel je vais, comme pas mal de vulgarisateurs penchés sur le sujet, utiliser une analogie, par exemple le rapport entre les adjectifs et les substantifs, afin de vous faire comprendre l'idée de base. Il y a, dans une phrase, des relations sémantiques entre les mots. Ainsi, quand on dit le vieux roi, l'adjectif vieux limite le sens de roi. Ce n'est plus n'importe quel roi, il a pris un sens plus restreint. Et l'article le contraint également le sens de roi, en ce sens qu'il n'y en a qu'un. Et, ce qu'il faut bien noter, ces contraintes sont strictement confinées à la phrase où elles apparaissent.Dans une autre phrase apparaîtra un roi jeune, voire plusieurs rois.Restons dans l'exemple des noms modifiés par des adjectifs. Et réduisons le processus d'attention à une seule passe, alors que dans la réalité il y en a une centaine qui réalisent des enrichissements progressifs.Il est important de comprendre que ces enrichissements se font dans une fenêtre de contexte, liée à la session d'utilisation, et ne modifient en rien le vocabulaire de base du LLM. Revenons à notre phrase partielle : "Lors du bal princier le vieux roi s'était assis sur [quoi?]". De façon simplifiée, le réseau neuronal qu'on appelle tête d'attention pose une question à chaque mot (autre question à chaque mot : "as-tu un effet sur un autre mot de la phrase ?" - cela s'appelle une key, soit une clé. La réponse à ces deux questions est représentée par un nombre, attaché à ce couple de mots. Tout le mystère réside dans la création de ces questions. En réalité, elles résultent d'un apprentissage initial pendant lequel le processus neuronal a appris pour chaque mot du vocabulaire les paramètres de query et les paramètres de key.Dans notre exemple, il ne s'agit que des adjectifs, mais d'autres ensembles de querys et keys sont appris pour des influenceurs différents, par exemple les adverbes qui influent sur les verbes. Dans GPT3 une centaine de ces influences sont considérées. Le processus passe ensuite la liste de traits de chaque mot de la phrase dans un ensemble de réseaux neuronaux qui utilisent ces querys et keys.Cela fournit un nombre, que l'on peut considérer, dans notre exemple, comme l'influence des adjectifs sur les substantifs qui y sont associés, donc, toujours dans l’exemple, de vieux sur roi. Ces nombres servent à enrichir progressivement la liste de traits de chaque mot de la phrase dans un processus multipasses (96 passes dans GPT3). Pour notre roi, cela correspond à l'impact chiffré que vieux a sur lui, de même que celui de l'article le.Et ainsi enrichis de plus en plus de contexte, la liste de traits de chaque mot continue son itération à travers le transformer…À la sortie, nous disposons pour chaque mot d’une liste de traits largement enrichis de contexte, … mais ce n'est pas suffisant. Il y manque une connaissance plus globale. Une connaissance qui, en quelque sorte, contient le mot suivant attendu. https://www.amazon.fr/dp/B0FZC75NW2 #artificialintelligence #intelligenceartificielle #gpt #conscience

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Vidéo 8 Transformer Chap 3

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Ep49 - Pourquoi il ne faut pas dire “Bon appétit” et autres règles de savoir-vivre avec Jérémy Côme

Ep49 - Pourquoi il ne faut pas dire “Bon appétit” et autres règles de savoir-vivre avec Jérémy Côme

Comment l’IA construit-elle son vocabulaire ?

Comment l’IA construit-elle son vocabulaire ?

Après cette vidéo, son inconscient commencera à te chercher sans raison .

Après cette vidéo, son inconscient commencera à te chercher sans raison .

V8 Transformer Chap 1

V8 Transformer Chap 1

Самый короткий тест на интеллект Задача Массачусетского профессора

Самый короткий тест на интеллект Задача Массачусетского профессора

Удалил Notion: Как ИИ наводит порядок в делах (n8n + NotebookLM + Gemini)

Удалил Notion: Как ИИ наводит порядок в делах (n8n + NotebookLM + Gemini)

Neural networks

Neural networks

6 упражнений, которые ЯПОНЦЫ делают, чтобы УДВОИТЬ СИЛУ НОГ после 60 🦵🚀

6 упражнений, которые ЯПОНЦЫ делают, чтобы УДВОИТЬ СИЛУ НОГ после 60 🦵🚀

Fusion 360 Уроки для начинающих

Fusion 360 Уроки для начинающих

Чем ОПАСЕН МАХ? Разбор приложения специалистом по кибер безопасности

Чем ОПАСЕН МАХ? Разбор приложения специалистом по кибер безопасности

Сможете решить Олимпиадное задание

Сможете решить Олимпиадное задание

Google превратил Gmail в центр управления искусственным интеллектом.

Google превратил Gmail в центр управления искусственным интеллектом.

Для Чего РЕАЛЬНО Нужен был ГОРБ Boeing 747?

Для Чего РЕАЛЬНО Нужен был ГОРБ Boeing 747?

Выходная головоломка Пошевели извилинами

Выходная головоломка Пошевели извилинами

ЗАВАЛЬНОЕ УРАВНЕНИЕ!  РЕШАЕТ 8-КЛАССНИЦА!

ЗАВАЛЬНОЕ УРАВНЕНИЕ! РЕШАЕТ 8-КЛАССНИЦА!

Важные открытия XXI века: почему рак победил и что не так с клонированием? Что скрывают нобелевки?

Важные открытия XXI века: почему рак победил и что не так с клонированием? Что скрывают нобелевки?

Задача из вступительных Стэнфорда

Задача из вступительных Стэнфорда

Уоррен Баффет: Если вы хотите разбогатеть, перестаньте покупать эти 5 вещей.

Уоррен Баффет: Если вы хотите разбогатеть, перестаньте покупать эти 5 вещей.

Звучи как АМЕРИКАНЕЦ 10 ФРАЗ

Звучи как АМЕРИКАНЕЦ 10 ФРАЗ

60 min | Relaxing Screensaver | Bokeh Warm Glowing Lights

60 min | Relaxing Screensaver | Bokeh Warm Glowing Lights

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]