ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Yapay Zeka Nasıl Çalışır? | Bölüm 2 - Normalization, Positional Embedding ve Attention Mekanizması

Автор: Mehmet Hilmi ML

Загружено: 2025-05-11

Просмотров: 3389

Описание: Serimizin ikinci bölümüne hoş geldiniz!
İlk videoda LLaMA 3 8B modelinin genel mimarisine giriş yapmış, tokenizer ve embedding süreçlerini ele almıştık. Bu bölümde ise artık modelin kalbine doğru ilerliyoruz: Attention mekanizması ve onu besleyen temel yapılar.

🧠 Büyük dil modellerinin (LLM) temelinde yatan self-attention yapısı, bu modellerin "anlam" üretmesini sağlayan en kritik bileşenlerden biri. Bu videoda, bu yapıyı tüm katmanlarıyla birlikte detaylıca inceliyoruz.

🎯 Bu bölümde neler anlattım?

a) Attention katmanına giriş

b) Query, Key ve Value matrislerinin ne işe yarar?

c) Matris çarpımı ile benzerlik skoru hesaplama mantığı nedir?

d) Softmax fonksiyonunun burada neden kullanılır?

e) RMS Normalization nedir?

f) Rotary Positional Embedding kavramı nedir?

🎥 Teknik detaylara sadık kalarak ve diyagramlarla destekleyerek ilerledim; bu sayede LLM'lerin nasıl çalıştığını sadece yüzeysel değil, gerçek matematiksel temelleriyle öğrenebileceksiniz. Eğer amacınız yapay zekayı kullanmaktan öte, onun nasıl çalıştığını anlamaksa — bu video tam size göre.

📺 Serinin önceki bölümünü izlemediyseniz, ilk videodan başlamanızı öneririm: [ilk video linki buraya]

👍 Bu tarz içeriklerin daha fazla gelmesi için videoyu beğenmeyi, yorum yapmayı ve paylaşmayı unutmayalım. Aynı zamanda bana destek olmak için kanala abone olabilirsiniz.

Serinin devamında MLP yapıları, residual bağlantılar, çıkış katmanı gibi konularla yolculuğumuz sürecek.

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Yapay Zeka Nasıl Çalışır? | Bölüm 2 - Normalization, Positional Embedding ve Attention Mekanizması

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Yapay Zeka Nasıl Çalışır? | Bölüm 3 – MLP Katmanı

Yapay Zeka Nasıl Çalışır? | Bölüm 3 – MLP Katmanı

Kendi Yapay Zekamızı Nasıl Kurarız?

Kendi Yapay Zekamızı Nasıl Kurarız?

Flow chart Visual Programming - Örnekler - (Dik üçgen- Daire Alanı - Tam bölen bulma)

Flow chart Visual Programming - Örnekler - (Dik üçgen- Daire Alanı - Tam bölen bulma)

Yapay Zeka Nasıl Çalışır? | Bölüm 1 - Diyagram Tanıtımı, Tokenizer ve Embedding

Yapay Zeka Nasıl Çalışır? | Bölüm 1 - Diyagram Tanıtımı, Tokenizer ve Embedding

Baştan Yapay Zeka Öğrenmek İsteyenlere Tavsiyeler

Baştan Yapay Zeka Öğrenmek İsteyenlere Tavsiyeler

Veri Analisti Olmak için Neler Bilmek Lazım?

Veri Analisti Olmak için Neler Bilmek Lazım?

Yapay Zeka'da Çığır Açan Makale: Attention Is All You Need | Noktalı Virgül

Yapay Zeka'da Çığır Açan Makale: Attention Is All You Need | Noktalı Virgül

Yapay Sinir Ağları

Yapay Sinir Ağları

YKS Bitti, Şimdi Ne Yapmalısın? Sınav Sonrası Tavsiyeler

YKS Bitti, Şimdi Ne Yapmalısın? Sınav Sonrası Tavsiyeler

6.  Düşünce Akışları Zero Shot Few Shot Chain of Thought Tree of Thought Graph of Thought

6. Düşünce Akışları Zero Shot Few Shot Chain of Thought Tree of Thought Graph of Thought

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

İç Dikkat (Self-Attention) Yapay Sinir Ağı

İç Dikkat (Self-Attention) Yapay Sinir Ağı

Seul'de Tek Başına: Hem İş Hem Tatil Nasıl Geçti? (Vlog) | (EN 🇬🇧 | KR 🇰🇷 Subtitle)

Seul'de Tek Başına: Hem İş Hem Tatil Nasıl Geçti? (Vlog) | (EN 🇬🇧 | KR 🇰🇷 Subtitle)

Объяснение пакетной нормализации («пакетной нормы»)

Объяснение пакетной нормализации («пакетной нормы»)

Seq2Seq Öğrenme: Adım Adım Python ve Keras ile Uygulama

Seq2Seq Öğrenme: Adım Adım Python ve Keras ile Uygulama

5.  LLM Anatomisi Embedding Encoding Decoding Attention

5. LLM Anatomisi Embedding Encoding Decoding Attention

Rasa Algorithm Whiteboard - Transformers & Attention 1: Self Attention

Rasa Algorithm Whiteboard - Transformers & Attention 1: Self Attention

Natural Language Processing Week 14 / 2 - Attention Mekanizması Nasıl Çalışır? – Tekrarı

Natural Language Processing Week 14 / 2 - Attention Mekanizması Nasıl Çalışır? – Tekrarı

Tercih Yapacaksan Mutlaka İzle ! (17 dakika boyunca samimiyetle bildiklerimi anlatıyorum.)

Tercih Yapacaksan Mutlaka İzle ! (17 dakika boyunca samimiyetle bildiklerimi anlatıyorum.)

Амстердамский видеоблог 🇳🇱 | Open Source Summit 2025 (часть 1)

Амстердамский видеоблог 🇳🇱 | Open Source Summit 2025 (часть 1)

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]