LLMs Fine-Tuning تطبيق عملي على ال
Автор: Ahmed Elemam
Загружено: 2025-02-13
Просмотров: 18688
Описание:
00:00 Welcome
01:49 introducing finetuning LLM / definitions
16:41 use case details
21:34 environment setup (colab)
29:31 choosing the base model (Qwen2.5-1.5B-Instruct)
36:04 setup structure output using Pydantic (task 1 - classification)
1:02:12 evaluation base model (task 1)
1:14:58 setup structure output using Pydantic (task 2 - translation Ar - En)
1:19:53 evaluation base model (task 1)
1:22:11 evaluating the task using OpenAI API
1:27:19 preparing a dataset for finetuning
1:55:45 finetuning framworks choices
2:04:10 using LLaMA-Factory for finetuning
2:25:07 LLaMA-Factory configurations (yaml file)
2:46:51 running finetuning
2:55:10 evaluating finetuned model
3:02:25 cost estimation
3:11:23 using vLLM
3:24:27 load test using locust
3:41:36 recap
3:47:45 outro
-----
الحلقة دي أقرب لكورس فمحتاجة صبر شوية لأننا بنتكلم بالتفصيل عن اللي بيتعمل فعلاً وقت الشغل فممكن تشوفها علي أكتر من مرة لو بتزهق، في البداية إتكلمنا عن إيه سبب ظهور الfine-tuning و المشكلة اللي بيحلها و انتقلنا على طول لمجموعة تاسكات مطلوبة من موديل ضعيف زي qwen 2.5 1.5b
طلبنا منه يشتغل علي مقالات باللغة العربية يعملها عنوان بيعبر عن تفاصيل الخبر و بنستخرج من الكلام تفاصيل كتير زي الشخصيات و البلدان و غيرها و بنعمل تصنيف أو clustering للمقالات دي تحت categories إحنا محددينها له يختار منها و في النهاية بنطلب منه ترجمة المقالات دي للغات مختلفة.
رغم إن كوين 1.5b كان قادر يرجع ال structure المطلوب للداتا بس كان صعب عليه يتعامل مع العربي و مفهمش إننا طالبين منه عربي فبالتالي المهمة فشلت ناهيك عن الترجمة كانت ضعيفة.
خلال الحلقة هتكتشف إن عشان تعمل train/fine-tune لموديل، معظم الوقت بيكون في عمل شكل او structure للداتا و إزاي تطلب من الموديل القوي اللي هتتعلم منه يرجعلك الداتا بالشكل المطلوب و دي أهم جزء في الموضوع و اللي بيفرق في جودة الناتج.
فهنكلم gpt4-o و نطلب منه الداتا بالشكل المطلوب و هنستخدمها إننا نعلم كوين و هتتفاجىء إن مئات/آلاف الريكوردز من الداتا كان لها تأثير واضح فكل متزود داتا نضيفة بيكون أفضل طبعاً.
بعدما تعلم كوين، بنجربه على نفس المهام تاني و بنلاقي نجاح في تنفيذ المهمات بصورة فاجأتني بشكل شخصي.
و حاولنا نجرب نعمل تيست على داتا جديدة بمقالات لسه نازلة بحيث ميكونش شايفها قبل كده لتجنب الoverfitting وكان شغال بشكل جيد.
في النهاية عملنا deploy للموديل بحيث يكون جاهز للبرودكشن و يستغل كل الموارد/ resources المتاحة علي السيرفر و بنقارن كفاءته قبل و بعد من حيث سرعة التوليد و عدد الريكوستات اللي قادر يعملها serve interference
وكنا بردو في خلال الرحلة بنسجل الاستهلاك عشان نحسب التكلفة خصوصاً لجزء الداتا اللي بنولدها من openai
فأنا كاتب كل ده عشان أقولكوا إننا فاتحين باب التبرعات عشان نعوض الخساير.
دي المواضيع اللي اتكلمنا فيها
What will you learn?
Structured Outputs
Knowledge Distillation
PEFT Finetuning
Finetuning Solutions
LLM Finetuning
LLM Deploying
Cost Estimation
@bakrianoo
/ bakrianoo
```
Notebook Codes:
https://colab.research.google.com/dri...
datasets:
https://drive.google.com/drive/folder...
models:
https://drive.google.com/drive/folder...
LLaMA-Factory
https://github.com/hiyouga/LLaMA-Factory
WandB
https://wandb.ai/
HuggingFace
https://huggingface.co/
Qwen2.5-1.5B-Instruct Model
https://huggingface.co/Qwen/Qwen2.5-1...
```
Повторяем попытку...

Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: