🔪 (Dataset Splitting) قسمت ۱۱۱: طبقهبندی شخصیت افراد - تقسیم مجموعه دادگان
Автор: Mahdi Shahbazi Khojasteh
Загружено: 2026-01-20
Просмотров: 10
Описание:
برای اینکه بتوانیم قدرت واقعی مدل طبقهبندی شخصیت خود را بسنجیم، باید از تقلب جلوگیری کنیم! 🤫 در این مرحله، مجموعه داده تمیز شده را با یک برش هوشمندانه به سه بخش کلیدی تقسیم میکنیم: مجموعه آموزشی (Train Set) برای یادگیری الگوها، مجموعه اعتبارسنجی (Validation Set) برای تنظیم دقیق هایپرپارامترها و مجموعه آزمون (Test Set) برای ارزیابی نهایی. این تقسیم دادهها، که معمولاً با نسبتهایی مثل ۸۰-۱۰-۱۰ انجام میشود، تضمین میکند که مدل ما دادههای آزمون را "حفظ" نکرده و عملکرد آن در دنیای واقعی به درستی سنجیده میشود. این یک قدم حیاتی برای ساخت مدلی با تعمیمپذیری بالا است. 🚀📊
▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂
🎁 اگر از آموزشها لذت میبری و دوست داری ازم حمایت کنی تا با قدرت بیشتری ادامه بدم،
میتونی از این لینک حمایت مالی انجام بدی 👇
https://reymit.ir/mahdi_shahbazi_khoj...
هر دونیت یعنی انرژی بیشتر برای ساخت محتوای باکیفیت و ادامه مسیر آموزش رایگان 🔥💪✨
▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂
🎬 سلام به علاقهمندان هوش مصنوعی (Artificial Intelligence - AI)
من مهدی شهبازی خجسته 🎓
دانشآموخته کارشناسی ارشد هوش مصنوعی، رباتیکز و رایانش شناختی از دانشگاه شهید بهشتی،
شما را به این دوره دعوت میکنم! 🚀
📺 این پلیلیست با بیش از ۲۰۰ ویدیوی آموزشی، شما را از صفر تا تبدیل شدن به یک متخصص یادگیری عمیق (Deep Learning) با کتابخانه قدرتمند پایتورچ (PyTorch) همراهی میکند. 💪
▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂
📘 در این دوره با استفاده از:
🐍 پایتون (Python)
💻 نوتبوکهای گوگل کولب (Google Colab)
📊 اسلایدهای جذاب و آموزشی
تمام مباحث از مبانی یادگیری ماشین (Machine Learning Basics) تا مباحث پیشرفته مانند:
🧠 شبکههای عصبی کانولوشنال (CNNs)
🔁 شبکههای عصبی بازگشتی (RNNs)
⚡ شبکههای مولد تخاصمی (GANs)
🎯 هدف من این است که با آموزشهای عملی و پروژهمحور، شما رو برای پروژههای حرفهای AI مانند:
📷 پردازش تصویر (Computer Vision)
💬 پردازش زبان طبیعی (NLP)
آماده کنم.
📚 پیشنیازها:
➕ جبر خطی (Linear Algebra)
🔢 نامپای (NumPy)
📈 متپلاتلیب (Matplotlib)
سپس به سراغ مفاهیم کلیدی مانند:
⚙️ تنزل گرادیان (Gradient Descent)
🧹 پیشپردازش داده (Data Preprocessing)
🧩 مهندسی ویژگی (Feature Engineering)
🧠 کنترل بیشبرازش (Overfitting Prevention)
🔥 چه مبتدی باشید و چه حرفهای، این دوره شما را به دنیای هوش مصنوعی میبرد!
💻 پروژههای واقعی انجام دهید،
🧩 کدهای کامل را اجرا کنید،
⚡ با مدلهایی مانند AlexNet, VGGNet, ResNet, LSTM کار کنید.
▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂
🔔 Subscribe کنید و نوتیفیکیشنها را فعال کنید تا هیچ ویدیویی را از دست ندهید!
🌐 به جمع یادگیرندگان هوش مصنوعی بپیوندید و آیندهتان را بسازید! 💡
▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂
👨🏻🏫 مدرس: مهدی شهبازی خجسته
🎓 کارشناسی ارشد هوش مصنوعی، رباتیکز و رایانش شناختی – دانشگاه شهید بهشتی
💬 در این دوره با زبانی ساده، ساختار آموزشی دقیق، و مثالهای واقعی، مسیر یادگیری شما در دنیای Deep Learning و PyTorch رو هموار میکنم.
▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂▂
🔥 فصل اول: مقدمه و پیشنیازها
در ابتدا با کاربردهای هوش مصنوعی (AI Applications) در دنیای واقعی مثل خودروهای خودران و تشخیص پزشکی آشنا میشید.
سپس مفاهیم پایهای مثل:
🔹 جبر خطی (Linear Algebra) برای درک ماتریس و بردار
🔹 نامپای (NumPy) برای محاسبات عددی
🔹 متپلاتلیب (Matplotlib) برای مصورسازی دادهها
🔹 و توزیع احتمال (Probability Distributions) برای مبانی آماری
رو یاد میگیرید.
➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖
🧠 فصل دوم: مبانی یادگیری ماشین و شبکههای عصبی
در این فصل با مفاهیم کلیدی مثل:
📘 الگوریتمهای یادگیری نظارتشده و بدوننظارت
📈 مشتق و گرادیان (Derivatives & Gradients) برای بهینهسازی
🧩 نورونهای مصنوعی و پرسپترونها (Perceptron, MLP)
⚡ توابع فعالسازی (Activation Functions) مثل ReLU و Sigmoid
و الگوریتم مهم تنزل گرادیان (Gradient Descent) آشنا میشید.
➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖
📊 فصل سوم: پردازش داده و کنترل خطا
یاد میگیرید چطور دادهها رو برای مدل آماده کنید و از خطاها جلوگیری کنید:
🧹 پیشپردازش دادهها (Data Preprocessing)
🎯 مهندسی ویژگی (Feature Engineering)
📏 نرمالسازی و استانداردسازی (Normalization & Standardization)
📉 کاهش ابعاد (PCA)
و بررسی مفاهیم مهم مثل:
⚖️ بایاس و واریانس (Bias-Variance Tradeoff)
🚫 بیشبرازش (Overfitting) و روشهای جلوگیری از آن مثل Dropout، Early Stopping و Regularization.
➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖
👁️ فصل چهارم: بینایی ماشین و شبکههای کانولوشنال
در این فصل به دنیای Computer Vision وارد میشیم و مفاهیم زیر رو یاد میگیرید:
🖼️ پردازش تصویر دیجیتال (Digital Image Processing)
🔍 شبکههای کانولوشنال (CNNs) و ساختار آنها
📚 مدلهای مهم مانند LeNet, AlexNet, VGGNet, و ResNet
⚙️ Batch Normalization و Transfer Learning
در پایان، وارد دنیای هیجانانگیز شبکههای مولد تخاصمی (GANs) میشیم. 🎨
➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖
🔄 فصل پنجم: شبکههای عصبی بازگشتی
در این فصل به سراغ دادههای ترتیبی و زمانی میریم:
⏱️ شبکههای عصبی بازگشتی (RNNs)
💡 LSTM و GRU
🔁 Bidirectional RNNs
و حل مشکلات Exploding/Vanishing Gradient در شبکههای عمیق.
➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖
🎯 در طول دوره با نوتبوکهای کامل، مثالهای واقعی و پروژههای عملی کار میکنید تا آمادهی ساخت مدلهای حرفهای در دنیای واقعی باشید.
➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖
📌 هشتگها:
#آموزش_یادگیری_عمیق #آموزش_پایتورچ #آموزش_هوش_مصنوعی #پایتورچ #یادگیری_ماشین #شبکه_عصبی #دوره_یادگیری_عمیق #آموزش_پایتون #یادگیری_عمیق #هوش_مصنوعی #دوره_هوش_مصنوعی #DeepLearning #PyTorch #MachineLearning #ArtificialIntelligence #PythonAI
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: