برنامه درسی
لیست برنامه های درسی
عنوان | دادهکاوی |
---|---|
مقطع تحصیلی | کارشناسی |
زمان برگزاری | یکشنبه 14-16 ، سهشنبه 10-12 |
مکان برگزاری | کلاس 256 دانشکده برق |
تعداد واحد | ۳ |
پیش نیاز درس | مبانی هوش محاسباتی |
نحوه ارزیابی | تمرینها 15% پروژه درسی 15% آزمون میانترم 25% آزمون پایانترم 45% |
روش تدریس | سخنرانی، پرسش و پاسخ، |
منابع |
Jiawei Han, Micheline Kamber, Jian Pei
Pang-Ning Tan, Michael Steinbach, Vipin Kumar
Ian H. Witten, Eibe Frank, Mark A. Hall
Weka Application http://www.cs.waikato.ac.nz/ml/weka/downloading.html |
طرح درس | هفته اول: ﻣﻌﺮﻓﻲ دادهکاوی، انگیزهها و چالشها هفته دوم: پیشپردازش دادهها (نرمالسازی، گسستهسازی، کشف دادههای پرت، کاهش بعد) هفته سوم: دستهبندی (درخت تصمیم) هفته چهارم: دستهبندی (بیز ساده، شبکههای بیز) هفته پنجم: روشها و معیارهای ارزیابی هفته ششم: دستهبندی (نزدیکترین k همسایه) هفته هفتم: مدلهای خطی (پرسپترون) هفته هشتم: خوشهبندی (الگوریتمهای مبتنی بر تقسیم فضا) هفته نهم: خوشهبندی (الگوریتمهای سلسله مراتبی، الگوریتمهای مبتنی بر چگالی) هفته دهم: آزمون میانترم هفته یازدهم: کاوش قوانین رابطهای (الگوریتم Apriori)، هفته دوازدهم: کاوش قوانین رابطهای (الگوریتم FP-growth). هفته سیزدهم: معرفی سیستمهای پیشنهاددهنده مبتنی بر Collaborative filtering هفته چهاردهم: سیستمهای پیشنهاددهنده مبتنی بر محتوا (Content-based) هفته پانزدهم: خلاصهسازی و نمایش نتایج. هفته شانزدهم: حل تمرین و رفع اشکال. |
عنوان | یادگیری عمیق |
---|---|
مقطع تحصیلی | دكتری تخصصی PhD |
زمان برگزاری | شنبه 16-18، یکشنبه 16-18 |
مکان برگزاری | کلاس 234 دانشکده برق |
تعداد واحد | ۳ |
نحوه ارزیابی | دانشجویان کارشناسی ارشد: تمرینهای برنامهنویسی 20% پروژه پایانی درسی 15% آزمون پایانترم 65%
دانشجویان دکتری: تمرینهای برنامهنویسی 20% پروژه پایانی درسی 10% تحقیق بر روی یک مقاله 10% آزمون پایانترم 60% |
روش تدریس | سخنرانی، پرسش و پاسخ |
منابع |
بینایی ماشین، یک رویکرد سختافزاری/نرم افزاری، قادر کریمیان خسروشاهی و مریم شعاران |
طرح درس | هفته اول: مقدمهای بر جایگاه و تاریخچه یادگیری عمیق، مروری بر دستهبندیکننده خطی (Multiclass Linear Classification) هفته دوم: مروری بر شبکههای عصبی (معماری، توابع Loss) هفته سوم: بهینهسازی در شبکههای عصبی (Mini-batch Stochastic Gradient Descent) هفته چهارم: آموزش شبکههای عصبی (الگوریتم پسانتشار خطا، توابع فعالسازی) هفته پنجم: آموزش شبکههای عصبی (مقداردهی اولیه، نرمالسازی دستهای، قواعد به روزرسانی) هفته ششم: شبکههای عصبی کانولوشنی (لایههای Convolution، Pooling و Fully Connected) هفته هفتم: شبکههای عصبی کانولوشنی (Regularization and Dropout، Data Augmentation، Transfer Learning/Fine Tuning، Ensembles) هفته هشتم: معماریهای شبکههای عصبی کانولوشنی (AlexNet, VGG, GoogLeNet, ResNet) هفته نهم: نرمافزارهای یادگیری عمیق (Caffe, Torch, TensorFlow, Keras, PyTorch, etc) هفته دهم: مصورسازی و ادراک شبکههای عمیق هفته یازدهم: یادگیری عمیق در تعیین محل (Localization) هفته دوازدهم: یادگیری عمیق در تشخیص (Detection)، معرفی شبکههای R-CNN، Fast R-CNN و Faster R-CNN هفته سیزدهم: یادگیری عمیق در بخشبندی (Segmentation) هفته چهاردهم: شبکههای عصبی تکرارشونده (RNN, LSTM, GRU) هفته پانزدهم: شبکههای عصبی تکرارشونده (Image Captioning, Attention) هفته شانزدهم: حل تمرین و رفع اشکال. |