Семинары по машинному обучению для бакалавров 3 курса кафедры ММП факультета ВМК МГУ, осенний семестр 2024/2025

В репозитории находятся материалы и домашние задания по семинарам "ММРО 2024/2025"

Курс сдается через систему anytask. Инвайт можете получить у преподавателя

Полезные ссылки:

Правила выставления оценок

По этому курсу (ММРО) в конце семестра будет экзамен

Общая оценка по нему выставляется по следующей формуле: , где

  • Check — 5 * <сумма баллов за проверочные> / <суммарный макс балл за проверочные>
  • Labs — min(5, 5 * <сумма баллов за лабораторные + конкурсы + теор. дз.> / <суммарный макс балл за (лабораторные + конкурсы + теор.дз) (без бонусов)>
  • Exam — оценка за экзамен, до 5 баллов

Причем

  • Для общей оценки 5 необходимо сдать все (5) лабораторные работы (4) и теор. дз. (1) на оценку (без учета штрафа) >= floor(1/3 * (макс. балл за работу без учета бонусов)) и получить за эказамен не меньше 4;
  • Для общей оценки 4 необходимо сдать не менее 4-х работ из всего множества лабораторных работ и теор. дз. на оценку (без учета штрафа) >= floor(1/3 * (макс. балл за работу без учета бонусов)) и получить за экзамен не меньше 3;
  • Для общей оценки 3 необходимо сдать не менее 3-x работ из всего множества лабораторных работ и теор. дз. на оценку (без учета штрафа) >= floor(1/3 * (макс. балл за работу без учета бонусов)) и получить за экзамен не меньше 3;
  • floor — округление дробного числа до ближайшего целого вниз.

Обратите внимание, что округление общей оценки (и только ее) производится вверх.

По курсу лекций в конце семестра будет зачет без оценки

Для получения этого зачета вам необходимо сдать не менее 3-x работ из всего множества лабораторных работ и теор. дз. на оценку (без учета штрафа) >= floor(1/3 * (макс. балл за работу без учета бонусов))

Занятия

Дата Номер Тема Материалы ДЗ
5 сентября Семинар 1 Введение в курс. Pandas. Разведочный анализ данных Ноутбук с семинара Легкая домашка на пандас
12 сентября Семинар 2 Метрическая парадигма машинного обучения. KNN. Проблемы метода и практические применения Конспект семинара ¯\_(ツ)_/¯
19 сентября Семинар 3 Функциональные парадигмы машинного обучения. Линейная регрессия. Градиентный спуск. Sklearn. Конспект семинара Ноутбук семинара Домашнее задание на линейную регрессию
26 сентября Семинар 4 Векторное дифференцирование Конспект семинара ¯\_(ツ)_/¯
3 октября Семинар 5 Логистическая регрессия: оценивание вероятностей и вывод функционала, калибровка вероятностей Конспект семинара ¯\_(ツ)_/¯
10 октября Семинар 6 Задача оптимизации. Теорема Каруша-Куна-Таккера. Решение задач. Теория Задачи Обучение_Lasso_регрессии Хардкорная домашка на дифференцирование
17 октября Семинар 7 Ядровые обобщения методов, задачи на ядра, аппроксимация ядер Семинар ¯\_(ツ)_/¯
24 октября Семинар 8 Метрики качества классификации, ROC-AUG Семинар Дз на классификацию (COMING SOON)
31 октября Семинар 9 Разложение ошибки на смещение и разброс Cеминар ¯\_(ツ)_/¯
7 ноября Семинар 10 Логическая парадигма машинного обучения. Решающее дерево. Вывод критериев информативности для деревьев. Реализация на практике. ¯\_(ツ)_/¯
14 ноября Семинар 11 Вывод градиентного бустинга ¯\_(ツ)_/¯
21 ноября Семинар 12 Почему градиентный бустинг так устроен ¯\_(ツ)_/¯
28 ноября Семинар 13 Имплементации градиентного бустинга ¯\_(ツ)_/¯
5 декабря Семинар 14 Бонусный семинар ¯\_(ツ)_/¯