Семинары по машинному обучению для бакалавров 3 курса кафедры ММП факультета ВМК МГУ, осенний семестр 2024/2025
В репозитории находятся материалы и домашние задания по семинарам "ММРО 2024/2025"
✅ Курс сдается через систему anytask. Инвайт можете получить у преподавателя
✅ Полезные ссылки:
-
Текущие связанные курсы
-
Материалы прошлых лет:
✅ По этому курсу (ММРО) в конце семестра будет экзамен
Общая оценка по нему выставляется по следующей формуле:
, где
- Check — 5 * <сумма баллов за проверочные> / <суммарный макс балл за проверочные>
- Labs — min(5, 5 * <сумма баллов за лабораторные + конкурсы + теор. дз.> / <суммарный макс балл за (лабораторные + конкурсы + теор.дз) (без бонусов)>
- Exam — оценка за экзамен, до 5 баллов
Причем
- Для общей оценки 5 необходимо сдать все (5) лабораторные работы (4) и теор. дз. (1) на оценку (без учета штрафа) >= floor(1/3 * (макс. балл за работу без учета бонусов)) и получить за эказамен не меньше 4;
- Для общей оценки 4 необходимо сдать не менее 4-х работ из всего множества лабораторных работ и теор. дз. на оценку (без учета штрафа) >= floor(1/3 * (макс. балл за работу без учета бонусов)) и получить за экзамен не меньше 3;
- Для общей оценки 3 необходимо сдать не менее 3-x работ из всего множества лабораторных работ и теор. дз. на оценку (без учета штрафа) >= floor(1/3 * (макс. балл за работу без учета бонусов)) и получить за экзамен не меньше 3;
- floor — округление дробного числа до ближайшего целого вниз.
Обратите внимание, что округление общей оценки (и только ее) производится вверх.
✅ По курсу лекций в конце семестра будет зачет без оценки
Для получения этого зачета вам необходимо сдать не менее 3-x работ из всего множества лабораторных работ и теор. дз. на оценку (без учета штрафа) >= floor(1/3 * (макс. балл за работу без учета бонусов))
Дата | Номер | Тема | Материалы | ДЗ |
---|---|---|---|---|
5 сентября | Семинар 1 | Введение в курс. Pandas. Разведочный анализ данных | Ноутбук с семинара | Легкая домашка на пандас |
12 сентября | Семинар 2 | Метрическая парадигма машинного обучения. KNN. Проблемы метода и практические применения | Конспект семинара | ¯\_(ツ)_/¯ |
19 сентября | Семинар 3 | Функциональные парадигмы машинного обучения. Линейная регрессия. Градиентный спуск. Sklearn. | Конспект семинара Ноутбук семинара | Домашнее задание на линейную регрессию |
26 сентября | Семинар 4 | Векторное дифференцирование | Конспект семинара | ¯\_(ツ)_/¯ |
3 октября | Семинар 5 | Логистическая регрессия: оценивание вероятностей и вывод функционала, калибровка вероятностей | Конспект семинара | ¯\_(ツ)_/¯ |
10 октября | Семинар 6 | Задача оптимизации. Теорема Каруша-Куна-Таккера. Решение задач. | Теория Задачи Обучение_Lasso_регрессии | Хардкорная домашка на дифференцирование |
17 октября | Семинар 7 | Ядровые обобщения методов, задачи на ядра, аппроксимация ядер | Семинар | ¯\_(ツ)_/¯ |
24 октября | Семинар 8 | Метрики качества классификации, ROC-AUG | Семинар | Дз на классификацию (COMING SOON) |
31 октября | Семинар 9 | Разложение ошибки на смещение и разброс | Cеминар | ¯\_(ツ)_/¯ |
7 ноября | Семинар 10 | Логическая парадигма машинного обучения. Решающее дерево. Вывод критериев информативности для деревьев. Реализация на практике. | ¯\_(ツ)_/¯ | |
14 ноября | Семинар 11 | Вывод градиентного бустинга | ¯\_(ツ)_/¯ | |
21 ноября | Семинар 12 | Почему градиентный бустинг так устроен | ¯\_(ツ)_/¯ | |
28 ноября | Семинар 13 | Имплементации градиентного бустинга | ¯\_(ツ)_/¯ | |
5 декабря | Семинар 14 | Бонусный семинар | ¯\_(ツ)_/¯ |