🤡 Как завалить технический собес в ML за 3 минуты

Приходит кандидат на джуна или даже мидла. Его спрашивают про стек — там полный фарш, человек разве что свой Claude на домашних видеокартах не обучал.

Дают ему простейшую задачку на линейную регрессию. Человек радостно импортирует scikit-learn, пишет .fit(), затем .predict(). Занимает ровно 20 секунд. Доволен.

А дальше ему начинаю задавать вопросы:
— А почему ты для оценки качества взял MSE, а не R2?
— У нас в датасете есть жирный выброс. Как твоя модель на него отреагирует и почему?
— Что означает вон тот коэффициент при признаке X, если мы его не отнормировали?

И тишина... Человек знает API библиотеки, но в душе не чает, как работает все под капотом.

Инструменты вроде sklearn создавались умными людьми для умных людей, чтобы экономить время на рутине. А не для того, чтобы кто-то мог скрыть отсутствие фундаментальной базы за двумя строчками кода. Алгоритму плевать на ваши данные, он сожрет любой мусор, который вы в него запихнете, и выдаст вам предсказание. Garbage in — garbage out.

Вот такие основы мы и начнем изучать на следующем сезоне Мастер-группы. В программе:
🟢 5 эфиров: от азов машинного обучения до построения и валидации базовых линейных моделей.
🟢 1 эфир — командная практика. Хватит просто смотреть лекции. Будете в командах решать практическую задачу, а потом мы все вместе будем разбирать результаты (и смотреть, кто где накосячил).
🟢 Записи и мои файлы с кодом, естественно, остаются у вас. Забираете и используете как шпаргалку в работе.

🗓 Напоминаю, что стартуем 25 апреля в 11:00 по мск. Вы уже должны уметь в Python и pandas.

👉 Если хотите перестать быть fit-predict макакой — пишите в личку @obulygin91, расскажу детали.