Лекция 5. Случайный лес. Открытый курс OpenDataScience по машинному обучению


Дата: 20.06.2020 20:38:00 Просмотров: 80435 Длительность: 02:23:15
Поделиться:

Категории: Познавательное
Лекция 5. Случайный лес. Открытый курс OpenDataScience по машинному обучению фото

То же видео, но с улучшенным звуком _XKQY62NJus (tnx to Denis Cera, Oleg Butko)

На 5-ой лекции обсудим любопытнейший вопрос – почему много алгоритмов при правильном голосовании работают лучше, чем просто один, как это связано с "мудростью толпы". Обсудим бэггинг и случайный лес (Random Forest) и то, почему случайный лес на практике можно применять почти что "из коробки", без тщательной настройки.

Сайт курса –

О курсе на Хабре

5-ая тема на Хабре

Jupyter-notebooks в репозитории курса

Демо-версия задания

При организационной поддержке Group.

Написать комментарий




Комментарии

Yury Kashnitsky
07.10.2017 20:45:13
Ссылки, которые обуждались в лекции: - Kaggle Mercedes и кросс-валидация habrahabr.ru/company/ods/blog/336168/ - Метрики в задачах машинного обучения habrahabr.ru/company/ods/blog/328372/
Yury Kashnitsky
07.10.2017 20:42:40
В момент 01:30:12, конечно, тупняк случился – имел в виду Центральную Предельную Теорему.
Carlos Gabriel Hasbun Comandari
11.10.2017 23:48:13
Thank you for your tutorials, even if I don't understand. LOL.
Yury Kashnitsky
28.10.2018 13:08:02
То же видео, но с улучшенным звуком youtu.be/_XKQY62NJus (tnx to Denis Cera, Oleg Butko)
Singamon Filippochkin
27.12.2017 10:47:55
Юрий, ответьте пожалуйста на вопрос (в гугле не нашел ответа) - чем метрика отличается от функции потерь, которую мы минимизируем например в регрессии? Почему мы не можем использовать какую-либо метрику и ее максимизировать? Например в логистической регрессии, можно ли использовать Евклидово расстояние в качестве метрики? Если да, тогда зачем в той же логистической регрессии (которую можно рассматривать как классификацию), использовать метрики (roc auc например)?
Yury Kashnitsky
07.10.2017 20:39:30
Перерыв с 01:19:05 по 01:25:27
Yury Kashnitsky
13.12.2017 12:50:11
Новый запуск курса – 5 февраля 2018 г. Возможно, он последний на русском языке, параллельно будем публиковать статьи курса с домашками на английском на Medium.Никакой формальной регистрации на курс не требуется, но для того, чтобы мы вам напомнили о старте, оставьте свои контакты тут goo.gl/MgsAr3. Все обсуждения будет идти в канале #mlcourse_open Slack OpenDataScience, в веб-форме подробней описано. Также выйдет статья на Хабре с анонсом.
Yury Kashnitsky
20.11.2017 08:04:15
github.com/Yorko/mlcourse_open Курс только что закончился, можно пока проходить в своем темпе. Повторный запуск будет 1 марта, но при условии достижения финансовых целей на Patreon goo.gl/rh7DFy
Глеб Пастушенко
21.01.2020 03:23:01
Перепутаны ошибки первого и второго рода. Ошибки первого рода - это "Ложная тревога" (False Positive), т.е. когда человек здоров, а модель его определила как больного, ошибка второго рода - это "Пропуск события" (False Negative), т.е. когда модель не выявила заболеваний у действительно больного человека.
Еще по теме
© 2019video.ru