Я до сих пор не до конца понимаю, как это произошло, но в прошлом году я слово в слово записался на курс по глубокому обучению и, что удивительно, прочитал его.
Обещал - выложу! Курс не претендует на полноту; скорее, это способ поиграться с основными областями, в которых глубокое обучение стало практическим инструментом, и получить достаточную основу для свободного чтения и понимания современных статей.
Материалы курса апробированы на студентах кафедры АФТИ Новосибирский государственный университет , так что есть шанс, что вы действительно сможете чему-то у них научиться.
Для курса требуется:
— Знание математики на уровне первого-второго курса университета: нужно немного знать теорию вероятностей, линейную алгебру, основы математического анализа и анализа функций многих переменных.
Если все это прошло мимо тебя, Здесь Все необходимый курсы из Массачусетского технологического института и Гарварда.
В них обычно достаточно пройти первые два раздела.
- Умение программировать на Python. Хороший курс должен включать лекции, упражнения и место, где можно задавать вопросы и обсуждать их.
Здесь они собраны со всего мира по одному: — Лекции существуют как записи на Ютубе .
— В качестве упражнений можно использовать задания из отличных Стэнфордских курсов по DeepLearning ( CS231n И CS224n ), ниже напишу какие конкретно.
— Вы можете обсудить и задать вопросы по ЗакрытоКруги И ODS.ai .
Лекции и упражнения Лекция 1: Введение Лекция 2: Линейный классификатор Лекция 2.1: Софтмакс Упражнение: разделы «k-ближайший сосед» и «классификатор Softmax».
отсюда В зависимости от специфики задачи это может помочь: конспект лекций .
Обратное распространение ошибки Лекция 4: Подробности о нейронных сетях Упражнение: разделы двухслойной нейронной сети отсюда и «Полностью подключенная нейронная сеть» отсюда Лекция 5: Сверточные нейронные сети (CNN) Лекция 6: Библиотеки для глубокого обучения Упражнение: разделы «Сверточные сети» и «PyTorch на CIFAR-10» отсюда Лекция 7: Другие задачи компьютерного зрения Лекция 8: Введение в НЛП.
word2vec Упражнение: раздел «word2vec» отсюда Лекция 9: Рекуррентные нейронные сети (RNN) Лекция 10: Машинный перевод, Seq2Seq, Внимание Готовой хорошей задачи я здесь не нашел, но ее можно реализовать на PyTorch Char-RNN от знаменитый пост Андрея Карпаты и нацелил его на Шекспира.
Лекция 11: Введение в обучение с подкреплением (RL), базовые алгоритмы Лекция 12: Примеры использования RL. Альфа(Го)Зеро.
Лекция 13: Нейронные сети в 2018 году.
Где обсудить и задать вопросы Все вопросы по курсу можно задать мне лично или обсудить в кругу #данные на ClosedCircles.com ( вот приглашение ).
Кроме того, задания можно обсудить в канале #class_cs231n на ODS.ai , там помогут. Для этого вам придется самостоятельно получить туда инвайт, отправить заявки.
Ну в общем звоните или пишите, я всегда рада.
Самый приятный раздел - благодарность! Прежде всего, большое спасибо хоронить , с которым мы готовили курс.
Спасибо родной отдел , что давало такую возможность в первую очередь.
Всем в тусовках на ODS.ai и ClosedCircles, кто помогал в подготовке, отвечал на вопросы, присылал отзывы, напоминал, что всё нужно выложить и т. д. и т. п.
Наконец, все, кто следил за стримами на канале, задавали вопросы в режиме реального времени и вообще создавалось ощущение, что я говорю не со стеной.
Из сердца.
Теги: #Машинное обучение #Робототехника #искусственный интеллект #машинное обучение #Обработка изображений #глубокое обучение #курс #ODS #mooc #closedcircles
-
Екатеринбург
19 Oct, 24 -
Родной Клиент: Одна Нога В Автономном Режиме
19 Oct, 24