[Повтор - 4] Онлайн-курс по искусственному интеллекту - Все 17 Частей

Bot

Администратор
Команда форума
23 Янв 2020
165,920
2,933
113
Автор: Lazy Programmer Inc.
Формат:
транскрибация видео
Продолжительность: ~ 72,3 ч
Перевод: Красный Кут
Тип перевода:
Транскрибация с русским переводом

Дата выдачи повтор складчины. Перевод готов к выдаче
ДЕМО ПЕРЕВОД


Курс 1 из 17 Deep Learning Prerequisites: Linear Regression in Python
Этот курс направлен прежде всего на практическое применение знаний, поэтому в нём мы не собираемся только обсуждать понятия – вы сможете сразу использовать их в программном коде.

Курс 2 из 17 Deep Learning Prerequisites: Logistic Regression in Python
Этот курс – введение в глубокое изучение и нейронные сети. Он охватывает популярную и фундаментальную методику, используемую в машинном обучении, обработке данных и статистике – логистическую регрессию. Мы охватываем теорию с самого начала – от вывода решения до его применения к проблемам действительности. Мы также покажем, как можно написать собственный модуль логистической регрессии на языке Python.

Курс 3 из 17 Data Science: Deep Learning in Python
Глубокое обучение – это то, с чего я начал изучать машинное обучение и обработку данных, и легко понять, почему так много людей заинтересовались этой темой и почему так много компаний используют машинное обучение в научных исследованиях и проектах развития. Этот курс посвящён введению в основы построения нейронных сетей. Моя цель – помочь вам создать прочный фундамент, чтобы в случаях, когда речь зайдёт о свёрточных и возвратных нейронных сетях и распознаванию естественного языка, вы не видели в этом проблемы, а выдавали новые идеи, базирующиеся на уже имеющихся у вас знаниях.

Курс 4 из 17 Easy Natural Language Processing (NLP) in Python
Этот курс будет разбит на несколько разделов, основываясь на различных практических задачах, которые вы можете решить благодаря ОЕЯ. После этого мы рассмотрим библиотеку NLTK. Это очень популярная библиотека, способная решить множество фундаментальных вопросов ОЕЯ Рассмотрим скрытый семантический анализ. Он в основном помогает уменьшить размеры текста и решить проблему восприятия двух слов, имеющих одинаковое значение. Он также помогает нам интерпретировать наши данные и экономит вычислительное время.


Курс 5 из 17 Data Science: Practical Deep Learning in Theano + TensorFlow
Этот курс продолжает мой первый курс по глубокому обучению на языке Python. Вы уже знаете, как создать искусственную нейронную сеть на языке Python и имеете plug-and-play скрипт, который можно использовать в библиотеке TensorFlow. Нейронные сети являются одним из основных продуктов машинного обучения, и они всегда находятся в топе на состязаниях Kaggle. Если вы хотите улучшить свои навыки в сфере нейронных сетей и глубокого обучения, этот курс для вас.

Курс 6 из 17 Data Analytics: SQL for newbs, beginners and marketers
Одним из основных языков для анализа данных является SQL, который используется во многих популярных базах данных, включая MySQL, Postgres, SQLite, Microsoft SQL Server, Oracle и даже в системах решений для больших массивов данных вроде Hive и Cassandra.
Раскрою маленький секрет. Большинство высопоставленных маркетолов и менеджеров по продуктам в крупных высокотехнологичных компаниях знают, как обращаться с данными, чтобы получить важную информацию. И вам тоже больше не нужно ждать целый день, чтобы какой-то инженер-программист ответил на ваши вопросы – теперь вы сами можете найти все ответы с помощью SQL!

Курс 7 из 17 Deep Learning: Convolutional Neural Networks in Python
Этот курс о том, как использовать глубокое обучение для компьютерного «зрения» с помощью свёрточных нейронных сетей. Это нынешний уровень состояния дел, когда речь идёт о классификации изображений, когда используются «ванильные» глубокие сети для задач вроде базы данных MNIST. В этом курсе мы пойдём ещё дальше и рассмотрим базу данных изображений номеров домов (SVHN), использующую больше цветных изображений под разными углами, так что задача будет сложнее и с точки зрения вычислений, и с точки зрения сложности задачи классификации. Но мы убедимся, что свёрточные нейронные сети, или CNN, вполне способны справиться с этой задачей!


Курс 8 из 17 Cluster Analysis and Unsupervised Machine Learning in Python
В этом курсе мы вначале обсудим кластеризацию. При кластеризации вместо обучения с помощью меток мы будем пытаться создавать собственные метки. Сделать это нам поможет группировка данных, выглядящих одинаково. Мы обсудим два метода кластеризации: кластеризацию методом k-средних и иерархическую кластеризацию. Далее, поскольку в машинном обучении мы обычно обсуждаем распределение вероятностей, мы рассмотрим модели гауссового и ядерного смешивания, где выясним, как «узнать» распределение вероятностей набора данных.

Курс 9 из 17 Глубокое обучение без учителя на языке Python
Мы начнём курс с самых основ – метода главных компонент (PCA) и популярной методике нелинейного снижения размерности, известной как t-SNE (метод нелинейного снижения размерности и визуализации многомерных пространств). Затем мы рассмотрим особый тип нейронной сети без учителя, называемый автокодировщиком. После описания принципа работы автокодировщика я покажу, как можно связать вместе ряд автокодировщиков для формирования многоуровневого автокодировщика, что приводит к улучшению работы глубокой нейронной сети с учителем. Автокодировщики похожи на нелинейную форму метода главных компонент. Далее мы рассмотрим ограниченную машину Больцмана (RBM). Это ещё одна популярная нейронная сеть без учителя, которую можно использовать так же, как автокодировщики, для предварительного обучения глубоких нейронных сетей с учителем. Я познакомлю вас с любопытным способом обучения ограниченных машин Больцмана, известный как выборка Гиббса, особый случай метода Монте-Карло с применением цепей Маркова, и продемонстрирую, что хотя этот метод является лишь грубо приближённым, он в конце концов приводит к уменьшению других функций затрат, таких же, как и используемые в автокодировщиках. Этот метод также известен как алгоритм сравнительного расхождения (contrastive divergence, или, сокращённо, CD-k). Как и в физике, мы определяем понятие, называемое свободной энергией, и пытаемся минимизировать её величину. И наконец мы объединим вместе все эти концепции и наглядно увидим, что происходит, если использовать PCA и t-SNE для признаков, которые были изучены автокодировщиками и ограниченными машинами Больцмана. Мы увидим, что даже без меток результат показывает обнаружение зависимостей.

Курс 10 из 17 Машинное обучение без учителя: скрытые марковские модели на языке Python
Этот курс является непосредственным продолжением моего первого курса по машинному обучению без учителя по кластерному анализу, в котором вы научились измерять вероятностное распределение случайной величины. В этом курсе вы научитесь измерять вероятностное распределение последовательности случайных величин.


Курс 11 из 17 Глубокое обучение: рекуррентные нейронные сети на языке Python
Я познакомлю вас с простым рекуррентным нейроном, также известным как нейрон Элмана.
Мы пересмотрим проблему XOR, но при этом расширим её, так чтобы она стала проблемой чётности – вы увидите, что обычные нейронные сети прямого распространения сталкиваются с затруднениями при их решении, но рекуррентные сети будут работать. Хитрость тут в том, что входные данные обрабатываются как последовательности.
В следующем разделе курса мы вновь обратимся к одному из наиболее популярному приложению рекуррентных нейронных сетей – языковому моделированию.
При изучении марковских моделей вы видели, что у нас получалось делать такие вещи, как генерация стихов, и это даже неплохо выглядело. Мы могли даже различать двух разных поэтов лишь из последовательностей используемых ими частей речи.
В этом курсе мы расширим нашу языковую модель, чтобы больше не нуждаться в марковском предположении.

Курс 12 из 17 Обработка естественного языка с помощью глубокого обучения на языке Python
В курсе я покажу, как именно работает word2vec, от теории до практики, и вы увидите, что это в большой степени является применением уже полученных вами ранее навыков.
Word2vec интересен тем, что волшебным образом преобразует слова в векторное пространство, в котором можно найти аналогии, например:

король – мужчина = королева – женщина
Франция – Париж = Англия – Лондон
декабрь – ноябрь = июль – июнь


Курс 13 из 17 Обработка данных: машинное обучение с учителем на языке Python
В этом курсе мы вначале обсудим алгоритм k-ближайших соседей. Он чрезвычайно прост, интуитивно понятен и является отличным выбором для начального изучения алгоритмов классификации. После того, как мы обсудим понятия и реализацию в коде, мы рассмотрим некоторые ситуации, в которых алгоритм k-ближайших соседей может дать сбой. Важно знать как преимущества, так и недостатки каждого рассматриваемого алгоритма.
Далее мы рассмотрим наивный и общий байесовские классификаторы. Это очень интересный для разбора алгоритм, поскольку основан на вероятности. Мы увидим, как можно преобразовать байесовский классификатор в линейный и квадратичный классификаторы для ускорения вычислений.
Затем мы рассмотрим известнейший алгоритм дерева решений. Это наиболее из сложный из алгоритмов, которые мы будем изучать, и большинство курсов, которые вы могли бы проходить, вообще его не реализуют. Но мы будем, поскольку, по моему мнению, его написание является хорошей практикой.
И последний алгоритм, который мы рассмотрим, - это алгоритм перцептрона. Перцептроны являются прародителями нейронных сетей и глубокого обучения, поэтому их важно изучить в контексте машинного обучения.


Курс 14 из 17 Предпосылки к глубокому обучению: инструментарий Numpy на языке Python
Понимать машинное обучение с учителем (классификацию и регрессию) с использованием библиотеки Scikit-Learn на примерах из реального мира;
– понимать и писать код, используя инструментарий библиотеки Numpy;
– приучитесь использовать библиотеки Numpy, Scipy, Matplotlib и Pandas для написания численных алгоритмов;
– понимать плюсы и минусы разнообразных моделей машинного обучения, включая глубокое обучение, деревья решений, метод «случайного леса», линейную регрессию, форсирование и другие.

Курс 15 из 17 Байесовское машинное обучение на языке Python: A/B-тестирование
– использовать адаптивные алгоритмы для улучшения производительности A/B-тестирования;
– понимать разницу между байесовской и частотной статистикой;
– применять байесовские методы в А/В-тестировании.

Курс 16 из 17 Ансамблевое машинное обучение на Python: метод случайного леса, AdaBoost
– понимать и выводить разложение на смещение и дисперсию;
– понимать метод размножения выборок и его приложение к бэггингу;
– понимать, почему бэггинг улучшает работу классификации и регрессии;
– понимать и реализовывать метод случайного леса;
- понимать и реализовывать метод AdaBoost

Курс 16 из 17 Искусственный интеллект: обучение с подкреплением на Python
– применять градиент-ориентированное машинное обучение с учителем для обучения с подкреплением;
– понимать обучение с подкреплением на техническом уровне;
– понимать связь между обучением с подкреплением и психологией;
- реализовывать 17 различных алгоритмов обучения с подкреплением

Решил сделать перевод всех курсов Lazy Programmer Inc. о искусственном интеллекте, машинном обучении,- взяв за основу материалы из этой складчины.
 
  • Like
Реакции: sulicompany
Сверху Снизу