101 Концепт из Data Science и Машинного Обучения. Ты Должен Это Знать!

Аве Кодер!
В этом исчерпывающем анимированном видео мы разберем основные принципы и понятия, которые должен знать любой интересующийся Data Science, Машинным Обучением или Искусственным Интеллектом (ИИ).

Расшифровка видео
0:00
а выкодер если интересуешься pytne Data
0:03
Science машинным обучением нейронными
0:05
сетями и искусственным интеллектом в
0:07
целом обязательно загляни в описание под
0:09
роликом где Тебя ждет много всего
0:11
интересного в контексте машинного
0:14
обучения дисперсия это мера того
0:16
насколько наши прогнозы варьируются для
0:18
любой точки высокая дисперсия может
0:21
привести к переобучению Что означает что
0:23
наша модель может хорошо работать на
0:25
обучающих данных но плохо на новых
0:27
данных обучение без учителя Это тип
0:30
машинного обучения который ищет ранее не
0:33
обнаруженные паттерны в наборе данных
0:35
без предварительно заданных меток и с
0:37
минимальным участием человека анализ
0:40
временных рядов это метод
0:41
статистического и машинного обучения для
0:44
изучения и прогнозирования данных
0:46
собранных или упорядоченных во времени
0:48
перенос машинного обучения это метод
0:51
машинного обучения при котором
0:52
предварительно обученная модель
0:54
используется для решения другой но
0:56
связанной задачи Это позволяет экономить
0:59
время ресурсы а также улучшает
1:01
производительность если новая задача
1:03
тесно связана с исходной задачей
1:05
градиентный спуск это алгоритм
1:07
оптимизации используемой для поиска
1:10
локального минимума функции путем
1:12
итеративного изменения ее параметров
1:14
направлении противоположном градиенту
1:18
стохастический градиентный спуск это
1:20
вариант градиентного спуска которая
1:22
обновляет веса модели по одному
1:24
обучающему примеру за раз вместо того
1:26
чтобы смотреть на весь набор данных
1:29
сразу это делает его более быстрым и
1:31
позволяет ему обрабатывать большие
1:33
наборы данных анализ тональности это
1:36
процесс определения эмоционального тона
1:39
текста это может быть полезно во многих
1:41
областях таких как маркетинг и
1:43
обслуживание клиентов Где важно понимать
1:45
настроение клиентов регрессия это тип
1:49
задачи машинного обучения где цель
1:51
состоит в предсказании непрерывного
1:53
значения например цены дома или продажи
1:56
продукта
1:58
регуляризация это метод который помогает
2:01
предотвратить переобучение добавляя
2:03
штраф к сложности модели это помогает
2:06
уменьшить сложность моделей и делает ее
2:08
более устойчивой к шуму в данных
2:14
Логистическая регрессия это
2:16
статистический метод используемый для
2:18
моделирования зависимости между набором
2:20
признаков и категориальной зависимой
2:23
переменной часто применяемые в машинном
2:25
обучении и дата сайнсе для задач
2:27
классификации Линейная регрессия это
2:30
статистический метод используемый для
2:32
моделирования и анализа линейных
2:35
Отношений между зависимой и одной или
2:37
несколькими независимыми переменными
2:39
широко применяемые в машинном обучении и
2:42
дата сансе для прогнозирования
2:43
интерпретации данных обучение с
2:46
подкреплением Это тип машинного обучения
2:48
Где агент учится взаимодействуя со своей
2:51
средой и получая награды или штрафы за
2:54
свои действия
2:56
деревья решений Это вид алгоритма
2:59
обучения с учителем используемый как для
3:01
задач классификации так и для задач
3:03
регрессии принимающие решения на основе
3:06
разделения данных по значениям признаков
3:10
Случайный лес это метод ансамблевого
3:13
обучения состоящий из множества деревьев
3:15
решений и выдающий средний прогноз этих
3:18
деревьев для задач регрессии или класс
3:20
получивший наибольшее число голосов для
3:23
задач классификации усечение или обрезка
3:26
это процесс уменьшения размера дерева
3:29
решений удаляя ветви которые
3:31
предоставляют мало полезной информации
3:33
чтобы уменьшить сложность модели и
3:35
предотвратить переобучение
3:37
метод главных компонент или pca это
3:40
статистический метод сокращения
3:42
размерности данных с минимальной потерей
3:45
информации широко применяемые в машинном
3:47
обучении и дата сайнсе для визуализации
3:49
и оптимизации модели предварительное
3:52
обучение это процесс при котором модель
3:54
обучается на Большом наборе данных перед
3:57
тем как она будет настроена для
3:59
конкретной задачи это может помочь
4:01
улучшить производительность модели
4:03
особенно когда доступно ограниченное
4:05
количество обучающих данных
4:08
обнаружение объектов Это задача
4:10
компьютерного зрения которая заключается
4:12
в определении местоположения объектов на
4:16
изображении их классификации
4:18
перья дискретизация это процесс
4:20
увеличения количества примеров в
4:23
минорном классе В задачах классификации
4:25
с несбалансированными данными
4:28
выброс это значение данных которое
4:31
сильно отличается от других они могут
4:33
быть вызваны ошибками в данных или
4:36
редкими но настоящими отклонениями
4:38
переобучение это проблема с которой
4:41
сталкиваются Многие модели машинного
4:43
обучения когда они слишком хорошо
4:45
подгоняются К обучающим данным и плохо
4:47
работают на новых данных
4:52
One Hot кодирование это метод
4:54
представления категориальных переменных
4:56
в виде бинарных векторов где каждая
4:59
уникальная категория кодируется
5:00
единственной единицей на соответствующие
5:03
позиции вектора поиск ближайших соседей
5:06
от алгоритм машинного обучения который
5:08
используется для классификации объектов
5:10
на основе близости и другим объектам в
5:14
обучающем наборе данных
5:17
нормальное распределение это тип
5:19
вероятностного распределения в котором
5:21
значение сосредоточены вокруг среднего
5:23
арифметического и оно симметрично
5:26
относительно этого среднего
5:30
норма нормализация это процесс
5:32
преобразования данных
5:34
стандартизированный диапазон часто с
5:36
целью улучшения эффективности алгоритмов
5:38
машинного обучения и анализа данных
5:40
datascience обработка естественного
5:43
языка или НЛП это область машинного
5:45
обучения которая занимается
5:47
взаимодействием между компьютерами и
5:49
человеческим языком Она включает в себя
5:51
такие задачи как перевод суммаризацию
5:53
текста и анализ тональности факторизация
5:56
матриц это процесс разложения матрицы на
5:59
произведение двух или более других
6:01
матриц часто используемые в машинном
6:04
обучении Тата сайнс для упрощения
6:06
вычисления снижения размерности и
6:08
выявления скрытых факторов в данных
6:11
марковская цепь это стохастическая
6:13
модель представляющая последовательность
6:15
возможных событий где вероятность
6:17
каждого события зависит исключительно от
6:20
состояния достигнутого на предыдущем
6:22
этапе часто используемая в машинном
6:24
обучении и науке о данных для симуляции
6:27
выборки из сложных вероятностных
6:29
распределений и изучения систем со
6:32
временем
6:33
[музыка]
6:35
выбор модели – это процесс сравнения
6:37
различных алгоритмов машинного обучения
6:39
или конфигурации одного алгоритма с
6:42
целью выбрать наиболее эффективную
6:44
модель для конкретной задачи в контексте
6:46
datascience или машинного обучения
6:48
оценка модели это процедура анализа
6:51
эффективности алгоритма машинного
6:53
обучения на основе определенных метры
6:56
качества таких как точность полнота или
6:58
F1 мера с целью определения его
7:01
пригодности для решения конкретной
7:03
задачи джипитер ноутбук это
7:05
интерактивная среда для разработки и
7:07
представления кода поддерживающее
7:09
множество языков программирования
7:11
включая Пай и широко используемая
7:13
машинного обучения и дата сайленсе для
7:15
анализа данных визуализации и создания
7:18
документов передача знаний это процесс
7:20
переноса знаний опыта или моделей из
7:24
одной области или задачи в другую с
7:26
целью улучшения эффективности алгоритмов
7:28
машинного обучения часто применяемые в
7:31
дата сайнс для ускорения обучения и
7:33
повышения качества графы знаний это
7:37
структура данных которая используется
7:38
для организации и хранения информации о
7:41
сущностях и их отношениях они широко
7:44
используются в области искусственного
7:46
интеллекта для представления знаний
7:48
совместная вероятность это вероятность
7:50
наступления двух или более событий
7:53
вместе Она играет важную роль в многих
7:55
алгоритмах машинного обучения включая
7:58
наивные байесовский классификатор и
8:00
скрытые модели Маркова индуктивная
8:03
предвзятость это набор предположений или
8:05
ограничений которые алгоритм машинного
8:07
обучения делает при обучении модели и
8:10
которая определяют его способность
8:12
обобщать данное влияя на Качество и
8:15
эффективность модели извлечение
8:17
информации это процесс извлечения
8:19
структурированной информации из
8:21
неструктурированных данных таких как
8:23
текст это может включать себя задачи
8:26
такие как извлечение именованных
8:28
сущностей извлечения отношений и
8:30
классификацию текста вывод это процесс
8:33
использования обучен Ной модели для
8:35
предсказания ответов на новые данные
8:43
не сбалансированные данные Это тип
8:46
данных в котором классы или категории
8:48
представлены в неравных пропорциях что
8:50
может привести к смещению в оценке
8:52
модели машинного обучения и требует
8:55
специальных методов обработки в
8:57
datascience Human in Look или человек
9:00
цикле это модель взаимодействия в
9:02
которой оператор человек участвует в
9:04
цикле обучения алгоритма машинного
9:06
обучения представляя в реальном времени
9:08
входные данные коррекции или проверки
9:11
широко применяемые в datascience для
9:13
повышения точности интерпретируемости
9:15
модели
9:17
графический процессор или GPU это
9:19
специализированный процессор изначально
9:21
разработанные для обработки графики но
9:24
широко применяемые в машинном обучении и
9:26
дата сайнс для ускорения вычислений
9:28
особенно в задачах требующих большого
9:31
количества параллельных операций
9:33
исчезающие Градиент это проблема с
9:35
которой сталкиваются многие глубокие
9:37
нейронные сети когда градиенты
9:39
становятся слишком большими или слишком
9:42
маленькими это может привести к
9:44
нестабильным обучению и делает модель
9:46
сложный для оптимизации обобщение или
9:49
генерализация это способность модели
9:52
машинного обучения делать точные
9:54
прогнозы на новых ранее невидимых данных
9:56
на основе обучения на обучающем наборе
9:59
данных
10:02
генеративно-состязательные сети или Ганс
10:04

Это тип нейронных сетей которые
10:06
используются для генерации новых данных
10:08
которые похожи на обучающие данные они
10:11
состоят из двух частей генератора
10:13
который создает новые данные и
10:15
дискриминатора который пытается отличить
10:17
реальные данные от сгенерированных
10:20
ансамблевые методы это методы машинного
10:23
обучения которые комбинируют прогнозы
10:25
нескольких базовых моделей с целью
10:27
улучшения обобщающей способностей и
10:30
устойчивости алгоритма широко
10:32
применяемая в Data Science для повышения
10:34
качества модели
10:36
многоклассовая классификация Это задача
10:38
машинного обучения где есть более двух
10:41
классов и задача моделей предсказать
10:43
какому классу принадлежит каждый образец
10:47
предопроводка данных это первый шаг в
10:50
процессе машинного обучения который
10:51
включает в себя очистку данных
10:53
преобразования признаков заполнения
10:55
пропущенных значений и другие задачи
10:57
необходимые для подготовки данных к
11:00
обучению модели
11:01
регрессионный анализ – это
11:03
статистический метод для моделирования и
11:05
анализа Отношений между переменными в
11:08
контексте машинного обучения Это тип
11:10
задачи где цель состоит в предсказании
11:12
непрерывного значения 7 функция Это тип
11:16
функции активации которая используется в
11:19
нейронных сетях она преобразует любое
11:21
входное значение в число между нулем и
11:24
единицей Что может быть интерпретирована
11:26
как вероятность эволюционный алгоритмы –
11:29
это класс оптимизационных алгоритмов
11:31
которые используют механизмы
11:33
вдохновленные биологические эволюции
11:35
такие как отбор мутация и кроссовер или
11:38
скрещивание для поиска решений в больших
11:41
пространствах поиска языковые модели это
11:44
модели которые предсказывают следующее
11:46
слово или символ в тексте на основе
11:48
предыдущих слов или символов они
11:51
являются основой для многих приложений
11:53
обработки естественного языка включая
11:55
автозаполнение исправления орфографии и
11:59
машинный перевод обратное
12:00
распространение ошибки это метод
12:03
оптимизации используемые в искусственных
12:05
нейронных сетях для минимизации функции
12:07
потерь путем последовательного
12:09
обновления весов основанный на
12:11
градиентном спуске широко применяемая в
12:14
машинном обучении и дата сайнс для
12:16
обучения
12:17
моделинг это ансамблевый метод машинного
12:20
обучения который обучает множество
12:22
моделей на различных подвыборках
12:24
обучающих данных а затем усредняет их
12:27
прогнозы
12:29
плотный Вектор это Вектор в котором
12:31
большинство элементов не равны нулю
12:36
Инжиниринг признаков это процесс
12:38
преобразования исходных данных формат
12:40
который упрощает интерпретацию для
12:42
алгоритмов машинного обучения
12:46
метод опорных векторов или свм это
12:50
алгоритм машинного обучения с учителем
12:52
для задачи классификации и регрессии
12:55
который находит гиперплоскость наилучшим
12:57
образом разделяющую различные классы в
13:00
пространстве признаков
13:02
перекрестная проверка это методика
13:04
оценки производительности модели
13:06
машинного обучения при которой исходный
13:08
набор данных делится на несколько
13:10
подмножеств и модель оценивается на
13:13
разных комбинациях этих подмножеств
13:16
[музыка]
13:38
функция потерь это математическая
13:40
функция
13:41
квалифицирующая разницу между
13:43
прогнозируемыми и фактическими
13:45
результатами в алгоритмах машинного
13:47
обучения
13:55
и значение это мера используемая в
13:58
статистических гипотезах для указания
14:00
вероятности наблюдения такой же или
14:03
более экстремальной статистики теста при
14:06
условии что нулевая гипотеза верна тик
14:09
критерии это статистический тест
14:11
используемый для сравнения средних
14:14
значений двух групп и определения их
14:16
статистической значимости
14:18
косинусная мера сходства это Метрика
14:21
используемая для измерения косинуса угла
14:24
между двумя не нулевыми векторами в
14:26
пространстве скалярного произведения
14:28
часто применяемая для измерения схожести
14:31
документов дроп out это метод
14:34
регуляризации в нейронных сетях при
14:36
котором случайно выбранные нейроны
14:38
игнорируются на этапе обучения что
14:41
помогает предотвратить переобучение
14:46
это функция Soft Max это функция
14:49
активации преобразующая Вектор сырых
14:51
оценок вероятности часто используемого в
14:54
выходном слое нейронной сети для
14:56
классификации теорема байеса – это
14:59
принцип в теории вероятностей и
15:01
статистики описывающей вероятность
15:03
события на основе предварительных знаний
15:06
о связанных условиях
15:09
функция Tan – это функция активации
15:12
используемая в нейронных сетях которая
15:14
масштабируют выходные значения в
15:16
диапазоне от минус единицы до плюс
15:19
единицы функция это функция активации
15:23
определенное как положительная часть ее
15:25
аргумента используемая в искусственных
15:27
нейронных сетях что позволяет модели
15:29
обучаться эффективнее на больших и
15:32
сложных наборах данных
15:35
средний квадратичная ошибка это функция
15:38
потерь используемая В задачах регрессии
15:41
которая измеряет среднее значение
15:43
квадратов ошибок между прогнозируемыми и
15:46
фактическими значениями квадратный
15:48
корень из Средней квадратичной ошибки
15:50
представляет меру средней величины
15:53
ошибок между прогнозируемыми и
15:55
фактическими наблюдениями коэффициент
15:58
детерминации r-квадрат это
16:00
статистическая мера показывающая долю
16:02
дисперсии зависимой переменной которая
16:05
объясняется независимыми переменными в
16:08
модели регрессии L1 и L2 регуляризация
16:11
это методики добавляющие штрафные
16:14
слагаемые к функции потери для
16:16
предотвращения переобучения причем L1
16:19
приводит к разряженным решениям а L2
16:22
просто уменьшает веса
16:26
скорость обучения это параметр настройки
16:29
в алгоритме оптимизации которые
16:31
определяет размер шага на каждой
16:33
итерации при движении к минимуму функции
16:35
потерь она метафорически представляет
16:37
собой скорость которой модель машинного
16:39
обучения учится влияя на то насколько
16:42
новая информация перекрывает старую
16:48
[музыка]
16:59
байесовский классификатор это
17:01
вероятностный классификатор основанный
17:03
на применении теоремы байеса который
17:05
предполагает что все признаки независимы
17:08
между собой при заданной категории
17:10
объекта функция стоимости эта функция
17:13
которая измеряет стоимость или потери
17:15
предсказания модели по сравнению с
17:18
истинным значением и задача оптимизации
17:20
заключается в минимизации этой функции
17:23
Матрица ошибок также известная как
17:25
Матрица неточностей представляет собой
17:27
специфическую таблицу которая позволяет
17:29
визуализировать эффективность алгоритма
17:32
обычно в контексте контролируемого
17:34
обучения каждая строка матрицы
17:36
представляет экземпляры в реальном
17:38
классе а каждый столбец представляет
17:40
экземпляры в предсказанном классе
17:42
точность или присяжен это доля
17:45
релевантных примеров среди извлеченных
17:47
отражающая точность моделей в
17:50
классификации положительных примеров а
17:52
полнота или кол так же известная как
17:54
чувствительность это доля релевантных
17:56
примеров которые были извлечены
17:59
рассказывающая на способность моделей
18:01
идентифицировать все релевантные примеры
18:03
обе метрики критически важны для оценки
18:06
производительности моделей классификации
18:08
особенно в несбалансированных наборах
18:10
данных где один класс значительно
18:12
превосходит другой Asi или площадь под
18:16
кривой рабочей характеристики приемника
18:18
является мерой эффективности для задач
18:21
классификации представляющие вероятность
18:23
того что модель будет ранжировать
18:25
случайно выбранный положительный
18:27
экземпляр выше чем случайно выбранные
18:29
отрицательные предоставляя
18:30
агрегированную меру производительности
18:32
модели на всех возможных порогах
18:35
классификации разделение на обучающую и
18:38
тестовую выборки относятся к процессу
18:40
разделения набора данных на два
18:43
подмножество одно используется для
18:45
обучения моделей известно как обучающая
18:47
выборка а другое для оценки
18:49
производительности моделей известная как
18:51
тестовая выборка этот метод помогает
18:53
оценить насколько хорошо модель обобщит
18:56
новые неизвестные данные поиск по сет
18:58
или сканирование параметров традиционно
19:01
используется для оптимизации
19:02
гиперпараметров машинным обучением И
19:05
включает в себя исчерпывающий поиск по
19:07
вручную указанному под множество
19:09
пространства гиперпараметров алгоритма
19:11
обучения он должен быть направлен
19:13
каким-то показателем эффективности
19:15
обычно измеряемым с помощью
19:17
кроссволидации на обучающем наборе или
19:19
оценке на контрольном наборе поиск по
19:21
сетке оценивает различные комбинации
19:23
значений гиперпараметров и выводят
19:26
настройки которые показали наилучший
19:28
результат в процессе валидации
19:29
обнаружение аномалии относится к
19:32
идентификации редких объектов событий
19:34
или наблюдений которые существенно
19:36
отклоняются от большинства данных и не
19:39
соответствует четкому определению
19:40
понятия нормального поведения находя
19:43
применение в различных областях включая
19:45
кибербезопасность медицину и
19:47
предотвращение финансового мошенничества
19:49
пропущенные значения относятся к
19:52
отсутствию данных в ожидаемых точках
19:53
данных что может существенно влиять на
19:56
анализ и выводы сделанные из данных
19:58
требует использования различных методов
20:01
обработки таких как импультация пропуск
20:03
или прямые методы анализа для снижения
20:06
искажений и неточностей евклидово
20:09
расстояние между двумя точками в
20:11
евклидовом пространстве является длиной
20:13
отрезка между этими двумя точками
20:15
которые можно вычислить с использованием
20:16
теоремы Пифагора и часто используется
20:19
для измерения схожести между объектами
20:21
или точками данных манхэттенское
20:24
расстояние также известное как
20:25
таксомоторное расстояние или расстояние
20:27
L1 является метрикой в которой
20:30
расстояние между двумя точками являются
20:32
суммой абсолютных значений их декартовых
20:35
координат оно получилось свое название в
20:37
честь сетки улиц Манхэттена отражая путь
20:40
который такси проедет между двумя
20:42
точками на острове расстояние хаминга
20:45
это Метрика используемая для измерения
20:47
различия между двумя строками одинаковой
20:50
длины путем подсчета количество позиций
20:52
на которых соответствующие символы
20:54
различны оно особенно полезно для
20:56
обнаружения и коррекции ошибок в теории
20:59
кодирования коэффициент жакара
21:00
определяет степень схожести между двумя
21:03
множествами вычисляя отношения размера
21:05
пересечения множеств к размеру их
21:07
объединения кластеризация по методу кей
21:11
средних это метод который разделяет
21:13
n-наблюдений на кей кластеров где каждое
21:16
наблюдение принадлежит кластеру с
21:18
ближайшим средним значением служат
21:20
прототипом кластера тем самым
21:22
минимизируя внутри кластерные различия
21:26
bootstrap – это метод исследования
21:29
распределения статистик вероятностных
21:31
распределений основной на многократной
21:33
генерации выборок методом монте-карло на
21:36
базе имеющейся выборки Он позволяет
21:38
просто и быстро оценивать самые разные
21:41
статистики доверительные интервалы
21:43
дисперсию корреляцию и так далее для
21:46
сложных моделей иерархическая
21:48
кластеризация это Метод кластеризации
21:50
при котором объекты объединяются
21:52
иерархическую структуру позволяя
21:54
исследователям изучать данные на
21:57
различных уровнях гранулярности
21:59
перемножение матриц в контексте
22:02
машинного обучения и анализа данных
22:04
представляет собой фундаментальную
22:06
алгебраическую операцию при которой две
22:08
матрицы комбинируются для создания новой
22:11
матрицы и оно критически важно для
22:14
выполнения преобразований решения
22:16
линейных уравнений и оптимизации модели
22:18
Матрица ecobby – это Матрица состоящая
22:21
из всех первых частных производных
22:24
многомерной функции и в контексте
22:26
машинного обучения и дата сайнс часто
22:28
используется для оптимизации и
22:30
вычисления градиентов Матрица Гессе это
22:33
Матрица которая состоит из вторых
22:36
производных многомерной функции и в
22:38
контексте машинного обучения и дата
22:40
сайнс Она часто используется для
22:42
оптимизации позволяя оценить выпуклость
22:44
или вогнутость функции потерь меры
22:47
Центральной тенденции относятся к
22:50
центральному или типичному значению для
22:52
вероятностного распределения часто в
22:55
разговорной речи называемому средними
22:57
значениями наиболее распространенными
22:59
Центральной тенденции являются
23:01
арифметическая средняя медиана и мода
23:04
эти меры могут применяться К одномерным
23:07
данным и могут использоваться для
23:09
понимания центрального положения вокруг
23:11
которого распределены значения данных
23:13
функция активации определяют выходное
23:16
значение узла на основе его входных
23:18
значений и Весов и нелинейные функции
23:21
активации позволяют модели
23:22
аппроксимировать сложные нелинейной
23:24
зависимости
23:26
искусственная нейронная сеть это система
23:28
вдохновленная строением и
23:30
функционированием биологических
23:31
нейронных сетей способны обучаться
23:34
адаптироваться и распознавать сложные
23:36
образы используя множество слоев
23:38
искусственных нейронов каждый из которых
23:40
обрабатывает информацию и передает ее
23:43
дальше рецептрон это алгоритм для
23:45
обучения бинарных классификаторов
23:47
функция которая может решить принадлежит
23:49
ли вход представленный вектором чисел к
23:51
определенному классу Это тип линейного
23:54
классификатора то есть алгоритм
23:56
классификации который основывают свои
23:58
предсказания на основе ли предикторные
24:01
функции сочетай набор Весов с вектором
24:03
признаков сверточная нейронная сеть Это
24:06
тип искусственной нейронной сети который
24:08
специально разработан для обработки
24:10
распознавания и классификации
24:12
изображений и используют свертку для
24:15
автоматического и адаптивного извлечения
24:17
признаков из входных данных что
24:19
позволяет сети эффективно обрабатывать
24:21
визуальную информацию и быть применимы в
24:24
различных областях таких как
24:26
распознавание образов анализ медицинских
24:28
изображений и даже обработка
24:30
естественного языка
24:36
[музыка]
24:42
рекурентная нейронная сеть Это тип
24:44
искусственной нейронной сети которые
24:46
хорошо подходят для обработки
24:48
последовательностей входных данных и
24:50
характеризуется способностью
24:51
поддерживать внутреннее состояние память
24:54
для обработки произвольных
24:56
последовательностей входных данных что
24:58
делает ее применимой к таким задачам как
25:00
распознавание почерка или распознавания
25:02
речи Она позволяет выходу из некоторых
25:05
узлов влиять на последующий ввод в те же
25:08
узлы позволяя сети проявлять временное
25:11
динамическое поведение и быть
25:13
теоретически полноценной машиной
25:15
тьюринга
25:16
долгая краткосрочная память или lstm это
25:20
тип рекурентной нейронной сети
25:22
разработанной для решения проблемы
25:24
исчезающего градиента присущей
25:27
традиционным рекурентным нейронным сетям
25:29
что позволяет сети изучать долгосрочные
25:31
зависимости и эффективно обрабатывать
25:33
последовательности данных находя
25:35
применение в таких областях как
25:37
распознавание речи машинный перевод и
25:40
прогнозирование временных рядов модель
25:42
трансформер – это архитектура глубокого
25:44
обучения представленная в научной статье
25:47
внимание это все что вам нужно которое
25:49
основано на механизмах самовнимания и
25:51
известна своими возможностями
25:53
параллельной обработки позволяют
25:55
требовать Меньше времени на обучение по
25:57
сравнению с предыдущими рекурентными
25:59
архитектурами такими как ЛСР она широко
26:02
принято для обучения больших языковых
26:05
моделей и нашла применение в обработке
26:07
естественного языка компьютерным зрении
26:09
и многих других областях
26:11
паддинг или отступ относится к технике
26:14
добавления дополнительных точек данных
26:16
или заполнителей к набору данных или
26:19
массиву часто используемые в обработке
26:21
входных данных для сверточных нейронных
26:24
сетей чтобы обеспечить правильное
26:26
наложение сверточных ядер на входные
26:28
данные сохраняя пространственные размеры
26:31
входа в контексте сверточных нейронных
26:34
сетей это метод уменьшения размерности
26:36
который служит для уменьшения количества
26:38
параметров и вычислений в сети контроля
26:41
переобучения и прогрессивного уменьшения
26:44
пространственного размера представления
26:46
Что также известно как прореживанием или
26:49
даунсэмплинг
26:51
[музыка]
26:54
вариационные авто кодировщик это
26:57
генеративная модель использующая
26:58
вариационные байесовские методы для
27:01
кодирования и декодирования входных
27:03
данных с целью генерации новых данных
27:06
аналогичных входным и он особенно
27:08
полезен сценариях обучения без учителя
27:29
квантовая машина обучение это область
27:32
которая сочетает квантовые вычисления и
27:35
машинное обучение она использует
27:37
принципы квантовой механики для
27:39
улучшения алгоритмов машинного обучения
27:43
если тебе понравилось это видео то
27:45
следующее видео тебе точно понравится
27:47
так что смотри его после этого ролика С
27:51
вами был Вий до связи

Поделиться: