Доклад плавно погрузит вас в тему искусственного интеллекта. Сергей Марков расскажет об истории развития, первых LLM и какие сейчас наиболее перспективные проекты и исследования в сфере AI.
*Прямая ссылка на видео https://www.youtube.com/watch?v=MSoQIOeese8
**Таймкоды сделала нейросеть https://300.ya.ru/
Таймкоды
00:00:00 Введение в искусственный интеллект
- Обсуждение языковых моделей и программирования.
- Определение искусственного интеллекта как области науки и технологий, занимающейся автоматизацией решения интеллектуальных задач.
- Упоминание Джона Маккарти и Дартмутского семинара 1955 года.
00:01:20 Эволюция восприятия искусственного интеллекта
- Сравнение ожиданий от ИИ в 1950-х и современных реалий.
- Изменение представлений о настоящем ИИ: от шахмат до рисования и музыки.
- Критика современных технологий ИИ со стороны некоторых людей.
00:04:57 Ограничения человеческого интеллекта
- Обсуждение барьеров, которые ИИ помогает преодолеть: надёжность, параллелизм, коммуникативные ограничения, порог сложности анализируемых систем, ограниченность памяти и экспертных навыков, барьеры мотивации и масштабирования.
- Примеры технологических решений для преодоления этих барьеров.
00:08:12 Дуглас Энгельбарт и его вклад
- Дуглас Энгельбарт как создатель концепции современных интерфейсов.
- Его идеи многооконности, мультимодальных документов и копирования фрагментов.
- Актуальность его концепции спустя 60 лет.
00:09:33 История развития ИИ
- Начало истории ИИ с первых примитивных инструментов.
- Связь современной истории ИИ с развитием вычислительной техники.
- Роль искусственных нейронных сетей в современных системах машинного обучения.
00:11:38 Революция глубокого обучения
- Начало революции глубокого обучения в 2012 году с появлением модели AlexNet.
- Победа AlexNet в соревнованиях по распознаванию образов из датасета ImageNet.
- Условность даты начала революции глубокого обучения.
00:12:32 Ранние достижения в распознавании образов
- Примеры ранних достижений в распознавании дорожных знаков и других изображений.
- Сверточные сети показали сверхчеловеческую точность распознавания картинок.
- AlexNet не была первой моделью, обученной на ImageNet.
00:13:14 Развитие глубокого обучения
- Алекснет продемонстрировал зрелость пайплайна распознавания образов на основе сверточных нейронных сетей.
- За последние 10 лет многие задачи в области искусственного интеллекта были решены благодаря трём основным факторам: созданию новых моделей машинного обучения, росту производительности машин и накоплению массивов данных.
00:13:59 Факторы успеха глубокого обучения
- Создание технологий правильного обучения и инициализации глубоких сетей.
- Рост производительности машин позволяет обучать модели большего размера.
- Накопление массивов данных для обучения моделей.
00:14:57 Рост объёма данных
- Количество цифровых данных растёт экспоненциальными темпами.
- К 2025 году ожидается накопление 175 зетабайт оцифрованных данных.
- Высота стопки дисков с данными будет в 32 раза больше расстояния от Земли до Луны.
00:16:52 Революция трансформеров
- Трансформеры позволили более эффективно использовать вычислительный параллелизм.
- Это привело к созданию моделей с сотнями миллиардов параметров.
- Один китайский проект заявил о создании модели с 75 триллионами параметров.
00:18:14 Сравнение с человеческим мозгом
- Человеческий мозг выполняет множество операций в единицу времени благодаря своей сложной структуре.
- Мозг состоит из 86 миллиардов нейронов и квадрильона синапсов.
- Современная электроника не может достичь такой же производительности из-за ограничений фон-неймановских архитектур.
00:20:19 Проблемы фон-неймановских архитектур
- Фон-неймановские архитектуры создают bottleneck при обучении нейронных сетей.
- Мозг не испытывает этой проблемы, так как нейроны одновременно являются местом хранения и обработки информации.
00:22:06 Оптимизация моделей
- Инженеры из DeepMind показали, что топовые модели недообучены и требуют больше времени для обучения.
- Массовый инференс трансформеров требует создания более компактных моделей.
- Вычислительные бюджеты растут экспоненциальными темпами, а не количество параметров моделей.
00:24:09 Фундаментальные модели
- Переход от узкоспециализированных моделей к моделям, которые сначала предобучаются на больших данных, а затем дообучаются на конкретных задачах.
- Это напоминает процесс обучения детей, где они решают задачи, не всегда применимые в реальной жизни.
00:25:20 Формирование представлений через задачи
- Решение искусственных задач способствует формированию представлений в мозге.
- Эти представления помогают быстрее обучаться новым задачам во взрослом возрасте.
- Пример с распознаванием тигра иллюстрирует важность предвыученных паттернов.
00:26:36 Революция в обработке естественного языка
- Трансформеры возникли из рекуррентных сеток с механизмом внимания.
- Результаты в области обработки естественного языка применяются в других областях.
- Естественный язык — формально полная система, позволяющая формулировать условия любых задач.
00:27:45 Применение моделей к различным задачам
- Модели, обученные продолжать тексты, могут переводить слова и решать шахматные задачи.
- Любые задачи можно представить в текстовой форме.
- Знания, вырабатываемые моделями, полезны для множества интеллектуальных задач.
00:30:00 Исторические революции в обработке информации
- Устная речь, письменность, книгопечатание и интернет изменили способы передачи и тиражирования информации.
- Интернет позволил создавать электронные копии с минимальными затратами.
- Генеративный искусственный интеллект может стать следующей революцией в информационном метаболизме.
00:31:37 Будущее генеративного ИИ
- Генеративные модели могут быстро представлять индивидуализированные срезы опыта.
- Пользователи будут получать рефераты, основанные на оцифрованных данных.
- Прототипы таких систем уже существуют и могут стать доступными в скором времени.
00:32:49 Эра интерактивного ИИ
- Переход от дискриминативных к генеративным моделям ИИ.
- Интерактивный ИИ будет взаимодействовать с внешними инструментами и людьми.
- Концепции мультиагентности и моделирования рассуждений отражают идеи Канемана о быстром и медленном мышлении.
00:34:15 Понятие агентов и мультиагентных систем
- Агенты могут действовать, обращаться к внешним инструментам, моделировать рассуждения и иметь долгосрочную память.
- Фрейминг позволяет настраивать поведение агентов.
- Пример рефлексии: модель сначала генерирует текст, затем критикует его и, наконец, улучшает, учитывая замечания.
00:35:26 Настройка больших языковых моделей
- Изменение выдачи модели через промтинг, изменение набора функций и использование регов.
- Паттерн рефлексии улучшает качество генерации текста.
- Такой подход позволяет моделировать различные роли: писателя, критика и редактора.
00:36:55 Скафолдинг в ИИ
- Скафолдинг позволяет строить фреймворки вокруг ИИ-моделей для управления процессом обработки информации.
- Модели могут генерировать и ранжировать варианты ответов, выбирать лучшие из сгенерированных вариантов.
- Возможности ограничены только фантазией разработчика.
00:37:48 Моделирование реального мира
- Модели могут прогнозировать последствия действий в реальном мире и генерировать варианты действий.
- Они могут использоваться как полиси нетворк для генерации действий и как ивлейшн нетворк для оценки результатов.
- Это открывает пути к стратегическому моделированию систем реального мира.
00:38:45 Тенденции в ИИ
- Современные ИИ-модели становятся умнее и будут активно использоваться в ближайшие годы.
- Мультимодальность: модели могут обрабатывать любую смесь модальностей звук, изображения, видео, текст.
- Тренды включают смеси экспертов, декомпозированные архитектуры и создание умной синтетики для обучения моделей.
00:39:44 Интеллектуальный взрыв
- Концепция интеллектуального взрыва не подтверждается из-за физических и инженерных ограничений.
- Интеллектуальные задачи в мультиагентных средах остаются сложными.
- Энергетические ограничения ограничивают масштабирование ИИ-моделей.
00:41:37 Развитие в России
- Увеличение закрытости области ИИ в мире, но есть открытые коллективы.
- Регионализация проектов, многие приобретают национальный характер.
- Примеры проектов: «Рудали Малевич», «Кандинский», «Ктулху в дыму».
00:44:34 Генерация изображений и музыки
- Современные модели лучше понимают стилистику, например, могут нарисовать котика в стиле Босха.
- Возможность генерации вариаций изображений и смешивания картинок и текста в латентном пространстве.
- Планы по генерации 3D-объектов и музыки.
00:45:03 Гигачат
- Гигачат использует модель с 29 миллиардами параметров, обучение которой заняло в шесть раз больше вычислений, чем обучение «Оружие 3».
- Модель умеет задавать вопросы по картинкам и редактировать изображения по инструкциям.
- Анонс новых функций в Гигачате в начале декабря.
00:47:13 Заключение
- Благодарность за внимание.
- Призыв оставить обратную связь через QR-код.
- Вопросы выносятся в дискуссионную зону.
В этом видео
История и развитие ИИ
0:00
Так ну что готовы погрузиться в чудесный мир
0:07
языковых моделей А так а можете поднять руку Кто из вас
0:13
умеет программировать Ага а теперь кто умеет программировать на питоне Ага а кто
0:21
когда-нибудь обучал какую-нибудь нейросеть Ага а трансформер наю
0:27
нейросеть Ага всё Отлично я понял такой блиц вопрос чтобы понять Во что мы будем
0:34
больше погружаться так Ну что несколько вводных слов в общем мы сегодня будем говорить об искусственном интеллекте
0:40
искусственный интеллект — это область науки и технологий которая занимается автоматизацией решения интеллектуальных
0:45
задач То есть если есть какая-то задача которую люди решают своей головой своим интеллектом мы создаём систему которая
0:51
человека способна либо подменить в решении такой задачи либо человеку как-то существенно помочь решени в
0:57
решении этой задачи то собственно говоря это искусственный интеллект вот термин такой
1:05
древний заслуженный в ппм году в своих предложениях по организации дартмут
1:11
семинара Джон Маккарти впервые его положил на бумагу скажем так вот и
1:16
времена это были довольно романтичные там спустя 2 года Первый
1:22
спутник отправится на Орбиту Земли
1:30
[музыка] первые годы после старта космической программы
1:36
многим казалось что Ну вот пройдёт там ещё 10 лет И мы уже будем строить колонию на луне А ещё 10 лет пройдёт и
1:43
уже на Марсе Да ещё три десятилетия и мы полетим к звёздам и в общем тогда мир
1:49
казался Ну вот таким безоблачным Да развитие технологий предполага в
2:00
существо такая эйфория и ну скажем так если бы вы в пятидесятые
2:05
годы человека на улице остановили бы и спросили Ну вот машина которая обыграет
2:11
чемпиона мира в шахматы она будет настоящим искусственным интеллектом Да
2:16
Будет ли означать создание такой машины решение проблемы вообще автоматизации интеллектуальной деятельности и
2:23
подавляющего большинство Люде м потому х это
2:30
зача Если уж Мы чемпионы мира в шахматы сможем обыграть то и все остальные
2:35
интеллектуальные задачи точно Нам будут по плечу вот ну кто бы знал тогда да что
2:40
на самом деле дистанция от создания машины способная обыграть там сильнейшего игрока человека
2:48
в шахматы до автоматизации там любых произвольных интеллектуальных задач что
2:53
этот период растянется на десятилетия то конечно ну Вам бы тогда наверное не
2:58
поверили Вот Но скажем так в головах людей вообще вот представление о том что такое настоящий
3:06
искусственный интеллект оно постоянно меняется да то есть если там искусственный
3:12
росме был бы однозначно признан в пятидесятые годы настоящим искусственным
3:17
интеллектом то В девяносто седьмом году когда де бло обыграло Каспарова многие
3:23
люди сказали да Ну это вы просто Ваша машина очень глупая просто очень быстрая
3:29
она вот очень быстро варианты перебирает поэтому она человека и победила вот Ну
3:35
вот есть такая мудрая Восточная игра го вот когда вы покажете что вот можно эту
3:41
задачу решить при помощи современных технологий тогда мы так и быть позволим
3:47
вам говорить про свою область искусственный интеллект Да ну и когда лиси доль проиграл Альфа го что стали
3:54
говорить Эти люди Ну это всё чепуха это у вас какое-то умножение матриц Пома сч
4:00
нейронные сети Вот вы нам покажите машину которая сможет нарисовать картину сочинить симфонию вот Ну и конечно тогда
4:08
наверное это звучало как солидное возражение А сейчас мы с вами живём в эпоху генеративного искусственного
4:13
интеллекта и нас такие вещи не особенно удивляют да Но люди всё равно там го
4:21
говорят Ну там у вас иногда число пальцев неправильно на картинке Вот вы
4:26
не можете лошадь ска на астров когда покажете тогда и поговорим Ну и
4:32
так далее и так далее вот ну в общем это не страшно знаете люди как бы редко
4:38
надолго удовлетворяются достигнутыми результатами если бы мы с вами постоянно
4:43
удовлетворяли тем что мы создаём то наверное вся история человеческого развития закончилась бы тем что мы бы
4:49
повесили шторку в пещере да И после этого мир бы стал идеальным даже никуда развива было
5:00
в принципе сегодня говорим о технологиях искусственного интеллекта в первую
ИИ как инструмент расширения возможностей
5:06
очередь как об инструментах расширения возможностей человеческого интеллекта Но
5:11
это довольно такая естественная вещь у нас нету с вами острых когтей клыков мы
5:17
создаём ножи пики вилки у нас нету Толстой шкуры густого меха мы создаём
5:22
одежду и вот человеческий разум тоже обладает некоторыми барьерами связа
5:30
гвм образом с тем что мозг это вс-таки система мокрых вычислений да то есть электрохимическая система чтобы
5:37
пропих ионы в ионные каналы вам нужна разница потенциалов какая-то Да вот разница потенциалов Если становится
5:44
больше 1,27 Вольта У вас вода начинает на водород и кислород разлагаться Да и
5:49
дальше после этого Как вы понимаете Голова может взорваться это продуктивного мышлению не очень
5:55
способствуют вот поэтому вот такие систе мокрых вычислений
6:01
передачи сигналов через химические части цепи вот ну и на самом деле есть много
6:07
других таких барьеров которые можно отодвинуть при помощи разных технологических
6:14
решений при помощи разных инструментов умных которые мы создаём Ну вот
6:19
некоторые из этих барьеров на этом слайде Надёжность Ну сами знаете наверно ЕС ктоу изва Деги ВЛ Дава знат люди неж
6:30
не можем с вами одновременно решать много интеллектуальных задач Ну точнее можем Но производительность быстро деградирует
6:36
коммуникативные ограничения то есть собственно пропускная способность нашей сенсорной моторной Коры мы не можем
6:43
одновременно смотреть 10 фильмов Хотя было бы наверное Здорово можно было бы в 10 раз больше
6:49
Дофамин получить Но увы Вот люди довольно хрупкие сущест
7:00
тоже довольно-таки невысокие как только мы сталкиваемся с реально сложными системами такими как например
7:05
биологические системы или Человеческое общество Да тут наш наши полномочия
7:11
заканчиваются ограниченность человеческой памяти ограниченность экспертных навыков знаний барьеры
7:17
мотивации нам некоторые интеллектуальные задачи в принципе не хочется делать да а надо вот ну и барьеры масштабирования
7:25
репликации тут понятно Если вам завтра нужен кол-центр с
7:30
и а потом е Когда вам он перестанет быть нужен вы их уволить не сможете вот а
7:37
виртуальных машин раскатал 10 штук Да и потушил никакого
История и развитие интерфейсов
7:43
вреда Ну общем это понимание информационных технологий оно сформировалось довольно давно вот здесь
7:50
на слайде РК с
8:01
в появлятся какието статьи где написано геба изобретатель компьютерной мыши вот
8:08
так вот он в научпопе современном отражается на самом деле это человек который придумал в принципе концепцию
8:15
всех современных интерфейсов Ну точнее скажем так основополагающие идеи которые положены
8:22
сегодня в основу практически коммен
8:30
фрагментов этих документов Ну и тд и тп да то есть вот потом его наработки в
8:36
ксероксе они были использованы лом были использованы потом соответственно создании других современных графических
8:43
интерфейсов вот он ещё в начале шестидесятых годов написал такую развёрнутую концепцию усиления возможностей
8:50
человеческого интеллекта за счёт технологических инструментов и надо сказать что документ Несмотря на то что
8:57
прошло уже 60 лет с момента его написания многие идеи которые в нём изложены они не потеряли
9:03
актуальности вот ну или вот тоже ещё такое прекрасное поэтично высказывание
9:08
эда фретки недавно ушедшего от нас он писал что как партнёры с
9:15
интеллектуальными системами которые дополняют и компенсируют наши исправим недостатки и в полной мере используют
9:20
присущую нам креативность мы могли бы развивать все области науки искусства А имея вычислительные крылья мы могли бы
9:27
взлететь навстречу фениксу вот так что вот поэзия айтишникам тоже не
Новая и новейшая история ИИ
9:33
чуждо история развития технологии искусственного интеллекта но тут вот я
9:38
написал на эту тему краткое ведение в слонове в двух томах я там как бы начинаю вот об ОВО Да как говорится от
9:48
момента первых примитивных инструментов которые люди использовали для того чтобы возможность своего разума
9:54
раздвинуть Прив устро
9:59
Лин история такая Новая история искусственного интеллекта она
10:05
начинается примерно в то же время когда начинается история современной вычислительной технике Интересно что вот
10:13
сегодня там наиболее продвинутые системы машинного обучения они чаще всего
10:18
основаны на искусственных нейронных сетях сама идея искусственно нейронной сети она была разработана
10:27
давно во писала в письме своему другу воронцову
10:32
Грей о том что она мечтает создать исчисление человеческого мозга Кас вот
10:39
Что вот скать если математика смогла значит постичь законы движения
10:46
небесных сфер то значит почему бы ей не постичь законы
10:51
работы человеческого мозга вот и асала что вот она главная мечта е жизни это
10:58
создание Вот это самого Мозгового исчисления Вот но э Если говорить о
11:05
практических моделях то здесь обычно принято начинать историю с
11:10
1943 года когда выходит статья макалка и пицц посвящённой первой модели
11:16
искусственного нейрона и видите в общем-то э опять же этой
11:21
модели очень много лет 80 с лишним А И
11:26
вот тем не менее Да сегодня мы имеем дело с моделями которые
11:32
являются наследниками в некотором смысле модели макалка и пицца вот ну я не буду
11:39
погружаться здесь долго в историю вот этого нового времени перейдём наверное сразу к новейшему вот
Революция глубокого обучения
11:46
новейшая история технологии искусственного интеллекта она начинается с так называемой Революции глубокого
11:53
обучение обычно считается что она начинается где-то вот там в районе 2012 года когда появляется
11:59
сетка alnet но она кстати так не называлась изначально она называлась supervision Вот но просто потом уже
12:07
Алекс крижевский своё имя всё-таки в название впихнуть
12:14
что Ну вот это была первая модель которая там продемонстрировала существенное превосходство над другими
12:21
моделями распознавание образов Да вот крижевский победил в соревнованиях по
12:26
распознаванию образов из датасета imagnet недавно появившегося на тот
12:31
момент ну надо сказать что это тоже в некотором смысле условность потому что Ну там например ещё в 2011 году аспирант
12:41
шмидхубер дн череша обучал сетку распознавать
12:46
дорожные знаки тоже на похожих соревнованиях и там значит тоже В общем свёрточная сетка которая показало даже
12:57
сверхчеловеческие по-моему 32 на 32 если мне память не изменяет но по сути да то есть выдающиеся
13:04
результаты свёрточные сеткой обученной на GPU
13:12
и Ну в общем какой не возьми показатель вроде бы alnet не была по нему какой-то
13:18
радикальной инновацией Да но скорее она была демонстрацией наличия на тот момент
13:24
зрелого такого палай Да распознавания образов основанного на свх Нерон сетях
13:29
то есть что вот мы можем взять много данных можем сделать
13:38
свёрточные банча соты результаты вот ну и вообще
13:44
конечно то что за последние 10 с хвостиком лет очень многие задачи из
13:49
области искусственного интеллекта оказались решены на это есть свои причины Да и я обычно говорю о том что
13:56
Ну три основных фактора здесь повлияли Первое это создание новых моделей машинного обучения Ну а именно глубоких
14:03
сеток и даже не столько самих глубоких сеток потому что ну там типа восьми слойные сети были ещё и ахн шестидесятые
14:12
годы Да вот но скорее технологии их правильного там
14:18
обучения правильной инициализации умение делать глубокие сетки из тах параметри СВ при конструк
14:29
мы сегодня включаем скажем так в основной технологический стек глубокого обучения вот Ну дальше естественно рост
14:36
производительности машины становятся всё быстрее и быстрее Да и соответственно мы можем позволить себе модели большего
14:42
размера обучать и дольше обучать А ну и накопление массивов данных которые мы используем для обучения моделей это тоже
14:49
очень важный фактор потому что в семидесятые годы например ну или в шестидесятые скажем когда нбд учил там
14:55
свои перцептрон Ну представляете себе да то есть хося фотографий вручную пихать в
15:03
Фотон да то есть у вас не было тогда просто большого количества оцифрованных данных которые вы могли бы использовать
15:09
для того чтобы обучить модельку о создани таких массивов довольно Доро дорогое мероприятие количество данных растёт
Размер и скорость роста датасферы
15:17
условно экспоненциальные темпами Ну примерно Да вот исследование IDC вого года прогнозирует чтом
15:25
бух блие гово количество цифровых данных будет
15:30
удваивать и соответственно к д п году мы наком 175 з оцифрованных данных если эти
15:38
все данные взять записать на DVD диски самым плотным способом записи который сейчас доступен сложить эти диски в
15:45
стопку то высота стопки будет в 32 раза больше чем расстояние от Земли до Луны
15:51
Вот но удивительно даже нет А то что высота этой стопки е примерно удваивается каждые 2 года то есть
16:00
стать сво голо напрашивайся вывод заключается в том что мы с вами каждую минуту нашей
16:07
жизни живём в мире который довольно радикально в плане информационного метаболизма общества он не похож на всю
16:13
предыдущую историю человечества Поэтому нам приходится Ну сталкиваться со
16:18
многими такими новыми принципиально проблемами где мудрость предков
16:29
особенно в подробности график взят из книжки р сингулярность близко в 2006
16:35
году она написана и я на график поставил красную точечку соответствующую суперкомпьютеру фронтир вот ну видите
16:43
Примерно там плюс-минус мы до сих пор находимся в районе того же коридора который был нарисован тогда в начале
16:50
2000х годов так не будет все никакие экспоненты Нежа
17:00
ста довольно быстрого роста вычислительных мощностей вот внутри Революции глубокого обучения
Революция трансформеров
17:07
произошла своя важная революция это появление нейросетевой архитектуры под названием
17:12
трансформер В чём принципиально принципиальная революционность Трансформеров то в том
17:18
что они позволили гораздо более эффективно использовать вычислительный параллелизм А этот
17:24
сде бого [музыка]
17:30
Вот и Именно поэтому именно с трансформером начинается гонка больших моделей Ну что значит больших понятие
17:38
относительное Да но в семнадцатом году большая сетка это была сетка из нескольких миллионов параметров вот
17:45
сегодня мы знаем что есть сетки с монолитными архитектура сотен миллиардов
17:51
параметров Да если брать exp архитектуры один китайский проек заяви
17:58
что сде трина параметров
Что происходит прямо сейчас?
18:05
вот много интересных вещей происходит прямо сейчас в мире глубокого
18:10
обучения значит но важно при этом понимать В какой там
18:16
примерно точке мы находимся вот помните Да аргумент о том что машины глупые но
18:21
просто очень быстрые самом втмм натчез
18:29
в плане количества там операций которые способен Ну и по сути выполняет в
18:34
единицу времени почему это так потому что человеческий мозг — Это очень большая схема То есть он состоит из 86
18:42
миллиардов нейронов примерно и из примерно квадриллиона синапсов то есть точек соединения этих нейронов друг с
18:49
другом вот ну там это примерно пиковое значение на самом деле у людей взрослых
18:55
начинает снижаться количество СИП работает но тем не менее Да вот
19:01
примерная оценка Но каждый синапс — это понимаете не просто какой-то там
19:07
соединение да то есть это довольно хитрое молекулярное устройство чтобы смоделировать его работу то есть то
19:13
каким образом он трансформировать сигналы проходящие через него нам нужны
19:19
тысячи Ну а в некоторых случаях даже сотни тысяч бинарных элементов То есть если мы вот это вот всё пересчитаны
19:26
бинарные элементы то у нас получится схема беспрецедентного размера и вот даже то что она работает довольно не
19:33
быстро то есть длина отдельных импульсов в мозге она единиц миллисекунд
19:38
составляет вот Ну кстати импульс — это тоже не совсем бинарная история то есть там по современным представлениям один
19:44
Импульс в мозге переносит несколько бит информации вот вроде бы даже примерно до
19:49
7 бит по оценкам [музыка]
19:59
по такой брутто производительности человеческий мозг Он очень крут То есть у нас современная Электроника пока не
20:05
позволяет достичь такой же бруто производительности но дело на самом деле обстоит ещё хуже потому что современная
20:13
Электроника она в основном основана на фонов архитектура Это значит что у нас
20:19
а отдельно есть память в которой хранятся данные отдельно есть вычислительные ядра в которых происходят
20:25
вычисления и нам нужно постоянно копировать данные из мяти в регистре процессора Да значит
20:31
чтобы там произвести обработку результаты копировать обратно в память и вот когда мы начинаем такую штуку как
20:38
искусственный нейросеть обучать да Или инфе у нас соответственно проблема она
20:43
возникает вот там вот в этом узком бутылочной горлышке системной шины через который данные копируются из памяти в
20:49
процессоры обратно мозг этой проблемы не испытывает потому что по сути дела в моз
20:55
Нейро являтся одновременно местом Ну в том смысле что она кодируется
21:02
в эффективности синаптических связей Да и местом её обработки то есть механизмы
21:10
пластичности долговременные они тоже живут внутри нейрона поэтому мозг этой
21:15
проблемы не испытывает да А мы вот страдаем из-за этого бутылочного горлышка фон Неймана и оно на самом деле
21:21
Ну там примерно тысячекратно замедляет работу наших машин при симуляции таких моделей как нейронные сети
21:29
вот Ну что ещё интересного значит в целом сетки знаете любили несколько лет
21:36
назад во всех лекциях рисовать такие тоже красивые экспоненты Как растёт количество параметров моделей вот на
21:43
самом деле количество параметров модели — Это довольно бессмысленный показатель потому
21:49
что ну понимаете Я могу сделать там модели 100 триллионов параметров и проучить её один шаг Да там ну на на
21:55
один там варвар У меня наверно хватит компьютера Да который у меня есть но э
22:02
как бы Будет ли эта модель хороша вот поэтому 20 втором году инженеры из дип
22:08
майда которые работали над созданием модели которая называется шиншила они задались вопросом Ну хорошо
22:16
вот у нас есть фиксированный вычислительный бюджет какой-то Да а у нас есть альтернатива то есть либо
22:22
сделать модель поменьше и проучить её дольше либо сделать модель побольше Но
22:28
тогда мы её сможем проучить меньше Да вот Как оптимально то выбрать размер модели чтобы downstream метрики ну там
22:35
Лос грубо говоря был минимальным у этой модельки Вот и они строили там кривые
22:40
масштабирования Вот и показали что топовые модельки того времени Ну типа
22:45
там gpt-3 со 175 млрд параметров или МЕГА тюринг nlg с 540 миллиардами
22:52
параметров они все необургер
22:59
вот в рамках того же вычислительного бюджета нужно было делать модели меньше Вот но соответственно после появления ча
23:05
GP и появления в принципе такого явления как массовый иренс Трансформеров ситуация она изменилась ещё сильнее
23:11
потому что теперь выбирая точку оптимума нам нужно принимать в расчёт не только затраты на обучение модели но ещё и весь
23:18
лайфтайм все лайфтайм затраты на иренс этой модели да Поэтому если мы планируем
23:24
массовый модели нам нужно сделать модель меньше ши Оптимум Да потому что ну
23:31
понятно мы потом будем её много раз инфе и мы вот там сэкономим вот поэтому сегодня модели
23:38
конечно не такие большие да то есть но опять же там сегодня топовые модельки добрались там
23:45
до опять же числа параметров gt3 но при этом
23:51
вычислительные БД на их обуче
23:57
боль похожие на экспоненциальные это вычислительные бюджеты то есть сколько
24:02
мы компью тратим на обучение моделей а не число параметров как
Фундаментальные модели
24:08
таковое фундаментальные модели важная тоже концепция сформулированная д первом
24:14
по-моему году идея заключается в том что мы переходим от обучения узкоспециализированных моделей которые
24:20
вот учатся только на одну дам задачи используют данные только для этой задачи
24:26
мы переходим к вле предо обучаются долго Да потом мы их
24:32
либо добу на нашей задаче либо можем просто из коробки использовать потому что они в принципе уже неплохо Работают
24:39
но это на самом деле очень похоже на то как у нас дети учатся в обществе да то
24:44
есть в школе ребнок там решает задачки из серии Там зайчик и белочка пошли в
24:50
лес Да зайчик нашл пять грибков сгори
24:58
эти задачи если он не будет веществами злоупотреблять ему не нужно будет решать
25:04
вот Но значит тем не менее мы вот даём какое-то
25:09
количество задач обучающих в процессе обучения мы не знаем Какие задачи
25:15
Ребёнок будет решать в своей взрослой жизни потому что мы будущее не можем прогнозировать надёжно Вот Но решая вот
25:22
эти вот искусственные задачи решая всякие разные задачи которые вроде бы не имеют прямого отношения реальной жизни
25:29
мы способствуем формированию определённых представлений Да в синоптических связях мозга э
25:38
молодого человека Да которые потом будут переиспользование ну неизвестно каких
25:43
задач но имея вот эти представления э этим задачам можно обучаться гораздо
25:50
быстрее опираясь на вот эти вот предн паттерны Но это вот примерно то же
25:58
самое что если я там хочу своему другу объяснить как тигра распознать на картинке Да он Тигра не видел никогда но
26:04
я говорю ему ну тигр — это такая большая кошка с оранжевыми и чёрными полосками
26:10
да И после этого объяснения мой друг он Ну наверное худо-бедно сможет тигров распознавать Почему Потому что он
26:16
заранее знал что такое чёрный Что такое оранжевый Что такое полоска что такое кошка Что такое большое в отношении
26:23
кошки то есть мы смогли опираться на вот эти пред
26:29
представления пред выученные абстракции с фундаментальными моделями примерно тоже
Революция в NLP
26:35
самое изначально революция произошла в области обработки естественного языка Потому что Трансформеры они выросли из
26:41
рекуррентных сеток с механизмам внимания которые в свою очередь использовали для задач машинного перевода главным образом
26:47
это было основной модельной задачей тогда в начале десятых годов
26:53
но хорошая новость заключается в том что очень много что в нашем мире похоже
26:59
и музыка это текст Да и программный код и всякие последовательности в биоинформатике в
27:05
химии даже транзакции всё это очень похоже на тексты и картинку тоже При
27:10
желании можно представить в виде такого псевдо текста Да при помощью специальных энкодеров
27:17
поэтому довольно быстро результаты полученные в области обработки естественного языка они стали эффективно
27:22
использоваться в соседних областях и область обработки енго
27:28
доно массивным вот ну ещ хорошая новость вторая она заключается в том что в принципе естественный язык — это
27:35
формально полная система а это значит что мы при помощи него можем сформулировать условие вобще любой
27:41
эффективно Вычисли мой задачи Ну если допустим мы просто
27:46
обучили модельку продолжать тексты Да как мы это делаем в случае всяких
27:58
жать хорошо да то мы можем взять текст яблоко тире стол тире и как бы ну если
28:06
моделька его продолжит словом T Значит она может слова переводить с русского языка на
28:12
английский а ещё мы можем придумать текст вроде там того что там позиция
28:17
белых король Е1 Ладья Е2 там позиция чёрных король H ход белых быстрее
28:25
ведущий к победе дво уж и такой текст моделька сможет продолжить Значит она там ну как-то
28:31
шахматам умеет играть понятно что это не всегда так хорошо работает вот и не
28:36
всегда такой формат представления задачи он удобный Да ну то есть в случае картинки например нам придётся там
28:42
как-то не знаю цвета пиксели описывать Да наверное Вот Но в принципе любую задачу можно
28:48
представить в такой форме вот поэтому знания которые у таких моделек
28:54
вырабатываются они очень хороши ну куча разных интеллектуальных
История человечества и информация
29:00
задач маленький квиз Кто знает что связывает эти три
29:08
предмета подсказка века Да вот каменный век
29:16
Бронзовый век железный век знаете в начале XIX века возникло такое забавное
29:22
представление об истории человечества что вот человечество в своём развитии проходило через вот такие стадии
29:28
связанные с овладением какими-то новыми субстанциями Вот то есть в начале
29:34
человечество освоила и подчинила свое воли камень потом бронзу потом железо потом построила металлургический завод
29:40
во Франкфурте на Майне который безусловно является вершино человеческого развития Да ну вы
29:46
понимаете да то есть вот эта картина мира она больше говорит не о истории
29:52
человечества Как таковой сколько о том мире в котором эта картина была придумана вот
29:59
но там до века Скорее всего в ваших исторических учебниках было бы написано
30:05
что Жили были там Адам и Ева да потом их прогнали из Эдема Вот Но когда значит
30:12
историком перестал платить папа римские стали платить крупные промышленники Да оказалось что наша история была устроена
30:18
немножко по-другому Вот Но мы живём с вами в постиндустриальном мире и Почему
30:24
бы нам не потре на человеческую ию подго с что ну там вот были Революции тоже но
30:31
они были связаны с изменением подходов к обработке информации в человеческом обществе то
30:37
есть в начале у нас была устная речь Да это такой инструмент передачи знаний и
30:42
представлений от одного человека к другому потом произошла революция связанная с появлением письменности Да
30:47
это сильно облегчило передачу информации удешевить повысила доступность
30:53
информации потом появилось книгопечатание Да там в 10.000 раз снизились затраты на создание копии
31:01
книги Вот и соответственно опять же это там лавинообразный образом увеличило
31:06
Количество доступной людям информации Да упростило тиражирование и так далее
31:11
потом появился интернет Да и интернет позволил тиражировать информацию способами ещё более эффективными чем
31:17
раньше Да электронная копия создание её опять же там во много-много раз меньше
31:24
чем издание копии бумажной книги Вот Ну а может быть сейчас происходит ещё одна
31:31
такая революция которая тоже радикальным образом перестроить информационный метаболизм нашего общества это революция
31:37
генеративного искусственного интеллекта потому что потенциально это может означать что теперь вот весь тот опыт
31:44
который человечество накопилочка может для вас очень быстро
31:51
представить нужные срез этого опыта да индивидуализированный Для вас да
31:58
учитывающий ваш там не знаю куррикулум да как какие-то значит ваши персональные особенности и ваш запрос который вы
32:04
сформулировали то есть по сути вы будете получать книжку или статью Да там
32:09
выжимку реферат под себя Да ну причём мгновенно Да ну там условно
32:16
мгновенно очень быстро Вот то есть вместо просто электронной копии
32:22
книги Да какой-то вы будете получать Ну такой реферат который будет опираться
32:27
там не знаю на на все оцифрованные данные которые у человечества есть вот ну то есть вот мы сегодня можем себе
32:34
такой мир представить в результате развития технологий Gen такие штуки они будут скорее всего там в скором времени
32:40
доступны потому что сейчас уже есть куча прототипов разной степени
32:47
всратость вот вообще внутри вот Революции глубокого обучения У нас тоже
Будущее ИИ
32:53
такие важные э изменения да Мы начинали
32:58
начале де годов главным образом от криминале искусственного интеллекта потом перешли к
33:05
генеративного Дальше например Мустафа Сулейман считает что нас ждёт Эра
33:11
интерактивного искусственного интеллекта то есть систем которые смогут решать задачки которые не решаются
33:17
ваншот Что называется да одним шагом рассуждения
33:23
есть вни че внешних инструментов с другими
33:29
системами с людьми и так далее да то есть будут по сути дела моделировать Ну вот какой-то
33:36
такой процесс обработки информации и в ходе решения какой-то сложной многоплановый интеллектуальной задачи
33:43
Вот это в некотором смысле напоминает вот идеи канемана да который говорил о
33:49
том что человеческое мышление бывает быстро бывает медленно то есть быст когда мы вот раз и сразу знаем ответ
33:56
дадн рассуждение такое вот да которое цепочки рассуждений которые мы строим
34:02
вот ну и сегодня в области больших языковых моделей это всё нашло воплощение в таких
34:09
концепциях как мультиагентной и моделирование рассуждений Вот то есть Ну
34:15
опять же что такое агенты там вроде бы раньше всё было просто агенты — это
34:21
что-то что может действовать Да исходя просто из латинского корня Да но сейчас если Вы посмотрите определение агентов
34:27
разных лабораторий вы там увидите разное Вот но в принципе можно говорить что там
34:33
система может быть присуща разный уровень агентное и там признаки которые называют часто в качестве Агент
34:39
признаков это ну собственно возможность действовать то есть генерировать
34:45
какие-то скажем так управляющей команды да для каких-то систем это наличие
34:50
внешних инструментов которым система может обращаться это возможность
34:55
моделирования рассуждений деревьев графов Там и так далее рассуждений наличие долгосрочной памяти
35:03
Ну и фрейминг то есть мы можем как бы Агента настраивать Да определённым
35:10
образом чтобы он себя вёл по-разному Да решая задачу вот значит Ну вот несколько
35:18
концепций важных которые в основе современное
Настройка моделей
35:27
что мы используем для того чтобы настроить модель куда обычно ядром Таких вот Агент систем являются большие
35:34
языковые модели Как мы можем изменить выдачу модели можем при помощи
35:41
промгаз набора функций которые она вызывает при помощи рев то есть соединения поисковых
35:48
инструментов и генеративных при помощи каких-то дешёвых способов Файн тюнинга типа Лоры и её производных Ну и до
35:55
обучением модели Вот соответственно простой пример как
36:01
можно дальше использовать этот механизм Ну вот например вместо просто генерации
36:07
текста Да мы делаем реализуем такой паттерн как рефлексия да то есть в начале говорим мки действую как писатель
36:15
Да там столь же талантливый как Данил Хармс и сам Боженька да или что мы там
36:20
вмте придумаем Вот она напишет нам текст Да потом мы возьмём Ту же самую модельку но например протом е скажем там теперь
36:28
Действуй как критик там как неистовый Белинский Да черкай предлагай как этот текст улучшить Да увидим значит
36:36
сгенерируйте Ну и на третьей фазе скажем Действуй как редактор да то есть возьми вот эти замечания возьми Вот этот текст
36:43
и учти эти замечания сделай текст лучше Вот ну и вот там при помощи такого не
36:49
хитрого паттерна мы можем довольно заметно бустануть качество генерации сетки вот Ну и как бы если посмотреть
36:57
паттерн можно Ну понять что он является частным случаем какого более общего механизма который называет скаффолдинг
37:04
часто Ну от слова слд строительные лиса каркас и так далее То есть вы можете вокруг вашей мки построить Ну вот такой
37:12
довольно большой какой-то фреймворк который управляет Ну собственно говоря процессинговая
37:28
лучшие варианты из сгенерированных другой моделькой
37:34
вариантов ИТП да то есть здесь вот только ваши фантазии ограничиваются то каким образом это можно
37:41
делать на самом деле открывает ещ интересные возможности вот у
Возможности моделей
37:47
нас модели в некотором смысле содержат все модель мира она может быть нето
37:58
кае может во-первых прогнозировать последствия каких-то действий в реальном мире то есть просто рассуждать если мы
38:05
сделаем это если мы сук спим на котором сидим то мы упадём да вот она умеет
38:11
генерировать варианты действий в реальном мире Да и мы её таким образом можем использовать как N да то есть мы
38:19
можем генерировать какие-то варианты действи в Реми
38:27
эту мо использовать То есть как бы оценивать результаты вот этих действий Да там и
38:35
это открывает пути в принципе к такому стратегическому моделированию там разных
38:40
систем реального мира то есть такое как бы Альфа но в реальности и Ну как даже
38:45
если современные мки там может быть Не идеально с этим справляются то Ну они постоянно становятся
38:56
умнее время у меня кончилось Я поэтому прям быстро-быстро пробегу по оставшимся слайдам Да есть много интересных
Мультимодальность и интеллектуальный взрыв
39:03
тенденций мы пошарить естественно презентацию и можно будет ну там её потом почитать прислать вопросы вот ну и
39:10
я ещё здесь тоже никуда ещё не уезжаю Значит
39:16
мультимодальной мы стремимся к тому чтобы в принципе можно было на вход модели подавать любою смесь модальностей
39:23
Да звука изображений там видео текста и на выходе тоже любую смесь модальностей
39:28
Ну в принципе также как мы например общаемся с людьми через там телегу какую-нибудь да то есть вот там мы можем
39:35
послать в чат что угодно Да и в ответ тоже нам могут что угодно прислать вот много есть тоже интересных
39:42
трендов вот начиная от всяких там смеси экспертов всяких декомпозировать
39:57
для отдельной лекции в книжке про это есть подробнее но тоже если вас что-то из этого
40:03
интересует то говорите Вот ещё смешная концепция интеллектуального взрыва Да
40:08
нас пугают некоторые люди типа Леопольда ашен бреннера о том что Ну вот знаете у
40:14
нас алгоритмы эффективнее становятся и компьютер становится больше да Значит скоро машины начнут сами себя
40:20
совершенствовать и потом мало не покажется никому Вот но влом
40:27
Вот это эту картинку из да о том
40:33
что Моё хобби экстраполяция вот никакие такие экспоненты не продолжаются вечно
40:40
вот есть разные причины почему не будет этого интеллектуального взрыва Во что мы упм Да
40:46
во-первых вообще интеллектуальные задачи особенно в мультиагентные
40:52
сло поэтому
40:57
Он никогда эту задачу не сделает Легко решаемой вот ну Не говоря уже о разных
41:03
пределах физических которые лежат которые не позволяют нам до бесконечности увеличивать
41:08
производительность вычислительных устройств но и каких-то довольно приближённых инженерных лимитах Ну типа
41:14
энергетики потому что у того же самого шин бреннера получается что там к двадцать седьмому или двадцать восьмому
41:20
году если такими же темпами всё будет расти то у нас обучение топовых лл МОК будет забирать всю там электрогенерация
41:27
Вот ну как вы понимаете энергетическую систему нельзя масштабировать с той же скоростью с которой мы пока что мки
41:38
масштабируемой взгляд всё будет развиваться почитайте потом а дальше быстро пролистать что у нас в
Регионализации и развитие в РФ
41:45
стране происходит в принципе во всём мире увеличивается закрытость области К сожалению Да все уже смеются естественно
41:52
над Open ai что она cled ai Вот Но есть ещё к счастью как бы коллективы
41:59
достаточно открытые Ну и в целом второй как бы момент — это регионализация то есть многие проекты они такой
42:06
национальный характер приобретают вот мы занимаемся большими языковыми
42:12
моделями примерно с восемнадцатого года у нас была сеточка R2 потом R3 первый
42:18
наш публичный проект Вот она уже умела писать
42:23
пу тую прессу литературный анекдот придумать навсегда
42:30
запомнилось Пушкину как Гоголь стал матросом он вышел из кабака и заглянул в один кабак заглянул в другой потом пошёл
42:37
домой постучал свою манку и сказал я матрос Вот Но это вот генерация типа из
42:42
двадцать первого года Много чего мы там грили стихии
42:49
прочее там ВМ
42:58
моде которы умеют сочинять стихи не знаю будет звук не будет Ну ладно ВС равно
43:04
уже время кончилось вот генерация изображений по тексту Вот первая наша моделька д первого года рудали Малевич
43:11
вот 12 миллионов генерации за первую неделю это такое
43:16
было была локальная сенсация потому что Open
43:23
[музыка] обучила которая была в 10 раз меньше и выложили её в открытый доступ вместе с
43:30
Весами вот запустили сервис Ну
43:39
генерировать Это странное и выкладывать там на дваче и везде где ещё можно такое
43:44
выкладывать Вот Но это вот черепина опять же из дцать первого года
43:57
превратилось в наш проект рудали кандинский который стал называться просто кандинский с какого-то
44:05
момента Ктулху в дыму Сталин кот это двадцать третьего года генерация деловая
44:13
колбаса гигачад всякие ну это вот 31 версия последняя
44:19
по-моему выложена публично моделька командир рот конных водолазов и там
44:25
баклажан взрывающийся Хотел конечно чтобы как у Дурова получилось но пока ещ технологии не
44:32
совершенны Вот в общем это всё дело совершенствуется быстро можно посмотреть
44:37
как там сетки лучше начинают понимать стилистику Да там типа вот нарисовать
44:42
котика в стиле босха да то есть современные сетки знают что такое Босх вот можно опять же эти сетки
44:49
использовать в каких-то сложных сваны окружения есть
44:57
г можете смешивать в латентно пространстве картинку и текст тинг
45:02
делать там генерация 3D объектов Короче я всё
45:11
пролистывании музыки так Ну про чат я скажу пол слова
Про GigaChat
45:17
вот самая большая моделька которая в основе чата лежит до недавнего времени была 29 мл параметров мы на е обучение
45:25
потратили больше вычислений чем на обучение R pt3 и вот R P3 в двадцать
45:32
первом году была самым большим вычислительным проектом в истории России да А в двадцать третьем году топовая
45:37
сетка тоже вот она там стала самым большим вычислительным проектом в истории России в шесть раз
45:43
вычислительный бюджет увеличился Хотя количество параметров Ну Видите Там 13 млрд тут 29 то есть вот эти сетки умеют
45:52
много чего примерно тоже что gpt иногда хуже Иногда лучше Вот Здесь тоже
45:57
какие-то планы Что будет происходить будет происходить много интересного что-то из этого уже произошло Ну вот
46:04
например там вы уже можете посылать картинки и задавать по ним вопросы вот а
46:09
вот что вы сможете в скором времени например редактировать изображение при помощи инструкции Вот тут я себе Пятачок
46:15
рисовал успешно при помощи какой-то демо версии вот короче начале декабря
46:24
будет подключайте бы мы там будем анонсировать очень много разных фичей
46:29
вот в гача у нас там припасено вот
46:34
вот короче как модели применять Ну есть идея да Что бабу
46:41
вынули автомат засунули Да женщину вынули автомат засунули на самом деле конечно нужно тут действовать немножко
46:48
поумнее и тут есть блок схема вы её потом посмотрите вот короче всё сорян что я
46:55
перели Спасибо большое что слушали мой поток мыслей здесь QR код где можно там
47:03
оставить обратную связь Вот вы его сейчас сфоткаешь
47:15
перед вами выступал Сергей Марков руководитель исследовательской
47:21
команды гига Chat А поскольку мы здесь немножко перелимит да А тогда вопрос
47:27
выносим в дискуссионную зону

