Лекция сооснователя ГК «Технократия» Булата Ганиева «В начале было слово. Как GenAI меняет бизнес» записана 28 апреля 2025 года в ИТ-Парке г. Казань.
*https://www.youtube.com/watch?v=yUUHJ48UeXY
**https://300.ya.ru/v_a69RPDFG
Таймкоды
00:00:00 Введение
- Благодарность за присутствие на лекции.
- Тема лекции: «В начале было слово», но обсуждение будет о том, какое слово должно было быть в конце.
00:00:24 Причины проведения лекции
- Компания фокусируется на проектах в области искусственного интеллекта и кибербезопасности.
- Изменения в генеративном ИИ имеют тектонический характер.
- Лекция в научно-популярном формате для инженеров, предпринимателей и учёных.
00:01:24 Цели лекции
- Обсуждение прошлого, настоящего и будущего генеративного ИИ.
- Избегание дешёвого футуризма.
00:01:55 Представление спикера
- Булат, сооснователь группы компаний «Технократия».
- Выручка группы превышает миллиард рублей, более 400 сотрудников.
- Опыт работы с промышленностью и банками.
00:02:38 Структура бизнеса
- Три компании в сфере услуг: искусственный интеллект, нео-банки, апкшн-секьюрити.
- Потеря значительных средств на стартапах.
00:04:03 Содержание лекции
- Фокус на генеративном ИИ, а не на всём ИИ.
- Бум языковых моделей и трансформеров.
00:05:00 Исторический контекст
- Технологические революции и лидирующие компании.
- Мобильная революция и её влияние на бизнес.
00:06:00 Текущий этап
- Облачные сервисы и сервисы по подписке.
- Новый цикл масштабирования компаний вокруг генеративного ИИ.
00:06:32 Инвестиции и проекты
- Треть мирового венчурного капитала в генеративный ИИ.
- Проект «Старгейт» от США: 500 миллиардов долларов на дата-центры.
00:08:26 Перспективы
- Возможность взлома математики и научного прогресса.
- Генеративный ИИ как мощное оружие.
00:09:14 Бизнес-перспективы
- 74% организаций фиксируют рост в области генеративного ИИ.
- Прибыль на каждый вложенный доллар.
- Российские компании, такие как «Авито», инвестируют в генеративный ИИ.
00:10:08 Лидеры в России
- Лидеры: Яндекс и Сбербанк.
- Россия в гонке за технологиями, несмотря на отставание от США и Китая.
00:11:05 История диалоговых ботов
- Первый диалоговый бот имитировал психолога.
- Второй бот, Перри, имитировал параноидального шизофреника.
- Проект Элис отличался активным участием комьюнити в программировании диалогов.
00:11:55 Принципы работы первых ботов
- Боты работали примитивно, используя программируемые диалоги.
- Психолог рекурсивно переспрашивал о состоянии пользователя.
- Шизофреник мог отклоняться от темы, что было несерьёзно.
00:12:47 Введение в машинное обучение
- Машинное обучение стало ключевым для развития языковых моделей.
- Для понимания работы больших языковых моделей важно знать концепцию эмбедингов.
00:13:49 Этапы развития языковых моделей
- Три этапа: цепи Маркова, рекуррентные нейронные сети, трансформеры.
00:14:20 Цепи Маркова
- Цепи Маркова предсказывают слова на основе анализа текста.
- Пример реализации: T9.
- Эволюция: предсказание комбинаций слов.
00:16:17 Рекуррентные нейронные сети
- Рекуррентные нейронные сети имеют память благодаря свойству рекуррентности.
- Проблема: тяжёлые вычисления при обработке большого объёма текста.
- Лонгшорм-модели пытались решить проблему контекстного окна.
00:18:57 Эмбединги
- Эмбединги представляют слова в виде векторов для упрощения обработки.
- Контекстуализированные эмбединги учитывают контекст слов.
- Пример: слово «коса» может означать причёску или инструмент для кошения травы.
00:19:56 Трансформеры
- Трансформеры — следующий шаг в развитии языковых моделей.
- Они позволяют векторно упаковывать язык, учитывая контекст.
00:20:53 Введение в технологию трансформеров
- Технология трансформеров с механизмом внимания появилась благодаря статье, которая имеет историческое значение.
- Статья сравнивается с работой Алана Тьюринга о возможности машин мыслить.
00:21:19 Принцип работы трансформеров
- Алгоритм внимания в трансформерах позволяет параллельно анализировать каждое слово в предложении.
- Параллельные вычисления стали возможны благодаря прогрессу в области видеокарт.
00:23:03 Применение трансформеров в GPT-5
- GPT-5 использует механизм внимания для анализа огромных массивов текста из интернета.
- Большие языковые модели способны задавать множество вопросов тексту, анализируя его с разных углов.
00:24:29 Визуализация работы трансформеров
- Пример визуализации работы трансформеров в трёхмерном пространстве.
- Вектор в многомерном пространстве кодирует информацию о слове «king» и его контексте.
00:25:27 Эволюция моделей и появление думающих моделей
- Современные модели обладают «мышлением», применяя когнитивные стратегии для понимания запросов.
- Думающие модели строят цепочки логических рассуждений и объясняют свой ход мысли.
00:26:25 Различие между думающими и недумающими моделями
- Недумающие модели предсказывают следующий токен, но могут застревать на шаблонных ответах.
- Думающие модели адаптируются, моделируют и объясняют ход своих мыслей.
00:27:43 Концепция цепочки мыслей
- Цепочка мыслей позволяет моделям имитировать человеческую рациональность.
- Языковые модели рассматриваются как универсальный инструмент для создания универсальных систем.
00:28:37 Метафора языковых моделей
- Языковые модели сравниваются с операционной системой мышления человечества.
- Люди используют различные когнитивные стратегии для извлечения ответов из языковых моделей.
00:29:15 Рациональное мышление и машины
- Люди сложно остаются рациональными, в отличие от машин.
- Машины способны постоянно находиться в состоянии системы два.
- Развитие технологий от цепей Маркова до трансформеров.
00:30:14 Когнитивные стратегии и разбиение задач
- Компании экспериментируют с когнитивными стратегиями для оптимизации выдачи.
- Концепция разбиения большого синтетического мозга на маленькие мозги для решения конкретных задач.
- Пример: отдельный «мозг» для математики, отдельный — для расстановки запятых.
00:31:08 Роль роутера и ключевые критерии
- Роутер понимает суть запроса и активирует нужный «мозг», экономя электричество.
- Ключевые критерии для развития ИИ: компетенции, вычислительные мощности и дешёвое электричество.
00:32:07 Гонка за сжатие моделей
- Создание больших моделей с множеством параметров.
- Конкуренция за создание дистиллированных моделей и квантизация данных.
- Цель: языковая модель в смартфоне без выхода в интернет.
00:33:46 Завершение
- Предложение задать вопросы в конце.
00:34:00 Применение ИИ в бизнесе
- Обсуждение применения ИИ в бизнесе.
- Архитектура RAG: Retrieval-Augmented Generation.
- Проблема больших языковых моделей: они не знают контекста бизнеса.
00:34:13 Концепция RAG
- Создание векторной базы знаний для бизнеса.
- Викторизация текста для преобразования в векторные представления.
- Рост числа стартапов, связанных с RAG-платформами.
00:36:08 Преимущества RAG
- Экономия времени на бесполезной коммуникации.
- Мини-мозг компании, знающий всё о бизнесе.
- Возможность работы с чувствительными данными.
00:38:00 Эволюция RAG и новые концепции
- Появление новых концепций, таких как ESP от Antropic.
- Переход к более сложным действиям с данными.
- Быстрое развитие технологий ИИ.
00:39:54 Понятие агента
- Агент как синтетический мозг, решающий задачи автономно.
- Гибкость агентов: возможность самостоятельного поиска информации и выполнения сложных действий.
- Автоматизация бизнес-процессов через цепочки агентов.
00:40:52 Развитие агентов
- Различие между агентами и чат-ботами.
- Инструменты и внешняя память как ключевые элементы агентов.
- Примеры интеграции агентов с различными сервисами.
00:42:46 Полностью автономные агенты
- Планирование задач и автономность агентов.
- Дискуссия о том, что считать агентами.
00:43:17 Цифровизация бизнес-процессов
- Бизнес-процессы автоматизируются через системы вроде CRM.
- Данные хранятся в базах данных, а логика процессов — в системах.
- Люди ускоряют работу, используя автоматизированные системы.
00:44:10 Мультиагентные системы и новые бизнес-процессы
- Мультиагентные системы могут создать новые бизнес-процессы.
- Синтетические мозги автономно решают задачи, связанные со знаниями.
- Компании, такие как Salesforce, активно внедряют генеративный ИИ.
00:45:08 Преимущества мультиагентных систем
- Агенты универсальны и рациональны, в отличие от людей.
- Пример рациональности: судьи выносят больше обвинительных приговоров ближе к обеду.
- Системы более эффективны в принятии решений.
00:46:05 Применение генеративного ИИ в компаниях
- Наибольшее применение ИИ в клиентской поддержке.
- Языковые модели улучшают коммуникацию с клиентами.
- Пример: в Яндекс.Поддержке сложно понять, что отвечаешь не человеку.
00:47:34 Генеративный ИИ в финансах
- Создание документации для IPO за несколько минут.
- Автоматизация структурированных процессов в инвестиционном банкинге.
- Анализ отчётности компаний с помощью языковых моделей.
00:48:30 Эффективность анализа отчётности
- Синтетические мозги быстрее анализируют отчётность, чем люди.
- Возможность задать логику рациональности и когнитивную стратегию моделям.
- Модели справляются с анализом быстрее, чем целые отделы аналитиков.
00:49:03 Применение языковых моделей в фармацевтике
- Языковые модели ускоряют создание лекарств, позволяя перебирать огромное количество комбинаций.
- Фармацевтические компании видят в этой технологии значительный скачок в ускорении разработки лекарств.
00:50:05 Опыт компании с чат-ботом
- Компания создала чат-бота для зуммеров, который стал «домашним животным» для сотрудников.
- Бот выполняет различные задачи, включая расшифровку видео и сбор статусов проектов.
00:51:04 Автоматизация внутренних процессов
- Автоматизация сложных процессов, таких как сбор статусов проектов, значительно ускоряет работу менеджеров.
- Бот собирает оценки от разных команд и суммирует статусы, экономя время.
00:52:03 Интеграция моделей и создание базы знаний
- Компания интегрировала различные модели, включая ChatGPT, Яндекс и другие, для создания единого интерфейса.
- Создана база знаний «Пантеон», которая отвечает на простые вопросы и реализует агентскую логику.
00:53:43 Генерация индивидуальных планов развития
- Продукт «Юл» генерирует индивидуальные планы развития для сотрудников на основе накопленной базы знаний.
- Система рекомендует курсы, книги и другие ресурсы для развития, сокращая трудоёмкий процесс.
00:55:40 Заключение
- Обсуждение эволюции технологий от примитивных диалогов к трансформерам.
- Подчёркивание важности традиционных профессий, таких как таксисты, которые не будут заменены технологиями.
00:56:22 Изменение парадигмы
- Сдвиг в технологиях требует новых интеллектуальных интуиций.
- Векторные базы знаний предлагают новую логику хранения информации.
- Трансформеры и агенты создают новые сценарии использования данных.
00:57:18 Понимание технологий
- Важно понимать базовые принципы работы современных технологий.
- Массовое использование языковых моделей без понимания их работы может привести к тупику.
- Технологии не должны становиться «магией» для людей.
00:58:15 Мультиагентные системы и новые навыки
- Мультиагентные системы изменят способ работы людей.
- Появится необходимость в новых бизнес-процессах и навыках.
- Сервисы предыдущей волны вынесли память в интернет, но мышление оставалось за человеком.
00:59:12 Языковые модели и мышление
- Языковые модели выносят мышление вовне, анализируя информацию.
- Опасность заключается в слепом доверии к когнитивным стратегиям систем.
- Необходимо развивать навыки в логике, аналитической философии и математике.
01:00:40 Спрос на высококвалифицированные кадры
- Спрос на высококвалифицированные кадры вырастет на 42%.
- Машины не заменят людей, а создадут новый рынок для работы с агентами.
- Потребуются специалисты, способные программировать когнитивные стратегии для машин.
01:01:37 Эпоха дешёвого знания
- У каждого в кармане появится мощная машина для вычислений.
- Это приведёт к революции, сравнимой с появлением автомобилей и смартфонов.
- Возникает вопрос, как использовать доступ к сверхинтеллекту.
01:02:13 Вопрос о страхе поделиться данными
- Обсуждается страх поделиться данными и желание развернуть всё у себя.
- Вопрос о разнице между обучением и выдачей ответов генеративными моделями.
01:02:48 Проблемы использования агентов в бизнесе
- Бизнес опасается доверять свои данные облачным провайдерам, таким как Яндекс Клауд или Сбер.
- Компании боятся, что данные могут быть использованы конкурентами.
01:03:46 Локальные модели и их преимущества
- Компании строят локальные модели, используя собственные видеокарты и серверные стойки.
- Локальные модели не подключены к интернету, что обеспечивает безопасность данных.
- Несмотря на первоначальные опасения, облачные решения могут оказаться более безопасными в долгосрочной перспективе.
01:04:42 Викторизация данных и её последствия
- Данные «растворяются» в многомерном векторном пространстве, доступ к ним можно получить через запросы или промты.
- Существуют технологии маскировки данных, но они пока не получили широкого распространения.
01:05:41 Концепция MCP Memory Control
- Агенты могут экспериментировать с когнитивными стратегиями и планировать своё мышление.
- Они способны рефлексировать и изменять стратегии для улучшения результатов.
01:07:33 Безопасность генерируемого кода
- Использование генерируемого кода ограничено из-за проблем с безопасностью.
- Статический и динамический анализ кода не всегда обеспечивает достаточную защиту.
- В стартапах генерируемый код используется более свободно, чем в чувствительных проектах.
01:09:28 Применение агентов в продажах
- Агенты могут помогать в поиске отелей и договариваться о скидках.
- Они могут выступать в роли посредников между клиентами и продавцами.
- Специфика бизнеса ограничивает широкое применение агентов в продажах.
01:11:16 Создание и развитие агентов
- Агенты создаются небольшими командами, часто в рамках стартапов.
- Внутри компании реализуется концепт массового применения агентов.
- Внедрение агентов требует понимания технологий и процессов, но со временем процесс станет проще и быстрее.
01:12:51 Замена джуниоров ИИ
- Джуниоры конкурируют с ИИ, а не с другими людьми.
- В будущем ИИ может заменить джуниоров и мидлов, оставив только сеньоров.
- Возникает вопрос, кто заменит биологических сеньоров через 50 лет.
01:13:51 Пример с программистами
- В 90-е годы в России старые программисты обслуживали станки, на которых не учились программировать молодые.
- Старики открыли стартап по обслуживанию станков, демонстрируя, что сеньоры могут быть востребованы.
01:14:49 Программирование как ремесло
- Программирование стало ремеслом из-за использования фреймворков.
- Автоматизация программирования требует более сложного мышления.
- Будущие разработчики будут работать с ассистентами, используя системные навыки.
01:15:44 Ответственность за ИИ
- Вопрос ответственности за результаты работы ИИ остаётся открытым.
- Владелец программы или пользователь должен возмещать вред, нанесённый ИИ.
- Этика и философия играют важную роль в ограничении ответственности ИИ.
01:17:43 Этические дилеммы ИИ
- Этика ИИ остаётся сложной проблемой, сравнимой с дилеммой «Тесла и ребёнок».
- Необходимо находить баланс между прогрессом и этическими нормами.
- Вопрос ответственности за ИИ остаётся открытым, будущее непредсказуемо.
01:18:42 Заключение
- Будущее ИИ неопределённо, нет однозначного ответа на вопрос ответственности.
- Будущее требует дальнейшего обсуждения и развития этических норм.
Расшифровка видео
0:00
Да. Во-первых, а, большое спасибо, что в эту прекрасную погоду вы решили прийти
0:05
на лекцию какую-нибудь террасу. Лекция называется «В начале было слово». Аэ, хотя на самом
0:13
деле, наверное, мы сегодня будем рассуждать о задаче, о том, какое же слово должно было быть в конце, так
0:19
уж если глобально. А, но мы к этому ещё подойдём. Аа, почему решили вообще её сделать?
0:27
А-а, последние несколько лет, э-э, наша компания, она больше сфокусировалась как раз на проектах, связанных с
0:32
искусственным интеллектом и кибербезопасностью. И погружаясь в домен, связанный непосредственно с
0:39
генеративным искусственным интеллектом, у меня сложилось стойкое ощущение, что
0:44
это эти изменения, они действительно имеют тектонический характер. То есть мы не просто получаем ещё одну технологию,
0:52
которая, в принципе, ничего не меняет. Ну, как будет всё по-старому, но немножко по-другому. А, действительно,
0:57
произошло что-то важное, и очень захотелось, наверное, это изменение попробовать
1:03
зафиксировать. А, как уже было сказано в анонсе, очень тяжело, наверное, сделать
1:09
на такую тему лекцию, которая бы одновременно понравилась бы там и инженерам, и предпринимателям, там, и учёным. Поэтому, скорее всего, мы
1:16
выбрали такой научно популярный формат. Я бы, наверное, хотел, чтобы вы ушли с этой лекции с ответами на три вопроса
1:23
для себя. Ну, пониманием таким. Что же было в прошлом, то есть что
1:28
предшествовало тому, этой точке, которой мы оказались? Что происходит в
1:34
настоящем, то есть что на данный момент происходит с этой технологией? И мы
1:39
попробуем с вами немножко порассуждать о том, что же будет в будущем, как бы куда всё это ведёт, но я постараюсь не
1:46
скатываться в дешёвый футуризм, но если что, вы меня поправляете, ладно? Можете свистеть из зала и кидать помидоры.
1:54
А давайте немножко начнём. Я думаю, что я вот вспомнил, что я, мне кажется, здесь выступал последний раз лет 10,
2:02
наверное, назад. Это так давно здесь было. Вот. И я думаю, что многие меня не
2:07
знают. Я представлюсь. Меня зовут Булат. Я сооснователь группы компаний
2:12
Технократия. А попробую немножко отстоять моральное право вообще о чём-то рассказывать здесь. Собственно, на
2:20
данный момент вот наша группа компаний выручка превышает миллиард рублей. У нас
2:25
более 400 человек в России за рубежом. И мы почти 9 лет развиваем бизнес с моим
2:31
партнёром Артуром. Вот он скромно сидит там на задней парте. Вот.
2:37
А мы всю нашу историю мы создаём большие продукты технологические. То есть мы
2:43
работаем с промышленностью, с банками. В основном нас, наверное, те, кто знают, знают как разработчиков финтех решения.
2:50
То есть это в основном банки, банки, мы, наверное, поработали с там топ-10 российскими банками в разных вариациях.
2:56
Сейчас этот бизнес в большей степени за рубежом, а в России мы как раз больше сфокусированы на искусственном
3:01
интеллекте и на кибербезопасности, да? То есть два направления, которые мы здесь развиваем. А вот сейчас, наверное,
3:09
как-то так выглядит наш бизнес, что есть вот три компании в сфере услуг, которые занимается искусственным интеллектом,
3:16
международная компания, которая занимается запуском необанков, цифровизацией банков и компании в сфере
3:24
Application Security, да, мы больше в ней работаем на российском рынке. И как
3:29
говорят, у хорошего хирурга за спиной кладбище. Вот у хорошего предпринимателя
3:34
за спиной кладбище стартапов, конечно. Вот у нас тоже такое большое кладбище. Мы очень много денег потеряли, создавая
3:43
бизнесы. Какие-то компании до сих пор живут и растут, может быть, даже какими какие-то вы знаете из них. А, но в
3:51
целом, почему я это всё это показываю? Потому что сейчас каждый утюг рассказывает про искусственный интеллект. Э, наверное, хотелось
3:57
немножко как вот подтвердить моральное право вам что-то вещать с этой сцены.
4:03
Давайте теперь, собственно, перейдём к содержанию. А, и начать бы я как раз хотел не с прошлого, а с настоящего, а,
4:11
про состояние рынка генеративного искусственного интеллекта в России. Мы будем говорить гей, гей или
4:20
искусственный интеллект или прочее, но я хочу сразу подчеркнуть, что эта лекция,
4:26
она будет только про генеративный искусственный интеллект. То есть сам по себе искусственный интеллект — это более
4:33
широкое понятие, огромное количество подклассов, подвидов и прочего. И это
4:39
это невозможно впихнуть в одну лекцию. Мы конкретно будем говорить про то, про
4:45
тот бум, который породили языковые, большие языковые модели, которые
4:52
породила породила появление алгоритма трансформеров. И вся вот эта революция, которая в дальнейшем начала
4:59
происходить. А, небольшой обзор, да, вот, э, давайте исторический дискурс, как мы его видим наши. Вот, ээ, стырил
5:06
слайд у моих коллег из Redmet робота. Хороший такой. Вот можно примерно так сейчас
5:12
представить, как вообще технологическая цифровая революция происходила и в
5:17
каждый уклад, какие компании, собственно, её лидировали, да? Вот шестидесятые, восьмидесятые там это
5:24
прадедушки IBMHP, восьмидесятые — это Бумбк, сети связей, а первый интернет, так
5:31
называемый буomдткомов, точнее, те, кто его пережили, да? Потом мобильная революция. Как раз вот в эту революцию
5:39
мы начали своё время свой бизнес, потому что я помню это моё состояние, когда я впервые, у меня в руках оказался
5:45
смартфон такой самый первый и такой самый примитивный. Я просто смотрел и понимал, что ну всё, всё, сейчас всё,
5:53
всё теперь будет по-другому. То есть у каждого в кармане оказался компьютер и
5:58
дальше всё будет иначе. И то, что сейчас, ну, Cloud SAS, понятно, да, все мы сейчас пользуемся
6:04
сервисами по подписке, там Netflix, Кинопоиск, там какие-то другие сервисы.
6:12
А, и вот то, что, а, сейчас происходит с появлением компании, там Open AI, Meta,
6:19
Nvidia, это претендует на новый уклад, на новый виток.
6:25
И следующий большой цикл масштабирования компании будет, скорее всего, именно вокруг этой технологии
6:31
сосредоточен. Дальше мы попробуем раскрыть эту мысль. Вот несколько интересных графиков, что, допустим, в
6:38
двадцать втором году, мне кажется, на долю GNA приходится треть мирового венчурного капитала. То есть просто
6:44
треть всех венчурных денег так или иначе сейчас инвестируется в сегмент генеративно-искусственного интеллекта.
6:49
Интересный график, конечно, да. Вот 300 почти там 350 млрд, да,
6:57
компании уже потратили на генеративно-искусственный интеллект в двадцать четвёртом году. А и ну самое,
7:03
наверное, даже интересное, что сейчас объявлено о проекте Stargate, да? То
7:08
есть 500 млрд долларов правительство Соединённых Штатов планирует потратить на постройку дата-центров.
7:15
И заявлено это так, как там новый манхэттенский проект, как бы новая технология, которая обеспечит какой-то
7:23
фундаментальное такое конкурентное преимущество в мире. А на самом деле, когда мы ещё дальше про это поговорим,
7:30
ну вот почему вот эта вот риторика возникает вокруг проекта Stargate и
7:35
всего остального, потому что вот когда до этого я показывал слайд, ну, венчурный
7:40
капитал — это не показатель, если честно, то есть это просто мода. Ну, какая-то есть технология, все в неё
7:46
инвестируют, потом все в ней прогорают, как бы, ну, все мы помним, да, когда была бум был ICO, там крипты там и все
7:54
вот эти циклы, когда хомячков дотрабатывают какие-то другие ребята, а
7:59
технологии в принципе как-то не прирастают у нас. Это, конечно, другая история. А когда создаются такие
8:06
проекты, как Stargate, это заявка на, на самом деле, взлом технологического прогресса.
8:11
То есть, если буквально вот посмотреть, а что общего содержательного там у Сио,
8:17
там Антропик, там Сэма Альтмана, там Марка Цукерберга и остальных, они все
8:22
говорят, что мы как бы поймали Бога за бороду, да? Вот сейчас мы, кажется, нащупали такой
8:28
механизм, что мы сейчас способны будем взломать математику, мы будем способ, мы
8:34
будем способны взломать научный прогресс, мы способны создать такой интеллект, который будет системно давать
8:39
нам открытие, как фундаментальное открытие. То есть это взлом сразу, ну,
8:44
как всей экономики. И то есть именно поэтому 500 млрд долларов это не
8:50
какое-то безумие, это не какой-то хайп. То есть вы понимаете, да, какая задача поставлена на кон. То есть та, та
8:57
страна, там те люди, которые смогут создать такое, это, ну, как сказать
9:04
это самое мощное, наверное, оружие будет в руках этих людей там за всю историю человечества. Ну, тут немножко ещё про
9:11
VC. Ну, давайте немножко скипнем, да, из интересного, наверное, если здесь есть
9:16
представители бизнеса, вот э вот источника Google Cloud, да,
9:21
собственно, делали исследование, что 74% организации, они вообще фиксируют рои в Генаи. То есть в целом они говорят, что
9:29
да, действительно, мы на это тратим деньги, да, и они отбиваются. Даже будет, по-моему, вот, да, была
9:35
статистика, на каждый вложенный доллар 3,7 доллара прибыли. Звучит вообще,
9:40
по-моему, прекрасно. Вот, кажется, просто бери и заваливай деньгами эту
9:47
технологию. Российские компании тоже не отстают в этой гонке. Вот здесь
9:53
пресс-релиз компании AVITA, да, которая 12 млрд руб. А сказал, что
9:58
проинвестирует в генеративный искусственный интеллект. А мы в технократии делали вот такую вот хорошую
10:05
табличку. Кому интересно, можно по QR-коду собрать. То есть мы делали карту, э, компании в сфере генеративного
10:12
интеллекта в России вообще, то есть всех игроков. Понятно, что есть два явных
10:19
лидера. Это Яндекс и Сбербанк. Ну, Сбер, точнее, извините, вот как бы Сбер, да, я
10:24
поста я осoolл. Аа с огромным отрывом эти компании лидируют в этой
10:31
технологической гонке. Есть какие-то компании, которые пытаются как-то догонять, но на данный момент это,
10:37
наверное, самые зрелые игроки. И в целом, наверное, можно сказать, что наблюдая такой международный ландшафт, а
10:45
приятно, что наша страна, она хотя бы находится в гонке вообще этой. Ну, то есть потому что есть, понятно, там США и
10:52
Китай — это просто космос, да? То есть там они оторвались уже в этой гонке очень далеко. Но есть вот второй эшелон
10:59
стран, которые как-то не сдаются. И мы вот в эшелоне стран, которые не сдаются.
11:04
И что в целом приятно. А давайте теперь непосредственно перейдём, а к разбору,
11:11
как мы тут оказались. То есть мы попробуем немножко поговорить о самой технологии, как мы вообще пришли к
11:17
большим языковым моделям. Аа я очень люблю троллить, э
11:22
психологов, но мне кажется забавно, что их стало так много. Вот и вот этот вот слайд немножко про них. Вообще
11:30
получается самый первый раз, когда люди создали диалоговуго бота, этот бот имитировал психолога. Мне кажется, это
11:35
довольно смешно. Вот. Второй второй бот, которого создано назывался Пери, да, это
11:41
имитация паранодального шизофреника. То есть вот люди начали создавать ботов, психолог, пародальный шизофреник. Ну и
11:47
потом был проект Эс, а это, собственно, вот там есть расшифровка, не буду её
11:53
перечитывать. А как работали вот эти первые попытки людей вообще создать что-то, что с ними
12:00
разговаривает такое синтетическое, скажем так? Они, в принципе, работали примитивно. Это были такие программируемые диалоги. Например, бот
12:07
психолог работал так, он постоянно там человек говорил: «Мне плохо». Он говорит: «А почему тебе плохо там? А я
12:14
себя там чувствую подавленном. А почему ты себя чувствуешь подавленном?» Ну то есть как бы ничего сложного. В принципе такое там рекурентное переспрашивание
12:20
человека о его состоянии. А вот шизофреник, он вообще мог просто сказать какую-то фигню. И в целом такие: «Ну это
12:26
же боль шизофреник, как бы почему бы он не мог отклониться?» В общем, это был такой читинг. Конечно, это было всё не
12:33
по-настоящему. Взам не было, наверное, какой-то большой технологии. Вот Эс — это тот проект, который отличался от
12:40
первых двух, от Элизы и Пеryри, только тем, что было довольно большое количество комьюнити, которые
12:46
программировали эти диалоги. Ну, то есть они просто буквально такой как open source комьюнити, который, значит,
12:52
прописывал вот если спросить это, тебе ответит это. Если спросить это, тебе ответит это. И огромное количество
12:57
пространства таких вот вариаций. Но в целом это, конечно, было очень далеко от того, что мы сейчас
13:03
обсуждаем. И тут в чат заходит машинное обучение. Чтобы говорить про машинное
13:11
обучение и вообще про языковые модели, а, важно понять будет несколько концепций.
13:17
А сегодня, чтобы не перегружать лекцию, я бы, наверное, вот хотел с вами
13:24
договориться, что мы не будем говорить скорее про технологии, мы будем говорить про идею технологий. Вот, чтобы понимать
13:30
идею того, как работают большие языковые модели, как работает ваш чат GPT,
13:35
возможно, даже более фундаментально нужно понять, что такое технология эмбедингов, то есть что такое векторное
13:42
представление слов. Обещаю, это самый сложный слайд из всех. больше таких не будет. А в чём была
13:50
революция на самом деле? Аа давайте даже вот так сделаем. Я сначала сюда
13:55
перепрыгну, а потом обратно. Так будет логичнее с точки зрения нашего нашей
14:01
структуры. Можно рассмотреть три больших этапа в том, как мы дошли до непосредственно чат GPT, вот и всего,
14:08
чем вы сейчас пользуетесь, дипсиков и там всего остального. Я бы выделил цепи Маркова, рекурентные нейронные сети и
14:15
непосредственно трансформеры. А чтобы понять идею трансформеров, нам
14:23
нуже, очень важно будет понять идею, а эмбедингов. Но давайте ещё раз начнём отсюда. Цепи Маркова — это такая
14:32
задачка, когда у вас есть слово. Представьте, что вы можете вот вообще посмотреть весь текст в мире и просто
14:39
посчитать, сколько раз после одного слова встречалось другое. Ну, в целом понятно. Да, представте, вот вот весь
14:45
текст в мире вы посмотрели почему-то и вы можете посчитать такую вероятность, что после там я чаще всего там пошёл,
14:53
допустим, слово возникает, и вы предсказываете. Каждый сталкивался с реализацией аля цепей маркова
15:00
алгоритмов. Это, например, Т9. Ну, то есть вы там пишите и дальше вот вам снизу подсказывают. Это довольно лёгкие
15:06
алгоритмы. Они там хорошо работают на нетребовательных к вычислению в машинах.
15:12
До сих пор, мне кажется, возможно такой логикой, что это работа, хотя я не уверен. Дальше эта задачка
15:19
эволюционировала в то, что а давайте попробуем не слово за словом просто угадывать, а какие-то комбинации слов.
15:26
Ну вот, например, я сегодня пошёл и там дальше там домой, допустим, да? То есть
15:32
как бы, ну, какие-то, ну, очевидно, что язык так не строится, да? То есть мы не говорим такими заготовками фраз. И это,
15:38
в принципе, задача тоже, которая большого смысла не имела. Но в чём принципиальное отличие? Это уже была
15:44
задача, которая пыталась поставить вопрос, какое слово будет дальше. То
15:50
есть принципиально дальше мы будем говорить об этих вещах. И вообще, как бы, когда вы, может быть, слышали, что
15:56
чат GPT — это такой просто сложный Т9, да, вот и в целом это не такая уж и неправда, да, в каком-то смысле это
16:03
действительно попытка предсказывать следующий там токен, если быть точно ни слова. Вот дальше появились нейронные
16:10
сети, да? То есть давайте здесь приведём тоже разницу, наверно, то есть как разного,
16:16
а, разного уровня подготовки, возможно, аудитория, когда был слайд про машинное
16:22
обучение, чем отличаются вот алгоритмы и сегмента машинного обучения от обычных алгоритмов? Если сказать совершенно, ну,
16:30
так очень просто, то это алгоритмы, которые могут учиться. То есть обычные алгоритмы, мы их прописываем и вот всё,
16:37
как бы от них нельзя отступиться. Налево, направо, есть определённые условия, а, и мы не можем никак выйти за
16:43
границы этих условий. Машинное обучение — это алгоритмы, которые могут учиться, да, есть подкласс алгоритмов, да, как бы
16:49
казатся нейросети. Вот большой прорыв сделали рекурентные нейронные сети. Это
16:55
задача RN — это как раз там recurrational там NARAL network, да, собственно. Вот. И эта задача, которая
17:03
помогла уже понимать как скажет, мы можем дать навод алгоритма уже
17:09
предложения, а наша нейронка может, скажем так, скармливать ей по одному
17:15
слову. И непосредственно из-за алгоритма рекурентности, да, изза вот это свойство
17:20
рекурентности, то у этого алгоритма впервые появляется память. Вот тут, кстати, опечатка LSTM должна быть у нас
17:27
это long termory, то есть такая задачка, когда, собственно, алгоритм получает на
17:33
вход предложение. Он, например, допустим, там, не знаю, а я сегодня пошёл в лес в
17:41
Подмосковье, да, и он может запомнить, что лес и что я пошёл в лес, какое-то
17:48
важное слово в Подмосковье. и каким-то образом запомнив вот этот GeОТЕК, как-то
17:53
более-менее адекватно мне выдать ответ или в целом как-то адекватно отреагировать на этот запрос. Но
17:59
рекурентные нейронные сети, в чём была их главная проблема? Они, когда алгоритм, скажем так, скармливается, ему
18:06
скармливаются по одному слову, это очень тяжёлое вычисление, то есть так много текста не переработаешь в целом. Вот. А,
18:12
long short term memory, да? То есть это, несмотря на то, что эта задачка пыталась решить проблему с памятью, была проблема
18:18
контекстного окна, была проблема так называемого исчезающего градиента. То есть просто память о вашем тексте, она
18:24
со временем, скажем так, растворялась. То есть уже под конец, если слишком большой текст, уже было тяжело, серьёзно
18:31
запомнить, что было в начале. А на самом деле это довольно продвинутая технология. На ней долгое время работали
18:37
и Googleпереводчик, и все вот эти переводчики там, ну, там как раз такие небольшие тексты переводили. В целом для
18:44
запоминания этого контекста это как бы работало. Но настоящий прорыв совершили
18:50
трансформеры. И чтобы поговорить о трансформерах, мы сначала поговорим про
18:56
эмбединги. Как вообще слова представить в векторе? Допустим, у нас есть такие
19:02
вот фразы: «Вот лампа горит, фонарь горит, там, не знаю, кошка ест, собака упала». То есть мы можем, скажем так,
19:10
вот подлежащее, да, исказуемые как-то вот выписать по столбцам и столбикам. И мы можем, скажем, поставить
19:17
единичку там, где адекватные пересечения. Ну, скажем, вот лампа горит — это адекватно, а горит кошка — это
19:23
уже, ну, как бы не очень адекватно. Вот. Хотя, да, вот. А, и таким образом
19:31
представьте, что мы можем по строчкам и по столбцам, ну, просто все слова поставить. Ну, то есть вот отношение
19:38
каждого к каждому просто. Ну, это получится довольно бессмысленная матрица, в которой очень много нулей.
19:44
Ну, то есть где-то слова будут пересекаться адекватно, но в целом это будет такая огромная размерность, где будет
19:50
И, а, поэтому придумали мбединги. Ммдинг — это, по сути, вложенность. Не
19:56
будем сейчас усложнять, но скажем, что вот эту огромные вот эти матрицы с нулями сжали так, чтобы они были просто
20:03
содержательные, чтобы машины их могли проще обрабатывать. Но возникала проблема,
20:09
допустим, слово коса, да? Коса может быть там причёска у девушки, а коса
20:15
может быть это коса, которая, собственно, косит. Вот обычно имбединги не могли понимать
20:20
этот эту разницу, и тогда появились контекстуализированные эмбединги, да, вот
20:28
эмо зависимости от того, какой контекст слов вокруг, мы можем понимать, коса —
20:34
это всё-таки речь идёт о причёске или всё-таки речь идёт о косе, которая косит
20:40
траву. И вот это стало одной из самых важных парадигм. То есть люди поняли,
20:46
как можно в вектор упаковать наш язык. А
20:52
дальше А дальше появилась технология трансформеров с механизмом внимания. Всё
20:58
началось вот с этой статьи. Тут мне так нравятся наши дизайнеры, они поставили QR-код. Я буду
21:05
очень рад, если кто-то действительно, конечно, прочитает эту статью, но вдруг вы там решитесь. Вот. А, ну, ребята, в
21:11
принципе, с техническим образованием или там действующие студенты вполне себе могут попробовать.
21:18
Вот. А эти люди навсегда себя вписали в историю, да. Вот есть даже там Илья
21:23
Палюшкин, кажется, и статья, мне кажется, по уровню, во-первых, она классно названа. Attention is all you
21:30
need, да, собственно, отсылка к песни Beatles явная. А, во-вторых, статья, наверное, по уровню
21:36
там исторического влияния такая же, как статья в своё время Аллана Тюринга, да,
21:43
который рассуждал впервые задался вопросом, могут ли машины мыслить. Ключевая история ври в трансформерах,
21:50
это алгоритм внимания. Помните, я говорил, что в рекурентных нейронных сетях, если вы подаёте огромное
21:57
предложение в нейронную сеть, она может вот так вот по одному эти слова потихоньку
22:03
перерабатывать. Где-то она пытается запомнить, что было в начале, обрабатывая уже последнее слово в
22:08
предложении. На больших масштабах эта штука вообще перестаёт начинает плохо работать, потому что вот эта
22:15
функция памяти плохо реализована. Так вот, трансформер — это технология, которая стала возможна благодаря двум
22:21
вещам. Во-первых, прогресс а в вычислениях. То есть компания Nvidia представила видеокарты, по-моему, как
22:28
раз, где можно было заниматься параллельными вычислениями. И трансформеры — это были
22:34
алгоритмы, которые теперь вот представьте, вы подаёте предложение на вход, и оно одновременно параллельно
22:42
анализирует каждое слово. Более того, оно анализирует, как каждое
22:47
слово связано с другими словами. То есть по появилась возможность параллельно
22:53
огромные куски текста анализировать и понимать, что, собственно, каждое слово, как оно относится к друму, да, слову в
23:01
этом плане. И то есть это принципиально изменило вообще всё. То есть как раз аа
23:06
вот эти все GPT истории, когда люди смогли буквально скармливать невроные сети, огромные массивы тексты из
23:13
интернета, они работают, потому что в своё время появилась вот эта вычислительная возможность. И сам по
23:18
себе механизм трансформера позволил это реализовать. Тут есть понятие вот self
23:23
atttention, да? То есть внимание — это, собственно, как бы есть отдельная нейронная сеть, которая смотрит на
23:30
входные параметры, и она как бы обращает как бы там есть даже понятие такое
23:35
мультиhead attention, да, то есть много голов внимания. То есть вот эти большие
23:40
языковые модели, они как бы способны с очень много с разных углов задать вопрос
23:47
тексту: «А как это относится к этому? А как это относится к этому? А как они связаны, допустим? А является ли это
23:53
именным нарицательным? А является это подлежащим? А является лисказуемым? А является ли числом? И и огромное
23:58
количество таких параллельных вычислений позволяет, в принципе, упаковать вот этот огромный массив текста в то, что
24:04
более-менее как бы понятно уже машине и с чем, собственно, дальше можно работать. Я вот так даже такую
24:11
вот, мне кажется, очень красивые видео просто, как они работают. Этим механизм
24:18
внимания. То есть вот буквально, когда вы вам отвечает чат GPT, можно представить, что в векторном
24:24
пространстве, как я показывал, вот начинается такой вот процесс.
24:33
might prively geted and by blocks that by the end points in
24:51
moreancлизация в трёхмерном пространстве, но понятно, что реально это многомерное пространство, которое,
24:57
ну, мы не можем представить. Это некая проекция в трёхмерное пространство. Но в целом суть примерно такая. Вот помните,
25:03
была картинка, где я вам показывал фразы, как они в матрице связаны между собой с помощью нуле единиц. Вот. А в
25:10
принципе, когда вам отвечает чат GPT, он вот этот примерно вот такой скользящий
25:16
вектор по этому многомерному пространству, который просто вот после вычисления решил, что вот эта вот
25:21
вероятность прохода, она наиболее, а, наиболее точным ответом является на то,
25:26
что вы спросили. То есть фундаментально. Вот дальше там есть разные вариации того, как это эволюционировало, работало
25:32
и прочее, но суть этого принципа она не изменилась. Важно, наверное, проговорить, что есть, э, появились
25:39
думающие модели. То есть то, что мы сейчас то, что мы с вами сейчас до этого обсуждали, да, это просто модели,
25:45
которые как бы ты вот первые варианты там чат GPT были такие, ты просто спросил, они тебе просто как бы отвечают. То есть там не было вот этого,
25:52
то, что называлось, да, то, что машина не могла между вашим запросом, она вам сразу генерила ответ. То есть
25:59
современные современные поколение моделей — это все модели уже, собственно, с так называемым мышлением.
26:04
Хотя мне этот термин не очень нравится, но так или иначе. То есть у них возникает вот эта вот прослойка, где они
26:11
начинают, а, применять, так скажем, когнитивные стратегии, имитируют
26:17
человеческую рациональность, чтобы понять как бы, что вы спросили, как
26:22
нужно себя перепроверить, чтобы непосредственно и более точно вам ответить. Мы там чуть более подробно дальше проговорим про это, но суть
26:28
примерно такая же. Вот чем отличаются, собственно, думающие от недумающих моделей, да? Вот обычные модели, они
26:34
просто предсказывают следующий токен по вероятности. Вот мы с вами только что видели, вот как этот вектор скользит по
26:39
трёхмерному пространству. Это было просто предсказание следующего токена. Они могут там застревать в каких-то
26:45
шаблонных ответах. То есть иногда могут просто не понять простой вопрос, потому что они просто обучены. Вот что делает
26:52
open, да, когда они вот есть понятие такие запечённые модели, то есть они просто как бы скрабят весь интернет,
27:00
запекают этот текст какую-то модель, если ну и просто пытаются угадывать символы или токены. Поэтому иногда даже
27:07
простые задачи, типа там сколько будет 2 + 2, они могут там неправильно отвечать, да? Это первое время были какие-то
27:12
простые ошибки, потому что задача сложение, она не является вот классической задачей для предсказывания
27:18
следующего токена в классической постановке этой задачи. Вот. А они не отслеживают внутреннее состояние, то
27:24
есть там нет понимания того, что там до этого на тебе отвечало. И тут написано
27:30
плохо объясняет, они просто не объясняют, почему они пришли к ответу. думающие модели, они вот как бы строят цепочки логических рассуждений,
27:37
адаптируются, моделируют, объясняют ход мысли. Вот
27:43
есть такая одна из ключевых концепций, наверное, которая реализована, а это
27:49
называется цепочка мыслей, да? То есть кто пользуется дипсиком? О, ну класс вообще. Ну,
27:56
значит, вы вот как бы видели, то есть видели, как в DeepsК, э, визуально
28:01
реализован, да, как он размышляет. То есть, если вы ставите режим, а, думающий нейронной сетки, он прямо вам
28:07
рассказывает, собственно, как он пришёл к этому. То есть, по сути, он имитирует определённую рациональность. Цепочка
28:12
мыслей — это, по сути, как бы, мне кажется, даже интуитивно понятная история, что люди поняли, что есть
28:20
довольно крутой универсальный инструмент в виде трансформера, в виде языка. Я не
28:26
очень люблю Харари, но он, мне кажется, хорошую вещь сказал, как бы вот как метафору. Он сказал, что в принципе языковые модели как бы хакнули
28:33
операционную систему мышления человечества, да? То есть язык — это наша операционная система, да? В каком-то смысле мы придумали в виде
28:40
больших языковых моделей, как вот классно можно довольно универсальные системы создавать. И вот люди начинают,
28:45
собственно, вот использовать различные когнитивные стратегии, применять различные логические подходы, а пытаться
28:52
вот различную рациональность применять к тому, чтобы вот эти ответы вытачивать из того, в принципе, что есть
28:57
уже. Вот. Ну вот для тех, кто не видел, да, собственно, вот как работает непосредственно Chin of Think Chain of
29:04
V.
29:15
Собственно, вот, ээ, можно посмотреть, как он сам себя перепроверяет для того, чтобы прийти к
29:22
тому, что чтобы ответить на ваш вопрос. То есть, в принципе, это просто, как
29:28
сказать, рациональное мышление было бы обычного человека. Но если верить Даниэлю Каноману, то мы,
29:37
в принципе, очень тяжело остаёмся рациональными. Нам, людям, очень тяжело пребывать вот в этом состоянии системы
29:44
Да, это машина способна пребывать в этом состоянии всегда. А давайте так. Вот мы только что сейчас проговорили
29:51
про, попробуем небольшой там такой самап сделать. Мы проговорили про то, как
29:57
задача, попытка поговорить с машиной переросла от диалогов к попыт предсказывание следующего слова. Мы с
30:04
вами просмотрели определённый путь от цепей Маркова рекурентных неровных сетей до трансформеров. И мы пришли в какое-то
30:11
состояние, где мы посмотрели, как эти машины стали думающими, да? То есть, э, вот когда я говорю про Chaйote или я
30:18
говорю, что вот, э, вот здесь как бы смесь экспертов называется, подход, это
30:23
всё, ну, мне очень нравится термин когнитивные стратегии. То есть сейчас все компании пытаются вот экспериментировать с тем, а как же так
30:29
вот построить выдачу, чтобы сделать её чуть более экономичной, чуть более правильной, чуть прочее. Вот Mixure of
30:35
Expert — это такая же история. Вот, допустим, а это же очень ещё прожорливые
30:40
машины, очень дорогая выдача, да? То есть, собственно, очень дорого стоит вся эта инфраструктура. В это так просто не
30:46
поиграешь. И вот есть такая концепция, что давайте вот в этом большом синтетическом мозге разобьём его на
30:52
большое количество таких маленьких мозгов, которые хорошо умеют решать какие-то конкретные задачи. Например, вот есть там э мозг, который умеет там
31:00
складывать числа или умножать их хорошо. А есть мозг, который там умеет, не знаю, отлично запятые расставлять. А есть
31:05
мозг, который там понимает что-то ещё. Вот он понимает, что получает на вход, что такое 1 + 1.
31:13
И алгоритм говорит: «Так, это срочно, это точно к мозгу математику». Вот мы
31:18
других другие мозги тут не трогаем. То есть нам не нужно все это вычисления большие проводить. Мы просто как бы вот
31:25
такой стоит роутер, который понимает вообще в чём суть запроса и активирует небольшую часть вот этого маленького
31:30
синтетического мозга, чтобы не сожрав огромное количество электричества, а,
31:36
выдать нам какой-то точный ответ. чтобы вы понимали, насколько это действительно
31:42
важно. Вот мне попадалась на глаза табличка такая: почему какие-то страны в
31:48
принципе смогут в эту гонку играть? И там мне понравилось, было несколько
31:54
ключевых критериев. Ну, первое — это типа компетенции и кадры, что, в принципе, в стране должно быть какое-то
32:00
количество специалистов, которые там способны заниматься такого рода задачами, там школа, образование и
32:06
прочее. Это вычислительные мощности. Страна должна либо производить чипы, либо иметь возможность их
32:13
закупать. А, и третий важный фактор — это дешёвое
32:18
электричество. То есть это настолько прожорливая штука, что есть такая шутка даже, что это в целом просто вот бизнес
32:23
по продаже электричества. Ну то есть вот если посмотреть, что такое тебя GPT, то есть это огромные машины, которые сжирают просто. А и поэтому, когда
32:31
Росатом строят дата-центры, эти ребята что-то понимают. Ну, как бы мне кажется, они, то есть,
32:37
здесь критическим является вообще просто дешевизна энергии, когда поэтому вот
32:43
почему я как важную архитектуру эту выношу, потому что сейчас по сути в мире идёт гонка, как эти модели сжать. Вот
32:50
глобально, да? Дальше мы перейдём к там кейсам, наверное, более такой уже прикладной истории. Но вот прежде чем перейдём, я хотел сказать, что вот что
32:56
сейчас происходит. Мы создали вот эти большие модели. Они имеют там много
33:01
параметров, да? То есть они они довольно тяжёлые. И в целом сейчас все конкурируют за то, чтобы как сделать так
33:07
называемые там дистилированные модели или там а сейчас такая довольно мотная концепция квантизации данных, да? То
33:14
есть попытка сделать так, чтобы в идеале вообще в вашем смартфоне жила языковая
33:19
модель и она вообще жила там нативно, то есть вообще без выхода в интернет. Она полностью там умещалась, был отдельный
33:25
чип, который был способен делать вам хорошую выдачу. И в принципе вот в вашем смартфоне есть такой супер-пупер мозг.
33:33
который без выхода в интернет, без убивания вашего смартфона за час там
33:39
использования способен будет давать какое-то адекватное качество.
33:46
Я, кстати, а мне кажется, мы не проговорили про вопрос-ответ, но мы уже довольно глубоко зашли, поэтому я
33:53
предлагаю, что если у вас есть вопросы, мы просто их в конце зададим. Ок. Мы не проговорили прави, так что копите их.
34:01
Давайте теперь немножко про бизнес проговорим, да, собственно, как это всё
34:06
применять в бизнесе. Мы же вообще поэтому собрались, скажете, тут лекцию
34:11
читать. А одна из самых популярных архитектур, как это применять в бизнесе
34:17
это архитектура RAC, да, то есть Retrieval Argument Generation. А почему вот как сказать? Можно просто,
34:24
кажется, людям купить кучу лицензий, там, Chat GPT или там Яндекс GPT и всем раздать, сказать: «Вот, пользуйтесь и
34:30
вообще вот всем благо и и всё будет хорошо». Но проблема в том,
34:35
что большие языковые модели ничего не знают про ваш бизнес. Они учатся на открытых данных. Они просто буквально
34:41
бегают по интернету, забирают все открытые данные, даже не все данные, да? То есть как бы а у вас в бизнесе есть
34:47
какой-то контекст, все ваши таблицы, там регламенты, какие-то стратегии. То есть
34:53
он, чат GPT, ничего про это не знает. Это языковая модель про это не знает. И тебе хочется, чтобы применить вот этот
34:58
мозг, но к тому контексту твоей компании, чтобы она вообще начала что-то понимать о том, что что, собственно,
35:05
этой компании происходит. Итак, появилась концепция рак. Собственно, что такое это? Вы создаёте как бы отдельную
35:12
векторную базу знаний. Мы уже все знаем, что такое векторизация, да? Мы только что вот мы просто берём огромное
35:18
количество текста, которые у вас есть, вот так, э, в ящик один сваливаем и превращаем его в векторные
35:23
представления, как вот мы до этого уже, собственно, разбирали. Там есть это целые отдельная
35:29
холиварная тема, там какие есть алгоритмы векторизации, там алгоритмы
35:34
поиска и прочее. Там, на самом деле, сейчас у каждого студента есть стартап, связанный с ракплатформой. То есть потому что это, в принципе, порог входа
35:42
в эту платформу, он не такой тяжёлый. Все ломанулись их делать. А я не знаю, чем это закончится.
35:50
То есть мы внутри тоже сделали свой рак. Мы, ну, мы не чтоб продавать, потому что нам внутри просто внутри компании самим
35:56
нужен был векторизатор данных, чтобы мы внутри могли с ним работать. Мы его не продаём, потому что мне кажется, что
36:02
глобально на этом рынке, конечно, его всё равно рано или поздно съедят облачные провайдеры. То есть это рынок
36:08
там Яндекслауда, это рынок там Сбера, там, не знаю, Ростелекома, кто там, кто
36:13
там ещё, собственно. непосредственно продаёт облачную инфраструктуру им, потому что ничего не стоит воткнуть ещё
36:19
ГПУ, воткнуть как бы рак как какую-то прослойку и дать пользователям как бы определённый интерфейс для
36:25
взаимодействия уже вот, собственно, с какими-то данными. Вот. А что такое рак,
36:30
да? Вот давайте ещё раз проговорим. То есть когда вы используете рак-платформу, это значит вы можете создать такую, как скажем, базу знаний в
36:37
компании, да? Вот вы собрали все свои документы, регламенты, стратегии, и теперь вы можете начать что-то спрашивать вот у этой языковой модели
36:43
про вашу компанию. от каких-то простых. У нас, допустим, в компании дальше будем кейсы перечислять, есть какие-то простые
36:48
вопросы, допустим, как получить там, не знаю, разрешение на отпуск. Ну просто
36:55
человек вместо того, чтобы HR учить вопросами, он задаёт, а эта система уже всё знает, она просто ему отвечает. Вот
37:00
как вам чат GPT отвечает, ровно так же. Вот идёшь к тому, пишешь то, берёшь, то, пишешь, что, собственно, как бы, ну, и
37:05
таким образом, как бы экономится время на вот этой бесполезной коммуникации. как бы есть такой, как бы у вас в
37:10
компании появляется такой мини-мозг, который знает всё о вашей компании, всё о ней помнит и в целом
37:17
может ответить по широкому кругу вопросов. И то, насколько широкий круг вопросов, зависит только от вашей там
37:23
паранойдальности, да? То есть вы можете в него скармливать вообще всё: чувствительные данные, там финансовые
37:29
данные и прочее. И, в принципе, создавать такие сценарии использования вот этих рагов.
37:35
чтобы там, не знаю, там, допустим, и для топ-менеджмента какие-то вопросы решать, аналитические вопросы решать. А если вы параноик, ну, то вы там останетесь на
37:42
уровне каких-то не очень чувствительных данных, которые, ну, ответят и ответят. В общем, сейчас а с рагами
37:50
очень прикольная история. В сегменте тех, кто занимается генеративный искусственный интеллект, ты говоришь рак
37:55
и такие типа: «Фу, что это ты уже вообще отстал». Кто-то вообще это первый раз, наверное, слышит. Ну то есть потому что
38:01
вот на, например, сейчас уже на смену Рагу приходят там новые концепции. Допустим, те же там MCP от это от
38:08
антропика, да, они выкатили протокол взаимодействия с агентами. То есть, где не просто у вас есть, мы сейчас дальше
38:14
будем говорить про агенты, но, так скажем, более продвинутые версии того, чтобы не просто вот скормить все свои
38:20
знания в какую-то векторную базу знаний и просто её спрашивать, а чтобы какие-то более сложные действия с ней выполнять,
38:26
да, то есть и вот как бы сейчас уже мы на пороге, когда мы рак как бы перескакиваем, сейчас следующие там
38:31
платформы агентов уже идут, они немножко на другой логике начинают работать. И, кстати, интересное наблюдение. Мне
38:37
кажется, что, ну, я как бы в этом бизнесе примерно 10 лет, но я впервые
38:44
чувствую вот насколько ускоря, насколько быстро вот всё меняется. Такого не было. То есть когда была мобилизация, такого
38:51
не было, когда были там блокчейны, такого вот как бы такой скорости не было. То есть я вот сейчас сам 100% там
38:57
не в курсе, сколько там новых версий вышло у там чат GPT, у всех остальных, чем они отличаются и прочее. То есть,
39:04
буквально каждый следующий релиз, он просто хоронит тысячи стартапов, которые до этого решали какую-то проблему. И это
39:10
очень интересно, конечно. Втони создаются, поднимают деньги, там новый релизчат GPT такие: «Всё, нет компании».
39:16
Потому что как бы следующая модель уже умеет это делать из коробки. И непонятно, где здесь как бы гонка ещё
39:22
очень активная, как бы нет вот этого статуса кво ещё. Это как бы не зафиксировалось. То есть непонятно реально, как вот где здесь делать
39:28
бизнес, пока большие дяди как бы не подерутся и не разберутся, кто здесь главный. Это, в общем, довольно
39:34
интересное и волнительное состояние. Вторая важная концепция, то есть когда мы говорим про внедрение
39:41
генеративно-искусственного интеллекта в бизнес, мы должны знать, что такое рак. Про рак мы только что поговорили. И мы
39:48
должны знать, что такое агент. То есть это, наверное, вторая история, которую сейчас как бы, если вы не знаете, это
39:53
тяжело. Агент — это в каком-то смысле, как такое назовём, маленький
40:00
синтетический мозг, который использует большую языковую модель, чтобы более-менее автономно решать задачи. То
40:06
есть он понимает цели, планирует шаги, принимает решения. Он может сходить в поисковик, что-то там сам спросить, если
40:12
надо что-то сложить, что-то вычесть, что-то умножить, что-то перепроверить. И в целом может самостоятельно выполнять
40:17
какие-то сложные действия. То есть он может даже какие-то перепроверить ваши ошибки, прочее. То есть такой, а, автономный кусочек мозга, который очень
40:24
хорошо научен что-то делать. Вот помните, мы с вами говорили про концепцию там mixture of expert, да,
40:29
когда смесь экспертов. Ну, в каком-то смысле, вот если представьте, вы в компании выстроили такие цепочки агентов, которые очень классно
40:36
автоматизируют какой-то тип бизнес-процесса. Ну, и в целом вот на каждой цепочке что-то происходит.
40:42
разница от тех же RPA или там алгоритмов, которые до этого существовали, от автоматизации
40:47
предшествующей, что это всё способно работать довольно гибко, то есть не надо его жёстко программировать. Он он может
40:53
сам сходить в интернет, что-то найти, он может сам что-то перепроверить, что-то убрать, что-то удалить. То есть это
40:58
впервые мы получаем такую как бы гибкость. Мы действительно получаем синтетический мозг, который довольно
41:04
вариабелен с точки зрения решения задач. И то есть огромное количество задач в мире не покрывалось теми алгоритмами,
41:11
которые были созданы как бы, скажем, предыдущей технологической волне. Есть отдельно холивар, что
41:17
считать агентами, а что не считать агентами. Вот мы нашли у себя инсайт такую табличку, что вообще, если
41:23
посмотреть, как агенты развивались, кто-то кто-то сейчас говорит: «Вот мы делаем агентов, а это просто чатбот». Ну то есть они там напрямую
41:30
там, не знаю, ашки там чат GPT подключили, что-то это работает. Это как бы не агенты ещё, да? Собственно, есть
41:37
копилоты и ассистенты, да. Вот это, собственно, есть reasoning, да, то есть есть какоя-то логика мышления.
41:44
Вспоминаем концепцию Chain of Vote, вспоминаем, как работает deeps, да? То есть и есть external memory, да? Внешняя
41:49
память, допустим, векторная база знаний. То есть он может думать, и у него есть внешняя память, куда он может, если что,
41:55
сходить, забрать ваши данные, что-то вам ответить. Но это ещё просто капайты и
42:00
assistance. Вот в этой логике, да, агенты начинаются, когда вот там есть как reasoning, external memory, да, вот
42:06
и tool use, да, то есть когда у него есть какие-то инструменты. Допустим, у него под капотом есть выход в поисковик,
42:11
он может выход в какой-то калькулятор, выход в что-то ещё, в какое-то количество сервисов, а, которые,
42:17
собственно, он может выйти и что-то сделать. Вот, допустим, например, протокол MTP, про который я говорил, он из капота имеет интеграции в большое
42:23
количество сервисов, там для написания кода, для создания дизайна и прочее. И в целом его можно более высокоуровневом
42:30
ставить задачи. Типа там иди, пожалуйста, там типа переработай мне главную страницу, там попробуй и сделай
42:38
её более там конверсионной. Он может попробовать сам уйти там в Фигму сходить, что-то забрать, сам уйти там в
42:44
курсор, что-то написать, что-то ещё. То есть, ну, как я пример привожу. То есть он понимает, что вы его спросили. Он сам
42:51
сходил в различные системы, забрал оттуда данные, пересобрал и выдал вам эту сборку.
42:57
То есть вот это уже такая претензия на автономность. Ну и вот полностью автономные агенты. Тут ещё добавляется
43:03
плнинг. То есть непосредственно они могут как бы ещё и в будущее как-то простраивать эти задачи, собственно,
43:09
планировать. Говорю, это такая история, она вот прямо сейчас идёт дискуссия, как бы что считать агентами, что не считать
43:16
агентами. Но считается, что вот на смену того, что вот мы говорили про рак, будет
43:23
приходить МАЗ Multi agent system, да, что как бы вот в компании будут теперь
43:28
вот сейчас как в компании, вот у нас есть бизнес-процессы, допустим, бизнес-процесс продаж, он типа есть
43:34
примерно у всех. Вы там можете быть там шаурмечной, а можете быть заводом, у вас
43:39
есть отдел продаж. И у тех, у других есть процесс продаж, а продажа автоматизируется через CRM. То есть, как
43:45
сейчас цифровизация до этого строилась. Были бизнес-процессы, мы эти бизнес-процессы как бы
43:51
отрефлексировали, мы их абстрактно представили. И вот эту абстрактную логику мы закодили в какие-то системы,
43:57
допустим, в CRM. То есть CRМ примерно как-то работает. И есть базы данных, не
44:03
базы знаний, базы данных. Есть вот эта система, где у нас данные хранятся. По какой-то логике они проходят, люди в них
44:09
работают, ускоряет работу. В чём интерес именно почему? Ну вот, в том числе я начинал с этого лекцию. Почему мне
44:16
кажется, что это это более чем любопытно? Потому что, в принципе, вместе с логикой вот этих мультиагентных
44:25
систем вот либо будут новые бизнес-процессы у нас вообще, ну, потому что представьте, это же вообще всё
44:31
по-другому. То есть у тебя есть в компании просто куча синтетических мозгов, которые сами могут довольно
44:37
автономно решать большое количество задач, связанных с знаниями. Ну, так называе knowledge worker, да? То есть
44:42
те, кто работает со знаниями абстрактными. Вот. Либо такие умные компании, как Sales Force, они
44:50
максимально начинают сами сейчас уходить в гна и пытаться вот эти свои процессы встраивать вот эту логику, чтобы
44:56
автоматизировать, потому что они понимают, что если они сейчас не станут вот с этой логикой работать, эта логика
45:02
их просто снесёт. Просто это вот эта волна полностью заменит эти бизнесы, потому что люди через 10 лет будут
45:07
работать по-другому. То есть там приходишь такой на работу, да, такой вот привет, Джонни. А Джонни тебе отвечает,
45:13
говорит, что там, как там продал вчера. Говорю, да вообще иди вот отдыхай. Я там за тебя всё сделал, как бы нажми,
45:19
подпиши, пожалуйста. Просто я ещё подписывать просто не умею. Ну или там мне не разрешают. Я сейчас утрирую, но в целом этот
45:26
довольно большой простор для фантазии создаёт, что когда у тебя большое количество агентов, которые довольно
45:32
универсальны, то есть они буквально как люди теперь способны более-менее универсально решать, а ещё они они
45:37
способны быть перманентно рациональны. Ну то есть люди вообще очень у людей очень плохо с
45:43
рациональностью. Вот это, мне кажется, один из больших сегментов. Вот у Каномана были, по-моему, примеры, что там судья в каком-то штате выносит
45:50
больше обвинительных приговоров ближе к обеду, потому что он просто голоден к этому времени. Ну то есть это даже в
45:56
каких-то очень таких важных вещах люди не ведут себя, как сказать, рационально.
46:01
А, конечно, эти системы в этом плане намного более там эффективнее, да, что они рациональность, как говорится, у них
46:07
зашита в базе. Так, ну и вот эту, наверное, такую
46:12
теоретическую, абстрактную часть мы сейчас попробуем подвести к итогу и
46:17
немножко посмотреть, а что вообще реально-то происходит, где вообще это применяют. То есть мы сейчас разобрали с вами такие общие концепты
46:24
генеративно-искусственного интеллекта, где применяются. Вот, э, мы забрали такой
46:30
хороший слайд из презентации ВКонтакте, как компания применяют генеративный искусственный интеллект, да? То есть в
46:35
целом можно пофоткать, посмотреть. видно, что наибольшую часть — это в клиентской
46:43
поддержке. Ну, что в целом логично, потому что я вот ненавижу общаться с
46:48
ботами в банках. Я всегда захожу такой, говорю: «Вызови оператора». Но в последние годы я начал общаться с
46:54
ботами. То есть я понимаю, что, допустим, в каких-то компаниях, где применяются, собственно, языковые
46:59
модели, я не понимаю уже, кто мне отвечает. Ну, то есть мне так хорошо отвечают, что там могут пошутить, что-то
47:05
сказать, что я даже А у Яндекса я даже не понимаю как-то я впервые себя поймал
47:11
на том, что я не понял, что я разговариваю не с ботом поддержки в аудио. То есть там так классно мне
47:16
отвечал голос, что я такой не сразу понял, что меня консультирует не человек. Ну, то есть понятно, что так
47:21
как это большая языковая модель, то в первую очередь автоматизация вещей,
47:26
связанных с коммуникацией, ну, это такой первый эшелон сервисов, который просто будет как-то изменён.
47:34
А вот ещё интересный кейс, что GI создаёт документации для IPO за несколько минут. Вообще в финансах,
47:41
кстати, вот это вот кейс Goldman Sax, а вот андеррайтеры, которые обычно берут
47:46
процент от IPO, там какая-то очень сложная задача, прочее, да? То есть, в принципе, когда у тебя довольно
47:53
структурирован процесс, довольно понятно описана логика, даже если это она не дискретная логика, но она укладывается в
48:00
какую-то инструкцию, какие-то знания, которые можно уложить в цифры, в текст, в прочее, скорее всего, ну, она не то,
48:07
что за человека полностью справится, ну, там на 90% эту работу может выполнить. Вот. И мы сейчас сами консультируем
48:13
несколько банков. И мы видим, как активно именно вот в инвестиционном банкинге пользуются вот языковыми
48:19
моделями для, допустим, аналитики отчётности компаний. Ну, то есть они смотрят публичные публичные компании
48:25
публикуют отчётность. А, понятно, брокеры рекомендуют какие-то инвестиционные стратегии. Вот для того,
48:30
чтобы их быстро и эффективно анализировать, как бы тот человек там просто умрёт, да, всё это перечитывать. Там такой отдел аналитиков нужен, чтобы
48:37
во всём этом разобраться, как говорится, без бутылки водки там вообще не разберёшься. некоторая отчётность. Аа
48:43
можно попросить, э, вот этих вот эти вот синтетические мозги пробежаться, задать определённую логику, задать определённую
48:49
логику рациональности, определённую логику того, как ты себя можешь перепроверять, то есть в каком-то смысле свою когнитивную стратегию заложить в
48:57
эту модель, и она будет справляться быстрее тебя. А вот это вообще
49:05
космос протипирования лекарств, кстати. Аа вот здесь история была, по-моему, в
49:12
ковид. Я не помню конкретно, какая это была вакцина, то ли модерна, то ли что-то ещё. Но там было интервью,
49:18
значит, вот ребят, которые эту вакцину создали. И там был такой факт, что типа
49:25
вакцину мы создали за там 16 часов и ещё полгода мы её типа сертифицировали.
49:31
Логика как раз слова была в том, что вот эти задачи, когда пере вот в химии, кстати, очень активно используют
49:37
языковые модели, потому что она способ способна давать огромное большое количество комбинаций, которую нужно
49:42
экспериментально перебрать. Можно попробовать перебрать в таком метапространстве, чтобы сузить
49:48
количество более вероятных вариантов и уже экспериментировать, допустим, с более точными вариантами. Это очень сильно ускоряет, допустим, вот, а,
49:54
фармацевтические компании вот вцепились в эту технологию, потому что они видят в ней большой скачок в ускорении создания
50:00
лекарств. То есть это вот один из таких интересных кейсов. А, Vodфон сделал чатбот для
50:07
зумеров. Ну, это очень смешно, конечно, да. Там это надо зумеров учить, мне кажется, нас понимать. Тридцатилетние.
50:13
Вы согласны? Как? Нет. А, ладно, здесь больше зумеров, видимо. И давайте
50:19
немножко проговорим про наш опыт уже. Вот, как сказать, я тут про всех рассказываю, типа, а ты что сделал? Да.
50:24
Вот, собственно, вот мы начали с того, что мы взяли, сделали свой рак, сделали
50:30
свою базу знаний, воткнули этого бота в Telegram, и он, мне кажется, вот у меня
50:35
такое отношение к этому боту внутри нашей компании, что он как, знаете, такое такое домашнее животное, которое
50:42
все любят, такой питомец, там все его там тегают, говорят: «Чат GPT там, это там GPT бот, а расскажи там анекдот». То
50:48
есть у него есть такой механизм, там разные механизмы прикольные строят. Допустим, раз в день он берёт какой-нибудь аккаунт и про него
50:54
какую-нибудь шутку рассказывает или просто может какой-нибудь анекдот рассказать или там спросить, что там, как дела вообще там. Вот. И это, ну, как
51:02
бы его к нему реально начинаешь эмоционально относиться. Просто вот есть такое существо, которое живёт во всех
51:07
твоих чатах. Можно его попросить там расшифровать видео, там собрать там какой-то саре встречи, там сделать
51:13
что-то ещё. Ну, как бы мне кажется прикольный кейс у нас.
51:18
Мы вот вообще довольно много внутренних продуктов у нас в компании в автоматизации. Ну такая, не знаю, в своё
51:25
время такая культура сложилась. Мы мно много процессов для себя сами просто автоматизировали, как говорится,
51:30
специально под нас. У нас, допустим, довольно сложный процесс сбора статусов по проектам. Ну, когда разные команды,
51:36
разные люди, там, разные инженеры, они с разных сторон оценивают состояние проекта. И то есть обычный такой долгий
51:42
был процесс, когда менеджер там со всеми созванивался, что-то сверял, что-то прочее, должен был выставить такую финальную оценку еженедельное состояние
51:48
проекта. Ну теперь, допустим, он просит бота пробежаться, собрать оценки и сказать ему: «А что там вообще?» Вот бот
51:54
как бы сам сумморизирует статусы. То есть ускорение там времени работы менеджера
51:59
там колоссальное. LMБОX собрали. Это такая довольно простая история, ну, как бы скорее архитектурная. Просто мы
52:04
воткнули там большое количество GPT, то есть там Chat GPT, Яндекс GPT, там Gigat, там другие модели просто
52:10
развернули какое-то количество он премиус решениние у себя внутри, чтобы просто через единый интерфейс все, кто
52:15
внутри компании хочет что-то создать, он получил просто единый API, то есть единый доступ к тому, чтобы просто
52:21
забрать любую сетку и на основе неё там сделать какого-то бота, допустим, внутри. Вот эта история с Телеграмом,
52:27
она у нас как раз такая сказать выродилась уже в умную базу знаний. Да,
52:33
мы её назвали Пантеонос. А так этот пафосно, что и как раз вот здесь вот мы сейчас реализуем
52:39
внутри вот эту логику таких агентов, да? То есть по сути есть база знаний, то есть вот мы также пошли, как я вам
52:45
описывал, то есть сначала взяли, сделали рак, а загрузили туда кучу всяких э
52:50
наших знаний, там из конфлюенса, там из каких-то наших статей, из собственно эта база знаний просто могла
52:57
нам отвечать на какие-то простые вопросы. А, и потом мы начали как бы попробовать агентскую логику
53:02
реализовывать, чтобы, допустим, какие-то простые задачи уже более-менее автономно заворачивать. Это не совсем те агенты,
53:07
которые вот здесь, чтобы, как сказать, если есть ребята, кто этим занимается, меня в помидорами не кидали. Это там
53:13
пока не автономные агент, это можно тоже назвать workflow агентами, да, то что когда ты задаёшь определённый сценарий и на каждом сценарии они как-то себя
53:20
отрабатывают, но это уже как бы чувствуется, что ты делаешь определённый шаг в сторону того, что у тебя есть
53:25
платформа, есть какое-то количество вот вот этих синтетических мозгов, которые обращаются к большому мегасинтетическому
53:31
мозгу, чтобы исполнять какие-то бизнес-процессы, там, скажем, под ключ. Вот это классный кейс, мне кажется,
53:38
генерации индивидуальных планов развития. У нас есть свой продукт, а он мы его создали для
53:46
peopleменеджеров компании. То есть у нас в компании довольно большой упор на то, как мы людей развиваем. То есть есть
53:52
человек попадает к нам, у него появляется индивидуальный план развития, там карта знаний, аттестации, чтобы
53:57
каждый видел свой трек, куда он, собственно, вырастет в компании, там за какой период и прочее. И это на самом
54:02
деле довольно тяжеловесная работа, но потому что, чтобы план развития персональность человеance revwew провести, с ним поговорить, сделать ему
54:09
какую-то персональную стратегию, сказать: «А иди вот то почитай, а там научись, а то сделай и проче». Ну то есть очень дорогие специалисты в лице
54:17
там Тимледов, HRров, пипл-менеджеров. На самом деле довольно трудоёмкий, затратный процесс, чтобы обеспечить вот
54:22
это вот развитие человека внутри компании. Мы его сильно сократили вот сейчас, потому что у нас уже есть большая накопленная база, и мы просто
54:29
можем попросить там нейронку сгенерировать, допустим, вот эту базу знаний. Вот здесь, по-моему, прямо сейчас скринка будет
54:37
работать. Вот это как бы реальная система, как она сейчас выглядит. Мы просто не меняя систему, по сути, в неё
54:43
как раз вот использовали LM Box, по-моему, там было какое-то количество системных промтов. Вот мы настроили,
54:49
чтобы она генерировала непосредственно из знаний какой-то персональный план по человеку. Вот она сгенерировала развитие
54:55
открытости, мышления, там что-то ещё. Вон какой-то что-то пройти, курс рекомендует
55:01
сам, какую-то книгу прочитать рекомендуют. Ну то есть полностью сама сгенерировала человеку определённый трек
55:06
на основе того, что у нас уже было в опыте компании. То есть это она не просто
55:13
придумала, да? Можно было, наверное, попросить её ещё выйти в интернет, сказать: «А, иди
55:18
почитай про лучшие практики, а, иди вот возьми там топ-три и вообще вот добавь в наши практике и что-то ещё». Ну, как бы,
55:25
ну, это уже, ну, как бы next stepп. Ну, и в конце, мне кажется,
55:32
просто я тут почти про Skynetт. Мне кажется, такой у вас лица ужевые там
55:37
такие подавленные, но мне очень нравится эта реклама. Типа чей чат GPT дострой
55:42
здание. Поэтому что-то эту штуку ещё не умеет. Поэтому, может, те, кто начал
55:48
учиться кодить на Питоне, лучше, конечно, пойти учиться на сварщиков, вот, или на таксистов. Это действительно
55:53
вечная профессия. Я вот уверен, что таксистов никогда не заменят. Вот. А и давайте, наверное,
56:00
немножко к выводам. Вот сейчас уже мы с вами проговорили про настоящее, да,
56:07
посмотрели, собственно, как компании в это инвестируют, как компании это применяют. Мы с вами проговорили про
56:13
прошлое, то есть мы с вами посмотрели, как эта эволюция технологическая привела нас от
56:19
примитивных диалогов к трансформерам. И давайте немножко сейчас проговорим про будущее. Собственно, вот что же
56:27
будет-то. Вот как вот я хотел поделиться с вами своими мыслями. Во-первых, я подумал, что изменилась не
56:33
технология, а прямо парадигма. То есть это вот мне очень понравилась фраза моего там партнёра, товарища Алексея
56:39
Макина из фаундера Redmob. Он сказал, что это этот сдвиг, он потребует новых
56:45
интеллектуальных интуиций. Это очень, мне кажется, хорошая формулировка, потому что мы все живём, ну, плюс-минус
56:52
даже не программисты понимают, что база знаний — это какая-то таблица, что как-то там вот что-то там запишется,
56:58
что-то будет, вот туда что-то сходит, что-то вот из ячейки заберёт, куда-то там выведет, как-то сложит в ячейку
57:04
запишет. Ну, то есть в целом как бы, ну, даже если ты не программист, ты плюс-минус понимал парадигму. Вот когда
57:12
я показывал вам про то, что такое векторные базы знаний, вы же понимаете, что это просто, в принципе, другая логика. хранение информации. В принципе,
57:18
вот вот эта векторизация, трансформеры, то, как это как как сейчас информация
57:24
хранится, как она обрабатывается и какие сервисы на базе вот баз знаний с помощью
57:29
агентов, с помощью использования вот этой новых когнитивных стратегий и больших думающих моделей. Это, в
57:35
принципе, вот можно создавать абсолютно новые сценарии использования, да. И вот
57:41
одна из целей этой лекции, наверное, была, что мне как бы кажется, что люди плюс-минус должны понимать, как устроены
57:48
хотя бы, а, ну, как-то хотя бы базово, как устроены технологии в того времени,
57:53
в котором они живут. Ну, то есть там, не знаю, наши родители плюс-минус понимали, как ещё машина устроена там, да, там
58:00
могли, может, даже починить её. Мы ещё более-менее понимаем, как машина устроена. Но когда вот мы начинаем
58:05
массово использовать вот эти языковые модели и вообще не понимать, как они работают, мне кажется, это это ведёт
58:12
такой тупик не не очень хоро То есть какой-то это очень опасная точка, когда для людей технологии становятся магией,
58:18
я бы так сказал. Поэтому в этом всё-таки надо разбираться, но хотя бы хотя бы на базовом уровне. А то, что мультиагентная система
58:26
изменит саму суть того, как люди трудятся, я этот тезис уже проговаривал, поэтому не буду, наверное, на нём оставаться, ну, слишком долго
58:32
останавливаться. что я думаю, что появятся какие-то вообще новые бизнес-процессы и новые навыки. Что я
58:39
подразумеваю под новыми навыками? Допустим, вот что сделали сервисы предыдущей волны. Люди стали как бы
58:46
киборгами. Мы взяли и вынесли в интернет свою память, например. Мы теперь можем не помнить номера, мы не можем не
58:52
помнить факты, мы всегда можем загуглить. Ну, то есть была вынесена память, но сервисы работали так, что мы
58:59
как бы вовне вынесли информацию. То есть мы шли там гуглили, получали информацию, но задача мышления оставалась за нами.
59:06
То есть задача синтеза информации или анализа информации, она оставалась пока забелковыми. То есть мы должны были из
59:13
этого что-то там посмотреть, что-то почитать, что-то решить и какое-то решение принять. Вот языковые модели с думающие,
59:22
да, вот эти сзанинг, они по сути что делают? Что мы вовне как бы выносим мышление.
59:28
Следующий этап, что как бы мы теперь работаем не с информацией, а мы работаем с информацией, которая эта система сама
59:34
проанализировала и выдала нам конечный ответ. И это на самом деле довольно, ну, опасная штука, да, что как бы если мы
59:41
слепо доверяем когнитивным стратегиям вот этих систем, то есть мы как бы работаем просто с вот с волшебной
59:47
коробкой, то есть мы её спросили, она нам ответила. И а где вот эта сфера, в которой как бы
59:54
надо, мне кажется, качать мышцу, это на самом деле, ну вот то, что называется, наверное, там логикой, там аналитической
1:00:00
философией, то, что называется там в какой-то сфере математики, то есть мышление о мышлении. Это вот где вот что вообще,
1:00:08
как когнитивные стратегии формируются, как вообще рациональность рождается, что такое вообще рациональность, вот в идею
1:00:14
там антологии рациональности, да, то есть это сферы, которые, ну, исторически в аналитической философии скорее были.
1:00:19
нежели чем, ну, там, там на стыке, там, знаете, вот венский кружок, там Поппер, Витгенштейн, там, вот эта вот вся
1:00:25
история. Вот. А, и вот вот там, мне кажется, ещё наш Ноев ковчег. Вот как бы
1:00:33
там пока мы держимся и пока мы всё-таки мы пока держим вот эти когнитивные
1:00:38
стратегии, аа сегмент работающих сознанием будет сильно меняться. Ну вот
1:00:44
я плавно этот тезис уже повторил. Вообще Сатья Надела в своём тези про языковые модели сказал, что с бумом языковых
1:00:51
моделей спрос на высококвалифицированные кадры вырастет там на 42%. Он сказал помн. На самом деле нас не заменят
1:00:58
машины. Наоборот, появится огромный рынок тех, кто способен работать с агентами. Ну то есть как бы наоборот как
1:01:04
бы потребуются очень умные люди, которые будут способны программировать вот эти вот когнитивные стратегии, скажем, для
1:01:11
для машин, там, для агентов, чтобы они за тебя работали. То есть они за тебя всё равно как-то всю работу не
1:01:16
сделают. Ну и четвёртый тезис, эпоха дешёвого знания. Вот я ещё раз подчеркнул, не
1:01:21
информации, что если представьте, у каждого в кармане теперь
1:01:26
появляется не просто поисковик, там не просто браузер, не просто, а очень
1:01:32
мощная машина для очень мощных вычислений, но это мегареволюция. То
1:01:37
есть революция намного больше, чем когда у всех появились автомобили и чем когда у всех появились смартфоны. То есть мы
1:01:45
пока не знаем, как сделать так, что если все люди будут иметь доступ вот к этому буквально сверхинтеллекту, к чему это
1:01:51
приведёт? То есть это пока вызов, он такой открытый. И
1:01:58
поэтому, наверное, вот на этой ноте мы будем заканчивать. Тут есть ссылки на
1:02:04
наши каналы, и мы можем перейти к вопросам о дискуссии. Спасибо.
1:02:09
[аплодисменты] Спасибо за лекцию. Во-первых, смотри,
1:02:15
мне, знаешь, чего не хватило? Есть один момент, который я с которым я сталкиваюсь в каждом первом диалоге про
1:02:21
внедрение и в компании генеративных, и особенно это страх поделиться данными.
1:02:29
Ну и и попутно желание развернуть всего себя, что обычно требует невероятной
1:02:34
инфраструктуры, на которую ни у кого денег нет. А можешь немножечко рассказать о том, в какой момент Генай
1:02:41
учится и в какой момент он выдаёт ответы, чтобы люди немножечко понимали вот эту разницу в работе с информацией?
1:02:48
А, да, действительно, этот вопрос к блоку того, как Генаи непосредственно применяется в
1:02:54
бизнесе. Сейчас один из один из больших стопоров
1:02:59
к тому, чтобы сейчас применять вот агенты, раги и всю эту историю, допустим, например, это инфраструктура. То есть,
1:03:06
ну, ты либо готов облачным провайдерам доверять, то есть там Яндексуду, там
1:03:12
Сберу, кому-то ещё, но бизнес, конечно же, боится, что представьте, что вы отдаёте в облачное хранилище, то есть
1:03:18
вы, викторизуя свои данные, так или иначе вы отдаёте в их языковую модель эту информацию. И как бы они вам не
1:03:24
говорили, что да, это будет защищено, проче, это действительно может быть защищено. Просто, ну, как бы интуитивно
1:03:30
это кажется каким-то ж выстрелом в ногу, особенно если компания конкурент, да? Ну, то есть так или иначе там вдруг
1:03:36
Яндекс решит металл отливать, а ты Северсталь. Ты такой думаешь: «Так, собственно, как бы зачем мне сейчас
1:03:43
скармливать все все эти данные потенциальному конкуренту?» Вот и поэтому компании сейчас идут на такой
1:03:48
шаг, что называется он премис модели, да? То есть они буквально покупают видеокарты, строят стойки у себя, то есть и вот модели, то, что называется
1:03:55
Open source, вот открытые модели, которые можно развернуть у себя. Там данные никуда не уйдут, они даже не подключены к интернету, то есть
1:04:01
технически, да, то есть с ними просто как с вот ваши там агент или ваш шаг, он просто ходит как бы вот в эту локальную
1:04:08
модель, получает данные, выводит внутри. Довольно популярная сейчас концепция. Не думаю, что она долго будет жить,
1:04:15
потому что я помню, когда была история с облаками, тоже все такие: «Да ну, эти облака, это небезопасно, в общем, буду
1:04:20
хранить у себя». Потом, когда у себя там серваки сгорают, их там взламывают, нет нормальных бэкапов, то есть все всё
1:04:25
равно перешли в облако, потому что понимают, что там иметь облако у нормального провайдера безопаснее, чем
1:04:32
иметь какие-то серверные стойки, которые надо обслуживать где-то у себя там. Вот. Поэтому, отвечая на твой вопрос. Ну, это
1:04:40
тот же самый механизм, по сути, да, векторизации. То есть вы действительно свои знания скармливаете, они в каком-то смысле, можно сказать, растворяются в
1:04:46
этом многомерном векторном пространстве. То есть с помощью запросов или промтов как бы их можно вытащить.
1:04:52
Действительно, да, там есть как будто сейчас технологии того, как что-то маскируется, там что-то ещё,
1:04:58
но пока, наверное, не будем в это уходить. Это отдельный большой большой разговор. Да, Булад, спасибо за
1:05:04
презентацию. Очень интересно. У меня на самом деле три вопроса. Первый — это по
1:05:09
слайду, где ты говорил, что довольно холиварная тема, что считать аеагентом.
1:05:16
Я вот там четвёр четвёртого аяагента не понял. Плени там было написано, да, там по
1:05:22
толзам всё понятно. А ПН что такое? Это первый вопрос. Второй вопрос вот там
1:05:27
антропики, Google, Цуркиберг говорят, что у них в компании порядка э 20-30%
1:05:33
кода уже генерируется. И а у вас сколько процентов кода генерируется? И и насколько разработчики, да, вообще
1:05:40
погружены в эту тему, там курсоры, венсрфы и прочее. Ну насколько это продвинуто? И если не очень продвинуто,
1:05:48
то вы как-то пропагандируете использование искусственного интеллекта среди разработчиков или нет? Это второй
1:05:53
вопрос. И третий вопрос про и агентов-продавцов. Довольно-таки сейчас такая тоже хайповая
1:06:01
тема, когда условно и агенты заменяют отделы продаж. Вот вообще насколько это
1:06:08
работает? Ну, если вы в теме, да, или это больше всё-таки маркетинг сейчас? Спасибо. Ну вот есть такая концепция,
1:06:15
отвечая на первый вопрос в MCP Memory, Control Planning, да, собственно, память как раз вот external память, что как бы
1:06:21
они могут обращаться к какой-то внешней памяти за пределами. Control — это как раз вот эта логика с, например, с guard
1:06:27
rails, да, то, что, допустим, есть определённая система защиты, которая там, допустим, не выдаёт вредоносный
1:06:32
контент или что-то ещё или там как-то ещё защита. И как бы вот вот здесь пленинг в этой концепции
1:06:38
подразумевается, что агент может сам экспериментировать с когнитивными стратегиями. То есть он может сказать: «Так, я сейчас запускаю там, а вот есть
1:06:44
там аа как этот, как дерево мысли есть концепция». То есть он может такой запустить. Так, я там там 10 10
1:06:52
стратегий, по которым я сейчас продумаю вопрос. Он там, допустим, запустил 10 цепочек, потом начинает отсеивать там
1:06:58
самые неперспективные, оставаться в какой-то перспективной. То есть таким образом он способен планировать свою
1:07:04
когнитивную стратегию. То есть он не просто как бы идёт, выполняет, чему-то соответствует и отдаёт, да, что-то там поресёрчил, что-то там сложил и прочее,
1:07:10
а он полноценно способен как бы построить стратегию мышления. Есть ещё такая тема, как рефлекшн, да, то есть
1:07:16
как рефлексия. Он способен, а, подумать о том, как он подумал, возможно, изменить когнитивную стратегию, там
1:07:21
построить новую ветку рассуждения, как бы снова отсеять, как бы, и снова выйти к хорошему ответу. То есть пнинг здесь подразумевается как планирование того,
1:07:28
как он думает. То есть я, то есть вот это вот про пленинг. Второй вопрос. Я
1:07:33
думаю, что у нас все в компании это используют. Ну, так или иначе вопрос в том, что не везде ты можешь это
1:07:40
использовать. Ну, то есть у нас есть чувствительные клиенты, там, там банки, кто-то ещё. И понятно, ты, работая,
1:07:46
допустим, с там с open source, ой, с Cloud решениями, то есть ты, заливая как
1:07:52
бы какие-то кусочки кода клиента, ты, по сути, скармливаешь их в какой-то внешний обла какого-то внешнего провайдера. Это
1:07:59
пока не особо безопасно. Плюс есть конкретные вопросы с безопасностью, связанные с генерируемым кодом, потому
1:08:05
что, ну, вот есть там в Дефсикопсе, да, вот эти састы, дасты, да, то, что вот
1:08:10
непосредственно там статический анализ, динамический анализ кода, то, что сейчас проверяет на то, что код, который ты
1:08:17
написан, он как бы не вредоносный, безопасный, что он ничего не убьёт. Так вот, сейчас пока как будто нет
1:08:23
достаточно хороших таких и састов, который способен был бы на выходе шутить из Генерина прямо проверить как бы и
1:08:29
достаточно надёжно куда-то положить. Просто у меня специфика такая, что вот у нас есть стартапы, где мы запускаем там
1:08:35
вообще вот вообще всё, что угодно можно там, ну там как бы мы ничем не жертвуем, кроме собственных данных, да, то есть мы
1:08:41
там максимально быстро делаем. А в проектах, где они чувствительные, то мы к этому редко прибегаем. То есть там или
1:08:48
в каких-то альтернативных каких-то более-менее безобитных сценариях, допустим, например, автотесты написать,
1:08:54
то есть там как бы есть какой-то код, там он просто покрыл, помог покрыть тестами, ты его дописал или там с
1:08:59
аналитикой разобраться. Большое количество документации, ты, допустим, ты можешь сейчас такие системы, которые
1:09:05
по коду тебе пишут документацию для аналитиков. То есть в целом он её дорабатывает, а не пишут с нуля. Ну, там как бы есть различные
1:09:11
такие механизмы, как это можно использовать более глобально, не только там в коде. Я ответил на ваш
1:09:19
вопрос. Вот там была пе там была пе Ой, извините, а третий вопрос какой был у меня
1:09:27
что-то? Ну, у нас это не очень эффективно вот в бизнесе с услугами, потому что всё-таки B2B — это такой
1:09:34
очень как бы человекоцентричная сфера. Но вот у нас сейчас есть один проект, э-э, мы как бы делаем там Telegram,
1:09:42
Telegram минипсы, связанные с букингами там отелей. И там довольно интересный
1:09:49
такой флоу сейчас проработали для отелей и для нашего сервиса, что мы для, то
1:09:54
есть человеку даём возможность сказать: «Иди сбегай, найди там пять хороших отелей в Казани и договорись о скидке».
1:10:02
А для как бы отелей мы делаем с их стороны как бы агента, который может поторговаться с ним. То есть мы делаем
1:10:07
как бы, что они такие там пообщались, грубо говоря, там нашли для человека, который попросил какое-то компромиссное
1:10:13
решение, говорит: «Вот этот отель готов, я тебе всё вот нажми, забронируй». Как бы то есть вот это интересная реализация
1:10:18
там как бы когда продажи работ, грубо говоря, каждый своего там агента отправил поторговаться на своих условиях, они там что-то поговорили,
1:10:25
какому-то решению пришли, ты просто уже как принимаешь это решение или не принимаешь. Ну, то есть вообще в
1:10:31
продажах супермощный инструмент. Просто ещё раз говорю, наверное, специфика моего бизнеса, она не такая, чтобы мы
1:10:36
там прошивали прямо CRM, как бы, вот этими лэмками. Там скорее в каких-то сайт-процессах просто большое количество
1:10:43
информации сделать summary, сделать followup, там длинный звонок сказать там, напиши митинг просто, чтобы я тем
1:10:48
расписал клиенту отправил. Ну, то есть это то, что довольно универсально, оно как бы не связано конкретно с продажами
1:10:54
в этом смысле. Меня очень заинтересовал ваш и агент. Я, честно признаюсь, я
1:10:59
читал про него до лекции и, э, ну, на вашем сайте в блоге и прочитал то, что
1:11:05
он был создан буквально за 2 недели. Вот. Довольно интересно. А мне интересно
1:11:10
узнать, ээ, сколько сотрудников потрудились над созданием этого агента, с какими
1:11:17
трудностями они столкнулись и продолжаете ли вы дальше развивать этого агента и какие проблемы решаете сейчас?
1:11:24
Слушай, по-моему, конкретно этого агента, оно там, наверное, пару человек делала. То есть в целом-то ещё и плюс
1:11:30
того, что как бы сам подход, да, он тоже как бы сильно оптимизирован в этом плане,
1:11:37
что у нас есть отдельная в технократии есть отдельная команда R&D, которые занимаются непосредственно вот этими
1:11:42
вещами. То есть они не занимаются созданием стартапов, они занимаются созданием проектов там клиентских, они просто занимаются как бы таким дипйвом с
1:11:49
точки зрения технологического прокапывания этих вещей. Типа, а что там вообще можно сделать? такие: «Вот, а теперь это можно сделать, давай вот это
1:11:55
добавим, теперь ещё что-то можно сделать». Вот поэтому фундаментально, то есть я бы, ну, я бы иду к тому, что
1:12:03
внутри компании тоже реализовать концепт МАЗ, да? То есть попробовать вот сначала понять, где вот эти агенты они
1:12:08
применимы, попробовать там применить. Понятно? Есть сливки типа генерация кода, там, ну, вот ряд процессов, которые вот мы описывали, они вот на
1:12:14
поверхности, но есть более сложная архитектура, куда всё можно можно применять. Пока просто проблема ещё
1:12:20
внедрения в том, что это ведь не купишь так, как вот как, не знаю, как мандарины в магазине, да, или как там AM. То есть
1:12:26
нельзя просто зайти там и сказать: «Я вот там купил всё, как бы развернул себя и пользуюсь». Тоже как бы нужно
1:12:32
разобраться в технологии, разобраться, как у тебя процессы выстроены, понять, в каких процессах это сработает, там
1:12:38
визиро векторизировать базу. То есть как бы пока такой порог входа немножко как бы длинный, но понятно, что это всё
1:12:45
будет сокращаться, это всё будет быстрее и всё будет из коробки со временем работать намного быстрее. Во многих СМИ
1:12:53
сейчас пишется о том, что джуниорспециалисты их заменяют и
1:12:58
интеллектом. А, но как бы человечество создано так, что мы растём до синьора
1:13:04
именно с начиная с позиции джуна. То есть сначала Джун, потом Мидл, потом уже синьор, да? И вот сейчас как будто вот
1:13:12
эти джуниоры, им раньше было приходилось
1:13:18
соревноваться, ну, с точно такими же биологическими джуниорами, а сейчас они соревнуются с Иишкой, и в конце концов
1:13:25
Иишка победит. И джуниоров, и мидлов останутся вот только синьоры, про которые ты говоришь, что вот они будут
1:13:33
управлять условно миром. Но до синьоров мы можем вырасти только
1:13:39
вот с ни с нижней позиции. И вот когда биологически а синьоры, которые есть
1:13:46
сейчас, умрут лет через 50, кто их заменит? Синьоры помидоры. Да, есть я
1:13:54
Егор коротко отвечал, хотя обещал ответить, но чуть-чуть уйду в сторону, потому что есть вообще потрясающая история. Я где-то на Форбс, по-моему,
1:14:00
прочитал, как, в общем, девяностые, видимо, какие-то палёные станки в Россию тащили, там от Симонса
1:14:07
или от кого-то ещё. И их была группа вот людей, которые тогда были молодые, они умели программировать на том языке, на
1:14:14
котором эти станки запрограммированы. А вот молодое поколение уже не училось на этом языке программировать. И значит,
1:14:19
эти дедушки, им там как бы уже там лет там 60 там с чем-то. Оказалось, что в стране куча этих станков, а молодых нет.
1:14:26
И вот эти там шесть-7мь стариков собрались и открыли стартап по обслуживанию этих станков. Мне кажется,
1:14:32
абсолютно какая-то потрясающая история, что такие, ну, а как как кудать синьоры,
1:14:38
вот как раз синьоры, которые не вымерли, да, вот про ваш разговор. Ну я думаю, что реально такой проблемы не будет.
1:14:44
Просто сильно изменится там как в целом проект, потому что в какой-то момент программирование стало ремеслом. То есть
1:14:50
я вот помню, что мы когда начинали, я на ВМК когда поступал, то есть как вот ты
1:14:55
начинаешь там какие-то алгоритмы, прочее, прочее, потом вот эти фреймворки, фреймворки, фреймворки, фреймворки. И в какой-то момент это уже
1:15:01
такая сборка окон почти там без как бы в целом гиперребовательности к твоим
1:15:07
когнитивным навыкам. И программирование стало ремеслом. И по сути, а мы мы как
1:15:13
бы умные ребята написали, спилили сук, на котором сидели, да? То есть, так как программирование — это в целом
1:15:19
абстрактная сфера, логическая сфера, семантическая сфера, там есть какой-то свой язык, очевидно, это будет
1:15:24
автоматизировано, как и все другие сферы похожие. Вот они это автоматизировали. Ну просто к следующему поколению разработчиков они, я я думаю, что никуда
1:15:32
вообще эта технология новая, она никогда полностью уже ничего не замещает. Она скорее меняет, да, что-то новое добавляет, если посмотреть. Ну, просто
1:15:39
вот будут программисты, которые вместе с ассистентами хорошо работают, умеют правильно купал. То есть, ещё раз, это
1:15:45
наоборот потребует ещё более сложного мышления, ещё более абстрактного и более системного. То есть тебе нужно будет не
1:15:51
просто жёсткие структуры проектировать, тебе нужно архитектуру проектировать из условно довольно сложных агентов. То
1:15:57
есть это просто требовательность к тому, чтобы стать разработчиком высокого порядка, она вырастет.
1:16:04
Но это в целом общая динамика, что сейчас как бы карьера она становится похожа на суперспорт, да? То есть как бы она там в
1:16:10
конкуренции везде как бы начинает расти уже. У меня вопрос такой из практической плоскости,
1:16:16
с которым я всё чаще сталкиваюсь в своей работе, это вопрос ответственности. То
1:16:22
есть, а кто вообще отвечает за результаты выдачи искусственный интеллекта, вообще за результаты его
1:16:28
работы? это владелец это программы или это какой-то, например, пользователь,
1:16:33
который предоставляет услуги с использованием ИИ. Вот. И как вообще этот вред оценивать и, ну, кто его
1:16:41
должен возмещать в конечном итоге? Да. Да. Это как мы очень долго пытались решить вопрос, как ограничи, ну, как
1:16:47
вообще смотрели, я извиняюсь, смотрели, как ограничивают ответственность другие сервисы. В итоге
1:16:53
в Яндексе мы увидели, Алиса может ошибаться. Простите ей это. Ну, тут есть техническая часть. Есть такая как бы там
1:17:00
из философии этики часть, да, что как бы первая часть — это просто что есть тамтрейнинг, посттрейнинг, там
1:17:07
reinforning, да, так называемый, то есть процессы, которые позволяют дообучать вот эту запечённую нейронную сеть, чтобы
1:17:13
она как бы на какие-то вопросы не отвечала, там не обсуждала с вами политические темы, допустим, или там там
1:17:20
не скатывалась в российские какие-то там оскорбления или прочее. То есть есть огромный плас, когда реально люди сидят
1:17:26
как бы тренируют на выдачу, и какие-то плохие выдачи они пытаются блокировать. То есть есть целый слой такой как бы
1:17:31
этики вот в чат GPT, во всех остальных моделях она везде есть, да? То есть это огромное количество людей просто
1:17:38
белковых до сих пор работают над тем, чтобы эта выдача как бы не происходила. С точки зрения этики, ну, пока нет
1:17:45
хорошего ответа, мне кажется. То есть это вот классическая дилемма: едет tтеesla и там кого сбить, ребёнок или
1:17:52
бабушка? Да. Вот эта ночина задача вагонетки возникает. То есть как бы непонятно или сбить троих, или сбить одного. А если один ребёнок? Если это
1:17:59
беременная женщина, ну то есть как бы непонятно. Ну то есть пока я думаю, что пока просто пока, наверное, как-то это
1:18:06
пытаются прощать, да, потому что все понимают, что если это сейчас запретить на этой основе, ну это как бы такой прогресс похоронить в этом смысле.
1:18:14
Как-то выплачивают компенсации, что-то ещё. С другой стороны, разве человек не ошибается? Вот мне про искусственный
1:18:19
интеллект всегда говорит. Он ошибается, говорит, люди не ошибаются. Ну, как бы она хотя бы предсказуемо
1:18:25
ошибается как-то. Ну, то есть ты можешь более-менее понять, почему она ошибается и как-то это переделать. Вот поэтому вопрос этики, он
1:18:33
самый сложный. Я на него сейчас вам не отвечу здесь. То есть он открытый, просто все никто пока не понимает, как к
1:18:38
этому относиться вообще, каким субъектом права является искусственный интеллект, кто за него отвечает. Тот, кто его создал, тот, кто его хостит, тот, кто
1:18:45
его развернул и доделал. Ну, то есть нет нет пока хорошего ответа. Будущее
1:18:50
непредсказуем.
1:18:55
Всё, спасибо.

