В начале было слово. Лекция про развитие генеративного ИИ (GenAI)

      Лекция сооснователя ГК «Технократия» Булата Ганиева «В начале было слово. Как GenAI меняет бизнес» записана 28 апреля 2025 года в ИТ-Парке г. Казань.

      *https://www.youtube.com/watch?v=yUUHJ48UeXY
      **https://300.ya.ru/v_a69RPDFG

      Таймкоды

      00:00:00 Введение

      • Благодарность за присутствие на лекции.
      • Тема лекции: «В начале было слово», но обсуждение будет о том, какое слово должно было быть в конце.

      00:00:24 Причины проведения лекции

      • Компания фокусируется на проектах в области искусственного интеллекта и кибербезопасности.
      • Изменения в генеративном ИИ имеют тектонический характер.
      • Лекция в научно-популярном формате для инженеров, предпринимателей и учёных.

      00:01:24 Цели лекции

      • Обсуждение прошлого, настоящего и будущего генеративного ИИ.
      • Избегание дешёвого футуризма.

      00:01:55 Представление спикера

      • Булат, сооснователь группы компаний «Технократия».
      • Выручка группы превышает миллиард рублей, более 400 сотрудников.
      • Опыт работы с промышленностью и банками.

      00:02:38 Структура бизнеса

      • Три компании в сфере услуг: искусственный интеллект, нео-банки, апкшн-секьюрити.
      • Потеря значительных средств на стартапах.

      00:04:03 Содержание лекции

      • Фокус на генеративном ИИ, а не на всём ИИ.
      • Бум языковых моделей и трансформеров.

      00:05:00 Исторический контекст

      • Технологические революции и лидирующие компании.
      • Мобильная революция и её влияние на бизнес.

      00:06:00 Текущий этап

      • Облачные сервисы и сервисы по подписке.
      • Новый цикл масштабирования компаний вокруг генеративного ИИ.

      00:06:32 Инвестиции и проекты

      • Треть мирового венчурного капитала в генеративный ИИ.
      • Проект «Старгейт» от США: 500 миллиардов долларов на дата-центры.

      00:08:26 Перспективы

      • Возможность взлома математики и научного прогресса.
      • Генеративный ИИ как мощное оружие.

      00:09:14 Бизнес-перспективы

      • 74% организаций фиксируют рост в области генеративного ИИ.
      • Прибыль на каждый вложенный доллар.
      • Российские компании, такие как «Авито», инвестируют в генеративный ИИ.

      00:10:08 Лидеры в России

      • Лидеры: Яндекс и Сбербанк.
      • Россия в гонке за технологиями, несмотря на отставание от США и Китая.

      00:11:05 История диалоговых ботов

      • Первый диалоговый бот имитировал психолога.
      • Второй бот, Перри, имитировал параноидального шизофреника.
      • Проект Элис отличался активным участием комьюнити в программировании диалогов.

      00:11:55 Принципы работы первых ботов

      • Боты работали примитивно, используя программируемые диалоги.
      • Психолог рекурсивно переспрашивал о состоянии пользователя.
      • Шизофреник мог отклоняться от темы, что было несерьёзно.

      00:12:47 Введение в машинное обучение

      • Машинное обучение стало ключевым для развития языковых моделей.
      • Для понимания работы больших языковых моделей важно знать концепцию эмбедингов.

      00:13:49 Этапы развития языковых моделей

      • Три этапа: цепи Маркова, рекуррентные нейронные сети, трансформеры.

      00:14:20 Цепи Маркова

      • Цепи Маркова предсказывают слова на основе анализа текста.
      • Пример реализации: T9.
      • Эволюция: предсказание комбинаций слов.

      00:16:17 Рекуррентные нейронные сети

      • Рекуррентные нейронные сети имеют память благодаря свойству рекуррентности.
      • Проблема: тяжёлые вычисления при обработке большого объёма текста.
      • Лонгшорм-модели пытались решить проблему контекстного окна.

      00:18:57 Эмбединги

      • Эмбединги представляют слова в виде векторов для упрощения обработки.
      • Контекстуализированные эмбединги учитывают контекст слов.
      • Пример: слово «коса» может означать причёску или инструмент для кошения травы.

      00:19:56 Трансформеры

      • Трансформеры — следующий шаг в развитии языковых моделей.
      • Они позволяют векторно упаковывать язык, учитывая контекст.

      00:20:53 Введение в технологию трансформеров

      • Технология трансформеров с механизмом внимания появилась благодаря статье, которая имеет историческое значение.
      • Статья сравнивается с работой Алана Тьюринга о возможности машин мыслить.

      00:21:19 Принцип работы трансформеров

      • Алгоритм внимания в трансформерах позволяет параллельно анализировать каждое слово в предложении.
      • Параллельные вычисления стали возможны благодаря прогрессу в области видеокарт.

      00:23:03 Применение трансформеров в GPT-5

      • GPT-5 использует механизм внимания для анализа огромных массивов текста из интернета.
      • Большие языковые модели способны задавать множество вопросов тексту, анализируя его с разных углов.

      00:24:29 Визуализация работы трансформеров

      • Пример визуализации работы трансформеров в трёхмерном пространстве.
      • Вектор в многомерном пространстве кодирует информацию о слове «king» и его контексте.

      00:25:27 Эволюция моделей и появление думающих моделей

      • Современные модели обладают «мышлением», применяя когнитивные стратегии для понимания запросов.
      • Думающие модели строят цепочки логических рассуждений и объясняют свой ход мысли.

      00:26:25 Различие между думающими и недумающими моделями

      • Недумающие модели предсказывают следующий токен, но могут застревать на шаблонных ответах.
      • Думающие модели адаптируются, моделируют и объясняют ход своих мыслей.

      00:27:43 Концепция цепочки мыслей

      • Цепочка мыслей позволяет моделям имитировать человеческую рациональность.
      • Языковые модели рассматриваются как универсальный инструмент для создания универсальных систем.

      00:28:37 Метафора языковых моделей

      • Языковые модели сравниваются с операционной системой мышления человечества.
      • Люди используют различные когнитивные стратегии для извлечения ответов из языковых моделей.

      00:29:15 Рациональное мышление и машины

      • Люди сложно остаются рациональными, в отличие от машин.
      • Машины способны постоянно находиться в состоянии системы два.
      • Развитие технологий от цепей Маркова до трансформеров.

      00:30:14 Когнитивные стратегии и разбиение задач

      • Компании экспериментируют с когнитивными стратегиями для оптимизации выдачи.
      • Концепция разбиения большого синтетического мозга на маленькие мозги для решения конкретных задач.
      • Пример: отдельный «мозг» для математики, отдельный — для расстановки запятых.

      00:31:08 Роль роутера и ключевые критерии

      • Роутер понимает суть запроса и активирует нужный «мозг», экономя электричество.
      • Ключевые критерии для развития ИИ: компетенции, вычислительные мощности и дешёвое электричество.

      00:32:07 Гонка за сжатие моделей

      • Создание больших моделей с множеством параметров.
      • Конкуренция за создание дистиллированных моделей и квантизация данных.
      • Цель: языковая модель в смартфоне без выхода в интернет.

      00:33:46 Завершение

      • Предложение задать вопросы в конце.

      00:34:00 Применение ИИ в бизнесе

      • Обсуждение применения ИИ в бизнесе.
      • Архитектура RAG: Retrieval-Augmented Generation.
      • Проблема больших языковых моделей: они не знают контекста бизнеса.

      00:34:13 Концепция RAG

      • Создание векторной базы знаний для бизнеса.
      • Викторизация текста для преобразования в векторные представления.
      • Рост числа стартапов, связанных с RAG-платформами.

      00:36:08 Преимущества RAG

      • Экономия времени на бесполезной коммуникации.
      • Мини-мозг компании, знающий всё о бизнесе.
      • Возможность работы с чувствительными данными.

      00:38:00 Эволюция RAG и новые концепции

      • Появление новых концепций, таких как ESP от Antropic.
      • Переход к более сложным действиям с данными.
      • Быстрое развитие технологий ИИ.

      00:39:54 Понятие агента

      • Агент как синтетический мозг, решающий задачи автономно.
      • Гибкость агентов: возможность самостоятельного поиска информации и выполнения сложных действий.
      • Автоматизация бизнес-процессов через цепочки агентов.

      00:40:52 Развитие агентов

      • Различие между агентами и чат-ботами.
      • Инструменты и внешняя память как ключевые элементы агентов.
      • Примеры интеграции агентов с различными сервисами.

      00:42:46 Полностью автономные агенты

      • Планирование задач и автономность агентов.
      • Дискуссия о том, что считать агентами.

      00:43:17 Цифровизация бизнес-процессов

      • Бизнес-процессы автоматизируются через системы вроде CRM.
      • Данные хранятся в базах данных, а логика процессов — в системах.
      • Люди ускоряют работу, используя автоматизированные системы.

      00:44:10 Мультиагентные системы и новые бизнес-процессы

      • Мультиагентные системы могут создать новые бизнес-процессы.
      • Синтетические мозги автономно решают задачи, связанные со знаниями.
      • Компании, такие как Salesforce, активно внедряют генеративный ИИ.

      00:45:08 Преимущества мультиагентных систем

      • Агенты универсальны и рациональны, в отличие от людей.
      • Пример рациональности: судьи выносят больше обвинительных приговоров ближе к обеду.
      • Системы более эффективны в принятии решений.

      00:46:05 Применение генеративного ИИ в компаниях

      • Наибольшее применение ИИ в клиентской поддержке.
      • Языковые модели улучшают коммуникацию с клиентами.
      • Пример: в Яндекс.Поддержке сложно понять, что отвечаешь не человеку.

      00:47:34 Генеративный ИИ в финансах

      • Создание документации для IPO за несколько минут.
      • Автоматизация структурированных процессов в инвестиционном банкинге.
      • Анализ отчётности компаний с помощью языковых моделей.

      00:48:30 Эффективность анализа отчётности

      • Синтетические мозги быстрее анализируют отчётность, чем люди.
      • Возможность задать логику рациональности и когнитивную стратегию моделям.
      • Модели справляются с анализом быстрее, чем целые отделы аналитиков.

      00:49:03 Применение языковых моделей в фармацевтике

      • Языковые модели ускоряют создание лекарств, позволяя перебирать огромное количество комбинаций.
      • Фармацевтические компании видят в этой технологии значительный скачок в ускорении разработки лекарств.

      00:50:05 Опыт компании с чат-ботом

      • Компания создала чат-бота для зуммеров, который стал «домашним животным» для сотрудников.
      • Бот выполняет различные задачи, включая расшифровку видео и сбор статусов проектов.

      00:51:04 Автоматизация внутренних процессов

      • Автоматизация сложных процессов, таких как сбор статусов проектов, значительно ускоряет работу менеджеров.
      • Бот собирает оценки от разных команд и суммирует статусы, экономя время.

      00:52:03 Интеграция моделей и создание базы знаний

      • Компания интегрировала различные модели, включая ChatGPT, Яндекс и другие, для создания единого интерфейса.
      • Создана база знаний «Пантеон», которая отвечает на простые вопросы и реализует агентскую логику.

      00:53:43 Генерация индивидуальных планов развития

      • Продукт «Юл» генерирует индивидуальные планы развития для сотрудников на основе накопленной базы знаний.
      • Система рекомендует курсы, книги и другие ресурсы для развития, сокращая трудоёмкий процесс.

      00:55:40 Заключение

      • Обсуждение эволюции технологий от примитивных диалогов к трансформерам.
      • Подчёркивание важности традиционных профессий, таких как таксисты, которые не будут заменены технологиями.

      00:56:22 Изменение парадигмы

      • Сдвиг в технологиях требует новых интеллектуальных интуиций.
      • Векторные базы знаний предлагают новую логику хранения информации.
      • Трансформеры и агенты создают новые сценарии использования данных.

      00:57:18 Понимание технологий

      • Важно понимать базовые принципы работы современных технологий.
      • Массовое использование языковых моделей без понимания их работы может привести к тупику.
      • Технологии не должны становиться «магией» для людей.

      00:58:15 Мультиагентные системы и новые навыки

      • Мультиагентные системы изменят способ работы людей.
      • Появится необходимость в новых бизнес-процессах и навыках.
      • Сервисы предыдущей волны вынесли память в интернет, но мышление оставалось за человеком.

      00:59:12 Языковые модели и мышление

      • Языковые модели выносят мышление вовне, анализируя информацию.
      • Опасность заключается в слепом доверии к когнитивным стратегиям систем.
      • Необходимо развивать навыки в логике, аналитической философии и математике.

      01:00:40 Спрос на высококвалифицированные кадры

      • Спрос на высококвалифицированные кадры вырастет на 42%.
      • Машины не заменят людей, а создадут новый рынок для работы с агентами.
      • Потребуются специалисты, способные программировать когнитивные стратегии для машин.

      01:01:37 Эпоха дешёвого знания

      • У каждого в кармане появится мощная машина для вычислений.
      • Это приведёт к революции, сравнимой с появлением автомобилей и смартфонов.
      • Возникает вопрос, как использовать доступ к сверхинтеллекту.

      01:02:13 Вопрос о страхе поделиться данными

      • Обсуждается страх поделиться данными и желание развернуть всё у себя.
      • Вопрос о разнице между обучением и выдачей ответов генеративными моделями.

      01:02:48 Проблемы использования агентов в бизнесе

      • Бизнес опасается доверять свои данные облачным провайдерам, таким как Яндекс Клауд или Сбер.
      • Компании боятся, что данные могут быть использованы конкурентами.

      01:03:46 Локальные модели и их преимущества

      • Компании строят локальные модели, используя собственные видеокарты и серверные стойки.
      • Локальные модели не подключены к интернету, что обеспечивает безопасность данных.
      • Несмотря на первоначальные опасения, облачные решения могут оказаться более безопасными в долгосрочной перспективе.

      01:04:42 Викторизация данных и её последствия

      • Данные «растворяются» в многомерном векторном пространстве, доступ к ним можно получить через запросы или промты.
      • Существуют технологии маскировки данных, но они пока не получили широкого распространения.

      01:05:41 Концепция MCP Memory Control

      • Агенты могут экспериментировать с когнитивными стратегиями и планировать своё мышление.
      • Они способны рефлексировать и изменять стратегии для улучшения результатов.

      01:07:33 Безопасность генерируемого кода

      • Использование генерируемого кода ограничено из-за проблем с безопасностью.
      • Статический и динамический анализ кода не всегда обеспечивает достаточную защиту.
      • В стартапах генерируемый код используется более свободно, чем в чувствительных проектах.

      01:09:28 Применение агентов в продажах

      • Агенты могут помогать в поиске отелей и договариваться о скидках.
      • Они могут выступать в роли посредников между клиентами и продавцами.
      • Специфика бизнеса ограничивает широкое применение агентов в продажах.

      01:11:16 Создание и развитие агентов

      • Агенты создаются небольшими командами, часто в рамках стартапов.
      • Внутри компании реализуется концепт массового применения агентов.
      • Внедрение агентов требует понимания технологий и процессов, но со временем процесс станет проще и быстрее.

      01:12:51 Замена джуниоров ИИ

      • Джуниоры конкурируют с ИИ, а не с другими людьми.
      • В будущем ИИ может заменить джуниоров и мидлов, оставив только сеньоров.
      • Возникает вопрос, кто заменит биологических сеньоров через 50 лет.

      01:13:51 Пример с программистами

      • В 90-е годы в России старые программисты обслуживали станки, на которых не учились программировать молодые.
      • Старики открыли стартап по обслуживанию станков, демонстрируя, что сеньоры могут быть востребованы.

      01:14:49 Программирование как ремесло

      • Программирование стало ремеслом из-за использования фреймворков.
      • Автоматизация программирования требует более сложного мышления.
      • Будущие разработчики будут работать с ассистентами, используя системные навыки.

      01:15:44 Ответственность за ИИ

      • Вопрос ответственности за результаты работы ИИ остаётся открытым.
      • Владелец программы или пользователь должен возмещать вред, нанесённый ИИ.
      • Этика и философия играют важную роль в ограничении ответственности ИИ.

      01:17:43 Этические дилеммы ИИ

      • Этика ИИ остаётся сложной проблемой, сравнимой с дилеммой «Тесла и ребёнок».
      • Необходимо находить баланс между прогрессом и этическими нормами.
      • Вопрос ответственности за ИИ остаётся открытым, будущее непредсказуемо.

      01:18:42 Заключение

      • Будущее ИИ неопределённо, нет однозначного ответа на вопрос ответственности.
      • Будущее требует дальнейшего обсуждения и развития этических норм.

      Расшифровка видео

      0:00
      Да. Во-первых, а, большое спасибо, что в эту прекрасную погоду вы решили прийти
      0:05
      на лекцию какую-нибудь террасу. Лекция называется «В начале было слово». Аэ, хотя на самом
      0:13
      деле, наверное, мы сегодня будем рассуждать о задаче, о том, какое же слово должно было быть в конце, так
      0:19
      уж если глобально. А, но мы к этому ещё подойдём. Аа, почему решили вообще её сделать?
      0:27
      А-а, последние несколько лет, э-э, наша компания, она больше сфокусировалась как раз на проектах, связанных с
      0:32
      искусственным интеллектом и кибербезопасностью. И погружаясь в домен, связанный непосредственно с
      0:39
      генеративным искусственным интеллектом, у меня сложилось стойкое ощущение, что
      0:44
      это эти изменения, они действительно имеют тектонический характер. То есть мы не просто получаем ещё одну технологию,
      0:52
      которая, в принципе, ничего не меняет. Ну, как будет всё по-старому, но немножко по-другому. А, действительно,
      0:57
      произошло что-то важное, и очень захотелось, наверное, это изменение попробовать
      1:03
      зафиксировать. А, как уже было сказано в анонсе, очень тяжело, наверное, сделать
      1:09
      на такую тему лекцию, которая бы одновременно понравилась бы там и инженерам, и предпринимателям, там, и учёным. Поэтому, скорее всего, мы
      1:16
      выбрали такой научно популярный формат. Я бы, наверное, хотел, чтобы вы ушли с этой лекции с ответами на три вопроса
      1:23
      для себя. Ну, пониманием таким. Что же было в прошлом, то есть что
      1:28
      предшествовало тому, этой точке, которой мы оказались? Что происходит в
      1:34
      настоящем, то есть что на данный момент происходит с этой технологией? И мы
      1:39
      попробуем с вами немножко порассуждать о том, что же будет в будущем, как бы куда всё это ведёт, но я постараюсь не
      1:46
      скатываться в дешёвый футуризм, но если что, вы меня поправляете, ладно? Можете свистеть из зала и кидать помидоры.
      1:54
      А давайте немножко начнём. Я думаю, что я вот вспомнил, что я, мне кажется, здесь выступал последний раз лет 10,
      2:02
      наверное, назад. Это так давно здесь было. Вот. И я думаю, что многие меня не
      2:07
      знают. Я представлюсь. Меня зовут Булат. Я сооснователь группы компаний
      2:12
      Технократия. А попробую немножко отстоять моральное право вообще о чём-то рассказывать здесь. Собственно, на
      2:20
      данный момент вот наша группа компаний выручка превышает миллиард рублей. У нас
      2:25
      более 400 человек в России за рубежом. И мы почти 9 лет развиваем бизнес с моим
      2:31
      партнёром Артуром. Вот он скромно сидит там на задней парте. Вот.
      2:37
      А мы всю нашу историю мы создаём большие продукты технологические. То есть мы
      2:43
      работаем с промышленностью, с банками. В основном нас, наверное, те, кто знают, знают как разработчиков финтех решения.
      2:50
      То есть это в основном банки, банки, мы, наверное, поработали с там топ-10 российскими банками в разных вариациях.
      2:56
      Сейчас этот бизнес в большей степени за рубежом, а в России мы как раз больше сфокусированы на искусственном
      3:01
      интеллекте и на кибербезопасности, да? То есть два направления, которые мы здесь развиваем. А вот сейчас, наверное,
      3:09
      как-то так выглядит наш бизнес, что есть вот три компании в сфере услуг, которые занимается искусственным интеллектом,
      3:16
      международная компания, которая занимается запуском необанков, цифровизацией банков и компании в сфере
      3:24
      Application Security, да, мы больше в ней работаем на российском рынке. И как
      3:29
      говорят, у хорошего хирурга за спиной кладбище. Вот у хорошего предпринимателя
      3:34
      за спиной кладбище стартапов, конечно. Вот у нас тоже такое большое кладбище. Мы очень много денег потеряли, создавая
      3:43
      бизнесы. Какие-то компании до сих пор живут и растут, может быть, даже какими какие-то вы знаете из них. А, но в
      3:51
      целом, почему я это всё это показываю? Потому что сейчас каждый утюг рассказывает про искусственный интеллект. Э, наверное, хотелось
      3:57
      немножко как вот подтвердить моральное право вам что-то вещать с этой сцены.
      4:03
      Давайте теперь, собственно, перейдём к содержанию. А, и начать бы я как раз хотел не с прошлого, а с настоящего, а,
      4:11
      про состояние рынка генеративного искусственного интеллекта в России. Мы будем говорить гей, гей или
      4:20
      искусственный интеллект или прочее, но я хочу сразу подчеркнуть, что эта лекция,
      4:26
      она будет только про генеративный искусственный интеллект. То есть сам по себе искусственный интеллект — это более
      4:33
      широкое понятие, огромное количество подклассов, подвидов и прочего. И это
      4:39
      это невозможно впихнуть в одну лекцию. Мы конкретно будем говорить про то, про
      4:45
      тот бум, который породили языковые, большие языковые модели, которые
      4:52
      породила породила появление алгоритма трансформеров. И вся вот эта революция, которая в дальнейшем начала
      4:59
      происходить. А, небольшой обзор, да, вот, э, давайте исторический дискурс, как мы его видим наши. Вот, ээ, стырил
      5:06
      слайд у моих коллег из Redmet робота. Хороший такой. Вот можно примерно так сейчас
      5:12
      представить, как вообще технологическая цифровая революция происходила и в
      5:17
      каждый уклад, какие компании, собственно, её лидировали, да? Вот шестидесятые, восьмидесятые там это
      5:24
      прадедушки IBMHP, восьмидесятые — это Бумбк, сети связей, а первый интернет, так
      5:31
      называемый буomдткомов, точнее, те, кто его пережили, да? Потом мобильная революция. Как раз вот в эту революцию
      5:39
      мы начали своё время свой бизнес, потому что я помню это моё состояние, когда я впервые, у меня в руках оказался
      5:45
      смартфон такой самый первый и такой самый примитивный. Я просто смотрел и понимал, что ну всё, всё, сейчас всё,
      5:53
      всё теперь будет по-другому. То есть у каждого в кармане оказался компьютер и
      5:58
      дальше всё будет иначе. И то, что сейчас, ну, Cloud SAS, понятно, да, все мы сейчас пользуемся
      6:04
      сервисами по подписке, там Netflix, Кинопоиск, там какие-то другие сервисы.
      6:12
      А, и вот то, что, а, сейчас происходит с появлением компании, там Open AI, Meta,
      6:19
      Nvidia, это претендует на новый уклад, на новый виток.
      6:25
      И следующий большой цикл масштабирования компании будет, скорее всего, именно вокруг этой технологии
      6:31
      сосредоточен. Дальше мы попробуем раскрыть эту мысль. Вот несколько интересных графиков, что, допустим, в
      6:38
      двадцать втором году, мне кажется, на долю GNA приходится треть мирового венчурного капитала. То есть просто
      6:44
      треть всех венчурных денег так или иначе сейчас инвестируется в сегмент генеративно-искусственного интеллекта.
      6:49
      Интересный график, конечно, да. Вот 300 почти там 350 млрд, да,
      6:57
      компании уже потратили на генеративно-искусственный интеллект в двадцать четвёртом году. А и ну самое,
      7:03
      наверное, даже интересное, что сейчас объявлено о проекте Stargate, да? То
      7:08
      есть 500 млрд долларов правительство Соединённых Штатов планирует потратить на постройку дата-центров.
      7:15
      И заявлено это так, как там новый манхэттенский проект, как бы новая технология, которая обеспечит какой-то
      7:23
      фундаментальное такое конкурентное преимущество в мире. А на самом деле, когда мы ещё дальше про это поговорим,
      7:30
      ну вот почему вот эта вот риторика возникает вокруг проекта Stargate и
      7:35
      всего остального, потому что вот когда до этого я показывал слайд, ну, венчурный
      7:40
      капитал — это не показатель, если честно, то есть это просто мода. Ну, какая-то есть технология, все в неё
      7:46
      инвестируют, потом все в ней прогорают, как бы, ну, все мы помним, да, когда была бум был ICO, там крипты там и все
      7:54
      вот эти циклы, когда хомячков дотрабатывают какие-то другие ребята, а
      7:59
      технологии в принципе как-то не прирастают у нас. Это, конечно, другая история. А когда создаются такие
      8:06
      проекты, как Stargate, это заявка на, на самом деле, взлом технологического прогресса.
      8:11
      То есть, если буквально вот посмотреть, а что общего содержательного там у Сио,
      8:17
      там Антропик, там Сэма Альтмана, там Марка Цукерберга и остальных, они все
      8:22
      говорят, что мы как бы поймали Бога за бороду, да? Вот сейчас мы, кажется, нащупали такой
      8:28
      механизм, что мы сейчас способны будем взломать математику, мы будем способ, мы
      8:34
      будем способны взломать научный прогресс, мы способны создать такой интеллект, который будет системно давать
      8:39
      нам открытие, как фундаментальное открытие. То есть это взлом сразу, ну,
      8:44
      как всей экономики. И то есть именно поэтому 500 млрд долларов это не
      8:50
      какое-то безумие, это не какой-то хайп. То есть вы понимаете, да, какая задача поставлена на кон. То есть та, та
      8:57
      страна, там те люди, которые смогут создать такое, это, ну, как сказать
      9:04
      это самое мощное, наверное, оружие будет в руках этих людей там за всю историю человечества. Ну, тут немножко ещё про
      9:11
      VC. Ну, давайте немножко скипнем, да, из интересного, наверное, если здесь есть
      9:16
      представители бизнеса, вот э вот источника Google Cloud, да,
      9:21
      собственно, делали исследование, что 74% организации, они вообще фиксируют рои в Генаи. То есть в целом они говорят, что
      9:29
      да, действительно, мы на это тратим деньги, да, и они отбиваются. Даже будет, по-моему, вот, да, была
      9:35
      статистика, на каждый вложенный доллар 3,7 доллара прибыли. Звучит вообще,
      9:40
      по-моему, прекрасно. Вот, кажется, просто бери и заваливай деньгами эту
      9:47
      технологию. Российские компании тоже не отстают в этой гонке. Вот здесь
      9:53
      пресс-релиз компании AVITA, да, которая 12 млрд руб. А сказал, что
      9:58
      проинвестирует в генеративный искусственный интеллект. А мы в технократии делали вот такую вот хорошую
      10:05
      табличку. Кому интересно, можно по QR-коду собрать. То есть мы делали карту, э, компании в сфере генеративного
      10:12
      интеллекта в России вообще, то есть всех игроков. Понятно, что есть два явных
      10:19
      лидера. Это Яндекс и Сбербанк. Ну, Сбер, точнее, извините, вот как бы Сбер, да, я
      10:24
      поста я осoolл. Аа с огромным отрывом эти компании лидируют в этой
      10:31
      технологической гонке. Есть какие-то компании, которые пытаются как-то догонять, но на данный момент это,
      10:37
      наверное, самые зрелые игроки. И в целом, наверное, можно сказать, что наблюдая такой международный ландшафт, а
      10:45
      приятно, что наша страна, она хотя бы находится в гонке вообще этой. Ну, то есть потому что есть, понятно, там США и
      10:52
      Китай — это просто космос, да? То есть там они оторвались уже в этой гонке очень далеко. Но есть вот второй эшелон
      10:59
      стран, которые как-то не сдаются. И мы вот в эшелоне стран, которые не сдаются.
      11:04
      И что в целом приятно. А давайте теперь непосредственно перейдём, а к разбору,
      11:11
      как мы тут оказались. То есть мы попробуем немножко поговорить о самой технологии, как мы вообще пришли к
      11:17
      большим языковым моделям. Аа я очень люблю троллить, э
      11:22
      психологов, но мне кажется забавно, что их стало так много. Вот и вот этот вот слайд немножко про них. Вообще
      11:30
      получается самый первый раз, когда люди создали диалоговуго бота, этот бот имитировал психолога. Мне кажется, это
      11:35
      довольно смешно. Вот. Второй второй бот, которого создано назывался Пери, да, это
      11:41
      имитация паранодального шизофреника. То есть вот люди начали создавать ботов, психолог, пародальный шизофреник. Ну и
      11:47
      потом был проект Эс, а это, собственно, вот там есть расшифровка, не буду её
      11:53
      перечитывать. А как работали вот эти первые попытки людей вообще создать что-то, что с ними
      12:00
      разговаривает такое синтетическое, скажем так? Они, в принципе, работали примитивно. Это были такие программируемые диалоги. Например, бот
      12:07
      психолог работал так, он постоянно там человек говорил: «Мне плохо». Он говорит: «А почему тебе плохо там? А я
      12:14
      себя там чувствую подавленном. А почему ты себя чувствуешь подавленном?» Ну то есть как бы ничего сложного. В принципе такое там рекурентное переспрашивание
      12:20
      человека о его состоянии. А вот шизофреник, он вообще мог просто сказать какую-то фигню. И в целом такие: «Ну это
      12:26
      же боль шизофреник, как бы почему бы он не мог отклониться?» В общем, это был такой читинг. Конечно, это было всё не
      12:33
      по-настоящему. Взам не было, наверное, какой-то большой технологии. Вот Эс — это тот проект, который отличался от
      12:40
      первых двух, от Элизы и Пеryри, только тем, что было довольно большое количество комьюнити, которые
      12:46
      программировали эти диалоги. Ну, то есть они просто буквально такой как open source комьюнити, который, значит,
      12:52
      прописывал вот если спросить это, тебе ответит это. Если спросить это, тебе ответит это. И огромное количество
      12:57
      пространства таких вот вариаций. Но в целом это, конечно, было очень далеко от того, что мы сейчас
      13:03
      обсуждаем. И тут в чат заходит машинное обучение. Чтобы говорить про машинное
      13:11
      обучение и вообще про языковые модели, а, важно понять будет несколько концепций.
      13:17
      А сегодня, чтобы не перегружать лекцию, я бы, наверное, вот хотел с вами
      13:24
      договориться, что мы не будем говорить скорее про технологии, мы будем говорить про идею технологий. Вот, чтобы понимать
      13:30
      идею того, как работают большие языковые модели, как работает ваш чат GPT,
      13:35
      возможно, даже более фундаментально нужно понять, что такое технология эмбедингов, то есть что такое векторное
      13:42
      представление слов. Обещаю, это самый сложный слайд из всех. больше таких не будет. А в чём была
      13:50
      революция на самом деле? Аа давайте даже вот так сделаем. Я сначала сюда
      13:55
      перепрыгну, а потом обратно. Так будет логичнее с точки зрения нашего нашей
      14:01
      структуры. Можно рассмотреть три больших этапа в том, как мы дошли до непосредственно чат GPT, вот и всего,
      14:08
      чем вы сейчас пользуетесь, дипсиков и там всего остального. Я бы выделил цепи Маркова, рекурентные нейронные сети и
      14:15
      непосредственно трансформеры. А чтобы понять идею трансформеров, нам
      14:23
      нуже, очень важно будет понять идею, а эмбедингов. Но давайте ещё раз начнём отсюда. Цепи Маркова — это такая
      14:32
      задачка, когда у вас есть слово. Представьте, что вы можете вот вообще посмотреть весь текст в мире и просто
      14:39
      посчитать, сколько раз после одного слова встречалось другое. Ну, в целом понятно. Да, представте, вот вот весь
      14:45
      текст в мире вы посмотрели почему-то и вы можете посчитать такую вероятность, что после там я чаще всего там пошёл,
      14:53
      допустим, слово возникает, и вы предсказываете. Каждый сталкивался с реализацией аля цепей маркова
      15:00
      алгоритмов. Это, например, Т9. Ну, то есть вы там пишите и дальше вот вам снизу подсказывают. Это довольно лёгкие
      15:06
      алгоритмы. Они там хорошо работают на нетребовательных к вычислению в машинах.
      15:12
      До сих пор, мне кажется, возможно такой логикой, что это работа, хотя я не уверен. Дальше эта задачка
      15:19
      эволюционировала в то, что а давайте попробуем не слово за словом просто угадывать, а какие-то комбинации слов.
      15:26
      Ну вот, например, я сегодня пошёл и там дальше там домой, допустим, да? То есть
      15:32
      как бы, ну, какие-то, ну, очевидно, что язык так не строится, да? То есть мы не говорим такими заготовками фраз. И это,
      15:38
      в принципе, задача тоже, которая большого смысла не имела. Но в чём принципиальное отличие? Это уже была
      15:44
      задача, которая пыталась поставить вопрос, какое слово будет дальше. То
      15:50
      есть принципиально дальше мы будем говорить об этих вещах. И вообще, как бы, когда вы, может быть, слышали, что
      15:56
      чат GPT — это такой просто сложный Т9, да, вот и в целом это не такая уж и неправда, да, в каком-то смысле это
      16:03
      действительно попытка предсказывать следующий там токен, если быть точно ни слова. Вот дальше появились нейронные
      16:10
      сети, да? То есть давайте здесь приведём тоже разницу, наверно, то есть как разного,
      16:16
      а, разного уровня подготовки, возможно, аудитория, когда был слайд про машинное
      16:22
      обучение, чем отличаются вот алгоритмы и сегмента машинного обучения от обычных алгоритмов? Если сказать совершенно, ну,
      16:30
      так очень просто, то это алгоритмы, которые могут учиться. То есть обычные алгоритмы, мы их прописываем и вот всё,
      16:37
      как бы от них нельзя отступиться. Налево, направо, есть определённые условия, а, и мы не можем никак выйти за
      16:43
      границы этих условий. Машинное обучение — это алгоритмы, которые могут учиться, да, есть подкласс алгоритмов, да, как бы
      16:49
      казатся нейросети. Вот большой прорыв сделали рекурентные нейронные сети. Это
      16:55
      задача RN — это как раз там recurrational там NARAL network, да, собственно. Вот. И эта задача, которая
      17:03
      помогла уже понимать как скажет, мы можем дать навод алгоритма уже
      17:09
      предложения, а наша нейронка может, скажем так, скармливать ей по одному
      17:15
      слову. И непосредственно из-за алгоритма рекурентности, да, изза вот это свойство
      17:20
      рекурентности, то у этого алгоритма впервые появляется память. Вот тут, кстати, опечатка LSTM должна быть у нас
      17:27
      это long termory, то есть такая задачка, когда, собственно, алгоритм получает на
      17:33
      вход предложение. Он, например, допустим, там, не знаю, а я сегодня пошёл в лес в
      17:41
      Подмосковье, да, и он может запомнить, что лес и что я пошёл в лес, какое-то
      17:48
      важное слово в Подмосковье. и каким-то образом запомнив вот этот GeОТЕК, как-то
      17:53
      более-менее адекватно мне выдать ответ или в целом как-то адекватно отреагировать на этот запрос. Но
      17:59
      рекурентные нейронные сети, в чём была их главная проблема? Они, когда алгоритм, скажем так, скармливается, ему
      18:06
      скармливаются по одному слову, это очень тяжёлое вычисление, то есть так много текста не переработаешь в целом. Вот. А,
      18:12
      long short term memory, да? То есть это, несмотря на то, что эта задачка пыталась решить проблему с памятью, была проблема
      18:18
      контекстного окна, была проблема так называемого исчезающего градиента. То есть просто память о вашем тексте, она
      18:24
      со временем, скажем так, растворялась. То есть уже под конец, если слишком большой текст, уже было тяжело, серьёзно
      18:31
      запомнить, что было в начале. А на самом деле это довольно продвинутая технология. На ней долгое время работали
      18:37
      и Googleпереводчик, и все вот эти переводчики там, ну, там как раз такие небольшие тексты переводили. В целом для
      18:44
      запоминания этого контекста это как бы работало. Но настоящий прорыв совершили
      18:50
      трансформеры. И чтобы поговорить о трансформерах, мы сначала поговорим про
      18:56
      эмбединги. Как вообще слова представить в векторе? Допустим, у нас есть такие
      19:02
      вот фразы: «Вот лампа горит, фонарь горит, там, не знаю, кошка ест, собака упала». То есть мы можем, скажем так,
      19:10
      вот подлежащее, да, исказуемые как-то вот выписать по столбцам и столбикам. И мы можем, скажем, поставить
      19:17
      единичку там, где адекватные пересечения. Ну, скажем, вот лампа горит — это адекватно, а горит кошка — это
      19:23
      уже, ну, как бы не очень адекватно. Вот. Хотя, да, вот. А, и таким образом
      19:31
      представьте, что мы можем по строчкам и по столбцам, ну, просто все слова поставить. Ну, то есть вот отношение
      19:38
      каждого к каждому просто. Ну, это получится довольно бессмысленная матрица, в которой очень много нулей.
      19:44
      Ну, то есть где-то слова будут пересекаться адекватно, но в целом это будет такая огромная размерность, где будет
      19:50

      И, а, поэтому придумали мбединги. Ммдинг — это, по сути, вложенность. Не
      19:56
      будем сейчас усложнять, но скажем, что вот эту огромные вот эти матрицы с нулями сжали так, чтобы они были просто
      20:03
      содержательные, чтобы машины их могли проще обрабатывать. Но возникала проблема,
      20:09
      допустим, слово коса, да? Коса может быть там причёска у девушки, а коса
      20:15
      может быть это коса, которая, собственно, косит. Вот обычно имбединги не могли понимать
      20:20
      этот эту разницу, и тогда появились контекстуализированные эмбединги, да, вот
      20:28
      эмо зависимости от того, какой контекст слов вокруг, мы можем понимать, коса —
      20:34
      это всё-таки речь идёт о причёске или всё-таки речь идёт о косе, которая косит
      20:40
      траву. И вот это стало одной из самых важных парадигм. То есть люди поняли,
      20:46
      как можно в вектор упаковать наш язык. А
      20:52
      дальше А дальше появилась технология трансформеров с механизмом внимания. Всё
      20:58
      началось вот с этой статьи. Тут мне так нравятся наши дизайнеры, они поставили QR-код. Я буду
      21:05
      очень рад, если кто-то действительно, конечно, прочитает эту статью, но вдруг вы там решитесь. Вот. А, ну, ребята, в
      21:11
      принципе, с техническим образованием или там действующие студенты вполне себе могут попробовать.
      21:18
      Вот. А эти люди навсегда себя вписали в историю, да. Вот есть даже там Илья
      21:23
      Палюшкин, кажется, и статья, мне кажется, по уровню, во-первых, она классно названа. Attention is all you
      21:30
      need, да, собственно, отсылка к песни Beatles явная. А, во-вторых, статья, наверное, по уровню
      21:36
      там исторического влияния такая же, как статья в своё время Аллана Тюринга, да,
      21:43
      который рассуждал впервые задался вопросом, могут ли машины мыслить. Ключевая история ври в трансформерах,
      21:50
      это алгоритм внимания. Помните, я говорил, что в рекурентных нейронных сетях, если вы подаёте огромное
      21:57
      предложение в нейронную сеть, она может вот так вот по одному эти слова потихоньку
      22:03
      перерабатывать. Где-то она пытается запомнить, что было в начале, обрабатывая уже последнее слово в
      22:08
      предложении. На больших масштабах эта штука вообще перестаёт начинает плохо работать, потому что вот эта
      22:15
      функция памяти плохо реализована. Так вот, трансформер — это технология, которая стала возможна благодаря двум
      22:21
      вещам. Во-первых, прогресс а в вычислениях. То есть компания Nvidia представила видеокарты, по-моему, как
      22:28
      раз, где можно было заниматься параллельными вычислениями. И трансформеры — это были
      22:34
      алгоритмы, которые теперь вот представьте, вы подаёте предложение на вход, и оно одновременно параллельно
      22:42
      анализирует каждое слово. Более того, оно анализирует, как каждое
      22:47
      слово связано с другими словами. То есть по появилась возможность параллельно
      22:53
      огромные куски текста анализировать и понимать, что, собственно, каждое слово, как оно относится к друму, да, слову в
      23:01
      этом плане. И то есть это принципиально изменило вообще всё. То есть как раз аа
      23:06
      вот эти все GPT истории, когда люди смогли буквально скармливать невроные сети, огромные массивы тексты из
      23:13
      интернета, они работают, потому что в своё время появилась вот эта вычислительная возможность. И сам по
      23:18
      себе механизм трансформера позволил это реализовать. Тут есть понятие вот self
      23:23
      atttention, да? То есть внимание — это, собственно, как бы есть отдельная нейронная сеть, которая смотрит на
      23:30
      входные параметры, и она как бы обращает как бы там есть даже понятие такое
      23:35
      мультиhead attention, да, то есть много голов внимания. То есть вот эти большие
      23:40
      языковые модели, они как бы способны с очень много с разных углов задать вопрос
      23:47
      тексту: «А как это относится к этому? А как это относится к этому? А как они связаны, допустим? А является ли это
      23:53
      именным нарицательным? А является это подлежащим? А является лисказуемым? А является ли числом? И и огромное
      23:58
      количество таких параллельных вычислений позволяет, в принципе, упаковать вот этот огромный массив текста в то, что
      24:04
      более-менее как бы понятно уже машине и с чем, собственно, дальше можно работать. Я вот так даже такую
      24:11
      вот, мне кажется, очень красивые видео просто, как они работают. Этим механизм
      24:18
      внимания. То есть вот буквально, когда вы вам отвечает чат GPT, можно представить, что в векторном
      24:24
      пространстве, как я показывал, вот начинается такой вот процесс.
      24:33
      might prively geted and by blocks that by the end points in
      24:51
      moreancлизация в трёхмерном пространстве, но понятно, что реально это многомерное пространство, которое,
      24:57
      ну, мы не можем представить. Это некая проекция в трёхмерное пространство. Но в целом суть примерно такая. Вот помните,
      25:03
      была картинка, где я вам показывал фразы, как они в матрице связаны между собой с помощью нуле единиц. Вот. А в
      25:10
      принципе, когда вам отвечает чат GPT, он вот этот примерно вот такой скользящий
      25:16
      вектор по этому многомерному пространству, который просто вот после вычисления решил, что вот эта вот
      25:21
      вероятность прохода, она наиболее, а, наиболее точным ответом является на то,
      25:26
      что вы спросили. То есть фундаментально. Вот дальше там есть разные вариации того, как это эволюционировало, работало
      25:32
      и прочее, но суть этого принципа она не изменилась. Важно, наверное, проговорить, что есть, э, появились
      25:39
      думающие модели. То есть то, что мы сейчас то, что мы с вами сейчас до этого обсуждали, да, это просто модели,
      25:45
      которые как бы ты вот первые варианты там чат GPT были такие, ты просто спросил, они тебе просто как бы отвечают. То есть там не было вот этого,
      25:52
      то, что называлось, да, то, что машина не могла между вашим запросом, она вам сразу генерила ответ. То есть
      25:59
      современные современные поколение моделей — это все модели уже, собственно, с так называемым мышлением.
      26:04
      Хотя мне этот термин не очень нравится, но так или иначе. То есть у них возникает вот эта вот прослойка, где они
      26:11
      начинают, а, применять, так скажем, когнитивные стратегии, имитируют
      26:17
      человеческую рациональность, чтобы понять как бы, что вы спросили, как
      26:22
      нужно себя перепроверить, чтобы непосредственно и более точно вам ответить. Мы там чуть более подробно дальше проговорим про это, но суть
      26:28
      примерно такая же. Вот чем отличаются, собственно, думающие от недумающих моделей, да? Вот обычные модели, они
      26:34
      просто предсказывают следующий токен по вероятности. Вот мы с вами только что видели, вот как этот вектор скользит по
      26:39
      трёхмерному пространству. Это было просто предсказание следующего токена. Они могут там застревать в каких-то
      26:45
      шаблонных ответах. То есть иногда могут просто не понять простой вопрос, потому что они просто обучены. Вот что делает
      26:52
      open, да, когда они вот есть понятие такие запечённые модели, то есть они просто как бы скрабят весь интернет,
      27:00
      запекают этот текст какую-то модель, если ну и просто пытаются угадывать символы или токены. Поэтому иногда даже
      27:07
      простые задачи, типа там сколько будет 2 + 2, они могут там неправильно отвечать, да? Это первое время были какие-то
      27:12
      простые ошибки, потому что задача сложение, она не является вот классической задачей для предсказывания
      27:18
      следующего токена в классической постановке этой задачи. Вот. А они не отслеживают внутреннее состояние, то
      27:24
      есть там нет понимания того, что там до этого на тебе отвечало. И тут написано
      27:30
      плохо объясняет, они просто не объясняют, почему они пришли к ответу. думающие модели, они вот как бы строят цепочки логических рассуждений,
      27:37
      адаптируются, моделируют, объясняют ход мысли. Вот
      27:43
      есть такая одна из ключевых концепций, наверное, которая реализована, а это
      27:49
      называется цепочка мыслей, да? То есть кто пользуется дипсиком? О, ну класс вообще. Ну,
      27:56
      значит, вы вот как бы видели, то есть видели, как в DeepsК, э, визуально
      28:01
      реализован, да, как он размышляет. То есть, если вы ставите режим, а, думающий нейронной сетки, он прямо вам
      28:07
      рассказывает, собственно, как он пришёл к этому. То есть, по сути, он имитирует определённую рациональность. Цепочка
      28:12
      мыслей — это, по сути, как бы, мне кажется, даже интуитивно понятная история, что люди поняли, что есть
      28:20
      довольно крутой универсальный инструмент в виде трансформера, в виде языка. Я не
      28:26
      очень люблю Харари, но он, мне кажется, хорошую вещь сказал, как бы вот как метафору. Он сказал, что в принципе языковые модели как бы хакнули
      28:33
      операционную систему мышления человечества, да? То есть язык — это наша операционная система, да? В каком-то смысле мы придумали в виде
      28:40
      больших языковых моделей, как вот классно можно довольно универсальные системы создавать. И вот люди начинают,
      28:45
      собственно, вот использовать различные когнитивные стратегии, применять различные логические подходы, а пытаться
      28:52
      вот различную рациональность применять к тому, чтобы вот эти ответы вытачивать из того, в принципе, что есть
      28:57
      уже. Вот. Ну вот для тех, кто не видел, да, собственно, вот как работает непосредственно Chin of Think Chain of
      29:04
      V.
      29:15
      Собственно, вот, ээ, можно посмотреть, как он сам себя перепроверяет для того, чтобы прийти к
      29:22
      тому, что чтобы ответить на ваш вопрос. То есть, в принципе, это просто, как
      29:28
      сказать, рациональное мышление было бы обычного человека. Но если верить Даниэлю Каноману, то мы,
      29:37
      в принципе, очень тяжело остаёмся рациональными. Нам, людям, очень тяжело пребывать вот в этом состоянии системы
      29:44

      Да, это машина способна пребывать в этом состоянии всегда. А давайте так. Вот мы только что сейчас проговорили
      29:51
      про, попробуем небольшой там такой самап сделать. Мы проговорили про то, как
      29:57
      задача, попытка поговорить с машиной переросла от диалогов к попыт предсказывание следующего слова. Мы с
      30:04
      вами просмотрели определённый путь от цепей Маркова рекурентных неровных сетей до трансформеров. И мы пришли в какое-то
      30:11
      состояние, где мы посмотрели, как эти машины стали думающими, да? То есть, э, вот когда я говорю про Chaйote или я
      30:18
      говорю, что вот, э, вот здесь как бы смесь экспертов называется, подход, это
      30:23
      всё, ну, мне очень нравится термин когнитивные стратегии. То есть сейчас все компании пытаются вот экспериментировать с тем, а как же так
      30:29
      вот построить выдачу, чтобы сделать её чуть более экономичной, чуть более правильной, чуть прочее. Вот Mixure of
      30:35
      Expert — это такая же история. Вот, допустим, а это же очень ещё прожорливые
      30:40
      машины, очень дорогая выдача, да? То есть, собственно, очень дорого стоит вся эта инфраструктура. В это так просто не
      30:46
      поиграешь. И вот есть такая концепция, что давайте вот в этом большом синтетическом мозге разобьём его на
      30:52
      большое количество таких маленьких мозгов, которые хорошо умеют решать какие-то конкретные задачи. Например, вот есть там э мозг, который умеет там
      31:00
      складывать числа или умножать их хорошо. А есть мозг, который там умеет, не знаю, отлично запятые расставлять. А есть
      31:05
      мозг, который там понимает что-то ещё. Вот он понимает, что получает на вход, что такое 1 + 1.
      31:13
      И алгоритм говорит: «Так, это срочно, это точно к мозгу математику». Вот мы
      31:18
      других другие мозги тут не трогаем. То есть нам не нужно все это вычисления большие проводить. Мы просто как бы вот
      31:25
      такой стоит роутер, который понимает вообще в чём суть запроса и активирует небольшую часть вот этого маленького
      31:30
      синтетического мозга, чтобы не сожрав огромное количество электричества, а,
      31:36
      выдать нам какой-то точный ответ. чтобы вы понимали, насколько это действительно
      31:42
      важно. Вот мне попадалась на глаза табличка такая: почему какие-то страны в
      31:48
      принципе смогут в эту гонку играть? И там мне понравилось, было несколько
      31:54
      ключевых критериев. Ну, первое — это типа компетенции и кадры, что, в принципе, в стране должно быть какое-то
      32:00
      количество специалистов, которые там способны заниматься такого рода задачами, там школа, образование и
      32:06
      прочее. Это вычислительные мощности. Страна должна либо производить чипы, либо иметь возможность их
      32:13
      закупать. А, и третий важный фактор — это дешёвое
      32:18
      электричество. То есть это настолько прожорливая штука, что есть такая шутка даже, что это в целом просто вот бизнес
      32:23
      по продаже электричества. Ну то есть вот если посмотреть, что такое тебя GPT, то есть это огромные машины, которые сжирают просто. А и поэтому, когда
      32:31
      Росатом строят дата-центры, эти ребята что-то понимают. Ну, как бы мне кажется, они, то есть,
      32:37
      здесь критическим является вообще просто дешевизна энергии, когда поэтому вот
      32:43
      почему я как важную архитектуру эту выношу, потому что сейчас по сути в мире идёт гонка, как эти модели сжать. Вот
      32:50
      глобально, да? Дальше мы перейдём к там кейсам, наверное, более такой уже прикладной истории. Но вот прежде чем перейдём, я хотел сказать, что вот что
      32:56
      сейчас происходит. Мы создали вот эти большие модели. Они имеют там много
      33:01
      параметров, да? То есть они они довольно тяжёлые. И в целом сейчас все конкурируют за то, чтобы как сделать так
      33:07
      называемые там дистилированные модели или там а сейчас такая довольно мотная концепция квантизации данных, да? То
      33:14
      есть попытка сделать так, чтобы в идеале вообще в вашем смартфоне жила языковая
      33:19
      модель и она вообще жила там нативно, то есть вообще без выхода в интернет. Она полностью там умещалась, был отдельный
      33:25
      чип, который был способен делать вам хорошую выдачу. И в принципе вот в вашем смартфоне есть такой супер-пупер мозг.
      33:33
      который без выхода в интернет, без убивания вашего смартфона за час там
      33:39
      использования способен будет давать какое-то адекватное качество.
      33:46
      Я, кстати, а мне кажется, мы не проговорили про вопрос-ответ, но мы уже довольно глубоко зашли, поэтому я
      33:53
      предлагаю, что если у вас есть вопросы, мы просто их в конце зададим. Ок. Мы не проговорили прави, так что копите их.
      34:01
      Давайте теперь немножко про бизнес проговорим, да, собственно, как это всё
      34:06
      применять в бизнесе. Мы же вообще поэтому собрались, скажете, тут лекцию
      34:11
      читать. А одна из самых популярных архитектур, как это применять в бизнесе
      34:17

      это архитектура RAC, да, то есть Retrieval Argument Generation. А почему вот как сказать? Можно просто,
      34:24
      кажется, людям купить кучу лицензий, там, Chat GPT или там Яндекс GPT и всем раздать, сказать: «Вот, пользуйтесь и
      34:30
      вообще вот всем благо и и всё будет хорошо». Но проблема в том,
      34:35
      что большие языковые модели ничего не знают про ваш бизнес. Они учатся на открытых данных. Они просто буквально
      34:41
      бегают по интернету, забирают все открытые данные, даже не все данные, да? То есть как бы а у вас в бизнесе есть
      34:47
      какой-то контекст, все ваши таблицы, там регламенты, какие-то стратегии. То есть
      34:53
      он, чат GPT, ничего про это не знает. Это языковая модель про это не знает. И тебе хочется, чтобы применить вот этот
      34:58
      мозг, но к тому контексту твоей компании, чтобы она вообще начала что-то понимать о том, что что, собственно,
      35:05
      этой компании происходит. Итак, появилась концепция рак. Собственно, что такое это? Вы создаёте как бы отдельную
      35:12
      векторную базу знаний. Мы уже все знаем, что такое векторизация, да? Мы только что вот мы просто берём огромное
      35:18
      количество текста, которые у вас есть, вот так, э, в ящик один сваливаем и превращаем его в векторные
      35:23
      представления, как вот мы до этого уже, собственно, разбирали. Там есть это целые отдельная
      35:29
      холиварная тема, там какие есть алгоритмы векторизации, там алгоритмы
      35:34
      поиска и прочее. Там, на самом деле, сейчас у каждого студента есть стартап, связанный с ракплатформой. То есть потому что это, в принципе, порог входа
      35:42
      в эту платформу, он не такой тяжёлый. Все ломанулись их делать. А я не знаю, чем это закончится.
      35:50
      То есть мы внутри тоже сделали свой рак. Мы, ну, мы не чтоб продавать, потому что нам внутри просто внутри компании самим
      35:56
      нужен был векторизатор данных, чтобы мы внутри могли с ним работать. Мы его не продаём, потому что мне кажется, что
      36:02
      глобально на этом рынке, конечно, его всё равно рано или поздно съедят облачные провайдеры. То есть это рынок
      36:08
      там Яндекслауда, это рынок там Сбера, там, не знаю, Ростелекома, кто там, кто
      36:13
      там ещё, собственно. непосредственно продаёт облачную инфраструктуру им, потому что ничего не стоит воткнуть ещё
      36:19
      ГПУ, воткнуть как бы рак как какую-то прослойку и дать пользователям как бы определённый интерфейс для
      36:25
      взаимодействия уже вот, собственно, с какими-то данными. Вот. А что такое рак,
      36:30
      да? Вот давайте ещё раз проговорим. То есть когда вы используете рак-платформу, это значит вы можете создать такую, как скажем, базу знаний в
      36:37
      компании, да? Вот вы собрали все свои документы, регламенты, стратегии, и теперь вы можете начать что-то спрашивать вот у этой языковой модели
      36:43
      про вашу компанию. от каких-то простых. У нас, допустим, в компании дальше будем кейсы перечислять, есть какие-то простые
      36:48
      вопросы, допустим, как получить там, не знаю, разрешение на отпуск. Ну просто
      36:55
      человек вместо того, чтобы HR учить вопросами, он задаёт, а эта система уже всё знает, она просто ему отвечает. Вот
      37:00
      как вам чат GPT отвечает, ровно так же. Вот идёшь к тому, пишешь то, берёшь, то, пишешь, что, собственно, как бы, ну, и
      37:05
      таким образом, как бы экономится время на вот этой бесполезной коммуникации. как бы есть такой, как бы у вас в
      37:10
      компании появляется такой мини-мозг, который знает всё о вашей компании, всё о ней помнит и в целом
      37:17
      может ответить по широкому кругу вопросов. И то, насколько широкий круг вопросов, зависит только от вашей там
      37:23
      паранойдальности, да? То есть вы можете в него скармливать вообще всё: чувствительные данные, там финансовые
      37:29
      данные и прочее. И, в принципе, создавать такие сценарии использования вот этих рагов.
      37:35
      чтобы там, не знаю, там, допустим, и для топ-менеджмента какие-то вопросы решать, аналитические вопросы решать. А если вы параноик, ну, то вы там останетесь на
      37:42
      уровне каких-то не очень чувствительных данных, которые, ну, ответят и ответят. В общем, сейчас а с рагами
      37:50
      очень прикольная история. В сегменте тех, кто занимается генеративный искусственный интеллект, ты говоришь рак
      37:55
      и такие типа: «Фу, что это ты уже вообще отстал». Кто-то вообще это первый раз, наверное, слышит. Ну то есть потому что
      38:01
      вот на, например, сейчас уже на смену Рагу приходят там новые концепции. Допустим, те же там MCP от это от
      38:08
      антропика, да, они выкатили протокол взаимодействия с агентами. То есть, где не просто у вас есть, мы сейчас дальше
      38:14
      будем говорить про агенты, но, так скажем, более продвинутые версии того, чтобы не просто вот скормить все свои
      38:20
      знания в какую-то векторную базу знаний и просто её спрашивать, а чтобы какие-то более сложные действия с ней выполнять,
      38:26
      да, то есть и вот как бы сейчас уже мы на пороге, когда мы рак как бы перескакиваем, сейчас следующие там
      38:31
      платформы агентов уже идут, они немножко на другой логике начинают работать. И, кстати, интересное наблюдение. Мне
      38:37
      кажется, что, ну, я как бы в этом бизнесе примерно 10 лет, но я впервые
      38:44
      чувствую вот насколько ускоря, насколько быстро вот всё меняется. Такого не было. То есть когда была мобилизация, такого
      38:51
      не было, когда были там блокчейны, такого вот как бы такой скорости не было. То есть я вот сейчас сам 100% там
      38:57
      не в курсе, сколько там новых версий вышло у там чат GPT, у всех остальных, чем они отличаются и прочее. То есть,
      39:04
      буквально каждый следующий релиз, он просто хоронит тысячи стартапов, которые до этого решали какую-то проблему. И это
      39:10
      очень интересно, конечно. Втони создаются, поднимают деньги, там новый релизчат GPT такие: «Всё, нет компании».
      39:16
      Потому что как бы следующая модель уже умеет это делать из коробки. И непонятно, где здесь как бы гонка ещё
      39:22
      очень активная, как бы нет вот этого статуса кво ещё. Это как бы не зафиксировалось. То есть непонятно реально, как вот где здесь делать
      39:28
      бизнес, пока большие дяди как бы не подерутся и не разберутся, кто здесь главный. Это, в общем, довольно
      39:34
      интересное и волнительное состояние. Вторая важная концепция, то есть когда мы говорим про внедрение
      39:41
      генеративно-искусственного интеллекта в бизнес, мы должны знать, что такое рак. Про рак мы только что поговорили. И мы
      39:48
      должны знать, что такое агент. То есть это, наверное, вторая история, которую сейчас как бы, если вы не знаете, это
      39:53
      тяжело. Агент — это в каком-то смысле, как такое назовём, маленький
      40:00
      синтетический мозг, который использует большую языковую модель, чтобы более-менее автономно решать задачи. То
      40:06
      есть он понимает цели, планирует шаги, принимает решения. Он может сходить в поисковик, что-то там сам спросить, если
      40:12
      надо что-то сложить, что-то вычесть, что-то умножить, что-то перепроверить. И в целом может самостоятельно выполнять
      40:17
      какие-то сложные действия. То есть он может даже какие-то перепроверить ваши ошибки, прочее. То есть такой, а, автономный кусочек мозга, который очень
      40:24
      хорошо научен что-то делать. Вот помните, мы с вами говорили про концепцию там mixture of expert, да,
      40:29
      когда смесь экспертов. Ну, в каком-то смысле, вот если представьте, вы в компании выстроили такие цепочки агентов, которые очень классно
      40:36
      автоматизируют какой-то тип бизнес-процесса. Ну, и в целом вот на каждой цепочке что-то происходит.
      40:42
      разница от тех же RPA или там алгоритмов, которые до этого существовали, от автоматизации
      40:47
      предшествующей, что это всё способно работать довольно гибко, то есть не надо его жёстко программировать. Он он может
      40:53
      сам сходить в интернет, что-то найти, он может сам что-то перепроверить, что-то убрать, что-то удалить. То есть это
      40:58
      впервые мы получаем такую как бы гибкость. Мы действительно получаем синтетический мозг, который довольно
      41:04
      вариабелен с точки зрения решения задач. И то есть огромное количество задач в мире не покрывалось теми алгоритмами,
      41:11
      которые были созданы как бы, скажем, предыдущей технологической волне. Есть отдельно холивар, что
      41:17
      считать агентами, а что не считать агентами. Вот мы нашли у себя инсайт такую табличку, что вообще, если
      41:23
      посмотреть, как агенты развивались, кто-то кто-то сейчас говорит: «Вот мы делаем агентов, а это просто чатбот». Ну то есть они там напрямую
      41:30
      там, не знаю, ашки там чат GPT подключили, что-то это работает. Это как бы не агенты ещё, да? Собственно, есть
      41:37
      копилоты и ассистенты, да. Вот это, собственно, есть reasoning, да, то есть есть какоя-то логика мышления.
      41:44
      Вспоминаем концепцию Chain of Vote, вспоминаем, как работает deeps, да? То есть и есть external memory, да? Внешняя
      41:49
      память, допустим, векторная база знаний. То есть он может думать, и у него есть внешняя память, куда он может, если что,
      41:55
      сходить, забрать ваши данные, что-то вам ответить. Но это ещё просто капайты и
      42:00
      assistance. Вот в этой логике, да, агенты начинаются, когда вот там есть как reasoning, external memory, да, вот
      42:06
      и tool use, да, то есть когда у него есть какие-то инструменты. Допустим, у него под капотом есть выход в поисковик,
      42:11
      он может выход в какой-то калькулятор, выход в что-то ещё, в какое-то количество сервисов, а, которые,
      42:17
      собственно, он может выйти и что-то сделать. Вот, допустим, например, протокол MTP, про который я говорил, он из капота имеет интеграции в большое
      42:23
      количество сервисов, там для написания кода, для создания дизайна и прочее. И в целом его можно более высокоуровневом
      42:30
      ставить задачи. Типа там иди, пожалуйста, там типа переработай мне главную страницу, там попробуй и сделай
      42:38
      её более там конверсионной. Он может попробовать сам уйти там в Фигму сходить, что-то забрать, сам уйти там в
      42:44
      курсор, что-то написать, что-то ещё. То есть, ну, как я пример привожу. То есть он понимает, что вы его спросили. Он сам
      42:51
      сходил в различные системы, забрал оттуда данные, пересобрал и выдал вам эту сборку.
      42:57
      То есть вот это уже такая претензия на автономность. Ну и вот полностью автономные агенты. Тут ещё добавляется
      43:03
      плнинг. То есть непосредственно они могут как бы ещё и в будущее как-то простраивать эти задачи, собственно,
      43:09
      планировать. Говорю, это такая история, она вот прямо сейчас идёт дискуссия, как бы что считать агентами, что не считать
      43:16
      агентами. Но считается, что вот на смену того, что вот мы говорили про рак, будет
      43:23
      приходить МАЗ Multi agent system, да, что как бы вот в компании будут теперь
      43:28
      вот сейчас как в компании, вот у нас есть бизнес-процессы, допустим, бизнес-процесс продаж, он типа есть
      43:34
      примерно у всех. Вы там можете быть там шаурмечной, а можете быть заводом, у вас
      43:39
      есть отдел продаж. И у тех, у других есть процесс продаж, а продажа автоматизируется через CRM. То есть, как
      43:45
      сейчас цифровизация до этого строилась. Были бизнес-процессы, мы эти бизнес-процессы как бы
      43:51
      отрефлексировали, мы их абстрактно представили. И вот эту абстрактную логику мы закодили в какие-то системы,
      43:57
      допустим, в CRM. То есть CRМ примерно как-то работает. И есть базы данных, не
      44:03
      базы знаний, базы данных. Есть вот эта система, где у нас данные хранятся. По какой-то логике они проходят, люди в них
      44:09
      работают, ускоряет работу. В чём интерес именно почему? Ну вот, в том числе я начинал с этого лекцию. Почему мне
      44:16
      кажется, что это это более чем любопытно? Потому что, в принципе, вместе с логикой вот этих мультиагентных
      44:25
      систем вот либо будут новые бизнес-процессы у нас вообще, ну, потому что представьте, это же вообще всё
      44:31
      по-другому. То есть у тебя есть в компании просто куча синтетических мозгов, которые сами могут довольно
      44:37
      автономно решать большое количество задач, связанных с знаниями. Ну, так называе knowledge worker, да? То есть
      44:42
      те, кто работает со знаниями абстрактными. Вот. Либо такие умные компании, как Sales Force, они
      44:50
      максимально начинают сами сейчас уходить в гна и пытаться вот эти свои процессы встраивать вот эту логику, чтобы
      44:56
      автоматизировать, потому что они понимают, что если они сейчас не станут вот с этой логикой работать, эта логика
      45:02
      их просто снесёт. Просто это вот эта волна полностью заменит эти бизнесы, потому что люди через 10 лет будут
      45:07
      работать по-другому. То есть там приходишь такой на работу, да, такой вот привет, Джонни. А Джонни тебе отвечает,
      45:13
      говорит, что там, как там продал вчера. Говорю, да вообще иди вот отдыхай. Я там за тебя всё сделал, как бы нажми,
      45:19
      подпиши, пожалуйста. Просто я ещё подписывать просто не умею. Ну или там мне не разрешают. Я сейчас утрирую, но в целом этот
      45:26
      довольно большой простор для фантазии создаёт, что когда у тебя большое количество агентов, которые довольно
      45:32
      универсальны, то есть они буквально как люди теперь способны более-менее универсально решать, а ещё они они
      45:37
      способны быть перманентно рациональны. Ну то есть люди вообще очень у людей очень плохо с
      45:43
      рациональностью. Вот это, мне кажется, один из больших сегментов. Вот у Каномана были, по-моему, примеры, что там судья в каком-то штате выносит
      45:50
      больше обвинительных приговоров ближе к обеду, потому что он просто голоден к этому времени. Ну то есть это даже в
      45:56
      каких-то очень таких важных вещах люди не ведут себя, как сказать, рационально.
      46:01
      А, конечно, эти системы в этом плане намного более там эффективнее, да, что они рациональность, как говорится, у них
      46:07
      зашита в базе. Так, ну и вот эту, наверное, такую
      46:12
      теоретическую, абстрактную часть мы сейчас попробуем подвести к итогу и
      46:17
      немножко посмотреть, а что вообще реально-то происходит, где вообще это применяют. То есть мы сейчас разобрали с вами такие общие концепты
      46:24
      генеративно-искусственного интеллекта, где применяются. Вот, э, мы забрали такой
      46:30
      хороший слайд из презентации ВКонтакте, как компания применяют генеративный искусственный интеллект, да? То есть в
      46:35
      целом можно пофоткать, посмотреть. видно, что наибольшую часть — это в клиентской
      46:43
      поддержке. Ну, что в целом логично, потому что я вот ненавижу общаться с
      46:48
      ботами в банках. Я всегда захожу такой, говорю: «Вызови оператора». Но в последние годы я начал общаться с
      46:54
      ботами. То есть я понимаю, что, допустим, в каких-то компаниях, где применяются, собственно, языковые
      46:59
      модели, я не понимаю уже, кто мне отвечает. Ну, то есть мне так хорошо отвечают, что там могут пошутить, что-то
      47:05
      сказать, что я даже А у Яндекса я даже не понимаю как-то я впервые себя поймал
      47:11
      на том, что я не понял, что я разговариваю не с ботом поддержки в аудио. То есть там так классно мне
      47:16
      отвечал голос, что я такой не сразу понял, что меня консультирует не человек. Ну, то есть понятно, что так
      47:21
      как это большая языковая модель, то в первую очередь автоматизация вещей,
      47:26
      связанных с коммуникацией, ну, это такой первый эшелон сервисов, который просто будет как-то изменён.
      47:34
      А вот ещё интересный кейс, что GI создаёт документации для IPO за несколько минут. Вообще в финансах,
      47:41
      кстати, вот это вот кейс Goldman Sax, а вот андеррайтеры, которые обычно берут
      47:46
      процент от IPO, там какая-то очень сложная задача, прочее, да? То есть, в принципе, когда у тебя довольно
      47:53
      структурирован процесс, довольно понятно описана логика, даже если это она не дискретная логика, но она укладывается в
      48:00
      какую-то инструкцию, какие-то знания, которые можно уложить в цифры, в текст, в прочее, скорее всего, ну, она не то,
      48:07
      что за человека полностью справится, ну, там на 90% эту работу может выполнить. Вот. И мы сейчас сами консультируем
      48:13
      несколько банков. И мы видим, как активно именно вот в инвестиционном банкинге пользуются вот языковыми
      48:19
      моделями для, допустим, аналитики отчётности компаний. Ну, то есть они смотрят публичные публичные компании
      48:25
      публикуют отчётность. А, понятно, брокеры рекомендуют какие-то инвестиционные стратегии. Вот для того,
      48:30
      чтобы их быстро и эффективно анализировать, как бы тот человек там просто умрёт, да, всё это перечитывать. Там такой отдел аналитиков нужен, чтобы
      48:37
      во всём этом разобраться, как говорится, без бутылки водки там вообще не разберёшься. некоторая отчётность. Аа
      48:43
      можно попросить, э, вот этих вот эти вот синтетические мозги пробежаться, задать определённую логику, задать определённую
      48:49
      логику рациональности, определённую логику того, как ты себя можешь перепроверять, то есть в каком-то смысле свою когнитивную стратегию заложить в
      48:57
      эту модель, и она будет справляться быстрее тебя. А вот это вообще
      49:05
      космос протипирования лекарств, кстати. Аа вот здесь история была, по-моему, в
      49:12
      ковид. Я не помню конкретно, какая это была вакцина, то ли модерна, то ли что-то ещё. Но там было интервью,
      49:18
      значит, вот ребят, которые эту вакцину создали. И там был такой факт, что типа
      49:25
      вакцину мы создали за там 16 часов и ещё полгода мы её типа сертифицировали.
      49:31
      Логика как раз слова была в том, что вот эти задачи, когда пере вот в химии, кстати, очень активно используют
      49:37
      языковые модели, потому что она способ способна давать огромное большое количество комбинаций, которую нужно
      49:42
      экспериментально перебрать. Можно попробовать перебрать в таком метапространстве, чтобы сузить
      49:48
      количество более вероятных вариантов и уже экспериментировать, допустим, с более точными вариантами. Это очень сильно ускоряет, допустим, вот, а,
      49:54
      фармацевтические компании вот вцепились в эту технологию, потому что они видят в ней большой скачок в ускорении создания
      50:00
      лекарств. То есть это вот один из таких интересных кейсов. А, Vodфон сделал чатбот для
      50:07
      зумеров. Ну, это очень смешно, конечно, да. Там это надо зумеров учить, мне кажется, нас понимать. Тридцатилетние.
      50:13
      Вы согласны? Как? Нет. А, ладно, здесь больше зумеров, видимо. И давайте
      50:19
      немножко проговорим про наш опыт уже. Вот, как сказать, я тут про всех рассказываю, типа, а ты что сделал? Да.
      50:24
      Вот, собственно, вот мы начали с того, что мы взяли, сделали свой рак, сделали
      50:30
      свою базу знаний, воткнули этого бота в Telegram, и он, мне кажется, вот у меня
      50:35
      такое отношение к этому боту внутри нашей компании, что он как, знаете, такое такое домашнее животное, которое
      50:42
      все любят, такой питомец, там все его там тегают, говорят: «Чат GPT там, это там GPT бот, а расскажи там анекдот». То
      50:48
      есть у него есть такой механизм, там разные механизмы прикольные строят. Допустим, раз в день он берёт какой-нибудь аккаунт и про него
      50:54
      какую-нибудь шутку рассказывает или просто может какой-нибудь анекдот рассказать или там спросить, что там, как дела вообще там. Вот. И это, ну, как
      51:02
      бы его к нему реально начинаешь эмоционально относиться. Просто вот есть такое существо, которое живёт во всех
      51:07
      твоих чатах. Можно его попросить там расшифровать видео, там собрать там какой-то саре встречи, там сделать
      51:13
      что-то ещё. Ну, как бы мне кажется прикольный кейс у нас.
      51:18
      Мы вот вообще довольно много внутренних продуктов у нас в компании в автоматизации. Ну такая, не знаю, в своё
      51:25
      время такая культура сложилась. Мы мно много процессов для себя сами просто автоматизировали, как говорится,
      51:30
      специально под нас. У нас, допустим, довольно сложный процесс сбора статусов по проектам. Ну, когда разные команды,
      51:36
      разные люди, там, разные инженеры, они с разных сторон оценивают состояние проекта. И то есть обычный такой долгий
      51:42
      был процесс, когда менеджер там со всеми созванивался, что-то сверял, что-то прочее, должен был выставить такую финальную оценку еженедельное состояние
      51:48
      проекта. Ну теперь, допустим, он просит бота пробежаться, собрать оценки и сказать ему: «А что там вообще?» Вот бот
      51:54
      как бы сам сумморизирует статусы. То есть ускорение там времени работы менеджера
      51:59
      там колоссальное. LMБОX собрали. Это такая довольно простая история, ну, как бы скорее архитектурная. Просто мы
      52:04
      воткнули там большое количество GPT, то есть там Chat GPT, Яндекс GPT, там Gigat, там другие модели просто
      52:10
      развернули какое-то количество он премиус решениние у себя внутри, чтобы просто через единый интерфейс все, кто
      52:15
      внутри компании хочет что-то создать, он получил просто единый API, то есть единый доступ к тому, чтобы просто
      52:21
      забрать любую сетку и на основе неё там сделать какого-то бота, допустим, внутри. Вот эта история с Телеграмом,
      52:27
      она у нас как раз такая сказать выродилась уже в умную базу знаний. Да,
      52:33
      мы её назвали Пантеонос. А так этот пафосно, что и как раз вот здесь вот мы сейчас реализуем
      52:39
      внутри вот эту логику таких агентов, да? То есть по сути есть база знаний, то есть вот мы также пошли, как я вам
      52:45
      описывал, то есть сначала взяли, сделали рак, а загрузили туда кучу всяких э
      52:50
      наших знаний, там из конфлюенса, там из каких-то наших статей, из собственно эта база знаний просто могла
      52:57
      нам отвечать на какие-то простые вопросы. А, и потом мы начали как бы попробовать агентскую логику
      53:02
      реализовывать, чтобы, допустим, какие-то простые задачи уже более-менее автономно заворачивать. Это не совсем те агенты,
      53:07
      которые вот здесь, чтобы, как сказать, если есть ребята, кто этим занимается, меня в помидорами не кидали. Это там
      53:13
      пока не автономные агент, это можно тоже назвать workflow агентами, да, то что когда ты задаёшь определённый сценарий и на каждом сценарии они как-то себя
      53:20
      отрабатывают, но это уже как бы чувствуется, что ты делаешь определённый шаг в сторону того, что у тебя есть
      53:25
      платформа, есть какое-то количество вот вот этих синтетических мозгов, которые обращаются к большому мегасинтетическому
      53:31
      мозгу, чтобы исполнять какие-то бизнес-процессы, там, скажем, под ключ. Вот это классный кейс, мне кажется,
      53:38
      генерации индивидуальных планов развития. У нас есть свой продукт, а он мы его создали для
      53:46
      peopleменеджеров компании. То есть у нас в компании довольно большой упор на то, как мы людей развиваем. То есть есть
      53:52
      человек попадает к нам, у него появляется индивидуальный план развития, там карта знаний, аттестации, чтобы
      53:57
      каждый видел свой трек, куда он, собственно, вырастет в компании, там за какой период и прочее. И это на самом
      54:02
      деле довольно тяжеловесная работа, но потому что, чтобы план развития персональность человеance revwew провести, с ним поговорить, сделать ему
      54:09
      какую-то персональную стратегию, сказать: «А иди вот то почитай, а там научись, а то сделай и проче». Ну то есть очень дорогие специалисты в лице
      54:17
      там Тимледов, HRров, пипл-менеджеров. На самом деле довольно трудоёмкий, затратный процесс, чтобы обеспечить вот
      54:22
      это вот развитие человека внутри компании. Мы его сильно сократили вот сейчас, потому что у нас уже есть большая накопленная база, и мы просто
      54:29
      можем попросить там нейронку сгенерировать, допустим, вот эту базу знаний. Вот здесь, по-моему, прямо сейчас скринка будет
      54:37
      работать. Вот это как бы реальная система, как она сейчас выглядит. Мы просто не меняя систему, по сути, в неё
      54:43
      как раз вот использовали LM Box, по-моему, там было какое-то количество системных промтов. Вот мы настроили,
      54:49
      чтобы она генерировала непосредственно из знаний какой-то персональный план по человеку. Вот она сгенерировала развитие
      54:55
      открытости, мышления, там что-то ещё. Вон какой-то что-то пройти, курс рекомендует
      55:01
      сам, какую-то книгу прочитать рекомендуют. Ну то есть полностью сама сгенерировала человеку определённый трек
      55:06
      на основе того, что у нас уже было в опыте компании. То есть это она не просто
      55:13
      придумала, да? Можно было, наверное, попросить её ещё выйти в интернет, сказать: «А, иди
      55:18
      почитай про лучшие практики, а, иди вот возьми там топ-три и вообще вот добавь в наши практике и что-то ещё». Ну, как бы,
      55:25
      ну, это уже, ну, как бы next stepп. Ну, и в конце, мне кажется,
      55:32
      просто я тут почти про Skynetт. Мне кажется, такой у вас лица ужевые там
      55:37
      такие подавленные, но мне очень нравится эта реклама. Типа чей чат GPT дострой
      55:42
      здание. Поэтому что-то эту штуку ещё не умеет. Поэтому, может, те, кто начал
      55:48
      учиться кодить на Питоне, лучше, конечно, пойти учиться на сварщиков, вот, или на таксистов. Это действительно
      55:53
      вечная профессия. Я вот уверен, что таксистов никогда не заменят. Вот. А и давайте, наверное,
      56:00
      немножко к выводам. Вот сейчас уже мы с вами проговорили про настоящее, да,
      56:07
      посмотрели, собственно, как компании в это инвестируют, как компании это применяют. Мы с вами проговорили про
      56:13
      прошлое, то есть мы с вами посмотрели, как эта эволюция технологическая привела нас от
      56:19
      примитивных диалогов к трансформерам. И давайте немножко сейчас проговорим про будущее. Собственно, вот что же
      56:27
      будет-то. Вот как вот я хотел поделиться с вами своими мыслями. Во-первых, я подумал, что изменилась не
      56:33
      технология, а прямо парадигма. То есть это вот мне очень понравилась фраза моего там партнёра, товарища Алексея
      56:39
      Макина из фаундера Redmob. Он сказал, что это этот сдвиг, он потребует новых
      56:45
      интеллектуальных интуиций. Это очень, мне кажется, хорошая формулировка, потому что мы все живём, ну, плюс-минус
      56:52
      даже не программисты понимают, что база знаний — это какая-то таблица, что как-то там вот что-то там запишется,
      56:58
      что-то будет, вот туда что-то сходит, что-то вот из ячейки заберёт, куда-то там выведет, как-то сложит в ячейку
      57:04
      запишет. Ну, то есть в целом как бы, ну, даже если ты не программист, ты плюс-минус понимал парадигму. Вот когда
      57:12
      я показывал вам про то, что такое векторные базы знаний, вы же понимаете, что это просто, в принципе, другая логика. хранение информации. В принципе,
      57:18
      вот вот эта векторизация, трансформеры, то, как это как как сейчас информация
      57:24
      хранится, как она обрабатывается и какие сервисы на базе вот баз знаний с помощью
      57:29
      агентов, с помощью использования вот этой новых когнитивных стратегий и больших думающих моделей. Это, в
      57:35
      принципе, вот можно создавать абсолютно новые сценарии использования, да. И вот
      57:41
      одна из целей этой лекции, наверное, была, что мне как бы кажется, что люди плюс-минус должны понимать, как устроены
      57:48
      хотя бы, а, ну, как-то хотя бы базово, как устроены технологии в того времени,
      57:53
      в котором они живут. Ну, то есть там, не знаю, наши родители плюс-минус понимали, как ещё машина устроена там, да, там
      58:00
      могли, может, даже починить её. Мы ещё более-менее понимаем, как машина устроена. Но когда вот мы начинаем
      58:05
      массово использовать вот эти языковые модели и вообще не понимать, как они работают, мне кажется, это это ведёт
      58:12
      такой тупик не не очень хоро То есть какой-то это очень опасная точка, когда для людей технологии становятся магией,
      58:18
      я бы так сказал. Поэтому в этом всё-таки надо разбираться, но хотя бы хотя бы на базовом уровне. А то, что мультиагентная система
      58:26
      изменит саму суть того, как люди трудятся, я этот тезис уже проговаривал, поэтому не буду, наверное, на нём оставаться, ну, слишком долго
      58:32
      останавливаться. что я думаю, что появятся какие-то вообще новые бизнес-процессы и новые навыки. Что я
      58:39
      подразумеваю под новыми навыками? Допустим, вот что сделали сервисы предыдущей волны. Люди стали как бы
      58:46
      киборгами. Мы взяли и вынесли в интернет свою память, например. Мы теперь можем не помнить номера, мы не можем не
      58:52
      помнить факты, мы всегда можем загуглить. Ну, то есть была вынесена память, но сервисы работали так, что мы
      58:59
      как бы вовне вынесли информацию. То есть мы шли там гуглили, получали информацию, но задача мышления оставалась за нами.
      59:06
      То есть задача синтеза информации или анализа информации, она оставалась пока забелковыми. То есть мы должны были из
      59:13
      этого что-то там посмотреть, что-то почитать, что-то решить и какое-то решение принять. Вот языковые модели с думающие,
      59:22
      да, вот эти сзанинг, они по сути что делают? Что мы вовне как бы выносим мышление.
      59:28
      Следующий этап, что как бы мы теперь работаем не с информацией, а мы работаем с информацией, которая эта система сама
      59:34
      проанализировала и выдала нам конечный ответ. И это на самом деле довольно, ну, опасная штука, да, что как бы если мы
      59:41
      слепо доверяем когнитивным стратегиям вот этих систем, то есть мы как бы работаем просто с вот с волшебной
      59:47
      коробкой, то есть мы её спросили, она нам ответила. И а где вот эта сфера, в которой как бы
      59:54
      надо, мне кажется, качать мышцу, это на самом деле, ну вот то, что называется, наверное, там логикой, там аналитической
      1:00:00
      философией, то, что называется там в какой-то сфере математики, то есть мышление о мышлении. Это вот где вот что вообще,
      1:00:08
      как когнитивные стратегии формируются, как вообще рациональность рождается, что такое вообще рациональность, вот в идею
      1:00:14
      там антологии рациональности, да, то есть это сферы, которые, ну, исторически в аналитической философии скорее были.
      1:00:19
      нежели чем, ну, там, там на стыке, там, знаете, вот венский кружок, там Поппер, Витгенштейн, там, вот эта вот вся
      1:00:25
      история. Вот. А, и вот вот там, мне кажется, ещё наш Ноев ковчег. Вот как бы
      1:00:33
      там пока мы держимся и пока мы всё-таки мы пока держим вот эти когнитивные
      1:00:38
      стратегии, аа сегмент работающих сознанием будет сильно меняться. Ну вот
      1:00:44
      я плавно этот тезис уже повторил. Вообще Сатья Надела в своём тези про языковые модели сказал, что с бумом языковых
      1:00:51
      моделей спрос на высококвалифицированные кадры вырастет там на 42%. Он сказал помн. На самом деле нас не заменят
      1:00:58
      машины. Наоборот, появится огромный рынок тех, кто способен работать с агентами. Ну то есть как бы наоборот как
      1:01:04
      бы потребуются очень умные люди, которые будут способны программировать вот эти вот когнитивные стратегии, скажем, для
      1:01:11
      для машин, там, для агентов, чтобы они за тебя работали. То есть они за тебя всё равно как-то всю работу не
      1:01:16
      сделают. Ну и четвёртый тезис, эпоха дешёвого знания. Вот я ещё раз подчеркнул, не
      1:01:21
      информации, что если представьте, у каждого в кармане теперь
      1:01:26
      появляется не просто поисковик, там не просто браузер, не просто, а очень
      1:01:32
      мощная машина для очень мощных вычислений, но это мегареволюция. То
      1:01:37
      есть революция намного больше, чем когда у всех появились автомобили и чем когда у всех появились смартфоны. То есть мы
      1:01:45
      пока не знаем, как сделать так, что если все люди будут иметь доступ вот к этому буквально сверхинтеллекту, к чему это
      1:01:51
      приведёт? То есть это пока вызов, он такой открытый. И
      1:01:58
      поэтому, наверное, вот на этой ноте мы будем заканчивать. Тут есть ссылки на
      1:02:04
      наши каналы, и мы можем перейти к вопросам о дискуссии. Спасибо.
      1:02:09
      [аплодисменты] Спасибо за лекцию. Во-первых, смотри,
      1:02:15
      мне, знаешь, чего не хватило? Есть один момент, который я с которым я сталкиваюсь в каждом первом диалоге про
      1:02:21
      внедрение и в компании генеративных, и особенно это страх поделиться данными.
      1:02:29
      Ну и и попутно желание развернуть всего себя, что обычно требует невероятной
      1:02:34
      инфраструктуры, на которую ни у кого денег нет. А можешь немножечко рассказать о том, в какой момент Генай
      1:02:41
      учится и в какой момент он выдаёт ответы, чтобы люди немножечко понимали вот эту разницу в работе с информацией?
      1:02:48
      А, да, действительно, этот вопрос к блоку того, как Генаи непосредственно применяется в
      1:02:54
      бизнесе. Сейчас один из один из больших стопоров
      1:02:59
      к тому, чтобы сейчас применять вот агенты, раги и всю эту историю, допустим, например, это инфраструктура. То есть,
      1:03:06
      ну, ты либо готов облачным провайдерам доверять, то есть там Яндексуду, там
      1:03:12
      Сберу, кому-то ещё, но бизнес, конечно же, боится, что представьте, что вы отдаёте в облачное хранилище, то есть
      1:03:18
      вы, викторизуя свои данные, так или иначе вы отдаёте в их языковую модель эту информацию. И как бы они вам не
      1:03:24
      говорили, что да, это будет защищено, проче, это действительно может быть защищено. Просто, ну, как бы интуитивно
      1:03:30
      это кажется каким-то ж выстрелом в ногу, особенно если компания конкурент, да? Ну, то есть так или иначе там вдруг
      1:03:36
      Яндекс решит металл отливать, а ты Северсталь. Ты такой думаешь: «Так, собственно, как бы зачем мне сейчас
      1:03:43
      скармливать все все эти данные потенциальному конкуренту?» Вот и поэтому компании сейчас идут на такой
      1:03:48
      шаг, что называется он премис модели, да? То есть они буквально покупают видеокарты, строят стойки у себя, то есть и вот модели, то, что называется
      1:03:55
      Open source, вот открытые модели, которые можно развернуть у себя. Там данные никуда не уйдут, они даже не подключены к интернету, то есть
      1:04:01
      технически, да, то есть с ними просто как с вот ваши там агент или ваш шаг, он просто ходит как бы вот в эту локальную
      1:04:08
      модель, получает данные, выводит внутри. Довольно популярная сейчас концепция. Не думаю, что она долго будет жить,
      1:04:15
      потому что я помню, когда была история с облаками, тоже все такие: «Да ну, эти облака, это небезопасно, в общем, буду
      1:04:20
      хранить у себя». Потом, когда у себя там серваки сгорают, их там взламывают, нет нормальных бэкапов, то есть все всё
      1:04:25
      равно перешли в облако, потому что понимают, что там иметь облако у нормального провайдера безопаснее, чем
      1:04:32
      иметь какие-то серверные стойки, которые надо обслуживать где-то у себя там. Вот. Поэтому, отвечая на твой вопрос. Ну, это
      1:04:40
      тот же самый механизм, по сути, да, векторизации. То есть вы действительно свои знания скармливаете, они в каком-то смысле, можно сказать, растворяются в
      1:04:46
      этом многомерном векторном пространстве. То есть с помощью запросов или промтов как бы их можно вытащить.
      1:04:52
      Действительно, да, там есть как будто сейчас технологии того, как что-то маскируется, там что-то ещё,
      1:04:58
      но пока, наверное, не будем в это уходить. Это отдельный большой большой разговор. Да, Булад, спасибо за
      1:05:04
      презентацию. Очень интересно. У меня на самом деле три вопроса. Первый — это по
      1:05:09
      слайду, где ты говорил, что довольно холиварная тема, что считать аеагентом.
      1:05:16
      Я вот там четвёр четвёртого аяагента не понял. Плени там было написано, да, там по
      1:05:22
      толзам всё понятно. А ПН что такое? Это первый вопрос. Второй вопрос вот там
      1:05:27
      антропики, Google, Цуркиберг говорят, что у них в компании порядка э 20-30%
      1:05:33
      кода уже генерируется. И а у вас сколько процентов кода генерируется? И и насколько разработчики, да, вообще
      1:05:40
      погружены в эту тему, там курсоры, венсрфы и прочее. Ну насколько это продвинуто? И если не очень продвинуто,
      1:05:48
      то вы как-то пропагандируете использование искусственного интеллекта среди разработчиков или нет? Это второй
      1:05:53
      вопрос. И третий вопрос про и агентов-продавцов. Довольно-таки сейчас такая тоже хайповая
      1:06:01
      тема, когда условно и агенты заменяют отделы продаж. Вот вообще насколько это
      1:06:08
      работает? Ну, если вы в теме, да, или это больше всё-таки маркетинг сейчас? Спасибо. Ну вот есть такая концепция,
      1:06:15
      отвечая на первый вопрос в MCP Memory, Control Planning, да, собственно, память как раз вот external память, что как бы
      1:06:21
      они могут обращаться к какой-то внешней памяти за пределами. Control — это как раз вот эта логика с, например, с guard
      1:06:27
      rails, да, то, что, допустим, есть определённая система защиты, которая там, допустим, не выдаёт вредоносный
      1:06:32
      контент или что-то ещё или там как-то ещё защита. И как бы вот вот здесь пленинг в этой концепции
      1:06:38
      подразумевается, что агент может сам экспериментировать с когнитивными стратегиями. То есть он может сказать: «Так, я сейчас запускаю там, а вот есть
      1:06:44
      там аа как этот, как дерево мысли есть концепция». То есть он может такой запустить. Так, я там там 10 10
      1:06:52
      стратегий, по которым я сейчас продумаю вопрос. Он там, допустим, запустил 10 цепочек, потом начинает отсеивать там
      1:06:58
      самые неперспективные, оставаться в какой-то перспективной. То есть таким образом он способен планировать свою
      1:07:04
      когнитивную стратегию. То есть он не просто как бы идёт, выполняет, чему-то соответствует и отдаёт, да, что-то там поресёрчил, что-то там сложил и прочее,
      1:07:10
      а он полноценно способен как бы построить стратегию мышления. Есть ещё такая тема, как рефлекшн, да, то есть
      1:07:16
      как рефлексия. Он способен, а, подумать о том, как он подумал, возможно, изменить когнитивную стратегию, там
      1:07:21
      построить новую ветку рассуждения, как бы снова отсеять, как бы, и снова выйти к хорошему ответу. То есть пнинг здесь подразумевается как планирование того,
      1:07:28
      как он думает. То есть я, то есть вот это вот про пленинг. Второй вопрос. Я
      1:07:33
      думаю, что у нас все в компании это используют. Ну, так или иначе вопрос в том, что не везде ты можешь это
      1:07:40
      использовать. Ну, то есть у нас есть чувствительные клиенты, там, там банки, кто-то ещё. И понятно, ты, работая,
      1:07:46
      допустим, с там с open source, ой, с Cloud решениями, то есть ты, заливая как
      1:07:52
      бы какие-то кусочки кода клиента, ты, по сути, скармливаешь их в какой-то внешний обла какого-то внешнего провайдера. Это
      1:07:59
      пока не особо безопасно. Плюс есть конкретные вопросы с безопасностью, связанные с генерируемым кодом, потому
      1:08:05
      что, ну, вот есть там в Дефсикопсе, да, вот эти састы, дасты, да, то, что вот
      1:08:10
      непосредственно там статический анализ, динамический анализ кода, то, что сейчас проверяет на то, что код, который ты
      1:08:17
      написан, он как бы не вредоносный, безопасный, что он ничего не убьёт. Так вот, сейчас пока как будто нет
      1:08:23
      достаточно хороших таких и састов, который способен был бы на выходе шутить из Генерина прямо проверить как бы и
      1:08:29
      достаточно надёжно куда-то положить. Просто у меня специфика такая, что вот у нас есть стартапы, где мы запускаем там
      1:08:35
      вообще вот вообще всё, что угодно можно там, ну там как бы мы ничем не жертвуем, кроме собственных данных, да, то есть мы
      1:08:41
      там максимально быстро делаем. А в проектах, где они чувствительные, то мы к этому редко прибегаем. То есть там или
      1:08:48
      в каких-то альтернативных каких-то более-менее безобитных сценариях, допустим, например, автотесты написать,
      1:08:54
      то есть там как бы есть какой-то код, там он просто покрыл, помог покрыть тестами, ты его дописал или там с
      1:08:59
      аналитикой разобраться. Большое количество документации, ты, допустим, ты можешь сейчас такие системы, которые
      1:09:05
      по коду тебе пишут документацию для аналитиков. То есть в целом он её дорабатывает, а не пишут с нуля. Ну, там как бы есть различные
      1:09:11
      такие механизмы, как это можно использовать более глобально, не только там в коде. Я ответил на ваш
      1:09:19
      вопрос. Вот там была пе там была пе Ой, извините, а третий вопрос какой был у меня
      1:09:27
      что-то? Ну, у нас это не очень эффективно вот в бизнесе с услугами, потому что всё-таки B2B — это такой
      1:09:34
      очень как бы человекоцентричная сфера. Но вот у нас сейчас есть один проект, э-э, мы как бы делаем там Telegram,
      1:09:42
      Telegram минипсы, связанные с букингами там отелей. И там довольно интересный
      1:09:49
      такой флоу сейчас проработали для отелей и для нашего сервиса, что мы для, то
      1:09:54
      есть человеку даём возможность сказать: «Иди сбегай, найди там пять хороших отелей в Казани и договорись о скидке».
      1:10:02
      А для как бы отелей мы делаем с их стороны как бы агента, который может поторговаться с ним. То есть мы делаем
      1:10:07
      как бы, что они такие там пообщались, грубо говоря, там нашли для человека, который попросил какое-то компромиссное
      1:10:13
      решение, говорит: «Вот этот отель готов, я тебе всё вот нажми, забронируй». Как бы то есть вот это интересная реализация
      1:10:18
      там как бы когда продажи работ, грубо говоря, каждый своего там агента отправил поторговаться на своих условиях, они там что-то поговорили,
      1:10:25
      какому-то решению пришли, ты просто уже как принимаешь это решение или не принимаешь. Ну, то есть вообще в
      1:10:31
      продажах супермощный инструмент. Просто ещё раз говорю, наверное, специфика моего бизнеса, она не такая, чтобы мы
      1:10:36
      там прошивали прямо CRM, как бы, вот этими лэмками. Там скорее в каких-то сайт-процессах просто большое количество
      1:10:43
      информации сделать summary, сделать followup, там длинный звонок сказать там, напиши митинг просто, чтобы я тем
      1:10:48
      расписал клиенту отправил. Ну, то есть это то, что довольно универсально, оно как бы не связано конкретно с продажами
      1:10:54
      в этом смысле. Меня очень заинтересовал ваш и агент. Я, честно признаюсь, я
      1:10:59
      читал про него до лекции и, э, ну, на вашем сайте в блоге и прочитал то, что
      1:11:05
      он был создан буквально за 2 недели. Вот. Довольно интересно. А мне интересно
      1:11:10
      узнать, ээ, сколько сотрудников потрудились над созданием этого агента, с какими
      1:11:17
      трудностями они столкнулись и продолжаете ли вы дальше развивать этого агента и какие проблемы решаете сейчас?
      1:11:24
      Слушай, по-моему, конкретно этого агента, оно там, наверное, пару человек делала. То есть в целом-то ещё и плюс
      1:11:30
      того, что как бы сам подход, да, он тоже как бы сильно оптимизирован в этом плане,
      1:11:37
      что у нас есть отдельная в технократии есть отдельная команда R&D, которые занимаются непосредственно вот этими
      1:11:42
      вещами. То есть они не занимаются созданием стартапов, они занимаются созданием проектов там клиентских, они просто занимаются как бы таким дипйвом с
      1:11:49
      точки зрения технологического прокапывания этих вещей. Типа, а что там вообще можно сделать? такие: «Вот, а теперь это можно сделать, давай вот это
      1:11:55
      добавим, теперь ещё что-то можно сделать». Вот поэтому фундаментально, то есть я бы, ну, я бы иду к тому, что
      1:12:03
      внутри компании тоже реализовать концепт МАЗ, да? То есть попробовать вот сначала понять, где вот эти агенты они
      1:12:08
      применимы, попробовать там применить. Понятно? Есть сливки типа генерация кода, там, ну, вот ряд процессов, которые вот мы описывали, они вот на
      1:12:14
      поверхности, но есть более сложная архитектура, куда всё можно можно применять. Пока просто проблема ещё
      1:12:20
      внедрения в том, что это ведь не купишь так, как вот как, не знаю, как мандарины в магазине, да, или как там AM. То есть
      1:12:26
      нельзя просто зайти там и сказать: «Я вот там купил всё, как бы развернул себя и пользуюсь». Тоже как бы нужно
      1:12:32
      разобраться в технологии, разобраться, как у тебя процессы выстроены, понять, в каких процессах это сработает, там
      1:12:38
      визиро векторизировать базу. То есть как бы пока такой порог входа немножко как бы длинный, но понятно, что это всё
      1:12:45
      будет сокращаться, это всё будет быстрее и всё будет из коробки со временем работать намного быстрее. Во многих СМИ
      1:12:53
      сейчас пишется о том, что джуниорспециалисты их заменяют и
      1:12:58
      интеллектом. А, но как бы человечество создано так, что мы растём до синьора
      1:13:04
      именно с начиная с позиции джуна. То есть сначала Джун, потом Мидл, потом уже синьор, да? И вот сейчас как будто вот
      1:13:12
      эти джуниоры, им раньше было приходилось
      1:13:18
      соревноваться, ну, с точно такими же биологическими джуниорами, а сейчас они соревнуются с Иишкой, и в конце концов
      1:13:25
      Иишка победит. И джуниоров, и мидлов останутся вот только синьоры, про которые ты говоришь, что вот они будут
      1:13:33
      управлять условно миром. Но до синьоров мы можем вырасти только
      1:13:39
      вот с ни с нижней позиции. И вот когда биологически а синьоры, которые есть
      1:13:46
      сейчас, умрут лет через 50, кто их заменит? Синьоры помидоры. Да, есть я
      1:13:54
      Егор коротко отвечал, хотя обещал ответить, но чуть-чуть уйду в сторону, потому что есть вообще потрясающая история. Я где-то на Форбс, по-моему,
      1:14:00
      прочитал, как, в общем, девяностые, видимо, какие-то палёные станки в Россию тащили, там от Симонса
      1:14:07
      или от кого-то ещё. И их была группа вот людей, которые тогда были молодые, они умели программировать на том языке, на
      1:14:14
      котором эти станки запрограммированы. А вот молодое поколение уже не училось на этом языке программировать. И значит,
      1:14:19
      эти дедушки, им там как бы уже там лет там 60 там с чем-то. Оказалось, что в стране куча этих станков, а молодых нет.
      1:14:26
      И вот эти там шесть-7мь стариков собрались и открыли стартап по обслуживанию этих станков. Мне кажется,
      1:14:32
      абсолютно какая-то потрясающая история, что такие, ну, а как как кудать синьоры,
      1:14:38
      вот как раз синьоры, которые не вымерли, да, вот про ваш разговор. Ну я думаю, что реально такой проблемы не будет.
      1:14:44
      Просто сильно изменится там как в целом проект, потому что в какой-то момент программирование стало ремеслом. То есть
      1:14:50
      я вот помню, что мы когда начинали, я на ВМК когда поступал, то есть как вот ты
      1:14:55
      начинаешь там какие-то алгоритмы, прочее, прочее, потом вот эти фреймворки, фреймворки, фреймворки, фреймворки. И в какой-то момент это уже
      1:15:01
      такая сборка окон почти там без как бы в целом гиперребовательности к твоим
      1:15:07
      когнитивным навыкам. И программирование стало ремеслом. И по сути, а мы мы как
      1:15:13
      бы умные ребята написали, спилили сук, на котором сидели, да? То есть, так как программирование — это в целом
      1:15:19
      абстрактная сфера, логическая сфера, семантическая сфера, там есть какой-то свой язык, очевидно, это будет
      1:15:24
      автоматизировано, как и все другие сферы похожие. Вот они это автоматизировали. Ну просто к следующему поколению разработчиков они, я я думаю, что никуда
      1:15:32
      вообще эта технология новая, она никогда полностью уже ничего не замещает. Она скорее меняет, да, что-то новое добавляет, если посмотреть. Ну, просто
      1:15:39
      вот будут программисты, которые вместе с ассистентами хорошо работают, умеют правильно купал. То есть, ещё раз, это
      1:15:45
      наоборот потребует ещё более сложного мышления, ещё более абстрактного и более системного. То есть тебе нужно будет не
      1:15:51
      просто жёсткие структуры проектировать, тебе нужно архитектуру проектировать из условно довольно сложных агентов. То
      1:15:57
      есть это просто требовательность к тому, чтобы стать разработчиком высокого порядка, она вырастет.
      1:16:04
      Но это в целом общая динамика, что сейчас как бы карьера она становится похожа на суперспорт, да? То есть как бы она там в
      1:16:10
      конкуренции везде как бы начинает расти уже. У меня вопрос такой из практической плоскости,
      1:16:16
      с которым я всё чаще сталкиваюсь в своей работе, это вопрос ответственности. То
      1:16:22
      есть, а кто вообще отвечает за результаты выдачи искусственный интеллекта, вообще за результаты его
      1:16:28
      работы? это владелец это программы или это какой-то, например, пользователь,
      1:16:33
      который предоставляет услуги с использованием ИИ. Вот. И как вообще этот вред оценивать и, ну, кто его
      1:16:41
      должен возмещать в конечном итоге? Да. Да. Это как мы очень долго пытались решить вопрос, как ограничи, ну, как
      1:16:47
      вообще смотрели, я извиняюсь, смотрели, как ограничивают ответственность другие сервисы. В итоге
      1:16:53
      в Яндексе мы увидели, Алиса может ошибаться. Простите ей это. Ну, тут есть техническая часть. Есть такая как бы там
      1:17:00
      из философии этики часть, да, что как бы первая часть — это просто что есть тамтрейнинг, посттрейнинг, там
      1:17:07
      reinforning, да, так называемый, то есть процессы, которые позволяют дообучать вот эту запечённую нейронную сеть, чтобы
      1:17:13
      она как бы на какие-то вопросы не отвечала, там не обсуждала с вами политические темы, допустим, или там там
      1:17:20
      не скатывалась в российские какие-то там оскорбления или прочее. То есть есть огромный плас, когда реально люди сидят
      1:17:26
      как бы тренируют на выдачу, и какие-то плохие выдачи они пытаются блокировать. То есть есть целый слой такой как бы
      1:17:31
      этики вот в чат GPT, во всех остальных моделях она везде есть, да? То есть это огромное количество людей просто
      1:17:38
      белковых до сих пор работают над тем, чтобы эта выдача как бы не происходила. С точки зрения этики, ну, пока нет
      1:17:45
      хорошего ответа, мне кажется. То есть это вот классическая дилемма: едет tтеesla и там кого сбить, ребёнок или
      1:17:52
      бабушка? Да. Вот эта ночина задача вагонетки возникает. То есть как бы непонятно или сбить троих, или сбить одного. А если один ребёнок? Если это
      1:17:59
      беременная женщина, ну то есть как бы непонятно. Ну то есть пока я думаю, что пока просто пока, наверное, как-то это
      1:18:06
      пытаются прощать, да, потому что все понимают, что если это сейчас запретить на этой основе, ну это как бы такой прогресс похоронить в этом смысле.
      1:18:14
      Как-то выплачивают компенсации, что-то ещё. С другой стороны, разве человек не ошибается? Вот мне про искусственный
      1:18:19
      интеллект всегда говорит. Он ошибается, говорит, люди не ошибаются. Ну, как бы она хотя бы предсказуемо
      1:18:25
      ошибается как-то. Ну, то есть ты можешь более-менее понять, почему она ошибается и как-то это переделать. Вот поэтому вопрос этики, он
      1:18:33
      самый сложный. Я на него сейчас вам не отвечу здесь. То есть он открытый, просто все никто пока не понимает, как к
      1:18:38
      этому относиться вообще, каким субъектом права является искусственный интеллект, кто за него отвечает. Тот, кто его создал, тот, кто его хостит, тот, кто
      1:18:45
      его развернул и доделал. Ну, то есть нет нет пока хорошего ответа. Будущее
      1:18:50
      непредсказуем.
      1:18:55
      Всё, спасибо.

      Поделиться: