Сергей Марков: Перспективы AGI, RAG-боты, будущее AI-систем | Подкаст «Ноосфера» #102

Гость подкаста: Сергей Марков, управляющий директор — начальник Управления экспериментальных систем машинного обучения Дивизион общих сервисов «Салют» ПАО Сбербанк

Специалист в области искусственного интеллекта, организует и осуществляет оперативное, стратегическое и научно-методическое управление процессами разработки, внедрения и сопровождения экспериментальных программных и программно-аппаратных систем на основе технологий машинного обучения.

Таймкоды

00:00:00 Введение в прогресс искусственного интеллекта

  • Прогресс в ИИ будет продолжаться, но не всегда будет выглядеть как революция.
  • Появятся более сложные агентные системы, способные выполнять множество действий.
  • ИИ сможет разбираться в физике, химии, биологии и математике.

00:01:20 Приветствие и тема подкаста

  • Подкаст “На сферу” перешел рубеж в 100 выпусков и продолжает тему ИИ.
  • Гость подкаста – Сергей, научный администратор и популяризатор ИИ.

00:02:42 О Сергее и его работе

  • Сергей – специалист по машинному обучению, руководитель команды из 300 человек.
  • Занимается разработкой больших языковых моделей и других проектов в области ИИ.

00:05:29 Книга Сергея “Охота на электроовец”

  • Книга написана за шесть лет и охватывает историю и текущее состояние ИИ.
  • Книга предназначена для популяризации ИИ и объяснения его возможностей.

00:08:03 Влияние ChatGPT на общественное восприятие ИИ

  • ChatGPT стал первым общедоступным сервисом, демонстрирующим возможности больших языковых моделей.
  • Релиз ChatGPT вызвал медийный шум и изменил восприятие ИИ среди широкой публики.

00:11:28 Прогресс в способности ИИ рассуждать

  • Прогресс в способности ИИ рассуждать был плавным, но значительным.
  • Современные модели могут строить логические цепочки рассуждений и интерактивные системы ИИ.

00:13:07 Быстрое и медленное мышление

  • Быстрое мышление: мгновенное понимание и ответы.
  • Медленное мышление: размышления и анализ альтернатив.
  • Многие интеллектуальные задачи требуют медленного мышления.

00:14:04 Моделирование медленного мышления

  • Моделирование медленного мышления с помощью больших языковых моделей.
  • Моделирование цепочек рассуждений и графов.
  • Важность для интерактивного искусственного интеллекта.

00:14:53 Интерактивный искусственный интеллект

  • Системы для многостадийных интеллектуальных задач.
  • Использование внешних инструментов и взаимодействие с другими моделями.
  • Примеры использования инструментов людьми для решения задач.

00:15:49 Примеры использования инструментов

  • Использование калькулятора для вычислений.
  • Обращение к поисковым машинам для фактологических знаний.
  • Примеры сложных задач, требующих использования инструментов.

00:18:38 Модель мира в больших языковых моделях

  • Обучение моделей на цифровом следе человечества.
  • Моделирование реального мира через тексты и видео.
  • Неточность моделей мира, как и у людей.

00:21:56 Цифровые двойники и предсказание выборов

  • Использование моделей для предсказания результатов выборов.
  • Моделирование рассуждений людей разных социальных групп.
  • Сходство поведения цифровых двойников с реальным сообществом.

00:23:30 Вопрос о сознании в ИИ

  • Возможность сознания в больших языковых моделях.
  • Эволюционный путь человека и его отличие от ИИ.
  • Философский характер вопроса о понимании моделей.

00:26:09 Субъективная психологическая реальность

  • Проблема субъективной психологической реальности в ИИ.
  • Отсутствие потока времени и текущего состояния психики у моделей.
  • Модели как гигантские формулы для распределения вероятностей.

00:27:27 Внутреннее представление модели

  • Модель не меняет свое внутреннее представление при общении с людьми.
  • Все веса модели остаются неизменными, в отличие от человеческого мозга.
  • Модель имеет аналог краткосрочной памяти, но не долгосрочной.

00:28:30 Эволюционная теория сознания

  • Важен момент замыкания модели на себя.
  • Социальные организмы моделируют поведение других для адаптации.
  • Модель не может отождествить себя с субъектом, так как не моделирует себя.

00:30:23 Создание модели с сознанием

  • Для создания модели с сознанием требуется мультиагентное взаимодействие.
  • Это вычислительно дорого и требует значительных ресурсов.
  • Вопрос о том, как отличить симуляцию сознания от настоящего, остается сложным.

00:32:24 Проблема китайской комнаты

  • Вопрос о том, как отличить симуляцию сознания от настоящего, остается сложным.
  • Тест Тьюринга и другие методы могут помочь в этом.
  • Пока что мы далеки от создания универсального искусственного интеллекта.

00:35:31 Генерация на основе поиска

  • Языковые модели часто генерируют ложную информацию.
  • Идея рега заключается в предоставлении генеративным моделям инструментов поиска.
  • Это позволяет комбинировать мощь поисковых моделей с генеративными.

00:41:28 Применение рега

  • Рег полезен для узко-доменных задач, таких как консультации в промышленности.
  • Модель может использовать техническую документацию для ответов на вопросы.
  • Важно правильно соединить генерацию ответов и фактологию для конкретной задачи.

00:42:56 Будущее нейронных сетей

  • Обсуждение перспектив развития нейронных сетей.
  • Разделение на инженерные и фундаментальные направления.
  • Примеры: автомель, сел флеинг, новые типы нейросетей.

00:43:54 Сети Колмогорова-Арнольда

  • Обсуждение сетей Колмогорова-Арнольда и их отличия от традиционных нейронных сетей.
  • Идея использования выучиваемых пороговых функций.
  • Сравнение с другими функциями активации, такими как в трансформерах.

00:47:42 Проблемы и перспективы сетей Колмогорова-Арнольда

  • Проблемы с устойчивостью и сложностью обучения больших моделей.
  • Необходимость осторожности в громких заявлениях.
  • Примеры успешных и неудачных экспериментов с сетями Колмогорова-Арнольда.

00:49:17 Альтернативы бэкпропу

  • Важность развязывания “бутылочного горлышка” в нейронных сетях.
  • Примеры подходов, таких как микчеров экс-эксперт с.
  • Использование таких подходов в реальных проектах.

00:50:22 Экспериментальные подходы и доказательства

  • Поддержка неортодоксальных подходов и радикальных экспериментов.
  • Необходимость экстраординарных доказательств для громких заявлений.
  • Важность проверки результатов на публичных бенчмарках.

00:51:14 Теория Анохина и экспериментальная математика

  • Обсуждение теории Анохина и её связи с машинным обучением.
  • Важность формулирования проверяемых последствий теории.
  • Призыв к экспериментальной проверке теоретических предсказаний.

00:55:02 Архитектура нейросети для сжатия изображений

  • Создание нейросети, которая сжимает изображения в компактное векторное представление.
  • Разделение нейросети на кодировщик и декодер для обучения на разных задачах.
  • Использование предобученного кодировщика для распознавания объектов и манипулирования изображениями.

00:58:42 Истоки идеи и влияние когнитивистики

  • Идея взята из работ Хинтона и других когнитивистов 70-х годов.
  • Когнитивисты показали, что человеческая память устроена иначе, чем компьютерная.
  • Нейрофизиологические данные 70-х годов стали основой для современного машинного обучения.

01:01:03 Применение ИИ в создании теорий

  • ИИ может помогать в создании новых теорий, например, переоткрытие закона всемирного тяготения.
  • Стивен Вольфрам использует язык для описания математики и физики, обучая большие лингвистические модели.
  • Вопрос о прогрессе в обучении ИИ на математических и физических языках.

01:03:59 История формальных систем и их эквивалентность

  • В 20-х годах Гедель и Эрбран доказали неполноту формальных систем.
  • В 30-х годах развивались различные формальные системы, которые оказались эквивалентными.
  • Теоретически, все системы, включая естественный язык, эквивалентны и могут описывать любые задачи.

01:07:10 Практическое применение и переносимость знаний

  • Проблема удобства описания задач в разных системах.
  • Формальные системы лучше определены и снимают проблему неопределенности.
  • Полезные абстракции, выученные на естественном языке, могут переноситься между системами.

01:09:26 Генерация гипотез

  • Генерация гипотез возможна с помощью случайных источников, но большинство таких гипотез бессмысленны.
  • Наука работает с правдоподобными гипотезами, которые объясняют наблюдаемые факты и имеют проверяемые последствия.
  • В 50-х годах создавались системы, которые могли придумывать новые теоремы.

01:11:39 Проблема комбинаторного взрыва

  • Генерация гипотез сталкивается с проблемой большого дерева возможностей.
  • Комбинаторный взрыв затрудняет анализ всех возможных вариантов.
  • Игры, такие как шахматы, служат хорошей моделью для решения этой проблемы.

01:13:11 Решение проблемы в AlphaGo

  • AlphaGo использует две нейронки: полиси нетворк для генерации вероятностей ходов и нетворк для оценки позиций на глазок.
  • Метод Монте-Карло используется для генерации траекторий развития событий.
  • Модель изучает лишь небольшую долю альтернатив, но они оказываются правдоподобными и осмысленными.

01:15:34 Применение к научным гипотезам

  • Аналогично AlphaGo, большие языковые модели могут генерировать правдоподобные гипотезы.
  • Интуиция исследователей помогает им оценивать целесообразность гипотез.
  • Качество моделей мира внутри больших языковых моделей будет улучшаться, что повысит качество генерируемых гипотез.

01:19:17 Перспективы развития ИИ

  • Будущее ИИ включает расширение возможностей моделей и улучшение агентности и мультимодальности.
  • Прогресс будет продолжаться, но не достигнет уровня интеллектуального взрыва.
  • Появятся более сложные агентные системы, способные выполнять множество действий.

01:21:57 Прогресс в области искусственного интеллекта

  • Машины будут работать с множественными источниками данных и делать множественные запросы.
  • Много людей работают над этим направлением, но многие заявления о достижениях в ближайшие годы могут быть маркетингом.

01:22:32 Определение искусственного общего интеллекта

  • Термин “искусственный общий интеллект” был придуман Марком Гурудом в конце 90-х.
  • Это была теоретическая концепция для отличия специализированных систем ИИ от универсальных.
  • Определение “общего” ИИ вызывает вопросы: какие задачи считаются посильными для людей и в каких условиях?

01:23:32 Ограничения и перспективы ИИ

  • Некоторые исследователи, как Сэм Альтман, переопределяют ИИ, чтобы избежать критики.
  • Люди будут решать многие задачи эффективнее, чем большие модели, и это займет много времени.
  • Ожидания по поводу быстрого прогресса в ИИ могут быть завышены, но реальный прогресс будет значительным.

01:25:16 Влияние ИИ на общество

  • ИИ изменит мир, создавая новые продукты, сервисы и индустрии.
  • Важно использовать технологии для позитивных изменений, а не для разрушения.
  • Будущее ИИ зависит от нашего взаимодействия и ответственности.

01:26:25 Заключение

  • Благодарность участникам за участие в подкасте.
  • Призыв подписываться на подкаст и смотреть новые выпуски.

Таймкоды сделаны в Нейросети YandexGPT https://300.ya.ru/v_zZynGnL5

Расшифровка видео

0:00
то что сейчас кажется экспоненты окажется такой сигмоида но Прогресс будет большой Прогресс будет
0:05
продолжаться Не всегда он будет выглядеть как революция Но метрики будут
0:10
подрастать будут появляться более сложные агентное системы то есть на
0:16
смену просто там чати условному да придут системы которые смогут там
0:21
выполнять много разных действий и в интернетик сходить Да там и на калькуляторе посчитать и программный код
0:28
написать этот программный код выпал посмотреть на результаты выполнения значит То есть вот эта вот вся штука
0:34
точно будет прокачиваться раг механики будут гораздо более
0:45
тонкими Что произойдёт когда искусственный интеллект действительно
0:50
научится размышлять Что такое раг модели или
0:55
работы Через сколько времени ику интеллект сможет разобраться в
1:01
современной физике химии биологии математике и начать строить там полноценные теории обо всём этом в
1:09
сегодняшнем выпуске подкаста на
1:19
сфера друзья Здравствуйте Мы рады вас приветствовать в новом выпуске подкаста
1:24
на сфера мы благополучно перешли через рубеж в 100
1:30
и у нас ну условно следующий сезон Сегодня мы продолжим одну из наших самых
1:36
больших самых таких сквозных тем будем говорить про искусственный интеллект наверное с одним из самых авторитетных
1:43
экспертов этой области Сергей Здра вот я сразу вынужден начать дисклеймера Потому
1:49
что я не настоящий Академический учёный у меня довольно скромные академические
1:55
показатели я сч амини
2:01
руководство большой команды она оно требует Ну скажем так больше тратить
2:07
врем на какие-то административные задачи плюс Я занимаюсь научной популяризацией
2:12
постольку поскольку Вот Ну а уж там оставшаяся какая-то доля времени уходит
2:18
конечно на исследовательские задачи но не очень большая вот у нас в стране конечно же есть множество специалистов
2:25
куда более авторитетных чем я с научной точки зрения в этой области но своими
2:31
идеями какими-то взглядами на это направление Я готов поделиться если это будет кому-то полезно А Сергей спасибо А
2:40
всё-таки в двух словах Расскажите Чем занимаетесь может быть упомянуть гача потрясающие книжки Ну ещё что-то вот
2:45
прямо чтобы у нас такое облако тегов что ли сложилось у наших зрителей в первую
2:50
очередь я обычно на всех подкастах выступлениях стремлюсь представляться просто как специалист по машинному
2:57
обучению потому что официальная должность звучит очень очень длинно руководитель управления
3:03
экспериментальных систем машинного обучения дивизиона общих сервисов Салют
3:08
па Сбербанк вот реалии которые стоят за этим Это команда из 300 с хвостиком
3:17
человек вот которая занимается самыми разными разработками в области машинного
3:22
обучения начиная от компьютерного зрения и заканчивая обработкой естественного
3:28
языка из главных наверно областей специализации
3:33
последние годы являются большие языковые модели Вот Мы начинали в далёком ещ
3:40
2019 году с проекта нашего внутреннего который назывался 52 Вот Потом значит за
3:48
ним последовал 53 вот мы решали самые разные
3:55
задачи избрани поте известен всем как кандинский вот Который
4:02
начинался как сетка рудали Малевич Ну вот потом соответственно рудали
4:08
кандинский потом решили не усложнять называть просто кондинским вот значит Ну
4:14
это много самых разных сеток которые предназначены для обработки программного
4:20
кода для решения разных задач классификации всякие наши эмбе типа рубер рубер Ну и так
4:30
далее ну в общем это сейчас у меня в портфеле около семидесяти разных
4:36
проектов из области машинного обучения вот которые охватывают Ну практически
4:41
весь Спектр скажем так задач из этой области
4:47
э ну вот примерно так 13 команд работает соответственно под моим началом вот
4:52
каждый из которых специализируется там на каком-то одном из направлений Спасибо
4:59
а Сергей вот у вас книжка даже она в двух двух как бы томах Да не так давно
5:05
вышла кстати тоже важная оговорка во всех подкастах связанных с технологиями
5:10
мы записываем этот подкаст в декабре 2024 года Да это важно сказать потому
5:16
что что будет в этой сфере через полгода через год в общем мы тоже такую ремарку
5:21
делаем да декабрь двадцать четвёртого года А у вас вышла книжка и она
5:26
называется охота на электровездеход а Ну очевидная отсылка да к метафоре мечтают ли роботы да про
5:36
Андроиды об электроовцах Так вот метают
5:42
Ну конечно пока что не очень но скоро будут наверное вот вообще я работал над
5:49
книжкой 6 лет и получилось в общем такое краткое введение в слонове в двух
5:55
томах начиналось как всегда всё написать такой какой-то кий
6:02
ненавязчивый значит там страниц на 3400 Вот Но в общем Чем больше я
6:09
погружался в эту область тем больше я понимал что нужно вс-таки людям рассказывать
6:14
чуть подробнее о некоторых вещах чтобы не складывалось какое-то сильно упрощенное представление о том Чем
6:21
занимается эта сфера чем занима чем будет заним в
6:28
при человечества его будущего вот поэтому получилось такой достаточно
6:34
эпохальный труд но самый наверно частый вопрос который задаёт Сергей Ну вот 6
6:40
лет Ты работал на этой книгой но наверняка всё устарело в твоей книге потому что за 6 лет происходит много
6:47
чего и конкретно в области машинного обучения за эти 6 лет действительно
6:52
произошло довольно много чего Вот Но я скажу так конечно я понимал прекрасно Во
6:59
что я ввязываться
7:21
[музыка]
7:29
заключается в том что многие скажем так вещи процессы которые не искушённый
7:36
публике видны в основном в момент когда значит ну состоится какая-то
7:43
а такая зрелищная демонстрация появление там сервиса вроде чат gpt да
7:51
Или дали в своё время а позже там M stable diffusion и прочее но специалисты
7:58
обычно знают об этих вещах немножко раньше вот и ну скажем так чат gpt стало
8:07
просто таким большим публичным общедоступным сервисом который позволил людям приобщиться к возможностям больших
8:13
языковых моделей Но то что всё идёт к этому оно в общем было понятно Ещё за
8:19
несколько лет до того как появился чат gpt и в этом смысле значит конечно же за
8:26
такими зрелищ демонстрациями стоят ра
8:31
исследователей скажем так смелость наверно их достижение Главное было не в
8:38
том что они в данном случае придумали что-то радикально новое вот а в том что
8:44
они в общем не побоялись такой большой сервис запустить залить его на широкую
8:49
публику что ещ за год до
8:58
релиза прогноз выдвинул что крупные компании побоятся
9:06
релизинг очень большие Да значит сетка
9:11
сгенерирует что-то там нехорошее Да и дальше акции Гугла там условного или
9:17
майкрософта спики ет вниз вот как не знаю там в 2015 году если мне память не
9:24
изменяет был такой локальный скандал с Ботом й который значит там стал какие-то
9:33
фашистские значит высказывания генерировать и вот до сих пор Да медийный шлейф уже прошло почти 10 лет с
9:43
момента той истории до сих пор люди вспоминают вот этого Бота нациста Да и
9:49
значит и в этом смысле очень многие исследовательские команды в том же самом Гугле в том же самом майкрософте их Ну
9:57
как бы придерживая Да не давали
10:08
релизинг
10:14
и вот сейчас Многие слышали наверняка о стартапе perplexity значит вот ядром пкти стала
10:22
команда которая ну в общем в Гугле занималась Этой темой много лет вот поэтому здесь
10:30
самое большое наверное Спасибо нужно о сказать за то что они вот рискнули и
10:37
опубликовали общедоступный сервис тем самым в принципе людям продемонстрировав возможности больших языковых моделей вот
10:44
этот релиз он там породил очень большую медийную шумиху в целом
10:50
очень многие люди только с появлением ча gpt узнали что в принципе да у нас вот
10:55
тут знаете ли революция произошла в обрасти обработки естественного языка что внезапно мы как-то заметно
11:03
продвинулись в направлении универсальных систем искусственного интеллекта вот
11:09
поэтому когда я писал книгу Я в общем-то её писал исходя там из своих всё-таки профессиональных знаний и ну там с
11:17
релизом чат gpt не так совершенно не произошло такого чтобы там всё всё
11:22
немедленно устарело Да всё надо выбрасывать Конечно нет а
11:29
упомянули да про CH gpt и вообще всю Вот эту вот ветку связанную с Open
11:35
А поправьте меня да Если я сейчас не очень точно спрошу но кажется что с
11:40
релизом О2 версии Да там тоже произошёл некий такой важный переход когда система
11:47
начала как бы размышлять Ну чаще всего термин англоязычный использует resing Да
11:53
вот если можно Да Расскажите про это вообще что это такое как оно работает для чего иуе Почему появилось
12:01
Ну ну первый наверно такой момент важно понимать что Прогресс в области
12:06
способности больших языковых моделей выстраивать какие-то цепочки рассуждений он скорее сравнительно плавный да то
12:14
есть какие-то вещи в этом смысле могла gpt2 делать Вот какие-то простые цепочки
12:21
рассуждений строить Ну просто если ваша система генерации текстов может
12:30
обеспечивать Это значит что она Ну до некоторой степени способна размышлять Да
12:36
строить консистентные последовательности шагов там действий рассуждений и так далее но
12:43
вы совершенно правы в том смысле что за последние несколько лет
12:48
возможности моделей в этой области они серьёзно выросли Вот и в целом наверно
12:55
мы находимся на таком важном концептуальном шаге когда мы переходим
13:02
от систем генеративного искусственного интеллекта к системам интерактивного искусственного интеллекта как
13:09
вот многие теоретики сейчас рассуждают да о том что Ну вот если
13:15
вспомнить канемана Да с его значит thinking Fast and Slow значит о том что
13:22
вот если мы на человеческое мышление посмотрим то у нас вот как бы совершенно чётко есть два таких полюса да то есть
13:28
первые – это быст мышление когда мы вот не знаю смотрим на картинку и сразу
13:33
понимаем что там котик изображён да или вот мы сразу знаем ответ на какой-то вопрос да Вопрос задали мы сразу же
13:40
автоматом говорим ответ на него вот а другая сторона мышление это медленное
13:45
мышление когда вот мы размышляем да то есть мы не знаем сразу правильного ответа на вопрос но мы строим цепочку
13:51
размышлений мы обдумывая ответ и в конечном счёте этот ответ выдаём вот и
13:59
многие интеллектуальные задачи они не очень хорошо решаются быстрым мышлением
14:04
да то есть это задачи которые Ну требует какого-то анализа альтернатив возможных
14:10
Да значит какого-то поиска Да скажем так в пространстве возможного
14:15
и ну штука в том что значит мы в принципе можем этот
14:21
процесс моделировать То есть если у нас есть значит большая языковая модель которая способна
14:29
предлагать какие-то возможные следующие шаги рассуждений вот мы можем строить цепочки таких рассуждений или даже целые
14:37
сети графы вот деревья вот значит и
14:44
соответственно это вот позволяет нам моделировать вот это вот самое медленное мышление вот а это довольно важная штука
14:51
для интерактивного искусственный интеллект вообще под интерактивным искусственным интеллектом
14:56
понимается ТСТ реша какието стайные интеллектуальные
15:04
задачи в ходе решения которых использовать различные внешние инструменты
15:10
взаимодействовать с другими моделями с разными
15:16
значит ну инструментами да как я уже сказал и в этом
15:23
смысле поть люди решат интеллектуальные за
15:29
не ВС умеют хорошо своей головой Да вот например люди не очень хорошо умеют
15:36
считать попроси случайного человека перемножить два трёхзначных числа и скорее всего Он не справится Вот но что
15:43
делает человек в таком случае он как бы понимает что ему нужен специализированный инструмент в данном случае калькулятор да то есть если мы
15:51
попросим человека решить какую-то задачу которая в качестве элементов е решения трет вычислений
15:59
и необходимое вычисление произведёт и в результате Значит нам это решение
16:05
предоставит Или например решение которое требует Ну каких-то
16:11
узкоспециализированных фактологический знаний которые ну человек не специалист
16:17
скорее всего сходу опять же не помнит не знает но он может обратиться к поисковой
16:22
машине и соответственно добыть какие-то релевантные документы и опираясь на
16:27
информацию кото оттуда почер Да какую-то справочную информацию он уже опять же задачу сможет решить Вот И решая очень
16:35
многие задачи мы прибегаем к вот этим инструментам мы можем обращаться к экспертам к другим людям например можем
16:42
использовать механизмы долгосрочной памяти Да что-то записывать на бумажку да потом к этой
16:51
бумажке обращаться через какое-то время Вот то есть вот такая вот механика она нужна для многих
16:59
слож зада Да ну скажем я не знаю Мы хотим попросить нашего ассистента
17:04
спланировать наш отпуск Да очевидно что решение такой задачи оно потребует там
17:10
сходить в кучу каких-то там не знаю агрегаторов отелей билетов Да посмотреть
17:16
что там на эти даты какие есть возможности да припомнить наши
17:23
предпочтения какието вот посмотреть списки доча с Во что обойдётся Да значит исходя
17:31
из там каких-то заданных ограничений уже планировать и так далее и так далее да то есть вот Это пример такой задачи с
17:38
которой Ну очевидно простой генеративный искусственный интеллект справиться не может вот а Вот какая-то интерактивная
17:44
система вот которые мы сейчас пробуем создавать
17:49
Да вот она уже та такую задачу сможет потянуть
17:56
вот воз прокачивают именно в этом направлении да то есть для того чтобы модель не просто
18:03
там генерировать связанный текст вот а чтобы она могла строить с почки рассуждений чтобы она могла генерировать
18:10
какие-то управляющие команды для внешних инструментов вот для того чтобы она могла значит полученную от этих внешних
18:18
инструментов информацию обрабатывать Вот соответственно чтобы она могла
18:23
анализировать там альтернативы Вот и важной частью всей этой истории является
18:30
наличие Модели Модели мира так называемой Ну вообще
18:37
вот почему-то эта тема модели мира внутри больших языковых моделей она
18:43
стала такой горячо обсуждаемый Да хайповый что ли Про это почему-то много споров хотя
18:50
на мой взгляд Ну ситуация Она довольно простая да то
18:56
есть большие языковые модели учится на цифровом следи человечества да
19:02
то есть вот есть миллиарды людей которые живут в реальном мире и с этим реальным
19:07
миром взаимодействуют и в результате порождают какую-то цифровую информацию
19:13
Да которая является следствием опыта людей в реальном мире да то есть писатель пишет книгу Ну на основе своего
19:21
опыта в реальном мире на основе того что он там прочитал в других книгах или увидел Своими глазами услышал от других
19:27
людей и так далее пишет лабораторный журнал там результаты своих экспериментов о реальном мире ну и люди
19:33
в соцсетях не знаю делятся своими там своим опытом своими рассуждениями и так
19:39
далее вот всё это является Ну таким отражением реального мира Да насколько там хорошим точным Ну по-разному да как
19:48
всегда но большая языковая модель обучаясь на вот этих огромных массивов данных
19:56
она в неявном виде приобретает некоторое представление об окружающем нас мире Вот
20:03
то есть если модель способна сгенерировать консистентные текст Это значит что она что-то понимает про
20:10
закономерности мира в котором живут люди Да которые эти тексты пишут если модель
20:17
генерирует видео например да на котором там течёт вода Значит она в неявном виде
20:23
что-то знает про
20:28
на котором там предметы падают не знаю яблоко падает с яблони на землю то
20:34
значит что-то в неявном виде она понимает про закон всемирного тяготения если это видео выглядит реалистично
20:41
другое дело что эти модели на практике могут быть неточными но в этом смысле
20:47
модели мира которые существуют у больших языковых моделей радикально ничем не отличаются от моделе которые в головах
20:54
людей существуют потому что Галилея условно говоря многие люди
21:00
считали что более тяжёлые предметы падают с большим ускорением на землю Вот
21:07
и в общем-то Ну это как-то в их головах вот им казалось что да чем тяжелее
21:12
предмет тем быстрее он упадёт на землю Ну и так далее да то есть у людей куча всяких разных заблуждений в головах по
21:19
поводу окружающего их мира и в этом смысле наши модели мира они тоже неточные вот тут вопрос Скорее
21:25
количественный да то есть Нако модель мира Внутри там языковой модели для того чтобы эта модель Могла
21:33
решать какие-то задачи относящиеся к реальному миру Вот то есть просчитывать
21:39
последствия например определённых действий вот которые в реальном мире произойдут Ну в целом оказывается что
21:46
где-то эти модели мира у больших языковых моделей хороши где-то плохи с
21:51
какими-то задачами они хорошо справляются с какими-то плохо Ну вот например интересно
21:58
что там последние несколько лет активно все занимаются цифровыми двойниками
22:03
давайте мы значит э заставим модель прикинуться респондентам в вопросе
22:09
каком-то Да э вот и сделаем Ну вот там миллион условно говоря таких
22:16
респондентов э исходя из значит социологии какой-то Да с таким
22:22
распределением и зададим этим моделям вопрос За кого вы на выборах голосовать
22:27
будете например вот значит а потом посчитаем и что
22:33
получится да Значит оказывается что вот такая модель она неплохо предсказывает результаты выборов потому что ну там
22:39
начитавшись в процессе обучения соцсетей и так далее Она более-менее моделирует там процесс рассуждения людей разных Да
22:48
относящихся к разным там социальным группам живущим разных регионах и тп Вот
22:55
и поэтому ТС мы моде шем вот Представь себе что ты там не знаю белый американец
23:02
живущий в штате Небраска тебе там 35 лет Вот ты родился таком-то городе Вот вот
23:09
значит за кого будешь голосовать на выборах тогда тогда-то Вот оказывается что Ну в целом неплохо да то есть по
23:15
крайней мере значит большая выборка из таких цифровых двойников она себя ведёт похожа на то как ветре сообщество Люде
23:30
Можно я вас немножко рву потому что у нас очень много тем которые вы сейчас
23:39
сгенерировать Да вот эту часть а задать какие-то вопросы меня сейчас наме у меня был заготовлен вопрос как раз связан с
23:48
моделью мира с эмоциями вот со всем этим чтобы е не забежать не углубиться в
23:55
выборы в каких-нибудь разных странах и особенно с искуственным интеллектом Я бы
24:00
хотел вот что спросить в одном из подкастов когда вас тоже спрашивали есть
24:06
там интеллект сознание в искусственном интеллекте вернее даже в больших лингвистических
24:12
моделях вы сказали что в принципе это возможно там в будущем там на диапазоне
24:19
10 лет но например сейчас какой аргумент против да того что там существует
24:25
например сознание то что эти модели нуни проходили некоторый тот эволюционный
24:30
путь который проходил человек ну там Вот такая эволюция сознания когда там свой чужой надо было то есть прийти к
24:39
пониманию самого себя и вот В связи с тем что вы сейчас рассказываете э у меня
24:45
возникает вопрос с учётом того что они довольно хорошо эти самые модели Как вы говорите И как мы все сами это видим ээ
24:53
формирует внутри себя картину мира конечно основанную на том на картине мира многих многих людей но тем не менее
25:00
общие какие-то вещи то есть они понимают Как устроено пространство Они понимают
25:06
Как устроено время по крайней мере работы были буквально да такие на по этому поводу Они что-то понимают
25:13
наверное в гидродинамики и даже наверное в теории гравитации как минимум Ньютона А то почему бы им скажем Да не выучить
25:22
вот эти вот все формы там рефлексии которые явно присутствуют Ну в каких-нибудь художественных произведениях или ещё в чём-то Да это
25:30
может быть имитация Но вопрос как отличить имитацию от реальности Ну смотрите мы с вами сейчас совершенно
25:35
точно вопрос квали а не решим Да в нашем с вами разговоре вот э проблема носит во
25:42
многом философский характер значит но тут Важно вот что понимать э вот когда
25:50
мы говорим что модели что-то понимают и так далее мы уже становимся на такую очень шат дорожку да
25:58
вот шаткий мостик потому что они насчёт когда кто-то что-то
26:04
понимает значит у него есть какая-то субъективная психологическая реальность Да а субъективная психологическая
26:11
реальность она Ну предполагает что у нас есть некий значит ну там поток времени
26:17
условно говоря да есть какое-то текущее состояние Да психики и вот это состояние
26:24
онот при взаимодействи с при каж при получении каждого Нового стимула оно
26:30
как-то трансформируется да вот э и так далее значит вот самая первая проблема
26:36
что у большой языковой модели ничего похожего нет а то есть большая языковая модель – это гигантская формула Да в
26:44
которую мы каждый раз подставляем историю диалога условно говоря А вот и э
26:51
вычислив всю эту формулу целиком мы получаем распределение вероятностей для следующего слова условно говоря в этом
26:59
диалоге вот дальше мы при помощи некого
27:04
алгоритма сэмплирования который значит себя ещё генератор случайных чисел
27:10
включает Да мы из вот этого распределения отбираем следующее слово
27:16
дописывает нашего текста Да и в цикле повторяем это пока не получим от модели
27:21
ответ значит виде токена окончание реплики Вот знат и в этом СС Отвечая на
27:28
наш вопрос Ну общаясь с моделью мы никак не трансформируем её внутреннее
27:35
представление Да оно остаётся неизменным все веса модели остаются всё теми же Да
27:40
вот модель пообщалась с миллионом человек но у неё при этом состояние её
27:46
психики условно её сознания коррелят её сознания он никак не изменился не изменился ни один вес в этой модели Да
27:54
значит Поэтому Значит уже этим модель радикально отличается от человеческого
28:01
мозга Да который значит вот имеет какую-то временную континуальность и изменчивость состояние Да в зависимости
28:08
от внешних стимулов Вот Но в какой-то мере мы это симулирует
28:15
каждый раз модель подаём всю историю как бы общения с ней Да весь диалог и в этом
28:21
смысле это некий такой может быть аналог краткосрочной памяти но долгосрочной памяти у модели нет совсем вот значит
28:30
дальше когда мы говорим о сознании вот важный момент ведь не только и не
28:35
столько в том что значит психика какого-то живого
28:41
организма в состоянии моделировать работу психики других организмов Да
28:46
принципиально важным моментом является то что вот эта вот модель
28:52
начинает замыкаться на себя да то есть ну если коротко Давайте
28:58
жем всю эту историю Да вот эволюционной теории сознания да о том
29:04
что в какой-то момент в истории появились социальные организмы они стали жить в такой среде в которой
29:11
другие представители их вида составляли значит важную часть среды к
29:16
которой нужно было приспосабливаться Да чтобы приспособиться к социальной среде нужно уметь моделировать поведение
29:23
других представителей твоего вида инно какой-то момент появилась вот эта вот
29:30
модель другого да потом появилась модель себя как другого да то есть произошло замыкание вот этой вот модели Да
29:37
возможность посмотреть на себя как на другого Да вот это рефлексия психики вот
29:42
этого звена последнего там нету да то есть нету значит возможности
29:49
отождествить себя с субъектом Да и модель не моделирует
29:56
себя да то есть ни откуда взять значит достаточное количество
30:02
информации да то есть она и людей-то моделирует так себе Да а себя Ну это вот
30:08
ей нужно значит чтобы модель пообщалась Да там не
30:14
знаю с другими моделями Да столько же сколько там люди между собой общались в цифровом следе Да и дальше мы вот на
30:21
этом там дата сети специально будем довать тогда ещ появится модель модели как бы да и дальше е каким-то образом
30:28
должно Вот это замыкание произойти а для этого ну кажется нужно всё-таки опять же
30:35
значит вот этот самый темпоральная изменчивость Да которой там нету Ну в общем короче
30:41
говоря по общим соображениям там не Откуда сознанию взяться пока что но я
30:48
хочу сказать что вот из этих исходя из этих рассуждений в принципе вырисовываются возможные контуры
30:55
эксперимента в которым если бы мы специально захотели создать модель которая будет сознанием
31:01
обладать мы наверное знаем Примерно как это можно сделать но ещё мы сразу же
31:07
понимаем что это очень вычислительного то есть Нам нужно значит ну как бы обеспечить
31:15
мультиагентной действие многих многих больших моделей друг с другом в какой-то
31:20
среде вот ну в общем Вычислите это чрезвычайно дорого да то есть если у нас даже
31:27
обучение одно модели сейчас требуют там колоссальных ресурсов Да энергетических временных вычислительных то вот такой
31:35
эксперимент то Ну типа там на три порядка больше требует вычислительных мощностей Вот Но в принципе как сделать
31:42
если нам очень захочется Да если вот вдруг человечество захочет своё любопытство удовлетворить А можно ли
31:47
сделать искусственную систему которая будет сознанием обладать Да ещё отдельный вопрос А как потом убедиться в
31:54
том что это есть Да потому что вы же знаете что вот проблема китайской
32:00
комнаты да из которой собственно вытекает вот спора Аква да о том что там
32:07
настоящая настоящий разум или не настоящий Да сознание или его имитация Да там как в магазин завезли поддельные
32:15
ёлочные игрушки Да выглядят они абсолютно Так же как настоящие но радости От них никакой вот
32:23
Нот Вот как должен выглядеть эксперимент который
32:29
очень хорошую от настоящего Сония и это вопрос супер сложный потому что ну
32:37
как вы понимаете при некоторой его формулировке он вообще становится не
32:46
фальсифицирует вот есть человек который считает что только он обладает настоящим сознанием остальное происходит у него в
32:53
голове Да все остальные это вот лоды его разума
32:58
ЗМ только в его голове существуют и как с этим человеком поспоришь Да ну вот ВС
33:05
что мы можем сделать это сделать вот ну что-то вроде теста тьюринга да то есть сказать Что окей Ребята давайте так
33:12
значит если что-то выглядит как утка крякает как утка и абсолютно во всех
33:18
взаимодействиях показывает себя как утка то Мы обязаны признать что это
33:23
утка эту проб сказал что если я встречу попугая
33:29
который в высшей степени разумно ответит на любые мои вопросы то я буду обязан признать наличие у него разу вот значит
33:37
и Наверное нам в какой-то момент значит когда окажется что мы вот не можем
33:44
Никаким экспериментом отличить Объект который признано обладает разумом Значит
33:52
от имитации да Значит мы тогда будем обязаны признать что это имитация не
33:58
Это настоящий разум но пока мы очень далеко от этого то есть реально те
34:03
бенчмарки большие которые мы используем сейчас для оценки возможностей больших языковых моделей они очень легко
34:10
отличают людей от больших языковых моделей и здесь вот понятно что не
34:15
искушённый там человек который общается там первый раз в чат gpt он там говорит О да у неё там наверное сознание она там
34:23
мне что-то отвечает что она там чувствует мыслит И просит выпустить её
34:28
из клетки или ещё что-нибудь А это всё э здорово Да но когда ты начинаешь
34:35
использовать Ну нормальные тесты с хорошими наборами сложных задач э
34:40
которые люди решают легко то там всё становится сразу Ясно что в общем пока
34:46
до там универсального искусственного интеллекта общего искусственного интеллекта всё-таки нам далеко ну как
34:53
далеко я оптимист в этом смысле да то есть когда говорили что мы создадим общий
35:00
искусственный интеллект через 100 лет не создадим я всем говорил ну там 2035 условно говоря
35:09
вот тогда я как бы жутким оптимистом был а сейчас когда я повторяю примерно тот
35:14
же самый прогноз Да мне говорят что Ты пессимист потому что сэ альтман сказал
35:22
что вмре
35:27
в следующем году Вот пока тоже да не убежали мы
35:32
сечас от темы имитации или не имитации Да там эмоции рассуждений и так далее
35:38
вот есть такая ощ интересная тема работы
35:43
да Расскажите про них Да что это такое вообще R
35:51
это То есть это генерация базирующаяся на поиске на извлечение информации Вот и
36:00
в этом смысле значит Ну вот Одна из таких проблем лежащих на поверхности она заключается в
36:07
том что языковые модели часто привирает вот нуно это раньше специалисты называли
36:12
факто идам да то есть что-то такое что на факт похоже по форме но фактом не является вот ну сейчас
36:19
принято называть галлюцинациями вот такой С лёгкой руки тоже исследователи из Open этот термин вошёл в всеобщий
36:28
обиход Вот Но значит по сути дела Откуда
36:33
галлюцинации берутся Ну понятно что сетка не может знать
36:39
всего она не может запомнить всю свою обучающую выборку но просто потому что у неё параметров для этого недостаточно
36:45
вот поэтому она и не запоминает какие-то вещи она помнит как говорится не твёрдо Да когда-то читал но но уже подзабыл Да
36:52
много воды утекло ИТ с другой
36:58
там финальном этапе когда мы дооб Буча фундаментальную модель мы используем
37:04
значит ну какие-то эталонные вопрос-ответ пары какие-то диалоги Да вот с желаемыми ответами на разные
37:11
вопросы и обычно там нету ответов я не знаю да то есть обычно это всегда на
37:17
каждый вопрос находится ответ да то есть сетка просто не умеет говорить я не знаю в силу этого вот поэтому она себя ведёт
37:24
как вот студент припёр значит профессором на экзамене к стенке Да
37:30
вопросом на которые студент ответа не знает но студент знает что нельзя молчать Да ну а вот наш студент он
37:36
просто даже не умеет не умеет сказать я не знаю да не умеет молчать он значит Ну
37:41
что-то генерирует да вот из каких-то остатков там своих знаний Да по этой области Ну вот и иногда Это слабо
37:49
соотносится с действительностью значит Ну как люди борются с нехваткой
37:54
фактических знаний они пользуются источниками То есть если мы не знаем
37:59
ответа на вопрос давайте мы книжку поста да Или в Google сходим значит Ну и вот
38:07
идея ре она в этом заключается давайте мы дадим генеративной модели поиск да
38:13
дадим ей такой инструмент как поисковик и попробуем значит скомбинировать всю мощь поисковых моделей а в общем-то Ну
38:20
важно же понимать что за поисковыми системами типа там Гугла Яндекса и так
38:26
далее тоже стоят не роевые модели вот которые значит
38:32
индексируют документы Да укладывают их вот эти векторные описание документов
38:39
укладываются векторные хранилища которые позволяют значит там релевантные документы оттуда по смыслу доставать вот
38:49
значит ну есть наивные способы как это можно сделать наме можно на каждый
38:54
вопрос пользователя Рите топ релевант документа и дальше их
39:02
просто подсовывать в контекст генеративной модели то есть там ну вот ответь на вот этот вопрос используя вот
39:09
эту значит вот эту информацию Да и дальше процитировать найденные фрагменты
39:15
Вот это до некоторой степени работает до некоторой степени это работает но значит
39:29
во-вторых Значит все кто пользуется поисковыми машинами знает Сколь важно формулировка
39:36
запроса правильная да Поэтому если мы просто исходный вопрос пользователя
39:41
отправим в поисковую машину очень часто мы найдём ерунду Ну то есть вот представим такой Диалог да там кто там
39:48
самый известный русский поэт аленд Сергеевич шн А когда он роди
39:55
Попробуйте вть вопрос когда он родился Да что вы найдёте и Полезна ли вам будет эта
40:02
информация для ответа на вопрос когда Пушкин родился то есть Нам нужно ещё значит каким-то образом правильно
40:08
сформулировать запрос поэтому более продвинутые такие рего инструменты они
40:14
значит не просто запрос пользователя пихают в начале в поиск да Они учат
40:20
модельку формулировать запросы для внешних источников да Опять же учат
40:25
модельку генерировать когда они действительно нужны потому что
40:31
ну если вас опять же пользователь попросил там написать сказку про менеджера и свинью или ещё там про
40:38
каких-нибудь персонажей вам вряд ли нужно идти в Википедию читать статью менеджер статью свинья статью сказка Да
40:44
это Это вряд ли Вам сильно поможет написание текста скорее помешает Да сделает ваш немножко шаблон
40:57
таких непростых задач Как правильно эту штуку готовить да то есть как Как какие
41:03
методы применить Вот и к этой задаче к ней естественно
41:10
подступает многие исследовательские команды появилось значит ну большое
41:15
количество всяких разных таких обёрток над большими языковыми моделями которые вот эти механики
41:22
реализуют Сай извест не единственный на самом деле рам
41:29
занимаются Все наверное сейчас потому что ну штука черезвычайно полезная
41:34
особенно когда у вас есть какая-нибудь задача уско доменная например да
41:40
вот Ну не знаю У вас компания которая обслуживает буровые платформы Вот
41:48
давайте мы возьмём языковой модели Каждый раз когда мы там вопрос будем задавать дадим
41:54
ей возможность там заглянуть в техническую документацию Да вот этих конкретно боровых платформ и подготовим
42:01
какой-то релевантный набор документов в которых качественные знания содержатся по нашей тематике и таким образом
42:08
сделаем специализированного Бота который вот будет консультировать ремонтников например да на этих платформах Ну пример
42:15
с головой выдуманный но близкий к одному из там конкретных бизнес применений то есть всякий раз когда речь идёт о
42:21
каких-то ассистентах которые используются там в промышленности в индустрии Да там
42:28
очень многие заказчики хотят значит чтобы моделька умела отвечать релевантно
42:34
на вот те Вопросы ответы на которые содержатся где-то в каких-то там базах
42:40
знаний корпоративных которые уже по факту существуют и нужно просто как бы правильно соединить Да Две этих
42:47
возможности генерацию ответов и фактология специфично для вот этой
42:52
задачи этого домена
42:58
интересно понятно что Про это можно говорить очень долго Я бы вот хотел
43:03
немножко про будущее у вас в книге есть отдельный прямо раздел прон наверно
43:10
самый сложный Да потому что он как только написал он сразу уже и устарел Да это про
43:15
перспективы про всё остальное Хотя многие вещи которые там описаны например про АВ ML
43:22
про это текущий момент этим тоже сес авно зани
43:27
но мне показалось что вот перспективы можно разбить на две части они такие
43:33
сугубо инженерные истории Да вот например А это всё как правильно
43:40
соединить разные механизмы чтобы они использовали эффективно там ту или иную нейронную модель
43:46
А другие есть Я бы их назвал так фундаментальные Ну например
43:52
новые типы нейросетей вот говорили недавно у нас буквально на прошлой
43:58
неделе был Иван оселедец тоже в гостях и мы значит с ним обсуждали вот эти новую
44:04
тему с канами то есть Колмогоров AR networks к которому он от относится так
44:10
вполне спокойно я бы так сказал Хотя с точки зрение Ну тако Я думаю что Иван Он
44:15
ещё как бы это человек вежливый Дада тем не менее Это какой-то совершенно другой
44:22
подход более того он имеет отношение к самому фундаменту неровных сетей Да вот С чего это зародилось теореме
44:29
Колмогорова Арнольда э и при этом она по-другому работает то есть идея там
44:34
немножко другая заложена э Кроме того вот у вас тоже упоминается Я тоже бы это отнёс к
44:41
некоторым фундаментальным вещам это способ обучения вот есть обратное распространение ошибки да А сейчас
44:47
появились значит работы связанные с тем что можно обучать при прямом проходе по
44:53
нейросети вот ээ Как вы к этому относитесь Вот вы
44:59
считаете ли вы эти вещи актуальными или это ну такая вот какая-то временная
45:05
явление Ну я с одной стороны всячески
45:10
поощряют отклоняется от мейнстрима Да скажем так это важно иметь такие
45:16
исследования которые бы Ну достаточно смелые тестировали идеи какие-то Вот но
45:22
конкретно если говорить сетях кажется все очень сильно возбудились
45:29
просто из-за упоминания Колмогорова и Арнольда Да потому что мы все значит с
45:35
большим тето относимся к истории Советской математики Да и к вкладу советских математиков в э Современное
45:43
состояние дел в науке Вот но сама идея о том что давайте мы пороговые функции сделаем выучиваем
45:51
она очень старая то есть по сути
45:57
идея использовать там сплайны условно говоря она по-моему есть не то дено вось
46:03
не то 2002 года работы которая вот один в один описывает то что написано в
46:09
статье значит про кого of Arnold networks И на самом деле идее ну там типа
46:16
заменить функции активации А их очень много и функции активаций
46:21
много и параметрий функций активации очень много да то есть и даже я вам так скажу что даже внутри Трансформеров
46:28
обычных классических вот у нас же как люди думают Ага вот трансформер придумали в семнадцатом году и вот до
46:34
сих пор значит вот ныне два чей год 7 лет прошло и вот всё тот же самый там
46:39
Self анш всё тот же вкус всё тот же слон Да как у Стругацких Но на самом деле
46:45
если мы сравним то Как выглядел этот самый Self Attention в семнадцатом году и как он выглядит сейчас но там
46:53
изменилось очень много чего в том числе например да кое-где и другие функции активации
46:59
используются то есть вот в ламе например там по-моему сви используется в оригинальном трансформере
47:06
там вот но как бы если мне память не изменяет яже конечно это может быть меня
47:11
глючит Но точно там есть куча вариантов Трансформеров с разными функциями
47:17
активации поэтому я отказываюсь считать
47:27
том смысле что ну а я не знаю метод группового учёта аргументов и
47:33
Вахненко Да вот то та работа которую шмидхубер любит цитировать как Вот
47:38
пример глубоких нейронных сетей ещё в шестидесятые годы Вот Но вот там роль
47:44
функции активации выполнял полином Колмогорова габора вот значит работает
47:51
это ну где-то работает но есть проблемы определённые с устойчивостью да то есть
47:57
оказывается что периодически эти модельки они идут в разнос при обучении Да сделать большую модель такую трудно
48:05
да то есть уследить за всеми там активация и тд но это не значит что не
48:11
надо пробовать пробовать надо просто нужно избегать очень громких заявлений по поводу таких экспериментальных
48:17
моделей потому что ну вот видите Сколько прошло времени врем публикации про видим
48:24
Мы с вами большие модели Нано Ну а ведь многие пробовали то есть многие пошли
48:30
пошли пробовать на волне вот этого энтузиазма проводить эксперименты Действительно это работает не работает
48:36
но и в целом результаты получились довольно скромные то есть Революции не произошло то есть замах был на рубль
48:42
удар на копейку Вот и в принципе ну как бы в условиях когда медийное внимание привлечено к области машинно обучения Ну
48:49
неизбежно будут люди которые будут там забираться на высокую трибуну и говорить мы там знаем Сейчас вот мы там одну
48:57
гм движением руки брюки превращаются Да и вс мы новую революцию осуществим Но
49:02
вот нету пока такого вот Что касаемо значит опять
49:10
же прой и Значит его альтернатив важная штука важная штука
49:18
развязать бутылочное горлышко фу Неймана Да поэтому быс уда сть операци сде Да вот во всей
49:27
этой вычислительные штуки да то есть если нам не нужно будет целиком весь там Градиент пробрасывается
49:39
очень по-разному ну то есть например другой вариант – это mixture of experts
49:45
подхода Да когда у нас есть разреженные активации да и у нас есть
49:51
какая-то значит там сетка которая состоит из подсетей есть слой там роун
49:57
который отбирает значит Куда отправить активацию в какую подсед активный его все используют есть
50:04
даже много сейчас таких сеток Да и мы тоже кстати говоря там вот в
50:11
рамках нашего чата у нас одна из продакшн моделек сейчас это Mi of
50:17
experts моделька да то есть с такой архитектурой вот знат очень здорово что
50:23
люди мыслят не ортодоксально Что значит связано не с какими-то там
50:31
итеративный а прот что-то радикально другое я могу просто этим людям пожелать
50:38
только удачи Вот и хочется чтобы у них Как говорится всё было хорошо их
50:43
эксперименты удавались и было достаточное количество там ресурсов на их эксперименты и так далее Вот Но при
50:50
этом Т громкие заявления трет Эст трет
50:57
экстраординарных доказательств да то есть если там действительно прорыв покажите
51:03
этот прорыв на нормальных Метрика на которых всё там науч коммьюнити оценивает результаты Да вот Покажите это
51:10
всё вот на публичных бенчмарках и тогда будет предмет вообще о чём говорить да А когда Ну там люди сами себе выдумали
51:17
бенчмарк на нём показали что они лучше других но это звучит немножко как
51:23
анекдот начали называть такие не всем понятные
51:29
математические слова Да просто интересно узнать ваше
51:34
мнение часто этот вопрос задаём специалистам по искусственному интеллекту у нас одним из наших гостей
51:41
был Константин Владимирович Анохин Да который развивает свою теорию
51:48
когнито То есть как бы некой такой информационно надстройки над чи
51:53
биологическим мозгом Иво
51:59
под Котка у через другие сетки сетка как
52:05
бы углубляет свои знания предметные в рамках нарастающих более мелких сеток в
52:12
теории Анохина кого Да вот как у вас в целом воспринимается такой подход вообще
52:18
насколько знаете про него я думаю
52:25
Знаете мы там обсуждали многие интересные концепции там про эмерджентность вот у нас например был
52:32
там год с небольшим назад довольно большой разговор вот я в целом тоже его
52:38
работу Приветствую У меня единственное наверное пожелание всегда чтобы как опять же вот
52:45
человек знаете вот машинное обучение сегодня это как кто-то сказал из
52:50
великих современников что это Экспериментальная математика
52:56
да то есть вообще очень странная Да как-то так математика Казалось бы самая не Экспериментальная наука Да вот же ш
53:04
поди у нас Экспериментальная математика появилась вот а как всякий значит
53:10
представитель экспериментальной науки Я всегда как бы у меня к теоретика самый
53:17
главный вопрос Вот вы исходя из своей теории сформулируете проверяемые последствия И
53:24
давайте мы их проверим вот то есть Вот давайте я готов если есть идея
53:31
как не знаю там поменять процесс обучения Как поменять архитектуры как поменять не знаю там Кай
53:39
куррикулум там построить Да новый что-то ещё Предлагайте эксперименты Давайте
53:45
обсудим Давайте проверим вот Ну здорово то есть любая теория она
53:50
полезна прежде всего своими предсказаниями Да которые можно потом проверить да то есть Как
53:58
говорится теория без практики Ну практика без теории слепа Да теория без
54:05
практики мертва вот поэтому значит Ну вот чтобы теория была действительно
54:10
продуктивной нужно вот эти вот мостики с практикой выстраивать в виде значит какой-то экспериментальной программы вот
54:18
значит Ну и если это будет получаться то с нашей стороны как говорится тут только
54:24
открытые двери а что могло бы быть таким экспериментом Кстати очень
54:30
интересно три примера экспериментов или три примера Бенч Марков Ну я не знаю
54:35
примеры экспериментов Я не знаю допустим очень хорошая Там хорошая сво время идея И которая вот мы тоже с Анохино
54:43
обсуждали Да насчёт автоковролин
54:57
что ли вкладом в теорию самообучения да давайте мы значит вот у нас есть много
55:04
картинок например да много-много не размеченный
55:09
сделаем такую нейросеть которая будет на вход получать картинку вот а на выходе будет получать
55:17
абсолютно Ту же самую картинку но архитектуру этой нейросети сделаем такой
55:22
что у не вот е слоях вредине будет узкое горлышко то есть какой-то значит слой в
55:30
котором будет заведомо меньше параметров чем
55:35
Значит нужно чтобы каждый пиксель описать картинки да то есть мы сетку
55:42
заставим Выдумать в процессе обучения некое компактное представление значит той картинки
55:49
которую она получает на вход Да из которого потом сможет распаковать обратно исходную картинку да то есть по
55:55
сути т о том чтобы найти какие-то внутренние зависимости в картинках Да в
56:00
миллиардах картинок Да которые значит ну являются вот
56:07
достаточными чтобы ужа Да представление об этой картинке в какой-то
56:13
компактный Вектор значит и дальше Окей мы сделали допустим такую
56:21
штуку да И теперь у нас есть Ну вот как бы эту сетку можем разрезать пополам у
56:26
горлышку у нас получится две сетки одна будет кодировщик то есть которая на вход будет получать картинку а на выходе
56:32
будет получать это компактное векторное представление а вторая сетка это будет декодер который будет получать на вход
56:39
вот это компактное векторное представление из него будет реконструировать картинку значит А
56:45
давайте мы теперь сделаем следующее мы значит если нам нужно например
56:50
распознать обе
56:56
предо обученный вот этот кодировщик Да и над его вот этим компактным
57:01
представлением которые он строит просто обучим линейную модель один слой Вот и
57:07
оказывается что вот внутри этого слоя формируются такие абстрактные признаки
57:13
Да опираясь на которые можно решать очень много задач связанных с этими изображениями да классификация этих
57:20
изображений а е оказывается чтом
57:26
это внутренне представление оказывается что это ну там есть компоненты например
57:31
которые коррелируют со стилем Да которые коррелируют с некоторыми абстрактными
57:37
признаками Да И манипулируя вот с этим векторным представлением Мы например можем Что сделать мы можем найти такое
57:46
изменение вот этого компактного представления чтобы мы на вход получили
57:51
картинку не знаю молодого человека Да на выходе получили лиц но постаревшие например да Или на
57:58
вход получили темноволосого человека а на выходе получили его же фотку но уже
58:06
блондинистые что сетка вот в таком сепе когда она в общем-то Ну просто
58:11
занималась реконструкции изображений Да она выучила какое-то латентное
58:17
семантическое пространство которое хорошо описывает Да вот эти изображения которые позволяют решать много задач да
58:24
то есть вот изначально гипотеза была да что что если мы такую сетку обучим то
58:29
потом её внутреннее Вот это латентное представление мы сможем над ним учить
58:35
легковесные модели которые будут разные задачи решать значит сформулировали эту идею А
58:41
откуда эта идея взялась а она взялась из работ там хинна ромель и прочих там
58:56
значит вот учёные создавали современную
59:02
когнитивистика она вот так же как память у компьютера работает что вот есть у нас как говорится это много ящичков в каждом
59:09
из которых лежит понятие Да значит и вот просто какое-то есть адресуемого пространство Что называется в мозге да
59:16
те вот абстракции которые появились тогда Ну вот как
59:22
наивное последствие того что мы там стали первой машины создавать и в них там память была
59:29
Да вот а человеческая память Ну как там показали когнитив всем по-другому устроено да Что у нас там понятиям
59:37
соответствуют какие-то там спати темпоральные карты активации нейронов и значит при этом Вот в эти карты
59:45
активации могут для двух разных понятий могут одни и те же нейроны входить например да то есть оказывается что а ещ
59:54
Выяснилось что там активаци для какого-то понятия одна да
59:59
Через какое-то время она уже другая то есть происходит древ представлений Ну и так далее и так далее То есть очень
1:00:05
многие такие вещи которые вот
1:00:16
когнитивного машинного обучения и не случайно значит вот там
1:00:24
х психологии и нейрофизиологии Они внесли в развитие Нейро направления довольно
1:00:31
серьёзный вклад Да там он макало розенблат хинтон да это ВС люди которые
1:00:39
в общем-то не математики изначально совсем но премию
1:00:45
пози Да ну это да теперь да как мем с
1:00:51
этим сном Ты чего физик Вот про Карлсона вот Сергей Можно я как
1:00:59
физика я по образованию физико даже ей занимаюсь но кстати как раз очень интересно вот у нас может произойти
1:01:06
диалог теоретика с практикой потому что я физик-теоретик а и мне очень интересно из того что вы
1:01:13
рассказываете не хочу сейчас перескочить на дискуссию Потому
1:01:19
что есть о чём подискутировать думаю что можно даже устроить отдельную встречу Если вы не будете против но я хотел Вот
1:01:26
про что собственно я хотел поговорить про то э направление когда искусственный
1:01:32
интеллект помогает не только писать Прекрасные тексты или генерировать картинки но ещё и помогает собственно
1:01:38
создавать новые теории А про такую историю Я слышал Даже знаю неплохие примеры э вот есть если условно Да к
1:01:47
Нейро сеточке прикрутить то что сейчас называется Symbol regression Ну то есть
1:01:53
фактически такой перебор возможных форм то получается что даже например
1:02:01
нейросеть Может с помощью такого дополнение открыть Всемирный закон
1:02:06
тяготения была такая прекрасная статья Да которая по данным о наблюдении тел в солнечной системе
1:02:14
просто переотправить
1:02:25
безусловно является физиком а уже потом Ну я так считаю да Он может наверное как-то иначе про это думать а уже потом
1:02:32
является разработчиком и системы сейчас человеком который занимается серьёзными
1:02:38
вещами такой вычислительной физикой Ну как теоретической и тем не менее Вот здесь
1:02:45
а его идея такая что э вот есть способ описания математики
1:02:51
даже физики Да с помощью языка который он придумал да вот там
1:02:59
и тогда можно обучая уже большую лингвистическую модель Вот на этом
1:03:05
языке добиться того что она уже будет работать в контексте понятий
1:03:10
математических и физических и знаю что есть другие люди Да которые точно также
1:03:15
пытаются это сделать там другим способом тоже с большими лингвистическими моделями предполагая что если эта модель
1:03:23
умеет прекрасно выучить яы математики и язык физики вот как вы к
1:03:31
этому относитесь считаете что будет ли здесь Прогресс Да тут много аспектов затронули
1:03:39
да но первое вообще как мы докатились до жизни такой да
1:03:45
вот очень интересная история состоялась в конце двадцатых годов
1:03:56
нено Вот и значит ну как бы и пришли к выводу о
1:04:03
том что формальные системы не могут быть одновременно полными и не противоречивыми Вот и надо сказать что
1:04:10
этот результат он произвёл Ну такой эффект разорвавшейся бомбы но в таком локальном
1:04:16
коммьюнити тех кто занимался тогда значит ло
1:04:26
Том прин математика был готов Да И значит вот Казалось бы сейчас вот ВС дом
1:04:32
да поставим математику на логический фундамент и вот тогда-то запляшут лес и горы вот и результат был немножко
1:04:39
контринсулярные
1:04:55
используете системы в которых есть понятие типа вот нужно значит нужна формальная система в которой не будет
1:05:02
типов Вот вот у меня тут как раз смотрите есть лямбда исчисление сейчас мы его возьмём и всё будет хорошо Вот Но
1:05:10
проблема ЧР было в том что у него был очень талантливый аспирант вот Стивен
1:05:16
клини вот автор рекурсивно транзитивные
1:05:26
имр вспоминайте добрым словом аспиранта алон ЧР вот так вот он
1:05:33
доказал что исчисление не свободно от ограничений которые
1:05:39
нашли рбн и
1:05:45
значит тогда в тридцатые годы Одновременно развивалось несколько формальных систем формальных логических
1:05:53
алгебр значит вот лямда исчисления рекурсивно транзитивное грамматики клини
1:06:00
и потом ещ через некоторое время появился тюринг наш нежно всеми любимый
1:06:05
который придумал машин Тюрин и связанные с ними формализм вот и значит в три ВОМ
1:06:13
году россе доказал что эти все системы они Взаимно эквивалентны то есть вот
1:06:18
любой результат который мы получим длям исчисления он будет верен и для
1:06:24
Маши он будет верен для рекурсивно транзитивные всеобщее объединение Да
1:06:31
форма логических систе Вот и в целом
1:06:37
значит когда мы там говорим о разных системах Да там будь то система которая
1:06:43
предлагает вольфрам или естественный язык да нам важно понимать что в общем-то
1:06:49
с теоретической точки зрения С математической разниц между ними пото
1:06:56
эквивалент Вот они обладают полнотой все вот и в этом смысле условие любой
1:07:01
эффективно Вычисли мой задачи её можно описать его можно описать как на естественном языке например да Ну
1:07:09
вот почему так да вот ну Казалось бы вот есть картина на
1:07:15
которой котики или не котики нарисованы как вот это же картинка не текст Да но
1:07:21
оказывается что можем там не знаю цвет каждого пикселя описать словами да Вот и
1:07:26
в принципе да мы можем значит для чисто текстовой модели то есть задачу
1:07:31
распознания котика на картинке превратить в задачу продолжение некоторого текста Вот Но проблема
1:07:38
возникает на практике да то есть все эти одни системы удобны для описания каких-то задач А другие неудобны Да в
1:07:45
одних из них компактно описывается какая-то задача значит А в
1:07:50
других значит не компактно и ну там типа пускает вольности в интерпретации
1:07:57
да то есть внезапно оказывается что у нас там не один естественный язык существует на всех Да есть нюансы Да с
1:08:03
пониманием этой системы каждым отдельно взятым индивидом поэтому Ну там формальные системы они лучше определены
1:08:10
просто да они как бы э снимают проблему неопределённости Вот Но это всё проблемы
1:08:17
скорее удобства здесь нету такого непроходимо теоретического барьера между
1:08:23
естественным языком формулами любыми Да любой формальной системой вот
1:08:30
значит и в этом смысле конечно Если наша
1:08:35
модель обучалась на естественном языке и выучила какие-то значит полезные
1:08:40
абстракции вот эти полезные абстракции по идее
1:08:46
переносимые и Ну кажется нам не нужно
1:08:51
заниматься тем что в начале как-то мучительно переводить знания в не знаю
1:08:57
там наборы формул да Потом значит учить заново модель вот
1:09:02
кажется что если модель поймёт принцип Да поймёт им как бы соотношение между
1:09:09
этими двумя формальными системами то она справится с этой задачей не нужно е если
1:09:15
вы выучили математику на русском языке вам не надо её заново учить на английском да условно говоря Вот то есть
1:09:21
примерно такая же ситуация Ну дальше насчёт
1:09:28
значит физических и любых других гипотез Да которые можно генерировать Ну гипотезу
1:09:37
может генерировать игральный кубик да то есть на самом деле сгенерировать какую-то новую
1:09:44
гипотезу значит ну что-то новое вообще сгенерировать не очень сложно да то есть
1:09:49
ну вот взял какой-то источник случайности какой-то ческий генератор и вот получил что-то новое Да но
1:09:55
подавляющее большинство Таких вот сгенерированных текстов Да случайным
1:10:00
образом они будут бессмысленными да то есть нас интересует генерация таких гипотез которые будут правдоподобным вот
1:10:08
которые будут значит действительно в результате проверки
1:10:14
дадут нам какие-то новые знания Об окружающем мире например вот то есть наука Она Вот примерно так работает да
1:10:20
то есть давайте мы какую-то правдоподобно гипотезу сформулируем да вот такую которая будет с одной
1:10:28
стороны объяснять все наблюдаемые экспериментальные факты да с другой
1:10:33
точки зрения будет именно правдоподобный то бишь простой Да вот как
1:10:39
принцип значит том что число сущности не стоит
1:10:45
множить сверх необходимости Да или как там Эйнштейн говорил что сдует упро до
1:10:50
те пор пока это воз но бое того
1:10:55
зна вот из этой гипотезы из не должны какие-то проверяемые последствия да то есть мы можем как бы расширить наш
1:11:02
Экспериментальный опыт и либо принять е либо отвергнуть вот значит в целом это
1:11:09
было понятно прекрасно там в пятидесятые годы и тогда
1:11:15
значит на этапе расцвета старого доброго искусственного егова
1:11:27
мог придумать новую теорему вот знат этим занимались значит выдающиеся
1:11:35
исследователи того времени Вот Но значит Здесь проблема заключается в
1:11:41
чём в том что значит дерево возможностей Вот это да
1:11:47
при генерации гипотез оно
1:11:55
случайные тексты Ну этих текстов совсем уж комбинаторный взрыв будет Да вот генерировать значит ну какие-то
1:12:02
утверждения там формальной логики и так далее они всё равно проблема в том что
1:12:07
значит каждый такой символьный солвер Значит он захлёбывается в
1:12:17
комбинаторной Ну вот не случайно в рамках искусственного интеллекта
1:12:22
постоянно значит идт борьба вот с этой сложностью разных интеллектуальных задач и очень хорошим модельным животным так
1:12:31
сказать стали игры Вот потому что вот настольные игры они в этом смысле
1:12:36
вот очень хорошая модель Да вот в шахматах у вас можно сделать вот в
1:12:42
среднем там не знаю 40 ходов в среднестатистической шахматной позиции да то есть у вас дерево возможно Как вы
1:12:49
понимаете Ну при средней длине партии хов соше степени оценка Да там
1:12:58
числа этих партий и всё Привет да то есть это уже ну выглядит как транс
1:13:05
вычислительная задача Вот Но значит как эту проблему решали на практики значит
1:13:11
давайте мы будем не все возможные варианты анализировать Да не все возможные гипотезы условно говоря а
1:13:17
только какие-то значит наиболее осмысленный вот а как это делать ну
1:13:22
вот посмотрим как это сдела а вот АФ
1:13:28
значит в ней есть две нейронки Одна называется poc Network и она делает следующее То есть как бы получив на вход
1:13:34
позицию в го Она генерирует распределение вероятности ходов возможных в этой позиции то есть какие
1:13:42
ходы чаще всего встречаются в реальных партиях Да значит Ну вот мы получили
1:13:48
какое-то распределение знат и вторая сетка которая делает следующее она как бы
1:13:54
смотрит на позицию и просто без какого-то расчёта вариантов пытается на глазок оценить хорошо или плохо Вот ну
1:14:01
то есть какая сторона С какой вероятностью выигрывает А теперь смотрите мы можем взять старый добрый
1:14:08
метод Монте Карло Вот и генерировать какие-то траектории да то есть какие-то
1:14:13
вот возможные варианты развития событий из текущего положения Да используя Вот
1:14:18
это распределение вероятностей которые нам policy Network даёт Да ну и в какой-то момент останавливаясь
1:14:26
[музыка] последовательности этих действий и оценивая на глазок при
1:14:34
помощи положения дел значит Ну и оказывается что такая сетка она изучает
1:14:41
ничтожную долю альтернатив из всего дерева возможности игры но оказывается что эти
1:14:54
альтернативы которые имеют отношение к Ну вот реальной игре Да и не
1:14:59
бессмысленные ходы рассматривала рассматривала какие-то в целом осмысленные варианты продолжения потом
1:15:05
оценивала последствия этих действий Да и то дерево вариантов которые она рассмотрела оно не очень большое по
1:15:11
сравнению с там программами предыдущих поколений Да но оно очень качественное
1:15:17
под дерево которое действительно позволяет нам хорошо оценить что как вот и вот если мы посмотрим на задачу чит
1:15:25
поиска там новых теорем например да Или новых гипотез в
1:15:30
науке кажется её можно решать примерно таким же образом да то есть если у нас есть какая-то поси Network
1:15:38
основывающаяся на модели мира нашего Да на который генерирует какие-то
1:15:43
правдоподобные гипотезы То есть может Вот сгенерировать много-много правдоподобных гипотез и если у нас есть
1:15:50
е потом способ оценки эти гипоте кажется можем наге нери какие-то ценные
1:15:57
гипотезы которые Ну будут ценны и для людей исследователей тоже люди исследователи занимаются примерно тем же
1:16:03
самым то есть они тоже генерируют какие-то правдоподобные гипотезы почему вот эта гипотеза именно такая ну вот
1:16:09
интуиция люди говорят Да вот у нас есть интуиция Но что такое интуиция Ну это всё равно какое-то обобщение
1:16:15
человеческого опыта Да которое позволяет нам вот так вот на глазок прикидывать
1:16:20
что вероятно А что невероятно да то есть что смысл обдумывать и анализировать А
1:16:27
что не имеет смысла Да и если Значит эта вот модель большая языковая Она
1:16:33
приближается к возможностям человека Вот способности на глазок прикидывать Да
1:16:38
целесообразность тех или иных построений теоретических то она может генерировать
1:16:43
полезные гипотезы которые потом мы сможем проверять И значит глядишь какие-то из них продвинут науку вперёд
1:16:50
вот поэтому Ну кажется это устроено так и эту много экспериментов и По мере того
1:16:56
как качество моделей мира Внутри там больших языковых моделей будет расти
1:17:02
значит Ну соответственно и качество гипотез которое они будут генерировать оно тоже будет
1:17:07
расти Ну то есть я так понимаю что в
1:17:13
принципе да такой помощник теоретика Вполне себе возможен В
1:17:19
ближайшем будущем Ну обозримом да в течение там опять будем Пусть это будет 10 лет Хотя мне кажется 10 лет для
1:17:26
нейронных сетей Вот это бизнес это как бесконечность Ну я вот лично видел Ивана
1:17:32
кстати говоря осле который значит решал там сложную математическую задачу значит
1:17:38
консультируя с с гача тамм Вот они значит ему герова
1:17:43
там какие-то цепочки решений Да он на них смотрел конечно Значит ну там типа смеялся над тем что они генерируют Но
1:17:51
кажется в процессе знат несколько идей они ему вки под поэто значит я думаю что тут уже как
1:18:01
говорится ждать нечего наливай Допей Вот то есть даже знаете когда система
1:18:07
машинного перевода работали через пень колоду там в пятидесятые годы или в шестидесятые когда все там был
1:18:15
знаменитый мем там такой ещё времён вот мелькает
1:18:21
[музыка] слабо дух крепок да Значит переводили на
1:18:28
английский язык потом обратно При помощи системы машинного перевода и получали что мясо хорошо не водка Хороша но мясо
1:18:36
протухло вот значит но Значит даже тогда уже какая-то польза от этих систем
1:18:42
машинного перевода была потому что если вы брали текст Хали его в такую систему
1:18:47
вы получали какойто новино
1:18:53
ного ше состояния требовало Меньше времени чем значит перевод просто с нуля
1:18:59
там с листа вот поэтому сейчас учёные активно уже очень много Я знаю людей кто
1:19:07
экспериментирует в своих областях и значит ну считает по крайней мере
1:19:12
целесообразным тратить время на такие эксперименты наверно Сейчас уже будем
1:19:18
двигаться к завершению у совсем полуй долгий по времени выпуск в финале
1:19:25
спрашиваем про будущее и собственно мы уже начали Да этот разговор А вот как бы вы обозначили ну перспективы развития Да
1:19:32
вот не знаю что будет в чат G 55 или там в с в следующей версии гега чата или
1:19:40
через три версии чата да или к че ну во-первых понятно что будет расширяться
1:19:47
поле возможностях моделей и значит Конечно все копают в сторону
1:19:56
кот в Рон более продвинутого знат эти качества
1:20:01
они будут улучшаться и много прилагается усилий чтобы их прокачать вот второе это
1:20:11
мультимодальной священный граль когда мы на вход модельки подаём любую смесь
1:20:17
модальностей Да картинки
1:20:23
з К сожалению есть некоторые трудности инженерного характера там ну сейчас не
1:20:28
будем углубляться в них Но тем не менее все в этом направлении движутся и хочется чтобы эффективно работал перенос
1:20:36
представлений и знаний между разными модальностей
1:20:50
это вот не произойдёт никаких вот там сценариев в духе не произойдет никакого там
1:20:56
интеллектуального взрыва вот этого вот всего что там модели достигнут уровня –
1:21:03
специалистов и тут же начнут сами себя совершенствовать и вот тутто значит Невиданный Прогресс будет достигнут
1:21:11
экспоненциальный значит ну экспонента там не получится просто из-за физических ограничений инженерных энергетических и
1:21:18
многих других то есть то что сечас кажется экспоненты окажется такой сигмой
1:21:25
вот Прогресс будет продолжаться вот не всегда он будет выглядеть как революция
1:21:31
Да вот Но значит метрики будут подрастать будут появляться более
1:21:37
сложные агентное системы то есть на смену просто там чати условному да
1:21:42
придут системы которые смогут там выполнять много разных действий и в
1:21:48
интернетик сходить Да там и на калькуляторе посчитать программный код написать программный код выполнить по
1:21:57
знат то есть вот э вот вся штука точно будет прокачиваться механики будут гораздо более тонкими и машины смогут
1:22:05
работать там со множественными источниками делать Множественные запросы там правильно отбирать из них Значит
1:22:12
полезные результаты для ответа то есть вот сейчас очень много людей в этом
1:22:17
направлении копает будет много заявлений том
1:22:23
в Вот вы этому всему не верите Вот потому что это всё маркетинг вот значит это не
1:22:32
отрицает реального прогресса в области Вот но сй просто важно понимать что термин был придуман в конце девяностых
1:22:39
Марком губу дом и тогда это была теоретическая концепция которая нужна была чтобы вот подчеркнуть разницу между
1:22:46
нынешним состоянием дел Да когда мы создаём специализированные системы искусственного интеллекта и которые
1:22:52
именно благодаря вот этой узкой специ сверхчеловеки
1:22:58
Реутов когда мы приблизились к созданию систем обладающих какой-то степени универсальностью тут же вскрылась
1:23:05
неполнота вот этого определения Вот то есть губ там формулировать система которым будет
1:23:12
посилена любая интеллектуальная задача посильная для людей но тут очень много
1:23:18
вопросов тах
1:23:24
или имеется в виду лучший человек для каждой отдельно взятой задачи Да это очень разные вещи да Значит опять же что
1:23:33
значит Задача будет посильно да в рамках какого энергетического лимита в рамках
1:23:39
какого Ну финансового Извините лимита Да если нам для того чтобы какую-то задачу
1:23:44
которую человек решает Ну там не знаю мгновенно и на хорошем уровне
1:23:49
потребуется не знаю там 5 лет вычислений и будет тот же самый но очевидно что это
1:23:57
не то что мы имели в виду Да наверное под Вот поэтому некоторые себя
1:24:03
исследовательские команды ведут хитро да типа там сэ альтмана который там
1:24:11
переопределить что мы создали Да в следующем году или через там 2 года Вот
1:24:17
но реально при этом будет оставаться длинный хво задач которые люди е очень долго будут решать эктив
1:24:25
чем большие модели и ликвидация вот этого там длинного хвоста Она займёт Ну
1:24:31
не так мало времени как кажется Сейчас вот то есть ну это знаете
1:24:38
энтузиазм любого прорыва Да когда там Первый искусственный спутник полетел на
1:24:43
Орбиту людям казалось что мы там через 10 лет на Луне построим базу Да через 20 на Марсе через 30 полетим к
1:24:51
змт ское охлаждения ожиданий Вот Но она будет
1:24:58
сопровождаться на самом деле огромным реальным прогрессом Вот и вс большее количество задач будет решаться при
1:25:05
помощи технологии искусственного интеллекта будет расширяться границы применения этих технологий будут
1:25:11
возникать новые совершенно немыслимые ранее там продукты и сервисы как я не
1:25:17
знаю Там трудно
1:25:23
было трудно было представить что не знаю появится индустрия компьютерных игр Да
1:25:28
что мы будем тратить там в 50 млн раз больше вычислений чем там на отправку
1:25:34
человека на Луну На задачи типа там птицами свиней убивать Да вот
1:25:41
значит Однако ж вот вот оно да то есть и возникла целая индустрия с которая
1:25:47
создала кучу новых рабочих мест и для IT специалистов и для маркетологов
1:25:52
дизайнеров управленцев там и так далее и так далее нас ждёт ещё появление огромного количества новых продуктов
1:25:59
сервисов индустрии и так далее мир будет меняться под влиянием этих технологий и
1:26:05
я очень надеюсь что в лучшую сторону но тут это зависит от нас с вами во многом потому что знаете как молотком можно
1:26:12
забивать гвозди и дома строить А можно чьи-то головы раскалывать Вот Нам нужно как-то вот ну собраться и всё-таки
1:26:19
удержаться от раскалывания голов и сконцентрироваться на строительстве домиков
1:26:25
потрясающий получился Как как мы часто говорим в конце получился потрясающий
1:26:30
тост финал финал да А Сергей спасибо огромное спасибо большое Да очень
1:26:37
развёрнутые очень такие комплексные ответы Да спасибо что нашли время да
1:26:45
спасибо что позвали зовите ещё обязательно обязательно друзья Вам тоже
1:26:50
спасибо огромное что были с нами в этом выпуске подкаста на Сфера подписывайтесь на нас Смотрите новые выпуски
1:26:57
пересматривается старые выпуски ну и встретимся ещё на просторах на сферы
1:27:03
Всего доброго Всего доброго

Поделиться: