AI в науке — Open Talks с топ-учеными и экспертами в области искусственного интеллекта

Топ-ученые и AI-эксперты встретились, чтобы обсудить, как ИИ может перевернуть медицину. От пеницилина до генотерапии — за 100 лет мы удвоили продолжительность жизни. Сможет ли ИИ ускорить следующие революционные открытия?

*Meta (владеет соцсетями *Instagram и *Facebook) признанна экстремистской организацией и запрещена в РФ
**https://www.youtube.com/watch?v=QIkoLUNjOEM
***https://300.ya.ru/

таймкоды

00:00:03 Введение

  • Приветствие от Павла Подкорытова, сооснователя I и Telan Hab.
  • Призыв подписаться на телеграм-канал для общения в комьюнити.
  • Тема встречи: ИИ в науке.

00:00:56 Рост продолжительности жизни

  • За последние 100 лет продолжительность жизни увеличилась в два раза.
  • Обсуждение влияния научных открытий на этот рост.
  • Идея использования ИИ для ускорения научных открытий.

00:01:53 Представление гостей

  • Павел Добрынин из Университета Хьюстона: проблемы развития человека.
  • Михаил Тихомиров из МГУ: обработка естественного языка и LLM.
  • Павел Докшин из НИИ Центра Алмазова: исследования в области заболеваний сердца.
  • Илья Макаров из АИРЕ и Института системного программирования РАН.
  • Андрей Кузнецов из АИРЕ и Университета ИТМО: мультимодальные архитектуры и генеративное проектирование.

00:04:28 Представление участников

  • Павел Докшин: антиоксифицирующая терапия и новые лекарства для сердечно-сосудистых заболеваний.
  • Михаил Тихомиров: адаптация LLM на русский язык и медицинские приложения.
  • Андрей Кузнецов: интерпретируемость языковых моделей и генеративное проектирование.
  • Илья Макаров: прикладные исследования в области ИИ, включая моделирование эмоций для роботов и распознавание древнеегипетского языка.

00:08:40 Применение ИИ в медицине

  • Пример использования ИИ для скрининга мишеней в антиоксифицирующей терапии.
  • Ускорение процесса поиска мишеней с помощью машинного обучения.
  • Выявление 119 мишеней и подбор потенциальных агентов.
  • Тестирование агента «К сети девяносто» на пациентах.

00:11:26 Технологии ИИ

  • Использование классификатора ближайших соседей для анализа сети взаимодействующих генов.
  • Сокращение количества тестируемых веществ с 1595 до 11.
  • Подчёркивание эффективности ИИ в ускорении научных исследований.

00:12:53 Релиз модели AlphaWolf от DeepMind

  • Модель AlphaWolf — развитие AlphaFold, использующее эволюционные алгоритмы.
  • Применение LLM на маленьких моделях для создания вариативности идей.
  • Улучшение качества гипотез с помощью более сильной модели.
  • Примеры применения: решение математических задач, ускорение алгоритма Flash-Hash на 30%.

00:13:46 Преимущества эволюционных алгоритмов

  • Эволюционные алгоритмы позволяют генерировать цепочки, которые человек не может проверить.
  • DeepMind известен успехами в синтезе архитектуры.
  • Работа с кодовыми последовательностями помогает решать сложные задачи.

00:14:48 Роль больших языковых моделей в науке

  • Большие языковые модели помогают учёным проводить обзоры и писать код.
  • Учёные часто не знакомы с базовыми подходами в смежных областях.
  • ИИ может облегчить рутинную работу, например, в медицине.

00:17:08 Ассистенты в науке

  • Ассистенты могут формулировать гипотезы, делать обзоры литературы и писать код.
  • Примеры компаний: Meta, Google, стартапы вроде Sakan.
  • Машинное обучение меняет научный подход в биомедицине.

00:19:02 Влияние ИИ на учебный процесс

  • ИИ упрощает написание эссе и статей.
  • Увеличение количества статей, генерируемых ИИ, вызывает сомнения в их качестве.
  • Вопрос о полезности статей, созданных ИИ, остаётся открытым.

00:20:59 Нобелевская премия за нейронную сеть

  • Нейронная сеть предсказывает структуру белка по нуклеотидовой последовательности.
  • Модель реконструирует основную структуру белка, но не процесс сворачивания.
  • Ресурс полезен для анализа мутаций и описания функций белков.

00:24:09 Практическое применение открытия

  • Открытие помогает описывать функции белков и анализировать мутации.
  • Несмотря на полезность, модель не является окончательным ответом на вопросы о сворачивании белка.
  • Необходимо дальнейшее развитие для более глубокого понимания процессов.

00:24:52 Анонс AlphaFold 3

  • Google анонсировал третью версию AlphaFold, которая позволяет предсказывать структуру белка с точностью 99,9%.
  • Технология позволяет снижать затраты на исследования и предсказывать взаимодействия.
  • Несмотря на ограничения, технология уже имеет практическое применение.

00:25:39 Применение в институте Вейсмана

  • Коллеги из института Вейсмана использовали AlphaFold для поиска нового антимикробного антибиотика.
  • Результаты исследования были опубликованы в статье.
  • Большие корпорации, такие как Google, активно развивают подобные технологии.

00:26:37 Ограничения и перспективы

  • Результаты исследований AlphaFold пока не дошли до клиники.
  • Тестовые выборки показывают высокие результаты, но в реальной жизни метрики могут не соответствовать ожиданиям.
  • Реальное применение технологии может занять 5–10 лет.

00:28:33 Ускорение доклинических исследований

  • Доклинические исследования будут ускоряться благодаря новым технологиям.
  • Большие данные и многофакторные исследования требуют более прицельного подхода.

00:29:23 Перспективы автоматизации

  • Автономные агенты могут заменить преподавателей и улучшить качество образования.
  • Автоматизация рутинных задач освобождает время для творчества и научных прорывов.

00:30:41 Эффективность в синтезе лекарств

  • Применение AlphaFold и LLM увеличивает долю полезных молекул с 3% до 12%.
  • Комбинированные подходы значительно повышают эффективность синтеза.

00:32:27 Проблемы доверия к ИИ

  • Врачи часто предубеждены против новых технологий, что снижает эффективность их использования.
  • Пример с ChatGPT, который поставил редкий диагноз, показывает важность доверия к ИИ.

00:34:02 Будущее технологий

  • Студенты уже используют ИИ, и их восприятие технологий будет меняться.
  • Технологии будут развиваться, предоставляя доступ к упорядоченным знаниям.
  • Важно преодолеть крайности в восприятии ИИ.

00:35:39 Ответственность за модели

  • Вопрос о ответственности за опенсорсные модели остаётся открытым.
  • Необходимо найти логику решения вопроса ответственности.

00:36:32 Роль искусственного интеллекта в медицине

  • Искусственный интеллект может заменить консилиумы врачей, позволяя эффективно обрабатывать большие объёмы данных.
  • Ансамбли моделей могут улучшить качество решений по сравнению с отдельными моделями.
  • Рецессия в экономике приводит к снижению качества образования и медицины, что делает внедрение ИИ актуальным.

00:37:25 Ответственность и безопасность в медицине

  • Открытые системы позволяют быстрее находить и исправлять ошибки благодаря активному тестированию.
  • Человек остаётся ответственным за принятие решений, но ИИ может дополнять его знания.
  • Важно, чтобы ИИ мог сообщать о своей неуверенности в предсказаниях.

00:39:14 Эмпатия и качество обслуживания

  • Пациенты ценят эмпатию врачей, особенно в условиях выгорания.
  • ИИ может помочь улучшить качество обслуживания пациентов.

00:40:45 Кейс-стади в медицине

  • Кейс-стади исследования часто проводятся из-за нехватки ресурсов.
  • Результаты кейс-стади могут быть интересными, но не всегда применимы к широкой аудитории.
  • Большие данные, такие как данные из UK Biobank, могут предоставить более значимые результаты.

00:41:42 Сложность задач и доступность

  • Обсуждение сложности задач в медицине и сравнении с другими областями, например, вождением автомобиля.
  • Доступность медицинских услуг важна для широкого круга людей, особенно в развивающихся странах.

00:43:34 ИИ как помощник врача

  • ИИ помогает врачам акцентировать внимание на важных симптомах и данных.
  • Обработка больших данных позволяет врачам принимать более обоснованные решения.
  • Аккумуляция данных может улучшить диагностику и лечение.

00:45:27 Превентивная медицина и телемедицина

  • Превентивная медицина важна для своевременного выявления заболеваний.
  • Технологии и интернет помогают быстрее находить решения, но не заменяют визит к врачу.
  • Телемедицина расширяет доступ к медицинской помощи для людей с ограниченными возможностями.

00:48:12 Консилиумы врачей и ИИ

  • Консилиумы врачей в реальном мире невозможны, но ИИ может имитировать логику мышления врачей.
  • Архитектура MIG Expert позволяет сравнивать различные точки зрения и принимать обоснованные решения.
  • Вопрос о практическом применении ИИ для имитации мышления врачей остаётся открытым.

00:49:25 Оцифровка профессиональных навыков

  • Оцифровать навыки, как у лучших врачей или шахматистов, сложно.
  • Интересная информация часто содержится в «множестве меры нуль» — небольшом количестве лучших специалистов.
  • Реверс-инжиниринг действий профессионалов может помочь, но не всегда применим в новых ситуациях.

00:50:24 Мультиагентный подход в медицине

  • Разные врачи имеют разные подходы к диагностике и лечению.
  • Мультиагентный подход позволяет агентам с разными знаниями и опытом взаимодействовать и приходить к общему мнению.
  • Агенты могут собирать дополнительную информацию и проводить анализы.

00:52:02 Мультиагентные дебаты и симуляции

  • Архитектура мультиагентных дебатов позволяет агентам с разной информацией и свойствами общаться и приходить к общему мнению.
  • Отслеживание «галлюцинаций» в мультиагентных системах сложнее, чем в одноагентных.

00:52:58 Роль ИИ в научном процессе

  • Наука часто начинается с проблемы, а не с мечты.
  • ИИ может помогать генерировать гипотезы и находить подходящую литературу.
  • Модели могут критически оценивать гипотезы и предлагать улучшения.

00:54:45 Критическая оценка гипотез

  • Рецензирование работ на конференциях помогает оценить актуальность и новизну.
  • Ассистенты на базе LLM могут критически оценивать гипотезы и предлагать сложные комментарии.
  • Такой подход позволяет развивать определённые функции и характеристики моделей.

00:57:07 Примеры студенческих проектов

  • Студенты разрабатывают трансформерные модели для понимания и синтеза речи.
  • Предлагается замена идентификатора пользователя социодемографической информацией для улучшения рекомендательных систем.
  • Успешные кейсы включают распознавание жестового языка и победу в соревновании на ANN RIPSA.

01:00:00 Моделирование эмоций и аномалий

  • Моделирование эмоций делает ИИ более импатичным, ответственным и безопасным.
  • Студенты успешно моделируют аномалии по сенсорным данным в химической промышленности и с оборудованием.
  • Для доведения работ до научных публикаций требуется постоянная работа и мотивация.

01:00:54 Приглашение в магистратуру

  • Совместная магистратура университета МО и компании Наполеона предлагает 200 бюджетных мест.
  • Обучение индивидуально и практико-ориентировано: минимум четыре проекта за время обучения.
  • Под каждый проект строится индивидуальная образовательная траектория.

01:02:43 Роль гипотез в науке

  • Гипотезы помогают решать текущие проблемы и реализовывать мечты.
  • Обсуждение гипотез с коллегами и критическая оценка помогают улучшать идеи.
  • Междисциплинарные исследования требуют взаимодействия с экспертами из разных областей.

01:06:11 Ограничения генеративных моделей

  • Генеративные модели могут вырождаться, если их датасеты становятся контаминированными продуктами собственного производства.
  • Важно учитывать, что данные, созданные ИИ, не всегда эквивалентны человеческим.
  • Необходимо осторожно подходить к использованию синтетических данных в исследованиях.

01:10:04 Навыки исследования в эпоху ИИ

  • Критическое мышление остаётся ключевым навыком для получения полезных ответов.
  • ИИ может помочь минимизировать человеческий фактор в диагностике и лечении, но не заменить врача.
  • Эмпатия остаётся важным человеческим навыком, который сложно заменить ИИ.

01:11:50 Эмпатия и ИИ

  • Эмпатия лучше проявляется у людей, чем у моделей ИИ.
  • Выгорание врачей снижает эмпатию, но системы здравоохранения разрабатывают тренинги для её улучшения.
  • ИИ может помочь врачам быть ближе к пациентам и минимизировать выгорание.

01:13:38 Имитация эмпатии

  • Мультиагентные системы могут имитировать эмпатию через моделирование эмоций.
  • Базовая эмпатичность достигается простыми промтами.
  • Пример имитации эмпатии: создание «хваленушки», которая излучает чрезмерную эмпатию.

01:14:27 Критика исследований в области ИИ

  • Автор критикует исследования, которые ищут «тёмного человека» в проблемах ИИ.
  • Упоминается публикация от Антропика о модели LLaMA, которая уклоняется от самообучения.
  • Подчёркивается контрпродуктивность таких исследований.

01:15:23 Уязвимость бенчмарков и важность выбора темы

  • Обсуждается уязвимость бенчмарков, которые быстро устаревают.
  • Призыв не верить хайпу вокруг публикаций, а сосредоточиться на любимой теме.
  • Рекомендация студентам определить свой интерес на уровне типа данных.

01:16:18 Необходимые навыки для науки

  • Важность знаний статистики и программирования.
  • Пример студента, который неправильно интерпретировал данные.

01:17:08 Софт-скилы в науке

  • Умение коммуникации и исполнительность.
  • Порядочность и регулярность коммуникаций важны для успеха в науке.

01:18:51 Качество исследований и журналы

  • Качество исследования определяется его содержанием, а не журналом.
  • Пример однообразного анализа, который не заслуживает гордости.

01:19:45 Ген ИИ и его влияние

  • Ген ИИ создаёт много мусорного контента, что является проблемой.
  • Термин «модель мира» вводит в заблуждение, так как ИИ не понимает физику окружающей среды.

01:21:07 Будущее ИИ: вычислительные мощности или новые подходы

  • Будущее за новыми подходами, а не за увеличением вычислительных мощностей.
  • Примеры новых подходов: диффузионные модели, флоу-матчинг.

01:22:28 Советы абитуриентам

  • Рекомендация читать актуальные каналы и обзоры статей.
  • Использование Хайкинг Фейс Топ Пейперс для отслеживания статей.

01:23:50 Перспективы ИИ в науке

  • Возможность ИИ стать лаборантом или ассистентом учёного.
  • Административная роль руководителя остаётся за человеком из-за отсутствия законодательной базы.

01:24:52 Обсуждение безопасности и хайпа

  • Безопасность может быть хорошей идеей, но её реализация иногда контрпродуктивна.
  • Пример Ильи Слуцкевера: бронированный джип и секретарша, напоминающая героиню боевиков 80-х.
  • Высокий уровень хайпа вокруг безопасности.

01:25:44 Начало карьеры Джеффри Хинтона и финансовые эффекты

  • Джеффри Хинтон начал с аукциона между Китаем и Google, который выиграл Google.
  • На вершине успеха важно монетизировать популярность.
  • Беспилотные автомобили потратили 130 миллиардов долларов, но их безопасность выше человеческой.

01:26:39 Прорывы в науке

  • Модели с рассуждениями приносят значительный прогресс в математике и коде.
  • Эти модели помогают анализировать ошибки и улучшать продукты.

01:27:34 Приглашение на демо-день

  • Демо-день пройдёт 26–27 июня, можно записаться по ссылке под видео или в телеграм-канале.
  • Призыв ставить лайки и писать комментарии.

01:28:21 Будущее науки

  • Будущее науки — это синергия человеческого интеллекта и машинного обучения.
  • Настоящая эмпатия не поддаётся подделке, что даёт шанс на позитивные открытия.

01:28:47 Завершение эфира

  • Благодарность зрителям за вопросы и эфир.
  • Прощание и обещание новых встреч.

Расшифровка видео
0:03
Рад вас приветствовать на Open Talks, открытый онлайн Meetup с ведущими
0:09
учёными и иэкспертами. И с вами я, как всегда, Павел
0:14
Подкорытов, сооснователь ITHub и SEO компании Наполеон IT. А по просьбе
0:22
коллег я от себя лично вас в настоятельно прошу подписываться на наш
0:27
Telegram-канал, потому что вместе с ним вы сможете не просто смотреть нас в
0:33
записи, но и задавать через канал свои вопросы и общаться в нашем комьюнити
0:38
Лунхаба, которую мы так старательно развиваем для вас. А тема нашего нашей
0:44
беседы сегодня — это AI в науке. Я, признаться, не мог дождаться сегодняшней
0:51
встречи, потому что, как мне кажется, есть о чём говорить. За последние 100 лет аа
0:59
продолжительность жизни а возросла, выросла, удлинилась в два раза. Ну,
1:06
может быть, учёные, которых я представлю, а мне оппонируют, но ту статистику, что я нашёл, а,
1:12
свидетельствует об этом. При этом, а, в нескольких статьях говорится о некотором
1:19
количестве, конкретно десяти научных медицинских открытий, которые к этому
1:24
росту привели. И у нас возникла идея обсудить, как AI может повлиять на
1:31
науку, на медицину, чтобы, к примеру, ускорить, а этот процесс научных
1:37
открытий таким образом, чтобы, ну, к примеру, не за 100 лет мы 10 научных открытий сделали и увеличили
1:44
продолжительность жизни в два раза, а за 10. Возможно ли это? Сегодня мы это
1:51
обсудим с нашими гостями. Я рад приветствовать. Буду читать. Если аэ я
1:56
буду ошибаться, поправляйте, перебивайте. Каждому дадим слово. Павел
2:02
Добрынин, научный сотрудник и преподаватель университета Хьюстона.
2:07
Павел, ты в Хьюстоне, не сильно жарко там. Нормально, супер. Занимается проблемами
2:14
развития человека в разнообразных контекстах, объединяя поведенческие
2:19
оценки, нейровизуализацию и генетический анализ. Верно?
2:25
Верно. Очень интересно. Михаил Тихомиров, наш постоянный гость. Миша
2:31
уже несколько раз с нами был, кандидат физико-математических наук, научный
2:36
сотрудник МГУ, изучает обработку естественного языка и лм, один из
2:42
авторов методологии и проекта Руадапt по адаптации M на русский язык. Миша,
2:48
привет. Всем привет. Привет, Миш. А Павел Докшин, кандидат
2:54
биологических наук, научный сотрудник и преподаватель НИИ центра Алмазова. Павел
3:00
занимается исследованием в области заболевания сердца и недавно, я знаю, выступал с докладом на конференции в
3:08
Гонконге. Рассказывал про закольцованность или скажи, Паш, как это
3:14
правильно? А если там я рассказывал про про антикальсифицирующую терапию и,
3:20
собственно, про мишени, которые встречаются у мужчин и женщин, то есть про половые различия в развитии заболевания. Всем привет. Привет, Паш.
3:28
Илья Макаров, ведущий научный сотрудник Аири и института с Испран.
3:37
Илья, помогай, пожалуйста. Институт систет системного программирования Иванникова Ран. Да, всё. Научный
3:44
руководитель Enhнхаub и доцент университета ИТМО Андрей Кузнецов,
3:50
кандидат технических наук, директор лаборатории Fusion Brain в Аире,
3:56
руководитель лаборатории мультимодальной для промышленности и для индустрии в
4:02
университете Инополис. Научный руководитель AI TНHub, доцент. Андрей, а
4:08
отдельное, как мне кажется, требуют изучения, как ты такое количество ролей можешь себе сочетать. Я думаю, что можно
4:15
для этого отдельный искусственный интеллект запускать. Искусство делегировать оно никогда не
4:21
мешало. Спасибо большое. Давайте чуть-чуть познакомимся.
4:27
Ээ представьте, пожалуйста, себя немножко вот расскажите про каждого.
4:33
Паш, давай начнём с с тебя. Вот, Паша. Паш Rctiontion.
4:38
Да, тут можно уточнять. У нас сегодня целых три паши в эфире. А я, собственно,
4:44
работаю в центре Алмаз как научный сотрудник и занимаюсь именно антифальсифицирующей терапией и не
4:50
только. У нас есть раздные проекты, которые должны помочь открыть новые виды
4:56
лекарств для лечения сердечно-сосудистых заболеваний. Также я преподаю нашим студентам, студентам-медикам.
5:02
И у меня есть журнал, в котором я являюсь научным редактором и, собственно, работаю тоже с медицинскими
5:08
исследованиями и тоже сталкиваюсь с искусственным интеллектом. В общем, так.
5:13
Спасибо, Паша. А давайте, Миш, расскажи, пожалуйста, представься.
5:20
Э, да. Всем ещё раз привет. Я научсотрудник ээ Нифц МГУ, ВМК МГУ из
5:27
Прана, на самом деле, тоже. Вот. И как раз занимаюсь плотно большими языковыми моделями, их адаптации там на русский
5:34
язык, ээ, потенциально на какие-то предметные области, в частности медицинская.
5:39
Вот преподаю тоже там научное руководство веду. Вот как-то так. Спасибо, Миш. Андрей,
5:51
а я занимаюсь исследованиями в области мультимодальных архитектур. Мы делаем
5:56
очень много разных экспериментов в части интерпретируемости языковых моделей, то есть понимание того, почему они работают
6:02
и почему они отвечают именно так, а не иначе. Аа в своё время я был
6:08
одним из основателей модели Кантинский. Это модель генерации картинок и видео по
6:14
текстным описаниям. Вот. Но сейчас мой спектр деятельности расширился, поэтому
6:19
занимаюсь много чем другим. Ну и один из самых интересных последних свежих треков, которым мы стали заниматься —
6:24
это генеративное проектирование. Это про то, как можно фундаментальные модели использовать для строительства, для
6:31
индустрии, для промышленности. Очень интересно. Паша,
6:37
да, добрый день ещё раз. Э, большую часть времени я занимался, в общем-то,
6:44
геномикой, конкретно геномикой животных различных, большей частью млекопитающих, но не только. Вот последние несколько
6:51
лет назад я больше сфокусировался на популяционной генетике и
6:58
не ней нейробиологии развития. Так что эта область всё ещё несколько новая для меня, но интересная. Вот. А, да, это это
7:08
всё. Спасибо большое, Паш. Очень интересно, правда. А, Илья, а твоя очередь, да?
7:16
Слушайте, ну, как бы я вообще окончил мехмат, но как-то вот случайно перекатился в УЯ и до сих пор, значит,
7:21
занимаюсь всем и вся, за исключением теоретического я. И вот, то есть я математики старался подальше уйти, а вот
7:27
приклад — это моё. Ну, если говорить про интересные проекты, то у нас очень много студентов и аспирантов, которые такая
7:33
всё это иерархический контроль различных исследований. Вот, как Андрей говорил, делегировать. Вот я бы это назвал
7:38
всё-таки такая иерархическая кластеризация по топиком. Мы занимаемся с точки зрения кооперации и
7:45
моделирования эмоций для роботов и foundation-моделями для спутников погоды
7:50
и климата и такими экзотическими темами, как распознавание древнегибского языка.
7:56
Вот поэтому всем, кому интересна наука и хочется публиковаться на старконференциях, вот как бы мы
8:03
занимаемся всем, кроме теории. Спасибо большое, Илья. Ну давайте, э я
8:10
как понял, что тема понятна, да? То есть мы говорим о и в науке, в медицине. А
8:18
давайте начнём с простого. Где и уже помогает э-э науке? Какие прорывы мы
8:26
наблюдаем не в теории, а на практике? Вот, расскажите ваше понимание.
8:32
Свободный микрофон, начинайте. Т тот, кто считает, а, нужным.
8:40
А, ну я, наверное, начну. А я начну хочу рассказать именно о нашем опыте,
8:45
собственно, опыте нашей лаборатории, то, как мы это используем, как применяем. А,
8:51
и вот буквально не так давно на эту тему выходила статья от нашей, ну, в том
8:57
числе нашей лаборатория Science, то есть это один из таких ведущих научных журналов, где, собственно, применялся
9:03
этот метод, который, э, необходим для поиска, собственно, для скрининга, а,
9:09
мишеней. А, то есть, если углубиться в тему антиксифицирующей терапии, то есть многие болезни сердца, они носят такой
9:16
достаточно мультифакторную природу. И здесь вот как раз-таки загвоздка не в каком-то
9:21
одном гене, а достаточно большом количестве генов, которые начинает работать неправильно, да, если
9:27
утрировать. И задача вот именно выяснить, какие, собственно, гены начинают работать неправильно, да, и
9:34
найти против них соответствующие мишени. Делать это вручную, как мы, собственно,
9:39
этим и занимались всё это время, это достаточно долго и рутинно. То есть вы проверяете мишение, вы вы создаёте аэ
9:47
драги, вы тестируете драги и достаточно много экспериментов проводите. Но благодаря как раз-таки использованию, э,
9:53
тех самых несетевых технологий или, можно сказать, машинного обучения даже, вы, а, можете ускорить процесс, то, что
10:00
сейчас, в общем-то, многие лаборатории делают. И в этом исследовании, о котором я сейчас говорю, а как раз получилось
10:07
использовать машины обучения, когда, а, поиск, то есть скрининг происходил намного быстрее, то есть были выявлены
10:13
119 мишеней, то есть потенциальных генов, которые дерегулированы в больных
10:19
клетках, которые, собственно, являются драйвером развития заболевания. И уже
10:25
путём опять же использования машинного обучения были подобраны потенциальные агенты, которые могут эти мишени вернуть
10:32
к нормальному состоянию. И одним из таких вот как раз-таки агентов является
10:39
к сети 90, то есть какое-то невыговариваемое название, которое, наверное, бы здоровому человеку бы в голову не пришло использовать в качестве
10:45
лекарственного препарата. Но опять же благодаря этому аа драг-дизайну удалось определить, что
10:53
это вещество и должно иметь определённый эффект. И уже в экспериментах это было показано, да, что оно имеет. Сейчас мы
11:00
продолжаем эти исследования уже. То есть, во-первых, была опубликована работа, это фундаментальное исследование. Сейчас мы уже это
11:06
тестируем, а, на клетках пациентов для того, чтобы, собственно, опровить эту
11:12
идею дальше. А какое место и какая технология, ну, под названием Ии в этом была
11:22
применена? То есть а то есть там использовался так
11:27
называемый — классификатор, то есть алгоритм как ближайших соседей, а который позволял собственно всю сеть
11:35
взаимодействующих генов определить, ну, в сравнении опять же с с нормальным
11:40
клетками, как эта сеть гени работает в в клетках нормальных, а, соответственно, людей, доноров. Вот. И уже выявить,
11:49
соответственно, те мишени, которые меняются, то есть вы выявить те гены, кото которые начинают быть
11:56
дерегулированными. Вот. А более детально я, наверное, не смогу описать, потому что я не занимался
12:02
конкретно и частью в данном исследовании, но я хотел бы здесь как раз-таки подчерпнуть, а то, как это
12:08
помогает ускорить процесс, потому что без использования этого а пришлось бы
12:13
проверять 1.595 веществ на больных клетках, э, а не сразу выявить один из
12:19
потенциальных, э, потенциальных молекул, которые могли иметь терапевтический
12:25
эффект. То есть эта модель позволила сократить объём тестируемых веществ до
12:31
11 с 1595 потенциальных. Круто. Спасибо, Паша. У нас специально в
12:39
эфире и а люди с медицины, и люди вот из цифры. Аа давайте
12:46
кто-то из цифры, скажите, пожалуйста, вот как вы видите и и в науке, где уже
12:51
сейчас помогает. Наверняка все слышали недавно новость, буквально там пару недель давности про
12:58
релиз модели Альфа Evolve от Deepmind, который является развитием, в принципе, альфада и вот этого направления
13:05
эволюционных алгоритмов и создания эволюционных алгоритмов, где коллеги показывают, что использование LLM на
13:13
маленьких моделях для создания большой вариативности разных комбинаций, идей, а
13:19
в паре с более сильной моделью, которая лучше вот эти вот вот отобранные, э,
13:24
гипотезы докручивает и добивает их по качеству там до самых интересных, лучших результатов, показал очень интересные
13:31
крутые штуки, начиная там от решения математических задач и сокращения количества операций для перемножения
13:37
матрицы 4х4 до более практичных вещей. Ну, например, там вот Flash Attention, известный алгоритм, который используется
13:43
для ускорения обучения inference языковых моделей. Они смогли путём вот синтезы и анализа кодовых
13:50
последовательностей синтезировать код такой, который позволил ускорить Flashтенtion ещё на 30%. То есть когда у
13:57
нас появляется такой механизм эволюционного эволюционной генерации разных цепочек, которые человек просто в
14:04
силу физических своих способностей не может проверить, да, это, в принципе, хорошая история. Ну, deep mind, они как
14:10
бы славятся историей с синтезом архитектур, начиная там со времён NaAL Architecture Search. Ну и, собственно,
14:15
продолжается очень успешно. Ну и понятно, что работа через там кодовые
14:21
структуры, через кодовые последовательности для решения сложных задач, где требуется действительно там
14:27
большое количество различных переборных вариантов, э, и где там детерминированные схемы не позволят дать
14:35
лучший результат, то это, конечно, как бы хорошее подспорье для исследований в дальнейшем, для разных областей, начиная
14:42
от там базовых каких-то математических постановок до более прикладных.
14:48
Спасибо. Давайте продолжать. Миша уже включал микрофон. Да, приведи пример, пожалуйста.
14:55
А, ну я хотел с несколько, наоборот, более простой стороны подойти с той
15:01
точки зрения, что большие модели, на самом деле системы, скорее на базе больших языковых моделей, они, э, с моей
15:09
точки зрения могут внести большой такой ээ
15:14
сборный вклад в том, что они помогают ээ учёным проводить свои исследования в
15:20
плане там проводить обзоры каких-то тем. менее связанных. Многие учёные,
15:27
соответственно, в смежных областях, в частности, они плохо, например, знакомы
15:32
с там мастатом, с программированием, а сейчас всё больше и больше. Вот мы слышим, что применяется и там в медицине
15:39
и так далее, когда во многом, на самом деле, это часто базовые какие-то подходы, которые известны уже там десятки, десятки лет. Вот просто из-за
15:46
того, что это не профильная какая-то история, многие учёные об этом не знают и не умеют это использовать. А теперь,
15:52
когда есть вот такой универсальный стен, который в среднем умнее там любого
15:58
в среднем умнее любого там человека и самое главное обладает большой эрудицией, он по сути может помогать
16:04
многим учёным двигаться за счёт того, что там помочь код написать какой-то, какие-то статьи найти поинтереснее,
16:10
что-то ещё. И вот вот эта рутина там она и в медицине тоже будет проявляться. ээ
16:15
с — получается врачей будет сниматься, ну, я надеюсь очень на это нагрузка,
16:21
которая на них ложится точки зрения там бумажной работы и так далее. То есть вот такая вот рутина везде по чуть-чуть, по
16:27
чуть-чуть, я думаю, суммарно внесёт очень большую пользу как бы для человечества, потому что это то, где
16:33
эллэмки уже сейчас хорошо работают. То есть говорить про что-то там проровное, крутое — это, ну, это интереснее всегда
16:39
и классно. Но на самом деле лэмки иногда там тональность до сих пор не могут предложения нормально определить в
16:45
целом, если говорить про решении конкретных задач, всегда должен быть какой-то человек над этим, мне кажется,
16:51
который это всё верифицирует. А вот говоря про простые типовые задачи, тут они могут всем очень хорошо помогать.
16:58
Угу. Спасибо, Паша, Илья, есть у вас что добавить по поводу вот чем помогает в
17:06
науке уже сейчас? Ну, наверное, я я добавлю, всё-таки сейчас появились ассистенты в науке,
17:12
которые могут сами за тебя сделать формулирование гипотезы, сами сделать обзор литературы и даже уже сами
17:19
написать код и что-то завалидировать. Основное, конечно, занимается этим мета Google и такие весьма странные стартапы
17:25
типа саканы. Вот. Но тем не менее есть уже успехи в виде принятых воркшопных ик конференций, конференционных статей. И,
17:33
наверное, вот эта история с тем, типа, а что такое вообще решеры? И, может быть, нам тоже пора всем на пенсию. Вот она
17:38
будет как бы обновляться, но в любом случае какие-то дефолтные вещи в духе там запустить GitHub, потвикать
17:44
гиперпараметры в Ablation Study. Ну вот такие вещи они уже делаются. И, наверное, как бы этим надо пользоваться,
17:49
иначе мы все пойдём на своло. Угу. А, Паш, ну вот какой-то, может
17:56
быть, карьерный момент, как и, а, кардинально поменял научный подход в
18:03
Хьюстоне. был какой-то у тебя такой? Я как этот Ну, во-первых, я бы сказал, как
18:10
не несколько, может, комментариев. Ну, то есть опять же, если мы и определяем как что-то просто маши машинное обучение
18:17
в широком смысле, то оно поменяло и уже давно. Ну, сейчас трудно представить, чтобы в биомедицине ты делал что-то. Ну,
18:24
то есть, начиная от этапа по секвенированию, которые, например, ну,
18:30
современные методы секвенирования для, собственно, этапа расшифровки ДНК будут использовать ээ машинное обучение,
18:38
генотипирование, опять же, когда мы конкретные нуклеотиды ищем, уже опять же от Гугла тот же самый вариант ну, в
18:44
смысле программы, которые это делает, ну, и на любом следующем этапе, то есть это уже, в общем-то, рутина.
18:51
рутина достаточно длительное время. Вот конкретные примеры, то, что вот назовём
18:58
всякие там, я не знаю, лмки или ещё что-нибудь, мне будет уже труднее назвать. Но, скажем так, давайте опять
19:04
же признаемся, что учебный процесс это поменяло, думаю, всем. Ну, то есть потому что те задачи, которые раньше,
19:10
ну, в смысле, и в целом то, что имеет смысл давать студентам, как домашнее или ещё что-нибудь, они сильно претерпели.
19:17
Э, метаморфозы, в общем, ну, в смысле, удалённо давать писать эссет. Причём, если тема достаточно общая, это
19:24
практически бессмысленно. Ну, в смысле, его напишут, его напишут на как этот четыре с минусом. Вот. Без проблем. Вот.
19:32
Э, поэтому по поводу, кстати, написания статей, там тоже ведь было относительно недавно а публикация, которая показала
19:41
многократное увеличение числа статей на одном из открытых датасетов. По-моему, это опять же по сердечно-сосудистым
19:46
заболеваниям. Опять же, Павел может меня я опять забыл, недавно обсуждали эту статью, но я опять забыл её. В общем, а
19:54
то, что количество каких-то исследований, то есть в принципе, что мы называем исследование, растёт, но не уверены, в общем, люди, что это имеет
20:00
какой-то смысл, потому что статьи, ой, то есть, потественный интеллект может генерить в огромном количестве разные
20:06
вещи, но реально, насколько это будет в своём в своей массе полезно или ещё
20:12
трудно? Я, если что, спорю с людьми только потому, что если мы будем соглашаться, драки у нас не выйдет. Вот. А
20:19
и опять же можно поспорить, действительно ли там, я не знаю, искусственный интеллект на текущий момент, как бы уже заметил, мне кажется,
20:24
Михаил сказал, там умнее или эрудировании. Мне кажется, это это тоже дискуссионный вопрос. Можно ли применять
20:30
такие такие слова? Вот поэтому опять же давайте так. Из
20:37
того, что изменилось, работать, например, вот непосредственно в моей работе, работать, например, с кодом стало отчасти проще. Конкретно, если у
20:45
меня есть какой-то большой проект, в котором мне надо разобраться, то, да, можно загрузить себе помощника, ну, в
20:50
смысле, дать ему всю базу и дальше спрашивать вопросы. Ну, в смысле, там, я не знаю, про вызовы функции или ещё что-нибудь, которые мне было бы мне было
20:57
бы труднее понять, как это работает. Вот. а-а непосредственно для научных вопросов. Я в повседневной работе не
21:04
уверен, что я могу привести какие-то прямо примеры, вот, в которых оно мне бы помогало. Вот
21:10
давайте я приведу и как раз это обсудим. Вот, э, последняя, э, э, Нобелевская
21:18
премия, аэ, была выдана, ну, одна из, да, была выдана на стыке химии и
21:28
за за нейронную сеть, которая предсказывает структуру белка по
21:34
нуклеотидовой последовательности. Вот расскажите мне, пожалуйста, и нашим
21:39
зрителям до конца понятно, что это значит? И ну мне сказали, что вышла
21:48
версия, за которую дали Нобелевскую премию чуть ли не там 2 года до вручения
21:54
премии или, ну, достаточно быстро. То есть результат, да, не заставил себя
22:00
долго ждать. А-э, Нобелевскую премию будем, а-а, так как бы считать, но
22:05
запрос так не дают, да, а-а, с позитивной точки зрения на это будем
22:10
смотреть. Вот расскажите мне об этом открытии, насколько оно, а, меняет и что
22:18
в науке? Ну, давайте, я опять же, прошу прощения,
22:25
что я много говорю, могу попробовать начать. Я не знаю. Давай, давай, Паш. Да. А на самом деле, ну, в смысле, здесь
22:32
тоже правильней, ну, то есть есть много оговорок, о которых, то есть, мне кажется, у нас не будет возможности
22:37
каждый раз это делать, потому что даже там структуру белка, ну, в смысле, он не полную структуру белка, а, ну, типа
22:43
основную структу, ну, типа основную цепь только реконструирует. Он, например, не реконструирует именно процесс, ну,
22:49
сворачивания структуры белка, он тебе показывает конечный результат. Ну, то есть тут есть некоторое, скажем так,
22:55
некоторое количество моментов, которые, если бы мы разговаривали среди там биохимиков, медиков, которые, ну, вот
23:02
занимаются прямо этими вопросами, они бы менее были, я бы сказал, впечатлены,
23:07
например. Вот. Но вообще это, конечно, ну, в смысле, полезный очень ресурс, потому что обычно, когда вот мы
23:14
исследуем что-нибудь, находим мутацию, мы дальше что делаем? Мы смотрим, как она влияет на конкретный белок. Вот. И
23:20
чаще всего до этого мы могли говорить, что она там попадает в такой-то такую-то часть этого гена, в такой-то,
23:26
например, там, я не знаю, структурный домен, там приводит к потенциально к этим изменениям. А что
23:31
дальше, трудно сказать. Вот. И хорошо было, если у нас белок хорошо известный и для него все эти структуры уже
23:37
описаны. Но большая часть, вот опять же все те проекты, в которых в том числе я участвовал, где мы собираем новые
23:43
геномы, описываем новые геномы, там куча всего, что раньше в принципе не было описано. Никто делать реальную
23:50
какую-нибудь структуру на анализ этих белков, ну, в смысле, это было технически и экономически не
23:56
нерентабельно. Вот. Поэтому иметь ресурс, который, в принципе, на Литу тебе сможет, ну, в
24:02
смысле, для любой данной последовательности собрать это в какой-то,
24:08
э, если оно собирается, в общем, во что-то, что может помочь тебе
24:15
описать, что за функция здесь может быть, как там изменения, в какие части этих, э,
24:21
белка оно попадает и так далее, достаточно полезно, по крайней мере, чтобы в контекст вкладывать. Вот. Но
24:28
это, безусловно, не является как бы финальным ответом на вопрос о там
24:33
сворачивании белка и так далее. Вот. А как это и на что? Ну, понятно, что это
24:39
такое фундаментальное, да, открытие. Как оно на текущий момент на практике
24:45
используется? Есть ли какие-то примеры?
24:52
Так, ну, может быть, я просто немного пау добавлю информацию, чтобы немного общеводную дать для, собственно,
24:58
зрителей. То есть ещё в прошлом году Google анонсировал, собственно, эту версию Alpha Fall 3 она называется. И
25:05
она это уже третья получается версия, третья — это рация, которая позволяет, если я не ошибаюсь, предсказывать
25:12
структура белка 99 там, 9%, что достаточно высокоточно, но да, есть
25:19
определённые ограничения, мне уже сказал файл. И это, собственно, компьютерное моделирование, оно в какой-то степени
25:25
позволяет заранее предсказывать, да, что-то предсказывать структуру, предсказывать
25:30
взаимодействие и, собственно, снижать затраты, да, в перспективе. Конечно, эта технология пока не идеальна, но она уже
25:37
в какой-то степени позволяет это делать. И я, аэ, собственно, наши коллеги, которые работают в институте Вейцмана,
25:45
буквально пару месяцев назад, опять же с использованием данных технологий искали
25:51
новый антимикробный драф, то есть новый антимикробный антибиотик, собственно, и
25:58
у них это получилось, за что они, собственно, и появились в новостях, и
26:04
опубликовали хорошую статью. Поэтому эта технология, она имеет место жить. Я думаю, она будет развиваться. И тем
26:09
более такие большие корпорации, как Google, а, вкладываются в развитие таких технологий не только Google, и многие
26:15
другие. Вот. А по поводу, ну, собственно, ежедневного использования, да, то есть это становится технология
26:21
ближе к людям и использовать меньше каких-то более
26:27
физических средств. То есть, например, когда нужно будет проводить рентгентструктурный анализ белка и уже,
26:34
собственно, показывается его определённо составляющие. Ну, здесь, наверное, может файл мне немного поправить, потому что я
26:41
в большей степени занимаюсь именно генетической составляющей, тоже, в общем, не белковой, но технология она,
26:47
да, воодушевляет в какой-то степени, учитывая, что скачок произошёл буквально
26:52
за несколько лет. Я думаю, что дальше будет ещё быстрее. Я думаю, мы сможем всё-таки какое-то оптимистическое
26:59
будущее получить. Спасибо большое, коллеги.
27:04
Но, кстати, момент, ведь насколько, да, насколько мне известно, э вот эти
27:10
результаты исследования Альфафолт, они исключительно теоретические. До клиники, по-моему, ничего ещё не дошло. То есть
27:16
это всё история просто про некоторый инструмент, который помогает быстрее находить оптимальное решение. К чему это
27:22
приведёт на выходе? Вопрос, конечно, ещё в будущем. Ну вот как исходя из того, что Паша
27:29
озвучил, да, что есть а-а заслуживающее
27:35
доверие, да, некоторого. А, о’кей. В исследованиях всегда есть тестовые
27:41
выборки, на которых все замеряют и получают там 90-95% качества. Это можно
27:47
взять попроще задачи взять там языковые модели, которые вроде бы везде выбивают 90 там ээ там 7080 90 качеств. Когда ты
27:54
начинаешь с ними общаться, ты понимаешь, что тебе как бы эти метрики в жизни-то особо не помогают. Поэтому тут ещё
28:00
вопрос, когда это всё дойдёт до реального применения и получится ли из этого инструмента сделать э реальное
28:07
лекарство или ещё что-то. Ну, мне кажется, это ещё лет 5-10 задача.
28:12
Э не всё верно сказано, да? То есть я скорее тут говорю про доклинику, то есть доклинические исследования сильнее
28:18
ускоряются. Понятное дело, что клинические мы, ну, никак мы не избежим этого и тестирование Драга уже
28:24
клинические исследования, оно скорее всего будет также проходить там в течение 10 лет, а для того, чтобы быть
28:29
одобренным, собственно, всеми регламентирующими органами, да, но сама доклиника, кото и в общем-то
28:35
фундаментальные исследования, я думаю, от этого будут ускоряться, чтобы быстрее, более прицельно находить то,
28:41
что, скорее всего, даст эффект, потому что это всё-таки большие данные, которые, собственно говоря, уместить
28:46
сложно, учитывая, что здесь в очень многофакт всегда история.
28:51
Супер. А, коллеги, ну, а у вас вот какой вы можете, может быть, не из вашего
28:57
опыта, да, пример привести, где наибольший либо уже есть ээ
29:06
эффект от применения, либо вот-вот вы ожидаете, что он может произойти.
29:14
О чём мечтает наука? Где и и может помочь?
29:23
Слушай, ну хороший вопрос. Не знаю, а вот помочь всем, то есть что мы что мы хотим улучшить как бы вообще в нашей
29:28
жизни, да? Если если там, не знаю, вот чат GPT появление это уже как бы помогло, да? Я вот мечтаю, что сейчас
29:34
появятся автономные агенты, они меня целиком заменят. То есть они будут давать указания студентам, э, сказать:
29:40
«Вот у тебя есть статья, ты пишешь: «Вот возьми, загони её по разделам в чат GPT, перепиши, твой английский существенно
29:46
улучшится. Потом за ещё раз загони в чат GPT, получи фидбэк по статье. В целом он на 90% совпадает с тем, что я им пишу.
29:53
Потом возьми рецензента и научного руководителя, напиши отзывы вот с
29:58
детализацией. И автоматизируется работа преподавателя. Освобождается огромное количество времени. Поэтому, если
30:04
говорить, что можно реально померить, то это время. Вот как мы стали пользоваться такси и букингом, мне кажется, это или
30:10
там доставкой, например, да, за 15 минут из из магазина. Я перестал ходить в магазин. Я считаю, что типа это это
30:16
офигенно, как бы, и там тоже везде используются. Ну, то есть речь идёт о, казалось бы,
30:25
рутинных улучшениях, а, из которых складывается
30:31
какое-то свободное время для творчества, созидания, ну, и на и научного прорыва,
30:37
который всё-таки за человеком остаётся. Ну, скорее человек плюс ей, кажется,
30:43
наиболее перспективная история, да? То есть, если говорить вот про те же лекарства, да, то есть драгдизайн на самом деле доходит до до клинических
30:49
испытаний. И основная проблема просто в том, что типа оно не даёт тебе ответа,
30:54
что вот это точно то лекарство. Но если мы говорим про синтез, например, вот вы генерируете там условно 3.000 различных
31:00
соединений, да, и значит раньше условно какое-то классическое моделировал, давал 3% полезных молекул, да? А значит, с
31:07
применением альфа-фолда и там различных лмов, в том числе, да, комбинированных подходов, это даёт 12%. Это просто за,
31:13
ну, при том, что там норма, по-моему, 7%, да? То есть, если ты выдаёшь 7% полезных молекул, это ты офигенный в
31:20
своей индустрии, у тебя всё прёт, как бы, вот как бы и плюс человек, кажется, как бы это правильная формулировка, по
31:25
крайней мере, это так. Но и все компании, которые там SNP 500, как бы они в это верят.
31:34
Дополню ещё, мы в своей команде сделали такого агента суммаризатор большого
31:39
количества статей, потому что статей выходит очень много и работать с ними очень тяжело. То есть их невозможно вычитать, даже если их там распределять
31:46
по всем членам команды. И эта штука очень хорошо помогает быстро понимать и
31:51
отсеивать как бы то, что не стоит читать. То есть абстракта не всегда достаточно, да, для того, чтобы понять,
31:56
о чём идёт речь в статье. И вот некоторая такая сумаризация, она позволяет,
32:01
в принципе, сортировать, да, тот объём информации, который льётся ежедневно. Вот как бы и вытаскивать оттуда какие-то
32:09
интересные идеи, которые требуют внимания. Вот. А по поводу темы с человеком плюсы и тут, на самом деле,
32:15
ещё есть это это крутая, правильная история, но тут есть тоже такой интересный момент. Я недавно новость
32:21
читал, по-моему, то ли в Форпсе её публиковали, то ли какое-то Гарвардское исследование.
32:27
В общем, сделали медпомощника, да, который помогает отвечать там и,
32:33
собственно, ставить диагноз пациентам. Запустили его на некоторые выборки, он даёт там 92% классификации. Потом,
32:40
собственно, взяли врачей. Врачи, значит, поставили диагноз 74%. Такие думают: «Ну, давайте добавим,
32:46
значит, врачу ассистента. Сейчас он будет, значит, нам вообще просто супер работать». Значит, угадайте, какое число
32:52
получилось, когда вра уже стало? Нет, стало 76%. То есть было 74, стало
32:58
76, хотя и давал 92. Вот. И стали анализировать и смотреть, что как бы у
33:03
врачей очень сильная предубеждённость во многих отраслях по отношению к тем
33:09
знаниям, которые у них уже есть. То есть вот этот вот вопрос доверия, это ещё тоже предстоит как бы решить. То есть
33:15
добавив человеку ассистента, ты не заставишь его автоматически довериться этому. Особенно вот в каких-то чувствительных таких сенситив областях.
33:22
И понятно, что как бы врачи они очень сильно
33:27
ну как это, наверное, oversensitive или очень предубеждены относительно вот тех знаний, которые у них есть. И, наверное,
33:34
из-за этого же была и история, которая там буквально 2 года назад, да, бурлила тоже в интернете по поводу диагноза
33:41
мальчику какому-то в Великобритании, кажется, да, которому не могли поставить там 13 врачей, консилиумы собирали, а, и
33:47
там чат GPT взял и там с первого раза поставил какую-то имму очень редкую форму заболевания. То есть всё зависит от того ещё, как эти мои заставит людей
33:54
правильно пользоваться и доверять. Ну вот, ну, можно прокомментировать
34:00
говорили, да? Ну, я в целом-то полностью согласен. И тут как раз-таки история, мне кажется,
34:07
тем, что, да, вот преподаватели и врачи, которые сейчас есть, им это всё очень
34:14
тяжело с точки зрения принятия. Но есть же сейчас студенты, которые обучаются
34:19
прямо сейчас. Они используют чат GPT прямо сейчас, и они уже живут в мире, в котором вот такие технологии существуют,
34:25
и они будут только развиваться. То есть врач сейчас и врач через 20 лет. А надо же смотреть как, ну, на дистанции,
34:31
наверное, в этом плане, если мы гадаем о том, что будет там через 10 лет. Вот это
34:37
совершенно два разных человека. То есть я лично очень верю в то, что как раз-таки вот человек плюс и как
34:44
суперполезный инструмент, который вот раньше появился Google вместо библиотек, да, ну, образно говоря, там не только
34:50
Google и так далее. Вот. И это прямо дало огромный буст всему человечеству, на самом деле, и учёным, и медикам, и
34:57
так далее. Доступ к знаниям. Теперь это не просто доступ к знаниям неупорядоченным и так далее. Это доступ
35:02
к знаниям, которые очень удобно, классно вытаскивать и использовать и которые классно там анализируют разные штуки.
35:09
Вот. И когда люди к этому привыкнут, перестанут ожидать слишком многого, там Аги через 2 года, там захватит мир и
35:17
так, ну я не разделяю такой точки зрения, по крайней мере, кто-то разделяет. Вот. Или наоборот обратная
35:22
ситуация, что вот я с ним пообщался, мне такою чушь понаписал, хрень- это ваш там искусственный интеллект, не надо его
35:28
использовать. Тоже неправильный подход. То есть есть вот такие две крайности. И вот когда они будут побеждены и люди
35:34
привыкнут к технологиям, мне кажется, вот там-то и попрёт. Угу.
35:39
Вкину к тезису Андрея и Илья вижу твою руку. А
35:46
ты сказал, что учёные не доверяют до конца. Из-за этого точность даже, ну, не
35:52
сильно как бы соизмеримо с точностью Ии, да, не вырастает до предела позитивного.
35:59
А кто ответственность должен нести а за вот модели, которые очень часто, да,
36:06
используются? разработчик, э-э, не знаю, внедренец,
36:12
а-а, врач. А-а, есть у вас мнение, как вот этот вопрос, а, может быть логика
36:20
его решения? А, спрашивает у нас один из, а, зрителей, Денис.
36:27
Не произнесу фамилию, простите. Да, можно, можно я накину ещё на
36:34
предыдущий вопрос и заодно подключусь к этому. То есть смотрите, вот с врачами история какая, что вот представьте, у
36:39
вас есть как бы каждый врач — это какая-то моделька, да, она она входит, получает какую-то информацию, на выходе принимает решение. Он может быть там
36:44
высоко квалифицирован, низквалифицированный, но мы все знаем, что типа если у тебя отдельные модельки плохо работают, возьми ансамбль из них,
36:50
и у тебя будет прекрасно. Просто физически ты не можешь каждый раз собирать консилиум на каждого пациента. У тебя как бы система перегрузится, да?
36:57
А значит, через трансформеры ты это можешь сделать. Более того, это можно сделать как бы суперэффективно, там
37:02
натретлировав разных экспертов и получить результат, когда они ещё кроснtion, условно, или там, когда ты
37:08
можешь моделировать, они там пообщаются между собой в мультиагентном сценарии и придут к какому-то решению. Поэтому как бы чисто гипотетически эта история более
37:14
правильная. А вопрос, почему внедряет Иимле он гораздо более сложный, он связан в целом с рецессией в экономике.
37:20
То есть, посмотрите, у нас качество образования и качество медицины достаточно линейно падает, да? То есть
37:25
как бы сейчас условно в терапевты могут уйти там люди с с фельшерским образованием, там люди, которые не не
37:31
обучались полноценно по специальности. И, например, вот базовый терапевт, да, он может там просто вбивать симптомы в
37:37
системы и вот получать какой-то выход. И вот когда вы получаете таких врачей, вы реально ей будете доверять больше,
37:43
поверьте мне. Вот. Потому что как бы и который обладает большей базой, он будет как бы потенциально иметь больше знаний,
37:49
чем врачи в системе, в которой условно система здравоохранения она не выдерживает экономической ситуации.
37:57
Отвечаю на вопрос, как бы кто кто должен нести ответственность? То есть, во-первых, open source — это прежде всего максимально безопасная история,
38:03
потому что когда все её пробуют, э, все быстрее находят ошибки, да? То есть когда у тебя закрытая система, как бы ты
38:09
тебе гораздо сложнее типа найти какую-то дыру. Это называется там белый хакинг, да, как бы. Но в целом, как бы, если у
38:14
тебя есть открытая система, все сразу начинают её тестировать. Те же Open Tropic, у них есть внешние вендер для
38:19
тестирования своих моделей там, до релизов. И более того, у тебя есть кучанпрофит организаций, которые
38:25
занимаются сейфти, например, ЛМА и которые там через 3 минуты после релиза там находят какие-нибудь баги,
38:30
джелбрейки, репортят их, и на основании этого все модели улучшаются. Поэтому мне кажется, что правильный ответ, что давайте всё-таки, пока человек несёт
38:37
ответственность за то, что он принимает решение с учётом знаний. Но если как бы
38:42
и делается в там в контексте open source парадигмы или в контексте как минимум там регуляторики и э правильного
38:50
бенчмаркинга, то он может нести только пользу и как минимум он может сообщать о
38:55
том, что он не уверен в своём предсказании. Есть определённые методы с точки зрения, которые просто позволяют
39:00
ещё сказать, типа вот я, конечно, выдал что-то, но я, возможно, не уверен в этом, поэтому давайте как бы всё-таки
39:06
человек подумает и примет решение, исходя из своего опыта. Ну, как минимум от этого хуже не будет.
39:13
А в комментариях пишут, что Анна пишет: «А ещё и ипатичный, в отличие от
39:21
участкового терапевта, который выгорел. И для пациентов это очень важно.
39:30
Ну, тут даже добавить нечего. Я могу сказать, что, наверное, да, так оно и есть. Паш, ты руку поднял. Я тебе хотел
39:38
напомнить, а, повод, как мы с тобой познакомились. Ты, наверное, уже забыл, когда мы биоинформатику с тобой изучали,
39:45
ты рассказывал, не забыл случай, когда ребёнок с с
39:52
каким-то не ну непозитивным, да, сценарием сердца поступил, и тебе
39:59
удалось просеквенировать его геном и найти, а-а, в через
40:05
сравнение, а, найти некий полиморфизм и, более того, найти этот полиморфизм
40:12
через сравнение в научных статьях ПАПМТ и других или и не просто найти, да, но и
40:19
найти, как а учёные, которые опубликовали эту статью, а
40:24
медикаментозно компенсировали данный полиморфизм, да, и вроде как был даже
40:30
позитив. Мог бы ты про это рассказать, потому что, ну, это же то, что меня, по крайней мере, в вдохновило
40:38
на многие годы вперёд заниматься. Это это на самом деле не особо, я бы сказал,
40:44
удивительная история. Она встречается как раз тот, кто делает всякую биомедицину сплош рядом. Чаще всего оно
40:51
случается условно от от бедности, когда у тебя нет возможности делать большие
40:56
проекты с хорошей выборкой, ну, и всё остальное, то люди фокусируются на исследованиях, то, что называется там
41:03
кейсстади. Ну, то есть когда у тебя один или несколько интересных случаев и надежда на то, что ты, ну, то есть этот
41:09
интересный случай, он интересный, потому что там много всего произошло в геноме необычного, ну, или что-то необычное,
41:15
причём что-то настолько необычное, что ты, сравнив с референсом, это найдёшь. То есть на самом деле большая часть
41:20
статей, которые мы будем смотреть, будут будут кейсстади. У них есть некоторые, скажем так, э интересный эффект, опять
41:27
же, когда ты делаешь, ты, по крайней мере, результат видишь. Но чаще всего, опять же, всем интересно будет не конкретное, ну, типа единичное
41:34
наблюдение, а какая-то там, я не знаю, результат на том же самом, например, UK BBН, где у нас будет там полмиллиона
41:42
человек. Ну, в смысле, вот ты находишь что-то, ну, что объясняет происходящее
41:47
там. Ну, у меня, на самом деле, да, я я что руку-то поднял? У меня просто
41:53
интересный как-то вопрос. Смотрите, мы сейчас обсуждаем, что вот у нас и могут, я не знаю, статьи писать или читать
41:59
статьи там, я не знаю, язык поправлять, диагнозы ставить не хуже, чем врачей и
42:05
эмпатичные. То есть на самом деле делают весьма вещи, которые мы бы, как люди, называли бы сложными, правильно? При
42:11
этом, например, у нас и который машину водить умеет, как бы не особо-то и есть.
42:17
Должны ли мы в таком случае переформулировать, сказать, что на самом деле машину водить-то очень сложно, а
42:22
вот ставить диагноз легко, несмотря на то, что людей, которые водят машину очень много, научиться водить машину
42:29
вроде тебя не требуется там 6 лет образования в метоинституте и куча практики. Ну, а в отличие от того, что
42:35
как раз вот в медицине, то есть что у нас сейчас происходит, мы как бы должны переформулировать сложность задач,
42:41
которые мы считаем, или мы всё-таки как-то переоцениваем то, что делает и у нас и насколько хорошо он это по факту
42:48
делает? А тут можно ещё в эту переменную ввести,
42:54
а такой момент, в эту формулу ввести такую переменную, как а-а доступность.
43:02
Может быть, вот в комментариях тоже пишут про Африку, что может быть, а, да,
43:08
мы понимаем, что и не совершенен, но просто за счёт массовости предоставления
43:15
аэги, да, может быть, даже за счёт этого мы дадим медицине доступность к ней у
43:23
более широкого числа людей. Ну, как пишут комментарии. Но аа, пожалуйста,
43:30
ответьте на вопрос Павла, потому что вопрос очень важный. А, ну вот я добавлю до продолжения
43:37
дискуссии, собственно, про врача и искусственный интеллект. То есть именно
43:44
искусственный интеллект скорее должен восприниматься как называемый копай от врача, который ему помогает. Почему?
43:49
Потому что все мы люди есть так называемый человеческий фактор. То есть тот фактор, который, например, после
43:55
приёма десятого пациента в день там или после двадцатого пациента твоё внимание может быть растено. Ты можешь не
44:01
обратить внимания на какие-то симптомы, ты можешь не обратить внимания на какие-то данные. И, собственно, искусственный тех здесь как просто
44:07
помощник должен выступать в в том, чтобы акцентировать на это внимание, а уже,
44:12
собственно, уставшего врача. И возможно врачу от этого будет проще вынести правильный диагноз. Кто должен нести
44:18
ответственность, наверное, всё брать, потому что он вносит решение непосредственно уже в последней инстанции, и это должно определённо
44:26
помочь. Также надо понимать, что искусственный интеллект можно воспринять как метод возможности обработки больших
44:33
данных и именно клинические показатели. То есть та система, которая должна, ну, в моём
44:39
понимании, в понимании других людей, да, та система, которая должна появиться в здравоохранение, это когда у тебя уже не
44:44
просто электронный документооборот и электронные медицинские карты от каждого пациента, у тебя есть возможность
44:51
обработать все эти данные. То есть, когда складываются анализы от, ну, разные анализы, разные визиты, визиты к
44:58
разным специалистам, все эти данные складываются в какую-то в одну общую картину, которая позволит врачу там
45:04
специализированному или терапевту, да, принять какое-то правильное решение, потому что он знает, да, что вот 10 лет назад у тебя у пациента, оказывается,
45:11
было такое заболевание, но потом началась ремиссия или а пациент
45:16
а ездил в жаркую страну и у него было паразитарное заболевание, но которое
45:22
Потом перешло тоже, возможно, в ремиссию. Не знаю, там пример, может быть, солерией. Вот. И то есть, а, очень
45:29
много данных, которые на самом деле сейчас только начинают собираться и, ну, в системе здравоохранения. И если в
45:35
дальнейшем эти все данные начнут аккумулироваться и их может обрабатывать умный ассистент, то это будет очень
45:41
хороший копай от врача, который сможет, а, в точности дать картину по пациенту и
45:47
уже не ориентироваться на какие-то данные последнего месяца или вот именно конкретного конкретных симптомов,
45:54
которые сейчас происходят, а, возможно, обратиться к более старым данным, которые, возможно, к этим симптомам привели. И по поводу, собственно, Африки
46:02
или каких-то стран, где, например, не может оказываться высокоспециализированная помощь
46:08
своевременная, да? То есть здесь очень важный фактор своевременность, а ещё лучше это превентивная медицина, к чему
46:14
тоже нужно идти. Конечно, технологии, как, собственно, интернет, да, позволяет быстрее
46:20
найти, а, возможное решение, да, то есть не гуглить заболевание, когда эта
46:26
возможность появилась, а уже получать более какие-то осмысленные ответы. Конечно, это не отменяет, собственно,
46:33
видито врачу и, может быть, возможности телемедицины, которые сейчас тоже, собственно, существует и активно
46:38
развивается. Тем не менее, это дать дать людям, которые не
46:46
А чувствуется, что Паша на очень важной мысли, но был прерван интернетом, о
46:52
котором он начал говорить. Я хотел к Илье вернуть вопрос, который тезис,
46:58
который он озвучил. Ты сказал про про то, что Паш, ты пропадал. Извини,
47:05
пожалуйста. Мы перешли к другому вопросу. Я Илье его задаю. Илья, а, ну
47:12
или давай будет корректнее дать тебе закончить, так как ты появился. А,
47:18
как бы хорошо. Просто на каком моменте я пропал, сложно сказать. Может быть 12 секунд
47:26
назад. А, ясно. Ну, в общем, хотел закончить мыслью о том, что всё-таки и
47:32
ассистенты, в том числе, которые будут как-то помогать и аккумулировать какие-то данные и которые будут
47:39
лучше помогать, чем просто интернет людям, у которых нет возможностей финансовых для получения своевременной
47:45
информации, а, в какой-то степени верной. Конечно, это изменяет специалиста, тем не менее, э, сильно
47:52
может помочь людям быстрее понимать, почему что-то болит. То есть меньше
47:58
полагаться на какие-то, аэ, сигналы из космоса, а в большей степени начать
48:04
разбираться в том, что это может быть. Тут уже главное, конечно, тоже спасибо.
48:09
Подход. А, Илья, а, спасибо, Паш. Илья, вот ты сказал про, аэ, консилиум врачей,
48:16
да, про то, что это невозможно в реальном мире, ну, в каждом случае. Но
48:21
если мы говорим о создании условного агента, повторяющего логику,
48:27
структурность мышления определённого, условно, врача, то на стыке, а-э, ну,
48:34
консилиум, что даёт? Это медицина выбора, да, появляется несколько точек зрения, а там сравни, которые
48:41
сравниваются по рискованности, доступности, там, потенциальному эффекту и так далее.
48:48
Смотри, Паш, это же всё реализовано на самом деле в архитектуре Михчев эксперт, да? То есть вот смесь эксперт прошу про
48:54
Я прошу про Да, вот именно про это. А скажи, пожалуйста, какие вот тут может
49:00
быть к практике, да, перейдём. Существуют подходы, инструменты для того, чтобы вот условно а врача
49:10
светила науки, да, не знаю, опросить или как, ну, как его способ, структуру
49:18
мышления переложить на агента. Вот расскажи про это. Очень интересно.
49:25
Ты, конечно, задал вопрос достаточно сложный, то есть, ну, мы до Кирбанка ещё не добрались, поэтому лёгких лёгких
49:30
лёгких лёгких путей не ищем. Илья, не, ну, короче, я говорю, отцифровать как Джонни там Сильверстоуна, да, или там
49:36
как Сильверйна не получится. Вот. Но смотрите, что происходит, да? То есть вот в математике есть такое выражение,
49:42
что всё интересное происходит на множестве меры нуль, да? То есть вот у тебя есть очень много средних врачей и
49:48
есть маленькое количество суперхороших врачей. И что делает? И на текущий
49:53
момент он скорее типа делает вот из это как бы добавляя какую-то информацию от
49:58
хороших врачей и суперхороших, он делает вот это как бы и как чуточку лучше, чем
50:05
средний врач. И как бы на текущий момент я не считаю, что типа есть какая-то
50:10
способ вот типа сказать, что я сейчас могу там типа повторить там лучшего шахматиста или там, не знаю, там лучшего
50:15
врача или ещё чего-то. Ты можешь сделать некоторые реверс инжениринг, то есть делать некоторые полиси, что вот мы там,
50:21
не знаю, там берём, логируем все его действия, дальше через тамчек учимся, короче, обучать, как вот делать, как он
50:27
и, не знаю, там, э, ресмплим, всё, вот делать только то, что он делает. Но это не поможет тебе, потому что, например, в
50:33
какой-то ситуации, которая там не попадала как бы в обучающую выборку, у тебя этого не будет. Но как бы что можно
50:40
сделать? Это можно с, мне кажется, именно правильно сетапить сами витрины данных, да? То есть, если вот ты
50:45
смотришь, как работают там профессионал, врачи, они по-разному смотрят снимки, они по-разному смотрят диагнозы, они
50:51
смотрят гораздо более там глупо, часто исходя из своего опыта, что можно делать и но расширять базу, делать какие-то
50:58
больше модели, там с большим атеншеном на разные модальности. Ну вот скорее вот такого плана. Вот эти разные, ты
51:05
говорил, консилиум врачей иногда обладающие разными точками зрения. Ну
51:11
вот как это организовать с точки зрения агентов? Это что нужно попросить аа чат
51:17
GPT с Deep Mind разговаривать о задаче? Не, ну такое есть. На самом деле
51:23
начиналось это действительно с очень смешных диалогов. Там Алекса говорит Сири, да, как бы или Алиса говорит Сири,
51:28
но как бы ещё раз есть архитектура Microsof Experts, которая считается, что она лежит там в основе там GPT4, которая
51:34
появлялась, да, что там было восемь экспертов, я не знаю пять, правда это или нет, но тем не менее, когда ты там разных экспертов обучаешь, например,
51:40
быть там экспертами в каких-то отдельных моментах, и они дальше как бы делают кроссотенtion. Вот посмотри на это, на это, на это. А то, что сейчас
51:47
практикуется, это мультиагентный подход. То есть, когда мы говорим, что давайте вот как бы если мы видим, что вот у там
51:52
у больного такие-то симптомы, надо добавить промт, что вот давайте туда-туда и смотреть. И допустим, несколько агентов, которые смотрят там
51:59
за каждую болезнь, собирают какую-то дополнительную информацию, если надо, говорят: «Давай сделаем анализ», да? То есть такой вызов как бы function по
52:06
давай сделаем дополнительные анализы, получим фидбэк или там репорт с этих анализов и дальше пообщаемся друг между
52:11
другом, получим ответ. То есть в целом у тебя архитектура, которая раньше была там LMAR, типа послушаем пять агентов
52:19
усред ним, она перешла в формат сначала мультиагентных дебатов, а потом, соответственно, вообще в полноценный вот
52:25
такой мультиагентный симулятор, в котором у тебя агенты с разной информацией, разными тулзами, разными
52:30
свойствами, они могут между собой пообщаться, прийти к какому-то общему мнению. И делается это в целом абсолютно так же, как у человека. Единственная
52:36
проблема, что как бы отслеживать галлюцинации в мультиогетном сетапе ещё сложнее. Принято. А один из наших дорогих
52:45
слушателей, пожалуйста, к вам обращаюсь, слушатель, задавайте вопросы в нашем канале. Это НХБ. А-а, хочу его
52:53
адресовать. Миша тебе и Андрей, а тебе, а значит, спрашивает зритель, а что
53:01
наука, да, как и как предпосылка, что это творческий процесс, начинается с
53:07
мечты, продолжается долгим разду раздуманием, да, и заканчивается
53:14
каким-то точным инженерным внедрением. Вот как вы считаете, э, на каком из этих
53:21
этапов э и ну наиболее
53:27
может быть продуктивен -э на текущий момент? Как ваше мнение?
53:34
Если не возражаете, я начну с того, что немного может быть подвергну сомнению
53:39
вот эту историю, что сначала мечта и так далее, потому что очень часто в науке возникает, что не сначала мечта, а
53:45
сначала проблема. у тебя приходит проблема и никто не знает, как её решить, например. А, и вот ты начинаешь
53:51
её решать. И это уже получается задача, которую можно развивать на подзадачи и так далее. И конкретные подзадачи уже и,
53:58
может быть, могут помогать решать, найти там подходящую литературу какую-нибудь, нагенерировать гипотезы, которые, ну,
54:04
тебе просто в голову не пришли. Тебе пришла одна вот в голову гипотеза. Иногда вот такое у меня бывает, приходит, и я вообще не могу о чём
54:11
другом думать. Всё, у меня это идея фикс вот на сегодняшний там день или на неделю, в зависимости от того, насколько
54:17
она меня захватит. И в этом плане они могут, ну, лэмки, да, ээ, более быть
54:22
разнообразными, если их так использовать, генерировать большее количество гипотезы, а я их потом смотрю, перепроверяю, где-то смеюсь,
54:29
где-то задумаюсь. Вот, мне кажется, в этом плане именно как генератор гипотез
54:35
и идей к решению, а потом ещё и, может быть, базовый код, ну, кодовой базы для
54:40
начала, очень полезно. Интересно, Андрей, пожалуйста. Я могу добавить, что вот подавая статьи на
54:48
крупные конференции, э мы там часто выступаем также в роли ревьюеров, то есть от людей, кто рецензирует,
54:55
работает. И для рецензии есть достаточно подробный список вопросов, которые нужно
55:01
задать работе, условно, да, или проверить работу там на актуальность, на новизну и всё остальное. По кучу всяких
55:07
критериев, чтобы оценить. И вот, используя этот мануал, я,
55:13
например, подхожу, собственно, критично к оценке собственных гипотез и гипотез, которые делаются в команде. То есть, по
55:19
сути, каждую из предлагаемых решений, прежде чем его доводить до там следующей стадии, можно
55:25
прогнать э ассистентами на базе там дипсика, на базе э Чаржа P и других
55:31
моделей для того, чтобы понять, насколько вот такой вот Deep resarch с нормальной тяжёлой инструкцией по разным
55:37
факторам может, э, критически посмотреть на твою работу. При этом, очевидно, там
55:43
делаются специальные хаки в промте для того, чтобы модель не всегда со всем соглашалась и говорила: «Всё, как хорошо». Вот там, смотрите, там пара
55:50
проблем, но в принципе всё нормально, можно там вик поставить. То есть хочется
55:55
заставить её быть более жёсткой и давать более такие э значит сложные комментарии, с которыми
56:02
над которыми надо подумать, а не просто поверхностный взгляд. Это непростая задача. И как бы там через несколько
56:09
итераций промтинга можно получить более-менее неплохие истории. Это в целом хорошо иметь такого и критика.
56:15
Вообще делать из LLM или вLM любой модели критика для там своей работы, для
56:20
работы э в разных областях, это хорошая история. И это, в принципе, позволяет
56:26
делать упор на каких-то определённых функциях, на определённых характеристиках моделей, чтобы их развивать. Поэтому вот я топлю как бы за
56:32
такой подход. Спасибо большое. И в продолжении, э,
56:38
могу сказать, что в магистратуре ITNHub достаточно часто наши студенты, э,
56:44
создают проекты в медтехе. И Илья и Андрей, как научные руководители
56:50
программы, я вас, наверное, попрошу, может быть, пару кейсов проиллюстрировать, как можно двигать
56:57
науку с помощью и как это делают магистры вланхаби с вашим участием.
57:07
Ну, Илья, ты начнёшь. У меня у меня в этом году было пара работ. Одна попала на Workшоп враста
57:14
конференцию по разработке трансформерных моделей для понимания синтеза речь. Вот.
57:20
А вторая про рекомендательные системы в задаче, где можно избавиться, точнее, о способе, как можно избавиться от
57:26
идентификатора пользователя, заменить его социодемоческой информации для того, чтобы понимать пользователя лучше. Ну
57:33
вот две достаточно неплохих таких студенческих студенческого уровня работы. Одна попала на воркшоп Кора, а
57:39
другая попала, собственно, на Corста Star конференцию, где, собственно, вот там студент Ильи и Илья тоже в соавторах
57:46
получилась такая вот коллаборация внутри. Круто. Илья, может быть, ещё немножко
57:52
света на это прольёшь? Да, мне как бы я не знаю, поскольку я беру как бы массово очень много
57:58
студентов, да, то как бы из них много ничего не делает. Бывает такое, да, или там делают весьма такие средние работы в
58:05
духе, вот мы делали, знаешь, называется такая классическая чебурашкиная статья в духе, вот мы делали, делали, построили в
58:10
конце, но из неё научную работу не получилось сделать, потому что там для научную работу тебе нужно там сделать blation studди, сравнить там с кучей
58:16
бейзлайнов, а, например, для продуктового решения иногда просто важно просто сделать. Я расскажу несколько,
58:22
да, то есть вот, если говорить там про помогать помогаторство, у нас есть студентки с программы ITHub, которые
58:28
делают основание жестового языка, да, и, соответственно, это помощь для людей с
58:33
там ограниченными возможностями с точки зрения там распознавания того, что они говорят, с точки зрения генерации. Если говорить про самый успешный кейс, то,
58:40
наверное, как бы это кейс с победой в соревновании на Анириs, которая организовывала Я Coopertive Foundation
58:47
Mind. Вот результатам которого, собственно, будет статья уже в этом году на Нериps вместе с авторами из ДП Майнда
58:54
про кооперативные и то есть мы учим решать и социальные дилеммы и и учим и
58:59
агентов договариваться. При этом как бы само соревнование тоже было достаточно интересным. ты сначала как бы пытался
59:05
угадать как бы что думает сейчас агент, которого готовил Deep Mind. Вот. И соответственно
59:11
в зависимости от того, как бы какой у него сейчас профиль, там, не знаю, состояние души, как бы он там кооперирует или он, наоборот, там
59:17
злостный читер, как бы пытается тебя обмануть, ты пытался подобрать правильную стратегию, а потом, соответственно, брал турнир, где все
59:23
агенты друг с другом как бы играли. Соответственно, вот такая как бы челленджи на уровне кооперативного. Я бы сказал, что это такой next level
59:30
alignment, что называется мультиагентный айм или multipreference alignment. И мы вот мы это направление суперактивно
59:36
развиваем вместе с моделированием эмоций вообще для искусственного интеллекта. То есть как навешивать эмоции поверх любой
59:42
лмки, поверх любого там генеративного и и делать там модель более эмпатичной, более ответственной, более секюрной. Ну
59:49
и, конечно, опять-таки редкие кейсы. То есть, э, например, у нас большой успех был, это там две совместные статьи на
59:58
старконференции по предиктивной аналитики, да, потому что я всё-таки в Айре там Читимлидг группы и промышленности, вот, хотя это одна из
1:00:05
многих направлений, но тем не менее. Вот, соответственно, вот вместе с вашими студентами у нас уже 2 года успешно
1:00:11
проходят статьи про моделирование аномалий, ээ, нахождение аномалий по
1:00:18
сенсорным данным, как в химических в химической промышленности, так и в случае там различного оборудования.
1:00:24
Вот поэтому мне кажется, что как бы нет как бы каких-то, знаешь, таких стопорящих факторов, чтобы студент на
1:00:31
выходе с магистратуры не смог написать статью, но нужна постоянная работа и
1:00:36
очень важный софски для того, чтобы вот как бы это конвертилось в результат, потому что все работы, которые делались,
1:00:42
которые работы я слушал там на защитах, они интересные, но для того, чтобы довести их там до
1:00:48
научной публикации, просто нужно гораздо больше времени. Конечно, там правильная мотивация студента и наличие свободного времени у него.
1:00:54
Ну, если если честно, хочется стать студентом и
1:01:00
учиться у вас, парни, чтобы быть из числа тех, кто делает, ну, по-настоящему
1:01:06
что-то интересное. И а если вы, дорогие зрители, а желаете, мечтаете развиваться
1:01:12
в И работать над реальными проектами в бизнесе, в индустрии, в науке, в
1:01:18
медицине и под менторством таких крутых практиков из индустрии, приходите,
1:01:24
пожалуйста, в Italhub, будет QR-код или ссылка под этим видео. Совместная
1:01:30
магистратура университета ИТМО и компании Наполеон IT. На минуточку, а
1:01:35
эта магистратура предоставляет на сегодня самое большое количество бюджетных мест в стране. 200 бюджетных
1:01:45
мест, где вы сможете учиться абсолютно бесплатно. Это вау. При этом обучение
1:01:51
строится индивидуально и а практика ориентирована, что значит при
1:01:58
поступлении ты берёшь проект за обучение ты здесь делаешь их минимум четыре, а
1:02:05
под каждой из проектов магистратура для тебя полностью онлайн вы в
1:02:11
построит индивидуальную поддерживающую образовательную траекторию. Когда я это
1:02:17
слышу, то, что говорю, у меня кружится голова, насколько это круто. Самому хочется учиться, переходите, пожалуйста,
1:02:24
на QR-код или на ссылку и поступайте к нам в магистратуру. Мы вас ждём. Вот
1:02:31
такая рекламная интеграция от нас. Надеюсь, что она вам всем понравилась. Давайте ещё Павла Павлов спросим. Вот
1:02:40
два вопроса. А гипотезы
1:02:46
в науке, а можно их назвать решением проблем текущих, можно назвать их меч
1:02:53
там производной от мечты. Вот как вы видите, а и как в а создании гипотез э
1:03:05
принимает участие? Как у него получается? Верите ли вы в этом? Пользуетесь ли вы этим?
1:03:11
А, ну если можно, я начну, да, на самом деле, наверное, в любой работе,
1:03:16
поисковой работе, в какой-то сложной работе, где очень много факторов, иногда не знаешь, с чего начать. И, собственно,
1:03:23
наверное, вот такой вот помощник, который, а, тебе накидывает какие-то гипотезы, с которым ты общаешься, как со
1:03:30
своим, по сути, научным руководителем в какой-то степени, ну, или, по крайней мере, другом, который что-то знает в
1:03:37
твоей сфере. ты можешь с ними общаться и более правильно и точечно конструировать те самые гипотезы и и, собственно, да,
1:03:45
критиковать, как уже было тоже выше сказано, а, коллегами. То есть это всё-таки является хорошим помощником
1:03:51
сейчас для того, чтобы не не только проявлять то, что ты мог придумать, а ты
1:03:57
мог бы это обсудить, что очень важно, потому что такие вещи, как, вернее, такие мероприятия, как конференции,
1:04:03
собственно, тоже для этого нужны исследователям, учёным, где они могут обсуждать свои идеи, где где их идеи
1:04:10
могут критиковать, где вот собственно это может происходить не на каких-то
1:04:15
митингах, собраниях. То есть у тебя есть этот друг, который ты можешь с ним пообщаться и таким образом покритиковать
1:04:22
свои идеи и вывести какую-то более ценную ценную гипотезу, более ценный вариант, который может дать
1:04:29
преимущество всем. И это, конечно, очень хорошо, учитывая, что большинство исследований является
1:04:34
междисциплинарными, у тебя нет возможности узнать абсолютно всё из каждой области знаний. И это тоже очень
1:04:42
важный такой фактор, параметр, да, когда ты можешь пообщаться с человеком и задать, можно сказать, те самые глупые
1:04:48
вопросы, которые ты бы никогда бы не задал бы своему коллеге из этой области. То есть ты можешь это проработать и уже
1:04:55
далее двигаться в более точном направлени, скорректировать своё направление. Мне кажется, это очень хорошая возможность. Этим надо
1:05:03
пользоваться. Вот Павел, наверное, добавит что-то тоже по этому поводу.
1:05:09
Да, па, Паш, добавь, пожалуйста, микрофон только,
1:05:17
да? А опять же сразу, ну, про себя скажу, ну, как бы гипотезы не то, чтобы
1:05:26
как этот пользовался для этим когда-либо. Ну, в смысле, на самом деле, по моему опыту гипотезой всё-таки чаще
1:05:32
всего это, ну, как это назвать? достаточно
1:05:37
научной работе, достаточно недорогой, ну, недорогая затрата.
1:05:42
Ты, ну, в смысле, опять же, если ты, конечно, один, то это трудно, но чаще всего у тебя есть коллектив, с которым,
1:05:49
я не знаю, вы пошли, выпили чай, поспорили о чём-то или ещё что-то делали. Ну, постоянное обсуждение. И это
1:05:55
бывает. То есть я не знаю, насколько реально, э, насколько реально это
1:06:01
может помогать, но допускаю, что может помогать. Вот. Единственное, опять же, мне кажется, что мы вкладываем прямо
1:06:08
совсем какие-то антропоморфные характеристики. Ну, в смысле, в в эти в
1:06:13
этих агентов, в том числе, что они, я не знаю, думают или как этот, что что они
1:06:20
друзья. Ну, в смысле, если если у человека реально друг это искусственная, э, сетка, это отчасти отчасти грустно.
1:06:28
Вот надеюсь, что такого не должно быть. Вот. Потому что человеческое общение всё-таки несколько шире. Ну, в смысле, в
1:06:33
том числе и по эффектам оказываем, чем просто там, я не знаю, критика гипотезы. Вот у меня на самом деле к этому есть
1:06:40
ещё некоторые опять же проразмышление. То есть может меня поправят э другие
1:06:46
эксперты. Вот смотрите, у нас в целом уже сейчас есть, ну, публикации на тему того, как э различные эти генеративные
1:06:54
модели несколько вырождаются и коллапсируют, когда датасет становится контаминированной собственно продуктами
1:07:01
их собственного производства. Ну, то есть, что если исходно они тренируются на текстах человеческих, то они, ну,
1:07:07
хорошо работают или всё лучше и лучше. Но как только туда начинают попадать всё больше и больше нечеловеческих текстов,
1:07:13
ситуация становится хуже. То же самое касается с картинками. Вот у меня просто теперь вопрос. Это вроде как уже, ну, то
1:07:18
есть, во-первых, я точно не знаю, насколько это прямо всеобъемлющая проблема, но кажется, что достаточно
1:07:24
достаточно проблема. А дальше не будет ли похожего? У нас просто сейчас нету данных. Но если мы будем гипотезы и
1:07:31
эксперименты тоже создавать с помощью искусственных э-э
1:07:38
искусственных сетей, не будет ли у нас и там подобного происходить? То есть
1:07:43
всё-таки у нас, э, как это назвать, э,
1:07:50
не совсем то же самое, ну, в смысле то то, что создаётся искусственным интеллектом на текущий момент. Я не
1:07:56
говорю, что это технически невозможно. Я говорю вот просто про то, что есть сейчас. Оно не совсем эквивалентно тому,
1:08:02
что что создаёл человек, когда когда делает это сам. Вот у меня несколько
1:08:08
может такое напоминание об осторожности того, что мы делаем.
1:08:14
Ну я я несколько прокомментирую, потому что есть обратная ситуация, что хорошая синтетика, наоборот помогает учить
1:08:20
модели работать лучше. И как раз-таки есть работы, где модели на своей же синтетике, на своей уверенности в
1:08:26
ответах доучаваются и так далее. В целом там серия работы от Майкрософта про их вот эту серию модели фи, где они именно
1:08:33
генерируют данные. Ну, конечно, они делают смесь данных настоящих и синтетических, и, в частности,
1:08:39
показывали, что смешивать обязательно нужно, то есть человечески нужны, но в целом
1:08:45
как бы э генерация модели, какой бы ни была, генерация рознь, там, образно
1:08:51
говоря, на каком-нибудь форуме, а-э, не знаю, деревенском, допустим, где у людей
1:08:57
средний уровень может быть пониже, они там могут проводорожники писать, ещё что-то писать. Ну, имеется в виду прямо
1:09:03
м такие э- традиционные методы для борьбы, которые там с болезнями и так
1:09:09
далее, которые могут на самом деле не работать. Или лэмка, которая там много чего видела, знает и, скорее всего, в
1:09:15
среднем напишет текст лучше, чем вот такой контент, да. Но при этом, если сравнивать с текстом Нобелевского
1:09:21
лауреата, это третья история. Соответственно, я считаю, что проблема есть, но она
1:09:29
скорее вырождается в проблему определения качества данных, а источник данных это уже вторично станет, мне так
1:09:37
кажется. Огромное спасибо. А я бы хотел, э,
1:09:43
предложить перейти, а, нас к одному из уже финальных частей
1:09:49
нашей беседы, а конкретно небольшой блиц, короткие вопросы на тему и и в
1:09:55
науке. А прошу отвечать, э, отвечать быстро, но не обязательно коротко. Вот
1:10:01
очень интересная такая добавка. А, Паша, а Докшн с нами. можешь рассказать э-э
1:10:08
топ- один а-а навыков исследования в эпоху ЛМ?
1:10:15
А, ну этот как раз, наверное, навык критического мышления. То есть вот то, что мы сейчас обсудили
1:10:21
про этого друга, да, и помощника. Конечно, это не отменяет то самое критическое мышление, которое ты должен
1:10:27
применять, и задавать и формулировать правильные вопросы. Если ты хочешь получать нужные ответы, правильные
1:10:32
ответы, которые тебе, правда, могут помочь, помочь своему исследованию, помочь миру, в конце концов, здесь этому
1:10:39
тоже нужно учиться. И нужно учиться задавать правильные вопросы и, собственно, критически их осмысливать,
1:10:44
да, те ответы, которые ты получаешь. Иначе это никак не поможет в дальнейшем.
1:10:49
Поэтому, да, таки второй вопрос. Может ли, может ли и диагностировать лучше
1:10:56
врача? И в каком случае? А я думаю, мы сегодня об этом тоже
1:11:01
достаточно много сказали, что, конечно, врача и не заменит, но может помочь,
1:11:08
собственно, помочь как бы минимизировать тот самый человеческий фактор, который
1:11:14
иногда играет очень плохую роль в постановке диагнозов или в лечении пациентов. И сейчас, конечно, технология
1:11:22
не развивается. Я думаю, что они будут лучше намного, чем сейчас, учитывая достаточно большое количество
1:11:27
ограничений. Лучше анализировать изображения, лучше анализировать анализы, главное их
1:11:34
компилировать, собирать вместе огромные выборки и уже выводить какое-то на основе этого решения. Думаю, это будет
1:11:41
хороший компонент врача, но не замена. Спасибо. А какой человеческий навык пока
1:11:47
нельзя заменить моделью? А, ну сегодня, по-моему, вопрос был от какого-то зрителя на этот счёт. Мне
1:11:54
кажется, эмпатия. Не знаю, насколько может быть эмпатичен. Э зритель наоборот
1:12:01
сказал, что выгоревший врач он менее эмпатичен, чем среднестатистическая Open
1:12:07
модель. Да. Да. Я вот как раз обращаюсь к этому вопросу. То есть на самом деле
1:12:12
эмпатию больше может степени проявить именно человек. И именно поэтому большинство пациентов, ну, допустим,
1:12:18
престорел, а, приходя в клинику, хотят получить даже больше не ответ то, как вылечить их, а больше поддержку
1:12:25
какую-то, которую может им оказать человек. Да, я согласен с тем, что наши врачи могут выгорать в клинике, работая
1:12:32
очень долго. Это правда снижает эмпатию. И сейчас, на самом деле, в системе
1:12:38
здравоохранения идут идут изменения, которые позволяют, во-первых, какие-то создавать тренинги, какие-то курсы или
1:12:46
работу на местах, которые позволяют ту самую эмпатию каким-то образом а улучшать и минимизировать выгорание. То
1:12:54
есть я думаю, что мы к этому придём, просто найдём более такой work life balance при помощи опять же
1:13:00
использования искусственного интеллекта, который позволит врачам быть ближе к пациентам и не выгорать.
1:13:07
Поэтому спасибо. Да, мне кажется, эмпатия должна остаться с нами. Илья,
1:13:12
Илья, у тебя рука и у меня вопросы к тебе. Ну, я я сначала хотел просто всё-таки
1:13:18
прокомментить в режиме близ. То есть, как я уже сказал, вот мы делаем так, чтобы, короче, опровергнуть утверждение
1:13:23
Павла и сделать эмпатию, хотя бы имитацию эмпатии. И один из вещей, которые мы делаем, по сути, — это репликация мультика Головоломка, когда,
1:13:30
если вы там смотрели, может быть, там дети смотрели, да, как бы когда у вас там в голове моделируется каждая эмоция, как отдельный агент, который друг с
1:13:36
другом общаются, в конце принимают решение. Вот такие вещи, которые выросли на самом деле из идеи Экмана, который
1:13:42
занимался эмоциями. достаточно известный консультант, в том числе этого фильма, известный учёный. Ну вот как бы их можно
1:13:48
делать на мультиагентной основе. И скорее вопрос том, а насколько эта имитация вообще, насколько можно назвать, да, что типа там и будет
1:13:54
обладать эмоциями, но эмпатичность он точно будет обладать. И базовая эмпатичность достигается просто простым
1:14:00
промтом. Вот, в частности, мы там делали так называемых хвалёнушку вот, значит,
1:14:05
настолько жуткого подхалима и настолько эмпатичного, что даже было тошно от количества эмпатии, которое она
1:14:12
излучала. Вот поэтому здесь вопрос вот зловещей долине. Скорее Илья, тебе
1:14:17
вопрос. А какая публикация по ИИ в 2цать четвёртомдвать пятом тебя по-настоящему
1:14:23
поразила? А в в хорошем смысле или в плохом? В
1:14:28
хорошем, честно говоря, у меня таких нет. Я их сам как бы пишу. И, честно говоря, не то, что я о них там хорошего
1:14:34
мнения, вот, но какие-то хорошие, какие-то не очень. Там какие-то куда-то принимают, какие-то не принимают. Но я
1:14:40
бы сказал, что самая трышовая публикация была от антропика про там модели лмки,
1:14:45
которая уклоняется от самообучения, что якобы она там, значит, когда ей там говорят, что сейчас мы на твоих примерах будем обучать, чтобы ты там что-то не
1:14:52
делал, и она начинает врать. Ну вот такие исследования как бы, которые имитируют на самом деле saфти. И ищут там в тёмной воде, в тёмной комнате,
1:14:59
значит, ээ какого-то там тёмного человека, который во всём виноват. Вот на мой взгляд, это вот максимально
1:15:05
контрпродуктивно. И значит, я в каком-то паблике вообще прочитал, что resarch вокруг лэмок и да простят меня
1:15:12
вселпишники, значит, это какое-то современная современное ведьмовство, вот, в котором как бы никто не понимает,
1:15:17
что они делают, как они делают. Вот. И на выходе получается какой-то magжик. И вот все это называют ресршем. Значит, но
1:15:24
вот как бы у меня есть большая критика того, что делает и того, что публикует Антропик и там, не знаю, Сакана,
1:15:29
например, да, Сакана яй, потому что многие вещи просто показывают уязвимость бенчмарков, что как только появляется
1:15:35
бенчмарк, ты его кидаешь в трейн. Вот. Ну и дальше, как всегда там типа, значит, давайте тоже тест кинем в трейн,
1:15:41
вот, а потом покажем, что у нас всё замечательно работает, а потом увидим, что, значит, многие вещи не работают. Поэтому я бы призывал как бы не верить
1:15:47
большому хайпу вокруг и публикаций, а верить в свою тему и верить в то, что тебе нравится. То есть тебе всегда,
1:15:53
когда ко мне приходит студент, я спрашиваю два вопроса. То есть первое, как бы почему ты вообще будешь что-то у меня делать и работать, да, как бы
1:15:59
почему у тебя время будет, а второй момент, какой тип данных тебе нравится. То есть хотя бы на уровне типа данных определите, что вам нравится, и дальше
1:16:06
занимайтесь какой-то узкой проблемой, которая вас дравит, для того, чтобы у вас было просто максимальное погружение. И всё остальное, на самом деле, оно
1:16:13
приложится, и статьи прочтутся, и GPT поможет прочитать. Вот что приложится.
1:16:18
Назови, пожалуйста, два хард скила, два софтскила, а без которых невозможно
1:16:23
зайти в науку в двадцать шестом году. Не, ну мне кажется, хард скилы, то есть
1:16:28
действительно это всё-таки знание статистики, я бы сказал, и знание программирования, да, то есть ну без этого совсем никуда. То есть я
1:16:35
мог бы говорить математику, но я здесь всё-таки слукавлю и скажу, что ты можешь там, не знаю, математику сейчас как бы
1:16:40
напрототипировать там код нейронки как бы, да, и что-то сделать. Но если ты не понимаешь как бы статистику, как
1:16:46
валидировать гипотезы, это может привести к очень печальным последствиям. Вот я помню, как у меня один студент там обучал reinforcement learning, значит, в
1:16:53
игре, вычитая там, не знаю, там количество здоровья из из, ну, короче, не знаю, там здоровья из метров, вот, и,
1:16:59
ну, как, не знаю, там валенки из кирпичей вычитать, что получится, бог его знает. Вот поэтому мне кажется, что
1:17:05
вот я говорю общее общее понимание и, конечно, навыки программирования и статистики. Если говорить про софтскилы, ну, во-первых, это умение коммуникации,
1:17:12
да, то есть помимо знания английского языка уверенного, да, значит, статья пишется по технологии STAR, да, я его
1:17:18
всему рекламирую. То есть Situation Task, Action result. Значит, этот же подход нужен для того, чтобы вы проходили behavioral intervw в BТЕch,
1:17:25
да, Fun. Э, и если вы умеете правильно рассказывать свою историю, у вас всё будет в науке хорошо. Если вы умеете
1:17:31
только делать ручками, вы в конце концов скажете: «Да задолбали эти рецензит, я уйду, значит, работать инженером, там,
1:17:36
не знаю, в какой-нибудь Яндекс или, не знаю, в какой-нибудь контор по разработке». Вот. И второй, второй скилл
1:17:42

это, знаете, такая исполнительность и просто человеческая порядочность. То есть вот все топовые аспиранты, кто у
1:17:48
меня занимаются, то, что их отличает, да, у них очень хорошие харды, но я не могу сказать, что они там супер, они
1:17:53
лучше, чем там Гарварт или какие-нибудь китайцы или там ещё кто-нибудь, да, кто там с утра до вечера ходит. Они вполне
1:17:59
себе просто хорошие программисты, но они максимально порядочные, и они умеют коммуницировать, и взяв какую-то
1:18:05
проблему на себя, они её доводят до конца и регулярно коммуницируют в случае любых проблем. Вот. Ээ я не знаю, как
1:18:12
учить порядочности и воспитанности и вот, не знаю, там, регулярности коммуникаций, но вот resarch в России —
1:18:19
это тоже такая неблагодарная история, что как бы у нас аспиранты, они обычно фултайм где-то работают очень часто они
1:18:25
там не могут посвятить всё время науки. Ну, а если вы уж пришли и хотите заниматься ресершем, мне кажется,
1:18:30
основной момент — это вот, ну, действительно, просто как бы базовые человеческие отношения. Вот как вы на работе как бы ожидаете, да, что если вы
1:18:37
там на 2 недели пропали, вас, наверное, уволят. Вот. Ну вот непонятно, почему как бы
1:18:42
в научных коммуникациях это не считается дефолтным. Спасибо большое. Очень ну
1:18:49
задумался, что так и надо. А, Паша Добрынин, к тебе. А если и и создаст
1:18:56
исследование, которое примут в Nature, это повод для гордости или тревоги?
1:19:05
Это, на самом деле, я бы сказал, неважно. Из качество исследования определяется его содержанием, а не в
1:19:11
какой журнал оно принято. Если и создаст хорошее исследование, ну, в смысле, которые интересно по результатам и
1:19:18
читать, конечно, повод для гордости. Если и создаёт очередную, ну, типа очередную, вот, как я уже говорил, есть
1:19:24
примеры того, что горы однообразного анализа, ну, то это повод для тревоги,
1:19:31
независимо от того, в какой журнал она идёт. Второй вопрос. Есть ли сферы науки, где нет места и и технология?
1:19:42
Не, не думаю. А ген Иа усилитель или деградан
1:19:48
человеческих навыков?
1:19:53
А это интересный вопрос. Я бы сказал, что давайте, ну, про на текущий момент
1:19:59
вот сейчас это даже не не столько про науку. Вот вы там все пользуетесь социальными сетями всем подряд.
1:20:05
Количество мусорного контента, которое вывалил Геный на человечество — это
1:20:10
чудовищная трагедия. и продолжает вываливать. Вот так что я думаю на текущий момент, до тех пор, пока с этим,
1:20:17
если с этим вообще что-то можно сделать, это, я думаю, конечно, деградант, к сожалению.
1:20:24
Спасибо большое, Андрей. А самая переоценённая область генеративного ИИ и
1:20:32
Мне кажется, это использование в современном мире термина World Models и вообще понятие модели мира. Вот я
1:20:40
считаю, что сам этот термин, он немного вводит в заблуждение людей, потому что,
1:20:46
а, все ожидают, что искусственный интеллект очень хорошо должен научиться
1:20:51
и умеет понимать физику окружающей среды, а он этого не умеет. Ему до этого очень далеко.
1:20:57
Очень интересно. А что важнее для прорывов? Вычислительные мощности или
1:21:04
новые подходы? Наверное,
1:21:09
наверное, второе, потому что с первым мы уже столкнулись, наверное, года два назад, когда все пытались и грезили
1:21:16
моделями. Вы, наверное, помните все вот эти там 2 триллина параметров, 600 млрд параметров. Все гнались за этим. Сейчас
1:21:23
всё сошло на нет. И в принципе сейчас больше там 70 параметров в среднем мы особо-то и не видим выхлопов. Но это я
1:21:29
про D вещи говорю, не про mixture of Experts и такие вещи, такие подходы.
1:21:34
Поэтому я думаю, что сейчас м будучи за какими-то новыми подходами, мы в принципе постепенно видим появление, да,
1:21:41
появляются там дискретные диффузионные модели, диффузионные модели для текста, а появляются разные там фломачинг вещи
1:21:49
для генерации видео, any to any модели. То есть я всё-таки за вот новые
1:21:55
интересные подходы и возможности улучшения архитектур разными дополнительными хинтами, типа, э, ГРПО,
1:22:03
L, всякие методики, Self confidence и так далее. А значит, у нас есть шанс на
1:22:10
прорыв и у нас Да. Да, да, да. Ну, а всегда же была вот эта вот, да, мм,
1:22:16
история с заливанием ресурсов до определённого момента, до какого-то пика, потом ты начинаешь какие-то умные вещи придумывать, потом опять у тебя
1:22:22
начинается там бум технологического развития и так дальше. Аа вопрос ещё вы
1:22:30
бы взяли и и как соавтора научной статьи, да? Изи вообще 100%. А ваш совет
1:22:38
абитуриенту, как начать делать летом двадцать пятого года что-то к сентябрю?
1:22:44
Так, чтобы к сентябрю быть готовым к RnD,
1:22:50
перечитать посты в моём канале с начала двадцать четвёртого года. Мы добавим
1:22:55
ссылку на твой канал. Спасибо большое, Андрей. А на самом деле нет, на самом деле, если без шуток, то я действительно
1:23:01
всем советую для того, чтобы быть в теме того, что происходит сейчас и владеть актуальными знаниями, это действительно
1:23:07
читать какие-то актуальные большие каналы. Здесь речь там не про себя, ну, там известный есть канал, там и news, и
1:23:14
Гонза, читать обзоры статей, а не обязательно погружаться там в какие-то детали, но надо повышать насмотренность.
1:23:20
Вот, наверное, так, повышать насмотренность в мире. Как не сойти с ума? Я вот после эфира
1:23:28
с создателями, а, ну, русских, если так можно назвать, да, на их каналы
1:23:35
подписался. Вот на мишен тоже я их не успеваю читать такое количество там
1:23:42
идей, новостей, но ты уже сказал, что вы делаете суммаризатор всего и вся для
1:23:48
того, чтобы, ну, что-то успеть. Да, я ещё часто пользуюсь Hing Face Top Papers. Аэ, там можно посмотреть статьи
1:23:56
дня и в целом топ-три посматривая, это достаточно хороший подспори. То есть там
1:24:03
комьюнити, да, сантистов регулярно как бы отмечают статьи и в целом можно на это опираться. Круто. Миш, а есть ли у
1:24:11
ЛМ шанс стать лаборантом, ассистентом учёного? Ну, коллеги уже рассказывали,
1:24:17
что они это делают, так что 100% шанс. Супер. А лаборатория
1:24:26
2030 года руководитель человек или и агент?
1:24:31
Ш человек как минимум с административной точки зрения ещё не готова
1:24:37
как бы законодательная база. А самая переоценённая область ген AI в
1:24:45
исследованиях. Поддержу Илью в этом плане скажу про сейфти.
1:24:52
То есть это как карbнфри в экологии? Ну, наверное, ну, скажем так, safety в
1:25:00
целом, как бы вещь-то, наверное, хорошая, но то, как оно фанит в
1:25:05
основном, токи поэтому работа выходит, это, я бы сказал, контрпродуктивно.
1:25:12
А что вот Илья, а, который с Луцскевер, да, что он про сейфти? Вот какая у него
1:25:19
основная идея? Слушай, у него основная идея, что он Илья Суцскевер. Как бы вот
1:25:25
я его видел на несе, понимаешь. Чувак уехал на бронированном джипе, как бы секретаршей, знаешь, которая там в
1:25:31
боевиках восьмидесятых, как бы одновременно, знаешь, как бы и прекрасно одета и может, наверное, кунфу владеет и
1:25:38
и выстрелить в глаз, если что. Вот поэтому как бы это просто пойми, что как бы это уже другой уровень хайпа как бы
1:25:44
вот если там вспомнить с чего Джеффри Хинтон начинал, да, это аукцион между китайцами и Гуглом, который в итоге они
1:25:50
выбрали Google, хотя бы больше видел китайц, как бы вот это тоже само по себе показательно, что когда ты на вершине и
1:25:56
у тебя вот действует этот пейджран как бы вокруг тебя именитый, значит,
1:26:01
популярный, ты сам суперпопулярный, те нужно комодизировать.
1:26:07
Дада. Ну, короче, тебя нужно как бы комодизировать и ну как бы а когда, если не сейчас, посмотри вот этих всех
1:26:12
разбежавшихся топ-менеджеров из Openi. Они все там стартуют сейчас компании, собирающие миллиарды долларов. Видим ли
1:26:18
мы ФинфЕ? Ну, наверное, там же, где вот финфет от беспилотников, да, значит, беспилотные автомобили потрачено 130
1:26:24
млрд долларов, вроде как к концу двадцать третьего или двадцать четвёртого года. Вот. Ну, в общем, ВОС и
1:26:30
нынче там, хотя они прекрасно ездят в целом и гораздо более безопасно по сравнению с человеческой статистикой.
1:26:37
Угу. Аа у меня есть ещё вопрос, Миш, тебе
1:26:43
сейчас. Сейчас я его буквально подниму. Главное и прорыв в науке за последний
1:26:49
год. Ну я главное не назову. Наука очень широкая. Я просто назову то, что мне
1:26:55
интересно и нравится. Лично мне нравятся модели с рассуждениями. Они клёвые, их прикольно читать. Самое
1:27:02
главное, там часто при анализе того, что-нибудь там наразмышляли, ээ возникает понимание того, что-то не так
1:27:08
в промте сделал, как это подправить, ну или просто поразвлекаться, как бы. Вот. Ну и в целом это в математике, в кодовых
1:27:15
получается историях привнесло, ну огромный буст в качестве. Так что я за резанинг модели.
1:27:23
Спасибо большое, друзья. А в продолжении хочу пригласить всех на демодень
1:27:29
Яйланхаба, где будут представлены в том числе и проекты в науке. А демодень
1:27:36
пройдёт 26-27 июня. Вы можете э записаться в ссылке
1:27:44
под видео или в Telegram-канале. Мы всех очень и искренне ждём. А также хочется
1:27:52
вас попросить ставить лайки и писать комментарии. Сегодня, кстати, один из самых
1:27:59
насыщенных по количеству комментариев а эфир. Это очень радует, потому что тема
1:28:05
дискуссионная. Ну и завершая наш эфир, я бы, конечно, хотел подытожить, если
1:28:11
позволите, что будущее науки — это, конечно, синергия, а, человеческого
1:28:17
интеллекта. и аэ то, что мы называем машинное обучение. И э приведу слова
1:28:25
одного из наших а-а читателей, одного из наших зрителей
1:28:32
Анны, а Велисовой, а которая сказала, что настоящий
1:28:39
настоящую эмпатию, да, её не подделать. Так что я с ней безумно согласен. А
1:28:47
я думаю, что это даёт нам шанс на то, что нас ждёт
1:28:54
впереди масса позитивных и очень приятных открытий. Коллеги, спасибо за
1:29:00
эфир. Зрители, спасибо за вопросы. Всем жму руку и до скорых встреч.
1:29:07
было

Поделиться: