И19: И. В. Оселедец | AIRI, искусственный интеллект, ChatGPT, H-Index, математика и визы в Европу

Иван Валерьевич Оселедец — выдающийся российский учёный в области математики и вычислительной математики, известный своими значительными вкладами в науку. Его труды получили международное признание и вошли в четвертое издание классического учебника по матричному анализу, а также в список наиболее цитируемых статей в предметной области. Является профессором Сколковского института науки и технологий, ведущим научным сотрудником Института вычислительной математики РАН, генеральным директором Института искусственного интеллекта AIRI.

Краткое содержание текста

пересказ первых 30 минут

Иван, директор AIRI, рассказывает о своем пути из математики в искусственный интеллект.

Он начинал с исследований нелинейных приближений матриц, которые используются в машинном обучении.
Переход в Сколтех ознаменовал собой переход к deep learning, где его методы были применены для сжатия нейросетей.
Он считает, что в то время математика была выгодной карьерой, особенно с поддержкой грантов.
Исследовательские темы выбирались из любопытства и практической значимости.
Мотивация для разработки тензорных поездов - плохой метод, предложенный на конференции.
Он считает, что в современном ИИ математика применяется двумя способами: создание алгоритмов на основе математических идей или описание происходящего с помощью математики.
Он рад созданию нового отдела в Математическом институте Стеклова, посвященного теоретическим основам ИИ.
Он считает, что изобретение больших языковых моделей - это прорыв, сравнимый с изобретением транзистора.
Он не предсказывал такого прорыва, но считает, что важно следить за достижениями и быстро адаптироваться.
В основе прорыва лежит качественная подготовка данных, а не новые алгоритмы или методы обучения.
Он считает, что количество параметров модели влияет на качество, но существуют пределы, зависящие от данных.
Он не уверен, что данные, сгенерированные ИИ-моделью, подходят для обучения других моделей.
Он удивлен, что потребовалось так много времени, чтобы появились решения, подобные ChatGPT.
Он считает, что знание о возможности решения задачи облегчает ее поиск.

В тексте также обсуждаются:

Роль математики в искусственном интеллекте
Генерация данных с помощью ИИ-моделей
Законы масштабирования для ИИ-моделей
Проблемы согласования ИИ-моделей

Ответы на вопросы, заданные в тексте

  1. Как вы из математики попали в искусственный интеллект?

Иван постепенно перешел из области нелинейных приближений матриц, которая имеет приложения в машинном обучении, к deep learning, где его методы были применены для сжатия нейросетей.

  1. Как Вы выбирали темы для исследований?

Темы для исследований выбирались из любопытства и практической значимости.

  1. Какая мотивация на это?

Мотивация для разработки тензорных поездов – плохой метод, предложенный на конференции.

  1. Как много, как вам кажется, математики сейчас в современном искусственном интеллекте?

Математика применяется в ИИ двумя способами: создание алгоритмов на основе математических идей или описание происходящего с помощью математики.

  1. Как Вы относитесь к изобретению больших языковых моделей?

Он считает, что изобретение больших языковых моделей – это прорыв, сравнимый с изобретением транзистора.

  1. Вы предполагали такой прорыв, например, 4 года назад?

Он не предсказывал такого прорыва, но считает, что важно следить за достижениями и быстро адаптироваться.

  1. Что в основе этого прорыва ИИ?

В основе прорыва лежит качественная подготовка данных, а не новые алгоритмы или методы обучения.

  1. А мы понимали 5 лет назад, что в данных главная проблема?

Да, было известно, что качество данных влияет, но всегда хотелось придумать новую модель или метод обучения.

  1. Почему только после появления ChatGPT стали появляться подобные решения у других компаний?

Он считает, что знание о возможности решения задачи облегчает ее поиск.

https://gemini.google.com

Расшифровка видео

Приветствие
0:00
Иван, здравствуйте! Огромное спасибо, что нашли время для нашего разговора.
0:05
Это для меня большая честь, для наших слушателей тоже. Мы знаем, что вы сейчас директор AIRI, Института по исследованию искусственного интеллекта,
0:15
но мы знаем также, что начинали вы как математик, и обе вашей диссертации посвящены нелинейным приближениям матриц.
0:24
Отсюда вопрос, как вы из математики попали в искусственный интеллект? Такой был план изначально, или это так сложилось?
0:31
Плана такого вначале не было. Я действительно работал долгое время в Институте вычислительной математики,
0:38
в Российской академии наук, продолжая там, на самом деле, небольшую ставку еще числиться,
0:44
у Евгения Евгеньевича Тартышникова, и занимался, собственно, на самом деле, что сейчас можно было бы назвать искусственным интеллектом,
0:53
но тогда так оно не называлось, мы занимались как раз аппроксимацией многомерных данных,
0:58
когда у вас есть много признаков, и если все, как значение каждой переменной перебрать,
1:05
получится такой многомерный массив тензоров. Вот мы ими занимались, действительно, они до сих пор используются, в том числе и в машинном обучении, в том числе и нами, да не только нами.
1:13
Но в 2013 году я перешел работать в Сколтех, которому было два года,
1:22
это была такая новая мощная история, овообще с идеей, что я буду продолжать действительно эффективные методы моделирования,
1:29
эффективные методы аппроксимации. В Сколтех на тот момент работал уже Виктор Лемпицкий,
1:34
который, к сожалению, из страны уехал, из Сколтех тоже уволился, не так давно,
1:40
но тем не менее большая потеря. И, в общем-то, как-то из обсуждения того, чем он занимался,
1:47
он действительно занимался вот то, что сейчас называется deep learning, оказалось, что наши методы могут быть применены,
1:56
в первую очередь мы их применили для сжатия сверточных нейросетей, уменьшения количества параметров.
2:02
Там появилась работа, которая была опубликована тогда на еще маленькой, никому не известной конференции ECLIR в 2014 году,
2:10
и как-то это все естественным образом перетекло уже из линейной алгебры в deep learning,
2:16
но при этом на самом деле методы все равно остались из нелинейной аппроксимации матрицы, посмотреть на мои статьи, многие из них все равно используют те же самые техники,
2:25
но приложения уже, конечно, другие. Как это было заниматься математикой в то время,
Во времена, когда Вы начинали, было ли выгодно заниматься математикой?
2:30
будучи только выпускником и будучи аспирантом? За это платили тогда или это было все на крайне небольших доходах?
2:39
Мне повезло, я попал в активную научную группу, и в общем-то я закончил в 2006, в 2007-м защитился,
2:50
очень хотел защититься за год плюс, потому что там были действительно гранты для поддержки молодых кандидатов, аспирантов и так далее.
2:57
В общем-то я попал в такую струю, когда государство стало давать значительно большие деньги на поддержку,
3:05
то есть там была такая программа ФЦП кадры, все жаловались на то, что очень много бюрократии,
3:10
но на самом деле деньги на тот момент были достаточно большие, и в общем-то, так как уже были статьи,
3:16
достаточно естественным образом удалось почти все эти гранты получить, а суммарно на жизнь хватало, было неплохо,
3:24
но понятно, что это были такие как это soft money, мы в институте, грубо говоря, в конце года происходили выплаты по грантам,
3:33
то есть в конце года это такое, ну вот, вроде неплохо, год отработал. А там каждый месяц, конечно, на стипендию жить было невозможно,
3:40
но было очень много мер поддержки, если ты активно работал, то ты мог их получать, и в целом вот такая комбинация совместила приятное с полезным,
3:48
на самом деле, очень неплохо получалось. А где вы брали проблемы для решения? Вот вы занимались нелинейными, аппроксимацией матриц,
Как Вы выбирали темы для исследований?
3:57
откуда эта проблема возникла? Вам ее кто-то представил, кто-то предложил ее решать? Конечно, Евгений Евгениевич Тартышников поставил,
4:04
они задачей занимались много лет, и плюс она имеет, ну, на самом деле, нелинейная аппроксимация,
4:10
на самом деле, просто то, что называется аппроксимация матрицы малого ранга. И это штука, которая используется в огромном количестве,
4:17
на самом деле, прикладных сольверов-решателей, то есть моделирование каких-нибудь электромагнитных явлений,
4:25
моделирование антенн, моделирование чипов. Везде возникают достаточно специфические линейные системы,
4:33
большие, их надо решать, это долго, дорого. И то, что было там сделано Тартышниковым,
4:40
это позволяло существенно сократить время и память при решении.
4:46
То есть это ускоряло вполне конкретные сольверы, были коммерческие проекты, ну, вначале с западными компаниями,
4:52
потом уже с нашими. То есть первая задача по малоранговой аппроксимации, она, во-первых, красивая, во-вторых, практически важная.
4:59
Ну, вот я стал ей заниматься, получил какой-то набор результатов, но матрица – это же два индекса всего, да? Двумерная табличка.
5:06
Мы сели такие, а давайте попробуем что-нибудь сделать,
5:12
когда будет не два, а индекса три, и посмотреть, что получится. Это было исключительно такое из любопытства.
5:19
Оказалось, что там все гораздо сложнее, и попали тоже в струю с вот этими тензорными методами.
5:26
Но оказалось, что эти тензорные методы напрямую связаны с аппроксимацией функций, аппроксимация функций с машинным обучением.
5:32
И удалось получить интересные результаты. Но, опять же, первый шаг был просто сели с ручкой, тетрадкой,
5:40
сказали, давайте попробуем, что будет, если не А и Ж, а А и ЖК.
5:46
И было все гораздо сложнее. Какая мотивация на это? Давайте попробуем.
5:52
Не было же заказчика какого-то, не было денег у этого, я так понимаю, в перспективе? Любой ресерч, он мотивируется разными вещами.
6:01
Для меня, например, самая сильная мотивация с появлением этих самых тензорных поездов,
6:07
который, так сказать, мой основной пока результат, который много где используется, была очень простая.
6:13
Прям точно могу сказать, когда появилась идея. Идея появилась, мы были в Гонконге на конференции, и она была уже по тензорам, но еще и по старым методам их приближения.
6:23
И делал доклад немец, с которым мы хорошо знакомы, Ларс Грассидик, сейчас профессор в Ахине.
6:30
И доклад был настолько отвратительный, то есть просто он такой плохой метод предложил.
6:36
Я сижу, руками за голову держу, но так же нельзя. И думаю, давай сделаем по-нормальному. А задача была такая, как вот этот огромный-огромный массив
6:45
восстановить по небольшому количеству элементов. Мы знаем, как это делать для матриц, это классический результат,
6:51
но для трехмерного кубика уже не было известно. Я сел чего-то, стал писать, говорю, доклад не слушал,
6:59
и через полчаса у меня были основные формулы выписаны. Мотивация была, что кто-то решал похожую задачу, решал ее плохо.
7:06
А так в целом генерация идей, где-то что-то услышал, где-то что-то посмотрел. То есть в науке ты всегда должен генерировать идеи,
7:13
иначе ты, как такой ученый, не сможешь дальше развиваться. Сиди, думай, смотри в потолок, читай статьи,
7:22
но в статьях на самом деле сейчас такой информационный мусор, и довольно сложно найти места для новых идей.
7:29
Поэтому тут постоянный процесс, скажем так. А как много, как вам кажется, математики сейчас
Как много математики в современном искусственном интеллекте?
7:36
в современном искусственном интеллекте? Она там применяется? Я почему спрашиваю?
7:42
Я скажу, что мне кажется, что в основном сейчас это какой-то промпт-инжиниринг и какая-то настройка конфигурации, параметров, но не математика.
7:49
Нет, ну вообще даже, так сказать, про машинное обучение, оно очень сильно отличается от любой другой области,
7:57
где математика активно применяется, потому что там все-таки есть какие-то первые принципы, из которых ты что-то выводишь. Машинное обучение – это незамкнутая система,
8:06
что я под этим понимаю. Всегда начинается с того, пусть у нас есть данные, но что такое данные не определяется,
8:13
что является хорошими данными, что не является хорошими данными. То есть там есть работы где-то начало нулевых,
8:22
ну и до этого классическая теория обучения, но до практической истории это страшно-страшно далеко.
8:30
То есть математика применяется в двух вещах. Либо мы берем какую-нибудь идею из математики
8:36
и по аналогии строим какой-нибудь алгоритм, улучшаем, придумываем какую-нибудь новую функцию потери,
8:42
говорим, что она мотивирована, либо применяем какие-то подходы из математики для описания того, чего происходит.
8:50
И у нас в стране, там вот Дмитрий Яроцкий активно работает в этом направлении. Можно получить интересные, нетривиальные теоретические результаты.
8:59
Даже вот недавно был создан целый отдел в Математическом институте Стеклова, наконец-то.
9:06
Называется “Теоретические основы искусственного интеллекта”. Его возглавил Владимир Темляков. И вот цель как раз все-таки какую-нибудь математику-то нормальную создать.
9:15
Там семинар проходит раз в две недели, страшно интересный. И потихонечку-потихонечку как бы что-то формируется.
9:22
Но это на самом деле всегда так было, потому что сначала инженеры что-то создают, а потом ученые, даже не только математики, пытаются это объяснить.
9:29
Очень редко бывает наоборот, что ученые что-то такое придумали, а инженеры почти всегда что-то там навертели гораздо раньше, чем ученые.
9:40
Задача математики – это все объяснить. И вот сейчас кажется, что такой комьюнити формируется.
9:46
И надеюсь, что из этого получится что-то интересное. А как вы относитесь к изобретению больших языковых моделей?
Как Вы относитесь к изобретению больших языковых моделей?
9:54
Многие говорят, что это прорыв, сравнимый с изобретением транзистора. Сравнивать можно с чем угодно, но безусловно, это прорыв.
10:04
Он такой двустадийный. То есть первые языковые модели до ChatGPT в какой-то момент уперлись,
10:12
и, в общем-то, не было понятно, как увеличить их качество. Подход, который использовался в ChatGPT, действительно привел к появлению
10:21
моделей принципиально другого качества. То есть вот эти полтора года действительно это выглядит как такой мощный прорыв.
10:27
Сейчас кажется, что с точки зрения именно языковых моделей немножко все застопорилось, потому что они появляются каждый день,
10:37
условно говоря, и каждые два дня. И прям какого-то принципиального отличия по качеству нет.
10:43
Если сравнивать с транзистором, я не знаю, но мне это напоминает ситуацию с ImageNet, когда была задача, которую совсем никак не умели решать,
10:52
и появилась сеть, которая стала работать плюс-минус хорошо, потом AlexNet, потом VGG, потом появился ResNet,
11:02
каждый из них улучшало качество, потом уже особого прогресса нет, люди еще пытались на этом хайповать, там появился DenseNet,
11:10
я помню, в 2018 году я был на конференции CVPR, где ее объявили, там Цукерберг лично говорил, что ученые Facebook усилили ИИ,
11:19
так что теперь плюс полтора процента на ImageNet. Но сейчас это уже никому не интересно, улучшение процентов на ImageNet,
11:26
ну и ладно. Мне кажется, с языковыми моделями мы подошли к какому-то такому барьеру, что они на существующих бенчмарках,
11:33
они работают где-то на 1% лучше, на 2% лучше, ну и хорошо. Но прорыва там уже нет, но само появление ChatGPT, конечно,
11:42
это огромный прорыв и огромное количество новых возможностей. А вы предполагали такой прорыв, например, 4 года назад?
Вы предполагали такой прорыв ИИ?
11:50
Прорыва нельзя предполагать, это вот когда меня там всегда спрашивают, что будет через 3 года, через 7 лет, то есть видно, что что-то новое
12:01
может быть придумано, очень много людей этим занимаются, и действительно что-то может произойти, поэтому я никогда не предполагаю прорывов,
12:14
тут как бы надо за ними следить и быстро адаптироваться. И понятно, что область такая, что никто не может очень далеко убежать,
12:21
его все равно очень догоняют, даже, так сказать, если у того же OpenAI огромные ресурсы, и его все равно догнали.
12:29
Поэтому тут, мне кажется, область очень такая устойчивая. И главное, что любой новый результат очень быстро становится понятным
12:37
и используем всем, это вот признак такой быстро развивающейся области. А что в основе этого прорыва находится?
Что в основе прорыва ИИ?
12:43
Что именно было изобретено, что позволило нам увидеть chatgpt? Ну, в первую, как всегда, то есть на самом деле, правильная подготовка данных,
12:50
то есть если вы посмотрите те датасеты, на которых учились gpt1, gpt2, gpt3,
12:56
просто взять кусочек какого-нибудь OpenWebText или это Pile, это просто кусочки текстов из интернета, и они выглядят отвратительно.
13:04
То есть мы, модели, показываем эти кусочки текстов, возможно, даже где-то в конце страницы, где вообще ужас какой-то творится.
13:11
А оказалось, что если ты общаешься, вот слово chat, если ты задаешь какой-то вопрос, получаешь ответ,
13:18
ну, исходно они использовали вот это вот Reinforced Learning from Human Feedback, то есть оценка человека, и на тот момент казалось,
13:26
что это вот эта вот основная прорывная штука, которую они использовали. Сейчас понятно, что в целом можно модель обучить.
13:32
И без этого главное, чтобы были качественные текстовые данные, в которых действительно они полезны. То есть, ну, из таких примеров есть такой датасет, например, Tiny Stories,
13:42
маленькие истории, это сгенерированные gpt4 короткие детские рассказы.
13:48
То есть маленькая девочка пошла куда-то, встретила кого-то, что-то сделала, и на ней моделька, я не знаю, там с одним миллионом параметров обучается,
13:55
причем начинает разговаривать на связанном английском и понимать вообще все, что происходит. gpt2 обученная или даже 3 обученная на гигантских массивах мусорных текстов
14:05
гораздо хуже это умеет делать. Опять почему? Что важно качественно подготовить и подать данные.
14:11
Вот это вот то, как раз, что я говорил. Математика здесь пока бессильна, потому что мы не понимаем, что такое хорошие данные, что такое плохие.
14:18
То есть с точки зрения человека мы понимаем, а с точки зрения математики, какой-то количественной характеристики или еще что-то,
14:25
от этого ничего похожего нет. А мы понимали 5 лет назад, что в данных главная проблема?
14:32
Это давно известно, что качество данных влияет, но всегда же хочется придумать какую-нибудь новую модель
14:40
или новый метод обучения, это же гораздо интереснее для ученых. А то, что можно просто аккуратно подготовить сбор данных и обучения,
14:49
обычно это не особо влияет на чувство внутренней гордости.
14:58
Нет, все влияет. Влияет и алгоритмы, влияет и методы обучения, но данные тоже очень сильно влияют.
15:04
Если с алгоритмами и с архитектурами, и с моделями уже ничего нового не придумается, надо посмотреть на данные.
15:10
Вот оказался такой простой рецепт. Но сбор данных, подготовка данных – это на самом деле отдельная область.
15:21
Местами даже науки, может быть, в некоторых случаях, если язык даже и не технический, а такой гуманитарный.
15:28
Как это делать? В некотором смысле, некоторое искусство.
15:34
Я слышал такое мнение, что очень влияет количество параметров модели. И произошел какой-то определенный рубеж, мы прошли,
15:44
после которого эти GPT стали разговаривать с нами, как люди. Это тоже была такая история, что когда данные были фиксированы,
15:53
GPT-1, GPT-2, GPT-3, и было видно, что увеличение количества параметров влияет на качество.
16:00
В целом, это обычно верно.
16:06
Есть так называемые законы масштабирования. Это, наверное, одни из таких интересных эмпирических законов,
16:12
которые, мне кажется, могут быть объяснены математически. Что если мы хотим предсказать качество модели,
16:19
который мы получим, нам на самом деле достаточно знать два параметра. Объем обучающей выборки, сколько данных у нас есть, и количество параметров.
16:31
И там возникает, как в физике, довольно простой закон. Зачем это нужно на практике?
16:37
На практике это нужно для того, чтобы ты обучил небольшие модельки на небольших данных, получил какое-то качество, дальше строишь просто по этим данным как вот эмпирическую зависимость.
16:49
А что будет, если я возьму данных в 10 раз больше, модель в 10 раз больше? И оказывается, хорошее предсказание.
16:55
То есть если данные примерно одного типа и модели одного типа, то вот эти законы масштабирования работают.
17:01
Например, ты знаешь, что сейчас поставишь обучение на 3 месяца, а это очень дорого, и ты получишь модель вот такого качества.
17:07
Ну, если ты спокойно ее ставишь, то есть все-таки эти задачи поддаются некоторому такому полуэмпирическому, но все же прогнозируемому.
17:15
С другой стороны, в таких моделях ничего не говорится про качество данных. И сейчас есть примеры моделей на миллиард параметров, на 3 миллиарда параметров,
17:24
которые лучше, чем модели на 20 миллиардов параметров, которые обучены на меньшем количестве данных. То есть сейчас, на мой личный взгляд, ответа на этот вопрос нет.
17:33
Где то минимальное количество параметров, которое позволяет языковым моделям вести себя близко к тому, к чему мы привыкли.
17:42
То есть насколько я понимаю, тот же ChatGPT, который 3,5 версии турбо, у него всего по слухам порядка 20 миллиардов параметров.
17:51
То есть это не 180. Да, и все такие боевые модели, они от 20 до 70.
17:57
Но на самом деле, если взять 7-миллиардную модель, она тоже хорошо обученная, тоже работает неплохо.
18:03
То есть опять мы пока находимся в ситуации, что мы точно не знаем на самом деле.
18:09
То есть если мы фиксируем данные, то понятно, что увеличение качества модели увеличивает качество, но есть все равно какой-то предел,
18:15
который зависит от количества данных и от качества данных. Вот. Вот эта зависимость от качества данных еще только можно изучить.
18:22
То есть мы сейчас находимся в точке, когда ответ на этот вопрос мы 100% дать не можем. И я бы скорее сказал, что если ограничить выследительные ресурсы,
18:30
лучше поработать над более качественными данными, чем над увеличением размера модели. Я даже слышал такую теорию, то ли это доказанный факт,
Данные сгенерированные моделью ИИ не подходят для тренировки других моделей?
18:38
что если попросить модель генерировать данные, то эти данные не подойдут для тренировки модели в дальнейшем.
18:45
Данные должны быть от людей. Вообще сейчас это не так. То есть действительно можно использовать модель для генерации данных для модели.
18:53
Она же, что делает? Она много чего видела. Она просто не понимает, что ты от нее хочешь.
19:00
И простейший такой пример называется self-instruct.
19:06
То есть что это такое? Это ты просишь, даешь модели несколько примеров.
19:12
Ну, я не знаю, ты хочешь обучить модели решать какие-нибудь задачки, код писать, условно говоря. У тебя есть примеры, там очень небольшой датасет, маленький,
19:20
в котором 100 программ, условно говоря. И текстовое описание, что ты хочешь сделать, и код программ.
19:29
И говоришь следующее. Слушай, вот у меня пример задания, текст и код. И дальше вот прямо текстом в промпт ей пишешь.
19:38
Сгенерируй мне, пожалуйста, еще там два примера. И она начинает генерировать похожие примеры на то, что ей написано в промпте.
19:47
Ты можешь проверить, что это программа, грубо говоря, запустив ее, хотя бы что она запускается. И таким образом собрать синтетический датасет.
19:56
Синтетический датасет из модели. Ну, модель должна быть достаточно большая, но тем не менее. И после этого на этих данных с генерированных модель уже ты можешь дообучать модель.
20:07
И она начинает лучше отвечать на как раз вот эту историю. То есть она внутри где-то это видела,
20:14
как она видела одновременно и квантовую физику, и программирование, и все, что только можно. Если ты ей не даешь подсказок, она не понимает то, что от нее хочешь.
20:23
И таким образом взаимодействие с моделью. Ты можешь из нее изнутри вытягивать нужную информацию
20:29
и ее же дообучать и повышать качество. То есть здесь на самом деле много. Это называется reinforcement learning from AI feedback.
20:37
То есть, грубо говоря, она дает ответ, а ты за нее спрашиваешь, а ты правильно вообще ответил? Она говорит, ой, неправильно. Вытягивая таким образом из нее информацию,
20:44
действительно целое отдельное направление, как как бы имея только модель, не имея данной, ее улучшать качество.
20:50
И действительно можно. Меня очень удивляет тот факт, что…
20:57
Да, да, она видела очень много. Вот этот проблем называется alignment, грубо говоря, чтобы подсветить ей, что нужно.
Почему только после появления ChatGPT стали появляться подобные решения у других компаний?
21:06
Меня просто удивляет тот факт, что искусственного интеллекта в том виде, в котором мы его сейчас имеем,
21:12
его не было, не было, не было. И все смотрели достаточно скептически на все эти игры с machine learning, понимали, что они где-то применимы,
21:19
но такого настоящего искусственного интеллекта не было. А потом вдруг появился ChatGPT два года назад.
21:25
И тут же буквально через несколько месяцев стали появляться подобные решения у всех,
21:31
у всех компаний, включая Яндекс, Cбертех и так далее. И возникает логичный вопрос. Что-то такое открыли эти люди, которые создали ChatGPT,
21:40
что потом так легко смогли все остальные скопировать? Почему тот же Яндекс или тот же Фейсбук не сделали свои решения на год раньше?
21:48
Чего-то им не хватило, значит? Это всегда так бывает. Если ты знаешь, что что-то можно сделать, делать гораздо проще.
21:55
Это основное отличие научного поиска от, я не знаю, решения задач на Олимпиаде.
22:01
Ты знаешь, что решение есть, и ты его найдешь за час. К нам, когда приходят победители различных Олимпиад,
22:10
у них часто такая проблема, что ты даешь научную задачу, если он ее за полтора часа не решил, он теряет интерес.
22:16
А когда ты что-то придумал, вообще все говорят, да это давно известно, да это очень просто, да мы все это знаем.
22:24
Ну а что ты это раньше не придумал? Вот у меня про себя с этим тензорным поездом, я его придумал, написал, была очень простая моделька,
22:31
и все такие, да это было в физике 60 лет назад, да это было 100 лет известно. Я им говорю, а что же вы это не использовали?
22:37
Ну вот там все очень просто, когда это уже известно, что оно есть.
22:43
Вот, собственно, в чем причина. То есть дальше будет всем легко, потому что все понимают,
Дальше будет всем легко совершенствовать модели ИИ?
22:49
что есть решение? Нет, конечно. Мы сейчас уже с языковыми моделями дошли до какой-то точки,
22:55
где все они примерно сравнялись, и даже, так сказать, gpt5, он не будет, на мой взгляд, обладать каким-то принципиальным отличием.
23:02
То есть они все вокруг одной примерно уровня бьются, и действительно, то, как сейчас пытаются улучшать качество
23:10
за счет более правильного сбора, подсовывания данных, ну или там более правильной разметки,
23:16
ну уже до какого-то там такого локального предела дошло, и каждый следующий шаг он дается сложнее, сложнее и сложнее.
23:23
Да, можно заставить его решать какие-то специфические задачи на математических олимпиадах.
23:30
Если ты… Можно симулировать работу команды по разработке, когда уже агентами начинают работать.
23:37
Но вот если мы работаем с моделью напрямую, ну все, кто пользуется, видят, что если там совсем сложные задачи даешь,
23:44
ну тяжеловато, он дает ответы общими словами, потому что ему это выгоднее.
23:50
Поэтому кажется, что сейчас пока немножко притормозили, но это не значит, что какая-нибудь суперидея не появится завтра у кого-то,
23:58
и опять быстро куда-то побегут. Поэтому… Как вам кажется, есть ли фундаментальное различие между нашим интеллектом человеческим
Есть ли разница между человеческим и ИИ?
24:08
или интеллектом животного и этими всеми моделями, которые мы строим? Это очень интересный вопрос, над которым я много думаю в последнее время.
24:19
С одной стороны, очевидный ответ, что, конечно, это разные вещи, это про другое. С другой стороны, если смотреть просто на то, как модели отвечают,
24:26
как отвечают люди, особенно поварившись в работе с языковыми моделем,
24:33
начинаешь замечать очень интересные аналогии. Вот, например, да, то есть как мы учим модель.
24:41
Мне понравилось сейчас… Недавно у нас там была панельная дискуссия
24:48
с SberDevices, и вот Сергей Марков высказал очень симпатичную идею, она мне запала в душу, что, в целом, как мы учим сейчас языковые модели,
24:58
и как мы учим детей. То есть если мы подсовываем… Ну, то есть фактически языковые модели мы учим,
25:07
каким образом мы сначала им даем на первом уроке квантовую физику, на втором прописи, на третьем еще что-то. Вот так мы учим языковые модели.
25:15
Кажется, это какая-то ерунда. С одной стороны, кажется, ерунда, с другой стороны, во-первых, так никто детей учить не пробовал. Это раз.
25:21
Во-вторых, когда дети сейчас смотрят TikTok, они учатся же совершенно точно так же. Им показывают какую-то ерунду, потом образовательный материал.
25:29
Это короткие кусочки, которые… В общем, так мы учим GPT-шки, вот короткие TikTok.
25:35
То есть дети у нас сейчас местами учатся как большие языковые модели. Это одно наблюдение. Второе наблюдение.
25:41
Вот поступали к нам недавно студенты, я им задаю вопрос, условно говоря.
25:47
У меня есть один дурацкий вопрос, потому что тоже магистратура в Сколтехе.
25:53
Говорю, что такое собственный вектор? Я получил весь спектр возможных ответов. Самый… Больше мне понравился ответ,
26:00
который начинался словами, на этот вопрос можно дать два разных ответа. Что тоже напоминает работу GPT,
26:07
когда он начинает что-то там рассуждать, что, условно, собственный вектор – очень важное понятие, и так далее, и так далее, и так далее.
26:13
Он пытается дать общий ответ, потому что он не очень уверен. И проще дать общий. Ну и третий пример – это модель,
26:19
которая работает с картинками. Ты ей показываешь картинку, и говоришь, что это? Говорит, ну это дом на берегу моря.
26:25
Хорошо, а где он? Говорит, в России. Хорошо. А где в России? Говорит, в Сочи.
26:31
То есть ты знаешь, что это в Сочи, на берегу моря. Ты знаешь, но ты не отвечаешь, потому что первый ответ, он тоже верный. То есть это реально такой студент-троечник,
26:38
который дает максимально общий ответ, чтобы его не подловили,
26:44
а то вдруг не Сочи, а вдруг еще что-то. Не очень уверен. Вот есть такое явное аналогии,
26:50
по крайней мере, в ответах людей, в ответах языковых моделей, значит, между ними все-таки есть что-то общее.
26:56
С точки зрения функционирования внутри принципиально разное, но с точки зрения эффектов, которые мы наблюдаем описательно,
27:02
есть похожие вещи. И как раз вот эта хорошая работа для гуманитариев, психологов,
27:08
чтобы искать какие-то… С одной стороны, может быть, перенести методы обучения людей туда,
27:14
а может быть, наоборот. То есть это, мне кажется, суперинтересная тема вообще. И с увеличением мощности этих моделей,
Не будут ли модели ИИ через 10 лет общаться с человеком свысока?
27:21
по крайней мере, с увеличением количества этих параметров, как говорят, они действительно становятся все умнее,
27:27
они отвечают все более и более похоже на ответ человека. И возникает вопрос, а как бы они нам будут отвечать через 10 лет?
27:34
К чему мы придем? Может быть, они будут с нами общаться куда более качественно, и свысока даже, они будут в нас уже видеть языковую модель.
27:42
Ну, опять же, если мы не будем, скажем так,
27:48
если мы не будем выдавать какие-то ручки управления, я не вижу в этом большого риска. И все-таки человеческие люди очень быстро обучаются тоже,
27:56
не надо их недооценивать. И когда там появились компьютеры,
28:03
пропали, может, пропадут машинисты и так далее, появилось больше людей, которые как раз должны с этим взаимодействовать.
28:10
То есть любая сложная система, она все равно требует обратной связи. То есть, может быть, это одна модель будет давать другой
28:17
при достаточном уровне развития, но люди в этой схеме точно не потеряются. Понятно, что всем бы хотелось условно иметь такого мощного помощника.
28:29
И почему, собственно, и нет. То есть я в этом какого-то большого риска не вижу.
28:37
Надо учиться работать с такими моделями. У них всегда будет какое-то ограничение, мне кажется,
28:43
ну, по крайней мере, на данном уровне развития. Может быть, дальше это будет супер-AGI, которые все вообще делают лучше, чем люди.
28:50
Ну, значит, вот так.
28:56
Но пока я этого не вижу. Пока человеческий мозг суперэффективный по большому количеству совершенно параметров.
29:04
И вот та история с языковыми моделями, когда они пришли прямо сейчас, она тоже показывает, что в какую-то там микростенку мы все-таки уперлись.
29:12
У меня есть коллеги, которые занимаются языковыми моделями, и они говорят, что мы люди – это тоже просто натренированная некая модель.
29:22
И ничего божественного в наших мозгах нет. Мы просто так же точно отвечаем, как условный чат GPT. Просто у нас количество параметров значительно выше.
29:30
Вот и все. То есть нет какой-то такой элемента божественности в этом. Нет души у нас. Мы просто машинки.
29:36
У вас нет такого ощущения? Как у математика? Религиозный вопрос. Я все-таки отношу себя к верующим людям.
29:44
Поэтому, мне кажется, каждый должен решать сам для себя. Хочешь считать себя машинкой? Ну, считай себя машинкой.
29:51
Все-таки внутренние эмоциональные переживания, рефлексия,
29:58
связь с чем-то большим точно у многих людей есть. Поэтому я никогда с этим противоречия не видел.
30:06
То, что внешне оно может быть, и надо это как-то использовать, – да хорошо.
30:12
А глобально, конечно, чувственность и эмоции пока, конечно,
30:19
у этих моделей отсутствуют. Хотя у некоторых людей тоже отсутствуют. Поэтому тут тоже такой можно аргумент привести.
Вы бы подписались под письмом с требованием остановить разработки в области ИИ?
30:28
А вы наверняка знаете или слышали о открытом письме, которое, по-моему, в прошлом году было, которое подписали большое количество ученых
30:35
в Америке, во всем мире, требующее остановить или приостановить работы в области искусственного интеллекта.
30:42
Вы бы такое письмо, если бы вам предложили, вы бы подписали его? Нет, я бы не подписал, потому что один, все знают, один из подписантов –
30:50
это господин Маск, который одной рукой письмо подписывает, а другой, так сказать, закупает десятки тысяч графкар для создания своих моделей.
30:59
Поэтому люди, которые это делали, кажется, основная их была идея, потому что это было время, когда OpenAI-модель выложил свою.
31:08
И прибежало куча, количество людей, которые, все, мы безнадежно отстали.
31:14
Это такое качество, такое качество, что нам делать, что нам делать. И вот для меня это выглядит исключительно так.
31:21
Мы, короче, опростоволосились, не успели. Давайте сейчас потребуем что-нибудь запретить, а то они сейчас нас обгонят.
31:30
То есть это все-таки исключительно, как это в Америке, двигается не гуманистическими
31:38
соображениями, а экономическими. Запретить, ввести какие-нибудь санкции. Ну, как сейчас там приезжает министр финансов в Китае и говорит,
31:46
слушайте, давайте вы не будете производить свои солнечные те самые, а то вы Америке вредите.
31:53
Ну вот для меня это выглядит ровно такое же. Я не вижу никакого смысла в такого рода запретах.
32:02
То есть угрозы вы не видите в искусственном интеллекте для нас, для человечества?
Есть ли угроза от ИИ?
32:08
Угроза может быть только в людях, которые используют. То есть есть ли угроза у человека или у государства,
32:14
которое есть атомная бомба? Есть. Значит, надо ли из-за этого запретить атомную энергию? Нет.
32:20
Поэтому тут угроза может исходить только от людей, которые используют. Любая технология может быть использована как во благо, так и во вред.
32:29
То же самое к искусственному интеллекту относится. Означает, что мы должны запретить любую технологию? Нет, надо ее уметь использовать.
32:36
Надо ли регулировать? Мне, честно говоря, кажется, что регулирование искусственного интеллекта
32:42
полностью можно осуществлять в рамках действующих норм. Потому что если ты используешь его в каких-то плохих делах,
32:51
ты уже нарушаешь существующие законы. Уже нарушаешь. Такого специального регулирования, лицензирования или еще чего-то не нужно.
32:59
Потому что это все равно просто добавит бюрократии и не повысит ничего.
33:05
Если, допустим, какое-то государство завтра решит разрабатывать технологию или создавать атомную бомбу, то его остановят.
33:12
Даже до того момента, как он решит эту бомбу использовать. И предлагается, может быть, ввести какие-то подобные превентивные меры.
33:19
Как только кто-то решит тренировать модель, в которой условно больше, чем триллион параметров, то это значит, что он пытается создать что-то,
33:26
с чем он может потом воевать с человечеством. Давайте его остановим до того, как он натренирует эту модель.
33:32
Вот такая идея. Понятно, да. С атомной бомбой я не самый удачный пример привел.
33:38
Потому что государство, которое обладает атомной бомбой, им выгодно, чтобы другие не обладали.
33:45
И создать максимальные препятствия для того, чтобы они обладали. Хорошо ли это, плохо?
33:52
Тут сложно решать. Государство или компании могут попытаться такую историю вести,
33:58
чтобы ограничить конкуренцию. Это можно понять. Это все вопрос конкуренции.
34:05
Хотя, опять же, даже эти правила все равно имеют исключение.
34:11
Кому-то можно, кому-то нельзя. В общем, мы уже перешли в геополитику.
34:17
На самом деле. Давайте вы запретите сделать, ведете санкции.
34:23
Но нам вообще все равно более-менее. Сейчас в Европе есть модельки, Mistral AI тот же французский стартап делает
34:33
отличные открытые модели. Пока хорошее время, что никто ничего не запретил.
34:39
Чем дольше оно будет продолжаться, тем лучше. Сейчас вообще компании пытаются заработать на этом.
Станут ли модели ИИ бесплатными?
34:45
И это понятно. Тот же OpenAI дает доступ к своему ChatGPT за условные 20 долларов в месяц. А не кажется ли вам, что через время все это станет бесплатным товаром
34:55
и сами модели будут доступны нам, как доступен сейчас интернет? За условно за ничто.
35:01
Мы его имеем как телефонную связь. Да, сейчас есть уже открытые модели. Это интересно, к чему нас приведет рынок.
35:07
Потому, что пока как зарабатывать на них, никто толком не понимает. То есть, OpenAI работает в убыток.
35:13
И время, которое тратится на генерацию этих текстов, оно стоит дороже, чем то, что они зарабатывают.
35:22
То есть, насколько известно, они работают в убыток. Экономическая модель этих языковых моделей вообще не ясна.
35:33
Я думаю, что и Яндекс и Сбертех тоже в убыток работает, создавая свои продукты. Гигачат тот же.
35:40
То есть, там есть на самом деле модели коммерциализации, связанные как раз с внедрением в каких-то коммерческих продуктах.
35:48
Но просто нет какого-то нормального рынка, что ли.
35:58
То есть, есть пример рынка ИИ технологий. Мне очень нравится пример рынка медицинских изображений в Москве.
36:05
Ну, и в России в целом. Это не языковая модель, но в целом очень полезная история.
36:11
На медицинском снимке диагностируем, что там нарисовано. Компаний много. Компании много, это привело к тому, что идет нехилое димпингование.
36:20
В одном регионе даже они там сторговались за 2 рубля за снимок. Ну, то есть, за какие-то такие деньги,
36:28
которые ясно, что экономика тут не складывается вообще никак. То есть, с одной стороны, можно пытаться взять клиентов,
36:36
захватить рынок, а потом цену повысить. Но с точки зрения экономики, тут прям вообще, мне кажется,
36:44
очень сложно предсказать. Короткий ответ. Никто толком не знает, как это нормально коммерциализировать. Вот именно в B2C сегменте, то есть, для людей.
36:55
Возможно, для людей это будет бесплатно, для бизнесов, может быть, будет за деньги. Но чтобы это все в плюс вышло, вопрос абсолютно открытый.
Как Вы успеваете публиковать такое количество статей?
37:03
Хочу повернуть немножко дискуссию в сторону науки. Вы активно и много публикуетесь.
37:09
И вы лично, и институт ваш, мы посмотрели статистику, у вас только в этом году было опубликовано уже 13 статей,
37:16
а в прошлом году 42. И я как новичок в этом деле, представляю себе, что такое 42 статьи за год.
37:23
Это значит, одна статья в неделю. Как это вы успеваете? Как получается в таком объеме публиковаться?
37:29
У нас все-таки институт не очень маленький. У нас сейчас больше 150 человек. Поэтому я считаю, что мы можем еще больше публиковаться.
37:39
Но вы лично, сейчас речь о вашей статистике. Окей, я же не один пишу.
37:48
Есть группа. Лично у меня группа сейчас порядка 30 человек.
37:56
Понятно, что у меня сейчас большая административная нагрузка, поэтому научная такая немножечко просела, но не сильно.
38:04
То есть я сейчас занимаюсь тем, что обсуждаю с талантливыми ребятами, что можно, даю какие-то советы, может быть, закидываю какие-то идеи.
38:13
Но, конечно, моя задача, чтобы люди сами развивались и сами на самом деле статьи писали. Ну, если я там с авторами есть, ну и хорошо.
38:20
Лично я работаю, наверное, так глубоко над двумя-тремя сейчас проектами,
38:29
как время позволяет. Поэтому большое количество публикаций пропорционально размеру группы,
38:36
а те, которые отлично близки, ну, опять же, когда я там был молодым еще, я там писал один, мог 10-15 статей в год написать,
38:48
большую часть сам. Сейчас, конечно, на это времени уже нет. И уже делают работу другие.
38:56
Но мой вклад тоже есть пока, по крайней мере, чему я очень рад.
39:02
Это первое. Второе, конечно, очень большое количество не только моя группа, мы же совместные статьи пишем, очень много коллабораций совместных,
39:11
в том числе и с европейскими учеными до сих пор пишем. То есть, на таком персональном уровне продолжаем.
39:20
То есть, наука тоже социальная история. Если ты один пишешь, ну, ты напишешь две статьи.
39:26
Если у тебя много сотрудников, соавторов, коллег, ну, ты напишешь 42. Я видел, что у вас активно используется архив,
Как Вы относитесь к публикациям пре-принтов в arXiv?
39:37
вы используете и препринты публикуете. Но с другой стороны я слышал мнение, что это, мол, такая практика,
39:43
ну, не всеми приветствуется. Некоторые ученые считают, что на архиве публиковаться, это как-то не тот уровень вроде бы.
39:51
У вас нет такого ощущения, да? Конечно, наоборот. Особенно в сфере искусственного интеллекта это практически обязательная история,
39:59
потому что цикл такой выхода статьи, он может быть достаточно долгим.
40:05
Потому что ты подаешь на конференцию, там несколько месяцев она крутится, это еще быстро.
40:11
То есть самое быстрое, она может появиться через пару месяцев, это быстрее не получается.
40:18
С высокой вероятностью даже хорошие статьи отвергаются в первый раз, ну, просто так бывает.
40:25
И в среднем она так проживает 2-3 конференции прежде, чем ее принимать. За это время область может уехать очень далеко.
40:34
Поэтому совершенно обязательно выкладывать статьи на архив, потому что, во-первых, комьюнити кому интересно прочитает.
40:41
Во-вторых, уже начинают цитировать, потому что они индексируются в Google Scholar, уже начинают цитировать.
40:47
И были случаи, когда статья в третий раз реджектится, у нее уже десятки, сотни цитирований,
40:53
и рецензенты пишут, ну, ладно, вроде нормальная статья, сообщество его приняло. То есть архив гораздо быстрее, чем формальные публикационные истории,
41:01
и область просто уходит. И более того, бывает, что статья даже реджектится,
41:07
но на архиве у нее уже сотни цитирований. Вот есть такой термин, ну, тогда на архиве опубликуем, и все с ним.
41:14
То есть она несет в себе уже точно смысл для сообщества, а где она опубликована, не так важно.
41:20
У меня там две статьи, которые хорошо цитируются. Одна опубликована в журнале под названием Russian Journal of Numerical Analysis
41:29
и Mathematica Modeling, российский журнал численного моделирования и численного анализа математического моделирования.
41:35
Довольно своеобразный такой журнал, хороший, но, тем не менее, там просто быстро можно опубликовать. А вторая, вот сейчас статья, больше 100 цитирований,
41:42
формально опубликована в докладах Академии наук. Вот. На самом деле это архив, который сто раз процитировали.
41:48
В итоге мы уже плюнули на всех этих рецензентов, опубликовали в нашем журнале. Статья на Google Scholar сматчилась,
41:56
и теперь все, кто ее будут цитировать, они заходят на Google Scholar, копируют ссылку, вставляют и используют.
42:03
Ну, теперь будет там у одной 350 цитирований, у другой 100 цитирований. Вот, российские журналы подняли свое цитирование,
42:10
но с точки зрения работы ее все равно знают. То есть здесь вот есть такой и тот же вариант, что немножко размывается престижность таких публикаций
42:21
журнальных или конференционных. Бывают случаи, когда рецензенты просто не поняли,
42:27
а сообщество поняло. Я считаю, что обязательно надо публиковать на архиве максимально.
42:36
Ничего не ждать. Я слышал такое мнение, что для того, чтобы принимали в журналы или принимали на конференции, нужно больше уметь писать,
Правда ли, что для того, чтобы публикацию приняли, нужно больше уметь писать, а не исследовать?
42:45
чем уметь исследовать. И бывает так, что часто идея хорошая, данные получены интересные,
42:51
а написали плохо. Введение не звучит, заключение не звучит, и поэтому она не публикуется.
42:57
Так это? Да. Скажем так, короткий ответ – да, более развернутый.
43:04
Качество написания статьи влияет на то, как на самом деле рецензент будет читать.
43:14
У рецензента мало времени, у него десятки статей, а он еще видит текст кривой. И надо писать статью так, чтобы он сразу понял идею,
43:23
чтобы он заразился этой идеей. А как у нас, например, пишут статьи, часто люди говорят, вот этой работой занимался Иванов, Петров, Сидоров,
43:31
три страницы рецензента. Да, ё-моё, я и так это знаю. Скроллит вниз.
43:37
И чтобы идею сразу не находят, не поймут, говорят, ну, типа фигня какая-то. Это, если говорить про конференции в области искусственного интеллекта,
43:46
там на самом деле десятки тысяч статей уже подается. Каждая статья должна иметь 3-4 рецензента.
43:54
Ожидать, что все напишут максимально качественную рецензию, довольно глупо.
44:00
Высокая степень рандома. Поэтому да, надо правильно писать.
44:06
Я не скажу, что мы там прям большие эксперты. Иногда у нас бывало, что статью реджектили, мы что-то переписывали, статью реджектили,
44:12
мы что-то переписываем, и мы такие, да пошли вы все нафиг. В том же виде, просто невозмененным подаем на следующую конференцию, ее принимают
44:18
Это обидно, довольно стрессово, но вот так устроено сообщество.
44:25
Журналы, там более все-таки качественная рецензия, но тоже надо понимать, что журналы сейчас могут рецензировать год,
44:33
статья может выходить 2 года. То есть многим, конечно, это не нравится. Ну, что такое, ты сидишь там, у тебя, условно,
44:40
аспирантура идет 4 года, и статья полтора года до лицензии летит. То есть с этим, конечно, надо что-то делать.
44:46
Люди проблему знают, но так как это все волонтерская, неоплачиваемая работа, и все такие, да,
44:52
я когда-нибудь потом там отрецензирую. Поэтому да, такие вещи тоже используются, более аккуратное, более четкое написание,
44:59
чтобы сразу было понятно, и действительно, это влияет на принятие. Но все равно, конечно, в среднем,
45:06
если усреднить по этим факторам, основной, конечно, это идея. И хорошие статьи все равно потом сообществом отмечаются.
Какие критерии важны для оценки продуктивности исследователя?
45:16
На мой взгляд, конечно, самый важный критерий – это цитируемость через несколько лет. Если вот это есть, то все остальное совершенно неважно.
45:24
И по этому критерию, наверное, можно оценивать продуктивность или результативность исследователя?
45:31
Ну, в целом да. То есть цитируемость, H-Index оценивается. Хотя, опять же, тут как когда любая метрика
45:38
становится целью, начинаются всякие нехорошие истории типа самоцитирования.
45:44
В некоторых странах, например, во Франции, сказали, мы вообще сейчас там уберем цитируемость из критериев при приеме на работу, потому что,
45:52
условно говоря, там… Потому что все зависит от области. То есть если придет биолог и скажет, у меня H-Index 50,
45:59
это будет средний биолог. Если придет математик с H-Index 50, а таких, по-моему, нет, то это будет суперматематик.
46:07
Ну и так далее. То есть тут, опять же, по области есть разная совершенно и цитируемость, и разные там что такое…
46:15
То есть есть средние значения, есть дисперсия, есть конкретные всякие истории, что у человека
46:21
может быть суперкрутой результат, но один, и как вы это будете все оценивать, тоже не очень понятно. Такая вот… Это все вопрос то, что это метрики,
46:31
которые надо… То есть я их использую все-таки для отсеивания каких-то кривых случаев.
46:37
То есть приходит человек и говорит, что я вообще там суперученый, замечательный. Открываешь Google Scholar, а там нет ничего,
46:43
или там какой-нибудь вестник «Казанской божьей матери». Вот такой, ну типа, отчеты, собственно.
46:50
Кто тебе сказал, что ты вообще ученый? То есть может быть так случилось, там, самородок какой-то, но, скорее всего, это ерунда какая-то.
46:58
Вот. То есть надо все равно пытаться публиковаться в журналах, надо публиковаться, так сказать,
47:04
в нормальных местах. Вот. Это важно. Если люди этого не делают, ну как бы возникают вопросы.
47:12
Я где-то читал в каком-то гайдлайне о том,
Если статьи на конференции принимают легко, значит, нужно повышать уровень конференций?
47:18
как писать PhD, о том, что если ваши статьи принимают и часто принимают с первого раза, то, видимо,
47:25
вы подаетесь на слабые конференции, и нужно поднять уровень конференции. То есть вас должны реджектить в 70% случаев.
47:33
Тогда вы действуете правильно. Вы согласны с этим? Ну, слабая, не слабая конференция,
47:39
можно очень легко определить. То есть если в машинном обучении есть вот этот ранг А, ранг А со звездой и несколько конференций ранга Б.
47:48
Вот. Из этих А со звездой есть там те, которые все знают. Это ICML, URI, PSYCLEAR.
47:55
Вот это топ-конференции, как бы тут вопросов нету, и стоит подавать туда. Ну, все, что ниже рангом, да, это не самый топ.
48:04
Очень много сейчас у нас люди пишут во всякие эти open-access журналы, есть такой MDPI.
48:10
У нас тоже какие-то там есть статьи, где… В целом там на самом деле не так, что было плохо, хотя тоже народ мнение разделяет.
48:19
В Германии, я знаю, в нескольких университетах запретили туда статьи подавать.
48:25
Поэтому тут… Мне кажется, первое, делаешь что-то хорошее,
48:31
подаешься на хорошие конференции. На хорошие конференции действительно высокий процент реджекта. Как повезет.
48:37
У кого-то в первый год приняли, а у кого-то три года, короче, реджектят и реджектят. Ну, и в целом исследования.
48:44
Надо быть готовым к тому, что, да, тебя могут реджектнуть. Тут люди с тонкой душевной организацией
48:51
в такой суровый мир ресерча, им лучше не идти, конечно. Надо быть готовым, что статьи будут реджектить,
48:57
и надо быть готовым, что 90% у тебя ничего не работает, ну и так далее. Но 10% у тебя удовольствие высочайшего уровня,
49:07
что у тебя что-то заработало, и вообще ты крутой, и у тебя статью приняли, и вот ради этого удовлетворение,
49:15
что ли, такого… Ну, не то, что любопытство, как там сейчас меня закидают помидорами,
49:21
но то, что ты действительно показал, что твоя идея лучше, чем все идеи людей в мире, потому что тебя приняли на топовую конференцию.
49:28
У тебя есть подтверждение того, что это действительно чего-то стоит. Поэтому надо самому в это верить,
49:35
а не просто соваться с какой-то ерундой. Но в целом, я думаю, что надо понять, на хорошие будут реджектировать.
49:42
Корреляция не означает причинно-следственная связь. Причинно-следственная связь в другую сторону.
Как Вы обучаете молодых аспирантов на навык написания статей?
49:50
А как вы обучаете или тренируете молодых аспирантов на навык написания статей?
49:57
Ведь это же, мне кажется, с опытом только большим приходит. Вот исключительно кинул на середину речки и плыви.
50:05
Пиши текст. То есть я с самого начала, единственное, что я говорю, что ты пиши текст.
50:11
Потому что есть очень такой… Это все на самом деле страдают. Есть желание немножко еще поисследовать, поставить еще эксперименты,
50:18
а текст, что бы ты ни делал, на самом деле, как бы ты про это ни говорил, текст все равно пишется в последние 3 дня перед дедлайном,
50:26
начинается вот этот массовый оврал, что мы с утра до вечера пишем. Ну, этот нулевой вариант текста рождается в таком виде.
50:33
И, конечно, он обычно реджектится, потому что текст написан плохо. Что бы ты ни делал, человеческая натура такая, что ты все равно в суперспособности…
50:42
Есть исключения. Есть люди, которые делают все заранее, аккуратно. Это приходит только с практикой. Пишите текст.
50:48
Главное – писать нулевой вариант. Люди могут прийти. Я что-нибудь подчеркаю.
50:54
Но на самом деле это тренируемый навык. И, в общем-то, тренируется только на писании.
51:02
И все. Если голова у тебя нормально устроена, ты можешь научиться писать текст. Это не то, что требует какого-то, я не знаю, специальных код.
51:13
Есть там такие курсы, как писать, как делать. Наверное, они очень полезны. Но я, честно говоря, этим не занимаюсь.
51:21
На YouTube очень много видео об этом, как писать статьи и научиться. Я думаю, ребята, кто чувствует неуверенность, они как-то смотрят.
51:28
Но, опять же, там надо написать. Плюс на самом деле сейчас все же делают. Потом профессор GPT прочитывает статью, и она становится гораздо лучше.
51:38
Надо глазами еще посмотреть. Это, на самом деле, очень хороший рецепт сейчас по улучшению качества текста.
51:45
То есть, профессор GPT, напиши мне кусок, обычно получается что-то заметное. Профессор GPT чуть поправь, идеально.
51:53
А вы институт свой сравниваете же с конкурентами,
Каково положение AIRI среди мировых университетов?
52:02
тоже с подобными институтами по всему миру. И отсюда вопрос. Как вы чувствуете положение AIRI по сравнению с другими организациями мировыми?
52:12
Пока мы все-таки больше сравниваем с российскими организациями.
52:18
У нас такая краткосрочная цель стать лидером в России по публикациям, к которым мы успешно идем.
52:25
Таких институтов в России просто нет. У нас много институтов искусственного интеллекта, но они все представляют собой структурное подразделение
52:33
в составе какой-нибудь большой организации. Отдельного научного института, который сфокусирован исключительно на искусственном интеллекте,
52:41
его просто нет, это первый такой в мире. Тоже много институтов искусственного интеллекта,
52:51
но они тоже все встроены как в такие классические институты. Понятно, что есть в Канаде известный.
53:00
Если уж так помечтать, то хочется стать в каком-то виде аналогом OpenAI.
53:07
У нас 150 человек, а OpenAI 800. В целом не то, чтобы мы по людям отстаем прям десятки раз.
53:14
Но цель у нас похожая – создавать сильный искусственный интеллект в разных направлениях.
53:20
Может быть даже ближе к концепции, немножко к DeepMind, потому что у нас более разнообразная повестка.
53:27
У нас и химики есть, и биологи. Мы на самом деле ближе к компаниям R&D,
53:37
а не к классическим научным институтам, хотя у нас как бы научные сотрудники. У нас пока нет экономических целей по зарабатыванию средств.
53:46
Поэтому аналоги наши самые топовые – вот такие два. Конечно, мы пока им уступаем и по общему количеству публикаций,
53:56
но с точки зрения интеллектуального потенциала, я думаю, что у нас он сравнимый.
54:03
И если посмотреть на статью DeepMind, там обычно человек 10-15 в соавторах,
54:11
а у нас 3-4. У нас меньше людей производят одну статью. Это чуть более эффективно.
54:19
А с университетскими организациями они более-менее похожи, потому что просто собрались люди и условно работают по какому-то гранту.
54:30
А у нас все-таки цель более такая глобальная, особенно с точки зрения сильного искусственного интеллекта.
Откуда деньги у AIRI?
54:37
А у вас откуда деньги? Государство дает? Деньги у нас поступают, собственно, от…
54:44
У нас есть научный партнер СБЕР, и, соответственно, институт создан по инициативе Германа Оскаровича.
54:53
И, собственно, наша основная история сейчас идет как раз по совместным проектам со СБЕР.
55:00
Вот, собственно, такая у нас история. Но вы не… У вас не контракты, у вас гранты.
55:06
То есть вы не должны к какому-то дедлайну сделать какой-то продукт? Это именно такая вот венчурно-инвестиционная история.
Какие сильные стороны у AIRI?
55:15
А какие слабые стороны по сравнению с тем же, допустим, OpenAI? Вы сказали, сильная сторона в том, что у нас интеллектуальный потенциал.
55:22
Какие мы проигрываем? Какие пока? Ну, мы проигрываем точно по вычислительным ресурсам в разы.
55:28
Не то чтобы у нас с этим все прям капитально плохо. То есть в стране у нас есть доступ к одним из самых мощных вычислительных ресурсов.
55:37
Это первое. Ну и второе, все-таки они уже 10 лет работают, но все-таки пока еще третий год.
55:44
У нас довольно мало истории связанных как раз с работой с данными,
55:50
именно с дата-инженерами. Вот, это, наверное, то, что у нас пока похуже.
55:57
А с кадрами у вас нет проблем? С наймом, с поиском?
С кадрами нет проблем?
56:04
Ситуация с кадрами у нас такая же, как по всей стране. То есть действительно востребованная профессия во многих компаниях, как минимум.
56:13
Но сейчас у нас стоит небольшая, но все-таки очередь на вход у нас стоит.
56:21
То есть люди к нам идут, сильные ребята. Мы не хотим стать тем, кто, так сказать, отпылесосил вообще всю страну.
56:30
Важно, чтобы были разные центры. Но толковых исследователей, они все супермолодые,
56:39
у нас средний возраст, сейчас 35, но куча молодых ребят. Им нужно будет немножечко подкачаться, но это происходит крайне быстро.
56:50
Мне кажется, что у нас сейчас пока такого, что у нас условно говоря есть позиции,
56:58
но нет кандидатов, у нас сейчас обратная ситуация, что у нас есть кандидаты, но пока, так сказать, на данный момент нет еще возможности их нанять,
57:08
она скорее всего появится. Вот, поэтому тут…
57:14
Я всегда говорю оптимизм, мне кажется, у нас очень много талантливых людей, мне говорят, как так, у всех есть, а у тебя нет, но вот у меня нет.
Какими качествами нужно обладать чтобы попасть в AIRI без конкурса?
57:25
А кем нужно быть или какими качествами обладать, чтобы к вам попасть легко и без конкурса?
57:31
Не, ну конкурс-то есть всегда, и всегда есть процедура собеседования, я могу рассказать, как я людей отбираю, то есть я прошу прислать их какое-то CV,
57:38
потом я коротко говорю с ними и, собственно, спрашиваю, что вы делали, что вы хотите делать. Я даже не очень люблю делать какое-то техническое собеседование про то,
57:47
что люди там конкретно умеют делать руками, потому что это немножко не то, чего я ищу.
57:53
Я ищу, чтобы люди как-то понимали, чего они хотят, а технические вещи можно…
58:02
Ну, обычно подтягиваются, вот. То есть я принимаю решения на основании таких коротких относительных интервью и CV.
58:13
Все это включает в себя, понятно, что человек заканчивал, какой у него опыт, и, собственно, словами проговорить,
58:19
что он вообще хочет и какая у него мотивация. То есть если у него есть мотивация заниматься ресерчем,
58:26
есть какой-то минимальный подтвержденный опыт, что он это делал, ты даешь ему задачку, и как он с ней справится, так и пойдешь.
58:35
То есть я обычно встречаю людей на уровне магистров, не то, что даже в Сколтехе, не то, что на институте.
58:41
С нами в институте обычно люди приходят, у них есть уже хорошее портфолио, и там поговорил, и видно, что человек высокого уровня,
58:48
или по рекомендации. А вот студенты свежие, то есть, ну, может быть, там, выпускник топового вуза с топовыми оценками,
58:57
но задачу решить вообще не может и не мотивирован. А может быть, выпускник совершенно не топового вуза, но у которого глаза горят, и он быстро там за день делать задачу,
59:07
которую другой делает месяц. И это совершенно непредсказуемо, и не выявляемо, кроме того,
59:13
как попробую решить задачку. Вот, такая вот.
Выгоняют ли кого-нибудь из AIRI?
59:19
Бывает так, что вы выгоняете кого-то? Взяли, и потом понимаете, что ошиблись? Бывает, но редко. Были такие случаи?
59:25
Ну, скажем так, вот я лично, мне кажется, может быть,
59:32
только одного человека выгнал, сказал, все, ты достал меня. Обычно люди уходят сами, они понимают, что они тут…
59:39
То есть, как бы не приходится делать операцию такую,
59:46
что ты все, уходи, ты нам не подходишь. Один раз, по-моему, было. А так люди понимают, что они не справляются, и уходят сами.
59:56
Но это не очень большой процент. То есть в лаборатории у меня очень много людей, которые со мной работают лет 10 по разным этим вещам.
1:00:06
Интуиция у меня на людей хорошая. То есть я вижу, что человек в норм, надо брать и пошли.
1:00:14
А те, которые не мотивированы, они обычно сами отсеиваются. То есть это примерно, знаете, как выглядит? Приходит человек такой, я такой-сякой, я говорю, ну вот тебе задача.
1:00:22
Ну, я принял другой оффер. Ну, принял и принял. Те, кто принимают офер в наших всех условиях,
1:00:29
то они уже довольно долго с нами. А у вас что, оффер хуже, чем какие-то другие офферы?
1:00:36
Ну, это не обязательно там в AIRI, может быть, это могло быть в Сколтехе. Но в целом у нас много сейчас по ИИ и Data Science
1:00:47
очень много хорошо платят в разных местах. Поэтому тут у нас неплохие условия.
1:00:54
Очень конкурентоспособные, но хочется, чтобы мотивацией была не только,
1:01:01
так сказать, разница в N тысяч рублей в зарплате, а все-таки в самой идее и в то, чего ты там будешь делать.
1:01:13
Это вот… То есть при примерно равных условиях факторы должны быть другие.
1:01:20
То есть когда люди там начинают… Мне не жалко, в одном смысле. Но сразу такой возникает звоночек,
1:01:28
а зачем ты это делаешь? Все тоже на уровне отношений. А вы этих магистров, которые к вам попали,
Помогаете ли Вы магистрам?
1:01:38
вы их потом пытаетесь в аспирантуру дальше направить, помочь им защититься? Или для вас все-таки важен их вклад в продукт?
1:01:45
Нет, ну смотрите, мы все-таки как раз именно продуктами почти не занимаемся. То есть у нас, естественно, есть AIRI и Сколтех.
1:01:53
В Сколтехе мы очень много занимались разработкой и консалтингом, фактически, работами.
1:02:00
В том числе для Huawei еще когда это можно было делать. Там, конечно, нужны и разработчики в том числе.
1:02:07
Конечно, меня интересуют люди, которые хотят развиваться по научному треку. Есть люди, которые прекрасно заканчивают магистратуру
1:02:13
и идут в индустрию. Вообще без вопросов. Делают в том числе и прикладные проекты. Но больше всего интересуются люди, которые идут в аспирантуру.
1:02:19
Но лично, так сказать, к каждому я никогда не подхожу. Это люди обычно приходят сами и говорят,
1:02:25
я вот хотел бы пойти в магистратуру. Сейчас надо, правда, делать в аспирантуру очень аккуратно, потому что, к сожалению,
1:02:33
сложилась такая ситуация, что многие рассматривают аспирантуру как такое,
1:02:40
что-то необязательное. То есть я в аспирантуре, а еще я где-то работаю. Ну, я попробую аспирантуру, а потом оттуда…
1:02:46
У меня было сейчас как раз пару случаев таких. Меня они сильно расстроили, потому что я вроде с самого начала сейчас
1:02:53
людям прямо объясняешь, что если ты идешь в аспирантуру, то ты на 4 года коммитишься. И я коммитчусь, потому что я время свое тратил.
1:03:00
И ты коммитишься. А не то, что ой, я тут что-то… И вот, к сожалению, у некоторых молодых ребят,
1:03:07
ну, из-за того, что аспирантура во многих вузах такая полуформальная вещь, отсрочка от армии и что-то такое,
1:03:14
ну, типа вот есть. Многие относятся несерьезно, и вроде объясняют, что у тебя будут
1:03:20
хорошие диссертации, у тебя будут крутые статьи, тебя в те же самые там Сбер, Яндекс и прочие будут брать на существенно более высокие
1:03:28
позиции, грейды и так далее. По другой совершенно какой-то истории. И в целом это более интересная вещь.
1:03:35
Вот, если тебе это не интересно, ты можешь пойти и получать хорошую зарплату. В целом вообще проблем нет. Но если ты пошел, то будь добр,
1:03:42
как бы добросовестно работай. И подавляющее большинство это понимают и делают.
1:03:49
Но есть вот там пару случаев, которые мы вот так вот пропустили. А я думал, что типа это просто вот так попробовать.
1:03:58
Ни фига себе попробовать. Вот, то есть надо восстанавливать в том числе и престиж аспирантуры
1:04:06
с точки зрения как бы того, что это не то, что попробовать, а все-таки какая-то более-менее такая, туда сложно попасть.
1:04:14
И в целом в этом году точно будет конкурс. Много людей хотят в аспирантуру,
1:04:21
так что будем выбирать. Вы сказали, что и в Яндексе, и в других компаниях
Правда ли, что с кандидатской степенью оплата труда выше?
1:04:27
человеку с PHD, со степенью кандидата наук дает и выше грейды, и выше зарплату.
1:04:34
Но на рынке существует мнение, что это не так. Существует мнение, что это просто потеря времени, и никто за это платить не будет дополнительные деньги.
1:04:40
А платят только за умение программировать, умение решать технические задачи и так далее. Ну, зависит от функциональных обязанностей.
1:04:48
Если ваша задача программировать, то тебе степень не нужна. Если твоя задача заниматься исследованиями,
1:04:54
то нормальная степень. Это же все идет от того, что степень была девальвирована,
1:05:01
и люди шли в аспирантуру, я не знаю, просто ради места в общежитии или ради отсрочки.
1:05:10
И вот эта девальвация распространяется, в том числе, на аспирантуру, где ты действительно можешь работать с крутыми профессорами.
1:05:18
Такая история есть в Сколтехе, такая история есть в Вышке, где действительно делается на высоком международном уровне.
1:05:27
Я говорю как раз про такие степени, за которых действительно стоит большая работа, есть что показать.
1:05:34
Вот такие выпускники, то есть степень, степени рознь. Если там степень, не пойми чего, не будем, так сказать, приводить примеров,
1:05:42
то понятно, что от нее толку никакого. Наверно. Тоже надо смотреть.
1:05:49
То есть я там встречаюсь с каким-нибудь товарищем,
1:05:55
говорю, что я доктор, в бизнес перевод. Ой, а я вообще, я там кандидат экономических, это то же самое.
1:06:03
Твою ж мать, ну сравнил, называется. Но действительно есть, но я там, извините,
1:06:10
купил степень в переходе, как у нас тоже бывало. Это все идет оттуда. У нас есть же эти три вещи.
1:06:19
То есть первое – это узнаваемость, что степень чего-то. Второе – это доверие, что если у человека есть такая степень,
1:06:26
то и репутация, что действительно люди в такой степени, они могут перформить.
1:06:32
Я говорю именно про это. То есть узнаваемость уже появилась, доверие надо тоже зарабатывать.
1:06:38
Ну и есть еще там степень, люди, которых не говорят, часто они говорят так,
1:06:45
потому что у них самих не получилось защититься. То есть они пошли в аспирантуру, пошли работать, причем, может быть, в аспирантуру – даже хорошее место,
1:06:51
не защитились, и поэтому для того, чтобы оправдать свой неуспех, начинается вот этот разговор про то, что ну, эта вот фигня вообще никому не надо.
1:07:00
Поэтому с этим надо тоже потихонечку вести разъяснительную работу, что степень степени рознь.
1:07:07
И хорошая степень, конечно же, вернется в том числе и в материальной истории.
1:07:15
У меня последний вопрос, геополитический.
Бывают ли проблемы с публикацией в международных конференциях?
1:07:21
Скажите, у вас бывают проблемы с публикацией ваших статей в международных конференциях
1:07:27
по каким-то политическим мотивам? Вам отказывают? Случались ли такие казусы?
1:07:33
Был ровно один случай. Конференция называлась ACL,
1:07:39
Association Computational Linguistics, когда нас попросили убрать аффиляцию.
1:07:46
Значит, институт ни под какими санкциями
1:07:53
ничем не находится. Мы написали, а, собственно, почему? Они сказали, ой, извините, мы ошиблись.
1:08:00
И аффиляция действительно осталась. У ребят, которые учатся в Сколтехе в МФТИ,
1:08:08
аффиляцию попросили убрать. Но, опять же, на мой взгляд, это ерунда какая-то.
1:08:14
Аффиляция в научных статьях не несет какой-либо даже юридической…
1:08:20
Я не эксперт, но мне кажется, она никогда не несла никакой… Я могу туда написать “рога и копыта”.
1:08:27
И извините, справку у меня с места работы там не требуют пока, по крайней мере. Там же была история замечательного чувака,
1:08:35
который в свою статью кота своего добавил. И у него там много совместных статей
1:08:42
вышло с котом. В научных статьях никто никогда не проверял. Даже этого кота какой-то пленарный доклад
1:08:49
куда-то позвали сделать. Мистер какой-то Харрин там был. Потому что ему нужен был соавтор. По каким-то причинам, по-моему,
1:08:55
написал “we” в статье. Ему было лень перепечатывать. Он сказал, ну, добавим кота. Ну, хорошо, что вы добьетесь?
1:09:01
Будет там не Сколтех, а центр for artificial intelligence technology. Это как бы подразделение Сколтех.
1:09:07
Вот написали вот так. Ну, хорошо, пропустили. И это настолько какая-то бредятина, на самом деле.
1:09:16
То есть какую-то даже… какую-то задачу решает. Мне сложно понять, но у страха глаза велики.
1:09:25
Они что-то там боятся, ребята. Большинству вообще по барабану.
1:09:32
Ну, может быть, начнут что-то делать. Кто-то у нас говорит, ну, значит, ну, хорошо. Тогда будем где-то еще публиковаться.
1:09:40
Хотите так, будет так. С этим слабо что-то делать. Я сейчас поеду в Германию в апреле.
1:09:48
В Гайдельберг. Меня пригласили туда. Университет крутой.
1:09:54
1386 какой-то год. И в целом никаких проблем нет. Позвали там в Берлин в июне.
1:10:01
Говорят, мы вам все оплатим. Говорю, ребята, ха-ха, попробуйте. Пошли, значит, к своим бюрократам.
1:10:07
Они такие, ой, нам сказали, ничего нельзя. Билет не можем оплатить.
1:10:13
Я говорю, а local expenses в местный можем? Говорят, можем. Говорят, ну, вы еще раз сходите, уточните. Они такие, ой, мы сходили, уточнили.
1:10:19
Нельзя. Я говорю, а что нельзя-то? Потому что у меня паспорт не тот.
1:10:25
Я же еду как ученый на конференцию. На мой взгляд, если только по паспорту, то это нацизм. Они такие, ой, сходили к начальнику начальника.
1:10:33
Начальник начальника сказал, ой, мы все оплатим. Ну, то есть правил нет никаких. И это все, чему я это говорю,
1:10:41
у всех таких решений есть конкретное имя и фамилия человека, который принимает решения.
1:10:47
То есть никогда в истории никаких изменений аффиляции в науке не производилось.
1:10:53
То есть этот лично конкретный человек плохо относится к людям, у которых российская аффиляция. Никаких рисков у них нет на это.
1:11:01
Потому что это не юридическая даже история. Вот я бумажку отправил, что я сделал. Поэтому пока все нормально.
1:11:09
На конференциях, в которые мы приезжаем, тоже все хорошо.
1:11:16
Никто ничего там не канселит, не отменяет. Ну, бывают там все-таки ребята, которые стикеры лепят на постеры ненормальные.
1:11:25
Была у нас там конференция ICML. Она была на Гавайях.
1:11:31
Туда нам удалось отправить только нашего китайского аспиранта. Остальные визу не смогли получить. Но китайский аспирант там стоял. Он стоял, к нему подошел чувак и стикер налепил там про то,
1:11:39
что stop the war и вообще все под санкциями. Ну, налепил, его через секунду также содрали и выкинули в помойку.
1:11:48
То есть эффективность этого действия была равна нулю. Китайский аспирант такой не очень понял, что от него хотели.
1:11:55
Ну, как бы больные люди есть везде, поэтому… А сейчас визы дают без проблем?
Дают ли научным работникам визы в США и Европу?
1:12:03
Вот вы летите в Германию. В Германию у меня есть пока виза. Сколько там?
1:12:09
Еще пару лет ли есть. Я получил до 22 года, в конце 21-го получил пятилетнюю французскую.
1:12:16
Поэтому я по ней вот сейчас радостно летаю. И плюс, что еще летаю там? Мне в конце 21-го выдали, так называемую премию Гумбольда немецкую,
1:12:25
которую в 22-м году выплатили даже. Причем Гумбольд это единственный…
1:12:33
Он сказал, мы не государственный немецкий фонд, мы продолжаем сотрудничать с российскими учеными. Не с государственными, а с российскими учеными.
1:12:39
И мы продолжаем это делать. Они это прямо официально сказали, единственные. Вообще большие молодцы ребята. Наверное, это им тяжело удается, я не знаю.
1:12:48
Но тем не менее, такая хорошая история. И в целом, когда ты туда прилетаешь, тебе все равно,
1:12:55
туда добираться просто неудобно. В Америку сложнее, конечно, сейчас, но тоже у нас коллеги получают визы.
1:13:01
Просто неохота на самом деле ехать куда-то, сдавать паспорт, потом сидеть там непонятно сколько.
1:13:08
Времени, если честно, жалко. Я в Америку люблю ездить как турист, на конференции,
1:13:17
там приятно все. Но ты думаешь, что сейчас 10 дней будешь вот этим приседанием заниматься,
1:13:24
думаешь, пошло на все нахрен, когда-нибудь еще. В Европу визу можно получить.
1:13:32
Немцы очень плохо себя ведут.
1:13:38
Если немецкую визу получать, они начинают звонить куда-то, спрашивать. Потом дают визы во дни поездки.
1:13:48
Никто не хочет сильно заморачиваться. Это текущая ситуация,
1:13:55
поэтому что есть, то есть. Пока есть возможность, пока приглашают, я буду ездить, потому что это важно.
1:14:03
У нас ситуация случилась буквально недавно, несколько недель назад.
1:14:09
Ребята-студенты отправили на А-класса конференцию, статью небольшую, и их там приняли на студенческий трек.
1:14:16
И дальше нужно туда поехать, а конференция в Калифорнии. И соответственно все эти студенты развели руками
1:14:23
и сказали, мы не можем поехать, нам визу не дадут. А можно ли представить этот доклад удаленно?
1:14:29
И мы написали письмо туда, и нам ответили, нет, вы обязательно должны приехать, иначе мы ваш доклад не опубликуем, вашу статью.
1:14:35
Вот так все закончилось. Ну, это очень странно. Сейчас пока все-таки дают возможность.
1:14:42
Американскую визу можно получить. Конечно, будем честными, следовательно ее иметь полезно.
1:14:50
Даже в условиях того, что люди работают и в жестко санкционных организациях.
1:14:56
Но как работают американские визовые офицеры, вообще непонятно. Можно в одном месте получить отказ,
1:15:02
в другом консульстве получить апруф. То есть там настолько это все случайная величина.
1:15:09
Вот у меня был там студент, он такой, надо поехать. Он такой еще в Яндексе много работал,
1:15:17
много ботов по записи. Он такой, да что фигня, я сейчас сам напишу бота. Написал бота, который через день записал в Белграде.
1:15:25
Он такой, нормально. Он прилетел в Белград, пришел в консульство, ему сказали, хеллоу, ты чего, я хочу на конференцию поехать.
1:15:32
Шлепнули реджект, и он уехал. Вот, собственно, ничего не спросили вообще,
1:15:38
сразу поставили реджект. Поэтому как бы… Странно все это, короче.
1:15:47
Но не хотят они удаленно. Вот в чем штука. Они не хотят принимать доклад удаленно. То есть они требуют присутствия, понимая,
1:15:53
с какими трудностями мы сталкиваемся, и, соответственно, фактически блокируя доступ к конференции.
1:15:59
На этих конференциях таких крупных пока еще разрешали,
1:16:05
то есть там написано, если у вас виза ISHUS, мы можем вам без регистрации автора.
1:16:11
То есть на самом деле все, что они хотят, я подозреваю, это то, чтобы оплатили оргвзнос кто-нибудь,
1:16:17
а потом не дошел, тогда статья останется в конференции. Я думаю, что решение было бы таким.
1:16:24
Хорошо, будем надеяться, что все это как-то изменится.
1:16:31
К лучшему. Точно изменится. Уже выровнялось на самом деле, там же все плюс-минус забыли. А дальше я думаю, что…
1:16:38
Ну и последний вопрос. Мы можем как-то нашим слушателям дать возможность
Реклама AIRI
1:16:44
к вам хотя бы на собеседование попасть? Вам это интересно, давать такую рекламу? Пусть пишут к вам. Пусть пишут, да, почему нет.
1:16:51
Хотите, пишите, что хотите, а мы прореагируем. Хорошо, спасибо огромное.
1:17:00
Было очень интересно. Для нас это очень ценно.

Поделиться: