Для людей наступило время инвестиций в самих себя — в образование, познание своей психики и интеллекта, утверждают глава «Сбера» Герман Греф и доктор психологических наук Александр Асмолов. Развивающийся с невероятной скоростью искусственный интеллект (ИИ) должен в этом помочь. При этом как перестать бояться высоких технологий, которые претендуют на роль человека в обществе? Как выйти из удобной позиции жертвы? Как реформировать систему образования и адаптировать её к реалиям сегодняшнего дня? И как начать жить в культуре достоинства? Об этом и не только рассуждают Герман Греф и Александр Асмолов.
Прямая ссылка на видео https://www.youtube.com/watch?v=xDqrsliTguQ
Пересказ текста
Роль искусственного интеллекта в будущем
- ИИ даст множество возможностей, если люди научатся его использовать.
- Важно выйти из роли жертвы и стать самостоятельным актором.
Учится ли человечество на ошибках
- История учит, что люди совершают ошибки, и каждое поколение повторяет их.
- Технологии и этические нормы развиваются параллельно, но не всегда гармонично.
Варварство и XXI век
- Варварство связано с полным стиранием разнообразия и гомогенностью.
- Технологии могут быть инструментом для варварства, но не являются его причиной.
Восстание машин
- Восстание машин маловероятно, так как его могут организовать только люди.
- ИИ не самоосознает себя и не считает людей лишними.
Гениальность технологий и людей
- Гениальные технологии создают гениальные люди.
- Злодеи всегда будут существовать, но их можно контролировать.
Креативность и эмерджентность ИИ
- ИИ уже делает ошибки и проявляет креативность.
- Эмерджентность, присущая сложным системам, пока остаётся преимуществом человека.
Эмерджентность и AGI
- Искусственный интеллект обучается на больших массивах данных.
- Перекармливание сети может привести к неожиданным выводам.
- В 2023 году стало ясно, что эмерджентность — это реальность.
- AGI — это когда количество параметров переходит в качество, примерно триллион параметров.
- Нейросети начинают использовать собственное мировоззрение для выводов.
Применение AGI
- AGI используется для открытия новых лекарственных препаратов и материалов.
- Нейросети решают проблемы, которые ранее считались нерешаемыми.
- Нейросети становятся универсальными в генерации нетривиальных подходов.
Роль человека в будущем
- Люди должны придумывать себе новые роли в условиях развития ИИ.
- Важно быть готовым к изменениям, чтобы не впасть в ступор.
- Человеческое мышление инерционно, и этап приятия изменений затянулся.
Проблемы образования и общества
- Традиционная модель образования устарела и не работает в условиях информационного взрыва.
- Люди уходят от решения проблем в привычную модель поведения.
- Популизм и ужесточение режимов — это реакция на изменения.
Скорость и влияние ИИ
- ИИ развивается с невероятной скоростью, что затрудняет адаптацию людей.
- ИИ претендует на роль человека в обществе и сам себя развивает.
- Важно обсуждать и адаптироваться к изменениям в области образования.
Возможности и вызовы ИИ
- ИИ даст множество возможностей человеку, если он научится его использовать.
- Страх и запреты приведут к проигрышу.
- Скорость внедрения ИИ требует немедленных действий.
Роль учителя и школы
- Физическая школа и учителя необходимы для социализации детей.
- Учителя должны адаптироваться к новым способам обучения детей.
Образование и искусственный интеллект
- Образование должно опережать, а не адаптироваться к технологиям.
- Искусственный интеллект не может заменить человеческие эмоции и чувства.
Эмоциональный ИИ
- Эмоциональный ИИ уже способен распознавать и имитировать эмоции.
- Искусственный интеллект пока не справляется с распознаванием сарказма.
Возможности ИИ
- ИИ может значительно ускорить решение технических проблем и повысить автономность.
- Антропоморфные роботы станут частью повседневной жизни.
Эволюция человека
- Человеку нужно эволюционировать и использовать ИИ для создания лучшего мира.
- Важно перейти на уровень культуры, где гармония важнее конкуренции.
Чему учить детей
- Детей нужно учить навыкам, которые будут полезны в будущем.
- Вузы должны адаптироваться к новым требованиям рынка труда.
Проблема образования и технологий
- Вузы готовят специалистов, которые уже не нужны на рынке труда.
- Важно осознать динамику изменений и использовать страхи себе на пользу.
Конфликты и эволюция
- Конфликт движет миром, но важно не ограничиваться только этим.
- Солидарность и взаимопомощь также являются двигателями эволюции.
Искусственный интеллект и будущее
- ИИ будет востребован в психологической помощи.
- Важно видеть в ИИ не врага, а партнёра и научиться с ним взаимодействовать.
Предсказания и целеполагание
- Невозможно точно предсказать будущее, особенно на 10 лет вперёд.
- Важно сосредоточиться на том, что можно контролировать, и ставить амбициозные цели.
Культура достоинства
- Современный человек часто психически здоров, но личностно болен.
- Важно стремиться к культуре достоинства, а не культуры полезности.
Работа с ИИ в МГУ
- В МГУ ищут способы взаимодействия с ИИ.
- Люди обладают интуицией и эмпатией, что может помочь им в этом взаимодействии.
Взаимодействие с ИИ и человеческие качества
- ИИ не обладает интуицией, эмпатией и воображением, как человек.
- Конкуренция с ИИ может превратить людей в его инструменты.
- Важно ставить себя и свою целостность в центр.
Будущее и цели
- Будущее зависит от обстоятельств и целей.
- Цели остаются неизменными, корректируются методы действий.
- Стратегия Сбера направлена на достижение целей через новые методы.
Развитие ИИ
- ИИ быстро развивается, появляются новые технологии и модели.
- ИИ уже влияет на научные открытия и быт.
- В 2035 году ожидаются радикальные изменения в обществе.
Инвестиции в себя
- Важно инвестировать в образование, познание психики и целеполагание.
- Большинство людей не ставят серьёзных целей.
- Необходимо развивать мягкие и цифровые навыки.
Проблемы образования
- В системе образования не хватает преподавания мягких и цифровых навыков.
- В вузах нет системного преподавания этих навыков.
Опасность неконтролируемого развития ИИ
- ИИ может быть использован как оружие.
- Необходимы международные соглашения для контроля за развитием ИИ.
- В разных странах уже есть регулирование, но оно должно быть гибким.
Обмен уязвимостями и анализ рисков
- Компания сообщает о уязвимостях в Opi для их закрытия.
- Важно серьёзно относиться к анализу рисков.
- Технологии позволяют создавать барьеры для злоумышленников.
Проблемы с open source моделями
- Open source модели могут использоваться всеми, что снижает барьер входа на рынок.
- Для эффективного обучения моделей нужны мощные дата-центры.
- Человечество пока не нашло общего решения для этой проблемы.
Конкуренция и война с ИИ
- Конкуренция в области ИИ является вооружением.
- Автономная война с использованием ИИ изменит характер конфликтов.
- ИИ также влияет на безопасность и охрану общественного порядка.
Развитие ИИ в России
- Россия входит в пятёрку лидеров по развитию технологий ИИ.
- Технологии ИИ позволяют переизобретать существующие процессы.
- Важно использовать этот ресурс и не потерять его.
Образование и подготовка кадров
- Китай активно внедряет ИИ в образование, начиная с детских садов.
- В России информатизация в школе считается устаревшей, вместо этого нужны digital skills.
- Важно перестать бояться ИИ и быстрее использовать его.
Будущее зависит от нас
- Будущее зависит от мотивации и желания людей развиваться.
- Важно сохранять интерес к жизни и стремление к культурному развитию.
В этом видео
Тизер
0:00
будет часть людей, которая будет использовать искусственный интеллект, и будет огромная часть людей,
0:08
которых будут использовать люди вместе с искусственным интеллектом. Если мы не являемся акторами истории,
0:16
оказываемся заложниками своих подходов. Поэтому наша задача, на мой взгляд, как
0:21
раз сделать так, чтобы как можно большему количеству людей донести необходимость выхода из очень удобной
0:28
роли жертвы в роль самостоятельного актора. Гениальные технологии, они гениальны, но
0:35
эти гениальные технологии делают гениальные люди.
0:41
На самом деле технологии искусственного интеллекта даст гигантское количество возможностей человеку, если он научится
0:46
это использовать. Нам просто-напросто нужно эволюционировать как раз и творить значительно более прекрасный мир. У меня
0:53
сразу появилось вдохновение, надежда на будущее после этих слов.
1:05
[музыка]
1:31
[аплодисменты]
1:36
Дорогие друзья, Мы рады видеть вас в Нодоме. Ноудом —
Вероника Зонабенд о сообществе Noôdome
1:43
это сообщество людей, которые принадлежат к разным поколениям и из разных сфер. И их
1:51
объединяет то, что они не прячутся от будущего, а пытаются его проектировать и
1:59
о нём думать. Для того, чтобы предсказать будущее, надо его создать. В
2:06
этом разговоре о будущем очень Рубена не хватает. И я надеюсь,
2:12
что достаточно обозримым будущем мы сможем этот разговор продолжить вместе с
2:19
ним. Сегодня наша вторая встреча в рамках большого совместного проекта
2:26
Ноудом и телеканала Кинотв, что называется Диалоги о будущем. В рамках
2:33
этого цикла мы говорим с людьми, создающими будущее и пытающимися его
2:40
осмыслить. Для этого мы пригласили очень интересных собеседников, которые своей
2:46
жизнью создают будущее каждый день. Герман Оскарович Греф, спасибо большое,
2:53
что вы сегодня с нами. И Александр Григорьевич Осмолов.
3:00
[аплодисменты] Наверное, начать хотелось с того, что я
3:07
вот процитирую Зигмунта Фрейда, как это ни странно. Он сказал: «Мы живём в очень
Учится ли человечество на своих ошибках?
3:13
странное время и с удимлением отмечаем, что прогресс идёт в ногу с варварством».
3:20
Получается, что каждый цикл развития человечества предполагает сочетание
3:25
стремительного технологического рывка и попыток человечеству увязать этические
3:31
нормы с новой реальностью. Наверное, мой вопрос: актуальны ли слова Фрейда сейчас
3:37
и как человечество мы учимся чему-нибудь на своих ошибках или нет? Гермасквич.
3:45
Во-первых, Вероника, спасибо большое за приглашение и всем добрый вечер. Я здесь столько приятных людей, что, наверное, в
3:53
одном месте столько людей невозможно встретить нигде в другом месте. История учит только тому, что она ничему не
3:59
учит. Поэтому люди совершают каждый раз, каждое поколение собственные ошибки. Поэтому я думаю, что мы обречены на то,
4:06
чтобы совершить весь набор своих классических ошибок, а ещё на придумывать много новых своих. Эээ,
4:13
поэтому учебник истории, э-э, нашим поколениям точно будет, эээ, написан так
4:19
сполна, и там будет чего разобрать с точки зрения ошибок, в том числе. Жутко не люблю цитаты, потому что они всегда
4:26
вырваны из контекста. И бог его знает, в каком состоянии по поводу чего Фрейд там
4:31
ээ чего-то там наговорил. Под варварство, мне кажется, немножко не из этой серии. Понятно, что в качестве аналогии можно
4:40
использовать любые определения, но мне не кажется, что это то, что сегодня с нами происходит. Вот. Вот примерно так.
4:47
Спасибо. Я как психолог просто хочу задуматься о
Александр Асмолов: «Варварство — полное стирание разнообразия»
4:54
том, что вы казали варварство и XXI век.
4:59
Я когда думаю о нашем веке, то, что происходит, уникальные скачки в мире
5:06
технологий, и человек непрерывно, как и в прошлые века, сам боится того, что он
5:12
создаёт. Но одновременно происходит следующее. Варварство — это спутник
5:18
развития человечества. И для меня варварство я понимаю как полное стирание
5:26
разнообразия, полная гомогенность, полный иммунитет культуре. Невероятно
5:33
важно видеть фарварство, связано оно с технологиями или нет. Это вопрос особо
5:40
часто технология становится инструментом для варства. Но ключевой вопрос: виновны
5:47
ли в этим сами технологии? Вот в эпоху искусственного интеллекта какая роль
Герман Греф о необходимости выхода из удобной роли жертвы
5:52
будет у человека? Будет часть людей, которая будет использовать искусственный интеллект и
5:58
будет огромная часть людей, которых будут использовать люди вместе с искусственным интеллектом. Сильно ничего
6:05
не поменяется. Сегодня без искусственного интеллекта происходит то же самое, будет с искусственным интеллектом. Поэтому
6:11
наша задача, на мой взгляд, как раз сделать так, чтобы как можно большему количеству людей донести необходимость
6:18
выхода из очень удобной роли жертвы в роль самостоятельного актора. И это,
6:24
наверное, самое основное. Если люди сумеют поменять эту роль, то тогда они точно так же, как и небольшая часть,
6:31
которая сегодня готова уже в какой-то степени к технологическому прогрессу, она тоже
6:36
начнёт использовать искусственный интеллект. Про восстание машины я бы не говорил. Мне кажется, это всё-таки из
Герман Греф о возможности восстания машин
6:42
области фантастики. В принципе, люди это могут устроить. Восстание машины, ээ,
6:47
как любое другое восстание, организуют люди. В принципе, если найдутся злодеи,
6:52
которым дадут возможность устроить восстание машин, то тогда они обязательно это устроят. Но я надеюсь,
6:58
что будет большое количество нормальных людей, которые будут думать о том, что машины можно использовать, в том числе и
7:04
таким образом, и они не дадут никому использовать машины для восстания.
7:09
ситуации, когда машины самоосознали себя и посчитали, что человеки здесь, на этой
7:15
планете лишние. Но это такая очень гипотетическая ситуация. Это красиво. Это об этом можно рассказывать сказки,
7:21
можно людей пугать. Я не верю, что это произойдёт. Я просто хочу напомнить, продолжая
7:28
мысль, которая сейчас прозвучала, если мы не являемся авторами истории,
Александр Асмолов о гениальности технологий и людей, их создающих
7:34
оказываемся заложниками своих подходов. Вспомните простую вещь. Когда-то
7:40
Гутенберг изобрёл печатный сталок, и все его обвиняли в том, что огромное
7:46
количество летописов остались без работы. И во всём виноваты печатные
7:52
станки. Сейчас, когда идёт развитие человечества, изобретаются разные
7:58
совершенно подходы, орудия и технологии, но звучит та же фраза, та же гениальная
8:05
фраза, которой всё время мы не понимаем её. Помните эту фразу? Вот взять бы все
8:12
книги, да и сжечь, они во всём виноваты. Послушайте, гениальные технологии, они
8:21
гениальны, но эти гениальные технологии делают гениальные люди. И в этом вся
8:28
суть. Но тут появляется ещё один вопрос,
8:33
который Германович поставил. Всегда ли будут злодеи? Всегда
Про злодеев, их нетривиальность и геростратову славу
8:39
ли будут обвинять, что век кончился? Незавенно не говорит Бог. умер. Умерло
8:48
моральное начало. Наш с вами век, когда произошли чудовищные трагедии, мы
8:54
начинаем говорить: «Человек умер». Простите, а кто же жив? Я смотрю на этот зал.
9:01
Поэтому каждый раз мы связываемся с тем, что в сфере разума великий вопрос:
9:08
совместимый ли разум и злодейство относится к нам самим, а не к тем
9:14
уникальным технологиям, которые являются средством опоры и расширения нашей с
9:20
вами мощи. Вообще злодеи — это точно не тривиальные люди, поэтому нельзя недооценивать их интеллект. Я могу
9:27
сказать, что вот с точки зрения искусственного интеллекта, в том числе эти люди идут впереди. Раньше были
9:33
простыми хакерами. Ну, во-первых, кем раньше были бандиты? Это, собственно говоря, ну, забирали у бабушки кошелёк на улице, да, для этого нужно было иметь
9:40
образование, три класса и коридор. Потом они как-то там умудрялись залазить во всякие банковские системы, которые, в
9:46
общем, не очень были готовы к этому или на предприятие. Сейчас там висит 10 замков, и они взламывают всё это. Мало
9:54
того, что они взламывают, они ещё умудряются так развести человека, чтобы он сам отдал
10:01
деньги. В этом смысле злодеи будут обязательные. Злодеи очень подкованные. И это будет работа для тех, кто защищает
10:09
нас с вами от злодеев. Она всегда будет. И дай бог, чтобы те люди, которые
10:15
борются со злодеями, они были всегда на чеку и немножко более продвинутыми, чем первая категория людей. А ещё у злодеев
10:23
есть замечательная вещь. Иногда злодеи не действуют корысти ради и не только,
10:29
чтобы добиться денег. Никогда человечеству не пропадал великое явление
10:36
Геростратова. Слава: «Я должен победить Сбер, я должен вскрыть уникальный сейф.
10:45
Я самый сильный. Я все ваши вещи. И это другая свершина. Их поймать уже намного
10:52
труднее. Они не понимают, с какими часто поразительными м странами имеют дело.
11:00
Они не понимают чудес нашей страны. То есть развитие происходит за счёт, когда
Креативность и эмерджентность ИИ
11:06
кто-то ломает устоявшиеся правила. Это удел только человека или искусственный
11:12
интеллект будет уметь себя ломать и делать ошибки?
11:17
Ну, во-первых, нельзя об этом говорить в будущем. Это уже есть. Это первое. Делает ошибки он давно и успешно. Но то,
11:25
что мы, в том числе, я какое-то количество лет назад рассказывал молодым ребятам, студентам и так далее, и так
11:31
далее, что у нас есть с вами конкурентные преимущества, такие как креативность, которая никогда не сможет
11:37
быть воспроизведена искусственным интеллектом. Но, к сожалению, не прошло там и пару лет, как сети стали
11:43
креативить. Осталась последняя наша крепость, которую мы думали, что уж точно взять
11:50
нельзя — это так называемая эмержентность. То есть мержентность — это свойство, присущее сложным системам.
11:57
Таким типичным, типичной сложной системой является наш мозг. Сложная система может складывать комбинацию и
12:05
решать задачку свойством нетипичное для всех постсистем, которые входят в неё.
12:10
Поискусственный интеллект, как известно, обучается на огромных массивах данных. И очевидно, что того, что нет в структуре
12:18
этих массивов данных, ну, искусственный интеллект ниоткуда взять не может. Ну вот это из этого исходили все. Но
12:23
казалось, что если такую сетку перекормить, то есть определённый количественный предел,
12:30
когда мы приступаем, то сеть может делать
12:35
выводы, но совершенно не по тем правилам и не на основе той информации, которую
12:41
мы когда-то в неё закачали. И это потрясающе. Этого никто предсказать не мог. И буквально, наверное, вот двадцать
12:46
третий год был год, когда все поняли, что эмержентность — это последняя крепость, где мы вроде бы засели и она
12:53
рухнула. И сегодня мы говорим о том, что, собственно говоря, что такое Agi, да, General Intelligence — это когда
13:00
порог того, э, набора параметров, которые необходимы. Пока это всё количественным характеристики, когда
13:07
количество переходит в качеству. Порог это примерно, ну, триллион параметров. У сетки появляется некое собственное, ну,
13:13
нельзя сказать мировоззрение, да, картинка мира, которая со временем должна, в общем, в какое-то мировоззрение потом мигрировать. И она
13:20
начинает делать выводы не на основе тех правил логики или алогичных правил,
13:26
которые используем мы, начинает использовать вот эту свою картинку мира для того, чтобы делать какие-то выводы,
13:32
да? То есть если если есть ээ цепочка рассуждения, да, chain of thoughts, есть
13:38
conclusion, то это означает, что она, в общем, использует, ну, человеческую логику. Но иногда эта логика абсолютно
13:43
нечеловеческая. Она делает совершенно потрясающие выводы, к которым бы человечество никуда не пришло. И сейчас
13:49
это используется на пользу человечества. Люди начали открывать лекарственные препараты, лекарственные формы, которые
13:55
бы, ну, пытались сделать вывод, сколько нужно было бы человечеству двигаться ещё
14:00
для того, чтобы естественным путём набрести каким-то образом на вот такой синтез там, скажем, белков с чтобы мо
14:08
можно было выйти на такое решение, ну, примерно 100 лет. Сетка, ну, в частности, вот альфафолт, который сделал, она сделала это в течение одного
14:15
года. И сейчас идёт целая серия открытия, там, скажем, новых лекарственных форм, новых подходов к
14:20
лечению тех или иных болезней, новые материалы, которые раньше, ну, человечество, очевидно, не могло
14:25
придумать. В этом смысле мы перешли уже тот порог, когда нейросети, ну,
14:31
становятся, в общем, достаточно универсальными в использовании вот в такого рода вещах,
14:38
как скажем так, генерация совершенно нетривиальных подходов к каким-то
14:44
стабильным, считавшимся до ныне нерешаемым проблемам. Вот поэтому это уже действительности дальше. Ну, а что
Герман Греф: «Люди для того и есть, чтобы придумывать себе новые роли»
14:50
тогда человеку-то остаётся? Ну, понимаете, опять мы же мы же мыслим так, ну, вот когда изобрели лопату, ну зачем
14:59
руки нужны? Ну, раньше мы руками всё это дело делали, потом лопаты, да, мы для
15:04
того и люди есть, чтобы придумывать себе новые роли. Совершенно нормально. Просто надо, опять-таки, весь вопрос в том, что
15:11
к этому надо быть готовыми. И когда мы об этом говорим, я, например, об этом стал значительно меньше говорить, потому
15:16
что когда ты об этом говоришь, тебе приписывают ты являешься носителем этого. Да, вот
15:23
лучше об этом не говорить, ээ, и тогда вроде бы как всё просто. Оно случается откуда-то, вот оно и случилось. Всё
15:30
всегда. Самая большая проблема это не не в том, что случилось это или нет. Весь вопрос в том, насколько ты готов к
15:35
этому. Вот если ты к этому более или менее готов, всегда быть готовым невозможно. Как в экономике говорят, что
15:42
кризис всегда приходит позже, чем мы ожидаем и раньше, чем мы к этому готовы.
15:48
Поэтому здесь всё равно мы к этому готовы не будем, оно случится раньше. Но
15:54
тем не менее, во всяком случае, для большого количества людей это позволяет
15:59
не впасть в ступор. Да, человек так устроен, его мышление, оно очень инерционно. Вот этот этап приятия, он
16:06
должен пройти, но у нас он очень сильно затянулся, поэтому нас сейчас весь мир колбасит, то, что называют сейчас
16:11
варварством и так далее, и так далее. Просто мы заигрались и мы пропустили тот момент времени, когда нам нужно было
16:17
вовремя пройти трансформацию. Я в 2000, по-моему, одиннадцатом году на питерском форуме мы организовали большую сессию. Я
Об уходе людей в привычную модель поведения вместо решения проблем
16:24
был модератором. Вот как вы сегодня. Я немножко так провоцировал народ. И вот мне цитаты оттуда до сих пор ходят по
16:30
интернету. Меня обвиняют во всех смертных грехах. Я говорил: «Ребята, как можно спросить вас, как мы будем жить?»
16:37
Мы видим, что вот основа всей организации нашей жизни, которая строилась на симметрии информации, она,
16:44
судя по всему, в ближайшие годы будет разрушена. Все основоположники государственного управления и методов
16:50
государственного управления, на вот Конфуция и дальше они все придумывали, как управлять обществом в условиях,
16:56
когда большое количество людей становятся грамотными. Ответ был таков, что нельзя делать грамотным всё
17:04
население. И поэтому закрывались большие куски образовательные такие вещи, как
17:10
даусизм в Китае или кабал. В еврейской культуре, они были закрытыми. Они тысячами лет это были закрытые учения,
17:18
передавались из уствам виде, что понять мог только посвящённый. Затем Фонгумальд
17:25
взломал эту историю, да, и начал всех образовывать. То, что мы видим сегодня,
17:30
фон Гумбальт ужаснулся бы от того, сколько лет просуществовала его несовершенная идея. Мы же до сих пор
17:37
продолжаем учить также всех и всему. И мы считаем, что ничего не поменялось.
17:43
Вот этот воронка информации сверху вниз через средства массовой информации, она
17:49
давным-давно уже померла, а мы всё ещё живем в этой парадигме. И это не может
17:54
работать. Это очевидно было, что с этим нужно что-то делать. И ответом является
18:01
вот тот популизм, который мы видим в Европе или ужесточение режимов, которые мы видим в целом ряде других стран. Люди
18:07
уходят от решения проблем в привычную модель поведения. Одни начинают очень
18:13
жёстко проводить свою линию, другие начинают подстраиваться под большинство тех людей, от которых, собственно
18:19
говоря, зависит их дальнейшая жизнь, судьба. К сожалению, это это немножко скучно. И это не будет работать в
18:26
будущем. Ни в одном обществе эту тему не не принято обсуждать. На Западе попробую
18:32
пообсуждай, что, вы знаете, наша демократия, она трещит по швам. Вот. Но слава богу, пришёл Трамп, он вдруг издал
18:39
указ о том, что чёрное — это чёрное, белое — это белое. Здорово. Но он один пока. И посмотрим, как далеко он в этом
18:46
зайдёт. Вот поэтому на самом деле это очень серьёзная тема. Просто
18:51
нельзя сравнивать технологию искусственного интеллекта ни с одной и другой технологией. Технологии развивались столетиями, да? А сейчас мы
Герман Греф: «ИИ — технология, которая претендует на роль человека в обществе»
18:58
видим, что за месяцы происходят радикальные скачки. Я утверждаю, что нет такого человека на белом свете, который
19:05
способен адаптироваться такого такой скорости изменения. Мы, которые, собственно говоря, сидим вот на острее
19:11
всего этого дела, мы каждый раз жутко удивляемся, а что получилось? Потому что же получилось не то, что мы ожидали, а
19:17
как всем остальным людям. На самом деле это первое скорость изменения. Второе, конечно, ни одна технология до этого не
19:24
ставила задачу хакнуть человека. Искусственный интеллект такую задачу перед собой ставил или люди, развивающие
19:31
искусственный интеллект, в общем, как мы видим, добились в этом огромных успехов. Поэтому та ситуация, с которой мы
19:36
сталкиваемся сегодня, она говорят: «Ну, слушайте, мы пережили и вон и паровоз, и
19:43
Эдисоны, и так далее, и так далее. И здесь переживём». Ну, наверное, так оно и будет. Просто есть люди, которые за это отвечают. Они так рассуждать не
19:49
должны, потому что очень много отличий от того, что делал Эдисон, э, и еже с
19:55
ним. Очень сильно поменя поменялись обстоятельства, да, технология, которая претендует на роль человека в обществе и
20:02
технология, которая сама себя развивает с помощью человека, конечно, с такой скоростью, что человек не успевает к этому адаптироваться. Даже тот человек,
20:08
который, собственно говоря, всё это производит. И это другие обстоятельства. Не надо говорить, что это страшилки
20:15
какие-то и так далее, и так далее. Просто это факт. Дальше вопрос, как мы на это ответим? И отвечать надо в первую
20:22
очередь на это в области образования, как обычно. И, допустим, китайцы
20:28
совершенно спокойны, без всякой политики, без ничего, они тотально перестраивают систему образования. Мы
20:34
тотально всё начинаем запрещать. То есть мы сейчас не только искусственный интеллект, мы говорим вообще цифровизацию вон из школы на о’кей, всё,
20:41
что угодно можно вон. От этого она из нашей жизни вон не уйдёт. Вот какая
20:47
простая формула. Поэтому, конечно же, это то, что надо обсуждать. Здесь
20:53
ничего страшного нет. На самом деле технология искусственного интеллекта даст гигантское количество возможностей
Герман Греф: «ИИ даст гигантское количество возможностей человеку»
20:59
человеку, если он научится это использовать. Если он зажмётся, испугается или то общество, которое
21:04
зажмётся или испугается, или та организация, которая испугается, она проиграет. Скорость ээ её внедрения тоже
21:13
поражает. Если раньше можно было там посидеть и подождать, сегодня уже никому не отсидеться в сторонке. По поводу
21:20
тайных учений я сказал о том, что я двумя руками, я не
21:26
каббалист и недоос. И я за то, чтобы как раз обучать
21:33
детей, а не запрещать. Или как-то мне приписывают, что я сказал, что никого ничему учить нельзя. Так будет проще
21:39
народом управлять. Этот этот поезд уже ушёл. Можно никого ничему не учить, но слава богу вот есть всё здесь. И сейчас
21:46
дети здесь учатся. И учатся на самом деле зачастую значительно качественнее,
21:51
чем физическое посещение школ. Маленькая проблема, что они не социализируются здесь. Вот это беда. Поэтому нам, на мой
21:58
взгляд, физическая школа или там он оффлайновая школа, она обязательно
22:03
нужна. И нужна фигура учителя. Просто критически нужна. Может быть, значительно более больше нужна, чем
22:09
раньше. же без социализации. Кто мы? Фигура учителя, я подхватываю последнюю
Александр Асмолов о драме сегодняшних учителей
22:16
фразу, действительно нужна. Сегодня ключевая, продолжая логику ускорения,
22:23
драма учителей и драма воспитателей детских садов — это драма отставания от
22:30
детей. По сути дела, сегодня дети так или иначе идут совершенно другими путями
22:37
и способами для постижения мира. И в этом смысле сегодня мы оказались в той
22:42
ситуации, когда дети говорят: «А вы никогда не ожили в этом мире, а вы сами
22:48
вляпались во все сложности». Вот поднимается вопрос: что будет с человеком? Какие дети и какие для них
22:56
должны быть учителя? Мы должны создавать такие модели образования, в которых мы
23:04
опережаем, не адаптируемся, а конструируем другие миры. Аристотель предложил формальные логики, и эти
23:12
логики стали основой разма, как бы мы не изменялись. Но есть и куча других логик.
Александр Асмолов о формах разума и роли образования
23:21
Если бы кто-то попросил знаменитого Левшу составить бизнес-план по подковке
23:28
блахи, он никогда бы его не подковал. Есть огромное количество иных видов
23:35
разма, которые и не снились разработчикам искусственного интеллекта.
23:40
Есть принцип, который для меня важнее всего под ту сторону адаптации, когда мы
23:47
не из прошлого опыта, а из действий с миром выводим то, что никогда не было.
23:54
Мы всегда оказываемся в мире, в котором никогда и здесь из прошлого опыта вы
23:59
ничего. А весь искусственный интеллект, даже создавая уникальные новые уровни
24:06
эмержентности, не работает и не меняет так тот мир, в котором он существует. И
24:13
в данном случае давайте искать, давайте вспоминать и делать образование, где
24:19
ребёнок может сказать, и уже он это говорит о себе с удивлением, с
24:25
неожиданностью: «А это Пушкин, а это Сукин сын. и удивляться самому себе.
24:32
Поэтому за образованием главное. Совсем недавно, как вы помните, человек по
24:38
фамилии Маска, он ещё не был политическим лидером настолько, сказал, что надо приостановить или как, ну, в
24:45
общем, замедлить разработки интеллекта. И действительно, этика, боль, что он
24:51
будет с нами делать? И другой странный человек, лингвист, которого иногда
24:56
называют Эйнштейном XX века по имени Хомский, ответил по-другому: «Я не
25:03
подпишу декларацию с маскам и другими. А почему?» Спросили его. Да я её не пишу,
25:09
потому что не там ищу. «Надо искать в образовании», — сказал он. Надо искать в
25:17
создании критического мышления. Надо искать в развитии воображения. И только
25:23
тогда мы найдём те ходы, когда действительно будем коэволюция человека
25:30
и искусственного интеллекта. Извините, я слишком возбудился. Вы меня возбудили.
25:38
[аплодисменты] Спасибо большое. У меня, наверное, послед надеюсь не только вас.
25:45
Давайте вопросы, которые есть в зале. Кто жень? Вопрос глобальный такой. Что
Евгений Водолазкин о будущем и ИИ
25:52
мы можем сказать о будущем и насколько это необходимо? Необходимо. Оно придёт своё таким, как мы. А мы сравним потом с
26:00
тем, что мы говорили. И в этом смысле это очень полезно. И ээ интеллект
26:06
искусственный, как Пила Пугачёв, всё он может, всё он может. А вот этого, вот этого никак. Чего он не может? он не
26:14
может всё-таки ээ отличить пока юмор от
26:19
неюмора. Он не может понять, почему смеяться нужно в том или ином месте, потому что он основан на логике, а не на
26:29
чувстве. Чувств у него нет и не может быть. Это действительно так. И вот наш с
26:38
Александром Геровичем любимый Александр Галич. У него есть песня, где звучит
26:45
фраза: «С добрым утром, бах», — говорит Бог. С добрым утром, Бог говорит бах. И
26:52
вот это то, чего Бог никогда не скажет машине. С добрым утром. Спасибо.
27:04
Спасибо большое, Жень. Получается, что вот этот вот как раз старая дилемма
Тренд 2024 года — эмоциональный ИИ
27:11
между рацио и эмоциями, невоспроизводимые искусственно
27:17
человеческая доброта, например, являются, насколько они являются прогрессом тем, что Да, ну,
27:25
ерунда полная. Это самое простое, что воспроизводится. Доброта — это имитация. Ну, слушайте,
27:31
ну, ну, давайте разберёмся, а что человек, что человек он имитирует или воспроизводит. Какая разница, он
27:37
имитирует или и воспроизводит он либо либо ангел, либо дьявол, да?
27:43
Поэтому пусть пусть дьявол в глубоко в душе очень добр, но творит дьявольские
27:50
дела, тогда сущность у него дьявольская. И наоборот, неважно, кто там в душе человек, если он добрые дела делает, так
27:57
мы его называем добрым. Это немножко не из этой серии. Если весь этот процесс, можно так назвать, вот если мы вовремя
28:02
не адаптируемся, что получится, что руками прогрессистов мы выселим дорогу в
28:09
ад. Это правда. Именно поэтому надо всё-таки немножко думать о том, куда мы
28:15
идём, зачем мы идём. Эмоции человека, вот это вот всё, это придуманная история. Сегодня искусственный
28:20
интеллект, я имею в виду, что что это то, чего искусственный интеллект не может и никогда не сможет. Он совершенно
28:27
спокойно это делает уже. И сегодня один из трендов двадцать четвёртого года был
28:32
это эмоциональный искусственный интеллект. Ээ пока с чем ещё не очень хорошо искусственный интеллект
28:37
справляется, это с распознаванием сарказма. Вот это ещё пока и то, и то
28:43
это такая история уже если чувство юмора. Слушайте, да легко. У него такая
28:50
база знаний, зная тип вашей личности, он вас так рассмеши, что Comedy Club
28:57
отдыхает. Ещё раз, это не вопрос, это вопрос просто техники. Это всё будет сделано. Я
29:04
вообще не понимаю, зачем это обсуждать. А вот сможет он это вот сможет, он всё сможет. Всё. Вот плотина рухнула. Я не
29:12
вижу сегодня, честно сказать. А что тогда можем мы больше, чем то, что не можем? Что мы можем опече? Слушайте, ну,
29:19
ну вы же не вы умеете бежать впереди вашей машины. Вот вы сейчас из точки А в точку Б доезжаете
29:27
в пять раз быстрее или в 10 раз быстрее, чем ваши предки на какой-то повозки, да,
29:33
или ходили пешком, но у вас высвободилось огромное количество времени. Вот вы новый дом организовали,
29:39
а так бы вы ехали ещё из вашего загородного дома вообще контрпродуктивно рассуждать
Герман Греф о колоссальных возможностях ИИ
29:47
на тему того, чего он там сможет делать, чего он там не сможет. Он всё сможет делать. Угу. Более того, мы сейчас
29:54
видим, что мы вот мы не занимались работотехникой, ну, имеется в виду антропомощной работотехникой. Сейчас
30:01
очевидно, что тот уровень искусственного интеллекта, который мы имеем сегодня,
30:06
первые, он даст быстрое решение проблем технических, и второе, он даст систему
30:12
автономности, будет сумасшедший прорыв. Наша физическая активность тоже перестанет быть уникальным качеством для
30:18
нас. Почему антропоморфный роботы? Потому что мы весь мир сделали под себя. о двух ногах, о двух руках. Ну, ещё
30:25
можно сделать собачек, потому что мы их очень любим. И кое-что тоже для них сделали ещё с кошечками. Поэтому будут ещё четвероногие роботы. Но это это всё
30:33
будет. Неважно когда, 3 года, 5 лет, значения не имеет. Это не означает, что
30:39
в этом мире нам места не будет. Нам просто-напросто нужно эволюционировать как раз и
30:46
творить, ну, значительно более прекрасный мир. Чем меньше мы будем впадать в позицию жертвы, где бы ещё
30:53
найти что-нибудь там такое, чего бы нам осталось? Да не надо ничего искать, чего бы осталось. Нужно думать, как с помощью
31:00
этой машины мы что-то сделаем принципиально другое. Как мы в конце концов уйдём из позиции той, которую
31:06
сейчас обсуждали, да, что круче там, чем кто-то и так далее, и так далее. Мы перейдём, наконец, на пятый уровень культуры, который человеку генерит
31:13
состояние гармонии, когда он перестанет быть круче, чем кто-то, круче, чем робот, не знаю, чем кошечка, чем собачка
31:19
или или чем другой человек, а он будет использовать эту самую силу этого
31:24
собственного же изобретения для того, чтобы делать мир лучше. Ну нет никакой гарантии, что это произойдёт сразу же.
31:30
Тоже так же, как нам когда-то сегодня нам не приходится охотиться там неделями, ээ не потребляя
31:38
пищу, да. добывая себе какое-то пропитание. Поэтому мы все имеем признаки ожирения. Ну или почти все. Вот
31:45
Александрвич, нет. А их мечтаю же имейки. Ну мы вам завидуем все.
Чему нужно учить детей?
31:51
Вот. Но тем не менее на самом деле это серьёзная серьёзная вещь. К чему нужно
31:57
учить в том числе детей? Если мы понимаем, что детям уже не нужно будет разводить костёр, какой смысл нам давать
32:04
тратить, во всяком случае, на эти навыки, ненужные навыки. большое количество времени. Нам нужно им давать
32:10
то, с чем они точно в этой жизни столкнутся. И это, собственно, самый главный посыл. А мы пытаемся детей учить
32:17
разводить костёр. Они приходят потом, в конце концов приходят на работу. Что ты умеешь делать после вуза? Я умею
32:24
разводить костёр. Он говорит: «Супер, но у меня и зажигалка». Так что вы начинаете делать? Открывать корпоративные университеты и так далее,
32:31
и так далее, да? И всё начинается с нуля. И как бы его МГУ не испортил, то есть нет такого испорченного МГУ
32:38
студента, которому нельзя было бы научить специальности, чем мы и занимаемся. Они
32:43
всё менее и менее подготовленными приходят к нам, а то, кто нам нужен, такой специальности в вузах даже нет,
32:49
потому что вузы настолько опаздывают, что они по нашему вчерашнему запросу готовят тех, кто нам уже сегодня не
32:55
нужен. В этом проблема. Поэтому мне кажется, что, ну, надо, надо просто-напросто всем осознать ту
33:01
реальную действительность, в которой мы находимся, и ту динамику, в которой мы находимся. Чем быстрее мы это осознаем,
33:07
и те, кто осознают, им будет приятно жить, потому что они смогут использовать
33:12
вот эти все страхи себе на пользу. Но те, кто те, кому более
33:18
симпатична роль жертвы, welcome. Тогда плакать не надо.
Александр Асмолов о трёх великих конфликтологах и депрессиях
33:28
Я просто хочу в данном случае, продолжая сказать, каждый раз, когда мы говорим,
33:34
строим логику, что вот появляется новая технология, мы с ней в конфликте, кого
33:41
мы должны за это поблагодарить? Три конфликтолога заложили понимание
33:46
эволюции и их имена: Дарвин, Маркс и Фрейд. Только конфликт движет миром. Мы
33:54
не только влюблены в конфликт и новую технологию принимаем как оппонента и
33:59
врага. По поводу психологов меня недавно спросили: верите ли вы, что отпадёт
34:05
необходимость психологов, когда придёт искусственный интеллект? Я ласковой улыбнулся,
34:11
поглядел вокруг и думал: «Господи, депрессии всё растут и растут. Мы без
34:17
работы не останемся». Вот, кстати, у нашего медицинского искусственного интеллекта самая
34:24
востребованная функция — это как раз психолог. Психологическая помощь точно будет востребована. Вот психологи
34:30
большой вопрос. Да, у меня сразу появилось
34:39
вдохновение и надежда на будущее. После этих слов я почувствовал, насколько мы
Александр Асмолов: «Солидарность, взаимопомощь — двигатели эволюции»
34:45
будем с вами востребованы и сильны. На самом деле я про другою. Главное понять,
34:52
не оказываться в этой матрице, что только конфликт движет миру. И то, что вы говорили, солидарность, взаимопомощь
35:00
это двигатель эволюции. Ведь искусственный интеллект невероятно силёный. Мы с ним начинаем работать как
35:08
с кем? Как если мы смотрим на него по теории конфликта, что он против нас,
35:15
делаем заговор, наш чёрные как боты, машины, пока мы точно проиграем.
35:21
Скажите, пожалуйста, нескромный вопрос. У кого в нашей замечательной аудитории
35:27
есть живые питомцы? Поднимите руку, пожалуйста. Слушайте, как это здорово.
35:34
Искусственный интеллект, наш талантливый питомец. И в этом смысле мы с ним
35:40
научимся общаться. Мы научимся обожать наших питомцев. Только увидьте в них не
35:48
злодеев, а живите с ними взаимопомощи в си, в буквальном сы уникальном симбиозе.
35:55
Будущее за симбиотическими диарадами. Спасибо. А можно,
36:02
ээ, можно задать вопрос, ээ, у у кого из аудитории, ээ, случались, ээ,
36:11
ээ, конфликты с другими людьми? Александрович, ну, больше, ещё
36:17
больше. Тогда ещё вопрос, Ге. Иначе прогноз, ну, ё-моё. Нет, слушайте, кто в
36:25
аудитории? Вы все пришли сюда. Мой любимый вопрос про преадаптацию, как
36:31
тест на эмержентность каждого из вас. Кто в вашей жизни здесь конфликтные? Вы
36:38
мои хоть раз слышал от других. А тебе что, больше всех надо? Поднимите руки,
36:46
пожалуйста, ещё больше, чем с конфликтами. Э, Савич, вы не дослушали мою мысль,
36:54
потому что искусственный интеллект уже давно не кошечка, не собачка, он уже другой
37:01
человек. Поэтому проблема э-то заключается в том, как бы мы не предпочли общение с ним общению со своей
37:07
второй половинкой, например, особенно после конфликта.
37:13
У кого-то ещё Сансач, а там был выше вопрос, верне кого-то.
Про отношения ИИ и человека в 2035 году
37:19
Да. Меня зовут Дарья, IT-компания Dominлен. И у меня такой вопрос, вот, продолжая тему будущего, каким вы видите
37:27
отношения человека и искусственного интеллекта в 2035 году? Да, слушайте, я
37:33
ничего не вижу. Если кому-то кажется, что я знаю больше, чем вы, это только видимость.
37:41
Просто какая фантазия. Давай, да ну, слушайте, кому это интересна фантазия, они всё равно не сбудутся. Эдисон
37:49
изобрёл ээ возможность транскрибации или записи человеческой речи. Он сказал, что
37:56
никогда это не будет инструментом воспроизведения речи. И он глубоко ошибался, потому что самые главные
38:03
прорывы случились как раз на в этой части. Это, может быть, никому бы и не нужно было, если бы вторая часть не
38:09
случилась. Ну, слушайте, можно приводить огромное количество примеров, когда люди, которые гениальные люди, которые
38:15
изобретали какие-то технологии, они совершенно допустили совершеннейшие провалы даже в том, как их детище будет
38:23
использовано людьми. Тогда удел использования технологий, любой
38:28
технологии был уделом тысяч людей, а сегодня любая технология уже, ну, можно
38:34
сказать, это миллиарды людей. Помимо того, что скорость развития технологий такая, ещё скорость имплементации
38:40
колоссальная. И очень редко бывает так, что те, кто придумал, они же и первые в
38:47
имплементации. Поэтому чего будет в тридцать пятом году? Это сейчас немыслимый срок. Я не знаю, что в
38:52
следующем году будет. Я знаю, сколько релизов у нас будет нашей нейронной сети
38:57
Гигачат. У нас в этом году пять релизов запланировано таких крупных релизов. И мы себе представляем, какие способности
39:04
у неё будут. Но причём я думаю, что начиная с конца третьего квартала мы очень сильно ошибаемся в прогнозе того,
39:10
чего она будет уметь. Вот поэтому, ну, слушайте, когда у нас такой горизонт планирования, способность предсказывать
39:15
будущее, как известно, ээ стремится к нулю. Я бы выглядел бы полным глупцом,
39:21
если бы я сейчас взялся за предсказание, я не знаю, каким будет искусственный интеллект, я не знаю, каким будет
39:27
человек в тридцать пятом году. Ну, человек проще предсказать, наверное. Кем будет человеческое общество, невозможно
39:33
предсказать за 10 лет. Мы в прошлом году утверждали нашу стратегию на 3 года.
39:38
Казалось бы, мы так очень сильно пофантазировали, но мы видим, что всё реальность опережает даже наши самые
39:46
смелые фантазии. Мы заглядывали, мы пытались заглянуть как раз в тридцать пятый год. Ну, это абсолютно для такое
39:54
занятие для тренировки ума. Раньше можно было на бирже предсказывать цены на
39:59
пшеницу на следующие 50 лет и строить бизнес-планы. Сегодня что мы можем сказать? Какой будет курс доллара или
40:05
курс рубля? Господи, я говорю, вы знаете, какой будет цена на нефть? Никто не может сказать. А цена на металлы? Ну
40:12
и так далее. Это производные нашего курса рубля. Какое количество санкций ещё примут и так далее, и так далее.
40:18
Этого никто не может сказать сегодня. Вот поэтому надо людям, мне кажется, определить тот спектр факторов, на
40:25
которые ты можешь оказать влияние, и в первую очередь прикладывать руку к ним. Потому что мы зачастую тратим огромное
40:32
количество нервной, психической, физической энергии ээ на то, чего от нас
40:38
вообще не зависит. И в результате мы растрачиваем
40:44
свою жизнь попусту. Последние годы много внимания уделяем именно этому. Что является причиной витальности человека?
40:51
Это наличие у него соответствующей цели. Почему позиция жертвы так ко контрпродуктивна? Потому что ты всё
40:57
время зависишь от каких-то внешних обстоятельств. А в тридцать пятом году кто-то там сказал, что что-то будет не
Герман Греф: «Целеполагание — главный драйвер человека»
41:03
так. Ну мало ли кто там что сказал. Целеполагание у каждого человека — это главное главный его драйвер. Если ты
41:11
максимизируешь свой результат, то вполне вероятно, что ты, возможно, создаёшь
41:16
какой-то тренд. У меня философия такова, что нужно делать в плоскости своего
41:22
влияния максимально амбициозно ставить перед собой задачки и стараться их
41:27
достигать. При этом весь фон, который от тебя не зависит, он должен быть изучен
41:33
как предмет такой дисциплины, которую уже упоминал риск-менеджмент, потому что всё это либо риски, либо возможности в
41:39
достижении тобой цели. Ну ни больше, ни меньше, но на это совершенно бессмысленно тратить свою энергию. Ну я
41:45
даже думать на эти на эту тему не хочу, потому что у меня есть над чем думать. Мне не хватает времени для того, чтобы
Александр Асмолов про диагноз современного человека и культуру достоинства
41:51
осмыслить то, что происходит в моей сфере. Спасибо. [аплодисменты]
41:56
Знаете, что вот в ответ на этот вопрос Герман Увич очень чётко выразил одну
42:03
позицию. Невероятно трудно работать Кассандрами даже на полставке. И все мы
42:09
знаем судьбу Касандр. Я вот не думаю, что будет с искусственным интеллектом в
42:15
тридцать пятом году. Я думаю о целе образования и думаю о том, каким и
42:21
мотивы образования, каким будет человек. Диагноз человека нашего времени звучит
42:27
часто очень так: психически здоров, личностно болен. Мне очень хочется,
42:34
чтобы в тридцать пятом году и для этого сделать человек жил в культуре достоинства, а не культуре, где тебя
42:42
мерят, в культуре полезности. Вот если это произойдёт, но это моя вера. Да,
Александр Аузан про необходимость поставить целостность человека в центр всего
42:49
спасибо, Санца Саныч, отдели, дорогой мой Германоскич, не мной была
42:56
придумана прекрасная фраза. Профессор, конечно, лопух, но передатчик
43:02
при нём. Собственно, а что мы в МГУ делаем, Саша? Мы
43:08
пытаемся, работая с тремя очень талантливыми молодыми ребятами, найти
43:14
вот эту комбинацию взаимодействия с искусственным интеллектом. Причём, вы знаете, что у нас произошло? Идут такие
43:22
научные семинары: просто с ума сойти. И я могу сказать, что первоначальная наша позиция была, Вероника, как у вас, что
43:30
надо найти, в чём обогнать? В чём мы их обгоним? Мы уже практически нашли три
43:35
вещи. Значит, во-первых, интуиция, конечно, догадливость, потому что есть
43:41
короткий путь к истине. Он нерациональный, он какой другой. И
43:46
догадливость можно развивать. А профессорам оппонировать можно? Можно. Но после завершения речи профессора, да.
43:55
Второе, эмпатия, потому что, да, человек живёт в социальных
44:01
взаимодействиях, а искусственный интеллект не является продуктом эволюции, не породил эмпатию. И третье —
44:09
это воображение. Так вот, когда мы к этому пришли, мы потом, Герман
44:15
Оскаривич, в тяжёлых обсуждениях пришли ровно к такой постановке. Если мы будем
44:20
в эффективности конкурировать с искусственным интеллектом, то мы превратимся в инструменты искусственного
44:27
интеллекта. Нужно к матерям собачьим сменить постановку задачи и поставить
44:33
себя и свою целостность в центре всего. И в связи с этим будущее мы можем не то
44:41
чтобы предсказывать, но я бы сказал воздействовать на него. Через что?
44:48
Будущее состоит из двух вещей. Из обстоятельств, которые нам очень трудно предсказать, но это не означает, что
44:54
нельзя. Но в целом не не в этом даже наша сила. А наша сила в том, что у нас
44:59
есть цели, что будущее — это воплощение некоторых наших целей и желаний. Вот
45:05
этим надо заниматься. И наша с вами стратегия, дорогой Германовский, имею в виду Сбер.
45:12
У нас что, цели поменялись? Нет, у нас несколько поменялись
45:17
обстоятельства, значит, будем корректировать методы действий, не
45:23
меняя, на мой взгляд, те цели, которые мы, так, я бы сказал, сладко
45:29
вырабатывали в прошедшее время. Спасибо вам, уважаемые друзья и коллеги. Теперь,
45:35
Гервносквич, я готов. Можно бросить меня камеру. Спасибо.
45:41
Только микрофон. Сансанч директор у меня независимый Герё
45:47
независимый. Причём вот что редко сегодня бывает. Независимый вот и в
Герман Греф: «Нет такой сферы человеческой жизни, которую ИИ не взорвёт»
45:54
прямом, и в переносном. Что что первое было-то? Интуиция. А интуиция. Господи, про интуицию забудьте
46:01
вообще. Ваш ваш брат, который Нобелевскую премию получил и основал бихеверийскую экономику, он чётко
46:07
описал, что это такое. Да. Ну вот это он может делать точно лучше нас, только мы можем это делать подсознательно, а он
46:12
это делает вот так вот. Ещё раз это я ээ если вы этот поезд закончили, я вас
46:18
тогда я полностью с вами согласен. Да, бессмысленно совершенно. Это уже данность это есть
46:24
вот то, чего будет в тридцать пятом или в тридцатом, ну, в общем, не имеет
46:30
значения. Ээ будет generaltigence. В какой конфигурации мы
46:37
никто до конца не понимает. Я думаю, что ещё вся конфигурация сильно изменится.
46:42
Open AI, да, со своим чатом чатом GPT вдруг откуда-то взялся Deeps китайский.
46:49
Примерно в 100 раз дешевле и сопоставимые результаты по целоряду по целому ряду вещей значительно более
46:55
продвинутые. И и так будет каждый день. По трансформеро вдруг оказалось, что она
47:00
может так искусно врать, что мама родная отличить не может. Да. То есть появилось
47:05
понятие галлюцинации. Дальше появились цепочки рассуждения, да, обучение с
47:11
подкреплением с человеческим. После этого появились эпоs, а сегодня появились
47:17
агенты. Ну, ну кто мог себе представить, даже в 2022 году, хотя это кажется вообще в конце двадцать второго года у
47:24
нас появились первые реальные результаты у обученных на базе ЛМ моделей, чему-то
47:31
похожиму на человеческую совместимость, да, с точки зрения совместимости с человеческим интеллектом. За 2 года произошёл такой
47:38
скачок, но никто не мог себе представить такого скачка. И к концу этого года мы
47:43
сделали первых агентов. Примерно ээ релевантность ээ была порядка 20%. Через
47:50
3 недели 30%, ещё через месяц 40%. Колоссальный прогресс. И если раньше, я
47:57
помню, я там разговаривал с многими людьми и говорил с руководством страны и
48:03
говорил, что вот, вы знаете, искусственный интеллект, похоже, будет проектом по влиянию на человечество,
48:09
похожим на проект ядерная бомба. Вот сегодня для меня
48:14
очевидно, что это проект, который ни с чем сравнивать абсолютно некорректно, потому что нет нет такой сферы
48:21
человеческой жизни, которую бы которую он не взорвёт в позитивном смысле этого слова. В смысле дизрапт? 80% открытий в 2024
48:30
году, 80% научных открытий с помощью искусственного интеллекта. Честно сказать, искусственный интеллект пока
48:36
находится на уровне такого беби, если смотреть генерально на развитие
48:42
технологий. И он уже совершает такие прорывы. Что будет в тридцать пятом году? будут радикальные изменения всего
48:50
вот всего нашего быта, нашего общественного устройства, всего того,
Герман Греф про наступление времени инвестиций в самих себя
48:55
что мы делаем сегодня на работе. И здесь вопрос дальше: вы оптимист или пессимист? Мне кажется, что самое
49:01
главное время, которое сейчас наступило для человечества — это возможность
49:06
инвестиции в самих себя, то есть в образование, в познание своей психики, в познание сво возможности своего
49:13
интеллекта. И самое главное с пониманием того, что тебя мотивирует, что чего ты
49:18
хочешь. Целеполагание и мотивация. И если мы вот в это вложим серьёзные
49:24
усилия, в том числе с помощью искусственного интеллекта, поможем человечеству ставить какие-то цели, мы
49:30
провели опрос наших клиентов. 80% не ставят цели вообще. 20%, которые ставят
49:36
цели, целями назвать тяжело. Вот мы анализировали результаты опроса, но цель такая, например, купить дачу или купить
49:41
машину или купить квартиру. Ну или там поехать летом куда-нибудь тёплому море
49:46
или ещё что-то такое. Но это не цели тоже. И мне кажется, вот здесь вот лежит
49:53
огромная возможность для всех, для нас. Первое, видя эти гэпы, мы можем сделать огромные
50:00
прорывы как минимум в образовании наших детей, дать им то, что называется
50:06
мягкими навыками. Мы вместе с нашими замечательными партнёрами компании Яндекс, помню, потратили кучу времени.
50:12
Мы когда утверждали стандарты, мы вписали туда мягкие навыки, много
50:18
потратили времени, чтобы там описать, что это за навыки и цифровые навыки. Вот прошло, боюсь, по-моему, 4 года.
Про отсутствие системы преподавания мягких навыков
50:26
Прогресс ноль. 85% успеха э человека в
50:31
жизни — это мягкие навыки. Если спросить, в том числе, присутствующим в этом зале, что такое мягкие навыки, мы
50:36
получим такое количество ответов. И в подавляющем большинстве, боюсь, они не будут иметь ничего общего с реальным их
50:44
наполнением. Вот вот эта проблема, вот это то, над чем нужно работать. Мы думаем о том, каким будет искусственный
50:49
интеллект в 2035 году и как мы будем жить там. Давайте подумаем, как сегодня мы ээ что мы делаем в системе
50:56
образования, как мы учим учителей, которые должны учить наших детей. И ни в одном вузе, ни в одном вузе, ни в МГУ,
51:03
ни даже в высшей школе, школе экономики нет преподавания, системного преподавания, мягких навыков. Вот это
51:10
проблема. Так же, кстати говоря, как цифровых навыков. Александру Григорьевичу надо уходить. У него как
51:17
раз сегодня такой специальный день за вручением премии. Хочу поблагодарить
51:23
Александру Григорьевичу. Мы можем продолжить. Вопросы ещё есть. Спасибо большое.
51:29
[аплодисменты]
Про опасность неконтролируемого развития ИИ
51:43
Добрый вечер. Юрий Крымовский, ээ, нефтегазндустрии. Почему вот в
51:49
сегодняшней дискуссии во всей не прозвучал один очень важный аспект от применения, от возникновения новой
51:56
технологии искусственного интеллекта? Вот Германовскоч очень правильно вот в последних, так сказать, своих репликах
52:01
вдруг вспомнил, что это чем-то напоминает создание ядерной бомбы. На самом деле искусственный интеллект — это
52:07
ведь и оружие, и мы это прекрасно все здесь сидящие понимаем. Создание его возможно просто в подвале, э-э, с
52:15
хорошим, так сказать, техническим оснащением и десятью умными ребятами. По опасности своей оно ничуть не меньше,
52:22
чем, например, ядерное. Не пора ли, наконец международной общественности заключить какие-то, так сказать, уже
52:29
соответствующие соглашения об ограничении, о наблюдении, о контроле за
52:34
развитием вот этой технологии? Спасибо большое. Вы правы, об этом надо говорить и об этом много говорится. Слава богу,
52:40
пока шесть человек в подвале ничего сделать не могут, но вполне вероятно, что к этому придём. Просто фундаментальные модели, они требуют
52:48
очень высокого уроня квалификации, много-много денег, вычислительных ресурсов, в частности. Фундаментальные
52:53
модели есть в количестве стран, которые можно перечислить в по пальцам, ну, на
52:58
двух руках точно. И фундаментальные модели, которые используют в том числе недоброжелатели, всё-таки они имеют
53:05
огромное количество ограничений. Если взять бесцензурную, любую крупную нейронную сеть, то она, конечно, знает
53:12
всё: от рецепта ядерной бомбы до любого там вида химического и прочего вооружения и так далее, и так далее.
53:18
Сегодня уже очевидно, что этот этап прошли. В разных странах он регулируется
53:24
по-разному. Допустим, в Китае они ввели государственное лицензирование. Китай пошёл по пути, скажем так,
53:30
государственной сертификации, что сильно замедляет процесс, но тем не менее у них там так-то работает. В Америке есть
53:36
самоограничения. У нас в стране тоже мы с Яндексом подписали соглашение этичном искусственном интеллекте. Государство
53:43
держит руку на пульсе. И уже не было несколько попыток ввести соответствующее тоже государственное регулирование. Мы
53:49
очень просим этого не делать, потому что в наших условиях любое государственное регулирование, когда тут, я уже говорил, прогресс измеряется неделями, если мы
53:56
будем годами сидеть, что-то там сертифицировать, то, ну, можно сразу же бросать процесс, мы будем
54:02
неконкурентоспособны априори. Но когда у тебя два производителя в стране, да, и они известны, это крупные компании, то,
54:09
в принципе, можно, наверное, пойти вот по пути такому более мягкому. Поэтому нельзя сказать, что этим никто не
54:15
занимается. Этим занимаются. И, конечно же, есть, ээ, скажем так, неформальный
54:21
обмен, если мы видим, что злодеи используют, скажем, тот же самый Чарпи,
54:26
используя какие-то его уязвимости, а мы Сбера является самой атакуемой со
54:32
стороны вот этих всех ребят компании в мире. Если мы видим, что используются какие-то уязвимости системы, мы
54:38
обязательно сообщаем в Opi, и они закрывают это. То есть такой неформальный обмен, трафик есть, и вы
54:45
абсолютно правы. Мы мы должны заниматься анализом рисков. Это к этому надо
54:51
относиться предельно серьёзно. Опять-таки, слава богу, мы в состоянии сотворить любые барьеры для вот этих
54:57
самых шестерых ребят из подвала. Как долго это будет продолжаться, я не знаю, потому что есть openсоourсные модели. И
55:03
вот это пока не решённые вопросы. Сегодня те, кто проигрывает конкуренцию, ну, в частности, Facebook, там есть
55:09
такая модельма, они проигрывают. Пока весь проигрыш, ээ, не исчисляется
55:15
годами, конечно, это всегда очень короткий период времени, но тем не менее сегодня в этом виде спорта там доля
55:20
секунды — это это очень большой отрезок времени. Они выкладывают open source, и
55:25
open source могут использовать все, да? И тогда дальше квалификационный вход,
55:31
барьер входа на рынок падает в части интеллекта человека. Ано работает
55:36
второй. Это нужны очень мощные дата-центры. Причём определённая
55:42
конфигурация для того, чтобы можно было эти модели эффективно обучать. Пока от такого решения какого-то общего
55:49
человечества не выработала, но я вам хочу сказать, что и по более важным проблемам текущего времени мы пока не
55:54
научились договариваться, поэтому это не исключение. Но конкуренция в право абсолютно вооружение. Но мы видим
56:00
сегодняшнюю войну. Как только эта война станет автономной, а искусственный интеллект придаст ей автономность, это
56:07
будет совершенно другая война. Это то же самое касается безопасности. То же самое касается охраны общественного порядка,
Россия в числе пятёрки лидеров по развитию технологий ИИ
56:13
интеллектуальная деятельность. Те возможности, которые дают сегодня технологии переизобретать то, что мы
56:20
делаем, это потрясающе интересно. Слава богу, мы как страна не на последнем месте здесь. Мы в числе лидеров, там мы
56:26
не на первом месте и вряд ли будем на первом месте, увы. Но то, что мы можем быть в числе пятёрки лидеров в мире, не
56:33
так много сфер, где мы обладаем таким ресурсом. Это точно. Поэтому важно его
56:38
не потерять и важно его использовать. Важно, чтобы бизнес это вовремя осознал. Важно, чтобы там, не знаю, руководители
56:45
наших учреждений, там, университетов, если не будет системы образования, если не будет продвинутых детских садов,
56:52
китайцы с детских садов не создали учебники по искусственному интеллекту, начиная с 5 лет. Каждый школьник в
56:59
Китае, последний учебник для одиннадцатого класса у них называется Python. То есть 100%
57:05
школьников будут выходить питанистами. Вот как с этим соревноваться? А у нас
57:10
вот мы всё ещё объясняем, говорим о том, что вы знаете, ребята, информатизация, которую вы преподаёте в школе, она уже
57:17
никому не нужна. Это устарелый, никому не нужный предмет. Нужны, мы их назвали условно digital skills. Это абсолютно
57:24
другой набор навыков и знаний, которые нужно детям давать. Но этом мы, к сожалению, эту штуку не пробили. Вот
57:31
поэтому вот я всех призываю перестать бояться этого, а быстрее это использовать.
57:39
Спасибо большое. Наверное, сегодня, а, вот прозвучал интересный, что будущее
57:45
зависит от нас самих. Ещё одна вещь, которую сказал Германо Оскарович, о том,
57:51
что нам должно быть интересно жить. Вот пока нам интересно жить, пока нам
57:57
хочется что-то делать, пока у нас есть мотивация и желание подняться на пятый
58:04
уровень культурного развития, у нас есть
58:09
жизнь. Спасибо вам большое. До новых встреч. Спасибо.
58:20
[музыка]

