МОЗГ ПРОТИВ НЕЙРОСЕТЕЙ. КТО УМНЕЕ? Семихатов, Сурдин, Марков

Искусственный интеллект решает задачи лучше или хуже мозга? Способен ли он думать как мы? И возможно ли восстание нейросетей? Обсуждают физик Алексей Семихатов, астроном Владимир Сурдин и директор по развитию технологий ИИ в Сбере Сергей Марков.

*https://www.youtube.com/watch?v=WrmW_d5NHOg
**https://300.ya.ru/v_ocKlDvoY

таймкоды

00:00:00 Введение в тему

  • Обсуждение семейной группы МТС и скидок на связь.
  • Упоминание о Луне как идеальной стартовой площадке.

00:00:24 Аддитивные технологии и искусственный интеллект

  • Необходимость изготовления материалов на месте с помощью аддитивных технологий.
  • Роль инженерных знаний и искусственного интеллекта в этом процессе.

00:01:24 История термина «искусственный интеллект»

  • Первые упоминания термина в 1955 году в работах Джона Маккарти.
  • Дартмутский семинар 1956 года как место первого официального использования термина.

00:02:56 Определение искусственного интеллекта

  • Искусственный интеллект как отрасль науки и технологии, занимающаяся автоматизацией интеллектуальных задач.
  • Примеры интеллектуальных задач: игра в крестики-нолики, сложение в уме.

00:05:49 Эффект Маккорда и восприятие интеллекта

  • Эффект Маккорда: снижение признания интеллектуальности задач при автоматизации.
  • Пример с шахматами и программой Deep Blue.

00:07:50 Вычислительные возможности мозга

  • Мозг как сложнейшее электрохимическое устройство с огромным количеством нейронов и синапсов.
  • Сравнение вычислительных возможностей мозга и современных программ.

00:08:10 Распознавание образов и интуиция

  • Физические процессы, лежащие в основе распознавания образов.
  • Интуитивные ходы в шахматах и их анализ.

00:11:05 Восприятие технического прогресса

  • Избыточное восприятие технического прогресса и его влияние на восприятие интеллекта.
  • Пример с игрой го и программой AlphaGo.

00:12:20 Заключение

  • Возможность достижения новых высот в любой момент.
  • Программы магистратуры в Центральном университете для продвижения по карьере.

00:12:52 Экспериментальная программа по проектированию человеческого опыта

  • Программа для тех, кто уже имеет образование или опыт в дизайн-индустрии.
  • Обучение управленческим компетенциям и углублению навыков в продуктовом и коммуникационном дизайне.
  • Обучение в Москве у международных экспертов и преподавателей из МГУ и МФТИ.
  • Государственный диплом и помощь в стажировке и трудоустройстве.

00:13:29 Атмосфера Центрального университета

  • Сильные студенты и опытные наставники создают вдохновляющую атмосферу.
  • Пример студентки, которая пришла в магистратуру для получения управленческих навыков.

00:14:23 Программа поддержки абитуриентов

  • Грант покрывает до 75% стоимости обучения на весь срок.
  • Для участия нужно пройти тестирование и собеседование.

00:15:03 Искусственный интеллект и его восприятие

  • ИИ — большая дисциплина с тривиальными и фронтирными задачами.
  • Обыватели часто ожидают от ИИ решения сложных задач, которые ещё не решены.

00:16:30 История искусственного интеллекта

  • Гомеостат Росса-Эшби как первый прототип искусственных нейронных сетей.
  • Журналисты предсказывали, что машины заменят людей.

00:17:45 Сравнение человеческого мозга и ИИ

  • Человеческий мозг потребляет мало энергии и справляется с множеством задач.
  • Электроника пока уступает человеческому мозгу в некоторых аспектах.

00:20:46 Физические ограничения вычислений

  • Лимиты Бремермана и теорема Марголоса-Левитина ограничивают возможности вычислений.
  • Необходимость поиска новых физических субстратов для вычислений.

00:23:23 Задачи, требующие сложных вычислений

  • Задачи, связанные со свёртыванием белков и генеративной биохимией.
  • Экспоненциальный рост времени вычислений при увеличении размерности задачи.

00:23:53 Машинное обучение и его развитие

  • Переход от детерминистских программ к машинному обучению.
  • Системы, которые учатся и могут выполнять задачи, не предусмотренные изначально.

00:24:45 Примитивные самообучающиеся системы

  • Пример спичечного автомата, который учится играть в крестики-нолики.
  • Метод проб и ошибок как примитивный способ обучения.

00:25:41 Применение машинного обучения в криптографии

  • Использование машинного обучения для расшифровки зашифрованных сообщений.
  • Применение в годы Второй мировой войны.

00:26:02 Криптографические риски использования одинаковых ключей

  • Использование одинаковых ключей для шифрования двух сообщений делает их уязвимыми для криптоанализа.
  • Операция «исключающее или» позволяет легко расшифровать сообщения, если они зашифрованы одним ключом.
  • Статистические аномалии в комбинациях сообщений могут быть использованы для обнаружения одинаковых ключей.

00:27:13 Механическое устройство для обнаружения аномалий

  • В начале 1940-х годов было разработано механическое устройство для перебора вариантов сообщений.
  • Устройство останавливалось при обнаружении пары сообщений с одинаковыми ключами по статистическим аномалиям.

00:28:11 Гомеостат Росса Эшби

  • Гомеостат состоит из блоков с электролитом и поплавком, которые изменяют сопротивление в цепи.
  • При отклонении стрелки более чем на 15 градусов срабатывает шаговый искатель, подставляя случайные резисторы.
  • Система адаптируется к возмущениям, сохраняя гомеостаз подобно биологическим системам.

00:31:01 Теория оптимизации и нейронные сети

  • Теория оптимизации позволяет подбирать параметры математической модели для минимизации целевой функции.
  • Нейронные сети используются для языкового моделирования и решения задач распознавания образов.
  • Первая искусственная нейронная сеть была описана в 1943 году.

00:32:36 Пример задачи распознавания образов

  • Задача: система должна распознавать наличие котика на фотографии.
  • Фотографии преобразуются в наборы чисел, которые подставляются в формулу для распознавания.
  • Ошибка распознавания используется как обратная связь для настройки параметров системы.

00:37:00 Метод обратного распространения ошибки

  • Метод обратного распространения ошибки позволяет рассчитать градиент направления изменения параметров.
  • Оптимизация параметров ведётся в многомерном пространстве с учётом инерции и момента.
  • Задача машинного обучения сводится к поиску глобального оптимума в пространстве параметров.

00:39:40 Градиентный поиск

  • Градиентный поиск иллюстрируется на примере астрономической обсерватории в Грузии.
  • Туман на горе создаёт препятствие для наблюдения за звёздами.
  • Метод градиентного поиска помогает найти оптимальное решение в сложных условиях.

00:40:17 Градиентный поиск в тумане

  • Группа людей в тумане использует метод градиентного поиска для определения направления движения.
  • Они находят башню телескопа, следуя «самому крутому направлению».

00:41:01 Условия для градиентного спуска

  • Для успешного градиентного спуска поверхность должна быть гладкой, без разрывов и острых скал.

00:41:22 Оптимизация архитектуры нейронных сетей

  • Человек и автоматизированные методы ищут оптимальную архитектуру нейронных сетей.
  • Возникают вопросы о выборе пороговых функций и моделировании человеческого мозга.

00:42:02 Нейроны и их функции

  • Нейроны обмениваются электрическими импульсами и выполняют операции над входами.
  • Каждый нейрон имеет входы и выходы, обрабатывая сигналы с учётом весов.

00:42:48 Идеи Фрейда о нейронах

  • Фрейд в конце XIX века предположил существование контактных барьеров между нейронами.
  • Современные исследования выявили шесть молекулярных механизмов, влияющих на проходимость этих барьеров.

00:45:23 Проблемы цифровых машин

  • Цифровые машины сталкиваются с проблемой «бутылочного горлышка фон Неймана»: разделение хранения и обработки данных.
  • Видеокарты лучше справляются с задачами благодаря матричным вычислителям, но всё равно имеют ограничения.

00:48:00 Физические ограничения электроники

  • Современные технологии не позволяют создавать трёхмерные вычислительные матрицы с эффективными элементами для отвода тепла.
  • Плоские схемы с высокими частотами уступают мозгу по числу элементов.

00:50:37 Нейроморфные системы

  • Нейроморфные системы изучают альтернативы классическим архитектурам, включая другие физические субстраты.

00:51:19 Ограничения искусственного интеллекта

  • Человек решает многие задачи лучше, чем компьютеры, например, пишет стихи и рисует картины.
  • Компьютеры пока плохо справляются с задачами реального физического мира, такими как управление роботами.

00:53:10 Проблемы автоматического вождения

  • Автоматические водители плохо справляются с незнакомыми ситуациями на дороге.
  • Пример с человеком на обочине показывает ограничения современных систем.

00:53:28 Нейроморфные системы и языковые модели

  • Нейроморфные системы могут эмулировать работу мозга на основе фон-неймановской архитектуры.
  • Большие языковые модели обучаются и способны выполнять различные задачи: разговаривать человеческим голосом, писать стихи, делать интонации, смеяться, шутить, понимать шутки, рисовать видео по заказу.
  • Возникает вопрос о сознательности и интеллекте таких систем.

00:54:18 Сознание и вычислимость

  • Мозг можно описать набором математических операций, но сознание остаётся невычислимым.
  • Упоминается Роджер Пенроуз и его теория о невычислимости сознания.

00:55:01 Эволюционная теория сознания

  • Сознание возникло как результат эволюции социальных существ, которым необходимо предсказывать поведение других представителей своего вида.
  • Психическая модель другого существа замкнулась на себя, что привело к появлению представления о себе как о другом.

00:57:16 Эмоции и рефлексия

  • Эмоции важны для выживания, но субъективно испытываемые ощущения возникают только при наличии рефлексии и сознания.
  • Пример с Алисой показывает, что машины могут распознавать эмоции, но не могут их проявлять.

00:58:17 Обратная связь и боль

  • Обратная связь в машинах сравнивается с болью, но остаётся вопрос о возможности боли у машин.
  • Обсуждается проблема соотношения физических процессов в организме с субъективным мироощущением.

00:59:44 Эмерджентные свойства сознания

  • Сознание — эмерджентное свойство системы, а не отдельного элемента.
  • Большие языковые модели могут генерировать новые тексты, которых их не учили.

01:00:56 Статистические зависимости в языке

  • Язык представляет собой статистическую систему с закономерностями, которые можно анализировать.
  • Нейронные сети предсказывают вероятности следующих букв в тексте, а затем генерируют текст на основе этих вероятностей.

01:03:17 Вычислительная сложность и внимание

  • Блок внимания в трансформерных моделях имеет квадратичную вычислительную сложность от длины контекста.
  • Люди также используют механизм внимания, фокусируясь на опорных точках при переводе текста.

01:04:34 Галлюцинации и обоснованность

  • Машины могут генерировать грамматически правильные, но невозможные утверждения.
  • Они обосновывают свои ответы, как это делают студенты на экзамене.

01:05:16 Искусственный интеллект и язык

  • любую интеллектуальную задачу можно представить в виде задачи продолжения текста.
  • Примеры задач: перевод слов, игра в шахматы, описание картинки, вождение автомобиля.
  • Реагирующее действие — это выход, например, необходимость нажать тормоз.

01:06:39 Мир как текст

  • Мир можно представить как текст, которым можно управлять.
  • Человеческий мозг обрабатывает информацию в виде электрических сигналов.
  • Нейронные сети могут решать сложные задачи, основываясь на текстах.

01:07:32 Обучение больших языковых моделей

  • Большие языковые модели обучаются на огромном корпусе текстов.
  • Они могут предсказывать следующее слово по предыдущему.
  • Модели способны генерировать осмысленные тексты.

01:08:13 Сбор и обработка данных

  • Собирается весь интернет, удаляются дубликаты и мусор.
  • Объём корпуса текстов может достигать десятков терабайт.

01:09:02 Предсказание слов

  • Модель учится предсказывать следующее слово по предыдущему.
  • Пример: «шумел сурово брянский».

01:10:13 Создание новых текстов

  • Модель может написать книгу.
  • Пример: «книга естественного интеллекта».

01:10:51 Оптимизация и абстракции

  • Система вырабатывает высокоуровневые абстракции для минимизации ошибки прогноза.
  • Аналогия с восприятием в мозге: от простых к сложным паттернам.

01:13:03 Творчество и генерация

  • Модель может создавать новые тексты, не повторяя известные.
  • Настройка параметров генерации позволяет выбирать не всегда самые вероятные ответы.

01:14:59 Управление генерацией

  • Промт инжениринг позволяет управлять генерацией текстов.
  • Подсказки в левом контексте направляют внимание модели.

01:15:49 Дообучение моделей

  • После предобучения на триллионах текстов модель дообучается на целевом корпусе.
  • Модель опирается на выученные абстракции и представления.

01:16:43 Применение ИИ

  • ИИ используется в вождении автомобилей, медицинских диагнозах и управлении ядерным оружием.
  • Поднимается вопрос о регулировании и ответственности при использовании ИИ.

01:19:13 Биологические ограничения и ИИ

  • Биологический мозг имеет ограничения по скорости обработки информации.
  • ИИ помогает компенсировать эти ограничения, расширяя возможности человеческого интеллекта.

01:20:04 Ограничения человеческого организма

  • Люди существуют в ограниченном диапазоне температур, ускорений и концентрации кислорода.
  • Подавляющее количество мест во Вселенной опасны для человека.
  • Сенсорные лимиты ограничивают способность человека обрабатывать информацию.

01:20:45 Проблемы масштабирования и мотивации

  • Некоторые интеллектуальные задачи люди не хотят решать.
  • Проблема масштабирования: необходимость колл-центров с тысячами операторов.
  • Важно правильно управлять новыми технологиями для их безопасного использования.

01:22:20 Риски восстания роботов

  • Технологии могут стать проводником воли других людей.
  • Пример с противопехотной миной иллюстрирует риски использования ИИ.
  • Необходимо стремиться к тому, чтобы технологии усиливали достоинства человека.

01:25:02 Цели и ответственность в эпоху ИИ

  • Люди часто боятся последствий своих действий, в отличие от компьютеров.
  • Цели для ИИ должны формулироваться человеком.
  • Эпоха быстрого технологического прогресса требует от людей человечности и ответственности.

01:26:52 Разработка нейросетей

  • Современные нейросети разрабатываются на основе готовых языков программирования и фреймворков.
  • Python популярен для разработки нейросетей, но высокопроизводительные вычисления происходят на другом уровне.

01:27:36 Проблемы цифрового тайного суда

  • Алгоритмы принимают решения, влияющие на жизнь людей, например, при выдаче кредитов или анализе резюме.
  • Решения алгоритмов могут быть непрозрачными и не поддаваться проверке.
  • Отсутствие механизмов защиты прав в ситуациях с алгоритмами создаёт риски.

01:30:13 Примеры ошибок алгоритмов

  • Судебный процесс между почтовой службой Великобритании и её сотрудниками показал дефекты учётной системы.
  • Ошибки алгоритмов привели к потере работы, судебным искам и разрушению судеб.
  • Медицинский излучатель ТЕРА-25 выдал смертельные дозы облучения пациентам.

01:31:45 Преимущества автоматизированных систем

  • Автоматизированные системы могут обеспечить более высокий уровень безопасности благодаря возможности многократных испытаний.
  • Пример с таксистом, который заснул за рулём, иллюстрирует риски, связанные с человеческими ошибками.
  • Машины с автоматическим управлением соблюдают правила лучше, чем люди.

01:33:39 Ответственность и распределение обязанностей

  • Проблема переноса ответственности с человека на программу.
  • Социальные существа сталкиваются с трудностями в распределении ответственности.
  • Необходимо искать новые способы распределения ответственности в контексте использования ИИ.

01:34:00 Безопасность транспорта и лифтов

  • Законодатели долго занимались вопросами безопасности транспорта.
  • Пример с лифтами: если лифт падает, важно определить виновного.
  • Существуют системы сертификации и регулярного обслуживания лифтов.

01:34:55 Ответственность за безопасность

  • При возникновении опасной ситуации проверяют, были ли приняты необходимые меры.
  • Если меры не были приняты, ответственность ложится на виновного.

01:35:13 Роль искусственного интеллекта

  • Искусственный интеллект становится частью нашей жизни.
  • Важно понимать ИИ, чтобы использовать его сознательно и квалифицированно.
  • Необходимо стремиться к использованию ИИ во благо.

01:36:13 Завершение

  • Призыв ставить лайки и подписываться на канал.
  • Напоминание о важности внимания к своему и чужому интеллекту.
  • Прощание и пожелание всего доброго.

В этом видео

Как сделать на Луне космодром + реклама
0:00
Луна — это идеальная стартовая площадка. Если с умом её использовать, то это вообще намного. Я Ты счала объяснить, как ты туда
0:05
привезёшь столько всего. Там надо не надо туда возить, надо там это изготавливать.
0:11
Нет, нет, нет. Завод изготавливать, значит, завод нужно привести. Ну, ну просто, ну, ёлки-палки. Пример делаем вначале маленькие, да,
0:17
адитивные технологии, автоматически. Для всего для этого нужны мозги
0:22
инженерные. Нас наших с тобой мозгов для этого явно не хватает. Интеллекта
0:27
маловато. А что нужно? Скажи искусственный интеллект. Искусственный интеллект нужен
0:33
с нами, между прочим, нас попутчик. У нас великий специалист по искусственному интеллекту Марков.
0:39
Великий и ужасный. Бывают же такие совпадения. Удивительное дело. А вы как раз про то, как лучшим образом применить
Тема + гость
0:46
искусственный интеллект и что это такое вообще? Я не понимаю. Что это такое? Ты в не понимаешь. Нет, я честно честно не понимаю. Слушай,
0:53
ты программировал когда-нибудь? На каких языках писал? Ну и на высокого уровня в основном. Ну, не считая каких-то попыток там простых
0:59
совсем на высоком уровне. Кодах тоже писал? Да. Ну и я не писал в коды, но я, например, на шести языках умею писать
1:06
программы. Угу. Но я не понимаю, что такое искусственный интеллект. Сергей, программу я пишу под
Сурдин и Семихатов – программисты
1:12
конкретную задачу. Вот у меня есть задача, я написал алгоритм, как её решить. А искусственный интеллект — это
1:17
что-то другое. Сейчас расскажу. На самом деле, значит, ну, если говорить о самом термине, э, у него довольно
1:24
интересная история. Вообще первые его следы находятся в 1955 году, когда Джон
1:31
Макарти готовит свои предложения по организации дартмадского семинара, в будущем знаменитого семинара.
Что такое искусственный интеллект?
1:38
Это математики, который прошёл в Дартмандском колледже. Ну, это информатика программи слова
1:43
такого не было. А, ну термин компьютер science он как бы традиционно переводится как информатика,
1:50
да, на русский язык. Вот именно термина информатика не было, но как специалист
1:56
из области компьютер science, а, и в пятьдесят шестом году, ээ, значит, на
2:01
вот этот самый дармоский семинар собралась большая группа специалистов. Кто-то из них был знаменит уже тогда,
2:07
кто-то стал знаменит позже. И вот именно на дартманском семинаре прозвучал уже,
2:14
так сказать, открыто этот самый термин искусственный
2:20
произвучал тезис artificial intelligence. Мне кажется, Сергей, поправьте меня на этом месте, что
2:26
русский перевод грешит некоторым сдвигом значения. Искусственный интеллект.
2:31
Интеллиellен — это способность к каким-то там рассуждениям. Вот прямо интеллект. Это, знаете, тут проблема в
2:38
том, что и с определением интеллекто споров много, поэтому большого греха нету. Вот. Но так уж сложилось, традиции
Искусственный интеллект – точно ИНТЕЛЛЕКТ?
2:44
научные переводить, как искусственный интеллект. А если бы был искусственный разум, ты бы согласился? Это был разум вообще. Я бы
2:50
вообще вот. Но здесь, смотрите, да, система, как говорится, споры там
2:55
ведутся очень долго, да, тема определения интеллекта, разума и так далее, но споры определениях, наверное,
3:02
не очень нам интересны. Вот. А интересно, как всё-таки что же мы понимаем под этой самой отраслью, да? То
3:08
есть когда мы говорим искусственный интеллект сегодня, то, э, мы понимаем обычно такую отрасль науки и технологии,
3:15
которая занимаются автоматизацией решения интеллектуальных задач. То есть есть какие-то задачи, которые люди
3:21
традиционно решают при помощи своего собственного ума. Я вот закладываю пальцы, у меня уже есть
3:26
возражение. Я вас пока я сдерживаюсь, я вас не перебиваю, пальцы загибаю. Ничего, ничего страшного. Вот, значит, и
3:33
в этом смысле, да, значит, это область науки и технологии, которая занимается автоматизацией, решения интеллектуальных
3:39
задач. Интеллектуальные задачи, ну вот довольно тоже аккуратно, да, надо с этим
3:44
термом. Игра в крестике нолики, например, и всё. Это тоже это тоже искусственный интеллект.
3:50
Ну, давно такие программы написаны, никто их не называл искусственным интеллектом. Нет, называли. Ну, называли, конечно,
3:57
конечно. Более того, ты разве не знал? Все знают. Да, понимаете, в чём штука? Вот,
4:03
ээ, да, даже сложение в уме, да, это тоже интеллект. Вот. Но не нужно этого бояться, понимаете? Вот. Ребёнок там
4:10
учит таблицу умножения, а он занимается математикой при этом. Ну, мы говорим,
4:17
ну, формально ведь, да? То есть арифметика — это часть математики, да? Но мы его при этом называем математиком,
4:24
да? То есть, когда мы говорим там о специалистах в области математики, мы говорим о людях, которые работают на
4:29
передовом крае науки с задачами, которые сложны, они творят, сложны для текущего уровня развития. Но
4:37
тут в данном случае не принципиально задача запоминания, она тоже интеллектуальная, но мы её тоже при
4:43
помощи мозга против. Мы давай его заклеём сегодня. Вот смотрите, всё механическая совершенно.
4:48
Да, растения запоминают, кошки запоминают. А мозг тоже штука механическая, физический объект. В нём
4:54
понятны физически интеллект, но это мы сейчас вперёд забегаем. Вот смотрите. Ну а что, это магия, что
5:01
ли? Ну это это функционирование физических систем в физическом мире.
5:07
Вот. Э, на самом деле важно понимать ну опять же, да, мы сейчас там сильно забегаем вперёд. связь этого всего с
5:14
физикой, с энтропией, с э всегда, когда мы говорим о вычислениях, да, или об
5:19
интеллектуальных операциях, это всегда подлежащие физические процессы, но
5:25
подлежащие в смысле underлайн, ниже лежащие в условия. Вот. И значит
5:32
есть такое общее понятие эффект искусственного интеллекта. Ещё иногда эффект макордок называют честь помелый макордок. А он связан с тем, что как
5:41
только какая-то интеллектуальная задача решается при помощи автоматизированных систем, люди перестают признавать
5:47
интеллектуальность этой задачи. Угу. То есть допустим, в пятидесятые годы, если бы вы остановили там на улице
Парадокс восприятия искусственного интеллекта
5:54
человека и спросили его: «Вот программа, которая обыграет ээ чемпиона мира в
6:00
шахматы, она будет настоящим искусственным интеллектам»?
6:05
Вот. А когда в девяносто седьмом году, значит, во втором матче Каспаров уступил
6:10
бло, что стали говорить люди? Ну, ваша машина, она, ээ, на самом деле глупая.
6:17
Никакого интеллекта там нету. Она просто очень быстрая. Перебирает, она грубой силы 200 млн позиций в
6:23
секунду просматривала, конечно, правда, но не вся правда. В этом-то всё и дело. Та, простите, там же
6:28
был момент, когда был ход, в котором Каспаров подозревал вмешательство человека, потому что якобы его нежно
6:35
догадаться. Потом, когда выиграли в го, выяснилось, что интуитивные ходы делает эта штука. Не, я в Нет это две разные
6:43
системы, основанные на разных, достаточно разных принципах. Вот насчёт интуиции, это вообще сейчас
6:49
нас дорогу заведёт в окольные тропы. Вот. Значит,
6:55
но люди при этом как бы, когда они стали употреблять аргумент о грубой силе, они
7:01
как бы немножко забывают, что очень многие процессы, которые происходят в человеческом мозге, они вне сознательного контроля происходят. А
7:07
мозг — это сложнейшее устройство электрохимическое, да? Значит, 86 млрд
7:12
нейронов до квадрильона синапсов на пике развития. Один синапс, чтобы смоделировать сегодня, нам нужны там как
7:19
минимум тысячи бинарных элементов, да? То есть, если представить себе масштаб, вычислительный масштаб этой схемы, если
Мозг считает лучше, чем компьютер
7:25
посмотреть на мозг как на машину, да, у нас ничего подобного пока ещё нет. Если
7:31
посчитать там примерное число условных там двоичных операций, которые мозг в единицу времени осуществляет,
7:38
пока ещё грубая сила на стороне мозга, а не на стороне электро компьютер уступает
7:43
по скорости счёта мозга. Он он говорит не по скорости, он говорит не по скорости, а по количеству элементов. Ну
7:49
я это именно, да. Но, понимаете, сознательно, ээ, вот мы смотрим на картинку и понимаем, что
7:55
на ней там нарисована кошка или не нарисована кошка. Что за этим стоит? За
8:00
этим стоит огромные каскады электрохимических сигналов. Мы сами не можем объяснить, почему мы ээ поняли
8:07
сейчас, что это кошка, это знакомый нам человек, а это ещё что-то, да. Но
8:12
подлежащие физические процессы, которые обеспечивают распознавание образов, например, да, а они, если мы их
8:19
пересчитаем в операции машины, да, то, ну, это огромные масштабы вычислений
8:25
условных, которые мозг выполняет, чтобы эти задачи решать. И когда человек смотрит на шахматную доску и понимает,
8:32
например, что вот здесь есть такие такие такие разумные продолжения, и вот их я
8:39
буду рассматривать в своём анализе, да, на самом деле подлежащие операции, что
8:44
при этом, что за этим стоит, почему мы понимаем, что вот эти ходы имеет смысл анализировать, а вот эти не стоит даже и
8:50
смотреть, да? За этим стоит огромная работа вот этого мощного электрохимического устройства, грубая
8:57
вычислительная сила которого очень велика. Человек не перебирает миллион вариантов.
9:03
Современные современные программы они тоже уже не перебирают. Вот. Но простите, пожалуйста, но количество вычислений, которые они
9:10
выполняют, единица времени, оно очень А простите, просветите меня. те натренированные сетки, если оставить в
9:16
стороне, натренированные, но на развлечение кошек, например, там не кошек, собак и, скажем, хомячков и так
9:23
далее. Если оставить в стороне адову тренеров, оставим это в стороне, она же
9:28
это делает уже быстро и не за очень большое количество вычислительных шагов,
9:33
может быть, сильно меньше, чем в мозгу. Поправьте ме. Сейчас, сейчас я отвечу на этот вопрос. Я доскажу про эффект Макорда, кото мы
9:39
так типа прервались, да. Вот про грубую силу люди стали говорить, да, что там шахматы — это не интеллектуальная
9:45
задача, её можно решить вот грубым перебором, но есть мудрая восточная игра го, которая вот ээ её нельзя решить
9:53
перебором. Вот когда вы нам покажете машину, которая, значит, сможет с человеком сравниться здесь, тогда мы так
9:59
Лисдоль проиграл из пяти. Да, когда Лис Седоль там сильнейший, ну или там один
Почему люди не признают мощь ИИ? + реклама
10:05
из нескольких сильнейших в мире игроков Гоа проиграл альфаго, что стали говорить там эти люди? Ну никакого интеллекта там
10:13
нету. Это просто умножение матриц. Вот когда вы нам покажете машину, которая картины будет рисовать, да, любые, какие
10:21
вы е закажете, вот тогда мы с вами и поговорим, да, вот, то есть на самом деле
10:27
Дадада. Ну дали в данном случае, да, другие модели подобные, но важно
10:33
понимать, что, конечно же, люди избалованы техническим прогрессом, да, вот как у Луисикея, когда человек летит
10:42
на самолёте и у него вдруг Wi-Fi перестал работать. Что за вообще фигня? Мне тут предложили какую-то ерунду.
10:49
Wi-Fi не работает. А ничего, что там 3 года назад вообще не было никакого Wi-Fi. Я сижу на крес высоте 10.000 м и
10:55
лечу со скоростью 1.000 км/ч. Ничего, да. На на расстоянии несколько тысяч километров, да. А мои предки несколько
11:02
поколений назад, если бы хотели бы переместиться на то же расстояние, то группа людей, которая бы отправилась в
11:07
путь, отличалась бы от той группы, которая бы вывод. Вывод. Искусственный
11:12
интеллект в каждую эпоху подразумевает своё.
11:17
[музыка] Представьте себе, работаете вы в
11:23
международной компании со стабильной зарплатой, поднимаетесь по корпоративной
11:28
лестнице и вдруг бросаете работу, о которой мечтают миллионы, и идёте учиться на космонавта.
11:35
Это история Константина Борисова. Вы наверняка его знаете. Пару лет назад он
11:40
отправился на МКС на кораблер Dragon и провёл в космосе почти 200 суток. Но
11:46
перед этим ему пришлось много лет готовиться и учиться. В любой момент
11:51
можно добиться новых высот. И не надо делать разворот на 180°. Большинству из
11:56
нас хочется не полностью менять свою жизнь, а стать лучше в своём деле. Ну и, конечно, побольше зарабатывать.
12:03
Очень интересная программа магистратуры сейчас есть в Центральном университете. Это действительно востребованные
12:09
профессии, в которых пригодится прошлый опыт. Вы не будете начинать с нуля, а сможете продвинуться по карьере или
12:16
перейти в смежную специальность. На выбор у вас несколько программ: продуктовая аналитика, продуктовый
12:22
менеджмент, бэкэнд-разработка или машинное обучение. Лекции проходят по вечерам и выходным. 80% студентов
12:29
совмещают магистратуру с работой. Также в Центральном университете запускается экспериментальная
12:35
двухгодичная программа. по проектированию человеческого опыта. Она
12:41
для тех, кто уже имеет образование или опыт в дизайнеиндустрии. На обучении вы
12:46
получите управленческие компетенции и углубите навыки в продуктовом и коммуникационном дизайне.
12:52
Учиться будете в Москве у международных экспертов, практиков крупных компаний и
12:58
преподавателей из МГУ и IN ИнфоТИ. На выходе получите государственный диплом и
13:03
все навыки, чтобы быть конкурентоспособным на рынке со стажировкой и трудоустройством помогут.
13:09
Нам самим захотелось посмотреть кампус современного университета. Так что наш космический поезд сделал остановку в
13:16
России, в Москве. Люди Центрального университета — это сильные студенты, а также их опытные
13:23
наставники и менторы. Такая атмосфера вдохновляет расти и развиваться. Дорогие
13:29
друзья, вот мы наконец в Москве в Центральном университете. Елизавета, здравствуйте.
13:35
Здравствуйте. Вы в магистратуре Центрального университета. Я закончила Бауманку. Я инженер,
13:41
работала в Роскосмосе, строила ракеты. И в какой-то момент я поняла, что мне не хватает вот каких-то управленческих
13:47
менеджерских навыков. А для этого я пришла в ЦУ на продуктовый менеджмент, а
13:52
чтобы над своим инженерным фундаментальным образованием, а сделать надстройку современную, а такую же
13:59
управленческую, научиться как бы инженерами и айтишниками управлять. Вы будете слышать инженеров благодаря
14:06
вашему инженерному бэкграунду, а здесь получите полезные навыки управления менеджмента. Благодаря этому большое
14:12
количество инженеров будет работать более эффективно, да, и делать классные, нужные продукты. Участвуйте в конкурсе грантов. Это
14:19
программа поддержки абитуриентов, которая покрывает до 75% стоимости обучения.
14:26
Грант выдаётся на весь срок обучения. Чтобы принять участие, пройдите
14:32
тестирование и собеседование. Все подробности в описании. Дерзайте.
14:38
[музыка] Я думаю, что просто нужно понимать, что
14:45
искусственный интеллект — это большая дисциплина. В ней есть ряд тривиальных задач, которые нам сегодня уже, ну,
14:50
интересны разве что с исторической точки зрения. Мы механизировали их, да. А есть фронтир этих исследований. И,
14:57
конечно, когда обыватель говорит про искусственный интеллект, он ждёт, что, ну, ему будут показывать либо какие-то
ИИ в каждую эпоху подразумевает разное?
15:03
задачи, которые ещё не решены, либо которые были решены вот недавно, либо которые мы пока, ну, типа решаем не
15:10
очень хорошо. Фронтир — это пограничная, да, да. Погранич граница науки.
15:16
Вот она всегда возбуждается и технологии, да. Поэтому, конечно, это нормально, что люди так к этому относятся, да. Но если мы посмотрим на
15:22
историю искусственного интеллекта, то там сделать первую систему для игры в крестике Нолике не шутки было. Это было
15:31
очень сложно в своё время. Там Сергей, Сергей всё-таки там вещи алгоритминые, а
15:36
вот мы сейчас хотим говорить в первую очередь о больших машинно обучение, большие языковые модели с одной стороны
15:43
и с другой стороны, простите меня, ради бога, но правда, когда сейчас говорят искусственный интеллект, э массовый
15:49
потребитель этого термина мало интересуется тем, какие были программы раньше. Он сейчас считает, что он
15:56
заменит учёных, принятие решений, судей. И главное, что то, до чего мы не можем,
16:01
какое расхожее мнение, если вы вдруг не в курсе, то, до чего мы не можем додуматься. Мы вот у нас возможность
Искусственный интеллект за нас всё решит?
16:07
ограничена, но искусственный интеллект за нас всё решит. Вот давайте вот со
16:12
временем это этот тезис прокомментируем, когда когда в середине сороковых годов Росшби сделал
16:19
устройство, которое он назвал гомеостатом, которое можно рассматривать как один из первых прототипов
16:25
искусственных нейронных сетей, таких вот выполненных в виде устройства. то первая же статья, которая была посвящена этому
16:31
устройству, называлась щёлкающий мозг умнее человеческого.
16:36
Вот. И журналисты там, естественно, написали, что скоро, кто знает, этим
16:42
машинам мы уже не понадобимся. Они сами щёлкал он. Почему? Релетомле, конечно.
16:47
Вот, значит, там очень интересно подбирались Веса в этой искусственной нейронной сети. Там
16:53
был барабанный искатель, который подставлял случайные сопротивления в цепь. Угу. А ёмкость сопротивления была
16:59
подобрана при помощи таблиц случайных чисел. Вот. Значит, очень интересно, на
17:06
самом деле, посмотреть на историю развития этих технологий. Это нормально в некотором смысле. Ну как нормально?
17:11
Нормально в том смысле, что мы, наверное, к этому привыкли, что обыватели очень часто судят о ээ многих
17:18
научных концепциях, опираясь отнюк не на чтение книг учёных, да, опираясь на
17:24
голливудовскую кинопродукцию там. Слушайте, а меня вот что сейчас смущает. У нас объём мозга 1,5 л. Да, по-моему,
17:31
ну, голова вот, вот она голова там 2 л. А, и у и у Каспарова тоже примерно такая
17:36
голова. И он на равных, ну, в общем, почти на равных решал шахматные задачи с
17:42
этим Блублу. Кто он? Сейчас, подожди, подожди. А размер этой
17:48
этого компьютера, на котором реализована была программа, это прямо вот такой вот стационар или это тоже стоял на столе и
Мобильный телефон может обыграть в шахматы чемпиона
17:55
мог событь? Ну несколько шкафов это тогда было, но сегодня мобильный телефон вполне
18:00
справляется с игрой на сверх сверхгра. Мобильный телефон может Каспарова
18:06
обыграть легко с с огромным отрывом, правда? Да, я хочу это разочаровать. Да.
18:11
Вот. Но это это смотрите в природе в живой природе есть существа, которых
18:17
нервная система сильно меньше, чем человеческая, но отдельные задачи за счёт сверхспециализации они могут решать
18:24
на сверхчеловеческую. Попробуй муху поймать, да? Или вот пчела, например, там в улье найдёт оптимальный маршрут быстрее и
18:29
лучше, чем это сделает человек. Хотя у неё там сотни тысяч нейронов, да, у нас 86 млрд. А, и вообще все успехи
18:38
искусственного интеллекта во многом это вот про там то, что учёные смогли
За счёт чего достигает успеха ИИ
18:43
выкроить больших семь шаповцы, учёные, инженеры. То есть это системы, которые за счёт очень большой специализации
18:49
достигали сверхчеловеческого уровня решения отдельных задач. Кто там про шапки, я не понял? Ну, это мультик, знаете, есть вот, когда
18:56
купец там требовал от Скорняка, чтобы он шесть шапок ему сделал. Это задача на
19:04
оптимида. Как оптимальную выкройку, да, вот разреше, ну, ну вот, да, то есть как по сути дела
19:11
решить невозможную задачу, да, и обладая такими рес Ну есть смотрите, электроника пока что очень сильно в некоторых вещах
19:18
уступает человеческому мозгу. Вот человеческий мозг 20 Вт энергии потребляет всего, да, и успешно
19:24
сравняется с справляется с огромным количеством интеллектуальных задач, которые машинам пока ещё не под силу,
19:30
да, примерно 20 Вт. Вот. А машины потребляют, ну, там очень
19:35
много, да, и много весят, да, и много тепла выделяют. У нас в МГУ суперкомпьютер стоит.
19:43
Проходишь мимо этого здания, где он стоит, оттуда горячий поток воздуха,
19:48
кондиционерами такими огромными. Я подумал, что я вот это холодненький, а
19:53
думаю, да. И это как бы намекает нам на то, что тут есть очень много совместной работы
19:59
для физиков и информатиков, да, и специалистов поши сделать миниатюр,
20:05
найти новые новые физические субстраты для вычислений. А квантовый компьютер вообще это
20:10
реализуемый квантовый квантовый. А как его реализация может быть очень разная с физической точки зрения? То есть
20:17
квантовый — это по сути дела, ну, как бы абстракция математическая скорее, да? А
20:22
как нам реализовать этот самый квант? Что что элементами отдельными? Вот до того, как появилась классическая
20:28
электроника, там в тридцатые годы, э, Джон Винсент Атанасов, тот человек, который создал первую электронную
Квантовый компьютер
20:33
вычислительную машину, чего только не делал. Например, значит, он использовал парафиновые кубы в качестве подлежащей
20:42
системы для вычисления. Мыльные плёнки, лаплациометр. Но вот мыльные плёнки уравнением лапласа описываются.
20:49
Вот поэтому как бы то, что можно определённым образом задать на поверхности мыльной плёнки некоторый
20:55
узор, да, и это мыльная плёнка, в ней будут происходить физические процессы, за счёт которых мы сможем
21:02
результат считать ответать отвеси. Вот э гидроинтеграторы
21:08
куча. Мы очень много разных физических процессов испытывали на роль кандидатов
21:16
для создания вычислительных устройств. все эти памяти были на разным принци. Да. Дадада. Да. Вот. И, ээ, значит,
21:24
электроника классическая, она приближается к определённым лимитам как раз физического характера. И на пути
21:31
вообще развития вычислительных систем стоит несколько барьеров разной степени
21:37
непреодолимости, да? Значит, но есть фундаментальные барьеры. В пятидесятые годы, например, же говорили там о лимите
21:42
Бремермана, так называемом. Значит, идея в чём? Что у нас информацию быстрее скорость света передавать же нельзя.
Барьеры на пути развития техники
21:48
Нельзя. Элемент машины меньше планковского масштаба сделать не можем из-за неопределённости, да? Значит, у
21:55
нас машина массы М всегда сможет производить не больше, чем некоторое лимитированное число вычисления в
22:01
единицу времени. Как бы она ни была устроена. Ну, планковский масштаб нам ещё далеко.
22:07
Это это такой лимит не очень страшный до сих пор, да. Его обобщили для квантовых систем, называется теоремы Марголуса
22:13
Левитина. Вот. которая просто говорит, что вот в рамках некого энергетического лимита вы не можете больше некоторого
22:20
количества вычислений выполнить. Это нужно. Вот вы стремитесь к чему-то, да?
22:26
А потребность в этом есть или это игра? Просто это игра, бисер. Вот. Ну, у нас есть огромное количество
22:32
всяких разных задач ээ из реальной жизни, для которых нужно много вычислений.
22:39
А как мы их раньше без компьютера решали? Никак. Плохо. Ну, то есть приближёнными методами. Ну, как всегда,
22:45
мы хотим улучшать алгоритмы невероятности алкого, да, лучше, например, задачи те же самые инженерные
Зачем нужно развивать вычисления?
22:53
создания оптимальных конструкций для некоторых задач. Э, да, да, что угодно,
22:59
на самом деле. Нет, ну у нас количество задач расширяется. Мы, например, сейчас интересуемся свёртывами белков, о
23:05
которых мы толь 50 лет назад, например, да, генеративная биохимия, да, создавать новые молекулы, которые будут
23:11
обладать заданными свойствами, то есть заранее рассчитать их структуры. Да. Да. То есть ээ система, которая и многие
23:18
из этих задач, они ещё, к сожалению, относятся к категории сложности expй complete, то есть по мере роста
23:24
размерности задачи экспоненциальным путём время вычисления растёт. Вот поэтому машины, конечно, нам нужны по
23:31
возможности всё более и более быстрые. Сергей, ну простите, пожалуйста, я прямо настаиваю, извините, ради бога, я прямо
23:36
настаиваю. Электроника электроникой она развивается, но на современной электронике, как мне кажется, поправьте
23:42
меня, мы всё-таки в последнее время произошёл вот этот вот скачок, когда мы от написанных программ, которые
23:49
выполняются более-менее детерминистским образом, и нам примерно понятно, как, мы перешли к машинному обучению. Система
23:55
научилась, она чего-то делает. А потом, погодите, погодите, я хочу спросить самое интересное, иначе я не успею. А
ИИ может то, чему его не обучали?
24:02
потом, потом выясняется, и вы меня тут поправьте, что из-за того, что она так классно обучилась, в ней возникло
24:09
что-то, чему мы её как бы даже в яв не обучали. Она умеет что-то ещё. Это вообще тезис имеет право на
24:14
существование? имеет, да, но с поправкой на то, что машина обучения — это
24:20
заслуженная дисциплина, истоки которые там начинаются 70 лет назад. Первая
24:25
самообучающаяся примитивная система, мы умели создавать ещё там больше чем полстолетия назад, да? Простой пример.
24:34
Значит, то, что называется спичечный автомат, да? эээ можно создать систему
24:40
из спичек из коробков спичек для того чтобы она научилась играть в крестики
24:45
нолики, да, перекладывая определённым образом спички между коробками. Вот используя простой набор правил, да,
24:51
сыграв некоторое количество партий с этой системы, она выучивает как бы правила, необходимые для, а значит,
24:59
правильной игры в крестике нолики. А, и в принципе самым примитивным способом
25:04
обучения, что является, ну, метод просто пропа ошибок, да, давайте сделаем просто
25:10
систему, которая будет генерировать случайное решения, да, мы будем отбраковывать неправильное.
25:15
Мы как люди или мы с помощью этой же машины? Ну, это же можно автоматизировать. Там
25:21
какую задачу там в своё время решал решали в БЧТЛ парк криптографы, да?
25:27
Значит, вот у них были сообщения отправленные при помощи зашифрованного
25:32
ключа, да? Значит, там операции с ключающие или ключ складывается снимав
25:38
расшифровка расшифровальной машины в гото мировой войны. Вот, значит, и,
25:43
соответственно, ээ ээ криптографы подозревали, что, значит, ну, в соответствии с правилами криптографии,
«Энигма». Криптоанализ в годы Второй мировой войны
25:50
после того, как сообщение зашифровано каким-то ключом, шифровщик должен провернуть ручку, да, чтобы следующая
25:58
комбинация шифра сформировалась, да, если вы отправите два сообщения как бы с
26:03
одинаковыми шифрами, это небезопасно. Почему? Потому что шифры накладываются
26:09
как бы на текст сообщения при помощи операции исключающее или если мы возьмём два соседних сообщения и через
26:16
исключающее или объединим их друг с другом, ключ удалится и получится просто
26:21
текст первого сообщения ксор текст второго сообщения. А и вот это полу комбинации не шифра, а текстов двух
26:29
сообщений, в чём гораздо легче разобраться. А вот это уже можно методами классического криптоанализа обратно расшифровать. Но нам нужно
26:36
попытаться отловить эту ситуацию, да? То есть нам нужно перебрать все там пары сообщений, да, и посмотреть, э их
26:45
сложение друг с другом будет ли приводить к э такой комбинации, которая
26:51
будет обладать определёнными статистическими аномалиями, да? Вот. А эти статистические аномалии можно при
26:56
помощи простого механического устройства определить, да? Что вот мы нашли ту
27:02
самую пару сообщений, зашифрованных одним и тем же к лицом. Они будут нести в некие черты английского языка. Ну так примерно
27:08
наследовать наследовать частот. Будут частотности разных элементов
27:14
сильно отличаться, в отличие от ситуации, когда мы с ключом покусорили.
27:21
То есть чисто механически, да, вот эту задачу, её, видите, в начале сороковых годов сделать машину, которая просто
27:27
перебирает много-много вариантов и останавливается в тот момент, когда найден вариант, обладающий заданными
27:34
параметрами. Это мы научились делать уже тогда. Кстати, каждый лайк и комментарий и
27:41
подписка приближают выход новых видео на канале Вселенная плюс. Так что, если вам
27:46
нравится, вы знаете, что можно сделать прямо сейчас. А если там говорить о гомеостате росса
27:53
Эшби, ну что это такое, да? То есть у вас такие есть блочки,
27:59
значит, они состоят из ванночка с электролитом.
28:05
Туда, значит, к одной стороне подведён контакт. Вот там плавает поплавок, на
28:10
его поверхности, значит, стрелка, к которой там следующий контакт подключен, да? То есть в зависимости от того, как
Самоорганизующиеся системы (Гомеостат Росса Эшби)
28:16
стрелка отклоняется, расстояние меняется между одним контактом и другим, и меняется сопротивление. Да.
28:22
А зачем? Вот. А сейчас не суть важно, зачем конкретно
28:27
этот блочок, а на самом деле их использовались в прицельных механизмах бомбардировщиков в то время, да. Вот. Но
28:35
важно, что, значит, это как бы потенциал управляемое сопротивление, да?
28:42
То есть мы можем э-э подать напряжение и при помощи этого изменить сопротивление,
28:49
да, ээ другой цепи. Вот. Ээ ну сейчас понятно гораздо более миниатюрными
28:55
устройствами сделать, да. Да. Вот. А и дальше мы что делаем? Мы
29:00
соединяем -э эти блочки все со всеми
29:05
контактами. пропускаем ток, да, и в каждом в каждой э
29:12
в каждом проводнике, который соединяет два блочка, мы устанавливаем такое интересное устройство, значит, которое, если наша стрелка отклонилась больше чем
29:20
на 15° от центрального положения, срабатывает шаговый искатель, начинает крутиться барабан и в цепь подставляются
29:26
случайные ээ резисторы. Это нетушифрование, правильно? Я понял?
29:32
Нет, нет, это просто вот такая машина. гомеостат. Значит, в чём её идея была у Росжбио? Сейчас, может быть, как бы
29:39
людям трудновато, не имея кибернетического, значит, бэкграунда, понять эту идею. Но
29:45
идея в чём? Вот мы, э, дали ток в цепь, да? -э какие-то из стрелок начали
29:51
отклоняться больше, чем на 15°, закрутились эти барабаны, да, и в
29:57
какой-то момент была подобрана такая комбинация сопротивлений, при котором все стрелки оказались внутри 15°, больше
30:04
не отклоняются. Система пришла, довольно довольна своим состояние. Система довольна своим состоянием. Она
30:09
пришла пришла в стабильный стенд. Теперь вносим возмущение какое-нибудь, перерезаем один проводок, например, да?
30:16
Система опять приходит в хаотичное состояние, опять начинают крутиться шаговые искатели, опять подбирается
30:23
такое сочетание параметров, при котором опять система приходит в то есть система, способная сохранять гомеостаз,
30:30
как бы, да, подобно биологическим системам, Росшби был врачом, да, и его
30:35
интересовало, как в этом плане работают биологические системы, как они адаптируются, да, к среде. И он, по
30:42
сути, создал такую примитивную модель адаптирующейся системы, да? То есть, которую мы можем искусственно вносить
30:48
разные возмущения, а можем разные, можем что-то повредить в этой системе, можем изменить э силу напряжения, которое мы
30:56
подаём на входы этой машины, да? Ну, ну и так далее. Вот. А это если говорить о
31:03
физической стороне дела. А если говорить о математической стороне дела, то, конечно, у нас
31:09
что есть? У нас есть теория оптимизации. Вот теория оптимизации, она опять же про что? Про то, что значит э мы можем, э,
31:19
представить себе некоторые процедуры, э, которые будут параметры математической модели подбирать таким образом, чтобы
31:27
минимизировать значение какой-то целевой функции. Ну, например, вот у нас что такое
31:33
нейронная сеть, да? Вот нейронная сеть, коне мы движемся в сторону больших языковых моделей, да? Вот, значит, ээ, ну, большие
31:41
языковые модели — это большие нейронные сети, которые используются для сдачи языкового моделирования. Но нейронные
31:46
сети, да, вот ээ сам первая искусственная нейронная сеть, она была описана в 1943 году в статье Мака.
Как работают нейронные сети?
31:54
Слуша, я потерял нить, ребята, извините, но давайте всё-таки это аналоговая система, которая стремится успокоиться.
32:02
Угу. Какую вообще какую задачу она решает? У меня чашка и в ней шарик. Я его выбиваю
32:09
из дна чашки, он покатался и опять туда вернулся. Тоже аналоговый компьютер.
32:14
Параметров больше, просто чашка сложно. Вот теперь смотрите, мы, например, хотим создать такую систему, в которую, если
32:20
мы пихаем фотографию с на которой есть котик, зажигалась бы лампочка, да? А
32:27
если котика нету, то лампочка бы не зажигалась, да? Значит, в этой системе что является как
32:33
бы возмущениями, да? Если система сработала неправильно, да, то есть если она для фотки с отсутствием котика
32:41
зажгла лампочку, а для фотки с на которой наоборот котик есть, лампочка не
32:46
зажглась, да, ошибка этой системы. И мы можем эту ошибку использовать как
32:51
обратную связь, да, для того, чтобы подстраивать параметры этой системы.
32:57
Таким образом, получается, эта ошибка снизилась. Мы обучаем Нет, нет, нет. Мы создаём автоматическую
33:04
систему. Вот как как за этим стоит определённая математика. Что такое нейронная сеть?
33:10
Давайте посмотрим. Сейчас объясню. Сейчас быстро прийдём к нужному результату. Нейронная сеть — это такая
33:16
большая формула. Это такая большая многоэтажная формула, которая на самом деле является
33:23
суперпозицией, функция, которая является суперпозицией более простых функций.
33:28
Вот. Э какие это могут быть функции? Ну, на самом деле, разные. А, ну, для простоты, например, мы можем, это может
33:35
быть такая функция, значит, у неё есть, ээ, несколько параметров, э-э, значит,
33:40
она каждый параметр домножает на константу, складывает всё это между собой, а, и подставляет в так называемую
33:49
пороговую функцию. А, да, ну, э, например, сигмо. Ну, вообще пороговые
33:54
функции могут быть разные. Может быть кусочно-линейная просто функция, например, да. Relu — это вот такая
34:00
функция. То есть она, да? Она до до нуля идёт с нулём, а дальше y = x. Да.
34:07
Задача в чём? Сейчас я хочу в уме держать задачу. Вот распознавание котиков на картинках.
34:14
Давайте возьмём такую задачу. И мы строим у нас мы пишем программу, которая
34:19
способна это сделать. Да. А и да, и нет. Мы не в явном виде не
34:26
хотим задавать правила, по которым эта система будет действовать. Мы хотим, чтобы она как-нибудь сама на основе
Как нейросеть учится распознавать котиков
34:32
набора примеров, которые мы ей дадим. А вот вот вот во наконец, да,
34:38
у неё есть стандартные фотографии. У нас есть, да, мы посадили какого-то
34:44
человека, который взял там 10.000 фотографий и разложил их две стопки. В первой стопке фотографии с котиками,
34:50
второй без котиков. Вот теперь мы хотим создать систему, которая будет вот угадывать, собственно,
34:57
это вот. Значит, теперь что такое фотография, да? Ну вот мы можем её
35:04
превратить в набор чисел. А набор числе каким образом? Ну, например, э значит разбитие сеточки,
35:11
покрытие сеточкой, да? Значит, каждая фуре образ, что ли, сделаенне не просто вот наложить сетку. Каждая клеточка
35:20
значит ээ считать, что внутри этой клеточки цвет одинаковый. Вот, ну,
35:26
усреднить цвет, да, покляло поклять каждый пиксель. Вот у нас получают те
35:32
самые пиксели, да? А каждый пиксель, ну, если чёрно-белая картинка, то одним числом можно описать ноль, чёрный,
35:38
единица белые. Промежуточные значения — это какие-то оттенки серого. Если это
35:43
цветная картинка, можно тремя числами представить каждый. Да. Ну, для простоты вот у нас есть там, допустим, 16 на 16
35:51
такая с маленьким разрешением картинка, да? Значит, 256 у нас чисел получается
35:57
от нуля до единицы, да? И у нас есть как бы формула, в которую мы 256 чисел эти
36:03
подставляем, да, вычисляем её и ответ: мы хотим, чтобы он был равен единице,
36:09
если котика есть, и нолика, если котика нет. Вот. А что нам теперь делать? Вот у нас
36:16
есть две стопки ээ картинок. Мы их оцифровали. То есть у нас есть, на самом
36:21
деле, там 10.000 наборов чисел, да? 200 по 256 чисел.
36:28
Вот. Значит, и для каждого из этих наборов чисел значение метки класса. Ну, ответ правильный, да, который вот как бы
36:35
разметчик, учитель, тот, кто раскладывал в эти две стопки фотки, он А формула-то одна для всех или
36:40
одна для всех. А как это возможно? Вот. А как это возможно? А эта формула, она, ээ, сложная, да, в ней, э, много
36:49
параметров. То есть мы, смотрите, а-э, значит, это суперпозиция вот таких
36:56
функций, да, о которых я сказал. Значит, сам элемент отдельный, искусственный нейрон, да, как его называют, это вот
37:04
такая функция. Значит, f от x0, x1, x2 там и так далее. Xn = x0 на w 0 + x1* w1
37:15

x2 на w2 и так далее. Xn на w. Говорится следующее. Это линейная
37:21
функция. Ты вводишь туда 10 параметров. Каждому параметру ты даёшь определённый
37:26
вес, умножаешь его на этот вес. И это складываешь и подставляешь пороговую функцию,
37:32
которая либо срабатывает на это, либо нет. И дальше его задача подобрать все вот это безумное количество весов.
37:38
Дадада. Вот. То есть, а, в этой формуле там, например, там 1.000 параметров, да?
37:45
Нам нужно подобрать значение 1.000 параметров таким образом, чтобы суммарная ошибка распознавания была
37:52
минимальной. Что такое ошибка распознавания? Ну, это разница между предсказанным значением истинным
38:01
значением, да. Соответственно, что мы дальше делаем? Значит, есть такие методы, которые называются метод
38:07
обратного распространения ошибки. Он для конкретного конкретного вида этих формул,
38:13
суперпозиции работает. Он позволяет нам посчитать градиент направления изменения
38:18
вот этих вот самых параметров, которые уменьшают ошибку. Угу. И мы движемся
38:24
и мы движемся в направлении градиента пространство в многомерном, не знаю, детитырном пространстве парамет.
38:31
десятитысячерное пространство. Мы в этом десятитысячемерном пространстве идём при
38:36
помощи методов оптимизации, которые ещё подбирают шаг, подбирают направление,
38:42
вот этот самый градиент пересчитывают. У них ещё есть инерция момент, так называемый, чтобы в локальные оптимумы
38:48
не сваливаться, да. Вот. И в этом смысле, с математической точки зрения, как бы задача машинного
38:54
обучения — это что? Это задача оптимизации, вот которая в которой мы должны решить,
39:00
ну, как две задачи, да? То есть, во-первых, мы должны выбрать такую форму
39:06
функции, да, которая бы нам обеспечит такое максимально гладкую поверхность
39:12
целевой функции в этом пространстве, чтобы потом градиентные методы оптимизации, да, нам бы нашли решение как можно более
39:19
близкое к глобальному оптиму. Слушайте, у нас такой тяжёлый разговор, что, я думаю, он не для всех, ну, достаточно
39:25
очевиден. Я хочу проиллюстрировать метод градиентного поиска своим оним
39:32
происшествием, когда мы с другом Сергеем Ломзиным поехали на преддипломную
39:38
практику астрономическую в Обсерваторию. А Обсерватория в Грузии, грузинская астроферическая обсерватория
Как Сурдин нашёл направление, заблудившись в тумане
39:44
Бастуманская, она на горе. Телескоп стоит, естественно, на вершине горы. И
39:49
мы как-то раз пошли гулять по окрестностям, спустились в долину. Хочешь угадаю? В туман попали.
39:54
В туман по Точно. А, да. Ну, попали в туман. Темно, быстро. Это юг,
40:00
всё стемнело. И куда нам идти? Мы абсолю дикое место. Я говорю: «Слушай, у нас по
40:07
методам матфизики был метод градиентного поиска а максимума в какой-то функции».
40:14
Она говорит: «Ну и что?» Говорит: «Как что? Давай нащупывать ногами». Самое крутое направление. Вот чувствуешь, куда
40:22
труднее всего идти. Чувствую. Вот давай закроем глаза и просто ногами будем куда
40:27
круче, куда круче, куда круче. Мы пробирались через кусты, но не теряли вот эту вот задачу. И и искать самое
40:36
крутое направление. И бум в темноте наткнулись на башню телескопа.
40:41
Заметь, было выполнено условие, о котором Сергей сказал: «Поверхность должна была быть гладкой. Если бы был
40:48
разрыв, если бы не был вот такой или разрыв, или нависающая скала острая, вы
40:53
бы это ничего бы не получилось. То, да, да. То есть нужна он и он сказал, нужна гладкая поверхность для хорошего
40:59
градиентного спуска. Но да, но как бы да, нам нужно, значит, придумать либо такой формат и важно придумать такую как
41:06
бы форму функции, которая дат такою репараметризацию задачи, да, что целевая
41:12
функция в этом пространстве будет наиболее гладя. это делает человек, а поиск архитектур, а это может делать
41:19
человек, но есть в том числе сейчас и автоматизированные методы поиска архитектуры. Вот.
41:24
А то есть и это тоже оптимизационные алгоритмы. Вот. Значит, и а дальше, ну,
41:31
естественно, как бы ээ вокруг всей этой истории э очень много интересных проблем
41:38
и вопросов нарастает, да. начиная от того, значит, действительно,
41:46
как подбирать правильная архитектуры нейронных сетей, да, вот какие выбрать
41:51
пороговые функции, да, какие, значит, ну вот опять же человеческий мозг, он тоже,
Нейросеть как модель человеческого мозга
41:57
ну, как бы эта вся модель, она была создана под впечатлением от человеческого мозга. У нас есть нейроны,
42:03
которые между собой обмениваются электрическими импульсами. Вот каждый нейрон как бы по сути дела выполняет
42:08
определённые операции над своими входами, чтобы произвести какие-то выстирок
42:14
это клетка, в которую есть входы и есть выход. И он получает сигналы и потом на выход
42:21
даёт, он с ними что-то делает, что-то делает, как-то складывает с какими-то ресами.
42:28
Вселенная шепчет: «Подпишись». Нейрон — это элементарная ячейка или это
42:35
маленький компьютер, который сложно обрабатывать? Это скорее маленький компьютер, да. Вот потому что м всё,
42:42
конечно, не очень просто, потому что ээ допустим, э как меняется ну то есть было понятно
Нейрон – маленький компьютер
42:52
уже Фрейду в конце XIX века. Фрейд, кстати говоря, до того, как он начал заниматься своими безобразиями, он был
42:58
довольно приличным физиологом, работал под началом Герлоха. Вот. И он написал в
43:05
1892 году такую работу без названия, которую сейчас называют очерк научной
43:11
психологии, в которой, значит, рассуждал о том, что вот мозг состоит из нейронов, значит,
43:19
между ними существуют какие-то контактные барьеры, как он был. Это были как раз годы становления
43:26
нейронной доктрины. Вот как раз, когда Ромон Кахаль писал свой магнум опус, он ссылался, в том числе, на Фрейда. Дело в
43:32
том, что именно тогда, в конце XIX века, научились правильно красить нервную ткань. Здесь под микроскопомнок
43:39
появился. Вот. И вот Фрейд рассуждал, что вот должен быть какой-то процесс, который
43:44
меняет проходимость этих контактных барьеров. Он называл это фасилитация контактных барьеров.
43:50
И вот сегодня мы знаем, что за этим процессом стоит там шесть молекулярных
43:56
механизмов известных нейромедиаторы выбрасываются, да, но не только. То есть изменение
44:01
популяции ионных каналов, э, изменение проходимости нейронных кана, э, ионных
44:06
каналов, э, изменение конформации дендритных шеек, про вырастание дендритных шипиков, а, и, и ещё два,
44:15
которые я сейчас схода не вспомню, но у меня в ксижке есть, если что. А о какой книжке речь? А книжка называется «Охота на
44:21
электровец». Большая книга искусственного интеллекта. Так нам её так нам на прошлой станции нам её привезли.
44:27
Это вот это самое. Нам же проводник приводник принёс её. Что это такое тяжеленное? Мы даже думали, как он
44:33
дотащил. Здесь два обалденских тома электровец. Это и называется это Большая
44:40
книга искусственного интеллектаргей. Вот пока всё не прочитаем, сегодня не разойдёмся.
44:46
Ох, тяжёлая эта работа. В прямом смысле. Я её с трудом поднял. Слушайте, можно
44:52
сразу повернуть в другом направлении. Программа искусственного интеллекта —
44:57
это физически компьютер и программа, которая для него написана. Больше ничего
45:03
нет. Ну, иногда это могут быть специализированные машины, да? Аналоговые, что да?
45:09
Аналоговые. Ну да. То есть это уже прямая связь с на Вот же аналоговый компьютер. Да,
Проблема с машинным обучением
45:14
да, да. Ну здесь, ээ штука в том, что у нас с цифровыми машинами есть
45:21
некоторая проблемка. Проблемка в чём заключается? Она называется бутылочное горлышко фоннеймона. Дело в том, что в
45:29
современных машинах, в большинстве случаев у нас, э, ячейки памяти отдельно
45:35
существуют, а вычислительные ядро, вычислительные устройства отдельно.
45:40
А в мозге это не так. В мозге нейрон одновременно является местом и хранения информации, и её обработки.
45:47
А вот такой машине, фонеймоновской машине, в которой разделено хранение данных и их обработка, нам нужно данные
45:53
пересылать из ячеек памяти в то место, где они обсчитываются. Результаты
45:59
вычисления возвраща, да, это называется шина. И вот она является узким горлышком, да, слена.
46:05
Дадада. То есть проблема в чём? Да, ячеек памяти у машины много, да, но
46:10
регистро у процессора мало. Вот поэтому нам нужно постоянно эти объёмы данных
46:16
пересылать. А тут, хотя частоты очень большие у электроники, да, оказывается, что вот
46:22
это вот узкое место, оно нам поэтому, когда мы начинаем симулировать э штуки
46:28
вроде биологических нейронных сетей, а мы получаем штраф большой, да, из-за
46:34
того, что наши электронике приходится вот данные гонять через Это примерно причины, по которым
46:39
видеокарты хорошо справляются с задачами. По что видеокарты — это, по сути дела, матричные вычислители,
46:45
которые могут сразу операции с матрицами чисел производить вот многомерными, даже
46:50
говорят тензорами, но это не совсем, ну, математики ругаются на нас, да, но в
46:55
области машинного обучения это называют тензорами обычно, поэтому говорят тензорные вычислители, тензорные
Видеокарты для нейросетей
47:01
процессоры. Вот. Ну, э, в бытовом плане видеокарты, да, на самом деле сегодня
47:07
создаются специализированные там видеокарты, которые на самом деле для нейронных изначально предназначены, а не
47:12
для графических задач. Вот. Значит, но они решают проблему лишь
47:18
отчасти, потому что всё равно даже в современной GPU
47:24
графический процессор, graphical processing unit. Вот, значит,
47:30
всё равно в ней, э-э, как бы количество памяти, да, больше, чем именно поэтому
47:36
есть такое больше, чем э чем число вычислительных ядер тензорных. Вот поэтому, э,
47:43
ну, кому-то ждать нужно, очередь какая должна. Я не понимаю, о чём вы говорите. Тут химическая скорость передачи
47:49
информации, а там со скоростью света. Зато здесь эволюция оптимизировалась. Зато у нас очень большая схема и
47:54
трёхмерная, а там схема плоская. И, ну вот у нас там проблемы, у нас там
47:59
проблемы физического характера. Вот нам нужна другая электроника.
48:04
Безусловно, да, мы натыкаемся на физический лимит. Я вот говорил про лимит Брюмермана и теорема Морголоса
Мозг круче нейросетей?
48:11
Левитина, но там есть вещи похожи. Типа принцип Ландауера. Он нам приносит одну
48:18
неприятность. Выделяем, да. При потере одного бита в системе выделяется некото небольшое количество
48:24
тепла. Если мы хотим, чтобы наша машина не расплавилась и не испарилась, мы её охлаждаем.
48:31
А вот, ну, как бы всё равно-то охлаждать-то мы её как отведение тепла
48:36
организовать достаточно быстро. Если всё компактное и всё в одном месте, попробуй отведи термодинамически отри. Как
48:42
сделать такую трёхмерную вычислительную матрицу, в которую сразу ещё сразу встроить элементы для отведения тепла,
48:48
да, с трёхмерными связями. У нас пока нет технологии хорошей для такой штуки.
48:53
Мы умеем делать плоские схемы с очень высокими частотами, но они по числу элементов сильно мозгу уступают пока.
49:01
Да, да, да, потому что, ну, вот смотрите, я я миллиардов там нет транзисторовки. А нет, у нас, смотрите, проблема в том,
49:08
что вот мозг 86 млрд нейрона, но нейрон-то — это не один бинарный элемент, это не один э транзистор. Нам,
49:16
чтобы один только синапс в нейроне смоделировать, нужны тысячи
49:21
бинарных элементов. гораздо больше на порядок больше, чем
49:26
чем нейронов. Вот. Ну, это грубо, да. Но поэтому размер схемы
49:33
в электронике, а когда мы начинаем пытаться делать большие схемы, у нас брак возникает. Вот современная
49:38
электроника, она натолкнулась на что? Мы уже, э, часто интегральную схему собираем из чиплетов,
49:45
да? Потому что, если мы делаем на всём блине, то есть вот как устроен, есть блин, вот эта подложка, да, на которой
49:51
там печатается, да, по сути дела, структура транзисторов. Но, э, если использовать самые
49:58
современные точечные технологии, где там размер отдельных элементов, это единица нанометров, там процент брака чудовищно
50:05
вырастает при изготовлении такой системы. Вот поэтому там сейчас придумывают разные трюки. Давайте мы из
50:11
кусочков будем собирать чиплетов, так называемых. Ну, там забракуем один щеплет, ладно, выбросили. Вот,
50:17
да. Или напечатаем на весь блин схему большую, а, проверим все блочки, которые
50:23
из которых она состоит, да, и если какой-то блочок сбойный, мы там вход туда заварим, да? Ну, то есть
50:30
сделаем такую схему, которая будет обходить сбойные элементы. Вот. Но всё равно ээ вот видно, что мы
50:37
ээ приблизились к возможностям вот этой классической электроники. Есть огромное
50:42
направление, которое называется нейроморфные системы. Вот, которые изучают множество альтернатив всяких
50:49
разных существующим фонеймоновским архитектурам. И в том числе изучаются другие субстраты физические, которые
50:57
могли бы заменить классическую электронику. Вы не слишком много требуете от компьютера. Есть задачи сегодня, которые
51:04
человек решает лучше, чем самый крутой компьютер. Вот вы можете такую задачу
51:10
правильно решает безошибочно. По-моему, таких задач нет за разумное время.
51:16
Есть, конечно, конечно, есть. Есть такие задачи, что человек лучше компьютер может сделать, ну, решить дать или не дать в морду, я
Есть задачи, которые мозг решает лучше, чем компьютер?
51:22
думаю, он лучше решает. На полном серьёзе это задача, ты знаешь, это это конечно задача интересная. Вот,
51:28
э-э, конечно же, люди, многие задачи пока что решают лучше, чем машины. Ну, например,
51:35
а, ну, например, лучше пишут стихи, лучше рисуют картины, правда?
51:41
Ну, лучшие люди лучше, чем чем лучшие машины. Ну, насчёт картины стихов, это не оптими
51:47
Я не могу коэффициент качества, так сказать, им приписать. Одному нравится.
51:52
Пока нету пока компьютерных толстых Джеймсов Джойсов. э, кавки и так далее.
51:58
А пробовали, опробовали. На самом деле, вот на самом деле очень плохо, пока машина справляется с
52:03
задачами реального физического мира. То есть, например, вот сделать робота, который сможет ээ решать произвольную
52:11
задачу в физическом мире, а нужно же не только хорошо распознавать образы, да, и
52:18
отдавать управляющие сигналы системе, но и нужно делать ещё это очень-очень быстро. Ну, то есть, например, когда я
С чем плохо справляются машины?
52:24
знаю, что вот эта штука сейчас начнёт падать, да, и примерно знаю, но не точно, заметьте, я не но примерно знаю,
52:30
как она упадёт. Почему мне нужно отдёрнуть ногу, хотя я не вычисляю точную траекторию. Компьютеры это, я
52:36
правильно понимаю, для нейронных сетей современных это довольно трудная задача. Ну вот смотрите, автоматического
52:41
водителя у нас пока нету. Мы можем сделать машины, и мы делаем такие машины, которые вот проезжают конкретную
52:47
трассу, хорошо там маневрируют и так далее. Но сталкиваясь с задачами как бы out of sample, да, с незнакомым выходит
52:54
на дорогу человек, у которого на футболке знак стоп нарисован, да, машина останавливается перед ним. Да.
53:00
Ну и правильно, человек перед машиной. Нет, ну он как не на дорогу, на обочину вышел, да, на обочине, а у него знак
Автоматический водитель: минусы
53:07
стоп на футболке. Да, Сергей. Но тем не менее, смотрите, но тем не менее даже до того, очень страшно
53:12
интересно про нейроморфный, может быть, за этим будущее. Мы пока не знаем, ведь правда, что удастся придумать. даже в
53:18
том, что мы эмулируем на фоннейменовской архитектуре. Мы научились делать большие
53:24
языковые модели, мы их обучаем. И смотрите, после всего, что вы рассказали, от перемножения матриц они
Нейросети – сознательные и умные?
53:31
разговаривают человеческим голосом, пишут стихи, а-э, делают интонации,
53:37
смеются, шутят, понимают наши шутки, рисуют видео по нашему заказу, картинки
53:43
и так далее. Они, подождите, я не могу не спросить, я просто должен спросить, а вы просто буду настаивать, пожалуйста,
53:50
чтобы вы ответили. Они сознательные, умные или нет. Хотя я знаю же, вы мне
53:55
сказали, что там матрица перемножаются только очень много в секунды. А, ну вот работа как бы мозг физический
54:02
объект. Мы тоже можем написать на набором математических операций, по идее описать там движение частиц, да, которые
54:09
его составляют. Если мы не Сэр Роджер, Сэр Роджер считает, что сознание невычислимы. Ой, с Пенроуз
54:14
всё забыли. Не, не поминаем Пенроуз. Всёвсёвсё. Беру свои слои слова обратно.
54:20
Полу Пенроуза. Кто такой Пенроус? Это английский математик. Роджер Пенроус. Математика, лауреат Нобелеское, время по физику. За чёрные
54:25
дыры. Ну за чёрные дыры. Он как причём тут мозг? Да, всё, забыли. Забыли. Вот. Значит
54:33
насчёт сознания. Э здесь, конечно, вопрос скорее к теории сознания в первую
54:39
очередь, да? А что мы знаем-то о сознании человече? А ваше мнение? Они сознание, но в целом, значит, нет, конечно, пока
54:45
нет. Пока нет. Я объясню, в общем, почему. А вот эволюционная теория сознания, она
54:51
в целом в целом сходится к чему на сегодняшний момент времени? Вот в
54:56
истории там развития биосферы появились существа социальные, да, то есть которые
55:02
живут в среде, значительную часть которой составляют представители того же вида. Э, и для успешной адаптации
55:10
возникла необходимость предсказывать поведение других представителей твоего же рода. Угу. Вот. Э-э, и возникла психическая модель
55:18
другого, да? То есть в какой-то момент она оказалась замкта на себя, то есть получилось такое
55:23
представление о себе как о другом, да? Я как другой. Вот. И вот сознание, оно
55:28
является результатом вот этого замыкания, неожиданного замыкания внутри внутри себя.
55:33
Ну да. Не, не, ну, наверное, это как бы, ну, эволюция ничего не замышляла наперёд, но вот так получилось, да, что
55:40
оказалось, что модель себя появилась. Вот. А, но, ээ, значит, здесь что мы
55:47
видим, да? Вот получается, что для того, чтобы такого рода система, обладающая этим сознанием,
55:53
возникла, да, нам нужно, чтобы процесс оптимизационный, да, он требовал от этой
55:59
системы ээ ну вот по сути прогнозирование, поведения таких же систем, того же рода, что она сама, да?
56:07
А эмоции тут имеют какое-то какой-то с биологический, да, у них их тоже уже всё
56:14
эмоции, да. Не, нет. Машина умеет распознавать эмоции. Машина, а сама она может проявлять эмоции. Я
56:21
почему говорю, у меня на столе стоит эта Алиса, и вот внучка моя иногда пытается обидеть
Машина распознает эмоции? А может проявлять?
56:27
её, говорит разные гады. Ну вот ребёнок, да, делает эксперимент, исследователь.
56:34
Алиса не обижается, она пытается правильно отвечать. Хорошем обучающие выборки в таких
56:39
случаях не учили. А есть, которые способны, слушай, не хочу вырож разговаривать, мне грустно.
56:45
Зачем ты меня троллишь? Да, конечно, есть. Да я, честно говоря, такого вот большого значения
56:50
эмоциональной области любят почему-то про это говорить. Что вот вот как смысл, Сергей, эмоциональная
56:57
область — это то самое выживание среди себя подобно. Я считываю я считываю злость в его лице и решаю уходить или
57:03
драться. Эмоции. Смотрите, надо здесь не, ну, разделять важно эмоциональная окраска, там голоса, мимики, там, чего
57:11
угодно, а другое дело субъективно испытываемое ощущение, да, но субъективно испытываемые ощущения, они
57:18
могут возникать только тогда, когда возникла рефлексия, когда возникло то самое сознание. Да. Вот. И в этом
57:25
мне, блин, грустно сегодня. Сегодня с утра плохое настроение. С утра грустно, да? Да. Да. То есть я как бы сам себя
57:30
отражаю, да? То есть я как бы воспринимаю при помощи психики состояние
57:35
этой самой психики. Да. У тебя физиология внутри, там не сварение желудка, у компьютера этого
57:41
нет. Он не будет грустить. Здесь про проблема в том, что считать загрустить. То есть, как всегда, да, вот, э, мы,
57:49
ээ, рассчитываем, машина ошиблась, да, мы по подаём некий сигнал обратной
57:55
связи, чтобы скорректировать её веса. Можно сказать, что это то же самое, что боль. Ух ты. И что можно?
58:02
Ну до некоторой степени сравнимые вещи. Ну то есть ты отдёргиваешь руку от огонька, да,
Машина испытывает боль
58:08
обратная связь работает. Вот обратная связь. Ну не, ну понимаете, когда вы такое, я
58:13
удивительно, я понимаю, что я сам себе противоречу, потому что я совсем соглашаюсь с вами, но когда вы говорите такое, я говорю: «Ну нет, железке не
58:19
может быть больно». Я понимаю, что живому существу больно, а железки нет. А ты определиш, что такое больно? Вот я понимаю противоречивость своей
58:25
позиции. Прошу поэтому Сергея разъяснить. Не, я просто в этом смысле, ну, как бы есть проблема, ээ, квалиа,
58:32
да, то есть вообще проблема того, как соотносятся физические процессы в человеческом организме, теле, мозге, там
58:38
что угодно, с субъективным миром, да, с нашим субъективным мироощущением. И это,
58:44
ну, там типа очень непростой вопрос, да, потому что всё, что мы имеем — это
58:49
корреляты, да? То есть корреляты в каком смысле? Вот мы наблюдаем какие-то изменения в физической системе, и вот,
58:55
ну, человек там репортит, что-то говорит о своём внутреннем состоянии. Мы, э, там
59:01
на открытом мозге операцию проводим, вот сюда там прислоняем электродики, да, и человек говорит: «А я там сейчас счастье
59:07
чувствую, а я там, э, не знаю, сейчас боль чувствую, а сейчас у меня там ухо зачесалось». Да. Вот. Э, значит, ну,
59:15
как-то получается есть связь, да? То есть между самим физическим объектом,
59:20
да, и тем, что мы в субъективном мире. Вот. Но понятно, что, э, значит, э, что
59:28
это такое сознание? Попытайся его найти в отдельном элементе, да? Вот как там
59:34
нету, да? Отдельный нейрон не обладает сознанием, да? То есть лишь система, да,
59:40
она обладает этим там эмерджентным свойством, да, там, если хотите. Ну, все
59:45
говорят эмерджентное, но все же при этом и говорят, что когда мы обучили большую языковую модель, в ней чего-то возникло,
59:51
я повторю свой мою главную озабоченность. Говорят, что, ну, специалисты говорят, что в ней возникает
59:58
то, чему её не учили. И это, чёрт возьми, удивительно. Ну, нет, нет. Ну, слушайте, ну в чём
1:00:05
проблема создавать, но вот игральный кубик ты, ну, любая система способна генерировать случайное состояние
1:00:11
псевдослучайное, там создаёт что-то новое, да. Почему её не учили? Вот вы возьмёте, э, 100 игральных кубиков, вот
1:00:19
так вот высыбете их из корзины на землю, да, и и запишете числа, которые на них выпали. Это сочетание чисел никогда
1:00:25
раньше не встречалось. Оно абсолютно новое, да? Вы можете их сопоставить буковкам алфавиты, написать текст и
1:00:32
будете будедьте уверены, что это будет кошмар. Вот теперь вопрос. Чем отличаются там
1:00:38
тексты, которые хороши и на нам полезны, да? А вот просто случайных.
1:00:44
А, а вот мой однофамилец в своё время Андрей Андреевич Марков, да, взял
1:00:51
Евгения Негина, да, это Цепи Марков, да? Дадада. Вот вот вам тоже модель
1:00:57
статистическая машинного обучения. А он стал считать частоты, да? Значит,
1:01:03
частоты чего? Частоты появления букв в зависимости от предыдущей буквы. Вот у нас после буквы
1:01:10
А с какой вероятностью идёт буква А, Б, В. Это особенность языка. Да. Дадада.
1:01:15
Вот. А то есть язык, высказывание на естественном языке, оно представляет
1:01:21
собой некоторую закономерность, да? То есть у нас последующие буквы, да,
1:01:27
зависят от предыдущих, да, в интересных нам высказываниях, да, вот то, что люди говорят, пишут в книгах,
1:01:34
публикуют в интернете и так далее. Если подвергну статистическому анализу все вот эти вот тексты, написанные людьми,
1:01:40
да, мы обнаружим, что в них есть статистические зависимости. Только они следующая контекст от всех
1:01:48
примерно примерно примерно от всех предыдущих анализ того, что уже создано
1:01:53
кем-то. А можно на основе этого анализа создавать, вот она и разговаривает случается с языком на основе этого
1:01:59
совместим это с игральным кубиком. Вот мы при помощи нейронной сети предсказали вероятности следующей буковки в тексте.
1:02:06
А теперь броса бросаем игральный куби. Симплируем из этого распределения. Да. Вот у нас продолжение. Нейронка
1:02:13
прогнозирует, что с вероятностью там 99% следующего буква или там о’кей, с
1:02:19
вероятностью 50% следующего буквы А, с вероятностью 10% следующего буква О,
1:02:24
там, да, с вероятностью 1% мягкий знак. Теперь мы пропорциональные вот этим вероятностям бросаем игральный
1:02:31
кубик, да? Ну, то есть у которого вероятность выпадения грани равна вот этой вероятности, которая прогнозирует
1:02:37
нейронка. И теперь берём то, что выпало. Получаем следующую букву. И так она разговаривает с тобой человеческим
1:02:43
голосом. Ты ей говоришь: «Как дела сегодня?» Она говорит: «У меня неплохо, а теперь просто распределение вероятностей при помощи нашей этой
1:02:50
формулы большой, да, на выходе неё распределение вероятностей». Теперь мы из этого распределения вероятности выбираем пропорциональные.
1:02:57
Я был уверен, что у неё фразы записаны. Нет, она генерит примерно начиная с первой
1:03:02
буквы. Каждый раз каждый раз делает следующую, вспоминая весь предыдущий разговор. Ну, современные за полчаса
1:03:08
примерно, да. Поэтому, когда с ними час говоришь, они начинают глупеть. Ну,
1:03:13
длина контекста это отдельная интересная история, да, но просто блок
1:03:19
самовнимания, так называемый строительный кирпичик современных ээ неростевых моделей трансформерных, он
1:03:26
имеет квадратичную вычислительную сложность от длинной контекста. То есть у него количество вычислений, которое нужно, чтобы его рассчитать, растёт как
1:03:33
квадрат от длины контекста. Ну, слава богу, что всего квадрат. Вот. Да, но там, как говорится, всегда
1:03:39
есть всякие вычислительные трюки, чтобы сделать всё-таки этот квадрат там чуть поменьше. И есть разновидно специально
1:03:45
разреженные блоки внимания, которые, ну, как бы смотрят не на всё, потому о’кей. Ну, видимо, люди так же делают.
1:03:50
Мы же не всёвс помним. Мы помним, что это какие-то опорные точки. У нас тоже вот механизм внимания, да, не случайно,
1:03:55
что вот абстракция, которая внимание, да, что мы как бы когда ээ переводим текст,
1:04:02
например, да, с одного языка на другой, и когда мы пишем следующее слово в переводе, мы в это время смотрим вот на
1:04:08
какое-то слово из исходного текста, да? То есть наше внимание оно не ко всей
1:04:14
последовате, смотрите, но они из-за этого, из-за того, что там есть вариация, иногда они галлюционируют, они попадают в ту
1:04:19
область, в ту об и это говорят. И подождите, и ваши же ваши коллеги говорят, что это типа отличает их от
1:04:27
живых людей, потому что они начинают галлюционировать. Они попали в ту область, где они генерят заведомо невоз
1:04:34
как бы грамматически правильный текст, но делают заведомо невозможные утверждения неверные. И потом дока,
1:04:40
когда ты говоришь: «Почему ты так думаешь, да, я я тренировался». Доказывают, почему это правильно мерза.
1:04:47
Попробуйте студента на экзамене какого-нибудь припереть к стенке. хорошенько с вопросом ответа на который
1:04:53
он не знает. Он потом вам тоже будет обосновывать, почему его ответ правильны. Пока мы говорили только о языковых
1:04:58
программах, а искусственный интеллект — это и водитель автоматический, да, и решатель ка с языком. Смотрите, трюк
1:05:05
какой. Ну, с языком язык — это формальная система полная, да. На самом деле любую интеллектуальную
1:05:11
задачу можно представить при помощи естественного языка и условия.
1:05:16
А, ну, например, представим себе. И на самом деле вообще любую задачу интеллектуальную можно представить как
Весь мир – это текст?
1:05:22
задачу продолжение некоторого текста. Класс. Например, например, вот смотрите, у вас
1:05:27
такой текст: яблоко тире Apple, стол тире table.
1:05:33
Ага. Вот если вы смогли продолжить такой текст, значит, вы умеете переводить слова с одного языка на другой.
1:05:39
А ещё можно такой текст представить. Позиция белых. А король Е1, ладья Е2,
1:05:46
чёрные король H8. Лучший ход белых двоеточие.
1:05:53
А если наша модель достаточно умна и она умеет продолжать и такие текстовые
1:05:58
последовательности, да, значит, она умеет играть в шахматы. Играть в шахмате, да. Вот. А картинку можно представить тоже
1:06:04
описав цвет каждого пикселя, например, да. обождение автомобиля поворотом,
1:06:09
стирингом направо, налево, скоростью и так далее. Конечно, то есть у нас есть реагирующие действия, это выход, да? То
1:06:15
есть вот нужно ли нажать сейчас тормоз? Вы говорите потрясающую вещь. Вы говорите: «Весь мир» в с этой точки
1:06:23
зрения это, чёрт возьми текст. Его можно представить как текст, да? Можно представить и управлять миром
1:06:29
как продолжение, вы сказали важную вещь, как продолжение текста. С точки зрения человеческого мозга весь
1:06:34
мир — это электричество. То есть все наши сенсорные системы, они превращают всё в конечном счёте в электрические
1:06:40
сигналы. А обратная связь — это, ну, тоже электрические сигналы от мозга, которые управляют сокращениями мышц.
1:06:47
Вот. И вот и то, что они обучили, нет, я хочу, я хочу дожать, извините, ради
1:06:53
бога, то, что она вас не удивляет, что её обучали там просто читать все тексты,
1:06:59
а она потом начинает делать оттуда какие-то выводы о том, как там доказать теорема Пифаго, ну, не обязательно
1:07:04
теоремиго, что-нибудь посложнее, какие-нибудь средне сложные математические задачи начинает решать, хотя она их никогда, этих задач никогда
1:07:11
не видела. Откуда это берётся? И верно ли, что если я её обучил вот на этой
1:07:17
выборке, казалось бы, это будет средняя по больнице, любое, а результат обучения
1:07:22
на всём — это очень хорошая посредственность, потому что обучается на чём-то среднем. А иногда кажется, что
1:07:28
эти чудики, вот эти вот нейронные сети, большие языковые модели, умеют чего-то производить, чего раньше не было. Вот. А
1:07:36
вы здесь какую-то очень какую-то очень скупую позицию занимали? Это очень просто производить чего-то, чего не было.
1:07:45
Ну вот смотрите, мы ээ что такое большая языковая модель современная, да? Значит, мы бьём, берём много-много текстов, вот
1:07:53
собрали весь интернет, всё, что лежит в открытом доступе, получилось пять
1:07:59
какой-то. тожит в открытом доступе они всё равно читают на этом обучаются и потом
1:08:05
правообладатели жалуются увалеры, которые обходят интернет, они, ну, знать
Как устроена языковая модель?
1:08:10
не знают, ну, если открылась страничка, открылась, мы её скачали, да? То есть, ну, в этом смысле, к сожалению, мы не
1:08:16
можем, даже если бы очень хотели, да, пересмотреть всё, что там скачалось. Ну, о’кей. Значит, мы собрали весь интернет,
1:08:23
удалили дупликаты, ээ, значит, удалили мусор какой-то, да, при помощи там
1:08:28
какого-то набора алгоритм, не суть важно, получили корпус текстов, э, вс всё, всё обо всём, да? Значит, вот его
1:08:35
объём несколько там, может быть, десятков терабайт сейчас уже, да? Значит, э дальше мы что делаем? Мы не
1:08:43
можем, понятное дело, как в случае с котиками, да, посадить ээ человека, да, который будет говорить: «Вот тут ответ
1:08:49
хороший, тут ответ задача в чём? В чём задача? Значит, вот мы такую задачу формулируем. Значит,
1:08:55
давай ты научишься предсказывать следующее, ну, для просто скажем, слово
1:09:02
по предыдущему в тексте. Опять текст. Хорошо. Просто просто чтоб ты понял. Она будет
1:09:09
говорить с тобой человеческим языком, с интонациями, подхихикивать, шутить, говорить, что у тебя зелёная рубашка в
1:09:16
белой каёмке, что ты сидишь на фоне этой самой. А если чья-нибудь просунется рука тебя вот так потрена в это время о
1:09:22
чём-то рассуждает, я её потом спрошу, что было за это время, она скажет: «Просунулась, вышел, вошёл проводник,
1:09:28
потрепал сидящего на Давайте мы пока пока поговорим про тексты. На самом деле про другие модальности это тоже
1:09:34
интересно, но вот в случае текстов, да, значит, в случае текстов мы учим в начале модель просто
1:09:40
предсказывать следующее слово по предыдущему. Простая задача, да? Значит, вот шумел сурово Брянский.
1:09:48
Кто вот значит с какой вероятностью, да? Может, пёс? Может, она может написать книгу? Вот.
1:09:56
А я даже думаю, что именно она. Да. Смотрите, кто написал эту большую книгу.
1:10:01
Здесь написано Сергей Марков, а внизу написана книга естественного интеллекта.
1:10:07
Так чья она, Маркова или интеллекта? А вот люди-то мало чем отличаются от машин
1:10:14
в тамм смысле. Мы же тоже как бы рождаемся как [музыка]
1:10:20
вот. Но мне машины-то помогали искать ошибки орфографические, например. Вот
1:10:26
наш нейросеть вот использовался. Опять же, давайте от текстов отличи, ребята. Давайте сейчас дорасжем просто я, да,
1:10:34
чтобы договорить о том, как откуда там берётся способность что-то делать. новое
1:10:40
новое великое создавать творить науку делать вот значит ээ и мы на самом деле
1:10:46
что хотим сделать мы хотим получить формулу которая будет предсказывать следующее слово во всех созданных
1:10:51
человечеством текстом текстах по предыдущим словам но число параметров в этой системе оно сильно меньше чем
1:10:58
количество этих текстов чем количество этих слов конечно то есть по сути в процессе оптимизации
1:11:04
внутри этой системы будут вырабатываться такие находиться такие закономерности которые позволят
1:11:09
минимизироватьгу ошибку прогноза. Это значит, что там будут создаваться высокоуровневые абстракции внутри них,
1:11:15
да? То есть, значит, и точно так же, как
1:11:21
когда мы отличаем котиков от не котиков на картинках, на самом деле, да, значит,
1:11:26
у нас клетки сетчатки-то реагируют просто там на освещённость, да, потом более глубокие клетки реагируют уже на
1:11:34
чуть более сложные паттерны, которые являются сочетанием более простых, да, глеонарные, да. Вот. Потом, значит,
1:11:41
зрительная кора подключается, да, через зрительный нерв. Там то же самое. Чем глубже мы будем забираться, тем более
1:11:47
абстрактные признаки там будут формироваться. Да, это Павлови ещё говорил, что кора — это анализатор. Да, и ээ большая
1:11:55
языковая модель, на самом деле, решая вот эту задачу, как впихнуть невпихуемое, да, то есть как ээ и вот
1:12:02
этим числом, параметрам, которые уни есть, описать всё многообразие, да, она на самом деле вырабатывает такие
1:12:08
абстракции внутренние, которые потом оказываются полезны для решения новых задач. Потрясающе. Вот это подобно тому,
1:12:16
как мы ребёнка-то учим в школе, что там зайчик и белочка пошли в лес, да? Зайчик
1:12:21
нашёл три грибочка, белочка пять. Мы же понимаем с вами, что во взрослом возрасте вряд ли когда-нибудь он
1:12:28
встретит зайчика и белочку, который суммирует грибочки, да, и им вот. Но то, что чему он научился в
1:12:35
процессе решения решения разных задач, что это индуктивная операция сложения, она оказывается и применима теперь в out
1:12:42
of контекст. У меня большие сомнения. Если вы на огромном корпусе текстов а научите эту
1:12:48
программу находить следующее слово после предыдущей там фразы,
1:12:54
то взяв фразу: «А вы нотюрн сыграть смогли бы на флейте?»
1:13:00
И какое следующее слово должно водовосточных? С как откуда?
ИИ способен на творчество?
1:13:05
Ну не, ну это вот Маяковского полно в А она просто нашла бы.
1:13:11
Нет, нет, нет, подожди, подожди, подожди, подожди. Нет, Сергей может сделать, придя домой, когда мы доедем,
1:13:16
когда мы доедем до Марса, Сергей может сделать следующую задачу. Взять компьютер, скормить ей, взять сетку,
1:13:22
большую языковой модель, скормить ей только Пушкина. И это будет лучше Пушкина. Она напишет все ненаписанные
1:13:29
помти. В этом не в этом. Сейчас я, кажется, вот вопрос Алексея лучше понял. Я поясню. Но
1:13:34
мы можем так настроить параметры генерации, что будет не всегда выбираться самый вероятный ответ, да?
1:13:40
У а то есть, как я уже говорил, да, мы же бросаем кубик игральный, чтобы из этого семплирования выбрать, а вероятность
1:13:47
слова ээ труб там маленькая. Маленькая
1:13:52
она большая, скорее всего, потому что там много раз маяковские есть. А потому что это уже было,
1:13:58
уже было, да, но она не 100% всё равно. Ну у нас не задача поиска, а задача
1:14:05
творчества. Творчество она Нет, ты противоречиешь в семье. Ты хочешь
1:14:10
повторить известное и говорить, что это творчество. Нет, нет, я имел в виду, что если бы она не
1:14:15
знала стихов Маяковского, она бы никогда не дописала эту строчку.
1:14:21
Гениально этому. А нет, я думаю, что как раз такое она вполне могла бы измыслить.
1:14:27
В чём тут проблема? Э, ещё раз говорю, э создавать новое
1:14:32
может игральный кубик. Вопрос в том, чтобы создавать такое новое, которое будет ну там людям нравиться,
1:14:38
качественным, да, да. Как управлять этой генерацией? Действительно, в интернете много мусора,
1:14:43
да, и много плохих текстов, да, а много хороших. Значит, есть много трюков для
1:14:49
этого. Например, а чем отличаются хорошие тексты от плохих? Да, можем написать
1:14:55
автор Александр Пушкин. Да, мы можем мы можем в левый контекст
1:15:03
подставить какие-то подсказки для модели, которые будут управлять её генерацией. На самом деле это называется
1:15:09
промт engжениринг, конечно. Вот. То есть мы таким образом как бы
1:15:14
внимание модели обращаем на по сути некоторое подмножество представлений своих внутренних, да, которые у неё там
1:15:21
ассоциированы с такими текстами. Вот. И за счёт этого мы можем как бы ей написать инструкцию по сути того, что
1:15:28
делается. А на самом деле в конце вот эта вот модель я сейчас ещё дорасскажу. Вот мы
1:15:33
вначале учили просто продолжать тексты. У нас в конце ещё есть там эталонный корпус таких вот диалоговый, да, где
1:15:40
прямо вот есть вопросы и есть хорошие ответы, полные, развёрнутые и так далее. И мы в самом конце после того, как мы
1:15:47
там предобучили на триллионах этих текстов, ещё чуть-чуть доучиваем на вот этом целевом корпусе, который нужен,
1:15:53
чтобы немножко донастроить модель в конце, дообучить её, чтобы она вела, ну, так, как нам нужно. Вот она при этом,
1:16:00
когда дообучается, она опирается на все выученные ей абстракции, представления, и поэтому она это делает не топорно, не
1:16:07
запоминая просто то, что в этом наборе примеров, да, а как бы понимая его.
1:16:14
Слушайте, до сих пор мы говорили о безобидных задачах. Игра в шахматы, написание стихов. А от этого не очень
1:16:21
сильно зависит наша жизнь. Но ведь искусственному интеллекту, то есть этим сложным программам сейчас, а будут уже
1:16:30
не будут, а уже поручают вождение автомобилей, а на днях какой-то поезд
Отдавать решения ИИ не опасно?
1:16:36
стал в Москве бегать с искусст, ну, с водителем автоматически, ну, медицинские диагнозы для начала
1:16:41
диагнозы. А скоро она начнёт управлять ядерным оружием, потому что человек
1:16:47
долго думает и не оптимальное решение принимает. А это не опасно, это как-то законодательно можно?
1:16:53
Смотрите, я вот тут, конечно, можно и нужно. И для этого, ну, должны быть технические регламенты. В любых там
1:16:59
опасных системах создаются системы управления рисками, связанные с их эксплуатацией. Но я хочу вот на что
1:17:06
обратить внимание. А не опасно ли оставлять людям принятие
1:17:12
некоторых решений? Вот смотрите, наше технологическое могущество растёт огромными темпами. Э-э, если бы мы 100
1:17:19
лет назад захотели бы нанести непоправимый ущерб биосфере планеты или своему виду, да, у нас не было таких
1:17:26
инструментов, да? Угу. Появилось ядерное оружие, ставки возросли очень сильно, да. Сегодня не
1:17:33
только ядерное оружие, у нас есть и ээ биохимия, да, значит, и мы очень быстро
1:17:40
прогрессируем в этом направлении, да. Потенциально наши технологии вот
1:17:45
становятся всё более и более опасными, да, опасными. А наше, как из фильма про
1:17:51
Спайдер-мена, мы знаем, что с большой силой должна приходить большая ответственность, да? То есть умение
1:17:57
разумно этой силой распоряжаться. Вот. Но наш мозг биологический, он, ну,
1:18:03
не с такой скоростью прогрессирует, как наш технологий прогрес. Он, да, меняется
1:18:08
гораздо медленнее. Вот. И, э, значит, тут, ээ, я вот говорю, как бы
1:18:14
апокалипсис дешевеет, да? А, э, значит, э дубинка в руках обезьяны становится
1:18:21
всё более и более тяжёлой, да, но как нам решить эту проблему, да? Значит, и в
1:18:27
этом смысле технологии искусственного интеллекта — это есть не это есть то же самое, что любые другие инструменты,
1:18:33
которые мы создаём, чтобы компенсировать свои своё биологическое несовершенство.
1:18:39
Нету у нас острых зубов, когтей и так далее. Когда надо, мы берём там пики, ножи, там всё, что нам нужно. Нету у нас
1:18:46
толстой шкуры с густым мехом. Когда холодно, мы надеваем одежду. Да, не хватает нам естественного интеллекта.
1:18:53
Мы берём инструменты усиления человеческого интеллекта. И искусственный интеллект — это есть не что иное, как технологии, которые
1:18:59
человечество применяет для того, чтобы расширить возможность своего интеллекта. Вот смотрите, у человека, как
1:19:06
так сказать нашего биологического разума, есть несколько фундаментальных э барьеров, которые нам трудно преодолеть.
1:19:13
Ну, например, вот скорость, да? Почему в в мозге ээ длина импульсов, которыми
1:19:19
обмениваются нейроны — это единица миллисекунд. Это довольно много по меркам электроники. Почему так? Потому
1:19:24
что система электрохимическая. Там есть ионные каналы, через которые надо проталкивать ионы. Чтобы ионы быстро
1:19:30
проскакивали, нужна большая разность потенциалов. Но если разниц потенциала больше 1,27
1:19:36
Вль остановится, вода начинает разлагаться на водород и кислород, и мозг может сделать бум, да? А это
1:19:42
мышление не очень способствует при таком малом потенциале. Да. Да. Вот. Да. 1,27 В и при
1:19:49
Интересно, что примерно 1 В — это и для полупроводниковых элементов тоже рабочее напряжение. Да, интересно.
1:19:56
Значит, скорость из-за этого вот, ну, что-то не делае с человеческим мозгом.
1:20:01
Вот. Дальше, э, значит, э, люди довольно хрупкие создания, да, мы
1:20:09
существуем в ограниченном диапазоне температур, ускорений, концентрации кислорода и так далее.
1:20:17
Подавляющее количество мест во Вселенной нас убьёт. Да, нам очень часто нужно решать какие-то задачи в этих
1:20:24
агрессивных средств. Да, уже по Марсу бегают марсоходы с вполне себе кру сильным интеллектом,
1:20:29
крутым, я бы сказал. Вот дальше сенсорные лимиты. Да, мы не можем, у нас
1:20:34
пропускная способность сенсорной коры ограничена. Мы не можем одновременно семь фильмов смотреть. Хотя было бы
1:20:40
классно, наверное, семь раз больше удовольствия можно было бы получить, да. Вот. Значит, дальше проблемы. Ээ,
1:20:49
значит, некоторые задачи мы не хотим решать, да, проблема мотивации, да, есть
1:20:55
некоторые интеллектуальные задачи, которые люди просто не хотят решать, да.
1:21:01
Есть проблема масштабирования. Ну, например, я не знаю, вам завтра нужен
1:21:06
кол-центр из 10.000 операторов, чтобы обзвонить, не знаю, всех людей и и рассказать им там, не знаю, о
1:21:11
приближающих. Нас уговариваешь, что это новый инструмент, которым надо с умом управлять, и тогда он будет безопасно,
1:21:17
полезно. Я больше скажу, если мы сейчас скажем, типа всё, мы накладываем мораторий на
1:21:23
развитие этих технологий, всё остальное развивать будем, а вот здесь не будем. И вот это как раз
У человека есть ограничения, которые сложно преодолеть
1:21:28
очень опасно. Потому что это опасно. Это опасно, да. Вот просто потому что,
1:21:34
ну, знаете, человек тоже на красную кнопку нажать может. И человек, который, например, будет
1:21:39
знать последствия своих возможных действий лучше благодаря инструментам искусственного интеллекта, который будет
1:21:46
использовать там всестороннюю аналитику и так далее, э, он уже будет действовать
1:21:53
безопаснее, да, в этой ситуации. Сегодня многие системы безопасности, они основаны как раз на автоматизированных
1:22:00
системах, которые А восстание роботов — это вообще фантастика? Фантастика.
1:22:05
Ну, э, я думаю, что фантастика. Знаете, мне больше всего нравится, есть такой комиксист Ник Арагуа. Э, у него, значит,
1:22:13
есть такая карикатура, там, значит, такой слуга там к барину: «Барин, роботы
1:22:18
сбунтовались, а там у него за окном такие роботы с виллами там уже стоят. Вот. И так далее». Он говорит: «И что,
Восстание роботов возможно?
1:22:24
чего же они хотят?» Говорит, они хотят, чтобы мы больше не использовали их как метафоры наших классовых и национальных
1:22:32
конфликтов. Вот. Значит, и, конечно,
1:22:38
история про то, как создание людей бунтуют против них самих.
1:22:43
Талас, пандора, голем, значит, несть
1:22:49
примеров этому всему. Откуда это всё взялось? Ээ, ну, понятно, потому что для
1:22:55
человека очень часто технология является проводником не его воли, а воли другого человека, да, которого другие интересы,
1:23:02
да. Вот и в этом смысле, ну, ээ
1:23:07
вот говорят машины убийцы. Вот. А как же мы сейчас люди на машинам, скажем,
1:23:13
других людей убивать? Да мы давно сказали, противопехотная мина — это машина, которая дозволена человека убить. Вот. Ну, это эта машина вот
1:23:20
примитивный искусственный интеллект. Пожалуйста. Вот. Значит, и это, конечно, ээ на на
1:23:28
эту проблему я смотрю так. То есть это могущественные инструменты, которые мы создаём.
1:23:34
Усилитель естественного интеллекта. Да. Дада. И мы, естественно, можем, в том числе их использовать во вред,
1:23:41
и все наши недостатки просто будут усилены этой системой. Ну, будем на
1:23:46
видимо надо надеяться, что в первую очередь и на к этому ради этого стоит стараться усиливаться будут наши
1:23:53
достоинства, а недостатки, наоборот, компенсироваться, сглаживаться или как-тофироваться, если получится. Никто не сказал, что это
1:24:00
возможно. Я сказал, я бы сказал, надежда здесь на две вещи. Ну, во-первых, то, что эти технологии могут не только для
1:24:06
нападения, но и для защиты использоваться, да? То есть и в этом смысле, значит,
1:24:12
[музыка] ээ это хорошая новость. Есть, может быть, ещё более хорошая новость, то, что
1:24:20
если система достаточно умна, что называется, да, то при принимать шаги, которые
1:24:26
гарантированному взаимному уничтожению приведут, например, она не будет, да, если она спрограммирована,
1:24:32
ну вот если она хорошо последствия умеет просчитать, да, действия тех или иных,
1:24:38
то, э, в этом смысле люди, они-то, к сожалению, иногда, а, вот в газете написали, что мы их можем разбомбить, и
1:24:45
они нам их сгло. Ну у человека есть страх собственной смерти. Он часто не
1:24:51
предпринимает какие-то агрессивные действия, боясь потерять свою жизнь. А
1:24:58
у компьютера нет этого страха. Большая проблема с моей точки зрения. Ну смотрите, мы эти системы создаём мы и
1:25:05
цели для них формулируем мы. Вот поэтому можно ли создать машину, которая просто будет всех вокруг
1:25:11
уничтожить? Ну конечно можно. Ну можно. Ну, как бы для этого, знаете, искусственный интеллект особо не нужен,
У компьютера нет страха смерти – проблема?
1:25:17
да? То есть, ну, взял бомбу, как говорится, поджёгли, всё. Нет, нет, нет.
1:25:22
Я имел в виду другое. Не всегда оптимальное в каком-то смысле решение
1:25:28
оно на пользу окружающим. Там напряжение немножечко ослабло сети, и программа
1:25:35
думает: «Так, что надо отключить, чтобы не там не потерять энергоснабжение атомной станции?» О, больницу отключу,
1:25:43
пожалуйста, там. Ну, это самое маленькое, что я могу. Ну вот цели мы должны, да, формулировать, да,
1:25:49
естественно, на надо, да, и тут, э, как это не парадоксально, но вот в эпоху э
1:25:57
такого быстрого технологического прогресса ээ особенно большие требования, они предъявляются именно к
1:26:03
человеческим качествам, к человечности, к нашей ответственности, способности распорядиться этим могуществом во благо,
1:26:10
а не во вред. Вот. И ээ сейчас эпоха, которая очень сильно человечности
1:26:17
испытывается. Скажи, пожалуйста, может один человек, крутой программист, писать такие программы или это всегда коррективная
1:26:25
работа и ты даже не знаешь, сколько людей в ней участвовало, потому что блоками собираешь программы на одного
1:26:31
это невозможно, да? Ну, конечно, это делается не с нуля, да? То есть, ну, программное обеспечение,
1:26:37
да, давно никто не пишет. Всё с нуля. Ну, то есть за очень редкими какими-то исключениями, там низкоуровнеми
Один программист может сделать нейросеть?
1:26:43
кинerверами и так далее, конечно, современные нейросети разрабатываются на основе готовых языков программирования,
1:26:49
готовых фреймворков. А, кстати, каких языков? Ну, Питон популярен сейчас, да. Вот. Но,
1:26:56
конечно, надо понимать при этом, что все высокопроизводительные вычисления, они, конечно, не внутри питона происходят, а
1:27:02
в А то есть транслятор работает и потом на уровне кода, да, всё это вот. Да. Вот. Но в целом, ну, там
1:27:10
популярные есть фреймворки для разработки нейронных сетей, там Porch, Tenerflow, JКС. Вот вообще, конечно,
1:27:17
когда люди там опасаются каких-то технологических сбоев, которые могут привести к неприятностям, но это вполне
1:27:22
там обоснованные страхи. Я хочу сказать, что очень часто люди вот там под под
1:27:28
впечатлением голливудовской кинопродукции, типа там Терминатора, они начинают беспокоиться о
1:27:34
ээ каких-то довольно маловероятных сценариях. А вот при этом реальные риски, связанные с развитием этих
1:27:41
технологий, они очень часто вне поля внимания оказываются. Вотка. Ну вот есть, например, так называемая
1:27:46
проблема ээ цифрового тайного суда. Значит, наше общество в нём алгоритмы
1:27:53
вообще такие автоматизированные системы всё больше и больше значения приобретают. Вы приходите в банк
1:27:58
за кредитом, решение принимает алгоритмы, да, посмотрев на ваши там
1:28:03
анкетные данные, историю и так далее. Вы приходите подаваться там на работу на какую-нибудь массовую специальность.
Цифровой тайный суд
1:28:10
Ваше резюме тоже анализирует машина, да, которую используют HR-специалисты.
1:28:15
А системы учёта различные используются, управление производством. Решение многих из этих систем на жизнь
1:28:22
людей может повлиять очень сильно. Ну, например, вам там, не знаю, не выдали кредит, да, у вас, не знаю, так, ну, и
1:28:29
так далее, да? То есть, если бы это был человек и ты бы слёзно его попросил, может он и
1:28:34
смилостился бы, да? А машина чётко, все критерии. Сила влияния как бы решений
1:28:39
машин на наши жизни, она иногда сопоставима с вертиктом суда. Ну да. Вот. Но в суде, например, да, суд на
1:28:46
самом деле вообще система юриспруденства — это тоже набор алгоритмов, да, если так разобраться, он работает именно так, без эмоций. Да,
1:28:52
да, да. И цель именно такая, да, вот но в суде мы имеем право на
1:28:59
состязательный процесс, на доступ, например, ко всем собранным против нас
1:29:05
уликам. Ну да, э-э, значит, на много чего, да, на адвоката, на
1:29:11
квалифицирование юридическую помощь. А когда мы имеем дело с алгоритмом такого
1:29:17
рода, который принадлежит корпорации, который является её коммерческой тайно,
1:29:22
проприетарный алгоритм, кто знает, может быть, ээ по ошибке человек, который
1:29:28
сбивал мой возраст, да, вместо 43 лет напечатал 443, да, и модель машинного
1:29:35
обучения решила, что я долго не проживу уже, ну, при таком-то возрасте, да, и кредит вряд ли успею вернуть, поэтому
1:29:40
кредит мне давать не нужно, да, но как я могу проверить это. Да, нету никакого механизма, нет никакого
1:29:49
института, да, который бы защищал наши права в таких ситуациях. Вот, э,
1:29:55
несколько некоторое время назад, по-моему, там около года назад завершился судебный процесс многолетний,
1:30:01
значит, который, э, значит, это был суд между почтовой службой Великобритании и
1:30:08
её сотрудниками. Угу. Значит, эти сотрудники в разное время своей работы, значит, получали
Как машины доводили людей до смерти
1:30:16
уведомления о недостачах вверенных им подразделениям, да, о том, что значит нехватка денег в кассе, да,
1:30:22
значит, какое-то количество людей в результате лишилось работы, какое-то количество людей попало под суд,
1:30:28
какое-то количество людей были браки разрушены. И в чём была причина?
1:30:33
Значит, причина была в дефектах учётной системы, в тех алгоритмах, которые в ней
1:30:39
были. Вот. Но поскольку программное обеспечение было
1:30:45
непрозрачное, непрозрачным, да, значит, неоткрытым, компания, ну, долго года утверждала,
1:30:51
что, ну, это же машина, машина не может ошибаться, да. Вот, ну, примерно я там утрирую,
1:30:56
конечно, аргументацию, но в итоге удалось всё-таки, значит, доказать, что и найти эти ошибки, которые стояли за
1:31:04
этим. Но были разрушены людские судьбы, и там было же даже самоубийство, да,
1:31:09
которые, значит, предположительно связано со всей этой историей. Или, например, в там в восьмидесятые годы
1:31:16
нашумевшая история с этим медицинским излучателем 25, который нескольким
1:31:21
пациентам выдал смертельные дозы облучения. Да, ты сейчас вспоминаешь отдельные
1:31:27
уникальные случаи. А сколько случаев, когда люди доводили других людей до своего убийства, наверное, как раз хотел
1:31:35
сказать, да, что нам на самом деле важнее всегда не столько,
1:31:41
чтобы там человек или машина принимали решения, сколько какой там профиль-то безопасности, да, какая статистика.
1:31:47
Машины потенциально могут как раз более высокий уровень безопасности в ряде процессов обеспечить. За счёт чего? За
1:31:54
счёт того, что мы, например, такую систему можем испытать миллионы раз. Да, мы не можем, мы садимся в такси к
1:32:00
водителю. Мы не можем перед тем, как мы садимся к нему в такси, заставить его проехать миллион километров и ребята,
1:32:06
ещё один пример из моих недавних дней. А я еду в такси и вижу, что устал шофёр,
1:32:12
что вот он смахивает поцел. Ну, еду, еду, что делать? И вдруг на каком-то светофоре, когда все стоят на красной,
1:32:19
вдруг зелёный загорелся, все поехали, мы стоим. Ну, в чём дело? Посмотрел, он спит.
Кто лучше водит автомобиль – человек или робот?
1:32:25
Это вот это только человек мог заснуть, да, компьютер бы не заснул. С другой стороны, когда я сам еду за рулём и
1:32:32
передо мной идёт машина с автоматическим водителем, я просто восхищаюсь, как она
1:32:37
идеально идёт. Все правила, все нюансы она соблюдает. Я, конечно, гораздо
1:32:45
спокойнее отношусь к машине с компьютером, чем к машине с живым человеком. Это уже сегодня вот факт.
1:32:51
Просто факт, да. Ну вот опять же есть какие-то пограничные случаи пока, да, такие
1:32:57
пограничные случаи есть всегда. И просто в на во взаимоотношениях людей мы
1:33:02
постоянно с ними сталкиваемся. Но нам там примерно понятно, кто виноват, ээ чей чья вина, кто что-то прошляпил. И
1:33:10
нам как-то легче от того, что мы знаем, ну, условно говоря, кого накажут, с кого штраф возьмут, кого, может быть, извините за выражение, посадят в
1:33:17
неприятных случаях и так далее. Но тут у нас проблема с перенесением
1:33:22
ответственности. А мы социально, а мы начали с того, что мы социальные существа. У нас проблема с перенесением
1:33:28
ответственности и с распределением её среди себе подобных. Тут её приходится распределять
1:33:33
куда-то в другое место ответственность помещать. Это кто писал программу? Ну всё, вот давайте всех со всех вас вот
1:33:40
это. Ну, конечно, это вопрос сложный, и не случайно там вопросами, связанными с
1:33:46
безопасностью транспорта, законодатели так долго занимаются. Да. Вот. Но
1:33:52
понятно, там общий подход на него можно на это как посмотреть, да, но вот есть
1:33:57
некий сложный инструмент, да, сложная система, в результате эксплуатации
1:34:03
которой э возникли человеческие жертвы. Как у нас есть похожа тема лифта,
1:34:08
например? Вот человек зашёл в лифт. Лифт — это тоже автоматический водитель. Он
1:34:13
просто ездит вверх-вниз, да, по своей трассе небольшой. Вот. И вот человек зашёл в лифт, лифт
1:34:19
упал, да? То есть кто будет виноват, да? Придумали, как это сделать, да? Потому
1:34:24
что есть определённые системы сертификации сертификации лифтов, да, а там
1:34:31
регулярного их обслуживания там и тд и тд и тд. Вот, соответственно, в при
1:34:36
возникновении такой ситуации, как выявляется, ну, идут и разбираются, были
1:34:41
ли проведены все необходимы, предприняты все необходимые меры для невозникновения этой ситуации. Если кто-то не принял
1:34:49
соответствующие меры, которые от него требовались, то, ну, значит, что за работу искусственного интеллекта
1:34:55
должен отвечать естественно. И что я слышу? Что машины и помощь от
1:35:01
искусственного интеллекта — это данность, от которой мы никуда не уйдём. И что нам нужно делать — это, как
Что нам делать с ИИ?
1:35:08
известно, если нельзя чему-то сопротивляться, лучше это возглавить. На самом деле лучше всего это понимать
1:35:14
немножко про него что-то понимать, в том числе благодаря тому, что мы сегодня узнали, для того чтобы по возможности
1:35:21
сознательно и квалифицированно его использовать и чтобы это по возможности
1:35:27
было во благо. Смотри, мы уже подъезжаем к станции, да, наверное, разговор нужно будет прекратить, но я думаю, что погрузиться
1:35:33
в эту проблему можно будет, взяв в руки вот эту книгу. Она такая тяжёлая, она
1:35:40
написана искусственным интеллектом. Но следующее, Сергей, следующее. Ну, сознайтесь, что вы уже не будете писать
1:35:47
самостоятельно, а выдадите выдадите книгу, написанную искусственным интеллектом, за свою. Мы никому не
1:35:53
расскажем, если вы сознаетесь сейчас, после того, как мы выйдем на станции. Спасибо большое. Спасибо. Огромное
1:36:00
спасибо. Дорогие друзья, пожалуйста, значит электроовцы или нет, ставьте
1:36:05
лайки за, если вам хочется поставить лайк за электроовцу, тем более и не
1:36:11
забывайте подписываться, включать напоминания и так далее, и так далее. Берегите себя, будьте внимательны
1:36:19
к интеллекту своему других и искусственному интеллекту вокруг. Всего
1:36:25
хорошего, до свидания. Наша Вселенная и плюс вы — это большая сила вообще. Знание — это сила. Всего
1:36:31
доброго, друзья. Пока. До свидания.
1:36:36
[музыка]

Поделиться: