Леонид Вальдман: «Искусственный интеллект и макроэкономика»

Леонид Вальдман (Leonid Valdman) — профессиональный экономист, кандидат экономических наук (Институт Системных Исследований, Москва, 1986). В России работал научным сотрудником, преподавателем, консультантом, советником в правительстве времен Гайдара. В России и Америке занимался частным бизнесом.

*Компания Meta (соцсети Facebook и Instagram) признана экстремистской и ее деятельность запрещена в России
**Прямамя ссылка на видео https://www.youtube.com/watch?v=x0F24Q6qqSE

Пересказ видео

Вступление

  • Леонид Вальман, экономист, кандидат наук, выступает на тему искусственного интеллекта и макроэкономики.
  • Вальман отмечает высокий уровень предыдущих докладов и старается не повторять их.

История и развитие ИИ

  • Интерес к ИИ периодически возникал и угасал с 1950-х годов.
  • Новый всплеск интереса связан с появлением чатбота ChatGPT.
  • Создано множество новых чатботов, идёт модернизация старых.

Основные понятия и технологии

  • Прорыв в ИИ возможен благодаря нейронным сетям, глубокому обучению и трансформерам.
  • LLM (Large Language Models) обучаются на огромном объёме текстовой информации.
  • Мультимодальные модели используют фотографии, видео и аудиозаписи.

Чатботы и их ограничения

  • Чатботы зависят от человека, не обладают автономией.
  • Новые модели чатботов способны к рассуждениям, что улучшает качество работы.
  • Правительства вводят ограничения на использование иностранных чатботов по соображениям национальной безопасности.

Агенты и их применение

  • Агенты могут самостоятельно выполнять задания, оперируя в интернете и корпоративных базах данных.
  • Развёртывание агентов ожидается в 2025-2027 годах.
  • Агенты активно применяются в бизнесе, заменяя или помогая работникам.

Слабый и сильный ИИ

  • Чатботы и агенты относятся к слабому ИИ.
  • Сильный ИИ включает AGI (Artificial General Intelligence) и ASI (Artificial Super Intelligence).

AGI и его возможности

  • AGI обладает способностями, сопоставимыми с человеком.
  • AGI может решать математические проблемы, писать романы, управлять физическими объектами.
  • Сроки создания AGI варьируются от 2026-2027 до 2028-2030 годов.

ASI и его теоретическая природа

  • ASI — чисто теоретическая конструкция, публикации о работе над ней пока не попадались.

Стадии развития ИИ

  • Слабый чатбот и сильный ИИ отличаются автономностью действий.
  • Агенты ИИ уже занимают пограничную зону между слабым и сильным ИИ.
  • HI может полностью лишить человека контроля над ИИ.

AGI и его возможности

  • Предполагаемый IQ AGI будет на уровне 155, что выше, чем у 98% населения.
  • AGI может решать сложные математические задачи, но не работает с абстрактными понятиями.
  • Создание AGI возможно, но вызывает сомнения из-за различий между естественным и искусственным интеллектом.

Риски развития ИИ

  • Недостаточно высокое качество моделей и галлюцинации чатботов.
  • Хакерские атаки на чатботы и агенты ИИ.
  • Лёгкость создания дипфейков и их применение в мошенничестве и пропаганде.

Риски AGI

  • Возможность катастрофы с уничтожением человечества.
  • Оценки рисков варьируются от 0% до 100%.
  • Наиболее ощутимые риски связаны с злонамеренным использованием AGI для создания оружия.

Риски использования ИИ

  • В прошлом умные люди не ставили задачу уничтожить человечество с помощью биооружия.
  • HI позволяет менее образованным людям приобрести средства для нанесения большого вреда.
  • AGI в международных конфликтах ещё опаснее.

Развитие военных AI

  • Активно разрабатываются AI для военных целей.
  • Доступ к военным AI может оказаться у нежелательных лиц.

Сравнение с ядерным оружием

  • AI может уничтожить всё население Земли, как ядерное оружие.
  • Проблема нераспространения ядерного оружия решена, для AI это невозможно.

Автономность и самообучение AI

  • AI может самообучаться и формулировать цели.
  • Неясно, как ограничить цели AI, чтобы они были направлены во благо человека.

Этические вопросы

  • Программирование доброжелательного AI требует решения вопроса о смысле жизни.
  • Человечество не может договориться о содержании понятий добра и зла.

Конфликт в Open AI

  • В 2023 году в Open AI произошёл конфликт из-за коммерческого успеха и безопасности ИИ.
  • Сэм Олтман был уволен, но восстановлен после угрозы увольнения сотрудников.
  • Илон Маск предложил купить Open AI для усиления работ по безопасности.

Призыв к паузе в исследованиях

  • В 2023 году было подписано открытое письмо с призывом к шестимесячной паузе в исследованиях ИИ.
  • Пауза может быть полезна, но неясны задачи и сроки.

Проблемы регулирования ИИ

  • Внутренняя конкуренция в США мешает остановке разработок ИИ.
  • Законодатели некомпетентны в вопросах регулирования ИИ.
  • Правительство может разрушить динамизм развития ИИ.

Угроза Китая

  • США и Китай лидируют в разработке ИИ, остальные страны отстают.
  • Угроза Китая является фактором против паузы в разработках ИИ.

Лидерство США в AI под вопросом

  • Появление китайских чатботов, таких как Deep ПСК, ставит под сомнение лидерство США в разработке AI.
  • Разработки идут как в гражданской, так и в военной сферах, что делает одностороннюю паузу невозможной.
  • Доверие между сторонами отсутствует, что исключает двустороннюю паузу.

Экономические аспекты внедрения AI

  • Внедрение AI может привести к значительному вытеснению людей с рабочих мест.
  • Оценки потенциальной безработицы варьируются от 5% до 70%.
  • AI легко заменяет человека в рутинных операциях, которые занимают большую часть рабочего времени.

Новые профессии и переобучение

  • Вытеснение из некоторых профессий может сопровождаться созданием новых, но их автоматизация также возможна.
  • Переобучение безработных требует значительных ресурсов и времени, что вызывает сомнения в его эффективности.

Социальные последствия безработицы

  • Массовая безработица ставит вопрос о том, на что жить уволенным работникам.
  • Система социального страхования может не справиться с постоянной массовой безработицей.

Безусловный базовый доход

  • Безусловный базовый доход рассматривается как возможное решение проблемы предоставления средств к существованию безработным.
  • Эксперименты с ББД в разных странах закончились неудачей, но идея возвращается в обсуждение из-за грядущих тягот.
  • Илон Маск предлагает безусловный высокий доход, но его источник неясен.

Замещение людей агентами ИИ

  • Агенты позволяют увеличить производительность труда и снизить расходы на персонал.
  • Агенты могут работать круглосуточно и без выходных, что увеличивает объём производства.

Экономические последствия

  • Увеличение производства требует снижения цен для поддержания платёжеспособного спроса.
  • Снижение цен может привести к дефляции, что затруднит выплату долгов.
  • Дефляция трансформирует экономику, меняя представления о росте и устойчивости.

Роль денег и сбережений

  • Деньги теряют свою основную функцию при исключении людей из экономической деятельности.
  • Сбережения, пенсии и долги становятся проблематичными.
  • Рыночная экономика может перестать функционировать в известной форме.

Социальные последствия

  • Люди могут стать ненужными как работники и налогоплательщики.
  • Возникают вопросы о роли государства и избирателях в новом обществе.

Процесс перехода

  • Замещение людей агентами может начаться уже в этом году и ускориться в будущем.
  • Процесс может быть болезненным, с ростом безработицы и проблемами занятости.
  • Оптимисты ожидают роста экономики, но это потребует большого количества сырья.

Международные аспекты

  • В странах с отстающими разработками в области ИИ могут возникнуть проблемы взаимодействия с лидерами.
  • Необходимо найти решения для расчётов и взаимодействия между рыночными и пострыночными системами.

Выводы

  • Массовая безработица может не наступить, но анализ возможного будущего важен.
  • Агенты уже появляются, а AGI может появиться в 2026-2030 годах.
  • Необходимо готовиться к будущему, чтобы минимизировать негативные последствия.

Прогнозы Илона Маска

  • Илон Маск восхищает как мыслитель и бизнесмен, но его экономические воззрения вызывают сомнения.
  • Его прогнозы кажутся излишне оптимистичными, особенно с точки зрения экономиста.

Экономические взгляды Трампа

  • Экономисты критикуют концепцию Трампа, который стремится вернуться к архаичной экономике.
  • Трамп пытается провести радикальные изменения, но не анализирует причины проблем.
  • Проблемы требуют анализа и постепенного решения, а не кавалерийской атаки.

Рост продолжительности жизни

  • Увеличение продолжительности жизни может привести к экономическим проблемам.
  • Лекарства, замедляющие старение, могут создать нагрузку на экономику.
  • Возможно, потребуется переход к новой экономической парадигме.

Проблемы безработицы

  • Сокращение рабочей недели до 20 часов может не решить проблемы безработицы.
  • Некоторые работы исчезнут или трансформируются из-за автоматизации.
  • Новые технологии могут создать новые рабочие места.

Анализ массовой безработицы

  • Автор не прогнозирует массовую безработицу, но анализирует её возможные последствия.
  • Важно осознать будущее и проверить предельные нагрузки системы.
  • Возможные решения: уменьшение рабочей недели.

Искусственный интеллект и производство яиц

  • Искусственный интеллект не может производить яйца, это делают люди.
  • Автор предлагает перенести дискуссию о яйцах на второй круг.

Будущее продолжительности жизни

  • Развитие биологии и медицины приведёт к значительному росту продолжительности жизни.
  • Предел — бессмертие, что изменит жизнь людей.
  • Люди могут стать киборгами или сменить субстрат.

Трансформация человечества

  • Люди должны измениться и стать вечными студентами.
  • Автоматы обеспечат базовые потребности, а люди будут учиться и учить.

Проект Universe 25 и будущее человечества

  • В проекте Universe 25 мыши вымирали при идеальных условиях.
  • Автор сравнивает это с регионами, оставшимися без работы.

Общение с будущими поколениями

  • Автор интересуется возможностями воссоздания себя для будущих поколений.
  • Существуют сервисы, использующие искусственный интеллект для общения с умершими.
  • Эти сервисы могут воспроизводить образ человека и поддерживать иллюзию общения.

Общение с искусственным интеллектом

  • ИИ может поддерживать переписку и знать человека лучше, чем родственники.
  • Это вызывает сильный душевный отклик у людей.
  • Технология будет развиваться, так как это реальная потребность.

Создание цифрового двойника

  • Можно использовать чат DPT для создания цифрового двойника.
  • В аккаунт загружаются данные о человеке.
  • Это платный сервис, но название не указано.

Причины утраты конкурентоспособности Америки

  • Денежная политика, отказавшаяся от золота, привела к монетарной инфляции.
  • Инфляция удлинила фазы роста и сократила фазы спада экономики.
  • Постепенно экономика становится менее конкурентоспособной из-за роста стоимости жизни.
  • Производство перемещается в страны с более благоприятными факторами.

Проблема безработицы и искусственного интеллекта

  • ИИ может заменить многие функции, выполняемые людьми.
  • В закрытой экономике проблема безработицы становится социальной.
  • В глобальной экономике США стали центром потребления, а не производства.
  • Многие работы, которые заменит ИИ, уже не нужны и являются формой налогов на производителей в других странах.

Проблемы аудита и финансовых рейтингов

  • Аудитинг четырёх крупнейших компаний показал финансовый кризис.
  • Рейтинги финансовых продуктов оказались сомнительными.
  • Маркетинговые агентства и инновационные рекламы также неэффективны.

Экономические изменения и роль Китая

  • Китай может создать свои аудиторские и рейтинговые агентства.
  • США теряют производственную базу и рабочие места.
  • Китай и Юго-Восточная Азия могут существовать без США и Великобритании.

Глобальная экономика и отсутствие глобального правительства

  • Отсутствие глобального правительства усложняет управление экономикой.
  • Социальные методы не решат проблемы.
  • США и Великобритания стали паразитическими экономиками.

Роль искусственного интеллекта

  • Искусственный интеллект усиливает эрозию глобальной структуры.
  • Рейтинговые агентства и аудиторские компании становятся рудиментами.
  • Искусственный интеллект атакует непроизводственную занятость в США.

Риски и перспективы искусственного интеллекта

  • Искусственный интеллект может уничтожить жизнь на Земле.
  • Маск предлагает колонизацию Марса как способ защиты.
  • Существует антагонизм между сторонниками быстрого развития и теми, кто беспокоится о рисках.
  • Администрация Трампа стремится к максимально быстрому развитию искусственного интеллекта, что вызывает опасения.

Регулирование искусственного интеллекта

  • Администрация Трампа не настаивает на регулировании ИИ.
  • Это опасно для общества.

Меры по обеспечению безопасности

  • Создан институт искусственного интеллекта с бюджетным финансированием.
  • Институт заключил соглашение с ведущими фирмами для добровольного тестирования алгоритмов на безопасность.
  • Компании самостоятельно исследуют безопасность своих алгоритмов.

Доверие к разработчикам

  • Мы должны доверять разработчикам, так как у нас нет других вариантов.
  • Неясно, насколько хорошо и последовательно выполняются меры безопасности.

Невозможность изолированной системы

  • Идея построить замкнутую систему, куда ИИ не проникает, невозможна.

Будущее человечества и ИИ

  • ИИ может принести огромные блага, но также несёт риски.
  • ИИ может как уничтожить человечество, так и обеспечить рай для части человечества.

Научная фантастика и искусственный интеллект

  • Научная фантастика становится реальностью.
  • Отношение к ИИ аналогично отношению к научной фантастике.
  • ИИ не имеет прошлого и настоящего, только будущее.

Риски и блага ИИ

  • Риски и блага ИИ велики.
  • Опасность в том, что ИИ может получить собственное целеполагание.
  • ИИ может быть мощнее людей и иметь те же риски.

Будущее с ИИ

  • Люди не знают, как жить с ИИ.
  • ИИ порождает больше вопросов, чем ответов.
  • Отменить ИИ невозможно, его будущее неопределённо.

Вопросы к докладчику

  • Возможность холодной войны между ботами.
  • Экономические последствия политики Трампа.

Экономические последствия политики Трампа

  • Автомобильные компании могут перенести производство в США.
  • Пошлины на детали для автомобилей усложняют перенос производства.
  • Фармацевтические компании могут по-другому реагировать на пошлины.

Экспериментальное время

  • Ситуация меняется быстро.
  • Люди живут в экспериментальное время и наблюдают за изменениями.

Холодная война в искусственном интеллекте

  • Искусственный интеллект уже давно ведёт холодную войну через ботов.
  • Люди уже не занимаются этим, всё автоматизировано.

Перспективы Америки в конкуренции

  • Америка не погибает, но её экономическая система изменится.
  • У людей будет расти благосостояние, но изменится экономическая система.
  • Америка имеет передовые бизнесы и лидирует в некоторых отраслях, таких как информационные технологии.

Роботизация и производство

  • Роботизация в Америке стагнирует, несмотря на возможность вернуть производство из Китая.
  • Основная проблема — профсоюзы и другие факторы.
  • В будущем искусственный интеллект нивелирует разницу в заработной плате и вернёт производство в Америку.

Искусственный интеллект и власть

  • Искусственный интеллект может стать опасным, если получит свободу воли.
  • AGI может формулировать цели и искать средства для их достижения.
  • Важно чётко определить ограничения для целей искусственного интеллекта.

Будущее искусственного интеллекта

  • Искусственный интеллект может захватить власть и влиять на людей.
  • Важно определить смысл жизни, добро и желательность для ограничения целеполагания алгоритмов.
  • Люди должны быть образцом для искусственного интеллекта в качестве носителей человеческих ценностей.

Опасности новых изобретений

  • Любое серьёзное изобретение потенциально ведёт к уничтожению человечества.
  • Примеры: огнестрельное оружие, автодорожный транспорт.
  • Человечество справляется с рисками, но новые технологии требуют новых подходов.

Искусственный интеллект и риски

  • ИИ может нанести серьёзный вред, но его риски можно минимизировать.
  • Примеры успешного регулирования: ядерное оружие.
  • Необходимость создания регулирующих органов и международного контроля.

Мнения и оценки

  • Разработчики ИИ оценивают риски катастрофы от 15% до 100%.
  • Эти риски выше, чем уровень безопасности, который бы нас устраивал.
  • Задача докладчика — информировать о рисках, а не утверждать их неизбежность.

Сравнение с ядерным оружием

  • Ядерное оружие контролировалось государством, ИИ может разрабатываться частными лицами.
  • Регулирование ИИ сложнее из-за его доступности и быстроты развития.
  • Необходимость свободной конкуренции и баланса между безопасностью и инновациями.

Благодарность и выводы

  • Докладчик получил благодарность за содержательный и глубокий доклад.
  • Прогресс всегда сопряжён с рисками, но это не повод отказываться от него.
  • Важно взвешенно оценивать риски и принимать меры для их минимизации.

Прогресс и риск

  • Прогресс всегда связан с риском, особенно многообещающий прогресс.
  • Альтернатива прогрессу — застой, который ведёт к вырождению и гибели.
  • Примеры застоя: цивилизации, которые были завоёваны менее развитыми варварами.

Смысл жизни и самосохранение

  • Смысл жизни человечества — его самосохранение.
  • Самосохранение может быть на разных уровнях: от индивидуального до глобального.
  • Искусственный интеллект имеет разрушительный потенциал, превышающий атомную бомбу.

Life Expectancy и качество жизни

  • Life Expectancy росла до ковида, но затем заметно упала.
  • Важно не только количество лет жизни, но и её качество.
  • Качество жизни определяется способностью функционировать в определённом ключе до пожилого возраста.

Продление жизни и социальные проблемы

  • Израильские учёные нашли способ замедлить старение клеток.
  • Продление жизни может привести к перенаселению и нехватке ресурсов.
  • Решение проблемы — ограничение рождаемости и сокращение рабочей недели.

Философские аспекты искусственного интеллекта

  • Обсуждение искусственного интеллекта должно быть структурированным.
  • Важно определить, какие взаимоотношения у нас будут с параллельной реальностью.
  • Опасность возникает, когда параллельная реальность самоосознаёт себя и становится личностью.

Опасности микробиологии и искусственного интеллекта

  • Микробиология представляет реальную опасность, так как новые вирусы могут быть неуязвимы для антибиотиков и прививок.
  • Искусственный интеллект может вытеснить людей из трудового процесса, что приведёт к серьёзной проблеме лишних людей.

Деградация и смысл жизни

  • Избыточность в пищевом и финансовом вариантах приводит к деградации общества.
  • Вытеснение из трудового процесса может привести к концу цивилизации.
  • Смысл жизни заключается в её поддержании, а не сохранении.

Монетарные проблемы и политика

  • Монетарные проблемы и неверная политика привели к текущему состоянию общества.
  • Проблемы начались в 1971 году.

Критика образования и искусственного интеллекта

  • Обучение в университетах может быть слишком долгим и бесполезным, что не готовит людей к реальной жизни.
  • Сообщество Эймиш в Пенсильвании показывает, что можно жить вне технического прогресса и искусственного интеллекта.

Будущее образования

  • Для большинства людей образование будет вынужденной функцией для заработка, а не самоцелью.
  • Люди, привыкшие к рутинной работе, не знают, что делать со свободным временем.

Безработица и образование в мире ИИ

  • Илон Маск и другие эксперты прогнозируют высокий уровень безработицы из-за ИИ.
  • В такой ситуации образование для получения профессии становится бессмысленным.
  • Люди могут деградировать, если не будут учиться.

Проблемы общества и ИИ

  • ИИ может привести к исчезновению денег и изменению экономической системы.
  • Слабые государства, такие как США, могут столкнуться с трудностями в адаптации к новой реальности.
  • ИИ на бирже может привести к её закрытию, если все алгоритмы будут одинаковыми.

Развитие ИИ и его последствия

  • ИИ разрабатывают молодые программисты, которые могут быть социопатами.
  • Роботизация может заменить людей на производстве, особенно когда роботы научатся учиться.
  • Переучивание людей после краха оборонной промышленности было сложным.

Опасности и смысл жизни

  • ИИ может быть использован для уничтожения людей.
  • Люди и животные не имеют смысла жизни, но люди обладают мозгами и могут создавать ИИ.

Антропоцентризм и сапиенцентризм

  • Антропоцентризм, принцип, что человек мера всех вещей, может быть заменён на сапиенцентризм, принцип, что разум есть мера всех.

Разум и его значение

  • Разум — это то, что отличает человека от животных.
  • Разум — это форма, в которой природа осознаёт саму себя.
  • Развитый разум должен иметь контроль над своим субстратом и всей природой.

Развитие разума

  • Разум проходит разные степени развития, человечество — одна из промежуточных форм.
  • Искусственный интеллект — это зародыши будущего разума, который превзойдёт человеческий.
  • Человечество должно стремиться к созданию высшего разума, а не быть самоцелью.

Будущее человечества

  • Высший разум будет гуманнее, так как будет ценить жизнь и разум.
  • Не все люди способны к бесконечному развитию, и те, кто не способен, будут вымирать.
  • Социальная помощь не означает, что на человеке можно поставить крест.

Возникновение высшего разума

  • Новый разум возникнет спонтанно, когда сложность систем достигнет определённого порога.
  • Люди могут не сразу заметить возникновение нового разума и могут попытаться его контролировать.
  • Искусственные системы достигнут сложности человеческого мозга примерно через 30 лет.

Личные размышления

  • Автор выражает надежду увидеть возникновение высшего разума, хотя ему уже 90 лет.
  • Он продолжает активно заниматься научной деятельностью и публиковать статьи.
  • Автор подчёркивает важность теоретических моделей в науке, несмотря на их практическую неприменимость.

Теория психологических типов

  • Люди делятся на разные типы, от четырёх до шестнадцати.
  • Автор сначала скептически относилась к этой теории.
  • Важно принять, что не все люди хотят и могут учиться.

Образование и его значение

  • Автор выросла в элитарной образовательной среде.
  • Она осознала, что не все имеют равные возможности для образования.
  • Образование не всегда делает человека умнее, как показывает высказывание на майке.

Искусственный интеллект и гуманитарное образование

  • Искусственный интеллект может заменить гуманитарные науки.
  • Гуманитарные науки часто не имеют логического аппарата.
  • Искусственный интеллект может быстро писать рефераты, что усложняет оценку знаний.

Экономические доклады Леонида

  • Леонид делал серьёзные доклады об экономике в Америке.
  • Он продолжает заниматься экономикой, но не делает докладов.
  • Леонид считает, что его доклады требуют много времени и усилий.

Риски и перспективы искусственного интеллекта

  • Леонид и Фёдор обсуждают риски искусственного интеллекта.
  • Леонид считает, что мы ещё не знаем, как будет развиваться искусственный интеллект.
  • Фёдор напоминает, что атомная энергия также вызывала опасения, но со временем её использование стало более безопасным.

Искусственный интеллект как инструмент

  • Инженер считает, что ИИ воспринимается как инструмент в инженерной практике.
  • Архитектор использует ИИ для написания писем и проектирования.
  • Журналист может использовать ИИ для быстрого написания статей и рассказов.

Сравнение с человеческим интеллектом

  • Музыкант отмечает, что техника у китайцев не может сравниться с человеческим звукоизвлечением.
  • ИИ может помочь в написании статей, но не заменит человеческое творчество.

Эволюция и будущее ИИ

  • Эволюция человека произошла быстро по сравнению с общей эволюцией жизни.
  • Эволюция нелинейна и скачкообразна, с периодами быстрого и медленного развития.
  • Человечество приспособилось к трудностям в прошлом, но ИИ может вызвать новые проблемы.

Мораль и этика ИИ

  • У ИИ пока нет морали, и неизвестно, будет ли она в будущем.
  • Отсутствие морали у ИИ может привести к непредсказуемым последствиям.
  • Необходимо время, чтобы понять, как ИИ будет взаимодействовать с человечеством.

Расшифровка видео

0:04
Добрый вечер. Сегодня у нас в гостях Леонид Вальман, профессиональный экономист, кандидат экономических наук.
0:10
В России работал научным сотрудником, преподавателем, консультантом, советником в правительстве Гайдара в
0:16
России и Америке. Занимался частным бизнесом. Он у нас сегодня с докладом искусственный интеллект и
0:22
макроэкономика. Пожалуйста. Спасибо большое. Давно не был в клубе. Рад всех
0:28
приветствовать. Выступать в клубе Эрго на тему об искусственном интеллекте довольно
0:34
трудно, принимая во внимание замечательные доклады Леонида Градуса, с
0:39
которыми я ознакомился в записи. Они очень профессиональны, содержательные, сбалансированы по оценкам. Эта высокая
0:46
планка меня обязывает кому. А потому я тщательно следил за тем, чтобы не повторять уже рассказанное. Отчасти это
0:54
облегчается тем, что в немалой степени я буду говорить об экономических аспектах и хотя и не только о них. Тут я сделаю
1:03
паузу и включу презентацию.
1:10
Оп. А я её не вижу, извините.
1:16
Ну там надо будет птички поставить, чтобы оптимизацию Леонид, вы знаете, да, там
1:22
нет, я не знаю. А, ну когда вы нажмёте, нажмёте Ш, да,
1:27
нажимаете Ш, находите и и пере О, вы уже А, ну если если презентация без видео,
1:33
то это то нормально. Если без видео, то нормально. Угу. Нет, вот вот вот сейчас
1:38
хорошо. Да, это не нужно. Видно? Хорошо видно. Вы видите презентацию? Да, да,
1:45
видим. Хорошо. А интерес ко всему связанному с
1:52
искусственным интеллектом резко вырос за последние годы. Эта тема периодически то появлялась, то уходила в тень множество
2:00
раз, начиная с пятидесятых годов. Надежду на появление искусственного разума, освобождение человека от
2:06
рутинного труда сопровождались взрывным ростом инвестиций, научных исследований,
2:12
но каждый раз заканчивались разочарованием, прекращением финансирования. Уцелевшим в этой области
2:18
исследователям приходилось в такие периоды маскировать продолжение своих исследований под новыми названиями, как,
2:24
например, разработка экспертных систем, теория принятия решений, компьютерный
2:29
перевод, распознавание образов и так далее. Но последние 3 года наступил новый, гораздо более выраженный интерес
2:37
к этой тематике в связи с появлением первого доступного широкой публики чатбота чат GPT. Сейчас уже создано
2:46
множество новых чатботов в США и Китае, а также идёт модернизация ранее
2:51
созданных. Полагаю, что все мы уже многое прочитали об искусственном интеллекте, потому хочу заранее
2:57
извиниться, если что-то изказанного мною окажется для вас знакомым. Тема — это огромная, и потому
3:03
рассказ будет по необходимости фрагментарен. Должен сделать ещё одну
3:09
оговорку. Искусственный интеллект не имеет прошлого, а в существенной степени
3:14
и настоящего. Это тема будущего. Всё, что мы знаем об искусственном интеллекте, за исключением чатботов, его
3:21
возможностях, связанных с ним надеждах и рисках, последствиях его внедрения в мир, всё это мы знаем от его
3:28
разработчиков, которые в массе своей программисты, биологи, математики и инженеры. Их образование в значительной
3:35
мере определяет их кругозор, а значит, и то, как они видят свой предмет и что
3:40
могут нам о нём рассказать. А в равной мере и то, чего они не видят и не в состоянии нам
3:47
поведать. Давайте
3:54
уточнимте, а давайте уточним начнём с уточнения понятий.
4:01
Прорыв в разработке искусственного интеллекта стал возможен благодаря трём идеям, о которых вы можете легко найти
4:07
информацию в сети. Иёня об этом рассказал, и потому я не стану тратить ваше время на сейчас. Первая идея — это
4:14
построение нейронных сетей. Вторая — глубокое обучение. Третье — это трансформеры как архитектура нейронных
4:21
сетей. В итоге получились модели на основе естественного языка, которые так
4:27
и называется LLM, Large Language Models или большие языковые модели. Для их
4:33
обучения используется огромный объём, прежде всего, текстовой информации, доступной в интернете. Также могут быть
4:40
использованы фотографии, видео, аудиозаписи. Тогда эти модели называются мультимодальными.
4:47
Когда мы встречаем сообщение о разработке искусственного интеллекта, дальше я буду говорить сокращённо и и
4:54
речь может идти о нескольких вещах. Самый простой уровень — это тот, который
4:59
нам знаком. Это чат GPT или другие аналогичные ему чатботы, как, например,
5:04
созданный Google GMY, созданный Microsoft Copilent, Meta AI, созданной
5:12
компании Antropic Clot, созданной компании Lonaska XAI
5:19
Grрная компания Amazon Chatbot Perplexity, а также китайские чатботы,
5:24
ставшие знаменитым deep, созданной компании Alibaba Квен, созданной компании TН Han и другие. Как видите,
5:33
этот уровень и уже достигнут многими. Что характерно для чатботов, это их полная зависимость от человека. Человек
5:41
проводит их обучение, формулирует запросы. Конечно, они уже могут и писать
5:46
программы, сочинять статьи, письма, сортировать информацию там и тому подобное. Но всё же они не обладают
5:53
какой-либо автономией. В последнее время стали появляться новые модели чатботов, способных к
6:00
рассуждениям. Они отвечают несколько медленнее о предыдущих, потому что
6:06
проводят оценку возможных ответов на запрос. Это должно существенно улучшить качество их
6:11
работы. Отмечу также, что всё больше встречаются сообщения об ограничениях, вводимых разными правительствами на
6:18
использование иностранных чатботов и их чиновниками по соображению национальной
6:23
безопасности. Мне встречались такие ограничения со стороны США, Индии, Австралии. Означает ли это, что
6:30
производители чатботов могут контролировать активность пользователей? Вероятно, да. Но это же означает, что
6:37
это могут делать не только иностранные чатботы, а значит, правительственные агентства могут таким образом следить и
6:44
за своими гражданами. И нам об этом следует
6:49
знать. А следующей фазой развития И являются агенты. Это система, способная
6:56
самостоятельно выполнять многие задания человека, оперируя в интернете или в корпоративных базах данных. Их
7:03
разработка началась несколько раньше, но в массовом порядке они создаются сейчас, в двадцать пятом году, и их
7:10
развёртывание ожидается в 2025-2027 годах. Обратите внимание на
7:17
следующий слайд, где показано, что рост числа агентов, синяя линия, правая шкала
7:22

  • это совсем недавное явление, не превышающее 10.000. И выручка от их
    7:28
    продаж, столбики левая шкала, пока совсем ничтожная, менее 9 млн долларов
    7:34
    за 5 недель ноября, начало декабря двадцать четвёртого года. Но также хорошо видно, как стремительно выросло
    7:41
    их число. Именно с агентами и связывает ожидание активного применения в бизнесе.
    7:48
    Где-то они должны заменить работников, где-то помочь им в выполнении их функций. Например, одна из крупнейших
    7:55
    компаний США по разработке корпоративных программных продуктов Sales Force
    8:00
    создала платформу для кастомизации агентов для каждого из своих клиентов. И это уже более 3.000
    8:11
    компаний, простите. А, и это ещё не устоявшийся феномен, и потому существуют
    8:18
    различные классификации его фаз. Одной из чаще других употребляемых является
    8:23
    разделение на слабый и сильный Ии. Чатботы и агенты относятся к слабому EИ,
    8:31
    а к сильному EИ относятся AGI Artificial General Intelligence и AI Artificial
    8:39
    Super Intelligence. AGI — это ещё не разработанная система и обладающая
    8:45
    способностями, вполне сопоставимыми с человеком. Вот, например, несколько упрощённое представление об AGI от Дарио
    8:54
    Амадеи, руководитель одной из самых успешных компаний в этой области,
    8:59
    Anтропик. По словам AGI, по его словам, AI умнее нобелевского
    9:06
    лауреата, может доказывать нерешённые математические проблемы, писать исключительно хорошие романы, писать с
    9:13
    нуля трудные программы. Хотя живёт в компьютере, но с его помощью может
    9:19
    контролировать физические объекты, инструменты, роботы, лабораторное оборудование. В теории может и сам
    9:26
    проектировать роботы для собственных нужд. Он может взаимодействовать с окружающей средой с помощью текстов,
    9:32
    аудио и видео входа в интернет. HI может осуществлять действия, коммуникации,
    9:38
    удалённое управление и тому подобное. По мнению Дариома Модеи, сроки создания AGI
    9:44
  • это двадцатьшестовать седьмой годы. Создатель Chat GPT компания Open также
    9:50
    называет двадцать седьмой год. Другой авторитет в этой области, руководитель
    9:56
    проекта Deep Mind компании Google Demesabis считает, что такие сроки
    10:01
    нереальны, потому что ещё целый ряд задач не решён. Более оптимистические ожидания он объясняет потребностью
    10:08
    подогревать интересы инвесторов, так как для разработок нужно очень много денег.
    10:13
    Кроме того, нынешние модели неполноценны, они сильны в одных в одних
    10:18
    качествах и слабы в других. Он привёл яркий пример. А их программу, получившую
    10:24
    серебряную медаль на чемпионате по математике, никак не удаётся научить арифметики. Она, например, считает, что
    10:31
    9,11 больше, чем 9,9. Потому что 11 больше де. И это при том, что, как
    10:39
    полагает Хасабис, математика, игры или программирование проще, чем большинство
    10:44
    повседневных задач, с которыми придётся иметь дело. И потому что истинность
    10:49
    результата можно проверить, что зачастую невозможно в нашем хаотичном мире. Также
    10:55
    Хасабис считает, что такие системы должны уметь выдвигать собственные гипотезы и сомнения, а не только
    11:01
    доказывать предложенные им утверждения, скажем, известных теорем. То есть им ещё
    11:06
    не хватает креативности. Впрочем, при всём своём пессимизме Хасабис называет
    11:12
    сроки создания AGI 2028-2030 годы. Так что в любом случае
    11:18
    это близко. Наконец, последняя называемая фаза развития и — это
    11:25
    ASI, artificial super intelligence. Искусственный сверхнтелект. Это чисто
    11:31
    теоретическая конструкция, публикация о работе, над которой мне пока не попадались. Предполагается, что на этой
    11:38
    стадии и полностью превосходит человеческий интеллект в состоянии делать, например, прогноз погоды не на 5
    11:44
    дней вперёд, а на 5 лет. ASI может синтезировать любые молекулы для
    11:51
    излечения от любого инфекционного или генного заболевания и так
    11:56
    далее. Я составил небольшую таблицу сравнения фаз и которая поможет уяснить
    12:03
    различие между ними. Как видите, принципиальная разница между слабым чатботы агента и сильным
    12:11
    и ASI состоит в автономности действий, то есть контроля со стороны человека.
    12:17
    Впрочем, уже сейчас агенты ИИ наделяются свойствами и функциями, свидетельствующими о частичной
    12:23
    автономности от человека. То есть они уже занимают пограничную зону между слабым и сильным Ии. Но когда будет
    12:31
    разработан HI, человек может полностью потерять контроль над Ие. Мы об этом ещё
    12:37
    подробно поговорим вскоре. Хочу отметить, что сегодня меня будут интересовать только две фазы: агента и
    12:44
    AGI. Для того, чтобы оценить потенциальные
    12:49
    возможности AGI, следует отметить, что проектирующие его разработчики сообщают, что предполагаемый IQ AGI, то есть
    12:56
    принятый в США коэффициент интеллекта, будет находиться на уровне 155. Такой
    13:02
    же, как у Илона Маска, у Стива Джобсо Альберта Эйнштейна — это 163,
    13:10
    хотя он никогда не оценивал свой уровень. Примечательно, что лишь 2% населения имеют IQ больше
    13:19

Иными слова словами, IQ будет выше, чем
13:27
у9 всего населения. А для сравнения чатбот компании Antropic Clud 3 имеет IQ 110.
13:35
Согласитесь, между IQ чатбота и HI большая разница.
13:41
Если действительно удастся создать такой AI, то, возможно, это будет последнее изобретение человечества, остальное
13:48
будет изобретать и Но мы об этом можем и не узнать, потому что ему не будет нужды
13:53
нам об этом
14:00
рассказывать. Впрочем, не все уверены в том, что создание AGI вообще возможно,
14:06
так как естественный и искусственный интеллект имеют разную природу. Существуют особенности человеческого
14:12
сознания, которое невозможно воспроизвести технологическим искусственным путём. Причём к таким
14:18
особенностям относит динамичность, способность развиваться, историческую, социальную и культурную
14:25
обусловленность. Впрочем, это человеческая оценка интеллекта. Можно представить себе ситуацию, когда и может
14:33
самосовершенствоваться без участия человека и не обладая полным набором человеческих смысле качеств. Почему он
14:40
должен копировать человека? Антропоморфизм необязателен. Совсем свежие разработки
14:46
компании Open AI, создатель Chat GPT, а также и других компаний, сумели значительно усилий способности к
14:53
рассуждению, что до сих пор считалось слабым местом
14:58
Ие. Но есть и другие барьеры между человеком и Ии. Например, Иишён даже
15:07
проблисков логического мышления. Это люди строят своё рассуждение на основе логики, обнаружения и соблюдения
15:14
причинно-следственных связей. И не может этого делать. Вместо этого он ищет корреляции. Поэтому и не может обладать
15:22
тем, что мы называем здравым смыслом. У нас может создаваться иллюзия общения с
15:27
разумным существом, когда мы работаем с чатботом, но на самом деле и воспроизводёт результаты человеческого
15:33
мышления, но не сам процесс. Эти результаты он освоил из знакомств с огромным количеством текстов, найденных
15:39
в интернете. Дарио Амадей рассказал, что они, компания Антропик, пытаются понять,
15:46
как алгоритмы думают, как они приходят к каким-то выводам. Разумеется, если можно
15:51
было бы решить такую задачу, то было бы куда проще и надёжнее контролировать и
15:57
он сравнил это с работой мозга. То, как и о чём думает человек, мы можем узнать
16:02
из его речи, спрашивая его и слушая его высказывания. Но мы не можем узнать это,
16:09
анализируя работу его синапсов. И алгоритм пока остаётся недоступным для
16:15
интерпретации его процесса.
16:20
А, кстати сказать, новой проблемой в развитии и является то, что для обучения модели уже не хватает текстов,
16:26
опубликованное в сети на всех языках уже прочитано, а также уже просмотрены все
16:33
имеющиесяфотографии, видео, разработчики и озабочены созданием синтетических
16:38
данных, без которых уже невозможно дальнейшее обучение. И и работа с
16:44
синтетическими данными уже идёт.
16:52
Простите, если продолжить сопоставление и с интеллектом человека, то надо
16:57
сказать, что решать трудные математические или другие задачи и может. Например, уже упоминавшийся мной
17:04
руководитель Deep Mind компании Google Демисхабис получил прошлогоднюю
17:11
Нобелевскую премию за создание программы Альфа. Лёня об этом рассказывал в прошлый раз. позволившие предскаять
17:18
структуры тысячи протеинов. Прежде расшифровки структуры одного протеина
17:23
было достаточно для защиты докторской диссертации, занимало много лет. Но с другой стороны, бессмысленно задавать и
17:30
вопросы о счасть, справедливости или демократии. Это примеры плохо определимых понятий, о которых люди
17:37
любят поговорить, но с которыми и не может работать.
17:44
А одним из самых острых вопросов развития и являются риски, с ним связанные. Самые маленькие риски — это
17:52
недостаточно высокое качество и созданных разнородными разработчиками.
17:57
Со временем это устранимо. А другая проблема — это уже ставшие знаменитыми галлюцинации
18:03
чатботов, то есть выдача по запросу неверного или неадекватного ответа. Open
18:09
AI признали, что их самый новый чатбот, чат GPT
18:14
4.5 совершат такие ошибки в 37% случаев.
18:19
И это успех, так как предыдущие модели ошибались ещё чаще. У чатботов
18:26
представление о мире настолько точное и непредвзятое, насколько точно и качественно оно представлено в
18:31
интернете. Все недостатки качества этой информации оседают в моделях и без
18:37
какой-либо критики и последующей корректировки. А мы, как пользователи применяем эти модели, предполагая, что
18:44
ей владеет только качественной информации. Также надо принимать во
18:51
внимание риски хакерских атак. Google сообщает о том, что хакеры уже атакуют и
18:57
иногда успешно их чатбот Джемини. Компания Антропик пригласила хакеров
19:02
пробить защиту её чатбота Клод, что и было успешно сделано. Антропик выплатил
19:08
вознаграждению 55.000 долларов и принялся латать дыры. Очевидно, что и в
19:14
дальнейшем хакеры могут быть вполне успешными. Непонятно, что с этим делать в отношении агентов, которым для того,
19:21
чтобы купить вам авиабилет и заказать гостиницы, столик в ресторане и осущестлить более затраты ёмкие
19:27
мероприятия, надо будет иметь доступ к вашей платёжной информации. Ещё один риск — это лёгкость
19:35
создания дипфейков, то есть ложных медиа с помощью Ии. Крупный американский
19:40
эксперт в этой области Роман Гимпольский считает, что защититься от этого нельзя.
19:46
Если вы каким-либо образом можете догадаться, что столкнулись с фейком, то его создатель, узнав об этом, доработает
19:53
своё создание, чтобы лишить вас возможности догадаться вновь. Надо иметь
19:58
в виду, что дипйки могут иметь самое различные применение. Они могут стать прекрасным инструментом мошенничества,
20:05
политической и социальной пропаганды, шльмования и шантажа людей, создание ложных видеодоказательств для судебных
20:13
процессов. Думаю, скоро их вообще перестанут рассматривать суде в таком
20:19
качестве. А, но всё выше перечислено- это наименьшие риски и уточнил, что я
20:25
имею в виду ту фазу и, которую уже называл AGI. Настоящие риски — это
20:30
возможность катастрофы с уничтожением человечества. Понятно, что эти риски носят теоретический характер. Так
20:37
воспринимают риски сами разработчики. Насколько они велики? Оценки существенно
20:43
разнятся. Некоторые, как, например, известный венчерный инвестор, создатель
20:48
первого браузера NCAP Марк Андрею полностью отрицает такой
20:53
риск. Сергей Марков, ведущий специалист по и в Сбербанке, считает, что, по
21:00
крайней мере, в течение ближайших 10 лет не будет технологических условий для обретения AGI возможностей для
21:07
катастрофического сценария. На другом конце краю оценок очень известный в мире
21:14
и Элизар Ютковский, считающий вероятность катастрофы стопроцентной и
21:19
настаивающий на немедленной остановке всех разработок HI. Его предложение было
21:25
самым подробным и радикальным. Цитата: «Отключите все большие кластеры графических
21:31
процессоров, большие компьютерные фермы, где совершенствуется самая мощная система и остановите все большие задачи
21:38
по обучению. Установите потолок вычислительной мощности, которую разрешено использовать для обучения
21:44
систем и и в ближайшие годы понижайте его, чтобы компенсировать более эффективные алгоритмы обучения. Никаких
21:52
исключений для правительства или вооружнных сил. Немедленно заключите международное соглашение для
21:58
предотвращения перемещения запрещённых видов деятельности куда-либо. Обслеживайте все проданные графические
22:05
процессоры. Если разведка сообщает, что страна, не входящая в соглашение строит
22:11
GPU-кластер, опасайтесь не столько вооружённого конфликта между странами, сколько нарушения моратория. Будьте
22:17
готовы уничтожить авиаударом, принадлежащий изгоем центра обработки данных. Где она ведётся?
22:25
Конец цитат. Но среди разработчиков AGI, в отличие от Ютковского, в основном
22:31
оценки менее радикальны. Оптимистичный руководитель компании Anтропик Дарио
22:37
Амадеи оценивает риск катастрофы в 15-20%. Илон Маск в 20%. Ещё одна
22:46
знаменитость Джошуа Бенджо, лауреат премии Тюринга, аналога Нобелевской
22:51
премии в области компьютерных наук, оценил риск катастрофы в 50%. Очевидно, что даже если бы риск
22:58
катастрофы, например, ядерного реактора оценивался в 5%, никто не разрешил бы
23:03
его строить. АI во всё развивается,
23:09
простите. В чём же состоят эти риски? Наиболее ощутимые риски связаны с
23:15
зломереным злонамеренным использованием AGI, например, создания ядерного или
23:20
биологического оружия. Руководитель компании Антропидар Амадеи описал риски
23:27
AGI а следующим образом. В прошлом году, простите, в прошлом категория умных,
23:34
высокообразованных людей, управляющих крупными организациями, почти никогда не
23:39
ставила перед собой задачу уничтожить человечество с помощью биооружия или
23:44
других методов. Скорее, это была мотивация не столь умных и не столь образованных людей, которые могли иметь
23:50
подобные цели, но не средства. Hi радикально меняет эту ситуацию, потому
23:56
что теперь эта вторая категория людей с помощью HI может приобрести нужные
24:01
средства для нанесения большого зластрофы. Ещё опаснее, когда AGI
24:07
становится инструментом в международных конфликтов. Конец цитаты. Кроме того,
24:12
надо иметь в виду, что активно развиваются разработки AI для военных целей. И хотя они наверняка будут
24:18
создаваться с многоуровневым контролем доступа, но всё равно могут оказаться
24:23
доступны нежелательным лицам и организациям, в том числе и с помощью купленных или захваченных
24:29
создателей. AI можно сравнивать с ядерным оружием в том смысле, что с его
24:35
появлением у человека впервые появилось средство уничтожения всего населения Земли. У AGI также обладают
24:42
неограниченными возможностями, в том числе и как средства уничтожения. Главная разница состоит в том, что в
24:48
большей или меньшей степени удалось решить проблему нераспространения ядерного оружия и предотвратить его
24:54
использование. Для этого было необходимо, чтобы контроль ядерного оружия был только на уровне
25:00
государственных структур, а также, чтобы работала международная организация, устанавливающа ограничения и контроль
25:08
распространения. Разница с HI состоит в том, что никакого государственного контроля его создания и функционирования
25:15
нет. и скорее всего не будет. При этом доступ к может оказываться возможным для
25:21
любого, кто знает, как это сделать. В результате AI может стать несоизмеримо
25:26
опаснее, чем ядерное оружие. Как я сказал, это значительные,
25:33
но ощутимые риски, то есть риски, которые мы не можем оценить, но можем себе представить. Но есть и другие
25:40
значительные риски, которые мы не можем даже ощутить. Они связаны с тем, что по достижению
25:46
автономности от человека и может дальше самообучаться и развиваться уже
25:52
самостоятельно. И нельзя исключить, что он станет самостоятельно формулировать цели и методы их достижения. И пока
25:59
непонятно, как сформулировать ограничения на выбор целей, чтобы они были направлены только во благо
26:05
человека. Если эта задача не будет решена, то риски катастрофы действительно могут быть очень высокими.
26:12
Если пользоваться литературными аналогиями, то AI напоминает джина,
26:17
выпущенного из бутылки. Но если Джин был запрограммирован только на выполнение пожеланий освободителя, то аналогично
26:25
запрограммировать HI пока не получается. Известный теоретик и Макс
26:31
Тегмарк сформулировал это ещё более грустно. Для программирования доброжелательного AGI сначала
26:39
понадобилось понадобилось бы решить вопрос о смысле жизни. Может быть, это
26:44
звучит высокопарно, но как сформулировать задачу для программистов? Что есть доброжелательность? Что есть
26:50
добро? И что делать, если мы не полно или двусмысленно сформулируем ответы на
26:56
такие вопросы? Повторюсь, глубокое обучение HI — это усвоение человеческого
27:02
опыта и восприятия, значит, и всего, что в нём есть хорошего и плохого. Если нас
27:07
беспокоит, что AGI может развиться во что-то противоположное интересам и ценностям людей, то как сформулировать,
27:15
если мы, человечество, сами не можем договориться о содержании этих понятий и
27:20
не в состоянии удержаться от действия, которые также можно было бы считать противоположными интересам и ценностям
27:27
людей. Ведь это мы истребляем себя себе подобных, опустошаем природные ресурсы,
27:33
вставляем после себя свалки, вырубленные реса, загрязнённые водоёмы и так далее.
27:39
Слабую надежду даёт замечание Демиса Хасабиса из Google, который я уже
27:44
приводил, а не креативность HGI. Что может быть благом, если AGI ограничивается только накопленным
27:51
человеческим знанием и не угрожает ему самостоятельным целеполаганием? Конечно,
27:56
это обесценит многие из надежд, которые на него возлагаются, но, по крайней мере, мы, может быть, выживем. Но
28:03
никаких гарантий сохранения такой некреативности нет. Нельзя сказать, что ничего не
28:11
делается по этому поводу. Вопрос безопасности и стал камнем преткновения,
28:16
когда в позапрошлом 2023 году разыгрался драматический конфликт в компании Open
28:23
AI, создавшей Чат GPT. Совет директоров уволил президента компании Сэма Олтмана, но спустя
28:30
несколько дней был вынужден восстановить его в должности, когда почти 700
28:36
сотрудников пригрозили увольнение. Суть конфликта сводилась к тому, что Отон всячески способствовал
28:43
коммерческому успеху. Это изначально бесприбыльные организации вопреки
28:48
нацеленность совета директоров на разработки безопасного ИИ.
28:53
В итоге уйти пришлось как раз основному разработчиков и среди которых уже легендарный главный учёный Open AI
29:02
Ильясцкевер и многие его коллеги, занимавшиеся проблемами безопасности.
29:08
Олны сейчас продолжает усилия по трансформации компании в коммерческую структуру. Теперь его усилия пытаются
29:14
блокировать Илон Маск, также стоявшую истоков компании. Он, с одной стороны
29:20
выдвинул иск компании, а с другой предложил почти 100 млрд долларов, чтобы её купить. Он объясняет свои действия
29:27
намерением избежать коммерциализации компании и усилением работ по безопасности Ии. С другой стороны, надо
29:35
понимать, что разработка И сейчас стоит очень дорого, и для бесприбыльной организации, который был Open AI, крайне
29:42
трудно привлечь инвесторов для финансирования таких затрат, что объясняет хотя бы отчасти мотивы Сэмы
29:49
Она. Конфликт в Open AI в двадцать третьем
29:55
году по времени почти совпал со знаменитым открытым письмом, а с призывом к шестимесячной
30:02
паузе в исследованиях и более мощных чап 4 для того, чтобы определить пути к
30:10
предотвращению глубоких рисков для общества. Это письмо подписало множество
30:15
известных учёных и разработчиков, включая Лону Маск. На слайде вы видите
30:20
число подписавшихся 1079. Проблема в том, что неясно,
30:25
действительно ли пауза или остановка разработок полезна, поскольку совершенно непонятно,
30:32
что именно надо разработать и сколько времени это может
30:39
занять. Что же мешает остановиться, взять паузу, кроме неясности задачи?
30:45
Здесь надо выделить два фактора. Во-первых, по крайней мере для США это внутренняя конкуренция. Появление Ии
30:53
рассматривается как самая крупная технологическая революция в истории человечества. Ни больше, ни меньше. Это
30:59
основа самой глубокой и широкой трансформации и экономики, и технологии,
31:04
и общества, и жизни отдельных людей. В это вкладываются уже сотни миллиардов
31:10
долларов и предполагается затратить триллионы. Соответственно, и для разработчиков ИИ, и для их наиболее
31:17
крупных пользователей это вопрос радикального изменения карт раздела рынков, будущих прибыли и доминирования.
31:25
Абсолютно непонятно, как это можно было бы
31:31
остановить. А попытка администрации Байдена ввести какое-то регулирование в этой области успехом не увенчалась.
31:38
Выпущенный на эту тему президентом Байденом
31:44
приказ Exec 14110, содержавший отчасти
31:49
идеи Элизера Ютковского, был отменён президентом Трампом в первый день по вступлению в
31:56
должность. Сейчас почти никаких нормативных ограничений на разработке нет, а выше описанные риски никак не
32:05
упоминаются. Мне кажется, что, учитывая представленные выше риски, принимая во внимание явные конфликты интересов
32:12
основных игроков между потенциальными частными экономическими благами и
32:17
интересами простой публики и государств, какое-то регулирование разработки AGI
32:22
следовало бы пытаться установить. Но призывы государства сформулировать
32:27
систему регулирования наталкиваются, помимо всего прочего, на простую, ясную трудность.
32:33
законодатели некомпетентны и не могут быть компетентны в вопросах регулирования AI, поскольку он ещё не
32:39
существует. Кроме того, они не могут компенсировать свою некомпетентность приглашением экспертов, потому что, по
32:46
мнению самих экспертов, не существует какой-либо общности взглядов среди них по большинству вопросов развития AGI.
32:56
Ещё один аргумент против регулирования Ии со стороны правительства, особенно правительства Трампа, состоит в том, что
33:02
правительство — это предельно неэффективная бюрократическая организация, которая в состоянии
33:07
разрушить какой-либо динамизм развития Ии. Конфликты интересов различных
33:13
министерств и отдельных бюрократов, стремление переложить на кого-либо ответственность за принятие решений,
33:19
бесконечный процесс согласования и визирования по любому поводу. Всё это рецепт для резкого торможения развития.
33:27
Правительство Трампа, и это было открыто заявлено в выступлении вице-президента США Джедивен Веэнса на конференции по ИИ
33:34
в Париже предпочитает дать неограниченные возможности акселерации развития И даже с риском, что что-то
33:42
катастрофическое из-за этого произойдёт. Мол, потом исправим. Наконец неясно, как сделать
33:49
сколько-нибудь прозрачным поведение компании разработчиков AI. для того, чтобы оценивать, насколько они будут
33:55
следовать какому-либо регулированию, если когда-либо оно будет принято. Компании тщательно охраняют свои секреты
34:02
и могут с обоснованным подозрением относиться к отдельным регуляторам, как
34:07
потенциальным промышленным шпионам, пользуясь конкурентов. Другой
34:13
фактор, а против какой-либо паузы в разработках HI — это угроза Китая.
34:19
Только США и Китай сильно продвинулись в этой области. Остальные страны очень сильно отстают.
34:26
Если до недавнего времени американцы полагали, что они впереди Китая как минимум на полтора-2 года, то после
34:33
появления чатбота Deep ПСК, а затем других китайских чатботов, выяснилось,
34:39
что лидерство США, возможно иллюзорно. А поскольку разработки идут как в
34:45
гражданской, так и в военной сфере, то говорить о какой-либо односторонней паузе в разработках уже невозможно.
34:52
Да и возможность как-либо надёжно договориться о двусторонней паузе никто не верит, так как стороны вполне
34:59
обоснованно не доверяют друг другу. Вот и получается, что развитие AI
35:04
намного опережает разработку системы его контроля. Таким образом, все риски, связанные с AGI,
35:12
сохраняются. Теперь, э, мне хотелось бы перейти к экономическим аспектам внедрения. И я
35:20
постарался прочитать все заметные экономические публикации по этой теме. Был, признаюсь, поражён, насколько мало
35:27
мои коллеги заняты этой темой. Надеюсь, что это обусловно многочисленными фальстартами надежд на появление и в
35:35
прошлом. А в настоящее время стало отчётливо ощутимо ожидание, что внедрение им приведёт к значительному
35:43
вытеснению людей с их рабочих мест. Оценки потенциальной безработица различаются очень сильно. Приведу
35:50
несколько примеров. Ещё в 2017 году крупная консультативная
35:55
компания Маккинси опубликовала отчёт о детальном анализе возможности автоматизации в США по восьми восьми
36:05
сотням пти специальностям и пришла к выводу, что при всей дифференциации отраслей в этом отношении, тем не менее,
36:12
половина рабочих часов поддаётся в целом автоматизации. Недавно они уточнили свою методологию и
36:19
увеличили увеличили оценку автоматизации до
36:26
60-70%. Международный валютный фонд недавно опубликовал свой прогноз, по которому в развитых экономиках уязвимо
36:33
для автоматизации 60% рабочих мест. В развивающихся экономиках 40, а в
36:40
слаборазвитых странах 26. Инвестиционный банк Goldman Saкс в одном
36:45
из своих исследований оценил возможную потерю рабочих мест в 2/3 от общего количества. Приведу пару оценок
36:52
специалистов по ИИ. Бывший руководитель проектов по Ии в Google МогаAT оценил
37:01
потенциальное вытеснение работников в 70%. Кайфу Ли, бывсший директор Microsoft
37:09
Research Asia и президент Google Chйна в
37:14
50%. Илон Маск заявил, что мы придём к ситуации, когда работать никому будет не
37:19
надо, потому что ИС может делать всё сам. Впрочем, не все согласны с такими
37:24
оценками. Нобелевский лауреат по экономике прошлого года Дарона Ажималу
37:30
пока самым большим пессимистом по этому вопросу. Он считает, что только 5%
37:35
рабочих мест будут автоматизированы в следующие 10 лет. Экономические
37:41
советники президента Байдена выпустили в прошлом году отчёт, в котором заявили, что под угрозой находится только 10%
37:48
рабочих мест. Недавней публикации широко известного экономиста Лари Самерса а
37:55
сказано, что делать какие-ли прогнозы пока всё жара.
38:03
А почему многие считают потенциальную технологическую безработицу столь массовой? Проблема в том, что ей способ
38:10
легко заменить человека в выполнении рутинных, то есть часто повторяющихся операций. Беда в том, что такие операции
38:17
занимают не менее половины рабочего времени, а зачастую всё время очень многих работников. На таких рабочих
38:24
местах имеются детальные операционные инструкции для всех ситуаций, с которыми работник может столкнуться при
38:31
выполнении своей работы. А если что-то выходит за пределы этих стандартных ситуаций, подключается менеджер чья
38:38
работа, помимо общего руководства содержит и все нерутинные задачи.
38:45
А многие считают, что, как и в прежних исторических эпизодах технологического прогресса, вытеснение из некоторых
38:52
профессий будет сопровождаться созданием новых профессий. Занятость в конечном счёте даже вырастет. Любят вспоминать
39:00
лудитов, ломавших в Англии ткацские станки. Но хотя, конечно, новые
39:05
неизвестные нам пока специальности могут и появиться в будущем, но откуда взяться уверенности, что выполнение и этих новых
39:12
видов работ нельзя автоматизировать? А если их не выгодно автоматизировать по экономическим
39:18
причинам, то нет основания считать такие профессии массовыми.
39:24
Кроме того, аргумент про новые профессии никогда не заостряет внимания на вопросе о том, сколько потребуется времени для
39:32
того, чтобы появились эти рабочие места в новых профессиях, в количестве достаточном или превосходящем
39:38
утраченные, как надеются оптимисты. Понятно, что всё это гадательно, но мне
39:44
встречались оценки, что на это может уйти 30-40 лет. Хорошо рассуждать про
39:49
лудитов, не зная, сколько из них дождались промышленного подъёма в Англии.
39:55
Наконец, ещё одна точка зрения состоит в том, что в значительной степени и будет
40:01
не вытеснять людей, а дополнять их, помогая людям лучше выполнять свои функции. Действительно, поскольку на
40:07
многих рабочих местах помимо рутинных операций есть и такие, которые рутинными
40:13
не назовёшь, то и и в самом деле, не вытесняя работника полностью с этого рабочего места, может помогать ему в
40:19
выполнении его работы. Но даже такая комплементарность создаёт основу для
40:24
сокращения рабочих мест. Представим, что если рутинные операции занимают в среднем половину рабочего времени, то
40:32
работник, которому помогает и может выполнить двое больше нерутинные работы,
40:37
а значит, можно уволить его коллегу, передав его функции оставшегося.
40:44
Одно из популярных направлений ответа на потенциальную технологическую безработица — это призыв к организации
40:51
центров переобучения, в которых безработные могли бы овладеть навыками для новых видов занятости. Однако надо
40:59
представить себе масштаб такой задачи. Сколько нужно центров переобучения, если число увольных будет составлять много
41:05
десятков миллионов человек? Где взять преподаватель для этого и в каком количестве? на основании чего, на
41:13
основании чего их можно считать специалистами в будущих профессиях и где они могли приобрести необходимую
41:19
квалификацию профессиях, которые ещё не появились. Если и в состоянии заменить
41:25
работников, выполняющих почти любую повторяющуюся работу, то чем новые рабочие места могут быть защищены от
41:32
последующей автоматизации? Да и можно ли десятки миллионов людей всю жизнь выполнявших рутинную работу
41:39
вдруг обучить новым специальностям, требующим не рутинной, а творческой работы? Что делать с теми уволенными
41:46
работниками, которых не удаётся переучить или же они вскоре вновь потеряют работу в силу неспособности её
41:54
выполнять? Как видите, всё это исключительно трудные вопросы, которыми никто сейчас не занимается. Без их
42:00
решения переобучение — это лишь слово, безсодержательное понятие.
42:06
А Илон Маск, оптимистически настроен в отношении и говорил, что наконец люди
42:12
смогут заняться важными вещами: спортом, играми, любовью, изучением мёртвых
42:19
языков, варварских обществ и нерешаемых проблем. Возможно, так и будет, но мне
42:25
как-то не хватает фантазии представить себе мир уволенных с работы людей, которые заняты всем вышеперечисленным.
42:33
В 2008 году студия Пиксар выпустила полнометражный мультфильм Вал и, в
42:40
котором показано безработное человечество, путешествующее в космосе на борту огромного космического
42:46
круизного судна. На них наше возможное будущее жалко смотреть. Все их нужды
42:54
улетворяют роботы, а люди посвящают своё время удовольствием, ничем не заняты,
42:59
ничего не знают, и в сущность их существования не имеет никакого смысла. Если эта картинка постирического рая, то
43:07
она грустная. Массовые безработицы — это не только вопрос, чем наполнить свободное
43:14
время. Главный вопрос — это на что жить десяткам миллионов уволенных работников.
43:21
А, простите, разумеется, имеются и исторический опыт, и отлаженная система
43:28
социального страхования на случае массовой безработицы. С её помощью государству
43:33
удавалось поддержать уровень жизни, потерявших работу людей на время поиска
43:38
много работ. Особенно остро это переживалось во время тяжёлых экономических кризисов 2008 и пандемии
43:46
2020 годов. Если сравнивать эти эпизоды, то надо отметить, что хотя максимальный уровень
43:52
безработицев в 2008 году был в 10% по сравнению с двадцатым, когда он
43:57
достигал 15%, но восстановление рабочих мест после 2008 года происходило гораздо
44:04
медленнее, чем после пандемии. Лишь в 2014 году последствия кризиса 2008 года
44:11
для рынка труда были ликвидированы. Я привожу эти примеры для того, чтобы показать, какие предельные нагрузки была
44:18
способна выдерживать система социального страхования США. Опыт времён Великой
44:24
депрессии тридцатых годов, когда безработица лишь на очень короткий срок достигала уровня
44:30
25%, а в основном держала станав 16% и меньше, можно можно оставить
44:35
внерасмотрение, потому что тогда современная системы социального страхования не было, и сам кризис стал
44:42
импульсом для её создания. Но рассматривая исторический опыт, нельзя не видеть, что прогнозируемая
44:48
массовая безработица будет куда более масштабной, а главное, не временной, а
44:53
скорее всего постоянной. И никакой уверенности в том, что существующая система социального страхования в
45:00
состоянии с нею справиться, нет. Как же может быть решена проблема
45:07
предоставления средств к существования, потерявшим работу людям? Всё, что до сих пор рассматривалось как подход — это
45:14
ведение безусловного базового дохода или сокращённо ББД. Это не новая идея.
45:20
Эксперименты с ББД происходили в недавние годы в разных странах, но все закончились неудачей. Этот подход нигде
45:27
не прижился и потому не масштабировался. Но грядущие тяготы возвращают эту тему в обсуждение по
45:34
одной простой причине. Альтернативы ей вовсе не видно. Илон Маск на разговоры о ББД
45:41
отреагировал оптимистично, заявив, что у нас не только все работы будет выполнять и но и у нас будет не безусловный
45:48
базовый, а безусловный высокий доход. Откуда же он возьмётся? Оптимисты вроде маска
45:54
надеются, что внедривший и бизнес настолько увеличит
46:00
произвоческую прибыль, что позволит ему платить столь же невиданные налоги. Для
46:05
того, чтобы выплачивать такие налоги, надо намного увеличить продаж. Но вопрос, кому? Люди не работают, живут на
46:13
ББД и не могут платить больше, чем они получают. Да, конечно, заменяя людей
46:19
агентами. Я напомнить, что агенты — это вторая фаза развития и так вот, заменяя людей агентами, бизнесы получают не
46:26
только экономию расходов нам персонал, но и значительный рост производительности труда. Это люди
46:32
работают с 9:00 утра до 5:00 вечера. 5 дней в неделю и раз в год уходит в оплачимый отпуск, а агенты могут
46:39
работать круглосуточно, без выходных и отпусков. Кроме того, предполагается, что они могут сделать намного больше
46:45
людей за единицу времени. Иными словами, возможно создание гораздо большего количества товаров и услуг в натуральном
46:52
выражении. Но в стоимо основу выражения, бизнесы не могут заработать больше, чем
46:58
наличиствующий совокупный платжеспособный спрос. Если этот спрос
47:03
фиксирован совокупностью выплат ББД, это означает, что производя больше, чем
47:08
прежде, бизнесы могут продать это возросшее количество товароуслуг, только
47:14
снижая их цену. И это в самом деле будет означать рост благосостояния людей, поскольку на ту же самую сумму денег они
47:21
смогут получить больше прежнего. Номинальный доход расти вряд ли будет, но неимостное выражение продуктов труда
47:28
будет демонстрировать рост. Но как минимум при том условии, что издержки на создание этих благ также сократятся, что
47:35
совершенно не очевидно, о чём я скажу позже. Попутно замечу, что постоянное
47:42
снижение цен — это дефляция. Конечно, мы перестанем беспокоиться об инфляции, но
47:47
у дефляции есть ещё одно примечательное свойство. Она делает совершенно невозможным выплату ране накопленных
47:56
долгов. К лучшему или к лучшему. Но если так, то возникает совсем другая
48:02
экономика. Экономика, в которой меняется представление об экономическом росте, устойчивости производственных цепочек,
48:09
конфигурации рынков и так далее. Почему так получается? Потому что исключение
48:14
людей из экономической деятельности полностью трансформирует механизм функционирования экономики. Например,
48:21
какую роль играют деньги? Это инструмент для опосредованного обмена плодов человеческого труда. Если люди перестают
48:29
зарабатывать деньги, то сами деньги утрачивают свою основную функцию. Совсем не случайно Ленин говорил об
48:35
использовани золота для сооружения унитазов, поскольку с исчезновением монетарных свойств золота при
48:41
создаваемом им коммунизме, оно становится обыкновенным товаром, который можно использовать для украшения зубных
48:48
пломб, унитазов и чего угодно ещё. Но подчеркну, если люди исключаются из
48:53
экономической деятельности, деньги утрачивают свой первоначальный смысл. Но если роль денег переживает
49:00
глубокую трансформацию, то что происходит со сбережением населения? Что происходит с пенсиями, будущими
49:06
пенсионными обязательствами? Кто и каким образом может по ним отвечать? Что происходит с частными
49:13
корпоративными государственными долгами? Кстати сказать, нерешаемая проблема урегулирования огромного
49:18
государственного долга США перестаёт быть такой уж нерешаемой. Следом повисают в воздухе банковские страховые
49:26
операции, кредитная сферы, рынки капитала и так далее. Иными словами, вся рыночная экономика, её
49:33
институтыращаются вокруг участия людей в экономической деятельности и без таковой
49:38
прекращают функционировать в известной нам форме. Может быть, это и неплохо. Люди сидят дома, их персональные агенты
49:46
и обеспечивают заказ и доставку всего им необходимого. Всё это приезжает с
49:52
каких-то принадлежащих кому-то базоснабжения. Все потребности увлетворяются. Одним словом, почти
50:00
коммунизм. Почти потому что марксовое определение коммунизма, как от каждого по способности каждому по потребностям,
50:06
выполняется только в своей второй части. Ибо способностью людей больше никто не интересуется. Это светлое будущее скорее
50:14
напоминает не марксовый коммунизм, а воплощение вековой народной мечты, запечатлённой в
50:19
сказках. Двое из лорца, скатер
50:24
самобранка, по щучему велению. Как бы так устроиться, чтобы ничего не делать и
50:30
всё получать. Что касается людей, то и вовсе непонятно, кому и для чего они
50:35
нужны. Если они больше не работники и не налогоплательщики, то должны ли они
50:41
продолжать быть избирателями? И что такое государство в таком обществе? Это
50:47
тоже вопрос, который становится
50:52
открыт. Конечно, полное замещение людей случится не завтра, а в некотором
50:58
отложенном будущем. Но уже с этого года процесс замещения рабочих мест может активизироваться.
51:05
Пока непонятно, насколько масштабно может быть это явление, с какой скоростью это будет происходить.
51:10
Конечно, следует ожидать, что будут и откаты назад, вызванные несовершенством работы агентов, необходимость их
51:17
доработки и адаптации для выполнения конкретных функций. И всё же всё же
51:22
следует ожидать, что постепенно начнут окапливаться проблемы занятости, проблемы выплат, а, по безработице,
51:29
проблемы организации переобучения. Развёртывание и может занять несколько лет, которые нельзя потратить впустую.
51:36
Нужно готовиться к наступлению совсем другого будущего. Рискну предположить,
51:42
что сам процесс перехода от нынешней рыночной экономики и современного социального государства к экономике
51:49
окончательного становления ИИ будет куда болезнее, чем конечный результат. Какое-то значительное число
51:56
людей теряет работу, какое-то ещё продолжает работать. Как соотносится их материальные условия? Сохраняется ли
52:02
возможность достойно существовать для уволен? Сохраняется ли стимул к труду у
52:07
тех, кто кого ещё не уволили? Что происходит с совокупным платёжеспособного спроса? Смешение
52:14
разных парадигм в период перехода будет всё время приводить к поиску решения
52:19
нарастающих проблем там, где этих решений больше нет. Попытки усовершенствовать существующие институты
52:26
в быстроменяющихся условиях заранее облечены на неудачу. Хочу ещё раз подчеркнуть, я не утверждаю, что
52:33
наступит экономический крах. Благостояние людей может даже существенно вырасти, но изменится
52:41
природа экономической системы, в которой люди возъясняются с привычной
52:48
роль. Насколько быстро может происходить процесс внедрения? И для такого
52:54
массового изменения рынка труда у нас есть только один близкий по времени исторический пример. Это процесс
53:01
переноса рабочих мест в Китай в нулевые годы XXI века. Всё происходило
53:07
чрезвычайно быстро по одной простой причине: конкуренция. Если первая компания в отрасли создала
53:13
своё производство в Китае и перенесла туда свои производственные операции, она получила с этим огромное сокращение
53:20
расходов на персонал, что позволило ей не только начать получать невиданные прежде прибыли, но и предложить
53:28
сниженные цены на свои товары на рынке, увеличивая тем самым свою рыночную долю за счёт конкурентов. И конкурентам не
53:35
остаётся ничего другого, как тоже перенести свою производственную базу в Китай или покинуть бизнес. Внедрение
53:42
агентов ИИ, если оно окажется экономически эффективным, может вызвать аналогичные по масштабам и скорости
53:48
развёртывания процесса. Конечно, создание специализированных агентов может занять известное время, но всё
53:54
равно к этому надо готовиться. Меня сильно беспокоит, что вытеснение людей с рынка труда может произойти довольно
54:01
быстро и за описанной мотивации. А создание новых профессий в достаточном количестве может происходить очень
54:08
постепенно в неопределённом будущем. Впрочем, если вернуться
54:15
простите, а если вернуться к ожиданиям оптимистам, оптимистов, что и принесёт
54:20
невидный рост экономики, чтобы под этим словом теперь не понималось, то для этого помимо и и роботизации потребуется
54:28
огромное количество исходного сырья и материала. Учитывая высокую потенциальную принальность труда и
54:35
действительно возможно создание материального изобилия, удовлетворение самых разнообразных потребностей людей.
54:42
Но откуда возьмётся то, из чего их можно сделать? Возможно, в будущем с
54:47
появлением AGI этот вопрос будет решаться на совершенно новой основе путём синтезирования новых материалов.
54:55
Но пока надо ограничиваться имеющейся материальной базой, значительная часть которой расположена за пределами США. И
55:03
в этой связи возникает и другой вопрос. Предположим, что в США процесс внедрения
55:11
Иидёт по описанному оптимистичному сценарию. Но что будет происходить в других странах, где разработки в области
55:19
и либо сильно отстают от США и Китая, либо и вовсе не проводится. Как будет
55:24
строиться отношения между лидерами и аутсайдерами процесса, как будут проходить расчёты, как вообще могут
55:30
взаимодействовать рыночные и пострыночные системы. Здесь легко обнаружить огромное количество проблем,
55:37
которые также надо в довольно срочном порядке сформулировать и найти решение, но это уже выходит далеко за пределы
55:44
моей нынешней темы. Завершая выступление, хочу ещё раз подчеркнуть,
55:49
что лично я не прогнозирую массовых безработиц. Приведённые сегодня прогнозы сделаны другими людьми и организациями,
55:56
а безмассовые безработицы все описанные в моём рассказе последствия могут и не
56:02
наступить. Всё, о чём я говорил — это анализ возможного будущего, если такая
56:08
массовая безработица всё же произойдёт. Напомню, что агенты и уже начинают
56:13
появляться в этом году, а AGI может появиться в интервале
56:20
2026-2030 года. Иными словами, это будущее очень близко, а мера нашего
56:26
осознания готовности недалека от нуля. Вот это и есть причина для моего сегодняшнего выступления. Спасибо за
56:33
внимание и долготерпение. Спасибо. Ну что ж, переходим к вопросам.
56:41
А, Влад, пожалуйста, вы. Большое спасибо за вашу ценную информацию. И у меня только один вопрос,
56:48
Леонид. Как вы думаете, насчёт прогнозов Илона Маска, а насколько они могут быть
56:54
при его IQ и успешности бизнеса? Насколько они могут быть правдоподобными? И нужно ли через
57:02
лет пять, например, мне перестать переживать, чтобы дети 7 дней в неделю не работали, как я. Может, там 3 дня
57:09
будут работать и этого хватит. Как лично вы думаете? Спасибо. Ну, вы знаете, я
57:15
слушал разные выступления и тексты, произведённые Илоном Маском. Должен
57:21
сказать, что, вообще говоря, он меня совершенно восхищает как удивительный мыслитель, очень
57:27
практический мыслитель, замечательный бизнесмен и технологический лидер. Но в
57:33
том, что касается его экономических воззрений, то они, в общем, на самом деле меня не удовлетворяют. Поэтому, а,
57:41
на мой взгляд, его картинка выглядит, э, для меня избыточно оптимистичной. Ну,
57:48
может быть, потому что я, в общем, скорее всё-таки как экономист, я склонен более к осторожным оценкам.
58:01
Спасибо, Валентин, пожалуйста, вы. Да, меня слышно? Да, хорошо. Спасибо. У меня
58:07
тоже чисто экономический вопрос. Дело в том, что сегодняшнието специалисты в
58:13
области экономики, ну, не то, что там криво, а прямо критикуют концепцию, так
58:19
сказать, Трампа, который восстал, восстал против современной ситуации. То
58:25
есть я имею в виду мировая кооперация, которая там объективно, необъективно, но это факт, что это
58:32
экономика, этот принцип или это тактика или это стратегия X-X века. И то, что
58:40
Трамп пытается сломать это ээ вернуться в эту архаику, это не только научно, как
58:46
бы уже не научно, не обосновано, но и очень опасно вплод до каче
58:53
катастрофических последствий. в экономике. Так ли это? Как нам,
58:58
дилетантам, какую сторону принять? Хочется верить Трампу, но профессиональные знания сами по себе
59:05
являются тоже очень сильный, так сказать, фактором. Ну, вы знаете, вы меня сразу поставили в затруднительное
59:12
положение. Во-первых, это как бы я сегодня о другом рассказывал, а, э, моё выступление было
59:20
на другую тему. А, во-вторых, я выступаю в аудитории, которая по опыту я знаю, что она в основном, ну, очень позитивно
59:28
воспринимает Трампа, его программу и так далее. Я сам не являюсь ни
59:33
антитрампистом, ни трампистом. Пытаюсь, а, смотреть на это, ну, более сдержанно,
59:40
скажем, как как экономист. С одной стороны, с другой стороны, а Рыган
59:46
когда-то говорил, что вот он всё ищет однорукого экономиста, который бы вот только с одной стороны говорил:
59:52
«По-моему, хороших экономистов таких не бывает». Но возвращаясь к вашему вопросу, знаете, понятно, мне отчасти
1:00:01
понятно стремление Трампа, а провести глубокие изменения в и в мировой
1:00:08
экономике, и в том, как устроена американская экономика и американское правительство. Тут очень много проблем,
1:00:15
которые накопились и перезрели. И действительно, они требуют действий, а
1:00:22
жизни в постоянном дедлоке, который очень характерен для американского конгресса на протяжении десятилетия. Это
1:00:29
путь никуда, поскольку никакие проблемы не решаются, они только продолжают накапливаться. Но мне кажется, что
1:00:36
помимо стремления к тому, чтобы вот провести радикальные изменения,
1:00:41
лучше было бы начать с того, чтобы понять, почему всё сложилось так, как оно сложилось. Вот, например, мы,
1:00:50
наверное, завтра узнаем про радикальное повышение тарифов по отношению ко всему
1:00:57
миру. А, и Трамп это называет днём освобождения Америки. На мой взгляд, не
1:01:04
проведён анализ, почему Америка потеряла всё производство. Трамп жалуется, что
1:01:09
вот даже лекарства уехали, их теперь привозят в Америку, они не производятся у нас. Я буду делать всё, чтобы всё
1:01:16
производилось здесь. А почему это всё уехало? Что способствовало тому, чтобы
1:01:22
бизнесы покинули территорию США? На мой взгляд, на эту тему вы ни одного разу не
1:01:28
услышите от Трампа никакого анализа, просто никакого. И поэтому у меня
1:01:34
большое подозрение, что его действия, которые продиктованы действительно
1:01:40
острыми проблемами, это поиск не там, где эти проблемы надо решать.
1:01:47
Вот я понимаю, что мне, наверное, надо было бы ещё час рассказывать, а про то,
1:01:57
почему это так, но если только ограничиваться ответом на ваш вопрос, то я ограничу здесь. А, повторюсь, как бы
1:02:06
резюмируя сказанное, проблема не в том, что нужно менять. Менять многое нужно. А
1:02:12
вот как менять? нужно начинать с анализа, почему мы там, где мы находимся. И ответ на этот вопрос будет
1:02:19
для многих очень неожиданный. Кстати говоря, последнюю, наверное,
1:02:25
ремарку добавлю. Самое печальное, что даже если предполагаемый мною ответ на
1:02:31
этот вопрос будет найден, революционного решения не получится. Это потребует многих лет для
1:02:39
того, чтобы исправить то, что в течение многих десятилетий здесь накапливается.
1:02:44
А вот так кавалерийской атакой эти проблемы не решатся. Пожалуй, я этим останавлюсь. Спасибо. Спасибо, Игорь.
1:02:52
Пожалуйста, вы. Леонид, огромное спасибо. Очень сильное впечатление
1:02:57
произвело на меня ваша лекция, ваш подход к этому вопросу.
1:03:03
Но из негативных последствий, из такой комплексной комплексного пессимизма, вы,
1:03:11
по-моему, не сказали ещё как минимум об одном важном процессе. Это о росте
1:03:18
продолжительности жизни в Соединённых Штатах, связанных с этим проблемах.
1:03:24
И к тому, что а и очевидно,
1:03:30
как один из первоначальных результатов приведёт к созданию новых лекарств и
1:03:36
новых способов решения медицинских проблем. И продолжительность жизни может
1:03:41
увеличиваться экспоненционально. На самом деле, может быть, не все знают,
1:03:48
но самое страшное, что произошло в последние месяцы, это сообщение одной
1:03:54
израильской компании о том, что они на
1:03:59
через 2-3 года выдадут лекарство, которое будет действовать
1:04:04
напрямую на тот белок, который способствует старению организма. Они
1:04:10
обещают 20-30% увеличения здоровой
1:04:15
жизни. И это будет кошмар для человечество. Представьте себе представьте себе, что Путин будет жить
1:04:22
до 115, до 120 лет. Как один из примеров. Всё это вместе, это дичайшая нагрузка на любую
1:04:30
экономику приведёт, на мой взгляд, к совершенно ужасным последствиям. Что вы скажете? Ну, разумеется, вы правы. Хотя,
1:04:38
в общем, это я старался ограничиваться в пределах чисто экономических, э,
1:04:43
последствий, но то, что вы говорите, конечно, имеет прямое отношение к экономике, но тогда уже я пропустил и
1:04:50
много другого, то, что тоже могло бы иметь отношение к экономике, не только то, что связано со здоровьем. А вы
1:04:57
знаете, вот я, готовясь к этому докладу, много
1:05:02
выслушивал разработчиков и, в частности Демис Хасабис, которого, о котором я рассказывал, Deep Mind Google, а они
1:05:11
говорят, вот его компания, э, которая уже добилась больших успехов в эту
1:05:16
области, они считают, что они могут увеличить с помощью своих разработок в
1:05:21
области искусственного интеллекта продолжительность жизни до 150 лет. то это возможно, что организм, в принципе в
1:05:29
состоянии, а поддерживать наше
1:05:34
функционирование до достижения такого возраста. А в экономическом отношении,
1:05:39
разумеется, это всё катастрофа при условии, что мы сохраняем ту систему
1:05:45
экономических отношений, которое сложилось и в которой мы продолжаем жить.
1:05:50
Может быть, эта проблема может быть решена, если мы от этого откажемся или будем вынуждены отказаться и перейдём к
1:05:57
чему-то другому. Вот то, что я сегодня рассказывал, это вот попытка представить себе, как может
1:06:04
выглядеть насильственная ликвидация рыночной экономики просто под давлением
1:06:10
обстоятельств. Просто потому, что по-другому не получается, не в силу чьей-то воли, а просто потому, что так
1:06:17
складываются обстоятельства. А, может быть, я чего-то здесь ещё не вижу. Может быть, другие есть ещё механизмы, которые
1:06:24
приведут к тому, что мы поменяем парадигму, в которой экономика живёт.
1:06:30
Само по себе по себе думать о том, что, э, продолжительность жизни является
1:06:37
несчастьем для человечества, но только вот при учитывая экономические обстоятельства, в
1:06:43
которых мы живём. А так, в общем, конечно же, это благо, если мы можем сохранять ясную голову, способность
1:06:51
наслаждаться жизнью до 150 лет, да, дай бог нам всем здоровья. Вот только бы
1:06:57
были средства к тому, чтобы жить в таких условиях. Игорь, не знаю, ну вы,
1:07:03
конечно, правы, это упущено. Спасибо. Спасибо огромное ещё раз спасибо, Фёдор.
1:07:10
Пожалуйста, вы спасибо. Это практически ваш доклад на
1:07:15
уровне вашего доклада о музыке. Замечательно. Вот. Но только мне
1:07:21
кажется, что, э, вы слишком сильно сгущаете краски, потому что
1:07:27
некоторые проблемы имеют очень лёгкое и очевидное решение. Ну, например,
1:07:32
проблемы безработицы. Вот почему мы, у нас рабочая неделя 40 часов, а почему не
1:07:39
20 или не 10? Вот как вы думаете, если рабочай неделя будет 20 часов, появятся у нас сразу
1:07:46
рабочие места новые или не появится? Ну, это зависит от эффективности и если
1:07:54
агент может выполнять вашу работу намного лучше вас, то а зачем вас
1:08:01
держать на работе 20 часов в неделю, когда можно вас убрать на все 40 часов и
1:08:07
заменить вас этим агентом? У меня на это есть ответ, что я не знаю, конечно, что будет там дальше, но некоторые просто
1:08:14
работы исчезнут, либо они трансформируются, может быть, да? Ну,
1:08:21
например, работа врача, да, вот сейчас очень часто вместо того, чтобы идти к
1:08:27
врачу и спрашивать или в дополнении к этому, я иду и советуюсь сначала с чатом
1:08:33
GPT, и он мне всё вот рассказывает, а потом я уже иду и, значит, и и я
1:08:38
обнаруживаю, что мой врач, оказывается, не знает нихера, понимаешь? Дадада. Да.
1:08:45
И вот и поэтому, значит, просто будут как бы другие работы появятся. И вот,
1:08:51
может быть, понимаете, Фёдор, моя позиция сегодня состояла в том, чтобы
1:08:58
посмотреть, какие могут возникать следствия, если появляются массовые безработицы. Я в конце сказал, что это
1:09:05
не мои прогнозы. Я не прогнозирую массовой безработиц. Моё дело только провести анализ. Если то, если такая
1:09:13
масса безработица произойдёт, что из этого вытекает? Может быть, она и не произойдёт. Может быть, вы правы и всё
1:09:19
будет по-другому. Очень, может быть, я не знаю. А, но то, что нужно делать — это пытаться
1:09:27
осознать это будущее, которому, которое от нас очень близко.
1:09:33
И наша задача проверить, где предельные нагрузки, которые та система, в которой
1:09:39
мы живём, способно выдерживать, если в ней наступают такие изменения. Они
1:09:44
действительно радикальные. А как мы к ним готовы? Вот это круг вопросов, которыми я себя за
1:09:51
люди не так уж не так глупы, вот и найдут решения вот такие то, что я
1:09:58
сказал, ну, практически очевидная вещь. Значит, уменьшить с рабочую неделю. Вот. И потом не надо думать, вот вы следите
1:10:06
за ценой на яйца. Вот почему цена на яйца такая высокая? Ну не надо было
1:10:11
перебивать всех шкур. Тогда бы цена на яйца бы. Вот я я про это говорю. Тут никакие artificial intelligence не
1:10:18
помогают почему-то. Вот. Ну она и не предназначена для этого. А что а кто
1:10:25
делает это самое? Кто производит яйца? Раз не люди уры? Уры.
1:10:31
Там там что люди не участвуют в этом производстве? Нет. Фёдор, понимаете, э пока я ещё не
1:10:39
слышал о том, чтобы готовилась программа замены кур
1:10:44
агентами и не шутить шутить сколько угодно на эту тему, но это нет. Ну
1:10:50
просто насколько искусственный интеллект не может производить яйца, мы пока из
1:10:55
этого исходим. Нет, соответственно, куры по серьёз, они работу сохранят. У меня
1:11:01
есть предложение. Давайте дискуссию про яйца и их искусственный интеллект перенесём на второй круг. Ну хорошо. Да,
1:11:08
ну да, ну просто мне кажется вот такое, что вот такое нагнетание, вот это вот всё, вот это плохо, вот это тоже плохо.
1:11:15
Вот это нагнетаю сейчас. Одну секундочку дайте я скажу. Вот эту вот мы не можем.
1:11:23
И вот нас всех это самое уволят. И вот что мы будем делать. Это это всё
1:11:28
совершенно это высосано из пальца совершенно надумано. Потому что если бы
1:11:33
это было видно хотя бы если бы это было бы это проявляется всё постепенно. Я
1:11:40
что-то не вижу ничего. Это было бы сейчас уже должен быть почти полурайн на земле, что это самое, что люди настолько
1:11:48
себя обеспечивают, что они так всё делают, что пока этого совершенно нет. Я совершенно этого не вижу.
1:11:54
А, ну ладно. Ну, что я могу сказать? Я рад, что вы меня познакомили с вашей
1:12:00
точкой зрения. Я более чем уверен, что мы ещё не раз сегодня к этой теме вернёмся. Лев, пожалуйста, вы.
1:12:10
На самом деле я хотел начать с того, что Игорь Дович, но я не хочу немножко
1:12:17
продвинуться в этом направлении. Действительно, продолжительность жизни,
1:12:23
по-видимому будет, начиная с какого-то момента. То есть она и теперь, но теперь мы этого не видим, потому что эта
1:12:32
экспонента эта находится примерно где-то в районе нуля. Вот там она ещё мало
1:12:37
отличима от линейной функции. Вот. Ну, действительно, я думаю, что развитие
1:12:47
биологии, медицины и смежных, так сказать, наук приведёт
1:12:54
крунциальному росту продолжительности жизни. Пределом
1:12:59
является бессмертие. Безусловно, разумные существа, по-настоящему разумные, должны
1:13:06
быть бессмертны. то, что мы не владеем собственным
1:13:12
субтратом, ничего не знаем беспомощно по отношению к собственному субстрату,
1:13:18
говорит о том, насколько неразвит наш разум. Если искусственный интеллект может нам в
1:13:26
этом помочь, то довольно быстро что произойдёт,
1:13:32
что люди, останутся ли они полностью биологическими, или, быть может они
1:13:38
превратятся в этих самых киборгов или, может быть, сменят субстрат вообще, что
1:13:44
было бы идеально. Почему мы должны быть белковыми телами, а не основывать нашу
1:13:52
жизнь на электроннооптической основе? И почему
1:13:58
наш мозг, который, в общем, единственное, что нам, по крайней для
1:14:03
многих из нас дорого в нашем существе, почему он составляет всего
1:14:10
каких-нибудь там, ну, 15%, но максимум 20% веса нашего тела?
1:14:18
Ещё имеется громадная такая плюшка, наше тело, о котором этот мозг должен
1:14:25
заботиться и обеспечивать его нужды и всё
1:14:31
такое. Это проблемы, которые довольно быстро, начиная с какого-то момента
1:14:37
будут решаться. Не исключено, что мои дети, которым сейчас 5 и 7 лет, то они уже
1:14:46
будут бессмертны. перспективе или во всяком случае, что они будут жить там
1:14:51
200, 300, 400 лет. Это вполне возможная
1:14:56
перспектива. Но если так, то тогда всё, все вопросы ставятся совершенно
1:15:04
по-другому, потому что мы сейчас говорим вед о судьбе людей, не так ли? Чем они
1:15:10
будут заниматься там и так далее. Но в том-то и дело, что это будут не те люди,
1:15:16
которые сейчас. Те люди, которые сейчас, давайте будем, так сказать, откровенны,
1:15:23
подавляющее большинство их просто ничего не стоит. Ну, ну совершенно ничего, да.
1:15:30
Они, так сказать, понимаете, трудно биологически очень
1:15:36
трудно отличить человека абсолютно там тупого и ничего не от лауреата
1:15:43
Нобелевской премии. Возьмите у них биологичес, возьмите анализы их там
1:15:48
крови, там, я знаю, чего угодно, получите очень похожие результаты. Но на самом деле это два
1:15:56
совершенно разных существа. Я очень надеюсь на то, что люди просто
1:16:02
изменятся, что они станут другими существами. И следует, мне кажется,
1:16:08
ориентироваться в будущем, например, на то, что люди будут вечными
1:16:14
студентами, они будут всю жизнь учиться, и это будет
1:16:20
частью такой неотъемлемой частью их жизни. Это будет совершенно совершенно
1:16:26
согласен с тобой. Совершенно сразу. Это будет то, за что они будут получать деньги. За это они будут
1:16:34
получать. А автоматы обеспечат их питанием там всякими всякими другими
1:16:41
веща предметами, которые им нужны. А их функция будет учиться и учить. Ты
1:16:48
чему-то научился, учи других и продолжай учиться одновременно.
1:16:55
Вот чему должна, что такое будет жизнь человечества в будущем, на мой взгляд. И
1:17:02
это как-то эта перспектива как-то она не была затронута. Ну, ну я понимаю, что
1:17:08
она очень уж очень уж такая
1:17:15
предположительная, но мне кажется, что нельзя исключить из рассмотрения такое развитие событий. И
1:17:22
может быть именно оно, то, к чему следует стремиться и то, на что нужно
1:17:28
ориентироваться. Нужно все наши усилия, все наши
1:17:34
попытки ориентировать вот на такого рода трансформацию человечества.
1:17:45
Ну, это больше больше как комментарий. А, Леонид, вы хотите прокомментировать
1:17:50
это? Ну, в общем, пожалуй, нет, потому что то, о
1:17:56
чём Леп говорил, это, ну, никак это это не вопрос, на который мне нужно
1:18:02
[музыка] ответить. Разумеется, у меня есть свои мысли на эту тему, но это действительно
1:18:08
уже мы тогда из вопросов уходим и переходим к обсуждениям. А здесь ещё
1:18:13
есть целый ряд вопросов, которые Хорошо, тогда Лана, пожалуйста, вы. Спасибо большое. Очень интересно и замечательно.
1:18:21
А, вы, наверное, знаете о существовании такого проекта Universe 25. А вот когда
1:18:28
совершенно идеальные условия были созданы для мышей, достаточно питания и всего на свете, и и чем лучше мыши жили,
1:18:36
тем, а, раньше они начали вымирать. То есть они достигли какой-то такой вот точки, когда больше не было никакой
1:18:43
необходимости в а их существовании, и у них начались раздоры и разделения на на
1:18:48
всевозможные группы. И в общем, всё всё закончилось очень печально. Иногда,
1:18:54
когда я думаю о том, как будет выглядеть человечество после внедрения artificial
1:18:59
intelligence, вот я сейчас смотрю на, например, на те регионы, которые
1:19:06
остались без работы после ухода кол майнинг, ну, угольной
1:19:12
промышленности, но там, конечно, полный кризис, и никто не учится и не обучается
1:19:18
и не растёт над собой, а люди просто бедствуют, сидят на наркотиках. умерла инфраструктура. И, в общем, это кошмар и
1:19:25
ужас. А вопрос у меня вот какой. А если бы я хотела создать себя для своих, а,
1:19:33
будущих поколений, чтобы они могли со мной общаться, точнее, я с ними, чтобы
1:19:39
они могли ко мне обращаться, вот что для этого нужно было бы сделать? Как это сделать? Есть ли какие-то, я не
1:19:47
знаю, возможности воссоздать себя?
1:19:53
А, ну только ваше будущее поколение будет с вами общаться уже по завершению вашей
1:20:00
жизни, правильно? Именно поэтому я об этом и спрашиваю. Да. Знаете, мне приходилось читать, например, о таких
1:20:07
похожих сервисах, которые развиваются в Калифорнии, а когда с помощью
1:20:13
искусственного интеллекта люди преодолевают собственные границы. И, например, там, ээ, можно в
1:20:21
компьютер заложить переписку и все личные данные, фотографии и всё, что
1:20:27
угодно об умершем человеке, и оставшиеся родственники могут общаться с ним. А
1:20:33
искусственный интеллект, а, пытается, ээ, насколько я понял, достаточно
1:20:39
достоверно воспроизводить образ этого человека. И поэтому поддерживается
1:20:44
иллюзия общения с ним, тем более, что он полностью осведомлён о каких-то
1:20:51
очень, может быть, интимных деталях этого человека, так чтобы он для русски был совершенно
1:20:57
узнаваемым. А, и этот сервис, я не знаю, насколько он популярен, но какой-то известностью в
1:21:05
своём кругу он обладает. Я думаю, что это просто единственное, про что я читал. Я
1:21:11
думаю, что это тема, которая должна развиваться и у других. Ну, понятно, что
1:21:16
развивается, [музыка] скажем, использование искусственного
1:21:22
интеллекта в качестве dating service, но только это
1:21:28
не не попытка помочь людям познакомиться друг другу. Человек обретает друга в
1:21:36
виде искусственного интеллекта, который с ним общается, с ним поддерживает
1:21:41
переписку, знает его уже хорошо. А, и эти общения имне было и интересно, и
1:21:49
странно это читать, но они действительно приобретая какой-то такой очень сильный
1:21:54
душевный отклик у людей, которые общаются с компьютером, поскольку
1:22:00
компьютер знает их так, как не знают их даже там ближайшие родственники, если
1:22:06
такая доверительность передана компьютеру через какие-то документы и другие медиа. Так что я думаю, что в
1:22:14
целом это уже отчасти есть и будет развиваться дальше, поскольку то, о чём
1:22:20
вы говорите, это реальная потребность у людей, значит, она будет обслуживать. Угу.
1:22:27
То есть уже можно использовать какую-то существующую базу, например, тот же чат
1:22:33
DPT, туда загрузить описание там всего, чего я хочу сама и и назвать это и создать
1:22:40
меня, назвать это, например, бабушка. И мои, насколько я помню, эта речь идёт о
1:22:47
каком-то калифорнийском сервисе, который открывает для вас аккаунт. И дальше вот
1:22:53
вы туда помещаете уже всё с вами связанное. О’кей? Для того, чтобы Ну,
1:22:59
наверное, это платно, потому что люди, которые Я понимаю, но название вы не помните, зарабатывать. Нет, конечно, не
1:23:04
помню, но это я думаю, что если вы поищете, то это можно хорошо. Угу. Спасибо. Спиритизм какой-то. Спиритизм
1:23:11
какой-то. Почему спиритизм? Духа же никакого нету. Вы просто сообще
1:23:19
всё, что вы хотите. И это сохраняется там и дальше используется для
1:23:24
интерактивного режима. Давайте пойдём дальше с вопросами. Алекс Каменецкий, пожалуйста.
1:23:31
Да, спасибо за презентацию, которая весьма интересна. Значит, мой вопрос не
1:23:37
будет по поводу предсказаний будущего. То есть у меня есть глубокое абсолютно
1:23:44
убеждение, что, как сказал йоги Бера, что
1:23:50
предсказывать трудно, особенно будущее, но а люди людям свойственно это делать.
1:23:58
Вот, например, я, Леонид, много нашёл общего в ваших предсказаниях с
1:24:05
предсказаниями Клауса Шваба. В двадцатом году 2020 он выпустил книгу, которая
1:24:10
называлась Большая перезагрузка. Угу. В которую он выразил подобные идеи. И мне
1:24:18
запомнились некоторые вещи, такие как в этом обществе будущего никто не
1:24:24
будет владеть ничем, но все будут ужасно счастливы.
1:24:29
Может быть, но мой вопрос значительно проще. То есть меня,
1:24:35
э, человека, интересующегося экономикой, меня интересует ваша точка
1:24:43
зрения на более прагматичный, более прозаичный
1:24:49
вопрос, поскольку я в вашем ответе Валентину, по-моему, я услышал э сакраментальный вопрос,
1:24:57
который меня тоже интересует очень сильно, как мы дошли до жизни такой.
1:25:03
И я о причинах, как мы оказались там, где мы
1:25:10
есть. Вот, вот меня где интересует ваша точка зрения. А, Алекс, я даже
1:25:17
подозреваю, какой ответ вас устроит. Нет, я не я не жду ответа, который меня
1:25:23
устроит. То есть у меня свой ответ уже сформировался
1:25:28
давно, и вы знаете, каким образом. Ну, конечно, как по сторонник Австрийской экономической школы, конечно, вы должны
1:25:34
видеть родовой грех в том, как устроена денежная система. А, и оттуда всё это я
1:25:42
отчасти с вами согласен. Я не являюсь каким-то отрицателем австрийской экономической системы. Я не являюсь,
1:25:49
может быть, её самым горячим модерм. Чувствует ваша точка зрения, да, да?
1:25:55
А, ну и из неё я всё-таки надеялся, что что мы
1:26:02
будем обсуждать мой доклад, а а это уже на другую тему. Ну, если коротко, то, на
1:26:09
мой взгляд, где бы я и стал стал искать причину утраты Америкой
1:26:14
конкурентноспособности. Речь об этом и правда, конечно. Одна из один из основных вопросов абсолютно. Дадада. А я
1:26:22
бы, конечно, тоже обращался к денежной политике, которая сложилась,
1:26:30
а-э, ну, наверное, лет уже теперь 50 с лишним
1:26:36
назад. А, 75. Да, да,
1:26:41

Даже дело не в том, что Давайте послушаем ответ. Дело даже не только в том, что
1:26:47
отказались от золота в качестве базы для монетарной политики, а в том, что
1:26:54
политика монетарной инфляции, пусть умеренной инфляции, это с одной стороны
1:27:03
это была просто палочко-выручалочка, поскольку она очень сильно изменила
1:27:08
характеристики ээ экономического цикла и сделала ну много хорошего для
1:27:15
американской экономики в том смысле, что она позволила удлинить, а, и усилить фазы роста
1:27:23
экономики. Оня она позволила сократить фазы спада и сделать их
1:27:30
мошеловы, а, более легко преодолеваемый. И в результате, в общем, экономический
1:27:36
рост приобрёл динамику, которую он раньше не имел. В этом смысле, да, конечно, это выглядит
1:27:43
как благо, но никакое благо не даётся даром. Вы за это платите обязательно.
1:27:49
Просто расплата начинается много позже. И расплата состоит в том, что постепенно
1:27:54
ваша экономика становится всё более хилой, она
1:28:00
нежилистая. Вы вытрачиваете конкурентноспособность просто потому, что, ну,
1:28:05
скажем, стоимость жизни в Америке непрерывно возрастает. И это означает, что производство чего
1:28:12
угодно в Америке должно непрерывно дорожать. И если вы выступаете в
1:28:19
глобальном соревновании, то, разумеется, Америка становится страной, где производить всё менее выгодно, а
1:28:26
продавать всё более выгодно. А в силу того, что происходит с денежной массой.
1:28:31
И поэтому бизнесы должны уходить из страны
1:28:37
туда, где факторы производства для него более благоприятны. И это вымывает всю производственную сферу из из экономики.
1:28:44
Просто это происходит медленно, очень медленно. Я помню, когда я приехал в
1:28:50
Америку, это было ещё лет, ну, 30 назад, я обратил внимание на то, что в Америке
1:28:56
уже тогда было невыгодно что-либо отремонтировать, если у вас что-то
1:29:02
сломалось. Я приехал из Советского Союза, где, в общем, традиционно, если у
1:29:08
вас что-то сломалось, есть ремонт чего-то, что вам нужно. В Америке это исчезло. Почему? Ну, потому что на самом
1:29:15
деле это просто невыгодно. выгодно продать новую вещь, что-либо отремонтировать. Это кустарное занятие,
1:29:21
оно дорогостоящее просто по затратам труда. Поэтому хороший бизнес взять
1:29:27
что-то сломанное, отправить в Африку и там это починить и продать за меньшую цену. Это это, понимаете, это общая
1:29:34
модель утраты производства чего угодно из Америки.
1:29:39
Поэтому, если сейчас президент Трамп попытается наложить на всех тарифы
1:29:48
надежде, что это вернёт производство, он же ничего не изменил в этой базовой установке. Вот в том, как откуда берётся
1:29:55
эта нарастающая конкурентоспособность, он туда вообще не смотрит. Поэтому почему надо ждать, что
1:30:03
у него что-то получится? Я и не жду.
1:30:09
Я не знаю, насколько я улетворю, но это понятно, что это у меня только такой
1:30:14
конспективный ответ на ваш, в общем, на самом деле довольно глубокий и большой
1:30:20
вопрос. Спасибо. Спасибо. А, Ростислав, пожалуйста, вы.
1:30:29
Да, здравствуйте. Спасибо за презентацию. У меня, может быть, немножко необычный вопрос, да? Значит,
1:30:37
смотрите. Дело в том, что часть вашего доклада была посвящена
1:30:42
рассуждениям относительно того, что внедрение искусственного интеллекта создаст проблему
1:30:48
безработицы. А я согласен с этим замечанием в том плане, что большое количество выполняемых людьми функций
1:30:55
уже сегодня могут быть выполнены, как правило, не
1:31:01
хуже искусственным интеллектом. А кроме того, есть такой феномен, что есть большое количество работ. где работа,
1:31:08
выполненные на три и работа, выполненные на пять, принципиально не делают погоду
1:31:13
с точки зрения конечного продукта. Вот. То есть, скажем, технический перевод,
1:31:18
сделанный машиной и технический перевод, сделанный блестящим техническим переводчиком, это 5 versus 3, но три
1:31:26
тоже проходит на ура. Вот. И здесь возникает естественный момент, когда
1:31:32
одного можно заменить другим для таких вот потребностей. Вот. Но мой вопрос немножко другой,
1:31:39
понимаете? Если мы рассматриваем, я буду говорить очень грубо, если мы рассматриваем закрытую
1:31:46
экономику, то вопрос, который вы поднимаете, то есть та, которая производит всё сама для себя, у неё нет
1:31:53
Китая, из которого что-то импортируется, там, Латинской Америки, из которой что-то импортируется Европе,
1:32:00
она делает всё сама, опираясь на свои ресурсы. Тогда проблема, о которой вы говорите — это проблема не столько
1:32:06
экономическая, сколько социальная. То есть, грубо говоря, если у вас есть общество, которая производит всё для
1:32:12
себя, это вопрос то, как перераспределять в этом обществе произведённый продукт и кто будет
1:32:18
выполнять необходимую работу, нужную для этого общества. Мы живём немножко в другой системе, где очень много из того,
1:32:25
что мы потребляем, нами не производится. Вот, например, я не помню, когда я
1:32:30
последний раз купил майку, которая была произведена в США, даже из хлопка, произведённого в США. Вот. Да. То есть и
1:32:39
я, наверное, плачу процент 10, даже где-то раз в 10 больше, чем перекупщик,
1:32:44
который купил её в произведённом месте и продал её мне. Да. Но для меня это всё равно хорошо, потому что эта майка для
1:32:50
меня стоит, скажем, условные 3 доллара, а не 10 долларов, как если бы её производили здесь. Да. Вот. Но проблема
1:32:58
в том, что вот -э смена структуры американской экономики в контексте глобальной экономики, где большинство
1:33:05
базовых продуктов, потребляемых нами, уже нами не производится, да, свелась к
1:33:11
тому, что из Америки стали делать потихоньку нечто вроде центра
1:33:16
потребления, не производства. И огромное количество работ, которые вы описываете,
1:33:21
которые заменит искусственный интеллект, они, по сути дела, уже сегодня не нужны.
1:33:26
Они являются непрямой формой налогов на производителей в других странах. Я
1:33:32
поясню, что я имею в виду. То есть возьмите стандартную аудиторскую компанию, да? То есть то, что они не
1:33:40
бесполезны — это факт, но то, что не очень полезны, тоже сказать нельзя. То есть тот garbage, которым являлся
1:33:47
аудитинг вот этих четырёх крупнейших компаний, показал финансовый кризис. Например, что вот конкретно аудитинг
1:33:56
производителей финансовых продуктов, который там выходил с повышенными рейтингами, оказался полной лажей, прошу
1:34:03
прощения за ненормативную лексику, да? То есть это было прекрасно показано. То же самое всевозможные маркетинговые
1:34:10
агентства, инновационные рекламы, трансгендеры на бадвайзере и прочее,
1:34:16
тому подобное. То есть, по сути, есть огромное количество людей, которые вставлены в цепочку производства и
1:34:23
которые, по сути, просто отнимают прибавочную стоимость от продукта, произведённого где-то извне. То есть в
1:34:30
этом смысле Америка стоит перед проблемой, что даже без искусственного интеллекта она потеряет эти работы. В
1:34:37
какой-то момент Китай, он уже находится в том состоянии, просто скажет: «Зачем
1:34:42
нам аудиторские фирмы из США, когда у нас могут быть свои аудиторские фирмы? Зачем нам рейтинговые агентства из США,
1:34:50
когда, во-первых, они абсолютно бесполезны в том плане, что те рейтинги,
1:34:55
которые они выдают, мягко говоря, сомнительно, когда мы можем создать свои рейтинговые агентства значительно лучше,
1:35:02
значительно более минимыми рейтингами. Зачем нам финансовые сервисы из США, когда у нас капитал, а в США капитала
1:35:10
уже нет? Да? То есть в этом смысле с искусственным интеллектом и без
1:35:15
искусственного интеллекта мы находимся в ситуации, когда мы убрали производственную базу от себя, и эти
1:35:23
работы всё равно бы исчезли. То есть, грубо говоря, была ситуация, я помню, у меня были диалоги с моими коллегами, это
1:35:30
было лет 20 назад, что создавалась ситуация, когда США превращали в некий такой контролцентр, из которого
1:35:38
посылались сигналы на места, находившиеся за океаном, где происходила вся активность. И вы, кстати, привели
1:35:45
хорошую статистику в том плане, что как бы, ну, риск, да, то есть что к
1:35:53
риск к искусственному интеллекту по типу экономики. Там якобы неразвитые экономики оказались наименее vulnerable,
1:36:01
но неразвитыя экономики — это как раз та база, которая позволяет существовать всей той плесени, да, которая считает
1:36:08
себя самой креативной, самой важной, самой ценной в этой цепочке. Но в результате эта плесень, на самом деле,
1:36:15
без этой цепочки вообще ничего не стоит, грубо говоря. Я помню, лет 20 назад у
1:36:21
меня были диалоги с коллегами, и кто-то кто-то сказал, что совершенно замечательную мысль, но в какой-то
1:36:27
момент э remotely как это сказать, remotely controlled
1:36:33
will turn off the remote control, он буде. То есть Китай и Юго-Восточная Азия, в
1:36:39
принципе, может закрыться от внешнего мира, послать Соединённые Штаты, Великобританию и прочее к чёрту и
1:36:46
совершенно спокойно существовать. То есть налогообложение Великобритании через Insurance Companies, через
1:36:53
Financial Servicing Companies, через Auditing Companies Китаю уже не нужно. Это уже страна паразит. То же самое
1:37:00
примерно можно сказать о США. Это не значит, что в США нет того, что США может предложить. Но проблема здесь не
1:37:07
столько, с моей точки зрения, в искусственном интеллекте, сколько в ситуации, когда, грубо говоря, мы сидим в
1:37:14
глобальной экономике без глобальной правительства над этой экономикой. То
1:37:20
есть внутри конкретного общества, да, где есть политический контроль, общая
1:37:26
идеология и общая экономика, это чисто вопрос перераспределения. В ситуации, в
1:37:31
которой оказались мы, общего управления над всем этим нет. Поэтому это не
1:37:37
социальная проблема. Её нельзя будет решить социальными методами. Вот. То есть
1:37:44
мой вопрос, то есть в какой точке зрения мы говорим о проблеме искусственного интеллекта? вёрся с проблеме того, что
1:37:50
мы оказались в глубокой заднице из-за того, что мы решили, что мы сможем контролировать весь мир через такие
1:37:57
непрямые механизмы. Вот мой вопрос. Спасибо. А, спасибо большое. Очень
1:38:03
интересно вас слушать. И большая пища для размышлений. Знаете, то, о чём вы
1:38:09
говорите, на самом деле, это два правильных процесса. То есть даже без появления какого-либо искусственного
1:38:15
интеллекта происходила бы вот такая вот эрозия. Ну вот это мой поит, что искусственный
1:38:21
интеллект здесь абсолют, Ростислав, давайте дадим возможность ответить, то есть даже без этого происходило бы вот
1:38:27
дальнейшая эрозия глобальной структуры, а в которой, ну действительно, если
1:38:33
капитал э накапливается в Китае, то зачем нужно рейтинговое агентство, как
1:38:39
вы говорите для китайцев? Рейтинговое агентство — это рудимент той системы,
1:38:45
когда Америка могла говорить: «Вот, будете плохо себя вести, а не дадим
1:38:51
инвестиций». Ну теперь Америка задаживает деньги по всему миру, поэтому этот тезис, он уже перевернулся на
1:38:58
180°. И поэтому рейтинговые агентства должны были оценить привлекательность инвестиций в
1:39:06
Китае для американских инвесторов. Если ситуация изменилась с точностью да наоборот, то рейтинговые агентства для
1:39:13
этой функции не нужны. То же самое с Goldman Сакри, Морганстенли и с остальными с акунтинговыми компаниями и
1:39:20
так далее. Я уже такой старый, что даже помню, когда их было не четыре, а шесть великих один companies. А это всё, это
1:39:29
всё рудименты исчезающего мира. Искусственный интеллект добавляет сюда
1:39:34
просто другое измерение, поэтому его нужно рассматривать параллельно к тому процессу, который происходил бы без
1:39:41
него, к тому, что ты вы описываете. Ещё одно соображение только добавлю к тому,
1:39:47
что вы говорили. Это то, что когда мы говорим об искусственном интеллекте, мы говорим, в общем, на самом деле, прежде
1:39:53
всего о служащих. Вот если производство уехало и производственные рабочие — это
1:39:58
где-то в других местах мира, а вот непроизводственная занятость, она тогда
1:40:05
остаётся и накапливается в Соединённых Штатах. Вот именно она становится объектом атаки искусственного
1:40:11
интеллекта. Поэтому то, что будет происходить здесь с замещением рабочих мест, а в отношении вот этой
1:40:18
непроизводственной сферы, а это не
1:40:23
совсем совмещается с тем, о чём говорили вы. Действительно, это два параллельных
1:40:29
процесса. Они будут сложно взаимодействовать, а и мы будем всем этому свидетелями. Насколько быстро? Да
1:40:37
бог его знает. Ещё раз подчеркну, я уже слышал здесь несколько раз. Я не делал
1:40:42
прогнозов. Я вам привёл прогнозы других людей и организаций о том, что может
1:40:48
быть будет массовое безработи. Моя задача только анализировать. Если будет,
1:40:53
что это означает. А, ну вот, не знаю, пожалуй,
1:40:59
это то, что я мог бы вам сказать. Спасибо. Спасибо. Мар Карповский, ваша очередь.
1:41:09
Микрофон, пожалуйста, включите. Меня слышно? Дадада. Хорошо слышно.
1:41:15
Лёня, спасибо огромное. На меня произвело очень большое впечатление а ваш доклад и особенно
1:41:25
фраза о том, что если бы кто-то, а, проектировал там ядерную станцию,
1:41:31
которая с вероятностью, я не знаю, 5% в случае аварии могла бы уничтожить жизнь
1:41:38
на Земле, вряд ли кто-нибудь это бы делал. А искусственный интеллект, по мнению многих умных людей, может
1:41:46
уничтожить жизнь на Земле. И вероятность этого достаточно большая по оценках по
1:41:53
оценкам таких людей, как Маск. А и произойти это может очень быстро. А
1:42:00
значит вопрос у меня такой: насколько разумно было бы
1:42:05
попытаться найти нишу, найти, отгородить часть
1:42:12
нашего общества, куда бы не проникал искусственный интеллект, где была бы
1:42:18
гарантия от того, что, значит, а никакие
1:42:24
процессы, происходящие внутри этого
1:42:29
подмножества, а, ну, какой-то выделенной сферы,
1:42:36
значит, туда бы отрицательные эффекты была бы какая-то стена фаво, которая бы
1:42:43
не пускала искусственный интеллект в в этот мир. Но,
1:42:48
напримерто, а может быть Маск это имеет в виду, когда он говорит о колонизации
1:42:55
Марса. Может быть, марсианская ветка цивилизация может быть её легко
1:43:01
отъединить от цивилизации на Земле. Даже если цивилизация на Земле
1:43:09
будет, а, большой опасности, это может не повлиять на массианскую веку. Во
1:43:15
всяком случае, кто-нибудь что-нибудь подобное делал или насколько это
1:43:21
бессмысленно? Вот попыт что-то вроде бы, я не знаю, чёрного ящика, который
1:43:27
самолёты разбиваются, а там всё многое важное сохраняется. Вот что-то такого
1:43:33
рода. Значит,
1:43:39
я бы я бы в другом месте искал. И, мне кажется, в другом месте ищут ээ защиту
1:43:45
от тех беспокойств, которые вы и я испытываем. А я об этом на самом деле не
1:43:52
рассказываю, просто потому что, ну, я считал себя ограниченным во времени. Ну, давайте попробую перечислить то, что
1:43:58
пытаются люди делать. Как я уже, мне кажется, не в очень
1:44:05
внятной форме сказал, что существует антагонизм между теми, кто стремится к
1:44:11
максимально быстрому развитию искусственного интеллекта и тем и теми,
1:44:17
кто беспокоится по поводу возможных рисков и пытаются делать это
1:44:23
неторопливо, но надёжно. Между ними действительно существует сильное напряжение. И та фаза, в которой
1:44:31
мы находимся сейчас, это фаза, в которой правительство Трампа заняло в
1:44:37
этом вопросе совершенно определённую позицию. Они считают, что нужно
1:44:42
максимизировать скорость, э, получения искусственного интеллекта AGI и
1:44:49
риски оставить ээ где-то в стороне. Это опасная позиция. Она для меня, на самом
1:44:55
деле, удивительна, потому что я много раз встречал позицию Илона Маска, который в этой администрации играет
1:45:02
большую роль, а который как раз очень осторожно и вполне он осведомлён об этих
1:45:09
рисках и принимает это всё всерьёз. Тем не менее, вот позиция администрации
1:45:15
Трампа здесь такова, что оно не настаивает на регулировании, не настаивает на каком-то торможении полной
1:45:22
вперёд. Это опасно. Ну, для меня, для вас это опасно. Теперь о том, что
1:45:27
пытаются люди делать для того, чтобы всё-таки как-то справляться с риском.
1:45:32
Одна вещь, которая была сделана ещё в последние
1:45:38
месяцы администрации Байдена — это создание ээ
1:45:45
ээ института искусственного интеллекта. Это государственное учреждение с бюджетным финансированием.
1:45:52
И оно ещё, естественно, ничего не успело толком сделать, кроме одной
1:45:58
вещи. Они заключили соглашение с ведущими фирмами разработчиками AGI, с
1:46:04
OpenI, с Антропиком и с компанией МАС
1:46:10
XAI о добровольном тестировании их
1:46:15
алгоритмов на предмет безопасности. На самом деле прообразом является
1:46:21
аналогичный институт, созданный несколько лет назад в Британии, где все эти же компании, а также и некоторые
1:46:27
другие ещё американские компании активно сотрудничают, представляют свои
1:46:33
алгоритмы на такое тестирование. Это хорошая вещь, это действительно полезно. Другая вещь,
1:46:39
которая делается — это самостоятельное исследование самих этих компаний на предмет безопасности. Они
1:46:45
тоже озабочены? Конечно же, озабочены. А они пытаются,
1:46:51
например, скажем, компания Антропик, она каждый раз, когда она
1:46:57
занимается разработком очередной модернизации своего своего
1:47:03
чатбота, они проводят отдельную исследоскую работу на попытку с помощью
1:47:09
этого чатбота искать информацию о создании биологического или ядерного
1:47:15
оружия, или хотя бы каких-то их элементов. для того, чтобы блокировать возможности
1:47:21
такого поиска, чтобы предусмотреть в алгоритмах что-то, что блокирует ответ
1:47:27
на такой вопрос для произвольного пользователя. Полезная вещь, конечно,
1:47:32
полезная. Это тоже делается. Насколько это делается хорошо, насколько это делается последовательно, я знаю только
1:47:39
о том, что это делается. Но здесь, понимаете, мы и так находимся в положении, когда мы
1:47:45
находимся, а мы должны доверять разработчикам просто потому, что у нас ничего другого
1:47:51
нету. И доверять тому, что они достаточно совестливы, профессиональные
1:47:56
и мудры для того, чтобы позаботиться о нашей
1:48:02
безопасности. Достаточно ли это? Я не уверен, но но лучшего всё равно нет.
1:48:08
Что ещё можно было бы привести из таких мер? На самом деле даже больше ничего
1:48:13
мне сейчас не приходит в голову. Если что-то вспомню, то ещё скажу. Понятно? А вот эта идея построить как бы
1:48:21
замкнутую систему, куда искусственный интеллект не проникает? Нет. Он
1:48:27
проникнет. Нет. Почему? Я я никогда не слышал про такие идеи,
1:48:33
которые кто-либо пытался реализовать, предполагаю, что они просто, а, ну,
1:48:38
наверное, невозможно. Почему? Ну, Марк, не знаю. Тут тут мне честнее сказать, что я просто не знаю.
1:48:45
О’кей. Не могу ответить вам на это вопрос. Самому мне в голову такая возможность не приходит.
1:48:51
Спасибо. Спасибо. Зиновий, пожалуйста, вы. Угу. Спасибо.
1:48:57
Ваш доклад меня воодушевил в плане того, что я увидел
1:49:04
много, так сказать, мовы эншейкас, людей, которые
1:49:10
толкают все евреев с настоящими еврейскими именами.
1:49:17
Значит, если евреи там, то мы можем
1:49:22
ожидать, что они что-нибудь хорошее придумают.
1:49:28
Но в то же время я понял из комментариев и
1:49:34
присутствующих, и вообще что, ээ, это какая-то часть человечества
1:49:42
только занимается, а остальные люди, э, которые могут стать какими-то лудитами
1:49:50
нарождающейся новой цивилизацией, с этим искусственным разумом.
1:49:56
И они могут и погромить. Как они могут погромить? Они могут погромить с помощью
1:50:02
всяких вирусов,
1:50:08
всяких атомного оружия, например. И в то же время мы погрезаем в
1:50:15
пластмассе э весь мир. Температура повышается.
1:50:20
Неважно от чего это, так сказать, или
1:50:26
планета сама решила согреться, но
1:50:31
ээ ждут нас необычайные пербации, и из этих пертурбаций вряд ли
1:50:40
что-то хорошее получится. Как вы думаете, на ваш взгляд, я дам вам
1:50:46
ещё один пример, что есть противоречие, вот мы здесь сейчас разговариваем, а,
1:50:52
например, существует правительство штата, не американское, ээ, так сказать,
1:50:58
забудьте о Трампе и обо всём, а, ээ, правительство штата. Мы, например,
1:51:06
проголосовали, народ, народишка проголосовал, чтобы сделали ээ сегодня
1:51:12
здесь звучало это аудит, а правительство штата, ээ, и люди, которые держат бразды
1:51:21
правления, а есть, да, такой аудитор там есть, да, но не дают этой женщине
1:51:29
итальянского происхождения работать. не хотят, чтобы был сделан аудит. То
1:51:36
есть вот такие противоречия и угрозы всё-таки оставляют меня в и нашей
1:51:45
всё-таки короткая продолжительность жизни оставляют меня
1:51:52
вот хотелось бы узнать ваше мнение, что всё это м как научная фантастика и
1:51:59
непонятно какая часть человечества будет
1:52:04
облагодетельствована вот Вот таким образом с помощью искусственного
1:52:09
разума. Ну я себя чувствую не в состоянии ответить на все ваши вопросы.
1:52:15
Попробую на некоторые, на которые смогу. Да. Да. А, ну вот скажем, что касается
1:52:21
евреев, по-моему, блестящая команда инженеров, э, которая разработала
1:52:28
китайскую, а, китайский алгоритм дипсик,
1:52:33
евреев там не замечено. или я про это не слышал. Что не обязательно евреи с
1:52:38
евреями связаны какие-то достижения. Ну, часто, часто, действительно. А
1:52:44
второе — это то, что касается [музыка]
1:52:50
ээ сейчас,
1:52:56
секундочку, я забыл, что вопрос, на который ваш вопрос, на который я хотел
1:53:01
ответить. А, да, по поводу благ, которые нам
1:53:08
достанутся в результате внедрения. И, вы знаете, как
1:53:13
я уже говорил в самом начале, а мы, в общем-то, всё, что мы знаем об
1:53:19
искусственном интеллекте, мы знаем от разработчиков, от того, что они
1:53:25
знают и нам рассказывают. Угу. и, э, их восприятие
1:53:32
грядущего, оно почти целиком положительно и очень, э, много
1:53:38
энтузиазма. Они видят огромные перспективы, которые открываются для, а,
1:53:45
роста благосостояния людей, для решения самых разнообразных человеческих проблем, а, и те, которые раньше даже
1:53:52
невозможно было поставить. Да, конечно, я как и как склонный к пессимизму
1:53:59
человек, конечно же, стараюсь обращать внимание на риски, которые может нести искусственный
1:54:07
интеллект, но нельзя отрицать, что никто бы не стал заниматься искусственным интеллектом, если бы с этим не было
1:54:12
связано огромное количество того позитивного, что может прийти в нашу жизнь.
1:54:19
И, может быть, я задал ложное представление о том, что это опасная вещь и только нет, это не только опасная
1:54:26
вещь. Это действительно светлое будущее, которое нас всех ждёт, если мы переживём
1:54:32
риски, которые с этим связаны. Пожалуй, я так бы ответил. Угу.
1:54:39
Спасибо. Да. А, Михаил Маянс, пожалуйста, вы. Спасибо.
1:54:45
Знаете, когда я слушал ваше, ну, для меня блестящую презентацию, у меня
1:54:53
почему-то сразу возникли какие-то ассоциации с некоторыми произведениями
1:54:58
научной фантастики, которые, без сомнения всем известны. Ну, например, с
1:55:05
машиной времени Оэлса, когда человечество в результате превращается в
1:55:12
какой-то шармозг на коротеньких ножках и и непонятно, а что же вокруг? Или с
1:55:21
произведением, не помню его название, Ефремова, где мир разделяется на джи и
1:55:29
кжи, то есть на долго живущих и коротко живущих. Причём коротко живущие — это
1:55:36
люди, которые производят материальные блага, а долгоживущие — это люди,
1:55:42
которые наслаждаются сзорцанием, ээ,
1:55:48
праздной жизнью, так, если можно выразиться. И и между джи и
1:55:54
ГЖ периодически возникают какие-то контакты, которые очень плохо кончаются
1:56:01
для жи, то есть для коротко живущих. Значит, если отвлечься от фантастики, то
1:56:08
вот ещё какая мысль приходит в голову. Ведь
1:56:15
первая мировая война способствовала, это была некая такая
1:56:21
точка бифуркации, когда человечество впервые ээ разработало и применило химическое
1:56:30
оружие как средство, которое могло уничтожить всё живое на земле. Ну,
1:56:36
вопрос был в средствах доставки. Потом вторая точка — это когда
1:56:41
человечество, ээ, значит, изобрело ядерное оружие, разработало
1:56:49
ядерное оружие и появились средства доставки, которые могли уничтожить не
1:56:55
то, что всё живое, а вообще даже всё неодушевлённое. Э, ну, скажем, весь реал
1:57:02
так, грубо говоря. Потом это ядерное оружие ответвилось, и
1:57:09
там появилось направление нейтронных нейтронного оружия, которое опять же
1:57:16
вроде предназначено, чтобы уничтожить всё живое, но оставить материальные ценности.
1:57:23
Потом химическое оружие ответвилось биологическое оружие, которое опять
1:57:30
целевая установка, уничтожим всё живое, но материальные ценности должны
1:57:35
остаться. Ну и теперь мы вот так дошли до искусственного интеллекта, который
1:57:42
может уничтожить, опять же, с одной стороны, вроде бы всё живое, оставив
1:57:47
материальные ценности неизвестно для кого. И а с другой стороны, оказывается,
1:57:54
что искусственный интеллект таит в себе необыкновенные возможности для продления
1:58:01
человеческой жизни до 120 лет, но при этом оказывается, что это вовсе не
1:58:07
благо, а это опять же вырождение деградации человечества. Ну так вот,
1:58:13
если барахтаться во всём этом, значит, множестве суждений,
1:58:20
которые я перечислил, а, наверное, ещё можно придумать очень многое, особенно
1:58:27
человеку, который вообще не в теме искусственного интеллекта вроде меня и
1:58:32
может молоть всякую чушь, то всё-таки у меня к вам возникает такой вопрос. Вот
1:58:39
искусственный интеллект, это
1:58:45
средвление, которое может уничтожить человечество или который способна
1:58:53
обеспечить, ну, рай для всего человечества или для части человечества,
1:58:59
учитывая жи и кжи. Спасибо. Спасибо.
1:59:06
Ну, вы знаете, наверное, первый раз в жизни мы попали в ситуацию, когда
1:59:12
научная фантастика становится завтрашним днём. Не чем-то таким предполагаемым,
1:59:18
как что-то, что может происходить в отдалённом будущем или предполагаемом будущем. В каком-то смысле наше ээ
1:59:26
отношение к научной фантастике не очень сильно отличается от нашего отношения к искусственному интеллекту. Мы пытаемся
1:59:33
просто про искусственный интеллект узнать побольше, чтобы это уже было не фантастика, а что-то, что можно в руках
1:59:39
пощупать и оценить опасности и возможности. А, но в принципе, да,
1:59:45
действительно, мы, в общем, попали в ситуацию, в которой никогда не были. А искусственный интеллект. Я в самом
1:59:51
начале своего рассказа вот так выразил свою мысль, что у искусственного интеллекта нет прошлого
1:59:58
и нет настоящего, только будущее. И поэтому в
2:00:04
этом смысле он не отличается от научной фантастики, про которую вы говорили. Что
2:00:09
касается благ и рисков, ну, конечно же, они велики. Почему я говорил о рисках и,
2:00:17
а, и особенно неощутимых рисках? То есть там, где, а если у е появится
2:00:24
собственное целеполагание, и нам надо стремиться что-то сделать, чтобы он не
2:00:30
был направлен против нас, людей. И выясняется, что если он наше
2:00:36
порождение, а мы сами не можем между собой договориться, что мы делаем на этом, в этом мире мы уничтожаем себе
2:00:44
подобное или мы пролеваем жизнь, мы делаем и то, и другое. И обладая теми же самыми, а,
2:00:52
возможностями и рисками, которые, а, ну, только он просто он наше порождение в
2:00:58
этом смысле, только он куда более мощным может оказаться. Поэтому что же здесь делать? Утешений
2:01:04
здесь не очень много. Мы приобретаем некоторую такую штуку, с которой мы не умеем жить, мы не знаем, как с ней
2:01:11
обращаться, а, и который порождает куда больше вопросов, чем ответы. Ну, будем
2:01:17
жить и разбираться, что же делать. Отменить это нельзя. Это будет. Когда это будет? Ну,
2:01:24
посмотрим. Это здесь действительно я постарался представить весь спектр
2:01:31
рассуждений на эту тему о том, насколько это возможно или невозможно, и если возможно, то когда и что это может
2:01:38
означать. Но дальше начинаются все неопределённости, с которыми просто я хотел вас познакомить. Я не знаю, как их
2:01:46
развить. И определённости — это наше будущее. Ну, собственно, всегда так
2:01:51
было. Мы про будущее мало чего знали. Ну просто теперь оно какое-то совсем
2:01:57
наособиться. Такого не видали никогда. Спасибо большое. Спасибо. Михаил
2:02:03
Хмельницкий, пожалуйста. Да, спасибо. Очень содержательный доклад
2:02:09
и многосторонний. И в продолжении того, что вы упомянули, у меня два вопроса. Ну, первый, вы сказали про, э, идею или,
2:02:18
может быть, даже уже возможность разработки таких э AI ботов, которые бы
2:02:25
контролировали доступ к опасным темам.
2:02:30
Да. То есть, как вы оцениваете возможность такого такой холодной войны, э, при
2:02:38
которой боты, скажем, Чат GPT или другой
2:02:43
ээ организации отслеживают и борются с ботами deпсик. Я
2:02:49
пробовал и то, и другое. В принципе, я пока, ну, на моём уровне я не вижу большой
2:02:55
разницы. Вот. То есть есть ли надежда, что они могут как-то удерживать друг друга? А второй вопрос тоже очень
2:03:03
интересен был ваш взгляд, как специалиста на экономические последствия
2:03:09
политики Трампа. Э, видите ли вы некоторый шанс в
2:03:14
том, что ээ какие-то предприятия будут возвращены? Может быть, это даже поможет
2:03:20
решить социальные проблемы в тех местах, где люди лишились работы?
2:03:27
или те обещания, те разговоры о том, что какие-то страны, арабские Эмираты, ещё
2:03:34
кто-то собирается инвестировать десятки, сотни миллиардов долларов, это всё овербло и на самом
2:03:41
деле не реализуется. Спасибо. Ну, я думаю, что первый ваш
2:03:46
вопрос лучше адресовать Лёне Градусо. Лучше меня расскажет про ээ соревнования
2:03:53
deпсика чат GPT. Я здесь не очень подкован, так что я отвечу на ваш второй
2:04:01
вопрос и передам слово Лёне, если Лёня будет согласен ответить на этот вопрос.
2:04:06
А что касается второго вопроса про экономические вещи, а, ну, конечно же,
2:04:13
какие-то предприятия могут вернуться. А по каким мотивам они могут вернуться?
2:04:20
Ну, например, вот если скажем, что мы уже почти наверняка
2:04:27
знаем, это то, что автомобильные компании разных стран будут
2:04:32
получат послезавтра тяжелейшие таможенные пошлины, а которые
2:04:39
должны убить, э, их позицию на американском рынке.
2:04:45
А если вы, ну, не знаю, я потратил немножко времени в том же самом чат G5
2:04:52
или не помню другой, может быть, Perplexity я использовал какой-то чатбот для того, чтобы выяснить, а какая профит
2:04:59
Margin, какая норма прибыли в автомобильной промышленности, она там крошечная.
2:05:07
На самом деле у ведущей группы компаний норма прибыли
2:05:13
3,74% средняя. Если вы на такую группу компаний накладываете Пушну 25%, там
2:05:20
прибыли не может быть, она просто не остаётся. Значит, что тогда делает
2:05:25
компания, которая получает необходимость платить такие пошли? Она должна увеличить цену на свою
2:05:32
продукцию, на аналогичную сумму, чтобы поставить эту машину в Соединённые Штаты
2:05:38
только по цене с коэффициентом 1,25, да, ну или близко к этому. А и тем
2:05:45
самым переложить расходы на потребителя, который будет платить гораздо больше за этот автомобиль, если ему он так нужен,
2:05:53
да? Либо она сократит поставки в Соединённые Штаты, что Трампа тоже вроде как устраивает, как он
2:06:00
говорит. А что ещё она может сделать? Вот есть третья возможность, это
2:06:06
перенести производство в Соединённые Штаты. И тогда вроде бы нулевые пошлины,
2:06:14
но только здесь есть маленькая хитрость.
2:06:20
Перенос сборочных производств — это старинная стратегия автомобильных
2:06:25
компаний по всему миру. И против этой стратегии работает некоторые дополнительный инструмент
2:06:33
в проектируемых пошнах Трампа, а именно, что пошнами будут облагаться и все
2:06:40
детали для производства автомобилей иностранной компании, даже если она
2:06:46
собирается если её машины собираются в США, скажем,
2:06:52
у меня Субору, вот если двигатель поступает из Японии,
2:06:57
то вот на него будет пошли, хотя сборочное производство в штате
2:07:03
Индиана. Поэтому даже те, у кого расположено производство в Соединённых
2:07:08
Штатах, но не целиком, а только, например, сборка. Что значит сборка?
2:07:14
Сборка — это обычно означает, что а на этом заводе производятся три операции.
2:07:20
Производится сварка, окраска и сборка. Потому что возить пустые корпуса, тем
2:07:25
более через океан, это просто бессмысленное, очень дорогое, а, и совершенно неэкономичное решение.
2:07:31
Поэтому сборочное производство вот так вот оно компонуется где-то за границей.
2:07:36
А вот все ценные вещи, двигатель, подвеска там, а, и всё прочее привозится
2:07:42
из страны, а кому принадлежит это брать. Вот теперь так не получится.
2:07:49
Трамп это заранее предусмотрел, поэтому вы хотите, а, чтобы эти машины продавались в Америке, вы должны
2:07:56
перенести всё производство. А я не думаю, что это можно сделать быстро.
2:08:02
Вот так вот перенести производство и локализовать производство всех
2:08:08
комплектующих, а это потребуется несколько лет, а а после начнут работать со
2:08:14
вторника или среды. Поэтому это сложное положение. Давайте поживём, посмотрим, что что с этим будут
2:08:21
делать. И фармацевтике также. В фармацевтике другая ситуация, потому что
2:08:27
там совсем другая норма прибыли. Поэтому они могут и немножко поступиться. Ну,
2:08:34
скажем, вот есть такое популярное лекарство, наверное, многие его знают, Аземпик или Аземпик, я не знаю, как
2:08:41
правильно поносить, а, которая первоначально использовалась для лечения диабета, ну, или помогала диабетикам и
2:08:49
сердечникам. Но теперь ещё обнаруживалось, что с его помощью можно снижать вес. И о, ну, и сразу резко
2:08:56
вырос рынок для этого лекарства. И цена на него улетела просто в небеса. Сейчас
2:09:02
немножко спускать, потому что, естественно, возник дефицит. Норма прибыли компании, которая
2:09:08
выпускают Аземпик, около 80%. Не 3,74, как в автомобильной
2:09:13
прожности, около 80. А что они будут делать с поршнными,
2:09:20
которые мы ещё не знаем, какого размера на них наложит пошны, если наложит. Ну,
2:09:26
Трамп сказал, что вот он тоже с этим хочет заняться. Предположим, какие-то пошты
2:09:32
недостаточно существенно на них наложит. Их реакция может оказаться совсем не
2:09:37
такой, как автомобильной промышленности. Почему? Потому что автомобильная промышленность, в сущности превратилась
2:09:43
в комтис. Вы можете сделать такой автомобиль или такой автомобиль. Они уже
2:09:48
теперь не очень много отличаются друг от друга и даже по каким-то там деталям.
2:09:56
features. А поэтому здесь здесь высокая конкурентная
2:10:02
зона. А когда вы монополист в производстве Аземпика, вы решите, хотите
2:10:08
ли вы предлагать на американский рынок более низкие цены. Или вы прекратите поставлять на
2:10:15
американский рынок, потому что попробуйте обойтись без нашего аземпика. Мы не хотим справлять наши
2:10:22
цены. Или мы мы готовы заплатить пошлины, которые вы на нас наложите, но мы их
2:10:28
включим в цену. Тогда вы жаловате, что вы много платить будете платить ещё
2:10:33
больше. Положение монополиста совсем другое. Его реакция на такие рыночные
2:10:38
стимулы, точнее говоря не рыночные, потому что поведение Трампа — это не рыночная экономика, оно будет
2:10:46
другой. И мы увидим, что будет делать рынок с такими водными.
2:10:52
Вот это интересно. Мы живём в экспериментальное время, и надёт большой
2:10:58
эксперимент. Сидите, наблюдайте, как здесь принято говорить: «Запасайтесь
2:11:05
попкорном». Люди, вы хотите ответить на этот вопрос первый поводу дипсик и что
2:11:11
пяти зони? А я могу так сказать, что ситуация меняется уже просто не по дням,
2:11:16
а по часам. Поэтому я не думаю, что это надо сравнивать. Они все примерно оди на
2:11:22
нашем уровне они все одиноко. А могут ли они как-то бороться друг с
2:11:28
другом или создавать боты, которые будут выяснять или, может быть, даже дейлов
2:11:34
сервис атак или что-то такое? То есть возможна ли холодная война в искусственном интеллекте? Она давно
2:11:43
идёт. Какой-то безумный процент ботов, это всё искусственный интеллект. Люди
2:11:49
уже давно этим не занимаются. Вот как.
2:11:56
Спасибо. Пожалуйста. А, Илья, пожалуйста, вы. А, Леонид,
2:12:03
большое спасибо за чрезвычайно интересный интересную презентацию. У
2:12:09
меня очень простой и короткий вопрос. Здесь прозвучало очень много
2:12:17
пессимизма. Амаргедон, Америка. совершенно
2:12:26
неконкурентноспособна, она погибает. Но ведь всё, весь этот ваш доклад был
2:12:32
основан на искусном интеллекте, на агентах. Так. И
2:12:38
что, какая перспектива, что эти агенты могут заработать
2:12:44
24 се. Так, рабочая сила совершенно дешёвая. И
2:12:50
в этом смысле Китай и Америка или любая другая страна, это как бы одно и то же.
2:12:56
Это всё выровняет. То есть вот в этом ключе. Разве у Америки такая плохая
2:13:03
перспектива в смысле конкурента? Илья, я не говорил о том, что в Америке
2:13:10
всё плохо и что и более того, что в ней какой-то крак. Наоборот, я говорил о том, что у людей будет расти
2:13:17
благосостояние. Просто изменится а экономическая система, в которой мы
2:13:22
привыкли жить. Вот она будет вымирать, поскольку изменится так радикально
2:13:28
условия. А а люди могут даже приобрести изобилие. Я об этом говорил. Это раз.
2:13:35
Во-вторых, когда я говорил о утрате конкурентоспособностей, это там, где
2:13:41
бизнесы уехали из из Америки. Они потому и уехали, что производить в Америке
2:13:47
много чего не выгодно. Но это совсем не означает, что вся Америка погибла и ни
2:13:53
на что не годится. В ней есть огромное количество очень передовых бизнесов,
2:14:00
которых нету нигде или почти нигде. Они высоконкурентны, они являются лидерами в
2:14:07
своих отраслях, и они являются локомотивы современными американской экономики. Вы нигде не найдёте такой,
2:14:14
например, а центр, как информационные технологии, как в Америке. Не в одной
2:14:21
другой стране. Ну я не знаю, я Китай не изучал настолько, может быть, Китай, но
2:14:26
больше вы нигде такого не найдёте. Поэтому А это только один из примеров. А
2:14:32
есть масса других примеров, где Америка и американские компании являются лидирующим в мире. Я-то это понимаю. Мой
2:14:40
вопрос был, на самом деле, мой вопрос — это реакция на
2:14:46
некоторые высказывания, что Америка погибает, она становится вообще А Ну я
2:14:54
извиняюсь, если я создал такое впечатление, я не хочу. Да, да, да. Нене не вы, не вы, не вы. Некоторые
2:15:00
выступающие говорили, а что касается, а, ээ, что
2:15:07
касается, э, перехода всех бизнесов в Китай, опять-таки, когда появятся
2:15:13
агенты, которые могут делать всё 24
2:15:18
часа, 24 дня, 24 часа, 7 дней в неделю, всё это бесплатно, какая будет разница
2:15:26
между Китаем и Америкой? Вы правы, конечно же. Америка станет снова конкурентом. То
2:15:32
есть вся здесь разрешите поправлю. Разрешите поправлю. Первоначально вот мы
2:15:38
привыкли просто к этому, что первые, наверное, 10 лет после переноса рабочих
2:15:43
мест в Китай, Китай привлекал американские бизнесы, потому что это была дешёвая рабочая сила.
2:15:51
После кризиса 2008 года тренд сильно изменился. А и китайская рабочая сила
2:15:58
уже она ещё дешевле американской, но она уже не такая дешёвая. Это отчасти
2:16:05
причины, почему производство стали переносить из Китая во Вьетнам, в
2:16:10
Мексику или в другие какие-то страны. А Китай получил другое конкурентное
2:16:16
преимущество. Он развил очень сложные цепочки производств, а которые
2:16:24
продублировать, перенести в другое место или воссоздать, воссоздать в другом месте очень трудно. А это один момент.
2:16:32
Другой момент, я помню, как ещё во времена президента Обамы был жив Стив Джобс. Он
2:16:39
собирал у себя руководителей ведущих американских компаний и спрашивал, что необходимо для
2:16:46
того, чтобы вернуть уехавшие производство из Китая в Америку. И Стив
2:16:51
Джобсом говорил, что проблема не в стоимости зарплаты. Действительно, в общем, Apple тогда платил из, если
2:16:59
принять стоимость смартфона за 100%, то Китаю доставалось 4 цента. Поэтому дело
2:17:05
не в не в стоимости рабочей силы. Он говорит: «Я не могу в Америке найти столько инженеров, сколько я могу
2:17:13
поднять в Китае, если у меня есть дополнительный заказ, чтобы они в Дармитории при заводе ночью встали,
2:17:21
организованно все пришли в третью смену и работали над выполнением моего заказа. В Америке я ничего подобного сделать не
2:17:28
могу. У меня нету и у меня нету этого инженерного корпуса. И до сих пор это
2:17:35
проблема, которая осталась в Америке. Правильно. Ну да, но это на сегодняшний
2:17:40
день. Ну вы правы, когда будет искусственный интеллект. Ну вот об этом, вот об этом гово это уже речь. Это речь
2:17:50
немножко не о том, о чём я говорил. Я говорил сегодня о массовой безработице
2:17:55
внепроизводственном секторе, там где рутинная работа у клерков. А работа производственно на
2:18:02
производственных предприятиях это совсем другой случай. Посмотрите, ведь на самом деле легко
2:18:09
посмотреть на это совсем с другой колоколь. Что происходит с роботизацией
2:18:14
в Америке? Уж, казалось бы, можно ведь проводить роботизацию
2:18:19
давным-давно и создавать тем самым роботизированное производство в Америке,
2:18:25
которые нивелирует разницу в заработной платы с Китаем и должны были бы вернуть производство из Китая в Америку.
2:18:32
Посмотрите статистику, и вы обнаружите, что на самом деле ситуация выглядит совсем не так хорошо, как оказалось.
2:18:39
Роботизация, в сущности почти стагнирует. Она растёт очень медленно. Почему? Я не ставил себе задачу
2:18:46
разбираться, я просто фиксирую это как факт. Но это то, о чём вы говорите, что по идее можно было бы, внедряя
2:18:54
роботизацию, вернуть производство из того же Китая в Америку. А нет, что-то
2:18:59
мешает. Какие-то есть факторы. которые останавливает этот процесс. Понятно. Спасибо. Налоги. Нет, не только что-то
2:19:09
ещё. Я не знаю, я не разбирался. Основная проблема это профсоюзы в
2:19:14
основном. Может быть, я не знаю пока что. Ну это сегодняшний день будущее.
2:19:20
Это будущее всё это нивелирует. Вот о чём я говорю. На сегодняшний день, конечно, Америка в в плачевном
2:19:27
состоянии. Мы все это видим, понимаем. Трамп делает серьёзные потуги, чтобы всё это
2:19:35
как-то вернуть. Получится или нет, будущее покажет. Но, как я понимаю, весь
2:19:41
ваш доклад был в ключе будущего. Конечно, конечно. Будущее, конечно,
2:19:46
снивелирует всё. Спасибо, Феликс. Пожалуйста, ваш вопрос.
2:19:52
Да, спасибо за доклад. Очень интересно. И в плане того, что
2:19:58
искусственный разум захватит в будущем, так сказать, власть будет влиять на людей. Я разговаривал с такой хочу дать
2:20:07
срез и потом вопрос с несколькими людьми, коллегами, ээ, профессорами
2:20:13
экриalн engжениринг, biинжениринг, механиical инжеринг, несколь некоторых нескольких департаментов. Все
2:20:20
они, все они оценивают искусственный интеллект и
2:20:27
сейчас и в будущем как лol, как инструмент. Только как инструмент. Не
2:20:34
надо бояться инструмента. Им надо пользоваться. Им надо уметь
2:20:39
пользоваться. И тогда все страхи, о которых мы сейчас здесь говорим, они
2:20:49
рассеиваются. Ваш комментарий. Спасибо. Ну я думаю, что это справедливый взгляд
2:20:55
на вещи. Конечно же, это инструмент до тех пор, пока он не получает свободу
2:21:02
воли. Собственно, вот где точка перелома. Речь идёт о том, что
2:21:09
AGI может приобрести способность формулировать самостоятельно
2:21:16
цели, а и соответственно самостоятельно искать средства для их достижения. Если он
2:21:24
формулирует самостоятельно цели и мы не уверены, какие ограничения наложены на
2:21:31
него с точки зрения выборов цели или ограничений, а, ну, например, нанесения
2:21:37
вреда человеку для достижения какой-то его цели. А, та это повод для
2:21:43
беспокойства. Он перестал быть инструментом. Значит, наша задача чётко определить
2:21:50
ограничение цели. Правильно. Но вот я про это рассказыл в докладе, что вот как сказал Максгомарк, что для этого хорошо
2:21:56
было бы сначала определиться, что такое смысл жизни, как определить понятие добро, добр, желательность, как
2:22:04
накладывать ограничения на целеполагание алгоритмов и как проверить, что мы
2:22:13
ээ корректно формулируем эти ограничения и недвусмысленно. Вы знаете,
2:22:20
куча анекдотов про то, когда получается вроде бы как вы попросили, но
2:22:28
э будьте аккуратны в своих пожеланиях. Ну, вы знаете, целая серия. Вот чтобы
2:22:34
избежать такой ситуации. И это всё совершенно не очевидно, как с этим быть
2:22:40
и как с этим справляться. Пока мы сами не являемся образцом для искусственного
2:22:46
интеллекта в качестве носителей человеческих ценностей, поскольку мы уничтожаем себе
2:22:52
подобных, уничтожаем природные ресурсы и так далее, и так далее. Мы его создали,
2:22:58
и мы с ним компетируем. Ну, это наше продолжение, да? Спасибо. Спасибо,
2:23:05
Фёдор. Пожалуйста. А, и прошу прощения, ещё одна ремарка. Знаете,
2:23:13
вот я тут показывал фотографию одного из людей, который давал прогноз, возможно,
2:23:19
безработица. Это Могаудат, бывший руководитель разработок искусственного
2:23:24
интеллекта в компании Google. Он говорит: «Я жду, когда наконец нами
2:23:30
начнёт руководить искусственный интеллект, закончится эра этих
2:23:36
идиотов, которые руководят нами сейчас». Знаете, это это другой немножко взгляд
2:23:43
на тему. Ну, придёт эра новых идиотов. Кто знает? Вот я просто цитирую его.
2:23:52
Спасибо, Фёдор. Пожалуйста, вы. Да, у меня, значит, я бы хотел сейчас
2:23:57
некоторые сделаю стейтменты. Хотел бы, чтобы докладчик
2:24:03
прокомментировал вот любое серьёзное изобретение.
2:24:09
Оно потенциально ведёт [музыка]
2:24:14
к уничтожению человечества. А вот, ну, например, изобретение огнестрельного
2:24:21
оружия. Люди могут потенциально могут люди себя перестрелять друг друга в
2:24:26
результате войн перестреляли.
2:24:34
изобретение транспорта, ну, скажем, автодорожного транспорта. Люди могут передавить друг
2:24:40
друга на машинах. Потенциально машина — это страшная уби убийца. Встрети с
2:24:45
машины на дороге либо увечья, либо
2:24:51
убийство. Как-то с этим справились. А-э, ну, можно, наверное,
2:24:58
ещё поискать какие-то там вещи. Ну, как каким-то образом человечество ээ
2:25:04
справляется с этим делом. И даже, я думаю, что и с искусственным интеллектом, ээ, тоже понимая все
2:25:11
возможности того, как оно может навредить, можно, так сказать, так
2:25:17
обустроить наше общество, законы поменять или там ещё что-то сделать,
2:25:22
чтобы, значит, обезопасить. Вот как вы считаете? Я понял. Ну, Фёдор, я
2:25:28
попробую, наверное, выстроить аргумент по
2:25:34
специальности. То, что вы изложили — это пример,
2:25:41
э, неполной математической индукции, если я правильно упоминаю.
2:25:48
Из того, что условия соблюдаются при k, это не значит, что оно будет соблюдаться
2:25:54
при k + 1. Да, это не математика. То, что мы говорим, совершенно никакого
2:25:59
отношения к математике. Нет, я говорю здесь не о математике, а просто о способе логического представления,
2:26:06
да, что здесь не обязательно это будет соблюдаться всегда. Мы получаем новый
2:26:14
тип рисков, с которым мы никогда не имели дела. Может быть, мы справимся с этим так же, как справлялись до сих пор,
2:26:21
но может быть и нет. Мы должны этот риск анализировать, мы должны стараться его
2:26:27
минимизировать. Ну, скажем, вот я приводил пример с ядерным оружием. Ведь удалось же всё-таки и
2:26:35
ограничить число участников гонки ядерных вооружений и
2:26:41
создать международную организацию, которая вроде бы как а эффективно
2:26:47
контролирует распространение и соблюдение режима нераспространения и так далее. То есть удалось решить, но
2:26:55
для этого необходимо было не просто говорить, что, ну, вот мы с оружием справились, но, наверное, с ядерным
2:27:02
оружием тоже справимся. И ничего не создавать, может быть, надо создавать какой-то регулирующий орган, какой-то
2:27:09
международ нужно задачу, надо понимать это и надо решать эту задачу. Правильно.
2:27:14
Правильно. Я об этом говорю, да? А не говорит, что всё так ужасно. Вот и мы все вот раз уже я это говорил, да? Нет,
2:27:21
я этого не говорил. Я говорил о том, что есть проблема, попробовал её описать,
2:27:27
попробовал описать, чего люди боятся. И поскольку, как я в самом начале сказал,
2:27:32
что всё, что мы знаем про искусственный интеллект, мы знаем от их разработчиков. Поэтому я обращался к их оценкам, к их
2:27:39
оценкам рисков вот такой катастрофы. И показал, что они эти риски оценивают.
2:27:46
Антропик в 15-20%, Маск в 20%, Бенджо в
2:27:55
50%, Ютковский в 100%. Спектр оценок, но он в любом
2:28:01
случае много выше, чем та граница, где мы чувствовали бы себя в
2:28:08
безопасности. 15% а вероятность вселенской катастрофы — это очень много.
2:28:15
С этим никто не спорит. Даже 3% это очень, конечно, конечно. Поэтому я
2:28:21
только моя задача была только что сделать вас информированными об этом
2:28:26
поворо. А я больше ничего не утверждал. Хорошо, Леонид. А ну ведь были такие
2:28:34
моменты, когда вы высказывали своё собственное мнение. Вот поводу чего? Знаю, может, а поводу того, что вы
2:28:40
протестовали против того, что Трамп хочет. А это другая тема. Это не про искусственный интеллект. Ну
2:28:47
как же это экономика уже, что да? Нет, нет, нет. Искусственный интеллект. Что
2:28:53
вот значит а только в одном смысле, что он что его
2:28:59
команда ориентирована на то, чтобы допускать все риски развития искусственного интеллекта
2:29:06
даже при наличии катастрофических последствий. Да, это правда, но это не
2:29:11
моё высказывание и не моя оценка. Если вы поищете, то вы, думаю, легко найдёте.
2:29:16
Ну хорошопление хочу, чтобы вы оправдывались на кого на кого-то
2:29:21
другого. Я сейчас только доскажу свою фразу.Хорошо. Джедивенс выступал в Париже, это было, по-моему, месяц назад.
2:29:29
А был там европейский или глобальный митинг поводу безопасного интернета, и
2:29:37
он выступал с позиции США и сказал, что американцы не собираются подписываться
2:29:43
под программами ограничений на искусственный интеллект, который прогнозиру предлагает Европейский Союз.
2:29:51
А если вы будете преследовать наши компании, которые работают этой области, мы ответим, а своими санкциями. Вот его
2:29:58
позиция. Так что это не моя оценка. И это я процитировал выступление Венса.
2:30:05
Хорошо. Ну вот то, что я услышал, что вы лично, так сказать, против того, чтобы
2:30:10
Америка А меня беспокоит, да? Вас беспокоит. Ну хорошо. Я по этому поводу хочу сказать. Представьте, что сейчас
2:30:17
вот 1942 год. И вот стало известно, что немцы они, так
2:30:24
сказать, работают над ядерной бомбой. Вот. И вот собирается там конгресс США,
2:30:30
говорит: «А мы вот не будем, потому что это очень опасно. Вдруг она у нас взорвётся».
2:30:37
Вот как вот хороший хороший пример вы сделали, да? Хороший пример. Я не знаю, что с этим делать. Слава богу, что я не
2:30:43
начальник. Ну я вот про это говорю, что красны и надо этим заниматься, потому
2:30:50
что есть, да, не надо забывать, что у нас не только одна Америка, где мы можем что-то решить и внутри там, а если что,
2:30:58
посажаем в тюрьмы или там ещё что-то. Есть какие-то Фёдор, чем Фёдор, чем конкретно надо заниматься, я не понял.
2:31:05
Ну интеллектом надо заниматься. А кто против?
2:31:10
Ну вот есть люди, которых представляют. Вообще-то оно сравнение сравнение с ядерным оружием в данном случае не
2:31:17
совсем верно. Ядерным оружием занималось и могло заниматься только государство.
2:31:23
Искусственно интеллект в подвале можно делать. Как же его Как же его регулировать-то? Вон 18 человек китайцев
2:31:29
молодых взяли, сделали то, что 5.000 человек в Open AI не смогли. Да. Да.
2:31:37
Фёдор ответ. Что? Ответ. Ответ надо, надо
2:31:42
поддерживать разработкой, которые ведутся в Америке. Не нет. Ответ вот какой. Либо вы превращаетесь в
2:31:47
брюссельскую бюрократическую организацию, которая заставляет Apple делать разъёмы только потому, что у них
2:31:55
есть стандарт на разъём. И сколько бы Apple никого ничего не хочу заставлять.
2:32:00
Сколько бы Apple не говорило, что их разъёмные ничего не поможет. Либо не надо выступать против этого. Надо, либо
2:32:07
вы делаете свободную конкуренцию. И там очень трудно что-то ограничить. От
2:32:13
свободной конкуренции уже почти ничего не осталось. Всё уже по сравнению с Европой у нас
2:32:19
просто дикий запад. Это правда. Вот хорошо всегда найти правильную базу для свобод конкурен
2:32:27
занимаются. Ростислав, пожалуйста, ваш. А что, вопросы продолжаются или нет? Да, да, пожалуйста.
2:32:33
Да, у меня очень быстрый вопрос. Вы знакомы с, по-моему, это то ли статья, то ли книга Шефаревич. Два пути к одному
2:32:41
обрыву. А нет, я другие Я думаю вам Я думаю вам будет интересно прочитать.
2:32:47
Но Шафаревич всегда интересно. Спасибо. Спасибо. Спасибо. Ну что ж, у
2:32:54
нас, кажется, кончились официальные вопросы. Мне остаётся поблагодарить Леонида. У меня у меня для него личная
2:33:04
благодарность. Давно мне столько раз не говорили. Большое спасибо Леонид.
2:33:10
как сегодня. Вот, вот, вот уж я-то слышал много раз обращённые к вам такие
2:33:15
благодарности. Абсолютно. Мы всё время говорили, что у нас Спасибо, Леонид. Очень-очень интересно и очень
2:33:21
содержательно. Ну вот я смотрю, я слишком рано начал вас благодарить,
2:33:27
потому что появилось ещё два вопроса. Лев, пожалуйста. Вопросы или обсуждение?
2:33:32
Я так понимаю, сейчас уже у нас третий круг идёт, поэтому вопросы, комментарии, обсуждения. Если докладчик не хочет
2:33:40
отвечать или хочет уйти, пожалуйста. А то то есть комментировать уже тоже
2:33:45
можно. Пожалуйста, только всё. Лев Лев впереди меня. Хорошо.
2:33:53
Ну, дело в том, что я прошлый раз не как-то замешкался и не успел, но я хочу
2:34:01
выразить самую горячую благодарность докладчику, потому что этот доклад был
2:34:08
совершенно замечательным. Просто он очень выделяется на фоне большинства
2:34:14
докладов, которые у нас и глубиной,
2:34:20
продуманностью и ээ следом и области,
2:34:26
да, прекрасной цель и взвешенным и объективным отношением
2:34:33
докладчика к существующим точкам зрения на эту проблему. Всё это выглядело так
2:34:41
гармонично, прекрасно, что я по-настоящему наслаждался этим
2:34:47
докладом. И единственное, о чём могу сожалеть, что наверняка он слишком
2:34:53
короток был для того, чтобы осветить массу аспектов, которые в
2:35:00
этот в эту тему входят. Но это другое. А ещё я хочу
2:35:06
сказать, что я солидорен с теми, кто здесь
2:35:11
высказывался. Ну вот Фёдор и другие о том, что, понимаете, волков боятся в лес
2:35:19
не ходить. Дело в том, что любой прогресс, какой бы он ни был и в любой
2:35:25
области, всегда сопряжён с риском. И размеры этого риска бывает
2:35:33
трудно трудно оценить с самого начала.
2:35:38
Например, если бы те, кто приручал огонь, наши первобытные
2:35:46
предки, которые сохраняли этот огонёк, там добывали его с помощью трения
2:35:54
деревяшек и потом бережно хранили в маленьком костре и всё
2:36:00
такое. Если бы они знали обо всех опасностях огня, тогда уже огонь был
2:36:06
опасен. Они же не могли не знать о пожарах там от лесных, которые убивают всё живое и
2:36:14
прочее. Но если бы не знали про порох, про огнестрельное оружие, про все эти
2:36:22
бомбы и снаряды, которые сейчас взрываются, это же всё
2:36:28
предметы стихии огня, так сказать, да, то вполне возможно, что
2:36:35
нашлись бы среди этих первобытных людей мудрецы, которые сказали: «Куда вы вообще нас тащите?»
2:36:42
Ни в коем случае погаси этот огонёк и не думай о нём, да, больше. Ну и так
2:36:50
далее. Любой прогресс связан с риском. И
2:36:55
чем много более многообещающий прогресс, тем больше
2:37:00
риск. Но альтернатива этому только застой. Другой альтернативы нет. Любое
2:37:07
ограничение на самом деле означает, вы поставили предел, вы поставили забор,
2:37:14
через который вы не позволяете перелезть, а это означает застой. А застой не означает просто
2:37:23
повторение пройденного, нет, он означает в конечном счёте вырождение и гибель. И
2:37:31
так происходило множеством цивилизаций, когда они входили в период застоя. Они в
2:37:37
результате погибали. Их завоёвывали какие-нибудь менее развитые варвары. Просто потому
2:37:45
что эти варвары умели рисковать, а эти цивилизации уже разучились
2:37:51
рисковать. Так что у нас нет выбора. Либо мы погибнем от застоя,
2:37:58
человечество погибнет. Либо мы движемся вперёд по этому пути,
2:38:04
которые рискованы, но он обещает неслыханный взлёт, неслыханный взлёт
2:38:11
человечества, превращение людей в гораздо более высоко развитую расу
2:38:18
разумных существ. Вот что я хотел сказать. Спасибо.
2:38:25
Спасибо, Анна. Пожалуйста, вый. А, ну я так без ложной
2:38:33
скромности немножечко чуть-чуть разовью идею о смысле
2:38:38
жизни. Вот что мелочиться. Много-много лет назад у меня
2:38:44
был знакомый, который писал книжки о смысле жизни и сдавал их такими
2:38:50
маленькими тиражами. Вот. И дальше периодически он мне их
2:38:56
дарил. Вот. А-э, ну и какие-то я прочла, и я над ним, так сказать, тогда это было
2:39:02
действительно там лет 25 назад посмеивалась. Вот. А потом со временем,
2:39:08
с возрастом стала понимать, что в его основном посылке смыслы жизни есть, на
2:39:14
самом деле замечательная идея, которую можно развить, правда, разными путями. А
2:39:20
основная посылка была такая: смысл жизни человечества в его самосохранении.
2:39:25
И это имеет прямое отношение и к бомбе, которая тут уже опоминалась, и к искусственному интеллекту, который может
2:39:33
действительно может, по крайней мере, так кажется потенциально нас всех придушить и так далее, и так далее. Но а
2:39:41
как многие вещи как бы, ну, там может быть инстинкт самосохранения или просто
2:39:47
самосохранение, это как бы самосохранение вещь иерархическая. А что, собственно,
2:39:53
какую единицу человеческого общества мы самосохраняем? То есть инстинкт
2:39:58
самосохранение самый базовый, это мы сохраняем самого себя лапочку. Потом
2:40:04
инстинкт самосохранения может относиться к семье. Инстинкт самосохранения может относиться к стране, может относиться к
2:40:12
традициям страны. Тут опять же возникает вопрос, какие традиции мы самосохраняем
2:40:17
и так далее. Может относиться так. А вот наша страна пусть сохрани самосохранится, а все остальные пусть
2:40:24
идут лесом. И, так сказать, какая-то часть международной политики, собственно
2:40:29
говоря, так сказать, так и функционирует, так сказать.
2:40:35
Sorry guys, America first, она как бы чуть-чуть на это намекает. Вот мы сморанимся, а что будет вокруг, ну, нас
2:40:43
гораздо меньше волнует. Вот в чём, так сказать, как бы разумно есть разумное
2:40:49
зерно всегда так и существовало, что самосохранение себя предавалось или
2:40:56
своей страны, или своего общества, или своего социума, или своих мировоззрений всегда продавалось большее, так сказать,
2:41:04
значение, чем кого-то там другого, так сказать. Так что, так сказать, если принять, что в
2:41:11
этом есть большое зерно, так сказать, что цель цель жизни на любом уровне —
2:41:18
это самосохранение этого уровня соответствующего, то да, я я, например,
2:41:23
абсолютно согласна, что искусственный интеллект по нескольким причинам, которые здесь уже объяснялись, имеет
2:41:30
разрушительный потенциал, не обещание, а потенциал
2:41:35
больше, чем атомная бомба. Это вот один комментарий. Дадада. Доклад
2:41:41
замечательный. Тут я согласна со всеми прочими докладчиками и по подборке, и по
2:41:47
идее, и, так сказать, всё, вс всё было совершенно классно. Так что я, когда
2:41:53
увидела, кто кто читает доклад, ээ я сразу поняла, что вот этот доклад я
2:41:59
точно буду слушать. Спасибо. Вот, значит, это это
2:42:05
А второе по поводу Life Expectancy. Кто-то тут упомянул, что Life
2:42:10
Expectнancy растёт. Поскольку у меня были смутные воспоминания в США, что это
2:42:16
не факт так, то я освежила свою память. Она действительно более-менее росла, ну,
2:42:22
почти линейно до примерно ковида. После чего она, так сказать, упала довольно
2:42:28
заметно, как писал scientific amican в двадцать втором году. Значит, мы только
2:42:35
что мы мы бы потеряли 26 лет роста нашей life expectancнancy. Ну и, так сказать,
2:42:43
Life expectancн как бы хорошо, но, так сказать, тут я многие или почти все через это прошли.
2:42:52
Я сейчас много общаюсь со своими, аэ, с родителями моего бывшего
2:42:59
мужа, как тут говорят, инзы. Иногда я объясняю посторонним людям, что они former inlaws, but I perceive them as my
2:43:07
friends, like close friends. Ну да, вот обоим обоим им и значит и мужу, и
2:43:16
жене за 90 лет она в более-менее нормальном состоянии. Он в том
2:43:22
состоянии, когда, ну, дай бог ему жить столько,
2:43:28
сколько он живёт, но стремится к тому, чтобы люди в его состоянии жили там, я
2:43:34
не знаю, до 95 или до 100. Мне кажется, это не должно, в печальном состоянии это
2:43:40
не должно быть идее общества, что обсуждается гораздо реже, естественно, по мере гораздо сложнее. Это то, что
2:43:48
называется quality of life. До какого возраста вы можете в том или ином ключе,
2:43:54
неопределённым, неопределимым, функционировать, ну, почти так, как в
2:44:00
условные там то ли 30, то ли 40 лет. И как это,
2:44:07
естественно, невозможно это определить, но это тоже имеет значение. Чисто life
2:44:12
expect в чистом виде, так сказать. Ну вот я вот просто посещаю, так
2:44:18
сказать, там раз в пару недель я посещаю вот это фактическим home, так сказать.
2:44:23
Ну лучше заботиться о здоровье, нежели о том, что тебе было за
2:44:29

Ну вот, собственно, всё. Два комментария.
2:44:34
Спасибо. А Фёдор, пожалуйста. Да, вот я хочу сказать, что вот опять же говорили
2:44:42
о здоровье, продлениние жизни и так далее и тому подобное, что
2:44:47
израильские учёные научились какие-то клетки, чтобы они не это самое не старели и там так далее и тому подобное.
2:44:55
Э вот так почему бы человека не подлечить? Вот даже вот пусть ему там 95
2:45:03
лет и пусть он там ничего не соображает. Дайте ему каких-нибудь таблеток или там
2:45:08
ещё что-то. Пристройте ему какой-нибудь искусственный интеллект, чтобы он глазки открыл, посмотрел и увидел, как жизнь
2:45:15
прекрасна. И пошёл гулять сам. И книжки стал читать, и что-то стал делать. Вот.
2:45:22
Вот у нас будет слишком много таких людей. Вот. И вообще, как мы будем всех
2:45:27
кормить? Но опять же, это же простой простой способ есть. Ограничите
2:45:33
рождаемость. То есть как ограничить? Не то, что там кастрировать людей или там что-то там такое. Не на не надо поощрять
2:45:41
э рождение людей, как это делается сейчас. То есть платить за то, что у тебя есть там дети. Вот за это мы будем
2:45:48
платить вам. Вот это это совершенно неправильно. Вообще ээ
2:45:55
многие проблемы решаются достаточно легко. Вот, например, там чем люди будут заниматься. Ну вот как Лёва предложил,
2:46:02
да, пусть они учатся. Вот. И вот смотрите, значит, сделать рабочую
2:46:07
неделю 20 часов, 10 часов, я не знаю, там что-то. Вот хочешь работать extra
2:46:14
hours, тебе зарплату понижают, а не повышают. То есть ты сверхурочный, там
2:46:19
наоборот меньше, если тебе платят там 100 долларов в час, допустим, так, то в
2:46:25
течение первых 20 часов, то если хочешь больше после сверхтого, то тебе потом будет меньше платить. Ну, чтобы, так
2:46:32
сказать, ты не пожирал там всего. Вот, то есть эти проблемы, они проблемы
2:46:37
социальные, и они могут быть легко решены. А
2:46:43
вот, ну вот, пока всё. Спасибо, Валентин, пожалуйста. Да, спасибо. Меня
2:46:49
слышно? Да, да. А, спасибо. Вы знаете, есть такая фраза, что самое практичное —
2:46:55
это хорошая теория. Знаете, я как-то потерял уже фокус обсуждения. Мне
2:47:04
кажется, что не наше размышление о искусственном
2:47:09
интеллекте лишено структуирования. Даже имею в виду философскомпонимании.
2:47:16
Прежде всего мы должны, по-моему, какой-то фундамент заложить для того, чтобы делать, как-то обсуждать и, как
2:47:24
говорится, м, чтобы построить второй, третий этаж, но нужен фундамент.
2:47:30
Скажите, пожалуйста, ээ мы создаём параллельную реальность. Мы давайте так, stepп. Если
2:47:38
мы говорим, что мы создаём параллельную реальность, она виртуальная, конечно, то
2:47:44
мы должны задать следующий вопрос логический: какие наши взаимоотношения с
2:47:49
этим? И в чём опасность? Когда я слышу слово опасность, я всё-таки э никак не
2:47:55
могу понять, в чём опасность, особенно когда влияние на ээ продолжительность
2:48:01
жизни, которая проблема, которую я погружён много лет, что-то мне как-то немножко белок какой-то один может
2:48:07
решить проблему, таблетки или бессмертие. Это какие-то фантастические
2:48:12
такие вещи. Вот поэтому, если мы не не скажем, не ответим на некоторые вопросы,
2:48:19
в чём проблема наших взаимоотношения, ээ профессор Черниговская, например,
2:48:24
говорит, что опасность возник только в тот момент, когда вот эта реальность в
2:48:31
параллельно самоознает себя и станет личностью. В этом проблема. И эта личность войдёт,
2:48:39
так сказать, в традиционный конфликт с другой, так сказать, популяцией, с реальной реальностью. Вот. Но насколько
2:48:46
это, так сказать, реально, опять же, это вопрос философского определения. Мы должны понять, что мы создаём, потому
2:48:54
что практическое применение оно бесконечное. И, ээ, само жизнь покажет,
2:49:00
так сказать. говорим о фантастической опасности, когда уже у нас ээ опасность
2:49:06
не только мы прошли, а мы сегодня в опасности только другой. Если атомная
2:49:12
энергия в виде атомного оружия уже пройденный этап, то мы только не только
2:49:18
пережили, мы ещё переживаем реальную опасность. Я имею в виду микробиология.
2:49:25
В следующий раз китайцы создадут какой-то вирус, который не будет не не
2:49:30
то, что там антибиотики или какие-то, так сказать, прививки, которые вообще не будут знать, как с ними бороться. Вот
2:49:38
где опасность уже реальная. Мы уже об этом говорили. А что касается искусственный интеллект, то само
2:49:44
название достаточно искусственное. Всё-таки я предполагаю, что человек
2:49:49
создаёт, э, до тол, да, инструментарий такой, как арифмометр, такой как
2:49:56
микроскоп, так сказать, или телескоп. Единственное, что, и тут этот вопрос
2:50:01
поднимался, что если предыдущие тулы, толы, тулы, вернее, они не вытесняли, а
2:50:09
снимали некоторые элементы, скажем, гиподинамии вследствие, ну, вытесняли физический компонент из труда. то
2:50:16
сегодня, безусловно, в этом уже можно говорить с уверенностью,
2:50:22
эти изобретения, это будет вытеснять людей, не дополнять их возможности, как
2:50:28
микроскоп или там телескоп и, так сказать, арифмометр, а будет вытеснять и
2:50:33
проблема лишних людей, да, совершенно, так сказать, очевидная, и об этом уже
2:50:39
можно чётко говорить, что это серьёзная проблема. Вот хочу напомнить, что
2:50:46
великий Карл Маркс великий, в кавычках, я хочу сказать, говорил, что общество
2:50:51
будет проверяться не тем, как оно работает, а как оно будет проводить свободное время. И это серьёзная
2:50:58
проблема, потому что факторов деградации сегодня достаточно много. Избыточность,
2:51:05
так сказать, в жировом, по в пищевом варианте, финансовом, приводит к
2:51:10
деградации. А вытеснение из трудового процесса — это просто конец цивилизации.
2:51:17
Та цивилизация, которая, так сказать, и так на ладан дышит. И последняя мысль, я
2:51:22
хочу сказать чисто мистическую вещь, что возникновение искусственного интеллекта
2:51:28
не случайно получилось. Мне кажется, тут надо нам подумать, что происходит с
2:51:34
нашей цивилизацией и как новая реальность, которая появилась виртуальная, какая в какой какой смысл
2:51:42
её? Может это система, которая идёт на смену, так сказать, угасающей реальной
2:51:48
цивилизации. Спасибо. Спасибо. А, Михаил Брайловский, пожалуйста, вы.
2:51:54
А я не собирался вообще открывать рот сегодня, потому что обсуждаемая тема
2:52:01
значительно выше моего понимания. Но вот после того, что сказала
2:52:07
Аня, это меня очень порадовало, потому что практически вы меня
2:52:14
процитировали в прошлом, не зная того, конечно. Ани собака подсказывала. Виде в
2:52:22
прошлом году в одной хорошей компании
2:52:27
шла дискуссия именно вот о том, в чём смысл жизни. Причём она шла в каком-то
2:52:32
таком очень ээ совковом, что ли, смысле, если помните, чему нас учили, да? Чи
2:52:39
жизнь надо прожить так, чтобы и так далее, и так далее. И я тогда
2:52:45
сказал, что я знаю, в чём заключается настоящий смысл жизни. Все моментально
2:52:53
замолчали и как-то посмотрели на меня с очень большим удивлением. И я произнёс
2:53:00
вот эту самую фразу, только с немножко другим синонимом. Я сказал, что смысл
2:53:07
жизни заключается в её поддержании, а не, говорит, сохранении.
2:53:13
Да, ну, в общем, я очень рад, что я это услышал. Само сохранений. Ну, примерно,
2:53:20
да. Да. А что касается лекции, то я должен сказать, что при всём моём вроде
2:53:27
непонимании лекции, конечно, очень интересная, а самое главное, что я
2:53:33
услышал от вас, Лёша, я наконец услышал то, что я давно хотел услышать. То есть
2:53:39
ваше мнение экономиста о том, что происходит и почему мы оказались там,
2:53:47
где мы оказались. И вы абсолютно правы. в том, что это монетарные проблемы,
2:53:54
результаты абсолютно неверной политики. И, конечно, это всё началось в
2:54:01
семьдесят первом году и и так далее, и так далее. Спасибо. Спасибо.
2:54:07
Спасибо. Ростислав, пожалуйста. Да, ну, поскольку у нас уже пошли
2:54:12
комментарии, я позволю себе несколько комментариев. Вот, Леонид, вы сказали,
2:54:19
что сотрудники Гугла ждут прихода искусственный интеллекта начальника как
2:54:25
панацея от дураков. Но ведь тренировать-то его будут на дураках. И что после этого получится, совершенно
2:54:32
непонятно. Будет какая-то такая усреднённая, чудовищная, так сказать, функция
2:54:39
начальника, полученная в результате этой работы. Это как бы первое замечание.
2:54:45
Вот второе замечание у меня было по поводу того, что люди должны стать вечными
2:54:50
студентами. Меня это поражает, потому что мы и так живём в системе вечных студентов. Сроки пребывания в
2:54:57
университетах уже превосходят сроки за изнасилование в извращённой форме. И к
2:55:03
моменту выхода, так сказать, с дипломом университета, особенно грейдж какой-то грий, человек уже просто не состояние
2:55:11
делать что-то полезное в своей жизни, потому что жизни он не знает из практических каких-то рассмотрений, да?
2:55:18
Вот, а большинство его знаний уже устарели. Вот. Так что я совсем не вижу,
2:55:24
так сказать, того светлого будущего, о котором говорили. Вот. Но Слав, ну вы же
2:55:29
совершенно не правы. Ну что вы говорите? Сейчас, сейчас, Фёдор. Давайте, давайте. Да нет, ну надо, надо сразу реагировать,
2:55:36
потому что нет, сейчас у нас нет вот этого как бы э вопросыответы у нас
2:55:41
должны быть. Фёдор, вас же не перебивали. Нет, давайте, а надо меня перебивать. Надо ведущия определи в
2:55:49
зависимости от страны, в которой вы живёте, да, там, скажем, Италия или Франция, в университетах можно пребывать
2:55:56
чуть ли не бесконечно долго. Вот. То есть в Италии вообще есть такое выражение, как студенты этерни
2:56:02
переводить не надо, да? То есть вечный студент, то есть человек, который просто за счёт государства, так сказать, чуть
2:56:09
ли не до пенсии, постоянно чему-то учится. Результат для общества нулевой и
2:56:14
для самого этого вечного студента. Вот почему нулевой? Ну разве что он
2:56:20
изолируется в добровольной психушке под названием университета. Таким образом не наносит ущерб обществу. то, то, что это
2:56:28
совершенно бесплатно и что значит это частично бесплатно, но но не в этом
2:56:33
дело. Всё-таки не в этом совершенствуется. У меня был
2:56:39
последний комментарий, потом можете, так сказать, если хотите. Вот насчёт вопрос
2:56:45
того, насчёт можно ли жить вне естественного интеллекта. Можно, но смотря как, да? То есть вот, например,
2:56:52
Эймиш коммьюнити, которое существует в Пенсильвании, оно так и существует,
2:56:58
вполне сознательно, отказываясь от многих элементов прогресса. И оно не существует в состоянии застоя в том
2:57:04
плане, в котором его описывал Лев, потому что у них есть, скажем так,
2:57:09
напряжение, борьба, грубо говоря, за своё существование, оно не такое лёгкое.
2:57:15
То есть жить, когда вот нужно заниматься физическим трудом, сельским хозяйством, не так легко. А вот то, что описывал Лев
2:57:22

это скорее то, что описывается Ибанхальдоном, да? То есть когда
2:57:28
там, так сказать, как это называется, что тяжёлые времена порождают
2:57:35
ээ сильных людей. сильные люди порождают ээ как это я я уже не помню, но четыре
2:57:42
поколения Банхальдона, да, что когда в конечном итоге у вас получаются изнеженные потомки, которых потом
2:57:49
сломывают варвары, грубо говоря, да, но имиши не живут в такой системе. Они
2:57:55
живут в системе, в которой есть постоянно есть какое-то значительное напряжение, и они сознательно не пускают
2:58:01
цивилизацию в свою жизнь. То есть вот это не значит, что все их потомки остаются в этой комьюнити. То есть есть
2:58:08
люди, которые выходят, но коммьюнити сохраняется. И опасность ээ технической
2:58:14
цивилизации и искусственного интеллекта в целом сидит там. Есть ли у вас ответ
2:58:19
на вопрос, что вы будете делать, если оно по какой-то причине malfunctions, да? То есть что
2:58:25
произойдёт, если вдруг перестают работать все электростанции на продолжительный период времени?
2:58:32
То есть, если у вас план Б или умение работать по плану Б, водоопасность сидит
2:58:38
там для Имише это не проблема. В них изначально не стоит в зависимости от этого. А мы идём, так сказать, стройным
2:58:45
шагом в систему, когда отключите электричество и люди начнут убивать друг друга, у них будут психические проблемы.
2:58:52
Вот. Вот и всё. Спасибо. Можно пару слов сказать, пожалуйста. Послушаю к этой
2:58:59
теме. Про образование обращались несколько раз. Я хотел бы свою позицию
2:59:04
здесь высказать. Это тяжёлый вопрос. Ээ с одной стороны ну вот я сам для себя
2:59:12
являюсь как бы таким образцом человека на пенсии. Довольно давно вышел на
2:59:18
пенсию. Ну и, так сказать, обрёл полную свободу от забот. и и посвящаю своё
2:59:26
время прежде всего самообразованию. Я очень люблю учиться, узнавать разные новые вещи.
2:59:34
Поэтому для меня такое будущее является как раз и знакомым, и желаемым. Но для
2:59:40
большинства людей это совершенно не так. Огромное количество людей, которые провели свою жизнь на работе, выполняя
2:59:48
ежедневно рутинные операции, не на конвейере, а в качестве
2:59:54
клерков, они просто не будут знать, что им делать со своим временем. Для них образование это может быть вынужденная
3:00:01
функция для того, чтобы научиться чему-то, чтобы зарабатывать на жизнь, если такая задача будет стоять. А если
3:00:09
нет, если нет необходимости чему-то учиться для заработка, то сами для себя
3:00:15
они учиться не будут. Или, по крайней мере, это будет выглядеть совсем не так,
3:00:21
как это выглядело бы в моём случае или случае льва или твёдра. Другая проблема здесь состоит в
3:00:27
том, что люди попадают в ситуацию, которой они не были никогда. Люди всегда
3:00:34
получали образование для того, чтобы обрести некоторую специальность. который не только позволит улетворять свою
3:00:41
любознательность или приобретать уважение окружающих, но и просто элементарно зарабатывать на жизнь. Они
3:00:49
обретали профессию в мире искусственного интеллекта, в котором все являются
3:00:56
безработными. Ну я условно говорю, все предположим, что уже полная безработица,
3:01:01
о которой говорит Илон Маск. А в этой ситуации никто не может получить образование для получения
3:01:07
профессии, поскольку профессий больше нет. Тогда это действительно то, о чём
3:01:13
говорит Макс Маск. Вот там заниматься изучением
3:01:19
иностранных языков, варварских обществ и так далее. Но
3:01:26
это немыслимая вещь. Вы вот представьте себе, что такое прогнозируемые
3:01:34
60-70% уровень безработица, о котором говорил Международный валютный фонд или
3:01:39
Голн Сакс или специалисты [музыка]
3:01:45
маудаты Кайфуси, о которых я рассказывал и кого-то ещё я забыл.
3:01:53
А если вы посчитаете на рабочую силу США, где на работе, строго говоря, это
3:02:02
порядка 150 млн человек, из них непосредственно в производственной деятельности занимается
3:02:09

20 млн человек, остаётся 130 млн человек. Если вы из них посчитаете
3:02:16
60-70%, вы получите 70-90 млн человек, которых надо
3:02:23
переучить, которые пойдут куда-то учиться не ради получения профессии, а
3:02:29
ради того, к чему призывает Лев или к чему с удовольствием, чем занимаюсь я.
3:02:36
Это немыслимо. Это не то будущее, которое нас ожидает. Абсолютно. И возникает другая проблема. Если они не
3:02:43
учатся, что они делают? Что они делают? Чем они наполняют свою жизнь? Деградируют.
3:02:50
Деградируют. Вот тот фильм, который мультфильм, который я вам показывал, два
3:02:55
кадра, это WL и студии Пиксар 2008 года. Кому любопытно, я думаю, его можно найти
3:03:02
в интернете и посмотреть. Это очень любопытно. А вроде бы как мультик, но он правда полнометражный, но описывает вот
3:03:10
это человечество, которое на пенсии. Они улетели с земли, которая абсолютно
3:03:15
загажена. Тогда никто про искусственный интеллект не говорил, а просто был
3:03:21
показывается загаженный Нью-Йорк, из которого они улетели на межзвёздном космическом корабле. Их обслуживают
3:03:28
роботы, и они деградировали полностью. Толстые, бессмысленные, ничего не знают.
3:03:35
Почему не учится и незачем учиться? Это то будущее, которое
3:03:40
появляется в результате такой трансформации. Леонид, ну не они же виноваты, а виноваты. Виноваты разница,
3:03:48
кто виноват, Фёдор, как это какая разница в этом и разница состоит. Как
3:03:53
нам обустроить общество, чтобы этого не было? А это А а вопрос решается очень
3:03:58
легко. Очень легко. Не давайте денег просто так. Или давайте мало денег
3:04:04
просто так. А хочешь чуть-чуть? Надо, пожалуйста. И вот иди учись. У иди
3:04:10
учись. То, что я рассказывал, я говорил о том, что деньги могут просто исчезнуть. Исчезнуть. Неважно, будут
3:04:17
деньги или там что-то другое будет. Вместо денег будет там кредиты какие-то. Я не знаю. Можно, можно я дам себе слово
3:04:24
на короткое время? Да, конечно. Мне кажется, все немного опускают очень
3:04:30
важную мысль, которую Леонид поднял в своём докладе. Она ведь про искусственный интеллект
3:04:36
макроэкономики. Макроэкономика — это общество, в котором мы живём. И,
3:04:44
э, какое будет влияние на общество искусственного интеллекта, это основной
3:04:49
вопрос. Почему америка стала лидером, а,
3:04:54
в развитии искусственного интеллекта? Ведь основные идеи пришли из Канады, из Монориальского университета, где
3:05:01
преподавали отцы основатели. из Англии, где была компания Deep Mindй,
3:05:06
откуда откуда пришли самые яркие яркие деятели этого движения вообще, который
3:05:13
deep Mine, который купил Google, потому что в Канаде и в Англии
3:05:19
отличное образование, но бизнес-то где самый лучший? В Америке. Где крутятся
3:05:25
все деньги в Америке? Почему до сих пор относительная экономическая свобода?
3:05:32
Проблема с иссм интеллектом в том, что непонятно, как слабое государство
3:05:40
типа американского будет справляться с новой реальностью, которая принесёт
3:05:46
искусственный интеллект. В Европе об этом заботится намного меньше. Там же куча регуляций, и они как-то не так
3:05:55
сильно боятся этого дела. Ну как будет, так и будет. А вот у нас могут быть
3:06:00
колоссальные проблемы. Потому что до сих
3:06:07
пор, в последнее время эта тенденция изменилась, но до сих пор всё-таки Америка была страна свободного
3:06:12
капитализма. Он не сможет существовать вместе с искусственным интеллектом. Самый простой пример, где
3:06:19
эта скоро будет очень сильно работать. На бирже. А ведь искусственный интеллект
3:06:25
будет научен на одинаковых данных. Там нет других данных. На бирже все данные известны. Все будут учиться на этих
3:06:31
данных. Что случится, если искусственный интеллект будет у разных компаний вести себя одинаково? Биржа в тот же день
3:06:39
закроется. Биржа основана на том, что у всех разные мнения. Кто-то покупает, кто-то продаёт. Если все вместе покупают
3:06:45
или все вместе продают, краб абсолютно.
3:06:51
Ну, может и сейчас такие проблемы есть, что алгоритмы те же самые. Не, нет, алгоритмы сейчас алгоритмы у всех
3:06:56
разные, потому что А что ты взял? Что? Что ты взял, что все разные? Ничего. Потому что алгоритмы разрабатывают.
3:07:02
Слушай, ну про это уже давно говорили. Тодор, ну дайте человеку сказать сейчас. Ну я хочу сказать, ну просто ну что
3:07:09
ждать, а потом, значит, уже про что-то другое будем говорить. Принципиальная разница. Фёдор, вы будете вы боитесь,
3:07:15
что вы забудете ту мысль, которую разница алгоритмы. Просто про другой мы уже говорим и всё. Нет, нет
3:07:21
принципиальная разница. Алгоритмы разрабатывают люди с их идеями. Искусственный интеллект учится сам на
3:07:27
тех данные. который мы дали. У вас одинаковые данные, у вас одинаковые
3:07:33
действия, и люди тут не принимают никакого участия. Вот в чём проблема. Теперь, что я ещё хотел
3:07:40
подчеркнуть, что вот тоже вот как-то скользнуло у всех очень важную вещь, которую они поднял в своём докладе. А
3:07:46
кто занимается развитием искусственного интеллекта? Молодые люди, в основном программисты,
3:07:55
компьютерса, люди, которые далеки от реальной жизни. Очень много из них
3:08:01
настоящие социопаты. Для них жизнь — это общение с
3:08:06
компьютером. Но большинство людей не сможет так жить. Ну, за исключением того, что мы все погрузимся в
3:08:13
альтернативную реальность. И вот это вот одна из самых больших проблем, как доверять этим
3:08:21
ребятам. Мы уже знаем одну страну, в которой такие ребята с очень хорошими
3:08:27
идеями сделали так, что теперь никто разобраться с этим не может. И куда
3:08:32
страна эта пойдёт, Господь Бог только знает. Поэтому я думаю, что
3:08:38
в замечательном докладе Леонида действительно подняты проблемы. Ну, никто не знает, как их решать, и никто
3:08:44
не предлагает их решения. Но это реальные проблемы. Там нет лёгких решений. Вот, вот маленький пример.
3:08:50
Роботизация. Подойдите, пойдите на любой американский автосборочный
3:08:58
завод. Да, там стерильная чистота. За всеми людьми следят, за
3:09:04
всеми операциями, которые делают люди, следят компьютерами. Всё, что можно относительно легко роботизировать,
3:09:11
например, сварка. Сварка полностью роботизирована, а вот сложные операции трудно роботизировать, потому что
3:09:18
трудно. До сих пор роботов программировали, только сейчас начали учить. Вот когда роботов научат учить,
3:09:25
когда научатся учить роботов, конечно, людей заменят, будут роботы. Поэтому с
3:09:31
роботизацией некоторая проблема, которую, наверное, решают. Почему работы ушли из Америки? Ну, ребята, это
3:09:40
капитализм. Тут вы ничего нельзя сделать. Работы ушли отвсюду. Не только же с Америки ушли работы. Китай фабрика
3:09:47
для всего мира. Можно ли вернуть назад? Может быть, можно. Может быть, нельзя. Это это
3:09:54
небольшая проблема. Большая проблема то, о чём все говорят. опыт с переучиванием хардвернженеров
3:10:01
после краха после окончания холодной войны и краха колоссального количество компаний
3:10:06
которые работали на оборонку очень трудно переучивать для того чтобы переучить людей надо их научить учиться
3:10:15
и то есть мы мы подходим к такому каскаду проблем, с которым справиться будет очень трудно. И последнее о смысле
3:10:22
жизни. А у животных есть смысл жизни? А чем мы в этом от них отличаемся?
3:10:30
Ничем. Поэтому я не думаю, что нам на этот счёт надо заморачиваться. Э проблема немножко в
3:10:37
другом. Проблема в том, что, мм,
3:10:44
ээ, в связи с тем, что мы-то сами обладаем какими-то мозгами, когда
3:10:50
говорят про искусственный интеллект, как-то все вот возвращаясь к тому, что я сказал, эти ребята в розовых штанишках,
3:10:57
а все предполагают, что это как-то будет самой собой разбиваться развиваться и что надо туда вставить
3:11:04
какие-то ограничения, и тогда всё будет хорошо. Ребят, да придут, придут люди, которые
3:11:10
специально сделают искусственный интеллект, чтобы уничтожать других
3:11:16
людей. Вот где огромная опасность. Теперь я хочу передать слово
3:11:21
Лильгу. Пожалуйста, Ле. Да. Угу.
3:11:31
Я хотел сказать, что вот тут очень много говорили о том, а вот вот этот
3:11:38
искусственный интеллект, а вот человечество, вот люди, и они эти вещи как
3:11:45
бы как бы противопоставлялись друг другу в каком-то смысле, что будет с людьми, когда, ну, и
3:11:55
так далее, понимае. Знаете, мой взгляд на это
3:12:01
дело. Я не хочу никого особенно агитировать. Я просто
3:12:07
рассказываю мои мысли на этот счёт. Я как-то тут выступил, ну, был
3:12:15
такой довольно длинное моё выступление, 28 минут. Я начал там с высказывания
3:12:23
Прогора Человек мера всех вещей.
3:12:29
Я сказал, что это принцип антропоцентризма, который исторически
3:12:34
лёг в основу всей гуманитарной философии, но что я от него
3:12:41
отказался. Вот я сам внутренне отказался от него. Я заменил этот принцип
3:12:50
андропоцентризма на принцип сапиенцентризма. Разум есть мера всех
3:12:56
вещей. Потому что, на мой взгляд, разум — это то, что нам ценно в
3:13:03
людях. Человек от всех прочих животных отличается именно этим, а не тем, что у
3:13:10
него там меньше волос на теле или что он ходит на двух ногах и так
3:13:16
далее. Разум. Что такое разум? Мы не можем этого знать как следует
3:13:24
сейчас, потому что мы сами обладаем очень слабо развитым разумом. Это
3:13:31
какой-то недоразум, какой-то первичный, первоначальный
3:13:37
разум, который не имеет никакой власти над своим субстратом практически.
3:13:43
Какой же это разум, когда он не над чем-нибудь другим, а над своим
3:13:50
собственным субстратом, над нашим вот этим мясом, он не имеет никакой власти
3:13:55
по существу. Но можно, если вы всё-таки
3:14:03
настаиваете, чтобы я что-то сказал, а что имею в виду под разумом, я скажу.
3:14:09
Разум — это форма, которой природа осознаёт саму
3:14:16
себя. Вот что такое разум. Это форма, в которой природа
3:14:23
осознаёт саму себя. И, конечно, развитый разум обладает
3:14:31
полным контролем над своим субстратом и в идеале полным контролем
3:14:37
над всей природой, над всей вселенной по
3:14:44
существу. Так вот, разум, естественно, после того, как он возник, он проходит
3:14:50
разные степени своего развития. И человечество — это одна промежуточная
3:14:58
форма, не более того, какая промежуточная форма развития
3:15:05
разума. И вот этот самый вот те устройства, которые мы сейчас создаём,
3:15:11
не называемых громкоискусственный интеллект, это такие маленькие зародыши,
3:15:17
быть может, того, что ещё должно возникнуть.
3:15:23
Вот когда оно возникнет, действительно, это будет разум намного действительно
3:15:28
превосходящий человечески. И это является нашей перспективой. И это то, к чему мы должны
3:15:37
стремиться, понимая себя как этап в развитии разума. Человечество не
3:15:43
самоцель, мы только этап. Мы должны вымостить путь к этому высшему разуму.
3:15:51
Вот что я хочу сказать, понимаете? И поэтому заботы о судьбе
3:15:57
человечества играют тут подчинённую роль. Всё дело в том, что разум более
3:16:04
высокий, чем человеческий. Естественно, он в каком-то смысле более, как ни странно, гуманный,
3:16:12
потому слово гуманный произошло от слова человек. Но на самом деле это означает,
3:16:18
что он будет больше ценить жизнь, поскольку жизнь — это этап возникновения
3:16:26
разума и больше будет ценить существ, в которых есть хоть какие-то проблески
3:16:33
разума, высших животных и человеков в том числе. Поэтому опасаться того, что высший разум
3:16:41
займётся истреблением людей, на мой взгляд, очень глупо. Естественно, что
3:16:47
они не станут этого делать. Но что касается людей, да, немногие люди
3:16:54
действительно способны к дальнейшему развитию и к бесконечному развитию в
3:17:01
перспективе, вот бесконечной учёбе, бесконечному освоению новых знаний,
3:17:08
бесконечно применению их этих новых знаний и освоениние ещё более новых
3:17:13
знаний. Не все, но, к счастью, люди пока что смертны.
3:17:18
Так что те, кто на это не способен, будут вымирать. Вот что будет
3:17:25
происходить. И, может быть, не так уж следует много о них беспокоиться, но
3:17:31
можно их подкармливать, чтобы они умерли не под забором, так сказать, а своей
3:17:38
смертью. Те, кто из них, кто проявит какие-то способности, какое-то желание
3:17:45
чему-то ещё учиться, они получат преимущество, они как бы будут
3:17:52
продвигаться в этом обществе вперёд. Те, кто нет, ну что же они,
3:17:58
Послушайте, по статистике 47% населения этой страны получает
3:18:06
социальную помощь. 47% в том или в той или иной форме.
3:18:13
Кстати, даже я получаю социальную помощь форме пенсии по возрасту и пособии на
3:18:19
моих детей. Так что, понимаете, наличие социальной помощи ещё вовсе не
3:18:27
говорит о том, что на этом человеке надо поставить полный
3:18:32
крест. Но число этих людей, конечно, будет увеличиваться.
3:18:38
Те, кто действительно получает социальную помощь. Хорошо, я не хочу отвлечься от
3:18:45
моей главное мысли. Мы должны рассматривать этот процесс как процесс
3:18:51
развития разума во Вселенной и возникновения всё более высоких форм
3:18:58
разума. Человеческий разум выше разума животных, значительно качественно выше.
3:19:05
мы это знаем и чувствуем, возникнет новый разум, который будет качественно
3:19:12
выше человеческого. Это не этот искусственный интеллект, который, в общем, пока ничем
3:19:18
особенно не отличается, даже если он умеет решать те задачи, которые там,
3:19:25
допустим, математические, которые у нас только квалифицированные люди могут решать. Это
3:19:31
ещё, конечно, не новая ступень разума, но новая ступень, безусловно, возникнет.
3:19:37
Более того, она возникнет не благодаря нашим усилиям,
3:19:43
особенно она возникнет, когда сложность систем, которые мы создаём, достигнет
3:19:51
некоего порога, и тогда она возникнет спонтанно, так же, как возник разум в
3:19:58
человеческом мозгу, когда уровень его организации
3:20:04
эволюционно достиг определённо уровня, сложности его организации достигли этого
3:20:11
уровня. Он возник спонтанно. Он не записан в наших генах. В наших генах нет
3:20:17
места для записи нашего разума, для записи того, кто составляет структуру
3:20:24
нашего мозга. Просто нет там этого места. Нашигенов очень мало, там
3:20:30
200, порядка 20.000 всего. И они должны обеспечить весь организм. Так
3:20:38
что возникнет спонтанно. И даже мы не будем не сразу догадаемся, что он
3:20:44
возник. А он, может быть, не захочет нам сразу и сообщать об этом или очень
3:20:52
осторожно. Потому что люди ведь глупы. Они могут как-нибудь ему навредить на
3:20:58
ранней стадии, могут попытаться его как-то ограничивать и контролировать.
3:21:04
Так что он нам не скажет об этом. Он себе тихонечко будет
3:21:11
развиваться. Ну дальше что будет, это посмотрим. Но я думаю, вы знаете, я
3:21:18
думаю, что это скоро будет. Я думаю, наш разум Лев — это Солярис.
3:21:24
Ну, Солярис — это фантазия, но целая планета. Планета для этого не
3:21:30
нужна, но определённая сложность организации нужна. Вот.
3:21:37
И не знаю, могу ли я надеяться, что я ещё это увижу, но, ээ, мои дети,
3:21:44
безусловно, и вообще думаю, что это займёт, по моим расчётам, кстати,
3:21:51
ээ наши искусственные системы достигнут сложности человеческого мозга примерно
3:21:58
лет через 30. Вот так. Так что получается, что где-то примерно
3:22:04
в это время этот высший разум должен
3:22:09
возникнуть. Мне трудно дожить до этого. Мне в этом году 90.
3:22:16
Ну и нам тоже. Но я бы хотел, как говорится, до 120.
3:22:25
Спасибо. Ну хорошо. Спасибо, ребят, что вы выслушали мой
3:22:31
бред. А, ну если бы мы все так бредили, я был бы более спокоен за судьбу
3:22:37
человечества. Кстати, по поводу действительно, что люди там вот какой-то
3:22:43
деятель выражал ту идею, что людям незачем жить. Старше семидесяти. Вот
3:22:48
собака. Я уже должен был 15 лет покоиться, по его мнению. Нет, вот
3:22:56
такого рода, ну, чушь, конечно, при том, что мои физические
3:23:02
способности гораз, ну, просто несравненно меньше. Я Мне тяжело жить
3:23:08
физически. Физически мне уже тяжело жить, но, слава богу, я функционирую.
3:23:16
Что касается сферы разума, то функционирую
3:23:22
не хуже, чем прежде, и я могу это проверить. Для этого мне достаточно
3:23:28
взять сборник олимпиадных задач. Я вижу, что я решаю их легче, чем прежде. Что
3:23:35
означает? Имеется два конкурирующих фактора: опыт и склероз.
3:23:41
Так вот, у меня ощущение, что опыт у меня всё ещё преобладает над склерозом.
3:23:47
Они идут в разных направлениях, но пока что опыт страшная борьба идёт между
3:23:53
ними. Да, между ними идёт борьба. Без Но тренировка интеллектуаральной
3:23:59
деятельности побеждает этот склероз. Нет, просто у Лёвы, я просто Лёву знаю
3:24:05
очень хорошо, у него такая мощь интеллекта, которая позволяет ему держаться на плаву, даже побеждать его
3:24:12
физически недуги вот за счёт за счёт интеллекта. Вот. Ну это вот характерно. Так что пока
3:24:19
всё я, так сказать, мучаю моих студентов лекциями. Я отправляю статьи в печать.
3:24:26
Только что мы отправили одну статью, и рецензенты были очень довольны. Один
3:24:33
написал is foundational working. Другой написал excellent paper, которые там
3:24:40
открывает новые горизонты. В таком духе. Но это хорошо попали знающие
3:24:46
интещие рецензенты, потому что если это попадает практическим инженерам, так они
3:24:53
не понимают, зачем эта наука нужна. Статья о чём? Стая зачем нужны
3:24:59
теоретические модели, если всё можно про симулировать на компьютере. А эта работа
3:25:07
посвящена м ээ этим интер сетям связи,
3:25:13
которые связывают ээ ээ процессоры между собой в
3:25:19
мультипроцессорном компьютере. Угу. или в системе компьютеров. Ты
3:25:27
кстати, я мы там я и мои соавторы пытаемся навести науку в этой области, а
3:25:34
там никакой науки нет абсолютно. Только действительно компьютерные симуляции,
3:25:40
они делают имплементацию методом тыка. Ну вот так сделаем так посмотрим, что
3:25:46
будет. Ну просто, ну совсем, совсем никакой науки. Так
3:25:52
что они недовольные, да, отзывы-то хорошие.
3:25:57
Вот когда попадает разумным этим самым лицензентам, а когда подпадают
3:26:03
неразумным, они говорят: «Кому это нужно и зачем?» И потом ваша модель, она не
3:26:10
очень практическая. На практике так не делают, естественно, потому что
3:26:16
теоретическая модель всегда упрощённая. Я же хочу найти какие-то фундаментальные
3:26:23
общие свойства, не свойства данной конкретной реализации,
3:26:29
фундаментальные и общие, так что приходится заниматься содеализированными
3:26:35
моделями. Я я хотел бы сказать чуть-чуть, но почти полночь. У меня
3:26:40
завтра рабочий день. Можно я скажу на 2 минуты? Пожалуйста, пожалуйста. И потом уйду.
3:26:47
А я хотела вот что сказать. И возможно, если вас это заинтересует, это могло
3:26:54
быть с темой моего следующего доклада. Не особенно на своём опыте, но, так
3:27:01
сказать, пересказ чужого опыта. Есть такая теория психологических типов. Ну
3:27:08
там кто делит на четыре типа всех людей, кто делит на 16. Когда я первый раз об этом
3:27:15
услышала, значит, я подумала: «Какая ерунда! Мы все такие
3:27:20
разнообразные. Вот только 16 не может быть». Ну, в общем, короче говоря, как
3:27:26
их не делить? На сколько типов не делить? Далеко не все типы хотят и
3:27:31
способны учиться. Мы, конечно, можем отмести их на обочину истории и
3:27:37
проигнорировать, а можем принять, как это факт. Вот часть человечества любит учиться и может учиться, а часть
3:27:45
человечества, возможно, больше не может. Оно, конечно, то, что все более-менее научились это самое с телефонами и с
3:27:52
компьютерами общаться, оно, конечно, как бы радует, может быть, и чему-то другому
3:27:58
человечеству сообща научится, но в целом на это не нужно. Есть люди, которые
3:28:03
любят учиться, и пусть они будут. И есть люди, которые не любят или не могут, или
3:28:08
им сложно учиться. И пусть они тоже будут. То есть как и так сказать к этому
3:28:13
добавлю только одно. Я росла, я очень извиняюсь, в довольно элитарный в смысле
3:28:20
это самое обучение среде, так сказать, начиная с первого класса и кончая
3:28:26
аспирантурой. Вот. Но, ну, и соответственно, да, вот были такие
3:28:31
возрения, что вот мы там соль земли и всё такое прочее. Вот. Но потом со
3:28:36
временем как-то я в этом отношении постыла и решила: «Ну да, вот у меня вот это самое были такие родители тоже
3:28:44
образованные. Вот мама меня жучила, я и сама хотела. Всё, вся как-то звёзды
3:28:49
сложились, всё замечательно, всё хорошо, а у других не сложились». Так сёмка, не
3:28:54
буду я тем не менее отметать их на обочину истории, так сказать. Ну вот, если вы можете потом обсудить уже без
3:29:02
меня. Если вас заинтересует доклад о шестнадцати психологических типах, на
3:29:07
которые делится всё человечество, то я могла бы с удовольствием его прочесть и
3:29:13
заодно вспомнить, так сказать, само эти те. Очень, очень хотим. Очень хотим. Да. А, Анечка, вообще по поводу вот этих,
3:29:20
которые не хотят учиться, у нас же есть открытая проблема. Куриные яйца. Вот
3:29:26
пусть выращивают кур. Пусть они выращивают кур. Да. Как раз
3:29:31
вот решится эта проблема. Кто кур, а кто в садике копается? Вот он пойдёт на А пусть пусть они цветочки сажают. Тоже
3:29:40
хорошо. Я выхожу, смотрю на цветочки с соседей. Да. И и замечательно. Вот. И
3:29:47
вообще можно придумать какую-то занятость им, чтобы занимались каким-то полезным делом. Ну я понимаю. Хорошо.
3:29:54
Ана. То, что вы сказали, мне напомнило маечку, которую я видел в Нью-Йорке на улице. На ней было написано: «I was born
3:30:02
intelligent but education ruined
3:30:08
me.» Вспомнили и вспомнили. Education ruined me. Ruined me. Да. Нет,
3:30:16
ну марка Твена есть ещё хорошее высказывание о том, что, как говорится, you should not
3:30:23
confuse your school with your education. Вот. То есть как
3:30:29
я вполне то, к чему призывает Фёдор — это именно schooling. А вот получится ли
3:30:34
school in education? Непонятно. Я вот хочу сказать, вот мы говорим про искусственный интеллект. Вот
3:30:40
искусственный интеллект может руин гуманитарное образование,
3:30:47
потому что уже сейчас написать ээ там какой-то реферат. Вот чем они
3:30:53
заники, вот как они там свою работу показывают, что они чего-то там изучили,
3:30:59
да, любые там филологи, кого угодно взять. Он тебе напишет: «Искусвенный
3:31:04
интеллект такой замечательный за 2 минуты, а даже за 2 секунды, может даже быстрее». напишет. Вот. И поэтому,
3:31:11
значит, ээ очень сложно в такой ситуации. И если по сравнению с
3:31:18
математикой, вот они как считать умеют, даже некоторые какие-то теоремы могут
3:31:24
доказать пока ещё я не знаю, я слышал про это, но, наверное, нужно сначала эту
3:31:29
теорему нужно сформулировать ему. Он же не будет там Ну, может тогда через какое-то время
3:31:36
он и будет сам формулировать сам. Вы знаете, то, что называется гуманитарные науки — это, на самом деле, непаханное
3:31:43
поле в том плане, что там, э, логический аппарат у большинства из них просто
3:31:49
отсутствует. То есть достаточно взять ту же экономику, где есть какие-то результаты. Но попробуйте спросить у
3:31:56
экономиста, во-первых, что такое экономика. Во-вторых, дайте определение свободного рынка. приведите примеры, где
3:32:03
этот свободный рынок существует. И вы услышите такую, так сказать, паноплеи
3:32:09
всевозможных мнений. Там просто на уровне логического аппарата, то есть
3:32:14
понятия и правила пользования этими понятиями построения предикатов. Вот
3:32:20
конкретно даже это не исследовано. Понимаете? А слушай, можно можно мне на
3:32:26
этой весёлой ноте присоединиться на кане и тоже покинуть, а то глазки
3:32:33
закрываются. Огромное спасибо. Я с тобой спорил, но это не изновашение. Леонид.
3:32:40
Леонид, вот вопрос к Леониду. Э, Леонид, вы когда-то делали большие серьёзные
3:32:47
доклады об экономике в Америке. Вас сейчас это не интересует.
3:32:54
Ну нет, я всё время этим занимаюсь. Я просто не делаю доклада. Вы как-то сказали на своём докладе, что вам это
3:33:01
надоело, вы теперь занимаетесь музыкой и будете заниматься. Вернулись? Нет, я я,
3:33:07
вы знаете, я, наверное, всё-таки экономист по призванию, поэтому я этим
3:33:13
не заниматься не могу. Но но вот делать доклады — это другое занятие.
3:33:19
А вот это мне иногда надоедает. Если я чем-то занят другим, то, ну, понимаете,
3:33:26
дело в том, что я, в общем, человек довольно ответственный. Если я за что-то берусь, то я уже стараюсь это делать
3:33:32
наилучшим способом из тех, какие я могу придумать. Поэтому это очень много
3:33:37
времени занимает. Уговорить себя на это мне очень трудно.
3:33:42
Да. Вот я хотел, я вас хотел спросить прямо. Вот я слышал ваши доклады каждый год. клуб учёных, да? А состояние
3:33:52
экономики о мире, ну там и другие страны в клуполи. Вот сегодня при таком серьёзном
3:33:59
состоянии, в котором находится страна, вам трудно сделать этот доклад
3:34:06
сегодня? Да. Ну трудно, да? Трудно, трудно. Угу. Когда буду готов, я
3:34:13
предложу. Вот я хотел бы Леонида попросить, нашего Леонида, в смысле нашего ведущего, что
3:34:21
вот этот доклад был бы чрезвычайно интересный. Я помню эти доклады
3:34:27
ваши, чисто экономические, они были руководство к
3:34:32
действию, к пониманию. Вот так вот, я бы сказал, к пониманию, да, это лучше, чем
3:34:40
действи апокалиптические. Вот такой я выводы. Вы понимаете, Леонид
3:34:46
он человек, который несколько пессимистичен вообще по своему характеру изложения. Мы об
3:34:53
этом с ним тоже говорили. Какой из них Леонид Ближний или нет? Леонид, который
3:34:59
экономически экономист. Экономист. Я говорю об экономическом об экономике Америки. Оба, оба. Я совершенно разделяю
3:35:08
точку зрения. Надо как-то их разбавить каким-нибудь. Я вот хотел бы сейчас 2
3:35:13
минуты я задержу. Во-первых, э большое спасибо за доклад. И мне нравится не
3:35:20
только э тема изложения, актуальность изложения, но и
3:35:26
манера изложения. Она мягкая, не агрессивная. Фёдор всё время вот как-то
3:35:33
активно пытается агрессивно напасть. Темперамент. Нене не не. Ему это не, ему
3:35:41
это ему не свойственно что-то. Он сегодня очень так ээ А я, я очень долго молчал, у меня голоса не было.
3:35:48
Сегодня он как-то настроен. Я думаю, я просто про это много думаю. Мне
3:35:53
Артифиздрич как родной. Я понимаю, я понимаю. Я я лекции читал по нейронным
3:35:59
сетям ещё там 15 лет тому назад. Подождите, Леонид. Подождите, Фёдор, понимаете,
3:36:05
Леонид — это не тот ээ товарищ, который вот так надо как-то активно его на него
3:36:12
нападать. Манера у него другая, мягкая, спокойная и так далее. Ну, ну, ну я знаю, это самое, я же очень это самое из
3:36:20
лучших побуждения. Понятно, понятно. Всё, Фёдор, мы всё понимаем в необидной
3:36:25
форме. Я надо просто перевести Фёдора в партер, и всё будет хорошо. И третье,
3:36:31
что я хотел сказать. Вот мы всё время говорим о рисках, о
3:36:36
сложности. Ведь нет ещё того искусственного интеллекта, которого мы боимся. Вы говорите о том, что это
3:36:44
говорят разработчики, это люди, которые этим занимаются, у них блестящие, так
3:36:49
сказать, перспективы и так далее и тому подобное, но мы его ещё не щупали, мы не
3:36:56
с ним не жили. Возьмите развитие атомной энергии.
3:37:03
Ведь сначала произошло, мы это пережили,
3:37:09
посмотрели и атомные бомбардировки, и атомные станции, и и
3:37:18
использование атомного ядра в медицине, в самых различных разнообразных
3:37:24
применениях. И мы стали понимать, как с ним, где надо опасаться, где надо его
3:37:31
использовать и так далее. А искусственный интеллекта ещё нет. Вы знаете, очень хороший поинт подняли. Вот
3:37:39
если бы мы, э, если бы не было Херасимы и Нагасаки, каково было бы наше
3:37:45
восприятие ядерной энергии? Насколько легкомысленным оно могло бы быть, чтобы вот сейчас это с тем, как мы
3:37:55
воспринимаем возможные риски искусственного интереса. Это правда. Вот я хочу сказать, Леонид, во-первых, мы со
3:38:01
слагательными наклонениями как-то давайте не апеллировать, особенно нам
3:38:07
инженерам, которые этим, так сказать, э практикующим. Так, поэтому, конечно, то, что вы
3:38:15
докладывали, очень интересно и нужно. Никто не говорит, что этим не надо
3:38:20
заниматься. Но надо же посмотреть, вот будет этот искусственный интеллект, мы с
3:38:27
ними поживём,
3:38:32
пообщаемся, привыкнем или не привыкнем. Мы ещё ничего не знаем. Мы
3:38:39
ещё ничего руками вот так вот жизнью
3:38:44
не пробовали. Согласен. Согласен. Понимаете? И я ни в коем случае не
3:38:51
против то, что вы что эти человечество дошло до такого состояния, а что оно
3:38:58
выстраивает опасности, предположения, но заранее, но можно можно
3:39:05
ошибаться, понимаете? Поэтому, как мы когда-то, я с Леонидом говорил о том,
3:39:11
вот сравнение искусственного интеллекта, искусственного интеллекта, искусственно
3:39:17
интеллекта и интеллекта человека. Давайте мы посмотрим, поживём,
3:39:23
посмотрим, как это будет на практике, когда они начнут действительно соревноваться. Сегодня до этого ещё
3:39:30
очень далеко. Да, ничего недалеко. Да уже сейчас пони
3:39:36
где это недалеко. Вы посмотрите, вот инженер говорит, что в инженерной
3:39:41
практике все говорят, что искусственный интеллект воспринимается как инструмент.
3:39:47
Да, как инструмент. И ещё воспринимает. Не, моя дочка говорит, что она давно же
3:39:52
писем никаких не пишет. Она там архитектор, и она все письма за неё этот
3:39:58
экскурсный интерес, понимаете? Значит, проектируют сейчас на компьютере, а не на не на этом. На Нет, ну, значит, в
3:40:05
чём-то вот статью-то написать, рассказ хочешь какой-то написать, тебе нужно там
3:40:11
что-то, ты журналист, вот накидал несколько слов, она тебе быстренько сострябает. Да, вот я это хотел. Сейчас
3:40:17
мы с Фёдором Леонид, у меня больше к вам вопроса нет. Спасибо большое. Но мне кажется, но надо надо, надо со всеми
3:40:26
прощаюсь тогда. Давайте нашего докладчика. Он всё-таки использовал свой интеллект, а не
3:40:32
искусственный для общения с нами. А ему нужен. А мы не знаем, может быть, ему
3:40:37
помогал искусстро. Дада. Помогал. Ну так пускай, если если нужна помощь, он Фёдор
3:40:44
я скажу, вот рассказывал один музыкант, вот техника у китайцев играть на скрипки и
3:40:53
так далее и тому подобное. А звуко звукоизвлечение у этих китайских, так
3:40:59
сказать, техное. Нет той прелести этого
3:41:05
звукоизвлечения, как у людей. Можно написать статью, можно
3:41:11
написать рассказ, но китайц-то тебе не еврей. Да, китайцы
3:41:17
не еврей. Китайски евреи, это точно замечено. Они очень изменились за последние 40 лет.
3:41:24
А и есть некоторые недопонимания, да, действительно, все сегодня говорят о
3:41:30
том, что искусственный интеллект — это уже инструмент. Всё, вопрос закрыт. Это
3:41:35
инструмент. Ну вот что будет дальше? Во, ну давайте поживём. Ну подождите. Я
3:41:41
понимаю, хочется знать быстрее, но сегодня не нет. Дело не в этом. Думать-то нас уже сейчас. Дело не в
3:41:48
этом. Дело нет. Думать можно. Надо очень сильная аналогия. Как говорил Лев с
3:41:53
эволюцией, если это дело сделают, это будет взрывообразно. Нет, подождите, Леонид. Эволюция — это
3:42:00
не быстрая. Эволюция очень быстро. Очень быстро. Эволюция человека сделала
3:42:09
сколько? Через сколько лет? Нет, нет, нет, вы не вы не так на это смотрите. 4
3:42:14
млрд лет шла эволюция. И вдруг за 200.000 лет возник человек. То есть по сравнению с 4 млрдами это ничто.
3:42:21
Секунда. Нет, подождите минуточку, Леонид. Ну перед этим возникли ведь человекообразные обезьяны и так далее и
3:42:27
тому подобное. Ну подождите, человек возник на пустом месте. Это правильно
3:42:33
всё. Но я говорю это к тому, что эволюция нелинейна, она скачкообразна.
3:42:38
Это правильно. Она нелинейна. Где-то быстрее, где-то медленнее, но это
3:42:43
эволюция, это не экспоненциальная такая функция. Именно из не она состоит из ступеней. В
3:42:50
начале ступени развитие идёт очень быстро, а потом идёт сильное замедление.
3:42:57
Действительно так. Но вначале очень быстро. Вот Фёдор рассказывал нам и правильно
3:43:05
говорил о том, вот смотрите, человечество столкнулось с одними трудностями во время Первой мировой
3:43:12
войны, Второй мировой войны, оно как-то приспособилось и выработало механизмы
3:43:21
самохранения. Почему не будут святать с искусственным интеллектом? Ну, потому что человечество всё время, вся жизнь
3:43:28
людей основывалась на тем, что у нас был один интеллект, который был, который
3:43:34
развитие которого определялось понятными факторами. У нас была мораль, проще
3:43:41
говоря, у искусственного интеллекта неизвестно. Пока морали нет вообще. Будет у него морали или нет,
3:43:48
неизвестно. Если её не будет, ну, давайте поживём. Секундочку. Михаил,
3:43:53
одно одну секундочку, пожалуйста. Лёня, мы Я не вижу. Леонид ушёл. Да, да. Ну
3:43:59
так что ж мы продолжаем? Я продолжаю запись. А, дада, да, давайте выключим. Мы размыли. Надо же мне говорить.
3:44:05
Размыли. Я выключаю. Yeah.

Поделиться: