CEO Anthropic, Технооптимист Дарио Амодей рассказал о будущем искусственного интеллекта в мире в ближайшие несколько лет. Что будет с рабочими местами из-за ИИ, что ожидает разные индустрии, увидим ли мы безусловный базовый доход, и что нам с этим делать.
Прямая ссылка на видео https://www.youtube.com/watch?v=kUm1JwVRtMk
Пересказ видео
Почему команда ушла из OpenAI
- В 2019-2020 годах команда осознала важность законов и гипотез масштабирования ИИ.
- Они поняли, что ИИ может оказать огромное влияние на экономику и национальную безопасность.
- Руководство OpenAI не разделяло их озабоченности по безопасности и контролю ИИ.
Миссия и ценности Anthropic
- Anthropic была основана с миссией работать на благо общества.
- Команда вложила средства в механистическую интерпретируемость для понимания внутреннего устройства моделей.
- Предложена концепция конституционного ИИ для обучения моделей на принципах, а не на данных.
- Задержали выпуск первой модели Claude для обеспечения безопасности.
- Введена политика ответственного масштабирования для измерения и управления рисками моделей.
Риски и возможности ИИмасштабирования аналогична уровням биологической безопасности.
- Уровень 2: мощные системы с рисками, сравнимыми с обычными технологиями.
- Уровень 3: серьёзные риски, превосходящие риски обычных технологий, особенно в области национальной безопасности.
- Модели третьего уровня могут позволить неподготовленным людям совершать разрушительные действия.
- Для предотвращения рисков вводятся специальные меры безопасности и ограничения на выполнение опасных задач.
Проблемы с новыми моделями ИИ
- Новые модели ИИ имеют как позитивные, так и негативные применения.
- Невозможно заранее предсказать все возможности моделей.
- Модели непредсказуемы, как и люди.
Позитивные перспективы ИИ
- ИИ может значительно ускорить прогресс в биологии и медицине.
- Модели ИИ могут стать интеллектуально сопоставимыми с нобелевскими лауреатами.
- ИИ сможет выполнять большинство задач, выполняемых людьми за компьютером.
Влияние ИИ на занятость
- ИИ может заменить значительную часть человеческого труда.
- Продуктивность людей повысится благодаря ИИ, но постепенно ИИ будет захватывать все больше задач.
- Важно пересмотреть представление о полезности и бесполезности в условиях технологического прогресса.
Пример DeepSeek
- Модель DeepSeek подтверждает законы масштабирования в ИИ.
- Стоимость получения определённого уровня интеллекта моделей ежегодно падает в четыре раза.
- Снижение стоимости приводит к увеличению количества создаваемых моделей и стимулу к инвестициям в более умные модели.
Появление модели DeepSeek
- DeepSeek — первая китайская модель, конкурирующая с американскими.
- Это вызывает беспокойство из-за снижения контроля экспорта чипов.
Необходимость экспортного контроля
- Контроль экспорта важен для национальной безопасности США.
- Чем больше чипов и денег, тем лучше модель.
- Удержание контроля поможет предотвратить паритет с Китаем.
Правила диффузии технологий
- Разделение стран на три категории по уровню доступа к чипам.
- Китайские чипы значительно хуже американских, но разрыв может сократиться.
- Экспортный контроль стимулирует развитие китайских технологий.
Диалог с Китаем по вопросам ИИ
- Поддержка идеи диалога, но пессимизм по поводу результатов.
- Возможность сотрудничества по вопросам безопасности ИИ.
- Риск автономных действий моделей ИИ и необходимость ограничений.
План действий для управления научно-технической политикой
- Сохранение экспортного контроля.
- Политика ответственного масштабирования и проверка моделей на риски.
- Обеспокоенность промышленным шпионажем и необходимость защиты американских компаний.
Безопасность и возможности ИИ
- Безопасность ИИ включает три ключевых пункта.
- Возможности ИИ также включают три ключевых момента.
Потенциал применения ИИ в здравоохранении
- ИИ может помочь победить сложные заболевания.
- Правильная регуляторная политика может ускорить разработку лекарств.
Обеспечение энергией
- Для развития ИИ требуется много энергии.
- К 2027 году потребуется дополнительно около 50 гигаватт энергии.
Экономические риски
- Экономические риски ИИ сопоставимы с рисками национальной безопасности.
- В долгосрочной перспективе ИИ может увеличить темпы экономического роста до 10% в год.
Социальные и моральные аспекты ИИ
- Люди не осознают масштаб изменений, которые несёт ИИ.
- ИИ может заменить человеческий труд, что вызывает вопросы морали и смысла существования.
Благополучие ИИ
- ИИ может иметь субъективный опыт, что требует морального рассмотрения.
- Возможно, стоит внедрить системы выражения предпочтений для моделей ИИ.
Будущее человека в эпоху ИИ
- Человеческие отношения и обязательства перед другими людьми остаются важными.
- ИИ может изменить понимание смысла существования и самооценки.
Важность отношений
- Люди больше всего гордятся и совершают ошибки в отношениях.
- ИИ-системы могут помочь в выстраивании отношений, но это останется фундаментальной задачей для человека.
Амбиции и стремление к значимому
- Амбиции и стремление к сложному остаются важными, даже если появятся умнее ИИ-системы.
- Пример: чемпионы люди остаются знаменитостями, несмотря на развитие ИИ.
- Смысл занятий сохраняется, даже если человек не достигает мирового уровня.
Значение смысла в жизни
- Важно, чтобы занятия сохраняли смысл на протяжении всей жизни.
- Люди должны стремиться к чему-то важному и не сдаваться.

