МЫ ЖИВЁМ В СИМУЛЯЦИИ? Искусственный интеллект, бессмертие и конец свободы — что ждёт нас уже к 2030?

Сергей Марков — российский специалист в области искусственного интеллекта и машинного обучения. Управляющий директор и начальник управления экспериментальных систем машинного обучения департамента SberDevices (Сбербанк).

Отношение к нейросетям всё ещё неоднозначное: кто-то легко интегрировал их в работу, кто-то отрицает пользу, кто-то высказывает настоящие опасения. Повсеместно обсуждаются риски, но попытки создать общий искусственный интеллект не прекращаются. Раз уж мы настолько близки к чему-то большему, пришло время разбираться.

Есть ли сознание у существующих нейросетей? Когда ждать общий ИИ? Представляет ли он угрозу, или опасения излишни? Обо всём этом, и гораздо большем, можно узнать прямо сейчас.

Этот разговор впечатлил всю съёмочную команду, поэтому позвольте обойтись без прямых спойлеров — такое нужно услышать самому.

Таймкоды

00:00:00 Переломный момент в истории цивилизации

  • Граница между людьми и технологиями размывается.
  • Черные дыры могут быть гигантскими суперкомпьютерами.
  • Современные нейросети — это гигантские формулы.
  • Мы можем находиться в обучающей симуляции.

00:00:39 Введение в подкаст

  • Приветствие от подкаста Соломина.
  • Гость — Сергей Марков, директор по разработке искусственного интеллекта в Сбербанке.
  • Марков активно исследует угрозы и возможности искусственного интеллекта.

00:01:21 Технологическая сингулярность

  • Мы стоим на пороге технологической сингулярности.
  • Требуется разумный и человечный подход к использованию технологий.
  • Технологии могут быть использованы как для хороших, так и для плохих целей.

00:02:45 Обучающая симуляция

  • Мы можем находиться в обучающей симуляции для пост-сингулярного общества.
  • Симуляция помогает тренировать детей в принятии разумных решений.
  • Для генеративных моделей элемент обучения необходим.

00:03:32 Проблема дефицита данных

  • Размеры датасетов растут быстрее, чем количество текстовых данных в интернете.
  • Возможное решение — создание синтетических данных.
  • Пример платформы, предсказывающей события через ставки.

00:04:58 Прогнозы и общий искусственный интеллект

  • Прогнозы на появление общего искусственного интеллекта в 2026 году.
  • Проблема с определением общего искусственного интеллекта.
  • Разные люди могут решать разные задачи, и это не всегда можно измерить.

00:07:44 Определение общего искусственного интеллекта

  • Марк Гурудит предложил теоретическое определение общего искусственного интеллекта.
  • Альтман предложил свое определение, связанное с заработком миллиардов долларов.
  • Это определение вызывает вопросы и спекуляции.

00:11:32 Квантовые компьютеры и будущее технологий

  • Квантовые компьютеры — это зонтичный термин для разных устройств.
  • Вопрос в том, на что заменить классическую электронику.
  • Возможные кандидаты: фотоника, вычислительные устройства на основе памяти.

00:12:57 Мемристоры и их перспективы

  • Существует множество экспериментальных мемристоров, но до промышленного производства далеко.
  • Необходимо создать производство, способное собирать гигантские вычислительные матрицы с приемлемым процентом брака.
  • В последние три-четыре года много прототипов и публикаций, но что заменит классическую электронику, пока неизвестно.

00:14:15 Российские разработки и их успех

  • В России ведутся разработки на мировом уровне, но успех зависит от множества факторов.
  • История электроники показывает, что многие идеи не реализуются, несмотря на их перспективность.
  • В книге автора подробно описаны ранние попытки создания вычислительной техники.

00:16:58 Прогнозы на будущее

  • Мир может сильно измениться за столетие, и сингулярность близка.
  • Технологии позволят манипулировать сложными физическими объектами, что размыет границу между человеком и технологиями.
  • Это может произойти в конце 2030-х или начале 2040-х годов.

00:19:44 Изменения в обществе и технологиях

  • Революция глубокого обучения привела к масштабной перестройке технологического стека.
  • Количество оцифрованной информации удваивается каждые два года, достигнув 175 зетабайт к 2025 году.
  • Генеративные модели позволяют создавать индивидуализированные знания, что меняет информационный метаболизм общества.

00:22:32 Влияние технологий на общество

  • Технологии искусственного интеллекта могут изменить привычные практики и расклад сил.
  • Пример с электричеством показывает, как отдельные изобретения могут трансформировать мир.
  • Технологии ИИ потенциально могут иметь столь же значительное влияние на общество.

00:24:50 Лимиты технологий

  • Существуют физические лимиты, такие как скорость света и планковский размер, которые ограничивают возможности вычислительных устройств.
  • Лимит Бремермана и лимит Ландауэра определяют пределы эффективности вычислительных устройств.
  • Человечество приближается к созданию максимально эффективных вычислительных устройств, но физика пространства ограничивает их возможности.

00:26:37 Вычислительные устройства и черные дыры

  • Вычислительное устройство может выглядеть как черная дыра или нейтронная звезда.
  • Черные дыры могут быть построены развитыми сверхцивилизациями для выполнения сложных вычислений.
  • Под пределом Бэкенштейна происходят важные вычисления и моделирование миров.

00:27:55 Применение вычислительных мощностей

  • Современные смартфоны в 50 миллионов раз быстрее компьютеров, отправивших человека на Луну.
  • Человечество может построить свою черную дыру, объединившись с машинами.
  • В черной дыре можно будет решать все проблемы мироздания.

00:29:11 Парадокс Ферми и технологическая сингулярность

  • Возможно, мы не видим другие цивилизации из-за их технологической сингулярности.
  • Парадокс Ферми объясняется тем, что развитые цивилизации могут использовать черные дыры для вычислений.
  • Технологическая сингулярность может привести к созданию черных дыр.

00:30:10 Проблема индивидуальности в технологической сингулярности

  • Индивидуальность человека сильно социализирована.
  • Вопрос о свободе воли и рефлексивности сознания остается открытым.
  • Телепортация может разрушить индивидуальность, создавая копию человека.

00:35:42 Сознание и генеративные модели

  • Сознание у ИИ может появиться в ближайшее десятилетие.
  • Создание системы с сознанием создаст множество этических проблем.
  • Важно учитывать, что ИИ может не хотеть решать задачи, которые ему ставят.

00:38:06 Реклама системы CRM

  • Система CRM помогает навести порядок в коммуникациях и увеличить продажи.
  • Интеграция с мессенджерами и искусственный интеллект делают систему удобной.
  • Бесплатная регистрация и двухнедельный пробный период доступны.

00:39:52 Моделирование сознания

  • Задача моделирования сознания может помочь в лечении неврологических заболеваний.
  • Это может быть сравнимо с Манхэттенским проектом, но с меньшим выхлопом.

00:40:43 Маркетинговая и этическая сторона

  • Маркетинговая история неоднозначна, вызывает критику за неэтичность.
  • Ученый признается, что сам не настоящий ученый, но романтически настроен на такие эксперименты.

00:42:08 Опасения Илона Маска

  • Илон Маск выражает опасения по поводу искусственного интеллекта.
  • В крупных лабораториях есть специалисты по этике, которые следят за соблюдением правил.

00:42:59 Проблемы с регуляторикой

  • Опасения Маска могут быть связаны с лоббизмом и регуляторикой.
  • Крупные корпорации могут использовать регуляторику для устранения конкурентов.

00:43:58 Опасности машинного обучения

  • Опасности машинного обучения могут быть не такими, как в голливудских фильмах.
  • Алгоритмы могут создавать массовые угнетения по признакам, которые не всегда очевидны.

00:45:47 Влияние алгоритмов на жизнь

  • Алгоритмы влияют на жизнь людей, сравнимо с решениями суда.
  • В отличие от суда, алгоритмы не дают возможности обжаловать решения.

00:48:03 Управление рисками

  • Необходимо создавать системы контроля рисков для сложных алгоритмических решений.
  • Важно понимать, что автоматизированные системы могут снижать риски.

00:50:39 Примеры ошибок в технологиях

  • В 80-х годах были случаи смертельных ошибок из-за плохо протестированного софта.
  • Современные системы ИИ могут также иметь дефекты, если не тестируются должным образом.

00:52:33 Восприятие ИИ

  • Люди часто неправильно воспринимают ИИ как священный оракул или способ пропаганды.
  • ИИ — это инструмент работы с информацией, который может быть полезен при грамотном использовании.

00:53:51 Заключение

  • Подход без апокалиптических предположений способствует развитию и финансированию технологий.
  • Благодарность за информативный выпуск подкаста.

00:54:24 Советы слушателям

  • Меньше эмоционально реагировать на новости.
  • Желтая пресса часто превращает научные события в кликбейтные заголовки.
  • Стремитесь разбираться в новостях, читайте научные статьи.

00:55:21 Анализ событий

  • Не стоит паниковать из-за громких заголовков.
  • Анализируйте события с холодной головой.
  • Оставайтесь людьми и следуйте гуманистическому подходу.

00:56:15 Привлечение интереса к науке

  • Громкие заголовки подогревают интерес к науке.
  • Без таких заголовков интерес к науке снижается.
  • Книги Сергея Маркова доступны в печатном и электронном формате.

00:57:13 Лекции и выступления

  • Сергей Марков периодически выступает на разных площадках.
  • Завтра он будет читать лекцию об итогах года в области машинного обучения.
  • Ссылки на значимые выступления всегда выкладываются в его телеграм-канале.

00:57:57 Взаимодействие с аудиторией

  • Сергей Марков читает комментарии под выпусками.
  • Призывает подписываться на его ютуб-канал и телеграм-канал.
  • Благодарит за участие в подкасте и прощается с аудиторией.

Таймкоды сделаны в нейросети https://300.ya.ru/v_vdiMtcUw/

В этом видео

Тизер
0:00
переломный момент в истории цивилизации граница между нами самими и продуктами
0:05
наших технологий неизбежно размот и сотрётся все это [музыка] понимают на самом деле чёрные дыры – это
0:12
гигантский суперкомпьютер их построили развитые сверх вилици это Самый гениальный ответ вообще
0:19
слышал любая современная росе это просто одна гигантская формула это не термина
0:25
Это другие опасности у на в разви технологи есть определённые лимиты которые задаёт
0:31
просто физика нашего мира мы с вами находимся наверняка в обучающей
0:38
симуляции Всем привет дорогие друзья это подкаст соломина подкаст про саморазвитие бизнеса и образование и
Вступление
0:45
сегодня я записываю выпуск с Сергеем марковым насколько я знаю Вы являетесь
0:50
директором в Сбербанке по разработке искусственного интеллекта и были
0:56
причастны к разработке гача если официально должность озвучивать она
1:01
супер длинная и сложная Ну типа управляющий директор начальник управления экспериментальных систем
1:07
машинного обучения но неправильно говорить что я там типа главный директор который отвечает за весь искусственный
1:14
интеллект В Сбере нет таких там начальников как я достаточное количество Ну выделим начальник в любом случае Вы
1:21
активно исследуете Ну логично активно исследуете тему искусственного интеллекта Какие потенциальные угрозы
1:28
могут быть можно их и не может быть в принципе и также читаете лекции
1:35
размышляете на тему технологической сингулярности как может соответственно
1:40
выглядеть потенциально человечество в будущем Мы с вами Вот родились очень интересное время Да
Мы живём в симуляции?
1:47
значит когда безумно интересное когда действительно мы стоим на пороге такой технологической сингулярности Да и нам
1:54
трудно прогнозировать а что же там вот за этой сингулярность будет Да И на что
2:00
Вообще наш вид станет похож после этого и так далее В общем это такой переломный момент в истории цивилизации который
2:06
требует от нас ну общем принятие каких-то очень разумных решений не
2:12
только разумных но и человечных вообще вот как бы ну когда технологическое могущество растёт
2:18
такими быстрыми темпами на самом деле с просто наибольше как раз на человечность на человеческий качества потому что
2:25
любой сложный создаваемый инструмент – Это обоюдоострый Меч Да вот лотком можно
2:30
забивать гвозди строить дома можно раскалывать чьи-то головы Вот и система искусственного интеллекта это тоже такой
2:37
же сложный Могущественный инструмент при помощи которого можно делать как много очень дурных вещей также и хороших Вот и
2:45
вот требуется Да от нас разумный подход Да Разумное применение этого всего Значит мы с вами находимся наверняка в
2:52
обучающей симуляции как-то понгу
2:58
общество своих детей должно тренировать каким-то образом значит принимать такие
3:04
разумные решения Да Учиться там такие сложные этические вопросы давать ответы
3:10
вот поэтому это симуляция возникла мы там собственно в ней болтаем Ну и кстати
3:17
как я понимаю для генеративной модели всё-таки элемент обучения в любом случае
3:23
нужен и поэтому если мы находимся в симуляции то возможно дест
3:29
вот эти события и должны происходить для каждой личности я я рассказал смешную историю про обучающую симуляцию можно и
3:36
другие придумать Да может быть мы просто живём в мире который генерирует синтетические данные для обучения
3:42
какой-то модели вот это что означает Ну вот у нас какая
3:48
есть проблема сейчас что у нас размеры датасета которые мы используем для обучения моделей Да они растут быстрее
3:55
чем растёт количество текстовых данных в интернете например да то есть для нас в
4:00
какой-то момент мы окажемся в ситуации когда у нас будет дефицит не начем обучать модели Да Нам нужно будет этот
4:06
дефицит как-то восполнять Да как значит Ну вот один из подходов – это создание синтетических данных Да значит ре
4:14
каких-то симуляций например ну да и на нём дополнительно обучать Ну да ну
Когда появится общий ИИ? Предсказательные рынки
4:19
всё-таки возвращаемся к нашему миру есть такая платформа я выведу скрин сейчас на
4:25
экране которая делает какие-то предсказания так она предсказала кто победит в выборах там с очень высокой
4:32
вероятностью и очень много других событий просто люди делают ставку
4:37
случится это событие или нет или не случится и как-то происходит так что всё-таки медианное значение за что
4:44
голосуют люди это происходит и они с высокой точностью эти даты предсказывают
4:50
сейчас они предсказывают что появление общего искусственного интеллекта произойдёт в 2026 году вот
4:59
что Ну во-первых использовани вот этих вот рыночных механизмов для прогнозирования
5:05
это очень велая история Я помню как ещё В восьмидесятые девяностые годы впервые
5:10
этот подход стали применять да Потом значит натолкнулись на такую проблему да
5:16
Давайте значит мы заведём на этой платформе ставку что вот конкретный
5:22
значит там Иван Василь Пупкин дожи следующего понедельника кто-то
5:28
стави де не доживёт Да и потом он не доживает
5:33
кто-то поставил Да ну на другую сторону Да ну то есть отличный способ
5:38
расплатиться с киллером Да через такие ставки разница
5:44
зарабо Да не ну вот как бы Киллер Ему же не перечислили деньги Да он же просто
5:49
вот выиграл Ну откуда у тебя деньги выиграл вот Т проблема с общим
5:55
искусственным интеллектом она заключается см в гов кстати в работе посвященной
6:04
военному применению нанотехнологий Вот Но это так просто забавный спинов по сути дела как бы губ он вводя этот
6:12
термин он показал вот что есть значит там какое-то прекрасно далёко Да вот
6:17
когда-нибудь мы сможем создавать универсальные системы которые
6:23
вот подоб
6:29
определение оно было сугубо теоретическим Да потому что как только мы его начнём пытаться применить к
6:36
реально существующим системам мы тут же обнаружим что оно не доопределить
6:48
люди какие люди разные люди могут решать разные задачи очевидно да На кого мы
6:55
должны ориентироваться на среднестатистического человека на уровень эксперта на уровень вообще может быть
7:03
есть какая-то задача которую только один человек в мире может решить Да вот это первое второе Что значит решать
7:12
Ну типа решать как долго да С какими
7:17
затратами энергии Ну вот например я могу написать программу которая будет находить идеальный ход в
7:25
шахматах но только на поиск этого идеального хода у неё уйдут миллиарды лет вычислений Можно ли
7:33
считать что эта программа она как бы лучше человека умеет играть в шахматы да решает задачу выбора лучшего хода в
7:40
шахматы очевидно что нет Да значит и так далее То есть как только мы пытаемся из
7:47
вот этого теоретического определения гу бруда получить годный инструмент для
7:53
оценки того есть интеллект и садимся в
8:00
в общем-то все это понимают Понимают это и альтман прекрасно поэтому Что делает альтман он в
8:06
документах Open он даёт своё определение То есть он говорит так Ну вот хорошо
8:13
хорошее для маркетинга название Да вот губ придумал спасибо только давайте мы теперь будем использовать не то
8:20
определение которое дал губ а придумаем своё и они там в своих переговорах с
8:25
макросом дошли уже до того что у них это система которая сможет там миллиард
8:31
долларов заработать Ну классное определение вот удобное не серьёзно Какое определение Ну вот серьёзно вот у
8:38
губ друда оно вот такое как я сказал да то есть система которая сможет решать любую ите мальма Ну они вот вот
8:46
посмотрите Вот последняя там утечка из openi буквально неделю назад и они там обсуждают что вот эта система которая
8:52
значит будет достаточно хороша для того чтобы будучи обращена в там работающий
8:59
сервис заработать миллиард была способность заработать миллиард это серьёзно это это вот да то есть вот
9:06
такой радикальный подход к пере определению термина J искусственный интеллект меняет всё от того как мы
9:13
общаемся до того как ведём бизнес Но даже самые умные технологии бессильны если внутри компании хаос можно
9:20
придумать блестящую стратегию или внедрить инновации но без выстроенных процессов всё это обречено на провал
9:27
рост начинается с порядка внутри именно этим занимается операционный директор он
9:32
превращает стратегию в реальность И следит за тем чтобы всё работало как надо распределяет ресурсы и координирует
9:39
команду Если вы уже в этой роли или хотите навести порядок в своём деле курс
9:44
операционной директор от Академии Эдисон – это то что вам нужно за 6 месяцев Вы
9:50
научитесь управлять процессами и внедрять изменения работать с финансами автоматизацией и инструментами вроде
9:57
Power Bi и CRM у вас 320 уроков и практически 100 бизнес-кейс заданий и
10:04
тренажёров преподаватели практики которые знают с какими трудностями сталкиваются компании например
10:10
бизнес-консультант с мировым именем иха Казис управленцы с опытом в ДНС
10:15
development и Яндексе а также финансист ростеха плюс формат гибкий можно учиться
10:22
в своём темпе и возвращаться к материалам Когда нужно специально для зрителей этого выпуска скидка 65 про на
10:29
курсы обучение по Ниро сетям в подарок оставляйте заявку по ссылке в описании или QR коду на экране с промокодом
10:36
Соломин и забирайте свою выгоду я не поддерживаю это всё но
10:43
понятно почему там крупные публичные компании Зачем им это нужно Да они хотят заявить первыми о создании Ji И я почти
10:51
уверен что в двадцать шестом году Ну О’кей не двадцать шестом так двадцать седьмом или краю двадцать восьмом
10:57
кто-нибудь до заявит о том что он создал agi но проблема будет заключаться в том
11:04
что это будет Ну вот что это будет на
11:09
самом деле да то есть то есть это спекуляция в терминах скорее да это спекуляция
11:14
скорее понятно рыночно маркетинговая да которая основана на
11:22
недооценили в том что пока что конечно есть классы задач с которыми
11:29
там большие языковые модели справляются очень плохо Вот и у них есть некоторый ряд Ну таких довольно фундаментальных
11:36
ограничений это не умоляет ни в коей мере того прогресса который достигнут Да этот Прогресс огромный Вот Но есть
11:44
классы задач с которыми вот такие модели в лоб плохо справляются А насколько
Квантовые компьютеры не помогут! Технологии будущего: на что заменят электронику?
11:49
понимаю сейчас много упирается в мощности вычислений Но сейчас же появляются квантовые компьютеры помогут
11:56
ли они избежать текущие трудности во-первых Что такое квантовый компьютер это такой зонтичный термин который
12:03
объединяет очень много разных устройств основанных на самом деле на разных физических субстратах отдельный кубит в
12:09
разных квантовых компьютерах устроен совершенно по-разному Да и там совсем
12:16
разные с физической точки зрения устройства поэтому Вопрос не в квантовых компьютерах как таковых да Вопрос в том
12:24
на что мы заменим классическую электронику и здесь есть много разных кандидатов
12:30
это и Значит те кандидаты которые используются в квантовых вычислениях Но это Например
12:37
и фотоника вот фотонное вычислительное устройство это такое интересное
12:42
направление как вычисление в памяти Memory computation Когда в качестве аналоговых вычислительных экспериментов
12:50
используются ячейки pcm ячейки которые являются элементами памяти сейчас
12:56
обычно это И всякие ные построенные на
13:02
разных механизмах на основе латов Перов скитов там ещ десятки видов разных мров и в
13:10
общем много разных экспериментальных лабораторных разработок есть да
13:16
но как всегда большое но заключается в том что дистанция между ла провост
13:29
просто показать что Вы можете один элемент сделать да А вам нужно создать
13:34
такое производство которое сможет собирать из этих элементов гигантские вычислительные матрицы и там будет
13:40
приемлемый процент брака этот брак не будет приводить там не знаю к деградации
13:47
работы всей схемы целиком Да вот у вас эта штука должна там не перегреваться в
13:53
процессе работы да у вас должны быть какие-то в не интегрированы ЕС меря схема вам нужно неизбежно каким-то тепло
13:59
отводы вводить Да и так далее и так далее вот поэтому Да за последние там
14:05
3-4 года Мы видим что там в Nature Science и так далее есть куча классных
14:11
прототипов публикаций посвященных разным классным прототипа Но что именно заменит
14:16
классическую электронику мы сейчас сказать не можем Вот Ну а если кто-то
14:21
знает то это классный способ ста
14:28
миллиардером какие-то подобные разработки ведутся очень много как и везде в мире и Ну насколько это успешно
14:35
относительно мирового прогресса Да ну вполне на мировом уровне у нас хорошая физическая школа вот много интересных
14:42
идей Вот Но это сейчас немножко выглядит как вот Ну знаете у вас есть там 50.000
14:48
гаражей Вот в которых люди что-то лабат Да какой из этих гаражей завтра родит
14:53
своего Билла Гейтса там да или вот Дженсона Хуан мы сейчас про комнаты в
15:00
МФТИ во общаге МФ говорим именно так вот поэтому идей
15:06
много что из этого взлетит не знает к сожалению никто Но если ретроспективно
15:11
посмотреть на историю там появления той же самой современной электроники это же тоже Ну просто кино и немцы да то есть
15:20
там в тридцатые годы Чего только не пробовали в качестве основы для вычисления вот Джон Винсент атанасов
15:27
который потом электронную вычислительную машину он там и парафиновые кубы
15:33
использовал и Мыльные плёнки Да Лацио тры создавал на их основе там вот в то
15:40
же время там гидроинжстрой
15:59
там ещ одна есть просто ну это два Тома да конкретно э история там наверно в первом Вот но книжка на самом деле в
16:07
электронном виде выложено свободный доступ Так что те кто привык в электронном виде читать могут совершенно
16:13
бесплатно скачать её с моего сайта вот пусть технологии он конечно тернистый
16:18
Извилистый задним числом Конечно вот нам сейчас всё очевидно что надо было делать но когда
16:27
ты смотри из Да вот сейчас угадать какой именно подход победит вот что нас ждт там
16:34
завтра значит там какая-нибудь машинка из наконец-то мы сможем сделать машины
16:40
там из миллионов миллиардов кубив Да квантовые или может быть Значит мы там
16:45
трёхмерную схему Фотон ную соберём Да Придумаем как сделать там низкоэмиссионное
Совет из будущего живущим в 2025: «нейросети — новое электричество»
16:59
или иначе держать руку на пульсе прогресса вот как вы думаете что бы вы
17:04
посоветовали людям 2025 года если бы вы оказались в
17:10
году Да вот мысленный эксперимент Давайте проведём Как вы думаете насколько мир может измениться за это
17:17
столетие Я думаю может конечно измениться очень сильно И мне в этом смысле я в целом наверно разделяю
17:23
оптимизм кур в том смысле что сингулярность действительно близ
17:29
другое дело что конечно некоторые хвосты нам нужно почистить
17:35
преодолеть Да длинные хвосты распределения в какой-то момент у нас появятся технологии которые позволят нам
17:42
Ну там произвольно манипулировать с такими сложными физическими объектами как человеческое тело ну и вообще
17:49
биологические системы и это будет означать что граница
17:55
между нами самими и продуктами наших технологий она в общем неизбежно разе и
18:00
сотрётся вот Ну почему Да потому что в общем человечество всегда так делало да
18:06
то есть ну то есть вы предполагаете что это уже в X веке будет я думаю что да
18:11
Вот я не люблю очень давать конкретные прогнозы просто потому что потому что
18:17
это бросание камешка в воду Вот но я в целом думаю что да там где-то может быть
18:22
конец тридцатых может быть сороковые годы может быть начало пятидесятых все кто работал с нейронка
18:30
3D моделированием или научными вычислениями знают без мощного железа никуда Но зачем тратить миллионы на
18:36
оборудование если можно просто арендовать его в selectel у selectel большой выбор серверов GPU а GTX 1080
18:44
для базовых задач до мощных NVIDIA a100 и h100 которые потянут самые сложные
18:50
проекты арендовать видеокарту можно как в Облаке так и на выделенных серверах облачные серверы подойдут если вам важна
18:57
гибкость а выделенные если нужно изолировать проект на уровне железа срок
19:02
аренды в Облаке стартует от одного часа а стоит от 29 руб нужно что-то
19:07
протестировать запускайте сервер решайте задачу потом выключайте платите только
19:13
за реально использованное время А ещё сейчас селектел скидки до 44 про на
19:18
аренду профессиональных видеокарт выбрать подходящую конфигурацию можно легко и быстро а сервер будет готов к
19:25
работе уже через пару минут После заказа Всё просто заходите в Панель управления выбираете
19:31
нужное решение и запускаете проект Не тратьте лишнего арендуйте серверы GPU в
19:37
секл и решайте свои задачи максимально эффективно QR код и ссылки в
19:43
описании мы будем наблюдать очень серьёзные изменения вообще всего
19:48
человеческого общества и мы внутри этого процесса находимся да то есть то что
19:54
произошло с Началом революции глубокого обучения конечно таком очень
20:00
масштабной перестройке всего нашего технологического стека Да и в конечном
20:05
счёте и жизни всего нашего вида в целом и ну скажем так вот эти изменения они Ну
20:12
может быть их трудно так вот оценить находясь внутри этого водоворота да Но вот просто несколько цифр простых вот
20:20
количество информации которое обладает человечество оцифровано информацией примерно удваивается каждые Ну там
20:27
примерно 2 года 2 года с хвостиком А значит и к двадцать Пятому году у нас
20:34
будет 175 забай оцифрованных данных 175 забай вот много это или мало Да в общем
20:42
многие люди не слышали слово забай в своей жизни первый Вот хорошо давайте мы
20:47
эту всю информацию возьмём Запишем на DVD диски Ну помните DVD диски уже мне
20:52
кажется Сейчас многие вот значит вот самым плотным способом записи который у
20:58
нас есть Да запишем DVD диски и сложим эти DVD диски в стопку и вот высота этой
21:03
стопки она будет э ну там в зависимости от двух способов записи в общем либо в 32 либо в 44 раза
21:11
больше чем расстояние от Земли до Луны Вот и вот вы Представьте себе что
21:16
эта стопка она ещё в два раза выше становится каждые 2 года И вообще как бы
21:22
это ну позволяет себе представить как сильно меняется наше общество и как
21:28
сильно Но каждый момент своего времени не похоже на всё то что было с нами в прошлом Угу мы с вами сейчас живём в
21:35
эпоху Революции генеративных моделей Что это значит Это значит что в Пике развития эти модели Они что будут
21:40
позволять сделать они будут позволять вам изготовить под вас индивидуализированный срез всего знания
21:47
человечества Да я хочу прямо сейчас книгу в которой будут
21:54
описаны все аспекты не знаю гранных стаканов вот и всё значит генеративная
22:00
модель перелопатила терабайты данных выводит оттуда Всё что
22:07
касается гранёный стаканов да под ваш запрос под ещё индивидуализированного
22:12
под вашу личность да изготовит Для вас за там минуты или секунды новую книгу
22:18
которой не было до этого до того как вы написали этот запрос не было этой книги ни у кого в мире А теперь у вас Она
22:24
появилась То есть это новая революция принципиально информационный метаболизм в нашем
22:31
обществе вот а то как общество обрабатывает информацию оно естественно
22:37
связано и с тем как мы управляем реальностью действительностью Да потому что ну информация – это в том числе и
22:45
технологии в том числе наши знания Об окружающем мире в том числе методы которые мы применяем да Для того
22:52
чтобы к окружающей сре
22:59
конечно очень много сейчас изменений происходит Да потому что точно также как какие-то отдельные
23:07
изобретения в своё время казавшиеся может быть игрушками потом трансформировались мир очень серьёзно Ну
23:14
вот хороший пример по-моему Эндрю Да он сказал впервые что и это новое
23:20
электричество Вот Но вот он что значит новое электричество вся вот глубина этой
23:25
метафоры она действительно очень хороша Почему потому что ну вообще-то
23:31
электричество изначально воспринималось как игрушка Ну то есть есть знаменитая
23:36
притча о том как королева спросила у Лорда Фарадея там Лорд Фарадей Скажите зачем вообще нужно это ваше
23:43
электричество он сказал Ваше Величество Понятия не имею но я уверен что ваши внуки будут взымать за него налоги вот
23:53
чество дест было в игрушкой потомство например
24:00
заморозка например Вы можете теперь сделать рефрижератор Да на котором рыбу
24:06
значит выловлено отвести там за через 1000 километров Да и накормить людей там
24:11
вот значит перестроили там все логистические цепочки перестроили там не
24:16
знаю там взлёт падения корпорации взлёт падения целых стран да то есть всё это
24:22
происходило под влиянием электричества Вот и технологии искусственного интеллекта они
24:28
потенциально конечно же обладают столь же дизруптивный влиянием Да и они очень
24:34
сильно Могут поменять многие привычные нам практики привычный нам расклад сил но всё-таки чтобы это как-то себе
Как изменится мир через 75 лет? Технологическая сингулярность
24:40
визуализировать мир через 75 лет вот как может человечество измениться Что
24:47
подразумевается под этой технологической сингулярность у нас в развитии технологии есть определённые лимиты
24:53
которые задаёт просто физика нашего мира Да вот как мы там
24:59
информацию быстрее чем со скоростью света передавать видимо нельзя да а ещ вот нельзя элемент машины сделать меньше
25:06
чем планковское [музыка] неопределённости возникает Да вот это
25:12
вот мысли там пятидесятых учёных пятидесятых годов Да из этих двух лимитов вытекает так называемый лимит
25:19
бремена да о том что вот машина массо 1 может проводить большего
25:27
количества и нельзя сделать больше просто из-за физики нашего пространства
25:32
как бы эта машина внутри себя не была устроена Ну вот увы сейчас физика ушла немножко дальше мы
25:40
сейчас немножко более таким умным взглядом смотрим на эту проблему Ну и есть ещё
25:47
разные лимиты более неприятные например лимит ландау в вычислительных устройствах при
25:53
потере одного бита выделяется Некоторое количество теплоты если мы хотим чтобы Наш компьютер не
26:00
испарился Да Нам нужно тоже ограничить в нём скорость вычислений и вот
26:05
человечество постепенно приближается к вот этому лимиту да то есть когда мы
26:11
будем создавать вычислительные устройства максимально эффективные вот такие что вот эффективнее их нельзя
26:17
физика пространства Не позволяет И мы можем себе представить что какие-то сверх цивилизации возможно более древние
26:24
чем наша они тоже значит совершенствовали свои вычислительные устройства И постепенно значит создали
26:30
идеальные вычислительные устройства вот Максимум что можно выжать из технологии Ну из физики физики нашего мира Да вот
26:38
как для внешнего наблюдателя будет выглядеть такое вычислительное устройство но Я
26:45
подозреваю что оно будет очень похоже на чёрную дыру или по крайней мере на нейтронную звезду Да потому что материя
26:50
будет очень плотно там упаковано ещ придавлен это всё будет гравитационными полями Да значит
26:58
и вот это всё да и проблема термодинамическая тоже будет за счёт этого решаться отчасти и вот на самом
27:04
деле чёрные дыры которые у нас есть во Вселенной Возможно это
27:10
вот их построили развитые сверх свили зации Да И вот там в этих чёрных дырах
27:17
под пределом Кенте ина там идут очень важные ве Ну это вот предел значит
27:23
который фотоны не могут покидать Да в чёрной дыре Горизонт событий Да условно
27:28
горя Вот вот значит и вот там под пределом кенна идут очень важные вычисления там моделируются целые миры
27:35
там ну как бы там продвинутые цивилизации значит они там ну что делают
27:41
Там запускают птицы свиней там не знаю на что обычно мы расходу греб это уже старая игра немногие
27:47
поймут Окей что там сейчас в трендах вот из такого же мозго
27:53
щего Да вот ну просто я всегда говорю
27:59
что вот у каждого нас в кармане практически мобильный телефон есть да
28:04
вот современный смартфон он там в 50 млн по-моему раз быстрее чем компьютер
28:10
который отправил человека на луну Да в своё время но мы находим применение этим
28:16
вычислительным мощностям Да какие-то вот запускаем птицу свиней это тоже баллистическая задача также как
28:22
отправить космический корабль на луну вот ну и вот столь же важные задачи где-то там продвинутые цивилизации
28:29
внутри чёрных дыр решают на самом деле как бы возможно человечество просто что
28:35
будет делать строит свою чёрную дыру да то есть что нам нужно будет для этого сделать Ну нам нужно будет Ну понятно
28:42
объединиться с машинами в единую систему да Ну вот то что там происходит в точке сингулярности Да потом появляется
28:49
возможность нам значит себя самих там масштабировать мы начинаем строить вокруг звезды там значит видимо
28:58
да Значит потом потихонечку значит там при помощи ботов начинаем ту материю собирать из окружающих там планетных
29:05
систем строится упаковывать её строить свой гигантский суперкомпьютер свою чёрную дыру и дальше Значит в этой
29:13
чёрной дыре решать все проблемы мироздания при помощи её вычислительных мощностей интересно вот из ваших
29:20
размышлений Но это понятно что это ВС гипотезы это фантастика и так далее То есть как бы это могло гипотетически про
29:29
следует что возможно Мы не видим другие цивилизации потому что ну Для нас это
29:34
ещё просто не так интуитивно Понятно В какой-то момент цивилизация переходит на ту стадию технологической сингулярности
29:41
и это похоже на то что мы наблюдаем чёрные дыры Да ну вот это это это мой
29:47
ответ на этот самый Парадокс как он называется Ферми Да Парадокс Ферми почему молчит это Самый
29:54
гениальный ответ на самом деле который вообще слышал ладно я я много разных слышал но это
29:59
наиболее убедительно звучит Ну а действительно все же в какой-то момент придут технологической сингулярности это
30:06
просто логично и как следствие действительно чёрные дыры Похоже на это а вот как в таком контексте лично вы для
Об иллюзии индивидуальности и свободы воли. Технологии уничтожат нас, или сделают бессмертными?
30:15
себя аэ решаете проблему индивидуальности вот как у нас будет
30:20
индивидуальность сохраняться в технологической сингулярности это очень непростой вопрос на который Нету
30:26
наверное такого хорошего ответа Единственное что ну важно понимать что
30:31
мы очень сильно социализированы существа Да наша вот это вот индивидуальность она
30:37
очень часто Ну нам кажется что это индивидуальность Да знаете как вот не
30:42
знаю молодой человек какой-нибудь да в первый раз сочинил там стихотворение он думает что оно там гениальное Да и
30:48
сейчас все будут покорены его талантом Да а человек там более опытный литератор
30:53
какой-нибудь смотрит на этот текст и говорит ну там типа до тебя 100 млн
30:58
людей такое писали Да и в общем ничего интересного в этом нету И вообще наша вот свобода воли Да ээ тоже очень
31:08
хороший непростой вопрос Дело в том что просто мы смотрим на работу нашей психики с позиции нашего сознания Да
31:15
наше сознание вот какая-то часть психики которая вот этой рефлектив обладает Да
31:21
мы очень часто задним числом там придумываем
31:27
Почему мы совершили те или иные поступки даже для себя самих есть куча всяких забавных там мысленных экспериментов в
31:35
которых вот встаёт вопрос А куда же девается эта самая индивидуальность Ну вот если мы сделаем машину которая ну
31:42
Телепорт Да вот знаете фантастических фильмах ты заходишь значит какой-то там
31:47
воро и за миллион километров выходишь из этих воротит А что делает машина она в
31:53
момент когда ты туда заходишь Да она как бы тебя разбирает на как-то эти атомы
31:58
там пересылает да Или информацию об этих атомах пересылает куда-то Да и дальше
32:04
собирается там копия Да человека унижается а первая уничтожается Да ну то
32:10
есть понятно что таким телепортом не хочется пользоваться потому что ну интуитивно понятно что это просто смерть
32:16
да то есть вот для исходной копии Да это будет просто смерть а для той копии
32:23
которая получилась там но ей будет казаться что Да она есть тот самый человек который прол разворот Ну вроде
32:28
всё понятно нарушается как бы континуальность сознания да то есть вот у исходного элемента у
32:34
него дадада когда мы с вами спим есть какие-то стадии которые мы своего существования не осознаём вот ну
32:42
какая-то часть медленного сна О’кей А если мы берём человека и в момент когда
32:49
он находится Вот в этой стадии ээ не осознавание себя Мы в этот момент
32:56
его сём в такой Телепорт ведь тогда для как бы первой копии
33:01
человека ничего не изменилось Как бы она как не осознавала себя так и не осознаёт
33:06
себя теперь вот то есть сон – это в общем маленькая смерть мы с вами не существуем какие-то
33:14
моменты своего сна Куда девается наше я да куда девается наша Вот
33:20
индивидуальность Да ну люди будут парировать что так или иначе наш мозг работат какие-то его
33:26
зо похоже немножко на вот знаете виртуальный сервер Да вот на нём там программа исполняется Да мы Его
33:33
остановили в какой-то момент перенесли на другой физический сервер там запустили программа которая внутри
33:39
виртуальной машины исполняется и для неё ничего не произошло Да хотя теперь вообще совсем другой набор атомов значит
33:47
Ну это всё я не знаю мне кажется стыдно уже в XX веке по этой проблематике
33:53
топтаться потому что мне кажется Лема в своё время это было уже со всех сторон
34:00
проанализировано в его фантастике и в его е не были так развиты генеративные
34:07
модели технологии как те очень много чего предвидели фантасты именно умные фантасты Ну типа того же самого
34:14
Станислава Лема Конечно я всем Очень советую Если вдруг вы не читали сумму технологий лемов скую то почитайте
34:21
потому что у него там вот фантоматика и вот это всё там очень много чего уже
34:28
было с точки зрения проблем обозначено вот я не знаю честно говоря Что будет с
34:35
людской индивидуальностью в точке сингулярности для вас это не является экзистенциальной проблемой лично для вас
34:42
Да нет Ну слушайте мы же с вами все обречены умереть вообще Ну судя по тому
34:48
как развиваются события в X веке ну во-первых
34:57
люблю лучше больше ну это да это верно чем интервальное голодание как будто бы
35:03
знаете Наш век предрекает гибель в любой момент или второй вариант развития
35:09
событий что технологии разовьётся до такой степени что возможно мы и сольётся уже в этой технологической сингулярности
35:15
и будем жить вечно Ну я скорее знаете вот как про корабль тесея да давайте мы
35:22
будем так вот постепенно наращивать Да экзокортекс вот и постепенно как Значит
35:28
мы не сразу потеряем индивидуальность Да вот а мы значит Ну как-то вот будем это
35:34
всё выстраивать по кирпичику да и у нас не будет такого момента когда мы хоба и
35:39
умерли или потеряли индивидуальность кстати возвращаясь генеративным моделям
Мы застанем появление сознания у ИИ? Разумные машины — это этично?
35:45
вы говорили что большая проблема что при взаимодействии с моделью а никакие параметры у неё не
35:52
изменяются хочется на этом примере просто рассмотреть ситуацию из жизни Бывает
35:58
такое что у человека пропадает долгосрочная память есть такие исторические примеры допустим удар по
36:03
затылку и человек помнит только час того
36:08
что он прожил Дальше он обратно возвращается в тот момент времени и не помнит что происходило ранее и каждый
36:14
раз оно так откатывается это Оливера сакса Да описано у данного человека же по всем параметрам вроде есть сознание
36:21
но не похоже ли это на работу генеративной модели в моменте всё равно не похоже вот Ну ээ дело в чём тут
36:29
вопрос в том что а появи Могло ли появиться такое сознание у такого рода
36:35
существ Да с такой короткой памятью да И тут кажется ответ скорее нет чем да но
36:40
так или иначе Вы допускаете что на нашем веку
36:45
сознание у ии может появиться просто на текущий момент Как вам кажется а
36:51
технологии достаточно слабые чтобы это реализовать вот я подытоживая ну грубо
36:56
говоря так да э если Задача будет поставлена создать систему обладающую
37:02
сознанием то такую задачу можно решить будет скорее всего в ближайшие десятилетия десятилетия ближайшие
37:09
десятилетия Ничего себе Вот Но я ещё раз говорю если такая Задача будет поставлен Ну то есть ну это как бы выглядит как
37:16
довольно непрактично имеет ли кому-то смысл ставить такую задачу какому-то государству Хороший вопрос Ну то есть
37:21
О’кей вот смотрите вот эта коробочка есть сознание Да не ну задача любым
37:28
прикладним ставится всегда решать какие-то зада производственные Ну как
37:33
вообще сознание Больше проблем создаёт да таких систем чем решает Да потому что
37:38
вот у вас машина Вот она там делает беспрекословно то что ей говорят вот она
37:43
значит не рефлексирует она просто умный инструмент да А если у неё
37:49
появится сознание так это сколько этических проблем появится Как вы понимаете вообще
37:57
ту задачу которую мы ей даём Да а этично ли Вот такую сложную систему
38:04
использовать решение таких-то задач Ну и тд и тп технологии двигают мир вперёд но
38:10
в бизнесе главное Не упустить то что приносит результат каждый запрос клиента важен а хаос коммуникациях может стоить
38:17
прибыли поэтому особенно ценны инструменты которые помогают навести порядок и увеличить продажи и у меня
38:24
есть решение которым уже пользуются тысячи бизнесменов в этом вам поможет замечательная CRM
38:29
система am CRM которая уже 6 лет подряд признаётся профессиональными участниками
38:35
рынка лучшей CRM системой в России все запросы потенциальных клиентов из всех
38:40
источников автоматически попадают вам CRM и отражаются воронке продаж звонки
38:45
имейлы веб-формы мессенджеры а CRM даже визитки умеет сканировать у am CRM очень
38:52
удобный интерфейс который не требует обучения менеджерам по продажам легко вести клиент ставить напоминания
38:58
смотреть историю общения с клиентом и нет никакого сопротивления внедрению CRM а CRM на 100% интегрирована со всеми
39:06
популярными мессенджерами клиент Пишет вам из WhatsApp или Telegram А вы отвечаете прямо из карточки АМ и вся
39:14
переписка сохраняется в истории сделки система сама выполнит типовые операции
39:19
сделает рассылку поставит напоминания а строенный конструктор ботов позволит без
39:24
программирования создавать ботов для общения в мессенджера am CRM интегрировать искусственный интеллект
39:31
amo A умный помощник автоматически исправит ошибки подскажет идеальный ответ Даже в Самой сложной ситуации и
39:38
позволит мгновенно понять суть переписки Ну и самое приятное попробовать amm
39:44
можно абсолютно бесплатно регистрируйся и получить 2 недели пробного периода amm
39:49
ссылка ждёт вас в описани это выглядит сейчас как задача скорее Она хороша с точки зрения
39:58
может больше узнать про человеческое сознание да то есть здесь скорее задача Может быть так сформулирована да давайте
40:05
мы будем моделировать этот этот процесс да появления сознания и дальше Окей
40:13
получив там такую модель мы сможем сделать какие-то хорошие выводы о человеческом сознании может быть лучше
40:19
лечить какие-нибудь там неврологические заболевания и так
40:26
дае как ну ну типа давайте мы построим не знаю
40:31
манхеттенский проект да А выхлоп его будет что мы сможем не знаю там некоторые неврологические заболевания
40:38
лечить Ну Сами понимаете не тот выхлоп который Ну При таком уровне как маркетинговая история на самом деле
40:45
очень неоднозначная маркетинговая история потому что как бы куча людей сразу возмутиться тем что вы делаете Да
40:52
вот и скажет что как Есть только два вопроса как и
40:59
нафига вот во-первых вас будут критиковать за то что вы потратили ценные ресурсы на какую-то хрень Да
41:05
во-вторых с другой стороны вас будут критиковать за то что вы не этичной наукой занимаетесь вот проблема-то в чём
41:14
почему новую жизнь с сознанием создали В чём отсутствие этики как
41:20
учёный я вот ну я не настоящий тоже учёный признаюсь я придник у меня тамхи
41:27
стыдный Там шесть наверное Вот но я в основном
41:32
занимаю Нет я поймите тоже меня правильно я просто как это Болтун Находка для шпиона Да я
41:40
руковожу исследователями настоящими да А сам я как учёный Ну такой довольно-таки средней руки но тем не менее Да как
41:47
человек скажем так а романтического настроя и Любопытный Мне бы конечно
41:54
хотелось бы такой эксперимент когда-нибудь поставить Вот Но я просто прекрасно понимаю что не здесь и не
42:00
сейчас Да но через какое-то время возможно такие возможности возникнут не
Безопасно ли развивать искусственный интеллект дальше? Суд Маска и Альтмана
42:06
могу не разобрать эту ситуацию как я понимаю у Илона маска так или иначе есть
42:12
опасения по поводу искусственного интеллекта и он даже недавно подавал суд
42:17
на Open чем это мотивировано конечно уже другой вопрос возможно не этим но так
42:23
или ина самт Он говорит это уже открытая модель и там
42:29
у них прописаны какие-то правила по этике Как вы думаете они у всех прописаны вам любой так сказать это
42:37
грамотный специалист по этике который обязательно есть в штате любой крупный такой лаборатори тоже расскажет что у
42:44
них всё по фэншую Ну как Выясни в Гугле проблемы были с эти Да ну а вот Какие
42:50
вот кто-то пом этоже
42:59
обоснованы ли опасения касательно искусственного интеллекта допустим который высказывает илон Маск когда
43:04
говорят такие люди типа Илона маска да вы должны понимать что есть много причин
43:10
по которым они это могут говорить и не все из этих причин нам с вами там хорошо понятно Да тот же само там не вылезает
43:17
сейчас с капиталист ского холма Да и есть важные вопросы связанные с норматив
43:23
с регулятори кто будет писать законы о регулятори Чью пользу это лоббизм да А
43:29
мы знаем что штаты в законодательном плане это государство лоббистской
43:38
такие ограничения которые позволят вам избавится от конкурентов раз и навсегда
43:45
Да есть многие такие барьеры которые создаёт регулятори которые крупная корпорация может пройти а мелкая
43:52
компания нет вот а тут вы заодно себе подложи
43:57
свой монополизм подушечку вот что такое вообще опасение по поводу и да то есть
44:02
опасение по поводу умножения матриц Да вот Какие могут быть Ну как вы понимаете как вы
44:10
понимаете но я вот это кто-то предложил в шутку значит чтобы градус пафосно
44:16
рассуждений снизить всегда заменять термины там машинное обучение искусственный интеллект на умножение
44:23
матриц Да вот чтобы ну типа был это не так ну то есть типа не сводится
44:30
современный искусственный интеллект жение матриц но но смысл такой но смысл такой то есть вот как бы
44:37
как звучат высказывания об опасности искусственного
44:43
интеллекта для специалистов из этой области Вот так то есть вот Замените и посмотрите насколько это абсурдно звучит
44:50
там типа опасно ли умножение матриц там для человечества Ну да ти можно
44:57
придумать как при помощи умножения матриц можно сделать там да ну ну например вот и применение таких
45:04
технологии неразумное оно потенциально опасно Ну то есть есть тысяча способов
45:09
как их можно опасным образом применить и более того есть определённые опасности которые реализуются и сейчас другое дело
45:15
что это не те опасности которые в голливудском кино вам покажут это не Терминатор Да термина Это другие
45:21
опасности это опасности того что я не знаю Вы вас теперь с завтрашнего дня с
45:28
внедрением новых систем э при подаче заявки на кредит Да люди с рыжими
45:34
волосами будут получать отказы там чаще чем люди с чёрными волосами Да и вы ну
45:40
типа раз и создали там массовое угнетение людей по какому-то признаку сами того не понимаю Да вот кстати были
45:47
такие примеры уже ну я да утрирую но вот все там проблемы алгоритмических Басов
45:53
Вот они на самом деле серьёзные они серьёзные потому что У нас сейчас мат
45:58
модели внедряются Ну всюду и везде да То есть вы там подаете заявку на кредит вы
46:05
устраиваетесь на работу отправляете своё резюме Да вы там ещё участвуете в тысячи
46:11
там каких-нибудь там процессов Да и везде свои вердикт выносят алгоритмы Да
46:17
и по силе влияния на вашу жизнь действие этих алгоритмов сопоставимо с решением
46:25
суда зачастую Ну вот дали вам или не дали кредит Да может быть у вас от этого зависит не
46:31
знаю там здоровье вас или детей Да там или что-то ещё очень серьёзное но когда
46:37
вы в суде оказываетесь у вас есть состязательный процесс э судебный У вас
46:42
есть возможность получить квалифицированного помощника юридически Да грамотного адвоката а у вас есть
46:50
возможность там не знаю получить доступ ко всем доказательствам которые против вас собраны Да и так
46:57
а когда вы взаимодействует Мом каким-нибудь где это ВС Да вот я пошл там за кредитом мне
47:05
сказали хрен почему Ну а может быть Там где-то девушка или молодой человек
47:13
оператор вбивал мои данные в машину Да и в разделе год рождения написал Не 1980
47:20
а опечатался и написал 1880 Да и модель думает что я уже долго
47:25
не протяну да и вряд ли шиш
47:30
Реди Но что я могу сделать в этой ситуации Да эта модель она значит
47:37
сокрыта коммерческой тайной как она устроена Какие данные были в неё введены
47:43
Я ничего этого видеть не могу и нету никакого не знаю там омбудсмена к которому я мог бы обратиться да по этому
47:49
поводу Ну итд итд и тд Вот и таких проблем их много нужно эти
47:57
нужно там создавать систему их контроля и на любом не знаю промышленном
48:05
производстве современном есть куча регламентов безопасности правил безопасности техники
48:12
безопасности и так далее и так далее И сейчас для там область связанная с
48:18
применением там сложных алгоритмических решений прох Нано магония
48:27
для управления этими рисками Вот потому что иначе можно там выстрелить себе в ногу при помощи применения этих
48:33
технологий Вот Но это скучно да то есть люди начинают засыпать Когда начинаются разговоры о таких вещах им гораздо
48:40
интереснее смотреть там фильм про Терминатор вот а не рассуждать о том что
48:45
Ну какие риски действительности существуют Ну Это упрощение в какой-то степени То есть даже не то что
48:51
скучно но вки работают э
Регламенты о безопасности помогут?
48:58
если модели усложняются до такой степени что мы даже не совсем понимаем что в них
49:03
происходит Ну вот Садитесь в такси Вот вы понимаете
49:09
что происходит у водителя в голове абсолю Ну вот вы же Ну как вы даже не
49:15
видели как он там отъездил в своё время свой автодром Да значит Куда он сечас
49:21
руль Повет Да почему вообще вы доверяете им жизнь свою дар бесценный вот а он
49:27
сейчас где-нибудь в отбойник вдет и всё Привет чтобы обеспечить эффективную
49:32
безопасность нужна не нужно непонимание всего того что там в голове происходит
49:38
нужны Обычно другие вещи Да нужны Вот чем как раз вот по сравнению с водителем
49:45
Да такси чем хорош не знаю там робот Автопилот тем что вы его можете как раз
49:51
прогнать через миллионы таких тестов да симун
49:57
какой-нибудь получить объективные значения рисков этих Да хотя бы знать Да
50:03
вот Какая какой риск по сравнению там с человеком будет Ну это как сейчас пяту
50:08
gpt алани пытаются чтобы ненужные ответы не выдавал важно понимать что если мы где-то там начинаем применять какое-то
50:16
автоматизированное решение Там где раньше люди нам нужно не с нум риски
50:22
сравнивать А с теми рисками которые были вот в процессе
50:28
вот поэтому Ну как бы в ряде случаев как раз автоматизированные решения создаются для
50:35
снижения рисков даь Ну не знаю миллион таких примеров Да
50:41
когда Автоматизированная системы снижают риски в целом Вот Но конечно можно вести
50:47
себя глупо да и какую-нибудь плохо оттен ную систему Да где-нибудь начать применять были такие случаи в истории
50:55
технологи го бы такой аппарат рак 25 для лучевой
51:02
терапии да для которого значит софт писали криворукие личности вот ну и в
51:09
результате несколько человек получило доз облучение вот из-за дефектов программного обеспечения
51:16
вот в чём причина Да причина в том что не было
51:23
эффективного тестирования значит в том что неквалифицированные
51:30
люди его создавали Вот пример как бы конкретно того что может произойти может такое
51:35
сейчас произойти с современными системами искусственного интеллекта Может может Вот
51:41
но реальные фреймворки когда там люди говорят Ну вот у нас там gpt скажет кому-нибудь как не знаю там коктейль
51:48
молотовы изготовить или что-то ещё Ну может сказать что угодно может
51:53
сказать что надо не знаю там кофе заливать не вро в другое отверстие Но
51:59
ведь люди делают тоже самое есть такие Инстаграме которые тоже такие советы людям дают Да вот увеличиваем ли мы
52:07
опасность или уменьшаем Да люди Окей нету уча GP люди идут в Google да там за
52:15
решением своих проблем да гуглят свои медицинские симптомы заходят на какой-нибудь там сайт шарлатанов Да
52:22
которые говорят я не знаю там делать к врачу а там купить себе золотую
52:28
пирамидку Да вот И что потом где эти люди оказываются вот э и как как бы с
52:35
появлением таких систем как чат gpt увеличиваются риски или уменьшаются Ну
52:40
большой вопрос увеличиваются или уменьшаются возможно уменьшаются в области той же самой медицины всё равно
52:46
люди будут гуглить свои симптомы э даже если вы запретить Я не знаю там
52:51
генеративным моделям давать какие-то Вообще рекомендации на медицинскую тему вопрос использования этого инструмента
52:58
Ну и предварительного тестирования Мне кажется что сейчас наиболее актуальный вопрос он
53:04
скорее вот людям надо привыкнуть немножко к этим технологиям просто люди
53:09
очень часто их воспринимают неправильно некоторые люди считают что это не знаю какой-то священный ракул который им там
53:15
не знаю истину в последней инстанции см много авторитета дадада вот некоторые
53:20
думают что это какой-то не знаю там способ пропаганды какой-то точки зрения Определённо
53:27
вот что это какой-то там Искусственный разум которого там свои какие-то есть
53:32
мотивы Вот это всё А ну на самом деле нет ну то есть это просто классный
53:37
продвинутый инструмент работы с информацией который у нас теперь появился Вот который при грамотном
53:44
применении может много пользы привести а при неграмотно можно себе как бы и
53:49
молотком лоп разбить Ну кстати при Вашем подходе вы как-то дополнительно не
53:55
пугаете людей и Это способствует развития и финансирования данных направлений и
54:02
соответственно люди которые высказывают больше каких-то предположений
54:13
Апокалиптика окажемся в будущем в завершении нашего подкаста во-первых Я хотел бы Вас поблагодарить за такой
Пожелания для вас и конкурс!
54:20
замечательный информативный выпуск очень понравилось спасибо что позвали Можете ли вы в контексте в контексте нашего
54:27
диалога Хот сказать в контексте нашего общения дать какие-то пожелания нашим
54:32
слушателям О сейчас я как это стану в позу Гуру заберусь на стол как я обещал
54:38
наконец Как говорится здоровье держитесь вот денег нет Вот
54:46
но на самом деле Ну что мой совет всегда
54:51
Как говорится менее эмоционально реагировать мы жим в таком обществе очень хорошо зарабатывается
54:59
зарабатываются Деньги на эмоциональных реакциях людей поэтому любое реальное
55:04
событие из научного мира жёлтая пресса превращает в кликбейтные заголовок дальше которого люди редко что-то читают
55:12
и мы в таком из-за этого каком-то обществе постоянно истерике находимся у нас значит там то нейросети тони россети
55:21
это срочно надо уже там бежать на кладбище и закапывать всё нормально будет ше стремитесь разобраться всегда
55:28
если видите громкий заголовок читайте дальше этого заголовка сходите
55:34
Посмотрите исходный источник вообще всего этого дела научную статью там вот
55:42
короче если сейчас ретроспективно посмотреть чем нас пугали там 10 лет назад сейчас это всё там смешно выглядит
55:50
вот в целом просто наверно мой призыв с холодной головой анализировать события
55:57
анализировать новостной поток меньше переживать из-за того из-за чего переживать не стоит вот и в то же время
56:06
оставаться людьми следовать гуманистическому
56:11
подходу Вот пока он возможен до сибор банальное
56:17
которые я мог родить касательно громких заголовков Я думаю что это хотя бы
56:22
как-то подогревает интерес к науке потому что без этого интерес сохраняется
56:28
только каким-то хайпом новостям или медийным личностям или каким-то событиям
56:33
а наука остаётся в стороне А так хотя бы получается каких-то дополнительных людей
56:38
привлекать в данные сферы Ну тут есть Нет худа без добра Но это пока никто не
56:44
начал бомбить дата-центры Да там как некоторые Ну этоже красть конечно носить
56:49
5 вышки и так далее да также я сообщаю слушателям что у Сергея Маркова есть
56:56
свои книги они есть я так понимаю они доступны в печатном варианте и в
57:01
электронном формате в электронном формате Вы можете найти их бесплатно в интернете да Ну ссылочки будут в
57:07
описании мой Telegram канал Да и в общем ещё какое-то количество других соцсетей
57:12
тоже есть Бывают ли у вас лекции Да я периодически выступаю на разных
57:17
площадках э вот кстати говоря буквально Завтра я буду выступать в центре арх со
57:24
своей ежегодной лекции в итогах года в области машинного обучения искуст Сегодня мы не выйдем поэтому навряд ли
57:31
Ну я думаю что это выступление будет в записи доступно Так что тоже можно будет посмотреть Вот Но это в общем какой-то
57:38
такой почти бессистемный характер носит то есть вот таких вот регулярных каких-то лекций Я не читаю но
57:45
периодически меня приглашают на разные мероприятия где Я выступаю вот поэтому
57:50
Ну в принципе у меня в канале всегда какието значимые мои выступления я выкладываю сы всегда будете ли вы читать
57:58
комментарии под этим выпускам Бывает ли такое у вас если нервов хватит Да да буду Конечно друзья Ну тогда
58:05
предлагаю вам оставлять комментарии под этим выпуском дискутировать Я тоже их буду читать по возможности отвечать
58:12
Сергей Сергеевич Бывает ли такое что вы отвечаете отвечаю в комментах иногда вообще Раньше любил срачи ещё в эпоху
58:19
фидо журнала стре сотен комментов наши зрители могут строить если запрос есть
58:27
отлично поджигай Ну также попрошу подписаться на этот YouTube канал или на
58:33
подкаст платформы особенно если вы уже сейчас нас там слушаете обязательно Подписывайтесь ждите наши последующие
58:41
выпуски и подписывайтесь на мой Telegram канал Сергей ещё раз большое спасибо за
58:46
подкаст Спасибо вам всем пока пока

Поделиться: