*Meta (владеет соцсетями *Instagram и *Facebook) признанна экстремистской организацией и запрещена в РФ
**Прямая ссылка на видео https://www.youtube.com/watch?v=NFsdLkiA8s8
***Таймкоды сделала нейросеть https://300.ya.ru/v_gx8bORx3
ToTheMoon cвежие инсайды из Кремниевой долины. В этом выпуске почему Google Gemini проигрывает поиску от ChatGPT, как Alexa Plus учится сама заказывать вам такси, зачем Meta Ray‑Ban и кулон Limitless постоянно слушают ваш голос, почему Apple Intelligence рискует судебным иском, а США требуют ввести AI‑уроки во все школы. Разбираем тренды, метрики, инвестиции и главные угрозы безопасности данных в эпоху генеративного ИИ.
Таймкоды
00:00:00 Мошенничество и искусственный интеллект
- Учитель в США пытался подставить директора с помощью искусственного интеллекта.
- ИИ анализирует законодательство и может быть использован для мошенничества.
- Оценка стоимости ИИ составляет три миллиарда долларов.
00:00:40 Проблемы с ИИ
- ИИ «галлюцинирует» из-за избыточного доступа к информации.
- Переход с Google на OpenAI из-за сильных привычек.
- Трудности в понимании работы ИИ.
00:01:39 Использование ИИ в Google
- ИИ в Gmail и Drive удобен, но имеет ограничения.
- Проблемы с контекстом и самореференцией.
- Пока ИИ не демонстрирует значительных успехов.
00:04:04 Судебные разбирательства и метрики
- Google предоставил метрики использования ИИ в судебных разбирательствах.
- У Google 350 миллионов активных пользователей в месяц.
- Рост пользователей с 9 миллионов до 35 миллионов в день.
00:06:02 Apple и коллективный иск
- Коллективный иск против Apple за невыполнение обещаний.
- Ожидания от нового интерфейса Apple.
- Появление самореференции в Mail.
00:06:56 Alexa Plus
- Alexa Plus имеет 100 тысяч пользователей.
- Ассистент может выполнять сложные задачи, например, заказывать товары.
- Проблемы с точностью выполнения команд.
00:09:54 Проблемы с голосовыми ассистентами
- Задержки и непредсказуемость ответов голосовых ассистентов.
- Необходимость строгого алгоритма для некоторых сценариев использования.
- Вопрос о частоте использования голосовых ассистентов среди зрителей.
00:11:10 Реализация времени ожидания
- Идея реализации времени ожидания в голосовых ассистентах.
- Сравнение с телефонной линией и музыкой во время ожидания ответа.
00:11:36 Скорость ответов голосовых ассистентов
- Различия в скорости ответов между версиями ассистентов за 20 и 200 долларов.
- Проблемы с пониманием темпа разговора и задержкой ответов.
- Неудобство использования голосовых ассистентов для выделения главных мыслей.
00:13:01 Экономические аспекты голосовых ассистентов
- Высокие затраты на создание качественных голосовых ассистентов.
- Сложности окупаемости бесплатных моделей при увеличении стоимости.
- Пример ChatGPT: 600 миллионов пользователей, из которых только 20–30 миллионов платных.
00:14:20 Интеграция ИИ в образование
- Указ Трампа о срочной интеграции курсов по ИИ в школьную систему США.
- Создание рабочей группы и президентский вызов для школьников в сфере ИИ.
- Разные подходы к внедрению ИИ в образовании в разных странах: от скептицизма в Японии до поддержки в Индии и Китае.
00:15:59 Преступность с использованием ИИ
- Взрывной рост киберпреступности, связанной с ИИ.
- Примеры мошенничества: фишинговые рассылки, подделки голосов и видео, вымогательства.
- Призыв к созданию агентства по борьбе с ИИ и наделению полиции новыми инструментами.
00:17:47 Универсальность ИИ и его применение
- Универсальность ИИ и непредсказуемость его использования.
- Рост объёма мошенничества с использованием ИИ.
- Сложности борьбы с мошенничеством из-за доступности инструментов ИИ.
00:18:32 Мошенничество с криптовалютой
- Примеры мошенничества с криптовалютой, включая случаи с миллионами долларов.
- Методы мошенничества: похищение людей, анонимное распределение средств.
- Быстрое развитие технологий мошенничества.
00:20:15 ИИ в законодательстве
- Объединённые Арабские Эмираты используют ИИ для написания и анализа законов.
- Создание управления по регуляторному ИИ для ускорения принятия законов.
- Критика использования ИИ в законодательстве, но признание его преимуществ в скорости и анализе больших объёмов данных.
00:22:12 Молодые предприниматели в оборонной промышленности
- 21-летний предприниматель из стартапа «Меч Индастриз» привлёк 100 миллионов долларов инвестиций.
- Проект фокусируется на новых типах ракетного топлива и беспилотных системах.
- Молодые инженеры всё чаще становятся основателями успешных стартапов.
00:23:10 Причины успеха молодых стартапов
- Отсутствие новых бизнес-моделей и крупных энтерпрайз-историй.
- Важность быстрой реакции и энергии для успеха.
- Пример успешного стартапа — Laps, ставший лидером рынка.
00:24:06 Роль энергии и обстоятельств
- Энергия и стремление к быстрому движению вперёд играют ключевую роль.
- Многие стартапы не смогли повторить успех OpenAI и других компаний.
- Стартапы нацелены на будущее и парадайм-шифт.
00:25:40 Возраст и успех в стартапах
- Возраст важен для понимания корпоративных процессов, но не является определяющим фактором успеха.
- Успешные стартапы часто ориентированы на потребителей, а не на предприятия.
- Венчурный капитал страдает из-за отсутствия ретерну.
00:26:37 Будущее финансирования стартапов
- Неясно, смогут ли стартапы зарабатывать деньги или будут продолжать получать финансирование.
- Крупные фонды, такие как LightSpeed и Andreessen Horowitz, продолжают инвестировать в стартапы.
- Модель быстрого роста и сбора больших сумм денег не всегда работает.
00:28:33 Примеры успешных стартапов
- SpaceX и другие компании демонстрируют быстрый рост и прорывные технологии.
- Гамма и другие компании также добились успеха, но не совершили революционных прорывов.
- Успех OpenAI уникален и сложно повторить.
00:30:23 Умные очки и нейросети
- Meta анонсировала умные очки RayBan с автоматической обработкой фотографий и видео нейросетью.
- Кулон Limitless обрабатывает информацию и анализирует данные.
- Новые функции кулона включают распознавание голосов людей.
00:31:58 Анализ данных с помощью кулона
- Кулон постоянно анализирует окружающую среду и предоставляет текст для анализа.
- Возможность задавать вопросы кулону для анализа воспоминаний и деталей.
- Модели с резинг-алгоритмом и без резинг-алгоритма позволяют получать различные результаты.
00:32:26 Проблемы с записью голоса
- Голос записывается не всегда, система диагностирует согласие пользователя.
- Текст записывается постоянно.
- Футуристы видят в этом прогресс, но есть опасения по поводу конфиденциальности.
00:33:22 Реакция людей на клоны
- Люди по-разному реагируют на клоны: от безразличия до настороженности.
- В современном мире много устройств, записывающих информацию.
00:34:22 Новые технологии от Apple
- Apple планирует выпустить упрощённые очки с новыми функциями.
- Технологии распознавания биометрии вызывают опасения.
00:34:57 Безопасность и ограничения
- Илон Маск запретил использование Apple в своих компаниях из-за проблем с конфиденциальностью.
- Возможны ограничения на использование устройств с распознаванием биометрии в общественных местах.
00:35:47 Юридические аспекты записи
- Неясно, когда запись становится незаконной.
- Закон в Нью-Йорке запрещает использование фейков против людей.
00:37:16 Обработка данных на серверах
- Данные обрабатываются на серверах, что вызывает вопросы о конфиденциальности.
- Опасения по поводу хранения и использования данных.
00:37:56 Безопасность в чатах
- Пользователи чатов беспокоятся о утечке данных.
- Временные чаты могут сохранять историю.
00:38:51 Безопасность в инженерной среде
- Инженеры беспокоятся о безопасности данных, но пока не на уровне enterprise.
- Люди не всегда понимают, как данные используются для обучения.
00:41:17 Личные переживания
- Переживания связаны с носимыми устройствами, которые постоянно записывают данные.
- Самостоятельная отправка данных менее вызывает беспокойство.
В этом видео
В этом выпуске
0:00
Ну и про мошенничество. Учитель в Штатах пытался подставить директора. Мы уже пишем законы с помощью искусственного
0:05
интеллекта, когда сотни миллионов долларов уводят с крипто и так далее. Проанализировав большое количество даты
0:13
и разного законодательства, идеальное применение. Как раз до сих пор не выпустили продукт, но 3 млрд по оценке 3
0:19
млрд уже подняли. Возраст — это получается вообще не риск или они в какой-то момент смогут зарабатывать деньги? Вот качество таланта такое было,
0:26
которое, ну, Open ну потому что в двадцатом- девятнадцатом году и я никому был не нужен. Он пишет постоянно
0:32
полностью всё вокруг и давал мне текст, который я мог анализировать.
Галлюцинации в Google Gemini
0:40
Да, то есть с этим углом, видишь, там, видишь, в чём проблема. Он типа неприятная Google, он реально раскатился. У меня он давно, но он
0:45
неприятно галлюционирует. У него слишком много доступа к информации. И, честно говоря, уже не хватает сил учить, какие
0:54
галлюцинации бывают у каждой модели. Мне как бы Open AI, ну там O4 mini, вот этот
1:01
хай и Грока мне достаточно двоих. У них у обоих свои приколы там с Гуглом
1:07
разбираться нету времени. То есть я сейчас вот у меня я может слоупок,
1:12
вернее, не то что slowпок, у меня очень сильные привычки, наверное, но я вот только сейчас а перехожу с гугла на Open
1:20
AI, то есть уже совсем невозможно пользоваться Гуглом. Перехожу к Open AI для поиска. Ну, у меня очень сильная
1:26
привычка, да, то есть я, например, в игры играю и фильмы смотрю, те же, что в детстве. То есть прямо совсем привычки,
1:32
очень сильная сила привычки. И но вот всё уже Google уже всё, то есть очень
1:39
плохо. А расскажи про AI мод. Ты его только в поиске видишь, да? Вот или он
1:44
там погружается в инфраструктуру ещё где-то там, я не знаю. Ну слушай, G9 в Гугле, в Gmail, ну в Драйве, конечно,
1:50
удобно. Тебе там присли какую-нибудь папку, ты там хочешь сари по папке понять или по имейлу. Это норм тема, но
1:56
там, ну, потому что это уникальный офферинг. Так, никто другой не может. Но там тоже немножко
2:02
тупо, потому что у тебя как бы у тебя в Gemini у тебя одна историй в Gmail у
2:08
тебя как бы один контекст на все твои имейлы, да, и как бы ты просишь его всегда самаризируй или там основные
Стоит ли Gemini чего‑то «по‑настоящему хорошего»?
2:15
takeaways, типа что-нибудь такое, ты просишь его всегда, и ты как бы не
2:20
можешь понять, что к чему относится. И то есть история она не useless просто. И в общем, как бы такое как бы, ну,
2:29
понятно, что Гигу пытается сделать всё, но пока они ни в чём не хороши. То есть они как бы понятно и картинки делают, и
2:34
видео, и Джимина, имот, и всё. Но пока я не могу понять, где они прямо хороши. То
2:40
есть что-то я в этом плане не понял просто. В поиске тоже не
2:45
вывозят, да? Нет, в поиске прямо совсем не вывозят. Просто интересно было. Ну, то есть вот у
2:53
меня пока нету, но я когда читал новости, думаю: «Ну вот, собственно, приехали большие ребята за Perplexity и,
2:58
собственно, вот сейчас выгонят их с этого рынка и у Гугла появится там похожий какой-то поиск». Но пока вообще
3:04
не того, да, получается, не? Так они же в поиск выливают выливают какие-то фишки, но это
3:10
вообще совершенно не то. Это просто Google поиск, ну, плюс какие-то иногда дополнительные приколы, но это не
3:16
совершенно новая история с точки зрения, знаешь, такого, а, фундаментально нового сценария использования. То есть, если ты
3:22
посмотришь на search of в chatт GPT, то это всё же чуть другой подход, да? Ты, то есть, по-другому, он там ищет,
3:29
проверяет, находит какую-то инфу, потом заново проверяет, смотрит. То есть это не то, что тебе там выдали выдали
3:36
какие-то ответы и ты ходишь их ищешь. Я в Гугле, например, задаю вопросы, мне этот AI отвечает, ну, даёт какие-то
3:43
варианты. Я не понимаю, это вообще нормальная информация, ненормальная. Такое ощущение, что они делают AI,
3:48
которые просто как фишка сверху на их поисковике. Пони фиш их можно понять,
3:55
да, люди всё же привыкли пользоваться обычным поиском. Я думаю, что весь мир-то привык пользоваться обычным
Метрики Gemini
4:00
поиском, но в то же время. Кстати, там же интересный был прикол у Гугла. Значит, из-за того, что на них сейчас
4:06
идут судебные там, ну, всякие судебные разбирательства, ну, это вечно
4:12
на каждой компании это судебное разбирательство. И, короче, там получилось, что сейчас всплыли метрики использования Аая Гугла не потому, что
4:19
Google об этом сообщил, а потому, что в судебных разбирательствах им пришлось их сообщить. Так вот, у них сейчас на
4:26
текущий момент у них 600 млн пользователь 500 млн.
4:34
Не, извиняюсь, вот цифры следующие. Короче, у них на текущий момент 350 млн
4:39
активных пользователей в месяц и они выросли с 9 млн с осени до 30 млн для 35
4:47
млн к марту в день. То есть 35 млн пользователей в день. Получается, мета говорит, что у них типа порядка там
4:54
полмиллиарда, учата GPT 600 млн. Ну, Цукербрек, правда, бывает и про миллиард заявляет. Там интересно, что данные у
5:00
них всплыли. То есть пользователей-то дофига. Там 350 млн активных пользователей у
5:06
Geminii, то есть это не у Google поиска. И я просто к той мысли, что, наверное,
5:11
люди пользуются, ну, привыкли всё же обычный поиск использовать. Сколько у них там? Миллиарды пользователей, и им
5:16
не нужен AI, да. Всем привет. Мы на канале Tay On. технологические новости, инсайты из Кремневой долины по всему
5:22
миру. Ксал с самого начала выливку от Google, э, определёнными словами, то,
5:30
что Google расширил доступ к своему IME. Вот для жителей США повторять слова не
5:35
будем, но, судя из описания и тестов, это всё пока очень специфическим
5:41
образом. Но и мне кажется, что на английском, да, но мне но мне но мне кажется, что они всё это, конечно,
5:47
дорасширят, будут потихонечку доделывать. Мы с вами все будем на все эти компании ругаться, говорить, значит,
5:52
что они плохие, что Apple не выпал Apple Intelligence. Кстати, на Apple Intelligence мы, по-моему, не
Коллективный иск к Apple Intelligence
5:58
рассказывали, да, что на Apple Intelligence подают в суд большая А коллективный иск, да,
6:05
коллективный иск, да, коллективный иск на то, что они обещали в Apple Intelligence сделать одно и это не
6:11
сделали. И, ну, это всё же показательно, да, показательная история. Они прошлым летом обещали. Сейчас идут же новые уже
6:17
обсуждения того, что Apple представит летом и описывает, что у них типа будет
6:23
полностью там новый интерфейс и так далее. Но что-то, мне кажется, с Apple Intelligence у них особо ничего не
6:29
будет. Но в какой-то момент времени всё равно они выпустят, им придётся. Кстати, Apple вот выпустил в мейле
Функция Summary в Apple Mail
6:35
Summory, но я использую, э, использую почтовый сервис
6:40
а Эп, да, и базово, и у них Sumary появилось. Ну, в целом сари такое типа
6:47
удобненькое, которое работает стандартное. И я уже к нему привык, да, к такому вот
6:53
вы просто с самого начала там тоже про саре обсуждали. Интересная тема была. И из похожих новостей просто мне сразу
6:59
хочется у вас спросить. Я вот первым делом про AI mode Гугла интересуюсь. А второй вопрос у меня про Алексу. Там у
Про Alexa Plus: плюсы и минусы
7:05
нас рядышком лежит новость, что вот Alexa п большое количество пользователей, что там общий объём,
7:10
по-моему, там что-то под сколько-то миллионов пользователей. Сейчас сейчас сразу не скажу. А тут сейчас уже там
7:15
сотни тысяч пользователей, которым доступно Алекса П. Появился у вас 100. Не, они, да, они говорят, они нет, я
7:22
насколько понимаю, это какая-то закрытая группа использования. Просто всё же Алексай пользуется миллиарды, наверное, миллиард, я не знаю, сколько. Ну я
7:28
думаю, что большое количество людей, сотни миллионов, наверное, да. И они сказали, что они выпустили на 100.000
7:33
человек Алексу плюс, которым умеет вот вести там более естественные диалоги, там выполнять типа
7:40
сложные задачи. Кстати, там интересный кейс. Они описывают, что она может выполнять сложные задачи от имени человека. И, например, ассистент их, а,
7:47
сможет самостоятельно заказывать товар или вызывать такси через сторонние предложения. То есть через сторонние приложения, не только через свои.
7:54
Кстати, я не пользуюсь через Алексу никогда вообще заказом через Amazоon, хотя у меня Alex очень много, я не знаю,
8:00
10 пс в доме. Я не пользуюсь заказом. Вы пользуетесь, Саша, Таня, не пользуетесь когда-нибудь заказом в Амазоне, типа,
8:06
через Алекс? Я пыталась, но опыт был не очень, потому
8:12
что она не то добавляет в эту корзину. Нужно зайти в приложение проверить
8:18
прежде чем заказать, потому что она путает вещи. И смысл тогда, да, очень плохо. То
8:27
есть, в смысле, Amazon никак не не внедрил Дженерифя и пользу Alex часто смешно, очень плохо. И, ну,
8:36
короче, непонятно, куда это идёт. Единственное, что, да, можно там как бы, чтобы не забыть, вот ты там на кухне,
8:43
например, вспомнил, что у тебя что-то закончилось, можно ей сказать: «Добавь в корзину», потому что через час ты про
8:49
это забудешь. Но вот это, наверное, единственное, что. А так надо всё
8:55
перепроверять за ней. Так и про Алексу плюс интересный момент, что внутренне там Энди Джасси заявил,
9:02
что эта технология пока довольно примитивно и неточно, и что якобы пояснив, что у современных многошаговых
9:09
агентов точность выполнения сложных команд там лишь 30 -ре60%. И это было очень странно
9:15
отреагировано на рынке. Кстати, и акции даже Амазона подупали, потому что она такая откровенность редка, да, чтобы
9:21
кто-то кто-то типа пришёл там глава компании сказал, что на самом деле это
9:26
не так уж и круто. Но обратите внимание, что Apple же тоже не вылил нормально Сири. У них там был целый провал Сирии.
9:33
И, кстати, интересно, что я сейчас разговаривал там с человеком по поводу того, что Яндекс-колонка вылила, ну, у
9:38
них понятно, что не такая, ну, не такие модели, но попроще. Ну, хотя они там заявляют, якобы круче, но я бенчмарков
9:44
не видел. Не знаю, может кто-то знает. Отпишите, пожалуйста, пользователи, кто знает. Если вы видели хорошие бенчмарки
9:50
Яндекса, там, GPT. Но в чём прикол добавления в колонку? Ну, давайте честно, если модели есть время ожидания,
9:57
никто же не привык, что у неё будет время ожидания, получается, у тебя начинается задержка. Дальше у тебя есть,
10:03
а мне вот приятель мой сказал, что я привык к тому, что погоду отвечают идеально. Колонка идеально просто. А
10:10
когда добавили модель, колонка начала отвечать по-разному, иногда идиотски. И получается, что есть некоторые сценарии,
10:17
которые должны работать по очень строгому заданному алгоритму, а не потому, что тебе колонка начинает
10:23
какие-то разные штуки предлагать. И всё же, когда у тебя сценарии использования очень серьёзно отработаны, то ты
10:28
сталкиваешься вот с этой проблематикой. Я думаю, что для них это одна из самых больших проблем, потому что если вот,
10:34
кстати, кто из наших пользователей голосовыми ассистентами, такими как у GPT есть, например, внутри или Мета
10:41
сейчас же выпустила, тоже есть внутри ассистента, да, у них же апгрейд сейчас произошёл, они выпустили приложение и
10:46
Цукерберг как раз говорит: «У нас типа голосом можно с приложением разговаривать, всё». Ну вот я GPT голосом не часто используюсь. Кто из
10:52
зрителей использует часто голосом? Отпишите, как вам нравится сценарий
10:58
использования? У вас вообще какой опыт, ребят, сценарий использования с голосом? Потому что у меня, ну, опять же, он
Опыт использования голосовым режимом в ChatGPT
11:03
продолжает специфическим, то есть очень часто задержки. Ты начинаешь говорить, оно не понимает тебя, надо слушать, не
11:08
надо. Ну, короче, по поводу добавления вот этого варианта сризанингом, да,
11:13
который ходит, думает, потом отвечает через там сколько-то минут или ещё что-то такое. Вот пытался представить, а
11:19
как это будет реализовано. Вот ты с колонкой общаешься, а ей надо там 5 минут подумать. Это будет как на
11:25
телефонной линии включится музыка и фраза. Пожалуйста, оставайтесь на линии. Как найдём ответ, мы к вам вернёмся и
11:31
сидишь, слушаешь. Получа, да, то есть получается
11:37
пока, конечно, это то есть скорость, да? Дальше вопрос, кто сможет сделать сума А сумасшедшая скорость за счёт чего?
11:44
Наверное, за счёт чипов, да, должна быть и будет стоить жутко дорого. Ну то есть какая должна быть скорость? Жутко. Я вот
11:49
вижу разницу, честно сказать, я всё же вижу разницу. 200 долларов и 20. И скорость ответа, ну, то есть скорость,
11:55
вот у меня 200 долларов версия стоит, скорость ответа совершенно на другом уровне, чем людей за 20. Ну вот, по
12:00
крайней мере, то, что видно, видно рядом, когда людям отвечают или делают или объём инфы, который дают. И и то,
12:07
ну, сейчас вот О3, а бывает, она тебе отвечает там типа 15 секунд, а бывает
12:12
отвечает 7 минут. А что такое 15 секунд? Ты ждёшь с колонкой, да, или? То, что ты сейчас говори, ну, как бы ты такой типа
12:19
ты зависла. Это как в зуме, ты завис. Вот. Или ты вообще меня не услышала, да?
12:24
Или ты вообще меня не услышала? Да. Непонятно. Саша, ты голосом пользуешься? К сожалению, нет, но надо.
12:32
Почему? Ну надо, надо, да. То есть, конечно, удобнее, но это больше с ребёнком только. А так сам нет. Мне кажется,
12:39
вообще неудобно. Во-первых, очень долго это всё слушать, весь ответ. сложно
12:45
какие-то главные выделить визуально гораздо легче главные мысли сразу увидеть и не знаю мне вообще я пыталась
12:54
но очень неудобно и она всё время перебивает она начинает уже отвечать это ещё самое главное
13:01
это да она плохо понимает темп разговора это правда но это будет другой мир
13:06
смотрите если у нас сегодня был бы голосовой мы всё же хотим голосового такого ассистента но если будет голосовой ассистент который будет
13:13
работать и в целом, как качественная модель, ну, ну, не знаю, как 4О, да, то
13:19
а всё же это появляется совершенно другие возможности. И я думаю, что то, что они не выпускают, это действительно,
13:25
ну, во-первых, это жутко дорого. Давайте с вами реально представим, даже Яндекс выпустил свою простую модель.
13:31
Представьте, когда люди начинают разговаривать с колонкой. Одно дело, они говорят с алгоритмом, это ничего не стоит вообще. Другое дело, они говорят с
13:38
моделью, которая просто бесконечно всё начинает есть. И люди за это деньги не платят никакие. И не будут платить
13:44
никто. За это дороже платить не будет, да? А если дороже, но у тебя количество людей падает. Посмотрите в чат GPT 600
13:50
млн пользователей, по-моему, у них 20 или 30 млн платно. Ну то есть у тебя, ну, 5%, например, у тебя платных
13:56
пользователей и а купить всю вот эту бесплатную конструкцию становится жутко
14:01
тяжело. И мы видим с вами объём инвестиций, которые привлекают эти стартапы. Просто колоссальный объём инвестиций. А хочется какую тему
Указ Трампа: AI‑курсы K‑12 по всей стране
14:09
поднять? Во-первых, мы у нас вот вышел на канале ролик в среду про Мы с Элинаром снимали про образование и
14:17
достаточно детально рассказали про разные страны, про образование. И, к слову, сейчас в добавлении к тому, что
14:23
мы обсуждали, Трамп принял сейчас указ о срочной интеграции курсов по искусственному интеллекту в школьную
14:30
систему образования по всей стране К-12 такой федеральный, да, мы только там с селинаром обсуждали, что в США всё
14:35
разрознено. И тут, значит, приняли указ. Согласно указу, федеральные ведомства должны приоритизировать программные, ну,
14:42
програм обучение в школах по поводу искусственного интеллекта. И прикольно, они создали специальную рабочую группу,
14:48
а, и объявляется президентский вызов, конкурс инноваций для школьников в сфере искусственного интеллекта. Вот. А кто не
14:54
смотрел, посмотрите. В среду у нас была тема по поводу образования. Она
15:00
примечательная тем, что это помогает ориентироваться, в каких странах вообще идут какие тренды и насколько они
15:06
разные. Да, когда в Японии учителя говорят: «Ребята, мы вообще не вери там
15:11
восемь или, ну, какой-то маленький процент людей верит в то, что от искусственного интеллекта будет что-то хорошее». И они говорят, что это там
15:17
надо, э, убивает каллиграфию или там творческие какие-то вещи. А есть страны,
15:23
в которых, например, как в Индии или в Китае, в которых считают, что искусственный интеллект как в Китае.
15:28
Если искусственный интеллект может сделать так, что мой ребёнок будет больше знать, то мы готовы искусственный
15:33
интеллекта внедрять везде, где угодно. Да, вот и в Индии в том числе верят. Ну и объёмы разные внедрения. В Индии,
15:39
например, 14.000 14.000 технических вузов внедряет искусственный текст. Поэтому, кто не смотрел, посмотрите. Кто
15:45
смотрел, отпишите. Насколько вам, что вы что вы думаете на эту тему и про образование, и какие вам ещё интересны
15:51
темы дополнительных наших выпусков. Напомню, у нас в среду выходят дополнительные выпуски, и это уже был
15:56
четвёртый выпуск. А так, слушайте, прикольная тема поводу
Ввзрыв киберпреступлений на ИИ
16:03
в Великобритании вышел отчёт о преступности с искусственным интеллектом, и там сделала доклад
16:11
специальная м комиссия, да, при А это центр
16:19
специальных мержентых, это специальных, да, этих специальных технологий
16:24
безопасности. И они предупреждают о взрывном росте, смотрите, очень взрывном
16:30
росте киберпреступности, совершаемой с помощью искусственного интеллекта. И в отчёте перечисленные там случаи
16:36
фишинговоей рассылки, сгенерированной нейросетью, которую трудно отличить от настоящих, глубокие подделки, голосов и
16:42
видео, использование для вымогательств денег и дискриминации, мошеннические колл-центры на базе искусственного
16:47
интеллекта, автоматически обманывающие люди по телефону, генерация нелегального контента, там, например, декской
16:53
эксплоативной графики на основе искусственного интеллекта, да, и называют, что они просто призывают типа
16:59
срочно создать агентство и спецподразделений по борьбе с искусственным интеллектом и надерить
17:04
полицию новыми инструментами, там контр искусственный интеллект, способным выявлять такие угрозы. Ну, если честно
17:10
сказать, такая тема очень непростая, да, судя по развитию в разных странах.
17:16
Конечно, это будет наносить урон в огромном количестве стран, в огромном количестве регионов. И пока что-то где-то будет доходить, это будет
17:22
наносить, мне кажется, в США тоже, в том числе. Это будет просто в Европе холос просто какой-то безум просто безумный
17:30
урон. а тому, что сейчас могут делать системы. Отпишите в комментариях, кто из
17:36
вас вообще, зрители наши, кто с чем сталкивался и что думаете на эту тему,
17:41
какие видите самые главные проблемные кейсы вообще с точки зрения таких мошеннических историй? Кстати, может
17:48
быть, интересно, Ильнар будет на эту тему сделать спецвыпуск, да, тоже, потому что такая тема поучительная
17:55
поводу при преступлении в сфере искусственного интеллекта, ну, с использованием разных фишек искусственного интеллекта, да. Это
18:01
интересно. Сам инструмент, который выпустили, он оказался слишком универсальный, да, и использование его
18:07
непредсказуемо, и дальше всё упирается просто в фантазию людей. Кто-то генерирует стихотворение, кто-то
18:13
смотрит, что с цветами можно сделать, с животными, там, с медициной, ещё с чем-то, а кто-то начинает придумывать,
18:19
как можно приложить. И здесь, конечно, фантазия оказывается безграничная. И вот такие взрывные, э, так скажем, взрывной
18:25
рост использования для мошенничества тоже просто показывает, насколько это универсальный инструмент и как его можно
18:31
использовать, да. Ну, объём будет только расти, получается, понимаешь? Но объём будет только катастрофически расти. Ещё
18:38
есть огромное сфер, которые мы даже не видим или люди до конца ещё не научились, например, применять различные
18:44
инструменты. И мне кажется, побороться с этим будет очень тяжело с учётом того, что он сорса, например, очень много, да?
18:50
И там уже вопрос цена, ну, как это цена, цена, качество и эффективность. Мы знаем, да, что новые темы в
18:56
мошенничестве, там у людей выманивают сотни тысяч долларов, иногда там миллионы долларов какие-то. Вот одно
19:02
из последних мошенничеств в крипте. у человека криптой достали что-то 350 млн
Крипто‑кража на $350 млн через ИИ
19:09
у какого-то дедушки или кого-то в США и было в крипте вот таким, ну,
19:16
способами, вот этими стандартными способами. То есть, если я знаю очень много случаев, где люди говорили, там в
19:21
России берут в Сбербанке кредиты, условно, там по 13, по 15 млн руб., да, то то у дедушкинастали на 350 млн,
19:28
по-моему, крипты. Ну, какой-то какой-то объём был просто колоссальным. Ну, появится надпись какая-то какая точно
19:34
там была, какой-то объём просто катастрофический. Хрипты. Сидишь думаешь, что это? Что это за дедушка, да? И как они находят, а как они знают.
19:43
Ну, мы мы слышали, помните, у нас как-то была новость о том, что в Канаде кому-то прямо в квартиру зашли, потому что знали, что это человек, у которого много
19:50
крипты. Да. И вы не помните? Нет. И, э, по-моему, в Канаде это было. И у него,
19:56
да, и у него забрали там ограбили, условно, потому что люди выкладывают где-то данные людей там была, да. Или,
20:03
да, или похищают людей, или сообщают. Ну, а тут другая немножко конструкция. И они там эти деньги сразу раскидали там
20:09
через специальные дополнительные системы анонимные и всё. Ну, деньги растворились, просто всё растворилось, никто ничего найти невозможно. Ну и про
20:15
мошенничество где-то в начале года, мы ещё помните, не в начале года, в
20:20
начале нашего года, да, в начале нашего года. То есть где-то год назад, когда мы только начинали выпускать, там уже
20:26
появлялись выпуски, новости, где мы говорили, что вот учителя в Штатах, а
20:32
учитель в Штатах пытался подставить директора, сгенерировав его голос и вот там всякие российские высказывания, а,
20:38
соответственно, потом пытался сделать так, чтобы его сняли с работы. И вот как бы с чего всё это начиналось, да, и вот до чего сейчас всё это дошло там. когда
20:45
сотни миллионов долларов уводят с крипто и так далее, это, конечно, очень быстро
20:50
всё развивается. А интересно, что параллельно, например, вот на сейчас на
ОАЭ: федеральные законы, с помощью AI
20:56
этой неделе Объединённые Арабские Эмираты сказали, что мы уже пишем законы с помощью искусственного интеллекта, и
21:02
они стали первой страной, где официально задействовали искусственный интеллект для написания и анализа законов. Это
21:07
значит, у них создали, вот там есть эгида, эгида нового управления по регуляторному искусственному интеллекту.
21:14
И они, значит, вот внедряют систему для проектирования федеральных обместных законов, там, судебных решений, указов,
21:20
ускоряя их принятия и так далее. Ну, они, конечно, очень массово всё используют. Мы как раз тоже с семинаром
21:25
рассказывали там про обеди ООА с точки зрения образования. Ну, то есть они на передовой пытаются там просто кучу всего
21:32
делать. И понятно, что есть критики, которые полагают, что использовать искусственный интеллект типа в законах
21:38
очень тяжело алгоритм может ошибаться. Хотя, мне кажется, странны немножко критики, но логично, что они их перечитают, перепроверят, проверят
21:45
какие-то детали, но просто скорость написания, мне кажется, скорость создания космическая, да, особенно когда ты можешь очень много объёмов данных
21:51
изучать и делать. Мне кажется, это очень продвинутая история, да, и в законах, мне кажется, довольно линейная логика, в
21:57
отличие от многих других сфер. То есть, проанализировав большое количество даты
22:03
и разного законодательства, можно какую-то общую линию вывести на основе неё. То есть, на мой взгляд, это
22:10
идеальное применение. Как раз Саша, слушай, скажи, пожалуйста, вот сейчас был один стартап, который в оборонной
Стартап в обороне: 21‑летний фаундер привлек +$185 млн
22:15
промышленности такой Match Industries, и там говорили о том, что, ну, он привлёк внимание тем, что двадцатиоднолетний
22:22
предприниматель, э, значит, пришёл к тому, что он привлекает
22:27
100 млн долларов и общая суммарные инвестиции там 185 долларов. И там была тема, что 21 год предпринимателю, а он
22:33
такой объём денег привлёк в стартап в оборонно, причём. А, и там суть в том,
22:39
что проект сфокусирован на новых типах ракетного топлива и бесплотных системах, да? Значит, насколько много проектов
22:46
сейчас делается очень молодыми инженерами и всё всё чаще люди показывают, ну, всё чаще очень много
22:52
людей с очень молодых, просто супермолодых, которые делают стартапы. С чем это связано? Да, ну вот если
23:00
смотреть на самые быстрорастущие стартапы, там Лавбал, Миркор, Курсор, те, кто всех на слуху. Ну да, конечно,
23:06
там молодые ребята, фаундеры, это очень круто. Я думаю, что это правильно,
23:12
потому что объективно никаких как бы новых бизнес-моделей, никаких сильно
23:18
больших enterpriseй историй с Generative AI не получилось построить. И, ну, нужно
23:25
как бы чисто на вайбе двигаться по-быстрому. А, ну вот, мне кажется, они в этом преуспели, да. То есть
23:31
единственное, наверное, исключение из того, что я говорю — это вот 11 Laps. Они как бы вот уже прямо в плане войс
23:36
генерации стали большим-большим лидером рынка. А всё и они имеют большое как бы
23:43
использование везде. Вот я смотрю на вот сейчас список открыл перед собой аа
23:51
быстрорастущих стартапов AI. Аа, да, там почти все из них они, например, делаются
Почему «быстрота» важнее repeat‑founder опыта
23:59
не Repeat Founders, да, например, а просто молодые молодыми талантливыми
24:04
ребятами. Прикольно, да, что получается, что суть не в Repeat Founders и суть уже не в
24:10
возрасте и вообще в каких-то других аспектах, это стечение обстоятельств. В
24:15
чём а в чём тогда сейчас почему так получается? Я думаю, что играет большую
24:24
роль просто, ну, энергия быстро двигаться вперёд. Думаю, так просто вот
24:29
такая вот у нас сейчас волна. А, да, то есть мы же видим, что, ну,
24:36
объективно ни одна компания, которая поднимала там под foundational модель, под какой-то там resarch, ни у кого ж
24:42
ничего не получилось объективно. Ну, то есть Open Tropic — это там generative era, да, откровенно
24:48
говоря. Ну, ну это другой другое другой тип компании. Ну это привет Give имеется
24:54
в виду. Многие хотели повторить Open Antropic и так далее. Тезис у много кого-то там. Посмотри на там сайт,
25:01
который CTOгиitба до сих пор не выпустили продукт, но 3 млрд по ценке 3 млрд уже подняли. Такого полным-полно,
25:08
но мне кажется, что это будет очень тяжело. То есть, да, то есть мне кажется, что там стартапы типа Миры
25:13
Мурати, Асьера, которые, ну, такие вот популярные стартапы, да, или там Илья Суцкевер. Эти стартапы, они больше, а,
25:20
нацелены на то, чтобы а в первую очередь, ну, какую-то там на будущее, короче, то есть на то,
25:28
что они что-то вот что будет какой-то следующий парадаймшифт и что они как бы во первыми зацепят. Но да, то есть, ну,
25:35
они как бы в текущей парадигме никто из них близко не победители.
25:40
Ну, а воз возраст это получается возраст — это получается вообще не риск. А, да, ну, имеется в виду рост тебе возраст
25:46
зачем нужен, да? Возраст нужен для того, чтобы как бы понимать, как раз с людьми в энтерпрайзах. Вот это вот
25:53
тамнмейкеры, как прокюрмент устроен, как Rolloutу устроен, вот эти вот вот эти
25:59
вот enterprise игры. Ну, нету ни одного успешного enterprise стартапа не существует. То есть API продажи
26:04
entтерпрайзом — это не enterprise, как бы софт. Это как бы просто API продажи в Enterprise, но это не Enterprise,
26:10
enterprise — это sales Force. Там вот один раз уновил, всё, никогда или Hubspot, короче, never go back, так
26:18
сказать, с них уже. Ну вот поэтому я думаю, что так как это по сути всё консюмер в той или иной, по сути,
26:25
все эти стартапы — это консюмер в той или иной степени, да, у тебя нету как бы конкретных workкflow, что там строил
26:32
Generity Five Enterprise. Такие стартапов, чтобы они быстро росли, неизвестно пока что. То есть есть,
26:38
конечно, те, у которых десятки миллионовра, разумеется, но они ани на слуху. Б это не сотни миллионов, как у
26:43
курсора того же. Ну да. Что в итоге будет с точки зрения им просто бесконечно будут
26:49
подливать финансирование или они в какой-то момент смогут зарабатывать деньги? Вот это вообще непонятно, да?
26:55
Ам, ну венчерный капитал же сейчас сильно страдает, да? То есть как бы ретрнов-то нету. И если ты не в Open Ai
27:02
или в какой-то другой крутой быстрорастущей истории, типа там курсора, а, ну непонятно, то есть
27:09
зачем? Зачем, да? Поэтому это спорный момент, как бы, что
27:16
там мало кто сможет подливать. То есть, разумеется, есть крупные фонды типа там
27:21
Лайс Спида, Андрисона, Райва, кто подняли большие фонды, а, в последний
27:27
там год-полтора под Я историю, но а в целом я думаю, [музыка]
27:34
что и да, так как бы мне кажется, не так прямо много капитала. Нельзя сказать, что прямо очень много капитала. То есть,
27:39
разумеется, open никто не даст умереть. Это невозможно просто. Може, что они в старгейте,
27:45
а, ну, у остальных, мне кажется, ничего не гарантировано. Короче, развивается крупняк.
27:52
Имеется в виду, что я не дадут умереть, это точно. Как бы они там точно будут успешными, но ну они как бы и так как бы
27:58
лидеры, да, там в куче ниш. Я просто говорю, это всё к тому, что аа, ну, вот
28:03
эти вот раунды, то, что там просто брать гайс из Гугла и нужно дать им по оценке поерда ярд 2-три, мне кажется, это будет
28:11
тяжело. То есть, разумеется, Мира сейчас соберёт деньги, а, но, но она, конечно, соберёт деньги, но я не думаю, что это
28:17
как бы такая модель вообще работает. То есть, что просто какие-то очень уважаемые люди собрали много денег. Мне
28:23
кажется, так не работает. То есть даже посмотри на Илон Маска XI развивался очень быстро. У них был unfir advantage,
Grok от XAI — самый быстрый рывок года
28:29
куда внедрять, но они развивались очень быстро. Ну, они, кстати, реально очень круто,
28:35
очень быстро сделали. Ну, давайте так по-честному. Дадада. Да. Грок быстро, грок быстро сделали, да. Это, наверное,
28:41
самая быстрая вообще прорывная такая массовая история в Америке. Да, конечно. И мне кажется, что нету ни одной
28:48
компании, которая бы там как-то медленно двигалась и, а, добилась каких хороших
28:54
результатов. То есть такого, мне кажется, не существует. Та же вот гамма, например, да, в презентации, которая
28:59
делает, которая 50 млн сейчас. Но они же даже больше уже, наверное, как бы они
29:04
так более-менее на слуху всегда, то, что они что-то релизят. То есть как бы нету такого, что там в стелсмоде сделал
29:10
какой-то нереальный прорыв. То есть, конечно, в это инвесторам хочется верить, что они вытянут следующую как
29:18
следующую, как лотерейный билет, как Open AI, да, случился. А, но, ну, как бы
29:23
это маловероятно, потому что, ну, Open AI всё-таки качество таланта такое было, которое, ну, не повторить уже. А, и
Развитие OpenAI
29:31
во-вторых, у, ну, потому что в двадцатом-денатом году AI никому был не нужен по сути своей, а вот именно
29:38
Generative AI, то есть, во-первых, не повторить концентрацию таланта. Во-вторых, Сэм Альпмана, ну, нету ни одного CEO там близко, который
29:44
имеет, короче, который имеет такие же скилы, как он. Всё, он понимал всё-таки миллиард при продак при Ревеню, надо
29:51
понимать. То есть и а но оно как бы имеет там очень крутую технологическую команду. И, конечно, ну
29:57
мира Мурати, мы же все смотрели с вами интервью, да? То есть мы как бы видим, что, ну, надо уметь держать удар, много
30:03
неудобных вопросов. Ну, это работа, да, то есть что всегда работа одинаковая, то есть нужно работать с недовольны СМИ, с
30:10
недовольными покупателями, клиентами и так далее. То есть мне кажется, Сэм держит удар. А, ну про миру тут сложно
30:16
сказать. Мы же видели, как она поплыла. Ну, там была специфическая ситуация всё же, когда его сняли, там она стала.
30:23
Нене, не там про данные же было вот это знаменитое интервью, там про данные её спрашивали, она выплыла. Но хочется
Умные очки Ray-Ban и AI-кулон: как работают, новые фишки
30:29
сегодня ещё такую тему поднять. Там в сейчас мета выпускала информацию по поводу
30:35
умных очков Рейbн, и они сказали, что все фотографии видео, снятые на очки,
30:41
будут автоматически обрабатываться нейросетью и, а, да, ну, давать
30:47
пользователю какую-то вторичную, полезную информацию. И сразу же вот сейчас очень много тоже новых отчётов
30:54
вышло про кулон. Ну, вот про этот, который у меня здесь одет, вот этот кулон, да, Limitless.
30:59
И, э- я, кстати, этот кулон сколько получается? Наверное, с конца марта или
31:05
там с 20 где-то марта у меня этот кулон есть. И очки я не представляю. Ну, наверное, хотя, наверное, тот, кто очки
31:12
носит каждый день, как Илинар, если бы у него была бы встроенная штука, можно было и очки бы так носить. Клон немножко
31:17
тоже тяжело, ты его периодически где-то думаешь потерять и так далее. Мне хотелось бы какую-нибудь, не знаю, брошку или кнопку. Там новые фишки
31:24
добавили. Я к тому, что если мета в очках все видео и все изображения автоматически распознаёт, это даёт
31:30
возможность дальше вот эту постобработка и постанализ очень быстро, да, тебе не, ну, если она сразу же это делает, то
31:38
тебе очень легко работать с данными, потому что загрузить отдельно в нейросеть огромное количество данных, но очень тяжело. То же самое здесь в
31:43
Кулоне. То есть он постоянно берёт информацию, которую я разговариваю, и
31:49
обрабатывает её. И у них там появилась новая фишка. Они говорят о том, что недавно, кстати, появились голоса людей.
31:56
Значит, появились голоса людей. Для меня было удивление. Я напомню, что этот кулон, он пишет постоянно полностью всё
32:02
вокруг и давал мне текст, который я мог анализировать. Причём там есть модель с ризинингом, а есть без ризининга, да? И
32:08
ты можешь спросить у него там, скажи, пожалуйста, за последние 10 дней, какие главные выводы я сделал там в течение
32:15
дня, да? Или сделай мне какие-то сари или что-то ещё. Интересная вещь с точки зрения воспоминаний, каких-то деталей,
32:21
анализа там и так далее. И аа но при этом не было голоса.
32:28
Потом я в какой-то момент захожу и смотрю, что я могу прослушать голоса. Не всегда. То есть иногда могу прослушать,
32:34
иногда не могу прослушать голос. Оказалось, что якобы он как-то диагностирует. Дал человек согласие на
32:41
то, чтобы его записывали или не дал тебе согласия, чтобы записывали именно голос. В то же время текст якобы он всё время
32:47
выдаёт. Ну то есть мне до сих пор эта тема непонятная. И насколько я вижу, она, ну, читая какие-то отчёты где-то
32:54
там какие-то футуристы пишут, что это просто космос и это то, о чём все мечтали. А там, например, говорил такой
33:02
известный футурист Брайан Соллис, да, он сказал, что эта штука позволит освободить
33:08
человеческий разум от биологических ограничений, да. Вот. Да, кто-то, конечно, говорит, что Limitless — это,
33:15
ну, просто хана, потому что это кошмар для конвенциальности. И что, как вообще с
33:21
этим быть? И, кстати, прикольно бывает, когда ты куда-то приходишь и кто-то видит этот кулон, и человек спрашивает,
33:28
значит, что это за кулон? И ты ему говоришь: «Есть кому нет разницы, а есть кто-то настораживается сразу же, да, что
33:34
у тебя, значит, какой-то кулон визит. Хотя в современном мире, ну, столько всего пишется каких-то диктофонов,
33:40
датчиков. Я помню, у меня в 2013 году были такие микродиктофоны, там чуть ли не с многость, да, которые записывали.
33:47
Ну, то есть очень маленькие такие микроштучки. То есть столько всего вообще пишется и а ну такое интересное
33:54
наблюдение в часть реакции людей. Я, конечно, в городе там где-ты или находишься часто, снимаю, чтобы просто
34:00
не было, ну, не было никаких реакций, когда сам что-то наговариваю кому-то, веду там совещание, просто одеваю, чтобы
34:07
у меня сохранялась информация, сохранялась информация. Ну или там при общении, когда с кем-то разбираешься,
34:13
там какие-то делаешь обсуждения детальное. Ну, конечно, очень интересно. Вы что думаете по поводу
34:19
устройств, вот того, что Мета начинает обрабатывать? Я я думаю, что очки же и новые тоже появятся. Кстати, есть
Есть ли будущее у умных очках и кулонах на базе AI: вопрос безопасности
34:25
информация, что Apple якобы якобы тоже планирует выпустить такие упрощённые
34:30
очки. Были детали с учётом того, что у них их очки как бы пошли, ну, не сильно, ну, не
34:38
то, что сильно, они якобы провальными были. Хотя я считаю, то, что они технологию протестировали, сделали такой
34:44
важный достаточно шаг с кучей всяких фишек крутых, а, но что они якобы сделают небольшие очки. Вы что думаете
34:50
на эти темы вообще? Вот такие кулоны, очки, разные системы распознавания,
34:55
биометрии и так далее современные. на мой взгляд, абсолютно небезопасная
35:00
история. И тут сразу вспоминается то, что как только Apple объявила, что они с
35:07
Open AI начинают коннектиться вот по Apple Intelligence, первое, что сделал
35:14
Илон Маск, он сказал, что он запретит использование телефонов Apple там во
35:19
всех своих компаниях, да, чтобы там всё это не утекло, не убежало и так далее, да. И мне кажется, вот как только
35:25
появятся там подобного рода очки и прочее, первое, что будет происходить, их будут там где-то запрещать. А если
35:32
попытаться дальше раскрутить историю, как вот в кафе-ресторанах были залы для
35:39
курящих, залы для некурящих, появится что-нибудь такое, может быть, да, там залы для тех, кто носит кулоны, очки, и
35:44
залы для тех, кто не пользуется этими вещами. сидят
35:50
вкалонами, ещё с чем-нибудь в наушниках каких-нибудь каких общественном месте.
35:56
Это же очень интересно. В общественном месте типа когда ты идёшь в очках и записываешь, якобы ограничения нету. Так же как ты идёшь, например, записываешь
36:02
на телефон, ты же видео можешь снимать. В то же время якобы, как кто-то может сказать, да, в то же время кто-то может
36:08
сказать: «Не снимайте меня». И вот эта вот грань, вот эти вот тонкости, нюансы, микро микро микро микро микродетальки,
36:14
они же вообще очень непонятные. Ты часто даже не понимаешь, что ты мог снимать или не мог.
36:20
Интересно, что вот про этот кулон система говорит, что вы в кафе типа можете снимать, потому что люди слушать
36:26
людей, потому что люди и так разговаривают и якобы типа это нормально. В то же время это пограничная
36:33
ситуация, и ты такой: «Ну это же не пограничная ситуация, я же типа записал, да?» И вот ты не понимаешь, вопрос с
36:38
какой целью, да, наверное, вопрос, да, с какой целью, да? И это, кстати, тоже прикольная штука, что вот этот закон,
36:44
помните, выходил закон, а, по-моему, в Нью-Йорке или где-то, что они их прямо
36:49
жёстко начнут штрафовать за, если ты используешь какие-то фейки против людей или какие-то доказательства с помощью
36:55
искусственного интеллекта и так далее. Но здесь ты же кого-то пишешь, ты же не планируешь его шантажировать. Если ты не
37:01
планируешь шантажировать, якобы ты не нарушил правил. Вот это да. Ну да, ты не можешь это и в суде, по-моему, я не
37:07
знаю, в России точно ты не можешь использовать, не знаю, как в Америке. То есть, если ты для себя, то, наверное,
37:14
это законно, то больше всего я переживаю из-за того, что всё это обрабатывается где-то на серверах. То есть, если всё
37:21
это уже уехало куда-то, удаляется, не удаляется, как обрабатывается, как хранится, для чего используется, это
37:28
большие вопросы вызывает. То есть, если бы это на переносных там, я не знаю, там
37:33
в кармане у тебя лежит какой-то вычислитель, в котором всё это обрабатывается, и ты как-то получаешь данные, и это никуда точно не уезжает за
37:39
предел этого числителя. Это ещё там одна история. А если ты условно, я не знаю, там забыл выключить и, не знаю, ну, там
37:47
дальше придумайте сами. И попало всё это в кадр и вот, собственно, потом куда-то
37:52
уплыло, ну, не знаю, мне эта история не очень нравится. Напишите в
37:58
комментариях, кстати, кто использует чаты разные, насколько вы беспокоитесь, что ваши данные, а, могут куда-то утечь
38:06
или нет. Тоже важная, мне кажется, информация, потому что народ всё больше и больше и больше начинает скидывать
38:11
конвенциалки. То есть раньше, я даже по себе помню, я 2 года назад, когда скидывал какой-то документ, я такой
38:17
думал: «Так, я документ выкладываю в какую-то систему. Сейчас я я, например, легко сейчас стал выкладывать всякие
38:23
медицинские документы, свои какие-то договора для анализа. Просто вообще автоматически. Очень редко я делаю
38:30
чаттем. Ну вот этот, который там есть, чат временный, который якобы не сохраняет историю. И опять же мы с вами
38:35
не знаем, да? То есть этот чат всё равно через сервер же прогнал. И получается, что это он у тебя не сохранился, это же
38:41
не значит, что он у них не сохранился. Вот. И какой у них объём данных сохранился. Вот эта тема она, напишите,
38:47
очень интересно, как кто к этому относится, что с этим сталкивается. Вот, Саша, слушай, ты на эту тему вот в
38:53
инженерной среде, а это является проблемой? Вот когда люди в разных
38:59
Насколько люди беспокоятся, инженеры насколько беспокоятся на тему того, когда они скидывают во всякие системы
39:04
там код свой, аз документов каких-то или всем параллельно? Да, да, да, я не знаю.
39:10
То есть имеется в виду, что все как бы пользуются. Сейчас, честно говоря,
39:17
вопрос. Я, честно говоря, думаю, что Gнерафi развивается очень в таком классическом формате, что мы находимся
39:25
на этапе чисто консюмер адопшена такого. Consumer consumer, да, когда мы говорим
39:31
про безопасность, это что-то такое типа enterprise уже, да, то есть у нас не было ещё ни одной большой утечки в Generative Tifi, да. То есть как бы мне
39:38
кажется всё настолько как бы рано сейчас в Generative AI мы ещё не не пришли к enterprise приложениям по сути мы ну на
39:46
очень ранней стадии то есть как бы пока все пытаются просто как-то внедрить
39:51
получить value и разобраться как вообще с этим жить мне кажется мы ещё пока на ранней стадии честно скажу
39:58
на ранней стадии что беспокоится но да но люди в целом беспокоятся или не беспокоятся
40:03
конечно люди об этом думают но нет мне кажется они Не сильно не парятся, да?
40:09
Мне кажется, сильно не парятся, да? Ну вот кто-то пишет код, например, программный. Вот вот расскажи мне. Вот
40:14
программист пишет код программны, и он заливает это в систему какой-то свой уникальный код. Или человек придумал
40:19
какой-то уникальный просто какой-то текст, не знаю, и вот он его заливает. Он беспокоится за это или нет? Ну вот я
40:25
не беспокоюсь. Не беспокоится, да? Нет, можно же явно поставить галочку,
40:31
чтобы отписаться. Ну как-то галочку поставить не бывает непонятно, где эта галочка ставится. То есть ты вроде
40:37
ставишь галочку типа отписаться, но ты же не понимаешь на этих данных, там обучаются или не обучаются, они попадают потом в интернет или не попадают в
40:44
интернет. То есть ты вот это не понимаешь. Является ли это данными для обучения? А мне кажется, когда ты
40:50
галочку снимаешь, то не не нет нет. А в бесплатных версиях, например,
40:57
там не знаю, что А бесплатно, мне кажется, нельзя галочку снять. Ну, может быть, мне так кажется, мне кажется, но я могу ошибаться.
41:03
А в тулах, которые помогают программировать, насколько эти тулы не сохраняют контент? Да здесь же вопрос
41:08
внутреннего состояния. Линар, у тебя возникают какие-то ощущения, когда ты какой выкладываешь, не знаю, какой-то код или что-то специфическое? Ты не
41:15
боишься, что на этом обучится? Это нет, но я и не выкладываю то, из-за
41:20
чего я буду переживать, да? Или то, что находится под индеей в компании. То есть ты это, ну, как бы ты в принципе нарушаешь закон, если ты выкладываешь в
41:27
условно чат GPT что-то, что у тебя закрыто, ну, какими-то там лицензионными соглашениями. Но я тут больше переживаю
41:34
из-за чего. Ну, вот очки, они там постоянно будут снимать видео, да, и что на это видео попадётся. То есть когда ты в чат пишешь, ты это сам делаешь, а у
41:42
тебя тут какие-то случайные кадры могут показаться там в зеркале что-нибудь там или ещё что-то такое, да. Вот я мне как
41:48
меня больше это заставляет переживать, когда мы говорим про носимые устройства, которые постоянно пишут звук, пишут
41:54
видео, куда-то отправляют эти данные для обработки и так далее. Но когда ты сам отправляешь, ну, ты просто сам принимаешь решение, отправлять или не
42:00
отправлять. Тут как бы нет переживания. Ну что, всем до свидания, увидимся ровно через неделю и плюс смотрите наши
42:06
выпуски по света.
42:13
Yeah.

