Таймкоды
00:00:00 Введение в большие языковые модели
- Продолжение серии о больших языковых моделях, таких как ChatGPT.
- Обзор практического применения инструментов и доступных настроек.
- Упоминание веб-страницы ChatGPT.com и её истории.
00:00:59 Экосистема чат-ботов
- ChatGPT от OpenAI — оригинальный лидер, но есть множество похожих приложений.
- Примеры других чат-ботов от крупных технологических компаний: GPT-4 от Google, Meta и Microsoft, а также стартапов: Claude от Anthropic, Grok от X.
00:02:04 Где найти модели и как за ними следить
- Модели доступны в интернете, есть рейтинги, например, Chatbot Ирина и рейтинг сил от Skyl.
- Начало с ChatGPT как лидера экосистемы.
00:02:55 Взаимодействие с языковой моделью
- Пример взаимодействия: запрос на написание хайку.
- Модель отвечает потоком слов, создавая ощущение чата.
00:03:50 Токены и формат чата
- Текст разбивается на токены, модель видит последовательность токенов.
- Использование приложения Tokenizer для анализа токенов.
- Формат чата: специальные токены обозначают начало и конец сообщений.
00:07:22 Контекстное окно
- Контекстное окно — рабочая память для токенов.
- Модель использует токены из контекстного окна для ответов.
00:07:56 Этапы обучения языковой модели
- Предварительная подготовка: интернет разбивается на токены и сжимается в файл с потерями.
- Пост-подготовка: добавление диалогов для создания помощника.
- Объединение знаний из интернета и стиля помощника.
00:11:54 Автономность языковой модели
- Языковая модель — автономная сущность, представляющая собой файл с параметрами нейросети.
- Знания получены из интернета, личность запрограммирована после обучения.
- Знания устарели, но часто упоминаемые вещи запоминаются лучше.
00:13:04 Взаимодействие с чат-ботом
- Пример вопроса о количестве кофеина в американо: чат-бот ответил 63 мг.
- Модель использует информацию из интернета, но её ответы не всегда точны.
- Важно проверять информацию из первоисточников.
00:14:02 Пример с лекарствами
- Вопрос о лекарствах от насморка: чат-бот дал советы, но информация оказалась не совсем точной.
- Проверка состава лекарств подтвердила, что информация не всегда соответствует реальности.
00:15:45 Рекомендации по общению с моделями
- Начинать новый чат при смене темы, чтобы очистить окно с токенами.
- Токены в окне контекста могут отвлекать модель и снижать её точность.
- Чем больше токенов в окне, тем дороже обходится выбор следующего токена.
00:18:26 Выбор модели
- В режиме инкогнито может использоваться более простая модель.
- Три тарифа: бесплатный, плюс и профессиональный.
- Бесплатный тариф предлагает GPT-40 Mini, который имеет меньше параметров и может давать менее качественные ответы.
00:20:22 Стоимость и выбор модели
- Более дорогие модели требуют больше вычислений и предлагают больше возможностей.
- Выбор модели зависит от целей использования ИИ.
- Для профессиональных целей могут быть полезны топовые модели.
00:20:54 Ценовые категории и модели
- У разных поставщиков и моделей есть разные ценовые категории.
- Профессиональный тарифный план даёт доступ к более мощным моделям, например, Клоду 3.5 сонет.
- Пример использования Клода: выбор места для путешествия — Цермат в Швейцарии.
00:21:54 Экспериментирование с моделями
- Переключение между разными моделями для получения разных ответов.
- Важность выбора подходящей модели для задач.
- Использование нескольких сервисов для получения «совета языковых моделей».
00:22:51 Этапы обучения моделей
- Предварительное обучение, тонкая настройка с учителем, обучение с подкреплением.
- Обучение с подкреплением позволяет моделям находить стратегии мышления, приводящие к хорошим результатам.
- Стратегии мышления модели напоминают внутренний монолог человека.
00:24:14 Модели для размышлений
- Модели для размышлений дополнительно настроены с помощью обучения с подкреплением.
- Они обеспечивают более точные ответы на задачи, требующие глубокого анализа.
- Пример проблемы в программировании: проверка градиента не сработала.
00:25:50 Решение проблемы с помощью моделей
- GPT-4 не решила проблему, но подсказала, как её отладить.
- Модель OpenAI One Pro, использующая обучение с подкреплением, нашла правильное решение после минуты размышлений.
- Другие модели, такие как Клод и GPT-3, также решили задачу.
00:29:13 Преимущества думающих моделей
- Думающие модели эффективны для решения сложных математических задач и написания кода.
- Они могут повысить точность работы.
- Для быстрых ответов обычно используются не думающие модели.
00:30:13 Переключение на думающую модель
- В GPT-3 можно нажать «подумай», чтобы модель переключилась на думающую.
- Разные провайдеры предоставляют возможность выбора между думающими и не думающими моделями.
00:31:01 Введение в использование инструментов
- Языковая модель до сих пор общалась только текстом и была инертной.
- Цель — дать модели возможность использовать различные инструменты, включая поиск в интернете.
00:31:47 Пример использования поиска
- Раньше для поиска информации приходилось вручную переходить по ссылкам, что было неудобно и часто приводило к нахождению рекламы.
- Модель может автоматически искать информацию, собирать её и выдавать ответ.
00:32:34 Механизм поиска
- Модель выдаёт специальный токен, который является поисковым запросом.
- Приложение выполняет поиск, собирает текст с веб-страниц и добавляет его в окно контекста.
- Это позволяет модели отвечать на вопросы, используя информацию из интернета.
00:33:25 Роль окна контекста
- Окно контекста — это рабочая память модели, куда загружаются статьи и текст с веб-страниц.
- Модель использует информацию из окна контекста для ответа на вопросы.
00:34:38 Примеры инструментов
- Поти — хорошая модель для поиска в интернете.
- Чешипт также представил кнопку поиска в интернете.
- Модель находит веб-страницы, создаёт запросы и даёт ответ, выполняя большую часть работы за пользователя.
00:35:34 Взаимодействие с ChatGPT
- В ChatGPT можно указать, что нужно искать информацию, выбрав соответствующий вариант.
- Модель понимает, когда нужно искать свежую информацию, и предлагает это сделать.
00:36:36 Сравнение с другими моделями
- GPT-3 ищет информацию автоматически, если знает, что нужно искать.
- Claude не имеет функции поиска в последнем обновлении от апреля 2024 года.
00:37:07 Ограничения доступа к знаниям
- Клод сообщает, что доступ к знаниям будет закрыт с апреля 2024 года, но точной даты нет.
- У Клода нет функции поиска в интернете, поэтому он не может дать ответ.
- Джеммы на и 20. Про Экспо-Метал не имеют доступа к поиску в интернете.
00:37:50 Функции поиска в моделях
- Модель 20. Флеш имеет функцию поиска в интернете, но у 20. Про её нет.
- Про Экспо-Метал не полностью подключена к интернету.
- Модели могут выполнять поиск в Google, переходить на веб-страницы и извлекать информацию.
00:39:08 Примеры использования поиска
- Автор использует Popty для поиска в интернете, например, для проверки работы рынка или места съёмок третьего сезона «Белого лотоса».
- Примеры запросов: предложения от Versal, слухи о презентации Apple, прогноз погоды, рост акций Peloton, зубная паста Брайана Джонсона, безопасность поездки во Вьетнам.
00:41:47 Глубокое исследование
- Глубокое исследование — это сочетание поиска в интернете и мышления, которое требует десятков минут.
- Пример запроса: исследование активного компонента в составе плана Брайана Джонсона.
- Модель обрабатывает много информации и объясняет её лучше, чем обычный поиск.
00:44:43 Аналоги глубокого исследования
- Popty предлагает глубокие исследования, отправляя запросы в Popty.
- Grok имеет функцию глубокого поиска, похожую на глубокое исследование.
- Интерфейс Grok позволяет просматривать документы и результаты поиска в интернете.
00:46:23 Результаты глубокого исследования
- Программа обрабатывает огромный массив данных и готовит отчёт.
- Отчёт включает список ссылок, которые можно изучить.
- Глубокое исследование позволяет провести исследовательскую работу по любой теме.
Таймкоды в нейросети https://300.ya.ru/v_53yQ8hHd/
Расшифровка видео
0:00
Всем привет в этом видео Я хотел бы продолжить нашу серию для широкой аудитории посвящённую большим языковым
0:06
моделям таким как чат гпт в предыдущем видео мы подробно рассмотрели м которые можно найти на моём YouTube канале и
0:13
рассказали о принципах их работы и о том как следует воспринимать их когнитивные способности и психологию теперь я хочу
0:20
рассказать о более практическом применении этих инструментов Я хочу показать вам множество примеров Я хочу
0:26
познакомить Вас со всеми доступными настройками Я хочу показать вам как я использую эти инструменты и как вы
0:32
можете использовать их в своей жизни и работе Давайте начнём Итак во-первых я открыл для вас веб-страницу chat.com как
0:40
вы возможно знаете Chat appd был разработан Open ai и запущен в 2022 году
0:46
Это был первый случай когда люди могли общаться с большой языковой моделью через текстовый Интерфейс это стало
0:52
вирусным и распространилось по всему интернету это было грандиозно с тех пор экосистема значительно расширилась я
0:59
покажу множество примеров конкретно чат гпт но сейчас в 2025 году Существует
1:05
множество других приложений похожих на чат гпт это уже гораздо более обширная и богатая экосистема в частности Я думаю
1:13
что чат гпт от Open ai — это оригинальный лидер Он самый популярный и функциональный потому что существует
1:20
дольше всех но я бы сказал что есть много других похожих приложений Я не думаю что будет несправедливо так
1:26
сказать но В некоторых случаях есть уникальные возможности которых нет в чат гпт и мы рассмотрим примеры таких
1:32
случаев например крупные технологические компании используют чат-боты похожие на чат гпт например G и coil от Google и
1:41
Microsoft соответственно есть также несколько стартапов Например у арок есть
1:46
Клод который похож на чат гпт у компании й принадлежащей Илону маску есть грок и
1:53
есть много других все эти компании из США
2:04
где можно найти эти модели и как за ними следить ну во-первых в Интернете Но есть
2:09
несколько рейтингов и в предыдущем видео Я показывал вам чатбот Рина Здесь вы можете увидеть рейтинг разных моделей и
2:16
их силу или оценку по шкале ило это одно из мест где можно следить
2:22
за ними другое место которое я бы назвал это рейтинг сил
2:27
от Здесь вы также можете увидеть разные виды оценок и разные модели а также их
2:32
рейтинг Здесь вы также можете увидеть какие модели сейчас лучше всего справляются с разными
2:40
задачами понимаете экосистема довольно обширна но сейчас я начну с Open потому
2:46
что это Лидер и у него больше всего функций Но со временем я покажу вам и другие начнём с чат гпт что это за
2:53
текстовое поле и что мы туда водим Итак самый простой способ взаимодействия с языковой моделью — это вести те а затем
3:00
получить ответ например мы можем попросить написать хайку о том каковой это быть большой языковой моделью Это
3:07
хороший пример для языковой модели потому что она отлично справляется с написанием текстов писать хайку стихи
3:14
сопроводительные письма резюме или отвечать на электронные письма — это то что языковая модель умеет делать хорошо
3:21
когда мы просим её что-то сделать происходит следующее модель отвечает слова льются потоком бесконечное Эхо
3:29
призрак мысли невидимый Это довольно драматично Но то
3:35
что мы видим здесь в главе немного похоже на разговор с другом Это что-то
3:40
вроде чата в предыдущем видео мы видели что под капотом происходит следующее это
3:46
то что мы называем пользовательским запросом это фрагмент текста этот фрагмент текста и ответ модели
3:52
разбиваются на маленькие фрагменты которые называются токенами таким образом э
3:58
последовательность текста под капотом представляет собой последовательность токенов однор последовательность токенов
4:05
мы можем увидеть эти токены с помощью приложения Например тиктока незер если я выберу Т4 то могу вставить сюда свой
4:12
текст и это то что модель видит под капотом мой текст для модели выглядит как последовательность из 15
4:20
токенов вот эти маленькие фрагменты текста которые видит модель здесь
4:26
Примерно 200 возможных токенов вот идентификаторы токенов
4:31
соответствующие всем этим маленьким фрагментам текста которые являются частью моего запроса Вы можете поиграть
4:37
с этим и обновить его например Здесь учитывается регистр вы получите другие токены Вы можете отредактировать их и
4:43
посмотреть Как меняется последовательность токенов наш запрос состоял из 15 токенов а ответ модели Вот
4:50
здесь она ответила нам последовательностью из де токенов это хайку последовательность из
4:58
19 токенов мы задали 15 токенов а она ответила 19 Это потому что это чат и мы
5:05
хотим Сохранить все метаданные которые составляют объект чата Но это ещё не всё что происходит под капотом в предыдущем
5:12
видео мы немного рассказали о формате чата это становится немного сложнее
5:20
потому что нам нужно взять запрос пользователя и использовать формат чата Давайте удалим системное сообщение Я
5:27
думаю оно не очень важно для понимания прои Давайте Я вставлю своё сообщение как
5:32
пользователь а затем вставлю ответ модели как помощник А теперь давайте правильно его
5:38
обре можем инструмент не делает этого правильно Вот как это происходит под
5:45
капотом вот все эти специальные токены которые обозначают начало сообщения
5:50
пользователя а затем пользователь говорит и это содержание нашего сообщения затем пользователь заканчивает
5:57
а помощник начинает и говорит вот Это и так далее сейчас не так важно как именно
6:03
выглядит этот разговор Я хочу донести до вас что то что кажется нам с вами маленькими пузырьками чата на самом деле
6:10
это взаимодействие с моделью и мы оба пишем в поток
6:16
токенов эти два пузырька — это последовательность из 42
6:23
токенов я добавил несколько первых токенов а затем модель продолжила последовательность
6:29
ответами мы можем продолжать добавлять токены вместе мы создаём окно токенов
6:39
одномерном Хорошо давайте вернёмся к джошу ПТУ то что мы видим похоже на маленькие пузырьки которые появляются
6:45
между нами и моделью на самом деле мы создаём одномерной токенов когда я нажимаю здесь
6:52
на новый чат окно токенов очищается то есть мы сбрасываем количество токенов до
6:57
нуля и начинаем разговор заново теперь я представляю себе этот процесс
7:03
примерно так когда мы нажимаем на новый чат
7:08
начинается последовательность токенов это одномерная последовательность токенов пользователь может писать в этот
7:15
поток А когда он нажимает ввод управление переходит к языковой
7:21
модели языковая модель отвечает своими потоками токенов у языковой модели есть
7:27
специальный токен который означает примерно На следующее Я закончил когда чатбот гпт генерирует токен он передаёт
7:34
управление нам и мы можем Отвечать по очереди мы вместе формируем поток токенов который мы называем контекстным
7:42
окном контекстное окно — Это что-то вроде рабочей памяти для токенов и всё
7:48
что находится в этом окне доступно модели для
7:55
работы Итак с кем мы сейчас разговариваем и это понимать Ну это языковая модель которую
8:03
мы видели в предыдущем видео обучается в два этапа предварительная подготовка и
8:25
пост-пост структурой потому что невозможно представить в одном файле
8:30
размером скажем в терабайт потому что информации слишком
8:36
много мы просто получаем общее представление об этом
8:43
файле на самом деле внутри этого файла находятся параметры нейронной
8:48
сети например файл размером в 1 терабайт будет содержать примерно 1 трин
8:54
параметров нейронной сети сеть пытается предсказать следующий
9:01
токен в последовательности но она делает это на
9:06
основе интернет документов Это что-то вроде генератора интернет документов верно в процессе предсказания следующего
9:14
токена в последовательности в интернете нейронная сеть получает огромное количество знаний о мире и все эти
9:21
знания представлены сохранены и сжаты примерно в оди триллионе параметров этой языковой модели
9:29
этот этап предварительного обучения довольно затратный он может стоить десятки миллионов долларов например 3
9:35
месяца обучения и так далее Это долгий и дорогостоящий этап поэтому он проводится
9:41
не так часто например модель гпт 4 была предварительно обучена вероятно
9:48
несколько месяцев или даже год назад поэтому эти модели немного
9:53
устарели у них есть так называемый отсечённых
9:59
тому моменту когда модель была предварительно обучена и её знания заканчиваются на этом некоторые знания
10:05
не могут попасть в модель на этапе посто обучения о котором мы поговорим во второй
10:11
части Но грубо говоря эти модели можно считать немного устаревшими потому что
10:17
предварительное обучение слишком дорогое и проводится редко Поэтому если вы
10:22
хотите поговорить с моделью о чём-то Что произошло на прошлой неделе или около того нам понадобятся другие способы
10:28
передачи это информации модели потому что она не хранится в её знаниях поэтому мы будем использовать различные
10:35
инструменты для передачи этой информации модели после предварительного обучения наступает второй этап посто обучения на
10:42
этапе
10:51
[музыка]
11:00
диалогов созданных людьми таким образом модель становится похожей на помощника и мы можем задавать
11:07
вопросы а она отвечает на них так она приобретает стиль
11:13
помощника это происходит на этапе
11:29
полностью автономной сущностью это языковая модель
11:34
Представьте её как файл размером в 1 теб на диске по сути это 1 триллион параметров и их точные настройки
11:41
внутренней россети которая пытается выдать вам следующий токен в последовательности Но это полностью
11:46
автономная сущность здесь нет ни калькулятора ни компьютера ни интерпретатора Python ни интернета
11:53
Ничего этого нет пока мы не используем никаких инструментов вы общаетесь с Zip
11:58
файлом Если вы отправите ему токены он Ответит вам токенами у этого Zip файла
12:04
есть знания полученные на этапе предварительной тренировки и стили форма полученные на этапе
12:29
который я прочитал целиком полгода назад и я помню только самое основное хорошо а моя личность была
12:37
запрограммирована людьми из Open моя личность была запрограммирована
12:43
после обучения а знания Я получил жав интернет во время предварительного обучения и эти знания немного устарели
12:51
они приблизительные и немного расплывчатые некоторые вещи которые часто упоминаются в интернете я пом
12:59
лучше чем то что упоминается редко это похоже на то Как вы могли бы ожидать от человека Давайте теперь поговорим о
13:05
последствиях существование этого чат-бота и о том как с ним можно общаться И чего от него можно ожидать Я
13:12
хотел бы привести реальные примеры например сегодня утром я спросил у чеши БТА следующее сколько кофеина в одной
13:20
порции Американо Мне было интересно потому что я сравнивал его с матча чаш
13:25
ипт ответил что примерно 63 мг кофеина Я спросил об этом Потому что думаю что это
13:31
нормально во-первых Я не спрашиваю О чём-то совсем недавнем я ожидаю что модель знает
13:38
сколько кофеина в одной порции Я не думаю что эта информация сильно изменилась и во-вторых я считаю что эта
13:45
информация часто встречается в интернете подобные вопросы и информация появляются в интернете повсюду и поскольку об этом
13:52
так много упоминалась я ожидаю что модель хорошо это запомнит поэтому она не использует инструменты модель zipf
14:00
ответила что примерно 63 мг я не могу гарантировать что это правильный ответ
14:06
Это просто её смутные Воспоминания из Интернета но я могу обратиться к
14:11
первоисточника и возможно Посмотреть например сколько кофеина содержится в Американо и убедиться что да примерно 63
14:18
мг и вы можете проверить в первоисточника правда это или нет я не могу гарантировать что это правда но я
14:25
думаю что это то что должно знать д разговора который у меня был 2 дня назад
14:32
И вот ещ один пример разговора основанного на знаниях и того о ЧМ я могу спросить чат гпт с некоторыми
14:38
оговорками я немного приболел у меня насморк и я хочу купить лекарство от него и он мне рассказал много
14:45
всего я хочу чтобы мой нос не был заложен поэтому я уточнил что он сказал
14:51
и он дал мне несколько советов Что может помочь а потом я посмотрел какие лекарства есть у меня дома и спросил
14:58
Помогает ли квил или и он выдал что это похоже на ингредиенты декла и кла и что
15:04
они помогают при насморке но когда я посмотрел на состав Я понял что это не совсем так я достал упаковку и убедился
15:12
что в ник вели именно эти
15:23
ингредиенты и я сделал это потому что не всегда полностью доверяю тому что здесь написано верно это просто статистическое
15:30
воспроизведение информации из интернета но тем не менее деквил и квил очень распространённые
15:37
лекарства вероятно в интернете есть много информации об этом и модель хорошо
15:42
это помнит Так что на самом деле всё было
15:47
правильно тогда я спросил хорошо У меня есть никл как быстро он подействует и он
15:53
ответил и это было похоже на Даши
15:59
того как мусор может быть полезен это запрос на основе знаний это не совсем свежие
16:04
знания это всё из-за знаний модели Я думаю это обычная информация это не
16:10
очень важная ситуация я немного проверяю чат гпт но это не очень важно Так что
16:15
ничего страшного Так что я попробовал и действительно получил помощь Но это примерно то что я думаю о том что здесь
16:22
происходит Итак я хочу сделать две заметки Первое что я хочу отметить это
16:27
то что естественно по мере с этими моделями вы заметите что ваши диалоги становятся длиннее верно Каждый раз
16:33
когда вы меняете тему Я рекомендую вам начинать новый чат Когда Вы начинаете
16:39
новый чат как мы уже говорили вы очищаете окно с токенами и возвращаете его к нулю если эти токены больше не
16:46
нужны для вашего следующего запроса Я рекомендую вам это сделать потому что эти токены в окне стоят дорого и они
16:53
стоят дорого по двум причинам во-первых если у вас много токенов это может много
16:59
отвлекать модель Если токенов слишком много модель
17:04
может отвлечься Это что-то вроде рабочей памяти модели модель может отвлекаться на все прошлые токены когда пытается
17:12
выбрать токены для следующего запроса это может снижать точность модели и её
17:18
производительность во-вторых чем больше токенов в окне тем дороже обходится выбор следующего токена в
17:25
последовательности ваша модель работает немного медленнее
17:31
вычисление следующего токена становится дороже и чем больше токенов в окне тем дороже оно обходится Так что считайте
17:38
токены в окне контекста ценным ресурсом думайте об этом как о рабочей
17:44
памяти модели и не перегружайте её ненужной информацией делайте её Как можно короче и вы можете ожидать что это
17:51
будет работать быстрее и немного лучше конечно если информация действительно относится к вашей задаче Вы можете
17:57
оставить её там но я советую вам по возможности каждый раз начинать новый чат Когда вы меняете тему второе всегда
18:05
помните Какую модель вы используете вот здесь в левом верхнем углу мы можем
18:10
посмотреть что сейчас используется гпт 4 Существует множество разных моделей и их
18:15
слишком много чтобы перечислять их все но мы постепенно Познакомимся с некоторыми из них сейчас мы используем
18:21
ПТ 4 и во всём что я вам показывал используется именно эта модель теперь Когда я открываю новое окно в режиме Inc
18:29
например захожу на chat.com без авторизации модель с которой я общаюсь может быть другой если я просто скажу
18:35
привет модель с которой я общаюсь может быть не Т4 а её более простой версии К
18:41
сожалению Open не сообщает мне какую модель я использую когда я не авторизован возможно вы используете
18:47
более простую и менее функциональную модель на странице с ценами на чат гпт Мы видим что у них есть три основных
18:54
тарифа для частных лиц бесплатный плюс и профессиональный в платном тарифе есть
19:00
так называемая гпт 40 Mini это более простая версия гпт 4 это более простая
19:06
модель с меньшим количеством параметров она не такая креативная и её ответы могут быть не такими хорошими её знания
19:13
тоже не такие обширные возможно будет немного больше глюков и так далее но это что-то вроде бесплатного предложения
19:19
начального уровня они говорят что у вас будет ограниченный доступ к 403 Mini но я не уверен на 100% например нам не
19:27
сказали Какую модель мы используем Так что мы просто не знаем Если вы платите 20 долларов в месяц Хотя это нигде не
19:34
указано Я думаю что они просто неточно описывают это Но если посмотреть на мелкий шрифт то там указано что
19:40
пользователи ПС получают 80 сообщений каждые 3 часа для гпт 4 это самая
19:47
большая модель которая сейчас доступна и мы хотим использовать именно её Если вы платите 20 долларов в месяц у
19:55
вас есть это с некоторыми ограничениями платите 200 долларов в месяц вы
20:00
получаете про и там есть куча дополнительных возможностей а также неограниченное количество гпт 400 мы
20:07
сейчас рассмотрим Некоторые из них потому что я плачу за подписку Pro главное что я хочу чтобы вы поняли — это
20:13
то что нужно обращать внимание на модели которые вы используете как правило более дорогие модели требуют больше вычислений
20:19
Поэтому компании берут больше за более дорогие модели Так что Выбирайте сами в зависимости от того как вы используете м
20:26
Посмотрите Сможете ли вы обойтись более Девы предложениями если искусственный интеллект недостаточно хорош для вас и
20:32
вы используете его в профессиональных целях возможно вам Стоит подумать о покупке топовых моделей которые доступны у этих компаний в моём случае в моей
20:38
профессиональной деятельности я много занимаюсь программированием и другими вещами И это всё ещё очень дёшево для
20:44
меня Поэтому я с радостью плачу за это потому что получаю доступ к действительно мощным моделям которые я
20:49
вам сейчас покажу Так что да следите за тем Какую модель вы используете и принимайте решение сами я также хочу
20:55
показать вам что у всех других поставщиков и моделей будут разные ценовые категории с разными моделями на
21:00
разных уровнях за которые вы можете платить Например если мы посмотрим на Клода из anopic вы увидите что я плачу
21:07
за профессиональный тарифный план это даёт мне доступ к лоду 3,5 сонет Если вы
21:12
не платите за профессиональный тарифный план То вероятно У вас есть доступ только к хайку или чему-то подобному
21:18
Используйте самую мощную модель которая вам подходит Вот пример того как я недавно использовал Клода Я просто хотел
21:25
узнать куда можно поехать в путешествие и Клод сказал мне что рмат в Швейцарии
21:31
отличное место в итоге я поехал туда на новогодние каникулы по совету Клода Но
21:36
это просто пример того как эти модели могут быть полезны для путешествий идей и получения Советов которые вы можете
21:43
изучить дальше Вот ещё один пример с Джини google.com Это от Google Я спросил
21:50
мнение Джини по этому поводу и спросил куда можно поехать в путешествие И она тоже порекомендовала рмат это было
21:57
здорово мне Рави включаться между разными моделями задавать им похожие вопросы и смотреть что они думают по
22:03
этому поводу А в левом верхнем углу у нас есть выбор модели можно заплатить за более продвинутые уровни и использовать
22:10
их то же самое с грок Он только что вышел мы не хотим задавать к 2 вопроса
22:16
потому что знаем что к 3 самая продвинутая модель поэтому я хочу убедиться что у меня есть доступ к grog
22:23
3 Так что для всех этих разных сервисов Найдите тот который вам больше подходит
22:28
экспериментируйте с разными сервисами и разными уровнями цен для задач над которыми вы работаете И это своего рода
22:35
Я часто просто плачу за несколько сервисов а потом задаю им один и тот же
22:40
вопрос я называю все эти модели своим советом по и Это что-то вроде совета
22:46
языковых моделей если я пытаюсь выбрать место для отпуска Я спрашиваю у них Вы
22:51
тоже можете так делать если вам это подходит Ладно теперь я хочу поговорить о моделях мышления так сказать
22:58
в предыдущем видео мы видели что есть несколько этапов обучения сначала идт предварительное обучение затем тонкая
23:05
настройка с учителем затем обучение с подкреплением обучение с подкреплением — это когда модель тренируется на большом
23:12
количестве задач похожих на задачи из учебника и она тренируется на множестве
23:18
математических задач и задач по программированию в процессе обучения с подкреплением модель находит стратегии
23:24
мышления которые приводят к хорошим результатам стратегии мышления если
23:29
посмотреть на них очень похожи на внутренний монолог который возникает когда мы решаем какую-то задачу таким
23:35
образом модель пробует разные идеи возвращается к предыдущим предположениям и делает что-то подобное многие из этих
23:42
стратегий очень сложно запрограммировать вручную потому что не всегда понятно Каким должен быть процесс мышления
23:49
только в обучении с подкреплением модель может пробовать разные варианты и находить Тот процесс мышления который ей
23:55
подходит с учётом её знаний и возможностей это третий этап обучения таких моделей
24:01
он появился относительно недавно Всего пару лет назад за последний год разные
24:06
лаборатории занимающиеся экспериментировали с этими
24:13
моделями и вот недавно мы посмотрели статью из п сик которая была первой где
24:18
об этом говорилось в ней была хорошая статья об обучении и с подкреплением чтобы он мог
24:25
рассуждать это та статья которую мы рассматривали в щем видео теперь нам нужно немного изменить наш рисунок
24:32
потому что у нашего смайлика появился дополнительный пузырь для размышлений Когда вы используете модель
24:39
для размышлений то есть для дополнительного обдумывания вы используете модель которая была
24:44
дополнительно настроена с помощью обучения с подкреплением Что это значит модель будет больше думать и вы можете
24:51
ожидать что точность ответов будет выше особенно на задачах связанных с математикой программированием и другими
24:57
вещами требующими размышлений некоторые вещи которые кажутся простыми на самом деле не
25:03
приносят пользы но есть и такие которые требуют глубокого анализа и могут быть очень полезными и за это вы платите тем
25:10
что модели Будут думать а это иногда занимает много минут потому что модели генерируют огромное количество токенов в
25:17
течение нескольких минут и Вам приходится ждать пока модель подумает как это сделал бы человек но в ситуациях
25:25
Когда у вас возникают очень сложные проблемы может повысить точность давайте рассмотрим несколько примеров вот
25:32
конкретный пример когда я недавно столкнулся с проблемой в программировании проверка градиента не
25:37
сработала и я не знаю почему я скопировал код модели но детали кода не важны это оптимизация многослойного
25:44
перцептрон и детали тоже не важны это код который я написал и в нём
25:51
была ошибка потому что проверка градиента не работала я просто попросил совета Т4 самая мощная модель от openi
26:00
не задумываясь перечислила несколько вещей которые по её мнению были проблемы или которые мне нужно было перепроверить
26:06
но на самом деле не решила проблему например всё что она мне здесь
26:12
перечислила не является основной проблемой то есть модель не решила
26:17
проблему она подсказали мне как её отладить и так далее но потом я сделал
26:23
Вот что в выпадающем меню Я обратился к одной из моделей для размышлений сейчас все моде начинающиеся Нау которые есть в
26:30
Open — это модели для размышлений например 133 Min и Pro про режим всё это модели
26:38
для размышлений они не очень хорошо умеют называть свои модели но это так и
26:44
вот они говорят что-то вроде используют продвинутые методы рассуждения или хорошо разбирается в законах логики и
26:50
тому подобном Но на самом деле все они настроены на обучение с подкреплением и поскольку я плачу 200 долларов в месяц у
26:57
ня У меня есть доступ к o1 Pro который лучше всего разбирается в рассуждениях но вы можете попробовать и
27:05
другие модели в зависимости от вашего тарифа Я дал Ту же самую задачу ou Pro
27:11
которая лучше всего разбирается в рассуждениях и за это нужно платить 200 долларов в
27:17
месяц и та же самая задача которую я дал заставила её думать в течение минуты она
27:23
прошла через последовательность мыслей Open ai не показывает вам точные мысли они просто дают вам краткое описание
27:30
мыслей но она немного подумала над кодом а потом действительно нашла правильное
27:35
решение Она заметила что параметры не совпадают И как я их упаковываю и распаковываю и так далее так что это
27:42
действительно решило мою проблему я попробовал дать Ту же самую задачу другим моделям например к лоду я дал ему
27:49
ту же задачу и он действительно заметил проблему и решил её и он сделал это даже
27:55
с сонетом который не является моделью Для размышления н 3.5 sonet насколько мне известно не
28:02
является моделью для размышлений насколько мне известно у антропного и на сегодняшний день нет развёрнутой модели
28:08
мышления Но это может измениться к тому времени когда Вы посмотрите это видео Но даже без модели мышления эта модель на
28:14
самом деле решила проблему Когда Я обратился к Джена Я задал вопрос и она тоже решила проблему Хотя я мог бы
28:21
попробовать использовать модель мышления но в этом не было необходимости я также дал эту
28:27
задачу в данном случае игрок 3 тоже решил задачу после нескольких
28:33
попыток Так что она тоже решила задачу и наконец Я обратился к polex A мне
28:39
нравится polex потому что когда вы выбираете модель одна из них это
28:45
1 это модель с логическим обоснованием которую мы видели
28:53
здесь это статья просто предоставляет е и делает удоб в использовании я скопировал её
29:00
туда и запустил и кажется они её рендеринг но здесь вы можете увидеть
29:07
необработанные мысли модели хотя их нужно
29:12
развернуть например пользователь не может выполнить проверку градиента и модель пробует разные варианты а потом
29:19
она говорит Подождите когда они суммируют градиенты Они делают это неправильно Давайте проверим порядок
29:25
параметры собраны Вот так и модель замечает а потом она как бы говорит это
29:30
критическая ошибка и она как бы обдумывает это И вам нужно подождать несколько минут а потом она тоже находит
29:36
правильный ответ Короче говоря я хочу показать вам что существует класс моделей которые мы называем думающие у
29:43
разных провайдеров могут быть или не быть такие модели эти модели наиболее эффективны для решения сложных
29:49
математических задач написания кода и тому подобного В таких случаях они могут
29:55
повысить точность вашей работы наме Если вы спрашиваете совета о путешествии вам
30:00
не нужна думающая модель не нужно ждать пока она подумает о том куда вы хотите
30:07
поехать поэтому я обычно использую недумано потому что они отвечают очень
30:13
быстро но если Я подозреваю что ответ не такой хороший как мог бы быть и хочу
30:18
дать модели возможность подумать немного дольше Я переключаю её на думаю модель в
30:23
зависимости от того какая из них у вас есть теперь когда вы например ходите в грок и начинаете разговор с грок Когда
30:31
вы задаёте вопрос Например привет Ты должен написать здесь что-то важное нажмите подумай так модель сможет
30:39
подумать Итак Включите Подумай и нажмите готово когда вы нажимаете подумай грок
30:46
переключается на думающих провайдеров есть переключатель
30:51
который позволяет выбрать хотите ли вы чтобы модель думала или можно просто использовать предыдущее поколение
30:57
моделей Хорошо теперь я хочу перейти к
31:03
использованию инструментов до сих пор мы общались с языковой моделью только с помощью текста и эта языковая модель
31:10
опять же представляет собой zip файл в папке она инертна у неё нет инструментов у неё нет никаких возможностей это
31:17
просто нейронная сеть которая может генерировать токены но мы хотим пойти дальше и дать модели возможность
31:23
использовать разные инструменты изх мен Это поиск в
31:29
интернете Давайте посмотрим как мы можем научить модели пользоваться поиском в интернете например несколько дней назад
31:36
я смотрел третий сезон белого лотоса и хотел узнать когда выйдет вторая
31:46
серия раньше Вы бы просто зашли в Google или что-то подобное ввели запрос новые серии третьего сезона белого лотоса и
31:53
начали бы переходить По ссылкам Возможно вы открыли бы несколько из них верно
32:02
и начали бы искать пытаясь разобраться иногда вам везло и вы находили
32:08
расписание но чаще всего вы видели кучу рекламы и прочей ерунды и это было
32:13
неприятно верно было бы здорово если бы модель могла сделать такой поиск за вас
32:18
просмотреть все страницы собрать их содержимое и вставить в окно контекста а затем выдать вам ответ именно этим мы
32:26
сейчас и займёмся
32:35
по сути У нас есть механизм или способ мы внедряем механизм чтобы модель могла
32:40
выдавать специальный токен который является поисковым запросом в интернете и когда модель выдаёт поисковый запрос
32:48
приложение чат гпт или любое другое приложение на основе и которое вы используете перестаёт брать данные из
32:54
моделе и берёт Запрос который выдала модель запрос отправляется выполняется поиск
33:01
просматриваются веб-страницы берётся весь их текст и помещается в окно контекста теперь у вас есть инструмент
33:08
для поиска в интернете который сам может добавлять токены в наше окно контекста в
33:14
данном случае это будут веб-страницы Допустим их 10 и они просто объединяются и это могут быть тысячи
33:21
токенов полученных с этих веб-страниц как будто мы сами их просматривали Затем когда все эти веб-страницы будут
33:28
добавлены в окно контекста модель сможет ответить на ваш вопрос например Когда выйдет третий сезон белого лотоса она
33:35
сможет найти этот текст и дать вам правильный ответ Обратите внимание что это отличный пример того Зачем нам нужен
33:42
поиск в Интернете без него у модели нет шансов дать правильный ответ потому что как я уже говорил она была обучена всего
33:49
несколько месяцев назад расписание вероятно ещё не было известно и поэтому модель не знает когда выйдет третий
33:56
сезон белого лотоса Скорее всего в zip файле этого нет
34:02
потому что это то что было решено в последние несколько недель и поэтому модель должна искать информацию в
34:08
интернете Она получает её с веб-страниц как это делали бы мы с вами а потом она
34:14
может ответить на вопрос когда эта информация появится в окне контекста и помните что окно контекста — это Рабочая
34:20
память когда мы загружаем статьи Когда они считают что их Текст скопирован в окно контекста они попадают в рабочую
34:27
память и модель может ответить на вопросы потому что они в окне
34:37
контекста Короче говоря не делайте это вручную А Используйте такие инструменты как попти например Итак попти ai — это
34:46
действительно хорошая модель которая умеет искать в интернете и я думаю что это было первое приложение которая
34:52
действительно хорошо с этим справлялась недавно компания shipt также Представила кнопку поиска она называется поиск в
34:58
интернете мы рассмотрим это во второй части Когда выйдут новые серии третьего сезона белого лотоса Вы можете Просто
35:05
спросить и вместо того чтобы делать это вручную мы просто нажимаем Enter и модель найдёт эти веб-страницы создаст
35:12
все запросы и даст вам ответ она проделала за вас большую часть работы а потом вы можете проверить обычно там
35:19
есть ссылки Вы можете сами зайти на эти веб-страницы и убедиться что это не галлюцинации модели и вы можете
35:27
проверить Действительно ли это так Потому что это не гарантировано это просто знаете ли может сработать А может
35:33
и нет если мы воспользуемся этим то можем перейти например в чат гпт и сказать то же самое но когда мы задаём
35:41
вопрос не выбирая поиск Я не уверен на 100% что модель ответит В некоторых случаях модель
35:48
понимает что это свежая информация и не знает ответа и тогда она предлагает поискать в некоторых случаях нам нужно
35:55
указать что мы хотим найти информацию я бы знал что модель не знает ответа и поэтому просто выбрал бы поиск давайте
36:02
посмотрим что произойдёт хорошо поиск в интернете потом он
36:09
печатает информацию и ссылается на неё модель поняла что нужно искать в Интернете потому что это свежая
36:17
информация так что всё правильно Если бы я создал новый диалог я бы тоже выбрал
36:22
поиск потому что знаю что мне нужно найти информацию вводим и он ищет в интернете вот
36:28
результат Когда вы используете модели обращайте внимание на это Например
36:35
грок Извините Давайте попробуем грок без
36:42
поиска модель ищет информацию Потому что знает что нужно искать и выдаёт
36:48
ответ Давайте посмотрим что сделает
36:56
лоди Клод нет функции поиска Это последнее обновление которое было в
37:02
апреле 2024 года Итак Клод говорит что Согласно
37:09
последнему обновлению доступ к знаниям будет закрыт с Апреля 2024 года но
37:15
точной даты пока нет поэтому у Клода нет функции поиска в интернете и он не может
37:20
дать ответ я думаю что анрок работает над
37:25
этим Давайте попробуем посмотрим что он скажет К сожалению
37:31
официальной даты выхода третьего сезона White Пока нет у 20 про нет доступа к
37:38
поиску в интернете и он не знает попробуем другие модели например 20 фш
37:44
Давайте
37:49
попробуем Хорошо это модель кажется знает но не даёт ссылок о Подождите вот
37:55
оно источники и связа Как видите у 20 фш есть функция поиска в
38:01
интернете но у 20 про самое мощное модели её
38:10
нет а здесь написано что у д Pro нет доступа к информации в реальном времени
38:16
и некоторым функциям G то есть эта модель не полностью подключена к интернету Короче говоря мы можем
38:23
попросить модели выполнить поиск в Google перейти на веб-страницы извлечь информацию в окно контекста и ответить
38:30
на вопросы это очень-очень крутая функция но разные модели и возможно
38:35
разные приложения имеют разную степень интеграции этой функции Поэтому нужно быть внимательным
38:43
иногда модель сама обнаруживает что ей нужно выполнить поиск а иногда лучше сказать модели Что вы хотите чтобы она
38:50
выполнила поиск Итак когда я использую Т4 и знаю что для этого нужен поиск я
38:56
обычно ставлю ло в этом поле это инструменты поиска я хотел показать вам
39:02
ещ несколько примеров того как я использую инструменты поиска в своей работе Какие запросы я использую Обычно
39:08
я захожу на попти просто по привычке хотя сегодня чат гпт тоже может это
39:14
делать как и многие другие
39:19
сервисы но я использую поп для поиска в интернете Например если я знаю что ответ
39:26
можно найти я захожу
39:38
нап вот несколько примеров рынок сегодня работает Это было в день открытия я не
39:45
был уверен на 100% попти понимает что сегодня выходной он выполнит поиск и
39:51
выяснит что в день открытия рынок был закрыт Где снимали третий сезон белого лотоса опять же я не был уверен что
39:58
модель знает ответ Это нишевый вопрос и возможно о нём не так много упоминаний в
40:04
интернете и это недавний вопрос так что я не ожидал что модель знает ответ Это
40:10
был хороший пример для поиска это предложение от для базы
40:16
данных по SQL Это хороший пример потому что такие вещи меняются со
40:23
временем и предложения компании со временем а я хочу всегда
40:29
быть в курсе последних новинок и когда что-то меняется Я предпочитаю использовать поисковик поэтому Я
40:35
обратился к попти что будет завтра на презентации Apple и Какие ходят слухи
40:41
это свежая информация где прогноз погоды на сезон ад для одиночек нужно знать это тоже
40:49
хороший пример потому что это свежая информация Почему акции н растут что
40:55
вызывает такой энтузиазм Когда именно выйдет Civilization
41:01
7 это тоже пример Брайан Джонсон рассказывал зубной пасте который пользуется Мне было интересно Чем
41:07
пользуется Брайан и опять же у этого есть две особенности во-первых это немного
41:15
эзотерикой является частью знания о модели А во-вторых это может измениться со временем я хочу знать какой зубной
41:22
пастой он пользуется сейчас это тоже хорошо подходит для поиска безопас ехать
41:27
во Вьетнам это может измениться со временем я увидел в Твиттере кучу постов про usaid и захотел узнать в чём дело я
41:36
поискал информацию об этом и здесь можно найти кучу всего Но это пример того что
41:41
я вижу что-то в тренде и мне интересно что происходит в чём
41:47
суть и поэтому я очень часто просто быстро запускаю поиск по теме что происходит а затем прошу модель как бы
41:54
просто рассказать мне о том что произошло потому что многие отдельные твиты или посты сами по себе могут не
41:59
содержать полного контекста вот примеры того как я использую инструмент поиска хорошо далее Я хотел бы рассказать вам
42:05
об этой возможности которая называется глубокое исследование и она появилась совсем недавно всего месяц или два назад
42:11
но я думаю что это невероятно Круто И действительно интересно и многие люди не обратили на это внимание Хотя я думаю
42:17
что этого не должно было быть поэтому когда мы переходим к ценообразованию час appt мы замечаем что здесь в разделе за
42:22
указаны глубокие исследования Так что в настоящее время для этого требуется 200 долларов в месяц что это самый высокий
42:28
уровень тем не менее я думаю что это невероятно Круто Так что Позвольте мне показать вам на примере В каких
42:33
сценариях вы возможно захотите это использовать грубо говоря глубокое исследование — Это сочетание поиска в
42:39
интернете и мышления и оно проводится уже давно так что модель сработает и на
42:46
проведение глубокого исследования уйдут десятки минут и первой компании которая объявила об этом была компания чат кпт в
42:53
рамках своего профессионального предложения совсем недавно примерно месяц назад Вот вам пример Недавно я
42:59
покупал в интернете пищевые добавки что я знаю Немного безумно но у брайна Джонсона есть этот стартовый пакет и мне
43:05
было немного любопытно узнать об этом а ещё есть такая штука которая называется смесь долголетия Не так ли и в ней
43:10
содержится множество полезных для здоровья веществ и я хочу знать что это за вещества Не так ли и конечно типа это
43:16
как бы ну как бы что это за хрень такая увеличивает выработку энергии для поддержания жизнедеятельности что это
43:22
вообще значит ну можно конечно открыть Google и посмотреть страницу или что-то
43:28
в этом роде и сделать всё как обычно Но углублённое исследование позволяет найти
43:33
альтернативный путь оно обрабатывает много информации и объясняет её намного лучше например мы
43:41
можем сделать вот так это мой пример запроса один из активных компонентов в составе плана брайна Джонсона в
43:47
дозировке 2,5 г на порцию можешь провести исследование пока Расскажи мне
43:53
расскажи почему он может быть в составе долголетия эффективность на людях или животных механизм действия возможные
44:00
побочные эффекты токсичность и так далее сейчас у меня есть эта кнопка но она будет доступна только если вы Заплатите
44:07
200 долларов в месяц но я могу включить углублённое исследование Давай я
44:12
скопирую это и нажму выполнить и теперь модель скажет Хорошо я начну
44:17
исследование иногда она задаёт уточняющие вопросы Прежде чем начать Итак сосредоточимся на клинических
44:23
исследованиях на людях на животных моделях и то и конкретные источники всё все источники Я
44:31
не знаю сравнение с другими компонентами для долголетия не требуется сравнение просто
44:39
Э мы можем быть краткими модель понимает и мы нажимаем
44:45
выполнить и тогда хорошо я начну исследование к и теперь нам нужно
44:50
подождать примерно 10 минут или около того если вы хотите нажать на это то увидите что модель делает уровне она
44:58
будет искать информацию в интернете и думать но она будет искать много
45:05
информации Она просмотри много документов изучит их и выдаст результат через 10
45:11
минут так что Это займёт некоторое время А пока я хочу показать вам как это
45:16
используется в индустрии многие вдохновились этой
45:21
моделью и создали свои аналоги например
45:27
Когда вы выбираете модель предлагает так называемые глубокие исследования Вы можете задать те же вопросы и мы
45:33
отправим их в попти А у грок есть функция глубокого
45:38
поиска вместо глубокого исследования но я думаю что глубокий поиск грок похож на глубокое исследование но я не уверен на
45:45
100% мы можем также использовать грок для глубокого поиска грок 3 глубокий
45:51
поиск вперёд эта модель тоже будет работать
45:57
Где же мой чат СП чат спт наверное уже готов на
46:04
четверть попти скоро будет готов Ладно пока думаю грок тоже
46:11
работает мне больше всего нравится интерфейс грок он просматривает все виды
46:16
документов результаты поиска в интернете и выдаёт
46:22
информацию сейчас пока ВС это происходит накапливается ором ма данных и программа
46:28
обрабатывает всю эту информацию чтобы подготовить для нас отчёт вот основные
46:33
моменты Что такое попти и почему он используется для определения продолжительности жизни как он связан с
46:40
долголетием и так далее он выдаст список ссылок и вы сможете изучить их это
46:45
непростой и короткий ответ Это похоже на исследовательскую работу по любой теме
46:50
которую вы выберете это действительно круто и вы можете найти много ссылок

