Часть 2. Превращаем слова в вектора для GPT

Разбор как делается токенизация, извлечение вектора из словаря и неочевидный момент суммирования с позиционной кодировкой (Positional Encoding) *https://www.youtube.com/watch?v=uyBCEA_N7DI**https://300.ya.ru/v_c3UIDYDq таймкоды 00:00:01 Введение в модель Андрея Карпатова 00:00:53 Аналогия с AlphaFold 00:01:45 Разбиение текста на токены 00:02:45 Заблуждения о векторах 00:04:01 Преобразование текста в токены 00:04:42 Прорыв в трансформерах 00:06:23 Позиционные кодировки 00:07:52 Сложение векторов и позиционных …

Часть 2. Превращаем слова в вектора для GPT Читать полностью »