Что такое LLM, токены и температура в AI? Простое объяснение

Что такое LLM, токены и температура в AI? Простое объяснение

Большинство объяснений про LLM выглядят сложно: статистика, программирование, лингвистика. Но чтобы разобраться в работе ChatGPT и других языковых моделей, не нужно быть инженером. Достаточно понимать базовые принципы: про модель, токены и температуру

LLM: большая языковая модель

LLM (Large Language Model) — это Большая Языковая Модель.

  • Large (Большая) — потому что модель обучалась на огромных массивах текста из интернета.
  • Language (Языковая) — потому что работает со словами и текстами.
  • Model (Модель) — потому что это система, которая предсказывает наиболее подходящее слово в контексте.

Важно помнить: модель не «знает» и не «чувствует» информацию. Она лишь опирается на статистику и предыдущие примеры, чтобы предсказать следующее слово.

Токены: фрагменты текста

Токен — это не слово и не буква, а единица текста.

Примеры:

  • «кот» = 1 токен
  • «neuralnetworking» = может делиться на 2–3 токена

LLM работает только с токенами, преобразованными в числа. Чем больше токенов в запросе или ответе, тем дольше занимает генерация текста и тем выше её стоимость.

Метод Чеширского кота — как работать с промптами

Температура: степень креативности

Температура управляет тем, насколько «творческим» будет ответ модели.

ЗначениеКак работает модельГде полезноГде нежелательно
0Строго предсказуемоКод, инструкции, юридические текстыСлишком шаблонно для идей
1Баланс между логикой и вариативностьюБрейншторминг, статьиМожет давать неожиданные повороты
2+Максимальная креативность и хаосСказки, креативная рекламаНе подходит для точных документов

Как это работает на практике

  1. Запрос превращается в токены.
  2. Токены отправляются на сервер.
  3. Модель анализирует каждый токен и выбирает следующий.
  4. Процесс повторяется до конца текста.

По сути, генерация — это последовательность статистических прогнозов.

Зачем это знать

  • Это помогает правильно оценивать возможности моделей: они предсказывают, а не думают.
  • Можно писать более точные промпты, понимая, как обрабатывается текст.
  • Проще объяснять неожиданные результаты: например, слишком высокая температура даёт «размытые» ответы.

Табличка — чтобы сохранить себе

ПараметрОпределениеПример
LLMБольшая языковая модельТ9, обученный на огромном количестве текстов
ТокенФрагмент текста«кот» = 1 токен, «сложное_слово» = несколько токенов
ТемператураНастройка случайности в ответах0 = строго, 1 = умеренно, 2+ = хаотично

Что ещё почитать и посмотреть

    Поделиться: