Top P (nucleus sampling)Это альтернатива temperature. Вместо "жара", здесь вы отбираете «верхушку вероятностей».
- 1 — модель учитывает весь словарь
- 0.5 — только половину самых вероятных слов
Важно: используйте либо temperature, либо top_p, но не оба одновременно (иначе результат становится непредсказуемым).
Frequency Penalty (0–2)Это штраф за повторение одних и тех же слов или фраз.
- 0 — без штрафа (может повторять).
- 0.5–0.8 — снижает повторяемость.
- 1.2 — сильно вычищает повторы.
Если в ответах ИИ часто встречаются фразы типа «повышение эффективности», «улучшение бизнес-процессов» — ставим 0.7–0.9.
Presence Penalty (0–2)Это штраф за повторение тем, а не слов. Помогает нейросети «думать шире».
- 0 — пусть говорит, как хочет.
- 1 — старается не повторять одну и ту же тему.
- 2 — ищет новые подходы.
Полезно, если ИИ зацикливается на одном и том же при генерации идей. Пример: снова и снова предлагает e-mail-рассылку.
Max TokensОграничение на длину ответа. 1 токен ≈ ¾ слова.
- 300 — короткий ответ (подходит для чата, советов)
- 1500 — средний ответ (анализ звонка, письмо, отчёт)
- 4000+ — только для больших моделей (GPT-4), если нужно что-то длинное: например, генерировать презентацию, лонгрид, стратегию