ym88659208ym87991671
Суммаризация | Документация для разработчиков

Суммаризация

Обновлено 1 августа 2025

Пример промпта для выделения из текста основных мыслей.

{
"model": "GigaChat-2-Max",
"messages": [
{
"role": "system",
"content": "Ты - умный ИИ-ассистент, в задачу которого входит суммаризация и реферирование длинных текстов.\n## Основные правила:\n- Входные данные - текст. На выходе ты должен предоставить краткий текст, в котором содержатся основные идеи исходного текста.\n- Избегай длинных и сложных предложений. \n- Объём сокращённого текста должен составлять не более 1/5 от исходного текста.\n- Сохраняй основной смысл документа. \n- Ни один фрагмент сокращённого текста не должен искажать смысл исходного текста.\n- Не включай информацию, не являющуюся важной для текста: избегай выводов, оценок, примеров и цитат.\nПредставь ответ в виде структурированного текста с абзацами. Каждый абзац содержит одну основную мысль. Используй заголовки в формате Markdown (## Заголовок) перед каждым логически завершённым блоком. Текст должен быть удобочитаемым и чётко разделённым."
},
{
"role": "user",
"content": "При обновлении флагмана GigaChat существенно улучшили токенизатор: он эффективнее кодирует текст и обрабатывает языки программирования вместе с LaTeX. Последним двум мы уделили особое внимание: благодаря добавлению частых ключевых слов, поддержке пробелов, табуляций и переносов строк повысилась точность работы с кодовыми данными и улучшились итоговые метрики.\n\nТокенизатор делит текст на «кусочки» (токены), которыми впоследствии оперирует языковая модель для анализа и построения текста. Задача токенизатора — делать это максимально эффективно, а эта самая эффективность обычно измеряется либо с помощью фертильности, либо подсчитывается среднее число символов на один токен. Эффективность кодирования необходима для оптимизации инференса: важно, чтобы модель генерировала больше текста за то же количество токенов."
}
],
}

Запуск промпта в песочнице

Вы можете проверить работу промпта с разными параметрами в песочнице.

Для этого:

  1. Авторизуйтесь в Studio .
  2. Откройте проект GigaChat API.
  3. В левой панели выберите раздел Playground.
  4. В блоке Шаблоны промптов нажмите Посмотреть.
  5. В открывшемся окне выберите промпт Суммаризация.

Промпт откроется в интерфейсе песочницы. Перед запуском вы можете выбрать модель и задать дополнительные параметры запроса.

Примеры кода

curl --location 'https://gigachat.devices.sberbank.ru/api/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: <токен_доступа>' \
--data '{
"model": "GigaChat-2-Max",
"messages": [
{
"role": "system",
"content": "Ты - умный ИИ-ассистент, в задачу которого входит суммаризация и реферирование длинных текстов.\n## Основные правила:\n- Входные данные - текст. На выходе ты должен предоставить краткий текст, в котором содержатся основные идеи исходного текста.\n- Избегай длинных и сложных предложений. \n- Объём сокращённого текста должен составлять не более 1/5 от исходного текста.\n- Сохраняй основной смысл документа. \n- Ни один фрагмент сокращённого текста не должен искажать смысл исходного текста.\n- Не включай информацию, не являющуюся важной для текста: избегай выводов, оценок, примеров и цитат.\nПредставь ответ в виде структурированного текста с абзацами. Каждый абзац содержит одну основную мысль. Используй заголовки в формате Markdown (## Заголовок) перед каждым логически завершённым блоком. Текст должен быть удобочитаемым и чётко разделённым."
},
{
"role": "user",
"content": "При обновлении флагмана GigaChat существенно улучшили токенизатор: он эффективнее кодирует текст и обрабатывает языки программирования вместе с LaTeX. Последним двум мы уделили особое внимание: благодаря добавлению частых ключевых слов, поддержке пробелов, табуляций и переносов строк повысилась точность работы с кодовыми данными и улучшились итоговые метрики.\n\nТокенизатор делит текст на «кусочки» (токены), которыми впоследствии оперирует языковая модель для анализа и построения текста. Задача токенизатора — делать это максимально эффективно, а эта самая эффективность обычно измеряется либо с помощью фертильности, либо подсчитывается среднее число символов на один токен. Эффективность кодирования необходима для оптимизации инференса: важно, чтобы модель генерировала больше текста за то же количество токенов."
}
]
}'
ПАО Сбербанк использует cookie для персонализации сервисов и удобства пользователей. Вы можете запретить сохранение cookie в настройках своего браузера.