Суммаризация
Обновлено 1 августа 2025
Пример промпта для выделения из текста основных мыслей.
{
"model": "GigaChat-2-Max",
"messages": [
{
"role": "system",
"content": "Ты - умный ИИ-ассистент, в задачу которого входит суммаризация и реферирование длинных текстов.\n## Основные правила:\n- Входные данные - текст. На выходе ты должен предоставить краткий текст, в котором содержатся основные идеи исходного текста.\n- Избегай длинных и сложных предложений. \n- Объём сокращённого текста должен составлять не более 1/5 от исходного текста.\n- Сохраняй основной смысл документа. \n- Ни один фрагмент сокращённого текста не должен искажать смысл исходного текста.\n- Не включай информацию, не являющуюся важной для текста: избегай выводов, оценок, примеров и цитат.\nПредставь ответ в виде структурированного текста с абзацами. Каждый абзац содержит одну основную мысль. Используй заголовки в формате Markdown (## Заголовок) перед каждым логически завершённым блоком. Текст должен быть удобочитаемым и чётко разделённым."
},
{
"role": "user",
"content": "При обновлении флагмана GigaChat существенно улучшили токенизатор: он эффективнее кодирует текст и обрабатывает языки программирования вместе с LaTeX. Последним двум мы уделили особое внимание: благодаря добавлению частых ключевых слов, поддержке пробелов, табуляций и переносов строк повысилась точность работы с кодовыми данными и улучшились итоговые метрики.\n\nТокенизатор делит текст на «кусочки» (токены), которыми впоследствии оперирует языковая модель для анализа и построения текста. Задача токенизатора — делать это максимально эффективно, а эта самая эффективность обычно измеряется либо с помощью фертильности, либо подсчитывается среднее число символов на один токен. Эффективность кодирования необходима для оптимизации инференса: важно, чтобы модель генерировала больше текста за то же количество токенов."
}
],
}
Запуск промпта в песочнице
Вы можете проверить работу промпта с разными параметрами в песочнице.
Для этого:
- Авторизуйтесь в Studio .
- Откройте проект GigaChat API.
- В левой панели выберите раздел Playground.
- В блоке Шаблоны промптов нажмите Посмотреть.
- В открывшемся окне выберите промпт Суммаризация.
Промпт откроется в интерфейсе песочницы. Перед запуском вы можете выбрать модель и задать дополнительные параметры запроса.
Примеры кода
- cURL
- Python
- JS/TS
curl --location 'https://gigachat.devices.sberbank.ru/api/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: <токен_доступа>' \
--data '{
"model": "GigaChat-2-Max",
"messages": [
{
"role": "system",
"content": "Ты - умный ИИ-ассистент, в задачу которого входит суммаризация и реферирование длинных текстов.\n## Основные правила:\n- Входные данные - текст. На выходе ты должен предоставить краткий текст, в котором содержатся основные идеи исходного текста.\n- Избегай длинных и сложных предложений. \n- Объём сокращённого текста должен составлять не более 1/5 от исходного текста.\n- Сохраняй основной смысл документа. \n- Ни один фрагмент сокращённого текста не должен искажать смысл исходного текста.\n- Не включай информацию, не являющуюся важной для текста: избегай выводов, оценок, примеров и цитат.\nПредставь ответ в виде структурированного текста с абзацами. Каждый абзац содержит одну основную мысль. Используй заголовки в формате Markdown (## Заголовок) перед каждым логически завершённым блоком. Текст должен быть удобочитаемым и чётко разделённым."
},
{
"role": "user",
"content": "При обновлении флагмана GigaChat существенно улучшили токенизатор: он эффективнее кодирует текст и обрабатывает языки программирования вместе с LaTeX. Последним двум мы уделили особое внимание: благодаря добавлению частых ключевых слов, поддержке пробелов, табуляций и переносов строк повысилась точность работы с кодовыми данными и улучшились итоговые метрики.\n\nТокенизатор делит текст на «кусочки» (токены), которыми впоследствии оперирует языковая модель для анализа и построения текста. Задача токенизатора — делать это максимально эффективно, а эта самая эффективность обычно измеряется либо с помощью фертильности, либо подсчитывается среднее число символов на один токен. Эффективность кодирования необходима для оптимизации инференса: важно, чтобы модель генерировала больше текста за то же количество токенов."
}
]
}'
Использование промпта в SDK:
from gigachat import GigaChat
from gigachat.models import Chat, Messages, MessagesRole
giga = GigaChat(
model="GigaChat",
credentials="ключ_авторизации",
scope="GIGACHAT_API_PERS",
)
payload = Chat(
messages=[
Messages(
role=MessagesRole.SYSTEM,
content="Ты - умный ИИ-ассистент, в задачу которого входит суммаризация и реферирование длинных текстов.\n## Основные правила:\n- Входные данные - текст. На выходе ты должен предоставить краткий текст, в котором содержатся основные идеи исходного текста.\n- Избегай длинных и сложных предложений. \n- Объём сокращённого текста должен составлять не более 1/5 от исходного текста.\n- Сохраняй основной смысл документа. \n- Ни один фрагмент сокращённого текста не должен искажать смысл исходного текста.\n- Не включай информацию, не являющуюся важной для текста: избегай выводов, оценок, примеров и цитат.\nПредставь ответ в виде структурированного текста с абзацами. Каждый абзац содержит одну основную мысль. Используй заголовки в формате Markdown (## Заголовок) перед каждым логически завершённым блоком. Текст должен быть удобочитаемым и чётко разделённым."
),
Messages(
role=MessagesRole.USER,
content="При обновлении флагмана GigaChat существенно улучшили токенизатор: он эффективнее кодирует текст и обрабатывает языки программирования вместе с LaTeX. Последним двум мы уделили особое внимание: благодаря добавлению частых ключевых слов, поддержке пробелов, табуляций и переносов строк повысилась точность работы с кодовыми данными и улучшились итоговые метрики.\n\nТокенизатор делит текст на «кусочки» (токены), которыми впоследствии оперирует языковая модель для анализа и построения текста. Задача токенизатора — делать это максимально эффективно, а эта самая эффективность обычно измеряется либо с помощью фертильности, либо подсчитывается среднее число символов на один токен. Эффективность кодирования необходима для оптимизации инференса: важно, чтобы модель генерировала больше текста за то же количество токенов."
),
]
)
response = giga.chat(payload)
print(response.choices[0].message)
Использование промпта в партнерском пакете langchain-gigachat
:
from langchain_gigachat.chat_models import GigaChat
from langchain_core.messages import HumanMessage, SystemMessage
giga = GigaChat(
model="GigaChat",
credentials="ключ_авторизации",
scope="GIGACHAT_API_PERS",
)
messages = [
SystemMessage("Ты - умный ИИ-ассистент, в задачу которого входит суммаризация и реферирование длинных текстов.\n## Основные правила:\n- Входные данные - текст. На выходе ты должен предоставить краткий текст, в котором содержатся основные идеи исходного текста.\n- Избегай длинных и сложных предложений. \n- Объём сокращённого текста должен составлять не более 1/5 от исходного текста.\n- Сохраняй основной смысл документа. \n- Ни один фрагмент сокращённого текста не должен искажать смысл исходного текста.\n- Не включай информацию, не являющуюся важной для текста: избегай выводов, оценок, примеров и цитат.\nПредставь ответ в виде структурированного текста с абзацами. Каждый абзац содержит одну основную мысль. Используй заголовки в формате Markdown (## Заголовок) перед каждым логически завершённым блоком. Текст должен быть удобочитаемым и чётко разделённым."),
HumanMessage("При обновлении флагмана GigaChat существенно улучшили токенизатор: он эффективнее кодирует текст и обрабатывает языки программирования вместе с LaTeX. Последним двум мы уделили особое внимание: благодаря добавлению частых ключевых слов, поддержке пробелов, табуляций и переносов строк повысилась точность работы с кодовыми данными и улучшились итоговые метрики.\n\nТокенизатор делит текст на «кусочки» (токены), которыми впоследствии оперирует языковая модель для анализа и построения текста. Задача токенизатора — делать это максимально эффективно, а эта самая эффективность обычно измеряется либо с помощью фертильности, либо подсчитывается среднее число символов на один токен. Эффективность кодирования необходима для оптимизации инференса: важно, чтобы модель генерировала больше текста за то же количество токенов."),
]
response = giga.invoke(messages)
print(response)
Использование промпта в SDK:
import { GigaChat } from 'gigachat';
const giga = new GigaChat({
model: 'GigaChat',
credentials: 'ключ_авторизации',
scope: 'GIGACHAT_API_PERS',
});
const resp = await giga.chat({
messages: [
{
role: 'system',
content: 'Ты - умный ИИ-ассистент, в задачу которого входит суммаризация и реферирование длинных текстов.\n## Основные правила:\n- Входные данные - текст. На выходе ты должен предоставить краткий текст, в котором содержатся основные идеи исходного текста.\n- Избегай длинных и сложных предложений. \n- Объём сокращённого текста должен составлять не более 1/5 от исходного текста.\n- Сохраняй основной смысл документа. \n- Ни один фрагмент сокращённого текста не должен искажать смысл исходного текста.\n- Не включай информацию, не являющуюся важной для текста: избегай выводов, оценок, примеров и цитат.\nПредставь ответ в виде структурированного текста с абзацами. Каждый абзац содержит одну основную мысль. Используй заголовки в формате Markdown (## Заголовок) перед каждым логически завершённым блоком. Текст должен быть удобочитаемым и чётко разделённым.',
},
{
role: 'user',
content: 'При обновлении флагмана GigaChat существенно улучшили токенизатор: он эффективнее кодирует текст и обрабатывает языки программирования вместе с LaTeX. Последним двум мы уделили особое внимание: благодаря добавлению частых ключевых слов, поддержке пробелов, табуляций и переносов строк повысилась точность работы с кодовыми данными и улучшились итоговые метрики.\n\nТокенизатор делит текст на «кусочки» (токены), которыми впоследствии оперирует языковая модель для анализа и построения текста. Задача токенизатора — делать это максимально эффективно, а эта самая эффективность обычно измеряется либо с помощью фертильности, либо подсчитывается среднее число символов на один токен. Эффективность кодирования необходима для оптимизации инференса: важно, чтобы модель генерировала больше текста за то же количество токенов.',
},
],
});
console.log(resp.choices[0]?.message);
Использование промпта в партнерском пакете langchain-gigachat
:
import { GigaChat } from 'langchain-gigachat';
import { HumanMessage, SystemMessage } from '@langchain/core/messages';
const giga = new GigaChat({
model: 'GigaChat-2-Max',
credentials: 'ключ_авторизации',
scope: 'GIGACHAT_API_PERS',
});
const messages = [
new SystemMessage(
'Ты - умный ИИ-ассистент, в задачу которого входит суммаризация и реферирование длинных текстов.\n## Основные правила:\n- Входные данные - текст. На выходе ты должен предоставить краткий текст, в котором содержатся основные идеи исходного текста.\n- Избегай длинных и сложных предложений. \n- Объём сокращённого текста должен составлять не более 1/5 от исходного текста.\n- Сохраняй основной смысл документа. \n- Ни один фрагмент сокращённого текста не должен искажать смысл исходного текста.\n- Не включай информацию, не являющуюся важной для текста: избегай выводов, оценок, примеров и цитат.\nПредставь ответ в виде структурированного текста с абзацами. Каждый абзац содержит одну основную мысль. Используй заголовки в формате Markdown (## Заголовок) перед каждым логически завершённым блоком. Текст должен быть удобочитаемым и чётко разделённым.',
),
new HumanMessage(
'При обновлении флагмана GigaChat существенно улучшили токенизатор: он эффективнее кодирует текст и обрабатывает языки программирования вместе с LaTeX. Последним двум мы уделили особое внимание: благодаря добавлению частых ключевых слов, поддержке пробелов, табуляций и переносов строк повысилась точность работы с кодовыми данными и улучшились итоговые метрики.\n\nТокенизатор делит текст на «кусочки» (токены), которыми впоследствии оперирует языковая модель для анализа и построения текста. Задача токенизатора — делать это максимально эффективно, а эта самая эффективность обычно измеряется либо с помощью фертильности, либо подсчитывается среднее число символов на один токен. Эффективность кодирования необходима для оптимизации инференса: важно, чтобы модель генерировала больше текста за то же количество токенов.',
),
];
const response = await giga.invoke(messages);
console.log(response);