Работа с документацией в LLM и ИИ-помощниках
Модели или ИИ-помощники, которые помогают при разработке, могут отвечать на вопросы по документации GigaChat API. Для генерации корректного ответа им нужен качественный контекст — релевантная, структурированная и актуальная информация о работе сервиса.
Документация предоставляет несколько способов получить данные для формирования контекста. Комбинируйте их или используйте по отдельности в зависимост и от своих задач и возможностей доступных инструментов.
Доступ ко всей документации
Для начала работы используйте файл gigachat-api-primer.md.
Он содержит краткую версию документации со всей информацией, которая нужна, чтобы быстро начать использовать API.
Передайте в LLM содержимое файла или ссылку на него, чтобы она могла ответить на вопросы о том, какие модели доступны в API, как авторизовать запросы, как использовать осно вные методы API и другие.
Для работы со всей документацией с помощью ИИ-помощников и агентов используйте файлы, подготовленные по стандарту llms.txt :
- файл
/gigachat/llms.txt— краткое содержание со ссылками на все разделы; - файл
/gigachat/llms-full.txt— вся документация GigaChat API (кроме спецификации) собранная в одном файле.
Запросы по отдельным разделам
Для генерации ответов по отдельному разделу используйте markdown-исходник страницы. Передайте в LLM содержимое иходника или ссылку на него, чтобы на могла ответить на вопросы по разделу.
Чтобы получить исходник:
-
Откройте раздел, по которому нужно получить ответ.
-
Выберите подходящий пункт выпадающего списка у заголовка страницы:
- Скопировать страницу — markdown-исходник страницы будет скопирован в буфер обмена;
- Открыть исходную страницу — открывает markdown-исходник страницы в новой вкладке браузера.