Компонент llm

Класс: LLM

Группа: llm

Что делает

Основной AI-компонент: обращается к языковой модели и формирует ответ.

Когда использовать

  • Когда в сценарии нужен AI-ответ, анализ или генерация текста.
  • Когда достаточно обычного tool-calling без полноценного автономного агентного цикла.

Что обычно настраивают

  • model (по умолчанию: 'gpt-4o-mini')
  • provider (по умолчанию: 'openai')
  • system_prompt (по умолчанию: "You are an expert AI assistant specialized in Retrieval-Augmented Generation (RAG) tasks. Your primary responsibilit...)
  • messages_template (по умолчанию: '{\n"messages": [\n {\n "role": "system",\n "content": {{ system_prompt }}\n },\n {\n "role": "user...)
  • temperature (по умолчанию: 0.3)
  • max_tokens (по умолчанию: 1000)
  • Дополнительно: еще 10 параметров в расширенной конфигурации.

Какие инструменты можно подключать

llm поддерживает подключение tool-провайдеров через порт tools.

Частые варианты:

  • skill_library - чтобы модель могла подгружать skill-инструкции.
  • microsandbox - чтобы модель могла работать с файлами, shell и Python.
  • mcp, request, rag и другие инструментальные компоненты.

Если нужен не просто вызов tool, а многошаговый автономный исполнитель с планированием, обычно лучше использовать wiki_agent.

Пример в flow

begin -> text_template -> llm -> send_email -> end