Компонент llm¶
Класс: LLM
Группа: llm
Что делает¶
Основной AI-компонент: обращается к языковой модели и формирует ответ.
Когда использовать¶
- Когда в сценарии нужен AI-ответ, анализ или генерация текста.
- Когда достаточно обычного tool-calling без полноценного автономного агентного цикла.
Что обычно настраивают¶
model(по умолчанию:'gpt-4o-mini')provider(по умолчанию:'openai')system_prompt(по умолчанию:"You are an expert AI assistant specialized in Retrieval-Augmented Generation (RAG) tasks. Your primary responsibilit...)messages_template(по умолчанию:'{\n"messages": [\n {\n "role": "system",\n "content": {{ system_prompt }}\n },\n {\n "role": "user...)temperature(по умолчанию:0.3)max_tokens(по умолчанию:1000)- Дополнительно: еще 10 параметров в расширенной конфигурации.
Какие инструменты можно подключать¶
llm поддерживает подключение tool-провайдеров через порт tools.
Частые варианты:
skill_library- чтобы модель могла подгружать skill-инструкции.microsandbox- чтобы модель могла работать с файлами, shell и Python.mcp,request,ragи другие инструментальные компоненты.
Если нужен не просто вызов tool, а многошаговый автономный исполнитель с планированием, обычно
лучше использовать wiki_agent.
Пример в flow¶
begin -> text_template -> llm -> send_email -> end