Skip to content

大型语言模型 (LLM) 模块

AI 结构化响应生成器

功能说明

使用大型语言模型 (LLM) 生成结构化响应的模块。

功能描述

该模块接收提示词和其他参数,将其发送至 LLM,并以指定格式返回结构化响应。

工作原理

模块将输入的提示词发送至选定的 LLM,同时包含任何系统提示词和预期响应格式。随后处理 LLM 的响应,确保其符合预期格式,并返回结构化数据。

输入

输入 描述
提示词 发送给 LLM 的主要文本提示
预期格式 指定所需响应结构的字典
模型 使用的特定 LLM(例如 GPT-4 Turbo、Claude 3)
API 密钥 访问 LLM 服务的密钥
系统提示词 指导 LLM 行为的可选提示词
重试次数 生成有效响应的尝试次数
提示词值 用于填充提示词模板的值的字典

输出结果

输出 描述
响应 来自 LLM 的结构化响应
错误 处理失败时的错误信息

可能的使用场景

从非结构化文本中提取特定信息,例如根据冗长的产品评论生成具有预定义字段(名称、特性、价格)的产品描述。


AI 文本生成器

功能说明

一个使用大型语言模型(LLM)生成文本响应的模块。

功能描述

它接收提示词和其他参数,将其发送给LLM,并返回文本响应。

工作原理

该模块将输入的提示词发送到选定的LLM,处理响应,并返回生成的文本。

输入

输入 描述
提示词 发送给LLM的主要文本提示
模型 使用的特定LLM(例如GPT-4 Turbo、Claude 3)
API密钥 访问LLM服务的密钥
系统提示 指导LLM行为的可选提示
重试次数 生成有效响应的尝试次数
提示值 用于填充提示模板的值的字典

输出结果

输出 描述
响应 来自LLM的文本响应
错误 如果处理失败,显示任何错误消息

可能的使用场景

基于给定主题或起始句子生成创意写作,例如短篇故事或诗歌。


AI文本摘要器

功能说明

一个使用大型语言模型(LLM)总结长文本的模块。

功能描述

它接收长文本,将其分解为可管理的块,总结每个块,然后将这些摘要合并为最终摘要。

工作原理

该模块将输入文本分割成较小的块,将每个块发送给LLM进行摘要,然后合并这些摘要。如果合并后的摘要仍然太长,它会重复这个过程,直到获得简洁的摘要。

输入

输入 描述
文本 待摘要的长文本内容
模型 用于摘要的特定大语言模型
焦点 摘要中需要重点关注的主题或方面
风格 摘要的期望风格(如简洁、详细、要点形式)
API密钥 访问大语言模型服务的密钥
最大令牌数 每个文本块的最大令牌数量
块重叠数 文本块之间重叠的令牌数量

输出结果

输出 描述
摘要 最终生成的摘要文本
错误 处理失败时的错误信息

可能的使用场景

对冗长的研究论文或文章进行摘要,快速掌握主要观点和关键发现。


AI 对话

功能说明

一个使用大语言模型(LLM)促进多轮对话的功能块。

功能描述

该功能块接收对话消息列表,将其发送给大语言模型,并返回模型的响应以继续对话。

工作原理

该功能块将完整的对话历史(包括系统消息、用户输入和之前的回复)发送给选定的大语言模型,然后返回大语言模型的响应作为对话的下一部分。

输入

输入 描述
消息 对话中的历史消息列表
模型 用于对话的特定大型语言模型
API 密钥 访问 LLM 服务的密钥
最大令牌数 响应中生成的最大令牌数量

输出结果

输出 描述
响应 LLM 为延续对话生成的回复
错误 处理失败时的错误信息

可能的使用场景

创建能够维持多轮对话上下文的交互式聊天机器人,例如客户服务助手或语言学习伴侣。


AI 列表生成器

功能说明

基于给定提示或源数据使用大型语言模型(LLM)生成列表的功能模块。

功能描述

接收焦点或源数据,将其发送至 LLM,并基于输入返回生成的列表。

工作原理

该模块根据给定的焦点或源数据构建提示,发送至选定的 LLM,随后处理响应以确保其构成有效的 Python 列表。若初始尝试失败,可进行多次重试。

输入

输入 描述
Focus 待生成列表的主要主题或核心内容
Source Data 可选的基础数据,用于列表生成
Model 用于列表生成的特定大语言模型
API Key 访问大语言模型服务的密钥
Max Retries 生成有效列表的最大尝试次数

输出结果

输出 描述
Generated List 由大语言模型生成的完整列表
List Item 生成列表中的每个独立项目
Error 处理失败时的错误信息

可能的使用场景

自动从冗长的会议记录中生成关键点或行动项列表,或总结一系列文档中讨论的主要主题。

服务提供商

AutoGPT 用户可使用多个服务提供商来运行大语言模型的推理任务。

Llama API

Llama API 是 Meta 托管的 API 服务,帮助您快速高效地集成 Llama 模型。通过 OpenAI 兼容的端点,您可以轻松访问 Llama 模型的强大功能,无需复杂的设置或配置!

加入等待列表以获取访问权限!

通过从上述 AI 模块中选择以下任意 LLM 模型名称来试用 Llama API 提供商:

  • Llama-4-Scout-17B-16E-Instruct-FP8
  • Llama-4-Maverick-17B-128E-Instruct-FP8
  • Llama-3.3-8B-Instruct
  • Llama-3-70B-Instruct