boxmoe_header_banner_img

Hello! 欢迎来到悠悠畅享网!

文章导读

AutoGen 使用本地 LLM 时的 api_type 错误解析与解决方案


avatar
站长 2025年8月6日 8

AutoGen 使用本地 LLM 时的 api_type 错误解析与解决方案

本文旨在解决 Autogen 框架在使用本地大型语言模型(如 LM Studio)时遇到的 TypeError: create() got an unexpected keyword argument ‘api_type’ 错误。核心问题在于 Autogen 库为保持与 OpenAI API 的兼容性,已移除 config_list 中 api_type 参数的支持。教程将详细阐述错误原因,并提供移除该参数的解决方案,辅以更新后的代码示例,帮助开发者顺利配置 Autogen 与本地 LLM 的交互环境,确保代理对话的正常进行。

错误现象分析

当开发者尝试使用 autogen 框架连接本地运行的大型语言模型(llm),例如通过 lm studio 启动的 llama 2 模型时,可能会遇到如下的 typeerror 错误信息:

TypeError: create() got an unexpected keyword argument 'api_type'

此错误通常发生在 autogen.oai.client.py 模块内部,表明在调用 OpenAI 兼容的 API 客户端时,传递了一个不再被接受的关键字参数 api_type。尽管在 Autogen 的早期版本或某些示例中可能看到 config_list 中包含 api_type 参数,但随着库的迭代更新,其内部实现已有所调整。

错误根源:api_type 参数的移除

此 TypeError 的根本原因在于 Autogen 库近期为了更好地与 OpenAI 官方 API 保持兼容性,已经从其内部的 config_list 配置中移除了对 api_type 参数的支持。这意味着,即使您将本地 LLM 服务配置为模拟 OpenAI API 接口(例如,LM Studio 默认就提供 /v1 兼容接口),在 Autogen 的最新版本中,您也不应再显式指定 api_type: “open_ai”。Autogen 默认会根据 api_base 的格式和请求的上下文来推断 API 类型。

解决方案

解决此问题的方法非常直接:从 config_list 中的每个配置字典中移除 api_type 参数。

以下是原始的、导致错误的代码配置:

config_list = [     {         "api_type": "open_ai", # <-- 导致错误的参数         "api_base": "http://localhost:1234/v1",         "api_key": "NULL"     } ]

正确的配置应移除 api_type,如下所示:

config_list = [     {         "api_base": "http://localhost:1234/v1",         "api_key": "NULL"     } ]

请注意,对于本地 LLM 服务,api_key 通常可以设置为 “NULL” 或任意非空字符串,因为本地服务通常不进行 API 密钥验证。关键在于 api_base 必须准确指向您的本地 LLM 服务地址和端口。

完整示例代码

下面是修正后的完整 Autogen 脚本,演示了如何正确配置并使用本地 LLM:

from autogen import AssistantAgent, UserProxyAgent  # 修正后的 config_list,移除了 "api_type" 参数 config_list = [     {         "api_base": "http://localhost:1234/v1",  # 确保此地址指向您的本地LLM服务         "api_key": "NULL"                       # 本地LLM通常不需要实际的API密钥     } ]  # 配置 LLM llm_config = {'config_list': config_list}  # 初始化 AssistantAgent assistant = AssistantAgent(     name="assistant",     llm_config=llm_config )  # 初始化 UserProxyAgent user_proxy = UserProxyAgent(     name="user_proxy",     human_input_mode="NEVER",  # 示例中设置为非交互模式     max_consecutive_auto_reply=100, )  # 定义任务 task = """write a python method to output numbers 1 to 100"""  # 启动代理对话 user_proxy.initiate_chat(     assistant,     message=task )

注意事项与最佳实践

  1. 版本兼容性: 软件库,尤其是像 Autogen 这样快速迭代的框架,其 API 可能会频繁更新。遇到问题时,查阅其官方文档、GitHub 仓库的最新发布说明或变更日志(如 roadmap 或 CHANGELOG 文件)是解决问题的最佳途径。本案例中,api_type 的移除正是为了与 OpenAI API 的最新规范保持一致。
  2. 本地 LLM 服务状态: 在运行 Autogen 脚本之前,请务必确认您的本地 LLM 服务(例如 LM Studio、Ollama 等)已正确启动,并且其 API 接口在 config_list 中指定的 api_base 地址和端口上可用。常见的端口号包括 8000、1234、5000 等,具体取决于您的 LLM 工具配置。
  3. 错误信息解读: 当程序抛出 TypeError 并指出“got an unexpected keyword argument”时,这通常意味着您传递了一个函数或方法不再支持的参数。这强烈暗示了 API 签名或库行为发生了变化。
  4. api_key 的作用: 尽管对于本地 LLM 服务,api_key 可以是占位符,但在连接到真正的云端 LLM 服务(如 OpenAI、Azure OpenAI 等)时,它将是身份验证的关键凭证,必须提供有效密钥。

总结

TypeError: create() got an unexpected keyword argument ‘api_type’ 错误是 Autogen 框架与本地 LLM 交互时常见的配置问题,其核心在于 api_type 参数在最新版本的 Autogen 中已被弃用。通过简单地从 config_list 中移除此参数,并确保本地 LLM 服务正常运行且 api_base 配置正确,即可解决此问题,使 Autogen 代理能够顺利与本地模型进行通信并执行任务。始终保持对所用库最新变化的关注,是避免此类配置错误的关键。



评论(已关闭)

评论已关闭