本文旨在解决 Autogen 框架在使用本地大型语言模型(如 LM Studio)时遇到的 TypeError: create() got an unexpected keyword argument ‘api_type’ 错误。核心问题在于 Autogen 库为保持与 OpenAI API 的兼容性,已移除 config_list 中 api_type 参数的支持。教程将详细阐述错误原因,并提供移除该参数的解决方案,辅以更新后的代码示例,帮助开发者顺利配置 Autogen 与本地 LLM 的交互环境,确保代理对话的正常进行。
错误现象分析
当开发者尝试使用 autogen 框架连接本地运行的大型语言模型(llm),例如通过 lm studio 启动的 llama 2 模型时,可能会遇到如下的 typeerror 错误信息:
TypeError: create() got an unexpected keyword argument 'api_type'
此错误通常发生在 autogen.oai.client.py 模块内部,表明在调用 OpenAI 兼容的 API 客户端时,传递了一个不再被接受的关键字参数 api_type。尽管在 Autogen 的早期版本或某些示例中可能看到 config_list 中包含 api_type 参数,但随着库的迭代更新,其内部实现已有所调整。
错误根源:api_type 参数的移除
此 TypeError 的根本原因在于 Autogen 库近期为了更好地与 OpenAI 官方 API 保持兼容性,已经从其内部的 config_list 配置中移除了对 api_type 参数的支持。这意味着,即使您将本地 LLM 服务配置为模拟 OpenAI API 接口(例如,LM Studio 默认就提供 /v1 兼容接口),在 Autogen 的最新版本中,您也不应再显式指定 api_type: “open_ai”。Autogen 默认会根据 api_base 的格式和请求的上下文来推断 API 类型。
解决方案
解决此问题的方法非常直接:从 config_list 中的每个配置字典中移除 api_type 参数。
以下是原始的、导致错误的代码配置:
config_list = [ { "api_type": "open_ai", # <-- 导致错误的参数 "api_base": "http://localhost:1234/v1", "api_key": "NULL" } ]
正确的配置应移除 api_type,如下所示:
config_list = [ { "api_base": "http://localhost:1234/v1", "api_key": "NULL" } ]
请注意,对于本地 LLM 服务,api_key 通常可以设置为 “NULL” 或任意非空字符串,因为本地服务通常不进行 API 密钥验证。关键在于 api_base 必须准确指向您的本地 LLM 服务地址和端口。
完整示例代码
下面是修正后的完整 Autogen 脚本,演示了如何正确配置并使用本地 LLM:
from autogen import AssistantAgent, UserProxyAgent # 修正后的 config_list,移除了 "api_type" 参数 config_list = [ { "api_base": "http://localhost:1234/v1", # 确保此地址指向您的本地LLM服务 "api_key": "NULL" # 本地LLM通常不需要实际的API密钥 } ] # 配置 LLM llm_config = {'config_list': config_list} # 初始化 AssistantAgent assistant = AssistantAgent( name="assistant", llm_config=llm_config ) # 初始化 UserProxyAgent user_proxy = UserProxyAgent( name="user_proxy", human_input_mode="NEVER", # 示例中设置为非交互模式 max_consecutive_auto_reply=100, ) # 定义任务 task = """write a python method to output numbers 1 to 100""" # 启动代理对话 user_proxy.initiate_chat( assistant, message=task )
注意事项与最佳实践
- 版本兼容性: 软件库,尤其是像 Autogen 这样快速迭代的框架,其 API 可能会频繁更新。遇到问题时,查阅其官方文档、GitHub 仓库的最新发布说明或变更日志(如 roadmap 或 CHANGELOG 文件)是解决问题的最佳途径。本案例中,api_type 的移除正是为了与 OpenAI API 的最新规范保持一致。
- 本地 LLM 服务状态: 在运行 Autogen 脚本之前,请务必确认您的本地 LLM 服务(例如 LM Studio、Ollama 等)已正确启动,并且其 API 接口在 config_list 中指定的 api_base 地址和端口上可用。常见的端口号包括 8000、1234、5000 等,具体取决于您的 LLM 工具配置。
- 错误信息解读: 当程序抛出 TypeError 并指出“got an unexpected keyword argument”时,这通常意味着您传递了一个函数或方法不再支持的参数。这强烈暗示了 API 签名或库行为发生了变化。
- api_key 的作用: 尽管对于本地 LLM 服务,api_key 可以是占位符,但在连接到真正的云端 LLM 服务(如 OpenAI、Azure OpenAI 等)时,它将是身份验证的关键凭证,必须提供有效密钥。
总结
TypeError: create() got an unexpected keyword argument ‘api_type’ 错误是 Autogen 框架与本地 LLM 交互时常见的配置问题,其核心在于 api_type 参数在最新版本的 Autogen 中已被弃用。通过简单地从 config_list 中移除此参数,并确保本地 LLM 服务正常运行且 api_base 配置正确,即可解决此问题,使 Autogen 代理能够顺利与本地模型进行通信并执行任务。始终保持对所用库最新变化的关注,是避免此类配置错误的关键。
评论(已关闭)
评论已关闭