[RFC] 084 - 为 LLM Providers 添加集成测试 #5081
Replies: 2 comments 3 replies
-
感觉合理的,回头看下怎么加 |
Beta Was this translation helpful? Give feedback.
-
有关集成测试的问题汇总目前 #7326 尝试对 Azure AI Foundry 添加了集成测试,但是尚未成功。 1. Edge Runtime 包解析问题如前所述,模型提供商的集成测试离不开对请求的完整打桩,由于模型提供商部分的代码全部使用了 Edge Runtime,而 Edge Runtime 使用 在对 Azure AI Foundry 设计的集成测试中发现,打了桩的 断言代码(以下代码归属于 #7326 ) lobe-chat/src/libs/agent-runtime/azureai/integration.test.ts Lines 339 to 346 in 7e4ec8e lobe-chat/src/libs/agent-runtime/azureai/integration.test.ts Lines 438 to 445 in 7e4ec8e 经过反复调试定位,发现异常现象来自于包的解析策略。 Vitest 成员说明应修改 为此,Vitest 成员建议,使用多个 2. JetBrains WebStorm 不支持对多个 vitest 配置文件的发现@arvinxx 反对使用多个 vitest 配置文件,理由是 WebStorm 不支持 Visual Studio Code 的 Vitest 扩展默认支持3个测试配置文件的发现,不过,@arvinxx 习惯于 WebStorm,不希望切换到 VS Code。 针对这一问题,提出2种解决思路:
方案2看上去更加优雅。 3. Vitest / Vite Workspace 嵌套包解析问题在刚才的 Issue 中询问 Vitest 成员是否可以使用 Workspace,该成员回复:vitest-dev/vitest#7699 (comment) 举例来说, import { Config } from 'A'; 而包 A 中又有对 B 的导入 export { Config } from 'B'; 此时,在 经多次调试跟踪,这一问题似乎可以追溯到 Vite,而不是单单 Vitest 的问题。该问题尚未解决。 问题似乎又回到了原点。 解决方案讨论此处汇总可能的解决方案及当前面临的问题。
对现有配置文件方法的附加讨论要点1:现有2个 Vitest 配置文件,分别是
|
Beta Was this translation helpful? Give feedback.
Uh oh!
There was an error while loading. Please reload this page.
-
目前,所有的 LLM Provider 都是单元测试,一个函数一个函数地测,测这个函数的时候就会把其它的函数都mock掉,这样对集成之后的逻辑没有验证。
提议增加集成测试,对每一个 Provider,只将
globalThis.fetch
mock掉,使用真实环境下的响应进行测试。Beta Was this translation helpful? Give feedback.
All reactions