We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
0.3.7
当使用 llama.cpp 等本地 LLM 服务时,SSE 流式响应的第一个 chunk 返回 "content": null,导致 Chat2DB 解析失败:
llama.cpp
"content": null
Chat2DB Version
0.3.7
Describe the bug
当使用
llama.cpp等本地 LLM 服务时,SSE 流式响应的第一个 chunk 返回"content": null,导致 Chat2DB 解析失败: