求解惑:prompt在langchain-chatchat+chatglm本地知识库项目中真的能提高回答的准确性吗?如果可以的话具体是怎么做的呢,需要在哪里修改配置文件的代码?谢谢!
收起
报告相同问题?