max*_*ate 14 python langchain chromadb py-langchain
我已经使用 Chroma DB 编写了 LangChain 代码来矢量存储网站 URL 中的数据。目前,它可以从 URL 获取数据,将其存储到项目文件夹中,然后使用该数据来响应用户提示。我弄清楚了如何使该数据在运行后保留/存储,但我不知道如何加载该数据以供将来提示。目标是接收用户输入,使用 OpenAI LLM 的程序将根据现有数据库文件生成响应,而不是程序需要在每次运行时创建/写入这些数据库文件。如何才能做到这一点?
我应该怎么办?
我尝试了这个,因为这可能是理想的解决方案:
vectordb = Chroma(persist_directory=persist_directory, embedding_function=embeddings)
qa = RetrievalQA.from_chain_type(llm=llm, chain_type="stuff", vectorstore=vectordb)
Run Code Online (Sandbox Code Playgroud)
但该from_chain_type()函数不接受vectorstore数据库作为输入,因此这不起作用。
小智 13
您需要定义检索器并将其传递给链。这将使用您之前保留的数据库在查询中使用。
vectordb = Chroma(persist_directory=persist_directory, embedding_function=embeddings)
retriever = vectordb.as_retriever()
qa = RetrievalQA.from_chain_type(llm=llm, chain_type="stuff", retriever=retriever)
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
27013 次 |
| 最近记录: |