标签: pinecone

如何在 Next JS 应用程序中使用 langchain ConversationalRetrievalQA 链存储聊天记录?

我正在创建一个文本文档 QA 聊天机器人,我使用LangchainjsOpenAI LLM 来创建嵌入,并使用 Chat 和Pinecone作为我的矢量存储。

见图: 在此输入图像描述

成功上传嵌入并在松果上创建索引后。我正在使用 Next JS 应用程序与 OpenAI 和 Pinecone 进行通信。

我的应用程序的当前结构如下所示:

1:前端 -> 用户输入 aquestion并对 NEXT js 服务器 API 路由进行 POST 调用/ask

2:服务器功能如下所示:

const vectorStore = await PineconeStore.fromExistingIndex(
        new OpenAIEmbeddings(),
        { pineconeIndex })

const model = new ChatOpenAI({ temperature: 0.5, modelName: 'gpt-3.5-turbo' })

const memory = new ConversationSummaryMemory({
    memoryKey: 'chat_history',
    llm: new ChatOpenAI({ modelName: 'gpt-3.5-turbo', temperature: 0 }),
})

const chain = ConversationalRetrievalQAChain.fromLLM(
    model,
    vectorStore.asRetriever(),
    { …
Run Code Online (Sandbox Code Playgroud)

chatbot next.js openai-api langchain pinecone

6
推荐指数
1
解决办法
2451
查看次数

标签 统计

chatbot ×1

langchain ×1

next.js ×1

openai-api ×1

pinecone ×1