如何指定 Open AI 补全应返回的字数?
例如想象我问人工智能这个问题
埃隆·马斯克是谁?
我可以使用什么参数来确保 AI 发回的结果小于或等于 300 个字?
我认为max_tokens参数是为了这个,但它似乎max_tokens是为了分解输入而不是输出。
通过使用会话,开发人员可以构建聊天应用程序,在与用户的多次交互中维护上下文,这可以带来更具吸引力和自然的对话。
问题:如何使用 c# http 与 gpt-3.5-turbo API 建立会话?
using Newtonsoft.Json;
using System.Text;
namespace MyChatGPT
{
internal class Program
{
static async Task Main(string[] args)
{
// Set up the HttpClient
var client = new HttpClient();
var baseUrl = "https://api.openai.com/v1/chat/completions";
// Set up the API key
var apiKey = "YOUR_API_KEY";
client.DefaultRequestHeaders.Authorization = new System.Net.Http.Headers.AuthenticationHeaderValue("Bearer", apiKey);
while (true)
{
// Prompt the user for input
Console.Write("> ");
var userInput = Console.ReadLine();
// Set up the request parameters
var parameters = new …Run Code Online (Sandbox Code Playgroud) 根据 openAI 的文档, https://platform.openai.com/docs/guides/chat/chat-vs-completions 您应该从响应中获取令牌使用情况。不过,我目前正在使用设置为 True 的流进行 API 调用。响应似乎不包含使用属性?
那么在这种情况下如何获取令牌的使用情况呢?
我正在尝试在我的计算机上使用 耳语 AI。我有一个 NVIDIA GPU RTX 2060,安装了 CUDA 和 FFMPEG。
我正在运行这段代码:
import whisper
model = whisper.load_model("medium")
result = model.transcribe("venv/files/test1.mp3")
print(result["text"])
Run Code Online (Sandbox Code Playgroud)
并有问题:
whisper\transcribe.py:114: UserWarning: FP16 is not supported on CPU; using FP32 instead
warnings.warn("FP16 is not supported on CPU; using FP32 instead")
Run Code Online (Sandbox Code Playgroud)
我不明白为什么不支持 FP16,因为我有一个很好的 GPU 并且安装了所有东西。任何帮助,将不胜感激。谢谢。
我安装了所有的要求,我期望耳语 AI 会使用 GPU
python speech-recognition text-to-speech openai-api openai-whisper
我对使用 llama-index 库来训练 GPT-3 以及通过标准 API 使用 ChatGPT(两者都在 Python 中)还相当陌生。我注意到标准 ChatGPT API 我可以简单地执行以下代码,让 ChatGPT 获取消息历史记录作为上下文:
message_history=[]
completion = openai.ChatCompletion.create(model="gpt-3.5-turbo",messages=message_history)
Run Code Online (Sandbox Code Playgroud)
现在我正在使用 llama-index 库在更具体的上下文中训练 GPT-3,但是我不知道如何让模型也考虑 message_history,这是我目前正在处理的代码,我不知道如何实现消息历史记录:
def construct_index(directory_path):
# set maximum input size
max_input_size = 4096
# set number of output tokens
num_outputs = 2000
# set maximum chunk overlap
max_chunk_overlap = 20
# set chunk size limit
chunk_size_limit = 600
# define prompt helper
prompt_helper = PromptHelper(max_input_size, num_outputs, max_chunk_overlap, chunk_size_limit=chunk_size_limit)
# define LLM
llm_predictor = LLMPredictor(llm=OpenAI(temperature=0.5, model_name="text-ada-001", max_tokens=num_outputs))
# define context …Run Code Online (Sandbox Code Playgroud) 我\xe2\x80\x99m 尝试使用 LangChain\xe2\x80\x99s AzureOpenAI,如下所示,但收到此错误。\n你知道如何解决此问题吗?
\nopenai.error.InvalidRequestError: Resource not found
# Import Azure OpenAI\nfrom langchain.llms import AzureOpenAI\nimport openai\nimport os\n\nos.environ["OPENAI_API_TYPE"] = "azure"\nos.environ["OPENAI_API_KEY"] = "XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX"\nos.environ["OPENAI_API_BASE"] = "https://XXXXXX-openai.openai.azure.com/"\nos.environ["OPENAI_API_VERSION"] = "2022-12-01"\n\nllm = AzureOpenAI(\n openai_api_type="azure",\n deployment_name="text-davinci-003", \n model_name="text-davinci-003") \n\nprint(llm("hi"))\nRun Code Online (Sandbox Code Playgroud)\n将 Azure OpenAI 与 LangChain 框架结合使用
\n我在我的 React 应用程序上使用聊天 gpt api。我面临的问题是如何格式化来自聊天 gpt 的响应。如果要求它以表格格式给我一个响应,它会提供奇怪的响应,我使用预标记来显示文本,响应以这种方式显示附加图像,但我想要正确的表格,就像聊天 gpt 一样,如果我要求的话,以同样的方式它显示为段落形式而不是在不同行上的任何项目列表,因此如何正确格式化聊天 GPT 响应。
我想要正确的表格和列表,如聊天 GPT 显示,但这就是我接收数据的方式 这是使用预标记时数据的显示方式,但我想要正确的表格
据我所知,当前 copilot/ChatGPT SQL 帮助的唯一选项是在 SSMS 之外生成查询。
真正的力量在于 SSMS,可以访问表定义、SP 等。我可以看到这节省了我数小时的开发时间。有人知道卡片上是否有任何内容或者 MS 是否允许将外部工具合并到 SSMS 中?
我之前在 LangChain 中构建了一个 pdf 搜索工具,它使用
chain.run(input_documents=, question=)语法来询问模型问题以及该 pdf 中的上下文。我想将其与langchain提供的代理集成。我正在使用语法agent.run('Question')
我无法找到集成这两种方法的链接。
我正在使用 ChatGPT,它说将这行代码用于 API 端点:
$endpoint = 'https://api.openai.com/v1/engines/text-davinci-003/completions';
Run Code Online (Sandbox Code Playgroud)
但这不起作用。我收到以下错误:
{ "error": { "message": "The model `text-davinci-003` has been deprecated, learn more here: https://platform.openai.com/docs/deprecations", "type": "invalid_request_error", "param": null, "code": "model_not_found" } }
Run Code Online (Sandbox Code Playgroud)
我真的找不到任何东西可以解决它。
我尝试更改 URL 本身中的模型,但没有成功。
openai-api ×10
gpt-3 ×2
javascript ×2
langchain ×2
python ×2
azure ×1
c# ×1
chatgpt-api ×1
formatting ×1
gpt-index ×1
httpclient ×1
llama-index ×1
node.js ×1
php ×1
reactjs ×1
sql-server ×1