1. 在上述的“接口信息”版块中,在下图位置1处输入接口名。输入完成后,单击位置2处的复制按钮,复制完整的 API 调用命令头。2. 在命令头最后追加参数 -d’{REQ_BODY}‘,得到完整命令。其中 {REQ_BODY} 为请求体,请按照上文中“使用平台在线测试功能调用 API”的第 3 点给出的格式填写。最终编写成的完整命令应如下方代码所示:curl -X POST https://ms-xxxxxxxx-xxxxxxxx.gw.ap-shanghai.ti.tencentcs.com/ms-xxxxxxxx/v1/chat/completions -H ‘Content-Type: application/json’ -d'{“model”:“ms-xxxxxxxx”,“messages”:[{“role”:“user”,“content”:“描述一下你对人工智能的理解。”}]}‘3. 将完整命令输入到已连接到公网的计算设备的命令行工具中并执行,命令行中将返回模型的输出。
方式三:使用第三方应用开发工具调用 API
完成模型部署后,如果您需要在您的 AI 应用中接入已部署的模型服务,可以将服务 API 的信息配置到相关平台或系统中。下文以Cherry Studio为例,介绍如何将服务 API 接入应用中。Cherry Studio 是一个支持多模型服务的开源桌面客户端,可以将多服务集成至桌面 AI 对话应用中。本文仅以此为例介绍 API 调用。如您需要商用 Cherry Studio,请仔细阅读其开源软件协议。1. 进入您在 TI 平台已部署模型服务的“服务详情页 > 服务调用”Tab,在页面较上方位置找到“调用地址”字段,并单击最右侧复制按钮复制。2. 下载并安装 Cherry Studio。完成安装后,打开 Cherry Studio,进入产品主页,并单击左下角的设置按钮,跳转到产品设置页。3. 进入产品设置页后,单击页面中间下方的添加:4. 单击添加后,需要在弹出的“添加提供商”对话框中输入信息,其中,“提供商名称”可自由填写,提供商类型需选择“OpenAI”,填好后单击确定:5. 按照第4点要求成功添加提供商后,将自动跳转到该提供商的配置菜单,本文中示例为“腾讯云 TI 平台”。请注意:TI 平台当前的鉴权方式和 OpenAI 有所不同,因此仅支持以未开启鉴权方式将 API 接入 Cherry Studio。在未开启鉴权的前提下,进行如下配置:API 密钥:可任意填写,但不可以不填。API 地址:粘贴第1点中复制的调用地址。配置完成后,单击下方“模型”版块的添加。6. 单击添加后,将弹出“添加模型”对话框,在对话框中输入要求的信息。其中,模型 ID 需配置为 TI 平台已部署服务的服务组 ID(获取方式见“使用平台在线测试功能调用 API”第 3 点,该字段以“ms-”作为前缀),接着单击添加模型:7. 按照第6点的要求成功添加模型后,单击左上方对话按钮,回到对话页面:8. 单击对话页面顶部的模型选择按钮,单击后弹出模型列表,选择刚刚添加的模型:9. 现在,可以通过 Cherry Studio 和在 TI 平台部署的模型进行对话了:
We and selected third parties use cookies or similar technologies for technical purposes and, with your consent, for other purposes as specified in the cookie policy. You can consent to the use of such technologies by closing this notice, by interacting with any link or button outside of this notice or by continuing to browse otherwise.