当前位置: 首页 > news >正文

使用Chainlit接入通义千问快速实现一个多模态的对话应用

开通灵识服务

首先需要到阿里云-模型服务灵积开通账户,获得apiKey
模型服务灵积 https://dashscope.aliyun.com/
进入控制台 ,在API-KEY管理里,创建一个新的API-KEY,然后保存起来,后面会用到。

模型服务灵积服务所有API文档地址 https://help.aliyun.com/zh/dashscope/developer-reference

快速开始

创建项目

创建一个文件,例如“chainlit_chat”

mkdir chainlit_chat

进入 chainlit_chat文件夹下,执行命令创建python 虚拟环境空间(需要提前安装好python sdkChainlit 需要python>=3.8。,具体操作,由于文章长度问题就不在叙述,自行百度),命令如下:

创建虚拟环境

python -m venv .venv
  • 这一步是避免python第三方库冲突,省事版可以跳过
  • .venv是创建的虚拟空间文件夹可以自定义

接下来激活你创建虚拟空间,命令如下:

#linux or mac
source .venv/bin/activate
#windows
.venv\Scripts\activate

创建requirements.txt文件

在项目根目录下创建requirements.txt,内容如下:

chainlit~=1.1.306
openai~=1.37.0

创建app.py文件

在项目根目录下创建app.py文件,代码如下:

import base64
from io import BytesIO
from pathlib import Pathimport chainlit as cl
from chainlit.element import ElementBased
from chainlit.input_widget import Select, Slider, Switch
from openai import AsyncOpenAIclient = AsyncOpenAI()def encode_image(image_path):with open(image_path, "rb") as image_file:return base64.b64encode(image_file.read()).decode("utf-8")@cl.on_settings_update
async def on_settings_update(settings: cl.chat_settings):cl.user_session.set("settings", settings)@cl.on_chat_start
async def start_chat():settings = await cl.ChatSettings([Select(id="Model",label="Model",values=["qwen-turbo", "qwen-plus", "qwen-max"],initial_index=0,),Slider(id="Temperature",label="Temperature",initial=1,min=0,max=2,step=0.1,),Slider(id="MaxTokens",label="MaxTokens",initial=1000,min=1000,max=3000,step=100,),Switch(id="Streaming", label="Stream Tokens", initial=True),]).send()cl.user_session.set("settings", settings)content = "你好,我是泰山AI智能客服,有什么可以帮助您吗?"msg = cl.Message(content=content)await msg.send()@cl.on_message
async def on_message(message: cl.Message):settings = cl.user_session.get("settings")print('settings', settings)streaming = settings['Streaming']model = settings['Model']print('elements', message.elements)images = [file for file in message.elements if "image" in file.mime]files = [file for file in message.elements if "application" in file.mime]messages = cl.chat_context.to_openai()if files:model = "qwen-long"files = files[:3]pdfs_content = []for file in files:file_object = await client.files.create(file=Path(file.path), purpose="file-extract")print('file_object', file_object)pdfs_content.append({"role": "system","content": f"fileid://{file_object.id}",})pdfs_content.append({"role": "user", "content": message.content})messages = pdfs_contentif images and model in ["qwen-plus", "qwen-max"]:# Only process the first 3 imagesimages = images[:3]images_content = [{"type": "image_url","image_url": {"url": f"data:{image.mime};base64,{encode_image(image.path)}"},}for image in images]model = "qwen-vl" + model[4:]messages = [{"role": "user","content": [{"type": "text", "text": message.content}, *images_content],}]msg = cl.Message(content="", author="tarzan")await msg.send()print('messages', messages)response = await client.chat.completions.create(model=model,messages=messages,temperature=settings['Temperature'],max_tokens=int(settings['MaxTokens']),stream=streaming)if streaming:async for part in response:if token := part.choices[0].delta.content or "":await msg.stream_token(token)else:if token := response.choices[0].message.content or "":await msg.stream_token(token)await msg.update()
  • 根据qwen的接口文档,文档类的需要用qwen-long模型处理,图片需要用qwen-vl模型处理

创建.env文件

在项目根目录下创建.env环境变量,配置如下:

OPENAI_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1"
OPENAI_API_KEY=""
  • 由于国内open ai 的限制使用,代码中使用的灵识服务提供兼容open ai的接口
  • OPENAI_BASE_URL是为固定地址
  • OPENAI_API_KEY是你创建灵识服务的API-KEY

安装依赖

执行以下命令安装依赖:

pip install -r .\requirements.txt
  • 安装后,项目根目录下会多出.chainlit.files文件夹和chainlit.md文件

运行应用程序

要启动 Chainlit 应用程序,请打开终端并导航到包含的目录app.py。然后运行以下命令:

 chainlit run app.py -w   
  • -w标志告知 Chainlit 启用自动重新加载,因此您无需在每次更改应用程序时重新启动服务器。您的聊天机器人 UI 现在应该可以通过http://localhost:8000访问。

使用体验:

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

相关文章推荐

《使用 Xinference 部署本地模型》
《Fastgpt接入Whisper本地模型实现语音输入》
《Fastgpt部署和接入使用重排模型bge-reranker》
《Fastgpt部署接入 M3E和chatglm2-m3e文本向量模型》
《Fastgpt 无法启动或启动后无法正常使用的讨论(启动失败、用户未注册等问题这里)》
《vllm推理服务兼容openai服务API》
《vLLM模型推理引擎参数大全》
《解决vllm推理框架内在开启多显卡时报错问题》
《Ollama 在本地快速部署大型语言模型,可进行定制并创建属于您自己的模型》

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • Android12 显示框架之SurfaceComposerClient创建
  • element的el-autocomplete带输入建议搜索+搜索匹配文字高亮显示
  • 前端开发:Vue2.0桌面组件库-Element
  • 【音视频之SDL2】Windows配置SDL2项目模板
  • 【数据集处理】Polars库、Parquet 文件
  • GO-学习-02-常量
  • 【EI会议征稿通知】第五届大数据、人工智能与软件工程国际研讨会(ICBASE 2024)
  • js_拳皇(下)
  • 「树形结构」基于 Antd 实现一个动态增加子节点+可拖拽的树
  • ArduPilot开源代码之lida2003套机+伴机电脑外场
  • 前端 socket.io 跨域
  • 【Go - context 速览,场景与用法】
  • 解析西门子PLC的String和WString
  • 套接字选项、单播、广播和多播
  • 高效恢复误删文件:2024年数据恢复工具
  • 【译】理解JavaScript:new 关键字
  • Angular6错误 Service: No provider for Renderer2
  • CentOS 7 防火墙操作
  • CNN 在图像分割中的简史:从 R-CNN 到 Mask R-CNN
  • Docker下部署自己的LNMP工作环境
  • ES6 学习笔记(一)let,const和解构赋值
  • JavaScript中的对象个人分享
  • laravel5.5 视图共享数据
  • Mysql优化
  • niucms就是以城市为分割单位,在上面 小区/乡村/同城论坛+58+团购
  • 给Prometheus造假数据的方法
  • 基于 Babel 的 npm 包最小化设置
  • 基于OpenResty的Lua Web框架lor0.0.2预览版发布
  • 买一台 iPhone X,还是创建一家未来的独角兽?
  • 嵌入式文件系统
  • ionic异常记录
  • # AI产品经理的自我修养:既懂用户,更懂技术!
  • # 数论-逆元
  • # 睡眠3秒_床上这样睡觉的人,睡眠质量多半不好
  • (02)Hive SQL编译成MapReduce任务的过程
  • (1)安装hadoop之虚拟机准备(配置IP与主机名)
  • (2020)Java后端开发----(面试题和笔试题)
  • (6)STL算法之转换
  • (二)十分简易快速 自己训练样本 opencv级联lbp分类器 车牌识别
  • (附源码)springboot人体健康检测微信小程序 毕业设计 012142
  • (几何:六边形面积)编写程序,提示用户输入六边形的边长,然后显示它的面积。
  • (接上一篇)前端弄一个变量实现点击次数在前端页面实时更新
  • (十一)JAVA springboot ssm b2b2c多用户商城系统源码:服务网关Zuul高级篇
  • *(长期更新)软考网络工程师学习笔记——Section 22 无线局域网
  • .NET Core跨平台微服务学习资源
  • .NET企业级应用架构设计系列之应用服务器
  • .Net通用分页类(存储过程分页版,可以选择页码的显示样式,且有中英选择)
  • /usr/bin/python: can't decompress data; zlib not available 的异常处理
  • @SuppressLint(NewApi)和@TargetApi()的区别
  • @Value获取值和@ConfigurationProperties获取值用法及比较(springboot)
  • [ CTF ]【天格】战队WriteUp- 2022年第三届“网鼎杯”网络安全大赛(青龙组)
  • [⑧ADRV902x]: Digital Pre-Distortion (DPD)学习笔记
  • [Bugku] web-CTF靶场系列系列详解⑥!!!
  • [C++]入门基础(1)
  • [codeforces]Levko and Permutation