当前位置: 首页 > news >正文

AI 大模型企业应用实战(10)-LLMs和Chat Models

1 模型

来看两种不同类型的模型--LLM 和聊天模型。然后,它将介绍如何使用提示模板来格式化这些模型的输入,以及如何使用输出解析器来处理输出。

LangChain 中的语言模型有两种类型:

1.1 Chat Models

聊天模型通常由 LLM 支持,但专门针对会话进行了调整。提供者 API 使用与纯文本补全模型不同的接口。它们的输入不是单个字符串,而是聊天信息列表,输出则是一条人工智能信息。

GPT-4 和 Anthropic 的 Claude-2 都是作为聊天模型实现的。

1.2 LLM

LangChain 中的 LLM 指的是纯文本补全模型。它们封装的 API 将字符串提示作为输入,并输出字符串完成。OpenAI 的 GPT-3 就是作为 LLM 实现的。

这两种 API 类型具有不同的输入和输出模式。并非所有模型都一样。不同的模型有不同的最佳提示策略。如:

  • Anthropic 模型最适合使用 XML
  • OpenAI 的模型最适合使用 JSON

设计应用程序时牢记这点。示例将使用聊天模型,并提供几种选择:使用 Anthropic 或 OpenAI 等 API,或通过 Ollama 使用本地开源模型。

2 实例

OpenAI与ChatOpenAI

#调用chatmodels,以openai为例from langchain.chat_models import ChatOpenAI
from langchain.schema.messages import HumanMessage,AIMessage
import os
api_base = os.getenv("OPENAI_PROXY")
api_key = os.getenv("OPENAI_API_KEY")chat = ChatOpenAI(model="gpt-3.5-turbo",temperature=0,openai_api_key = api_key,openai_api_base = api_base)messages = [AIMessage(role="system",content="你好,我是tomie!"),HumanMessage(role="user",content="你好tomie,我是狗剩!"),AIMessage(role="system",content="认识你很高兴!"),HumanMessage(role="user",content="你知道我叫什么吗?")
]response = chat.invoke(messages)
print(response)#print(chat.predict("你好"))

3 流式调用

为啥要流式输出呢?

大模型都是一个个字打出来,免得让你觉得他每次神经网络计算太慢了,让你感觉他一直在持续输出。

#LLM类大模型的流式输出方法from langchain.llms import OpenAI
import os
api_base = os.getenv("OPENAI_PROXY")
api_key = os.getenv("OPENAI_API_KEY")#构造一个llm
llm = OpenAI(model = "gpt-3.5-turbo-instruct",temperature=0,openai_api_key = api_key,openai_api_base = api_base,max_tokens=512,
)for chunk in llm.stream("写一首关于秋天的诗歌"):print(chunk,end="",flush=False)

所以,token 就很重要了。

4 追踪Token的使用

#LLM的toekn追踪
from langchain.llms import OpenAI
from langchain.callbacks import get_openai_callback
import os
api_base = os.getenv("OPENAI_PROXY")
api_key = os.getenv("OPENAI_API_KEY")#构造一个llm
llm = OpenAI(model = "gpt-3.5-turbo-instruct",temperature=0,openai_api_key = api_key,openai_api_base = api_base,max_tokens=512,
)with get_openai_callback() as cb:result = llm.invoke("给我讲一个笑话")print(result)print(cb)
#chatmodels的token追踪
from langchain.chat_models import ChatOpenAI
from langchain.callbacks import get_openai_callback
import os
api_base = os.getenv("OPENAI_PROXY")
api_key = os.getenv("OPENAI_API_KEY")llm = ChatOpenAI(model = "gpt-4",temperature=0,openai_api_key = api_key,openai_api_base = api_base,max_tokens=512,
)with get_openai_callback() as cb:result = llm.invoke("给我讲一个笑话")print(result)print(cb)

5 自定义输出

  • 输出函数参数
  • 输出json
  • 输出List
  • 输出日期

讲笑话机器人:希望每次根据指令,可以输出一个这样的笑话(小明是怎么死的?笨死的)

from langchain.llms import  OpenAI
from langchain.output_parsers import PydanticOutputParser
from langchain.prompts import PromptTemplate
from langchain.pydantic_v1 import BaseModel,Field,validator
from typing import  List
import os
api_base = os.getenv("OPENAI_PROXY")
api_key = os.getenv("OPENAI_API_KEY")#构造LLM
model = OpenAI(model = "gpt-3.5-turbo-instruct",temperature=0,openai_api_key = api_key,openai_api_base = api_base,
)#定义个数据模型,用来描述最终的实例结构
class Joke(BaseModel):setup:str = Field(description="设置笑话的问题")# 笑点punchline:str = Field(description="回答笑话的答案")#验证问题是否符合要求@validator("setup")def question_mark(cls,field):if field[-1] != "?":raise ValueError("不符合预期的问题格式!")return field#将Joke数据模型传入
parser = PydanticOutputParser(pydantic_object=Joke)prompt = PromptTemplate(template = "回答用户的输入.\n{format_instructions}\n{query}\n",input_variables = ["query"],partial_variables = {"format_instructions":parser.get_format_instructions()}
)prompt_and_model = prompt | model
out_put = prompt_and_model.invoke({"query":"给我讲一个笑话"})
print("out_put:",out_put)
parser.invoke(out_put)

LLM的输出格式化成python list形式,类似['a','b','c']

from langchain.output_parsers import  CommaSeparatedListOutputParser
from langchain.prompts import  PromptTemplate
from langchain.llms import OpenAI
import os
api_base = os.getenv("OPENAI_PROXY")
api_key = os.getenv("OPENAI_API_KEY")#构造LLM
model = OpenAI(model = "gpt-3.5-turbo-instruct",temperature=0,openai_api_key = api_key,openai_api_base = api_base,
)parser = CommaSeparatedListOutputParser()prompt = PromptTemplate(template = "列出5个{subject}.\n{format_instructions}",input_variables = ["subject"],partial_variables = {"format_instructions":parser.get_format_instructions()}
)_input = prompt.format(subject="常见的小狗的名字")
output = model(_input)
print(output)
#格式化
parser.parse(output)

关注我,紧跟本系列专栏文章,咱们下篇再续!

作者简介:魔都架构师,多家大厂后端一线研发经验,在分布式系统设计、数据平台架构和AI应用开发等领域都有丰富实践经验。

各大技术社区头部专家博主。具有丰富的引领团队经验,深厚业务架构和解决方案的积累。

负责:

  • 中央/分销预订系统性能优化

  • 活动&券等营销中台建设

  • 交易平台及数据中台等架构和开发设计

  • 车联网核心平台-物联网连接平台、大数据平台架构设计及优化

  • LLM应用开发

    目前主攻降低软件复杂性设计、构建高可用系统方向。

参考:

  • 编程严选网

    本文由博客一文多发平台 OpenWrite 发布!

相关文章:

  • AI大模型企业应用实战(14)-langchain的Embedding
  • Qt异常处理
  • 软件测试过程中用接口怎么将web系统的多页数据展示在1页
  • 罗盘时钟lua迷你世界
  • Parallels Desktop 19 for mac破解版安装激活使用指南
  • ArcgisEngine 释放内存案例
  • React 中的 ErrorBoundary
  • 数据分析:置换检验Permutation Test
  • 【JavaEE】Spring Web MVC详解
  • 【ajax核心05】宏任务与微任务
  • 【计算机网络】已解决:“‘ping‘ 不是内部或外部命令,也不是可运行的程序或批处理文件”报错
  • 2-14 基于matlab的GA优化算法优化车间调度问题
  • PMBOK® 第六版 管理项目知识
  • 如何使用Dockerfile创建容器映像
  • 解决WebStorm中不显示npm任务面板
  • 【翻译】babel对TC39装饰器草案的实现
  • android高仿小视频、应用锁、3种存储库、QQ小红点动画、仿支付宝图表等源码...
  • Angular 4.x 动态创建组件
  • Apache Spark Streaming 使用实例
  • github指令
  • HTTP--网络协议分层,http历史(二)
  • js 实现textarea输入字数提示
  • Linux Process Manage
  • nginx 配置多 域名 + 多 https
  • Node项目之评分系统(二)- 数据库设计
  • PHP的Ev教程三(Periodic watcher)
  • Ruby 2.x 源代码分析:扩展 概述
  • 关于 Cirru Editor 存储格式
  • 湖南卫视:中国白领因网络偷菜成当代最寂寞的人?
  • 基于MaxCompute打造轻盈的人人车移动端数据平台
  • 基于Volley网络库实现加载多种网络图片(包括GIF动态图片、圆形图片、普通图片)...
  • 记一次用 NodeJs 实现模拟登录的思路
  • 驱动程序原理
  • Java数据解析之JSON
  • ​2021半年盘点,不想你错过的重磅新书
  • ​如何使用ArcGIS Pro制作渐变河流效果
  • # Swust 12th acm 邀请赛# [ A ] A+B problem [题解]
  • ######## golang各章节终篇索引 ########
  • (1/2)敏捷实践指南 Agile Practice Guide ([美] Project Management institute 著)
  • (C语言)深入理解指针2之野指针与传值与传址与assert断言
  • (M)unity2D敌人的创建、人物属性设置,遇敌掉血
  • (php伪随机数生成)[GWCTF 2019]枯燥的抽奖
  • (安全基本功)磁盘MBR,分区表,活动分区,引导扇区。。。详解与区别
  • (简单) HDU 2612 Find a way,BFS。
  • (蓝桥杯每日一题)love
  • (十七)Flink 容错机制
  • (学习日记)2024.04.04:UCOSIII第三十二节:计数信号量实验
  • (一)UDP基本编程步骤
  • (原創) 如何將struct塞進vector? (C/C++) (STL)
  • (转) RFS+AutoItLibrary测试web对话框
  • (转)Android学习系列(31)--App自动化之使用Ant编译项目多渠道打包
  • (转)Oracle 9i 数据库设计指引全集(1)
  • . ./ bash dash source 这五种执行shell脚本方式 区别
  • .NET CORE 第一节 创建基本的 asp.net core
  • .net core使用RPC方式进行高效的HTTP服务访问