当前位置: 首页 > news >正文

什么是LLM?看这一篇就够了!

前言

自从2022年12月 ChatGPT 横空面世以来,AI 领域获得了十足的关注和资本,其实AI的概念在早些年也火过一波,本轮 AI 热潮相比于之前的 AI,最大的区别在于:生成式。本文主要介绍大语言模型(Large Language Model,简称LLM)。

大语言模型介绍

什么是大语言模型(LLM)

通过海量文本训练的、能识别人类语言、执行语言类任务、拥有大量参数的模型,称之为大语言模型。GPT、LLaMA、Mistral、BERT等都是LLM,LLM是对训练文本信息的压缩,同时拥有了泛化能力,不同于数据库和搜索引擎,LLM能创造性地生成历史上没有出现过的文本内容。

LLM能做什么

总体可以概括为:创作内容、处理和分析数据、自动化任务、智能客服

  • • 写作:写邮件、计划书、宣传文案、简单的故事等,可以模仿小红书风格、指定作家风格,尤其适合写长篇套话,但目前要写出完整且有趣的小说还比较难。
  • • 润色:提供大纲或已有文本,由LLM来扩写、改写,适用于洗稿、避免被查重等场景。
  • • 总结:提供会议记录、文章,由LLM自动总结要点和待办。
  • • 翻译:多语言翻译、白话文和文言文翻译,结合特定prompt进行多轮翻译可以实现惊艳的结果。
  • • 数据分析:从报告中提取数据、分析数据,做成可视化图表。
  • • 编程:Github Copilot,程序员都应该用。
  • • 提取结构化信息:从用户的自然语言中,提取出结构化的信息,方便传给程序做自动化处理。
  • • 智能助手:利用Agent实现工作流
  • • 智能客服:基于RAG实现智能客服

……等等

LLM有什么缺陷

目前LLM最大的缺陷是幻觉严重,经常会生成无中生有的回复,如果你没有对应的专业知识,很容易被带偏。所以如果你要用于工作、教育等严肃场景,人工二次校验是必要的。幻觉短期内是无法消除的,甚至LLM的泛化能力也跟幻觉有关,就像人类会做离奇的梦一样。为了解决LLM回复准确性的问题,RAG技术被广泛应用。

另外还有一些问题:训练信息更新不及时、逻辑能力差、推理速度慢等。

LLM产品和模型推荐

LLM产品推荐

排名有先后,仅代表个人意见。

国外产品的通病:对网络有要求;

国内产品的通病:有时会触发莫名其妙的限制;

图片

各个产品的使用地址:因个人公众号无法插入超链接,请点击最底部的“阅读原文”来查看链接。

  • • ChatGPT:网页版;非国区应用商店可下载APP;
  • • Poe:网页版;非国区应用商店可下载APP;
  • • Coze:国际版;国内版
  • • Gemini:个人版;开发者版,100万上下文
  • • Arc Search:官网下载客户端;非国区应用商店可下载APP;
  • • Perplexity:网页版;非国区应用商店可下载APP;
  • • 通义:网页版;各大应用商店可下载APP;
  • • 秘塔:网页版
  • • Kimi:网页版;各大应用商店可下载APP;
  • • 文心一言:网页版;各大应用商店可下载APP;
  • • 海螺AI:网页版;各大应用商店可下载APP;
  • • 智谱清言:网页版;各大应用商店可下载APP;
  • • 豆包:网页版;各大应用商店可下载APP;
  • • Microsoft Copilot:网页版;非国区应用商店可下载APP;
  • • HuggingChat:网页版;非国区应用商店可下载APP;
  • • 讯飞星火:网页版;各大应用商店可下载APP;
  • • 百小应:网页版;各大应用商店可下载APP;

LLM模型评测

部分数据参考LLM竞技场,含个人主观评判,仅代表个人意见。图片太大,在电脑端查看更佳。

图片

LLM教程

对于大多数人来说,没必要专门学习LLM的知识,最多学一下Prompt Engineering就够了。就像我们不需要学习iOS和安卓的底层系统,只需要知道有哪些便捷的系统功能即可。

优秀的LLM教程

因个人公众号无法插入超链接,请点击最底部的“阅读原文”来查看链接。

· 3Blue1Brown视频教程

首推这套教程,可视化讲解了Token、Embedding、Transformer等一系列概念,绝对是入门的最佳教程。

深度学习第5章:https://b23.tv/k68hwjD

深度学习第6章:https://b23.tv/11SNpcT

· Cohere文字教程

虽然是英文文字教程,但是写的非常浅显易懂,四级水平就能看懂。

链接:Cohere教程

· 电子书:《大语言模型》

这是一套包含了项目落地和实操的教程,适合程序员和AI从业人员。

链接:Github

· 台大李宏毅课程

大学的实际教学内容,从线性代数的角度讲解Transformer的原理。

视频地址:https://b23.tv/sasg96g

提示词工程(Prompt Engineering)

最有效的提示词策略是:使用更好的模型。使用小模型时各种提示词方法都控制不了输出结果,换成更大更好的模型后,一句提示词就可以解决。

提示词工程是用于弥补现阶段LLM能力的不足,随着LLM的能力提升,提示词工程的作用会越来越小。

这类教程有很多,我常用的是这个:Prompt教程

微调(Finetune)

微调可以补充和强化LLM的知识,例如使用中文数据集微调LLaMA 3 8B,即可大幅提升中文能力、减少回复里出现表情的情况。小模型推荐基于Phi 3、LLaMA 3、Mistral模型微调。中模型推荐基于Yi-34B微调。

这个Github仓库,提供了colab链接,可以在线微调小模型:colab免费微调模型

数据集

数据集的质量对LLM能力有很大的影响,人类可用的数据集现在已经被全部用于训练LLM了,并且已经开始使用AI合成的数据来训练LLM。关于数据集,可以查看这篇数据集综述

对应的开源数据集,包含444个数据集,大小超过774TB,覆盖8种语言:开源数据集

多模态LLM

LLM是语言模型,只能理解文字、生成文字,多模态的含义是除了文字能力外,还可以理解和生成图片、语音、视频。目前多模态LLM有两种,一种是GPT-4V和LLaVA,通过额外的图片识别模块具备多模态能力,另外一种是GPT-4o和Gemini,模型原生就是多模态,可以更快地处理和生成多模态信息。

关于多模态模型的综述

对应的项目地址

RAG

RAG(Retrieval Augmented Generation,检索增强生成)是目前LLM应用落地的重要方向,主要的应用场景是企业客服系统和搜索结果结构化展示(代表作是Perplexity和秘塔)。RAG对数据的规范程度要求比较高,数据越规范,查询效果越好,结合树形结构或知识图谱结构的数据,RAG可以实现更好的效果。

开源RAG框架推荐:Cohere;Cognita

Agent

Agent翻译成中文是智能体的意思,是AGI的前奏。现阶段的Agent只能算工作流,什么时候Agent能根据用户要求直接创建好Agent,才算是真正的智能体。

目前好用的Agent平台是Coze和Dify

LLM越狱

LLM有安全机制,会拒绝回答一些问题,LLM越狱可以让LLM按要求回答任何问题。

这个仓库收集了各个模型的越狱提示词:LLM越狱

本地部署LLM工具

个人电脑运行LLM,最大只能运行20B以下的模型,33B模型需要32G显存。比较适合本地运行的是Phi 3 Medium(14B)、LLaMA 3 8B、Mistral 7B。

推荐以下两个客户端:Ollama; LM Studio

LLM的未来

目前可以预见的趋势:

  • • Scaling Law 依旧有效,GPT-4 在22年年中完成训练,GPT-5在24年年中完成训练,参数规模提升依旧可以提升性能;
  • • 原生多模态展露头角,GPT-4o 的亮相,实现了实时语音交互,为语音助手的落地提供了技术支撑;
  • • 多 token 预测,Meta 发布的多 token 预测方法,一次预测多个 token 而不是单个 token ,可以提升 LLM 的逻辑能力,很有发展前景。

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

相关文章:

  • k8s 1.28 搭建rabbitmq集群
  • 充电学习—2、开关电源基本原理
  • 【ARMv8/ARMv9 硬件加速系列 3 -- SVE 指令语法及编译参数详细介绍】
  • 26 种 prompt 套路,驯服大模型
  • Python 介绍——浔川python社
  • 搭建zookeeper、Kafka集群
  • 总结一下 C# 如何自定义特性 Attribute 并进行应用
  • CMake编译proto的方法(custom_target和custom_command)
  • 03- jQuery事件处理和动画效果
  • 【漏洞复现】致远互联FE协作办公平台 ncsubjass SQL注入
  • 切割游戏介绍
  • 代码审计中XSS挖掘一些体会
  • MySQL数据库回顾(1)
  • 构建LangChain应用程序的示例代码:37、基于LangGraph的文档检索与答案生成系统教程
  • 在VS Code中快速生成Vue模板的技巧
  • ----------
  • JavaScript设计模式与开发实践系列之策略模式
  • Nacos系列:Nacos的Java SDK使用
  • Python socket服务器端、客户端传送信息
  • Synchronized 关键字使用、底层原理、JDK1.6 之后的底层优化以及 和ReenTrantLock 的对比...
  • 每天一个设计模式之命令模式
  • 小程序01:wepy框架整合iview webapp UI
  • 再谈express与koa的对比
  • 怎样选择前端框架
  • MiKTeX could not find the script engine ‘perl.exe‘ which is required to execute ‘latexmk‘.
  • Java性能优化之JVM GC(垃圾回收机制)
  • mysql 慢查询分析工具:pt-query-digest 在mac 上的安装使用 ...
  • #DBA杂记1
  • (06)Hive——正则表达式
  • (22)C#传智:复习,多态虚方法抽象类接口,静态类,String与StringBuilder,集合泛型List与Dictionary,文件类,结构与类的区别
  • (CVPRW,2024)可学习的提示:遥感领域小样本语义分割
  • (差分)胡桃爱原石
  • (二刷)代码随想录第16天|104.二叉树的最大深度 559.n叉树的最大深度● 111.二叉树的最小深度● 222.完全二叉树的节点个数
  • (几何:六边形面积)编写程序,提示用户输入六边形的边长,然后显示它的面积。
  • (四)库存超卖案例实战——优化redis分布式锁
  • (五) 一起学 Unix 环境高级编程 (APUE) 之 进程环境
  • (学习日记)2024.01.09
  • (转)重识new
  • *1 计算机基础和操作系统基础及几大协议
  • .jks文件(JAVA KeyStore)
  • .NET Framework 和 .NET Core 在默认情况下垃圾回收(GC)机制的不同(局部变量部分)
  • .Net 路由处理厉害了
  • .NET(C#) Internals: as a developer, .net framework in my eyes
  • .NET/MSBuild 中的发布路径在哪里呢?如何在扩展编译的时候修改发布路径中的文件呢?
  • .net经典笔试题
  • @Autowired 与@Resource的区别
  • @Controller和@RestController的区别?
  • @Transactional类内部访问失效原因详解
  • [ C++ ] STL_stack(栈)queue(队列)使用及其重要接口模拟实现
  • [ C++ ] STL---string类的使用指南
  • [ 渗透测试面试篇 ] 渗透测试面试题大集合(详解)(十)RCE (远程代码/命令执行漏洞)相关面试题
  • [AAuto]给百宝箱增加娱乐功能
  • [CF482B]Interesting Array
  • [Google Guava] 2.1-不可变集合
  • [HNOI2015]实验比较