当前位置: 首页 > news >正文

深度学习500问——Chapter15:异构计算,GPU和框架选型(1)

文章目录

异构计算,GPU和框架选型指南

15.1 什么是异构计算

15.2 什么是GPU

15.3 GPU架构简介

15.3.1 如何通俗理解GPU的架构

15.3.2 CUDA的核心是什么

15.3.3 为什么要使用GPU


异构计算,GPU和框架选型指南

深度学习训练和推理的过程中,会涉及到大量的向量(vector),矩阵(matrix)和张量(tensor)操作,通常需要大量的浮点计算,包括高精度(在训练的时候)和低精度(在推理和部署的时候)。

GPU,作为一种通用可编程的加速器,最初设计是用来进行图形处理和渲染功能,但是从2007年开始,英伟达(NVIDIA)公司提出了第一个可编程通用计算平台(GPU),同时提出了CUDA框架,从此开启了GPU用于通用计算的新纪元。此后,不计其数的科研人员和开发者,对各种不同类型的算法用CUDA进行(部分)改写,从而达到几倍到数百倍的加速效果。尤其是在机器学习,特别是深度学习的浪潮来临后,GPU加速已经是各类工具实现的基本底层架构之一。

本章里,会简单介绍GPU的基本架构,性能指标,框架选择等等和深度学习相关的内容。

15.1 什么是异构计算

异构计算是基于一个更加朴素的概念,“异构现象”,也就是不同计算平台之间,由于硬件结构(包括计算核心和内存),指令集和底层软件实现等方面的不同而有着不同的特性。异构计算就是使用结合了两个或者多个不同的计算平台,并进行协同运算。

比如,比较常见的,在深度学习和机器学习中已经比较成熟的架构:CPU和GPU的异构计算;此外还有比较新的Google推出的协处理器(TPU),根据目的而定制的ASIC,可编程的FPGA等也都是现在在异构计算中使用比较多的协处理器。而本章会着重介绍和深度学习共同繁荣的图形加算算器,也就是常说的GPU。

15.2 什么是GPU

GPU,就如名字所包含的内容,原本开发的目的是为了进行计算机图形渲染,而减少对于CPU的负载。由于图像的原始特性,也就是像素间的独立性,所以GPU在设计的时候就遵从了从“单指令流多数据流(SIMD)”架构,使得同一个指令(比如图像的某种变换),可以同时在多一个像素点上进行计算,从而得到比较大的吞吐量,才能使得计算机可以实时渲染比较复杂的2D/3D场景。

在最初的应用场景里,GPU并不是作为一种通用计算平台实现的,直到2007年左右,一家伟大的公司将GPU带到通用计算的世界里,使得其可以在相对比较友好的编程环境(CUDA/OpenCL)里加速通用程序成了可能。从此之后,GPU通用计算,也就是GPU就成了学界和工业界都频繁使用的技术,在深度学习爆发的年代里,GPU成了推动这股浪潮非常重要的力量。

15.3 GPU架构简介

GPU,图形显示芯片作为不同于CPU的设计逻辑和应用场景,有着非常不同的架构,本部分将简单介绍GPU究竟是如何架构,其中的计算核心有哪些特性。

15.3.1 如何通俗理解GPU的架构

首先,下图简单地展示了几个GPU不同于CPU的特性:

  • 计算核心:图中的CPU,i7-5960,Intel的第五代Broadwell架构,其中包括了8个CPU核心(支持16线程),也就是理论上可以有16个不同的运算同时进行。除了8个核心计算单元,大部分的芯片面积是被3级缓存,内存和控制电路占据了。同样的,来自Nvidia的GTX980GPU,在差不多的芯片面积上,大部分是计算单元,16个SM,也就是流处理单元,每个流处理单元中包含着128个CUDA计算核心,所以总共来说,有2048个GPU运算单元,相应地这颗GPU理论上可以在一个时钟周期内可以进行2048次单精度运算。

  • 计算核心频率:时钟频率,代表每一秒中内能进行同步脉冲次数,也是从一个侧面反映一个计算元件的工作速度。下图中对比了个别早期产品,比如Intel 的 x5650 和几款 Nvidia的GPU。可以看出核心频率而言,CPU要远高于GPU。对于CPU而言,在不考虑能源消耗和制成工艺限制的情况下,追求更高的主频。但,在GPU的设计中,采用了多核心设计,即使是提高一些频率,其实对于总体性能影响不会特别大。当然,其中还有能耗方面的考虑,避免发热过高,也进行了权衡。还有一个可能的原因是,在一个流处理器中的每个核心(CUDA核心)的运行共享非常有限的缓存和寄存器,由于共享内存也是有性能极限的,所以即使每个GPU核心频率提高,如果被缓存等拖累也是无法展现出高性能的。

  • 内存架构:GPU的多层内存架构包括全局内存(也就是通常意义上大部分比较关注的内存,在若干到16GB之间,截止到当前最新),2级缓存,和芯片上的存储(包括寄存器,和1级缓存共用的共享内存,只读/纹理缓存和常量缓存)。通常来说,最高速的共享内存/缓存和寄存器都是非常有限的,比如在Tesla的K20中,只有48K的缓存可以作为共享内存或者1级缓存使用,所以在很多用GPU加速算法实现的过程中,有效地利用这些高速缓存是使得性能提升的非常重要的方面。

15.3.2 CUDA的核心是什么

上面提到在一个GPU芯片里,会有几千个CUDA核心,被分布在多个流处理单元(SM)中,比如上面提到早期的GTX980中的16个SM中各包含了128个CUDA核心。

如下图所示,作为GPU架构中的最小单元,其实它的设计和CPU有着非常类似的结构,其中包括了一个浮点运算单元和整型运算单元,和控制单元。同一个流处理器中,所有的CUDA核心将同步执行同一个指令,但是作用于不同的数据点上。

一般来说,更加多的CUDA核心意味着有更多的并行执行单元,所以也就可以片面地以为是有更加高的性能。但是,其实这个也是取决于很多方面,最重要的是算法在并行实现的时候有没有高效地调度和内存的使用优化。

在现在我们使用的大部分GPU加速的深度学习框架里,包括Tensorflow、PyTorch等都是依赖于底层的GPU的矩阵加速代码的实现。为此Nvidia公司也是制定和实现了统一的接口,比如CUDNN,方便上层框架更好的利用GPU的性能。

15.3.3 为什么要使用GPU

对于并行计算来说,可以非常粗略地分为:

  • 并行指令:也就是多个指令可以同时分配到不同的计算核心上同时进行,而他们的操作是不同的,并且他们之间相互独立,不需要额外的同步和信息共享。
  • 并行数据流:如果数据本身存在的天然的独立性,比如图像中的每一个像素,那么在对这个图像做处理的过程中,同一个指令可以同时作用于每一个像素。在这种情况下,这个对于完整图像的操作可以并行化。理论上,如果内存不是问题,并且计算单元的数量大于整个图形中总像素点的话,这个操作可以在一个时钟周期内完成。

GPU整体的架构而言,某种意义上是同时支持以上两种并行模式。在同一个流处理器中,采用了“单一指令并行数据流的模式”,而在多个流处理器中,同一时间可以派发不同的指令。从这一点出发,GPU芯片算是一个非常灵活的架构。一个芯片中,流处理器的个数和其中包含的CUDA核心的数量也是一种面向应用设计时候找到的一个平衡点。

基于深度学习中大部分的操作的天然并行性(大量的矩阵操作),GPU在当下还是一种非常适合的计算平台。一个非常典型的例子就是常见的矩阵相乘(如下图),要计算Z=X \times Y,通过并行计算,X和Y中的行向量和列向量的逐元素相乘就可以同时进行,只要得到结果后再进行累加,并且累计的过程中也是可以进行并行化,使得效率有非常大的提高。

Nvidia也是制定和开发了一套底层类库,CUBlas方便开发者。我们熟悉的几大框架(eg. Tensorflow、Pytorch等)也是遵循和使用了这些并行类库,所以才使得训练和部署性能有了非常多的提高。

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • React Native、Uni-app、Flutter优缺点对比
  • Mac 电脑配置yolov8运行环境实现目标追踪、计数、画出轨迹、多线程
  • 借用连接2-得到主库或从库池子连接
  • 跟李沐学AI:自注意力和位置编码
  • 典型的MVC设计模式:使用JSP和JavaBean相结合的方式来动态生成网页内容典型的MVC设计模式
  • 如何实现全行业证照一站式结构化识别?Textln企业资质证照识别上线!
  • kafka 消费者线程安全问题详细探讨
  • 中台架构下的数据仓库与非结构化数据整合
  • 详解前驱图与PV操作
  • R语言中的shiny框架
  • 《AI设计类工具系列之一——FigJam AI》
  • 邀请功能的实现分析
  • 初识C语言(三)
  • 嵌入式开发中学习C++的用处?
  • 拼图缺口形状检测系统源码分享
  • 2018一半小结一波
  • 8年软件测试工程师感悟——写给还在迷茫中的朋友
  • Java教程_软件开发基础
  • nfs客户端进程变D,延伸linux的lock
  • 阿里云爬虫风险管理产品商业化,为云端流量保驾护航
  • 解决jsp引用其他项目时出现的 cannot be resolved to a type错误
  • 聊聊flink的TableFactory
  • 面试遇到的一些题
  • 目录与文件属性:编写ls
  • 跳前端坑前,先看看这个!!
  • 详解移动APP与web APP的区别
  • 自制字幕遮挡器
  • ​Benvista PhotoZoom Pro 9.0.4新功能介绍
  • # 数仓建模:如何构建主题宽表模型?
  • #APPINVENTOR学习记录
  • (04)odoo视图操作
  • (Matalb分类预测)GA-BP遗传算法优化BP神经网络的多维分类预测
  • (PySpark)RDD实验实战——求商品销量排行
  • (牛客腾讯思维编程题)编码编码分组打印下标题目分析
  • (七)MySQL是如何将LRU链表的使用性能优化到极致的?
  • .cn根服务器被攻击之后
  • .net core 连接数据库,通过数据库生成Modell
  • .net MySql
  • .NET/C# 使窗口永不获得焦点
  • .NET开源项目介绍及资源推荐:数据持久层 (微软MVP写作)
  • .NET序列化 serializable,反序列化
  • .sdf和.msp文件读取
  • /etc/sudoers (root权限管理)
  • [ vulhub漏洞复现篇 ] GhostScript 沙箱绕过(任意命令执行)漏洞CVE-2019-6116
  • [ web基础篇 ] Burp Suite 爆破 Basic 认证密码
  • [20180312]进程管理其中的SQL Server进程占用内存远远大于SQL server内部统计出来的内存...
  • [CISCN2019 华东南赛区]Web111
  • [codevs] 1029 遍历问题
  • [Excel VBA]如何使用VBA自动生成图表
  • [ffmpeg] 定制滤波器
  • [fsevents@^2.1.2] optional install error: Package require os(darwin) not compatible with your platfo
  • [Jsprit]Jsprit学习笔记-一个简单的示例
  • [linux] 创建用户
  • [MongoDB]------windos下的安装部署与基础使用
  • [msg_msg] corCTF2021 -- fire_of_salvation