从零開始学习OpenCL开发(一)架构

从零開始学习OpenCL开发(一)架构

大家好,又见面了,我是全栈君,今天给大家准备了Idea注册码。

从零開始学习OpenCL开发(一)架构此处内容已经被作者隐藏,请输入验证码查看内容
验证码:
请关注本站微信公众号,回复“”,获取验证码。在微信里搜索“”或者“”或者微信扫描右侧二维码都可以关注本站微信公众号。

 多谢大家关注 转载本文请注明:http://blog.csdn.net/leonwei/article/details/8880012

 

本文将作为我《从零開始做OpenCL开发》系列文章的第一篇。

 

1 异构计算、GPGPU与OpenCL

  OpenCL是当前一个通用的由非常多公司和组织共同发起的多CPU\GPU\其它芯片 异构计算(heterogeneous)的标准,它是跨平台的。旨在充分利用GPU强大的并行计算能力以及与CPU的协同工作,更高效的利用硬件高效的完毕大规模的(尤其是并行度高的)计算。在过去利用GPU对图像渲染进行加速的技术非常成熟,可是我们知道GPU的芯片结构擅长大规模的并行计算(PC级的GPU可能就是CPU的上万倍),CPU则擅长逻辑控制,因此不仅仅局限与图像渲染,人们希望将这样的计算能力扩展到很多其它领域,所以这也被称为GPGPU(即通用处计算处理的GPU)。

    简单的说,我们的CPU并不适合计算,它是多指令单数据流(MISD)的体系结构,更加擅长的是做逻辑控制,而数据处理基本是单流水线的,所以我们的代码for(i=0;…;i++)这种在CPU上要反复迭代的跑非常多遍,可是你的显卡GPU则不是这样,GPU是典型的单指令多数据(SIMD)的体系结构,它不擅长逻辑控制,可是确实天生的向量计算机器,对于for(i=0;…;i++)这种代码有时仅仅须要跑一遍,所以图形世界中那么多的顶点、片段才干高速的并行在显卡中渲染处理

从零開始学习OpenCL开发(一)架构

 

GPU的晶体管能够到几十亿个,而CPU通常仅仅有几个亿,

从零開始学习OpenCL开发(一)架构

如上图是NVidia Femi100的结构,它有着大量的并行计算单元。

所以人们就想怎样将很多其它的计算代码搬到GPU上,让他不知做rendering,而CPU仅仅负责逻辑控制,这样的一个CPU(控制单元)+几个GPU(有时可能再加几个CPU)(计算单元)的架构就是所谓的异构编程(heterogeneous),在这里面的GPU就是GPGPU。异构编程的前景和效率是非常振奋人心的,在非常多领域,尤其是高并行度的计算中,效率提升的数量级不是几倍,而是百倍千倍。

   事实上NVIDIA在非常早就退出了利用其显卡的GPGPU计算 CUDA架构,当时的影响是非常大的,将非常多计算工作(科学计算、图像渲染、游戏)的问题提高了几个数量级的效率,记得那时NVIDIA来浙大介绍CUDA,演示了实时的ray tracing、大量刚体的互相碰撞等样例,还是激动了一下的,CUDA如今好像已经发展到了5.0,并且是NVDIA主力推的通用计算架构,可是CUDA最大的局限就是它仅仅能使用N家自己的显卡,对于广大的A卡用户鞭长莫及。OpenCL则在之后应运而生,它由极大主流芯片商、操作系统、软件开发人员、学术机构、中间件提供者等公司联合发起,它最初由Apple提出发起标准,随后Khronos Group成立工作组,协调这些公司共同维护这套通用的计算语言。Khronos Group听起来比較熟悉吧,图像绘制领域著名的软硬件接口API规范著名的OpenGL也是这个组织维护的,事实上他们还维护了非常多多媒体领域的规范,可能也是类似于Open***起名的(所以刚听到OpenCL的时候就在想它与OpenGl有啥关系),OpenCl没有一个特定的SDK,Khronos Group仅仅是指定标准(你能够理解为他们定义头文件),而详细的implementation则是由不同參与公司来做,这样你会发现NVDIA将OpenCL做了实现后即成到它的CUDA SDK中,而AMD则将事实上现后放在所谓是AMD APP (Accelerated Paral Processing)SDK中,而Intel也做了实现,所以眼下的主流CPU和GPU都支持OpenCL架构,尽管不同公司做了不同的SDK,可是他们都遵照相同的OpenCL规范,也就是说原则上假设你用标准OpenCl头中定义的那些接口的话,使用NVIDIA的SDK编的程序能够跑在A家的显卡上的。可是不同的SDK会有针对他们芯片的特定扩展,这点类似于标砖OpenGL库和GL库扩展的关系。

  OpenGL的出现使得AMD在GPGPU领域最终迎头赶上的NVIDIA,可是NVIDIA虽为OpenCL的一员,可是他们似乎更加看重自己的独门武器CUDA,所以N家对OpenCL实现的扩展也要比AMD少,AMD因为同一时候做CPU和GPU,还有他们的APU,似乎对OpenCL更来劲一些。

 

2.关于在GPU上写代码的那些事儿

  OpenCL也是通过在GPU上写代码来加速,仅仅只是他把CPU、GPU、其它什么芯片给统一封装了起来,更高了一层,对开发人员也更友好。讲到这里突然非常想赘述一些在GPU上写代码的那些历史。。

  事实上最開始显卡是不存在的,最早的图形处理是放在CPU上,后来发现能够再主板上放一个单独的芯片来加速图形绘制,那时还叫图像处理单元,直到NVIDIA把这东西做强做大,而且第一给它改了个NB的称呼,叫做GPU,也叫图像处理器,后来GPU就以比CPU高几倍的速度增长性能。

   開始的时候GPU不能编程,也叫固定管线的,就是把数据依照固定的通路走完

   和CPU相同作为计算处理器,顺理成章就出来了可编程的GPU,可是那时候想在GPU上编程可不是easy的事,你仅仅能使用GPU汇编来写GPU程序,GPU汇编?听起来就是非常高级的玩意儿,所以那时使用GPU绘制非常多特殊效果的技能仅仅掌握在少数图形project师身上,这样的方式叫可编程管线。

    非常快这样的桎桍被打破,GPU上的高级编程语言诞生,在当时更先进的一些显卡上(记忆中应该是3代显卡開始吧),像C一样的高级语言能够使程序猿更加easy的往GPU写代码,这些语言代表有nvidia和微软一起创作的CG,微软的HLSL,openGl的GLSL等等,如今它们也通常被称为高级着色语言(Shading Language),这些shader眼下已经被广泛应用于我们的各种游戏中。

   在使用shading language的过程中,一些科研人员发现非常多非图形计算的问题(如数学、物理领域的并行计算)能够伪装成图形问题利用Shading Language实如今GPU上计算,而这结果是在CPU上跑速度的N倍,人们又有了新的想法,想着利用GPU这样的性能去解决全部大量并行计算的问题(不仅仅图形领域),这也叫做通用处理的GPU(GPGPU),非常多人尝试这样做了,一段时间非常多论文在写如何如何利用GPU算了哪个东东。。。可是这样的工作都是伪装成图形处理的形式做的,还没有一种天然的语言来让我们在GPU上做通用计算。这时又是NVIDIA带来了革新,09年前后推出的GUDA架构,能够让开发人员在他们的显卡上用高级语言编写通用计算程序,一时CUDA热了起来,直到如今N卡都印着大大的CUDA logo,只是它的局限就是硬件的限制。

  OpenCL则突破了硬件的壁垒,试图在全部支持的硬件上搭建起通用计算的协同平台,无论你是cpu还是gpu通通一视同仁,都能进行计算,能够说OpenCL的意义在于模糊了主板上那两种重要处理器的界限,并使在GPU上跑代码变得更easy。

 

  3 OpenCL架构

  3.1 硬件层:

  上面说的都是关于通用计算以及OpenCL是什么,以下就提纲挈领的把OpenCL的架构总结一下:

  下面是OpenCL硬件层的抽象

  从零開始学习OpenCL开发(一)架构

 

 它是一个Host(控制处理单元,通常由一个CPU担任)和一堆Computer Device(计算处理单元,通常由一些GPU、CPU其它支持的芯片担任),当中Compute Device切分成非常多Processing Element(这是独立參与单数据计算的最小单元,这个不同硬件实现都不一样,如GPU可能就是当中一个Processor,而CPU可能是一个Core,我猜的。。由于这个实现对开发人员是隐藏的),当中非常多个Processing Element能够组成组为一个Computer Unit,一个Unit内的element之间能够方便的共享memory,也仅仅有一个Unit内的element能够实现同步等操作。

3.2 内存架构

从零開始学习OpenCL开发(一)架构

当中Host有自己的内存,而在compute Device上则比較复杂,首先有个常量内存,是全部人能用的,通常也是訪问最快的可是最稀少的,然后每一个element有自己的memory,这是private的,一个组内的element有他们共用的一个local memery。细致分析,这是一个高效优雅的内存组织方式。数据能够沿着Host-》gloabal-》local-》private的通道流动(这当中可能跨越了非常多个硬件)。

3.3软件层面的组成

 这些在SDK中都有相应的数据类型

 setup相关:

  Device:相应一个硬件(标准中特别说明多core的CPU是一个整个Device)

 

  Context:环境上下文,一个Context包括几个device(单个Cpu或GPU),一个Context就是这些device的一个联系纽带,仅仅有在一个Context上的那些Device才干彼此交流工作,你的机器上能够同一时候存在非常多Context。你能够用一个CPu创建context,也能够用一个CPU和一个GPU创建一个。

 

Command queue:这是个给每一个Device提交的指令序列

 

内存相关:

Buffers:这个好理解,一块内存

Images:毕竟并行计算大多数的应用前景在图形图像上,所以原生带有几个类型,表示各种维度的图像。

 

gpu代码运行相关:

 Program:这是全部代码的集合,可能包括Kernel是和其它库,OpenCl是一个动态编译的语言,代码编译后生成一个中间文件(可实现为虚拟机代码或者汇编代码,看不同实现),在使用时连接进入程序读入处理器。

 Kernel:这是在element跑的核函数及其參数组和,假设把计算设备看做好多人同一时候为你做一个事情,那么Kernel就是他们每一个人做的那个事情,这个事情每一个人都是相同的做,可是參数可能是不同的,这就是所谓的单指令多数据体系。

 WorkI tem:这就是代表硬件上的一个Processing Element,最主要的计算单元。

 

同步相关:

Events:在这样一个分布式计算的环境中,不同单元之间的同步是一个大问题,event是用来同步的

 

他们的关系例如以下图

从零開始学习OpenCL开发(一)架构

 

   上面就是OpenCL的入门介绍,事实上说实话在10年左右就跟踪过GPGPU相关的东西,那时非常多相关技术还存在于实验室,后来的CUDA出现后,也激动过,学习过一阵,只是CUDA过度依赖于特定硬件,产业应用前景并不好,仅仅能做做project试验,你总不能让用户装个游戏的同一时候,让他顺便换个高配的N卡吧。所以一度也对这个领域不太感兴趣,近期看到OpenCL的出现,发现可能这个架构还是有非常好的应用前景的,也是众多厂商眼下合力力推的一个东西。想想一下一个迭代10000次的for循环一遍过,还是非常激动的一件事。

  在游戏领域,OpenCL已经有了非常多成功的实践,好像EA的F1就已经应用了OpenCL,另一些做海洋的lib应用OpenCL(海面水波的FFT运算在过去是非常慢的),另外还有的库干脆利用OpenCL去直接改动现有的C代码,加速for循环等,甚至还有OpenCl版本号的C++ STL,叫thrust,所以我认为OpenCL可能会真正的给我们带来些什么~

 

下面是一些关于OpenCL比較重要的资源:

http://www.khronos.org/opencl/ 组织的主页

https://developer.nvidia.com/opencl N家的主页

http://developer.amd.com/resources/heterogeneous-computing/opencl-zone/ A家的主页

http://www.khronos.org/registry/cl/sdk/1.2/docs/man/xhtml/ 标准的reference

http://developer.amd.com/wordpress/media/2012/10/opencl-1.2.pdf 必看 最新的1.2版本号标准

http://www.khronos.org/assets/uploads/developers/library/overview/opencl-overview.pdf 必看,入门的review

http://www.kimicat.com/opencl-1/opencl-jiao-xue-yi  一个教学站点

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/117907.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

  • eBPF 学习路径总结「建议收藏」

    eBPF 学习路径总结「建议收藏」BPF学习路径总结•Feiskyhttps://feisky.xyz/posts/2021-01-06-ebpf-learn-path/目录1.为什么要学习BPF2.BPF应该怎么学习2.1BPF书籍2.2BPF学习样例3.BPF资料汇总3.1介绍系列3.2深入系列3.3Linux资源作者简介:狄卫华,趣头条资深架构师,主要关注云原生相关领域,目前聚焦在BPF技术及实践.1.为什么要学习BPF可以先从ebpf.i.

  • 安捷伦示波器使用说明书_安捷伦labview采集

    安捷伦示波器使用说明书_安捷伦labview采集Step1:配置VISA协议。VISA协议是AgilentIOLibraries的一部分,主要包含一个虚拟仪器软件架构VISA(一个比较通用的工业仪器软件架构)和标准控制库SICL.我理解前者相当一个底层架构,后者相当于一个指令集.先配置好VISA,然后通过SICL指令集发命令。直接上例子,简单明了。agilent示波器可以直接用VISA,所以只要在C++项目里进行配置。首先在C++里配…

    2022年10月12日
  • rsyslog日志服务器_journal entries

    rsyslog日志服务器_journal entriesrsyslogd服务和journald服务1、系统日志管理后台程序(通常被称为守护进程或服务进程)处理了linux系统的大部分任务,日志是记录这些进程的详细信息和错误信息的文件var/log/messages    ##记录系统中所产生的日志查看sshd服务产生的日志vim/etc/ssh/sshd_config编辑错误信息restart服务后systemctl…

  • 破坏ice的服务器消息,我的世界:ICE服务器炸,矛头指向Mn,但真相另有隐情!…

    破坏ice的服务器消息,我的世界:ICE服务器炸,矛头指向Mn,但真相另有隐情!…在游戏界中,有一场游戏玩家之间的“战争”,那就是《我的世界》和《迷你世界》。这场战争本来已经停息了很久,但是又因为某些事情,让它快速的发酵了起来。这件事情的原由是因为《我的世界》的ICE服务器被炸,具体经过小编下面为大家讲解。3月25号(大约时间),一个名为ICE的《我的世界》服务器被其他玩家恶意毁坏了,里面的建筑变得残破不堪,而服务器的存档也仅仅只有数天前的。要知道,这些建筑是很多玩家用大量的时…

  • flv.js 直播_前端视频播放插件

    flv.js 直播_前端视频播放插件关于使用flvjs文章目录关于使用flvjs1.创建2.事件处理3.踩到的坑1.创建HTML<videoid=”largeVideo”style=”width:100%;height:600px”class=”centeredVideo”controlsautoplaymutedwidth=”1015″

  • 原型模式(克隆)

    1.实质:创建个全新的对象(将原型对象的属性全部传递给新对象),它们在内存中拥有新的地址,对克隆产生的对象不会对任何原型对象产生影响,每个克隆对象都是相互独立的。2.通用克隆3.浅克隆和

    2021年12月18日

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号