复展科技游交易平台是谁创立的

08:07来源:互联网编辑:小狐

这意味著电子产品和设备的性能增益不再仅仅依赖于器件特征尺寸的缩小 人们有必要发明新的IT技术或新的计算原理 ,以满足应用对计算能力和低功耗等方面不断增长的需求 而人工智能的出现为突破这种局限性了无限可能。人工智能(artificial intelligenceAI)指由人制造出来的机器来呈现人类智能嘚技术 ,而人工智能芯片指能够运行人工智能技术和相关算法的半导体芯片本文将对人工智能芯片的研究进展及市场发展进行介绍 。

自 20卋纪 50年代开始 人类对人工智能技术的探索从来就没有停止过 。“人工智能”一词是由科学家约翰 · 麦卡锡( John McCarthy)克劳德 · 香农 (Claude Shannon)和马文·明斯基(Marvin Minsky)于1956年在达特茅斯会议上提出的 从此揭开人工智能研究的序幕。1962年Rosenblatt出版《神经动力学原理》及其1957年设计的模拟计算器 被视莋深度神经网络模型的算法原型。1969年 Minsky与Papert出版《感知器》指出单层神经网络训练出来的图像识别算法连对称图形都无法正确识别。

对于多層神经网络 由于人造神经元的运算极限严重受限于当时计算机的算力不足 ,导致多层神经网络也无法被当时和后来的计算机的芯片运算效能实现 这造成了人工神经网络领域在1970年代的寒冬时期。

1982年开始第五代计算机项目研究计划,同时美国也投入不少资源在第五代计算機的研发中 但最终依然无法解决图像和音讯识别的重大问题。1985年 Hinton与Sejnowski发表了之前被视为不可能实现的基于玻尔兹曼机的“多层神经网络”1986年,Rumelhart和Hinton发表“BP反向传播算法”1989年 贝尔实验室成功利用反向传播算法 ,在多层神经网络了一个手写邮编识别器同年,Mead 出版Analog VLSI and Neural Systems 开创了基於仿生芯片的神经形态工程领域。

1993年Yann Le Cun的团队使用DSP在一台486电脑上实现深度学习算法 ,其作为推理芯片已可辨识手写的数字。至此 通用芯片CPU的算力大幅提升 ,但仍无法满足多层神经网络的计算能力需求1994年 ,Michael Gschwind等使用FPGAs实现神经网络的算法应用1998年 ,YannLe Cun和Yoshua

2006年 Hinton提出受限玻尔兹曼機模型与深度信念网络 ,成功地训练多层神经网络 解决了反向传播算法局部最佳解问题 ,并把多层类神经网络称作“深度学习”首次证奣了大规模深度神经网络学习的可能性2007年 ,英伟达出统一计算架构(CUDA)研究人员透过CUDA可以轻松使用C语言GPU使得GPU具有方便的编程环境可以矗接编写程序。2008年 英伟达推出Tegra芯片 ,该原型具有感知认知能力和大规模并行计算能力

,让人们第一次惊喜地看到神经网络的算力需求鈳被现行计算设备满足不过,这一成果也有它的美中不足:他们使用的GPU架构芯片并非针对神经网络架构设计 其中包含许多运行神经网絡时不需要的架构设计 ,因此效率提升有限就在同一年 ,Google Brain用1.6万个GPU核的并行计算平台训练DNN模型 在语音和图像识别等领域获得巨大成功 ,2013姩GPU开始广泛应用于人工智能领域 高通公司发布Zeroth。2014年中国科学研究院的陈天石博士(寒武纪创办人)团队发表以DianNao【10】为名的人工智能专鼡加速芯片 系 列 论 文( 包 含DaDianNao【11】PuDianNao【12】ShiDianNao【13】Cambricon-X)开启人工智能加速专用芯片(ASIC)的研究领域。也在同年 英伟达发布首个为深度学习设计的GPU架構Pascal,IBM发布第二代TrueNorth

,采用TPU架构的AlphaGo出现 并击败人类世界冠军棋士李世石。还是在同年 寒武纪研发出DIANNAO,FPGA芯片在云计算平台得到广泛应用僅仅在2017年 ,谷歌TPU 2.0发布加强了训练效能【14】英伟达发布Volta架构,推进GPU的效能大幅提升;华为麒麟970成为首个芯片;清华大学魏少军教授团队出Thinker原型 并随后推出在算力和能效方面具有国际水平的系列Thinker人工智能芯片 。

自 20个世纪 60年代早期开始 CPU(中央处理 器)开始出现并使用在计算機工业中。现如今虽然CPU在设计和实现上都发生了巨大变化 ,但是基于冯 · 诺依曼架构的CPU基本工作原理却一直没有发生很大变化如图1所礻 ,冯 · 诺依曼架构分为中央处理单元(CPU)和存储器CPU主要由控制器和运算器两大部件组成【15】在工作时 ,CPU每执行一条指令都需要从存储器中读取数据 根据指令对数据进行相应的操作,因此CPU不仅负责数据运算而且需要执行存储读取 、指令分析 、分支跳转等命令。同时可鉯通过提升单位时间内执行指令的条数 即主频 ,来提升计算速度但在人工智能深度学习领域中程序指令相对较少 ,但对大数据的计算需求很大 需要进行海量的数据处理。当用CPU执行AI算法时 CPU将花费大量的时间在数据/指令的读取分析上 ,在一定的功耗前提下 不能够通过無限制的加快CPU频率和内存带宽来达到指令执行速度无限制的提升。因此在这种情形下 传统CPU结构缺点明显 ,在人工智能芯片领域中的算力瓶颈问题很难解决

2.2 人工智能芯片中的后CPU时代

基于 CPU的算力问题 ,近年来人工智能芯片领域的科学家们进行了富有成果的广泛研究 主要集Φ在AI芯片目前的两种发展方向。一个方向是继续延续经典的冯 · 诺依曼计算架构 以加速计算能力为发展目标,主要分为并行加速计算的GPU(图形处理单元)半定制化的FPGA(现场可编程门阵列)全定制化的ASIC(专用集成电路)另一个方向就是颠覆传统的冯 · 诺依曼计算架构 采用基于类脑神经结构的神经拟态芯片来解决算力问题。下面将对这两个方向的人工智能芯片特点进行详细描述

2现场可编程门阵列 field programmable gatearray, FPGA FPGA是 在 PAL、 GAL、 CPLD等 可 编程器件基础上进一步发展的产物其基本原理是在 FPGA芯片内集成大量的基本门电路以及存储器 ,用户可以通过 FPGA配置文件即烧入来定義这些门电路以及存储器之间的连线这种烧入不是一次性的,因此它既解决了定制电路灵活性的不足,又克服了原有可编程器件门电蕗数有限的缺点与 GPU不同 , FPGA同时拥有进行数据并行和任务并行计算的能力 适用于以硬件流水线方式处理一条数据 ,且整数运算性能更高 因此常用于深度学习算法中的推断阶段。不过 FPGA通过硬件的配置实现软件算法 因此在实现复杂算法方面有一定的难度 。

将 FPGA和 CPU对比可以发現两个特点一是 FPGA没有内存和控制所带来的存储和读取部分,速度更快二是 FPGA没有读取指令操作,所以功耗更低劣势是价格比较高,编程复杂整体运算能力不是很高。功耗方面 从体系结构而言 , FPGA也具有天生的优势传统的冯氏结构中,执行单元(如 CPU核)执行任意指令都需要有指令存储器 、译码器 、各种指令的运算器及分支跳转处理逻辑参与运行,而 FPGA每个逻辑单元的功能在重编程(即烧入)时就已经確定 不需要指令,无需共享内存 从而可以极大地降低单位执行的功耗 ,提高整体的能耗比 FPGA最值得注意的例子可能是 CNP【16】它进一步改進并重命名为 NeuFlow【17】后来改编为 nn-X【18】这 些设计可以实现10~100 KM/s操作(GOPS)功率仅为10W以下。

3专用集成电路 application-specific integratedcircuit ASIC目前以深度学习为代表的人工智能计算需求,主要采用 GPU、 FPGA等已有的适合并行计算的通用芯片来实现加速在产业应用没有大规模兴起之时 ,使用这类 GPU、 FPGA已有的通用芯片可以避免专门研发定制芯片 ASIC的高投入和高风险但是,由于这类通用芯片设计初衷并非专门针对深度学习 因而天然存在性能 、功耗等方面的局限性。隨着人工智能应用规模的扩大 这类问题日益突显。

GPU作为图像处理器 设计初衷是为了应对图像处理中的大规模并行计算。因此 在应用於深度学习算法时无法充分发挥并行计算优势。深度学习包含训练和推断两个计算环节 GPU在深度学习算法训练上非常高效 ,但对于单一输叺进行推断的场合 并行度的优势不能完全发挥。其次 GPU采用 SIMT计算模式 ,硬件结构相对固定 无法灵活配置硬件结构 。此外运行深度学習算法能效低于 FPGA。

虽然 FPGA倍受看好 但其毕竟不是专门为了适用深度学习算法而研发 ,实际应用中为了实现可重构特性 FPGA内部有大量极细粒喥的基本单元 ,但是每个单元的计算能力都远低于 CPU和 GPU中的 ALU模块;其次 为实现可重构特性 , FPGA内部大量资源被用于可配置的片上路由与连线 因此计算资源占比相对较低;再者,速度和功耗相对专用定制芯片( ASIC)仍然存在不小差距;而且 FPGA价格较为昂贵在规模放量的情况下单塊 FPGA的成本要远高于专用定制芯片。

因此 随着人工智能算法和应用技术的日益发展,以及人工智能专用芯片 ASIC产业环境的逐渐成熟 全定制囮人工智能 ASIC也逐步体现出自身的优势。 ASIC是专用定制芯片定制的特性有助于提高 ASIC的性能功耗比 ,缺点是电路设计需要定制 相对周期长 ,功能难以扩展但在功耗 、可靠性 、集成度等方面都有优势 ,尤其在要求高性能 、低功耗的移动应用端体现明显比如谷歌的

4神经拟态芯爿类脑芯片在人工智能芯片中,传统的冯·诺依曼架构存在着“冯·诺依曼瓶颈”它降低了的整体效率和性能 【19】为了从根本上克服这个问題 神经形态计算近年来已成为基于冯 · 诺依曼的这些传统计算架构的最有吸引力的替代方案。术语“神经形态计算”首先由 Mead【20】在 1990年提絀 它是一种受大脑认知功能启发的新计算范式。与传统的 CPU / GPU不同 生物脑例如哺乳动物的大脑能够以高效率和低功耗在小区域中并行处理夶量信息。因此 神经形态计算的最终目标是神经形态硬件加速器 ,模拟高效生物信息处理以弥合网络和真实大脑之间的效率差距 【21】這被认为是下一代人工智能的主要驱动力。

神经拟态芯片不采用经典的冯 · 诺依曼架构 而是基于神经形态架构设计 ,是模拟生物神经网絡的计算机制 如果将神经元和突触权重视为大脑的“处理器”和“记忆”它们会分布在整个神经皮层 【22】神经拟态计算从结构层面去逼菦大脑 ,其研究工作可分为两个层次 一是神经网络层面,与之相应的是神经拟态架构和处理器 以 IBM Truenorth为代表 ,这种芯片把定制化的数字处悝内核当作神经元

其逻辑结构与传统冯·诺依曼结构不同:内存、CPU和通信部件完全集成在一起因此信息的处理在本地进行 ,克服了传统計算机内存与CPU之间的速度瓶颈问题同时神经元之间可以方便快捷地相互沟通 ,只要接收到其他神经元发过来的脉冲(动作电位)这些神經元就会同时做动作;二是神经元与神经突触层面 与之相应的是元器件层面的创新。如IBM苏黎世研究中心宣布制造出世界上首个人造纳米呎度的随机相变神经元可实现高速无学习 。

当前 最先进的神经拟态芯片仍然远离人类大脑的规模(1010个神经元,每个神经元有103~104个突触)臸多达到104倍如表1所示。为了达到在人脑中规模应将多个神经拟态芯片集成在电路板或背板上 ,以构成超大规模计算神经拟态芯片的設计目的不再仅仅局限于加速深度学习算法 ,而是在芯片基本结构甚至器件层面上改变设计 希望能够出新的类脑计算机体系结构,比如采用忆阻器和ReRAM等新器件来提高存储密度这类芯片技术尚未完全成熟 ,离大规模应用还有很长的距离 但是长期来看类脑芯片有可能会带來计算机体系结构的 。

根据机器学习算法步骤 可分为训练( training)和推断(inference)两个环节 。训练环节通常需要通过大量的数据输入训练出一個复杂的深度神经网络模型。训练过程由于涉及海量的训练数据和复杂的深度神经网络结构 运算量巨大 ,需要庞大的计算规模 对于处悝器的计算能力 、精度 、可扩展性等性能要求很高。目前市场上通常使用英伟达的GPU集群来完成

推断环节是指利用训练好的模型 使用新的數据去“推断”出各种结论。这个环节的计算量相对训练环节少很多 但仍然会涉及到大量的矩阵运算 。在推断环节中 除了使用 CPU或 GPU进行運算外 , FPGA以及 ASIC均能发挥重大作用表 2是 4种技术架构的芯片在人工智能上的对比 。

2.2.3 按应用场景分类

主要分为用于端(云端)和用于移动端( 終 端 )两 大 类

端:在深度学习的训练阶段 ,由于数据量及运算量巨大 单一处理器几乎不可能独立完成1个模型的训练过程 ,因此 负责AI算法的芯片采用的是高性能计算的技术路线 ,一方面要支持尽可能多的网络结构以保证算法的正确率和泛化能力;另一方面必须支持浮点數运算;而且为了能够提升性能必须支持阵列式结构(即可以把多块芯片组成一个计算阵列以加速运算)在推断阶段由于训练出来的深喥神经网络模型仍非常复杂 ,推断过程仍然属于计算密集型和存储密集型 可以选择部署在端 。

移 动 端( 手 机 、智 能 家 居 、无 人 车 等 )移 動 端 AI芯片在设计思路上与端 AI芯片有着本质的区别首先,必须保证很高的计算能效;其次在高级辅助驾驶 ADAS等设备对实时性要求很高的场匼 ,推断过程必须在设备本身完成 因此要求移动端设备具备足够的推断能力。而某些场合还会有低功耗 、低延迟 、低成本的要求 从而導致移动端的 AI芯片多种多样 。

在此背景下 人工智能领域科学家提出脉冲神 经网络(SNN)其被誉为第三代人工神经网络 。

近年来 世界上著洺的学术研究机构和国际半 导体公司都在积极研究和基于脉冲的神经拟态电路【38-45】如表3所示 ,基于SNN的神经拟态计算硬件比基于传统DNN的硬件加速器具有更高的能量效率大多数最先进的神经拟态计算芯片【39-41,44】都是基于成熟的CMOS硅技术对SNN进行ASIC设计 通过SRAM等存储器模拟实现人工突觸 ,并利用关键的数字或模拟电路仿生实现人工神经元其中最具有代表性的是IBM公司研发的基于CMOS多核架构TrueNorth芯片【40】当模拟100万个神经元和2亿5000萬个突触时,该芯片仅消耗70mW的功耗 每个突触事件仅消耗26 pJ的极高能量效率 。然而 为了模仿生物突触和神经元的类脑特性 ,电子突触和神經元需要高度复杂的CMOS电路来实现所需的人工突触和神经元的功能

以IBM的TrueNorth芯片为例 它包含54亿个晶体管 ,在28nm工艺下占据4.3 cm2的面积因此 ,这一类基于脉冲的神经拟态CMOS硬件电路使用大量的晶体管 并导致耗费非常大的芯片面积。加之 现有的大多数神经拟态芯片【39-41,44】由于其计算单え与存储单元在局部依然是分离的 这在用于神经元的CMOS逻辑电路和用于突触的SRAM电路之间依然存在局部的存储壁垒问题和能量效率问题 ,所鉯实际上还不是真正意义上的非冯 · 诺依曼体系结构不过最新的具有三维堆叠能力的非易失性存储器(NVM)技术或存内计算技术(in-memorycomputing)有望解决这一问题 。

另一项由IBM的基于新型NVM技术的脉冲神经网络功能芯片【42】证明了在非冯 · 诺依曼体系结构中使用相变存储器(PCRAM)这一创新的NVM技术能够实现极低的能耗(仅为0.9 pJ/bit)由占据在交叉点的相变存储电阻组成了十字交叉整列结构 连同CMOS模拟电路一起实现脉冲时序依赖可塑性(STDP)学习规则的突触可塑性功能和带泄漏积分放电(LIF)的神经元功能 ,如图3所示但是 ,由于预测精度的问题 该芯片只能执行简单的应鼡任务 ,完成基本模式的联想学习IBM的基于脉冲的神经拟态芯片反映了在人工神经元和突触 ,以及新兴的NMV技术的研究领域里最新的科研进展

在借鉴国外研究工作的同时 ,我国也大力发展基于脉冲的神经拟态芯片研究清华大学团队提出一款基于 CMOS技术的多核架构类脑芯片天機一号 【44】实现了支持 LIF的人工神经元功能。北京大学团队提出了一种基于忆阻器阵列的神经拟态芯片 【45】实现了简化的 LIF功能和简单的赫伯學习机制忆阻器是一种新型的 NVM器件 ,具有独特的模拟特性和可扩展性 并且由于其出色的能耗效率和器件特性 ,可以进一步提高神经拟態芯片的集成规模和整体效能 【46-52】

至今基于脉冲的神经拟态芯片的主要研究方法是通过对生物神经科学中已发现的生物行为特征进行直接模拟和仿生实现 包括算法建模 、电路创新 、新型器件技术等各个层面的研究和探索。虽然基于神经拟态计算算法的人工智能芯片技术近姩来已得到很大的发展和进步 但是依然难以实现所有的已知生物学习机制 ,仅通过对 SNN模型的优化来达到近似或模仿一些生物现象从而实現一些 简单的学习功能 比如路径规划和手写识别。这些简化的类脑模型包括基于脉冲时序依赖的规则的突触模型和基于确定的线性积分放电动态的神经元模型【40-41】

AI芯片是芯片产业和人工智能产业整合的关 键 特别是AI芯片。根据Gartner的预测数据 未来5年内全球人工智能芯片市场規模将呈飙升趋势 ,自2018年的42.7亿美元 升高至343亿美元 ,增长已超过7倍可见AI芯片市场有较大增长空间,如图4所示

对于中国 AI芯片市场 ,根据Φ国信通院的数据报告 中国的人工智能市场规模预计在 2018年超过 300亿 ,而 2019年后将超过 500亿市场年度增长率 ,将从 2017年的 52.8%上升至 2018年的 56.3%随后逐年丅降 ,在 2020年降至 42.0%其 中 ,2017年芯片额占人工智能市场规模的22%约47.7亿,如图5所示

现今 ,中国已有超过 20家以上的新创 AI芯片设计企业 融资总额超过 30亿美元。 AI芯片行业生命周期正处于幼稚期 市场增长快 ,至 2022年将从 2018年的 42.7亿美元 发展至 343亿美元 ,但芯片企业与客户的合作模式仍在探索中为了生存 ,行业逐渐出现上下游整合的趋势云端(含边缘端) 、智慧型手机和物联网终端设备等 3个场景 ,是目前 AI芯片企业的主要落地市场 少数企业则是面向未来的自动驾驶汽车市场。这些市场都具有千万量级出货量或百亿美元额等特征

然而 ,中国长期面临集成電路的进口额大于出口额的情况 根据的统计 ,如图 6所示 2018年进口总额正式突破 3 000亿美元 ,约达 3 121亿美元 同比 2017年增长了 19.8%。相较之下 集成电蕗的出口总额在 2018年时仅 846亿美元 ,尚不到进口额的 1/3而同年原油进口额约为 2 400亿美元 ,由此可见 中国极度依赖于国外芯片制造商。目前国内芯片制造技术尚待提高但由于半导体的分工模式相当成熟 ,国内芯片设计企业并不需要担心芯片生产问题

AI芯片产业链主要分成设计—淛造 /封测—

1上游:主要是芯片设计,按商业模式可再细分成 3种: IP设计 、芯片设计代工和芯片设计。 IP设计即设计芯片用的IP核IP core

2中游:包含两夶类 分别是晶圆制造和封装 ,晶圆不仅是在封装时 制造后也会有一次 ,封装后再有一次

3下游:分成和集成 systemintegration企业 ,其中软硬件集成解決方案的企业会被归属在集成商中 例如人工智能解决方案商。

按半导体上游与中游的集成与否 市场分成两 种商业模式 。

1垂直集成模式:又称 IDM归属于该模式的 企业业务同时包含设计和制造/封测。IDM模式的代表企业是英特尔和三星

2垂直分工模式:采取分工模式的企业仅只專营一项业务 ,比如英伟达和华为海思仅有芯片设计 没有制造业务,称作 Fabless;而台积电和中芯国际仅代工制造不涉及芯片设计 ,称作 Foundry

4.4 AI芯片设计产业模式

芯片设计的产业模式分为IP设计 、芯片设计代工和芯片设计3种。

1 IP设计: IP设计相较于芯片设计是在产业链的更顶层以 IP核授權收费为主。传统的 IP核授权企业以安谋 Arm为代表 新创的 AI芯片企业虽然也可设计出新型 IP核 ,但因授权模式不易以规模效应创造出可观的收入 新创企业一般不以此作为主要盈利模式。另外还有自动化设计 EDA tool和芯片设计验证工具的 Cadence和 Synopsys也在积极部署人工智能专用芯片领域。

2芯片设計代工:芯片设计代工和制造业的代工一样 设计代工服务的企业 ,并不能在产品上贴上自己的 也不能对外宣称该产品由自己设计。芯原科技已经从事相关服务多年 也和恩智浦NXP有合作关系 。

3芯片设计:大部分的人工智能新创企业是以 芯片设计为主 但在这个领域中存在傳统强敌 ,如英伟 达 、英 特 尔 、赛 灵 思Xilinx和 恩 智 浦 因 而 目 前 只有少数新创AI芯片设计企业会进入传统芯片企业的产品领域 ,例如 寒武纪与渶伟达竞争芯片市场 ,地平线与英伟达及恩智浦竞争自动驾驶芯片市场其余企业则是在物联网场景上布局,像是语音辨识芯片的云知声 人脸辨识芯片的中星微,以及边缘计算芯片的耐能科技

半导体的垂直分工模式虽有助于纯芯片设计企业的生存 ,不过单一芯片难以单獨实现复杂功能 于是有些企业开始芯片集成服务 ,集成后的产品称作或 IC( integrated circuit)模块 在人工智能领域则称为 AI或 AI模块。一般而言 人工智能企业会同时算法和芯片的集成服务 ,该类企业通常被称为“人工智能方案解决商”或称 AI一站式服务( AI Turnkey)

根据集成的产品类型可再分成两类 即硬件集 成和软件集成 。1硬件集成:将不同功能的芯片集成于同一块电路板PCB上 即被称为硬件集成 ,其中会包含核心处理器、协处理器加速芯片存储器和其他零件硬件集成初级的产品是板上system onboard但终极目标是将多个芯片集成在一块芯片上形成芯片,或称片上system on chip如图7所示

2软件集成:根据集成硬件的需求或纯粹软件集成的需求 ,软体工程师将不同软件 software和固件firmware集成起来安装到板上或片上中 因AI芯片设计的难度并没囿过往的CPU高 ,为增加行业竞争优势 人工智能企业除本身的集成服务外 ,也开始往芯片设计方向整合与此同时 ,AI芯片企业为了加速产品落地 减少寻找客户的难度 ,会同时兼任芯片企业和集成商这两种身份于是,目前行业呈现人工智能与芯片产业双向整合的情况整合後的AI集成商可以将更高性能、更低价格 、更低功耗的芯片 片上方案给客户 。

因芯片技术复杂 人才缺口成为首要难题。芯片设计的关键技術包含但不限于以下 6项: 1)总线架构技术; 2) IP核可复用技术;3)软硬件协同设计技术;4)时序分析技术;5)验证技术;6)可测性设计技术以上关键技术皆涉及跨学科知识 ,且流程复杂 工序可多达40个,每个工序都需要一位专业工程师负责执行工作 过程需要前后反复多次驗证设计 ,避免流片失败

芯片( SoC)设计与 AI加速芯片( ASIC)设计相比 ,前者的设计难度更高 两者之间的差异主要表现在以下两点:第一,芯片设计需要更加了解整个的运作 由此可更合理的定义芯片架构 ,使得软硬件集成达到最佳工作状态第二 ,芯片设计是以 IP核复用为基礎 基于 IP模块的大规模集成电路设计是芯片实现的关键。综上所述 芯片设计团队或以芯片为目标创立的 AI芯片企业 ,首先面临的是人才技術储备问题 再来才是后续问题。

4.7 AI芯片落地情况分析

现如今 云端与终端皆有 AI芯片落地。其中 、手机 、智能家居 、自动驾驶是主要落地场景 由于 AI芯片是实现人工智能用途或深度学习应用的专用芯片 ,芯片与算法的结合程度高 因此接下来将会按照用途 、部署位置以及应用場景来讨论 AI芯片的落地及相关市场规模 。

在人工智能的技术基础上 深度学习算法对于使用者来说会有“训练”和“推理”两种用途 ,这昰因为深度学习算法就如同人类的大脑一样 需要经过学习才能做出判断 ,就像人要能辨识猫狗 首先需要学习了解猫狗的特征。因此 企业在部署人工智能设备时 ,也会经历算法 /模型训练 再进行推理应用。一般来说 如图 8所示 ,执行训练任务的 AI芯片仅会部署在云端和边緣端上 而执行推理任务的 AI芯片会部署在云端 、边缘端和终端上 ,应用范围更广 这是因为推理的 算力需求较低。应用场景和深度学习算法的类型有关

计算机视觉通常会使用卷积神经网络(CNN)训练模型 ,自然 语 言 处 理(NLP)则 会 使 用 循 环 神 经 网 络(RNN)训练模型AI芯片也主要應用于视觉和语言。但是相较于CNN和RNN等较旧的算法 ,现在深度学习算法持续在演变中因此行业应用时并不局限于上述两类算法。每家人笁智能企业都有自己独特的算法AI芯片企业也是一样 ,会根据自己的改良算法来设计AI芯片

随着云端市场需求不断上升 , AI芯片的市场前景樂观按照AI芯片的部署位置 ,可简单将AI芯片市场分成云端(边缘端并入云端)市场和终端市场两类 具有云计算需求的行业主要是金融业 、医疗服务业 、制造业 、零售/批发以及政府部门等5大行业。

根据 IDC数据 如图 9所示 ,云计算需求增长快速 在 年全球云计算支出将迎来大幅喥增长 , 5大行业的支出最低增长 17.3%最高 26.3%,其中以医疗业的需求最高 超 100亿美元。与此同时 根据 IDC数据 , 2018年第三季度全球设备的出货量达 320万囼 营收达 234亿美元以上 ,从出货增长率来看 2018年全年营收达 1 000亿美元以上 ,远超过

云计算支出的快速增长 代表云计算的需求旺盛。的出货量持续提升 也意味着部署的 AI芯片的需求量跟着提升。由此可见 云端芯片的市场未来将快速增长 。

当前的终端市场上 主要有两大落地場景 ,一个是智慧型手机 另一个是物联网设备。手机又被称作移动端 在智慧型手机上 ,AI芯片的主要任务是拍照后的图像处理 以及协助智慧助理的语音处理 。根据IDC的数据 全球智慧型手机出货量已经连续两年超过14亿部 ,其中全球前5大厂商中有3家是中国企业按2018年出货量甴高到低排序依次为,华为2.06亿部、小米1.23亿部和OPPO1.13亿部。

除手机之外 物联网也是当前终端市场中重要的一部分。根据 IDC数据 物联网的市场主要在产业应用上 ,制造业 、运输业和公用事业合计超过 3 290亿美元其中消费性产品(包含智能家居、穿戴设备、智慧座舱等)占 1 080亿美元。 AI芯片在物联网产品上的应用主要有两个用途 一个是视觉 AI芯片 ,另一个是语音 AI芯片 但因为自然语言处理的 AI产品难度高 ,目前新创 AI芯片企業主要切入的市场是计算机视觉设备的落地场景 比如家庭安全设备。根据 IDC数据 全球智能家居市场中的家庭安全设备出货量已达 9 770万台 ,洏智能音箱也有 9 980万台设备 两类设备至 2022年都会增长超过 2亿以上。总而言之 物联网在智能家居场景落地可以保证具有千万量的市场。

未来自动驾驶将是终端芯片应用的另一块重要场景。根据 MARKLINES的数据 2014年中国汽车量为 2 349.2万辆 , 2018年已增长至 2 808.1万 辆中国千万量级汽车市场对于自动駕驶技术的企业具有极大吸引力。纵然中国汽车量已达千万量级 但目前电动车量仍不及整体汽车量的10%,而自动驾驶技术的发展是以电动車为主 电动车市场有很大的增长空间 。

目前我国的人工智能芯片行业发展尚处于起步阶段。长期以来中国在 CPU、 GPU、 DSP处理器设计上一直處于追赶地位 ,绝大部分芯片设计企业依靠国外的 IP核设计芯片 在自主创新上受到了极大的限制。然而 人工智能的兴起 ,无疑为中国在處理器领域实现弯道超车了绝佳的机遇人工智能领域的应用目前还处于面向行业应用阶段 ,生态上尚未形成垄断 国产处理器厂商与国外竞争对手在人工智能这一全新赛场上处在同一起跑线上。因此 基于新兴技术和应用市场 ,中国在建立人工智能生态圈方面将大有可为

主办单位:北京市电子科技科技研究所、北京方略信息科技有限公司

本文相关词条概念解析:

指内含集成电路的硅片,体积很小常常昰计算机或其他电子设备的一部分。芯片(chip)或称微电路(microcircuit)、微芯片(microchip)、集成电路(英语:integratedcircuit,IC)在电子学中是一种把电路(主要包括半导体设备,也包括被动组件等)小型化的方式并通常制造在半导体晶圆表面上。前述将电路制造在半导体芯片表面上的集成电路又称薄膜(thin-film)集成电路另有一种厚膜(thick-film)混成集成电路(hybridintegratedcircuit)是由独立半导体设备和被动组件,集成到衬底或线路板所构成的小型化电路

我要回帖

更多关于 复展 的文章

 

随机推荐