1. 首页 > 科技资讯

北京将推动国产AI芯片突破,国产ai芯片上市公司

ChatGPT的关键在于算力,算力的关键在于芯片。

ChatGPT的关键基座

“训练数据信息 模型优化算法 算力”是ChatGPT蜕变的基本,以ChatGPT为例子,训练ChatGPT3.5应用英伟达A100芯片,而一颗英伟达A100芯片成本约8万余元,完成全部训练全过程必须三万颗英伟达A100芯片。先前击败李世石的AlphaGO,训练仅用了176颗GPU。

ChatGPT的崛起引领着人工智能技术在运用端迅猛发展,这还对测算机器的计算能力给出了从未有过的要求。尽管AI芯片、GPU、CPU FPGA等芯片已对目前模型组成最底层算力支撑点,但面对挑战隐性的算力指数式增长,全世界现阶段的算力显而易见有点紧张。

全世界算力每5~10个月就需要翻番,截至2021年,全世界测算机器设备算力总规模超过615EFlops、增长速度44%。国金证券预测分析,2030年,算力有希望增加到56ZFlops,CAGR做到65%。然而这或是ChatGPT还没降临之时,正常算力要求估计值。

算力芯片要求疯涨

将来,AI优化算法算力领域天花板,由半导体材料市场的发展确定。

AI算力进到大模型时期,大模型的完成必须强悍的算力作为支撑训练和逻辑推理。以GPT模型为例子,GPT-3 175B计算复杂度做到1750亿,需要很多GPU协调工作才能实现。

以Open AI为例子,微软公司专业向其打造出了一台高性能计算机,专门用于在Azure云计算平台上训练集成电路工艺人工智能技术的模型。

这两台高性能计算机有着28.5万只CPU关键,超出1万颗GPU(NVIDIA V100 GPU),照此规格型号,假如建造IDC,以英伟达A100 GPU芯片取代V100 GPU芯片,按照特性计算,大概需要3000颗A100 GPU芯片。每一台NVIDIA DGX A100网络服务器配备8块A100,就需要375台,每一台价格19.9万美金,则建造IDC的训练网络服务器算力成本费为7462万美金。

但在中美贸易战半导体行业发展趋势不断打击环境下,英伟达、AMD断贷进一步激发算力芯片产业化要求 。现阶段早已不断涌现一大批国内算力芯片生产商,也逐步搞出名气, 别的配套设施环节产业化过程也在加快推进。

在通过深层复盘总结和调查后给大家带来了几个AI算力芯片及其相关产业,非常值得大家收藏科学研究。

恒烁股权

公司正在产品研发第二款CiNOR存算一体AI加快芯片,其芯片控制模块必须一颗MCU加以控制和生产调度,企业CiNOR可以从自身MCU软件上进行确认和改错,大大降低CiNOR AI芯片的开发进度,可为用户提供”MCU 存储芯片 AI”的技术解决方案。

奥比中光

企业设计的芯片种类主要包含深层模块测算芯片、iToF感光芯片、dToF感光芯片、人脸解锁专用型感光芯片及其AloT算力芯片等; 企业专用算力芯片主要包含MX系列产品深层模块芯片,内部结构干固了深层引警优化算法,还可以在接受到感光芯片空间编码信息后实时深度校正以导出3D信息。

晶辰股权

企业AI系列产品SOC芯片的使用场景丰富多彩多元化,被广泛应用于诸多海内外大型企业的终端设备。

中科曙光

国内大数据处理龙头企业;企业以IT关键设备开发、生产加工为载体,对外开放给予高端计算机、存放、安全性到大数据中心等ICT基础设施建设商品,大力推广云计算技术、大数据技术、人工智能技术.工业物联网等先进计算业务流程,为顾客提供全面的信息管理系统服务方案。

免责协议:文章仅作参考,不构成投资价值分析

风险防范:股市有风险,入市需谨慎

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://www.miyuegong.com/kejizixun/68194.html

联系我们

在线咨询:点击这里给我发消息

微信号:666666