• 首页 >  信息科技 >  信息技术
  • 华为:计算2030产业报告(2024版)(63页).pdf

    定制报告-个性化定制-按需专项定制研究报告

    行业报告、薪酬报告

    联系:400-6363-638

  • 《华为:计算2030产业报告(2024版)(63页).pdf》由会员分享,可在线阅读,更多相关《华为:计算2030产业报告(2024版)(63页).pdf(63页珍藏版)》请在本站上搜索。 1、20302024 版计算构建万物互联的智能世界3前言十年前,人类进入 ZB1 数据时代,移动互联网、云计算、大数据刚刚起步;今天,这些技术已经深刻地改变人类社会,计算发挥了前所未有的作用。2030 年,人类将迎来 YB1 数据时代,对比 2020 年,通用算力增长 10 倍、人工智能算力增长4000倍2。数字世界和物理世界无缝融合,人与机器实现感知、情感的双向交互;人工智能无所不及,帮助人类获得超越自我的能力,成为科学家的显微镜与望远镜,让我们的认知跨越微小的夸克到广袤的宇宙,千行万业从数字化走向智能化;计算能效将持续提升,走向低碳计算,帮助人类利用数字手段加速实现碳中和目标。未来十年,计算将2、帮助人类跨入智能世界,这是一个波澜壮阔的史诗进程,将开启一个与大航海时代、工业革命时代、宇航时代等具有同样历史地位的新时代。目 录01020608宏观趋势未来计算场景2.1 更聪明的 AI.092.2 更普惠的 AI.112.3 更纵深的感知.132.4 超越现实的体验.152.5 更精确地探索未知.172.6 更准确地模拟现实.182.7 数据驱动的业务创新.192.8 更高效的运营效率.202203计算 2030 愿景及关键特征3.1 智能认知.233.1.1 生成式 AI.233.1.2 自动自治 AI.263.1.3 类脑智能.273.1.4 知识计算.283.2 内生安全.293.23、.1 数字信任与隐私.293.2.2 AI 安全可信.323.2.3 新计算范式安全.343.3 绿色集约.363.3.1 计算芯片工程.363.3.2 DC as a Computer.383.3.3 跨域算力网络.413.4 多样性计算.433.4.1 数据为中心的计算.433.4.2 应用驱动的多样性计算.453.5 多维协同.463.5.1 立体计算.463.5.2 数字孪生.493.6 物理层突破.523.6.1 模拟计算.523.6.2 非硅基计算.533.6.3 光交换与光互连.543.6.4 新型存储介质.54附录 A:参考.57附录 B:缩略语.58附录 C:致谢.615604、4计算 2030 倡议6计算 2030宏观趋势01计算经过半个世纪的发展,已经深深地融入了人类的生活和工作。未来到 2030 年,计算作为智能世界的基石,将持续推动社会经济发展和科学进步。面向 2030 年,中国、欧盟、美国等均将计算作为战略方向重点布局。在中国十四五规划和2035年远景目标纲要中,将高端芯片、人工智能、量子计算、DNA 存储等作为强化中国的战略科技力量;在欧盟2030 数字指南针:欧洲数字十年之路中,计划到 2030 年,75%的欧盟企业将充分运用云计算、大数据或人工智能,打造欧盟首台量子计算机;而美国,则再次提出“无尽前沿”,借助法案和拨款,推动美国在人工智能、高性能计算&5、半导体、量子计算、数据存储和数据管理技术等领域的领先性研究。2030 年,AI 成为新质生产力,大模型成为智能底座,使能千行百业,全方位丰富人们的衣食住行,物理(具身)智能将跨越鸿沟,在自动驾驶和人形机器人领域规模落地;数字世界和物理世界无缝融合,人与机器实现感知、情感的双向交7计算 2030互,计算具备模拟、还原、增强物理世界的能力,超现实体验将驱动计算走向边缘,云与边缘、边缘与边缘、虚拟与现实多维协同计算;科学探索的边界将不断扩展,带来算力需求的快速增加,未来将出现 100EFLOPS2 级的超级算力和智能的科学研究新范式;碳中和目标驱动计算走向绿色,未来将更好地匹配绿色能源和业务体验。计6、算所依赖的半导体技术逐步接近物理极限,计算将迎来创新的黄金 10 年,软件、算法、架构、材料的创新和突破将开启智能、绿色、安全的计算新时代。预计 2030 年,全球数据年新增 1YB;通用算力增长 10 倍到 3.3ZFLOPS FP32,人工智能算力增长 4000 倍,2030 年达到 864 ZFlopsFP16。8计算 203002未来计算场景更纵深地感知更纵深地感知食能源企业智慧农业智慧能源智能控制设备生产机器人城智慧城市行AI 自动驾驶AI 智慧交通更普惠的 AI教育个性化教育医AI 精准医疗AI 药物筛选超越现实的体验医智慧交互虚拟世界/元宇宙 AR/VR 数据驱动业务创新企业算力7、挖掘数据价值10 倍的新业务开发 更高的运营效率企业精细化的资源使用AI 软件定义的运营低碳 DC 更准确地模拟现实更精确地探索未知企业企业生产仿真 100 倍精度风洞仿真基于 GAI 仿真医AI 新药探索企业生态监测海洋预测地震预测气象源源不断的创新永无止境的探索海量数据普惠算力计算 2030无处不在的感知无所不及的 AI9计算 20302.1 更聪明的 AI人工智能的发展经历了起起伏伏,算力、算法和数据迎来了巨大的提升,ChatGPT 的问世推倒了通往 AGI 的多米诺骨牌,大模型成为智能时代的基础设施,Scaling law 未来几年持续有效,AI 将跨过奇点,再次迎来爆发期。行:AI 8、智慧交通智能交通领域,通过摄像头、雷达、气象传感器等采集各种数据,边缘完成车辆识别、交通事件识别、路面状况识别,生成局部路段的全息数据,并在云端形成城市级道路数字孪生,实现车道级实时路况、历史路况的全息呈现。通过云端策略计算,可以对每辆车、每条道路生成不同的交通指令,指挥车辆、调节交通信号,从而更高效、低碳的完成出行。预计2030 年,全球道路上的电动汽车、面包车、重型卡车和公共汽车数量将达到 1.45 亿辆。每辆汽车行驶中产生的数据(一辆车平均每天行驶 2 小时,行驶中每秒上传的压缩数据将从现在的 10KB 升至 1MB,10 万辆车智能网联汽车每天需要传输的数据量大约为 720TB)需要在9、汽车与城市之间频繁进行数据交换,借助智慧交通基础设施的海量数据存储和分析能力,城市通勤时间将得到大幅提升(日均通勤缩短 15-30 分钟),交通事故和汽车对城市碳排放量也随之大幅降低。以计算为核心,持续支撑交通的数字化升级和智慧化管理。大交通从“运力”时代进入到“算力”时代是历史的必然选择,“算力”带来的交通安全、效率、体验的提升,必将释放出新的生产力,推动社会经济的发展。10计算 2030行:自动驾驶高阶自动驾驶将成为绝大多数汽车的标配,随着 AI 技术的提升,数据飞轮不断迭代,自动驾驶技术在加速发展,人的智慧和驾驶经验将被更敏捷准确地转移到汽车上,实现更类人的智能驾驶,让人类出行更美好。L10、3 将大规模商用,L4 甚至 L5 技术取得突破性进展。全自动的数据标注系统提升数据飞轮速度,效率较人工提升千倍甚至万倍,尤其可以完成人类不能标注的 BEV 等视频数据标注。从感知、预测到规控,基于一个大模型底座做到多任务一张网,逐渐过渡到端到端一张网,在无边界探索中找到自动驾驶的边界。车路协同将辅助自动驾驶,车辆与道路基础设施、其他车辆及交通管理系统进行实时通信和协作,从而提高行驶效率,减少事故。智能驾驶算力需求增长会远超摩尔定律,随着自动驾驶级别的不断提升,算力需求不断增长,到 2030 年自动驾驶汽车的单车算力将超过 5000T FLOPS,云端算力需求超过 200E FLOPS。城:智11、慧的城市城市占据全球 2%的面积,居住着超过全球50%以上的人口,消耗了全球 2/3 的能源、排放了 70%的温室气体(250 多亿吨二氧化碳)。城市的智慧化治理成为实现城市可持续发展的必然选择。智慧城市中的物联网传感器则持续生成城市运行的环境数据,未来,每一个物理实体都将有一个数字孪生,如城市楼宇、水资源、基础设施等将组成城市数字孪生,实现更加智能的城市管理。城市智慧治理将带来 100 倍的社会数据聚集,实现高效城市治理。智慧能源基础设施借助数据的保存和分析能力将城市能源消耗中供需二者协调到一个系统中,以实时数据处理来实现城市能源的高效调度。例如:通过城市能源的消耗数据绘制出城市实时能效地图12、,动态监控能源的使用情况,再针对性的进行能源调度,将居民高峰用电平均需求减少 15%以上。城市中每个居民息息相关的气象、海洋、地震等公共服务,背后也是依赖大量的数据计算处理。通过更多元、更大量的城市及自然环境数据,智慧公共服务将可以更好地预测天气、海洋和地震对城市生活的影响,从而使城市在面对极端事件时更具韧性。每个居民还可以通过这些智慧化的公共服务,结合自身地理位置等信息,以定制化的信息判断气候或突发事件对自身的影响。数据是智慧城市高效运作的核心要素,如何对生成的海量数据进行有效管理和使用是智慧城市发展绕不开的主题。11计算 20302.2 更普惠的 AI以大模型为代表的 AI 技术全面进入人13、们的生活,彻底丰富人们的衣食住行,让我们更高效的思考、创作、学习,让优质稀缺的资源变得更加容易获得,大幅提升生活质量和工作效率。医:AI 精准医疗世界卫生组织估计到 2030 年,将出现 1000 万卫生工作者的短缺,人工智能将为人类应对这一挑战提供有力的帮助,大幅提升医疗服务的质量和效率,增强患者体验,一定程度上弥补医疗资源短缺,缩小不同地区医疗服务的差距,降低高昂的医疗费用。AI 在医疗领域的应用将无处不在,覆盖诊断、治疗、护理等各个环节,AI 在医学影像分析中的应用将更加深入,AI 利用先进算法分析患者数据,自动识别早期疾病迹象,AI 通过医疗大模型和基因组学,为每位患者提供个性化医疗方14、案,通过数字医生为远程患者进行咨询与诊断,通过 AI 机器人进行手术辅助。医:AI 药物筛选AI 将更加透明,不再是一个黑盒,不仅会告知结论,同时也会告知如何得出结论的,让人类明白 AI 的思考过程,和人类建立彼此的互信。有了这样的基础,AI 就可以在更广的范围内发挥更大的作用,帮助人类完成复杂的任务,比如:进行抗病毒药物筛选,AI 会告诉我们选出药物的原因,而不是只给出一个药物列表(通常情况下,如果我们只是看到一个结果,将很难做出决策)。12计算 2030教育:个性化教育人类训练人工智能的过程,同时也是认识自己的过程,人工智能使得认识人类的智能、人脑的规律变得更加重要,进而重新认识教育、改革15、教育3。未来人工智能将改变人类自己的学习、认知的过程。如人工智能教员通过精细化地分析学生的行为、习惯、能力等,制定个性化的教学内容、计划和教学方式,学生的学习潜力将得到极大的挖掘,接纳新知识更多、更容易。AI 通过情感识别技术,能够识别学生的情绪状态,提供相应的心理支持和辅导,有助于学生的心理健康和整体发展。AI 不仅促进了教育的个性化和公平性,还支持了学生的全面发展和终身学习。2.3 更纵深的感知预计到 2030 年,全球联接总数将达到两千亿,传感器的数量达到百万亿级,传感器持续不断地从物理世界采集数据,温度、压力、速度、光强、湿度、浓度等,为了让机器人具备“视觉、触觉、听觉、味觉、嗅觉”,16、需要更加多维的感知能力。数据量、时延等原因决定了产生感知的计算在边缘完成,边缘将具备智能的数据处理能力,例如模仿人类大脑工作的模拟信息处理技术等。未来,大量感知计算将在边缘完成,处理大约 80%的数据。感知智能让海量数据的采集、分析成为可能,让更多的行业获得感知自我的能力,并通过云端的数字孪生与物理世界形成协同,驱动行业的数字化创新。食:智慧农业全球粮食安全关系到社会稳定,但是农业面临重大挑战,诸如劳动力短缺,土壤退化,水资源缺乏,频繁的极端天气(干旱、洪水、飓风等)对农业造成严重威胁等。未来将建立和完善天空地一体化的智能农业信息遥感监测网络,互联网、物联网、大数据、云计算、人工智能等现代信息17、技术与农业深度融合,具备农业信息感知、定量决策、智能控制、精准投入、个性13计算 2030化服务的全新农业生产方式将逐步实现。智慧农田、智慧大棚、智慧养殖、智慧种植、喷药无人机等对边缘 AI 计算有广泛的需求。农业智能传感与控制系统、智能化农业装备和农机田间作业自主系统将加快发展农业电子商务、食品溯源防伪、农业休闲旅游、农业信息服务水平,农业将迎来全方位全过程的数字化、网络化、智能化改造。企业:智能控制设备人工智能技术将在生产系统中高度普及,融入企业作业各个环节,这将带来工厂作业模式、人员配置、部门区域协同等一系列的升级。未来 10 年,人工智能技术将给关键生产环节带来大幅的质量提升与成本收益18、。AI 可以帮助制造企业实现控制层智慧化运营管理、贯通层海量数据分析挖掘以及感知层更低时延诊断预警。中国制造 2025 提出,制造业重点领域全面实现智能化,试点示范项目运营成本将降低 50%,产品生产周期缩短 50%,不良品率降低 50%。比如,工厂的轴承故障诊断、钢炉热异常检测、电力设备的检修等深度学习场景,制造工厂可以通过 AI 技术进行更低时延的诊断预警,提高生产检测效率,缩短订单交付周期。企业:生产机器人未来,从操作机械到指挥机器,人类告别恶劣极端的工作环境。人工智能将参与企业更多的非操作性任务,人与机器形成无缝的协作关系。从产品设计、生产、销售,到企业架构、员工的雇用和培训等各个环节19、,人工智能将驱动企业业务进行彻底的重塑。如企业采用人工智能对经济发展、社会热点事件等进行分析,判断14计算 2030行业外部及企业的发展趋势,或者根据分析结果优化生产计划、形成方案,为产品概念的开发提供决策建议;特别是在满足个性化需求的柔性生产中,人工智能的创造能力不仅能够按照定制要求设计,更能综合需求变化和产品使用数据生成新的产品设计。预计到 2030 年,每万名制造业员工将与 1000 个机器人共同工作,机器准确理解人的指令、准确感知环境、做出决策建议与行动。今天,无人值守的黑灯工厂已开始规模部署,人工智能驱动机器人忙碌于生产线和物流系统,在重复性高的场景中,机器让人类告别重复枯燥的工作。20、未来,机器将帮助人类处理非确定场景下危险、恶劣工作,人将从现场操作转变为远程指挥,在更加舒适的环境中工作,远离危险。如在采矿业,中国提出了煤矿智能化发展的目标,到 2025 年大型煤矿和灾害严重煤矿基本实现智能化决策和自动化协同运行,井下重点岗位机器人作业,实现井下少人到井下无人,2035 年建成智能感知、智能决策、自动执行的煤矿智能化体系。4从操作性工作到创造性工作,企业智能化重塑。未来人工智能深度参与人类的思考,与人形成互动,并呈现出推理的过程,成为可信任的智能,将在金融、医疗、司法等需要高质量决策的复杂场景中发挥巨大作用。未来 10 年,通过对物理世界的不断学习,人工智能将更加聪明,从确21、定性场景到非确定性场景,在越来越多的任务领域中增强人类,帮助人类获得超越自我的能力。人形机器人随着具身智能和灵巧手等关键技术的突破,人形机器人将跨越裂谷,具备通用化技能,成为继手机、汽车后的第三大通用产品。人形机器人将缓解人口老龄化问题,释放人力资源从事更有创意和更高价值的工作,改善人们的生活质量,提升生产力和生产效率。人形机器人的应用场景广泛,能够在多个领域带来显著的社会效益,将在救灾、核反应堆维护、井下挖矿、民爆、警卫等特殊场景取代人类,将在家庭中承担家务、陪伴、护理等越来越多的工作,将深度走入工业,使能柔性制造,在智能制造等领域发挥重大价值。人形机器人领域未来将走向通用归一化,即一个机器22、人做所有的事情,高端人形机器人的算力需求越来越旺盛,到 2030 年端侧需求将超过5000T TFLOPS FP8。15计算 2030智慧能源能源问题非常重要,涉及经济发展、环境保护、国家安全和社会稳定等多个方面,技术创新是实现持续发展的重要手段。到 2030 年,能源结构将发生大调整,清洁能源发电发展迅猛,成为大趋势,但风光水电等清洁能源波动性大,稳定性差,现实中存在很多弃电等现象,人工智能在新型电力系统的深度融合,将提供稳定支撑和优化调度能力。AI 通过历史数据、天气预备、经济活动等因素,准确预测电力需求,优化电力生产和分配;AI 可以准确预测风电、光电和水电的发电量,减少波动性的影响;A23、I 可以在大电网或微型电网间优化电力系统的调度,合理安排不同电源的出力,最大限度利用清洁能源,减少对化石能源的依赖;AI可以优化储能系统的充放电策略,提高系统的稳定性;AI 可以分析电力市场的供需情况、价格波动等,帮助电力公司和用户制定更优的交易策略,优化电力交易和市场运营;AI 通过对发电设备和电网设备的实时监测和数据分析,预测设备的故障风险,提前进行维护,减少非计划停机。此外,AI 点亮可控核聚变研究的未来之路,加速领域研究的进展,到 2030 年,会有更多基于 AI 的可控核聚变成果出现,有望提供无穷无尽的清洁能源。2.4 超越现实的体验预基于 VR/AR、元宇宙、生成式 AI 等技术打24、造的超越现实的体验,将极大改变我们的生活方式、工作方式和娱乐方式,在沉浸式娱乐、虚拟教育、远程协作、旅游探索、艺术创意等领域产生重大影响,将创造一个更加互联、敏捷和充满活力的未来世界。住:智慧交互今天,人工智能已经在帮助人类完成一些过去难以完成的任务。例如,通过手机摄像头可以识别出我们所不认识的植物,并能获取它的生活习性、栽培方法;机器人帮助增强人类的行动力,如外骨骼机器人辅助病人进行康复;家用机器人则能帮助老人陪伴、家务劳动等智能化工作。预计2030 年,家用智能机器人使用率将超过 18%。人工智能参与人类的思考和创造过程,需要结果具备可解释性,并符合人类思考问题的逻辑,具备与人类使用自然语25、言无缝交流的能力,未来人工智能将实现从感知到认知、从弱人工智能到强人工智能的跨越。16计算 2030当前人工智能在写诗、作画上进行了初级尝试,未来人工智能将完成更加复杂的创造性工作,如电影制作、艺术创作和工业设计等。人工智能能够提供高度定制化的内容服务,人们可以随时获得一幅定制的画作,一部定制的电影。比如在互动电影的观看过程中,观众可以在观影中通过不同的选择来影响剧情走向,人工智能将完成每一条故事线的演绎和视频生成,因此相同的电影将产生不同的结局,整体内容也更加丰富。未来这种人类提出主题、人工智能实现细节的创作方式将极大地提升人类的创造力、丰富人们的生活。住:AR/VR数据将构建出众多的数字空26、间,旅游景点、全息会议、虚拟展会这些数字空间与物理世界共同组成了一个虚实融合的世界。在虚拟旅行中游览“真实的”山川、流水;与千里之外的朋友促膝交谈;对话先哲,与王阳明一起悟道,与普鲁塔克探讨特修斯之舟;人与人、人与社会、人与自然、人与机器的交流方式将发生革命性的改变,未来人类的生活、工作和学习方式将重新定义。预计 2030 年,超过 30%的企业在数字世界中运营与创新,各种虚实结合的AR(Augmented Reality,增强现实)/VR(Virtual Reality,虚拟现实)用户数达到 10 亿。住:虚拟世界/元宇宙数字世界与物理世界的无缝融合,能够准确感知和还原物理世界,在虚实结合的27、世界中理解用户的意图,体验将驱动计算走向边缘,云与设备、设备与设备、虚拟与现实多维协同计算。云端将实现物理世界的建模、镜像,经过计算、加入虚拟的元素,形成一个数字的世界;边缘设备将具备听觉、视觉、触觉、嗅觉和味觉能力,人与设备之间实现实时交互;多维协同的计算将用户所处的环境整体变成一台超级计算机,计算环境信息、识别用户意图,并通过全息、AR/VR、数字嗅觉和数字触觉等技术进行用户呈现。17计算 20302.5 更精确地探索未知今天,“高性能计算+物理模型+AI”的方法已被广泛应用到众多的科学问题。未来,随着人类认知边界的不断扩展,量子力学、生命科学、地球大气、宇宙起源的研究,尺度从 10-2128、 到1028 米,跨越微观世界到无垠宇宙,科学家需要处理的数据与计算量将爆炸性增长,数字世界算力的规模决定了物理世界探索的广度和深度。例如,2012 年欧洲核子研究组织(CERN)大型强子对撞机(LHC)实验项目 5,全球超级计算机组成算力池,帮助科学家从近 100PB数据中证明希格斯玻色子的存在;2027 年底CERN 将投入使用高光度大型强子对撞机(HL-LHC),每秒发生约 10 亿次粒子碰撞,数据计算量将增加 50-100 倍,存储需求达到 ZB 级。2030 年,计算将在更多的领域帮助科学家解决基础性问题。自然:生态监测未来人类将环境保护作为重点,将新型科学技术与设备结合人工智能,可29、有效解决环境恶化带来的温室效应,土壤沙化和盐碱化等各种环境问题的挑战。以大数据为基础,利用模型,可以较好地预测出不同管理措施下的结果,并不断反馈给算法模型,得出更好的治理模式。如精确定位污染源,预测污染扩散等。自然:气象来自世界气象组织(WMO)的数据显示,在过去 50 年里,平均每一天都会发生一场与天气、气候或水灾有关的灾害,而每一场灾害平均会造成约 115 人死亡、约 2.02 亿美元的经济损失。数值方法与 AI 的融合正在引发一场的深刻的全球气候变化研究革命,作为一种新的科学范式有力促进了气象系统的机理、模拟和预测研究。气象应用场景非常广泛,涵盖了了从短期天气预报到气候变化研究,再到各个30、行业的实际应用。未来天气预报不断发展为更加复杂的动力数值模式,以求更准确和提前预报天气。如气象雷达质量控制、卫星数据反演及同化等气象数据处理;短时临近预报、概率预报、台风海洋天气预报、极端或灾害性天气预警、风暴环境特征分类、环境预报等天气气候分析;以局部短时天气预报为例,短时强降雨具有极大的破坏性,但受限于海量数据和巨大算力需求,很难实现准确预测。天气预报从当前的 10 公里的精度,提升到公里、次公里,数据规模和算力需求提升 1001000 倍。预计 2030 年随着100EFLOPS 级超级计算机的出现,更高精度气候模拟和天气预报将成为可能,人类能够更加从容的应对极端天气。自然:地震预测/海31、洋预测未来应用人工智能监测地震、实时估算地震震源等将极大提高预报的准确性。从地震记录推算地震震源机制是个计算耗时的过程,自 1938 年地震学家第一次开始推算地震断层面解,震源机制参数一直是个难题。采用人工智能的方法有效地解决了这个复杂计算问题,应用地震大数据训练人工智能神经网络,可完善预报系统的准确性和可靠性,实现地震预报领域的突破。自然:宇宙结构探测宇宙大规模结构是重要的科学前沿领域,研究宇宙结构形成和时间演化,从而揭示宇宙的物质组成以及宇宙演化过程、暗物质、暗能量等宇宙学问题。传统的办法是根据物理理论,使用超级计算机计算宇宙中各种大规模结构的演化,将其与观测数据进行对比,但是这需要对数十32、万到百万个宇宙论模型进行精确的计算,目前可观测的宇宙有 2 万亿个星系,万亿亿个星球,即使全球所有计算资源一起也难以完成。18计算 20302.6 更准确地模拟现实计算能力的不断提升,推动着仿真模型的快速发展,生成式人工智能的爆发,可以更加高效地创建仿真模型,让人类更准确地模拟现实。企业:生产仿真 100 倍精度/风洞仿真计算机风洞仿真已经成为飞机、高铁和汽车等高速运动产品的重要测试手段。但由于整机仿真计算量巨大,为了得到高精度的仿真结果,需要将测试系统分解成滑行轮胎、发动机等多个子系统,甚至发动机也要拆解成更小的系统,这对验证整机设计是否满足要求带来新的挑战。风洞仿真技术将通过多物理场集成、33、人工智能驱动、虚拟现实融合、云计算支持和高保真全场景仿真,未来计算能力将提升 24 个数量级,显著提升仿真效率、精度和应用广度,风洞仿真有望实现更大级别子系统,甚至整机的高精度仿真测试。基于生成式人工智能的仿真仿真与生成式 AI 相结合激发无限可能,我们可以解锁新的场景,探索更广泛的可能性,将不可能变为现实,将在各个领域掀起巨大波澜。基于 GAI 的仿真,将以算力赢得效率,实现实时交互式仿真,图片生成将达到真实级别,融入物理规律的视频生成更加自然流畅,环境模拟和角色仿真将更加逼真,在影视、游戏、培训、教育和日常生活等方面大规模应用。基于 GAI 的仿真,将大幅提升仿真规模和复杂度,融合多尺度和34、多领域仿真,仿真系统具备自主学习和进化能力,可生成前所未有的假设场景并进行探索,将在自动驾驶、智能制造、城市规划、太空探索等领域广泛应用,比如在自动驾驶场景中,把不同的道路环境、天气环境、光线环境、车辆、交通参与者等复杂场景生成出来,高效制造更丰富真实的仿真验证环境,从而大幅度降低技术验证和测试成本,提升产品研发效率。药:新药探索传统的新药研发是一项复杂的系统性工程科学,高度依赖药物学家的个人经验与创造力,周期长,19计算 2030成本高,转化慢,一款新药上市一般要花费十亿美金和十年时间以上的成本。生物技术与信息技术的融合将成为药物研究的新范式,随着人工智能、大数据和计算技术的快速发展,以及资35、本大力推动,计算制药将逐渐走向成熟,研发速度将提升 13 个数量级,人类健康将取得重大进步。靶标发现:药物靶标是原创新药发现的源泉,但靶标枯竭是全世界药物研究面临的共同问题,面临功能蛋白质发现和基于小分子等外源性探针靶标发现与确证等挑战。计算制药可以帮助发现与特定疾病相关的生物标志物,可以将广泛用于分子模拟和虚拟筛选,识别潜在的药物靶标,可以处理和分析大量的生物医学数据,包括基因组数据、蛋白质相互作用数据等,例如,采用传统方法分析单个蛋白质的折叠结构,需要耗费科学家数年时间,通过人工智能学习已知的 1.8 万种蛋白质折叠结构,可以在几天内获得对未知蛋白质折叠的原子精度模拟结果,这一成果使得癌症36、、老年痴呆等细胞内蛋白质结构变化引起的世纪难题的预防、治疗成为可能。药物发现:计算制药将重点突破化学药物分子结构表示学习技术,利用大算力十倍提升药物筛选和活性化合物发现的效率,更准确地预测蛋白质间相互作用(PPI),加速化合物优化,扩大生物大分子药物的设计潜能。药物开发:利用药物代谢反应预测、成药性优化、化学合成反应预测、DNA 编码集中库的合成与筛选等技术,加速药物开发 70%以上,节省大量时间与金钱。2.7 数据驱动的业务创新数据将成为驱动业务创新的核心力量,通过先进算力充分挖掘数据价值,可快速响应变化,推动高效创新和业务增长,实现独特的竞争优势,塑造未来商业新格局。企业:算力挖掘数据价值37、云计算和大数据已经成为行业数字化的基础,驱动以管理效率提升为目标的数字化,其特点是优化生产关系,更好的匹配生产力和客户需求以发动机行业为例,发动机制造商在开发的发动机中内置数十乃至数百个传感器,传感器将记录有关温度、压力、油耗、速度以及其他力和因素的数据,通过对数据的实时分析和处理,制造商可以实现并行研发,大幅缩短研发周期,工程变更数量也将降低为传统研发模式下的 1/10。20计算 20302.8 更高效的运营效率高效的运营效率对企业至关重要,可以提升企业竞争力、盈利能力和可持续发展能力。通过人工智能、大数据、云计算等新技术,可以显著提升运营效率,实现业务快速增长和长期成功。企业:精细化的资源38、使用在日益复杂和竞争激烈的市场环境中,精细化的资源使用是企业保持竞争力和实现长期成功的关键因素。云技术的广泛运用将使企业更加便捷地使用计算资源,新的计算技术可以让企业消费资源的粒度更小、调度的时间更短,这将大量减少企业计算资源的浪费。例如,在非云化时代,处理器仅有 10%的利用率,容器技术则将这一比例提升到了 40%以上,未来新的资源管理技术的广泛采用将进一步减少 50%以上的资源浪费。此外,AI 技术将感知现网计算、内存和通信等流量状态,精准预测趋势与需求,分析系统各个组件的热点与瓶颈,提供正确的决策支撑,准确规划资源使用,优化全局资源使用模式,可以显著降低成本,提高效率,促进企业创新,推动39、可持续发展。企业:10 倍的新业务开发需求预计 2030 年,现实世界将有 30%企业完成充分的数字化,这些企业的运营和创新工作将有90%在数字世界中完成,各种创新应用快速增长。行业数字化深入,行业的应用将爆发式增长。新的业务开发模式出现,10 倍的新业务开发需求,端边云全栈 Serverless 化成为支撑企业数字化、智能化转型中应用现代化改造的主流技术。基于云原生计算模式的编程语言、语言runtime、应用调度、运行、运维,成为构建全栈 Serverless 化、现代化软件的基础,实现全面应用上云,构筑 10X 的性能、效率、成本优势。此外,AI 将全面融入软件工程领域,推动代码生成、代码40、检测、代码测试等技术不断成熟,让新业务开发效率倍增。21计算 2030企业:软件定义运营IT 越来越成为企业生产系统的重要组成部分。互联网企业因为采用 DevOps6(敏捷开发和开发运维一体化)而变得敏捷高效。随着LLM 的爆发,AI Agent 被广泛用在运营中,AIOps 将极大提升智能化和自动化。DevOps和 AIOps 相互补充,共同构建了企业运营的效率和智能。未来企业将通过软件处理跨组织复杂协同,通过软件快速定义业务的运营,比如,流程自动化机器人、无代码/低代码等开发技术,调用机器人自动化软件的能力,申请各类服务资源,编排各种业务流程,普通员工即可完成工作流程的优化和问题的解决。到41、 2030 年,运维大模型将走向成熟,运营智能体将实现运营 Copilot,大幅提升智能化水平和效率。运维大模型实现自然语言知识与多模态机器数据的跨模态综合分析,构建运维业务智能问答、变更风控、巡检排查、故障诊断等能力。运营智能体实现业务流程编排、外部知识融合、工具调用、记忆与反思等能力,提升企业运营效率,提高决策准确性。企业:低碳 DC2030 年,数据中心将在算力提升千倍的同时实现低碳的目标,企业将获得更加绿色的计算资源。创新计算架构的引入,计算能效将极大的提升。例如,传统计算过程中超过 60%能耗集中在数据迁移,而未来以数据为中心的计算将使得能效提升数十倍。模拟计算如量子计算、模拟光计算42、将逐步成为重要的算力来源,能源效率更能得到指数级的提升。碳中和目标的驱动下,未来数据中心将受能源分布、算力需求分布的双重影响,计算架构将在更大的空间维度上发生变化,通过算力网络可以更好的匹配绿电、时延、成本的差异,实现全局最优的 PUE(Power Usage Effectiveness,能源利用效率)与碳排放。可将人工智能训练、基因测序任务放到绿色能源丰富和气温较低的地区,工业控制应用、AR/VR 放到靠近客户生产环境的地区。节能技术与设计更加先进,高效液冷系统普及,废热被有效回收,使能能效提升数倍。人工智能与智能控制深度融合,实时监控和分析数千个传感器数据,自动优化温度、湿度、冷却液等数百43、个控制参数,协同末端设备系统实施智能控制,使能能效提升近倍。22计算 2030计算 2030 愿景及关键特征03计算2030物理层突破模拟计算 非硅基计算光互联光交换 新型存储内生安全数字信任与隐私 AI 安全可信 新计算范式安全绿色集约芯片工程 DC as a Computer 算力网络智能认知生成式 AI-通用基础模型-数据工程-具身智能 类脑智能 知识计算多维协同立体计算数字孪生多样性计算数据为中心的计算应用驱动的多样性计算23计算 2030智能认知是人工智能技术发展的高级阶段,使机器成为人类改造世界、提升能力的得力助手。过去十年,人类在在视觉图像、语音识别、自然语言处理等多个感知智能技44、术领域取得了长足进步,并在交通、制造、金融、智慧城市等各行各业广泛应用。未来五年,以ChatGPT为代表的生成式AI技术,将变革人类社会,逐步跨入人工智能认知时代。同时,当前的人工智能技术存在一些问题,如能耗高、可解释性与鲁棒性差、缺乏知识利用与逻辑推断能力等。类脑智能作为下一代人工智能技术,为解决能效问题、鲁棒性等问题提供新的可能。而知识计算的发展,让人工智能具备知识利用和知识迁移推断能力,从而迈向真正的人工智能。3.1.1 生成式 AI3.1 智能认知生成式 AI(Generative AI)技术作为最佳的自动化内容生产力要素,允许计算机抽象与输入(例如文本,音频文件或图像)有关的基础模式45、,使用它来生成前所未有的新颖内容。它实现了从数据到创意的飞跃,使智能体具备了模仿甚至超越人类创造性的潜力。生成式 AI 能够显著提高生产效率和质量,降低创造成本;生成个性化的产品和服务,从而极大地丰富市场选择。未来,生成式 AI 技术,将成为推动全球经济发展的新引擎。生成式 AI 技术的发展主要包括生成式 AI 模型及其应用技术,技术趋势包括:通用基础模型通用基础模型是指一类大型机器学习模型,经大规模数据训练而成(通常以自监督学习或半监督学习方式进行),以适应各种下游任务。24计算 2030到 2030 年,通用基础模型将有如下趋势:趋势 1:基础模型的自回归范式将进一步收敛,可能出现新的模型46、结构,解决 Transformer Attention 缺乏高效长期记忆机制、长序列场景训推成本高、建模能力差等问题。其中,模型高效压缩记忆模块、具备高度可扩展的模型结构、非规则性注意力、高效计算算法成为模型结构创新发展的主要挑战。趋势 2:模型 Scaling Law 仍将持续,顶级通用大模型参数规模将达到每 2 年 8 倍的增长速度,到 2030 年将出现百万亿 千万亿的通用大模型。百万亿参数级别的模型,训练将需要100 万卡的训练集群,预计功耗达到 3000MW以上,相当于 2023 年上海全市发电装机容量的13%。高能耗的集群将迫使模型训练从单计算中心(DC)训练,走向多 DC 协同训47、练,远距离异步协同训练将成为主流。除了能源消耗和散热等硬件挑战,千万亿通用大模型的落地,需突破超大规模复杂集群通信提高训练推理效率,卡间互联带宽将从当前主流的 200-900GB/s 提升到 10TB/s 以上。算法上,需要突破高效的优化算法,避免陷入局部最优解。可靠性上,平均故障间隔将从万卡的 27 小时,下降至百万卡的不足 15 分钟,预测、检测、隔离、恢复系统故障,提升大模型训练的有效计算效率是大规模算力集群的另外一个挑战。趋势 3:模型类型从文本单模态,发展成全模态世界模型。多模态模型的复合增长率将达到52%以上,高于 AI 整体的 30%增长率。多模态模型的占比,将从不到 5%,增长48、到 30%以上。10%以上的模型将具备逻辑推理、自主学习与规划能力。全模态世界模型将面临模型算法设计和应用使能系统优化的挑战,包括:1)模型算法设计:模型内部构建推理层、模型嵌入直觉物理体系、嵌入直觉心理与因果思考;2)应用使能系统:自主演进系统、思维链模式、思维树模式、自动外部工具使用等。数据工程趋势 1:公开高质量文本预料数据会在 2026年左右消耗完,高质量视频/图像数据会在20302060 年间消耗完。随着大模型训练高质量数据短缺,2024 年,用于人工智能和分析项目开发的数据中 60%是合成生成的。到 2030年,人工智能模型中的合成数据预计将超过90%。基于“AI 合成-AI 质量49、评估-AI 训练”的自反馈学习系统将成为普遍学习范式。提高AI 反馈信号的质量和准确性、AI 反馈模型的准确性、多模态信号的反馈融合是 AI 合成数据最具挑战的技术难题。趋势 2:大模型会变革现有数据分析流程,基于大模型实现对话式数据分析将为成为主流。传统的取数过程中,用户需要明确掌握 SQL 语言和相应的数据库结构来提取所需信息。商业智能(BI)预计将从 2024 年的 319.8 亿美元增长到2032 年的 637.6 亿美元,预测期间复合年增长率为 9.0%。随着 NL2SQL 技术兴起,用户只需使用自然语言描述需求,由后端系统将其转换为适当的 SQL 语句,简化了查询过程。随着企业数据50、的积累,企业用数场景也快速增加,但企业既有的数据能力难以支撑深入的用数需求。业务的取数需要数据开发人员支持,深入的数据洞察又严重依赖专业的分析师,在企业资源有限25计算 2030的情形下,通用的、复用率高的数据分析任务将作为最高优先级,而业务更偏个性化、复杂化的长尾数据分析需求难以得到响应和满足,造成企业“有数难用”的现状。基于大模型实现对话式数据分析的具体实现技术路线包括 Text2Sql、Text2Graph 等。Text2SQL 通过大模型解析用户输入的自然查询语言(文本)并生成 SQL 语句,而 Text2SQL 将用户 query 自然语言转化为图数据库查询语句,比如常见的查询 RD51、F 的 sparQL语句、Nebula Graph 图数据库里的 Cypher 查询语言。对话式数据分析 Text2Graph 也面临如下技术挑战:自然语言准确理解、克服数据噪声与不完整性、图结构数据的动态更新、海量数据全自动加速处理的挑战。趋势 3:多模向量数据库会成数据库未来趋势,通过一库实现多模数据查询、检索,助力 AI 走向 AGI。根据 Gartner 的预测,非结构化数据占企业生成的新数据比例高达 90,并且增长速度比结构化数据快 3 倍。到 2030 年,全球向量数据库市场规模有望达到 500 亿美元,国内向量数据库市场规模有望超过 600 亿人民币。多模向量数据库支持处理多种数52、据模式混合通过向量实现数据检索,例如支持结构化表、KV、文档、图像/视频、(关系)图、时序数据的进行检索。相较于通用大模型,基于向量索引的图数据库所存储的具体行业知识,领域大模型更精通特定行业的知识,具备高效的语料匹配能力和知识推理能力,能够有效回答用户的提问。而当前各类数据库是各自为政、各有各自适合应用领域:向量数据库解决非结构化数据相似度检索问题。通过把非结构化数据 embedding 成向量,通过向量的相似度检索来实现非结构化数据的相似度搜索;图数据库能够很清晰揭示复杂的模式,不像关系数据库那样使用严格的表,也不像向量数据库那样按相似性组织数据,而是以图结构存储数据。未来多模态数据库核心53、聚焦在多模态数据集成与互操作性、高效的存储和统一查询机制优化策略、数据一致性和支持复杂的事务处理。具身智能具身智能是指有身体并支持物理交互的智能体,如智能服务机器人等。各通用具身智能相关公司都在崛起,还处于产业导入期,预计到 2030年将达千亿美元市场规模,2B 制造装配成熟期最早,2C 场景最通用。大模型的兴起已经深刻的改变了具身智能的发展:基于语言大模型 LLM、多模态大模型 MLM的具身智能大脑大模型、基于视觉语言大模型VLM 的 VLA 视觉-语言-动作的小脑大模型成为业界主流的发展方向。预计在 2030 年左右,具身智能将普遍使用 TB 级多模态大脑大模型,能够流利的与人交互,理解人54、类下发的任务,推理其中内在的逻辑,将复杂任务分解为一步步可执行的子任务或者动作,并能精准流畅的执行各种动作。具身智能的发展给大模型带来算法挑战。首先,物理时空认知能力不足,需要突破多模态时空认知 I/O 架构及联合训练框架。构建基于 MDP建模的统一编解码多模态 I/O 框架,引入基于3D/4D 自编码器的时空表征和任务/技能驱动的图像生成技术,结合具身-Web数据联合训练,实现 3D/4D 物理空间认知能力提升。其次,缺乏自动化高质量数据构建系统。需要突破基于graph 构造含 3D 空间语义的结构化场景表征及任务驱动的图随机游走机制,构建多模态具身任务多样化自主生成通路;结合环境交互闭环实55、现高质量数据自动化生成。另外,当前具身长时序任务规划能力不足,需要突破基于具身技能层世界模型的多模态 XoT 推理,构建基于MDP 的多模态具身技能层世界模型,实现技能感知的状态转移预测和任务感知的奖励预测;基于主动搜索实现结构化多模态 XoT 技术,实现可解释长时序规划从 1 秒到 1 分钟的突破。最后,具身知识存储及复用也存在不足,需要通过持续物理世界交互积累长短期记忆,构建长记忆结构化压缩&记忆链&符号性记忆机制,26计算 2030实现对历史经验的高效存储及检索,辅助具身决策和演化。具身智能的发展也需要仿真的关键技术突破。首先,仿真真实度需要提高逼真度与域迁移能力:更真实的相机与深度传感56、器建模,减少真实与仿真数据的域差异;大规模主动域随机增加多样性,寻找域差异小的中间表达,并通过模型训练效果作为指标对仿真器参数进行调优;通过基于机器学习的物理仿真,AIGC 端到端数据生成,综合覆盖现有物理仿真难以覆盖的场景;其次,仿真需要低成本高质量资产构建:通过神经渲染技术构建真实的物体与场景的数字资产库;CG 与 3DGS 混合渲染技术和大模型生成方式构建逼真可交互的三维环境,相比传统建模/重建效率提升 10 倍以上;生成多样化的场景与任务配置,并通过半自动质检,提供丰富的训练数据与环境。3.1.2 自动自治 AI目前,深度学习的开发及应用并未突破主流监督学习的模式,数据清洗、数据标注,57、模型的设计、开发、训练和部署等都需要大量人力投入。人力标注无法应对数据的爆发增长(十、百亿级数据集)。迁移学习、小样本、零样本、自监督、弱监督、半监督、无监督及主动学习等新方法,将推动人工智能最终实现“自治”,解决模型训练、迭代、设计对人工的依赖。未来 AI 自治使得模型更加归一,多种任务共享相同的模型结构,数据规模进一步扩大,99%以上的数据将是 AI 生成的。不再需要人工干预,模型可以在线学习吸收新的数据知识,实现自身能力的迭代提升。基础大模型的训练迭代周期,将从几个月下降到天级。数据规模扩大及在线学习将使模型的生产更加集约化,各行业的业务模型会汇聚成几个甚至一个超大模型。自治AI 仍面临58、如下挑战:1、从依赖人工显式标注转向自监督,由训练过程中转向执行过程中同步自反馈。2、目前模型学习到的表征都是自然产生的,多次训练的模型内在表征大相径庭,需要克服灾难性遗忘,在线持续学习,形成流式训练、训推一体。3、超大比例合成数据,可能导致 AI 模型因低质量信息而“自我中毒”导致模型“崩溃”。需要提升合成数据技术逼近真实数据分布;主动学习优先选择那些模型最不确定的数据点,帮助模型更好地学习边界情况;建立反馈循环机制,使得模型可以从实际应用中学习,并将新知识反馈到训练过程中。27计算 20303.1.3 类脑智能类脑智能作为实现下一代智能系统的重要技术方向,将从类脑基础硬件、类脑芯片、类脑软59、件框架、类脑模型与算法等多个方面对现有技术进行颠覆式突破。类脑基础硬件包含类脑传感器和类脑神经元和突触模拟器件等,是设计类脑计算硬件平台的基础单元。其中类脑视觉传感器将从实验室级别的低分辨率逐渐发展到高分辨率(8k)、高帧率(1000Mfps)、高抗噪性的视觉传感,并借助类脑视觉传感、类脑多模态传感与传统传感器的融合,实现大规模商业应用。类脑芯片将进一步实现存算融合、众核异步、在线学习等特性,构建传统 AI 芯片和神经形态芯片的异构融合系统,单芯片神经元规模达到100 万级,多片互联的神经元规模支持亿级,神经形态计算的突触数量突破 100 亿,相比于当代的 AI 芯片提升 100 倍以上能效。60、同时,基于类脑芯片系统的配套软件框架将发展出完整生态支持算法快速部署和优化。类脑模型和算法方面,一方面大规模的脉冲神经网络将从图像领域逐步扩展到多模态领域,实现千亿级别参数的多模态脉冲大模型展现极致能效;另一方面,为实现功能和能效的最优平衡,将发展出非纯脉冲的,基于类脑神经元、类脑突触融合现有深度学习框架的新型融合神经网络,并催生脑启发的 Transformer-next 新型架构。整体看来,在短期内,类脑智能将融合传感器、芯片、算法的研究成果,在端侧/边侧等能耗敏感的场景中实现感存算一体的高效智能系统;长期看有望结合深度学习的发展,并进一步借鉴认知智能,实现实时相应、极高能效、可解释、可信赖61、的 AI 系统,在端侧和云侧构建异构高效、高智能系统。在实现过程中,需要重点突破以下技术点:1)类脑基础硬件需突破异构半导体之间的协同设计与协同仿真,构建适配神经元和突触动力学的 CMOS 和 beyond-CMOS 器件。2)类脑芯片和软件框架需重点基于脑启发的稀疏计算、流式计算、事件触发等机制,突破存算一体、众核异步的高能效异构融合架构,并通过软硬协同设计使能片上在线学习算法。28计算 20303)类脑模型和算法需借鉴多尺度结构化记忆机制,实现类脑稀疏时空记忆模型,突破下一代大模型的基础架构;通过局部学习、自反馈学习、演化学习等多元学习方式,突破智能体的自主学习。3.1.4 知识计算人工智62、能在行业中的应用,要能够通过跨学科的领域专家知识进行综合决策,形成完善的知识抽取、知识建模、知识管理、知识应用的技术体系。2030 年,知识计算的知识抽取将从小模型实现文本、结构化特征向量化,走向多模态大模型知识对齐、抽取与融合,模型规模将增长 1000 倍以上。复杂任务知识抽取,跨领域综合知识抽取等复杂、多层次知识发展的跨越,知识抽取与知识使用的鸿沟进一步缩小;知识建模则从垂直场景知识图谱/向量数据库,走向垂直场景知识与世界模型的融合,知识数据库的使用将增长 100 倍以上。而此时,知识将不仅是模型的提示词输入,知识将具备引导模型的能力,知识的应用从简单的查询、预测、知识素材的理解,走向因果63、推理、长距离推理、知识迁移等高阶认知方向发展。知识计算的应用需要在算法上突破多模态世界模型知识抽取、不定长的知识引入、符号式推理技术、不确定性推理等技术。多模态世界模型知识抽取:面临的挑战是如何有效地融合至少 5 种不同模态的信息(文本、图像、音频、视频、传感器),并确保它们之间的一致性。不定长知识处理:不定长的知识引入不仅需要解决关系长度不一的特征,还需要表达复杂的多层次属性和关系。符号式推理技术:符号式推理需要突破大模型识别能力与符号逻辑系统的可解释性和精确性相结合。不确定性推理:解决模糊逻辑和概率论的概率符号逻辑,以更好地应对现实世界中数据的不确定性。使用概率编程语言来定义和执行符号推理64、任务,更好地处理不确定性。在认知智能的训练模式上,需要突破训练推理时高频度知识检索、知识结合的训练特征提升、大规模知识图谱的自动化构建等。高频度知识检索需要高效准确的索引技术:高效的检索数据结构(如哈希)深度结合大模型语义的词嵌入。知识结合的训练特征提升:多模态世界模型,将不同来源的信息有效地整合在一起,捕捉到不同层次知识关联性的特征;更有效的元学习/微调算法利用现有知识进行迁移学习。大规模知识图谱的自动化构建:LLMOps 结合AI Agent 技术,进行全自动实体链接与关系抽取,改进数据质量;同时自动化知识图谱反哺训练,进一步提升训练效果。在计算上,需要解决高频度的随机检索训练与推理,能并65、发处理超大规模知识数据、高速数据通路、大规模图式计算、结构采样的图式计算等问题。到 2030 年知识数据的规模将增长1000 倍以上,突破 PB 级,数据库将需要支持大规模并发访问分布式存储系统与分布式数据库;更高速可扩展的高速网络架构;大规模图式计算:包括复杂的图查询,大规模并行图算法;结构采样的图式计算:图抽样技术,不断增长的图数据,可以使用增量学习方法等。2829计算 20303.2 内生安全计算云化打破了传统安全边界,AI 大模型带来了新的安全威胁,传统基于信任域划分的外挂式安全防护方案已经无法应对各种新型攻击方法的挑战。安全应该具备内生的特点;1)安全是系统的内生能力,是芯片、固件、66、软件、模型必备的基本特性;2)安全贯穿存储、计算、传输等数据处理的全过程,以抵御各环节安全攻击;3)硬件构建安全信任根,由于系统权限分级的原因,安全功能需要基于硬件的最高特权来实现,才能在操作系统及应用上提供可靠的安全服务,并且通过硬件加速的方式来提升安全服务的性能。4)安全开源开放,为了使安全服务能充分融入到各个业务软件中,安全服务应以开源开放的形式提供,让业务软件结合自身软件架构特点,将安全特性融入到业务中,从而保证业务安全。3.2.1 数字信任与隐私在数据处理环节,本质是算法施加算力于数据。如果这 3 个要素全部由数据所有者控制,则不涉及数字信任与隐私问题;但云计算导致要素分离,算法与算67、力都是由 CSP 提供,用户(数据拥有者)需要上传数据到云端处理,即使用户信任 CSP,也无法信任 CSP 拥有特权的管理员。因此云计算场景下安全的主要挑战在于如何保护用户数据与隐私,需要重建数字信任体系。数据数据数据拥有者算法数字身份:数据确权数字身份:数据确权1同态加密/安全多方计算:密态计算23Cloud算力算力30计算 2030为重建数字信任体系各国政府相继出台数据保护法,为数字信任体系的建立确立了法律依据。同时,数字身份、数字证书与隐私计算成为重建整个数字信任体系的关键技术,其中数字身份是数据确权的基础,数字证书是保证数据安全的基础,隐私计算可以在保护数据本身不对外泄露的前提下实现数68、据分析处理:因为历史原因,数字根证书都是由软硬件厂商颁发,特别是可信计算、机密计算等根证书都是固化在芯片内部,绑架了客户信任选择权。因此建立开放的数字根证书基础设施,广大设备制造商开放数字根证书导入能力,还信任选择权于客户,是保证未来数字社会公平公正的基础。数据库数据库证书发布证书吊销数据库SHIM/驱动代码构建验证密码机密码机密码机根 CA二级 CA认证服务安全检测与防护安全检测与防护防火墙防火墙防火墙根 CA 服务(离线)二级 CA 服务认证服务区OS 厂商/社区3rd安全运营机构提交签名代码获取证书链生成签名证书机密虚机HOST OS服务器厂商BIOS可信计算芯片机密虚机数据安全根证书数69、据安全根证书OS 安全启动根证书软件根证书31计算 20301、基于 TEE 实现敏感数据处理的硬件隔离技术,主要挑战在于硬件安全隔离机制实现的完备性无法用数学证明,难以自证清白,存在安全漏洞风险。但和密码学技术相比,TEE 对性能影响小,未来基于 TEE 的隐私计算将成为公有云、互联网以及企业重要业务的普遍需求,预计 2030 年50%以上的计算场景将使用该技术。2、基于密码学的同态加密、安全多方计算技术因其安全性在数学上可证明,从而成为业界公认最理想的隐私计算技术。但主要挑战在于其性能比常规计算降低一万倍以上,需要大幅度提升才能满足应用需求。随着近似算法的成熟,同态加密、安全多方计算技术在70、人脸验证、健康数据分享等特定领域已获得应用。未来,突破基于硬件加速的同态加密、安全多方计算技术,将在金融、医疗等行业的高安全应用场景获得广泛商用。yyyyx1x2x3x4SMPC 协议y=f(x1,x2,.,)SMPC 协议y=f(x1,x2,.,)Computation nodesComputation nodes解密密钥公钥加密模型解密结果解密结果私密数据保密算法模型数据解密结果密文数据拥有者数据计算硬件系统软件系统软件安全计算加解密通信计算系统非安全侧(REE)安全侧(TEE)密文密文明文3、多方计算的基础是多方之间共享秘密分片,如果通过零知识证明等密码学方法实现,性能开销非常大,利用 71、TEE 来实现多方之间的秘密分片共享,不但可以大幅提升多方计算性能,而且在信任 TEE 的基础上安全性可数学证明,未来有广泛的应用前景。32计算 20303.2.2 AI 安全可信近年来 AI 日益在医疗、自动驾驶等关键领域的普及应用。随着以生成式人工智能为根基的大语言模型(Large Language Model)表现出强大的对话、理解、推理、多任务能力,越来越多的厂商正致力于在不同的场景、行业、领域中基于 LLM 构建更为强大的 AI 应用。AI 作为数字化变革的核心驱动力,AI 正在成为各行各业重塑经济社会发展形态的智能化关键基础设施,同时 AI 也面临日趋严峻的安全挑战:1)AI 模型72、和训练数据是 AI 应用厂商的核心资产,如果保护不善可能被窃取或恶意逆向恢复。2)AI 模型本身存在脆弱性,导致针对 AI 模型的对抗样本和药饵后门等攻击越来越多,在关键领域中使用的 AI 模型被攻击导致误判将带来严重后果。3)随着 AI 越来越强大,人类对 AI 顾虑也日益增长,AI 监管合规与治理成为 AI 生态中各参与方的必选项,需要创新的技术手段支持AI 治理、安全对齐、对多参与方的责任追溯。为应对 AI 日益严峻的安全挑战,实现负责任的AI(responsible AI):1、AI 模型与训练数据静态保护:AI 模型与训练数据需要通过加密、强制访问控制、安全隔离等手段保证 AI 模型73、与训练数据在收集、训练及使用阶段的全生命周期安全。核心挑战在于如何对 NPU 芯片的高带宽的内存数据进行实时的密态处理,并确保性能无损。未来需要突破高性能、低时延的内存加密算法,以及突破NPU 片上的内存硬件加密引擎的架构设计,提供全生命周期的保护能力。2、AI 模型与隐私动态保护:在模型的微调、推理阶段,通过新型模型/数据混淆算法、AI机密计算保证 AI 模型以及用户隐私数据在微调、推理阶段的安全。其核心挑战在于 1)AI机密计算应构建覆盖模型/数据处理全链路的“可用不可见”方案,构建用户对机密计算环境的信任;2)新型模型/数据混淆算法应超越原有混淆算法强度低、易被逆向的局限性,基于硬件 T74、EE 为模型/数据提供更高安全强度的防护。AI 计算平台AI 模型厂商管理运维平台Atlas 基础平台AI 作业平台训练节点训练节点加密的模型 数据(容器)推理节点KMS可信执行环境模型存储训练任务下发加密模型部署推理服务器/边缘节点训练数据/脚本上传加密模型 数据(容器)模型下载客户端 SDK训练数据模型33计算 20303、针对 AI 模型的新型攻击的检测与防护,1)在机器视觉场景下,通过增加外部对抗样本检测模型实现对对抗样本(闪避)等 AI 攻击的识别,阻断攻击路径,防止 AI 模型受到攻击后产生误判。主要挑战在于持续的进行对抗训练以适应新的攻击类型,未来会出现针对 AI 攻击的独立安全75、产品与服务。2)在大语言模型场景下,通过增加专门的攻击检测模型实现对新型提示注入攻击的检测与防护,保护大模型驱动的 AI应用免收代码注入攻击的影响。主要挑战同样在于需要对攻击检测模型进行持续训练与升级。4、除上述针对已知攻击手段所做的防御之外,也应增强 AI 模型本身的安全性,避免未知攻击造成的危害。包括增强模型鲁棒性、模型可验证性以及模型可解释性,以及大模型的安全对齐,确保人工智能系统的行为和决策与人类的价值观、意图和利益保持一致。通过对抗训练,提高抗攻击能力是 AI 模型安全能力提升的主要技术路径;对抗样本的泛化能力,模型正则化将是需要突破的关键技术;未来对抗鲁棒性有望从当前较低的水平提升76、到 80%。未来针对小模型存在有效的形式化验证方法,可证明模型的安全性;面对大模型的形式化验证还面临巨大的挑战。为了防止 AI 带来业务法律风险或者逻辑风险,需要了解 AI 模型做出判断的依据。未来通过建模前的“数据可解释”,可以构建事前“可解释模型”。目前线性模型基本都具备可解释性。针对非线性模型,还将面临巨大的挑战,目前还无法做到 AI 模型的全局可解释,但是,对网络模型的分层可视化和局部可解释,将会是未来很长一段时间的辅助技术路径。而对于更加复杂的大模型,模型的可解释性变得更加困难,已经有研究者提出“人脑也不可解释”,提示应当更多地关注大模型的可靠性以及实现大模型与人类价值观的对齐(避免77、危害)。构建与人类价值观一致的安全模型,实现大模型的“超级对齐”,是一条可能的技术路径。5、当前 AI 产业已经演化出了复杂的生态,导致 AI 模型在其生命周期中涉及到不同利益相关方间数据、模型与利益的交换,形成了复杂的关系与责任。AI 模型的“黑盒”更进一步导致其透明性的缺失与溯源追责的困难。需要考虑借助现有的安全基础设施,引入可信的 AI BoM(Bill of Material)的概念,支持模型的透明可追溯性。同时,为了满足 AI 监管要求,未来在 AI 模型运行过程中必须持续监控与审计,并通过区块链等技术保证审计结果可信,实现 AI 问题实时可追溯。数据/模型(训练/开发/运行)日志海78、量日志的完整性证据RootH1-2-3-4H5-6-7-8H1-2H5-6H3-4H7-8H2H4H6H8H1H3H5H7Merkel Tree参与方鲁棒性可解释告警阻断推理请求对抗样本旁路检测管理运维平台Atlas 基础平台AI 作业平台应用网关推理节点推理节点攻击检测34计算 20303.2.3 新计算范式安全在以内存为中心计算场景下,算力下移,特别是内存计算 PIM 将算力下移到内存,导致传统内存加密机制失效,无法部署基于硬件的隐私计算技术。即使在应用层加密数据、数据处理过程中,也将是明文状态,从而导致无法防止特权用户、进程窃取数据。针对这种场景唯一的选择是部署同态、多方计算等基于密码学79、的隐私计算技术,从而建立用户对于算力提供商的信任。在多样性算力数据中心场景下,云化导致网络安全边界模糊,传统的基于边界的安全防护模式逐渐失去价值。针对这样的趋势,零信任安全架构 7 通过强化访问策略、主动监测、加密等技术以应对环境不可信的安全挑战。零信任安全架构与多样性算力发展趋势相结合确定了未来多样性算力安全技术走向:1、安全与在网计算架构相结合:零信任架构打破安全边界后需要更细粒度的权限与访问控制,实现动态的身份验证和资源访问策略,软件实现将占用大量 CPU 资源;在网计算架构中融入正则表达式硬件加速机制,可以有效提升策略执行效率 1015 倍。2、安全与多样性计算架构相结合:零信任架构假80、设网络环境不可信,无论在网络的任何位置,通信都应该加密,包括计算节点间、数据中心间。因此需要在多样性计算架构的每个 xPU 中融入加密通信的高性能硬件卸载能力,并支持后量子加密算法,以应对未来量子攻击风险。策略引擎公有云数据面用户控制面私有云网络计算节点网络计算节点硬件策略加速硬件策略加速计算资源计算资源网络流量CPUNPUGPUDPU计算任务访问控制点加密通信35计算 20303、安全与内存为中心的对等计算架构相结合:未来,在内存为中心的对等计算架构中,非易失性高性能的内存介质将会接入到系统的内存总线上,掉电后内存中残余的数据目前尚无加密机制,数据与隐私泄露风险将大幅度提升;在内存为中心的对81、等计算架构中如何实现数据安全将成为新的挑战。例如:在分布式集群系统中,面对跨数百计算节点共享的大内存,如何进行数据保护,实现内存访问的带宽性能下降逼近理论极限,W2W(Wafer to Wafer,晶圆片对晶圆片),uBump-Hybrid Bonding-Monolithic 3D 技术逐渐演进,应用场景将会广泛覆盖 Logic on Logic、3D Memory on Logic、及 Optical on logic 等,堆叠从 2 层同质堆叠逐步走向更多层异质堆叠。3D 互连 pitch 从 ump 级别微缩到 nm 级,未来5 年 1m 甚至更小 pitch 超高密 Bonding 82、技术在AI 等领域实现产品化。更小尺寸 TSV(Through Silicon Via,硅通孔)技术需要从材料、工艺基础技术深入持续探索;同时 3D 堆叠带来局部功耗密度和电流密度倍增,直接影响系统整体供电与散热路径。3D 芯片相对于传统 2.5D 封装在带宽及功耗性能优势显著,单 bit 功耗降低有望降低至 1/10。芯片出光,实现 T 级高带宽端口高算力芯片(如 xPU、Switch、FPGA 等)的 IO带宽越来越高,预计 2030 年,端口速率将达 T级以上。随着单路速度提升,100/200G Gbps以上的高速串行通信带来功耗、串扰和散热挑战,传统光电转换接口将无法满足算力增长需要,83、芯片出光相比传统方案端到端能效有望降低至 1/3。光电转换芯片和主芯片共封装(Co-packaged Optics),替代可拔插光模块(Pluggable Optics)和板载光模块(On-board Optics),芯片出光成为未来突破带宽瓶颈的关键技术。同时芯片出光面临 PIC(Photonic Integrated Circuit,光子集成电路)与 EIC(Electronic Integrated Circuit,电子集成电路)3D 封装,超大封装基板及 OE(Optical Engine,光引擎)集成,单芯片功耗密度提升等一系列工程技术挑战。38计算 2030超大功耗芯片供电技术探索84、算力需求与 Chiplet 技术持续推动芯片功耗提升,2030 年单芯片功耗会突破 3KW5KW,万瓦级 Wafer level 芯片需要更加创新及高效的供电策略。高压单级变换、开关电容混合变换等新型供电架构配合低压氮化镓(GaN)功率器件和高频集成磁等工程技术的应用,可以进一步提升单板供电的端到端能效和功率密度。高压进芯片供电技术与片内集成供电技术是解决超大功耗及超高电流芯片供电瓶颈的关键技术路径。基板、封装承受高压的材料研究与工艺改进是芯片高压直供的前提,同时高效的片上电压转换技术与分核供电技术也是关键研究方向。未来芯片层面创新散热技术探索随着计算芯片功耗的急速上升,散热已成为制约芯片性能85、提升的主要瓶颈之一,芯片散热架构从 Lidless-Timless 及芯片内嵌入微流道方向持续演进,新型创新散热技术与材料性能提升有希望支撑高功耗芯片散热能力提升。创新的散热技术将推动芯片工作结温从高温区 中低温区转变成为提升芯片能效的技术方向。超低温冷却技术探索随着温度的降低,CMOS 晶体管的电阻和漏电电流呈下降趋势,因此能耗降低,当温度从300K 下降到 150K 时,处理器每瓦特性能最大可有 4 倍提升。液氮可冷却至-196,液态二氧化碳可冷却至-55,但是如此超低温度对器件的材料、工艺、封装都具有很大挑战,同时需要对服务器冷却方案、数据中心的制冷方案进行全新设计。3.3.2 DC a86、s a Computer数据中心互连严重制约集群算力释放,亟需互连技术创新随着人工智能、超算、云等计算场景的快速发展,未来将会出现百万级的数据中心。重点要解决大规模分布式应用的算力效率问题,超级数据中心的高能耗问题,端到端散热问题。AGI 时代,数据中心的能耗将达 GW(十亿瓦特)级,超过一个核电机组的供电能力,迫切需要持续提升数据中心的能效,降低基础设施的供电压力,匹配各国低碳数字经济的建设要求;在总线互连层面,基于高速总线的超节点架构39计算 2030和资源池化提升算力效率;在 DCN 层面,芯片出光、OXC 光交换技术的应用有望实现全光DCN,结 合 3D Fullmesh/Dragon87、fly/Torus 等新型网络拓扑创新可减少 50%以上光模块的成本和能耗;广域超宽无损 DCI 能力的突破,支持千公里级跨域并行训练(50Tbps DCI70%线性度),在区域电网容量约束下,实现跨域训练成为可选方案之一。以总线技术的发展为例,高速总线 C2C 读写时延有望低于百纳秒,接近主存时延,预计 2030年,400G/800G SerDers 将会进一步成熟,通信协议具备内存语义和高速缓存一致(Cache-Coherent)性,使超节点内部带宽达到 6.4T 以上;通过计算池、内存池、硬盘池等资源池化,形成集约化、按需组合的业务处理单元,提升50%以上利用率。以降低 DCN 互连功耗88、为例,当前基于传统胖树的 10 万卡集群总能耗中,互连(交换机+光模块)能耗占比约 40%;在以 400G 和800G 光模块为典型配置的 51.2T 和 100T 交换机中,光模块加驱动 SerDes 的功耗占比在4045%。预计到 2030 年,在 400G+SerDes和 6.4T 光模块代际时,OSFP 光模块功耗、SerDes 驱动距离将成为很难突破的瓶颈,CPO(Co-Packaged Optics)可 能 会 是 一 个 比 较好的解决方案。LPO(Linear-drive Pluggable Optics)与 OSFP(Octal Small form Factor Plugg89、able)相比因为去掉了 DSP 器件,虽然节省了近 50%的功耗,但是带来了误码问题,所以传输距离一般限制在 100 米以内,硅光技术可以支持更远的距离,但是成本结构仍然无法满足大规模、低成本组网的诉求。而以 DAC和 AEC 为代表的低功耗电互连受原理限制,一般应用在 5 米以内的范围。CPO 与 LPO 等可插拔光模块相比,进一步压缩了电互连在 PCB 内的距离,即大大降低了 SerDes 驱动所需的功耗,具有功耗低、传输距离远(500 米)、时延小的优势,在解决了可靠性等问题后,加上 OXC等光交换技术,集群网络的互连有机会全部切换为 CPO 解决方案。39OXC AOXC BOXC 90、N全光交换机超节点 ACPOCPOCPO 100 米 100 米 500 米服务器服务器CPO2 米服务器服务器CPO2 米全光交换机超节点 NCPOCPO 100 米 100 米服务器服务器CPO2 米服务器服务器CPO105 cm2/Vs,硅的 100 倍)、原子级厚度。相比硅基晶体管,在器件尺寸极端缩减的情况下,碳纳米管晶体管可提升约 10 倍能效。碳基半导体材料同样有望用于替代硅基材料延续摩尔定律,或与硅基芯片进行异质集成。目前已有基于碳基场效应管的生物、气体传感器产品,近年有望实现小规模商用。此外,碳纳米管晶体管具有超高截止频率及柔性,未来五年可探索用于射频、柔性电路及芯片。面向大规91、模集成电路,则需要改进碳纳米管制备工艺,降低表面污染和杂质,提升半导体纯度和顺排一致性;同时还需要优化接触电阻和界面态,提升器件性能;另外配套碳基半导体的EDA工具还需要完善,通过小规模电路验证端到端成熟度。展望未来十年,当碳纳米管器件的尺寸能够微缩到与硅基先进工艺相当时,在高性能、高集成度的集群计算等场景将迎来规模应用的机会。54计算 20303.6.3 光交换与光互连光交换:大规模、低时延、低功耗的端口级交换技术AGI 驱动百万亿参数 AI 大模型,算力需求激增,智算集群大规模、高性能、高可靠成为三大关键需求;业界对光电混合集群优势和价值达成共识,谷歌已大规模商用部署光电混合 DCN 网络92、,其他互连网服务商也积极投入研发,2025 年商用部署;CCSA 启动 OXC 标准制定,推动产业化。当前 3D MEMS 技术已成为端口光交换主流技术,可以扩展至千端口以上,支撑构建百万卡 AI 智算光电混合集群网络,具有如下特点:1、大规模:光交换端口数量 2561K,支持集群组网弹性扩展至百万卡规模;2、端口速率无关:协议透明,兼容光模块多代际速率 800G/1.6T/3.2T 等3、高可靠、低功耗:光交换功耗百瓦级,提升机房部署密度;免光模块设计,提升网络可靠性。业界已攻克 300 端口规模的 MEMS 微镜阵列、集成封装、控制算法、FAU 阵列等关键技术,端口光交换已规模商用;预计 93、2030 年,千端口光交换技术将支撑构建百万卡智算集群光电混合组网。光互连:低成本、低功耗、高可靠、智能化的数据中心短距互连 AI 驱动了光模块的加速迭代,光模块容量演进的周期由每 34 年提速一代缩短为 2 年。当前 400GE(8 通 道*50G/Lane,4 通 道*100G/Lane)光模块已经批量发货。800GE(8 通道*100G/Lane,4通道*200G/Lane)光模块加速商用。为了打造有竞争力的智能算力底座,在 AI 超节点及集群网络中通过光电器件、光电模块与光算法、光系统的联合优化,实现联算比、可靠性、能效比提升,支撑AI超节点及集群互连竞争力的构建。根据流量需求和场景特94、征开展短距光技术的快速迭代:通过低成本光发送和接收、光源分光共享、简化封装、直驱技术等路径,持续降低光互连的成本和功耗;通过系统的层次化设计,如光模组封装创新设计、系统协议协同调度保护等,提升光互连网络的可靠性。面向互连故障的智能预测和快速定位,持续挖掘信道、系统和算法的机会点并开展布局,以提升 AI 训练效率。55计算 20301、低成本:业界布局了低成本光 I/O、直接调制VCSEL、简化封装光 POD、光源分光共享等路径;通过简化、集成、共享等手段,提升光模块的成本竞争力。2、低功耗:在每通道 200G 代际,光模块总功耗或将超过交换芯片功耗,业界布局直驱等技术,有望使光模块功耗降低 395、040%。3、高可靠:光模块故障是影响集群训练效率的主要因素,业界布局多项技术提升光源可靠性、光模组封装可靠性,通过系统和协议层面的协同调度保护,提升光互连网络的系统级可靠性。4、智能化:光互连故障的智能预测和快速定位,对提升 AI 训练效率有较大帮助,业界正在挖掘信道、系统和算法等方面的联合优化机会,提升智能运维水平。展望未来,400G/Lane 光接口技术预计 20252026年出现原型,20272028 年商用;业界布局 400G SerDes 和电接口,预计 2030 年之前商用。3.6.4 新型存储介质AGI 大模型训练,对高带宽数据读写、长周期数据保存提出巨大需求,围绕数据全生命周96、期的热、温、冷差异,未来存储介质将向高速高性能和海量低成本两个方向演进。新型内存型介质及存内计算技术当前热数据主要存储在 SSD 中,搬移到 DRAM/GDDR/HBM 中 处 理。SSD 时 延 与 DRAM 相 差1000 倍,而 DRAM 受物理特性的限制、密度难以继续扩展,SSD 和 DRAM 都无法完全满足热数据存储的需求。近年来,业界涌现出许多存储级内存(SCM)及新型内存介质,如 3D Xpoint、SOM(selector-only memory)、FeRAM 等。这些新介质通过3D 堆叠有望在容量、成本、可扩展性等方面超越 DRAM,且性能优于 SSD、支持字节级访问和持久化97、,可用于内存扩展及 IO 增强,但仍需在材料和工艺可靠性上取得突破。此外,基于HBM、DRAM 的存内计算(PIM)技术,可用于大模型推理过程中的一部分计算,大幅减少数据搬移、降低功耗。面向 2030,热数据面临如下挑战:1、容量的挑战:到 2030 年,热数据总量将提升60 倍,达到 10ZB;热数据介质的存储密度至少需要扩大十倍左右,达到当前 SSD 的 1Tb/die 级别;同时还要支持按需扩展,不受处理器/内存接口、网络时延和带宽的限制。2、能耗的挑战:在“碳中和”的背景下,大量实时访问的热数据存储介质也面临功耗的巨大挑战。56计算 2030高密度、低成本的 3D NAND 闪存介质未98、来大部分热数据需要从温数据中产生,温数据存储介质需要兼顾性能、容量和成本。3D NAND闪存已取代 HDD 作为温数据的主要存储介质,向多值单元和更高堆叠层数演进。未来新型全闪存将成为主流,将有 70%以上的企业存储基于全闪存。预计 2030 年,温数据总量将提升 45 倍,达到16 ZB。在保持性能和寿命的前提下实现容量扩展和成本下降,闪存介质具有如下挑战:1、多值单元的性能和寿命挑战:预计 2030 年,存储单元将从当前 QLC 演进到 PLC、HLC 等,每多存储一个比特数据,操作电压级数将增加一倍,读写性能和寿命下降数倍。2、更高堆叠层数的工艺挑战:预计 2030 年,堆叠层数将从当前99、的百层量级达到千层量级,介质硅通孔宽深比将达到 120 比 1(或提升 1 倍),带来巨大的加工难度。大容量、长寿命的磁、光存储技术预计 2030 年,冷数据存储规模将从 1.2ZB 增至26.5ZB,同时存储寿命需要提升 510 倍。以中国国家档案馆为例,关键档案数据规模将从 100PB增长到 450PB,数据存储寿命要从 100 年提升到500 年,传统的硬盘将无法满足需求。磁带的存储容量持续演进空间大,将成为归档存储的主流。预计2030年,LTO磁带单盒容量将从当前18TB演进至72或144TB,且未来具有574TB的潜力。此外,光存储介质寿命可达 50 年以上,综合总持有成本最低。随着100、石英玻璃、有机玻璃等新型透明体材料取得研究突破,光盘也有望成为海量冷数据的存储介质。磁带和光盘存储存在如下挑战:1、磁带需在介质寿命周期内,应对温、湿度等各种复杂环境变化,提升数据保存时间;2、相比现有蓝光光盘,未来光存储需要将容量提升 10 倍,达到单盘 5TB、单盒 60TB,每 bit 成本下降为 1/5,才能取得竞争优势。57计算 2030计算 2030 倡议计算在过去的半个多世纪中加速了科学进步和经济发展,已经深深融入了人类社会的方方面面,是全人类的共同财富,也是未来智能世界的基石。面向 2030 年,计算将更加开放和安全,每一个人、每一个组织都能够平等的参与未来计算产业的构建和创新101、,共享计算技术创造的价值。让我们共同努力,开创计算新时代!0458计算 2030附录 A:参考【1】Zettabyte(ZB),Yottabyte(YB):数据存储容量单位,1ZB=1021Byte,1YB=1024Byte【2】华为预测,2030 年通用算力(FP32)3.3ZFLOPS,对比 2020 年增长 10 倍,AI 算力(FP16)864ZFLOPS,对比 2020 年增长 4000 倍;FLOPS:每秒浮点运算次数;EFLOPS:一个 EFLOPS(exaFLOPS)等于每秒一百亿亿(1018)次的浮点运算;ZFLOPS:一个 ZFLOPS(zettaFLOPS)等于每秒十万亿102、亿(1021)次的浮点运算【3】参考中国工程院院士李德毅在首届中国智能教育大会上的讲话,2018【4】中国关于加快煤矿智能化发展的指导意见2020.03【5】欧洲核子研究中心 CERN,https:/home.cern/science/computing【6】DevOps,敏捷开发和开发运维一体化【7】Forrester 分析师约翰 金德维格在 2010 年提出零信任安全架构59计算 2030附录 B:缩略语缩略语英文全称中文全称3D3 Dimensions三维AIArtificial Intelligence人工智能APIApplication Programming Interface应用103、程序接口ARAugmented Reality增强现实BPBack Propagation反向传播CDUCoolant Distribution Unit冷量分配器CERNEuropean Organization for Nuclear Research欧洲核子研究组织CPUCentral Processing Unit中央处理单元CSPCloud computing Service Provider云算力提供商D2WDie-to-Wafer芯片到晶圆DCData Center数据中心DNADeoxyribonucleic Acid脱氧核糖核酸DPUData Processing Unit数104、据处理单元DRAMDynamic Random Access Memory动态随机存取存储器EDAElectronic Design Automation电子设计自动化EFLOPSexa Floating-Point Operations Per Second每秒浮点运算百亿亿次EICElectronic Integrated Circuit电子集成电路FeRAMFerroelectric Random-Access Memory铁电式随机存取内存FPGAField Programmable Gate Array现场可编程门阵列GANGenerative Adversarial Network105、生成式对抗网络HDDHard Disk Drive硬式磁盘驱动器60计算 2030缩略语英文全称中文全称HL-LHCHigh Luminosity-Large Hadron Collider高光度大型强子对撞机HPCHigh-Performance Computing高性能计算ICTInformation and Communications Technology信息和通信技术IOInput/Output输入输出KAKiloampere千安培MMMolecular Mechanics分子力学MRMixed Reality混合现实MRAMMagnetoresistive Random-Acces106、s Memory磁性随机存储器NISQNoisy Intermediate-Scale Quantum嘈杂中型量子NLGNatural Language Generation自然语言生成NLPNatural Language Processing自然语言处理O2OOnline to Offline线上到线下OAMOrbital Angular Momentum轨道角动量OEOptical Engine光引擎PCMPhase Change Memory相变存储器PBPetabyte拍字节,千万亿字节PICPhotonic Integrated Circuit光子集成电路PIMProcessing107、-In-Memory内存内处理PUEPower Usage Effectiveness能源利用效率QLCQuad-Level Cell四层式存储单元61计算 2030缩略语英文全称中文全称QMQuantum Mechanics量子力学REERich Execution Environment富执行环境ReRAMResistive Random-Access Memory可变电阻式内存SDKSoftware Development Kit软件开发工具包SRAMStatic Random-Access Memory静态随机存取存储器SSDSolid State Drives固态硬盘TEETrust108、ed Execution Environment可信执行环境TIMThermal Interface Material热界面材料ToFTime of Flight飞行时间TSVThrough Silicon Via硅通孔UPSUninterruptible Power Supply不间断电源VRVirtual Reality虚拟现实W2WWafer to Wafer晶圆片对晶圆片Wafer LevelWafer Level晶圆级WLCWafer Level Chip晶圆级芯片xPUx Processing Unit泛指各种处理器XRExtended Reality扩展现实YBYottabyte109、尧字节,一亿亿亿字节ZBZettabyte泽字节,十万亿亿字节ZTThermoelectric Figure of Merit热电优值62计算 2030附录 C:致谢计算 2030 编写过程中得到了来自华为内外部多方的大力支持,300 多位来自华为的专家和社会各界知名学者参与了材料的讨论、交流,贡献思想、共同畅想了 2030 年计算产业的发展方向和技术特征,在此对所有参与技术交流和讨论的学者们致以诚挚谢意!(学者名单按照姓名字母排序,不分前后)Andr Brinkmann(美因茨大学,教授)Bill McColl(前英国牛津大学教授)陈文光(清华大学,教授)冯丹(华中科技大学,长江学者特聘教授110、)冯晓兵(中科院计算所,研究员)甘霖(清华大学,副研究员)管海兵(上海交通大学,长江学者特聘教授)过敏意(上海交通大学,教授,IEEE Fellow,欧洲科学院院士)Jarosaw Duda(雅盖隆大学,助理教授,ANS 压缩算法发明人)贾伟乐(中科院计算所,副研究员)金海(华中科技大学,长江学者特聘教授,IEEE Fellow)金钟(中科院计算机网络信息中心,研究员)缪向水(华中科技大学,长江学者特聘教授)Onur Mutlu(苏黎世理工大学,教授,ACM&IEEE Fellow)潘毅(中科院深圳理工大学,教授,美国医学与生物工程院院士,乌克兰国家工程院外籍院士,英国皇家公共卫生院院士)舒继111、武(清华大学,长江学者特聘教授,IEEE Fellow)孙家昶(中科院软件所,研究员)田臣(南京大学,副教授)田永鸿(北京大学,教授)王金桥(中科院自动化所,研究员)吴飞(浙江大学,教授)谢长生(华中科技大学,教授)薛巍(清华大学,副教授)杨广文(清华大学,教授)郑纬民(清华大学,教授,中国工程院院士)63计算 20302024 年版本刷新说明 华为积极与业界知名学者、客户、伙伴深入交流,投入对智能世界的持续探索。我们看到智能世界的进程明显加速,新技术和新场景不断涌现,产业相关参数指数级变化。为此,华为对 2021 年发布的计算 2030进行系统刷新,展望面向 2030 年的场景、趋势,并对相112、关预测数据进行了调整。华为技术有限公司深圳龙岗区坂田华为基地电话:+86 755 28780808邮编:免责声明本文档可能含有预测信息,包括但不限于有关未来的财务、运营、产品系列、新技术等信息。由于实践中存在很多不确定因素,可能导致实际结果与预测信息有很大的差别。因此,本文档信息仅供参考,不构成任何要约或承诺,华为不对您在本文档基础上做出的任何行为承担责任。华为可能不经通知修改上述信息,恕不另行通知。版权所有 华为技术有限公司 2024。保留一切权利。非经华为技术有限公司书面同意,任何单位和个人不得擅自摘抄、复制本手册内容的部分或全部,并不得以任何形式传播。商标声明 ,是华为技术有限公司商标或者注册商标,在本手册中以及本手册描述的产品中,出现的其它商标,产品名称,服务名称以及公司名称,由其各自的所有人拥有。

    版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 举报,一经查实,本站将立刻删除。如若转载,请注明出处:http://lixiangbaogao.com/index.php/_qi______/6719.html

    加载中~

    相关推荐

    加载中~