![]() |
四川眉山,国家电网工作人员通过无人机开展输电线路巡检。 |
![]() |
中国电信临港智算中心。 |
习近平总书记指出:“加快发展新一代人工智能是我们赢得全球科技竞争主动权的重要战略抓手,是推动我国科技跨越发展、产业优化升级、生产力整体跃升的重要战略资源。”
为更好拥抱人工智能,国务院国资委部署实施中央企业“AI+”专项行动。中央企业在人工智能领域取得了哪些进展?未来将如何加快布局?记者进行了调查采访。
推动数据中心向智算中心转型,当好智能算力“提供商”
推动人工智能发展有三大要素:数据、算法、算力。其中,算力被称为人工智能的“发动机”。
“强大的算力,让大模型的训练成为可能,可以大幅缩短模型训练时间,支持模型进行实时分析和决策,并推动人工智能技术的迭代创新。”中国电信副总经理黄智勇说。
近年来,中央企业主动融入国家算力布局,加大算力资源投入力度。
从算力布局上看,既有满足大模型集中训练需求的大规模智算集群,也有满足推理算力需求的边缘节点。
例如,中国电信基本形成“2+3+7+X”智算布局,两大公共智算中心辐射全国,三大热点区域满足超大规模集群需求;中国联通加快推进数据中心向智算中心升级,建成300多个训推一体的算力资源池;中国移动建成了2个超万卡智算中心、13个区域智算中心及1500个边缘节点。
从技术能力看,我国万卡集群的设计建设能力实现新突破。
万卡集群是指由一万张及以上的加速卡(如GPU、TPU或其他专用AI加速芯片)组成的高性能计算系统,用以训练基础大模型。
以中国电信临港智算中心为例,其创新性地采用网络中置、算力分层的“魔方”型布局,巧妙绕过IB网络50米传输的局限,实现了单一集群内万卡高速互联。
从算力调度看,算力“高速公路”及算力平台正在加速打造。
为满足算力数据的流通需求,中国移动投用400G全光骨干网,编织了一张贯穿30个省(自治区、直辖市)及200多个城市的算力“运输系统”。“相比上一代干线网络,400G全光骨干网传输带宽提升4倍、枢纽间时延均低于20毫秒、关键主用链路时延降幅达20%、单比特能耗降低65%、单比特成本下降20%。”中国移动副总经理程建军说。
为更好统筹、调度算力资源,中国电信自研“息壤”平台,能够在全国范围内实现每分钟数万次、每天上千万次的算力统筹调度,满足千行百业对算力的需求。中国移动则推出“算网大脑”,实现通算、智算、超算、量算的统一调度,推动算力成为像水、电一样,可“一点接入、即取即用”的社会级服务。
“从目前态势看,算力基础设施依然是人工智能发展的重要支撑。下一步中央企业将持续加快智算资源建设。”国务院国资委规划局负责同志说,三大运营商要深度参与训练场建设,为训练更加复杂的AI模型提供算力支撑。
推出三大通用大模型,未来将持续提升模型能力
近年来,人工智能领域正在迎来一场由生成式人工智能大模型引领的爆发式发展。蛇年春节,深度求索(DeepSeek)横空出世,引发全球关注。中央企业在通用大模型领域又有哪些进展?
日前,中国移动推出自主研发的九天深度思考大模型,标志着九天大模型从“快速应答”向“深度思考”迈出重要一步。
会思考的九天大模型能干啥?“九天深度思考大模型具备数学推理能力、文字组织能力及丰富的行业知识,测试结果显示其在奥林匹克数学考试题中表现优异。”程建军说。
早在2013年,中国移动就启动人工智能底层技术的研发。经过10余年积累,目前九天通用大模型通过“双备案”,具备全模态、复杂推理及智能体应用能力。程建军介绍,九天大模型最突出的特点是全栈自主可控,实现大模型从数据构建、预训练、微调到推理全链路核心技术自主掌控。
中国电信的星辰大模型则在视频生成领域实现突破:去年12月5日,中国电信发布首款基于星辰大模型的视频生成模型,只要输入故事文本,模型即可自动生成剧本视频,不仅能从容驾驭多个主角,还能流畅切换多个场景。
日前,该模型在权威视频生成评测榜单VBench中排名第一。“VBench有16个评分项目,覆盖了模型的画面稳定性、语义一致性、空间场景以及视觉风格等核心能力,其中有5项得分超过99%。”中国电信人工智能研究院院长李学龙说。
作为可对外提供完备全模态生成式人工智能服务的大模型,星辰大模型除了在视频生成领域颇有建树,在语音研发方面也取得积极进展。
星辰语音大模型支持30种方言自由混说,突破单一模型只能识别特定单一方言的困境。当前,星辰语音识别及生成能力已应用于12345市民服务热线、数字人、万号智能客服等领域。
李学龙介绍,星辰大模型秉承开源理念,开源模型下载量超1.3万次。在国际权威评测榜单OpenCompass,星辰百亿参数大模型整体性能评分处于国内同级别参数模型前列。
中国联通则推出元景大模型,实现语言、语音、视觉、多模态等全模态覆盖。特别是其今年发布的元景思维链大模型,既拥有深度思考能力,又能做到简单问题简单回答,避免过度思考造成算力消耗,实现了大模型“慢思考”能力高性价比落地应用,平均节省约30%推理计算量。