🚸上海交大提出全光大规模智能生成芯片♈️

发布时间:2025-12-19 18:33:20 来源: IT之家

  

  中新网上海12月19日电 (记者 许婧)上海交通大学19日发布消息称,该校集成电路学院(信息与电子工程学院)图像通信与网络工程研究所陈一彤课题组在新一代算力光芯片方向取得重大突破,首次实现了支持大规模语义视觉生成模型的全光计算芯片LightGen。

  北京时间12月19日,相关研究以《大规模智能语义视觉生成全光芯片》发表于国际顶级学术期刊《科学》(Science)上。

  生成式人工智能正在走向更复杂的现实世界应用。模型越大、分辨率越高、生成内容越丰富,对算力与能耗的需求就越惊人,后摩尔定律时代,面向未来的研究焦点转向光电计算等“下一代算力芯片”。然而,当前光电芯片仍主要擅长加速判别类任务,距离支撑前沿大规模生成模型还有不小距离。“如何让下一代算力光芯片能运行复杂生成模型”,成为全球智能计算领域公认的难题。

  所谓“光计算”,可以通俗理解为:不是让电子在晶体管中运行,而是让光在芯片中传播,用光场的变化完成计算。光天然具备高速和并行的优势,因此长期被视为突破算力与能耗瓶颈的重要方向。但要把光计算真正用到生成式AI上,并不容易。

大规模全光生成计算芯片LightGen。  上海交通大学供图

  LightGen在单枚芯片上同时突破了三项领域公认的关键瓶颈:单片上百万级光学神经元集成、全光维度转换,不依赖真值的光学生成模型训练算法。不仅如此,LightGen展示的并不是电辅助光去做生成,而是让全光芯片完整实现“输入—理解—语义操控—生成”的闭环:输入图像进入芯片后,系统能够提取与表征语义信息,并在语义操控下生成全新的媒体数据,实现让光“理解”和“认知”语义。

LightGen生成的采样图像示例。 上海交通大学供图

  在性能评估上,LightGen采用了极严格的算力评价标准。实测表明,相比顶尖数字芯片,即便采用较滞后性能的输入设备,LightGen仍实现了 2 个数量级的算力提升和 2 个数量级的能效提升。而如果采用前沿设备使得信号输入频率不是瓶颈的情况下,LightGen理论上可实现算力提升7个数量级、能效提升8个数量级的性能跃升。这不仅体现了在不牺牲生成效果的情况下,用全光方案替换现有方案可能带来的巨大增益,也从侧面印证了大规模集成、全光维度变换与无真值训练等难点被系统性解决后,全光片上承载大规模生成网络的现实意义。

  本文同步被Science官方选为高光论文重点报道。文中提到,生成式AI正加速融入生产生活,要让“下一代算力芯片”在现代人工智能社会中真正实用,势在必行的是研发能够直接执行真实世界所需前沿任务的芯片——尤其是大规模生成模型这类对端到端时延与能耗极高的任务。面向这一目标,LightGen为新一代算力芯片真正助力前沿人工智能开辟了新路径,也为探索更高速、更高能效的生成式智能计算提供了新的研究方向。(完)

😠