光速思考的AI芯片:MIT光学处理器突破无线信号处理极限
美国麻省理工学院(MIT)的研究团队在最新一期《科学进展》杂志上公布了一项突破性成果:一种专为无线信号处理设计的光学AI处理器,能以光速执行机器学习计算,在数十纳秒内完成无线信号分类,准确率高达95%。
这项创新技术被称为“乘性模拟频域变换光学神经网络”(MAFT-ONN),它摒弃了传统数字处理器的设计思路,直接在模拟频域处理无线信号,绕过了数字化瓶颈,为6G通信、自动驾驶和医疗设备等实时应用场景开启了全新可能。
(新型光学处理器的艺术概念图 该处理器能以光速执行机器学习计算,并在纳秒内对无线信号进行分类。图片来源:美国麻省理工学院官网)
1 、突破传统,光学计算的崛起
传统AI加速器在处理无线信号时,需要将信号转化为图像,再通过深度学习模型进行分类。这种方法虽然准确率高,但神经网络计算密集,响应速度难以满足微秒级延迟要求。
随着Edholm定律预测通信数据速率呈指数增长,以及摩尔定律的放缓,6G等先进通信系统面临严峻挑战。数字处理器在处理复杂频谱环境时存在固有延迟,而现有光学神经网络又受限于可扩展性和系统开销。
MIT团队开发的MAFT-ONN架构通过将神经元值编码在频率模式的幅度和相位中,利用 “光电乘法”技术,仅用一个设备就可集成1万个神经元,并一次性完成所有乘法运算。
2 、解密光速计算,芯片如何运作
MAFT-ONN架构的核心在于四个关键技术突破:
- 采用单边带抑制载波(SSB-SC)调制实现频率编码;
- 通过双平行马赫-曾德尔调制器(DPMZM)构建非线性激活;
- 开发频域线性时不变处理框架;
- 建立多任务验证平台。
在射频信号进入系统后,MAFT-ONN在信号被数字化之前,就在频域中完成所有信号编码与机器学习运算。这种设计大幅减少了数据转换环节,实现了端到端的模拟信号处理。
对于14×14 MNIST图像分类任务,该系统将图像编码为196个频率的输入信号,与包含19,600个频率的权重核卷积后,产生39,100个神经元的隐藏层。
经DPMZM非线性激活后,再与1000个频率的第二层权重卷积,最终输出10个神经元对应数字分类,整个过程中,系统完成了惊人的3,851,600次乘加运算(MAC)。
3、 性能飞跃,数字背后的革命
实验数据显示,MAFT-ONN单次推理延迟仅约120纳秒,比传统数字射频设备的微秒级AI推理速度快数百倍。
在10,000样本测试中,MNIST分类准确率达到86.85%,接近数字模型的92.52%。
在调制分类任务中,系统直接处理包含Rician多径衰落和时钟偏移的原始射频信号,对GFSK、CPFSK等五种调制方式的单次识别准确率达85%,通过五次测量多数表决可提升至95%。
系统计算吞吐量达到3.85 GOPS(十亿次操作每秒),理论扩展至太赫兹光学带宽后可达peta-OPS级别。
与传统FPGA相比,MAFT-ONN的系统延迟快400-670倍,为实时信号处理提供了前所未有的可能性。
4 、未来已来,六大应用场景
- 6G通信:芯片可根据无线环境变化自动调整调制方式,优化数据传输,实现认知无线电。
- 自动驾驶:处理海量传感器数据,实现车辆间的实时通信,提高道路安全。
- 智能医疗:为智能起搏器等植入式设备提供实时健康监测能力,在纳秒级识别异常心律。
- 工业物联网:在极端延迟敏感环境中实现设备间即时通信,提高工业自动化水平。
- 军事通信:在复杂电磁环境下保持可靠通信,快速识别和适应干扰信号。
- 边缘计算:为资源受限的边缘设备提供高性能AI推理能力,减少云端依赖。
5、 创新基因,MIT的硬件革命
值得注意的是,MAFT-ONN并非MIT近期唯一的芯片突破。2024年底,该校团队在《自然》杂志发表了电子堆叠技术,通过垂直堆叠多个半导体层,大幅增加晶体管数量,提升计算能力。
研究团队摒弃了传统硅基支撑,采用新的多层芯片设计,使不同功能的半导体层之间可以直接接触,从而大幅提升数据传输速度与计算效率。
MIT还开发了一种乐高式可重构AI芯片,各层通过光信号通信而非物理连线,可以像积木一样更换或堆叠芯片层,添加新传感器或处理器。这种设计不仅可扩展性强,还能减少电子垃圾,使设备可以通过更换芯片层升级而非整体淘汰。研究人员表示“你可以根据需要添加任意数量的计算层和传感器,类似乐高积木的可重构AI芯片,因为它根据层的组合具有无限的可扩展性。”






