类脑芯片实现时序数据高效处理,能效跃升千倍

当前以ChatGPT、Claude为代表的大型AI系统因持续高能耗引发广泛关注。传统架构依赖集中式存储与远程计算间频繁的数据搬运,形成显著能量损耗。最新研究成果揭示了一种从底层重构算力模型的新路径。

物理层面实现数据就地运算,打破软件依赖困局

由拉夫堡大学物理学家领衔的研究组开发出可在硬件内部直接完成时序信号分析的装置。该设计摒弃了以往依赖软件调度的模式,首次将计算过程嵌入材料本身的物理响应机制中。

研究团队指出,新芯片的单位运算能耗有望达到现行技术的两千分之一。项目主导者帕维尔·鲍里索夫博士表示:“这一进展标志着我们正重新定义智能系统的构建逻辑——利用物质的自然行为替代复杂指令流,从根本上减少能量浪费。”

仿生结构赋能自适应学习能力

与传统系统中内存与处理器分离运作不同,新设备模拟大脑神经元间的非规则连接方式,将信息处理与记忆功能融合于单一物理介质。

其核心元件为忆阻器,具备随历史输入改变响应特性的能力,使系统不再仅执行预设命令,而是根据过往经验主动调整对新信号的反应。这一特性源于在氧化铌纳米薄膜上构建的随机孔隙网络,灵感来自人脑神经回路的复杂拓扑结构。

实验验证表明,该装置在预测时间序列演化时,相较标准软件方法节省超过九成能量。

专攻混沌动态信号,应对敏感变化挑战

此类系统特别适用于天气趋势、金融市场波动及生物电波等具有高度不确定性的连续数据流。传统算法需不断追踪微小扰动并频繁调用资源,导致能效低下。

新芯片通过整合历史观测值与经验规律,能够更精准地捕捉系统演变轨迹,在维持高精度的同时大幅压缩能量消耗。相较于当前主流聚焦静态内容理解的AI应用,该技术专为持续演化的动态信息设计。

覆盖多领域应用场景,迈向边缘智能时代

鲍里索夫博士强调:“心率波动、脑电图变化、环境温湿度等日常生理与环境信号,现有采集系统往往依赖强供电和稳定网络支持,难以实现长期部署。”

该技术可有效解决上述痛点,推动智能感知向低功耗、自适应方向发展。未来有望广泛应用于智能穿戴设备、工业健康监测、自动驾驶系统乃至核设施安全预警等领域,例如实时识别中风前兆、发动机异常或核电站运行偏差等关键风险。