周回顾:设计,低功耗

智能电网芯片;瑞萨(Renesas)收购Celeno;欧盟高性能计算项目;量子纠错;为DARPA签名。

受欢迎程度

交易
Utilidata而且英伟达合作软件定义的智能电网芯片,可以嵌入智能电表,以提高电网的弹性和集成分布式能源(der),如太阳能、存储和电动汽车。美国能源部的国家可再生能源实验室(NREL)将测试软件定义的智能电网芯片,作为实验室实时最优潮流(RT-OPF)技术规模化和商业化的一种方式。NREL电网自动化与控制部门经理Santosh Veda说:“迄今为止,RT-OPF等技术的可扩展性和商业潜力受到了一次性硬件解决方案的限制。”“通过开发一种可以嵌入最普遍的公用事业资产之一智能电表的智能电网芯片,这种方法将有可能使该技术得到更广泛的采用和商业化,并重新定义边缘计算在DER集成和弹性方面的作用。这种方法增强的态势感知和可见性将极大地造福最终客户和公用事业公司。”

瑞萨完成了收购Celeno通信是一家为高性能家庭网络、智能建筑、企业和工业市场提供Wi-Fi芯片组和软件解决方案的供应商。它还提供基于Wi-Fi的高分辨率成像技术,用于跟踪人和物体的运动、行为和位置。这笔交易价值3.15亿美元,将在某些里程碑之后以现金方式逐步支付。

真正的意图加入美国国防部高级研究计划局“工具箱计划”是一个通过预先协商、低成本、非生产访问框架和简化法律条款为研究团队提供商业产品访问的计划。DARPA研究团队将获得Real Intent静态签到软件产品,用于时钟域交叉、重置域交叉、检测和测试签到设计。产品已通过ISO 26262功能安全流程认证。Real Intent总裁兼首席执行官Prakash Narain表示:“该协议将简化DARPA社区中Real Intent高性能、多模式静态签到产品的可用性。”“十多年来,Real Intent一直支持军事需求,这个项目加深了我们的接触。”

光子学
塔半导体而且瞻博网络宣布硅光子学平台,将III-V激光器、半导体光放大器(SOA)、电吸收调制器(EAM)和光电探测器与硅光子学器件单片集成在一块芯片上。制程设计套件预计将于年底推出,首个开放式多项目晶圆(MPW)预计将于明年初推出。首批带有集成激光器的完整400Gb/s和800Gb/s PICs参考设计样品预计将在2022年第二季度上市。

TriEye拔开瓶塞VCSEL供电的光电(EO)短波红外(SWIR)系统,集成了该公司基于cmos的传感器和垂直腔面发射激光器(VCSEL)作为照明源。TriEye表示,与之前的近红外系统相比,该感知系统将具有更远的范围和更好的精度。它的目标是短期应用,如移动、生物识别、工业自动化和医疗。

瞻博网络采用Synopsys对此的OptoCompiler平台,包括OptSim和PrimeSim HSPICE仿真解决方案,用于开发下一代光通信的光电芯片。Juniper计划使用Synopsys解决方案设计和优化其混合硅和InP光学平台,用于数据中心和电信网络的光学连接,以及人工智能、激光雷达和其他传感器中的新兴应用。

HPC
欧洲处理器计划该计划由多家公司、大学和研究机构共同发起,旨在开发欧盟的高性能计算芯片技术和基础设施。分享结果它的前三年。在通用处理器组中,合作伙伴定义了Rhea的体系结构规范,这是第一代EPI通用处理器(GPP)。Arm Neoverse V1架构拥有29个RISC-V核心,旨在为高性能计算应用程序提供可扩展和可定制的解决方案。RTL已经完成,整个设计实现目前正处于使用仿真的验证阶段。加速器组正在研究用于高性能计算加速的RISC-V矢量架构,并开发了一套技术,包括矢量处理单元、多核模板和张量加速器以及可变精度加速器。它生产了一个测试芯片,具有多个共享L2缓存和相干home节点的分布式库,针对矢量处理单元的高带宽要求进行了优化,并通过高速NoC连接。汽车集团为嵌入式高性能计算(eHPC)平台和为汽车应用量身定制的相关软件开发工具包进行了概念验证。它在一辆经过道路认证的宝马X5上进行了演示。

劳伦斯利弗莫尔国家实验室(LLNL)建立了AI创新孵化器(AI3)鼓励围绕硬件、软件、工具和公用事业的合作,以加速应用科学中的AI,建立在LLNL的认知模拟方法之上,该方法将最先进的AI技术与领先的高性能计算相结合。通过孵化器,LLNL将与谷歌IBM,英伟达,以及继续现有的项目惠普企业AMDSambaNova系统大脑系统,Aerotech.IBM未来计算系统总监James Sexton表示:“AI与传统的高性能计算和数据分析方法的集成是AI3的重点,这将为分析、推理和决策产生根本性的全新和变革性的基于知识的计算能力。”早期的研究领域预计将包括先进材料设计、3D打印、预测生物学、能源系统、“自动驾驶”激光和聚变能源研究。

量子计算
桑迪亚国家实验室提出了这是量子计算机的一个新的基准,可以预测量子处理器运行特定程序而不出错的可能性有多大。研究人员表示,传统的基准测试低估了许多量子计算错误,这可能会导致人们对量子机器的强大或有用程度产生不切实际的期望。桑迪亚量子性能实验室的Timothy Proctor说:“我们的基准测试实验表明,当前量子计算机的性能在结构化程序上的变化比以前所知道的要大得多。”“通过将我们的方法应用于当前的量子计算机,我们能够了解到很多关于这些特定设备所遭受的错误——因为不同类型的错误对不同程序的影响不同。”

QuTech研究人员上工作改进了量子计算机的纠错。基于增加冗余度和使用越来越多的量子比特来编码数据的理论,净误差会下降。他们设计了一个由七个物理量子位组成的逻辑量子位。“我们证明,我们可以用编码信息完成计算所需的所有操作。这种高保真逻辑运算与可扩展的重复稳定方案的集成是量子纠错的关键一步,”QuTech的Barbara Terhal教授说。QuTech的Leonardo DiCarlo教授补充说:“我们的宏伟目标是证明,随着编码冗余的增加,净错误率实际上会呈指数级下降。我们目前的重点是17个物理量子比特,下一步将是49个。我们量子计算机架构的所有层都是为了允许这种扩展而设计的。”



留下回复


(注:此名称将公开显示)

Baidu