首页/文章/ 详情

统一 AI/ML 解决方案加速验证曲线收敛

1月前浏览41
本文翻译转载于:Cadence blog

作者:Anika Sunda

保证覆盖率的同时优化仿真回归

随着应用要求的激增和用户需求的增加,硬件设计变得更加复杂。市场趋势的快速变化,以及对电动汽车等技术的更多关注,决定了对高效电源管理和高性能处理的需求水涨船高。随着 SoC 设计规模的扩大,复杂程度的增加,验证吞吐量仍然是一个瓶颈,单纯依靠增加 CPU 核数量和运行更多的并行测试治标不治本。上述因素的叠加让验证工程师面对复杂设计的压力与日俱增。


验证永远不会完成,当你的时间用完时,它就结束了。目标是在你耗尽时间之前使验证过程收敛。每个人都希望看到关键指标收敛到目标,并在严格的成本和时间限制下做到这一点。想象一下,坐在驾驶舱里,向黑匣子输入信息,然后等待奇迹发生(按一个按钮,你的工作就完成了)。当务之急是人工智能和机器学习(AI/ML)如何帮助我们更快地完成回归,节省调试时间,实现验证/覆盖率目标,并管理资源和资金——换句话说,我们如何使用 AI/ML 来提高验证的效率?

瑞萨公司也面临着类似的挑战。市场压力和严格的投片时间表促使他们寻找一种技术/方法来优化仿真回归,并在整个产品开发过程中加速设计验证过程。他们希望减少风险,尽早发现尽可能多的错误,能够快速调试,并满足其终端用户的要求。

瑞萨开始探索 Cadence Xcelium 机器学习应用。这个应用程序使用机器学习技术来优化仿真回归,以产生一个更紧凑的压缩回归。然后这个优化的回归被用来重现与原始回归几乎相同的覆盖率,并通过运行现有随机测试平台可能出现的边界场景,快速找到设计错误。

瑞萨的测试结果非常完美,整个随机验证回归的时间缩短了 66%,大幅节省了资源、成本和时间。Xcelium ML App 帮助瑞萨在保证 100% 覆盖率的同时将压缩效率提高 2.2 倍。此外,将ML回归用于首次设计迭代时,瑞萨再次实现了 100% 覆盖率下,将时间缩短 3.6 倍。

   
基于 ML 的测试回归次数仅为 1168 ,相当于 3774 次原始回归的 1/3 。实现目标所需时间缩短了 30%,满足了严格的上市需求。

除了利用 Xcelium ML App 节省资源和时间,加速实现设计收敛,瑞萨也评估了由 3 款 Verisium App 组成,基于 AI 的 Cadence Verisium 平台,将验证生产力提高了 6 倍,共节省 27 个工时。 


瑞萨评估的 App 如下

● Verisium AutoTriage,一款基于 ML 的自动化测试失败分类程序,可以将相同错误导致的测试失败自动分组。失败分组耗时降低了 70%,整体效率提升了 3.3 倍。

       

● Verisium SemanticDiff 帮助瑞萨快速识别失败原因,比传统 diff 工具更加高效。SemanticDiff 专注于设计环境,可以提供更相关的差异分析。此外,逐条检查 diff 指令的历史文件是很繁琐的,SemanticDiff app 可以大幅缩短纠错时间,显著提升效率。

● Verisium WaveMiner 可以高效识别差异点,用户可以在 PASS 和 FAIL 中将差异点可视化,便捷地比较 PASS 和 FAIL 的波型及源代码。瑞萨的纠错时间得以缩短 89%-97%,带来 9 倍的效率提升。


Cadence 的 Verisium 平台和 Xcelium ML 应用一起提供了一套利用 AI/ML 的应用,以优化验证工作负载,提高覆盖率,并加速复杂 SoC 上设计错误的根源分析。瑞萨公司利用人工智能平台,将其验证生产率提高了 10 倍。


来源:Cadence楷登
System电源电路航空汽车电子消费电子芯片UMCadence人工智能
著作权归作者所有,欢迎分享,未经许可,不得转载
首次发布时间:2025-10-04
最近编辑:1月前
Cadence楷登
签名征集中
获赞 2粉丝 109文章 636课程 0
点赞
收藏
作者推荐

LPDDR5X:重要性与日俱增的移动存储器

作者:Sanjive Agarwala自 2000 年代中期获得正式批准以来,低功耗 DDR(LPDDR)一直是驱动对面积和功率敏感的移动设备上更复杂用例的基石。毕竟退回 2007 年,智能手机的摄像头不过是一个钉在背后的传感器,且只能拍摄粒度粗糙、低分辨率的自 拍。现在,智能手机摄像头已经成为边缘 AI 能力的集大成者,足够安全且可以执行生物识别认证;也足够强大到可以执行运算摄影,为照片甚至实时视频添加复杂的 3D 效果、模糊背景。随着使用移动设备方式的演变,每一代 LPDDR 都继续以所处时代的必备应用程序为目标。2020 年,LPDDR5 为智能手机、平板电脑和笔记本电脑提供了 5G、低端边缘人工智能(AI)、高级移动游戏和无缝 4K 视频流所需的存储器带宽。 复杂的边缘 AI 用例接下来的两年里,几乎每天都会出现全新、更复杂的边缘 AI 用例。这些 AI 模型需要功耗受限的边缘设备提供越来越强大的 AI 计算能力,对 AI 模型给出决策和结果的速度要求也越来越高。处理器的发展继续关注更先进的工艺节点、更多的核和 3D-IC 等新的封装技术。随着由于 Wi-Fi 6 和 5G 的出现,网络速度比以往任何时候都快,然而存储器往往会成为物理限制的瓶颈。自智能手机革命开始以来,存储器一直是我们在移动设备上所有新功能和应用程序的命脉。即使是网页浏览等基本任务的速度,也取决于设备的 CPU 能够以多快的速度在存储器中存储和读取信息。上述都是 Cadence LPDDR5X 存储器接口 IP 正式可用的消息一经发布,即受到合作伙伴欢迎的原因。该接口专为数据密集的 5G 和人工智能(AI)应用程序设计,速度比非常成功的 LPDDR5 IP 快 33%。新存储器技术开发非常紧迫,要跟上层出不穷的新边缘 AI 用例,不仅在移动设备,还包括任何人可能拥有的最大移动设备,也就是汽车上。汽车应用随着汽车行业转向软件定义汽车(SDVs),汽车内各个子系统之间低延迟、高带宽通信的需求正在迅速增长。因此,计算性能正在与动力系统争夺能源,也就是每英里性能。Cadence 已与多家一级汽车制造商讨论将 LPDDR5X 构建到安全关键的高级驾驶辅助系统(ADAS)和自动驾驶硬件中的优势。这些系统必须能够在尽可能小的能源消耗范围内,基于大量传感器数据做出关键的实时安全决策。拥抱边缘 AI不言而喻,汽车应用需要对数据进行本地处理,任何自动驾驶汽车都必须能够在不依赖任何人的情况下自动驾驶。为什么消费者移动设备在边缘执行 AI 计算,而不是依赖云智能和低延迟 5G 如此重要?想想看,全球移动设备每天都会产生数万亿兆字节可供 AI 操作的数据。设备端边缘AI处理的数量相对有限,很大一部分被发送到云端。随着 AI 应用程序复杂性的增加,需要上传的数据量也与日增加。今天,世界上 77% 的下游带宽被视频数据占用,通过优化的网络基础设施将数据从中心向外传输。利用云计算处理复杂 AI 用例所需的数据将扭转这一趋势,并在这个过程中对全球网络造成巨大限制。当我们将使用边缘 AI 的移动设备扩展到智能相机或移动医疗工具等其它电池驱动的物联网设备时,还需要考虑数据价值的问题。当这个价值可以用毫秒来衡量时,处理过程中的任何延迟都会降低其价值,甚至可能为零。即使考虑到 5G 接近零的延迟,数据传输的速度也受传播延迟的影响。在无线通信中,数据传输速度相当于光速。如果用一个数字来说明,那就是每 100 英里的数据传输,就会带来 0.82ms 的延迟。听起来可能没有很大影响,但是不要忘记,数据中心的位置差别很大,而且网络通常分布在很远的地理距离上,云端距离边缘可能有几千英里。数据包的大小、路由器和数据必须通过的其它网络硬件的数量进一步加剧了延迟。所有上述因素都会快速产生叠加效应。这甚至发生在数据可以被分析、执行推断、并将结果发送回边缘设备之前。这就是为什么我们将 AI 计算更靠近生成数据的边缘设备如此重要。在移动领域,特别是汽车领域,这意味着在设备本身上执行复杂的 AI 计算。让设计未来可期 PCB 子卡中的 Cadence LPDDR5XLPDDR5X 是多种 Cadence 存储器 IP 中的最新产品,可以追溯到 Cadence 2010 年对 Denali 的收购。此前,Cadence 于 2022 年 11 月发布了 GDDR6 硅片,专为超大型计算、数据中心和 5G 等超高带宽存储器应用而设计。就像 GDDR6 一样,LPDDR5X 是一种未来可期的技术,为接下来可能发生的任何趋势提供性能支持。LPDDR5X 标准将峰值数据传输速度从 LPDDR5 的 6400Mbps(6.4Gbps)提高到8533Mbps(8.5Gbps),今天没有多少应用程序能够充分利用边缘设备的这种令人难以置信的性能。 Cadence LPDDR5X IP 眼图如之前所说,几乎每天我们都能听到令人难以置信的新功能和对性能要求极高的边缘用例——从用手机或独立的 VR/AR 头戴设备探索元宇宙,或进一步实现 5 级(全)汽车自动驾驶,几乎每天我们都能听到令人难以置信的新功能和性能大户的边缘用例。随着 LPDDR5X 这样技术的装机和应用,这些用例不再遥不可及,我们即将看到边缘 AI 计算真正的能力。 Cadence Denali 存储器和存储 IP 解决方案支持最广泛的行业标准,包括控制器和 PHY 的设计实现,适用于高性能和低功耗应用。现在即未来。来源:Cadence楷登

未登录
还没有评论
课程
培训
服务
行家
VIP会员 学习计划 福利任务
下载APP
联系我们
帮助与反馈