只关注delay计算,该论文介绍了一种新的wire model:

key:在signoff工具中匹配互连效果的黑盒建模,来匹配时序图中每个弧上的导线转换、导线延迟、栅极转换和栅极延迟。以前,基于矩的门、线转换、延迟分析模型与signoff中的值有较大的误差。为了减少错误的累积并保持时间之间相关,sizing tools必须频繁调用signoff工具,这会花费许多的时间。

this work:基于学习的方法,将导线的转换和延迟的分析模型与signoff sta工具的估计值匹配。该方法提高延迟以及转换估计的准确性,显著减少尺寸优化期间调用signoff sta tool的次数。

why do this and how think:
1)布局以后,定时恢复以及泄露功率降低是低功耗物理实现流程中非常重要的一步。在这些优化循环的过程中,使用全静态时序分析(sta)进行时序分析会带来效率限制的问题。

2)**在当今物理实现流程中,ista(增量sta)对于路由后定时关闭以及功率优化非常重要**。signoff STA工具(ST)支持增量分析,但在泄漏功率减少循环期间重复调用ST可能会导致高昂的运行时成本。因此,必须构建内部iSTA工具以匹配ST以避免这些限制。

3)内部ista工具需要精确的延迟和转换,以确保在端点处,最坏情况下定时延迟与st中的对应值之间有较小的误差。**然而**,我们的研究表明,众人所知晓的wire delay and slew 模型与st中有较大的误差。

reasons:

- st的建模方式:使用互连效果的黑盒建模,使得内部ista和st匹配非常困难。例如:用来自st中的实际有效电容和输入转换值的栅极转换查找表,这个查出来的结果和st自己直接内部计算返回的值不一样。
- 错的slew估值可能因为沿时序路径的误差传播而能够导致相当大的误差。误差会累积。与ST相比,导致端点松弛中出现较大的正(高估)或负(低估)误差。

4)为了减少误差,两个工具的值相对应。内部iSTA工具必须了解如何承担尽可能不频繁地调用ST的成本。

method:
1)基于机器学习的线延迟/转换的建模方法

2)基于偏移的时序相关方法,来获得有一个ista tool,产生和st相接近的时序值。

IIrelated work:

学术界已经开发了内部STA计时工具,可执行增量计时分析,作为ST的替代方案。UCLA计时器执行统计和确定性计时分析,并报告运行时间减少了31%,与蒙特卡洛模拟相关度高。Hu等人开发了一种计时器,以帮助确定泄漏优化的闸门尺寸。他们实现了一个快速的“增量”STA工具以及一个完整的定时STA工具。使用STA工具,他们提出了一种门大小的启发式方法。当我们在C/C++中实现他们的算法时,我们观察到他们的增量计时工具可能会对ST产生较大的误差。我们的工作与[14]等工作相关,因为我们在内部iSTA工具(使用基于学习的技术)中对线延迟和转换进行建模,以实现与ST的最慢可能的偏离。

Moon等人引入了基于偏移的定时校准。其思想是通过周期性地调用签准计时器,并在每个定时端点存储松弛差(偏移)来提高给定STA引擎的准确性。当STA引擎产生新的定时估计时(例如,在优化期间),它们通过松弛偏移进行调整。我们的分析表明,如果关键路径因大小调整操作而改变,应用基于偏移的端点松弛相关性可能会导致较大的错误。我们的工作与[20]相比有了显著的改进,因为我们将转换、延迟和AAT等其他定时信息与ST相关联。

用于**延迟估计的机器学习方法**可以是强大的,因为它们捕获设计参数(例如,实例数量、主要输入和输出数量、层次结构等)和物理设计上下文(例如,寄生效应、线长度、缓冲区插入等)之间的复杂交互。Gelosh和Setliff[10]提出了一种基于规则的学习方法,类似于分类和回归树,以捕获参数交互来估计面积和延迟。他们报告说,他们的估计是乐观的,误差百分比高达6.67%。Bao[5]提出了一种基于学习的方法,通过拟合Vt交换前后的松弛增量来估计路径松弛,以实现泄漏功率最小化。报告了5.33ps的最坏情况误差。根据[5]的描述,具体的建模参数和表示转换传播效果所需的“下游逻辑量”尚不清楚。此外,缺少测试用例细节(#cells、#nets等)使得很难评估方法和模型对非图形上下文的可扩展性。这些先前的工作报告了**电路中特定路径**的结果,但没有评估设计级端点松弛度量或如何沿时序路径最小化传播的误差。

**机器学习也被用于各种EDA应用中。为了模拟过程变化下的门延迟,Gao等人提出了使用人工神经网络的统计门延迟建模,并对参数空间进行降维**。然而,他们只报告随机路径的结果,而不是真实设计的结果。Gan等人在**拟合回归模型以估计路径延迟的同时**,捕捉了内部和内部空间变化以及温度的时间波动的影响。他们在32KB的缓存上验证了他们的方法,使用SPICE模拟来训练和测试他们的模型,并报告了小于5%的中值误差。Samanta等人[22]使用支持向量机回归进行导线和缓冲区大小调整,以最小化非树时钟网络的变化。他们通过基于机器学习的尺寸调整算法,将歪斜减少了45%。

IIImethodology

1)wire delay and slew模型

- wire delay:elmore delay/D2M

elmore delay:脉冲响应的第一个瞬间,存在高度电阻屏蔽时可能不准确

D2M:具有两个矩的延迟,前两个电路矩的函数。

- wire slew:PERI/scaled S2M/Lognormal slew

对于线延迟,我们选择D2M、D2Mr、EM、α·D2M(AD2M)和α·EM(AEM)作为回归因子,选择α、T和D2Mr作为分类器。对于导线转换,我们选择PERI、S2Ms、S2M、LNS和LNS作为回归变量,选择α和T作为分类器。我们详尽地研究了用于线延迟和转换的{一,二,三}回归器×{零,一,二}分类器的组合,并使用此分析来导出我们的最佳基于学习的模型(ML)

我们通过使用最小二乘回归(LSQR)拟合ST中的值来导出导线延迟和转换模型。我们从基准网表中生成训练样本,这些网表没有松弛违规,并且包含单元大小和类型的异质混合。从ST中,我们获得网表中每个引脚的延迟和转换,并将我们的模型与ST中的数据进行拟合。我们使用50%的这些数据点进行训练,使用LSQR导出模型,在所有数据点上测试模型,并计算估计误差。图4显示了估计电路延迟所需参数的流程图。

Learning-Based Approximation of Interconnect Delay and Slew in Signoff Timing Tools相关推荐

  1. Turbo Autoencoder: Deep learning based channel code for point-to-point communication channels

    Turbo Autoencoder: Deep learning based channel code for point-to-point communication channels Abstra ...

  2. 【RS-Attack】Data Poisoning Attacks to Deep Learning Based Recommender Systems NDSS‘21

    Data Poisoning Attacks to Deep Learning Based Recommender Systems NDSS'21 首个在基于深度学习的推荐系统中进行投毒攻击的研究.文 ...

  3. Deep learning based multi-scale channel compression feature surface defect detection system

    基于深度学习的多尺度通道压缩特征表面缺陷检测系统 Deep learning based multi-scale channel compression feature surface defect ...

  4. 跌倒综述 Deep Learning Based Systems Developed for Fall Detection A Review

    文章目录 1.基本信息 2. 第一节 介绍 3. 第二节 跌倒检测系统文献 4.第三节 讨论和未来方向 5. 第四节 结论 6. 参考文献 1.基本信息 题目:Deep Learning Based ...

  5. Deep Learning Based Registration文章阅读(五)《Anatomy-guided Multimodal Registration by Learning Segment 》

    Deep Learning Based Registration文章阅读(五) 这篇文章是MIA2021新出的一篇文章<Anatomy-guided Multimodal Registratio ...

  6. 基于深度强化学习的车道线检测和定位(Deep reinforcement learning based lane detection and localization) 论文解读+代码复现

    之前读过这篇论文,导师说要复现,这里记录一下.废话不多说,再重读一下论文. 注:非一字一句翻译.个人理解,一定偏颇. 基于深度强化学习的车道检测和定位 官方源码下载:https://github.co ...

  7. 论文详读:LEMNA: Explaining Deep Learning based Security Applications

    我以我ppt的内容顺序介绍一下这篇论文,希望有错误的地方大家可以帮我指出嘻嘻 1.论文出处 论文名:LEMNA: Explaining Deep Learning based Security App ...

  8. POSTER: A PU Learning based System for Potential Malicious URL Detection

    POSTER: A PU Learning based System for Potential Malicious URL Detection 基于PU学习的潜在恶意URL检测系统 POSTER: ...

  9. 论文翻译七:Adversarial Transfer Learning for Deep Learning Based Automatic Modulation Classification

    30天挑战翻译100篇论文 坚持不懈,努力改变,在翻译中学习,在学习中改变,在改变中成长- Adversarial Transfer Learning for Deep Learning Based ...

  10. 论文翻译:2021_语音增强模型压缩_Towards model compression for deep learning based speech enhancement...

    论文地址:面向基于深度学习的语音增强模型压缩 论文代码:没开源,鼓励大家去向作者要呀,作者是中国人,在语音增强领域 深耕多年 引用格式:Tan K, Wang D L. Towards model c ...

最新文章

  1. Python3中的内置函数总结
  2. 如何进入、退出docker的container
  3. android java 延时函数,如何在Android中设置文本之间的延迟
  4. 中国人工智能学会通讯——基于视频的行为识别技术 1.1 什么是行为
  5. 租车信息系统数据库设计(2)
  6. PageRank三个博客mark
  7. Spring基础精华知识点
  8. 递归函数定义、递归应用案例-科赫雪花/雪花晶片/汉诺塔
  9. RL(Chapter 5): Monte Carlo Methods (MC) (蒙特卡洛方法)
  10. oracle的多个exclude,记录一下expdp exclude的用法
  11. 智能客服工单系统与工单管理系统的区别
  12. flatMap() :对每个元素执行映射函数并将结果展平
  13. 荣耀linux电脑开机后黑屏,开机黑屏进不了系统,教您解决电脑开机黑屏进不了系统...
  14. Android中铃声总结【安卓源码解析一】
  15. oracle数据库导出灰色_Oracle数据库导入导出命令总结
  16. 滴水逆向 C语言部分
  17. python实现Dice系数
  18. Bugku之本地管理员
  19. 1020: 算法提高 聪明的美食家
  20. UMDF的第一个win10驱动:驱动程序开发环境完善(三)

热门文章

  1. k3s 离线部署指南
  2. axios.post发送小数据可以,但发送大数据出现Cross origin requests are only supported for protocol schemes: http, data,
  3. 题解 P3513 【[POI2011]KON-Conspiracy】
  4. 面向对象:只愿得一人心,白首不分离
  5. 51Nod 1378 夹克老爷的愤怒
  6. 三国志2017服务器维护时间,《三国志2017》版本更新公告
  7. Android查看手机sqlite数据库(可视化)
  8. WIFI6比WIFI5好在哪里呢?
  9. css3中自适应边框图片运用
  10. 搭档之家:牛市来了!阿里云“临牛受命”,接到多家券商扩容需求