欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 教育 > 幼教 > 【论文阅读】(Security) Assertions by Large Language Models

【论文阅读】(Security) Assertions by Large Language Models

2025/5/24 2:16:43 来源:https://blog.csdn.net/weixin_47575900/article/details/143753607  浏览:    关键词:【论文阅读】(Security) Assertions by Large Language Models

论文笔记:(Security) Assertions by Large Language Models

来源:IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY

I. 引言

计算机系统的安全性通常依赖于硬件的根信任。硬件漏洞可能对系统造成严重影响,因此需要支持安全验证的技术。断言验证是一种流行的验证技术,通过一组断言捕捉设计意图,用于非正式验证或测试检查。然而,编写以安全为中心的断言是一项具有挑战性的任务。在这项工作中,我们研究了新兴的大型语言模型(LLMs)在硬件断言生成中的应用,主要使用自然语言提示(如代码注释)来生成SystemVerilog断言。我们关注的是一个流行的LLM,并描述了其在“开箱即用”的情况下生成断言的能力,给定提示中不同详细程度的变化。我们设计了一个评估框架,生成各种提示,并创建了一个包含真实世界硬件设计和相应黄金参考断言的基准套件,我们希望利用LLM生成这些断言。

II. 相关工作

A. 断言验证
断言验证是数字设计流程的一部分,其中设计师意图被捕获为一组属性,在模拟、形式验证或合成到实际硬件中进行运行时检查。断言用于静态证明属性或动态验证。

B. 大型语言模型
LLMs是基于Transformer的人工神经网络,能够处理大量的文本数据集。OpenAI的Codex和GitHub Copilot等工具利用LLMs生成代码,显示出其在理解和生成代码方面的潜力。

C. 断言生成的自

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词