查看原文
其他

​RSA2023: 生成式AI与网络安全动向

阿法兔 阿法兔研究笔记 2023-08-20
本文结合笔者的观察与研究,总结了一些关于RSA2023年的观察,也欢迎相关领域专家提出意见,批评指正。
欢迎大家转发到朋友圈~~这样兔儿就更有动力写出更多好内容了~

*转载请扫码添加后台微信二维码,转载请注明来源,且附上本文的所有参考文献链接

大纲

*本文2200字左右


2023年4月初的旧金山,RSA大会上,主要围绕以下几个问题:

① 哪些热点发展的新趋势值得关注?

②大家的讨论,主要围绕哪些技术?

③哪些技术专家的发言值得关注?

④当前的技术科技,将如何改变的未来?

(笔者注:也许这类问题不一定能马上得出结论,但是始终值得我们持续思考)

从科技的角度来看:云计算行业的发展,给整个网络安全产业带来了机遇和挑战。在本周美国旧金山刚刚举行的RSA会议上,会议聚焦的主题以生成式AI为主。普遍的认知是,这项技术,在近期的安全事件中具备高度不确定性,仍然它的发展趋势值得关注。
关于RSA:RSA大会于1991年由RSA公司(现为EMC公司信息安全事业部)发起,得到了业界的广泛支持。RSA大会一年一度分别在美国、欧洲和日本举办,其议程设计由信息安全从业者及其他相关专业人士评判和制定。
RSA的业界地位RSA 大会被视为全球信息安全领域的风向标,今年大会的主题是“现在很重要(NOW MATTERS)”。据预计,今年会有500家安全厂商参会并展示其在安全领域的最新技术,现场与会者更有望突破40000名,世界各地的安全专家及优秀厂商将齐聚这场盛大派对,共同探讨安全领域的发展趋势及前沿技术。

参考资料:指南 | 快速了解 RSA 2018 大会_看雪学苑 2018-04-19 18:00

宏观趋势
对于目前的安全公司来说,大家在实践上还是相对审慎的,比如说,多数产品都是各个安全公司在已有的业务数据(情报和攻击数据上)基础上,训练自己的大语言模型。
不过,如果我们看谷歌的动向,2023年4月底,谷歌公布了自己的以安全为重点的大语言模型Sec-PaLM,这个模型,主要会帮助防御者收集有关正在进行的违规行为的细节,并将威胁情报上下文化。
谷歌周一公布了其计划,推出自家以安全为重点的大型语言模型Sec-PaLM,这个模型,会协助收集正在进行的违规行为的细节,和背景化的威胁情报。(具备上下文)
(笔者注:Google在2023年RSA大会上宣布了Cloud Security AI Workbench,这是一个由专门的“安全”AI语言模型Sec-PaLM驱动的网络安全套件。
Sec-PaLM是Google的PaLM模型的一个分支,它针对安全应用进行了微调,包括软件漏洞、恶意软件、威胁指标和行为威胁者档案等安全信息。Cloud Security AI Workbench涵盖了一系列新的AI驱动的工具,如Mandiant的Threat Intelligence AI,它将利用Sec-PaLM来发现、总结和应对安全威胁。VirusTotal,另一个Google的子公司,将使用Sec-PaLM来帮助订阅者分析和解释恶意脚本的行为。此外,Sec-PaLM还将协助Chronicle的客户搜索安全事件,并与结果进行“对话式”的交互。Google的Security Command Center AI的用户,也将得到Sec-PaLM提供的攻击暴露的“人类可读”的解释,包括受影响的资产、建议的缓解措施和安全、合规和隐私发现的风险摘要。)
一些观点
Stackpane的创始人兼首席执行官Sarbjeet Johal认为:随着技术的进一步发展,生成式AI在网络安全里发挥的作用,会越来越大,不过Sarbjeet Johal主要关注的是,大模型与关系型数据库的关系。
不过,从融资角度来看,特别是美国等地区,投向网络安全产业的资金不会向之前几年那么热门。因此,很多创业者也关注,对网络安全公司的投资是否会转向人工智能之类的领域?
Johal表示,人工智能会在未来的网络安全领域发挥重要作用,无论是作为解决方案提供方,还是一种能够重构现有解决方案的技术。
当然,尽管有机遇,也同样面临挑战:很多公司面临着因为技术进步,而可能丧失现有地位的风险,而优秀且看到未来的公司,将利用人工智能技术来保持领先优势。并且网络安全领域(美国)的供应商整合和收购是不可避免的,因为一些公司无法适应行业的革新。
Johal说:"作为一家公司,你必须与时俱进,也必须向市场展示你的先进技术,我们正在努力,展示我们关于人工智能和ML的认知。
而诸如SecurityScorecard的公司,(主营业务是对其他组织的内部安全计划进行评级)也宣布计划将ChatGPT嵌入业务模式中,以便客户更容易找到具体的评级数据。
行业其他动向
而诸如SecurityScorecard的公司,(主营业务是对其他组织的内部安全计划进行评级)也宣布计划将ChatGPT嵌入业务模式中,以便客户更容易找到具体的评级数据。
Veracode和Recorded Future,也发布和生成式AI有关的进度。比如说,要把生成式人工智能引入自己的产品。Veracode的生成式人工智能产品,将为代码和开源库中的问题,提出修复建议,而Recorded Future可以训练GPT,从而帮助分析师更好地解释安全风险。
咨询界的观点
Gartner的Avivah Litan认为:生成式人工智能,或许可以使安全产品更好地检测高级网络钓鱼攻击,主动扫描网络的可疑活动,并自动 "fight back "正在进行的攻击。
目前人工智能在安全领域的大多数应用仍然是对威胁的反应(Reactive to Threat),而不是攻击性的。不过, Gartner和其他咨询公司还是建议,公司最好暂缓使用ChatGPT进行代码生成、代码安全扫描和安全代码审查,因为大型语言模型仍然难以写出干净的代码,而且容易产生错误信息。
“你必须把人工智能模型当作全新载体,也就是说,任何直接进出模型的东西都需要特殊的工具集进行漏洞扫描” Litan说。
需要意识到的是,当新技术出现时,网络安全也不能解决方案提供商也很难脱离营销为导向的宣传。
Avivah Litan认为:"如果你购买了与人工智能相关的安全产品,在目前这个阶段,可能很难了解该工具具体的运行模式,以及它的性能和细节是否与宣传的一样。对于全新网络人工智能产品感兴趣的用户,或许需要供应商提供具体的例子和指标,来评估工具性能。

*本文特别感谢天融信的谢琴老师:)

参考文献:https://securityboulevard.com/2023/04/rsac-2023-generative-ai-takes-the-cybersecurity-industry-by-storm/

https://siliconangle.com/2023/04/26/cybersecurity-and-ai-trends-analysis-live-from-rsa-conference-rsac/

https://techcrunch.com/2023/04/24/google-brings-generative-ai-to-cybersecurity/

https://www.crn.com/news/security/5-boldest-statements-from-cybersecurity-leaders-at-rsac-2023


【阅读更多】

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存