找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

查看: 104|回复: 0

AI应用于进攻性安全

[复制链接]
发表于 2025-12-12 01:51 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
本文为节选,如需报告请联系客服或扫码获取更多报告

w1.jpg

进攻性安全

进攻性安全涉及主动模拟攻击者的行为,使用类似于对手的战术和技术来识别系统漏洞。通过了解潜在的弱点和威胁,组织可以实施和加强可靠的安全控制,从而降低被恶意行为者利用的风险。

为了最大限度地提高进攻性安全的有效性,确保其与组织的长期目标和宗旨一致非常关键。这种方法侧重于与组织优先级最相关的安全风险,确保资源被使用到最重要的领域。本文档的其余部分将探讨进攻性安全的三种方法:

漏洞评估:可以使用扫描器自动识别脆弱点。

渗透测试:可以用来模拟网络攻击,以识别和利用漏洞。

红队演练:可以用来模拟强大对手进行的复杂、多阶段攻击,通常用于验证组织的检测和响应能力。

这些方法有相似之处,但在很多方面也有差异,如下表所示。虽然此表提供了一个有用的概览,但实际做法可能会因各种因素而有所不同,包括组织的成熟度和风险承受能力。

w2.jpg

人工智能(AI)

AI 包含一系列旨在模拟人类智能的技术,包括自然语言处理、机器学习和机器人技术。尽管 AI 覆盖了广泛的技术范围,我们的焦点集中在由 LLM 驱动的技术。

大语言模型(LLM)

LLM 是具有数十亿参数的复杂深度神经网络,能够处理和生成语言。最初,这些模型被开发用于预测句子中的后续单词,现在它们能够处理文本、语音、音频和视频应用中的复杂任务。

LLM 基于机器学习原则运作,包括两个关键阶段:训练和推理。在训练阶段,LLM 分析大量文本数据,识别语言模式,并学习预测后续单词和生成连贯的语言。在推理阶段,利用学到的模式来处理新的文本输入,生成预测,完成句子,并提供相关响应。

AI 智能体

AI 智能体是设计用于感知周围环境并采取行动以实现设定目标的自主或半自主系统,从而塑造与环境的未来交互。这些智能体可以使用 LLM 的能力来规划任务、触发任务执行、做出决策,并与世界有意义地互动。与基础的 LLM 应用不同,使用 LLM 的 AI 智能体遵循一种循环方法来实现其最终目标,不断从其发现中学习和适应,并不断优化其方法。这种迭代式的自我适应能力,使智能体能够有效地通过多步骤过程解决复杂问题,直到任务完成。

w3.jpg

AI驱动的进攻性安全

AI 技术正在开辟进攻性安全领域的新天地,借助 AI 驱动的工具,我们可以模拟高级网络攻击,并在恶意行为者利用之前识别网络、系统和软件的漏洞。这些工具可以帮助安全团队更有效地扩展其工作,提升工作效率。AI 的运用不仅能够覆盖更广泛的攻击场景,还能根据最新的漏洞发现做出动态响应,来适应多变的网络环境,并在实战中不断学习和进化。

AI 模型能够提出攻击策略,自动生成并执行未曾见过的测试用例,并从每次交互中学习。这些 AI 驱动的工具还可以处理海量数据,挖掘出人类无法识别的模式,并在漏洞发现方面提供帮助。

AI 增强和自主性

如上所述,AI 智能体可以自主或半自主地通过规划、推理、工具执行和分析等周期性循环来执行进攻性安全任务,并引入不同程度的人为输入。

然而,授予 AI 智能体的自主权程度必须权衡自动化和增强技术带来的收益和意外后果引发的风险,尤其是在关键应用中。确保有人为监督——或保持“人在回路”——是一种战略优势。这种策略对于将 AI 独特的优势与人类专业知识相结合,从而获得最佳结果至关重要。它确保了质量标准和问责制,特别是在那些生产环境中进行操作的敏感领域。

w4.jpg

侦察

侦察阶段的目标是通过公开来源和被动侦察技术中收集关于目标的详细信息。这包括识别目标的网络范围、域名、员工详细信息、使用的技术以及在安全公告中披露的潜在漏洞。在这一阶段中使用的工具从网站到社交媒体,再到网络流量分析和各种数据库不等,旨在准确绘制组织的攻击面。与外部的威胁者不同,进攻性安全测试人员可以不时地访问内部资源,如网络(拓扑)图、设计文档或配置管理数据库(CMDB),这些资源加速并强化了侦察工作。在像白盒测试这样的场景中,由于已经可以获取到内部知识,因此侦察活动可以简化甚至不必进行。

扫描

扫描阶段的目标是主动探测系统和网络,为目标及其网络结构绘制详细的地图(包括潜在的漏洞),具体包括使用各种工具检测开放端口、正在运行的服务、使用的技术以及潜在的弱点。所使用的工具和技术包括端口扫描器、漏洞扫描器和模糊测试工具。

这一阶段的主要挑战在于处理扫描过程中产生的大量数据及其复杂性。安全测试人员必须系统地分析这些数据,以识别关键细节,这极为耗时且容易出现人为错误。通过自动化扫描过程,以及相较手动审查更快地分析出结果,AI 能够缓解这些挑战。AI 可以识别模式、关联数据并执行智能持续监控,使安全测试人员能够专注于更高级别的分析和策略制定。

漏洞分析

漏洞分析阶段的目标是在初始扫描的基础上,对目标系统和服务进行深入分析,以发现安全缺陷。尽管扫描提供了目标当前状态的概览,但漏洞分析重点关注与这些发现相关的潜在技术安全风险,评估每个潜在漏洞的严重性和影响。

利用

利用阶段的目标是测试在真实场景受控条件下,如何有效利用已识别的安全漏洞。通过模拟攻击,安全测试人员可以评估安全控制的有效性,并在范围允许的情况下衡量攻击者在组织防御中渗透的潜在深度。这通常涉及跨不同系统链接的多个漏洞,以突破攻击路径上的多层屏障。攻击计划及其评估时机决定了工具和技术的选择,其中可能包括漏洞利用工具、自定义脚本和社会工程方法。

社会工程模拟:AI 可以制作逼真的网络钓鱼电子邮件和社交媒体消息,并冒充个人,测试员工意识和组织对社会工程攻击的抵御能力。AI 的这一应用有助于识别安全实践中潜在的人为因素漏洞。

增强创造力和创新能力:安全测试人员可能会忽略特定的攻击路径。AI 可以帮助他们探索非常规策略并找到利用漏洞的创造性方法,从而突破安全测试的界限。

交互式利用:PentestGPT 等 AI 驱动的工具通过为各种安全工具生成直观的命令(针对特定场景)并解释其输出,指导漏洞利用任务的执行。PentestGPT 在HackTheBox 上简单到中等难度的挑战中已被证明是有效的,据报道,在超过670,000 名成员的社区中排名前 1%。另一项研究中显示利用基于 LLM 的系统通过 SSH 在易受攻击的虚拟机上执行和优化攻击命令。例如,该系统可以通过利用 sudoers 文件中的错误配置来提升权限,展示了 AI 在现实世界渗透测试中的实际应用。ExploitFlow 利用博弈论和 AI 生成和表示利用过程,将其呈现为动态攻击树,并捕获每个过程步骤中的系统状态。

威胁行为者对AI的使用

虽然我们已经从安全测试人员或研究人员的角度探讨了 AI 在进攻性安全中的应用,以及他们可能使用技术克服的一些挑战,但如果我们不从威胁行为者的角度以及他们如何利用该技术来看待它,那就太不称职了。这给了我们另一个理由来考虑将 AI 用于进攻性安全。通常,这些恶意行为者使用的策略与进攻性安全测试人员用来识别漏洞的方法重叠。

AI 驱动的社会工程:利用 AI,威胁行为者可以生成特定情境的、令人信服的网络钓鱼内容。通过分析个人的公开信息(例如他们的专业背景或兴趣),AI 可以制作个性化的网络钓鱼电子邮件或消息,这些邮件或消息更有可能欺骗收件人。

恶意代码编写:利用 AI 辅助开发和完善恶意脚本和恶意软件,降低复杂网络攻击的技术门槛。

漏洞研究:威胁行为者利用 AI 来理解和识别软件和系统中公开报告的漏洞。AI可以分析安全报告和补丁说明,并利用数据库来查找可利用的弱点。

绕过安全功能:AI 被用来攻克双因子身份验证或 CAPTCHA 等安全机制。这增强了自动发起垃圾邮件攻击和创建大规模欺诈账户和在线资料的能力。

异常检测规避:另一种策略是利用 AI 开发方法,帮助恶意活动融入正常行为或流量。通过模仿合法模式,AI 有助于逃避检测系统,使安全团队更难识别和缓解威胁。

AI驱动进攻性安全 – 不久的将来

正如前述案例所示,AI 能够通过提升扩展性、效率、速度,以及发现更多复杂漏洞,显著增强进攻性安全的能力。虽然这些 AI 应用的自主性程度各不相同,但最新研究表明,AI 正在向更高自主性稳步迈进。随着 AI 技术的持续发展,我们可以预见到更高级别的自主化与自动化将成为现实,进一步强化进攻性安全的各种功能。

降低入门门槛

AI 的引入和增强正逐步降低安全攻击的门槛。这种技术的普及化使得更多个人和企业能够参与到安全测试中,而无需深厚的漏洞挖掘或技术背景。例如,OpenAI 的 GPT-4o 等工具能够自动生成攻击脚本,使经验不足的安全专业人员也能进行复杂的安全测试。这种民主化趋势让更多组织能够进行更加稳健的安全攻击实践。AI 不仅能够自动化收集信息,还能执行标准化的利用程序,简化复杂的攻击操作。实际上,AI 的应用范围超越了进攻性安全领域,越来越多的研究表明,如今受益于 AI 的往往是新入门者,这进一步说明 AI 赋能了更广泛的用户,推动他们参与到安全测试工作中。

进攻性安全左移

随着自动化程度的提升和反馈周期的缩短,进攻性安全活动能够更早地融入DevSecOps 流程。这种“左移”方法意味着在软件开发生命周期的早期就考虑到安全因素,从而对企业整体的安全态势产生更深远的积极影响。通过尽早识别并缓解漏洞,组织可以大大降低遭受安全侵害的风险,实现更强大的保护能力。

挑战与限制-风险与应对措施

在进攻性安全领域,AI 的应用带来了独特的挑战和限制。管理大数据集并确保准确检测漏洞是一个重要挑战,但可以通过技术进步和最佳实践来解决。然而,一些固有局限性,如 AI 模型中的 token 窗口限制,需要谨慎规划和缓解策略。

结论

AI 正在快速发展,带来了更强的智能体能力和自动化水平。这些发展为全球的进攻性安全团队提供了新的机遇,也带来了挑战。恶意行为者已在法律和道德框架之外利用这些技术进步,凸显出防御者主动创新的迫切需求。

如本文所述,AI 技术,特别是 LLM 和 AI 智能体,通过自动化和扩展任务,显著增强了进攻性安全能力。这种改进提高了效率,使得评估更加复杂和广泛,并使安全团队能够专注于流程改进和战略工作。此外,AI 还促进了安全测试的普及,降低了入门门槛,缓解了专业技能人才短缺的问题。

尽管有这些好处,但目前还没有单一的 AI 解决方案能够彻底改变进攻性安全实践。因此,需要采取多方面的方法,不断试验 AI 以找到并实施有效的解决方案。这就要求创造一个鼓励学习和发展的环境,使团队成员能够提升使用 AI 工具和技术的技能。
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2025-12-13 01:12 , Processed in 0.090881 second(s), 31 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表