AI 智能体是设计用于感知周围环境并采取行动以实现设定目标的自主或半自主系统,从而塑造与环境的未来交互。这些智能体可以使用 LLM 的能力来规划任务、触发任务执行、做出决策,并与世界有意义地互动。与基础的 LLM 应用不同,使用 LLM 的 AI 智能体遵循一种循环方法来实现其最终目标,不断从其发现中学习和适应,并不断优化其方法。这种迭代式的自我适应能力,使智能体能够有效地通过多步骤过程解决复杂问题,直到任务完成。
AI驱动的进攻性安全
AI 技术正在开辟进攻性安全领域的新天地,借助 AI 驱动的工具,我们可以模拟高级网络攻击,并在恶意行为者利用之前识别网络、系统和软件的漏洞。这些工具可以帮助安全团队更有效地扩展其工作,提升工作效率。AI 的运用不仅能够覆盖更广泛的攻击场景,还能根据最新的漏洞发现做出动态响应,来适应多变的网络环境,并在实战中不断学习和进化。
AI 模型能够提出攻击策略,自动生成并执行未曾见过的测试用例,并从每次交互中学习。这些 AI 驱动的工具还可以处理海量数据,挖掘出人类无法识别的模式,并在漏洞发现方面提供帮助。
然而,授予 AI 智能体的自主权程度必须权衡自动化和增强技术带来的收益和意外后果引发的风险,尤其是在关键应用中。确保有人为监督——或保持“人在回路”——是一种战略优势。这种策略对于将 AI 独特的优势与人类专业知识相结合,从而获得最佳结果至关重要。它确保了质量标准和问责制,特别是在那些生产环境中进行操作的敏感领域。
交互式利用:PentestGPT 等 AI 驱动的工具通过为各种安全工具生成直观的命令(针对特定场景)并解释其输出,指导漏洞利用任务的执行。PentestGPT 在HackTheBox 上简单到中等难度的挑战中已被证明是有效的,据报道,在超过670,000 名成员的社区中排名前 1%。另一项研究中显示利用基于 LLM 的系统通过 SSH 在易受攻击的虚拟机上执行和优化攻击命令。例如,该系统可以通过利用 sudoers 文件中的错误配置来提升权限,展示了 AI 在现实世界渗透测试中的实际应用。ExploitFlow 利用博弈论和 AI 生成和表示利用过程,将其呈现为动态攻击树,并捕获每个过程步骤中的系统状态。
威胁行为者对AI的使用
虽然我们已经从安全测试人员或研究人员的角度探讨了 AI 在进攻性安全中的应用,以及他们可能使用技术克服的一些挑战,但如果我们不从威胁行为者的角度以及他们如何利用该技术来看待它,那就太不称职了。这给了我们另一个理由来考虑将 AI 用于进攻性安全。通常,这些恶意行为者使用的策略与进攻性安全测试人员用来识别漏洞的方法重叠。
AI 驱动的社会工程:利用 AI,威胁行为者可以生成特定情境的、令人信服的网络钓鱼内容。通过分析个人的公开信息(例如他们的专业背景或兴趣),AI 可以制作个性化的网络钓鱼电子邮件或消息,这些邮件或消息更有可能欺骗收件人。
恶意代码编写:利用 AI 辅助开发和完善恶意脚本和恶意软件,降低复杂网络攻击的技术门槛。
漏洞研究:威胁行为者利用 AI 来理解和识别软件和系统中公开报告的漏洞。AI可以分析安全报告和补丁说明,并利用数据库来查找可利用的弱点。
异常检测规避:另一种策略是利用 AI 开发方法,帮助恶意活动融入正常行为或流量。通过模仿合法模式,AI 有助于逃避检测系统,使安全团队更难识别和缓解威胁。
AI驱动进攻性安全 – 不久的将来
正如前述案例所示,AI 能够通过提升扩展性、效率、速度,以及发现更多复杂漏洞,显著增强进攻性安全的能力。虽然这些 AI 应用的自主性程度各不相同,但最新研究表明,AI 正在向更高自主性稳步迈进。随着 AI 技术的持续发展,我们可以预见到更高级别的自主化与自动化将成为现实,进一步强化进攻性安全的各种功能。
降低入门门槛
AI 的引入和增强正逐步降低安全攻击的门槛。这种技术的普及化使得更多个人和企业能够参与到安全测试中,而无需深厚的漏洞挖掘或技术背景。例如,OpenAI 的 GPT-4o 等工具能够自动生成攻击脚本,使经验不足的安全专业人员也能进行复杂的安全测试。这种民主化趋势让更多组织能够进行更加稳健的安全攻击实践。AI 不仅能够自动化收集信息,还能执行标准化的利用程序,简化复杂的攻击操作。实际上,AI 的应用范围超越了进攻性安全领域,越来越多的研究表明,如今受益于 AI 的往往是新入门者,这进一步说明 AI 赋能了更广泛的用户,推动他们参与到安全测试工作中。