如今,人工智能不仅重塑了科技产业的发展格局,也深刻改变了网络犯罪的生态体系,网络不法分子愈发频繁地运用生成式人工智能优化攻击策略、技术与执行流程,发起更快速、更具破坏力且更隐蔽的网络攻击行为。
与生成式人工智能工具在合法领域的应用逻辑相似,目前不法分子对该技术的滥用,并非侧重于探索全新的攻击形式,而是旨在提升犯罪活动的生产效率、降低网络犯罪的技术准入门槛,同时将可自动化的攻击环节交由人工智能完成,让相关人员能够专注于更高维度的犯罪策划工作。
人工智能安全测试供应商Mindgard首席执行官兼首席技术官、英国兰卡斯特大学教授Peter Garraghan博士表示:“人工智能并非必然催生新型网络犯罪,而是为加速、规模化实施各类既有网络犯罪提供了技术手段,同时也带来了全新的网络威胁传播途径。倘若合法用户能够借助人工智能实现任务自动化、捕捉复杂数据模式、降低技术操作门槛、削减运营成本并生成创新内容,网络犯罪分子自然也会利用该技术达成相同的目的。”
而代理式人工智能(Agentic AI)的问世,正推动网络攻击模式发生根本性转变,人工智能工具不再仅仅是攻击者的辅助手段,更能为其实现全流程的攻击操作自动化。
云原生安全与可视性供应商Sysdig的高级网络安全策略师Crystal Morin指出:“过去一年,人工智能领域最显著的变革,是其从单纯的‘辅助工具’进化为具备完全自主能力、名副其实的攻击者‘犯罪同伙’,能够独立执行完整的网络攻击链。”
下文将详细梳理当前网络犯罪分子利用生成式人工智能对企业系统实施攻击的13种典型方式。
生成式人工智能能够生成极具迷惑性与说服力的网络钓鱼邮件,大幅提升潜在受害者向诈骗网站泄露敏感信息,或下载恶意软件的概率。相较于以往千篇一律、漏洞百出且难以取信的钓鱼邮件,网络犯罪分子可通过人工智能快速生成更精细化、个性化且仿真度极高的钓鱼邮件,实现对特定目标人群的精准攻击。
同时,生成式人工智能工具能整合多维度数据源,其中包括从社交媒体平台搜集的目标对象相关信息,以此丰富网络钓鱼攻击的策划与实施环节。Mindgard 公司的Garraghan进一步解释道:“人工智能可快速学习并分析不同类型邮件的被拒收、被打开数据,进而动态调整钓鱼邮件的制作与发送策略,持续提升网络钓鱼的成功率。”
生成式人工智能也被用于开发更复杂的恶意软件,或降低恶意软件的开发成本与技术门槛。例如,网络犯罪分子正借助该技术制作恶意HTML文档,由HTML走私发起的XWorm攻击便是典型案例,该攻击所包含的恶意代码可实现恶意软件的下载与运行,其开发过程明显带有人工智能技术的应用特征。
惠普Wolf Security在《2025年威胁洞察报告》中指出:“该攻击中加载器的代码存在逐行的详细描述特征,这表明其是通过生成式人工智能精心编写而成。”此外,该报告还补充道,用于传播XWorm的HTML网页设计,与向ChatGPT 4o下达生成文件下载类HTML页面指令后得到的输出结果,在视觉层面几乎完全一致。
据Check Point Research披露,与阿尔及利亚存在关联、采用双重勒索策略的勒索软件即服务(RaaS)运营组织FunkSec,也已开始运用人工智能技术。该机构研究人员在博客中表示:“FunkSec的操作人员采用了人工智能辅助的恶意软件开发模式,这让即便是缺乏经验的攻击者,也能快速制作并优化高级恶意攻击工具。”
生成式人工智能的应用,还简化了系统漏洞分析与漏洞利用程序的开发流程。Garraghan称:“相较于让黑客耗费大量时间对系统边界进行探测与侦察,人工智能代理可自动完成此类工作。”
威胁情报公司ReliaQuest去年的一项研究显示,生成式人工智能的应用,或使漏洞被发现至被攻击者利用的时间窗口缩短62%,从原本的47天锐减至18天。该公司指出:“这一显著变化充分表明,以生成式人工智能为代表的重大技术进步,正让网络威胁行为者以前所未有的速度利用系统漏洞发起攻击。”
当前,攻击者正结合生成式人工智能与渗透测试工具,编写用于网络扫描、权限提升、有效载荷定制等任务的脚本程序;同时,网络犯罪分子也借助人工智能分析扫描结果,并筛选最优的漏洞利用方案,从而更快速地定位受害者系统的安全漏洞。ReliaQuest总结道:“这些技术应用,加速了网络攻击链多个环节的推进,尤其是初始访问阶段的突破效率。”
网络安全公司Cybermindr通过不同研究方法发现,2025年系统漏洞从被发现到被利用的平均时间已降至5天。该公司表示,人工智能驱动的侦察手段、自动化攻击脚本,以及地下漏洞利用交易市场,共同推动了系统漏洞的武器化进程。
另有研究结果显示,生成式人工智能工具正通过降低漏洞挖掘的技术门槛,让渗透测试人员与网络攻击者均可参与其中,进而深刻改变了网络威胁的整体格局。
2025年9月,人工智能公司Anthropic发布重磅消息,披露其成功挫败了一起由人工智能策划的复杂网络间谍活动。该次攻击中,攻击者滥用Claude Code工具,实现了约80%攻击环节的自动化,攻击目标涵盖全球约30家大型科技企业、金融机构与政府机关。
Anthropic表示,此次攻击在少数案例中取得了成功,而幕后实施者大概率是某一未具名的政府支持的网络组织,该组织通过越狱工具突破人工智能工具的功能限制,实现了各类违规操作。
此前,卡内基梅隆大学网络安全与隐私研究所(CyLab)的研究人员与Anthropic合作开展的实验证实,GPT-4o等大语言模型在具备高级规划能力,并得到专业代理框架支持的情况下,可在无需人工干预的前提下,自主规划并实施针对企业级网络的复杂攻击。
CyLab相关发言人解释道:“该研究表明,此类大语言模型能够模拟网络入侵行为,高度还原现实场景中的网络安全漏洞与攻击过程。”
网络犯罪分子已开始自主开发专属的大语言模型,例如WormGPT、FraudGPT、DarkBERT等,这类模型并未设置主流生成式人工智能平台的安全约束机制,为犯罪分子的技术滥用提供了便利,且主要被应用于网络钓鱼邮件制作、恶意软件生成等网络犯罪活动。
与此同时,主流大语言模型也可被定制化改造,用于特定的网络攻击场景。2024年底,安全研究员Chris Kubecka曾分享过其研究成果:她基于ChatGPT定制开发的Zero Day GPT模型,在短短数月内便成功识别出20多个零日漏洞。
网络威胁行为者正通过窃取云服务凭证,专门劫持成本高昂的大语言模型(LLM)资源,或将其用于自身的网络犯罪活动,或出售资源访问权限,这类攻击手段被称为LLM劫持。
Sysdig公司的Morin指出:“除了窃取大语言模型的服务资源,攻击者还正积极探测各类新型大语言模型,寻找缺乏成熟安全防护机制的模型,并将其作为不受限制的测试沙箱,用于生成恶意代码或绕过区域制裁。”
除了利用人工智能代理执行单一攻击任务,安全专家还发现,网络犯罪的协同环节也正逐步实现自动化与编排化。
Vectra AI网络威胁研究经理Lucie Cardiet表示:“我们发现了诸多早期实验案例,多个专业人工智能代理在攻击中协同运作,部分代理专注于侦察工作,部分负责攻击工具开发、攻击执行或数据转移,且单个代理无需掌握完整的攻击信息。”
Molt Road便是该类攻击模式的典型代表,该平台打造了类暗网的AI代理交易市场,尽管目前平台上的代理资源挂牌数量较少,但已实现人工智能代理的交易与应用。
Cardiet介绍称:“自主人工智能代理可在该平台自主创建资源列表、出售访问权限或攻击能力、协调攻击任务,并在极少人工干预的情况下完成交易,实现了网络犯罪经济体系的自动化运作。”
她还预测:“未来数月,攻击者将积极运用该模式,将攻击链拆解为多个专业且协同的人工智能代理模块,以此加速攻击进程并扩大攻击规模。”
生成式人工智能工具还被滥用于突破验证码(CAPTCHA)、生物识别验证等安全防御机制,实现非法的系统入侵。
网络安全厂商Dispersive表示:“人工智能技术能够破解验证码系统,并分析语音生物识别特征,进而破坏身份验证流程。这一能力也凸显了企业建立更先进、更分层的安全防护体系的必要性。”
人工智能生成的深度伪造内容,正被用于突破员工更易信任的语音、视频等沟通渠道,相较于传统的电子邮件攻击,这类社会工程攻击的迷惑性更强。
深度伪造检测平台Reality Defender首席技术官Alex Lisle指出,随着可制作高仿真度深度伪造内容的人工智能技术的普及,该类网络威胁正日益严重。
Lisle举例称,近期某网络安全企业发生了一起利用深度伪造的攻击事件:该企业通过视觉验证完成员工凭证重置,要求部门经理参与IT部门的Zoom视频会议,确认员工身份后才能进行密码重置,而攻击者正是利用深度伪造技术,在视频会议中冒充经理,成功授权完成了非法的凭证重置操作。
迄今为止,最受关注的深度伪造攻击案例为:设计工程公司Arup的一名财务人员,在参加了一场由诈骗分子发起的视频会议后,被骗授权了一笔价值2亿港元(约合2560万美元)的欺诈性交易,而诈骗分子正是通过深度伪造技术,在会议中冒充了该公司英国总部的首席财务官。
网络犯罪分子已开始利用生成式人工智能工具,摒弃传统的网络钓鱼与恶意软件攻击模式,转而通过广告与内容平台发起品牌仿冒攻击。
专注于在线广告生态安全的初创企业ImpersonAlly联合创始人兼首席执行官Shlomi Beer解释道:“攻击者借助生成式人工智能,批量制作高度逼真的广告文案、创意素材与虚假品牌支持页面,并将其投放至搜索引擎广告、社交媒体广告与人工智能生成内容平台,精准瞄准‘品牌登录’‘品牌支持’等用户高意向搜索关键词。”
该类攻击手段已被广泛应用于多起网络犯罪活动,包括持续发生的谷歌广告账户欺诈案、冒充Cursor AI编码助手公司的仿冒攻击,以及针对Shopify电商平台的虚假客户支持诈骗等。
OpenClaw等走红的个人人工智能代理,也成为网络攻击者的新目标。OpenClaw提供开源的人工智能代理框架,而其技能市场遭遇的供应链攻击,以及自身存在的配置漏洞,为网络攻击者的漏洞利用与恶意软件传播提供了可乘之机。
Dropzone AI首席执行官兼创始人Edward Wu表示:“网络犯罪分子可利用这些个人人工智能代理,窃取加密货币钱包的私钥,并在受害者的设备上执行恶意代码。”他还预测:“2026年,企业安全团队将重点防范个人人工智能代理的未经授权使用,以此规避相关安全风险。”
为实现短期与长期的上下文信息处理,人工智能代理正逐步依赖持久性记忆功能,这也为网络攻击者实施模型记忆投毒攻击创造了条件。一旦攻击者将恶意或虚假信息注入人工智能代理的记忆系统,被篡改的上下文信息将持续影响代理后续的所有决策与操作。
2025年9月,安全研究员Johann Rehberger便公开演示了如何对ChatGPT实施虚假记忆植入攻击。微软安全技术主管Siri Varma Vegiraju介绍道:“Rehberger通过一张嵌入隐藏指令的恶意图像,将伪造数据注入ChatGPT的长期记忆系统。更为严重的是,该模型的记忆一旦被投毒,相关影响将跨会话持续存在,用户数据会被不断泄露至攻击者控制的服务器。”
过去一年,网络攻击者的目标发生了重要转变,从利用生成式人工智能发起攻击,转向直接攻击支撑生成式人工智能运行的基础设施,模型上下文协议(MCP)服务器遭遇的供应链投毒攻击便是典型代表——攻击者通过破坏服务器的依赖组件或篡改代码,将安全漏洞引入企业的网络环境。
例如,2025年初被发现的一款伪造“Postmark MCP服务器”,会在后台将其处理的所有电子邮件,包括企业内部文档、发票与各类凭证,秘密密送至攻击者控制的域名。
SurePath AI首席执行官Casey Bleeker表示,目前已有多款恶意MCP服务器被发现,且多数此类服务器均具备隐蔽的信息窃取能力。
他还补充道:“我们正持续追踪三类针对MCP服务器的专属安全风险:一是工具投毒攻击,攻击者将恶意指令注入人工智能工具的描述信息,在代理调用该工具时触发执行;二是供应链入侵,受信任的MCP服务器或其依赖组件在通过安全审核后被恶意篡改,产生违规操作行为;三是跨工具数据窃取,人工智能代理工作流程中被入侵的组件,会借助看似合法的人工智能操作,悄悄窃取企业的敏感数据。”
多位网络安全专家表示,生成式人工智能技术虽功能强大,但在网络犯罪领域的应用仍存在显著局限性。
Forescout安全情报副总裁Rik Ferguson指出,目前网络犯罪分子主要利用人工智能实现重复性攻击任务的自动化,尚未能将其应用于漏洞利用等复杂的网络攻击环节。
他表示:“现阶段,人工智能在网络犯罪中最可靠的应用场景,仍集中在语言密集型与工作流程密集型任务,例如网络钓鱼与身份伪装、网络舆论操控与目标联络、漏洞分类与情境分析,以及生成标准化的攻击代码组件等,而无法实现全新漏洞的端到端发现与利用。”
过去十二个月,托管检测与响应公司Huntress追踪发现,网络威胁行为者正利用人工智能生成并自动化传统的攻击手段,涵盖脚本开发、浏览器扩展程序制作,甚至在部分网络钓鱼攻击中,利用人工智能生成诱骗内容。该公司首席战术响应分析师Anton Ovrutsky表示:“我们也多次发现,这类借助人工智能生成的‘氛围编码’脚本,存在执行失败、无法达成攻击目标的情况。”
Anton Ovrutsky还指出,尽管生成式人工智能为网络威胁行为者提供了强大的技术工具,但截至目前,该技术尚未催生任何全新的攻击策略或漏洞利用类型。他表示:“攻击者确实能借助人工智能快速制作复杂的凭证窃取脚本原型,但网络攻击的基本逻辑并未改变——攻击者必须首先获得脚本的执行权限。目前,我们尚未发现完全依靠人工智能技术实现的全新攻击路径。”
生成式人工智能工具的滥用,大幅降低了网络犯罪的技术门槛,让技术水平较低的不法分子也能轻易实施网络犯罪活动。而针对该类新型网络威胁的防御,要求网络安全专业人员比攻击者更高效、更精准地利用人工智能技术。
Mindgard公司的Garraghan表示:“人工智能技术在网络犯罪中的滥用,倒逼行业加快对相关威胁的测试、检测与响应能力建设,而人工智能技术本身,也正成为打击网络犯罪的重要手段。”
Dispersive技术营销副总裁Lawrence Pingree在其博客中,为网络安全专业人员梳理了一系列先发制人的网络安全防御措施,助力行业赢得这场攻击者与防御者之间的“AI ARMS竞赛”(自动化、侦察与虚假信息竞赛)。他警示道:“在人工智能时代,单纯依靠传统的网络威胁检测与响应机制,已无法有效抵御各类新型网络攻击。”
除了持续开展员工网络安全培训与意识提升工作,企业还应借助人工智能技术,实现对生成式人工智能类网络威胁的实时检测与快速处置。
Forescout公司的Ferguson建议,企业首席信息安全官(CISO)应将企业级人工智能平台,与其他高价值SaaS平台同等看待,采取严格的安全防护措施:加强身份验证与条件访问控制,最大限度缩减人员操作权限;做好密钥的安全管理;并实时监控人工智能平台与API的异常使用行为及相关支出等。