首页 500强 活动 榜单 商业 科技 商潮 专题 品牌中心
杂志订阅

益博睿警告消费者:2026年AI诈骗或将激增

Amanda Gerut
2026-01-15

益博睿预测,随着越来越多的人转向使用AI智能体进行购物,2026年将成为欺诈问题的“临界点”。

文本设置
小号
默认
大号
Plus(0条)

图片来源:Prathan Chorruangsak—Getty Images

如果有一群机器人掌握了你的信用卡信息,这显然就是一个让你立刻注销信用卡的危险信号。但如果这群掌握你信用卡信息的机器人,还获得了你的授权,去购买那条你心仪已久的牛仔裤呢?这听起来似乎没有那么糟糕。

然而,益博睿(Experian)在1月13日发布的《2026年欺诈趋势展望报告》(2026 Future of Fraud Forecast)中警告称,使用OpenAI、Perplexity等工具进行“购物”,可能对本来就难以区分所谓“好机器人”和“坏机器人”的企业带来巨大冲击。该报告指出,企业面临的头号威胁是“机器对机器的混乱局面”,即网络犯罪分子将替你购物的“好机器人”与专门实施欺诈的“坏机器人”混为一体。

益博睿北美地区(Experian North America)负责欺诈与身份识别的首席创新官凯瑟琳·彼得斯表示:“仅仅识别出机器人并拦截这类流量已经不够。我们必须进一步判断:‘这是好机器人,还是恶意机器人?’”

美国联邦贸易委员会(U.S. Federal Trade Commission)在2025年发现,消费者因欺诈损失超过125亿美元,而近60%的企业报告称其在2024年至2025年间的欺诈损失有所增加。值得注意的是,尽管年度欺诈举报数量仍然稳定在230万起,财务损失却激增25%,这表明欺诈手段在骗取消费者和企业钱财方面的效率正在变得越来越高。

在去年7月发布的另一项调查中,益博睿报告称,72%的企业高管认为,AI驱动的欺诈行为和深度伪造,将成为今年企业运营面临的首要挑战之一。

彼得斯表示,益博睿预测,今年将成为AI欺诈的“临界点”,并将迫使电商领域就代理式AI的责任归属和监管展开讨论。她说:“我们希望放行那些能够带来便利和效率的‘好的智能体’,但必须确保这不会无意中成为不法分子可乘的捷径。”

一些电商公司已经开始拦截AI智能体。例如,亚马逊(Amazon)通常禁止独立第三方机器人在其平台上浏览和购物,并在去年年底起诉,试图阻止Perplexity的AI智能体自主购物。这家电商巨头公开表示,此举是为了保护安全与隐私。

不过,彼得斯警告道,一旦消费者开始授权AI智能体代为购物,零售商很快就需要着手解决如何管理这些机器人的问题。她指出,零售商需要确认:消费者是否确实给予智能体授权;智能体是否忠实执行了消费者的意图;智能体是否获得下单许可,而不仅仅是浏览权限;以及机器人背后操控者是真实消费者,而不是一名网络犯罪分子。

零售商还需要考虑AI智能体对业务的冲击。零售商希望与客户直接互动,以推荐产品、建立忠诚度并收集数据。如果一个自主智能体在完成交易后随即消失,这些功能可能部分或全部被削弱。

深度伪造“员工”渗透企业

益博睿指出,今年第二大威胁来自深度伪造求职者渗透远程办公劳动力市场。这一风险已经切实发生:美国联邦调查局(FBI)和美国司法部(Department of Justice)在2025年多次发布警告,指出已经有确凿证据显示,有朝鲜特工冒充IT从业者谋得职位,并将所得薪资汇回国内。这些伪造身份的IT员工利用深度伪造技术和身份操纵手段,在数百家美国公司成功获得职位。

益博睿预测,随着AI工具的不断改进,深度伪造求职者将更容易通过面试,就业欺诈行为将进一步升级。企业会在不知情的情况下录用这些伪造身份的员工,并向其开放内部系统的访问权限。

彼得斯还表示,除国家背景的欺诈行为外,紧张的劳动力市场也可能迫使一些走投无路的求职者铤而走险,通过“技能变现”来获得工作机会,或帮助他人通过面试。薪资丰厚、完全远程办公的数据科学岗位,通常要求在面试中评估求职者的技术能力。随着深度伪造工具的日益完善,企业将越来越难判断面试者的真实水平。

彼得斯称:“当前的就业市场竞争异常激烈,一些人可能会提供‘代过技术面试’之类的服务。”

迫在眉睫的威胁

益博睿还警告道,另有三大趋势预计将在2026年愈演愈烈:

• 智能家居设备,包括虚拟助手、智能门锁和安防系统,将暴露出新的安全漏洞,而这些漏洞可能被网络犯罪分子利用。

• AI工具降低了仿冒正规网站的操作门槛,由此催生的网站克隆行为可能令反欺诈团队不堪重负。

• 具备高情商的智能机器人,将以极其高明的方式,自动实施恋爱诈骗和冒充亲属求助的骗局。

当企业希望借助AI提升效率的时候,网络犯罪分子的作案效率也在不断提高。彼得斯表示,AI已经将这些强大工具的获取途径“民主化”,不仅工程师可以使用,诈骗分子也能加以利用。“他们无需太多专业知识,就可以制造出更具迷惑性的骗局和更逼真的诈骗短信,进而大规模群发实施诈骗。”(财富中文网)

译者:刘进龙

如果有一群机器人掌握了你的信用卡信息,这显然就是一个让你立刻注销信用卡的危险信号。但如果这群掌握你信用卡信息的机器人,还获得了你的授权,去购买那条你心仪已久的牛仔裤呢?这听起来似乎没有那么糟糕。

然而,益博睿(Experian)在1月13日发布的《2026年欺诈趋势展望报告》(2026 Future of Fraud Forecast)中警告称,使用OpenAI、Perplexity等工具进行“购物”,可能对本来就难以区分所谓“好机器人”和“坏机器人”的企业带来巨大冲击。该报告指出,企业面临的头号威胁是“机器对机器的混乱局面”,即网络犯罪分子将替你购物的“好机器人”与专门实施欺诈的“坏机器人”混为一体。

益博睿北美地区(Experian North America)负责欺诈与身份识别的首席创新官凯瑟琳·彼得斯表示:“仅仅识别出机器人并拦截这类流量已经不够。我们必须进一步判断:‘这是好机器人,还是恶意机器人?’”

美国联邦贸易委员会(U.S. Federal Trade Commission)在2025年发现,消费者因欺诈损失超过125亿美元,而近60%的企业报告称其在2024年至2025年间的欺诈损失有所增加。值得注意的是,尽管年度欺诈举报数量仍然稳定在230万起,财务损失却激增25%,这表明欺诈手段在骗取消费者和企业钱财方面的效率正在变得越来越高。

在去年7月发布的另一项调查中,益博睿报告称,72%的企业高管认为,AI驱动的欺诈行为和深度伪造,将成为今年企业运营面临的首要挑战之一。

彼得斯表示,益博睿预测,今年将成为AI欺诈的“临界点”,并将迫使电商领域就代理式AI的责任归属和监管展开讨论。她说:“我们希望放行那些能够带来便利和效率的‘好的智能体’,但必须确保这不会无意中成为不法分子可乘的捷径。”

一些电商公司已经开始拦截AI智能体。例如,亚马逊(Amazon)通常禁止独立第三方机器人在其平台上浏览和购物,并在去年年底起诉,试图阻止Perplexity的AI智能体自主购物。这家电商巨头公开表示,此举是为了保护安全与隐私。

不过,彼得斯警告道,一旦消费者开始授权AI智能体代为购物,零售商很快就需要着手解决如何管理这些机器人的问题。她指出,零售商需要确认:消费者是否确实给予智能体授权;智能体是否忠实执行了消费者的意图;智能体是否获得下单许可,而不仅仅是浏览权限;以及机器人背后操控者是真实消费者,而不是一名网络犯罪分子。

零售商还需要考虑AI智能体对业务的冲击。零售商希望与客户直接互动,以推荐产品、建立忠诚度并收集数据。如果一个自主智能体在完成交易后随即消失,这些功能可能部分或全部被削弱。

深度伪造“员工”渗透企业

益博睿指出,今年第二大威胁来自深度伪造求职者渗透远程办公劳动力市场。这一风险已经切实发生:美国联邦调查局(FBI)和美国司法部(Department of Justice)在2025年多次发布警告,指出已经有确凿证据显示,有朝鲜特工冒充IT从业者谋得职位,并将所得薪资汇回国内。这些伪造身份的IT员工利用深度伪造技术和身份操纵手段,在数百家美国公司成功获得职位。

益博睿预测,随着AI工具的不断改进,深度伪造求职者将更容易通过面试,就业欺诈行为将进一步升级。企业会在不知情的情况下录用这些伪造身份的员工,并向其开放内部系统的访问权限。

彼得斯还表示,除国家背景的欺诈行为外,紧张的劳动力市场也可能迫使一些走投无路的求职者铤而走险,通过“技能变现”来获得工作机会,或帮助他人通过面试。薪资丰厚、完全远程办公的数据科学岗位,通常要求在面试中评估求职者的技术能力。随着深度伪造工具的日益完善,企业将越来越难判断面试者的真实水平。

彼得斯称:“当前的就业市场竞争异常激烈,一些人可能会提供‘代过技术面试’之类的服务。”

迫在眉睫的威胁

益博睿还警告道,另有三大趋势预计将在2026年愈演愈烈:

• 智能家居设备,包括虚拟助手、智能门锁和安防系统,将暴露出新的安全漏洞,而这些漏洞可能被网络犯罪分子利用。

• AI工具降低了仿冒正规网站的操作门槛,由此催生的网站克隆行为可能令反欺诈团队不堪重负。

• 具备高情商的智能机器人,将以极其高明的方式,自动实施恋爱诈骗和冒充亲属求助的骗局。

当企业希望借助AI提升效率的时候,网络犯罪分子的作案效率也在不断提高。彼得斯表示,AI已经将这些强大工具的获取途径“民主化”,不仅工程师可以使用,诈骗分子也能加以利用。“他们无需太多专业知识,就可以制造出更具迷惑性的骗局和更逼真的诈骗短信,进而大规模群发实施诈骗。”(财富中文网)

译者:刘进龙

A swarm of bots armed with your credit card information sounds like a glaring-red signal to cancel the card. But a swarm of bots with your credit card information—and permission to buy those jeans you’ve been eyeing? Doesn’t sound so bad.

Yet “shopping” with tools like OpenAI or Perplexity could wreak havoc on companies that already struggle to distinguish between so-called good and bad bots, warns Experian in its 2026 Future of Fraud Forecast, published today. The No. 1 threat to companies, according to the forecast, is “machine-to-machine mayhem” in which cybercriminals blend good bots doing your shopping with bad bots tasked with fraud.

“It’s not enough anymore to say that it’s a bot, so we need to stop this traffic,” said Kathleen Peters, chief innovation officer for fraud and identity at Experian North America. “Now, we need to say, ‘Is it a good bot or is it a malicious bot?’”

The U.S. Federal Trade Commission last year found that consumers lost more than $12.5 billion to fraud, while nearly 60% of companies reported an increase in losses from 2024 to 2025. Strikingly, financial losses ballooned by 25% even as the number of fraud reports held steady at 2.3 million a year, showing that schemes are getting more effective at cheating consumers and companies out of their money.

In a separate survey released in July, Experian reported that 72% of business leaders believe that AI-enabled fraud and deepfakes will be among their top operational challenges this year.

The company predicts this year will be a “tipping point” for AI-enabled fraud that will force conversations about liability and regulation around agentic AI in e-commerce, Peters said. “We want to let the good agents through to provide convenience and efficiency, but we need to make sure that doesn’t accidentally become a shortcut for bad actors,” she said.

Some e-commerce companies already block AI agents. Amazon, for example, generally blocks bots from independent third parties from browsing and shopping on its platform, and sued to block Perplexity AI agents from shopping autonomously late last year. The e-commerce giant has publicly stated the move is to protect security and privacy.

Yet Peters warns that retailers will soon need to grapple with how to manage AI bots once consumers give agents permission to shop for them. She notes that retailers will need to confirm that a consumer gave the agent permission; that the agent is faithful to the consumer’s intent; that the agent has permission to buy and not just browse; and that there’s an actual consumer behind the bot, and not another cybercriminal.

Disruption is also on the table. Retailers want direct engagement with customers to recommend products, build loyalty, and gather data. Some—or all—of that could be crippled if an autonomous agent just completes a transaction and then vanishes.

Deepfake employees infiltrate companies

The second greatest threat for the year, according to Experian, are deepfake candidates infiltrating remote workforces. This threat has already materialized: The FBI and Department of Justice issued multiple warnings last year about documented North Korean operatives posing as IT workers to get jobs and send their salaries back to the regime. These fake IT workers use deepfake technology and identity manipulation to gain employment at hundreds of U.S. companies.

Experian predicts employment fraud will escalate as improved AI tools allow deepfake candidates to get through interviews more easily. Companies will unwittingly onboard these fake employees and grant them access to internal systems.

Beyond state-backed fraud, Peters said the tight labor market could also spur desperate job seekers to monetize their skills to get a job or to help a candidate get through an interview. Lucrative, fully remote data science jobs with robust salaries usually require technical proficiencies that are gauged in an interview. As deepfake tools improve, it will likely get harder for companies to tell how an interviewee is faring.

“It’s a very competitive job market out there, and individuals may offer their services to get through a technical interview,” she said.

Threats on the horizon

The forecast warns of three other trends expected to ramp up in 2026.

• Smart home devices, including virtual assistants, smart locks, and security systems, will introduce new weaknesses that cybercriminals could exploit.

• Website cloning could overwhelm fraud teams as AI tools make it simpler to replicate legitimate websites for attacks.

• Intelligent bots with high emotional IQs will carry out automated romance and family-member-in-need scams with intense sophistication.

Just as companies are looking to increase their efficiency through AI, cybercriminals are getting more efficient. AI has “democratized” access to these powerful tools to not just engineers, but fraudsters as well, Peters said. “With less expertise, they’re able to create more convincing scams and more convincing text messages that they can blast out at scale.”

财富中文网所刊载内容之知识产权为财富媒体知识产权有限公司及/或相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。
0条Plus
精彩评论
评论

撰写或查看更多评论

请打开财富Plus APP

前往打开