
我们都曾有过那种诡异的时刻:当我们意识到自己在网上与“某人”交谈时,其实是机器人在回应。早在ChatGPT的发布使得与互联网“机器人”对话成为主流之前,非人类账户就已遍布网络。1966年,麻省理工学院(MIT)的计算机科学家发明了ELIZA,旨在模拟与真人的对话。几乎整整三十年后,微软(Microsoft)用户遇到了“Clippy”。尽管有些用户曾莫名其妙地憎恨“Clippy”这个拟人化的曲别针,但在随后几年里,尤其是在2016年混乱的选举季的推特(Twitter,现已更名为X)上,更具恶意的机器人账户显而易见地活跃起来。
但这些机器人仍然存在。按照官方定义,机器人是执行自动化、重复性任务的软件应用程序。它们仍存在于数字空间中,也是人工智能革命的一个关键方面。这场革命可能会颠覆自20世纪90年代中期以来我们所熟知的互联网形态。
问题在于,机器人活动的激增不仅扰乱了网络流量,还可能通过扭曲那些驱动科技公司估值的核心指标,从而虚增互联网经济规模。如今,自动化机器人占据了全球互联网流量的一半以上。据网络安全巨头泰雷兹(Thales)的子公司Imperva称,2024年机器人产生的流量首次超越了人类产生的活动量。Imperva发布了一份“恶意机器人报告”,其研究发现近50%的互联网流量来自非人类来源,其中20%是所谓的“恶意机器人”,它们极易从事一系列恶意活动。
例如,机器人会制造虚假的页面浏览量、点击量、展示量和用户会话人次,这些都会虚增重要的网站分析数据。这种扭曲直接影响着包括转化率、平均会话时长等各项指标。网络安全公司(诚然,它们可能在一定程度上是在推销自家业务)声称,广告欺诈机器人还会点击按点击付费的广告或模拟用户活动,导致公司为那些从未代表真实用户的流量和转化付费。它们估算,全球互联网每年因此造成的损失高达数千亿美元。
此外,想想那些展示“虚荣指标”(如原始用户注册数或应用下载量)的初创公司吧,其中许多指标都可能被机器人流量人为推高(并且经常如此)。这些统计数据有时是公司自行报告的数据,很少会接受独立的审计。投资者依赖所有这些指标甚至更多指标,用来评估公司价值,因此虚假或夸大的数据可能会扭曲公司的真实实力。
想想投资者们,他们正在将资金投入到由机器人助推的商业模式,再想想阿波罗全球管理公司(Apollo Global Management)广受关注的首席经济学家托斯滕·斯洛克的真知灼见。斯洛克以其在《Daily Spark》中震撼金融界的简洁图表分析而闻名。他最近发布了一张令人瞠目结舌的图表,依据他的计算,“20世纪90年代的IT泡沫与今天的AI泡沫之间的区别在于,当今标普500指数前十大公司市值被高估的程度已超过了90年代。”换言之,如果AI交易是泡沫,那么其规模已经超过了“互联网泡沫”。当时,互联网泡沫破裂曾导致了一场严重的经济衰退。斯洛克虽未直接提及机器人问题,但这使得争论变得更加严肃:万一当前的AI繁荣正是建立在机器人的基础之上,结果会怎么样呢?
机器人与泡沫
这种由机器人驱动的虚增现象,可能正在助长更广泛的技术和人工智能投资泡沫。随着各公司报告用户数量和参与度的快速增长,投资者争相追逐下一个风口,所营造出来的市场环境,令人想起互联网时代。当时,炒作和虚高的指标可能会掩盖真实的商业基本面。
想想“独角兽”的故事吧。硅谷将估值超过10亿美元的私营公司称为“独角兽”。 2013年,风险投资家艾琳·李创造了这个词,以强调其稀有性,当时独角兽公司还只有几十家,但如今这类公司早已不再稀有。据致力于连接创业者Founders Forum称,到2025年,独角兽公司的数量已超过1,200家。独角兽公司数量的激增伴随着2018年和2021年的“宽松货币”时代,当时美联储(Federal Reserve)将利率降至近乎前所未有的水平,风险资本追逐高风险投资以寻求收益。此后,风险资本的资金主要流向了AI领域,这是一个颇具讽刺意味的转变。
历史经验表明,当现实追上被夸大的预期时,市场最终会进行调整。有若干因素表明,AI和机器人问题或将面临类似的清算。对虚假指标的识别便是其中一个因素。随着人们对机器人驱动虚增现象规模的认知不断加深,投资者和分析师可能对表面上的用户数量和参与度统计数据更加怀疑。新的法规正开始着手解决机器人操纵行为背后的经济诱因。
随着机器人在商业、社交媒体和消费者互动中的日益普及,监管互联网上的机器人已成为各国政府关注的焦点。机器人既可用于合法目的,也可能用于恶意目的:它可以协助客户服务,也可能被用于传播虚假信息、生成虚假评价、抢票倒卖或操纵舆论。美国政府主要通过联邦贸易委员会(Federal Trade Commission,FTC)来进行此类监管。
政府的应对举措
联邦贸易委员会是处理涉及机器人的欺骗和不公平行为(尤其是影响消费者和商业的行为)的主要联邦机构。2024年,该机构发布了一项最终规则,禁止虚假的和AI生成的消费者点评和推荐,该规则适用于传统机器人和在网上生成误导性内容或推荐信息的由AI驱动的机器人。
企业若买卖或传播虚假评论或推荐信息(无论是由机器人还是人类撰写),也可能面临民事处罚。该规则旨在确保在线市场的透明度并遏制欺骗性行为。
美国国会方面则于2016年通过了《在线票务销售改善法案》(BOTS Act),并于2025年通过行政命令进一步强化该法案,专门针对利用自动化机器人规避音乐会及活动门票购买管控的行为(黄牛党常用此手段)。联邦贸易委员会负责执行这项法律。该法律规定在购买活动门票时使用机器人绕过安全措施或购买限制属于非法行为。这项法律可被视为“泰勒·斯威夫特法”,因为在斯威夫特创纪录的“时代之旅”(Eras Tour)巡演期间,粉丝们沮丧地发现,新门票在几秒钟内就被机器人抢购一空。
联邦贸易委员会还定期发布商业指南,要求对人工智能聊天机器人和虚拟化身服务保持透明度和准确性,并警告不要通过这些技术误导消费者。该机构建议公司明确披露用户何时正在与机器人互动,确保机器人不会虚假陈述自身能力,并避免使用机器人操纵或欺骗消费者。
一些州(如加利福尼亚州)已通过法律,要求机器人在试图影响选民或消费者时表明身份。在加州推出《增强在线透明度法案》(Bolstering Online Transparency Act)后,其他州也出台了类似法案,不过联邦法律优先权和跨境挑战依然存在。
未来值得关注的方面
随着机器人驱动的指标被曝光,用户数量虚高的公司,尤其是无法证明真实、可持续增长能力的公司,可能会面临估值下跌。市场可能会集中于那些拥有经证实的、由真实人类驱动的参与度和收入的公司,而那些依赖人为指标的公司则可能举步维艰甚至失败。预计市场对用户和参与度数据的第三方验证需求将会增加,分析领域也会出现更强大的机器人检测和过滤机制。
此外,机器人技术在计算领域已存在半个多世纪,而且随着时间的推移,其数量只会越来越多。由机器人驱动的互联网统计数据虚增现象,或许会成为数字生活中不可避免的一部分。(财富中文网)
关于本文,《财富》杂志使用了生成式AI辅助完成初稿。编辑在发布前已核实信息的准确性。
译者:刘进龙
审校:汪皓
我们都曾有过那种诡异的时刻:当我们意识到自己在网上与“某人”交谈时,其实是机器人在回应。早在ChatGPT的发布使得与互联网“机器人”对话成为主流之前,非人类账户就已遍布网络。1966年,麻省理工学院(MIT)的计算机科学家发明了ELIZA,旨在模拟与真人的对话。几乎整整三十年后,微软(Microsoft)用户遇到了“Clippy”。尽管有些用户曾莫名其妙地憎恨“Clippy”这个拟人化的曲别针,但在随后几年里,尤其是在2016年混乱的选举季的推特(Twitter,现已更名为X)上,更具恶意的机器人账户显而易见地活跃起来。
但这些机器人仍然存在。按照官方定义,机器人是执行自动化、重复性任务的软件应用程序。它们仍存在于数字空间中,也是人工智能革命的一个关键方面。这场革命可能会颠覆自20世纪90年代中期以来我们所熟知的互联网形态。
问题在于,机器人活动的激增不仅扰乱了网络流量,还可能通过扭曲那些驱动科技公司估值的核心指标,从而虚增互联网经济规模。如今,自动化机器人占据了全球互联网流量的一半以上。据网络安全巨头泰雷兹(Thales)的子公司Imperva称,2024年机器人产生的流量首次超越了人类产生的活动量。Imperva发布了一份“恶意机器人报告”,其研究发现近50%的互联网流量来自非人类来源,其中20%是所谓的“恶意机器人”,它们极易从事一系列恶意活动。
例如,机器人会制造虚假的页面浏览量、点击量、展示量和用户会话人次,这些都会虚增重要的网站分析数据。这种扭曲直接影响着包括转化率、平均会话时长等各项指标。网络安全公司(诚然,它们可能在一定程度上是在推销自家业务)声称,广告欺诈机器人还会点击按点击付费的广告或模拟用户活动,导致公司为那些从未代表真实用户的流量和转化付费。它们估算,全球互联网每年因此造成的损失高达数千亿美元。
此外,想想那些展示“虚荣指标”(如原始用户注册数或应用下载量)的初创公司吧,其中许多指标都可能被机器人流量人为推高(并且经常如此)。这些统计数据有时是公司自行报告的数据,很少会接受独立的审计。投资者依赖所有这些指标甚至更多指标,用来评估公司价值,因此虚假或夸大的数据可能会扭曲公司的真实实力。
想想投资者们,他们正在将资金投入到由机器人助推的商业模式,再想想阿波罗全球管理公司(Apollo Global Management)广受关注的首席经济学家托斯滕·斯洛克的真知灼见。斯洛克以其在《Daily Spark》中震撼金融界的简洁图表分析而闻名。他最近发布了一张令人瞠目结舌的图表,依据他的计算,“20世纪90年代的IT泡沫与今天的AI泡沫之间的区别在于,当今标普500指数前十大公司市值被高估的程度已超过了90年代。”换言之,如果AI交易是泡沫,那么其规模已经超过了“互联网泡沫”。当时,互联网泡沫破裂曾导致了一场严重的经济衰退。斯洛克虽未直接提及机器人问题,但这使得争论变得更加严肃:万一当前的AI繁荣正是建立在机器人的基础之上,结果会怎么样呢?
机器人与泡沫
这种由机器人驱动的虚增现象,可能正在助长更广泛的技术和人工智能投资泡沫。随着各公司报告用户数量和参与度的快速增长,投资者争相追逐下一个风口,所营造出来的市场环境,令人想起互联网时代。当时,炒作和虚高的指标可能会掩盖真实的商业基本面。
想想“独角兽”的故事吧。硅谷将估值超过10亿美元的私营公司称为“独角兽”。 2013年,风险投资家艾琳·李创造了这个词,以强调其稀有性,当时独角兽公司还只有几十家,但如今这类公司早已不再稀有。据致力于连接创业者Founders Forum称,到2025年,独角兽公司的数量已超过1,200家。独角兽公司数量的激增伴随着2018年和2021年的“宽松货币”时代,当时美联储(Federal Reserve)将利率降至近乎前所未有的水平,风险资本追逐高风险投资以寻求收益。此后,风险资本的资金主要流向了AI领域,这是一个颇具讽刺意味的转变。
历史经验表明,当现实追上被夸大的预期时,市场最终会进行调整。有若干因素表明,AI和机器人问题或将面临类似的清算。对虚假指标的识别便是其中一个因素。随着人们对机器人驱动虚增现象规模的认知不断加深,投资者和分析师可能对表面上的用户数量和参与度统计数据更加怀疑。新的法规正开始着手解决机器人操纵行为背后的经济诱因。
随着机器人在商业、社交媒体和消费者互动中的日益普及,监管互联网上的机器人已成为各国政府关注的焦点。机器人既可用于合法目的,也可能用于恶意目的:它可以协助客户服务,也可能被用于传播虚假信息、生成虚假评价、抢票倒卖或操纵舆论。美国政府主要通过联邦贸易委员会(Federal Trade Commission,FTC)来进行此类监管。
政府的应对举措
联邦贸易委员会是处理涉及机器人的欺骗和不公平行为(尤其是影响消费者和商业的行为)的主要联邦机构。2024年,该机构发布了一项最终规则,禁止虚假的和AI生成的消费者点评和推荐,该规则适用于传统机器人和在网上生成误导性内容或推荐信息的由AI驱动的机器人。
企业若买卖或传播虚假评论或推荐信息(无论是由机器人还是人类撰写),也可能面临民事处罚。该规则旨在确保在线市场的透明度并遏制欺骗性行为。
美国国会方面则于2016年通过了《在线票务销售改善法案》(BOTS Act),并于2025年通过行政命令进一步强化该法案,专门针对利用自动化机器人规避音乐会及活动门票购买管控的行为(黄牛党常用此手段)。联邦贸易委员会负责执行这项法律。该法律规定在购买活动门票时使用机器人绕过安全措施或购买限制属于非法行为。这项法律可被视为“泰勒·斯威夫特法”,因为在斯威夫特创纪录的“时代之旅”(Eras Tour)巡演期间,粉丝们沮丧地发现,新门票在几秒钟内就被机器人抢购一空。
联邦贸易委员会还定期发布商业指南,要求对人工智能聊天机器人和虚拟化身服务保持透明度和准确性,并警告不要通过这些技术误导消费者。该机构建议公司明确披露用户何时正在与机器人互动,确保机器人不会虚假陈述自身能力,并避免使用机器人操纵或欺骗消费者。
一些州(如加利福尼亚州)已通过法律,要求机器人在试图影响选民或消费者时表明身份。在加州推出《增强在线透明度法案》(Bolstering Online Transparency Act)后,其他州也出台了类似法案,不过联邦法律优先权和跨境挑战依然存在。
未来值得关注的方面
随着机器人驱动的指标被曝光,用户数量虚高的公司,尤其是无法证明真实、可持续增长能力的公司,可能会面临估值下跌。市场可能会集中于那些拥有经证实的、由真实人类驱动的参与度和收入的公司,而那些依赖人为指标的公司则可能举步维艰甚至失败。预计市场对用户和参与度数据的第三方验证需求将会增加,分析领域也会出现更强大的机器人检测和过滤机制。
此外,机器人技术在计算领域已存在半个多世纪,而且随着时间的推移,其数量只会越来越多。由机器人驱动的互联网统计数据虚增现象,或许会成为数字生活中不可避免的一部分。(财富中文网)
关于本文,《财富》杂志使用了生成式AI辅助完成初稿。编辑在发布前已核实信息的准确性。
译者:刘进龙
审校:汪皓
We’ve all had that uncanny moment when we realize we’ve been talking to “someone” online when we realize it’s a robot responding. Long before the release of ChatGPT mainstreamed the act of talking to “bots” on the internet, non-human accounts were all over the web. MIT computer scientists invented ELIZA in 1966, to simulate conversations with a real human being. Microsoft users met “Clippy” almost exactly three decades later. Despite some users’ unlikely vitriol for the anthropomorphic paper clip, much more malicious bots became obvious to users in the years to come on social media, especially on Twitter in the chaotic election season of 2016.
But the bots are still with us. Officially defined as software applications that run automated, repetitive tasks, bots are still swimming in the digital ether, and they’re a key aspect of the artificial intelligence (AI) revolution that is threatening to undo the internet as it’s been known since the mid-1990s.
The catch is that the surge in bot activity is not just disrupting web traffic—it may also be inflating the internet economy by distorting the very metrics that drive tech company valuations. Automated bots now make up more than half of global internet traffic. Bots surpassed human-generated activity for the first time in 2024, according to Imperva, a subsidiary of cybersecurity giant Thales. Imperva, which issues a “Bad Bot report,” found that almost 50% of internet traffic comes from non-human sources, with 20% of that being so-called “bad bots,” prone to a host of malicious activities.
For example, bots generate fake pageviews, clicks, impressions, and user sessions, all of which inflate top-line web analytics data. This distortion directly impacts metrics including conversion rates, average session duration, and the like. Cybersecurity firms, which admittedly may be talking their book to some extent, claim that ad fraud bots also click on pay-per-click ads or simulate user activity, causing companies to pay for traffic and conversions that never represent real humans. They put the damage at hundreds of billions of dollars per year around the global internet.
Also, consider the startups that showcase “vanity metrics” such as raw user sign-ups or app downloads, many of which can be (and often are) pumped up by bot traffic. These statistics are sometimes self-reported and rarely audited independently. Investors rely on all of these metrics—and more—to assess company value, so fake or inflated data can misrepresent underlying business strength.
Consider the investors that are pumping money into bot-boosted business models, and then consider the wisdom of Torsten Slok, the widely read chief economist for Apollo Global Management, who is known for shaking the financial community with his brief charticles in his “Daily Spark.” He recently posted an eye-popping chart, based off his calculations that “the difference between the IT bubble in the 1990s and the AI bubble today is that the top 10 companies in the S&P 500 today are more overvalued than they were in the 1990s.” In other words, if the AI trade is a bubble, it’s a bigger bubble than the one that popped in the days of the “dotcom crash,” leading to a nasty recession. Slok didn’t address the bot question, but it lends further seriousness to the debate: what if the current AI boom is built on the backs of bots?
https://www.goldmansachs.com/insights/articles/ai-stocks-arent-in-a-bubble
Bots and bubbles
This bot-driven inflation may be feeding into a broader tech and AI investment bubble. As companies report rapid user growth and engagement, investors chase the next big thing, and result is a market environment reminiscent of the dot-com era, where hype and inflated metrics risk overshadowing real business fundamentals.
Consider the story of the unicorns: Silicon Valley’s term for private firms with $1 billion-plus valuations. From just a few dozen in 2013, when venture capitalist Aileen Lee coined the term to stress their rarity, unicorns have become anything but. The numbered over 1,200 by 2025, according to Founders Forum, an organization committed to connecting entrepreneurs. Surges in unicorn formation accompanied the “easy money” era of 2018 and 2021, when the Federal Reserve lowered interest rates to nearly unprecedented levels and venture capital money chased risky investments, seeking yield. The money in VC has since largely gravitated to AI, a deeply ironic turn of events.
History suggests that markets eventually correct when reality catches up to inflated expectations. Several factors point to a similar reckoning for AI and the bot problem. Recognition of fake metrics is one. As awareness grows about the scale of bot-driven inflation, investors and analysts could grow more skeptical of headline user numbers and engagement stats. New regulations are beginning to address the economic incentives behind bot-driven manipulation.
Regulating bots on the internet has become a critical focus for governments in response to their growing presence in commerce, social media, and consumer interactions. Bots can be used for both legitimate and malicious purposes: assisting with customer service, but also spreading misinformation, generating fake reviews, scalping tickets, or manipulating public opinion. The U.S. government mainly does this through the Federal Trade Commission (FTC).
What the government is trying to do about it
The FTC is the leading federal agency addressing deception and unfair practices involving bots, especially those affecting consumers and commerce. In 2024, the FTC issued a final rule prohibiting fake and AI-generated consumer reviews and testimonials, which applies to both traditional and AI-powered bots that generate misleading content or endorsements online.
Businesses can also face civil penalties for buying, selling, or disseminating fake reviews or endorsements, whether authored by bots or humans. The rule aims to ensure transparency in online marketplaces and curb deceptive practices.
From Congress, there’s the BOTS Act (Better Online Ticket Sales Act), enacted in 2016 and strengthened by executive order in 2025, that specifically targets the use of automated bots to circumvent controls on ticket purchases for concerts and events, often used by scalpers. The FTC enforces this law, which makes it illegal to use bots to bypass security or purchasing limits when acquiring event tickets. This could be thought of as the “Taylor Swift” law, as fans found, to their displeasure, during her record-setting Eras Tour when new tickets disappeared in seconds, gobbled up by bots.
The FTC also regularly issues business guidance calling for transparency and accuracy about AI chatbots and avatar services, warning against misleading consumers through these technologies. The agency advises companies to clearly disclose when users are interacting with bots, ensure bots do not misrepresent capabilities, and avoid using bots to manipulate or deceive consumers.
Some states, such as California, have passed laws requiring bots to identify themselves when attempting to influence a voter or consumer. Other states have introduced similar bills modeled after California’s “Bolstering Online Transparency Act,” though federal preemption and cross-border challenges remain.
What to watch for
As bot-driven metrics are exposed, companies with inflated user numbers may see their valuations fall, especially if they can’t demonstrate real, sustainable growth. The market may consolidate around companies with proven, human-driven engagement and revenue, while those reliant on artificial metrics struggle or fail. Expect increased demand for third-party verification of user and engagement data, as well as more robust bot-detection and filtering in analytics.
Then again, bots have been a feature of computing for over half-a-century and they’ve just grown more and more plentiful over time. Bot-driven inflation of internet statistics may just become an inevitable part of digital life.
For this story, Fortune used generative AI to help with an initial draft. An editor verified the accuracy of the information before publishing.