
前一阵,我问我的AI助手,我在一个AI写作的项目上花了多少时间。当时我想要的只是一个数字,但没想到,最终我却陷入了对未来工作形态的深入思考。因为对于我的问题,AI给出了对我的这次脑力劳动的一份全面的审核报告——包括我写了什么、何时写的、内容是如何变化的,以及我在每个部分上分别花费了多长时间。
让我意外的,并非是AI所展现出来的能力。最近几十年,我一直在与AI打交道。2011年,我还带领IBM的沃森团队在《危险边缘》节目中击败了最顶尖的人类选手。真正让我意外的,是我的工作量竟能被如此清晰地呈现出来。这就好像我在面对一面镜子,它不光知道我做了什么,还知道我是如何做的。
现在,AI已经越来越深地融入到了我们的日常工作中。这也为我们带来了新的绩效评估手段。想象一下,如果AI助手不仅可以帮你工作,还能衡量、评估甚至审核你的工作内容,正确评价你所付出的努力,那么,绩效评估的科学性是不是就大大增加了呢?
用AI进行绩效评估
这个问题已不再是理论层面的探讨了。现在只要你在一项工作中使用到AI,AI就可以追踪我们在项目中的每一步行动,对我们的贡献进行分类,并且可以比人类管理者更客观地评价我们的付出。它能够让知识型劳动背后那些无形的付出变得清晰可见。而以往这些隐形的劳动往往是很难被领导看到的,有时甚至可能会被归功于别人。
而在我自己的那个写作项目中,AI列出了我所做的贡献的详细图表,详细到了每一个想法、每一次修改以及每一个决策节点。它还对我的贡献进行了分类,揭示了一些我从未注意过的工作模式和一些连我自己也意识不到的看法。在此过程中,它还展现了一种新的问责方法——这种问责方法不仅仅基于工作成果,更是基于工作成果背后的努力。
这种透明度可能会给职场带来变革性的影响。想象一下,如果我们能够精准评估团队成员对项目的具体贡献——不光是谁开会时发了言,也不光是谁做了PPT,而是还包括了那些提出意见、修改方案、提出问题和完善意见的人。那么这不仅对管理层有利,对于那些在传统绩效评估体系中经常被忽视的个人而言,更是一种赋能。
再回到我个人的例子。AI不仅量化了我的工作时间——在我的那个写作项目中,我一共工作了34个小时,写了47章,与AI进行了1200次问答。AI还给出这样的评价:“戴维・费鲁奇并不是一个只会输入提示词的被动型用户,是扮演了一个创意总监、首席理论家与总编的角色,引导并塑造了一个动态响应的系统,使其不断朝着一个更清晰的目标前进。” 它还详细记录了我在每一章中为了塑造出最终成果所做的努力。
风险与新问题
当然,AI也有一些令人感到害怕的地方。
这种高透明度,也意味着你有被AI监视的风险。一想到每个不成熟的想法、每一次半途而废的尝试、每一刻的疑虑都会被记录和评价,这不免会给一种如芒在背之感。即便AI只是一个中立的观察者,“被凝视”这种感觉本身也会影响我们的工作。创造力的产生,需要一个允许混乱存在的安全空间,而当这个空间受到监视时,我们可能陷入自我审查,或者下意识地去选择更稳妥的方案。
更糟糕的是,如果在缺乏适当保障措施的情况下将AI用于绩效评估,还可能有可能导致一些偏见和不公的发生。毕竟AI系统不是凭空出现的,它们的偏好也会受到设计者和训练数据的影响。如果我们在这个问题上掉以轻心,那么一些我们本希望摆脱的人为偏见,就有可能借着AI的壳子被延续下去。
还有就是权属的问题。在人和AI协作的过程中,你的思考是在何处停止的?AI的建议又是从何处开始的?你和AI合作形成的看法,是算你的还是AI的?这些问题在现在还都处在模糊地带,一旦涉及绩效、晋升和薪酬等问题,情况只会更加复杂。
AI与未来的工作形态
不管怎样,AI的潜力是不可小觑的。只要运用得当,AI辅助绩效评估有望成为更公平、更全面的绩效评估方法。人类管理者往往无法摆脱偏见的影响,比如个人魅力、从众心理以及一些无意识的成见都会左右对一个人的评价结果。而一个设计合理、高透明度而且能定期接受审核的AI系统,或许能够为我们创造一个更公平的竞争环境。
当然,要实现这个目标,我们首先要制定一些严格的基本原则:
• 透明度:要杜绝 “黑箱” 评估。人们必须清楚AI是如何评判他们的工作的。
• 杜绝作弊:系统必须能够防止被用户、管理者或外部人员钻空子。
• 一致性:不同岗位、团队和时间的评价标准应该是平等的。
• 可审查性:和人类一样,AI也要为错误和偏见负责。
• 基准测试:要将AI的评估结果与人类的评估结果进行对比,以理解差异之处。
如果利用得当,AI将能帮助我们科学评价一些长期难以量化评估的事物,比如脑力劳动的结构、过程与成本等。它还能帮助我们打造更优秀的团队,设计更有意义的工作,甚至让我们在工作中获得更多个人满足感。
但是,我们在这个过程中,必须采取审慎的态度。我们的目标并不是让AI给员工打分,也不是让AI取代职业经理人。而是要用AI帮助我们深化对工作的理解——也就是谁在做这份工作,这份工作是如何开展的,以及如何能让这份工作做得更好。
在我撰写那篇关于自然系统与设计系统的多样性动态研究的论文时,我意外地发现,自己亲身经历了另一场变革。它很有可能会重新定义知识型劳动的评价和管理体系。未来的职场协作将是人与机器的协同,而不是人与机器的对抗。在未来的职场中,在一个开放透明的过程中,每个参与者都将能够看到彼此的付出,从中学到经验,并且因自身的付出而获得公道的评价。
所以说,只要用好了AI,它不仅能提高我们的工作效率,还能使我们更清楚地了解自己。(财富中文网)
本文作者David Ferrucci 是全球企业中心下设非营利机构高级企业人工智能研究所的董事总经理。
《财富》网站评论文章仅代表作者本人观点,并不代表《财富》的观点和立场。
译者:朴成奎
前一阵,我问我的AI助手,我在一个AI写作的项目上花了多少时间。当时我想要的只是一个数字,但没想到,最终我却陷入了对未来工作形态的深入思考。因为对于我的问题,AI给出了对我的这次脑力劳动的一份全面的审核报告——包括我写了什么、何时写的、内容是如何变化的,以及我在每个部分上分别花费了多长时间。
让我意外的,并非是AI所展现出来的能力。最近几十年,我一直在与AI打交道。2011年,我还带领IBM的沃森团队在《危险边缘》节目中击败了最顶尖的人类选手。真正让我意外的,是我的工作量竟能被如此清晰地呈现出来。这就好像我在面对一面镜子,它不光知道我做了什么,还知道我是如何做的。
现在,AI已经越来越深地融入到了我们的日常工作中。这也为我们带来了新的绩效评估手段。想象一下,如果AI助手不仅可以帮你工作,还能衡量、评估甚至审核你的工作内容,正确评价你所付出的努力,那么,绩效评估的科学性是不是就大大增加了呢?
用AI进行绩效评估
这个问题已不再是理论层面的探讨了。现在只要你在一项工作中使用到AI,AI就可以追踪我们在项目中的每一步行动,对我们的贡献进行分类,并且可以比人类管理者更客观地评价我们的付出。它能够让知识型劳动背后那些无形的付出变得清晰可见。而以往这些隐形的劳动往往是很难被领导看到的,有时甚至可能会被归功于别人。
而在我自己的那个写作项目中,AI列出了我所做的贡献的详细图表,详细到了每一个想法、每一次修改以及每一个决策节点。它还对我的贡献进行了分类,揭示了一些我从未注意过的工作模式和一些连我自己也意识不到的看法。在此过程中,它还展现了一种新的问责方法——这种问责方法不仅仅基于工作成果,更是基于工作成果背后的努力。
这种透明度可能会给职场带来变革性的影响。想象一下,如果我们能够精准评估团队成员对项目的具体贡献——不光是谁开会时发了言,也不光是谁做了PPT,而是还包括了那些提出意见、修改方案、提出问题和完善意见的人。那么这不仅对管理层有利,对于那些在传统绩效评估体系中经常被忽视的个人而言,更是一种赋能。
再回到我个人的例子。AI不仅量化了我的工作时间——在我的那个写作项目中,我一共工作了34个小时,写了47章,与AI进行了1200次问答。AI还给出这样的评价:“戴维・费鲁奇并不是一个只会输入提示词的被动型用户,是扮演了一个创意总监、首席理论家与总编的角色,引导并塑造了一个动态响应的系统,使其不断朝着一个更清晰的目标前进。” 它还详细记录了我在每一章中为了塑造出最终成果所做的努力。
风险与新问题
当然,AI也有一些令人感到害怕的地方。
这种高透明度,也意味着你有被AI监视的风险。一想到每个不成熟的想法、每一次半途而废的尝试、每一刻的疑虑都会被记录和评价,这不免会给一种如芒在背之感。即便AI只是一个中立的观察者,“被凝视”这种感觉本身也会影响我们的工作。创造力的产生,需要一个允许混乱存在的安全空间,而当这个空间受到监视时,我们可能陷入自我审查,或者下意识地去选择更稳妥的方案。
更糟糕的是,如果在缺乏适当保障措施的情况下将AI用于绩效评估,还可能有可能导致一些偏见和不公的发生。毕竟AI系统不是凭空出现的,它们的偏好也会受到设计者和训练数据的影响。如果我们在这个问题上掉以轻心,那么一些我们本希望摆脱的人为偏见,就有可能借着AI的壳子被延续下去。
还有就是权属的问题。在人和AI协作的过程中,你的思考是在何处停止的?AI的建议又是从何处开始的?你和AI合作形成的看法,是算你的还是AI的?这些问题在现在还都处在模糊地带,一旦涉及绩效、晋升和薪酬等问题,情况只会更加复杂。
AI与未来的工作形态
不管怎样,AI的潜力是不可小觑的。只要运用得当,AI辅助绩效评估有望成为更公平、更全面的绩效评估方法。人类管理者往往无法摆脱偏见的影响,比如个人魅力、从众心理以及一些无意识的成见都会左右对一个人的评价结果。而一个设计合理、高透明度而且能定期接受审核的AI系统,或许能够为我们创造一个更公平的竞争环境。
当然,要实现这个目标,我们首先要制定一些严格的基本原则:
• 透明度:要杜绝 “黑箱” 评估。人们必须清楚AI是如何评判他们的工作的。
• 杜绝作弊:系统必须能够防止被用户、管理者或外部人员钻空子。
• 一致性:不同岗位、团队和时间的评价标准应该是平等的。
• 可审查性:和人类一样,AI也要为错误和偏见负责。
• 基准测试:要将AI的评估结果与人类的评估结果进行对比,以理解差异之处。
如果利用得当,AI将能帮助我们科学评价一些长期难以量化评估的事物,比如脑力劳动的结构、过程与成本等。它还能帮助我们打造更优秀的团队,设计更有意义的工作,甚至让我们在工作中获得更多个人满足感。
但是,我们在这个过程中,必须采取审慎的态度。我们的目标并不是让AI给员工打分,也不是让AI取代职业经理人。而是要用AI帮助我们深化对工作的理解——也就是谁在做这份工作,这份工作是如何开展的,以及如何能让这份工作做得更好。
在我撰写那篇关于自然系统与设计系统的多样性动态研究的论文时,我意外地发现,自己亲身经历了另一场变革。它很有可能会重新定义知识型劳动的评价和管理体系。未来的职场协作将是人与机器的协同,而不是人与机器的对抗。在未来的职场中,在一个开放透明的过程中,每个参与者都将能够看到彼此的付出,从中学到经验,并且因自身的付出而获得公道的评价。
所以说,只要用好了AI,它不仅能提高我们的工作效率,还能使我们更清楚地了解自己。(财富中文网)
本文作者David Ferrucci 是全球企业中心下设非营利机构高级企业人工智能研究所的董事总经理。
《财富》网站评论文章仅代表作者本人观点,并不代表《财富》的观点和立场。
译者:朴成奎
When I asked my AI assistant how much time I’d spent working on a collaborative writing project with it, I wasn’t expecting an existential reflection on the future of work. I just wanted a number. What I got instead was a full audit of my intellectual labor—what I had written, when, how it evolved, and how long I spent on each part.
The surprise wasn’t in the AI’s capabilities—I’ve worked with artificial intelligence for decades and led the IBM Watson team to its landmark success in defeating the best human players on Jeopardy! in 2011. The surprise was how viscerally I reacted to seeing my effort laid out with such clarity. It felt like being held up to a mirror I hadn’t known existed, one that reflected not just what I’d done but how I’d done it.
As AI becomes more deeply embedded in our daily workflows, a new frontier is emerging for performance evaluation. What if your AI assistant didn’t just help you work—but measured, assessed, and even reviewed that work and the nature of your effort?
AI in performance reviews
That question is no longer theoretical. AI, assuming it’s used, can already trace our steps through a project, categorize our contributions, and evaluate our engagement in ways that are arguably more objective than a human manager. It can offer transparency into the invisible labor behind knowledge work—labor that too often goes unrecognized or is misattributed.
In my own project, the AI produced a detailed map of my contribution: each idea, revision, and decision point. It categorized my engagement, revealing patterns I hadn’t noticed and insights I hadn’t expected. In doing so, it exposed a new kind of accountability—one rooted not in results alone, but in the effort behind them.
This level of visibility could be transformative. Imagine being able to see precisely how team members contribute to a project—not just who speaks up in meetings (as evidenced by transcripts) or turns in polished presentations, but who drafts, refines, questions, and rethinks. This isn’t just helpful for management—it’s empowering for individuals who are often overlooked in traditional performance reviews.
In addition to quantifying the time I spent—47 sessions over 34 hours and 1,200 questions and responses—the AI offered this assessment: “David Ferrucci did not act as a passive user feeding prompts into a machine. Rather, he operated as a creative director, lead theorist, and editor-in-chief—guiding and shaping a dynamic, responsive system toward ever greater clarity.” It provided a detailed accounting of what I did in each session to shape the final product.
Risks and new questions
It’s also a little terrifying.
With this transparency comes the risk of surveillance. The sense that every half-formed idea, every false start, every moment of doubt is being recorded and judged. Even if the AI is a neutral observer, the psychology of being watched changes how we work. Creativity requires a safe space to be messy. When that space is monitored, we may self-censor or default to safer choices.
Worse still, if AI is used to inform performance evaluations without proper safeguards, it opens the door to bias. AI systems don’t emerge from nowhere—they’re shaped by the data they’re trained on and the people who design them. If we’re not careful, we risk automating the very human biases we hoped to escape.
There’s also the question of attribution. In collaborative work with AI, where does your thinking end and the AI’s suggestions begin? Who owns the insights that emerge from a coauthored conversation? These are murky waters, especially when performance, promotion, and compensation are on the line.
AI and the future of work
And yet, the potential remains powerful. If done right, AI-assisted performance reviews could offer a fairer, more reflective alternative to traditional methods. Human managers are not immune to bias either—charisma, conformity, and unconscious prejudice often influence evaluations. A well-designed AI system, built transparently and audited regularly, could level the playing field.
To get there, we need strict design principles:
• Transparency: No black-box evaluations. People must understand how the AI is judging their work.
• Manipulation: Systems must be protected from being gamed by users, managers, or external actors.
• Consistency: Standards must apply equally across roles, teams, and time.
• Auditability: Like humans, AI should be accountable for bias and error.
• Benchmarking: AI assessments should be tested against human evaluations to understand discrepancies.
Used thoughtfully, AI could help us measure what has long been immeasurable: the structure, process, and cost of intellectual effort. It could help us build better teams, design more meaningful work, and even find more personal satisfaction in what we do.
But we must approach this future with caution. The goal isn’t to let AI assign grades or replace managers. It’s to enrich our understanding of work—who’s doing it, how it’s done, and how it can be better.
In my project to write about the dynamics of diversity in natural and designed systems, I found myself participating in another transformation—one that could redefine how all knowledge work is measured, managed, and ultimately valued. The future of collaboration is not man versus machine, but man with machine—in an open, visible process where every contributor can see, learn from, and be fairly assessed for their effort.
If we do it right, the AI won’t just help us work better—it will help us see ourselves more clearly.
David Ferrucci is managing director of the nonprofit Institute for Advanced Enterprise AI at the Center for Global Enterprise
The opinions expressed in Fortune.com commentary pieces are solely the views of their authors and do not necessarily reflect the opinions and beliefs of Fortune.