第一批用AI的打工人已经被折磨疯了
原创2025-04-28 09:47:22
-
373
注意看,这个男人叫小帅,最近他们公司强制到点下班,但他每天修bug到深夜。
这是道德的沦丧,还是人性的扭曲?
我们采访了他的主管,主管说,小帅的任务并不多;
我们又采访了hr,hr说,打卡记录显示,小帅最近每天加班2小时;
我们又采访了厕所所长,所长说,小帅没有带薪拉屎,每天上厕所不超过20分钟;
我们又采访了小帅,小帅说,我也不知道,我都用上AI了,但是bug越来越多。
最后破案了,原来小帅吃了赛博AI菌子,出现了大模型幻觉。
一、全世界的公司都在用AI
如今,全世界的公司都在推广 AI。根据斯坦福大学《2025 年人工智能指数报告》,全球 78% 的企业已在至少一个业务功能中使用 AI,生成式 AI 的普及率更是从 2023 年的 33% 翻倍至 71%。
这说明,像小帅这样和 AI 打交道的打工人越来越多。
当AI技术首次被引入职场时,许多打工人对其充满了期待。AI的高效性和便捷性似乎预示着工作方式的变革,人们幻想它能够帮助他们更轻松地完成任务,甚至减少工作时间。然而,现实很快打破了这种幻想。
企业对AI的热衷并非完全出于对效率提升的理性考量,而更多是源于一种“错失恐惧”(FOMO)。
商业环境竞争这么激烈,企业害怕落后于人,于是纷纷仓促上马AI项目,而没有充分考虑自身业务与AI的适配性。
这种盲目跟风导致了AI在企业中的应用并不顺利,原本应该减轻工作负担的工具,反而给打工人带来了更大的压力。
领导们对AI的期望过高,认为它可以快速解决一切问题,于是开始不断压缩工作时间,要求员工在短时间内完成大量任务。
原本三天的工作量被要求在半天内完成,员工们不得不在AI的辅助下加班加点,却依然难以达到领导的期望。
这种高强度的工作节奏让打工人疲惫不堪,他们开始质疑:
AI是否真的为他们带来了好处?
二、我都用上AI了,咋还更忙了?
想一下,AI 是否真如设想中那般,必然带来工作效率的显著提升?答案是不一定。AI 在展现强大功能的同时,也存在不可忽视的局限性,这些局限在一些场景下,不仅未能提升效率,反而成为工作推进的阻碍,这就是“大模型幻觉”。
大模型幻觉,指AI 输出内容看似合理,却与事实不符、与用户指令偏离或内部逻辑矛盾。这一现象源于 AI 基于概率预测生成文本的技术原理,以及训练数据质量参差不齐、推理机制不完善等因素。
美国律师史蒂文・施瓦茨曾接受委托,为一名被金属餐盘砸伤腿的乘客辩护。他在法庭上引用 ChatGPT 生成的 6 个虚构法律案例,最终被罚款 5000 美元。纽约大学法律伦理教授 Rebecca Roiphe 对此评价:“当律师把事实核查权交给算法,等于放弃了法律人的核心职责。”
类似地,特朗普前律师团队在封口费案中误用 Google Bard 生成的虚假判例,导致辩护策略受挫,这不禁让人思考,连对严谨性要求极高的司法领域都会被 AI 幻觉 “攻陷”,其他行业又怎能幸免?
在IT 行业,AI 代码生成工具的幻觉问题同样令人头疼。当 GitHub Copilot 等工具生成看似无误,实际却存在逻辑错误或安全漏洞的代码时,开发人员往往需耗费大量时间进行排查和修复,其效率可能还不如手动编写代码。
这让我们反思,花费大量时间去修正AI 生成的错误内容,真的比传统工作方式更高效吗?
面对AI 生成的错误内容,员工很难完全依赖 AI,不得不投入额外精力进行人工核查和纠正。
为避免 AI 幻觉导致的错误,员工需要对AI 生成的内容进行多轮交叉验证,这无疑增加了工作环节和时间成本。
“大模型幻觉” 的隐性成本恰恰成为延长工作时间的推手:企业期待 AI 提效后员工能承接更多任务,却忽视了纠错所需的额外工时。
当开发团队因代码漏洞反复调试、法务部门因案例错误紧急补救,这些 “非显性加班” 被计入 “正常工作流程”,导致实际工作负荷不降反增。
更关键的是,这种由技术局限性引发的额外劳动,往往被管理者视为 “个体能力不足”,而非工具缺陷,进一步加剧了打工人的被动处境。
至此我们发现,AI 提效的 “真相” 并非二元对立 —— 它在某些环节提升速度,却在另一些场景制造新的工作负担。
三、解锁真减负:打工人自救攻略
作为资深打工人,想必大家都在AI兴起的浪潮里,都深刻感受到了其中的矛盾。怎样才能打破这种“伪解放” 的困境,实现 “真减负” 呢?下面,阿道从打工人的角度,分享一些实用方法:(1)保持警惕:警惕“过度合理”,大模型说的话,特别是涉及到事实的,别全信,越细节丰富的回答越需谨慎,最容易产生幻觉的地方是人名、地名、时间、地点等实体或数据,一定要特别小心。
(2)优化提问:向 AI 提问时,提示词要清晰、具体。
- 设定时间边界:“请严格限定在 2024 年《自然》期刊发表的研究范围内”;
- 知识锚定:“基于《中国药典》回答,若信息不明确请注明‘暂无可靠数据支持’”;
- 步骤拆解:“第一步列举确定的事实依据,第二步展开详细。
- 明确约束:明确告诉 AI 要基于已有事实回答,不要进行推测。
(4)交叉验证:对关键信息,用搜索引擎或专业网站二次确认,或者用多个AI交叉验证,比如将DeepSeek生成的内容发送给kimi/豆包等。
过度依赖AI 会让我们在面对问题时失去独立思考的能力。所以,企业可以迷信 AI,但你不能迷失自己——技术会迭代,幻觉会消失,但你的专业度,永远是职场硬通货。
《2024 IT行业项目管理调查报告》提供覆盖120城市的全景洞察,助力企业破解效率与质量的双重挑战。完整报告可扫描文末二维码加好友,备注【调查报告】获取。