第一批用AI的打工人已經被折磨瘋了
原創-
2025-04-28 09:47:22
-
854
注意看,這個男人叫小帥,最近他們公司強制到點下班,但他每天修bug到深夜。
這是道德的淪喪,還是人性的扭曲?
我們采訪了他的主管,主管說,小帥的任務並不多;
我們又采訪了hr,hr說,打卡記錄顯示,小帥最近每天加班2小時;
我們又采訪了廁所所長,所長說,小帥沒有帶薪拉屎,每天上廁所不超過20分鍾;
我們又采訪了小帥,小帥說,我也不知道,我都用上AI了,但是bug越來越多。
最後破案了,原來小帥吃了賽博AI菌子,出現了大模型幻覺。
一、全世界的公司都在用AI
如今,全世界的公司都在推广 AI。根据斯坦福大学《2025 年人工智能指数报告》,全球 78% 的企业已在至少一个业务功能中使用 AI,生成式 AI 的普及率更是从 2023 年的 33% 翻倍至 71%。
这说明,像小帅这样和 AI 打交道的打工人越来越多。
当AI技术首次被引入职场时,许多打工人对其充满了期待。AI的高效性和便捷性似乎预示着工作方式的变革,人们幻想它能够幫助他们更轻松地完成任务,甚至减少工作时间。然而,现实很快打破了这种幻想。
企業對AI的熱衷並非完全出于對效率提升的理性考量,而更多是源于一種“錯失恐懼”(FOMO)。
商業環境競爭這麽激烈,企業害怕落後于人,于是紛紛倉促上馬AI項目,而沒有充分考慮自身業務與AI的適配性。
這種盲目跟風導致了AI在企業中的應用並不順利,原本應該減輕工作負擔的工具,反而給打工人帶來了更大的壓力。
領導們對AI的期望過高,認爲它可以快速解決一切問題,于是開始不斷壓縮工作時間,要求員工在短時間內完成大量任務。
原本三天的工作量被要求在半天內完成,員工們不得不在AI的輔助下加班加點,卻依然難以達到領導的期望。
這種高強度的工作節奏讓打工人疲憊不堪,他們開始質疑:
AI是否真的爲他們帶來了好處?
二、我都用上AI了,咋還更忙了?
想一下,AI 是否真如设想中那般,必然带来工作效率的显著提升?答案是不一定。AI 在展现强大功能的同时,也存在不可忽视的局限性,这些局限在一些场景下,不仅未能提升效率,反而成为工作推进的阻碍,这就是“大模型幻觉”。
大模型幻觉,指AI 输出内容看似合理,却与事实不符、与用户指令偏离或内部逻辑矛盾。这一现象源于 AI 基于概率预测生成文本的技术原理,以及训练数据质量参差不齐、推理机制不完善等因素。
美国律师史蒂文?施瓦茨曾接受委托,为一名被金属餐盘砸伤腿的乘客辩护。他在法庭上引用 ChatGPT 生成的 6 个虚构法律案例,最终被罚款 5000 美元。纽约大学法律伦理教授 Rebecca Roiphe 对此评价:“当律师把事实核查权交给算法,等于放弃了法律人的核心职责。”
类似地,特朗普前律师团队在封口费案中误用 Google Bard 生成的虚假判例,导致辩护策略受挫,这不禁让人思考,连对严谨性要求极高的司法领域都会被 AI 幻觉 “攻陷”,其他行业又怎能幸免?
在IT 行业,AI 代码生成工具的幻觉问题同样令人头疼。当 GitHub Copilot 等工具生成看似无误,实际却存在逻辑错误或安全漏洞的代码时,开发人员往往需耗费大量时间进行排查和修复,其效率可能还不如手动编写代码。
这让我们反思,花费大量时间去修正AI 生成的错误内容,真的比传统工作方式更高效吗?
面对AI 生成的错误内容,员工很难完全依赖 AI,不得不投入额外精力进行人工核查和纠正。
为避免 AI 幻觉导致的错误,员工需要对AI 生成的内容进行多轮交叉验证,这无疑增加了工作环节和时间成本。
“大模型幻觉” 的隐性成本恰恰成为延长工作时间的推手:企业期待 AI 提效后员工能承接更多任务,却忽视了纠错所需的额外工时。
当开发团队因代码漏洞反复调试、法务部门因案例错误紧急补救,这些 “非显性加班” 被计入 “正常工作流程”,导致实际工作负荷不降反增。
更关键的是,这种由技术局限性引发的额外劳动,往往被管理者视为 “个体能力不足”,而非工具缺陷,进一步加剧了打工人的被动处境。
至此我们发现,AI 提效的 “真相” 并非二元对立 —— 它在某些环节提升速度,却在另一些场景制造新的工作负担。
三、解鎖真減負:打工人自救攻略
作为资深打工人,想必大家都在AI兴起的浪潮里,都深刻感受到了其中的矛盾。怎样才能打破这种“伪解放” 的困境,实现 “真减负” 呢?下面,阿道从打工人的角度,分享一些实用方法:(1)保持警惕:警惕“過度合理”,大模型說的話,特別是涉及到事實的,別全信,越細節豐富的回答越需謹慎,最容易産生幻覺的地方是人名、地名、時間、地點等實體或數據,一定要特別小心。
(2)优化提問:向 AI 提問时,提示词要清晰、具体。
- 设定时间边界:“请严格限定在 2024 年《自然》期刊发表的研究范围内”;
- 知識錨定:“基于《中國藥典》回答,若信息不明確請注明‘暫無可靠數據支持’”;
- 步驟拆解:“第一步列舉確定的事實依據,第二步展開詳細。
- 明确约束:明确告诉 AI 要基于已有事实回答,不要进行推测。
(4)交叉驗證:對關鍵信息,用搜索引擎或專業網站二次確認,或者用多個AI交叉驗證,比如將DeepSeek生成的內容發送給kimi/豆包等。
过度依赖AI 会让我们在面对问题时失去独立思考的能力。所以,企业可以迷信 AI,但你不能迷失自己——技术会迭代,幻觉会消失,但你的专业度,永远是职场硬通货。
《2024 IT行业項目管理调查报告》提供覆盖120城市的全景洞察,助力企业破解效率与质量的双重挑战。完整报告可扫描文末二维码加好友,备注【調查報告】獲取。
-
禅道産品
禅道開源版 禅道企業版 禅道旗艦版 禅道IPD版 -
核心功能
産品管理 項目管理 質量管理 效能管理 -
使用文檔
基本版手冊 企業版手冊 旗艦版手冊 IPD版手冊 開發中心手冊 -
幫助中心
积分問答 常見問題 論壇交流 使用視頻 Gitee GitHub -
關于我們
關于我們 禅道軟件 最新動態 禅道活動 -
禅道社區
禅道博客 積分排行 積分商城 禅道書院 -
聯系方式
聯系人:金娟 電話:18562856230 微信:18562856230 Q Q:1826606239北京、上海、深圳分部
友情鏈接:
ZTF自動化測試框架
ZenData測試數據生成器
喧喧IM
敏捷開發
敏捷咨詢
測試窩
悅庫網盤
Ledge知識平台
渠成軟件
ZDOO全協同企業管理軟件
融管理社區
ZenDAS數據分析工具
ZenShot跨平台截圖工具
飛信釘即時通訊解決方案
項目管理
IPD學習網
PMP百科網
艾體驗
創無記2049