场景:强制 AI 参与——AI Week、Hackathon、"拥抱 AI" 运动
公司宣布全员参与 AI 创新周 / AI Hackathon / 内部 AI 竞赛。名义上是"学习和探索",实质可能是:测试哪些工作可以被 AI 替代、收集员工的工作流程和判断逻辑、以及为"AI 提效"的叙事生产内部证据。
真实案例
TCS(2025):281,000 名员工参与全球 AI Hackathon,覆盖 58 个国家。官方表述是"加速 AI-first 文化"和"让员工将 AI 有意义地融入日常工作"。
SimCorp(2026年2月):与 Microsoft 合作,2,000 名员工参与 AI Hackathon,挑战类别包括"AI 提升运营效率"和"加速入职流程"——后者的潜台词是:用 AI 降低新人的学习曲线,从而降低对老员工的依赖。
通用模式:公司组织 1-5 天的 AI 活动,要求员工用 AI 工具复现自己的日常工作。优秀成果被展示、被宣传,成为公司"AI 转型成功"的证据。
它到底在做什么
AI Week 是一种低对抗性的知识榨取机制。它比直接要求你写文档更隐蔽,因为它穿的是"学习"和"创新"的外衣。
拆解它的真实功能:
| 表面功能 | 实际功能 |
|---|---|
| "让员工学习 AI 工具" | 测试 AI 在多大程度上可以复现员工的工作 |
| "探索 AI 的可能性" | 收集真实工作流程和判断逻辑作为 AI 训练素材 |
| "激发创新" | 让员工自己证明哪些工作可以被自动化 |
| "展示优秀成果" | 生产"AI 替代人力"的内部证据,供管理层做裁员决策 |
最精妙的部分是:员工是自愿参与的,甚至是积极的。 你在 hackathon 上展示"用 AI 把我一周的工作缩短到两小时"时,你以为你在展示自己的 AI 能力,但管理层看到的是:这个岗位可能只需要 1/5 的人。
策略
参加。不要抵制。
不参加会被标记为"不拥抱变化""抗拒创新"。在许多公司,AI Week 的参与度被视为态度信号——拒绝参与的代价远大于参与。
选择你展示什么
这是你真正的控制点。你不能不参加,但你可以选择在 hackathon 上做什么。
推荐做的:
- 用 AI 自动化你工作中本来就无聊、重复、低价值的部分——日志分析、boilerplate 代码生成、文档格式化
- 这些工作迟早会被自动化,你主动做不会额外增加风险
- 展示这些成果时,你看起来积极、有 AI 能力,管理层满意
避免做的:
- 不要用 AI 复现你的核心决策流程——"我用 AI 自动做了架构评审"听起来很厉害,但你在告诉管理层:架构评审不需要你了
- 不要展示 AI 可以替代你与其他团队的协调和沟通工作——这部分的自动化对公司有极高价值(人力成本高),一旦被发现可行性,你的岗位就有风险
- 不要在 prompt 中暴露你的深层判断逻辑——有些公司会审计 AI 工具的使用记录
控制叙事
如果你的 hackathon 成果需要演示或汇报,注意你如何描述它:
危险的说法:"我用 AI 完成了我平时一周的工作,只花了两个小时。" → 管理层翻译:"这个人的岗位可以裁掉 80%。"
更安全的说法:"我用 AI 处理了数据清洗和格式转换的部分,这让我有更多时间专注在架构设计和跨团队协调上。" → 管理层翻译:"AI 是工具,但核心工作还是需要人。"
差别不在于你做了什么,而在于你怎么讲述你做的事。
如果 AI Week 的成果被要求持续化
有些公司不会让 hackathon 的成果停留在演示阶段。它们会说:"你在 AI Week 做的那个自动化流程很好,能不能做成一个长期可用的工具?"
这时候你面对的不再是一次性活动,而是持续的知识转移。处理方式回到 知识榨取场景的策略框架:交付 how,保护 why。
自动化工具可以做。但让它处理的是你选择让它处理的部分——标准化的、重复性的、你定义了边界的部分。真正需要判断力的部分,保持"需要人工审核""特殊情况需要手动处理"的设计。
AI 使用率作为考核指标
一些公司开始将"AI 工具使用率"纳入绩效考核——你用了多少次 Copilot、你的 AI 代码采纳率是多少、你在内部 AI 平台上的活跃度。
这是一个伪指标,但它正在被认真对待。
应对方式:
- 保持可见的 AI 使用频率——让 Copilot 帮你写测试、生成 boilerplate、自动补全常规代码。这会推高你的"使用率"数据
- 在核心决策上用自己的判断,然后在不关键的地方让 AI 贡献数字
- 你在管理一个指标,就像你管理其他任何 KPI 一样——用最小的代价达到合格线
数据参考:GitHub Copilot 的建议接受率大约 30%。如果你的接受率显著高于或低于这个数字,都可能引起注意。保持在正常范围内。