Meta 强制员工电脑监控用于 AI 训练(MCI),员工无退出选项

Meta 正在美国推行一项新的职场追踪计划 MCI(Model Capability Initiative),用员工电脑上的真实交互数据来训练 AI 代理模型。公司内部公告明确表示:员工无法选择退出(no opt-out)。相关数据包括键盘输入、鼠标移动轨迹、点击位置以及屏幕画面截取。 追踪范围仅限于预先批准的工作应用,包含 Gmail、GChat、Meta 内部 AI 助手 Metamate,以及代码编辑器 VSCode。Meta 声称数据具备隐私保护机制,不会用于绩效评估等用途,但尚未清楚说明敏感信息的过滤方式。 当员工询问如何退出时,Meta 技术长 Andrew Bosworth 回应称公司配发笔电没有退出选项。另据 CNBC 报道,MCI 的追踪还可能延伸到工作时间访问第三方网站(如 Google、LinkedIn、Wikipedia),引发对记录密码输入及其他个人敏感信息的担忧。 公告也留下关键悬念:这些数据究竟用于改进帮助员工工作的工具,还是用于训练未来可能取代部分岗位的系统。Meta 将其定位为让 AI 代理理解“人类如何使用电脑”的训练材料。对加密交易者而言,这更像是另一场企业 AI 数据采集与监控争议,短期影响主要体现在科技板块情绪层面,而非对加密资产本身产生直接、可量化的推动。
中性
本消息对加密市场的“直接”影响有限,但可能通过科技板块情绪间接传导。Meta 将员工电脑数据用于 AI 训练、且“无退出选项”的争议,属于典型的企业 AI 营运与数据隐私冲突。此类事件通常会引发舆论与员工/监管层面关注,进而带来短期风险偏好波动(例如投资者担心合规成本上升、运营阻力增加)。 从历史类比看,科技公司在大规模数据使用或员工监控方面遭遇的争议,往往更偏向影响公司声誉、监管预期与估值折价,而非立刻改变加密资金流。短期内,若市场把该消息解读为“合规风险上升”,可能压制风险资产情绪;但由于本事件没有涉及加密监管、交易所、稳定币或主要链上/链下基础设施,通常难以形成对 BTC/ETH 等的趋势性催化。 长期来看,企业“用真实工作流数据训练 AI”的路径会继续扩散,可能推动更多数据治理与合规框架建设,从而影响科技行业的成本结构与政策预期。但这仍属于间接变量。综合来看,对加密交易而言更符合 neutral:需要观察后续是否出现监管动作、诉讼或更广泛的行业连锁反应,否则难以改变市场中期定价。