跳至主要內容
FAQ

Meta 在員工電腦安裝追蹤軟體紀錄滑鼠與鍵盤行為,用於訓練代理 AI,引發內部強烈反彈

Meta 悄悄在所有美國員工的工作電腦上部署一套名為「模型能力計畫(MCI)」的監控軟體,記錄滑鼠移動、按鍵操作,以及定期螢幕截圖,涵蓋包含 Google、LinkedIn、Wikipedia 在內的數百款應用程式與網站。Meta 表示,這些資料將專用於訓練代理 AI 模型,使其學習人類與電腦互動的方式。員工被告知無法拒絕參與,此舉已在內部引發大規模的隱私與知情同意爭議。

1 分鐘閱讀

Meta 正在用自家員工的行為資料,訓練下一代代理 AI——而被記錄的員工,根本沒有選擇的機會。

根據 Reuters 取得、TechCrunch 率先報導的一份內部備忘錄,Meta 已開始在所有美國員工的工作電腦上部署軟體,計畫名稱為「模型能力計畫」(Model Capability Initiative,MCI)。該軟體在員工正常上班時記錄滑鼠移動、鍵盤輸入,以及定時的螢幕截圖,涵蓋範圍橫跨數百款應用程式與網站,包含 Google 搜尋、LinkedIn 與 Wikipedia。Meta 表示,這些資料的唯一用途是教導 AI 代理程式學習人類操作電腦的方式,最終目標是讓這些代理能夠自動執行複雜的辦公室任務。

計畫推出後,Meta 內部迅速湧現強烈反彈,員工紛紛在內部論壇發問如何退出——卻只得到「無法退出」的回答。

模型能力計畫收集什麼?

MCI 軟體安裝在 Meta 美國員工的工作電腦上,於正常工作時段啟動。根據內部備忘錄,程式主要收集三類資料:

滑鼠移動與點擊行為:包含點擊的 UI 元件、在某個區域停留的時間,以及完成常見任務所用的操作順序。這類資料捕捉的是難以從日誌中推斷的行為模式——人類如何瀏覽多步驟表單、如何利用快速鍵節省時間、哪些下拉選單最常被觸及。

鍵盤輸入:原始的按鍵資料,不只記錄輸入什麼,還包含打字節奏、錯誤模式與修正行為。這對訓練需要在企業軟體的文字欄位輸入、撰寫訊息或填寫表格的代理 AI 尤其有價值。

定時螢幕截圖:在工作日特定時間間隔拍攝,為其他資料流提供「地面真實」情境。截圖讓模型能夠將鍵盤和滑鼠活動與當下螢幕顯示的內容對應起來,從而理解視覺介面狀態與用戶操作之間的關係。

追蹤的應用程式範圍相當廣泛。CNBC 指出,Google 搜尋、LinkedIn、Wikipedia 只是其中最顯眼的例子,清單延伸至員工日常使用的各類生產力軟體、內部工具與網路服務。

技術目標:讓 AI 代理學會「像人一樣用電腦」

Meta 的核心目標是打造能夠代替用戶執行複雜、多步驟電腦操作的 AI 代理——業界稱之為「代理 AI」或「電腦使用 AI」。這類系統的挑戰不在於語言理解(當代大型語言模型在這方面已相當強大),而在於「程序性知識」:人類熟練操作介面、跨多個應用程式管理工作流程、透過非線性的點擊與鍵盤指令完成任務的流暢度。

目前訓練代理 AI 的主流方法,不是仰賴合成資料(讓 AI 觀察另一個 AI),就是靠人工標註——讓外包人員在受控環境中執行任務。兩種方法都有明確的局限:合成資料可能包含系統性偏差,且難以捕捉真實人類電腦使用行為的多樣性;人工標註則費用高昂、速度緩慢,且容易偏向標註人員能在限定時段完成的簡化任務。

MCI 走的是另一條路:利用自家知識工作者,以幾乎零邊際成本的方式,大量產生真實、高保真的行為資料。員工在日常工作中的操作,正代表了代理 AI 系統最終需要學習複製的那種自然、複雜、長時程的電腦使用行為——使用相同的工具、在相同的企業網路環境下、服務相同的真實商業目的。

無法退出:同意權爭議

MCI 引發的核心爭議,不在於其技術邏輯,而在於知情同意的架構設計。Meta 告知員工,參與計畫是強制性的,沒有退出機制。公司透過內部備忘錄而非正式人力資源溝通管道宣布這一政策,且未將其框架為需要員工同意的政策變更。

備忘錄流傳後,內部反應立即且強烈。員工在內部論壇上大量發帖,詢問是否能限制資料收集的範圍、哪些類別的活動會被記錄、資料保留多久,以及是否有保護機制防止資料被用於 AI 訓練以外的目的。多名員工表示感到一條界線被逾越,其中幾位指出,他們在工作電腦上也常進行個人操作——搜尋健康資訊、查詢個人財務、撰寫私人訊息——而工作用途與個人用途的電腦行為,在實踐中根本沒有清晰的分界線。

Meta 的官方回應劃出了一條明確界線:MCI 收集的資料「僅」用於 AI 訓練,不會用於評估員工績效。公司強調,參與計畫是使用公司發放設備的條件之一,符合現有可接受使用政策中授予雇主廣泛監控工作電腦權利的條款。

更大的意涵

Meta 幾乎可以確定不是唯一正在探索「以雇主為中介、取得員工行為資料」作為代理 AI 訓練信號的大型科技公司。這類資料的潛在價值極高:一個以數百萬小時真實知識工作者電腦行為訓練的模型,橫跨企業軟體使用的全貌,將在實際場景中擁有合成資料或標註資料難以複製的顯著優勢。

但 MCI 代表著一個重大升級:員工在接受公司發放設備時,隱性承擔的義務已截然不同於以往。過去的職場電腦監控——網路流量日誌、企業通訊紀錄、應用程式使用時長追蹤——通常被理解為資安與生產力管理措施。一個記錄每個按鍵、定時截圖,並以此訓練「最終可能執行被觀察者工作」的 AI 模型的計畫,即便在現行僱傭合約下具有法律依據,也佔據了截然不同的倫理地帶。

Meta 內部的反彈,是一個將持續升溫的張力的早期信號。在更多企業認識到員工行為資料對代理 AI 訓練的巨大價值之後,這個問題將不可迴避地浮上檯面:員工在行為資料上對雇主負有何種義務?雇主在披露義務、知情同意架構與資料保護上又應負起何種責任?這些問題,目前在法律與倫理層面都尚無定論。

台灣的個人資料保護法對雇主可收集員工資料的範疇有明確規範,這類計畫若移植到台灣的職場環境,恐怕將立即面臨更嚴格的法規挑戰。

Meta 此次大規模率先行動,很可能成為迫使這場討論走入公眾視野的關鍵案例。

Meta 代理 AI 員工監控 AI 訓練資料 隱私 職場 AI
分享

相關報導