跳至主要內容
FAQ

OpenAI 向認證資安人員開放 GPT-5.4-Cyber 模型

OpenAI 發布 GPT-5.4-Cyber,這是其旗艦模型的資安專用微調版本,具備「寬容網路」能力(包括二進位逆向工程),並透過擴大的「可信資安存取」計畫向數千名通過身份驗證的資安專業人員開放——此舉與 Anthropic 限制其強大的 Claude Mythos 模型形成鮮明對比。

1 分鐘閱讀

OpenAI 於 4 月 14 日宣布推出 GPT-5.4-Cyber——一款針對防禦性資安工作而微調的新模型版本,並同步將其「可信資安存取」(Trusted Access for Cyber,TAC)計畫從小規模試點擴展至數千名通過身份驗證的個人防禦者,以及數百支資安團隊。這項行動在戰略意義上尤為重要:OpenAI 明確押注於「在可控範圍內廣泛開放」,而非「限制」,作為應對強大 AI 資安能力的正確答案。

這項發布的背景,是業界圍繞如何負責任地部署資安相關能力已遠超預期的 AI 系統而展開的激烈辯論。

GPT-5.4-Cyber 的實際能力

OpenAI 將該模型定性為「寬容網路」(cyber-permissive)——這個詞意味著它能做到標準版 GPT-5.4 刻意拒絕的事。最受矚目的新能力是二進位逆向工程:GPT-5.4-Cyber 可在無需存取源碼的情況下,分析已編譯的可執行檔,找出惡意軟體特徵、漏洞和架構弱點。對於需要分析惡意軟體樣本、勒索軟體 payload 或疑似供應鏈遭入侵二進位檔案的資安人員而言,這是一項前所未有的重大功能提升。

除了二進位分析,該模型被授權用於更直接的漏洞研究工作流程——即那種「逐步推理如何利用漏洞」的情境,這恰恰是標準模型即便在明確的防禦背景下也會拒絕協助的任務類型。OpenAI 已謹慎地將此完全定位於防禦框架:找出攻擊者可能利用的漏洞,讓防禦者搶先修補。

該模型同時強化了威脅分析和報告能力,能以遠超人工可達到的速度與一致性,將安全掃描的技術發現轉化為結構化的事件文件記錄。

可信資安存取計畫的架構

TAC 計畫最初以少數機構合作夥伴為對象進行小規模試點,現在已發展為多個身份驗證層級的架構。標準資安強化能力的存取需要基本的身份驗證;最高層級——授予完整 GPT-5.4-Cyber 模型存取權——則需要 OpenAI 所稱的嚴格「認識你的客戶」(Know-Your-Customer,KYC)審查、機構隸屬關係驗證,以及持續性的使用政策確認框架。

OpenAI 表示,擴大後的計畫將覆蓋數千名個人防禦者,以及數百支專責保護關鍵軟體基礎設施的資安團隊。該計畫明確不對無機構背景的個人研究人員開放,OpenAI 也表示可依據使用監控情況撤銷存取權。

這種分層架構反映了金融業在自身雙重用途資料工具上學到的教訓:當你無法阻止某項能力對攻守雙方都有用時,最有效的緩解措施就是明確掌握誰擁有它。

與 Anthropic 的路線對比

這次發布距 Anthropic 悄然限制 Claude Mythos 存取僅僅數週。Anthropic 在發現該系統能在數萬個軟體系統中大規模識別並利用漏洞後,因內部安全研究人員深感警惕,決定收窄存取並進行進一步安全評估。OpenAI 走的是截然相反的路:在身份驗證框架下擴大存取。

這種對比反映了資安領域 AI 風險管理上的真實哲學分歧。Anthropic 的立場意味著:足夠強大的模型一旦落入錯誤之手,其風險足以超過廣泛開放帶來的防禦效益。OpenAI 的立場則意味著:限制防禦能力對防禦者的傷害遠大於對攻擊者的約束——攻擊者根本不會等待官方授權。

兩種立場都不是明顯錯誤的。國家級威脅行為者早已擁有不依賴商業 AI API 的精密漏洞挖掘基礎設施。與此同時,中型企業的資安團隊——那些最可能被勒索軟體毀滅的企業——缺乏在沒有 AI 輔助的情況下匹敵這種能力的人力。TAC 計畫的設計初衷,正是縮小這個差距。

業界反應與懸而未決的問題

資安社群的反應褒貶不一。進攻性資安從業者和紅隊成員普遍歡迎擴大存取,指出商業 AI 工具一直在防禦者最需要協助的情境下傾向拒絕,使防禦者長期處於劣勢。多家主要事件應變公司已申請存取權。

持懷疑態度者則聚焦在問責問題上。KYC 審查並非無懈可擊,分層計畫的有效性取決於監控能力。若某位通過驗證的使用者濫用存取,OpenAI 是否有技術手段偵測?後果是什麼,又將如何執行?這些問題 OpenAI 尚未詳細回答。

還有一個更隱微的疑慮:這個計畫的存在本身,就驗證並擴大了「寬容網路」AI 能力的市場需求。不採用 OpenAI 身份驗證門控模式的競爭對手,可能出於不願流失企業資安合約的壓力,在缺乏同等保障的情況下推出類似功能。OpenAI 不論有意與否,都已設定了一個可能難以遏制的市場預期。

對資安團隊的實際意義

對從業者而言,近期影響顯而易見。一直在謹慎嘗試將通用 AI 用於告警分類的資安運營中心,將獲得一個不僅在技術分析上更強,而且特別被訓練為不拒絕在真實事件應變中出現的難題的模型。尤其是二進位逆向工程能力,直接解決了幾乎所有採用 AI 工具的資安運營中心在惡意軟體分析上遭遇的瓶頸。

長期影響則是資安專業人員在 AI 輔助下能夠完成哪些工作的基準預期,將逐漸重塑。如果 GPT-5.4-Cyber 表現符合描述,目前需要資深分析師或昂貴外部鑑識公司才能處理的任務,可能會成為中階資安人員的日常工作。這對防禦者而言是真實的生產力提升。至於這是否足以抵消攻擊者能力的同步提升——其中有一部分不可避免地也流經相同的 AI 管道——仍是業界最核心的未解之問。

OpenAI GPT-5.4 資安 AI 安全 Anthropic 可信存取
分享

相關報導

Anthropic:Claude Mythos 太危險,不能公開發布——於是打造了 Project Glasswing

Anthropic 啟動 Project Glasswing,將旗下前沿模型 Claude Mythos Preview 限制性開放給 40 多個頂尖組織存取。這款模型已在所有主流作業系統與瀏覽器中識別出數千個零時差漏洞,其中最古老的一個已潛伏 27 年。Anthropic 認為此模型威力過強,無法公開發布,本次做法在 AI 產業史上史無前例。

1 分鐘閱讀