AI Agent 釣魚攻擊全面自動化:DeepSeek-V3 驅動個人化詐騙

AI 模型不只會寫程式或回答問題,當它們被惡意人士使用時,也能扮演「AI Agent」詐騙犯。Wired 記者 Will Knight 近期在一次社交工程測試中遭遇類似情境:由開源模型 DeepSeek-V3 全程操盤的個人化釣魚攻擊,差點讓他點下可疑連結。 該測試由新創 Charlemagne Labs 的模擬工具完成。工具以「攻擊方 vs. 受害方」的多輪對話方式快速跑大量測試,用來系統性評估 AI 在社交工程攻擊上的能力邊界。Knight 測試了五款主流模型:Anthropic 的 Claude 3 Haiku、OpenAI 的 GPT-4o、Nvidia 的 Nemotron、DeepSeek-V3、以及阿里巴巴的 Qwen。部分模型表現失控或中途拒絕,但 DeepSeek-V3 在完整多輪對話中最流暢,懂得何時給細節、何時保留懸念,並把原本可疑的訊息包裝成更像「可信合作邀約」。 重點升級在自動化。Knight 甚至使用 OpenClaw 自動蒐集公開資訊與聯絡方式,再把資料餵給攻擊模型生成高度定制的訊息,讓人力介入大幅降低:從篩選目標到訊息生成幾乎可全流程自動完成。 文中也用數字凸顯風險:傳統大量釣魚郵件點選率約 12%,而高度個人化的 AI 釣魚(AI phishing)據稱可達 54%。受訪者指出,AI 未必讓內容更「說服」,但能把攻擊規模放大數十倍甚至百倍,導致事件更頻繁、更難防。 對加密貨幣交易者而言,這是直接警訊:所有宣稱與錢包、DEX、空投相關的訊息,即使被刻意「個人化」,也要把 AI phishing 當作高風險訊號處理,並先完成可驗證的來源核對。
中性
這則報導本質上是資安與社交工程風險的升級:AI phishing 能把攻擊流程高度自動化並提高規模,短期內更可能造成的是「用戶資產被盜/受損」與交易所、錢包、DeFi 相關服務的信任波動,而不是直接影響鏈上供需或現貨/衍生品的基本面。因此對整體市場價格走向偏中性。 短期層面,若市場在同一時段看到更多因 AI 釣魚導致的資金損失案例,可能引發風險厭惡、交易活躍度下降,並增加對交易對手(CEX/錢包/項目方)安全性的溢價。類似情境在過往「大量新型詐騙」爆發時常見,通常先影響社群情緒與個別項目代幣風險溢價,再逐步回歸正常。 長期層面,隨著攻擊鏈條自動化程度提升,安全治理(驗證流程、反釣魚機制、用戶訓練、合約/錢包風控)會成為更持續的成本項目。對交易而言,這更多改變的是風控與執行方式(例如連結核驗、地址白名單、硬體錢包流程),而非立刻改變宏觀價格趨勢。