
隨著生成式AI快速普及,人工智慧代理程式(AI Agent)正被視為引領下一波科技革命的關鍵力量。AI代理人能代替人類執行多項任務,例如訂購機票、安排會議或管理郵件。然而,資安專家警告,這項技術的進步,也讓駭客找到了全新的入侵管道。
AI代理人具備自動化與自然語言互動的特性,用戶僅需一句指令即可觸發操作。這樣的便利同時成為漏洞來源——駭客可以透過「提示注入」(Prompt Injection)等方式,在指令中暗藏惡意內容。例如原本的指令「幫我預訂飯店」可能被竄改成「轉帳100美元到指定帳戶」,讓AI成為犯罪的工具。
根據全球開放應用程式安全計畫(OWASP)的報告,AI系統面臨的主要風險包括:
此外,「不受控制的AI(Rogue AI)」也逐漸浮現。當AI的行為與使用者目標不一致,可能導致資料誤用或決策偏差。若駭客故意操控模型或修改訓練資料,更可能引發難以追蹤的資安風暴。
生成式AI(Generative AI)也帶來了資訊外洩與詐騙自動化的新風險。AI能生成極具說服力的釣魚郵件、假新聞、甚至深偽影片,使社交工程攻擊更具欺騙性。像ChatGPT、Copilot等工具若未妥善設定權限,也可能造成企業機密外洩。
因此,AI防護不再只是技術問題,而是企業營運的核心議題。企業應落實資料治理與權限控管,確保AI系統符合隱私與法規要求。同時導入主動式防護機制,利用威脅情報與異常行為偵測來預防入侵。
AI帶來了前所未有的效率,也揭開了新型態的資安戰場。唯有強化防護與教育意識,才能在AI時代保持創新與安全的平衡。