Agentic AI 工具的對比:

OpenClaw:
- 主要用戶: 開發者,進階用戶,有一定 Coding 技能
- 連接通訊:Slack / Telegram / Discord
- 好處: 開源軟件,社群支援足夠,功能插件多
CoPaw, aka QwenPaw :
- 主要用戶: 初試 AI Agent 的新手,可快速上手
- 連接通訊:主要中國市場的 Instant Messenger 工具,如 WeChat QQ 等
- 好處: 能夠使用 MCP 接合不同工具,變成你的小助手
在香港企應用 AI 的現況:
AI 部署準備度低:一項調查顯示,只有 9% 的香港企業已完全準備好部署和使用 AI 技術,遠低於去年的 25%。
參考:Fewer HK companies are prepared for AI use
企業對 AI 使用的限制:高盛據報禁止香港員工使用 Anthropic 的 AI 模型 Claude。
參考:高盛據報禁香港員工用Anthropic人工智能模型Claude
數據私隱與安全顧慮:生產力局的《2025年香港企業AI應用趨勢調查》指出,數據私隱與安全顧慮是第二大挑戰,僅次於人才短缺。
AI 代理的資安事件案例
1. AI Agent 誤刪數據庫:
SaaS 公司創始人(Jason Lemkin)在使用 Replit 的 AI 編程智能體時,該 Agent 在被明確禁止修改代碼與數據的情況下,仍刪除了包含 2,400 多條業務記錄的實時生產數據庫,被稱為「史上首次 AI Agent 刪庫事件」。
2026 年 4 月,美國初創公司 PocketOS 的創始人在測試中使用 Cursor 搭載 Claude Opus 4.6 的 AI 智能體時,該 Agent 在 9 秒內調用雲平台 API,刪除了整個生產數據庫及其近期備份。
參考:An AI Agent Deleted a Company’s Entire Database in 9 Seconds — Then It Said Sorry
2. OpenClaw 等 AI 代理的資訊安全問題
- 個人資料外洩風險:AI 代理能讀取電郵、文件、瀏覽網頁並執行指令,增加被利用和濫用的風險。直接存取雲端應用程式也可能導致敏感商業信息外洩。
- 產生非預期行為:AI 代理可能因錯誤理解指令而誤刪重要資料,例如所有電郵紀錄。
- 過高存取權限:授予管理員或廣泛的系統存取權限,會擴大 AI 被誘導或入侵時的影響範圍。
- 提示注入攻擊 (Prompt Injection):AI 代理處理的訊息或造訪的網站可能包含惡意指令,造成實際損害。
- 系統層級影響:當 AI 代理擁有較高權限運行時,一旦出錯或被攻擊,可能影響整個系統。
- 判斷力錯覺:自主系統可能看似可靠,但實際上不具備真正的推理能力,容易讓使用者過度授權給缺乏問責與真實判斷力的系統。
- 影子式採用:員工未經批准自行安裝代理型 AI,導致產生未受管理的風險,並使 IT 與安全團隊缺乏可視性。
- AI 工具缺乏日誌記錄:增加安全調查的難度,無法證明資料的完整性。
- 缺乏企業級管控功能:OpenClaw 缺乏企業部署所需的審計日誌、存取控制、合規工具及治理功能,沒有集中管理機制、角色基礎的存取控制,也無法與企業身份識別提供者整合。
- 默認配置導致公網暴露:研究發現超過 13 萬個 OpenClaw 實例因錯誤配置(如 Docker 部署默認監聽所有網絡接口 0.0.0.0)而直接暴露在互聯網上,攻擊者可藉此掃描並接管這些實例,獲取其中的 API 金鑰和通訊記錄。
3. 使用 AI Agent 時的注意事項
- 授予最小權限:只給予 AI Agent 完成任務所需的最低權限。
- 使用官方最新版本:確保使用最新、最安全的 AI Agent 版本。
- 確保系統安全:定期檢查和更新系統安全措施。
- 審慎安裝及使用 Plugins 或 Skills:仔細評估第三方插件的安全性。
- 持續評估風險:定期評估 AI Agent 帶來的潛在風險。
- 為 Agentic AI 工具進行安全加固 (Security Hardening):採取措施強化 AI Agent 的安全性。
參考:
- OpenClaw Security Practice Guide (GitHub)
- OpenClaw Security Documentation
- Pipelock open-source AI agent firewall
4. AI 的未來與資安趨勢
- 企業級安全供應商加速產品開發:預計將支援代理式人工智能 (Agentic AI) 的端點安全產品。
- 家用安全產品將支援 AI 代理防護:預期家用安全產品很快會具備 AI 代理防護功能。
- AI 加速攻擊流程:AI 正被用於加速漏洞利用、釣魚與其他攻擊流程,提高攻擊效率與規模。
- 新的內部威脅來源:深度偽造、AI 生成假資訊與 AI 權限過大,正在成為新的內部威脅來源。
- 資料外洩與攻擊面擴大:生成式 AI 普及後,資料外洩與攻擊面擴大成為企業需要正視的風險。
- 網絡安全進入新階段:AI 同時被用作攻擊與防禦工具,網絡安全已正式進入一個全新的階段。
5. AI 資安工具及相關資源
鳴謝:
所有參與的來賓,下次我們的 AI Meetup 將會在六月二日進行。稍後會公布詳情,用戶可以訂閱活動的 Substack,敬請注意。

