home.social

#治理 — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #治理, aggregated by home.social.

  1. Enterprises are getting stuck in AI pilot hell, say Chatterbox Labs execs | Hacker News

    Link
    Enterprises are getting stuck in AI pilot hell, say Chatterbox Labs execs
    https://theregister.com/2025/06/08/ai-enterprise-security-adoption/

    📌 Summary:
    本篇報導聚焦於企業在推動人工智慧(AI)應用的過程中,普遍陷入「AI 試點地獄」(AI pilot hell),難以從試驗階段順利轉向大規模生產部署。Chatterbox Labs 的 CEO Danny Coleman 及 CTO Stuart Battersby 強調,企業領導階層必須建立持續且符合 AI 模型特性的安全測試機制,才能推動 AI 技術的成熟及廣泛採用。企業目前只有約 10% 採用率,主要卡關點並非 AI 模型的效能,而是安全與治理問題。傳統資安團隊多未具備 AI 專業背景,無法掌握 AI 獨特的攻擊面,導致 AI 應用在企業中信任度不高。報導亦指出,目前內容安全過濾與防護措施不足,需有更多層次、嚴謹的測試來降低風險,同時也有機會藉由持續測試降低成本,確保模型安全且適用於特定場景。整體而言,企業若要真正實現 AI 的價值,必須跨越安全與治理挑戰,導入嚴謹的全生命週期風險管理框架。

    🎯 Key Points:
    → ★ AI 採用困境:目前企業 AI 採用率僅約 10%,多停留在試點階段,無法大規模部署,影響整體市場潛力(McKinsey 預估 AI 市場達 4 兆美元)。
    → ★ 核心阻力:非模型效能不足,而是「安全」及「治理」問題,包括企業與社會風險沒被充分考量。
    → ★ 資安與 AI 安全差異:傳統資安團隊缺乏 AI 領域專業,無法有效辨識 AI 模型特有的攻擊面與弱點。
    → ★ 持續安全測試機制:Battersby 提倡針對實際業務使用案例,持續進行安全測試並檢視 AI 服務表現,不盲目相信供應商的安全保證。
    → ★ 內容安全過濾不足:Coleman 指出現有內容過濾與防護(guardrails)未足夠防範風險,需多層次機制加強防護。
    → ★ 安全與成本:持續測試雖需投入成本,但可透過驗證較小型且經過測試的模型降低整體支出。
    → ★ 業界實例:Cisco 收購 Robust Intelligence、Palo Alto Networks 收購 Protect AI,示範產業內已開始結合 AI 與安全實務。
    → ★ 人員與組織挑戰:企業內部「AI 不懂技術又想擁抱潮流」的現象,導致諮詢顧問與專案推動常失焦甚至失敗。
    → ★ 風險與責任問題:AI 非確定性及生成式特性帶來責任歸屬模糊,未來需立法與政策協調確立監管標準。

    🔖 Keywords:
    #人工智慧 AI #企業採用 Enterprisedeployment #資安安全 Security #持續測試 ContinuousTesting #治理 RiskManagement

  2. 數位中介服務法草案討論會現在線上開始啦!

    有提供線上直播
    歡迎大家可以上線一起討論

    直播連結:youtu.be/igi0pHyizdo

    相關補充資料可以參閱

    草案內容請見「數位平台中介法」草案意見徵詢: join.gov.tw/policies/detail/43

    hackmd 好讀版: g0v.hackmd.io/@mrorz/ncc-disa/

    #數位中介服務法
    #NCC #網路治理 #moztw #ocf
    #治理 #監理 #言論管控 #hackmd