
到2024年,全球75%的人口的個人數據將受到隱私法規的保護據Gartner,Inc.稱,隨著全球范圍內隱私法規的數量不斷增加,組織應關注五種隱私趨勢,以幫助應對保護個人數據和滿足法規要求的挑戰。“到2024年底,Gartner預測世界上75%的人口的個人數據將受到現代隱私法規的保護。這種監管演變一直是隱私操作化的主要催化劑,”Gartner副總裁NaderHenein說。“由于大多數組織沒有專門的隱私實踐,因此在CISO辦公室的保護下,實施這些要求的責任被轉移到技術上,更具體地說是安全上。”
隨著未來兩年隱私監管工作在數十個司法管轄區的擴展,許多組織將看到有必要立即開始他們的隱私計劃工作。事實上,Gartner預測,到2024年,大型組織的平均年度隱私預算將超過250萬美元。
Gartner確定了五種隱私趨勢,這些趨勢支持隱私實踐,但也支持整個企業的多個業務領導者,使購買更容易實現,價值更可觀,價值實現時間更短。
數據本地化
在一個無國界的數字社會中,試圖控制數據所在的國家似乎有悖常理。然而,這種控制要么是直接要求,要么是許多新興隱私法的副產品。
多國業務戰略的風險推動了一種新的方法來設計和獲取所有服務模型的云,因為安全和風險管理領導者面臨著不平衡的監管環境,不同的地區需要不同的本地化戰略。因此,數據本地化規劃將成為云服務設計和采購的重中之重。
增強隱私的計算技術
在不受信任的環境(例如公共云)中進行數據處理以及多方數據共享和分析已成為組織成功的基礎。分析引擎和架構的日益復雜性要求供應商在設計時加入隱私功能,而不是采用補強方法。人工智能模型的普及和訓練它們的必要性只是對隱私問題的最新補充。
與常見的靜態數據安全控制不同,隱私增強計算(PEC)可保護使用中的數據。因此,組織可以實施以前因隱私或安全問題而無法實現的數據處理和分析。Gartner預測,到2025年,60%的大型組織將在分析、商業智能和/或云計算中使用至少一種PEC技術。
人工智能治理
Gartner的一項調查發現,40%的組織存在AI隱私泄露事件,而在這些泄露事件中,只有四分之一是惡意的。無論組織是通過集成到供應商產品中的基于AI的模塊,還是通過內部數據科學團隊管理的獨立平臺來處理個人數據,隱私風險和個人數據的潛在濫用風險都是顯而易見的。
“如今跨組織運行的許多人工智能都內置于更大的解決方案中,幾乎沒有監督來評估對隱私的影響。這些嵌入式AI功能用于跟蹤員工行為、評估消費者情緒并構建可在旅途中學習的“智能”產品。此外,今天輸入這些學習模型的數據將對未來幾年的決策產生影響,”Henein說。“一旦AI監管變得更加成熟,在沒有AI治理計劃的情況下,幾乎不可能解決攝入的有毒數據。IT領導者將不得不以對他們的組織和他們的地位造成巨大損失為代價,徹底淘汰系統。”
集中隱私用戶體驗
消費者對主題權利的需求增加以及對透明度的期望提高將推動對集中式隱私用戶體驗(UX)的需求。具有前瞻性思維的組織了解將隱私UX的所有方面(通知、cookie、同意管理和主題權利請求(SRR)處理)整合到一個自助服務門戶中的優勢。這種方法為主要成員、客戶和員工帶來了便利,并節省了大量時間和成本。到2023年,Gartner預測30%的面向消費者的組織將提供自助服務透明門戶以提供偏好和同意管理。
遠程成為“混合一切”
隨著工作和生活中的參與模式趨于混合,增加跟蹤、監控和其他個人數據處理活動的機會和愿望都在增加,隱私風險變得至關重要。
由于全混合交互集對隱私的影響,各個行業和學科的生產力和工作與生活平衡的滿意度也有所提高。組織應采取以人為本的隱私保護方法,監控數據應盡量少用并有明確的目的,例如通過消除不必要的摩擦來改善員工體驗,或通過標記健康風險來減輕倦怠風險。