在業界普遍認識到需要強有力的安全措施的同時,來自 PSA 認證 的研究表明,投資和最佳實踐正在努力跟上 AI 快速增長的步伐。
一項針對 1,260 名全球技術決策者的調查顯示,三分之二(68%)的人擔心 AI 進步的速度超過了行業保護產品、設備和服務的能力。這種擔憂正在推動邊緣計算的採用,85% 的人認為安全問題將推動更多 AI 用例轉向邊緣。
邊緣計算——在設備本地處理數據而不是依賴集中式雲系統——在效率、安全性和隱私方面具有固有優勢。然而,向邊緣的轉變需要更加關注設備安全。
“AI 和安全之間有一個重要的互聯:一個不能沒有另一個擴展,” PSA 認證聯合創始人 Arm 市場戰略高級總監 David Maidment 警告說。“雖然 AI 是一個巨大的機會,但它的普及也為不法分子提供了同樣的機會。”
儘管認識到安全性至關重要,但在意識和行動之間存在顯著的脫節。只有一半(50%)的受訪者認為他們目前的安全投資是足夠的。此外,獨立認證和威脅建模等基本安全實踐被相當一部分受訪者忽視。
“在追求 AI 功能的過程中,連接設備生態系統中的人們更不能跳過最佳安全實踐,” Maidment 強調說。“整個價值鏈需要共同承擔責任,確保消費者對 AI 驅動服務的信任。”
報告強調了需要對安全性採取全面的方法,從設備部署到在邊緣運行的 AI 模型的管理,整個 AI 生命週期中都嵌入安全設計原則。這種主動的方法被認為對建立消費者信任和減輕不斷升級的安全風險至關重要。
儘管存在擔憂,但業界仍然充滿樂觀情緒。大多數(67%)決策者認為他們的組織有能力應對 AI 增長帶來的潛在安全風險。對優先考慮安全投資的認識不斷增強——46% 的人專注於加強安全性,而 39% 的人則優先考慮 AI 準備。
“那些希望釋放 AI 全部潛力的人必須確保他們正在採取正確的步驟來減輕潛在的安全風險,” Maidment 說。“隨著連接設備生態系統中的利益相關者迅速採用一套新的 AI 驅動用例,他們必須確保不僅僅是無視安全影響而推進 AI。”