全國咨詢熱線:010-67877741/42/43

全球首份《AI系統(tǒng)安全開發(fā)準則》發(fā)布提出4方面安全監(jiān)管要求

發(fā)布時間:2023-11-29 09:02:00 人氣:298 來源:中國安全防范產(chǎn)品行業(yè)協(xié)會


  2023年11月26日 ,美國、英國、澳大利亞等18個國家的網(wǎng)絡安全監(jiān)管部門聯(lián)合發(fā)布了全球首份《AI系統(tǒng)安全開發(fā)準則》,旨在實現(xiàn)保護人工智能模型不被惡意篡改,并敦促人工智能公司在開發(fā)或使用人工智能模型時更加關注“設計安全”。
  作為這份準則制定的主要參與方,美國網(wǎng)絡安全和基礎設施安全局(CISA)表示:世界正處于AI技術快速發(fā)展的拐點,AI很可能是如今最具影響力的技術,但充分保障網(wǎng)絡安全是建立安全、可靠和值得信賴AI系統(tǒng)的關鍵。因此,我們聯(lián)合了多個國家的網(wǎng)絡安全監(jiān)管部門,并與谷歌、亞馬遜、OpenAI和微軟等公司的技術專家合作,共同編寫發(fā)布了這份準則,旨在提高AI技術應用的安全性。
  據(jù)了解,這份準則是全球第一份由官方機構發(fā)布的針對AI系統(tǒng)開發(fā)安全的指導文件。準則明確要求AI企業(yè)必須優(yōu)先考慮為客戶確保安全結果,積極倡導AI應用的透明度和問責機制,并以保障安全設計為首要任務來構建組織的管理結構。準則旨在提高AI的網(wǎng)絡安全性,有助于確保安全地設計、開發(fā)和部署AI技術。
  此外,依托美國政府一貫以來在管理網(wǎng)絡安全風險方面的工作經(jīng)驗,準則要求所有AI研發(fā)公司在新的AI工具公開發(fā)布之前要經(jīng)過充分測試,確保已實施安全護欄以最大程度消除社會危害(比如偏見和歧視)和隱私問題。準則還要求AI研發(fā)公司承諾:通過漏洞懸賞系統(tǒng),方便第三方發(fā)現(xiàn)和報告其AI系統(tǒng)中的漏洞,從而迅速發(fā)現(xiàn)和修復漏洞。
  具體而言,此次發(fā)布的準則為AI系統(tǒng)安全開發(fā)提出了4大方面的監(jiān)管要求:
   01、要優(yōu)先考慮“設計安全”和“默認安全”
  在準則中,多次強調了“設計安全”和“默認安全”原則,即AI開發(fā)公司應該主動保護AI產(chǎn)品免受攻擊的方法。起草者敦促AI開發(fā)人員在決策過程中優(yōu)先考慮安全,而不單單注重功能和性能。準則還建議產(chǎn)品提供設置為最安全的默認應用選項,并向用戶清楚地傳達替代該默認配置的風險。根據(jù)準則要求,AI系統(tǒng)的開發(fā)人員應該為下游的應用結果承擔責任,而不是依賴客戶去控制安全。
  要求摘錄:“用戶(無論是‘最終用戶’還是整合外部AI組件的提供商)通常缺乏足夠的可見性及專業(yè)知識來充分了解、評估或解決與他們正在使用的AI系統(tǒng)相關的風險。因此,根據(jù)‘設計安全’原則,AI組件的提供商應該對供應鏈下游用戶的安全后果負責?!?
   02、密切關注復雜的供應鏈安全
  AI工具開發(fā)人員在設計自己的產(chǎn)品時常依賴第三方組件,比如基礎模型、訓練數(shù)據(jù)集和API。龐大的供應商網(wǎng)絡會給AI系統(tǒng)帶來更大的攻擊面,其中任何一個薄弱環(huán)節(jié)都可能會對產(chǎn)品的安全性產(chǎn)生負面影響。因此,準則要求開發(fā)人員在決定引用第三方組件時,需要充分評估其中的安全風險。在與第三方合作時,開發(fā)人員應該審查和 監(jiān)控供應商的安全狀況,要求供應商遵守與自己組織相同的安全標準,并對導入的第三方代碼實施掃描和隔離。
  要求摘錄:“如果第三方組件未達到安全標準,開發(fā)者要為關鍵任務系統(tǒng)準備好切換到替代解決方案。企業(yè)可以使用NCSC的《供應鏈指南》等資源,以及軟件工件供應鏈級別(SLSA)等資源,用于跟蹤供應鏈和軟件開發(fā)生命周期的認證?!?
   03、考慮AI應用中面臨的獨特風險
  AI系統(tǒng)應用時會產(chǎn)生一些特有的威脅(如提示注入攻擊和數(shù)據(jù)中毒),因此開發(fā)者需要充分考慮AI系統(tǒng)獨特的安全因素。AI系統(tǒng)“設計安全”方法的一個重要組成部分就是為AI模型輸出設置安全護欄,以防止敏感數(shù)據(jù)泄露,并限制用于文件編輯等任務的AI組件的操作。開發(fā)人員應該將AI特有的威脅場景納入發(fā)布前的測試中,并監(jiān)控用戶輸入以判斷是否存在惡意利用系統(tǒng)的企圖。
  要求摘錄:“‘對抗性機器學習’(AML)一詞用于描述利用機器學習組件(包括硬件、軟件、工作流和供應鏈)中的安全漏洞。AML使攻擊者能夠在機器學習系統(tǒng)中引發(fā)意想不到的行為,包括:影響模型的分類或回歸性能、允許用戶執(zhí)行未經(jīng)授權的操作以及提取敏感的模型信息。”
   04、AI系統(tǒng)安全開發(fā)應該具有持續(xù)性和協(xié)作性
  準則概述了貫穿AI系統(tǒng)設計、開發(fā)、部署、操作及維護等全生命周期階段的最佳安全實踐,并強調了要持續(xù)監(jiān)控已部署AI系統(tǒng)的重要性,這樣能夠發(fā)現(xiàn)模型行為方面的變化和可疑的用戶輸入?!霸O計安全”原則是任何軟件更新的關鍵組成部分,準則建議開發(fā)者在默認情況下自動更新。最后,則建議開發(fā)人員利用更龐大的AI社區(qū)反饋和信息共享,不斷改進系統(tǒng)的安全性。
  要求摘錄:“需要時,AI系統(tǒng)開發(fā)者可以將遇到的安全問題上報到更龐大的社區(qū),比如發(fā)布響應漏洞披露的公告,包括詳細而完整的常見漏洞枚舉。當發(fā)現(xiàn)安全問題時,開發(fā)者要采取行動,迅速而適當?shù)鼐徑夂托迯蛦栴}?!?
聯(lián)系我們
聯(lián)系方式

熱線電話

13910555092

上班時間

周一到周五

公司電話

010-67877741/42/43

二維碼
聯(lián)