好吊视频一区二区三区-国产精品V欧美精品V日韩精品-老司机亚洲精品影院-国产精品视频免费播放

物聯傳媒 旗下網站
登錄 注冊
RFID世界網 >  新聞中心  >  物聯網新聞  >  正文

人工智能安全的法律治理:圍繞系統安全的檢視

作者:本站收錄
來源:金融新鮮事兒
日期:2017-12-11 11:17:50
摘要:在眾多風險中,本文重點關注的則是人工智能安全的法律規制。

  01、前言:人工智能法律治理現狀

  人工智能科技誕生于20世紀50年代,在六十多年的發展歷程中幾經潮起潮落,近年人工智能迎來了其第三個發展高峰,而這次的高峰被認為是不同以往的,其中原因被歸結為算力、算法以及數據等技術進步為人工智能科技提供了穩健前行的基礎:

  首先,云計算技術與GPU處理器的應用以及前景可期的量子計算,它們為人工智能提供了強大的算力支撐;其次,人工智能領域以機器學習為代表的算法的突破以及大數據提供的海量數據資源“煤礦”,均為人工智能的發展賦予了能量。

  人工智能技術與應用正在快速普及在社會生活的各個方面,世界各國均致力于制定與其發展相適應的法律規則,如歐盟于2016年10月制定了《歐盟機器人民事法律規則》(European Civil Law Rules in Robotics),提煉出人工智能觸及的民事法律問題的框架,從法律和倫理的角度評估和分析未來歐洲民法領域的機器人規則,給予這些法律問題以方向性的指導。

  而以自動駕駛汽車的立法探索為例,美國共計23個州政府共制定了四十余部自動駕駛汽車法案,聯邦層面的自動駕駛汽車法案也正在推進。不可否認的是,世界各國的人工智能頂層戰略文件均不約而同提及應盡快建立相應的法律規范體系,而多國已經將這些建議與構想真正提上了立法議程。

  世界各國積極推進人工智能領域的立法,主要有以下兩個方面的原因:

  一方面,各國均希望在這場被稱為第四次的工業革命的浪潮真正到來之前,能夠搶占法律規則制定先機,促使本國的法律規則能夠在國際社會享有話語權與主導權;另一方面,人工智能衍生了一系列社會風險,包括:人工智能算法決策透明度與可解釋性的缺失、人工智能應用的個人信息與隱私的保護、人工智能系統安全、人工智能造成人類損害及責任分擔方案以及人工智能為人類就業帶來的負面影響等。

  面對這些風險,制定與其現階段發展相適應的法律規則的重要性凸顯。

  在眾多風險中,本文重點關注的則是人工智能安全的法律規制。“安全”所包含的內容范圍需要從以下兩個方面進行說明:

  首先,本文主旨為探討人工智能技術與應用的網絡安全,根據我國現有網絡安全法律體系與人工智能技術與應用現狀,對人工智能帶來的新生網絡安全風險進行挖掘,提出將人工智能對應規范嵌入現有網絡安全法律框架的可行性建議。

  其次,國外學術文獻對人工智能“安全”問題的探討,還包含了:機器確保人類人身安全的議題。造成這種提法差異的原因在于“safety”與“security”兩詞的含義誤差:在英語語境中,“safety”重在人身安全,如阿西莫夫的機器人三原則,其主旨為確保機器人不會傷害人類;而當談及“security”則意指數據安全和通信秘密等網絡空間的安全。但當兩詞翻譯為中文時,則被統一稱之為“安全”。

  關于“safety”(人身安全)問題的探討目前聚焦于倫理范疇與技術標準領域,如探索設計機器的道德準則(如不傷害人類)并以有效方式將這些道德準則植入人工智能算法與系統的可行性,以及制定相關的機械安全技術標準與規范;關于“safety”問題的法律治理則更多聚焦于造成人身損害后的責任如何分擔,如操作系統服務商、汽車生產廠商與乘客誰會為損害承擔責任,采用無過錯侵權責任還是設計相應的責任豁免規則等問題的探索。

  需要向讀者闡明的是,本文所探討的“安全”意為“security”,即為網絡安全,并不涉及人工智能確保人身安全的議題。

  人工智能面臨哪些網絡安全風險,是否存在新生的安全風險形式?根據我國已有的網絡安全法律體系,網絡安全是指通過采取必要措施,防范對網絡的攻擊、侵入、干擾、破壞和非法使用以及意外事故,使網絡處于穩定可靠運行的狀態,以及保障網絡數據的完整性、保密性、可用性的能力。

  以系統和數據兩個核心網絡安全要素為視角,將人工智能技術與應用的形式對應分析,我們將人工智能安全問題聚焦于:系統安全、算法透明度與問責性和數據隱私的保護。

  以具體的人工智能應用舉例,如自動駕駛汽車系統:黑客可以從智能汽車端、移動應用端和云平臺以及三者交互的通信管道實施攻擊,復雜的系統組成要素則大大增加了安全風險。目前已實際發生過黑客通過盜取移動app賬號密碼而控制自動駕駛汽車的案例,這類系統脆弱性為乘客人身安全和社會安全帶來了巨大隱患。

  與此同時,人工智能算法和系統對社會運行及公民個人利益的影響也日益重要起來。以目前內容分發所廣泛使用的用戶畫像技術為例,該技術會通過用戶的點擊歷史以及觸屏操作分析用戶行為,對用戶進行畫像分類,并添加相應的標簽,而后精準推送與標簽對應的內容,關于該項應用所引發的合理性爭議也隨之產生,它被質疑減少了用戶廣泛接觸各類信息的機會,剝奪了用戶平等獲取信息的權利。

  反觀精準信息推送在2016年美國總統競選中所發揮的作用:在競選過程中存在著數量巨大的政治機器人,它們被用于在社交媒體傳播錯誤信息和虛假新聞。此種高度精密的技術將會通過大數據分析和人工智能技術判斷和預測每個選民的關注重點,而針對性地分發對應的具有煽動性的內容,有針對性地制造輿論假象,進而惡意引導民意。可以窺見,人工智能的法律治理已迫在眉睫。

  本文正文分為三部分進行論述。第一部分介紹兩個基本問題,人工智能的含義及人工智能現有網絡安全問題的剖析,在這部分我們試圖從側重實用與技術落地的角度,對人工智能做一個更加具體化的界定。

  第二部分,以智能硬件、智能網聯汽車以及物聯網為示例,分別對其系統安全的關鍵問題進行分析,提煉出具有共通性的人工智能系統安全風險要素,找到法律治理的切入點。

  第三部分,通過將人工智能系統安全問題融入既有網絡安全法律框架,就核心問題具體分析,而提出在網絡安全法律體系的落實建議。

  02、人工智能的含義試析

  1955年,John McCarthy首先提出 “Artificial Intelligence”一詞,起初關于Artificial Intelligence的設想是:通過將人類的學習行為及其他智力主導行為進行解構分析,從而將人類智能精確地描述出來,繼而在機器上構建與人類智能相類似的智能,因此被稱為“人工智能”。

  目前關于人工智能的含義劃定仍未有定論,在此引用人工智能專業教科書關于人工智能的定義,在該定義中,人工智能被描述為一種計算機系統,它包含以下特質:

  (1)具備能夠像人類一樣思考的潛力,例如可以識別架構和神經網絡;

  (2)與人類行為相似,可以借助自然語言處理并通過圖靈測試,進行自動推理和學習;

  (3)能夠進行理性思考,例如邏輯運算,推理和優化;

  (4)具備行為理性,例如通過感知、規劃、推理、學習、交流、決策和行動來實現目標。

  現階段人工智能技術從本質來說屬于計算機技術的一種,因此準確理解人工智能算法與系統和普通計算機程序運行的核心區別則成為了理解人工智能技術的關鍵。

  我們說當今的人工智能算法和系統或多或少都有一個特質:它們可以通過外界設定的一個輸出目標,由計算機程序自動尋找方法完成任務,輸出成果,而不同于傳統程序編程,需要工程師對輸出結果的每一個相關參數進行設計。

  例如,圖像神經網絡如何學會識別“貓”,通常需要將標注好“貓”的圖片輸入圖像識別人工智能系統,系統會自行學習所有圖片中“貓”的特點,進而獲取辨識“貓”的能力,然而機器依賴辨識的特征可能是不具有任何人類知識含義的,因此其決策的過程及原理難以被人們所理解。

  人工智能的應用復雜多樣,究其原因,首先是因為人工智能算法和系統可以內嵌至各類應用場景及解決方案之中;其次,在實操層面人們無法劃定什么是人工智能、什么不屬于人工智能的分界線,例如由人工智能研究者研發的處理大量數據的技術,現在被定義為大數據技術;在面對一個尚未解決的問題時,人們通常認為需要人工智能算法解決問題,然而一旦該解決方案被廣泛接受后,這套解決方案則會被認為是常規的數據處理流程。

  談及人工智能的法律治理,在結合人工智能技術特點的基礎上,針對具體的應用類型制定針對性法律治理方案意義重大。值得注意的是,人工智能在現階段的應用突出表現在兩個層面:

  (1)算法及系統層面的應用,也即具體的人工智能算法和軟件、解決方案等,如圖像識別、語音識別、信息推送應用的用戶畫像技術、金融領域的智能投顧技術等,它們可以幫助人們在短時間內處理人力所不能及的大量數據,并輔助預測、決策。

  (2)硬件和基礎設施層面的應用,如機器人、自動駕駛汽車、無人機、智能硬件等,這類應用將硬件與人工智能算法和系統進行融合,賦予硬件以更高的智能。智能硬件廣泛協同后,形成物聯網(Internet of things),可用以打造特定行業網絡神經,成為基礎設施的重要組成部分。

  綜上,鑒于人工智能算法與系統的特點,考慮到人工智能應用場景,可以認為人工智能衍生的安全風險集中于以下三個層面:

  首先,在系統安全的風險層面,廣泛互聯的物聯網,智能硬件的系統漏洞、基礎安全技術缺失以及復雜的供應鏈條帶來的歸責困境為系統安全的監管帶來挑戰。

  其次,在算法透明度與可解釋性的風險層面,人工智能算法的 “自動化”學習與決策的過程、無法吸納人類知識的缺陷、機器學習依據的海量數據帶來的不確定性等,使得算法的決策過程和決策規則難以被人類明確知悉,由此引發人工智能算法的可解釋性和透明度缺失隱患。

  最后,在數據使用和隱私保護的風險層面,原有數據使用和個人信息使用和保護機制面臨失效的困境,例如在物聯網中巨大量級的用戶數據在各個設備和系統之間傳輸共享非常頻繁,如要獲取用戶的同意確認,將帶來大量的時間消耗并且不具備可操作性。同時引起創建數據收集與使用新規的探索,如機器學習的訓練數據的收集是否可以擊穿隱私數據收集最小化原則和使用的必要性原則等。

  本文將圍繞人工智能系統安全的問題展開論述,傳統系統安全問題在人工智能應用場景下無創新探討的,本文將不再涉及。

  03、人工智能系統安全問題要覽

  在傳統系統安全風險之外,人工智能還因其應用本身的特點,多維度增加了系統安全的治理難度。下文以智能硬件、智能網聯汽車以及物聯網為示例,就人工智能系統安全所存在的風險及治理難點進行分析。

  ▌(一)智能硬件系統安全

  近年智能硬件產業得到了快速的發展,各類智能硬件產品種類繁多、用途廣泛,然而因其目前仍處于產業初創與技術探索階段,而導致了安全問題遭到忽視。智能硬件的系統安全風險總體來說存在于接入技術保障、固件安全、移動客戶端安全以及云平臺安全四個層面。

  首先,在接入技術層面,因智能硬件體型較小,資源受限,因此,加密算法的設置與選擇不得不考慮功耗問題,導致了市場上部分智能硬件加密手段缺失。

  其次,在固件安全層面,因固件安全代碼的缺陷具有隱蔽性強、難以檢測,難以剔除等特點,部分固件存在無法更新升級的情況,這就導致一旦出現系統漏洞,無法修補而只能更換設備。

  第三,就移動客戶端安全層面,因使用到手機端app,移動端防守較為薄弱,可用的攻擊形式眾多。而云平臺安全層面的風險可以概括為傳統的web風險。

  面對智能硬件多發的系統風險,首先需要從生產廠商層面保障智能硬件的接入、訪問控制,加密傳輸、補丁更新等基本的信息安全功能。其次,從立法層面,應盡快將智能硬件納入網絡安全法律監管體系。

  ▌(二)智能網聯汽車系統安全

  智能網聯汽車的系統安全問題關乎生命安全,同時也更為復雜。智能網絡汽車的技術核心被歸納為“信息”與“控制”,意為由系統進行信息感知、決策預警和智能控制,使智能操作可以逐漸替代駕駛員,并最終自主執行全部駕駛任務功能。

  因此防范對網絡的攻擊、侵入、干擾、破壞需要從“信息”與控制的各個環節進行落實,這具體包含了:整車及車內系統安全、移動智能終端安全、車聯網服務平臺安全以及通信安全四個方面,除整車及車內系統安全較為復雜以外,其余安全風險方面與智能硬件類似,在此不多做展開。

  智能網聯汽車安全監管舉措要點集中在整車及系統的風險評估、安全防護與測試等方面。根據我國《國家車聯網產業標準體系建設指南》關于車聯網信息安全標準的要求,車聯網信息安全標準在遵從信息安全通用要求的基礎上,以保障車輛安全、穩定、可靠運行為核心,主要針對車輛及車載系統通信、數據、軟硬件安全,從整車、系統、關鍵節點以及車輛與外界接口等方面提出風險評估、安全防護與測試評價要求,防范對車輛的攻擊、侵入、干擾、破壞和非法使用以及意外事故。

  同時,車聯網產業鏈長、防護環節眾多,因此引發產業鏈上各供應商安全事故責任承擔的一系列問題:是否僅以整車廠作為承擔安全風險責任的主體,以及供應鏈上下游服務提供商的網絡安全事故責任如何認定等。責任承擔問題將成為包括智能網絡汽車在內的人工智能應用網絡安全法律治理的抓手與難點。

  ▌(三)物聯網系統安全

  物聯網被定義為:通過收集,處理和分析由傳感器或智能對象產生的數據來監測和控制物理環境的無處不在的網絡,目前在我國被廣泛應用于工業、農業、能源、物流等行業。

  國務院《新一代人工智能發展規劃》指出,要培育高端高效的智能經濟,從智能軟硬件、智能機器人和智能運載工具等人工智能新興產業,到應用于制造業、農業、物流和金融等產業的智能化升級,物聯網在其中承擔著重要的功用。

  物聯網的系統安全治理在智能硬件、智能網聯汽車等分離的硬件系統安全治理的基礎上,還應建立物聯網全局性網絡安全響應機制。

  首先,物聯網的系統安全風險來源于軟件和硬件的異質性和復雜性疊加,缺乏安全設計(security by design)和安全默認(security by default)衍生了巨大的網絡安全風險。如,作為物聯網組成部分的智能硬件安全設計的缺失,使管理、控制和安全保護更加困難。

  其次,物聯網作為硬件與網絡聯結的整體,其系統安全的影響更具有全局性,總體來說,應著手于建立網絡安全測評、風險評估、安全防范、以及應急響應等基本機制,目標是使物聯網基礎設施、重大系統、重要信息的安保能力大大增強。

  ▌(四)人工智能系統的技術與制度風險

  人工智能的系統安全新生風險主要表現在人工智能硬件應用的場景中,通過上文對智能硬件、智能網聯汽車以及物聯網的系統安全要點分析,提煉其中共有的系統安全特點及治理要點,本文將現階段人工智能系統安全面臨的技術與制度的風險概括為以下五個方面:

  一是安全保障技術有待完善。

  智能硬件缺失加密技術、采用默認密碼等技術措施不足,使大量的用戶信息處于裸露狀態,黑客入侵易如反掌。而智能網聯汽車也需要加強通信、系統與硬件層面的安全技術保障,保證認證、訪問、關鍵節點的安全性。物聯網需要在網絡搭建之初的每一個環節進行安全設計與安全默認的考量,使網絡安全的技術保障貫穿于物聯網的生命周期。

  二是復雜的系統構成導致高密度關聯風險增加。

  從智能硬件到智能網聯汽車,我們可以看到,眾多的人工智能硬件的應用都涉及到“兩端一云一管道”,也就是智能硬件(智能網聯汽車)終端,移動應用終端(即輔助操作的移動app),云端(作為用戶賬戶管理以及信息分發的平臺),以及穿插在三者中間由運營商提供的信息通信管道,任何一端或一個環節出問題都有可能導致整個系統被入侵、干擾或破壞。

  三是復雜供應鏈條導致安全責任歸咎困境。

  以智能網聯汽車為例,如因配件或軟件漏洞造成的系統脆弱性,導致被入侵后造成的安全事故責任,是否應該統一落實到整車廠,抑或是由相應的配件生產商或是軟件系統服務提供商承擔責任。再以物聯網為視角,如因硬件端被入侵而使整個網絡遭到攻擊,是否應該將事故責任歸屬于網絡運營者,抑或是歸屬于相應的硬件生產廠商。這其中涉及到權益與責任相一致的問題,但也要保證給予硬件生產商以適當的法律制度壓力,因此,如何設計網絡安全法律責任,還需審慎地探討和衡量。

  四是技術標準與評估方案亟待制定。

  目前我國眾多人工智能應用都已制定相應的標準體系建設規劃,如無人機、智能網聯汽車以及物聯網技術規范標準。技術標準作為軟性法律,可以為市場提供安全技術的一致指引,與認證評估制度相配合,確保基本安全技術在標準規范層面得到保障。另外,由于人工智能應用的種類繁多,應注意根據具體的使用場景和應用的重要程度制定不同的技術標準和評估方案,用以化解不同應用的不同系統安全風險與保障需求的差別化治理難題。

  五是與網絡安全法律監管體系融合障礙。

  其中存在的概念的差異,法律制度的空隙,以及可能導致網絡安全監管碎片化、多元化的挑戰,都不同程度地影響了《網絡安全法》及其配套制度在人工智能環境下的實施與適用。

  04、網絡安全法律視野下的治理路徑

  ▌(一)人工智能硬件應用與《網絡安全法》的融合

  人工智能硬件應用集中了人工智能的新生系統風險隱患,因此,以人工智能硬件應用為核心,探索其與《網絡安全法》及其配套規定的融合與嵌入性規范與制度的設計,可以是人工智能系統核心風險法律治理的主要途徑。下文我們就具體問題進行探討。

  1、人工智能硬件應用的概念屬性

  從《網絡安全法》責任主體視角出發,人工智能硬件應用生產廠商是否被包括在《網絡安全法》“網絡運營者”概念之中,是其被納入網絡安全法律體系,以及其生產廠商承擔相應的網絡安全保障義務的前提。

  根據《網絡安全法》第七十六條第三款關于“網絡運營者”的含義界定,明確網絡運營者是指網絡的所有者、管理者和網絡服務提供者;根據第十條指出:建設、運營網絡或者通過網絡提供服務應履行相關網絡安全保障義務。因人工智能硬件應用生產廠商不屬于網絡的所有者、管理者,因此其是否被包括在《網絡安全法》“網絡運營者”含義之中,問題的關鍵在于,其是否歸屬于“網絡服務提供者”以及“通過網絡提供服務”。而《網絡安全法》條文中則未對 “網絡服務提供者”、“網絡產品、服務”等概念做明確的規定。

  從另一個角度出發,《網絡安全法》第二十一條規定了網絡運營者應履行建立在國家等級保護制度基礎上的安全保護義務,而在《網絡安全法》配套技術標準《信息安全技術 網絡安全等級保護定級指南》中,明確將物聯網納入定級對象。

  并且已制定《信息安全技術 網絡安全等級保護基本要求 第4部分:物聯網安全擴展要求(征求意見稿)》、《信息安全技術 網絡安全等級保護設計技術要求 第4部分:物聯網安全要求(征求意見稿)》等技術規范,由此可以判斷物聯網運營者確屬網絡運營者范疇,物聯網是我國《網絡安全法》現有語境下的治理對象。而智能硬件雖為物聯網的組成部分,但其生產廠商的義務與責任仍不明確。

  以現有網絡產品的審查是否包含人工智能硬件應用著手分析:根據《網絡產品和服務安全審查辦法(試行)》第四條規定重點審查網絡產品和服務的安全性、可控性,其中包括:產品及關鍵部件生產、測試、交付、技術支持過程中的供應鏈安全風險。本條文雖提到了硬件的審查,但是“關鍵部件”的概念內涵較窄,可能無法覆蓋市場上大部分人工智能硬件應用。

  綜上,網絡安全法律體系對人工智能系統安全的治理首先應明確,人工智能硬件應用是否為《網絡安全法》的監管對象,何為“網絡服務、產品”,其中是否包含了擁有內置cpu、操作系統,傳感器以及信息傳輸通路的各類人工智能硬件,“網絡服務提供者”是否包含了這些人工智能硬件的生產廠商。

  其次,目前《網絡安全法》對網絡服務、產品的審核集中在相對重要的產品范圍,涉及的硬件種類較少,如要增加智能硬件的網絡安全審核,則可能造成體系臃腫與失衡,因此需要圍繞人工智能硬件構建專門的監管體系,通過層層制度設計將監管重任分層剝離。

  2、針對人工智能硬件應用構建網絡安全監管體系

  通過上文分析,人工智能硬件應用尚未完全融入網絡安全法律體系,本文建議圍繞人工智能硬件的特點與安全風險構建一套完備立體的網絡安全監管配套制度,從技術標準、評估認證、漏洞監測與披露、行業自治等多層次落實監管任務:

  首先,制定一系列人工智能應用技術標準,對人工智能硬件應用的安全技術基線做出明確的規定,我國目前已有:八部門聯合發布的《無人駕駛航空器系統標準體系建設指南(2017-2018年版)》,工信部《國家車聯網產業標準體系建設指南(智能網聯汽車)(2017年)(征求意見稿)》和《物聯網發展規劃(2016-2020)》中關于物聯網標準體系建設的內容。需要注意的是,應側重根據人工智能不同的應用類型對安全的差異化需求,制定不同層次的安全標準。

  其次,建立人工智能硬件應用的安全評估與認證制度。根據其使用范圍及功能的重要性,設定不同的安全評估方案,當智能硬件使用范圍達到某一數量后,即使是城市建設末梢的“智能燈泡”也應該納入評估;對決定人身安全的人工智能應用,則更應審慎嚴格評估,如智能網聯汽車。而資格認證則可以作為通用的審批環節進行落實,以保證人工智能硬件應用廠商資格符合要求,有能力提供基本的安全技術與措施。同時應注意平衡對初創企業應給予相對寬松的監管環境,防止嚴格監管抑制技術創新。

  第三,以漏洞監測與披露任務為核心建立人工智能硬件的安全威脅監測制度,將智能硬件、智能網聯汽車等人工智能硬件應用納入《公共互聯網網絡安全威脅監測與處置辦法》的體系中,由硬件生產廠商分別監測、上報或由整車廠等負有主要責任的廠商集中對人工智能硬件的漏洞與脆弱性風險進行監測與上報,保證在產品生命周期內的更新升級等安全維護服務。

  最后,發展行業自治制度,促進行業信息共享,例如,在供應商和制造商之間建立共同信任的軟件材料清單,以及開發人員和制造商應考慮在設備包中提供已知的硬件和軟件組件的清單,該清單可以作為物聯網生態系統中的其他利益相關者了解和管理其風險并在安全事故后立即修補任何漏洞的寶貴工具。更多的行業自治舉措更待廣泛探討。

  3、建立物聯網全局性網絡安全響應機制

  物聯網作為硬件和網絡聯結的整體,整合了分散的人工智能硬件資源,因而與人工智能硬件的治理途徑有所不同,其側重點在于網絡安全測評、風險評估、監測預警、以及應急響應等全局性網絡安全響應機制的建立,落實到《網絡安全法》的制度體系中,則包括以下四個方面:等級保護、關鍵信息基礎設施、網絡安全監測預警和信息通報制度以及網絡安全風險評估和應急處置。

  首先,應結合網絡安全等級保護和關鍵信息基礎設施制度做好物聯網設施全面、重點的保護。無論是傳統能源、工業、農業等關鍵基礎設施領域的物聯網系統,還是民生領域的智能交通、車聯網、物流追溯、安全生產、醫療健康領域的物聯網系統,都應納入等級保護和關鍵信息基礎設施評定范圍。

  隨著智慧城市、智能交通、智能環保的逐漸發展,大量智能硬件終端將會占據物聯網的末端,尤其應在等級保護與關鍵信息基礎設施的保護基礎上做好重要、核心硬件設施的防護與鑒別,加強重要、核心部位的訪問控制與認證技術保障。同時,應注意與關鍵信息基礎設施的重點保護任務相結合,對核心、重要的配件供應鏈進行有效管理,落實供應商的信息安全保障責任。

  其次,在網絡安全監測預警和信息通報制度中,網絡產品、服務提供者應注意物聯網涉及的多端口協同配合的工作機制。具體涉及到云端、硬件終端、移動終端與通信服務,任何一端出現問題,都需要及時告知生態鏈條的各經營者及負責人,并能及時聯動做出響應與反饋。

  同時,根據《公共互聯網安全威脅監測與處置辦法》,工業和信息化部建立網絡安全威脅信息共享平臺,統一匯集、存儲、分析、通報、發布網絡安全威脅信息,并制定相關的接口規范,與相關單位網絡安全監測平臺實現對接,而基于物聯網復雜的供應鏈條,還需明確各供應商的接入平臺的權限劃分問題。

  最后,關于網絡安全風險評估和應急處置,應明確監管部門的職責分工問題。在風險監測、態勢研判、威脅預警、事件處置以及應急預案等任務的職責分工問題,如涉及物聯網不同端口所在地的監管部門,如何厘清職責,協同聯動各地監管機構的同時,還需確定哪方所在地的監管部門負責主導。

  ▌(二)人工智能硬件應用的供應鏈責任承擔問題

  人工智能硬件應用的普及使網絡系統的安全保障責任被無限細分在了每一個終端節點之上,而這些終端節點往往被市場監管所忽略。供應鏈廠商應承擔何種網絡安全保障責任則需要審慎的探討和衡量。

  在我國現有網絡安全法律體系中,涉及到供應鏈管理的條文有:《工業控制系統信息安全防護指南》第十條與《網絡產品和服務安全審查辦法》第四條第二款,但均未明確供應鏈條中各方的行政責任承擔問題。以此為背景,綜合實踐及慣例,我們就現有網絡安全法律體系中,供應商應承擔的網絡安全保障責任方案進行簡析。

  1、網絡運營者承擔責任——基礎方案

  根據《網絡安全法》的“法律責任”條文設定,責任承擔主體為:網絡運營者及其直接負責的主管人員和其他直接責任人員、關鍵信息基礎設施運營者及其直接負責的主管人員和其他直接責任人員、網絡產品或者服務的提供者,等。從條文分析,違反《網絡安全法》各項義務的責任承擔主體主要為網絡運營者、網絡產品服務提供者,并不涉及供應鏈條上的各方供應商。而以網絡產品或服務提供者作為責任主體為切入點,則又回到人工智能硬件生產商的主體資格歸屬,其是否屬于網絡產品或服務提供者。目前尚未有定論。

  再以《工業控制系統信息安全防護指南》第十條為例進行分析,該條款規定供應鏈服務商以合同方式明確網絡安全責任與義務。因此,《網絡安全法》規定的各項網絡安全保障責任并不涉及供應鏈條上的各供應商,而是由相應的網絡服務提供者(及其直接負責的主管人員和其他直接責任人員)承擔,可以認為這是我國現有網絡安全法律體系中基礎的責任承擔方式。

  2、核心廠商承擔責任——分擔救濟

  以智能網聯汽車為例,其供應鏈條涵蓋元器件供應商、設備生產商、整車廠商、軟硬件技術提供商、通信服務商、信息服務提供商等。而車內集成了一系列軟件與系統,包括車載操作系統、車載中間件、車載應用軟件等。供應鏈條結構復雜,由統一的核心廠商承擔網絡安全保障義務或許可以是便利監管與信息集成的高效方式。

  但對于核心廠商,也應給予責任分擔救濟的途徑。核心廠商應通過設計、規范和采購實踐確定、管理供應鏈、分包商和服務提供者應承擔的安全責任,并與供應商在合同中明確各自的網絡安全保障義務及相應的賠償與救濟方式。在網絡安全執法時,也應當視具體情況,對于提供重要功能服務和產品且具有明顯過錯的供應商,如通信服務商、車載操作系統服務提供商,處以相應的法律責任。

  3、供應鏈廠商承擔責任——權責平衡

  以物聯網為例,假設某重要的工控系統,發生一起網絡安全事故,事故源于智能閥門被黑客入侵控制;或是路由器被攻破,加密信息被篡改后引發的網絡安全事故。在這兩個例子中,由智能閥門生產商或路由器生產商分別承擔相應的事故責任將會導致權利與責任的明顯失衡。

  如同上文所述,圍繞人工智能硬件建立多層次的網絡安全監管體系將起到定分止爭的作用,結合強制性技術標準、資格認證以及網絡安全方案評估等方式明確供應鏈廠商的責任,如未達到強制性技術標準、未經過資格認證或未通過評估的產品或廠商,應當根據違反強制性技術標準、資格認證及評估的條款進行處罰,而不適宜再追究相應的網絡安全事故責任。

  4、引入多維責任分配機制

  人工智能硬件應用的網絡安全責任的分配應以權利與責任相一致為原則,構建多方位的審核認證體系。

  首先,應對不同類別的供應商進行分類分級管理,如將智能網聯汽車中重要的系統、配件的種類列出清單,對提供重要服務及產品的供應商設定與重要功能相適應的網絡安全保障責任。

  其次,不論采用哪種責任承擔方案,都應在合同中清晰體現各供應商的網絡安全保障義務的分配,這一方面明確了相應的民事責任,另一方面也給予網絡安全執法工作一定參考。

  最后,萬物互聯帶來了巨大的網絡安全隱患,我們無法保證每一個設備的安全措施都足以防御蓄意的網絡攻擊,因此,建議引入保險機制,為小型供應商承擔的巨大風險及網絡安全事故的損失探尋平衡的救濟出口。

  05、結語:人工智能系統安全法治要點及趨勢

  科技發展帶來社會紅利的同時也為立法與監管帶來了巨大的挑戰,應當指出的是,關于人工智能系統安全的法律治理有以下三個要點不應忽視:

  首先,人工智能進入公眾視野雖為時未久,但其所帶來的安全風險已經足以進入立法的考量視野。制定與技術發展相適應、又不影響技術創新和市場活躍度的法律規范將成為衡量立法效果的關鍵因素。

  其次,人工智能以具體應用為基礎的法律治理將引導監管走向碎片化與多元化。在人工智能時代,我們將看到,一種解決方案和既有的監管路徑將難以應對多變的技術發展與復雜的網絡環境,針對不同的人工智能應用建立區別化監管方案將成為人工智能法律治理的顯著特點。而構建兼顧各方權利與責任的動態分配方案,將成為立法落地的重要支撐。

  最后,在人工智能時代,軟性法律的適用將成為網絡安全法律治理的趨勢,所謂軟性法律是指差異化的技術標準與規范,以及各類應用的系統安全設計方案(如遵循安全設計與安全默認原則等)、網絡安全方案(應對網絡攻擊的應對方案)、系統測試方案的評估與審核等。軟性法律適用的核心特點是更加側重個性化與自主化的解決方式。而傳統的自上而下、以歸納思維為主的法律治理思路可能已逐漸無法勝任人工智能時代的監管重任。

人物訪談