1964年,布萊索(Bledsoe)提出了世界上首個人臉識別算法,該算法以鏈碼為特征進行人臉識別,一腳踢開了真正意義上的自動人臉識別技術研究的大門。
20世紀70年代,在計算機技術、圖像處理技術、人工智能和大數據等諸多學科的快速發展下,2D人臉識別算法誕生。2D人臉識別算法孕育了2D人臉識別技術系統,而繼承了2D人臉識別技術自然識別過程的3D人臉識別技術則同時具備了高效率與高識別正確率。
當下,人臉識別技術已經嵌入到人們生產生活的各個方面,在財務行為、工作場所監督、安全防控等領域得到普遍應用。從2015年到2019年,人臉識別、視頻監控的專利申請數量從1000件飆升到3000件,其中四分之三在中國。Marketsand Markets咨詢公司研究預計,到2024年,全球面部識別市場規模達70億美元。
但是,在人臉識別的迅猛發展的另一端是人臉識別頻發爭議的民意滔滔。2019年,Ada Lovelace研究所(Ada Lovelace Institute)的一份調查發現,55%的受訪者希望政府限制警方使用該技術。受訪者對其商業用途也感到不安,只有17%的受訪者希望看到人臉識別技術用于超市的年齡驗證,7%的人贊成將其用于追蹤顧客,4%的人認為將其用于篩選求職者是適當的。
產業、技術和民意的背離也把人臉識別推向談論的風口,而當我們談論人臉識別時,我們又在談論什么?
人臉識別下的隱私代價
不論是人工智能還是5G下互聯網的高速發展,都是以大數據為基礎的。于是,現代生活在許諾人們更多便捷的同時,也留存了人們更多的行為數據。這些數據在互聯網記憶中不斷累積,成為了監測人們行為的工具。凡“私”皆“隱”成為過去,人們在大數據時代下都被迫成為“透明人”。
而人臉識別技術的興起,面部信息的讓渡又給“透明人”增添了籌碼。在人臉識別場景下,用戶讓渡的隱私可能不僅僅是個人的面部幾何特征,面部信息中包含的年齡、性別、情緒特征等元素也可能被識別與記錄。
市場調研機構Kantar Millward Brown曾使用由美國初創公司Affectiva開發的技術,評估消費者對電視廣告的反應。Affectiva會在經允許的情況下錄下人們的臉,然后用代碼逐幀記錄他們的表情,從而評估他們的情緒。
其創新部門管理總監格拉姆·佩吉(Graham Page)表示,通過人臉識別監察表情,能得到更豐富的細微信息,甚至能準確地看到廣告的哪一部分是奏效的,以及勾起了什么樣的情緒反應。
事實上,相關技術在人工智能與深度學習背景下已變得越來越可靠。對人臉信息的識別,可以挖掘出其他的個人隱私信息。如果在互聯網中將面部信息與興趣、性格、消費習慣甚至行蹤軌跡等信息進行串聯,那么個體的信息畫像將會有更加直接與清晰的輪廓,在互聯網記憶中會形成一個不斷成長的數據自我,從而成為巨大的安全隱患。
在線上,帶有個人“頭像”的數據在網絡空間中無線延伸;在線下,無處不在的攝像頭與人臉識別相結合,使個體活動處于高度監視的環境中,真正使人類陷入“隱私裸奔”的困境,進一步增加了個人隱私保護的難度。
另一方面,當人臉識別技術廣泛應用于我們生活的各個方面時,人臉信息后續的存儲和使用問題卻仍是個謎。
距離“人臉識別第一案”已經過去將近一年。郭兵是野生動物世界的年卡會員,2019年10月,他收到短信通知:“園區年卡系統已升級為人臉識別入園,原指紋識別已取消,即日起,未注冊人臉識別的用戶將無法正常入園。”
郭兵認為,面部信息系個人敏感信息,野生動物世界單方面違法修改服務條款,于是要求退還年卡費用。在協商無果后,郭兵一紙訴狀將野生動物世界訴至法院。而這絕非孤例,從北京地鐵刷臉安檢到監測記錄學生課堂動態,在過去一年中人臉識別頻頻引發爭議。
在人臉信息的不當應用中有兩個突出問題。首先,存儲人們面部信息的組織本質上是具體的人在運作,即大量身份指向性極強的人臉信息是由一部分人掌控的。這部分人將如何使用我們的個人數據,會不會因為一己私欲而違規操作,都無從得知。
其次,人臉識別要通過特定的代碼進行翻譯、篩選,這種代碼的操作自然有被黑客入侵的可能性。而隨著人臉偽造技術的發展和反實名制產業鏈條的日趨成熟,破譯人臉信息,用“假人臉”頂替“真人臉”已成為可能。
于是,有了人臉照片和系統識別的人臉特征,就可以捕捉相關的人臉特征信息進行針對性的訓練。如復制人臉圖像,包括來回轉動或者眨眼等,通過使用他人的面部信息開啟對應的服務。
此前位于美國圣地亞哥的一家人工智能公司就用一個特別制作的3D面具,成功欺騙了包括微信和支付寶在內的諸多人臉識別購物支付系統。盡管支付寶和微信都作了緊急回應,表明公司內不存在任何因為類似技術被盜的案例。但是顯然,隨著3D打印技術的日趨成熟,人臉識別系統被“假人臉”攻破的風險會急劇增加。
當我們談論人臉識別時
人臉并不是每個人秘而不宣的隱私,事實上,我們的容貌在社會關系和人格發展中扮演著舉足輕重的角色。正因如此,蒙面才往往和不可信任、危險人物等負面印象密切相關。德國、意大利、法國、紐約、香港特區相繼出臺在公共場所或公眾集會中禁止蒙面的法律,也彰顯出公共空間中人臉的公共性。
但公共性并不意味著匿名性的消失。區別于雞犬之聲相聞的由熟人構成的傳統社會,作為由無數原子化個體構成的現代社會,個體更表現出了一種匿名性:盡管個體對其面貌、行蹤、言論毫無隱藏,但個體本身依然擁有他人對其視而不見、聽而不聞的自由。在地鐵中、飯店里、街道上、電梯間等公共空間,人與人之間的“禮貌性不關注”也早已成為社會基本規范。
但是,隨著信息技術的發展,包括人工智能、人臉識別在內的新興技術把我們推進了一個“數字人權”的新時代,而“數字人權”又兼容著積極和消極的雙重面向,這也沖擊著公共空間下的人們陌生感和匿名性。
數字人權的積極面向意味著國家對數字人權的推進和實現應有所作為。在人們幾乎無法回避和逃逸出網絡化生存的背景下,互聯網如同交通、電力、自來水等一樣,成為一項公眾必不可少的基礎設施。
因此,數字人權要求國家要有所作為,國家有義務和責任建設好互聯網基礎設施,做好所涉的硬件和軟件工程建設工作,以及提供基于這些軟硬件而延伸和發展起來的各項“互聯網+”公共服務。
數字人權的消極面向則意味著人們在大數據時代具有“獨處的權利”。在任何個體接入互聯網并拓展自己的生活空間的時候,人們仍有不被審視和窺探的權利、自己的身份在無關國家和社會安全的情況下不被識別的權利、自己的生活方式不被干預的權利以及自己的人格利益不被侵犯的權利。在不侵犯國家、社會和他人利益的前提下,每個個體都會傾向于提高做自己想做事情的能力。
這種“獨處的權利”使個體享有不被干涉的“消極自由”,展現和發展出自己的獨特人格,保證了社會的包容和多元,讓外表與眾不同(如少數民族、外國人、殘障人)或行為離經叛道者免受歧視。
就如德國社會學家亞明?納塞西所言,社會由此才可以承受因社會轉型帶來的不平等和不公正。“因為它依賴隱形性,而不是可見性;依賴陌生感,而不是親密性;依賴距離,而不是親近”。就此而言,“社會團結建立在陌生感之上”。
然而,日益增多的攝像頭和經由算法、大數據驅動的人臉識別使得人們從“匿名”走向“顯名”,陌生感消失了,但熟人社會的親密感和安全感卻并未回歸。
人臉識別技術的應用可能形成對特定群體的歧視,比如一些具有特殊面部特征的群體或者通過面部信息識別出其他特殊信息的群體就可能成為重點關注的對象。這是因為,無論基于何種算法的人臉識別,都依賴于大數據,但是大數據并非中立。它們從真實社會中抽取,必然帶有社會固有的不平等性、排斥性和歧視性。
已有研究表明,在人臉識別中存在種族偏見。在機場、火車站等人臉識別應用情景中,部分群體的面部信息可能由于系統的算法偏見無法被正常識別,這些無法被識別的人就不得不接受工作人員的審問和例行檢查。除了在對個體面部掃描時存在偏見與誤判外,在面部識別后所享有的服務中也可能存在歧視。
于是,在刷臉時代,曾作為人際交往和構建信任的通行證的人臉被攝像頭等設備自動抓取后生成數字圖像以識別、認證或核實特定個體,成為識別與被識別的工具。
人臉背后的人格因素及其所承載的信任與尊嚴等價值被稀釋,被技術俘獲并遮蔽。計算機技術和新型的測量手段,成功地將一個具有獨立人格的人,變成一系列的數字和符碼。此時,識別的是人臉,得到的是數據,貶損的是信任,這正是人臉識別可能震動世界的現實危機。
事實上,在考慮人臉識別技術時,我們不僅應該思考什么是合法的,還應該思考什么是道德的。當下,人臉識別已經給社會治理帶來嚴峻的挑戰。其在應用時涉及到的重要個人信息和對數字人權實現的影響,都提示我們應真正找到人臉識別的正當性邊界,提醒我們做到審慎適用。
面對人臉識別技術,我們既要以積極的態度面對科技的進步,使其有利于國家治理體系和治理能力的現代化,更要謹慎地面對其可能給現代社會帶來的新風險。既不能讓技術自身不受任何限制地發展,也不能讓應用該技術的產業“野蠻生長”。或許,我們只有在不同場景下細致辨析其風險所在,才能更好地控制它、馴化它,使之始終不離科技為人的正道。
責編AJX
-
算法
+關注
關注
23文章
4630瀏覽量
93354 -
網絡安全
+關注
關注
10文章
3193瀏覽量
60203 -
人臉識別
+關注
關注
76文章
4015瀏覽量
82312
發布評論請先 登錄
相關推薦
評論