www.伊人网_激情欧美乱妇_秋葵绿巨人榴莲草莓视频_女的扒开尿口让男人桶

小心你的聲音暴露了你!

更新時間:2018-12-27 17:23:54    閱讀:2063

AC Global Risk在客戶的幫助下形成一些自動化的、是或否的面試問題。選定進(jìn)行篩選的人群隨后將在10分鐘的面談中用自己的母語回答這些簡單的問題,該過程可在電話上進(jìn)行。然后RRA通過測量他們的聲音特征產(chǎn)生評估報告,該報告將以從低風(fēng)險到高風(fēng)險的頻譜形式對每個人進(jìn)行評分。

試想,是否有這樣的可能:僅通過觀察人們的臉或聽他們的聲音來判斷某人是否是罪犯?這個想法可能看似荒謬,就像科幻小說《1984》中的老大哥(Big Brother)察覺到某些“帶有異常暗示”的無意識表情。然而,近期一些公司開始直面這個問題:答案不是可能,而是肯定。一家成立于2016年的初創(chuàng)企業(yè)AC Global Risk,聲稱能夠確定一個人作為員工或?qū)で蟊幼o(hù)者的風(fēng)險水平,依據(jù)不是這個人說了什么,而是怎么說。 


這家位于加利福尼亞州的企業(yè)提供一種自動篩選系統(tǒng),稱為RRA(Remote Risk Assessment,遠(yuǎn)程風(fēng)險評估)。該系統(tǒng)的工作原理是:AC Global Risk在客戶的幫助下形成一些自動化的、是或否的面試問題。選定進(jìn)行篩選的人群隨后將在10分鐘的面談中用自己的母語回答這些簡單的問題,該過程可在電話上進(jìn)行。然后RRA通過測量他們的聲音特征產(chǎn)生評估報告,該報告將以從低風(fēng)險到高風(fēng)險的頻譜形式對每個人進(jìn)行評分。AC Global Risk首席執(zhí)行官Alex Martin表示,作為該公司的專利,該風(fēng)險分析將“永遠(yuǎn)改變?nèi)祟愶L(fēng)險的衡量標(biāo)準(zhǔn)”。 


微信圖片_20181227171305.jpg


AC Global Risk則表示,其咨詢委員會成員包括羅伯特·蓋茨(Robert Gates)、康多莉扎·賴斯(Condoleezza Rice)和斯蒂芬·哈德利(Stephen Hadley)的咨詢公司,并與美國駐阿富汗特種作戰(zhàn)司令部、烏干達(dá)野生動物管理局以及Palantir、蘋果、Facebook、谷歌等安全團(tuán)隊簽訂了合同。Martin表示,風(fēng)險篩選在這些市場和其他市場的廣泛使用,證明其“準(zhǔn)確性高、可擴(kuò)展、具有成本效益,并且具有高吞吐量。”AC Global Risk還聲稱其RRA系統(tǒng)可以對上百個處于世界各地的人同時進(jìn)行操作。針對當(dāng)前美國總統(tǒng)特朗普要求對移民進(jìn)行“極端審查”的呼吁,該公司已經(jīng)將自己視為美國和其他國家目前正經(jīng)歷的巨大難民危機(jī)的“殺手锏”。 


這項建議似乎引起了美國國土安全局(DHS)的興趣。國土安全局已經(jīng)對研究開發(fā)類似的邊境人工智能技術(shù)提供了資助。自動實時真相評估虛擬系統(tǒng)(AVATAR)測謊儀,使用人工智能來評估旅客的聲音、姿勢和面部表情的變化,從而標(biāo)記那些有意欺騙或可能構(gòu)成潛在風(fēng)險的旅客。2012年,該技術(shù)在美國與墨西哥的邊境對志愿者進(jìn)行了測試。歐盟也對這項可以減少由人為因素產(chǎn)生的工作量和主觀錯誤的技術(shù)提供了資助。 


語音分析、算法歧視和機(jī)器學(xué)習(xí)方面的一些領(lǐng)先專家發(fā)現(xiàn),數(shù)字測謊儀測試的趨勢令人不安,并且指出AC Global Risk等公司的方法存在謬誤。普林斯頓大學(xué)心理學(xué)家Alex Todorov解釋道:“語音的動態(tài)變化會產(chǎn)生一些信息,這些公司正在對這些信息進(jìn)行檢測,這非常合理。但問題是,在檢測他們認(rèn)為有風(fēng)險的人時,這些信息的可信度有多高?因為這些信息一般來說都是模棱兩可的。”Alex Todorov的研究方向是社會感知和第一印象科學(xué)。 


過去的一年里,美國公民自由聯(lián)盟和其他有關(guān)組織表示,邊境巡邏人員一直根據(jù)外表或口音在灰狗巴士(Greyhound)上逮捕一些人。由于海關(guān)和邊境保護(hù)局已經(jīng)采用某人說話方式或長相的信息作為依據(jù),在160千米的邊境地區(qū)進(jìn)行搜查,或者拒絕某人入境。專家們擔(dān)心基于聲音情緒的檢測軟件會使這種歧視成為一種常規(guī)、普遍甚至看似“客觀”的現(xiàn)象。 


AC Global Risk拒絕回復(fù)本文的多次置評請求,也沒有對該技術(shù)詳細(xì)運(yùn)作方式的問題作出回應(yīng)。然而,在公開場合,Martin聲稱其公司的專有分析流程可以確定某人的風(fēng)險等級,準(zhǔn)確率超過97%。(而AVATAR則表示其準(zhǔn)確率在60%到70%之間。)幾位業(yè)內(nèi)領(lǐng)先的視聽專家在審閱了AC Global Risk公開發(fā)布的文件后,使用“廢話”或“虛假”一詞來描述該公司的主張。奧格斯堡大學(xué)教授Bj?rn Schuller表示:“從道德的角度來看,只通過聲音測謊會讓人們覺得非常可疑和陰暗,任何一家宣稱自己能做到這一點的公司可能都是一顆‘定時炸彈’。”Bj?rn Schuller領(lǐng)導(dǎo)了該領(lǐng)域的主要研究,致力于提高聲音情緒檢測的最新技術(shù)水平。

高風(fēng)險業(yè)務(wù) 

去年夏天有報道稱,特朗普的極端審查計劃(Extreme Vetting Initiative)要求軟件能夠自動確定和評估簽證申請者成為社會積極成員的可能性,并預(yù)測申請者是否打算在進(jìn)入美國后實施犯罪或恐怖行為。AC Global Risk將自己標(biāo)榜為實施這一舉措的完美工具,聲稱可以評估忠誠度不明人員的風(fēng)險等級,例如難民和簽證申請者。隨后,國土安全局將決定如何根據(jù)這些報告的結(jié)果采取行動。“我們將風(fēng)險等級分為低水平、平均水平、潛在水平和高水平,根據(jù)這四個風(fēng)險等級建立部門協(xié)議并不難。”該公司在其博客上表示。 


風(fēng)險評估本身并不是什么新鮮事。近年來,在刑事司法程序的各個階段幾乎都引入了算法,從警務(wù)、保釋到量刑、假釋。這種技術(shù)的出現(xiàn)并非無可非議。許多這類自動化工具都因其不透明性、保密性和偏見遭到批判。在大多數(shù)情況下,辦公人員、法院和公眾沒有能力或根本不允許質(zhì)疑這些工具的基本假設(shè)、訓(xùn)練或結(jié)論。而持懷疑態(tài)度的專家關(guān)注的主要問題是,機(jī)器學(xué)習(xí)的客觀光環(huán)可能為歧視提供一個道貌岸然的借口。 


對于其技術(shù)原理,AC Global Risk提供的細(xì)節(jié)寥寥無幾。該公司沒有發(fā)表支持其研究主張的白皮書,也沒有公布其研究人員的科學(xué)譜系。除此之外,該公司甚至沒有回答關(guān)于其產(chǎn)品特征(比如音高、速度、拐點)的問題。猶他州大學(xué)一位主攻算法公平性的計算機(jī)科學(xué)家Suresh Venkatasubramanian認(rèn)為:“盡管在刑事司法環(huán)境中使用風(fēng)險評估存在一定的問題,但比這家公司的工具準(zhǔn)確得多。” 


如果AC Global Risk對其技術(shù)的任何一項聲明得到證實,都將成為人類聲音研究的前沿,因為研究人員認(rèn)為聲音具有確定某些信息的可能性。例如,聲音評估可以出色地識別人口統(tǒng)計信息。這類信息可能很常規(guī),例如某人的年齡、性別或方言,也可能非常個性化,比如判斷某人來自哪個地區(qū),以及他們?nèi)魏螡撛诘慕】祮栴}。

 

上個月,亞馬遜獲得了一項專利,允許其虛擬助手Alexa確定用戶的聲音特征,包括語言、口音、性別和年齡等。然而,在從聲音確定情緒的過程中,準(zhǔn)確性仍然是一個重大問題。聲音分析公司audEERING的聯(lián)合創(chuàng)始人Schuller表示,目前通過聲音判斷某人是否在說謊的準(zhǔn)確率不高于70%(如果說謊是該公司的風(fēng)險評估指標(biāo)之一),這與人類判斷的平均概率基本相同。 


微信圖片_20181227171406.jpg


Schuller還表示,通過聲音有可能判斷某人是否陶醉、真誠或欺騙,但同樣,其準(zhǔn)確率與人類判斷相似。他說:“有時在具備可靠標(biāo)簽的基礎(chǔ)上,工具的準(zhǔn)確性可能更高,但如果有人宣稱零誤差,最好還是保留態(tài)度。” 


評估AC Global Risk的主張是否有效的關(guān)鍵是,什么是風(fēng)險,以及誰來定義這一概念。主攻生物識別技術(shù)的澳大利亞學(xué)者Joseph Pugliese表示:“他們把風(fēng)險定義為一種不言自明的、看似普遍的品質(zhì),并且假設(shè)人們已經(jīng)知道什么是風(fēng)險,而當(dāng)然,定義風(fēng)險參數(shù)的主體和風(fēng)險參數(shù)的構(gòu)成應(yīng)該是一個政治問題。” 


AC Global Risk首席執(zhí)行官Alex Martin曾談到“尋找每個人都存在的連續(xù)統(tǒng)一體的實際風(fēng)險。”而普林斯頓大學(xué)的心理學(xué)家Todorov則解釋,風(fēng)險是一種天生的、可識別的人類特征,而且這種特性可以從聲音中確定,這種觀點依賴于有缺陷的假設(shè)。他補(bǔ)充道,我們檢測人們實際感受的方式與我們感知他們感受的方式的能力,一直是機(jī)器學(xué)習(xí)領(lǐng)域一個眾所周知的難題。評估設(shè)置可能會使錯誤印象的可能性進(jìn)一步復(fù)雜化。Pugliese說:“邊境地區(qū)的人們已經(jīng)處于高壓和高度情緒化的環(huán)境中,又怎么可能用我們所謂的正常情緒標(biāo)準(zhǔn)來衡量?” 

新的人相學(xué)? 

越來越多公司對其行為分析軟件的能力要求過高,AC Global Risk只是其中之一。受人工智能觀察能力的鼓舞,許多生物識別供應(yīng)商和人工智能公司一直在向企業(yè)和政府提供這樣的服務(wù):采集面部表情、動作和聲音信息,從而判斷一個人的人格。例如,2014年俄羅斯冬季奧運(yùn)會期間,一家生物識別供應(yīng)商通過掃描與會者的表情,使該國的安全機(jī)構(gòu)FSB能夠找出那些看似不起眼,但實際精神狀態(tài)過激且存在潛在威脅的人。 


一些研究人工智能和人類行為的專家對這類工具持懷疑態(tài)度,他們將這些工具框定為人們對人相學(xué)(physiognomy)興趣日益返潮的一部分。人相學(xué)是一種通過觀察一個人的 身體來尋找道德品質(zhì)和犯罪意圖跡象的行為。在19世紀(jì)中期,塞薩爾·隆布羅索(Cesare Lombroso)對“天生罪犯”的頭骨和面部特征的精確測量,為這種“紙上談兵”披上了科學(xué)的外衣。然而,盡管像隆布羅索這樣的犯罪學(xué)家的成果被扔進(jìn)了“偽科學(xué)”的垃圾箱,但是從身體特征和行為中推斷某人的道德品質(zhì)或隱藏思想的欲望仍舊持續(xù)不斷。 


Pugliese認(rèn)為,AC Global Risk和同類公司的努力都基于一個假設(shè)——大數(shù)據(jù)的相關(guān)性可以規(guī)避科學(xué)方法。他解釋說,這些“人相”應(yīng)用尤其令人不安,因為機(jī)器學(xué)習(xí)算法設(shè)計的初衷就是為了在他們給出的數(shù)據(jù)中找到表面模式(無論這些模式是否真實)。Pugliese表示:“當(dāng)這些公司聲稱正在進(jìn)行風(fēng)險等級分類時,不言而喻,他們已經(jīng)對構(gòu)成‘犯罪意圖’的跡象有了客觀的認(rèn)識。但我們并不知道什么實際跡象會這些犯罪預(yù)測指標(biāo)。” 


然而,揭露這種技術(shù)的偽科學(xué)前提并不一定會降低企業(yè)和政府使用這項技術(shù)的可能性。與許多其他預(yù)測性和基于風(fēng)險的系統(tǒng)相同,這些技術(shù)的能力主要依賴于它們對效力和速度的承諾。Venkatasubramanian解釋說:“他們主要的主張是提高效率,從這個意義上講,這種技術(shù)的確會起作用。”換句話說,這種效率是否對這種系統(tǒng)受眾的生命機(jī)會有益或有害,他們漠不關(guān)心。遠(yuǎn)程風(fēng)險評估由于人類的接納將得到廣泛應(yīng)用。正如Todorov與另外兩位機(jī)器學(xué)習(xí)專家在表達(dá)他們對這一大趨勢的擔(dān)憂時所寫:“無論是否有意,通過計算機(jī)算法為人類的歧視‘洗白’,確實有可能使這些偏見看起來更客觀合理。”


該內(nèi)容為非商業(yè)目的的轉(zhuǎn)載分享,不代表本站觀點,本文版權(quán)屬其著作權(quán)人所有。若侵犯了您的正當(dāng)權(quán)益,請立即聯(lián)系我們刪除。

閃電配音

掃碼免費試音
企業(yè)微信

免費試音

幫我推薦

價格計算

在線下單

開具發(fā)票

不招主播

確認(rèn)提交

全網(wǎng)全品類皆可配 頂配好聲音

點我咨詢
錯誤