Deepfakes:打擊AI的危險使用

2020-02-10 14:12:41    來(lái)源:    作者:

Deepfake被稱(chēng)為操縱視頻,其中通過(guò)使用人工智能將一個(gè)人更改或顯示為另一個(gè)人。由于人工智能的幫助同時(shí)用于制作此類(lèi)視頻,因此AI技術(shù)正致力于應對此類(lèi)威脅。

Deepfakes:打擊AI的危險使用

Deepfake幾乎不可能區分真實(shí)與非真實(shí)。許多人認為,深造假貨會(huì )導致危險的后果,例如造成混亂,挑起種族暴力等等。作為公眾人物,許多著(zhù)名的政治人物記者和商人都經(jīng)歷了這種欺詐行為。使用偽造的應用程序技術(shù),制作了奧巴馬的視頻。同樣,還制作了唐納德·特朗普的視頻和馬克·扎克伯格的視頻。

打擊假貨的技術(shù)

現在,許多科技公司正在共同努力,以打擊這些騙局。根據網(wǎng)絡(luò )安全創(chuàng )業(yè)公司Deep-trace的一項研究,從12月到8月,網(wǎng)上的Deepfake數量幾乎翻了一番,達到14,678。Facebook,Twitter和Google等公司用于信息的上載和共享。這些技術(shù)公司在應對這些威脅方面可以提供很大的幫助。

自動(dòng)化的深層偽造檢測有助于深層偽造檢測,但是該技術(shù)最有可能僅在短期內有用。自動(dòng)深度偽造檢測使用技術(shù)來(lái)確定是否已從原始文件修改了特定的圖像,音頻或視頻。他們發(fā)現諸如口腔和語(yǔ)音瞬間之間的差異,不自然的面部特征和許多其他方法之類(lèi)的跡象。

Deepfakes:打擊AI的危險使用

DARPA及其程序:

國防高級研究計劃局(DARPA)開(kāi)發(fā)了一種工具,政府機構可以使用該工具來(lái)識別更改后的視頻和照片。此外,它將被用作開(kāi)發(fā)更多技術(shù)來(lái)檢測假文本并識別其來(lái)源。

達爾帕(Darpa)名為MediFor – Media Forensics的用于檢測深層虛假的新程序正在努力披露操縱者。通過(guò)使用語(yǔ)義取證,DARPA計劃解決深造。SemaFor程序旨在開(kāi)發(fā)一種分析媒體的工具。它包括使用告訴算法是否已被控制的算法來(lái)檢測該方法。

Google與Deepfake的斗爭:

Google還在努力開(kāi)發(fā)文本到語(yǔ)音轉換工具,以設計出可以幫助驗證說(shuō)話(huà)者的新工具。Google在使用一種完全不同的方法,他們在使用Deepfake來(lái)對抗Deepfake。Google在其中一篇文章中設定了7條原則,描述了他們?yōu)榇_保用戶(hù)信息的安全性和保護性而采取的步驟。

他們的原則之一是:“ 我們將在A(yíng)I進(jìn)度和利用方面鞏固我們的安全努力。我們將允許在具有安全保護的情況下進(jìn)行通知和同意,賦予動(dòng)畫(huà)結構,并在信息利用方面給予真正的直率和權威 ”。這個(gè)決定可以幫助他們保存私人信息。

Adobe的面部操作技術(shù):

Adobe開(kāi)發(fā)了一個(gè)系統,該系統將允許作者和發(fā)布者將詳細信息附加到內容上,以告知創(chuàng )建該內容的時(shí)間和地點(diǎn)。Adobe創(chuàng )始人Richard Zhang表示:“ 在這個(gè)世界上,很難通過(guò)獲取數字化來(lái)確保我們使用的信息。” Adobe正在開(kāi)發(fā)識別面部操作的方法。Adobe的神經(jīng)網(wǎng)絡(luò )以99%的準確率檢測到了假臉。而人眼可以吸收其53%的光線(xiàn)。以后,該工具可以將圖像轉換為舊格式。

Deepfakes:打擊AI的危險使用

深度檢測挑戰

檢測深度欺詐的挑戰是一項全球競賽,該競賽與許多全球知名公司一起使用AI并與深度欺詐作斗爭。這項比賽邀請世界各地的參與者加入他們的行列,并與他們一起克服這一日益嚴重的問(wèn)題。這項挑戰將持續到2020年3月。

現實(shí)防御者–防御工具

據AI Foundation總裁兼首席技術(shù)官Rob Meadows稱(chēng),該工具將是您的監護人。Reality Defender是Web程序的模塊,可以類(lèi)似的方式用作電話(huà)的應用程序。它使用一組已更改的定位器在屏幕上顯示所有內容,然后向客戶(hù)發(fā)出有關(guān)平衡媒體的警報。他們有許多Beta測試人員正在工作,并為他們提供有關(guān)此應用程序的所有更新。該工具將于2020年推出。

深造假的未來(lái)

打擊假冒產(chǎn)品并不容易。上面提到的工具在將來(lái)與Deepfake對抗時(shí)將非常有用。盡管我們將產(chǎn)生更多的方法來(lái)克服此類(lèi)騙局,但他們會(huì )找到更好的方法使騙局更加真實(shí)。這些騙局只能通過(guò)更新這些工具并確保定期例行維護以獲得有效和準確的結果來(lái)進(jìn)行控制。

科學(xué)家現在正在研究語(yǔ)音和面部差異。真實(shí)視頻具有更好和明確的質(zhì)量,另一方面,被操縱的視頻存在質(zhì)量問(wèn)題,無(wú)法訪(fǎng)問(wèn)真實(shí)視頻中真實(shí)人物所具有的正確3D方向。Deepfakes開(kāi)發(fā)出簡(jiǎn)單的2D圖像。奧爾巴尼大學(xué)的研究小組正在介紹一種算法,該算法可以顯示人的鼻子指向的方式。人工智能和其他科學(xué)技術(shù)必須領(lǐng)先于他們?yōu)閷辜倜爱a(chǎn)品而想出的一切。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。