japanesexxxx日本妇伦, 17ccgcg吃瓜网黑料爆料蘑菇, 日本一卡二卡3卡四卡无卡国色天香, 一二三四五免费观看完整版高清视频,中国激情久久区免费,2012中文字幕第8,国产清纯美女高潮出白浆直播,金服高潮,久久精品无码一区二区WWW

十年技術(shù)深耕細(xì)作

為您提供各行業(yè)互聯(lián)網(wǎng)私人定制開發(fā)解決方案

免費(fèi)咨詢熱線15890197308
新聞資訊
把握先機(jī)贏得挑戰(zhàn)與世界同步
首頁 新聞中心 網(wǎng)絡(luò)安全

AI引發(fā)網(wǎng)絡(luò)信任危機(jī)!我們還能相信什么?

來源:新浪科技綜合 發(fā)布時(shí)間:2018-10-30瀏覽:3247次

AI引發(fā)網(wǎng)絡(luò)信任危機(jī)!我們還能相信什么?  快速發(fā)展的AI技術(shù)能夠自動(dòng)創(chuàng)建虛假的視頻和音頻。通過社交媒體傳播這些有意制造出的虛假信息,可能會(huì)對(duì)公共話語和政治穩(wěn)定產(chǎn)生深遠(yuǎn)影響。計(jì)算機(jī)科學(xué)家正在開發(fā)人工智能檢測(cè)工具來標(biāo)記虛假視頻,但與生成這些虛假內(nèi)容的能力相比,科學(xué)家遠(yuǎn)遠(yuǎn)落后。當(dāng)虛假視頻的病毒式傳播侵蝕我們對(duì)媒體的信任,我們?cè)撓嘈攀裁??  今?月,美國(guó)前總統(tǒng)奧巴馬的一個(gè)視頻出現(xiàn)在了互聯(lián)網(wǎng)上。該視頻看起來和他之前的演講很像。他穿著清爽的白襯衫和深色西裝,領(lǐng)子上別著一個(gè)國(guó)旗胸針。背景中有美國(guó)國(guó)旗和總統(tǒng)旗幟。視頻中,奧巴馬...

AI引發(fā)網(wǎng)絡(luò)信任危機(jī)!我們還能相信什么?

  快速發(fā)展的AI技術(shù)能夠自動(dòng)創(chuàng)建虛假的視頻和音頻。通過社交媒體傳播這些有意制造出的虛假信息,可能會(huì)對(duì)公共話語和政治穩(wěn)定產(chǎn)生深遠(yuǎn)影響。計(jì)算 機(jī)科學(xué)家正在開發(fā)人工智能檢測(cè)工具來標(biāo)記虛假視頻,但與生成這些虛假內(nèi)容的能力相比,科學(xué)家遠(yuǎn)遠(yuǎn)落后。當(dāng)虛假視頻的病毒式傳播侵蝕我們對(duì)媒體的信任,我們 該相信什么?

  今年4月,美國(guó)前總統(tǒng)奧巴馬的一個(gè)視頻出現(xiàn)在了互聯(lián)網(wǎng)上。該視頻看起來和他之前的演講很像。他穿著清爽的白襯衫和深色西裝,領(lǐng)子上別著一個(gè)國(guó)旗胸針。背景中有美國(guó)國(guó)旗和總統(tǒng)旗幟。視頻中,奧巴馬面對(duì)鏡頭,伸出雙手強(qiáng)調(diào)自己的話:“特朗普總統(tǒng)是一個(gè)完完全全的蠢貨?!?/p>

  視頻中的奧巴馬沒有一絲笑容,他接著說:“要知道,我永遠(yuǎn)不會(huì)說出這樣的話,至少在公共場(chǎng)合不會(huì)。但別人會(huì)的?!币曨l鏡頭轉(zhuǎn)到分屏,屏幕上是演 員喬丹·皮爾(Jordan Peele)。其實(shí)奧巴馬什么都沒說,這段視頻是奧巴馬真實(shí)演講視頻與皮爾的模仿視頻混合而成的。

  在現(xiàn)在這個(gè)充斥著虛假新聞的時(shí)代,這段視頻實(shí)際上是由BuzzFeed News制作的公益廣告,它展示了新型人工智能(AI)技術(shù)的一種應(yīng)用,把該技術(shù)用在音頻和視頻上,就像把Photoshop軟件用在數(shù)字圖像上一樣:能讓人們操縱現(xiàn)實(shí)。

  這樣做出的視頻還相當(dāng)粗糙。不過,這種原本為好萊塢電影編輯和視頻游戲制造商開發(fā)的技術(shù)進(jìn)步很快,已經(jīng)引起了一些國(guó)家安全專家和媒體學(xué)者的擔(dān) 憂。下一代的工具有可能無中生有地炮制出足以亂真的虛假內(nèi)容,不用歪曲現(xiàn)有視頻(如奧巴馬的演講視頻),而是編造根本從未發(fā)生過的情景。

  無害的開端

  偽造視頻的歷史可以追溯到上世紀(jì)60年代,當(dāng)時(shí)用計(jì)算機(jī)生成的圖像首次誕生。上世紀(jì)80年代,這些特效逐步成為主流。從此以后,電影愛好者見證 了這種技術(shù)的進(jìn)化。南加利福尼亞大學(xué)計(jì)算機(jī)科學(xué)助理教授、從事增強(qiáng)現(xiàn)實(shí)業(yè)務(wù)的創(chuàng)業(yè)公司Pinscreen的首席執(zhí)行官黎顥表示,這種技術(shù)的目標(biāo)一直是“打 造一個(gè)任何故事都可以呈現(xiàn)的數(shù)字世界。我們?cè)鯓硬拍軇?chuàng)造出看上去無限真實(shí),但實(shí)際上一切都是虛擬的東西?”

  一開始,大多數(shù)數(shù)字圖像都是藝術(shù)家創(chuàng)作的,他們使用計(jì)算機(jī)創(chuàng)建三維模型,然后手工繪制紋理和其他細(xì)節(jié),這是一個(gè)不可擴(kuò)展的繁瑣過程。大約20年 前,一些計(jì)算機(jī)視覺研究人員開始從不同的角度思考這個(gè)問題:“與其在個(gè)別模型上花費(fèi)時(shí)間,為什么不教計(jì)算機(jī)根據(jù)數(shù)據(jù)創(chuàng)建圖形呢?” 1997年,位于加利 福尼亞州帕洛阿爾托的Interval研究公司的科學(xué)家開發(fā)了Video Rewrite,這個(gè)軟件可以切割現(xiàn)有視頻,并重新配置。不久之后,德國(guó)馬普生物控制研究所的科學(xué)家從200個(gè)人臉三維掃描圖像的數(shù)據(jù)集中提取特征,教會(huì) 了計(jì)算機(jī)生成新面孔。

  隨著深度學(xué)習(xí)這種人工智能技術(shù)的進(jìn)步,計(jì)算機(jī)視覺、數(shù)據(jù)和自動(dòng)化之間的關(guān)系在2012年迎來了近期最大的一次飛躍。與20世紀(jì)90年代后期使用 靜態(tài)數(shù)據(jù)、無法改進(jìn)結(jié)果的技術(shù)不同,深度學(xué)習(xí)能夠適應(yīng)新數(shù)據(jù),且可不斷改進(jìn)。德國(guó)馬普科學(xué)史研究所的博士后研究員李曉暢說,這項(xiàng)技術(shù)可以將目標(biāo)(比如一張 臉)簡(jiǎn)化為數(shù)據(jù)。

  深度學(xué)習(xí)使用了許多層名為神經(jīng)網(wǎng)絡(luò)的簡(jiǎn)單數(shù)學(xué)模型,隨著時(shí)間的推移,它的效果會(huì)變得越來越好。比如,計(jì)算機(jī)科學(xué)家可以教會(huì)深度學(xué)習(xí)工具識(shí)別人 臉,方法就是給它看成百上千張照片,并告訴它每張照片是不是人的面孔。最終,當(dāng)工具遇到一張沒見過的人臉時(shí),也可以識(shí)別出構(gòu)成人類特征的模式,并且可以得 出結(jié)論:在統(tǒng)計(jì)學(xué)上講,這也是一張臉。

  接下來,使用名為生成網(wǎng)絡(luò)的深度學(xué)習(xí)工具,研究者有能力創(chuàng)造出看起來如同真人的面孔。其中的邏輯與剛才類似:計(jì)算機(jī)科學(xué)家還是用成百上千幅圖像 訓(xùn)練網(wǎng)絡(luò)。但這一次,網(wǎng)絡(luò)會(huì)按照從示例中學(xué)習(xí)到的模式,繪制出一張新的面孔。一些公司現(xiàn)在正使用同樣的方法來處理音頻。今年早些時(shí)候,谷歌推出了 Duplex,這是一款基于WaveNet軟件的人工智能助理,它可以打電話,聽起來就像真人一樣,甚至對(duì)語氣詞的運(yùn)用都完全一樣,比如“呃”和“嗯”。

  但是生成網(wǎng)絡(luò)需要大數(shù)據(jù)集來訓(xùn)練,這可能需要大量的人力。改進(jìn)虛擬內(nèi)容的下一步是教AI實(shí)現(xiàn)自我訓(xùn)練。2014年,蒙特利爾大學(xué)的研究者通過生 成對(duì)抗網(wǎng)絡(luò)(generative adversarial network, GAN)實(shí)現(xiàn)了這一目標(biāo),這種技術(shù)讓兩個(gè)神經(jīng)網(wǎng)絡(luò)對(duì)話。第一個(gè)是生成器,它制作虛假的圖像,第二個(gè)是判別器,負(fù)責(zé)學(xué)習(xí)區(qū)分真假。在幾乎沒有人類監(jiān)督的情況 下,該網(wǎng)絡(luò)通過競(jìng)爭(zhēng)相互訓(xùn)練:判別器推動(dòng)生成器制造出越來越逼真的虛假圖像,而生成器一直試圖騙過判別器。GAN可以制作各種各樣的東西。在加利福尼亞大 學(xué)伯克利分校,科學(xué)家構(gòu)建了一個(gè)可以將馬的圖像變成斑馬的GAN網(wǎng)絡(luò),也能將莫奈(Monet)等人的印象派畫作變成清晰、逼真的場(chǎng)景。

  接著,在今年5月,德國(guó)馬普信息學(xué)研究所的研究人員發(fā)布了“深度視頻”(deep video)。這個(gè)系統(tǒng)使用了一種生成對(duì)抗網(wǎng)絡(luò),它可以讓演員控制現(xiàn)成影片中他人嘴巴、眼睛和面部的動(dòng)作。深度視頻目前僅適用于人物特寫鏡頭,這類鏡頭中 人要直接看著攝像機(jī)。如果演員的動(dòng)作幅度太大,所得到的視頻就會(huì)出現(xiàn)明顯的破綻,比如臉部周圍的像素模糊等。

  到目前為止,GAN還沒有能力在視頻中創(chuàng)造出可以亂真的復(fù)雜場(chǎng)景。有時(shí)GAN會(huì)產(chǎn)生奇怪的錯(cuò)誤,比如讓人的眼球從前額長(zhǎng)出來。不過今年2月,英 偉達(dá)公司的研究人員找到了一種方法,可以讓GAN生成令人難以置信的高分辨率面部圖像。他們一開始先用相對(duì)較小的照片進(jìn)行訓(xùn)練,然后逐步增加訓(xùn)練圖像的分 辨率。南加利福尼亞大學(xué)的黎顥團(tuán)隊(duì)使用GAN制作出了逼真的皮膚、牙齒和嘴巴,這些都是在數(shù)字化重建中尤為難以處理的部位。

  對(duì)非專業(yè)人士來說,這些技術(shù)都很難運(yùn)用。但BuzzFeed的實(shí)驗(yàn)暗示了我們可能的未來。它發(fā)布的那段視頻來自名為FakeApp的免費(fèi)軟件, 該軟件使用深度學(xué)習(xí),而不是GAN。由此產(chǎn)生的視頻被稱為“Deepfake”,即“深度學(xué)習(xí)”和“虛假”的混合詞?,F(xiàn)在這個(gè)技術(shù)已經(jīng)普及化,任何擁有計(jì) 算機(jī)的人都能夠使用。

  假新聞泛濫?

  專家們一直擔(dān)心計(jì)算機(jī)輔助編輯會(huì)對(duì)現(xiàn)實(shí)造成破壞。早在2000年,《麻省理工技術(shù)評(píng)論》中關(guān)于Video Rewrite等產(chǎn)品的一篇文章就警告稱,“眼見不再為實(shí)”,“晚間新聞中的圖像可能是假的,是高速的新視頻處理技術(shù)做出來的?!?8年后的今天,新聞節(jié) 目中似乎并沒有充斥著虛假視頻。首先,要偽造一段高質(zhì)量的視頻仍然很困難。在專業(yè)視頻編輯的幫助下,BuzzFeed花了56個(gè)小時(shí)才做出虛假的奧巴馬視 頻片段。

  然而,我們消費(fèi)信息的方式已經(jīng)發(fā)生了變化。據(jù)皮尤研究中心的數(shù)據(jù)顯示,今天只有大約一半的美國(guó)成年人通過電視看新聞,而三分之二的人至少會(huì)通過 社交媒體獲取一部分新聞?;ヂ?lián)網(wǎng)讓迎合細(xì)分觀眾群體的媒體繁榮起來,這些媒體不受傳統(tǒng)新聞標(biāo)準(zhǔn)的束縛。珀西利表示,互聯(lián)網(wǎng)有利于那些病毒式傳播的內(nèi)容,讓 我們能夠以前所未有的速度分享它們。與客廳的電視屏幕相比,虛假視頻中的瑕疵在移動(dòng)設(shè)備屏幕上更難辨別。

  關(guān)于假新聞的科學(xué)研究還很有限。不過一些研究表明,人們只要看過一次虛假信息,以后再看到它時(shí),就會(huì)覺得可信,加拿大里賈納大學(xué)組織行為學(xué)助理 教授戈登·彭尼庫(kù)克(Gordon Pennycook)說。他表示,目前尚不清楚這是為什么,但可能要?dú)w功于假新聞的 “流利度”(fluency),或者說“處理這類信息的便利度”。

  麻省理工學(xué)院有一項(xiàng)研究在推特上追蹤了2006年至2017年的12.6萬條新聞,結(jié)果顯示,我們同樣更有可能分享虛假新聞,而不是真實(shí)新聞。 尤其是虛假的政治新聞,這類內(nèi)容比那些有關(guān)金錢、自然災(zāi)害或恐怖襲擊的文章傳播得更廣、更快。該研究表明人們渴望新奇的內(nèi)容。假新聞一般會(huì)巧妙利用我們的 情緒和個(gè)人身份,誘使我們?cè)谟袡C(jī)會(huì)消化處理信息,決定其是否值得傳播之前做出反應(yīng)。這類內(nèi)容越是讓我們驚訝、恐慌或憤怒,我們就越傾向于將其分享出去。

  有許多令人不安的線索表明,視頻在引發(fā)恐懼上可能特別有效。布朗大學(xué)認(rèn)知、語言和心理學(xué)助理教授埃莉諾·阿米特(Elinor Amit)說:“當(dāng)你通過視覺處理信息時(shí),你會(huì)認(rèn)為這件事在空間、時(shí)間或社會(huì)群體方面與你更接近。”她的研究分析了我們對(duì)文本和圖像信息的不同反應(yīng)。阿米 特推測(cè)這種區(qū)別是源于演化的,我們的視覺是在書面語言誕生之前演化形成的,我們更多依靠自己的感覺來發(fā)現(xiàn)直接的危險(xiǎn)。

  所有這些令人擔(dān)憂的事件,還只是問題的一部分。對(duì)社會(huì)來說,我們?cè)O(shè)想的情況實(shí)際上可能比視頻本身更糟糕。比如,一些人在自己真正的錯(cuò)誤被抓住 時(shí),可能會(huì)宣稱這些視頻是偽造的,故意把水?dāng)嚋?。路易斯安娜州立大學(xué)大眾傳播學(xué)副教授雷蒙德·J·平格里(Raymond J。 Pingree)表示,當(dāng)知道可以亂真的虛假視頻可能存在時(shí),我們會(huì)喪失對(duì)所有媒體的信任。平格里研究人們對(duì)自身分辨真假能力的自信心,以及這種自信對(duì)其 參與政治活動(dòng)的意愿有何影響。他說,當(dāng)人們失去這種信心時(shí),就會(huì)更容易輕信騙子和謊言,而且“這會(huì)讓他們不再想去尋求真相?!?/p>

  貓鼠游戲

  對(duì)于計(jì)算機(jī)科學(xué)家來說,要解決一個(gè)bug通常要靠更完善的計(jì)算機(jī)科學(xué)。雖然本文中討論的bug要比編碼錯(cuò)誤復(fù)雜得多,但計(jì)算機(jī)科學(xué)界還是認(rèn)為可以編寫算法來標(biāo)記虛假視頻。

  到目前為止,有兩類方案。第一種是通過嵌入數(shù)字簽名證明視頻是真實(shí)的,類似于復(fù)雜的水印、全息圖,以及其他印鈔廠用于防偽的方法。每個(gè)數(shù)碼相機(jī)都有一個(gè)獨(dú)特的簽名,從理論上講,這種簽名很難復(fù)制。 

  第二種策略是使用探測(cè)器自動(dòng)標(biāo)記假視頻。可以說,這種探測(cè)器最重要的研發(fā)動(dòng)力來自美國(guó)國(guó)防部高級(jí)研究計(jì)劃局(DARPA)的一項(xiàng)名為Media Forensics(MediFor)的項(xiàng)目。MediFor采用了三種應(yīng)用廣泛的方法,這些方法可以通過深度學(xué)習(xí)實(shí)現(xiàn)自動(dòng)化。第一是檢查視頻的數(shù)字指 紋,看看有無異常情況。第二是確保視頻內(nèi)容遵循物理定律,比如視頻中的陽光照射情況是否與現(xiàn)實(shí)世界相符。第三是檢查外部數(shù)據(jù),比如拍攝當(dāng)天的天氣情 況。 DARPA計(jì)劃將這些探測(cè)方法統(tǒng)一到一個(gè)工具中,為視頻評(píng)分,估算它有多大的可能是偽造的。

  這些策略可以減少虛假視頻的數(shù)量,但說到底仍然是一個(gè)貓捉老鼠的游戲,視頻偽造者會(huì)模仿數(shù)字水印或建立深度學(xué)習(xí)工具來欺騙探測(cè)器?!拔覀儾粫?huì)贏 得這場(chǎng)比賽,”阿列克謝·埃弗羅斯(Alexei Efros)說,他是加利福尼亞大學(xué)伯克利分校計(jì)算機(jī)科學(xué)和電子工程教授,正在于MediFor項(xiàng)目合作,“我們只是會(huì)讓壞人在比賽中越來越艱難?!?/p>

  拯救現(xiàn)實(shí)

  即使我們每個(gè)人最終都可以使用探測(cè)器來分析互聯(lián)網(wǎng),但真相總會(huì)滯后于謊言。所以,如何阻止足以亂真的虛假視頻的傳播,對(duì)社交媒體行業(yè)來說是一個(gè)挑戰(zhàn)。

  我們還不清楚,在遏制病毒性傳播的虛假信息方面,社交媒體企業(yè)有哪些法律上的義務(wù),我們也不知道是否可以在不踐踏言論自由的前提下對(duì)該行業(yè)進(jìn)行 監(jiān)管。Facebook首席執(zhí)行官馬克·扎克伯格(Mark Zuckerberg)最終承認(rèn),F(xiàn)acebook在傳播虛假新聞方面發(fā)揮了作用。

  從那以后,扎克伯格承諾要采取行動(dòng)。他讓Facebook用戶承擔(dān)部分責(zé)任,對(duì)新聞來源的可靠性進(jìn)行排名(一些人認(rèn)為這是在推卸責(zé)任),然后利 用AI來標(biāo)記錯(cuò)誤信息。Facebook一直對(duì)這套方法的細(xì)節(jié)守口如瓶。一些計(jì)算機(jī)科學(xué)家對(duì)其中AI參與的部分持懷疑態(tài)度,其中包括法里德,他表示這些承 諾“非常天真”。很少有獨(dú)立的科學(xué)家能夠研究Facebook上的假新聞是如何傳播的,因?yàn)榇蟛糠謹(jǐn)?shù)據(jù)都是不對(duì)外公開的。

  還有,如果開發(fā)虛假視頻技術(shù)的研究者在離開實(shí)驗(yàn)室后,不關(guān)心自己的技術(shù)是被如何使用的,不去對(duì)抗濫用,那么世界上所有算法和數(shù)據(jù)都無法從虛假消 息的海洋中拯救我們?!斑@是我的請(qǐng)求,”斯坦福大學(xué)法學(xué)教授納特·珀西利(Nate Persily)說,“從事這項(xiàng)研究的科學(xué)家必須與心理學(xué)家、政治學(xué)家和傳媒專家合作,后者已經(jīng)研究這些問題有一段時(shí)間了?!倍壳斑@種合作仍很少見。

  由于這還是一個(gè)責(zé)任真空地帶,根除虛假視頻的任務(wù)就落在了記者和網(wǎng)民偵探身上。在奧巴馬和皮爾的Deepfake虛假視頻結(jié)束時(shí),視頻中的兩人 都表示:“未來,我們需要對(duì)互聯(lián)網(wǎng)保持警惕。在這個(gè)時(shí)代,我們需要依賴可靠的新聞來源?!边@個(gè)視頻可能是虛假的,但最后這句話說得一點(diǎn)不錯(cuò)。



優(yōu)化型網(wǎng)站建設(shè)推薦: 鄭州網(wǎng)站建設(shè) 開封網(wǎng)站建設(shè) 平頂山網(wǎng)站建設(shè) 安陽網(wǎng)站建設(shè) 鶴壁網(wǎng)站建設(shè) 新鄉(xiāng)網(wǎng)站建設(shè) 焦作網(wǎng)站建設(shè) 濮陽網(wǎng)站建設(shè) 許昌網(wǎng)站建設(shè) 漯河網(wǎng)站建設(shè) 三門峽網(wǎng)站建設(shè) 南陽網(wǎng)站建設(shè) 商丘網(wǎng)站建設(shè) 信陽網(wǎng)站建設(shè) 周口網(wǎng)站建設(shè) 駐馬店網(wǎng)站建設(shè) 上海網(wǎng)站建設(shè) 廣州網(wǎng)站建設(shè) 深圳網(wǎng)站建設(shè) 北京網(wǎng)站建設(shè) 杭州網(wǎng)站建設(shè) 長(zhǎng)沙網(wǎng)站建設(shè) 蘇州網(wǎng)站建設(shè) 南京網(wǎng)站建設(shè) 天津網(wǎng)站建設(shè) 武漢網(wǎng)站建設(shè) 成都網(wǎng)站建設(shè) 大連網(wǎng)站建設(shè) 東莞網(wǎng)站建設(shè) 佛山網(wǎng)站建設(shè) 樂清網(wǎng)站建設(shè) 海南網(wǎng)站建設(shè) 寧波市網(wǎng)站建設(shè) 南昌網(wǎng)站建設(shè) 福州網(wǎng)站建設(shè) 常州網(wǎng)站建設(shè) 南通網(wǎng)站建設(shè) 長(zhǎng)春網(wǎng)站建設(shè) 東營(yíng)網(wǎng)站建設(shè) 南寧網(wǎng)站建設(shè) 青島網(wǎng)站建設(shè) 邯鄲網(wǎng)站建設(shè) 保定網(wǎng)站建設(shè) 安溪網(wǎng)站建設(shè) 東明網(wǎng)站建設(shè)