人妻少妇乱子伦精品_日韩人妻潮喷视频网站_日本最新最全无码不卡免费_日韩AV无码中文

當(dāng)前位置: 首頁 > 科技新聞 >

“黃暴”視頻看出心理陰影 內(nèi)容審核師能被AI拯

時間:2020-01-14 15:48來源:網(wǎng)絡(luò)整理 瀏覽:
歡迎關(guān)注“創(chuàng)事記”微信訂閱號:sinachuangshiji文/劉俊寰來源:大數(shù)據(jù)文摘(ID:BigDataDigest)視頻時代正在到來。

歡迎關(guān)注“創(chuàng)事記”微信訂閱號:sinachuangshiji

文/劉俊寰

來源:大數(shù)據(jù)文摘(ID:BigDataDigest)

視頻時代正在到來。

在全球范圍內(nèi),根據(jù)YouTube在2019年公布的數(shù)據(jù),其日活躍用戶數(shù)已經(jīng)突破了19億。

大量視頻內(nèi)容涌現(xiàn)的同時,暴力、色情內(nèi)容也隨之進入互聯(lián)網(wǎng),成為用戶視頻瀏覽中的“定時炸彈”。

在這個AI賦能一切的時代,人工智能似乎正在視頻內(nèi)容的審核中大展拳腳。

2018年,F(xiàn)acebook推出DeepText,利用深層神經(jīng)網(wǎng)絡(luò)架構(gòu)理解內(nèi)容;而YouTube早就推出了Content ID,監(jiān)測并刪除涉及色情和暴力等違規(guī)視頻,多年來在該技術(shù)上花費了超過1億美元。甚至不少媒體都預(yù)言,AI將憑借著其對海量數(shù)據(jù)的組織能力,不久后會取代人工審核。

但事實真的如此嗎?

近日,知名海外科技媒體TheVerge到訪谷歌位于美國奧斯汀的人工內(nèi)容審核師團隊,報道了團隊成員因為大量審核暴力內(nèi)容遭受的可怕精神創(chuàng)傷。

Youtube的視頻審核決不是一項簡單的工作。

目前,全球共有約5000萬YouTube獨立創(chuàng)作者,每分鐘上傳的視頻時長高達500小時,這給視頻審核師們帶來了極大的工作壓力。

谷歌位于奧斯丁的審核師總數(shù)目前超過百人,他們主要負責(zé)審核具有暴力色情等極端視頻,同時,審核團隊還配備有數(shù)十名來自中東的低薪移民進行工作上的協(xié)助。

為了保證效率,奧斯汀的內(nèi)容審核團隊每人每天必須觀看5小時以上的暴力色情視頻,審核人員時薪為18.50美元,年薪約37,000美元,但近兩年沒有加薪。YouTube首席執(zhí)行官蘇珊·沃西基(Susan Wojcicki)向媒體透露,谷歌去年曾承諾將內(nèi)容審核師每人每天的工作量減少到4個小時,但至今仍未被執(zhí)行。

由于長時間暴露在極端視頻之下,谷歌團隊的審核師們被曝遭受著嚴重的心理創(chuàng)傷。盡管谷歌為審核師們提供了一流的醫(yī)療服務(wù)和福利,但是不少審核師還是會被檢測出罹患PTSD、長期焦慮等精神問題。

注:PTSD,全稱為創(chuàng)傷后應(yīng)激障礙,是指個體經(jīng)歷、目睹或遭遇到一個或多個涉及自身或他人的實際死亡,或受到死亡的威脅,或嚴重的受傷,或軀體完整性受到威脅后,所導(dǎo)致的個體延遲出現(xiàn)和持續(xù)存在的精神障礙。

視頻審核師每天都在看什么?

在文摘菌的印象中,審核師的工作就是看看用戶上傳到網(wǎng)站的視頻,大概就像是…每天刷刷短視頻就能輕松掙錢一樣,可以說是夢寐以求的工作了。

但不管是YouTube還是國內(nèi),視頻審核都沒有文摘菌想象的這么美好。

在知乎上,相關(guān)話題的瀏覽量已經(jīng)達到了167951次,其中網(wǎng)友@white舉例說道,“ISIS殺戮人質(zhì)的視頻讓我狼狽不堪,非洲人民兇殘的一面讓我感到害怕,美國黑人區(qū)發(fā)生的讓我感到惶恐,美國天黑時散發(fā)出恐怖的色彩!可能人類的本質(zhì)就是殺戮,被割喉的人瘋狂的掙扎,暗紅色的血液緩緩慢流動出來,日本自殺深林中令人作嘔的尸體……”

同樣,作為YouTube的內(nèi)容審核師,他們的工作并沒有輕松到哪去。

YouTube的內(nèi)容審核師Peter告訴TheVerge,他每天負責(zé)的就是極端暴力(violent extremism)的視頻審核,這可以說是整個審核工作中最致郁的一個板塊,正如上文提到谷歌為審核團隊制定了嚴格的工作計劃,他必須看足夠量的暴力色情視頻。

“每天你都會看到有人砍人,或者射殺親友,”Peter說,“你會覺得,這個世界很瘋狂,這會讓你感到不舒服,甚至不想繼續(xù)活下去。我們到底為什么要這樣對待彼此呢?”

在過去一年里,Peter和同事們的生活都受到了極大的影響。一位同事患上了神經(jīng)衰弱,還有一位同事因工作中的焦慮和抑郁而痛苦不堪,飲食和作息逐漸紊亂,最后患上了急性維生素缺乏癥,不得不住院接受治療。

不止是Peter和同事們,另一位視頻審核師Daisy曾負責(zé)Google視頻中的恐怖主義和兒童虐待內(nèi)容的審核,從事這項工作后,她曾一度難以和孩子交流互動。在接受精神科專家診斷后,她被確診患有PTSD,至今仍在接受治療。

根據(jù)報道,審核師在申請工作的時候通常并不了解極端視頻會對身心造成怎樣的傷害,而就YouTube的審核師所透露的內(nèi)容來看,谷歌向應(yīng)聘者所說明的審核數(shù)量和工作要求往往是過低的。

雖然谷歌為全職審核師制定了相關(guān)的醫(yī)療保健標準,他們可以休假數(shù)月,以解決嚴重影響工作與生活的心理問題,但這只是谷歌內(nèi)部被報道的情況,全球范圍內(nèi)還有更多未被報道的內(nèi)容審核師遭受了心理創(chuàng)傷后被公司無情忽視。

AI能拯救視頻審核師嗎?

AI參與視頻審核并非近幾年才有,最早2000年左右,就有公司在做這方面的嘗試。但那時,視頻審核需要人為設(shè)定特征和規(guī)則,比如黃顏色皮膚面積分布情況。一直到深度學(xué)習(xí)得到發(fā)展后,視頻審核才終于變得“靈活”了。

但是,在視頻審核上,目前業(yè)內(nèi)普遍采用的仍然是“人機結(jié)合”的方式,并且人工在其中占據(jù)著重要比例。

YouTube的算法工程師向文摘菌透露,目前YouTube上大部分視頻仍需要經(jīng)過人工審核,被審核視頻一部分是AI檢測出來,一部分是用戶舉報的,但最終都需要專業(yè)的審核師把關(guān)決定是否違規(guī)。

根據(jù)愛奇藝算法工程師Leo的介紹,目前業(yè)內(nèi)有以下兩種比較常見的“人機配合”審核方式:

一種AI將相對確定的視頻進行分類,然后對部分用戶做出推薦,觀察用戶反應(yīng),其中高熱視頻會人工率先審核;

另一種是AI將視頻標記為“good”或“bad”,當(dāng)審核師遇到標注有“bad”視頻時再細致地審核,這也提高了審核效率。

愛奇藝目前采取的是第二種模式。視頻會先經(jīng)過機審預(yù)判,然后再進行人工一審和復(fù)審,其中機審結(jié)果主要作為參考輔助人工,另外還有視頻清查機制。

針對AI取代人工審核的說法,Leo認為還為時過早,雖然AI在客觀視頻的審核上做得足夠好,但一旦涉及與語境語義相關(guān)的主觀內(nèi)容,就捉襟見肘了。

AI審核存在兩個技術(shù)難點,一個是算法準確率問題。在業(yè)內(nèi)有句話,“脫離數(shù)據(jù)集來談準確率都是耍流氓”,這就是說,用數(shù)據(jù)集訓(xùn)練出來的AI模型并不都能匹配實際行為,還存在用戶行為偏差等諸多影響因素,即使AI審核的準確率達到了99%,考慮到用戶上傳的視頻量,剩下1%的累計量也是驚人的。

而一旦出現(xiàn)疏漏,視頻網(wǎng)站將承受巨大的風(fēng)險。

另一個難關(guān)就是對內(nèi)容的主觀判斷。簡單來說,不是所有露骨的內(nèi)容都是色情,也不是所有色情視頻都有裸露,再加上視頻內(nèi)容中涉及到的文字、語音等多方面情景混雜,對人來說較容易判斷,但對機器而言需要多個算法疊加。

Leo告訴我們,比如在處理音頻內(nèi)容時,一方面需要利用ASR轉(zhuǎn)化成文本,另一方面需要對聲音分類,這就包括一些無意義的音頻,比如嬌喘聲。如果畫面中還出現(xiàn)了文字,需要借助OCR把文字從視頻中摳出來,但最終都要利用NLP,也就是文本理解。

因此,人工審核在整個審核領(lǐng)域仍然是至關(guān)重要的一環(huán)。愛奇藝配置的專業(yè)審核團隊主要負責(zé)甄別用戶上傳視頻的內(nèi)容,將不符合國家法律法規(guī)、平臺標準的內(nèi)容篩除。

定義敏感內(nèi)容?AI:臣妾做不到啊

對AI審核而言,除去上述的準確率和內(nèi)容主觀判定對AI而言仍然無解之外,對敏感內(nèi)容的界定本身尚未清晰也是一個不可忽視的重要原因。

在國內(nèi),違規(guī)內(nèi)容一般統(tǒng)一由廣電總局統(tǒng)一規(guī)范,視頻網(wǎng)站在規(guī)則界定上顯得被動,他們需要根據(jù)廣電總局指定的標準進行嚴格的自審,甚至有些公司會成立專門的法務(wù)咨詢崗位,專門研究廣電總局的政策。

而在全球范圍內(nèi),更多的視頻網(wǎng)站承擔(dān)著自行定義敏感內(nèi)容的職責(zé)。但也正因為有更大的主動性,他們就承擔(dān)更大的責(zé)任。想要全球范圍內(nèi)統(tǒng)一的審核標準無疑是一項非常棘手的工作,如果沒有考慮到當(dāng)?shù)匚幕蛩?,嚴重情況下視頻網(wǎng)站會陷入與政府和民眾的苦戰(zhàn)中。

比如,2018年7月,印尼政府禁止了某流行的短音樂視頻制作應(yīng)用。

根據(jù)印尼媒體的報道,印尼政府禁止是因為該應(yīng)用程序包含了太多負面視頻,印亞公眾情緒也普遍反對青少年使用,因為有些視頻會對青少年造成不良影響。其中一個視頻是這樣的:開始是一段舞蹈,隨后鏡頭猛然切到一具尸體,有關(guān)部門調(diào)查后發(fā)現(xiàn)這具尸體是拍攝者的親戚。

除了上述涉及死亡的視頻,世界范圍內(nèi)對以下內(nèi)容的視頻都格外謹慎:

煽動暴力的宗教仇恨言論

假新聞和為政治目的而傳播

針對個人/組織的誹謗性語言

除了涉及到“視頻暴力”的內(nèi)容外,對“視頻色情”的界定同樣具有高度的主觀性和任意性。之前Instagram曾因允許“男性裸露乳頭”但禁止“女性裸露乳頭”,引起不少女性在該軟件上進行抗議。

和Instagram相比,某些社交網(wǎng)站的規(guī)則顯得“寬松”了許多,他們允許在某些特殊情況下的裸體行為。

以不久前更新了內(nèi)容規(guī)則的Tumblr為例,從中可以看到一些有趣的說明:“被禁止的內(nèi)容包括人類生殖器的照片和視頻、女性展示乳頭,以及任何涉及性行為的媒介,包括插圖。例外情況包括裸體古典雕像和以裸體為特征的政治抗議行為。新的指導(dǎo)方針排除了文本,色情仍然是允許的。只要性行為沒有被明顯描繪?出來,以裸體為特征的插圖和藝術(shù)仍然是允許的,母乳喂養(yǎng)和產(chǎn)后照片同理。”

在這里也可以對比看一下Facebook、Reddit等在內(nèi)的全球流量較大的四家社交平臺關(guān)于“色情”和“裸露”的相關(guān)規(guī)則:

可以看出,基于不同的價值觀、服務(wù)的用戶群體和他們的文化敏感性,就必須為他們提供專屬的規(guī)則和例外。也就是說,由于內(nèi)容具有的主觀性,想要一勞永逸地創(chuàng)建全球性的內(nèi)容標準是非常困難是難以實現(xiàn)的。

在內(nèi)容審核工作中,AI能干啥?

盡管有諸多限制和不足,但仍不妨礙AI審核已是大勢所趨。

目前AI在內(nèi)容審核方面除了能評估和檢測垃圾郵件、辱罵留言等極端文本內(nèi)容外,在某些社交平臺上,AI還能攔截違規(guī)圖像,甚至可以針對以情境理解為基礎(chǔ)的騷擾和欺凌進行排查。

但是,在利用AI進行內(nèi)容審核還要注意以下三個方面:

對內(nèi)容的審核需要文化意識和對相關(guān)社區(qū)“標準”的語境理解。盡管AI可以執(zhí)行預(yù)調(diào)節(jié),幫助減少人工審核的工作量,但人工參與仍是不可缺少的環(huán)節(jié)。

AI面臨著公眾不信任,特別是可能存在無意識的人類或技術(shù)偏見。此外,算法可能對違規(guī)內(nèi)容起不到檢測作用。針對此,一方面要定期分析并調(diào)整算法,另一方面,利益相關(guān)者應(yīng)保證AI的透明度。

由于格式多樣性和內(nèi)容復(fù)雜度,用戶生成的視頻內(nèi)容越來越難以分析,它們需要被解釋為一個整體,以此來鑒定是否違規(guī)。為了更好地了解用戶行為,及時更新違規(guī)有害內(nèi)容的定義,平臺和服務(wù)提供商之間最好能夠共享數(shù)據(jù)集,這有利于利益相關(guān)者獲得更好的文化意識和語境理解。

在理想情況下,如果AI能完全做到上述幾點,就行了嗎?

讓我們再次回到內(nèi)容審核上,當(dāng)AI審核實現(xiàn)了最大程度地優(yōu)化,更大幅度地提升了審核師的工作效率,審核師團隊的心理問題似乎仍然懸而未決。

在采訪過程中文摘菌也了解到,除了視頻審核團隊,為了設(shè)計出更加精確可用的審核算法,算法工程師們?nèi)粘R残枰^看大量的暴力色情視頻,也因此不可避免的受到同樣的影響。技術(shù)的進步盡管無人可擋,但被媒體和大眾寄予厚望的AI,其成長也注定承載著個人犧牲。

作為技術(shù)洪流中的觀看者,我們沒有權(quán)利也沒有能力去改變審核師或者算法工程師的工作,但至少我們可以給予這個群體更多的關(guān)注。就像Daisy所說:“我們需要更多的人參與到這項工作中,但我們更需要改變整個系統(tǒng)和工作結(jié)構(gòu),去支持這些人,為他們提供處理問題的工具和資源,否則問題只會變得更糟?!?/p>

相關(guān)報道:

https://www.theverge.com/2019/12/16/21021005/google-youtube-moderators-ptsd-accenture-violent-disturbing-content-interviews-video

推薦內(nèi)容