人工智能尚未準備好在可預見(jiàn)的未來(lái)有效地管理在線(xiàn)內容

2020-03-07 11:48:41    來(lái)源:    作者:

Ofcom和Cambridge Consultants合作完成了一份報告,研究了AI支持的在線(xiàn)內容審核的有效性。

世界各國政府對社交網(wǎng)絡(luò )和通信服務(wù)施加越來(lái)越大的壓力,要求對發(fā)布在其中的內容負責。社會(huì )本身正越來(lái)越意識到直播恐怖襲擊,網(wǎng)絡(luò )欺凌,政治操縱等帶來(lái)的危險。

人工智能尚未準備好在可預見(jiàn)的未來(lái)有效地管理在線(xiàn)內容

對于某些擁有數十億用戶(hù)的平臺,手動(dòng)管理發(fā)布的所有內容是不可行的。上載非法內容后,通常需要有人舉報并等待人類(lèi)主持人做出決定(這些主持人有時(shí)在暴露于此類(lèi)內容后需要接受治療)。

Ofcom和Cambridge Consultants的報告建議,AI可以通過(guò)以下幾種主要方式幫助減輕對主持人的心理影響:

改變他們所接觸的有害物質(zhì)的含量和類(lèi)型。

自動(dòng)模糊掉部分內容,主持人可以根據需要選擇查看以做出決定。

人們可以“詢(xún)問(wèn)”有關(guān)內容的AI問(wèn)題以做好準備,或者知道是否對他們來(lái)說(shuō)特別困難,這可能是由于過(guò)去的個(gè)人經(jīng)驗所致。

手動(dòng)審核內容的過(guò)程緩慢,通常意味著(zhù)有數百萬(wàn)人在刪除有害內容之前就將其刪除。盡管當今大多數AI審核實(shí)施仍需要人工監督,但內容檢測方面的一些進(jìn)步有助于加快標記和刪除內容的速度。

人工智能尚未準備好在可預見(jiàn)的未來(lái)有效地管理在線(xiàn)內容

本月早些時(shí)候,Facebook擁有的Instagram 公布了對人工智能驅動(dòng)的審核系統的改進(jìn),以防止發(fā)布麻煩的內容。盡管以前只限于評論,但Instagram現在會(huì )問(wèn)用戶(hù)“您確定要發(fā)布嗎?” 對于它認為可能對他人造成困擾的任何帖子。

作為英國的電信監管機構,Ofcom的報告應有助于形成可行的政策,而不是政治家的通用要求,而不是真正了解這些事情的工作原理(有人能記得呼吁禁止加密和/或故意創(chuàng )建后門(mén)的呼吁嗎?)

該報告實(shí)質(zhì)上確定了在可預見(jiàn)的將來(lái),不可能進(jìn)行有效的全自動(dòng)內容審核。

人工智能尚未準備好在可預見(jiàn)的未來(lái)有效地管理在線(xiàn)內容

完全自動(dòng)化的內容審核存在問(wèn)題的主要原因之一是-雖然可以通過(guò)單獨分析來(lái)識別一些有害的帖子,但其他內容則需要對上下文有充分的了解。例如,研究人員指出,對于當今的AI適度解決方案而言,很難解決國家法律中的地區和文化差異以及什么在社會(huì )上可以接受,但對于本地人類(lèi)主持人而言卻微不足道。

一些內容也比其他內容容易分析。照片和預先錄制的視頻可以在發(fā)布之前進(jìn)行分析,而實(shí)況直播則特別困難,因為看似無(wú)辜的場(chǎng)景可能會(huì )很快變得有害。

劍橋咨詢(xún)公司的報告說(shuō):“將繼續要求人類(lèi)主持人審閱高度上下文,細微差別的內容。” “但是,基于A(yíng)I的內容審核系統可以減少人工審核的需求,并減少查看有害內容對他們的影響。”

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。