機器人在通訊和新聞收集領(lǐng)域正在興起。這不僅威脅工作,而且威脅社會(huì )的道德基礎嗎?
哈德斯菲爾德大學(xué)(University of Huddersfield)一位因其在公共關(guān)系方面的專(zhuān)業(yè)知識而享譽(yù)全球的教授正在發(fā)出警告,并對正在使用的技術(shù)及其使用方式進(jìn)行研究。劍橋分析公司(Cambridge Analytica)的爭議-指控數百萬(wàn)Facebook用戶(hù)的數據被自動(dòng)推斷出來(lái)并用于政治目的-已增加了她的研究的相關(guān)性。

哈德斯菲爾德大學(xué)企業(yè)傳播學(xué)教授安妮·格雷戈里說(shuō):“在過(guò)去的18個(gè)月中,我一直對人工智能的影響以及公關(guān)和通訊專(zhuān)業(yè)的機器人化產(chǎn)生了興趣。”
“我對這方面的道德問(wèn)題特別感興趣。正如劍橋分析公司的案例所示,僅僅因為您可以做某件事,就意味著(zhù)您應該這樣做。我們看到了通信行業(yè)性質(zhì)的深刻變化,這種變化正在變得越來(lái)越多。以及更多的數據驅動(dòng)和自動(dòng)化。”

例如,一家領(lǐng)先的新聞社現在使用AI來(lái)編寫(xiě)和說(shuō)明有關(guān)業(yè)務(wù)結果的報告,并使用公司發(fā)送的原始數據,并且這些報告的生成速度比新聞工作者快得多且準確得多。啟用語(yǔ)音功能的數字助理(例如Google的Alexa)正在對美國的體育比賽進(jìn)行評論,例如,提供有關(guān)運動(dòng)員和球隊表現的背景數據。
“機器人目前沒(méi)有的一件事就是判斷力,一個(gè)關(guān)鍵的問(wèn)題是,如何將判斷力和道德觀(guān)融入人工智能機制?” 格雷戈里教授認為,該教授在政府傳播服務(wù)的激勵計劃中擔任教學(xué)和指導。
哈德斯菲爾德(Huddersfield)教授研究了機器人在包括公關(guān)和新聞業(yè)在內的許多工作和職業(yè)中所扮演的角色。她最近在馬來(lái)西亞伯樂(lè )檳城大學(xué)學(xué)院發(fā)表了名為PR和AI的詳細演講,“機器人在這里!”,這是她作為皇家墨爾本理工學(xué)院的客座教授進(jìn)行的外展活動(dòng)的一部分。
她還與他人合著(zhù)了一篇有關(guān)將個(gè)人數據用于公關(guān)活動(dòng)的道德規范的文章,并且是英國特許公共關(guān)系學(xué)院成立的新人工智能小組的成員。
她的研究確定了范圍廣泛的機器人工具-從自動(dòng)編寫(xiě)到組織工作流程-可用于使PR活動(dòng)自動(dòng)化。格雷戈里教授有一系列道德問(wèn)題,并否認這使她成為技術(shù)恐懼癥。
“我不是說(shuō)“稍等片刻,讓我們仔細考慮一下它的后果”的路德主義者。我們已經(jīng)看到了假新聞的危險。當機器與機器對話(huà)時(shí)會(huì )發(fā)生什么?它們是什么樣的新聞?將如何生成?我們如何知道它是否正確?如果不正確,我們如何將其阻止?自動(dòng)化內容背后的力量是什么?

“這些是我們需要問(wèn)的問(wèn)題。要緊的是維護一個(gè)具有誠實(shí),真理和行為準則的全面運轉的社會(huì ),這實(shí)際上意味著(zhù)某些東西。當機器人接管時(shí),它們意味著(zhù)什么?我們是否有一個(gè)準則?機器人行為?我們如何教他們道德行為?”
格雷戈里教授是英國特許公共關(guān)系學(xué)院人工智能小組的成員,它歡迎上議院人工智能專(zhuān)責委員會(huì )的最新報告。
這些報告表明,就增長(cháng)和生產(chǎn)力而言,人工智能對英國經(jīng)濟而言是巨大的機會(huì ),它呼吁政府宣稱(chēng)其在全球的領(lǐng)導地位,并就人工智能的開(kāi)發(fā)和應用提出自己的實(shí)踐想法。
該報告還警告說(shuō),永遠不應該給人工智能“傷害,破壞或欺騙”人民的自主權,并強調英國在領(lǐng)導全球人工智能研究和開(kāi)發(fā)方面的潛力。它著(zhù)重介紹了AI給社會(huì )帶來(lái)的一系列道德挑戰,并呼吁將這些問(wèn)題置于研發(fā)的核心。
