假裝成人類(lèi)的機器人看起來(lái)更具說(shuō)服力

2020-04-05 11:22:13    來(lái)源:新經(jīng)網(wǎng)    作者:馮思韻

人工智能領(lǐng)域的最新技術(shù)突破使得機器或機器人可以像人類(lèi)一樣通過(guò)。紐約大學(xué)阿布扎比分校計算機科學(xué)副教授塔拉爾·拉萬(wàn)(Talal Rahwan)領(lǐng)導的一組研究人員進(jìn)行了一項實(shí)驗,研究人們如何與被認為是人類(lèi)的機器人進(jìn)行交互,以及一旦機器人揭示了自己的身份,這種交互將如何受到影響。

假裝成人類(lèi)的機器人看起來(lái)更具說(shuō)服力

研究人員發(fā)現,在某些人機交互中,機器人的效率要比人類(lèi)高,但前提是必須允許它們隱藏非人類(lèi)的本性。

在發(fā)表于《自然機器智能》上的題為“人機合作中的透明度-效率權衡的行為證據”的論文中,研究人員介紹了他們的實(shí)驗,其中要求參與者與人類(lèi)同伴或機器人同伴一起玩合作游戲。

假裝成人類(lèi)的機器人看起來(lái)更具說(shuō)服力

該游戲稱(chēng)為“囚徒困境困境”,旨在捕捉雙方互動(dòng)的一方可以為謀取對方利益而自私地采取行動(dòng),或為達成互利結果而采取合作行動(dòng)的情況。

至關(guān)重要的是,研究人員向一些參與者提供了有關(guān)其同事身份的錯誤信息。一些與人互動(dòng)的參與者被告知他們正在與機器人互動(dòng),反之亦然。

假裝成人類(lèi)的機器人看起來(lái)更具說(shuō)服力

通過(guò)該實(shí)驗,研究人員能夠確定人們是否對他們認為是機器人的社會(huì )伙伴有偏見(jiàn),并評估這種偏見(jiàn)(如果存在)在多大程度上影響了對非人性透明的機器人的效率。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。