人工智能領(lǐng)域的最新技術(shù)突破使得機器或機器人可以像人類(lèi)一樣通過(guò)。紐約大學(xué)阿布扎比分校計算機科學(xué)副教授塔拉爾·拉萬(wàn)(Talal Rahwan)領(lǐng)導的一組研究人員進(jìn)行了一項實(shí)驗,研究人們如何與被認為是人類(lèi)的機器人進(jìn)行交互,以及一旦機器人揭示了自己的身份,這種交互將如何受到影響。

研究人員發(fā)現,在某些人機交互中,機器人的效率要比人類(lèi)高,但前提是必須允許它們隱藏非人類(lèi)的本性。
在發(fā)表于《自然機器智能》上的題為“人機合作中的透明度-效率權衡的行為證據”的論文中,研究人員介紹了他們的實(shí)驗,其中要求參與者與人類(lèi)同伴或機器人同伴一起玩合作游戲。

該游戲稱(chēng)為“囚徒困境困境”,旨在捕捉雙方互動(dòng)的一方可以為謀取對方利益而自私地采取行動(dòng),或為達成互利結果而采取合作行動(dòng)的情況。
至關(guān)重要的是,研究人員向一些參與者提供了有關(guān)其同事身份的錯誤信息。一些與人互動(dòng)的參與者被告知他們正在與機器人互動(dòng),反之亦然。

通過(guò)該實(shí)驗,研究人員能夠確定人們是否對他們認為是機器人的社會(huì )伙伴有偏見(jiàn),并評估這種偏見(jiàn)(如果存在)在多大程度上影響了對非人性透明的機器人的效率。
