人工智能(AI)正在經(jīng)歷大規模擴張的時(shí)期。這不是因為計算機已經(jīng)實(shí)現了類(lèi)似人的意識,而是由于機器學(xué)習的進(jìn)步,在機器學(xué)習中,計算機從龐大的數據庫中學(xué)習了如何對新數據進(jìn)行分類(lèi)。最前沿的是已學(xué)會(huì )識別人臉或玩Go 的神經(jīng)網(wǎng)絡(luò )。

在識別圖案的數據也可以用來(lái)作為預測工具。人工智能被應用于超聲心動(dòng)圖來(lái)預測心臟病,應用于工作場(chǎng)所數據以預測員工是否要離職,并應用于社交媒體來(lái)檢測初期抑郁或自殺傾向的跡象。政府或企業(yè)都在關(guān)注擁有豐富數據的生活的各個(gè)方面(這幾乎意味著(zhù)生活的各個(gè)方面),以應用AI。
當前似乎與人工智能相距甚遠的一項活動(dòng)是人道主義。為因戰爭,饑荒或其他災難而處于危機中的同胞提供地面援助的組織。但是人道主義組織也將采用人工智能。為什么?因為它似乎能夠回答人道主義問(wèn)題的核心問(wèn)題,例如我們應該拯救誰(shuí)以及如何大規模發(fā)揮作用等問(wèn)題。大赦國際還與現有的人道主義思考和行為方式,特別是中立性和普遍性原則產(chǎn)生了強烈共鳴。人道主義主義(據信)沒(méi)有立場(chǎng),在實(shí)施過(guò)程中沒(méi)有偏見(jiàn),可以提供援助,而不論當地情況如何。

該方法機器學(xué)習消耗大數據和預測產(chǎn)生一定表明它既能把握人道主義挑戰的艱巨性,并提供一個(gè)數據驅動(dòng)的響應。但是,機器學(xué)習操作的性質(zhì)意味著(zhù)它們實(shí)際上將加深一些人道主義問(wèn)題,并引入新的問(wèn)題。
數學(xué)
如果我們要繞過(guò)AI一詞的錯誤信息和謎團,則探索這些問(wèn)題需要繞開(kāi)機器學(xué)習的具體操作。因為人工智能中沒(méi)有智能。即使它的技術(shù)名稱(chēng)是機器學(xué)習,它也不會(huì )真正學(xué)習。
AI只是數學(xué)上的最小化。還記得在學(xué)校如何將一條直線(xiàn)擬合到一組點(diǎn),并選擇一條使總體差異最小化的線(xiàn)嗎?機器學(xué)習對復雜模式也是如此,通過(guò)最小化成本函數使輸入特征適合已知結果。結果成為可以應用于新數據以預測結果的模型。
任何和所有數據都可以通過(guò)機器學(xué)習算法推送。任何可以減少數量并帶有結果標記的內容都可以用來(lái)創(chuàng )建模型。這些方程式不知道或不在乎這些數字是否代表亞馬遜的銷(xiāo)售或地震受害者。
機器學(xué)習的這種平庸性也是它的力量。這是重要的問(wèn)題的廣義數值壓縮–計算中不包含任何理解;模式表示相關(guān)性,而非因果關(guān)系。唯一的情報與軍事情報具有相同的含義。即定位。這些操作是使成本函數最小化以?xún)?yōu)化結果的操作。
機器學(xué)習產(chǎn)生的模型可能很難逆轉為人類(lèi)推理。為什么將這個(gè)人選為假釋風(fēng)險大的人?該模式代表什么?我們不一定要說(shuō)。因此,方法的核心是不透明的。它不會(huì )增強人的代理能力,但會(huì )扭曲它。
強大的邏輯
機器學(xué)習不僅在沒(méi)有給出理由的情況下做出決策,它改變了我們對理性的理解。也就是說(shuō),它改變了什么是可知的和什么被理解為真實(shí)的。
例如,在美國的某些轄區,如果算法得出的預測是被捕者很可能會(huì )再次犯罪,那么該人將被拒絕保釋。數據中的模式查找成為引發(fā)重大后果的計算權威。
因此,機器學(xué)習不僅是一種方法,而且是一種機器哲學(xué),在這種哲學(xué)中,抽象計算被理解為訪(fǎng)問(wèn)一個(gè)被視為優(yōu)于常識感知的真理。這樣一來(lái),數據科學(xué)的計算最終可能不只是證言。

當然,人道主義領(lǐng)域對數據傳播的危險并不幼稚。眾所周知,機器學(xué)習可以傳播歧視,因為機器學(xué)習是從社交數據中學(xué)習的,而社交數據本身經(jīng)常有偏差。因此,人道主義機構自然會(huì )比大多數機構更加謹慎,以確保采取一??切可能的措施來(lái)防止訓練數據有偏見(jiàn)。
但是,問(wèn)題超出了明確的偏見(jiàn)。機器學(xué)習的更深層影響是產(chǎn)生類(lèi)別,通過(guò)這些類(lèi)別我們可以思考自己和他人。機器學(xué)習也向搶占轉變:基于關(guān)聯(lián)而不是因果關(guān)系而取消期貨。這與Twitter確定趨勢主題,以算法在算法上劃定應得和不應得的方式分配和保留資源的方式一樣,構成風(fēng)險。
我們也許應該特別擔心這些趨勢,因為盡管有其最好的意圖,但人道主義的實(shí)踐常常表現出新殖民主義的趨勢。通過(guò)宣稱(chēng)中立性和普遍性,算法斷言了在其他地方生成的抽象知識的優(yōu)越性。通過(guò)嵌入強大的邏輯來(lái)確定外圍人員的命運,人道主義AI成為代替直接控制的新殖民主義機制。
從目前的情況來(lái)看,機器學(xué)習和所謂的AI不會(huì )成為人道主義的救贖。相反,它將通過(guò)算法失真加深人道主義機構本已很深的新殖民主義和新自由主義動(dòng)力。
但是沒(méi)有設備是一個(gè)封閉的系統。機器學(xué)習的影響是偶然的,可以改變。對于人道主義AI而言,這與通常對于A(yíng)I一樣重要-因為,如果不通過(guò)人民議會(huì )等方法來(lái)調動(dòng)替代技術(shù),則下一代人道主義丑聞將由AI推動(dòng)。
