【環(huán)球網(wǎng)科技綜合報(bào)道】 據(jù)外媒8月1日?qǐng)?bào)道,隨著人工智能技術(shù)日趨成熟,一些人擔(dān)心,人們對(duì)這項(xiàng)技術(shù)更廣泛的社會(huì)和道德影響未給予足夠的關(guān)注。專家對(duì)此進(jìn)行了討論,探索了他們認(rèn)為最駭人的五種人工智能發(fā)展前景。
當(dāng)提到人工智能時(shí),人們總會(huì)聯(lián)想到機(jī)器人殺手和計(jì)算機(jī)失控的場(chǎng)景。《銀翼殺手》和《終結(jié)者》系列的好萊塢電影給我們灌輸了這樣一種恐懼感:人工智能會(huì)突破編程,把矛頭指向人類。對(duì)于一個(gè)今年有望創(chuàng)造超過1萬億美元商業(yè)價(jià)值,到2022年,將創(chuàng)造近4萬億美元價(jià)值的行業(yè)來說,任何對(duì)其倫理含義的重大疑慮都會(huì)產(chǎn)生巨大的影響。
人工智能是一個(gè)熱詞,并已經(jīng)對(duì)許多行業(yè)產(chǎn)生了明顯的影響——尤其是那些依賴大量體力勞動(dòng)的行業(yè)。隨著人工智能技術(shù)日趨成熟,企業(yè)繼續(xù)加大對(duì)其投資,一些人擔(dān)心,人們對(duì)這項(xiàng)技術(shù)更廣泛的社會(huì)和道德影響未給予足夠的關(guān)注。美國(guó)全國(guó)廣播公司因此專門邀請(qǐng)了幾位專家,對(duì)此進(jìn)行討論,探索了他們認(rèn)為最駭人的五種人工智能發(fā)展前景。
一、全球性失業(yè)
分析人員和工人普遍擔(dān)心人工智能的廣泛應(yīng)用將造成全球性的失業(yè),因?yàn)楣ぷ髟絹碓阶詣?dòng)化,不再需要大量人工勞動(dòng)力。
英國(guó)愛丁堡大學(xué)信息學(xué)院教授Alan Bundy表示,“失業(yè)可能是人們最大的擔(dān)憂。人們需要精心策劃一系列非常有針對(duì)性的應(yīng)用程序,并找出這些程序無法處理的邊緣案例,但這并不能取代預(yù)期的大規(guī)模失業(yè)——至少在很長(zhǎng)一段時(shí)間內(nèi)都不會(huì)。”
人工智能的支持者說,這項(xiàng)技術(shù)將創(chuàng)造新的就業(yè)機(jī)會(huì)。新技術(shù)的復(fù)雜性需要合適的人才來開發(fā),因此,對(duì)工程師的需求將會(huì)增加。他們還表示,為了在日常工作中發(fā)揮新的作用,人類也必須使用人工智能。
高德納咨詢公司預(yù)測(cè),到2020年,人工智能將創(chuàng)造230萬個(gè)工作崗位,同時(shí)減少180萬個(gè)崗位——凈增加50萬個(gè)崗位。但這并不能否認(rèn)人工智能造成全球大規(guī)模裁員的可能性。
2013年,英國(guó)牛津大學(xué)一項(xiàng)研究指出,一些最可能被替代的工作包括經(jīng)濟(jì)業(yè)務(wù)人員、銀行出納員、保險(xiǎn)承銷商以及稅務(wù)籌劃員——這些工作雖然技術(shù)性不強(qiáng)但很關(guān)鍵,能維持金融行業(yè)的運(yùn)轉(zhuǎn)。
盡管可以通過提高技能和創(chuàng)造新的工作崗位——甚至可能引入一種普遍的基本收入來最大限度地減少人工智能對(duì)勞動(dòng)力市場(chǎng)的損害,但很明顯,失業(yè)問題不會(huì)很快解決。
二、戰(zhàn)爭(zhēng)
隨著“殺手機(jī)器人”的出現(xiàn)以及人工智能在軍事領(lǐng)域中的運(yùn)用,專家擔(dān)憂,這項(xiàng)技術(shù)可能最終會(huì)導(dǎo)致戰(zhàn)爭(zhēng)。特斯拉CEO埃隆?馬斯克(Elon Musk)因其對(duì)人工智能直言不諱的觀點(diǎn)而聞名。去年,他警告,人工智能可能會(huì)導(dǎo)致第三次世界大戰(zhàn)。
雖然馬斯克以夸張言論著稱,但他的評(píng)論卻傳達(dá)了專家們的真實(shí)恐懼。一些分析人員和活動(dòng)家認(rèn)為,致命自主武器的研發(fā)和人工智能在軍事決策中的使用造成了大量的倫理困境,增加了爆發(fā)以人工智能為主導(dǎo)的戰(zhàn)爭(zhēng)的可能性。
甚至還有一些非政府組織致力于禁用此類機(jī)器。2013年成立的“禁止殺人機(jī)器人”團(tuán)體呼吁政府阻止人工智能驅(qū)動(dòng)的無人機(jī)和其他工具的研發(fā)。今年年初,美國(guó)國(guó)防智庫蘭德公司在一項(xiàng)研究中警告說,在軍事領(lǐng)域中應(yīng)用人工智能可能會(huì)在2040年引發(fā)一場(chǎng)核戰(zhàn)爭(zhēng)。
阿姆斯特丹自由大學(xué)人工智能研究院Frank van Harmelen表示,“我認(rèn)為‘駭人’這個(gè)詞唯一能使用的領(lǐng)域是自主武器系統(tǒng)…那些看起來像機(jī)器人,也可能不像機(jī)器人的系統(tǒng)。任何自動(dòng)決定生死的電腦系統(tǒng),不管是人工智能還是非人工智能——例如發(fā)射導(dǎo)彈——都是非??膳碌南敕?。”這種大膽預(yù)測(cè)背后的真相是,如果軍事人工智能系統(tǒng)在分析形勢(shì)時(shí)出錯(cuò),會(huì)導(dǎo)致各國(guó)做出魯莽的,甚至是災(zāi)難性的決策。
三、機(jī)器人醫(yī)生
雖然專家們大多同意人工智能在醫(yī)學(xué)領(lǐng)域的應(yīng)用益處良多,例如盡早診斷疾病,加快整體醫(yī)療體驗(yàn),但一些醫(yī)生和學(xué)者擔(dān)心,我們可能會(huì)過快地朝著數(shù)據(jù)驅(qū)動(dòng)的醫(yī)療實(shí)踐方向發(fā)展。學(xué)者們還擔(dān)心,人們對(duì)人工智能的期望過高,認(rèn)為它可以形成人類的智力,從而解決各種各樣的任務(wù)。
愛丁堡大學(xué)的Bundy表示,“到目前為止,所有的人工智能應(yīng)用都非常成功, 但應(yīng)用范圍很窄。”Bundy還表示,這些期望可能會(huì)給醫(yī)療保健等行業(yè)帶來可怕的后果。上周,一份引用了IBM內(nèi)部文件的健康刊物發(fā)布了一份報(bào)告。該報(bào)告顯示,IBM旗下的沃森超級(jí)電腦已經(jīng)提了許多“不安全且不正確的”癌癥治療建議,但該軟件被訓(xùn)練成只處理假設(shè)場(chǎng)景下的少量病例。
另一個(gè)令人擔(dān)憂的問題是,計(jì)算機(jī)占用和共享的數(shù)據(jù),以及使用這些數(shù)據(jù)實(shí)現(xiàn)應(yīng)用程序自動(dòng)化的數(shù)據(jù)驅(qū)動(dòng)算法可能會(huì)侵犯患者隱私。事實(shí)證明,數(shù)據(jù)的存儲(chǔ)以及分享是令人擔(dān)憂的。以“深度思考”(DeepMind)為例,2015年,這家谷歌旗下的人工智能公司與英國(guó)國(guó)家醫(yī)療服務(wù)體系(NHS)簽署了一項(xiàng)協(xié)議,獲得了160萬英國(guó)患者的健康數(shù)據(jù)。該協(xié)議意味著患者將他們的數(shù)據(jù)交給了公司,以提高其項(xiàng)目檢測(cè)疾病的能力。這也催生了一款名為Streams的應(yīng)用程序,該程序旨在檢測(cè)腎病患者,并在患者病情惡化時(shí)提醒醫(yī)生。
然而去年,英國(guó)隱私監(jiān)督部門信息專員辦公室(ICO)裁定,NHS和DeepMind之間的協(xié)議違背了數(shù)據(jù)保護(hù)法。ICO表示,作為協(xié)議的一部分,倫敦皇家自由醫(yī)院在使用患者數(shù)據(jù)的方式上缺乏透明度。
四、歧視
有些讀者可能還會(huì)記得Tay,一款由微軟開發(fā)的人工智能聊天機(jī)器人,它在兩年前引起了轟動(dòng)。
這個(gè)機(jī)器人有一個(gè)推特賬號(hào),一些用戶用了不到一天時(shí)間訓(xùn)練它發(fā)表攻擊性的推特,來支持阿道夫?希特勒和白人至上的觀念。這個(gè)錯(cuò)誤迫使微軟注銷了該賬號(hào),這一事件也引發(fā)了激烈的討論,即人工智能有存在歧視的可能性。
Walsh表示,歧視是科技帶來的一系列“意想不到的后果”之一。他說:“我們?cè)谟?jì)算程序中看到了意想不到的偏見,尤其是機(jī)器學(xué)習(xí),這種偏見有可能導(dǎo)致種族、性別歧視,而在過去的50多年里,我們一直試圖將這些偏見從我們的社會(huì)中消除。”
專家表示,這個(gè)問題涉及到把人工智能變成一個(gè)客觀、理性的思考者,不偏袒某一特定種族、性別。這是研究人員和開發(fā)人員一直在認(rèn)真考慮的問題。
IBM甚至有研究人員致力于解決人工智能領(lǐng)域的歧視問題。今年早些時(shí)候,IBM表示將發(fā)布兩個(gè)數(shù)據(jù)集,包含不同膚色的面部和其他面部特征,以減少人工智能面部識(shí)別系統(tǒng)的偏見。