阿米爾·侯賽因是IBM“沃森”認(rèn)知計(jì)算平臺(tái)顧問(wèn),也是一位發(fā)明家、計(jì)算機(jī)科學(xué)家和企業(yè)家。侯賽因和比爾·蓋茨、馬斯克等名人的觀點(diǎn)不同,他認(rèn)為人工智能不是一種威脅,而是人類進(jìn)步的又一個(gè)階梯,只有人工智能才能保護(hù)人類不受人工智能的傷害。
侯賽因認(rèn)為,人們對(duì)人工智能的擔(dān)心主要基于三點(diǎn)。
首先,人們害怕控制不了人工智能,擔(dān)心會(huì)像一些好萊塢大片演的那樣,人工智能將出現(xiàn)意識(shí),取代人類控制世界?!笆聦?shí)上,我們現(xiàn)在的技術(shù)遠(yuǎn)沒(méi)有達(dá)到那樣先進(jìn)的地步,人們的恐懼來(lái)源于并不存在的技術(shù),更多的是對(duì)想象的恐懼,而不是現(xiàn)實(shí)?!?/span>
其次,人們會(huì)擔(dān)心人工智能有了意識(shí)之后,會(huì)有自己的目標(biāo),在實(shí)現(xiàn)目標(biāo)的過(guò)程中不管人類的遭遇,最終成了毀滅人類的惡魔。但侯賽因說(shuō),這也只是人類的推測(cè),人們覺(jué)得人工智能會(huì)出現(xiàn)像本·拉登、希特勒這樣的惡魔,這是用人類思維來(lái)推測(cè)人工智能,而人工智能并不是按人類的方式思考的。
最后,侯賽因認(rèn)為,毀滅人類的技術(shù)其實(shí)已經(jīng)存在了,比如核技術(shù),但人類仍然在用核技術(shù)為社會(huì)發(fā)展提供便利。所以,人工智能也一樣可以被我們所用。目前為止,人工智能真正帶來(lái)的危險(xiǎn)不是毀滅人類,而是對(duì)就業(yè)的影響,以及在軍事方面的應(yīng)用。
此外,侯賽因說(shuō),當(dāng)人工智能應(yīng)用越來(lái)越廣泛時(shí),當(dāng)人工智能涉及到昂貴設(shè)備的運(yùn)行、生與死的問(wèn)題、城市的力量和整個(gè)物質(zhì)系統(tǒng)等重大問(wèn)題時(shí),我們要做的是增加算法運(yùn)行的解釋,要說(shuō)明如何運(yùn)行以及為什么。比如,一家公用設(shè)施公司花巨資購(gòu)買(mǎi)了一個(gè)渦輪機(jī),當(dāng)自動(dòng)監(jiān)測(cè)系統(tǒng)發(fā)現(xiàn)異常時(shí),會(huì)給出停止運(yùn)行渦輪機(jī)的指令,但公司不會(huì)武斷地停止這么昂貴的機(jī)器,公司需要知道為什么會(huì)出現(xiàn)異常以及停止的理由。再比如人工智能在軍事上的應(yīng)用,當(dāng)自動(dòng)化武器瞄準(zhǔn)某個(gè)物體時(shí),需要說(shuō)明為什么這個(gè)物體是攻擊目標(biāo)。