英國英國標(biāo)準(zhǔn)協(xié)會(簡稱
BSI)標(biāo)準(zhǔn)BS8611的目標(biāo)——《機(jī)器人和機(jī)器系統(tǒng)的倫理設(shè)計(jì)和應(yīng)用指南》中提到“機(jī)器需要講道德”。該標(biāo)準(zhǔn)主要針對機(jī)器人設(shè)計(jì)研究者和制造商,指導(dǎo)他們評估機(jī)器人的道德能否融入人類社會。

實(shí)際上,機(jī)器人倫理,面露著許多嚴(yán)肅和艱巨的挑戰(zhàn),甚至可能動搖人類文明的根基。當(dāng)遠(yuǎn)超于人類能力的機(jī)器有了類似人的情感,如何能確保人類的主導(dǎo)地位?他們變壞怎么辦?

在現(xiàn)實(shí)世界中,“機(jī)器變壞”的憂慮仍然存在。今年3月,微軟公司上線了一款叫“泰”的聊天機(jī)器人,幾小時(shí)后又被迫將它下線。原因是“泰”不斷爆出種族歧視、性別歧視之語。

據(jù)了解,“泰”的聊天才能來自深度學(xué)習(xí)技術(shù)。這項(xiàng)技術(shù)不再通過編寫程序,讓機(jī)器按照某種既定方式完成任務(wù)。面對問題,機(jī)器將通過模擬高達(dá)數(shù)十萬次不同的解決方式,自己探索出成功策略。

這需要海量數(shù)據(jù)的支撐,很多數(shù)據(jù)來自用戶,更多來自整個互聯(lián)網(wǎng)。而這些數(shù)據(jù)既包含著道德上“對”的,也有“不對”的?!疤钡睦兹酥Z,就是從和他聊天的壞家伙那里學(xué)來的。

這讓人不禁思考:機(jī)器學(xué)習(xí)人的智慧做得比人;當(dāng)他們開始學(xué)習(xí)人性中的惡時(shí),我們將面對一個怎樣的未來呢?

相對于可能發(fā)生的噩夢,離我們更近的麻煩,可能是人工智能對善惡標(biāo)準(zhǔn)帶來的挑戰(zhàn)。當(dāng)機(jī)器以人的形態(tài)越來越融入人類社會,人類社會道德概念的外延被擴(kuò)寬了。

科幻作家艾薩克·阿西莫夫在自己的科幻小說《我,機(jī)器人》里討論了數(shù)個更加復(fù)雜的機(jī)器人倫理問題。女主人公達(dá)爾文博士依靠機(jī)器人三定律屢破困局:

機(jī)器人不得傷害人,也不得見人受傷害而袖手旁觀;

機(jī)器人必須服從人的一切命令,但不得違反定律;

機(jī)器人應(yīng)保護(hù)自身的安全,但不得違反、第二定律。

這三條定律被確定在機(jī)器人的邏輯電路中,容不得一點(diǎn)修改。而在現(xiàn)實(shí)世界中,這三條小說的產(chǎn)物也已經(jīng)在人工智能的實(shí)際研究中被應(yīng)用。

此次的《機(jī)器人和機(jī)器系統(tǒng)的倫理設(shè)計(jì)和應(yīng)用指南》,是在技術(shù)發(fā)展的新時(shí)代,對三定律更詳細(xì)的延伸。這項(xiàng)指南究竟能不能發(fā)揮效用還待觀察。比如,它建議設(shè)計(jì)者增強(qiáng)機(jī)器工作的透明性。但科學(xué)家們覺得太懸了——深度學(xué)習(xí)系統(tǒng)作出決策的過程太復(fù)雜,有時(shí)候連系統(tǒng)的設(shè)計(jì)者都難以理解。