三問(wèn)人工智能:考問(wèn)倫理規(guī)范 你會(huì)愛(ài)上機(jī)器人嗎
近來(lái),,美國(guó)一家公司生產(chǎn)的超仿真機(jī)器人Sophia在電視節(jié)目上與人類對(duì)答如流,,成為“網(wǎng)紅”機(jī)器人。對(duì)話中,,Sophia流露出的喜悅,、驚奇、厭惡等表情真實(shí)得令人贊嘆,網(wǎng)友驚呼:快和真人分不清了!
技術(shù)往往是一把雙刃劍,。人工智能在迅速發(fā)展的同時(shí),也帶來(lái)了一些困惑和挑戰(zhàn),。人工智能會(huì)產(chǎn)生自主意識(shí)和情感嗎?會(huì)不會(huì)因此給人類社會(huì)帶來(lái)沖擊?
法律爭(zhēng)議
假設(shè)無(wú)人車傷了人,,那么是開(kāi)發(fā)者負(fù)責(zé)還是駕駛公司負(fù)責(zé)
關(guān)于人工智能帶來(lái)的“倫理困境”,讓很多專家感到糾結(jié),。盡管這樣的場(chǎng)景在目前還只存在于設(shè)想中:一輛載滿乘客的無(wú)人駕駛汽車正在行駛,,遭遇一位孕婦橫穿馬路的突發(fā)狀況,如果緊急剎車可能會(huì)翻車傷及乘客,,但不緊急剎車可能會(huì)撞到孕婦,。這種情況下,無(wú)人車會(huì)怎么做?
如果司機(jī)是人,,那個(gè)瞬間完全取決于人的清醒判斷,,甚至是本能或直覺(jué)??僧?dāng)人工智能陷入人類“倫理困境”的極端情景時(shí),,其每一步都是通過(guò)算法設(shè)定好了的。
“無(wú)人車依靠的是人工智能大腦,,它目前不可能做超出人類算法中所設(shè)定范圍的行為決策,。”浙江大學(xué)計(jì)算機(jī)學(xué)院教授吳飛說(shuō),將全國(guó)每年的交通事故數(shù)據(jù)“喂”給計(jì)算機(jī),,人工智能可以學(xué)習(xí)海量數(shù)據(jù)里隱含的各種行為模式,。簡(jiǎn)單來(lái)說(shuō),,就是無(wú)人車會(huì)從以往案例數(shù)據(jù)庫(kù)中選取一個(gè)與當(dāng)前情景較相似案例,然后根據(jù)所選取案例來(lái)實(shí)施本次決策,。
但遇到完全陌生的情景,,計(jì)算機(jī)會(huì)怎么辦?“無(wú)人車第一個(gè)選擇仍然是搜索,即在‘大腦’中迅速搜索和當(dāng)前場(chǎng)景相似度大于一定閾
值的過(guò)往場(chǎng)景,,形成與之對(duì)應(yīng)的決斷,。如果計(jì)算機(jī)搜索出來(lái)的場(chǎng)景相似度小于閾值,即找不到相似場(chǎng)景,,則算法可約束無(wú)人車隨機(jī)選擇一種方式處理,。”吳飛說(shuō)。
“程序員可通過(guò)代碼來(lái)約定無(wú)人車如何做,,但這種約定始終要遵循普遍的社會(huì)倫理,。這個(gè)過(guò)程中,程序員要和倫理學(xué)家一同參與把關(guān),,程序員要將符合倫理的決策用代碼的形式體現(xiàn)出來(lái),,輸入到系統(tǒng)中。”吳飛認(rèn)為,。
無(wú)人車傷害了人類,,誰(shuí)來(lái)負(fù)責(zé)呢?
“當(dāng)前人工智能尚未達(dá)到類人智能或超人智能水平,不能將人工智能作為行為主體對(duì)待,。”浙江大學(xué)教授盛曉明說(shuō),,從技術(shù)角度看,現(xiàn)在技術(shù)實(shí)現(xiàn)層次還很低,,行為體出了問(wèn)題肯定只能找它的設(shè)計(jì)者,。從哲學(xué)角度看,賦予人工智能“主體”地位很荒誕,。“主體”概念有一系列限定,,譬如具有反思能力、主觀判斷能力以及情感和價(jià)值目標(biāo)設(shè)定等,。人工智能不是嚴(yán)格意義上的“智能”,。
“人工智能表現(xiàn)出來(lái)的智能以及對(duì)人類社會(huì)道德行為規(guī)范的掌握和遵循,是基于大數(shù)據(jù)學(xué)習(xí)結(jié)果的表現(xiàn),,和人類主觀意識(shí)有本質(zhì)的不同,。人工智能不是生物,構(gòu)不成行為主體,,傳統(tǒng)司法審判無(wú)法照搬到人工智能身上,。因此,人工智能不可以作為社會(huì)責(zé)任的承擔(dān)者,。”中國(guó)社科院社會(huì)學(xué)研究所副研究員趙聯(lián)飛持同樣觀點(diǎn),。
“以無(wú)人車為例,,究竟由人工智能開(kāi)發(fā)者負(fù)責(zé),還是無(wú)人駕駛公司負(fù)責(zé)甚至任何的第三方負(fù)責(zé),,或者這幾者在何種情形下各自如何分擔(dān)責(zé)任,,應(yīng)當(dāng)在相關(guān)人工智能的法律法規(guī)框架下通過(guò)制訂商業(yè)合同進(jìn)行約定,。”趙聯(lián)飛說(shuō),。
情感迷思
人與人工智能出現(xiàn)類夫妻、父女等情感,,將考問(wèn)現(xiàn)代倫理規(guī)范
科幻影迷一定不會(huì)忘記這幾個(gè)片段:電影《機(jī)械姬》的結(jié)尾,,機(jī)器人艾娃產(chǎn)生了自主意識(shí),用刀殺了自己的設(shè)計(jì)者;在電影《她》中,,人類作家西奧多和化名為薩曼莎的人工智能操作系統(tǒng)產(chǎn)生了愛(ài)情,。只可惜,西奧多發(fā)現(xiàn)薩曼莎同時(shí)與很多用戶產(chǎn)生了愛(ài)情,,二者所理解的愛(ài)情原來(lái)根本不是一回事,。
盡管科幻電影對(duì)人工智能的描述偏向負(fù)面,但它也在一定程度上表達(dá)了人類的焦慮和擔(dān)憂?,F(xiàn)實(shí)中,,人工智能會(huì)擁有自主意識(shí),和人類會(huì)產(chǎn)生情感嗎?
“這要取決于如何界定‘產(chǎn)生’一詞,。人工智能的自主性,,仍然取決于所學(xué)習(xí)的樣板和過(guò)程。正如阿爾法狗對(duì)每一步對(duì)弈的選擇是從海量可能棋局中選擇一種走法一樣,,這種自主在終極意義上是一種有限的自主,,它實(shí)際上取決于所學(xué)習(xí)的那些內(nèi)容。”在趙聯(lián)飛看來(lái),,人工智能意識(shí)和情感的表達(dá),,是對(duì)人類意識(shí)和情感的“習(xí)得”,而不會(huì)超過(guò)這個(gè)范圍,。
機(jī)器能不能超出對(duì)人類的學(xué)習(xí),,主動(dòng)產(chǎn)生意識(shí)和情感?吳飛認(rèn)為,以目前的研究來(lái)看,,這是遙不可及的,。但有一種假設(shè)的、可供探討的路徑是,,通過(guò)把人的大腦認(rèn)識(shí)通透,,就可以造一個(gè)像人的大腦一樣的機(jī)器出來(lái)。“遺憾的是,,我們對(duì)人的大腦如何產(chǎn)生意識(shí)和情感這些根本問(wèn)題還了解不夠,。”
人工智能越來(lái)越像人,,人類對(duì)機(jī)器有了感情怎么辦?
“人類是否會(huì)與人工智能產(chǎn)生感情,將取決于這種過(guò)程是否給人類帶來(lái)愉悅,。正如互聯(lián)網(wǎng)發(fā)展早期的一句常用語(yǔ)所說(shuō)——在互聯(lián)網(wǎng)上,,沒(méi)人知道你是一條狗。這表明,,當(dāng)人類在不知道溝通者的身份時(shí),,只要對(duì)方能夠給自己帶來(lái)愉悅,感情就可能產(chǎn)生,。”趙聯(lián)飛認(rèn)為,,這可能會(huì)對(duì)人類的交往模式帶來(lái)影響。比如說(shuō),,未來(lái),,知識(shí)型的人工智能可以回答人們能夠想到的很多問(wèn)題,從而導(dǎo)致個(gè)體學(xué)習(xí)方式,、生活方式乃至社會(huì)化模式的變革,。
假如人與人工智能出現(xiàn)類夫妻、父女等情感,,將考問(wèn)現(xiàn)代倫理規(guī)范,。“如果社會(huì)主流意見(jiàn)認(rèn)為這種關(guān)系符合倫理,人們可能傾向于以類似于夫妻,、父女之間的倫理準(zhǔn)則來(lái)調(diào)節(jié)二者之間的關(guān)系;但如果人們始終認(rèn)為,,人與人工智能之間的關(guān)系是人占主導(dǎo)地位的‘游戲關(guān)系’,那么相應(yīng)的倫理標(biāo)準(zhǔn)也就無(wú)從談起,。”趙聯(lián)飛說(shuō),。
未雨綢繆
專家建議完善人工智能技術(shù)規(guī)范和法律約束
面對(duì)人工智能帶來(lái)的種種沖擊,專家認(rèn)為,,上世紀(jì)50年代美國(guó)科幻小說(shuō)家阿西莫夫提出的機(jī)器人三大定律,,今天依然有借鑒意義。這三大定律是:機(jī)器人不得傷害人,,也不得見(jiàn)人受到傷害而袖手旁觀;機(jī)器人應(yīng)服從人的一切命令,,但不得違反第一定律;機(jī)器人應(yīng)保護(hù)自身的安全,但不得違反第一,、第二定律,。
“歸根結(jié)底,人是智能行為的總開(kāi)關(guān),。”吳飛認(rèn)為,,人類完全可以做到未雨綢繆,應(yīng)對(duì)人工智能可能帶來(lái)的威脅。
“開(kāi)發(fā)者應(yīng)該始終把人工智能對(duì)社會(huì)負(fù)責(zé)的要求,,放在技術(shù)進(jìn)步的沖動(dòng)之上,。正如生物克隆技術(shù),從提出克隆技術(shù)那一天開(kāi)始,,克隆的社會(huì)倫理問(wèn)題就始終優(yōu)先于克隆的技術(shù)問(wèn)題,。”趙聯(lián)飛認(rèn)為,人類應(yīng)該在開(kāi)發(fā)人工智能的過(guò)程中,,逐步積累控制人工智能的經(jīng)驗(yàn)和技術(shù),,尤其是防止人工智能失控的經(jīng)驗(yàn)和技術(shù)。
在技術(shù)上加強(qiáng)對(duì)人工智能的控制是完全可行的,。“人工智能盡管日益高級(jí),,但究其根本,,仍然是在智能程序?qū)Υ罅繑?shù)據(jù)處理基礎(chǔ)上得到的結(jié)果,。進(jìn)行編程時(shí),開(kāi)發(fā)者可以通過(guò)程序?qū)ζ溥M(jìn)行安全設(shè)置,。比如,,如果識(shí)別出來(lái)是人類,要自動(dòng)保持距離;不能做出攻擊性動(dòng)作,,從力學(xué)幅度上予以約束,。”中科院自動(dòng)化所研究員孫哲南說(shuō),還可以把人類的法律規(guī)范和道德要求用代碼的形式寫(xiě)入機(jī)器,,全部數(shù)字語(yǔ)言化,,使其遵守人類的行為準(zhǔn)則。
“除了設(shè)計(jì)和建造要遵循技術(shù)規(guī)范,,還可由政府有關(guān)部門(mén)牽頭,,成立由人工智能技術(shù)專家、社會(huì)科學(xué)研究人員,、政府管理人員為核心的人工智能管理委員會(huì),,對(duì)涉及人工智能的研究和開(kāi)發(fā)項(xiàng)目進(jìn)行審核評(píng)估,嚴(yán)格控制從技術(shù)轉(zhuǎn)化為產(chǎn)品的環(huán)節(jié),。”趙聯(lián)飛認(rèn)為,,此外,應(yīng)從多個(gè)方面加強(qiáng)對(duì)人工智能的研究,,跟蹤,、了解人工智能的發(fā)展趨勢(shì)和實(shí)踐,開(kāi)展以未來(lái)學(xué)為基本范式的研究,。(劉詩(shī)瑤)
責(zé)任編輯:葉著