要解決人工智能面臨的倫理瓶頸,還必須承認(rèn)矛盾的普遍存在,在人機(jī)交互試驗中求同存異。一方面,不僅要重視不同文化間潛在的共性與聯(lián)系,更不能忽視區(qū)域因素帶來的文化上的差異。不同文化的形成、傳播與擴(kuò)散方式,決定了文化間碰撞時的相互聯(lián)系、相互制約、相互作用與相互轉(zhuǎn)化。積極研究文化間“和而不同”、甚至“不和”的因素,是將抽象的人機(jī)對話轉(zhuǎn)化為機(jī)器人具體、獨立地進(jìn)行“人性化作業(yè)”的必由之路。另一方面,不僅要追求計算機(jī)性能與人類需求的最大交集,更要敢于面對人機(jī)之間看似不可逾越的鴻溝。只有深入研究和掌握人類思維模式與機(jī)器思維模式的相異之處,才能為消弭人機(jī)矛盾打造堅實的基礎(chǔ),才能深化對人工智能的探索,將認(rèn)識從感性層面提升到理性層面。
最后,要解決人工智能面臨的倫理瓶頸,必須明確主體的倫理需求,實現(xiàn)主體與客體的統(tǒng)一。馬克思主義認(rèn)為,明確主體自身需要是主客體統(tǒng)一的前提。客體“應(yīng)怎樣”,從根本上取決于主體“要什么”。有趣的是,我們希望機(jī)器人能夠提供客觀公允的服務(wù),但是卻無法提供一套放之四海而皆準(zhǔn)的規(guī)范,甚至我們自己都常常在道德選擇題前手足無措,不是嗎?機(jī)器人鐵面無私地執(zhí)行芯片上的倫理判斷,并對人類的倫理學(xué)進(jìn)行監(jiān)督和質(zhì)疑:人類究竟要追尋怎樣的倫理標(biāo)準(zhǔn)?難道許多符合倫理標(biāo)準(zhǔn)的行為無法得到人類情感的辯護(hù)嗎?難道一些明顯的禁錮新思想的舊倫理不該被取締嗎?幸虧機(jī)器人不發(fā)問,否則我們何其汗顏。如果有一天,人工智能發(fā)展到可以體驗人類情感的地步,機(jī)器人能夠運用自己的思維而不是倫理芯片進(jìn)行道德判定,在這“第三雙眼睛”的監(jiān)視下,我們能否會像自己宣稱的,做到絕對的公正與公平?
不過話說回來,也許真到了機(jī)器人能夠“辯證的決策”的那一天,它們會替我們給出關(guān)于這些問題最完美的解答,誰知道呢?
不過話說回來,也許真到了機(jī)器人能夠“辯證的決策”的那一天,它們會替我們給出關(guān)于這些問題最完美的解答,誰知道呢?










共0條 [查看全部] 網(wǎng)友評論