要解決人工智能面臨的倫理瓶頸,還必須承認矛盾的普遍存在,在人機交互試驗中求同存異。一方面,不僅要重視不同文化間潛在的共性與聯系,更不能忽視區域因素帶來的文化上的差異。不同文化的形成、傳播與擴散方式,決定了文化間碰撞時的相互聯系、相互制約、相互作用與相互轉化。積極研究文化間“和而不同”、甚至“不和”的因素,是將抽象的人機對話轉化為機器人具體、獨立地進行“人性化作業”的必由之路。另一方面,不僅要追求計算機性能與人類需求的最大交集,更要敢于面對人機之間看似不可逾越的鴻溝。只有深入研究和掌握人類思維模式與機器思維模式的相異之處,才能為消弭人機矛盾打造堅實的基礎,才能深化對人工智能的探索,將認識從感性層面提升到理性層面。
最后,要解決人工智能面臨的倫理瓶頸,必須明確主體的倫理需求,實現主體與客體的統一。馬克思主義認為,明確主體自身需要是主客體統一的前提。客體“應怎樣”,從根本上取決于主體“要什么”。有趣的是,我們希望機器人能夠提供客觀公允的服務,但是卻無法提供一套放之四海而皆準的規范,甚至我們自己都常常在道德選擇題前手足無措,不是嗎?機器人鐵面無私地執行芯片上的倫理判斷,并對人類的倫理學進行監督和質疑:人類究竟要追尋怎樣的倫理標準?難道許多符合倫理標準的行為無法得到人類情感的辯護嗎?難道一些明顯的禁錮新思想的舊倫理不該被取締嗎?幸虧機器人不發問,否則我們何其汗顏。如果有一天,人工智能發展到可以體驗人類情感的地步,機器人能夠運用自己的思維而不是倫理芯片進行道德判定,在這“第三雙眼睛”的監視下,我們能否會像自己宣稱的,做到絕對的公正與公平?
不過話說回來,也許真到了機器人能夠“辯證的決策”的那一天,它們會替我們給出關于這些問題最完美的解答,誰知道呢?
不過話說回來,也許真到了機器人能夠“辯證的決策”的那一天,它們會替我們給出關于這些問題最完美的解答,誰知道呢?
共0條 [查看全部] 網友評論