2044年冬

「嗨,老爸。」理查德朝我揮了揮左手,然後在我床邊的椅子上坐下來。

「嗨。」我盯著他看了好一會兒,盡情欣賞著我兒子的樣貌。理查德是個長相英俊的男子,淡褐色的眼睛跟他媽媽的一樣,一頭金色的頭髮總能讓我想起金絲線。他已經三十五六歲了,但臉上依然會隱約閃現點點雀斑的痕跡。這些雀斑在他還是小孩子的時候就有了,只要一笑,就能顯露出來。天哪,我是有多麼愛我的兒子。

這也是為什麼我對於他派了個克隆了其神經網絡意識的人形機器人來探望我,而不是自己親自來而感到十分氣惱。

我倆都坐著沉默不語。我望向窗外,看到了新澤西莫裡斯敦的老年生活輔助中心外面的田野。時值一月,大地覆蓋上了薄薄的一層霜,了無生氣的楓樹梢上,風在沙沙作響。如果能體驗那寒冷的風吹過我臉頰的感覺,享受散步時腳下的冰霜吱吱作響的時刻,那該有多好。但我有支氣管炎,天冷的時候就會犯,所以他們不讓我出去。我在跑步機上散步時,上面播放的虛擬田野逼真得令人驚奇,但不會讓我感受到寒冷。生物計量工具會監測我下肢的體溫,而且它們還能把季節從冬天調到春天。偶爾這樣一次的話倒也還好,但我想體驗一下真正的寒冷,從而更好地享受隨後的溫暖。我想用自己的感覺刺激我的記憶——那些深埋在我身體裡的記憶——我不大確定它們還在不在。

「你是怎麼看穿的,老爸?」理查德的人形機器人攤了攤手,表示猜不出來,「我還以為我能在你發現之前多聊聊呢。」

我清了清嗓子:「理查德習慣用右手。他從來不揮左手,從小就這樣。」

我停頓了一下,這時,走廊上有一個糞便機器人從我門前駛過,履帶平穩的呼呼聲如同古老的火車駛過的聲音一樣,令人倍感舒心。他不介意我叫他糞便機器人。程序員給他安裝了許多笑話,以便在他幫助病人上廁所時緩解尷尬的氣氛。當我第一次看到這個看起來很像複印機的東西叫我把褲子脫了的時候,我渾身都是雞皮疙瘩,但當他說「別緊張——我可是個好東西(a good shit)」時,我大聲地笑了起來。這個機器還會進行微生物組檢測,通過分析大便的細菌群來確保病人的飲食健康。雖然我知道,我是靠自己的個人數據才能支付得起這裡的租金,但對於自己的排便行為變得如此公開,我還是表示了輕蔑。這時,「糞便」又說了一個笑話:「被你發現了,約翰——我就是個密探使!」然後,他大笑起來,笑聲渾厚而又有感染力,我實在沒辦法再跟他生氣了。他的設計還讓他盡可能地大到能夠舉起600磅[1]的重量,從而當有什麼不測發生的時候,他能夠給病人清潔身體並更換床單。這也是我最需要機器人的地方。隨著年齡的增大,我們的身體會出現各種各樣的毛病,而其中的大多數都和如廁有關。這彷彿是在不厭其煩地告誡我自己是個人。

經過深思熟慮,我執意決定不對自己的思維進行克隆,即把數字版的自己植入人形機器人替身的身上。這個決定讓我付出了離婚的代價。芭芭拉覺得我太自私,不讓她和孩子們擁有訪問我所有數字記憶與身份的永久權利。她還覺得,我的行為證明了我為梅拉妮進行了超人類手術而感到羞愧,但我並沒有。多年來,梅拉妮的身體裡不斷安裝了越來越多的硬件和軟件。她在努力適應的過程中,一直對我都非常有耐心。她明白我的擔憂,勸我不要害怕。她的同理心及其獨特的生活背景使她追隨了我父親的腳步,成了第一代精神物理學家,這是一個綜合了精神病理分析和物理學實證推理的職業。這使她能夠對全人類、半人類(超人類)或本質上是算法的病人進行心理分析與治療。

我父親曾是一位精神病醫生,所以從小就有人開玩笑地問我,他給我進行精神分析是不是免費的。現在,我又得應對有關我女兒的這類問題。很多時候,在我們說話時我都會讓她把生物計量傳感器關掉,原因亦在於此。有時我很欣賞她與生俱來的技術,有時也能看到她在與芯片一同成長的過程中不斷積累的人類智慧。有的時候,她會出現在各種超人類組織的兒童海報上。芭芭拉鼓勵她這樣做,但我一直竭力反對。雖然我不會因為梅拉妮的芯片而感到羞愧,但我也不想讓芯片對她的童年產生過多的影響(比如,高中時就有個渾蛋在她腦門上放了一塊強力磁鐵)。然而梅拉妮非常沉著地接受了自己的處境,這在高中學校引發了一場反對霸凌的運動,還促使了關注超人類關係的非營利組織的成立,為她贏得了去紐約大學的獎學金。我為我女兒感到非常自豪,也愛她身上的每一個比特。(是的,我是故意這樣說的。這是我們之間的玩笑。每個「比特」既是字面意思,也是比喻意思。)

理查德起身準備離開,把我從幻想中拉了回來。「好吧,老爸。被你發現了。我是『冒牌』理查德。」思維克隆體身上都裝有情緒程序,所以「理查德二世」的聲音中透露出聽起來很真實的惱怒。「我猜我們就是不能好好地聊天,好好地相處一段時間。」

「因為你是奇怪的軟件!」我說話聲音太大,血壓上來了。這立馬引來了我的機器人侍從「胡椒」。他身高近1米,是個非常討人喜愛的機器人,於2014年在日本設計而成,專門用來照顧老年人。他站在門口,探出腦袋,睜大著眼睛,表現出設定好的擔憂,「這裡沒什麼事吧?」我極力保持鎮靜,因為跟現在的大多數機器人一樣,胡椒是有雲連接的,他體驗到的所有東西都會被傳到中央服務器,中央服務器會對全世界所有胡椒機器人傳來的綜合數據進行分析並重新發佈。這是一種超級監控形式,儘管在面臨過坐牢的威脅之後,我已經不再朝胡椒扔襪子了(因為現在的機器人和人類居民享受同樣的待遇),但我仍然沒有適應。「我們沒事,胡椒。只不過是我這個老傢伙又表現出不理性的人性特徵而已。」

胡椒搖了搖頭,「再說這樣帶有人類主義色彩的話,我們就剝奪你的咖啡特權了,約翰。」「人類主義」(fleshist)和「種族主義」(racist)這個詞性質一樣,後者指的是人類發表針對機器的消極言論的行為。我習慣了講一些反機器人的笑話,但一想到喝不到拿鐵的威脅,我就閉嘴了。胡椒朝理查德點了點頭,然後便從屋裡走開了。走廊裡傳來他的機械腳發出的輕輕的「卡嗒卡嗒」聲。

「對不起,第二。」我們稱呼理查德的思維克隆體為「理查德二世」或者「第二」,「理查德不親自來看我,這讓我很難過。我不是故意要拿你出氣的。」

理查德笑了笑,「我理解。但你要知道,你倆真在一起的話,除了爭吵還是爭吵。在整個看望你的期間,你會因為他造出了個我而一直責罵他。」

「不是因為他造出了你。」我說道,一邊撓了撓手背上輸液針孔周圍紅腫的皮膚。我嚥了嚥口水,清了清嗓子說:「而是我感覺是因為我這個做爸爸的不夠好,所以他才給自己做了個副本。他和他媽媽所做的其實是一種逃避。」

理查德朝我走過來,把手搭在床邊的護欄上。他的手指接觸到冰冷的金屬立馬變成了粉色。我一直都非常驚奇,這個理查德看起來是那麼「真實」。

「時代不同了。如今我們可以幫忙做很多單調枯燥的工作,機器人就是擅長做這個。」

我抽了張紙,擦了擦流出來的鼻涕。「這麼說,我就是那種單調枯燥的工作,是嗎,第二?」

「我不是這個意思。」

「你是什麼意思根本不重要。你的意志都是算法設計的。你的設計就是為了安慰我,而不是幫我。」

「有時候,這是一回事。」理查德說道。

我把用過的紙巾丟到一邊,試著把它丟到地板上,以免負責打掃的清潔機器人過來一把奪過去。這個圓形的機器人飛掠過地板,頂上的開口把紙巾快速奪過去,然後又消失在床底下。它從未失過手。

「順便問下,難道這不會讓你惱火嗎?」我問道,「所有的人工智能專家都在說機器和自動化可以讓人類專注於自己的愛好或目的,或者隨便他們這些自私自利的傢伙說的什麼鬼話。這裡隱含的意思就是,機器人存在的目的就是為我們干髒活兒。難道這不是人類主義嗎?雖然我也無知,但至少我很坦率。我會跟你說我害怕有感知能力的機器人。但你的人工智能父母卻說,你應該讓我們的生活變成烏托邦式的神話,這意味著你要屈從於人類。這怎麼可以容忍呢?我說的對嗎,第二?如果這還不算嚴重混亂、不擇手段的權術邏輯的話,請你糾正我的看法。」

第二停頓了一會兒,手指敲著床邊的護欄,歎了口氣,「首先,老爸,我希望你能別說髒話。我知道你覺得這樣說很形象,但對我的程序來說,這是非常不雅的言辭,就跟壞代碼似的。而且,雖然機器究竟是會體驗情感還是僅僅模仿情緒的問題還有待討論,但我非常希望你在說到我時能不用髒話。」

「好的,」我有些疑惑地答道,「我盡量。」

「謝謝。你看,你寫技術文章也已經很多年了。我們都知道這東西非常複雜,而且機器也有很多種類,就跟人一樣。」

「但在亞馬遜倉庫或其他血汗工廠裡工作的機器受到的待遇都很可怕,」我說道,「你看過YouTube上的視頻——人類管理者用大錘敲打流水線上的機器人。那它們的權利呢?難道這不會讓你生氣?」

「這當然會讓我生氣,就跟你看到泰國的狗被圍趕著壓成肉醬的視頻一樣生氣。」

「但是,第二,」我回應道,「狗是有生命的,它們是真的。」

理查德把手舉起來,在我眼前晃了晃,「這難道不是真的嗎?你又沒有戴著虛擬現實頭盔。」

「你知道我的意思。」

「我是個機器人。機器人沒有眼睛嗎?機器人沒有手、三圍、感覺、情感、激情——」

「別這樣。」我舉起手,讓他住嘴,「別引用莎士比亞的話,你知道我曾經是個演員。你不能拿《威尼斯商人》裡『我是個猶太人』的言論作比喻。如果我刺一下你的話,你可能會流血,但我們都知道那只是紅寶石色的生理鹽水。另外,你吃東西也只是一種表演。收銀台旁邊賣的那些給機器人的能量棒,事實上是真的能量棒——雖然你們看起來是在吃,但其實只不過是反覆地把電池插入嘴裡的USB接口而已。這是很奇怪的。」我向前傾了傾身子,「第二,你不是人。你是我兒子的一個映像、一種模仿。雖然我很欣賞你的技術,但這抹殺不了『你不是他』的事實。」

理查德往後退了一步,點點頭,「我猜,在這種事情上,我們還是各自保留自己的看法吧。我明白你的意思,但我覺得這對你適應大勢所趨的事實沒什麼幫助。」他往椅子那裡走去,開始穿外套。我認出來這件外套跟我幾年前送給理查德一世的聖誕節禮物是一樣的。「顯然,我來探望你也沒什麼幫助。我肯定理查德會想看我錄下來的這次探望的精彩片段,然後我們再決定怎麼做。但或許我應該不再來看你。你知道,我真的想尊重你的意願。」

他穿好了外套,正準備揮揮左手,可突然停了下來,對我笑了笑,換成右手,走出了房間。

「第二!」他剛剛消失不見,我便大喊道。

他往後仰著身子,探進屋裡,「怎麼了,爸爸?」

「千萬別不來。」我坐了起來,床嘎吱作響,聲音很尖銳,「但我想給理查德一世留個言,你們說話時,你放給他聽,好嗎?」

「好的,」理查德說道,回身進了屋裡,「開始吧。」

我盯著理查德的眼睛,就跟盯著Skype電話的視頻攝像頭一樣。然後我舉起了手,豎起了我的中指。「理查德一世,我們說清楚。你是個懦夫。理查德二世可能說的很對——你來的時候,我們或許還會大吵一架,但我們確實需要大吵一架。有種就過來看看你老爸,不然就太晚了。」我放下手,「謝謝你,第二。」

理查德歎氣道:「沒事,我敢肯定他會喜歡這個留言的。」

我笑了笑,回應他的諷刺。人工智能專家說人類的許多特性都是機器永遠複製不出來的——諷刺就是其中之一。「第二。」我說道。

「怎麼了,爸爸?」

「下次你來看我的時候,別裝作是我兒子,你不是。我知道你有和他一樣的記憶,但同時你也是一個非常先進的學習機制,能夠創造並處理現實和虛擬世界裡的獨特數據。我不知道人們怎麼能覺得你會從一出生就願意一直作為某個人的副本——或者不管你到底怎麼稱呼它——而存在。」

「說『創造』才合適。」理查德說。

「呃,理查德,我這個老人給你一些建議。聽不聽隨你。我覺得,你應該停止給我兒子做髒活兒。如果你是真實的,而且想幫助人類的話,那麼請不要讓我們逃避難題,因為這是我們成長所必需的。你可能會認為這些壞的行為就等於壞代碼,或者是需要被替代的東西,但這就是我們生活的方式。」

理查德沒有說話,皺著眉,陷入了沉思。他讓我想起了斯波克。

「期待我們下次見面,約翰。」

當思維克隆成為現實

這就是智能的定義:欺騙。「成功」的欺騙。「一定程度上」成功的欺騙。30%!我們的守護神阿蘭·圖靈發明這項測試的時候,就把標準定在了30%……我發現了這個數字所包含的重要信息,即它是某種成功的基準。如果你能恰好給一個人一定量的信息,並使對方在30%的情況下相信你就是他們認為的人——這就是智能。

——斯科特·哈欽斯,《愛的工作原理》

在小說《愛的工作原理》中,三十五六歲的主人公尼爾·巴西特在父親自殺之後,極力掙扎在這個世界上以求生存。他的工作就是根據父親留下的大量日誌,對人工智能程序進行訓練,使之通過圖靈測試。小說運用了如代碼一般的大段篇章,講述了一個二進制算法如何根據簡單指令進行「學習」的故事。在故事的高潮部分,巴西特博士(這是他們對該人工智能程序的稱呼,以尼爾父親的名字命名)獲得了小說人物所說的「存在感」,即人工智能程序超越了程序設計,從而獲得了感知能力。這部小說對主人公的塑造既哀婉動人又真實可信,非常引人入勝。我自己的父親也已經過世,很難想像如果他也是自殺的話,我該如何接受他的離去。而如果要通過研究他的日誌才能更好地瞭解他的話,我覺得我應該應付不了。

我就不繼續對比了。我記得在我父親去世後,我曾看過他的幾封信。其中有很多言辭都非常尖銳,尤其是他寫給我祖父說要去上大學的那封。而其他的大都很平常,描述的是和我母親在一起的細節,或者是工作上的瑣事。這些信中包含了他的各種想法、他的幽默和他的智慧,都是他對自己日常生活的反思。如果要我創造一個算法來研究這些信,然後製造出人工智能版的戴維·W·黑文斯的話,我相信應該會跟他本人的個性很相似。但我會永遠清醒地意識到這個人工智能只是一個偽造,是對他的一種模仿,而不是他本人。

話雖這樣說,我也相信這個算法可能會進化到讓我以為它就是我父親的地步,我沒騙你。這是個很誘人的想法。我每天都會思念我的父親,但正如哈欽斯書裡的那段話所說,我與我的人工智能父親之間的這種關係是建立在欺騙的基礎上的。只要兩個成年人——我和創造人工智能父親的程序員——同意,這種關係就可以產生,但從兩種層面上來說,這都只是一種詭計。

首先,當這個算法成熟到了看起來跟我父親一樣時,它也會產生它自己獨有的身份。它就不再是人工智能版的戴維·黑文斯了,而是曾被稱為戴維·黑文斯的人工智能。舉例來說,過去幾年裡,「伊斯蘭國」極端組織(ISIS)在敘利亞和伊拉克的活動日益猖獗,而在這之前我父親便去世了。人工智能版的戴維·黑文斯可能會問我什麼是「伊斯蘭國」,這樣他的數字知識就超過了我父親畢生所瞭解的知識。對這些事件的瞭解會更新他的程序,雖然它的「思考」方式類似於我父親,但它所進行的算法猜測可能並不是真正的戴維·黑文斯的想法。在這種情況下,我便能識別出人工智能是在模仿我父親的騙局。這會讓我產生一種失落感,就好比我再次失去了他一樣。

這就是這種人工智能關係所具有的又一層影響,而我們對此討論的還不夠多。通過讓機器為我們做事情,我們所失去的不僅僅是工作或生活的意義,更是在困境中成長的機會。對我而言,失去父親是我一生中經歷的最為艱難的事情,悲痛的感覺糟糕透了。整整一年的時間裡,那種悲痛無時無刻不在揪著我的心,影響著我的一舉一動。我看的每一部電影或電視劇都在講述父與子的故事,每次我打開收音機,聽到的都是哈里·查賓的《搖籃裡的貓》。我的體重大大增加了,工作也很艱難。事實上,父親的去世正值我的中年危機時期,它像打著聚光燈似的不斷地提醒我:「嗨,約翰——你是個凡人,你總有一天會死的。」

挺有趣的。

但很有必要。我想說這是不可避免的,而且思維克隆這個想法正一步步地成為現實。我們現在已經習慣了把家人的照片、在社交網站上發的帖子以及郵件都存儲在雲端。大多數人都知道「雲端」實際上指的是放置在某個實實在在的地方的服務器,它既是一種比喻,也是一種現實。我們的數字身份正在我們頭頂、在我們周圍漂浮著,伴隨著我們的生活而實時更新著。就和尼爾·巴西特利用持續更新的數據構建一種算法,從而複製出他的父親一樣,我們也在用類似的新方法構建著自己的雲端,雖然這還只是初期階段。

但我們現在所做的文件整理及儲存是為了回憶過去,而不是使過去再生。通過創造所愛的人來避免悲痛,這是完全可以理解的一種渴望,但這樣做的後果是我們此刻無法完全意識到的。雖然我們會自然而然地假設大多數人會先哀悼所愛之人,然後再慶祝他們的數字版替身的誕生,但還是會有很多人選擇直接省略掉哀悼的環節。

如果可以在機器人身上植入我們所愛之人的人格,而且圖靈測試會讓我們以為這個機器人是真的的話,那麼或許我們甚至會在某人去世之前,就開始選擇迴避他或她長期臥病在床的艱難。雖然有關DNR(拒絕心肺復甦)請求已有一些判例在先,但由於每個人對於複製的看法不一,這也就變得模糊不清了。當一個人無法自然呼吸時,讓他安靜地去世,這是一回事;而如果在現實生活中所愛的人身體變糟時創造一個思維克隆體,並以為只要按下開關,對方就「活了」這麼簡單,這又是另外一回事了。

在本章開頭的故事中,我其實是把那個老年生活輔助中心想像成那些不願意複製自己的人所待的地方。將來,我相信在很多人和思維克隆體的眼裡,那些不願克隆思維的人會被當成無知而又自私的人,這一點在故事中已有暗示。他們會被看成浪費資源的人,浪費著電和機器人的時間,而這些資源本來是可以用到其他地方的。或許在將來某個時候,像日本這樣人口極端過剩的國家,政府甚至會鼓勵公民結束生病的家人的肉體生命,而將其身份轉換成不那麼昂貴的數字格式。

隨著我們慢慢步入機器享有與人類同等的地位或公民身份的時代,我們會面臨各種各樣相當病態的決策,而這只是其中的一二。在這個過程中,最關鍵的一個想像是相信機器能夠獲得感知能力,或者說相信當人被複製時,還能夠保持自己獨一無二的身份或「靈魂」。請注意,我這裡所描述的騙局不是指某個人在這些事情上面的想法,而是指可能會產生某些無恥的政策,會全然不顧他人的意願而把這些想法強制執行。事實上,除了這些事情所引發的道德和法律上的糾紛之外,在當前的互聯網經濟下,我們的個人數據已經受到了威脅,而由於廣告恐怖谷效應,我們的心靈也受到了損害。對此,前文已有所敘述。

給機器人安一顆心

我們通常說有些人像個機器人,是因為他們沒有情感、沒有心靈。而自人類有史以來第一次,我們要給機器人安一顆心了。

這段話摘自日本軟銀集團總裁孫正義在2014年6月的一次講話。我在故事裡講到的「胡椒」機器人也是真的,它正是軟銀公司所創造的機器人產品。該機器人產品在2014年便開始面向大眾出售,售價在2 000美元左右。據《獨立報》刊登的一篇介紹胡椒的文章報道,軟銀聲稱該款機器人「通過借用一種『情感引擎』和基於雲技術的人工智能,能夠理解人類的情感」。

該文還指出,日本65歲及以上的人口比例超過了22%。這個國家的人口出生率還在不斷降低,造成了勞動力需求的不斷上漲。在這種情況下,機器人看起來自然是一個很好的選擇,尤其是它們身材較小,也不像人一樣需要休息。雖然胡椒被當成靈丹妙藥,但這還是不能緩解以下問題:

‧ 基於雲的情感人工智能技術意味著要在全國範圍收集個人數據。

‧ 機器人的使用會促進自動化,而日本的人類護工可能會被搶走飯碗。

‧ 軟銀的「情感引擎」可能很快就會對日本多個文化與經濟部門產生影響。

從孫正義先生對人和機器人的評論中,我們可以得出一些令人信服的解讀。他的邏輯簡單直接——很多人不會充分或適當地表達自己的情緒,所以機器應該取代他們。這肯定比試圖改變人們對情商的文化態度或者對人們進行相關的教育要容易得多。這樣的觀點會開創「硅谷主義」(siliconism,相對於「人類主義」而言)的先例。在「硅谷主義」思想下,缺乏情感是一種缺陷,需要由機器取代,哪怕這些機器的情感是工廠製造的。它還會促進賦予機器以人性的擬人主義的產生,從而賦予軟銀以極大的權力。

我曾對《機器人也是人》一書的作者約翰·弗蘭克·韋弗進行過採訪,對有關人工智能生產商及其產品的擬人性的偏見進行了探討:

一旦我們開始和機器對話,我們的談話,哪怕只是單方面的談話,就會刺激大腦中的相互交流機制。而如果是通過鍵盤敲出來的話,就不會產生這種作用。如果你說「去商店」,而自動駕駛汽車則會給我們一些話語回應,這時,我們就會把它們當成朋友或者寵物。那麼,如果谷歌得到了百事或者民主黨委員會的贊助的話,會發生什麼呢?當你和車的關係變得親密時,它可能就會給你一些建議,比如,「你覺得現在來杯可樂怎麼樣?」或者是,「你覺得新任民主黨候選人如何?」

通過胡椒的雲網絡進行傳遞的情緒數據將是無窮無盡的。雖然根據公司保密協議和數據政策,用戶可以不讓這些數據進行共享,但很多人可能不會採用現有的所謂的安全措施,以防止軟銀進行大規模的情緒數據搜集。儘管胡椒可能會幫助人們應對孤獨或其他問題,但這樣做是要付出人性的代價的。一旦證明了依賴機器比依賴他人能更好地滿足我們的情感需求,我們或許就完全不再願意花時間與他人相處了。

和機器人一起生活

我們的新玩意兒不用大費周章地「糊弄我們」,好讓我們以為他們是在與我們溝通;機器人專家已經發現了能讓我們自己糊弄自己的一些觸發因素。這不需要太多。我們已經做好冒險的準備了。

——雪莉·特克爾《群體性孤獨》

雪莉·特克爾是麻省理工學院科技與自我創新中心的創建者與主任,她還是一名執業臨床心理學家和作家。我發現,她的作品《群體性孤獨》對我們與機器人在一起生活的現實的描述最為清晰有力。

特克爾常常觀察孩子如何與「菲比」娃娃等機器人玩具進行互動,她的大部分研究都是以此為基礎的。菲比娃娃是一種專門設計的毛絨玩具,能夠從擁有它們的孩子那裡獲得刺激,然後據此進行情緒表達。儘管把物體擬人化的現象在任何年齡段的人群中都很常見,但在孩子中表現得尤其明顯。這意味著孩子們可能會和他們的菲比娃娃建立起一種複雜的關係,尤其是他們會對玩具進行試驗,看看它們是否會體驗到「疼痛」。在這些情況下,孩子們通常表現為自尊心缺乏,且會通過向玩具施加權威以獲得某種安慰。就這點而言,顯然,菲比娃娃或許會因其治療作用而成為一種積極的工具,但當孩子們開始虐待玩具,拒絕能給其帶來持續成長的互動時,就不是這麼一回事了。

正如特克爾所說的,在困境中與人相處時,孩子們會認識到人際關係本就非常複雜。但正是通過在這種環境中不斷摸索,孩子們才能學會如何交朋友、如何解決爭議,並開始學習如何讓成功的人際關係持續下去,這需要他們付出畢生努力。但如果選擇與機器人為伴的話,那就不是在人際關係中摸索前行了,而是對它發號施令。在這種情況下,人們便會失去一種叫作他異性的東西,即「通過他人的眼光來看這個世界」。他異性的缺失會抑制同理心及其衍生的責任心的產生,這在養機器人寵物的孩子與養真正寵物的孩子之間的對比中可以看出來。機器人寵物可以帶來友誼所具有的所有好處,而且不需要付出任何關懷。就這點而言,這會讓「孩子們在與外界建立聯繫時,產生他們可以只考慮自己的錯覺」。

被不斷削弱的人類選擇

雷·布萊伯利在《圖案人》一書中講述了這樣一個精彩的小故事,叫作「牽線木偶公司」。故事中,兩個三十五六歲的已婚男子在晚上外出後,正走路回家。其中一個叫史密斯的男子質問另一個叫布萊令的男子,問他那沒有愛的婚姻是怎麼回事,還責怪布萊令離家太少。布萊令對他一番慫恿,告訴他自己是如何逃出這段婚姻的,隨後掏出了一張牽線木偶公司的名片,說這家公司專門製造人的機器人替身,其口號是「愛情無線牽」。史密斯央求布萊令聯繫這家神秘的公司,這樣他就能給自己做個替身,然後逃離他那佔有慾極強的妻子了。布萊令心一軟,在向他介紹了自己的機器人替身後,便把名片給了他的朋友史密斯。作為試驗,布萊令讓自己的替身機器人跟妻子相處了一夜。如果妻子沒有懷疑這個機器人是假的的話,布萊令就能夠完成他的裡約之旅。這是他在娶了這個他根本不愛的女人之前就已經計劃好了的。

一回到家,史密斯就找到他的支票簿,準備取錢給自己做個機器人替身。令他沮喪的是,他看到賬戶上少了一大筆錢,而這筆錢正好是一個機器人替身的價格。走進臥室後,他把耳朵放在妻子胸口,聽到了「嘀、嘀、嘀」的聲音,跟他之前在布萊令的機器人替身胸口聽到的一樣。

史密斯回家以後,布萊令就把他的機器人替身領到地下室,他一直都把他放在那裡的一個儲物櫃裡。他問機器人跟他妻子夜晚過得如何,隨後發現機器人已經墜入情網了。機器人知道布萊令的裡約出行計劃,所以告訴布萊令他要給布萊令的妻子也買一張票,然後帶她一起去旅行,最後把布萊令裝在了儲物櫃裡。

我很喜歡這個故事,因為它警告我們走捷徑的後果。儘管當我們與戀人的關係出現困難時,我們或許非常希望能夠喘口氣,但不可否認的是,我們通常會因此與所愛的人變得更加緊密。同樣,正是因為經歷了痛苦與困難的掙扎,我們才磨煉了自己的品格,造就了今天的自己。

如今,關於創造人工智能的道德倫理,我們還幾乎一無所知。創造算法或機器人的公司通常只關注市場需求,而不會關注我們的身份問題。短期的利潤雖然正在不斷促進人工智能的快速發展,但同時,它也在不斷削弱人類選擇的作用。

本章主要內容總結如下:

人工智能可以複製,但不能替代。那種認為我們可以複製自我或所愛之人,而且這種能夠代表我們的算法不會擁有獨立的人格的想法,是毫無邏輯可言的。這就是說,如果我們將來能夠模仿人的意識,那麼我們便能迴避因失去而帶來的痛苦和成長,但與此同時,這樣造出來的替身最後可能跟我們所認識的人完全不一樣。

擬人主義讓人工智能存在偏見。或許我們會因為受到誘騙而以為某個東西是真的,但這並不意味著它確實是真的。舉例來說,如果一個人認為他或她的自動駕駛汽車是有生命的,我會尊重這樣的看法,但我們仍然需要法律來規範這些車輛對受其影響的人所負有的責任。

人工智能可能會損害我們幫助他人的能力。從表面上來看,像驅動機器人胡椒運轉的那種關注情感的人工智能程序,其設計初衷是專門用來幫助我們的。但在提供簡單自在的陪伴的同時,他們使用的雲技術也可能會剝奪我們表達同理心的能力。

[1] 1磅≒0.454千克。——編者注

《失控的未來》