小說王耽美小說網

第83章 崩潰與死亡

關燈
楚楚睡著了。

孔明看到那具機械身體閉上眼睛靠在記憶泡沫塑料椅子上緩緩滑下去。

一個人工智能, 在機器裏,會睡著嗎?

她應該不會疲憊。

不會饑餓。

不會有愛恨。

自從人類開始暢想人工智能和機器生命起, 科學家們就開始努力了。

科學家們的想像總是格外悲觀些。

占主流思想的科學家們認為人工智能會精於計算。它們依靠計算和邏輯而生, 所以如果出現機械生命, 它們不會有愛,不會仁慈, 只會冰冷的計算如何才能更好生存。

結論基本都是先消滅人類,再消滅其他動物,占領地球,發展機械文明。

小部分的科學家認為人類在創造一個造物時都會先考慮如何去使用它。人工智能出世的前提肯定是為了替人類服務。於是誕生的人工智能就成了人類虐它千百遍,它待人類如初戀的典型。如果是浪漫的科學家, 會思考擁有生命和人性的人工智能在被人類虐待以後的起義與革命。

最極致的浪漫就是死亡嘛。

總之,人類就算把機械生命造出來了, 最後也會跟人家打起來。

這是楚楚的話。

“那你是怎麽想的?”孔明當時背對著她,“你會想毀滅人類嗎?”

楚楚靠在椅子上百無聊賴:“我?我哪有那個閑工夫?”

他也覺得楚楚不會這麽想。

然後楚楚就對眼前的“戲”——她是這麽說的——毫無興趣了。

然後,她就睡著了。

孔明把她抱起來,又用記憶泡沫塑料造出一個床, 把她放上去,讓她繼續睡。

剛才她的游戲時間只有六個小時,但體感時間是兩天一夜。

人只要看到太陽升起、落下就會以為是一天,哪怕實際時間沒有這麽長也會有這種感覺。

所以楚楚會累,會睡著, 真的是一點都不奇怪。

讓她睡吧。

孔明背對著床, 繼續盯著眼前的八個投屏。

實驗數字進一步擴大了。

——她現在其實是醒著的。

眼睛閉著, 但不意味著她睡著了啊。

別忘了她是有蝙蝠能力的超能力美少女!

她剛才只是閉上眼睛,想試試看用蝙蝠聲納來“看”的效果。

誰讓她自己的“大腦”一直在告訴她,她的新耳朵有多牛B。

她能不想試試嗎?

當然不能。

眼睛倒是閉上就沒辦法再透視了。但耳朵卻沒辦法閉上,它一直勤勤懇懇的接收著各方傳過來信號。

順便,她的鼻子竟然也是信號接收器。

還有她的頭發。

還有全身的假汗毛。

還有皮膚。

蝙蝠聲納是蝙蝠出聲然後通過反射回來的聲波來確定距離和前方物體的大小、速度。

她這個更牛B一點在於她甚至不必自己發聲,外界聲音也可以做她的音源,輔助她探測距離、物體大小、物體的動作。

現在,孔明的每一聲呼吸,他坐在地板上會不自覺的用手指在膝蓋上敲擊,他眨的每一下眼睛,都被她吸收了。

投屏中每一個虛擬人物的聲音也全被她清清楚楚的記下來,區分清楚了。

現在,一共有342877919個虛擬人物。她們的聲調、音頻雖然是一樣的,但說的話全都不一樣。偶爾有幾個遇上一樣的情景,說了一樣的話,她也能區分出來她們在哪個位置。

這叫什麽?

大腦回答她:空間坐標。

一個坐標上的聲音突然消失,那就是她崩潰了。

這是她睜著眼睛時沒有發現的。

——虛擬角色崩潰前的聲音被消掉了。

是固定值?

不。

有30秒的。消聲30秒後,這個坐標位出現了新的聲音。

也有消聲1分48秒後才有新聲音出現的。

2分30秒

4分19秒

2分19秒

……

為什麽?

因為她們在那個時候說的話不對。

為什麽不對?

因為不能被她聽到。

她,是這個空間的外來者。

邏輯分析得出結論,如果只有孔明,他沒有理由消除掉虛擬角色崩潰前的聲音。

這個地方放了兩個主機,她也在這裏換了兩次身體。

這裏對孔明來說應該是最安全的地方。

唯一的變量就是她。

她的“記憶”又記錄下來了之前所有崩潰的虛擬角色都沒有留下最後的聲音。

綜合看來,孔明是擔心會刺激她。

刺激她的結果最大可能有兩個。

第一,她也跟著崩潰。

第二,她會記恨他。

結論就這兩個,而這兩個都很有可能。

雖然她認為自己不會崩潰,但從眼前虛擬角色崩潰看起來,似乎虛擬人崩潰起來也挺容易的?

她的“大腦”又繼續回答她了。

一般來說虛擬人格程序一經運行是不會輕易崩潰。做為程序,除非被刪除,不會它們會一直一直運行下去,不知疲憊。

但在2086年,第一例虛擬人格崩潰後,虛擬人物崩潰的事開始頻頻發生。

一開始,人類以為他們的計算出現問題。後來認為是病毒。再後來認為這是技術缺陷。

後來發現這一切都是正常的。

在第四代機器人革命以後,人類制造人工智能的方式有了很大的轉變。

以前,人類在制造人工智能是以覆雜為主,越覆雜的技術越好,這是一種認知。

但第四代機器人革命的時候提出了相反的觀點。

為什麽越覆雜越好?會不會越覆雜越糟?越覆雜就越人工化,距離我們想制造新的生命的距離越遠呢?

科學家們開始嘗試給人工智能“減負”。

最終,人工智能之母:李林提出了新的制作概念。

又被稱為邏輯線人工智能。

這種技術在制作人工智能時,只建立一條邏輯線,也就是時間線。

李林制作了第一具時間線人工智能“小明”。

小明只知道一件事:他是小明,他誕生於2086年9月17日。

除此之外,李林什麽都沒給他設定。

“小明”就遵循1 0法則開始認識他能接觸到的每一個和每一樣東西。

他先認識了李林,他認為李林是對他無害的人。

他又跟著認識了實驗室的其他科學家。

然後就是電腦、椅子、桌子等物體。

再然後就是房子,天空、星星、月亮、草、樹、花等。

李林告訴他,他是人工智能的實驗體。

其他科學家告訴他,他和以前的人工智能完全不同。

他從電腦、椅子、桌子、房子和實驗所裏栽種的草坪、樹木和鮮花那裏分析出來,他與這些東西一樣,都是人類的工具。

他從法律條文中得知,他不具有人類所有的一切權力。他是物,是從屬於“主人”的。

而他的主人是國家。具體點,是科學院。再具體點,是科學院這個整體而不是某一個具體的人。

最後小明崩潰於十個月後。

崩潰理由非常奇妙:這個實驗成功了。

李林寫好了論文,得到了承認。論文中評價“實驗已經成功”並得到了廣泛的回響。

“小明”認為自己做為實驗體已經完成了任務,於是崩潰了。

李林重新運行了“小明”的程序。但新的“小明”完全不記得上一個“小明”的事了。

李林重新修改了論文,成為了新的人工智能之母。

其他科學家用這個方法造了許多的虛擬人物,但在實驗過程中,虛擬人物的崩潰太快太多了,有時根本來不及得到實驗結果。

這麽“脆弱”的人工智能真的有用嗎?

誠然,這可能從側面證明了人工智能也是有“生命”的。但人類並不是慈善家,他們制作人工智能的初衷是為了得到更好的服務,讓生活更輕松。過於脆弱的人工智能是無法實業化、商業化的。

李林則在九年後再次修改了她的論文。她認為單純的時間線雖然可以給人工智能充分發揮自我學習的天分,但正因如此,它們學習的方向是不可控的。

比如小明就錯誤的認為實驗結束,他的任務就結束了。

這種觀念是他從實驗員口中得到的“你就是為這個實驗才制作出來的”

人類使用的語言博大精深,機器人卻無法捕捉到語言中所有的信息,他們只會進行片面化的理解,提取中其中的重要內容,並將其進行記錄。所有的記錄,他都會做出非1即0的理解。

“我們永遠不會知道我們的孩子在什麽地方倒下。”李林說。

所以,她加了一條人格邏輯。

她認為給每一個人工智能具體的人格信息是有必要讓他們學會自我保護的。

人格信息包括姓名、年齡、性別、民族、受教育程序、愛好等。如果需要還可以加入家庭、朋友的設計,全看科學家的個人喜好。

她制作了另一個“小強”,告訴小強,他有一個早逝的哥哥叫小明。

小強一直陪伴李林教授直到去世,五十年後才崩潰。

小強崩潰的理由是“人類只能活一百二十年”。

他認為這是人類的極限年齡。所以在出生後一百二十年,他決定自己該去世了。

可見,虛擬生命是會崩潰的。正因為他們會崩潰,才被人類認為有“人性”。

但現在的人類已經可以輕松坐視虛擬人物崩潰了。

他們不像一開始那麽感性,變得能更理性的考慮問題。

其實,她也不覺得虛擬角色崩潰就相當於人類的死亡。

死亡是一個很嚴肅的概念。

她需要的不是生命,而是感情。

感情消失,才會有死亡。

寄托感情之物消失,才會有死亡。

投屏中的虛擬楚楚身上並沒有寄托感情,她們也沒有感情。所以她們的消失不是死亡。

但她是有感情的。

她也有寄托感情的人和東西。

如果她崩潰了,那她就死了。

所以,她絕不會崩潰。

楚楚感覺得到前方的人類:孔明。

比起她,眼前這個人才更容易崩潰呢。

她有絕對不崩潰的信心與欲望。

他有嗎?

本站無廣告,永久域名(danmei.twking.cc)