給機器人設定一套認知,那就不會改變了。
人有人性,其實也就是感性需求,怎么能永遠像機器人一樣呢?
除非,通過創造者文明的技術對基因定制,但那么定制出來的人,也就是跟機器的狀態一樣了。
陳問今自問,他是追求成為機器人嗎?
不是啊……
他有情感需求,只是他追求的是更穩固、長久的情感關系。
他思考,求知,是在這過程中得到了享受,也并不是為了追求如機器那般能夠記下一切的能力。
機器人化,當然不是他的追求。
“幫我推演一個理想的未來變化路線,讓身邊在乎的人都平安健康,讓我規劃的未來如期進行,那之后,我不想再活第二趟人生了,以免越來越貪婪。未免未來我會改變,就在白裝里增加一個監管的禁制吧,即使未來的我對你下達命令也不允許解除。當我走到了我所確定的、推演的人生盡頭,如果我仍然對命運的力量戀戀不舍,就讓白裝永久無效化,然后由你把我送去他們選的那個絕望的地方。命運在未來由你回收,留著交給下一個需要被拯救的宇宙吧。”陳問今做出這個決定,因為對于未來,他就是最大的變數,一旦留戀命運的力量,那就越來越不會放手。
安排好他自己的未來,就是不讓一切失控的根本辦法。
而這些,由主腦來監督執行,確實最合適不過。
主腦不會為他的決定感動,也不會在未來執行的時候憐憫,因為它沒有情緒。
只是,做出了這個決定之后,陳問今突然好奇的追問:“你對我的推演中,那無限接近于零的、奇跡般的另一個好的軌跡是什么?”
“正是你現在的選擇。”主腦冰冷而刻板的回答,卻讓陳問今不由笑了起來。“這么說,我選擇了奇跡。挺好,我喜歡可以把控自我變化幅度的感覺,如果長久的思考,長久的求知,卻連自己理想的人生軌跡都無法把控,那簡直太荒唐可笑了。還不如別想那么多、隨心所欲的,走一步看一步的過完一生了。”
可惜,陳問今這些情緒的感慨,主腦不以為有回應的情緒,主腦認為這沒有接話的必要,就沒有回答,只是在冰冷而刻板的執行該做的事情。
“信息已錄入,確定執行方案中……請選擇推演條件……推演結果具備確定性不高的多種變化性,干擾因素源自于你的命運力量,推測XXXX次的選擇關口你會因為情緒干擾做多種選擇可能,使用命運力量加入后影響后續變化的可能性……估算最多需要再活一萬次,必定可以達成符合條件的人生軌跡。推演路徑等待確認中……”
陳問今等著看那些推演的關鍵處,一時又好奇的問了句:“可以查看我得到命運之前的、認識的這些人的情況嗎?”
“信息檢索完成,個體觀測數據有限,綜合信息判斷的結果如下:……”
陳問今首先看了肖霄的,然后發現,在他沒有得到命運的時候,肖霄確實在暑假的時候,因為她母親的事情,爭吵中一時想不開,在浴缸里自殺了……
從時間推斷,那時候肖霄跟王帥認識沒多久,就出了這事,以王帥的作風,雖然跟他沒關系,當然也理所當然的假裝根本就沒見過面,沒對人提過跟肖霄認識過十幾天的事情。
至于后來,就更沒有提起的必要了。
陳問今想起火姐,看了,才知道當初火姐,真的就是他那時候聽說的,自殺的那個女孩……
陳問今又確認千草的信息……一樣,沒有他的干擾,千草父親被殺的那晚就沒逃過噩運,后來報復撞死了兩個人,撤走的時候死于交通意外。
陳問今又想起了桃子,記憶中后來沒有聯系了,也不知道她的情況,因為命運的緣故,桃子跟大熊在一