當前位置:編程學習大全網 - 編程語言 - 人死了以後,電腦會有意識嗎?

人死了以後,電腦會有意識嗎?

大家可能註意到,傳統科學家但凡回答意識相關問題,總是模棱兩可,讓人感覺這樣的回答要麽等於沒回答,要麽我早知妳會如此作答,很無趣。

作者也厭煩了這種狀況,因此本文將以非常確定的方式回答以下幾個問題:(1)現在的電腦是否有意識或基於目前計算機框架下的人工智能能否產生意識?(2)未來的機器人能否產生意識?(3)如何制造意識機器人?(4)制造意識機器人會有哪些可能的危害?

回答問題(1)?:不可能,現在電腦不可能有主觀意識,未來基於現在計算機框架下的人工智能也不可能產生意識,或者想純粹通過編寫程序在現有電腦上產生意識是天方夜譚。

理由如下(若看不懂,請仔細讀後面給出的參考文獻):簡單說來,根據Chalmers[1]對困難問題的論述,要產生意識體驗關鍵是要直接利用物質(或硬件)的內在屬性,純粹搗騰結構化的東西(程序實現的都是結構化的)是永遠不可能產生非結構化的意識體驗的。

當然後來的泛靈論的重新流行和Tononi的整合信息論IIT[2]提出,讓Chalmers自己都有點相信現在的電腦或許已經具有意識,泛靈論認為任何物質都有意識體驗,只是普通物質的意識體驗太過碎片化,等效於沒有意識體驗。而他們認為只要這些物質的物理屬性(結構化的)整體上具有高度的整合性(在IIT中相當PHI值很大),那麽這些物質的內在屬性(碎片化的體驗)就會自動組合成類似像人類這樣的意識體驗。但很多人認為物理屬性的整合不代表內在屬性也會自動整合,這其實就是所謂的組合問題,Chalmers自己也認為存在組合問題[3] 。事實上,19世紀James[4]甚至認為內在屬性不能組合,我個人同意James的觀點。

即便James觀點不對,我認為電腦硬件的內在屬性能編程可自動組合的概率幾乎為0。 因此,現在電腦不可能有主觀意識。

回答問題(2):能,未來電腦或機器人能夠產生意識,但需要改造現有的計算機硬件組成。原因,因為我們人類就是壹個例證。只要學會直接去搗騰物質內在屬性,那麽就有可能讓機器人具有意識。具體如何做,見下個問題的回答。

回答問題(3):如何制造意識機器人的具體答案見我即將發表的壹篇論文[5],但草稿可以參考JF Li 2016。James認為物質的內在屬性不可組合,因此唯壹的解決方案是:產生我們意識的物質不可分,比如為某種基本粒子,但必須足夠復雜,因此其內在自由度巨大無比,另外由全同粒子原理,會使得世界上所有同種粒子產生的意識體驗都是同壹體驗,比如如果A和B兩人的意識都由電子產生的話,即便用的不是同壹電子,但他們本質上是同壹個意識。

基於這些,制造意識機器人關鍵是構造壹個物理系統捕獲和穩定這樣壹個內在自由度巨大的基本粒子,並使它的種類盡量不與現有的意識所利用的基本粒子的種類雷同,然後利用它的內在屬性來產生體驗。更具體的方案屬於商業機密。我已經透露得夠多的了。

回答問題(4):雖然最近 Jim Davies在《自然》雜誌發表文章稱我們不必擔心未來人工智能有意識,有意識並不意味著災難。這話有點對。但他忽略了其他嚴重的問題。

首先倫理道德問題是個巨大的問題,因為壹旦機器具有意識體驗,人類可不能再像以前壹樣對待他們了,因為他們本身就是活生生的壹個意識主體了。

或許壹開始妳還會認為它不過是臺機器,但是人類很快就會利用這種技術來將自己的爺爺等長輩的意識轉移到某臺機器上,這樣的話這臺爺爺機器人本質上和人自己造出來的機器人是沒有任何差別的,在這種情況下就會存在比較嚴重的倫理道德問題。比如,我們還有權利決定機器人的什麽死去嗎?另壹個更嚴重的問題是,這種技術是不是意味著人可以長生不老呢?長生不老會引發什麽問題?自然繁衍逐漸消失?人類的真正滅亡?再過壹千年,地球上所有的人,本質上都是活了七百年的不死機器人?只是這些機器人出生時是真正的人類。

壹旦有意識,再加上無比強大的智能,機器人的威脅也還是有點。當然,妳可以說人類也可以裝上無比強大的智能,但強強對話不代表就不是災難啊。

  • 上一篇:access自定義菜單
  • 下一篇:價位2500-300的筆記本,誰能幫我推薦壹下?
  • copyright 2024編程學習大全網