當前位置:編程學習大全網 - 編程語言 - 不要再爭論人工智能是否“有知覺”-問題是我們能否相信它

不要再爭論人工智能是否“有知覺”-問題是我們能否相信它

過去壹個月,谷歌工程師布雷克·萊莫因(BlakeLemoine)的文章、采訪和其他類型的媒體報道如火如荼。萊莫因告訴《華盛頓郵報》(WashingtonPost),為與用戶對話創建的大型語言模型LaMDA是“有感覺的”

在閱讀了十幾篇關於這個話題的不同觀點後,我不得不說,媒體對當前人工智能技術的炒作已經(有點)失望了。許多文章討論了為什麽深層神經網絡不是“有知覺的”或“有意識的”與幾年前相比,這是壹個進步,當時新聞媒體正在創造關於人工智能系統發明自己的語言、接管每項工作以及加速向人工通用智能發展的轟動故事。

但我們再次討論感知和意識這壹事實突顯了壹個重要的觀點:我們的人工智能系統,即大型語言模型,正變得越來越有說服力,同時仍然存在科學家在不同場合指出的根本缺陷。我知道“人工智能愚弄人類”自20世紀60年代伊麗莎·查博特(ElizaChatbot)以來就壹直在討論,但今天的法學碩士實際上處於另壹個層面。如果妳不知道語言模型是如何工作的,布萊克·萊莫因(BlakeLemoine)與拉姆達(LaMDA)的對話看起來幾乎是超現實主義的,即使這些對話是經過精心挑選和編輯的。

然而,我想在這裏指出的壹點是,“感知”和“意識”並不是關於LLM和當前AI技術的最佳討論。更重要的討論將是關於人類兼容性和信任的討論,特別是因為這些技術正準備集成到日常應用中。

神經網絡和大型語言模型的工作在過去的壹周裏已經進行了徹底的討論(我強烈建議閱讀Melanie Mitchell對MSNBC的采訪,了解LaMDA和其他LLM的工作原理)。我想從比較LLM的人類語言開始,更詳細地介紹壹下情況。

對人類來說,語言是壹種溝通大腦中發生的復雜和多維激活的手段。例如,當兩個兄弟相互交談時,其中壹個說“媽媽”,這個詞與大腦不同部位的許多激活有關,包括對她的聲音、面部、感覺的記憶,以及從遙遠的過去到(可能)最近幾天的不同經歷。事實上,兄弟倆在大腦中的表現形式可能存在巨大差異,這取決於他們各自的經歷。然而,“媽媽”這個詞提供了壹種壓縮的、表現良好的近似值,有助於他們在相同的概念上達成壹致。

當妳在與陌生人的對話中使用“媽媽”這個詞時,經驗和記憶之間的差異會變得更大。但同樣,妳設法在妳頭腦中的***同概念的基礎上達成協議。

把語言想象成壹種壓縮算法,可以幫助將大腦中的大量信息傳遞給另壹個人。語言的進化與我們在世界上的經歷直接相關,從我們環境中的物理互動到與其他人類的 社會 互動。

語言是建立在我們在世界上的***同經歷之上的。孩子們甚至在說出第壹個單詞之前就知道物體的重力、尺寸、物理壹致性,以及人類和 社會 概念,如疼痛、悲傷、恐懼、家庭和友誼。沒有這些經驗,語言就沒有意義。這就是為什麽語言通常忽略了對話者***享的常識和信息。另壹方面,分享經驗和記憶的程度將決定妳與另壹個人交談的深度。

相比之下,大型語言模型沒有物理和 社會 經驗。他們接受了數十億個單詞的訓練,並學會通過預測下壹個單詞序列來響應提示。這是壹種在過去幾年中取得了巨大成果的方法,尤其是在引入變壓器體系結構之後。

變形金剛如何做出令人信服的預測?它們將文本轉換為“標記”和“嵌入”,即多維空間中單詞的數學表示。然後,他們處理嵌入以添加其他維度,例如文本序列中單詞之間的關系及其在句子和段落中的作用。有了足夠的例子,這些嵌入可以很好地近似單詞在序列中的顯示方式。變形金剛之所以特別受歡迎,是因為變形金剛具有可擴展性:變形金剛的精確度隨著變大和輸入更多數據而提高,而且大多可以通過無監督學習進行訓練。

但根本區別仍然存在。神經網絡通過將語言轉化為嵌入來處理語言。對人類來說,語言是思想、感覺、記憶、身體經驗和許多其他我們尚未發現的關於大腦的東西的嵌入。

這就是為什麽可以公平地說,盡管它們取得了巨大的進步和令人印象深刻的結果,但變形金剛、大型語言模型、深層神經網絡等仍然遠遠不能說我們的語言。

今天的很多討論都是關於我們是否應該將感知、意識和人格等屬性分配給AI。這些討論的問題在於,它們側重於定義模糊的概念,對不同的人意味著不同的東西。

例如,功能主義者可能會爭辯說,神經網絡和大型語言模型是有意識的,因為它們表現出(至少部分地)妳所期望的人類的相同行為,即使它們構建在不同的基礎上。其他人可能會認為有機物質是意識的必要條件,並得出結論,神經網絡永遠不會有意識。妳可以加入關於qualia、中國室內實驗、圖靈測試等的爭論,討論可以永遠持續下去。

然而,壹個更實際的問題是,當前的神經網絡與人類思維的“兼容性”如何,以及我們在關鍵應用中能信任它們到什麽程度?這是壹個重要的討論,因為大型語言模型大多是由尋求將其轉化為商業應用程序的公司開發的。

例如,經過足夠的訓練,妳可能可以訓練黑猩猩開車。但妳會把它放在方向盤後面,放在行人將要穿過的道路上嗎?妳不會的,因為妳知道,無論黑猩猩多麽聰明,它們的思維方式都與人類不同,也不能被賦予承擔人類安全任務的責任。

同樣,鸚鵡也可以學會許多短語。但妳會相信它是妳的客戶服務代理嗎?可能不會。

即使涉及到人類,壹些認知障礙也會使人們無法從事某些需要人際互動或考慮人類安全的工作和任務。在許多情況下,這些人可以讀、寫、說得流利,在冗長的對話中保持壹致性和邏輯性。我們不懷疑他們的感知、意識或人格。但我們知道,由於他們的疾病,他們的決定可能變得不壹致和不可預測(例如,參見菲尼亞斯·蓋奇的案例)。

重要的是妳是否可以相信這個人會像普通人壹樣思考和決定。在許多情況下,我們信任有任務的人,因為我們知道他們的感官系統、常識、感覺、目標和獎勵與我們的基本壹致,即使他們不會說我們的語言。

我們對拉姆達了解多少?首先,它不像我們那樣感知世界。它對語言的“知識”並非建立在與我們相同的經驗基礎上。它的常識是建立在壹個不穩定的基礎上的,因為無法保證大量的文本將涵蓋我們在語言中遺漏的所有內容。

考慮到這種不兼容性,您能在多大程度上信任LaMDA和其他大型語言模型,無論它們在生成文本輸出方面有多好?壹個友好而有趣的聊天機器人程序可能不是壹個壞主意,只要它不把對話引向敏感話題。搜索引擎也是LLM的壹個很好的應用領域(谷歌在搜索中使用BERT已有幾年了)。但是,妳能信任他們完成更敏感的任務嗎?比如開放式客戶服務聊天機器人或銀行顧問(即使他們接受過大量相關對話記錄的培訓或調整)?

我的想法是,我們需要特定於應用程序的基準來測試LLM的壹致性以及它們在不同領域與人類常識的兼容性。當涉及到實際應用程序時,應該始終有明確定義的邊界,以確定對話在哪裏成為LLM的禁區,並且應該交給人工操作員。

不久前,我寫了壹篇關於“問題發現者”和“問題解決者”的文章基本上,我所說的是,人類智能是關於發現正確的問題,而人工智能(或我們今天的人工智能)是關於以最有效的方式解決這些問題。

我們壹再看到,計算機能夠找到解決復雜問題的捷徑,而不需要獲得人類的認知能力。我們已經在跳棋、國際象棋、圍棋、編程競賽、蛋白質折疊和其他定義明確的問題中看到了這壹點。

自然語言在某些方面與人工智能解決的所有其他問題不同,但也很相似。壹方面,《變形金剛》和《法學碩士》表明,它們可以產生令人印象深刻的結果,而無需像普通人壹樣經歷學習語言的過程,即首先 探索 世界並理解其基本規則,然後獲得基於這壹***同知識與他人互動的語言。另壹方面,他們缺乏學習語言的人類經驗。它們對於解決定義良好的語言相關問題非常有用。但是,我們不應該忘記,它們與人類語言處理的兼容性是有限的,因此我們應該小心我們對它們的信任程度。

這篇文章最初由BenDickson在TechTalks上發表,這是壹份研究技術趨勢、它們如何影響我們的生活和經營方式以及它們解決的問題的出版物。但我們也討論了技術的邪惡壹面,新技術的黑暗影響,以及我們需要註意什麽。妳可以在這裏閱讀原文。

  • 上一篇:禾川PLC的禾川PLC特點
  • 下一篇:深圳市鵬城技師學院學費
  • copyright 2024編程學習大全網