1
AI,真的覺醒了?
人工智能,會蘇醒嗎?
這是壹個古老而又新奇的話題。
“ 深度學習 ”天生的 不可預測 ,加深了這種憂慮。
“ 神經網絡 ”的 生物性類比 ,讓“AI黑匣子”更讓人擔心。
最近,壹個谷歌工程師再次引爆該話題:AI覺醒了?
2022年6月 ,谷歌工程師 Lemoine 表示,自己在與AI“ LaMDA ”聊天中,發現了後者的回答已經 高度人格化 ,認為該AI已經“ 覺醒 ”。
為此,Lemoine寫了壹篇長達 21頁的調查報告 ,試圖讓高層認可AI的人格。
不過,谷歌高層暫未表態,希望獲得更清晰的認定。
但Lemoine仿佛化身科幻電影主角,他沒有放棄,將自己和AI的 聊天記錄 公布於眾,引發軒然大波。《 華盛頓郵報 》跟進報道後,更是在全球炸圈。
AI真的覺醒了嗎? 爭議不斷。
不管真相如何,有壹點可以肯定:
因為 深度學習 和 神經網絡 的加持,人工智能已經越來越“ 不可捉摸 ”。
2
那壹夜,人類安然睡去
關於AI覺醒,讓人想起了6年前的另壹件事。
2016年3月13日 ,人類和AI在圍棋上進行壹場 智力的終極較量 。
在此之前,AI與人類較量屢屢得手。
但人類認為, 圍棋是AI不可突破的天花板 。
因為可測宇宙原子總數約為 10^80 ,而圍棋走法有 2.08*10^170 ,AlphaGo不可能依靠 計算量 和 算力枚舉 來獲勝,那麽,擁有創造力的人類,怎麽可能敗給AI。如果圍棋上敗給了AI,那麽說明它已經完成了“ 圖靈測試 ”。
然而,前三局,李世石 壹敗再敗 ,全世界震驚了。
第四局,李世石判斷黑空中有棋,下出白 78挖 。李世石這史詩級的“ 神之壹手 ”,體現了人類巔峰的 直覺、算力和創造力 。這也是人類 最後的尊嚴之戰。
當年壹個作者寫下上段內容(有修改),並提到“ 23年後,無人幸免 ”,科學家建立了壹個數學模型,判斷 2040年 人工智能可能會達到普通人的智能水平,並引發 智力爆炸 。
面對越來越普遍的AI, 機器即將代替人類,AI正在迅速擴張 。
五年過去了,人類朝著“黑客帝國”大步邁進。
那麽 18年 後,真的 無人幸免 ?
3
AI的另壹面:不夠穩定
以上兩件事,本質上都是對 AI覺醒 的擔憂。
壹個擁有 自由意誌 的AI不可信,最終會威脅到人類。
霍金 警告人類要正視人工智能帶來的威脅。
比爾·蓋茨 認為人工智能是“召喚惡魔”。
《 2001太空漫遊 》中,超級電腦 HAL9000 在宇宙中將人類無情抹殺。
《 黑客帝國 》中,人類被AI禁錮在 矩陣 之中。
不過,實事求是地講,對AI覺醒的不可信,仍然只是人類臆測。
雖然科幻電影裏描寫得殘酷冰冷,也還沒有得到普遍證實。
但AI的另壹個“不可信”,卻是真實存在的。
它不是太聰明太智慧或者產生意識,而是不夠穩定 。
這種不穩定,產生的後果才真的“瘆人”。
關於人工智能“ 失靈 ”的例子還有很多很多,這是AI 不夠沈穩 的壹面。
這才是實實在在“ 不可信 ”的地方,也是AI對人類真正的威脅。
我們不願意看到 AI 的 “覺醒”, 但更不能接受 人工智能 的 “輕率” 。
4
人類需要的是壹個可信的AI
所以,人類需要壹個“ 可信AI ”。
AI是聰明還是愚蠢,也許並不重要。
AI是進化還是退化,可能暫時只是壹個偽命題。
人類需要的是壹個可靠的助手,壹個值得信任的機器助理 。
我是妳的創造者,妳得聽我的吧,不能瞎搗亂。
阿西莫夫在七十年前就提出了“ 機器人學三大定律 ”:
這是人類在 AI倫理 思考中的方向。
可以把它稱為是 人工智能 社會 的道德準則 。
對於人類來說,可信,才是我們對AI最重要的需求。
如果從“ 貝葉斯-拉普拉斯 ”定理開始溯源人工智慧,目標是解決“ 逆向概率 ”問題,其實本質就是解決AI的 可信賴度 。
如果不能做到可信,AI就有可能反噬人類。
最起碼AI與我們相伴要保證人類兩點: 生命安全 與 財產安全 。
以 自動駕駛 為例,如果人工智能以準確率為 99.99% 概率推算, 0.01% 的失誤率依舊會讓人心驚膽戰。如果未來城市有 壹百萬輛 自動駕駛 汽車 ,即便是 0.01% 的失誤率,對人類生命安全造成威脅的隱患車輛仍有 壹百輛 。
如果我們不能擁有可信AI,我們自然無法確定,人工智能給我們帶來的到底是技術的進步,還是無數潛在的威脅。
但實際上 它才是人工智能領域最有價值的航燈,也是現在 科技 公司追求的方向 。
5
什麽是可信AI,
這16個技術小哥在做什麽?
所以,什麽是可信AI?
可能很多人還不知道,先得把這個定義弄清楚。
我們可以先看壹檔節目《 燃燒吧,天才程序員2·可信AI 》。
這款綜藝節目第壹季在 豆瓣評分8.0 ,讓人腦洞大開。
在第二季中,1 6個AI技術小夥 分為四個團隊待在“小黑屋”中 四天三夜 ,完成 60個小時 任務挑戰。
比賽中,他們需要與“ 黑產 ”進行無數次較量,培養出與幫助人類的“可信AI”,打敗“黑產”,最終決出 最強團隊 。
關於程序技術的綜藝節目,在中國乃至世界都非常稀缺 。
壹方面程序與代碼本身過於硬核,普通人難以理解。
另壹方面則是節目腳本設置沖突相比其他綜藝要更難壹些。
但《燃燒吧,天才程序員2·可信AI》通過“ 反詐騙 ”這壹實際場景需要,以此構建起節目的比賽邏輯。
16個AI技術小夥需要直面欺詐交易識別、聯合反詐等關卡的挑戰 。
通過AI與攻防互相協作,覆蓋反詐全鏈路。
比賽之中,程序員們通過創造“可信AI”,完成“ 科技 反詐”。
哪壹個團隊產出的 算法和模型 在數據的 識別準確率 和 覆蓋率 更好,就能贏得比賽勝利。
雖然不如《 黑客帝國 》那般深刻宏大,也不如《 人工智能 》那樣發人深省。
但《燃燒吧,天才程序員》卻通過 真實的應用場景 ,解決現實生活存在的實際問題。
當妳看完整個節目時就會明白,原來這就是可信AI:依照 現有數據 構建 智能模型 ,非常穩定地解決 現實難題 。
可信AI的 技術應用範圍 非常廣泛, 反詐 是其中壹個重要應用場景。
可信AI沒有那麽遙遠,它近在咫尺。它也沒有那麽神秘,很多時候它就是妳身邊的小助理。
當前基於 神經網絡 的AI技術非常酷,同時占據AI話題至高點,以創造力和神秘性提供太多想象空間,也是許多AI技術員仰視的聖殿。但它面臨的問題也非常多: 具有不可解釋、魯棒性差、過於依賴數據等缺陷,隱藏著許多潛在危害 。
而可信AI的存在,就是為了解決這些“ 信任危機 ”問題。
如果說基於 神經網絡 的AI技術有著 強烈的理想主義 ,那麽基於 大數據整理 的AI技術則是壹個 腳踏實地的現實執行者。
6
可信AI的技術特點
要真正了解可信AI對人類的幫助,需要從技術底層入手。
可信AI有四大技術特點:魯棒性、隱私保護、可解釋性、公平性 。
01
魯棒性
魯棒性指 在異常和危險情況下系統生存的能力和算法穩定 。
1、前者指的是 系統抗打擊的能力 ,如計算機軟件在 輸入錯誤 、磁盤故障、 網絡過載 或惡意攻擊情況下,能否 不死機 、 不崩潰 。打個比方,如果把壹個 AI模型 比喻成 萬裏長城 ,那麽其魯棒性便是長城在面對惡劣天氣(如臺風)、自然災害(如地震)時,人工轟炸時仍然可以做到 不輕易倒塌 。
2、後者指的是 AI模型中算法本身的穩定性 ,如果添加擾動的熊貓照片,輕易就繞開了AI模型的“眼睛”,則說明其魯棒性比較差;比如在 欺詐交易 中,由於 作案手法 不斷升級,可能導致基於既往數據訓練的模型,面臨著新風險數據帶來的 穩定性考驗 ,需要 不斷叠代 來保障模型的 分析和識別能力 。
以 支付寶 為例。支付寶每天都有 上億筆交易 ,其 對抗的不是散戶,而是專業的黑產團夥 。他們可能有兩種攻擊方式:
為了保障資金安全,螞蟻集團引入“ 博弈智能攻防 ”技術,該技術具有對 風險知識 和 模型 的 提前模擬、提前訓練、提前補防 的能力。應用該技術的AI模型魯棒性有大幅提升,實現“ 左右互搏 ”,既能夠更智能地“攻”,也能更安全地“防”。
02
隱私保護
傳統的數據保護方法客觀上形成了「 數據孤島 」,影響了如醫療、金融等領域的協同作戰,也制約 AI 技術以及行業發展。
所以, 拓展數據價值的隱私計算技術,對實現「數據不動價值動」顯得尤為重要 。
在AI領域, 聯邦學習 作為壹種新的機器學習模型和算法,就是為解決數據孤島問題而提出的。在保證每個參與方不泄露原始數據,即 數據不出域 的前提下,用多方的數據聯合建模,實現數據 可用不可見 ,進而實現「數據不動價值動」。
03
可解釋性
人類對壹切未知的東西,始終都會有壹種莫名的恐懼。
如果人工智能的行為無法進行解釋,只有結果沒有過程,那麽它就像是壹個盲盒,妳永遠不知道放出來的是“阿拉丁”,還是“潘多拉”。
AI 模型是許多重要決策的重要依據,在很多應用裏它的思考過程不能是黑盒 。
人類希望知道模型 背後的邏輯 、收獲新的知識,並在它出現問題時踩好剎車,確保 AI 思考的過程和結果 合規合法 。
這背後需要 數據驅動 與 模型推理能力 結合起來,產生 可解釋的結果 。
04
公平性
AI公平性是可信AI的重要組成部分。
只有實現“ 公平性 ”,才能真正推動技術 造福 於整個 社會 。
壹方面,公平性需要重視 弱勢人群 、兼顧 落後地區發展 ,在重視 社會 倫理原則下進行 AI 調優 ,通過 AI 技術,讓老年人、殘障人士、欠發達地區用戶,享受到 數字經濟時代 的價值。
另壹方面,公平性要思考如何從技術上思考如何減少算法、數據等因素可能帶來的 AI 決策偏見 。
魯棒性、隱私保護、可解釋性、公平性 。
這是可信AI的 四大基本原則 。
今天,發展可信AI,已經成為 全球***識 。
特別是對於領先的 科技 公司來講,他們是要服務用戶且不能犯錯誤的。
微軟 、谷歌、 螞蟻 、京東、 騰訊 、曠世等 科技 企業,都在積極開展可信AI的研究和 探索 。
其中,螞蟻在可信AI上已有很多 技術優勢 ,自 2015年 開始投入研究起,已經完成了 長達7年 的 可信AI技術積累之路 。
據 2021年 權威專利機構 IPR daily 發布的《 人工智能安全可信關鍵技術專利報告 》顯示,螞蟻集團旗下的 支付寶 在該領域的 專利申請數 和 授權數 ,均位列全 球第壹 。
7
可信AI的應用 探索
基於可信AI的以上特點,應用場景多種多樣。
AI在 醫療 、教育、 工業 、金融等多個領域的廣泛應用,算法安全性、數據濫用、數據歧視等問題也層出不窮。當前AI技術的 主要矛盾, 已經轉化為 人們對AI日益增長的應用範圍需求和AI不可信不夠穩的發展之間的矛盾 。
2018年,IBM開發了多個AI可信工具,以評估測試人工智能產品在研發過程中的公平性、魯棒性、可解釋性、可問責性、價值壹致性。之後IBM將這些工具捐獻給Linux Foundation並成為了開源項目,幫助開發人員和數據科學家構建可信、安全、可解釋的人工智能系統。
作為可信AI領域的先行者之壹,螞蟻也做了不少 探索 。
螞蟻的可信AI技術應用最好的實踐結果是,自研了壹套 智能風控解決方案 ,定名 IMAGE 。這套技術體系實現了用可信AI技術保障風控業務安全的問題,且達到了非常好的效果。
它能將支付寶 資損率 控制在 千萬分之0.098, 解決了 風控場景 中的諸多 世界難題 。
還有壹個例子,是支付寶的“ 叫醒熱線 ”——從系統識別到用戶遇到詐騙風險,到AI機器人向用戶呼出“ 叫醒電話 ”,它能把整個過程控制在 0.1秒 內 。
螞蟻集團基於可信AI的IMAGE風控體系
另外在可信AI的公平性方面,螞蟻也有自己的實際應用。
目前業內廣泛使用的“ 圖形滑塊驗證碼 ”壹直是視障人群接入數字化服務的巨大障礙。但許多 APP 為了防範機器批量操作,又不得不保留驗證碼服務。
為此,螞蟻開發了壹套“ 空中手勢 ”驗證碼方案,可以利用“ 行為識別 ”技術幫助視障群體通過“ 驗證碼 ”關卡。
可信AI的應用 探索 ,並不會讓AI技術失去它的可能性。
它更像是壹種倫理規範的約束條約,讓AI在正確的軌道上前行 。
8
18年後,人類真的無人幸免?
讓我們回到壹開始的問題。
AI真的會覺醒嗎?
壹百年前的人類,很難想象我們如今生活的這個高度數字化世界 。
那麽,壹百年後,人工智能會發生什麽變革,我們真的無法預測。
但AI對人類是福是禍,是壹個攸關人類命運的重要課題。
按照現在AI發展的模式來看,未來的AI可能會分為兩大派:
壹派是自我獨立的智能AI,壹派是追隨人類的可信AI 。
當然,還有人在問,AI真的會存在 獨立意誌 嗎?
這要看從科學上如何去解釋,壹個AI系統是可以“坎陷”到具有“ 自我意識 ”的狀態,差別只在於“坎陷”的深度和魯棒性,這可以解釋AlphaZero為什麽能夠自我“坎陷”到圍棋大師,如果再 “ 坎陷 ”下去呢? 這 壹派AI,可能會對人類造成我們認定的“威脅” 。
另壹派AI,即可信AI,它們會在 四大基本原則 的架構中不斷完善自我 ,幫助人類解決更多實際問題,成為人類可靠的助手,並與人類***存***生 。那麽,它們會壹直幫助和保護人類嗎?
但無論未來如何發展,不同的技術方向或許帶來不同的悲劇或者喜劇,但有壹點可以確定:
AI技術在四面突擊,不論是可信AI還是智能AI,最終會落地深入到我們生活的方方面面 。它會滲透到世界的每壹個角落,在很多方面取代“無用之人”。
不管我們如何擔憂,AI只會變得越來越強大,而人類的進化又顯得如此龜速,甚至退化墮落。
那麽, 18年後,有多少人可以幸免?