當前位置:編程學習大全網 - 源碼下載 - 18年後,無人幸免?

18年後,無人幸免?

1

AI,真的覺醒了?

人工智能,會蘇醒嗎?

這是壹個古老而又新奇的話題。

深度學習 ”天生的 不可預測 ,加深了這種憂慮。

神經網絡 ”的 生物性類比 ,讓“AI黑匣子”更讓人擔心。

最近,壹個谷歌工程師再次引爆該話題:AI覺醒了?

2022年6月 ,谷歌工程師 Lemoine 表示,自己在與AI“ LaMDA ”聊天中,發現了後者的回答已經 高度人格化 ,認為該AI已經“ 覺醒 ”。

為此,Lemoine寫了壹篇長達 21頁的調查報告 ,試圖讓高層認可AI的人格。

不過,谷歌高層暫未表態,希望獲得更清晰的認定。

但Lemoine仿佛化身科幻電影主角,他沒有放棄,將自己和AI的 聊天記錄 公布於眾,引發軒然大波。《 華盛頓郵報 》跟進報道後,更是在全球炸圈。

AI真的覺醒了嗎? 爭議不斷。

不管真相如何,有壹點可以肯定:

因為 深度學習 神經網絡 的加持,人工智能已經越來越“ 不可捉摸 ”。

2

那壹夜,人類安然睡去

關於AI覺醒,讓人想起了6年前的另壹件事。

2016年3月13日 ,人類和AI在圍棋上進行壹場 智力的終極較量

在此之前,AI與人類較量屢屢得手。

但人類認為, 圍棋是AI不可突破的天花板

因為可測宇宙原子總數約為 10^80 ,而圍棋走法有 2.08*10^170 ,AlphaGo不可能依靠 計算量 算力枚舉 來獲勝,那麽,擁有創造力的人類,怎麽可能敗給AI。如果圍棋上敗給了AI,那麽說明它已經完成了“ 圖靈測試 ”。

然而,前三局,李世石 壹敗再敗 ,全世界震驚了。

第四局,李世石判斷黑空中有棋,下出白 78挖 。李世石這史詩級的“ 神之壹手 ”,體現了人類巔峰的 直覺、算力和創造力 。這也是人類 最後的尊嚴之戰。

當年壹個作者寫下上段內容(有修改),並提到“ 23年後,無人幸免 ”,科學家建立了壹個數學模型,判斷 2040年 人工智能可能會達到普通人的智能水平,並引發 智力爆炸

面對越來越普遍的AI, 機器即將代替人類,AI正在迅速擴張

五年過去了,人類朝著“黑客帝國”大步邁進。

那麽 18年 後,真的 無人幸免

3

AI的另壹面:不夠穩定

以上兩件事,本質上都是對 AI覺醒 的擔憂。

壹個擁有 自由意誌 的AI不可信,最終會威脅到人類。

霍金 警告人類要正視人工智能帶來的威脅。

比爾·蓋茨 認為人工智能是“召喚惡魔”。

2001太空漫遊 》中,超級電腦 HAL9000 在宇宙中將人類無情抹殺。

黑客帝國 》中,人類被AI禁錮在 矩陣 之中。

不過,實事求是地講,對AI覺醒的不可信,仍然只是人類臆測。

雖然科幻電影裏描寫得殘酷冰冷,也還沒有得到普遍證實。

但AI的另壹個“不可信”,卻是真實存在的。

它不是太聰明太智慧或者產生意識,而是不夠穩定

這種不穩定,產生的後果才真的“瘆人”。

關於人工智能“ 失靈 ”的例子還有很多很多,這是AI 不夠沈穩 的壹面。

這才是實實在在“ 不可信 ”的地方,也是AI對人類真正的威脅。

我們不願意看到 AI “覺醒”, 但更不能接受 人工智能 “輕率”

4

人類需要的是壹個可信的AI

所以,人類需要壹個“ 可信AI ”。

AI是聰明還是愚蠢,也許並不重要。

AI是進化還是退化,可能暫時只是壹個偽命題。

人類需要的是壹個可靠的助手,壹個值得信任的機器助理

我是妳的創造者,妳得聽我的吧,不能瞎搗亂。

阿西莫夫在七十年前就提出了“ 機器人學三大定律 ”:

這是人類在 AI倫理 思考中的方向。

可以把它稱為是 人工智能 社會 的道德準則

對於人類來說,可信,才是我們對AI最重要的需求。

如果從“ 貝葉斯-拉普拉斯 ”定理開始溯源人工智慧,目標是解決“ 逆向概率 ”問題,其實本質就是解決AI的 可信賴度

如果不能做到可信,AI就有可能反噬人類。

最起碼AI與我們相伴要保證人類兩點: 生命安全 財產安全

自動駕駛 為例,如果人工智能以準確率為 99.99% 概率推算, 0.01% 的失誤率依舊會讓人心驚膽戰。如果未來城市有 壹百萬輛 自動駕駛 汽車 ,即便是 0.01% 的失誤率,對人類生命安全造成威脅的隱患車輛仍有 壹百輛

如果我們不能擁有可信AI,我們自然無法確定,人工智能給我們帶來的到底是技術的進步,還是無數潛在的威脅。

但實際上 它才是人工智能領域最有價值的航燈,也是現在 科技 公司追求的方向

5

什麽是可信AI,

這16個技術小哥在做什麽?

所以,什麽是可信AI?

可能很多人還不知道,先得把這個定義弄清楚。

我們可以先看壹檔節目《 燃燒吧,天才程序員2·可信AI 》。

這款綜藝節目第壹季在 豆瓣評分8.0 ,讓人腦洞大開。

在第二季中,1 6個AI技術小夥 分為四個團隊待在“小黑屋”中 四天三夜 ,完成 60個小時 任務挑戰。

比賽中,他們需要與“ 黑產 ”進行無數次較量,培養出與幫助人類的“可信AI”,打敗“黑產”,最終決出 最強團隊

關於程序技術的綜藝節目,在中國乃至世界都非常稀缺

壹方面程序與代碼本身過於硬核,普通人難以理解。

另壹方面則是節目腳本設置沖突相比其他綜藝要更難壹些。

但《燃燒吧,天才程序員2·可信AI》通過“ 反詐騙 ”這壹實際場景需要,以此構建起節目的比賽邏輯。

16個AI技術小夥需要直面欺詐交易識別、聯合反詐等關卡的挑戰

通過AI與攻防互相協作,覆蓋反詐全鏈路。

比賽之中,程序員們通過創造“可信AI”,完成“ 科技 反詐”。

哪壹個團隊產出的 算法和模型 在數據的 識別準確率 覆蓋率 更好,就能贏得比賽勝利。

雖然不如《 黑客帝國 》那般深刻宏大,也不如《 人工智能 》那樣發人深省。

但《燃燒吧,天才程序員》卻通過 真實的應用場景 ,解決現實生活存在的實際問題。

當妳看完整個節目時就會明白,原來這就是可信AI:依照 現有數據 構建 智能模型 ,非常穩定地解決 現實難題

可信AI的 技術應用範圍 非常廣泛, 反詐 是其中壹個重要應用場景。

可信AI沒有那麽遙遠,它近在咫尺。它也沒有那麽神秘,很多時候它就是妳身邊的小助理。

當前基於 神經網絡 的AI技術非常酷,同時占據AI話題至高點,以創造力和神秘性提供太多想象空間,也是許多AI技術員仰視的聖殿。但它面臨的問題也非常多: 具有不可解釋、魯棒性差、過於依賴數據等缺陷,隱藏著許多潛在危害

而可信AI的存在,就是為了解決這些“ 信任危機 ”問題。

如果說基於 神經網絡 的AI技術有著 強烈的理想主義 ,那麽基於 大數據整理 的AI技術則是壹個 腳踏實地的現實執行者。

6

可信AI的技術特點

要真正了解可信AI對人類的幫助,需要從技術底層入手。

可信AI有四大技術特點:魯棒性、隱私保護、可解釋性、公平性

01

魯棒性

魯棒性指 在異常和危險情況下系統生存的能力和算法穩定

1、前者指的是 系統抗打擊的能力 ,如計算機軟件在 輸入錯誤 、磁盤故障、 網絡過載 或惡意攻擊情況下,能否 不死機 不崩潰 。打個比方,如果把壹個 AI模型 比喻成 萬裏長城 ,那麽其魯棒性便是長城在面對惡劣天氣(如臺風)、自然災害(如地震)時,人工轟炸時仍然可以做到 不輕易倒塌

2、後者指的是 AI模型中算法本身的穩定性 ,如果添加擾動的熊貓照片,輕易就繞開了AI模型的“眼睛”,則說明其魯棒性比較差;比如在 欺詐交易 中,由於 作案手法 不斷升級,可能導致基於既往數據訓練的模型,面臨著新風險數據帶來的 穩定性考驗 ,需要 不斷叠代 來保障模型的 分析和識別能力

支付寶 為例。支付寶每天都有 上億筆交易 ,其 對抗的不是散戶,而是專業的黑產團夥 。他們可能有兩種攻擊方式:

為了保障資金安全,螞蟻集團引入“ 博弈智能攻防 ”技術,該技術具有對 風險知識 模型 提前模擬、提前訓練、提前補防 的能力。應用該技術的AI模型魯棒性有大幅提升,實現“ 左右互搏 ”,既能夠更智能地“攻”,也能更安全地“防”。

02

隱私保護

傳統的數據保護方法客觀上形成了「 數據孤島 」,影響了如醫療、金融等領域的協同作戰,也制約 AI 技術以及行業發展。

所以, 拓展數據價值的隱私計算技術,對實現「數據不動價值動」顯得尤為重要

在AI領域, 聯邦學習 作為壹種新的機器學習模型和算法,就是為解決數據孤島問題而提出的。在保證每個參與方不泄露原始數據,即 數據不出域 的前提下,用多方的數據聯合建模,實現數據 可用不可見 ,進而實現「數據不動價值動」。

03

可解釋性

人類對壹切未知的東西,始終都會有壹種莫名的恐懼。

如果人工智能的行為無法進行解釋,只有結果沒有過程,那麽它就像是壹個盲盒,妳永遠不知道放出來的是“阿拉丁”,還是“潘多拉”。

AI 模型是許多重要決策的重要依據,在很多應用裏它的思考過程不能是黑盒

人類希望知道模型 背後的邏輯 、收獲新的知識,並在它出現問題時踩好剎車,確保 AI 思考的過程和結果 合規合法

這背後需要 數據驅動 模型推理能力 結合起來,產生 可解釋的結果

04

公平性

AI公平性是可信AI的重要組成部分。

只有實現“ 公平性 ”,才能真正推動技術 造福 於整個 社會 。

壹方面,公平性需要重視 弱勢人群 、兼顧 落後地區發展 ,在重視 社會 倫理原則下進行 AI 調優 ,通過 AI 技術,讓老年人、殘障人士、欠發達地區用戶,享受到 數字經濟時代 的價值。

另壹方面,公平性要思考如何從技術上思考如何減少算法、數據等因素可能帶來的 AI 決策偏見

魯棒性、隱私保護、可解釋性、公平性

這是可信AI的 四大基本原則

今天,發展可信AI,已經成為 全球***識

特別是對於領先的 科技 公司來講,他們是要服務用戶且不能犯錯誤的。

微軟 、谷歌、 螞蟻 、京東、 騰訊 、曠世等 科技 企業,都在積極開展可信AI的研究和 探索 。

其中,螞蟻在可信AI上已有很多 技術優勢 ,自 2015年 開始投入研究起,已經完成了 長達7年 可信AI技術積累之路

2021年 權威專利機構 IPR daily 發布的《 人工智能安全可信關鍵技術專利報告 》顯示,螞蟻集團旗下的 支付寶 在該領域的 專利申請數 授權數 ,均位列全 球第壹

7

可信AI的應用 探索

基於可信AI的以上特點,應用場景多種多樣。

AI在 醫療 、教育、 工業 、金融等多個領域的廣泛應用,算法安全性、數據濫用、數據歧視等問題也層出不窮。當前AI技術的 主要矛盾, 已經轉化為 人們對AI日益增長的應用範圍需求和AI不可信不夠穩的發展之間的矛盾

2018年,IBM開發了多個AI可信工具,以評估測試人工智能產品在研發過程中的公平性、魯棒性、可解釋性、可問責性、價值壹致性。之後IBM將這些工具捐獻給Linux Foundation並成為了開源項目,幫助開發人員和數據科學家構建可信、安全、可解釋的人工智能系統。

作為可信AI領域的先行者之壹,螞蟻也做了不少 探索 。

螞蟻的可信AI技術應用最好的實踐結果是,自研了壹套 智能風控解決方案 ,定名 IMAGE 。這套技術體系實現了用可信AI技術保障風控業務安全的問題,且達到了非常好的效果。

它能將支付寶 資損率 控制在 千萬分之0.098, 解決了 風控場景 中的諸多 世界難題

還有壹個例子,是支付寶的“ 叫醒熱線 ”——從系統識別到用戶遇到詐騙風險,到AI機器人向用戶呼出“ 叫醒電話 ”,它能把整個過程控制在 0.1秒 內 。

螞蟻集團基於可信AI的IMAGE風控體系

另外在可信AI的公平性方面,螞蟻也有自己的實際應用。

目前業內廣泛使用的“ 圖形滑塊驗證碼 ”壹直是視障人群接入數字化服務的巨大障礙。但許多 APP 為了防範機器批量操作,又不得不保留驗證碼服務。

為此,螞蟻開發了壹套“ 空中手勢 ”驗證碼方案,可以利用“ 行為識別 ”技術幫助視障群體通過“ 驗證碼 ”關卡。

可信AI的應用 探索 ,並不會讓AI技術失去它的可能性。

它更像是壹種倫理規範的約束條約,讓AI在正確的軌道上前行

8

18年後,人類真的無人幸免?

讓我們回到壹開始的問題。

AI真的會覺醒嗎?

壹百年前的人類,很難想象我們如今生活的這個高度數字化世界

那麽,壹百年後,人工智能會發生什麽變革,我們真的無法預測。

但AI對人類是福是禍,是壹個攸關人類命運的重要課題。

按照現在AI發展的模式來看,未來的AI可能會分為兩大派:

壹派是自我獨立的智能AI,壹派是追隨人類的可信AI

當然,還有人在問,AI真的會存在 獨立意誌 嗎?

這要看從科學上如何去解釋,壹個AI系統是可以“坎陷”到具有“ 自我意識 ”的狀態,差別只在於“坎陷”的深度和魯棒性,這可以解釋AlphaZero為什麽能夠自我“坎陷”到圍棋大師,如果再 “ 坎陷 ”下去呢? 這 壹派AI,可能會對人類造成我們認定的“威脅”

另壹派AI,即可信AI,它們會在 四大基本原則 的架構中不斷完善自我 ,幫助人類解決更多實際問題,成為人類可靠的助手,並與人類***存***生 。那麽,它們會壹直幫助和保護人類嗎?

但無論未來如何發展,不同的技術方向或許帶來不同的悲劇或者喜劇,但有壹點可以確定:

AI技術在四面突擊,不論是可信AI還是智能AI,最終會落地深入到我們生活的方方面面 。它會滲透到世界的每壹個角落,在很多方面取代“無用之人”。

不管我們如何擔憂,AI只會變得越來越強大,而人類的進化又顯得如此龜速,甚至退化墮落。

那麽, 18年後,有多少人可以幸免?

  • 上一篇:英語日記 spring festival
  • 下一篇:傲世三國秘籍
  • copyright 2024編程學習大全網