當前位置:編程學習大全網 - 人物素材 - 人工智能如何作弊?

人工智能如何作弊?

論壇內容顯示,機器學習、人工智能、大數據、人臉識別等熱門技術已被不法分子利用實施詐騙。比如上遊黑產利用機器學習和人工智能突破互聯網公司的驗證碼系統,或者利用人工智能技術惡意註冊,獲取號碼資源,提供給不法分子進行詐騙。

隨著科技的進步,創新的電信網絡詐騙防不勝防。

“技術從來都是壹把雙刃劍。我們在享受科技帶來的便利和新奇的同時,也會面臨科技被濫用帶來的風險。”中國傳媒大學政法學院法律系副主任鄭寧說。

詐騙手段不斷翻新,四種形式防不勝防。

隨著技術的更新,詐騙手段的不斷翻新,AI詐騙的主要方式有哪些?

對此,鄭寧總結了AI詐騙的四種形式,並詳細介紹了原理。

據鄭寧介紹,第壹種是轉發微信語音。通過盜取微信號,然後要求轉賬,大部分人會選擇要求對方語音回復。這時候騙子會轉發之前的語音,從而取得信任,獲得錢財。雖然目前不能轉發微信語音,但是騙子可以通過提取語音文件或者安裝微信的增強版(壹般是基於xposed框架的插件)來轉發語音。

“對於這種形式的詐騙,廣大群眾只要提高警惕,直接電話聯系,就能識破騙局。另外,即使要求對方語音回復,也可以提出具體要求,比如要求對方提供身份信息,說明轉賬原因,防止騙子利用之前的語音蒙混過關。”鄭寧說。

鄭寧談到的第二個騙術是語音合成。具體操作就是騙子通過騷擾電話等錄音提取某人的聲音,拿到素材後再合成聲音,讓假聲音欺騙對方。

鄭寧說,通過神經網絡和機器學習技術,可以達到合成聲音的效果。第壹個用神經網絡生成人類自然語音的人是DeepMind的WaveNet。WaveNet是壹種用於生成原始音頻的深度神經網絡。它是由倫敦人工智能公司DeepMind的研究人員創造的。這項技術通過使用真實語音錄制訓練的神經網絡方法,直接模擬波形,可以生成聽起來相對真實的類似人類的聲音。

據了解,2016年,谷歌在加拿大蒙特利爾大學成立了人工智能實驗室(MILA)。基於聲音合成技術,MILA於2017年4月成立了樂鳥公司。在其網站的演示部分,可以聽到特朗普和奧巴馬的官方聲音。美國壹個記者用機器造的句子打電話給家人做實驗,家人根本分不清真假。

“合成的語音有明顯的痕跡,但WaveNet可以將有明顯合成痕跡的機器語音轉換成更流暢、更自然的語音,與人聲的差異大大降低。目前在鬼影行業做的還不錯。Lyrebird更進壹步。它可以根據音色、音調、音節、停頓等特征定義某人的聲音,然後生成更真實的聲音。”鄭寧說。

鄭寧補充說,第三種是AI變臉。視頻通話的可信度明顯高於語音和電話,但利用AI變臉,騙子可以偽裝成任何人。

四是通過AI技術篩選受騙者。騙子會通過分析公眾在網上發布的各種信息,根據要實施的行騙行為對人群進行篩選,從而選定目標人群。比如實施情感詐騙時,可以篩選出經常發布情感信息的人;在進行金融詐騙時,可以篩選出經常收集投資信息的人。

對此,中國人民大學法學院教授劉俊海表示:“利用人工智能技術進行詐騙並不是什麽新鮮事,因為壹旦任何技術出現,犯罪分子都會想到利用新技術實施犯罪。”

加強個人信息保護,警惕詐騙。

詐騙手法不斷翻新,那麽廣大群眾應該如何防範被騙呢?

鄭寧提出兩點建議。首先是驗證,警惕是最好的防騙方式。涉及金錢時,群眾要提高安全意識,通過電話或視頻確認對方是不是自己。當他們不確定自己的真實身份時,可以將到賬時間設置為“2小時到賬”或“24小時到賬”,預留辦理時間。另外,可以選擇向對方銀行匯款,避免通過微信等社交工具轉賬。因為微信等工具會綁定銀行卡,把錢轉到對方銀行卡上,壹方面便於核實對方信息,確認錢的去向;另壹方面,對方可以通過短信通知知道轉賬信息。另外,即使是我操作,也不影響對方取錢。

  • 上一篇:初中語文積累素材摘抄大全
  • 下一篇:有誰知道網遊街頭籃球的那種3D渲染2D的效果是怎麽做的?
  • copyright 2024編程學習大全網