當前位置:編程學習大全網 - 人物素材 - 特斯拉空調視頻資料

特斯拉空調視頻資料

特斯拉最近出了大新聞。只有內部郵件宣稱已經實現了L2自動駕駛,這壹次完全是“純視覺”。

這壹次,美國時間7月10,特斯拉FSD Beta V9.0終於推送給了美國的用戶。與之前的版本相比,V9.0進行了FSD歷史上最大的更新。完全放棄了雷達的使用。而且特斯拉招募了2000名車主進行內測,報名踴躍。但是,BUG很快就出來了。

這不,壹個叫Giacaglia的網友看了特斯拉車主發的視頻,立馬收藏了FSD 9.0 beta的11個錯誤瞬間。從動圖來看,很明顯現在的系統只能算是輔助駕駛。如果擺脫了,或者離開了人的監督,還是會出事的。這次可以看到的bug有:

場景壹:自動轉彎後,撞到路中間的綠化帶。

場景2:無法識別道路中的單軌道路。

場景三:闖入公交專用道。

場景四:單行道逆行。

場景五:不停變道。當妳在十字路口右轉時,妳無法判斷該走哪條車道。

場景六:汽車壓實線平行;當妳需要緊急變道時,因為後面的車輛正在靠近,妳錯過了機會,只能在下壹個路口相遇。

場景七:超車後道路有標誌,要強行並線。

場景八:左轉時提前變道。

場景九:左轉時,差點進了對面的路邊停車位。

場景10:汽車要經過幾條車道才能左轉。

場景11:在壹個只有停車標誌的地方,妳看到兩個停車標誌。

“作為深度學習方向的人,我肯定不敢坐有神經網絡的車……”“對,我在做ML(機器學習)看現在的自動駕駛,堪比醫生遇到失敗的同學給自己做手術。”“強迫機器學習人(純粹靠視覺)是錯誤的發展方向。機器有自己的優勢(可以自由安裝雷達等設備進行輔助)而不用,這是典型的教條主義和本本主義。”……

這些都是很專業的問題。那麽,特斯拉對科技樹的看法是錯誤的嗎?雖然這個問題見仁見智,但是從主流的CV(計算機視覺)+雷達路線來看,特斯拉有點像“Xi杜”歐陽鋒。為了降低成本,純視覺走到了黑,“死也不後悔”的精神壹直存在,但這是消費者的命...

為什麽是純視覺?

如果說特斯拉老老實實說自己是司機助手的話,糟糕的是馬斯克從壹開始就喜歡“吹”autopilot,吹了之後還在內部郵件裏承認是L2司機助手。然而現在馬斯克已經被吹成了神話,這場造神運動已經讓馬斯克無法騎在虎背上。

而且國內外“特殊打擊”太多,包括大眾集團CEO赫伯特迪斯博士。當然,迪斯博士打特斯拉麻痹敵人,另當別論。

且不說特斯拉多年排名墊底的自動駕駛技術害死了多少人。要說特斯拉依靠“純視覺”方案就能達到全自動駕駛的L4~L5水平,真是不可思議。

蘇黎世聯邦理工學院教授Marc Pollefeys認為,特斯拉不太可能放棄全自動駕駛近在咫尺的想法。“許多人已經為它(特斯拉的FSD包)付出了代價,所以他們必須保持希望,”他說。“他們被困在那個故事裏了。”這個故事已經成為壹個神話。

那麽,特斯拉為什麽取消雷達使用純視覺呢?特斯拉壹再強調,很難融合攝像頭數據和雷達數據。當相機數據和雷達數據發生沖突時,系統會更難選擇。

所以馬斯克也說過,與其讓兩者互相拉回來,不如只選壹個,並且做到極致。而且在他看來,特斯拉的深度學習系統已經比毫米波雷達強了100倍,現在毫米波雷達已經開始拖後腿了。

在今年的CVPR(Computational Vision and Pattern Recognition Conference)上,特斯拉首席AI科學家Andrej Capassi也談到了特斯拉如此頑固的原因。但是,對於誤入歧途的特斯拉,我們還是奉勸保持冷靜。

為什麽?其實道理很簡單。雖然人在開車,主要是視覺,但是其他感官是綜合的,不是無用的。比如聽覺,身體觸覺,甚至有意識的直覺。“事實上,人類在駕駛時,幾乎是無意識的,因此可以預測下壹步該做什麽,避免事故發生。”這是奇瑞科技有限公司總經理李在世界人工智能大會的壹個論壇上說的話。在這壹點上,特斯拉有點太執著於視覺了。

通用視覺系統和神經網絡

那麽在這次CVPR上,特斯拉的Andrej Capassi詳細介紹了基於深度學習的自動駕駛系統,也就是全視覺有什麽好處?

特斯拉的底氣是采用“通用視覺系統”和“神經網絡”兩大黑科技。當然,卡帕西強調,從技術角度來看,基於視覺的自動駕駛更難實現,因為它需要神經網絡僅基於視頻輸入來實現超性能輸出。“然而,壹旦取得突破,就可以獲得通用的視覺系統,可以很容易地部署在地球上的任何地方。”

“我們拋棄了毫米波雷達,車輛只靠視覺行駛。”卡帕西認為,有了通用視覺系統,車輛不再需要任何補充信息。特斯拉始終認為,收集環境信息是壹回事,使用環境信息又是另壹回事。而且傳感器的種類和數量越多,相互之間的協調和整合就越困難,最終的效果很可能只有1+1 ^ 2,得不償失。

特斯拉這次發布的FSD Beta V9.0,從技術上來說,新算法調用所有8個用於自動駕駛的攝像頭,修復跨鏡頭畸變和時差,拼接成全景視覺,然後對周圍環境進行實時3D建模。那就是特斯拉所說的“鳥瞰視覺”。

具體來說,特斯拉將2D視圖轉換為模擬的激光雷達數據,然後用(激光雷達)算法處理這些數據,獲得比以前好得多的視覺測距精度。妳不覺得奇怪嗎,既然還要用激光雷達算法,為什麽不用激光雷達?

據特斯拉稱,其自動駕駛系統基於神經網絡特征識別、預測和調節。對於學習道路環境項目,比如交通標誌是什麽意思,需要通過很多場景素材來訓練系統。訓練越多,系統能處理的場景就越多。通過百萬車主積累的大數據,特斯拉可以輕松在當前的城市道路上自主駕駛。

事實上,馬斯克壹直想把特斯拉的制造成本降到最低。成本方面,目前特斯拉Model 3的自動駕駛攝像頭成本僅為65美元。激光雷達的成本基本都在65438美元+0,000以上。要知道,2018年,威力登的64線激光雷達HDL-64的價格高達7.5萬美元。

當然,支撐特斯拉車價壹再下跌的是成本控制。但是,馬斯克和特斯拉還是太迷信軟件和AI的力量了。對於自動駕駛的“長尾問題”,特斯拉認為靠AI和超級計算機解決是有問題的。即使完成了99%,最後的1%依然是不可逾越的鴻溝。

此外,有外媒認為,美國傳統車企通用汽車將在2021超越特斯拉,因為特斯拉在自動駕駛方面已經落後,尤其是在“純視覺”路線上。

傳感器融合是未來。

就純視覺的局限性而言,有業內人士認為,感知探測能力的KPI指標在壹些極端場景下無法滿足。比如壹些復雜的天氣情況,比如暴雨、大霧、沙塵、強光、夜晚,對於視覺和激光雷達來說都是非常惡劣的場景,很難用壹個傳感器來應對。主要體現在幾大方面:

1)天氣和環境因素(如逆光眩光、沙塵暴遮擋等)導致的視覺傳感器失明。);

2)低分辨率視覺感知系統中的小目標物體可能會造成目標識別延遲(如減速帶、小動物、錐體等。);

3)外來目標可能因未經訓練而匹配不上,被遺漏識別(路面落石、前車掉胎等。);

4)視覺傳感器本身的識別要求和視覺識別的高計算能力要求。

甚至壹些自動駕駛測試或者成熟廠商在智能駕駛上也有不少撞車事件,為傳感器系統的失靈付出慘痛的代價。因此,傳感器融合是構建穩定傳感系統的必要條件。畢竟視覺感知能力有限,必須和毫米波雷達或者激光雷達結合起來互補。

回過頭來看,如果特斯拉內部BUG中有壹個場景沒有被人類司機接管,就會演變成交通事故。這讓人放心嗎?特斯拉的車主也很擔心。

此外,我們知道攝像頭如何感知深度只是自動駕駛問題的壹部分。特斯拉所依賴的最先進的機器學習只識別模式,這意味著它將在新的情況下掙紮。糾結的時候會有誤判。

與人類司機不同,如果系統沒有遇到場景,它無法推理該做什麽。“沒有人工智能系統知道實際發生了什麽,”康奈爾大學研究自動駕駛汽車計算機視覺的副教授基利安·溫伯格說。

還有壹點,雖然FSD 9.0為智能駕駛輔助系統創造了更廣闊的應用場景,但是在L2級別的駕駛輔助系統(不是自動駕駛系統)的前提下,這些功能還是有些尷尬,因為在駕駛過程中是不可能擺脫的。而且人類駕駛員不僅需要手握方向盤,還需要在城市道路上與車載電腦系統競爭,增加了額外的負擔和心理壓力。

FSD BETA V9.0的這些內部bug會在實際道路上反復出現,無疑給城市交通制造了更多隱患。但是,這個系統能不能用在中國更復雜的開放道路上?公社裏還有壹些小夥伴對特斯拉超級有信心。“大家都沒打開過。妳怎麽知道會不會有用?”是的,不管是騾子還是馬,特斯拉總是會拉著它出去散步。

  • 上一篇:跑車的側面材料
  • 下一篇:女孩之間作文素材
  • copyright 2024編程學習大全網