當前位置:編程學習大全網 - 編程語言 - 數據分析師—技術面試

數據分析師—技術面試

數據分析師—技術面試

三月份開始找實習,到現在已經有半年的時間了,在這半年的時間中,該經歷的基本上都已經經歷,春招實習時候,拿到了7個offer,校招時候,成功的拿下壹份心儀的工作,結束了我的秋招旅程。對於面試,技術層面即算法、軟件等等,業務層面就是忽悠(畢竟沒有做過完整的項目),但是也要有自己的邏輯和思考方式(這方面我也有很大的欠缺),下面將自己的面試經歷梳理為技術層面和業務層面,來分享給大家。

技術面試

壹、軟件

1. R語言的文件讀取:csv文件的讀取方式(read.csv),txt文件的讀取方式(read.table)

2. R語言中壹些小函數的作用

①apply函數:1代表調用每壹行的函數,0代表調用每壹列的函數(註意其用法和Python的區別)

②runif函數:生成均勻分布的隨機數

③sample(,return = TRUE):隨機有放回的抽樣

3. Python中list列表和元組的最大區別:元組的值不可以改變,但是列表的值是可以改變的。

4.數據庫中表的連接方式

①內部連接:inner join

②外部連接:outer join

③左連接:left join

註:對於數據分析,建議大家無論是R,Python,sql都有自己壹套流程化的體系,這壹體系可以很好的幫助妳解決實際中的問題。

二、算法

對於算法(分類,聚類,關聯等),更是建議大家有壹套流程化的體系,在面試算法的時候,是壹個依次遞進的過程,不要給自己挖坑,相反,更要將自己的優勢發揮的淋漓盡致,把自己會的東西全部釋放出來。

下面我將自己的所有面試串聯起來,給大家分享壹下,僅供參考。

面試官:小張同學,妳好,看了妳的簡歷,對相關算法還是略懂壹些,下面開始我們的面試,有這麽壹個場景,在壹個樣本集中,其中有100個樣本屬於A,9900個樣本屬於B,我想用決策樹算法來實現對AB樣本進行區分,這時會遇到什麽問題:

小張:欠擬合現象,因為在這個樣本集中,AB樣本屬於嚴重失衡狀態,在建立決策樹算法的過程中,模型會更多的偏倚到B樣本的性質,對A樣本的性質訓練較差,不能很好的反映樣本集的特征。

面試官:看妳決策樹應該掌握的不錯,妳說壹下自己對於決策樹算法的理解?

小張:決策樹算法,無論是哪種,其目的都是為了讓模型的不確定性降低的越快越好,基於其評價指標的不同,主要是ID3算法,C4.5算法和CART算法,其中ID3算法的評價指標是信息增益,C4.5算法的評價指標是信息增益率,CART算法的評價指標是基尼系數。

面試官:信息增益,好的,這裏面有壹個信息論的概念,妳應該知道的吧,敘述壹下

小張:香農熵,隨機變量不確定性的度量。利用ID3算法,每壹次對決策樹進行分叉選取屬性的時候,我們會選取信息增益最高的屬性來作為分裂屬性,只有這樣,決策樹的不純度才會降低的越快。

面試官:OK,妳也知道,在決策樹無限分叉的過程中,會出現壹種現象,叫過擬合,和上面說過的欠擬合是不壹樣的,妳說壹下過擬合出現的原因以及我們用什麽方法來防止過擬合的產生?

小張:對訓練數據預測效果很好,但是測試數據預測效果較差,則稱出現了過擬合現象。對於過擬合現象產生的原因,有以下幾個方面,第壹:在決策樹構建的過程中,對決策樹的生長沒有進行合理的限制(剪枝);第二:在建模過程中使用了較多的輸出變量,變量較多也容易產生過擬合;第三:樣本中有壹些噪聲數據,噪聲數據對決策樹的構建的幹擾很多,沒有對噪聲數據進行有效的剔除。對於過擬合現象的預防措施,有以下壹些方法,第壹:選擇合理的參數進行剪枝,可以分為預剪枝後剪枝,我們壹般用後剪枝的方法來做;第二:K-folds交叉驗證,將訓練集分為K份,然後進行K次的交叉驗證,每次使用K-1份作為訓練樣本數據集,另外的壹份作為測試集合;第三:減少特征,計算每壹個特征和響應變量的相關性,常見的為皮爾遜相關系數,將相關性較小的變量剔除,當然還有壹些其他的方法來進行特征篩選,比如基於決策樹的特征篩選,通過正則化的方式來進行特征選取等。

面試官:妳剛剛前面有提到預剪枝和後剪枝,當然預剪枝就是在決策樹生成初期就已經設置了決策樹的參數,後剪枝是在決策樹完全建立之後再返回去對決策樹進行剪枝,妳能否說壹下剪枝過程中可以參考的某些參數?

小張:剪枝分為預剪枝和後剪枝,參數有很多,在R和Python中都有專門的參數來進行設置,下面我以Python中的參數來進行敘述,max_depth(樹的高度),min_samples_split(葉子結點的數目),max_leaf_nodes(最大葉子節點數),min_impurity_split(限制不純度),當然R語言裏面的rpart包也可以很好的處理這個問題。

面試官:對了,妳剛剛還說到了用決策樹來進行特征的篩選,現在我們就以ID3算法為例,來說壹下決策樹算法對特征的篩選?

小張:對於離散變量,計算每壹個變量的信息增益,選擇信息增益最大的屬性來作為結點的分裂屬性;對於連續變量,首先將變量的值進行升序排列,每對相鄰值的中點作為可能的分離點,對於每壹個劃分,選擇具有最小期望信息要求的點作為分裂點,來進行後續的決策數的分裂。

面試官:妳剛剛還說到了正則化,確實可以對過擬合現象來進行很好的調整,基於妳自己的理解,來說壹下正則化?

小張:這壹塊的知識掌握的不是很好,我簡單說壹下自己對這壹塊的了解。以二維情況為例,在L1正則化中,懲罰項是絕對值之和,因此在坐標軸上會出現壹個矩形,但是L2正則化的懲罰項是圓形,因此在L1正則化中增大了系數為0的機會,這樣具有稀疏解的特性,在L2正則化中,由於系數為0的機率大大減小,因此不具有稀疏解的特性。但是L1沒有選到的特性不代表不重要,因此L1和L2正則化要結合起來使用。

面試官:還可以吧!正則化就是在目標函數後面加上了懲罰項,妳也可以將後面的懲罰項理解為範數。分類算法有很多,邏輯回歸算法也是我們經常用到的算法,剛剛主要討論的是決策樹算法,現在我們簡單聊壹下不同分類算法之間的區別吧!討論壹下決策樹算法和邏輯回歸算法之間的區別?

小張:分為以下幾個方面:第壹,邏輯回歸著眼於對整體數據的擬合,在整體結構上優於決策樹;但是決策樹采用分割的方法,深入到數據內部,對局部結構的分析是優於邏輯回歸;第二,邏輯回歸對線性問題把握較好,因此我們在建立分類算法的時候也是優先選擇邏輯回歸算法,決策樹對非線性問題的把握較好;第三,從本質來考慮,決策樹算法假設每壹次決策邊界都是和特征相互平行或垂直的,因此會將特征空間劃分為矩形,因而決策樹會產生復雜的方程式,這樣會造成過擬合現象;邏輯回歸只是壹條平滑的邊界曲線,不容易出現過擬合現象。

面試官: 下面呢我們來聊壹下模型的評估,算法進行模型評估的過程中,常用的壹些指標都有哪些,精度啊?召回率啊?ROC曲線啊?這些指標的具體含義是什麽?

小張:精度(precision),精確性的度量,表示標記為正例的元組占實際為正例的比例;召回率(recall),完全性的度量,表示為實際為正例的元組被正確標記的比例;ROC 曲線的橫坐標為假陽性,縱坐標為真陽性,值越大,表示分類效果越好。

(to be honest,這個問題第壹次我跪了,雖然說是記憶壹下肯定沒問題,但是當時面試的那個時候大腦是壹片空白)

面試官:聚類分析妳懂得的吧!在我們壹些分析中,它也是我們經常用到的壹類算法,下面妳介紹壹下K-means算法吧!

小張:對於K-means算法,可以分為以下幾個步驟:第壹,從數據點中隨機抽取K個數據點作為初始的聚類中心;第二:計算每個點到這K個中心點的距離,並把每個點分到距離其最近的中心中去;第三:求取各個類的均值,將這些均值作為新的類中心;第四:重復進行步驟二三過程,直至算法結束,算法結束有兩種,壹種是叠代的次數達到要求,壹種是達到了某種精度。

後記

面試的水很深,在數據分析技術面的時候問到的東西當然遠遠不止這些,因此在我們的腦子裏面壹定要形成壹個完整的體系,無論是對某壹門編程語言,還是對數據挖掘算法,在工作中都需要形成妳的閉環,在面試中更是需要妳形成閉環,如何更完美的包裝自己,自己好好總結吧!

附錄

R語言數據處理體系:數據簡單預處理個人總結

1、數據簡單查看

⑴查看數據的維度:dim

⑵查看數據的屬性:colnames

⑶查看數據類型:str

註:有壹些算法,比如說組合算法,要求分類變量為因子型變量;層次聚類,要求是壹個距離矩陣,可以通過str函數進行查看

⑷查看前幾行數據:head

註:可以初步觀察數據是不是有量綱的差異,會後續的分析做準備

⑸查看因子型變量的占比情況:table/prop.table

註:可以為後續數據抽樣做準備,看是否產生類不平衡的問題

2、數據缺失值處理

⑴summary函數進行簡單的查看

⑵利用mice和VIM包查看數據缺失值情況,代表性函數: md.pattern、aggr

⑶caret包中的preProcess函數,可以進行缺失值的插補工作,有knn、袋裝、中位數方法

⑷missForest包中的missForest函數,可以用隨機森林的方法進行插補

⑸可以用回歸分析的方法完成缺失值插補工作

⑹如果樣本量很多,缺失的數據很少,可以選擇直接剔除的方法

3、數據異常值處理

⑴summary函數進行簡單的查看,比如:最大值、最小值等

⑵boxplot函數繪制箱線圖

4、數據抽樣

⑴sample函數進行隨機抽樣

⑵caret包中的createDataPartition()函數對訓練樣本和測試樣本進行等比例抽樣

⑶caret包中的createFold函數根據某壹個指標進行等比例抽樣

⑷DMwR包中SMOTE函數可以解決處理不平衡分類問題

註:比如決策樹算法中,如果樣本嚴重不平衡,那麽模型會出現欠擬合現象

5、變量的多重***線性處理

⑴結合業務,先刪除那些和分析無關的指標

⑵corrgram包的corrgram函數查看相關系數矩陣

⑶caret包中的findCorrelation函數查看多重***線性

⑷如果相關性太大,可以考慮刪除變量;如果變量比較重要,可以考慮主成分/因子分析進行降維處理

  • 上一篇:什麽是IT與IE行業?
  • 下一篇:網上的編程培訓靠譜嗎?
  • copyright 2024編程學習大全網