在“File|ProjectStructure|Libraries”窗體中點擊綠色+號,選擇“Java”,在彈出的窗體中選擇“Spark”的安裝目錄,定位到Spark\jars目錄,點擊“OK”,把全部jar文件引入到項目中。網上和目前出版的書中講解是spark2.0以下版本,采用的是把sparkle核心文件(如:“spark-assembly-1.3.0-hadoop2.4.0.jar”)拷貝到InterllijIDEA安裝目錄下的Lib目錄下,再使用Spark。由於Spark2.1.0已經取消了該文件,因此無法用原先的方法。
上一篇:語言編碼轉換容易的問題下一篇:源碼編譯安裝gcc,怎樣會出現全是no