共計 1403 個字符,預計需要花費 4 分鐘才能閱讀完成。
丸趣 TV 小編給大家分享一下怎么用 Eclipse 開發 Spark2.0,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
1. 首先我用的是 scala 版本的 ide. 這個可以去官網下載。先介紹下我的版本:hadoop2.7.2+spark2.0+scala2.11+java1.7
首先打開 eclipse,設置好 workspace 后,就能開始開發了
2. 新建 scala Project . 起個項目的名字
3. 新建個 scala object . 開始寫代碼
注意需要導入相關的包。主要有 scala 的包還有 spark 的包,spark 需要的包主要在 spark 安裝目錄下的 jar 文件下的所有包
4. 廢話少說,直接上代碼
object TestSparkStreaming {
def main(args: Array[String]): Unit = {
import org.apache.spark._
import org.apache.spark.streaming._
import org.apache.spark.streaming.StreamingContext._ // not necessary since Spark 1.3
// Create a local StreamingContext with two working thread and batch interval of 1 second.
// The master requires 2 cores to prevent from a starvation scenario.
val conf = new SparkConf().setMaster( local[2] ).setAppName(NetworkWordCount)
val ssc = new StreamingContext(conf, Seconds(5))
val lines = ssc.socketTextStream(master , 9999)
// val lines = ssc.textFileStream(/home/usr/temp/)
val words = lines.flatMap(_.split())
import org.apache.spark.streaming.StreamingContext._ // not necessary since Spark 1.3
// Count each word in each batch
val pairs = words.map(word = (word, 1))
val wordCounts = pairs.reduceByKey(_ + _)
// Print the first ten elements of each RDD generated in this DStream to the console
wordCounts.print()
ssc.start() // Start the computation
ssc.awaitTermination()
}
}
5. 在 linux 終端連上 9999 端口 nc-lk 9999
輸入一些單詞
6. 可以看到 eclipse 的控制臺會輸出結果
以上是“怎么用 Eclipse 開發 Spark2.0”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注丸趣 TV 行業資訊頻道!