久久精品人人爽,华人av在线,亚洲性视频网站,欧美专区一二三

Spark SQL的代碼示例分析

172次閱讀
沒有評論

共計 3462 個字符,預計需要花費 9 分鐘才能閱讀完成。

這篇文章跟大家分析一下“Spark SQL 的代碼示例分析”。內容詳細易懂,對“Spark SQL 的代碼示例分析”感興趣的朋友可以跟著丸趣 TV 小編的思路慢慢深入來閱讀一下,希望閱讀后能夠對大家有所幫助。下面跟著丸趣 TV 小編一起深入學習“Spark SQL 的代碼示例分析”的知識吧。

參考官網 Spark SQL 的例子,自己寫了一個腳本:

val sqlContext = new org.apache.spark.sql.SQLContext(sc)
import sqlContext.createSchemaRDD
case class UserLog(userid: String, time1: String, platform: String, ip: String, openplatform: String, appid: String)
// Create an RDD of Person objects and register it as a table.
val user = sc.textFile(/user/hive/warehouse/api_db_user_log/dt=20150517/*).map(_.split( \\^)).map(u =  UserLog(u(0), u(1), u(2), u(3), u(4), u(5)))
user.registerTempTable(user_log)
// SQL statements can be run by using the sql methods provided by sqlContext.
val allusers = sqlContext.sql(SELECT * FROM user_log)
// The results of SQL queries are SchemaRDDs and support all the normal RDD operations.
// The columns of a row in the result can be accessed by ordinal.
allusers.map(t =   UserId:  + t(0)).collect().foreach(println)

結果執行出錯:

org.apache.spark.SparkException: Job aborted due to stage failure: Task 1 in stage 50.0 failed 1 times, most recent failure: Lost task 1.0 in stage 50.0 (TID 73, localhost): java.lang.ArrayIndexOutOfBoundsException: 5
 at $iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$anonfun$2.apply(console :30)
 at $iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$anonfun$2.apply(console :30)
 at scala.collection.Iterator$$anon$11.next(Iterator.scala:328)
 at org.apache.spark.util.Utils$.getIteratorSize(Utils.scala:1319)
 at org.apache.spark.rdd.RDD$$anonfun$count$1.apply(RDD.scala:910)
 at org.apache.spark.rdd.RDD$$anonfun$count$1.apply(RDD.scala:910)
 at org.apache.spark.SparkContext$$anonfun$runJob$4.apply(SparkContext.scala:1319)
 at org.apache.spark.SparkContext$$anonfun$runJob$4.apply(SparkContext.scala:1319)
 at org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:61)
 at org.apache.spark.scheduler.Task.run(Task.scala:56)
 at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:196)
 at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
 at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
 at java.lang.Thread.run(Thread.java:745)

從日志可以看出,是數組越界了。

用命令

sc.textFile(/user/hive/warehouse/api_db_user_log/dt=20150517/*).map(_.split( \\^)).foreach(x =  println(x.size))

發現有一行記錄 split 出來的大小是“5”

6
15/05/21 20:47:37 INFO Executor: Finished task 0.0 in stage 2.0 (TID 4). 1774 bytes result sent to driver
15/05/21 20:47:37 INFO Executor: Finished task 1.0 in stage 2.0 (TID 5). 1774 bytes result sent to driver

原因是這行記錄有空值“44671799^2015-03-27 20:56:05^2^117.93.193.238^0^^”

網上找到了解決辦法——使用 split(str,int) 函數。修改后代碼:

val sqlContext = new org.apache.spark.sql.SQLContext(sc)
import sqlContext.createSchemaRDD
case class UserLog(userid: String, time1: String, platform: String, ip: String, openplatform: String, appid: String)
// Create an RDD of Person objects and register it as a table.
val user = sc.textFile(/user/hive/warehouse/api_db_user_log/dt=20150517/*).map(_.split( \\^ , -1)).map(u =  UserLog(u(0), u(1), u(2), u(3), u(4), u(5)))
user.registerTempTable(user_log)
// SQL statements can be run by using the sql methods provided by sqlContext.
val allusers = sqlContext.sql(SELECT * FROM user_log)
// The results of SQL queries are SchemaRDDs and support all the normal RDD operations.
// The columns of a row in the result can be accessed by ordinal.
allusers.map(t =   UserId:  + t(0)).collect().foreach(println)

關于 Spark SQL 的代碼示例分析就分享到這里啦,希望上述內容能夠讓大家有所提升。如果想要學習更多知識,請大家多多留意丸趣 TV 小編的更新。謝謝大家關注一下丸趣 TV 網站!

正文完
 
丸趣
版權聲明:本站原創文章,由 丸趣 2023-08-04發表,共計3462字。
轉載說明:除特殊說明外本站除技術相關以外文章皆由網絡搜集發布,轉載請注明出處。
評論(沒有評論)
主站蜘蛛池模板: 郯城县| 改则县| 汉川市| 区。| 永顺县| 甘德县| 固安县| 开原市| 利辛县| 平顺县| 和平区| 旬邑县| 贵港市| 射阳县| 子长县| 顺义区| 疏勒县| 左贡县| 沅江市| 罗定市| 灵山县| 周口市| 封开县| 仁化县| 嘉黎县| 新蔡县| 荆门市| 淮安市| 桦川县| 青神县| 金湖县| 普陀区| 诸暨市| 永州市| 六安市| 绿春县| 东城区| 林西县| 惠安县| 迭部县| 通辽市|