我正在尝试使用 kafka 自动将数据插入到 solr 和香蕉中,但由于这个原因对我来说是不可能的
error in #Convert SolrDocuments
java.lang.NumberFormatException:对于输入字符串:“2007” at java.lang.NumberFormatException.forInputString(NumberFormatException.java:65) at java.lang.Integer.parseInt(Integer.java:580) at java.lang.Integer。 valueOf(Integer.java:766) at com.example.streaming.EventParseUtil.convertData(EventParseUtil.java: 24) at com.example.streaming.CarEventsProcessor.lambda$main$91ca40fe$1(CarEv entsProcessor.java:76) at org .apache.spark.api.java.JavaPairRDD$$anonfun$toScalaFunction$1。appl y(JavaPairRDD.scala:1015) at scala.collection.Iterator$$anon$11.next(Iterator.scala:328) at scala.collection.convert.Wrappers$IteratorWrapper.next(Wrappers.scala:30) at com。 lucidworks.spark.SolrSupport$5.call(SolrSupport.java:216) 在 com.lucidworks.spark.SolrSupport$5.call(SolrSupport.java:210) 在 org.apache.spark.api.java.JavaRDDLike$$anonfun$foreachPartition $1.app ly(JavaRDDLike.scala:225) 在 org.apache.spark.api.java.JavaRDDLike$$anonfun$foreachPartition$1。app ly (JavaRDDLike.scala: 225) at org.apache.spark.rdd.RDD $$ anonfun $ foreachPartition $ 1 $$ anonfun $ apply $3 5.apply (RDD.scala: 927) at org.apache.spark。 rdd. RDD $$ anonfun $ foreachPartition $ 1 $$ anonfun $ apply $ 3 5.apply (RDD.scala: 927) at org.apache.spark.SparkContext $$ anonfun $ runJob $ 5.apply (SparkContext.sc ala: 1857) 在 org.apache.spark.SparkContext $$ anonfun $ runJob $ 5.apply (SparkContext.sc ala:1857) 在 org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:66) 在 org.apache.spark.scheduler.Task.run(Task.scala:89) 在 org.apache.spark.executor.Executor $TaskRunner.run(Executor.scala:247) 在 java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) 在 java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) 在 java。 lang.Thread.run(Thread.java:748) 18/10/06 01:10:08 ERROR
GCT1015
相关分类