在apacheflink中解析Kafka中的数据


0

我刚开始学习Apache Flink(Scala API),我的问题是:

val stream =
  env.addSource(new FlinkKafkaConsumer09("testing", new SimpleStringSchema() , properties))

一切正常流式打印()语句在屏幕上显示以下内容:

2018-05-16 10:22:44上午1:11-71.16 40.27

我想使用一个case类来加载数据,我尝试过使用

flatMap(p=>p.split("|")) 

但它一次只分割一个字符的数据。

基本上预期的结果是能够填充case类的5个字段,如下所示

  field(0)=2018-05-16 10:22:44 AM
  field(1)=1
  field(2)=11
  field(3)=-71.16 
  field(4)=40.27

但现在它在做:

   field(0) = 2
   field(1) = 0
   field(3) = 1
   field(4) = 8 

等。。。

如有任何建议,将不胜感激。

提前谢谢你

弗兰克

1 答案


0

问题在于字符串.拆分. 如果使用字符串调用它,则该方法要求它是正则表达式。因此,p.split(“\ |”)将是输入数据的正确正则表达式。或者,也可以调用split变量,其中指定分隔字符p.split('|')。两种解决方案都会给你想要的结果。


我来回答

写文章

提问题

面试题