Flink新版kafka连接器的KafkaSource与KafkaSink的使用示例
Flink新版kafka连接器的KafkaSource与KafkaSink的使用示例
Flink新版kafka连接器的KafkaSource与KafkaSink的使用示例
遇到个需求,需要将Map转换为case class以及将case class转换回Map的场景,之前写java的时候会使用BeanUtil之类的工具类实现,但这些工具类到scala中遇到case class有些水土不服,不能正常使用,无奈之下只能自己写个工具,通过反射实现这两个的转换Map转换为ca
java7新增了try-with-resources的功能,在使用需要关闭的流对象时,可以很方便的实现自动关闭IO,但是scala没有这种功能,不过我们可以通过自定义方法的方式实现类似功能。//通过泛型实现,接收AutoCloseable的子类,调用AutoCloseable的close方法def
在使用scalikejdbc的过程中,有时会操作一些通过表名进行分区的表,如table_202112这种月分区的表,
在使用jdbc的时候不免遇到需要批量插入或者更新的场景,对于batch操作,scalikejdbc的官方文档写的不是太清楚,特此写文档进行记录。scalikejdbc的配置方式可以参考这篇文章:设置HikariCP作为scalikejdbc连接池或者参考官方文档
scala version: 2.12.7近日使用scala开发flink与spark程序,遇到需要读写数据库的场景,因为手写jdbc太过繁琐,就找到了scalikejdbc的框架,该框架对jdbc进行了封装,支持scala的多种特性,用起来很方便。但是