Flink除了可以将结果写入到文本、Socket、Kafka、RabbitMQ等终端,还可以将Flink计算结… 继续阅读 Flink从入门到实战四[DataStream API]-24-Sink数据输出到JDBC
分类: 编程之美
发现编程语言之美,体验代码简洁之道,分享各类编程教程,技术心得分享
Flink从入门到实战四[DataStream API]-23-Sink数据输出到Redis
使用Redis作为Sink,我们需要定义一个RedisSink对象,addSink方法中的RedisSink需… 继续阅读 Flink从入门到实战四[DataStream API]-23-Sink数据输出到Redis
Flink从入门到实战四[DataStream API]-22-Sink数据输出到Kafka
Flink Kafka Producer 被称为 FlinkKafkaProducer。它允许将消息流写入一个… 继续阅读 Flink从入门到实战四[DataStream API]-22-Sink数据输出到Kafka
Flink从入门到实战四[DataStream API]-21-Sink数据输出到Socket
我们来看一下,如何将Flink的计算结果输出到Socket。 使用Socket来接收Flink输出结果。1、启… 继续阅读 Flink从入门到实战四[DataStream API]-21-Sink数据输出到Socket
Flink从入门到实战四[DataStream API]-20-Sink数据输出到文件
Flink将计算结果输出到文件,代码如下: 需要注意的是,输出到文件,运行环境并发度要设置为1,即env.se… 继续阅读 Flink从入门到实战四[DataStream API]-20-Sink数据输出到文件
Flink从入门到实战四[DataStream API]-19-Sink数据输出
了解了前面的数据源和数据转换,接下来我们看一下数据输出部分,Flink中定义为Sink。Data sinks … 继续阅读 Flink从入门到实战四[DataStream API]-19-Sink数据输出
Flink从入门到实战四[DataStream API]-18-Transform Window
Window是Flink中无限流处理的核心,Flink中将Window也算作是数据转换算子。Window有多种… 继续阅读 Flink从入门到实战四[DataStream API]-18-Transform Window
Flink从入门到实战四[DataStream API]-17-Transform连接流Connect
Connect的支持将两个类型不同的流合并,输出一个类型为ConnectedStream的流。Connecte… 继续阅读 Flink从入门到实战四[DataStream API]-17-Transform连接流Connect
Flink从入门到实战四[DataStream API]-16-Transform连接流Union
Union的作用是将两个或多个流合并,创建出一个新流,要求作为数据源的流类型一致,最终数据的新流类型和数据源一… 继续阅读 Flink从入门到实战四[DataStream API]-16-Transform连接流Union
Flink从入门到实战四[DataStream API]-15-Transform聚合算子Reduce
DataStream API没有reduce和sum这类聚合操作的方法,因为Flink设计中,数据必须先分组才… 继续阅读 Flink从入门到实战四[DataStream API]-15-Transform聚合算子Reduce
Flink从入门到实战四[DataStream API]-14-Transform分组算子KeyBy
DataStream API没有reduce和sum这类聚合操作的方法,因为Flink设计中,数据必须先分组才… 继续阅读 Flink从入门到实战四[DataStream API]-14-Transform分组算子KeyBy
Flink从入门到实战四[DataStream API]-13-Transform基础算子Map、FlatMap和Filter
Transform的基础算子主要用来做数据转换和过滤,包括:map、flatMap和filter。 Map将D… 继续阅读 Flink从入门到实战四[DataStream API]-13-Transform基础算子Map、FlatMap和Filter
Flink从入门到实战四[DataStream API]-12-Transform数据转换
Transform的作用就是对数据进行处理、转换,Flink中提供了丰富的API,这类API也称为算子。数据在… 继续阅读 Flink从入门到实战四[DataStream API]-12-Transform数据转换
Flink运行时报错:Specifying keys via field positions is only valid for tuple data types
看异常其实问题已经比较明显了: 代码: keyBy用法keyBy(0)或者keyBy(item->ite… 继续阅读 Flink运行时报错:Specifying keys via field positions is only valid for tuple data types
kafka启动报错:Connection to node -1 (localhost/127.0.0.1:9092) could not be established
Java连接kafka超时报错
报错原因是因为连不上Kafka连不上的原因是因为Java连kafka,kafka需要添加一个配置:advert… 继续阅读 Java连接kafka超时报错
Flink运行时报错:Cannot reference field by position on PojoType
原因是Cannot reference field by position on PojoType,虽然编译器… 继续阅读 Flink运行时报错:Cannot reference field by position on PojoType
Flink运行时报错:could not be determined automatically, due to type erasure
代码: 原因:Lambda无法通过表达式推断出正确的类型 改造代码:1、第一种方法就是使用匿名类 输出结果: … 继续阅读 Flink运行时报错:could not be determined automatically, due to type erasure
Flink从入门到实战四[DataStream API]-11-Source-官网反欺诈自动生成Demo源码解读
自定义Source,官网有一个比较好的例子,用于生成信用卡交易数据,我们简单来看一下源码。源码主要的功能类有两… 继续阅读 Flink从入门到实战四[DataStream API]-11-Source-官网反欺诈自动生成Demo源码解读
Flink从入门到实战四[DataStream API]-10-Source-自定义数据源
自定义Source,最重要的一个步骤就是实现SourceFunction接口,定义一个Source类。在这个自… 继续阅读 Flink从入门到实战四[DataStream API]-10-Source-自定义数据源