Window是Flink中无限流处理的核心,Flink中将Window也算作是数据转换算子。Window有多种… 继续阅读 Flink从入门到实战四[DataStream API]-18-Transform Window
Flink从入门到实战四[DataStream API]-17-Transform连接流Connect
Connect的支持将两个类型不同的流合并,输出一个类型为ConnectedStream的流。Connecte… 继续阅读 Flink从入门到实战四[DataStream API]-17-Transform连接流Connect
Flink从入门到实战四[DataStream API]-16-Transform连接流Union
Union的作用是将两个或多个流合并,创建出一个新流,要求作为数据源的流类型一致,最终数据的新流类型和数据源一… 继续阅读 Flink从入门到实战四[DataStream API]-16-Transform连接流Union
Flink从入门到实战四[DataStream API]-15-Transform聚合算子Reduce
DataStream API没有reduce和sum这类聚合操作的方法,因为Flink设计中,数据必须先分组才… 继续阅读 Flink从入门到实战四[DataStream API]-15-Transform聚合算子Reduce
Flink从入门到实战四[DataStream API]-14-Transform分组算子KeyBy
DataStream API没有reduce和sum这类聚合操作的方法,因为Flink设计中,数据必须先分组才… 继续阅读 Flink从入门到实战四[DataStream API]-14-Transform分组算子KeyBy
Flink从入门到实战四[DataStream API]-13-Transform基础算子Map、FlatMap和Filter
Transform的基础算子主要用来做数据转换和过滤,包括:map、flatMap和filter。 Map将D… 继续阅读 Flink从入门到实战四[DataStream API]-13-Transform基础算子Map、FlatMap和Filter
Flink从入门到实战四[DataStream API]-12-Transform数据转换
Transform的作用就是对数据进行处理、转换,Flink中提供了丰富的API,这类API也称为算子。数据在… 继续阅读 Flink从入门到实战四[DataStream API]-12-Transform数据转换
Flink运行时报错:Specifying keys via field positions is only valid for tuple data types
看异常其实问题已经比较明显了: 代码: keyBy用法keyBy(0)或者keyBy(item->ite… 继续阅读 Flink运行时报错:Specifying keys via field positions is only valid for tuple data types
kafka启动报错:Connection to node -1 (localhost/127.0.0.1:9092) could not be established
Java连接kafka超时报错
报错原因是因为连不上Kafka连不上的原因是因为Java连kafka,kafka需要添加一个配置:advert… 继续阅读 Java连接kafka超时报错
Flink运行时报错:Cannot reference field by position on PojoType
原因是Cannot reference field by position on PojoType,虽然编译器… 继续阅读 Flink运行时报错:Cannot reference field by position on PojoType
Flink运行时报错:could not be determined automatically, due to type erasure
代码: 原因:Lambda无法通过表达式推断出正确的类型 改造代码:1、第一种方法就是使用匿名类 输出结果: … 继续阅读 Flink运行时报错:could not be determined automatically, due to type erasure
Flink从入门到实战四[DataStream API]-11-Source-官网反欺诈自动生成Demo源码解读
自定义Source,官网有一个比较好的例子,用于生成信用卡交易数据,我们简单来看一下源码。源码主要的功能类有两… 继续阅读 Flink从入门到实战四[DataStream API]-11-Source-官网反欺诈自动生成Demo源码解读
Flink从入门到实战四[DataStream API]-10-Source-自定义数据源
自定义Source,最重要的一个步骤就是实现SourceFunction接口,定义一个Source类。在这个自… 继续阅读 Flink从入门到实战四[DataStream API]-10-Source-自定义数据源
Flink从入门到实战四[DataStream API]-9-Source-从MQ中读取数据
pom文件: 安装 RabbitMQ略 RabbitMQ SourceRMQSource 负责从 Rabbit… 继续阅读 Flink从入门到实战四[DataStream API]-9-Source-从MQ中读取数据
Flink从入门到实战四[DataStream API]-8-Source-从Socket中读取数据
基于Socket的数据源,在之前的demo中已经演示了,我们直接看代码: 测试数据 输出结果
Flink从入门到实战四[DataStream API]-7-Source-从Kafka中读取数据
添加pom依赖: 安装kafka前提是本机需要具备JDK1.8或以上的版本。1、下载kafkahttps://… 继续阅读 Flink从入门到实战四[DataStream API]-7-Source-从Kafka中读取数据
Flink从入门到实战四[DataStream API]-6-Source-从文件中读取数据
Flink 从文件中获取数据 输出结果:
Flink从入门到实战四[DataStream API]-5-Source-从集合中获取数据
Flink 从集合中获取数据,我们直接看代码: 输出结果:
Flink从入门到实战四[DataStream API]-4-Source数据源
Flink应用要计算,必须要有执行环境,有了执行环境,那么就需要将要数据输入到计算应用中了。Flink提供了丰… 继续阅读 Flink从入门到实战四[DataStream API]-4-Source数据源