Flink 写入数据到 Kafka

通过Flink官网可以看到Flink里面就默认支持了不少sink,比如也支持Kafka sink connector(FlinkKafkaProducer),那么这篇文章我们就来看看如何将数据写入到Kafka。

自定义Data Sink

上一篇文章介绍了 Flink Data Sink,也介绍了 Flink 自带的 Sink,那么如何自定义自己的 Sink 呢?这篇文章将写一个 demo 教大家将从 Kafka Source 的数据 Sink 到 MySQL 中去。

如何自定义 Data Source

在 Data Source 介绍 文章中,我给大家介绍了 Flink Data Source 以及简短的介绍了一下自定义 Data Source,这篇文章更详细的介绍下,并写一个 demo 出来让大家理解。

Data Sink 介绍

Source 就是数据的来源,中间的 Compute 其实就是 Flink 干的事情,可以做一系列的操作,操作完后就把计算后的数据结果 Sink 到某个地方。(可以是 MySQL、ElasticSearch、Kafka、Cassandra 等)。这里我说下 ......

Data Source 介绍

Data Sources 是什么呢?就字面意思其实就可以知道:数据来源。 Flink 做为一款流式计算框架,它可用来做批处理,即处理静态的数据集、历史的数据集;也可以用来做流处理,即实时的处理些实时数据流,实时的产生数据流结果,只要数据源源不断的过来,Fl ......

Flink 配置文件详解

flink 的安装参照:flink 简单入门, 我们来了解下flink的配置文件。

flink 简单入门

最近开始学习flink相关的,本文只是讲述怎么简单的搭建flink以及简单的使用一个demo。

关于技术栈的思考

学过一年多的机器学习(虽然没怎么用),现在有学大数据,就怕以后啥都不懂。

nginx 请求头过大导致502

nginx 请求头过大导致502,nginx报错: 2020/04/26 21:57:45 [error] 3152#3152: *5 upstream sent too big header while reading response header f ......

博客从solo迁移bolo

solo 博客使用了大概有一年的时间,总体感觉上还不错,但是从在一些其他方面的问题,就是和黑客派 绑定的太死了,有时候会因为社区的原因导致博客的访问量不准确,以及同一ip访问次数过频繁的时候会导致博客访问不了。