呼不上来请留言
   公司给新员工发了一瓶饮料,不知道为啥写了呼不上来请留言,咱也不知道
原创   生活   |  2020-09-05   0 评论   941 浏览

朋友十一结婚
   一好饭友十一期间结婚,去参加了一波,挺为他们开心的,两年多爱情长跑终于修成正果。最开始在一起的时候还是异地恋,当时我还和朋友经常一起吃饭啥的(说好的一起单身呢)。后来两人为了爱情,都回到了西安,最后终于修成正果,好酸
原创   结婚   |  2020-10-05   2 评论   1,086 浏览

意外到来的寒假
   意外到来的寒假,对我来讲是难得的清闲,可是对于武汉人以及疫区的人们来讲,确实煎熬。 愿我天朝能够尽快解决疫情,战胜疫情。 也希望天朝政府里面少一些蛀虫,毕竟“千里之堤溃于蚁穴”还是有可能的。
生活   新型冠状病毒   原创   |  2020-02-12   0 评论   957 浏览

2020半年度总结
   转眼之间2020年已经过去一半时间了,时间过得真快,想想自己写2019年半年度总结没过多久。总结下前半年的收获。
生活   2020   原创   总结   |  2020-08-03   2 评论   2,991 浏览

Java 中使用Redis 简单操作
   换了工作之后在华为搞FusionInsight的redis组件,复习下redis相关的知识。从简单的数据操作开始。
redis   Java   转载   |  2020-06-22   0 评论   1,641 浏览

Redis数据清理详解
   Redis常用的删除策略有以下三种: 被动删除(惰性删除):当读/写一个已经过期的Key时,会触发惰性删除策略,直接删除掉这个Key; 主动删除(定期删除):Redis会定期巡检,来清理过期Key; 当内存达到maxmemory配置时候,会触发Key的删除操作; 另外,还有一种基于触发器的删除策略,因为对Redis压力太大,一般没人使用。
redis   转载   |  2020-06-22   0 评论   1,393 浏览

环材化生劝退计划
   环材化生劝退计划 劝退一人胜发七篇 CNS
转载   |  2020-06-17   3 评论   1,277 浏览

Kafka概述
   Kafka是一个分布式的基于发布/订阅模式的消息队列,主要应用于大数据实时处理领域。
转载   kafka   |  2020-05-24   0 评论   900 浏览

Kafka深入解析
   Kafka中消息是以topic进行分类的,生产者生产消息,消费者消费消息,都是面向topic的。 topic是逻辑上的概念,而partition是物理上的概念,每个partition对应于一个log文件,该log文件中存储的就是producer生产的数据。Producer生产的数据会被不断追加到该log文件末端,且每条数据都有自己的offset。消费者组中的每个消费者,都会实时记录自己消费到了哪个offset,以便出错恢复时,从上次的位置继续消费。
kafka   转载   |  2020-05-24   0 评论   1,121 浏览

Kafka API操作实践
     Kafka的Producer发送消息采用的是异步发送的方式。在消息发送的过程中,涉及到了两个线程——main线程和Sender线程,以及一个线程共享变量——RecordAccumulator。main线程将消息发送给RecordAccumulator,Sender线程不断从RecordAccumulator中拉取消息发送到Kafka broker。 Consumer消费数据时的可靠性是很容易保证的,因为数据在Kafka中是持久化的,故不用担心数据丢失问题 ......
kafka   转载   |  2020-05-17   0 评论   1,213 浏览

Flink 写入数据到 Kafka
   通过Flink官网可以看到Flink里面就默认支持了不少sink,比如也支持Kafka sink connector(FlinkKafkaProducer),那么这篇文章我们就来看看如何将数据写入到Kafka。
转载   flink   |  2020-05-15   0 评论   1,252 浏览

自定义Data Sink
   上一篇文章介绍了 Flink Data Sink,也介绍了 Flink 自带的 Sink,那么如何自定义自己的 Sink 呢?这篇文章将写一个 demo 教大家将从 Kafka Source 的数据 Sink 到 MySQL 中去。
flink   转载   |  2020-05-05   0 评论   954 浏览

如何自定义 Data Source
   在 Data Source 介绍 文章中,我给大家介绍了 Flink Data Source 以及简短的介绍了一下自定义 Data Source,这篇文章更详细的介绍下,并写一个 demo 出来让大家理解。
转载   flink   |  2020-05-04   0 评论   943 浏览

Data Sink 介绍
   Source 就是数据的来源,中间的 Compute 其实就是 Flink 干的事情,可以做一系列的操作,操作完后就把计算后的数据结果 Sink 到某个地方。(可以是 MySQL、ElasticSearch、Kafka、Cassandra 等)。这里我说下自己目前做告警这块就是把 Compute 计算后的结果 Sink 直接告警出来了(发送告警消息到钉钉群、邮件、短信等),这个 sink 的意思也不一定非得说成要把数据存储到某个地方去。其实官网用的 Conn ......
转载   flink   |  2020-05-04   0 评论   1,128 浏览

Data Source 介绍
   Data Sources 是什么呢?就字面意思其实就可以知道:数据来源。 Flink 做为一款流式计算框架,它可用来做批处理,即处理静态的数据集、历史的数据集;也可以用来做流处理,即实时的处理些实时数据流,实时的产生数据流结果,只要数据源源不断的过来,Flink 就能够一直计算下去,这个 Data Sources 就是数据的来源地。
flink   转载   |  2020-05-03   0 评论   1,000 浏览