【Flink】【更新中】状态后端和checkpoint
   状态后端和checkpoint详解,包括常见checkpoint问题处理。
flink   |  2023-08-27   0 评论   384 浏览

java 17运行jar报错:java.lang.UnsatisfiedLinkError: Can't load library:
   在我的Linux笔记本上面运行一个jar包的时候报错如下: Exception in thread "main" java.lang.UnsatisfiedLinkError: Can't load library: /usr/lib/jvm/java-17-openjdk-amd64/lib/libawt_xawt.so at java.base/java.lang.ClassLoader.loadLibrary(ClassLoader.java:2393 ......
linux   |  2023-09-17   1 评论   345 浏览

Flink Checkpoint/Savepoint对比
   Flink 为作业的容错提供 Checkpoint 和 Savepoint 两种机制。保存点机制(Savepoints)是检查点机制一种特殊的实现,它允许你通过手工方式来触发Checkpoint,并将结果持久化存储到指定路径中,主要用于避免Flink集群在重启或升级时导致状态丢失。
flink   |  2023-09-10   0 评论   295 浏览

dropout 详解
   Dropout是用于防止过拟合和提供一种有效近似联结指数级不同神经网络结构的方法,能够有效的缓解深度网络的过拟合现象.
机器学习   |  2019-08-03   0 评论   1,604 浏览

Auto-Encoding Variational Bayes 笔记
   Auto-Encoding Variational Bayes论文笔记
机器学习   论文   |  2019-08-17   0 评论   2,105 浏览

VARIATIONAL RECURRENT AUTO-ENCODERS 详解
   VARIATIONAL RECURRENT AUTO-ENCODERS 笔记
论文   机器学习   |  2019-08-18   0 评论   1,668 浏览

半监督学习
   在实际生活中,常常会出现一部分样本有标记和较多样本无标记的情形,例如:做网页推荐时需要让用户标记出感兴趣的网页,但是少有用户愿意花时间来提供标记。若直接丢弃掉无标记样本集,使用传统的监督学习方法,常常会由于训练样本的不充足,使得其刻画总体分布的能力减弱,从而影响了学习器泛化性能。那如何利用未标记的样本数据呢?
机器学习   |  2019-08-31   0 评论   1,775 浏览

Conditional Adversarial Nets 详解
   本文提出在利用 GAN(对抗网络)的方法时,在生成模型G和判别模型D中都加入条件信息来引导模型的训练,并将这种方法应用于跨模态问题,例如图像自动标注等。
机器学习   论文   |  2019-10-19   0 评论   1,960 浏览

Dialogue Transformers 论文详解
   论文中引入 transformer 的结构,其中注意力模型在对话轮的顺序上面起了了作用.最近我们使用递归神经网络多轮对话的上下文中用户说的话,但是我们原本认为注意力模型会更适合多轮场景.默认情况下,RNN假设每个选项和完整的序列有关,但是一轮对话当中包括一些交错的对话逻辑在里面. transformer 模型可以选择忽略或者选择对话的一部分内容.们比较了 Transformer Embedding Dialogue对话策略对LSTM和REDP的政策.旨在克服 ......
论文   机器学习   |  2019-11-24   0 评论   2,241 浏览

The RavenClaw dialog management framework 论文阅读
   本文描述了一个基于计划的、独立于任务的对话管理框架RavenClaw。该框架的一个关键特点是,它将对话控制逻辑的特定领域方面与独立于领域的对话技巧隔离开来,并在这个过程中促进了在复杂的、面向任务的领域中运行的混合主动系统的快速发展。系统开发人员可以专注于描述对话框任务控制逻辑,而RavenClaw对话框引擎则透明地支持和执行大量与领域无关的会话技能,如错误处理、计时和轮流。
论文   机器学习   |  2019-11-30   0 评论   1,534 浏览

自己简历被抄是什么样的体验
   发现自己简历被炒是一种什么样的体验。今天我就遇到了一个抄了我简历的,刷新了我的世界观。
生活   原创   |  2020-03-12   40 评论   6,404 浏览

世界好小
   有时候世界真的好小,能够在圈子里面遇到意想不到的人,这或许就是生活吧。
生活   原创   |  2020-03-27   2 评论   2,740 浏览

神经网络简介
   一直沿用至今的“M-P神经元模型”正是对这一结构进行了抽象,也称“阈值逻辑单元“,其中树突对应于输入部分,每个神经元收到n个其他神经元传递过来的输入信号,这些信号通过带权重的连接传递给细胞体,这些权重又称为连接权(connection weight)。细胞体分为两部分,前一部分计算总输入值(即输入信号的加权和,或者说累积电平),后一部分先计算总输入值与该神经元阈值的差值,然后通过激活函数(activation function)的处理,产生输出从轴突传送给其 ......
机器学习   转载   |  2020-04-25   0 评论   1,274 浏览

卷积神经网络
   卷积神经网络沿用了普通的神经元网络即多层感知器的结构,是一个前馈网络。以应用于图像领域的CNN为例,大体结构如图。
机器学习   转载   |  2020-04-25   0 评论   1,122 浏览

ResNet 详解
   深度网络随着层数不断加深,可能会引起梯度消失/梯度爆炸的问题: “梯度消失”:指的是即当梯度(小于1.0)在被反向传播到前面的层时,重复的相乘可能会使梯度变得无限小。 “梯度爆炸”:指的是即当梯度(大于1.0)在被反向传播到前面的层时,重复的相乘可能会使梯度变得非常大甚至无限大导致溢出。 随着网络深度的不断增加,常常会出现以下两个问题: 长时间训练但是网络收敛变得非常困难甚至不收敛 网络性能会逐渐趋于饱和,甚至还会开始下降,可以观察到下图中56层的误差 ......
机器学习   转载   |  2020-04-25   0 评论   1,052 浏览