文章目录

ZEEKLING

Stay simple, stay naive.

git 命令详解

主要记录自己平时使用的git命令,方便记忆和查找..

The RavenClaw dialog management framework 论文阅读

本文描述了一个基于计划的、独立于任务的对话管理框架RavenClaw。该框架的一个关键特点是,它将对话控制逻辑的特定领域方面与独立于领域的对话技巧隔离开来,并在这个过程中促进了在复杂的、面向任务的领域中运行的混合主动系统的快速发展。系统开发人员可以专注于描述对话框任务控制逻辑,而RavenClaw对话框引擎则透明地支持和执行大量与领域无关的会话技能,如错误处理、计时和轮流。

Dialogue Transformers 论文详解

论文中引入 transformer 的结构,其中注意力模型在对话轮的顺序上面起了了作用.最近我们使用递归神经网络多轮对话的上下文中用户说的话,但是我们原本认为注意力模型会更适合多轮场景.默认情况下,RNN假设每个选项和完整的序列有关,但是一轮对话当中包括一些交错的对话逻辑在里面. transformer 模型可以选择忽略或者选择对话的一部分内容.们比较了 Transformer Embedding Dialogue对话策略对LSTM和REDP的政策.旨在克服RNN的这一限制。我们证明了TED的政策无论是在准确性还是速度上,行为都是比较有利的。

骑行去浙江农业大学.

疯狂的骑行了30公里,整个人都要瘫了..

生命,何以高贵 读后感

生命是高贵的,不在形体,财富,在于灵魂. 所以我们需要学习,思考,自尊以及尊重别人,

20191025 TGIF

哇哇哇,又抢到一个tgif,想问大家都看些什么书,有什么可以推荐的.

Conditional Adversarial Nets 详解

本文提出在利用 GAN(对抗网络)的方法时,在生成模型G和判别模型D中都加入条件信息来引导模型的训练,并将这种方法应用于跨模态问题,例如图像自动标注等。

剪个寸头, 哈哈哈

最近老是想剪个寸头,索性今天就实现了梦想.

2019国庆厦门游玩

本来打算回家的,但是老家距离杭州比较远,就放弃掉了,在好朋友的忽悠下去了厦门游玩.总体来讲玩的还不错,厦门风景也不错,哈哈哈.

深入理解L1,L2正则化

正则化(Regularization) 是机器学习中对原始损失函数引入额外信息,以便防止过拟合和提高模型泛化性能的一类方法的统称。正则化是在经验风险上面加了一个正则化项或者惩罚项,正则化函数一般是模型法则度的单调增函数,模型越负责,正则化值就越大.

我的书单

整理自己读过的一些个人觉得好不错的书籍。

K近邻算法(KNN)详解

K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类中.