小令童鞋

梅干菜你个小酥饼哦。

文章

The RavenClaw dialog management framework 论文阅读

本文描述了一个基于计划的、独立于任务的对话管理框架RavenClaw。该框架的一个关键特点是,它将对话控制逻辑的特定领域方面与独立于领域的对话技巧隔离开来,并在这个过程中促进了在复杂的、面向任务的领域中运行的混合主动系统的快速发展。系统开发人员可以专注于描述对话框任务控制逻辑,而RavenClaw对话框引擎则透明地支持和执行大量与领域无关的会话技能,如错误处理、计时和轮流。

Dialogue Transformers 论文详解

论文中引入 transformer 的结构,其中注意力模型在对话轮的顺序上面起了了作用.最近我们使用递归神经网络多轮对话的上下文中用户说的话,但是我们原本认为注意力模型会更适合多轮场景.默认情况下,RNN假设每个选项和完整的序列有关,但是一轮对话当中包括一些交错的对话逻辑在里面. transformer 模型可以选择忽略或者选择对话的一部分内容.们比较了 Transformer Embedding Dialogue对话策略对LSTM和REDP的政策.旨在克服RNN的这一限制。我们证明了TED的政策无论是在准确性还是速度上,行为都是比较有利的。

2019国庆厦门游玩

本来打算回家的,但是老家距离杭州比较远,就放弃掉了,在好朋友的忽悠下去了厦门游玩。总体来讲玩的还不错,厦门风景也不错,哈哈哈。

深入理解L1,L2正则化

正则化(Regularization) 是机器学习中对原始损失函数引入额外信息,以便防止过拟合和提高模型泛化性能的一类方法的统称。正则化是在经验风险上面加了一个正则化项或者惩罚项,正则化函数一般是模型法则度的单调增函数,模型越负责,正则化值就越大.

我的书单

本页主要用来记录自己已经读过的书或者是正在读的书,里面的这些书都是个人觉得值得花一点时间去读的书,如果感兴趣的话可以交流下。

梅干菜你个小酥饼哦。

© 2020 小令童鞋

Powered by 菠萝博客 Bolo
Theme bolo-sakura by Mashiro
浏览 89896 文章 78 评论 148
浙ICP备19040285号-1

浙公网安备 33011002014174号

浙公网安备 33011002014174号

主题 | Theme