Java基础 -- 位运算 2019年12月22日 18:18:44 | 2,771 浏览 | 0 评论 | Java 程序中的所有数在计算机内存中都是以二进制的形式存储的。位运算(Bitwise operation)就是直接对整数在内存中的二进制位进行操作,因此其执行效率非常高。
腾讯云服务器优化 2021年03月21日 13:58:38 | 3,945 浏览 | 0 评论 | linux 原创 腾讯云服务器 大概就是在几个月之前本人租了一台服务器用来搭建自己的博客(原来的博客是在阿里云香港服务器上面,在十一期间被和谐了),于是租用了1核1G内存的云服务器(三年800多元),可是在使用的过程中发现cpu和内存占用有点异常,查了下发现以下问题: 服务器上面跑着几个监控软件(并没有什么),占了好多CPU. 服务器没有swap分区,1G虽然够用,但是优点不爽 内存的缓存部分占得比例比较大 磁盘变大了好多,但是本人安装的几个软件都不会占这么多磁盘
The RavenClaw dialog management framework 论文阅读 2024年07月28日 23:32:08 | 2,071 浏览 | 0 评论 | 论文 机器学习 本文描述了一个基于计划的、独立于任务的对话管理框架RavenClaw。该框架的一个关键特点是,它将对话控制逻辑的特定领域方面与独立于领域的对话技巧隔离开来,并在这个过程中促进了在复杂的、面向任务的领域中运行的混合主动系统的快速发展。系统开发人员可以专注于描述对话框任务控制逻辑,而RavenClaw对话框引擎则透明地支持和执行大量与领域无关的会话技能,如错误处理、计时和轮流。
Dialogue Transformers 论文详解 2024年07月28日 23:32:33 | 2,751 浏览 | 0 评论 | 论文 机器学习 论文中引入 transformer 的结构,其中注意力模型在对话轮的顺序上面起了了作用.最近我们使用递归神经网络多轮对话的上下文中用户说的话,但是我们原本认为注意力模型会更适合多轮场景.默认情况下,RNN假设每个选项和完整的序列有关,但是一轮对话当中包括一些交错的对话逻辑在里面. transformer 模型可以选择忽略或者选择对话的一部分内容.们比较了 Transformer Embedding Dialogue对话策略对LSTM和REDP的政策.旨在克服RNN的这一限制。我们证明了TED的政策无论是在准确性还是速度上,行为都是比较有利的。
Conditional Adversarial Nets 详解 2023年08月27日 11:34:13 | 2,363 浏览 | 0 评论 | 机器学习 论文 本文提出在利用 GAN(对抗网络)的方法时,在生成模型G和判别模型D中都加入条件信息来引导模型的训练,并将这种方法应用于跨模态问题,例如图像自动标注等。
深入理解L1,L2正则化 2024年07月28日 23:34:46 | 1,997 浏览 | 0 评论 | 机器学习 正则化(Regularization) 是机器学习中对原始损失函数引入额外信息,以便防止过拟合和提高模型泛化性能的一类方法的统称。正则化是在经验风险上面加了一个正则化项或者惩罚项,正则化函数一般是模型法则度的单调增函数,模型越负责,正则化值就越大.