学术报告
-
长短期记忆网络
LSTM,全称为长短期记忆网络(Long Short-Term Memory networks),是一种深度神经网络,同时也是一种特殊的循环神经网络(RNN)。通过在RNN的网络结构中增加三个“门”(输入门、输出门、忘记门),以及一个记忆单元,有效解决了RNN的长期依赖问题,在文本翻译、语音识别、图像识别等领域都得到了广泛的应用。本次报告,将为大家介绍L…
-
Boosting Methods
集成学习是机器学习领域中提升单一模型学习效果的典型方法,而Boosting则是集成学习中常用且效果良好的算法之一。通过将Weak learner巧妙地组合成Strong learner,即使是简单的决策树桩,也能构建性能优良的学习模型以解决复杂的分类、回归问题。本次报告,将带领大家由浅入深走入Boosting,了解其背后的秘密! 附件-提升方法(Boos…
-
操作系统结构与内核安全基础
虽然每个电脑使用者都听说过操作系统,但是大部分人对于操作系统的结构,以及平时计算机安全领域常常提到的“操作系统内核”是十分陌生的。 本次学术报告为大家讲解了操作系统最基本的结构,以及操作系统内核的相关知识,意图使大家对操作系统的结构、工作原理、内核安全等相关知识有一个初步的了解。 附件-操作系统结构与内核安全基础.pdf
-
Bias-Variance trade-off
背景 熟悉模式识别的童鞋都很清楚,在模式识别领域内存在许多的学习算法和技术。面对纷繁的算法,我们必然会产生疑问:究竟哪一个算法才是“最好的”。值的强调的是每个算法都有相应的先验假设,针对某个问题看上去比另一个算法好,也仅仅说明该算法更是这这一特定的模式识别任务。总而言之就是没有天生优越的算法。 实际中,我们通常会偏爱一些算法,大多因为他们有相对较小的计算复杂…
-
动态规划——最小编辑代价
1.问题描述 上一次说了最小编辑距离,这次在这上面加一点料,a1、a2和a3每次操作的代价不同了,加入了每个操作的代价,这下问题变为,针对字符串a和字符串b定义三种操作,a1、a2、a3: a1:修改a中一个字符,代价为A a2:插入一个字符到a中,代价为B a3:从a中删除一个字符,代价为C 经过这三种操作,将a变换成b,在给定a和b的情况下,求需要的最小…
-
启发式参数优化算法举例
优化问题在日常生活中比较常见,而对于数据挖掘领域优化问题则更为常见,更为普遍。任何一种算法在设计之初必然预留了一组可调的参数,以期通过参数调节来得到算法的最佳效果。因为参数优化问题则成为数据挖掘不可避免的问题。预留参数越多,利用简单的网格法调参的时间消耗也就越大,如何调高参数调节效率也就成为数据挖掘领域面临的一个重要问题。 背景 参数优化可以划分为传统优化算…
-
频繁项集算法分析
一、 什么是频繁项集 项集是指事项的集合,而频繁项集就是频繁出现在数据集中的项集,说白了就在数据集中“出现次数足够多”的项集。 其中,项集的出现频度是指包含项集的事务的数量,简称为项集的频度、支持度计数。如果项集I的支持度计数满足预定义的最小支持度计数阈值,则I是频繁项集。之前提到的“出现次数足够多”的衡量标准就是最小支持度计数阈值。如果频繁项集中共含有k个…
-
并查集算法及其在约束传递中的应用
<img src="http://www.isclab.org.cn/wp-content/uploads/2015/06/41.png" alt="" title="4" width="700“