机器学习笔记(22):注意力机制
前言 人脑每个时刻接收的外界输入信息非常多,包括来自于视觉、听觉、触觉的各种各样的信息,人脑中的工作记忆并不能同时处理这些过载的输入信息,大脑神经系统有个重要机制可以解决信息过载问题,即注意力 借鉴人脑解决信息过载的机制,提高对神经网络处理信息的能力 注意力机制 简介 注意力是一种人类不可或缺的复杂认知功能,可以关注一
:注意力机制-封面.jpg)
共 22 个标签
前言 人脑每个时刻接收的外界输入信息非常多,包括来自于视觉、听觉、触觉的各种各样的信息,人脑中的工作记忆并不能同时处理这些过载的输入信息,大脑神经系统有个重要机制可以解决信息过载问题,即注意力 借鉴人脑解决信息过载的机制,提高对神经网络处理信息的能力 注意力机制 简介 注意力是一种人类不可或缺的复杂认知功能,可以关注一
:注意力机制-封面.jpg)
循环神经网络 前馈神经网络的缺陷 前馈神经网络每次输入都是独立的,即网络的输出只依赖于当前输入,且要求输入和输出都维度都是固定的,不能任意改变 但现实情况下,要求网络输出不仅和当前时刻输入相关,也和其过去一段时间输出相关,并且时序数据的长度一般式不固定的,比如视频、语音、文本等 给网络增加短期记忆能力 针对上面的问题,
:循环神经网络-封面.jpg)
前言 参考: 《统计学习》—李航(蓝皮) 另注:受笔者时间影响,此系列的笔记只有聚类方法、SVD和PCA,其余暂时不更新 无监督学习方法总结
:无监督方法总结-封面.jpg)
前言 参考: 《统计学习》—李航(蓝皮) 部分来自网络的内容(主要是liaohuiqiang的博客) 10种监督学习方法 注:笔者的笔记中并未整理最后两种 适用问题 感知机,KNN,朴素贝叶斯,决策树(排除CART回归树),逻辑斯谛回归与最大熵模型,SVM,提升方法(包括AdaBoost)是分类方法。原始的感知机,SV
:监督学习方法总结-封面.jpg)
前言 参考: 《统计学习》—李航(蓝皮) 部分来自网络的内容(主要是liaohuiqiang的博客) 提升方法 简介 提升方法(Boosting)是一种常用的统计学习方法,应用广泛且有效。在分类问题中,它通过改变训练样本的权重,学习多个分类器,并将这些分类器进行线性组合,提高分类的性能。 基本思路:Boosting基于
:提升方法(AdaBoost与提升树)-封面.jpg)
前言 参考: 《统计学习》—李航(蓝皮) 部分来自网络的内容(主要是liaohuiqiang的博客) 支持向量机(SVM) 简介 支持向量机是一种二分类模型,它的基本模型是定义在特征空间上的间隔最
:SVM简介及线性SVM-封面.jpg)
前言 主要参考为 《统计学习》—李航(蓝皮) 《机器学习》—周志华(西瓜书) 部分来自网络的内容(liaohuiqiang的博客为主,感谢他!) 统计学习(机器学习) 学习:Herber A. Simon曾对“学习”给出以下定义:“如果一个系统能够通过执行某个过程改进它的性能,这就是学习”。 统计学习:统计学习就是计算
:统计学习概论与监督学习-封面.jpg)
01年考研抽象函数求偏导
