傅里叶分析6
Minecraft16
思考8
微分方程8
R 语言3
机器学习34
随笔24
高等代数28
其他0
政治4
Kotlin14
线性代数28
概率论与数理统计27
数学分析33
学习方法8
Vue0
插件开发10
博客开发2
Java19
编程30
Spring Boot0
数学101

机器学习 34 篇文章

高性能IoC(控制反转)容器设计与Aop(面向切面编程)四:你的private有时需要“被我一览无余”(JVM的底层“后门”与语言级绕过安全检查的反射“黑魔法”)

第四部分:实现篇 - 高性能反射 在前面的章节中,我们设计了 IoC 容器和 AOP 框架的架构。这些框架的核心都依赖于 Java 反射机制。然而,传统反射存在严重的性能问题。本部分将深入探讨如何实现

高性能IoC(控制反转)容器设计与Aop(面向切面编程)四:你的private有时需要“被我一览无余”(JVM的底层“后门”与语言级绕过安全检查的反射“黑魔法”)

使用JDK底层魔法类和字节汇编为Forge引入运行时动态依赖加载

目标 在Forge扫描Mod之前将 它的依赖下载并动态注入到ClassLoader,而不是shadow打包FatJar,目的是为了减小Mod的体积。下载部分不再阐述,本文只探讨动态注入部分 思路 因为

使用JDK底层魔法类和字节汇编为Forge引入运行时动态依赖加载

CBAM和CA注意力机制

前言 在EfficientNet的复现中我们已经提到了SE注意力机制,现在简要介绍18年的CBAM和21年的CA注意力机制 论文: (ECCV'18)CBAM: Convolutional Bloc

CBAM和CA注意力机制

复现谷歌EfficientNet

前言 在后ResNet时代,EfficientNet作为仅用ResNet 3%的参数就达到其90%性能的存在,值得我们的研究一番 目标:实现EfficientNet的完整架构,包括: Stem: 初

复现谷歌EfficientNet

机器学习笔记(23):Transformers Encoder-Decoder架构

前言 这是笔者在结束科班课程后对此系列笔记的接续更新,此后该系列的笔记主要以论文解析为主,值得注意的是,在之前CNN领域有诸多创新,例如2012年的AlexNet,2014年的VGGNet,2015年

机器学习笔记(23):Transformers Encoder-Decoder架构

机器学习笔记(22):注意力机制

前言 人脑每个时刻接收的外界输入信息非常多,包括来自于视觉、听觉、触觉的各种各样的信息,人脑中的工作记忆并不能同时处理这些过载的输入信息,大脑神经系统有个重要机制可以解决信息过载问题,即注意力 借鉴人脑解决信息过载的机制,提高对神经网络处理信息的能力 注意力机制 简介 注意力是一种人类不可或缺的复杂认知功能,可以关注一

机器学习笔记(22):注意力机制

机器学习笔记(21):网络优化和正则化

引言 当神经网络模拟应用到机器学习时,往往会遇到下面两个问题 优化问题 全局最优解困难 训练效率通常比较低 梯度消失/爆炸问题 这导致神经网络的网络优化十分困难 泛化问题 模型复杂度高 拟合能力很强 容易产生过拟合问题 需要通过正则化方法提高泛化能力 网络优化 简介 网络优化指寻找一个神经网络模型来使得经验(或结构)风

机器学习笔记(21):网络优化和正则化

机器学习笔记(20):循环神经网络

循环神经网络 前馈神经网络的缺陷 前馈神经网络每次输入都是独立的,即网络的输出只依赖于当前输入,且要求输入和输出都维度都是固定的,不能任意改变 但现实情况下,要求网络输出不仅和当前时刻输入相关,也和其过去一段时间输出相关,并且时序数据的长度一般式不固定的,比如视频、语音、文本等 给网络增加短期记忆能力 针对上面的问题,

机器学习笔记(20):循环神经网络

机器学习笔记(19):卷积前馈神经网络

卷积(前馈)神经网络 简介 卷积神经网络(Covolutional Neural Network, CNN)是一种在计算机视觉领域取得了巨大成功的深度学习模型。它们的设计灵感来自于生物学会总得视觉系统,旨在模拟人类的视觉处理方式。 图像原理与为什么需要CNN 灰白图像在计算机中是一堆按顺序排列的数字,数值为0到255,

机器学习笔记(19):卷积前馈神经网络

机器学习笔记(18):全连接前馈神经网络

(全连接)前馈神经网络 简介 前馈神经网络(Feedforward Neural Network, FNN)作为神经网络的一种,把每个神经元按接收信息的先后分为不同的组,每一组可以看作是一个神经层。每一层的神经元接收前一层神经元的输出,并输出到下一层神经元。整个网络中的信息是朝着一个方向传播的,它可以看作是一个函数,通

机器学习笔记(18):全连接前馈神经网络
  • 1
  • 2
  • 3
  • 4