感谢李沐老师的教学视频以及《动手学深度学习》,视频总时长47hhttps://zh-v2.d2l.ai/chapter_preface/index.htmlhttps://www.bilibili.com/video/BV1if4y147hS/?spm_id_from=333.999.0.0&v.....
来源:博客园 2023-10-31 20:00 16
论文标题:SwinTransformer:HierarchicalVisionTransformerusingShiftedWindows论文作者:ZeLiu,YutongLin,YueCao,HanHu,YixuanWei,ZhengZhang,StephenLin,BainingGuo论文来.....
来源:博客园 2023-10-31 18:00 18
这节课中介绍了循环神经网络的第二部分,主要引入了注意力机制,介绍了注意力机制的应用以及如何理解,在此基础上建立了注意力层以及transformer架构注意力机制注意力机制应用与理解注意力层transformer注意力机制上次我们没有提到sequencetosequence的R...
来源:博客园 2023-10-31 11:30 15
seq2seq模型也称为Encoder-Decoder模型。顾名思义,这个模型有两个模块——Encoder(编码器)和Decoder(解码器)。编码器对输入数据进行编码,解码器对被编码的数据进行解码。此时编码器编码的信息浓缩了翻译所必需的信息,解码器基于这个浓缩的信息生成目标文本。这里的数据一般.....
来源:博客园 2023-10-31 11:30 14
这节课中介绍了循环神经网络的第一部分,主要介绍了循环神经网络的基本概念,vanilla循环网络架构,RNN的一些应用,vanilla架构的问题,更先进的rnn架构比如GRU和LSTM循环神经网络基本知识vanilla循环网络架构应用与理解vanilla架构的问题LSTMvani...
来源:博客园 2023-10-30 17:30 19
本文全面深入地探讨了胶囊网络(CapsuleNetworks)的原理、构建块、数学模型以及在PyTorch中的实现。通过本文,读者不仅能够理解胶囊网络的基础概念和高级数学原理,还能掌握其在实际问题中的应用方法。关注TechLead,分享AI与云服务技术的全维度知识。作者拥有10+年互联网服务架...
来源:博客园 2023-10-30 14:30 5
RNN用于解决输入数据为,序列到序列(时间序列)数据,不能在传统的前馈神经网络(FNN)很好应用的问题。时间序列数据是指在不同时间点上收集到的数据,这类数据反映了某一事物、现象等随时间的变化状态或程度,即输入内容的上下文关联性强。整体结构x、o为向量,分别表示输入层、输出层的值;U、V为权重矩...
来源:博客园 2023-10-30 12:30 7
1.背景随着现代技术的快速发展,即时交互变得越来越重要。用户不仅希望获取信息,而且希望以更直观和实时的方式体验它。这在聊天应用程序和其他实时通信工具中尤为明显,用户习惯看到对方正在输入的提示。ChatGPT,作为OpenAI的代表性产品之一,不仅为用户提供了强大的自然语言处理能力,而且关注用户的.....
来源:博客园 2023-10-30 11:00 6
本文深入探讨了深度残差网络(ResNet)的核心概念和架构组成。我们从深度学习和梯度消失问题入手,逐一解析了残差块、初始卷积层、残差块组、全局平均池化和全连接层的作用和优点。文章还包含使用PyTorch构建和训练ResNet模型的实战部分,带有详细的代码和解释。关注TechLead,分享AI与...
来源:博客园 2023-10-29 12:00 10
手机查看