本文总结了自编码器(Auto-Encoder)和其变种的相关概念,包括堆栈自编码器、卷积自编码器、正则化自编码器(RAE)、稀疏自编码器(SAE)、 去噪自编码器(DAE)、变分自编码器(VAE)等,并基于Keras实现去噪自编码器在Fashion-Mnist数据集上的去噪。
[论文笔记]本文是ResNet开山论文《Deep Residual Learning for Image Recognition》的阅读笔记,该论文提出了深度残差网络。本文通过理解论文,学习ResNet的原理,并最后通过Keras实现ResNet。
[论文笔记]本文基于论文《Going deeper with convolutions》所做的笔记,该论文提出了Inception v1架构,并在此基础上提出GoogLeNet。本文介绍了其原理,并给出了Keras实现。
[论文笔记]本文是论文《VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION》阅读笔记,该论文提出了VGG16和VGG19深度卷积神经网络,使用Multi-Scale数据增强方法。本文基于Tensorflow.Slim和Keras数据增强生成器搭建训练模型,并实现Keras微调预训练的VGG16模型。
[论文笔记]读深度学习的开山之作《ImageNet Classification with Deep Convolutional Neural Networks》所作的笔记,总结了论文内容,并基于Keras实现了AlexNet。论文使用了很多trick提高模型效果,包括:ReLU、局部响应归一化(LRN)、重叠池化、数据增强、Dropout等。
本文基于论文<A Neural Probabilistic Language Model>提出的神经网络语言模型(NNML),介绍了其原理,以及使用keras复现了模型。
本文介绍了self-attention和multi head attention的原理,定义一个keras实现层。并在其基础上搭建一个中文新闻分类模型,同时给出结果对比。
本文粗略总结了Attention机制,并使用keras实现了attention生成新闻标题。
语音情感识别在人机交互中发挥着重要作用。本文基于Keras框架,使用卷积神经网络(CNN),使用语音特征:梅尔倒谱系数(MFCCs)实现对语音的情感识别。
基于keras,搭建字符级的seq2seq模型,将英语翻译成粤语。