WM141 – 系统入门深度学习,直击算法工程师 [17.1G]

┣━━第1章 初识深度学习 [281.8M]
┃ ┣━━1-1 系统入门深度学习,从这里轻松开始.mp4 [81.8M]
┃ ┣━━1-2 本章内容介绍.mp4 [4.8M]
┃ ┣━━1-3 神经网络&深度学习.mp4 [85.9M]
┃ ┣━━1-4 深度学习路线图.mp4 [25.7M]
┃ ┣━━1-5 深度学习应用.mp4 [76M]
┃ ┗━━1-6 本章总结.mp4 [7.6M]
┣━━第2章 入门必修:单、多层感知机 [1.4G]
┃ ┣━━2-1 本章内容介绍.mp4 [5.1M]
┃ ┣━━2-10 项目构建和模型训练(1).mp4 [149.4M]
┃ ┣━━2-11 项目构建和模型训练(2).mp4 [180.5M]
┃ ┣━━2-12 项目构建和模型训练(3).mp4 [168.8M]
┃ ┣━━2-13 项目构建和模型训练(4).mp4 [267.2M]
┃ ┣━━2-14 模型评估和选择.mp4 [151.3M]
┃ ┣━━2-15 本章总结.mp4 [22.3M]
┃ ┣━━2-2 深度学习实施的一般过程.mp4 [23.2M]
┃ ┣━━2-3 逻辑回归.mp4 [14.7M]
┃ ┣━━2-4 逻辑回归损失函数.mp4 [27.7M]
┃ ┣━━2-5 逻辑回归示例.mp4 [135.9M]
┃ ┣━━2-6 单层、多层感知机.mp4 [52.3M]
┃ ┣━━2-7 pytorch 构建单多层感知机.mp4 [206.2M]
┃ ┣━━2-8 基于多层DNN假钞识别.mp4 [3.9M]
┃ ┗━━2-9 数据集及特征分析.mp4 [42.3M]
┣━━第3章 深度学习基础组件精讲 [988.8M]
┃ ┣━━3-1 本章内容介绍.mp4 [9.8M]
┃ ┣━━3-2 如何划分和处理你的数据集.mp4 [21.2M]
┃ ┣━━3-3 正确的初始化模型参数.mp4 [86.3M]
┃ ┣━━3-4 激活函数选择.mp4 [109.4M]
┃ ┣━━3-5 优化器选择.mp4 [130.5M]
┃ ┣━━3-6 Normalization 增强模型训练(上).mp4 [205.8M]
┃ ┣━━3-7 Normalization 增强模型训练(下).mp4 [209M]
┃ ┣━━3-8 使用正则提升模型表现.mp4 [190.5M]
┃ ┗━━3-9 本章总结.mp4 [26.4M]
┣━━第4章 图像处理利器:卷积神经网络 [3G]
┃ ┣━━4-1 本章内容介绍.mp4 [9.9M]
┃ ┣━━4-10 Vgg介绍及实现.mp4 [354.9M]
┃ ┣━━4-11 图片的数据增广.mp4 [253.3M]
┃ ┣━━4-12 手势识别应用来源和项目分析.mp4 [42.2M]
┃ ┣━━4-13 模型设计.mp4 [38.5M]
┃ ┣━━4-14 MoocTrialNet模型搭建(1).mp4 [258.5M]
┃ ┣━━4-15 MoocTrialNet模型搭建(2).mp4 [175.9M]
┃ ┣━━4-16 MoocTrialNet模型搭建(3).mp4 [277.2M]
┃ ┣━━4-17 MoocTrialNet模型搭建(4).mp4 [286M]
┃ ┣━━4-18 MoocTrialNet模型搭建(5).mp4 [129.8M]
┃ ┣━━4-19 模型评估和选择.mp4 [137M]
┃ ┣━━4-2 人类视觉和卷积神经网络关系.mp4 [129.1M]
┃ ┣━━4-20 本章总结.mp4 [21.2M]
┃ ┣━━4-3 卷积神经网络的应用.mp4 [67.4M]
┃ ┣━━4-4 卷积运算是怎样的过程(上).mp4 [171.8M]
┃ ┣━━4-5 卷积运算是怎样的过程(下).mp4 [126.4M]
┃ ┣━━4-6 用池化进行下采样.mp4 [149.8M]
┃ ┣━━4-7 几种卷积的变体(上).mp4 [131.7M]
┃ ┣━━4-8 几种卷积的变体(下).mp4 [213.1M]
┃ ┗━━4-9 利用残差搭建更深的网络.mp4 [133M]
┣━━第5章 为序列数据而生:RNN系列 [1.8G]
┃ ┣━━5-1 本章内容介绍.mp4 [10.9M]
┃ ┣━━5-10 GRU实现唤醒词识别.mp4 [70.5M]
┃ ┣━━5-11 基于双层、双向GRU的命令词识别模型搭建(1).mp4 [212.9M]
┃ ┣━━5-12 基于双层、双向GRU的命令词识别模型搭建(2).mp4 [199.2M]
┃ ┣━━5-13 基于双层、双向GRU的命令词识别模型搭建(3).mp4 [206.9M]
┃ ┣━━5-14 基于双层、双向GRU的命令词识别模型搭建(4).mp4 [211.4M]
┃ ┣━━5-15 基于双层、双向GRU的命令词识别模型搭建(5).mp4 [143.6M]
┃ ┣━━5-16 模型评估和选择.mp4 [111.5M]
┃ ┣━━5-17 本章总结.mp4 [68.8M]
┃ ┣━━5-2 什么是序列模型.mp4 [60.6M]
┃ ┣━━5-3 不同的RNN应用类型:OvM, MvM.mp4 [14.6M]
┃ ┣━━5-4 循环神经网络原理.mp4 [157.7M]
┃ ┣━━5-5 用BPTT 训练RNN.mp4 [22M]
┃ ┣━━5-6 两个重要的变体:LSTMGRU(上).mp4 [73.7M]
┃ ┣━━5-7 两个重要的变体:LSTMGRU(下).mp4 [155.2M]
┃ ┣━━5-8 利用双向、多层RNN增强模型.mp4 [119.7M]
┃ ┗━━5-9 典型应用范式:Encoder-Decoder.mp4 [21.5M]
┣━━第6章 深度学习新思路: GAN网络 [2.7G]
┃ ┣━━6-1 本章内容介绍.mp4 [9.6M]
┃ ┣━━6-10 用DCGAN生成人脸照片.mp4 [82.1M]
┃ ┣━━6-11 超参和dataset编写.mp4 [307.4M]
┃ ┣━━6-12 generator编写.mp4 [272.6M]
┃ ┣━━6-13 discriminator编写.mp4 [207.8M]
┃ ┣━━6-14 trainer 编写(1).mp4 [162.3M]
┃ ┣━━6-15 trainer 编写(2).mp4 [194.5M]
┃ ┣━━6-16 trainer 编写(3).mp4 [263.7M]
┃ ┣━━6-17 trainer 编写(4).mp4 [258.5M]
┃ ┣━━6-18 怎么检查GAN的训练过程?.mp4 [224.1M]
┃ ┣━━6-19 本章总结.mp4 [36.1M]
┃ ┣━━6-2 什么是生成式模型?.mp4 [76.8M]
┃ ┣━━6-3 GAN的原理(上).mp4 [65.9M]
┃ ┣━━6-4 GAN的原理(下).mp4 [134.4M]
┃ ┣━━6-5 GAN的一些变体之:CycleGAN.mp4 [108.6M]
┃ ┣━━6-6 GAN的一些变体之:StyleGAN(上).mp4 [36M]
┃ ┣━━6-7 GAN的一些变体之:StyleGAN(下).mp4 [153.2M]
┃ ┣━━6-8 GAN的一些变体之:DCGAN.mp4 [49M]
┃ ┗━━6-9 GAN的一些变体之:text-to-image.mp4 [75.8M]
┣━━第7章 赋予模型认知能力:注意力机制 [3.4G]
┃ ┣━━7-1 本章内容介绍.mp4 [10.2M]
┃ ┣━━7-10 model结构和位置编码.mp4 [231.3M]
┃ ┣━━7-11 encoder.mp4 [252.1M]
┃ ┣━━7-12 Multi-head attention(上).mp4 [251.2M]
┃ ┣━━7-13 Multi-head attention(下).mp4 [297.4M]
┃ ┣━━7-14 Pointwise FeedForward.mp4 [98.4M]
┃ ┣━━7-15 decoder.mp4 [322.3M]
┃ ┣━━7-16 transformer(上).mp4 [199.1M]
┃ ┣━━7-17 transformer(下).mp4 [93.8M]
┃ ┣━━7-18 trainer脚本编写.mp4 [180.7M]
┃ ┣━━7-19 infer推理函数编写.mp4 [193.7M]
┃ ┣━━7-2 什么是注意力机制?.mp4 [75.7M]
┃ ┣━━7-20 inference和attention map展示(上).mp4 [120.4M]
┃ ┣━━7-21 inference和attention map展示(下).mp4 [137.8M]
┃ ┣━━7-22 本章总结.mp4 [36.3M]
┃ ┣━━7-3 注意力机制的一般性原理.mp4 [57.1M]
┃ ┣━━7-4 几种典型的注意力机制 hard、soft、local attention.mp4 [66.3M]
┃ ┣━━7-5 自注意力机制:self-attention.mp4 [107.9M]
┃ ┣━━7-6 Transformer.mp4 [67.3M]
┃ ┣━━7-7 用Transformer实现G2P(上).mp4 [157.4M]
┃ ┣━━7-8 用Transformer实现G2P(下).mp4 [184M]
┃ ┗━━7-9 g2p dataset 编写.mp4 [321M]
┣━━第8章 数据不够怎么办?迁移学习来帮忙 [924.8M]
┃ ┣━━8-1 本章内容介绍.mp4 [7M]
┃ ┣━━8-2 什么是迁移学习.mp4 [53.8M]
┃ ┣━━8-3 迁移学习分类.mp4 [117.2M]
┃ ┣━━8-4 怎么实施迁移学习?.mp4 [69.6M]
┃ ┣━━8-5 基于ResNet迁移学习的姿势识别.mp4 [140.4M]
┃ ┣━━8-6 工程代码(上).mp4 [211.9M]
┃ ┣━━8-7 工程代码(下).mp4 [149.3M]
┃ ┣━━8-8 inference.mp4 [151.1M]
┃ ┗━━8-9 本章总结.mp4 [24.6M]
┣━━第9章 深度学习新范式:半监督学习 [2.7G]
┃ ┣━━9-1 本章内容介绍.mp4 [6.4M]
┃ ┣━━9-10 utils编写(3).mp4 [179.1M]
┃ ┣━━9-11 utils编写(4).mp4 [131.7M]
┃ ┣━━9-12 model编写.mp4 [55.9M]
┃ ┣━━9-13 loss 编写.mp4 [98.6M]
┃ ┣━━9-14 trainer 编写(1).mp4 [283.2M]
┃ ┣━━9-15 trainer 编写(2).mp4 [185.9M]
┃ ┣━━9-16 trainer 编写(3).mp4 [361.1M]
┃ ┣━━9-17 trainer 编写(4).mp4 [189.5M]
┃ ┣━━9-18 本章总结.mp4 [14.3M]
┃ ┣━━9-2 半监督学习是什么?.mp4 [50.8M]
┃ ┣━━9-3 半监督学习能解决什么问题?.mp4 [90M]
┃ ┣━━9-4 几种典型的半监督学习方法(上).mp4 [83M]
┃ ┣━━9-5 几种典型的半监督学习方法(下).mp4 [116.2M]
┃ ┣━━9-6 在Cifar10上实现MixMatch半监督学习-论文拆解.mp4 [170.7M]
┃ ┣━━9-7 超参和dataset.mp4 [140.2M]
┃ ┣━━9-8 utils编写(1).mp4 [292.1M]
┃ ┗━━9-9 utils编写(2).mp4 [281.1M]
┗━━资料.zip [140.2K]

发表评论

后才能评论

购买后资源页面显示下载按钮和分享密码,点击后自动跳转百度云链接,输入密码后自行提取资源。

本章所有带有【尊享】和【加密】的课程均为加密课程,加密课程需要使用专门的播放器播放。

联系微信客服获取,一个授权账号可以激活三台设备,请在常用设备上登录账号。

可能资源被百度网盘黑掉,联系微信客服添加客服百度网盘好友后分享。

教程属于虚拟商品,具有可复制性,可传播性,一旦授予,不接受任何形式的退款、换货要求。请您在购买获取之前确认好 是您所需要的资源