5套深度学习课程
├──2017中文版斯坦福视觉课CS231n| ├──课件
| ├──1.1 计算机视觉概述.mp4107.06M
| ├──1.2 计算机视觉历史背景.mp4421.88M
| ├──1.3 课程后勤.mp4320.05M
| ├──10.1 RNN, LSTM, GRU.mp4304.24M
| ├──10.2 Language modeling.mp4312.30M
| ├──10.3Image captioning, visual question .mp4478.46M
| ├──11.1 图像分割.mp4475.61M
| ├──11.2 图像定位.mp4147.38M
| ├──11.3 图像识别.mp4466.05M
| ├──12.1 格式工厂.mp4722.05M
| ├──12.2 DeepDream and style transfer.mp4351.40M
| ├──13.1 PixelRNN CNN.mp4286.75M
| ├──13.2 Variational Autoencoders.mp4478.82M
| ├──13.3 Generative Adversarial Networks.mp4432.61M
| ├──14.1 Policy gradients, hard attention.mp4228.17M
| ├──14.2 Q-Learning, Actor-Critic.mp4700.37M
| ├──15.深度学习的硬件和方法.mp4936.19M
| ├──16.对抗样本和对抗训练.mp41.11G
| ├──2.1数据驱动.mp4342.01M
| ├──2.2 K最近邻算法.mp4331.50M
| ├──2.3线性分类.mp4199.15M
| ├──3.1 损失函数.mp4716.63M
| ├──3.2 优化.mp4364.61M
| ├──4.1反向传播.mp4765.22M
| ├──4.2神经网络.mp4273.64M
| ├──5.1 卷积神经网络 - 历史.mp4204.14M
| ├──5.2 卷积神经网络 - 卷积和池化.mp4525.75M
| ├──5.3 卷积神经网络 - 视觉之外的卷积神经网.mp4271.07M
| ├──6.1激活函数.mp4701.74M
| ├──6.2批量归一化.mp4454.25M
| ├──7.1 更好的优化.mp4789.89M
| ├──7.2 正则化.mp4216.88M
| ├──7.3 迁移学习.mp491.49M
| ├──8.深度学习软件.mp41.07G
| ├──9.CNN.mp41.05G
| └──作业、笔记和代码.txt0.06kb
├──【CMU大学】2019 神经网络与自然语言处理NLP课程
| ├──1.第一讲:课程介绍以及使用神经网络做自然语言处理的原因(P1).mp4386.26M
| ├──2.第二讲:预测句子中的下一个单词(P2).mp4460.09M
| ├──3.第三讲:词向量和词模型(P3).mp4413.58M
| ├──4.第四讲:针对文本的卷积神经网络(P4).mp4431.07M
| ├──5.第五讲:语句或语言建模的循环神经网络(P5).mp4498.07M
| ├──6.第六讲:条件生成(P6).mp4334.18M
| ├──7.第七讲:注意力机制(P7).mp4320.85M
| ├──8.第八讲:语句和上下文词语的表示(P8).mp4379.99M
| ├──9.第九讲:调试用于自然语言处理的神经网络(P9).mp4252.92M
| └──CMU课件.rar40.40M
├──【Google工程师】 Tensorflow2.0入门到进阶
| ├──第10章 机器翻译
| | ├──10-1 课程引入与seq2seq+attention模型讲解.ts62.51M
| | ├──10-10 样例例分析与总结.ts50.00M
| | ├──10-11 Transformer模型总体架构.ts70.66M
| | ├──10-12 Encoder-Decoder架构与缩放点击注意力.ts52.89M
| | ├──10-13 多头注意力与位置编码.ts50.91M
| | ├──10-14 Add、Normalize、Decoding过程与总结.ts44.86M
| | ├──10-15 数据预处理与dataset生成.ts111.60M
| | ├──10-16 位置编码.ts59.61M
| | ├──10-17 mask构建.ts44.22M
| | ├──10-18 缩放点积注意力机制实现(1).ts58.70M
| | ├──10-19 缩放点积注意力机制实现(2).ts45.66M
| | ├──10-2 数据预处理理与读取.ts90.96M
| | ├──10-20 多头注意力机制实现.ts89.68M
| | ├──10-21 feedforward层次实现.ts13.25M
| | ├──10-22 EncoderLayer实现.ts64.35M
| | ├──10-23 DecoderLayer实现.ts74.93M
| | ├──10-24 EncoderModel实现.ts62.66M
| | ├──10-25 DecoderModel实现.ts66.22M
| | ├──10-26 Transformer实现.ts74.77M
| | ├──10-27 自定义学习率.ts61.26M
| | ├──10-28 Mask创建与使用.ts102.40M
| | ├──10-29 模型训练.ts85.22M
| | ├──10-3 数据id化与dataset生成.ts73.61M
| | ├──10-30 模型预测实现.ts84.43M
| | ├──10-31 attention可视化.ts69.75M
| | ├──10-32 示例展示与实战总结 (1135) 正在学习.mp4168.91M
| | ├──10-33 GPT与Bert与课程总结 (0813).mp445.90M
| | ├──10-4 Encoder构建.ts47.69M
| | ├──10-5 attention构建.ts46.26M
| | ├──10-6 Decoder构建.ts59.45M
| | ├──10-7 损失函数与单步训练函数.ts57.31M
| | ├──10-8 模型训练.ts38.45M
| | └──10-9 模型预测实现.ts89.93M
| ├──第1章 Tensorflow简介与环境搭建
| | ├──1-10_Google_cloud_gpu_tensorflow镜像配置__(.mp440.71M
| | ├──1-11_AWS云平台环境配置.mp429.75M
| | ├──1-1_课程导学.mp417.83M
| | ├──1-2_Tensorflow是什么.mp410.81M
| | ├──1-3_Tensorflow版本变迁与tf1.0架构.mp49.24M
| | ├──1-4_Tensorflow2.0架构.mp410.04M
| | ├──1-5_Tensorflow&pytorch比较.mp423.53M
| | ├──1-6_Tensorflow环境配置(新补).mp44.90M
| | ├──1-6_Tensorflow环境配置.mp44.90M
| | ├──1-7_Google_cloud无GPU环境搭建.mp432.44M
| | ├──1-8_Google_cloud_远程jupyter_notebook配置.mp441.50M
| | └──1-9_Google_cloud_gpu_tensorflow配置.mp451.19M
| ├──第2章 Tensorflow keras实战
| | ├──2-10_实战批归一化、激活函数、dropout.mp429.93M
| | ├──2-11_wide_deep模型.mp415.28M
| | ├──2-12_函数API实现wide&deep模型.mp414.73M
| | ├──2-13_子类API实现wide&deep模型.mp413.84M
| | ├──2-14_wide&deep模型的多输入与多输出实战.mp428.38M
| | ├──2-15_超参数搜索.mp412.76M
| | ├──2-16_手动实现超参数搜索实战.mp416.75M
| | ├──2-17_实战sklearn封装keras模型.mp417.94M
| | ├──2-18_实战sklearn超参数搜索.mp416.25M
| | ├──2-1_tfkeras简介__(.mp410.48M
| | ├──2-2_分类回归与目标函数.mp49.22M
| | ├──2-3_实战分类模型之数据读取与展示.mp415.99M
| | ├──2-4_实战分类模型之模型构建.mp434.13M
| | ├──2-5_实战分类模型之数据归一化.mp420.22M
| | ├──2-6_实战回调函数.mp493.40M
| | ├──2-8_神经网络讲解.mp413.23M
| | └──2-9_实战深度神经网络.mp417.56M
| ├──第3章 Tensorflow基础API使用
| | ├──3-10_近似求导.mp411.23M
| | ├──3-11_tf.GradientTape基本使用方法.mp421.20M
| | ├──3-12_tf.GradientTape与tf.keras结合使用.mp430.75M
| | ├──3-13_章节总结.mp41.76M
| | ├──3-1_tf基础API引入.mp45.56M
| | ├──3-2_实战tf.constant.mp49.56M
| | ├──3-3_实战tf.strings与ragged_tensor.mp411.11M
| | ├──3-4_实战sparse_tensor与tf.Variable.mp417.10M
| | ├──3-5_实战自定义损失函数与DenseLayer回顾.mp422.36M
| | ├──3-6_使子类与lambda分别实战自定义层次.mp427.55M
| | ├──3-7_tf.function函数转换.mp412.02M
| | ├──3-8_@tf.function函数转换.mp419.88M
| | └──3-9_函数签名与图结构.mp419.92M
| ├──第4章 Tensorflow dataset使用
| | ├──4-1_data_API引入.mp44.05M
| | ├──4-2_tf_data基础API使用.mp423.29M
| | ├──4-3_生成csv文件.mp427.29M
| | ├──4-4_tf.io.decode_csv使用.mp429.17M
| | ├──4-5_tf.data读取csv文件并与tf.keras结合使用.mp432.98M
| | ├──4-6_tfrecord基础API使用.mp434.86M
| | ├──4-7_生成tfrecords文件.mp443.55M
| | ├──4-8_tf.data读取tfrecord文件并与tf.keras结合使用.mp420.65M
| | └──4-9_章节总结.mp41.04M
| ├──第5章 Tensorflow Estimator使用与tf1.0
| | ├──5-10_TF1_dataset使用.mp434.93M
| | ├──5-11_TF1_自定义estimator.mp434.97M
| | ├──5-12_API改动升级与课程总结.mp418.41M
| | ├──5-1_课程引入.mp43.04M
| | ├──5-2_泰坦尼克问题引入分析.mp419.08M
| | ├──5-3_feature_column使用.mp419.44M
| | ├──5-4_keras_to_estimator.mp418.83M
| | ├──5-5_预定义estimator使用.mp426.30M
| | ├──5-6_交叉特征实战.mp422.48M
| | ├──5-7_TF1.0引入.mp43.66M
| | ├──5-8_TF1.0计算图构建.mp418.82M
| | └──5-9_TF1.0模型训练.mp421.70M
| ├──第6章 卷积神经网络
| | ├──6-10_10monkeys基础模型搭建与训练.mp436.16M
| | ├──6-11_10monkeys模型微调.mp429.54M
| | ├──6-12_keras_generator读取cifar10数据集.mp432.09M
| | ├──6-13_模型训练与预测.mp422.80M
| | ├──6-1_卷积神经网络引入与总体结构.mp48.05M
| | ├──6-2_卷积解决的问题.mp410.00M
| | ├──6-3_卷积的计算.mp49.72M
| | ├──6-4_池化操作.mp43.83M
| | ├──6-5_卷积神经网络实战.mp426.75M
| | ├──6-6_深度可分离卷积网络.mp411.76M
| | ├──6-7_深度可分离卷积网络实战.mp416.99M
| | ├──6-8_Kaggle平台与10monkeys数据集介绍.mp412.65M
| | └──6-9_Keras_generator读取数据.mp424.80M
| ├──第7章 循环神经网络
| | ├──7-10_LSTM文本分类与文本生成实战.mp429.11M
| | ├──7-1_循环神经网络引入与embedding.mp48.48M
| | ├──7-2_数据集载入与构建词表索引.mp419.25M
| | ├──7-3_数据padding、模型构建与训练.mp423.55M
| | ├──7-4_序列式问题与循环神经网络.mp413.31M
| | ├──7-5_循环神经网络实战文本分类.mp435.24M
| | ├──7-6_文本生成之数据处理.mp424.09M
| | ├──7-7_文本生成实战之构建模型.mp428.71M
| | ├──7-8_文本生成实战之采样生成文本.mp428.03M
| | └──7-9_LSTM长短期记忆网络.mp48.79M
| ├──第8章 Tensorflow分布式
| | ├──8-1_课程引入与GPU设置.mp46.26M
| | ├──8-2_GPU默认设置.mp416.90M
| | ├──8-3_内存增长和虚拟设备实战.mp426.03M
| | ├──8-4_GPU手动设置实战.mp420.35M
| | ├──8-5_分布式策略.mp413.27M
| | ├──8-6_keras分布式实战.mp427.13M
| | ├──8-7_estimator分布式实战.mp424.64M
| | ├──8-8_自定义流程实战.mp434.68M
| | └──8-9_分布式自定义流程实战.mp435.00M
| ├──第9章 Tensorflow模型保存与部署
| | ├──9-1_课程引入与TFLite.mp412.15M
| | ├──9-2_保存模型结构加参数与保存参数实战.mp420.65M
| | ├──9-3_Keras模型转化为SavedModel.mp423.79M
| | ├──9-4_签名函数转化为SavedModel.mp412.76M
| | └──9-5_签名函数,SavedModel和Keras模型到具体函数转换.mp411.19M
| └──资料
| | ├──tensorflow2.0_course-master.tar.gz467.31kb
| | └──tensorflow2.0_course-master.zip482.88kb
├──【斯坦福大学】2019中文版CS224n NLP自然语言处理课程
| ├──1.第一讲 - NLP和深度学习入门【中英字幕】CS224n 斯坦福深度自然语言.mp4370.73M
| ├──10.第十讲 - 神经机器翻译和注意力模型 - 【中英字幕】CS224n 斯坦福.mp4439.25M
| ├──11.第十一讲 - GRU 及 NMT 的其他议题 - 【中英字幕】CS224n.mp4476.74M
| ├──12.第十二讲 - 语音处理的端对端模型 - 【中英字幕】CS224n 斯坦福深.mp4292.63M
| ├──13.第十三讲 - 卷积神经网络 - 【中英字幕】CS224n 斯坦福深度自然语.mp4447.12M
| ├──14.第十四讲 - 树 RNN 和短语句法分析.mp4511.51M
| ├──15.第十五讲 - 共指解析.mp4580.21M
| ├──16.第十六讲 - 用于回答问题的动态神经网络.mp4467.63M
| ├──17.第十七讲 - NLP 的问题和可能性架构(Av41393758,P17).mp4501.12M
| ├──18.第十八讲 - 应对深度 NLP 的局限性 - 【中英字幕】CS224n 斯(Av41393758,P18).mp4411.89M
| ├──2.第二讲-词向量表示: word2vec【中英字幕】CS224n 斯坦福深度自.mp4526.41M
| ├──2019 最新斯坦福CS224n课件.rar287.68M
| ├──3.第三讲 - 高级词向量表示 - 【中英字幕】CS224n 斯坦福深度自然语言.mp4382.88M
| ├──4.第四讲 - Word Window 分类与神经网络 - 【中英字幕】CS22.mp4343.61M
| ├──5.第五讲 - 反向传播和项目建议 - 【中英字幕】CS224n 斯坦福深度自然.mp4387.99M
| ├──6.第六讲 - 依存分析 - 【中英字幕】CS224n 斯坦福深度自然语言处理课.mp4386.54M
| ├──7.第七讲 - TensorFlow入门【中英字幕】CS224n 斯坦福深度自然.mp4506.50M
| ├──8.第八讲 - RNN和语言模式 - 【中英字幕】CS224n 斯坦福深度自然语.mp4446.16M
| └──9.第九讲 - 机器翻译和高级循环神经网络 LSTMs 和 GRUs - 【中英.mp4412.93M
└──【台湾大学】李宏毅深度强化学习(国语)课程(2018)
| ├──1.Policy Gradient (Review).mp456.67M
| ├──2.Proximal Policy Optimization (PPO).mp450.85M
| ├──3.Q-learning (Basic Idea).mp457.76M
| ├──4.Q-learning (Advanced Tips).mp448.31M
| ├──5.Q-learning (Continuous Action).mp419.25M
| ├──6.Actor-Critic.mp442.96M
| ├──7.Sparce Reward.mp433.89M
| └──8.Imitation Learning.mp435.59M
资源下载地址和密码(百度云盘):**** Hidden Message ***** 百度网盘信息回帖可见
本资源由Java自学网收集整理【www.javazx.com】 5套深度学习课程 5套深度学习课程 5套深度学习课程 套深度学习课程 6666666666 5套深度学习课程 888888888888888888888888888888888888 5套深度学习课程 666666666666