百战程序员AI算法工程师就业班2022
——/百战程序员-AI算法工程师就业班2022/
├──01、人工智能基础-快速入门
| ├──1:人工智能就业前景与薪资 .mp433.78M
| ├──2:人工智能适合人群与必备技能 .mp421.04M
| ├──3:人工智能时代是发展的必然 .mp416.72M
| ├──4:人工智能在各领域的应用 .mp441.82M
| ├──5:人工智能常见流程 .mp436.38M
| ├──6:机器学习不同的学习方式 .mp431.23M
| ├──7:深度学习比传统机器学习有优势 .mp433.52M
| ├──8:有监督机器学习任务与本质 .mp423.25M
| └──9:无监督机器学习任务与本质 .mp431.13M
├──02、人工智能基础-Python基础
| ├──章节1:Python开发环境搭建
| | ├──1:下载Miniconda运行环境 .mp431.42M
| | ├──2:Miniconda安装和测试 .mp436.64M
| | ├──3:Pycharm安装和代码运行 .mp430.29M
| | ├──4:Jupyter安装和代码运行 .mp424.92M
| | ├──5:Jupyter常用快捷键 .mp420.73M
| | ├──6:Conda虚拟环境创建与Python模块安装 .mp447.66M
| | ├──7:关联虚拟环境运行代码 .mp426.32M
| | ├──代码.rar509.90kb
| | ├──人工智能-第1阶段Python基础.pdf9.37M
| | └──人工智能-第1阶段python进阶和高级编程.pdf7.52M
| └──章节2:Python基础语法
| | ├──10:Python_控制语句_多分支_三元条件运算符 .mp421.39M
| | ├──11:Python_控制语句_while循环 .mp416.32M
| | ├──12:Python_控制语句_for循环 .mp418.68M
| | ├──13:Python_控制语句_嵌套循环 .mp427.86M
| | ├──14:Python_控制语句_break_continue .mp416.39M
| | ├──15:Python_切片操作 .mp430.52M
| | ├──16:Python_数据类型 .mp420.88M
| | ├──17:Python_集合操作_列表 .mp424.10M
| | ├──18:Python_集合操作_列表的基本操作 .mp435.13M
| | ├──19:Python_集合操作_列表的常用方法 .mp426.62M
| | ├──20:Python_集合操作_元组 .mp429.08M
| | ├──21:Python_集合操作_字典和常见操作 .mp425.76M
| | ├──22:Python_集合操作_字典keys方法_enumerate函数 .mp418.07M
| | ├──23:Python_os模块_shutil模块 .mp436.75M
| | ├──24:Python_打开并读取文件_中文编码问题 .mp438.72M
| | ├──25:Python_函数_定义_调用_返回值_注释 .mp418.23M
| | ├──26:Python_函数_局部变量_全局变量 .mp423.50M
| | ├──27:Python_函数_默认参数_可变参数 .mp418.06M
| | ├──28:Python_函数_递归 .mp418.20M
| | ├──29:Python_函数式编程_高阶函数 .mp417.71M
| | ├──30:Python_函数式编程_map_reduce_filter_匿名函数 .mp426.94M
| | ├──31:Python_函数_闭包 .mp427.49M
| | ├──32:Python_函数_装饰器 .mp419.34M
| | ├──33:Python_类对象_定义与实例化对象 .mp436.96M
| | ├──34:Python_类对象_实例属性和方法_类属性和方法 .mp426.21M
| | ├──35:Python_类对象_内置方法 .mp419.39M
| | ├──36:Python_类对象_运算符重载_私有对象方法_isinstance函数 .mp426.22M
| | ├──37:Python_类对象_面向对象三大特性_类的继承 .mp420.15M
| | ├──38:Python_类对象_子类复用父类构造器和方法_方法重写 .mp420.79M
| | ├──8:Python是强类型的动态脚本语言 .mp427.23M
| | ├──9:Python_控制语句_单双分支 .mp439.27M
| | └──新建文本文档.txt0.51kb
├──03、人工智能基础-Python科学计算和可视化
| ├──章节1:科学计算模型Numpy
| | ├──1:Numpy_概述_安装_创建数组_获取shape形状 .mp430.30M
| | ├──2:Numpy_array_arange .mp423.56M
| | ├──3:Numpy_random随机数生成 .mp435.81M
| | ├──4:Numpy_ndarray属性_zeros_ones_like等创建数组函数 .mp432.59M
| | ├──5:NumPy_reshape_切片操作_copy函数 .mp422.70M
| | ├──6:Numpy_改变数组维度_数组的拼接 .mp430.40M
| | ├──7:Numpy_数组的切分和转置 .mp419.19M
| | ├──8:Numpy_算术运算_向上向下取整 .mp423.03M
| | ├──9:Numpy_聚合函数 .mp415.33M
| | └──新建文本文档.txt0.36kb
| ├──章节2:数据可视化模块
| | ├──10:Matplotlib_概述_绘制直线图 .mp428.64M
| | ├──11:Matplotlib_绘制正余弦曲线_散点图_添加图例 .mp423.68M
| | ├──12:Matplotlib_绘制柱状图_画布切分多个子画布_柱状图对比 .mp434.98M
| | ├──13:Matplotlib_绘制饼图_直方图_同时绘制多组数据分布 .mp421.29M
| | ├──14:Matplotlib_绘制等高线图_绘制三维图像 .mp424.37M
| | ├──1599293649514137.png18.62kb
| | ├──人工智能-第1阶段数据分析(含办公自动化分析).pdf6.04M
| | └──新建文本文档.txt0.16kb
| └──章节3:数据处理分析模块Pandas
| | ├──15:Python_Pandas_Series对象创建 .mp422.96M
| | ├──16:Python_Pandas_DataFrame对象创建 .mp424.82M
| | ├──17:Python_Pandas_获取Series对象的值 .mp415.52M
| | ├──18:Python_Pandas_获取DataFrame对象的值 .mp418.85M
| | ├──19:Python_Pandas_条件过滤 .mp417.28M
| | ├──20:Python_Pandas_空值的删除与填充 .mp433.25M
| | ├──21:Python_Pandas_拼接和合并 .mp427.91M
| | └──新建文本文档.txt0.37kb
├──04、人工智能基础-高等数学知识强化
| ├──10:高阶导数_导数判断单调性_导数与极值 .mp415.30M
| ├──11:导数判断凹凸性_导数用于泰勒展开 .mp431.49M
| ├──12:向量的意义_n维欧式空间空间 .mp415.35M
| ├──13:行向量列向量_转置_数乘_加减乘除 .mp414.17M
| ├──14:向量的内积_向量运算法则 .mp414.38M
| ├──15:学习向量计算的用途举例 .mp416.84M
| ├──16:向量的范数_范数与正则项的关系 .mp423.52M
| ├──17:特殊的向量 .mp419.38M
| ├──18:矩阵_方阵_对称阵_单位阵_对角阵 .mp413.47M
| ├──19:矩阵的运算_加减法_转置 .mp417.35M
| ├──1:人工智能学习数学的必要性_微积分知识点 .mp418.97M
| ├──20:矩阵相乘 .mp414.36M
| ├──21:矩阵的逆矩阵 .mp427.58M
| ├──22:矩阵的行列式 .mp414.61M
| ├──23:多元函数求偏导 .mp416.34M
| ├──24:高阶偏导数_梯度 .mp419.74M
| ├──25:雅可比矩阵_在神经网络中应用 .mp426.04M
| ├──26:Hessian矩阵 .mp422.55M
| ├──27:二次型 .mp418.55M
| ├──28:补充关于正定负定的理解 .mp413.06M
| ├──29:特征值和特征向量(1) .mp419.45M
| ├──2:线性代数_概率论知识点 .mp417.26M
| ├──30:特征值和特征向量(2) .mp418.01M
| ├──31:特征值分解 .mp426.18M
| ├──32:多元函数的泰勒展开_矩阵和向量的求导 .mp430.50M
| ├──33:奇异值分解定义 .mp416.37M
| ├──34:求解奇异值分解中的UΣV矩阵 .mp434.04M
| ├──35:奇异值分解性质_数据压缩 .mp423.36M
| ├──36:SVD用于PCA降维 .mp417.58M
| ├──37:SVD用于协同过滤_求逆矩阵 .mp423.76M
| ├──38:概率论_随机事件与随机事件概率 .mp414.04M
| ├──39:条件概率_贝叶斯公式 .mp421.97M
| ├──3:最优化知识_数学内容学习重点 .mp425.90M
| ├──40:随机变量 .mp417.17M
| ├──41:数学期望和方差 .mp416.18M
| ├──42:常用随机变量服从的分布 .mp414.64M
| ├──43:随机向量_独立性_协方差_随机向量的正太分布 .mp422.95M
| ├──44:最大似然估计思想 .mp416.62M
| ├──45:最优化的基本概念 .mp423.95M
| ├──46:迭代求解的原因 .mp412.99M
| ├──47:梯度下降法思路 .mp419.41M
| ├──48:梯度下降法的推导 .mp431.39M
| ├──49:牛顿法公式推导以及优缺点 .mp430.04M
| ├──4:导数的定义_左导数和右导数 .mp420.10M
| ├──50:坐标下降法_数值优化面临的问题 .mp417.05M
| ├──51:凸集 .mp414.02M
| ├──52:凸函数 .mp412.35M
| ├──53:凸优化的性质_一般表达形式 .mp414.81M
| ├──54:拉格朗日函数 .mp419.74M
| ├──5:导数的几何意义和物理意义 .mp410.21M
| ├──6:常见函数的求导公式 .mp415.80M
| ├──7:导数求解的四则运算法则 .mp418.96M
| ├──8:复合函数求导法则 .mp411.79M
| ├──9:推导激活函数的导函数 .mp423.54M
| └──数学.pdf1.50M
├──05、机器学习-线性回归
| ├──章节1:多元线性回归
| | ├──10:对数似然函数_推导出损失函数MSE .mp423.06M
| | ├──11:把目标函数按照线性代数的方式去表达 .mp414.44M
| | ├──12:推导出目标函数的导函数形式 .mp423.33M
| | ├──13:θ解析解的公式_是否要考虑损失函数是凸函数 .mp427.93M
| | ├──14:Python开发环境版本的选择及下载 .mp423.08M
| | ├──15:Anaconda环境安装_Pycharm环境安装 .mp426.51M
| | ├──16:Pycharm创建脚本并测试python开发环境 .mp417.38M
| | ├──17:解析解的方式求解多元线性回归_数据Xy .mp416.74M
| | ├──18:解析解的方式求解多元线性回归_求解模型_使用模型_绘制图形 .mp419.95M
| | ├──19:解析解的方式求解多元线性回归_扩展随机种子概念_增加维度代码的变换 .mp414.08M
| | ├──1:理解简单线性回归 .mp421.25M
| | ├──20:Scikit-learn模块的介绍 .mp416.91M
| | ├──21:调用Scikit-learn中的多元线性回归求解模型(上) .mp413.17M
| | ├──22:调用Scikit-learn中的多元线性回归求解模型(下) .mp417.24M
| | ├──2:最优解_损失函数_MSE .mp419.54M
| | ├──3:扩展到多元线性回归 .mp414.47M
| | ├──4:理解多元线性回归表达式几种写法的原因 .mp416.21M
| | ├──5:理解维度这个概念 .mp421.22M
| | ├──6:理解回归一词_中心极限定理_正太分布和做预测 .mp428.17M
| | ├──7:假设误差服从正太分布_最大似然估计MLE .mp421.44M
| | ├──8:引入正太分布的概率密度函数 .mp414.86M
| | ├──9:明确目标通过最大总似然求解θ .mp414.53M
| | ├──代码.rar1.50kb
| | ├──第一阶段_手把手教你透彻掌握线性回归算法.pdf2.71M
| | ├──软件.rar777.48M
| | └──新建文本文档.txt0.28kb
| ├──章节2:梯度下降法
| | ├──23:梯度下降法产生的目的和原因以及思想 .mp428.12M
| | ├──24:梯度下降法公式 .mp428.41M
| | ├──25:学习率设置的学问_全局最优解 .mp426.42M
| | ├──26:梯度下降法迭代流程总结 .mp415.17M
| | ├──27:多元线性回归下的梯度下降法 .mp421.80M
| | ├──28:全量梯度下降 .mp430.60M
| | ├──29:随机梯度下降_小批量梯度下降 .mp426.32M
| | ├──30:对应梯度下降法的问题和挑战 .mp422.61M
| | ├──31:轮次和批次 .mp426.67M
| | ├──32:代码实现全量梯度下降第1步和第2步 .mp412.82M
| | ├──33:代码实现全量梯度下降第3步和第4步 .mp414.09M
| | ├──34:代码实现随机梯度下降 .mp412.28M
| | ├──35:代码实现小批量梯度下降 .mp411.67M
| | ├──36:代码改进保证训练数据全都能被随机取到 .mp416.08M
| | ├──37:代码改进实现随着迭代增加动态调整学习率 .mp416.67M
| | ├──代码.rar1.73kb
| | ├──第四阶段_梯度下降法_归一化_正则化_多项式升维.pdf2.59M
| | └──新建文本文档.txt0.25kb
| ├──章节3:归一化
| | ├──38:归一化的目的_维度之间数量级不同产生的矛盾 .mp430.26M
| | ├──39:归一化的目的_举例子来理解做归一化和不做归一化的区别 .mp417.01M
| | ├──40:归一化的副产品_有可能会提高模型的精度 .mp412.57M
| | ├──41:最大值最小值归一化 .mp414.09M
| | ├──42:标准归一化 .mp425.97M
| | └──新建文本文档.txt0.27kb
| ├──章节4:正则化
| | ├──43:代码完成标准归一化 .mp421.69M
| | ├──44:正则化的目的防止过拟合 .mp416.50M
| | ├──45:正则化通过损失函数加入惩罚项使得W越小越好 .mp419.21M
| | ├──46:常用的L1和L2正则项以及数学意义 .mp420.13M
| | ├──47:L1稀疏性和L2平滑性 .mp426.03M
| | ├──48:通过L1和L2的导函数理解区别的本质原因 .mp426.35M
| | └──新建文本文档.txt0.31kb
| └──章节5:Lasso回归_Ridge回归_多项式回归
| | ├──49:代码调用Ridge岭回归 .mp426.07M
| | ├──50:代码调用Lasso回归 .mp412.59M
| | ├──51:代码调用ElasticNet回归 .mp418.07M
| | ├──52:升维的意义_多项式回归 .mp422.22M
| | ├──53:多项式升维代码实战_传入不同超参数对比 .mp421.30M
| | ├──54:多项式升维代码实战_训练模型和评估 .mp415.88M
| | ├──55:实战保险花销预测_数据介绍和加载数据 .mp418.58M
| | ├──56:实战保险花销预测_数据预处理 .mp419.64M
| | ├──57:实战保险花销预测_模型训练和评估_选择非线性算法改进 .mp435.56M
| | ├──58:实战保险花销预测_特征选择思路 .mp416.51M
| | ├──59:实战保险花销预测_特征工程 .mp49.32M
| | ├──60:实战保险花销预测_模型训练和评估 .mp420.51M
| | ├──代码.rar126.37kb
| | └──新建文本文档.txt0.28kb
├──06、机器学习-线性分类
| ├──章节1:逻辑回归
| | ├──1.txt1.29kb
| | ├──10:绘制逻辑回归损失函数_探索两个参数和损失函数变换关系 .mp417.81M
| | ├──11:绘制逻辑回归损失函数_绘制3D的图形_分析X1X2两个维度的重要度 .mp416.90M
| | ├──12:对逻辑回归函数进行求导_结论在后面会用到 .mp411.25M
| | ├──13:对逻辑回归的损失函数求导_推导出导函数的形式 .mp421.28M
| | ├──14:实战逻辑回归对鸢尾花数据集进行二分类 .mp417.78M
| | ├──15:OneVsRest将多分类问题转化成多个二分类问题 .mp412.09M
| | ├──16:实战逻辑回归对鸢尾花数据集进行多分类 .mp418.20M
| | ├──1:逻辑回归_Sigmoid函数 .mp410.76M
| | ├──2:sigmoid函数作用 .mp421.37M
| | ├──3:逻辑回归为什么用sigmoid函数_预备知识 .mp418.66M
| | ├──4:证明伯努利分布是指数族分布_推导出逻辑回归公式 .mp423.51M
| | ├──5:回想多元线性回归公式其实也是从广义线性回归推导出来的 .mp44.31M
| | ├──6:推导逻辑回归损失函数_得到总似然的公式 .mp415.43M
| | ├──7:推导逻辑回归损失函数_得到最终形式 .mp47.85M
| | ├──8:绘制逻辑回归损失函数_读入数据计算最优解模型_实现逻辑回归预测_实现逻辑回归损失函数 .mp425.03M
| | ├──9:绘制逻辑回归损失函数_探索单个参数和损失的关系 .mp414.07M
| | ├──代码.rar1.77kb
| | └──第五阶段_线性分类算法_逻辑回归和Softmax回归.pdf1.09M
| ├──章节2:Softmax回归
| | ├──1.txt0.80kb
| | ├──17:证明多项式分布属于指数族分布一种 .mp414.67M
| | ├──18:从广义线性回归的η推导出来Softmax的公式 .mp49.91M
| | ├──19:有了Softmax函数的公式就可以去计算loss_Softmax的Loss函数形式其实就是LR的泛化版本 .mp416.55M
| | ├──20:再次证明Softmax损失函数当K=2时就是逻辑回归损失函数 .mp415.21M
| | ├──21:证明Softmax公式K=2的时候就是逻辑回归_平移不变性 .mp47.58M
| | ├──22:逻辑回归和Softmax回归在多分类任务模型参数上的区别_与算法在选择上的区别 .mp421.45M
| | ├──23:实战音乐分类器_讲解需求和读取数据 .mp414.06M
| | ├──24:实战音乐分类器_探索不同曲风音乐文件的时间频率图 .mp420.20M
| | ├──25:实战音乐分类器_傅里叶变换可以帮助我们做什么 .mp412.88M
| | ├──26:实战音乐分类器_代码使用傅里叶变换将混音文件进行投影 .mp416.92M
| | ├──27:实战音乐分类器_代码对单首歌曲进行傅里叶变换_代码对600首音乐文件进行傅里叶变换并保存结果 .mp421.18M
| | ├──28:实战音乐分类器_代码读取600首傅里叶变换后的数据_构建训练集并训练模型 .mp417.08M
| | ├──29:实战音乐分类器_模型的测试和调优_解决双通道音乐文件的问题 .mp428.95M
| | ├──代码.rar47.89kb
| | └──数据.rar2.27G
| ├──章节3:SVM支持向量机算法
| | ├──1.txt0.20kb
| | ├──30:SVM与感知机关系_几何距离与函数距离 .mp477.74M
| | ├──31:SVM的思想 .mp435.91M
| | ├──32:几种SVM_SVM的损失函数 .mp447.92M
| | ├──33:数学预备知识_拉格朗日函数 .mp472.17M
| | ├──34:硬间隔SVM的两步优化 .mp464.89M
| | ├──35:总结硬间隔SVM .mp423.25M
| | ├──36:软间隔SVM和总结流程 .mp476.87M
| | ├──37:非线性SVM .mp436.91M
| | ├──38:SVM在sklearn中的使用_超参数 .mp480.08M
| | ├──SVM算法.pdf2.52M
| | └──代码.rar1.05M
| └──章节4:SMO优化算法
| | ├──1.txt0.18kb
| | ├──39:SVM算法流程总结 .mp431.71M
| | ├──40:SMO算法求解思路_分解成很多个子二次规划问题分别求解 .mp435.51M
| | ├──41:SMO将交给它的目标函数变成二元函数进一步变成一元函数 .mp432.63M
| | ├──42:对一元函数求极值点_推导出旧的α和新的α的关系 .mp426.41M
| | ├──43:将公式467带入导函数进一步简化_对求解出的新的α2进行剪裁 .mp443.47M
| | ├──44:再次说明α2如何进行剪裁的思路_根据α2求α1 .mp417.78M
| | ├──45:启发式选择两个α .mp49.68M
| | ├──46:如何计算阈值b .mp419.48M
| | ├──47:SVM的SMO实现读取数据和计算fx与Ei .mp443.99M
| | ├──48:SVM的SMO实现判断违背条件的α1 .mp410.02M
| | ├──49:SVM的SMO实现应用公式计算alphas和b .mp412.37M
| | ├──50:SVM绘制已有数据点和超平面以及边界 .mp49.49M
| | ├──51:关于sklearn中的SVM封装的类和超参 .mp411.81M
| | ├──52:概率化输出_SVM的合页损失函数_Tensorflow实现GD方式求解SVM .mp441.37M
| | ├──53:OVR和OVO多分类_算法小结_对比逻辑回归 .mp423.17M
| | └──代码.rar12.43kb
├──07、机器学习-无监督学习
| ├──章节1:聚类系列算法
| | ├──1.txt0.29kb
| | ├──1:KMeans聚类流程_距离测度欧式距离和余弦距离_ev.mp491.94M
| | ├──2:距离测度欧式距离和余弦距离的场景_TFIDF_ev.mp478.44M
| | ├──3:KMeans的一些变形_KMeans的损失函数推导及假设_ev.mp486.57M
| | ├──4:mini-batchKMeans_Canopy聚类_聚类评估指标_ev.mp4117.54M
| | ├──5:KMeans代码测试不同情况下的聚类效果_ev.mp497.13M
| | ├──6:层次聚类_密度聚类_谱聚类_ev.mp4156.59M
| | ├──代码.rar4.86kb
| | └──聚类.pdf2.74M
| ├──章节2:EM算法和GMM高斯混合模型
| | ├──1.txt0.32kb
| | ├──10:Jensen不等式的应用_ev.mp489.00M
| | ├──11:将EM算法应用到GMM中并且推导出了μ和Σ的公式_ev.mp493.56M
| | ├──12:将EM算法应用到GMM中并且推导出Π的公式_ev.mp426.95M
| | ├──13:GMM前景背景分离_ev.mp413.41M
| | ├──14:通过声音文件利用GMM算法识别性别_ev.mp4110.81M
| | ├──15:通过声音文件利用GMM算法识别是谁_ev.mp439.76M
| | ├──7:单个高斯分布GM的参数估计_ev.mp472.12M
| | ├──8:理解GMM高斯混合分布的对数似然函数_ev.mp459.30M
| | ├──9:GMM参数估计Πμσ的流程_ev.mp463.98M
| | ├──EM算法与GMM模型.pdf725.20kb
| | └──代码.rar466.39M
| └──章节3:PCA降维算法
| | ├──1.txt0.34kb
| | ├──16:特征选择与特征映射_ev.mp440.60M
| | ├──17:PCA的最大投影方差思路_ev.mp4114.36M
| | ├──18:最大投影方差推导_最小投影距离思路_ev.mp493.96M
| | ├──19:SVD其实就可以去实现PCA了_ev.mp478.14M
| | ├──20:PCA的几种应用_ev.mp446.12M
| | └──PCA降维与SVD.pdf864.92kb
├──08、机器学习-决策树系列
| ├──章节1:决策树
| | ├──代码
| | ├──文档
| | ├──10:绘制决策树模型_寻找最优树深度_ev.mp452.69M
| | ├──11:代码训练回归树拟合SineWave_ev.mp441.16M
| | ├──12:后剪枝的意义_ev.mp428.32M
| | ├──13:CCP代价复杂度后剪枝_ev.mp470.83M
| | ├──14:CCP代价复杂度剪枝_α超参数设定_ev.mp430.41M
| | ├──1:决策树模型的特点_ev.mp435.90M
| | ├──2:决策树的数学表达_ev.mp437.57M
| | ├──3:如何构建一颗决策树_ev.mp433.05M
| | ├──4:什么是更好的一次划分_ev.mp426.87M
| | ├──5:Gini系数_ev.mp450.14M
| | ├──6:信息增益_ev.mp435.48M
| | ├──7:熵与Gini系数关系_信息增益率_ev.mp449.75M
| | ├──8:预剪枝以及相关超参数_ev.mp467.96M
| | ├──9:代码实战决策树对鸢尾花数据集分类_ev.mp440.61M
| | └──新建文本文档.txt0.31kb
| ├──章节2:集成学习和随机森林
| | ├──代码
| | ├──15:不同聚合方式_生成不同弱学习器方式_ev.mp443.72M
| | ├──16:Bagging_Boosting_Stacking_ev.mp432.58M
| | ├──17:随机森林_ev.mp446.30M
| | ├──18:代码实战随机森林对鸢尾花数据集分类_ev.mp449.28M
| | ├──19:OOB袋外数据_ev.mp451.72M
| | ├──20:Adaboost算法思路_ev.mp447.04M
| | ├──21:调整数据权重让权重正确率达到50%_ev.mp436.06M
| | ├──22:Adaboost如何调整样本权重和求基模型权重_ev.mp448.95M
| | └──新建文本文档.txt0.27kb
| ├──章节3:GBDT
| | ├──代码
| | ├──23:GBDT试图使用有监督最优化算法梯度下降求解F(x)_ev.mp431.79M
| | ├──24:GBDT令每个弱学习器f(x)去拟合负梯度_ev.mp448.21M
| | ├──25:GBDT每棵树都是回归树_准备数据才能训练下一颗小树_ev.mp443.03M
| | ├──26:GBDT应用于回归问题_ev.mp447.05M
| | ├──27:GBDT回归举例_总结_ev.mp445.60M
| | ├──28:GBDT应用于二分类问题_ev.mp438.77M
| | ├──29:GBDT二分类拟合的负梯度依然是残差_ev.mp446.05M
| | ├──30:GBDT中shrinkage学习率和最优树权重ρ可以共存_ev.mp434.44M
| | ├──31:GBDT应用于多分类任务_ev.mp434.17M
| | ├──32:GBDT多分类如何每轮给K颗小树准备要去拟合的负梯度_ev.mp432.69M
| | ├──33:GBDT多分类流程_ev.mp439.29M
| | ├──34:对比GBDT回归、二分类、多分类相同点与不同点_ev.mp427.63M
| | ├──35:GBDT二分类叶子节点分值计算推导_ev.mp440.64M
| | ├──36:GBDT多分类叶子节点分值计算_ev.mp429.43M
| | ├──37:GBDT二分类举例详解_ev.mp439.43M
| | ├──38:GBDT多分类举例详解_ev.mp441.29M
| | ├──39:计算特征重要度进行特征选择_ev.mp426.62M
| | ├──40:GBDT用于特征组合降维_ev.mp423.35M
| | ├──41:特征组合降维在GBDT+LR架构应用_ev.mp428.63M
| | ├──42:GBDT在sklearn中源码剖析_初始化F(x)_ev.mp443.20M
| | ├──43:GBDT在sklearn中源码剖析_负梯度计算和叶子节点分值计算_ev.mp438.69M
| | ├──44:GBDT+LR架构训练模型代码实现_ev.mp446.16M
| | ├──45:GBDT+LR架构预测评估代码实现_ev.mp433.95M
| | └──新建文本文档.txt0.35kb
| └──章节4:XGBoost
| | ├──代码
| | ├──文档
| | ├──46:回顾有监督机器学习三要素_ev.mp441.77M
| | ├──47:Bias_Variance_Trade-off_ev.mp434.34M
| | ├──48:基于树集成学习4个优点_ev.mp440.85M
| | ├──49:回顾基于树集成学习的模型和参数并举例说明_ev.mp441.64M
| | ├──50:通过目标函数Obj来达到准确率和复杂度平衡_ev.mp423.73M
| | ├──51:Objective_vs_Heuristic_ev.mp431.41M
| | ├──52:得出XGBoost最开始的Obj目标函数_ev.mp441.54M
| | ├──53:推导XGBoost对Loss二阶泰勒展开之后的Obj_ev.mp425.78M
| | ├──54:Obj化简常数项_明确训练每颗回归树需要准备gi和hi_ev.mp434.30M
| | ├──55:重新定义树ft和树的复杂度Ω_ev.mp435.02M
| | ├──56:由每个叶子节点重组目标函数Obj_ev.mp430.39M
| | ├──57:推导XGBoost出Wj计算公式_推导评价树好坏的Obj_ev.mp431.89M
| | ├──58:根据Obj收益指导每一次分裂从而学习一棵树结构_ev.mp446.88M
| | ├──59:举例说明从连续型和离散型变量中寻找最佳分裂条件_ev.mp432.75M
| | ├──60:XGBoost中防止过拟合的前剪枝_后剪枝_学习率_ev.mp431.75M
| | ├──61:样本权重对于模型学习的影响_ev.mp427.68M
| | ├──62:总结XGBoost的特性_包括缺失值的处理策略_ev.mp456.21M
| | └──新建文本文档.txt0.35kb
├──09、机器学习-概率图模型
| ├──章节1:贝叶斯分类
| | ├──1.txt0.35kb
| | ├──1:朴素贝叶斯分类算法_ev.mp4116.00M
| | ├──2:TF-IDF_ev.mp449.47M
| | ├──3:NB代码实现解析_ev.mp499.87M
| | ├──4:sklearn中调用NB_顺便讲解了GridSearchCV_ev.mp4101.38M
| | ├──5:语言模型的设计目的_MLE的作用进行参数估计_ev.mp494.28M
| | ├──6:贝叶斯网络_马尔可夫链_ev.mp431.65M
| | ├──NB_HMM.pdf826.78kb
| | └──代码.rar7.43kb
| ├──章节2:HMM算法
| | ├──1.txt0.44kb
| | ├──10:HMM预测问题使用维特比算法_ev.mp426.12M
| | ├──11:HMM复习_明确概率计算问题要解决的目标_ev.mp464.56M
| | ├──12:前向算法来解决概率计算问题_ev.mp427.36M
| | ├──13:Viterbi算法案例详解_ev.mp471.72M
| | ├──14:Viterbi算法代码实现_ev.mp432.88M
| | ├──7:HMM隐马的定义_ev.mp432.90M
| | ├──8:HMM隐马的三组参数_三个基本问题_ev.mp456.02M
| | ├──9:HMM预测问题使用前向算法_ev.mp435.97M
| | ├──代码.rar0.94kb
| | └──资料.rar26.48kb
| └──章节3:CRF算法
| | ├──1.txt0.27kb
| | ├──15:NER与分词和POS的关系_NER的标注策略_NER的主要方法_ev.mp484.69M
| | ├──16:讲解了一下常见的深度学习LSTM+CRF的网络拓扑_ev.mp440.02M
| | ├──17:了解CRF层添加的好处_ev.mp462.98M
| | ├──18:EmissionScore_TransitionScore_ev.mp451.66M
| | ├──19:CRF的目标函数_ev.mp414.34M
| | ├──20:计算CRF真实路径的分数_ev.mp444.32M
| | ├──21:计算CRF所有可能路径的总分数_ev.mp486.34M
| | ├──22:通过模型来预测新的句子的序列标签_ev.mp450.15M
| | └──CRF_NER.pdf1.17M
├──10、机器学习与大数据-Kaggle竞赛实战
| ├──章节1:药店销量预测案例
| | ├──1:Rossmann药店销量预测_kaggle的介绍_ev.mp412.98M
| | ├──2:对数据字段的介绍_导包_ev.mp48.63M
| | ├──3:自定义损失函数_ev.mp49.44M
| | ├──4:对数据里面的目标变量sales的一个分析_ev.mp416.91M
| | ├──5:数据的预处理_ev.mp444.16M
| | ├──6:模型的训练_评估_ev.mp423.62M
| | ├──7:kaggle竞赛网站学习_ev.mp453.20M
| | ├──代码.rar6.42M
| | └──新建文本文档.txt0.38kb
| └──章节2:网页分类案例
| | ├──10:评估指标ROC和AUC_ev.mp420.69M
| | ├──11:竞赛其他相关提交成绩排行榜_ev.mp419.99M
| | ├──12:数据导入_ev.mp423.63M
| | ├──13:MLlib对网页分类竞赛数据预处理_ev.mp438.72M
| | ├──14:MLlib对网页分类竞赛数据预处理_模型训练_ev.mp428.04M
| | ├──15:MLlib对网页分类竞赛模型训练_模型训练评估_搜索最佳超参数_ev.mp425.53M
| | ├──16:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_01_ev.mp437.65M
| | ├──17:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_02_ev.mp436.02M
| | ├──18:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_03_ev.mp428.96M
| | ├──19:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_04_ev.mp430.51M
| | ├──8:Kaggle网页分类竞赛介绍_ev.mp411.17M
| | ├──9:评估指标ROC和AUC_ev.mp422.35M
| | ├──代码.rar8.81M
| | └──新建文本文档.txt0.28kb
├──11-机器学习与大数据-海量数据挖掘工具
| ├──章节1:Spark计算框架基础
| | ├──1.txt0.31kb
| | ├──10:分布式计算所需进程_ev.mp415.58M
| | ├──11:两种算子操作本质区别_ev.mp426.08M
| | ├──12:Spark算子操作实战讲解_代码实战WordCount_01_ev.mp431.67M
| | ├──13:Spark算子操作实战讲解_代码实战WordCount_02_ev.mp425.90M
| | ├──14:Spark算子操作实战讲解_代码实战WordCount_03_ev.mp420.19M
| | ├──15:Spark算子操作实战讲解_代码实战WordCount_04_ev.mp417.85M
| | ├──1:Spark特性_01_ev.mp425.08M
| | ├──2:Spark特性_02_ev.mp417.40M
| | ├──3:Spark对比hadoop优势_ev.mp412.38M
| | ├──4:回顾hadoop讲解shuffle_ev.mp419.97M
| | ├──5:分布式计算框架Shuffle的原理_01_ev.mp425.51M
| | ├──6:分布式计算框架Shuffle的原理_02_ev.mp425.73M
| | ├──7:分布式计算框架Shuffle的原理_03_ev.mp417.39M
| | ├──8:Spark的RDD特性_01_ev.mp419.34M
| | ├──9:Spark的RDD特性_02_ev.mp421.87M
| | ├──代码.rar383.20M
| | └──资料.rar1.49M
| ├──章节2:Spark计算框架深入
| | ├──1.txt0.37kb
| | ├──16:Spark数据缓存机制_ev.mp429.16M
| | ├──17:Spark宽依赖和窄依赖_01_ev.mp424.86M
| | ├──18:Spark宽依赖和窄依赖_02_ev.mp422.51M
| | ├──19:Spark宽依赖和窄依赖_03_ev.mp415.81M
| | ├──20:Spark术语总结_ev.mp440.14M
| | ├──21:分布式文件系统Block块的大小配置_ev.mp444.18M
| | ├──22:Spark程序启动运行流程详解_01_ev.mp419.59M
| | ├──23:Spark程序启动运行流程详解_02_ev.mp428.61M
| | ├──24:Spark程序启动运行流程详解_03_ev.mp419.88M
| | ├──25:讲解构建稀疏和稠密向量_01_ev.mp433.93M
| | ├──26:讲解构建稀疏和稠密向量_01_ev.mp436.24M
| | ├──27:构建LabeledPoint_ev.mp444.27M
| | └──28:介绍SparkMLlib模块中实现的算法和调用_ev.mp434.98M
| └──章节3:Spark机器学习MLlib和ML模块
| | ├──1.txt0.26kb
| | ├──29:SparkMLlib对于逻辑回归算法的调用_ev.mp449.29M
| | ├──30:SparkMLlib调用逻辑回归_自定义阈值_1_ev.mp452.43M
| | ├──31:SparkMLlib调用逻辑回归_自定义阈值_2_ev.mp447.11M
| | ├──32:SparkMLlib调用逻辑回归_使用标准归一化_1_ev.mp438.63M
| | ├──33:SparkMLlib调用逻辑回归_使用标准归一化_2_ev.mp465.62M
| | ├──34:SparkMLlib调用逻辑回归_使用标准归一化_3_ev.mp433.14M
| | ├──35:SparkMLlib调用逻辑回归_使用标准归一化_4_ev.mp443.60M
| | ├──36:SparkMLlib调用KMeans聚类_调用决策树(1)_1_ev.mp437.79M
| | ├──37:SparkMLlib调用KMeans聚类_调用决策树(1)_2_ev.mp447.15M
| | ├──38:SparkMLlib调用KMeans聚类_调用决策树(1)_3_ev.mp440.95M
| | ├──39:使用逻辑回归和随机森林对股票Stock预测案例实战_1_ev.mp443.42M
| | ├──40:使用逻辑回归和随机森林对股票Stock预测案例实战_2_ev.mp434.88M
| | ├──41:使用逻辑回归和随机森林对股票Stock预测案例实战_3_ev.mp434.72M
| | ├──42:从数据转化到训练集的构建_ev.mp463.43M
| | ├──43:模型的训练以及评估和调超参_1_ev.mp435.13M
| | ├──44:模型的训练以及评估和调超参_2_ev.mp432.20M
| | ├──45:模型的训练以及评估和调超参_3_ev.mp443.15M
| | ├──46:SparkML机器学习库概念讲解_1_ev.mp459.65M
| | ├──47:SparkML机器学习库概念讲解_2_ev.mp453.66M
| | ├──48:SparkML机器学习库代码实战讲解_1_ev.mp461.17M
| | ├──49:SparkML机器学习库代码实战讲解_2_ev.mp463.52M
| | ├──50:SparkML网页分类案例代码实战续(1)_1_ev.mp462.90M
| | ├──51:SparkML网页分类案例代码实战续(1)_2_ev.mp460.75M
| | ├──52:SparkML网页分类案例代码实战续(2)_1_ev.mp457.53M
| | ├──53:SparkML网页分类案例代码实战续(2)_2_ev.mp444.96M
| | ├──54:SparkML网页分类案例代码实战续(3)_ev.mp43.98M
| | └──资料.rar1.28M
├──12-机器学习与大数据-推荐系统项目实战
| ├──章节1:推荐系统--流程与架构
| | ├──1.txt0.33kb
| | ├──10:推荐系统列表_关联特征权重_基本特征权重的计算_2_ev.mp443.64M
| | ├──11:推荐系统列表_关联特征权重_基本特征权重的计算_3_ev.mp441.91M
| | ├──12:推荐系统_数据源_1_ev.mp433.87M
| | ├──13:推荐系统_数据源_2_ev.mp431.31M
| | ├──1:推荐系统_隐式用户反馈_1_ev.mp444.96M
| | ├──2:推荐系统_隐式用户反馈_2_ev.mp449.06M
| | ├──3:推荐系统_协同过滤_1_ev.mp429.26M
| | ├──4:推荐系统_协同过滤_2_ev.mp428.44M
| | ├──5:推荐系统_协同过滤_3_ev.mp428.65M
| | ├──6:推荐系统_协同过滤_4_ev.mp429.76M
| | ├──7:推荐系统架构_实时_离线_1_ev.mp441.81M
| | ├──8:推荐系统架构_实时_离线_2_ev.mp441.79M
| | ├──9:推荐系统列表_关联特征权重_基本特征权重的计算_1_ev.mp437.58M
| | ├──数据.rar759.94kb
| | └──资料.rar2.67M
| ├──章节2:推荐系统--数据预处理和模型构建评估实战
| | ├──1.txt0.38kb
| | ├──14:HQL语句_python脚本构建中间结果_1_ev.mp448.91M
| | ├──15:HQL语句_python脚本构建中间结果_2_ev.mp446.79M
| | ├──16:HQL语句_python脚本构建中间结果_3_ev.mp443.99M
| | ├──17:HQL语句_python脚本构建中间结果_4_ev.mp447.18M
| | ├──18:推荐系统_数据预处理_spark构建特征索引_标签列_1_ev.mp443.80M
| | ├──19:spark构建特征索引_标签列_2_ev.mp443.31M
| | ├──20:spark构建特征索引_标签列_3_ev.mp442.32M
| | ├──21:spark构建特征索引_标签列_4_ev.mp439.89M
| | ├──22:MLlib调用算法计算模型文件并存储_1_ev.mp440.21M
| | ├──23:MLlib调用算法计算模型文件并存储_2_ev.mp437.77M
| | ├──24:MLlib调用算法计算模型文件并存储_3_ev.mp443.55M
| | ├──25:ACC准确率和AUC面积的计算以及意义_ev.mp493.24M
| | ├──代码.rar6.12kb
| | ├──集群.rar6.46G
| | ├──软件.rar665.46M
| | ├──数据.rar2.90M
| | └──资料.rar468.42kb
| └──章节3:推荐系统--模型使用和推荐服务
| | ├──1.txt0.43kb
| | ├──26:推荐模型文件使用思路_ev.mp425.82M
| | ├──27:Redis数据库安装及其使用_ev.mp416.62M
| | ├──28:实时在线推荐列表计算逻辑代码讲解_1_ev.mp450.63M
| | ├──29:实时在线推荐列表计算逻辑代码讲解_2_ev.mp440.17M
| | ├──30:实时在线推荐列表计算逻辑代码讲解_3_ev.mp436.75M
| | ├──31:实时在线推荐列表计算逻辑代码讲解_4_ev.mp436.51M
| | ├──32:使用Dubbo将推荐系统做成服务_1_ev.mp441.30M
| | ├──33:使用Dubbo将推荐系统做成服务_2_ev.mp441.40M
| | ├──34:使用Dubbo将推荐系统做成服务_3_ev.mp445.74M
| | ├──35:Dubbo推荐服务演示_SparkMLlib介绍_1_ev.mp451.29M
| | ├──36:Dubbo推荐服务演示_SparkMLlib介绍_2_ev.mp447.92M
| | ├──37:Dubbo推荐服务演示_SparkMLlib介绍_3_ev.mp450.71M
| | └──代码.rar42.15M
├──13-深度学习-原理和进阶
| ├──章节1:神经网络算法
| | ├──1.txt0.36kb
| | ├──1:神经网络是有监督的算法_生物神经元到人工神经元_ev.mp463.30M
| | ├──2:三种常见的激活函数_网络拓扑介绍_优化算法_ev.mp433.55M
| | ├──3:单层神经网络正向传播计算过程_用神经网络理解逻辑回归做多分类_ev.mp445.44M
| | ├──4:用神经网络理解Softmax回归_ev.mp444.38M
| | ├──5:隐藏层的意义_隐藏层相当于去做预处理_升维降维_ev.mp469.11M
| | ├──6:多节点网络输出_sklearn中NN模块的介绍_ev.mp453.02M
| | ├──7:sklearn中NN模型的代码使用_ev.mp469.28M
| | ├──8:隐藏层激活函数必须是非线性的_ev.mp413.69M
| | ├──9:tensorflow概要_conda创建虚拟环境_CPU版本的tensorflow安装_ev.mp4132.12M
| | ├──神经网络.pdf518.13kb
| | └──资料.rar12.88M
| ├──章节2:TensorFlow深度学习工具
| | ├──1.txt0.28kb
| | ├──10:CUDA下载地址_CUDA显卡白名单地址_ev.mp457.91M
| | ├──11:CUDA安装_cudnn安装_环境变量配置_检验是否安装成功_ev.mp460.71M
| | ├──12:Tensorflow代码运行机制_TF基础的代码_ev.mp498.16M
| | ├──13:TF实现线性回归解析解的方式_TF实现线性回归梯度下降的方式_ev.mp4106.23M
| | ├──14:TF实现线性回归BGD的方式_使用Optimizer_每轮打乱数据_ev.mp4130.43M
| | ├──15:TF实现Softmax回归来识别MNIST手写数字_ev.mp4108.49M
| | ├──16:TF实现DNN来识别MNIST手写数字_ev.mp4104.48M
| | ├──代码.rar27.29kb
| | └──软件.rar2.13G
| └──章节3:反向传播推导_Python代码实现神经网络
| | ├──1.txt0.31kb
| | ├──17:反向传播_链式求导法则_ev.mp456.13M
| | ├──18:反向传播推导(一)_ev.mp491.08M
| | ├──19:反向传播推导(二)从输出层到最后一个隐藏层_ev.mp478.81M
| | ├──20:反向传播推导(三)从输出层到最后一个隐藏层Softmax多分类为例_ev.mp465.08M
| | ├──21:反向传播推导(四)关于Δ和a还有梯度的更新事宜_ev.mp425.06M
| | ├──22:python实现神经网络训练代码讲解(一)_ev.mp450.79M
| | ├──23:python实现神经网络正向反向传播训练_ev.mp465.01M
| | ├──代码.rar2.83kb
| | └──资料.rar180.60kb
├──14-深度学习-图像识别原理
| ├──章节1:卷积神经网络原理
| | ├──1.txt0.41kb
| | ├──1:回顾深度神经网络_卷积层是局部连接_ev.mp481.89M
| | ├──2:单通道卷积的计算_ev.mp465.27M
| | ├──3:彩色图片卷积的计算_ev.mp436.33M
| | ├──4:卷积层权值共享_ev.mp437.06M
| | ├──5:卷积的补充与Padding填充模式_ev.mp456.33M
| | ├──6:卷积的计算TF中的API操作与参数_ev.mp476.76M
| | ├──7:池化的概念和TF中的API的操作与参数_ev.mp452.54M
| | ├──8:经典的CNN架构和LeNet5_ev.mp490.93M
| | ├──代码.rar1.60kb
| | └──资料.rar3.08M
| ├──章节2:卷积神经网络优化
| | ├──1.txt0.81kb
| | ├──10:Dropout技术点思想和运用_ev.mp472.22M
| | ├──11:数据增强技术点_CNN对MNIST数据集分类_卷积池化代码_ev.mp462.59M
| | ├──12:CNN对MNIST数据集分类_全连接层以及训练代码_ev.mp475.35M
| | ├──13:深度学习网络对应ACC准确率忽然下降的思考点_ev.mp463.34M
| | ├──14:减轻梯度消失问题中激活函数发挥的作用_ev.mp425.71M
| | ├──15:减轻梯度消失问题中参数初始化发挥的作用_ev.mp454.56M
| | ├──16:VGG网络结构_以及1乘1的卷积核的作用和好处_ev.mp476.57M
| | ├──17:Optimizer_SGD_Momentum_ev.mp459.32M
| | ├──18:Optimizer_Adagrad_Adadelta_RMSprop_ev.mp479.54M
| | ├──19:Optimizer_Adam_ev.mp479.91M
| | ├──9:AlexNet网络结构_连续使用小的卷积核好处_ev.mp460.49M
| | ├──代码.rar3.01kb
| | └──资料.rar25.89kb
| ├──章节3:经典卷积网络算法
| | ├──1.txt0.37kb
| | ├──20:Keras介绍_以及不同项目调用不同的python环境和CUDA环境_ev.mp478.00M
| | ├──21:VGG16_Fine-tuning_对MNIST做手写数字识别_ev.mp489.69M
| | ├──22:InceptionV1_V2_ev.mp4131.69M
| | ├──23:InceptionV3_以及InceptionV3对皮肤癌图片识别_ev.mp4124.68M
| | ├──24:ResNet残差单元_BottlenetBlocK_ev.mp472.33M
| | ├──25:DenseNet和Keras里面的实现_ev.mp4116.93M
| | ├──26:DenseNet在Keras里面的代码实现_ev.mp452.49M
| | ├──27:BatchNormalization_ev.mp484.12M
| | ├──28:Mobilenet网络架构_ev.mp4123.63M
| | ├──代码.rar5.33kb
| | └──资料.rar5.05M
| ├──章节4:古典目标检测
| | ├──1.txt0.23kb
| | ├──29:图像识别任务_古典目标检测_ev.mp4121.49M
| | ├──30:使用OpenCV调用分类器找到目标框_ev.mp473.92M
| | ├──31:IOU以及python计算的代码_ev.mp418.51M
| | ├──32:R-CNN和SPP-net_ev.mp468.40M
| | ├──33:从FastRCNN引入FasterRCNN_ev.mp493.80M
| | └──目标检测.pdf2.36M
| └──章节5:现代目标检测之FasterRCNN
| | ├──1.txt0.25kb
| | ├──34:回顾RCNN_SPPnet_Fast-RCNN_ev.mp496.32M
| | ├──35:FasterRNN的核心RPN_正向传播的框过滤_NMS_ev.mp4152.24M
| | ├──36:NMS代码实现流程_mAP目标检测平均指标_ev.mp4105.18M
| | ├──37:FasterRCNN论文讲解_从介绍到RPN的loss_ev.mp4198.76M
| | ├──38:FasterRCNN论文讲解_从RPN损失到评估指标对比_ev.mp4250.49M
| | └──Faster R-CNN Towards Real-Time Object Detection with Region Proposal Networks.pdf6.49M
├──15-深度学习-图像识别项目实战
| ├──章节1:车牌识别
| | ├──1:基于CascadeClassifier来提取目标框做车牌识别代码详解_01_ev.mp431.79M
| | ├──2:基于CascadeClassifier来提取目标框做车牌识别代码详解_02_ev.mp433.64M
| | ├──3:基于CascadeClassifier来提取目标框做车牌识别代码详解_03_ev.mp418.45M
| | ├──4:基于CascadeClassifier来提取目标框做车牌识别代码详解_04_ev.mp428.08M
| | ├──5:车牌识别项目关于目标检测的问题_ev.mp417.44M
| | └──car_license.rar177.04M
| ├──章节2:自然场景下的目标检测及源码分析
| | ├──10:FasterRCNN项目代码_模型的训练_ev.mp417.61M
| | ├──11:回归整体训练流程_详解读取数据blob_01_ev.mp433.04M
| | ├──12:回归整体训练流程_详解读取数据blob_02_ev.mp431.64M
| | ├──13:回归整体训练流程_详解读取数据blob_03_ev.mp418.48M
| | ├──14:回归整体训练流程_详解读取数据blob_04_ev.mp427.24M
| | ├──15:FasterRCNN代码_构建head_ev.mp425.91M
| | ├──16:FasterRCNN代码_构建RPN网络_01_ev.mp449.33M
| | ├──17:FasterRCNN代码_构建RPN网络_02_ev.mp439.32M
| | ├──18:FasterRCNN代码_根据RPN网络得到校正后的预测的框_01_ev.mp437.69M
| | ├──19:FasterRCNN代码_根据RPN网络得到校正后的预测的框_02_ev.mp448.00M
| | ├──20:FasterRCNN代码_bbox剪裁_NMS非极大值抑制_ev.mp446.08M
| | ├──21:FasterRCNN代码_给RPN准备正负例样本_01_ev.mp440.86M
| | ├──22:FasterRCNN代码_给RPN准备正负例样本_02_ev.mp462.30M
| | ├──23:FasterRCNN代码_给RPN准备正负例样本_03_ev.mp422.05M
| | ├──24:FasterRCNN代码_给RPN准备正负例样本_04_ev.mp419.13M
| | ├──25:FasterRCNN代码_给RPN准备正负例样本_05_ev.mp429.94M
| | ├──26:FasterRCNN代码_给RPN准备正负例样本_06_ev.mp442.60M
| | ├──27:FasterRCNN代码_给RPN准备正负例样本_07_ev.mp437.95M
| | ├──28:FasterRCNN代码_给RPN准备正负例样本_08_ev.mp421.93M
| | ├──29:FasterRCNN代码_给最终RCNN准备正负例样本_ROI池化_01_ev.mp426.51M
| | ├──30:FasterRCNN代码_给最终RCNN准备正负例样本_ROI池化_02_ev.mp425.42M
| | ├──31:FasterRCNN代码_添加Loss损失_smoothL1loss_ev.mp426.83M
| | ├──6:FasterRCNN项目代码_环境说明_数据集详解_项目结构说明_ev.mp446.53M
| | ├──7:FasterRCNN项目代码_数据加载_ev.mp439.94M
| | ├──8:FasterRCNN项目代码_数据增强_ev.mp431.37M
| | ├──9:FasterRCNN项目代码_数据初始化_ev.mp430.31M
| | ├──Faster-RCNN-TensorFlow-Python3.5-master.rar3.06G
| | └──资料.rar26.61kb
| └──章节3:图像风格迁移
| | ├──1.txt0.25kb
| | ├──32:图片风格融合项目_架构_代码实现要点_1_ev.mp430.54M
| | ├──33:图片风格融合项目_架构_代码实现要点_2_ev.mp435.38M
| | ├──34:图片风格融合项目_架构_代码实现要点_3_ev.mp434.81M
| | ├──35:图片风格融合项目_架构_代码实现要点_4_ev.mp437.08M
| | └──style_transfer.rar512.68M
├──16-深度学习-目标检测YOLO(V1-V4全版本)实战
| ├──章节1:YOLOv1详解
| | ├──1:YOLOv1论文详解_算法特点介绍_ev.mp4143.16M
| | ├──2:YOLOv1论文详解_网络架构_思想_ev.mp4163.33M
| | ├──3:YOLOv1论文详解_训练中的技巧_Loss损失函数_ev.mp4192.72M
| | └──4:YOLOv1论文详解_NMS_局限性_ev.mp462.47M
| ├──章节2:YOLOv2详解
| | ├──5:YOLOv2论文详解_BN_高分辨率_引入AnchorBoxes_ev.mp4138.74M
| | ├──6:YOLOv2论文详解_mAP更better的一些点_ev.mp4212.94M
| | ├──7:YOLOv2论文详解_Darknet19_分类数据和检测数据集融合_多标签_ev.mp4120.92M
| | └──8:YOLOv2论文详解_层级分类_层级分类用于目标检测_ev.mp4146.75M
| ├──章节3:YOLOv3详解
| | ├──10:YOLOv3论文详解_引入了FPN的思想特征融合_多路输出_DarkNet53_ev.mp4109.35M
| | ├──11:YOLOv3论文详解_总结_FocalLoss_ev.mp4100.58M
| | ├──12:YOLOv4论文概述_介绍_ev.mp496.28M
| | ├──13:YOLOv4论文概述_BOS_BOF_ev.mp4253.06M
| | └──9:YOLOv3论文详解_每个框都要预测多个类别概率_ev.mp464.54M
| ├──章节4:YOLOv3代码实战
| | ├──14:YOLOv3代码剖析_项目介绍_ev.mp495.01M
| | ├──15:YOLOv3代码剖析_聚类anchors_构建backbone主干网络_ev.mp4144.47M
| | ├──16:YOLOv3代码剖析_model输出之后的预测框的计算_ev.mp4138.41M
| | ├──17:YOLOv3代码剖析_使用model预测的其余代码_ev.mp454.57M
| | ├──18:YOLOv3代码剖析_weights到h5模型的转换_ev.mp483.70M
| | └──19:YOLOv3代码剖析_模型的训练部分详解_ev.mp4189.72M
| ├──章节5:YOLOv4详解
| | ├──20:YOLOv4_BOF_DropBlock_FocalLoss_ev.mp4159.22M
| | ├──21:YOLOv4_BOF_GIoU_DIoU_CIoU_ev.mp472.25M
| | ├──22:YOLOv4_BOS_ASPP_SAM_SoftNMS_Mish_ev.mp4163.21M
| | └──23:YOLOv4_BOS_SAM_PAN_CSP_CmBN_ev.mp4174.03M
| ├──keras-yolo3-master.rar443.97M
| └──资料.rar25.37M
├──17-深度学习-语义分割原理和实战
| ├──章节1:上采样_双线性插值_转置卷积
| | ├──1.txt0.29kb
| | ├──1:前言_ev.mp414.47M
| | ├──2:上采样_repeat_ev.mp416.98M
| | ├──3:线性插值_ev.mp423.87M
| | ├──4:双线性插值_ev.mp466.03M
| | ├──5:转置卷积_以及TF的API_ev.mp462.74M
| | ├──6:双线性插值作为转置卷积核的初始参数_ev.mp483.64M
| | ├──7:ROIAlign_ev.mp447.15M
| | ├──8:FPN思想与网络结构_ev.mp448.20M
| | ├──9:FPN应用于FasterRCNN_ResNetFPN_ev.mp4101.57M
| | ├──代码.rar3.31kb
| | └──资料.rar4.43M
| ├──章节2:医疗图像UNet语义分割
| | ├──1.txt0.19kb
| | ├──10:语义分割的基本概念_ev.mp414.13M
| | ├──11:FCN全卷积网络做语义分割_ev.mp428.30M
| | ├──12:UNet网络结构_ev.mp417.90M
| | ├──13:UNet网络医疗图像的语义分割_ev.mp459.40M
| | ├──U-Net.zip102.75M
| | └──资料.rar3.41M
| └──章节3:蒙版弹幕MaskRCNN语义分割
| | ├──1.txt0.35kb
| | ├──14:MaskRCNN网络结构_ev.mp454.01M
| | ├──15:MaskRCNN的项目展示_ev.mp4117.07M
| | ├──16:MaskRCNN网络架构回顾_ev.mp474.84M
| | ├──17:MaskRCNN根据文档和论文总结重要的知识点_ev.mp4191.29M
| | ├──18:MaskRCNN项目关于运行代码环境的说明_ev.mp434.35M
| | ├──19:MaskRCNN源码config和model_ev.mp4190.09M
| | ├──代码.rar798.38M
| | └──资料.rar6.77M
├──18-深度学习-人脸识别项目实战
| ├──章节1:人脸识别
| | ├──10:人脸识别项目代码_加载MTCNN模型_ev.mp453.20M
| | ├──11:人脸识别项目代码_读取图片带入MTCNN网络给出人脸候选框_ev.mp448.88M
| | ├──12:FaceNet论文_摘要和前情介绍_ev.mp458.45M
| | ├──13:FaceNet论文_相关的介绍_ev.mp442.19M
| | ├──14:FaceNet论文_TripleLoss思路来源和目标_ev.mp448.45M
| | ├──15:FaceNet论文_TripleLoss损失函数_ev.mp453.82M
| | ├──16:FaceNet论文_TripleSelection很至关重要_ev.mp462.93M
| | ├──17:FaceNet论文_ZF和Inception对比_总结_ev.mp457.56M
| | ├──18:人脸识别项目代码_FaceNet模型加载和使用_ev.mp435.74M
| | ├──19:人脸识别项目代码_人脸匹配以及最后的绘图展示_ev.mp430.32M
| | ├──1:人脸识别任务种类_具体做法思路_ev.mp426.65M
| | ├──2:开源的FaceNet项目介绍_ev.mp429.12M
| | ├──3:人脸识别项目代码整体结构_ev.mp423.36M
| | ├──4:MTCNN论文_摘要和介绍_ev.mp462.24M
| | ├──5:MTCNN论文_网络整体架构_ev.mp466.92M
| | ├──6:PRelu_每阶段输出多分支意义_ev.mp435.08M
| | ├──7:每一个阶段每个分支的Loss损失_整合每个分支的Loss_ev.mp457.33M
| | ├──8:训练数据的准备_每一阶段训练的流程_ev.mp453.05M
| | └──9:总结MTCNN_缩放因子_注意3阶段网络里面的全连接_ev.mp451.73M
| ├──1.txt0.50kb
| ├──facenet-master.zip823.10M
| ├──模型.rar186.42M
| └──资料.rar7.47M
├──19-深度学习-NLP自然语言处理原理和进阶
| ├──章节1:词向量与词嵌入
| | ├──1.txt0.31kb
| | ├──1:N-gram语言模型_ev.mp4100.90M
| | ├──2:NPLM神经网络语言模型_ev.mp491.13M
| | ├──3:词向量的作用_ev.mp436.29M
| | ├──4:CBOW模型思想和计算过程_ev.mp4100.15M
| | ├──5:Skip-gram模型思想和计算过程_ev.mp433.20M
| | ├──6:Huffman树_分层Softmax的思想_ev.mp466.23M
| | ├──7:分层Softmax应用到CBOW模型上_ev.mp451.31M
| | ├──8:负采样和负采样应用到CBOW模型上_ev.mp459.08M
| | ├──Word2Vec.pdf1.89M
| | └──资料.rar266.85kb
| ├──章节2:循环神经网络原理与优化
| | ├──1.txt0.41kb
| | ├──10:理解RNN循环神经网络计算流程_ev.mp429.87M
| | ├──11:利用RNN循环神经网络对MNIST手写数字识别_ev.mp496.49M
| | ├──12:理解LSTM长短时记忆_记住Topo和公式_ev.mp4104.73M
| | ├──13:VanillaRNN的回顾复习_ev.mp472.40M
| | ├──14:补充讲一下为什么RNN中链越长越容易梯度消失_ev.mp427.92M
| | ├──15:LSTM的回顾复习_LSTM手写数字识别_ev.mp426.32M
| | ├──16:双向RNN_LSTM_ev.mp430.09M
| | ├──17:RNN里面应用的Topology结构_ev.mp415.64M
| | ├──9:理解RNN循环神经网络拓扑结构_ev.mp474.59M
| | ├──RNN_Attention机制.pdf2.83M
| | ├──代码.rar1.69kb
| | └──资料.rar1.59M
| ├──章节3:从Attention机制到Transformer
| | ├──1.txt0.60kb
| | ├──18:Seq2Seq中Attention注意力机制_ev.mp439.99M
| | ├──19:Transformer_Self-Attention_Multi-head_ev.mp479.26M
| | ├──20:Transformer_Positional_使用逻辑_网络结构总结_ev.mp455.10M
| | ├──RNN_Attention机制.pdf5.16M
| | └──资料.rar792.99kb
| └──章节4:ELMO_BERT_GPT
| | ├──1.txt0.60kb
| | ├──21:ELMO_ev.mp433.25M
| | ├──22:BERT理论_ev.mp452.58M
| | ├──23:ERNIE_GPT_ev.mp443.47M
| | └──RNN_Attention机制.pdf5.16M
├──20-深度学习-NLP自然语言处理项目实战
| ├──章节1:词向量
| | ├──1:回顾了词向量里面训练的Topology_ev.mp491.34M
| | ├──2:Word2Vec项目代码_加载数据_构建字典_ev.mp475.49M
| | ├──3:Word2Vec项目代码_构建一个个批次数据_ev.mp465.40M
| | ├──4:Word2Vec项目代码_正向传播的Graph构建_NCE损失的计算本质_ev.mp480.94M
| | ├──5:Word2Vec项目代码_评估比较相似度_最后的训练绘图_ev.mp468.29M
| | ├──6:Word2Vec项目代码_总结串讲_ev.mp418.31M
| | └──word_2_vector.rar56.80M
| ├──章节2:自然语言处理--情感分析
| | ├──10:代码讲解_01_ev.mp424.56M
| | ├──11:代码讲解_02_ev.mp427.78M
| | ├──12:代码讲解_03_ev.mp424.50M
| | ├──13:代码讲解_04_ev.mp426.34M
| | ├──14:代码讲解_05_ev.mp419.33M
| | ├──7:Keras实战RNN以及词嵌入来做情感分析_ev.mp428.82M
| | ├──8:数据预处理_01_ev.mp433.19M
| | ├──9:数据预处理_02_ev.mp424.32M
| | └──代码.rar4.64kb
| ├──章节3:AI写唐诗
| | ├──15:AI写唐诗_数据的读取_字典的构建_文本的索引化_ev.mp489.26M
| | ├──16:AI写唐诗_训练数据的构建_ev.mp444.78M
| | ├──17:MultiRNNCell单元_ev.mp422.27M
| | ├──18:AI写唐诗_从词嵌入到构建RNN再到输出层概率输出_ev.mp452.61M
| | ├──19:AI写唐诗_损失的计算_梯度的求解截断和更新_最终的训练代码_ev.mp448.59M
| | ├──20:AI写唐诗_模型的使用_增加随机性_ev.mp472.51M
| | └──代码 .rar22.31M
| ├──章节4:Seq2Seq聊天机器人
| | ├──21:从AI写唐诗到Seq2Seq再到Encoder-Decoder_ev.mp469.51M
| | ├──22:Seq2Seq版Chatbot的数据预处理_ev.mp475.20M
| | ├──23:Seq2Seq版Chatbot训练和模型使用_ev.mp469.86M
| | └──代码.rar37.30kb
| ├──章节5:实战NER命名实体识别项目
| | ├──24:回顾了一下CRF训练和使用过程_ev.mp456.68M
| | ├──25:介绍了代码目录结构_ev.mp419.69M
| | ├──26:NER代码读取数据和预处理_ev.mp485.89M
| | ├──27:feature进入BiLSTM进行正向传播的过程_ev.mp468.89M
| | ├──28:通过CRF层来计算Loss损失以及训练_ev.mp466.03M
| | ├──29:BiLSTM-CRF模型的预测代码_ev.mp460.45M
| | ├──30:CRF中的特征函数们_ev.mp487.83M
| | ├──31:对比逻辑回归_相比HMM优势_ev.mp483.05M
| | ├──32:补充标注偏置问题_HMM做分词代码结构_ev.mp458.18M
| | └──代码.rar14.28M
| ├──章节6:BERT新浪新闻10分类项目
| | ├──33:BERT新浪新闻10分类项目_ev.mp490.17M
| | └──bert.zip66.49M
| └──章节7:GPT2聊天机器人
| | ├──34:GPT2闲聊机器人_ev.mp437.61M
| | ├──GPT2-Chinese-master.zip13.39M
| | └──gpt2_chatbot-master.zip86.58kb
├──21-深度学习-OCR文本识别
| ├──章节1:深度学习-OCR文本识别
| | ├──10:CRNN项目代码剖析_ev.mp4127.07M
| | ├──1:传统OCR识别_深度学习OCR识别_ev.mp4130.34M
| | ├──2:OCR识别本质就是文字检测和文字识别_ev.mp480.13M
| | ├──3:OCR识别的CTC损失思想_ev.mp495.96M
| | ├──4:总结理解深度学习文字识别架构_ev.mp434.81M
| | ├──5:CTC损失函数的理解_ev.mp4130.26M
| | ├──6:CTC损失函数前向后向算法推导_梯度求导公式推导_ev.mp485.53M
| | ├──7:CTC前向后向算法代码_ev.mp486.60M
| | ├──8:GreedySearch和BeamSearch解码的方式与代码逻辑_ev.mp4116.48M
| | └──9:CPTN项目代码剖析_ev.mp4173.24M
| └──资料.rar478.63kb
├──22-深度学习-语音识别【2021新增 未更新。。。持续更新】
| └──官方未更新。。。持续更新
├──23-深度学习-知识图谱【2021新增 未更新。。。持续更新】
| └──官方未更新。。。持续更新
├──24-【加课】Pytorch项目实战
| ├──章节1:PyTorch运行环境安装_运行环境测试
| | ├──1:PyTorch概述_ev.mp426.67M
| | ├──2:PyTorch的安装_ev.mp445.81M
| | ├──3:Pycharm关联PyTorch运行环境_ev.mp424.03M
| | └──4:Jupyter关联PyTorch运行环境_ev.mp427.99M
| ├──章节2:PyTorch基础_Tensor张量运算
| | ├──5:Tensor的创建_ev.mp442.45M
| | ├──6:修改Tensor的形状_索引操作_ev.mp456.59M
| | ├──7:广播机制_逐元素操作_ev.mp433.45M
| | └──8:归并操作_比较操作_矩阵操作_ev.mp444.67M
| ├──章节3:PyTorch卷积神经网络_实战CIFAR10
| | ├──10:PyTorch实战CIFAR10_构建网络_打印网络层次_ev.mp438.92M
| | ├──11:PyTorch实战CIFAR10_训练模型_测试模型_ev.mp433.50M
| | ├──12:PyTorch实战CIFAR10_分类别打印模型准确率_ev.mp419.94M
| | ├──13:使用全局平均池化_使用LeNet模型_ev.mp426.73M
| | ├──14:使用集成学习思想训练识别模型_ev.mp453.92M
| | ├──15:使用VGG16模型提供准确率_ev.mp433.35M
| | ├──16:torchvision里面的预训练模型_ev.mp420.28M
| | ├──17:迁移学习_PyTorch代码实战冻结预训练模型参数_ev.mp438.81M
| | ├──18:PyTorch代码实战加入数据增强_ev.mp423.49M
| | └──9:PyTorch实战CIFAR10数据_读取和展示_ev.mp458.48M
| ├──章节4:PyTorch循环神经网络_词性标注
| | ├──19:PyTorch词性标注_构建数据和词索引号_ev.mp416.72M
| | ├──20:PyTorch词性标注_构建词嵌入层LSTM层和词性输出层_ev.mp426.98M
| | ├──21:PyTorch词性标注_构建数据索引化和训练模型代码_ev.mp427.12M
| | └──22:PyTorch词性标注_测试模型效果_ev.mp47.78M
| ├──章节5:PyTorch编码器解码器_机器翻译
| | ├──23:PyTorch中英文翻译_规范化语料库_构建中英文词典索引_ev.mp431.67M
| | ├──24:PyTorch中英文翻译_数据预处理_ev.mp424.46M
| | ├──25:PyTorch中英文翻译_索引化数据_转化成Tensor张量_构建Encoder编码器_ev.mp431.36M
| | ├──26:PyTorch中英文翻译_构建训练函数之Encoder计算_ev.mp432.85M
| | ├──27:PyTorch中英文翻译_构建带Attention注意力机制的Decoder解码器_ev.mp443.18M
| | ├──28:PyTorch中英文翻译_构建训练函数之Decoder计算_ev.mp438.50M
| | ├──29:PyTorch中英文翻译_评估模型函数_ev.mp434.22M
| | └──30:PyTorch中英文翻译_绘制Attentions注意力权重_ev.mp420.88M
| ├──代码.rar307.66M
| └──资料.rar1.77M
├──25、【加课】百度飞桨PaddlePaddle实战【新增】
| ├──章节1:PaddlePaddle框架安装_波士顿房价预测
| | ├──代码
| | ├──数据
| | ├──1:安装PaddlePaddle_ev.mp436.77M
| | ├──2:Pycharm运行出现mkl-service或DLL找不到的问题_ev.mp428.19M
| | ├──3:PaddlePaddle求解线性模型_ev.mp435.67M
| | ├──4:预测波士顿房价_数据读取_正向传播_ev.mp438.00M
| | └──5:预测波士顿房价_反向传播_模型保存_模型测试_ev.mp429.68M
| ├──章节2:PaddlePaddle卷积网络_病理性近视识别
| | ├──代码
| | ├──数据
| | ├──6:预测病理性近视_图片数据读取_ev.mp445.49M
| | ├──7:预测病理性近视_模型训练_ev.mp440.78M
| | ├──8:预测病理性近视_定义模型结构_评估模型_ev.mp440.92M
| | └──9:预测病理性近视_调用经典卷积神经网络_ev.mp466.29M
| ├──章节3:PaddleDetection工具_PCB电路板缺陷检测
| | ├──代码
| | ├──数据
| | ├──10:PaddleDetection_项目配置_ev.mp442.14M
| | ├──11:安装配置VisualStudio_解决安装模块pycocotools或cython_bbox编译报错问题_ev.mp431.05M
| | ├──12:PCB电路板缺陷检测_Images和Annotations_ev.mp429.76M
| | ├──13:PCB电路板缺陷检测_前期数据的分析_ev.mp455.99M
| | ├──14:PCB电路板缺陷检测_项目配置文件_ev.mp427.18M
| | ├──15:PCB电路板缺陷检测_模型训练_ev.mp443.74M
| | └──16:PCB电路板缺陷检测_模型预测_ev.mp440.76M
| ├──章节4:PaddleOCR工具_车牌识别(目标检测+CRNN+CTCLoss)
| | ├──代码
| | ├──数据
| | ├──17:PaddleOCR_项目配置_CCPD数据集介绍_ev.mp447.40M
| | ├──18:车牌识别项目_详解数据准备阶段代码_ev.mp428.73M
| | ├──19:车牌识别项目_运行保存标签和剪切出的车牌图片_ev.mp437.23M
| | ├──20:车牌识别项目_车牌目标框检测模型训练_ev.mp444.20M
| | ├──21:车牌识别项目_车牌字符识别模型训练_ev.mp445.18M
| | └──22:车牌识别项目_车牌识别模型导出及预测_ev.mp454.75M
| ├──章节5:PaddleNLP模块_物流信息提取(BiGRU+CRF)
| | ├──代码
| | ├──数据
| | ├──23:PaddleNLP_项目配置_ev.mp430.94M
| | ├──24:PaddleNLP_物流信息提取项目介绍_ev.mp432.51M
| | ├──25:物流信息提取项目_解决导包显示找不到nul问题_ev.mp442.22M
| | ├──26:PaddleNLP_物流信息提取项目_加载数据构建DataSet_ev.mp438.36M
| | ├──27:PaddleNLP_物流信息提取项目_进一步通过DataSet构建出DataLoader_ev.mp437.31M
| | ├──28:PaddleNLP_物流信息提取项目_构建网络模型_ev.mp432.75M
| | ├──29:PaddleNLP_物流信息提取项目_模型训练_ev.mp435.53M
| | └──30:PaddleNLP_物流信息提取项目_合并结果并展示_使用预训练的词向量提升效果_ev.mp452.25M
| └──章节6:PaddleNLP模块_物流信息提取(ERNIE版)
| | ├──代码
| | ├──数据
| | ├──31:PaddleNLP_物流信息提取项目_ERNIE实战_加载数据集构建Dataset_ev.mp434.05M
| | ├──32:PaddleNLP_物流信息提取项目_ERNIE实战_详解Tokenizer作用_ev.mp439.05M
| | ├──33:PaddleNLP_物流信息提取项目_ERNIE实战_讲解模型训练和评估代码_ev.mp434.16M
| | └──34:PaddleNLP_物流信息提取项目_ERNIE实战_讲解ChunkEvaluator和输出预测结果_ev.mp437.51M
├──26-【加课】Linux环境编程基础
| ├──章节1:Linux
| | ├──10:Linux_常用命令_clear、touch、cat命令_ev.mp46.87M
| | ├──11:Linux_常用命令more、head、tail命令_ev.mp411.70M
| | ├──12:Linux_常用命令_mkdir命令_ev.mp47.43M
| | ├──13:Linux_常用命令_cp命令_ev.mp410.70M
| | ├──14:Linux_常用命令_rm、mv命令_ev.mp419.97M
| | ├──15:Linux_常用命令_vi、vim_ev.mp422.86M
| | ├──16:Linux_常用命令_reboot、halt_ev.mp44.00M
| | ├──17:Linux_常用配置_设置时区_ev.mp418.87M
| | ├──18:Linux_常用配置_启动网络_ev.mp411.22M
| | ├──19:Linux_常用配置_修改网段_ev.mp48.25M
| | ├──1:Linux_课程介绍_ev.mp42.93M
| | ├──20:Linux_常用配置_设置网络类型_ev.mp418.89M
| | ├──21:Linux_常用配置_快照与克隆_ev.mp410.70M
| | ├──22:Linux_Xshell的安装与使用_ev.mp414.02M
| | ├──23:Linux_上传与下载_Xftp的使用_ev.mp412.71M
| | ├──24:Linux_上传与下载_lrzsz工具_ev.mp429.88M
| | ├──25:Linux_文件的压缩与解压缩处理_ev.mp428.41M
| | ├──26:Linux_安装MySQL_ev.mp450.87M
| | ├──2:Linux_Linux简介_ev.mp413.00M
| | ├──3:Linux_VMWare安装及使用_ev.mp413.59M
| | ├──4:Linux_安装Linux_ev.mp425.92M
| | ├──5:Linux_目录介绍_ev.mp413.24M
| | ├──6:Linux_Linux中的路径_ev.mp413.00M
| | ├──7:Linux_常用命令_pwd命令_ev.mp44.74M
| | ├──8:Linux_常用命令_cd命令_ev.mp46.05M
| | └──9:Linux_常用命令_ls与ll命令_ev.mp422.63M
| ├──软件.rar2.18G
| ├──软件2.rar6.33G
| └──文档.rar2.78M
├──27-【加课】算法与数据结构
| ├──章节1:算法与数据结构
| | ├──10:哈希表的基本结构_ev.mp426.05M
| | ├──11:哈希表冲突问题_ev.mp436.72M
| | ├──12:哈希表冲突问题2_ev.mp429.16M
| | ├──13:哈希扩容_ev.mp442.00M
| | ├──14:递归与栈_ev.mp423.20M
| | ├──15:线性查找_ev.mp427.16M
| | ├──16:二分查找_ev.mp425.22M
| | ├──17:冒泡排序_ev.mp426.39M
| | ├──18:选择排序_ev.mp422.71M
| | ├──19:插入排序_ev.mp415.87M
| | ├──1:数据结构与算法简介_ev.mp417.12M
| | ├──20:归并排序_ev.mp440.51M
| | ├──21:快速排序_ev.mp418.97M
| | ├──22:树结构_ev.mp442.81M
| | ├──23:树结构的遍历_ev.mp427.72M
| | ├──24:最大堆的增加操作_ev.mp436.15M
| | ├──25:最大堆的删除操作_ev.mp435.13M
| | ├──26:二叉树的查找_ev.mp441.76M
| | ├──27:二叉树获取最小值_ev.mp411.16M
| | ├──28:二叉树的添加_ev.mp430.56M
| | ├──29:二叉树的删除_ev.mp455.15M
| | ├──2:大O表示法_ev.mp411.28M
| | ├──3:线性结构_ev.mp424.15M
| | ├──4:单线链表1_ev.mp427.68M
| | ├──5:单链表2_ev.mp458.44M
| | ├──6:双链表_ev.mp446.43M
| | ├──7:队列(链式)_ev.mp433.77M
| | ├──8:队列(线式)_ev.mp417.69M
| | └──9:栈与双端队列_ev.mp413.03M
| └──资料.zip4.80M
├──29-【加课】计算机图形学机器视觉实战【2021新增 未更新。。。持续更新】
| └──官方未更新。。。持续更新
├──30-【加课】 ROS智能机器人操作系统【2021新增 未更新。。。持续更新】
| └──未更新。。。持续更新
├──31、【加课】 强化学习【新增】
| ├──章节1:Q-Learning与SARSA算法
| | ├──代码
| | ├──资料
| | ├──10:代码实战Q-Learning智能体训练模型_ev.mp435.49M
| | ├──11:代码实战Sarsa_Agent和Env整体交互_ev.mp426.78M
| | ├──12:代码实战Sarsa_Agent选择行为和训练模型_ev.mp437.68M
| | ├──13:代码实战SarsaLambda_训练模型_ev.mp436.83M
| | ├──1:强化学习通过智能体与环境交互进行学习_ev.mp444.67M
| | ├──2:引入马尔科夫链和价值评估的Q值与V值_ev.mp435.03M
| | ├──3:详解Q值和V值以及它们之间关系_ev.mp448.04M
| | ├──4:蒙特卡洛采样回溯计算V值_ev.mp441.14M
| | ├──5:蒙特卡洛和时序差分估算状态V值_ev.mp444.02M
| | ├──6:SARSA算法和Q-learning算法_ev.mp439.56M
| | ├──7:理解Q-table_创建maze交互环境_ev.mp440.23M
| | ├──8:代码实战Q-Learning_Agent和Env整体交互_ev.mp430.03M
| | └──9:代码实战Q-Learning智能体选择行为_ev.mp433.94M
| ├──章节2:Deep Q-Learning Network
| | ├──代码
| | ├──14:DQN算法思想_ev.mp435.24M
| | ├──15:DQN算法具体流程_ev.mp431.71M
| | ├──16:ε-greedy_ReplayBuffer_FixedQ-targets_ev.mp454.99M
| | ├──17:代码实战DQN_Agent和Env整体交互_ev.mp446.11M
| | ├──18:代码实战DQN_构建Q网络_ev.mp441.08M
| | ├──19:代码实战DQN_定义损失函数_构建Target网络更新逻辑_ev.mp450.96M
| | ├──20:代码实战DQN_训练阶段得到Q网络的预测值和真实值_ev.mp447.86M
| | ├──21:代码实战DQN_训练阶段最小化损失_记录loss方便展示_随着learn的越多选择action随机性减小_ev.mp452.26M
| | ├──22:DQN会over-estimate的本质原因_ev.mp440.26M
| | ├──23:DoubleDQN缓解over-estimate_ev.mp439.29M
| | ├──24:DoubleDQN代码实战_ev.mp439.68M
| | ├──25:DuelingDQN_ev.mp447.48M
| | ├──26:困难样本挖掘_Multi-step_NoiseyNet系统的探索_ev.mp449.05M
| | ├──27:计算Action的方差避免风险_ev.mp428.80M
| | └──28:Rainbow_DQN如何计算连续型的Actions_ev.mp434.36M
| ├──章节3:Policy Gradient 策略梯度
| | ├──代码
| | ├──29:策略梯度PG_对比基于值和基于策略网络的区别_ev.mp436.10M
| | ├──30:策略梯度PG_明确目标函数和导函数_ev.mp433.85M
| | ├──31:策略梯度PG_简化导函数的公式推导_ev.mp433.34M
| | ├──32:策略梯度PG_总结整体流程_对比交叉熵损失函数求导_ev.mp430.01M
| | ├──33:策略梯度PG_讲解CartPole环境_ev.mp431.95M
| | ├──34:代码实战_策略梯度PG和CartPole交互_ev.mp444.45M
| | ├──35:代码实战_策略梯度PG网络构建_ev.mp428.63M
| | ├──36:代码实战_策略梯度PG选择行为和参数训练_ev.mp432.87M
| | ├──37:策略梯度PG_对TotalReward进行均值归一化_ev.mp429.71M
| | └──38:策略梯度PG_同一个回合中不同的action回溯不同的TotalReward_代码实战_ev.mp430.66M
| ├──章节4:Actor Critic (A3C)
| | ├──代码
| | ├──39:ActorCritic原理_把PG和QLearning结合起来_ev.mp450.02M
| | ├──40:AdvantageActorCritic_共享参数和修改reward技巧_ev.mp444.69M
| | ├──41:代码实战_ActorCritic与环境交互_ev.mp448.29M
| | ├──42:代码实战_Actor网络构建及训练_ev.mp433.46M
| | ├──43:代码实战_详解Critic网络构建及训练_ev.mp450.74M
| | ├──44:A3C架构和训练流程_ev.mp437.52M
| | ├──45:Pendulum环境_根据网络预测的μ和σ得到连续型的action值_ev.mp444.49M
| | ├──46:代码实战_A3C_讲解Coordinator调度多线程运算_ev.mp427.84M
| | ├──47:代码实战_A3C_定义Worker计算loss的逻辑_针对连续型的action提高actor探索性_ev.mp432.62M
| | ├──48:代码实战_A3C_增加actor探索性用到熵_定义worker正太分布抽样和求梯度的逻辑_ev.mp432.10M
| | ├──49:代码实战_A3C_定义AC网络结构_定义worker拉取参数和更新全局网络参数的逻辑_ev.mp435.52M
| | ├──50:代码实战_A3C_结合流程图分三点总结前面讲的代码_ev.mp435.80M
| | ├──51:代码实战_A3C_讲解线程中worker和环境交互_ev.mp445.16M
| | └──52:代码实战_A3C_讲解线程中worker和GlobalNet交互_代码运行效果展示_ev.mp441.57M
| └──章节5:DDPG、PPO、DPPO算法
| | ├──代码
| | ├──53:DDPG解决DQN不能输出连续型动作的问题_DDPG如何训练Actor和Critic_ev.mp443.40M
| | ├──54:代码实战_DDPG_构建Actor和Critic四个网络_定义Critic求loss和求梯度的逻辑_ev.mp445.45M
| | ├──55:代码实战_DDPG_Critic网络构建_Actor网络链式求导_ev.mp450.11M
| | ├──56:代码实战_DDPG_与环境之间的互动_AC训练调整参数_效果展示_ev.mp438.76M
| | ├──57:TD3_使用DoubleNetwork优化DDPG_ev.mp457.07M
| | ├──58:PPO_强调AC如何输出连续型动作_区分On-Policy与Off-Policy_ev.mp434.69M
| | ├──59:PPO_通过重要性采样使得PPO可以做Off-Policy学习_ev.mp432.08M
| | ├──60:PPO_重要性采样的问题_期望矫正但是方差还是不同带来的问题_ev.mp434.49M
| | ├──61:PPO_PPO1、TRPO、PPO2三种不同的方式解决两个分布不同的问题_ev.mp432.50M
| | ├──62:代码实战_PPO与环境整体交互_Actor与Critic网络构建_ev.mp428.52M
| | ├──63:代码实战_定义PPO1和PPO2不同版本Actor的Loss计算逻辑_ev.mp436.15M
| | ├──64:代码实战_剖析PPO代码中如何体现Off-Policy的学习方式_效果展示_ev.mp434.44M
| | ├──65:DPPO分布式PPO_ev.mp436.43M
| | ├──66:代码实战_DPPO_创建一个PPO和多个Worker_创建多线程_ev.mp433.08M
| | └──67:代码实战_DPPO_GlobalPPO和Workers交替执行_ev.mp448.49M
├──32-【加课】 图神经网络【2021新增 未更新。。。持续更新】
| └──未更新。。。持续更新
├──【加课】Linux环境编程基础
| └──章节1:Linux
| | ├──10:Linux_常用命令_clear、touch、cat命令_ev.mp46.89M
| | ├──11:Linux_常用命令more、head、tail命令_ev.mp411.70M
| | ├──14:Linux_常用命令_rm、mv命令_ev.mp419.93M
| | ├──15:Linux_常用命令_vi、vim_ev.mp422.76M
| | ├──16:Linux_常用命令_reboot、halt_ev.mp44.00M
| | ├──18:Linux_常用配置_启动网络_ev.mp411.23M
| | ├──1:Linux_课程介绍_ev.mp42.92M
| | ├──20:Linux_常用配置_设置网络类型_ev.mp418.98M
| | ├──25:Linux_文件的压缩与解压缩处理_ev.mp428.49M
| | ├──26:Linux_安装MySQL_ev.mp450.60M
| | ├──3:Linux_VMWare安装及使用_ev.mp413.50M
| | ├──5:Linux_目录介绍_ev.mp413.21M
| | └──8:Linux_常用命令_cd命令_ev.mp46.00M
└──【加课】算法与数据结构
| └──章节1:算法与数据结构
| | ├──10:哈希表的基本结构_ev.mp426.13M
| | ├──11:哈希表冲突问题_ev.mp436.27M
| | ├──12:哈希表冲突问题2_ev.mp429.22M
| | ├──13:哈希扩容_ev.mp441.81M
| | ├──14:递归与栈_ev.mp423.30M
| | ├──16:二分查找_ev.mp425.38M
| | ├──17:冒泡排序_ev.mp426.31M
| | ├──18:选择排序_ev.mp422.56M
| | ├──19:插入排序_ev.mp415.88M
| | ├──1:数据结构与算法简介_ev.mp417.10M
| | ├──20:归并排序_ev.mp440.45M
| | ├──21:快速排序_ev.mp419.04M
| | ├──22:树结构_ev.mp442.63M
| | ├──23:树结构的遍历_ev.mp427.49M
| | ├──24:最大堆的增加操作_ev.mp435.82M
| | ├──26:二叉树的查找_ev.mp441.35M
| | ├──27:二叉树获取最小值_ev.mp411.17M
| | ├──28:二叉树的添加_ev.mp430.58M
| | ├──29:二叉树的删除_ev.mp454.96M
| | ├──2:大O表示法_ev.mp411.34M
| | ├──3:线性结构_ev.mp424.14M
| | ├──4:单线链表1_ev.mp427.60M
| | ├──5:单链表2_ev.mp458.34M
| | ├──6:双链表_ev.mp446.56M
| | ├──7:队列(链式)_ev.mp433.40M
| | ├──8:队列(线式)_ev.mp417.80M
| | └──9:栈与双端队列_ev.mp413.03M
资源下载地址和密码(百度云盘):**** Hidden Message ***** 百度网盘信息回帖可见
本资源由Java自学网收集整理【www.javazx.com】 感恩无私的分享与奉献 强烈支持楼主ing…… 真是被感动的痛哭流涕…… 感恩无私的分享与奉献 淡定,淡定,淡定…… 真是被感动的痛哭流涕…… 强烈支持楼主ing…… 楼主加油,我们都看好你哦。 看看那看看看看看