模块 | 主要内容 |
第一章
Python编程入门 9:00-10:30 | 1、Python环境搭建( 下载、安装与版本选择)。 2、如何选择Python编辑器?(IDLE、Notepad++、Anaconda、PyCharm、Jupyter Notebook…) 3、Python基础(数据类型和变量、字符串和编码、list和tuple、条件判断、循环、函数的定义与调用等) 4、常见的错误与程序调试 5、第三方模块的安装与使用 6、文件读写(I/O)
7、实操练习 |
第二章 Python进阶与提高 10:30-12:00 14:00-15:30 | 1、Numpy模块库(Numpy的安装;ndarray类型属性与数组的创建;数组索引与切片;Numpy常用函数简介与使用) 2、Pandas模块库(DataFrame数据结构、表格的变换、排序、拼接、融合、分组操作等)
3、Matplotlib基本图形绘制(线形图、柱状图、饼图、气泡图、直方图、箱线图、散点图等) 4、图形样式的美化(颜色、线型、标记、字体等属性的修改) 5、图形的布局(多个子图绘制、规则与不规则布局绘制、向画布中任意位置添加坐标轴) 6、高级图形绘制(3D图、等高线图、棉棒图、哑铃图、漏斗图、树状图、华夫饼图等) 7、坐标轴高阶应用(共享绘图区域的坐标轴、坐标轴刻度样式设置、控制坐标轴的显示、移动坐标轴的位置) 8、实操练习 |
第三章 数据描述性统计分析与数据预处理
15:30-17:00 | 1、描述性统计分析(数据的频数分析:统计直方图;数据的集中趋势分析:算数平均值、几何平均数、众数、极差与四分位差、平均离差、标准差、离散系数;数据的分布:偏态系数、峰度;数据的相关分析:相关系数) 2、数据标准化与归一化(为什么需要标准化与归一化?) 3、数据异常值、缺失值处理 4、数据离散化及编码处理 5、手动生成新特征 6、实操练习 |
第四章
线性回归模型 9:00-10:00 | 1、一元线性回归模型与多元线性回归模型(回归参数的估计、回归方程的显著性检验、残差分析) 2、岭回归模型(工作原理、岭参数k的选择、用岭回归选择变量) 3、LASSO模型(工作原理、特征选择、建模预测、超参数调节) 4、Elastic Net模型(工作原理、建模预测、超参数调节) 5、案例实践与实操练习 |
第五章
前向型神经网络 10:00-12:00 | 1、BP神经网络的基本原理(人工智能发展过程经历了哪些曲折?人工神经网络的分类有哪些?BP神经网络的拓扑结构和训练过程是怎样的?什么是梯度下降法?BP神经网络建模的本质是什么?) 2、BP神经网络的Python代码实现(怎样划分训练集和测试集?为什么需要归一化?归一化是必须的吗?什么是梯度爆炸与梯度消失?) 3、BP神经网络参数的优化(隐含层神经元个数、学习率、初始权值和阈值等如何设置?什么是交叉验证?) 4、值得研究的若干问题(欠拟合与过拟合、泛化性能评价指标的设计、样本不平衡问题等) 5、极限学习机(Extreme Learning Machine, ELM)的工作原理 6、案例演示与实操练习
|
第六章 KNN、贝叶斯分类与支持向量机 14:00-15:30 | 1、KNN分类模型(KNN算法的核心思想、距离度量方式的选择、K值的选取、分类决策规则的选择) 2、朴素贝叶斯分类模型(伯努利朴素贝叶斯BernoulliNB、类朴素贝叶斯CategoricalNB、高斯朴素贝叶斯besfGaussianNB、多项式朴素贝叶斯MultinomialNB、补充朴素贝叶斯ComplementNB) 3、SVM的工作原理(SVM的本质是解决什么问题?SVM的四种典型结构是什么?核函数的作用是什么?什么是支持向量SVM扩展知识(如何解决多分类问题?SVM除了建模型之外,还可以帮助我们做哪些事情?) 4、案例实践与实操练习
|
第七章 决策树、随机森林、LightGBM、XGBoost 15:30-17:00 | 1、决策树的工作原理(微软小冰读心术的启示;什么是信息熵和信息增益?ID3算法和C4.5算法的区别与联系);决策树除了建模型之外,还可以帮我们做什么事情? 2、随机森林的工作原理(为什么需要随机森林算法?广义与狭义意义下的“随机森林”分别指的是什么?“随机”体现在哪些地方?随机森林的本质是什么?怎样可视化、解读随机森林的结果?) 3、Bagging与Boosting的区别与联系 4、AdaBoost vs. Gradient Boosting的工作原理
5. 常用的GBDT算法框架(XGBoost、LightGBM) 6、案例实践与实操练习 |
第八章 变量降维与特征选择 9:00-11:00 | 1、主成分分析(PCA)的基本原理(如何确定最佳的主成分个数?) 2、偏最小二乘(PLS)的基本原理 3、常见的特征选择方法(优化搜索、Filter和Wrapper等;前向与后向选择法;区间法;无信息变量消除法;正则稀疏优化方法等)
4、遗传算法(Genetic Algorithm, GA)的基本原理(以遗传算法为代表的群优化算法的基本思想是什么?) 5、案例实践与实操练习 |
第九章 卷积神经网络 11:00-12:00 14:00-15:00 | 1、深度学习简介(深度学习大事记:Model + Big Data + GPU + AlphaGo)
2、深度学习与传统机器学习的区别与联系(神经网络的隐含层数越多越好吗?深度学习与传统机器学习的本质区别是什么?) 2、卷积神经网络的基本原理(什么是卷积核、池化核?CNN的典型拓扑结构是怎样的?CNN的权值共享机制是什么?CNN提取的特征是怎样的?) 3、卷积神经网络的进化史:LeNet、AlexNet、Vgg-16/19、GoogLeNet、ResNet等经典深度神经网络的区别与联系 4、利用PyTorch构建卷积神经网络(Convolution层、Batch Normalization层、Pooling层、Dropout层、Flatten层等) 5、卷积神经网络调参技巧(卷积核尺寸、卷积核个数、移动步长、补零操作、池化核尺寸等参数与特征图的维度,以及模型参数量之间的关系是怎样的?) 6、案例讲解:(1)CNN预训练模型实现物体识别(2)利用卷积神经网络抽取抽象特征(3)自定义卷积神经网络拓扑结构 7、实操练习 |
第十章迁移学习
15:00-15:30 | 1、迁移学习算法的基本原理(为什么需要迁移学习?为什么可以迁移学习?迁移学习的基本思想是什么?) 2、基于深度神经网络模型的迁移学习算法 3、案例讲解:猫狗大战(Dogs vs. Cats) 4、实操练习 |
第十一章 循环神经网络与长短时记忆神经网络
15:30-16:30 | 1、循环神经网络RNN的基本工作原理 2、长短时记忆网络LSTM的基本工作原理 3、案例讲解:时间序列预测(北京市污染物预测) 4、实操练习 |
第十二章 总结与答疑讨论 16:30-17:00
| 1、课程总结 2、相关学习资料分享与拷贝(图书推荐、在线课程推荐等) 3、建立微信群,便于后期的讨论与答疑 4、答疑讨论(提前把问题准备好) |
备注 | 学员需自备电脑一台,提前安装Python软件。 |