Py学习  »  机器学习算法

《机器学习》最后两天 福利特惠

SigAI • 5 年前 • 488 次点击  

《机器学习》

原价  ¥ 1399元

限时优惠最后两天【截止国庆前】

已至底价  ¥ 699.00 


课程名称

SIGAI精品课程《机器学习》(点击小程序试听前三集)


主讲老师

机器学习课程由SIGAI公众号系列文章主笔雷老师亲自操刀研发,他撰写的一系列文章,累计阅读量超过100万次。他擅长用生动、形象的语言把复杂、抽象的算法和逻辑解释清楚。雷老师不仅理论与技术功底扎实,并有丰富的学术与产品研发经验。超过12年的机器学习研究与实践经验沉淀,使得他对各种机器学习算法了如指掌,并能一针见血地总结出各种算法的精华与核心思想。


课程特点

1、内容系统全面,从入门到精通

整个机器学习课程长达31节课,我们会为你全面、系统的讲述:数学、有监督学习无监督学习、强化学习、工程实践问题。


2、在实践中学习

除了课程,我们还设计了7个实践项目,涵盖机器视觉、自然语言处理、数据挖掘等领域,详细为你讲述项目的实现细节与步骤,按照我们的课程,你可以有效的增强自己的实际动手能力与实践经验。另外,你可以选择使用SIGAI云端实验室,里面有丰富的原理实验,在线编程实验,帮助你更好的理解算法,使用算法。


3、疑难问题、随问随答

对于学习中遇到的问题和困难,SIGAI会提供在线答疑服务,对于你所提出的问题,我们都会耐心解答,帮助你有效掌握该课程的核心知识。答疑环节分为【直播答疑】和【在线答疑】。


【在线答疑】主要是为了帮助同学们随时解决课程学习中遇到的问题。【直播答疑】便于大家与授课老师同步交流学习,彻底解决疑难困惑。


4、SIGAI云端实验室

在整个学习过程中除了跟授课老师一起完成各类算法的公式推导以外,还可以结合SIGAI独创的机器学习云端实验室动手实验各类算法,体会算法的精髓,理论结合实践将自己对算法的认知升级到新层次


5、SIGAI Playground 在线编程

全天候、不限时的云计算资源,随时随地轻松写算法、跑模型! 同时,我们还在其中为你准备了学习需要的数据集,源码。尽量帮你提高学习效率,简化繁琐的准备过程。


学习方式

- 授课形式?

为了保障课程质量,提高学习效率, 课程采用录播形式。视频精心录制与剪辑制作,时间比直播更灵活,方便随时观看学习。

 

- 学习《机器学习》,有什么要求吗?

虽然在课程中会讲解机器学习中所用到的数学知识,但没有数学基础的同学,需要先修过3门基础课程: 高等数学、线性代数以及概率论,才能更好地理解课程内容,跟上课程进度。



课程大纲

第 1 集机器学习简介

·       1.1 课程介绍

·       1.2 本集介绍

·       1.3 推荐的参考书

·       1.4 人工智能简介

·       1.5 机器学习简介

·       1.6 为什么需要机器学习

·       1.7 机器学习的发展历史

·       1.8 机器学习的典型应用

·       1.9 业内主要公司介绍

·       1.10 本课程讲授的算法

·       1.11 本集总结

 

第 2 集数学知识-1

·       2.1 本集内容简介

·       2.2 学好机器学习需要哪些数学知识

·       2.3 推荐的参考书

·       2.4 本集所讲的知识点

·       2.5 机器学习算法所用的数学知识

·       2.6 导数

·       2.7 高阶导数

·       2.8 导数与函数的性质

·       2.9 一元函数的泰勒展开

·       2.10 向量

·       2.11 矩阵

·       2.12 行列式

·       2.13 偏导数

·       2.14 高阶偏导数

·       2.15 梯度

·       2.16 雅可比矩阵

·       2.17 Hessian矩阵

·       2.18 极值判别法则

·       2.19 二次型

·       2.20 特征值与特征向量

·       2.21 特征值分解

·       2.22 多元函数的泰勒展开

·       2.23 矩阵和向量求导公式

·       2.24 奇异值分解

·       2.25 为什么需要概率论

·       2.26 随机事件与概率

·       2.27 条件概率与贝叶斯公式

·       2.28 随机事件的独立性

·       2.29 随机变量

·       2.30 数学期望与方差

·       2.31 常用的概率分布

·       2.32 随机向量

·       2.33 随机变量的独立性

·       2.34 协方差

·       2.35 常用的多维概率分布

·       2.36 最大似然估计

·       2.37 本集总结

·        

第 3 集数学知识-2

·       3.1 本集内容简介

·       3.2 最优化中的基本概念

·       3.3 为什么要用迭代法

·       3.4 梯度下降法

·       3.5 牛顿法

·       3.6 坐标下降法

·       3.7 优化算法面临的问题

·       3.8 拉格朗日乘数法

·       3.9 凸优化简介

·       3.10 凸集

·       3.11 凸函数

·       3.12 凸优化的性质

·       3.13 凸优化的一般表述

·       3.14 拉格朗日对偶

·       3.15 KKT条件

·       3.16 本集总结

 

第 4 集基本概念

·       4.1 本集介绍

·       4.2 监督信号

·       4.3 有监督学习

·       4.4 无监督学习

·       4.5 强化学习

·       4.6 分类问题

·       4.7 回归问题

·       4.8 线性回归

·       4.9 判别模型与生成模型

·       4.10 准确率

·       4.11 回归误差

·       4.12 精度与召回率

·       4.13 ROC曲线

·       4.14 混淆矩阵

·       4.15 交叉验证

·       4.16 欠拟合

·       4.17 过拟合

·       4.18 欠拟合与过拟合总结

·       4.19 偏差与方差分解

·       4.20 正则化

·       4.21 岭回归

·       4.22 本集总结

 

第 5 集贝叶斯分类器

·       5.1 本集简介

·       5.2 贝叶斯公式

·       5.3 朴素贝叶斯分类器

·       5.4 正态贝叶斯分类器

·       5.5 实验环节

·       5.6 实际应用

·       5.7 本集总结

 

第 6 集决策树

·       6.1 本集内容介绍

·       6.2 树与二叉树简介

·       6.3 决策树简介

·       6.4 决策树的表示能力

·       6.5 训练算法要解决的核心问题

·       6.6 递归分裂过程

·       6.7 寻找最佳分裂

·       6.8 叶子节点值的设定

·       6.9 属性缺失与替代分裂

·       6.10 过拟合与剪枝

·       6.11 实验环节

·       6.12 实际应用

·       6.13 本集总结

 

 

第 7 集k近邻算法

·       7.1 本集简介

·       7.2 k近邻算法

·       7.3 预测算法

·       7.4 距离函数

·       7.5 距离度量学习

·       7.6 实验环节

·       7.7 实际应用

·       7.8 本集总结

 

第 8 集数据降维1

·       8.1 本集内容简介

·       8.2 为什么需要数据降维

·       8.3 PCA简介

·       8.4 计算投影矩阵

·       8.5 完整的算法流程

·       8.6 实验环节

·       8.7 实际应用

·       8.8 本集总结

 

第 9 集数据降维2

·       9.1 本集内容简介

·       9.2 非线性降维技术简介

·       9.3 流形简介

·       9.4 流形学习简介

·       9.5 局部线性嵌入

·       9.6 拉普拉斯特征映射

·       9.7 局部保持投影

·       9.8 等距映射

·       9.9 实验环节

·       9.10 本集总结

 

 

第 10 集线性判别分析

·       10.1 本集内容简介

·       10.2 LDA的基本思想

·       10.3 寻找最佳投影方向

·       10.4 推广到高维和多类的情况

·       10.5 PCA与LDA的比较

·       10.6 实验环节

·       10.7 实际应用

·       10.8 本集总结

 

第 11 集人工神经网络1

·       11.1 本集内容简介

·       11.2 动物神经系统的基本原理

·       11.3 人工神经网络的基本思想

·       11.4 神经元的原理

·       11.5 sigmiod函数

·       11.6 神经网络的结构

·       11.7 神经网络每一层完成的变换

·       11.8 正向传播算法

·       11.9 神经网络的本质

·       11.10 怎样用于实际问题

 

第 12 集人工神经网络2

·       12.1 本集内容简介

·       12.2 反向传播算法概述

·       12.3 反向传播算法的历史

·       12.4 正向传播算法回顾

·       12.5 优化目标函数

·       12.6 欧氏距离的求导公式

·       12.7 链式法则

·       12.8 基础求导公式

·       12.9 求导的整体思路

·       12.10 权重和偏置的求导公式

·       12.11 输出层的求导

·       12.12 误差项的计算

·       12.13 完整的算法

·       12.14 算法总结

·       12.15 工程实现细节

·       12.16 本集总结

 

 

第 13 集人工神经网络3

·       13.1 本集内容简介

·       13.2 实验环节

·       13.3 理论分析

·       13.4 理论分析-拟合能力

·       13.5 理论分析-与神经系统的关系

·       13.6 实现细节问题

·       13.7 输入与输出值的设定

·       13.8 网络的规模

·       13.9 激活函数

·       13.10 损失函数

·       13.11 参数初始化

·       13.12 正则化

·       13.13 学习率的设定

·       13.14 动量项

·       13.15 挑战与改进措施

·       13.16 梯度消失问题

·       13.17 退化

·       13.18 局部极小值

·       13.19 鞍点问题

·       13.20 损失函数曲面分析

·       13.21 实际应用

·       13.22 实践项目

·       13.23 本集总结

 

第 14 集支持向量机1

·       14.1 本集内容简介

·       14.2 支持向量机简介

·       14.3 线性分类器

·       14.4 分类间隔

·       14.5 线性可分的原问题

·       14.6 线性可分的对偶问题

·       14.7 线性可分的实验

·       14.8 线性不可分的原问题

·       14.9 线性不可分的对偶问题

·       14.10 KKT条件的使用

·       14.11 线性不可分的实验

·       14.12 核函数实验

·       14.13 核映射与核函数

·       14.14 本集总结

 

第 15 集支持向量机2

·       15.1 本集内容简介

·       15.2 对偶问题求解面临的问题

·       15.3 SMO算法简介

·       15.4 求解子问题

·       15.5 子问题是凸优化问题的证明

·       15.6 SMO算法的收敛性

·       15.7 优化变量的选择

·       15.8 完整的算法

·       15.9 实现细节问题

·       15.10 本集总结

 

第 16 集支持向量机3

·       16.1 本集内容简介

·       16.2 多分类问题

·       16.3 libsvm简介

·       16.4 实验环节

·       16.5 实际应用

·       16.6 应用时的细节问题

·       16.7 SVM整体推导思路的总结

 

第 17 集线性模型1

·       17.1 本集内容简介

·       17.2 线性模型

·       17.3 logistic回归的基本思想

·       17.4 预测函数

·       17.5 试验

·       17.6 优化目标函数

·       17.7 凸优化证明

·       17.8 梯度下降法求解

·       17.9 另一种形式的对数似然函数

·       17.10 L2正则化logistic回归

·       17.11 L1正则化logistic回归

·       17.12 liblinear简介

·       17.13 实验

·       17.14 softmax回归

·       17.15 实际应用

·       17.16 本集总结

 

第 18 集线性模型2

·       18.1 本集内容简介

·       18.2 线性支持向量机简介

·       18.3 L2正则化L1-loss原问题

·       18.4 L2正则化L2-loss原问题

·       18.5 L2正则化对偶问题

·       18.6 L1正则化L2-loss原问题

·       18.7 多类线性支持向量机

·       18.8 实验

·       18.9 libsvm和liblinear的比较

·       18.10 实际应用

·       18.11 本集总结

 

第 19 集随机森林

·       19.1 本集内容简介

·       19.2 集成学习简介

·       19.3 Bootstrap抽样

·       19.4 Bagging算法

·       19.5 随机森林的基本原理

·       19.6 训练算法

·       19.7 包外误差

·       19.8 计算变量的重要性

·       19.9 实验

·       19.10 实际应用

·       19.11 本集总结

 

第 20 集AdaBoost算法1

·       20.1 本集内容简介

·       20.2 再论集成学习算法

·       20.3 Boosting算法简介

·       20.4 AdaBoost的预测算法

·       20.5 训练算法

·       20.6 训练算法的解释

·       20.7 算法的总结

·       20.8 与随机森林的比较

·       20.9 训练误差分析

 

第 21 集AdaBoost算法2

·       21.1 本集内容简介

·       21.2 广义加法模型

·       21.3 指数损失函数

·       21.4 AdaBoost训练算法的推导

·       21.5 实现细节问题

·       21.6 弱分类器的选择

·       21.7 弱分类器数量的确定

·       21.8 样本权重削减

 

第 22 集AdaBoost算法3

·       22.1 本集内容简介

·       22.2 实验环节

·       22.3 应用简介

·       22.4 VJ框架简介

·       22.5 滑动窗口技术

·       22.6 分类器级联

·       22.7 Haar特征

·       22.8 积分图

·       22.9 训练算法的原理

·       22.10 训练自己的模型

·       22.11 VJ框架的改进

·       22.12 总结

 

第 23 集高斯混合模型与EM算法

·       23.1 本集内容简介

·       23.2 高斯混合模型简介

·       23.3 实际例子

·       23.4 训练算法面临的问题

·       23.5 EM算法

·       23.6 实现细节与面临的问题

·       23.7 应用-视频背景建模

·       23.8 总结

 

第 24 集聚类算法1

·       24.1 本集内容简介

·       24.2 聚类问题简介

·       24.3 聚类算法的分类

·       24.4 层次聚类的流程

·       24.5 层次聚类的实例

·       24.6 簇之间距离的定义

·       24.7 k均值算法的基本思想

·       24.8 k均值算法的流程

·       24.9 实现细节问题与改进方案

·       24.10 实验

·       24.11 EM算法简介

·       24.12 Jensen不等式

·       24.13 EM算法的推导

·       24.14 EM算法的流程

·       24.15 EM算法的收敛性证明

·       24.16 EM算法的直观解释

 

第 25 集聚类算法2

·       25.1 本集内容简介

·       25.2 基于密度 的算法简介

·       25.3 DBSCAN算法简介

·       25.4 基本概念

·       25.5 算法的核心 思想

·       25.6 算法的流程

·       25.7 实现细节问题

·       25.8 实验

·       25.9 算法的优点与缺点

·       25.10 OPTICS算法简介

·       25.11 基本概念

·       25.12 算法的流程

·       25.13 根据排序结果得到聚类结果

·       25.14 实验

·       25.15 Mean Shift算法简介

·       25.16 算法的流程

·       25.17 谱聚类算法简介

·       25.18 图切割问题

·       25.19 优化目标函数

·       25.20 算法的流程

·       25.21 聚类算法评价指标

·       25.22 实际应用

·       25.23 聚类算法总结

 

第 26 集隐马尔可夫模型

·       26.1 本集内容简介

·       26.2 概率图模型简介

·       26.3 马尔可夫过程

·       26.4 实际例子

·       26.5 计算状态序列的概率

·       26.6 训练算法

·       26.7 隐马尔可夫模型

·       26.8 实际例子

·       26.9 隐马尔可夫模型的核心问题

·       26.10 估值问题

·       26.11 解码问题

·       26.12 训练算法

·       26.13 实际应用

·       26.14 本集总结

 

第 27 集强化学习1

·       27.1 本集内容简介

·       27.2 强化学习简介

·       27.3 实际例子

·       27.4 问题定义

·       27.5 马尔可夫决策过程

·       27.6 实际例子

·       27.7 策略函数

·       27.8 累计回报

·       27.9 状态价值函数

·       27.10 动作价值函数

·       27.11 最优策略

 

第 28 集强化学习2

·       28.1 本集内容简介

·       28.2 状态价值函数和动作价值函数回顾

·       28.3 最优策略

·       28.4 贝尔曼最优性方程

·       28.5 策略迭代算法简介

·       28.6 策略评估

·       28.7 策略改进

·       28.8 策略迭代算法的流程

·       28.9 价值迭代算法

·       28.10 无模型算法简介

·       28.11 无模型算法的思路

·       28.12 蒙特卡洛算法简介

·       28.13 蒙特卡洛状态价值函数估计

·       28.14 蒙特卡洛动作价值函数估计

·       28.15 蒙特卡洛控制

·       28.16 时序差分算法简介

·       28.17 SARSA算法

·       28.18 Q学习算法

·       28.19 强化学习总结

 

第 29 集工程实践问题

·       29.1 本集内容简介

·       29.2 训练样本的重要性

·       29.3 样本的收集与标注

·       29.4 噪声与错误样本的清理

·       29.5 类别不均衡的处理

·       29.6 特征工程简介

·       29.7 特征的设计

·       29.8 特征选择

·       29.9 数据归一化

·       29.10 模型的选择

·       29.11 过拟合问题

·       29.12 速度优化

·       29.13 安全性问题

·       29.14 对抗样本问题

·       29.15 本集总结

 

第 30 集实践项目

·       项目1-用全连接神经网络进行手写字符分类

·       项目2-训练AdaBoost目标检测模型

·       项目3-训练HOG+线性SVM目标检测模型

 

第 31 集各种算法总结



报名方式

1、点击小程序“SIGAI精品课机器学习”,选中你想要学习的课程,即可报名

(苹果手机只能观看无法购买,请移步第二种方法哦)

2. 登录www.sigai.cn网站,进入《机器学习》详情页即可报名

报名成功后,一定一定扫码加助教,开启在线答疑服务。

 

有更多问题,也欢迎call小编!








今天看啥 - 高品质阅读平台
本文地址:http://www.jintiankansha.me/t/2XPSqtOvjK
Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/24546
 
488 次点击