作者 | 尘恋
来源 | 大数据(ID:hzdashuju)
【导读】作者用超过1.2万字的篇幅,总结了自己学习机器学习过程中遇到知识点。“入门后,才知道机器学习的魅力与可怕。”希望正在阅读本文的你,也能在机器学习上学有所成。
初始化:设置所有的权重wij为小的随机数(正或负都可)。
训练:对T次循环,对每一个输入向量利用激活函数g计算每一个神经元j的激活状态:
再现:利用下式计算每一个神经元j的激活状态
特征选择法:仔细查找可见的并可以利用的特征而无论他们是否有用,把它与输出变量关联起来
特征推导法:通过应用数据迁移,即通过可以用矩阵来描述的平移和旋转来改变图标的坐标系,从而用旧的特征推导出新的特征,因为他允许联合特征,并且坚定哪一个是有用的,哪一个没用
聚类法:把相似的数据点放一起,看能不能有更少的特征
写成N个点Xi=(X1i,X2i,... xXi)作为行向量。把这些向量写成一个矩阵X(X将是N*M阶矩阵)。通过减去每列的平均值来把数据中心化,并令变化好的矩阵为B。计算协方差阵C= 1/N *B^TB。计算C的特征向量和特征值,即V^-1CV=D,其中V由C的特征向量组成,D是由特征值组成的M*M阶对角矩阵。把D对角线上元素按降序排列,并对V的列向量做同样的排列。去掉那些小于η的特征值,剩下L维的数据。
选择核并且把它应用于距离矩阵从而得到矩阵K。计算K的特征值和特征向量。通过特征值的平方根标准化特征向量。保留与最大特征值对应的特征向量。
计算由每对点平方相似度组成的矩阵D, Dij=|xi-xj|.计算J=IN – 1/N (IN是N*N单位矩阵,N是数据点个数)。计算B=-1/2JDJ^T. 找到B的L个最大的特征值入i,,以及相对应的特征向量ei。用特征值组成对角矩阵V并且用特征向量组成矩阵P的列向量。计算嵌入x=pv^0.5
创建所有点对之间的距离确定每个点的邻近点,并做成一个权重表G通过找最短路径估计测地距离dG把经典MDS算法用于一系列dG
初始化
迭代直到收敛:
初始化:
训练:
采用线性搜索,知道方向,那么久沿着他一直走,直到最小值,这仅是直线的搜索;
信赖域,通过二次型建立函数的局部模型并且找到这个局部模型的最小值。由于我们不知道防线,因此可以采用贪婪选择法并且在每个点都沿着下降最快的方向走,这就是所知的最速下降,它意味着pk=-▽f(xk)。最速下降基于函数中的泰勒展开,这是一种根据导数近似函数值的方法。
给定一个初始点X0当J^Tr(x)>公差并且没有超出最大迭代次数:重复:用线性最小二乘法算出(J^TJ+vI)dx=一J^Tr中的dx。令Xnew=x+dx。计算实际减少和预测减少的比例:实际=||f(x)- f(xnew)||预测=▽f^T(x)*xnew-xp=实际/预测如果0接受:x=Xnew。或者如果p>0.25:接受: x=Xnew。增加信赖城大小(减少v)。或者:拒绝。减少信赖域大小(增加v)。一直到x被更新或超出跌代的最大次数
给一个初始点x0和停止参数ε,令p0=-▽f(x)。设置Pnew=P0当Pnew>εεp0时:用牛顿-拉夫森迭代法计算αkP当ααdp>ε2时:α=-(▽f(x)^T p)(p^T H(x)p)x=x+αPdp=P^TP评价▽f(xnew)。计算βn+1-更新p←▽f(xnew)+βk+1p。检查及重新启动。
初始化进过我们选的字母表产生N个长为L的字符事。学习生成一个(开始是空的)新的种群。重复: 通过适应度在当前种群中选择两个字符串。 重组它们产生两个新的字符串。 让后代变异。 要么把两个后代加到种群中,要么使用精英法和比赛法 保持记录种群中最好的字符串。直到新种群中产生N个字符串可选性地,使用精英法从父代中挑选最合适的字符串,并替换子代中的一些其他字符串。追踪新种群中最好的字符串。用新种群代替当前种群直到到达停止标准。
07 强化学习
初始化对于所有的s和a, 设置Q(s, a)为一个很小的随机數。重复:初始化s。用目前的策略选择动作a。重复: 使用ε-greedy或者其他策略来选择动作a。 采取动作a并得到奖赏r。 采样新的状态s’ 更新Q(s, a)←Q(s, a)+u(r+γmaxa’ (s', a')-Q(s, a)) 设置s←s'应用到当前情节的每一步。直到没有更多的情节。
初始化对于所有的s和a,设置Q(s, a)为一个很小的随机数。重复:初始化s。用当前策略选择动作重复: 实行动作a并得到奖赏r 采样新的状态s' 用当前策略选择动作a 更新Q(s, a) s应用到当前情节的每一步直到没有更多的情节。
如果所有的样本都具有同一标记:返回标记为该类标记的叶子节点。否则,如果没有剩余特征用于测试:返回标记为最常见标记的叶子节点,否则:使用公式选择S中具有最大信息增益的特征户作为下一个节点。为每一个特征户的可能取值f增加一个分支。对于每个分支:计算除去F后的每一个特征的Sf,使用Sf递归调用算法,计算目前样本集合的信息增益。
对于每N个树:创建一个训练集的bootstrap样本。使用这个bootstrap样本训练决策树。 在决策树的每一个节点,随机选择m个特征,然后只在这些特征集合中计算信息增益(或者基尼不纯度),选择最优的一个。重复过程直到决策树完成。
学习
使用
初始化选择一个值k,它与输出节点的数目有关。用小的随机值来初始化权重。学习归一化数据以便所有的点都在单位球上。重复: 对每一个数据点: 计算所有节点的激活。 选出激活最高的那个节点作为胜利者。 用公式更新权重。直到迭代的次数超过阈值。使用对于每个测试点: 计算所有节点的激活 选择激活最高的节点作为胜利者。
◆
精彩推荐
社群福利
扫码添加小助手,回复:大会,加入2019 AI开发者大会福利群,每周一、三、五 更新学习资源、技术福利,还有抽奖活动~
推荐阅读