社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  机器学习算法

向机器学习,优化你的学习方法

开智学堂 • 6 年前 • 810 次点击  


  我们常说「教学相长」,教是输出,学是输入。如何区分输入和输出?如何更好地输入和输出?开智校友 Chris Huang,从事 AI 相关工作,从机器学习中受到启发,厘清教与学,输入和输出之间的关系,请看他的分享:从机器学习说起,如何优化你的学习方法。


作者丨Chris Huang

原创文章,转载授权请联系一休

开智学堂(http://www.OpenMindClub.com)

引子

阳志平老师曾提出「学习六思」,第四条是:

输出大于输入:即使在头脑中想象教别人,也能提高学习效率;从学到教,意味着从被动到主动,从依赖到独立。

读罢后,我没有就简单的理解一闪而过,而是产生了一连串的疑问:

1. 输入和输出到底是什么?

2. 在学习过程中有哪些输入和输出?

3. 如何区分输入和输出?

4. 什么是更好的输入和输出?

5. 为什么输出大于输入?

大多数人理解的输出,是所谓的写,输入的过程,就是简简单单地阅读,即:「输入=阅读,输出=记录」,真是这样吗?

「机器学习」的启迪

一般抽象的信息处理过程,可以总结为「输入 - 处理 - 输出」,但对于「机器学习」来说,其中处理有一个核心的概念,叫「模型」,对「机器学习」来说,过程就是「输入 - 模型 - 输出」。

「机器学习」的输入包括数据的输入,「机器学习」的「模型」指的是信息处理的数学模型。把数据输入给机器,在计算机进行「机器学习」完之后,它自己会获得到一些新的信息和知识——这些结构的知识,比如对信息分类,类似于人类的经验,会自己形成一个模型,这就是所谓「无监督学习」。

比如在双 11 在购物网站用户发生了一系列的行为,传统数据挖掘是需要事先定义后各种行为关系和分类的,但在「机器学习」中,它可以更加智能化对用户行为数据进行自动分类,从而自己生成一个分类,这就是所谓「聚类」。然后我们就可以拿这个模型去做一些预测。上面就是「机器学习」这一分支的大概过程。

我们的人脑学习的过程也是一样的,也有输入和输出,中间是归纳总结出一个规律的过程。比如我们的视觉和听觉都是我们大脑输入的一部分,当我们接收到这些信息之后,大脑它自己会去做一个深度的思考,或者说做一些知识的连接,通过归纳或者演绎等方法,得到一些规律,然后我们用这个规律来预测指导我们未来的行为或者决策,这就是我们学习的一个过程。下面是一张对比图:

对比机器学习和人脑学习,都有输入和输出,中间有一个环节,如果是机器学习则是模型,如果是人脑则是规律,也可以理解为模型,接下来讨论这三部分:

第一部分是输入,「机器学习」过程中数据的真实性、丰富性,以及数据量是对这个模型来讲,都非常依赖于输入,如果输入的数据足够丰富、足够的真实、没有噪音,那么训练出来的模型,误差会比较小;大脑学习同样依赖输入,丰富真实的数据至关重要,这就要给大脑减少垃圾信息和数据的获取,比如大多数网站或者公众号的碎片知识,因为它会对真实的信息产生干扰,这就是为什么需要获取源头知识、多学科知识,基于原始信息学习到的模型价值更高。

第二部分就是模型本身,机器学习应用中,会尝试使用不同的模型来拟合数据,或者做优化,或者创造模型。大脑学习也一样,尝试不同的方法或者借用更好的经验来总结规律,好的规律和模型能解释更多的现象,解决更多的问题,就像阳志平老师经常会提到芒格的薪资核算模型,就是很好的模型。当然,模型本身也需要不断演化。

第三部分模型能不能预测,或者说预测准确度如何,得到模型之后,就要验证模型到底好不;人类学习一样,通过验证和运用知识来检验学习的效果。

上面三点是「机器学习」和人脑「输入 - 模型 - 输出」的对比,也是知识的迁移,算是把机器学习和人脑学习两个知识打通了。

总结如下:

输入——输入真实丰富的数据、减少垃圾碎片信息多学科「源头知识」、更多的「反常识数据」

模型——不断训练产生更优化的模型。「高阶模型」-如芒格的心智栅格模型,不断演化和创建新模型

输出——通过模型验证新数据。通过预测验证,在生活和工作中测试模型,尤其是压力测试

人脑的记忆模型

人脑的「工作记忆」模型。

「工作记忆」模型细化之后就是下面这张图:

可以看到,人类有三种记忆类型。第一种「感知记忆」,其中的感知器就是我们的眼睛、耳朵、触觉等感官接口,我们从中能获得外界刺激的各种信息。第二种「工作记忆」,大脑基于「感知记忆」,将信息加载到「工作记忆」中来。「工作记忆」和「感知记忆」的时间非常短,而并且容量是极其有限。第三种记忆就是「长期记忆」。所谓长期性就是针对已有知识的记忆,其记忆容量非常非常大的,几乎就是无限的水平,这要看你能挖掘多少了。「长期记忆」根据来源也分两种,一种是来自于无意识接收至「感知记忆」中所获得的「情景记忆」(episodic),另一部分就是在「工作记忆」加工处理过的「语义记忆」(semantic),以上就是记忆的三种类型。

「长期记忆」这一部分有两个核心的概念,是加州洛杉矶分校的一对夫妻教授(Robert Bjork和Elizabeth Bjork)提出来的一个记忆模型——即通常心理学所说的「必要难度理论」(Desirable Difficulty),认为在记忆过程中有两种强度,一种是「存储强度」,一种是「提取强度」。并且二者在记忆过程中具有以下特点:

1.「存储强度」和记忆的「提取强度」是负相关的,可以理解为输入越快,提取越慢。

2.「存储强度」是只增不减,如果我们在不同时间、空间反复学习同一个知识,存储强度会得到加强。

我们常常有这样的感觉经验,即虽然我们好像记得了很多东西,但最后还是忘了,这其实就是因为「提取强度」的不够。

那么如何提高「存储强度」和「提取强度」呢?可以尝试阳志平老师之前提出的方法:6 个小时以后再记笔记。6 个小时后回忆,记住的反而那些比较重要的东西,重新复习这些内容,就相当于做了一次提取的同时,又做了一次存储,因此我们「长期记忆」过程就会大大加强。如果之前没有练习过,刚开始做会比较困难,可能要绞尽脑汁才能想起一点点东西,但慢慢习惯之后就好了。上面介绍的就是「必要难度理论」

从记忆模型中得到以下两个结论:

第一,学习知识,重点在于「长期记忆」,也就是最终积累了多少知识。从记忆过程和原理来看,我们在输入端应该少花一些时间,在输出端应该是多花一些时间,因为输出的时候我们也是在提取,而提取不仅会增强我们的「提取强度」,也会加强我们的存储强度。我们越是反复提取已有的知识,以后会更容易提取这些知识。

第二,从另外一个角度可以得出,「输出」大于「输入」。在输入端花的时间应少些,在输出端(提取或生成)上花的时间应多些,因为后者包含了有效学习所必需的“必要难度”,这也从时间上得出了输出的时间应该大于输入的时间,所以输出大于输入有多层含义,也包括提取的次数大于输入的次数。

教是更好地学

从前面讲的理论可以看出,教依赖于被教的对象,写作只依赖自己,这就是为什么写是我们最常用的输出方式,但输出的质量依然取决于提取强度,在教的过程中好的问题会加强提取强度。

这样我们最终走向了「教是更好地学」整个结论。现在有没有什么方法上的例证呢?当然有的,比如「费曼技巧」。

费曼技巧第二条:设想一种场景,你正要向别人传授在白纸上写下你对某个概念的解释, 就好像你正在教导一位新接触这个概念的学生一样。当你这样做的时候, 你会更清楚地意识到关于这个概念你理解了多少, 以及是否还存在理解不清的地方。

费曼技巧是假设一种场景模拟自己在对另外一个人讲。但如果我们身边是有真实的人,这样效果将是最好的。因为作为一种真实的场景,不同于我们凭空想象的那个场景,知识在大脑处理的过程也和相信是不一样的,真实场景中会有「感知记忆」中参与进来。但是我们大多数情况下身边都没有另外一个人,那么就假设有另外一个自己,两个人好像在对话一样,通过自己给自己提问的方式做练习。

无论是回忆还是写笔记,变换时空,在不同情景下提取,加强记忆「提取强度」。比如前面提到 6 小时后记笔记是时间上的「必要难度」,还可以通过更换地点造成地点上的「必要难度」。

前面原理中我们也看到了,其中不同场景下「感知记忆」感知不同的内容会参与进来,因此记忆的内容会重新编码存储到我们的记忆系统中去。就好比,如果你特别伤心或者特别高兴,在特别情绪化的时候,有一些特定内容是更容易记住的。

比如著名的学习大神 Scott Young ,他提到一个细节,在学习一个东西的时候,能否向一个 10 岁的小孩,用比喻的方式解释清楚?用比喻的方式其实就是切换了知识所处的背景(环境)。

古罗马著名斯多亚学派哲学家塞内加(Seneca)曾说过:

While we teach, we learn

而中国古话也说「教学相长」,可见古人也是认识到教对于学的重要性。不过我们今天能从「机器学习」、「工作记忆模型」和「必要难度理论」中得出更确切的结论,也显然比古人更进了一步,让我们可以挖掘更多方法和技巧去实践这种学习方法。■

图片来源:作者绘制。

原创文章,转载授权请联系一休

投稿&合作邮箱:we@openmindclub.com

  点击报名,参与开智互联网精英分享会

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/32714
 
810 次点击