同时,也有一部分人显然对这种科学发展方向不太满意。
例如,批评者指出,神经网络可能会产生虚假的相关性,尤其是在训练数据集很小的情况下。
而且所有数据集都是有偏见的,毕竟科学家们收集数据的方式不是均匀或中立的,而是始终考虑某些假设,这些假设对谷歌和亚马逊的人工智能造成了破坏性影响。
正如科学哲学家Sabina Leonelli解释的那样:“我们使用的数据环境非常扭曲。”
虽然这些问题确实存在,但计算神经科学家Dayan并不认为它们是不可克服的。
他指出,人类也有偏见,而且与人工智能不同,人类是以非常难以审视或纠正的方式。
AI新科学面临的一个更大的障碍,可能是人类需要解释这个世界——用因果关系来讨论。
2019年,西雅图华盛顿大学的神经科学家Bingni Brunton和Michael Beyeler写道:“这种对可解释性的需求,可能阻碍了科学家们对大脑产生新的见解,这种见解只能从大型数据集中出现。”
但他们对此也表示同情。他们说:“如果要将这些见解转化为药物和设备等有用的东西,计算模型必须产生对临床医生、最终用户和行业可解释和信任的洞察力。”
解决如何弥合可解释性差距的——可解释人工智能,已成为热门话题。但这种差距只会越来越大,我们可能会面临权衡取舍:愿意为可解释性放弃多少可预测性?
对AI驱动的科学,还有最后一个反对意见是,人们对旧理论方法仍有待发现,其中可能存在有用的地方(即从离散示例中提取的概括),而且只有人类才能做到这一点,因为它需要直觉。
换句话说,它需要一种对一般规则相关的示例属性,进行本能的归纳总结。
牛顿厉害的一点,他为了提出牛顿第二定律,必须忽略一些数据。例如,他必须想象,事物在真空中下落,不受空气阻力的干扰。
上个月Nature发了一篇文章,德国数学家Christian Stump在文中表示,人类这种直觉行为是“发明/发现过程的核心”。但他写这篇文章的原因是,DeepMind建立了一个机器学习程序,该程序帮助人类数学家从以往的数学中获得新的见解与概括。
因此,可以预见的是,2022年,AI会在各种科学过程中留下足迹。
我们越将它纳入人类对知识的追求,它就越会改变这种追求。
我们必须学会忍受这一点,并向自己保证这样一件事:人类仍然在问问题,正如Pablo Picasso在1960年代所说,“计算机是无用的。他们只能给人类答案。”