上方“IEEE电气电子工程师学会”即可订阅公众号。网罗全球科技前沿动态,为科研创业打开脑洞。
Illustration: Dan Page
在Tiny ML峰会上,研究人员将讨论隐私实践、能源消耗和新的应用程序。
2019年2月,来自谷歌、微软、高通、三星和六所大学的一组研究人员齐聚加州圣何塞,讨论将机器学习带到网络最远端的挑战,尤其是运行在传感器或其他电池驱动设备上的微处理器中。
这就是盛大的“Tiny ML Summit(微型机器学习峰会)”,ML即机器学习(machine learning),其目标是找出如何在最小的微处理器上运行机器学习算法。边缘的机器学习将推动更好的隐私实践,降低能耗,并在未来几代设备中构建新的应用。
神经网络的训练是机器学习的核心,这种训练需要大量的数据。最终会把它训练成一个无论是下围棋还是响应语音指令的任务模型。
许多公司目前正致力于为机器学习构建专门的硅材料,以便在数据中心内训练网络。他们还希望在边缘使用硅来对机器学习模型进行推理运行数据,以查看数据是否与模型的结果相匹配。但是微型ML社区的目标是推断出最小的处理器,比如一个为遥感器供电的8位微控制器。
要清楚的是,如果我们谈论的是智能手机之类的东西,那么在将推论推向边缘方面已经取得了很多进展。2019年11月,谷歌开源了两个版本的机器学习算法,其中一个版本的运行功耗降低了50%,另一个版本的运行速度是之前版本算法的两倍。还有几家初创公司,如Flex-Logix、Greenwaves和Syntiant,利用专用硅来应对类似的挑战。
但是小型的ML社区有不同的目标。想象一下,在助听器上加入一个机器学习模型,可以将谈话与背景噪音分离开来。如果您无法将该模型安装到设备本身上,则需要保持与运行该模型的云的无线连接。如果你能装上助听器,直接在助听器上运行模型会更有效,更安全。
Tiny ML的研究人员也在尝试通过在电池供电的边缘设备上使用ML进行更好的数据分类。Latent AI公司首席执行官Jags Kandasamy说,他的公司正在与制造增强现实和虚拟现实耳机相关公司进行谈判。Latent AI正在开发用于微型处理器的神经网络压缩软件。这些公司希望利用他们的耳机收集的大量图像数据,对设备上看到的图像进行分类,这样他们就可以将有用的数据发送到云上,供以后培训使用。例如,“如果你已经看过10辆丰田花冠,它们是否都需要转移到云端?”Kandasamy问。
由于机器学习通常需要大量的电力,而将设备上的数据进行分类可以减少收集到云中的数据量,从而节省带宽和电力。
在机器学习方面,有很多人觉得“越大越好”,但我对将机器学习应用到边缘的潜力感到兴奋。虽然Tiny ML仍然专注于推理挑战,也许有一天我们甚至可以考虑在边缘训练网络本身。