用“小AI”解决人工智能的“大”烦恼

随着人工智能的不断发展,其背后的计算能力消耗也是惊人的。统计显示,谷歌开发的伯特预训练语言模型有3.4亿个数据参数,一次训练所需的电力足够一个美国家庭使用50天。

人工智能承载着人类未来的伟大梦想、巨大可能性和巨大挑战,多年来取得了巨大进步。与之互补的是日益“庞大”的人工智能体系结构系统,例如数十亿个计算单元和巨大的云计算数据中心……人工智能越来越“庞大”是现实还是未来?

最近,麻省理工学院科技评论发布了年度十大突破性技术排名,其中就有小小人工智能。从大到小,人工智能正在回归基础吗?

不可持续的“大”人工智能

我们都知道,随着研究人员继续向算法“输入”大量数据,机器学习变得越来越智能,但它们是否也变得更加环保?答案是否定的。

不可否认,人工智能在过去几年里取得了许多突破。深度学习是许多人工智能系统实现高精度的突破之一。研究人员发现,尽管人工智能每天都变得越来越精确,但它也带来了隐藏的环境成本。

“目前,人工智能将大量数据集输入到云数据中心,然后用无穷无尽的算法进行分析。”威海北洋电气集团有限公司副总工程师秦志良表示,通过复杂的算法结构和精湛的训练方法将数据上传到云中心并获得高精度算法模型的过程,不仅会产生惊人的碳排放,还会限制算法模型的运行和部署速度,带来诸多隐私问题。

麻省大学阿姆赫斯特分校的研究人员得出的一项研究结论支持了秦志良的说法。通过揭示算法训练的能量强度,他们发现训练一个算法所产生的二氧化碳排放量相当于普通汽车一生中二氧化碳排放量的五倍,或者相当于纽约和旧金山之间往返约300次。研究人员认为,在寻求人工智能高精度的过程中,人们似乎已经失去了对能源效率的关注。

事实上,“大”人工智能不适合离线和实时决策,如自动驾驶解决方案,并且越来越依赖于巨大的能量和巨大的带宽。这种模式在经济上和生态上都是不可持续的。

此外,研究人员更担心的是,这一趋势可能会加速人工智能研究集中到少数科技巨头手中。在学术界或资源较少的国家,资源不足的实验室根本无法使用或开发计算成本较高的模型。

去集中化还是未来趋势

尽管人工智能已经融入了公共生活,但它的最终成功取决于“登陆”和实现大规模商业。这应该是推动微人工智能发展的直接原因。

“为了实现人类人工智能的伟大梦想,我们必须从一个小地方考虑,甚至非常小。云数据主导的趋势正在改变,未来的人工智能环境将会分散。”海南普及型智能科技有限公司首席执行官陈小香表示。

海南众志信信息技术有限公司总经理俞建刚表示:“这是一条与电脑发展相反的道路,电脑的发展经历了从个人终端到互联网和虚拟化的过程。微观人工智能首先是互联网、虚拟化,然后是终端。”

以伯特为例。伯特是由谷歌高级研发科学家雅各布·德夫林和他的团队开发的一种预训练语言模型。它能理解单词和上下文,并能为写作或独立完成句子提供建议。根据麻省理工学院评论的一份报告,伯特有3.4亿个数据参数。此外,一次培训所需的电力足够一个美国家庭使用50天。

华为研究人员发表了一篇文章,称他们已经制造出了比伯特小7.5倍、快近10倍的微型伯特模型。谷歌的研究人员也发表了一篇文章,称他们创造了一个比伯特版本小60倍的版本,但他们的语言理解能力略逊于华为版本。

华为和谷歌是如何做到的?事实上,两家公司都使用一种称为“知识提取”的通用压缩技术的变体,这种技术允许大型人工智能模型按比例缩小,以在图像中训练小得多的模型,类似于教师训练学生。

我们可以理解,微观人工智能应该是人工智能研究界为缩小算法规模而做出的努力。这不仅减小了模型的大小,还加快了推理速度,并保持了高水平的准确性。此外,可以在边缘部署更小的算法,而不是将数据发送到云,可以在设备上做出决策。

三个方面缩小现有模型

微数据、微硬件、新材料、微算法、微人工智能是一种综合方法,涉及数据、硬件和算法的联合开发。

秦志良认为,如何在不显著影响模型准确性的情况下减少现有的深度学习模型,可以从三个方面入手。一是硬件上的边缘计算,二是算法上的模型简化,三是数据上的小样本训练。

无论是新技术还是新概念,公众的注意力还是它在市场上的受欢迎程度,尤其是产品的大规模生产和应用。

“微型人工智能的具体着陆场景包括语音助手、数码化妆等。它涉及实时场景理解、边缘目标检测等技术。此外,微型人工智能还将使新的应用成为可能,如基于移动终端的医学图像分析,或需要更快响应时间的自动驾驶模型的开发。”秦之良说道。

“目前,微算法通常在几百兆到几克的范围内,可以完全安装在手机上。”于建刚说,微人工智能可以应用于所有需要前端控制的应用。尽管5G加速了覆盖范围,减少了网络延迟,但工业控制、自动驾驶和航空航天等需要快速响应的应用需要人工智能算法的本地部署。他认为未来的商业形式应该是来自终端的简单快速的反馈和来自服务器的重大决策。

在2019年底的琥珀大会上,一些人工智能初创企业推出了“微型人工智能”。公司将低功耗、小体积的NPU与单片机集成,适应市场上各种主流的2D/3D传感器,满足2D/3D图像、语音等人工智能解决方案的识别要求,引起了业界的关注。此外,英伟达(NVIDIA)和华为(Huawei)等公司也相继推出了体积小、功耗低、能够满足简单算法的终端图形处理器。

期待技术早期宽松的开发环境

微人工智能仍处于发展的早期阶段,该领域的安全、伦理、隐私等问题也引起了人们的关注。

秦志良担心两个问题。首先,算法歧视可能会激增。他说,算法识别难以解决的原因在于算法的可解释性和训练数据之间的不平衡。与传统的云训练相比,微人工智能的训练数据集样本较少,数据分布可能更偏向。另一个隐患是数据伪造的影响。以gan(通用对抗网络)和深度伪造技术为代表的视频和图像技术一直是人工智能算法研究的重点。随着这些技术的普及,未来的客户很可能会收到或生成大量的虚拟伪造数据。微型人工智能受到计算能力的限制。在分布式网络架构中,如何有效地识别这些伪造的数据很可能是一个隐患。

于建刚认为,微型人工智能将导致分布式人工智能的兴起。每个终端都将成为一个人工智能节点,每个终端都可以独立生存,类似的区块链应用程序也会出现。网络侧的控制将减少,政府控制的风险将增加。然而,技术有两个方面。于建刚分析说,虽然存在这些风险,但人工智能控制技术也在发展。我们应该相信微观人工智能的积极作用,不应该在技术的早期阶段限制太多的规则。(王)

标题:用“小AI”解决人工智能的“大”烦恼

如若转载,请注明出处:http://www.ikepu.com/wenzhang/42893.html