(相关资料图)

如今的AIoT江湖,群雄竞逐,风云正起。

3月,宇视科技发布2021年度报告时以“智能物联”代替之前着重发力的“安防”;4月,海康威视(002415)第一次在年报里修改有关未来业务的表述,明确现在的业务领域为“智能物联AIoT”;同月,大华股份(002236)紧随其后强调“智能物联”成为新的业务核心。

这些IoT物联网巨头向着AIoT的战略大调整,是IoT与AI融合的趋势照进现实最明显的体现。

回头看,转变与关注不止发生在IoT物联网巨头间,AI势力早已身入AIoT江湖。“脱实向虚”的IoT物联网边界不断扩张,“脱虚向实”的AI技术不断发展,两者交汇于“AIoT”,看起来是科技创新领域发展迎来的绝佳机遇。

7月15日,旷视科技在北京举办的2022旷视技术开放日(MegTech 2022)上表示,将继续锚定AIoT战略,坚定构建由以“基础算法科研”、“规模算法量产”为两大核心的AI技术体系和以“计算摄影学”为核心的“算法定义硬件”IoT技术体系(包括AI传感器和AI机器人)组成的“2+1”的核心技术科研体系。

jwview

正当时:战略瞄准AIoT

2016年,人们见证了AlphaGo打败世界冠军棋手李世石,“机器人究竟可以在什么程度上取代人”这类的问题引发了全球范围内的研讨。这背后,是普通大众开始对走向台前的AI产生的强烈好奇和关注。

四年后,相同的一批人又共同迎来了一个新的历史时刻:全球物联网的连接数首次超过非物联网的连接数。这意味着,“物超人”的时代正式来临。

此时再往回看,人们意识到,伴随着世界范围内深度学习的兴起和算法能力的突飞猛进,以计算机视觉为核心的中国人工智能产业也在国内互联网发展的三波浪潮下取得了飞跃式的发展。

在第一波浪潮中,互联网的基础设施被构建完成,人们可以通过PC及移动端连接入网;之后,人们在爆发式出现的互联网应用里更加自如地享受互联网的便捷服务,此时社交平台、电商集中发展;如今,我们正处于第三波互联网浪潮中,AIoT智能物联网时代已经开启。

激荡的时代浪潮造就伟大的人和先进的技术,人类社会的这一历史发展规律同样完全适用于现在这个时代。这表现在,早有一批人和企业站在时代风口,开始了关于AIoT的探索之路。

这其中就包括了已经成立了11年的旷视,其始终深耕AI主航道,AIoT也一直是旷视发展最核心的主旋律。

关于“AIoT”,旷视在实践中对其形成了一套创新定义,即“AIoT=AI+IoT+空间”。其中,AI是不断演进的算法能力,如今越来越多的算法正在各行各业发挥核心的价值;IoT是软硬结合的设备载体,通过特定的载体,AI才能真正在能够规模化落地的场景里面最大限度地释放价值。基于此,旷视认为,AI和IoT相辅相成,核心相关。

在对AIoT的理解上,旷视还创新性地加了一层“空间”,理解成应用场景的闭环。旷视认为,互联网、5G、AR、VR等技术的不断演进似乎只使虚拟世界产生了翻天覆地的变化,并没有在根本上作用于物理世界的改造。因此,“Make the Physical World Better”才应该是AIoT从业者未来努力追求的方向。

如果说选定AIoT赛道是占得了行业先机,那么如何能以核心竞争力守住领先优势,才是旷视未来很长一段时间内真正面临的考验。

为此,旷视特别构建了“2+1”的科研战略体系,即以“基础算法科研”和“规模算法量产”为两大核心的AI技术体系,和以“计算摄影学”为核心的“算法定义硬件”IoT技术体系(包括AI传感器和AI机器人)。

旷视联合创始人、CEO印奇坚定认为,“2+1”的AIoT核心技术科研体系,是支撑旷视未来不断走向AIoT商业化成功的重要基石。

▲旷视联合创始人、CEO印奇介绍旷视的AIoT科研体系

jwview

造价值:算法量产与AIS平台

实现算法的全场景植入,可以被理解成是AIoT最具标志性的成果。从这个意义出发,算法量产、落地实用便是算法价值的最终检验标准。

当在很多应用场景和环境中,一个具体需求的落地需要将几个算法串在一起构建一整个算法的流程才能实现,旷视的算法生产也经历了从点到线再到面的演进过程。

旷视研究院算法量产负责人周而进在开放日上总结旷视过去十多年在算法生产和应用落地过程中的实践经验指出,算法生产的主要困难集中在整个生产环节的复杂性。具体来说,主要体现在数据生产的复杂性、整个算法模型在生产过程中的不确定性,以及硬件平台的多样性。

比如,从生产场景中获得的各式各样的原始数据本身并不干净,会夹杂各种不一样的数据噪声,那么该如何在生产环节就剔除这些内容?模型作为“AI的大脑”,如何在数不胜数的模型中选择最合适的,如何使它适应各式各样的硬件平台载体上面,进一步地,又有哪些手段可以用于迭代、调优、提升模型?还有面对针对不一样的硬件平台需要设计不一样的算法逻辑的问题,AI生产人员如何才能写出高效的代码?

面对不同应用场景落地中遇到的种种复杂的挑战,旷视在2022技术开放日上正式推出了自研的算法生产平台AIS(AI Service),从数据到模型训练,到性能分析调优,到推理部署测试,功能涵盖算法生产全链路,算法量产可能真正成为现实。

标准化是旷视在算法生产流程中的核心优势,标准化能力也是AIS面向所有人提供的核心能力。这个能力通过提供标准化的数据处理过程,以及标准化的硬件部署工具链来展现。用户可以依托平台完成从数据清洗到模型推荐及系统诊断,再到硬件推理的整个流程,大幅降低了算法生产的门槛,提升了算法生产效率。

从本次技术开放日展示的两个具体DEMO中,可以看出AIS平台的优越性。一是旷视运动猿小刚产品,自研模型可以快速精准地检测超过30个人体骨骼点,从而准确描述人体运动过程中的各个动作姿态,完成高精度的测距、测速和计数;二是动态智能货柜,只需安装 1-2 个摄像头,这类智能柜即可快速准确地识别出上千种 SKU 的商品信息,这背后的动态视觉识别算法方案就产自于 AIS平台。

▲旷视运动猿小刚DEMO展示

▲动态智能货柜DEMO展示

据了解,目前,AIS平台已经能够支持100多种业务模型训练,最快2小时即可完成,而且模型产出精度指标远高于业界平均水平。经验证,算法研发人员使用旷视的Brain++和AIS平台,可以实现智能标注平均加速30倍,自动学习训练加速4至20倍。

jwview

新思路:“算法定义硬件”

2021年的相关数据显示,目前AI在全场景的渗透率仅有4%。这意味着,约96%的场景还没有被AI渗透,因此未来发展潜力仍然巨大。

业内分析认为,这些没有被渗透到的场景,基本对应数据采集困难、算法复用度低的大量碎片化场景。而在碎片化场景里,“硬件+适配性算法”的传统方案不足以弥合落地效果与真实场景需求之间的鸿沟。

因此,旷视独创性地强调其“算法定义硬件”理念为核心的新型IoT硬件技术体系,以解决AIoT现阶段特殊化的场景需求和发展困难。

当不断改造升级的海量应用对算法提出越来越多的需求时,算法在传感器与应用间承上启下的桥梁作用也越来越明显。一方面,算法能够明白应用想知道什么,需要知道什么,什么有价值;另一方面,算法也知道用户对于传感器的需求是什么,用户想收集什么样的原始信息。因此,算法也具备了向传感器需要提供的信息和输入提出要求的能力,甚至本质性地改造了传感器的形态以及样式。

旷视研究院计算摄影负责人范浩强在开放日上分享的“AI定义传感器”便是“算法定义硬件”的核心单元体现。

那么,一个新思考又就此形成:如何实现“算法定义硬件”?

旷视认为,全链路的整合能力是做算法定义传感器硬件的核心。范浩强解释:“在传感器上,我们需要能够有光学、模组、电子学的设计能力;在算法上,需要搞定深度学习,对传感器的物理建模以及相关的一些算法技术等等;更重要的是在应用层,我们需要懂需求,需要知道在哪个维度上影像以及传感能力是需要被增强的,哪些维度上是可以进行取舍的。”

令人欣喜的是,旷视作为AIoT行业的新势力,已经可以实现以上所有能力的整合,由此夯实了旷视参与“AI定义传感器”事业的最大信心和底气。

据了解,旷视已经和合作伙伴一同实现了千万颗级别的指纹传感器出货能力,推出的产品拥有目前业界最小的尺寸以及最快的识别速度,计算延迟被控制在10个毫秒以内。不仅如此,使旷视定义的AI光学指纹拥有超声波的速度和电容的安全性,在今年也已经实现。

旷视对于“AI定义传感器”的探索也并非止步于此。范浩强同时发布了两个新技术愿景:从画质的维度上讲,提出走向16K AI极超高清的AI画质,希望通过AI、传感和显示的三者联动,打造真正身临其境的影像体验;从 IoT的传感角度上讲,将推动传感器往更加极致的小型化、低功耗方向发展,深化和每个人自身及生活的深度结合。

jwview

领未来:基础科研与全行业同频共振

在印奇看来,AI和IoT并不是并列关系,AI是旷视一直坚持的核心能力, IoT是核心载体。在IoT里,需要不断定义更能够匹配核心的AI大脑的传感器以及机器人,而在AI里,推动算法量产,真正实现算法价值的前提是好的基础模型科研创新。

2012年,“大型的深度卷积神经网络”AlexNet的成功推动了深度学习的兴起。之后,AI便随着CNN、Transformer等一系列经典模型的现世大踏步前进。这是AI行业基调往前的10年,也是旷视与行业同频共振的10年。

时间发展至2022年,AI视觉的性能一定程度上已经可以与人类比肩,旷视基础科研的脚步也已渐深至远。

过去一年,旷视推出的专门用于点云和自动驾驶场景3D检测任务的动态卷积神经网络Focal Sparse CNN展现了当下最好的性能;NAFNet网络也可以更好地利用和保持图像原有的信息,对于图像画质恢复、DeNoise、SR等视觉重建任务具有更好的性能。

面向未来,旷视研究院基础科研负责人张祥雨指出“大”和“统一”已经成为视觉AI基础研究的最新趋势。

前者主要指AI大模型,即利用大数据、大算力和大参数量,提高模型的表达能力,使得AI模型能够适用于多种任务、多种数据和多种应用场景。后者指由AI视觉研究领域涵盖的多个领域里的每一个研究路径衍生的一系列算法,正在底层走向统一。

从“大”和“统一”这两大观点出发,旷视未来基础模型科研着重发力通用图像大模型、视频理解大模型、计算摄影大模型,以及自动驾驶感知大模型。

以自动驾驶感知大模型为例,旷视构造的新网络PETR已经可以极大地简化基于自动驾驶的视觉AI系统的设计,并且减少人工的先验,能让工程师更好地从数据中学习到真正网络需要的知识。

于AIoT的入局者而言,他们正经历一场未有之技术大变局,且应该意识到,这将是一段漫长的征程。尽管业内预测AIoT将迎来它辉煌的黄金十年,但未来终归属于未知,颇具变数。基于此,破局的眼光、视野与雄心不可少,选择的路径更不能错。

谁将问鼎AIoT江湖或许短期内难有令人信服的预测,但以“基础模型科研”提升内功,以“算法量产”补充实战经验,以“算法定义硬件”作称手兵器,旷视无疑正走在一条充满希望的路上。

广告等商务合作,请点这?里

看更多新鲜资讯

请关注中新经纬视频号!

本文首发于微信公众号:中新经纬。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。

推荐内容