上一篇
下一篇

Meta发布多感官AI模型,实现“看、听、感知温度”等多重感

2023
05/10
20:23

发布于: 科技

近日,Meta(原Facebook)的人工智能实验室发布了一项突破性研究成果:一种多感官AI模型,不仅能够看和听,还能够“感知温度”。

屏幕截图 2023-05-10 202721.png

这种AI模型通过融合视觉、听觉和触觉等多种传感器信息进行学习,并且可以在真实世界中实现具有触摸感知的人工智能。其核心思想是为机器赋予人类般的直觉。

该实验室的研究人员表示,该多感官AI模型可以将手指放置在图像上并测量温度分布,在真实世界环境中识别物体和表面的温度、纹理和形状,以及感知三维空间中物体之间的位置和距离。

该多感官AI模型是基于最新的自监督学习和生成对抗网络技术进行研制,结合了计算机视觉、语音识别和强化学习等多个领域的前沿技术,拥有训练速度快,模型精度高等优点,未来可应用于医疗、军事、家居智能等领域。

对于普通用户而言,这项研究成果意味着更加智能、更加贴近生活的AI化生活体验。例如,在购物体验中,多感官AI模型可以通过触摸感知和语音识别进行虚拟试穿、试妆、试驾等操作;在医疗领域,该模型可以用于快速辨别皮肤病变、癌症筛查等。

然而,由于涉及到隐私保护等问题,该研究还存在一定的争议。有专家表示,未来需要对多感官AI模型进行更多的探讨和监管,以确保用户的数据隐私和安全性。

总而言之,Meta的这次大动作展示了其持续推进人工智能技术研究和应用的决心,并为我们提供了一个更加开放、透明和创新的未来前景。


该文章系用户自行发布,若有版权纠纷请联系本公司进行下架与删除。
  • 全部评论

正在加载…

加载更多

没有更多了

福州飞扬网络科技有限公司版权所有 闽ICP备2021000875号-2 © feiyang.com All Rights Reserved.

违法和不良信息举报热线:0591-85667788