Meta语音识别功能兼容Oculus Store和App Lab应用

[复制链接]
查看147 | 回复0 | 2022-4-3 01:59:55|发表时间:2022-4-3 01:59:55| 显示全部楼层 |阅读模式
  Quest开发者已能将Meta语音识别(Voice SDK)功能添加至Oculus Store和App Lab应用之中,并可尝试“实验性”MR空间锚点(Spatial Anchors)功能。感兴趣的小伙伴们一起来看看吧!

b395514953715e30094b650d74a7d5a3.png

b395514953715e30094b650d74a7d5a3.png

  Connect 2021期间,Meta发布了语音识别及MR空间锚点功能,以作为Oculus SDK v35 版本更新内容。
  Voice SDK由Meta在2015年收购的语音接口公司Wit.ai开发,由于Wit采用服务器端,因此该功能不支持离线运行且会有网络延迟。
  Meta表示,全新API支持搜索应用内内容和“基于语音驱动的游戏玩法”,例如语音施咒或与NPC对话。不过,尽管上个月发布的Oculus SDK包含Voice SDK,但彼时该SDK被标记为“实验性质”,因此还无法兼容Oculus Store或App Lab应用。
  Voice SDK不仅仅是处理语音命令,还能基于自然语言处理(NLP)功能以检测语音命令、解析实体(例如距离、时间、数量)和分析情绪(正面、中性或负面)。
  Spatial Anchors是Meta针对MR的一项新实验功能,这意味着该功能还不能在Store或App Lab应用中使用。
  空间锚点是“world-locked”参考框架,其支持用户自定义特定空间位置,自定义完成后Quest则会“记忆”这些锚点位置。目前,开发者已可以基于直通功能作为视图图层(例如背景)或自定义网格(例如你面前的桌子)。
  据悉明年Meta还将计划添加“add Scene”(场景捕捉)实验性功能,该功能将提示用户(手动)标记墙壁或家具,并输入天花板高度。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则