人工智能siri介绍(不出声也能命令Siri)
金磊 发自 凹非寺
量子位 | 公众号 QbitAI
这,或许是现在跟Siri交流最潮的方式了——
只需要动动嘴皮子,就能让它under你的control。
没错,就是不需要出任何声音的那种。
这就是来自康奈尔华人团队的最新研究成果 SpeeChin,无声语音识别。
像这样:
在没有声音的情况下,你能猜出来他在说什么吗(文末揭晓答案)?
但在SpeeChin的加持下,现在的Siri、Alexa等就已经可以识别,而且还支持普通话和英文!
是有种“此时无声胜似有声”的感觉了。
不说话,怎么控制语音助手?康奈尔团队研发的SpeeChin,其实是一条神奇的项链。
戴上这条项链,就能开启无声语音控制的大门了。
例如对着电脑默念一句“Next”,音乐就会自动切换成下一首歌:
或许你会说一个单词过于简单了,别急,现在就来加大难度:
“Switch to Taylor Swift.”
可见,SpeeChin即便是面对一句完整的话术,也可以做到精准识别。
而这条“无声识别”项链的关键,就在于安装在项链下方的红外摄像机。
它可以捕捉到人物颈部和面部皮肤的变形图像,从而进行分析识别工作,确定从“嘴皮子”传达的是什么命令。
而且这条项链不仅能无声识别英文,连中文 (普通话)也能够hold住。
在最初的实验中,有20人参与到了测试中,其中10人讲英文,另外10人说普通话。
研究人员让测试者分别用英文和中文发出数十条指令,包括数字、互动指令、语音辅助指令、标点指令和导航指令。
最后的实验结果,“无声识别”的准确率分别达到了90.5%和91.6%。
来自康奈尔大学的华人团队
这项研究来自康奈尔大学,一作是Ruidong Zhang。
其中,Cheng Zhang是这项研究的通讯作者。
他是康奈尔大学信息科学系的助理教授,他的研究聚焦在如何获取人体及其周围的信息,以应对各种应用领域中的现实世界挑战,如交互、健康感知和活动识别。
研究的一作Ruidong Zhang,他是Cheng Zhang教授的一名博士生,本科毕业于清华大学。
他的研究兴趣在于人机交互和普适计算(ubiquitous computing),特别是建立新型的可穿戴设备,用来促进互动体验并加深我们对人类行为的理解。
至于为什么他们要做SpeeChin这项工作,据Ruidong Zhang解释:
主要是考虑到在某些特定场合中,人们可能不适合发出声音;还考虑到一些不能说话的人群。
最后,来揭晓一下开头GIF的答案:
你猜对了吗?
参考链接:
[1]https://techxplore.com/news/2022-02-smart-necklace-silent-english-mandarin.html[2]https://www.youtube.com/watch?v=pDf86dSPYYI[3]https://infosci.cornell.edu/content/zhang-0[4]https://infosci.cornell.edu/content/zhang-1
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
,免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com