人工智能伪ai(通过AI人工智能模仿或复制声音)
人工智能(AI)的发展给我们的生活带来了极大的便利,同时,也让诈骗集团的骗术越来越高。科技的发达,也给了他们带来了新型“武器”。
有骗子就利用人工智能模仿或复制别人的声音来行骗,如所谓的「熟人借款电话」。 在英国一家能源公司总裁就上当了,大致过程是这样的,诈骗者通过人工智能语音技术复制了他顶头上司的声音,再播放诱骗受害者将二十二万欧元会汇款到指定账户。这样防不胜防的新诈骗手法如何预防和破解呢?
从科技的角度来说,经系统复制任何人都能利用女生/男生的声音说话,而且有些真假难辨。有学者指出,人的声音分成词语、韵律和音色三个组成部分,或许能从这方面着手提防。
现在在电脑合成和检测方面,声纹合成和检测方面,大家都比较注重音色这个因素。对词和韵律方面,没有太多的模仿。所以,如果大家听电话的时候可能多问几句,从多从几个不同的角度去听这个声音,也许能辨别得出来。
学者还说,市面上用声纹系统来确认说话人身份的机构不少当中包括银行,因此要懂得这方面的安保,尽量避免被录音。但这项技术其实也能被善用,奎因两年前因肌萎缩侧索硬化症而失去声音,多亏一家加拿大公司的人工智能声音复制技术让他成功找回声音。
本地也有制作公司准备用人工智能来为动画配音,只要选择了指定声音输入系统,谁都能帮忙配音。这个技术可以减少了配音人员的工作量,同时提升了工作效率。
通过以上分析,我们也不必“谈虎色变”,一朝被蛇咬十年怕井绳,同时我们需要加强自身安全意识。第一,在交流中尽可能不直接发生财务问题;第二,保持警惕性。整体而言,技术本身是好的,是被犯罪分子给非法利用了。
,免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com