俄罗斯牺牲士兵的家人(几百位俄罗斯母亲)
最近,几百位俄罗斯的老母亲,突然收到了儿子在战争中阵亡的消息。
不仅如此,她们之中甚至还有人,亲眼看到了战场上惨不忍睹的遗体照片。
但通知她们这些事的并不是俄罗斯政府,而是来自乌克兰的 IT 志愿者部队。
这个组织利用人脸 AI 识别技术,扫描战死后的俄罗斯士兵面部,以此获得其生前的个人信息,包括社交平台账号、家庭照片,以及人员关系网等。
然后他们再将 “ 丧生 ” 这个噩耗,逐个匹配对应好,直接发送给远在俄罗斯,时刻担心子女安危的家庭中。
这种击破民众心理防线,再通过民众向政府施压的做法,也许是战争中不可避免的战术方案,但兵法和套路并不是差评君关心的地方。
在差评君看来,反而是拿 AI 这种本该造福社会的技术,用来伤害无辜家庭的手段,有点太不讲武德了。
在相关新闻评论区里,尽管网友们立场不同,但基本都在感慨这种行为的不人道。
有的人说,“ 士兵的母亲和妻子都没有任何错误 ”;
也有人表示,“ 告知这些可怜母亲的应该是俄罗斯政府,而不该是其他人 ”;
还有一份部分人说,士兵家庭有权利知道阵亡的消息,这些事不该被隐瞒。
“ 但也许可以弄一个网站,如果真的有家庭想主动了解,那就自己去获取信息 ”。
总之,这种事不能硬来。
当然,也有人意识到了问题真正严重的地方 ——
比如一位老哥就写下这样的评论:
“ 乌克兰 IT 军拥有所有俄罗斯士兵的样貌信息,并且还有他们的家庭方式?这可不是啥好兆头 ”。
要知道,人脸、指纹等个人隐私信息,连每个国家自己都要制定法律,高度保密。
怎么如此庞大的隐私数据库,就被其他国家搞走了呢?
而要解释这件事,就不得不提到一个叫做 Clearview AI 的公司了。
根据华盛顿邮报的报道,这家公司正是乌克兰 AI 技术和人脸数据信息库的提供方。
现在,共 5 个乌克兰政府机构,包含 340 多名官员,已经可以随时使用这些面部识别工具了,还是免费的。
不仅如此,这家公司也会培训新士兵使用方法、给他们开通操作权限。
可以说,Clearview AI 这波配合,突出一个 “ 尽心尽责 ”。
Clearview AI 的 CEO ▼
报道还称,这家公司的数据库里,至少拥有 20 亿张来自俄罗斯的照片信息。
但得到巨量照片资源的方法,既不是我们想象中的高端黑客破解技术,也不是什么碟中谍式信息窃取。
他们只是堂而皇之地从各种社交平台,抓取各个国家地区的公开图片。
其中俄罗斯的照片信息,大部分就是来自俄罗斯最大的社交网络 VKontakte。
VKontakte 类似于 Facebook、微博等 ▼
如果用不严谨的假设来解释整个过程,那就是 ——
你曾用自己的微博账号,发了一张自拍。
然后 Clearview AI 就会偷偷把这张照片保存到他们的数据库里,再将其与你的账号做好对应。相当于同时获取了人脸数据 个人资料里的信息。
而获取信息后,通过 AI 就能实现反向操作。
比如某天你被别人拍下了一张照片,根据这张照片,AI 就能再追溯到你的微博账号,以此取得更多详细信息。
听完有没有点细思极恐?这次的俄罗斯士兵事件,大致上就是这么一回事儿。
Clearview AI 的 CEO,自己演示操作过程 ▼
而且,这家公司涉及的层面还远不止如此。
像 Google、YouTube、Facebook 和 Venmo 等全球性的网络社区,都曾因为被 Clearview AI 抓取信息,不约而同发出了警告性质的终止函。
因为这些平台上的个人信息数据过于庞杂,且不分年龄、国籍、性别,如果被加以利用,那将留下严重的隐私泄露隐患。
但 Clearview AI 这边则表示,“ 我们只是获取网络上的公开资料,这些资料没准儿以后抓捕犯罪嫌疑人有很大帮助。更何况我们已经收集几十亿张图片了,识别准确率能达到 98%。
再说了,连美国第一修正案( 美国宪法 )都没有对此约束,就证明了我们有行使自己权利的自由 ”。
看起来是不是挺无赖?然而这还不是最可怕的。
因为从这家公司的官网来看,它还是一个标准的私营企业。。。
尽管他们声称,自己与国家执法机构签订了 600 多份安全协议,并且只会将软件提供给指定的专业安全人员。
但这些资本的场面话,建议千万别全信。
毕竟,早在几年前 A 轮融资时,他们就利用自己的隐私库当做 “ 福利 ”,吸引到了一批有钱人。
比如纽约时报的一篇报道《 Clearview 在成为警察的工具之前,它是有钱人的秘密玩物 》中,就提到了 ——
某位亿万富翁,曾使用 Clearview AI 来识别自己女儿和谁约过会。。。
除此之外,还有很多财大气粗的社会精英,都在 Clearview 上注册过会员服务。
这也就意味着,至少在这家公司初创期,个人隐私数据完全可以被金钱左右,至于具体用来干过啥,就无从得知了。
类似事件的曝光,引起了很多人士的警惕,这也让 Clearview 的地位,逐渐变得微妙了起来。
首先,Clearview 想摆脱大众对它的 “ 隐私滥用 ” 印象,急需找一些正规机构合作,为自己挽回口碑与信任。
而在 “ 个人隐私神圣不可侵犯 ” 的社会大环境下,谁也不想趟它这浑水,引得一身舆论。
但这个庞大数据库 AI 识别吧,确实在各行各业都很有用。所以,私下里有没有合作还真不好说。
就比如,接下来这个打脸事件。。。
有一次,Clearview 公开说它利用自己的软件,帮助纽约警察抓捕了一个潜在的嫌疑犯。
但纽约警察则一口否决,说他们只是试用过几次软件,破案时压根没用。这让媒体对 Clearview 进行了好一顿批判。
尴尬的是,还没过多久,就有人搞到了一封警局内部邮件。
邮件里详细揭露了警方与 Clearview 的密切合作,纽约警察们,甚至已经使用搜索软件超过 5100 次。
而事到如今,为了再获得乌克兰支持者的认可,Clearview 甚至不惜将自己应用到战争中。
这对于那些丧失孩子、丈夫的俄罗斯家庭来说,相当于伤口上撒盐,过于残忍。
尤其是在相关新闻的下方,也有一些人开始渐渐畏惧 AI 技术,以及背后那不可估量的生物数据集信息。
只要进入官网,就能看到他们的相关宣传 ▼
其实,大家的担心也不是毫无道理。
因为技术的不正义性,会在战争中被迅速放大,甚至造成 “ 技术恐慌 ”。
还记得 2018 年 “ AI 人脸识别无人机,靠近目标后立即引爆 C4 ” 的新闻么?当时,委内瑞拉正在举行阅兵仪式,忽然间一架迷你无人机靠近演讲台后爆炸,总统命悬一线,场馆内几千名人员四散而逃。
这里的 AI 人脸识别技术,就能保证无人机精准袭击到总统本人,完全不需要谁在背后遥控。
所有人都很难想象,一个平日里用来寻人、支付的功能,居然成了完美犯罪中的关键一环。
战争,本身就是一件舍弃道德底线的事。
以至于所有人眼里 “ 中立且无罪的技术 ”,在战争之下也会变得不那么纯粹,成为伤及无辜家庭的手段之一。
而利用技术去刻意试探人性,加速悲剧,则显得更不体面。
如果再不加以制止的话,那从今往后,怕是连技术的名声都要搞臭了。
,
免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com