当前位置:首页 > 新闻

新闻

新闻

变脸又换声!不法分子盯上老年人 “AI诈骗”难以辨别

来源:米乐6m    发布时间:2024-06-10 02:26:30
 

  一位老人接到电话,对方自称是其战友,说自己因生病想借钱。老人熟悉这位战友的声音,先后汇款2000元、8000元到对方银行账户。没想到,钱刚到对方账户,“战友”就消失了,老人这才发现了自己被骗了……近日,一则“声音合成”骗局登上了热搜。

  随着AI(人工智能)合成技术日益发展,一些不法分子也开始利用其向老年人实施诈骗。“AI换脸换声”难度大吗?能有多逼真?记者做了调查。

  “你姥姥接到了一个电话,是你表哥的声音,说是闯了祸,问你姥姥、姥爷要钱。”不久前,正在国外留学的小张从妈妈口中得知,姥姥接到了一通电话,有人用“表哥”的声音说,自己把同学打进医院了,要赔十几万元。“表哥”以此向姥姥、姥爷要钱,还让他们绝对不能告诉自己的妈妈——也就是小张的大姨。

  “我姥姥、姥爷大吃一惊,但还是信了。不过,觉得不能不告诉其他人,于是告诉了我妈。”小张解释道,两位老人日常是独自生活,只有小张的母亲每周去看望几次。由于两位老人习惯于什么电话都接,此前就遇到过诈骗电话,这让一家人始终提心吊胆。

  小张觉得电话那头是骗子,“声音肯定是合成的”。初步推断后,小张给正在外地上学的表哥打了多个电话,终于取得了联系。原来,表哥正平安无事地打着游戏,对于姥姥接到的电话也全然不知。

  “那就是骗子无疑了。”小张叮嘱表哥亲自给姥姥、姥爷打了电话,向他们说清楚来要钱的并不是他本人。“我大姨也打了一个电话,告诉他们涉及钱的事情肯定是由大人来说的,这样的电话不要信。”

  “鸡飞狗跳折腾了一圈,安抚了惴惴不安的我妈,叮嘱了不听劝的姥姥、姥爷。一到涉及晚辈的事,这两位知识分子就跟喝了迷魂汤似的。”小张无奈地说。

  “我大学同学还被合成过视频通话。”除了“AI合成语音诈骗”,欺骗性更强的“AI合成视频诈骗”则更让人担忧。对这些针对老年人骗局,小张感到十分愤怒,但又不知该如何杜绝。

  保护好了手机号,就能避免被人利用AI技术“圈钱”吗?在网络上,还有很多博主利用假视频来吸引流量、虚假宣传。

  “有福气的奶奶您来了……”一个幼童双手合十,讲着一大段“正能量”语录,这样不符合常理的视频却人气颇高。评论区有不少头像为中老年人的账号留言称赞“小孙子说得好”。

  “这类视频播放量高,涨粉快。”相关视频博主介绍,除了儿童形象,智者老人、外国人等形象说语录的视频也受欢迎。“粉丝以中老年人为主。”

  “很多人问我,为啥不回国发展,要在中国待着……”视频中,一位名叫“Wendy”的“外国女孩”用流利的中文侃侃而谈。和她用着“同一张脸”的账号有好几个,有的叫“阿琳娜”,有的叫“娜塔莎”。事实上,这些账号的“脸”都来自一位乌克兰网红博主Olga Loiek。不久前,该博主发布视频称,她的面孔被盗用,并利用AI技术生成了视频。

  3月27日,抖音发布《关于不当利用AI生成虚拟人物的治理公告》,针对站内仍有不当使用AI技术生成虚拟人物发布内容的账号进行处置。但目前平台上依然存在相关账号和视频。

  点进这些账号的主页,其中很多写着“收徒”“合作”,并附有联系方式。记者加上一个微信后,对方发来了数字人生成教程的信息,报价1288元。这位商家还强调,AI和短视频结合的“威力”很大。“现在流量就是钞票,你会搞流量还怕不能盈利?”

  记者注意到,此类账号靠虚假视频骗取信任,积累一定量粉丝后往往就开启了带货之路。有些“博主”出售各类生活用品和食品,还有博主卖起了所谓的“保健食品”。

  利用AI技术来换脸换声、合成视频的难度大吗?实际上,使用门槛和技术门槛都不高。

  记者在电子商务平台搜索到不少提供相关服务的商家。有些提供专业的声音定制模型,价格几百元到数千元不等。有些则直接出售相关教程,部分价格低至9.8元。

  利用相关软件,任意一句话即可克隆声音。没有技术背景也没关系,目前市面上已经有多款软件能够迅速实现AI换脸、AI克隆声音、数字人生成等功能。一些主流的拍照、视频软件也推出了换脸特效,只要上传自己的照片,就可以生成换脸照片、视频。

  一款生成视频数字人的软件中,提供了电商、医疗保健、教育培训等领域的数字人视频素材,输入文字即可合成配音。此外,还可通过照片定制专属的数字人形象,生成视频。这类几分钟即可生成的AI换脸视频、数字人视频制作较为粗糙,看起来“一眼假”,却在很多短视频平台上被网友信以为真。一位制作相关视频的博主直言:“很多中老年人根本分辨不出来。”

  AI克隆声音实现起来更简单。记者下载了一款可以AI克隆声音的软件,只需提供某人一句话的声音素材,即可生成“专属克隆声音”,随后输入任何文字,发出的都是这个人的声音。记者体验发现,多款软件都可以轻松克隆。尽管有部分软件提示“若使用他人声音,请确认已获取他人授权”,但平台并无法限制声音来源。

  “虽然听说过这种克隆语音,但真能做成和真人一样吗?我有点不信。”记者在采访中了解到,有不少老人没听过AI合成的声音,想象不出其与真人说话的相似程度。为此,记者利用三款不同的软件,分别生成了一段语音,又录制了一段线位老人进行了测试。

  “第一段挺柔和的,像是真人说话”“最后一段接近人的嗓音”……老人们听完四段语音,从中选择“真人声音”,并且给出了判断的理由。结果显示,参与测试的老人都没能在四段语音中成功辨别出“真人”。

  即便是熟悉的人的声音,老人也非常容易被迷惑。记者特意用蔡大爷孙女的声音,同样制作了一组语音来测试。第一段合成语音播放后,蔡大爷立刻说:“这是我孙女说的!”四段语音播放完毕,蔡大爷对每一段都感到熟悉和亲切,“我听着都是她真人说的,不像用电脑合成的。”

  AI合成的声音、照片、视频,有办法辨别吗?记者了解到,语音可以流畅度、自然度来分辨出来,照片、视频则可以通过瞳孔、耳朵等细节来判定。不过,据多位AI技术从业人员介绍,随着技术发展,此前常被用于判断真实性的“手部不自然”“光线错乱”等问题,正在逐渐得到改善,“现在越来越真了”。

  在实际生活中,老年人也很难按照这样的标准来判断。王阿姨表示,由于自己听力不好,电话里的声音听不太清,如果遇到这样相似的声音,非常容易被蒙骗。同样的,王阿姨在和子女视频时也只是看个大概,“就看着大致的模样是谁,哪儿仔细看过耳朵眼睛啊!”

  “真是太危险了!”得知AI克隆声音的步骤和效果后,刘大爷感慨道,如果接到了涉及资金往来的电话,一定得再打电话确认一下。

  北京反诈中心官方公众号也曾发布提醒,在涉及转账交易等行为时,要格外留意,能够最终靠电话、视频等方式确认对方是不是本人;在无法确认对方身份时,可以将到账时间设定为“2小时到账”或者“24小时到账”,以预留处理时间。同时,要谨防各种信息泄露。

备案号:沪ICP备19021460号-5

在线客服 联系方式 二维码

服务热线

400 920 5548

扫一扫,关注我们