ai 深度伪造语音诈骗激增,民众难辨真伪

AI深度伪造语音诈骗的问题现在已经引起多国关注了,各国的调查数据显示,AI克隆声音实施的诈骗正在快速增长,民众很难辨别真假。据Alex Aljadeff 所说,诈骗分子正在利用AI克隆声音实施盗窃,这种情况非常严重。 Hiya公司针对美国、英国、加拿大、法国、德国和西班牙六国的消费者进行了调查,结果显示,四分之一的美国人去年收到过AI伪造的熟人声音来电。更令人担忧的是,24%的人表示自己无法可靠区分电话中的AI语音和真人声音。这些深度伪造诈骗主要针对55岁以上的老年人,他们的平均损失近9000元人民币。自2023年以来,这类诈骗数量每年复合增长率达16%。 调查还发现,67%的用户呼吁政府出台更严格的法规,要求电信企业应对这类AI驱动的诈骗。约72%的用户认为运营商应该承担一定经济责任,还有55%的人赞成推行类似信用卡的零责任保护机制。这反映出用户对电信运营商在应对AI诈骗上的不满。 现在深度伪造技术让模仿他人声音变得容易,诈骗分子利用这一技术伪装成受害者的亲属或信任联系人实施金融诈骗或身份盗窃。Hiya公司创始人亚历克斯 · 阿尔加德表示:“现在我们处于一场军备竞赛中,”这意味着运营商必须用技术筑起护盾来保护用户。 Techradar报道称,这项调查还显示出消费者对骚扰电话问题的看法。约48%的受访者认为骚扰电话问题正在恶化。与认为情况好转的人相比,持这一观点的人数几乎是他们的三倍。调查发现六个市场平均每周接到7.4通骚扰电话。 这次调查是在Techradar的支持下进行的,IT之家也对这个话题进行了报道。这次调查覆盖了六国超1.2万名消费者。这种深度伪造冒充行为常伪装成受害者的亲属或信任联系人实施金融诈骗或身份盗窃。 总的来说,这次多国调查显示AI深度伪造语音诈骗激增,民众难辨真伪。运营商必须用技术筑起护盾来保护用户免受这类AI驱动的欺诈行为侵害。