令人难以置信,现在许多明星参与的土味广告,居然大多是通过AI技术制作的商业欺诈!其中的声音听起来都让人难以置信,这种科技的发展方向,既让人感到意外,又引发了深深的忧虑。
仿冒账号泛滥近期,某短视频平台上出现了诸如“婵宝小助理”、“全妹福利号”等数十个假冒全红婵的账号,这些账号频繁播放她比赛结束后的采访视频。到了4月29日,全红婵的父亲不得不公开发声,指出有人利用AI技术伪造他们全家的声音来推销蜂蜜,他们对此感到非常无奈。这些冒牌账号不仅严重侵犯了全红婵的合法权益,还误导了众多消费者。
过往类似骗局去年十二月,张文宏教授对一款知名品牌的蛋白棒伪造视频进行了剖析。视频中的形象与声音极为逼真,以至于让人难以区分其真伪。这一情况导致众多中老年消费者上当受骗,该产品的销量一度激增至千件以上。与此同时,小米公司CEO雷军的标志性普通话也被不法分子恶意用于虚假理财广告中。这种情况表明,AI模仿声音进行欺诈的手法早已出现,而且其影响范围正不断增大。
明星遭遇不断4月18日,张馨予揭露了商家运用AI技术伪造她的声音来推销减肥药的行为。她明确表示自己从未推荐过这类产品,并决心对涉事者进行追责。有一位母亲差点被AI模仿的张馨予声音所欺骗,购买了这种减肥药,这一事件充分证明了这种欺诈手段极具迷惑性,即便是明星也难以幸免,深受其害。
平台全面蔓延抖音、快手、B站、小红书等视频平台上,类似的操作被广泛模仿。在电商平台上搜索“AI配音”,有些商家宣称只需花费200元,就能购买到明星的声音,而且使用过程非常简单。从这个现象可以看出,这种欺诈手段已经在多个平台上蔓延,导致用户难以辨认和预防。
诈骗渗透个人AI换脸技术以及拟声技术不仅被用于模仿名人的肖像,而且常被用于针对普通人的诈骗行为。获取声音样本的手段多样,比如通过推销电话、公开演讲、客服回电等多种方式。合成声音的成本极低,只需花费十几元甚至更少,就能制作出所需的声音,甚至能够模仿出孩子的声音,这使得即便是普通人也难以完全免受其侵害。
后果令人担忧现在,大家都能通过App轻松制作明星代言视频,观看次数已超过百万。这让许多网友开始怀疑,这样的信息已经让人难以相信。也许在将来发布信息的时候,我们都应该特别小心,确保信息的真实性。考虑到大家对AI技术的了解不多,他们很容易被AI换脸和拟声技术制作出的虚假内容所迷惑。
科技的发展使得日常生活在诸多方面变得轻松高效,然而,与此同时,人工智能模仿声音进行诈骗的活动也引发了我们的担忧。面对这一现象,我们何不一起来思考,究竟应该采取哪些措施来有效阻止这种行为?