AI声音克隆走红引关注

近期,张文宏医生推广的蛋白棒相关AI合成声音视频在网络上激起热议。然而,张文宏医生本人随即作出澄清。此事件吸引了公众的高度关注。同时,众多配音演员声称自己的声音被非法用于AI合成,并已采取法律行动维护自身权益。伴随人工智能及语音大模型技术的飞速进步,AI合成声音的应用急剧攀升,部分应用仅需十几秒即可复制声音。这一新兴领域正迅速成为公众关注的焦点。

AI合成声音技术如同开启了一扇通往未知领域的门,它不仅为人们带来了前所未有的新奇感受,但也潜藏着不少隐患。部分商家利用这一技术,在短视频平台上将主播的声音模仿成知名医生或女明星,用以推广商品,从而误导了消费者。这一行为使得AI声音克隆的问题开始受到广泛关注。

企业家受扰公开声明

东来的创始人,作为胖东来集团的领导者,不幸受到了AI声音模仿技术的不良影响。网络上涌现出众多与事实不符的合成视频。对此,胖东来商贸集团迅速采取行动,在声明中指出,多个未经授权的账号利用AI技术伪造了东来的声音,并附上误导性文字。这种行为严重扰乱了公众视听,使得公众难以分辨真伪。

企业家对AI声音被冒用的问题表达了担忧,强调这一情况给其带来了困扰与不适。他们敦促公众停止此类行为。此行为显现出,AI合成声音引发的麻烦已使受害者深感烦恼,严重侵犯了他们的合法权益,并损害了企业和个人的名誉。

技术普及门槛降低

沈阳某高校教授,来自清华大学新闻与传播学院,强调人工智能技术的广泛应用显著降低了AI声音模仿的难度。记者通过一款应用程序的客服了解到,仅需198元人民币,用户便可升级为付费用户。在遵循提示下,用户需在镜头前多次重复“12345”这一序列,AI系统便能够根据这些声音数据制作出多种口播视频。

记者经实践操作证实,该软件生成的名人事迹声音难以辨别真伪。此外,在录入名人事迹声音时,无需出示任何授权证明。这一现象表明,只要有意愿者支付相应费用,便可以轻易运用该AI声音合成技术,从而为潜在的安全风险埋下了隐患。

追逐流量变现目的

业内消息指出,AI模仿人声技术在网络中广受欢迎,其核心目的在于吸引流量和实现商业盈利。利用AI技术复刻名人声音,制作娱乐和好奇内容,相关视频在各大平台上收获了众多观看和点赞,部分视频甚至跻身热门搜索排行榜,成为吸引公众关注的手段。

商家借助合成音效进行产品宣传,其核心目标在于吸引顾客的注意力,进而促进商品的销售。然而,这种以追求利益为动力的行为,忽略了可能产生的所有负面影响,不仅损害了他人的合法权益,还极大地干扰了网络及市场的正常运作,加剧了互联网环境的混乱与无序。

诈骗风险不容忽视

2024年7月,国家金融监管总局公布《防范新型电信网络诈骗风险提示》。该提示指出,犯罪分子可能运用人工合成技术,模仿明星、专家、执法人员等人的声音,冒充其身份散布虚假信息,进行诈骗活动。这种现象暴露了人工智能合成声音技术可能引发的潜在安全风险。

合成声音可能对听众的听觉判断造成干扰,导致区分信息的真伪变得不易,从而提升了民众受骗的可能性。诈骗者若运用此技术,可能带来的经济损失和社会负面影响将极为严重。因此,对AI声音诈骗保持警觉,并迅速采取措施保障个人财务安全显得尤为关键。

监管保护亟待加强

刘晓春,中国社会科学院大学互联网法治研究中心负责人,指出未经授权或未标注来源使用他人声音制作AI语音产品存在风险。特别是当涉及公众人物的声音时,此类行为可能导致公众误解。同时,它还可能侵犯个人隐私安全,并对网络环境造成不良影响。

专家指出,社交网络和短视频平台迫切需要加强监管,以迅速识别和处理涉嫌侵犯版权的AI生成内容。在此形势下,个人在AI时代必须重视生物识别信息的保护,提升法律意识,拒绝侵权活动。在技术进步与个人权益的平衡问题上,公众意见分歧。我们热切期待您发表见解,并支持本篇文章,以促进更多人对此问题的关注。