根据《消费者报告》的一项新研究,市场上几种流行的语音克隆工具没有“有意义”的保护措施来防止欺诈或滥用。

《消费者报告》调查了 Descript、ElevenLabs、Lovo、PlayHT、Resemble AI 和 Speechify 这六家公司的语音克隆产品,以寻找可能使恶意用户在未经许可的情况下克隆某人声音的机制。该出版物发现,只有 Descript 和 Resemble AI 这两家公司采取措施打击滥用。其他应用程序仅要求用户选中一个框,确认他们拥有克隆语音或进行类似自我证明的合法权利。
《消费者报告》的政策分析师 Grace Gedye 表示,如果没有采取足够的安全措施,AI 语音克隆工具有可能“增强”冒充诈骗。
“我们的评估表明,公司可以采取一些基本步骤来增加在某人不知情的情况下克隆某人的声音的难度——但有些公司没有采取这些措施,”Gedye 在一份声明中说。