在快速发展的人工智能世界中,语音克隆技术的兴起引发了立法者和安全专家的着迷和恐惧。骗子已经在利用这项技术来欺骗毫无疑心的人,而像纽约市长埃里克·亚当斯这样的公众人物已经发现了人工智能克隆自己声音的创新用途。
负责拜登政府人工智能战略的白宫副幕僚长布鲁斯·里德(Bruce Reed)表达了对这项技术的担忧,称其“好得可怕”。据《商业内幕》报道,他强调了潜在的社会影响,称如果人们无法区分真实和虚假的声音,他们可能很快就不愿意接电话了。安全软件公司McAfee的一份报告称,语音克隆技术只需输入三到四秒钟的音频,就能重现任何人的声音,准确率达到85%。
骗子们迅速利用语音克隆技术的进步,利用人工智能技术来加强他们的欺诈计划。美国联邦贸易委员会(FTC)报告了一些骗子利用语音克隆来欺骗家庭紧急骗局受害者的案例,他们制造了令人信服的家庭成员的复制品。一个令人震惊的案例涉及亚利桑那州的一位母亲接到一个骗子的电话,这个骗子利用语音克隆技术冒充她被绑架的女儿,并模仿她女儿的声音和语调。
除了语音克隆,深度造假技术的出现也引发了人们对伪造视频的担忧。女演员拉什米卡·曼丹娜(Rashmika Mandanna)刚刚成为一段深度伪造视频的受害者,视频中她进入了电梯。这段视频获得了数百万的观看量,引发了人们呼吁出台新的法律和监管措施,以打击互联网上虚假内容的传播。
这段视频最初是在Instagram上分享的,主角是一位名叫扎拉·帕特尔(Zara Patel)的女子,她似乎没有参与deepfake的创作。视频背后的真实来源和动机仍然是个谜。这一事件并不是孤立的,因为近年来许多名人都被类似的假视频盯上了。
宝莱坞演员Amitabh Bachchan强调了对深度造假采取法律行动的紧迫性,进一步强调了采取措施应对人工智能产生的欺骗日益增长的威胁的必要性。
随着语音克隆和深度伪造技术的不断发展,很明显,这些发展对安全、隐私和广泛欺骗的可能性产生了深远的影响。立法者和监管机构面临着适应这种新形势的挑战,以保护个人免受骗子和虚假内容带来的威胁。