Anonim
乔·罗根AI

技术可以重现您的声音以说出任何话(无论多么疯狂)的那一天就在这里。 一组工程师创建了一个AI程序,该程序可以令人信服地模仿播客主持人Joe Rogan的声音。

您可以在下面的视频中听到结果。 声音不仅与罗根(Rogan)相同,而且几乎可以说出每个单词都产生自然的节奏。

但是,声音是人为的。 AI公司Dessa的工程师可以让假冒的Joe Rogan说话,而他们所要做的就是输入文本。 在这种情况下,他们发表了由AI驱动的语音讨论,内容是赞助一支充满黑猩猩的曲棍球队,并吹捧成为机器人的好处。

该视频可能会同时逗乐并打扰您。 这就是重点。 “这真是吓人,” Dessa在有关成就的博客文章中写道,该成就是使用他们称为RealTalk的文本到语音合成技术创建的。

该公司补充说:“在接下来的几年(甚至更快)中,我们将看到这项技术的发展到只需要几秒钟的音频就可以创建一个栩栩如生的任何人在地球上的声音的复制品。”

#RealTalk:感谢您的声音@JoeRogan! 我们知道您会真正意识到AI的严重性,并感谢您帮助传播有关AI潜力的认识,这既令人难以置信,又很危险。 https://t.co/kY31spaBdJ pic.twitter.com/UYggRaj4eT

-Dessa(@dessa)2019年5月17日

该演示只是如何利用人工智能算法来传播错误信息以欺骗整个公众的最新示例。 研究人员已经表明,您可以使用该技术创建看上去逼真但最终伪造的人物和视频,包括政客和名人。 美国国会议员担心,这些由人工智能产生的“深造假”可能有一天在信息战中开启新的战线。

Dessa的语音合成技术也可以用于恶意目的。 想象一下假冒电话呼叫者可以冒充您的家人。 或黑客制造带有声望的假冒政客的言论,以干扰选举。

当然,可以使用相同的技术。 举例来说,黛莎(Dessa)指出了针对任何语言电影的自动语音配音以及听起来更自然的智能助手。 但是,很明显,社会需要确保合成语音技术在成为危险之前得到负责任的发展。

黛莎警告说:“相信我们提到的(当然还有更多)所暗示的含义很快就会融入社会结构并不奇怪。”

可怕的含义是为什么Dessa拒绝发布其AI驱动的文本到语音合成技术背后的技术细节。 该公司表示:“为了负责任地开展此类工作,我们认为应该在发布任何开源之前先让公众意识到语音合成模型的含义。”

有关

  • 当人工智能模糊现实与虚幻之间的界线当人工智能模糊现实与虚幻之间的界线
  • 最新的Deepfake技术会让您像布鲁诺·马尔斯一样跳舞最新的Deepfake技术会让您像布鲁诺·马尔斯一样跳舞
  • AI和机器学习漏洞,Deepfakes,现在更难检测AI和机器学习漏洞,Deepfakes,现在更难检测

综上所述,该公司计划在未来几天发布其AI技术的技术概述。 同时,Dessa创建了一个网站,测试您是否可以从其AI生成的假冒音频中挑选出Rogan的真实音频剪辑。

在回应演示时,罗根本人在推特上写道:“这可能会成为一个真正的问题。令我感到荣幸和荣幸的是,他们选择了我的声音作为榜样,让我们​​知道我们已经操蛋。”