文/陈根
防火防盗防 ai!这是什么情况呢?
据《纽约邮报》报道,一位母亲接到了女儿的电话,这通来自“女儿”的电话,电话那头传来了女儿的哭喊声:“妈妈!救我!”并且这个声音非常真实,就是她女儿的声音。紧接着,一位陌生男子开始发话:“你女儿在我这里,如果打电话报警或通知任何人,就把你女儿带到墨西哥去‘注射毒品’和‘强暴’。” 男子还马上谈起了条件——需要 100 万美元的赎金才能放人。但得知无法支付那么多赎金后,男子又改口称:“拿 5 万美元来换你的女儿。”
这位妈妈感到不对劲,绑匪的这种行为非常异常。在顿感事情蹊跷之后,这位妈妈选择了迅速联系丈夫,直到确认女儿正在安全地滑雪中,才幸免被骗。事后回忆起通话细节时,想到“女儿的声音”如此逼真,让她细思极恐。
这意味着什么呢?这就让我们看到,在人工智能时代,我们见到的照片和视频不一定是真的,我们听到的电话声音或者录音也不一定是真的,因为只要我们在网络上有照片与声音、视频出现过,只需要几秒钟就能克隆我们的声音和形象。
以我自己为例,如果有人要恶意的诽谤根哥,或者造谣根哥是非常容易的事情,因为根哥的照片、视频、声音都在网络空间上存在,并且都是公开的,像成都牵手事件这一类的视频和照片,用根哥的公开资料都可以秒生成,并且为了证明是真的,还可以在视频中生成个语音对答,随便找个人出了声音,然后再生成根哥的语音来证实这人就是根哥。
然后呢,再把这内容发布到网络上,再找一堆水军来恶搞一下根哥,那么我相信大部分的网友是分辨不出,也了解不了真相的。所以,在一个人工智能可以深度造假的时代,一定要订阅根哥的栏目,了解最新的技术动态非常重要。
那么针对这类基于 ai 的诈骗案,加州大学伯克利分校计算机科学教授、伯克利人工智能实验室成员 hany farid 对 ai 克隆语音的生成原理,对记者做出了详细解释。简单的说,ai 语音生成软件,可以分析什么让人的声音与众不同(包括年龄、性别和口音),并搜索庞大的声音数据库以找到相似的声音,然后重新创造出相似整体效果的声音。
ai生成软件通常从 公开的社交平台,比如youtube、播客、商业广告、tiktok、instagram 或 facebook 等地方获取音频样本。并且随着ai技术的不断突破,以前,克隆声音需要从被克隆人身上获取大量样本。现在,只需几小段,三秒钟就可以克隆出一个接近你的声音。
之前的4 月 20 日,国内郭先生收到了利用 ai 技术换脸和换声后伪装熟人的诈骗,“好友”称自己在外投标需要高昂的保证金,请求郭先生给过度一下,转 430 万元,然后郭先生在视频通话有图有真相的情况下,在“证实”是直接朋友的情况下,就没有多想的转账了。结然后当他把这个转账成功的信息告诉他的朋友时,才被朋友发现郭先生是被诈骗了。
而这让我们看到,人工智能技术尽管会存在着各种各样的负面,尤其是在大众并没有掌握识别它的这个能力的时候,可能会导致一些伤害的事情发生,但是人工智能的技术趋势是不可改变的。这就给了我们非常重要的一个思考,那就是在人工智能时代,我们的教育应该怎么办?肯定不是现在的这个样子,欢迎大家订阅根哥有关人工智能教育的专辑《制胜未来的gpt教育》进行了解。