AD
首页 > 头条 > 正文

搜狗AI变声引发用户恐慌,世界不需要AI狂热分子!-科技频道-金鱼财经网

[2021-02-28 04:53:07] 来源: 编辑:wangjia 点击量:
评论 点击收藏
导读: 目录 搜狗AI变声是否会助长电信诈骗? 只顾着好玩,就能不注意风险么? AI时代,呼吁科技向善!世界不需要AI狂热分子 对于人工智能,知名物理学家霍金曾多次表达自己的担忧。他曾呼吁全球都要警惕具有独

目录

搜狗AI变声是否会助长电信诈骗?

只顾着好玩,就能不注意风险么?

AI时代,呼吁科技向善!世界不需要AI狂热分子

对于人工智能,知名物理学家霍金曾多次表达自己的担忧。他曾呼吁全球都要警惕具有独立意识的人工智能可能毁掉人类。而特斯拉的创始人埃隆·马斯克也曾警告,人工智能可能会将人类变成濒危物种。

此外,国内的腾讯公司也在最近提出“科技向善”,认为人工智能时代,科技企业必须守住底线,要用“善心”利用人工智能技术。

然而搜狗的王小川则认为,人工智能永远都不会超过人类,同时还大肆鼓吹“被人工智能抢走工作是一件很快乐的事。”

就在几天前,搜狗发布AI变声功能,并将此应用到搜狗输入法中。此举引发了网友对人工智能侵犯人类安全和隐私的广泛担忧。

1

助长诈骗犯罪。

5月24日,搜狗CEO王小川在极客公园rebuild大会上现场演示了其智能语音模拟系统,将自己的声音模拟成高晓松和东北妹子的声音。

而且搜狗宣布,这种“AI变声”技术已经被应用到拥有数亿用户的搜狗输入法中。消息一出,便引发了微博上的广泛热议,其中谈论最多的就是这个技术是不是会助长电信诈骗。

“突然间感到一丝不安全”华尔街见闻APP。

“小心被坏人用来搞电信诈骗”超光速进化。

“周知,以后收到马云的电话,请小心,谢谢”四喜。

“这东西有意义么?就算真的有用,有必要向民间开放技术么?” Enzo-四敢怪杰。

对于AI变声被用在电信诈骗的担忧并非没有道理。

首先,电信诈骗带来的损失十分巨大,让人触目惊心。

2018年全国公安机关电信诈骗案件立案69万起,共造成经济损失222亿元。

另外,通过模仿人声实施诈骗早已出现。

2016年央视曾报道,一种新型电信诈骗,打电话能模仿亲人的声音。而中科院研究员在这期节目中,解释了这个诈骗的技术原理,就是通过录制目标人的10-50句声音,然后通过软件生成目标人的声音。

搜狗官方这样解释自己的AI变声:

“搜狗做到的是语音变声领域最难的技术,通过在语音表征学习、迁移学习技术取得的重大突破,可以把任意人音色变声成特定人音色(Any-to-One),从实用程度到技术难度都是最高等级。”

这意味着,任何人只要拿到目标人的一段声纹,都可以将自己的声音转变为对方的声音。比如,诈骗分子将自己的声音转变为你儿子的声音,向你求助,从而实施诈骗。

因此,搜狗将这样的技术向4亿多输入法用户开放,即使还未“将转换成任意人声音”功能开放,也会导致网友的深深不安。

2

为了好玩,就不顾风险么?

搜狗王小川在演讲中说,将AI变声技术应用到输入法中,主要是为了“好玩”。因为,它可以仿一些其他人的声音去工作。

听到这里,我有些浑身发汗。难道,搜狗为了输入法更好玩,就不顾这个技术的风险么?

这让我不由得想到搜狗已经被腰斩的股价和比较差劲的2019年第一季度财报。

搜狗股价已经跌至4.4美元,跌破发行价的同时,距离最高价已经跌去了3/4。

股价的下跌与当前整体市场环境比较差有一定关系,但更重要的是其越来越差的财报数据。

2019年第一季度,搜狗交上了一份亏损的财报,同时获取流量的成本占比大幅提升。而关乎未来的人工智能收入大幅下降了34%,技术研发投入同比下降12%。

显然,投资者已经对搜狗的未来失去了希望。或许为了提振投资者对搜狗在人工智能技术上的信心,才将可能存在风险的AI变声技术急切地用在搜狗输入法之上。

另有媒体报道称,搜狗的AI变声技术不是“实时”变声,只是对你录制好的语音进行音色转换。

就在王小川在rebuild大会上公开推介这一技术之前,科大讯飞(002230)董事长刘庆峰在其公司新品发布会上展示了类似技术,而且比搜狗的更加先进,是“实时变声”。

无需提前录制,刘庆峰在台上说什么,现场就立刻以另一种声音传达出来,仅有零点几秒的延迟。

但是,刘庆峰特别强调,他们的实时变声技术只是展示,并不会对外公开,更不会应用到讯飞输入法等软硬件产品中,因为他一直坚持认为“人工智能要持续发展,最核心的是它的价值观如何阳光健康与人为善。”

3

呼吁科技向善!

虽然霍金教授、马斯克关于人工智能的预言遭遇许多质疑和反对之声,但是我们不能忽视人工智能可能带来的负面影响,更不能为了短期利益而滥用人工智能技术。

谷歌曾投资过一家名为波士顿动力的人形机器人公司,但是没过多久便将其卖掉。因为谷歌在买入该公司后,才发现这家公司研发的人形机器人实在是太过强大,很可能对人类产生威胁。谷歌不想成为它的助推者。

在许多科幻影片中,人工智能打造的机器人被坏人利用、操纵,然后攻击人类,人类根本无还手之力。

这些看似遥远的预测,其实早已发生在我们的身边。

比如,网络摄像头公司因为技术不成熟,或技术漏洞,而导致大量使用该产品的用户在家里的隐私视频被公然传到网上。

一些内容平台、短视频平台利用人类对色情、八卦、暴力等内容的贪婪,以“算法之名”刻意推荐此类内容给用户,抢占用户的上网时常以播放广告牟利。他们其实已经将用户牢牢的控制在自己的平台上,把用户变成了自己的奴隶。

这些其实都是在利用技术犯罪,都违背了“科技向善”。这个世界需要科技,但不需要假科技之名而侵害人类利益的AI狂热分子。(完)

磐石之心说:

一个人最糟的是不能成为自己,并且在身体与灵魂中保持自我。

本文首发于微信公众号:磐石之心。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。

查看更多:

为您推荐