AI深度伪造威胁巨大?顶级专家:没那么可怕,可以辨别!
原创
2024-05-09 17:22 星期四
财联社 黄君芝
①一位顶级网络安全专家表示,深度伪造技术构成的威胁可能被“夸大了”;
②他表示,新的生成式人工智能工具确实“有可能使虚假内容的生成变得更容易”;
③但客观地看,机器制造的内容往往可以被识别出来。

财联社5月8日讯(编辑 黄君芝)自人工智能(AI)爆火全球以来,尽管带来了许多便利和机会,但也平添了不少担忧。例如,网络安全专家们就担心,AI生成的内容有可能扭曲我们对现实的看法。而且在关键的选举年中,这种担忧更令人不安。

但思科Talos安全情报与研究小组的技术主管Martin Lee并不这么认为,他觉得深度伪造技术(Deepfake)构成的威胁可能被“夸大了”。据悉,在思科有一支名叫“Talos”的安全研究团队,由大约250名安全研究人员与600名软件工程师组成。

Lee指出,新的生成式人工智能工具确实“有可能使虚假内容的生成变得更容易”,深度伪造本身也是一项强大的技术,但是是有缺陷的:AI生成的材料通常会包含明显的可识别特征,表明它不是由真人制作的。

尤其是视觉内容,已被证明容易受到影响。例如,人工智能生成的图像可能包含视觉异常,例如一个人有两只以上的手,或者一个肢体被合并到图像的背景中。

image

另一方面,用AI合成的语音音频和真人的语音片段之间进行分辨可能会比较困难。但专家们表示,人工智能的水平仍然取决于它的训练数据。

但Lee表示,客观地看,机器生成的内容通常可以被检测到。

目前威胁不大

美国云端运算和企业软体公司Appian的首席执行官Matt Calkins表示,人工智能“用处有限”。该公司帮助企业更容易地利用软件工具制作应用程序。他认为,今天的许多生成式人工智能工具可能很“无聊”。

他指出,真正的问题在于“我们愿意信任人工智能,让它了解我们自己”。他警告说,这可能会使它在未来成为一个更有效、更危险的虚假信息工具。他还说,他对美国在监管这项技术方面取得的进展感到不满。

他补充说,可能需要人工智能制造出一些极其“冒犯”的东西,美国立法者才会采取行动。他说,“给我们一年时间,等到人工智能冒犯了我们再说吧。然后也许我们会做出正确的决定。”

不过,无论人工智能有多先进,思科的Lee表示,还是有一些经过验证的方法可以发现错误信息的,无论这些信息是机器还是人类制造的。

收藏
59.33W
我要评论
欢迎您发表有价值的评论,发布广告和不和谐的评论都将会被删除,您的账号将禁止评论。
发表评论
要闻
股市
关联话题
9.08W 人关注
1.51W 人关注
4.04W 人关注