沙虫科技网logo.png沙虫科技网

沙虫科技网
提供IT业界的新鲜事、奇趣事和热门焦点,掌控最热最新的互联网新闻、科技新闻和IT业界动态。
沙虫科技网

迈克菲展示了Deepfakes如何规避网络安全

你再也不能相信你所看到的了。Deepfakes使用人工智能让人们似乎在他们没有说过或做过的视频中说和做事情,以惊人的速度变得更加现实。他们习惯于试图规避网络安全,这是一个时间问题。

网络安全公司迈克菲首席技术官史蒂夫·格罗布曼和首席数据科学家塞莱斯特弗雷克在旧金山举行的RSA安全会议上发表主题演讲时警告说,这项技术已经达到了你几乎无法用肉眼判断是否视频是假的还是真的。他们展示了一段视频,其中Fralick的话是出自Grobman脸部的视频,尽管Grobman从未说过这些话。

弗雷克说:“我使用免费提供的,录制的公众评论来创建和训练一个机器学习模型,让我用嘴里的语言来制作一个深度视频。” “它只是展示了人工智能和机器学习可以用来制造大规模混乱的一种方式。这让我想到了社交工程领域中的各种其他方式,即攻击者可以使用AI,社交工程和网络钓鱼,其中攻击者现在可以创建自动化的目标内容。

这可以帮助对手创建有针对性的“鱼叉式网络钓鱼”攻击 - 这种攻击是个性化的,也是更成功的 - 具有自动攻击的规模。

“事实上,大多数人都没有意识到人工智能和机器学习的脆弱程度,”弗雷利克说。“我的团队参与的整个技术领域称为对抗性机器学习。我们研究对手可以侵入或毒害机器学习分类器的方法。“

在星期一晚上的一次采访中,格罗布曼说Fralick和他能够在一个周末创建这个深度视频,而不是努力使它完美。

“我们想要提出的一点是,如果你的目标是创造一个完全捏造的视频,那将是多么容易,”他说。

欺骗人和AI的一种方法是拍摄一张大部分真实的照片,并以人类无法察觉的方式改变它的一小部分。Fralick展示了一个例子,其中企鹅的照片可以被AI解释为煎锅,这要归功于一个小小的操作。

“我认为观众中的一个问题是:用于混淆图像分类器的相同技术是否会被用来混淆我们的网络模型?”Grobman问道。弗雷克回答是肯定的。

“误报可能会带来灾难性的后果,”格罗默曼说。“这种典型的例子发生在1983年9月26日的23分钟时间。这是冷战的高峰期。一些国际事件使美国和苏联都处于高度警戒状态。在近四十年前的这个背景下,苏联发现了五枚美国导弹对其发射。但随着警笛声和屏幕闪烁,斯坦尼斯拉夫·彼得罗夫中校决定将此事报告为故障。“

彼得罗夫认为美国不会仅发射五枚导弹就会引发世界大战。他无视他的训练手册升级,他的直觉是正确的,阻止了核战争。事实证明,根本原因是太阳光在高空云层上的罕见排列产生火箭般的火焰效果。格罗默曼说,重要的是要认识到人工智能解决问题的能力,以及它给网络安全对手的能力。

格罗默曼说他相信技术本身是中立的,它可以应用于好的或坏的。例如,犯罪地图上有关于犯罪发生地点和逮捕地点的数据,可用于帮助理解犯罪 - 或者犯罪分子可以利用犯罪地图避免被捕。在另一个例子中,飞机被用来轰炸平民,导致第二次世界大战中有200万人伤亡。当被问及他是否后悔发明这架飞机时,Orville Wright在1948年表示,他认为它与火的使用相同,这可能造成巨大的破坏,但却被用于数千种重要用途。

“奥维尔的洞察力是技术无法理解道德,”格罗默曼说。“我们的行业,网络安全,不断努力的东西。”

相关推荐