省钱专家马丁·刘易斯(Martin Lewis)警告英国人,诈骗者正在利用他的人工智能深度伪造视频来试图欺骗他们赔钱。
深度伪造是指对一个人的脸部或身体进行数字修改的视频,使他们看起来像是其他人,通常被恶意使用或用于传播虚假信息。
刘易斯先生称这一骗局“令人恐惧”,并警告称它将“毁掉生命”,呼吁政府和监管机构制止这种行为在一段他的深度造假视频出现后,他似乎“支持埃隆·马斯克的一项投资计划”。
“这对人们的生活是毁灭性的,但我们仍然没有他说,这就像“狂野的西部”,在他的深度伪造视频在网上分享后,他感到“恶心”。
马丁·刘易斯在推特上提到了假视频:“警告。”这是犯罪分子试图偷钱的骗局。请分享。
Martin Lewis 呼吁政府和监管机构制止深度造假
'这太可怕了,这是我见过的第一个深度造假视频骗局。
'政府和监管机构必须加紧阻止大型科技公司发布此类危险的假货。人们会赔钱,会毁掉生活。”
在视频中,假刘易斯先生说:“埃隆·马斯克展示了他的项目,在该项目中,他已投资超过30亿美元。
“马斯克的新项目为英国公民带来了巨大的投资机会。从来没有一个项目为该国居民提供过这样的机会。”
真正的刘易斯先生告诉第四广播电台,这是他第一次看到自己的深度造假视频,他说看到它让他感到恶心,一定是有什么事情这样做是为了阻止骗子。
“这很奇怪,也很可怕,因为我的脸和名字在过去六七年里一直是诈骗广告的主题,我收到了无数每天都有报道,”刘易斯先生说。
冒充马丁·刘易斯 (Martin Lewis) 的假镜头 - 他说看到它时感到恶心
什么是 Deepfakes?
deepfakes 背后的技术由 Ian Goodfellow 于 2014 年开发,他是苹果公司特别项目组机器学习总监,也是该领域的领导者。
这个词源于术语“深度学习”和“假的”,是人工智能的一种形式。
该系统研究图片和视频中的目标人物,使其能够捕捉多个角度并模仿他们的行为和演讲模式。
该技术在选举季节受到关注,因为许多人担心开发人员会利用它来破坏政治候选人的声誉。
< !- - 广告:https://mads.dailymail.co.uk/v8/au/news/none/article/other/mpu_factbox.html?id=mpu_factbox_1 - ->广告'这是我在其中看到的第一个 Deepfake,这是我在其中看到的第一个 Deepfake 诈骗广告。
'我不做广告。我不做投资。”
这位省钱专家描述说,他曾经需要花 15 分钟说服一名男子,虚假广告是一个骗局。
p>'现在他们拥有视频和音频技术,可以完全复制我的脸和声音。我不认为它是完美的,但这是第一个。而且这项技术正在快速进步,坦白说这是可耻的。
'人们会赔钱,人们的心理健康也会受到影响。当人们被骗时,它会对福祉产生巨大影响。它这对人们的生活造成了毁灭性的打击,而我们仍然没有任何足够的监管来应对它。”
刘易斯先生说“外面有一片狂野的西部”在那里,”并补充说,当他看到复制自己形象的假视频时,他感到“说实话很恶心”。
他补充道:“这些人正在尝试毁掉我的名誉,以便从弱势群体那里偷钱。”
“我们需要做的是,通过确保大型科技公司 - Facebook、Instagram、Twitter 和 LinkedIn - 这些人如果不进行适当的广告审查,就会被处以巨额罚款。
'我们害怕这个国家的大型科技公司,我们需要开始对它们进行适当的监管。”
他补充道:“这个国家有很多人被骗了,对此我们没有采取任何措施。”
他鼓励人们检查深度造假的迹象。
马丁·刘易斯 (Martin Lewis) 还出现在《早安英国》节目中,称深度伪造视频是“绝对可怕的发展”。
他警告说,我们正在看到这项技术的早期阶段,但它只会变得“更好”。
如何发现深伪
1.不自然的眼球运动。看起来不自然的眼球运动——或者缺乏眼球运动,比如不眨眼——都是巨大的危险信号。以看起来自然的方式复制眨眼的动作是具有挑战性的。复制真人的眼球运动也具有挑战性。这是因为某人的目光通常会跟随与他们交谈的人。
2.面部表情不自然。当一张脸看起来有些不对劲时,这可能是面部变形的信号。当一张图像缝合在另一张图像上时,就会发生这种情况。
3.尴尬的面部特征定位。如果某人的脸指向一个方向而鼻子指向另一个方向,您应该怀疑该视频的真实性。
4.缺乏情感。如果某人的面部似乎没有表现出与他们所说的内容相符的情绪,您还可以发现所谓的“面部变形”或图像拼接。
5.身体或姿势看起来很尴尬。另一个迹象是一个人的体形看起来不自然,或者头部和身体的位置不合适或不一致。这可能是更容易发现的不一致之处之一,因为 Deepfake 技术通常关注面部特征而不是整个身体。
6.不自然的身体动作或体形。如果某人转向一侧或移动头部时看起来扭曲或偏离,或者他们的动作从一帧到下一帧不连贯且脱节,您应该怀疑该视频是假的。
7.不自然的色彩。异常的肤色、变色、奇怪的光线和错位的阴影都表明您所看到的可能是假的。
8.头发看起来不真实。您不会看到卷曲或飘逸的头发。为什么?假图像将无法生成这些个体特征。
9.看起来不真实的牙齿。算法可能无法生成单个牙齿,因此单个牙齿轮廓的缺失可能是一个线索。
10.模糊或错位。如果图像边缘模糊或视觉效果错位(例如,某人的脸部和颈部与身体相交),您就会知道出现问题。
11.噪音或音频不一致。 Deepfake 创作者通常会花更多时间在视频图像上,而不是音频上。结果可能是口型不同步、机器人般的声音、奇怪的单词发音、数字背景噪音,甚至没有音频。
12.放慢速度时看起来不自然的图像。如果您在比智能手机更大的屏幕上观看视频,或者拥有可以减慢视频播放速度的视频编辑软件,则可以放大并更仔细地检查图像。例如,放大嘴唇可以帮助您查看他们是否真的在说话,或者是否有错误的口型同步。
13.标签差异。有一种加密算法可以帮助视频创作者证明他们的视频是真实的。该算法用于在整个视频的某些位置插入主题标签。如果主题标签发生变化,那么您应该怀疑视频被操纵。
14.数字指纹。区块链技术还可以创造e 视频的数字指纹。虽然并非万无一失,但这种基于区块链的验证可以帮助确定视频的真实性。这是它的工作原理。创建视频后,内容将注册到无法更改的分类帐中。该技术可以帮助证明视频的真实性。
15.反向图像搜索。搜索原始图像或借助计算机进行反向图像搜索可以在线挖掘类似视频,以帮助确定图像、音频或视频是否已被以任何方式更改。虽然反向视频搜索技术尚未公开,但投资这样的工具可能会有所帮助。
澳洲中文论坛热点
- 悉尼部份城铁将封闭一年,华人区受影响!只能乘巴士(组图)
- 据《逐日电讯报》报导,从明年年中开始,因为从Bankstown和Sydenham的城铁将因Metro South West革新名目而
- 联邦政客们具有多少房产?
- 据本月早些时分报导,绿党副首领、参议员Mehreen Faruqi已获准在Port Macquarie联系其房产并建造三栋投资联