办事指南

“经济学人”解释说,“假新闻”可能会变得更糟吗?Rick Astley刚刚放弃了吗? 2017年7月7日

点击量:   时间:2017-10-19 13:18:03

RICK ASTLEY是着名的他1987年的单曲“Never Gonna Give You Up”在YouTube上的播放次数超过了330万次但去年2月,阿斯特利先生(如图)沉迷于一个相当奇怪的实验这位歌手看起来非常类似于他80年代后期的自我,他演唱了自己的热门歌曲,但按照音调的顺序唱了整首歌这首歌的视频出现在YouTube上,以一种非常规的方式进行阿斯特利先生混淆了不同的声音,从低沉的低音到尖锐的三分半钟关于明显噱头的唯一连贯点是从低音到高音音符的演变 - 除此之后他最后会回到低音这真的发生了吗不,阿斯特利先生并没有改写他的歌一位名叫Mario Klingemann的艺术家使用了聪明的软件视频是生成媒体的一个特别明显的例子,它使用快速和基本的技术更复杂的技术即将能够生成任何人说什么的可靠视频和音频这取决于称为机器学习的人工智能(AI)技术的进步,该技术允许生成图像和音频一种特殊的设置,称为生成对抗网络(GAN),通过设置一个软件(生成网络)来重复尝试创建看起来真实的图像,而另一个软件(对抗性网络)是反对派对手查看生成的图像并判断它们是否“真实”,这是通过与生成软件训练数据库中的相似度来衡量的在试图欺骗对手时,生成软件从错误中学习生成的图像目前需要巨大的计算能力,并且只能以低分辨率工作目前升级您的收件箱并获取我们的每日调度和编辑推荐自从他们的发明以来,图像和音频几乎被操纵但是,较旧的假货是通过剪切照片底片中的碎片,将它们与其他人合并,然后制作一个新的印刷品新技术非常不同通过摆弄电影或使用照片编辑软件来篡改图像和音频需要技巧但是生成软件可以根据简单的指令自动生成伪造品以这种方式生成的图像可以欺骗人类,也可以欺骗计算机使用编辑软件进行修改的图像中的某些像素与现实世界中预期的不匹配生成的图像,因为它们的创建需要说服一个检查这种统计异常的对手,不包含这些伪造的迹象生成的图像也是内部一致的,几乎没有篡改的迹象这种伪造不太可能对政客或其他强有力的行为者造成太大伤害像这样的材料在公共场合进行审查假货将通过其他方式识别,例如通过检查所描述的情况并将其与人的动作交叉引用媒体也可能会开始提供元数据(例如时间,日期,录制位置)来证明其真实性,因为这样做更难以伪造但是小规模的假货 - 一个同事做一些令人尴尬的事情,或者一个不喜欢的同事说老板粗鲁的东西 - 不受同样的审查,将更难检查如果没有办法验证录音,个人可能会发现自己没有多少选择,只能不信任一切更正(7月7日):