看到这张图,你的第一想法是什么?
——那么这张呢?
是的,不知道你看没看出来,这两张图均为AI绘图软件Midjourney V5.2所生成的AI作品。
但老实说,在看第一张图片时,我还在为其中过于完美的皮肤和头发细节质疑这到底是不是AI作品;
而当看到第二张图片的时候,我已经毫无怀疑的觉得——这是一张真实的画作了。
自从前几个月Midjourney更新到第五个版本(目前已更新到v5.2)之后,AI作品的最后一道难题——“AI不会画手”也随之被攻克。
你会发现,最近的AI图片的细节越来越完善,似乎看不出一点问题。
AI图片和真实作品的边界,似乎已经变得越来越模糊了。
AI学会画手前后
但在另一边,随着AI作品越来越难以分辨,关于AI作品是否造成侵权的问题也变得愈加严峻。
还记得去年12月的时候,由于最大的艺术作品网站Artstation由于公开支持上传AI作品,遭到了艺术家们的集体抵制;
Artstation的事件可以说是打响了艺术家反AI的第一枪
而当AI这股风吹到了国内,国内的画师们也因为平台侵权等问题在Lofter、小红书上掀起了一场反AI的抗议,到如今依旧有很多用户呼吁停止利用AI进行创作。
当时Lofter的版面
为了避免自己的作品被拿去“炼丹”,不少画师试图用投喂“鬼图”的方式污染AI数据库。但由于计算机算法和人力的速度相差悬殊,画师们试图以自发行动来影响AI的行为,似乎也有些“以卵击石”了。
那么,既然AI绘图是基于互联网技术进行的,那么有没有可能,大家也可以利用这种技术来“反AI”呢?
你别说,最近还真的有人做出了一款专门用来给AI“投毒”的工具——Nightshade。
Nightshade是芝加哥大学团队开发的一款数据污染工具,可以用来反击“AI在未经创作者允许的情况下利用其作品来训练模型”的这种行为。
那么它要如何污染AI数据库,从而影响AI生成的作品呢?
——直白点讲,就是给AI“投毒”。
类似于创作者们给数据库喂“鬼图”的行为,这个工具可以给画作打上一种“隐形”的标记,意为“下毒”。而一旦这些被下了毒的画作被非法抓取到数据库中进行训练的话,那么这整个训练模型就会“中毒”,生成一些“文不对题”的混乱图片。
例如,当用正常的AI训练模型,它或许能够给你生成一张满意的图片。而当你在数据库被污染之后再进行训练,那么它输出的可能是类似于“狗变成猫”、“车变成牛”这类和需求完全无关的图像。
使用AI生成狗的图片
使用AI生成车的图片
没被污染的AI图(前)被污染后的AI图(后)
同时,随着这些图片的“毒效”增强,生成的图片也会变得更加千奇百怪。当数据库里有50张“毒图”时,生成的图片就会变得和需求不一样;而当库里足足有300张毒图时,生成的图片则会完全不相关。
从上往下依次为没被污染,50张、100张、300张毒图输出的图片
而这个“下毒工具”厉害到连图片的风格都能改变,如果数据库中的毒性够大,你甚至能够看到类似“奇幻风格到点彩画法”、“卡通画风到印象派”这样的转变——不得不说,这生成的图片和原来的需求不能说是完全不同,只能说是毫不相关了。
奇幻→点彩
抽象派→动漫
卡通→印象派
在如此强大的反AI工具公布之后,自然也引起了创作者圈子中的一场轰动。
不少创作者都开始自发的分享并介绍起了Nightshade,希望大家能够好好利用这个工具,能够在和AI的这场战争中打一个好的“翻身仗”。
也有很多网友表示,即便自己迫于需求使用AI工具,但是也很高兴能够看到出现制衡AI侵权现象的工具,能够让AI“问心无愧”的生成大家真正需要的作品。
但在另一方面,由于AI技术发展得实在是太快了,所以不少人对这个尚未成熟的技术还是报以消极的态度。
有不少认为,既然可以“下毒”,那么肯定还有“解毒”的方法。所以通过对图片下毒的方式,最终或许也会被使用AI工具的人们逆向解决。
而从长远来看,这种使用技术反击的方式只会成为创作者们无法承受的“军备竞赛”——利用互联网技术互相制衡,但无论结局怎样,最后都会两败俱伤。
就好像《赛博朋克2077》中的故事一样,为了抵御流窜的AI,人们建立起一道“黑墙”隔绝现实和失控的网络空间。但没有什么防火墙是绝对可靠的,随着技术的升级,这道墙必然在内外的斗争中不再牢固。
而要说创作者与AI之间的这场拉锯战,是否会如“黑墙”内外的人们一样,持续进行科技发展下的较量?我们不得而知。
《赛博朋克2077》中的黑墙
但无法否认的是,在这段时间里,这个给AI作品“下毒”的工具,一定能够成为创作者们反击AI侵权行为的有力武器。