机器之能报道
今年,生成式 AI 模型爆火出圈,在文本生成领域有 ChatGPT、GPT-4、LLaMa 系列模型等;在图像生成领域有 Midjourney、Stable Diffusion XL 等等。其中,Midjourney 因生成效果逼真而受到高度关注,用户更是解锁了很多有趣的玩法。
现在,Midjourney 又宣布推出一个全新的功能 Inpainting—— 修改图像的部分区域。具体来说,Midjourney 上现在有一个新的按钮「Vary (Region)」,使用该功能,用户可以选中想改变的区域,输入新的文本 prompt,直接用文本修改图像。
这个新功能上线仅一天,就有很多用户尝试使用并分享了自己的生成结果。例如,有网友把一张图像中的红色汽车换成绿色汽车:
还有网友脑洞大开,让马斯克「长出」满头白发:
一位名为 Ray Wong 的网友尝试将图像中墙上的挂画替换成「帝国大厦」的风景照。
在 Vary (Region) 的编辑页面,他首先选中挂画区域,然后输入文本 prompt:「Framed photo for the Empire State Building(帝国大厦的镶框照片)」:
Midjourney 生成的结果如下图所示。值得注意的是,Ray Wong 在选中图像区域时,覆盖到左边的落地灯,在生成结果中,Midjourney 准确地将「帝国大厦镶框照片」放在落地灯后面的墙壁上作为背景,落地灯保持完整可见。
有趣的是,Ray Wong 还对这张图像做出另一个修改:「在右侧的橘色椅子上放一只猫」,结果是生成了一个坐在地上的小猫,并且小猫看起来有点「凶」。
还有网友尝试把图像中的指定对象「移除」这也是图像编辑中常见的一项任务。现在,只需要用文本 prompt:「empty landscape」就可以轻松解决:
此外,Midjourney 这个全新的功能还能够同时修改图像的多个部分。例如有网友将一排苹果中的几个改成了橙子,注意选择苹果下方的反射区域,会让新生成的橙子在桌面上也有反射倒影。
在上面的例子中,同时选中的多个区域都变成了相同的橙子。有网友提问:「是否可以同时选中多个区域,并在这些区域分别填充不同的指定对象?」对此,Midjourney 给出的回答是「您可以执行该变换操作两次」。看来,Midjourney 暂时还不能同时给多个区域填充不同对象。
不得不说,Midjourney 这个新功能在一定程度上可以替代图片的 Photoshop 处理工作(PS),并且更加简捷方便,只需要用户文本描述出图片编辑需求。有人迅速对比了 Midjourney 和 Photoshop 的处理效果。
在这份比较中,我们可以发现 Midjourney 的图像处理效果还是略逊于 Photoshop。例如,在下图的「换装」示例中,Midjourney 和 Photoshop 的处理效果都很好,但也许是受选中区域的影响,仔细观察会发现左侧 Midjourney 的生成结果中人物的头发变长了。
还有给图像上添加一辆跑车,右边 PS 的结果显然看起来更加真实:
看来,Midjourney 的新功能 Inpainting 还有一些要改进的地方,取代 Photoshop 还需要一些时间。
参考链接:https://twitter.com/_Borriss_/status/1694029746936451146
机器之心主办的「Llama 2大模型算法与应用实践」论坛,拆解以 Llama 2 为代表的大模型算法和应用,帮助你系统学习大模型算法理论,并上手搭建一个专属大模型,在实践中巩固学习成果。
你将了解:大模型技术细节、行业落地案例、多模态改造、量化及低成本微调……
想要参加但还在犹豫?机器之心限时开放「拼团」模式,让更多开发者顺利组团,享受优惠价格。赶快扫描下图二维码报名加入!