当前位置: 首页 > news >正文

#Datawhale AI夏令营第4期#AIGC方向 文生图 Task2

Task2任务:对baseline的代码有一个更加细致的理解,然后学习如何借助AI来提升我们的自学习能力.

前沿知识:了解一下 AI生图技术 的能力&局限

AI生图技术,通常指的是使用人工智能(尤其是深度学习)来生成图像的技术。这类技术可以用于多种应用场景,比如图像增强、艺术创作、虚拟角色生成、产品可视化等。AI生成图片的能力非常广泛,可以生成各种类型的图片。

根据描述生成的一张图片:一个充满未来感的城市夜景,高楼林立,霓虹灯闪烁。

示例如下(图片由通义生成)

能力

  1. 图像合成与创造

    AI可以根据给定的描述或者条件生成全新的图像,例如根据文本描述生成对应的图像。
  2. 风格迁移

    技术能够将一种图像的艺术风格应用到另一种图像上,实现风格的转换。
  3. 图像修复与增强

    对于模糊、损坏或分辨率低的图像,AI可以帮助恢复细节,提高清晰度。
  4. 个性化定制

    用户可以通过调整参数来自定义生成的内容,如改变图像中的颜色、样式或场景布局。
  5. 高效生成

    一旦模型训练完成,可以快速生成大量的图像,这对于需要大量视觉素材的应用非常有用。
  6. 多模态生成

    结合文本、音频等多种输入形式生成图像,增加交互性和多样性。

局限性

  1. 数据偏见

    AI生图模型可能会放大训练数据中存在的偏见,导致生成的内容有失公正。
  2. 创造性限制

    尽管AI可以生成新的图像,但它缺乏人类的创造力和想象力,很难完全模仿人类艺术家的独特风格。
  3. 细节缺失

    在某些情况下,生成的图像可能在细节上不够精确或存在逻辑错误。
  4. 计算资源需求高

    高质量的图像生成通常需要大量的计算资源,这对小型团队或个人用户来说可能是个挑战。
  5. 伦理和隐私问题

    使用AI生成人脸或其他敏感信息可能导致侵犯隐私和伦理问题。
  6. 版权问题

    生成的图像如果与已有的作品过于相似,可能会引发版权争议。
  7. AI翻车:
    我们现在还可以经常在各类自媒体的文章中看到“AI翻车”的案例,那些往往也是需要解决的难点,某些“翻车”现象,也许在业界已有相关的解决方案。

目前大部分的模型,已经具备了去除 “AI味” 的能力,且可能存在容易误导他人的情况,这时候我们想辨别可能需要非常仔细地——

  • 观察图片的细节。仔细检查人物的面部特征,尤其是眼睛和嘴巴

  • 检查光线和阴影。分析图片中的光源是否一致,阴影的方向是否与光源相符,是否存在不自然的光线或阴影

  • 分析像素。放大图片,寻找是否有模糊或像素化的部分。

  • 注意背景。检查背景中是否有不协调的元素,比如物体边缘是否平滑,背景中是否有不自然的重复模式。

而这些细节上的AI特性,也许就是我们在某些特定场景下需要解决的挑战。

补充:Deepfake技术

Deepfake技术是一种利用深度学习技术来创建高度逼真且难以甄别的音视频内容的方法。这项技术最广为人知的应用之一是换脸,即将一个人的脸部替换成另一个人的脸部,同时保持声音、面部表情和身体动作的一致性。Deepfake技术的核心是生成式对抗网络(Generative Adversarial Networks, GANs),它通过两组相互竞争的人工智能模型来生成几乎可以以假乱真的内容。

Part1:磨刀准备一一认识通义千问

通义千问是具有信息查询、语言理解、文本创作等多能力的AI助手。我们可以看到,编程与技术支持能力是它的强项之一。

主要功能模块:

  1. 对话,支持文字输入,文件上传等模式,我们本次课程主要使用当前模块;

  2. 效率,各种学习办公小工具;

  3. 智能体,通义的智能体应用市场,大家可以根据自己的需求找到很多有意思的小应用。

我们在学习中,遇到任务问题都可以向《通义千问》提问,AI时代,学习效率大大提升。通义千问就是我们日常学习工作的AI助手。

Part2:精读baseline——从零入门AI生图

1.分析代码的主题架构;

我们可以使用通义千问来辅助我们理解代码,原始代码如下:

!pip install simple-aesthetics-predictor!pip install -v -e data-juicer!pip uninstall pytorch-lightning -y
!pip install peft lightning pandas torchvision!pip install -e DiffSynth-Studiofrom modelscope.msdatasets import MsDatasetds = MsDataset.load('AI-ModelScope/lowres_anime',subset_name='default',split='train',cache_dir="/mnt/workspace/kolors/data"
)import json, os
from data_juicer.utils.mm_utils import SpecialTokens
from tqdm import tqdmos.makedirs("./data/lora_dataset/train", exist_ok=True)
os.makedirs("./data/data-juicer/input", exist_ok=True)
with open("./data/data-juicer/input/metadata.jsonl", "w") as f:for data_id, data in enumerate(tqdm(ds)):image = data["image"].convert("RGB")image.save(f"/mnt/workspace/kolors/data/lora_dataset/train/{data_id}.jpg")metadata = {"text": "二次元", "image": [f"/mnt/workspace/kolors/data/lora_dataset/train/{data_id}.jpg"]}f.write(json.dumps(metadata))f.write("\n")data_juicer_config = """
# global parameters
project_name: 'data-process'
dataset_path: './data/data-juicer/input/metadata.jsonl'  # path to your dataset directory or file
np: 4  # number of subprocess to process your datasettext_keys: 'text'
image_key: 'image'
image_special_token: '<__dj__image>'export_path: './data/data-juicer/output/result.jsonl'# process schedule
# a list of several process operators with their arguments
process:- image_shape_filter:min_width: 1024min_height: 1024any_or_all: any- image_aspect_ratio_filter:min_ratio: 0.5max_ratio: 2.0any_or_all: any
"""
with open("data/data-juicer/data_juicer_config.yaml", "w") as file:file.write(data_juicer_config.strip())!dj-process --config data/data-juicer/data_juicer_config.yamlimport pandas as pd
import os, json
from PIL import Image
from tqdm import tqdmtexts, file_names = [], []
os.makedirs("./data/data-juicer/output/images", exist_ok=True)
with open("./data/data-juicer/output/result.jsonl", "r") as f:for line in tqdm(f):metadata = json.loads(line)texts.append(metadata["text"])file_names.append(metadata["image"][0])df = pd.DataFrame({"text": texts, "file_name": file_names})
df.to_csv("./data/data-juicer/output/result.csv", index=False)dffrom transformers import CLIPProcessor, CLIPModel
import torchmodel = CLIPModel.from_pretrained("openai/clip-vit-base-patch32")
processor = CLIPProcessor.from_pretrained("openai/clip-vit-base-patch32")images = [Image.open(img_path) for img_path in df["file_name"]]
inputs = processor(text=df["text"].tolist(), images=images, return_tensors="pt", padding=True)outputs = model(**inputs)
logits_per_image = outputs.logits_per_image  # this is the image-text similarity score
probs = logits_per_image.softmax(dim=1)  # we can take the softmax to get the probabilitiesprobsfrom torch.utils.data import Dataset, DataLoaderclass CustomDataset(Dataset):def __init__(self, df, processor):self.texts = df["text"].tolist()self.images = [Image.open(img_path) for img_path in df["file_name"]]self.processor = processordef __len__(self):return len(self.texts)def __getitem__(self, idx):inputs = self.processor(text=self.texts[idx], images=self.images[idx], return_tensors="pt", padding=True)return inputsdataset = CustomDataset(df, processor)
dataloader = DataLoader(dataset, batch_size=8)for batch in dataloader:outputs = model(**batch)logits_per_image = outputs.logits_per_imageprobs = logits_per_image.softmax(dim=1)print(probs)import torch
from diffusers import StableDiffusionPipelinetorch.manual_seed(1)
pipe = StableDiffusionPipeline.from_pretrained("CompVis/stable-diffusion-v-1-4", torch_dtype=torch.float16)
pipe = pipe.to("cuda")prompt = "二次元,一个紫色长发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌,手持话筒"
negative_prompt = "丑陋、变形、嘈杂、模糊、低对比度"
guidance_scale = 4
num_inference_steps = 50image = pipe(prompt=prompt,negative_prompt=negative_prompt,guidance_scale=guidance_scale,num_inference_steps=num_inference_steps,height=1024,width=1024,
).images[0]image.save("example_image.png")
imagefrom PIL import Imagetorch.manual_seed(1)
image = pipe(prompt="二次元,日系动漫,演唱会的观众席,人山人海,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,舞台上衣着华丽的歌星们在唱歌",negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",cfg_scale=4,num_inference_steps=50, height=1024, width=1024,
)
image.save("1.jpg")torch.manual_seed(1)
image = pipe(prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,露出憧憬的神情",negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,色情擦边",cfg_scale=4,num_inference_steps=50, height=1024, width=1024,
)
image.save("2.jpg")torch.manual_seed(2)
image = pipe(prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,露出憧憬的神情",negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,色情擦边",cfg_scale=4,num_inference_steps=50, height=1024, width=1024,
)
image.save("3.jpg")torch.manual_seed(5)
image = pipe(prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙,对着流星许愿,闭着眼睛,十指交叉,侧面",negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,扭曲的手指,多余的手指",cfg_scale=4,num_inference_steps=50, height=1024, width=1024,
)
image.save("4.jpg")torch.manual_seed(0)
image = pipe(prompt="二次元,一个紫色中等长度头发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌",negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",cfg_scale=4,num_inference_steps=50, height=1024, width=1024,
)
image.save("5.jpg")torch.manual_seed(1)
image = pipe(prompt="二次元,一个紫色长发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌,手持话筒",negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",cfg_scale=4,num_inference_steps=50, height=1024, width=1024,
)
image.save("6.jpg")torch.manual_seed(7)
image = pipe(prompt="二次元,紫色长发少女,穿着黑色连衣裙,试衣间,心情忐忑",negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",cfg_scale=4,num_inference_steps=50, height=1024, width=1024,
)
image.save("7.jpg")torch.manual_seed(0)
image = pipe(prompt="二次元,紫色长发少女,穿着黑色礼服,连衣裙,在台上唱歌",negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",cfg_scale=4,num_inference_steps=50, height=1024, width=1024,
)
image.save("8.jpg")import numpy as np
from PIL import Imageimages = [np.array(Image.open(f"{i}.jpg")) for i in range(1, 9)]
image = np.concatenate([np.concatenate(images[0:2], axis=1),np.concatenate(images[2:4], axis=1),np.concatenate(images[4:6], axis=1),np.concatenate(images[6:8], axis=1),
], axis=0)
image = Image.fromarray(image).resize((1024, 2048))
image

这段代码包括1)安装和卸载Python包、2)数据处理、3)使用CLIP模型进行图像-文本匹配、4)创建PyTorch数据集和数据加载器、5)使用Stable Diffusion生成图像,6)最终合并这些图像。

2.逐行解析代码

这段代码主要完成以下功能:

  1. 安装和卸载一些Python包;

  2. 从ModelScope加载一个名为lowres_anime的数据集,并保存图像到指定目录;

  3. 创建并处理一个用于数据清洗的JSONL文件;

  4. 使用data-juicer工具过滤和处理数据集;

  5. 将处理后的数据集转换为CSV格式;

  6. 根据数据集通过DiffSynth做Lora微调;

  7. 加载Lora微调后的模型;

  8. 设置提示词,用微调后的模型生成图片。

Part3:实战演练一一基于话剧的连环画制作

我们假定一个剧本,具体的场景图片

1、女主正在上课

2、开始睡着了

3、进入梦乡,梦到自己站在路旁

4、王子骑马而来

5、两人相谈甚欢

6、一起坐在马背上

7、下课了,梦醒了

8、又回到了学习生活中

然后我们在通义千问的辅助下,生成提示词:

 我们再修改润色一下,最终得到的提示词如下:

图片编号

场景描述

正向提示词

反向提示词

图片1

女主正在上课

古风,水墨画,一个黑色长发少女,坐在教室里,盯着黑板,深思,上半身,红色长裙

丑陋,变形,嘈杂,模糊,低对比度

图片2

开始睡着了

古风,水墨画,一个黑色长发少女,坐在教室里,趴在桌子上睡着了,上半身,红色长裙

丑陋,变形,嘈杂,模糊,低对比度

图片3

进入梦乡,梦到自己站在路旁

古风,水墨画,一个黑色长发少女,站在路边,上半身,红色长裙

丑陋,变形,嘈杂,模糊,低对比度

图片4

王子骑马而来

古风,水墨画,一个英俊少年,骑着白马,上半身,白色衬衫

丑陋,变形,嘈杂,模糊,低对比度

图片5

两人相谈甚欢

古风,水墨画,一个英俊少年,白色衬衫,一个黑色长发少女,红色长裙,两个人一起聊天,开心,上半身

丑陋,变形,嘈杂,模糊,低对比度

图片6

一起坐在马背上

古风,水墨画,一个英俊少年,白色衬衫,一个黑色长发少女,红色长裙,两个人一起骑着马,全身

丑陋,变形,嘈杂,模糊,低对比度

图片7

下课了,梦醒了

古风,水墨画,一个黑色长发少女,坐在教室里,下课铃声响了,同学们开始走动,从睡梦中醒来,深思,上半身,红色长裙

丑陋,变形,嘈杂,模糊,低对比度

图片8

又回到了学习生活中

古风,水墨画,一个黑色长发少女,坐在教室里,盯着黑板,认真上课,上半身,红色长裙

丑陋,变形,嘈杂,模糊,低对比度

接下来我们运行baseline代码:

torch.manual_seed(0)
image = pipe(prompt="古风,水墨画,一个黑色长发少女,坐在教室里,盯着黑板,深思,上半身,红色长裙",negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",cfg_scale=4,num_inference_steps=50, height=1024, width=1024,
)
image.save("1.jpg")

 效果展示如下:

小伙伴们,喜欢的话,点赞收藏关注吧。 

相关文章:

  • 前端面试题整理-Javascript
  • 凤凰端子音频矩阵应用领域
  • 【问题解决】git status中文文件名乱码
  • #laravel部署安装报错loadFactoriesFrom是undefined method #
  • WordPress原创插件:Download-block-plugin下载按钮图标美化
  • 力扣面试经典算法150题:罗马数字转整数
  • 【JavaEE初阶】线程池
  • [LitCTF 2024]exx
  • 「MyBatis」实现留言板
  • LVS服务的搭建之NAT模式、DR模式的搭建实战
  • 情绪电商的数字化营销方法适用行业大揭秘
  • Linux的安装和使用
  • 使用RestHighLevelClient进行Elasticsearch Function Score查询
  • 【喜报】祝贺青创智通签约广州进德生物科技SunFMEA项目
  • JavaSE 网络编程
  • ABAP的include关键字,Java的import, C的include和C4C ABSL 的import比较
  • ES6之路之模块详解
  • JavaScript 事件——“事件类型”中“HTML5事件”的注意要点
  • JSONP原理
  • leetcode386. Lexicographical Numbers
  • mysql 5.6 原生Online DDL解析
  • Netty 框架总结「ChannelHandler 及 EventLoop」
  • ReactNative开发常用的三方模块
  • RedisSerializer之JdkSerializationRedisSerializer分析
  • Redux系列x:源码分析
  • Vue.js 移动端适配之 vw 解决方案
  • 动态规划入门(以爬楼梯为例)
  • 二维平面内的碰撞检测【一】
  • 异步
  • 数据库巡检项
  • ​数据链路层——流量控制可靠传输机制 ​
  • !! 2.对十份论文和报告中的关于OpenCV和Android NDK开发的总结
  • (16)Reactor的测试——响应式Spring的道法术器
  • (DenseNet)Densely Connected Convolutional Networks--Gao Huang
  • (PyTorch)TCN和RNN/LSTM/GRU结合实现时间序列预测
  • (定时器/计数器)中断系统(详解与使用)
  • (二) 初入MySQL 【数据库管理】
  • (剑指Offer)面试题41:和为s的连续正数序列
  • (九)c52学习之旅-定时器
  • (转)ObjectiveC 深浅拷贝学习
  • (转载)Google Chrome调试JS
  • ./configure、make、make install 命令
  • .NET MVC第三章、三种传值方式
  • .NET程序集编辑器/调试器 dnSpy 使用介绍
  • .NET分布式缓存Memcached从入门到实战
  • .NET中 MVC 工厂模式浅析
  • .NET中两种OCR方式对比
  • .project文件
  • @Autowired 与@Resource的区别
  • @德人合科技——天锐绿盾 | 图纸加密软件有哪些功能呢?
  • []利用定点式具实现:文件读取,完成不同进制之间的
  • [C]整形提升(转载)
  • [C++]运行时,如何确保一个对象是只读的
  • [C++参考]拷贝构造函数的参数必须是引用类型
  • [CSS3备忘] transform animation 等