Stable Diffusion – это нейросеть от группы студии Stability.ai с открытым исходным кодом, которая позволяет генерировать изображения на основе текстового запроса, а также дорисовывать наброски и редактировать исходные картинки.
Генерация изображений
- Stable Diffusion может качественно генерировать изображения на основе текстового запроса.
- Она работает не с пикселями, а со сжатыми версиями изображений. Это экономит время и мощности компьютера.
Различные стили
- Stable Diffusion знает стили всех художников — от времен ренессанса до современных авторов концепт-артов в видеоиграх.
- Можно генерировать картинку одновременно в стиле Ван Гога и NFT-артиста Beeple.
Открытый исходный код
- Stable Diffusion вышла в публичный доступ в августе 2022 года.
- Открытый исходный код позволяет установить Stable Diffusion на свой компьютер и использовать собственные вычислительные мощности.
Использование в различных приложениях
- Благодаря открытому исходному коду модель можно использовать в разных приложениях, где требуется работать с изображениями.
- Так, в веб-редакторе изображений Canva и программе для 3D-моделирования Blender уже работают функции генерации картинок по текстовому описанию.
Кроме SD на курсе мы изучим Midjourney – нейросеть, которая генерирует изображения по описанию и объединяет несколько картинок в одну.
Также вы научитесь создавать описания персонажей с помощью текстовых нейросетей ChatGPT и Bing
Навыки, которые вы получите на курсе:
- Научитесь основам создания запроса.
- Добавите сгенерированный в нейросети концепт персонажа.
- Научитесь применять в работе ряд плагинов
- Узнаете об особенностях и нюансах генерации.
- Сможете производить генерации на основе собственных скетчей/концептов, а также модифицировать уже существующие работы.
- Полностью освоите пайплайн по созданию концепта персонажа с использованием нейросетей.
- Научитесь находить более оптимальные способы генерации изображений, увеличивать разрешение любого вида картинок с увеличением их детализации.
Программа курса:
1. Установка и настройка UI пространства
- В начале обучения мы установим Automatic1111, освоим базовый интерфейс и режим генерации изображений через текст.
- А также подключим вспомогательные плагины.
2. Вкладки Img2img, Inpaint, Extras, и SD Upscale
- В этом блоке мы научимся пользоваться режимами по генерации на основе изображений, модификации отдельных участков, а также по увеличению разрешения.
3. Модели embeddings и Loras
- Здесь мы рассмотрим виды и особенности моделей разных типов. Научимся эффективно их использовать.
4. Основы генерации
- В середине обучения мы углубимся в принципы работы с нейросетью, узнаем ее скрытые возможности.
5. Обучение модели Lora
- В этом блоке мы научимся создавать собственную модель Lora для генерации любой стилистики и концепции.
6. Создание концепта для дизайна персонажа
- В шестом блоке мы создадим описание персонажа посредством ChatGPT, научимся создавать концепт через текст, скетч и с помощью нейросети MidJourney.
7. Детализация и финализация
- На финальной стадии мы освоим создание высокой детализации и разрешения через плагины: ADetailer, Tiled Diffusion и Ultimate SD Upscale.
- А также доделаем концепт персонажа.
8. Дополнительные плагины
- В последнем блоке мы рассмотрим дополнительные возможности и плагины Automatic1111.