Автор: MastaMan
Дата: Октябрь 30, 2024
Обновлено: Ноябрь 7, 2024

Вступление

Я решил продолжить развивать тему AI и как это помогает в работе 3D художнику. 
Предыдущая статья “Как Chat GPT и DALLE могут помочь 3D-художникам в ихней работе”, вам очень понравилась и много пользователей написало интересные комментарии к этой статье.

Как Chat GPT и DALLE могут помочь 3D-художникам в ихней работе

В данной статье будет показано более предметно, как можно использовать генератор картинок прямо в 3Ds Max благодаря tyDiffusion. Где в результате мы получим реалистичный задний план за несколько кликов с минимальными усилиями.

tyflow tydiffusion mainimage 1
Loading...

Предисловие

Во время сотрудничества с MaryGold Studio, мне удалось пообщаться с некоторыми из их сотрудников. Рассказывая о своих проектах, они показали несколько невероятных рендеров.

Разговор неловко превратился в интервью, но мне удалось узнать некоторые секреты. Большое спасибо Oleh за предоставленную информацию и желание поделиться такими крутыми знаниями с аудиторией.

Если вам интересен сам мастер-класс, можете пропустить следующий диалог.
Oleh показывает рендеры последних проектов.

MastaMan: Как вам удается создавать настолько потрясающие картинки таких масштабов. Картинка выглядит гипер-реалистично и что больше всего меня поражает насколько проработан задний план!

Oleh: Да, это стало возможным, благодаря последним технологиям AI.

MastaMan: О, это интересно. Вы наверное используете Stable Diffusion?

Oleh: И да и нет. Мы используем tyDiffusion от плагина tyFlow на основе Stable Diffusion и генерируем картинки прямо в 3Ds Max, непосредственно во Viewport.

MastaMan: Ого, я даже не знал что можно генерировать картинки прямо во Viewport.

Oleh: Но это еще не все, мы также используем платный инструмент Magnific AI.

MastaMan: Вы используете его в связке с tyDiffusion?

Oleh: Да, он помогает исправить некоторые “косяки” после tyDiffusion.

MastaMan: А насколько сложный процесс генерации например заднего плана для рендера?

Oleh: На самом деле весь процесс несложный, нужно знать некоторые базовые настройки и правильно составить Prompt.

MastaMan: Я так понимаю скоро AI станет неотъемлемой частью в работе 3D художника, инструменты стают все проще и доступней.

Oleh: Это естественный процесс, и все к этому идет. Но есть моменты, связанные с рутиной и пока от них нельзя избавиться.

MastaMan: Это можно решить написанием скрипта?

Oleh: Думаю, да. Проблема в том, что после генерации мы получаем картинку в PNG формате с размером файла больше 100 Мб и применить такой материал к заднему фону проблематично, он просто не отображается.

MastaMan: О, я сталкивался с такими проблемами, скрипт как раз идеально справится с этой задачей.

Oleh: Так процесс создания заднего фона будет реально простым! Давай назовем скрипт - AI Texture Projection.

Генерация фонового изображения города при помощи tyDiffusion для ваших рендеров



Для работы нам понадобятся предустановленный tyFlow с tyDiffusion. Этот инструмент можно скачать бесплатно.

Если у вас возникают сложности, есть отдельное видео, где это показано. Все необходимые ссылки я прикреплю в конце статьи.

Подготовка

Необходимо подготовить сцену, перед генерацией картинок. Вы можете просто назначить цвета на определенные объекты, чтобы дать понять AI, где у нас протекает река, где расположена трава и зеленые зоны, дороги, здания и т.д. Таким образом мы без потери качества генерации может сэкономить время на рендере начального кадра с которого будем производить генерацию.

Как видите на скриншоте ниже, в сцене присутствует довольно массивная застройка, именно того района для которого создавался конечный рендер. Вы можете использовать в своих проектах 3D модели от Google Maps или платных сервисов, которые предоставляют такие услуги.

Мы не будем акцентировать на этом внимание, поскольку цель данного мастер-класса показать основные принципы работы с AI.

whole city in 3dsmax
Loading...

Для лучшего понимания, ниже приведен скриншот того, что мы должны будем получить.

what we should prepare first
Loading...

Выставление камеры и поиск освещения

В данном рабочем процессе мы генерируем задний план и окружения, поэтому нам надо определить, где проходит граница где мы будем использовать плоскость с текстурой фона, а где оставим высоко-полигональные модели.

Все зависит от вашего ракурса и ситуации. В данном примере, река будет будет границей, поэтом строим плоскость вдоль береговой линии.

При этом важно чтобы наша плоскость была достаточно полигональной, для правильной проекции UVW при помощи модификатора от tyFlow.

plane for the projection background texture
Loading...

Выставьте освещение, такое же как и в будущей сцене. Для того, чтобы сгенерированное изображение AI точно совпадало с вашим освещением.

test render for finding lightning
Loading...

Рендер ракурса для генерации

Спрячьте созданную ранее плоскость и другие объекты, которые не должны попасть в кадр.

Хотя, tyDiffusion генерирует изображение не больше 1280px по одной из сторон, рендер данной картинки необходимо делать в высоком разрешении, чтобы предоставить AI как можно больше деталей, это напрямую влияет на результат генерации.

test render of city
Loading...

Запуск tyDiffusion

Вот мы и добрались к самому интересному. Для запуска tyDiffusion, нажмите на выпадающее меню Viewport: StandardtyDiffusion

После чего у вас запустится терминал Windows (Command Prompt), где запуск всех необходимых процессов будет произведен автоматически.

Если вы еще не устанавливали плагин tyFlow, перейдите в конец статьи, там вы найдете ссылку на видео по быстрой установке данного плагина.

run tydiffusion
Loading...

Базовые настройки tyDiffusion

Promt

Здесь мы прописываем позитивные и негативные подсказки (Prompts) для AI. Основная часть подсказки должна содержать по-предметное описание, которые мы должны получить. 

Также необходимо написать некоторые свойства чтобы улучшить качество генерации. Укажите негативный Prompt, это поможет избежать некоторых артефактов при генерации.

tydiffusion prompt
Loading...

Models

В Basic settings, мы выбираем модель, которая идет в поставке вместе с tyDiffusion. Список моделей небольшой, но достаточный для хорошего результата. Мы будем использовать Juggernaut Reborn (1.5).

choose model juggrnaut reborn
Loading...

VAE (Variational Autoencoder)

Один из важных компонентов tyDiffusion, который используется для сжатия и декодирования изображений в процессе обработки. По-умолчанию настройки неплохие, но рекомендую поэкспериментировать с дополнительными вариантами.

vae autoencoder
Loading...

Resolution

Рекомендую использовать значения, на которых обучалась модель, но можно экспериментировать.

1730313114
Loading...

Mode

Тип генерации. В нашем случае выбираем Image to image.

tydiffusion set mode
Loading...

Source

Источник информации. Выбираем Render Color.

Sampler

Здесь оставляем все по-умолчанию.

Conserve VRAM

Выбираем этот флажок, если у вас мало видеопамяти. У меня 24Гб и без нее вылетает программа.

Steps

Количество проходов модели во время просчета, для теста 20, для финального результата 100+.

CFG scale (Classifier-Free Guidance Scale)

Это важный параметр в tyDiffusion, который отвечает за баланс между творчеством и точностью изображения согласно Prompt.

По сути это контроль, насколько сильно модель будет следовать вашей текстовой инструкции.

tydiffusion cfg scale
Loading...

Denoise

Параметр Denoise определяет степень изменений во время каждого из шагов. Например, если вы хотите сохранить общий вид уже созданного изображения, но добавить новые элементы, уменьшение параметра Denoise поможет вмешиваться минимально.

Этот параметр дает возможность пользователям получить больше контроля над конечным результатом, в зависимости от того, насколько вы сильно хотите вмешиваться в процесс модификации изображения.

Seed

Вариативность генерации. Вы всегда можете вернуться к предыдущему варианту указав точный Seed.

Настройка ControlNet для точной генерации

Depth

Данный модуль использует карту глубины, что помогает модели лучше понимать пространство и расстояние объектов от камеры.

Edge

Работает с контурами и линиями на изображении, чтобы контролировать форму или границы объектов. Это идеально подходит для генерации четко очерченных структур или силуэтов.

IP-Adapter

Адаптивный модуль, настраивает модель на работу с изображениями, сгенерированными через другие источники, сохраняя их ключевые черты, но давая влиять на конечный результат.

Bake Result

После того как вы нажали Generate image и ваше изображение появилось во Viewport, выбираем нашу плоскость и нажимаем кнопку Bake result, как показано на скриншоте ниже. Таким образом мы сохраним это изображение на наш компьютер.

tydiffusion bake result
Loading...

Скрипт AI Texture Projection

Воспользуемся скриптом от MastaMan - AI Texture Projection, который поможет создать материал с запеченной текстурой фона.

Кроме того этот скрипт поможет сжать изображение и со 100 Мегабайт до нескольких Килобайт, что позволяет без проблем отображаться материалу во Viewport и корректно рендерится.

Скачать AI Texture Projection

Скачайте архив и извлеките скрипт. Перетяните MG AI Texture Projection.ms во Viewport, чтобы запустить скрипт. Или же перетяните во Viewport скрипт Install.mcr, если вы хотите добавить кнопку на панель инструментов или Quad Menu.

run mg ai texture projection
Loading...

В Projection Image выбираем сгенерированное изображение заднего фона, во Viewport выбираем нашу плоскость или объект для которого мы делали запекание. Нажимаем кнопку Project On Object. Готово!

Картинка будет применена к плоскости и теперь можно из сцены удалить целый город, что значительно облегчит нашу сцену.

project generated image to our plane
Loading...
render result
Loading...

Конечный результат

Таким способом вы можете иметь проработанное изображение заднего фона даже на этапе Drafts, значительно облегчить сцену и ускорить рендер.

Если вам интересна тема AI и хотите узнать какие еще есть способы его применения, заходите на Patreon, где Oleh делится отличными видео и личным опытом. Ссылка на Patreon будет в конце статьи.

Результат до tyDiffustion

result before tydiffusion
Loading...

Результат после tyDiffusion

result after tydiffusion
Loading...

Если вам интересен такой формат, где большие компании рассказывают о своей “кухне” и вам интересно техническое интервью, обязательно напишите об этом в комментариях!

Заключение

Благодаря современным технологиям и tyDiffusion AI, вы можете создать реалистичный задний план за считанные минуты.

Это позволит не только разгрузить вашу сцену и ускорить рендер, но и вывести качество ваших картинок на новый уровень! И все это непосредственно делается не выходя из 3Ds Max!

Понравился результат или хотите рассказать про свой опыт использования AI – делитесь в комментариях. Будет интересно почитать!

https://pro.tyflow.com/#lets-go
https://docs.tyflow.com/tyflow_AI/tyDiffusion/installation/
https://www.patreon.com/posts/eng-ai-artist-1-111719490
https://www.patreon.com/c/visualpraxis/posts
https://marygold-studio.com/


{{commentsMsg}}
  

Никто не оставил комментариев
{{comment.lastname}} {{comment.name}} {{comment.date}}
{{comment.text}}
Sponsored content