Но вообще, да, наверное стоит заняться созданием гайда для реактора.
Зато если он придёт на реактор и спросит "поч не работает", я вот лично хз что ему ответить, потому что инвок я в глаза не видывал.
Генерить только на картах от nvidia, если у тебя не зелёная карта - страдать, попутно ебясь и поплясывая с бубном.
Открываешь вики, штудируешь.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki
Читаешь Install, читаешь Optimization.
Всё разжёвано и сделано для человека даже без мозгов (если не шпрехаешь английский, юзаешь гугл транслейт), когда я начинал, 90% всех приколюх либо не существовало, либо было закопано в глубины интернета.
Модели все складируются на civitai.com, каждая модель особенная и со своими заморочками, тут решает только опыт работы с конкретной моделью, лорой, TI.
Все дополнительные приколы типа контролнета и tiled diffusion качаются прямо из ГУЯ СДшки, там всё просто.
В плане чего? Как установить? Или уже вот эти фортеля с контролнетом и апскейлами?
Делай в три этапа. Первый - батч из нескольких картинок разрешение не выше чем у модели. Затем выбираешь подходящую и гонишь её через hirez.fx апскейля х2, затем img2img также х2, оставляя *только* теги качества и лору на энханс картинок с 0.2-0.3 денойзом, либо 0.4 денойзом, но с контролнетом canny. Вот и всё.
Какая видюха и сколько времени ушло на генерацию этой картинки?
Ну во-первых не символов, а токенов, во-вторых, не 75 а уже давно 150, а в-третьих BRAKE надо пользоваться чтобы например вручную отделять логические части изображения, самый простой пример: отдельно персонаж, отдельно описане заднего плана.
>Это конечно больше рекомендованных 512-768 в базе, но всё таки.
Именно что больше.
>Апскейл с денойзом через img2img для себя обрисовал как неудачный опыт, ибо видно склейки тайлов при апскейле х4, если подскажешь как пофиксить - будет круто
Tiled Diffusion, качается из экстеншенов. Ну и х4 - это уже какой-то оверскейлинг, нафига тебе это? Ты там картинку на плакат во всю стену делаешь?
Вне скобок :1 не работает.
>Рендерю базовое изображение в 900х120
Просто рукалицо. Все три модели, что ты упоминаешь не XL, а миксы, которые ВСЕ произрастают корнями либо из SD 1.5 у которой квадрат 512х512, либо из NAI, у которой квадрат 768х768.
А ещё меня очень улыбает, когда ты сначала пишешь про "портретный 3:4", при этом сам генеришь не портрет, а персонажа до середины бёдер и поэтому получаются разные наклонённые позы.
>выше шанс мутаций
Мутации (двойные персонажи, неестественно вытянутые тела и т.д.) у тебя как раз и произрастают из того, что ты заставляешь нейронку генерить базовую картинку в разрешении большем, чем она обучена. Она не умеет бить на тайлы без Tiled Diffusion, который вообще уже давно должен быть по умолчанию в UI от Аутоматика.
>мелкие детали вроде глаз или шерсти превращаются в мыло
Так а тебе и не надо в базе чтобы было сразу красиво. Ты просто делаешь батч из 6-10 картинок, выбираешь подхоящую по композиции *в целом* и уже тогда её по номеру сида гонишь через Hirez.fx либо апскейлишь с небольшим денойзом в img2img.
Ещё из советов: выкинь ADetailer нафиг, он меняет стиль на применяемых частях тела, а все косяки правь через инпеинт. Скачай любой энхансер деталей и подбирай нужную силу для своей модели, тогда и будет тебе красивый мех. Проштудируй хотя бы вики от Аутоматика, там много базовой инфы. Научись пользоваться BRAKE для разделения промпта.
>Sampling method: я буду использовать UniPC
>Sampling steps: я буду использовать 75 шагов.
>Width и Height: 600х800, портретный формат 3:4
>прост тупой, не смог разобраться как пользоваться другими инструментами
Да и с этими тащемта тоже...
Семплер UniPC специально создан для того, чтобы делать удовлетворительные результаты за малое число шагов, к тому же, он нормально не работал например с Tiled Diffusion. Я уж не говорю про то, что больше шагов =/= лучше.
Размер по бОльшей стороне 800, когда все модели тренятся 768 максимум - это вообще победа.