Это копия, сохраненная 8 октября 2022 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Стабильно диффундируем
========================
Предыдущий тонет тут: >>275426622
Архивач https://arhivach.ng/?tags=13839
https://rebrand.ly/arhivach_SD
========================
StableDiffusion - некстген нейросеть для генерации картинок из текста и исходных картинок, обучения на своих изображениях.
📖WiKI по StableDiffusion: https://wiki.installgentoo.com/wiki/Stable_Diffusion
Сайт проекта: https://beta.dreamstudio.ai/dream
На официальном сайте можно зарегаться на фейкопочту и генерировать картинки.
✏️ Как пользоваться сайтом: https://teletype.in/@stablediffusion/dreamstudio
------------------------------------------
🚽 Другие простенькие сервисы для генерации картинок без регистрации:
https://mage.space/ - без цензуры, но медленно и мало настроек
https://hf.space/embed/stabilityai/stable-diffusion/+ - тут цензура, но работает шустро и без регистрации
Бот в телеге: @StableDiffusionWrapperBot (крутится у анона на компе с rtx3060 12гб, имейте совесть)
🔞 Без цензуры и полный функци_анал: только Colab и ПК-версия
==========================================
⚠️ ИНФА ПО РАЗЛИЧНЫМ ПАРАМЕТРАМ И КЛЮЧАМ ПРОМПТА ⚠️
📊 Таблички показывающие как разные сэмплеры и количество итераций влияет на результат:
https://teletype.in/@stablediffusion/samplers_steps
📃 Читаем как составить запрос (промпт)
🎨 Художники, стили, ключи, немного о порно: https://teletype.in/@stablediffusion/artists_for_prompts
🎲 Простенький генератор/подборщик промтов: https://hf.space/embed/Gustavosta/MagicPrompt-Stable-Diffusion/+
==========================================
Пример простого, но хорошего запроса:
> photo, fronal (((full body))) portrait of very (((wrinkled))) old man, poop on face, in a dark dirty ((dungeon)), ((((eating poop)))), bokeh, shot from dslr, cinestill by thing and cronenberg, perfect faces, fine details, high textures, ultra hyper sharp, insanely detailed and intricate, super detailed, hdr ultra high quality, high detail, 4k
==========================================
⚠️ Если нет возможности или желания установить на ПК ⚠️
Колаб - это виртуальный бесплатный сервер от Гугла, с видеокартой в комплекте!
➡️ https://teletype.in/@stablediffusion/Colab_StableDiffusion
==========================================
⚠️ УСТАНОВКА НА ПК ⚠️
https://teletype.in/@stablediffusion/PC_install_SD
------------------------------------------
📚 РАЗЛИЧНЫЕ МОДЕЛИ 📚
https://teletype.in/@stablediffusion/models_for_SD
------------------------------------------
🧠 ОБУЧЕНИЕ ПО СВОИМ КАРТИНКАМ 🧠
https://teletype.in/@stablediffusion/dreambooth_textual-inversion
===========================================
⚠️ Прочие полезные утилиты, готовые промпты, восстановление глаз/лиц, апскейл, удаление лишнего:
https://teletype.in/@stablediffusion/util_for_SD
-------------------------------------------
Шаблон шапки ОП-поста для перекатов: https://pst.klgrth.io/paste/zn5qh
А как, кстати? Степан же вроде не стал пилить поддержку из-за смены движка.
Да я вообще побоялся юзать шкрепт от хохла
Мало ли что вшил туда, как автоскрытие крымотредов, допустим
Не очевидно, что перебирает промпты из текстового файлика?
Абу, спок.
Ну и я об этом же
Может ты просто пиздарукий мудило?
Не будет
Да, рыцарей и орчих пилю. Честно говоря такое
Я не знаю кто её не попробовал
Так надо теги с booru писать
я имею в виду в колабе
На хуй иди, псина
Так-так... я теперь покажи мне страсть!
Было 13.8 итераций в секунду на 512х512 с euler_a
Стал пик
нормас
Можно даже сказать... ХУЕВОЕ!
Тоже интересно.
GPFGAN - одна из моделей (лицевая) для ESRGAN
Ссать точно умеет
Пруфы?
Читай в шапке.
Она и на 4 заведется
Это у меня минус 300 айсикью или кто то залил мне говна в жопу? Чего оно пишет, что аргумент не распознан?
лол блядь
Виндоусbros, это нечестно - опять у линуксоидов все самое лучшее!
Блядь, это что ли я установил сегодня нейросетку и через пол часа её обновили?
Как понять что оно работает? В консольке в строке с аргументами должно появиться?
Нет, сравни скорость без и с на одинаковых настройках
первое - это количество генераций (ставишь 9 генерит 9 раз).
второе - это количество картинок в одной генерации (если до в первом поставил 9, а тут поставишь 2, всего выйдет 18)
Не можно, а нужно. Клади в models\hypernetworks и потом в настройках выбирай
пиздец замудрили
А вот это окошко где открыть, как у тебя на пике?
Просто запускаю webui-user.bat и в браузер перехожу
Последняя вкладка "Settings"
На форчке в /g
https://pastebin.com/6wX7Bx7w
Но вроде тут для текстгена, написано, что в 1 части должно быть все, чтобы восстановить имаген как у них
magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak&tr=udp%3a%2f%2ftracker.opentrackr.org%3a1337%2fannounce&tr=udp%3a%2f%2f9.rarbg.com%3a2810%2fannounce&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a6969%2fannounce&tr=http%3a%2f%2ftracker.openbittorrent.com%3a80%2fannounce&tr=udp%3a%2f%2fopentracker.i2p.rocks%3a6969%2fannounce&tr=https%3a%2f%2fopentracker.i2p.rocks%3a443%2fannounce&tr=udp%3a%2f%2ftracker.torrent.eu.org%3a451%2fannounce&tr=udp%3a%2f%2ftracker.tiny-vps.com%3a6969%2fannounce&tr=udp%3a%2f%2ftracker.pomf.se%3a80%2fannounce&tr=udp%3a%2f%2fp4p.arenabg.com%3a1337%2fannounce&tr=udp%3a%2f%2fopen.stealth.si%3a80%2fannounce&tr=udp%3a%2f%2fopen.demonii.com%3a1337%2fannounce&tr=udp%3a%2f%2fmovies.zsw.ca%3a6969%2fannounce&tr=udp%3a%2f%2fipv4.tracker.harry.lu%3a80%2fannounce&tr=udp%3a%2f%2fexplodie.org%3a6969%2fannounce&tr=udp%3a%2f%2fexodus.desync.com%3a6969%2fannounce&tr=udp%3a%2f%2fbt.oiyo.tk%3a6969%2fannounce&tr=https%3a%2f%2ftracker.nanoha.org%3a443%2fannounce&tr=https%3a%2f%2ftracker.lilithraws.org%3a443%2fannounce&tr=https%3a%2f%2ftr.burnabyhighstar.com%3a443%2fannounce
Че за часть 2 чуваки?
Чё за слив еще? рассказивай
Кинуть .ckpt из папки animefull-final-pruned в папку с моделями, а .pt из папки modules в в models\hypernetworks ???
Ну, я ещё по ретардски промпты формирую, что тоже влияет. На форче ребята делятся, можешь туда заглянуть:
https://boards.4chan.org/h/thread/6885226#p6885226
Юзлесс хуита для шизиков-анимечников.
Блять, а шуму-то вокруг нее, как будто хуй знает что она умеет.
педофилище
https://rentry.org/sdg_FAQ
Кинуть .ckpt в models/Stable-diffusion, кинуть animevae.pt туда же переименовав, и .pt models/hypernetworks
Она много персонажей знает и тегов, которых не знают другие модели. Когда новел распотрошат, то всем на него станет похуй.
ебальники мамонтов, оплативших подписку ради этой модели имажинэ?
Аниме-девочкек в средне-ремесленном стиле хорошо рисует. Ну собственно и все, о чем еще мечтать!
>девочкек
Лол, нет, не только. Поставь в негатив девочка, женщина, а в промпт - мальчик/мужик. Удивишься большущим сочным хуйцам.
Да, хуита для даунов.
Причина подрыва, дрочер на аниме-картиночки?
Here we go, there was a lot of little stuff I had to fix yesterday:
Link:https://drive.google.com/file/d/1kLacShaNSBwRxvzQibFbEQa8TBAnl2wl/view?usp=sharing
Changes/Features:
Experimental .ckpt loader, just add them to the model folder.
A little button on the GUI to open the model folder.
Checkbox for "Advanced Prompts": This turn on/off the extra parameters along the prompt, you can hover the mouse to see the comands.
Turning off "Display During Rendering" with "Save Vram" turned on may save a little more vram now.
Outpainting option
Had to temporarily remove the discrete schedulers. There was some changes to the source code that broke Discrete schedulers.
Details about outpainting:
Outpainting is working, but there is a lot of fixes that need to be done. I did not want to delay the build one more week because of this, so for now it's more of a experimental tool until I manage to finish it.
Inpainting/outpainting on Stable Diffusion are not that great, this can be fixed and already been improved a lot by the community , but the vanilla code don't give that good results.
What I will do now is start reading about solutions for those tools and implement/improve the current inpating/outpaint tool. I already have quite some ideas to improve it.
I have a strong feeling that those tools can be improved with the right scheduler, so I'm gonna also start working on adding more schedulers.
Current bugs with outpainting:
You need to use Samples = 1
VAE encoder/decoder change a little the colors of the image. I need to mask the original image back at the end of the render, because for now, it sometimes leave a square with slight changed colors.
Sometimes the new render have such conflicting latents that it will simple "eat" the original image and simple make a 100% new image. Until the code is improved, just need to keep rendering until this don't happen.
Outpaiting image don't care that much about the original image, this will be the biggest challenge to fix, but already have some ideas. It will take some time until you get a render that make sense.
Using outpainting:
Select a Img2Img source image
Select Mode: Outpainting
On the right window, drag with the mouse until you get the square at the correct location.
Press render and wait.
If you like the result in the "Previews:" press "Use output as Input" to start using this image as the source.
Working now:
Improving Inpaiting/Outpainting
More Schedulers
A GUI for DreamBooth
Here we go, there was a lot of little stuff I had to fix yesterday:
Link:https://drive.google.com/file/d/1kLacShaNSBwRxvzQibFbEQa8TBAnl2wl/view?usp=sharing
Changes/Features:
Experimental .ckpt loader, just add them to the model folder.
A little button on the GUI to open the model folder.
Checkbox for "Advanced Prompts": This turn on/off the extra parameters along the prompt, you can hover the mouse to see the comands.
Turning off "Display During Rendering" with "Save Vram" turned on may save a little more vram now.
Outpainting option
Had to temporarily remove the discrete schedulers. There was some changes to the source code that broke Discrete schedulers.
Details about outpainting:
Outpainting is working, but there is a lot of fixes that need to be done. I did not want to delay the build one more week because of this, so for now it's more of a experimental tool until I manage to finish it.
Inpainting/outpainting on Stable Diffusion are not that great, this can be fixed and already been improved a lot by the community , but the vanilla code don't give that good results.
What I will do now is start reading about solutions for those tools and implement/improve the current inpating/outpaint tool. I already have quite some ideas to improve it.
I have a strong feeling that those tools can be improved with the right scheduler, so I'm gonna also start working on adding more schedulers.
Current bugs with outpainting:
You need to use Samples = 1
VAE encoder/decoder change a little the colors of the image. I need to mask the original image back at the end of the render, because for now, it sometimes leave a square with slight changed colors.
Sometimes the new render have such conflicting latents that it will simple "eat" the original image and simple make a 100% new image. Until the code is improved, just need to keep rendering until this don't happen.
Outpaiting image don't care that much about the original image, this will be the biggest challenge to fix, but already have some ideas. It will take some time until you get a render that make sense.
Using outpainting:
Select a Img2Img source image
Select Mode: Outpainting
On the right window, drag with the mouse until you get the square at the correct location.
Press render and wait.
If you like the result in the "Previews:" press "Use output as Input" to start using this image as the source.
Working now:
Improving Inpaiting/Outpainting
More Schedulers
A GUI for DreamBooth
мм, пёзды
> https://en.wikipedia.org/wiki/Ampere_(microarchitecture)#Products_using_Ampere
> Basically only works on 3xxx cards
> the poor gets poorer and the rich gets richer
Xformers работает только на 3ххх
Эх
Покажи.
Есть такой сайт, как novelai.net Там пол форчана генерирует за реал себе пикчи. Ну и в какой-то момент исходники все слили. Оказалось что они что-то в коде доработали, еще каких-то фиксов сверху насыпали. Поэтому сейчас их пытаются реконструировать и задействовать. Хотя одна только модель чего стоит.
Да конечно заебу, братан, я сделал всё по инструхции, спасибо, мне другое любопытно, что это за пачка доп..приблуд аниме.пт и анимевае.пт которую рядом кладёшь. Шо они дают-то, по сравнению с тем если просто голую модель НАИ закинуть?
Алсо зачем там аниме_1, аниме_2 и т.д.? Выбираешь же одну в итоге?
Уровень был на голову выше до этого события. Плакали даже, что вовремя не подсуетились и не купили безлимит за 35$.
Фури фаги/фаги жоп с сиськами, размером с автобус, с форчана - самый платежный контингент
Жаль...
Один батч считается в один момент, батчи идут друг за другом.
То есть если поставить большой сайз то видяха может тебе в ебало харкнуть
лол
> может тебе в ебало харкнуть
Ну вот блядь что и произошло после обновления. До обновы сайз в 8 вывозило, сечас больше 1 сразу говна в жопу. Че это за хуйня? Нахуя я полез за этим вашим xformers...
Я точно не скажу, но без этих приблуд ты как бы юзаешь сетку неполноценно, можешь убрать эти файлы и убедиться сам, результаты будут хуже. И чому разные аниме 1 2 3 я хз, надо тестить и смотреть чем отличаются
Ага, а оно, как анон выше писал, не работает на 20ых и ниже сериях. Там никак не откатиться на предыдущую версию теперь?
Нашёл пару пикч с хуями из других моделей. Как-то они поэстетичнее выглядят, чем у тебя на пиках. А эстетика в искусстве это важно.
Так сам сок модельки NovelAI в том, чтобы смешивать ее с другими, лол
Так и 3д нормальное получается, и хуи от yiffy-e18
masterpiece, touhou, 1girl, chen, animal ears, cat ears, cat tail, hat, short hair, solo, tail, brown eyes, slit pupils, red dress, brown hair, shoes, two tails, paw pose, nekomata
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 20, Sampler: Euler a, CFG scale: 11, Seed: 3772876825, Size: 512x768, Model hash: 925997e9, Eta: 0.69
По порядку: anime_1, anime_2, anime_3, aini
Ахуеть шоколадные бубсы
--opt-split-attention влияет только на время генерации или на качество?
>Фикс на видеопамять, позволяет запускать (немного в ущерб качеству) на 4 гб видеопамяти, а на 8 гб позволяет разрешения вплоть до 1472х832:
пруфы какие что в "ущерб качеству"? кто-нибудь сравнение проводил?
Алсо, можем сравнить, у меня в данный момент такая.
>скорее всего
Тестировать надо ёпрс. На одних и тех же семенах. Там и узнаем как оно на самом деле.
> impasto oil painting of .... , painted by Dean Cornwell
К счастью не может, говноед
а хули нет
Щас как укушу!
> C --opt-split-attention не заметил какой-то хуйни
Дваждую
Скорее всего lowram или медиум стоял, сам тестил сплит - те же резы
Не знаю анон, не помню. Спросил у него - случаем не слабая ли карточка с накрученными оптимизаторами? Он ответил - да.
>Выяснилось, что у него стоит оптимизация памяти для low-ram видяхи.
Ну сейчас сию секунду у меня sd-webui/stable-diffusion-webui + Doggettx/stable-diffusion фикс, 8гб
давай точные настройки и попробуем сравнить качество генерации.
Да, это имел ввиду. Спасибо.
На пиках кстати медиум ещё стоит
сижу под веслом, лучше не юзать внешние диски т.к. скорость говно.
Ну и оперативы будь готов отдать гигов 15
also includes how to uncuck yourself from sm86 restriction on voldy's new commit
1. go to the webui directory
2. source ./venv/bin/activate
3. cd repositories
3. git clone https://github.com/facebookresearch/xformers.git
4. cd xformers
5. git submodule update --init --recursive
6. pip install -r requirements.txt
7. pip install -e .
If you encounter some error about torch not being built with your cuda version blah blah, then try:
pip install setuptools==49.6.0
After step 7, just wait like 30 minutes for everything to build and you're done.
Then go back to modules/sd_hijack.py and search for
and torch.cuda.get_device_capability(shared.device) == (8, 6)
and delete it
Можно самому сбилдить xformers и они запустятся даже на 1060
Теги генерации всмысле?
Asuka Langley, elegant, highly detailed, digital painting, artstation, concept art, smooth, sharp focus, illustration, art by artgerm and greg rutkowski and alphonse mucha and william - adolphe bouguereau
Как ты генеришь зверей? Я пытаюсь дракона сделать, а мне постоянно человека в костюме выдает
Проходи не задерживайся
Ладно, понял вас, проще уже самому обе сборки заиметь и самому сравнить.
Оперативы у меня 64, хоть раз пригодится. Насчет скорости - плохо, конечно. Но в весло кидать 120 гигов не охота. Это рабочий образ, срать не хочется.
Запуль с гита еще раз, уже всё пофиксили. Главное чтобы в параметрах запуска не было --xformers.
Щас будем тестить, отпишу
cute cat dressed in a bee costume is trying to fly across the field
Советую создать дубль, я своё основное весло засрал что там сейчас куда не работает
Да бля она больше памяти теперь жрет и батч сайз большой не выкрутишь
Значит там в параметрах запуска прописан логин и пароль, поищи, я хз как и где ты запускал
Снова всё сломается если поставить?
>sd-webu
А че не автоматик1111?
>>497700
пикрил сделан на --opt-split-attention
------
> fronal photo portrait of homeless old man, poop on face, eating poop, in a dark dirty dungeon, bokeh, shot from dslr, cinestill by thing and cronenberg, perfect faces, fine details, high textures, ultra hyper sharp, insanely detailed and intricate, super detailed, hdr ultra high quality, high detail, 4k
Negative prompt: black and white, grayscale
Steps: 25, Sampler: Euler a, CFG scale: 8, Seed: 2497618452, Size: 576x832, Model hash: 7460a6fa
смысл куда-то опаздывать? с ночи поставил чтобы 5000 картинок генерерил, с утра обмазываешься и дрочишь.
Останови и перезапусти WebUI
Спасибо, добр человек. Давай ещё одну в таком духе, только промпт короткий и без негативного. С негативным у меня что-то не то вышло.
Слишком сложная многоходовочка для западного ума.
ну я дурак.
сука
NotImplementedError: Could not run 'xformers::efficient_attention_forward_cutlass' with arguments from the 'CUDA' backend. This could be because the operator doesn't exist for this backend, or was omitted during the selective/custom build process (if using custom build). If you are a Facebook employee using PyTorch on mobile, please visit https://fburl.com/ptmfixes for possible resolutions. 'xformers::efficient_attention_forward_cutlass' is only available for these backends: [UNKNOWN_TENSOR_TYPE_ID, QuantizedXPU, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, SparseCPU, SparseCUDA, SparseHIP, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, SparseVE, UNKNOWN_TENSOR_TYPE_ID, NestedTensorCUDA, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID].
BackendSelect: fallthrough registered at ..\aten\src\ATen\core\BackendSelectFallbackKernel.cpp:3 [backend fallback]
Python: registered at ..\aten\src\ATen\core\PythonFallbackKernel.cpp:133 [backend fallback]
Named: registered at ..\aten\src\ATen\core\NamedRegistrations.cpp:7 [backend fallback]
Conjugate: registered at ..\aten\src\ATen\ConjugateFallback.cpp:18 [backend fallback]
Negative: registered at ..\aten\src\ATen\native\NegateFallback.cpp:18 [backend fallback]
ZeroTensor: registered at ..\aten\src\ATen\ZeroTensorFallback.cpp:86 [backend fallback]
FuncTorchDynamicLayerBackMode: registered at C:\Users\circleci\project\functorch\csrc\DynamicLayer.cpp:487 [backend fallback]
ADInplaceOrView: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:64 [backend fallback]
AutogradOther: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:35 [backend fallback]
AutogradCPU: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:39 [backend fallback]
AutogradCUDA: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:47 [backend fallback]
AutogradXLA: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:51 [backend fallback]
AutogradMPS: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:59 [backend fallback]
AutogradXPU: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:43 [backend fallback]
AutogradHPU: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:68 [backend fallback]
AutogradLazy: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:55 [backend fallback]
Tracer: registered at ..\torch\csrc\autograd\TraceTypeManual.cpp:295 [backend fallback]
AutocastCPU: fallthrough registered at ..\aten\src\ATen\autocast_mode.cpp:481 [backend fallback]
Autocast: fallthrough registered at ..\aten\src\ATen\autocast_mode.cpp:324 [backend fallback]
FuncTorchBatched: registered at C:\Users\circleci\project\functorch\csrc\LegacyBatchingRegistrations.cpp:661 [backend fallback]
FuncTorchVmapMode: fallthrough registered at C:\Users\circleci\project\functorch\csrc\VmapModeRegistrations.cpp:24 [backend fallback]
Batched: registered at ..\aten\src\ATen\BatchingRegistrations.cpp:1064 [backend fallback]
VmapMode: fallthrough registered at ..\aten\src\ATen\VmapModeRegistrations.cpp:33 [backend fallback]
FuncTorchGradWrapper: registered at C:\Users\circleci\project\functorch\csrc\TensorWrapper.cpp:187 [backend fallback]
Functionalize: registered at ..\aten\src\ATen\FunctionalizeFallbackKernel.cpp:89 [backend fallback]
PythonTLSSnapshot: registered at ..\aten\src\ATen\core\PythonFallbackKernel.cpp:137 [backend fallback]
FuncTorchDynamicLayerFrontMode: registered at C:\Users\circleci\project\functorch\csrc\DynamicLayer.cpp:483 [backend fallback]
сука
NotImplementedError: Could not run 'xformers::efficient_attention_forward_cutlass' with arguments from the 'CUDA' backend. This could be because the operator doesn't exist for this backend, or was omitted during the selective/custom build process (if using custom build). If you are a Facebook employee using PyTorch on mobile, please visit https://fburl.com/ptmfixes for possible resolutions. 'xformers::efficient_attention_forward_cutlass' is only available for these backends: [UNKNOWN_TENSOR_TYPE_ID, QuantizedXPU, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, SparseCPU, SparseCUDA, SparseHIP, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, SparseVE, UNKNOWN_TENSOR_TYPE_ID, NestedTensorCUDA, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID].
BackendSelect: fallthrough registered at ..\aten\src\ATen\core\BackendSelectFallbackKernel.cpp:3 [backend fallback]
Python: registered at ..\aten\src\ATen\core\PythonFallbackKernel.cpp:133 [backend fallback]
Named: registered at ..\aten\src\ATen\core\NamedRegistrations.cpp:7 [backend fallback]
Conjugate: registered at ..\aten\src\ATen\ConjugateFallback.cpp:18 [backend fallback]
Negative: registered at ..\aten\src\ATen\native\NegateFallback.cpp:18 [backend fallback]
ZeroTensor: registered at ..\aten\src\ATen\ZeroTensorFallback.cpp:86 [backend fallback]
FuncTorchDynamicLayerBackMode: registered at C:\Users\circleci\project\functorch\csrc\DynamicLayer.cpp:487 [backend fallback]
ADInplaceOrView: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:64 [backend fallback]
AutogradOther: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:35 [backend fallback]
AutogradCPU: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:39 [backend fallback]
AutogradCUDA: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:47 [backend fallback]
AutogradXLA: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:51 [backend fallback]
AutogradMPS: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:59 [backend fallback]
AutogradXPU: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:43 [backend fallback]
AutogradHPU: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:68 [backend fallback]
AutogradLazy: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:55 [backend fallback]
Tracer: registered at ..\torch\csrc\autograd\TraceTypeManual.cpp:295 [backend fallback]
AutocastCPU: fallthrough registered at ..\aten\src\ATen\autocast_mode.cpp:481 [backend fallback]
Autocast: fallthrough registered at ..\aten\src\ATen\autocast_mode.cpp:324 [backend fallback]
FuncTorchBatched: registered at C:\Users\circleci\project\functorch\csrc\LegacyBatchingRegistrations.cpp:661 [backend fallback]
FuncTorchVmapMode: fallthrough registered at C:\Users\circleci\project\functorch\csrc\VmapModeRegistrations.cpp:24 [backend fallback]
Batched: registered at ..\aten\src\ATen\BatchingRegistrations.cpp:1064 [backend fallback]
VmapMode: fallthrough registered at ..\aten\src\ATen\VmapModeRegistrations.cpp:33 [backend fallback]
FuncTorchGradWrapper: registered at C:\Users\circleci\project\functorch\csrc\TensorWrapper.cpp:187 [backend fallback]
Functionalize: registered at ..\aten\src\ATen\FunctionalizeFallbackKernel.cpp:89 [backend fallback]
PythonTLSSnapshot: registered at ..\aten\src\ATen\core\PythonFallbackKernel.cpp:137 [backend fallback]
FuncTorchDynamicLayerFrontMode: registered at C:\Users\circleci\project\functorch\csrc\DynamicLayer.cpp:483 [backend fallback]
попробуй тогда вместо "фото" использовать "колор фото". Меньше ч/б будет выдавать. Проблема в том, что жанр стариков - это прежде всего ч/б портреты, где цвет только отвлекает от текстурок, потому фотографы этого жанра в основном снимают свои работы в ч/б.
Лох
Угу, можно, но иногда правда получится вырвиглаз
Класс
Лучшее в треде.
да иди нахуй долбоебина, ты где заметил что я твоей помощи прошу? я специально 2 минуты чёрный прямоугол генерировал.
Вы контекст то не меняйте. Мы тут сравниваем качество по сиду. Мне пожалуйста всё как в прошлый раз, но простой промт, просто чтобы сравнить.
Наелась сметаны и спит.
Rei Ayanami, cyberpunk futuristic neon. decorated with traditional japanese ornaments by ismail inceoglu dragan bibin hans thoma greg rutkowski alexandros pyromallis nekro rene maritte illustrated, perfect face, fine details, realistic shaded, fine - face, pretty face
Заново скачал. Как бы да.
это очень неплохо. смотря для каких настроек конечно, может ты там 512х512 при 10 степах генеришь
Я минут 10 назад и качал
Ладно, от противного. Это мой кот. Покажите мне вашего кота(с такими же настройками и сидом, модель дефолтная 1.4).
Cat seed:1179226034 width:512 height:512 steps:50 cfg_scale:7.5 sampler:k_dpm_2_a
промт: Cat
SPYй
>При таких.
Только хайрез делает два прохода - отсюда увеличивается время генерации. Он нужен только на больших/длинных картинках. Нахуя ты его включил на милипиздрическом квадратике?
>2070super
Ну так, средненько.
блядь, а где?
Я немейнстримный прост.
Все тоже самое, но в дримстудио. Очевидно качество на сайте - хуже.
глазами
котик на сайте всё равно красивее вышел, глаза у него детальнее нарисованы и сам он чётче
Не смог растянуть свой грузовик, хоть и пытался.
Это копия, сохраненная 8 октября 2022 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.