Это копия, сохраненная 14 марта 2022 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Мечтаю о такой программе, которая сможет нарисовать что угодно - рисунок, иллюстрацию в любом стиле и любого содержания, которого захочу. Хоть стиль топового рисоваки с Artstation, хоть живопись в стиле Возрождения - что угодно и с композицией по любому составленному мной описанию.
Недавно нашел классную штуку, VQGAN и попробовал в действии. Она плохо справляется с человеческими фигурами и портретами, не понимает как взаимосвязаны элементы, но все равно охуенно. Вот строки по которым сгенерированы пикчи
1) Золотое кольцо в стиле китайской традиционной живописи (две итерации: ранняя, охуенно похожая на реальную китайскую живопись, и более поздняя, но зафейленная на мой взгляд)
1) Рыцарь в средних веках на движке Unreal Engine (Фигура рыцаря плохо узнается, зато готическая арка и штандарты с геральдикой выглядят очень по-средневековому)
2) Постер фэнтези фильма в индийском сеттинге 3д рендер (охуенно, даже человеческие фигуры почти реалистичны)
3) Постер фэнтези фильма в сербском сеттинге 3д рендер (выглядит действительно по-балкански и по-фэнтезийному, только современный флаг Сербии тут не к месту)
4) Золотое кольцо с рубином в стиле искусства Возрождения (рубин зафейлен, но золото охуенное)
ОП, я хуй, поэтому сразу захожу с главного: это может осилить человек, не знающий английский? Дело в том, что этот инструмент мне очень пригодился бы даже в текущей форме. И даже тот уровень, который показан в ОП-посте, меня впечатляет. Как я понимаю, с 8 Гб врам можно только пук получить?
В таком случае, есть иные варианты, если я готов ждать сутки рендеринга? Или, может быть, какие-нибудь готовые онлайн-решения? Пусть и за деньги. Ещё хоть что-нибудь.
Всегда мечтал о такой штуке. Она серьёзно могла бы упростить работу, когда нужно говно на отъебись по-быстрому сделать. Но там ещё и стиль модный можно закрутить, так что это не говно, а так задумано, я художник, я так вижу.
> В таком случае, есть иные варианты, если я готов ждать сутки рендеринга? Или, может быть, какие-нибудь готовые онлайн-решения?
Google colab. Бесплатно. https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN+CLIP_(z+quantize_method_with_augmentations,_user_friendly_interface).ipynb вроде это, если нет, гугли "vqgan colab".
Неплохо, но что насчет прав на изображения?
Там есть две модели, при применении которых разрешено коммерческое использование пикч.
1. Белое нижнее белье (перед этим пытался генерировать женщин в нижнем белье, без особого успеха)
2. Буддизм индуизм медитация прана. Абстрактно, но красиво.
Первая пикча: "Сэр, ваши сиськи поданы!"
Попробуй вместо написать boliwood.
Графика по мотивам моей любимой игры Demon's Souls
1. Рыцарь
Серьезный недостаток vqgan: он не понимает затейливо декорированных поверхностей и превращает их в шершавую сетку
2. Нексус по двум сидам с анрилизацией и без
Заметил что ранние итерации всегда воспринимаются как-то более... душевно, что ли
3. Альтернативная обложка для игры, по одному сиду с двумя вариантами цвета
Это всего лишь одна ниша, ручного творчества никто отменять не будет, как и ручного с долей автоматизации.
Кстати, там можно сделать видео где показан 3д объем и глубина у сцены, движением камеры.
2. Немножко пропаганды нацизма
3. Лилии в Castlevania
Симпатично.
Попробовал так же, но с персонажами в стиле Tony Taka, Sakimichan и еще кого-то. (Girl in bikini by ...) по своему наброску и по силуэту. Выходит так себе, после ста итераций всё распидорашивает. Эта модель заточена под ландшафты и городские виды, а не персонажей.
Dall-e mini сосёт, инфа 100
Это типа как SNES, но не SNES, но как бы SNES
И слава богу.
Хотя, конечно, ирония в том что фантасты прошлого считали что в условиях машинизации людям останется творчество и наука, а на деле именно эти области похоже падут первыми.
Человек не нужен.
Не получится. Товарищи Google, Microsoft, Яндекс будут воевать в интернете между собой
>Стиль Айвазовского передан очень хорошо.
Да, и будет передаваться еще лучше в более продвинутых версиях этой технологии (или в ее новых аналогах). В идеале, надо чтобы можно было ввести инструкцию, "изображение того-то и того-то" и чтобы результат не просто был похож, а проходил тест Тьюринга.
Теперь такой же эксперимент, но с натюрмортом золотой чаши в двух старинных стилях: Виллем ван Альст и Караваджо, а также для сравнения банальное 3D CG, и стиль World of Warcraft.
На пикчах пошаговый процесс рендера. В случае ван Альста, сначала чаша стала действительно золотой, хотя тень внутри нее превратилась в какие-то предметы. Затем композиция дополнилась неясными деталями, а чаша приобрела отражения, но её силуэт стал рассыпаться.
Сорри, не та пикча
>>030899
Init_image это я понимаю - пользовательский шаблон из которого будет лепить, а что такое target_images в параметрах?
Вроде там можно задать несколько таргетов в качестве кастомного мини-датасета. По-моему хуйня
RPG иконки WoW и Castlevania
Эмодзи разных предметов
Тест тьюринга пока не проходит
Тоже удивлен, вроде Аями Кодзима не рисовал такого (это должен быть его стиль)
https://colab.research.google.com/drive/1_4Jl0a7WIJeqy5LTjPJfZOwMZopG5C-W?usp=sharing#scrollTo=1tthw0YaispD
Исполнить Setup, Installing Libraries кнопкой старта слева и дождаться окончания загрузки
Под "Selection of models to download" выбрать imagenet_16384 и исполнить эту секцию, дождаться загрузки модели
Исполнить Loading libraries and definition
Под "Parameter":
в promts - твой текст на английском, можно ввести несколько разных строк и разделить их этим символом- |
model выбрать imagenet_16384 т.к. она самая лучшая из доступных. Другие можно попробовать для эксперимента, сперва загрузив их
Разрешение не трогай, иначе может не хватить памяти в колабе
display frequency можешь выбрать меньше, между 10-50 чтобы лучше отслеживать процесс, или оставить так
initial_image - чтобы начинать с некоего изображения, перетащи его в рабочую папку colab на панели слева и введи сюда название файла, если не нужно - оставь поле пустым
target_image - целевые изображения, можно взять несколько штук, разделив знаком |
seed - число по которому идет генерация, поменяй его чтобы получить другой результат с тем же текстом
max_iteration не трогай, потом вручную остановишь когда надо
исполни секцию Execution, под её заголовком будут появляться картинки
бесплатной версией колаба можно пользоваться примерно 6 часов в сутки
Есть несколько фрагментов текста, почти не связанных с содержанием, которыми можно повысить качество результата если поместить некоторые из них в конец строки: hyperrealistic, photorealistic, trending on arstation, render, v-ray, ray tracing, fine detail, ultra settings, Unreal Engine
Можно отделить их |, можно просто запятой или ;
По мне, лучше всего использовать "realistic painting" или имя знаменитого художника - "x" by Y, где x название вымышленной картины, а вместо Y поставить Айвазовского, Рубенса, кого угодно.
О, заебись, спасибо.
Добавлю что initial_image может жрать веб ссылки, а вот target_image похоже не может, по крайней мере мне ошибку написало, хотя может быть я где-то ещё накосячил.
Этих девушек не существует
Алсо, у кого-нибудь работает этот веб интерфейс? https://huggingface.co/spaces/akhaliq/VQGAN_CLIP У меня под разными браузерами - ни хуя, словно кнопка не кликабельна
> Алсо, у кого-нибудь работает этот веб интерфейс? https://huggingface.co/spaces/akhaliq/VQGAN_CLIP У меня под разными браузерами - ни хуя, словно кнопка не кликабельна
У меня пишет, что GPU занят, попробуйте позже.
Блеать, у меня тоже хром последней версии на дрисне, даже залогинился там - нет ни куя. Хотя выдача на твоем скрине все равно немногим лучше чем у китаёз
Встроенный Internet explorer даже не смог загрузить страницу, ладно накачу edge хуле
Войско династии Тан в поле
> Синий грифон в красном небе
Пробовал "большой белый кит в небе на закате", какую-то залупу рисует. Особенно небо всратое. Мб больше итераций надо?
Забей, этот алгоритм хорошо справляется только с часто встречающимися структурами и с заполнением однородными элементами. Он даже портрет не может толком сделать.
Больше на Сёгунов похоже.
Типа такого?
Инструкцию пилить не буду и ссылку давать тоже. Это фильтр от ебаноидов, кому надо - те найдут и разберутся.
Еще рекомендую новое приложение "Memes" от Crypko, обещали релиз летом этого года.
Что случилось с этим украинцем?
https://www.deepnude.to/
Потестировал, вроде работает, только надо фото с фронтального ракурса и еще пришлось отскребать ватермарки.
https://www.vice.com/en/article/kzm59x/deepnude-app-creates-fake-nudes-of-any-woman
В Vice некая фемка накатала статью типа, любой хуй теперь владеет твоим телом, и люди потом увидят фейк и подумают что это на самом деле твое фото. Там говорилось что приложение уже прекратило работу. Значит, по ссылке какая-то другая хрень от васяна
это не шершавая сетка, это основа шедевров.
TrapGAN : pix2pix алгоритм который раздевает женщин на фотках или персонажей на рисунках + пририсовывает им хуйцы.
такое уже есть, зайди на форч
хотя он не раздевает, а просто пририсовывает хуи к голым тянкам
Оказывается, эту хрень припахали и для пиксель арта как в 16-битных ретро играх
https://colab.research.google.com/github/tg-bomze/collection-of-notebooks/blob/master/Text2PixelArt.ipynb#scrollTo=0TbHxLmNUqrv
Там даже есть комментарии на русском. Пробую, мне понравилось
Делайте ставки, в каком году можно будет так же сгенерировать себе короткий видеоролик любого нужного содержания
World of Warcraft
Рыцарь в Demon's Souls
Город в варкрафте
Платформер для SNES
Шмап для SNES
Castlevania
Замок в hack'n'slash игре
Видеоигра про Три Царства, в сеттинге древнего Китая
Анон, ты тоже пили там ретро графоний и пости сюда
Лепрекон и его сокровища
Дворец феи
Китайский бутлег Castlevania (что-то такое действительно было для java мобилок)
игорь в индийском сеттинге
На реддите постили еще пизже. Интересно, насколько трудно было бы сделать генерацию целых игорей с пиксельным графонием (как в GameGAN только оригинальные)
Realistic portrait of beautiful woman cute
Для пользователей колаба: в последнее время пидоры подсовывают слабые GPU.
K80 кал, T4 норм. Код чтобы проверить карту:
!nvidia-smi -L
Если она тебя не устраивает: terminate session, жди несколько минут и пробуй снова.
ОП может сделаешь общий AI тред?
Поскольку тред еще не утонул
...
там китайцы новую версию онлайн генератора пикч выложили, с повышенным разрешением. Го тестировать https://agc.platform.baai.ac.cn/CogView/index.html
Теперь можно выбрать вид изображения: фото, живопись маслом, китайская живопись, скетч и так далее
Принимается ввод только на упрощенном китайском (используйтe google переводчик)
По-моему охуительно, ведь выдача куда более связная, осмысленная и релевантная чем в clip + vqgan, при этом также и разнообразная. Я рад за успехи Поднебесной.
Хорош.
>некая фемка
>любой хуй теперь владеет твоим телом
ненадо быть фемкой чтобы прийти к этому выводу, тоже самое и с твоим голосом, и с твоей внешностью и лицом происходит, но самый пиздец с генерацией аудио конечно.
Фсе это говно нужно както регулировать.
Не обесценит. Сейчас любой человек может сфотографировать, где фотка чётче любой картины, а картины всё ещё рисуют. Так что у исскуства будет просто своя ниша, вот и всё.
>а картины всё ещё рисуют.
чушь.
никто их нахуй уже не рисует, отрасоль практически мертва, мы буквально возвращаемся в 15-16 век, где удел искусства был у богатых дворян которым не нужно было работать чтобы жрать, для челяди живопись больше не профессия на зароботок с которой можно жить.
>никто их нахуй уже не рисует
Скажи это придворному живописцу Владимира Владимировича Путина. Посмеется над тобой. Рисуют и ещё как.
Upd: Без подписки ничего лучше К80 не выдают. Зато и ничего лучше не дадут. А ничего лучше и нету.
Какой положняк по всем этим делам? Кто что юзает?
Вот: https://colab.research.google.com/github/justin-bennington/S2ML-Art-Generator/blob/main/S2ML_Art_Generator.ipynb
годнота, но для хорошего гена нужна подписка, иначе памяти не хватает. Ну а так заебись, можно легко GD подтянуть чтобы там хранилось ещё не пользовался, мб генерацию можно после падения сессии восстановить даже.
> Зато и ничего лучше не дадут. А ничего лучше и нету.
Зато и ничего хуже не дадут. А ничего хуже и нету.
Пофиксил.
>Кто что юзает
Колаб разочаровывает. Лучше cogview пока ничего нет, особенно для моих задач. Еще есть модели на hugginface.
https://rudalle.ru/
урусский Dall-e.
По результатам высокий разброс: иногда годные фэйки, иногда хуита голимая.
В веб версии приходится ждать час, ночью укладывалось в пару минут.
Colab с K80 оче медленно, с batch-ем даже не успевает за отведенные 6 часов.
Kaggle вроде работает, пока только начал тестировать.
алсо, выложили stylegan3-clip натренированный на классическом искусстве. годнота, только много шероховатости в поверхностях, в смысле нойза
>Фсе это говно нужно както регулировать.
Нахуй иди. Загнать инструменты в даркнет худшее что вообще можно придумать, во всех смыслах.
Правильно я понял, что сделать обоину с этим говном не реально?
Может есть платные другие ресурсы, чтобы я сделал набросок и описание, и хуета дала мне обоину?
Хочу уникальный и неповторимый десктоп.
Еще думаю может сгенерить в маленьком разрешении, а потом каким-нибудь другим говном поднять резоль до фуллхд. Есть что-нибудь на примете?
Почему нереально? Проблема в том, что GAN в качестве генератора жрёт доусраки памяти, но внезапно это не единственный способ сгенерить пикчу по вектору. Вот умелец зафигачил генерацию на преобразовании Фурье. У неё проблемы в сборе композиции, зато она может в фуллхд.
Подробнее в его лекции: https://www.youtube.com/watch?v=iTZcHzVySv4
Код: https://github.com/eps696/aphantasia
>github.com/eps696/aphantasia
Функция upload_image не работает. Нет выбора, какую картинку использовать.
Я использую colab по ссылке https://colab.research.google.com/github/eps696/aphantasia/blob/master/Aphantasia.ipynb
Upload widget is only available when the cell has been executed in the current browser session. Please rerun this cell to enable.
Кнопка "Обзор..." не нажимается.
Фиг знает, УМВР. Линукс+файерфокс. Вот сейчас для пробы сгенерил многомерную космическую станцию из кадра Кубрика. Может пикча битая?
Попробовал в колабе - понравилось как работает. Решил установить на железо, производительность выше, ограничений нет. Но не могу, при чём ошибка очень странная:
pip install -r requirements.txt
pip install git+https://github.com/openai/CLIP.git
Это я сделал, как написано на гитхабе.
Затем вызываю python clip_fft.py
Получаю ошибку
Traceback (most recent call last):
File "c:\path\to\aphantasia-master\clip_fft.py", line 5, in <module>
import numpy as np
ModuleNotFoundError: No module named 'numpy'
Хотя numpy я установил.
ВТФ? Как установить его в винду?
У вас же в винде преднастроенная виртуалка с линуксом есть теперь. Воспользуйся ос для программирования, не мучай жопу.
>нативно работает
>линукс
Вещи априори несовместимые, когда половина софта запускается через зоопарк виртуальных машин.
Зато запускается. У тебя-то софт, который ты хочешь (а не гипотетическая половина), не запускается совсем.
С линуксом и зоопарком виртуалок у меня будет намного больше пердолинга, чем с этой относительно простенькой программой. Годы пердолинга. Это просто иррационально.
Только если трактовать рациональность, как минимизацию умственных трудозатрат. Но тогда рационально просто пользоваться чужим преднастроенным линуксом через коллаб, а не пердолиться с виндой.
>пользоваться чужим преднастроенным линуксом
А такой существует? Почему нет на торрентах?
Только не надо вилять жопой, нет его, вот и нет нигде, только в головах линуксных шизоидов и существует в виде делюзий. А делюзии конечно проблематично выложить для других скачать в интернет.
>А такой существует?
Коллаб на нём работает.
>Почему нет на торрентах?
>Только не надо вилять жопой, нет его, вот и нет нигде, только в головах линуксных шизоидов и существует в виде делюзий. А делюзии конечно проблематично выложить для других скачать в интернет.
Может это ты шизоид? Что за бред ты несёшь? Чего нет на торрентах? Дистрибутивов линукс?
>Чего нет на торрентах? Дистрибутивов линукс?
Дебила вколючил?
>>пользоваться чужим преднастроенным линуксом
Преднастроенного нет.
Всем предлагается полуфабрикат, который надо допилисать самостоятельно.
Но (((почему-то))) это самое допиленное нигде не существует в реальности, например на торрентах, а только в делюзиях шидофреников, впустую пиздящих что они что-то там настроили, чему нет вещественного доказательства.
> это самое допиленное нигде не существует в реальности, например на торрентах, а только в делюзиях шидофреников
Дебила вколючил? Ты чужим преднастроенным пользуешься на гугл коллабе.
Пидор завилял порванной сракой. Какой "коллаб"? Твоих жопных протыкласников? Где скачать? Показывай торренты. Вон, на рутрекере куча сборок винды была и есть, а где твои настроенные линуксы? нет их, потому что нет их, только в шизофреничном бреде пердуксоинов существует настроенный линукс.
>Попробовал в колабе
>>087050
>Какой "коллаб"?
Или ты сейчас до написания будешь докапываться?
>Где скачать?
Вот
https://colab.research.google.com/
открываешь и пользуешься, всё что нужно скачается само.
Вся суть.
Да, я в курсе что у гугла и яндекса есть такое, но я бы хотел запускать это локально, дабы наконец-то отсортировать n-террабайтную коллекцию картинок хотя бы по категории фотки\рисованое\порнуха\...
>дабы наконец-то отсортировать n-террабайтную коллекцию картинок хотя бы по категории фотки\рисованое\порнуха\
https://github.com/yurijmikhalevich/rclip работает достаточно быстро даже на ЦП, но пердоликс-онли.
https://www.youtube.com/watch?v=tAJHXOkHidw
О, спасибо, выглядит интересно. Правда придется попердолиться скриптами чтобы генерировать запросы и вытаскивать обнаруженные фотки в новые директории, ну да справлюсь.
>вытаскивать обнаруженные фотки в новые директории
Мне кажется правильнее будет тэгировать фотки и искать потом по тегам. Потому что рисованные сиськи попадйт сразу в две категории.
Но в пердоликсе с этим швах. Тагспейсес - лагучее неюзбальное говно.
Как установить программу по ссылке на железо? Не хочу налегать на чужое облако и ждать в несколько раз дольше, у меня видяха мощная.
0) Желательно иметь линукс на deb основе, винда и wsl могут не заработать
1) Ставишь дрова для невидии и куду
2) Ставишь питон, создаёшь виртуальное окружение venv, через менджер пакетов pip ставишь в нём jupyterlab.
3) Скачиваешь файл ipynb и открываешь его в жупайтре
Можно попробовать на дурачка в винде скачать и поставить https://anaconda.org/ , там всё изкоробки, но см. пункт 0.
>Можно попробовать на дурачка в винде скачать и поставить https://anaconda.org/ , там всё изкоробки, но см. пункт 0.
Наиболее человеческий вариант, для тех кто не зарабатывает на жизнь программированием. Без малейшего понятия, как пользоваться линуксом, дровами и окружением.
Установил анаконду, потом через неё установил jupyter-lab (conda install -c conda-forge jupyterlab).
>3) Скачиваешь файл ipynb и открываешь его в жупайтре
Скачал, открыл. Ввёл в powershell "jupyter-lab", в открывшийся в браузере интерфейс поместил VQGAN+CLIP(Updated).ipynb, скачанный https://github.com/justinjohn0306/VQGAN-CLIP. Нажимаю на кнопку "play" (как в видеоплеере) в верхней части страницы. Получаю текст - модель видеокарты, и, на [4], ошибки. Вот часть:
Installing CLIP...
Installing Python Libraries for AI...
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
Installing libraries for metadata management...
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
Как завести его?
>Можно попробовать на дурачка в винде скачать и поставить https://anaconda.org/ , там всё изкоробки, но см. пункт 0.
Наиболее человеческий вариант, для тех кто не зарабатывает на жизнь программированием. Без малейшего понятия, как пользоваться линуксом, дровами и окружением.
Установил анаконду, потом через неё установил jupyter-lab (conda install -c conda-forge jupyterlab).
>3) Скачиваешь файл ipynb и открываешь его в жупайтре
Скачал, открыл. Ввёл в powershell "jupyter-lab", в открывшийся в браузере интерфейс поместил VQGAN+CLIP(Updated).ipynb, скачанный https://github.com/justinjohn0306/VQGAN-CLIP. Нажимаю на кнопку "play" (как в видеоплеере) в верхней части страницы. Получаю текст - модель видеокарты, и, на [4], ошибки. Вот часть:
Installing CLIP...
Installing Python Libraries for AI...
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
Installing libraries for metadata management...
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
Как завести его?
Так я же не использовал wsl. Вообще, python и jupyter это крупный кроссплатформенный софт.
Вообще, я конечно поражаюсь с пердоликов. В шапке голое ничего, но заявляют " VQGAN+CLIP Colab Notebook with user-friendly interface. " о юзерфрендли интерфейсе.
Там про винду тоже есть.
Ох, какие бедняжки. "Вынуждены" использовать колаб. Заставляют их.
Вся информация есть бесплатно — только читай и изучай. Если ничего не делать, то можно просто первый канал смотреть, там всё, что нужно для жизни, расскажут.
Я говорю о том, что пердоли не смогли в человеческий мануал и гайд по установке, а смогли только в пердоговно "для своих". А потом те же самые люди будут копротивляться облакам, хотя сами создают облачные коляски для "недостойных". Среди которых "недостойных", полно людей, которым есть на что потратить своё время и нервные клетки.
С твоей логикой можно послать человека писать самому, ведь информация о работе компьютеров и разработки по части нейросетей тоже лежат в открытом доступе. А можно отправить создавать свой компьютер, ведь технологии радиодеталей тоже открытые и бесплатные.
А аудитория первого канала в принципе не задалась бы такой неочевидной задачей, как синтез графики. Тут ты перегнул.
>Вся информация есть бесплатно
Все товары бесплатные - достаточно потратить время (недели, месяцы) на работе, которую можно найти бесплатно и в открытом доступе.
И восстановление нервных клеток и ментального здоровья, наверное, тоже бесплатное. Ты же впадал в истерики не один десяток раз, пока пердолил своё пердоговно, не ври хотя бы себе.
>Среди которых "недостойных", полно людей, которым есть на что потратить своё время и нервные клетки.
Если они тратят своё время и нервные клетки не на получение новых знаний и расширение своей эрудиции в незнаковых областях, то на что? Элементарную систему, типа линукса не справиться освоить за полдня, когда уже есть опыт с другой системой есть, это надо специально заткнуть уши и закрыть глаза.
Если они принципиально держатся своего невежества, даже несмотря на очевидные препятствия, которые оно им чинит (смотри пункт 0 и собственный опыт), то они любые гайды и мануалы спишут на "нечеловеческие", как бы они хороши ни были.
>то они любые гайды и мануалы спишут на "нечеловеческие", как бы они хороши ни были.
Так ведь в том поделии нет гайдов и мануалов. Я попытался кое-как его установить, но не получилось. А то, что софт, написанный на python, не работает во всех ОС (я не говорю о дистрибутивах BSD и каком-нибудь Solaris на 3 калеки юзербазы, а о самой популярной Windows) - это не нормально. Такое абсурдное отклонение от нормы даёт мне основания называть поделие - пердоговном.
Ещё можно вместо очевидного мануала "заставить работать программу в нормальных условиях" дать мануал "собрать блок питания, собрать процессор, писать ассемблер, писать ОС... №1269 ... запустить программу на самосборной ЭВМ", и потом возмущаться, что невежды не хотят познавать костыли по хорошо-написанному мануалу, а хотят нативной работы.
>а о самой популярной Windows
Закрытая природа этой системы не позволяет добиться 100% совместимости, потому что никто не знает, совместимость с чем должна быть. Отсюда пункт 0.
>Ещё можно вместо очевидного мануала "заставить работать программу в нормальных условиях" дать мануал "собрать блок питания, собрать процессор, писать ассемблер, писать ОС... №1269 ... запустить программу на самосборной ЭВМ", и потом возмущаться, что невежды не хотят познавать костыли по хорошо-написанному мануалу, а хотят нативной работы.
Я и говорю, то ли дело первый канал, там сразу всё понятно, и ничего не надо.
>Так ведь в том поделии нет гайдов и мануалов.
Тебе здесь дали простейший мануал. Из четырёх пунктов — нос вытереть сложнее.
Ты зафейлился на первом же пункте и теперь уже 10 сообщений ноешь, что тебе недостаточно хорошо объяснили, как утирать нос, поэтому ты вынужден идти доверять утирание твоего носа кому-то другому.
>Я и говорю, то ли дело первый канал, там сразу всё понятно, и ничего не надо.
Аудитории первого канала в принципе нинужно синтезировать графику. Твой форс нежизнеспособен.
>Тебе здесь дали простейший мануал. Из четырёх пунктов — нос вытереть сложнее.
Конечно, ведь каждый человек с молоком матери получает знания о том, как поднять виртуалку с линуксом, настроить вменяемый обмен файлами и взаимодействие с ней, пробросить видеокарту для нормальной производительности. Это ведь так просто! Или ты предлагаешь мне ради каждого сеанса перезагружаться в дуалбут, а потом заново открывать все программы в винде? Очень просто, очень удобно.
Не вижу смысла продолжать спорить с тобой. Дежурное напоминание - вспомни о том, сколько истерик и боли было, пока ты пытался заставить пердоговно работать, и тратил дни своего времени в попытках изучить "элементарные и очевидные, расписанные по пунктам" вещи. И вместо того, чтобы обвинить пердоремесленника, согласиться со мной во мнении, что он не способен в человеческую инструкцию новичкам, ты занимаешься человеконенавистничеством, обвиняешь других в том, что они не хотят, как ты, со слезами на глазах изучать невнятные и длинные мануалы пердолек и сталкиваться с тоннами ошибок, чувствовать себя слабыми и беспомощными в мире горделивых пердоль. Идейный раб, людоед.
>Конечно, ведь каждый человек с молоком матери получает знания о том, как поднять виртуалку с линуксом, настроить вменяемый обмен файлами и взаимодействие с ней, пробросить видеокарту для нормальной производительности. Это ведь так просто! Или ты предлагаешь мне ради каждого сеанса перезагружаться в дуалбут, а потом заново открывать все программы в винде? Очень просто, очень удобно.
Ты торгуешься за какую-то фигню. Решение тебе дали, почему оно такое, тебе объяснили, а теперь ты отказываешься от него, потому что оно тебе не нравится. Ну, ладно. Понравить его тебе мы не можем, но решением от этого оно быть не перестаёт.
>Не вижу смысла продолжать спорить с тобой. Дежурное напоминание - вспомни о том, сколько истерик и боли было, пока ты пытался заставить пердоговно работать, и тратил дни своего времени в попытках изучить "элементарные и очевидные, расписанные по пунктам" вещи.
>они не хотят, как ты, со слезами на глазах изучать невнятные и длинные мануалы пердолек и сталкиваться с тоннами ошибок, чувствовать себя слабыми и беспомощными в мире горделивых пердоль.
Друг, откуда тебе знать, какие у меня были истерики? Ладно бы они были у тебя, и ты предположил, что у меня был такой же опыт, но ведь ты ничего не изучал, поэтому даже с собственными ощущениями сравнить не можешь.
Или у тебя такие ощущения всегда, когда ты изучаешь и узнаёшь что-то новое, и ты считаешь, что она у всех? Тогда я могу понять твоё нежелание этим заниматься, но такая реакция — нездоровая, и ни у меня, ни, я предположу, у большинства людей такой реакции нет.
Или это такая защитная реакция, чтобы не чувствовать себя ниже других, когда они знают больше? "Они, конечно, теперь знают, но для этого им пришлось пройти через боль, унижения, истерики, слёзы, поэтому меньше знание делает меня, наоборот, выше". Не переживай по этому поводу, просто прикладывай силы, и в какой-то момент чувствовать себя ниже других больше не придётся.
>ЋиЁЎЄ ў бЁв ЄбЁбҐ Є®¬ ¤л.
>Ошибк в синт ксисе ком нды.
>Вообще, python и jupyter это крупный кроссплатформенный софт.
Верно. Но любой блокнот является так же клубком говнокода от передвоых датасатнистов, который никто специально не запаривается делать кроссплатформеным. Пока будешь подкостыливать все виндовые нюансы - сообщество три новых сетки выкатит. Все просто ебашат на колабах/линуксах.
>Installing CLIP...
>Installing Python Libraries for AI...
>Installing libraries for metadata management...
По сути тебе надо просто заглянуть в исходники и заменить линуксовые команды по установке Клипа и зависимостией на виндовые/кондавские.
А зачем запускать что-то НЕ в облаке? Ты миллионер с кучей бабла или что? Ну каггл еще есть. Даже не могу представить, кому может понадобиться использовать мл модель на своём собственном GPU.
>VQGAN-CLIP
>CUDA
Почему куда, небольшой оффтоп, почему во всяких штуках часто требуется именно куда, нахуя это проприетарное говно форсят?
С двумя амудешными картами по 8гб ловить нехуй? М.б. можно как-то память их сложить или типа того? И опять же, без куды посос?
Если посос, то навязывается вопрос: есть ли человеческая реализация этой хуйни?
Карты без кросфаера, кстати, но это же не игрушка, тут это нахуй нинужно, верно?
> есть ли человеческая реализация этой хуйни?
https://github.com/ROCm-Developer-Tools/HIPIFY
CUDA просто сделана производителем видеокарт со знанием сильных сторон их архитектуры, стабильно развивается уже не первый десяток лет, библиотеки и средства разработки накоплены. ATI с самого начала по очереди выпускала громкие пресс-релизы про Close-to-Metal, Stream, APP SDK, гетерогенную архитектуру (и сами собой переписывающиеся под неё программы) с чахлыми примерами и средствами разработки и бросала их на полдороге, засев с ведомым Apple комитетом (тоже любители наобещать с гору ради поднятия курса акций) над написанием стандарта — нет, заебись какого стандарта! — нет, всем стандартам стандарта! — OpenCL. Дескать, все так охуеют, что есть открытый стандарт, что сами всё для него напишут. Так они первую половину 2010 годов балду пинали, всё просрали (несмотря на паритет вычислительной производительности), OpenCL тихонько заплесневел, и в результате стандартно все пишут под CUDA и ускорители у всех Nvidia. Кажется, топовая вычислительная линейка у AMD только для того, чтобы формально по терафлопсам Tesla обгонять, и интересна, видимо, только желающим пиковой производительности (и энергопотребления):
https://en.wikipedia.org/wiki/Radeon_Instinct
В 2015-2016 году они вроде опомнились, поняли, что специализированные ускорители для специализированных вычислений требуют хорошей специализированной поддержки, предложили Radeon Open Compute, начали портировать библиотеки для CUDA, конвертер из CUDA в HIP написали. Но, так или иначе, поддержка ускорителей AMD в проектах ожидается от желающих это делать. Например, TensorFlow официально только на CUDA, на сайте AMD собрана пара версий (в качестве демонстрации возможности это сделать, видимо), либо можно самому руками конвертировать свои программы.
Вот Blender только что выпустил третью версию и переписанный Cycles X. Когда о работе над новым рендерером было объявлено, честно написали, что работать он будет на ЦПУ и устройствах CUDA, а всё остальное — если предложат достойные варианты (жирный намёк). После этого Apple притащила поддержку Metal (до этого Cycles использовал GPU только в старых версиях MacOS и с железом Nvidia — а от OpenGL и OpenCL в 2018 году Apple сама гордо отказалась), и с AMD за пару месяцев написали поддержку HIP, но пока только для активно поддерживаемых последних серий устройств и только под Windows.
https://wiki.blender.org/wiki/Reference/Release_Notes/3.0/Cycles
https://developer.blender.org/project/board/99/
Иначе говоря, GTX 1080 Ti 2017 года с Blender 3.0 так и будет работать, а RX Vega 64 2017 года, примерно равная по производительности рендеринга и ей, и средним Radeon текущего поколения, — нет. Вероятно, достаточно быстро доделают и добавят, но пока всё протестируют и сколько-то версий драйверов выпустят с исправлением ошибок и оптимизациями, подойдёт время списывать устройства в официально не поддерживаемые. Чисто аппаратно и у AMD, и у Nvidia все нужные Cycles функции в ускорителях есть примерно с 2013 года, так что если бы у AMD был стабильный и поддерживаемый программный интерфейс не на отъебись, картина была бы совсем иной.
CUDA просто сделана производителем видеокарт со знанием сильных сторон их архитектуры, стабильно развивается уже не первый десяток лет, библиотеки и средства разработки накоплены. ATI с самого начала по очереди выпускала громкие пресс-релизы про Close-to-Metal, Stream, APP SDK, гетерогенную архитектуру (и сами собой переписывающиеся под неё программы) с чахлыми примерами и средствами разработки и бросала их на полдороге, засев с ведомым Apple комитетом (тоже любители наобещать с гору ради поднятия курса акций) над написанием стандарта — нет, заебись какого стандарта! — нет, всем стандартам стандарта! — OpenCL. Дескать, все так охуеют, что есть открытый стандарт, что сами всё для него напишут. Так они первую половину 2010 годов балду пинали, всё просрали (несмотря на паритет вычислительной производительности), OpenCL тихонько заплесневел, и в результате стандартно все пишут под CUDA и ускорители у всех Nvidia. Кажется, топовая вычислительная линейка у AMD только для того, чтобы формально по терафлопсам Tesla обгонять, и интересна, видимо, только желающим пиковой производительности (и энергопотребления):
https://en.wikipedia.org/wiki/Radeon_Instinct
В 2015-2016 году они вроде опомнились, поняли, что специализированные ускорители для специализированных вычислений требуют хорошей специализированной поддержки, предложили Radeon Open Compute, начали портировать библиотеки для CUDA, конвертер из CUDA в HIP написали. Но, так или иначе, поддержка ускорителей AMD в проектах ожидается от желающих это делать. Например, TensorFlow официально только на CUDA, на сайте AMD собрана пара версий (в качестве демонстрации возможности это сделать, видимо), либо можно самому руками конвертировать свои программы.
Вот Blender только что выпустил третью версию и переписанный Cycles X. Когда о работе над новым рендерером было объявлено, честно написали, что работать он будет на ЦПУ и устройствах CUDA, а всё остальное — если предложат достойные варианты (жирный намёк). После этого Apple притащила поддержку Metal (до этого Cycles использовал GPU только в старых версиях MacOS и с железом Nvidia — а от OpenGL и OpenCL в 2018 году Apple сама гордо отказалась), и с AMD за пару месяцев написали поддержку HIP, но пока только для активно поддерживаемых последних серий устройств и только под Windows.
https://wiki.blender.org/wiki/Reference/Release_Notes/3.0/Cycles
https://developer.blender.org/project/board/99/
Иначе говоря, GTX 1080 Ti 2017 года с Blender 3.0 так и будет работать, а RX Vega 64 2017 года, примерно равная по производительности рендеринга и ей, и средним Radeon текущего поколения, — нет. Вероятно, достаточно быстро доделают и добавят, но пока всё протестируют и сколько-то версий драйверов выпустят с исправлением ошибок и оптимизациями, подойдёт время списывать устройства в официально не поддерживаемые. Чисто аппаратно и у AMD, и у Nvidia все нужные Cycles функции в ускорителях есть примерно с 2013 года, так что если бы у AMD был стабильный и поддерживаемый программный интерфейс не на отъебись, картина была бы совсем иной.
Спасибо за развернутый ответ.
Так конвертер скоро готов получается будет? У амуды сейчас бабло вроде есть, могут и вложиться в людей.
На счет веги, вега-то помрет и хер с ним, главное что хид будет работать на другие карточки.
А, ну так сейчас же во всех репах уоже готовый рокм есть, получается допилили, готово. Заебись.
Но зачем?
>Даже не могу представить, кому может понадобиться использовать мл модель на своём собственном GPU
Ну, например, если проект неоднозначный с моральной точки зрения, а то и не совсем законный.
мимо
Ебать 600 тыщ картинок, похоже самый большой архив пикч который я когда-либо видел
Когда-то в обострённой фазе цифрового плюшкинизма, когда инет был безлимитный только ночами - я говнокодил тысячу вебскраппер для того чтобы рипать порногалереи.
За ночь скачается 30 папочек, а подрочишь максимум на 2. За годы накопилось наверне не сильно меньше, но я смог излечиться.
Генерирую лоликон пикчи в колабе, всем похуй, только на драйве зашифровал архив с сетом по паролю и всё
Это копия, сохраненная 14 марта 2022 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.