Вы видите копию треда, сохраненную 17 октября 2019 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Православная, но уже устаревшая версия 1.1:
https://mega.nz/#!hTgA2b6b!mI6k9dFt_w__jIEUQO2ZePhzFMg6JWUpBZWiV2TDgs4
Оригинальный скрипт (для мазохистов):
https://anonfile.com/p7w3m0d5be/face-swap.zip
Более продвинутый скрипт (куда более тяжелый, но потенциальные результаты на порядок более правдоподобны):
https://github.com/shaoanlu/faceswap-GAN
Альтернативное приложение с возможностью юза GAN (кривое, косое, с кучей багов - автор обещает когда-нибудь допилить, но походу забил):
https://radek350.wordpress.com/2018/02/17/myfakeapp-fakeapp-alternative/
Это /e , какие нейросети?
- Речь идет про скрипт от товарища с reddit под ником deepfakes, который уже проник по всем новостям (погугли новости со словами "порно" и "нейросеть", который учит твой компьютер заменять одно лицо другим. Разумеется, приспособили это в первую очередь для создания порнофейков. Порно двигает прогресс, блять. Примеры можете видеть в прикрепе. В связи с разорвавшимися сраками как знаменитостей, с которыми ВНЕЗАПНО появилось много порнухи, так и порнозвезд, тела которых стали юзать без лица, лол, и, до кучи, всегда желающих пернуть о том, как их ущемляют (точнее о том, что на них никто не хочет дрочить), фемок, все соответствующие реддиты, где все и концентрировалось, были выпилены, а потому сообщество разлетелось на осколки. Кто-то сидит в опр. разделах на аиб и регулярно тонет, кто-то сидит на полумертвых форумах типа того же fakeapp.org, кто-то решил, что это противозаконно (тут можно долго спорить - но если ты делаешь фейки для себя, не заливаешь их на сайты с монетизациями и не берешь за это деньги, ничего тебе не грозит) и ушел в даркнет. Мы вот сидим тут, ждем пока мамка купит новую ВК.
Скрипт? Что такое скрипт, блять, я не погромист-кун!
- Не волнуйся, всё уже упаковали в обычное приложение. Оно не так уж просто в использовании, но разобраться - легче простого, особого IQ не надо. Разработчики немного прихуевать начинают в последнее время, конечно, но пока что всё работает забесплатно, без регистрации на самом деле с ней и смс. Майнер, о котором было столько криков, из нынешней версии выпилен. на самом деле, просто выключен разрабами, ибо много вони поднялось
Технические требования?
- Высокие.
В первую очередь, это видеокарта от Nvidia с Compute Capability не менее 3.0 и не менее 2Gb видеопамяти. Это абсолютный минимум. А вообще, нужна какая-нибудь йоба из последних поколений. Во-вторую, это винда. Любая с поддержкой Visual Studio 2015+CUDA 9.0.
Проверить Compute Capability своей ВК можно тут:
https://developer.nvidia.com/cuda-gpus
Имей в виду, что если у тебя что-то слабее 6-гиговой 1060, ты даже в теории не можешь надеяться на хорошие результаты. В лучшем случае - относительно правдоподобное "мыло", не более того. Увы.
У меня AMD видеокарта/макось/линукс/спектрум
- В любом случае придется быть погромистом, чтобы что-то суметь. Все на несколько порядков сложнее. 99.9999%, что ты не справишься. Нет, это действительно сложно. Придется ставить линух, пересобирать половину библиотек на OpenCL, ебаться с 50 консолями, где-то править исходники задействованных программ, и то не факт что поползет. Если ты хоть полслова не понял, даже не берись. Гайд найдешь в боковом меню на сайте, ссылка на который в самом конце поста.
Я соснул, мой компьютер не подходит. Это конец?
- Можно арендовать виртуальную машину с видеокартой у облачных сервисов - рекомендую Google Cloud Services/Microsoft Azure, т.к. можно пощупать бесплатно. Платить за это не стоит - аренда ВК очень дорогая, не стоит оно своих денег. Гугл предоставляет 300$ триальных денег после закидывания на счет 35$ реальных. Если не использовать триал до конца и отменить подписку впоследствии - 35$ реальных вернут. Мелкософт предоставляет 12500 рублей триала. Однако действуй на свой страх и риск - оба способа невозможны без привязки живой кредитки, и если не понимать, что делаешь - рискуешь попасть на деньги после окончания триальных денег. Серьезно так попасть, ибо час работы K80 стоит порядка 35-55 рублей, а P100 - от 50 до 90 рублей. Считай, сколько накапает долга за месяц, если забудешь выключить машину. И да, спишут его только в конце месяца, с кредитки, не спрашивая.
Короче говоря - сомневаешься в том, что ты всё в этом понимаешь - не лезь, она тебя сожрет нахуй. Тебя предупредили.
Ввиду убогости частоты серверных процессоров, ты будешь ограничен именно ею (а не мощностью ВК) в скорости трейна - в P100 смысла особого нет, бери K80, которые дешевле. И да, скорость процесса будет относительно низкая - "профессиональность" видеокарт тут не дает никакого профита, ибо, повторюсь, все упирается в убогость частоты серверных ядер и неоптимизированность самого скрипта под использование на серверных машинах.
Как долго занимает создание фейка?
- Вообще, сильно зависит от железа. В общих чертах - от 6 до 24 часов на мощном железе (1070+), и от 12 до 100 часов на минималках. При использовании GAN - от 10 часов до бесконечности.
Каков принцип работы?
- Вообще, процесс состоит из 3 этапов. В разных местах их называют по-разному, постараюсь привести все названия.
Подготовка:
Для работы программе понадобятся МНОГО (от 100 до бесконечности) фотографий с лицом обоих действующих лиц (порноактрисы и той/того, чье лицо будем вставлять). Для порноактрисы идеальными будут кадры из этого же видео, в которое планируется вставка (ffmpeg либо приложение версии 2.1). Для цели... лучше всего найти какое-нибудь видео с ней, чтобы оттуда набрать кадров. Для знаменитостей - это какие-нибудь интервью, обычно. Если просто скормишь проге все её фотки из ВК/гугла/итд, тоже сойдет, но программе будет на порядок сложнее из-за разных макияжей, освещений, да просто возраста в момент фотографии. Итак, у тебя должно быть две папки с кучей фоток обеих актрис.
1. Align/Extract/Faceset Creation/Get Dataset: Ищет лица на предоставленных тобою фото, вырезает их в отдельную папочку, и записывает файлик alignments.json , где помечает в текстовом виде, на какой фотке где нашел какое лицо. Этот файл может быть будет нужен на шаге 3.
2. Train: Тренирует нейросеть заменять лица из одной папки, подготовленной на прошлом шаге, на лица из второй папки, и сам же дает оценку своим попыткам. Учится само, и очень долго. Основной, и самый долгий, вобщем-то, шаг. Показывает примерный результат своих потуг в окне превью и в окне программы путем числа loss.
3. Merge/Convert/Create: На основе данных тренировки и того, в каком кадре где находится лицо (да, надо будет все кадры всеравно прогнать через шаг 1, если тренировка велась не на них), заменяет одно лицо на другое на каждом отдельном кадре. Приложения версии 2.1+ всё это сделают за тебя, нужно лишь указать им на видеофайл и указать FPS видео.
Завершение:
В конце нужно склеить отдельные кадры обратно в видео. FFmpeg, или приложение версии 2.1+ в помощь.
Настройки, которые "можно" трогать -
Влияющие на Train:
Batch Size - условно говоря, сколько "пар" фоток пытается за раз зафейкать нейросеть на каждой эпохе(за раз). Определяет скорость всего процесса. Чем больше - тем тяжелее будет видеокарте. Может принимать только значения, равные степени двойки. Желательно, чтобы Batch Size был МЕНЬШЕ, чем меньшее из двух количеств файлов лиц, на которых ведется Train. Оптимально: 64 либо 128. Для 2GB-видеокарт: 16.
Layers - кол-во промежуточных "слоёв" сравнения между исходником и результатом. Изменяется с шагом в единицу, больше 4 ставить смысла особого нет. Влияет, грубо говоря, на качество выходного материала. Оптимально: 4. Для 2GB-видеокарт: 2.
Nodes - то, на сколько "кусочков" каждый промежуточный слой дробит фотку, для сравнения. Может принимать только степени двойки, влияет так же, на качество выходного материала. Оптимальное значение - 512 либо 1024. Для 2GB-видеокарт: 64.
Влияющие на Create:
Seamless - в положении On при вставке лиц в кадры видео использует отдельный скрипт SeamlessClone, который сам пытается подобрать тон кожи и границы вставляемого лица. Зачастую лажает, и на видео лицо получается "мигающим" разными цветами.
Blur/Kernel Size - работают только когда Seamless в положении Off. По сути, величина границ "смешения" и краев элементов. Чем больше значения - тем меньше будут видимы границы в местах замены лица, но тем больше будет и мыла. Если значения слишком малы - будут очевидные границы ("квадрат") лица.
Что за всраток вы тут постите? Ебаный пиздец, нонеймы одни.
Возьми да сделай фейк со своей вайфу. Тебе никто не мешает, все инструменты даны.
До какого loss тренировать?
Вообще считается оптимальным, когда почти все лоссы становятся меньше 0.01 или около того, но некоторые модели выдают на preview уже очень неплохие результата и начиная с 0.025. Смотри на превью, вобщем. Обычно, если на лоссах ~0,02 все выглядит очень крипово, даже на лицах анфас - можно не продолжать - фейссеты хуёвые.
Имей в виду, что если кажется, что loss начал "стагнировать" (кажется, что совсем перестал уменьшаться со временем) - это еще не повод заканчивать трейн и идти плакать. Если эта "стагнация" началась в районе 0.019-0.025 - это хороший признак. Просто подожди. Если же лосс упал до 0.01-0.015 без периода этой "стагнации", довольно быстро, а на превью все еще крипота - скорее всего, дело плохо.
Почему получается крипота?
Крайне редко - из-за недостатка терпения. В подавляющем же большинстве случаев - наличие "плохих" фоток в лицах, на которых ведется тренировка. Оригинальный скрипт вообще плохо переваривает:
-лица в профиль (особенно те, где не видно второго глаза),
-очень сильно наклоненные вверх/вниз,
-нечеткие (смазанные юустрым движением кадры) лица,
-затененные либо наоборот пересвеченные,
-с, извиняюсь, хуем во рту, а также с другими штуками телесного цвета типа руки, прислоненными к лицу
-с волосами, закрывающими часть лица (не считая чёлку)
-с очками, кепкой, маской и т.д.
Желательно убирать все такие лица из папок, на которых ведется тренировка.
Также имей в виду, если ты надергал фоток своей ЕОТ из ВК, скорее всего, там есть приличный такой временной промежуток между ними, и лицо её, так или иначе, менялось (а также косметика меняется от фотки к фотке) - это также повлияет на качество выходного материала. Хотя, если она нос, к примеру, не ломала, или резко не худела/толстела - должно быть более-менее. Вообще, как показывает практика, ЕОТ сделать удается крайне редко. Слишком мало исходников и велика вероятность отсутствия видео. Если она поклонник инсты - лови и схороняй сториз, это твой счастливый билет, лол.
GAN куда лучше работает с "хуевыми" лицами (за исключением, пожалуй, нечетких и недосвета/пересвета). Но пока что, чтобы тренировать с его помощью, нужно быть немного погромистом, ибо нет адекватного приложения. MyFakeApp кривой донельзя и часто засирает результаты.
Какую порномодель искать для максимального сходства?
Основные элементы, необходимые для сходства: Фигура, прическа, форма лица+расположение глаз/рта/носа/итд. Можно еще попытаться хоть чутка похожую мимику найти. Такие вещи как форма носа, разрез глаз, форма рта - вторичны (но конечно, чем ближе - тем лучше).
Обращай внимание на татухи порномодели - зачастую именно они портят все впечатление (ну какая Эмма с татухой на всю руку, блять?)
Окей, буду пробовать. Советы вдогонку будут?
Для начала попробуй зафейкать одну сцену, с прямо смотрящим лицом модели, короткую (5-10-20 секунд). Вобщем-то, лучше вообще на длинные ролики не позариваться, делать все нарезками из отдельных коротких сцен. Иначе очень долго будет всё делаться, и с вероятностью 90% получится крипота.
Сделайте мне Поклонскую - на нее похожа Abigaile Johnson, сделайте Карину, сделайте Варлей...
Никто не будет тебе ничего тут делать. Запомни это раз и навсегда. Слишком много геморроя, времени, и высокий шанс фейла, для того, чтобы стараться и пыжиться для рандомного анона из /e.
Если прям ну очень хочется - осиль себе скачать приложение, найти подходящий видео-исходник(порно), нарезать его на кадры, найти кучу хороших кадров твоей вайфу, прогнать их через 1-й шаг процесса (выдергивание физиономий с фоток), почистить от плохих физиономий (прикрытых волосами, боком, засвеченных, затененных и т.д.) и залей эти две папки, чтобы анон потренировал на них. Это единственный вариант, при котором тут анон с хорошей ВК сделает что-то для тебя. И то, не факт, увы. Ну правда, йобы от нвидии у считанных единиц тут.
А реквесты ваши вот эти бесконечные - сделайте ту, сделайте эту - бесполезны.
Какая-никакая инфа (правда, она заточена под FakeApp 1.1), позволяющая в общих чертах понять происходящее, собрана тут:
https://www.deepfakes.club/faq/
Настройки, которые "можно" трогать -
Влияющие на Train:
Batch Size - условно говоря, сколько "пар" фоток пытается за раз зафейкать нейросеть на каждой эпохе(за раз). Определяет скорость всего процесса. Чем больше - тем тяжелее будет видеокарте. Может принимать только значения, равные степени двойки. Желательно, чтобы Batch Size был МЕНЬШЕ, чем меньшее из двух количеств файлов лиц, на которых ведется Train. Оптимально: 64 либо 128. Для 2GB-видеокарт: 16.
Layers - кол-во промежуточных "слоёв" сравнения между исходником и результатом. Изменяется с шагом в единицу, больше 4 ставить смысла особого нет. Влияет, грубо говоря, на качество выходного материала. Оптимально: 4. Для 2GB-видеокарт: 2.
Nodes - то, на сколько "кусочков" каждый промежуточный слой дробит фотку, для сравнения. Может принимать только степени двойки, влияет так же, на качество выходного материала. Оптимальное значение - 512 либо 1024. Для 2GB-видеокарт: 64.
Влияющие на Create:
Seamless - в положении On при вставке лиц в кадры видео использует отдельный скрипт SeamlessClone, который сам пытается подобрать тон кожи и границы вставляемого лица. Зачастую лажает, и на видео лицо получается "мигающим" разными цветами.
Blur/Kernel Size - работают только когда Seamless в положении Off. По сути, величина границ "смешения" и краев элементов. Чем больше значения - тем меньше будут видимы границы в местах замены лица, но тем больше будет и мыла. Если значения слишком малы - будут очевидные границы ("квадрат") лица.
Что за всраток вы тут постите? Ебаный пиздец, нонеймы одни.
Возьми да сделай фейк со своей вайфу. Тебе никто не мешает, все инструменты даны.
До какого loss тренировать?
Вообще считается оптимальным, когда почти все лоссы становятся меньше 0.01 или около того, но некоторые модели выдают на preview уже очень неплохие результата и начиная с 0.025. Смотри на превью, вобщем. Обычно, если на лоссах ~0,02 все выглядит очень крипово, даже на лицах анфас - можно не продолжать - фейссеты хуёвые.
Имей в виду, что если кажется, что loss начал "стагнировать" (кажется, что совсем перестал уменьшаться со временем) - это еще не повод заканчивать трейн и идти плакать. Если эта "стагнация" началась в районе 0.019-0.025 - это хороший признак. Просто подожди. Если же лосс упал до 0.01-0.015 без периода этой "стагнации", довольно быстро, а на превью все еще крипота - скорее всего, дело плохо.
Почему получается крипота?
Крайне редко - из-за недостатка терпения. В подавляющем же большинстве случаев - наличие "плохих" фоток в лицах, на которых ведется тренировка. Оригинальный скрипт вообще плохо переваривает:
-лица в профиль (особенно те, где не видно второго глаза),
-очень сильно наклоненные вверх/вниз,
-нечеткие (смазанные юустрым движением кадры) лица,
-затененные либо наоборот пересвеченные,
-с, извиняюсь, хуем во рту, а также с другими штуками телесного цвета типа руки, прислоненными к лицу
-с волосами, закрывающими часть лица (не считая чёлку)
-с очками, кепкой, маской и т.д.
Желательно убирать все такие лица из папок, на которых ведется тренировка.
Также имей в виду, если ты надергал фоток своей ЕОТ из ВК, скорее всего, там есть приличный такой временной промежуток между ними, и лицо её, так или иначе, менялось (а также косметика меняется от фотки к фотке) - это также повлияет на качество выходного материала. Хотя, если она нос, к примеру, не ломала, или резко не худела/толстела - должно быть более-менее. Вообще, как показывает практика, ЕОТ сделать удается крайне редко. Слишком мало исходников и велика вероятность отсутствия видео. Если она поклонник инсты - лови и схороняй сториз, это твой счастливый билет, лол.
GAN куда лучше работает с "хуевыми" лицами (за исключением, пожалуй, нечетких и недосвета/пересвета). Но пока что, чтобы тренировать с его помощью, нужно быть немного погромистом, ибо нет адекватного приложения. MyFakeApp кривой донельзя и часто засирает результаты.
Какую порномодель искать для максимального сходства?
Основные элементы, необходимые для сходства: Фигура, прическа, форма лица+расположение глаз/рта/носа/итд. Можно еще попытаться хоть чутка похожую мимику найти. Такие вещи как форма носа, разрез глаз, форма рта - вторичны (но конечно, чем ближе - тем лучше).
Обращай внимание на татухи порномодели - зачастую именно они портят все впечатление (ну какая Эмма с татухой на всю руку, блять?)
Окей, буду пробовать. Советы вдогонку будут?
Для начала попробуй зафейкать одну сцену, с прямо смотрящим лицом модели, короткую (5-10-20 секунд). Вобщем-то, лучше вообще на длинные ролики не позариваться, делать все нарезками из отдельных коротких сцен. Иначе очень долго будет всё делаться, и с вероятностью 90% получится крипота.
Сделайте мне Поклонскую - на нее похожа Abigaile Johnson, сделайте Карину, сделайте Варлей...
Никто не будет тебе ничего тут делать. Запомни это раз и навсегда. Слишком много геморроя, времени, и высокий шанс фейла, для того, чтобы стараться и пыжиться для рандомного анона из /e.
Если прям ну очень хочется - осиль себе скачать приложение, найти подходящий видео-исходник(порно), нарезать его на кадры, найти кучу хороших кадров твоей вайфу, прогнать их через 1-й шаг процесса (выдергивание физиономий с фоток), почистить от плохих физиономий (прикрытых волосами, боком, засвеченных, затененных и т.д.) и залей эти две папки, чтобы анон потренировал на них. Это единственный вариант, при котором тут анон с хорошей ВК сделает что-то для тебя. И то, не факт, увы. Ну правда, йобы от нвидии у считанных единиц тут.
А реквесты ваши вот эти бесконечные - сделайте ту, сделайте эту - бесполезны.
Какая-никакая инфа (правда, она заточена под FakeApp 1.1), позволяющая в общих чертах понять происходящее, собрана тут:
https://www.deepfakes.club/faq/
на такую крипоту даже я не смогу фапануть...
inb4 зделой сам
1280x720, 0:11
Оп ты красавичк.БАМП
Валяй. Вангую, что на питоне.
Есть соус третьей?
Хлоя это пиздец, конечно, ну а Эммочка всем нравится, потому что все в пиздючестве смотрели Гарри Поттера, а там это главный женский персонаж. Это как тут некоторые ОЛДЫ пытались Алису Селезневу зафейкать - на что в детстве дрочили, то и привлекает.
Гомес, Лоуренс и т.п. это герои "новых подростковых антиутопий"
Как же она глазами на сисяна похожа, было бы забавно наложить его лицо сюда.
соус 3, аноны
Поиграл с фото на стене.
Что это? Кто это? И как же правильно юзать?
Я уже охуевать начинаю, третью неделю трейн (K80), а все еще крипота. Фейссеты нормальные, ну по крайней мере для стандартного трейнера. Хотел качество получше получить, а тут тренировка длиной месяц походу намечается. Или так и должно быть?
Компания Naughty America, занимающаяся производством порнографии, запустила платный сервис на основе искусственного интеллекта, который позволит клиентам добавлять свое лицо в видео с участием известных порноактирис
Сервис основан на технологии DeepFakes (от deep learning — «глубинное обучение» и fake videos — «поддельные видео»). Она на основе алгоритмов с открытым кодом, таких как TensorFlow, обучается по видео с YouTube. Затем система старается подставить лицо выбранного человека к исходному видео с максимальной реалистичностью.
Клиенты сервиса должны будут отправить Naughty America набор фотографий и видеороликов с различным выражением лица, а также подписать соглашение на обработку снимков и отказ от претензий. Простая вставка лица обойдется в несколько сотен долларов, более тонкая работа — дороже $3 тыс
Да, делал! Нихуя оно нормально не будет делать. Там только похожие лица сделалось норм более менее, а так я перекатился на стандартный алгоритм. У разраба есть и варианты новых версий типа gan256, но никто не спешит делать для них обертку, и чет у меня ничего не вышло с их установкой, хоть я и пытался день. Нужно разбираться в средах разработки.
Нужно гуглить google colab и там запустить ссылку
Впорос знатокам- как запустить вот это все на своем ПК? можно пошагово и для дебилов- типа берем компьютер с видеокартой и виндой 10. Ставим то то то, нажимаем вот этот значок, вставляем вот эту пасту и жмем, ждем, получаем.
Схуяле? Если есть demand, то обязательно появится и supply. Тем более что шкуры однахуй натуральные.
> demand
> supply
Еще один манерный пидор, которому западло просто написать спрос и предложение, и вообще изъясняться как нормальные люди
че-т сомнительная хуйня - делать фейки со своим лицом.
Ну, всмысле, кому это надо? Че-т уже почти за год существования DF, мало кто озаботился этим, ну по крайней мере я особо не слышал, лишь единичные упоминания. Хотя весь инструментарий есть.
просто дебил медиссон и ему подобные пока еще не догадались себя таким способом распиарить он же давно отстал от современных технологий
Зануду распиарили
Сегодня попробую что-то такое провернуть. Тока еще тайтл не определился какой. Но звучит это конечно просто супер, лол. Посмотрю, что выйдет.
это вообще хуй знает сколько крученный фейк, я даже представить себе не могу сколько его лепили, может на алгоритме ган128 недели 2 блять. Было бы интересно узнать стори.
добавлю, что то же железо, что это сделало, по туповатой логике, такое же качество на 128 выжимало бы... ээээ
в 4 раза дольше, т.е. 2 месяца.
ебануться.
>>50747
>>50642
Что главный тормозящий фактор сейчас? недостатки программых алгоритмов, ограниченная скорость памяти, процессора или недостатки инструкций процессора видеокарты? Добавление шейдерных ядер поможет ускорить процесс трейна? есть ли единый онлайн пул натренированной программы, в который добавляют свои трейны пользователи, чтобы делать более совершенную, уже тренированную сеть, чтобы можно было скачать ее и натренить все быстрее, используя уже имеющиеся тренировки этой сети?
эко тебя накрыло то.
все уже подрочили на эмму, разочаровались в алгоритме относительно фейканья своих еот, и благополучно забыли про него.
Ничего этого не будет.
есть вроде сайт, где на регулярной основе выкладывают наскоро сделанные фейки, есть форум коммунити уже загибающийся. На порнухе со знаменитостями сложно делать деньги в наше время. Нельзя делать денег- получите клуб по интересам, распишитесь.
>>50757
Неужели дело умрет? А если отдать проект... Киношникам, чтобы звезды могли сниматься сражу в нескольких фильмах олдновременно?.. Ну это... Это, как его. А технология распознавания лиц тут непричем?
Правильно ли я понимаю, что только на суперПК можно будет делать отдельные сцены минут на пятнадцать, в течение пары ночей?
https://www.youtube.com/watch?v=roCXXvI5wK4
использование лица чьего-то в таких целях, равно как и использование чужого тела, как верно сказал >>50774 - нихуя не законная вещь во всем цивилизованном мире -> на этом нельзя никак заработать толком. На выходе кружок по интересам, но никак не популярная тема, которая будет развиваться.
Плюс тут как с ритм-играми (guitar hero и тд) - контент по миру - он, как бы, кончился. Как ритм-игры схлопнулись (ну как, ушли в разряд гик-увлечений из хайповой темы), когда все так или иначе классические хиты со всех жанров через них уже перемололи, так и тут - всех звезд, которые не светили особо сиськами-письками, уже "посмотрели". Всё, никому это больше не нужно.
Распознавание лиц ну каким-то очень большим боком "причём", но прям совсем вскользь. Технология пока что очень слабо работает с разными положениями/освещениями/итд, чтобы создавать всякие там, как ты говоришь, видео с актерами или там допустим компроматы.
Длительность фейкаемой сцены, по большому счету, не кореллирует с требуемой мощностью/временем. Для одной и той же пары лиц тренировка займет одно и то же время, что ты хочешь 2 секунды зафейкать, что пару минут.
Просто технология нормально работает только с относительно анфас-лицом, а с минетами и прочими волосами на лице - очень плохо. Поэтому длительные сцены и не делают - ибо там будут разные ракурсы, с которыми технология не справится, конча на лице и тд, а не потому что "длительность большая".
По поводу ракурсов. Проблема состоит в том, что зачастую просто невозможно найти фото\видео человека соответствующие ракурсам в порно ролике. Из за этого скрипт пытается "додумывать" их из имеющегося материала, что и даёт очень посредственный результат.
А вот по поводу добавления своего лица, здесь можно рассчитывать на лучшие результаты, так как, например, можно записать небольшой видеоролик, где попытаться максимально отразить все ракурсы лица, что, как мне кажется, должно уменьшить время обучения модели и улучшить результаты.
Если так рассуждать, то и компьютерные игры никому не нужны .по сути, только индустрия довольно сильно распухла и даже частично перетекла в раздел спорта.
игры нужны, в них играют, а вот ты сравниваешь жопу с пальцем.
делать фейк с собою в главной роли - никому не нужно. никто не дрочит на себя.
На свбя - нет, не дрочат (а на еот?) только вот порно индустрия распухла (не так, как игровая, что объясняется интимной тематикой) и дошла и до VR, и даже ростовых кукол 1:1; так что этот палец пахнет точно так же, как жопа.
Почему я делаю кучу однотипных постов с одинаковой пунктуационной(не знаю, как правильно это называется) структурой?
я тебе пишу про то, что нахуй никому не нужно вставлять свое ебало (кунское) в дипфейк что ты и написал изначально, а ты сначала какоето сравнение с играми, а теперь про еот мне втираешь.
Ты точно нить разговора улавливаешь?
> нахуй никому не нужно вставлять свое ебало (кунское) в дипфейк
https://www.youtube.com/watch?v=j978pwMZjmE
Ты издеваешься? Твоя попытка тонко потролить провалилась. Сходи подемагогируй в /б/, проветрись.
>приперся в тред по нейросетям и выебывается что они не нужны
>кидается какашками во всех подряд
Хмм... Кто же тут лишний? Хммм... Интересно...
Тебе чего?
ты настолько тупой, что даже обьяснять не хочется, почему.
Всеравно не поймешь. Лицо-то свое вставил уже в ролик?
Какой же ты даун, просто...
Спасибо, чуть не обкирпичился.
Блядь, до слёз просто , пиздец ><
Ты ебанутый такое кидать? Бляяять. Я предcтавляю какая крипота будет, еcли туда запихнуть рожу из аниме c их огромными глазами и прочей парашей. Пиздец.
Медсестра из сайлент хилла
Мечта Бэтмена наконец-то осуществилась
>>47254 (OP)
Я тут подумал. А ведь даже на 2 гигах можно делать отличные гифки на несколько секунд. М?
ну тут это такое, с минимальными изменениями ракурса и малым набором кадров соответсвенно, да. Но будет похоже на фотошоп, причем по времени и там и там будет то же самое. Большую часть времени занимает именно обучение, а несколько секунд видео конвертится буквально пару минут. Так что скорее нет, все равно надо тратить время на обучение, много времени, а хронометраж видео- дело десятое.
нет, длительность ролика ни на что не влияет, если у тебя 2гб-говно. Длинные ролики не делают лишь потому, что там слишком много разных ракурсов, среди которых могут попасться неперевариваемые технологией.
мыло на 2гб будет в любом случае из-за уменьшения тайлов, которые будет сравнивать нейросеть, хоть ты один кадр делай.
Я подозревал рыжую шлюху, но не думал, что на нее кто-нибудь будет дрочить. Просто страх божий.
На Софи Тернер похожа
реквестировали тысячу раз (скорее всего, частично или полностью это ты и был, кек)
фейков с нею не видел.
TL-GAN выдает очень посредственные результаты, и лично мне не совсем понятно зачем вообще это нужно.
Вкусовщина, на мой взгляд. Если прожимать рандом, то есть шанс словить оригинальные лица.
Попробовал сабж. Нашел более-менее примерно одинаковых (направление взгляда / эмоции) актрис, нарезал лиц, все дела. Далее ~ 20 часов обучения на GTX 1080. В результате крипота адовая. Я хз сколько надо обучать для результата как у ОПа? Месяц / год / вечность? Тут походу на домашнем компе хер сделаешь нормально, нужен сервак с теслами
ты забыл, в каком треде находишься?
ачивидна же, что для наращивания базы фоток еотовной, путем кручения всяких смайл/опенмаус и пр. слайдеров.
про то, нравятся тебе или нет рандомные лица - всем похуй.
не помогут теслы. они даже медленнее, чем 1080, будут тренить, кстати.
улучшай базы, вычищай их от фоток с помехами/засветами/недосветами, используй новые модели. фейкапп 1.1/2.0 уже давно устарели.
Что сейчас вообще в тренде по моделям и развивается (читай не заброшено)? На днях мельком глянул и что-то глаза прям разбегаются.
годно, еще бы такого
дфакер, лиаеф-ы всякие, классический, только 128х128.
ну, ган-ы все еще выдают отменные результаты, но пиздец как требовательны к подбору входного материала (считай, почти анрил)
Развиваться уже толком ничего не развивается, на пару энтузиастов держится. Если что-то поймешь, можешь то, что осталось от дипфейкклаба почитать :
https://github.com/iperov/DeepFaceLab
Бля, спасибо огромное.
поделитель отзывами о dfaker алгоритме, нихуя не понимаю, стоит ли въебывать неделю на него.
>полностью переделанная архитектура программы, с которой легче экспериментировать с новыми моделями, если вы шарите в питоне и нейронных сетях
>если вы шарите в питоне и нейронных сетях
Лолд, от погромистов погромистам. Если я не смог разобраться с ошибкой вечной обработки и еще чего-то в дипфейке на 2 гиговой видеокарте, стоит пробовать это решение?
И есть ли уже аналоги для более простой задачи - перерисовывания простых картинок?
>H64 (2GB+) - половина лица с разрешением 64 - это как оригинальная FakeApp или FaceSwap, только лучше за счёт тренировки маски нейросетью + исключающей фон вокруг лица + исправленного конвертора. Для видеокарт с видеопамятью 2 и 3Гб данная модель работает в сокращенном режиме, т.е. качество будет хуже чем с 4гБ.
Запустил скрипты. На четвертом пункте не смогла обрезать лица из тестового примера, который лежал в раздаче, забил на это говнецо, ибо даже старые скрипты осиливали распознавание лиц.
Я не очень умный и не понял твоего ребуса. Ответь понятнее, пожалуйста.
И что там с картинками? Нет решений для них, облегченных
Для тренировки на видеокарте с двумя гигабайтами памяти нужно использовать модель H64.
Не только у меня не получилось, прочитай обсуждение, там множество ошибок и недоработок. Все программы работали кроме этого кривого говна.
А вот это про тебя: http://lurkmore.to/УМВР
ниче так
Я вот чего подумал. Есть нейросети для фото и видео, но кроме визуального ряда есть еще и аудиосоставляющая. Есть разработки аудио имитации голосов и прочего от выбранных людей?
Это она со Снейпом или с Малфоем?
Да уже все, что хотели, посмотрели. Ну или пооблизывались и позавидовали мамкиным геймирам с подходящими ВК.
>>63693
Есть. Алгоритмов много. Насчет "упакованных" а-ля дипфейк для непогромистов - хз. Условия все те же, в целом - без огромного кол-ва исходного материала врядли удастся создать полноценную замену одного голоса другим. Иными словами, без записей горы стонов твоей еот, врядли ты сможешь заменить ими оригинальный аудиоряд.
Ну ладно, буду гуглить шуршать сам потихоньку, подрачивая на старую безотказную говорилку...
>>62202
>>62158
Смотрел какой-то видосик на 1,5 часа, слушал музыку, спал, проснулся и опять слушал музыку и все это время проходил пункты с 1 по 7(спал только в период тренировки, с 12 примерно до 1(13 часов)), система 4 ядра 2 видеогига и 8 оперативки, все братья живы, правда толку от этого нол, в итоге. Хуле у тебя не так? Какое оборудование используешь, каким менеджером распаковывал прогу, куда и где лежит все это добро? Отрубил ли ты телеметрийные проги из фона винды, например?
480x480, 0:42
Правильно ли я понимаю, что такие видео наиболее подходящие для создания нарезки под модель?
В мердже кадры появляются после конверта. Результат может быть даже после минуты тренировки хуёвый.
Нужно стараться подбирать такие фото/видео, чтобы в них были желательно все ракурсы из результирующего видео. Да, видео анфас делаются проще всего, но, как правильно, они не особо интересные получаются.
У меня и после конверта ничего нигде нет и в превью показывается сначала не измененный кадр, потом черный кадр, потом тот же неизмененный кадр с областью лица для замены серого цвета. И приходится на каждом кадре нажимать выход из окна с превью (хорошо что можно просто зажать шортк закрытия окна).
как называется эта болезнь?
если бы она глазами не косоебила, да, роскошный отрезок - гора эмоций.
но с глазами, боюсь, нейросеть сделает пиздец.
А можно нейронку заставить вклеивать только с отдельными моментами глаз, чтобы она половину времени их косила как вначале, а половину просто вперед смотрела?
Один кадр идет с Шаей из дефолтного сэмплвидео, другой полностью черный, а в следующем на черном фоне область изменяемого лица серого цвета. И так всю длину проекта при конверте. А на выходе ничего нет, никаких файлов не появляется в папках.
в теории - да. На деле - нет.
>>66336
да хз, я пользовался еще древним фейкапппом (1.1), затем спрыгнул на OpenFaceSwap, затем забил на всё это. Конкретно этой аппой не пользовался, увы.
Я тебе попробую в паре слов (получится длинно) описать весь процесс, как он был реализован раньше (явно именно на его основе построено и новое приложение). Может, из него поймешь, что ты сделал не так. А может, просто кучу хуйни напишу зазря, лол.
Весь процесс выглядит так:
0 - скорее всего, исходное видео разбивается на кадры автоматически, раньше это надо было делать ручками
1 - тебе нужно "прогнать" ВСЕ кадры прон-видео через Align(мб по другому уже называется, шаг 1 вобщем) (то, что "выдирает" оттуда лица порноактрисы. На этом же шаге рядом с кадрами создается файлик alignments, который, грубо говоря, содержит инфу, в каком кадре в каких координатах прога нашла лицо. Этот файл важен. На выходе имеешь:
1а - гору кадров исходного видео
1б - файлик alignments
1в - гору "лиц" порноактрисы, вырезанных из видео
2 - "тренировка" - скармливаешь программе два набора лиц - порноактрисы (полученные в шаге выше) и твоей вайфу (аналогично, полученные прогоном кадров из видео либо фоток через тот же шаг 1). Все лица должны быть определенного размера. На выходе имеешь натренированную "модель" - два файлика, содержащие, грубо говоря, инфу, как превратить лицо А в лицо Б и наоборот.
3 - Convert - этому шагу нужны: модель из пункта 2, и штуки 1а и 1б из пункта 1. В итоге этот шаг: берет кадр (1а), смотрит, где на нем лицо (1б), и заменяет его, используя модель (2)
4 - по идее, склеить обратно кадры в видео
А версия последняя?
Сделайте мне программу "экранизатор", суть такова - пользователь загружает книгу/сценарий в программу и нейросеть из нее генерирует фильм. Хочу такое.
удачный выбор
Ахуенно!
Могу только сделать тебе программу "губозакатор", суть такова - пользователь загружает книгу/сценарий в программу и получает нихуя. Хочешь такое?
1280x720, 0:29
Поклонская, ору просто
лол блядь
Что-то вообще не похожа.
УДВАИВАЮ
Нет ни имени ни оригинала, даже сайта не помню откуда скачивал. К сожалению.
На Кайли Миноуг больше похоже
https://rtvi.com/news/v-disney-nauchili-neyroset-snimat-multiki-po-stsenariyu/
Ученые из подразделения Disney Research и Ратгерского университета в Нью-Джерси научили алгоритм читать текст сценария и создавать на его основе раскадровку и видео.
Для создания видео алгоритм использует графический движок Unreal и библиотеку 3D-моделей. По описанию в сценарии алгоритм находит подходящую модель и добавляет ее в ролик.
Разработка нужна не для того, чтобы заменить аниматоров и сценаристов, а чтобы облегчить их труд.
бумп
И нет, я ещё не майор...
Face app для видео? Годно придумал,лицо не заменить, а вот омолодить, изменить расу и пол запросто. Надо у погромистов реквестировать такое для ПК.
>реквестировать такое
думаю, эти фильтра в скорости хакнут, ели не уже...
Нигде не видел как это смотрится при артикуляции, максимум аватары мило улыбались, и не более.
> сотни под две фоток
Если прогонишь две сотни фоток через это, то всяко быстрее найдешь подходящую
http://pornstarbyface.com/
Чому? У меня не особо высокие трпбования к конечному продукту. Просто хочу увидеть её в лужах мочи и спермы
неплохой шанс вдохнуть вторую жизнь в опостылевших экстрасмолл-шмар с вечными брекетами.
что за видос?
Надя Набакова, ее сиськи ни с чем не спутаю
Два чаю.
Молодая анита дарк отлично подходит.
Соус?
Варлей как раз ей под мышку встанет.
Дубина, то, что дед Варлей был выходцем из Франции никак не мешало ему быть румыном, так-же как не мешает этническому Грузину Эрдогану быть президентом Турции, а Саркози (венгерскому Еврею) быть президентом Франции. Национальность и фенотип не мешает в нормальных странах быть самим собой не мимикрируя ни под кого и ни под что. Повторяю, в НОРМАЛЬНЫХ странах, не в тоталитарных парашах типа быдлорахи.
Не подменяй дореволюционную Россию совком, а уж тем более путинской раисией, между ними нет ничего общего. И по степени людоедства царской россии было далеко до этих 2-х уёбищь. Все трое рождены именно в царской россии. Школьник иди тралируй мамку на кухне, тут тебе хуёв насуют так, что ты ими срать будешь.
Что это? Агония в виде тупого пука гринтекста?
Или может есть другая сетка? Гуглежь довел только до пары неработающих сервисов, и сетки, которую надо компилить.
>сетку использовать для замены лиц на простых фото?
2005 год, была прога, глюкавая, но рабочая - натягивала фотку морды на редактируемый скелетон, который мог сука говорить, моргать, шмыгать носом, водить глазами. 2005 год, верните мне его блядь!
Короче, сосоны. Скопил немного денежку, сайчас буду пек брать. В первую очередь примериваюсь к видяхе, а именно ее пригодности к машин лернингу (игры дело второстепенное). Посему советуйте, что ли. Выбираю между 1070ti, 1660ti и мэйби (бюджет жмет) 2060. Вот пишут мол 1660ti на это дело хуже годится, мол
>Big surprised, How could 1660Ti be worse than 1600? 1660Ti beats in all aspects and win in all Benchmarks for gaming.
>They do not have tensor cores which are not important for gaming, but important for deep learning.
Что за cuda и tensor cores и насколько это критично вообще? Может память важнее, а то анон выше писал 2Gb это мало (а сколько нормально тогда?). А может частота важнее? Луркать в один присест кучу статей на ангельском не позволяет проснувшаяся леность ума. Короче, кто шарит советуйте че брать и почему. Алсо пишите реквесты (если нужно), буду на них тренироваться первое время, если годное че-нить выйдет залью в тред (но это нескоро еще).
На качество конечного результат влияет в основном количество видеопамяти. Прочитай мануал, возможно поможет определиться.
https://raw.githubusercontent.com/iperov/DeepFaceLab/master/doc/manual_ru.pdf
Ну из мануала на 2018.02 я понял только то, что 6Gb это самый минимум. А про архитектурные различия чипов ни слова.
Пока остановил свой выбор на 2600 или может на 2700 замахнусь даже.
Вот интересно, те, самые ранние, качественные фэйки с Кэйджем, Трампом, вандервуман на каком железе пилились и сколько по времени заняло? Небось там 1080ti неделю пыхтела.
Аноны, кто сам пилит, поделитесь примером чего ожидать на каком железе и сколько тренили?
У меня 1070. Для более-менее результата с нуля тренировал где-то ночь, потом использовал уже натренированную и, соответственно, время тренировки для достижения результата снижается. Результат очень зависит от количества и ракурсов в исходных фотографиях, и сходства модели на видео. Сейчас делаю VR, на натренированной модели за час-два получается неплохой результат.
А то есть из можно с перерывами тренить? Почему так все не делают? Типа на пару недель, с перерывами, чтоб совсем не убивать железо, но получить качественный результат.
Насчет пары недель не знаю, но по собственным наблюдениям при достижении какого-то числа циклов тренировки, результат уже не особо меняется.
А какие там нюансы есть, где почитать? Скажем, тренить 2+2 ночи это ведь не одно и тоже, что 3 или 4, да? Результат такого прогона (поверх старого, правильно понимаю?) он ближе к 3 или 4 будет?
>>88647
>при достижении какого-то числа циклов тренировки
Я понимаю, что это глупый, вопрос и всё depends, но обычно это сколько часов у тебя выходит? Вот замахнулся ты на свой мастерпис, через сколько по времени прогресс упирается в стенку?
>А какие там нюансы есть, где почитать? Скажем, тренить 2+2 ночи это ведь не одно и тоже, что 3 или 4, да? Результат такого прогона (поверх старого, правильно понимаю?) он ближе к 3 или 4 будет?
Тут не могу ответить, больше суток не пробовал нон-стоп тренировать.
>через сколько по времени прогресс упирается в стенку?
Где-то 300-500к циклов уже должен быть хороший результат, если к этому количеству циклов получается говно, то и продолжать смысла нет. При удачном совпадении фотографий и видео может быть быстрее. Многое зависит от видеокарты, качества исходников и продолжительности видео.
>Небось там 1080ti неделю пыхтела
Нет, это сделали довольно быстро, благо материала с феком дохуя, а вот если с нонейм тнёй будешь пилить, то долго, и результат говно.
What Makes One GPU Faster Than Another?
TL;DR
Convolutional networks and Transformers: Tensor Cores > FLOPs > Memory Bandwidth > 16-bit capability
Recurrent networks: Memory Bandwidth > 16-bit capability > Tensor Cores > FLOPs
А еще: так ли хорош FP16? Пишут мол
>The tensor cores are much faster in FP16 computing, which means that you get a speed/performance boost and use lesser GPU RAM as well
И что значит
>Note: ‘bs * 2’ indicates a batch_size twice larger, as in 256 vs. 128.
?
>Более продвинутый скрипт (куда более тяжелый, но потенциальные результаты на порядок более правдоподобны):
Я нихуя не понял, как это использовать-то в итоге?
Почему никто не делает с трапами и мужиками? На весь интернет 4 хуевых видоса
Может и делают только выходит крипота
пиздец это срать кровью
Её треугольный еблет не налазит ни на одно тело
ГОдно, жаль что не брюнетка
Установи себе китайского товарища майора прямо в анус.
Генератор «фейков» для всех желающих
В Сеть выложен бесплатный инструмент для Windows, позволяющий осуществлять подмену лиц в видеороликах с помощью нейросети.
Проект Deepfacelab, разработка которого ведется с 2018 г., размещен на площадке для хранения и распространения ПО Github пользователем под псевдонимом iperov. Утверждается, что за разработкой инструмента стоит всего один человек.
Название Deepfacelab, по всей видимости, отсылает к созвучному англоязычному термину Deepfake, синтезированному из выражений «глубинное обучение» (Deep Learning) и «подделка» (Fake). Данный термин появился несколько лет назад применительно к технологии, где искусственный интеллект используется для обучения нейронных сетей с применением реальных изображений и видео человека с целью синтеза поддельного видео.
В репозитории Deepfacelab можно найти исходные коды инструмента, несколько готовых сборок программы под различные модели видеокарт, обучающее видео, а также руководство пользователя, в том числе и на русском языке.
Особенности инструмента
Программа не имеет графического интерфейса и представляет собой набор пакетных файлов (с расширением bat) для Windows. Она обладает скромными минимальными системными требованиями: процессор с поддержкой набора инструкций SSE; 2 ГБ оперативной памяти + файл подкачки; видеокарта, совместимая с OpenCL (Open Computing Language, «открытый язык вычислений») и оснащенная не менее чем 256 МБ оперативной памяти; операционная система Windows 7.
По заявлению разработчика, для обучения нейронной сети Deepfacelab может задействовать не только ресурсы графического ускорителя Nvidia, AMD или IntelHD, но и центрального процессора. В документации к проекту отмечается, что «восьмое поколение процессоров Intel способно выдать неплохой демонстрационный результат за два дня тренировки».
Генератор «фейков» для всех желающих
В Сеть выложен бесплатный инструмент для Windows, позволяющий осуществлять подмену лиц в видеороликах с помощью нейросети.
Проект Deepfacelab, разработка которого ведется с 2018 г., размещен на площадке для хранения и распространения ПО Github пользователем под псевдонимом iperov. Утверждается, что за разработкой инструмента стоит всего один человек.
Название Deepfacelab, по всей видимости, отсылает к созвучному англоязычному термину Deepfake, синтезированному из выражений «глубинное обучение» (Deep Learning) и «подделка» (Fake). Данный термин появился несколько лет назад применительно к технологии, где искусственный интеллект используется для обучения нейронных сетей с применением реальных изображений и видео человека с целью синтеза поддельного видео.
В репозитории Deepfacelab можно найти исходные коды инструмента, несколько готовых сборок программы под различные модели видеокарт, обучающее видео, а также руководство пользователя, в том числе и на русском языке.
Особенности инструмента
Программа не имеет графического интерфейса и представляет собой набор пакетных файлов (с расширением bat) для Windows. Она обладает скромными минимальными системными требованиями: процессор с поддержкой набора инструкций SSE; 2 ГБ оперативной памяти + файл подкачки; видеокарта, совместимая с OpenCL (Open Computing Language, «открытый язык вычислений») и оснащенная не менее чем 256 МБ оперативной памяти; операционная система Windows 7.
По заявлению разработчика, для обучения нейронной сети Deepfacelab может задействовать не только ресурсы графического ускорителя Nvidia, AMD или IntelHD, но и центрального процессора. В документации к проекту отмечается, что «восьмое поколение процессоров Intel способно выдать неплохой демонстрационный результат за два дня тренировки».
> На хостинг Github выложена готовая программа для Windows
Ткните пальцем где там это скачать в готовом виде уже?
Лол не знаю ни одну из этих шлюх так что даже не заметил что их куда-то прилепили.
Ваще хз кто это.
Rutracker.org
Ебацца в телевизор.
Вот это пиздосище. Полез гуглить от чего она и когда. А оказывается аж ещё в прошлом году, почти год уже, в ноябре будет. От передоза, ёбнуться.
Вы видите копию треда, сохраненную 17 октября 2019 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.