sage 2 76910
>>76882 (OP)

>две абсолютно идентичные картинки


Ты наркоман или просто долбоёб?
3 76973
Он имел ввиду объёмные стереопары, скорее всего.
4 76982
и чо? все чтоли? расчехляйтесь!
sage 5 76984
>>76973
Ясное дело. Чтобы они были объёмными, там должен быть параллакс, а не две одинаковые картинки как на оппике.
7 77314
460 Кб, 900x800
8 77371
10 77533
Божественно.
11 77638
>>77371
Божественно, анон. Есть моар такого?
12 77640
Анон, спасай, как это смотреть, уже час пытаюсь свести взгляд, ничерта не выходит, у меня так брат умер
13 77653
>>77640
Ты от природы наверное косой? Сводишь глаза чтобы две картинки раздвоились. Выходит 4 изображения. 2 средних изображения стараешься свести в одну картинку и глаза через некоторое время сфокусируются и сами будут держать это изображение
sage 14 77655
>>77653
Нихуя не получается, сажи.
15 77696
как это гуглить?
17 79877
>>77653
а в чем космический эффект? чем отличается от обычного просмотра картинки?
sage 18 79878
>>77655
Присоединяюсь к сажированию. Хуета какая-то.
2,7 Мб, webm,
1280x720
sage 19 79880
>>79877
Тебе сколько лет, что ты про стереограммы даже не слышал?

Проебал похоже свой пак картинок, но на борах легко ищется по cross-eyed_stereogram или просто stereogram.
sage 20 79881

>разворачиваешь картинку на пол экрана или меньше, иначе глаза от больших углов заболят


>выставляешь палец на линии между глазами и картинкой и фокусируешься на нём


>картинка на фоне начнёт двоится и получится 4 половинки


>двигаешь палец вперёд и назад, то тех пор пока средние две не совпадут


>фокусируешь взгляд на совмещённой картинке и убираешь палец


На нарисованных картинках работает крайне хуёво, так как там от руки запиленный нереалистичный параллакс. Не понимаю для чего это делают. А вот на 3д рендере и фотках со смещенным POV уже заебись, нищебродское 3д.
21 79894
>>79880
Чет нихуя не выходит. Я косой сам то. И картинка двойная не совпадает. Пробал 2 глазами одновременно смотреть - нихуя. Как подвинуть картинку?
sage 22 79895
>>79894
Выше постом гайд. Если ты сфокусируешь взгляд строго на пальце и будешь его приближать удалять, то картинка на экране будет сходиться и расходится. Боковым зрением вылови момент, когда у тебя будет ровно три картинки, где средняя - результат совмещения. Потом аккуратно перефокусируйся с пальца на среднюю картинку.
5,7 Мб, webm,
1280x720
23 79913
>>79895
Еще бы у него получилось. Видео с окулуса бывают "перевернутыми" (а точнее, как раз-таки правильными): для левого глаза слева, а для правого справа. Естественно, когда мы пытаемся смотреть на это, как на перекрестную пару - ничего хорошего не получается как же я сейчас глаза ломал, пытаясь параллельно увидеть тот вебм, чтобы проверить свою догадку, и ведь получилось, когда разрешение снизил почти что до превью.
Вебмрелейтед - смотрибельный вариант >>79880. Если есть еще, дайте соус: будет время, еще принесу. Или можете сами, это легко делается ffmpeg'ом может, еще проще, чем я делаю:
1) Разделяем одно "неправильное" видео на два: ffmpeg -i video.webm -q:v 0 -vf crop=640Ширина пополам:720высота:0Для правого куска здесь тоже ширину пополам:0 RightLeft.mkv 2 раза. В webm сразу кодировать бессмысленно наверное, так как во втором пункте мы будем накладывать оверлей он сам будет накладываться, и -c copy не сработает. Если интересно, crop - вырезка куска размерами ширина:высота:начало_ширина:начало_высота.
2) Объединяем наши два mkv-шника в правильном порядке не путаем, могло и наоборот выйти, если вы называли файлы, как они были в начальном видео. ffmpeg -i Left.mkv -i Right.mkv -filter_complex "[0:v:0]pad=iw•2:ih[bg]; [bg][1:v:0]overlay=w" -q:v 0 Video.mkv . Вместо "•" должна быть звездочка, но ее может съесть Макаба если их две, но я не стал рисковать. Если интересно, что происходит здесь, гуглите ffmpeg side-by-side video , наткнетесь на этот кусок с объяснением или нет.
3) Кодируем обратно в webm. Если вы сделали первые два шага, значит, вы уже умеете это. Если нет, например, в /b/ можно найти Анимублядкий с шапкой.
Вместо -q:v 0 везде можно было использовать что-нибудь вроде -crf 1 -qmax 1, или просто указывать огромный битрейт -b:v 12M, тем более, что -q:v, вроде как, тоже предполагает использование натуральных значений. - это для того, чтобы видео не становилось еще хуже на промежуточных этапах.
24 79916
>>79913
И правда, видео с окулуса не предназначено для косоглазия. Есть куча подобных демок для окулуса, которые можно и с монитора посмотреть. Интересно, можно это как-то динамически подменять.
25 79917
>>79870
Действительно работает, охуенчик.
26 79925
>>79916

> куча подобных демок для окулуса, которые можно и с монитора посмотреть


Есть ссылки, названия, что-нибудь? Можно ведь с фрапсом при 1.9 ФПСах, на моем во всяком случае компе, сидеть, а потом уже ручками переворачивать.
Я уж подумал, что лимит подняли - а это в посте только может быть больше 6Мб файлов.
27 79932
>>79925
Вторая Kijyoulus от какого-то ниппонца.
Первая miku_bj от PornulusRift and Stratorvarious. Думаю нагуглить можно по никам.
Вот нашел первую попавшуюся ссыль:
https://www.reddit.com/r/oculusnsfw/comments/2nv90j/unabridged_list_of_all_dk2_demos_released_up_to/
28 79947
>>76984

> там должен быть параллакс, а не две одинаковые картинки как на оппике.


Но на оппике есть!
1,9 Мб, 900x286
29 79952
>>79947

> Но на оппике есть!


Отсутствует. Только что скачал, наложил в фотошопе одну часть на другую и три минуты выключал верхнюю, сравнивая, меняется ли что-нибудь. Отличаются только jpg-артефакты. Это две одинаковые картинки, поставленные рядом. В предыдущем стереограмм-треде тоже были такие умники, "создающие свои стереопары", из-за которых люди глаза ломали.
30 79954
В MMD стереограммы картинки можно просто делать делая два скриншота немного изменив верхнюю Y характеристику (1-й пик). Ну и так же для простого видео (где есть кости в волосах которые можно настроить). как тут>>79870 14519894583401.webm. Думаю гифку из этого поста>>79952 делали именно так. Как для более сложных видео или длинноволосых моделей без костей в волосах пока не знаю, так как при повторной записи видео волосы могут вести себя иначе чем при первом, а при отключенной физике выглядеть слишком неестественно.)
в принципе может быть там надо перенастроить физику под режим трассировки. х.з. может позже поэксперементирую.

>>79917
Спасибо ^^
3,4 Мб, webm,
922x576
31 79955
>>79954
В программах для 3D-моделирования ставятся просто две камеры, находяищиеся рядом и фокусирующиеся на одну точку. Когда-то я пытался этим заняться, но так и не осилил. В Синиме 4D даже есть специальная двойная камера, которой можно указать расстояние между глазами.
Вообще, я часто понимаю, что не могу определить, правильное ли 3D: обычно я считаю, что левый глаз именно глаз должен видеть больше слева, а правый - больше справа. Но на твоих картинках это не так, но они являются перекрестными парами я попробовал поменять местами - ничего хорошего. Сейчас делал видео из "OculusAnime's modified Fun With Alice!" >>79932 - фрагменты почти что не различаются, я долго не мог понять, нужно ли менять их местами. Поменяв и подумав еще немного, я пришел к выводу, что нужно. В изначальном варианте в самом начале было сложно сфокусироваться на Мику и задний план. Хотя, на остальную "квартиру" я нормально смотрел как в изначальном, так и в "перевернутом" варианте.
Есть какой-нибудь простой способ понять, какая картинка должна быть для какого глаза?
6 Мб, webm,
922x576
32 79962
>>79955
Надо будет и другие ссылки попробовать. Если бы еще в 6Мб не было так сложно запихнуть все это.
33 79990
#Абу-подними-лимит
164 Кб, 626x640
34 79992
>>79990
Скидывай на pomf.cat. Спасибо.
35 79994
Настало время напомнить, что если кончить с косоглазием, то глаза останутся в кучу навсегда
121 Кб, 800x600
36 80002
>>79994
Ага, вчера попробовал теперь косоглазый.
37 80007
>>79955

>В программах для 3D-моделирования ставятся просто две камеры, находяищиеся рядом и фокусирующиеся на одну точку.


Ну так то да, было бы проще. К сожалению редактор MMD одновременно две камеры не поддерживает (па крайней мере до версии MikuMikuDanceE_v926).

>обычно я считаю, что левый глаз именно глаз должен видеть больше слева, а правый - больше справа.


Когда мне пришла мысль сделать в MMD стереограмму я подумал точно так. Но ничего хорошего не получилось. Тогда я поменял картинки местами и получилась стереопара. Я немного удивился что получилось именно когда наоборот, но потом решил воспринимать это как данность.

>Есть какой-нибудь простой способ понять, какая картинка должна быть для какого глаза?


Не знаю. Может кто из анонов знает. Я просто отмечаю пикчи буквами L и R что бы потом вспомнить с какого ракурса, левого или правого я делал скрин.
4 Кб, 267x189
38 80033
Зависимость есть
39 80039
>>79913 >>79916
Анон, есть подозрение, что горизонтальную стереопару можно шейдерами в каком-нибудь mpc-be развернуть для косоглазия, и тогда можно будет смотреть любое ДДД кинцо на любом экране без очков...
Кто здесь умеет обращаться с шейдерами?
sage 40 80040
>>80033
Я раньше думал, что это как монитор подключать будешь, а оказывается только приложения для ведра и смотреть.
1,6 Мб, 1280x720
41 80041
>>79955

>Есть какой-нибудь простой способ понять, какая картинка должна быть для какого глаза?


В чём сложность?
381 Кб, 3200x1120
42 80047
>>80041
Если ты имеешь ввиду, что у тебя перекрестная стуреограмма, то - нет. Она параллельна, как раз-таки. Именно по твоим фрагментам это и видно: в зеленом круге показан "вид справа", для правого глаза. В красном Мику, которая ближе к нам, закрывает больше - ведь она ближе, и левый глаз видит уже ее, а не фон. Не знаю, как объяснить. Но это в конкретно этом примере легко определяется, так как есть объекты с сильно различающимся расстоянием до нас. Пикрелейтед тоже можно судить по рту - но такие детали не всегда можно быстро находить, особенно, если "расстояние между глазами маленькое" и картинки практически идентичны они всегда почти одинаковы, когда изображен фон, находящийся далеко.
43 80102
>>80047
Я имею ввиду, что где левый и правый глаз легко определить по любым двум объектам, которые на сцене чуть заслоняют друг друга. А это обычно всегда так, потому что есть объект и какой-нибудь фон.
44 80179
>>79955
>>80007
Я кстати нашёл статью где описывается почему так происходит. (1-й пик оттуда).

Там же есть и инструкция как научиться смотреть стереопары для тех кто ещё не умеет это.
45 80181
>>80179
Блин, ссылку забыл. Вот:
http://macroclub.ru/how/stereo
46 80228
Аноны, я так глаза не сломаю?
47 80253
>>80228
сломаешь,
но если не сидять так днями, норм.
48 80254
Блять, представляю, заходит маман в комнату, а ее сына сидит перед монитором с перекошенными глазами и смотрит на хентайные картиночки
49 80257
>>80254
Где-то я это уже слышал.
50 80264
Круто то как!
51 80326
>>80040
Можно подключать через юсб шнур прогой TrinusVR, правда тогда стереоэффекта не будет и это больше для игорей подходит.
А если надо передернуть, то есть сайтики, на которых можно скачать специальный 360-180 порн в формате видео. Открывается прогой aaa vr cinema. Тут тебе и стереоэффект и на поворот головы реагирует. Естественно телефон нужен более-менее современный с хорошим экраном и датчиком ускорения.
52 80327
Позаимствовал пару вебм с аналогичной темы фочана.
53 80328
Блядь, нихуя не понимаю. Вроде скрещиваю глаза так чтобы одна картинка посередине была и взгляд на ней фокусируется но она нихуя не отличается от двух дефолтных.
54 80335
>>80328
таки да, переоцененное гавно, мне еще и уменьшать сильно нужно, иначе не сводятся. >>77515 разве что тут брызги фапчи более на переднем плане выглядят.
55 80366
>>80335
Можно смотреть 2 способами, это сводить глаза к носу, пикча визуально становиться меньше. и можно наоборот разводит глаза, это сложнее, но нихуя не уменьшается.
83 Кб, 512x363
56 80367
>>80366
нашел http://sirds.lipetsk.ru/recomendations.php
1 метод легкий, но изображение вдавлено внутрь (тяжело смотреть с моим -1 все плывет) глаза (>).(<)
2 второй метод сложнее, но изображение наоборот выпучено. глаза (<).(>)
вот хорошая пикча для тренировке
57 80422
>>80367
Это просто ужасная пикча для тренировки, лол Я умею смотреть такие стереограммы - но из-за этих двух точек сфокусироваться на достаточное время на грушу, спрятанную внутри, почти нереально.
>>80366
Не "Можно смотреть двумя способами", а есть 3D-картинки, видимые с помощью издевательства над зрением, двух видов:
• Параллельные стереограммы - та, что с двумя точками выше - могут содержать в себе фигуру, которая обязана быть объемной: довольно сложно запихать в них что-то тяжелое, почти нереально накладывать хоть какую-нибудь текстуру. Для просмотра таких нужно смотреть сквозь экран, "на оптическую плюс-бесконечность" я, когда учился, представлял, что передо мной, очень далеко, находится Эверест, лол, и, когда вы получите правильное "положение глаз" (может понадобиться приближение к экрану затруднит следующий этап и/или уменьшение картинки тогда проще будет развести глаза до почти параллельного состояния, нужно будет сфокусироваться на экран, чтобы появилась четкость. Это бывает очень трудно, так как, если экран слишком близко, на него может не получиться фокусироваться в принципе - а тут еще нужно не сбить положение глаз. Мои первые два пика как раз требуют этого варианта просмотра. На первом Он сложный, нужно неслабо уменьшить картинку, по-моему, проще фокусироваться по заметным при расфокусировке вертикальным цепочкам mgg красно-розового оттенка некоторое подобие круглого человечка с тонкими руками-ногами, улыбкой, и так далее; На втором Можно подстроиться подо что угодно, например коричневую голову - парень, проезжающий на мотоцикле мимо девушки в машине.
• Перекрестные стереограммы / Стереопары. Вот тут нужно косить глаза, как нам запрещали в детском саду. Обычно процесс объясняют через "Поставьте палец между картинок, чуть ниже. Теперь фокусируйтесь на него, смотрите на задний план, чтобы две картинки образовали третью, теперь, не теряя положение глаз, снова сфокусируйтесь на экран", в интернетах много гайдов. Это гораздо проще напрячь глаза, вместо того, чтобы расслабить, когда они должны быть напряжены, у вас должно получиться. Например, держите 3-4 пик. Такие стереопары можно делать и самому, делая две фотографии, немного сдвигая фотоаппарат. Опять же, есть много гайдов. Главное, чтобы картинки были в порядке ПРАВАЯ-ЛЕВАЯ Так как наш правый глаз будет смотреть на левую половину, и ему нужна именно правая часть, и наоборот. Если они перепутаны (Или, например, изображение снято с какого-нибудь Окулуса >>79916, то нужно поменять части местами либо пытатся смотреть параллельно, но это сложно, и размер придется уменьшать до ~150:* - можно проверять, если не уверен
Алсо, если переборщить со всеми этими экспериментами со зрением, чтобы мозг решил, что все это номрально, можно добиться интересных эффектов. Я теперь, к примеру, когда передо мной неинтересный объект, смотрю "сквозь него", изучая боковым зрением окружающую среду. Не знаю, хорошо это, или плохо не развивает ли дальнозоркость такое расслабление глаз, да и даже не знаю, часто ли такое происходит или я некоторое исключение.
57 80422
>>80367
Это просто ужасная пикча для тренировки, лол Я умею смотреть такие стереограммы - но из-за этих двух точек сфокусироваться на достаточное время на грушу, спрятанную внутри, почти нереально.
>>80366
Не "Можно смотреть двумя способами", а есть 3D-картинки, видимые с помощью издевательства над зрением, двух видов:
• Параллельные стереограммы - та, что с двумя точками выше - могут содержать в себе фигуру, которая обязана быть объемной: довольно сложно запихать в них что-то тяжелое, почти нереально накладывать хоть какую-нибудь текстуру. Для просмотра таких нужно смотреть сквозь экран, "на оптическую плюс-бесконечность" я, когда учился, представлял, что передо мной, очень далеко, находится Эверест, лол, и, когда вы получите правильное "положение глаз" (может понадобиться приближение к экрану затруднит следующий этап и/или уменьшение картинки тогда проще будет развести глаза до почти параллельного состояния, нужно будет сфокусироваться на экран, чтобы появилась четкость. Это бывает очень трудно, так как, если экран слишком близко, на него может не получиться фокусироваться в принципе - а тут еще нужно не сбить положение глаз. Мои первые два пика как раз требуют этого варианта просмотра. На первом Он сложный, нужно неслабо уменьшить картинку, по-моему, проще фокусироваться по заметным при расфокусировке вертикальным цепочкам mgg красно-розового оттенка некоторое подобие круглого человечка с тонкими руками-ногами, улыбкой, и так далее; На втором Можно подстроиться подо что угодно, например коричневую голову - парень, проезжающий на мотоцикле мимо девушки в машине.
• Перекрестные стереограммы / Стереопары. Вот тут нужно косить глаза, как нам запрещали в детском саду. Обычно процесс объясняют через "Поставьте палец между картинок, чуть ниже. Теперь фокусируйтесь на него, смотрите на задний план, чтобы две картинки образовали третью, теперь, не теряя положение глаз, снова сфокусируйтесь на экран", в интернетах много гайдов. Это гораздо проще напрячь глаза, вместо того, чтобы расслабить, когда они должны быть напряжены, у вас должно получиться. Например, держите 3-4 пик. Такие стереопары можно делать и самому, делая две фотографии, немного сдвигая фотоаппарат. Опять же, есть много гайдов. Главное, чтобы картинки были в порядке ПРАВАЯ-ЛЕВАЯ Так как наш правый глаз будет смотреть на левую половину, и ему нужна именно правая часть, и наоборот. Если они перепутаны (Или, например, изображение снято с какого-нибудь Окулуса >>79916, то нужно поменять части местами либо пытатся смотреть параллельно, но это сложно, и размер придется уменьшать до ~150:* - можно проверять, если не уверен
Алсо, если переборщить со всеми этими экспериментами со зрением, чтобы мозг решил, что все это номрально, можно добиться интересных эффектов. Я теперь, к примеру, когда передо мной неинтересный объект, смотрю "сквозь него", изучая боковым зрением окружающую среду. Не знаю, хорошо это, или плохо не развивает ли дальнозоркость такое расслабление глаз, да и даже не знаю, часто ли такое происходит или я некоторое исключение.
58 80423
>>80422
1ый и 2ой пик охуенны, так всё четко видно заебись, 3ий и 4ый почему то расплываются, нету четкости но объём норм, я что то ни так делаю или так и должно быть?
59 80425
>>80423

> нету четкости но объём норм


Вот примерно так я и представляю, как смотрят стереопары люди с дальнозоркостью У меня единички: скосить глаза может каждый, а вот напрячь мышцы, если они не могут напрягаться - никак. Попробуй дальше от монитора, может, сесть?.. Хотя, что-то я фигню несу. Раз на экран можешь фокусироваться, то и на стереопару на том же расстоянии тоже сможешь. Попробуй еще. Иногда нужно сильно напрягать глаза. Не знаю, в общем.
60 80426
>>80425
Алсо вместо монитора использую телек 42" и сижу на расстоянии 2м от него (когда капчую, когда анимцо смотрю подальше на кровать ложусь) мб в этом дело?
61 80427
>>80425
После нескольких попыток всё таки получилось нормально сфокусироваться на гифке, но всё равно небольшая размытость присутствует на лице, в тоже время я очень четко вижу границы по краям ног
62 80428
>>80426
Говорю же, не знаю. Все должно получаться нормально А первые две из того поста идти сложно. Я бы просто попробовал еще когда-нибудь. А потом еще. И так, пока не получится, давая глазам время на отдых. Просто это-таки не совсем обычная для глаз операция "создать точку фокусировки зрачков на расстоянии d/2, фокусироваться на d" не знаю, как все это нормально описать. Хотя, точно также неестественно создавать точку фокусировки зрачков на плюс-бесконечности, а фокусироваться на d. В общем, НЕ-ЗНА-Ю.
2,9 Мб, webm,
1276x720
63 80545
Неинвертированное.
3,8 Мб, webm,
1276x720
64 80586
>>80545
Перевернул. Хотя, фокусироваться сложно из-за большого расстояния между глазами/камерами. При параллельном просмотре начальной тоже не мог смотреть, когда камера приближается к Мику слишком сильно
65 80682
Бамп
66 80692
>>80682
Хуямп
6 Мб, webm,
922x576
67 81178
Кто-нибудь знает, как запустить Custom Maid 3D в режиме виртуальной реальности, не имея Окулуса? Если запускать CM3D_VR.exe, то он пишет, что не найден Окулус. Может, есть какие-нибудь специальные драйвера, подменяющие дисплей Рифта на обычный экран? Было бы очень круто сделать нечто подобное.
MMD-демошки имеют минусы - модельки и звуки почти везде одинаковые. Если появляется какая-нибудь другая модель - она по-своему кривая. Да и не найти их в большом количестве. Много кто закидывает их на Mediafire и Мегу - а оттуда их через некоторое время удаляют. Скрины тоже удаляют. Пока искал, видел пару вариантов с заманчивыми скринами - но сами программы были уже потерты. Конечно, что-то я еще заснял Остается перекодировать, до чего все руки не доходят - но оно все очень похоже.
6 Мб, webm,
922x576
68 81221
69 81259
http://boards.4chan.org/h/thread/4170819/3ds-3d-hentai
Владельцам нинтенды 3дс стоит заглянуть в этот тред.
811 Кб, 1010x667
71 82044
>>82021
Судя по неискабельности соуса по картинке, это все ты же, MMD-кун? Если нет, то, соответственно, запрашиваю совас.
Кстати, у меня сейчас появилась маленькая идея или нет. Когда-то я поленился разобраться в MMD-редакторе, так что не знаю, как там все работает. Хотя, раз получаются картинки, можно получить и то, что я хочу.
Смотри. Ты уже научился двигать камеру, чтобы получались хорошие стереопары в первых, как я понял, у тебя очень сильно сдвигался задний план. В правильную сторону, но сильнее, чем модель - создается впечатление, что он ближе. Можно без проблем создавать и стерео-видео со статичной камерой. Модели нужно задать какие-нибудь движения думаю, ты знаешь, как. Я-то совсем не в курсе, скачать какой-нибудь fraps не пробной версии, затем сделать видео для левого и правого глаза - и склеить их в обратной последовательности - вуаля, мы можем делать стерео-видео с MMD. Проблемы могут возникать при необходимости поворотов камеры, но можно обойтись и без них.
Ну что? Если единственная проблема - нежелание работать с ffmpeg'ом через консоль, то у меня есть маленькое приложение, которое умеет склеивать side-by-side что угодно. Тоже консольное - но ему просто даешь пару файлов и пару раз нажимаешь на 'Y'. Могу скинуть exe-шник и исходник C++. Раньше никогда не пытался передавать откомпилированные (MinGW) файлы на другие машины, так что за работу на не-Win7-X64 ручаться точно не могу. Ну, ты ведь сможешь в крайнем случае перекомпилить один файл, да?..
Сейчас еще собираюсь сделать программку с противоположным действием, которая пилит двойное видео/картинку на 2 отдельных - чтобы можно было в пару кликов пересобирать параллельные стерео-изображения от Окулуса на обычные перекрестные стереопары для нас.
72 82084
>>82044
Соуса нет. Это я вчера что бы бампануть тред сделал :3

>в первых, как я понял, у тебя очень сильно сдвигался задний план.


Я тогда ещё не понял почему некоторые стереопары, где персонаж в помещении, получаются лучше по фону чем другие. Потом, кода поэксперементировал понял что это зависит от параметра камеры. При редактировании камеру можно приближать/удалять двумя способами (2pic A/B). Увеличительным стеклом в правом углу (А) или изменением параметра (В). При изменением параметра лучше просматриваются (как мне кажется) мелкие детали персонажа, но больше "гуляет фон". Экспериментальным путем пришёл к выводу что оптимально (для пикч стереограмм) дефолтные 30 (+/- 5) единиц.

>Можно без проблем создавать и стерео-видео со статичной камерой.


Можно. Вот в этом посту>>79870 14519894583401.webm я делал. Но не "без проблем". Сейчас опишу камни.
В MMD-редакторе есть четыре варианта предустановки физики (3pic). Наиболее часто для простых видео используют предустановки с заранее включенной физикой. Это удобней и быстрее. Хоть при этом иногда бывает что волосы (ну или части одежды) проваливаются сквозь модель. (Например на 4м пике при включенной физике правого уха бы видно не было, а волосы проходили бы сквозь плечо персонажа внутрь). Но это всё мелочи по сравнению с тем что в редакторе MMD только одна камера. Можно конечно сначала установить её для одного глаза, и снять видео для него, а потом переустановить камеру и снять видео уже для другого глаза. И смонтировать полученные два видео в стерео в любой монтажке. На прикол в том что редактор MMD просчитывает физику заного при каждом воспроизведении (при предустановке включенной физики). И поэтому при первой съёмке для одного глаза волосы / ленточки / юбочки будут двигаться по одному. А при повторной съёмке для другого глаза уже несколько иначе. В итоге в смонтированном видео на их месте будет не стерео изображение а пятно той или иной резкости. Однако, конечно. предустановку включенной физики можно отключить, и прописать физику вручную. Но это довольно долго так как придётся делать это для каждой пряди волос. И для подпрыгивания грудей тоже. Если этого не сделать то на видео получиться не супер 3D stereo hentai video а потрахушки манекенов из магазина одежды :3.
Хотя конечно можно взять модель с короткой стрижкой. Чем короче волосы у модели тем меньше разночтений в их физике при воспроизведении. Или, как вариант, попробовать взять модель где "шерстистость" прически прописана ещё и в дополнительных настройках. Типа модели Kaat от J&J Edit. Теоретически с этим вариантом, при наличии времени, наверное можно поэксперементировать.

>скачать какой-нибудь fraps


Если честно я не понял зачем скачивать фрапс. В MMD-редакторе есть возможность вывода видео в том числе и несжатый AVI. А монтажить можно в том же вегасе.
Для захвата видео когда есть необходимость юзаю HyperCam3. Мне больше нравиться чем фрапс. Хотя раньше когда то фрапсом пользовался тоже.

>Если единственная проблема - нежелание работать с ffmpeg'ом через консоль


Если будет необходимость то, думаю, ffmpeg освоить смогу. Тут большая трудность - дефицит времени. А так я привык резать Дабом, монтажить Вегасом и кодить Симплой :3 А когда нужно перекодить в вебм то юзаю АниВидеоКонвертор. Хоть в Анимублядском иногда и ругаюся :3
72 82084
>>82044
Соуса нет. Это я вчера что бы бампануть тред сделал :3

>в первых, как я понял, у тебя очень сильно сдвигался задний план.


Я тогда ещё не понял почему некоторые стереопары, где персонаж в помещении, получаются лучше по фону чем другие. Потом, кода поэксперементировал понял что это зависит от параметра камеры. При редактировании камеру можно приближать/удалять двумя способами (2pic A/B). Увеличительным стеклом в правом углу (А) или изменением параметра (В). При изменением параметра лучше просматриваются (как мне кажется) мелкие детали персонажа, но больше "гуляет фон". Экспериментальным путем пришёл к выводу что оптимально (для пикч стереограмм) дефолтные 30 (+/- 5) единиц.

>Можно без проблем создавать и стерео-видео со статичной камерой.


Можно. Вот в этом посту>>79870 14519894583401.webm я делал. Но не "без проблем". Сейчас опишу камни.
В MMD-редакторе есть четыре варианта предустановки физики (3pic). Наиболее часто для простых видео используют предустановки с заранее включенной физикой. Это удобней и быстрее. Хоть при этом иногда бывает что волосы (ну или части одежды) проваливаются сквозь модель. (Например на 4м пике при включенной физике правого уха бы видно не было, а волосы проходили бы сквозь плечо персонажа внутрь). Но это всё мелочи по сравнению с тем что в редакторе MMD только одна камера. Можно конечно сначала установить её для одного глаза, и снять видео для него, а потом переустановить камеру и снять видео уже для другого глаза. И смонтировать полученные два видео в стерео в любой монтажке. На прикол в том что редактор MMD просчитывает физику заного при каждом воспроизведении (при предустановке включенной физики). И поэтому при первой съёмке для одного глаза волосы / ленточки / юбочки будут двигаться по одному. А при повторной съёмке для другого глаза уже несколько иначе. В итоге в смонтированном видео на их месте будет не стерео изображение а пятно той или иной резкости. Однако, конечно. предустановку включенной физики можно отключить, и прописать физику вручную. Но это довольно долго так как придётся делать это для каждой пряди волос. И для подпрыгивания грудей тоже. Если этого не сделать то на видео получиться не супер 3D stereo hentai video а потрахушки манекенов из магазина одежды :3.
Хотя конечно можно взять модель с короткой стрижкой. Чем короче волосы у модели тем меньше разночтений в их физике при воспроизведении. Или, как вариант, попробовать взять модель где "шерстистость" прически прописана ещё и в дополнительных настройках. Типа модели Kaat от J&J Edit. Теоретически с этим вариантом, при наличии времени, наверное можно поэксперементировать.

>скачать какой-нибудь fraps


Если честно я не понял зачем скачивать фрапс. В MMD-редакторе есть возможность вывода видео в том числе и несжатый AVI. А монтажить можно в том же вегасе.
Для захвата видео когда есть необходимость юзаю HyperCam3. Мне больше нравиться чем фрапс. Хотя раньше когда то фрапсом пользовался тоже.

>Если единственная проблема - нежелание работать с ffmpeg'ом через консоль


Если будет необходимость то, думаю, ffmpeg освоить смогу. Тут большая трудность - дефицит времени. А так я привык резать Дабом, монтажить Вегасом и кодить Симплой :3 А когда нужно перекодить в вебм то юзаю АниВидеоКонвертор. Хоть в Анимублядском иногда и ругаюся :3
133 Кб, 873x664
73 82157
>>82084
анон, а тебя случайно не nvideo? есть же опция 3D side-by-side.
74 82158
>>82157
если у тя nvideo и не заработает, есть эмулятор
http://kostasoft.com/index.php?mod=pages&page=clone
75 82416
>>82157
У меня эта функция не активна. Можешь запилить небольшую вебм что бы посмотреть что и как она делает?
170 Кб, 967x711
76 82823
>>82416
сорян, но у меня radeon сгоревшая, лол а пикча с вики http://www6.atwiki.jp/vpvpwiki/pages/275.html#id_0898b786
я где то читал, что её можно включить на любой nvideo карте.>>82158
но сайт оффлайн смотри через http://web.archive.org/web/20160211063330/http://kostasoft.com/index.php?mod=pages&page=clone
и нашел файл http://rghost.ru/6WS42B48r
кароче, те чет надо намутить с дровами, чтоб была функция 3D и тогда можно будет экспортировать вертикальную стерео пару.
побывал, еще с VR версией, но без шлема не заводится. какой то эмуль пытался подкинуть, дохлый номер
77 85066
Бампаю годнотой.
https://www.youtube.com/watch?v=tcsa91GAjK4
10 Кб, 256x192
78 85418
Только начал косоглазию учиться. Уже смог за часок не глядеть на свой пальчик, а на стереокартинку, но изображение размазано. Как пофиксить?
79 85427
>>85418
Всегда умел косить глаза, но через минут 10 уже начинают болеть. А ты час косишь, ебанулся чтоль?
80 85475
А чего тут учиться то? Играю в гмод с режимом косоглазия.
81 85688
Ух наркоман
82 85821
У меня только если очень сильно уменьшить получается, вы тоже так, или уже придрочились настолько, что на весь экран открываете?
295 Кб, 830x540
83 87414
84 97460
>>87414
откуда!?
Kokone-New-Stereo-Gr.png323 Кб, 940x576
85 97465
>>97460
Из редактора MMD.
Технология, если что, тут>>79954
Если ты про саму модель то это kokone cat lingerie (Black) v1.0 (J&J Edit)
Iris Mickel SG 900x576.png177 Кб, 850x576
86 105303
87 105306
>>80422
блять, не знаю, ты жив еще или нет. Но первые две картинки осилил без проблем. Да и вообще с давнего детства какого-то хуя научился ставить глаза параллельно, и теперь всегда, когда думаю, так расслабляю их. Все знакомые думают, что я умею управлять косоглазием и ссутся, когда я так делаю. Иногда ради лулзов стебусь над людьми, которые долго смотрят на меня, и раздвигаю глаза. Они сразу отворачиваются и искоса поглядывают на меня, как на ебанутого. Однажды маман после такого случая вообще захотела меня в больницу отдать, думая, что я больной. Но зато дрочу на все эти стереограммы и стереопары без малейших проблем
3D12321.webm17,4 Мб, webm,
1151x720
88 106833
Охует. Полтора года назад я пропал, а потом, когда вернулся, не нашел тред, подумал, что его смыло.
>>105306
Собственно, да, оказывается, я жив. Но картинок для параллельного просмотра у меня практически нет.

Не то, чтобы прошедшее время я провел с большим успехам по стереопарам. Как решил, что тред смыло, к хентайной теме вообще не возвращался. В целом, 3D-тема меня все так же интересует. Все еще делаю периодически стереопары на телефон, купил на Али 3Д-камеру-насадку на андроид/ПК, с Nvidia 3D-Vision'ом разобрался, как видеокарту обновил... Но хентай-контента у меня пока нет. Как оказалось, старые MMD-шные поделки для Окулуса я не удалял, но это так себе контент, конечно. Я уже проверил, что 3D-Vision не хочет работать с Custom Maid 3D 2, и в планах у меня проверить с Illusion'ом. Могу попробовать ответить на простые вопросы, тред буду проверять раз в несколько дней.
3D-123-2-2.webm19,7 Мб, webm,
1151x720
89 106834
3D-123-3.webm18,2 Мб, webm,
1151x720
90 106835
3D-MMDCowgirls-1.webm19,7 Мб, webm,
921x576
91 106838
>>105303
И, кстати, да, спасибо, MMD-кун, что не дал треду утонуть...
92 106863
О, нихуя, тред жив мой еще
93 106941
>>106833
Хз спрашивали или нет, но подойдут ли эти шебмы для просмотра на cardboard? Или нужно поменять картинки местами
94 106943
>>85821
На весь экран могу лол, но я на такое не дрочу особо
3D-WaifuSimulator-v3-1.webm11,6 Мб, webm,
1150x720
95 107063
>>106941

> подойдут ли эти шебмы для просмотра на cardboard


Нет. Ты прав, нужно просто поменять картинки местами. Для этого можно использовать все тот же ffmpeg. А конкретно:
ffmpeg -i Stereoscopic.webm -vf stereo3d=sbsr:sbsl -c:a copy -c:v libx264 -qmin:v 22 -crf:v 25 -qmax:v 28 Cardboard.mp4
Пути к файлам можно не прописывать, а просто перетащить вебмы в консоль исходный после "-i", а в качестве файла вывода перетащить тот же исходник, только поменять ему имя и разрешение на mp4
Точно так же можно поступать со всеми картинками, если интересно. Но, чтобы такое быстрее делать, лучше какой-нибудь скрипт использовать.
А еще можно найти сами MMD-шные поделки для Окулуса (Год назад их было довольно мало, и многие терлись; откуда именно качал - не помню) и запускать их с выводом на телефон каким-нибудь TrinusVR'ом. Может, даже головой крутить можно будет нормально (на всех моих видео я использую мышь, но она позволяет только вправо-влево вращать камеру, не вверх-вниз; контроллер пробовал подключать (не XBox'овский), не помогло)
3D-WaifuSimulator-v3-2.webm6 Мб, webm,
1150x720
96 107066
>>107063

> ffmpeg -i Stereoscopic.webm -vf stereo3d=sbsr:sbsl -c:a copy -c:v libx264 -qmin:v 22 -crf:v 25 -qmax:v 28 Cardboard.mp4


Только "mkv" вместо "mp4" в конце. Либо "-c:a aac" вместо "-c:a copy", либо добавить "-strict -2" после "-c:a copy".
Объяснение: у меня в вебмках звук в кодеке Opus, а его нельзя по-простому запихнуть в файл .mp4. Зато можно в .mkv (первый вариант), или можно в .mp4 запихнуть aac кодек (но, возможно, к нему тоже нужно будет приписать следующий вариант, зависит от версии кодеков), либо включить эксперементальные возможности.
97 107243
Блин, анон, а есть такое же, но для анаглифа? Это же реально проще, чем пытаться изобразить глазами букву "зю". Много лет пробовал, но никогда нифига не получалось, тупо не могу глаза свести. А так считай надел очки и смотри. Плюс размер картинки больше.
H-St-gr-v1.png212 Кб, 810x600
98 107298
>>106838
Так то не за что. Мне же и самому интересно. ^^Ну и попилить контент, который пилю не часто, тоже интересно.
>>106863
В интернете нет ничего твоего.
Хотя то, что когда то ты запилил этот тред, если это конечно был ты, хорошо.
80eBlCeBnываPY.jpg18 Кб, 483x340
99 107318
>>107298
Да сидел, хуйню эту нашел. НЕ думал что есть фапконтент на эту тему. Склеил, значит, из двух картинок на которые тогда дрочил оп пик и запостил. Уж не предпологал, что хоть кто-то будет этим интересоваться. Тем более год спустя. Вот кстати оригинал оп пика пятнадцатого года
100 107363
Тьфу ты. Я думал тут будут косоглазых девочек постить.
101 107384
>>76882 (OP)
Хоть бы годного че попостили. А то одна хуйня низкополигональная в треде.
102 107389
>>107384
Тред для утончённых ценителей там:
https://2ch.hk/h/res/96750.html (М)
103 107479
Годно анон
104 107516
Спасибо, годно
Аноним 105 107679
Спасибо, хуита. Почти все пикчи под убогий метод просмотра, со скрещиванием глаз. Так ещё и хуёвой 3д-графикой всё завалено.
Ritsu StGr SmAp.png255 Кб, 956x600
106 107694
>>107679
Продолжай держать нас в курсе своих ощущений.
Иметь в треде такого отзывчевого анона как ты - это уже очень хорошо, так как не каждый тред в /h/ может похвастаться наличием такого уникального анончика. А уж если ты будешь периодически выходить на связь, радость и счастье от твоего появления не будет знать границ. Особенно если кроме своих высеров ты ещё и контента закапчуешь.
107 107866
тред мертв?
108 107927
А в чем прикол?
Я слепой на один глаз
109 107940
>>107927
типа глубина и параллакс
110 107952
>>107866
Оп жив, наблюдаю, если что, еще наклепаю хуйни без параллакса и вброшу. БУдем жить
111 108014
>>107866
Ты что то хотел спросить?
Или только то что ты спросил? Если только то что ты спросил то это весьма актуальный вопрос на доске со скоростью 1 пост в час.
>>107952
Треды тонут медленно.
MMDStereo3d.mp418,7 Мб, mp4,
1280x360, 0:24
112 108056
Тут такое дело.. Вспомнил я про идею анона (>>82157), и решил попробовать. Запустил рендер тестовой записи "sample(follow_camera)", поставив разрешение побольше, а на выходе получил... Вебмрелейтед. Довольно смешно, если задуматься. И странно.
>>108014
ММД-кун, может, ты знаешь, можно ли в настройках чего подкрутить, относящееся к Nvidia 3DVision? Я только на выводе проекта галочку нашел, но, вдруг, еще где есть. Например, чтобы дистанцию между глазами ту же установить.
Рендерить с галочкой "Left half(for Discover)" - выводит только анаглифное видео, соответственно. Отключать просмотр в 3D-режиме во время рендеринга тоже пробовал - получается просто треш.
Костыль из (>>82158) пробовал, эмулятор не работает, видимо, под Десяткой. Не находятся драйвера. Сейчас еще попробую переставить, но не думаю, что поможет. Следующим шагом, видимо, будет возрождение Семерки, ибо она так и стоит на втором винчестере может, работает еще. Туда эмулятор должен встать, думаю.
Больше у меня идей пока нет, но буду рад послушать предложения.
3D-WaifuSimulator-v3-3.webm5 Мб, webm,
1150x720, 0:44
113 108065
>>108056

> Сейчас еще попробую переставить, но не думаю, что поможет. Следующим шагом, видимо, будет возрождение Семерки


Провал. Не понимаю, что не так.
Если под Десяткой вообще не появляется нового устройства при запуске второго батника, то под Семеркой он у меня появляется с восклицательным знаком. И в этом случае все так же не получается выбрать другой стерео-режим. Ладно бы еще просто писал, что не видит этого USB-устройства, так нет, в одном случае он пишет, что не установлено драйверов 3D Vision USB, или что-то такое, и линк на nvidia.com/downloads с авто-выбранными пунктами "3DVision"-"Full 3DVision CD for GeForce"-"Win7x64". Самая пушка: При нажатии кнопки "Поиск драйверов", попадаешь на страницу "Драйвера 3D Vision уже включены в основной драйвер для видеокарт GeForce, и отдельно больше не предоставляется". У меня пичот от такого отношения. Форумы с настройкой драйверов 3D Vision есть с 2009 года, и проблемы, на которые тогда отвечали "Поменяй в реестре значение" в качестве решения, сейчас можно отвечать только так же, никаких настроек не было добавлено.
Максимально я приблизился к достижению цели, когда подменил драйвер монитора на драйвер какого-то из проекторов Acer, как показывалось на каком-то видео. Поначалу я был удивлен, что можно безболезненно подменить драйвер, и в конце, когда по дисплею пошли чересстрочные артефакты, за которыми почти ничего не видно, я убедился, что так делать в общем случае нельзя. Даже откат драйвера не помог, только установка драйвера для своего монитора. Ну так вот, пока мой монитор был проектором, окно настройки типа отображения 3D Vision поменяло формат, но я снова уткнулся в то, что у меня "нет драйверов". Хотел потом начисто переустановить драйвер, но... У меня, вроде как, диск посыпался. Пара программ сказали, что у них проблемы с обновлением, 7zip при распаковке драйверов от Нвидии сказал, чтобы я запустил chkdsk,
и я вернулся обратно в Десятку. Вроде, SMART нормальный, но chkdsk что-то поправил; может,
потом еще попробую


Но, так, или иначе, я все еще могу рендерить анаглифные видео, если кому надо... Мало-ли..~
3D-WaifuSimulator-v3-3.webm5 Мб, webm,
1150x720, 0:44
113 108065
>>108056

> Сейчас еще попробую переставить, но не думаю, что поможет. Следующим шагом, видимо, будет возрождение Семерки


Провал. Не понимаю, что не так.
Если под Десяткой вообще не появляется нового устройства при запуске второго батника, то под Семеркой он у меня появляется с восклицательным знаком. И в этом случае все так же не получается выбрать другой стерео-режим. Ладно бы еще просто писал, что не видит этого USB-устройства, так нет, в одном случае он пишет, что не установлено драйверов 3D Vision USB, или что-то такое, и линк на nvidia.com/downloads с авто-выбранными пунктами "3DVision"-"Full 3DVision CD for GeForce"-"Win7x64". Самая пушка: При нажатии кнопки "Поиск драйверов", попадаешь на страницу "Драйвера 3D Vision уже включены в основной драйвер для видеокарт GeForce, и отдельно больше не предоставляется". У меня пичот от такого отношения. Форумы с настройкой драйверов 3D Vision есть с 2009 года, и проблемы, на которые тогда отвечали "Поменяй в реестре значение" в качестве решения, сейчас можно отвечать только так же, никаких настроек не было добавлено.
Максимально я приблизился к достижению цели, когда подменил драйвер монитора на драйвер какого-то из проекторов Acer, как показывалось на каком-то видео. Поначалу я был удивлен, что можно безболезненно подменить драйвер, и в конце, когда по дисплею пошли чересстрочные артефакты, за которыми почти ничего не видно, я убедился, что так делать в общем случае нельзя. Даже откат драйвера не помог, только установка драйвера для своего монитора. Ну так вот, пока мой монитор был проектором, окно настройки типа отображения 3D Vision поменяло формат, но я снова уткнулся в то, что у меня "нет драйверов". Хотел потом начисто переустановить драйвер, но... У меня, вроде как, диск посыпался. Пара программ сказали, что у них проблемы с обновлением, 7zip при распаковке драйверов от Нвидии сказал, чтобы я запустил chkdsk,
и я вернулся обратно в Десятку. Вроде, SMART нормальный, но chkdsk что-то поправил; может,
потом еще попробую


Но, так, или иначе, я все еще могу рендерить анаглифные видео, если кому надо... Мало-ли..~
sage 114 108089
Ебать тут тред тухлый, в хентаче на фочане такие то картинки охуевшие, а тут окулюс параша с хуёвой графикой
Мда, сеги вам, бомжи
115 108099
>>108089

> Ебать тут тред тухлый


Как и вся доска же.

> в хентаче на фочане такие то картинки охуевшие


Сходил, посмотрел, да, там народ время зря не тратит. Полтора года назад там было примерно то же, что на бурах по тегу stereoscopic. За это время у них в треде пошла движуха, нашлись умельцы самостоятельно пилить стереокартинки, а у нас раз в месяц тред бампался безуспешно и на этом спасибо еще раз.

> а тут окулюс параша


Это единственное, чем я могу поддержать тред. И это видео вместо картинок. Если во мне было хоть что-то от художника, я бы попробовал пикрелейтед технику, и, может, я и попробую, но я совсем никак не отношусь к искусству.

> с хуёвой графикой


И делать модельки / создавать приложения - я тоже не умею пока.
А вот открыть скачанную джва года назад Окулус-поделку, заснять процесс, поменять глаза местами и закодировать результат в webm/h264 - это я могу. Этим я и занимаюсь пусть и слишком редко.

> Мда, сеги вам


Твое решение, но ящитаю, что тему нужно поддерживать хоть как-то, чтобы была хотя бы вероятность, что найдется энтузиаст, который внесет что-то новое в тред.
Carstg.png557 Кб, 1100x588
116 108131
>>108056
Привет. ^^ Я читал конечно тот пост, но у меня не тот виндовс. Да и геморроя с установкой эмулятора не хотелось. Поэтому я не пробовал.
Я думаю что если я буду ещё делать стерео видео, то просто буду снимать камерой с двух ракурсов, с отключенной физикой. Что бы не было рандома в волосах. А так Видео-кун>>108065 вот хорошо всё расписал.
Я читал и восхищался его энтузиазмом. Сам я бы и половины от того что он попробовал сделать не сделал бы xD.
>>108089
Да,да.

> А вот у марсиан...


То ли ты пациент дедушек Крылова, Михалкова, то ли просто троллейбур обыкновенный. И, знаешь что я думаю, в тухлые треды такие как ты за питанием не ходят. Так что с тредиком всё ок ящитаю.
Кстати, я что то не вижу что бы в шапке треда было написано что то о давании пососать фочангу или кому то ещё.
Хотя вот тебе наверное и можно было бы дать пососать, но только если ты няшный.
У нас тут и так всё забиесь. А кто с этим не согласен тот нацптеродактиль.
В общем, держи нас в курсе. Твоё мнение и т.д.
>>108099
Не корми ты его . ^^ Он слишком жирный.
117 108135
>>108131

> но у меня не тот виндовс.


В смысле, не тот? Нет, я про сами настройки MMD спрашивал, я же только поверхностно по ним пробежался, а так вообще не в теме.

> Да и геморроя с установкой эмулятора не хотелось.


Так у тебя же не Нвидия. Там-то, смотри, в чем "проблема": в настройках Нвидии можно включить стереоскопический режим, но, не имея спец-оборудования, например, "пирамидки" (в двух словах - ИК-передатчик, говорит очкам, какой глаз сейчас идет в 120фпс-ном видео, если я правильно понимаю) - то можно включить только анаглифный режим отображения. В этом случае, на экран будет выводиться 3D сразу разделенное на синий и красный цвета. Shadowplay в этом случае будет тоже сразу снимать анаглиф (в то время, как его скриншотер сохранять стереопары) - путь тот же Fraps и умеет сохранять side-by-side видео только фрапсом де-факто нельзя снимать 60фпс, но это хоть что-то. "Эмулятор" же должен эмулировать эту самую пирамидку: тогда можно было бы выбрать нормальный 3D Vision формат в настройках, и MMD бы выводил вместо анаглифа 120фпс-ное видео, где каждый следующий кадр предназначен для другого глаза - а это уже "чистый" стереоформат, из которого можно получить любой другой тем же ffmpeg'ом. Ну, это как я вижу картину. Может, дело обстоит и не так...

> А так Видео-кун


Это я и есть ^^.

Сейчас я попробовал хоть и не собирался >>108099, и получил пикрелейтед в качестве теста. Завтра попробую на 2Д-картинке, попроще какой-нибудь. Времени уходит много, а получается фигня, но это немного интересно. Особенно до того момента, как тебе нужно восстановить кусок травы. Или зеркало. Не дружу я с Фотошопом, короче, на уровне выше среднего. Может, еще попробую в ГИМПе сделать то же самое, если это особенность ФШ, что он невероятно размывает слой при его деформации.
Кстати, в попытках найти гайд в большем качестве, нашел только первую половину, пик2.
Ну и чтобы протестить 40Мб точнее 21+ лимит, вебм3
sage 118 108406
>>108099
А ты очень адекватен, даже неловко как-то за себя стало. Удачи в начинаниях.

>>108131
Матуха твоя Сам ты птеродактиль, хуй угловатый
119 108488
>>108406
Пиздуй бампать тред с членодевками.
120 108490
>>108135
У меня самые обычные, дефолтные настройки. Какие установлены с самого начала. А там уже, в зависимости от сцены, я их настраиваю конкретно под сцену. Там это просто. Сейчас ещё часто физику отключаю что бы настраивать движение волос и частей одежды (в тех сценах где она есть) так что бы волосы или части одежды не проваливались в модель. Ну если я правильно понял о чём ты.
Не у меня не Нвидия. Но я так то не собирался делать стереоскопические фильмы. Если конечно, ради эксперимента или для скилла решу сделать, то сделаю как тут>>79870
съёмкой с разных позиций. Плюс я вижу в том, что в таком случае не приходится выворачивать объектив камеры на большое удаление. И модели смотрятся менее растянутыми в пространстве. Другими словами более естественно. Да и выставлять 60fps не обязательно. Можно обойтись 30-ю.
Чёрно белая пикча у тебя хорошо получилась. Ну кроме травы и рамок надписей.
Похожий гайд по фотошопу я видел, когда комрады из той конфы где я время от времени обитаю, обсуждали анимирование статики наподобе как она анимируется в виртуал вайфу. Там да, виден был небольшой блендинг при сдвигании слоёв. Хотя сам я с подобным не сталкивался, так как использую фотошоп в основном для цветокора, работы с текстом и работе с масками (когда, например, нужно персонажей из одного аниме поместить в другое аниме. Тут фотошоп (у меня CS4) работает вполне корректно.
Кстати, на одном из форумов увидел стереопару с полосками по бокам, для лучшей концентрации зрения. Решил потестить без полосок и с полосками.
121 108575
>>108406
Самое забавное, что я не интересуюсь членодевками
122 108660
>>108089
Ты просто завидуешь, потому что у тебя нет очков.

>форчан


Ага, сейчас бы на анально модерируемую доску, где даже лолей запрещено постить.
sage 123 109078
>>108099

>поменять глаза местами


Нахуя? Картинка для левого глаза должна быть слева, а для правого - справа. Алсо, сагаю говноедский тред, так как бампа он не достоин.
wst-stereogr.png654 Кб, 1086x640
124 109335
125 118274
Без пирсинга сосочков и с пирсингом сосочков.
126 119864
Бампппп
127 123298
>>79878

> Присоединяюсь к сажированию. Хуета какая-то.


Какие же вы идиоты, пишите в гугле "как смотреть стерео картинки" по первой или почти первой же ссылке короткая и годная статья, там все объясняют нормально, а не так коряво как аноны, после прочтения вообще без усилий получается эти картинки смотреть и двойные как в этом треде и текстурные
128 123308
>>79994
Кончил с косоглазием. Брат жив.
tumblrp0x8nvxB5m1s5k1uro61280.gif1,2 Мб, 1000x500
129 123707
4.gif4,3 Мб, 1280x720
130 123708
131 123714
>>80425
Ахуеть
132 125605
>>123707
>>123708
это красиво
133 130650
Ужель тут никого нету со стереоочками? Ищите на своей мухосранской барахолке стереоскоп made in ussr за 300 рублей, вытаскиваете линзы, которые уже любовно посажены на правильное расстояние. Качаете на телефон riftcat, ставите стим вр и качаете honey select и вр мод. Все, тян не нужны, профит.
134 131222
Вобщем, пасаны, такая хуйня. Я тут запустил тренироватсья модель по 3д мультикам и карте высот. Планирую на выходе получать карты высот от д2 мультиков. (запасной план в качестве картинок с хентаем в 3д прилагаю).
Скоро будем компилить хентай в 3д ВР за день.
135 131223
Последний видос я делал ночь, и меня заебало, решил, что буду делать с помощью машинного обучения. Сразу скажу, что скомпилировать сразу с 2д в стереопару не получится, пытался, там картинка едет нахуй, как будто для специальных очков с паралаксом. А вот карты высоты генерятся на ура. А сними уже очень просто делать стереопары, а значит можно будет целиком перехуячивать фильм по 1 кадру. Боюсь, что каждый кадр будет разной высоты, но это малая вероятность- покрепче затренить модель, и все будет ок. Выйду на связь скоро.
136 131224
Ах, да убедительная просьба, если у Вас завалялось аниме или хентай в формате стереопары или любом другом стерео, пришлите ссылку. На рутрекере только 3 фильма, уже укачиваются. Хочу делать выборку не только из моих вручную сделанных стереограмм, будет проще так.
137 131683
>>131222
все 4 без эффекта vr, херовая у тебя нейросеть.
138 131694
>>131683
ты пидр охуел, параллельно смотри, не коси.
И это не сеть, это стереограммы из тех примеров, которые я готовлю для нее. Вчера запускал на 4 часа, мне понравился результат, даже картинку с 2 телами распознало, но материалов пока что только 70 картинок. Рехультат грязноват, но он есть, и пара примеров мне понравилось, еще не до той степени, чтобы вручную за ним доделать, но направление верное. У карт потиху вырезаю черные точки, артефакты. Отказался от прорисовки задников. Работаю, может это займет пару месяцев- сделать около 500-600 примеров. Потом уже за пару дней натренировать получится. Опыт с фейссвапом есть, так что все будет чики-пуки, ждите.
139 131721
А вот сеть. Остановил тренировку когда дискриминант перестал меняться. 70 картинок, 3 часа на 1080 простой. Эта картинка с ангелом получилась лучше остальных, потому что я обучал сеть на артах а не на вырезках с аниме- там рисовка сложнее и ее распознает алгоритм. Вот из аниме, где рисовка попроще еще напилю много картинок, тоже будет распознаваться хорошо. На последней картинке сгенерированная карта.
140 131747
>>76882 (OP)
ПАЦАНЫ, У МЕНЯ ПОЛУЧИЛОСЬ. КАК ЖЕ АХУЕННО БЛЯ
141 131763
>>131222
Первая прям вау
55.webm5,7 Мб, webm,
2000x1440, 0:05
142 131773
>>131763
рад стараться, если это не ирония.
Эти работы еще плохие, вижу много артефактов типа поломанной пизды. Сейчас от них потиху избавляюсь и делаю новые. Вот вчера с машины запилил видос.
143 131813
>>131721
Вообще нулевой эффект, хочешь я твои же картинки вручную запилю, и ты увидишь ничтожность своей сети?
144 131814
>>131773
абсолютно плоская картинка, ты это что так тролиишь?
wingssbs.jpg631 Кб, 2050x1023
145 131815
>>131773
>>131721
>>131813
>>131814
Вот твою же сделал вручную, разница как говорится на лицо.
146 131849
>>131813
Да, как будто я не знаю, что она плохая.

Хочешь я запилю на днях какое-нибудь хентайное ОВА на 20 минут, и ты поймешь, что вручную тебе это делать минимум пару лет? Лол, вот уже не думал, что буду сратmся в /h.
а теперь галимые отмазки с моей стороны.
Кароче, у проги цель другая- обрабатывать множество изображений, и она еще в стадии глубокой беты, те фото с 70 кадров для обучения, вручную я могу въебать тоже дай боже, но вот видео кодировать- увольте.
Вот твоя карта высот,(глубин)- сравни с машинной, конечно она не такая резкая. Даже узнаю в обученной программе свою черту- я бы не запиливал крылья все белым, ближним фоном, я бы скорее их сдела как и прога- серединой картинки, а вот перо снизу- белым, собсна как она и сделала. Даже в ручной обработке есть малые дефекты, а вот прога четче обрабатывала границы. Еще у аниме есть такое свойство, как равномерная заливка кожи без теневых переходов, так что важны становятся только контуры, а не внутренняя поверхность, т.е. мы все равно не увидим разницы в аниме а не в арте.
И еще маленькая деталь- сеть училась на тогда, да и сейчас, в основном, на девушках без крыльев, так что логично, что она их не опознала, а сдалала фоном.

Продолжаю работать, вот недавно освоил вырезание карты из других артов, запили еще кучу картинок, вот результат на 6 часов обучения на 130 картинках, часть из которых не была вручную допилена, и значительно отличалась от первой ручной моей работы, так что тоже сильно не пинай.

Вобщем все решается тупо
1. созданием большой базы примеров,
2. прога сможет создавать карты глубин со скоростью 1 в секунду
3. ...
Профит
147 131850
Вдогонку, я на рутрахере нашел целых 3 аниме в таком формате, и там карта высот тоже не такая уж и резкая.
Ну, типа даже если прога используется для артов, она может делать набросок карты высот и делать это быстро, и потом дорабатывать где надо берном. А не как я сейчас- по 5 минут на 1 штуку.
(Да, кстате, что за инструменты юзаешь для создания стерео, мало ли я чего не знаю? Я юзаю DMAG 4, поздние версии без графического интерфейса, прога, которая делает расчет карты высот по цветам, если ей дать набросок карты высот, очень и очень хорошая прога, упрощает жизнь. Если занимаешься стерео, то попробуй, а может сюда покидаешь картинки с картой высот, поможешь мну немного, а то заебался не спать по ночам.)
148 131852
>>131694
>>131849
>>131850

Короче, если вот эту карту твоя сеть сгенерировала то всё ахуенно, она просто почемуто не делает сдвига.

Вот я из твоей же карты сделал блюр и нормальный сдвиг и получилось ахуенно. Пикрулийтиед.
149 131853
>>131852
>>131850

Надо чтоб твоя сеть только карту рисовала, а потом скриптом на любом языке делаешь блюр и сдвигаешь как надо, потом компануешь кадр к кадру, но это хуй его на чём программировать и как.

Я в фотошопе всё делаю.
150 131854
>>131853
>>131852
>>131850
>>131849
Накидай сюда всяких картинок и карт к ним.
151 131855
>>131850

> Я юзаю DMAG 4


Да уж посмотрел я эту софтину, думал закидываешь картинку и она сама всё делает, так вообще легче вручную карту рисовать.
152 131863
>>131854
https://drive.google.com/file/d/1BVx8TvAb3gvwvxYfUBAgeqgH7S-6sqjB/view?usp=sharing
Вот, я соврал, тока 118 наделал. Из них первая часть, где черный фон на всем- сделана в фотошопе +ДМАГ. Дела как для себя, из них и так норм получается делать стереограмы. Там, где фон не сплошной черный- вчера выдранные из картинок, найденных на бору и еще одном японском сайте по запросы в гугле. Не все, но там они довольно сомнительного качества, типа перепады по высоте, карты сложно выдираются, поэтому лучше делать самому (про это все щас напишу).
>>131852
Так, я вообще не программист ни разу, мне каким-то чудом удалось найти и запустить (раза с 20-го, я долго и упорно компилировал из старых версий библиотек нужные) библиотеку pix2pix 1024, модификацию стандартной pix2pix , которая работает только с 256. Я хочу, чтобы в конце она стала такое вот генерировать качество, или примерно такое хотя бы, такого она не выдаст наверняка. Работает она медленнее, чем пих2пих в 16 раз соответсвенно, 1 тик=1 картинка=1 секунда. Обучаться ей надо очень долго, насколько я знаю из своего опыта работы с прогами типа фейссвап, там можно было днями компилить лица в разрешении 128 на 128. Лица одного человека карл. Но тут вроде пих2пих идеально подходит для генерации из чего-то разнородного однородной карты, типа гугл карты из фото со спутника, или котиков из всего, или тех же фасадов из их стандартного примера. Вопрос только в качестве. И те пробы на 4 и 6 часов на 70 и 120 картинок- это просто капля в море, и я знаю, что пока не сделаю картинок 600 и не на треню свой счетчик электрический на пару сотен киловатто-часов, можно даже не думать о качестве. А потом я еще буду из старых картинок, где нет фона делать картинки с фоном, чтобы алгоритм лучше выделял фон от девок, но до этого еще не скоро дойдет, хоть процесс и не сложный, но я его отложу на конец
Ну и раз уж я выкладываю карты, я делаю стерекартинки в проге под названием 3D combine. У нее триал 15 дней, лечится созданием нового юзера в винде, старые прописки в реестре хер найдешь. Там есть много режимов работы, вот я использую 2d to 3d Generic, как самый не херящий качество картинки. Также эта прога может работать с видео, очень и очень через жопу, своим алгоритмом прощитывая ключевые кадры, и потом якобы ты должен их брать и делать только ключевые кадры, а она сама подхватит. На деле это не работает, и вот тут должна прийти нейросеть, которая сгенерирует все кадры, а прога будет подхватывать их как ключевые. Я даже компилил уже там, вот эта девка с плоскими сиськами оттуда. Артефакты может появились от того, что перегонял видео в онлайн конвертере в вебм. Компили кроме этого один хентай, там было может более норм, но я его удолил.
Так, что еще есть- для вырезки из стереопары Triaxes StereoTracer. Кряка нету тоже. Демка выводит карту глубин с неубираемой ватермаркой, но это обходится деланьем скриншота, а не экспорта. Ограничение- высота твоего монитора. При желании можно из двух скриншотов вырезать карты из картинок даже более 2000 пикселей в высоту, но это не нужно, имхо.
И еще о прогах- есть некая грузинская студия, которая за 300 бачей продает прогу для всех целей, крякнутой ее нету. Но она в итоге по функционалу будет всем тем же самым-автоматически продолжать анимацию по ключевым кадрам, вырезает карты высот... чем я тут занимаюсь с помощью вышеназванных и "моей" нейросети.
И еще- я перелопатил много чего в гугле и яндексе, даже в дак дак го, чтобы найти нужные программы, и почти везде был шлак типа для вин 95 программы на заре компьютерных технологий, лол. Создание зашифрованных стереограмм. Еще был всплеск интереса к нейросетям после выхода Аватара Кемерона. Рассматривал какую-то библиотеку на питоне, которая должна была сразу делать стереопару из картинки, обучаясь на множестве существующих стереофьмов. Якобы это возможно, но ни одного ролика от разраба не нашел, и установить все зависимости от бибилиотеки уже невозможно- репозитории закрыты. Автор тоже умер как 2 года. Да и я сомневаюсь, что такое возможно- сети придется понять все сложности физического мира, изображаемого во всех фильмах. Может по некоторым кадрам из одного фильма она смогла бы доделывать остальные кадры, вот только зачем, если они и так существоввали в виде стереопары? А в любом другом кино с другими героями, предметами и окружением она будет выдавать дичь. и обучать ее всем фильмам займет бесконечное время.
Также я шерстил библиотеки научных проектов в институтах, где учат ИИ опознавать дорожное движение. Даже 3д мультики и прочие типа натюрмортов, но там не такие стереопары и карты, на которых сможет научится моя сеть опознавать аниме, лол. Вобщем их выборки не для нас.
Но. Все равно, я считаю, что задача выполнима, и аниме более менее однородно, учитывая различия в цвете волос, фигур и прочих конечностей, уже текущий прогресс и его направление меня удовлетворяет.
152 131863
>>131854
https://drive.google.com/file/d/1BVx8TvAb3gvwvxYfUBAgeqgH7S-6sqjB/view?usp=sharing
Вот, я соврал, тока 118 наделал. Из них первая часть, где черный фон на всем- сделана в фотошопе +ДМАГ. Дела как для себя, из них и так норм получается делать стереограмы. Там, где фон не сплошной черный- вчера выдранные из картинок, найденных на бору и еще одном японском сайте по запросы в гугле. Не все, но там они довольно сомнительного качества, типа перепады по высоте, карты сложно выдираются, поэтому лучше делать самому (про это все щас напишу).
>>131852
Так, я вообще не программист ни разу, мне каким-то чудом удалось найти и запустить (раза с 20-го, я долго и упорно компилировал из старых версий библиотек нужные) библиотеку pix2pix 1024, модификацию стандартной pix2pix , которая работает только с 256. Я хочу, чтобы в конце она стала такое вот генерировать качество, или примерно такое хотя бы, такого она не выдаст наверняка. Работает она медленнее, чем пих2пих в 16 раз соответсвенно, 1 тик=1 картинка=1 секунда. Обучаться ей надо очень долго, насколько я знаю из своего опыта работы с прогами типа фейссвап, там можно было днями компилить лица в разрешении 128 на 128. Лица одного человека карл. Но тут вроде пих2пих идеально подходит для генерации из чего-то разнородного однородной карты, типа гугл карты из фото со спутника, или котиков из всего, или тех же фасадов из их стандартного примера. Вопрос только в качестве. И те пробы на 4 и 6 часов на 70 и 120 картинок- это просто капля в море, и я знаю, что пока не сделаю картинок 600 и не на треню свой счетчик электрический на пару сотен киловатто-часов, можно даже не думать о качестве. А потом я еще буду из старых картинок, где нет фона делать картинки с фоном, чтобы алгоритм лучше выделял фон от девок, но до этого еще не скоро дойдет, хоть процесс и не сложный, но я его отложу на конец
Ну и раз уж я выкладываю карты, я делаю стерекартинки в проге под названием 3D combine. У нее триал 15 дней, лечится созданием нового юзера в винде, старые прописки в реестре хер найдешь. Там есть много режимов работы, вот я использую 2d to 3d Generic, как самый не херящий качество картинки. Также эта прога может работать с видео, очень и очень через жопу, своим алгоритмом прощитывая ключевые кадры, и потом якобы ты должен их брать и делать только ключевые кадры, а она сама подхватит. На деле это не работает, и вот тут должна прийти нейросеть, которая сгенерирует все кадры, а прога будет подхватывать их как ключевые. Я даже компилил уже там, вот эта девка с плоскими сиськами оттуда. Артефакты может появились от того, что перегонял видео в онлайн конвертере в вебм. Компили кроме этого один хентай, там было может более норм, но я его удолил.
Так, что еще есть- для вырезки из стереопары Triaxes StereoTracer. Кряка нету тоже. Демка выводит карту глубин с неубираемой ватермаркой, но это обходится деланьем скриншота, а не экспорта. Ограничение- высота твоего монитора. При желании можно из двух скриншотов вырезать карты из картинок даже более 2000 пикселей в высоту, но это не нужно, имхо.
И еще о прогах- есть некая грузинская студия, которая за 300 бачей продает прогу для всех целей, крякнутой ее нету. Но она в итоге по функционалу будет всем тем же самым-автоматически продолжать анимацию по ключевым кадрам, вырезает карты высот... чем я тут занимаюсь с помощью вышеназванных и "моей" нейросети.
И еще- я перелопатил много чего в гугле и яндексе, даже в дак дак го, чтобы найти нужные программы, и почти везде был шлак типа для вин 95 программы на заре компьютерных технологий, лол. Создание зашифрованных стереограмм. Еще был всплеск интереса к нейросетям после выхода Аватара Кемерона. Рассматривал какую-то библиотеку на питоне, которая должна была сразу делать стереопару из картинки, обучаясь на множестве существующих стереофьмов. Якобы это возможно, но ни одного ролика от разраба не нашел, и установить все зависимости от бибилиотеки уже невозможно- репозитории закрыты. Автор тоже умер как 2 года. Да и я сомневаюсь, что такое возможно- сети придется понять все сложности физического мира, изображаемого во всех фильмах. Может по некоторым кадрам из одного фильма она смогла бы доделывать остальные кадры, вот только зачем, если они и так существоввали в виде стереопары? А в любом другом кино с другими героями, предметами и окружением она будет выдавать дичь. и обучать ее всем фильмам займет бесконечное время.
Также я шерстил библиотеки научных проектов в институтах, где учат ИИ опознавать дорожное движение. Даже 3д мультики и прочие типа натюрмортов, но там не такие стереопары и карты, на которых сможет научится моя сеть опознавать аниме, лол. Вобщем их выборки не для нас.
Но. Все равно, я считаю, что задача выполнима, и аниме более менее однородно, учитывая различия в цвете волос, фигур и прочих конечностей, уже текущий прогресс и его направление меня удовлетворяет.
153 131864
>>131855
Не скажи, в ГИМП + ДМАГ я делаю 1 простую картинку за 3 минуты + вычисления 3 минуты. Не устаешь, и это важно для меня, не програмиста. Беру числом.

В настройках можно ставить детерминант 30-60 а не 90, и итераций 1000-3000, тогда карта будет не такой четкой, но она и не должна быть четкой для аниме.
Вот еще что, про нейросеть- я заметил, что она стала халявить, еще с первого раза. Иногда я встречал картинки, у которых карта глубины прорисована только по краю. Это все равно создает иллюзию объема, ведь если смещен один сплошной цвет, ты не заметишь перехода высоты. Так вот, мне кажется, что сеть стала делать также. Но откуда она знает, что я увижу (что я хочу увидеть, и мне все равно, сплошное покрытие там в карте или только край обведен) после конвертации карты глубины и картинки в стереопару?! Это немного паранойя, чувствую себя психом, но я её такому не учил, чэсна.
154 131866
>>131852
Я потом в фотошопе гимпе делал работу над ошибками с блюром замыливанием. Все для сети сейчас делаю, не делаю сразу стереопару.
155 131869
>>131864
>>131863
Не понял что тогда за нейростеь? Из этой проги: "названием 3D combine."?
156 131873
>>131869
нет, нейросеть это библиотека pix2pix, в данном случае ее неофициальная модификация для картинок 1024 на 1024
https://affinelayer.com/pixsrv/
page3.jpg2,3 Мб, 2400x2176
159 131915
hornbabesbs.jpg1,2 Мб, 2830x1080
160 131920
alkemanubisrabbisbst.jpg2,3 Мб, 2546x1800
161 131923
162 131926
Таки да, я понял о чем писал вот этот анон >>131683
, когда сравнил картинки правую и левую через прозрачность. Что-то прога 3d combine меня подводит, не делает вообще ничего. Буду что-то думать.
163 131928
>>131926
>>131926
Пикрилейтед сдвиг в фотожопе
onepiece2sbs.jpg276 Кб, 1852x655
164 131929
30.png2,9 Мб, 2560x1024
165 131930
>>131928
Только что нашел в гимпе. Все верно говорил тот анон сверху, я жутко лоханулся и выкладывал не стерео под видом стерео. Ну, буду искать дальше прогу, которая бы делала сразу много кадров-стереокартинок по существующей паре картинка +карта.
166 131964
Так, я немного запутался, мне нужен взгляд со стороны.
Вот две картинки. Одна сделана в 3дкомбайн на режиме параллельное зрение. Вторая для скрещенных глаз. Я нормально умею смотреть только параллельно, и вообще хочу делать параллельные стереограммы для очков ВР.
И почему-то мне кажется, что программа нагло поменяла местами два вида стереограмм, и та картинка, что для скошенных глаз мне кажется реальной, а в той, что для параллельного взгляда- как будто фон выступает наружу, когда я ее смотрю. Файлы названы наоборот. 3дкомбайн обрабатывает одну картинку с помощью карты высот, только я все не могу взять в толк, в какую сторону должна выступать картинка для 3д эффекта (в параллельном просмотре- левая картинка влево и правая вправо или наоборот? Логика мне подсказывает, что так левая- влево, правая вправо, а не наоборот.
167 131966
Так, я разобрался. Если мы закрываем левый глаз, то предмет, который находится перед нами мы видим правым глазом. Он смещается влево, относительно взгляда левого глаза.
Вывод- программа путает право и лево, для стереоочков и параллельного просмотра нужно использовать режим перекрестное зрение, даже если это вроде бы и не так, просто попутали студенты, видимо.
v.jpg256 Кб, 2560x994
168 131978
169 131979
>>131964
Первая нормальная.
Вторая неправильная.

Те что для косоглазия это и есть для VR очков, сам попробуй.
170 132015
>>131966
>>131964
Ну чё там кидай контенту!!!
171 132026
>>132015
Шас на ночь поставлю модель с 150 картинками тренится. Потом переведу несколько картинок в 3д ПРАВИЛЬНО, а не по уебански. Если будет норм, попробую видео конвертить (там очень много возни с перекодировкой в картинки и обратно). Если не будет норм- продолжу клепать картинки. В любом случае продолжу их делать. Вверху >>131978 это сделанная в 3д комбайне правильно.
Сам спешу уже, вон в /b япошки запилили сайт с раскраской манги. Но там другая история- у них куча моделей, которые учились из цветной картинки делать черно-белую, а потом уже им меняют направление конверсии с ЧБ на цветное. Но сделать из цветных много чернобелых - относительно просто, а вот кучу карт глубины- сложна. Может стоит посмотреть в сторону 3д плагинов для создания из моделей карты высот, и потом загрузить туда нормально выглядящих 3д аниме девок, чтобы сделать много примеров. Но потом надо будет делать много поз и ракурсов, в имеющихся хентай играх функции карты глубины нету...
172 132027
В догонку, получается можно будет рисовать карту высот-размеров аниме-девки и получать на выходе вайфу. Типа размер сисек, прическа, жопа. Лол.
173 132053
Примерно половина кадров получается удачно. Плохо получаются те кадры, похожих на которые нету в примерах- два человека, курпные планы и т.д.
176 132163
Где вы эти картинки берете? Или тут заливают то что сами делают?
177 132187
>>132163
Тут - большинство сами. Их тут вообще, примерно столько же, сколько в остальном интернете, лол.
15450883169930.png56 Кб, 932x550
178 132228

>КОСОГЛАЗИЯ ТРЕД


>Шутят про косых


>Читаешь гайд как правильно косить глаза


>Закрываешь левый глаз


>Изображение должно сместиться


>Не смещается


>Смотришь на палец


>Ничего не двоится


>Вспоминаешь что у тебя косоглазие

179 132299
Вот нейросеть на 7 часов от 300 картинок. Внезапно нашел способ вырезать карту высот из стерео аниме. Из таковых осталось повыковыривать кадры только из Gits.
Посаны, зацените стереограммы, вроде неплохо же.
180 132300
фото 4 сверху сохранилось неверно, оно для косых получилось.
181 132301
>>132299
>>132300
Ну боле мене. Запили секунд 10 из хентая если есть такая возможность ил гифку какую нить.
4.mp49 Мб, mp4
182 132353
Проба
183 132355
ну так себе вобщем видос получился, надо выкачивать и открывать плеером. Я очень заебался конвертить видео.
Это режим почти без стерео, если включить больше, начинается разброд и шатание. 1 кадр генерится 1,5 секунды, это овердохуя. Я пытался вечером всю ебаную ночь ебался этими сраными конфвертерами, в вин10 vdub не умеет даже с ебаными неработающими внешними кодеками кодировать кадры сразу сконвертить Курониро, но он дает очень много артефактов и путает глубину, потому что похожих ракурсов в обучении еще мало. Остается только работать дальше.
184 132391
Сука да как вы это делаете?
Свожу изображение и получается три. Среднее даже как-то не похоже на трехмерное.
Поставил ладонь посередине. Свожу изображение и сука мыльно, а когда я пытаюсь размылить теряю все что я сводил. Короче хуета какая-то, глазам неприятно только.
185 132402
>>132391
есть два типа стереограмм-
1) если смотришь скосив глаза к носу, тогда это перекрестная стереограмма. Их вроде как большая часть в инете, потому что их, вроде проще смотреть.
2) А есть параллельная, когда ты наоборот, разводишь глаза, как будто смотришь на дальний объект. Мне проще смотреть так. В основном я тут делаю для параллельного зрения, т.к. эти картинки можно также смотреть в стереоскопе ака шлем VR с телефоном.
Если смотреть стереограммы наоборот, то у них будет меняться местами глубина и высота. Могу посоветовать также поменять местами правый и левый глаз правое и левое фото- это и отличает первый тип от второго. Если лень резать картинки- можешь даже просто перевернуть ее вверх ногами.
187 132404
Это картинки с отобранной базы на 300 (поудалял все примеры, где задники были размыты или авторы пытались их сделать стерео- все таки делаем тела, а не бекграунд.) 150 эпох, также наложены фильтры постобработки карты- не бамп, а уточнение, наращивание белого и потом резкость. Вроде норм, но, как я писал уже, все еще остаются моменты, которые не обучены и там хуита. Со вчера ничего не добавлял в тренировочную выборку, потому что устал ебаться с кодеками. И удаление лишних картинок, в которых был проработан под 3д задник, пошло на пользу по сравнениею с прошлой выборкой, это точно. Все равно задника там почти не чувствовалось.
1.jpg258 Кб, 2048x1024
188 132581
Ну что, все дрочите ждете конетента
Она вобщем начала работать. еще не все позы персонажей знает. Но с пост-обработкой в проге можно полностью убрать артефакты. Кадры лепятся, мутки мутятся. Вот ловите.
190 132602
Почистил базу до 200 картинок, но чтобы хорошее качество только. Вообще покурил мануалы- нужно, чтобы ошибок было поменьше, тогда модель будет верной. Нужно будет поудалять черные точки, и вообще те стерео из первых, которые не очень, по моим теперешним критериям.
Вот, картинки, которых модель не видела. Да, среди выборки из 75 штук половина словила не те ракурсы, и еще не научилась определять хуи в пространстве. Просто нужно больше примеров. Также на пользу, вроде бы, пошло создание перевернутых и отзеркаленых картинок.
191 132833
Так, я немного заебался пилить по 10 картинок в день. Пробую сейчас обучать на множестве примеров из зд-дрочилен типа инсульт ордер с шейдером на карту глубин. К сожалению, не могу все это автоматизировать нормально, поэтому делается примерно 1000 кадров в день, но это все хуйня, как оказалось. Что-то оно не очень дружит потом с 2д аниме. Хотя некоторые картинки делает норм. Но все равно дохуя плоско, без рельефа. Это, скорее всего, потому что, в 3д рендере расстояния действительно малые, и контраста между лицом и грудью нету, например. Пытаюсь это лечить дополнительными рендерами на затемнение дальних объектов, и может так получится. Но каждое новое фото надо вручную изменять значение затеменного расстояния, это очень геморно. Вот. Было, надо, выдает результат. Сейчас 2д вкину.
193 133028
222.mp47,4 Мб, mp4
194 134315
Это видео получено путем тренировки буквально за 5 минут на 1 пикче. Т.е. более-менее статичные сцены можно тренировать на паре ключевых кадров, и потом уже комбинировать видео из этих маленьких отдельных сцен. Как-то так. Времени нету последние два дня даже делать что-то. Только вот про эту идею меня торкнуло, и вроде бы все очень неплохо.
195 134316
не силен я в кодеках.
196 137840
Ну шо, пидары. Не ждали. Я уже 400 картинок отрисовал. Первую сотню переделал полностью- не понравилось качество того, что получалось сначала.
Первая картинка это то, к чему все идет. Ручная работа. Вторая и третья- образец и результат работы проги. Конечно, сейчас в модели использую еще скриншоты из 3д-рендеринга из всяких игр дрочилен. Результатом доволен, на 50 процентов выходных картинок вполне можно фапать можно накладывать блюр и делать неплохие стереограммы. Вообще принцип работы получается как у remove.bg, только там определяются люди просто по контру, а тут сиськи-письки и прочие непотребства. В планах закончить модель процентов на 90 к концу лета. Ибо совершенство 100 процентов недостижимо.
197 137841
Вот вам еще результат работы над картинкой, которую нейросеть не видела. С белым фоном все просто, но довольно неплохо получается уже и там, где есть тразарь в кадре или бекграунд.
Да, картинки отборные, все еще бывают глюки типа руки трахаря сливаются с фоном.
3445.gif6,1 Мб, 1400x800
199 137896
200 137915
>>137896
ну да, я тоже использую для получения карты глубин com3d. Сначала я старался не брать трехмерные игры, т.к. там карты глубин слишком точные относительно тех, которые делают люди для своих потребностей- грубо говоря выделяют выпуклость груди очень сильно. но, затем, подумав немного, понял, что важнее обучить модель выделять контуры и хотя бы приблизительно глубины. В наборе рендеров reshade можно довольно качественно выделять карту глубин с помощью шейдера clarity, и получается эффект с хорошим "почти ручным" выделением контуров тела с помощью ползунков.
Но, относительно числа картинок для тренировки я не буду брать компьютерные рендеры больше чем 50 на 50. И там еще есть геморой с тем, что скриншоты делаются в рендере и в игре с разницей по времени, так что надо снимать только статичные сцены. В некоторых игрушках такого недостатка нет, но там например, не рисуется мпх в рендере. Нюансы, нюансы...
12.gif7,4 Мб, 1455x653
201 137927
>>137915
У меня в com3d2 решейд не может буфер глубины выстроить, использую TriDef 3D. Хотелось бы в решейде еще амбиент оклюжен подрубить, но для него нужен этот буфер глубины.
Если планируешь потом анимацию конвертить, не думал что будет полезно еще и предыдущий кадр сетке скармливать? Шума должно быть меньше и ей будет проще персонажа от фона отличить. Я не шарю в этом, просто кукаретические мысли.
202 137935
Сделал гифку ручками. Да, вот настолько я аутист.

>>137915
Твой 3дэ комбайн ужасно артефачит и мылит картинку, я нагуглил еще StereoPhoto Maker, в нем и делал гифку, но там тоже все через жопу.
203 137949
>>137935
Я не я, прога не моя. Она может артефачить (сильные искажения по краям как буд-то иглы), если ей скармливать файлы до этого обработанные через dmag. Не знаю, в ней ли ты делал эту карту глубин, но спасибо, разберу на картинки и скормлю сетке.
Если сохранить файл в пеинте, то она (3д комбайн) нормально обрабатывает, видимо особенность старой проги дмагв 3д комбайне тоже есть особенность- при выборе пункта постобработки Match depthmap quick или сложный, оно всегда сдвигает карту чуть влево, поэтому нужно по-хорошему делать 4 обработки и поворачивать картинку 4 раза на 90 градусов
Я тоже сначала попытался монтировать анимацию по карте глубин, наделал много кадров, у меня получилось гораздо хуже, чему тебя, но я еще в фотошопе смещение делал по альфа каналу, так что это вообще пушка была, всмысле ужасное качество. И все это натолкнуло на деланье нейросетки, сам понимаешь- ужасно много времени жрет.
>>137927
Пробовал в решейд искать нужные каналы в последней вкладке? Там можно найти каналы отдельные для интерьера, интерьера и персонажей, только для девушек и т.д. Возможно, что ты просто не находил нужные.
По поводу сетки и последнего кадра- не совсем понятно. Я не прогер, сам в сетку новые данные не введу, но! Если бы я, например, вырезал только 1 кадр из анимации, что запостил анон сверху и скормил бы его сетке вместе с кадром карты глубин, то сетка бы уже на основе этих двух кадров смогла бы дорисовать карту глубин для еще многих похожих на этот кадр картинок, т.е. доделала бы всю анимацию. Я уже пробовал так для одной гифки. Вобщем можно скармливать ключевые кадры, чтобы получать неплохой результат, и он, вопреки моим ожиданиям, даже не скачет между кадрами, т.е. его можно было бы преобразовать в стерео анимацию как на первой картике. Даже сейчас попробую это сделать для иллюстрации. Ну, вобщем не вижу необходимости добавлять прошлый кадр, если правильно понял о чем ты, оно само и так делает анимацию непрерывной, если сильно не меняется освещение и цвета сцены. А если меняется, то я еще множу свои примеры путем смещения разных цветовых каналов и изменения яркости исходной картинки. И поворачиваю примеры на 90, 180 и 270 градусов. И из одного примера получается много, для этого даже ввели термин и я читал статью на гитхабе, но все забыл.
203 137949
>>137935
Я не я, прога не моя. Она может артефачить (сильные искажения по краям как буд-то иглы), если ей скармливать файлы до этого обработанные через dmag. Не знаю, в ней ли ты делал эту карту глубин, но спасибо, разберу на картинки и скормлю сетке.
Если сохранить файл в пеинте, то она (3д комбайн) нормально обрабатывает, видимо особенность старой проги дмагв 3д комбайне тоже есть особенность- при выборе пункта постобработки Match depthmap quick или сложный, оно всегда сдвигает карту чуть влево, поэтому нужно по-хорошему делать 4 обработки и поворачивать картинку 4 раза на 90 градусов
Я тоже сначала попытался монтировать анимацию по карте глубин, наделал много кадров, у меня получилось гораздо хуже, чему тебя, но я еще в фотошопе смещение делал по альфа каналу, так что это вообще пушка была, всмысле ужасное качество. И все это натолкнуло на деланье нейросетки, сам понимаешь- ужасно много времени жрет.
>>137927
Пробовал в решейд искать нужные каналы в последней вкладке? Там можно найти каналы отдельные для интерьера, интерьера и персонажей, только для девушек и т.д. Возможно, что ты просто не находил нужные.
По поводу сетки и последнего кадра- не совсем понятно. Я не прогер, сам в сетку новые данные не введу, но! Если бы я, например, вырезал только 1 кадр из анимации, что запостил анон сверху и скормил бы его сетке вместе с кадром карты глубин, то сетка бы уже на основе этих двух кадров смогла бы дорисовать карту глубин для еще многих похожих на этот кадр картинок, т.е. доделала бы всю анимацию. Я уже пробовал так для одной гифки. Вобщем можно скармливать ключевые кадры, чтобы получать неплохой результат, и он, вопреки моим ожиданиям, даже не скачет между кадрами, т.е. его можно было бы преобразовать в стерео анимацию как на первой картике. Даже сейчас попробую это сделать для иллюстрации. Ну, вобщем не вижу необходимости добавлять прошлый кадр, если правильно понял о чем ты, оно само и так делает анимацию непрерывной, если сильно не меняется освещение и цвета сцены. А если меняется, то я еще множу свои примеры путем смещения разных цветовых каналов и изменения яркости исходной картинки. И поворачиваю примеры на 90, 180 и 270 градусов. И из одного примера получается много, для этого даже ввели термин и я читал статью на гитхабе, но все забыл.
204 137951
>>137949
Делал вручную без dmagа. От артефактов по краям можно избавиться в фотошопе, накинув на глубину фильтр максимум в пару пикселей, но все равно комбайн мылит картинку.
205 137954
>>137935
Что за аниме?
206 137955
>>137951
Кароче, я попробовал твою карту глубины на твою картинку залить в комбайне. Я и сам эту картинку раньше сделал просто, и она никакими манипуляциями не хотела делать постобработку твоей карты правильно, даже после сохранения в пеинте. Впрочем как и моей, почему-то. Я просто не проверяю все картинки, которые делаю- клепаю в стол, так сказать, на работе модели это не отображается. Видимо, это какая-то глючная исходная картинка, хотя, на самом деле глючен комбайн, конечно, он просто ее не пережевывает.
Но вообще он делает нормально, это первый такой пример, где он совсем ничего не смог сделать -тупо выдвал и на твоей и на моей карте глубин артефакты по краям. Для сравнения вот: под номером 4 картинка до постобработки, под номером 1 глючная- без пересохранения в пеинте после постобработки- везде угловатости. вторая- после пересохранения в пеинте. Да, блюра дает, но вообще оно исправляет некоторые огрехи, которые дает сейчас и будет давать моя модель. Третья карта- просто из дамага.
207 137956
>>137951
Да, и еще в догонку, если у тебя вдруг будут еще карты, буду безмерно благодарен, если зальеш куда-нибудь. Если интересует- могу по бартеру меняться 1 к 1 тут прямо. Надеюсь качество последней нормальное, в начале треда я вообще такую дичь делал, как говорил уже пришлось первую сотню переделывать, хотя можно ее было просто выкинуть. Сам, чтобы не делать дублей, смотрю данбору популярное и сохраняю 1-2 картинки в день. И примерно столько же делаю, но чет в последнее время работы много, максимум 1 в день, картинки копятся как снежный ком.
208 137957
>>137935
>>137954
Анончик, соус, умоляю!
209 137964
>>137956
Буду сюда кидать иногда.
Эти 2 карты твоя сетка выдала? Выглядят как 3д.
>>137957
Это просто гифка по watashi ni tenshi ga maiorita!
210 137968
>>137964
Не, если бы такое выдавала сетка, я бы уже пил ром на пляже где-нибудь в Лос-Анжелесе. Это из dmag. Первая отдельная картинка занимет около получаса, а те, что делаются на ее основе- например с элементами одежды, с какими-либо незначительными изменениями- чуть меньше.
Вот болванки для dmag для примера.
Конечно, их я делаю в гимпе со слоями. Есть куча не очевидных, по крайней мере, для меня, приемов для упрощения жизни, например скейлить картинку по размеру вниз процентов на 20 и потом использовать threshold alpha чтобы получать хорошие грани для черного фона. В одной картинке использовал сайт с нейросетью remove.bg, чтобы не обводить вручную, теперь буду юзать часто. Почти везде юзаю waifu2x чтобы догнать картинку до 1024 пикселей с одной стороны. Мне кажется, так быстрее, чем вручную- я хочу что-то среднее между супер качеством и количеством/сложностью. Вручную просто не представляю, сколько времени это может занимать. В свободный день можно и 10 штук абсолютно разных запилить картинок, но это как рабочая смена чувствуется, и перерывы на отдых нужны.
А качество с нейросетки все еще не очень. Но с каждой сотней картинок, я вижу что оно улучшается, что меня и толкает вперед делать еще и еще карты.
Я вчера обещал показать, что нейросетка может на 1 картинке доделать анимацию, так вот, извините, вчера я устал и подзапорол сопоставление оригинала и приделал туда не ту картинку с картой глубин, и все пошло по пизде. Потом переделал обучение до 1 картинки- т.е. вот на основе 1 ихображения что получилось, сейчас вброшу.
211 137969
При работе с более-менее статичной картинкой нейросетке проще- не надо делать кучу выборки, и если бы я не ленился вчера и не пошел бы спать, то выложил бы качеством получше. Я уже делал такое с гифками и кадрами из курониро, и там были намного более ровные переходы между кадрами анимации. Конечно, там были артефакты в кадрах, которые я не давал сетке в качестве примеров, но они были в виде глобальных глюков распознавания, а не в виде такого шума. Просто вчера не хотел сидеть и ждать час, пока сетка нормально научится и на ночь ставить не хотел- переобучилась бы, так что вот это- ссамый промежуточный грязный пример. На нем видно, почему я бы хотел потом использовать комбайн- он бы сглаживал шум. если его заствавить делать где-то раза 4 постобработку с вращением, то выглядит ок
212 137970
Вот пара "хороших" примеров из сетки. Они получились хорошо потому что 1) у меня уже есть много примеров голых телес и 2) я делал несколько картинок художника со второй картинки.
213 137971
Вот плохо получившиеся примеры- на них видно что с одеждой сетка еще не дружит. Мало у меня еще примеров. И вообще их всегда будет мало, количество вариантов одежды у художников огромно относительно простой анатомии женского тела, лол
На втором примере сетка выделят тень, кусок прически не распознает. Это не так уж и бросается в глаза, особенно после превращения в стерео, но этого быть не должно, по хорошему.
214 137972
Вобщем пока что соотношение нормально получающихся примеров и плохих- 50 на 50. Те, где много похожих- первая серия курониро, например- хорошо распознается.
Еще раз повторю, что все запощенные картинки нейросеть не видела до этого, и сделала сама для них карты по секунде на картинку.
Потом я постепенно добавляю уже вручную доделанные картинки к базе, на которой учится сеть.
215 137973
Ну и то, что комбайн блурит картинки- так лучше, чем с артефактами, которые возникают в ней без обработки. Вот с обработкой и магнитудой 10 и 20. По моему выглядит чуть объемистей.
216 137974
И еще в догонку- у тебя, наверное, картинка сделана для параллельного просмотра (шлем). Мои для скрещивания глаз. Вот почему я подумал, что твоя менее объемистая.
Еще раз спасибо за примеры.
217 137983
Скачал дмаг, попробовал с его помощью быстренько запилить гифку. Получилось хреново, потом еще попытаюсь.

>>137974
Это я накосячил, так тоже для косых делаю.
218 137986
>>137983
Сразу тебе скажу, я использую одну из тех старых версий дамаг что с графическим интерфейсом, мне не удобно менять параметры в файле. У меня там только два параметра- обратный допуск по умолчанию 90 и количество итераций. Допуск для порномультиков сразу можно ставить от 25-30 до 45, иначе придется выделять и прорисовывать каждую мелкую детальку. Дифференциация идет по цветам. После исправления очевидных ляпов, которых не замечаешь сразу, можно повышать до 45 допуск и итерации в конце ставлю под 20.000 чтобы оно даже останавливалось и "решало" картинку полностью. Ну и работает моя версия нормально до 1200 на 1500, потом пишет нехватка памяти. Но оно делает за меня работу, пока я туплю в двочи. Для анимации оно похуже будет- будет чувствоваться разница между кадрами, сложно менять местами маску, лучше для одиночных или похожих картинок.
219 137996
Переделал ручками, но все равно кое-где накосячил.
220 138004
>>131852
>>131694
слушайте ребят а можно снять маску глубины с 2х фоток с небольшым отклонением ? гуглкамера же както это делает для эфекта "фейкобоке". я так и ненашел готовых решений.

видел тока программки для фотограмметрии чтобы перевести обект в 3д. а для задач снятия маски глубины 1го ракурса чето неувидел программок.

Этож сводит на нет необходимость покупки пленоптической камеры.
и эфекты дымки и глубины резкости можно отсебя бацать.
Да и распологать 3д модельки в сцену ротоскоп без сэкса с напавляюшими перспективы.
221 138019
>>138004

>слушайте ребят а можно снять маску глубины с 2х фоток


Это очень стрёмная тема, сейчас я попробую тебе ее вскрыть.
Насколько мне известно, гулокамера создает довольно размытые карты глубины за счет нейросети, которая научилась распознавать и отличать размытый дальний ракурс от предмета в фокусе (вроде только человека-лица, но я не уверен, не пробовал эту прогу). И эффект "фейкобоке"- это вроде бы и есть фотограмметрия, но не в 3д а со смещением... Ну вобщем 2,5д, как примерно то, что мы тут делаем с картами глубины и стереоитзображениями на их основе.
Прога есть одна, а также куча энтузиастов на гитхабе, которые уже давно пытаются сделать это безуспешно, ну по крайней мере их результат на уровне той же проги.
Прога для примерного извлечения карты глубины из стереопары называется StereoTracer. Она делает свое дело довольно грязно- как будто качество очень сильно зависит от того, как качественно сделана стереопара (и боюсь, что просто двух ракурсов будет недостаточно, там понадобится для твоих целей и нормального качества штатив с двумя фиксированными камерами). Там есть два ползунка, чтобы совместить передний и задний план и потом она строит карту. Крякнутой версии нигде нету и на извлеченную карту наносится ватермарка, но это ограничение очень просто обходится, если делать скриншот экрана предпросмотра вместо эскпорта.
Вообще можешь гуглить depth map from stereo pair, и будет довольно много результатов еще с сайтов 90 годов. Куча прог под вин95, и я как бы искал для своих аналогичных нужд прогу, и вроде бы ничего кроме стерео трейсера среди их нету.
224 138044
>>138019
Спасибо за ответ но.

>Насколько мне известно, гулокамера создает довольно размытые карты глубины за счет нейросети, которая научилась распознавать и отличать размытый дальний ракурс от предмета в фокусе



тут видиш анон какое дело. я кратко описал суть. нейросети это ты глубже копаеш они если и есть сейчас то касячки убирают прост скорей всего. ведь фейкобоке появилось в nexus 5 еще до всех этих Нейросетей ИИ и тд. с помощю отлонения 1й камеры. https://youtu.be/ZiP3yNOBz6c . так что мне покачто тока Z Depth нужна)

стерипары меня пока что неинтересуют но они сложней просто потому что там недостаточно иметь тока маску глубины тк нужно еще дорисовывать то что находится под смешаемым объектом. но тут либо общее увелечение масштаба либо как раз нейросети помогут.
225 138047
Ну и прошлую чуток переделал.
226 138055
Чот заебался уже изучать тред, столько воды. Запилите плиз гайд как вот >>138031 такое создавать? Т.е. псевдо3д-шное 2Д без всяких этих ваших косоглазий, чисто гифы с параллаксом?
227 138056
>>138055
Или ткните в посты, если уже расписано.
228 138124
Бoжe кaкoй жe ты уёбoк. Teбe caмoму жить нe мepзкo? Пoчeму ты eщe нe выпилилcя, гoвнo? Bceм кpoмe мeня пoхуй нa твoe ceмeнcтвo, циpк и aнaльную клoунaду, a я лишь лoвлю фeйcпaлмы c твoeй тупocти.
229 138146
>>138124
Спокойней, анон, не стоит из-за такой ерунды так волноваться. Я вот рад, что наткнулся на этот тред.
Правда, так как ответа не дождался, уже сам все нагуглил. Буду ебашить параллакс в After Effects, но все же было бы интересно почитать гайд, если анону не трудно.

>>138055-мимокрок
230 138149
>>138146
это какой-то бот залетный
мы бы тебе выкатили бы гайд, ноя не в теме. У каждого свой путь, пусть для тебя твой будет удобным, уникальным и эдаким приключением. Часто, когда делаешь что-то по инструкции, упускаешь более удобные для себя пути
изображение.png313 Кб, 1206x956
231 138151
>>138055
wigglemaker.ugocapeto.com
Гифку делал на этом сайте, нужны сама пикча и карта глубины.
В After Effects пробовал displacement map(карта смещения), нет эффекта объёма, тупо смещает как текстуру по объёмной модельке.
index.gif3,3 Мб, 1206x956
232 138152
>>138151
Проебался
233 138169
>>138151
Спасибо, анон. Я гайд спрашивал потому что времени свободного не особо много. Но пока ждал ответ уже сам освоил, лол.
А карту смещения сам рисуешь или какой-то софт использовал?
234 138195
>>138169
Я сам рисую, можно еще Depth Map Automatic Generator юзать.
f.webm39,3 Мб, webm,
1920x540, 1:42
235 138336
236 138337
>>138336
Что с цветами случилось?
f.webm39,3 Мб, webm,
1920x540, 1:42
237 138352
>>138336
>>138337
Обосрамс
1.jpg282 Кб, 2048x1450
238 138355
>>138352
чет оно вообще не робит у меня
239 138356
>>138352
и карты смещения давай выкладывай
240 138357
>>138356
Так дерьмовый хентай ведь, 1,5 кадра в секунду
241 138374
>>138357
выложил бы, я бы уже посмотрел, может бы закинул кадры в модель. Не знаю, тот ли ты анон, что закинул гифку>>137935, вот из нее я взял все кадры. Из последующих не брал, там были артефакты по краям, от которых я сейчас избавляюсь в своих старых картинках.
В общем выкладывай, может мне поможет.
Но, вроде по некоторым кадрам, вижу что пальцы не прорисованы отдельно. Вроде как. В любом случае на видео это не так заметно, но вот модельку я бы такому не учил.
И еще, само стерео сделано очень хорошо, тока его сложно смотреть в таком широком формате- поэтому я сам не делаю почти на широких картинках, больше на высоких. Может тебе стоит попробовать делать анаглиф. Или, не знаю, поможет ли, вертикальные стереопары. Сам я таких не смотрел, вроде там нужны особые очки.
242 138420
А вчем смысол
243 138422
>>138374
Ты не тому ответил
244 138423
>>138374
Там вообще халтура полная, только первые 5 кадров еще норм, но даже тут можно увидеть как качество падает.
245 138430
работайте тщательнее блядь
246 138623
>>138430
А есть у третьего пика оригинал? А то не ищет.
247 138641
>>138623
на данбору за последние пару недель лучшие за день.
248 138643
>>138430
Почему кстати такая ушербная интрполяция у смешаемых пикселей ? бог же дал людям ланцошу и митчела а они без сглаживания хуярят.
249 138644
>>138643
объясни подробнее, пожалуйста. Я не очень умный. Может ты о том, что, на двух картинках некоторые пиксели не совпадают, или ты к качеству изображения вообще. Я пока что делаю как могу, блюрю тока карту глубины. Может если делать эту вот вашу интерполяцию будет и лучше, тогда возьму на вооружение для будущих работ.
250 138646
>>138643

>ланцош


так, я тут вроде подразобрался. Некоторые изображения я увеличивал с помощью вайфу2х, а потом уменьшал до 1024 по одной оси, но в гимпе по дефолту стоит кубическая.
Ее и юзал для правого изображения. Для левого хз что там 3дкомбайн использует, там просто фильтрует.
251 138648
>>138646
>>138644
Там где ты уменьшаеш изображения или редактируеш путем масштабирования/растягивания. Будь хоть гимп хоть фш. поисчи там настройка должна быть сглаживания таких весчей. просто в глаза бросаются эти лесенки.
252 138696
Научите фокусироваться при разведении глаз. Получается свести изображения, но сфокусироваться - что-то запредельное.
Oculus.jpg155 Кб, 1280x800
254 139271
>>131979
Обе правильные. Первая для сведённых глаз, вторая для разведённых (названия перепутаны, да).

>Те что для косоглазия это и есть для VR очков


Нет, лол. В виаре для каждого глаза своё изображение. Контент для косоглазия просматривается как на гифке тут >>80179
>>138696
Хз. У меня наоборот были сильные проблемы с фокусировкой при скрещивании взгляда, когда первый раз пытался так посмотреть разводить глаза научился до этого и трудностей с фокусировкой при этом не было. Но через полчасика попыток таки научился и сейчас легко фокусируюсь. Так что могу посоветовать только практику.
255 139909
Не заходил в тред больше полугода, а тут столько годноты. Господи, спасибо вам, аноны, вы такие молодцы.

>>138696
У меня это с детства получалось, не знаю, но попробуй картину немного отвести от себя, поморгать. Вообще, мне этот метод больше нравится, потому что изображение не уменьшается, и мышцы глаз не устают (но у меня глаза немного разной высоты, при этом оба раздвигются не в стороны друг от друга, а как бы перпендикулярно относительно носа, и фокусировка иногда спонтанно теряется)
io 2019-05-18 21-42-49.png1,5 Мб, 1920x1080
256 139945
Так, долбоеб с нейронной сетью репортинг ин.
Задача оказалась очень сложной. Первоначальный оптимизм можно поубавить. Попробую расписать по пунктам, может кому-то и пригодится эта инфа в будущем. (хотя все статьи, что я читал, пишутся для самих авторов, чтобы обобщить своих знания).
Первоначально я заставял тренироваться-работать сеть имплементацию https://medium.com/@karol_majek/high-resolution-face2face-with-pix2pix-1024x1024-37b90c1ca7e8 на разрешении 1024 на 1024 и оригинальным ngf 64 пару дней (количество нейронов на первом слое- увеличение в 2 раза до 128 увеличит итоговое количество параметров сети в 4 раза, т.е. геометрическая прогрессия, т.е. требуется уже в 4 раза больше видеопамяти- (гигов 20 наверное) и процесс идет медленнее. Результаты вы могли видеть в треде, были и хорошие были и ужасные, но тренд был в общем положительный с каждой новой сотней примеров, которые я обрабатывал вручную и засовывал в датасет. Аугментация данных была у меня разной- и переключение цветовых схем, и повороты картинок.
Не так давно я перешел на pytorch имплементацию кода, потому что там можно смотреть в браузере и менять параметры. Сразу скажу, что tensorflow-версии я еще не трогал. В связи с нехваткой времени на допиливание новых стереограмм я также стал использовать пары из хентайных игр.
После некоторого количества экспериментов, я пришел к выводу, что нейросеть на разрешении 256 на 256 и ngf 8 ndf 32 может опознать 1 предмет (в данном случае пару женских грудей), которому ее обучали на новых картинках и более-менее опозновать и конвертировать ее правильно. Дискриминатор должен быть больше в 4 раза, иначе все обучение сводится к конверсии цвета тела в белый поднятого уровня глубины стереограмы.
В итоге мне что-то подсказывает, что учет всех параметров, которые могут возникнуть на картинке- варианты одежды, ее цвет, позы, дополнительные предметы- это просто огромный массивы данных, и сеть нужно будет запускать на пару недель на ngf 256 ndf 256 даже для скромного разрешения 256 на 256. И это мои самые скромные оптимистичные профанские прогнозы. И еще нужно будет использовать датасет гигов на 200. Это просто ебать, если честно. У меня нет знаний, чтобы прикрутить аугументатор к процессу, чтобы не хранить весь датасет, к сожалению. Возможно, стоит заняться изучением этого вопроса. (Я читал оень много статей по переводу в стерео изображений с помощью нейросети. Все пишут, что это очень перспективно, но если смотреть их результаты- они переводят на основе обучения на паре сотен картинок однотипных бытовых предметов типа стул стол диван стены такие же выборки из тех же стульев в другом положении. Конечно, глупо было бы ожидать от нейросети распознавания чего-то, чего она не видела никогда. Но вот охватить какой-то широкий объем предметов ни одной исследовательской группе тоже еще не получалось. Пишут, что будут проводить эксперименты на улице и на этом их исследования обрываются где-то в 2018 году. И это не одиночный случай, к сожалению.
Относительным успехом можно назвать то, что мои сети могут делать то же самое, что и сайт remove.bg, только не обрезать задники, а в картинках, у которых нету задника, а просто заливка однотонная,- могут обрисовывать контур тела и намечать там жопу сиськи и тд и тп в карте глубины. Многие бы сказали, что этого достаточно, но я попробую еще чего-нибудь придумать, перед тем как возьмусь за развитие этого направления в чистом виде. По сути засунуть в одну нейросети обрезание контуров и карту глубины анатомии аниме-девок- это задача в 4 раз сложнее, и я не знаю, какие параметры надо для этого подобрать в 2 или 4 раза больше....
На данный момент я займусь вот чем- буду пытаться научить нейросеть распознавать одну единственную незнакомую картинку, предлагая для обучения ей много похожих картинок по цвету и позе персонажа. У меня был один успешный пример того, как сеть доделала карту глубины анимации длиной пару секунд с 2 кадров для обучения (она просто подгоняла карту глубины под цвета без понятия о том, что за части тела она обрисовывает). Если это получится, я смогу хотя бы гифки переводить в 3д без напряженной ебли. Хотя, возможно, по времени это будет занимать столько же.
io 2019-05-18 21-42-49.png1,5 Мб, 1920x1080
256 139945
Так, долбоеб с нейронной сетью репортинг ин.
Задача оказалась очень сложной. Первоначальный оптимизм можно поубавить. Попробую расписать по пунктам, может кому-то и пригодится эта инфа в будущем. (хотя все статьи, что я читал, пишутся для самих авторов, чтобы обобщить своих знания).
Первоначально я заставял тренироваться-работать сеть имплементацию https://medium.com/@karol_majek/high-resolution-face2face-with-pix2pix-1024x1024-37b90c1ca7e8 на разрешении 1024 на 1024 и оригинальным ngf 64 пару дней (количество нейронов на первом слое- увеличение в 2 раза до 128 увеличит итоговое количество параметров сети в 4 раза, т.е. геометрическая прогрессия, т.е. требуется уже в 4 раза больше видеопамяти- (гигов 20 наверное) и процесс идет медленнее. Результаты вы могли видеть в треде, были и хорошие были и ужасные, но тренд был в общем положительный с каждой новой сотней примеров, которые я обрабатывал вручную и засовывал в датасет. Аугментация данных была у меня разной- и переключение цветовых схем, и повороты картинок.
Не так давно я перешел на pytorch имплементацию кода, потому что там можно смотреть в браузере и менять параметры. Сразу скажу, что tensorflow-версии я еще не трогал. В связи с нехваткой времени на допиливание новых стереограмм я также стал использовать пары из хентайных игр.
После некоторого количества экспериментов, я пришел к выводу, что нейросеть на разрешении 256 на 256 и ngf 8 ndf 32 может опознать 1 предмет (в данном случае пару женских грудей), которому ее обучали на новых картинках и более-менее опозновать и конвертировать ее правильно. Дискриминатор должен быть больше в 4 раза, иначе все обучение сводится к конверсии цвета тела в белый поднятого уровня глубины стереограмы.
В итоге мне что-то подсказывает, что учет всех параметров, которые могут возникнуть на картинке- варианты одежды, ее цвет, позы, дополнительные предметы- это просто огромный массивы данных, и сеть нужно будет запускать на пару недель на ngf 256 ndf 256 даже для скромного разрешения 256 на 256. И это мои самые скромные оптимистичные профанские прогнозы. И еще нужно будет использовать датасет гигов на 200. Это просто ебать, если честно. У меня нет знаний, чтобы прикрутить аугументатор к процессу, чтобы не хранить весь датасет, к сожалению. Возможно, стоит заняться изучением этого вопроса. (Я читал оень много статей по переводу в стерео изображений с помощью нейросети. Все пишут, что это очень перспективно, но если смотреть их результаты- они переводят на основе обучения на паре сотен картинок однотипных бытовых предметов типа стул стол диван стены такие же выборки из тех же стульев в другом положении. Конечно, глупо было бы ожидать от нейросети распознавания чего-то, чего она не видела никогда. Но вот охватить какой-то широкий объем предметов ни одной исследовательской группе тоже еще не получалось. Пишут, что будут проводить эксперименты на улице и на этом их исследования обрываются где-то в 2018 году. И это не одиночный случай, к сожалению.
Относительным успехом можно назвать то, что мои сети могут делать то же самое, что и сайт remove.bg, только не обрезать задники, а в картинках, у которых нету задника, а просто заливка однотонная,- могут обрисовывать контур тела и намечать там жопу сиськи и тд и тп в карте глубины. Многие бы сказали, что этого достаточно, но я попробую еще чего-нибудь придумать, перед тем как возьмусь за развитие этого направления в чистом виде. По сути засунуть в одну нейросети обрезание контуров и карту глубины анатомии аниме-девок- это задача в 4 раз сложнее, и я не знаю, какие параметры надо для этого подобрать в 2 или 4 раза больше....
На данный момент я займусь вот чем- буду пытаться научить нейросеть распознавать одну единственную незнакомую картинку, предлагая для обучения ей много похожих картинок по цвету и позе персонажа. У меня был один успешный пример того, как сеть доделала карту глубины анимации длиной пару секунд с 2 кадров для обучения (она просто подгоняла карту глубины под цвета без понятия о том, что за части тела она обрисовывает). Если это получится, я смогу хотя бы гифки переводить в 3д без напряженной ебли. Хотя, возможно, по времени это будет занимать столько же.
257 139946
>>139945
Бля, анон, удачи тебе, будем болеть за тебя всем итт. А ты работаешь или учишься где-то сейчас? Какая специальность? Просто интересно, не связан ли этот хентай тред с твоим направлением
258 139951
>>139946
я так люблю эту телегу гнать про свою жизнь, она у меня интересная что пиздец. Кароче, у меня комп с 6 лет был, что позволило научиться эникейству, но вот с програмиррованием не срослось- родаки гнали ссаной тряпкой от него, и что-то поисдеть с учебником никак не удавалось. Потом родаки погнали в институт на бизнесьмена, о господи. Еще там начал интересоваться базами данных, но поверхностно. Это образование позволило замутить движуху (бизнес- просто открытие бизнеса, ведение без лишней бухгалтерии) для родичей и себя в виде пары сайтов инет-магазинов самостоятельно начиная с html сайтов и заканчивая покупкой битрикса и еблей уже с ним, php и mysql и примерно столько же с SEO, которая позволяет не особо напрягаясь получать стабильный доход. Вот после всего этого мне стало интересно опять чего-то намутить, только чтобы это было еще пассивнее, чем инет-магазины, где я сам себе грузчик-курьер и директор. Малые бизнесы не растут, потому что туда сложно брать людей на 8 часов, а рисковать и вкладывать доход за пару лет в расширение очень узкого места- ну я опоздал уже на распил в начале 2000- и так в городе по расширенному профилю фирм как собак. Вот так вот. Так , остановились на пассивке- почему бы не дать людям то, чего они хотят. Фапать на старое 2д аниме в 3д. Может в итоге это все выльется в какой-то сайтик с рекламным баннером от гугла типа waifu2x. Даже если не взлетит, мне все равно это сейчас интереснее чем все компьютерные игры.
Пока я утра ебался с моделью, пересмотрел код первой имплементации, и понял, что она лучше чем pytorch, и вернулся на нее, одновременно научившись пользоваться tensorboard. Оказывается, это было tensorflow, а я и не знал. И качество на ней было лучше, чем последние попытки, да и в инете в сравнительных тестах тоже.
Вот такими вот скачками я потихоньку понимаю что-то в программировании без его прямого изучения. Сейчас буду ставить модель на своей огромной выборке на каждую ночь, потиху скармливая ей новые данные с хентайных игр.
В общем чтобы что-то делать хорошо для своего удовольствия надо сначала сделать себе хорошие условия. Вроде я так сделал. Жалею, что не вкатился раньше в программирование, наверстываю не спеша в свое удовольствие,да и не совсем в программирование. Просто использую свободное машинное время пока работаю или не сижу за пекой. И сумбурно попиздеть я люблю, да.
258 139951
>>139946
я так люблю эту телегу гнать про свою жизнь, она у меня интересная что пиздец. Кароче, у меня комп с 6 лет был, что позволило научиться эникейству, но вот с програмиррованием не срослось- родаки гнали ссаной тряпкой от него, и что-то поисдеть с учебником никак не удавалось. Потом родаки погнали в институт на бизнесьмена, о господи. Еще там начал интересоваться базами данных, но поверхностно. Это образование позволило замутить движуху (бизнес- просто открытие бизнеса, ведение без лишней бухгалтерии) для родичей и себя в виде пары сайтов инет-магазинов самостоятельно начиная с html сайтов и заканчивая покупкой битрикса и еблей уже с ним, php и mysql и примерно столько же с SEO, которая позволяет не особо напрягаясь получать стабильный доход. Вот после всего этого мне стало интересно опять чего-то намутить, только чтобы это было еще пассивнее, чем инет-магазины, где я сам себе грузчик-курьер и директор. Малые бизнесы не растут, потому что туда сложно брать людей на 8 часов, а рисковать и вкладывать доход за пару лет в расширение очень узкого места- ну я опоздал уже на распил в начале 2000- и так в городе по расширенному профилю фирм как собак. Вот так вот. Так , остановились на пассивке- почему бы не дать людям то, чего они хотят. Фапать на старое 2д аниме в 3д. Может в итоге это все выльется в какой-то сайтик с рекламным баннером от гугла типа waifu2x. Даже если не взлетит, мне все равно это сейчас интереснее чем все компьютерные игры.
Пока я утра ебался с моделью, пересмотрел код первой имплементации, и понял, что она лучше чем pytorch, и вернулся на нее, одновременно научившись пользоваться tensorboard. Оказывается, это было tensorflow, а я и не знал. И качество на ней было лучше, чем последние попытки, да и в инете в сравнительных тестах тоже.
Вот такими вот скачками я потихоньку понимаю что-то в программировании без его прямого изучения. Сейчас буду ставить модель на своей огромной выборке на каждую ночь, потиху скармливая ей новые данные с хентайных игр.
В общем чтобы что-то делать хорошо для своего удовольствия надо сначала сделать себе хорошие условия. Вроде я так сделал. Жалею, что не вкатился раньше в программирование, наверстываю не спеша в свое удовольствие,да и не совсем в программирование. Просто использую свободное машинное время пока работаю или не сижу за пекой. И сумбурно попиздеть я люблю, да.
259 139953
>>139951
бля, отличная стори. По поводу хороших условий для дальнейшей жизни согласен абсолютно, с такими же мыслями вкатился в стоматологию, лол, потому что те направления по биологии, которые мне нравятся, для денег не особо годятся. Я пока зелёный ещё, но не жалею ни о чем. А тебе удачи, всегда хотел дрочить на 3д хентай, при этом не нося шлем как долбоеб хотя фапать, скашивая глаза, тоже наверно ебануто выглядит
260 139957
>>139953
а ты не фапай при людях, тогда неважно как выглядит. Да и я потиху перевожу кадры не только из хентайных игрушек. Вот недавно открыл для себя Ni no kuni. Вот это графон знатный и карта глубин достается без танцев с бубнами. https://www.youtube.com/watch?v=u9uwRW8GoBg
Безымянный проект.mp44,8 Мб, mp4,
352x288, 0:10
261 140393
интересно, теперь то видео загрузится нормально, все под рукой нету норм кодера.
Вот пример обучения на 1 картинке, конкретно на 4ом кадре из этого 150-кадровго лупа. Получается нормально, сделай я больше кадров, было бы вообще заебись. Ни о каком обучении с обучением форм тела тут речь не идет, просто 800 поколений раз нейросеть пыталась превратить одну картинку в другую, и сделал это в конце-концов на основе информации о цвете пикселя и его примерном расположении на площади картинки.Извините за разрешение- обучал на 256, и в программе кодера только 286 или что-то там поддерживалось. Завтра попробую 512 что-нибудь сделать.
262 140394
Вдогонку. Вторая часть видео - неборбаботанный выход нейросети. Первая часть- перевернул, чтобы изображение было для скрещивания глаз а также постобработка в этой шайтан-программе 3д комбайн- два раза использую быстрое сопоставление карты и изображения. Если использовать на таком малом разрешении размытие, получается совсем швах, но завтра, как я уже говорил, попробую сделать лучше качество видео на 512 или 1024 за счет постобработки карты с разными размытиями, наращивание и прочим арсеналом из проги. Должно быть лучше, а результат размытия будет не так уж и заметен.
263 140395
264 140396
>>139945
Создай тред, дай следить
4.webm3 Мб, webm,
1024x576, 0:05
265 140400
Вот, те же 8000 итераций того же кадра и 1 постобработка на разрешении 512 на 512.
>>140396 Следить особо не за чем, буду просто баловаться сейчас, выкладывать сюда результаты. Вроде как сбылась мечта идиота, хоть и не без ручной обработки каждой сцены. В недельном перерыве между постами я пытался запились простой цензор сисек, и, скажу я вам, это не так просто- даже обучить сетку отличать их, включая все размеры- очень непросто. Нужно реально примерно по 1000 примеров на каждый вид и оттенок кожи, угол поворота, и даже техника аугментации данных не особо помогает. Не говоря уже о полной информации о картах глубин. Так и живу, обучая на цветовых схемах.
Я поленился доделывать и не сделал. В результате хотел использовать анцензор чтобы получить кучу цензурированных картинок + оригинал, чтобы потом делать анцезуру, как у японца в одной сетке в соседнем треде, но моих интенций и времени пока на это не хватает.
266 140512
Вотъ.
269 140538
>>140513
Вот эта ничё так. Но всё равно не хватает объемности. Для правдоподобного эффекта нужно ещё больше смещения угла взгляда и самой картинки, типо как тут >>139271. Сейчас это больше похоже на коллаж из 2д-пикч.
Алсо, пиши где-нибудь для какого типа просмотра файл, плиз. А то приходится угадывать.
270 140565
вот с разной магнитудой, сейчас все запорется с кодеками
272 140567
Кароче, при увеличении магнитуды для большего эффекта объемности вылезают артефакты, от них просто не избавиться. Мне норм что для скрещивания глаз, что для вр- 0.1, чтобы было поменьше этих артефактов.
273 140573
Блять, я раньше не понимал что это ахуенный тред
Блять
кста, глаза сломать можно?
274 140578
Вот вам не лень пацаны. Месяц за тредом слежу, каждый раз удивляюсь.
275 140585
stay tuned, может и получится потом сделать что-то нормальное.
Пока что видео сильно уступает 2д картинкам почему-то. Буду думать почему.
276 140588
>>140585
очень годно
очень
очень
годно
от вашего треда болят глаза и тошнит но оно того стоит
278 140693
>>138430
Вот эти охуенно получились
279 140694
>>137973
Вот тоже хорошо получилось
280 140715
>>140693
>>140694
Спасибо, рад стараться. Но в последний месяц я уже не делаю карты глубин, потому что понял, что это бесполезное дело для обучения сетки. Зато, как видели, в последнее время, пытался я делать видео. И некоторые получались нормально, некоторые- плохо.
Видимо, дело в том, что обязательно нужен неоднотонный задний фон. Просто белая заливка не будет давать стереоэффекта. а также намного лучше, если тело имеет переходы тонов как в артах, например>>140597, а не как в аниме, где все однотонно залито. Это по той же причине, что и однотонная заливка задника- не получается стерео, не чувствуется, что часть тела выше другой, поэтому и плохо выглядят >>140566 >>140530.
Еще до этого я пытался выдирать карты глубин из имеющихся стерео-аниме- призрак в доспехах, 009 король: Киборг, Граница пустоты: Сад грешников в 3Д, Юные принцессы. Райское влечение 3Д, а также из БАКУГАН, которого нету на рутрекере. Во всех, кроме 009 выдернутые карты глубин были в виде простейших двухмерных слоев для каждого персонажа- т.е. персонаж близко- его весь контур белый, тот что подальше- серый и т.д. без вяких деталей одежды или волос. Можно понять несчастных аниматоров- это было бы просто адище каждый кажр переводить по полной. В тех аниме, что строятся на 3д модельках- немного призрак и полностью 009, карты глубин четче, но модельки то выглядят бездушнее. Вывод- в ближайшее время нормального перевода анимации в 3д не ждите, нужно, чтобы куча людей наделали огромный датасет и подключили огромные вычислительные мощности, и то не факт, что не получится такое же глючное гомно, как генератор лиц от нвидии или аниме-девок от каких-то там японцев. Они все глючные, несмотря на огромные подключенные ресурсы.
Но. Есть один вариант, который я попробую сделать в ближайшее свободное время. Некоторые художники переводят свои двухмерные скечти в анимацию с помощью растягивания частей тела. Я знаю, что вы понимаете, о чем я- просто части тела трясутся при движении, анимированные д2 картинки просто.
На борах таких анимаций довольно много и выглядят они, по большей части, плохо. Но если взять и найти хорошие, с хорошими переходами тонов кожи, а не простой заливкой и более-менее нормальной анимацией, то от них будет норм 3д эффект. Также, как вариант, можно более-менее плохо делать такие анимации самому в видео-редакторах или в OE-CAKE, какой это веселый угар я расскажу позже. Пока держите няшек.
И еще повайню по поводу глючность проги- на последней стереограмме задние фоновые квадраты просто ужасно размывались, пока я не повернул картинку зеркально. И типа, это все равно лучше, чем делать в гимпе со смещением, пробовал. Все швах вобщем, вот бы иметь доступ к исходникам авторов с прорисовкой на отдлеьных слоях отдельных частей тела, тогда можно было бы запилить очень качественное смещение для каждого отдельного органа, лол.
280 140715
>>140693
>>140694
Спасибо, рад стараться. Но в последний месяц я уже не делаю карты глубин, потому что понял, что это бесполезное дело для обучения сетки. Зато, как видели, в последнее время, пытался я делать видео. И некоторые получались нормально, некоторые- плохо.
Видимо, дело в том, что обязательно нужен неоднотонный задний фон. Просто белая заливка не будет давать стереоэффекта. а также намного лучше, если тело имеет переходы тонов как в артах, например>>140597, а не как в аниме, где все однотонно залито. Это по той же причине, что и однотонная заливка задника- не получается стерео, не чувствуется, что часть тела выше другой, поэтому и плохо выглядят >>140566 >>140530.
Еще до этого я пытался выдирать карты глубин из имеющихся стерео-аниме- призрак в доспехах, 009 король: Киборг, Граница пустоты: Сад грешников в 3Д, Юные принцессы. Райское влечение 3Д, а также из БАКУГАН, которого нету на рутрекере. Во всех, кроме 009 выдернутые карты глубин были в виде простейших двухмерных слоев для каждого персонажа- т.е. персонаж близко- его весь контур белый, тот что подальше- серый и т.д. без вяких деталей одежды или волос. Можно понять несчастных аниматоров- это было бы просто адище каждый кажр переводить по полной. В тех аниме, что строятся на 3д модельках- немного призрак и полностью 009, карты глубин четче, но модельки то выглядят бездушнее. Вывод- в ближайшее время нормального перевода анимации в 3д не ждите, нужно, чтобы куча людей наделали огромный датасет и подключили огромные вычислительные мощности, и то не факт, что не получится такое же глючное гомно, как генератор лиц от нвидии или аниме-девок от каких-то там японцев. Они все глючные, несмотря на огромные подключенные ресурсы.
Но. Есть один вариант, который я попробую сделать в ближайшее свободное время. Некоторые художники переводят свои двухмерные скечти в анимацию с помощью растягивания частей тела. Я знаю, что вы понимаете, о чем я- просто части тела трясутся при движении, анимированные д2 картинки просто.
На борах таких анимаций довольно много и выглядят они, по большей части, плохо. Но если взять и найти хорошие, с хорошими переходами тонов кожи, а не простой заливкой и более-менее нормальной анимацией, то от них будет норм 3д эффект. Также, как вариант, можно более-менее плохо делать такие анимации самому в видео-редакторах или в OE-CAKE, какой это веселый угар я расскажу позже. Пока держите няшек.
И еще повайню по поводу глючность проги- на последней стереограмме задние фоновые квадраты просто ужасно размывались, пока я не повернул картинку зеркально. И типа, это все равно лучше, чем делать в гимпе со смещением, пробовал. Все швах вобщем, вот бы иметь доступ к исходникам авторов с прорисовкой на отдлеьных слоях отдельных частей тела, тогда можно было бы запилить очень качественное смещение для каждого отдельного органа, лол.
281 140725
>>140715

> Некоторые художники переводят свои двухмерные скечти в анимацию с помощью растягивания частей тела. Я знаю, что вы понимаете, о чем я- просто части тела трясутся при движении, анимированные д2 картинки просто.


Да, это охуенно на самом деле.

> Спасибо, рад стараться. Но в последний месяц я уже не делаю карты глубин, потому что понял, что это бесполезное дело для обучения сетки.


Так ты все это рисовал для обучения нейросети? А нельзя её на каких нибудь более объектах тренить? Типа шарик на переднем плане, и кубик на заднем. А вообще советую выложить идею на реддит или гитхаб какой нибудь, уж там актив поболее чем тут. Тем более я помню что на реддите огромная активность появилась когда там нашли способ с помощью нейросети клеить любые лица на порноактрис.
282 140808
>>140725
По поводу шариков, кубиков в пространстве- я очень много читал научных работ по теме обучения нейросетей выделению глубины из двухмерья. Все институты тренируются на 3д рендерах простых, типа тех же кубов и шаров и показывают очень многообещающий результат. Я, как бы, поэтому и занялся тем, чем сейчас занимаюсь, лично увидев, как pix2pi меняет фасады зданий на схему расположения окон. И подумал, почему бы не попробовать. Но вот потом все упирается в выборку- институты используют выборки 100-200 максимум фоток. Это достаточно для определенных задач, но для чего-то нового- нет. На простых шариках и кубиках нейросеть не научить геометрической форме, даже если сначала обрезать цветовые каналы у фото. Да, она будет отличать твои шары и кубы на твоем фоне. Потому что научиться цветам и оттенкам, потому что это проще Как только ей дадут для обработки фото а не компьютерный рендер, она даст глича. Это как просить художника, который всю жизнь рисовал портреты и не встречал в жизни вазы, нарисовать вазу. Или уродство или инвалидность нарисовать, при условии, что он не видел инвалидов- тоже ничего хорошего не выйдет.
Этим летом Нвидия на конференции в сша представит даже технологию перевода видео в 3д с использование обычной цифровой камеры. Они на гитхабе выложили кусок кода, где видно, что видео будет воспринимать по 5 кадров и выдирать глубину из него боюсь сказать неточно, но это вроде интерполяция с использованием смещения разных объектов в кадре Вот эта технология должна, в теории, превратить любую камеру стереокамеру, или как там называется оборудование с множеством светочувствительных элементов для поимики глубины, я еще писал выше про его домашний вариант.
Так вот, о чем это я. Как я уже писал, все эти работы с небольшой выборкой однородных объектов дают предсказуемо хороший результат. Но, стоит группе ученых выйти "в поле" на улицу , как их научная работа подвисает в воздухе. Да, есть определение объектов на дороге (машина, пешеход, знак, дерево, бордюр) на одном несчастном сете картинок, но вот как ведет себя сеть в полевых условиях- скорее всего пиздец за семью печатями. Да что там говорить, даже у оригинального мануала для pix2pix есть фото-глич, гте путина на коне перекрасили под зебру целиком, потому что раньше сеть не обучилась отличать человека от коня- только коня от зебры. Все, что соединено с конем- тоже конь, никаких оригинальных прорывов нейросеть не сделает сама. Она может только автоматизировать сложную рутинную работу, если ей скормить уже много примеров проделанной работы.
Нет, нейросеть нельзя научить чему-то, чего ты сам не умеешь делать в достаточно больших масштабах. На реддите уже есть пара тредов про 3д. Вроде там же или в твиттере обитает автор соседнего анцензора. Он еще спрашивал, чем ему стоит заняться после завершения работы с анцензором, и ему уже подсказывали, что можно попытаться запились 2дto3д, на что он вроде ответил то же самое, к чему я пришел позже, попробовав самостоятельно- не получается обучить сеть без реально огромного количества примеров. Овер 1кк(к). Это потребует аналогичных по цене вычислительных затрат. Даже если каждый нерд на планете переведет по картинке в карту глубин, то все равно у нейросети случится когнитивный диссонанс, когда она увидит, что, например, пара нердов перевели в карту глубин один и тот же арт по разному. Да, в итоге она должна прийти к чему-то более-менее среднему, средне-статистическому. Останется найти только 1кк нердов и их всех скоординировать. Вариант с 3д моделями тоже так себе, если подумать, только если какому-то ученому или инвестору прийдет в голову идея запилить автоматический генератор на коммерческой основе, который будет давать картинку сопоставимую по качеству с д2 но в 3д (после чего необходимость в переводе 2д в 3д отпадает как бы).
Что еще сказать. Не помню, писал ли я про каскады нейронный сетей, типа одна сеть распознает позу человека, другая намечает в комбинации с оригинальной картинкой контуры, потом третяя сеть чуть более точно воспроизводит карту глубин и т.д., в том числе используя не только нейросети, но и старые алгоритмы. Звучит чуть более реалистично, но требует не меньше трудочасов. Вобщем возрадуйтесь, художники, от слова худо- в ближайшее время вас не заменят бездушные машины, энивей.
Так вот, пожалуй стоит ограничиться тем, что я делаю сейчас- перевод простых анимаций, немного наполнение базы карт глубин. Не стоит замахиваться на то, чем уже долго занимается куча илонов масков, гуглов и институтов, будем тихо пилить свой лунапарк с VR и лолями Скоро скину тут в архиве результат трудов за полгода- может кто-то сможет ем воспользоваться лучше, чем я. Там даже большая часть картинок ни разу не была переведена в 3д, только карты глубин, только хардкор. Сейчас в отпуске, к переводу "крученых" артов приступлю затвра вечером, до скорого сеанса сумбурной связи
282 140808
>>140725
По поводу шариков, кубиков в пространстве- я очень много читал научных работ по теме обучения нейросетей выделению глубины из двухмерья. Все институты тренируются на 3д рендерах простых, типа тех же кубов и шаров и показывают очень многообещающий результат. Я, как бы, поэтому и занялся тем, чем сейчас занимаюсь, лично увидев, как pix2pi меняет фасады зданий на схему расположения окон. И подумал, почему бы не попробовать. Но вот потом все упирается в выборку- институты используют выборки 100-200 максимум фоток. Это достаточно для определенных задач, но для чего-то нового- нет. На простых шариках и кубиках нейросеть не научить геометрической форме, даже если сначала обрезать цветовые каналы у фото. Да, она будет отличать твои шары и кубы на твоем фоне. Потому что научиться цветам и оттенкам, потому что это проще Как только ей дадут для обработки фото а не компьютерный рендер, она даст глича. Это как просить художника, который всю жизнь рисовал портреты и не встречал в жизни вазы, нарисовать вазу. Или уродство или инвалидность нарисовать, при условии, что он не видел инвалидов- тоже ничего хорошего не выйдет.
Этим летом Нвидия на конференции в сша представит даже технологию перевода видео в 3д с использование обычной цифровой камеры. Они на гитхабе выложили кусок кода, где видно, что видео будет воспринимать по 5 кадров и выдирать глубину из него боюсь сказать неточно, но это вроде интерполяция с использованием смещения разных объектов в кадре Вот эта технология должна, в теории, превратить любую камеру стереокамеру, или как там называется оборудование с множеством светочувствительных элементов для поимики глубины, я еще писал выше про его домашний вариант.
Так вот, о чем это я. Как я уже писал, все эти работы с небольшой выборкой однородных объектов дают предсказуемо хороший результат. Но, стоит группе ученых выйти "в поле" на улицу , как их научная работа подвисает в воздухе. Да, есть определение объектов на дороге (машина, пешеход, знак, дерево, бордюр) на одном несчастном сете картинок, но вот как ведет себя сеть в полевых условиях- скорее всего пиздец за семью печатями. Да что там говорить, даже у оригинального мануала для pix2pix есть фото-глич, гте путина на коне перекрасили под зебру целиком, потому что раньше сеть не обучилась отличать человека от коня- только коня от зебры. Все, что соединено с конем- тоже конь, никаких оригинальных прорывов нейросеть не сделает сама. Она может только автоматизировать сложную рутинную работу, если ей скормить уже много примеров проделанной работы.
Нет, нейросеть нельзя научить чему-то, чего ты сам не умеешь делать в достаточно больших масштабах. На реддите уже есть пара тредов про 3д. Вроде там же или в твиттере обитает автор соседнего анцензора. Он еще спрашивал, чем ему стоит заняться после завершения работы с анцензором, и ему уже подсказывали, что можно попытаться запились 2дto3д, на что он вроде ответил то же самое, к чему я пришел позже, попробовав самостоятельно- не получается обучить сеть без реально огромного количества примеров. Овер 1кк(к). Это потребует аналогичных по цене вычислительных затрат. Даже если каждый нерд на планете переведет по картинке в карту глубин, то все равно у нейросети случится когнитивный диссонанс, когда она увидит, что, например, пара нердов перевели в карту глубин один и тот же арт по разному. Да, в итоге она должна прийти к чему-то более-менее среднему, средне-статистическому. Останется найти только 1кк нердов и их всех скоординировать. Вариант с 3д моделями тоже так себе, если подумать, только если какому-то ученому или инвестору прийдет в голову идея запилить автоматический генератор на коммерческой основе, который будет давать картинку сопоставимую по качеству с д2 но в 3д (после чего необходимость в переводе 2д в 3д отпадает как бы).
Что еще сказать. Не помню, писал ли я про каскады нейронный сетей, типа одна сеть распознает позу человека, другая намечает в комбинации с оригинальной картинкой контуры, потом третяя сеть чуть более точно воспроизводит карту глубин и т.д., в том числе используя не только нейросети, но и старые алгоритмы. Звучит чуть более реалистично, но требует не меньше трудочасов. Вобщем возрадуйтесь, художники, от слова худо- в ближайшее время вас не заменят бездушные машины, энивей.
Так вот, пожалуй стоит ограничиться тем, что я делаю сейчас- перевод простых анимаций, немного наполнение базы карт глубин. Не стоит замахиваться на то, чем уже долго занимается куча илонов масков, гуглов и институтов, будем тихо пилить свой лунапарк с VR и лолями Скоро скину тут в архиве результат трудов за полгода- может кто-то сможет ем воспользоваться лучше, чем я. Там даже большая часть картинок ни разу не была переведена в 3д, только карты глубин, только хардкор. Сейчас в отпуске, к переводу "крученых" артов приступлю затвра вечером, до скорого сеанса сумбурной связи
283 140831
>>140808
А может тогда MMD модели использовать?
284 140832
>>140808

> Скоро скину тут в архиве результат трудов за полгода- может кто-то сможет ем воспользоваться лучше, чем я.


Видать ты совсем выдыхаешься уже.

> Сейчас в отпуске


Я почему то думал что ты на фрилансе сидишь
285 140849
>>140831
уже писал, что можно попробовать сделать 3д модель, которая похожа на нужную 2д и уже работать над ей одной. Для охвата всех вариантов аксессуаров, одежды поз- не хватает, по крайней мере 30.000 примеров, которые я делал в koikatsu, custom maid 3d и еще куче игр, не только хентайных. Там были очень четкие качественные примеры, но все равно, ничего нового модель не выносит из обучения на такой малой выборке. Можно, конечно, попробовать снимать только в одной позе и только одного персонажа со срезанным бекграундом, но про это я тоже уже писал, что тут нужно начинать извращаться с дополнительными ухищрениями типа вырезки фона и потом вклеивания обратно...
>>140832
Не, я просто понял на своем опыте, какая это сложная тема. В доказательство привожу сам архив а также сегодняшнюю запланированную работку. https://www.dropbox.com/s/y7044apa20br948/500arch.rar?dl=0

надеюсь хоть 1 кодировка подойдет, по крайней мере должно быть можно первый ролик сохранить и открыть в плеере
YUV.H05M31S10.jpg1,5 Мб, 2048x1158
286 140905
>>140849
Я не пойму, тебе примеров мало? Что если видео из игор записывать сразу с картой глубины, потом какими-нибудь программами, умеющими работать с пачкой картинок, нарезать все это?
287 140911
>>140905
Я это уже делал, программа для выдирания карты глубин-reshade. Да, мало, чтобы сделать универсальный определитель для нового материала. И если примеров еще можно, теоретически, наделать овер 1кк, даже если они влезут на мои 500 гб винта, то чтобы обработать их, нужно месяц гнать на моей карточке. Нвидия свои гонит на 8 картах 5 дней.
И не факт, что параметры, выставленные у нейросети, а именно количество входных и выходных каналов, нейроны и т.д. будут выставлены правильно для такой сложной задачи, может их надо выставлять больше, чем в настройках 1024 на 1024 в сети от нвидии. И может не хватит памяти, и все остановится. А если и запустится, то не факт, что через месяц я получу на выходе работающую сеть, а не переобученное или недообученное хуй пойми что.
Я помню, как делал 10000 скриншотов с картой глубины из одной игрушки, вобщем проходишь до катсцены, чтобы на основной картинке не было интерфейса и хуяришь printscreen, получаешь 600 скринов в час примерно. Меняешь костюмы у героев, и по новой. К катсценам в таких играх, как правило, шорткатов нету, поэтому я проходил с читами по фасту. Я не хочу считать, сколько времени займет изготовление 1кк картинок. Оставляя на ночь какую-то 3д дрочильню с автоматическим скриптом, тоже получаешь 3-5к картинок, всего то годик так пособирать материал, купить пару винтов, обработать за месяц фотки, просто переобрезая их, и вуаля, может через год ацкого труда что-то и получится не факт, не факт. Основывать институт изучения хентая в 3д у себя на квартире я не хочу не имею возможности на самом деле.
288 140913
https://syncedreview.com/2019/02/09/nvidia-open-sources-hyper-realistic-face-generator-stylegan/
Вот тебе в догонку, как делают лицегенератор, там есть таблица времени обучения сети. Да, там датасет 70к, но, по моему скромному личному мнению, у аниме-персонажей количество деталей-поз-бекграунда, всех факторов вобщем, больше, чем у человеческих лиц, значит нужна выборка еще больше. Да и эта сеть наверняка может дать глюков, и, конечно, она ничего особо нового не сгенерирует, типа одноглазого или безухого человека, или выражение лица, которого не было в примерах.
289 140914
И еще одно наблюдение- видео со стереоэффектом кажется менее глубоким относительно тех же выставленных мною параметров для статичных картинок. Видимо, это связано с тем, что на видео мы пытаемся сконцентрироваться на какой-либо детали, которая движется, а в статичной картинке мы можем свободно бегать глазами и находить разницу в глубине в спокойной обстановке. Даже если верхний видос поставить на паузу, то он выглядит в статике более объемным.
290 141877
>>76882 (OP)
Бамп лучшему треду ГРАЖДАНЕ ДЕЛАЙТЕ КОНТЕНТ
14521554529970.gif1,9 Мб, 900x286
291 146497
292 148710
>>140849
В архиве только картинки. А саму сеть выкладывал куда-нибудь?
IMG20191005172533.jpg97 Кб, 452x776
293 148716
294 148718
>>148710
не, там нечего выкладывать, любой может скачать любую дефолтную сетку и запустить ее. И тоже получит ничего, не вышла она, мало исходников. Только для локальных анимаций или для одного типа картинок- типа только стоящие на одном белом фоне или только сидящие фигуры.
А вообще я сейчас делаю из бд данбору сетку на картинки одетый/раздетый. Делаю медленно и лениво, но благодаря тому, что в доустпе есть бд, фотки можно дампать тысячами с несложной ручной модерацией. Может чего и выйдет. Что-то типа дипнудес для аниме.
295 149567
296 149706
>>118274
дай фулл с оранжевой няшей
297 149760
>>149706
Я даже представить себе не могу что ты подразумеваешь под

>фулл


в контексте данного треда.
К тому же, тот пост уже довольно старый. С тех пор много чего изменилось да и пирсинг у неё теперь очень аккуратненький, а не те ужасные блямбы которые были у неё полтора года назад.
Держи вот тебе двух других няшечек вместо одной той.
>>141877

>ГРАЖДАНЕ ДЕЛАЙТЕ КОНТЕНТ


Удвою. Раньше конечно я тоже делал сюда контент на основе MMD. Но это до тех пор пока в треде не появились настоящие профессионалы. Теперь, с их приходом, контент на основе MMD думаю уже не актуален.
Разве что если будет реквест или тред будет близок к смытию. Как это иногда было на протяжении его истории.
Привык бампать только с контентом.
298 149887
299 149938
._о
300 150013
>>149760
А у тебя есть ещё няшечки? :3
301 150103
>>150013
Смотря что ты понимаешь под няшечками. Если ты о фуллбоди модельках с полным функционалом то есть чутка.

Смотрел фильм "Мы Миллеры"? Или хотя бы трейлер. - Я тут дури прикупил чутка. Вот примерно столько же.
302 151152
вчера вкатился, прикольно
303 151160
можно ли из этого сделать стереодрочево?
https://f95zone.to/threads/cats-attacks-seismic.29852/
304 151161
Блять , а если я рил косой ?
305 151162
>>151161
ты рил косой? пашет? вдруг тебе даже напрягаться не надо
306 151237
Блять, зашел подрочить, по итогу пол треда засрал какой-то шизик с нейросетью и вырвиглазным рар джепегом. Шакал блеать!
551531 - Bellend Luigi PrincessDaisy SuperMarioBros. stereo[...].jpg280 Кб, 1000x680
307 151364
543024 - Koki PrincessPeach SuperMarioBros. stereogram.jpg489 Кб, 1364x950
308 151365
309 151392
>>151162
С хуяли оно работать должно, если я одним глазом могу смотреть?
310 151399
>>151364
Аж глаза заболели
311 151466
>>151399
Согласен, картинка кривая
312 152013
313 152118
Жалко, что тред тонет, где еще можно найти стереохентай такой?
314 152140
>>152118
Поддвачну вопрос
315 152163
>>152118
>>152140
Можно поискать vr хентай, там уже в плеере настроить расстояние между левым и правым изображением, чтобы глаза не болели.
я так с обычной порнухой делаю иногда
316 152181
>>152163
Но ведь стереоскопия с перекрёстным направлением глаз работает иначе, в отличии от обычного vr, разве нет?
317 152214
>>152181
Ну так я без шлема смотрю, скрещивая глаза. Картинка выглядит side-by-side, как и остальные итт.
318 152557
>>146497
что за автор? по вотермарке и поиску по скриншоту не находит
9ac9d7fb7793277da5bed170bf8e7e89s.png986 Кб, 1000x960
319 152841
489f56f3cds.PNG2 Мб, 1494x1056
320 152867
1476224437s.PNG901 Кб, 1500x750
321 152877
322 152882
р
Kd9feWvFRIAs.PNG897 Кб, 1652x771
323 152902
324 153043
>>152118
>>152140
Сделать самому?
В треде есть и про 2D и про 3D. + ещё один вариант в соседнем треде>>152285
5e74ad5e536e40cs.png2,1 Мб, 1561x1080
325 153099
326 153107
Как смотреть всю эту хуйню?
328 153131
>>153099
От этой тоже глаза немного заболели
0014589413709s.png633 Кб, 1456x806
329 153264
330 153318
331 153414
>>153107
Понадобиться 20 минутная практика, по крайней мере мне понадобилось столько, чтобы научиться. Ну вообще, если ты не умеешь делать глаза косыми, то тебе для начала придется научиться этому. Короче ты косишь глаза так, пока из двух картинок в центре не появиться 3 картинка, т.е. ты косишь глаза до тех пор, пока правая картинка не совместится с левой, в то же время те две картинки никуда не деваются, они остаются так же, слева и справа, но между ними образуется ещё одна картинка, которая как раз таки получается объемной из за совмещения этих двух картинок
332 153415
Забыл написать, что глаза надо косить к носу, а после уже научиться сфокусировать глаза на картинку, не ставя глаза в стандартное положение
333 153434
Не слушайте его, от того, что вы косите глаза к носу картинка только размывается. Нужно как-бы расслабить глаза, смотря через экран
334 153435
>>153434

>картинка размазывается


какая то дичь. у меня ничего не размазывается
nidaleeleagueoflegendsdrawnbypitui199600d449158dd8375c769d1[...].jpg1,9 Мб, 1798x2638
335 153440
А какие-нибудь стерео-очки облегчат задачу? Или это только для таких картинок (анаглиф)?
image.png162 Кб, 675x474
336 153447
>>153434
Когда смотришь как бы через экран это параллельная стереопара, левый глаз смотрит на левое изображение, правый на правое.
Тут все пикчи для косых, это перекрестная стереопара, изображения меняются местами и правый глаз должен смотреть на левое изображение, а левый глаз на правое.
У параллельного просмотра есть большой минус, тебе приходится сильно уменьшать изображение до расстояния между глазами, т.к. ты не можешь развести глаза в разные стороны.
>>153440
Если сложно фокусироваться, попробуй уменьшить картинку или отодвинуться подальше от монитора.
337 153448
>>153447

>Если сложно фокусироваться, попробуй уменьшить картинку или отодвинуться подальше от монитора.


Я ему про фому, он мне - про ерёму. Я хотел уточнить, какие есть альтернативы чтобы не прибегать к вашему методу. Секта какая-то. Ладно, мимо проходил и пошёл дальше.
338 153449
>>153448
В чем проблема глаза скосить? Можно попробовать в вр очках для смартфонов глянуть, но изображения поменять местами придется самому.
9WRXSCUIAIU36Us.PNG1,3 Мб, 1178x870
339 153458
340 153464
>>153447
Только что поверил - при расслаблении изображение смещается в ту же сторону, что и при скрещивании. Только в отличие от первого случая, во втором начинают сильно болеть глаза
341 153465
>>153464
Как в одну сторону то, если изображения для каждого глаза отличаются? И ты изображение до ~10см что ли уменьшаешь, что бы параллельно смотреть?
342 153471
>>153465

> Как в одну сторону то, если изображения для каждого глаза отличаются?


Я имел виду, что для каждого глаза в одну и ту же сторону.

> И ты изображение до ~10см что ли уменьшаешь


Да нет, как обычно телефон держу где-то в сантиметрах 25 от лица

Первый пик нормально смотрится, от последнего глаза болят
343 153482
>>153414
Благодарю. А на каком расстоянии нужно делать?
344 153544
>>153471
есть два способа косить глаза, как и два типа стереоизображений. В одном из них нужно косить глаза к центру- первый пик, если я не ошибаюсь. Второй тип- наоборот- разводить, фокусируясь вдаль, последний пик. Такие изображения также используются в стереошлемах. Каждый косит сначала по-своему, сложно переучиться с одного способа на другой. Есть такие абстрактные стереограммы, которые и рассчитаны на то, что их можно смотреть обоими способами и будет например высоченная гора и глубокая яма.
Также попробую для ускорения обучения не только менять расстояние от лица до монитора, но просто менять масштаб изображения- глубину будет проще поймать на малом размере изображения, постепенно увеличивая приближение
345 153545
>>153544
Да, могу путать параллельное с перекрестным, извини.
346 153549
>>153471

> Первый пик нормально смотрится, от последнего глаза болят


пиздец, у меня наоборот от перекрестного просмотра глаза не болят. а вот параллельный никак осилить не могу
347 153551
>>153549

> пиздец, у меня наоборот от перекрестного просмотра глаза не болят. а вот параллельный никак осилить не могу


То есть тебе лучше вино четвёртый пик? Пиздосики
348 153554
>>153551
это плохо?
349 153555
>>153554
Не знаю, но ведь тут же все пики как первый
350 153610
>>153465
У первой гораздо круче эффект 3д. А на последнюю смотреть проще, глаза не так напрягаются.
351 153752
>>153482
у меня получается на любом максимум на котором я смотрел - расстояние вытянутой руки до монитора, но чем ближе, тем сложнее косить глаза
352 154378
мы тонем. запрашиваю картинки.
353 154581
>>154378
Всё что могу. А сюжет ты не указал.
>>153107
Тред не читай, >>80179 >>80181 сразу вопрошай.
Классика, хуле.
354 154611
>>154581
ты эти пикчи в mmd сделал?
355 154618
>>154581
За третий пик отдельное спасибо. Надо поэкспериментировать с размытием фона.
356 154628
>>154611
Да. Технологию которой пользуюсь описывал тут>>79954
>>154618
Незачто же. У той модельки ещё и опай режим есть. Видеорелейд.
Screenshot2020-01-3100-02-06.png522 Кб, 1280x901
357 154659
Я нищеброд и у меня телефон не поддерживает VR. Купил картонную коробку, хотел на ммд асмр подрочить, но хрен мне.

Есть какие-то плееры для проигрывания VR видео. Скачал Var'S, и он даже позволяет головой вертеть в разные стороны, не знаю как это работает. С сильной задержкой конечно, но всетаки.

А как скачивать видосы с ютуба, чтобы смотреть потом через этот плеер? Скачивал через youtube-dl, какая-то мозайка скачивается (пикрелейтед).

Откуда можно скачать нормальные ммд потанцульки и прочее, и чем посмотреть если телефон не может в вр?
358 154671
>>154659
Внезапно, pornhub
359 154678
>>154628
а есть сайт, где можно скачать модели, сцены(задний фон в виде комнаты как у тебя)?
360 154684
>>154671
Не разу не мог туда попасть после ввода подтверждения через вк, хотя вк есть. Надо будет заморочиться.
361 154687
>>154684
Это только в России такое спрашивают, возьми какой-нибудь бесплатный USA прокси и зайди
362 156240
Тредик живи
363 156294
Bump
364 156295
Блять я думал щас на /ь/
365 156499
>>154678
Да, и не один. Загугли:
MMD Stage Dl
И будет тебе счастье.
Большая часть из тех что у меня скачена с deviantart и с NicoNico.
>>154659
Если не стерео а обычные х-ммд то чекни тот тред>>72206 (OP) пока его не смыло. А то он уже близок к смытию.
Хотя может ты его и так видел.
>>156240
Тредик живёт. Не волнуйся. По меркам тематики вполне себе живой тред.
>>156294
Пустые бамбы в тематике, тем более через два дня после последнего сообщения, в треде где много ориджинала бесполезны во всех случаях кроме единственного - ты решил скатить тред в бамплит побыстрее. Тред и без бампов может тонуть полгода, или дольше.
366 158408
>>156499
есть ещё?
367 158409
Эх, вот бы побольше анаглифического арта пилили.
А то недавно узнал тут такое https://danbooru.donmai.us/posts?tags=chromatic_aberration
И
https://danbooru.donmai.us/pools/14571

>When chromatic aberration lives up to its bad reputation of being overly abused, and makes viewing a picture straining and painful on the eyes.



Сказать, что меня это расстроило, это не сказать ничего.
368 158525
>>158408

>есть ещё?


Есть ещё что? Можешь выражать свои мысли в более развернутой форме? Если у тебя есть>>82084 редактор MMD то контент находится в суперпозиции. Его как бы нет, но его всегда можно сделать способом описанным тут>>79954
hE.gif7,3 Мб, 800x566
369 161923
370 161939
>>76882 (OP)
Вы ебанутые? Нахуя? Это ведь тоже самое изображение. Умею косить, но смысла не понял.
371 161949
>>161939
Там появляется объем, если картинку качественно сделали и если ты косишь правильно
372 164330
>>108089

>в хентаче на фочане


Так и не нашел. Хоть и всю доску пролистал.
k-t-260720.png536 Кб, 1564x720
373 164456
>>161939
>>161949
Вы тред совсем не читаете?>>107318

>>164330
Раньше была. Вот парочку вебмок >>80327 сам оттуда притаскивал.
374 165495
Типа я должен видеть девочку поверх фона?
375 165860
>>161923
Как такую анимацию сделал? Сам эффект объема слабенький, лицо плоское, будто только грудь, руки, фон и остальное всего на нескольких слоях находятся.
376 175177
бамп
sage 377 178449
378 178450
380 198339
Дохлый тред
381 206160
Мертвый тред
382 209692
>>140911

> то чтобы обработать их, нужно месяц гнать на моей карточке.


Можно заюзать облака от гугла. Точно знаю, что гугл предоставляет ресурсы для НС. На этих облаках кто-то умудрялся даже блендер закомпилить, запустить и заставить рендерить видео.
383 217568
Почему же эта тема никому не интересна?
384 217580
>>217568
Если бы эта тема была никому не интересна то в треде не было бы столько ориджинал контента.
Просто кроме этого треда есть и другие, которые ниже по каталогу и куда можно сделать что то, в той или иной степени, оригинальное.
Обычно делаю в этот тред или по реквесту или когда он во третьей трети калога.
Автор этих постов с ориджиналом>>79870 >>79954 >>80007 >>80179 >>82021 >>82084 >>82416 >>87414 >>97465 >>105303 >>107298 >>107694 >>108014 >>108131 >>108488 >>108490 >>109335 >>118274 >>149760 >>150103 >>153043 >>154581 >>154628 >>156499 >>158525 >>164456
И некоторых других, где просто перепосты с других ресурсов.
>>165860
Я её не делал. Я её с какой то буры прихватил.
385 218032
Бамп
386 246561
вверх
387 260167
>>218032
>>246561
От пустых бампов контента не прибавится.
Не тревожься. Я не дам итт так просто смытся.
388 260405
>>217580
Что такое бура?
389 260488
>>260405
Сайты с суффиксом -booru(gelbooru, danbooru и прочие)
390 260490
>>260488
Спасибо
391 260570
Где контент-то брать, а то даже бампать нечем, а то только вкатился
392 261015
>>260570
Может искать по тегам стереопара или как то так. Или Гуглить.
Я сам делаю.
Ещё пара - тройка анонов выше тоже сами делали.
393 261181
>>261015
Так и делаю, всё равно не густо, мб кто сайт тематический делал
394 262065
https://colab.research.google.com/drive/1706ToQrkIZshRSJSHvZ1RuCiM__YX3Bz
Эта нейронка может сделать из картинки .ply модель. Может кто поиграется с модельками в блендере?
395 273888
Бамп
396 274030
Очень слабый эффект от этого стерео или его вообще нет
397 299090
>>274030
-Постите с эффектом сами
-Кто? Я???
400 333079
>>332740
Годно
Обновить тред
« /h/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски

Скачать тред только с превьюс превью и прикрепленными файлами

Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах.Подробнее