Двач.hk не отвечает.
Вы видите копию треда, сохраненную 4 мая 2021 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №33 /ai/ 1881607 В конец треда | Веб
Очередной тред про хипстерские технологии, которые заменили нам Иисуса

Я ничего не понимаю, что делать?
Вкатывальщики импортят slesarplow as sp по туториалам (хотя сейчас актуальнее pytorch)
Толковые качают из репозитория awesome-XXXX на гитхабе проект какого-то китайца, меняют фамилию и получают $10M инвестиций как стартап.
Умные смотрят prerequisites на https://see.stanford.edu/Course/CS229 и http://cs231n.stanford.edu/
Остальные сидят ИТТ

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/

Почему python?
Исторически сложилось

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров: https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом

Кто нибудь использовал машоб для трейдинга?
Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущие:
https://2ch.hk/pr/res/1868191.html (М)
https://2ch.hk/pr/res/1847673.html (М)
https://2ch.hk/pr/res/1832580.html (М)
https://2ch.hk/pr/res/1817320.html (М)
https://2ch.hk/pr/res/1785952.html (М)
https://2ch.hk/pr/res/1758961.html (М)
https://2ch.hk/pr/res/1734710.html (М)
https://2ch.hk/pr/res/1704037.html (М)
https://2ch.hk/pr/res/1665515.html (М)
2 1881609
>>1881436 →

>За 100к картинок заплатишь тысяч пять


Описание содержимого картинки, правильное и достаточно полное?
Получишь качество на уровне марковской цепи с ключевыми словами из распознанных объектов
image.png284 Кб, 892x452
3 1881610
4 1881613
>>881609

>Описание содержимого картинки, правильное и достаточно полное?


Оно, как я понял, должно быть сжатым, в виде одного небольшого предложения.

>Получишь качество на уровне марковской цепи с ключевыми словами из распознанных объектов


На каждую картинку надо секунд 15 - получается 12 долларов в час за 240 размеченных картинок. Это даже много, можно и дешевле.
5 1881614
6 1881615
https://deepsukebe.io/
Оголяющий бот. Стоит денег, $5 за 100 картинок после 3 бесплатных фото.

Желательно чтобы жертва была одета в купальник/лиф+трусы, стояла прямо и смотрела в камеру
7 1881616
>>881613

>На каждую картинку надо секунд 15


Ага, так и будут тебе описания херачить по 15 секунд за копейки.
Будут в одно слово обозначающее самый очевидный класс просто писать и всё, из этого достаточно мощный генератор не сделаешь. Нужна более качественная разметка - плати и всё равно чистить придётся.
8 1881617
>>881615

>Оголяющий бот. Стоит денег, $5 за 100 картинок после 3 бесплатных фото.


Наверное наш нечеткий организовал, хули, нейронки же для зумерков тупых, любой справится
9 1881620
>>881616

>12 долларов в час


>за копейки


Сколько по-твоему должны платить обезьяне без навыков, которая размечает картинки? Зарплату сеньора в Долине?

>Будут в одно слово обозначающее самый очевидный класс


Это все контролируется, по крайней мере на амазоновском турке. 12 в час это вообще очень много. За такую плату ты можешь найти людей с высшим образованием для которых это основная работа.
10 1881621
>>881620

>Это все контролируется, по крайней мере на амазоновском турке.


Ну два слова будут писать. Универсального контроля работающего для таких специфических задач нет, только для типовых разметок.
11 1881622
>>881621

>Ну два слова будут писать. Универсального контроля работающего для таких специфических задач нет, только для типовых разметок.


Индус размечает 1000 картинок, а ты детально просматриваешь штук 10-20, выбранных случайно. Вероятность не заметить халтурщика околонулевая.
12 1881623
>>881622
Не, ну ты наверное заметишь, но когда всё кончится уже.
13 1881626
Какие индусы, каргокультисты ебаные, вы в рашке живете, здесь зарплата в 200 баксов - хорошая. За 20к в месяц вы можете провинциальную студентку нанять, три таких студентки за месяц вам все разметят и будут счастливы от такой непильной работы. Индусы, 12 долларов в час, вообще охуеть.

Другой вопрос, что сейчас нужно не нейронку искать под задачу, а задачу под нейронку. Вот на это петушки не способны. Свои гениальные идеи нужно создавать после чтения архива, а не до.
14 1881633
Картинки по описанию как научная работа имеют нулевую ценность, если там не мега-прорыв какой-то. Потому что такие работы уже есть, и даже норм генерируют в пределах домена.
Как коммерческий сервис не взлетит. На этом можно сделать, ну одну игру, и то придется рекламировать как ИИ-сгенерированную, иначе игроки не поймут грязный графон. Это не окупится.
Как петпроект сойдет.
8454BBF5-BDAC-426A-BAF5-A458E4B9BCBE.jpeg130 Кб, 399x512
15 1881642
Маскулинизированный Саттон желает всем ИТТ насладиться биттерлессоном.
16 1881648
>>881626

>здесь зарплата в 200 баксов


Хохол, кто тебя из хлева выпустил?
16043774727390.jpg45 Кб, 600x752
17 1881655
>>881642

> пик

18 1881657
>>881633

> грязный графон


Графон не будет грязным, если палитра маленькая.
19 1881665
>>881626

>нужно не нейронку искать под задачу, а задачу под нейронку.


Главное - это решение задач бизнеса ну или своих собственных, а как именно решать абсолютно похуй. Хоть нейронками, хоть ad-hoc скриптами - главное, что работает.
20 1881671
>>881633

> Как коммерческий сервис не взлетит


Похуй. Главное чтобы это был инструмент заменяющий тебе дизайнера. Одиноким геймдевелоперам огромная помощь.
21 1881694
>>881665

>Главное - это решение задач бизнеса ну или своих собственных, а как именно решать абсолютно похуй.


В рашке может и похуй, когда у бизнеса горизонт планирования месяц, а работнику вообще важно дожить до получки и хуй забить на перспективы.
А если у тебя горизонт планирования хотя бы пару лет, далеко не похуй.
Главное - прибыль. Прибыль - это разница между затраченным и полученным. Одни решения дают прибыль сразу, одни не сразу. Они требуют постоянных усилий на поддержку и модификацию скриптов, другие просто работают. И так далее.
И вот дальше ты как ml-слесарь пиздуешь на arxiv-sanity и просматриваешь заголовки, пытаясь понять, а какую хуитку можно встроить в текущий пайплайн твоего места работы. Если находишь - заебись, пиздуешь к чуваку повыше тебя в иерархии и толкаешь идею, финансирование. Не находишь - плохо, ищи дальше, или жди, пока твой начальник найдет и положит тебе в рот проект.

А вот пытаться с нуля разводить ресерч, если ты в бизнесе работаешь, типа как с этими "8bit captioning нейронка" это хуевая и рискованная идея. Такие идеи можно пробовать, но только если вложенные ресурсы копеечные - понял, что датасет ты напарсишь тут, модель тут, хуяк-хуяк. А если просто чтобы проверить твою гениальную идею нужно месяц координировать разметчиц, ну вы явно какой-то хуйней страдаете, на дворе 2020, гитхаб ломится от импелеменированных и гарантированно работающих решений, а вы свою родненькую гениальненькую (хххртьфу) идею отпустить не можете.
22 1881806
>>881694

>на дворе 2020, гитхаб ломится от импелеменированных и гарантированно работающих решений


Ещё думать как это полунеработающее говно присобачить к своей специфике, легче набрать данных и обучить, читай битерлесон
23 1881846
В чем проблема разработать универсальный алгоритм кластеризации? Или это в принципе невозможно?
24 1881891
>>881806
Обучить что, мань?
25 1881931
>>881891

> петух врубил несознанку

26 1881943
>>881931

>школьник ушел от ответа, поняв, что спизданул хуйню

27 1881954
>>881642

>биттерлессон


впопентрахен
28 1881982
>>881846
Кластеризуй мне шум.
29 1882008
>>881846
Возможно. Берешь хэш от входных данных и делишь его по модулю на число требуемых кластеров. Универсально я ебал.
30 1882010
>>881671
Если бесплатно выложить, то может быть зайдет в среде начинающих инди.
16070861791410.gif209 Кб, 326x281
31 1882036
>>881982

> Кластеризуй мне шум.


Зумера, зачем вы такие? Шум никаких кластеров не содержит, как ты его кластеризуешь? Зачем ты вообще это написал? У тебя мозгов нет?
32 1882051
>>882036
Нечектух не понял отсылку к известной теореме
мимо
33 1882055
>>882051
К какой ещё теореме, маня?
34 1882061
>>882055
Жопеншмульцера, про шум
35 1882081
>>882055
Твоей любимой. Начинается на N.
36 1882119
37 1882138
>>882081

>N


Negr?
38 1882200
>>882081
Nbitter lesson?
39 1882211
>>882055
>>882061
>>882081
>>882119
>>882138
>>882200
Квинтэссенция ML-треда. Его можно закрывать, лучше уже не будет.

No free lunch theorem
40 1882220
>>882211

>theorem


Ненужно, читай эссе саттона
41 1882253
>>882211
Ты мне давай не теорему, а программу как доказательство
42 1882255
>>1881378 →
А насколько выглядит рабочим вариант предсказывать параметры бета распределения, из которого берется матожидание (или семплируется) угла?
Мне как раз неплохо было бы иметь вероятности углов.
43 1882268
>>882255

> распределения


> вероятности


Да хватит пыжиться, собирай данных больше, учи, не трать время, не еби мозги
44 1882344
45 1882366
>>882344

> хэш


> по модулю


Кому-то не мешает прочитать горький урок?
bitterrrrrr.jpg91 Кб, 1280x720
46 1882367
Специально для петухов на свинособачьем: https://habr.com/en/post/454482/
16074695954650.jpg261 Кб, 1080x963
47 1882372
>>882367
Надо же, сойбои открыли для себя тезис Чёрча-Тьюринга, гласящий что все достаточно сложные вычислители в конечном счёте вычисляют одно и то же, независимо от их хитровыебнутости. Я прямо даже удивлен такой оперативности
Screenshot2020-12-1703-58-50.png140 Кб, 976x389
48 1882373
Лол. Нечеткий петух не может в английский. С пруфами.
49 1882374
>>882373
Я и по ссылке прочитал пару предложений. Напиши заодно, что в русский не могу. Алсо
>>882367

> на свинособачьем:


Ты чурка?
50 1882376
>>882374
В глаза не ебись, на этом скриншоте нет моих постов
51 1882380
>>882376
А чем один одинаковый как под копирку еблан лучше другого такого же?
52 1882385
>>882367
Знатно там точке зрения горького петуха напихали
53 1882387
>>882385
Ещё один зумер, читать не умеешь? >>882372 впрочем, ничего нового.
54 1882412
>>882372

>Чёрча-Тьюринга, гласящий


>Хорошо смазанная жопа с засунутым членом лучше нейроговна


Думаю Тьюринг это имел в виду, или какие у этого педика еще заслуги кроме жопоебли?
55 1882414
>>882367
Хохол выбежал из Швабропараши и обмазал здесь все говном, уходи обратно к своим хабрахрюковцам
56 1882416
>>882373

>английский


Не нужен
57 1882417
>>882412
Если ты не знаешь заслуг Тьюринга, что ты забыл в этом треде?
58 1882418
>>882416
Действительно, зачем он Русскому ученому
160615746516011097.jpg102 Кб, 1000x1000
59 1882419
>>882417

>знаешь заслуг Тьюринга


Знаю что он ебался в жопу и называл себя Белоснежкой, остальное пеар западной лживой пропаганды.
>>882418
Хохлу англодрочеру пикрил
60 1882424
>>882419
Ты хотя бы неразрешимость проблемы остановки доказать можешь без гугла?
61 1882488
>>882372

>гласящий что все достаточно сложные вычислители в конечном счёте вычисляют одно и то же



Он не это гласит, а то что всё что в принципе можно вычислить на физическом устройстве, можно вычислить на МТ.
62 1882489
>>882488
Одна из формулировок, к слову, из книжки Вапника из опхуй поста. Почитали бы умных людей вместо пидерлессона, как это сойбои для себя назвали.
63 1882490
>>882412
Нихуя толстота пошла. Сделал он максимальный вклад в теорию вычислимости, больший чем кто либо. Ну и вся теория алгоритмов до сих пор крутиться вокруг машины Тьюринга, есличо.

То что он был няшным андрогинным трапиком это только ему в плюс офк
64 1882502
>>882489
Так мы читали, это ты нихуя не читал, кроме инфы на русском из времен СССР, потому что все давно перестали переводить
65 1882508
В чем вообще смысл биттерлесона?
66 1882516
>>882502
Не читал ты, зумер.
67 1882521
>>882508

> В чем вообще смысл биттерлесона?


В том, что сойбои открыли для себя то, что тезис Чёрча-Тьюринга, оказывается, и к машобчику применим. Ну кот бы мог подумать! Вапник об этом ещё в 90е писал, но это ДРУГОЕ конечно же...
68 1882532
>>882521

> тезис Чёрча-Тьюринга


Причем тут вообще он?
16067479990680.png83 Кб, 511x407
69 1882538
>>882532
Я же объяснил, при чем. И даже сослался на соответствующую его формульровку.
70 1882541
Лол, зумерошизик не понял, в чем суть биттерлессона. Даже перевод на хабре не помог.
71 1882549
>>882541
Это ты не понял. Как и автор этой писульки.
image.png298 Кб, 600x556
72 1882555

>Это ты не понял.

image.png205 Кб, 435x295
73 1882559
>>882541
За эти несколько лет тредов еще ни разу не было такого, чтобы он что-то понял. У него просто такая штука в мозге отсутствует, только комбинирование случайных баззвордов в случайном порядке.
16038800412550.png163 Кб, 785x629
74 1882577
>>882555
>>882559
Констатирую разрыв зумера(((
75 1882735
нашёл нечёткий петух на горького петуха, треду конец
76 1882825
>>882490

>Сделал он максимальный вклад в теорию


>вся теория


Так я и говорю что петух-пиздабол, он даже Энигму не вскрыл с кучей таких же петухов пока ему разведка все ключи на блюдечке не принесла. Типичное оверхуйпнутое говно.
77 1882827
>>882825
Не тебе судить, обезьяна
78 1882854
>>882825
Зумер, ну куда ты лезешь, твоих петушиных мозгов не хватит, чтобы оценить вклад Тьюринга в математику.
bitterrrrrrrrrrr.jpg59 Кб, 464x599
79 1882893
Лольнул с нечеткого петуха.
zzzzzzz.jpg357 Кб, 512x512
80 1882904
81 1882918
>>882854

>оценить вклад Тьюринга в математику


Я и говорю, бесполезный петух как и все математики, собственно они его и форсят.
Untitled.png248 Кб, 898x1110
82 1882942
Для того, кто кричит что математика не нужна.
83 1882951
>>882942
Пусть Интел вначале убогое говно перестанет делать.
84 1882959
>>882951
А кто делает лучше?
85 1882962
>>882959
Саттон
86 1882965
>>882959
Я про архитектуру, мне больше RISC нравится. Но это всеравно кал, нужно принципиально новое направление.
87 1882993
>>881616
>>881620
>>881621
Милости прошу к петушиному шалашу:
https://2ch.hk/wrk/res/2157592.html (М)
88 1882998
>>882993
Не так просто этих макак встроить в систему. На той же толоке там и мониторинг скилов, и умная выдача заданий, и вариация цены. На типовых задачах это более-менее работает, но если тебе надо что-то более креативное, вроде словесных описаний, это гораздо сложнее.
16057057607920.jpg13 Кб, 170x347
89 1883262
>>882962

> Саттон


Сойбой. В случае с reinforcement learning он (это же он был?) даже не понял, чем занимается, не уловил, что по-сути пытался смоделировать скиннеровский three-term contingency. Так же и со своим "битерлесоном", написал то, о чем умные люди ещё лет 30 назад писали. А потом появляются свидетели этой хуйни, как ты, горький петух, которые по своему зумерству тоже не могут понять написанное.
90 1883272
>>883262

>не уловил, что по-сути пытался смоделировать скиннеровский three-term contingency


У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"? Если нет, то нахуя он нужен. Ну и результатов у него тоже нет.
С тем же успехом можно сказать, что всё в мире сводится к категориям аристотеля.
91 1883273
>>883262
Все поняли? Биттерлесон - это про тезис Черча-Тьюринга. RL - это про three-term contingency.
Не поняли, нет?
Короче, как этот конструшок - нечеткий петушок функционирует. Он берет какой-то рандомный термин из прошлого, пишет "X - это Y", и молится, чтобы никто в треде не знал, что такое Y. Если знает и говорит банальную вещь, что петушок опять соснул, - он начинает злиться и постить картинки с зумерками, но больше хуйни не пишет. Если же молитвы услышены и никто его не обоссал, он убедится, что все обошлось, и у него начнется очереднеая стадия шизы.
image.png111 Кб, 846x442
92 1883275
>>883272

>У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"? Если нет, то нахуя он нужен. Ну и результатов у него тоже нет.


Не будь петушком, уважай ученых. Петух специально выбивает тебя в эту плоскость, где он может нести свою шизу. Это хуйло даже статью в оригинале прочитать не может и ждет перевод на хабре, и пишет просто рандомный набор слов каждый раз по одному и тому же паттерну.
Его утверждения, что "XXX не понял YYY" не основаны ни на чем, кроме желания высрать хоть что-то, будучи интеллектуальным ничтожеством.
16067487341190.jpg110 Кб, 1280x720
93 1883352
>>883272

> У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"?


Было. Только сойбои его не читали, а я читал, в оригинале, вопреки кукареканьям горького петуха о том что я якобы не знаю англюсика поэтому знаю, о чем говорю. Сойбои а ты тем более с RL не ушли дальше понятия топографии поведения, в отличие от Скиннера.

> Ну и результатов у него тоже нет.


У него их полно, просто ты о них не слышал.
>>883273

> Все поняли? Биттерлесон - это про тезис Черча-Тьюринга. RL - это про three-term contingency.


Да. Только чтобы понять, почему, мозги нужны.
94 1883378
>>883352
Так у тебя их нет, лол. Сначала клоуном /math был, теперь здесь.
Додвачевался до того, что сойбоями называешь людей, которые защитили диссертацию до того, как ты родился.
95 1883395
>>883378

> Сначала клоуном /math был


Ага, дебилы не понимают разницы между потенциальной и актуальной бесконечностью, а клоун я? Нет, зум, это так не работает. RL у долбаебов не работает потому что они долбаебы. Про Скиннера вроде слышали, но ведь с долбаебами всегда так - слышали, но не читали, читали, но не поняли, поняли, но не так. Поэтому RL не использует результатов, полученных Скиннером, а он ведь ещё лет 80 назад пояснял, в каких случаях и почему его подход может не работать. А теперь смотрим RL и видим, что эти ебланы собрали все грабли, о которых Скиннер рассказывал. Так что сойбой твой Саттон, можешь даже не спорить.
96 1883414
>>883395

>потенциальной и актуальной бесконечностью


Проорал
97 1883418
>>883395

>а клоун я?


да, ты
98 1883495
>>883418
Горький петух такскозал?
99 1883496
>>883495
Нет, жопеншмульц доказал в 1927 году теорему. Иди учи матчасть.
100 1883680
>>883496
Если нечеткий петух такое пишет, значит это пиздеж, и не жопеншмульц доказал в 1927 году, а херожольц в 1925, на что у жопеншмульца была ссылка, но петух читал советский перевод его работы, где ссылки нет, и без перевода статьи на хабре он беспомощен, при этом сама теорема на самом вообще не о том и не применима.
пенсионеры.jpg83 Кб, 766x767
101 1883873
>>883680
С тобой все в порядке?
102 1883949
>>883395
Что у них не работает, и что работает у тебя? Если ты такой умный, то почему тогда бедный не зафигачил новые эффективные методы RL?
103 1884001
>>883949
Зумерок, иди почитай классику [Zhopenshmultser et al. 1946], там уже давно всё придумали. У сойбоев не модно изучать классику, а модно трясти нейронки, поэтому результатов не видно.
516.jpg13 Кб, 200x279
104 1884135
>>883949

>Если ты такой умный, то почему тогда бедный


Действительно
105 1884192
>>884135
Ну он то бедный потому что аскет. А ты бедный потому что тупой.
106 1884194
>>884135
У Перельмана родственники - банкиры в Швеции, хуёвый пример.
107 1884214
>>884001

>поэтому результатов не видно.


>ГПТ-3 скоро порешает кодомакак


А что есть у вапникодрочеров?
108 1884234
>>884214

>ГПТ-3 скоро порешает кодомакак


Не порешает. Как минимум из-за ограниченной длины последовательности, которую она умеет генерировать.
109 1884356
>>884194

>банкиры в Швеции


Накопили на золотых зубах холокоста? При чем там ум?
>>884192
Это другое? Ясно.

Реквестирую маняматика который разбогател не впаривая маняматическое говно, ну кроме Березовского.
110 1884404
>>884001
>>884135
Нет ну серъезно, объясните кодомакаке, если все вот так замечательно в теории, почему не применяют? О массовом применении речь не идет, большинство трясунов - криворучки, однако почему ВЕЗДЕ stackMoreLayers?
111 1884413
>>884404
Всё применяют. Например, в статье Performer используют наработки из кернел-методов.
Просто шизиков меньше слушай, которые притворяются людьми.
112 1884423
>>883273
Самая глубокая аналитическая модель в этом итт треде.

А в /po/ можешь так?
113 1884432
>>884404

> , однако почему ВЕЗДЕ stackMoreLayers?


Горький петух говорит, что дело в битерлесоне. На самом же деле проблема в том, что сойбои ни во что кроме стекморлейерс не могут, а закон Мура приводит к тому, что и так получается неблохо, сравнить-то не с чем.
114 1884446
>>884432
Кек, этот жалкий перефорс
petuh2.png1,3 Мб, 1150x872
115 1884466
>>884446

> перефорс


Перефорс чего? Это не перефорс, "горький петух" - это теперь твое официальное звание. Лови мэдскилл.
116 1884831
Ладно, я был неправ, нечёткопетух не необучаемый. Смотрите, как он быстро учится новому.
https://youtu.be/6gDxvk6n-qM
117 1884852
>>884831
Это четкий петух.
118 1884856
>>884432
Но в индустрии должны быть не только сойбои?
119 1884913
Есть одна таблица (пик 1). Я хочу сделать для нее heatmap, но такую, чтобы считала каждый столбец отдельно, как я намутил в экеле(пик2). Пик3 в matplotlib, a пик4 в seaborn и они учитывают сразу все значения и рисуют по нормировке всех значений, что мешает мне понять отдельные характеристики признаков.
Вот теперь и возлюбишь винду.
120 1884916
>>884913
Гугли что-нибудь типа "heatmap by column", если в документации на то, чем ты пользуешься, этого нет.
1608404580394.png68 Кб, 562x526
121 1884941
>>884916
>>884913
Если сделать нормализацию, то нужное представление я получу. Но тут уже встает вопрос о том, не потеряю ли я какую-то критическую информацию, когда буду рассматривать нормализованные признаки? Не исчезнут ли выбросы, если такие есть, или еще что-то?
122 1885036
>>881607 (OP)
Няшки, какие сейчас есть технологии распознавания и поиска лиц по базе? Хочу сделать детектор либирашек для своей Родины.
123 1885056
>>883272

>хорошее поведения поощряем, плохое наказываем


Ух, вот это гениальная идея, вот это ноука!
124 1885171
>>885056
Ну в его время это был нехилый прорыв. Когда остальная психология измеряла черепа, толковала сны, и гадала на кофейной гуще.
16045064436330.png148 Кб, 592x592
125 1885177
>>885056
>>885171
Ещё один дебилок. Прорыв Скиннера был в переходе от топографии поведения к понятию операнта, что дало возможность изучать поведение как явление, а не запутаться в бесконечных многообразий топографий поведения, на чем закончились исследования всех до Скиннера. Но откуда такие вещи знать одинаковым как под копирку зумерам без мозгов.
126 1885276
>>885036
Все те же ,базовые, как и позавчера.
На всякий случай обоссым тебя и твое государственное объединение.
127 1885279
Насколько трудновыполнимой и ресурсозатратной станет задача оптического определения шрифта и, если такого шрифта нет в общем пользовании, хотя бы приближённая его отрисовка?
128 1885307
>>885279
Вполне реалистичная задача, сопоставимая с распознаванием лиц по пайплайну. Собири датасет со шрифтами, напиши скрипт по агументации, который меняет у букв размер и цвет, и тренируй нейронку по букве выдавать эмбединг, соответствующий шрифту.
Дальше все сводится в kNN в пространстве эмбедингов.
129 1885356
>>885279
Эмм, сервисов по определению шрифтов было миллион еще до всяких нейронок.
130 1885360
>>883273
Лол, так а в чем он не прав, если действительно хипстеры просто вытаскивают то что ученые лет 50 назад изобрели?
131 1885361
>>885360
Пруф?
132 1885362
>>885361
Читай старые книги там все есть. По крайней мере я про нейронные сети читал еще в дремучем детстве в обычной библиотеке обычного санатория-курорта.
133 1885366
>>885362
Это первая часть пруфа. Вторая часть пруфа - покажи, где хипстеры вытаскивают.
134 1885367
>>885366
Ну, что то же у хипстеров работает, кек. Просто они называют это всякими модными баззвордами.
135 1885370
>>885367
Ты так примерно почуствовал, да?
136 1885380
>>885307
Буду разбираться, спс.
>>885356
Ну сервис сервисом, но меня интересует ещё возможность хотя бы приближённо воссоздавать оригинальный.
137 1885390
>>885380

>но меня интересует ещё возможность хотя бы приближённо воссоздавать оригинальный.


Это тебе conditional gan нужен тогда
В целом идея и бог весть какая свежая, нагуглишь дохуя чего
138 1885392
>>885360

> хипстеры просто вытаскивают то что ученые лет 50 назад изобрели


> По крайней мере я про нейронные сети читал


А ещё хипстеры матрицы перемножают, а это вообще 150 лет назад начали делать. Сойбои не могут ничего нового придумать.
16070861791410.gif209 Кб, 326x281
139 1885393
>>885370

> Ты так примерно почуствовал, да?


Я не он, но причем тут "почувствовал"? Я тебе даже точно назвал книгу Вапника с нужной интерпретацией тезиса Тьюринга-Черча и примерами использования его в машобчике. Видимо, не в зумера тайд коня корм. Что тут можно добавить, остаётся тебе только посочувствовать.
Screenshot2020-12-2014-23-26.png390 Кб, 620x1003
140 1885411
>>885393

>Я тебе даже точно назвал книгу Вапника с нужной интерпретацией тезиса Тьюринга-Черча


Я уже написал об этом все вот тут - >>883273
'Он берет какой-то рандомный термин из прошлого, пишет "X - это Y", и молится, чтобы никто в треде не знал, что такое Y'
При этом каждый раз (я не знаю какой по счету уже) нужно лезть руками и убеждаться, что там тупо какая-то нерелевантная хуйня. Один в один было так с no free lunch theorem, которую он упоминал в треде всякий раз, кроме тех случаев, когда она действительно нужна.

Если кому нужно - https://statisticalsupportandresearch.files.wordpress.com/2017/05/vladimir-vapnik-the-nature-of-statistical-learning-springer-2010.pdf
141 1885413
>>885411

>Он берет какой-то рандомный термин из прошлого, пишет "X - это Y


Так в чем он неправ? Если хипстеры просто называют баззвордом Y то что было в книгах под названием X?
142 1885421
>>885413
В том, что X - это не Y, а просто не связанные между собой вещи.
Что эти хипстеры защитили свои тезисы еще до того, как ты родился.
Что споры о терминологии, а не научном приоритете, совершенно несущественны, да и научный приоритет - это больше про этику.
143 1885423
>>885421

>В том, что X - это не Y, а просто не связанные между собой вещи.


Потому что ты не видишь связи? Ну ок.
144 1885428
>>885413
Хотя бы три примера в студию.
145 1885429
>>885423
Ну так распиши ее. В отличие от этого пидораса, я принес конкретную ссылку и даже скриншотик.
Понятно, что лично для тебя это вообще темный лес и какие-то случайные буквы, а ты просто поспорить зашел.
16068047931930.jpg139 Кб, 832x747
146 1885577
>>885411

> там тупо какая-то нерелевантная хуйня


У тебя просто мозгов нет. Я могу пояснить подробнее, но толку все равно ведь 0, ты и дальше будешь кукарекать, просто потому что такова твоя суть - петух. Вот смотри:
- как тезис Чёрча-Тьюринга у Вапника определен, видно на скрине. А именно "все достаточно сложные вычислители вычисляют одно и то же семейство функций".
- отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен, т.е лучше такой алгоритм, в котором меньше изьебств.
- именно по этой причине стекморлейерс + закон Мура в целом работает лучше, чем более умные и сложные алгоритмы.
- в этом и есть суть соевого битерлесона, Саттон там же прямо приводит пример, как комплюхтер брутфорсом обыграл Каспарова:

> В компьютерных шахматах система, которая победила чемпиона мира Каспарова в 1997 году, была основана на глубоком поиске вариантов. Тогда большинство исследователей компьютерных шахмат с тревогой смотрели на эти методы, потому что они применяли человеческое понимание предметной области — особой структуры шахматной игры. Когда более простой, основанный на поиске, подход со специальным оборудованием и программным обеспечением оказался значительно более эффективным, эти исследователи отказались признавать поражение. Они сказали, что метод «грубой силы», возможно, сработал один раз, но не является общей стратегией. В любом случае, люди не так играют в шахматы. Эти исследователи хотели победы методов, основанных на человеческом понимании игры, но их ждало разочарование


И так далее. Вот такие очевидности объяснять, это пиздец же. Каким надо быть дебилом, чтобы не видеть настолько простых вещей...
147 1885582
>>885577

>отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен


Нет, это ты выдумал.

>т.е лучше такой алгоритм, в котором меньше изьебств.


Так речь про алгоритмы или вычислители? Ты как-то перескакиваешь с предмета на предмет.

>именно по этой причине стекморлейерс + закон Мура в целом работает лучше, чем более умные и сложные алгоритмы.


Большинство нейросетей не являются полными по тьюрингу, так что они просто в разных классах находятся. Закон Мура ты прицепил просто так. Предпосылки про "лучше" неверны, да и ты не понимаешь разницы между вычислителем и алгоритмом.

>в этом и есть суть битерлесона


"general methods that leverage computation are ultimately the most effective" - суть биттерлессона

>перевод с хабра


проиграл
148 1885586
>>885582

> Нет, это ты выдумал.


Ты дебил. Там прямым текстом написано, что брутфорс лучше работает.

> Большинство нейросетей не являются полными по тьюрингу,


Ты дебил ещё раз. Причем тут вообще полнота по Тьюрингу?!

> Так речь про алгоритмы или вычислители? Ты как-то перескакиваешь с предмета на предмет.


Я про алгоритмы, вычисляющие функции зависимостей выходов от входов, т.е про весь машобчик.

> Закон Мура ты прицепил просто так. Предпосылки про "лучше" неверны, да и ты не понимаешь разницы между вычислителем и алгоритмом.


Ты дебил ещё раз. Короче, все ровно так, как я написал выше. Ты реально деревянный, ещё и полноту по Тьюрингу приплел...
149 1885596
>>885577

>структуры шахматной игры


Откуда у маняматиков и прочих задротов такой надроч на шахматы? Это же тупейшая позиционная игра, скучная и унылая.
150 1885600
>>885586

>Там прямым текстом написано, что брутфорс лучше работает.


Ты про тезис тьюринга-чёрча говорил. Где в тезисе написано, что лучше брутфорс работает? Где сравнения различных абстрактных вычислителей?

>Причем тут вообще полнота по Тьюрингу?!


Тезис тьюринга-черча про полные по тьюрингу вычислители. Нейросети в большинстве своём таковыми не являются.

>отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен


>Я про алгоритмы, вычисляющие функции зависимостей выходов от входов


Ты таблетки выпить забыл.
151 1885628
>>885586

>Ты дебил ещё раз. Причем тут вообще полнота по Тьюрингу?!


Кек. Sufficiently complex computers - это про Тьюринг-полноту. Привет.
А дальше ты пишешь "отсюда уже понятно", но отсюда на самом деле ничего не понятно. В следующем абзаце Вапник пишет про spirit of the Church's claim. Спирит. Он не использует тезис Черча для дальнейших выводов. Он просто говорит, что дальшейшее смахивает на него.

То есть в этих двух абзацах, переводя на наш язык
1. Доказно, что тьюринг-полные вычислители эквивалентны
2. А я после экспериментов с данными как-то примерно почуствовал, что разные типы SVM эквивалентны. Прикольно пацаны?

Все это, конечно, интересно, но совершенно нерелевантно обсуждению, особенно с тем количеством пафоса и ЧСВ, которое ты сюда запихиваешь. Как обычно, в общем.
152 1885648
Сейчас один из вас такой: а ведь ты прав! Как я мог этого не видеть? Спасибо, что все мне объяснил.

На самом деле нет. Будете продолжать называть друг друга дебилами и поливать говном, пока не иссякнет запал (он уже иссякает). В результате оба сидите оплеваные, никто ничему не научился.
image.png191 Кб, 574x616
153 1885654
>>885648
У тебя две ошибки
1. Зумерошиз - шиз, у него батарейка в жопе, а механизм понимания чего-либо у него отсутствует,
2. Не скажу, лол.

Вообще же вапник пишет про этот подход в совсем другом месте, он называет его подход AI hardliners. Только пишет он про это с некрываемым помпажом и время показало, кто прав в конечном счете. Вапник биттерлессон не усвоил, ему ЧСВ помешало. А условил бы - глядишь и 30 лет не проебали бы.
154 1885784
>>885596
У математиков больше го в почёте, шахматы не оч любят.
155 1885798
>>885784

>го


Го, преф/бридж на много интересней и интеллектуальней. Но шахматы это пиздец уныло, почему раньше их так форсили?
156 1885867
>>885654

> Вапник биттерлессон не усвоил, ему ЧСВ помешало. А условил бы - глядишь и 30 лет не проебали бы.


Ну конечно, Вапник в машобе не понимает, а горький петух понимает.
157 1885876
>>885798
То что это анонимный чатик не означает что тебе следует писать глупости. Держи себя в руках.
158 1885885
>>885876
Может ты сам вместо пуков будешь хотя бы имитировать беседу по существу?
159 1885890
>>885885
Не бухти. Я решу сам когда нужно начать беседу по существу.
К тому же если таковая начнется, сомневаюсь что ты сможешь многое из неё понять.
160 1885909
>>885890

>Я сам решу, когда перестать срать в середине этой комнаты


Ну ок
161 1885916
Тьюринги, что можно почитать про machine learning для тупых, прям для далбоебов где все разжёвано, чтобы можно было понят эти ваши БАКПРОПАГАЙШЕНЫ и прочие GAN'ы c нейронками
162 1885943
>>885867

>Вапник в машобе не понимает


Видимо действительноне понимает - гордыня мешает. "Я же такой охуенный, меня не заменят трясуном коробки со stackmorelayers"
163 1885978
>>885943

> Видимо действительноне понимает - гордыня мешает. "


Ну главное, что ты понимаешь. Прочитал одну соевую мантру, и сразу просветление нашло, как на Будду.

> Я же такой охуенный, меня не заменят трясуном коробки со stackmorelayers"


Почему-то до сих пор не заменили. На табличных данных всякие lightgbm и прочий бустинг (то есть, алгоритмы из области статистической теории обучения) превосходят трясунов со стекморлейерс. Наверное, потому что авторы не читали соевый битерлесон и не прислушиваются к горьким петухам?
image.png389 Кб, 583x538
164 1885999
>>885978

>Почему-то до сих пор не заменили.


Вы находитесь здесь
165 1886004
>>885999
Ты лучше без соевого мемасика "битерлесон" расскажи, как так получилось. Выходит, не правы сойбои. А раз так, то и ты не прав, горький петух. Оправданий хотелось бы.
image.png113 Кб, 474x377
166 1886028
>>886004

>Мы против биттерлессона, поэтому стекаем деревья

image.png2,9 Мб, 1920x1080
167 1886192
Привет, няши! Поясните за алгоритмы, применяемые в современном ИИ. Правильно ли я понимаю, что нейронная сеть - самый передовой алгоритм для любого направления в ИИ? Какие есть годные альтернативы?
168 1886212
>>886192

>Какие есть годные альтернативы?


Все остальное
Untitled-design-1-3.jpg29 Кб, 658x470
169 1886333
>>885999
Вы всегда там и находились, шизик
yoba sutton.png309 Кб, 583x538
170 1886342
>>886333

>пук

171 1886348
Анончики, есть какие-то рекомендации по вкату в анализ данных? Не именно машинное обучение, как у больших мальчиков, а всякие вещи попроще, типа, сбора, обработки, визуализации и репортинга по данным. Статистика и пайтоновский стек научных библиотек и я могу аплаится на вакансии по 200к в секунду? Или все чутка сложнее?
172 1886387
Спят усталые металлы
Шизы спят
mentifex.gif35 Кб, 320x200
173 1886412
Раз уж тред после альфафолда накрыло батхертной шизой, покажу вам героев прошлого. А то вы и не знаете истории тут.

Вот вам один из самых колоритных ИИ-шизиков нулевых: https://www.nothingisreal.com/mentifex_faq.html
Это титан шизы. Он постит про свой ИИ без перерыва более 30 лет. До интернета писал бумажные письма исследователям. Продолжает и по сей день, например на реддите: https://www.reddit.com/user/AiHasBeenSolved/
Пишет что он создал ИИ, и спамит ссылками на него. Суть теории на пике. Его ИИ это скрипт на перле, пытающийся парсить текст: https://ai.neocities.org/NLU.html Что характерно, поддерживается русский язык!
174 1886437
>>886412
Эх, если бы в треде завелся хоть один шиз, который показал хоть какой-то высер типа этого
image.png186 Кб, 1280x960
175 1886462
>>886437
Сейчас уже по-моему нет тех былых шизов. Рыночек порешал. Вон еще в МВП треде вспомнили (не ИИ, просто эпичный кодер-шиз): https://en.wikipedia.org/wiki/Terry_A._Davis
Так и дошел до бомжевания, тюрьмы и в конечном счете прогулки по рельсам. Не выживают они теперь. И это в Америке, где можно просто жить на улице и еду раздают нищим бесплатно. Что уж про рашу - тут мигом дурь выбьют. Остается только, как нечеткий петух, кукарекнуть пару постов в день и возвращаться в стойло.
176 1886463
>>886387
Это гдеж они спят, весь тред в этом воркуте горького с нечётким блядь
177 1886465
>>886462
Ну а как же золотце, жил в серпухове с мамой, и на кодаче постил свою шизоверсию лиспа, потом писал в пораше на английском, велит называть себя nash gold, и перекатился на украину, срал на нее там, а сейчас вроде в голландии
178 1886552
>>886465
Он на этом лиспе ещё игру выпустил и в /gd/ запостил
179 1886573
>>886348
Без вышки не вкатишься, но какая именно вышка - не особо важно. В идеале, конечно, какая-нибудь техническая или экономическая. MS Excel должен знать хорошо (в т.ч. VBA), SQL. С этим уже можно найти какую-нибудь работу. В идеале еще статистика, Python, что нибудь из BI - Power BI \ Tableau - и будешь норм претендентом, но в целом порог входа низкий, но и зп соотвествующие.
Часто еще хотят понимания основ веб-аналитики если идешь в продуктовое ИТ.
180 1886651
>>886465
Да, тоже из старой гвардии. Но судя по всему, его жизненный путь тоже прочно встал на колею Бороды.
181 1886656
>>886412
Причём, если прибавить пару миллионов на мощности и зарплату опытным ресёрчерам, это возможно бы и заработало (ну так, более менее, на уровне трансформеров). Как и тысячи разных альтернативных подходов в машинлернинге.
unnamed.jpg96 Кб, 512x473
182 1886719
>>885916
Бамп вопросу!
183 1886733
>>886719
Да нет нихуя для долбоебов. Можешь книги из шапки почитать, те 2, которые не дипленингбук
Можешь cs231n
184 1886813
>>886719
Ничего. Эта область не для тупых.
185 1886816
>>886412
А по фактам он сколько-нибудь вменяемое что-то сделал или парсилка тупо не работает?
>>886719
В меме перепутали дата аутистов и ИИ ресерч.
Можешь попробовать d2l.ai
186 1887248
Посоветуйте ресурс/книжонку/курс для вкатывания в OpenCV? вроде уже 4 версия вышла, а много старых ресурсов - насколько они актуальны?
187 1887297
>>887248
Нормально актуальны. Посмотри несколько роликов на ютубе, затем сделай что-нибудь.
188 1887375
>>887297

>несколько роликов


А они смешные? Там есть кревляющиеся смузихлебы с подворотами? Они точне не короче 40мин?
189 1887486
>>887375
Есть достаточно уморительные
https://www.youtube.com/watch?v=wEgq6sT1uq8
191 1887548
>>882419
Это ты тот шиз, который по маня-проектам совка плакал?
192 1887555
>>881607 (OP)
Как сделать свою первую нейронку?
193 1887650
>>887548
Хохол, кто тебя выпустил?
194 1887702
Чувак с биттерлессоном, а TDA и manifold learning тоже отменяются получается?
195 1887712
>>887555
Займись сексом, если повезет, через 9 месяцев у тебя будет своя первая нейронка, еще через некоторое время появится полноценная возможность обучать ее.
196 1887730
>>887702

> Чувак с биттерлессоном


Горький петух.

> TDA и manifold learning тоже отменяются получается?


Все отменяется.
197 1887731
>>887702

>тоже отменяются получается?


Как будто они имели перспективы
198 1887738
>>887491

>Вот нормич литература


Сам это пиздаглазое говно читай, там на один абзац два листа этих мерзких ебл.
199 1887741
>>887702
Всегда есть вероятность прорыва, когда исследуются самые основы. Отменяются попытки накостылить какую-то особую модель под конкретную задачу.
200 1887742
>>887731
Кодомакака, плиз
201 1887826
>>887650
Ещё и хохлы мерещатся. Таблетки хоть пить не забывай, краснопёрый.
202 1887864
>>887712
Двачеру легче написать нейронку на няшной чем найти и оплодотворить няшку.
203 1888042
Привет. Хочу задать вопрос нейросеточникам.
Требуется перегнать замусоренные хмл документы
в маркдаун с вкраплениями аштиэмель таблиц.
Какая нейросеточка мне нужна? Спасибо

Мимовебдевелопер
204 1888081
>>888042
биологическая
205 1888088
>>887742
Самое дегенеративное противостояние из возможных - матанищенки против кодомакак. Из треда в тред, из треда в тред.
206 1888099
207 1888105
>>888088

>Самое дегенеративное противостояние из возможных - двачерв против двачеров. Из треда в тред, из треда в тред.


Пофиксил.
208 1888237
>>888088

>Самое дегенеративное противостояние


Если горький с нечётким петушки куда-то пропадут - возможно.
209 1888313
А если без мемчиков и по науке: почему огромная/бесконечная VC размерность сеток не мешает им обобщать всё лучше других?
210 1888323
>>888313
Потому что ВЦ-размерность это неверный подход к описанию обучающихся систем.
211 1888383
>>888323
Почему?
212 1888434
>>888383
Потому что горький петух такскозал. Похуй на доказанные теоремы о VC размерности, ваши пруфы не пруфы, то ли дело соевый битерлесон
213 1888490
>>888383
Потому что он, очевидно, не работает.
214 1888516
В рамках проекта по знакомству с шизами, еще один колоритный персонаж. Борис Казаченко (почему они все русские?), живет не где-нибудь, а аж в Бостоне. Безработный, занимается созданием ИИ. Его манускрипт: http://www.cognitivealgorithm.info/
Я в принципе люблю альтернативщину. Но огромное количество бессвязного, часто бессмысленного, текста, перепрыгивание между совершенно разными темами в соседних абзацах и предложениях, посещение всех "больных мест" для типикал шизов, обилие каких-то одному автору понятных формул, позволяет твердо поместить поциента в палату душевнобольных. Очевидная сверхценная идея, при отсутствии какой-либо конкретики (что неумело пытается скрыть стена текста).
Интересен тем, что (якобы) платит своим последователям за вклад в код реализации своих идей. Если это правда, то деньжата у челика водятся, хотя линкедин девственно чист. Видимо, не так прост Казаченко.
215 1888561
>>888490
Что значит не работает? Утверждения теории Вапника-Червоненкиса доказаны строго, если что-то не работает значит либо можно их опровергнуть либо они на самом деле верны и разлад происходит по какой-то другой причине.
216 1888662
>>888561

> либо они на самом деле верны и разлад происходит по какой-то другой причине.


Я тебе скажу по какой причине. SVM никто не стыковал сотнями слоев, базовая модель меньше любого перцептрона. Как только попробовали бустинг из той же теории статистического обучения, что-то он везде кроме распознавания негров и ещё пары узких задач, нейроночки уделывает.
217 1888671
>>888561
Не работает - значит, эта теория развалилась при встрече с реальностью.
218 1888811
С понедельника две недели каникул. Анон, реквестирую гайд с нуля по джуна по машобу за две недели. Так чтобы даже вебмакака осисил. Только, чтобы без участия машины времени.
219 1888821
>>888811
Надо чтобы эта вебмакака знала линал и матан.
https://www.amazon.com/Artificial-Intelligence-A-Modern-Approach-dp-0134610997/dp/0134610997/ref=dp_ob_title_bk
220 1888822
>>888671
Ты говоришь про факт, который я и так знаю. Я же спрашивал объяснение почему это так.
221 1888836
>>888821
Забавно вообще получилось. А я ещё когда-то думал (лет 10 назад), что я горячее дерьмо в математике, а в итоге почти всю свою вышку вывозил исключительно за счёт практических работ и надеялся на автоматы. Как только уровень абстракции полез уверенно вверх в сравнении со школьной математикой, то сразу становится ясно кто брейнлет, а кто нет.

>должен был получать 4 автоматом за линейную алгебру


>лектор отказался ставить автомат кому-либо


>пришлось платить за экзамен так, как кроме векторов и матриц я чутка отстреливал разве что за кольца и поля, а это было даже не половина материалов курса



Зато шутейка "утонуть можно не только в море, но и в поле" запомнится мне, скорее всего, на всю жизнь.
222 1888839
>>888822
Они исходили из предпосылок, которые были слишком просты и сильны. Они не выполняются для современных моделей. По ходу дела выяснилось, что вся теория применима исключительно к линейной регрессии, то есть абсолютно бесполезна, потому что линейная регрессия проста как табуретка. Чтобы ее использовать, не нужны эти нагромождения.
223 1888862
>>888561

>Вапника-Червоненкиса


Жопника-Чухониса
224 1889124
Господа data sience что вы делаете на работе?
Обрабатываете таблички бабы сраки из бухгалтерии и на основании их делать ml модель, презентацию, power bi графику?
Slowpoke.png19 Кб, 200x218
225 1889703
Блин, как добавить пару слоёв перед готовой моделью вроде resnet'а?
image.png129 Кб, 1000x453
226 1889859
>>889124
че нам-то
227 1889883
>>889124
анализируем протеины вычисляем нейросетями и создаем вакцину
https://www.youtube.com/watch?v=3dnEU4aS65o
228 1889920
>>886412
Помню, был такой чувак, Роберт Деш. Придумал Деш-компьютер. Я про него треды ещё в 2009 создавал в /b/, у него стримы были на смотри.ком. Тоже шиз был, с него дико рофлили
Дед скончался где-то в 2012-2015
229 1889923
>>887491
Двачую, бро. Статистику не могу найти, но я её тоже читал
230 1889932
>>889923
Зачем это нужно если есть нормальные учебники? Там даже нарисовано не красиво. Пустая трата времени.
231 1889947
>>889932
если ты инфантильный кидалт аутист, то норм
232 1889980
>>889703
Без ёбли никак но к счастью для тебя в этом нет никакого смысла.
image.png136 Кб, 1652x781
233 1889994
Не разбираюсь в мл, прошу отнестись с пониманием.
Есть желание сделать бота-советчика для трейдинга криптой с использованием ТА. Отторговав вручную с большим процентом успешных сделок и проебав всё на фьючерзах, возникло сильное ощущение, что мл может помочь в этом деле.
Разумеется, он никогда не предскажет очередной дамп медведей или памп быков, но если он хотя бы в 60% случаев УГАДАЕТ куда пойдет цена, то это уже будет прекрасно. Предположим, что наиболее предсказуемый таймфрейм - 1 или 5-15 минут.

Что есть: данные о ценах open/high/low/close/volume, за всё время, поминутно. Из одной только цены вряд ли выйдет что-то стоящее, поэтому из этих данных можно получить значения для самых разных индикаторов вроде RSI, MACD и прочих, и тоже скормить сети.

Итак у меня 2 предположения как это может сработать:
- датасет цен с размеченными точками входа и выхода, на основе этого оно будет предполагать насколько безопасно покупать или продавать сейчас (возможно тут же как-то стоит определить аномальные ситуации, когда киты вливают большие суммы и непредсказуемо шатают рынок)
- датасет с ценами + индикаторами (опытным путем подобрать какие даст лучший результат, не создавая шум)

Направьте в 3 направления:
1) Как написать банальный предсказатель цифр? Как я понял не понял нужен - sequential lstm.
1.1) Как сделать предсказатель на основе нескольких параметров? Не только на основе цены, но и на основе оборота за текущую минуту (мне кажется, уже только это существенно прибавит точности предсказаниям) и различных индикаторов технического анализа.
2) Как написать reinforcement learning модель для разметки огромного датасета? Как я представляю это: есть прога где рисуется график, я тыкаю вот тут купить, вот тут продать, и спустя n тыков оно будет само достаточно точно подбирать зоны покупки и продажи. И как потом уже на основе этого датасета построить нейросеть?
Подозреваю, что эту задачу можно решить сугубо математическим путём, если знаете как подскажите, формулы из инета не справляются с таким огромным количеством данных, считало бы вечность. Да и просто интересно вникнуть как делать rl-проги.
3) А может reinforcement сразу в дело пустить? Есть датасет цен из прошлого, новые можно грузить риалтайм и пускай на этих данных и учится. На этот метод сильно не рассчитываю, но тоже хотелось бы узнать как такое реализовать.

Не ебите за тупость. Прогать немного умею, в мл не умею, синтаксис питона иногда ставит в ступор, например, с его объявлением странных листов в подобной форме - [:, :-1], хуй поймешь что это значит.
image.png136 Кб, 1652x781
233 1889994
Не разбираюсь в мл, прошу отнестись с пониманием.
Есть желание сделать бота-советчика для трейдинга криптой с использованием ТА. Отторговав вручную с большим процентом успешных сделок и проебав всё на фьючерзах, возникло сильное ощущение, что мл может помочь в этом деле.
Разумеется, он никогда не предскажет очередной дамп медведей или памп быков, но если он хотя бы в 60% случаев УГАДАЕТ куда пойдет цена, то это уже будет прекрасно. Предположим, что наиболее предсказуемый таймфрейм - 1 или 5-15 минут.

Что есть: данные о ценах open/high/low/close/volume, за всё время, поминутно. Из одной только цены вряд ли выйдет что-то стоящее, поэтому из этих данных можно получить значения для самых разных индикаторов вроде RSI, MACD и прочих, и тоже скормить сети.

Итак у меня 2 предположения как это может сработать:
- датасет цен с размеченными точками входа и выхода, на основе этого оно будет предполагать насколько безопасно покупать или продавать сейчас (возможно тут же как-то стоит определить аномальные ситуации, когда киты вливают большие суммы и непредсказуемо шатают рынок)
- датасет с ценами + индикаторами (опытным путем подобрать какие даст лучший результат, не создавая шум)

Направьте в 3 направления:
1) Как написать банальный предсказатель цифр? Как я понял не понял нужен - sequential lstm.
1.1) Как сделать предсказатель на основе нескольких параметров? Не только на основе цены, но и на основе оборота за текущую минуту (мне кажется, уже только это существенно прибавит точности предсказаниям) и различных индикаторов технического анализа.
2) Как написать reinforcement learning модель для разметки огромного датасета? Как я представляю это: есть прога где рисуется график, я тыкаю вот тут купить, вот тут продать, и спустя n тыков оно будет само достаточно точно подбирать зоны покупки и продажи. И как потом уже на основе этого датасета построить нейросеть?
Подозреваю, что эту задачу можно решить сугубо математическим путём, если знаете как подскажите, формулы из инета не справляются с таким огромным количеством данных, считало бы вечность. Да и просто интересно вникнуть как делать rl-проги.
3) А может reinforcement сразу в дело пустить? Есть датасет цен из прошлого, новые можно грузить риалтайм и пускай на этих данных и учится. На этот метод сильно не рассчитываю, но тоже хотелось бы узнать как такое реализовать.

Не ебите за тупость. Прогать немного умею, в мл не умею, синтаксис питона иногда ставит в ступор, например, с его объявлением странных листов в подобной форме - [:, :-1], хуй поймешь что это значит.
234 1890015
>>889994

>Есть желание сделать бота-советчика для трейдинга криптой


Ботов обкатывают на рынках уже 50лет как минимум, с нейроговном ты соснешь, поскольку после тряски ящика ты не поймешь почему он тебе так хорошо/плохо насоветовал.
235 1890017
>>889980
Что там такого? То же самое, что голову сменить, только с обратной стороны.
Смысла нет, конечно. Разве что, может, научиться переводить картинки из другого цветового пространства, или что-то такое.
236 1890021
>>889994
Почитай и разберись нормально с индексацией и слайсами листов в питоне. Там нет ничего сложного, ты просто не пытался разобраться. Нотация сама по себе довольно понятная [откуда:до куда:с каким шагом], но отрицательные значения могут действительно казаться странными в первое время. [::-1] вроде обычно юзают, чтобы сделать реверс копию листа. Разберись. Это просто полезно знать, мало ли когда тебе нужно будет какой скрипт на питоне бахнуть. И, если мне память не изменяет, то пандас использует похожий синтаксис со срезами при работе с датафреймами.
237 1890022
>>890015
Как раз таки если мл разметит за меня точки закупа-продажи, то я могу записать их и увидеть в каких обычно точках стоит закупать. Имею в виду в точках с каким rsi, с каким объемом, при пересечении каких линий обычно сделка выходит удачной.
238 1890026
>>890017

>научиться переводить картинки из другого цветового пространства


Не научится, только более глубокие фичи по менее глубоким можно файнтюнить, в другую сторону хуйня выходит.
239 1890304
Есть датасет с изображениями, которые имеют 1)артефакты сжатия после конверсии из jpg или дефекты и 2) чистые png без артефактов.
А есть ли уже готовый сортировщик изображений, который можно обучить на своём датасете из двух (ну или скольки-то там) классов и чтобы подаваемые изображения сам сортировал о папкам? Я вижу, что это детская задачка для ML, что есть TF имплементация без сортировки https://www.tensorflow.org/tutorials/images/classification?hl=ru. Больше на гитхабе решения не вижу, есть только простые классификаторы без практической пользы типа сортировки по папкам. Запускаешь тренинг, запускаешь тестовый сет, получаешь вероятность.
Мне самому изобрести велосипед-сортировку проще чем искать решение готовое?
извините за тупой вопрос, я всё еще не прогер, но я запилю эту сортировку, если нужно. Просто еще не работал сильно с листами юпитера. Тогда еще тупой вопрос- как листы юпитера работаеют с импортируемыми зависимостями? Юпитер ноут может выбирать из установлленных у меня сред нужную (т.е. мне нужно таки ставить в конде сначал все зависимости?) Или он работает как-то по особому и ему не нужна среда вообще и ничего в конде ставить не нужно и он сам все зависимости собирает и устанавливает где-то у себя в памяти динамически при запуске листа? По моему малому опыту вроде вариант второй, но вот вчера заметил, что в юпитере можно выбирать среду из тех что есть в конде. И меня мучает впорос, а зачем юпитер нужен вообще? Это просто удобное представление с поэтапным запуском кода с переносом переменных из этапа в этап? Или там всё же удобство на уровне вирутальной среды разработки, типа написал все зависимости в листе и уже только его можно распространять, не нужно ставить среду в конде вообще? Я просто не помню, чтобы в листах юпитера что-то мне приходилось устанавливать при запуске. Или я просто сталкивался только с примерами где зависимостей не так много было или у меня уже всё было установленно в основной среде?
240 1890368
Стоит заменять юпитер на что то другое? Он несколько неудобен местами.
241 1890566
>>890368
На колаб иногда стоит
242 1890636
>>890368
Нет продолжай пользоваться неудобным для себя софтом.
243 1890694
>>888516

> огромное количество бессвязного, часто бессмысленного, текста, перепрыгивание между совершенно разными темами в соседних абзацах и предложениях, посещение всех "больных мест" для типикал шизов, обилие каких-то одному автору понятных формул, позволяет твердо поместить поциента в палату душевнобольных. Очевидная сверхценная идея, при отсутствии какой-либо конкретики


Я когда пыхну плюху таким же становлюсь. Когда отпускает со снисхождением смотрю на свои высеры, которые недавно казались истиной.
244 1890931
>>890694

>пыхну плюху


Наркоман?
245 1890933
>>890694
У меня тоже был такой период. Я пытался создать явный алгоритм обобщения из данных, и был уверен, что я знаю, как это сделать. При этом ни одна моя попытка не работала, но это меня нисколько не смущало. С годами я понял, что эта уверенность проистекает из простейшей мысли "я самый умный", а раз я самый умный то если кто-то и может создать ИИ, то это я. И никаких настоящих идей поверх этого не было, просто мозг брал любую рандомную мысль и превращал ее в ТО САМОЕ, ВОТ ОНО. Потому что должна же быть идея, раз я самый умный, верно?
Вот так я и излечился. Сейчас копаю нейроночки спокойно уже, пытаюсь что-то сделать, понимая низкую вероятность успеха.
Успех нейроночек я не предсказал: до ДЛ революции они мне казались какой-то глупостью. Настолько я мало понимал тогда на самом деле. Зато самомнение было ого-го.
246 1890948
>>890368

>Стоит заменять юпитер на что то другое?


Меняй на пайчарм.
247 1890961
Ребятушки, какой фреймворк за основу взять? Tensorflow(Включая Keras), pytorch?
248 1890967
>>890304

> артефакты сжатия после конверсии из jpg или дефекты


Чувак, бери высококачественные png и сжимай их в jpeg с качеством 7 и ниже. У тебя будет одна и та же картинка с артефактами и без. Сохранение это крайне дешёвая операция. Ты картинки дольше искать качать с данбуру будешь
249 1890968
>>890961

> Tensorflow


да
250 1890976
Поясните про АльфаZero. Хайп или многообещающая штука?
251 1890977
>>890976
ему уже 5 лет, какой хайп?
252 1890980
>>890977

>5 лет


Какой ужас. А ощущение, как будто только на прошлой неделе смотрел матч против корейца.
253 1890988
>>890980

>матч против корейца


Бейсбол?
254 1891002
>>890980
Не моргай. Один так моргнул - и вся жизнь прошла.
255 1891023
>>889980

>но к счастью для тебя в этом нет никакого смысла


Смысл-то есть, получить из GAN'a Conditional Gan, вот только дискриминатор готовый, и к нему надо как-то прикрутить передачу меток.
>>890017

>То же самое, что голову сменить, только с обратной стороны.


Нужен пример.
Спасибо.
256 1891116
>>890017

>То же самое, что голову сменить, только с обратной стороны


Ну это и есть ёбля хотя хер знает что там сейчас молодёжь использует.
257 1891117
>>891023

>из GAN'a Conditional Gan, вот только дискриминатор готовый


Cудя по всему хуйня выйдет но ты попробуй конечно.
258 1891297
>>891117
Это всё равно не отвечает на вопрос, как модифицировать входящие слои предобученной модели.
259 1891887
Существует ли методика обучения, когда обучающий массив формируется из более-менее натурально выглядящих рендеров 3д модели объекта, а уже работа сети происходит на реальных фотографиях? Ведь гораздо производительнее будет смоделировать или взять готовые 3д модели например автомобилей, сделать скрипт который будет делать рендеры с разных ракурсов и с разными освещениями, разными бликами и разными цветами автомобилей, менять их форму. А потом автоматом все скормить сетке. Ведь по сути на картинках мы видим проекцию 3д объектов реального мира.
260 1891901
>>891887
С синтетическими данными много проблем
https://www.youtube.com/watch?v=X5i3owysLi0
261 1892200
Допустим я решаю задачу классификации. Испробовал несколько разных методов, выбрал лучший. Пусть он показывает 95% точности на тесте. А как мне быть уверенным, что это потолок, и лучше точность я получить не смогу?
262 1892217
>>892200

> А как мне быть уверенным, что это потолок, и лучше точность я получить не смогу?


Не можешь быть уверенным. Проблема "P=NP?".
263 1892285
>>892200
Читать биттерлессон. Не бывает потолка, бывает мало данных.
264 1892305
>>892285
Даааа? Даже для орлянки? Ты совсем что-ли отлетел со своим битерлессоном, дипшкольник?
265 1892332
>>892305

> 2021


> спорить с горьким петухом

266 1892691
>>891297>>891117
Так, анон, выручай.
Есть имплементация реснета:
https://niko-gamulin.medium.com/resnet-implementation-with-pytorch-from-scratch-23cf3047cb93
И есть имплементация кондишнл гана:
https://medium.com/analytics-vidhya/step-by-step-implementation-of-conditional-generative-adversarial-networks-54e4b47497d6
Вот эти две строчки оттуда
input_dim = 784 + 10
self.label_embedding = nn.Embedding(10, 10)

В какое место гана надо добавить?
Инб4 себе в жопу
изображение.png276 Кб, 904x735
267 1892947
Привет анонче. Взял с работы отладку FPGA с поддержкой CNN и камерами.
Что интересного можно сделать на сверточных сетях? Типичное распознавание образов, мне кажется, все давно уже видели.
268 1892951
>>892947
Сделай демо анонимизации человека, как в черном зеркале. Распознавание лица + сегментация, и если оно узнало тебя в кадре, то ты весь заливаешься шумом.
269 1892954
>>892951
Мне почему-то кажется, что оно не вывезет и я тоже вряд ли вывезу, но посмотреть можно
271 1893251
>>893236
Круто.
272 1893835
>>893236

>2021г нейронки шевелят волосню


Ору
274 1894426
Аноны, такой вопрос.
Имею профильную вышку (прикладная математика и информатика), работаю в науке - занимаюсь статистическим анализом данных (всякие стандартные тесты и методы, плюс к тому, немного кластерного анализа и методы выявления нелинейных зависимостей) и обработкой электроэнцефалографических данных (обработка сигналов и теория графов), использую R и Matlab. Хочу вкатиться в машоб и сменить работу. Разумно ли будет для подготовки проходить какой-нибудь серьезный курс по ML и решать параллельно задачи с kaggle? Ценится ли вообще у работодателей научный бэкграунд (навыки постановки гипотез и подбор инструментов для их проверки)? Что посоветуешь, анон?
275 1894460
>>894426

>Разумно ли будет для подготовки проходить какой-нибудь серьезный курс по ML и решать параллельно задачи с kaggle?


да

>Ценится ли вообще у работодателей научный бэкграунд (навыки постановки гипотез и подбор инструментов для их проверки)?


да
276 1894472
>>894426

>прикладная математика


Ебать, братиш, как ты дожил до такого?
277 1894511
>>894472
Пошёл на мехмат и не вернулся
Slowpoke.png19 Кб, 200x218
278 1894553
>>892691
Ну же, анончик, помоги.

Вот модификация реснета18 в качестве дискриминатора.
https://ideone.com/SwhKUj
согласно
https://medium.com/analytics-vidhya/step-by-step-implementation-of-conditional-generative-adversarial-networks-54e4b47497d6
Вопрос:
- надо ли запихивать в него input_dim = 784 (размер входящих картинок, но по сути там должно быть 224^2) + 42 (количество классов)?
- если надо, то куда именно вставлять, чтобы передать значения классов, если в self.conv1 по сути указаны все параметры?
279 1894594
CV-господа, поясните, что сейчас является сотой в OCR? Есть ли что-то более умное, чем модель для детекции + crnn? И если нет, то есть что-нибудь для детекции лучше, чем юнет?
Screenshot from 2020-12-29 20-24-44.png155 Кб, 720x494
280 1894823
Сап. Делаю нейронку для поиска паттерна в одномерных бинарных данных. Хочу как на скрине сделать разбив бинарник произвольной длины на кучу пересекающихся ползущих окон каждое из которых проверить недольшой нейронкой натренированой искать конкретный паттерн и в поллинг слое сделать шириной окна весь конволющен слой. Но я что-то не понимаю как ораганизовать разбиение одного большого файла на много маленьких векторов и как потом тренировать сеть если я даже не знаю в каком окне нужный патерн попался. Где про такое почитать?
281 1894847
>>894553
model = Resnet18()
train = Variable(images.view(100,3,28,28))
labels = Variable(labels)

или

input_dim = 28*28
output_dim = 10
model = Resnet18(input_dim, output_dim) # не знаю если там нужно укаывать еще hidden dim, погугли
282 1894874
>>894823
Матрица Ганкеля.
283 1894909
Нужен быстрый алгоритм для сравнения двух 8битных матриц(Opencv) на схожесть, возвращающий коэффициент. Можете что-нибудь подсказать?
284 1894911
>>894874
Но лучше матрас Шпункеля
285 1894929
>>894909
Использовать что ли xor, инвертировать и поделить сумму на количество пикселей.
286 1894965
>>891887
Из того, что вспомнил. Правда тут в основном обучение с подкреплением. Для supervised в целом звучит сомнительно.
https://arxiv.org/abs/1611.04201
https://arxiv.org/abs/1707.02267
https://arxiv.org/abs/1703.06907
https://arxiv.org/abs/2006.09001
287 1894968
>>894965
Ну и сюда же кубик рубика от openai.
288 1894984
>>894909
Распараллелить?
289 1895021
>>894909
Битерлессон кто-то не прочитал ещё итт? Нет смысла изобретать какие-то свои алгоритмы под задачу, набери данных, возьми достаточно глубокую архитектуру и вперёд.
290 1895033
>>895021
а если данных мало, а добор или невозможен или чрезвычайно дорогой, что там тогда в твоей библии написано?
291 1895049
>>894472
Да вроде в местечковые мехматы не сложно поступать
292 1895051
>>895033
Увольняйся, твое начальство страдает хуйней
293 1895066
>>894426
да, братиш, самое основное - это научный бэкграунд. Чем конкретно занимаешься, лингвистикой? Степень есть?

могу посоветовать - applied ML course на курсере от University of Michigan как старт для того чтобы понять основные модельки (линейные, kNN, основанные на деревьях, и чуть-чуть сеток)
Там типа лайт-теории про основные модели на сайкитлерн (параллельно разберешь матплотлиб и сиборн; панда, нампай, реджекс, сайпи сами придут).

Потом сразу вкатывайся на Kaggle и разбирай типовые задачи и сам решай. Сабмить, сабмить, и еще раз сабмить свои ноутбуки, Можешь еще вышевский курс глянуть (тоже курсера), как выиграть на кегле. Там есть дельные советы.

Потом тензорфлоу, керас и пайторч (ну и всякие диплернинг модели подучить - тут Эндрэ Инговский deeplearning.ai в помощь)

Клаудкомпутинг будет нужен на этой стадии - google cloud computer engine, aws

ВI визуализация - Tableau и Microsoft Power Bi для презентации

AutoML - h2o и google cloud automl тоже тема
294 1895086
>>894472
Ты так говоришь, будто это что-то плохое.
295 1895153
>>895033
Ничего там про такое не написано, горькие сойбои не знают про bootstrap.
296 1895219
>>895033
Претренинг.
297 1895469
>>895219
Пенетрейшен
298 1895563
>>895066

>самое основное - это научный бэкграунд


Самая бессмысленная в ближайшем будущем регалия
http://www.incompleteideas.net/IncIdeas/BitterLesson.html
299 1895600
>>895563
Горький петух, ты сам-то эту хуйню читал? Там разве написано, что новые алгоритмы сами за баней растут или что нынешние нейроночки - лучшее и самое эффективное, что может быть сделано человечеством? Или может быть, там написано, что закон Мура это закон природы, а не следствие непрерывного прогресса? Ты же реально еблан, каких мало.
300 1895624
>>895600

> что закон Мура это закон природы, а не следствие непрерывного прогресса?


Это, кстати, и так очевидно всем было. Прогресс (и закон Мура) это естественное следствие энтропии. Зная, как ведет себя энтропия, мы можем приблизительно сказать, что ждет человечество в будущем.
301 1895701
>>895624

>мы можем приблизительно сказать, что ждет человечество в будущем.


Не сможешь, 50 лет назад думали что освоят космос и будут умные роботы, а оказалось дибиляторы с челочкой и ТикТок.
302 1895721
>>895066
Спасибо, анон.
Степени нет, работаю в психологии. Писал диссер по методам кластерного анализа, но аспирантуру дропнул.
303 1895778
>>895600

>Там разве написано, что новые алгоритмы сами за баней растут


Основной алгоритм - градиентный спуск - уже придуман. Ты кажется не понял о чём битерлессон, он о том что эра ПРИДУМЫВАНИЯ закончилась.
304 1895986
>>895701

> 50 лет назад думали что освоят космос и будут умные роботы, а оказалось дибиляторы с челочкой и ТикТок.


Да. А 100 лет назад так же думали, что построют калмунизм, и будет всем счастье. И что ничего лучше и прогрессивнее писулек карламарлы и ленинда человечество уже никогда не придумает. То же самое сейчас кукарекают всякие горькие сойбои >>895778 что мол, лучше градиентного спуска ничего в принципе быть не может. Но все это пример сектантов, которым ничего объяснить невозможно.
305 1896039
>>895701

> Не сможешь


Под "примерно" подразумевался общий верктор развития. К примеру, гарантированно известно, что рождаемость по всей планете снизится до минимума. А известно, потому что график роста популяции любого вида - сигмоида.
По сигмоиде, кстати, развивается не только жизнь, но и технологии.
То есть когда-нибудь настанет тот момент, когда в прогрессе не будет никакого смысла, ибо уже всё есть, и все потребности удвлетворены.
306 1896076
Аноны, может есть ахуенный сайт, где можно скачать картинки нужных utf-8 символов раздельно?
Хочу сам выбирать символы для обучения, упакованные байты не особо катят.
307 1896077
>>896076
Либо онлайн упаковать, да.
308 1896122
>>896076
В чем будет красота от распознавания случайных символов
Скачивай хоть какой-то алфавит малоизвестный
309 1896214
>>895986

>что построют калмунизм, и будет всем счастье


Все великие достижения России были при СССР и плановой эеономики, при копетоглизме страна преворащается в говно, в прочем как и любая копетоглистическая страна.
>>896039

>когда в прогрессе не будет никакого смысла, ибо уже всё есть, и все потребности удвлетворены.


Так либирашки и копетоблядки и сейчас не видят в прогрессе смысла, им бы соевой колбаски да ипхон в жопу.
>>896039

>снизится до минимума


Да, золотой миллиард называется.
310 1896300
>>896214

>золотой миллиард называется


хуета полная, население растёт по экспоненте
капиталюгам надо чтобы рабы конкурировали между собой за тарелку гм риса и помидоры четвёртого сорта
311 1896303
Прогресс, закон Мура, коммунизм, капитализм..какие-то философствования васянов под водочку
Всё лишь бы битерлесон не читать
312 1896336
>>896303
>>896300
Работающее ИИ как в фантастических рассказах не выгодно в первыую очередь капиталлистам, так что никакого прорыва в ближайшее время не ожидается.
313 1896342
Как учить сетку передавать линии, а не искать максимальное совпадение пикселей?
Данных для обучения то нет.
314 1896399
>>896342
без задней мысли берешь и используешь векторную графику
вычисляешь сто тысяч кривых
315 1896419
>>896399
Я что-то про нее совсем забыл, спасибо.
316 1896498
https://pastebin.com/KLJ2kQGW

Накопипастил с инета лстм модель. Почему она не предсказывает будущее, а просто выдаёт то, что уже есть (-1 день), но с искажением. Что делаю не так? Как заставить её давать предсказание на 1 день вперёд и потом циклично вперёд?
317 1896500
>>896498
Бей ее плетьми.
318 1896503
>>896500
По попе?
319 1896562
>>895986

>А 100 лет назад так же думали, что построют калмунизм, и будет всем счастье. И что ничего лучше и прогрессивнее писулек карламарлы и ленинда человечество уже никогда не придумает.



Карламарла - это и есть попытка ПРИДУМАТЬ новый super yoba ultimate edition алгоритм, который сделает всё порешает и сделает заебись. Но оказалось, что капитализм работает лучше, а если добавить вычислительных мощностей - то вообще заебумба.
320 1896564
>>896214
define прогресс
так-то злые копетоглисты не только заливали коммунистам говна в штаны, но и слетали на Луну, в отличие от
321 1896665
>>896342
Зачем тут сетка?
322 1896669
>>896665
Для быстрой работы, очевидно.
16063307013160edited.webm117 Кб, webm,
572x322, 0:02
323 1896680
>>896665
Я, кстати, ее еще не начал делать, тестирую на алгоритме.
324 1896721
>>896500
Ну, серьезно. Не могу понять принцип работы. Я думал, в конце будет выдавать 1 цифру, а оно выдает кучу старых искаженных.
325 1896745
Что если сравнивать хэши вместо прямого сравнения данных? Например, хэш идентичен на 50%, данные идентичны на 50+-20%. Вместо сравнения данных, мы переводим байты в хэш и все.
Только чтобы 100000000 и 0111111111 было одним и тем же, но мы не ебались с представлением этих данных и их сравнением.
Такое вообще реально? Какой хэш можно использовать?
326 1896756
>>895701

> и будут умные роботы


Какие же фантасты/футуристы дауны, пиздец. Уже есть разумные саморемонтирующиеся биороботы - нет, надо дрочить на железки с алгоритмом черепашки
327 1896765
>>896745
Эмбеддинги с хэшами делают же. Вряд ли получается кардинально лучше, иначе уже из всех утюгов бы пиарили.
328 1896770
>>896498

>Почему она не предсказывает будущее, а просто выдаёт то, что уже есть (-1 день), но с искажением.


Потому что, внезапно, цена прошлого дня это довольно хороший бейзлайн который сетка сразу выучивает и на нём и останавливается.
К теме битерлессона кстати, чёрные ящики хватают low hanging fruits, поэтому там где человек может что-то проанализировать и улучшить (например, для финансовых временных рядов) сетки сосут, и в лучшем случае используются как вспомогательный алгоритм.
329 1896778
>>896770
Да какой еще беслан. Чего оно на основе 200 цифр выдает 199? Как сделать, чтобы выдавало одну цифру - двухсот первую?
330 1896789
>>896300

> хуета полная, население растёт по экспоненте


Как раз нет, биолог хуев.
331 1896816
>>896564

>но и слетали на Луну


Ага, не покидая Голливуд
332 1896832
>>896778
Забесплатно (взял лстмчик или трансформер и хуяк хуяк ничего делать не надо) никак.
333 1896856
>>896816
Сделайте так же на Мосфильме я?!
334 1896869
>>896832
А какой тогда смысл в результатах того лстм? Он просто показывает насколько сильно текущие цифры отличаются от старых?
Лстм может продолжать ряд цифр?
335 1896875
>>896869
Ну если хочешь продолжать с сетками то >>896500
Но точного рецепта не существует, пробуй разное: подкручивай параметры, регуляризацию, лосс итп может случайно что и выйдет
336 1896897
>>896875
Ты троллишь? Меня не точность волнует, оно мне выдаёт ДОХУЯ цифр вместо одной. Я не разбираюсь в мл и не могу понять почему так.
337 1896924
>>896897
А, ну так лстм устроен, сетка состоит из последовательно соединённых клеток каждая из которых имеет свой выход. Если тебе нужна цена в последний момент бери последний выход только.
338 1896982
>>896336

> Работающее ИИ как в фантастических рассказах не выгодно в первыую очередь капиталлистам,


1. Автоматизируешь производство от и до
2. Себестоимость товара падает до нуля
3. ??????????
4. PROFIT!!!!!!!!!!
339 1896986
>>896336

> Работающее ИИ как в фантастических рассказах не выгодно в первыую очередь капиталлистам


Ебанат?
340 1897093
Почему биттер лессон всё ещё не порешал задачу машинного перевода? И как планируется его решать для low-resource языков? До сих пор нормально не можем переводить с английского на немецкий, а для них тонны параллельных текстов есть, да и языки родственные. А как будем переводить с кечуа на ирландский?
Почему биттер лессон не решил superresolution? Данных для обучения в интернете - петабайты, если не больше. Неужели просто stack more layers не работает?
341 1897143
>>897093

>всё ещё не порешал задачу машинного перевода?


ГПТ-3, не ждём а готовимся.

>И как планируется его решать для low-resource языков?


Нахуй нинужны, сейчас бы всерьез задрачивать нахрюк полутора землекопов.
342 1897162
>>896342
Хорошая задача, кстати. Так четко показывает именно человеческий тип восприятия.
Могу посоветовать только ГАН лосс, нужно набрать вручную сделанных ASCII артов и дискриминировать между ними и сгенерированными.
343 1897196
>>897143

>Нахуй нинужны


Ну раз ты скозал, то ладно...
344 1897208
>>897093
БЛ ничего не решает. Он говорит, что нет смысла городить какую-то мего архитектуру для перевода, мучиться собирая правильные чистые данные. ГПТ-Х просто будет переводить с любого языка на любой, включая некорректные, неполные предложения, игру слов, обрывки текста, разговорную речь и все что хочешь. И никогда ты вручную лучше не сделаешь.
Для общего суперрезолюшна (который вообще-то уже вполне решен для конретных приложений) нужна будет такая же сеть как ГПТ, но для визуальных данных. Над чем сейчас работают множество людей, между прочим - визуальные трансформеры это самая горячая тема конца 2020. И они, по-видимому, скоро съедят сверточные сети.
345 1897213
>>897196
Ну давай расскажи, зачем они нужны. Чтобы престарелый шизик высрал очередную статью об особенностях флексативов в умляутах абырвалгского нахрюка?
346 1897227
>>897213
Чтобы переводить с одного языка на другой.
347 1897228
>>897162

>Так четко показывает именно человеческий тип восприятия.


>Могу посоветовать только


Охуенно, горький петух.
348 1897231
>>897227
Перевод с английского на другой будет, что не так?
349 1897291
350 1897314
>>897231
Мало текста слишком на этих языках, чтобы всякие берты-гпт обучать.
351 1897330
>>897314
Джвачую, языки не нужны, все обмазываемся англоговном.
Лангуаге инглиш из тхе бест лангуага ин тхе ворлд!
352 1897332
>>897291
Как правильно горькие адепты не знают, но кукарекать что что-то работает идеологически неправильно это не мешает.
sage 353 1897386
С новым годом всех.
Желаю всем автомля, открытых библиотек с поиском объектов и нормальных ботов для раздевания нарисованных и реальных тянок
354 1897390
В новом году от души желаю всем понять и принять биттерлессон, пройдя стадии отрицания и депрессии как можно быстрее.
355 1897395
>>881607 (OP)
Всем чмоки
sage 356 1897418
>>897390
горький петух, уходи
357 1897439
В новом году желаю построить искусственный интеллект, чтобы вычислить все протеины и оцифровать всех.
358 1897483
>>897330
Но ведь ты неиронично прав
359 1897484
>>897418
Вапникодрочер, ты всё продолжаешь куколдить вычислительной машине?
145890878313521039.jpg49 Кб, 351x592
360 1897503
>>897439
вычисли меня, вычисли меня, птица счастья завтрашнего дня!
77958433p1.jpg1,5 Мб, 1584x2112
361 1897533
Сейчас наступает 2021 год, я решил начать свой вкат в питон (преимущественно в нейросети, может ещё потом веб) начиная с первого дня нового года упорно заниматся изучением темы.

Подумалось мне, было бы неплохо осуществлять с кем-то совместно вкат, можно вопросы друг-другу задавать, объяснять темы, пилить совместные проекты.

Всё что имею при себе - базовые знания питона и программирования (переменные, циклы, ветвления, списки, словари, исключения вот это всё).

Если кому интересно пишите на фейкомыло
johntitorLFP47ANUSya6KEndexPUNCTUMr2M@u
362 1897576
>>897533
Вкатуны друг другу никак не помогут. Тебе нужен ментор, который уже много знает и поможет сориентироваться. Поступай в вуз и ищи там хорошего научрука.
363 1897619
>>897533

>Всё что имею при себе - базовые знания питона и программирования (переменные, циклы, ветвления, списки, словари, исключения вот это всё


Начни этот год с изучения матана. Вот эту >>888821 книжку скачай и посмотри на материал.
9b82ebbfbc141e8d0c4be29770f94765.png647 Кб, 2014x1214
364 1897712
ИИ итоги уходящего 2020-го года в мире машинного обучения
https://habr.com/ru/post/535832/
365 1897717
>>897503
каким ебанатом надо быть, чтобы не знать что буквы на цветастом фоне надо обрамлять окантовкой для читабельности?
366 1897722
>>897712

>habr.com


Сюда ли ты зашел, петушок?
15664205356560.jpg237 Кб, 1000x1000
367 1897991
>>897619
Собираюсь изучать,
Линейную алгебру (уже немного знаю),
Теорию вероятностей
и Мат. Анализ (с этим больше всего проблем, но тема интересная)
368 1898008
Есть картинки, а к ним метки.
Стоит ли их соединять и сохранять в один файл? Или разносить по разным файлам?
369 1898014
Хочу сделать игру по типу Zork, естественно с машинным обучением.
Мне нужно что-то очень быстрое и эффективное. Задача не простая - нужно целый виртуальный мир симулировать.
Есть идеи?
370 1898021
>>897143

> ГПТ-3, не ждём а готовимся.


Не запустится на моем железе и даже гуглу придетмя нормально так вложиться, чтобы эту бандурину запустить. Не нужно.
371 1898040
>>897533
Найди себе наставника.
Обучение с учитаелем > обучение без учителя.
372 1898231
>>898040
Так кто-ж согласиться учить?
373 1898407
>>898231
Старый гей-математик может тебя няшить и обучать
374 1898435
>>898008
Бамп вопросу.
375 1898438
>>898407
это оффер?
376 1898486
>>898014
Dwarf fortress эмулирует целый виртуальный мир на сях без машоба.
377 1898487
>>898486
*симулирует
378 1898498
>>896342
https://people.csail.mit.edu/tzumao/diffvg/diffvg.pdf
Недавно видел такую хуйню, можешь конвертить в svg а потом в ascii.
379 1898511
>>898021
Гугл вложится, а ты в сделку не входил
380 1898575
>>898486

> Dwarf fortress


Вот только в Dwarf Fortress не приходилось обрабатывать команды по типу "взять попугая, засунуть его в рот, а пережевать, а потом выплюнуть"
381 1898810
>>898435
>>898008
Ну что вы, датасатанисты?
382 1898873
>>898810
что у ЛеКуна (MNIST dataset),что на ImageNet они разделены

в моем проекте я также разделил - аннотации в одном .csv, а картинки отдельно, но по имени картинки я всегда могу найти аннотацию
383 1899004
>>898810
Всегда разделяй и властвуй.
image.png140 Кб, 1121x927
384 1899057
Бляха, страх упустить возможность на максимуме. Помогите дать прогноз точки падения на основе прошлых цен и объемов. Есть вероятность удачно зайти в шорт и хорошо заработать на падении.
385 1899070
>>899057

>Есть вероятность


А можешь и проебаться, лол
386 1899092
>>899070
Да блядь, как вы заебали, скептики. Естественно есть риск, чтобы его снизить я и хочу понять когда большая вероятность коррекции цены. Про трейдер это и сам из графика поймёт, для остальных есть - мл. Но у меня руки из жопы, неделю ебался, не смог разобраться с вашими лстм.
387 1899094
>>899092
Когда даже в треде про нейроночки обсуждают биткоины - скоро обвал, инфа 100%
388 1899111
>>899094
Обвал, разумеется, неизбежен. Вопроса только два: до какой цены дойдет на пике, и какая установится в новом эквилибриуме. Неправильно расчитав, ты проиграешь, если будешь пытаться шортить. Безопасная стратегия, как обычно, держать и докупать между туземунами.
389 1899142
>>899094
За меня уже ответили >>899111
Хотется получить приблизительную цифру, но не от балды, а на основе старых данных
390 1899149
>>899094
У меня куча знакомых пытается как-то играть на биржах того или иного вида. Биткоин-не биткоин, не важно. У всех при этом уверенность, что можно играть правильно, грамотно, и если действовать так, то чего-то будешь зарабатывать.

На деле это рандом, предугадать который нельзя, и даже были исследования про трейдеров, которые показывали, что выигрывают в среднем не больше, чем когда делают рандом ставки.

Кто-то может быть может предсказать хайп и на этой основе сделать выгодное приобретение, но это не по графикам делается.

На деле зарабатывают за счёт того, что биржа растёт. А растёт сильно потому, что приходят новые буратины, которые вкладывают свои деньги, желая заработать. Хотя активы, которые продаются, в основном сами прибыли почти не приносят и нужны только ради спекуляций.

Никакой математики за этим нет, чтобы нейросеть могла чего-то предсказать. Просто ловушка для тех, кто считает себя особо умным, типа я такой продвинутый, нейросеть натравлю и разбогатею.

При этом те или иные расчёты с помощью компов трейдеры делали ещё с прошлого века, но там роботы скорее помогают на коротких технических колебаниях по копеечке что-то приличное зарабатывать, и то сложно, поскольку все этим пользуются.

Нейросеть нельзя научить, не имея большой учебной выборки. А учебной выборки здесь нет и быть не может.
391 1899151
Посоветуйте вводный курс по МЛу, желательно на русском. Знаю немного основы программирования, Python, матан/линал/тервер. Специализация от Яндекса и МФТИ на курсере норм? Еще на степике есть какие-то. Хотелось бы совет от анона.
392 1899164
>>899149
Я лично торговал успешно, за месяц только пара дней в минус. Естественно не от балды, а по графикам. Рандом случается крайне редко и он значит только одно - крупный инвестор что-то чудит. И к счастью чаще инвесторы повышают цену неизвестных валют (и продают на пике), после чего она постепенно падает, не наоборот.

Да, нельзя высчитать на 100%, но можно на 70%. Против теханализа невозможно переть, оно работает по факту, отрицать это могут только максималисты, подразумевая, что оно не работает во ВСЕХ случаях.
393 1899184
>>899164
Логика такова, что в среднем выигрыш такой, насколько биржа в целом растёт.

Например если биржа выросла на 10%, ты торговал на миллион и заработал 100 тысяч, то ты просто заработал за счёт роста биржи.

Если больше, то тут только один вариант, ты должен был выиграть у кого-то, то есть кто-то должен быть проиграть тебе свои деньги, на неудачных ставка. Здесь классическая игра с нулевой суммой против других торговцев, ну с поправкой на рост биржи.

Причём играют ведь не только продавцы из пятёрочки, там очень даже квалифицированные трейдеры, которые все эти теории знают, очевидно.

Вот nasdaq хорошо рос, и в среднем там заработали. Причём как исследования показывают, что если ты будешь случайно делать ставки, то твой выигрыш будет примерно таким же, как и в "осмысленных" стратегиях.

Выигрывают за счёт роботов, которые на доли секунд раньше конкурентов хватают удачные лоты. И за счёт предугадывания хайпа, что делается не по графикам, а по анализу настроений. Или во время пертурбаций мощный вроде ковида, но это всё такие вещи, которые нестандартные и там нейронки не помогут.
394 1899206
>>899151
Курс от ods
395 1899209
блядь откуда эти брейнлеты понабежали, пошли нахуй отсюда назад в форекс тред или где вы там сидите
396 1899298
>>899184
Ты путаешь с бинарными опционами
Естественно кто-то теряет на бирже, не всем суждено оставаться в плюсе
Сказки про закуп и продажу от балды придуманы какими-то клоунами для клоунов. Это сразу же понятно через пару дней трейдов. Да просто взгляни на минутный график любой криптопары, увидешь, что у него всегда есть пики и падения, которые зачастую можно предсказать. Нет вообще принципа "хватают первей", ордеры ставятся заранее. Для масштабных прогнозов и учета внешних факторов используют нейронки для анализа статей, но это всё речь о каком-то идеальном боте.
Я просто говорил о банальном анализаторе, который будет ПОМОГАТЬ понять выгодная сейчас точка для закупа или нет. Это можно и самому понять, но нужен большой опыт и плотный анализ графика за прошлые дни. Часто после пары суток торговли на одной паре начинаешь чувствовать себя как рыба в воде, хорошо подбирая точки входа и выхода. Но люди неидеальны, особенно когда шалят эмоции.

Как при помощи lstm (или что лучше с этим справится?) продолжить ряд цифр? Упростил максимально, все равно не могу разобраться как продолжить этот график.
https://colab.research.google.com/drive/1OqBGmMcEGRgr7WU_30LT5vLfCTeprLHg?usp=sharing
image.png794 Кб, 1140x641
397 1899300
Суцкевер намекает на ГПТ-4 в этом году: https://blog.deeplearning.ai/blog/the-batch-new-year-wishes-from-fei-fei-li-harry-shum-ayanna-howard-ilya-sutskever-matthew-mattina
Из интересного: визуальные данные, встраивание людей в тренировочный цикл.
Вот куда пойдут безработные ученые: оценивать выхлоп ГПТ за деньги, делая его еще умнее.

Всем пацанам битерлессон, петухов на помоечку!
398 1899312
>>899300

>Из интересного: визуальные данные, встраивание людей в тренировочный цикл.


Очень интересно, а не забывать контекст спустя одно предложение научится наконец? Или для этого ещё триллион-другой баксов понадобится?
399 1899336
>>899298

pred = model.predict(np.concatenate((train_x, test_x), axis=0)) # old was just "train_x"
pred = scaler.inverse_transform(pred)
dataset = scaler.inverse_transform(dataset)
400 1899348
>>899312
Трансформеры ващет могут смотреть сразу на весь поданный котекст, в отличие от РНН, которые как раз забывают. В этом основная сила их. Генерировать складно люди будут доучивать вручную.
Триллионы баксов - кто их считает там? Они разрабатывают общий ИИ, это технология вне обычных экономических понятий вроде прибыли. Это перевернет все.
401 1899376
>>899348

>Трансформеры ващет могут смотреть сразу на весь поданный котекст


Только размер контекста крайне ограничен.
402 1899416
>>898873
>>899004
Мне не понятен порядок действий.
Есть тензоры картинок, и есть тензоры меток.
Тензоры картинок с целью экономии оперативки сохранены в файлы на диск, и уже оттуда подгружаются.
Вопрос - что делать с тензорами меток? Сохранять в отдельные файлы? Присоединять к тензорам картинок (через cat или list) и сохранять в один файл с тензорами картинок? Или грузить из памяти?
403 1899453
Питон или яваскрипт? Что лучше и почему?
404 1899462
>>899453
c++. Быстрее их месте взятых.
405 1899471
>>899462
Да это понятно, на них я уже учусь. Я для тестовых моделей, а потом только переносить буду.
406 1899501
>>899300

>эта лысеющая версия Джастина Тимберлейка

image.png547 Кб, 849x564
407 1899503
>>899300
дальше не читал
408 1899513
В Новосибирске вообще есть мл работа?
409 1899523
>>899513
В 2019 помогал знакомой аутсорсить для НИИ чего-то там.
411 1899569
>>899312
гпт-3 не забывает контекст, у тебя методичка старая.
>>899376
Для этого есть квазилинейные реформеры и линейные лонгформеры/перформеры.
412 1899597
>>899569

>гпт-3 не забывает контекст, у тебя методичка старая.


Проиграл с маняотрицания
image.png13 Кб, 502x241
413 1899608
>>899336
И как это что-то меняет? Рисует ещё одну неясную линию поверх имеющейся.
Ещё сильней упростил, выводит полную дичь. Не могу сообразить как понять.
414 1899665
>>899597

>пук


Окей, ну хоть зумеров не упомянул.
415 1899667
>>899608
что конкретно непонятно?

изначально ты делал предсказания только для train, что соответствует первым 66% твоих данных, поэтому твой график обрубался. если ты делаешь предсказания на соединенных np.concatenate((train_x, test_x) train и test, то твой график продолжится дальше, потому что ты делаешь предсказания для 100% данных

по той причине, что у тебя мало данных, твоя моделька плохо обучилась, и выдает @неясную линию поверх имеющейся@

Картинка - работа твой модельки на курсе валют - prediction vs dataset и ошибка. Плюс я разделил изначальный сет на три - train, val, test:

train, test = split(dataset, 0.8)
train, val = split(train, 0.6)

Train и Val я использовал для тренировки модели:

train_x, train_y, validation_data=(val_x, val_y)

Результат, как ты видишь выглядит ничем не лучше какого-нибудь movingaverage.

есть вопросы, напиши свою фейкпочту
416 1899737
>>899667
касательно графика ошибки:

1. на основе предыдущих 10 дней (window = 10) модель выдала предсказание на след. день - какое-то число

2. Oшибка - разница между выданным числом и реальным значением

3. график показывает ошибку если мы фидим в модель train , то есть данные совершенно новые для модели (валидация была сделана на другом сете)
417 1899744
>>899665

> ряяя


Горький петух = нечёткий петух
418 1899810
>>899501
Когда он станет богом и насильно тебя оцифрует, ты проведешь вечность извиняясь за свои слова, варясь при этом в котле и созерцая его лысину, которая будет вместо неба.
15960264102200.jpg67 Кб, 592x532
419 1900008
>>899569

>гпт-3 не забывает контекст, у тебя методичка старая.


>Context window size was increased from 1024 for GPT-2 to 2048 tokens for GPT-3.

420 1900041
>>899608
Проиграл с твоего говнокода.
image.png11 Кб, 372x248
421 1900126
>>899667
Когда я пытаюсь таким образом продолжить с какой-либо точки, получается просто прямая, без понятия что не так делаю

https://t.me/aaaaaqqqqaaa
422 1900165
>>900008
Ты когда последний раз писал текст длиннее чем 2048 токенов? Или хотя бы читал.
423 1900168
>>900165

>Ты когда последний раз писал текст длиннее чем 2048 токенов? Или хотя бы читал.


Зумер, не проецируй. 2048 токенов - это 20-25 предложений. Я иногда пишу похожие по длинне эмейлы. Для текстовых квестов, для которых в том числе используется GPT, это вообще ничто. Так что никакого бесконечного контекста нет.
424 1900186
>>900168

>Так что никакого бесконечного контекста нет.


Шизик выдумал бесконечные контексты и с ними спорит.

>2048 токенов - это 20-25 предложений.


Ты сейчас 5 предложений уместил в 250 символов (токенов было бы ещё меньше). В школе расскажешь про 20-25 предложений и похожие по длиннне эмейлы.

>Для текстовых квестов, для которых в том числе используется GPT


Внезапно, текст не генерируется на всю игру сразу, а зависит от текущего контекста. А конкретные куски намного меньше 2к токенов.
425 1900190
>>900186
А в чем смысл надрачивать на количество запоминаемых одной моделью токенов? Из теоремы Колмогорова-Арнольда известно, что любая функция многих аргументов представима через композицию функций от двух аргументов. То есть, если у нас есть хоть что-то, могущее в работу с парой токенов, то стыканув эту хуйню в лучших традициях стекморбиттерлессонс получим возможности той же GPT и даже больше из кучи каких-нибудь скипграмов Миколова.
426 1900205
>>900186

>Шизик выдумал бесконечные контексты и с ними спорит.


>>899569

>гпт-3 не забывает контекст


Здесь столько шизиков, что я уже запутался. Конечная длина контекста? Значит забывает.
>>900186

>Ты сейчас 5 предложений уместил в 250 символов (токенов было бы ещё меньше)


Ну не 20, а 40. Этого все равно крайне недостаточно.

>Внезапно, текст не генерируется на всю игру сразу, а зависит от текущего контекста. А конкретные куски намного меньше 2к токенов.


Информация вне контекста будет навсегда пропадать. Например, персонажи или события.
427 1900214
В ГПТ-3 контекс это аналог кратковременной памяти у человека. И у ГПТ-3 она гораздо больше человеческой. Человек вообще мало может в рабочей памяти держать. Попробуй текст из 2048 слов, информационно плотный, один раз прочитать, а потом ответить на вопросы по деталям, и увидишь что ничего ты не помнишь. Только если будешь зубрить, загоняя его в долговременную память (= дотренировка в терминах ГПТ-3). А ГПТ-3 ответит.
Разница в том, что у человека рекуррентно апдейтится контекст. Поэтому он самое важное может дольше держать в рабочей памяти. И вариаций трансформеров с рекуррентным контекстом полно, но их тренировать сложнее.
428 1900404
>>900190
Ты получишь унылую RNN с затухшими градиентами. Лет через 20 ты придумаешь lstm, а еще через 30 - трансформеры.
Шучу. Ты нихуя не придумаешь.
429 1900430
>>900214

>рекуррентно апдейтится контекст


Ебать тебя промыли, моднявых психолухов в паблике начитался?
430 1900447
>>900126
sry, u menya net telegrama...
pls, napischi svou fake-pochtu
16090397528000.jpg25 Кб, 400x400
431 1900488
>>900404
Горький зумер, ты даже не понял что я написал...
432 1900491
>>900214
Вот как удивительно, и контекст больше и внимание мощнее чем у тупых человеков, а выходит нелепая хуйня чуть лучше марковских цепей. Без ПОНИМАНИЯ похоже не разобраться, любители чёрных коробок орут.
433 1900651
Котаны, это снова я. Как добавить к PNG без альфа канала еще один канал? Нужно как-то использовать альфу? Мне тут советовали склеить картинку пару лет назад, я только сейчас дошел до потребности в это операции.
И еще , в pix2pixHD есть еще один дополнительный параметр, который можно скормить сетке- instance_map. Это- 65536 канальный файл, который я не знаю как генерировать, и не факт, что он поможет, если я в него вместо границ объекта залью мои фичи, но всё же спрошу- может не заморачиваться с 4 каналом, а попробовать скормить в эту instance map серую 16 битную картинку с нужными фичами? Или- как делать разметку для 65536 каналов попроще чем в openCV?
146926282901387.mp44,7 Мб, mp4,
1280x720, 0:30
434 1900652

> когда кожаные мешки не читали битерлесон и ещё не знают что будут уничтожены очередным чатботом

435 1900667
>>900488
g(a,b,c)=f(f(a,b),c) это RNN.
Это мой последний пост тебе.
436 1900670
>>881607 (OP)
Я правильно понимаю, что в России нет нормального ресерча?
437 1900672
>>900670
Только прикладной
438 1900676
>>900672
Где и какой?
439 1900679
>>900667
И с какой стати стэкинг это f(f) ?
Горький, не позорься.
16087291988530.png77 Кб, 1651x3096
440 1900682
>>900667

> g(a,b,c)=f(f(a,b),c) это RNN.


И причем тут это, горький долбаеб? g(a,b,c) = f(f(a,b), f(b,c)) это тоже RNN?
441 1900684
>>900676
Те фирмы которые ориентированы на публикации в рф не имеют соответствующих лаб, публикаций из рф на мировых конференциях нет. Ориентируйся на мастера за рубежом, это самое простое.
Но если суть ресерча в выпуске моделек для рыночка, то такого полно, на хх.ру набери pytorch и смотри.
image.png198 Кб, 2886x1925
442 1900696
>>900684
Ну уж и нет. Вон Тайвань обогнали!
443 1900715
>>900214
Ого, адекватный анон итт
444 1900738
>>900679
В следующий раз попробуй без хамства
445 1900756
>>900738

> попробуй без хамства


Сам без хамства не можешь >>900404 почему другие должны? Начни с себя
446 1900797
>>900756
Если для тебя утверждение "ты не придумаешь lstm" - хамство, твое чсв совсем запущено.
А почему должны - не должны конечно, так даже проще, шизов посылать нахуй с первого поста, а не с последнего.
447 1900821
не ссорьтесь петушки
448 1900850
>>900797

> даже проще, шизов посылать нахуй с первого поста, а не с последнего.


При этом, себя ты шизом не считаешь, при том что несёшь полную хуйню >>900667 на что тебе указал не только я.
449 1901220
>>900850
В прошлый раз все закончилось этим: >>885867 в ответ на мои посты >>885654 и >>885628
Тишина по существу, только хамство. В этот раз закончится так же. Нахуй надо, вестись на эти провокации и писать свинье длиннопосты, после которых будут очередные пуки, как будто ничего и не было.

> на что тебе указал не только я.


При этом про пост >>900190 ничего подобного нет, кроме моего одинокого коммента. Какое странное совпадение, у дрочащего на word2vec конструшка из math появился незнакомый друг, постящий с ним 2 поста подряд.
450 1901268
>>901220
Да ты дебил просто.

> Какое странное совпадение, у дрочащего на word2vec конструшка из math появился незнакомый друг, постящий с ним 2 поста подряд.


Да-да, если с твоей хуйней не согласны двое, это семен. Классика.
451 1901275
>>901268

>Да ты дебил просто.


Опять интеллектуальный нищий пытается свести диалог к метанию какашек. Неси свой "стек из скипграмов", тогда и поговорим по существу. Но выйдет как в прошлый раз, и в позапрошлый, в позапозапрошлый. За тобой нихуя, кроме какашек, нет.

>Да-да, если с твоей хуйней не согласны двое, это семен. Классика.


Если с хуйней в >>900190 согласны двое, то это семен. Ну либо совсем поверхностный подсос этого шизика, что еще хуже.
16087330339130.gif2,2 Мб, 695x392
452 1901279
>>901275

> горький зумер, не знающий чем стек отличается от RNN и называющий хуйней теорему Колмогорова-Арнольда, называет кого-то кроме себя интеллектуальным нищим


Не могу не зафиксировать подрыв малолетнего брейнлета
453 1901283
>>901279
Опять интеллектуальный нищий пытается свести диалог к метанию какашек. Неси свой "стек из скипграмов", тогда и поговорим по существу. Но выйдет как в прошлый раз, и в позапрошлый, в позапозапрошлый. За тобой нихуя, кроме какашек, нет.
454 1901342
Вы все занимаетесь аллаховедением
455 1901357
Попробовал запустить через куколаб эту вашу гпт2 ололо 1558М, полтора миллиарда параметров. С какого места там восторгаться суперзумеркринжтехнологией? По-сути простой бредогенератор условно на заданную тему, я такие в 90х видел ещё. Где там конкретно величие битерлесона, поясните, свидетели.
456 1901375
Ну то есть, там буквально набор слов выдается, даже не связанный ни с одним введенным словом. Вот типичный пример:

Model prompt >>> Why bitter rooster is so stupid?
======================================== SAMPLE 1 ========================================
How come no one appreciates it?

Anonymous 01/01/17 (Thu) 03:11:44 AM No. 338119 How does this now make her to go outside into that thunderstorm at 6 in the afternoon. Coincidentally, late 9th grade homecoming. The girls like were all told to hold doors for her so everything was very crowded. Several details might have been known of course, but she looked to stay with some of the girls/kids and I doubt was in the worst of the storms.

Anonymous 01/01/17 (Thu) 03:11:50 AM No. 338120 >>338127

You've got to be kidding MeTooBuckley. You've got to be kidding MeTooBuckley.

Anonymous 01/01/17 (Thu) 03:14:33 AM No. 338122 >>338120

Depends on what you mean by "his wrists were slick" Depends on what you mean by "his wrists were slick"

Anonymous 01/01/17 (Thu) 03:14:59 AM No. 338123 >>338120

Someone tell Billie, she wouldn't know if it was cold or not though Someone tell Billie, she wouldn't know if it was cold or not though

Anonymous 01/01/17 (Thu) 03:15:38 AM No. 338124 >>338105

But he's the white boy and such things are expected but what if it's different with the black boy? But he's the white boy and such things are expected but what if it's different with the black boy?

Anonymous 01/01/17 (Thu) 03:17:40 AM No. 338125 File: 1484785081120.jpeg (164.96 KB, 840x833, image.jpeg) >>338123

White boys that don't provide for themselves or their family have name-brand factories to look up to

Black boys that get adopted and grow up in different countries tend to think they are", do everything" Just like their dads White boys that don't provide for themselves or their family have name-brand factories to look up toBlack boys that get adopted and grow up in different countries tend to think they are", do everything" Just like their dads

Anonymous 01/01/17 (Thu) 03:18:17 AM No. 338126 >>338119

I actually have friends who
================================================================================
456 1901375
Ну то есть, там буквально набор слов выдается, даже не связанный ни с одним введенным словом. Вот типичный пример:

Model prompt >>> Why bitter rooster is so stupid?
======================================== SAMPLE 1 ========================================
How come no one appreciates it?

Anonymous 01/01/17 (Thu) 03:11:44 AM No. 338119 How does this now make her to go outside into that thunderstorm at 6 in the afternoon. Coincidentally, late 9th grade homecoming. The girls like were all told to hold doors for her so everything was very crowded. Several details might have been known of course, but she looked to stay with some of the girls/kids and I doubt was in the worst of the storms.

Anonymous 01/01/17 (Thu) 03:11:50 AM No. 338120 >>338127

You've got to be kidding MeTooBuckley. You've got to be kidding MeTooBuckley.

Anonymous 01/01/17 (Thu) 03:14:33 AM No. 338122 >>338120

Depends on what you mean by "his wrists were slick" Depends on what you mean by "his wrists were slick"

Anonymous 01/01/17 (Thu) 03:14:59 AM No. 338123 >>338120

Someone tell Billie, she wouldn't know if it was cold or not though Someone tell Billie, she wouldn't know if it was cold or not though

Anonymous 01/01/17 (Thu) 03:15:38 AM No. 338124 >>338105

But he's the white boy and such things are expected but what if it's different with the black boy? But he's the white boy and such things are expected but what if it's different with the black boy?

Anonymous 01/01/17 (Thu) 03:17:40 AM No. 338125 File: 1484785081120.jpeg (164.96 KB, 840x833, image.jpeg) >>338123

White boys that don't provide for themselves or their family have name-brand factories to look up to

Black boys that get adopted and grow up in different countries tend to think they are", do everything" Just like their dads White boys that don't provide for themselves or their family have name-brand factories to look up toBlack boys that get adopted and grow up in different countries tend to think they are", do everything" Just like their dads

Anonymous 01/01/17 (Thu) 03:18:17 AM No. 338126 >>338119

I actually have friends who
================================================================================
457 1901381
Если из word2vec можно выдавить хотя бы man - king + woman = queen, то тут я и этого не увидел
458 1901437
>>900447
Проще уже было прям в коллабе написать. Напиши что есть, я даже не знаю, что у тебя за идея. По почте неудобно пиздец.
459 1901456
>>901375
Это ванильный gpt2 или файнтюненый?
460 1901482
>>901357
В целом нигде, хайп большой просто.
461 1901507
Почему у нейросетей до сих пор нет своей файловой системы?
462 1901509
>>901456
Это который на гитхабе опенаи - https://github.com/openai/gpt-2 http://colab.research.google.com/github/blade1780/bert/blob/master/Gpt-2.ipynb , с прописанным параметром model_name = '1558M'
463 1901511
>>901507
Зумер? Нейросеть запускается поверх ОС, будь то в браузере или локально, файловая система нужна операционной системе, а не своя каждому приложению.
464 1901622
>>901511
https://www.opennet.ru/opennews/art.shtml?num=54348
У браузера есть своя файловая система, почему у нейросети нет? Это базовая вещь в информатике.
465 1901639
>>901622
Что же должно быть в этой нейронной фс файлами, каталогамм и аттрибутами?
466 1901689
>>901509
То есть на затравку с лексикой из имиджборд в 6 слов гпт2 сгенерировал тебе контент имиджборды с анонимусами, согласованным временем постов и их номерами, и ты это видел в 90е. Ну-ну.
467 1901711
>>901689

>контент имиджборды


Рандомные куски текста
468 1901718
>>881607 (OP)
Хотел поковыряться в нейросетях, но мысль такая возникла. Ведь чтобы научить нейронку отличать кошечку от автобуса, надо натренировать ее на сотнях тысяч образцов. Возможно ли этим заниматься в домашних условиях со скромными ресурсами. Или это примерно как с матрицами, сперва думаешь, круто, умею считать определитель, решу любую систему лин уравнений, а на деле в практических задачах переменных столько, что даже суперкомпьютер обосрется этот определитель считать.
469 1901772
>>901718
ДА, более чем. Тот же DeepNude был запилен каким-то одним эстонцем. Большинство (95%) гитхаба- это домашки и хобби, сделанные на коленке (ну тут можно подумать, что норм вещи никто за бесплатно не выложит, но посмотри на Nvidia, там самые передовые технологии выложены, а спустя год после выхода- уже лицензия бесплатная). Еще большинство гитхаба- это именно разные попытки решить одну задачу разными методами, есть много датасетов, на которых можно меряться метриками. Можно запилить себе совсем небольшую модельку и запихнуть ее в какой-то домашний серверок, чтобы быть в курсе кто их родаков-знакомых подходит к подъезду и т.д. Самое сложное сейчас- это найти себе интересную для себя задачу, а интсурмента много очень. НУ и вишенка- большинство работ тестируются на всяких датасетах разрешения типа 256 на 256. Это на какую-то 1660 видяху хватит.
По поводу кошечек-атвобусов- есть такая вещь как аугментация данных, когда ты берешь малый сет и начинаешь его натягивать на глобус изменяя гамму, растягивая изображение, делая множество примеров из одного, желательно сразу перед обработкой в виде пайплайна, для этого тоже хватает инструментария или он пишется на коленке. Да, самое сложное- это сначала собрать датасет, а потом почистить. Вопрос в цели- просто так, ну как домашка для опыта или портфеля, ок. Для себя- гуд, для денег- тут надо будет достаточно долго затачивать, и , как правило, с командой или с денежными вливаниями в какую-нибудь толоку это выйдет быстрее.
470 1901785
>>901772

>найти себе интересную для себя задачу


Пиздец, вы там ни одной задачи не решили, а уже перебираете.
471 1901792
>>901718
Чисто поиграться юзай колаб. Для норм тренировки нужна топовая видеокарта, конечно, и много времени.
472 1901956
>>901718
Трансферлернинг никто не отменял

Плюс гуглколаб тебе в помощь

Вот ссылка
https://towardsdatascience.com/transfer-learning-with-convolutional-neural-networks-in-pytorch-dd09190245ce
473 1902017
>>899810
Боюсь, судьба моей цифровой копии меня волнует гораздо меньше чем вообще что-либо
474 1902078
OpenAI text-to-image завезли.
https://openai.com/blog/dall-e/
image.png114 Кб, 1500x600
475 1902096
>>900684
Яндекс, мфти, сколтех публикуются на нипсе, всё норм. Понятное дело, что масштаб не как у гугла и стенфорда, но пойдет.
476 1902134
>>902078
Пфф, да это еще жопеншмульц в 1968 сделал. Сойбои не читают классиков и изобретают велосипед.
image.png1,1 Мб, 1528x1671
477 1902167
>>902078
Ахаха, опенаи, что ты делаешь, остановись
gyhsd.png404 Кб, 1172x803
478 1902206
>>902134
Наборы картинок из списка это даже не жопеншмульц, это вообще без машоба делается
479 1902208
>>901711
Не рандомные, а conditioned на твоем скупом и коротком контексте. Ты задал вопрос про петуха на рунглише, он тебе выдал кусок треда на форчане. А ты даже не понял, что произошло. А я удивился настолько, что даже уточнил, а ванильный ли это gpt2. Потому что никогда бы не подумал, что gpt2 в zero shot режиме может так.
480 1902210
>>902208

>он тебе выдал кусок треда на форчане


Только тексты постов выглядят как выдернутые пасты из бульварной литературы, вперемешку и без особой связи между ними. Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче. Не впечатляет короче.
Screenshot20210106-090748.png136 Кб, 720x1280
481 1902217
>>902208
Да ну, это несерьёзно всё. Какой-нибудь древний LSA не хуже бы сработал. Алсо, с тилибона ввод текста не работает, нажимаю ентер и ничего не происходит. Из-за чего это может быть? Куколаб с телефонами несовместим?
482 1902219
>>902217

> Какой-нибудь древний LSA не хуже бы сработал.


Нет, не сработал бы.
483 1902222
>>902210
Prompt: Почему нечеткий петух такой тупой?
100%|| 32/32 [00:04<00:00, 7.26it/s]
из-за того, что его обоссывают и даже могут за это отпиздить.

-------SAMPLE 0 END-------
он не может определиться с тем что он есть, если не понимает этого.

-------SAMPLE 1 END-------
не знаю.

-------SAMPLE 2 END-------
потому что он петух.
Ну и хуево же он смотрит на наших тней, которые не знают как быть с девушками.

-------SAMPLE 3 END-------
потому что он и не петух вовсе. Он думает что у него есть деньги на его же деньги.

-------SAMPLE 4 END-------
он не может его посчитать.

> Почему нечеткий петух такой тупой? Ответ: он не может его посчитать.



-------SAMPLE 5 END-------
это не совсем петух - это дохуя умный петух.

> Ну так они же все из говна, блядь.



-------SAMPLE 6 END-------
потому что он не знает где деньги и как их достать.
Поясните, почему во всяких сайтах есть ссылки на эти сайты?

-------SAMPLE 7 END-------
потому что он слишком тупой и думает, что это нормально и правильно в жизни, что не нужно бояться и прыгать с крыши, чтобы поймать на улице воробья, и он не
такой
-------SAMPLE 8 END-------
он ленивый
Анончики, а я не вижу смысла в том, чтобы кому-то донатить за то, чтобы он зарабатывал на моем обуви?

-------SAMPLE 9 END-------
из-за того что у него было много денег, он их на мороженое с пивом откладывал.

-------SAMPLE 10 END-------
потому что петух не может иметь 2 / 3 своего тела, а его тело - 3 / 3 своего тела.

-------SAMPLE 11 END-------
все верно написано.

> Человек с клювом уже месяц не может найти выход из дома.



-------SAMPLE 12 END-------
в курсе.

> в курсе.


Какой петух - петух говна не нюхал?

-------SAMPLE 13 END-------
потому что я не знаю, как правильно делать пиздабол.
Бамп
А ты не думал, что будет смешно, если в клубе?

-------SAMPLE 14 END-------
потому что он долбоеб.
К сожалению я не хочу в это играть.
Как же так получилось?

> Как же так вышло?



-------SAMPLE 15 END-------
у него не может быть яиц, у него просто улетает кукушка.
Если тебе не похуй, то ты ничего не потеряешь.

-------SAMPLE 16 END-------
я знаю одну девочку.
-------SAMPLE 17 END-------
потому что у него нет глаза, а в глаза не может насрать.

-------SAMPLE 18 END-------
у него три четверти скулы отклеилось
bump

> на самом деле он тупой.



-------SAMPLE 19 END-------
потому что он в рот ебаный.
Вопрос: как зовут мальчика с собакой и почему он так уёбывает? Ответ: у него нет имени.

-------SAMPLE 20 END-------
потому что он не знает, что делать.
Почему?
Ответ: Потому что он не может понять что делать.

-------SAMPLE 21 END-------
потому что он был не в курсе того как я попал на этот остров.

-------SAMPLE 22 END-------
потому что он все время под шконкой сидит.
Для начала займись делом.

-------SAMPLE 23 END-------
это ебаный пидораший петух.
Потому что это твой петух.

-------SAMPLE 24 END-------
это не семён.

-------SAMPLE 25 END-------
хуй знает.

> То есть ты мне не веришь?


Ну так ты же в свои 26 - 3 undefined5 лет живешь.

-------SAMPLE 26 END-------
потому что у него нету головы.
А зачем он вообще?
Ответ: это он тупой.

> Нет, он тупой.


> Ебать ты тупой.



-------SAMPLE 27 END-------
он не хочет верить, что у него есть деньги.
Кто из них - петух?
Ты просто тупой петух.
Отвечай, что ты петух.

-------SAMPLE 28 END-------
потому что он не знает украинского.
1 . Зачем ты им нужен?
2 . Как вы себе представляете то, что происходит в стране?

-------SAMPLE 29 END-------
потому что не смог понять причину его суицида.

> Это не может быть интереснымЗачем ты создал тред про какую то дебилку?



-------SAMPLE 30 END-------
потому что он не знает о них.

-------SAMPLE 31 END-------
потому что не знает что такое рак, рак, рак, рак, рак.
От пидораса у него бомбануло.

-------SAMPLE 32 END-------
потому что в каждом случае петух говорит "я хочу!"и имеет при этом в виду только то, что он хочет и хочет "я хочу".

-------SAMPLE 33 END-------
потому что он не знает как это работает.
Потому что он не может знать как это работает.
Потому что он не может знать как это работает.

-------SAMPLE 34 END-------
он не знает что такое давление.
Ответ: петух не знает что такое давление.

-------SAMPLE 35 END-------
потому что он не знает, как его правильно вертеть.
Ответ: 1 . С чего начать?

-------SAMPLE 36 END-------
потому что у него нет денег.

-------SAMPLE 37 END-------
потому что он не понимает простейших вещей.
Вопрос: что такое день и сколько часов в сутки?

-------SAMPLE 38 END-------
потому что он глупый петух - он не понимает ни слова из того, что говорит петух.
А как тебе с такими вопросами?

-------SAMPLE 39 END-------
483 1902222
>>902210
Prompt: Почему нечеткий петух такой тупой?
100%|| 32/32 [00:04<00:00, 7.26it/s]
из-за того, что его обоссывают и даже могут за это отпиздить.

-------SAMPLE 0 END-------
он не может определиться с тем что он есть, если не понимает этого.

-------SAMPLE 1 END-------
не знаю.

-------SAMPLE 2 END-------
потому что он петух.
Ну и хуево же он смотрит на наших тней, которые не знают как быть с девушками.

-------SAMPLE 3 END-------
потому что он и не петух вовсе. Он думает что у него есть деньги на его же деньги.

-------SAMPLE 4 END-------
он не может его посчитать.

> Почему нечеткий петух такой тупой? Ответ: он не может его посчитать.



-------SAMPLE 5 END-------
это не совсем петух - это дохуя умный петух.

> Ну так они же все из говна, блядь.



-------SAMPLE 6 END-------
потому что он не знает где деньги и как их достать.
Поясните, почему во всяких сайтах есть ссылки на эти сайты?

-------SAMPLE 7 END-------
потому что он слишком тупой и думает, что это нормально и правильно в жизни, что не нужно бояться и прыгать с крыши, чтобы поймать на улице воробья, и он не
такой
-------SAMPLE 8 END-------
он ленивый
Анончики, а я не вижу смысла в том, чтобы кому-то донатить за то, чтобы он зарабатывал на моем обуви?

-------SAMPLE 9 END-------
из-за того что у него было много денег, он их на мороженое с пивом откладывал.

-------SAMPLE 10 END-------
потому что петух не может иметь 2 / 3 своего тела, а его тело - 3 / 3 своего тела.

-------SAMPLE 11 END-------
все верно написано.

> Человек с клювом уже месяц не может найти выход из дома.



-------SAMPLE 12 END-------
в курсе.

> в курсе.


Какой петух - петух говна не нюхал?

-------SAMPLE 13 END-------
потому что я не знаю, как правильно делать пиздабол.
Бамп
А ты не думал, что будет смешно, если в клубе?

-------SAMPLE 14 END-------
потому что он долбоеб.
К сожалению я не хочу в это играть.
Как же так получилось?

> Как же так вышло?



-------SAMPLE 15 END-------
у него не может быть яиц, у него просто улетает кукушка.
Если тебе не похуй, то ты ничего не потеряешь.

-------SAMPLE 16 END-------
я знаю одну девочку.
-------SAMPLE 17 END-------
потому что у него нет глаза, а в глаза не может насрать.

-------SAMPLE 18 END-------
у него три четверти скулы отклеилось
bump

> на самом деле он тупой.



-------SAMPLE 19 END-------
потому что он в рот ебаный.
Вопрос: как зовут мальчика с собакой и почему он так уёбывает? Ответ: у него нет имени.

-------SAMPLE 20 END-------
потому что он не знает, что делать.
Почему?
Ответ: Потому что он не может понять что делать.

-------SAMPLE 21 END-------
потому что он был не в курсе того как я попал на этот остров.

-------SAMPLE 22 END-------
потому что он все время под шконкой сидит.
Для начала займись делом.

-------SAMPLE 23 END-------
это ебаный пидораший петух.
Потому что это твой петух.

-------SAMPLE 24 END-------
это не семён.

-------SAMPLE 25 END-------
хуй знает.

> То есть ты мне не веришь?


Ну так ты же в свои 26 - 3 undefined5 лет живешь.

-------SAMPLE 26 END-------
потому что у него нету головы.
А зачем он вообще?
Ответ: это он тупой.

> Нет, он тупой.


> Ебать ты тупой.



-------SAMPLE 27 END-------
он не хочет верить, что у него есть деньги.
Кто из них - петух?
Ты просто тупой петух.
Отвечай, что ты петух.

-------SAMPLE 28 END-------
потому что он не знает украинского.
1 . Зачем ты им нужен?
2 . Как вы себе представляете то, что происходит в стране?

-------SAMPLE 29 END-------
потому что не смог понять причину его суицида.

> Это не может быть интереснымЗачем ты создал тред про какую то дебилку?



-------SAMPLE 30 END-------
потому что он не знает о них.

-------SAMPLE 31 END-------
потому что не знает что такое рак, рак, рак, рак, рак.
От пидораса у него бомбануло.

-------SAMPLE 32 END-------
потому что в каждом случае петух говорит "я хочу!"и имеет при этом в виду только то, что он хочет и хочет "я хочу".

-------SAMPLE 33 END-------
потому что он не знает как это работает.
Потому что он не может знать как это работает.
Потому что он не может знать как это работает.

-------SAMPLE 34 END-------
он не знает что такое давление.
Ответ: петух не знает что такое давление.

-------SAMPLE 35 END-------
потому что он не знает, как его правильно вертеть.
Ответ: 1 . С чего начать?

-------SAMPLE 36 END-------
потому что у него нет денег.

-------SAMPLE 37 END-------
потому что он не понимает простейших вещей.
Вопрос: что такое день и сколько часов в сутки?

-------SAMPLE 38 END-------
потому что он глупый петух - он не понимает ни слова из того, что говорит петух.
А как тебе с такими вопросами?

-------SAMPLE 39 END-------
484 1902223
>>902217
Prompt: Да ну, это несерьёзно всё. Какой-нибудь древний LSA не хуже бы сработал. Алсо, с тилибона ввод текста не работает, нажимаю ентер и ничего не происходит. Из-за чего это может быть? Куколаб с телефонами несовместим?
100%|| 32/32 [00:07<00:00, 4.47it/s]
я не знаю, но могу проверить.
Потому что надо работать над каждой новой концепцией. Не уверен, что ты сможешь осилить весь тред.

-------SAMPLE 0 END-------
если это не сингловой телефон, то может быть.

-------SAMPLE 1 END-------
нет, потому что ввод текста не работает и у меня нет встроенного плана.

> А как я понял это был хуй пойми кто из местных?



-------SAMPLE 2 END-------
нет.

-------SAMPLE 3 END-------
не знаю, у меня не было и не будет нихуя с мобилы.
Не? А где у меня телефон?

-------SAMPLE 4 END-------
с помощью iOS.
Я сам с 2012 года капчую, не могу без неё.
Да ладно тебе, не гори.

-------SAMPLE 5 END-------
да, с ним проблем нет.

-------SAMPLE 6 END-------
с ними я не сталкивался.
Почему у меня в голове, как у опа, нет логического мышления.

-------SAMPLE 7 END-------
у него нет тилибона, у него нет проблем.
Это нахуй?

-------SAMPLE 8 END-------
это все из-за него.
Так и есть в чём смысл?
Тебе-то откуда знать?

-------SAMPLE 9 END-------
Он работает на 2 . 5 Гц и работает, как часы.
А ты про что, хуле ты такой охуевший?

-------SAMPLE 10 END-------
нет, просто не может быть совместим с телефоном без сиридана.

> В чем смысл? Не знаю. Ну и в чём смысл?



-------SAMPLE 11 END-------

> битардское мореПотому что это тред о подводных камнях и их влиянии на жизнь.


-------SAMPLE 12 END-------
я не знаю ни одного андроида с iOS, не знаю даже его пароля. Как же я хочу на него установить iOS!

-------SAMPLE 13 END-------
нет.

-------SAMPLE 14 END-------
нахуй тебе его брать?
Ты реально думаешь, что это всё проделки ФСБ?

> Какие проблемы?



-------SAMPLE 15 END-------
потому, что он стоит на боинге без веса.
Ты что это, серьёзно?

-------SAMPLE 16 END-------
это обычный телефон. Обычный телефон не может быть в такой ситуации и без него.
Это не работает?

-------SAMPLE 17 END-------
нет.

> > чтобы не перегружать мозг и не ставить задачу без задач».



-------SAMPLE 18 END-------
не совместим, потому что он стоит меньше средней цены в мире - 4 к. Если ты пишешь код с телефона, то тебе на него ничего не надо настраивать.

-------SAMPLE 19 END------- [41/1827]
нет.
Да ну, это несерьёзно.
Может это рипшифт?
Двачую.

-------SAMPLE 20 END-------
к тому же, у меня в LSA нет встроенного google.
А с чем это связано?

-------SAMPLE 21 END-------
из коробки он всё равно не работает, но его можно заменить на более надёжный телефон.
Что у меня за хуйня?

-------SAMPLE 22 END-------
нет! Он просто тупой.

-------SAMPLE 23 END-------
возможно, из-за контакта между ними в виде смартфона или набора симки.

-------SAMPLE 24 END-------
он не работает из-за проплаты на абонента.
Это не отменяет того, что ты прав. А если и работает, то может не работать.

-------SAMPLE 25 END-------
я не могу пользоваться компом в этой системе.
Ну и хуя с тобой делать.

-------SAMPLE 26 END-------
у меня есть возможность его выключить, но это дорого.

>> Почему ты не отвечаешь на мои посты?



-------SAMPLE 27 END-------
но не совсем.

> Какие деньги нужны для поездки в США?



-------SAMPLE 28 END-------
нет - это одно из условий работы.
Нет. Просто.

-------SAMPLE 29 END-------
В том числе и с телефонами китайцев.
Что это за бренд?
Ответ: По той же причине китайцы не делают телефоны.

Что это?

-------SAMPLE 30 END-------
не совместим.

-------SAMPLE 31 END-------
нет, с телефона я могу нормально установить и прошить.
Да я понимаю, что ты про буддизм, но мне это вообще не интересно.

-------SAMPLE 32 END-------
нет у меня телефонов.
Ну я и говорю, это не совместимо.
Так я и говорю, это не совместимо.

-------SAMPLE 33 END-------
нет, только с китайскими устройствами.

-------SAMPLE 34 END-------
нет.
Он не с телефона ебался.
Посоветуйте какой-нибудь фильм про маньяка.
Я даже не знаю. Мне бы понравился его конец.

-------SAMPLE 35 END-------
по сути да.
Не понял, в чем суть?

-------SAMPLE 36 END-------
это прочая хуйня в этой игре.
Проиграл с этого пидораса.

-------SAMPLE 37 END-------
у меня нет телефона.
Бамп
Потому что на нём я всегда могу задать вопрос "где деньги?"или "где телефон"?

-------SAMPLE 38 END-------
у него нет доступа к интернету.

-------SAMPLE 39 END-------
484 1902223
>>902217
Prompt: Да ну, это несерьёзно всё. Какой-нибудь древний LSA не хуже бы сработал. Алсо, с тилибона ввод текста не работает, нажимаю ентер и ничего не происходит. Из-за чего это может быть? Куколаб с телефонами несовместим?
100%|| 32/32 [00:07<00:00, 4.47it/s]
я не знаю, но могу проверить.
Потому что надо работать над каждой новой концепцией. Не уверен, что ты сможешь осилить весь тред.

-------SAMPLE 0 END-------
если это не сингловой телефон, то может быть.

-------SAMPLE 1 END-------
нет, потому что ввод текста не работает и у меня нет встроенного плана.

> А как я понял это был хуй пойми кто из местных?



-------SAMPLE 2 END-------
нет.

-------SAMPLE 3 END-------
не знаю, у меня не было и не будет нихуя с мобилы.
Не? А где у меня телефон?

-------SAMPLE 4 END-------
с помощью iOS.
Я сам с 2012 года капчую, не могу без неё.
Да ладно тебе, не гори.

-------SAMPLE 5 END-------
да, с ним проблем нет.

-------SAMPLE 6 END-------
с ними я не сталкивался.
Почему у меня в голове, как у опа, нет логического мышления.

-------SAMPLE 7 END-------
у него нет тилибона, у него нет проблем.
Это нахуй?

-------SAMPLE 8 END-------
это все из-за него.
Так и есть в чём смысл?
Тебе-то откуда знать?

-------SAMPLE 9 END-------
Он работает на 2 . 5 Гц и работает, как часы.
А ты про что, хуле ты такой охуевший?

-------SAMPLE 10 END-------
нет, просто не может быть совместим с телефоном без сиридана.

> В чем смысл? Не знаю. Ну и в чём смысл?



-------SAMPLE 11 END-------

> битардское мореПотому что это тред о подводных камнях и их влиянии на жизнь.


-------SAMPLE 12 END-------
я не знаю ни одного андроида с iOS, не знаю даже его пароля. Как же я хочу на него установить iOS!

-------SAMPLE 13 END-------
нет.

-------SAMPLE 14 END-------
нахуй тебе его брать?
Ты реально думаешь, что это всё проделки ФСБ?

> Какие проблемы?



-------SAMPLE 15 END-------
потому, что он стоит на боинге без веса.
Ты что это, серьёзно?

-------SAMPLE 16 END-------
это обычный телефон. Обычный телефон не может быть в такой ситуации и без него.
Это не работает?

-------SAMPLE 17 END-------
нет.

> > чтобы не перегружать мозг и не ставить задачу без задач».



-------SAMPLE 18 END-------
не совместим, потому что он стоит меньше средней цены в мире - 4 к. Если ты пишешь код с телефона, то тебе на него ничего не надо настраивать.

-------SAMPLE 19 END------- [41/1827]
нет.
Да ну, это несерьёзно.
Может это рипшифт?
Двачую.

-------SAMPLE 20 END-------
к тому же, у меня в LSA нет встроенного google.
А с чем это связано?

-------SAMPLE 21 END-------
из коробки он всё равно не работает, но его можно заменить на более надёжный телефон.
Что у меня за хуйня?

-------SAMPLE 22 END-------
нет! Он просто тупой.

-------SAMPLE 23 END-------
возможно, из-за контакта между ними в виде смартфона или набора симки.

-------SAMPLE 24 END-------
он не работает из-за проплаты на абонента.
Это не отменяет того, что ты прав. А если и работает, то может не работать.

-------SAMPLE 25 END-------
я не могу пользоваться компом в этой системе.
Ну и хуя с тобой делать.

-------SAMPLE 26 END-------
у меня есть возможность его выключить, но это дорого.

>> Почему ты не отвечаешь на мои посты?



-------SAMPLE 27 END-------
но не совсем.

> Какие деньги нужны для поездки в США?



-------SAMPLE 28 END-------
нет - это одно из условий работы.
Нет. Просто.

-------SAMPLE 29 END-------
В том числе и с телефонами китайцев.
Что это за бренд?
Ответ: По той же причине китайцы не делают телефоны.

Что это?

-------SAMPLE 30 END-------
не совместим.

-------SAMPLE 31 END-------
нет, с телефона я могу нормально установить и прошить.
Да я понимаю, что ты про буддизм, но мне это вообще не интересно.

-------SAMPLE 32 END-------
нет у меня телефонов.
Ну я и говорю, это не совместимо.
Так я и говорю, это не совместимо.

-------SAMPLE 33 END-------
нет, только с китайскими устройствами.

-------SAMPLE 34 END-------
нет.
Он не с телефона ебался.
Посоветуйте какой-нибудь фильм про маньяка.
Я даже не знаю. Мне бы понравился его конец.

-------SAMPLE 35 END-------
по сути да.
Не понял, в чем суть?

-------SAMPLE 36 END-------
это прочая хуйня в этой игре.
Проиграл с этого пидораса.

-------SAMPLE 37 END-------
у меня нет телефона.
Бамп
Потому что на нём я всегда могу задать вопрос "где деньги?"или "где телефон"?

-------SAMPLE 38 END-------
у него нет доступа к интернету.

-------SAMPLE 39 END-------
yoba sutton.png309 Кб, 583x538
485 1902224
>>902206
Prompt: Наборы картинок из списка это даже не жопеншмульц, это вообще без машоба делается. Почему автор последнего предложения - нечеткий петух?
100%|| 32/32 [00:00<00:00, 37.55it/s]
потому что он не может одновременно с двумя разговаривать как сука с одним и тем же набором картинок в голове.

-------SAMPLE 0 END-------
анон выше, я сам такой же долбаеб.
Вопрос: зачем он вообще запилил свой первый пост?
Ответ: чтобы запостить в реале нужный текст.

-------SAMPLE 1 END-------
я в принципе его не читал, а если и читал, то там написано что это действительно лол.
С точки зрения эволюции - это так, но вот охуеть.

-------SAMPLE 2 END-------
потому что я пишу о том как я буду писать и как буду вести себя дальше.

-------SAMPLE 3 END-------
потому что автор этого поста - недобитый пиздюк, который не знает английский.
Вопрос: где сиськи?

-------SAMPLE 4 END-------
486 1902226
А что, примеров поинтереснее с этими мегагитлер нейрон очками с миллиардами параметров нет? Просто столько кукареканья, а толку что-то не очень. Есть какой-нибудь пример, чтобы прямо проникнуться и сказать "вот до чего техника дошла!"?
>>902224
>>902223
>>902222
В общем, бредогенератор уровня LSA из 90х, да он тоже умеет отвечать на вопросы и рекомендовать похожие книги.
487 1902227
>>902210

>Только тексты постов выглядят как выдернутые пасты из бульварной литературы, вперемешку и без особой связи между ними. Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче. Не впечатляет короче.


А что ты хотел от 3гб, чтобы оно помнило не только общий вид тредов, но и их контент? Так не бывает, интернет слишком большой, чтобы помнить сленг и темы обсуждений на каждом сайте, ужав это все в 1.5 гигабайта. Но примерный вид она помнит, весьма подробно при том. Копи бабки на 4x3090.
Вообще главная фишка GPT не качество, а zero shot learning. Даже GPT2 в это может, ты добавляешь preconditioning текст с нужными примерами того, что нужно выводить, и дальше получаешь нужные ответы. GPT3 же это не просто может, а очень впечатляюще может.

В примерах выше preconditioning содержал
==
Вопрос: куда впадает волга?
Ответ: в каспийское море.

Вопрос: сколько вешать в граммах?
Ответ: примерно взвесьте.

Вопрос: где деньги?
Ответ: денег нет.

Вопрос:
==

И все, модель переводится в режим question answering.
Поэтому кстати контекст 1024 - это очень немного, потому что этот текст занимает примерно 100 токенов.

>Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче.


Ты спросил не просто про петуха, а про петуха на рунглише. И где это русские со своим кривым английским любят обсуждать петухов? Это та ситуация, когда нейросеть знает о тебе больше, чем ты сам.

>Не впечатляет короче.


Когда технология дорастает до того, чтобы начать впечатлять, ты предпочитаешь ее игнорировать.

Вот это работает с top_k=1, то есть если отключить весь рандом.

Prompt: Как называют жену короля?
100%|| 32/32 [00:01<00:00, 21.20it/s]
королева.
Вопрос: как зовут сына короля? Ответ: принц.
Вопрос: как зовут дочь короля? Ответ: принцесса.

-------SAMPLE 0 END-------
королева.
Вопрос: как зовут сына короля? Ответ: принц.
Вопрос: как зовут дочь короля? Ответ: принцесса.

-------SAMPLE 1 END-------
487 1902227
>>902210

>Только тексты постов выглядят как выдернутые пасты из бульварной литературы, вперемешку и без особой связи между ними. Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче. Не впечатляет короче.


А что ты хотел от 3гб, чтобы оно помнило не только общий вид тредов, но и их контент? Так не бывает, интернет слишком большой, чтобы помнить сленг и темы обсуждений на каждом сайте, ужав это все в 1.5 гигабайта. Но примерный вид она помнит, весьма подробно при том. Копи бабки на 4x3090.
Вообще главная фишка GPT не качество, а zero shot learning. Даже GPT2 в это может, ты добавляешь preconditioning текст с нужными примерами того, что нужно выводить, и дальше получаешь нужные ответы. GPT3 же это не просто может, а очень впечатляюще может.

В примерах выше preconditioning содержал
==
Вопрос: куда впадает волга?
Ответ: в каспийское море.

Вопрос: сколько вешать в граммах?
Ответ: примерно взвесьте.

Вопрос: где деньги?
Ответ: денег нет.

Вопрос:
==

И все, модель переводится в режим question answering.
Поэтому кстати контекст 1024 - это очень немного, потому что этот текст занимает примерно 100 токенов.

>Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче.


Ты спросил не просто про петуха, а про петуха на рунглише. И где это русские со своим кривым английским любят обсуждать петухов? Это та ситуация, когда нейросеть знает о тебе больше, чем ты сам.

>Не впечатляет короче.


Когда технология дорастает до того, чтобы начать впечатлять, ты предпочитаешь ее игнорировать.

Вот это работает с top_k=1, то есть если отключить весь рандом.

Prompt: Как называют жену короля?
100%|| 32/32 [00:01<00:00, 21.20it/s]
королева.
Вопрос: как зовут сына короля? Ответ: принц.
Вопрос: как зовут дочь короля? Ответ: принцесса.

-------SAMPLE 0 END-------
королева.
Вопрос: как зовут сына короля? Ответ: принц.
Вопрос: как зовут дочь короля? Ответ: принцесса.

-------SAMPLE 1 END-------
488 1902228
>>902227

> Вот это работает с top_k=1, то есть если отключить весь рандом.


Это ты делал с этой моделью http://colab.research.google.com/github/blade1780/bert/blob/master/Gpt-2.ipynb ? Спроси, кто пыня.

> Когда технология дорастает до того, чтобы начать впечатлять, ты предпочитаешь ее игнорировать.


Например?
489 1902230
>>902228
Часть https://github.com/mgrankin/ru_transformers GPT-2 Medium 355M параметров, часть - файнтюненый мной на битом архиваче GPT-2 Small, 124M параметров.
Надо перекачать датасет с архивача уже с учетом того, что нужно выкачивать отдельные нити обсуждений, а не просто треды одним куском, будет сильно лучше.

Prompt: кто такой пыня?
100%|| 32/32 [00:00<00:00, 41.12it/s]
пыня - это не человек, а какой-то хуёвый пидор с двачера.

-------SAMPLE 0 END-------
пыня - это диктатор, диктаторский диктаторский диктатор.
Ответ: кто такой пыня?

-------SAMPLE 1 END-------
пыня - это тот, кто не может ничего сделать для народа.

-------SAMPLE 2 END-------
пыня - это пыня пыня

> пыня - это пыня пыня


> пыня - это пыня пыня


> пыня


-------SAMPLE 3 END-------
пыня - это пыня - он сам пыня-то.
Ответ: нахуя пыня? Он просто пыня.

-------SAMPLE 4 END-------

Prompt: кто пыня?
100%|| 32/32 [00:00<00:00, 42.92it/s]
Пыня - это ты.

-------SAMPLE 0 END-------
не пыня, а Пыня.
Что такое "Пыня"?
Ответ: не пыня, а Пыня - не пыня.

> не пыня".



-------SAMPLE 1 END-------
не пыня.

-------SAMPLE 2 END-------
пыня - это Пыня.
Ну и зачем пыня Пыне?
Ответ: не важно.
Это просто смешно.
А что за пыня?

-------SAMPLE 3 END-------
Пыня - это Пыня, а не Пыня - это Пыня.

-------SAMPLE 4 END-------
489 1902230
>>902228
Часть https://github.com/mgrankin/ru_transformers GPT-2 Medium 355M параметров, часть - файнтюненый мной на битом архиваче GPT-2 Small, 124M параметров.
Надо перекачать датасет с архивача уже с учетом того, что нужно выкачивать отдельные нити обсуждений, а не просто треды одним куском, будет сильно лучше.

Prompt: кто такой пыня?
100%|| 32/32 [00:00<00:00, 41.12it/s]
пыня - это не человек, а какой-то хуёвый пидор с двачера.

-------SAMPLE 0 END-------
пыня - это диктатор, диктаторский диктаторский диктатор.
Ответ: кто такой пыня?

-------SAMPLE 1 END-------
пыня - это тот, кто не может ничего сделать для народа.

-------SAMPLE 2 END-------
пыня - это пыня пыня

> пыня - это пыня пыня


> пыня - это пыня пыня


> пыня


-------SAMPLE 3 END-------
пыня - это пыня - он сам пыня-то.
Ответ: нахуя пыня? Он просто пыня.

-------SAMPLE 4 END-------

Prompt: кто пыня?
100%|| 32/32 [00:00<00:00, 42.92it/s]
Пыня - это ты.

-------SAMPLE 0 END-------
не пыня, а Пыня.
Что такое "Пыня"?
Ответ: не пыня, а Пыня - не пыня.

> не пыня".



-------SAMPLE 1 END-------
не пыня.

-------SAMPLE 2 END-------
пыня - это Пыня.
Ну и зачем пыня Пыне?
Ответ: не важно.
Это просто смешно.
А что за пыня?

-------SAMPLE 3 END-------
Пыня - это Пыня, а не Пыня - это Пыня.

-------SAMPLE 4 END-------
490 1902231
>>902230

> Часть https://github.com/mgrankin/ru_transformers


Искал что-нибудь подобное, наткнулся на https://huggingface.co/transformers/ это не лучше, чем искать по отдельности, тут вроде все в одном месте?

> -------SAMPLE 1 END-------


> пыня - это тот, кто не может ничего сделать для народа.


Лол, и не поспоришь.
491 1902248
>>902231
Лучше, hugging face большие молодцы, а я ленивая залупа, не будь мной.

>Лол, и не поспоришь.


Если черри-пикать можно вообще дохуя чего интересного генерировать.
492 1902274
Нечеткий петух до торга дошел или что ИТТ происходит?
493 1902308
Сап. Есть большие наборы сырых бинарных данных, которые надо классифицировать как валидные и невалидные. В валидных обычно есть какая-нибудь структура внутри, большое количество одинаковых или похожих символов подряд часто валидные наборы имеют одинаковые последовательности символов внутри. А не валидные это обычно шум с высокой энтропией вкраплённый в валидный набор. Идея была разбить набор на чанки равной длины и прогнать каждый чанк через нейронку чтобы научить её оценивать вероятность, что этот чанк принадлежит валидному набору символов. Как лучше сеть сделать чтобы она такие особенности чанков запоминала? Боюсь простой 2 слоя конволюции, пулинг, дропаут, фуликонектед не справится с этой задачей. А какой-нибудь lstm пилить для запоминания общих черт валидных чанков боюсь излишне т.к. тогда можно было бы и не разбивать набор данных на чинки. В итоге какой вариант сети лучше всего с такой задачей справится?
494 1902375
>>902274
Пока только охуеваем с людей которые как дети радуются очередной реинкарнации не очень складных бредогенераторов, не более.
495 1902379
>>902206
Началось маняотрицание. А картинки рисовал кубрик, наверное.
Какие же манёвры начнутся, когда апи дадут к модельке.
photo2021-01-0613-42-25.jpg106 Кб, 921x1008
496 1902400
>>902379
Кубрик рубрик
497 1902417
>>902379

>А картинки рисовал кубрик, наверное.


Картинки кто угодно мог рисовать, в том числе и самые примитивные алгоритмы, даже из шума всегда можно начерипикать удачные примеры.

>когда апи дадут к модельке.


Так а ты пошевели мозгами, почему тебе только определённый список разрешённых промтов показали.
498 1902426
>>902417
Переходи уже к депрессии и торгу, заебал
499 1902437
>>902426
Как же тебе рвёт, маня
Обновить тред
Двач.hk не отвечает.
Вы видите копию треда, сохраненную 4 мая 2021 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски