Этого треда уже нет.
Это копия, сохраненная 5 декабря 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №10 /ai/ 1281076 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем спрашивать очевидные вещи, о которых знает любой индус, прочитавший хоть одну книгу по машобу.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/ | Николенко и др. "Глубокое обучение" На русском, есть примеры, но уже охват материала
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.cf/thread/396055/
Остальные в предыдущих тредах

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1267390 (OP)
2 1281102
>>1281008
А как же нейроны перцептроны, все вот это. Как вы статистикой угадываете?

>>1280988
Не понял как твой ответ отвечает на мой вопрос? Поясни.
3 1281109
>>281102

>А как же нейроны перцептроны, все вот это.


ты по верхам нахватался какой-то хуйни. ну нельзя сделать стол, если не понимаешь и не умеешь работать с деревом, инструментами и тд. так и тут.
4 1281163
>>281102
У тебя какие-то абсурдные вопросы. Вот есть калькулятор, он тоже складывает, вычитает. Зачем вам компьютеры?
5 1281168
>>281102
Перцептрон это последовательность многомерных линейных регрессий, связанных между собой через нелинейное преобразование
6 1281173
>>281163

>Зачем вам компьютеры?


А зачем? С приходом компьютеров никакой промышленной революции не было, а вот деградация началась.
7 1281182
Level 1 - Not knowing about train/test split, evaluating on train set.

Level 2 - Always evaluating on test set.

Level 3 - Only using a test set when you're uncertain.

Level 4 - Knowing that you're good enough to not need a test set.
8 1281193

>Trevor Hastie et al. "The Elements of Statistical Learning"


Читал кто-нибудь? Мне кажется, он издевается над теми, кто пытается прочитать эту книжку самостоятельно. Почти за каждым знаком равно в любой формуле у него скрывается около страницы преобразований через свойства матожиданий и интегралов, а он даже никакими пояснениями не сопроваждает. Просто

>исходная формула


>= уже близкая к конечной промежуточная формула


>= конечная формула


Я должен ему верить на слово и пропускать или просто туповат и нормальным пацанам все очевидно, они раскрывают и преобразовавают за секунды в уме?
9 1281199
>>281193
Общепринятая практика. Если это не какое-то новое исследование, то обходятся без выкладок, иначе книги были бы раза в полтора толще.

>Я должен ему верить на слово и пропускать


Хочешь - верь, не хочешь - проверяй.

>нормальным пацанам все очевидно


Смотря что. Большая часть хуйни про преобразования выветривается напрочь уже через год, после того как ты её в вузике надрочил.
10 1281200
>>281193
Цитирую первую главу (Introduction):

>Who Should Read this Book


>We expect that the reader will have had at least one elementary course in statistics, covering basic topics including linear regression.


>As statisticians, our exposition will naturally reflect our backgrounds and areas of expertise.

11 1281202
>>281200

>We expect that the reader will have had at least one elementary course in statistics


У нас в униче была статистика. И регрессия, и оценки параметров, и проверки гипотез. Проблем особо не было. Но если я взгляну на какую-нибудь из простых формул, то уже не вспомню, как мы ее выводили на семинаре. А тут еще сложнее, потому что не какие-то популярные свойства выводятся, а специальные формулы для определенных задач.
12 1281214
>>281193
Ты туповат, потому что не умеешь абстрагироваться.
Представь себе обезьяну, которая видит в тексте что-то типа 31334*43434=1360960956 и начинает это всерьез проверять, и не может читать текст, не поняв, а почему 4х4 это 6 и 1 в уме.
Вывод формул это вообще последнее, что нужно в книжках.
13 1281217
>>281214
Ну да, чтобы закончить мысль: важнее понимать, что значат цифры 31334 и 43434 в моем примере, а дальше поверить на слово про вывод и понять уже, что следует из 1360960956. Промежуточные этапы уже не нужны.
14 1281231
>>281109
тебя тролят ну
нахуя вы этих пихвоидов кормите
15 1281232
>>281202
ну почти всегда от того что ты увидишь КАК произвели длинную цепочку преобразований с матрицами тебе легче не станет
очень хочется -- сядь сам их произведи, там ничего сложного не бывает, когда идею показали
1539893853693.png535 Кб, 700x560
16 1281245
Анон, помоги советом, не совсем по теме, но очень близко.
Попытался читать MIT'шную книгу Deep Learning на ангельском. Мой уровень B1-B2, но это ужасно долго выходит. На 5 страниц введения ушло 35 минут, так как раньше никакой литературы на английском не читал (пробовал Гарри Поттера от скуки, после страниц 10 забросил из-за недостатка прилагательных, коих в русском хоть голыми руками ешь).
Так вот вопрос. Вкатываться в дипльонинх особо не собираюсь, просто попробовать, лежит к этому душа или нет, так что во времени я не ограничен, но стоит ли начинать читать книги на чужом языке, прыгая прямо в машоб с головой? Может мне все же улучшить язык сперва, а потом уже переходить к таким вещам?
Пока читал, много раз ловил себя на мысли, что я перевожу целое предложение, и на это тратилось больше времени, чем когда я просто читал и думал на английском. Рефлекторно как-то оно выходило, когда встречал незнакомое слово и начинал его гуглтранслейтить. Может это через страниц 100 пропадет и я зря переживаю?
В общем дайте совет, чтобы я лишнее дело не делал, практика в английском посредством изучения машоба адекватное решение или я обосрусь и ничего не пойму?
17 1281252
>>281245

>Мой уровень B1-B2


>никакой литературы на английском не читал


Не верю.
Читай через силу, постепенно снизойдёт. Я так учил в десятом классе
18 1281258
>>281252
Ну я в далеком 2007 был слабым киберкотлетом и общался с англоязычным комьюнити на форумах и в тимспике. Потом на собеседованиях проходил тесты, которые давали, там и показало Upper-Intermediate. Так вот и получилось.
А по поводу художественной литературы ну очень не понравилось читать без родной описательной воды. Также часто читаешь, переводишь то, что непонятно, в словаре и думаешь: "Они сложили два слова и получилось новое, при том с другой, хоть и близкой, смысловой нагрузкой. И как мне это теперь понять, это далеко от привычного мне английский-хуиский, тут в разы сложнее конструкции."
Также этот геморрой с временами. Видел классный сайт (metod12.com), там алгоритмически расписано построение предложений англичанами, но на автомате я так делать никогда не умел, всю жизнь строил простые предложения и не мучал свои мозги, хотя это уже немного вдаль от моего вопроса.
И все же спасибо за ответ, постараюсь пересилить себя. Боюсь, что в начальных главах с математикой буду беспомощно болтыхаться, так как я её уже давно забыл, а каким образом её понимать на чужом языке я вообще понятия не имею.
19 1281261
>>281245
ИМХО вкатываться через эту книжку не очень
Начни проходить лучше cs231n пободрее будет
20 1281262
>>281261
Я только первую часть хотел прочесть, чтобы необходимые штуки из математики вспомнить/выучить. Дальше думал выбрать что-то другое. После того, как впитаю вышеуказанное, попробую следовать твоему совету, спасибо! Или лучше сразу пробовать cs231n?
21 1281274
>>281262

>сразу пробовать cs231n


Вкатывайся в пихвовекторизацию
22 1281303
Ну вот китайцы впихнули Instance Normalization в ResNet и улучшили на процент. https://github.com/XingangPan/IBN-Net
Это что, наука? Нет, это пляски с бубном.
23 1281304
>>281076 (OP)
Что делать, если мне не нравится машинное обучение, а "классическое" программирование?
За машобом будущее, все остальные программисты очень скоро станут не нужны. И что же мне делать, если я не хочу заниматься машинным обучением?
24 1281310
>>281304

> За машобом будущее, все остальные программисты очень скоро станут не нужны.


Бред же.

> И что же мне делать, если я не хочу заниматься машинным обучением?


Страдай.
25 1281312
>>281310

>Бред же.


Почему?
26 1281321
>>281303

>Это что, наука? Нет, это пляски с бубном.


Ой блядь, еще один верующий в науку, в непогрешимость и святых ученых, а сейчас людишки-то не те пошли. А потом появляются посты про "настоящие исследования", в которые ты не попадешь.

Наука так и устроена, прикинь. Вот блядь ровно так. Ты просто первый раз в жизни с ней столкнулся.
27 1281325
>>281168

>Перцептрон это последовательность многомерных линейных регрессий, связанных между собой через нелинейное преобразование


Получается, сеть из перцептронов, это что то вроде полиномиальной регрессии?
Можешь привести пример там где используется линейная регрессия и полиноминальная и где нужны нейронки уже с их бэкпропом, а то я чет не понимаю.
sage 28 1281329
>>281304

>Что делать, если мне не нравится машинное обучение, а "классическое" программирование?


Рузге 100 балаф.
29 1281332
>>281329

>Рузге 100 балаф.


Для грузана в пятерке достаточно.
30 1281345
>>281321

>Наука так и устроена, прикинь


Сейчас больше уклон в теоретику, профиты от этого матанопетушня давно пользует, а вот всякие физики относительно недавно.
31 1281370
>>281325

> Получается, сеть из перцептронов, это что то вроде полиномиальной регрессии?


А каждый нейрон с двумя входами представляет частную функцию от полного полинома. Потому что полином любой степени можно представить через суперпозицию частных функций от двух переменных. Это ещё в 50е годы доказали Арнольд и Колмогоров. А теперь мне тут рассказывают про то, что современный машобчик это дохуя новые технологии. Да все это статистика максимум середины прошлого века.
32 1281400
Не понял с чего вкатываться лучше: с http://www.deeplearningbook.org или с Pattern Recognition and Machine Learning. Вроде как в шапке написано что с первой, но ведь deep learning это подмножество ML, не логичнее начать с более широкой книги, а потом углубляться? Или я что-то не так понимаю?
33 1281410
>>281370
Как это частная функция от полинома? Ведь как правило у нейрона просто функция активации, которая на выходе дает 0/1. Или ты про какие то другие функции нейрона без активации?
Я не понимаю как из нескольких нейронов можно сделать полиноминальную функцию.
34 1281425
>>281400
Прочти обе, какие проблемы?
35 1281428
>>281214
Жиза пздц. И что делать?
36 1281431
>>281325

>Получается, сеть из перцептронов, это что то вроде полиномиальной регрессии?


Нет.
Линейная регрессия - это
y=A x
У тебя есть набор входов x, набор выходов y и матрица (линейное преобразование), которая связывает вход с выходом. Задача по x и y найти A.

Полиномиальная регрессия это
y=A f(x), где f - функция вектор->вектор (возможно большей размерности), которая, что важно, не имеет внутренних параметров, которые мы настраиваем. Поэтому посчитав z=f(x), мы сводим нашу линейной регрессию к y=A z и считаем в два этапа, сначала, зная x, находим z, потом умножаем на матрицу и находим y. Если не понятно в обобщенном формате, вот на практике:
У тебя есть координаты точек x и y, ты можешь вычислить z1=x^0, z2=x^2, z3=x^3 и решать уже эту регрессию, как будто z1,z2,z3 и т. д. это точки в более многомерном пространстве.

Перцептрон - это
y=h(W1 h(W2 x) ), где h - это функция активации, W1, W2 - параметры, которые нам нужно найти.
1. Зачем нужна функция активации? Потому что без нее было бы y=W1 W2 x, а произведение матриц является матрицей, то есть y = A x, где A = W1 W2. Иными словами, персептрон без нелинейной функции между слоями не имеет смысла, это все та же линейная регрессия.
2. Как это говно обучать? Находить производную и спускаться градиентным спуском. Способ поиска производной называется бэкпропом и недалеко ушел от школьной формулы f(g(x))=f'(g(x))*g'(x)

То есть, отвечая на твой вопрос, если моделируемая тобой функция линейная, то ты используешь линейную регрессию, если сводима к линейной через вручную заданное преобразование входных координат - полиномиальную, а если ты не хочешь и самое преобразование задавать, то нужна нейронка, каждый слой которой как-то преобразовывает пространство, облегчая задачу для следующего слоя.
37 1281432
>>281428
Вчитывайся в главное, пропускай несущественное.
38 1281433
>>281410
Это местный шизик, не образай внимания.
39 1281441
Чо сколько тут физтехов шадовцев эм ай тишников?
или только перекатывальщики из разнорабочих?
sage 40 1281474
>>281441
Все с пхд, кроме тебя.
1535723284161657036.jpg126 Кб, 1521x959
41 1281525
>>281274

> пихвовекторизацию


что это?
42 1281532
>>281425
Так в каком порядке читать эффективнее?
43 1281536
>>281532
С Бишопа, конечно. Но там процентов 80 уже устарело и не нужно, ты вряд ли сумеешь понять что актуально, а что нет. Да и фиг с ним - читай все, знания лишними не будут.
44 1281550
>>281536
Да говори уж правду, что там устарело все да и машоб ваш нихуя не работает кроме негров и котиков.
45 1281581
>>281550
У тебя бомбит - значит работает
46 1281591
>>281581

>У тебя бомбит


А чо бонбит? Давай машинку которая едет в городском трафике.
47 1281599
>>281591
Трафик - он же в оптоволокне. Как машина может ехать в оптоволокне, она же слишком большая, а волокно жесткое? Не говоря уже о том, что трафик это световые импульсы в волокне, в которых вообще непонятно как можно ехать.
48 1281613
>>281599

>ехать в оптоволокне


ты знаешь о чем я, но вот опять несешь хуйню. Давай тогда о НЛП поговорим?
49 1281641
>>281321

>Наука так и устроена


Поправочка: так устроены хуёвые науки, служащие просто для отращивания хирша ораве дармоедов на деньги налогоплательщиков. Если их убрать, человечество не проиграет.
50 1281642
>>281214
Ты зашел в противоположную крайность. Тяжело следовать твоему совету, когда в уме связь между двумя выражениями, записанными через равно, не прослеживается.
51 1281645
>>281642
Впрочем, я не хочу продолжать этот дискурс. Я искал в интернете вывод некоторых формул. Они нетривиальные и часто помимо применения свойств матожидания/матриц/интегралов содержат банальные, но хитрые арифметические фокусы, сводящие их к виду, в котором эти свойства можно применить. То есть если читать их в раскрытом виде, все просто и понятно, но они изначально не были рассчитаны на анализ читателем и понимание.
52 1281653
>>281645
Вполне возможно, что тебе просто не хватает опыта, и очевидное для всех преобразование уровня sinx^2 + cosx^2 = 1 тебя ставит в тупик, потому что тебе надо его выводить из определения синуса и косинуса, потому что ты ничего не знаешь.
53 1281673
>>281536

> С Бишопа, конечно. Но там процентов 80 уже устарело и не нужно,


Что там может устареть, свидетель сойбоев?
54 1281736
Можно ли с помощью машинного обучения создать в интернете работу типа грузчика в обыденной жизни? Есть же всякие human-based computation
55 1281737
>>281641
Ага, ненастоящий шотландец. Нет, все науки так устроены.
Там, где наука устроена не так, например, изобретен какой-то нетривиальный метод, типа открытия таблицы Менделеева, случается быстрая революция, но после этого все опять возвращается к случайному поиску, на которых кладут жизнь phd.
56 1281753
>>281645
Просто и понятно что? Ты, кажется, не понимаешь смысл формул. Формулы нужны тебе, не чтобы понимать их вывод. Более того, иногда даже саму формулу помнить не нужно. Достаточно помнить, что есть способ, что она есть, ее вход и ее выход. Точно так же, как в программировании - если бы я читал исходники всех библиотек, которым я пользовался, я бы охуел с сомнительным итогом.
Я полистал эту книжку, мне не понравилась, потому что мало того, что помогает интуиции. Слишком сжато. Лучше взять книжку по каждой теме и почитать отдельно.
револьвер.png519 Кб, 959x384
57 1281755
Даже Стетхем уважает нейронки
58 1281778
>>281737

>кладут жизнь phd.


пихди это куски бесполезного говна, науку двигают изобретатели
59 1281782
>>281778
По каким голливудским фильмам ты судишь о науке?
61 1281812
>>281782

>ты судишь о науке?


По фильмам о Тесле, братьях Райт, Дизеле ну и Добле.
62 1281815
>>281812

>братьях Райт


Можайский же
63 1281818
>>281812
Ну это примерно как судить о музыке по битлз, что вот есть звезды, они двигают науку, про них фильмы снимают. А остальные не нужны, их же никто не слушает.
Не от большого ума.
64 1281823
>>281818
Ну ок, что там толпы ученых-говноедов революционного понаоткрывали то за последнее время?
65 1281826
>>281823
Как поджечь тебе пукан
66 1281832
>>281826
Как?
67 1281833
Аноны, нужна помощь. Есть задача. Есть пары файлов с данными в виде массивов с числами. В 1 файле- массив размером 1000 на 10, во втором файле такие же числа+ в некоторых местах внесен паттерн путем сложения. С помощью какого алгоритма можно научиться определять в каких местах этого массива был введен этот паттерн и соответственно как его применить на неизвестные файлы?С помощью каких библиотек и функций сделать это в пайтоне?
68 1281834
>>281737

>Ага, ненастоящий шотландец. Нет, все науки так устроены.


Скорее угандиец, который претендует на то чтобы называться шотландцем.
"Так" это с одним и тем же процентом карьеристов марающих бумагу бесполезной ерундой, которую никто никогда не прочитает кроме рецензентов? Это неправда, процент везде разный: например, в гендер стадис и в машобе таких людей в разы больше чем в топологической k-теории или физике лазеров.
69 1281863
>>281834

>"Так" это


Нет. Так - это когда множество ученых работает над тем, чтобы улучшить результат на процент, в том числе (и в основном) нелюбимым тобой методом проб и ошибок. Потому что если бы у них в руках был другой метод, они бы его использовали и случилась революция. Но для революции нужен набор накопленных фактов, революции на пустом месте не появляются.

>например, в гендер стадис и в машобе таких людей в разы больше чем в топологической k-теории или физике лазеров.


Ты просто веруешь в это.
70 1281878
>>281863

>множество ученых работает


Эти хуеплеты природу магнетизма и заряда уже выяснили, или продолжают нести дичь?
71 1281978
>>281863
Ты как-то слишком серъёзно всю эту куновскую историю воспринял, на деле же успех этого твоего "метода проб" зависит от изначальной разумности всей этой деятельности.

>Ты просто веруешь в это.


Проверяется наблюдением за носителями.
72 1282024
Здравствуйте, мне нужно для МухГу научную статейку накатать. Уровень сложности, наверное, наилегчайший для знатока машинного обучения. Для МухГУ там накодить околонаучные результаты уровня Мухосранской науки.

Так вот подскажите, пожалуйста, если обратиться к какому-нибудь наемному программисту по машинному обучению для создания научной статьи, то сколько будет, примерно, стоить час работы такого умельца?
73 1282025
>>282024
P.S. Сам я хуй знает, но думаю за 10 часов такой умелец должен управиться. Ибо результаты он может даже из головы взять, главное чтобы они были хоть немного похожи на правду для старых МухГУшников.
74 1282041
Ну что, кто-нибудь уже вкатился без топового математического образования?
Логично, что нет, чо за хуета вообще, в датасаенс нельзя вкатиться, не проучившись 4 года в мгу/мфти/вше/спбгу

Поэтому срочно бросайте ваши шараги и всеми силами стремитесь поступить в топы
75 1282048
>>282041
Можно с диссертацией МухГУ вкатиться
76 1282052
>>282048
Фууу, шаражник.
У нас на работе таких очень сильно не любят. Практически весь коллектив закончил МГУ/МФТИ/ВШЭ, а к таким как ты очень презрительно относятся.
77 1282054
>>282052
Главное, что вкатиться можно, а остальное ерунда, тьфу, было бы кого бояться.
78 1282056
>>282054

>а остальное ерунда, тьфу, было бы кого бояться


Ну уж нет, лол. Когда в коллективе к тебе относятся как говну, не очень приятно, согласись.
А тут ребятки все в основном учились в топовых физматшколах, а потом в топвузах, поэтому у них и чсв не хилое. Я сам шаражник, попал в такую контору дс, так меня травили в коллективе просто не из-за чего, называли тупым и всячески оскорбляли.
79 1282080
>>282056

>травили


>называли тупым


>всячески оскорбляли


>все в основном учились в топовых физматшколах, а потом в топвузах


Святая толстота.
80 1282091
>>282080
Да ладно, это ты просто успешных альфачей математиков не видел.
У нас трое таких было. Один вообще при этом был спортсменом и спокойно мог прописать в ебыч кому угодно, тянки к нему липли как мухи. И при этом еще успешно выступал на олимпиадах по математике, которые ему потом дали льготу на поступление в вуз без экзаменов.

Но большая часть (половина класса) была аутистами-хикканами вроде меня и моих знакомых.

мимо проучился в физмате 4 года
81 1282116
Господа, помогите, пожалуйста, оценить, сколько часов займет серьезный вкат в машоб? Бекграунд: помидор-разработчик, а знаний математики хватит на поступление в шад.

Поступать в шад не хочу, потому что обучение будет длиться долго и не все курсы мне нужны. К тому же не хочу работать 70 часов в неделю.(40 часов на работе и 30 - в шад)

Суть плана в том, чтобы дропнуть работу и фуллтайм учиться. Но пока непонятно, сколько это может занять. Нужны ваши оценки. Я прикинул, что уйдет на это около 1000 часов. Оценка основана на загруженности шадовцев.

Что скажете?
82 1282129
>>282116

>дропнуть работу


>потратить год на машоб


>Что скажете?


Ебать дебил.
83 1282134
Всё верно, курсы нахуй. Зачем вообще курсы нужны? Это чистый развод на бабки маминых бизнесменов. Если появилась такая мысль, то я бы не задумывался дропнул ворку и вкатывался.
84 1282135
>>281978

>зависит от изначальной разумности всей этой деятельности.


Кто определяет разумность?
85 1282137
>>282129
В чем проблема? Если я могу не работать, то почему нет?
86 1282144
По каналу 2х2 сказали ,что наши отечественные прогроммисты с помощью нейросетей обновили разрешение (качество) старых советских мультов.
Насколько это сложно и примерно как это делается?
87 1282145
>>281755
теория графоф
88 1282149
>>282144
Распознаётся бибизьянка, тречется, накладывается ярый аджастмент. И т д
90 1282152
>>282150

>Сornell University


Вроде же наши придумали это ,сказали же
91 1282156
Насколько реально с помощью этих ваших нейроночек захуярить прибыльного бота на бирже или на ставках?
92 1282157
>>282091
Ну-у-у, ты что, когда он выебывался на тебя, то тебе надо было схватить его за грудки и сказать так: "Ты кто такой? Встреваешь тут? Или бабки мне хочешь поставить!? Кто ты такой чтобы запрещать мне нервничать!? Кто ты такой? Пришел тут, базаришь. Ты не авторитет для меня, понял? Я знаю где ты живешь, сколько ты зарабатываешь, где живет твоя жена. Я завалю тебя, понял. Душонка ты коммерсантская! Все базар окончен. Тьфу".
93 1282158
>>282091
>>282157
Ну или не жена, а тян. Он, наверное, молод был для женитьбы. Хотя альфачи рано женятся.
95 1282160
>>282156
Уёбывай отседова
96 1282161
Бля как же хочется эту технологию изучить. Но с моим английским и учитывая всю запутанность этого всего. Хуй знает как
97 1282162
Я не понимаю, вы траллите или где? В нейроночках чуть ли не школьный матан? (Возможно уже школьный, сейчас вроде в старшей школе добавили некоторые разделы, которые раньше только в вузах шли).
98 1282166
>>282156
Нейронка ищет закономерность. А в биржах и ставках там все слишком случайно, там все меняется все время.
99 1282167
Давайте запилим тред "Машоб: практика"? Надоело эту вашу поеботу читать.
100 1282169
>>282167
Всё сведётся к тому что кормовой анон будет опять просить софт для определения количества жуков в банке
101 1282171
>>282169
Так ему же не запилили софт, вы тут теоретики.
102 1282172
>>282171
Теоретики
103 1282173
>>282137
Тебя настолько не устраивает текущая работа, что ты готов потратить год на машоб? Ты ведь осознаёшь, что твой восторг довольно быстро пройдёт, и ты поймёшь, что это такая же рутинная область, как и другие?
Так-то за год вполне реально, я так с основ вроде линейной агрессии до ганов и прочей хуитки дошёл. Но у меня бакалаврская в ПМИ
>>282144

>Насколько это сложно


Не очень. Я в универе подобную фигню для курсача делал.
>>282171
Хуеретики. Во-первых, нашёл дурачков работать за идею, во-вторых, особо интереса для более-менее нормального спеца делать очередную распознавалку-детехтор нет, а направление куда копать ему указали.
104 1282174
Анон, выручай! Хочу вкатиться в диплернинг, писать код умею, базы данных знаю, но вот теоретических знаний 0. Где можно подтянуть матан? Какие книги читать?
105 1282176
Живя мы где нибудь в Финке на такую идею государство гранд бы отслюнявило, но увы. Кормовой анон сидит с листочком и тщетно пытается посчитать жуков.
106 1282177
Сколько стоит час работы джуниора по машинному обучению?
107 1282180
>>282177
Сейчас идет прямая трансляция от Яндекса, там сказали, что зарплата у джуна в ml до 120к. 80-120. Средняя зп в ml 200-250к. У всяких тех. лидов могут быть свыше 600-800к.
108 1282182
>>282180
Если они работают 4 недели в месяц, 5 дней в неделю по 8 часов, то выйдет 160 часов. Возьму между 80-120 тыс. у джуна, то есть 100 тыс. Делю 100 тыс. на 160 часов, выходит 625 рублей в час.
109 1282184
>>282180

>80-120


Какой-то гнилой пиздёж. Это у низ там внутри компании такие зп? Обычно такие вакансии максимум до 40, притом ты будешь ручным газонюхом, размечающим данные вручную и пишущим вспомогательные скриптики для взрослых дядь.
110 1282186
>>282182
Молодец. Садись, пять.

>>282184
Он ответил что в целом везде так. Потом его спросили что должен уметь джун, он ответил, что джун должен знать теорию, писать код на питоне, чтобы он хотя бы работал и знать sql.
111 1282187
>>282184

>ручным газонюхом, размечающим данные вручную


При чем тут джун по машобу?
112 1282188
>>282186

>Молодец. Садись, пять.


Ну я этим спросить хотел, на реальность походит 625 руб. в час?
113 1282190
>>282188
Фуллтайм не конвертируется в почасовую работу. Как минимум прибавь 40% налогов, которые ты будешь платить (или не платить) сам. Затем учти отсутствие отпуска и больничных. Короче, 1200 проси но тебе не дадут
114 1282192
>>282174
cs231n
115 1282193
>>282188
Я если честно, не знаю. Ну, а что плохо что-ли? Веб-макакам вон по 150-200 платят за хуй пойми что. Неплохая вроде зп для джуна.
116 1282194
>>282187
А на кого ещё это спихнуть? Я видел несколько таких вакансий
117 1282195
>>282194
На специальных людей, возможно на удаленке. Я студентов в воркаче находил, а в идеале я бы нанял РСП, которая с такой непыльной работы хуй уйдет куда. 40к вполне норм.
В любом случае наличие говновакансий в стиле "повар-унитазочист" не опровергает того, что человек с обязанностями повара должен получать больше, и что бежать от таких говновакансий нужно сразу, как только ты такую увидел.
118 1282198
>>282173

>Ты ведь осознаёшь, что твой восторг довольно быстро пройдёт, и ты поймёшь, что это такая же рутинная область, как и другие?


Осознаю. Но я нахожу эту сферу в целом более полезной обществу, чем, например, очередное бизнес деливери говно, которое декомиснется внутри компании через 2 года.
119 1282200
>>282173

>во-вторых, особо интереса для более-менее нормального спеца делать очередную распознавалку-детехтор нет


Нихуя у тебя ЧСВ, математик чтоли? Я не видел ни одной приемлемой распознавалки-детектора, помню распознавание деталюшек на транспортерной ленте была практически нерешаемой задачей. Хуйня этот ваш дипленинх.
120 1282202
>>282200
Шизик, съеби уже
121 1282204
>>282195

>я бы нанял РСП


Еще и ее пихвоид можно полизать.
122 1282205
>>282173

>особо интереса для более-менее нормального спеца делать очередную распознавалку-детехтор нет, а направление куда копать ему указали


Научились писать скрипты в десять строчек на питоне, и кичитесь своими знаниями, хуже байтоебов
123 1282206
>>282205
ТЫЖПРОГРАММИСТ
124 1282207
>>282202
Мне кажется ты только по книгам о машобе знаешь, правда?
125 1282208
>>282207
Шизик, перестань разговаривать с глюками в своей голове
1539796039276099049.jpg264 Кб, 700x863
126 1282209
>>282208
Матиматику ниприятно
127 1282211
>>282200
Что тебе нужно-то? Распознавать объекты? Кури компьютерное зрение, real-time object detection. Tenserflow/opencv/yolo/keras в помощь. Не забудь прихватить нормальную видеокарту. Инфы на англ. источниках более чем достаточно.
128 1282212
>>282190
>>282193
Не, я не просить. Я наоборот хочу наблатыканного вкатывальщика нанять часов на 10 для простой псевдонаучной псевдозадачи. Я знаю таких парней в ВУЗике, парни шарят, но не работают в машинном обучении, просто учатся. Хочу примерно представить сколько это может стоить. До тогда как обсужу с кем-нибудь из них цену, если они согласятся.
129 1282213
>>282198

>>Ты ведь осознаёшь, что твой восторг довольно быстро пройдёт, и ты поймёшь, что это такая же рутинная область, как и другие?


>Осознаю.


Зря ты ему поверил. Машоб намного менее рутинный, чем простой кодинг. Просто потому что тебе всегда есть, что автоматизировать, а полную рутину можно спихнуть кому-то неквалифицированному.
Фактически, как только твоя работа превращается в рутину, она начинает делаться автоматически - типа подбора гиперпараметров, который ты сначала пилишь руками, а потом открываешь для себя байесовскую оптимизацию.
С кодингом так не получится. Еще хуже с этим делом в инженернии, где тебе чертить нужно.
130 1282214
>>282205
Так все тру-прогеры - байтоебы. Веб-макака, ты?
131 1282215
>>282212
Лол, так бы сразу и сказал. Студентов можно наебывать как хочешь, особенно когда ты их нашел, а не они тебя. 500 в час это даже многовато, можно на 300 остановиться.
132 1282217
>>282213

>менее рутинный


Сколько статей в неделю читаешь?
133 1282218
>>282212
Другое дело, студент может и за еду работать на энтузиазме, ну это уж как повезет.
1539787887111271190.jpg64 Кб, 511x409
134 1282219
>>282211

>Tenserflow/opencv/yolo/keras в помощь


А ты смешной, это говно не работает, совсем-совсем. Хотя круг от треугольника через неделю обучения отличить сможет, да.
135 1282220
>>282219
Шизик, мы поняли твою позицию, можешь съебать, тебе здесь не рады
136 1282221
>>282213

> Еще хуже с этим делом в инженернии, где тебе чертить нужно.


Я мимопроходил. Я в ранней молодости, пока учился в ВУЗике работал на заводе и чертил чертежи. Все время туда сюда ногами ходишь, спрашиваешь, а как тут начертить, а как тут? Потому что это как понятия. Неписанный закон как чертить. А понятия - неписанные законы знают только те, кто понятия имеет. Идешь к авторитету, который знает понятия. И он говорит вот здесь так черти, вот тут так.
Все время надо было куда-то ходить к разным авторитетам, которые знают как разрулить твою задачу и попутно навешивают еще задачи.

Я в той юности был молодой и красивый. На Джастина Бибера был похож. Я когда увольнялся, то там одна тяночка, которая была несколько старше чем я, сильно расстроилась, она, наверное, думала, что я там надолго и найду ключ к лизанию ее пипирки. А я - дурак, думал, что я молодой и перспективный, найду работу лучше, чем на этом умирающем заводе.
137 1282222
>>282212

>из них цену, если они согласятся


Просто если они смогут использовать эту работу как диплом или еще как, то можно и бесплатно. Детей обманывать не тяжело.
138 1282223
>>282215
>>282218
Ну они работающие студенты. Реакт, пхп, все дела. Наверное, нормально заплатить надо. Просто я тут узнать хотел, сколько денег заготовить надо. Перед тем как их спросить, чтобы опорное число в голове было.
139 1282224
>>282220

>мы


Ты и твоя мамка?
140 1282225
>>282223
1.5-2х их текущей часовой ставки.
141 1282226
>>282222
Я омеган, я не умею обманывать. Нет, вся псевдонаучная теория уходит мне, к ним в дипломы не пойдет.
142 1282227
>>282223
10к за проект, доя студента очень норм.
143 1282228
>>282226

>псевдонаучная теория уходит мне, к ним в дипломы не пойдет.


А вот здесь тебя можно и наебать. Как ты предотвратишь утечку?
144 1282229
>>282217
Какой-то ебанутый пассивно-агрессивный вопрос. Ты сказать-то что хотел?
145 1282230
>>282228

> Как ты предотвратишь утечку?


Никак. Имел ввиду, что просто деньги заплачу. А отдавать результаты в дипломы не планирую. Типа так договорюсь на словах.
image.png417 Кб, 394x394
146 1282232
>>282229
Я заебался
vreti.jpg213 Кб, 960x760
147 1282233
>>282200

>Я не видел


>помню была


>Хуйня этот ваш дипленинх

148 1282235
>>282230
А почему дадничаешь? Заплати пол суммы и разреши использовать в дипломе. Всем будет хорошо.
149 1282237
>>282205

>писать скрипты в десять строчек на питоне


Деньги мне плати сначала, пидор.
150 1282239
>>282235
Потому что эта псевдонаучная фигня пойдет в сорт оф диплом мне. Как-то не айс будет, что все будут использовать в диплом одно и тоже. К тому же там ебаный стыд, они себе получше найду задачу.
1538412268131436914.jpg141 Кб, 700x463
151 1282240
>>282233
https://youtu.be/_1MHGUC_BzQ

Вот это максимальный максимум.
152 1282244
>>282240
Не фейк? Фреймрейт низкий же, очень. Я думаю у теслы повкуснее начинка должна быть.
153 1282245
>>282244
Причем теслы хуеслы, если сам кампутервижен на дне?
154 1282247
>>282245
Ну у нас же в оборонке нормально делают
155 1282248
>>282245
Это дно по-твоему? Очень даже ничего, главное что работает.

>>282247
У нас в оборонке вообще ничего не делают. Кукареки про камеры в ДС/ДС2 - пиздеж.
156 1282249
>>282248
Это местный шизик, у него все дно, что не терминатор из голливудских фильмов, а машоб свернул не в ту сторону в 1957 году
157 1282250
При этом о дипленинге у него представления на уровне мемасиков из ленты вконтактика
158 1282251
>>282232
Мало читаю. Смысл? По моей теме выходит не так много статей, а пытаться объять всё не вижу смысла. Ближайший год я точно не буду заниматься каким-нибудь машинным переводом, ну и нахуя мне все эти RNN.
Только когда у меня есть конкретная тема, я читаю по ней все доступные статьи, и их, как правило, около пары десятков. Читаю абстракт-результаты (секунд за 30), узнаю, что на 0.1% улучшен state of art двухлетней давности, который делается в 10 строчек на керасе, забиваю.
Гораздо важнее гитхабы чекать с опенсорсными реализациями. Вот это заебывает, да, знать 100500 фреймворков и их особенности, чтобы прочекать, как оно будет работать на моем датасете.
Самая подстава, когда в результатах статьи утверждаются какие-то чудеса, а на гитхабе нет реализации, и ты вынужден пилить ее сам. И шансов на успех мало, и гемора куча. Вот это заебывает - когда потратил неделю на статью, которая делает совсем не то, что заявляется, и ты не знаешь, то ли статья говно, то ли ты что-то не учел. Поэтому я стараюсь без опенсорсной имплементации вообще статьи не читать - здоровье дороже.
159 1282252
Кстати, а почему автопилоты пытаются запилить на чистом компутер вижине? Почему бы не чипировать машины для лучшего детектирования софтом? Например тогда можно будет сосредоточится на распознавании живых существ и местности в целом.
160 1282253
>>282248
Медленно и неточно. Говно короче.
161 1282255
>>282248

>У нас в оборонке вообще ничего не делают


Тебе-то откуда знать, петух?
162 1282256
>>282252
Там не чистый, там куча датчиков и еще карта есть. Типа робопидарантелей из бостонсдинамикс.
163 1282261
>>282256
Это понятно, я имею ввиду, ввести зондирование вообще всех машин. Чтобы датчики сигнализировали друг-другу. Это же вообще йоба будет.
164 1282263
>>282261
А потом на дороге появляется дядя Вася из колхоза и всем пизда. При том, что машину детектировать не очень сложно. То есть ты потратишь кучу денег на одну из самых легких задач.
165 1282265
>>282252

>Кстати, а почему автопилоты пытаются запилить на чистом компутер вижине?


Потому что это очень дешево. Так-то лучшее, что нужно для автопилота - лидар и немного вижна для знаков, поворотников, и прочей поеботы, но лидары очень дорого стоят (хотя наверное могут и дешевле при растущем спросе - хули там, лазер и детектор).
166 1282266
А какие вообще сейчас возможности у нейроночек и компьютерного зрения? Легко ли забабахать детект каких-нибудь помидоров на кластере?
167 1282269
Здравствуйте, подскажите, пожалуйста, фреймворки для нейронных сетей, которые поддерживают ускорение на GPU. Чтобы можно было на Google Colaboratory узреть ускорение.

Я тупой и так и не понял Keras поддерживает или нет ускорение на GPU? Или Keras без тензорфлоу бэкенда так не может?
168 1282270
>>282266
При наличии достаточно большого датасета можно добиться точности, выше человеческой. Соответственно делаешь примерно 10000 фоточек помидоров, нанимаешь в воркаче в толока-треде раба, который тебе это разметит, далее берешь сетку, могующую в object detection с гитхаба, обучаешь. В общем-то и все.
169 1282272
>>282270
Круто, спасибо. А сколько займет обучение на размеченном датасете? Возможно ли горизонтальное масштабирование?
170 1282274
>>282263
Так причем тут дядя Вася? Я имею ввиду, как дополнительную меру въебать в машину френдли чип, который будет сигнализировать софту на другой машине данные: координаты, точную скорость и прочее. Компутер вижн же не может точно определить расстояние, скорость и прочие хр-ки. Например чип в машинах полиции/скорой помощи будет сигнализировать об их важности и давать какой-то приоритет на дороге итп. Конечно для такого еще рано, но думаю, что будущие автопилоты должны обязательно иметь средства для взаимодействия друг с другом.
171 1282276
>>282274
Ты чего сказать-то хотел?
172 1282278
>>282269

>Keras без тензорфлоу бэкенда так не может


This. Накатывай тенсерфлоу.
173 1282280
Как правильно скомбинировать классический машинлёрнинг с задизайненными фичами, которые вроде как можно выделить но которых явно недостаточно, и RE чтобы из них новые фичи вывести?
174 1282281
175 1282283
>>282274
При том, что рассчитывать автопилот нужно на то, что на дороге будет дядя Вася. Даже если со временем будет стандарт на взаимодействие между компьютерными ИИ, дяди Васи никуда не денутся.
176 1282284
>>282276
Возмущаюсь почему нет обсуждения этой проблемы. Например: 2 машины на автопилотах встретились лоб в лоб и остановились, обе не едут, потому что видят перед собой другую машину. Без взаимодействия проблема не решается.
177 1282285
>>282272
От нескольких часов до недели. Не принципиально на самом деле, больше времени потеряешь на настройку гиперпараметров
178 1282289
>>282283
Дядя Вася человек или что ты имеешь ввиду? Так он будет компутер вижином обрабатываться и как раз зондирование поможет сделать основной акцент на детектировании живых существ. Я же писал выше. Я не предлагаю полностью отказаться от компутер вижина, а предлагаю использовать гибридные технологии, которые будут взаимодействовать друг с другом.
179 1282296
>>282289
Дядя Вася - владелец машины без твоего чипа
180 1282299
>>282278
Спасибо большое.
181 1282300
>>282289
Блокчайн трафик, гыгы
182 1282305
>>282296
В моем представлении зондирование обязательная мера. Если уж такой индивид появился, то опять же, компутер вижин его обрабатывает, но без учета точных хр-к. + вызывает полицию и сообщает о нарушение, ведь зондирование, обязательно!.
183 1282307
>>282305
Подскажи ротенбергу такое. Без шуток.
184 1282308
>>282305

>ведь зондирование, обязательно!


Лейтенант Пучков, сегодня вечером заходите за повышением.
185 1282310
>>282307
вротанберу
186 1282311
>>282308
Они не будут подключены к какой-то глобальной сети тогда мамины хакеры и фбр начнут ахуевать, а будут сканировать пространство вокруг себя на наличие данных.
187 1282321
Предлагаю вставлять зонды в жопы математикам, чтобы можно было их детектировать на улице.
188 1282325
>>282321
Все кто может посчитать 1+1 это математики?
189 1282330
Пиздец, поступил на пми, думал, что тут будет машоб, а на деле какая-то хуита: матан, дискран, алгебра и тч, геометрия и топология. Ботаю до усрачки, еле успеваю. Статистика будет аж на 3 курсе, да и то, про датасаенс там нихуя не будет скорее всего.
И что теперь с этим всем делать? Пытаться начать делать что-то самому?
190 1282331
191 1282332
192 1282334
>>282330
Бля то что ты перечислил это капец. Успеешь наверно только содержание за три когда по каждому направлению прочитать.
193 1282336
>>282334

>Успеешь наверно только содержание за три когда по каждому направлению прочитать.


Ну конкретно в моем месте ебут довольно сильно, поэтому приходится подробно изучать все это. Но там потом статистика пойдет, я вот думаю, можно ли как-то ее применить в машобе?
194 1282341
>>282330
А ты думал тебя на 1 курсе научат нейроночки деплоить? Пиздец необучаемые, зачем вы лезите в эту универопарашу в 2018 году? Даже курсы на всяких гикбрейнс информативней.
195 1282342
>>282330
Терпеть. Не служил не мужик и все такое.
196 1282343
>>282330
Куда поступил?
197 1282344
>>282341

>зачем вы лезите в эту универопарашу в 2018 году?


хуй знает, отсрочка от армии и способ съебаться из мухосрани и от мамки
ну и математика всегда немного интересовала
не скажу, что мне сейчас хуево и неитересно, просто тяжело немножко
>>282343
мм спбгу
198 1282347
>>282344

>мм


О, в пунке сейчас? Го читать статьи и в попчанский няшиться.
199 1282395
>>282336

> Но там потом статистика пойдет, я вот думаю, можно ли как-то ее применить в машобе?


Машоб и есть статистика, считай.
200 1282398
>>282395
Это так статистики думают.
201 1282401
>>282398
А что тогда машоб на самом деле?
202 1282405
нейрночки на жс кто-нибудь пробовал?
203 1282410
>>282401
На самом деле химера, слепленная из статистики, комбинаторики и методов оптимизации.
204 1282497
>>282410
А в чем тайна, почему эта химера не хочет работать?
205 1282553
>>282395

>статистика


Надоело слышать статистику смертей. Во всем виноваты вы, злые языки. Злые языки, сука.
206 1282564
>>282497
Работает, но хреново
207 1282581
>>282213
в обычном софтевейа инжиниринг никогда не работал, но мне лично больше нравится просто аутировать и писать скрипты, чем решать машобские задачи
1538478342120013721.jpg50 Кб, 807x420
208 1282735
>>282564

>Работает, но хреново


Есть предположения, почему это так?
209 1282763
>>282497
Почему не работает-то? Работает.
211 1282771
>>282763
Где оно работает?
212 1282800
>>282766
в машобе такие же зарплаты, что и у обычных разработчиков. Что в рашке, что в Microsoft. И машоб в любой компании идет бонусом к знаниям-cs. Так что стив мейн - просто обиженка.

Поговорил со скриншотом твиттера
213 1282809
>>282735

>Есть предположения, почему это так?


Есть. Алгоритмы обучения хреновые.
214 1282815
>>282809

>Алгоритмы обучения хреновые.


Почему их не пидорнули и не запилили новые? Слишком много PhD в этом замешано?
215 1282818
>>282735
Потому что https://en.wikipedia.org/wiki/AI_effect
ML работает неебически охуенно, просто всегда будут пидорахи с когнитивными искажениями, которые будут ныть о том, что это все не то
216 1282819
>>282818

>работает неебически охуенно


https://primer.ai/blog/Russian-Natural-Language-Processing
217 1282822
>>282818
Простая флексия незнакомая англопидарахам подила на ноль весь их йобааи
15399311211460.jpg60 Кб, 700x734
218 1282823
>>282766

> фотка


Сойбой!
219 1282824
>>282819>>282822
Вот собственно пример таких пидорах
220 1282827
>>282824
Тебе по ссылке скинули реальную проблему, а ты продолжаешь вертеть попкой.
221 1282828
>>282827
Как твоя ссылка опровергает мои слова?
222 1282829
>>282823

>Бородатый мужик в очках


>РЯЯЯЯ СОЙБОЙ МАААМ СМОТРИИ КАКОЙ МЕМАСИК КЛЕВЫЙ

223 1282830
>>281304

>> все остальные программисты очень скоро станут не нужны



Что натолкнуло тебя на эту мысль?
Ты же понимаешь, что если "нейроночки" разовьют до того, что они смогут писать бизнес код, то они смогут делать и многое другое, и тогда все по сути станут не нужны (кроме гей-пидаров, конечно)
224 1282834
>>282815

>Почему их не пидорнули и не запилили новые?


Не могут. Естественного интеллекта не хватает.
225 1282835
>>282198

Никого не слушай, братан, вкатывайся. Сам сейчас стараюсь вырвать момент на заебавшей бизнес-параше с перекладыванием одних скриптов на другие чтобы посмотреть кусочек курса по диплёрнинху
226 1282836
>>282834

>Естественного интеллекта не хватает.


Ну они же могут сказать "стоп, мы обосрались, возвращаемся"? Или это как в физике, релятивисты начинают городить ебаную поебень, лишь бы не признать наличие эфира?
227 1282838
>>282828
А как ML работает неебически охуенно относится к теме по ссылке?
228 1282839
>>282836

> Или это как в физике, релятивисты начинают городить ебаную поебень, лишь бы не признать наличие эфира?


Воу. Так антиэмельщик еще и кефирщик. Впрочем, неудивительно.
229 1282840
>>282497
Шизик, как же ты заебал
230 1282844
>>282838
То, что всегда найдутся шизики, у которых "так, эту проблему решили, но это НЕНАСТОЯЩАЯ ПРОБЛЕМА. Ой, и эту проблему решили? Ща... А, это тоже ненастоящая проблема. Ой, и эту проблему решили? Ща... А, это тоже ненастоящая проблема. Ой, и эту проблему решили? Ща... А, это тоже ненастоящая проблема. Ой, и эту проблему решили? Ща... А, это тоже ненастоящая проблема"
И так далее. Типичный AI effect.
231 1282847
>>282839

>Впрочем, неудивительно.


За эл. заряд пояснишь, ну или за скорость распросстранения гравитации?
>>282844

>проблему решили


Ты до сих пор не показываешь, какую такую проблему вы уже ришили?
232 1282848
>>282847

>уже ришили


З.ы. окучивание лохов курсами несчитово, ага
233 1282849
>>282847

>Ты до сих пор не показываешь, какую такую проблему вы уже ришили?


Потому что шизика можно только обоссать, очевидно же. Чем скорее ты съебешь из этого треда, чем лучше.
234 1282851
>>282849
Тагда я буду здесь срать и угорать над окукленными лошками, сколько посчитаю нужным.
235 1282856
>>282851
Ой блядь испугал. Сколько вас таких шизиков было, от золотца с его "покажи мне бесконечность", до кефирщиков в /sci/. Борды таких привлекают - ведь сообщения анонимные и можно прикинуться человеком ради небольшого внимания. До очередного детектирования.
Это просто момент гигиены, видишь шизика - обоссы его, чтобы нормальные люди отошли подальше от носителя вони.
236 1282859
>>282856
Эко тебя бонбонуло, вот такие как ты и не могут признать свой обсер с подливой
237 1282862
>>282859

>тебя бонбонуло


Ньюфажек
1535384750156697094.jpg183 Кб, 700x933
238 1282864
>>282862
Ребенок-теоретик
239 1282865
>>282836

>"стоп, мы обосрались, возвращаемся"


Куда возвращаться? Машоб не в тупике, прогресс есть небольшой, нет понимания, куда двигать дальше.

>релятивисты начинают городить ебаную поебень


Ну в общем да, я тоже не считаю их теорию самой удачной.
240 1282870
>>282865

>Куда возвращаться?


Разве альтернатив не было? Я вот за ЭС топлю, даже думаю, что факты можно автоматически генерировань на основе статистики.
241 1282873
>>282870

>за ЭС


Так это частный случай нейроночки
242 1282874
>>282865

>Машоб не в тупике, прогресс есть небольшой, нет понимания, куда двигать дальше.


Нихуя себе нет понимания. В других бы науках не было такого понимания.
Как ты вообще себе представляешь это понимание? Типа, сидят 20000 ученых, и у них есть понимание. Ну окей. Они, правда, нихуя не делают (если сделают, то понимания уже не будет), но хули, вот и сидят. Наука по определению работает с чем-то непонятным, иначе это не наука.

Что касается того, куда двигаться дальше - в one shot learning прежде всего. Потому что задачи, требующие больших датасетов - уже инженерия. И модные нынче ГАНы это как раз шаг в сторону one shot learning.
243 1282886
>>282874
Ну понятно , что есть два пути - менять архитектуру, менять алгоритм обучения.
Менять архитектуру - как? Пробуют слои какие-то вставлять, и так и эдак, у кого-то получается иногда. Каждый китаец по разу ткнет, глядишь и получится что-то. Гугл перебором генерировал. Тоже сомнительный метод.
Алгоритм обучения - что с ним делать? backpropagation мусолят уже столько лет. То регуляризаторы покрутят, то лосс, то оптимизатор. Результат не сказать, чтобы радикально отличался. Как оно в мозгу обучается, кто знает?
one shot learning - это просто более высокий уровень. Прогнали через энкодер, запомнили фичи, проиндексировали - вот и все. Но перед этим нормальный энкодер нужно сделать, и тут возвращаемся к исходной проблеме.
1540207449159687426.jpg44 Кб, 700x533
244 1282892
>>282873
Почему? Ведь тем нет рендома, статистики, черного ящика, сплошная логика понятная даже ребенку.
245 1282909
>>282892
Потому что ЭС это нейронка на ручном обучении. Рэндома, статистики, черного ящика нет, потому что ты её готовыми фичами кормишь.
А логика внутри всех нейронок есть.
246 1282917
>>282909

> ЭС это нейронка на ручном обучении.


нет, там правила логического вывода, называемые продукцией, нейронками там и не пахнет.
247 1282925
>>282917
значит ты не понял нейронки
248 1282928
>>282886

>Менять архитектуру - как? Пробуют слои какие-то вставлять, и так и эдак, у кого-то получается иногда. Каждый китаец по разу ткнет, глядишь и получится что-то. Гугл перебором генерировал.


Ну, допустим, завтра изобретут какой-то революционный метод. Перформанс улучшится. Уже послезавтра ты начнешь ныть, что нихуя нового не изобретают. И так по кругу.
Тут претензии к китайцам, потому что вы долбоебы натуральные. Прикол IBN-Net же не в "0.2%" перформанса, а в том, что "When applying the trained networks to new domains, e.g. from GTA5 to Cityscapes, IBN-Net achieves comparable improvements as domain adaptation methods, even without using data from the target domain."
То есть чуваки решают ровно ту задачу, о которой тут принято плакаться, а именно, как обучать сетки без гигантских датасетов. А маньки видят 0.2% и все, маньякам ничего не интересно. Ведь они у мамы самые умные, а китайцы, хули, обезьяны, которые слепо тычутся и не видят, что МАЩИНЛЕНИНГ В ОПАСНОСТИ. ИДЕТ НЕ ТУДА. ЗАСТОЙ.

>Тоже сомнительный метод.


Сомнительный для кого? Практически вся наука, будь то разработки новых материалов, технологий и т. д. - это ровно такой метод. Был какой-нибудь кевлар, какой-нибудь китаец нашел способ получить кевлар немного прочнее и сэкономить, например, миллион долларов. За десятилетия копится прогресс - вроде бы айрбас похож на ил-86, однако на илах уже не летают - невыгодно.
Потому что время революций в большинстве наук прошло еще лет 100 назад. Нам повезло жить во время революции в ML (а до этого - железа, интернета и сотовой связи). Но рано или поздно она остановится. Но пока - нет. Пока лично я не успеваю имплементировать все то охуенное, что делается в сообществе. По сути моя сетка это год 2016 примерно.

>То регуляризаторы покрутят, то лосс, то оптимизатор.


>Результат не сказать, чтобы радикально отличался.


Ну нихуя себе. С дивана да, не отличается. А на практике ты обучешь сетку не 24 часа, а час, перейдя с SGD на какой-нибудь AdamW. Прогресс "всего лишь" в 24 раза. Но маньки скорее повесятся, чем признают, что где-то есть прогресс без их любимых.
Та же хуйня со способами инициализации. Грамотная инициализация из свежего пейпера может сократить мне время обучения на пару порядков. Но тебе, как маньке с дивана, этого видно не будет, потому что ты дрочишь только на циферки перформанса на попсовом датасете, шовинистически относишься к китайцам и являешься долбоебом и с других сторон.

>one shot learning - это просто


Ну раз просто, то вперед, пиши пейперы. Мне вот не просто.
248 1282928
>>282886

>Менять архитектуру - как? Пробуют слои какие-то вставлять, и так и эдак, у кого-то получается иногда. Каждый китаец по разу ткнет, глядишь и получится что-то. Гугл перебором генерировал.


Ну, допустим, завтра изобретут какой-то революционный метод. Перформанс улучшится. Уже послезавтра ты начнешь ныть, что нихуя нового не изобретают. И так по кругу.
Тут претензии к китайцам, потому что вы долбоебы натуральные. Прикол IBN-Net же не в "0.2%" перформанса, а в том, что "When applying the trained networks to new domains, e.g. from GTA5 to Cityscapes, IBN-Net achieves comparable improvements as domain adaptation methods, even without using data from the target domain."
То есть чуваки решают ровно ту задачу, о которой тут принято плакаться, а именно, как обучать сетки без гигантских датасетов. А маньки видят 0.2% и все, маньякам ничего не интересно. Ведь они у мамы самые умные, а китайцы, хули, обезьяны, которые слепо тычутся и не видят, что МАЩИНЛЕНИНГ В ОПАСНОСТИ. ИДЕТ НЕ ТУДА. ЗАСТОЙ.

>Тоже сомнительный метод.


Сомнительный для кого? Практически вся наука, будь то разработки новых материалов, технологий и т. д. - это ровно такой метод. Был какой-нибудь кевлар, какой-нибудь китаец нашел способ получить кевлар немного прочнее и сэкономить, например, миллион долларов. За десятилетия копится прогресс - вроде бы айрбас похож на ил-86, однако на илах уже не летают - невыгодно.
Потому что время революций в большинстве наук прошло еще лет 100 назад. Нам повезло жить во время революции в ML (а до этого - железа, интернета и сотовой связи). Но рано или поздно она остановится. Но пока - нет. Пока лично я не успеваю имплементировать все то охуенное, что делается в сообществе. По сути моя сетка это год 2016 примерно.

>То регуляризаторы покрутят, то лосс, то оптимизатор.


>Результат не сказать, чтобы радикально отличался.


Ну нихуя себе. С дивана да, не отличается. А на практике ты обучешь сетку не 24 часа, а час, перейдя с SGD на какой-нибудь AdamW. Прогресс "всего лишь" в 24 раза. Но маньки скорее повесятся, чем признают, что где-то есть прогресс без их любимых.
Та же хуйня со способами инициализации. Грамотная инициализация из свежего пейпера может сократить мне время обучения на пару порядков. Но тебе, как маньке с дивана, этого видно не будет, потому что ты дрочишь только на циферки перформанса на попсовом датасете, шовинистически относишься к китайцам и являешься долбоебом и с других сторон.

>one shot learning - это просто


Ну раз просто, то вперед, пиши пейперы. Мне вот не просто.
249 1282947
>>282925

>значит ты не понял нейронки


Я их и не понимал и не собираюсь, предпочитаю заниматься тем, что работает. Но полагаю, ты хочешь сказать, что нейронки это статистические выведенные правила? Если так, то опять к ЭС это не относится.
250 1282948
>>282947

>предпочитаю заниматься тем, что работает


Чем?
251 1282955
Безымянный.png8 Кб, 831x130
252 1282964
>>281076 (OP)
нейронки знатный тригер для швабропидарах
253 1282966
Можно нейрончиками обмазаться, если я знаю лишь язык C ?
254 1282974
>>282955
Ну и как успехи?
255 1282976
>>282928
Очевидно, у нас разные взгляды на научные открытия. Для меня это - физические законы, подтвержденные теории, закономерности, какие-то новые факты об устройстве мира. То, что дает понимание и новые знания. А не "мы сделали чо-то и улучшили на процент". Почему так, а не иначе? А как оно работает? Это оптимальный метод, или можно еще улучшить? А не повлияет ли этот метод негативно в других условиях? Может он имеет какие-то ограничения и недостатки? Нужно как макака, просто повторять, и не задавать вопросов?
Я согласен, что делать что-то надо, хотя бы рашить, и нужно делиться опытом. Дрочить на этот процент, выдавать его за его изобретение - твое право, но я не буду, я перфекционист с дивана, да.
Про китайцев и шовинизм вообще мимо, шутка была что их много, а так-то в каждом первом пейпере китайские фамилии. Они еще раньше людей ИИ сделают.
256 1282980
>>282974
Очень хорошие, но я в области НЛП, там такой пиздец, что приходится велосипедить простейшие вещи, поскольку ученые-в говне моченые не хотят делится своими наработкамипидоры
257 1282981
>>282980
Какую проблему решил?
258 1282984
>>282981
Построение дерева зависимостей Теньера на основе ЭС показало свою состоятельность и простоту реализации.
259 1282985
>>282984
Понятно, нихуя ты не решил.
260 1282988
>>282985
Ну ОК, считай так.
261 1282998
>>282976

>Очевидно, у нас разные взгляды на научные открытия.


Потому что ты потребитель, и взгляд у тебя сытого бюргера. Дайте мне все и сразу, как в седьмом классе было. И взгляды у тебя человека, который никогда банальной историей науки не интересовался.
Физические законы? Ок. Возьмем тяготение. Сначала Тихо Браге годами наблюдал за звездами, потом Кеплер вывел эмперические законы (вот оно так, а почему - хуй знает), потом Ньютон обобщил их до чего-то более-менее приемлемого.
И все это время существовал ты - сначала, пиздел, что Тихо Браге тупо проедает государственные харчи и вообще тупой лжеученый (много ли надо ума цифры записывать?), потом что Кеплер на самом деле нихуя не понимает и записал какую-то хуйню про площади секторов у эллипсов, а потом, что Ньютон, который свел все в элегантную формулу, виноват в том, что так и не объяснил, откуда берется гравитация, а значит вся его работа бесполезная хуйня, не то, что Библия, где все в первых нескольких абзацах написано (в атестическом настоящем вместо Библии - религия под названием "наука", со святыми учеными в прошлом и меркантильными пидарасами в настоящем, которые тупо проедают харчи, нихуя не понимают и вообще ни одной проблемы не решили).
И это еще более-менее хорошая история.
Вот есть наука химия, она в теории сводится к квантовой механике. Но
1. Химия была и до квантовой механики. То есть глубинных процессов не понимали, а химия была. И ты ныл о том, что химики сами не знают, что делают.
2. Решать химические задачи через квантовую механику - оверкилл, так никто не делает. То есть все знают, что оно должно получаться, но на самом деле никто не проверял, точное решение есть только для водорода, численные решения непомерно сложны. И ты до сих пор ноешь, что новые модели аккумуляторов медленно появляются. Хотя казалось бы - в отличие от ML, все нужные теории есть, бери и предсказывай без опытов, но оказывается, что теории настолько сложны, что натурные эксперименты проще.

>То, что дает понимание и новые знания. А не "мы сделали чо-то и улучшили на процент".


Так в пейпере написано очень много по этому поводу. Если ты этого не видишь, кто в этом виноват?
Вся мякотка в том, что люди думали, анализировали статистики разных слоев, и придумали, и ход их мыслей интереснее результата. А ты думаешь, что "Пробуют слои какие-то вставлять, и так и эдак, у кого-то получается иногда". Ну типа, не могут же люди быть не то, что умными, а умнее тебя. Точно рандомом тыкают, макаки эдакие, и вообще у них там заговор тупых.

>Дрочить на этот процент, выдавать его за его изобретение - твое право, но я не буду, я перфекционист с дивана, да.


Что значит - дрочить? У меня есть нейронка, которая делает свою работу лучше всех в мире и решает проблему, которая несколько лет назад считалась нерешаемой. Это несложно, благо революция случилась пару лет назад и сейчас ты просто берешь и адаптируешь подход к чему угодно, и он выстреливает. Если я попробую добавить их подход, возможно она станет еще лучше.
261 1282998
>>282976

>Очевидно, у нас разные взгляды на научные открытия.


Потому что ты потребитель, и взгляд у тебя сытого бюргера. Дайте мне все и сразу, как в седьмом классе было. И взгляды у тебя человека, который никогда банальной историей науки не интересовался.
Физические законы? Ок. Возьмем тяготение. Сначала Тихо Браге годами наблюдал за звездами, потом Кеплер вывел эмперические законы (вот оно так, а почему - хуй знает), потом Ньютон обобщил их до чего-то более-менее приемлемого.
И все это время существовал ты - сначала, пиздел, что Тихо Браге тупо проедает государственные харчи и вообще тупой лжеученый (много ли надо ума цифры записывать?), потом что Кеплер на самом деле нихуя не понимает и записал какую-то хуйню про площади секторов у эллипсов, а потом, что Ньютон, который свел все в элегантную формулу, виноват в том, что так и не объяснил, откуда берется гравитация, а значит вся его работа бесполезная хуйня, не то, что Библия, где все в первых нескольких абзацах написано (в атестическом настоящем вместо Библии - религия под названием "наука", со святыми учеными в прошлом и меркантильными пидарасами в настоящем, которые тупо проедают харчи, нихуя не понимают и вообще ни одной проблемы не решили).
И это еще более-менее хорошая история.
Вот есть наука химия, она в теории сводится к квантовой механике. Но
1. Химия была и до квантовой механики. То есть глубинных процессов не понимали, а химия была. И ты ныл о том, что химики сами не знают, что делают.
2. Решать химические задачи через квантовую механику - оверкилл, так никто не делает. То есть все знают, что оно должно получаться, но на самом деле никто не проверял, точное решение есть только для водорода, численные решения непомерно сложны. И ты до сих пор ноешь, что новые модели аккумуляторов медленно появляются. Хотя казалось бы - в отличие от ML, все нужные теории есть, бери и предсказывай без опытов, но оказывается, что теории настолько сложны, что натурные эксперименты проще.

>То, что дает понимание и новые знания. А не "мы сделали чо-то и улучшили на процент".


Так в пейпере написано очень много по этому поводу. Если ты этого не видишь, кто в этом виноват?
Вся мякотка в том, что люди думали, анализировали статистики разных слоев, и придумали, и ход их мыслей интереснее результата. А ты думаешь, что "Пробуют слои какие-то вставлять, и так и эдак, у кого-то получается иногда". Ну типа, не могут же люди быть не то, что умными, а умнее тебя. Точно рандомом тыкают, макаки эдакие, и вообще у них там заговор тупых.

>Дрочить на этот процент, выдавать его за его изобретение - твое право, но я не буду, я перфекционист с дивана, да.


Что значит - дрочить? У меня есть нейронка, которая делает свою работу лучше всех в мире и решает проблему, которая несколько лет назад считалась нерешаемой. Это несложно, благо революция случилась пару лет назад и сейчас ты просто берешь и адаптируешь подход к чему угодно, и он выстреливает. Если я попробую добавить их подход, возможно она станет еще лучше.
262 1283002
>>282998
Бро, где работаешь, чьо пилишь?
263 1283005
>>282998

> которая делает свою работу лучше всех в мире


кокую работу?
15398824515452.jpg223 Кб, 1280x720
264 1283123
>>282829

>Бородатый мужик в очках


>РЯЯЯЯ СОЙБОЙ


Заебала эта мода среди ебланов. Каждый первый обмудок с пидарской бородкой и в очках. Я ни одного нормального человека не знаю с такой внешностью, пикрелейтед лук - 100% детектор долбаеба. Естественно, ни один учёный так выглядеть не может, я к этому веду.
265 1283124
>>283123

> с пидарской бородкой


Так это просто у него нормальная мужская борода еще не растет
266 1283176
>>283123
Все ученые бреются налысо и также напрочь сбривают усы и бороду.
267 1283207
>>283176
Может ещё тело бреют? Как порноактёры. Гей-порноактёры
268 1283229
>>282998
Так значит, я многого хочу? Возможно, что и так. Но сейчас такие благоприятные условия для науки - глобализация, информационная сеть. Это же не средние века, когда веками смотрели в трубу на звезды.
Я рад, что ты из этих пейперов видишь ход мыслей их авторов. Я вижу только введение, одну-две формулы с пространными объяснениями, сравнение метода с конкурентами, пару графиков и картинок, конклюжн, и всё. Одно из двух - либо я тупой, либо там никакой теории и анализа нет.
Часто бывает, что появляется новый метод, и старые тут же становятся неактуальными, про них все забывают. А ведь это тоже был чей-то труд, и когда-то считался открытием.
Я не умаляю заслуг ученых. Накопление информации для анализа - тоже наука, даже такая, как запись движения звезд, или смешивание говна с мочой в пробирке.
Но если машоб сейчас на уровне Тихо Браге в астрономии - это очень печально, так как это самое начало пути.
269 1283233
>>282836

>> эфир



Я надеюсь это такая толстота, пихводоёб?
270 1283246
>>282928

Невозможно что-то доказать шизику. Это из той же обоймы, которые в медицине будут доебывать: "А чёй-то вы рак ещё не вылечили? Ну подумаешь выживаемость повысили на 1% и риск заболевания на 5%, но не победили значит БЕСПОЛЕЗНЫМ говном занимаетесь, нет бы сразу всё ррррряяяя!"
271 1283259
>>283246
Вот не надо примазываться к медицине. У них там исследования стоимостью в миллиарды, и огромный накопленный опыт. А нейронки задрачивать может каждый китаец. Я год назад пробовал делать InstanceNormalization, вставлял куда придется, и даже что-то начало получаться, но я забил. Мне не хватило ума/настойчивости/везения, а кому-то хватило. Никакого бугурта по этому поводу не испытываю, но и наукой не считаю.
272 1283263
>>283259

>Мне не хватило ума/настойчивости/везения


> наукой не считаю



Теперь понятны корни обиды
273 1283294
>>282819
ты даже статью не смог прочитать, которую прикрепил.

> Some language models should not be blindly trained on input data without first taking all the nuances of the language into account.


Сначала лемматизируешь все с rnnmorph, затем на этом обучаешь fasttext, и будут нужные результаты, где леммы алкогольных напитков будут близки. Просто нельзя забивать гвозди одним и тем же микроскопом, не подкручивая параметров.
274 1283298
>>282984
abbyy уже сделали компрено, теперь везде применяется
275 1283313
>>283229

>Но сейчас такие благоприятные условия для науки - глобализация, информационная сеть


Это благоприятные условия для науки, а не для ученых. Все происходит очень быстро, быстрее, чем может переварить человек. Вообще ML это прежде всего отказ от долгой публикации к пользу препринтов на архиве. Например, пока эта статья https://ieeexplore.ieee.org/document/7444187 публиковались (где-то год), вышло несколько препринтов, которые сделали ее не очень полезной, например, они проспали ResNet.
Это немного демотивирует, как и то, что любая твоя идея скорее всего имплементирована и проверена кем-то. Просто по закону больших чисел. Но науке - заебись.
А ученому выгодно противоположное. Ему выгодно быть председателем какого-нибудь королевского общества, чтобы вокруг не было конкурентов, а он один сидел такой умный и красивый и работал годами над идеей не спеша.
Отсюда растет феномен лженауки - в науке большая конкуренция, значит я создам свою, настоящую науку со шлюхами и блекджеком.

>Одно из двух - либо я тупой, либо там никакой теории и анализа нет.


И из двух теорий
1. Ты - тупой, как минимум - недостаточно опытный
2. В мире имеется заговор, а именно сотни ученых пользуются незаслуженной славой, деньгами и т. д., а призаваемые ими результаты - не результаты.
Ты выбираешь второе. В ней ты умнее 99.9998% людей. Или честнее 99.9998% людей. Мм, и какова вероятность этого?

>Я вижу только введение, одну-две формулы с пространными объяснениями, сравнение метода с конкурентами, пару графиков и картинок, конклюжн, и всё.


Так любой пейпер устроен. Пейперы устроены одинаково, чтобы ты мог легко парсить их мозгом, так как их много, а тебя мало. Если точнее, мудаки, которым важно опубликоваться, а не создать знание, вместо пространных объяснений пишут просто пару формул и все, ебитесь как хотите. (и это не значит, что у мудаков нет результата). Но этот пейпер хороший, там разжевано все для самых тупых типа меня.
Главное там:

>IN provides visual and appearance invariance, while BN accelerates training and preserves discriminative features.


>IN is preferred in shallow layers to remove appearance variations, whereas its strength in deep layers should be reduced in order to maintain discrimination


>component of IBN-Net can be used to re-develop many recent deep architectures


То есть, как видно, за главное - это мысль, что IN нужно располагть повыше, а BN поглубже, потому что IN лучше регуляризует абстрактные фичи, а BN лучше maintain discrimination, ну а еще то, что это универсальный метод, а не просто подгон под конкретный датасет. Хорошая статья, хороший результат.
275 1283313
>>283229

>Но сейчас такие благоприятные условия для науки - глобализация, информационная сеть


Это благоприятные условия для науки, а не для ученых. Все происходит очень быстро, быстрее, чем может переварить человек. Вообще ML это прежде всего отказ от долгой публикации к пользу препринтов на архиве. Например, пока эта статья https://ieeexplore.ieee.org/document/7444187 публиковались (где-то год), вышло несколько препринтов, которые сделали ее не очень полезной, например, они проспали ResNet.
Это немного демотивирует, как и то, что любая твоя идея скорее всего имплементирована и проверена кем-то. Просто по закону больших чисел. Но науке - заебись.
А ученому выгодно противоположное. Ему выгодно быть председателем какого-нибудь королевского общества, чтобы вокруг не было конкурентов, а он один сидел такой умный и красивый и работал годами над идеей не спеша.
Отсюда растет феномен лженауки - в науке большая конкуренция, значит я создам свою, настоящую науку со шлюхами и блекджеком.

>Одно из двух - либо я тупой, либо там никакой теории и анализа нет.


И из двух теорий
1. Ты - тупой, как минимум - недостаточно опытный
2. В мире имеется заговор, а именно сотни ученых пользуются незаслуженной славой, деньгами и т. д., а призаваемые ими результаты - не результаты.
Ты выбираешь второе. В ней ты умнее 99.9998% людей. Или честнее 99.9998% людей. Мм, и какова вероятность этого?

>Я вижу только введение, одну-две формулы с пространными объяснениями, сравнение метода с конкурентами, пару графиков и картинок, конклюжн, и всё.


Так любой пейпер устроен. Пейперы устроены одинаково, чтобы ты мог легко парсить их мозгом, так как их много, а тебя мало. Если точнее, мудаки, которым важно опубликоваться, а не создать знание, вместо пространных объяснений пишут просто пару формул и все, ебитесь как хотите. (и это не значит, что у мудаков нет результата). Но этот пейпер хороший, там разжевано все для самых тупых типа меня.
Главное там:

>IN provides visual and appearance invariance, while BN accelerates training and preserves discriminative features.


>IN is preferred in shallow layers to remove appearance variations, whereas its strength in deep layers should be reduced in order to maintain discrimination


>component of IBN-Net can be used to re-develop many recent deep architectures


То есть, как видно, за главное - это мысль, что IN нужно располагть повыше, а BN поглубже, потому что IN лучше регуляризует абстрактные фичи, а BN лучше maintain discrimination, ну а еще то, что это универсальный метод, а не просто подгон под конкретный датасет. Хорошая статья, хороший результат.
276 1283315
>>283229

>Но если машоб сейчас на уровне Тихо Браге в астрономии


ML сейчас на уровне Кеплера - есть эмпирические законы без хорошей подлежащей фундаментальной теории. Но законы при этом рабочие.
Но, в общем-то, когда ее найдут, будет как с химией, в которой открытие квантовой механики надобность в химии не отменила. Я уверен, что будут копать в сторону manifold hypothesis, изучат свойства этого самого многообразия, докажут, ну и заебись. Легче от этого не станет. Мы так и останемся химиками.

>это очень печально, так как это самое начало пути.


Это охуенно и мечта ученого. Печально - это поиски "теории всего" в физике.
277 1283317
>>283315

> ML сейчас на уровне Кеплера - есть эмпирические законы без хорошей подлежащей фундаментальной теории.


Есть теория, только сойбои в неё не могут, потому что сложно. Проще наебенить слоёв без понимания, нахуя все это.
729486560d8e7b4da2b.jpg180 Кб, 729x486
278 1283337
>>283123

>Каждый первый обмудок с пидарской бородкой и в очках.


Нет, чувак, пидорство - это бриться каждый день, еще большее пидорство - это ходить в барбершопы. А это самый непидорский лук, который можно придумать.
Нормальный человек по своей воле часто бриться не будет - от этого нихуя, кроме раздражения кожи, не получишь. Раньше общество было более тоталитарным, были корпоративные правила и требовалось соблюдать дресскод - костюм, галстук, выбритое лицо. Барбершопы еще более ебанутая вещь, для господ из 19 века, которым совершенно нехуй делать было.
Сейчас такого нет, люди одеваются в удобный и универсальный casual и имеют удобную растительность на лице. А очки - ну блядь, охуенная предъява вообще, ты чо, очкарик)))

Все нормальные белые мужчины так и выглядят. Не выглядят так азиаты или индусы, у которых борода просто не растет. Прикол в том, что это тестостерон как раз - ты мужик и у тебя растет борода, но нет, жирные школьники с форчана с гинекомастией выдумали каких-то сойбоев.

То, что они при этом выглядят как говно, а не как Клинт Иствуд, и нарушают твои эстетические чувства - ну так может ты и есть пидор, что тебя ебет, как выглядят мужики? Или ты любитель тоталитарного сапога в жопе, ходить строем и быть гладко выбритым? Короче, это с тобой что-то не так, если ты в принципе видишь в этом какую-то моду.
0gL4oxd.jpg148 Кб, 994x745
279 1283355
>>283337
Сойбойство не во внешности, а в головах. Просто так завелось, что сойбои выбирают именно такую внешность - короткая стрижка/лысина, борода, очки.

Основная суть сойбойства - почитание навязанных обществом трендов. Что угодно, лишь бы не казаться аутсайдером. Нинтендо свитч, современные сериалы с нетфликса, использование ультрамодных джаваскрипт-фреймворков - настоящее сойбойство. Внешние признаки - большая вероятность того, что человек сойбой (потому что нормальные люди никогда не захотят быть спутанными с одним из них).
280 1283359
>>283355

>почитание навязанных обществом трендов



Имплаинг это не всегда было так .

По мне так уж лучше хипстеры,чем как чулочные трапы в 18 веке.
281 1283363
>>283355

>почитание навязанных обществом трендов



Имплаинг это не всегда было так .

В 18 веке было модным и обязательным у знати ходить как чулочный трап, с отпудернным лицом и в парике нопремер.
image.png214 Кб, 350x350
282 1283364
>>283123
вербит? тысячи их
283 1283365
>>283363
>>283359
И это тоже по меркам 18 века было плохо. Не нужно искать меньшее среди двух зол.
284 1283366
>>283259
читал несколько статей по медицине
Выглядят они еще хуже чем по машобу
описывают больного не слишком подробно говорят лечили вот этой хуйней и помогло
Ну это та парочка статей что я по своей болезни читал ясное дело что есть и лучше.
285 1283378
Как с зп в отрасли?
286 1283381
>>283355

>Сойбойство не во внешности, а в головах


Ну кому ты пиздишь.
Вот поциент: https://twitter.com/smaine
Нинтендо свитч? Мимо. Современные сериалы с нетфликса? Мимо. Жаваскрипт фреймворки? Мимо.
Что остается. Борода блядь и очки. И уверенность, что у этого мужика борода и очки не потому что бриться лень, а в линзах за монитором сохнут глаза, а потому что "лишь бы не казаться аутсайдером".

>почитание навязанных обществом трендов


>нормальные люди никогда не захотят быть спутанными с одним из них


Вот это божественная ирония.
Общество: форчан, knowyourmeme и прочие места тусовок нитакихкакфсе школьников
навязывает тренд: не любить людей с бородой и очками, а за кривляние на камеру просто убивать
И ты ему следуешь. Но при этом ты считаешь, что это ты нормальный человек. Лалка, воистину кого Юпитер хочет погубить, того лишает разума.

Нормальные люди подобным не заморачиваются, нормальные люди не бреются, не стесняются очков, если у них плохое зрение, и, о ужас, могут купить себе свитч, ведь у каждого первого миллениала в детстве была NES или ее клон.
287 1283385
Вы какого хрена тут развели, еблозавры? Обсуждение бород и прочей хуйни два блока вниз.
288 1283395
>>283366
В медицине все очень хуево с повторяемостью. Люди и их болезни более уникальны, чем один и тот же датасет.
289 1283396
>>283381

>И ты ему следуешь


Ай-яй-яй. Вот тут ты промахнулся. Не нужно вешать на меня ярлыки за то, что я описал, как выглядят и чем увлекается типичный сойбой. Я не принадлежу ни к одной социальной группе, но очень люблю их критиковать.

>нормальные люди не бреются


Нормальные люди что хотят, то и делают, а не слушаются анонов на дваче, дабы соответствовать определённому образу.

>не стесняются очков, если у них плохое зрение


Носить очки из-за плохого зрения - нормально. Носить очки без диоптрий, чтобы казаться умным, потому что это модно - долбоебизм.

>могут купить себе свитч


Не вижу вообще никакого смысла в покупке устройства, предназначенного только и исключительно для игр (если ты под эту платформу не собираешься ничего разра). Вернуть этим NES-детство всё равно не получится.
Screenshot2018-10-2316-28-19.png38 Кб, 1213x587
290 1283410
>>283396

>Ай-яй-яй. Вот тут ты промахнулся


Нет. Если бы ты написал как выглядит сойбой, это одно (хотя сама по себе замороченность по их поиску уже о многом говорит). Но ты еще добавил: "потому что нормальные люди никогда не захотят быть спутанными с одним из них". А это уже диагноз.

>Я не принадлежу ни к одной социальной группе


Ха-ха-ха-ха.
Ты принадлежишь к социальной группе "озлобленный на весь мир анонимус" как минимум. И у этой группы тоже есть тренды. Пик релейтед.
А вообще ты пересечение разных социальных групп - от своей семьи и группы русскоязычных до научных фриков.

Все это вместе составляет некий многомерный вектор и это собственно позволяет не очень умным людям, подверженным когнитивным искажениям, доебываться, как они хотят. Можно найти тысячи параметров, по которым ты будешь совершенно средним представителем своей группы. А можно найти что-то уникальное у каждого. Как, собственно, озлобленные анонимусы и поступают, они берут один критерий, в котором они считают, что лучше других людей, и дальше ранжируют этих самых людей по этому критерию. Типа, мужик из Сиэтла с хорошим образованием и работой, неплохо устроившийся в жизни и живущий как хочет. Чем он хуже меня, живущего с мамкой в проперженном совковом интерьере нищука? А, у него пидорская бородка. И все - жизнь прекрасна, гиперплоскость проведена, ты на стороне классных пацанов, остальные - сойбои.

>Носить очки из-за плохого зрения - нормально. Носить очки без диоптрий, чтобы казаться умным, потому что это модно - долбоебизм.


На твоем пике у всех очки с диоптриями.

>Не вижу вообще никакого смысла в покупке устройства, предназначенного только и исключительно для игр


Это типичная позиция для людей из твоей социальной группы.
291 1283415
Адепты нейроноговна скатились в защиту бородок, лол. >>283229
Паперы пишут для того, чтобы со степухой и грантами не пидорнули, только долбоеб будет это бесполезное говно читать.
>>283315

>в которой открытие квантовой механики надобность в химии не отменила


Химики шлют нахуй квантовую механику и топят за эфир
292 1283417
>>283415
Типичный представитель социальной группы "научные фрики".
293 1283420
>>283410

Приятно читать умного анона. Двачую.
294 1283421
>>283410

>Но ты еще добавил: "потому что нормальные люди никогда не захотят быть спутанными с одним из них". А это уже диагноз


А ты знаешь, почему они никогда не захотят? Или ты мыслишь лишь домыслами?

Я отвечу тебе, друг мой. Потому что судят по одёжке. Потому что в сознании людей бородка и очки == сойбой (и пост >>282823 это подтверждает как нельзя кстати). Точно так же, как в сознании людей кепка и треники == гопник. Если ты своей внешностью похож хоть на какой-то стереотипный образ, то это нехорошо. Нужно любой ценой избегать собственного стереотипирования. Поэтому нормальные люди никогда не захотят быть спутанными с сойбоями. Если тебя спутали - значит, ты выглядишь стереотипно.

>Ты принадлежишь к социальной группе "озлобленный на весь мир анонимус" как минимум


Ммм, угу, угу, а с чего ты сделал такие выводы? Или же ты проецируешь? У меня есть работа и я люблю гулять - это отличает меня от группы "озлобленный анонимус". Всё, стрелочка больше не поворачивается, она сломалась.

>ты на стороне классных пацанов, остальные - сойбои


И опять ты оказался в ловушке проекций своего ограниченного мышления. Для тебя существует только две половинки мира, не так ли? Свои и чужие, классные пацаны и сойбои, на кого ещё у вас там модно делить мир? Всё так в твоём представлении, верно? И ты не можешь даже представить, что что-то может быть по-другому?

Видишь ли, быть на любой стороне - что "классных пацанов", что сойбоев, противно самой моей природе. Любая принятая сторона, на которой есть хоть ещё 1 человек, по определению вредна. Не так это работает. У меня всегда найдётся запас отличительных признаков от любой социальной группы, к какой бы ты ни пытался меня причислить.

>На твоем пике у всех очки с диоптриями


Что не значит, что люди так не делают из-за моды.

>Это типичная позиция для людей из твоей социальной группы


Ещё раз прочитай это - я не принадлежу ни к какой социальной группе. Нет такой вещи, как "моя социальная группа". Не нужно подгонять моё поведение под какие-то стандарты, а потом пытаться ожидать от меня чего-то в соответствии с этими стандартами.
294 1283421
>>283410

>Но ты еще добавил: "потому что нормальные люди никогда не захотят быть спутанными с одним из них". А это уже диагноз


А ты знаешь, почему они никогда не захотят? Или ты мыслишь лишь домыслами?

Я отвечу тебе, друг мой. Потому что судят по одёжке. Потому что в сознании людей бородка и очки == сойбой (и пост >>282823 это подтверждает как нельзя кстати). Точно так же, как в сознании людей кепка и треники == гопник. Если ты своей внешностью похож хоть на какой-то стереотипный образ, то это нехорошо. Нужно любой ценой избегать собственного стереотипирования. Поэтому нормальные люди никогда не захотят быть спутанными с сойбоями. Если тебя спутали - значит, ты выглядишь стереотипно.

>Ты принадлежишь к социальной группе "озлобленный на весь мир анонимус" как минимум


Ммм, угу, угу, а с чего ты сделал такие выводы? Или же ты проецируешь? У меня есть работа и я люблю гулять - это отличает меня от группы "озлобленный анонимус". Всё, стрелочка больше не поворачивается, она сломалась.

>ты на стороне классных пацанов, остальные - сойбои


И опять ты оказался в ловушке проекций своего ограниченного мышления. Для тебя существует только две половинки мира, не так ли? Свои и чужие, классные пацаны и сойбои, на кого ещё у вас там модно делить мир? Всё так в твоём представлении, верно? И ты не можешь даже представить, что что-то может быть по-другому?

Видишь ли, быть на любой стороне - что "классных пацанов", что сойбоев, противно самой моей природе. Любая принятая сторона, на которой есть хоть ещё 1 человек, по определению вредна. Не так это работает. У меня всегда найдётся запас отличительных признаков от любой социальной группы, к какой бы ты ни пытался меня причислить.

>На твоем пике у всех очки с диоптриями


Что не значит, что люди так не делают из-за моды.

>Это типичная позиция для людей из твоей социальной группы


Ещё раз прочитай это - я не принадлежу ни к какой социальной группе. Нет такой вещи, как "моя социальная группа". Не нужно подгонять моё поведение под какие-то стандарты, а потом пытаться ожидать от меня чего-то в соответствии с этими стандартами.
295 1283433
>>283421

>Нужно любой ценой избегать собственного стереотипирования.


Можно, если хочешь напугать омегана, который ссыт гопника, то можно таки нацепить мохнатую кепочку восьмиклинку, нанести малобаром разовые татухи, сфотографироваться с пистолетом или с битой в руках, пригласить создать фон быдлоклассников, которые колоритно выглядят.
296 1283435
>>283421
Ясно, очередной нитакой как все. Эй, Мойдодыр, принимай пополнение.
297 1283441
>>283435
Видишь ли, я даже не такой, как другие нонконформисты. Так что даже тут ты ничего не сделаешь.

>>283433
То, что ты делаешь это с определённой целью, отличает тебя от остальных гопников. И ты больше не стереотипирован.
21.jpg39 Кб, 500x366
298 1283456
Как искать статьи по теме? И как их быстро читать и понимать, что тут хорошо, а тут нет?
299 1283458
>>283456
Если есть пара-тройка имплементаций на гитхабе - то хорошо. Одна от автора - ну такое. Если нет - то, может хорошо, а может и нет. Не трать время.
А так arxiv-sanity это начальная точка. Ну и твиттеры-хуиттеры, реддиты и прочее говно.
300 1283459
>>283246

>Ну подумаешь выживаемость повысили на 1% и риск заболевания на 5%,


Ахахахахахаха, аж до слез
>>283233
Нет конечно, глупо отрицать наличие эфира
>>283294

>Сначала лемматизируешь все с rnnmorph


Ахахахахахаха, аж до слезповторюсь
301 1283462
>>283458
А если статьи старше гитхаба? Не нейроночками едиными же.
302 1283464
>>283462
если это что-то годное значит будет в книжке уже 99%
303 1283465
>>283462
Ничего ни читай, сэкономишь время с тем же результатом
304 1283467
>>283462
Тогда имплементация будет или на том же гитхабе (при чем тут возраст статьи вообще), в scipy, в матлабе (как в пользовательском файловом архиве, так и как часть тулбокса), в R, Mathematica или, в самом пиздецовом случае, на фортране каком-нибудь. И можно даже ранжировать по степени годности.
Вероятность того, что твоя статья никем в паблике не имплементирована и при этом годна крайне мала.
305 1283471
>>283421

>А ты знаешь, почему они никогда не захотят?


Конечно знаю.

>Я отвечу тебе, друг мой. Потому что судят по одёжке.


Yep. В этом и заключается мой диагноз - у тебя комплесы из разряда "что люди подумают".

>Если ты своей внешностью похож хоть на какой-то стереотипный образ, то это нехорошо


Почему?

>Ммм, угу, угу, а с чего ты сделал такие выводы? Или же ты проецируешь? У меня есть работа и я люблю гулять - это отличает меня от группы "озлобленный анонимус".



Вообще, не удивительно, что ты в ML не можешь. Ты даже посыл моего поста не понял. Я просто взял и препарировал тебя тем же методом, которым ты препарируешь других.

Фишка-то в чем. Сойбоев не существует. Потому что каждый из них может сказать "у меня всегда найдётся запас отличительных признаков от любой социальной группы, к какой бы ты ни пытался меня причислить". Равно как и не существует "озлобленных анонимусов". Ровно по той же причине. Каждый человек уникален, как уникальны его отпечатки пальцев. Однако социальные группы существуют. Как так получается? Ну, довольно просто - из уникальности человека не следует, что люди не кластеризуются. Даже в случае полностью равномерного распределения признаков люди находят паттерны - например, созвездия это поиск паттернов в достаточно равномерном 2д-распределении звезд. А у нас, естественно, распределение не равномерно.

Мы сначала кластеризуем людей, потом усредняем признаки, и дальше считаем норму между человеком и "средним человеком из данной социальной группы". Меньше какого-то порога - ярлык навешен. Поэтому то, что у тебя есть работа, не отрывает тебя от группы "озлобленный анонимус", потому что по совокупности других признаков ты являешься озлобленным анонимусом. Более того, это было бы крайне невероятным, если бы у тебя таких признаков не было. Я об этом писал выше - "Можно найти тысячи параметров, по которым ты будешь совершенно средним представителем своей группы. А можно найти что-то уникальное у каждого".

>И опять ты оказался в ловушке проекций своего ограниченного мышления.



Нет, я оказался в ловушке твоего ограниченного мышления.

>Ещё раз прочитай это - я не принадлежу ни к какой социальной группе.


Это будет решать социум, мой дорогой квир.
305 1283471
>>283421

>А ты знаешь, почему они никогда не захотят?


Конечно знаю.

>Я отвечу тебе, друг мой. Потому что судят по одёжке.


Yep. В этом и заключается мой диагноз - у тебя комплесы из разряда "что люди подумают".

>Если ты своей внешностью похож хоть на какой-то стереотипный образ, то это нехорошо


Почему?

>Ммм, угу, угу, а с чего ты сделал такие выводы? Или же ты проецируешь? У меня есть работа и я люблю гулять - это отличает меня от группы "озлобленный анонимус".



Вообще, не удивительно, что ты в ML не можешь. Ты даже посыл моего поста не понял. Я просто взял и препарировал тебя тем же методом, которым ты препарируешь других.

Фишка-то в чем. Сойбоев не существует. Потому что каждый из них может сказать "у меня всегда найдётся запас отличительных признаков от любой социальной группы, к какой бы ты ни пытался меня причислить". Равно как и не существует "озлобленных анонимусов". Ровно по той же причине. Каждый человек уникален, как уникальны его отпечатки пальцев. Однако социальные группы существуют. Как так получается? Ну, довольно просто - из уникальности человека не следует, что люди не кластеризуются. Даже в случае полностью равномерного распределения признаков люди находят паттерны - например, созвездия это поиск паттернов в достаточно равномерном 2д-распределении звезд. А у нас, естественно, распределение не равномерно.

Мы сначала кластеризуем людей, потом усредняем признаки, и дальше считаем норму между человеком и "средним человеком из данной социальной группы". Меньше какого-то порога - ярлык навешен. Поэтому то, что у тебя есть работа, не отрывает тебя от группы "озлобленный анонимус", потому что по совокупности других признаков ты являешься озлобленным анонимусом. Более того, это было бы крайне невероятным, если бы у тебя таких признаков не было. Я об этом писал выше - "Можно найти тысячи параметров, по которым ты будешь совершенно средним представителем своей группы. А можно найти что-то уникальное у каждого".

>И опять ты оказался в ловушке проекций своего ограниченного мышления.



Нет, я оказался в ловушке твоего ограниченного мышления.

>Ещё раз прочитай это - я не принадлежу ни к какой социальной группе.


Это будет решать социум, мой дорогой квир.
306 1283483
>>283355

>использование ультрамодных джаваскрипт-фреймворков



А можно мне их использовать если они рили помогают?
307 1283491
>>283471

>Yep. В этом и заключается мой диагноз - у тебя комплесы из разряда "что люди подумают"


М, нет. Люди - лишь индикатор того, что с тобой что-то не так. Но при этом индикатор довольно точный и очень глупо им не пользоваться.

>Почему?


Потому что чтобы прожить свою собственную жизнь, нужно, чтобы она была твоей собственной. Стереотипность образа - верный признак того, что твоя жизнь - не больше чем одна из готовых моделей.

>Вообще, не удивительно, что ты в ML не можешь


Это тот самый ML, который на картинке с гориллой находит барсука, если к картинке добавить совсем небольшой шум?

Вот оно, собственно - ты узник своей модной технологии и пытаешься подогнать весь мир под неё. Три года назад ты задрачивал облака, потом веб-фреймворки, а сейчас задрачиваешь ML. Ты не больше чем стереотипная пустышка. Таких, как ты - миллионы и все вы проживёте свою жизнь одинаково. И не важно даже, хорошо ли вы её проживёте или нет. Важно, что одинаково.

>Сойбоев не существует


>Равно как и не существует "озлобленных анонимусов"


Существуют. До тех пор, пока они подходят под определённые критерии и не стараются впоследствии их избегать, они существуют.

>Мы сначала кластеризуем людей, потом усредняем признаки, и дальше считаем норму между человеком и "средним человеком из данной социальной группы"


Тут вот в чём дело. Если всю жизнь мерить по ML, то можно подобрать абсолютно любой набор признаков, по которым любого человека можно причислить к любой группе. Просто меняя признаки и объём выборки. Понимаешь, к чему я клоню? Реальная жизнь сложнее твоей математической модели. Модель можно обмануть, жизнь - нет.

>Это будет решать социум, мой дорогой квир


Нет уж, это решаю я. Социум - это индикатор, он не может ничего решать.
308 1283494
>>283483
Можно. Делать вообще можно что угодно, главное - показать, что ты отличаешься от других, кто использует такой же фреймворк.
309 1283516
объявляю официальный баттхерт из-за местных шизиков и увольняюсь из этого треда, ищите меня на реддите
310 1283520
>>283516
Тут постят несмешное.жпг
1539796039276099049.jpg264 Кб, 700x863
311 1283521
>>283516

>ищите меня на реддите


Помойка уровня швабры
312 1283539
>>281076 (OP)
>>281076 (OP)
Столкнулся с такой проблемой:
Предположим, что наша дата - это покупки в онлайн магазине.
Там много feature, в том числе город. Скорее всего, нордические воины не будут часто заказывать себе солнечные очки, а южане не купят ушанку.
Как поступить в этой ситуации? Можно разделить людей по областям и рассчитывать индивидуально, но тогда не будет учитываться общая картина. Можно выбросить из даты города вообще.

Или я чего-то не понимаю и проблемы тут нет - просто юзать деревья и оно там как-нибудь само..?
313 1283544
>>282156
Для бирж куча других методов есть.
но я сам толком не шарю
314 1283555
>>283539

>Или я чего-то не понимаю и проблемы тут нет - просто юзать деревья и оно там как-нибудь само..?


А то. Только просто город как фича не очень, можно добавить географические координаты хотя бы. А так в конкурсе от авито как только не изъебывались
лесби-Эротика-песочница-эротики-803817.jpeg45 Кб, 403x604
315 1283607
вечер в хату!
дано:
1. 30 лвл
2. вроде бы хорошо помню весь необходимый матан с универа
3. могу в питон
4. могу в простой английский (то есть в хорошо поставленную, не быструю речь)
5. непосредственно с нейронками и машобом дела ранее не имел
6. сложилась ситуация, что могу обучаться этому в рабочее время.

Ищу годных курсов или записей лекций по машрбу, дабы по пацанский разъяснили что да как. желательно на английском что бы и его подкачать. желательно с tensorflow и keras.

существуют такие?

на крайняк возможны русскоязычные курсы, тодько блджад без всякой воды и с нормальным преподом.
316 1283643
>>283607

>вечер в хату


>по пацанский разъяснили


Пиздос, тебя с тюрячки чтоли пидорнули?
317 1283644
>>283643
Ньюфажек не знает про мой воровач
рис.jpeg38 Кб, 810x1080
319 1283661
Хэлп. Не относится к маш об или нейронкам, но все же тема близка к компьютер вжену.
Препод в универе дал задачку.
Дано: фото риса рассыпного на столе
Требуется: Посчитать количество рисинок на фото
Проблема: Если на фото есть слипшиеся рисинки, я не знаю как посчитать их количество в этой слипшейся кучке.
320 1283662
>>283661
Помогите придумать алгоритм как разделить эти слипшиеся рисинки или просто оценить их количество в этой слипшейся кучке.
321 1283665
>>283662
на твоей фотке у них у всех примерно одинаковая площадь
можно попробовать количество рисинок в "комках" оценивать по ней
322 1283669
>>283661
Число белых пикселей делить на среднюю площадь
323 1283859
как вам catboost от яндекса?
image.png276 Кб, 500x387
324 1283865
>>283355

>Основная суть сойбойства - почитание навязанных обществом трендов



Ой блять. Сойбойство - это, в первую очередь, отсутствие маскулинности. Соя плохо влияет на тестестерон
325 1283877
>>283859
Как земля.
326 1283895
>>283865
Совок рухнул 30 лет назад, при чем тут социалисты и машинное обучение?
327 1283914
>>283895
Социализм это лучшее что придумало человечество, подрастешь может и поймешь
328 1283933
>>283865>>283895
Средний двачер настолько тупой, что не понимает разницы между мемами soyboy и nu-male.
329 1283941
>>283933
Так обучи различать
15403105465490.png53 Кб, 2051x1365
330 1284007
Наркоманушки, этот тред про машоб или про сойбоев? Совсем вы ебнулись пидоров обсуждать. Лучше скажите, почему в NLP так не любят алгоритмы для работы с фразами? В том же fasttext'е выпилили word2phrase от оригинального word2vec. Кто-нибудь пробовал StarSpace? Вроде оно может в разные элементы текста, не только отдельные слова.
331 1284015
>>284007
Отлюбили уже, тот же статистический машинный перевод это как раз сплошные нграмы.
А нейронкам оно не заходит - скорее всего потому что слов мало, а их сочетаний - много.
332 1284034
>>284007
>>284015
ниработает? кто бы мог подумать, лол
333 1284036
В Яндекс-то берут? Я слышал "только ШАД", а в него хуй пройдешь, если олимпиадные задачи решать не умеешь.
334 1284037
>>284036

>Яндекс


Туда никто в здравом уме не пойдет
335 1284038
>>284037
Ребята из физтеха идут.
336 1284040
>>284038

>Ребята


>дунята


такие обычно очень любят математику и ебать друг друга в жопы
337 1284053
>>284040
Так говоришь как будто это что-то плохое
338 1284054
>>283669
на среднюю площадь чего?
339 1284056
>>283665
Тоже об этом думал. Скорее всего так и придется делать, но проблема в том что на фото все рисинки могут оказаться в комках.
Спасибо за ответ.
340 1284058
>>284054
Рисинки
341 1284059
>>284058
так я же ее не знаю
342 1284061
>>284059
Так узнай
15400044479080.png32 Кб, 645x729
343 1284074
>>284015

> А нейронкам оно не заходит - скорее всего потому что слов мало, а их сочетаний - много.


Если бы ты знал что такое skipgram например, то знал бы и то, что оно работает только с теми сочетаниями, которые есть в анализируемой корпусе. Но это для тебя наверное слишком сложно, да? Сойбои проще.
>>284034

> ниработает? кто бы мог подумать, лол


Голова-то твоя? А чему там работать, это ж кость.
344 1284085
>>284074
Ой, да иди нахуй со своей токсичностью. Совсем охуел уже.
345 1284113
>>283607

>2. вроде бы хорошо помню весь необходимый матан с универа


Докажи что пространство непрерывных функций на отрекзе [0,1] бексонечномерно.
346 1284127
Антоны, а нейронные сети используются для моделирования свойств материалов? Где можно почитать про это?
347 1284128
>>284127

>для моделирования


Для моделирования и симуляции*
348 1284316
Антоны, а HTM сети имеют развитие?
Видел проект от Vicarious, но архитектуру и код еще не смотрел.
349 1284321
Можно ли как-то представить строку в виде числа?
Я работаю с multi step forcasting и у меня единичным элементом-токеном является строка
то есть грубо говоря есть время (сколько секунд прошло с момента появления предыдущей строки), последовательнсть строк определенной длины и следующая такая строка
0 abc dfc jkf
10 abd hgj ?
20 ? jdff few
...итд

вопрос состоит в том, как представить строку в виде числа, для того что бы можно было к такой табличке применять методы, применяемые для обычного Multi-Stеp Timе Seriеs Forеcasting
1536367968186915206.jpg30 Кб, 400x400
350 1284412
>>284074

>теми сочетаниями, которые есть в анализируемой корпусе.


НЛП уровня /b
351 1284414
>>284321
Хэшем
352 1284514
>>284321

int(str(abs(hash('stroka')))[:skolko pervyh tsifr nado])
353 1284522
>>284321
Строки рандомные или несут какой-то смысл? Неси сами строки короче.
354 1284526
>>284522

А что изменится если он их хочет в числа конвертировать, если строки это названия чисел, то вся информация все равно потеряется?
355 1284539
>>284526
Информация не должна теряться, нужно натравить какой-нибудь fasttext и конвертнуть в строки в какие-то полезные фичи. Пайплайн зависит от самих строк.
356 1284612
>>284539
попробуй через пихвоиды
ВЫБИРАЕМ КУРС ПОДГОТОВКИ ВСЕМ ДВАЧЕМ 357 1284617
Цель - подобрать материалы, чтобы аноны могли пройти путь от самого дна до повелителей ML за кратчайшее время.

Что лучше: deeplearningbook или ШАД, Coursera или "The Elements of Statistical Learning"? А как насчет Nanodegree от Udacity? Или гарвардские курсы на EdX? А может быть лучше deeplearning.ai?

ГО

Кто-нибудь, пожалуйста, объясните, нахуя ВШЭ и хуяндекс сделали англоязычные курсы с рашнакцентом на курсере? Они реально думают, что англоговорящий анон будет проходить их курс, а не гарвардский???
358 1284624
>>284617

>Они реально думают, что англоговорящий анон будет проходить их курс, а не гарвардский???


И проходят, кстати. В околонауке и ML вообще немало людей из самых разных стран с далеко не идеальным английским. Если тебя это триггерит, ты просто пока молодой и глупый.

>Цель - подобрать материалы.


Всё уже давно есть, просто надо немного уметь в гугл.

>за кратчайшее время


Земля тебе пухом.
359 1284627
>>284624

>Всё уже давно есть, просто надо немного уметь в гугл.


Щито блядь. Я тебе семь источников материала написал. Откуда я их по-твоему взял?
360 1284628
>>284624

>И проходят, кстати. В околонауке и ML вообще немало людей из самых разных стран с далеко не идеальным английским. Если тебя это триггерит, ты просто пока молодой и глупый.


Субтитры? Не, не слышал
361 1284633
>>284617

>Что лучше: deeplearningbook или ШАД


deeplearningbook

>Coursera или "The Elements of Statistical Learning"


Второе - червь-пидор
Вообще нет ничего хуже статистиков, держись от них подальше

>А может быть лучше deeplearning.ai


Ын? Должно быть что-то хорошее. Но времени не было посмотреть что там

Книга Николенко, кстати, неплохая.
362 1284650
>>284633

> deeplearningbook


Говно.

> Вообще нет ничего хуже статистиков, держись от них подальше


Машоб = статистика, мань.
363 1284668
>>284412
Мань, а откуда алгоритм эти сочетания брать должен? Из космоса? Ебать, какие тут дуры сидят, слов нет.
364 1284674
>>284650
Петуха забыли спросить
365 1284698
>>284617
Для начала Воронцова почитай.
366 1284699
>>284674

> Петуха забыли спросить


Тебя если и забыли, так ты сам вылезешь. Весь машоб, и супервайзед и нет, сводится к expectation maximization, я на эту тему даже цитаты приносил. Только клованы вроде тебя могут верить, что индусы с сойбоями двигают науку и что-то новое открывают.
367 1284700
>>284698

> Для начала Воронцова почитай.


Воронцов соснул концов. Не надо его читать, в статье про SVM он столько всего нахуевертил, ну его. В ISLR в разы проще все объясняется.
368 1284751
>>284699

>Весь машоб, и супервайзед и нет, сводится к expectation maximization


Каким надо быть шизиком, чтобы из теоретической сводимости одного алгоритма к другому делать выводы такого уровня. Ты тупее и вреднее самого тупого индуса.
На, почитай https://www.nature.com/articles/nmeth.4642 , впрочем нет, ты не читай, пусть другие читают. Ты под шконку лезь.
369 1284752
Как же хочется ИИ...
maxresdefault.jpg79 Кб, 1280x720
370 1284776
>>284752

ХОСПАДЕ КАК ЖЕ ХОЧЕТСЯ AИЧКУ!!!
371 1284782
>>284751

> Каким надо быть шизиком, чтобы из теоретической сводимости одного алгоритма к другому делать выводы такого уровня.


Какого уровня? Что машоб это статистика? Так это факт, реальность, а не мой вывод. Ты же пытаешься с этого факта съехать на мою личность. И кто тупой после этого?
372 1284799
>>284782
Иди нахуй. Сразу видно, что ты токсичный.

мимо-нюфаня
373 1284813
>>284617
Надо было сразу почитать книгу Николенко из FAQ. Серьезные дяди поясняют за deep learning
374 1284818
Как сделать миниманалог шазама? Нужно, чтобы лежало песен 100. И чтобы я спел в микрофон: "Смяка оло но фо. Смяка гими само. Смяка ту ю гет со Смяка о-о-о-о-о". И чтобы самописная программа нашла эту песню среди 100.
375 1284829
>>284818

каким-нибудь CNN попробуй выжать фичурсы из спектрограммы

https://github.com/awjuliani/sound-cnn вроде такого
153622486915801746.jpg109 Кб, 700x1283
376 1284884
>>284668

>Мань, а откуда алгоритм эти сочетания брать должен


Из твоего ануса. Ты там вобще поехал нейроблядок, машоб лол, данные найди, данные подготовь, и пусть теперь нейропараша поковыряется в них и соберет штатистику хотябы за неделю работы на 100500 топнвидиа йоб, ох лол
377 1284904
>>284884
Дегродушка, нормальным алгоритмам не нужны видюхи. Skipgram итд как раз нормальные алгоритмы здорового человека, а не параша сойбоя курильщика хуев, которая на суперкластере будет сходиться месяц. Ты ж не в теме вообще, куда ты лещешь, чучело?
378 1284921
>>284904

>Skipgram


>нормальным алгоритмам


А ты смешной
379 1284924
>>284904
Какого цвета трава?
0.980484: Какого цвета машина?
0.978484: Какого цвета волосы?
0.977465: Какого цвета костюм?
0.977016: Какого цвета глаза?
0.975344: Какого цвета хоть?
0.97237: Какого цвета пламя?
0.955668: Какого цвета волосы? Длинные или короткие?
0.955133: Какого цвета туфли подойдут?
DONE.

Дя?
380 1284929
>>284924
Хуйню написал и рад. Чего ты хотел получить этим запросом, клоунесса?
381 1284931
>>284929
Бестолковое говно твой пихво2век.
382 1284948
ИТТ мамкины нейрохейтеры соревнуются, как бы еще пнуть нейронки
383 1284952
>>284948
Чому бы не попинать говно?
384 1284958
>>284931

> Бестолковое говно твой пихво2век.


Пока что я вижу что ты бестолковое говно и даже не понимаешь, что и зачем пытаешься сделать. Впрочем, что ещё ожидать от дегенерата, басня Крылова "мартышка и очки" как раз про тебя и тебе подобных.
385 1284960
>>284958
Ты просто нейродауненок ни черта не понимающий в НЛП.
386 1285014
>>284960

> Ты просто нейродауненок ни черта не понимающий в НЛП.


Потому что так сказал дегенерат, не могущий в NLP? Самому не смешно?
387 1285028
>>285014
Не смешно, твои нейронки сосут в НЛП с проглотом, это очевидно всем.
388 1285036
Анон, работаю программистом несколько лет, шлёпаю себе круды.

Посматриваю на сабж. В нём не понимаю ничего. Можешь хотя бы в двух словах описать, насколько это сложно: нужно быть кандидатом наук для которого матан и функан не пустой не звук или сабжевая работа это что-то типа подбора переменных в готовые формулы, пока результат не устроит заказчика?
389 1285051
>>285036

>что-то типа подбора переменных в готовые формулы


да, крутишь пимпочки пока результат не устроит заказчика
390 1285069
Антоны, я не пойму, что за штука такая: Иерархическая временная память?
Не пойму, эта модель вообще рабочая и в чем ее преимущества перед обычной рекуррентной сетью?
математик.jpg190 Кб, 900x825
391 1285072
>>285036
Пик точеный.

Но если ты не настолько удачливый Карлсон-математик, то ты берешь рандомный алгоритм, вроде подходящий под задачи, рандомно берешь коэффициенты, учишь модель и оказывается, что она или не работает на невиданных данных, либо не работает не так, как нужно заказчику. Дальше если ты не знаешь матан и как все работает под капотом, то игра окончена, вы проиграли!
392 1285073
Двач обьясни тупому зачем юзать нейронку вместо полиномиальной регрессии?
393 1285078
>>285072

>ты не знаешь матан и как все работает под капотом


Как анон, знающий как все работает может сдерживать смех и с умным видом крутить пимпочки?
394 1285081
>>285078
Зарплата и осознание того, что большую часть времени он не крутит со знающим видом пимпочки, а чистит данные вилкой раз-раз-раз.
395 1285091
>>285081

>а чистит данные вилкой раз-раз-раз


Но есть же толока?
396 1285164
>>285078
А вот шлепать круды, это нужно быть кандидатом наук для которого реляционная алгербра не пустой звук, или рандомно писать ключевые слова из жс, пока результат не устроит заказчика?
397 1285201
>>285164
только не говори, что нейронная матанопетушня пишет код
398 1285217
>>285069
Идея хороша, но негров распознавать пока не может.
399 1285481
>>285217
Не понял, о чем ты?
400 1285516
>>285481
Теоретики, а не практики. Хотя вроде недавно весьма серьёзная статья была по практической примеромости. Но ещё далеко, можешь поспособствовать.
401 1285557
>>285516
Я где-то видел статью, где ее сравнивали с глубокой сетью доверия и она выиграла. Много про нее почитал, но так и не понял, кто определяет там количество регионов и памяти, что выделяется на каждый, она сама или я должен это делать? Надо, видимо, ручками ее потискать, а не задавать вопросы Анонам
Пока писал пост, таки нашел статью: http://www.measurement.sk/M2013/doc/proceedings/023_Valentin-1.pdf
402 1285566
>>285557

>Надо, видимо, ручками ее потискать, а не задавать вопросы Анонам


А ты не такой уж и глупый, тут джва с половиной практика один вот этот >>285516 понимает что к чему и почему не работает, а второй я.
403 1285612
>>285557
Это статья 2013 года, которую писали еще раньше - до Словакии AlexNet, видимо, долго доходила. Сейчас использовать подобные вещи для классификации листьев немного странно, что 56%, что 66% - это очень плохо.. Поищи что-то поновее.
15405352004520.jpg31 Кб, 472x403
404 1285775
Сверточные сети нужны пока еще только для автоматического выделения фич, с самими этими фичами они работают не лучше чего угодно. И очень хороший вариант для работы с этими фичами - встраивание их в векторное пространство слов, фраз, документов по типу word2vec. Есть StarSpace, там уже реализовано такое встраивание фич от картинок вместе с текстом. Я давно говорил, что подобные модели дальше будут развиваться в сторону встраивания в единое векторное пространство разномодальных данных, и вот пейсбукаиресерш это уже реализовали. Могу сказать, что будет дальше. Найдётся метод выделения фич негров получше чем сверточная хуитка, причём, все будет работать без графических ускорителей, для нормальных алгоритмов они и нахуй не нужны, пример те же word2vec и StarSpace. И весь этот соевый хайп закончится, а владелец нвидия Сунь Хуй Чай потеряет миллиарды.
405 1285792
>>285775

>Сверточные сети нужны пока еще только для автоматического выделения фич


Про генерацию забыл.

>И весь этот соевый хайп закончится, а владелец нвидия Сунь Хуй Чай потеряет миллиарды.


Хорошо начал, но закончил все равно шизой. У тебя денег на 1080 Ti нет что ли?
Сверточные сети появляются там, где у у тебя есть данные, которые инварианты относительно сдвига. Это изображения и звуки прежде всего. Сущности, которые весят по несколько мегабайт и при этом очень избыточны, то есть так или иначе тебе нужно уменьшить число измерений. Будет у тебя "метод выделения фич негров получше", какой-нибудь SIFT на стероидах, допустим, он все равно будет ускоряться с помощью GPU, потому что GPU - это более эффективное для распараллеливания использование площади кристалла, они никуда не денутся, пока есть параллелящиеся задачи. Сложно придумать алгоритм обработки изображений, который не ускорялся бы на GPU, если только специально не стараться.
406 1285806
>>285792
А если я хочу с помощью нескольких камер научиться делать 3Д модель, то сверточная сеть подойдет?
407 1285812
>>285806
Гугли structure from motion, можно обойтись и классическими алгоритмами, хотя нейронки тоже применяют
Снимок.PNG81 Кб, 872x403
408 1285817
>>281076 (OP)
Добрый день. Пытаюсь в DCGAN, но он нихуя толкового не генерирует. Изначально хотел арт погенерировать, потому подумал, что данные слишком разные и решил mnist погенерить. На mnist тоже ВООБЩЕ ничего нужного не получается.

Что делать ? Что почитать ? У кого был подобный опыт ?
409 1285822
>>285817
Вот эта йоба https://github.com/tkarras/progressive_growing_of_gans заработала из коробки, мнист там есть. Там используется последовательное добавление слоев при увеличении разрешения, поэтому настроить сходимость намного проще.

DCGAN же работает сразу в большом разрешении и поэтому там нужно филигранно настраивать мощу дискриминатора и генератора. Но для минста ты можешь и готовый код на гитхабе найти и плясать уже от него.
410 1285824
>>285822
Спасибо за наводку
411 1285859
Книжка Николенко больно простая, после книжек по машобчику из списка кажется вообще научпопом. По ней точно можно нормально научиться?
412 1285864
>>285859
В списке нет книжек по машобу, там ебанутая параша от статистиков
413 1285866
>>285864
Держи в курсе.
414 1285869
>>285864

> В списке нет книжек по машобу, там ебанутая параша от статистиков


Петух, машоб это раздел статистики.
415 1285883
>>285869
Ты скозал?
416 1285917
>>285869
Машоб использует в т.ч. матстат и довольно близко стоит к вычислительной статистике (statistical computing), но это архаизм - термин только совсем динозавры используют. В любом случае она - не раздел статистики, а мост между ней и информатикой.
15390261857620.png782 Кб, 860x716
Анон 417 1285956
Есть ли где-нибудь, на каком-нибудь ЯП библиотека, которая вскармливается некоторыми изображениями, находит в них нечто общее, и это нечто общее рисует в новое изображение?
Т.е на основе некоторых изображений создаёт похожее изображение.

Хотел бы я нейросеточку, которая генерировала арты с Аквой-сама.
419 1285968
>>285956
>>285966
Картинки с дурой с какого-нибудь данбору возьми.
420 1285975
>>285968
Не прогрессивно же.
421 1285977
>>285966
Дай бог тебе здоровье.
422 1285987
>>285201
Ну не из воздуха же все эти библиотеки появились.
423 1285988
>>285966
Чет не понял, в чем особенность этой сети?
424 1286016
>>285988
В пихвовекторизации
425 1286020
>>285775
О, теоритическая манька всплыла. Как дел? Сколько новейших паперов прочитал за последние 12 часов?
ioslarge1460104814image.jpg64 Кб, 600x525
426 1286023
>>286016
в психо чево?
427 1286116
>>285812
Ну классические алгоритмы не особо для видео подходят.
Да и вдруг мне нужно моделировать поведение какого-то обьекта? Например, хочу реалистичную симуляцию ткани какой-нибудь.
428 1286158
>>281193
Физик-теоретик-кун мимопроходил. ESL читал. ТыещеЛандауЛифшицаневидел.
429 1286164
Это снова я >>286158 почитал тред. У вас тут эфирщики... Пздцблд
430 1286169
>>286164

>эфирщики


Что имеешь против эфира, релятивистская мразь?
image.png310 Кб, 1076x733
431 1286194
Для кого это сделано? Я имею за плечами стандартный курс университетской математики и эти задачи для меня практически нерешаемы. Я тупой?
432 1286198
>>286169

> Что имеешь против эфира


GPS
433 1286200
>>286194
У меня в универе ни QR ни SVD вообще не было. Вся третья глава охуенна, потому что дает дохуя интуиции именно по всей линейщине и МНК -- но читать надо очень вдумчиво, это да.

Задачи сложные именно потому что требуют интуиции о том что все это значит.
434 1286204
>>286200
Есть смысл серьезно вкладываться и долго думать над каждым упражнением, которое я не могу решить быстро? Я посмотрел пару решений для таких в интернете, они кажутся мне очень нетривиальными.
435 1286214
>>286204
Дык там же даже есть значок с "Ужоснахом", где автор говорит что по-первой лучше не лезть. Я ее третью главу всю, наверное, с третьего захода осилил...
436 1286218
>>286204

>Есть смысл серьезно вкладываться


Есть, будешь на кассе в МакДаке перед другими математиками хвастаться
437 1286284
>>286194
Посиди над каждой минут сорок, если вообще ноль, смотри ответы. По сути это продолжение книги, только тебе дают возможность допереть самому и вырасти таким образом.
438 1286290
>>286284
Полных ответов в открытом доступе не видел. Официального мануала нет, а решения, публикуемые в интернете, как минимум не покрывают все задания (после где-то пятой главы уже только единицы упражнений решены), а зачастую ещё и с ошибками. В этом, пожалуй, один из главных недостатков книги.
439 1286298
>>286020
Вот не надо, это один из немногих его постов, который содержит годные мысли помимо шизы.
440 1286299
>>286116

>Ну классические алгоритмы не особо для видео подходят.


Почему?
Structure from motion для видео с дронов (облетаешь на дроне ангар и получаешь его 3д модель) сейчас довольно горячая тема.
441 1286306
>>286200

>Задачи сложные именно потому что требуют интуиции о том что все это значит.



Нихуя не понял построение предложения. "О том, что все это значит" может требоваться знание. Интуиция - это догадка, озарение. Ты точно не кальками с английского разговариваешь?
442 1286308
>>286306
Ты не слышал про математическую интуицию?
Надо в голове иметь целый багаж аналогий, чтобы чувствовать математические объекты, а не просто заниматься символьными преобразованиями. Научить этому сложно, а способность к этому сильно зависит от твоего IQ.
443 1286378
>>286218
Ну херня же. Где ты математика на кассе видел?
444 1286394
>>286299
А если мне при этом нужно моделировать какой-то реальный обьект и предсказывать его поведение?
445 1286402
>>286306

> Нихуя не понял построение предложения.


Нихуя не верю что ты не понял о чем я. Ты просто до семантики доебываешься потомучто попоболит.

> Интуиция - это догадка, озарение.


Интуиция - это когда тебе говорят SVD, а ты сразу представляешь: мультинорманльное расперделние, гиперплоскость на резиночках, таблицу расстояний между городами, отображающиеся эллипсоиды и, внезапно, W бозоны с кварками.
446 1286412
>>286378
Это петух местный. И ему не бомбит от математики.
447 1286424
>>286402

> SVD


> W бозоны с кварками


Ась?
448 1286463
>>286402
Хуя у тебя воображение. Олимпиадки / физтех? Я ничего кроме вращающегося эллипса себе не представляю.
449 1286498
>>286424
Это нетривиальная фича в Стандартной Модели -- Юкавские матрицы могут быть недиагональны -- им делаешь SVD и все хорошо, но остается CKM.

>>286463
Физик я да.

> Олимпиадки


Непотизм. Не люблю. Я из быдлосибири выбился.
450 1286520
>>286498
Когда в машобчик вкатился? В бакалавриате, в магистратуре, после?
451 1286553
>>286520
После. На PhD уже. Причем именно со стороны статистики и обработки эксперимента. Потом фрилансил датасаентистом - баезовы сетки вязал. Нейронные серъезно не трогал.
452 1286556
>>286553

>баезовы сетки вязал


Шапочку то хоть связал?
453 1286559
>>286378
Математиков даже в МакДак не берут, или на кассу, поскольку считать в риалтайме не умеют?
454 1286585
>>286559
Какое-то ты совсем полное говно. Даже тролишь уныло.
455 1286591
>>286585
Сколько паперов прочитал за последние 15 секунд?
456 1286641
>>286591
Чего тебя так паперы-то бомбят? Комплексуешь что тупой?
457 1286665
>>286641
Тут все комплексуют
458 1286666
Двач, функция правдоподобия даёт вероятность что х был правильно классифицирован при параметре w? А в функции макс правдободобия я подбираю w при котором эта вероятность наибольшая?
459 1286674
Как мне написать на этом ебучем TensorFlow простейшую LSTM структуру вида:

network = architect.Perceptron(636, 35, 35, 2)

Почему в Neataptic это делается одной строкой, а в TensorFlow непонятно вообще что делать, какие то горы текста с ебучими СОКРАЩЕННЫМИ названиями (как будто компилированный JS, блять, разбираешь)?

Просьба не троллить.

Сейчас, возможно налетит байтоёбская ЭЛИТА, которой "в кайф" (на самом деле нет, я знаю что это пиздёжь) ебаться с этими "структурами". Но факт остаётся фактом: от Angular, как и от TensorFlow можно только блевануть (тем не менее вопрос о создании простейшей структуры не отменяется).

Это мне нужно исключительно потому что Neataptic не поддерживает GPU, иначе я бы это говно вообще не трогал.
460 1286684
>>286591
Ну паперами ты же кичешься, типа кто больше васянского говна прочитал тот нейроэлитарий.
461 1286701
>>286666
Функция правдоподобия к задаче классификации относится опосредованно. Логистическую регрессию разбираешь?

Функция правдоподобия - это следующее: есть данные X, которые, как предполагается, распределены по закону F(x; z), известному с точностью до параметра z. Функция правдоподобия L(w) - это вероятность получить эти данные X при z = w: L(w) = p(X; w). (точнее, не вероятность, а плотность вероятности - вероятность-то там для непрерывных распределений будет 0)

В простейшем случае X - это просто выборка x1, x2, ..., xn независимых и распределённых по закону F(x; z); тогда L(w) = p(x1; w)p(x2; w)...p(xn; w).

Если это логистическая регрессия, то данные - это обучающая выборка - набор пар (xi, yi) (объект - ответ), а распределение выглядит так: p(x, y; w) = p(y | x; w) p(x) (p(x) - распределение объектов в пространстве, от параметров не зависит). Делается предположение, что p(y = 1 | x; w) = 1 / (1 + exp(-a(x))). Опять же, функция правдоподобия - это вероятность получить обучающую выборку, если параметр распределения равен w.

Функции максимального правдоподобия нет. Есть функция правдоподобия, для которой можно решать задачу максимизации. Это называется задача максимизации правдоподобия. Да, это задача подбора такого значения параметра w, при котором вероятность получить обучающую выборку наибольшая.
462 1286702
>>286666
неа
это не вероятность же
Что-то типа нахождения моды argmax_w p(w|x) = argmax_w p(x|w)p(w) при «равномерном» распределении p(w)
463 1286741
Как формулируется задача обучения ядерного SVM? Там есть ||w||^2 -> min_w, так вот, ||w||^2 - это квадрат евклидовой нормы или k(w, w)?
464 1286753
>>286665
Это "проецирование" называтеся, петушок
465 1286765
>>286741
А хотя всё, разобрался.
466 1286856
>>286665

> Тут все комплексуют


Нет, ты один тут такой, попандопуло жизнью обиженное. Лечись иди, пока не поздно. В окно же выйдешь или мамку свою ебнешь из-за остывшего борща.
467 1286879
>>286753
>>286856
Вот и комплексующие подвалили, лол
468 1286979
Output [0->1, 0->1] это какая loss функция? Output может быть: нулевой (при некоем условии, это вычисленно в данных), либо приводиться к вероятности от нуля до единицы.
469 1286982
>>286979

>Output [0->1, 0->1]


Чего?
470 1286984
>>286982
Output может быть: нулевой (при некоем условии, это вычисленно в данных), либо приводиться к вероятности от нуля до единицы.
471 1286986
>>286979
>>286984
Вообще похоже либо на логлосс, либо кросс-энтропия. Но я вс ё равно не понял задачу. "При некотором условии" - это "если для объекта выполнено условие, то ответ гарантированно 0, в остальных случаях считать вероятность"?
472 1286991
>>286986
При генерации данных из input до тренировки вычисляются следующие output: 0 при некоем условии либо вероятность 0->1.
473 1286998
>>286991
Ага, то есть в обучающей выборке ответы - это числа из [0, 1), так? А алгоритм что должен выдавать? Тоже числа из этого интервала? Или из {1, -1}? В первом случае можно попробовать статистические расстояния (расстояния между распределениями, https://en.wikipedia.org/wiki/Statistical_distance). Во втором, возможно, подойдёт всё тот же логит.
474 1287116
Нейранончики, авотскажите -- года два-три назад я обмазывался RNNками и все только и говорили что об LSTM. Потом мне не до всего этого было и я особенно не следил. Сейчас вернулся глянуть какой прогресс на этом поприще, а про длиннокороткопамять ни слова -- одни автокорелляторы, да attention networks какие-то. Что LSTM не пошла?
475 1287221
>>286394
Бамп.
476 1287275
Дописываю вот ии, и такое дело. Допустим в гипотетическом ии есть стиль коррекции ошибок. Ии что-то делает. И возникает ошибка. И тут, вроде бы, два варианта: вычислять дальше/дольше/по-другому, в надежде на более точный результат, жертвуя временем. Либо изначально вычислять недолго, с хуёвыми результатами, но брать количеством и получать больше фидбека от окружения, корректируя итоговую нейронку тупо числом неудач. Это кагбе качество против числа.
// я не программер, просто не знаю где спросить
Какие ещё стили коррекции ошибок могут быть у ии, чтобы не жертвовать скоростью выдачи результата?
477 1287286
>>287275
Ты сам не знаешь что спрашиваешь, да?
478 1287287
>>287275
Пихвовекторизацию попробуй
479 1287301
>>287287
Соглашусь с этим.
480 1287316
>>287286
Я не программист(1), и как мог переделал вопрос под нейронки, потому что машинное обучение это ближайшая тема к моей задаче. Не знаю пока как спросить нормально, в основном сам отвечаю на собственные вопросы.
В моём манямирке ии это самообучающаяся нейронка с железом которым она может рулить, у которой могут быть свои стратегии работы основанные на фидбеке от внешнего мира, и которая может грабить корованы. Если допустить что процесс обучения такой нейронки будет протекать беспрерывно и предположить что эти стратегии основаны на коррекции ошибочных действий при принятии решений, то можно сходить нахуй сделать вывод о предположительной возможости двух стратегий принятия решений во время беспрерывного обучения. Подумать дольше, потом сделать. Или делать до охуения, с ошибками, до момента пока нейронка не сформируется в степени достаточной для принятия решения с процентом точности овер сколько_то_там%процентов. Ну то есть мир типа не совершенен, окружение не будет ждать пока нейронка достигет, пусть даже этих, 96% точности. Требуются стратегии принятия решений при большом количестве ошибок ещё нихуя не готовой нейронки.
481 1287327
>>287316

> У меня дом человек живет и ест еду. Когда он ест он живет еду дом? Я не строитель.

482 1287329
>>287327

> У меня дом человек живет и ест еду. Когда он ест он живет еду дом? Я не строитель.


Ты кот
483 1287332
>>287316
Q-learning. Вообще почитай про reinforcement learning, для начала хоть про уравнения Хебба.
484 1287334
>>287332

>про уравнения Хебба


шаверму Кебаба
485 1287335
>>287327
Ну ёб твою мать, я не знаю как нормально объяснить.
Можно чистить картошку ножом, резать пальцы, но забивать на это хуй, до тех пор пока пальцы новые не отрастут и не сформируется навык чистки картошки. Будет большее количество проходов, навык сформируется быстрее
Можно чистить картошку ножом, медленно чистить, жертвуя скоростью принятия решений, не забивать хуй на порезанные пальцы, но навык сформируется неизвестно когда, и сформируется ли он вообще.
Вот какой-то такой выбор стоит, их вроде всего два, но не может быть такого чтоб не было третьего.
486 1287336
>>287334
>>287287
>>287301
Чухомор опущенный, сьеби отсюда.
487 1287337
>>287335
Как твоя сеть опознает ошибку?
>>287336
Иди паперыбумагу читай
488 1287339
>>287335

> Ну ёб твою мать


Симметрично. Ты слова пишешь, которые, сразу видно, что вообще не понимаешь что значат.
Тебе вон советуют Q-learning. Я еще могу бандитов, эксплорейшен/эксплуатейшен и всякие эпсилон-greedy подкинуть. Но тебе это все рано-же.
489 1287341
>>287339
Не понял где искать эксплорейшен алгоритм(?) или что там? Вот это вот есть, https://ru.wikipedia.org/wiki/Метод_Хука_—_Дживса

так или иначе, глянул это всё, оно слишком относится к элементарным алгоритмам, микро-уровню, из которых строится макро, далеко они от решения макро-проблемы.
490 1287348
>>287341
Это что, получается, меня все время всё то-же говно тролило?
491 1287364
>>286998
Вот эти скобки [, (, { что означают? Как они называются?
492 1287367
>>287364
А вот нефиг было в девятом классе в ПТУ бежать скорее. Сейчас бы знал из программы десятого класса, что это обозначение отрезков/интервалов

],[ - включают грацы (левую или правую)
),( - исключают границы

{a, b, c, ...} - перечисление

мимо
sage 493 1287370
>>285028
хаха красава братиш как ты его))))
494 1287377
>>286998
Если я буду обычный softmax использовать для loss функции - она будет учитывать тот факт, что probability в output data где-то в более, чем 70% = 0?
495 1287391
>>287370
Проходи мимо, сталкер
496 1287403
>>287335
https://web.stanford.edu/class/psych209/Readings/SuttonBartoIPRLBook2ndEd.pdf

во 2ой главе, можно сказать, что

> резать пальцы, но забивать на это хуй


описывается, у тебя есть жадный алгоритм, а тебе нужно найти оптимальный
498 1287428
Почему не работает?

# [ [9278, 37.9, ...], [18594, 36.3, ...], ... ]
print(training_set_input.shape) -> (300, 636)

# [ [1, 0], [0, 1], ... ]
print(training_set_output.shape) -> (300, 2)

model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=(300, 636)))
model.add(tf.keras.layers.Dense(2, activation='softmax'))
model.compile(optimizer='adam', loss='mse')

history = model.fit(training_set_input, training_set_output, validation_data=(validation_set_input, validation_set_output), epochs=10, batch_size=32)

////////////////////////////////////

File "network.py", line 85, in train
history = model.fit(training_set_input, training_set_output, validation_data=(validation_set_input, validation_set_output), epochs=10, batch_size=32)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/models.py", line 920, in fit
validation_steps=validation_steps)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 1592, in fit
batch_size=batch_size)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 1431, in _standardize_user_data
exception_prefix='input')
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 144, in _standardize_input_data
' dimensions, but got array with shape ' + str(array.shape))
ValueError: Error when checking input: expected lstm_1_input to have 3 dimensions, but got array with shape (300, 636)
498 1287428
Почему не работает?

# [ [9278, 37.9, ...], [18594, 36.3, ...], ... ]
print(training_set_input.shape) -> (300, 636)

# [ [1, 0], [0, 1], ... ]
print(training_set_output.shape) -> (300, 2)

model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=(300, 636)))
model.add(tf.keras.layers.Dense(2, activation='softmax'))
model.compile(optimizer='adam', loss='mse')

history = model.fit(training_set_input, training_set_output, validation_data=(validation_set_input, validation_set_output), epochs=10, batch_size=32)

////////////////////////////////////

File "network.py", line 85, in train
history = model.fit(training_set_input, training_set_output, validation_data=(validation_set_input, validation_set_output), epochs=10, batch_size=32)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/models.py", line 920, in fit
validation_steps=validation_steps)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 1592, in fit
batch_size=batch_size)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 1431, in _standardize_user_data
exception_prefix='input')
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 144, in _standardize_input_data
' dimensions, but got array with shape ' + str(array.shape))
ValueError: Error when checking input: expected lstm_1_input to have 3 dimensions, but got array with shape (300, 636)
499 1287431
>>287428
сделай expand_dims и преврати массив (300, 636) в (300, 636, 1) или (1, 300, 636), не знаю, как там правильно
500 1287440
>>287431

>expand_dims


np.expand_dims(test_set_output, axis=2) -> (300, 636, 1)

Не работает:

ValueError: Error when checking input: expected lstm_1_input to have shape (None, 300, 636) but got array with shape (300, 636, 1)

Как превратить в (None, 300, 636)? И зачем это? Что это? Не понимаю.
501 1287441
>>287440
мне лень читать твою ошибку - но None - это размер батча (типа переменный), остальное - твои данные
502 1287442
>>287431
np.expand_dims(training_set_intput, axis=0) -> (1, 300, 636)
np.expand_dims(training_set_output, axis=0) -> (1, 300, 2)

Не работает:

ValueError: Error when checking target: expected dense_1 to have 2 dimensions, but got array with shape (1, 300, 2)
503 1287445
>>287440
У тебя keras принимает работу над батчами на себя, поэтому когда ты пишешь model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=(300, 636))), фактически твоя модель ожидает тензор размерностью (число_батчей, 300, 636), где число батчей произвольное, что и обозначается как None.

Перед Dense сделай Flatten, Dense не работает с 2д
505 1287448
>>287428

>model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=(300, 636)))


А, понял. Ты пишешь 300, 636, так как 300 размер твоего трейнинг сета, а выглядит это так как будто ты имеешь инпут картинкой. Керасу не нужно это. Пиши
model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=( 636)))
И все.
506 1287449
507 1287450
Тогда shape твоего инпута в tf будет (None, 636) и (300, 636) подойдет
508 1287452
>>287445
Если я делаю (np.expand_dims(training_set_input, axis=0), то у меня тогда ведь получается один input sample?

Добавил
model.add(tf.keras.layers.Flatten()),
не работает: (тот же самый ValueError (1, 300, 2))
509 1287455
>>287448
Это тоже не работает. Изначально я и писал так:

model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=( 636,)))

Не работает с expand_dims, и без него.
510 1287469
>>287446
Спасибо
511 1287918
https://www.youtube.com/watch?v=9rDhY1P3YLA
ЧТо скажите про курс?
512 1288024
>>287918
Ролик забавный
513 1298418
тест

Ошибка:
Капча невалидна.
514 1305561
посоветуйте тип нейросети из https://en.wikipedia.org/wiki/Types_of_artificial_neural_networks для 3д-игр ?
конфигурация нескольких ?
допустим есть 800х600px - 10fps входные данные
515 1305563
надеюсь хотя бы тут нейросети не постят ?
Тред утонул или удален.
Это копия, сохраненная 5 декабря 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски