Двач.hk не отвечает.
Вы видите копию треда, сохраненную 3 сентября 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.5 /ai/ 1209084 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем выяснять, кто двигает ноуку: толпы смузихлёбов или фундаментальные деды.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ | https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.cf/thread/340653/
http://arhivach.cf/thread/355442/
http://arhivach.cf/thread/360889/
http://arhivach.cf/thread/366809/

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1190173 (OP)
2 1209089
Продолжаем писать хуйню, господа.
3 1209093
>>09084 (OP)
В ответе на этот пост можете предлагать исправления для шапки. inb4 оп - хуй, шапка - говно
чегоблядь.webm420 Кб, webm,
1280x720, 0:01
4 1209141
>>09093
Оп, ты сам этот диплернинхпук читал? Это же пиздец натуральный. Чисто по приколу потыкал, с 9 главы про сверточные сетки у меня пикрелейтед реакция. Чего они там нахуевертили, суть этой хуитки в пару картинок можно пояснить, для кого они там развели бодягу? Хуй проссышь же, про начинающих вообще молчу.
5 1209147
>>09141
грантогоспода получают бабосы
6 1209155
>>09141
Читал немного. У меня мат. образование, мне норм было.
А как надо-то? Как хипсторы на медиумах, где "жмакните сюды, хуяк-хуяк, готово" и ничего совсем не объясняется? Да и не сказать, что там хардкор прям.
7 1209233
>>09141
Читай Мурзилку.
>>09093
Все кроме диплернингбука в печь. Так и оставить одну строчку: тред про нейроночки, для вката читай это.
Пик с колобками это моветон, мы же не хотим возвращения старых тредов, где сидели какие-то чуханы и несли какую-то дичь? Мы этого не хотим.
8 1209261
Че за цирк вы развели с умножением в прошлом треде? Вопрос был про вывод формулы и применение правил суммирования и умножения из теорвера.
9 1209270
>>09261

>цирк


Добро пожаловать в нейроночкотред. Снова.
10 1209275
>>09261
Я понял твой вопрос, но он настолько элементарный, что объяснять слишком долго, и толку от этого будет мало. У тебя нет базы, и пока ты нормально не изучишь матан и тервер, тебя будет ставить в тупик каждое уравнение. Тебе не нужен ответ, тебе нужно учиться, и ответ станет для тебя очевидным.
11 1209302
>>09261

> Вопрос был про вывод формулы и применение правил суммирования и умножения из теорвера.


Хоспаде, да это первая глава любого учебника по теорверу, Вентцель, например. Разница только в том, что в твоем уравнении были векторы вместо скаляров, т.е. еще линейная алгебра впридачу.
12 1209305
>>09233

> Читай Мурзилку.


>>09093

> Все кроме диплернингбука в печь.


Ух, какой боевой свидетель смузи и сойлента. А потом такие вот сектанты сда приходят про сигмы и сложение/умножение вероятностей спрашиивать, и искренне охуевают от того, что знак умножения можно не писать, лол.
13 1209383
Есть сет для тренировки нейросети в виде пит булей. Как умножать векторы?
14 1209389
>>09261
Вопрос был о знаке звёздочки в макабе. Но маняматики не могли применить теорему Байеса для мысли. Читайте Гарри Поттер и методы рационального я сказал! Лучшие введения в диплернинг бубук! А китайцы уже давно кушают бамбук!
15 1209448
Нейроночки это зависимый тип или граф?
16 1209466
>>09448
Да.
17 1209483
>>09448
Это массив.
18 1209503
>>09448
Моноид в категории эндофункторов.
19 1209551
>>09503

моноидальной категории эндофункторов

15272115924151.jpg50 Кб, 960x492
20 1209554
>>09551

> в моноидальной категории эндофункторов


В монголоидальной. К слову, на coq'е есть либа flocq, как раз для доказательства свойств алгоритмов, вычисляющих вещественные числа. Так что формализовать даже самые ебанутые нейроночки с нахуеверченными тысячами слоев и параметров можно уже сейчас, но хипстеры не могут в пруверы.
21 1209566
Закапывайте свои нейронки, уже нимодно
22 1209906
А что читали лично вы, чтобы вкатиться? Мне интересны советы анона, помимо диплернинг бука.
23 1209923
>>09906
Да все подряд читай, что зайдет, то и лучше. Что-то полезное вынесешь из любого чтива. Я когда-то вообще начинал с Хайкина, лол.
24 1209944
>>09906
Советую поступить на специальность и получить нормальное комплексное образование. Не в России, конечно.
25 1209945
>>09944
Поздно, я уже учусь здесь.
26 1209958
>>09945
Пока на границе в спину не стреляют, можешь забрать документы и поступить туда где твое образование будет признаваться международным сообществом.
27 1209962
>>09958
А денег ты мне на это дашь?
28 1209966
>>09962
Подайся на стипендии, попробуй на бюджет (в некоторых странах Европы), проси скидку у университета, для студентов из нищих стран вроде России могут сбросить больше половины (в Европе), как поступишь, будет много возможностей получить стипендии и гранты. Если ты самка, то тебя завалят деньгами множество фондов, поддерживающих девушек в STEM.
Серебряная пуля - заработай, тыжпрограммист, в коридорах постоянно будут шататься стервятники из всяких загонов для вебмакак.
29 1209968
>>09966
Спасибо, но твой совет не релевантен.
3dunderstanding.gif7,2 Мб, 800x300
30 1210015
Свежачок от дипмайнд: https://deepmind.com/blog/neural-scene-representation-and-rendering/
Нейроночка по одному кадру восстанавливает 3д сцену и рендерит ее с любой точки. Также это используется в обучении с подкреплением.
31 1210025
>>10015
Ролик снят, бюджет освоен, все довольны.
32 1210157
Запишите в шапку, что МФТИ - сборище додиков, а курс яндекса и физтеха на курсере обсирается на моменте с нейроночками.
33 1210158
>>10157

>папуасия


>нейроночки


А про твою ЕОТ ничего не записать?
34 1210160
>>10158

>ЕОТ


У меня нет такой. Хотя тяночка-лекторша из Яндекса мне понравилась.
15285218960541.jpg345 Кб, 1366x2048
35 1210180
>>10015
А оно только цылиндеры может рендерить, или по любой фотке может восстановить триде?
36 1210184
>>10180
Только геометрические фигуры из тренировочного множества. В блоге посмотри, там много примеров.
37 1210185

>1209084


Вопрос к знатокам.

Хочу использовать colab не для обучения игрушечных моделей на mnist-е, а для чего-то более приближенного к реальности.

Соответственно, есть проблема: надо уместить датасет с фотографиями 224х224 в количестве около 2 миллионов в этот самый cloab...

Как это сделать?

На ум приходят только генеративные модели...

Насколько реально воспользоваться DCGAN-ом для генерации изображений для подачи на вход обучаемой модели?

Есть ли предобученные GAN-ы, которые могут выдать что-то вроде imagenet в разрешении 224х224?
38 1210191
>>10185
На заре ГАНов люди пытались вроде просто на свалках картинок вроде CIFAR или imagenet обучать. Такой ГАН выдает обычно нагромождение цветных пятен и линий, простейшие текстуры. Если тебе подойдет такое, то тренируй. Предобученные вряд ли найдешь, ввиду их бесполезности.
1526457578188720189.jpg61 Кб, 400x711
39 1210198
>>10157

>МФТИ


Это всегда было поехавшее кукушкой дно из Долгопрудного
40 1210320
>>09084 (OP)
https://arxiv.org/pdf/1707.07012.pdf
Пиздос!

Датасайентисты не нужны!
41 1210326
>>10320
Что там? С тилибона не грузится.
42 1210344
Поясните за область применения этих ваших нейроночек. Вижу, что тут все картиночки анализируют.
Есть петпроектик по анализу веба, вот думаю, стоит ли туда вкрутить инс. Насколько это будет эффективно, и насколько готовые решения умеют в такого рода анализ.
43 1210383
>>10326

>


>Что там? С тилибона не грузится.



Ну, короч, в Гугле запилили LSTM-ку, которая дизайнит сверточные сети, обучили ее методом подкрепления, и Она выдала NasNET-A, который уделал на ImageNet топовые архитектуры, спроектированные человеками.
44 1210388
>>10344
Ну там не только картиночки, какбе, там ешё мыниный перевод, чат-боты там всякие, имитатор твиттера трампа и т.д.
45 1210395
>>10383
Ну, такое. Сто лет известно, что гиперпараметры одного алгоритма можно подсунуть другому в виде параметров.
46 1210517
>>10344
На картиночках был первый прорыв, он же основной. Еще большой шаг был в распознавании речи (сейчас 100% этих систем на нейроночках, как и в картинках), обучении с подкреплением (хотя там речь тоже всегда идет о картиночках, так что трудно отделить одно от другого), генеративных моделях (с картиночками). Совсем без картиночек самое заметное достижение было в differentiable neural computer. В НЛП есть продвижения, но относительно небольшие.
Не знаю, что за анализ веба у тебя. Готовых решений никаких нет.
47 1210541
>>10517

>сейчас 100% этих систем на нейроночках,


Не не пизди, нейронки там сосут как и везде
https://blog.neospeech.com/top-5-open-source-speech-recognition-toolkits/
48 1210710
>>10383
Ты вообще понимаешь что такое архитектура свёрточной сети? Это хуя слой, хуяк сюда ещё один и хуяк пул между ними, а тут хуяк полносвязку на выход, заебись, Петрович, щас всех котов и собак посчитаем.
49 1210753
Чувак сделал публичный бесплатный сервис для проверки рентгеновских снимков груди на наличие опухолей: http://neuralrad.com:5000/
Сам сделал адово точную модель, собрал на свои деньги кластер из 50 1080ти, и прицепил веб-сервис и десктопную прогу.
50 1210755
>>10753
Нахуя?
51 1210769
>>10755
Чтобы получить халявных фоток с сиськами
52 1210947
Так вот там lstm составляла дизайнала модули (обычный и с пуллингом, типа как в инсеишонах всяких там), которые потом стекали, добавляли к ним полносвязные слои и обучали.

Чем выше получался скор на сифар 10, тем больше вознаграждение.

В итоге, нейросеть спроектировала модули круче, чем человек...

Из этих модулей составили несколько сетей, обучили на имаджнете, и уделали все, что до этого спртектировали жалкие людишки!!!
53 1210951
>>10947

>уделали


>на один процент


>ценой значительного роста вычислительной сложности и числа параметров


>получили архитектуру с кучей логических ляпов и несуразностей


>теперь еще меньше понимаем, что происходит внутри сети

54 1210968
>>10951

>уделали


>на один процент


Более чем достаточно, чтобы на кагле срубить даже не десятки к$.
55 1210969
>>10968

>кагле


Говно твой кагл, там хуйня одна потешная
56 1210970
Алсо, асимптотически-эффективные методы, они такие. Добавил сотню видюх в кластер - получил 1% прироста эффективности, добавил еше сотню - получли еще +0.1%. Вам еще в 60-е пояснили, что это путь в никуда, и нужно копать в сторону неасимптотически-эффективных методов.
57 1210973
>>10970

>неасимптотически-эффективных методов.


По русски говори
58 1210978
>>10973

>По русски


Значение знаешь?
59 1210981
60 1210982
>>10968
Да там уже сто лет нет денежных компетишенов с картинками
61 1211107
>>10951
Топ-1 выше на 1%, вычислительная слоюность на 28% ниже, чем было до.

Тебе че бомбить то так, шизик?
62 1211116
>>10970

>неасимптотически


Какое тогда мерило эффективности алгоритма использовать, если не асимптотику?
63 1211162
>>11116

>мерило эффективности алгоритма


Симпоанусуческое схождение
64 1211164
>>11116
На эту тему целая теория статистического обучения.
65 1211165
>>11162
Анусопердолинговый коэффициент
66 1211167
>>11162
Мохнатое О
67 1211226
>>11107
То, что компуктер брутфорсом улучшил архитектуру сделанной человеком нейронки, означает лишь то, что человек пиздец как не понимает, как нейронки внутри работают. Это не прогресс, это шаг назад.
Да, и на сравнительные графики стоит добавить число параметров, а то память тоже не резиновая.
68 1211229
>>11226

> брутфорсом улучшил


> человек пиздец как не понимает, как нейронки внутри работают


Опять ты на связь выходишь, мудило гороховое? Чем тут срать, лучше бы почитал что-то по теме, глядишь не выглядел бы полным дауном.
69 1211268
>>11229

>мудило гороховое


я не гороховое
vovkavtridevjatomcarstve.jpg28 Кб, 280x280
70 1211329
>>11229
А там и читать нечего, кроме ссаного пейпера. Конфигурацию слоев нейронки ищут с помощью другой нейронки, гоняя эту хуету на 500 GPU. В результате архитектура сети подгоняется под конкретный датасет (на другом надо делать все по новой).
Охуеть прорыв.
71 1211423
Cкиньте лучше мем с карлсоном
73 1211454
>>11423
Зачем тебе это, когда уже генератор мемов сделали: https://arxiv.org/abs/1806.04510
Dank Learning: Generating Memes Using Deep Neural Networks
Abel L Peirson V, E Meltem Tolunay
(Submitted on 8 Jun 2018)

We introduce a novel meme generation system, which given any image can produce a humorous and relevant caption. Furthermore, the system can be conditioned on not only an image but also a user-defined label relating to the meme template, giving a handle to the user on meme content. The system uses a pretrained Inception-v3 network to return an image embedding which is passed to an attention-based deep-layer LSTM model producing the caption - inspired by the widely recognised Show and Tell Model. We implement a modified beam search to encourage diversity in the captions. We evaluate the quality of our model using perplexity and human assessment on both the quality of memes generated and whether they can be differentiated from real ones. Our model produces original memes that cannot on the whole be differentiated from real ones.
74 1212011
На Яндекс блице осилил только одну задачу
Какая же я чмоня, как же глубоко я себя ненавижу
75 1212055
Аноны, скажите: бинарные переменные можно рассматривать как частный случай ординальных, или лучше только номинальные?
76 1212056
>>11329
А вот хуй! Архитектура слоя перенеслась с Мицар на имаджнет!
77 1212066
>>12055
Да.
78 1212067
>>11438
Этот неревелантен.
>>11454
Где там получить моего карлсона?
79 1212163
>>12056
Это ты вот эту олдфажную годноту вспомнил: https://en.wikipedia.org/wiki/Mizar_system ?
80 1212171
>>12067
Жди когда сделают сервис, где за биткоины можно будет купить рарные мемы. Для голов анимешных девочек уже сделали: https://crypko.ai/#/
81 1212238
>>12171
У меня от этого испанский стыд
82 1212243
>>12238
Анимешник, please.
152929791317418822.jpg34 Кб, 700x393
83 1212288
84 1212345
>>12243 FS@UR. Экс вен? Давай мыло, вопросы должны быть отвечены, не время прятаться. Не оттягивай неизбежное. А то неизбежное сделает кусь-кусь. ^_^
85 1212359
>>12345
void ToExpand(_u1 ٭ _flag, F_S_N<T, I> ٭ _F)
{
_u4 i0, i1, i2; _i4 nowd;
_F->root = root;
F_S_Ns<T, I> tmp0, tmp1, ٭tmp;
F_S_N<T, I> ٭FF;
_F->Space.Init(11);
_F->Dimensions.CopySet(&Dimensions);
_u1 dcross = 1; i0 = 0; while (i0 < Dimensions.now)
{
if (_flag[i0])
{
_flag[i0] = dcross++;
FF = root->F + Dimensions.D[i0].D;
i1 = 0; while (i1 < FF->Dimensions.now) _F->GetD(FF->Dimensions.D[i1++].D);
}
i0++;
}
86 1212361
>>12163
Нет, это вспомнила анальная автозамена от гугла, когда я ввел СИФАР10.
87 1212381
>>12359

>Space.Init(11)


>11


Не лезь дебил, она тебя сожрет! Алсо теория струн конфермед?
88 1212386
>>12381
Обязательно умрем.
Работаю над этим.
89 1212391
>>12359 Пиши давай, в общем.
fs6cTrur11ANUSgmai!39lPUNCTUMcoF]wm
90 1212481
>>12391

>Пиши давай


А ты няшный?
91 1212628
>>12238
Представь еще сколько трудов ушло на это. Скорее всего ради резюме старался чел, ну и надеялся на взлет как у https://www.cryptokitties.co/ , но забыл про вложения в рекламу. Вообще вся эта область это ад какой-то. Хотя может это мы старые и отсталые, не понимаем нового мира.
92 1212636
Блэт, кто-нибудь юзал Accord.NET? Пытаюсь воспроизвести пример https://www.mathworks.com/help/images/texture-segmentation-using-gabor-filters.html , но ебучая кластеризация даёт пикрил1. Если полученные из PCA дескрипторы визуализировать, получается пикрил2 - вроде бы явно прослеживается разница в текстуре, но к-средних такую залупу даёт.
93 1212739
>>12636
Юзал лет 7 назад, когда мне было еще не очевидно, что дотнет мертв, и нейроночки еще не взлетели.

>анализ изображений с помощью РСА и к-средних


А почему не на Фортране?
94 1213015
>>12739
Есть другие простые способы уменьшить размерность вектора и кластеризовать данные?
95 1213017
>>13015
Простых нет, ты выбрал самые простые, поздравляю. Есть работающие.
96 1213028
>>12481 Не о том думаешь, мясо. Хотя...

>мясо


>думать

97 1213038
>>10753
Ссыль давай!
98 1213047
Короче я так понял ML и НС это для пидарасов, желающих отобрать у обычных работяг рабочие места.
99 1213105
>>13017

> Есть работающие.


Диплернинх? Ну вообще да, стыкованные аутоэнкодеры это могут, но они ж тоже не в моде, на коворкинге засмеют.
image.png466 Кб, 600x478
100 1213166
>>13047
Всего лишь попытка успешно распознавать корову
101 1213348
>>13166
Что означает "базовая функция" в машинном обучении?
102 1213397
Как же мне печет с вашего хайпа, когда он уже протухнет?

Мимо архи-ранняя птичка, пытавшаяся в машоб в 2007 и наткнувшаяся на стену непонимания
103 1213404
>>13397
Обустраивайся на помоечке поудобнее.
104 1213412
>>13404
Ну мне сейчас неплохо, это скорее датасцаентисты на помоечке будут, если сравнивать.
105 1213425
>>13412
Мантры это хорошо, помогают психике не сломаться.
106 1213616
Гоняю модель кераса по таблице параметров в цикле и она зависает при переходе на следующую итерацию. Как пофиксить? Заменил модель на регрессию из sklearn - нормально делает гридсерч, обучается, выводит результаты в файлы и переходит на следующую строчку таблицы с другими параметрами, никаких проблем. Возвращаюсь на модель из кераса - считает первую итерацию, выводит результаты в файл, переходит на следующую строку в таблице и на этапе гридсерча фризит.
107 1213739
>>13616
Что там за параметры у тебя? Может, ты делаешь миллион слоев или тому подобный идиотизм.
108 1213742
>>13739
Нет, когда не получилось с моделью которая нужна, попробовал самую простую - в один слой.
109 1213752
>>13742
Вся суть. Вместо применения нескольких слоев пытаются изучать Вапника и делать всё на однослойном перцептроне.
110 1213760
>>13752
Для тех кто читает мугичкой, однослойный перцептрон нужен чтобы потестить будет ли цикл переходить на следующую итерацию. Спойлер - не будет.
image.png94 Кб, 705x609
111 1213765
>>13760
У маняматиков всё по шаблону. Они даже не могут самостоятельно написать комментарий на дваче, не то что пейпер. Все мемы уже выучил?
112 1213837
>>10753

>публичный бесплатный сервис для проверки рентгеновских снимков груди на наличие опухолей


Получит сгущёнки 100%
113 1213855
>>13760
Код цикла выложи, гляну.
114 1213987
>>09084 (OP)

>Где работать? https://www.indeed.com/q-deep-learning-jobs.html


А в России? Хочу перекатиться в это.
116 1214037
>>14027
Я же не в фронтенд пытаюсь вкотиться.
117 1214046
>>14037
Нужен фронтенд для нейроночек на блокчейне. Суть проста: пишешь лэндинг, пэйпэр и продаёшь свой смузикойн с инвестицией в нейронные сети.
118 1214048
>>14037
Во-первых в рашке нет шансов; во-вторых кто в здравом уме хочет работать в рашке, если есть возможность работать вне ее?
119 1214054
>>14046
Смишно.
>>14048
Понятно, значит в Рашке ничего нет. А работать вне ее пределов - трудно, кому нахуй нужен русский иммигрант-самоучка с кое-какими начальными знаниями?
120 1214080
>>14054

>кому нахуй нужен


Если ты хочешь, чтобы тебя уговаривали, то этого не будет. Каждый сам за себя, нейронщик нейронщику волк!
121 1214082
>>14080
Нет, ну это естественно, просто мне в такой вариант развития событий не особо верится. Есть где блоги или хотя-бы отдельные пасты про таких вкатывальщиков?
122 1214088
>>14082
Леночка.
124 1214092
>>14082
А почему бы не взять и просто без задней мысли получить профильное образование, PhD и перестать быть вкатывальщиком?
125 1214099
>>14089

>https://habr.com/post/310776/


Его кегля: https://www.kaggle.com/iglovikov

>highest rank: 19


>1st, 3rd, 7th


Едрить он крутой

>Спецназ ВДВ. Медаль за Чечню. (2002-2004)


...
126 1214102
>>14092
Нет денег на обучение за границей.
127 1214104
>>14102
в европе много вузов бесплатно, еще и тебе будут платить выше средней по россии
128 1214105
>>14104
У меня сейчас сознание сделало сальто назад.
Что, прости? Это касается только Ph.D?
129 1214111
>>14104
По подробнее пжлст
130 1214114
131 1214117
>>14105
>>14111
-> >> 1209966
132 1214358
>>14099

>https://habr.com/post/310776/


Ну из физиков-то чего бы не вкатиться в эту парашу
133 1214397
>>14092

>без задней мысли получить профильное образование, PhD


И сколько лет это займёт? Твои нейроночки уже неактуальны к тому времени будут.
134 1214405
>>14397
Это у веб-макак все становится неактуальным через год, но куда вкатывальщикам понимать такое.
135 1214436
ПхД требует же каких-то телодвижений, умения рычать и двигать тазом в научной среде. Это похоже на то, чтобы найти тяночку.
136 1214438
>>14436
ПхД похоже на то, чтобы быть тяночкой и двигать тазом под научным руководителем, который за старания может поделиться тобой с друзьями.
Ill Nino - God Save Us.webm904 Кб, webm,
678x676, 0:50
137 1214628
Сегодняшний ИИ - это БД и механизмы её обработки и создания.
138 1214679
>>14628
Любой интеллект это БД и механизмы её обработки и создания.
139 1214684
>>14679
нет
140 1214690
>>14679
Почему не споришь с Моим Величеством, не понял? :(
141 1215307
>>14679
Да, память это да
142 1215409
>>14679
Толко большинство этого не понимают. А может, и ты не обращал на это внимания, пока не прочитал пост.
143 1215517
>>14679

>это БД


Кокой БД и как там хранится информация?
144 1215520
Тэкс бля, анончик. Написал я тут свою первую нейросеть, которая должна правильно считать XOR. На вход подается два числа - 0 и 1 в разных комбинациях. Есть два скрытых нейрона и один выходной. На нем собсна должен быть либо 0, либо 1. Так вот, по итогам обучения, сеть начинает правильно считать только один ответ. Например при подаче 01 и 10 он правильно выдает ответ 1, но на оба других сета он так же выдает 1. И считает ошибку в 50%. На этом он прекращает обучение. Его это устраивает епту а меня нет. Это значит, что я даун и неправильно сеть написал или я чего то еще не знаю? Я добавил bias, но ничего не изменилось. Изначально везде значения рандомные от -5 до 5.
145 1215524
>>15520
Нейронов нафигачь побольше, начальные значения в интервале +-0.01, bias нужен обязательно. Ну и судя по твоему посту вероятность того, что ты набажил в градиентном спуске 95%.
146 1215559
>>15517
Не важно как, по разному, описана сама суть сегодняшнего "ИИ".

Фуфуло это, а не ИИ.
147 1215562
Треду нужна матановая капча от спама школьников-гуманитариев.
148 1215565
>>15562
Какой-нибудь вольфрам такую капчу легко сожрёт.
149 1215586
>>15565
Они не знают про вольфрам, и не знают как там ввести эти смешные закорючки.
15274767292080.jpg83 Кб, 977x1024
150 1215598
Почему в этом вашем диплернинхе не в моде иерархический софтмакс? Он же снижает число настраиваемых параметров нейроночки до его логарифма. В word2vec это замутили, и получили нейроночки, которые на процессоре могут строить модели векторных представлений текста из корпусов в миллиарды слов. Без всяких видюх. Автор, что характерно, внешне абсолютно не похож на хипстера. Я уже реально верю, что хипстерство - 100% детектор дегрода.
151 1215706
>>15586
Пучкнул с этого деда.
152 1215762
>>15524
Я сделал всё таки, проблема была в том что я долбоеб я ошибся в формуле дельты выходного нейрона.
153 1215786
Как создать нейронку которая будет узнавать наиболее частые данные? C++, вектор, сортировка?
154 1215800
>>15786
Какой результат ты хочешь?
155 1215810
>>15800
У меня есть программа которая коллекционирует данные в текстовый файл. Нужно эти данные анализировать не самостоятельно. Общие, наиболее частые из этого файла. Как это делается правильно? Файл в вектор, вектор сортировать, отправить в следующий нейрон?
156 1215813
>>15810
Пиздец, вместо того, чтобы учить анализ данных сразу МАШОБЧИК НЕЙРОНОЧКИ ИИ БЛОКЧЕЙН ДИПЛЁРНИНХ.
157 1215815
>>15810
Анализировать чтобы получить какой результат? Если тебе нужно просто вывести статистику на моду, медиану и среднее значение встречающихся данных то это делается простыми функциями какого-то нумпая изкоробки.
158 1215820
>>15813
>>15815
Не, я просто думаю на счёт вкатывания в тензорфлоу или свое сделать. Тензорфлоу с плюсами не работает. Смогу ли подобие тензорфлоу сделать?
159 1215837
>>15820
Слесарьфлоу это огромная библиотека в которую вкладывается Корпорация Зла. Для С++ есть Caffe. Еще есть сишный Torch у которого врапперы под кучу языков, включая плюсы. Но судя по тому что ты несешь, тебе стоит почитать пару книг из шапки чтобы отбилось желание "вкатываться в тензорфлоу" и "вектор сортировать, отправить в следующий нейрон". Нейроночки это не хипстерский фреймворк для вебмакак, тут нужно глубокое знание матана и годы изучения матчасти.
160 1215842
Посоны, подскажите модели для сегментации, хочу пробнуть в darknet но не пойму структуры сети.
161 1215846
Пиздец, бля. Захотел вкатиться в слак попендатасайнс. Полмесяца назад заявку отправил, заигнорили.
162 1215857
>>15846
Просто ты нам не нравишься.
163 1215858
>>15846
Два предложения не смог сказать без мата и быдлослога. Прирожденный датасаентист.
15166655210520.jpg217 Кб, 1024x768
164 1215860
Поздно ли пытаться стать дата саентистом/инженером в 24 года?
165 1215862
>>15860
Конечно, иди нахуй, нас тут и так много.
166 1215864
>>15858
Их три, уебок.
15175070893760.jpg23 Кб, 343x360
167 1215865
>>15862
Поцоны говорят, что дефицит.
168 1215867
>>15864
Ну если три, то все ок.
169 1215871
>>15865
Пиздят.
170 1215873
>>15871
Ну ниче, будешь меньше получать. Мне норм - все лучше 10 тыс. на завчике.
171 1215892
Нейроночки на фрилансе это есть?
172 1215895
Сойбои, что такое пэйперсы?
173 1215898
Подскажите,плиз, если какие-нибудь решения для машин лернинга на Java, что бы это можно было реализовать, например для мониторинга логов в крупном EE приложении?
174 1215902
Осторожно! Эта сторона треда под обстрелом.
175 1215945
>>15895

> Сойбои, что такое пэйперсы?


Статьи.
>>15898

> Подскажите,плиз, если какие-нибудь решения для машин лернинга на Java


Слесарьплов js.
176 1215956
>>15786
Как создать птицу, которая будет помогать наиболее чистые кастрюли? Ворота, автомобиль, готовка?
177 1215958
Посоны, а чо с фрилансом в данной области, он вообще жив?
178 1215960
>>15958
Удалось найти подработку-проект по распознаванию номеров за 50к
179 1215962
>>15960
На каких площадках искал, апворк или что-то русское? Надеюсь, ты меня не просто траллишь
180 1215968
>>15960

> распознавание номеров


Семестровый проект какого-то тупого студента.
181 1215997
>>15945

>Слесарьплов js.


я не знаю аших локальных мемов, переведите, пожалуйста
Untitled.png890 Кб, 1100x613
182 1216002
Почему не рекогнайзит?
183 1216003
>>16002
Тут проблема не в базе. Что не так с алгоритмом?
184 1216004
>>16002
Потому что ущербная модель. Для таких четких снимков и ракурса можно хоть хаар-каскад натренировать.
185 1216013
Антоны, а в современных сетях по распознаванию изображений сейчас все так и строится на количестве слоев?
Есть где-нибудь работы, где бы пытались повторить особенности человеческого глаза или пальцев, у которых в центре чувствительность больше?
Обычные сверточные и не только сетки я писать умею, интересно бы и такое ввести и посмотреть, насколько точнее сумеет распознавать.
186 1216015
>>16013
attention is all you need
187 1216019
>>16013
Машиной Больцмана повторили мозги котиков.
188 1216020
>>16015
Cпасибо, почитаю.
189 1216049
>>16020
Там про последовательности, правда. Но в изображениях тоже много где применяется, ищи по слову attention.
190 1216057
Аноны, хочу перекатиться из нейронок в практический анализ данных. Искать там всякие неочевидные связи и инсайты. Что можно почитать по теме? Может какие-то годные курсы на курсере есть?
191 1216061
>>16057
"Наглядная статистика. Используем R" попробуй.
192 1216077
>>16061
А весь датасайнс на R делается? На питоне/pandas не смогу вкатиться?
193 1216153
>>16077
pandas вроде не особо популярная приблуда, хотя хорошая, если надрочиться с индексами и выборками. На питоне все нейроночки, без них никуда. На р больше статистики всякие работают, еще у них популярна эзотерика вроде САС. Смотря где ты будешь работать, может понадобиться что угодно из этого.
194 1216168
>>16153

> На питоне все нейроночки, без них никуда. На р больше статистики всякие работают,


Как там в 2010? На R давно есть и слесарьплов и керас. + куча всего, чего никогда не было, нет и не будет на Пистоне.
195 1216224
>>16077
Расценивай это как справочный материал в первую очередь, потом уже можно думать о механизмах и актуальности. А так хоть будешь знать, о чём гуглить и что спрашивать.
196 1216235

>2.jpg


В чом смысол второй картинки
197 1216251
>>16235
Предполагаю, что где-то здесь

> papers или статьи

198 1216266
>>16251
да я просто новенький, типа дип лёрнинг не нужно юзать в таких задачах или что?
200 1216281
>>16278
ну объясните, ну чтооо :C
laugh.jpg161 Кб, 800x800
201 1216301
>>16281

>объясните

202 1216348
>>16301
бяки :C
sage 203 1216369
Насколько сложно нюфагу-питонисту вкатиться в нейрончики?
204 1216372
>>16369
Неимоверно. Даже не пытайся, оно тебя сожрёт.
sage 205 1216374
>>16372
Спасибо. Я правильно понимаю, что машинное обучение и нейронные сети предназначены для решения как практических, так и теоретических проблем?
206 1216377
>>16369
ты уже все знаешь
207 1216439
>>16369
Некоторые только ради нейроночек в питон и вкатываются.
208 1216442
Есть ли где-нибудь в сети курсы математики для вкатывания в нейроночки? Попробовал посмотреть один туториал по ним, и знатно так прихуел от того, что не понимаю тамошнего уровня матана
209 1216447
>>16439
Двачну, только ради нейронок выучил пидорский бейсик
210 1216458
>>16442
На курсере всё есть.
211 1216481
Посаны, поясните зачем столько сетей там, если хватило бы только одной для оценки следующего возможного оптимального хода из всех возможных ходов, выбранный по максимальному значению выхода сети? Или я чет не понимаю? Написал для русских шашек MCTS, хочется влепить туда нейросеть для проверки концепции.

https://www.youtube.com/watch?v=HP9S1Az8Tuw
212 1216569
>>16481
Ты не понял. Оно само с собой играет.
213 1216589
>>16569
Это понятно. Потом мы тренируем сетку теми партиями, в которых компьютер ходил случайно или по максимуму дерева с оценкой от нейросети. Непонятна вторая сеть с вероятностью поставить пешку в конкретном положении.
214 1216651
>>16481
Вопрос сродни "зачем сороконожке столько ног когда можно вообще без ног как червяк ползать?" Да, ты чет не понимаешь (ничего). Не смотри никакие видосы, а читай основы (Саттона), потом ботай статьи, начиная с самых первых про альфаго. РЛ это передний край науки, на понимание уйдет 1-2 года, если ты уже спец по нейроночкам.
215 1216677
>>16651
Когда я буду понимать алгоритм в общих чертах, то и книга легче пониматься будет. Первая модель гугловская вообще была не пойми как придумана с избыточностью данных, но она работала. Тут дело больше в опыте.
216 1216921
Анон, вот смотри. Есть два продожительных непериодичных квантованных сигнала состояния системы, один - когда на систему воздействовали определенным воздействием, второй - когда на систему воздействовали другими.
Я надеюсь, что в первом случае можно найти какие-то паттерны или сигнатуры. Сложность в том, что сигналы непериодичны и я не знаю длинну этих паттернов, которые я ищу.
До этого была похожая проблема, но там сигнал периодичный и все было просто - беру количество семплов, которые образуют период - это мои фичи, разделяю сигнал на (продолжительность/кол-во_фич) - это мои наблюдения. Если бы сигнал был непериодичный, но с известной длинной паттернов - то просто бы пустил скользящее окно известного размера. Но в моём случае сигнал не периодичный и размер паттернов я тоже не знаю.
Как правильно поступать в таких случаях?
217 1216929
>>16921
Теоретически подходят рекуррентные нейроночки, но на практике неочевидную на глаз закономерность они не найдут. Я бы сверточную сеть пустил по фиксированному окну. Просто пробуй разные размеры.
218 1216935
>>16651

> РЛ это передний край науки, на понимание уйдет 1-2 года, если ты уже спец по нейроночкам.


Че? Q-learning итп РЛ прост как 3 копейки, если знаком с уравнениями Хебба. Диплернинх во все это добавляет только сложность входных сигналов, вместо простых векторов это могут быть тензоры, соответствующие динамическим последовательностям кадров игры итд.
15273662841820.png26 Кб, 644x800
219 1216938
>>16921
Нейроночкодебилов с сойбойским диплернинхом не слушай. Я похожей хуйней занимался с целью анализа записи электрокожной активности. Короче, суть такова. Делишь сигнал окном подходящего размера, внутри окна считаешь минимум, максимум, стандартное отклонение, число пиков, и некоторые характеристики площади под кривой (area under curve), типа интегрирования. Алгоритм анализа EDA у меня был под матлаб, поэтому пришлось в нем корячиться с окном и фичами, могу код скинуть завтра, если интересно. Далее из фич собираешь векторы (вектор-строка - набор фич сигнала в пределах окна), из векторов собираешь датасет, помечаешь наблюдения и классифицируешь чем угодно, хоть svm. Если пометить нечем, то unsupervized что-нибудь юзаешь, например карты Кохонена.
220 1216940
>>16938

>электрокожной активности.


Мурашки генерил?
221 1216941
>>16938
Спасибо, чувак! Мне твой метод больше нравится, потому что он "наукоёмче" чем просто взять нейроночку и скормить её данные. В конце концов, мне не для реального применения, статью писать же.
Алгоритм не надо, я думаю его на гейтоне неализовать будет быстрее, чем разбираться с матлаб-кодом.
222 1216949
>>16940

> Мурашки генерил?


Нет, там проводимость кожи в микросименсах. Проблема с этим сигналом в том, что у него нет внятных спектральных характеристик чтобы просто ебануть фастфурье преобразование. Просто известно, что что-то происходит в течение 5 сек после внешнего воздействия с фазической компонентой сигнала и в течение 20 сек с тонической. И это что-то как-то связано с состояниями ЦНС. Ни внятных паттернов сигнала, нихуя. Но вот наборы фич компонент сигнала таки можно классифицировать, правда точность 60-70%, но если использовать конфьюжнматрицу, то нормально. А со всякими реккурентными нейроночками даже не знаю, сколько бы ебался и был бы вообще результат. Вообще, диплернинх лучше классических подходов только на неграх и котиках, для нормальных задач анализа он и не нужон.
223 1216951
>>16949
А можно электрическую щекоталку скрафтить?
224 1216971
>>15598
Софтмакс гасит градиенты
225 1216974
Привет, нейрач, у меня есть определенная проблема.

Попробовал запилить transfer learning, в качестве датасета - CIFAR-10, сверточная часть - NasNetMobile...

Сверху приделываю один полносвязный слой и получается какая-то хуйня: оно на может выдать точность выше 13,6% на валидации!

На нем же обычная сетка слоев из 4 обучается до точности в 75%!

ЯННП! ЧЯДНТ?
226 1216977
>>16974
Набажил.
227 1216997
>>16974
Разобрался, сам тупанул с количеством нейронов в слоях.
228 1217010
Сертификат окончания специализации мл+питон на яндексе рили помогает с трудоустройством или это обман чтобы набрать шекели? Не лучше ли пройти вашингтонский курс и будет ли он более полезен?
229 1217039
>>17010
В плане бумажек они оба бесполезны. Не вздумай класть их в резюме - все знают что это курсы для даунов.
230 1217043
>>17039
А как стартовать тогда? Освоить Энга и сразу на кегель собирать портфолио, попутно читая литературу?
231 1217135
>>14684

одушевленного существа ответ
232 1217154
>>17043
Двачую вопрос.
233 1217169
>>16951
Без задней мысли, видел такие хуйни в сауне, довольно прикольные ощущения.
234 1217516
Анончик, я вот не понимаю и не могу найти информацию. Как генетические алгоритмы связаны с нейросетями? Правильно ли я понимаю, что изначально они никак с нейросетями связаны не были. Но когда те стали популярны, то оно там как то начало связываться? Или что бля?
235 1217531
>>17516

> Как генетические алгоритмы связаны с нейросетями?


Никак. Однако, ничто не мешает делать из них гибридные модели, в которых параметры или гиперпараметры одного алгоритма настраиваются другим.
236 1217550
>>09084 (OP)
Посоны, объясните за TimeDistributed в keras:

import keras
from keras.models import Model
from keras.layers import Convolution2D, MaxPooling2D, ZeroPadding2D, GlobalAveragePooling2D
from keras.layers import Dropout, Flatten, Dense, Input
from keras.layers import TimeDistributed

i = Input(shape=(10, 224, 224, 3))
x = TimeDistributed(Convolution2D(64, (3, 3)))(i)
x = TimeDistributed(GlobalAveragePooling2D())(x)
x = TimeDistributed(Dense(128))(x)
m = Model(inputs=i, outputs=x)

opt = keras.optimizers.Adam(lr=0.0001, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.0, amsgrad=False)

m.compile(loss='mean_squared_error', optimizer=opt)

m.summary() #TimeDistributed "спрятал" слои

i = Input(shape=(224, 224, 3))
x = Convolution2D(64, (3, 3))(i)
x = GlobalAveragePooling2D()(x)
x = Dense(128)(x)
m = Model(inputs=i, outputs=x)

itd = Input(shape=(10, 224, 224, 3))
xtd = TimeDistributed(m)(itd)
mtd = Model(inputs=itd, outputs=xtd)
mtd.compile(loss='mean_squared_error', optimizer=opt)

mtd.summary() #TimeDistributed "спрятал" модель m

В результате выполнения примера я вижу:

Using TensorFlow backend.
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
input_1 (InputLayer) (None, 10, 224, 224, 3) 0
_________________________________________________________________
time_distributed_1 (TimeDist (None, 10, 222, 222, 64) 1792
_________________________________________________________________
time_distributed_2 (TimeDist (None, 10, 64) 0
_________________________________________________________________
time_distributed_3 (TimeDist (None, 10, 128) 8320
=================================================================
Total params: 10,112
Trainable params: 10,112
Non-trainable params: 0
_________________________________________________________________
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
input_3 (InputLayer) (None, 10, 224, 224, 3) 0
_________________________________________________________________
time_distributed_4 (TimeDist (None, 10, 128) 10112
=================================================================
Total params: 10,112
Trainable params: 10,112
Non-trainable params: 0
_________________________________________________________________

Почему эта ебанина "попрятала" внутренности?

Будет ли работать mtd?
236 1217550
>>09084 (OP)
Посоны, объясните за TimeDistributed в keras:

import keras
from keras.models import Model
from keras.layers import Convolution2D, MaxPooling2D, ZeroPadding2D, GlobalAveragePooling2D
from keras.layers import Dropout, Flatten, Dense, Input
from keras.layers import TimeDistributed

i = Input(shape=(10, 224, 224, 3))
x = TimeDistributed(Convolution2D(64, (3, 3)))(i)
x = TimeDistributed(GlobalAveragePooling2D())(x)
x = TimeDistributed(Dense(128))(x)
m = Model(inputs=i, outputs=x)

opt = keras.optimizers.Adam(lr=0.0001, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.0, amsgrad=False)

m.compile(loss='mean_squared_error', optimizer=opt)

m.summary() #TimeDistributed "спрятал" слои

i = Input(shape=(224, 224, 3))
x = Convolution2D(64, (3, 3))(i)
x = GlobalAveragePooling2D()(x)
x = Dense(128)(x)
m = Model(inputs=i, outputs=x)

itd = Input(shape=(10, 224, 224, 3))
xtd = TimeDistributed(m)(itd)
mtd = Model(inputs=itd, outputs=xtd)
mtd.compile(loss='mean_squared_error', optimizer=opt)

mtd.summary() #TimeDistributed "спрятал" модель m

В результате выполнения примера я вижу:

Using TensorFlow backend.
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
input_1 (InputLayer) (None, 10, 224, 224, 3) 0
_________________________________________________________________
time_distributed_1 (TimeDist (None, 10, 222, 222, 64) 1792
_________________________________________________________________
time_distributed_2 (TimeDist (None, 10, 64) 0
_________________________________________________________________
time_distributed_3 (TimeDist (None, 10, 128) 8320
=================================================================
Total params: 10,112
Trainable params: 10,112
Non-trainable params: 0
_________________________________________________________________
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
input_3 (InputLayer) (None, 10, 224, 224, 3) 0
_________________________________________________________________
time_distributed_4 (TimeDist (None, 10, 128) 10112
=================================================================
Total params: 10,112
Trainable params: 10,112
Non-trainable params: 0
_________________________________________________________________

Почему эта ебанина "попрятала" внутренности?

Будет ли работать mtd?
237 1217783
опенсв 2 и 3 версии одновременно не встают на компьютере. Почему? Проблема в системных вариейблах. Прописываешь 2 версию - 3 вылетает, прописываешь 3 - 2 вылетает. Есть какой-нибудь инсталлятор который сделает?
238 1217799
>>17783
Гугли virtual environment под свой язык.
больнойублюдок.png192 Кб, 601x310
239 1217803
240 1217992
Мейлрушный MLBootCamp стартовал. В этом году какая-то анонимизированная хрень, я скипну. Если кому макбук надо, пробуйте.
241 1218086
Работаю с объемным pandas.DataFrame и нередко скрипт вылетает с MemoryError (да, питон 64 бит) во время гридсерча с n_jobs=-1. Как бороться? На стековерфлоу написано что проблема переполнения памяти решается использованием баз данных, но в первых найденых примерах на гитхабе из базы вытаскивается все тот же DataFrame.
242 1218090
>>18086
Памяти купи.
243 1218094
>>18090

> Памяти купи.


У хипстеров от машобчика с производителями памяти гешефт какой-то? Тоже встречался с алгоритмом, не хватало памяти, там есть вариант работы с датасетами на диске. Сделал по примеру в документации, и что? Все равно всю оперативку сожрало и вывалилось с ошибкой "мемори хутю утютю", только не сразу, а спустя минут 20 яростного потрясения винтом. Вредительство самое настоящее.
244 1218112
>>18090
200 гигов. Какие еще варианты?
245 1218192
>>18112
Это у тебя уже бигдата какая-то, используй соответствующие решения.
246 1218222
>>18094

>по примеру в документации


Пиши свой код. А то опять кто-то говна в жопу залил. Ещё небось сидишь на "4 ядра 4 гига для учёбы"
247 1218227
>>18192

>200 гигов


>Биг дата


Лол
248 1218238
>>18227
Ещё один. Бигдата это просто методы работы с тем, что не вылезает в оперативу. И эти методы начинаются ровно там, где оператива заканчивается. Хоть с 2 гигов. Школотронствуя в стиле

> <10050006000гиг


> бигдата


Ты показываешь ровно одно - непонимание термина.
249 1218245
Опенсв библиотека иксфичес2д.хпп не поднимается. Нужен серф из нее. Что делать?
250 1218322
Препод унижает меня за использование lbfgs, говорит что он для нубов и нужен дедовский sgd, что мне ему ответить?
251 1218337
>>18322
Ты мейроночки им тренируешь? Тогда ответь "да, сэр, так точно, сэр". В любом случае нужно обосновать почему ты используешь его.
252 1218347
>>18337
Мое обоснование - датасет небольшой, для гридсерча можно быстренько погонять lbfgs, а если так нужен sgd, то использовать уже с подобранными гиперпараметрами.
https://www.youtube.com/watch?v=8LccBQaoM3Y
Untitled.png4 Кб, 727x455
253 1218638
Что это такое?
254 1218639
>>18638
В сиауте до стрелки - массив, после стрелки - резалт. Резал - что такое?
255 1218663
>>18347
Ну какбе применимость (l)bfgs зависит от количества параметров, а не от размера датасета.

Хочешь лучше, чем просто градиентный спуск, - есть методы сопряженных направлений...

Хотя и они на больших задачах жирноваты.
256 1218677
>>18638
Результат работы XOR с двумя переменными https://en.wikipedia.org/wiki/Exclusive_or .
257 1218895
Так можно быстренький вопрос
Достаточно для того чтоб начать вкатываться знаний за первый курс мехмата нгу ?
http://mmf.nsu.ru/education/plan/1/2017-2018
258 1218897
>>18895
В шапке, блять, написано. На первом курсе матан, скорее всего, одной переменной
Безымянный.png24 Кб, 2007x96
259 1219044
И что из этого взять нубу для распознавания образов?
260 1219058
>>19044
Keras. Может быть OpenCV, зависит от задачи.
261 1219120
>>17516
Очень просто, если что-то очень сложное в сетке намутили, для чего ещё нет алгоритма обучения, то тогда используют генетический алгоритм.
262 1219123
>>19044
Всмысле распознавания образов? Слишком расплывчатое понятие. Картинки классифицировать на керасе ессесно, самое простое для нуфага.
263 1219128
Как можно монетизировать свой дрочь в этой сфере? Я имею ввиду естественно не конкурсы и работу, а именно что-то, что может заменить человека в интернете и наёбывать на рекламу/контент. Хочу взяться за сложное задание чтоб чекнуть, могу ли.
264 1219134
>>19128
Я думаю, что если можно, то тебе тут никто не скажет как.
265 1219137
>>19134
Я ведь не спрашиваю что можно легко и как это сделать. Я спрашиваю про то, где анон не справился бы, но знает где.
266 1219155
>>19137
Создай ИИ, который будет играть за тебя на бирже и выигрывать. Удачи.
267 1219159
>>19155
Уже доказано, что это невозможно. А для закупок акций с отложенной выплатой и перевода средств в другую валюту не нужно ИИ.
268 1219162
>>19128
Вроде были сервисы где платили центы за распознавание капчи. Хотя видеокарта наверно больше электричества сожрет как. Лучше уж майнинг тогда.
269 1219168
>>19128
Нейросети анона по размеру с нейросеть насекомого в лучшем случае. Ищи в той нише, где может нафрилансить таракан.
270 1219176
>>19168

>Ищи в той нише, где может нафрилансить таракан.


Бляяяя, чот проорал.
271 1219203
>>19162
Всё упирается в оптимизацию в таком случае. Не технология.
272 1219208
>>19168
Дроч на статистику никгда не давал больше пары процентов. Я видел как работали сети с десятком эпох, так что не надо.
273 1219266
>>19128
НЕ СМОЖЕШЬ.
274 1219272
>>19266
Я попытаюсь.
275 1219290
>>19128
Научи openai gym/universe чему-то интереснее арканоида. Теоретически эта ебань может управлять хоть чем в браузере, если есть ощутимый результат её работы в очках, баллах итд. Можно посмотреть как оно справится со ставками на спорт или бинарными опционами.
276 1219308
>>19128
нейросеть, имитирующая поведение человека в интернете при серфинге
и сразу же
нейросеть, отличающая серфинг бота от человека
277 1219327
>>19308
И как это оно должно у него монетизироваться?
278 1219330
>>19327
Даже лень объяснять
279 1219337
>>19308
Збсь идея!

>>19327
Автоматический слив рекламных бюджетов или наоборот - накрутка рейтингов всяких там блохеров.
280 1219393
>>19337

>Автоматический слив рекламных бюджетов


Всмысле?
281 1219421
Какая же крутая эта штука дип лёрнинг, пока только вкатываюсь, но уже предвкушаю....!!
282 1219429
>>19421

> Какая же крутая эта штука дип лёрнинг


Ну да, можно негров распознавать.
21e17d990a4c4cd384246e2d23f08ce2[1].jpg447 Кб, 1920x1080
283 1219499
Есть бот для доты на нейросети, а есть ли такие боты для каэсика или других шутеров-дрочилен?
284 1219769
Анончик. У меня вот вопрос. Пытаюсь реализовать обучение машинки в юнити, едущей по трассе. Изначально была идея подбирать нейросеть используя генетический алгоритм. В общем я все это сделал, но мне кажется это не очень эффективно. Каким то другим методом можно натренировать машинку ездить по трассе? Только не копируя поведение машинки, управляемой мной. Я пытаюсь нагуглить, но не очень понимаю. Некоторые пишут про обратное распространение, но ведь в нем я сам задам как он должен повернуть в зависимости от инпута (три датчика расстояния перед машинкой). Но ведь это не то, к тому же я не хочу чтобы машинка при решении повернуть например влево, "крутила руль до конца влево". Сейчас она имеет два отпута. Один показывает вероятность поворота влево, другой вправо. Я нахожу разницу между ними - это и будет сколько и куда повернуть. Так вот ебать как нахуй по другому можно натренировать машинку, кроме как через генетический алгоритм и копирование поведения человека?
285 1219781
Весь машобчик кроме нейроночек мертв?
286 1219802
>>19769
Обучение с подкреплением этим занимается. Но судя по твоему посту у тебя нет шансов заставить его работать.
287 1219803
>>19781
Да.
288 1219822
>>19769

>как нахуй по другому можно натренировать машинку, кроме как через генетический алгоритм и копирование поведения человека?


Никак. Это невозможно. Сам то поимаешь что просишь? Ты хочешь чтобы машинка каталась без эмпирического опыта или учителя? Такое возможно только есль у тебя нейросетть принимает гиперпараметры твоей игры, а не сама в ней существует.
290 1219859
>>19857

>кросс-валидация


>не отложенная тестовая выборка

291 1219906
>>09383
Берёшь первый, умножаешь на второй. Только не перепутай
292 1219978
>>19781

> Весь машобчик кроме нейроночек мертв?


Про него просто хипстеры не знают.
>>19822

> Никак. Это невозможно. Сам то поимаешь что просишь? Ты хочешь чтобы машинка каталась без эмпирического опыта или учителя?


А ведь ещё в нулевых гишпанцы подобное реализовывали на нечетких контроллерах. У них даже машинка была не нарисованная а реальная и софт для компиляции нечетких моделей в формат плисов на яве доступен свободно, xfuzzy. Фишка в том, чтобы расстояние до препятствия задать в виде нечеткого значения, исходя из которого можно правилом регулировать угол поворота колёс и скорость. Если при этом общее направление будет вперёд, то такая машинка вполне может ездить по круговой трассе, даже если перед ней расставлять новые препятствия. И никакого сойбойства с нейроночками, плисы и датчики расстояния до препятствия. Но кому это надо, на этом не заработаешь продажей видюх.
293 1220000
В чем суть нейроморфных процессоров? Там архитектура другая или как?
294 1220003
>>20000
Аппаратная реализация соотв. алгоритмов.
295 1220015
>>20003
А можно поподробнее?
296 1220020
>>20015
Ну там логические элементы имитируют нейроны и связи между ними. Что-то уровня сотни тысяч адалайнов пикрелейтед на одном чипе. Таких архитектур куча была разработана, даже на оптронике и оптических элементах. Смысла особого в них нет, т.к. все то же самое при желании можно сделать на ПЛИСах, что в разы дешевле, чем запускать целую аппаратную платформу, которая еще хуй знает как и когда окупится и окупится ли вообще. Алсо, даже и ПЛИСы это перебор, т.к. все работает на простых видюхах. Короче, технически это мб и интересно, но практической пользы никакой. Если интел и правда что-то такое раскрутит, ну респект им, че.
297 1220153
>>20020
Все понял. Немного странно, что один процессор за столько нейронов отвечает, я думал, что каждому нейрону свой, как там памяти вообще хватает
А еще, удивлен подходу Интелов, они даже в 1-м процессоре аж вот так решили сделать, зачем, чтобы облегчить вычисления, разве так станет быстрее?
298 1220237
Не получается симейком опенсв собрать под новую вижуал студио. Что делаю не так? Симейк делает нормально, проект в студии собирается с тысячами ошибок.
299 1220242
>>20237
Ошибка в том что ты используешь винду и студию. Перейди на инструмены предназначенные для программирования.
300 1220274
>>19499
на последнем датафесте рассказывали про хедшоты нейронками
https://youtu.be/YSQqHlQwQDY
хотя и не совсем то
301 1220280
>>19290
а еще МММ! и другие финансовые пирамиды!!! ХОЧУ, ЧТОБЫ НЕЙРОНКА ПРЕДСКАЗЫВАЛА НЕПРЕДСКАЗЫВАЕМЫЕ ВРЕМЕННЫЕ РЯДЫ И СТАТЬ БАХАТЫМ, А ТО НЕГРОВ ПРЕДСКАЗЫВАЕТ, РАК ПРЕДСКАЗЫВАЕТ, ЛЮДЕЙ НА ПЕРЕХОДАХ ПРЕДСКАЗЫВАЕТ И СБИВАЕТ, А НАСТОЯЩИХ ЗАДАЧ НЕ ПРЕДСКЗЫВЫВАЕТ, ТО ЛИ ДЕЛО ВАПНИК, ВСЕ АЛГОРИТМЫ ПРЕДСКАЗАЛ - И БИНАРНЫЕ АПЦИОНЫ И ВСЕ ЭТО С ПОМОЩЬЮ НЕТОЧНОЙ ЛОГИКИ
302 1220285
>>19781
в каггле деревья решают, нейроночки только для картинок и последовательностей
303 1220317
>>20285
Как область исследований деревья мертвы.
304 1220437
>>20317
согласен, поэтому искджибуст придумали только в 2016 году и уже успели от него отказаться в пользу lgbm
305 1220511
Начнём с того, что градиентный бустинг это следствие все той же теории статистического обучения Вапника, о чем у него прямо написано в книге, упомянутой в оп посте. Адабуст, дипбуст, хгбуст, лгбм итд это просто детали реализации, какая-то лучше, какая-то хуже.
>>20280
Таблетки выпей, мань.
1.png12 Кб, 202x599
306 1220646
Здравствуйте, мне задали простую задачу на линейную регрессию. Дали данные, на картинке. Всё просто, есть значения Х и есть значения Y. Я значит такой довольный, закинул эти данные в Python'ский scikit learn и применил LinearRegression. И у меня получилось уравнение:
y = 0,7x - 1414,79
А правильный ответ вот такой:
y = 0,51x + 142,9

Короче, я облажался. Скорее всего значения иксов и игреков надо как-то нормировать или стандартизировать. И лишь после этого получится правильный ответ. Ну либо правильный ответ на самом деле неправильный.

ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, ГДЕ ПОСМОТРЕТЬ КАК НОРМИРОВАТЬ ИЛИ СТАНДАРТИЗИРОВАТЬ ПРАВИЛЬНО ДАННЫЕ ДЛЯ ПОДГОТОВКИ К ЛИНЕЙНОЙ РЕГРЕССИИ? Я ГУГЛИЛ, НО У ТУПОЙ И У МЕНЯ ВСЁ-РАВНО НЕ СОШЛОСЬ С ПРАВИЛЬНЫМ ОТВЕТОМ
308 1220678
>>20646

>y = 0,51x + 142,9


>x - около 2000


>y - меньше сотни

309 1220789
>>20646

>А правильный ответ вот такой


Проигрунькал. Ты бы хоть читал, что ты пишешь.

Очевидно, что тот кто писал правильный ответ использовал вместо иксов какую-то хуйню. Т.к. максимальный элемент игриков 90.7, а в правильной модели прибавляют 142.9. Т.е. там иксы должны быть отрицательными.
310 1220791
>>20677
Спасибо большое, пробую перевести и попробую применить эти вещи и посмотреть результат.
>>20678
>>20789
Видимо, годы не принято подставлять как есть 1994, наверное, их как-то преобразуют чтобы они нормализовались, нормировались или стандартизировались. Но пока я не нашёл решения как принято года конвертировать в пригодные для линейной регрессии значения.

И игреки, их, наверное, тоже надо преобразовать как-то.
311 1220793
>>20789

>максимальный элемент игриков 90.7


Что-то мне кажется, что игреки тоже надо изменить. И там будет не 90.7, а какое-нибудь другое преобразованное значение.
ai.jpg30 Кб, 550x332
312 1220806
У этих данных коэффициент детерминации 0.148. Линейная регрессия плохая модель. Попробуй НЕЙРОНОЧКУ с парой миллиардов коэффициентов. Покажи преподу КАК ТЫ МОЖЕШЬ.
perceptronmargin.png63 Кб, 500x352
313 1220810
Объясните эту картинку. Что обозначают синим и красными цветами? Граница что обозначает?
314 1220826
>>20810

> Объясните эту картинку. Что обозначают синим и красными цветами? Граница что обозначает?


Синий и красный линейноразделимые классы, пунктиром - оптимальная граница, разделяющая классы (например, такую бы построила svm), сплошная линия - граница, построенная перцептроном.
315 1220942
Аноны, я вебмакака из соседнего треда, вопрос чисто из интереса, задавал его тут раньше, но никто не ответил, вдруг сейчас что-то поменялось. Есть ли какое-нибудь проект в ваших нейронках, который оптимизирует запросы ORM? По-моему очень полезная штука бы вышла
316 1220966
>>20942

>По-моему очень полезная штука бы вышла


Так делай.
facepalm.jpg8 Кб, 468x303
317 1221075
318 1221195
>>20511
ВСЕ СЛЕДСТВИЕ ЕВКЛИДОВСКОЙ МАТЕМАТИКИ11111 ОН ВСЕ ОПИСАЛ В СВОЕЙ МОНОГРАФИИ, ДОБАВЬТЕ В ОП-ПОСТ
319 1221350
>>21195
Все, что нужно знать человеку, сказал Платон. Эвклид и его шайка сойбоев, куколдов и хипстеров просто жевали собственные бороды, запивая их смузи.
c0d87855cefaafd43cbbb29e3720484a.jpg49 Кб, 480x380
320 1221366
Моча, почему бы этого
>>21350
>>21195
>>20280
сасихуя хотя бы здесь не забанить? Толку со срущего шизика 0.
321 1221388
>>21366
Чувак, потише в этом треде. Во-первых, последний пост мой, я лишь пародирую шизика (нечеткого петуха, он же сойбой/куколд/хипстер). Во-вторых, нечеткий петух тут отвечает почти на каждый пост, из чего следует, что около половины постов во всех нейротредах его авторства. Увы, де-факто это его собственные, персональные треды, хоть он их и не создает. Это происходит годами. Я делал перерыв в тредах в несколько месяцев, когда сюда набежал шизик из /ссы и зафлудил все квалиа-бредом. Шизик из /ссы ушел в туман, а сойбой остался. Он как клоп, его никак не выжить. Остается смиренно ждать его смерти от естественных причин (мои уговоры совершить самоубийство не подействовали). Таков наш крест. Я с этим смирился, и тебе советую. Будем надеяться, он скоро начнет пить (судя по всему он подходит к питейному возрасту), тогда ему станет не до нас.
Во избежании неконтролируемого роста обсуждения персоны куколда, нужно соблюдать одно простое правило: никогда ему ничего не отвечай, вообще игнорируй его существование, как будто его постов нет. Отличить их очень просто. Даже на этот пост не отвечай. Хипстер ответит, а ты молчи. Тренируй силу воли.
322 1221430
>>21388

> Будем надеяться, он скоро начнет пить (судя по всему он подходит к питейному возрасту), тогда ему станет не до нас.


По бате своему судишь? Мне-то зачем пить, я ж не русич какой и не финно-монголоид. По делу от тебя и тебе подобных внятной критики пока не поступало, только шиза и кукареканья.
323 1221488
Распознавание изображений. На чем делать? Тензорфлоу и Пайтон или что-то другое?
324 1221489
>>21488
Keras и python.
325 1221512
курсы на coursera от яндекса стоит смотреть?
326 1221543
>>21512
Лекции оторваны от практики, будут дрочить абстрактную хуйню и теорему Каруша-Куна-Таккера. В практических заданий много технических проблем.
По-моему такие курсы только отобьют желание что-то дальше в этой области делать.
image.png490 Кб, 660x475
327 1221593
Легко распознавать текст, когда он - единственное, что есть на изображении. А что делать, если он может быть непонятно где, под любым углом и любого размера? Как например автомобильные номера. Что обычно делают в таких случаях? Тренируют отдельную сеть, которая находит номер(а) на фотке, потом скармливают уже той, что должна их распознавать?
image.png241 Кб, 350x263
328 1221597
>>21593
Или я к примеру хочу идентифицировать по лицам всех людей на групповой фотографии. В этом случае ведь тоже, наверное, нужно найти непосредственно лица на фотографии, а потом уже пытаться их идентифицировать? Или как это вообще делают в реальном мире?
329 1221622
>>21597
Номера можно, скорее всего, end-to-end распознавать, если у тебя одна машина на картинке. Особенно хороши модели с вниманием, они сами найдут релевантный участок. Это почти наверняка будет точнее, чем в два шага искать.
>>21597
Людей, конечно, придется сначала разделить.
ctf20play.gif9,3 Мб, 480x270
330 1222093
Недавно спрашивали, могут ли нейроночки в ФПС. Вот, пожалуйста: https://deepmind.com/blog/capture-the-flag/
Боты рвут атцов в кваку на рандомно сгенерированных картах.
https://www.youtube.com/watch?v=dltN4MxV1RI&feature=youtu.be
331 1222230
>>22093
А когда для каэсочки такое будет, с этого можно что-то поиметь? Ну там удаленно соревнование выиграть?
333 1222463
>>22093

>рвут атцов в кваку


Ты сам-то видео смотрел? На кваку это похоже ну очень отдалённо.
334 1222510
>>22463
Шутерок набросали на быструю руку, какая разница какой в нем графен? Теперь можно прикрутить хоть кваку, хоть каэсочку, хоть что-угодно подобное.
335 1222545
>>22510
разница не в графоне
336 1222717
Запилите уже утилиту делающую из сканов книг полноценную книгу в разных форматах.
337 1222756
Анончик, еще раз привет. Я тот анон, что недавно вкатился и всё таки написал нейросеть для XOR. Так вот недавно я переписал почти полностью весь код, так чтобы можно было сделать многослойную сеть (до этого был только один скрытый слой). Я задаю два скрытых слоя по 8 нейронов и у меня среднеквадратическая ошибка доходит до 0.1 и не опускается. И то на это нужно не меньше 10000 эпох, при датасете из 8 элементов (XOR для трех элементов). Я не понимаю в чем проблема. Сомневаюсь что в коде, потому что если я задаю один скрытый слой, то всё считается как раньше (грубо говоря за пару тыщ эпох средкв. ошибка доходит до 0.001). В чем может быть проблема?
Figure1.png13 Кб, 640x480
338 1222758
>>22756
Забыл еще вот прикрепить график средкв. ошибки. Собсна по ординате сама ошибка, по абсциссе кол-во эпох.
339 1222761
>>22725 (Del)
Собрал. Что дальше?
340 1222762
>>22761
В личку мне их скинь, я тебе напишу сканнер дла книг.
Figure2.png10 Кб, 640x480
341 1222764
>>22758
А вот при одном слое в 8 нейронов.
342 1222818
Опять анон с XOR. В общем я попробовал использовать релу, а не сигмоид. Сначала поставил скорость обучения 0.01 (первый пик). Потом поставил 0.001 и повторил (второй пик). Ну ебать, чо хочу сказать, MSE конкретно уменьшилась, хотя эпох дохуя правда. Оно походу даже переобучилось.
343 1222849
>>22717
Google Docs для мобильных может сканировать документы.
344 1222877
Как из формулы гиперболического тангенса можно вывести 2сигма(2х) - 1???
345 1222936
>>20153
Интересные у тебя пикчи, анон, это откуда?
346 1222999
>>22849
Где? У меня нет такого
347 1223058
348 1223143
Нейро-Анонимусы, поясните как выбирать правильное количество слоёв и нейронов при обучении нейронной сети для наиболее качественного результата. Посоветуйте мануалы/видео/сайты с инфой по сабжу.

Интересует создание походки и анимаций для виртуальных существ произвольной формы. Алсо, какие алгоритмы обучения нейронных сетей лучше всего подходят для этой задачи, кроме Генетического?
349 1223146
>>23143

>как выбирать правильное количество слоёв


Чем больше, тем лучше.

>какие алгоритмы


Reinforcement learning.

>походки


Это много кто делал, в общем случае довольно трудно для 3д, для 2д ок.

>анимаций


Тут непонятно как ты оценивать будешь.
2018-07-05160137.png314 Кб, 831x676
350 1223163
>>23146

>анимаций


>Тут непонятно как ты оценивать будешь.


Анимаций имелось в виду готовая анимация походки например.

>Чем больше, тем лучше.


А сколько нейронов в каждом слое? Где вообще можно узнать хоть какую-то инфу про то, насколько количество слоёв и нейронов в них влияет на скорость и качество результата?

Например если я сделаю 1 скрытый слой с тысячью нейронов, в чем он будет лучше/хуже сеть с 4 слоями по 10 нейронов в каждом?
Где-то можно примеры посмотреть как количество слоев или количество нейронов в слое влияет на результат.
351 1223179
>>23163

> Где вообще можно узнать хоть какую-то инфу про то, насколько количество слоёв и нейронов в них влияет на скорость и качество результата?


Нигде, это чистое шаманство, т.е. гиперпараметры, зависящие от поставленной задачи. Еще у Хайкина написано, что это больше искусство, чем точное знание.
352 1223199
Картинка аргументируется в функцию, в функции рекогнайзится и на экран название (из листа классов) и вероятность выводится. Нужно обвести прямоугольником совпадения. Как это сделать?
Инпут изображение в виде vector, из нейронки что выходит? На выходе тоже vector. Как это там хранится? Как достать границы каждого совпадения?
353 1223229
>>23199
Берёшь код какой-нибудь йолы (под твой фреймворк), изучаешь.
354 1223230
>>23163
Это все сильно зависит от задачи и данных. В целом сеть не может быть слишком большой. Пробуй разные варианты.
355 1223261
>>23229
С одним элементом работает. С несколькими не работает.
356 1223263
>>23261
С картинкой самолета скопированной несколько раз на одном изображении результат был веб страница и дверь. Один самолет нормально детектит.
357 1223265
>>23261
Ты взял одну из моделей, предназначенных для исследования нейроночек, а не для использования. Она натренирована на данных, где всегда один объект в кадре, и только на таких данных она будет работать.
Тебе уже сказали - бери YOLO.
358 1223284
Deep Learning: A Practitioner's Approach
хорошая ли книга?
Писать логику планирую на Scala и Java, Питун не желателен, ибо будет Спарк, который любит JVM,

Не устарела ли эта pdf ка?
http://opencarts.org/sachlaptrinh/pdf/27976.pdf

Стоит ли потратиться на бумажную версию на русском?
359 1223290
>>23284
Хорошая книга в шапке. Про твою не знаю.
360 1223365
>>23265
Видео делает со скоростью 1 FPS. Не аппаратно можно ускорить? CPU only.
361 1223367
>>23365
Все можно. Есть варианты с т.н. конденсацией, или сжатием нейроночек, которые из большой делают маленькую и, соответственно, быструю. Но это уже все самому надо делать.
Untitled.png1,3 Мб, 1140x672
362 1223368
Почему результат разный? Почему одну картинку не распознала?
363 1223369
>>23368
Почему всегда при загрузке программы занимает >900 mb в оперативной памяти? Не важно вход с камеры, видеофайл или одна картинка. Весь вес сразу загружается? Из-за этого? Это маленький пак. А если большой делать?
364 1223370
>>23368

>Почему результат разный?


хуёвый алгоритм.

> Почему одну картинку не распознала?


хуёвый алгоритм.

> Почему всегда при загрузке программы занимает >900 mb в оперативной памяти? Не важно вход с камеры, видеофайл или одна картинка. Весь вес сразу загружается? Из-за этого? Это маленький пак. А если большой делать?


хуёвый алгоритм.
хуёвый алгоритм.
хуёвый алгоритм.
хуёвый алгоритм.
365 1223373
>>23367

>сжатием


Функцию активации менять? В этом дело?
366 1223375
>>23373
Нет.
>>23368
Какого рода ответ ты хочешь услышать? Ну просто для примера приведи свой вариант.
367 1223416
>>23368
здесь ответ на твой вопрос
https://arxiv.org/abs/1805.12177
2018-07-05160125.jpg104 Кб, 924x575
368 1223565
>>23230

>Это все сильно зависит от задачи и данных.


Я же описал задачу - походка для виртуального существа произвольной формы.

>Нигде, это чистое шаманство, т.е. гиперпараметры, зависящие от поставленной задачи


Для задачи генерации походки для трехмерного/двухмерного персонажа. Есть какой-нибудь сайт, на котором можно найти примеры нейронных сетей для подобных задач, чтобы посмотреть какие сети успешно использовались для этой задачи?
sage 369 1223578
>>23565
Arxiv, Google scholar, research gate
371 1223664
>>23616
>>23578
пасибо!

Но всё же, кроме шаманства, есть хотя бы примерное представление, чем отличаются нейронная сеть с 1 слоем в 10000 нейронов, и сеть из 5 слоёв по 10 нейронов?
Может быть хотя бы известно, для какого типа задач лучше подходит меньше слоев, но больше нейронов, а для каких наоборот?
372 1223691
>>23664
если на пальцах, если добавишь много слоев, до градиенты будут в ноль уходить просто из-за школьной арифметики, так как много дробей умножаешь друг на друга. Также, когда много слоев, легче переобучиться, нужен добавлять больше регуляризации. Плоские сети вычислительно сложные (просто больше нейронов-функций). И на философском уровне (как обычно показывают на картинках) сложно выделить составные фичи из предыдущих нейронов (XOR). Еще в разных задачах бывает полезно делать узкие места, где последующий слой меньше предыдущего, мол уменьшаем размерность, приходится нейронке выделять фичи, а не запоминать просто вход. Так, как на другой известной картинке, лучше всего делать столько слоев, сколько можешь, пока оно не переобучается. Добавляешь регуляризацию. Так и добавляешь слои, пока не достанешь до неба и даже Аллаха. Длины слоев я бы, скорее, по размерности входа ориентировал. Реинфорсемент лернинг никогда не делал вообще, там много своих камней.
373 1223698
>>23691
В РЛ, если ты не гугл, делают сети поменьше обычно. В атари, ЕМНИП, стандарт 1 небольшая свертка и 3-4 слоя по 100-200 нейронов. Одна из мегафишек альфазеро была в том, что они умудрились натренировать в РЛ огромную сеть (затратив какие-то миллионы процессорных лет).
374 1223701
Queen moves
56
Knight moves
8
Underpromotions
9

Поясните, зачем так много плоскостей для описания ходов королевы? Нельзя ли одну плоскость только юзать?
375 1223707
>>23701
Можно все что угодно, вопрос в том что работает лучше. Скорее всего, много плоскостей работают лучше, т.к. сети не приходится тратить усилия на расшифровку входных сигналов.
376 1223728
>>09084 (OP)

>линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных


В каком порядке это все изучать?
Умею находить производную, знаю что такое матрица и предел.
поступаю в вуз на математическую специальность, хочу узнать совета
sage 377 1223734
>>23728
Того, что тебе на первом/втором курсе расскажут, вполне хватит для начала.
Если ты чисто на математика поступаешь, то сложности скорее с программированием будут. Но его в вузе нормально всё рано не дадут, так что учи сам.
2018-07-06220519.jpg80 Кб, 699x523
378 1223772
>>23691
Что лучше для генерации походки - Генетический алгоритм или Реинфорсемент лернинг ?

>>23698

>атари


Ты про старый компьютер из 80-х годов прошлого столетия? Откуда там нейронные сети?
379 1223780
>>23772

> Ты про старый компьютер из 80-х годов прошлого столетия?


Нет, он про игры для атари, которые традиционно используются для тестов RL.

> Что лучше для генерации походки - Генетический алгоритм или Реинфорсемент лернинг ?


РЛ чисто теоретически должен быть лучше. Как минимум, быстрее будет обучаться.
380 1223781
Кстати, давно не слежу за модой в этой области - дипРЛ. Раньше самые топовые алгоритмы были у Маска Небоходца - openai gym/universe. Сейчас что-то лучше придумали?
381 1223789
>>23781

> Раньше самые топовые алгоритмы были у Маска Небоходца - openai gym/universe.


Ты чумачечий? openai gym/universe это наборы сред для тестирования алгоритмов RL. В стандартную поставку раньше ни один алгоритм собственно RL не входил. Относительно недавно они сделали RL Baselines, или как-то так, где якобы правильно реализованы несколько топовых алгоритмов, но и эти алгоритмы изобретены не ими, они просто реализации выпустили. Они занимаются и алгоритмами тоже, но грандиозного успеха на этом поприще пока не было. Вроде бы они сделали бота, который хорошо играет в урезанную версию Dota, но это не оупенсорс.

Вопрос "какой алгоритм самы лучший" ответа не имеет, во многом потому что они все довольно-таки плохо работают, и еще потому что каждый автор тянет одеяло на себя, утверждая что он лучше других, хотя зачастую это не так. Сами алгоритмы нестабильны, сходятся 1 раз из 20. Соревнование по созданию этих алгоритмов выродилось в абсурдную игру "у кого больше ресурсов перебрать гигантское количество гиперпараметров и вытянуть счастливый билет, перекрывающий SOTA" На реддите это обсуждалось пару месяцев назад, народ был недоволен плачевным состоянием этой области.
382 1223792
>>23780

>РЛ чисто теоретически должен быть лучше.


В принципе да, потому что РЛ использует больше данных о задаче. Но гарантий нет, доказательство сходимости к оптимальной стратегии только для таблиц, и то там нужно бесконечно много раз посетить каждое состояние и каждое действие из него.

>Как минимум, быстрее будет обучаться.


А вот тут не факт, были статьи показывающие что evolutionary strategies как минимум не намного хуже, а вычислительно гораздо лучше, т.к. не нужно вычислять градиенты.
383 1223802
>>23707
А куда плоскости для пешек, короля, ладей, слонов делись? И почему коню только 8 плоскостей а не 16, если коней 2 шт.
384 1223839
>>23802
Ты меня спрашиваешь, лол? Я вообще не знаю, откуда ты это вытащил. Там же и ищи объяснения конкретных деталей. Я тебе общие соображения привел.
385 1223969
386 1223990
Мне python неудобен. Есть реализации тензорфлоу на C++?
388 1224080
Еще раз объясните. Туда массив, оттуда 1 или 0. Опыт хранится в другом массиве. Верно?
389 1224137
>>23802
кто-то пояснить может по этому нюансу?
390 1224142
>>24137
>>23701
Так у королевы возможных ходов гораздо больше, чем у короля. Сядь с досой и посмотри. Отсюда и числа.
391 1224143
>>24137
Причины индивидуальны для твоего алгоритма, экстрасенсы, эсперы и Deus ex Machina в отпуске.
392 1224145
>>24142
>>24143
Ну, отсюда же взято https://arxiv.org/pdf/1712.01815.pdf

И по логике для короля должно быть 8 плоскостей, хотя этого нет.
393 1224146
>>24142
Король может сходить на одну клетку в каждую сторону => 8 возможных ходов

Королева может сходить на одну клетку в каждую сторону, на две клетки в каждую сторону, ...
394 1224164
>>24145
>>24146
Тут тебе дело говорят. Может тебе эрудицию поднять немножко сначала, комбинаторику там, а потом уже в нейроночки лезть?
А то ведь как получается - ты пытаешься решить задачу из какой-то области используя нейронки, не зная ни области, ни нейронок.
395 1224179
>>24164
Наркоман, что ли?
396 1224394
Сколько итераций нужно чтобы обучить нейронку реагировать правильно? При каком условии считать что алгоритм не работает?
397 1224419
>>24394
Алгоритм "работает" если его результаты тебя устраивают. Чуть более формально - если результаты лучше случайных.
Обучение нужно прекращать после того как N итераций подряд дают улучшение результата меньше эпсилон. Не становится заметно лучше - значит обучилась. Для дешевых вычислений нужна большая N, для дорогих - относительно маленькая.
153000612617527386.png321 Кб, 400x533
398 1224475
>>24419

>меньше эпсилон

399 1224789
Что есть для R по типу anaconda/jupyter?
400 1224801
>>24789
Jupyter c кернелом R
401 1224838
Объясните bias. Как его определить правильно?
402 1224842
Почему bias на каждой строчке в слое ставят разный?
403 1224861
>>24838
>>24842
https://stackoverflow.com/questions/2480650/role-of-bias-in-neural-networks
Вкратце, каждый слой должен найти такой а чтобы получить выход y = ax + b примерно равный ожидаемому. Получается, а в уравнении это веса слоя, а b это bias.
404 1224866
Bias это смещение. Почитайте хоть педивикию про линейные функции, точнее аффинные, не проходящие через начало координат. Вот это смещение и есть bias.
405 1224867
На хабре есть пара статей:
https://habr.com/post/312450/
https://habr.com/post/313216/
годно для вхождения или хуита?
406 1224868
>>24867
Вроде написано правильно и это нужно знать, но ответ на твой вопрос зависит от того насколько глубоко ты хочешь войти. Это первые полторы страницы очень толстого учебника.
407 1224869
>>24145
Все оказалось банальней. Остальные ходы скрываются в плоскостях королевы.
408 1224895
>>24868
Хочу попробовать написать нейронку для парсинга текста в одной ммо-дрочильне со скриншотов экрана.
Пользовался специализированными библиотеками вроде tesseract, результат сомнительный. Хочется сравнить действенность.
409 1224897
>>24895
Тоесть, задача стоит такая - на скриншоте в заранее известной области появляются символы на 100% совпадающие с символами из тренировочного сета, особенно если не будешь делать скришноты на фоне сливающемся с текстом? Используй попиксельное сравнение, Люк. Можешь даже прикрутить что-то вроде https://en.wikipedia.org/wiki/Cross-correlation#Normalized_cross-correlation
410 1224933
>>24895
у тебя тессеракт какой версии, если не 4ая - еще раз попробуй с 4ой. Говорят, что с 4ой более-менее распознает нормально, ну, и там обученная LSTM нейронка. Ну, и да, как говорит >>24897
тут и без нейронок можно обойтись, а результат будет 100%
411 1224941
>>24897
Не, там есть эффект искажений текста из-за прозрачности, а под прозрачностью всякая мимобегающаю игровая хуита.
+ Цвет текста меняется время от времени. Пытался нормализовать его матрицами к серому, каждый раз получается немного по разному.
Короче хочу нейронками попробовать.
412 1224967
>>24941
Покерскрапер?
413 1225089
>>24789
Sweave, knitr.
How to Learn Advanced Concepts Fast.mp4-snapshot-05.16-[201[...].jpg166 Кб, 1920x1080
414 1225097
Ой гевалт! Тензорфлоу не встаёт на винду ;_;
415 1225108
>>24867
Хабр - ёбаная помойка. Забудь про него.
>>25097
Ты дурной, что ли? Ставь линь и не выёбывайся.
416 1225117
>>25097
на работе пока не поставил линукс, поставил через анаконду (у меня еще и прав администратора не было) + какой-то там длл с++ редистрибьютабл требуется для тензорфлоу
417 1225125
Нужно графически представить нейронку. Входной слой, скрытый, выход. Их 200. Как сделать так чтобы экрана хватило?
418 1225136
>>25125
Маленькие кружочки.
419 1225146
>>25125
(Входной слой, скрытый, выход) x 200
420 1225192
>>25136
Можно ли нейросеть представить в виде куба или сферы?
421 1225232
>>25097
Всё он встаёт. Даже с GPU работает нормально.
422 1225392
Я вывел на экран почти все значения переменных которые есть в коде, но до сих пор не понимаю как это работает.

Картинка 200 на 200, ресайз 50 на 50. Для чего ресайз?

Вход, скрытый слой, выход. От входа до скрытого learning rate. От скрытого до выхода второй learning rate. В комментариях написано, что bias нет. Что это за значения? Они есть в умножении веса.

Как создать bias? Это константа или формула? Куда его вставлять: до функции активации или куда? Активация: если скалярное произведение с нодов меньше ноля - умножить на 0,01, если больше ноля - ничего. Это правильно?
sage 423 1225393
>>25392
Неправильно. Читай книги сначала, рано тебе код трогать.
424 1225398
>>25393
Сигмоида и тангенс сильно нагружают процессор?
sage 425 1225399
>>25398
Да, именно поэтому нужна мощная видеокарта.
426 1225424
>>25392
Попробуйте представлять bios как дискретную монаду. Мне это сильно облегчило понимание в свое время.
15306599763920.gif898 Кб, 487x560
427 1225427
>>25424

> Попробуйте представлять bios как дискретную монаду


Какая блядь мандада, это просто смещение функции от центра координат. Аффтнный вариант дискретной функции нарисовать с разными смещениями, вот и будет понимание что это и зачем. А потом просто понять, что это касается не только линейных функций. Блядь, да это в школе проходят, что с вами не так, что вы машоб пытаетесь понять начав не с начала, а с диплернинха, а простое смещение функции - через мандадки какие-то, прости господи.
428 1225430
>>25427

> дискретной функции


Линейной. Аффинный вариант. Аж трясет с вас, по буквам не попадаю.
429 1225435
Сегодня тут редкостный карнавал тупости. День удался.
430 1225437
>>24419

>2018


>не использовать early stopping

431 1225439
>>25437
Раннее останавливае - хуйня для даунов. Отличный показатель, что модель работает хуй пойми как. То сходится, то не сходится, то высокая точность, то поебень.
Таки проблемы иначе решают, а не просто останавливаются.
432 1225443
>>25427

> не может в категорность


> учит кого-то дип лернингу

433 1225459
>>25443

> не может в категорность


Что там мочь-то, школоилитарий? Стрелочки рисовать любой клоун может. Речь не об этом. Какая нахуй категорность, там простого матана и линейной алгебры более чем достаточно. Думаешь, илитка дохуя, раз про мандадки прочитал? Это ничего не добавит к пониманию диплернинха, только ненужного аутизма добавит в нотацию.
434 1225467
>>25437

> 2018


> в посте буквально описывается validation-based early stopping


> макака этого не знает потому что просто использует функции кераса без понимания


>>25439
Точно, зачем нужна регуляризация, если она портит показатель? Будем переобучать по полной, чтобы все однозначно сходилось и давало высокую точность на тренировочном наборе, потому что реальные задачи для задротов, а не таких просвещенных датасаентистов как мы.
435 1225492
>>25437
Что есть ошибка в обучении? Если на выходе нули?
436 1225498
>>25492
Разница между ожидаемым и полученным значением.
437 1225526
>>25467
Нет, зачем нужно думать над регуляризацией, оптимизировать архитектуру, если можно просто сказать, мол похуй, выкинем половину итераций и скажем, что так и задумано.
438 1225529
>>25526
Так и задумано, быстрее и дешевле.
439 1225569
Ребята , нужен совет. Сам студент меда, когда изучал офтальмологию, дико подсел на нейрофизиологию зрения, а именно, каким образом мозг распознает изображение.На ватмане для себя рисовал соединения между разными нейронами. Потом сам понял, что на этом завязаны современные нейроночки. Теперь вопрос: стоит ли мне изучать отдельные яп , перед вкатыванием в нейронки, либо взяться за математику и потом сразу нейронки и мл? В программировании чуть больше, чем 0.

з.ы. И что с медом делать? дропать или нет, если очень хочу заниматься нейронками, но универ отнимает много времени?
440 1225570
>>25569
Продолжай учёбу на медика. Будешь круче чем толпа индусов работающих за копейки без образования медика.
441 1225574
>>25570
а по поводу первого вопроса?
442 1225575
>>25569

> На ватмане


Майнд-карты твои лучшие друзья, попробуй хотя бы freemind.
По языкам тебе достаточно одного питона, сам по себе он очень простой, на курсере есть цикл курсов, которого вполне достаточно. Конечно, практика была бы очень полезной, но можно и сразу вкатываться в нейронки, анализируй чужой код и не ленись переписывать и оптимизировать. Хороший тон для работы с таблицами сразу начать пользоваться pandas. Первые нейронки можно собирать по слоям используя keras, до этого можно поиграться с готовыми моделями из sklearn. Само программирование здорового человека это математика английскими словами.
Времени и сил сожрет огромное количество, скорее всего ты вылетишь из универа, разорвешь все социальные контакты и все твои увлечения сведутся к нейронкам и их применению везде. Но если ты миленький, то я могу подумать над тем чтобы забрать тебя себе и только себе <З
443 1225585
>>25569
Тебе не ЯП нужны, а программирование вообще, все что с этим связано. Без умения кодить ты будешь как слепой, пытающийся стать художником.
444 1225592
>>25570
>>25575
>>25585
Всем большое спасибо за советы.
445 1225612
>>24145
Как на TensorFlow проектировать сети(создавать вне скрипта или программы в текстовом файле), инициализировать начальные веса, обучать и сохранять и считывать для дальнейшего обучения или прогона? И да, делать все это на C++ и Delphi, а не на Python. Считывать pb модель и так уже знаю как, но ее я скачал готовую, а не проектировал и обучал сам.
446 1225614
>>25585

> Без умения кодить ты будешь как слепой, пытающийся стать художником.


Хуйню несешь, например. Достаточно понимания математической нотации, в которой обычно описывают нейроночки. Кодят пусть индусы в гугле. Если понимаешь, что вообще происходит, умения кодить хватит на уровне импорт слесарьплов ас сп.
447 1225747
Siraj Raval - The Math of Intelligence
https://www.youtube.com/playlist?list=PL2-dafEMk2A7mu0bSksCGMJEmeddU_H4D
Siraj Raval - Intro to Deep Learning
https://www.youtube.com/playlist?list=PL2-dafEMk2A7YdKv4XfKpfbTH5z6rEEj3

Как вам этот индус?
448 1225767
>>25747
Как земля. После него, наверное, и приходят в тред с охуительными вопросами.
449 1225784
Парни, в numpy есть функция split, которой можно
[1, 2, 3, 4, 5, 6, 7, 8, 9]
разбить на чанки
[[1, 2, 3],
[4, 5, 6],
[7, 8, 9]]

Есть ли простой способ разбить на
[[1, 2, 3],
[2, 3, 4],
[3, 4, 5],
...
[7, 8, 9]]
???
450 1225788
>>25784
Используй сплит несколько раз со смещением, потом склей результаты.
451 1225789
>>25784
Есть. Это называется "матрица Ганкеля", Hankel matrix, гугли. Есть на каждом углу, не думаю что пистон исключение.
452 1225797
К слову, обратный вариант - матрица Теплица, Toeplitz matrix, используется для сдвига окна по изображению в сверточных нейроночках, strade вроде это называется.
453 1225825
у кого то есть опыт использования нейронок в биологии? мб кто знает, что именно происходит в insilico medicine?
454 1225849
Машинлёрнеры, как вам не надоедает ЖДАТЬ, ЖДАТЬ, ЖДАТЬ? Особенно когда ждать надо не час, а минут 5-10 и ты постоянно ещё проверяешь, как там оно, досчиталось ли.
Какой самый простой способ получать оповещения об этом? Можно наверно в конец кода дописывать запуск какой-нибудь мелодии, но на Кэггле это не очень просто реализовать.
455 1225852
>>25849
Пусть постит статус в жаббер же, или чем сейчас пользуются люди там где светит солнце.
>>25825
Скачиваешь датасет с дескрипторами молекул (или SMILES из которых вытягиваешь дескрипторы) и активностями в экспериментах. Прикручиваешь к старому проекту по распознаванию MNIST. Все, ты занимаешься драг дискавери.
456 1225854
>>25849
Это стиль жизни. Читай что-нибудь, реализуй новые фичи, оптимизируй, рефактори код в это время.
457 1225861
Товарищи, какие вузовские предметы считаются профильными для машоба и дата саенс?
Для некоторых стажировок требуются высокие оценки по профильными предметам, но конкретно предметы не указываются.
458 1225870
>>25861
Линал, твимс, немного матана.
Вообще, странное требование. У меня, например, на сессии иногда никакого желания выдрачивать кучу формулировок теорем не было, потому тройки хватал. А как ты с практикой справлялся - на это всем просто похуй. средний студень довольно тугенький в этом плане, а я не в шараге (по меркам России) учился
459 1225880
>>25870
Спасибо. Согласен с тобой, но вот у сбербанка с его сберсизонс такие вот требования.
460 1225888
Недавно тут спрашивали про РЛ. Вот блог пост в двух частях, где высказывается точка зрения, что meta/zero shot/few shot learning это будущее РЛ, к которому мы должны стремиться. Бонусом роскошная подборка статей на тему в конце второго поста:

https://thegradient.pub/why-rl-is-flawed/
https://thegradient.pub/how-to-fix-rl/
image.png131 Кб, 300x394
461 1225893
Кто-нибудь использует нейронки в продакшене? Какими фреймворками пользуетесь?
462 1225897
>>25861
Анализ данных, машинное обучение, нейронные сети, компьютерное зрение.
463 1225898
Кто-то в C# разбирается? Почему тут метод FromSavedModel назван статическим, но нигде не указано что он статический?

https://github.com/migueldeicaza/TensorFlowSharp/blob/1e3ddefde15dd281b993c7bf3d9ea351b5ad4178/TensorFlowSharp/Tensorflow.cs

Не понимать. Логически-то он да - статический и конструктор вызывает и все такое. Но я нигде чет не найду такой спецификации C# что он автоматом может определять статический метод или нет.
464 1225906
>>25898

>Почему тут метод FromSavedModel назван статическим


Где тут?

>не найду такой спецификации C# что он автоматом


Ее нет.
Делай на питоне, не морочь себе голову.
465 1225917
Короче, имеется степень бакалавра в теорфизики: дифгем, теория поля и прочая залупа, в которой я шарю в принципе.
Начал проходить курс на степике по нейросетям на днях, скоро пройду. Походу дела освежаю знания матстатистки. Что еще нужно подучить, чтобы взяли джуном на позицию data scientist'a? на hh стабильно 15 вакансий в ДС весит.

Спасибо
466 1225919
/// This creates a new context to execute a TFGraph. You can use the
/// constructor to create an empty session, or you can load an existing
/// model using the <see cref="FromSavedModel"/> static method in this class.
467 1225947
>>25919
Комент не обновили при рефакторинге.
468 1225951
>>25797
Так. А вот теперь объясни в чем отличие этого от bias, если bias представлять аффинную функцию.
469 1225953
>>25898
Ты какую-то хуйню написал.
470 1225954
Хочу вкатиться в машоб. Стоит ли ждать когда пройду курсы тервера и матстата или будет полезно вернее будет ли в этом смысл? заранее начать изучать тему?
471 1225955
>>25951

> Так. А вот теперь объясни в чем отличие этого от bias, если bias представлять аффинную функцию.


Во всем, например. Bias это коэффициент сдвига функции от начала координат. Матрицы Ганкеля и Теплица - это варианты представления датасета.
472 1225971
Если после нескольких тысяч итераций результат почти никакой, то считать это неработающей программой? Или подождать сутки? У модных популярных блоггеров на 6 итерации идеальные результаты.
473 1225972
Увеличиваю вес - они умирают, оставляю рекомендуемый дефолт - вообще не работает.
474 1226092
>>25971
Смотря на чем считаешь, какой датасет, архитектура, гиперпараметры, как ты обучаешь, etc. Если это что-то стандартное вроде Iris/MNIST, то ты где-то ошибся точно. Если ты настакал слоев и ждешь что это даст сразу 100%, то попробуй для начала прогнать на одном слое и посмотреть обучаемый ли он, или как ты.
475 1226114
>>25569

>Потом сам понял, что на этом завязаны современные нейроночки.


Вот нет. Свёрточные нейросети заимствуют некоторые идеи из настоящих, отвечающих за зрение, но в целом это совершенно другой механизм по сравнению с человеческим мозгом.
Программирования для МЛ много не нужно, только знать Питон более менее нормально.

>з.ы. И что с медом делать? дропать или нет, если очень хочу заниматься нейронками, но универ отнимает много времени?


Дело твоё конечно, но мне кажется, что лучше податься в офтальмологию (не знаю, как у вас там это устроено) и изучать естественные нейросети, потому что есть вероятность, что окажется, что математику и программирование не так просто самому осилить, твои познания в нейрофизиологиии зрения малоприменимы и вообще это всё имеет сомнительное отношение к тому, чем ты хотел заниматься.
476 1226121
>>26114
Не старайся, у него есть девушка.
477 1226148
Есть идея проанализировать сырые данные по доте2 по различной инфе которую можно спарсить. Нужны люди кто хочет этим позаниматься как хобби, пара часов в неделю. Желательно знать python или R. Подробности в телеге @Vladimirrus
478 1226154
>>26148

> Подробности в телеге


Оставь мыло или токс.
sage 479 1226155
>>26148

> Есть идея проанализировать сырые данные по доте2 по различной инфе которую можно спарсить.


Есть датасеты же готовые по ней. Даже конкурс на кегле был.

> Подробности в телеге @Vladimirrus


+15
480 1226157
>>26148

>пара часов в неделю


Далеко уедешь, ага.
481 1226160
>>26154
qwer%{DtistuffANUSgI<XmailPUNCTUMc$*Wom
>>26155
знаю про датасеты, и про конкурс на кегле, хочу свой датасет, потому что существующие не описывают всех механик
>>26157
Это всё опционально, возможно больше, просто нужно какое то количество людей для обсуждения и разбора существующих подходов.
482 1226185
>>26148
Перед тем как я скачаю эту вашу телегу, ты случайно не топишь за Путина?
483 1226186
>>26185
Причём тут путен? мы не политику обсуждаем, я же оставил мыло, пиши на мыло если удобно, если будет много людей, выберем удобный для всех мессенджер.
484 1226189
>>26185
А чем тебя Путин не устраивает, а? При Ельцине даже 80% на MNIST получить могли, а сейчас при Путине любой даун как минимум 98% получает.
485 1226190
>>26186
При том что поиск по твоей телеге выдает ватные ссылки. Мало ли, вдруг ты под санкциями.
486 1226191
>>26189
Врешь, пес лахтинский, 80 можно даже линейной регрессией на бумажке посчитать.
487 1226208
На завтрак у нас сегодня очередная порция критики современных исследований нейроночек: https://arxiv.org/abs/1807.03341

>In this paper, we focus on the following four patterns that appear to us to be trending in ML scholarship: (i) failure to distinguish between explanation and speculation; (ii) failure to identify the sources of empirical gains, e.g., emphasizing unnecessary modifications to neural architectures when gains actually stem from hyper-parameter tuning; (iii) mathiness: the use of mathematics that obfuscates or impresses rather than clarifies, e.g., by confusing technical and non-technical concepts; and (iv) misuse of language, e.g., by choosing terms of art with colloquial connotations or by overloading established technical terms.

488 1226211
>>26208

>failure to distinguish between explanation and speculation


>failure to identify the sources of empirical gains


>mathiness: the use of mathematics that obfuscates or impresses rather than clarifies


>misuse of language


Всё идёт по плану. Гранты крутятся, бабосы мутятся. Получил, купил ПО, написал пейпер с красивой презой, попиздел перед хомячками, молодец, иди за следующим.
489 1226213
>>26208
Сойбои совсем скатились, уже пейперы пишут про то, как не надо писать пейперы про нейроночки.
490 1226226
Поясните за arxiv. Туда любой Васян может свою публикацию выложить? То есть не известно вообще, появится она потом в каком либо журнале или это хуита на бумаге, которую никто никогда не опубликует?

Или как это вообще работает?
491 1226228
>>26226
Да, это препринты без модерации, доверять 100% нельзя.
492 1226234
>>26226

>То есть не известно вообще, появится она потом в каком либо журнале или это хуита на бумаге, которую никто никогда не опубликует?


Да.

>Туда любой Васян может свою публикацию выложить?


Нет.
493 1226259
Снова анон из меда. Обдумал еще один вариант : т.к у меня родители в Германии, а сам я в сверхдержаве (Украине) , есть возможность после универа уехать туда и получать второе высшее , уже связанное с нейроночками.
Подводные вижу : 1)Трата еще 2 лет на окончание меда
2)Закончу там бакалавриат в 27, не поздно ли?
Что думаете?
494 1226262
>>26259

>Что думаете?


в гермахе медики хуево зарабатывают? нейронки это тупик.
495 1226267
>>26234

> >Туда любой Васян может свою публикацию выложить?


> Нет.


Как это нет? А кто?
iq.png54 Кб, 627x1128
496 1226268
Нейроночка проходит IQ тест (лучше чем ты): https://deepmind.com/blog/measuring-abstract-reasoning/
497 1226269
>>26267
Ну точно не ты, например.
498 1226270
>>26226
https://arxiv.org/ -> About arXiv
>>26267
Может выложить кто угодно, но там есть модерация и submissions to arXiv should conform to Cornell University academic standards
499 1226271
>>26259
27 в Германии не много точно. Но на фига тебе из меда в cs перекатываться? Заканчивай мед, сваливай в Гермашку, проходи переаттестацию, работай врачом,... Профит.
500 1226273
Гугловские модели учатся за час-два. Результат очень хороший. У меня 7 часов, более 5 тысяч итераций. Результат: не случайный, но не работает как должно работать. Что делать? Загрузил 4 экземпляра программы с разными настройками. Ошибки разные между ними. Но почти не грузит систему. Может в одну эпоху засунуть прогон по 4 алгоритмам на разных настройках? В одном вайл: один -> запись, второй -> запись, третий -> запись, четвертый -> запись. Настройки какие разные? Есть дропаут, нет. Есть рандом в следующем действии, нет.
У меня нет друзей, кроме интернета. Мне негде больше спрашивать. Что делать? Я не понимаю где модель ошибается. В любой другой программе я сделал бы брейкпоинт и по шагам нашел бы ошибку. Тут так не сделаешь.
501 1226275
>>26259
Мед в сраной это выкинутые на помойку годы твоей жизни. Украха скорее всего тоже, хотя тут ты лучше меня должен быть осведомлен. Судя по твоим вопросам и месту, где ты их задаешь (ты вообще осознаешь где ты сейчас находишься?), никаких успехов на нейронном поприще ты не добьешься.
502 1226276
>>26269
Илитарии в треде.
503 1226277
>>26273

>Я не понимаю где модель ошибается.


Значит, она не ошибается. Может это ты ошибаешься?
504 1226278
>>26276
Не, я тож не могу ((
505 1226284
>>26268
Теперь подсунь ей тест на которых она не обучалась
sage 506 1226286
>>26284
А на чем её тестировали по-твоему?
507 1226288
Вот бы этот iq тест выше приспособить как капчу.
508 1226293
Почему PCA из sklearn стабильно выдает двухмерный график в виде всех точек слившихся в одну линию + одна точка сбоку? Как исключить эту точку или пофиксить.
509 1226294
Насколько реалистично чтобы разные модели, например, простая многослойная нейроночка и рандом форест, классифицировали по примерно одинаковым фичам? Тоесть, если есть 100 фич, то топовые feature importance будут у одинаковых 10 в разном порядке.
510 1226324
511 1228523
>>26259
Получай мед образование, в свободное время изучай Питон и нейронки на прикладном уровне. В глубокий матан не лезь, бесполезно и не нужно.
Если повезет - применишь нейронки где-нибудь в медицине и придешь к успеху. Если не повезет - будешь клизмы ставить.
Обновить тред
Двач.hk не отвечает.
Вы видите копию треда, сохраненную 3 сентября 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски