Этого треда уже нет.
Это копия, сохраненная 16 августа 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.4 1190173 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем выяснять, кто двигает ноуку: толпы смузихлёбов или фундаментальные деды.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarflow as sf по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ | https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.cf/thread/340653/
http://arhivach.cf/thread/355442/
http://arhivach.cf/thread/360889/

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1176320 (OP)
2 1190188
Какие-нибудь новые статьи про понимание нейроночек не появлялись в последнее время? А то я не следил.
3 1190247
https://www.youtube.com/watch?v=lXUQ-DdSDoE

Как называются такие диалоговые системы? Как их тренируют или это не НС ?
4 1190251
>>190247
Индус же говорит, что это диплернинх спич рекогнишен.
5 1190256
>>190251

>спич рекогнишен.


Я спрашиваю не про распознавание речи, а обработке текста и выдачи ответа.
6 1190262
>>190256

> а обработке текста и выдачи ответа.


Маркетинговое говно, на нормальных вопросах оно засыпится. У ИБМ есть Ватсон, но про него тебе не расскажут.
8 1190303
>>190289
Аноны, вы тут за новостями следите? Я веб-макака и мне интересно, кто-нибудь занимается нейронками для оптимизиации orm'ов, что бы они могли выдавать более эффективные запросы в базу
9 1190304
>>190303
Упс, это не тебе ответ, а вопрос всему треду
10 1190319
>>190289
Чет в голосяндру, хотя конечно это грустно.
11 1190322
>>190303
Чет в голосяндру, хотя конечно это грустно.
12 1190324
Мартышка к старости слаба мозгами стала;
А у людей она слыхала,
Что это зло еще не так большой руки:
Лишь надо применить нейронОчки.

Все модные нейронОчки себе она достала;
Вертит нейронОчки и так и сяк:
То тренирует их, то стопицот слоев нанижет,
То их в ансамбль соберет, а то полижет;
НейронОчки не действуют никак.

"Тьфу пропасть! — говорит она, — и тот дурак,
Кто на ютубе смотрит врак:
Всё про нейронОчки индусы мне налгали;
А проку на-волос нет в них".
Мартышка тут с досады и с печали
Делитом так хватила их,
Что только файлы засверкали.
13 1190332
Что посоветуете обобщенно по теме ИИ? Что бы иметь представление не на уровне киберпанка и фильмов.

Т.е проблематика создания, основные концепции разработки, история, инструменты, и тд
14 1190340
Анон, хочу сделать прогу/модуль к intellege idea, который будет искать программные закладки. В какую сторону двигаться? Что посмотреть, почитать?
15 1190346
>>190340

>программные закладки


С травой? Составь список функций и переменных и ищи аномалии.
16 1190373
>>190322

>Чет в голосяндру


Я не понял. Почему?(
17 1190380
>>190373
Потому что смешно что никакие хитровыебаные алгоритмы не смогут сравниться с масс датасетом.
18 1190395
>>190188
Читай ватника лол. Хипстер тупорылый
19 1190410
>>190332
Кибернетика
20 1190420
>>190188
Ну ты соня. Уже Искусственный Интеллект изобрели и наступила технологическая сингулярность.
21 1190441
А умеет ли matplotlib в 32 бита на канал?
22 1190456
>>190441
Первый серьезный вопрос ИТТ, ура! Не знаю, я бы не расчитывал на это. Он вообще довольно наколенный.
23 1190467
>>190441

>Matplotlib plotting can handle float32 and uint8, but image reading/writing for any format other than PNG is limited to uint8 data


Вообще, взял да и запустил для проверки сам.
24 1190488
Сколько стажёру в яндексе плотят?
25 1190497
>>190332

> Т.е проблематика создания, основные концепции разработки, история, инструменты, и тд


Что угодно по теме когнитивистики
26 1190500
>>190488
99 рублей за два километра в эконом, и 199 рублей если комфорт.
27 1190503
>>190500
А если за дадут порулить и бибикнуть?
28 1190507
>>190503
Только если на коленках у дяди Егора.
29 1190529
>>190507
Само сабой
30 1190680
>>190497
>>190410

а конкретнее
31 1190720
>>190488
Тысяч тридцать где-то.
earthchan.jpg493 Кб, 1527x2160
32 1190893
Аноны, есть что по perspective-invariant feature matching?
В гугле результатов овердохуя, глаза разбегаются. В каком направлении лучше копнуть?
33 1190957
а может ли матплотлиб визуализировать нампи у которого шейп (28, 28, 4). То бишь покабутке пиксель с ARGB значениями визуальнуть а не просто чб? ыыыыыыыы
34 1191178
>>190173 (OP)
Без высшего математического в сфере делать нечего? Платина
35 1191202
>>190262
Watson еще более маркетинговое говно, на хакерньюз бывшее прогеры айбиэм говорили
36 1191211
>>191178
В исследованиях нехера, в макакинге много чего.
37 1191261
>>191202

>на хакерньюз бывшее прогеры айбиэм говорили


х.з. инфы о Ватсонре мало, но там иисайенсйоба
38 1191421
>>191211
Что реального в машоб принесли исследования?
39 1191458
>>191421

> Что реального в машоб принесли исследования?


Все вообще. Весь машоб это результат исследований.
40 1191460
>>191458
Маняматика это тупые бесполезные неработающие алгоритмы типа регрессии и СВМ.
Все более-менее приличное (случайные леса, баггинги, сеточки), изобрели нормальные люди. Придумать "Ну как кароч человек думает" или "Смешаем все подряд и заебись станет" долбоеб-задротик не мог, он обмазывается малосвязанными с действительностью гомотопиями/гомологиями/деткими рисуночками/любой другой хуйней.

Как же у них горит, наверное, что все их "доказанные" методы (доказательства которых занимает десяток страниц) ирл не стоят выделенного яйца.
41 1191464
>>191458

>Весь машоб это результат исследований


Можно конкретный пример, что было исследовано (а не найдено методом тыка) со времен Розенблатта?
42 1191468
>>191460

> неработающие алгоритмы типа регрессии и СВМ.


Дальше можно не читать тупня.
>>191464

> Можно конкретный пример, что было исследовано (а не найдено методом тыка) со времен Розенблатта?


SVM, да все статистическое обучение Вапника, включая бустинг. Сверточные сети созданы на основе зрительного анализатора кошки (Нобелевская премия Хьюбела и Визеля), вся нечёткая логика, все векторное квантование, да и все остальное, достаточно почитать пейперы, нигде не написано "тип я потыкал и нашел", такого почти нет. Ну разве что т н магический коэффициент в проекции Сэммона, это да, методом тыка обнаружили.
43 1191474
>>191468
То есть свёрточная сеть настолько сильно радикально отличается от полносвязной, что нужно было исследовать кошку чтобы её открыть, а не просто играясь с полносвязками? Которые ещё давно придумали?
44 1191488
>>191468

>Сверточные сети созданы на основе зрительного анализатора кошки


Пиздос наркоманы. И какой там у ней анализатор? Я вот про ос читал, как им мозг ебали и изменяли ландшафт, так ваши сети даже близко не стоят к тому, какой анализ проводит оса.
45 1191492
>>191474>>191488
Ты дебилок, правда. Просто прими это как факт. Тот факт, что ты не можешь в причинно-следственную связь, сам по себе не может быть доказательством правильности твоих школьных суждений.
46 1191494
>>191492
Заебись, а то я думал шизики закончились у нас.
47 1191497
>>191468

>Сверточные сети созданы на основе зрительного анализатора кошки


Во-первых, это нейрофизиологические исследования. Во-вторых, это открытие было сделано случайно, даже в википедии описано. В чем тут заслуга математиков? Ну придумали перцептрон, доказали сходимость - ок. Дальше чем они занимались, ждали, пока кошке башку распилят? Даже не попробовали добавить инвариантность к сдвигу? (из этого логически вытекает сверточная сеть).

>нигде не написано "тип я потыкал и нашел", такого почти нет.


Читаю пейперы по нейронкам, там точно так и написано.
48 1191501
Чуваки, помогите макаке. Какие слои в каком порядке нужно расположить, чтобы на входе принимала битмап а на выходе отдавала 4 координаты. Позязя, я макака.
49 1191536
Кому не сложно, взгляните, пожалуйста. Могу ли я взять эту сеть и натренировать своим датасетом и получить на выходе четыре координаты с битмапа? Нит или да?
https://github.com/fizyr/keras-retinanet
50 1191546
>>191536
Можешь, только возьми их претренированную модель, и дотренируй на своем датасете.
51 1191887
>>191497

> Во-первых, это нейрофизиологические исследования. Во-вторых, это открытие было сделано случайно, даже в википедии описано. В чем тут заслуга математиков?


В том, что создали математическую модель. Пиздец, каким надо быть деревянным, чтобы такие вопросы вообще задавать. Что вообще значит "случайное открытие"? Если над какой-то темой работали целенаправленно, то о какой случайности вообще может идти речь? Даже если получили результат, который не ожидали, причём тут случайность? Вот почти везде пишут, что Хофманн случайно LSD вымутил. Да с каких хуев-то случайно, он делал средство для остановки маточного кровотечения, он его и сделал. Диэтиламид он делал тоже не случайно, а по аналогии с диэтиламидом никотиновой кислоты, который эта контора, сандоз, выпускала массово. Даже то, что вещество оказалось 5ht2a-агонистом это не случайность, просто в те времена об этом ничего не знали. Но исследования на то и нужны, чтобы узнавать что-то новое.
52 1191982
>>191460

>Придумать "Ну как кароч человек думает" или "Смешаем все подряд и заебись станет"


Так это "работает" в том же смысле в котором танцы с бубном "работают" для вызывания дождя.
53 1192056
>>191494

>я думал шизики закончились у нас


Нет, ты вовсе не закончился.
mex.jpg31 Кб, 452x342
54 1192063
>>191887

>Что вообще значит "случайное открытие"?


Они занимались какой-то хуйней, и обнаружили, что нейрон активируется на определенную часть изображения (наклонную линию). Каким надо быть деревянным, чтобы самому не додуматься до декомпозиции?
А судя по тому, что для функции активации сначала использовали сигмоид ("патамушта хуйзнаит так в нийроне"), а потом ReLU ("патамушта болие лучше"), о вменяемой математической модели говорить не приходится.
55 1192109
>>191887

>случайно LSD вымутил.


Маня, не случайно, это когда ты сел за стол, прчесал репу и на основании известгых тебе фактов и правил скрафтил йобу, а когда ты примерно знаешь вектор и рендомно смешиваешь всякие йобы, то это случайно. И да, большинство открытий происходит случайно, потому, что так работает ноосфера и сознание, все ответы витают в воздухе.
56 1192111
>>192109

> потому, что так работает ноосфера


> ноосфера


Лайно с богоскопом, залогинься.
57 1192112
>>192063

>сигмоид ("патамушта хуйзнаит так в нийроне"), а потом ReLU ("патамушта болие лучше")


Всё правильно. Шах и мат, шизик.
58 1192113
>>192111
Есть другие варианты? Ноосфера кстати менее безбашенное объяснение работы сознания. А вот манятеории матанопетушни, это да.
59 1192114
>>192113

> Ноосфера кстати менее безбашенное объяснение работы сознания


Для безграмотного опуща, не слышавшего о работах даже Павлова, безусловно.
60 1192115
>>192113
Варианты всегда есть, маня.
61 1192116
>>192114

>Павлова


Ого, ну давай обясни, что там Павлов наработал
62 1192117
>>192115
Поделись хоть одним
63 1192118
>>192117
Почитай Кастанеду перед сном. Мы живём в непостижимом мире. И только ЧСВ мешает нам это принять и понять.
64 1192119
>>192118
Чем идеи этого наркомана отличны от ноосферы Вернандского? Ну или Брахмы.
65 1192120
>>192119

> ноосферы Вернандского


Как будто ты читал хотя бы Вернадского, деградант. Ты не поверишь, что он имел в виду под ноосферой.
66 1192121
>>192119
А у него вообщем-то нету идей. Есть некие тезисы, но в большинстве случаев просто фактический пересказ событий.
67 1192123
>>192120

>Ты не поверишь, что он имел в виду под ноосферой


И что же?
68 1192124
>>192123
Почитай его, маня.
69 1192135
>>192124
Мать твою ебал.
70 1192136
Возможен ли ИИ на нейронке?
71 1192140
>>192136
Нахуй иди, говно.
72 1192141
>>192140
Да я-то пойду, я ж в этой хуйне не шарю, но интересно же.
73 1192158
>>192135

> Мать твою ебал.


Тебе твоя-то не даст, лол. Ты насмотрелся всяких первых каналов с такими же икспердами по газификации луж, и как и остальные дегенераты, считаешь, что Вернадский что-то за какую-то шизотерику пиздел. У тебя даже не хватило ума усомниться, как это было возможно для ученого при его жизни без того, чтобы при этом не перестать быть ученым? У меня вот хватило. Насчет Павлова - все проблемы нейрофизиологии (основы которой в ее нынешнем виде он и заложил), в том, что почти все маняученые часто отказываются от его подхода к изучению высшей нервной дейтельности. Он таких при жизни обоссывал в любой речи на любой конференции, но что один человек может против толп дегенератов. Даже сейчас находятся темные долбаебы, верующие что вся нервная деятельность не сводится к взаимодействию нейронов. Ты-то ладно, но такие и в науке есть.
74 1192194
>>192136
Нет, невозможен. Все дело в том, что любые компьютерные программы все-равно выполняются на бездушной железке, в то время как мозги людей подключены невидимым коннектом к магической сфере знаний, т.н. ноосфере.
75 1192201
>>192158
>>192194
Два дебила - это сила.
76 1192258
>>192158

>Даже сейчас находятся темные долбаебы, верующие что вся нервная деятельность не сводится к взаимодействию нейронов.


А вот дохтора биологических наук оказываются темные долбоебы.
з.ы. почему ты такой ебаный грубиян, ты Шариков?
https://youtu.be/dAF9J-NejcY
77 1192262
>>192258

> А вот дохтора биологических наук оказываются темные долбоебы.


Сплошь и рядом. Только таких при жизни Павлова на заседаниях академии наук хуесосили (читал пример в избранных трудах), а потом скатились. Эта баба поди и в боженьку верует, о чем тут говорить вообще.
78 1192264
>>192262

>таких при жизни Павлова на заседаниях академии наук хуесосили


Тото я смотрю современная медицина пробила дно. Грип то лечить научились?
79 1192299
ВНИМАНИЕ ОБНАРУЖЕНА ПРОТЕЧКА /ССЫ КОД 21 КОД 21
ИТТ вводится карантин. Режим омега-4. Воздержитесь от постинга в течение следующих 72 часов. Следите за дальнейшими указаниями.
80 1192301
можно ли сделать себе нейротяночку? на платформе с колёсами и рукой чтобы могла мне дрочить и пиво из холодильника носить?
81 1192302
>>192264

> Тото я смотрю современная медицина пробила дно. Грип то лечить научились?


Какой грипп, какая медицина, маня? Разговор о нейрофизиологии, ферштейн, нихт? Портфель иди собирай.
82 1192303
>>192301
да, можешь даже сделоть механической, аки шарманка, ну и обезьянку к ней
83 1192305
>>192303
обезьянку-то зачем
15148389150360.png157 Кб, 554x439
84 1192306
>>192301

> с колёсами и рукой чтобы могла мне дрочить и пиво из холодильника носить?


Для современных хипстерских нейроночек нет строгих доказательств сходимости, например, функций Ляпунова, критерия Попова итд. Поэтому эту хуйню на производстве никто использовать не будет, ибо хуй её знает, что она выкинет. Так что смотри, если нейротянка тебе письку оторвет и бутылку с пивандрием в анус вставит, сам будешь виноват.
85 1192307
>>192302

>нейрофизиологии


Ок, озвуч неебаца прорыв в этой области, на который ты тилибонькаешь, ну там сращивание нервов и все такое, глаз искусственный, таблетку от Альцгеймера
86 1192309
>>192305

>обезьянку-то зачем


Ты крутишь ручку, механотянка тебе дрочит, обезьянка охуевает
87 1192313
>>192306

>бутылку с пивандрием в анус вставит


а я и не против
sage 88 1192315
>>192262

>при жизни Павлова на заседаниях академии наук хуесосили


Господин прав, в том что наука скатилась в ёбаное говно и засилие никчёмных учёных. Ну это началось ещё в 80-е годы паралельно с упадком левого движения. А в 60-х был расцвет, когда реально хуесосили всяких долбоёбов на научных конференциях и правильно делали. Но хусосили, с уважением, не скатываясь до матерных слов.
89 1192316
>>192306

>нет строгих доказательств сходимости, например, функций Ляпунова, критерия Попова итд. Поэтому эту хуйню на производстве никто использовать не будет


Получается кто первее отменит эти маразматические стандарты из глубины веков тот и рванёт вперёд? Ну то что это точно будет не наш совок к гадалке не ходи.
90 1192322
>>192316

>кто первее отменит эти маразматические стандарты


Там на кону репутация матанопетушни, им хоть в глаза ссы, непозволят
91 1192324
>>192316

> Получается кто первее отменит эти маразматические стандарты из глубины веков тот и рванёт вперёд?


Это не маразматические стандарты. Негров распознавать и котиков под Пикассо рисовать этот одно, а если контроллер доменного процесса сожгет пол завода или поезд в метро со всей дури в тупиковую призму уедет с сотней жертв, это совсем другое. Отвечать за это не хочет никто. А гарантировать, что такого не будет можно только если есть доказательства устойчивости модели. Где-то даже читал, что это обязательно должно входить в пакет документации алгоритма для внедрение на производство.
92 1192327
>>192324

>Отвечать за это не хочет никто.


Это еще в 70х обосали, на заре Экспертных Систем, я вот считаю, что ЭС и закопали специально, подсунув нейронные сети. Рептилоидам спокойно, поскольку тупик очивиден, но и иллюзию работоспособности тоже можно показать. А вот то, что например диагностическая медицина на ЭС могла развится с 70х, это да, человечество проебалось...
93 1192379
>>192327
А вот гудфеллоу в начале диплёрнинг книжки своей пишет что хуёво эс работали. Пиздит, хипстер?
94 1192421
>>192379
Основное преимущество ЭС в том, что каждую ошибку можно воспроизвести и пофиксить, нейронки в это не могут
95 1192440
>>192299
Чет 72 часа это слишком много. Как без нейроночек родненьких то жить...
96 1192518
Керас. Загружаю модель, загружаю веса, загружаю параметры чтобы сконпелять модель, делаю фит несколько раз и получаю разные результаты в пределах едва ли не целого процента. ЧЯДНТ?
97 1192533
>>192518

> делаю фит несколько раз и получаю разные результаты в пределах едва ли не целого процента


Это норма для нейроночек.
98 1192534
>>192440

>72 часа это слишком много.


та ладно, в опенцв йоба неделю тренировалась на сотне фоточек
99 1192537
>>192518
Random seed проебал?

>в пределах процента


Это мало.
100 1192542
>>192518
model.fit(shuffle=False)?
101 1192607
Минуточку. А как по одной и той же карте одни и те же нейроны вначале могут добегать до разных эндпоинотов?
n.png360 Кб, 473x575
102 1192608
Картинка отклеилась.
103 1192611
Как может получаться что при большем количестве итераций RandomizedSearchCV только ухудшается результат?
104 1192626
Мы предлагаем исследование искусственного интеллекта сроком в 2 месяца с участием 10 человек летом 1956 года в Дартмутском колледже, Гановер, Нью–Гемпшир. Исследование основано на предположении, что всякий аспект обучения или любое другое свойство интеллекта может в принципе быть столь точно описано, что машина сможет его симулировать. Мы попытаемся понять, как обучить машины использовать естественные языки, формировать абстракции и концепции, решать задачи, сейчас подвластные только людям, и улучшать самих себя. Мы считаем, что существенное продвижение в одной или более из этих проблем вполне возможно, если специально подобранная группа учёных будет работать над этим в течение лета.
105 1192638
>>192626
Идея правильная, но задача эта неподьемная в такой постановке.
106 1192690
>>192626

>летом 1956 года


коков результат?
107 1192706
>>192690
Никто не выжил.
108 1192735
Керас
Объясните, пожалуйста. Что такое input_size?
Вот я строю плотную сеть. На входе два нейрона, скрытый слой из трёх нейронов, и на выходе один нейрон.
model = Sequential()
densein = Dense(2, input_shape = (2, 1))
densehide = Dense(3)
denseout = Dense(1)
model.add(densein)
model.add(densehide)
model.add(denseout)
компиляем
model.compile(optimizer='rmsprop', loss='binary_crossentropy')
потом я хочу чтобы сеть получала массив из двух элементов и выдавала мне одно значение.
собираю банч на вход в сеть.
array = np.array([8, 4])
предикчю
result = model.predict(array)
И эта сука выдаёт мне такую хуйю:
Error when checking : expected dense_13_input to have 3 dimensions, but got array with shape (2, 1)
Какова хуя, когда в документации для Dense сказано:
The most common situation would be a 2D input with shape (batch_size, input_dim).
То есть батч сайз у меня 2, а input_dimension каждого семпла в батче 1!
Обьясни мне, дорогой, анон. что такое input_dim. И прав ли я что размер моего батча 2?
Вся надежда только на тебя, дорогой, мой милый анончик.
109 1192851
>>192735
Короче я понял блять. Спасибо что помогли. В input_shape = (2, 1) мы вводим шейп нашего семпла. Какого хуя у Кераса такая кривая документация? Не понятно нихуя, пидоры.
110 1193143
Пацаны. А есть кто работает в компьютерно зрении?
Посоветуйте как вкатиться?
У само 2 года опыта в вебе пайтон и немного шарю С++.
В универе пердолился с ним, но времени четко заботать не было.
111 1193146
>>190332
Любой курс на курсере. От стэнфорда или Яндекса.
112 1193153
Предположим я хочу кластеризовать посты в треде на двоще. Мне нужно взять посты, заменить ссылки, знаки препинания и пр., стеммером выделить корни. Получается количество слов = количесто feature. Вот только посты содержат разное количество слов. Как поступить?
sage 113 1193155
>>193143
Тащемата ничего сложного в этом нет. У тебя есть Питон. У питона есть куча инструментов, которые перегоняют битмапы в нампи. Перегоняй битмапы и прогоняй по сеточкам.
114 1193162
>>193153
Вспомнил, погуглив.

>Choose a set of "feature" words that will be included in your vector. This should exclude extremely common words (aka "stopwords") like "the", "a", etc.

115 1193168
>>193155
Это ок. Я и на С++ могу.
Меня больше интересует, что от собесов ждать.
116 1193176
>>193168
Тебе дадут ленту по которой едет картошка. Тебе надо приделать сверху него камеру и тречить картошку и запоминать на какой секунде едет бракованный корнеплод.
117 1193190
>>193176
lol, звучит весело.
А сам то где работаешь?
Если связан, расскажи, что да как в сфере плз.
ead65623-b397-45bf-b0d9-cc25fc59d3c5jpg620x1000x-Falseq85.jpg129 Кб, 620x466
118 1193201
>>193190

>А сам то где работаешь?


Департамент ИИ и Компьютерного Зрения в Крошке-Картошке. Старший Научный Сотрудник.
119 1193234
>>193201
Понятно. А я думал ты в мдк работаешь над рекурентными нейронками для генерации текстов своих пиздатых шуток.
ва.png456 Кб, 695x605
120 1193263
>>193201

> Компьютерного Зрения

121 1193297
Ладно блять. Вернёмся к нашим бараном. Объясните мне, пожалуйста такую элементарную хуйню по Керасу. Вот я строю модель:
n [7]: model = Sequential()
...: densein = Dense(2, input_shape = (2,))
...: densehide = Dense(3)
...: denseout = Dense(1)
...: model.add(densein)
...: model.add(densehide)
...: model.add(denseout)
In [8]: model.compile(optimizer='rmsprop', loss='binary_crossentropy')
То есть как я понимаю, сеть сейчас состоит из 6 нейронов. Два на входе, 3 в скрытом слое и один на выходе. То есть должно быть 9 весов. Но когда я прошу у модели веса:
In [18]: weights = model.get_weights()
In [20]: len(weights)
Out[20]: 6
Она отдаёт мне что их всего блять 6 КАРЛ
Где я проебался? ЧЯДНТ?
122 1193311
>>193297
размерность весов посмотри
123 1193317
>>193297
Картошечку детектишь?
124 1193326
>>193311
Спасибо. Каждый вес размерностью (2,2). А нахуя их так много-то?
125 1193329
>>193326
А, то есть не каждый вес. Последний размерностью (3,1). Дело начинает проясняться.
126 1193369
>>193297
Ты бы хоть попытался осмыслить, что ты вообще делаешь. Я не знаю, схему бы в пейнте нарисовал, прикинул бы что, как и зачем оно вообще делает.
sdfsdf.png908 Кб, 811x687
127 1193383
>>193369
Ну, во первых, я изначально и нарисовал схему. Хочу чтобы из двух значений сетка мне лепило одно.
128 1193482
Двач, правильно ли я все понимаю?
Вот есть у меня набор картинок 20x20 пикселей с изображением цифры два, например, черно-белые. Мне нужно натренировать сеть для их распознавания. Я делаю из картинок матрицы с нулями и единицами, подаю на вход обычному перцептрону. Теперь мне нужно аппроксимировать решение уравнения
Σ (от 1 до 400) wi * xi + b = 2?
129 1193514
>>193482
То что ты написал это формула линейной регрессии.
Ты про линейную функцию от нее забыл.
130 1193711
Как так может быть? Я запускаю RandomizedSearchCV на 10 итераций и результаты получаются лучше чем на 100 итераций и гораздо лучше чем на 500.
131 1193807
>>193711
Переобучение
132 1193813
>>193711
Переобучение. Классификация вырождается в идентификацию. Значения обучающей выборки становятся единственным, что сеть принимает.
133 1193871
>>193807
>>193813
Где там может быть переобучение? Я говорю про итерации самого поиска гиперпараметров.
cv = 7, и я просмотрел в cv_results_, чем больше итераций, тем хуже перфоманс у лучшего набора гиперпараметров.
134 1193966
Наткнулся на зашибенного чувака. От регрессии до конволюции по порядку. Относительно свежее и всё в одном месте.
https://brohrer.github.io/blog.html
135 1193975
>>193966
Не может быть! Прямо как в любом учебнике!
136 1193976
>>193975
Там есть видево
1.png63 Кб, 221x272
137 1193978
>>193966

> Наткнулся на зашибенного чувака.


>эталонный хипстер из палаты мер и весов.


Почему я не удивлен?..
138 1193979
>>193978
Ну какой же это хипстер. Это няша.
tired.gif241 Кб, 400x310
139 1193988

>поехавшие и петросяны


>любители хипсторов


>секта вапника


>секта хейторов математики


>нюфани, которые не могут осилить документацию

37246.jpg131 Кб, 419x569
140 1193991
>>193988

>поехавшие и петросяны


>любители хипсторов


>секта вапника


>секта хейторов математики


>нюфани,


А ты один весь в белом, да? Сам-то чьих будешь?
141 1193995
>>193988
У тебя есть девушка? Оставь свою почту, няш.
142 1194009
>>193991
Я оп-хуй. Летаю снаружи всех фракций, нейтральная сторона.
143 1194052
Пацаны оцените мой интелект пытаюсь обучать глубокую нейронку на ноуте за 250$ 2011 года
144 1194057
>>194052
Хватит ныть, скоро будешь в гулаге на кластере из краденных телефонов считать свои загнивающие западные нейронки.
145 1194058
>>194057
Не буду я живу в процветающей Беларуси
146 1194064
>>194057

>на кластере из краденных телефонов


А ведь есть MMPI для этих целей, лол
147 1194070
С программированием знаком достаточно базово пара курсов вуза, в нейронках мне делать нечего?
148 1194083
>>194070
Если умеешь и не брезгуешь макачить, то есть чего.
149 1194147
>>194083
А если я хочу перекатиться в нейронки, потому что мне надоело макачить?
152018451712706580.jpg163 Кб, 650x912
150 1194150
>>194147
Должен попросит богословения у Короля Обезьян.
sage 151 1194151
>>194147
Тогда ты перекатываешься туда куда нужно. Так как здесь опыт макакства сослужит тебе прекрасную службу.
152 1194158
>>194150
На Вапника похож.
153 1194165
>>194158

> Вапника похож.


Морковка?
154 1194177
>>193988

>>поехавшие и петросяны


А он не шутил
scr1.jpg104 Кб, 1112x549
155 1194198
Как придумывают архитектуру нейросетей без понимания, что внутри? "Хуяк-хуяк, и - ебана, ПОБЕДИЛИ"?
156 1194209
>>190957
Да.
``
import numpy as np
import matplotlib.pyplot as plt
A = np.random.rand(28,28,4)
plt.imshow(A);plt.show()
``
В imshow подают числа из отреза [0,1]
157 1194210
>>194209
Спасибо ананас. Макака благодарна тебе.
158 1194324
>>194198
ты думашь шутки про негров и обезьян это просто так?
159 1194372
>>190173 (OP)

>>2.jpg


Это же реально похоже на вентилятор
160 1194380
>>194198
Я по причине нейросетей уже боюсь искать в гугле по картинке.
162 1194427
>>194198
Покупают одну метасетку, обученную генерировать сетки.
163 1194582
>>194427
И тут я проснулся
164 1194585
Что думаете об этой статье, ананасы?
http://cs231n.github.io/convolutional-networks/
Если я её прочитаю я превращусь из неосилятора в помидора машоб-боярена?
165 1194638
Можно тренировать нейроночку, потом остановить и перебросить вообще на другой сервер, тренировать дальше?
166 1194648
>>194585
С вероятностью 0,500000
167 1194808
>>190173 (OP)
Накидайте литературы/курсов по математическим дисциплинам, чтобы был хороший бэкграунд для вкатывания.
168 1194810
>>194648
Хотел сказать: "С вероятностью 500%"?
169 1194811
170 1194818
171 1194909
Такс. Выделение автомобильных номеров я сделал. Как лучше будет организовать распознавание самого номера? Стоит ли искать угол поворота а потом только распознавать? Или можно тем же детектором натренировать на поиск символов и так будет даже лучше, потому что будет универсальней? Жаль только в таком случае номера придется скорее всего генерировтаь самому, а подделать помехи(грязь на номере и т.д.) проблематично.
172 1194931
>>194638
Можно, конечно))) но осторожно :D

Дело в том, что при переносе может произойти туннелирование квантовых векторов по принципу ватника-червячникуса, что приведет к неизбежному образованию канцероподобных тел в головных нейронах субъекта производящего перенос, что не есть хорошо
lplate.jpg90 Кб, 862x543
173 1194935
>>194909
Возьми любую веб-камеру с улицы, и будут тебе номера - и с грязью, и со шторками, и с прочими пидорахинскими приблудами
1525811697148477081.gif844 Кб, 290x136
174 1194950
>>194931
Джвачую, все так и есть
175 1194952
>>194909
Дак эта уже не сложно. Яб сделал две нейронки. Одной посылаешь хай контраст номер, где капли изведены до точек, а второй нормальный в случае если номер чистый. Гораздо серъезней проблема если номер сфотографирован под уголом. тут повидимому понадобится серъезный препроцессинг изображение с тем чтобы номер задисторить до состояния плоскодонки.
По поводу самой распознавалке, думаю по классике в финале вываодится на 33 + 10 полносвязку с размерностью (2,), где первое значение номер символа, а втооое его индекс от начала.
176 1194954
>>194950
Что происходит на гифке? Напомнило историю из детсва, когда одна собака стояла поперек другой и когда первая шагала, вторая шагала за ней. Я сначала подумал, что они прилипли друг к другу.
Оказалось, что это они так "неловко" сношались.
177 1194956
>>194954
почти как в твоем детстве
178 1194961
>>194952
В том то и дело, что не хочется так, потому что препроцессинг нужен, а потом ввод значения для обучения. Я же вот думаю, может сделать детектирование символов, как это было с табличкой? Правда разметка займет уйму времени, потому что минимум, думаю, 10к картинок надо будет разметить. А на это месяц уйдет.
179 1194970
>>194961
я думаю в пропооцессинге ничего сложного нет. Должны быть на питоне либы которым посылаешь битмап и 4 координаты, а она отдает выровненную картинку. Не очень понимаю что ты имеешь ввиду под табличками. Есть какой либо пример?
180 1195026
>>194970

>ты имеешь ввиду под табличками.


Номер машины на табличке нарисован же. Вот как размечал таблички, так размечать символы. Тогда можно будет распознавать не только 6-тизначные номера но если обучать дальше и набрать больше табличек, можно будет обучить и европейским номерам.
181 1195031
>>195026
Блять для меня табличка эта таблица типа Ексель, теперь я понял что под табличкой ты подразумеваешь саму досточку на которой напечатан номер.
183 1195133
Добрый день. У меня превосходный математический бекграунд, опыт промышленной разработки и базовые знания питона.
Посоветуйте что почитать на русском языке про мл.
184 1195150
>>195133

> превосходный математический бекграунд


> опыт промышленной разработки


> на русском языке


Читай шапку и учи английский, макака.
186 1195160
>>195150
Тож кекнул с превосходного меметического быкграунда.
origin1.jpg73 Кб, 512x512
187 1195162
https://crypko.ai/#/
AI
Blockchain
Anime

When GAN meets Ethereum, we meet Crypko --- the next generation cryptocollectible game.
188 1195189
>>195150
>>195160
Я не хочу учить английский, твари.
Презираю вас.
15267330136680.png63 Кб, 823x937
189 1195198
>>195189

> Я не хочу учить английский, твари.


В 21 веке не могущий читать на английском то, что ему интересно - неграмотен. Это факт. В любой современной науке / области знаний нехуй делать без знания английского. Вот даже с таким слесарством и второкультурным явлением как машобчик ты соснул, ибо на русском по теме нет нихуя интересного. И везде так же. Так что либо учи человеческий, либо сасай кудасай.
190 1195201
>>195198
Зато я ебал твою мамашу.
191 1195215
>>195198
как максимально быстро поднять английский до уровня чтения технической литературы?

мимо-анон
192 1195216
Хочу натренировать нейросеть, чувствительную к одному какому-то цвету. На входе RGB. Сколько минимально нужно слоев? Ответьте, математики.
193 1195218
>>195215
Дуолинго пройди, тебя там как нейроночку обучают. Хотя, возможно, для технического есть методы попроще.
194 1195219
>>195215

>до уровня чтения


Просто непрерывно читай, сначала можно с подстрочником.
195 1195221
>>195215
"Academic vocabulary in use". Вообще, со знанием предмета довольно легко читать, если у тебя хотя бы B1.
196 1195222
>>195216
Один.
197 1195224
>>195221
>>195218
>>195219
благодарю
198 1195229
>>195222
Нет, не один. Допустим, мне нужно активацию только на салатовом, как один слой с линейной функцией мне это даст?
199 1195296
>>195198

> В любой современной науке / области знаний нехуй делать без знания английского


Слишком утрированно, 99,9% англовысеров семантический шум
200 1195299
>>195229

> салатовом


Да Вы, батенька, эстет-с.
201 1195308
>>195296

> Слишком утрированно, 99,9% англовысеров семантический шум


Хуйню несешь. Английский де-факто официальный международный язык науки. Зная его, ты можешь не только читать о последних достижениях, но и общаться с исследователями. Похуй, чех это, голландец, француз или азиат, на английском ты с ним всегда пообщаешься. А на русском только эта подмывальня да алкаши у подъезда.
202 1195348
>>195308

>Зная его, ты можешь не только читать о последних достижениях, но и общаться с исследователями.


Это не журнал Наука и Жизнь где печатались ноухау советских ученных, это говно написанное, поскольку пиндоховской ученой петушне в обязаловку нужно публиковаться. Если это работоспособно и охуенно, оно не публикуется, а закрывается патентами и стрижется бабло. Опровергни.
203 1195359
>>195348
А вот и залетная лахта.
Тред сваливших утонул - так оно тут всплыло.
204 1195360
>>195348

> Если это работоспособно и охуенно, оно не публикуется, а закрывается патентами и стрижется бабло. Опровергни.


Да весь машоб опровержение твоих фантазий. Покажи мне закрытые патентами ML проекты, на которых стрижется бабло.
205 1195364
>>195360

>закрытые патентами ML проекты, на которых стрижется бабло.


Например все.
206 1195381
>>195364
Друг мой, прочитай про лицензии хотя бы немножк. Что бы что-то закрыть патентом надо обязательно это опубликовать. В общев в АЙТИ хуета не работает. Ты внатуре Лахта какая-то. Без обид. Все мы тут Лахты.
207 1195383
>>195381
А пруфоф так и нет.
Ссылочку на .рт, пожалуйста.
208 1195388
>>195383
Пруфы чего именно тебе нужны?
209 1195391
>>195388
Пруфы всего >>195381
210 1195395
>>195229
Ну же, матаны? Сколько нужно Титанов слоев нейроночки для простого color detection?
211 1195396
>>195391
Не буду тебя кормить, зелень.
212 1195400
213 1195403
>>195381

>В общев в АЙТИ хуета не работает.


Что не работает? Публикация в общих чертах, без открытия техдеталей и приправленная пиздежом, этого достаточно. Для патента никакие публикаций не нужны.
20150303e8b7b166b1aed597424608837ed35673.jpg65 Кб, 604x504
214 1195404
>>195396

>Не буду тебя кормить


>Не буду


А ты быстр :3
215 1195406
>>195381

> Что бы что-то закрыть патентом надо обязательно это опубликовать.


>>195403

>Для патента никакие публикаций не нужны.



Мнения разделились.
В любом случае как минимум один из вас - пидор.
Решайте кто именно.
216 1195407
>>195403
Ты Лахта, смирись с этим. Найди работу за бугром, поживи там маленько, и поймёшь какой каменный век у нас тут.
217 1195414
Ладно я пидор. Следующий вопрос.
Кун Что бы что-то закрыть патентом надо обязательно это опубликовать.
218 1195423
>>195407

>век у нас тут.


Пан хохол, не надоело семенить?
219 1195426
>>195423
Всё, всё, я пидор. Дальше
220 1195429
>>195407
>>195414
>>195423
>>195426
Вы еще поебитесь тут.
221 1195467
Пилять, никак не могу понять как происходит обучение фильтров в Conv слоях. Если с настройкми весов во время обучения в полносвязных слоях все интуитивно понятно. То как обучаются фильтры - нет.
slap.gif855 Кб, 500x281
222 1195474
>>195308

>подмывальня


Скотина, ты охуел? Не трогай мой уютный тредик с шизиками. Пошёл вон.
223 1195478
>>195474
И то правда, какая же это подмывальня.
Скорее параша для дебилов, неудачников и русских.
44.png5 Кб, 71x39
224 1195494
Что значит маленькая буква i под сигмой?
225 1195496
226 1195497
>>195496
Тянки с вконтача ответ.
227 1195507
>>195494

> Что значит маленькая буква i под сигмой?


Суммирование по всем i. Выше же постили йобаматематику для машоба, там наглядно нарисовано.
228 1195509
>>195494
Индекс Суммирования.
Подразумевается что w и x имеют одинаковые размеры, и их можно не указывать (Долго печатать, не важно и т. д.)
229 1195514
Всем спасибо, я потестил свою нейроночку для политача. Как вам?
15263738430292.jpg71 Кб, 600x799
230 1195546
хаха, я понял эту картинку
231 1195573
1527088052940.jpeg75 Кб, 640x640
232 1195601
Как научить CNN работать с изображениями разных разрешений и разных соотношений сторон? Что ещё используют для этого кроме zero padding?
233 1195620
>>195494
Божественный вопрос, ничего не скажешь.
234 1195672
>>195601
На вскидку:
1. Scaling, Crop'ы. и прочая
2. Обрабатывать как есть и потом декодировать RNN-кой или механизмом внимания.
235 1195971
Как правильно произносить ROC AUC?
236 1195973
>>195971
рокаук
237 1195976
>>195973
Как правильно произность это на английском перед белыми людьми?
238 1195977
>>195976
ар-оу-си эй-ю-си
239 1195993
>>195977
рок эй-ю-си
100%
240 1196009
>>195993
Спасибо, ты меня убедил, я вся твоя.
241 1197364
Где же вы, нейраны?
242 1197415
Никто не хочет поучавствовать совместно в kagel, какие-то весьма тривиальные испытания поделать для портфолио, да и просто развлечения?
243 1197419
>>197415
Я сейчас там частицы тречу в коллайдерах.
244 1197433
>>197415

>kagel


это чо?
245 1197436
>>197433
Серьезно?
Площадка по соревнованию в анализе данных.
246 1197448
>>197436
Mauricio Raúl Kagel was a German-Argentine composer

ну а ссыла где?
248 1197456
>>197453
чет хуйня какая то по nlp, автономус вехиклс ваще нет, или там одна хипстота?
249 1197589
>>197456
Там вообще все на любой вкус.
И как бы за топ модели платят бабло.
250 1197701
>>197589

>топ модели платят бабло


Ай хитрецы
251 1197710
Киньте подборку классических гиперпараметров для гридсерча моделей из sklearn, пожалуйста. Регрессия, деревья, knn, вот это вот все, хочу сравнить с моим диплернинх-велосипедом.
252 1198017
>>197415
Давай, только я ничё не умею и с некроноутом сижу
253 1198109
Зачем в гуглГозеро дерево решений? Нельзя ли обойтись простым автоэнкодером?
254 1198145
>>197456
https://www.kaggle.com/c/youtube8m-2018
ты эту хипстоту даже скачать не сможешь
255 1198203
Поясните, как сделать регрессию или ее аналог, если в датасете, для которого нужно получить y = f(x1,x2,...,xn) y и x сами по себе многомерные векторы?
256 1198267
>>198203
Пизда короче. Эта задача известна как 15-я проблема Ватника. Сможешь решить - получишь миллион порций смузи и гироскутер от всемирной ассоциации искусственного интеллекта
257 1198269
>>198267
В принципе, она элементарно решается двунаправленными картами Кохонена. Но я хочу что-то менее экзотическое, желательно вообще элементарное - регрессию там, минимальные квадраты.
258 1198362
Посаны, а есть новая профессия - генерация данных для машинлернинга из движков ГТА5 и UnrealEngine ?
259 1198385
>>198362
У нас на работе используют Unreal Engine для тестировантия нашей реализации SLAM. Но это больше работа для content artists, а не для программистов.
260 1198386
>>198145
А я и не хочу, нахуй таким говном заниматься?
261 1198468
Посоны, недавно видел статью на тему того, что в нейроночках есть ошибка распознавания, типа, если немного изменить фото, то нейроночка уже не справляется и это считают чуть ли не критической ошибкой.
Не помню, на русском или английском она была.
262 1198470
>>198468
https://arxiv.org/abs/1802.08195

>на русском


Ага, на русском.
263 1198484
>>198468
А все, нашёл, это про adversial examples.
264 1198485
>>198470
Это опечатка.
265 1198492
>>198485
А не, не опечатка же.
266 1198564
>>198362
Да, у нас внезапно наняли левел дизойнера как раз для этих целей, потому что с реальными данными гемор из-за юристов ебаных.

мимо работаю в компании-производителе дверных звонков
267 1198567
Анончики, помогите, пожалуйста, советами по архитектуре глубоких нейронок.

tl;dr: какую архитектуру глубокой нейронной сети выбрать для распознавания людей?

В общем есть две взаимосвязанные задачи. Существует система, которая высирает видео с камеры. На этом видео нужно распознавать людей. В самой системе можно включить детекцию объектов по движению (1-й вариант работы), но нужно классифицировать объекты, является ли объект человеком. То есть сделать классификатор на нейронной сети, который будет поглощать вот эти обрезки по рамкам объектов и говорить про класс объекта с доверительностью. Тут обрезки эти могут получаться в низком разрешении.

Если детекцию в системе не включать, то в классификатор будет отправляться весь кадр в нормальном разрешении. Это второй вариант работы. Тут соответственно тоже нужно распознавать людей.

И вот нужно взять на выбор несколько архитектур, посмотреть как оно пойдет. Сейчас присматриваюсь и тестирую YOLO, пока вроде нормально, но интересны и другие варианты.

Вопрос заключается в том, какие архитектуры предпочтительнее выбрать для каждого из вариантов работы системы?

Пытался курить следующие статьи:
https://arxiv.org/pdf/1611.10012.pdf
https://arxiv.org/pdf/1803.09386.pdf
Но что-то оно плохо курится.

В любом случае буду благодарен за любые советы.
268 1198587
>>198567
Работай с йолой, остальное нинужно.
image.png256 Кб, 575x323
269 1198612
>>195198

> машобчик


> на русском по теме нет нихуя интересного


> ето факт

270 1198613
>>195360

> Покажи мне закрытые патентами ML проекты, на которых стрижется бабло.



Любой адекватный алгоритм ранжирования поисковой выдачи.
Любой адекватный финансовый скоринг.
Любая сота в прогнозировании временных рядов.

Не то чтоб обмазанное патентами, но вполне себе закрытое.

мимо-проходил
271 1198614
>>195296
Это не отменяет того, что не знать английского и пытаться что-то поймать с передка науки это нонсенс. Сейчас на норм факультете не знающего английский из магистратуры погонят ссаными тряпками.
272 1198616
>>198613

>Любой адекватный алгоритм ранжирования поисковой выдачи.


Ну компании типа гугла могут держать большие R&D и что-то придумывать принципиально новое и держать это закрытым. Тут примерно верю, хотя уверен, что общие принципы (и конкретные алгоритмы) хорошо известны.

>Любой адекватный финансовый скоринг.


Что ты имеешь в виду? Подбор весов и слагаемых в известный алгоритм, который считает одно, блять, число?

>Любая сота в прогнозировании временных рядов.


Тут сложнее, хуй знает. Мне кажется тут вопрос только в хорошем знании предметной области за временным рядом и подбор метода и параметров под это знание.

Кароче звучит так будто принципиальные схемы хорошо известны/публикуются, а в секрете держат только конкретный код и свободные параметры.
273 1198684
>>198613

> Любой адекватный алгоритм ранжирования поисковой выдачи.


> Любой адекватный финансовый скоринг.


> Любая сота в прогнозировании временных рядов.


Хотя бы по одному примеру приведешь?
274 1198695
>>198614
Откуда в России норм факультеты?
15274767292080.jpg83 Кб, 977x1024
275 1198809
Ну так что вы тут, хипстеры? Вот так >>198203 сделать никак нельзя без векторного квантования? Диплернинх не интересует, там задача с вещественнозначными векторами из 100 значений, негров и котиков распознавать не требуется.
276 1199277
>>190173 (OP)

>Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.



Блин а я думал, что-то понимаю в нейросетях. А как же сети петри, всякие многослойки с каким-то градиентным вычислением весовых коэффицентов? Это тоже все для школьников или используется в серьезных задачах?

Мимо хиккан 26 лвл, когда-то проходивший курс по искусственному интеллекту на инженерной специальности.
277 1199284
>>199277

> Блин а я думал, что-то понимаю в нейросетях. А как же сети петри, всякие многослойки с каким-то градиентным вычислением весовых коэффицентов? Это тоже все для школьников или используется в серьезных задачах?


Что ты этих латентных сойбоев слушаешь? Вон, постом выше задача, вроде все просто аки 3 копейки, а кроме некоторых разновидностей карт Кохонена и применить нечего. Мусор середины прошлого века не нужон, говорили они, диплернинх все порешает, говорили они...
278 1199317
>>199277
>>199284
Сука, пидоры, в предыдущем треде такой же мудила был. Это добавили, потому что постоянно закатываются унтерменши из шараг, которые пытаются навертеть миллиарды линейных слоёв, а потом воют, что нихуя не работает.
279 1199362
>>199317

> Это добавили, потому что постоянно закатываются унтерменши из шараг, которые пытаются навертеть миллиарды линейных слоёв, а потом воют, что нихуя не работает.


Написал хуйню и рад. Как это связано с хуетой в оп-хуй посте про перцептроны?
280 1199369
Серъёзные задачи это коты и нигры с гориллами, я так понимаю?
281 1199418
>>199369
ну если учитывать, что ОКР для какого нибудь деванагари это нерешаемый пиздец, то да
282 1199465
Как писать нейроночки в состоянии ощущения полной бессмысленности, уныния, безнадёжности и суицидальных наклонностей?
283 1199476
>>199465
Поставить себе цель написать нейроночку, симулирующую работу реального психотерапевта.
284 1199516
>>199465
Напиши нейроночку, оценивающую шансы на смерть после приема определенной дозы каког-нибудь вещества. И тренируй ее, собирая данные на себе.
deep learning.jpeg120 Кб, 1280x1707
285 1199630
Какое же это охуенное чувство, когда после трёх дней борьбы с размерами тензоров, несовместимыми форматами данных между Numpy, OpenCV и Scipy, допиливанием кастомных хуков для tf, твоя модель наконец-то начинает делать то, что должна.


Как же мне не хватает статической типизации и нормального дебаггера для tf...
286 1199639
>>199630
а что пилил?
287 1199697
>>199639
Котов идентифицировал на картинках.
288 1199698
>>199639
цифру по изображению.
289 1199703
>>199639
NDA не позволяет обсуждать, просто хотел поделиться радостью.

>>199697
>>199698
Человек-анекдот, пощади.
290 1199792
>>199630
У numpy и scipy одинаковый формат, opencv это некролиба, а в размерах тензоров путаются только нубские лалки. В остальном рад за тебя.
291 1199795
>>199792

> opencv это некролиба


И что же используют смузихлебы?
292 1199800
>>198109
бамп вопросу
293 1199813
>>199800
Это два вопроса настолько глупых, что отвечать на них бессмысленно.
294 1199935
>>199813
Если их задают, значит отвечать на них смысленно. Не все разбираются в тонкостях. А подбор архитектуры так и не регламентирован.
295 1199941
>>199418
Почему?
296 1200511
Привет, анон
Расскажи, как в методе ближайшего соседа kNN находится/выбирается k? И какова общая суть этого метода?
297 1200817
Такой вопрос, машинисты-педагоги, сколько требуется на вкатывание? От "я нашел все учебные материалы" до "теперь можно посылать резюме в гугол". Так-то уже лет десять как вкатился в айти, но хочется новых горизонтов. Да и робо-кошко-девочки сами себя не сделают лол.
298 1200820
>>200817
10-15 лет.
299 1200823
>>200820
Обоснуй.
300 1200887
>>200823
Подготовка к ПхД 3-5 лет по "всем учебным материалам", либо получение магистра по специальности, ПхД 5 лет, 1-2 постдока 3-5 лет. Теперь можешь подаваться в Гугл Брейн, или если сильно повезет то в Дипмайнд, на исследовательские позиции. Все остальное это унылый макакинг, чистка данных, подготовка инфраструктуры для господ исследователей.
301 1200902
>>200887
И они ещё говорят про какие-то возможности.
302 1200935
>>200902
Гугл это топ1 в мире по нейроночкам, если что. Там работают только суперзвезды, производя статьи пачками. Они гребут как на галерах и получают миллионы. На топовых нейроконференциях сотни статей оттуда каждый год. Этот вопрос равносилен "сколько требуется времени чтобы поехать в Голливуд сниматься в главных ролях в самых высокобюджетных фильмах?" Только в Голливуд попасть попроще чем в Гугл.
1527444542179578012.png353 Кб, 700x393
303 1200962
>>200935

>Гугл это топ1 в мире по нейроночкам


Прям вижу как их гугломобиль отсасывает у гаражных васянов.
image.png37 Кб, 866x211
304 1200963
А какие есть удобные инструменты для рисования структуры сети? Не хуйню из тензорборда же вытаскивать и в статью вставлять. Вручную в tikz рисовать тоже влом. Подскажите что-нибудь, пожалуйста.
305 1201002
>>200963
На реддите обсуждали, поищи по старым темам.
306 1201006
>>200962
Людям, работающим над differentiable neural computer, и дела нет до автомобилей и прочей инженерной мути. И естественно, кузьмичи во многих вещах могут превзойти гигакорпорацию с десятками тысяч сотрудников, это вообще ни к селу ни к городу. Рынок они никогда у гугла не заберут, предел их мечтаний это продать свои наработки подороже. Гугл только выигрывает от этого.
307 1201016
>>200935
Толко у меня всё равно слетает загрузка видосов с ютуба при перемещении на более раннюю точку видео. Что скажешь на это, гугл? Алсо гугл реально нихуя не сделал кроме инкубирования технологических решений и криков на весь мир, что он всемогущь.
308 1201196
>>201006

>прочей инженерной мути


ах ну да, автономус вехикалс это же говно, вот бибизяна vs негр на пикче это огого, эгеге
15273662841820.png26 Кб, 644x800
309 1201203
>>201196

> ах ну да, автономус вехикалс это же говно,


Вот нейроночки для этого точно говно, т.к нет строгих доказательств их устойчивости. Я думаю, что и никогда не будет, ибо сойбои не осилят для всей этой ебалы сделать хотя бы функцию Ляпунова. А без этого не будет никакого внедрения, т.к нет желающих отвечать за последствия, если этот автономус вехикал кого-нибудь размажет по пешеходному переходу.
310 1201205
>>201203

>автономус вехикал кого-нибудь размажет по пешеходному переходу.


Так вроде уже
pedestrian.JPG138 Кб, 1393x426
311 1201226
>>201203

>если этот автономус вехикал кого-нибудь размажет по пешеходному переходу


Уже куча трупов в США. Но юристы автопроизводителей похоже оценили жизнь пешеблядей в 2 цента и будут сбивать их пачками. До момента пока не собьют селебрити. А там зомбоящик промоет мозги муриканцам и эти авто запретят нахуй.
312 1201234
>>201203

>А без этого не будет никакого внедрения,


Недавно новость была, убер сбил тян, приняв её за мусор.
313 1201236
А, ну так тем более. Уже есть трупы, оказывается. А ведь давно известно, что нельзя внедрять алгоритмы без доказательств их устойчивости, что для всяких мутных нейроночек вообще нереально. Енджой хипсторпрогресс.
>>201234

> Недавно новость была, убер сбил тян, приняв её за мусор.


В хиджабе была штоле?
314 1201259
>>201226

>system software classified the pedestrian as an unknown object, as a vehicle, and then as a bicycle


Нейроночка соснула на частично освещенном объекте, какая неожиданность! (нет)

>According to Uber, emergency braking maneuvers are not enabled while the vehicle is under computer control


Нахер она тогда нужна без тормозов?
315 1201301
>>201236

>что нельзя внедрять алгоритмы без доказательств их устойчивости


Внедряют то, что модно и молодежно, а не эти ваши устойчивости
316 1201356
>>201301

> Внедряют то, что модно и молодежно, а не эти ваши устойчивости


Куколды одни и внедряют. Им-то хуле, от одного бабаха на грузовике или чёрной бабы (проектировавшей рухнувший мост без технического образования) пропагандирующей что математика - это инструмент угнетения белыми мразями негров, ущерба больше чем от всех нейроночек на убере. А вот у людей все иначе. В Японии когда делали автоматический поезд метро на нечетких контроллерах, с 1978 по 87 годы одних испытаний в реальных условиях было больше 3000, не считая всего остального. То, что теоретически все было строго обосновано, я вообще не говорю, это само собой разумеется.
317 1201365
>>201356

>математика


Нахуй она нужна при строительстве моста?

>Японии


Хуевый пример, пездоглазы технологическое дно.
318 1201378
>>201365
Если у тебя начались каникулы, это не значит что ты можешь гадить в интернетах, иди делай домашку на лето.
319 1201381
>>201378
Анимедаун, плез. Пездоглазы даже в атом не могут.
320 1201384
>>201381
У тебя Чернобыль бомбанул, ариец.
321 1201398
>>201384
Да, ошибка из которой сделали выводы. Пездоглазы же ничего не сделают.
322 1201412
>>201203

>А без этого не будет никакого внедрения, т.к нет желающих отвечать за последствия, если этот автономус вехикал кого-нибудь размажет по пешеходному переходу.


>>201205

>Так вроде уже


>>201234

>Недавно новость была, убер сбил тян, приняв её за мусор.



1. Нейронные сети, если в каком-то виде и присутствую в кибернетическим автотопозках, то за принятие решений не отвечают 100%.

2. Нейронные сети таких дурацких ошибок как тот убер не делают.

3. С помощью нейронки можно сделать некий алгоритм, и постфактум мдоказать все что угодно. Подкрутив руками если нужно параметры.
Или наоборот, взять готовый алгоритм, и докрутить ему нейронкой оптимальные параметры.
323 1201707
Посоветуйте книг по терверу и статам дауносаинтисту, чтоб там были были задачки, а не чистые формулы.
324 1201709
>>201707
Вентцель, "Теория вероятностей"
325 1201731
>>201236

>нельзя внедрять алгоритмы без доказательств их устойчивости


Может гугл поэтому и не пустил в массовое производство что-то подобное, а всяким уберам похуй.
https://habr.com/post/225095/
246x0w.jpg18 Кб, 246x246
326 1201833
>>201236

>нельзя внедрять алгоритмы без доказательств их устойчивости


Людей же внедряют, а для них тоже нет никаких доказательств устойчивости
327 1202018
Признавайтесь, где пиздите пейперы?
328 1202163
ниче не понимаю, то ли метод монтекарлотирисерч не находит оптимальных ходов в крестикинолики, то ли я чего-то не понимаю.
329 1202224
>>202163

>монтекарлотирисерч


че
330 1202229
>>202224
MCTS . Но я обучаю рандомными ходами.
331 1202235
>>202229
Я похоже не совсем правильно понял принцип поиска оптимального хода. Т.е. уже на моменте обучения(игры меду двумя ботами) уже как-то надо использовать дерево, а я только и делаю что хожу рандомно и увеличиваю счетчики при выиграшном результате.
332 1202270
>>202235
Там же дерево капец маленькое. На простом неглубоком дэнсе даже можно решить.
333 1202291
>>202270
Это понятно, но я сейчас другое проверяю же. Можно и перебором делать.
334 1202306
>>202229
Что ты обучаешь? В МКТС ничего не обучается, это просто алгоритм игры, вроде альфа-бета поиска. Или ты с АльфаГо/АльфаЗеро перепутал?
335 1202307
>>202306
Алгоритм поиска оптимальных ходов, тогда уже, если для игры рассматривать. Когда мы настраиваем НС, то там тоже идет поиск оптимума.
337 1203443
>>200817
Решаешь Демидовича за каникулы и вкатываешься без задней мысли.

>https://youtu.be/MI83NiZbsFw

338 1203448
>>203443

>Демидович


>для машинки


Лол. Это слишком жирно. Макака разочаруется ещё, что его макакство настолько лёгкое по сравнению даже с математикой 19-го века.
339 1203470
>>203448
Что может быть сложного в конкретно изложенных примерах, если нет необходимости воссоздавать алгоритм?
340 1203474
>>203470
Я не говорю, что Демидович сложен, я говорю, что там уровень выше. Не говоря уже о том, что он вообще слабое отношение к машобу имеет

>Что может быть сложного


Некоторым банально сложно привыкнуть к матану, не хватает усидчивости или сообразительности.
341 1203475
>>203470
Демидович - это же залупа на угадывание, не? Весь челлендж - придумать хитровыебанное преобразование, которое сведёт пример к одному из каноничных типов
342 1203478
>>203475
Ну да. Там есть задачи, которые сводятся к предыдущим задачам из него же. Он чисто на выдрочку матана направлен. Когда в универе решаешь сам, потом очень долгое время тебя хуй удивишь чем-то этаким на практике.
343 1203481
Если где то появляется маняматик, то это сразу превращается в говно.
Первая аксиома программирования
344 1203482
>>203478
Хз, мне как раз из-за этого не вкатило. То ли я дурак, то ли фантазия не в ту сторону работает, но помнить наизусть все преобразования из тригонометрии, разложения рядов и ещё какую-только угодно залупу только для прорешивания задач мне не вкатило. Я семестр попердолился с ним, а потом на решебники перешёл.
345 1203486
>>203474

>Не говоря уже о том, что он вообще слабое отношение к машобу имеет


В смысле? Там есть много значков суммы и интеграла.
346 1203487
>>201412

>3. С помощью нейронки можно сделать некий алгоритм, и постфактум мдоказать все что угодно. Подкрутив руками если нужно параметры.


>Или наоборот, взять готовый алгоритм, и докрутить ему нейронкой оптимальные параметры.


Начнём с того, что ты не понимаешь смысла слова "доказать".
347 1203488
Может кто-то объяснить как работает градиентный спуск в нейронных сетях?
348 1203496
>>203488
Прекрасно работает.
349 1203501
>>203496
Как? Как, блять, эта ебола работает? Как найти градиент? Из чего? Является ли пространство размерностью колличества измерений выходного вектора скалярным пространством градиента? Пожалуйста помогите.
350 1203504
>>203234
ну чекните а, норм чине? :C
351 1203505
>>203501
Делай базу.
352 1203507
>>203505
Какую базу?
353 1203508
>>203504
Курсы MIT - ок, 3blue1brown хороший канал, но хз как в плане обучения чему-либо. Индус на втором месяце - странный выбор, видел пару его роликов, не сказал бы, что он прям охуенен для новичков. 3 месяц - нахуй, читай шапку.
354 1203511
>>203507
В шапке все.
355 1203519
>>203511
Шапка здесь бесполезна.
356 1203523
>>203519
Как скажешь, дарагой! Медитацию попробуй.
357 1203525
>>203508
а шо скажешь за курс по ML старого чела andrew ng? Сейчас еще в мете?
358 1203529
>>203525
Про машоб не знаю, но смотрел несколько видео из курса Ына по диплёрнингу - по-моему, доходчиво объясняет.
image.png22 Кб, 528x151
359 1203531
>>190173 (OP)
Вопрос по SDL 2. Юзаю Eclipse IDE с Mingw для крестов, но это не важно.

Крч, в SDL 1,2 можно было засунуть файлик динамической либы в папку сисвов64 и можно забить хуй, спокойно запуская приложения после билда, а не засовывать длл в каждый проект.

Я решил так же сделать с 2й версией SDL, но у меня вылезает пикрелейтед. Я чёт подустал и залипаю с шаманством, и мне интересно, ЧЯДНТ? Мне хочется по старинке. Есть предположение, что я юзаю 32битные либы SDL и засунул SDL2.dll в папку SysWoW64. То есть мне нужно или закидывать просто в system32 или менять разрядность либ, как я понял.

Вообще, поясните за необходимость юзания 32 и 64 битных либ. Есть какие-то нюансы, что юзают и на что идёт приоритет в разработках? Или можно забить хуй и спокойно юзать 64 битные?
360 1203533
>>203531
В tf попробуй сделать.
361 1203535
>>203501
Чем тебя не устраивает объяснение на педивикии? Один из простейших методов для поиска минимума, его студентам на 1-2 курсах дают.
362 1203541
>>203535
Всем не устраивает. Не понимаю.
363 1203585
>>203541
Что делать, значит ты просто слишком тупой.
364 1203632
>>203585
Мне это все говорят, но это не правда. Я попросил объяснить. Наверное, надо было добавить что простым языком.
365 1203634
>>203632

>Мне это все говорят, но это не правда.


как заорал

извини
366 1203664
>>203487

>Начнём с того, что ты не понимаешь смысла слова "доказать".


Какие еще интимные подробности моей жизни известны школьному телепату?
367 1203795
Делаю Искусственный Интеллект. Нужно научить нейросеть считать. Как это лучше организовать?
368 1203812
>>203795
Какой тебе ИИ, ты про регрессию не слышал, раз такие вопросы задаешь.
369 1203821
>>203812
В чём смысл твоих высказываний? А если, например, нужно для тренировки своих навыков такое писать?
370 1203824
>>203821
То соси хуй, быдло
371 1203826
>>203824
Как передовая разработка идёт?
372 1203828
>>203821

> В чём смысл твоих высказываний?


Каких конкретно? Твой вопрос >>203795 сводится к регрессии, если ты этого не видишь, даже не знаю, о каком ИИ вообще может идти речь в твоем случае.
373 1203830
>>203826
Просто охуенно идет, готовься.
374 1203836
>>203828
Я мимо проходил. И нет, этот вопрос не всегда сводится к регрессии.
375 1203845
>>203836

> этот вопрос не всегда сводится к регрессии.


Всегда сводится, солнышко. Вот только вы тута настолько дремучие деграданты, что не зная самых азов лезете пердолить слои в керас. Проблема только в построении адекватного задаче датасета. Даже семантику текстов можно свести к линейной алгебре и в итоге к регрессии, что было показано Миколовым в виде т.н. лингвистических регулярностей.
376 1203846
>>203845
Маняматика ненужна, нахуй иди.
377 1203849
>>203845
Ты рили дебил, если хочешь составлять адекватный датасет для такой задачи.
378 1203850
>>203849
>>203846
Это ты дебил, потому что не понимаешь вообще нихуя в том, куда пытаешься лезть. Использовать свое незнание как аргумент в споре - признак дегенерата.
379 1203857
>>203850
Зато я ебал твою мамашу.
380 1203865
>>203541
Да блять потихоньку меняешь веса в ту сторону, где ошибка убывает
381 1203866
>>203845

>не зная самых азов лезете пердолить слои в керас


лол, это про меня
382 1203909
>>203865
Каким образом? Для этого необходимо найти градиент. Но как можно найти градиент, если неизвестно где ошибка убывает?
383 1203924
>>203909

>неизвестно где ошибка убывает


>градиент


Значение знаешь?
384 1203925
>>203909
Ну ты када ошибку посчитал - вычисляешь веса, чтобы ошибка ноль была, потом вычитаешь эти веса из текущих - получается градиент. Делаешь так много раз - градиент накапливается.
385 1203932
>>203909
А ты вообще понимаешь, что такое "градиент"? Не в машобчике, а вообще в принципе?
386 1203936
>>203924
>>203925
>>203932
Идите нахуй, маняматики.
1527481281094.jpg20 Кб, 529x478
387 1203939
Когда мне становится грустно, я захожу почитать как пригорает у тупых макак которым надо объяснить простыми словами ненужную математику, потому что из-за такого пустяка не получается быстро перейти уже к воплощению гениальных идей о создании ИИ.
388 1203940
>>203936
Тебя в детстве препод матана циркулем через Демидовича изнасиловал? Зачем ты так рвёшься каждый тред при любом упоминании математики?
И интересно, ты один, или вас несколько.
дебилыиматематика.jpg110 Кб, 600x450
389 1203941
>>203940
Очевидно же.
390 1203979
>>203939

>Отвечай мои вопросы


Вопрос то где?
391 1203989
>>203924
Ну ёба. Я говорю тебе. Как градиент найти?
>>203925
Ну охуеть. А какое заклинание чтобы веса правильные получались?
>>203932
Что оно и есть. Сраный вектор, показывающий на локальный максимум скалярного пространства.
392 1203990
>>203989

>локальный максимум функции в точке скалярного пространства


фикс
393 1204003
>>203989

>А какое заклинание чтобы веса правильные получались?


Ну там есть какая-то умная формула, но на практике на нее забили хуй и считают упрощенно:
градиент=вход*ошибка
394 1204028
Насчет градиента.

Я правильно понимаю, что, когда его усредняют (для тысячи обучающих примеров например), то, усредняют именно дельты весов?
Ну то есть вот матрица, с усредненным градиентом, она равна матрице весов? И так для каждого слоя?
395 1204043
>>204028
Усредняют градиенты одного батча, умножают на learning rate, и прибавляют к весам.
396 1204055
>>204043

>Усредняют градиенты одного батча, умножают на learning rate, и прибавляют к весам.



Градиенты имеют ту же размерность что и веса?

То есть, нужно в 2раза больше памяти, и для весов, и для градиентов?
397 1204064
>>203941
Просто математику преподают бездари.
398 1204072
Есть тут кто из тех, кто изучает машоб в вузах? Имеет смысл поступать в какой-нибудь Сколтех в магу?
399 1204073
>>204064
Так и педагогов нет, если подумать. Я даже не уверен, есть ли такая специальность как педагогика для ВУЗов.
400 1204092
>>204055

>Градиенты имеют ту же размерность что и веса?


да

>нужно в 2 раза больше памяти


лол, хочешь свой фреймворк написать для нейроночек?
sibo.jpg53 Кб, 326x500
401 1204189
>>204092

>лол, хочешь свой фреймворк написать для нейроночек?


Может быть.
А что?
402 1204212
>>204092
Подожжи. Градиенты имеют ту же размерность, что и веса одного нейрона или весь тензор весов всех нейронов?
403 1204355
>>204189
На чём пишешь?
404 1204370
>>204355

>На чём пишешь?


Под OpenCL хочу.
405 1204386
>>204370

>OpenCL


Хех. Тебе случайно не за 50?
406 1204421
>>204212
всех весов
407 1204423
>>204386
Может, у него АМуДе и Винда. Я тоже думал такое написать, да чот лень.
408 1204461
>>204421
Тогда ещё больше непонятно как его вычислить.
sibo01.png77 Кб, 300x300
409 1204473
>>204386

>Хех. Тебе случайно не за 50?


А что?

Объясни пожалуйста.
OpenCL устарело и не модно?
410 1204475
>>204461
я тебе выше дал формулу, два числа перемножить >>204003
411 1204478
>>204475
Ты же понимаешь, что это ну совсем не годится? Помимо того есть и другие формулы вычисления, гораздо более точные, чем просто ошибку со входом перемножить. Это же не только статистику убивает, но и весь функционал по пизде пойдёт.
412 1204479
>>204473
Да, пиши на крестах.
077af93024f9b131137cdf046db9d1ea.jpg83 Кб, 852x1200
413 1204494
>>204461

>Тогда ещё больше непонятно как его вычислить.


https://ru.m.wikipedia.org/wiki/Дельта-правило
Наркоман.
1511285996164288166.jpg123 Кб, 700x840
414 1204498
>>204479

>Да, пиши на крестах.


Из крестов как-то можно напрямую видеокарту использовать?
415 1204499
>>204498
Ну естественно. Даже на питоне можно.
416 1204513
>>204499

>Ну естественно. Даже на питоне можно.



Дай ссылочку щитоле, или объясни как гуглить.
417 1204518
>>204478

>есть и другие формулы вычисления, гораздо более точные


Ты поумничать решил, или что? Считай тогда по своим охуенным формулам, а нормальные люди считают как я описал
418 1204525
>>204513
C++ AMP, CUDA
sibobydecepticoin-d9758nn.jpg102 Кб, 743x1075
419 1204529
>>204525

>CUDA


И причем тут C++?
И в чем отличие от OpenCL?

>AMP


И в чем отличие от OpenCL?
Кроме того, что это виндовс онли микрописька? Да еще протухшая 10 раз.

Ты потроллить решил?
420 1204531
>>204518

>а нормальные люди


По подьездам с пивандрием сидят и с таких как ты мобилы трясут.
421 1204532
>>204529

>причем тут C++


Потому что с её помощью можно писать на плюсах?

>в чем отличие от OpenCL?


Нет проёбов вроде того, как когда опенсиэль при встрече со сферическим объектом работает медленнее CPU. Нормально оптимизировано. Родная для невидии.

>протухшая 10 раз


Если АМП протухла 10 раз, то сколько раз уже протухла опенсиэль? В твоём фреймворке на древних иероглифах поди адаптивности для неподходящих под видеокарту команд нету?
422 1204642
>>204525

>C++ AMP


А на нём кто-то пишет? По бенчмаркам он вроде хуже OpenCL и CUDA был, да и люди начали носами воротить, мол, говно какое-то, как будто для APU сделано.
135256006733.jpg60 Кб, 500x271
423 1204644
>>204532

>Потому что с её помощью можно писать на плюсах?


Что ты несешь?

В куде свой сиподобный язык, как и в OpenCL
С++ причем? Зачем он?

В чем именно ты противопоставляешь C++ и OpenCL?
Ты понимаешь что C++ это ЯП, а OpenCL CUDA - это API?

>то сколько раз уже протухла опенсиэль?


Stable release
2.2-7 / May 12, 2018; 20 days ago

>В твоём фреймворке на древних иероглифах поди адаптивности для неподходящих под видеокарту команд нету?


Что сказать то хотел, юродивый?
424 1204645
Кек, взял в шараге диплом с фильтром Калмана, а комиссия нос воротит - непонятно. Хотя разжёвано до мелочей, объяснения брал из MIT курса по cognivite science
425 1204652
>>204645
И в чем научная новизна твоего диплома?
426 1204657
>>204652
Там навигация по аскелерометру+камере, без предолингов с BLE/Wi-Fi и магнетометрами
427 1204659
>>204644

>20 days ago


Стоит полагать уже двадцать раз.
428 1204660
>>204657
Нот бэд. Зачем тогда в шараге учился? Будешь поступать на пхд?
429 1204668
>>204660
Я хочу в робототехнику, ИИ, вот это вот всё, но не знаю как подступиться. Местные клубы тупо склеивают китайские запчасти и копипастят питонокод. Я решил такую вот йобу попытаться сделать. Сначала чутка обосрался, потому что Xamarin - какое-то говнище ебаное, поэтому пришлось перекатиться на десктопный прототип, который пока будет работать по записанным данным. А тут ещё шарага проебала сроки оплаты и матлаб отвалился.
430 1204721
>>204645

>фильтр Калмана


А чего они? Это же один из инженерных стандартов.
>>204668

>тупо склеивают и копипастят


Ну а ты что думал, у нас очень туго с этим хотя вонь про ии, робототехнику и цифровую экономику со всех щелей, мда. Либо дуй в топ вуз спб/мск, либо в европку, либо хуй соси.
431 1204728
>>204721

>стандарт инженерный


А кафедра математического моделирования. Обычно узкоспециализированные темы прокатывают, если у тебя какой-нибудь йоба-профессор из местного отделения РАН, но тут таким не занимаются, пришлось из молодых-шутливых аспирантов рецензента искать, лол.

>Либо дуй в топ вуз спб/мск, либо в европку


На европку я бы ещё собрал шекелей для магистратуру, но изначально в топ вуз я бы хуй поступил - в математике тупенький, олимпиады не задрачивал никогда.
432 1204743
>>204073
Закончили колледж и сразу идут учить математике.
433 1204750
>>204728

>тупенький


Ты уверен? Калман это не особо простая штука. Насколько помню, там и диффуры с устойчивостью знать надо, и в теорвере разбираться. Если ты, конечно, правда разобрался.

>олимпиады


Не нужны. В том же СПбГУ, если правильно помню, на матмехе есть кафедра кибернетики, а на примате - теории управления. Знакомые и без олимпиад поступали, 250-260 баллов, потом всегда можно перевестись на более крутое направление, сдав разницу тем более кафедра не зависит от направления обычно.
434 1204781
>>204750

>не особо простая штука


Хз, всё в той же работе из курса по Cognitive Science у MIT довольно просто объяснено. Там он конечно примитивный - том плане, что ориентиры рассматриваются по одному и до внесения новых в вектор состояния, но для начала - почему бы и нет?

>250-260


хехмда, у меня 181, если математика-русский-информатика и 193 если математика-русский-английский, так что я в любом случае в пролёте.
435 1204862
>>204668

> матлаб


Сам виноват что подсел на проприетарщину. Стандарт в области это питон или R, будущее может быть за джулией.
>>204728
Есть куча стипендий, тем более для магистратуры. Университетские или из частных фондов (особенно если ты тян и пытаешься в STEM, тогда тебя ими просто завалят), если у тебя хорошие оценки, проекты и всякие участия в хакатонах от разных фирм (за лето вполне реально набить на десяток строк резюме) то с этим проблем не будет. Если проблемы будут, после поступления можно сказать что ты из нищей страны и тебе сделают скидку вплоть до полной суммы обучения. Всегда есть смысл пытаться в европку.
436 1204866
Есть Один SVC из sklearn и он имеет привычку во время гридсерча нормально считаться до какого-то момента, а потом внезапно зависать на случайных параметрах и.. все, никаких подвижек, хотя все ядра процессора полностью загружены, оперативки достаточно. Что с ним не так?
438 1204897
>>204880
Там нет единственно правильного ответа:

>2к 18


>SVM

439 1205216
>>204897
Ещё одна жертва сойбойства от машоба. Что не так с svm? Вапник без бороды?
440 1205892
Где теорию по нейроночкам почитать? не по машобу, а конкретно по инс, а то на дипломе будут ебать.
441 1205899
>>205892
Бишоп, "Neural networks for pattern recognition". Я на неё ссылался.
442 1205902
Где можно узнать про модели предсказания на рекурентных нейросетях?
443 1205907
>>205902
В сети "Интернет".
15278523184280.jpg20 Кб, 351x351
444 1205987
>>205892

> Где теорию по нейроночкам почитать? не по машобу, а конкретно по инс, а то на дипломе будут ебать.


Вся суть образованца. Пишет диплом по нейроночкам @ спрашивает, что почитать по теории.
445 1206014
>>205987
Услышал в курилке, что другие студенты обсуждают нейроночки, решил что это круто, надо быть в тренде. Но разбираться, книжки какие-то там читать, я вам че батан чтоле? Голова не казенная, забивать ее всякой мутью. Код - 100 строк на тф - спастил из интернета, а теперь главное термины немного вызубрить, чтоб не завалили на защите.
loss.wtf.png1,6 Мб, 1000x682
446 1206067
Что за хуйня у меня с лоссом? Почему он выглядит как будто туда прокрался ёбаный Зорро?
448 1206108
Ононче, какие там йобадостижения у нейроблядей за прследние полгода? Хочу почитать.
450 1206424
>>206014
Олег Леонидович это вы?
451 1206859
Привет, хипстерки коворкинговые.
Начал я тут задачу вот такую решать. Грубо говоря, выделить все все прямоугольники и их пересечения (могут и не пересекаться вовсе, а в разных частях располагаться + шум + разная жирность и контраст контуров и пр)

По началу на OpenCV ковырял: dilation, Hough transform, edge detection, medial axis, дальше топология и прочее старье.
Но попался на глаза Yolo и заставил задуматься. Пытаюсь понять, подойдет ли он тут вообще. Его тогда надо будет на тех кусках, что я красным выделил тренировать или еще как-то (меня эти части больше всего интересуют)? С учетом того, что корреляция между кусками может быть приличной, не будет ли слишком близкой вероятность обнаруженных регионов, так что и отличит их сложно будет?
Практики в ML пока 0, но всякие си с крестами и питонами пилил в продакшене годами. Глянул, что darknet их доступен, да и аналоги на tensorflow имеются.
В ту я вообще сторону смотрю или смузи в голову ударил просто?
452 1206874
>>206859
Да тут вроде задача решается в лоб простым алгоритмом.
Находишь пересечения и углы, и по этому выводишь где там прямоугольник у тебя.

Раз у тебя там шум, и контуры, то вначале убираешь шум и боке.

Выкручиваешь в общем контраст, прогоняешь через филтр шарпнеса.

Ну а дальше тривиально.
453 1206878
>>206859
Нейроночки помогут справиться с шумом и разной толщиной, правильно найти углы. Остальное лучше закодить.
454 1206879
>>206874

Стоит отметить, что я упростил постановку. Там еще немало других типов объектов может появляться и не хочется для каждого искать свои features, крутить пороговые значения и пр.
Подумал, что тренить было бы проще, чем постоянно самому через эти тернии и по мере расширения датасета разных примеров отгрузить это все на откуп обучению.
Т.е. для начал бы хотелось пощупать нейросети на практике, но не уверен, что стоит тратить время на этой задаче. За сим ищу совета
455 1206881
>>206878

Т.е. грубо говоря, мне тренировать на вот таких регионах (+ нагенерить разного масштаба для симуляции толщины + шума)?
Не будет ложных классификаций типа feature с учетом того, что у отдельных фрагментов высокая корреляция?
456 1206885
>>192113

>манятеории матанопетушни


шизик на этих манятеориях твои интернетики и пекарни работают.
457 1206886
>>192158

>Насчет Павлова


тото в совке так дрочили на Павлова что в открытие гемато-энцефалического барьера не верили. А ученую которая открыла засрали.
458 1206887
>>206885

>шизик на этих манятеориях твои


Матанопетух, плез
un-apunte-en-torno05.jpg84 Кб, 350x486
459 1206891
>>206879

>Стоит отметить, что я упростил постановку. Там еще немало других типов объектов может появляться и не хочется для каждого искать свои features, крутить пороговые значения и пр.


>Подумал, что тренить было бы проще, чем постоянно самому через эти тернии и по мере расширения датасета разных примеров отгрузить это все на откуп обучению.


>Т.е. для начал бы хотелось пощупать нейросети на практике, но не уверен, что стоит тратить время на этой задаче. За сим ищу совета



Ну ты бы определился нормально с задачей для начала.

Что у тебя там за волшебные объекты другие.

Если ты делаешь управление для пром процесса, то отдавать все на откуп нейронке не стоит.

Вот этот верно говорит. >>206878

И тебе не очень то и нейронка нужна.
Обычный фильтр попиксельно прогонять.

>>206881

>Т.е. грубо говоря, мне тренировать на вот таких регионах (+ нагенерить разного масштаба для симуляции толщины + шума)?


>Не будет ложных классификаций типа feature с учетом того, что у отдельных фрагментов высокая корреляция?



Ну ты что, хочешь чтобы было лучше человека?
Если там информации нет, так тебе никто кроме Аллаха не скажет угол там или черти православные.

Научись определять толщину в конце концов и уровень шума.

Если для тебя все это слишком сложно, попробуй обратится к кому-то для кого нет.

Готового всем известного решения для твоей конкретной задачи - нет.
Используй индукцию и придумывай свой алгоритм.
un-apunte-en-torno05.jpg84 Кб, 350x486
459 1206891
>>206879

>Стоит отметить, что я упростил постановку. Там еще немало других типов объектов может появляться и не хочется для каждого искать свои features, крутить пороговые значения и пр.


>Подумал, что тренить было бы проще, чем постоянно самому через эти тернии и по мере расширения датасета разных примеров отгрузить это все на откуп обучению.


>Т.е. для начал бы хотелось пощупать нейросети на практике, но не уверен, что стоит тратить время на этой задаче. За сим ищу совета



Ну ты бы определился нормально с задачей для начала.

Что у тебя там за волшебные объекты другие.

Если ты делаешь управление для пром процесса, то отдавать все на откуп нейронке не стоит.

Вот этот верно говорит. >>206878

И тебе не очень то и нейронка нужна.
Обычный фильтр попиксельно прогонять.

>>206881

>Т.е. грубо говоря, мне тренировать на вот таких регионах (+ нагенерить разного масштаба для симуляции толщины + шума)?


>Не будет ложных классификаций типа feature с учетом того, что у отдельных фрагментов высокая корреляция?



Ну ты что, хочешь чтобы было лучше человека?
Если там информации нет, так тебе никто кроме Аллаха не скажет угол там или черти православные.

Научись определять толщину в конце концов и уровень шума.

Если для тебя все это слишком сложно, попробуй обратится к кому-то для кого нет.

Готового всем известного решения для твоей конкретной задачи - нет.
Используй индукцию и придумывай свой алгоритм.
15272115924151.jpg50 Кб, 960x492
460 1206910
Как так получилось, что полно простейших задач, с которыми сойбойские технологии не справляются? Чуть в сторону от негров и котов и все, приехали.
461 1206917
>>206910

>Как так получилось


Лол, рабочии технологии не выгодны буржуазии, ну это типа как водородный двигатель, альтернативная энергия и все такое.
462 1206926
>>206910
Надо обучать нейроночкостроению в колледжах, тогда будет норм.
463 1207583
https://arxiv.org/abs/1805.12177
Еще про обобщение CNN.
464 1207695
Аноны, а как нормально сопоставить точки по дескриптору SURF? Быстрее, чем за O(N3) то есть. Даже с учётом знака лапласиана что-то пиздец долго получается - идём по первому списку, ищем лучшее соответствие из второго, а потом для лучшего соответствия надо проверить, нету ли уже ему лучшего соответствия из первого списка.
image.png63 Кб, 883x217
465 1207717
466 1207810
>>207695
Скорее всего, тот алгоритм, который ты пытался описать, не работает. Идеальное сопоставление это задача присваивания, решается венгерским алгоритмом за О(N^3). Тебе скорее всего подойдет жадный алгоритм, каждый раз выбирающий лучшее присваивание, это О(N^2).
467 1207973
>>207810

>венгерским алгоритмом


Мне кажется тут немного другая задача - мало того, что матрица получилась бы неквадратной, так ещё и не гарантировано, что есть хоть одна пара.
468 1208006
>>207973

>матрица получилась бы неквадратной


Добавляй строки и/или столбцы, соответствующие отсутствию матча.

>не гарантировано, что есть хоть одна пара


Ограничивай вес совпадения снизу. Еслидва дескриптора совпадают меньше порогового значения - ставь вес меньше, чем вес отсутствия совпадения, чтобы эта пара никогда не была выбрана.
469 1208139
>>208006
Блядь, какой же я дебил. Вместо перебора можно ведь и правда ебануть матрицу со всеми расстояниями между дескрипторами. Мозги уже совсем того, пора в крошку-картошку уже.
470 1208231
Имеет смысл сейчас читать книги по машобчику типа Бишопа, или уже устарело и трата времени?
15273662841820.png26 Кб, 644x800
471 1208258
>>208231

> Имеет смысл сейчас читать книги по машобчику типа Бишопа, или уже устарело и трата времени?


Вы заебали со своим "устарело". Что там блять может устареть вообще? Вот с такими идеями, не зная даже линейной регрессии, сразу начинаете с сойбойского прохода в диплернинх и закономерно сасаете, т.к не имеете ни малейшего представления что вообще происходит.
472 1208284
>>208258
Вопрос имеет ли смысл углубляться в классическое машинное обучение вместо дип лернинга. Так-то основы машобчика есть в книге из шапки, а я даже в градиентный спуск умею.
473 1208331
>>208284
Зависит от задачи, порой диплернинг тащит, порой нет. Модель это тоже гиперпараметр.
474 1208465
>>208284
В деталях разбирать устаревшее говно вроде SVM нет никакого смысла. Линейную регрессию неплохо бы разобрать. Бишоп устарел на 90%, сейчас он нужен только ради каких-то специфичных тем, вроде вероятностных моделей (на практике они не используются, впрочем). Никаких мифических "основ машобчика" там нет. Из старых моделей единственное что выжило это градиентный бустинг, про него в Бишопе нет ни слова.
475 1208469
>>208465
Что тогда читать?
476 1208470
>>208469
А что ты хочешь? После диплернингбук никаких откровений больше не будет. Читай статьи по интересующей тебя теме, если хочешь прям до переднего края доползти.
477 1208474
>>208470
То есть можно только диплернинг буком обойтись? Перед этим читать ничего не надо (математику уже знаю)?
478 1208475
>>208469

> Что тогда читать?


Что хочешь читай, кроме бреда от местных дуриков типа предыдущего оратора >>208465 и диплернинхпука.

> устаревшее говно вроде SVM


Назовешь хоть один альтернативный SVM неасимптотически-эффективный алгоритм машоба?
479 1208483
>>208474
Никакой особой "подготовки" к DLB не нужно, если ты об этом. Там даже в первой главе немного мат. аппарат описывают (недостаточно, конечно, но если ты два года хотя бы отучился в вузе, ты уже все необходимое знаешь).
480 1208486
>>208483

>два года


>всё


Нет, теорвер и матстат чаще на третий курс пихают.
image.png7 Кб, 404x65
481 1208605
Объясните мне, в какой последовательности здесь выполняются

>application of the sum and product rules of probability


чтобы получилась вот такая формула:
482 1208619
>>208605
Очевидно же. p(t|x, w)p(w|x,t) - умножение, а интеграл - суммирование, само уравнение записано в виде функционала.
483 1208628
>>208619
Я примерно так и думал, но

>p(t|x, w)p(w|x,t) - умножение


Тут умножения в упор не вижу. Возможно мне трудо адаптировать классическую формулу P(A, B) = P(A|B)P(B) для многомерного случая.
484 1208629
>>208628

> Тут умножения в упор не вижу


А так - p(t|x, w) * p(w|x,t) ?
485 1208630
>>208629
Ебать ты тралебасер.
486 1208730
AI создал свой первый фильм, и это фильм ужасов

https://habr.com/company/pochtoy/blog/413867/
487 1208745
>>208730
Имхо фейк. Сцены они надергали сами, "сюжет" тоже, прошлись рандомно по кадрам дипфейком.
488 1208837
>>208628
p(t|x,w)p(w|X,T) = p(t,w|x,X,T), так как w зависит только от X и T.
489 1208838
>>208629
Как ты звёздочку поставил?
490 1208929
>>208628
>>208838
Вы что, троллите? Знак умножения часто просто опускают, оно по умолчанию подразумевается.
491 1208964
>>208929

> Знак умножения часто просто опускают, оно по умолчанию подразумевается.


К слову, этот факт еще в средней школе проходят. Это к вопросу уровня развития большинства тутошних горемык.
492 1208971
>>208964

>оно по умолчанию подразумевается.


наркоман
493 1208972
>>208838

>Как ты звёздочку поставил?



/
\

/*
школьник.webm1,2 Мб, webm,
360x480, 0:14
494 1208973
>>208971
Класса до 5го доучишься, расскажут.
495 1208974
>>208972
//
\\

//*
496 1208976
497 1208981
498 1208984
499 1208986
>>208973
vps - где умнажения а где vp или ps или vps?
500 1208987
>>208838

звездочка три раза парсер лох пацаны нагибай макаку наебай.
501 1208989

*
502 1208994
>>208745
Ты недооцениваешь мощь нейросетей.
503 1209022
Хотел, было, разжевать это опускание умножения, но такое уныние накатило от того, что надо объяснять такие вещи, пиздец просто.
504 1209040
>>209022
правильно, вся эта маняматическая поебота нинужна
505 1209086
Новый тред? Новый тред.
Абу, блядина мразотная, я не пощу "слишком быстро"

ПЕРЕКАТ
>>1209084 (OP)
>>1209084 (OP)
>>1209084 (OP)
506 1209568
>>190173 (OP)
Вопрос к знатокам.

Хочу использовать colab не для обучения игрушечных моделей на mnist-е, а для чего-то более приближенного к реальности.

Соответственно, есть проблема: надо уместить датасет с фотографиями 224224 в количестве около 2 миллионов в этот самый cloab...

Как это сделать?

На ум приходят только генеративные модели...

Насколько реально воспользоваться DCGAN-ом для генерации изображений для подачи на вход обучаемой модели?

Есть ли предобученные GAN-ы, которые могут выдать что-то вроде imagenet в разрешении 224
224?
507 1209569
>>209568
Сук разметка поехала
508 1243766
>>192307

>таблетку от Альцгеймера


Внезапно, ЛСД
Тред утонул или удален.
Это копия, сохраненная 16 августа 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски