Двач.hk не отвечает.
Вы видите копию треда, сохраненную 25 октября 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.8 /ai/ 1252855 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем спрашивать очевидные вещи, о которых знает любой индус, прочитавший хоть одну книгу по машобу.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.cf/thread/383421/
Остальные в предыдущем треде

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1242753 (OP)
2 1252862
>>52855 (OP)
Блять, оппик затроллил всех кто углубляется в мл через ютуб, как делают во всех других сферах программирования.
3 1252874
>>52855 (OP)
Ну чо там, когда уже будет учебник по математике?
4 1252879
Я еще раз всем напомню: смысла в машобе нет никакого, если у вас нет топового математического образования.
В ближайшие 2 года ожидается массовый наплыв макак в машоб и датасаенс, и чтобы с ними конкурировать, придется иметь топовое образование.
5 1252885
>>52879
Да мл сложный для макак и сейчас не на хайпе. Сейчас буйство веба.
6 1252982
>>52879

> Я еще раз всем напомню: смысла в машобе нет никакого, если у вас нет топового математического образования.


Если нет топовой бамажки, чтобы продать дяде жопу подороже, ты хотел сказать. Если торговля жопой не рассматривается, то даже и бамажка не нужна.
7 1253022
>>52982
Ну да, мы тут все хотим продать себя задороха
8 1253183
>>52879
Как будто с образованием там что-то светит. Почитай ODS, раздел welcome - 99% историй о себе суть два варианта:

1) Я колхозник, бухгалтерша, продавец говна, хочу многа денех, нихуя не умею, изучаю МАШЫНХ ЛЕРНИГХ.

2) Я учился в топ вузе, но слишком тупой, чтобы идти в академическую науку, и слишком кривожопый чтобы уметь писать нормальный код. Поэтому я теперь МАШИН ЛЕРНЕР, пишу статьи, участвую в КАГГЛЕ и всячески пиарюсь среди аудитории под номером 1.
9 1253239
>>53183
И те и другие так и не вкатываются?
Меня интересует варик про колхозников? Работаю инженером в газовой промышленности, хочу перекатится.
10 1253249
>>53239
Сам-то как думаешь? Если ты разрешения у меня пришел спросить, то высылай биткоин - разрешу, так и быть. Вероятность твоего успеха посчитать трудно, но там много нулей сначала идет.
11 1253288
>>53275 (Del)
Я же не Миллером там работаю, а обычной обслугой, подготавливаю расходомеры к продаже. Платят 60 к, так что сплю и вижу как перекачуть в АЙТИ!
12 1253319
>>53313 (Del)
А как же ЗП 100+ на старте? Вот это вот все! Не?
13 1253350
>>53183
Ты немного меня обрадовал. Может будут брать таких каких сейчас на всякие софт-проекты берут.
14 1253355
>>53279 (Del)

> матанопетушня


Кто-то успешно выкатился, кто-то пошел в науку и преподавание. Самые успешные сидят в ресерч отделах за огромные деньги
15 1253358
Сколько в треде дешёвых шлюх.
16 1253359
>>53358
Ну да, но мы хотим себя подороже продать
image.png301 Кб, 660x398
17 1253555
Сделайте нейроночку для распознавания лиц с фетальным алкогольным синдромом. Сразу можно будет отсеять для себя большую часть неблагонадежных людей, например.
18 1253672
>>53555
Так она тебя в первую очередь отсеет, илитарий мамин.
19 1253762
Sup /b/ /pr/
Вопрос на отсос: можно ли вкатиться если вместо видеокарты красная затычка прошлого десятиления, но 10-ядерный китайский зион вместо проца?
Я так посмотрел сколько времени обучается тот же WaveNet на видеокарте и приуныл, пересчитав на GFLOP/s процессора...
20 1253764
>>53762
Бери последнию модель от хуанга в SLI в кредит, только так ты можешь стать ДАЙТА САЙНТИСТОМ.
21 1253765
>>53764
Шо, все так плохо?
Алсо? шо за жопа у радиков (GCN1-2) с OpenCL и у нейронок опять же с ним же? Чо все на куде сидят?
22 1253767
>>53764
Удвою этого Господина, у меня двоюродный брат проходил курсы от Билайна по анализу данных, уже ближе к концу учебы ему препод сказал что есть подработка связанная с расчетами, но нужен компьютер серьезный. Вообщем брат залез в кредиты и купил себе дорогой комп, сейчас с этой халтуры и отбивает кредит. По любому у проф аналитика должен быть вычислительный комп, иначе ты просто не сможешь работать. Ну либо облако, но там тоже платить надо за мощности, для разовых вычислений может и норм, но на постоянке это не выгодно.
23 1253769
>>53762

>10-ядерный китайский зион


ниачом, ЦПУ безнадежно отстали. Жди выхода нового поколения жфорсов и бери самый топовый. 32Гб основной памяти должно быть еще как минимум.
24 1253772
>>53769
Да ебись оно конем, что за танцы криворуких макак нахер. Radeon HD 7870 2,5 Терафлопса в single-precision может выдать, но блять нихуя ничего не пашет, сука. Ебанные зеленые с их ебанной кудой. Ебанные макаки, которые кроме куды ничего не осилили.
25 1253774
>>53772
на прошлой неделе была на хабре статья про это, там вроде keras прикрутили к амудям
26 1253775
>>53774
Оно в итоге через жопу и сливает в два раза менее производительной невидии.
27 1253777
>>53776 (Del)
Мне на поржать, поэтому и пытаюсь на старом говне запустить шоб работало
28 1254153
>>53762
зависит от того, в какую сферу ты вкатываться будешь, для вкатывания в картиночки или звук облака и селерона вместо процессора хватит.
29 1254225
Анончик, помоги найти нормальный гуид по реинфорсмент лернинх. На англе можно. Я всё уже пересмотрел и либо нормального гайда тупо нет, либо он сразу с тензорфлоу и подобным. Мне нужно чтобы без сторонних библиотек, чтобы самому можно было написать. Например нейросеть я написал на питоне по гайду с хабра. И тут хочу так же разобраться до мелочей.
30 1254228
>>54225
Reinforcement Learning: An Introduction
Book by Andrew Barto and Richard S. Sutton
31 1254235
>>54225
Помедитируй над уравнениями Хебба, потом почитай про Q-learning. Дипреинфорсментлернинх не сложнее, просто там входные данные посложнее - скриншоты вместо простых векторов итд.
32 1254239
Придумайте название для AI проехта.
33 1254241
>>54239
AIProject.
34 1254246
>>54239
AiSeptima
35 1254248
>>54239
S05AI
36 1254249
>>54239
AIIAX
37 1254255
>>54239

> Придумайте название для AI проехта.


SoyBoyProject
38 1254258
>>54239
IskeustvennbIy InteJlJlekt
39 1254493
>>54153
Денег на облако нет. Зато есть ведро старых Радиков и мешок китайзионов на любой вкус.

PlaidML оказывается на любом говне работает, пошел ставить катализд и вперде к нейроночкам
1380312064742.jpg1,1 Мб, 1500x938
40 1254565
>>54239
Edwood

Так звали моего паладина в вовне.
42 1254605
>>54601
Интересно как его зовут на самом деле.
Ну а вообще грустная правда в том что пока мамины вкатывальщики рефлексируют на дваче, то вот такие роберты хуеберты просто и без задней мысли проходят пару курсов и никого не стесняясь рассылают сотню резюме, и вкатываются в ойти.
43 1254607
>>54605

>Беларуси


>Роберт



Кек.
44 1254610
>>54605

>роберты хуеберты просто и без задней мысли проходят пару курсов и никого не стесняясь рассылают сотню резюме, и вкатываются в ойти.


Какая-то прохладная история
45 1254615
>>54605
Ага, еще и миллионы денег у пендосов получит на стартап, как тут недавно пролетала новость про белорусов.
46 1254634
>>54615
А если постоит на шоссе с табличкой Кожу за еду - может сам тим кук прочистит очко и даст гейфон.
47 1254743
>>54605
Не, это так не работает.
Вкатиться без хотя бы какого-нибудь математического образования – все равно что пососать хуй в долгосрочной перспективе. Чуть что изменится, появятся новые технологии, и ты сразу же сосешь хуй, потому что все твои знания ограничиваются на питоне с библиотеками и правилах умножения/сложения матриц
48 1254749
>>54743

> Чуть что изменится, появятся новые технологии, и ты сразу же сосешь хуй, потому что все твои знания ограничиваются на питоне с библиотеками и правилах умножения/сложения матриц


Будто в машобчике было, есть или будет что-то кроме умножения или сложения матриц.
49 1254844
>>54743
Новых технологий не появлялось с прошлого века
50 1254886
>>54605
Ничего кроме пиздежа я там не увидел, я тоже могу написать что я прохожу курсы такие то и хочу вот вкатиться на стажировку, и есть пара идей. И что? дальше что? таких даунов у нас полный тред.
51 1254896
>>54886
Ну вообще парень для своих 15 лет смышленый
52 1254901
>>54896
Я тебя умоляю, ты же не знаешь как он проходит эти курсы и как учится, может он вкл видео и сидит в носу ковыряет... И думает о я мамкин махинлернер, а по факту ничего не умеет и не может. И таких даунов хватает даже после прохождения курсов и сертификатов.
53 1254906
>>54743
Любой человек с IQ > 120 освоит всю математику, которая нужна для маш оба за пару месяцев. Это я тебе как выпускник примата говорю.
54 1254908
>>54906
Для выпусника нормальной школы там вообще почти ничего осваивать не надо.
55 1254972
>>54901
Ну так такие дауны обычно в возрасте 20-24 лет, а этот вон.
56 1254986
>>54906
Какая конкретно математика нужна? Можно исчерпывающие названия разделов математики и / или типовых методов, применяемых в 95% машоба?
57 1254988
>>54986
Ты не сильно умный, да?
58 1254989
>>54988
Листал /pr, зацепился взглядом за обобщение "всей математики, которая нужна для машоба". Любопытно.
59 1254990
>>54989
Подумай, какой раздел математики изучает арифметику.
60 1254992
>>54989
Мат. анализ за первый курс, основы линейной алгебры, основы теор вера.
61 1254993
>>54992
https://arxiv.org/pdf/1705.08039.pdf
Чтобы читать статьи в духе вот этой еще функ ан нужен. Все.
62 1254994
>>54993
Только для работы требуют стронг математикал бэкграунд от топ100 универов мира.
63 1255018
>>54994
сорь с работой ты в пролете))
64 1255034
>>55018
Я в топ100 универов мира))
brofistcover.jpg33 Кб, 600x600
65 1255055
66 1255057
>>55034
А я закончил 9 классов церковно-приходской, работаю дворником и покупаю железо б/у китайское.

мимовкатывающийся в машоб
67 1255065
>>54994
Где? fit(), predict() и чистить данные вилкой и обезьяну можно научить. Свои маня-фантазии оставь себе.
68 1255067
>>54994
Бэкграунд от топ100 универов мира в чем? В вычислении производных? Или умножении матриц?
d2e.png77 Кб, 412x351
69 1255068
Где найти работу на полставки? Везде от 30 часов требуют.
На стажировку Яндекса трудно попасть? Я увидел у них "выберите 3 статьи и расскажите о них" и испугался.
70 1255074
>>55067
в том, что ты не напомоечник))
71 1255075
>>55074
Машоб это и есть помойка для дебилов, которые пишут пятистрочные скрипты. Или занимаются математикой уровня курсовой работы бакалавара.
72 1255088
>>55075
грят, сидя на помоечке ты видишь вокруг одну лишь помоечку, это правда?))
73 1255090
>>55088
Да, я посидел какое-то время, теперь со стороны смотрю.
74 1255124
>>55108 (Del)
Идея есть. Мир перевернёт, создаст полный ИИ, все проблемы решит.
75 1255129
>>55128 (Del)
Нет, тогда ты сам всё сделаешь быстрее меня, потому что я необходимые сферы знаю плохо и работаю хуёво и медленно.
image.png213 Кб, 480x360
76 1255155
Какие есть нерешённые проблемы Reinforcement Learning сейчас? Почему алгоритм обучения не универсален до сих пор?
77 1255177
>>55155

>Почему алгоритм обучения не универсален до сих пор?



Потому что наличие целевой функции предполагает, что к глобальному оптимуму всегда можно добраться по её градиенту либо что локальные оптимумы почти равны глобальным, а стохастические оптимизации предполагают, что с их помощью, всегда можно выпрыгнут из локальных оптимумов и продолжить движение по градиенту к глобальному оптимуму. От все большая недооценка топологии реальных пространств оптимизации.
78 1255195
>>55155
назови решенные проблемы reinforcement learning
79 1255275
Хотите открою секрет? В этом треде нет никого кто работает дата саентистом или машин лерниром, короче вот с этим говном, и получает за это деньги. Скринте. Тут только мечтатели и вкатывальщики бесконечные с синдромом студента.
80 1255301
>>55275
Пруфы в студию. ссылочку на рт
81 1255320
>>55275
Да, ты прав.
Я вот только поступил и только начинаю вкатываться. Надеюсь на 4 курсе поступлю в шад, если конечно осилю математику и меня не отчислят раньше.
82 1255537
Мне надоело страдать. Вы хоть там думаете как создать ИИ и прийти к технологической сингулярности?
83 1255539
>>55537
Без тебя нихера не получается.
84 1255544
>>55537
Человеку будут перерезать спинной мозг, подключать его к нейроинтерфейсу, затем с помощью боли и психоактивных веществ будут тренировать его нейросеть до исчезновения эго и полного подчинения командам, приходящим по интерфейсу. Вот и будет тебе ИИ, там уже и сингулярность не за горами.
85 1255710
Sup /pr/
Может кто знаком с лекциями и курсами (мат.анализ, линейная алгебра, теория вероятностей) подготовленными преподавателями Математической лаборатории имени П.Л.Чебышева? Если знакомы, стоит углубляться для понимания сабжа или это пустая трата времени?
Важно ли место жительства? Я так понимаю найти работу проще если получил высшее образование в Москве, или СПб?
86 1255740
>>54992
Спасибо, похоже на правду. А теории игр всякие для эвристических штук не нужны?
87 1255742
>>55740
Не нужны. Кроме перечисленного очень редко нужны самые основы вариационного исчисления (функционалы и операторы), бывает такая нотация, например, у Вапника. Но современные хипстеры в неё сами не могут, так что в целом можно и не заморачиваться.
88 1255798
>>55544

>эти фантазии о подчинении человека машинами


Человек это белковый мешок с говном, взять с него нечего, кроме пердежа, он слабый, тупой и неэффективный механизм.
89 1256009
>>55747 (Del)
>>55798

> Человек это белковый мешок с говном, взять с него нечего, кроме пердежа, он слабый, тупой и неэффективный механизм.


На твоём примере это особенно заметно, чучелок. В целом же вся наука и техника со всеми её достижениями - продукт человека. Если лично ты кроме говна и спама тут ничего не производить, это не причина считать твои кукареканья про человека в целом чем-то серьёзным.
90 1256018
>>56009

>продукт человека


Сколько тебе, лет 25 есть? Значит за свою жизнь ты произвел больше двух тонн говна. Про другие твои достижения я не в курсе, извини.
Разжую еще раз свою мысль: машина, превосходящая по интеллекту человека, или хотя бы равноценная ему, никогда не будет пытаться подчинить человека. Потому что человека долго и дорого растить, обучать, воспитывать, он слаб, ленив,, капризен и легко выходит их строя, особенно в неблагоприятных условиях. Интеллект человека масштабируется очень плохо. Человек машинам просто не нужен.
91 1256040
>>56018

>попытки рассуждать в человеческих категориях про хуйню, которая не будет "мыслить" человеческими категориями.

92 1256042
>>55798
Я писал о подчинении людям, на базе которых и будет сделан ИИ. А эффективность их повысится с помощью reinforcement learning.
opyatdvoika.jpg371 Кб, 699x515
93 1256049
>>56042
Так себе инновации
94 1256054
>>52855 (OP)
Черт возьми, как же сложно читать книгу по Deep Learning. Нужно было хорошо учить математику в школе и посещать лекции по вышке в университете. А теперь время ушло, мда.
95 1256060
>>56054
Нужно просто сесть и ботать, сесть и ботать, пока все не поймешь досконально. Это гораздо труднее, чем, пожалуй, любая другая тема в CS.

Попробуй учебник по квантовой механике всерьез разобрать, после этого ДЛБ легко пойдет, лол.
96 1256069
>>56060
Да мне учебник по арифметике и алгебре для начала нужно открыть. Эх, время упущено.
97 1256076
>>56060
На самом деле можно без квантовой механики, просто хороший учебник по линалу, например, Кадомцева.
мимо теорфизик
98 1256098
>>56018

> человека долго и дорого растить, обучать, воспитывать, он слаб, ленив,, капризен и легко выходит их строя, особенно в неблагоприятных условиях.


Шаламова читал? Он 20 лет в гулаге пахал в таких условиях, что нескольких роботов списали бы уже.
99 1256103
>>55275
Я работал и получал на 3 курсе. Через пол года заебало и уволился. Сейчас фулл стэком работаю. Закончил ПМИ если что.
100 1256130
Вкатываюсь в машинное обучение, изучаю сейчас сверточные нейронные сети, в книжке kernel описывается записью 1x2x3

Поясните за эти числа, первые два это длина и ширина ядра, а что показывает третье число?
101 1256134
>>56130
Количество фильтров, либо третье измерение если это 3д свертка.
102 1256156
>>56130
Скорее всего высота, ширина, кол-во цветов.
103 1256229
>>56134
Значит сам фильтр это такая 2d матрица размерами 1 и 2, и таких фильтров 3 штуки (1x2x3) и вместе они образуют ядро?
104 1256251
>>56190 (Del)
Коллега, как же вы могли не узнать алгоритм Такеши Содо и Бориса Митина?
105 1256268

> постят несмешное


> выгоняют адекватов


> чому остались только вкатывальщики?

106 1256276
>>56229
У этого массива будет еще одно измерение - размерность входных данных. Если у тебя, например, ч/б картинка с одним значением на пиксель, то на первом слое будет как ты написал. Если она цветная с тремя значениями RGB в пикселях, то весь массив фильтров будет 3х1х2х3, где каждый фильтр это массив 3х1х2.
107 1256348
>>56103
А что случилось? Закончились интересные задачи?
108 1256411
>>56348
За эти полгода разобрался абсолютно во всех разделах ML и после этого интерес полностью пропал. По факту ты на работе будешь писать 20ти строчные скрипты на питоне, одни чистят данные вилкой, другие перебирают фичи/learning rate/оптимизатор и т.д, перезапуская обучение. Ничего интересного в этом нету, математика мне пригождалась максимум для того, чтобы дебажить модели. С теорией я после того как начал работать разобрался очень быстро, математика там детская, особенно после семестра функ анализа, поэтому розовые очки, нацепленные мне яндексом и прочими долбоебами слетели быстро.
109 1256412
>>56411
По факту я считаю, что любой выпускник ПМИ может за месяц разобраться во всем, что нужно, для того чтобы применять ML в индустрии и свободно идти работать кем угодно, фулл стэком, и в любой момент, когда задачу лучше решить с помощью ml он просто решает ее с помощью ml. Идти отдельно работать ДАТА САЕНТИСТОМ это то, что кто-то писал выше - либо слесарь, который услышал, что на этом можно поднять бабла, либо горе-выпусник топ вуза, который не смог нормально в код.
110 1256413
>>56412
фулл стэком, например*
111 1256415
>>56414 (Del)
Потому что ты так вскукарекнул?
112 1256420
>>56417 (Del)
Чем занимаешься? Пятистрочные скрипты пишешь?))))
113 1256422
>>56421 (Del)
А, ну десятистрочные скрипты, сорь)))
114 1256587
>>56421 (Del)
Чё такое эс?
115 1256611
>>56412
Не пробовал решить задачи которые не были решены ранее в ИИ? Ведь в данный момент довольно не плохо развивается dl.
116 1256615
>>56611

>dl


Чё это такое? Вы можете не пользоваться сокращениями, которые никто не знает?
117 1256627
>>56617 (Del)
Распознавание негров и котов.
118 1256643
>>56627
Не решены.
119 1256649
На каких языках нейроночки пишут?
120 1256657
>>56643
Там за последний год прирост на 0.02%
121 1256670
>>56617 (Del)
Если ты помнишь эти модели являются предсказательными, т.е. работают с вероятностями. Нет смысла ждать что эти модели будут давать истинные ответы в 100% случаях. Мало вероятно то, что от ошибок удастся избавится полностью, так как мы не живём мире чистой математики, логики или идеи.
122 1256731
Слыш, анон, что думаешь о книге Хайкина "Нейронные сети"? Стоит ли с нее начинать свое знакомство с машинным обучением? Почему? Стоит ли ее читать в дальнейшем (например после deeplearningbook.org)? Почему?
123 1256834
>>56615
deep learning
124 1256835
>>56731

>Хайкина "Нейронные сети"


>1994г.


Сам догадаешься?
125 1256845
>>56835
Ну у меня второе издание, 99-го, изданное на русском в 2006-м, может еще не потеряло актуальность? И есть еще третье - 2009.
126 1256846
>>56845
Если ты упрашиваешь меня разрешить тебе читать эту книгу, то цена вопроса - 0.5 биткоина.
127 1256852
>>56846
Деньги - не проблема. Как передать их тебе?
128 1256861
>>56852
На мой адрес шли: 173FKTCmwDvvnuTZhexUjkYpbqfBhGbg7Z
Как будет 6 подтверждений, я тебе сразу распишу, почему эта книга - единственное, что стоит читать. И ты сможешь читать ее с чувством глубокого удовлетворения.
129 1256871
>>56861
готово
130 1256883
Есть БД сервиса с миллионом юзеров, нужно построить предсказательную модель, которая будет определять кто скоро может отписаться. Вопрос: как грамотно запилить фичи, соответствующие каким-то активностям юзера в разные периоды времени? Я даж хз как это у вас называется, чтобы гугол запрос сформулировать
131 1256916
>>56871
Чет ничего пока не пришло.
132 1256917
>>56426 (Del)
А ты у нас xgboost руками пишешь? Или что? Все машинное обучение - вызов двух методов из библиотек - fit, predict. То, что ты занимаешься какими-то маняврированиями для того, чтобы убедить себя в том, что ты чем-то заумным занят никак на этот факт не влияет.
15337295611480.jpg168 Кб, 400x533
133 1256923
Диблернинх - это процентов 5 задач машоба, а именно - распознавание негров и котов. Тот факт, что весь хайп и все развитие именно в этой области объясняется тем, что барину нужен цифровой ГУЛАГ - тотальная слежка за всеми, для чего нужна обработка терабайтов данных с камер итд, та самая бихдата. NLP также развивается только в этом направлении. Так вот, их идеал - электронный мусор типа пелевинского Порфирия, который сам и следить за вами будет, и дела шить. Только полный дегрод этого не видит, ещё и верует, что это единственный возможный машоб.
>>56731
Хайкин точно не для начинающих. У него глава про перцептроны интересная, остальное можно не читать.
134 1256935
>>56930 (Del)

> Расслабь батоны, технологиями на нейронках ни хуя у них не выйдет


Китайцы уже пилят систему, которая присваивает человеку рейтинг благонадежности в зависимости от его поведения. В технологии цифрового ГУЛАГа миллиарды вкладываются, как минимум, весь прогресс машоба идёт только в этом направлении. Так что все у них выйдет, не сразу конечно.

> Опять нет, там тишь и благодать, особенно все что касается русского языка.


Весь прогресс NLP это контекстная реклама и всякий сентимент анализ, что тоже элементарно использовать для составления профиля на человека и потом классификация по благонадежности.
135 1256944
>>56939 (Del)

> Смотря что подразумевать под NLP, для меня это семантика, вся современная залупа называющая себя NLP фактически хайпожорство.


Ну да, семантика. Чтобы автоматически следить за всем, что люди пишут. Сейчас самая топовая по НЛП контора - пейсбук аи ресерш, word2vec, вот это все. До этих алгоритмов вообще не было возможности строить модели с миллиардами слов. И по чистой случайности у того же цукерберга самая крупная соцсеть в мире. Весь хайп в машобе направлен на технологии, позволяющие гебне глубже залезть в жопу гражданину, глупо отрицать факт. Другие области применения вообще не развиваются.
136 1256946
>>56944
В фейсбуке все силы аи ресерш идут на то, чтобы заставить хомяков больше кликать на рекламу. Да и в гугле тоже. Качество сервиса там уже третьем месте.
У них основная метрика - доход от рекламы, поэтому развивается направление так однобоко.
У нашей гэбни метрика - количество посадок, они и без диплернинха тебя набутылят, так что не переживай.
137 1256958
>>56946
Вот кстати, ютуб недавно проанализировал свою йобабигдату на кластере из 100500 GPU, и пришли к выводу, что рекламу нужно сделать неотключаемой. Доходы ютуба и владельцев каналов только вырастут. Гениально, блядь!
138 1256961
>>56956 (Del)

> Это говно мягко говоря работает только на аналитических недоязыках как англопараша.


Тыскозал? У них на сайте готовые модели на 137 что ли языках. Это не ты тот дебилок, создающий в пораше треды про наружность английского?

> там это, статистика, семантикой там и не пахнет


Будто в семантике есть что-то кроме статистики. Смысл слова - это его использование в определённом контексте (в окружении других слов), что word2vec и восстанавливает по имеющимся данным. Или у тебя магическое мышление какое-то? Что по твоему есть семантика?
139 1256972
>>56969 (Del)
>>56971 (Del)
Пиздец ты тупень. Впрочем, для этой подмывальни норм. Написал хуйню и рад, ещё и кукарекает про предметную область.
140 1256979
>>56974 (Del)
Сейчас бы что-то доказывать чучелу, которое не знает как вообще skipgram тот же работает и что делает. Пример выше - лучшее подтверждение.
141 1256990
>>52855 (OP)
Боже мой, какая сложна область! Столько математики и различных формул - ничего не понятно! Уууууу...
142 1257078
мдааа бля лучше стану обычным прогером
143 1257081
Зачем в автоэнкодере морды лица выход сравнивают с warped входом, а не с оригиналом? В чем подвох?
BYfDbjL.jpg103 Кб, 550x550
144 1257254
>>57078
ВСЕ ИННОВАЦИИ,
ВСЕ НОВЫЕ ТЕХНОЛОГИИ,
ВСЕ ДЕНЬГИ,
В ИТ БЛИЖАЙШИЕ 20 ЛЕТ БУДУТ ИДТИ ТОЛЬКО ИЗ МАШОБА.
всё.webm415 Кб, webm,
1280x720, 0:03
145 1257331
>>57254
В результате через 20 лет люди станут не нужны.
image.png45 Кб, 1199x622
146 1257363
Анон, у меня вопросик. Я вот на питоне написал свою нейросеть. Просто обучаю ее решать XOR. Так вот с однослойной сетью всё нормально. Но если я делаю больше одного скрытого слоя, то получается вот такая картина и обучение не двигается. В чем собсна проблема? Надо намного больше ждать или я где то объебался? Может с SGD дип лёрнинх не работает?)
147 1257419
>>57331
Да нет, видна веселая тенденция на примере толоки. Те кто должен пахать как сучки на заводе сейчас сидят в тепленьких домиках и под пивас обучают нейросети.
148 1257430
>>57419
То есть например люди решат что они хотят жить в домах. Они садятся за пол года обучают класс роботов которые умеют строить дома. Все, человечество навсегда обеспечено домами. Потом люди решают что они хотят пить пиво. Садятся и обучают класс роботов, которые умеют варить пиво. Теперь люди живут в домах и пьют пиво и нихера болтше не делают. Круто же ну?
149 1257457
>>57419
Сори, но на толоке они не зарабатывают прожиточный минимум. Они просто сидят на шее у родителей. Когда родителей не станет, а до пенсии будет еще 20-30 лет, тогда и посмотрим что там их ждет на толоконном рыночке. Органы своих детей продавать будут.
150 1257477
>>57430
Счастливая долгов жизнь ооо...
И не надо будет умирать...
1535921612409.jpg32 Кб, 512x512
151 1257619
Слыште бля, ни разу не работал с этими вашими нейросетками, но принцип работы понимаю. Хочу сделать сетку, которая будет генерировать мемы обучаясь на мемы парсящиеся из контактика. В этих мемах при помощи библиотеки васяна считывается текст, а пикча ищется в картинках гугла, чтобы по этом, по ответу на то, что на ней изображено сетка сама смогла искать и парсить картинки с гугла. Чо тут у вас за среды юзаются и кауие специальные языки? Как я понял, тут они не дефолтные.
152 1257635
>>56883
Попробуй вот тут http://www.machinelearning.ru/wiki/index.php?title=Алгоритмы,_модели,_алгебры лекцию "оценка вероятности и среднего".
153 1257636
>>56917

>Все машинное обучение - вызов двух методов из библиотек - fit, predict


Пиздец.
154 1257640
>>57635
Спасибо! Я так понимаю, что видео доступно только для его студентов, есть только эта статья: https://bijournal.hse.ru/data/2014/04/15/1320713004/8.pdf
155 1257669
>>57640
Не знаю, что там с видео случилось, я когда-то спокойно смотрел. Там было то же самое, что и в презентации.
156 1257670
>>57636
Вся анатомия это всунул-высунул.
157 1257676
>>57670
Вся физика это упавшее на голову яблоко.
158 1257714
>>55275
Я работаю и получаю как сеньер-программист, но по факту не кожу нонстопом, а имею возможность отдохнуть - тут обучение нужно подождать, там нанял людей для сбора данных и тоже ждешь. Это приятно, когда смотришь на программистишек, которые вынуждены постоянно кодить, меняя свое время на еду. А у меня скрипты из 10 строчек.
При развитии любой области есть два крайних подхода, хипстерский-хайповый, когда рисуются золотые горы, и двачерский депрессивно-старперский - когда говорится о том, что новое нихуя не новое, нового не бывает и вообще мир идет не туда.
Не правы оба подхода, но на двачах, естественно, дохуя токсичных старперов, которым лишь бы повыебываться. Predict, fit, данные вилкой. Хуита и понты это все. При чем основной загон идет из того, что просто заниматься бизнес-задачами, как в любом соседнем треде, здесь обязательно зашквар. Слесари, хули.

Что могу сказать, что индустрия не кагл, это анти-кагл, датасеты важны, и чем больше у тебя железа, тем важнее именно датасеты. Но "чистить данные вилкой и обезьяну можно научить" - это чушь. Нельзя. Даже банальные глюки на неграх - это проеб в данных, что говорить о чем-то более сложном и нерегулярном. Если брать изображения, нужно знать computer vision, если звук - DSP, и так далее. Добыча датасета - отдельная история, может понадобиться парсер нахуячить с мульитредингом и асинхронностью, может стать организовать толпу макак (как минимум дать хорошее ТЗ манагеру), скорее всего и то, и то, сначала парсером качаешь ютуб, потом макакингом это дело размечаешь. Один раз мне пришлось отреверсинжинирить формат проприетарной библиотеки файлов одного коммерческого продукта. Это весело, веселее, чем лепить бесконечные круды и фронтэнд к ним.

>>52879

>Я еще раз всем напомню: смысла в машобе нет никакого, если у вас нет топового математического образования.


Это чушь. В машобе не больше математики, чем в химии. То есть она есть, но хорошим химиком тебя математика не сделает. Нужна интуиция прежде всего. Она нарабатывается за счет IQ и опыта. При чем опыт это не только мысли, какую архитектуру выбрать, но и организация процесса исследования. Без опыта любая проблема кажется нерешаемой - загрузил датасет, нажал fit, а у тебя результат чуть лучше подбрасывания монетки. И что дальше?

>В ближайшие 2 года ожидается массовый наплыв макак в машоб и датасаенс, и чтобы с ними конкурировать, придется иметь топовое образование.


Как под копирку из перезвоним-треда о программировании в целом. Да и ИТТ пару лет назад те же самые разговоры были про СКОРО. Спойлер: нихуя не будет и это маняоправдания, лишь бы ничего не делать.
>>53183

>Как будто с образованием там что-то светит. Почитай ODS, раздел welcome - 99% историй о себе суть два варианта:


Это даже не ошибка выжившего, это... не знаю, ошибка еще не летавшего?
>>56643
Решены. Это вот типично старперский выебон. Стыдно быть таким.
>>56923

>Диблернинх - это процентов 5 задач машоба, а именно - распознавание негров и котов.


Сейчас в весь машоб пропихиваются нейронки, потому что они способны давать фичи даже для банального knn. С нейронками веселее везде.
Еще обработка сигналов. Вон nvidia уже ускоряют рейтрейсинг, фильтруя шумное изображения с недостаточным числом лучей. Применений до жопы. Если в твоем городе работодатели делают очередной object detection, то можно посочувствовать. По мне лучший способ вкатиться - это уже работая на фирме предложить конкретное решение конкретной задачи фирмы.
158 1257714
>>55275
Я работаю и получаю как сеньер-программист, но по факту не кожу нонстопом, а имею возможность отдохнуть - тут обучение нужно подождать, там нанял людей для сбора данных и тоже ждешь. Это приятно, когда смотришь на программистишек, которые вынуждены постоянно кодить, меняя свое время на еду. А у меня скрипты из 10 строчек.
При развитии любой области есть два крайних подхода, хипстерский-хайповый, когда рисуются золотые горы, и двачерский депрессивно-старперский - когда говорится о том, что новое нихуя не новое, нового не бывает и вообще мир идет не туда.
Не правы оба подхода, но на двачах, естественно, дохуя токсичных старперов, которым лишь бы повыебываться. Predict, fit, данные вилкой. Хуита и понты это все. При чем основной загон идет из того, что просто заниматься бизнес-задачами, как в любом соседнем треде, здесь обязательно зашквар. Слесари, хули.

Что могу сказать, что индустрия не кагл, это анти-кагл, датасеты важны, и чем больше у тебя железа, тем важнее именно датасеты. Но "чистить данные вилкой и обезьяну можно научить" - это чушь. Нельзя. Даже банальные глюки на неграх - это проеб в данных, что говорить о чем-то более сложном и нерегулярном. Если брать изображения, нужно знать computer vision, если звук - DSP, и так далее. Добыча датасета - отдельная история, может понадобиться парсер нахуячить с мульитредингом и асинхронностью, может стать организовать толпу макак (как минимум дать хорошее ТЗ манагеру), скорее всего и то, и то, сначала парсером качаешь ютуб, потом макакингом это дело размечаешь. Один раз мне пришлось отреверсинжинирить формат проприетарной библиотеки файлов одного коммерческого продукта. Это весело, веселее, чем лепить бесконечные круды и фронтэнд к ним.

>>52879

>Я еще раз всем напомню: смысла в машобе нет никакого, если у вас нет топового математического образования.


Это чушь. В машобе не больше математики, чем в химии. То есть она есть, но хорошим химиком тебя математика не сделает. Нужна интуиция прежде всего. Она нарабатывается за счет IQ и опыта. При чем опыт это не только мысли, какую архитектуру выбрать, но и организация процесса исследования. Без опыта любая проблема кажется нерешаемой - загрузил датасет, нажал fit, а у тебя результат чуть лучше подбрасывания монетки. И что дальше?

>В ближайшие 2 года ожидается массовый наплыв макак в машоб и датасаенс, и чтобы с ними конкурировать, придется иметь топовое образование.


Как под копирку из перезвоним-треда о программировании в целом. Да и ИТТ пару лет назад те же самые разговоры были про СКОРО. Спойлер: нихуя не будет и это маняоправдания, лишь бы ничего не делать.
>>53183

>Как будто с образованием там что-то светит. Почитай ODS, раздел welcome - 99% историй о себе суть два варианта:


Это даже не ошибка выжившего, это... не знаю, ошибка еще не летавшего?
>>56643
Решены. Это вот типично старперский выебон. Стыдно быть таким.
>>56923

>Диблернинх - это процентов 5 задач машоба, а именно - распознавание негров и котов.


Сейчас в весь машоб пропихиваются нейронки, потому что они способны давать фичи даже для банального knn. С нейронками веселее везде.
Еще обработка сигналов. Вон nvidia уже ускоряют рейтрейсинг, фильтруя шумное изображения с недостаточным числом лучей. Применений до жопы. Если в твоем городе работодатели делают очередной object detection, то можно посочувствовать. По мне лучший способ вкатиться - это уже работая на фирме предложить конкретное решение конкретной задачи фирмы.
159 1257740
>>57714

> Сейчас в весь машоб пропихиваются нейронки, потому что они способны давать фичи даже для банального knn. С нейронками веселее везде.


Пропихивается только то, что нвидии продажи поднимет. Вопрос в другом - что дал диплернинх по сравнению с другими алгоритмами машоба в областях, не связанных с картинками, неграми и котами? Прогнозирование временных рядов, детекция отклонений в работе промышленного оборудования, анализ физиологических сигналов, ЭКГ там, это все, итд. Хуй да нихуя. Более того, существуют дегроды, которые веруют, что эти задачи и не нужны, нужно только распознавание с камер, сентимент анализ и прочие технологии цифрового ГУЛАГа.
160 1257759
>>57723 (Del)

>99% из которых это впаривание рекламы, 0.1% детектирование негров с хуевым результатом, 0.8% остальная нерабочая хуета,. Ты точно не школьник?


С дивана тебе конечно охуенно видна статистика.

>Вопрос в другом - что дал диплернинх по сравнению с другими алгоритмами машоба в областях, не связанных с картинками, неграми и котами


Вопрос в другом: что дал питон по сравнению с другими языками в областях, не связанных с вебом и машобом. Программирование атомных реакторов, игры для восьмибитных платформ, МК61. Хуй да нихуя.
Ты заебал с этой старперской демагогией, которая создана исключительно, чтобы щекотать твое ЧСВ. Ты - говно, запомни это.
161 1257776
>>57767 (Del)
>>57769 (Del)
Спасти. Манямирок. Любой. Ценой.
162 1257893
>>57759

> Ты заебал с этой старперской демагогией, которая создана исключительно, чтобы щекотать твое ЧСВ. Ты - говно, запомни это.


Это не демагогия, это неприятная правда. Нынешний хипстерский хайп по впариванию продукции нвидия к машобу относится очень косвенно. За последние лет 5-10 весь прогресс - увеличение продаж нвидии на десятки % и улучшение распознавания негров на пару %. Дурочки же вроде тебя уверовали что нынешнее сойбойство это и есть весь возможный машоб и его вершина, а все остальное - устаревшая хуйня.
163 1257918
Что такое пятистрочник, мимо пробегал.
164 1257921
>>57893
топовый совет: покупайте акции нвидии пока вся эта хуйня не ебнется - последний год +50% в далларах
165 1257924
>>57921

>топовый совет: покупайте акции нвидии пока вся эта хуйня не ебнется - последний год +50% в далларах



Она сейчас уже децл подупадет из-за рейтрейсинга вместо попугаев, надо было на хайпе 2 года назад вкатывать.
Winner-results-of-the-ImageNet-large-scale-visual-recogniti[...].png12 Кб, 771x401
166 1257979
>>57893
За последние 10 лет на пару процентов? Манямирок не треснет? За последние 10 лет задача распознавания с уровня неюзабельная хуйня превратилась в решенную задачу. И только где-то с реснетов уже не представляет особого интереса. Потому что ее решили. И давно пошли вперед. Только чсвшным демагогам на это похуй, они старательно охраняют свой манямирок.
167 1258015
>>58011 (Del)
Демагог перешел на whataboutism. Как предсказуемо.
168 1258100
>>57979
Игрушечный imagenet научились распознавать на 20% лучше, ебать достижение, апплодирую стоя. Ты наверное и сам понимаешь, что весь этот маняпрогресс - следствие увеличенных в разы вычислительных мощностей. Что в самих нейроночках улучшили? Релу вместо сигмоидов? Все это не более чем асимптотически-эффективные методы повышения качества, которые Вапник ещё в 60-х годах обоссал, ибо это математически обоснованный путь в никуда. Нвидии продажи поднимете, а негры так и будут бугуртить, что их гугл классифицирует как горилл.
169 1258104
>>57979

>с уровня неюзабельная чепуха превратилась в решенную задачу


Но ведь это неправда. Я сейчас гоняю разные face detection на хорошем видео, обсираются абсолютно все.
170 1258119
>>58035 (Del)
нет, это не реальная задача, а никому не нужна ерунда (которая требует получения авторских прав, и которую без разрешения издательства даже выполнять нельзя) как и весь русский язык
171 1258124
>>58035 (Del)
Речь шла о распознавании негров, а не OCR. Поэтому то, что ты заявляешь, это whataboutism. Когда решат OCR, ты будешь ныть, что нейронки не распознают рукописный текст, написанный пьяным сантехником Васей на иврите.
негры.jpg50 Кб, 634x536
172 1258132
>>58124

>Речь шла о распознавании негров, а не OCR.


С неграми тоже все далеко от идеала.
173 1258143
>>57893
карточка нвидиа просто считает матрицы, на которых ты можешь считать и свм, и деревья и новый метод, который ты придумаешь и который заменит нейронки хоть в одной из обозначенных тобою областей
174 1258148
>>58100
Маняпрогресс - это твое нытье на протяжении нескольких лет.
Не "научились распознавать на 20% лучше", а уменьшили ошибку в 8.5 раз и довели ее до уровня ниже человеческого. По сравнению с тем, что было в 2011 (25% ошибок - ну получше, чем бросать монетку, да) - это пиздец какой прогресс.

>Что в самих нейроночках улучшили?


relu, inception (2014), residual connections (2015), batch normalization (2015), adam (2014) - это только по классификации, только то, что лежит на поверхности. С 2011 как минимум раз в год было крупное улучшение. Потом, после 2015, классификация перестала быть интересна - есть задача, составляй датасет и ебашь. Там эти проценты упираются в свойства самого датасета и дроч вокруг них. Это да, скучно. Но прогресс пошел в оптимизации под мобильные платформы, в смежных задачах типа object detection и segmentation и т. д.
175 1258165
>>58148

>inception (2014)


Всякую хуйню под собачек и бананы разрисовывать - это в 2015 было, в июле. И в каком же месте это улучшение? Все, что ты про улучшения написал - это попытки подкрасить покойника, чтобы не так пиздецки выглядел. Это не решает главную проблему нейроночек -

>Все это не более чем асимптотически-эффективные методы повышения качества,


а просто немного замазывает ее.

>Но прогресс пошел в оптимизации под мобильные платформы, в смежных задачах типа object detection и segmentation и т. д.


Т.е. в область, актуальную только для цифрового гулага.
nnarch1-1.png44 Кб, 660x432
176 1258182
>>58165

>Всякую хуйню под собачек и бананы разрисовывать


Вся суть. Для специалиста inception - это вид архитектуры, которая дает меньше параметров при том же перформансе (смотри пикрелейтед - архитектуры типа inception являются топовыми для заданного числа операций, дальнейший шаг - automl). А у тебя ассоциация - хайпожорские мемасики. Поэтому ты вокруг всех хайпожорами и называешь - реальных-то знаний ноль.

>Все, что ты про улучшения написал - это попытки подкрасить покойника, чтобы не так пиздецки выглядел.


Нет, это охуенные улучшения, которые ты не принимаешь, будучи цифровым луддитом. Каждое уменьшало ошибку ну хотя бы в два раза.

>Т.е. в область, актуальную только для цифрового гулага.


Confirmation bias
177 1258197
>>58182

>Нет, это охуенные улучшения, которые ты не принимаешь, будучи цифровым луддитом. Каждое уменьшало ошибку ну хотя бы в два раза.


Ты просто не видишь в этом повторение старых попыток так же подмазать перцептроны, у Хайкина например хорошо описаны все эти optimal brain damage, optimal brain surgery и прочая уличная магия с оптимизацией структуры перцептронов. Все это тоже давало какие-то смешные % к качеству, и кто сейчас, в 2018 обо всех этих алгоритмах помнит кроме 1,5 читателей Хайкина? Сейчас то же самое с поправкой на масштабы, как я писал, барину нужен цифровой мусор, который будет следить за всеми, отсюда и гранты и финансирование и прочий хайп. Ты просто не можешь взглянуть на ситуацию со стороны.
178 1258199
>>58166 (Del)
Эта задача сложнее "распознавания негров", потому что негр распознается вне контекста feed forward нейронкой за один прием. Текст же воспринимается не так. Если тебе дать некачественный текст, разбить его на символы и дать его распознавать посимвольно в случайном порядке, ты соснешь, потому что ты, читая текст, видишь контекст - слово (а взрослый человек читает словами целиком) в предложении.
Поэтому для OCR нужна комбинация из CNN и RNN-сетки - а значит и языковые модели и много чего прочего. По уровню это примерно как научить младенца отличать кошку от собаки и научить его же читать слова кошка и собака. Если ты думаешь, что OCR - "это наиболее простая прикладная задача для кампутервижен", то, как я и писал выше, с дивана охуенно рассуждать.

>вот рекомендация хрючева рчередной потребляди это да, это огого


С чего ты взял, что recommender systems массово реализуются на нейронках?
179 1258210
что такое машоб?
sage 180 1258221
>>57757 (Del)

>пиздецки нереально


>кетай уже реализовал

181 1258230
>>58197
Правильно написать "кто об этом помнит, кроме меня, любимого, я круче вас, лошки-слесари". Ты просто не можешь взглянуть ситуацию за пределами своего охуевшего ЧСВ. А я могу, потому что мне в общем-то похуй. Если бы мне платили за гулаг, я бы работал на гулаг. Но мне не платят за гулаг, мне платят за другое. И предложения по работе падают за другое.
Я напишу тебе, что писал больше года назад: взял бы очередного нафталинового автора, нашел бы забытую магию, имплементировал ее и победил в ILSVRC. Однако за все эти несколько лет ты так нихуя и не сделал. И ответ на эту загадку: ты натягиваешь сову на глобус и тебе кажется, что люди писали об одном и том же, задним умом. На самом деле это нихуя не так. Какие-то общие предпосылки могут быть, но не конкретные вещи. У меня, например, в моей архитектуре используются формулы середины прошлого века для инициализации некоторых параметров. Значит ли это, что это не я придумал ноу-хау, а люди из середины прошлого века? Нет, не значит. А то так можно докопаться до того, что все придумал лично Фурье. Это демагогия. Любой научный прогресс на чем-то стоит, но из этого стояния не следует, что он отсутствует.
В общем, есть луддит, отрицающий промышленную революцию в Англии только из-за существования парового двигателя Герона. Факт в том, что Герон не додумался до промышленной революции, а в Англии до нее додумались. Дальше луддит рассуждает о том, что Герон-то охуенчик, только у него не было хорошей стали, а современная революция - это не революция вовсе, это так, хуйня. Вокруг между тем мир меняется стремительно, паровозы появляются, пароходы - хуевые, они не могут даже уголь перевезти, на котором едут, но луддит продолжает отрицать наличие какого-либо прогресса со времен Герона Александрийского.
182 1258242
>>58210
это твоя помоечка
183 1258315
>>57430

>Круто же ну?


Конечно, круто. Приходит барин и говорит, теперь на дома построенные роботами налог, а также налог на пиво и самих роботов, налог на видеокарты и вообще все потенциально опасные эвм надо регистрировать.
184 1258321
>>58230

>Я напишу тебе, что писал больше года назад: взял бы очередного нафталинового автора, нашел бы забытую магию, имплементировал ее и победил в ILSVRC. Однако за все эти несколько лет ты так нихуя и не сделал.


Я тут неоднократно описывал не только забытую магию, но и свои идеи. А так же писал, что не осилю написать имплементацию. Никто не заинтересовался.
185 1258325
>>57714

>В машобе не больше математики, чем в химии.


так-то да но в вакансиях в требованиях зачастую пишут
сильная математическая подготовка
или
высокая мат грамотность
чо они хотят?
чтоб я был ниибаца математиком?
или просто чтоб не был дата обезьяной?
186 1258358
>>58230

> лудиты лудиты старперы вы все лудиты мам


Сколько бетховенов-то в семнадцатом купил, прогрессор?
187 1258366
>>58166 (Del)
Была бы востребована, были бы приложения хотя бы на правилах и opencv, а не один ABBYY. Даже Гугл бросил оцифровывать весь этот библиотечный фонд, так как везде копирайт, все достойные научные работы оцифрованы. Ни одного повода, зачем это нужно, кроме своих хотелок, ты никогда не приводил.
188 1258370
>>58325
Если большая компания и хороший миддл, то хотят, чтобы ты в лстм мог расписать бэк-пропегейшн с батч-нормализацией - вопросы такого уровня, если джуниор, то просто не хуже интервьюера, особенно его любимую область, а это уровень от троечника в школе, до олимпиадника
189 1258377
>>54605

это как с тянками - пока ты мнешься с ноги на ногу и не можешь ей признаться Роберт хватает её и просто ебёт
image.png334 Кб, 750x421
190 1258382
>>56018

Киберчую
191 1258460
>>58370
слишком толсто, попробуй ещё
192 1258528
>>58325
Это хуйня, ты в итоге все равно будешь как даун пятистрочники писать, просто повод платить поменьше.
fuzzy.png38 Кб, 1130x510
193 1258563
>>58528
Сверху "получаю как синиор" написал, что большая часть кода - это обработка данных. И если ты посмотришь кернелы на каггле, там не 5-строчек, а в районе 100-500, но больше 1000-строк у меня, например, почти нет скриптов - это да. Но на питоне много все равно не пишут, в gensim word2vec.py - это 2000 строк.
Или ты хочешь сказать, что на Джанге прям много строк пишут?
Частично это объясняется крайней высокоуровневостью питона, так как не нужно писать фабрику фабрики классов и передавать указатель на указатель для хэллоуворлда, частично тем, что на Питоне не пишут десктоп и сложную бизнес-логику.
Ну, и вы надоели, был давным-давно нормальный тред - а теперь ерунда, даже на пикабу лучше машоб тред, чем здесь. Что вам мешает обсуждать не нейронки, а другие вапникоугодные методы, которыми решаются стоящие задачи и продемонстрировать их на гитхабе? Так сказать, просвятить массы. Если кто-нибудь продемонстрировал бы, что какая-нибудь фаззи-логика работала бы на практике лучше других методов, был бы хайп по ней (хотя по ней на самом деле по нечеткой логике был хайп, просто утята с тех пор не перестроились).
svm.png45 Кб, 1153x600
194 1258565
>>58563
и аналогично
195 1258574
>>58565
Ты понимаешь, что про глубокое обучение трубят из всех труб и это как бы огромная тема, а о существовании метода опорных векторов и нечеткой логики знают лишь "избранные".
К чему эти картинки?
196 1258579
>>58574

>Ты понимаешь, что про глубокое обучение трубят из всех труб и это как бы огромная тема, а о существовании метода опорных векторов и нечеткой логики знают лишь "избранные".


Ты ебанулся. SVM проходится в любом курсе по ML до персептрона, не говоря уже о DL.
197 1258586
>>58563

>Сверху "получаю как синиор" написал, что большая часть кода - это обработка данных. И если ты посмотришь кернелы на каггле, там не 5-строчек, а в районе 100-500, но больше 1000-строк у меня, например, почти нет скриптов - это да.


Ну у меня в model.py 251 строчка, один хрен это очень мало с точки зрения ментального здоровья программиста.

>Ну, и вы надоели, был давным-давно нормальный тред


Хуй знает, сколько ни заходил бы, всё время нытье об отсутствии прогресса. Это нормально для двачей и его публики.
198 1258590
>>58563

>Если кто-нибудь продемонстрировал бы, что какая-нибудь фаззи-логика работала бы на практике лучше других методов,


Я в одном из предыдущих тредов постил ссылку на пейпер, в котором показано, что квантовая логика тривиально представима в виде нечеткой, даже менять ничего не нужно, просто соотнести термины. Т.е. квантовые вычисления, за которыми будущее - это просто другое название нечеткой логики.
199 1258595
>>58593 (Del)
Луддиту с мейлру-то виднее.
200 1258596
Кстати, по поводу Вапника и ДЛ, нашел прекрасные рассуждения здесь https://cs.stackexchange.com/questions/75327/why-is-deep-learning-hyped-despite-bad-vc-dimension
Приходит такой петушок со словом ХАЙП в заголовке вопроса, а в ответах его дружно кормят хуями, а он как попугай продолжает повторять, что ДЛ-сети не умеют обобщать. Напоминает местных экспертов с мировым именем.
201 1258597
>>58579
Ты дурак?
Любая домохозяйка слышала о DL. Любая ли домохозяйка слышала о SVM?
Ты понимаешь, что гуглом пользуется не только люди которые курсы проходили?
sage 202 1258599
>>58597

>Любая домохозяйка слышала о DL


Много домохозяек знаешь, которые сразу бегут гуглить хуйню от журнализдов?
203 1258602
>>58596

>прекрасные рассуждения


>The answer why CNNs are used is simple: CNNs work much better than anything else.


>It's not really understood why deep learning works as well as it does,


>Приходит такой петушок со словом ХАЙП в заголовке вопроса, а в ответах его дружно кормят хуями


Рассказывая, что диблернинх это магия такая, никто не понимает как оно работает, но как-то вот работает. Это религия называется. И я уже сто раз писал, в какой области оно "лучше"-то? В распознавании негров?
204 1258605
>>58597
Тебе на графике наглядно показали, что "фаззи-логика работала бы на практике лучше других методов, был бы хайп по ней (хотя по ней на самом деле по нечеткой логике был хайп, просто утята с тех пор не перестроились).". Хайп по нечеткой логике действительно был, ты просто тогда еще не родился, а с тех пор хайп ушел, потому что никаких прорывов она не дала.
Вот, например: https://old.computerra.ru/2001/415/198010/
Популярный бумажный компьютерный журнал пишет об этом в 2001 году.
205 1258607
>>58602

>Рассказывая, что диблернинх это магия такая, никто не понимает как оно работает, но как-то вот работает.


В этом плане дипленинг как квантовая механика, он работает и все. Чтобы понять, как он работает, нужны столетия исследований manifold'ов. Это не религия, он достоверно и воспроизводимо работает на куче разных задач.

>И я уже сто раз писал, в какой области оно "лучше"-то?


А в какой он ХУЖЕ чего бы то ни было?
206 1258615
>>58607

>Чтобы понять, как он работает, нужны столетия исследований manifold'ов


Наркоман ты что ли? Там нет ничего кроме умножения матриц, какие столетия исследований? Насчет "работала бы лучше всего остального", ты про "no free lunch theorem" что-нибудь слышал? Нет методов, работающих лучше всех во всех вообще применениях. Диплернинх лучше всех только в технологиях цифрового гулага, отсюда и хайп.
207 1258623
>>58605
Хайп надо искать по arxiv, а не по трендам гугла
208 1258645
>>58615

> Там нет ничего кроме умножения матриц, какие столетия исследований?


Лол. Есть - нелинейные операторы. Если бы там были одни матрицы, любая нейронка бы сводилась к линейному классификатору. А если ты это знал, то ты совсем того - посмотри на фрактал жулиа, может поймешь, какие красоты создает пара нелинейных действий.

> Насчет "работала бы лучше всего остального", ты про "no free lunch theorem" что-нибудь слышал?


Я-то слышал. А ты?

>Нет методов, работающих лучше всех во всех вообще применениях


Нет целевых функций, которые сходятся быстрее всех на всех датасетах. Из этого не следует ничего. Начиная с того, что дл это не целевая функция.

>Диплернинх лучше всех только в технологиях цифрового гулага, отсюда и хайп.


Confirmation bias. Я назову тебе кучу применений, которые никакого отношения к слежке не имеют, но ты в очередной раз это проигноришь.
209 1258658
>>58602
да, хотя бы в распознавании негров, а еще в распознавании и синтезе речи, игре в атари и го, в синтезе изображений - области, на которых до сих пор держится основной хайп. Ты только зайди и посмотри автоматические субтитры на ютубе для английского.

раньше люди мечтали о том, чтобы распознавать негров, но почему-то не могли
http://www.image-net.org/challenges/LSVRC/2010/ILSVRC2010_NEC-UIUC.pdf
210 1258666
>>58664 (Del)
Вот тогда и поговорим/Вы находитесь здесь
Какие же отрицатели прогресса одинаковые
211 1258672
То есть прикол в чем, сейчас луддитам нужно, чтобы нейронка не делала ошибок как носитель языка. Не меньше. Не будет - вот тогда и поговорим. Тогда луддит будет вонять еще по какому-либо поводу - например что акцент не тот.
213 1258684
214 1258696
>>58672

>То есть прикол в чем, сейчас луддитам нужно, чтобы нейронка не делала ошибок как носитель языка. Не меньше. Не будет - вот тогда и поговорим. Тогда луддит будет вонять еще по какому-либо поводу - например что акцент не тот.


Да ладно, хоть бы вообще что-то работоспособное было. Если все так заебись с синтезом речи, где можно послушать озвучивание текста например?
215 1258697
>>58615

>ты про "no free lunch theorem" что-нибудь слышал?


бля ,чел ты хуйню сказал
определение-то правильное но в таком контексте....
216 1258701
>>58689 (Del)
пример включает докладчик ровно на 4 часу =/
218 1258709
>>58689 (Del)

> для синтеза есть простые и рабочие решения без нейроговна


Речь шла о том, что в области дл есть только инструменты слежки. Как только тебе дали что-то другое - ты сменил тему. То есть оказывается ты просто тупой и неадекватный хейтер.
Что касается аргумента "Нахуя нам паровоз, мы и на лошадях справляемся", то он такой же как "ну вот тогда и поговооим".
219 1258710
И Коско на ваш диплернинх помочился https://www.edge.org/response-detail/26200 он тоже луддит, да? Тезисно:

>Machines don't think. They approximate functions. They turn inputs into outputs.


>"Intelligent" machines approximate complex functions that deal with patterns.


>The real advance has been in the number-crunching power of digital computers. That has come from the steady Moore's-law doubling of circuit density every two years or so. It has not come from any fundamentally new algorithms. That exponential rise in crunch power lets ordinary looking computers tackle tougher problems of big data and pattern recognition.


>Punchline: Both of these popular AI algorithms are special cases of the same standard algorithm of modern statistics—the expectation-maximization (EM) algorithm. So any purported intelligence involved is just ordinary statistics after all.


>It's a good bet that tomorrow's thinking machines will look a lot like today's—old algorithms running on faster computers.



Машобчик никуда не ушел от классической статистики, и вряд ли вообще уйдет. Весь этот ваш диблернинх - частный случай expectation-maximization (EM) algorithm. Нет никакой магии, есть закон Мура, который позволяет наращивать вычислительные мощности для асимптотически-эффективных решений, поэтому негры в 2018 году распознаются существенно лучше, чем в 2010.
220 1258715
>>58710
удачи
ты всех изрядно заебал
221 1258716
>>58710
Продолжаем whataboutism. Будучи накормленным хуями по фактам луддит несет очередные черрипикнутые священные писания и предлагает побороться с копипастой.
222 1258719
>>58716
А что не так-то? Или ты правда веруешь, что в машобчике есть что-то кроме аппроксимации функций?
223 1258721
>>58719
У нас была тема разговора, к какому конкретно моему тезису ты это принес? Если ни к какому, не пытайся уводить тему.
224 1258723
>>58721

>к какому конкретно моему тезису ты это принес?


К тому, что надо сотни лет изучать, как диплернинх работает, и ссылаться на какие-то ранние работы - это луддизм.
225 1258724
>>58710

>expectation-maximization (EM) algorithm.


В каком месте?
226 1258731
>>58724
Ну на фото либо негр, либо нет. Задача диплернинха в данном случае связать фичи, представляющие негра с соотв. тегом "негр".
228 1258734
>>58723

>К тому, что надо сотни лет изучать, как диплернинх работает


Да и никакого контраргумента в статье по ссылке нет.
>ссылаться на какие-то ранние работы - это луддизм
Цитату. Ты ее не найдешь, потому что я такого не писал.
229 1258739
>>58731
Ты кажется не понимаешь что такое EM
230 1258741
>>58731
Вот мост. Конструктор когда его проектирует, максимизирует ожидание того, что мост не упадет. Вывод - вся инженерная деятельность это EM, а каждому статистику полагается миллион грантов и 72 девственницы.
231 1258766
>>58710

> Весь этот ваш диблернинх - частный случай expectation-maximization (EM) algorithm.


Да, но какая разница? Дип лернинг есть, он работает для большого класса задач (да-да, негров и речь распознает лучше других методов) , магии нет, в чем проблема?

Вон внизу даже статья Хинтона
https://stats.stackexchange.com/questions/45652/what-is-the-difference-between-em-and-gradient-ascent
232 1258789
>>58766

>лучше других методов) ,


Любимая мантра. Знаешь, почему лучше? Потому что его гоняют на топовых видюхах. Еще Лекун писал, что ленет может ровно то же, что и полносвязный перцептрон с той разницей, что перцептрон таких размеров любое железо раком поставит. И опять вспомню неприятный вопрос - а что насчет задач не связанных с неграми, временные ряды те же? На неграх он лучше работает только потому, что функция, представляющая негра (наборы фич) в разы сложнее, чем state-space представление временного ряда и для ее более-менее успешной аппроксимации нужен вот более сложный аппроксиматор.
233 1258808
>>58789
и? если взять любой алгоритм с бесконечным количеством параметров и регуляризацией, то он сможет обучиться достаточно неплохо, но, как ты правильно заметил, это невозможно, поэтому приходиться использовать аппроксимации, а так как простые объекты уже изучили и решили аналитическими и эвристическими методами, остались только сложные, которые требуют соответствующих аппроксиматоров, которые можно обучить до тепловой смерти вселенной.
Звук - временной ряд, на котором нейронки работают лучше свм и деревьев и остальных альтернатив, если тебе не нравится

>лучше других методов) ,


Для длинных временных рядов решений пока нет, но их нет вообще, а не только среди нейронок, поэтому и сидят люди в ворлдквантах и придумывают сигналы, как в 90ых-2000ых делали для картинок и звука
234 1259063
>>59041 (Del)
гыгыгы бля лол хуета
235 1259074
Реально ли создать нейронку уровня /b/ одному?
Прогал на питоне, знания матана на данный момент слабоваты.
236 1259083
>>59074
ты и есть нейронка
237 1259141
>>59074

>Реально ли создать нейронку уровня /b/ одному?


Легко, если ты понимаешь, как оно работает. Начни с теории. Как сможешь на бумаге расписать бекпропагейшн и все необходимые уравнение - напишешь на чем угодно за пару часов.
238 1259216
А можно вкатится без матана, просто почитав книжек по тензорфлов?
239 1259218
>>59216
Биткоин плати и вкатывайся.
240 1259261
>>58789

>Знаешь, почему лучше? Потому что его гоняют на топовых видюхах.


Но ведь ничто мешает гонять на топовой видюхе любой другой метод. Что, так твои убер-методы НЕ МАСШТАБИРУЮТСЯ для больших датасетов что ли, лол? Смешной ты))
Нет, всякие лесисто-дровяные изделия масштабируются, ну так они тоже в мейнстриме. При чем это леса лучше решают задачу по обработке контекстной рекламы и анализа профилей в социальных сетях (потому что нейронки лучше работают с непрерывными данными из-за своей природы), но раз организм велит нейронки хейтить, то хули тут думать.
То есть вот какая хуйня произошла, компьютеры стали более быстрыми, датасеты более большими, на них серьезные люди делают серьезные задачи разными методами, но хейтят именно нейронки. Почему? Потому что не в нейронках дело, а в том, что у кого-то бомбит на само явление хайпа. Нейронки хороши, но раз они так показательно хороши (задачи типа style transfer или генерации речи wavenet'ом с имитацией даже дыхания), то их нужно хейтить. Не потому что они плохо работают, а потому что о них много говорят. Фу такими быть.

>Еще Лекун писал, что ленет может ровно то же, что и полносвязный перцептрон


Неправильно, ленет может меньше, чем полносвязный перцептрон. Ведь у него меньше параметров. Это полносвязный перцептрон с соответствующим количеством слоев и нейронов может столько же - если ты сумеешь его обучить. Сумеешь ли?

>перцептрон таких размеров любое железо раком поставит.


Неправильно. LeNet это вход 28x28x1, затем сверточный слой 3х3х20, макспулинг, слой 3x3x50, макспулинг и полносвязный слой c 500 выходами.
То есть, можно трансформировать его в следующую нейронку:
Вход 28=28=784 нейронов, затем полносвязный слой из 202828=15680 нейронов, макспулинг, затем полносвязный слой из 501414=9800 нейронов, макспулинг и затем полносвязный слой из 500 нейронов. Ничего особенного, современное железо это тянет. Если подумать, можно и от пулинга избавиться, но мне лень.
В общем, архитектура такая будет возможна, но как этот перцептрон обучать? Все дело в том, что архитектура сверточных сетей содержит в себе регуляризацию, а именно, инвариантность к перемещению для всех слоев, кроме последнего. У полносвязной сети такого не будет - она не имеет такой информации о мире. Поэтому несмотря на то, что обученную LeNet можно конвертнуть в такой перспектрон и оно будет работать, обучить такой персептрон будет гораздо сложнее и дольше - потому что в его архитектуру не зашита эта самая инвариантность.

>И опять вспомню неприятный вопрос - а что насчет задач не связанных с неграми, временные ряды те же


Пошел опять whataboutism. Так это ты ответь, что насчет. Какой метод лучше нейронок при анализе временных рядов?
Нет такого. Твоя позиция барская - сел, ноги на стол и такой "несите-ка мне хуйню, которая позволит на бирже миллиарды зарабатывать, да побыстрее. Что, нейронки не могут это сделать? Ну так говно ваши нейронки". Подразумевая, что ты по старинке уже миллиарды на этой самой бирже заработал. Нихуя же не так, нейронки это state of art анализа временных рядов, а если они работают хуево (что, вообще говоря, не так - я работаю с одномерными данными, например), то остальные методы еще хуже.

>На неграх он лучше работает только потому, что функция, представляющая негра (наборы фич) в разы сложнее, чем state-space представление временного ряда и для ее более-менее успешной аппроксимации нужен вот более сложный аппроксиматор.


Я тебе сейчас объясню твою фундаментальную ошибку, как батя, а ты меня выслушаешь и проигноришь из-за когнитивных искажений, ну да похуй.
1. Сложность аппроксиматора особо неинтересна. Они уже все безумно сложны настолько, чтобы тупо запоминать датасет и это не предел. Сложный аппроксиматор легко оверфитится. Поэтому главное не универсальность аппроксиматора, а его способность к генерализации. И сверточные нейронки ввиду своей регуляризации очень хорошо генерализуют.
2. Самое главное достижение дипленинга - это переход специалистов от дизайна фич к дизайну архитектур. Раньше было как, сначала программистом пишется много скриптов с вычленением фич из негра или временного ряда, затем это все упаковывается в один многоменрый feature vector и скармливается простому линейному классификатору. Весь ML - в этом классификаторе, остальное - сложные алгоритмы типа SIFT. Это как-то работало. Сейчас фичи вычленяют верхние слои нейронки. Они делают это лучше, чем программисты. И ML теперь расширился уже и на область дизайна фич.
И если нейронки сосут на какой-то задаче, это не потому что аппроксиматор требуется более слабый, а потому что они хуже автоматически вычленяют фичи. Например, очевидно, что если в твоем временном ряде сильные временные зависимости, то без dilated convolutionов не обойдешься. Хуяк-хуяк, ты придумал wavenet.
240 1259261
>>58789

>Знаешь, почему лучше? Потому что его гоняют на топовых видюхах.


Но ведь ничто мешает гонять на топовой видюхе любой другой метод. Что, так твои убер-методы НЕ МАСШТАБИРУЮТСЯ для больших датасетов что ли, лол? Смешной ты))
Нет, всякие лесисто-дровяные изделия масштабируются, ну так они тоже в мейнстриме. При чем это леса лучше решают задачу по обработке контекстной рекламы и анализа профилей в социальных сетях (потому что нейронки лучше работают с непрерывными данными из-за своей природы), но раз организм велит нейронки хейтить, то хули тут думать.
То есть вот какая хуйня произошла, компьютеры стали более быстрыми, датасеты более большими, на них серьезные люди делают серьезные задачи разными методами, но хейтят именно нейронки. Почему? Потому что не в нейронках дело, а в том, что у кого-то бомбит на само явление хайпа. Нейронки хороши, но раз они так показательно хороши (задачи типа style transfer или генерации речи wavenet'ом с имитацией даже дыхания), то их нужно хейтить. Не потому что они плохо работают, а потому что о них много говорят. Фу такими быть.

>Еще Лекун писал, что ленет может ровно то же, что и полносвязный перцептрон


Неправильно, ленет может меньше, чем полносвязный перцептрон. Ведь у него меньше параметров. Это полносвязный перцептрон с соответствующим количеством слоев и нейронов может столько же - если ты сумеешь его обучить. Сумеешь ли?

>перцептрон таких размеров любое железо раком поставит.


Неправильно. LeNet это вход 28x28x1, затем сверточный слой 3х3х20, макспулинг, слой 3x3x50, макспулинг и полносвязный слой c 500 выходами.
То есть, можно трансформировать его в следующую нейронку:
Вход 28=28=784 нейронов, затем полносвязный слой из 202828=15680 нейронов, макспулинг, затем полносвязный слой из 501414=9800 нейронов, макспулинг и затем полносвязный слой из 500 нейронов. Ничего особенного, современное железо это тянет. Если подумать, можно и от пулинга избавиться, но мне лень.
В общем, архитектура такая будет возможна, но как этот перцептрон обучать? Все дело в том, что архитектура сверточных сетей содержит в себе регуляризацию, а именно, инвариантность к перемещению для всех слоев, кроме последнего. У полносвязной сети такого не будет - она не имеет такой информации о мире. Поэтому несмотря на то, что обученную LeNet можно конвертнуть в такой перспектрон и оно будет работать, обучить такой персептрон будет гораздо сложнее и дольше - потому что в его архитектуру не зашита эта самая инвариантность.

>И опять вспомню неприятный вопрос - а что насчет задач не связанных с неграми, временные ряды те же


Пошел опять whataboutism. Так это ты ответь, что насчет. Какой метод лучше нейронок при анализе временных рядов?
Нет такого. Твоя позиция барская - сел, ноги на стол и такой "несите-ка мне хуйню, которая позволит на бирже миллиарды зарабатывать, да побыстрее. Что, нейронки не могут это сделать? Ну так говно ваши нейронки". Подразумевая, что ты по старинке уже миллиарды на этой самой бирже заработал. Нихуя же не так, нейронки это state of art анализа временных рядов, а если они работают хуево (что, вообще говоря, не так - я работаю с одномерными данными, например), то остальные методы еще хуже.

>На неграх он лучше работает только потому, что функция, представляющая негра (наборы фич) в разы сложнее, чем state-space представление временного ряда и для ее более-менее успешной аппроксимации нужен вот более сложный аппроксиматор.


Я тебе сейчас объясню твою фундаментальную ошибку, как батя, а ты меня выслушаешь и проигноришь из-за когнитивных искажений, ну да похуй.
1. Сложность аппроксиматора особо неинтересна. Они уже все безумно сложны настолько, чтобы тупо запоминать датасет и это не предел. Сложный аппроксиматор легко оверфитится. Поэтому главное не универсальность аппроксиматора, а его способность к генерализации. И сверточные нейронки ввиду своей регуляризации очень хорошо генерализуют.
2. Самое главное достижение дипленинга - это переход специалистов от дизайна фич к дизайну архитектур. Раньше было как, сначала программистом пишется много скриптов с вычленением фич из негра или временного ряда, затем это все упаковывается в один многоменрый feature vector и скармливается простому линейному классификатору. Весь ML - в этом классификаторе, остальное - сложные алгоритмы типа SIFT. Это как-то работало. Сейчас фичи вычленяют верхние слои нейронки. Они делают это лучше, чем программисты. И ML теперь расширился уже и на область дизайна фич.
И если нейронки сосут на какой-то задаче, это не потому что аппроксиматор требуется более слабый, а потому что они хуже автоматически вычленяют фичи. Например, очевидно, что если в твоем временном ряде сильные временные зависимости, то без dilated convolutionов не обойдешься. Хуяк-хуяк, ты придумал wavenet.
241 1259262
>>59074
Читай cs231n
242 1259284
>>59261

> Но ведь ничто мешает гонять на топовой видюхе любой другой метод. Что, так твои убер-методы НЕ МАСШТАБИРУЮТСЯ для больших датасетов что ли, лол? Смешной ты))


Все масштабируется, уже просто потому, что любую функцию от многих аргументов можно представить через суперпозицию частных функций от двух например аргументов. Просто другие решениях тема нехайповая, никто этим не занимается. Сойбои же засмеют на коворкинге.
243 1259292
>>59261

> Пошел опять whataboutism. Так это ты ответь, что насчет. Какой метод лучше нейронок при анализе временных рядов?


Они все примерно одинаковы. И диплернинх не даёт заметных преимуществ. Потому что все эти методы - универсальные аппроксиматоры. А сама система может очень отличаться от того, что мы имеем на ограниченном отрезке временного ряда. Поэтому даже минимальная экстраполяция не работает.
244 1259293
>>59141
>>59262
Спасибо
245 1259294
>>59284

>Сойбои же засмеют на коворкинге.


Человек-мемасик рассказывает нам о том, кто кого засмеет. И это единственное, что он родил в ответ на 8 кб текста.
При этом человек-мемасик все знает - десятки тысяч ученых ошибались, развивая неправильную тему (не иначе, как всех запугали SJW), но он-то ого-го какой. И что же он предлагает?

>Все масштабируется, уже просто потому, что любую функцию от многих аргументов можно представить через суперпозицию частных функций от двух например аргументов.


Fin.
246 1259298
>>59294

> десятки тысяч ученых ошибались, развивая неправильную тему


Десятки тысяч индусов и прочих смузихлебов. Учёных в этой теме три калеки. И почему неправильную, правильную же. Для цифрового ГУЛАГа.
247 1259325
Дело даже не только в мощностях, а тупо в громадном обьеме данных. Есть данные фейсбук/гугл/очень частные задачи - диплерненх "работает", нет - хуй сосешь.
248 1259333
>>59325
Объём данных это вообще не показатель того, что с задачей справится только диплернинх. Word2vec не диплернинх, а работать может с очень большими объёмами данных. И для работы с ним даже не требуется башлять нвидии. Вот пример подхода здорового человека. А могли бы просто нахуярить слоёв.
249 1259366
>>59292

>Они все примерно одинаковы.


Я тебя спросил, какой метод лучше. Ты не ответил, потому что не знаешь.

>Потому что все эти методы - универсальные аппроксиматоры.


Как я писал выше, но ты это проигнорировал из-за когнитивных искажений: "Я тебе сейчас объясню твою фундаментальную ошибку, как батя, а ты меня выслушаешь и проигноришь из-за когнитивных искажений, ну да похуй.
1. Сложность аппроксиматора особо неинтересна. Они уже все безумно сложны настолько, чтобы тупо запоминать датасет и это не предел. Сложный аппроксиматор легко оверфитится. Поэтому главное не универсальность аппроксиматора, а его способность к генерализации. И сверточные нейронки ввиду своей регуляризации очень хорошо генерализуют."
Почему ты уже несколько лет носишься с этими универсальными аппроксиматорами, не понятно.

Второй момент, мейнстримные сверточные нейросети универсальными аппроксиматорами не являются. Хотя бы из-за наличия downscaling слоев. Берем фотографию негра, на белом фоне, затем сдвигаем ее на 1 пиксель. Первую фотографию негра обзываем классом 0, вторую - классом 1. И все. Подобные два класса сети с max pooling'ом отличить не в состоянии. Даже в случае экстреального оверфитинга - просто потому что первый pooling слой сделает сигналы равными. Сверточные сети не являются универсальными аппроксиматорами, это аппроксиматоры, которые заточены под обработку сигналов, инвариантных вдоль 1, 2 или 3 измерений. Таких сигналов очень много.
>>59298

>Сойбои же засмеют на коворкинге.


>Десятки тысяч индусов и прочих смузихлебов.


Человек-мемасик продолжает свои охуительные мемасики. А ты ведь самый главный сойбой тут.

>Учёных в этой теме три калеки.


В какой теме ученых больше?
250 1259367
>>59360 (Del)

>Кокие данные? Релевантность поиска у гугли говно, переводчик такой же


Чем же ты пользуешься?
251 1259372
>>59368 (Del)
То есть ты пользуешься гуглопоиском и гуглотранслейтом, потому что это лучшее, что есть, но так как ты брюзжащий старпер с клинической депрессией, тебе просто поныть охота.
252 1259374
>>59325

>Дело даже не только в мощностях, а тупо в громадном обьеме данных.


То есть другим методам данных не нужно.
253 1259379
>>59378 (Del)
Ты-то блядь откуда знаешь?
1uwAos6ZGW0SYqipwn2DpAw (1).png629 Кб, 2000x579
254 1259380
>>57714

>Решены. Это вот типично старперский выебон. Стыдно быть таким.


Ну да, а на пикрелейтед страус. Охуенно всё решено.
255 1259382
>>59381 (Del)
Каким образом?
256 1259387
>>59380
И опять whataboutism пошел.
257 1259392
>>59389 (Del)
Ой блядь, два вопроса и опять общие ответы без конкретики. Ты наблюдаешь только за глюками в своей голове, а к МЛ-имеешь следующее отношение: твою мамку ебал пёс лекуна и так появился ты.
258 1259394
>>59375 (Del)
в переводчике яндекса тоже нейронки
259 1259404
>>59399 (Del)
Мне неприятно, что мои годные мысли засираются говном типа тебя, которое даже поспорить нормально не может - 2-3 демагогических приема, ходящих по кругу, ноль математики, ноль ссылок на статьи и т. д. Ты же одноклеточный спорщик, блевать тянет от такого.
260 1259426
>>59407 (Del)
Классической лстм тебе будет достаточно?
137631234585.jpg24 Кб, 600x452
261 1259439
>>59366

>Подобные два класса сети с max pooling'ом отличить не в состоянии


А что, других методов понижения размерности не существует?
image.png16 Кб, 300x300
262 1259500
А ну быстро сказали как робот управляемый ИИ будет производить прибавочный рподукт?

Мимо Атлант.
264 1259512
>>59500

>и как робот управляемый ИИ будет производить прибавочный рподукт?


>>1259181
265 1259522
>>59500

> А ну быстро сказали как робот управляемый ИИ будет производить прибавочный рподукт?



Быдло последовательно (сначала пролетариев - работников руками, потом инженеров и прочих интеллигентишек - работников мозгами, когда роботы сами себя смогут обслуживать и задачи ставить) уморят, капиталистическая илита сможет наконец зажить счастливой жизнью при коммунизме.
266 1259536
Сап, Анон. Подскажи, какие разделы математики и в каком порядке лучше задрочить? Сам пока думаю так: анализ, комбинаторика, теория графов, статистика, вероятности. С меня нихуя.
267 1259537
>>59500
Точно так же как и любой другой станок. Прибавочный продукт = цена - себестоимость.
268 1259538
>>59536
Анализ, теорвер, линейная алгебра местами.
269 1259539
>>59536
Для макакинга: линал, анал, теор вер, больше тебе ничего не нужно. Для чего то большего фунан, топология, мат. программирование и один аллах знает, что там вылезет.
270 1259558
>>59539

> топология,


Гамалогии забыл, кловн.
271 1259561
>>59407 (Del)

>Ты показывай рабочий пример, который прекрасен и с инженерной и с эстетической стороны.



Такие модели как правило являются основой технологического преимущества компании, в которой ты работаешь. И если ты не молодой шутливый "диплёнинх энтузиаст", то показать обычно нечего.

мимокрок
272 1259730
>>59504
Работая с одномерными данными, пришел к тем же выводам.
LSTM как раз хороший пример того, что появилось с ускорением железа: идея изобретена в 90-е, с тех пор особо не менялась, широкое использование полносвязных слоев и сложно считаемых нелинейностей типа tanh и sigmoid. Идеи feedforward сети, которая ограниченно, смотрит в прошлое, типа wavenet, TCN и того, что предлагают они, намного симпатичнее, проще обучаются и вообще ня.
273 1259802
>>59730

> идея изобретена в 90-е



Бля в 2000-е вообще что нибудь придумывали? Кто-нибудь в курсе о каком-нибудь алгоритме, который ждет своего часа?
274 1259836
>>59802
В нулевые придумали, как обучать глубокие сети с помощью послойного предобучения без учителя. Это дало пинок исследованиям в нужную сторону, но теперь это уже не нужно.

> Кто-нибудь в курсе о каком-нибудь алгоритме, который ждет своего часа?


А вот тут тебе надо рыть как раз кернел методы - в нейронках все настолько горячее, что тысячи людей ковыряют все, что только можно. Вполне возможно, что через 10 лет у нейронок наступит очередная зима, а ты тут такой с древней статьей на мощном железе выстрелишь.
275 1259935
>>59836

> А вот тут тебе надо рыть как раз кернел методы


А я разве не об этом не первый год пишу? Нет ни одного метода, настраивающего саму структуру кернела для конкретной задачи, функция ядра это всегда гиперпараметр. Хотя всем ясно, что это основа кернел методов как явления и тупо перекладывать эту задачу на пользователя.
276 1259944
>>59935

>Нет ни одного метода, настраивающего саму структуру кернела для конкретной задачи


Есть. deep learning

Я не о том, как раз о ручном дизайне слоев - эти вещи могут работать интереснее и быстрее, чем аппроксимация кернелов нейронкой, как происходит сейчас.
277 1260100
Палю годноту, шпрехензи дойч необходимо.

Торопись, пока твоё место не заняли хачи-мигранты с ближнего востока.
279 1260109
>>60100

>Палю годноту, шпрехензи дойч необходимо.



Нахера, они там все английский прекрасно знают и переводят, особенно в ит. Вот что действительно необходимо, так это китайский, половина всех статей по машобу написана на китайском, учитывая что там сейчас лучшее массовое мат.образование в мире, хз какая годнота там может быть заныка прямо сейчас, на вроде информационной геометрии у япошек в 90-х, о которой никто больше не знал до 00-ых.
280 1260113
>>60109

> половина всех статей по машобу написана на китайском,


Ну и что? Маловероятно, что на китайском есть что-то важное, чего нет на английском. Любой понимает, что у статьи на английском будет больше читателей, чем на китайском, т.к английский образованные люди и на китаях знают, а вот в китайский вне Китая могут очень немногие.
281 1260118
>>60113

>Маловероятно, что на китайском есть что-то важное, чего нет на английском.



Дэмэдж контролл американской тряпки от первой экономики мира.
282 1260146
>>60109

>половина всех статей по машобу написана на китайском


На китайском? Не китайскими авторами на английском?

>лучшее массовое мат.образование в мире


Пруфы в студию.
283 1260150
Вы должны мне помочь! Сам не могу нихуя найти. Есть С или Го продвинутые свободные, и в то же время не сложные для разбора, для МЛ или диплёрнинх? Очень надо именно на этих языках. Ни как мне не поможет питон или джава и всякая такая хуйня.
284 1260151
>>60150
И я забыл упомянуть что это не должен быть враппер, мне нужно конкретно засунуть это в го. Именно в го.
285 1260154
>>60151

>диплёрненх


>го


Может ещё и блохчейн? А сам ты на гироскутере, в правой руке вейп, в левой смузи?
286 1260155
>>60151
щас бы на go писать cudann код
287 1260168
>>60151
2 секунды поиска, первая ссылка в гугле
https://www.tensorflow.org/install/install_go
288 1260173
>>60155
На CPU нада.
>>60154
Техническая необходимость, сойбой.
>>60168
Не подходит ни для мой реки, ни для проекта.
289 1260180
В какой вуз идти учиться, чтобы в будущем заниматься машинным обучением и анализом данных?
Кроме очевидного физтеха, фкн вшэ и шада?
290 1260196
>>60180
В топ вуз.

>шада


Значение знаешь?
291 1260207
>>60150
На С есть MXNet - диплернинх, все дела. На ПЩ нихуя нету кроме 1.5 враппера.
>>60146

> Пруфы в студию.


Я тут давал ссылку на переводную на англ китайскую книшку про нечёткие множества, там написано, что автор преподает этот предмет в школе в Гонконге лет 10, а книшка такая годная, что её на английский перевели и в шпрингере издали. Так что предыдущий оратор прав - в китаях математику дрочат серьёзно, и правильно делают.
292 1260225
>>60196

>В топ вуз


Это какой, если не мфти и вшэ?
мехмат мгу?
293 1260233
Меня забанили в гугле. Поэтому такой вопрос, дайте, пожалуйста, ссылку, где лучше всего показано как растет скорость выполнения программ с нейросетями, после того как взяли видеокарты Nvidia и стали на них ускорять программу?
294 1260259
>>52855 (OP)

Кто нибудь здесь понимает математику GRU? Вопрос есть.
295 1260387
>>52855 (OP)
прошел все курсы по матану от mit но что значит этот кал import slesarplow as sp
296 1260391
>>60259
Всё также как и лстм, но называется по-другому. А математика для нейросетей - это что-то уровня Перельмана и теоретической квантовой физики, здесь таких не найдёшь.
297 1260394
>>60207
А если я возьму pytorch и импортирую его в cython файл и скомпилирую в .so?
298 1260395
>>60391
а чо она там есть? можно ссылочки на статьи?
299 1260400
>>60391

> математика для нейросетей - это что-то уровня Перельмана и теоретической квантовой физики, здесь таких не найдёшь.


Математика для нейросетей это уровень оп пика с йобами.
300 1260403
>>60400
Ты просто не знаешь о чём говоришь, это не математика, это сами сети. Математика для них просто ебааа.
изображение.png5 Кб, 800x61
301 1260415
>>60403
>>60391
Ну короче вопрос то не такой уж сложный, если человек знаком с GRU. Я не понимаю смысла домножения (1-zt) * h. Типо это z это же ворота, которые решают чё надо сохранить, а что обнулить. Я не понимаю какой смысл в том, что бы результат предыдущего шага нормально домножался на этот вектор, а текущий результат домнажался на то, что мы не пропустили. ( Ну тип 1-z даст обратные значения относительно единицы). Короче кто сечет, поясните мне за эту логику.
302 1260424
>>60415
Это интерполяция между старым значением и предложенным новым.
303 1260434
>>60415
Не ебу, что за нотация и обозначения на твоей формуле, но оно подозрительно похоже на стохастическую аппроксимацию Роббинса-Монро. Т.е текущее значение = предыдущее домноженное на что-нибудь в зависимости от алгоритма.
304 1260478
>>60415
Ты просто решил что твои вентили бинарные, но они интерполированные. Потому что бинарные нейроны - это двадцатый век.
305 1260530
>>60490 (Del)
Ну макака то может и не поймёт, что имелась ввиду функция активации, но настоящий сойбой всегда знает какие нейроны бинарные, а какие интерполированные.
14884441475680.jpg34 Кб, 290x394
306 1260553
>>60543 (Del)
Ты думаешь спиздил мои картинки и думаешь можешь троллить дальше? Чмо, тебя выдаёт вовсе не использование форсов или картинок. Я понял что это ты по тупым попыткам казаться умнее и упрекать сведущих в машобе людей. Знай, ты опять обосрался. Пока ты сидишь и выдумываешь как сегодня будешь верстать соцсети за 500 рублей на Авито, я уже закончил новую версию нейронки для топовой ай-ти компании, где мне платят в день больше чем твоей путане мамаше заплатили за всю её карьеру. Сейчас я еду на своей porsche spyder, а рядом со мной сидит супермодель и проигрывает с тебя, потому что даже она видит как неумело ты притворяешься человеком, который знает что такое мл. Ты, говно, только и можешь что потирать свой лоб тужась чтобы понять что такое сигмоид и плакать, когда сдаёшься и идёшь дальше скроллить зекач ради того, чтобы попытаться оскорбить уважаемых датасаентистов. Это все, что ты можешь.
!!!!laugh.jpg52 Кб, 533x388
307 1260554
>>60553

> топовая ай-ти компания


> Porsche


> супермодель


> сидит на двачах

308 1260565
>>60424
Да там так и написано было. Но прикладного смысла я не понял.
>>60478
Верно, там сигмойда, но сути это не меняет, после вычита единицы значения интерполируются, и то, что раньше пропускалось теперь не пропускается и наоборот. В чем смысл этого применения к текущему результату я допереть не могу.
309 1260572
>>60571 (Del)
Нет, не вижу.
310 1260584
>>60553
школьник детектед
311 1260588
>>60575 (Del)
Вы тут какие-то не серьезные. В языкотредах вон по хардкору поясняют.
312 1260592
>>60565
вот на англицком философское объяснение
Let’s bring up the example about the book review. This time, the most relevant information is positioned in the beginning of the text. The model can learn to set the vector z_t close to 1 and keep a majority of the previous information. Since z_t will be close to 1 at this time step, 1-z_t will be close to 0 which will ignore big portion of the current content (in this case the last part of the review which explains the book plot) which is irrelevant for our prediction.

то бишь, если вектор h_{t-1} сильно большой и важный, то мы его не забываем, а забываем ту ерунду, что сейчас, и наоборот
313 1260595
>>60590 (Del)
в этом треде сидят одни дегенераты, которые весь день доказывают, что нейронки не нужны, вопросы советую задавать на реддите или stackoverflow
314 1260598
>>60595
Неправда, если моча забанит пару человек, будет нормально
315 1260599
>>60588
Потому что непонятно что вообще тебе нужно и спрашиваешь ты про то, что само нормально работает и импортируется изкаропки в любом фреймворке.
316 1260604
>>60588
Если ты не можешь осмыслить правильный ответ, который я тебе дал сразу же: >>60424 , то проблема на твоей стороне. У меня создалось впечатление, что ты просто смотришь на формулу, как баран на новые ворота, и даже не можешь сказать, что именно тебе непонятно. Это называется отсутствие бекграунда, и в этой беде тебе не поможет никто, ни здесь, ни на реддите, ни на стековерфлоу.
317 1260612
>>60592

>то бишь, если вектор h_{t-1} сильно большой и важный, то мы его не забываем, а забываем ту ерунду, что сейчас, и наоборот


Да, ты даже ту статью нашел которую я читал. Я понял что тут было написано, но у меня встал вопрос, а что если оба шага важные? Или не важен ни один. Значения в векторе будут в районе 0.5?
>>60599
Я пытаюсь понять внутреннюю механику архитектуры, что бы понимать как нужно её подкручивать, что бы добиваться желаемое результата.
>>60604
Вот этот >>60592 анон понял, что я имел ввиду. К слову бекграунд у меня и правда не так велик я занимаюсь этим всего месяц, но за это время успел разобрать механику обычных нейросеток, бп, рнн, бптт, проблему размытия градиента с формулами и осмыслением математики, щас вот над лстм и гру бьюсь. Пока до конца осознание не пришло.
318 1260617
>>60612

>векторе будут в районе 0.5?


Разумеется имелся ввиду вектор ворот.
319 1260620
Анон, хочу сделоть OCR на джаве, т.к. на pure джаве OCR до сих пор почему-то нет. В связи с этим нужно понять чо читать и куда копать. Изначальное применение будет для тестирования UI, т.е. нужно распознать достаточно квадратные компуктерные буквы.
320 1260627
>>60620
Делай нейронку на тф, в жабе ее загружай и гоняй. Как я тут делал: https://github.com/sorrge/wakabaYes
Но это медленно, т.к. на чистой жабе не поюзать ГПУ.
321 1260643
>>60617
в z_t два набора весов - один для икса, другой для h_{t-1}, они решают, сколько старой информации оставить
322 1260651
>>60612

> а что если оба шага важные? Или не важен ни один


Такое практически невозможно.
323 1260676
>>60627

>на чистой жабе не поюзать ГПУ


Можно сгенерировать и серануть в гпу.
Спасибо за ссылку, посмотрю.
324 1260678
>>60612

>щас вот над лстм и гру бьюсь


Начиная с этого момента идет большой скачок сложности. То, что ты до этого расписал, это совсем просто. А вот до конца разботать, как и почему ЛСТМ решает проблему забывания (и что это вообще за проблема), это гораздо сложнее. Читай Шмидхубера, реализуй все сам, смотри как работает, сверяйся с теорией. Не советую ГРУ брать для начала: он был разработан на базе ЛСТМ, как его упрощение, и там не все понятно. Скорее эмпирически был сделан/найден. А ЛСТМ основан на теории.
325 1260699
>>60598
Двачую, давно пора пидорнуть этих дятлов.
326 1260716
>>60711 (Del)

>Вротентраххером


Бля, бротишь, можно ещё этих шутеек с нерусскими фамилиями? Так уморительно, чуть животик не надорвал.
327 1260717
>>60678

>как и почему ЛСТМ решает проблему забывания


Он обучает каждый свой гейт отдельной нейросеткой в каких случаях что пропускать, а что нет. Так же параллельно он учится игнорить определенные сигналы, а перед выходом еще и отбирать самые достоверные. В итоге формируется особая память, лежащая в определенных коэфициентах весов и биасов этих гейтов. Затем, когда обученный гейт видит какой-то паттерн он уже знает как его надо отфильтровать что бы в нем осталась только нужная инфа по его мнению. Как-то так я это понял.
328 1260718
>>60651
Да ну, например в обработке текстов из всего предложения важно может быть только пара слов. И Получается что GRU одно из этих слов посчитает важным и запишет в память. Нет так что ли?
329 1260751
>>60743 (Del)
Обучением на предыдущих примерах, где ты вручную указывал что важно.
330 1260753
>>60718

>из этих слов


Имелось ввиду что из этих неважный слов которые могут идти друг за другом.
331 1260773
>>60766 (Del)
Ну кто-то это в любом случае делал. Ты мог взять готовое.
>>60768 (Del)
Ну бля, я об этом и говорю что между важными словами могут стоять дохуя неважных. А с этим интерполированием получается, что идет неважное потом важное потом снова не важное итд. Неееее, я явно чего-то не догоняю.
332 1260833
>>60718
Да, так. Но это слово будет важнее другого. Иное невозможно. Это точно так потому что обучение не так работает, блять, когда ты обучаешь, оно ищет путь аппроксимации решения, так что предугадать это невозможно из-за бесконечного количества вариантов, но это в любом случае не алгоритм, она никогда не имеет конфликтов, решения обходят друг друга или дают малоразличимые данные.
333 1260910
Посаны, интересует нейросети использовать и пытаться усовершенствовать архитектуру в онлайн дрочильнях по типу доты и лол. Я так понял, что там уже архитектуры жрущие конские ресурсы , которые одному человеку не под силу достать. Остается только наблюдать со стороны?
изображение.png8 Кб, 741x174
334 1260935
>>60833
Вот, все таки благодаря твоим разъяснениям и долгому залипанию в формулы я осознал нахуя нужна интерполяция. Все-таки я не учел, что все преобразования на текущем шаге задействуют данные с предыдущего. А интерполяция нужна, что бы обработать те данные, которые апдейт гейт не пропустил, ресет гейтом. Впрочем, это пока только интуитивное понимание.
335 1260954
Это все защитная постирония на тему того что птушники, наслушавшиеся в интернете про нейросети в принципе не могут осилить или что?
336 1260969
>>60954
Нет, это местная срущая пидарашка. Никто этого хуесоса не репортит, либо моча тут совсем прохудилась.
337 1260972
>>60910
бамп вопросу
338 1260989
>>60972
Если ты понял, то какие вопросы? Либо оптимизируй, либо придумывай своё, либо хуй соси.
sage 339 1261040
>>61039 (Del)
В детстве в очко кочергой ебали.
340 1261050
>>60910
Можно утроиться работать в дипмайнд или оупенэйай.
341 1261189
чего блять нада этой шайтан машине ?
хуле она краснеет то еп твою мать
sage 342 1261204
>>61189

>anaconda


>tensorflow_windows


Mamma mia.
343 1261209
>>61204
Могли бы и для шиндошс сделать нормальную версию, например, включить в анякунду эту ебучую, чтобы само все ставилось. Не все, знаешь ли, любители анальных забав с консолечкой в глинуксе.
344 1261215
>>61209
и чтоб еще модельки можно было на гуи рисовать, а то, как макаке, приходится код руками писать
345 1261218
>>61209
Десятая винда резирвует видеопамять, например. Если ты бомж без 1080ти, то иногда можно соснуть.
346 1261219
>>61218

>резирвует


Резервирует.
347 1261224
Задизайнил неполный полуфункциональный язык для машоба. Если напишу компилятор и ВМку, то примут как проект чтоб показать на каком-нить собесе на фронтенд-макаку?
348 1261254
>>61215

> и чтоб еще модельки можно было на гуи рисовать, а то, как макаке, приходится код руками писать


Как что-то плохое. Hypershade в триде редакторе Maya - лучшее, что я видел для создания текстур и материалов. И с нуля вручную любой код можно заебашить, и подправить уже существующий (например, вместо линейной зависимости степени отражения от угла обзора можно прописать закон Френеля, чтобы было как в реале итд)., и гуи есть для компоновки всего этого в результат любой сложности. Только школуйня гуи не любит, тип нимодна фуфу, на самом деле гуй в нужном месте охуенно удобен.
349 1261274
>>61189
СПАСАЙТЕ ЭТО ХУЙНЯ ПРОДОЛЖАЕТ КРАСНЕТЬ
Я так заебался , скоро начну вырубать в кссе эту хуйню
ПАМАГИТЕ !ы
350 1261277
>>61254

> Только школуйня гуи не любит, тип нимодна фуфу, на самом деле гуй в нужном месте охуенно удобен.



Тоже заметил что за кли топят только чмошники, которые с трудом преодолели абсолютно не нужную кривую обучения и теперь надеются за ней отсидеться, хотя по факту треть мозга занята обработкой визуальной инфы и игнорировать эти вычислительные мощности верх тупизны с точки зрения любого вменяемого программиста. Уроки питона и саблайма которые соизволили задейстовать крупицу этих мощностей, конечно же их ничему не учат.
1111.jpg75 Кб, 817x643
351 1261281
Здравствуйте, помогите, пожалуйста, советом. Я защищаю осенью диплом. Кафедральные преподаватели советские математики внезапно полюбили словосочетания "нейронные сети" и "параллельное программирование", сами они программировать не могут, но зато они прочитали учебники 80-90ых про нейронные сети с математическими формулами и им это понравилось. Также им понравилась тема про параллелизм, что можно взять математическую задачу и ЭВМ решит её быстрее за счет нескольких ядер процессора. Поэтому мне задали тему диплома, чётко назначив мне тему про НЕЙРОННЫЕ СЕТИ и ПАРАЛЛЕЛЬНОЕ ПРОГРАММИРОВАНИЕ.

Задача следующая: есть советский кафедральный станок, в зависимости от температуры "х" у него возрастает сила тока "у". Если станок обрабатывает материал "1", то у него возрастает сила тока по закону у1(х). Если обрабатывает материал "2", то у него возрастает сила тока по закону у2(х). Если обрабатывает комбо из "1" и "2" материала, то сила тока возрастает по закону z(x).

Необходимо найти зависимость z(x) от y1(x) и от y2(x). Получится график с тремя осями как на картинке.

Я сразу бросился на stepic.org и прошёл курс по основам нейронных сетей. Там чуть-чуть упомянули задачу регрессии, которая и нужна мне, и 80% времени обсуждали задачу классификации, которая мне не нужна. Я закончил курс и побежал жаловаться на двощи. Мне посоветовали выкинуть наксуй нейросети, не ебать мозги и взять scikit-learn. Я взял scikit-learn и всё было потрясающе, оно ищет такие зависимости просто шикарнейшим образом. Задача была выполнена. Я довольный показал результат в ВУЗике и меня жестоко обоссали и опустили, сказали, что тема про НЕЙРОННЫЕ СЕТИ и ПАРАЛЛЕЛЬНОЕ ПРОГРАММИРОВАНИЕ, так где же, говна кусок, у тебя нейронные сети и параллельное программирование, м? Я побежал жаловаться на двощи. Там мне сказали взять tensorflow и keras и найти ими искомую зависимость. Я нашёл. Показал в ВУЗе и меня обоссали и опустили, что где параллельное программирование и где "сверточная функция".

Так вот, двощ, я снова пришёл просить у вас помощи. Как тут упомянуть параллельное программирование? Может привести таблицу ускорения обучения за счет Nvidia GPU? Как вытащить "свёрточную функцию", если я всё отдал на откуп tensorflow и keras? Я просто загрузил туда данные и оно само посчиталось. Не знаю я никаких "свёрточных функций". И самый главный вопрос - как на защите диплома перед комиссией выкрутиться, почему нужно в данной ситуации брать для решения нейронную сеть? Ведь легче было бы взять scikit-learn и не ебать Муму. Не скажешь же им, что я проебался с темой диплома, и что менять тему уже поздно, ибо все доки подписаны, и что реально проще не ебать Муму, а взять scikit-learn и выкинуть все эти нейросети.
1111.jpg75 Кб, 817x643
351 1261281
Здравствуйте, помогите, пожалуйста, советом. Я защищаю осенью диплом. Кафедральные преподаватели советские математики внезапно полюбили словосочетания "нейронные сети" и "параллельное программирование", сами они программировать не могут, но зато они прочитали учебники 80-90ых про нейронные сети с математическими формулами и им это понравилось. Также им понравилась тема про параллелизм, что можно взять математическую задачу и ЭВМ решит её быстрее за счет нескольких ядер процессора. Поэтому мне задали тему диплома, чётко назначив мне тему про НЕЙРОННЫЕ СЕТИ и ПАРАЛЛЕЛЬНОЕ ПРОГРАММИРОВАНИЕ.

Задача следующая: есть советский кафедральный станок, в зависимости от температуры "х" у него возрастает сила тока "у". Если станок обрабатывает материал "1", то у него возрастает сила тока по закону у1(х). Если обрабатывает материал "2", то у него возрастает сила тока по закону у2(х). Если обрабатывает комбо из "1" и "2" материала, то сила тока возрастает по закону z(x).

Необходимо найти зависимость z(x) от y1(x) и от y2(x). Получится график с тремя осями как на картинке.

Я сразу бросился на stepic.org и прошёл курс по основам нейронных сетей. Там чуть-чуть упомянули задачу регрессии, которая и нужна мне, и 80% времени обсуждали задачу классификации, которая мне не нужна. Я закончил курс и побежал жаловаться на двощи. Мне посоветовали выкинуть наксуй нейросети, не ебать мозги и взять scikit-learn. Я взял scikit-learn и всё было потрясающе, оно ищет такие зависимости просто шикарнейшим образом. Задача была выполнена. Я довольный показал результат в ВУЗике и меня жестоко обоссали и опустили, сказали, что тема про НЕЙРОННЫЕ СЕТИ и ПАРАЛЛЕЛЬНОЕ ПРОГРАММИРОВАНИЕ, так где же, говна кусок, у тебя нейронные сети и параллельное программирование, м? Я побежал жаловаться на двощи. Там мне сказали взять tensorflow и keras и найти ими искомую зависимость. Я нашёл. Показал в ВУЗе и меня обоссали и опустили, что где параллельное программирование и где "сверточная функция".

Так вот, двощ, я снова пришёл просить у вас помощи. Как тут упомянуть параллельное программирование? Может привести таблицу ускорения обучения за счет Nvidia GPU? Как вытащить "свёрточную функцию", если я всё отдал на откуп tensorflow и keras? Я просто загрузил туда данные и оно само посчиталось. Не знаю я никаких "свёрточных функций". И самый главный вопрос - как на защите диплома перед комиссией выкрутиться, почему нужно в данной ситуации брать для решения нейронную сеть? Ведь легче было бы взять scikit-learn и не ебать Муму. Не скажешь же им, что я проебался с темой диплома, и что менять тему уже поздно, ибо все доки подписаны, и что реально проще не ебать Муму, а взять scikit-learn и выкинуть все эти нейросети.
1111.jpg83 Кб, 922x643
352 1261285
>>61281
фикс я картинку неправильную вставил, вот правильная
353 1261290
>>61277

> топят только чмошники, которые с трудом преодолели абсолютно не нужную кривую обучения и теперь надеются за ней отсидеться


Ну это универсально для всех красноглазиков.
354 1261313
>>61281
Ну хули делать, пиши с нуля свою нейронку на CUDA. Или на OpenCL, для разнообразия.
Только куда тут воткнуть свертку в регрессии, я хз
355 1261315
>>61281
Вали оттуда.
356 1261318
>>61281
>>61315
Дво чую. Какие-то гнилые пидоры. Хотя ты сам обосрался.
743.png134 Кб, 256x384
357 1261321
>>61281

>сверточная функция


Пиздец, блядь, просто пиздец.
358 1261333
>>61281
А ты не очень умный, да? Если задачу можно "решить" простым подходом, это не означает что другие не нужны.
Вот тебе нейроночка из scikit-learn,
http://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPRegressor.html , возьми к ней еще пару моделей, нарисуй табличку сравнения которая покажет как нейроночка уделывает классические модели по скорости и точности. Если от самого не требуется писать код для распараллеливания, то показывай рекламу видеокарт, если нужно демонстрировать, то какой-то керас параллелит на CPU просто добавлением n_jobs = количество_ядер.
Сверточная функция есть только внезапно в сверточных сетях и они тут никак не нужны.
1.png105 Кб, 787x587
359 1261338
>>61333

>Сверточная функция есть только внезапно в сверточных сетях и они тут никак не нужны.


В посте предыдущего оратора речь не о сверточных сетях, а о функциях свертки. Русский язык слишком велик и могуч, каждый ебалай может назвать нечто как ему вздумается и без формального описания хуй проссышь, что он на самом деле имел в виду. Это не английский, где среднеквадратическая ошибка MSE она хоть в африке MSE. В сраветской литературе это могут назвать как автору заблагорассудится - невязка, неувязка итд. Функцией свертки могут назвать хоть уравнение Хебба, если автору так захочется. Тут нужно смотреть контекст употребления, что именно хотят от предыдущего оратора преподы, может быть и правда полтора нейрона с настройкой весов методами Хебба, он же упоминал какие-то книжки 80-х годов.
360 1261348
>>61313
>>61333
>>61338

Спасибо больше за ответы, мудрые анонимы

>возьми к ней еще пару моделей, нарисуй табличку сравнения которая покажет как нейроночка уделывает классические модели по скорости и точности.



Так она же не уделает. Или имеешь виду, что надо сделать вид, что уделает, чтобы прикрыть мне мою голую задницу на защите?

>Тут нужно смотреть контекст употребления


Контекста не знаю, так как я нуб, наверное, в этот раз не будут спрашивать про эту "свёрточную функцию", наверное, Б-г с ней.
361 1261362
>>61338
От твоих слов я почувствовал горечь и пустоту внутри, но стал немного мудрее.
>>61348
Может и уделывать, почему нет? Вообще, зависит от гиперпараметров моделей, подбери для нейроночки получше.
362 1261368
>>61362
Тогда ладно, спасибо
363 1261409
>>61290
зато у меня тензорфлоу работает из коробки, а вы трахаетесь с гуи и плачете
364 1261410
>>61409
более того, вы еще и предупреждение прочитать не в состоянии, которое написано на красном фоне, дебилы необучаемые
365 1261645
>>61277

> хотя по факту треть мозга занята обработкой визуальной инфы и игнорировать эти вычислительные мощности верх тупизны с точки зрения любого вменяемого программиста.


Ты не путай обработку визуальной инфы - вывод графиков, например, с гуйней, то есть интерфейсом. CLI - ты общаешься с компьютером на языке, GUI - общаешься с ним же языком жестов.
Единственный порог вхождение - это то, что чмони не умеют печатать вслепую со скоростью хотя бы 250 символов в минуту. Примерно на этом уровне CLI дрючит GUI по полной.

Дело, естественно, касается программирования. Понятное дело, что CLI фотошоп - это нонсенс (хотя в 90% бытовых случаев типа конвертирования форматов imagemagick подойдет лучше, чем запускать редактор).
366 1261762
Ананасы, подскажите в какую вообще сторону копать: есть куча текста, поделенная на куски. Далее на вход подается еще текст, и если он примерно соответсвует имеющемуся - то ставится определенная пометка. Я так понимаю, это что-то из NLP, но вот как подступиться - вообще не понимаю...
367 1261772
>>61762
Word2vec, text2vec, всякие document similarity метрики.
368 1261779
>>61645
все равно в фотошопе у профессионала основные функции будут на горячих клавишах, в сложных системах гуи становится очень сложным для использования, в том же виндоусе для того, чтобы сменить папку для /temp/ нужно менюшек пять пройти
369 1261843
>>60620

>The classifier is pre-trained; I do not provide the code and the data to train it


блэт
370 1262172
Учусь в магистратуре по специальности Обработка информации / машинное обучение. Настало время выбирать тему диссертации и хотел бы услышать советов, какие-нибудь интересные и перспективные темы. Буду благодарен.
371 1262191
>>62172
Безгарадиентнаые алгоритмы оптимизации архитектуры нейронных сетей.
372 1262193
>>62172
Пихвоиды третьего порядка в сетях типа suna
373 1262237
>>62172
Горячие на данный момент области: ГАНы, РЛ, метаобучение, исследования теории обобщения (тебе не по зубам будет), zero-shot learning, transfer learning. Если тебе не нужна новизна, бери любую свежую статью от именитых авторов на эту тему и реализуй, попробуй воспроизвести результаты. Если хочешь новизны, можешь взять уже существующую реализацию какой-нибудь работы 2-4 летней давности и что-нибудь мелкое там поменять, пытаясь улучшить результат. Второй вариант в 5-10 раз более трудоемкий.
374 1263057
Не знаю в какой ещё тред обратиться. Есть цитата Павлова

>Знания, не подкрепленные телесным опытом или чувственным впечатлением, не усваиваются. В коре головного мозга формируются центры нейтрализации этой информации


Но это всего лишь беспруфные слова, пусть и павлова, им уже сто лет в обед. Может быть можно как-то найти соответствующие вайтпейперы?

P.S. Из этой цитаты делается вывод в одной книжке, что образование таким образом полностью отупляет человека.
375 1263066
>>63057

> что образование таким образом полностью отупляет человека.


Внимательно читай довн, нужно подкреплять опытом.
376 1263068
>>63066
Слишком размыто. Этими словами можно манипулировать как угодно.
377 1263069
>>63068
лол, нк хочется делать домашку?
378 1263088
>>63057
очевидно же. Знания - это трейн сет, они не усвоены. С помощью градиентного спуска (или даже ЕМ, прости меня Аллах) нейронная сеть получает чувственный опыт.
379 1263101
>>63088
Мне хотелось вайтпейпер где чёто там проверили на мышах, и хуяк, результат - образуются какие-то области в мозге, из чего можно сделать какой-то вывод, уже свой, а не высер из цитаты, который может быть ошибочным.
380 1263147
>>63057

> Но это всего лишь беспруфные слова, пусть и павлова, им уже сто лет в обед.


Вообще то память так и работает. Ненужные данные удаляются гиппокампом во время сна, остаются только значимые для особи связи. Консолидация памяти это называется. Косвенно такая функция подтверждается синдромом Корсакова, т.е повреждением гиппокампа. Вот это все и гугли.
381 1263177
>>63147
Понимаешь, вроде бы то о чём ты говоришь можно назвать просто отмиранием того что не воспроизводится, use or lose, без дальнейшего формирования какой-то противодействующей системы: а зачем, это же дорого и тяжело.

Но вот именно в цитате указывается на то что формируется и усиляется структура, которая именно прикладывает усилия к неусвоению данных. В первом случае - нет усилий. Оно само отпадает. Во втором - усилия прикладываются.

>Полное удаление гиппокампа делает невозможным формирование новых воспоминаний, что убедительно продемонстрировал случай с пациентом H.M. Нарушения в работе гиппокампа могут привести к синдрому Корсакова, который так же сводится к невозможности фиксировать текущие события, при сохранении старой памяти.



>Конфабуляции (лат. confabulari — болтать, рассказывать) — ложные воспоминания – когда больной не может вспомнить события из своего прошлого и заменяет их вымышленными являются одним из самых характерных симптомов корсаковского психоза.


>Конфабуляции у некоторых пациентов носят постоянный характер. Они всё время придумывают новых персонажей, детально рассказывают происходившие с ними истории и т.д., заменяя таким образом забытые воспоминания на вымышленные.


>При этом важно учитывать тот факт, что больные не лгут – они действительно считают данные воспоминания реальными.



>Человек, выпивший критическую дозу, все равно помнит недавние события, и во многих случаях может поддерживать связанную беседу. Однако наутро все воспоминания, начиная с определенного момента, оказываются стертыми, то есть в данном случае нарушается консолидация ((от лат. con — вместе, solido — укрепляю) — укрепление, объединение, интеграция, сплочение чего-либо)/(фиксирование устойчивого состояния) памяти.



>Косвенно такая функция, как консолидация памяти, подтверждается синдромом Корсакова



Вроде понял, хоть это и о другом, книгу хорошую нашел зато, буду читать http://www.aboutbrain.ru/category/book2/ там посмотрим.
382 1263250
>>63088

>С помощью градиентного спуска



Совсем уже пизданулись со своими "нейросетями", в мозге вообще нет градиентного спуска, даже приблизительно, там вообще нет ничего похожего на сегодняшний машоб, кроме того что там тоже типа сети из множества элементов, на этом сходства заканчиваются. Даже правила Хебба и их производные не выполняются для 90% cсинапсов.
383 1263255
>>63177

> Но вот именно в цитате указывается на то что формируется и усиляется структура, которая именно прикладывает усилия к неусвоению данных. В первом случае - нет усилий. Оно само отпадает. Во втором - усилия прикладываются.


Возможно, Павлов имел в виду структуры, осуществляющие торможение ненужных рефлекторных связей. А торможение в ЦНС это такой же активный процесс, как возбуждение, а не просто пассивное явление при отсутствии возбуждения. Естественно, Павлов очень немного знал о конкретных анатомо-физиологических субстратах многих явлений, с которыми он сталкивался в экспериментах, но сами-то явления были, а одно из положений его концепции в том, что у любой функции ЦНС есть отвечающая за неё структура и у любой структуры ЦНС есть функция.
maxresdefault (1).jpg46 Кб, 1280x720
384 1263289
>>63250
Джвачую, рбота мозг это сверхтемнейшая йоба, у нейронодебилов синдром утенка.
385 1263407
>>63088
Нихуя не так. Знание - это данные, которые обрабатываются по встроенным или выученным моделям обработки сигналов. А ты несёшь какую-то хуйню придуманную Леканом.
386 1263443
>>63250 >>63407 >>63289
это называется "шутка"
387 1263589
>>63443
Ты думал мы здесь с тобой шутить будем?
388 1263852
>>63250

И забыли про душу...
389 1263856
>>63852
У меня все нейроночки с душой, не надо тут.
390 1264003
>>63057

Короче это связанно с тем, как мозг создает модели объектов и активное перемещение сенсоров, которое и формирует чувственные впечатления и телесный опыт является необходимым компонентом в их формировании, с помощью определенных манипуляций с сигналом на передвижение сенсоров, формируются аллоцентрические координаты объекта, то есть привязанные не к наблюдателю, а к объекту и в результате создается инвариантная модель объекта абстракция, которая потом уже может быть использована самостоятельно без привязки к начальному телесному опыту, то есть получается абстрактное знание.
391 1264154
>>64003
Не верю
392 1264176
>>64003
мой вариант с градиентным спуском поближе к действительности будет
393 1264177
>>64176
Нет, не будет
394 1264179
>>64177
нет, будет, с помощью оптимизации градиентным спуском Аллах человека из ребра случайного создал
3852649721506243885603466623319983998894080n.jpg1,2 Мб, 1080x1080
395 1264186
>>64154
>>64176

Что именно вам не понятно, ребята?
396 1264190
>>64186

>Что именно вам не понятно, ребята?


Как найти пихвовектор?
397 1264204
Привет,датасаенты, Есть что-то опенсорсное для стилизации текста под определенного автора? например как орфограмка делает "красивый" текст
398 1264213
>>64204
https://github.com/vinitra/neural-text-style-transfer

на просторах гитхаба можешь поискать https://classic.sberbank.ai
например, https://github.com/mktoid/classic-ai
399 1264221
>>64213
Спасибо нашел https://github.com/Koziev почитаю его может чего то пойму)
400 1264225
>>64204
Нетъ
402 1264362
>>64295
Это не стилизация.
403 1264375
>>64295
Козеев маладца, но это хуйня какая то, берешь ритмику стиха и подгоняешь рендомные слова, все, какой тут нахуй еще ИИ?
404 1264394
>>64375
Но у него в примере нет намека на стихотворность?
Хорошо, как на счет https://github.com/karpathy/recurrentjs
405 1264403
>>64394

>нет намека на стихотворность


Молодец, потому, что я его другие йобы знаю, а данный пример хуета какая

>https://github.com/karpathy/recurrentjs


А что там, какой то текст, что то движется и мигает.
406 1264469
>>64403
Мдееемс... не понимаю почему картинки стилизуются, а с текстами ничего =(
407 1264479
Собираюсь написать фреймворк, который будет делать вычисления в 6 раз быстрее ты и будет максимально понятнее. Какие шансы?
408 1264481
>>64479

>тф



Фикс
409 1264516
>>64479
Бабушкин, уймись
410 1264569
411 1264675

>список векторов слов из текстового файла в формате word2vec


Ну так вот как мне слова перевести в векторы в этом формате?(
Нашел 14 гиговый файл https://nlpub.ru/Russian_Distributional_Thesaurus
пхех
412 1264702
Лучше подскажите мне небольшой набор англейских вектор-слов, который в несжатом состоянии не больше 50 мб.
413 1264716
>>64675
Атлична, продолжаем копать это дерьмо, пока меня не убьет модер за то что я слишком тупой.

Там же на сайте есть файл на 100 метров тестовый. Но русский.

Так вот., заимели мы векторы словестных форм в великом формате w2v, но создатель говорит нам "давай текстовый файл, текстовый файл с векторами слов." Ну и хули нам делоть? Гуглим, пытаемся силами gensima перевести одно в другое и получаем хуй? файл есть, но открыть его не может текстовый рядахтур... гуглим дальше?
414 1264740
>>64716
А ведь получается вся логика последовательностей слов заключена в этих векторных правилах слов, т.е. в ней и заключен тот самый авторский стиль? Так чи не?
415 1264762
>>64702
word2vec сортируешь по частоте и обрезаешь на 50мб.
416 1264787
>>64479
Большие. Применяй конкатенативные языки программирования и твои шакалы легко будут отличать негров.
417 1264846
>>64716

> Так вот., заимели мы векторы словестных форм в великом формате w2v, но создатель говорит нам "давай текстовый файл, текстовый файл с векторами слов." Ну и хули нам делоть?


Это ж бинарный формат, готовая модель, не? Текстовый корпус по ссылке отдельно.
>>64740
Да.
14102111626288.png68 Кб, 280x273
418 1265169
По поводу бигдаты здесь спрашивать?
419 1265175
>>65169
Дыа
a2k5aC0vG0s.jpg33 Кб, 512x604
420 1265185
>>65175
Что обучающего почитать/посмотреть про бигдату?
422 1265192
>>65188
Если в книге меньше триллиона страниц, это книга не про бигдату.
stoneagemusicbymajin123-davwery.png439 Кб, 1024x576
423 1265234
>>65185

man grep, man sort, man join
424 1265253
>>65234
rm -R ./*
425 1265254
>>65192
Большая книга о маленьких данных
Untitled.png781 Кб, 696x682
426 1265262
Есть ли такие же крутые курсы по ML, как Intro to Machine Learning от Udacity? Смотрел на Coursera курс от Andrew Ng, но он дико скучный.

КАК ЖЕ ГОРИТ С ЭТОЙ ШКОЛЫ БЛЯТЬ ФИЗИКА ХИМИЯ ЫЫЫ БЛЯТЬ НА ЖЕСТКИЙ ПАРТАХ СИДЕТЬ СЛУШАТЬ БАБКУ, КОТОРАЯ ВЕДЕТ УРОК, ЧИТАЯ УЧЕБНИК.
ЗАВТРА ПИЗДОХАТЬ НА ОСТАНОВКУ, А НЕ СЛУШАТЬ ЛЕКЦИИ ПРЕКРАСНЫХ ИНДУСОВ И ГОСПОДИНОВ ИЗ СОЛНЕЧНОЙ КОМИФОРНИИ.
427 1265271
>>65262

>ГОРИТ С ЭТОЙ ШКОЛЫ


школочмоня не человек, уходи к своей тетесраке маревановне
428 1265324
>>65262
Спешите видеть! Школотрон вкатывается в самую матановую ИТ специальность!
429 1265326
>>65324
Тут матан 9 класса американской школы, не так уж и сложно.
430 1265359
>>65262
Как же влом идти в эту шарагу пиздец. Хорошо что я уже неделю проёбываю и меня к концу семестра выгонят нахуй.
image.png608 Кб, 696x682
431 1265624
>>65271
>>65324
>>65326

>уходи к своей тетесраке маревановне
Двач - детский сайт. Уебывай сам.

>Спешите видеть! Школотрон вкатывается в самую матановую ИТ специальность!


Математика никогда не была преградой для белого человека.

>Тут матан 9 класса американской школы, не так уж и сложно.


Свидетель Швятой?



На рутрекере есть раздача МЛ нанаодигри https://rutracker.org/forum/viewtopic.php?t=5415054
Но там не фул. Находил ли кто-то фул?
432 1265681
>>52855 (OP)
эй, есть тут нлп господины? нужен грант на мою йобу, какие сейчас конкурсы открыты, что бы я там выиграл денюх?
433 1265684
>>65681
Что ты там изобрел опять?
434 1265685
>>65684
НЛП же. Вероятно велосипед.
435 1265688
>>65684
Морфологический анализатор делаю, дающий пасасать пиморпхи и майстем.
436 1265825
подскажите плез идею для нейроночки, что нибудь интересное/полезное из области детекции обьектов
YRSFgSHSFJgjH8GA.png338 Кб, 503x604
437 1265828
>>65825
Напиши детектор хохлов.
438 1265853
>>65828
неплохо, но нейронки для эттого не нужны
439 1265912
>>65825

> подскажите плез идею для нейроночки, что нибудь интересное/полезное из области детекции обьектов


OCR для математической нотации, что-то типа pdf to latex.
440 1266404
Как вообще лучше осваивать машобчик
Вот посмотрел я в cs231n лекцию про GAN'ы, хочу вкатиться, что делать? Я вот читаю сейчас статью гудфеллоу, как мне найти следующую статью в которой дадут обзор методов допиливания? Или нужно на на архиве статьи читать, а еще где то где нормально разжуют?
441 1266412
>>66404
Лучше всего закончить профильный универ и пойти на ПхД.
442 1266413
>>66412
ну я что-то вроде этого и делаю
но пока нет научника хочется узнать пути освоения
443 1266419
>>66413
ГАНы это самый передний край науки, топчик. Монументальных трудов по ним нет, в ближайшее время не ожидается. Читай статьи, особенно те, которые много цитируют.
Можешь посмотреть популярные блоги, только учти что сейчас миллион блогов по типу "нейроночки это просто", которые пишут дилетанты. Эта напасть пошла из-за того, что у блогов появилось маркетинговое значение (Карпати поднялся на своем блоге, за ним потянулось стадо).
Общее правило - ноунеймов не читай, будь то блоги, книги или статьи. Читай авторитетное, популярное, цитируемое.
444 1266423
>>66419
Скинь пару примеров.
другой анон
446 1266448
Есть где-то нормальное объяснение NALU? А то я из кода и дебильных статей, где просто добавили к коду комментарии не понял даже где веса вставляются.
447 1266495
>>66419

>ГАНы это самый передний край науки, топчик. Монументальных трудов по ним нет, в ближайшее время не ожидается.


Опять ты на связь выходишь, деградантушка с магическим мышлением? Ганы это просто одно из применений сверточных сетей.
448 1266513
Нужно в срочном порядке собрать пак из пиздиллиарда фотографий хризантем пригодных для тренировки нейронки.
Где вы там обычно датасеты набираете?
449 1266517
>>66513

> Нужно в срочном порядке собрать пак из пиздиллиарда фотографий хризантем пригодных для тренировки нейронки.


>Где вы там обычно датасеты набираете?



Написать скриптик для гугления и сделать интервалы, что бы гугл не забанил?
450 1266524
>>66517
Таких уже дохуя
451 1266592
>>66524

Анончик, дай ссылку на самый лучший.
452 1266627
>>66592
https://github.com/hardikvasa/google-images-download
я этот использовал. Не помню, почему я его выбрал, но думаю, потому что он был первым в выдаче гугла.
Screenshot9.png875 Кб, 550x623
453 1266747
>>66627
Спасибо.
15372939197332[1].mp41,3 Мб, mp4,
640x800, 0:07
454 1266805
Просто напоминаю снобам псевдоматематикам на что идут их труды.
01a.gif4,4 Мб, 480x378
455 1266814
Скока вы зарабатываете тута?
456 1266817
>>66814
300к/нсек, а ты как хотел?
sage 457 1266818
>>66805
Из силикона делают сиськи, а не только "полезные" вещи, господи спаси. Просто апоминаю снобам псевдохимикам, на что идут их труды.
458 1266820
>>66805
Дурак, нет? Это приложение, это реклама, это деньги, это новый способ получить прибыли из масс.
459 1266854
>>66495
Идея ган ортогональна сверточным сетям. Это идея о том, что лосс тоже может быть обучаемой нейронкой.
Поэтому кто из вас двоих деградант - это вопрос.
460 1266895
>>65912
Обосрётся же, нейронки с формализованным текстом хуёво работают.
462 1266911
>>66805
ахуительно
еще порнуху можно генерить
зачем мне анализ столкновений каких-нибудь там элементарных частиц или fMRI (который мне никогда не будут делать) а вот инсту я листаю частенько и глаз радуется!
463 1266912
>>65912
вот тут уж точно легче и лучше на правилах делать
а не нейронки сувать
15368398129820.jpg10 Кб, 276x183
464 1266921
>>66854

> Идея ган ортогональна сверточным сетям. Это идея о том, что лосс тоже может быть обучаемой нейронкой.


Это кризис жанра. Повторяется история с перцептронами в 80х годах. Тоже пытались подкрасить покойника, добавить нескучных спецэффектов в плане сделать гиперпараметры настраиваемыми параметрами. Все это закончилось ничем. Потому что не было понимания главного - сколько со смузи на коворкингах не пляши, ты не обойдешь того факта, что нейроночки это не более чем асимптотически-эффективный метод. Потому оно и работает лучше, если у тебя больше видеокарт. Ты вот веруешь, что идёт какое-то развитие, а на самом деле весь этот соевый хайп и его результаты (хуй да нихуя) ещё в 60х были обоссаны. Так что все эти ганы итд все тот же путь в никуда, и все это развивается только потому что поднимает продажи нвидии, посмотри, какой у них рост цен на акции.

> Поэтому кто из вас двоих деградант - это вопрос.


Не из нас, а из вас. И скорее всего оба.
465 1266950
>>66921
Ну и дебик. Дипмайнд развивает же. Они за несколько лет создали больше чем за всю историю машоба.
466 1266952
>>66950

> Они за несколько лет создали больше чем за всю историю машоба.


Манямир. Все, что они создали - полторы разновидности сверточных сетей. Твои кукареканья о том, что это больше чем вся история машоба доказывают только то, что с этой самой историей ты не знаком. Негров стали распознавать на 2% лучше, или какие ты достижения придумал?
467 1266969
>>66921
Какое направление по-твоему является сейчас наиболее перспективным?
468 1266973
>>66952
NALU, DNC, нейросетевой 3D рендер, tacotron 2, тот же tensorflow. И это ведь не всё.
469 1266981
>>66973

> NALU, DNC, нейросетевой 3D рендер, tacotron 2, тот же tensorflow. И это ведь не всё.


И вот про это (1.5 косметических улучшения, 3.5 применения, 1 имплементация на пистоне сверточных нейроночек) ты говоришь что это больше, чем вся история машоба?
>>66969

> Какое направление по-твоему является сейчас наиболее перспективным?


Единственное перспективное направление - это ставить задачу машоба формально, и уже из следствий такой постановки выводить алгоритмы. Кроме такого варианта остаётся одно шаманство.
470 1266988
>>66981
Мда, а что тогда по твоему реальное достижение? Мне кажется ты ещё один сойбой, который нихуя не понимает в сфере но всё равно верещит.
471 1266989
>>66921
по твоему описанию очевидно, что ты даже не знаешь, что такое ГАНы. Также очевидно, что ты и математику не знаешь. При чем твои "асимптотически-эффективный метод". На основе ганов можно и всякие байесовские автокодировщики делать.
https://arxiv.org/pdf/1706.04987.pdf
472 1266992
>>66989

> На основе ганов можно и всякие байесовские автокодировщики делать.


И они хотя бы % на 5 эффективнее, чем без ганов?
>>66988

> Мда, а что тогда по твоему реальное достижение?


Уж точно не косметические улучшения существующих алгоритмов.
473 1266994
Шёл 2018-ый год, дурачки в сотый раз кормили нечёткого.
В конце он скажет, что сам свои охуительные идеи реализовать не может
zyx00weaoif590bd3okgtyjtywk.jpeg55 Кб, 543x214
474 1267007
Нейроночки работают как говно. Даже Гугл не может ничего с этим сделать.
475 1267012
>>67007
Что если анализировать картинку два раза, предварительно размыв вторую немного?
мимодиван
476 1267014
Кто-нибудь пользовался
https://aws.amazon.com/
для вычислений??
сколько стоит,
ничего что там требуют номер карточки, где деньги лежат и домашний адрес??
Что будет, если там рандомные числа написать и зарегаться???
477 1267019
>>67014

>сколько стоит


Смотря какие мощи. У них на сайте смотри.

>ничего что там требуют номер карточки, где деньги лежат и домашний адрес


Пендосы наебут на даллары Самому не смешно?

>Что будет, если там рандомные числа написать и зарегаться


Ничего не будет. Ты не сможешь оплатить своё говно.
Алсо, рандомные не получится, потому что идёт списание $1, чтобы подтвердить твою платёжеспособность (потом вернут). Либо настоящие, либо никаких.
478 1267023
>>67019
просто я не любитель выставлять свои персональные данные в интернет
479 1267030
>>67023
Расслабься, это ж не русская контора
480 1267040
>>66902
Как это осуществить в домашних условиях?
481 1267056
>>67019
вводишь реальную карту, подтверждаешь, потом аннулируешь её
482 1267057
>>67030
Совсем уже хаус нигером стал.

>>67014

Контора американская, так что если ты из России в любой момент могут начаться проблемы, как бывало уже не раз с американскими конторами, которые то домены забирали, то блокировали платежи, то прекращали поддержку. Лучше регайся сразу на али, цены ниже, санкциями мозги не ебут, перспективы больше т.к. они растут сейчас, как бешеные, по сто процентов в год, и им прядется и дальше снижать цены, что бы завалить амазон.
483 1267077
А куда опа-хуя девали? Тред кто будет перекатывать, Пушкин?
484 1267082
>>67077
Но ведь ещё 20 постов до лимита.
1457367875984.png116 Кб, 1024x749
485 1267084
>>66820

> Это приложение, это реклама, это деньги, это новый способ получить прибыли из масс.


>Гордиться очередным финансовым пузырем в маркетологии



Вот это прогресс. Вот это ноука.
486 1267104
>>67084
Финансовый пузырь в маркетологи была твоя мамка, когда она начала стареть и стала непривлекательна для клиентов.
487 1267136
>>66805
Еще бы приложение, которое стирает татухи
488 1267143
>>66820

>это новый способ получить прибыли из масс


>сначала отдай деньги массам


>потом придумывай йобы и анальные фокусы, чтобы впечатлить быдло и получить эти деньги обратно


Скорей бы роботы уже.
489 1267153
>>52855 (OP)
Где в рахе учат на машобчиков?
490 1267164
>>67153
ШАД, ВШЭ, МФТИ, факультеты компухтер саенса/вычислительной математики крупных университетов.
491 1267229
>>67143
Так работает экономика, сынок. Прибыли идут на освоение ресурсов и рост, а всё остальное в поток.
492 1267241
>>67143

Массы продают своё невосполнимое жизненное время (труд), чтобы купить ненужный им на самом деле айфон с нейросеточкой, прикручивающей венок. Бизнес покупает у них это время, используя его для увеличения своей прибыли без затрат такого же кол-ва личного времени. Акционеры получают проценты и живут так же экономя жизненное время. Как-то так
493 1267257
>>67164

> ШАД


Это просто доп.курсы для тех кто уже шарит.

> ВШЭ, МФТИ, факультеты компухтер саенса/вычислительной математики


Совковое говно с тоннами совковой математики и прочего говна. В итоге выйдет не машобчик, а какой нибудь никому не нужный МАТЕМАТИК, учитель в школу
494 1267272
>>67257

>доп. курсы


Полноценные курсы. Разве что математику нужно знать лучше, чем средний абитуриент в вузик.

>совковой математики


Алгоритмы используют нихуя не передний край математики. Хотя решать Демидовича хуй знает зачем нужно машоберу, ето да
495 1267280
>>67272

>решать Демидовича


А Жопеншульцера?
496 1267313
>>67280
Ты опять выходишь на связь со своими охуительно смешными фамилиями?
497 1267316
>>67313
Это же смешно, не?
498 1267319
>>67316
Не.
1537425479115377052.jpg120 Кб, 700x466
499 1267323
>>67319
А мне смешно. Особенно когда какой нибудь маняматик начинает нести лютую дичь: Гаусса — Маркова, Поллачека — Спитцера, Рао — Блэквелла — Колмогорова,
Линдемана — Вейерштрасса. Всегда с этого проигрывал.
14631370225380.png407 Кб, 699x653
500 1267328
>>67104
Вау, кажется чувствительный триггер нащупал.
Шо математик мамин, ничем от вебмакак не отличаешь по сути?
degenerates.jpg56 Кб, 851x666
501 1267329
502 1267332
Говнауса — Макакова, Говначека — Хуитцера, Гавнао — Хуйвелла — Говногорова,
Жопендемана — Жопоштрасса. Всегда с этого проигрывал.
Naked Gun - Epic Facepalm [1080p].mp4623 Кб, mp4,
1280x720, 0:02
503 1267336
>>67257

>Совковое говно с тоннами совковой математики и прочего говна. В итоге выйдет не машобчик, а какой нибудь никому не нужный МАТЕМАТИК



Это самое тупое утверждение, какое только можно было сделать в треде про машоб.
504 1267354
>>67257
А без этой математики выйдет даунич, у которого весь машобчик сводится к fit()-predict().
505 1267362
>>67332
вся суть математики
506 1267379
>>67336
Это давно уже не тред про машоб, а цирк с одним клоуном.
507 1267391
508 1267412
>>58321
Шарить за матан на таком уровне и одновременно не мочь выучить С++ за пару месяцев на уровне достаточном для написания численных методов.
Сдается мне и идеи твои тоже говно.
509 1267447
>>67323

> Линдемана — Вейерштрасса. Всегда с этого проигрывал.


Ты даун потому что. Тебе пальчик покажи, и то смеяться будешь.
Capture.PNG23 Кб, 301x194
510 1267630
Как с помощью keras реализовать то, что на картинке?

from keras.models import Sequential
from keras.layers import Dense
model = Sequential()
model.add(Dense(8, input_dim = 3, kernel_initializer = "random_uniform"))

Так? Как указать количество нейронов в выходном слое?
511 1278423
>>57918
Окончание в пять фрикций.
512 1278433
>>62172
Пехари в неустойчивых дырах
Обновить тред
Двач.hk не отвечает.
Вы видите копию треда, сохраненную 25 октября 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски