Этого треда уже нет.
Это копия, сохраненная 26 сентября 2017 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ & МАШОБЧИК #16 #1036439 В конец треда | Веб
нейроночка - массив
#2 #1036469
>>1036439 (OP)
Может, и мандада тогда тоже мосив?
154 Кб, 600x600
#3 #1036478
>>1036469
но тогда мондадо - нейроночка
#4 #1036662
И че, мне надо умножать вектор на массив и все будет заебись, нейроночка будет думать?
329 Кб, 650x365
#5 #1036728
>>1036662
ну да, так мозги и работают же
#6 #1037045
Пытаюсь разобраться, но там какие то формулы ебанистические, даже толком не объясняется что это.
При том что вышка техническая у меня есть (инженегр) и математика мне знакома с курса университета.
Реквестирую материалы для вката, кстати
#7 #1037052
>>1036662
А тебе не похуй какой моделью создавать закономерности? В голове вроде как тоже веса. Интересно было бы понять алгоритм их настройки.
#8 #1037131
Как вкатиться в обучение с подкреплением?
459 Кб, 742x615
#10 #1037205
>>1037165
Ух ты! Как много красивых картинок! А какие инструменты используют? Слесарьплов уже не подходит? Нужно тензор2тензор или еще что-то?
#12 #1037466
Посоны. Поясните мимокрокодилу:
1. В каких журналах обычно публикуются топовые статьи по машинному обучению?
2. Если смотреть на теорию, а не на практику. Это скорее статистика, или все же математика?(да, статистику как бы не считаем математикой)
3. Та математика, которая используется, теоретиками машинного обучения она узкая и специфическая именно для этой отрасли, или эти теоретики они вполне себе математики не хуже других?
#13 #1037468
>>1037466
1. arxiv.org
2. Статистика
3. Не узкая и не специфичная.
#14 #1037484
>>1037468
Т.е. алгебра если и нужна, то минимально, а всякие геометрии так вообще нахуй не нужны?
В статистике есть движение вперед, прогресс, открытия? Или это все полумертвое?(без подвоха, я правда не в теме)
#15 #1037485
>>1037484
Никакой алгебры (она нигде не нужна), никакой геометрии (это не геймдев), в статистике никакого движения вперед, всё полностью мертвое.
#16 #1037487
>>1037485
Что-то мне подсказывает, что ты надо мной издеваешься, ну да ладно. Другой вопрос. Я слышал, что два самых годных научных центра(в РФ) по этому вашему машинному обучению это ВЦ РАН и ИППИ, так ли это? они занимаются одним и тем же, или у каждого своя специфика? это один уровень, или какой-то из них все же более годный?
#17 #1037490
>>1037487
Не издеваюсь, это так.
Хз, я не в курсе развития машобчика в россии, статей с архива и так по горло хватает.
#18 #1037491
>>1037490
Не очень тебя понимаю. Машобчик развивается? Наверное развивается. Значит должны быть люди, которые двигают соответствующую теорию. Но, как можно двигать то, что по твоему мертво и новых результатов нет?
#19 #1037493
>>1037491

> Машобчик развивается?


Машобчик сейчас это скорее не про науку, а про технологию обработки данных, никакого существенного левел-апа в теории не было уже лет 5.
#20 #1037495
>>1037493
Хоть что-то про науки о данных развивается? Ну там дата майнинг или биг дата, ну или как там у вас это назвается.
Последние левел-апы в теории были сделаны с помощью ученых занимающихся статистикой, или чем?
#21 #1037498
>>1037495
Появилось много всяких-разных данных/датасетов => нейросеточки стали обучаться эффективнее. Последние левел-апы делали специалисты по нейросетям/сomputational_statistics.
#22 #1037499
>>1037498
Т.е. сейчас все довольно стабильно, медленный рост качества, ничего нового? Есть хотя бы намеки на то, что в какой-то сфере может быть прорыв?
#23 #1037501
>>1037499
Сейчас очень много людей в машобе (на реддите уже больше 100000 подписчиков на r/machinelearning), тема очень модная, так что всё возможно.
#24 #1037502
>>1037501
Я правильно понял, что эта такая вещь в себе относительно слабо связанная с разными науками как статистика, математика и тд и тп?
#25 #1037503
>>1037502
Нет, почему, статистику важно знать очень плотно + немного матана.
#26 #1037504
>>1037503
Вот-вот. Сейчас по сути то, что мне было узнать важнее всего. Т.е. есть очень немного матана, который надо бы знать. А если знать больше? Это бесполезно в машобе? Применение есть только у ОЧЕНЬ ограниченных разделов матана?
#27 #1037506
>>1037504
Нэ, 1-2 курс матана максимум, ничего специфического.
#28 #1037507
>>1037506
Даже если мы говорим не о практиках, а о теоретиках?
#29 #1037508
>>1037506
Ок, спасибо, бро
#30 #1037509
>>1037507
Ну теоретики специализируются на статистике, теории алгоритмов + мультидисциплинарство (биология, лингвистика) в почёте.
#31 #1037511
>>1037509
кроме биологии и лингвистики есть распространенные варианты?
и, теперь уж точно последний вопрос: если есть желание не спеша вкатиться с нуля, в качестве средства заняться свободное время, с чего начать?
#32 #1037512
>>1037511
Ну хз, любые науки где есть биг дата.
Если с нуля, то лучше всего курсы от яндекса на курсере, потом читаешь туториалы к популярным библиотека по машобу (keras, tensorflow) и гуглишь непонятное.
#33 #1037515
лет 5 назад уровень хайпа был существенно меньше чем сейчас?
тожемимопроходил
#35 #1037537
>>1037511

>кроме биологии и лингвистики есть распространенные варианты?


Экономика, обработка сигналов, социология
#36 #1037781
>>1037493
>>1037498
Кроме теории статистического обучения никаких левел-апов и не будет. В нейроночках осталось только слои наращивать.
#37 #1037844
>>1037487

>ВЦ РАН и ИППИ


>они занимаются одним и тем же?


В ВЦ РАН умножают матрицу на вектор и раскладывают тензор. В ИППИ ищут минимум функции.
#38 #1037888
>>1037844
А для человека не знакомого с темой, можно как-то попонятнее?
#39 #1037956
>>1037888

> А для человека не знакомого с темой, можно как-то попонятнее?



>В ИППИ ищут минимум функции:


>Лаборатория №10 Интеллектуальный анализ данных и предсказательное моделирование


проект по минимизация массы композитной боковой панели болида «Формулы-1» на основе данных натурных экспериментов и данных вычислительных экспериментов с соответствующей физической моделью.

>наука сырьевой криптоколонии в 2017 году

#40 #1037985
>>1037956
ВЦ РАН лучше, или те же яйца?
#41 #1038001
>>1037985
Что лучше-то?

В ИППИ до недавнего времени работал Юрий Нестеров -- один из ведущих исследователей в мире по выпуклой оптимизации. Сейчас он уже в Бельгии.

Про ВЦ РАН не знаю ничего, но думаю полдюжины нормальных ученых там еще осталась.

Только все это нафиг никому тут не нужно. Публикации, препринты, цитирования. Нахер оно все надо.

Будете облегчать композитную боковую панель на субподряде или считать загрузку такси в Яндексе. Ничего более осмысленного делать криптоколонии не положено.
#42 #1038006
>>1038001
А в цивилизованном мире какие научные центры самые годные?
#43 #1038016
Сейчас максимальный индекс Хирша из тех кто остался в ИППИ равен 31. У Нестерова 50 -- умные люди оттуда съебывают:
https://scholar.google.com/citations?view_op=view_org&hl=en&org=135524506371074591

У ВЦ РАН нет странички, но походу самые высокоцитируемый там Воронцов.
https://scholar.google.com/citations?user=KIW4fnsAAAAJ&hl=en
#44 #1038019
>>1038006
https://scholar.google.ru/citations?view_op=search_authors&hl=ru&mauthors=label:machine_learning

Читайте Вапника короче. Круче него никого нет. Плюс все ранние книги написаны по-русски. Плюс отдельная книга с кодом на Фортране.
#45 #1038104
>>1038019
Круче Вапника в МЛ и правда нет никого, только местное быдлецо этого не понимает. И на английском он не сложнее, чем на русском. Вот только код на фортране точно не нужон, в плане практики лучше почитать про запиливание вручную SVM на слесарьплове или в R с помощью тамошних солверов квадратичных задач типа quadprog.
10 Кб, 481x289
#46 #1038352
Нейроаноны, есть-ли какие-нибудь методы для регрессии, когда таргет задается не значением, а верхней и нижней границей?
Т.е нужно чтобы моя функция лежала внутри границ, но может и не лежать внутри для некоторых выбросов.
Типо пика
Только есть проблема, границы очень разные, т.е у одного значения это может быть 100±10, а следующего 70±50. В этом случае среднее считать почти бессмысленно.
#47 #1038393
>>1038352

>когда таргет задается не значением, а верхней и нижней границей?


Нечетким числом, то есть. Есть, конечно, нечеткие аппроксиматоры никто не отменял. Но тута это не модно, Ын, Сутскевер, Лекун и прочие бородатые хипстеры на коворкингах не одобряют.
#48 #1038478
>>1038352
Бери среднее значение )))
#49 #1038479
>>1038352
>>1038478
Ой, не дочитал до конца.

Почему нельзя делать две регрессии, для минимальных и максимальных значений?
#50 #1038480
>>1038352
Не понимаю в чем проблема. По сути у тебя функция двух(если границы заданы нормальным распределением) переменных или трех переменных (если надо отдельно указывать нижнюю грань, верхнюю грань, среднее).

Строй приближение функции нескольких переменных и все.
#51 #1038483
>>1038480
Лол я даун. Сорри.
#52 #1038835
>>1036439 (OP)
Почему Эндрю Нджи берёт за ошибку последнего слоя error = a - y, хотя я обычно вижу error = (a-y)*g'(z)
#53 #1038881
>>1037131
Зарешай тетрадочки отсюда:
https://github.com/yandexdataschool/Practical_RL

Когда разбершься, регайся на openai.com и начинай фигачить игоры из gym.openai.com

Еще советую глянуть на policy gradient strategy и feudal(hierarhical) reinforcment learning.
Три интересные статейки на тему:
https://arxiv.org/abs/1611.01626
https://arxiv.org/abs/1703.01161
https://arxiv.org/abs/1707.06203
#54 #1039629
Можно ли хранить логи в нейросети? И что из этого выйдет?
#55 #1039787
>>1039629
Не очень понял зачем и как, но, судя по всему, вам нужны автоэнкодеры:

https://en.m.wikipedia.org/wiki/Autoencoder
#56 #1040383
Господа, насколько сложно обучить нейросеть генерировать уникальный контент для сайтов по заданным ключевым словам, т.е. чтобы на выходе были полноценные статьи по заданной тематике по 2-3к знаков каждая, к примеру. Читал на хабрепараше про рекуррентную нейросетку, но там все ограничивалось описанием товаров, отзывов и т.д. Нужно что-то типо http://shir-man.com/gienierator-istorii-k-fotoghrafiiam/ или https://apparat.cc/news/rnn-ai-science-fiction/ ну это уже пиздец круто как по мне:-) Алсо, сам вебмакака и нихуя не знаю матана, насколько реально хотя бы что-то похожее реализовать? Просто где-то год назад анон здесь писал про нейросети, что они уже в состоянии романы писать, ну в контексте того что люди ужеинахуй не нужны будут, биомусор короче:-)
#57 #1040423
>>1040383

>полноценные статьи по заданной тематике по 2-3к


это пока невозможно
#58 #1040426
>>1040383

>насколько сложно обучить нейросеть генерировать уникальный контент для сайтов по заданным ключевым словам


Очень. Текст-то генерировать несложно но только он бессвязный выходит.

>что они уже в состоянии романы писать


Постмодернистские разве что, лол.
#59 #1040557
А кто-то пытался обучить нейросеть блиссимволике? Ведь, по сути, нейросеть чем-то подобна на ребенка с ДЦП.
#60 #1040590
Есть кто на ICML? Заебался в номере хекковать.
#61 #1040593
>>1040383
Ишь ты, кокой хитрый. Нагенерить миллионы текстов и впаривать копирайтерам с сотен левых акков. Нет, братюнь, не выйдет у тебя зарабатывать по одной-двум хатам в день. Максимум получишь нечто уровня https://twitter.com/neuromzan
#62 #1040791
>>1040590
Запили нам фоточки с конфы. Кенгуру там или что вокруг.
#63 #1040957
>>1040593
Нахуя мне твои копирайтеры, имея лямы уник контента можно клепать тысячи сдл и иметь по пентхаусу в сутки:-) Короче пока что максимум ныне это что-то вроде https://habrahabr.ru/company/meanotek/blog/259355/
#64 #1041005
>>1040557

>подобна на


)
#65 #1041505
>>1040426
То есть максимум ныне это коменты в клиттере или небольшое описание к товару? Если даже скормить нейросети десятки гигов текста определенной направленности, то грубо говоря, она не сможет установить достаточное кол-во зависимостей, чтобы текст был более менее связным, это будет просто простыня уник текста на уровне грубого синонимайза?
#66 #1041572
>>1041505
Ну сейчас все эти модели вероятностные, то есть недалеко ушли от какой-нибудь цепи Маркова. Осмысленный текст они не могут генерировать потому что никаких мыслей у них нет. Напиши Хассабису в DeepMind письмо, пусть что-нибудь придумает.
#67 #1041811
>>1041005
) ограниченный словарный запас
#68 #1041921
Что в крестах используют вместо питоньего Keras?
#69 #1041978
>>1041921
Tensorflow, наверн.
#70 #1042010
>>1041921
>>1041978
Леее, чукчи. "тюленя, оленя", больше ни про что не слышали. Если не керас, значит слесарьплов. Если не слесарьплов, то керас. Вот на крестах - http://mxnet.io/
#71 #1042104
>>1041921
caffe, dlib, tinyDNN
#72 #1042128
Во что превратится программирование через пару лет:
https://github.com/joelgrus/fizz-buzz-tensorflow/blob/master/fizz_buzz.py
#73 #1042326
>>1042104
Двачую эстета
#74 #1042329
>>1042128
Спасибо, угарнул со статьи.
#75 #1042822
>>1036439 (OP)
С каких пор курсера стала платной? Я раньше все просто так получал что там, что на юдасити. Думал в айти уже почти коммунизм.
#77 #1042950
А кто в СССР/России был специалистом по нейронным сетям? Вроде Вапника в машобе. Кого можно почитать?

Смотрел видос про какого-то мужика с физтеха, который 40 лет строил нейрокомпьютеры. Он норм? Или профессор Выбегалло?
#78 #1042951
Анон, сколько слоев сейчас в сетях для распознавания изображений?
#79 #1042952
>>1042951
Несколько тысяч (или даже десятки/сотни тысяч).
#81 #1042954
Очень глубокие сети попробовали -- теперь надо попробовать очень широкие сети. Шириной с твою мамку
123 Кб, 1984x584
#82 #1042957
>>1042951
В residual networks тысячи слоёв. На практике чаще какие-нибудь готовые модели типо AlexNet или Vgg-19 где пара десятков слоёв.
#83 #1042958
Там OpenAI для Дотки бота запилили который лучших игроков уделывает. Мамок тоже вроде ебёт.
https://blog.openai.com/dota-2/
#84 #1042959
Прошелся по гугл-школяру по чувакам с тегам нейронные сети и среди русаков там только пара физиков с ЦЕРНа. Что совсем нет никого крутого по теме?

Вспомнил как зовут профессора который выглядит, как Выбегалло -- Галушкин А. И.

В википедии написано, что он придумал backpropagation, но так как данная инфа написана только в русской вики -- то боюсь, что это он сам про себя и написал.
#85 #1042960
>>1042958
Дота-дауны, кстати, визжали, что их игра в миллион раз сложнее шахмат и го. Что для нее никогда не создадут кампуктерную программу, которая будет их ебать. Наивные.
#86 #1043069
>>1042954
Че ты как лох ограничиваешься тремя измерениями.
#87 #1043200
салам, терпилы.
решил начать обмазываться мл и алгоритмами.
буду разбирать сорцы вот этой либы и алгоритмы из нее.
http://php-ml.readthedocs.io/en/latest/machine-learning/association/apriori/
положняк?
#89 #1043273
>>1043217
пшел нахуй байтоеб. только у веба есть будущее, только динамика впереди.
#90 #1043334
>>1042960

> 1v1


> dota


Дотан - коммандная игра. Ждём коопящихся ботов.
#91 #1043352
Не понимаю программистишек, зачем вы пилите сук, на котором сидите?

Как только будет создан сильный ИИ, вас же всех выкинут на мороз, как сраных луддитов после появления станков. ИИ может работать бесплатно 24 часа в день, не ест, не пьет кофе, не читает хабру, никогда не уставать и не ошибаться.
#92 #1043356
>>1043352

>Как только будет создан сильный ИИ


А в чем сила, брат?

>вас же всех выкинут на мороз


Если уж и программистишек на мороз выкинет, то остальные быдлопрофессии и подавно.

>зачем вы пилите сук, на котором сидите?


Потому что могут.
#93 #1043373
>>1042960
Дота говно для дебилов, кстати.
#94 #1043374
>>1043352
Да вон какие-то конструктивисты даже математиков обещают автоматизировать, а ты о программистишках
#95 #1043375
>>1043352
Я надеюсь, что ИИ выкинет вообще всех людишек на помойку. пилю его из пиплхейта.
#96 #1043383
>>1043356

>А в чем сила, брат?


В способности выполнять работу как минимум не хуже человека, при этом еще и бесплатно и непрерывно.

>Если уж и программистишек на мороз выкинет, то остальные быдлопрофессии и подавно.


Э, нет, тут-то мы и поправим программистишку! В быдлопрофессиях рыночек решает, ведь нелегальный таджик-строитель стоит дешевле робота. В IT наоборот, выгоднее будет заменить зажравшуюся кодомакаку на ИИ.

>Потому что могут.


Потому что узко направленны и не видят дальше своего носа.
#97 #1043388
>>1043374
>>1043375
Это в далеком будущем. А вот программистишки (большинство) останутся без работы очень скоро.
#98 #1043395
>>1043388
как можно остаться без работы в создании самого модного направления последних 20 лет?
#99 #1043401
>>1043395
Я про веб-макак и прочих формошлепов, их как раз системы вроде DeepCoder заменят как класс.
В Machine Learning и Data Mining люди будут нужны, но бывшему пиццевозу в эту область никак не вкатиться, там же нужно знать математику.
В итоге 99% современных кодеров останутся без работы.
#100 #1043429
Никакого ИИ не будет. Будет миллион разных костылей с мозгом уровня амебы или печеночного сосальщика. Никакой угрозы для людей нет. Проблемы будут только если ты работаешь кассиром, грузчиком или изготовителем бургеров. Там мозга печеночного сосальщика как раз хватит.
#101 #1043446
>>1043429
Ну, как-бы есть сторонники и совсем других архитектур, не диплеринг, но это не так модно, не так стильно и не так молодежно.
#102 #1043451
>>1043429
блять, да меня бычий цепень медленно убивает и никакие лекарства не помогают, ты зря недооцениваешь сосальщиков.
#103 #1043453
>>1043401
какие-то дикие фантазии свихнувшегося байтоеба.
веб уже автоматизирован до конструкторов сайта и плагинов, которыми может любой уася пользоваться.
#104 #1043496
>>1043429
Гугеловский tensor2tensor уже научился сортировать массивы, через несколько десятков лет можно будет шлёпать кожаных мешком на удобрения.
#105 #1043531
>>1043352
Долбоёб, ты понимаешь, что машоб на текущем этапе развития и сильный ИИ это вообще разные вещи?
64 Кб, 800x860
#106 #1043554
>>1042958
В дотку даже Карина без мозгов может. Вот если бы на этом deep reinforcement learning запилить бота, который на бирже всех вертит на хую и рубит миллиарды, то вот это было б годно. Теоретически разницы с доткой никаких, тренировать можно на тестовых счетах.
#107 #1043559
>>1043531

>ты понимаешь, что машоб на текущем этапе развития и сильный ИИ это вообще разные вещи?


Самая хохма в том, что сильный ИИ не нужон, это больше философия чем прикладная задача. На практике достаточно того, что алгоритмы МЛ, не являющиеся сильным ИИ, давно уже могут решать задачи, в которые традиционно может только мыслящий человек. И чем дальше, тем таких задач все больше и больше, без всякого сильного ИИ даже в проекте. В эти ваши ссаные нейроночки все не уперлось, к слову. Вон выше упомянули системы автоматизированных математических доказательств. Coq не нейроночка и вообще принципиально не машоб, но теорему 4 красок (в которую даже мыслящие людишки нишмагли) на нем доказали как нехуй http://www2.tcs.ifi.lmu.de/~abel/lehre/WS07-08/CAFR/4colproof.pdf на данном этапе Кок используется как костыль для человека, но и это поправимо, я как раз занимаюсь одним из возможных путей полной автоматизации подобных задач. И опять же без нейроночек и машобчика, хотя вон есть и желающие приколхозить нейроночки к пруверам https://arxiv.org/pdf/1606.04442.pdf и даже не без некоторых успехов.
#108 #1043561
Как вкатиться в МЛ дебилу, который забыл математику?
#109 #1043575
>>1043561
Арифметику знаешь?
#110 #1043585
>>1043575
Знаю, и еще какие-то обрывочные знания из средней школы.
#111 #1043612
>>1036439 (OP)
На днях заинтересовался нейросетью и интересует такой вопрос.
Какой вид математики нужно знать что сделать нейросеть?
У меня уровень 7-8 класс математики.
#112 #1043619
>>1043585
А я вот старый, но раньше математику знал хорошо. Алгебру по Кострикину, например, изучил. Но мат статистикой, в то время, не очень интересовался. Давно это было. Какие пути вкатиться а эту область, х.з. Хочется побороться с гредущим альцгеймером, так как уже за тридцатник...
#113 #1043623
>>1043619

>гредущим


грядущим
альцгеймер не дремлет
#114 #1043625
>>1043217
сам PHP и расширения к нему написаны на C, в том числе и реализация "Fast Artificial Neural Network или FANN" => всё достаточно быстро, особенно в последних версиях
#115 #1043629
>>1043273
веб и байтоёбство -- вовсе не антонимы.
фу таким быть.
#116 #1043631
>>1043612
Арифметика, высшая арифметика (теория чисел), алгебраическая геометрия.
#117 #1043638
>>1043631
Ты еще алгебраическую топологию и дифференциальную геометрию забыл. Плюс ТФКП, операционное исчисление...
#118 #1043640
>>1043631
>>1043638
Я так понял что это минимум который нужно знать?
#119 #1043643
>>1043640
Для начала изучи все отсюда https://stepik.org/catalog?tag=866
#120 #1043645
>>1043643
По еnglish тегу тоже
#121 #1043646
>>1043640
Ну, желательно, доктора наук получить.
#122 #1043647
>>1043643
>>1043646
Не лучше я дальше буду веб-макакой, слишком сложно для меня. Это какая то хуйня для избранных.
#123 #1043649
>>1043646
Каких наук? Теологических?
500 Кб, 944x1195
#124 #1043652
>>1043647
Да че сложного то
#125 #1043655
>>1043652
Алгебраическая топология, дифференциальная геометрия, ТФКП и т.д.
Я пол года назад пробовал изучать дискретную математику, то дальше первой главы не мог пройти, так как РЕЗКО все вставало непонятным и запутанным.
#126 #1043656
>>1043655
Надеюсь ты понимаешь, что это стеб. Реально нужно инженерное знание математики на уровне заборостроительного.
#127 #1043658
>>1043655

>Алгебраическая топология, дифференциальная геометрия, ТФКП


Но ведь это всё не нужно...
#128 #1043664
А вообще какие есть методы вкатав этой сфере для энтузиастов без галстука. Конкурсы - это реально? Кто все эти люди на kaggle.com ?
116 Кб, 818x542
#129 #1043666
>>1043656

>Надеюсь ты понимаешь, что это стеб.


Нет не понял, думал что это серьезно.

>Реально нужно инженерное знание математики на уровне заборостроительного.


Вот посмотри на пикчу, я так понял это сумма, ее тоже нужно знать.

Пикча из сайта.
http://neuralnet.info/глава-2-основы-инс/

>Но ведь это всё не нужно...


Тогда что нужно?
#131 #1043672
>>1043666
И что тебя в этой сумме пугает - греческий знак сигма?
#132 #1043674
>>1043672
Что означает "n" над сигмой?
Что значит "i=1" под сигмой?
#133 #1043678
>>1043674
Если ты программер, то представь сигму как оператор for (i=1; i<=n; i++) { sum += x * w }
#134 #1043681
>>1043674
Там написано
sum = 0
for (i = 1; i <= n; ++i) {
sum += x * w
}
#135 #1043683
>>1043678
for (i=1; i<=n; i++) { sum += xi * wi }

Бля двач, что ты творишь?
#136 #1043685
>>1043678
>>1043681
Аааааа теперь понятно, я то думал что сигма это какие то йоба вычисления.

>>1043683

>xi * wi


А что значит нижнее "і"?
#137 #1043687
>>1043685
Элемент с индексом i
#138 #1043697
>>1043674
Зато в кадом перезвоним-треде:
РЯЯЯ!! ВЫСШЕЕ ОБРАЗОВАНИЕ НИ НУЖНА!!
ЕБАТЬ ВЫ ЛОХИ!
ПЯТЬ ЛЕТ ЖИЗНИ В ПИЗДУ
ЛУЧШЕ ВЕБ-МАКАКОЙ ЗА 30 ТР
#139 #1043698
>>1043697
ВО и правда ненужно, в институте старый пердун хриплым голосом объясняет математику по учебникам из 60 годов, где поймешь только 5% материала в лучшем случае.
Лучше изучать то что нужно по мере продвижения, если все попытаться охватить то жопа треснет.

>ЛУЧШЕ ВЕБ-МАКАКОЙ ЗА 30 ТР


Сейчас веб-макакам платят от 40 и выше.
#140 #1043702
>>1043698
Я уже в одном из из тредов написал что сложные знания имеют цикличискую зависимость друг от друга. Без систематического образования освоить это в одиночку большая задача.
#141 #1043704
>>1043698
Подскажи чем новые учебники лучше старых из 60-х годов и посоветуй нормальные новые.
#142 #1043708
>>1043698

>учебникам из 60 годов


И что? Вот например А. Н. Колмогоров написал учебник по теорверу ещё в начале 1930-х, что положило начало аксиоматической теории вероятностей. Учебник до сих пор актуален.
#143 #1043711
>>1043704
По матану годнота H. Amann, J. Escher "Analysis I-III" 10/10, лучше Зорича. Первый том в 2005 вышел. По алгебре P.Aluffi "Algebra: Chapter 0" вообще красота, т.к. с самого начала учит теории категорий, первое издание вышло в 2009г.
#144 #1043712
https://www.youtube.com/watch?v=GrgQlqfWWx4

Нубо вопрос мимо проходящего в связи с видеорилейтед.

Может ли нейронка обучаться в несколько потоков или она только в одном работает? И если может, то как она потом производит синхронизацию этого изученного материала особенно если там данные противоречивые получились? Или процесс записи / обучения по факту происходит в одном потоке изолированного от распараллеливанного процессинга вычисления и извлечения данных и потом что-то типа коротких готовых результатов которые передаются в вашу Mode/Data ?
#145 #1043718
Зачем вы изучаете нейронные сети?
#146 #1043720
>>1043708

>Я уже в одном из из тредов написал что сложные знания имеют цикличискую зависимость друг от друга. Без систематического образования освоить это в одиночку большая задача.


Для простых задач хватит и минимума, я не собираюсь скайнет делать.

>Вот например А. Н. Колмогоров написал учебник по теорверу ещё в начале 1930-х, что положило начало аксиоматической теории вероятностей. Учебник до сих пор актуален.


Там устаревшие математические обозначения, в новый учебниках более понятные объяснения и доказательства.
#147 #1043721
>>1043697

>ЛУЧШЕ ВЕБ-МАКАКОЙ ЗА 30 ТР


>30 ТР


Я бы с радостью убежал работать вебмакакой

мимо заводораб
#148 #1043725
>>1043718
Лично мне просто интересно, хочется написать какого то бота для игры, и чтобы он соревновался с другим ботом, чтобы узнать какая нейросеть лучше будет, а то как людишки между собой соревнуются уже неинтересно, прошлый век.
#149 #1043726
>>1043725
Почему использовать именно нейросети?
#150 #1043727
>>1043725
А меня смущают суммы вознаграждения на kaggle.com
#151 #1043729
>>1043727

>kaggle


Ведь его придумали хитрые жиды, которые получают решение проблемы за символическую плату вместо того, чтобы нанимать исследовательскую группу без гарантированного успеха.
#152 #1043730
>>1043729
Это нормально - переносить риски на лохов.
#153 #1043733
>>1043726
Они лучше справляются с такими задачами.
#154 #1043736
>>1043733
Правильно я понимаю, что она не может дообучаться во время непосредственно игры?
#155 #1043738
>>1043730
Вот родился ты в Пакистане, но очень умный. Берешь и работаешь над датасетами на планшете, пока груженый ишак поднимается в гору. Выиграл $50k и можешь уже гарем купить и забыть о работе на всю жизнь.
#156 #1043742

>>104373


А откуда у пакистанца ферма машин с видюхами?
#157 #1043744
>>1043742
Богиня Азура подарила
#158 #1043745
>>1043625

>сам PHP и расширения к нему написаны на C, в том числе и реализация "Fast Artificial Neural Network или FANN"


падажжи, эта библиотека использует GPU или нет?
#159 #1043746
>>1043554

>Теоретически разницы с доткой никаких,


Разница принципиальная.

>тренировать можно на тестовых счетах.


нет
#160 #1043747
Что-то слишком мало сервисов уровня "потыкать" с обучением с подкреплением. Вот сверточные нейросети то там и котики всякие есть и прочее, а обучения с подкреплением нет.
#161 #1043749
>>1043736
Можно поставить чтобы и обучалась а можно и отключить эту способность.
#162 #1043751
>>1043746

>Разница принципиальная.


Ты так сказал? Поясняй.
#163 #1043755
>>1043670
И что это?
#164 #1043775
>>1043751
Не может быть алгоритма, который в долгосрочной перспективе прибыльней среднего по рынку, потому что рынок полностью прозрачен (все видят сделки по купле и продаже) и симметричен (все могут купить любые акции). Поэтому если такой алгоритм будет реально работать, все просто начнут копировать твои сделки и он работать перестанет.
#165 #1043778
>>1043775
А у спекулянтов есть спрос на прогеров знающих ML? Тяжело вкатиться, покатиться и прокатиться?
#166 #1043781
>>1043778
мл как ты понял маркетинговый ход, для впаривания говна матанопитухам, в трейденге мл нинужно от слова совсем.
#167 #1043868
>>1043775

>Не может быть алгоритма, который в долгосрочной перспективе прибыльней среднего по рынку,


Ты согласишься с тем, что доход на рынке зависит от конкретного поведения (купи-продай) в конкретной ситуации (текущая цена, история цены, объем торгов, его история показания индикаторов, текущие новости и т.д.)?
#168 #1043966
Почему нейроночка массив, а не список?
#169 #1043970
>>1043966
Нейроночка - зависимый тип же.
#170 #1043971
>>1043970

>зависимый тип


В смысле?
#171 #1043993
>>1043678
это есть множитель двух переменных возведенный в степень n?
#172 #1043995
>>1043993
Это двач сожрал квадратные скобки с индексами.
#173 #1043997
Школьники незнакомые с суммой не засирайте тред. Он создан для обсуждения свежих статей из архива.
#175 #1044004
>>1043997

>Школьники незнакомые с суммой не засирайте тред.


Мне 25

>свежих статей из архива


Какого архива?
#176 #1044009
>>1044004

>Какого архива?


https://arxiv.org/
#177 #1044010
>>1043745
Да, но можно и без него
#178 #1044022
Господа, сейчас вот эту нейронку разбираю.
Тут какая-то солянка из интерфейсов и абстрактных классов, использующих различные алгоритмы. пока не оче понятно.
https://github.com/php-ai/php-ml/blob/master/src/Phpml/NeuralNetwork/Network/MultilayerPerceptron.php
никто не хочет скоординироваться, чтобы разобраться в кишках нейронок? Просто использовать без понимания ее действия мне не хочтеся (планирую запилить веб сервис с самооучающейся нейронкой).
#179 #1044026
>>1044022
что она должа делать?
#180 #1044027
КТО ШКОЛЬНИК ТЫ ШКОЛЬНИК МНЕ 30 ЛЕТ!!
#181 #1044029
>>1044027

>КТО ШКОЛЬНИК ТЫ ШКОЛЬНИК МНЕ 30 ЛЕТ!!


Нахуй ты его гнобишь? У человека появился новый интерес и в первую очередь нужно общаться с человеком, а не с его заслугами или невежеством. Эту математику можно быстро выучить, а ничего сверхпродвинутого для import sleasorflow as sf не нужно. Если ты такой сверхразум он тебе конкуренции не составит, не мешай человеку вкатываться, если интересно
#182 #1044033
>>1044022

>солянка из интерфейсов и абстрактных классов, использующих различные алгоритмы. пока не оче понятно.


Похапе вообще ЯП курильщика, тут уже не в нейросетях проблема. Перцептрон и в африке перцептрон, что там разбирать. Аппроксимация функции многих переменных через суперпозиции частных функций от двух переменных, для чего и нужен скрытый слой. У Вапника суть перцептрона очень хорошо раскрыта, http://gen.lib.rus.ec/book/index.php?md5=BC6C3185972183559646187BE34C1C31 Аппроксимация функций зависимостей выходов от входов - это вообще универсальная суть всех нейронок, ничего другого они не делают в принципе.
#183 #1044051
>>1044026
я сейчас свою бизнес-идею палю, но ок:

анализировать симптомы болезней из сети, ставить диагноз по симптомам и выписывать лечение.

Книга на 332 страницы. Я уже читал краткие описания нейронок, даже в википедию про синапсы полез читать. Но все-таки я не могу понять, как они обучаются. Все результаты трейнинга они куда-то запоминают в класс, а потом выуживают, чтобы сравнить с инпутом??
#184 #1044052
#185 #1044054
>>1043712
Учи матчасть. Стохастические примочки работают как раз из-за того, что при распространении градиента на веса, дельта зависит в данный момент времени только от данного объекта, и даже если один объект (условно) попадается несколько раз подряд, то это окей. Думаешь, почему тащат GPU и TPU? Именно поэтому.

А в сабже они вообще могли запустить на одном агенте 100 сессий одновременно.
#186 #1044057
>>1043747
gym.openai.com и yandexdatafactory practical_RL на гитхабе.

Пользуйся.
#187 #1044058
>>1044051
да без разницы, куда конкретная реализация запоминает результаты обучения -- в класс или куда-то ещё.

Если ты, допустим, врач -- тебе нужен результат. Бери и применяй.
#188 #1044059
>>1043997
Ват? В 8 классе же, когда рекуррентные соотношения и индукцию проходят.
#189 #1044064
>>1044051

>свою бизнес-идею палю,


Братюнь, твоей гениальной бизнес-идее лет сильно больше чем тебе. Няпонци еще в 80-х годах мутили диагностические системы на нечеткой логике, Вапник еще в СССР в 70-х годах подобным занимался. Хохлы, вон, готовую технологию продают, гугли luven diagnostic, ранняя диагностика онкологии по параметрам клеток буккального эпителия.

>Все результаты трейнинга они куда-то запоминают в класс, а потом выуживают, чтобы сравнить с инпутом??


Результаты трейнинга - это изменения весов "синапсов". Вход, умноженный на эти веса, должен давать правильный выход. Для того и существует обучение. Сами веса представляют собой коэффициенты линейных или полиномиальных функций, в простейшем случае.
#190 #1044066
>>1044059
Хуя ты с 57 школы
#191 #1044067
>>1044064

>Вход, умноженный на эти веса, должен давать правильный выход


Тип я могу доумножаться до искусственного интеллекта?
#192 #1044076
>>1044067
Вот очень годное видео, один из создателей этой технологии все на пальцах поясняет, как что работает. Искусственный интеллект - это философская концепция, а не формальная постановка задачи. Нет нормального определения предмета - нет и быть не может предметной дискуссии. Чисто фактически, алгоритмы машобчика могут многое, что раньше считалось возможным только для человека, это все, о чем можно говорить твердо и четко в наше время.
https://www.youtube.com/watch?v=hc2Zj55j1zU&t=14s
https://www.youtube.com/watch?v=skfNlwEbqck
#193 #1044079
Тут я так понимаю, в основном преподы из универов и их студенты сидят?
Расскажите, как вам на кафедре? Норм платют? На науч. работах бабло пилить удается (инвесторы там фонды)?
#194 #1044085
#195 #1044088
Расскажите про примерный план изучения математики, необходимой для работы с tensorflow.
На данный момент есть обрывочные знания из школьной программы, знаю, что такое логарифм, синус - не больше, в азы матанализа не умею.
#196 #1044089
>>1044085
Но ведь то, что я описал, это и есть суть алгоритмов reinforcement learning, конкретные примеры - Q-learning, POMDP (марковский процесс принятия решений в условиях системы, только частично доступной для наблюдения). Это вполне алгоритмы, а ты сам только что признал, что оптимальное поведения на рынке к ним сводится.
#197 #1044111
>>1044088
Матанализ, теорвер, линал. Все на уровне первого попавшегося учебника, читанного по диагонали. Работа со слесарьпловом - это всего лишь построение графов, вершины которого это математические операции, ребра - скаляры/векторы/матрицы/тензоры в зависимости от задачи.
#198 #1044115
>>1044111

>Матанализ, теорвер, линал


Изучать именно в таком порядке?
И что делать, если встретится тонна незнакомых математических символов?
И да, требуют ли книги по высшей математике глубокого знания школьной программы?
#199 #1044118
>>1044115

>Изучать именно в таком порядке?


Нет, лучше параллельно.

>что делать, если встретится тонна незнакомых математических символов?


В любом учебнике объясняется вся используемая нотация.

>требуют ли книги по высшей математике глубокого знания школьной программы?


Нет.
#200 #1044120
>>1044118
Спасибо большое, анон.
#201 #1044126
>>1044115
Лучше учебник высшей математики для экономистов возьми - там как раз уклон в статистику.
#202 #1044218
>>1044089
Нет, не сводится. Когда ты каким-нибудь deep q-learning учишься играть, скажем, в блэкджек, у тебя есть определённое распределение состояний, которое задано правилами игры, и ты пытаешься найти стратегию, которая позволит тебе получить состояния, в которых ты получаешь какие-то ништяки. Фондовые рынки принципиально отличаются от этого тем, что распределение постоянно меняется. Это как пытатся MNIST нейронкой классифицировать но при каждом прогоне датасет слегка меняется так, чтобы у тебя ошибка осталась прежней. Заработать на акциях можно только если ты точнее оцениваешь её реальную стоимость чем остальной рынок но если ты можешь оценивать акции точнее других то все просто будут копировать твою стратегию и разница между твоей оценкой и реальной рыночной ценой очень быстро сойдёт к нулю. Такой вот парадокс. Если бы алгоритм мог здесь помочь, то Гугл уже давно был бы королём всех рынков но увы. Чтобы зарабатывать на акциях нужна ассиметричная информация, без этого никак.
#203 #1044315
>>1044218
Ты сам читаешь, что пишешь? Почитай. Разница между каким-нибудь понгом и рынком только в том, что в случае рынка правила динамически меняются. Но это не отменяет их существования, т.е. оптимальное поведение на рынке все равно зависит от состояний самого рынка, описанных здесь >>1043868 а не от астральных сущностей в виде гномика. И если под эти изменения может подстроиться человек, то может и алгоритм обучения с подкреплением, потому что в противном случае (если бы таких зависимостей не было) не мог бы и человек. В обоих случаях имеет место аппроксимация функции зависимости выхода (дохода) от входов (состояний рынка и возможных вариантов поведения). Я бы мог еще тезис Черча вспомнить, но это лишнее. В любом случае, как ни крути, в конечном счете то что может вычислить человек, может и машина Тьюринга. Нет ни одного известного человечеству случая, опровергающего этот тезис, как бы у хейтеров математики с этого жопы ни горели.
393 Кб, 382x509
#204 #1044777
Сможет ли нейросеть отличить животное от хлебушка?
#205 #1044782
>>1044315
Для игры на рынке нужны ужаса и магия. Может тут и есть ряд закономерностей, но рандом тоже присутствует. Это как ставки на лошадей. Исходя из истории побед лошади ты можешь вычислить, какая победит. Но точно может предсказать только врач, берущий кровь у лошадей.
#206 #1044786
>>1044777
От алгоритма зависит. Если на вход подаются чб изображения - врят ли отличит.
#207 #1045251
В чем основные проблемы нейроночек?
#208 #1045275
>>1045251
Не распознает шум. Переобучается.
#209 #1045287
>>1044786
Терминатор расстреливающий манекены?
Dmitry #210 #1045555
Это все пиздато, но какие проблемы можно решить кроме создания роботов?
#212 #1045778
>>1044782

>Может тут и есть ряд закономерностей, но рандом тоже присутствует.


Там не только рандом. Наверняка есть моменты, не сводящиеся ни к рандому ни к функциональным зависимостям выходов от входов (многоходовочки крупных игроков, заговоры рептилоидов и т.д). Поэтому в алгоритмах обучения с подкреплением типа POMDP (parial-observed markov decision-making process) речь именно о частично-наблюдаемой системе, все переменные которой нам не будут доступны никогда и ни при каких обстоятельствах. При этом задача - выйти на наилучший возможный результат именно исходя из того, что мы имеем, а не из 100% целостной картины. Так что магия тоже учитывается.
#213 #1045811
>>1045555
да никаких проблем не решается, братан, хуйня всё это
#214 #1045815
...
82 Кб, 1280x917
sage #215 #1045959
Есть один кусок XGBoost'а, и он меня кажется троллит. Так как я не знаю Питон, я взял обертку на Шарпе для XGBoost. И я не понимаю в чём дело, но эта херня меня троллит и просто не реагирует ни на какие параметры кроме objective.
https://pastebin.com/pZsvvwU4 вот кусок кода
Вывод XGBoost'а приложил. Я перебираю бустеры и eval_metrics и ожидаю хоть какого-то изменения в деревьях, но нет, результаты одни и те же. Что-то меняет только objective.

Так вот, никто не мог бы помочь и набросать пару строк на Питоне? В общем, есть файл input.json, там объект с четырьмя полями. TestInput (float[][]), TestOutput (float[]), TrainInput (float[][]), TrainOutput (float[]). Мне нужен кусок кода, который загрузит эти данные и подаст на XGBoost (сам файл я переподготовлю, чтобы в нём вообще ничего было менять не нужно, и оставалось бы только подать его на библиотеку для обучения). Ну совсем в идеале также перебрать метрики и бустеры как это делаю я. Я хочу понять в чём дело, в обертке на C# или в самом XGBoost'е.
Спрашиваю здесь, а не в Пистон треде, потому что здесь кто-нибудь Пистон да знает и мб подскажет в чём дело, если дело в самом XGBoost.

Обертка вот эта была: https://github.com/PicNet/XGBoost.Net

Заранее спасибо, няши

То, что у меня precision такой маленький это пока отдельный разговор, сначала надо понять работает ли сам швейцарский нож
#216 #1045988
>>1045959
Это из-за скобок с новой строки.
#218 #1046093
Будет ли актуален машоб через 4-5 лет, стоит ли вкатываться?
#219 #1046094
И вообще, каким вы видите будущее машоба. Очень интересно, что будет дальше или не будет.
#221 #1046098
>>1046097
Понял, принял.
#223 #1046299
на каком ЯП лучше всего писать нейронки?
#224 #1046360
>>1046299
На brainfuck'e, очевидно.

на чём хотите, на том и пишите. На питоне легче, так как больше библиотек и разработка проще. Но сейчас даже для сраной пыхи есть пакеты.
#225 #1046365
>>1045959
https://github.com/dmlc/xgboost/blob/master/demo/binary_classification/README.md lol, оказывается xgboost поддерживает работу из-под консоли, принимая файл конфигурации на вход. Так тоже сойдёт. Так и сделаю

Теперь другой вопрос, который не является оффтопиков. Вот у меня есть обучающая выборка на 1200 значений, почти всё там это класс A, класса B там в 9 раз меньше (11.1%). Теперь вопрос: почему XGboost (по крайней мере с дефолтными значениями) так сильно забивает на precision? Потому что по умолчанию там мера error, а не kind of F1?
Я от безысходности запилил свою разбивку с Gini / F1-мерой, и я точно знаю, что там можно срезать 3%-4% от данных так, чтобы они почти полностью состояли из класса B. И, да, я учил на тренинговой выборке, а тестировал на тестовой, выборки не пересекаются.
У меня уже всерьёз появляются идеи самому имплементировать дерево решений.
#226 #1046366
>>1046299
На Пистоне уже всё готово и ждёт тебя. У Яши и Гугла весь ML на Пистоне. Вывод очевиден.
#227 #1046686
Как велико участия стран третьего мира в машобе?
#228 #1046737
>>1046365

>У меня уже всерьёз появляются идеи самому имплементировать дерево решений.


Ты одну хуйню юзаешь из-под хуевой обертки к третьей хуйне. Родина дала R, где всех этих хгбустов и прочего бустинга до жопы, все работает, в документации разберется даже средний пенсионер из аудитории одноклассников. Нет, не хотим. Хотим сладкий хлеб поедать. И это слесари? Говно какое-то...
#229 #1046745
>>1046360
>>1046366
А если меня не интересуют готовые фреймворки и пакеты, я хочу поразбираться в кишках и алгоритмах, то питон тоже подойдет?
#230 #1046760
>>1046745
Подойдет. Есть вот такая книшка http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6 про объяснения алгоритмов МЛ и запиливание их с нуля на пистоне.
#231 #1046762
>>1046686
Ну из России несколько хороших учёных есть, про остальные не знаю.
#232 #1046766
>>1046686
Весьма велико. На индусах весь современный машоб держится.
#233 #1046767
>>1046760
спасибо
#234 #1046823
Какие сейчас темы в машобе актуальны особенно?
Хочу научную работу какую-нибудь написать, но до этого ничего не писал и опыта в машобе почти нет, только вот пару месяцев назад начала работать, до этого хелоуворлды разные на слесарьфлоу и на плюсах писал.
#235 #1046852
#236 #1046868
>>1046852
Нейроночки в НЛП не могут, все натужные попытки их там использовать напоминают попытки подмести пол болгаркой. Есть vector-semantic models, которые еще в 90-е успешно проходили тесты типа TOEFL, до чего нейроночки еще лет 15-20 не дорастут.
#237 #1046873
Есть че-то еще проще, чем keras?
#238 #1047065
>>1046873
Завести китайца и заставить его работать.
sage #239 #1047112
>>1046737
Я не знаю об R ничего кроме того, что это язык для числодробилок и числового анализа. Ты мне предлагаешь ещё один синтаксис выучить?
#240 #1047220
>>1047112

>пытается в МЛ


>"я нихуя не знаю и знать не желаю о самом продвинутом языке для МЛ"


Понял, отстал.
#241 #1047389
Помогают ли занятия олимпиадной прогой в вузе дальше в машобе?
#242 #1047392
>>1047389
нет
#243 #1047403
>>1047392
Спасибо.
#244 #1047425
Делаю gridsearch в keras как тут http://machinelearningmastery.com/grid-search-hyperparameters-deep-learning-models-python-keras/ , как реализовать сохранение чекпоинтов для гридсерча? Или вообще извлекать хоть какие-то полезные данные? А то если он прерывается, то теряется весь прогресс полностью.
#245 #1047459
>>1047220

>R


>самый продвинутый язык для ML


Ты, видимо, в 2007 до сих пор живёшь. Пока для питона не было API matplotlib'ы, R еще мог что-то выиграть, но сейчас он в принципе нахуй не нужен.
#246 #1047464
>>1047459
Все, что есть для МЛ на пистоне - 5-6 средних пакетов для R, которых там в официальном репозитории больше 11000. Я уже предлагал мне показать аналог LSAfun для пистона, его нет и не будет никогда, что уже говорит о том, что пистон для семантического анализа текста непригоден, word2vec - это предел. Так что это ты в 2007 году еще.
#247 #1047470
>>1047464
Use the ntlk, Luke
#248 #1047471
#249 #1047478
>>1047470
Хуета, там нет ничего подобного тому, что есть в LSAfun. И анализ текстов - не единственное, во что не может пистон.
#250 #1047538
>>1047478
Зато он смог в твою мамку.
#251 #1047627
>>1046868
ээээ
какбе сейчас всё в нлп на нейроночках держатся
#252 #1047648
>>1047627
Какбе не все модели - нейроночки.
#253 #1047681
>>1047648
приведи пример нлп задачи, которая бы решалась классическим машобом (или чем то ещъ) эффективнее чем нейроночками
#254 #1047772
>>1047464
ты заебал со своим LSAfun. Если чего-то нет в питоне, значит это настолько ненужно, что никто не заморочился портировать интерфейс для питона. А написать такой интерфейс дело пары дней для большинства алгоритмов в статистике.
#255 #1047962
>>1036439 (OP)
Вы типа настолько элитные, что даже шапку для новичков убрали? Как вкатываться теперь? Поломали мне жизнь, спасибо!
102 Кб, 534x400
#256 #1047973
>>1037466

> статистика - не математика


Кек, ну и ретард.
#257 #1047998
>>1047973
Математика это что-то о пучках.
#258 #1048530
>>1047627
Оно и видно, как держится. Даже до классических векторно-семантических моделей из 90х не дотягивают ваши нейроночки в 100500 слоев.
>>1047681

>приведи пример нлп задачи, которая бы решалась классическим машобом (или чем то ещъ) эффективнее чем нейроночками


Ты читать не умеешь? TOEFL-тест ваши нейраначке до сих пор не пройдут, тогда как semantic-space модели в это еще в 90-к годы могли.
>>1047772

>Если чего-то нет в питоне, значит это настолько ненужно


Коооо-кококо-кооко нинужно!!111 Стандартная мантра деградантов. Факт же в том, что вот как раз нужно, а вот на пистоне нету.

>написать такой интерфейс дело пары дней


Аутист-вэй. Сейчас бы учить пистон, чтобы джва дня пердолить костыли для инструментов, которые в нормальном языке для МЛ уже давно запилены и работают.
#259 #1048719
>>1048530
Нахуй кому сдался твой TOEFL?
А вот анализ эмоциональной окраски и машинный перевод востребованны, и нейроночки тут тащат.
sage #260 #1048730
>>1048719

>машинный перевод


>нейроночки тут тащат



Ohooitelnii istorii.
#261 #1048732
>>1048719

>Нахуй кому сдался твой TOEFL?


Это пример того, как алгоритм может решать задачу, в которую традиционно могут только люди.

>А вот анализ эмоциональной окраски и машинный перевод востребованны, и нейроночки тут тащат.


Ты ведь даже не задавался вопросом, кем и почему востребованы. Сентимент анализ нужен для анализа рынков потенциального спроса и предложения всяким рекламщикам и т.п. хуепутолам. Потому и востребован и оплачивается.
#262 #1048753
>>1036439 (OP)
Почему линейная регрессия в TF без нормализации данных так плохо работает?
#263 #1048892
>>1048753

>линейная регрессия в TF


Ты, наверное, на винде запускаешь? Всем известно, что линейная регрессия на винде плохо работает. Лучше всего на маке, но она там платная, так что обычно ее на линуксе делают.
#264 #1048921
>>1048892
Тонко.
#265 #1048983
>>1048730
И на чём по-твоему основан гугл транслейт? На правилах?
>>1048732
И нахуя решать какие-то непонятные задачи, которые и не академические, и не прикладные?
#266 #1048993
>>1048530

>Коооо-кококо-кооко нинужно!!111


ты явно не понимаешь как устроена область машинного обучения. вангую ты ни одной статьи на нормальной конференции даже не опубликовал
#267 #1049002
>>1048892
Моя имплементация-то заебись угадывает.
#268 #1049194
>>1048993
Расскажи, какие ещё есть NLP-инструменты в R, которых нет в питоне. У меня просто весь стек, с которым я работаю -- синтакснет, скиптхотс, сиамские сетки, фасттекст -- весь на Питоне, и я хз, есть ли смысл постигать R.
#269 #1049335
>>1049194

>Расскажи, какие ещё есть NLP-инструменты в R, которых нет в питоне.


Я ж сто раз уже написал - на пистоне нет нихуя для LSA, да вообще для всех semantic-space моделей, тематическое моделирование (topicmodels) так же в зачаточном состоянии (вроде что-то есть, но в сравнении с R можно просто считать что нету).
>>1048993

>вангую ты ни одной статьи на нормальной конференции даже не опубликовал


Никак, Пхд закукарекал?
#270 #1049366
>>1049335
import lsalib
#271 #1049372
>>1049366
Не, читать ты все-таки не умеешь. Впрочем, от пистонщика я большего и не ожидал.
#272 #1049448
>>1049335
Так для топик модделинга самый пиздатый это bigartm
И нахуя нужен LSA, если для построения семантик спейс есть модели эмбеддингов, тот же фасттекст?
#273 #1049455
Питоношкольники и р-питухи скоро будут перебираться на божественную джулию
#274 #1049456
>>1049448

>для построения семантик спейс есть модели эмбеддингов, тот же фасттекст?


Есть, да. https://cran.r-project.org/web/packages/fastTextR/ Но я с ним не знаком, даже скажем честно - только что услышал. Я неоднократно упоминал LSAfun как пример того, что мне нужно. Так вот, читаю я описание этого вашего фасттекста, и ничего подобного там в упор не вижу. Только не нужно говорить "сделай сам", там дохуя делать-то надо, зачем мне это если есть готовое решение?
#275 #1049457
>>1049455

>божественную джулию


Хуета из-под кота, например. Там вообще ничего полезного нет, тогда лучше уж сразу на кресты переезжать.
#276 #1049468
>>1049448
Найти, насколько 2 слова близки в семантическом смысле это не проблема, это еще в 80-е решалось картами Кохонена, сейчас кернел методы в моде. А вот как быть с сентенциями, документами и т.д.? Вплоть до автоматического подбора ответов на поставленный вопрос. Фастттекст в такое может?
#277 #1049500
>>1049448
Почитал https://arxiv.org/abs/1607.04606 оно ж только в отдельные слова может. Идея использовать для анализа не целиком слова, а н-ки от 2 до 6 буков внутри слов интересна, но это не то что мне нужно.
#278 #1049512
>>1049468
Для поиска близости коротких предложений обычно используют усреднённые вектора слов; для длинных предложений сиамские сетки и skip-thoughts. Тебе, как я понимаю, надо находить семантическую близость документов, и поэтому ты используешь LSAFun?
#279 #1049519
>>1049512

>Тебе, как я понимаю, надо находить семантическую близость документов,


Не только документов. Разных подмножеств корпуса, между словом и словом, словом и сентенцией, сентенциями, документами, сентенцией и документом и т.д. Допустим, есть слово (пусть какой-то хитрый термин) и есть документ, где объясняется значение этого слова (пусть статья в педивикии). Задача - автоматически выбрать из документа предложение / сентенцию, определяющую заданный термин. В LSAfun можно итеративно сравнить данное слово со всеми снтенциями документа и выбрать подходящюю по наибольшему значению. Мне неизвестно, как это можно сделать другими методами, желательно безо всякого шаманства (я не утверждаю, что других методов нет в природе).

>Для поиска близости коротких предложений обычно используют усреднённые вектора слов;


Среднее по больничке очень редко нормальный вариант, я читал пейпер Mitchell, J., & Lapata, M. (2008). Vector-based Models of Semantic Composition, там сложнее все. Как раз показано, как можно получить семантику множества слов из отдельных составляющих. И все эти методы + некоторые другие реализованы только в одном месте.

>для длинных предложений сиамские сетки и skip-thoughts


Про такое даже не слышал. Есть чо почитать?
#280 #1049575
Я пока не готов к талмуду 900 страничному на ангельском. Есть что-то для вкатывания на курсере какой-нибудь. Желательно на русском.
#281 #1049592
>>1049575
Введиние в машинку от вшэ и яндекса
#282 #1049595
>>1049592
Эх, там питон, а я плюсы хотел. Спасибо, буду заниматься.
#283 #1049625
>>1049455

>божественную джулию


Очередная попытка сделать аналог матлаба. Но проблема в том, что сам матлаб — раковый язык и вдохновившись им можно сделать только кусок говна.

Это как с си-подобными языками, которые стабильно появляются раз в пару лет. Архитектор каждого нового си-подобного языка думает: "ну сейчас-то мы устраним все фатальные недостатки си и все девелоперы перекатятся к нам". Сколько их там уже было? C++, Objective-C, Dart, Swift, Go, D и еще 60 других из списка википедии.

Никаких проблем Джулия не решит, а только наплодит серию недоделаных проектов собранных из костылей и палок.
37 Кб, 695x284
#284 #1049634
господа, я установил вот эту либу из книги на убунту

https://www.scipy.org/scipylib/building/linux.html#debian-ubuntu

В книге есть такой пример. я чота не понимаю, как мне его с либой numpy использовать? просто создал питон файлик и открыл через командную строку а он мне просто гедит открыл. может я чота не там подключаю?
#285 #1049646
>>1049634
Нюфаня, с твоим уровнем понимая происходящего, может стоит сначала почитать какую-нибудь книжечку про юникс сначала? Питон файл он создал лол.
#286 #1049659
>>1049646
ну я нюфаня в питоне (я пхпшник). яж не виноват что там примеры на пайтоне
#287 #1049738
Можно сделать такой видеоредактор, где сидели бы нейроночки и тип рендеринг ускоряли?
#288 #1049892
>>1049738
Делай.
#289 #1049915
>>1036439 (OP)
Пишу с Brain.js. Рейт.
#290 #1049927
>>1049625
Холивары в другом треде. Но
C++ язык ООП Богов, C для функциональных крестьян
#291 #1049928
>>1049915

>JS


От меня бы отказались родители и все друзья.
#292 #1049997
>>1046760
напиши название книги плиз не могу открыть
#293 #1050437
>>1049928

> ЯСКОЗАЛ


Аргументы в студию.
#294 #1050552
>>1050437
Напиши-ка ганчик или генеративную модель через распределение гумбеля. Да хотя-бы LeNet. Ну как? Хорошо на JS? А LSTM нейрончки считаются как? Кайф?

JS - медленная хуйня для макак. Даже R подойдёт лучше, не говоря уже о питоне/lua, для которых написано 90% библиотек и поддерживаются видюхи/tpu из коробки
#295 #1050561
>>1050552
Загугли pix2pix
#296 #1050576
>>1050561
Он на lua написан, крендель
#297 #1050640
>>1049592

>вшэ и яндекса


Яндекс - рекламная параша. Ни во что кроме агрессивного впаривания рекламы они не могут, никогда не могли и никогда не смогут. Говнокод уровня SplitStroku даже индусским называть не хочется дабы не обижать индусов сравнением с этими производителями сладкого хлеба.
>>1049997
Stephen Marsland. Machine Learning: An Algorithmic Perspective, Second Edition
#298 #1050647
1) Эти ваши нейронные сети в состоянии решать простые задачи по типу вопросов iq тестов для аутистов? (пикрил, аля продолжите ряд чисел)
2) Есть ли примеры использования tensorflow для чего-то отличного от задачи классификации? В каждой статье пердолят задроченный mnist. Особенно интересно посмотреть на реализацию RNN для предсказания.
#300 #1050651
>>1050647
1) Могут, без проблем, только дай датасеты.
2) site:github.com tensorflow+RNN+prediction первая ссылка https://github.com/guillaume-chevalier/seq2seq-signal-prediction
Туториалы пишутся для вкатывальщиков, которые mnist посмотрят и сольются. Нормальные люди читают книги, гитхаб и пишут сами.
#301 #1050774
>>1050647

>Эти ваши нейронные сети в состоянии решать простые задачи по типу вопросов iq тестов для аутистов?


Вся эта поебень с машобом и нейроночками умеет делать ровно одну вещь — аппроксимировать функцию по заданным точкам. Больше она делать ничего не умеет и уметь не будет.

Если у тебя есть миллион правильных ответов на миллион тестов IQ, то эта тупая задача тоже будет аппроксимирована. Однако, легко понять, что никакого интеллекта или творчества там нет. Больше всего вся эта область напоминает анекдот:

Студент выходит к доске и рисует идеальный круг.
Профессор: - Как ты это смог сделать?
Студент: - Да, я просто в армии весь год мясорубку крутил!
#302 #1050777
>>1050648

> продолжите ряд


Можно придумать бесконечное число ответов. Например, сайт OEIS сообщает о 41 последовательностях, начинающихся с чисел в первом вопросе, встречающихся в математике:
https://oeis.org/search?q=18,+20,+24,+32&language=english&go=Search

Тесты на IQ, как уже миллион раз обоссано, могут сообщить только одну вещь — насколько близко твои ответы совпадают с ответами автора теста. Какое отношение имеет эта информация к интеллекту не ясно. Не слышал чтобы изобретатели, инженеры или ученые занимались составлением подобных тестов. Обычно этим промышляют выпускники различных кафедр психологии и фрейдизма-юнгизма.
#303 #1050779
>>1050774

>Вся эта поебень с машобом и нейроночками умеет делать ровно одну вещь — аппроксимировать функцию по заданным точкам. Больше она делать ничего не умеет и уметь не будет.


Будто интеллект к этому не сводится.
#304 #1050800
>>1050779

>Будто интеллект к этому не сводится.


Скорее всего сводится. Представим на секунду, что это так. Пусть интеллект человека — это функция от n переменных (пусть каждая n — это один нерв кожи, носа, глаз, ушей, языка и т.д.). А сам интеллект мы аппроксимировали полиномом степени i, с коэффициентами степени j. Но хватит ли нам памяти и вычислительной мощности когда-нибудь для оперирования с таким полиномом? Сомневаюсь.

Посмотрим сколько синапсов в мозге: 1000 триллионов штук.
А сколько в кампуктерах транзисторов (22-core Xeon Broadwell-E5): 7,200,000,000 штук.

Первое делим на второе = 138 тысяч раз. Наконец, транзисторы это не синапсы. Представим, что к 2100 году сделают не огромный калькулятор, а нейроморфный чип типа TrueNorth со сравнимым числом синапсов. Скорее всего и тогда нас ждет обсер.
#305 #1050801
>>1050800

>Пусть интеллект человека — это функция от n переменных (пусть каждая n — это один нерв кожи, носа, глаз, ушей, языка и т.д.). А сам интеллект мы аппроксимировали полиномом степени i, с коэффициентами степени j.


Про что несет... Лень отвечать даже, настолько ты не в теме.
#306 #1050802
>>1050800
Забей, квантовый компуктер всё мгновенно подсчитает.
#307 #1050804
Что то я нихуя не понимаю. Куча видосов каких то дедов из яндекса, мфти, шад и пр., говорящих что никто не понимает как работают нейросети, но при этом если ими будешь пользоваться то будешь кончать радугой. Говорят что это будущее и нужно быстрее прыгать на поезд. Но при этом нет лекций рассказывающих как именно ими пользоваться, что они из себя представляют и не показывают реальную востребованность на рынке труда в таких спецах.
Все это очень напоминает схему 10 летней давности, когда такими же громкими словами обрабатывали школьников, но только вместо слов data science, нейросети и машинное обучение, использовали слова айти и прогромист. Так, вдохновленные своей уникальностью первооткрыватели после последнего звонка массово будут поступать на дорогие факультеты и ходить на платные курсы, а ректора и владельцы курсов будут купаться в золоте.
Так вот, как вкатиться минуя этот заговор сионистов?
221 Кб, 1824x496
#308 #1050807
Рекомендую перечитывать перед сном.
#309 #1050808
>>1050804
Берешь и без задней мысли поступаешь на соответствующую магистратуру, или читаешь книжки, можешь с Бишопа начать. Намекну, это сложная область, видосов с мемами не хватит.
#310 #1050809
>>1050804

>Куча видосов каких то дедов из яндекса, мфти, шад и пр.


Так не смотри хуйню всякую, в чем проблема.

>как вкатиться минуя этот заговор сионистов?


Никак, забудь. Тебе уж вряд ли что поможет с твоим подходом уровня лекций от яндекса и шад.
#311 #1050831
>>1050640
о, спасибо. а то вчера весь день пришлось это читать http://robotics.stanford.edu/people/nilsson/MLBOOK.pdf
а тут не оче понятные формулы и матан.
#312 #1050839
>>1050808
>>1050809
Я хотел в интернете учиться, потому что в универе уже учусь на прогромиста и связывать свое существование только с нейросетями нет желания. Просто ради интереса, посмотреть что это такое и сделать практичный хелоу ворд. Но из 2х лекций что посмотрел на ютубе к делу ни относилась ни одна. Такое ощущение, что там читали вольный пересказ одного и того же текста "какие нейроны ахуенные". Поэтому не знаю с чего конкретно начать.
#313 #1050842
>>1050839
Начни с CS231n. Он маскимально практико-ориентированный. Можешь сразу со второй лекции. В первой маркетинговая вода не по делу.
#314 #1050843
>>1050808

>видосов с мемами не хватит


А кто-то пробовал такое сделать?
#315 #1050846
>>1050839

>Я хотел в интернете учиться,


> Просто ради интереса, посмотреть что это такое и сделать практичный хелоу ворд.


>из 2х лекций что посмотрел на ютубе


А теперь забудь про нейроночки и представь, что таким же методом ты решил разобраться в любой другой (около)математической теме.
#316 #1050848
>>1050846
А почему искусственные нейронные сети не могут сгенерировать нормальный учебник по математике?
#317 #1050861
давайте коннфочку запилим :3
#318 #1050864
>>1050848
Могут. Только для этого есть методы сильно лучше нейроночек.
#320 #1050890
>>1050640
В курсе от яндекса математика очень простая, буквально на пальцах. Для первого раза заходит хорошо, а потом уже можно догоняться нормальными курсами от стенфорда и учебниками.
Еще от ods курс ничего.
#321 #1050903
Посоны, хотел в интернете учиться алгебрической геометрии, потому что в универе уже учусь на прикладного математика и связывать свое существование только с пучками нет желания. Просто ради интереса, посмотреть что это такое и сделать доказательство теоремы Римана-Роха. Но из 2х лекций Вербита что посмотрел на ютубе к делу ни относилась ни одна. Такое ощущение, что он там читал вольный пересказ одного и того же текста "какие алгебраические геометры ахуенные". Поэтому не знаю с чего конкретно начать.
#322 #1050906
>>1050903
Наверное это хорошо, что на дваче сидит столько душевнобольных и дебилов. Они не лезут в другие места.
#323 #1050907
Посоны, хотел в интернете учиться академической гребле, потому что в универе физкультуры уже учусь на тренера и связывать свое существование только с байдаркой нет желания. Просто ради интереса, посмотреть что это такое и сделать 500 метров в лодке К-1 за минуту и 39 секунд. Но из 2х лекций профессора Селуянова что посмотрел на ютубе к делу ни относилась ни одна. Такое ощущение, что он там читал вольный пересказ одного и того же текста "какие окислительные мышечные волокна охуительные". Поэтому не знаю с чего конкретно начать.
#324 #1050949
Что думаете про курсы Техносферы? Те же проблемы, что и у ШАДа? Хотелось бы услышать от тех, кто прошел их двухгодичный курс или около того.
#325 #1050969
Почему любые другие IT-сферы кажутся совсем унылыми после работы над аи-проджектами?
#326 #1050977
>>1050969
где ты умудрился РАБотать над Аи проектом?
https://www.youtube.com/watch?v=O9l5NVIjv94
#327 #1050980
>>1050977
Стартап грузинский.
#328 #1050982
>>1050977
аи-рилейтед имеется в виду.
#329 #1050992
Есть нейронка с "подпиткой" симуляцией "удовольствия" на lua? Ну типа ту нейронку которая DeepMind использует.
#330 #1051017
>>1050992
Открой чакры, сын мой, и откроется подпитка энергией тебе.
#331 #1051022
>>1051017
Я имел в виду:
Есть нейросеть. Когда она все делает правильно, то учитель говорит:это хорошо. И нейросеть старается придумать как этих "хорошо" получить больше.
#332 #1051030
>>1051022
Deep reinforcement learning ты имел в виду. На луа такое вряд ли есть, разве что под torch запилили, в чем я сомневаюсь. Зачем тебе это, пользуйся реализациями на пистоне - openai gym / universe
#333 #1051035
>>1051030
В питон вкатываться... такое.
Посмотрю в интернете, думаю будет библиотека.
#334 #1051167
Что делать с NaN в датасете? Есть во всех столбиках и строках, так что просто дропать нельзя.
#335 #1051169
В /s полтора пердошкольника, напишу сюда. Тут кто-то слесарьплов с поддержкой видюхи ставил?
Ставлю TensorFlow с поддержкой GPU по мануалу отсюда http://www.nvidia.com/object/gpu-accelerated-applications-tensorflow-installation.html все валится с ошибкой на последней комманде из 3го пункта (установка куды, cudnn):
/sbin/ldconfig.real: /usr/local/cuda-8.0/targets/x86_64-linux/lib/libcudnn.so.7 is not a symbolic link

/sbin/ldconfig.real: /usr/lib/nvidia-375/libEGL.so.1 is not a symbolic link

/sbin/ldconfig.real: /usr/lib32/nvidia-375/libEGL.so.1 is not a symbolic link
Абдейт, абгрейд делал (гуглил, там это советуют), все бесполезно. Просто пишет эту ошибку и все. И как быть-то?
#336 #1051217
В шапке нихуя нет, че почитать по нейронкам?
#337 #1051222
>>1051217
Это намек на то что хватит вкатываться.
#338 #1051223
>>1051222
Та я не вкатываться собрался, мне просто интересно, меня устраивает и формочки клепать на js/php.
#339 #1051284
>>1051167
гугли fillna
#340 #1051297
>>1051284
Напихать своих значений я могу и без библиотек.
#341 #1051363
>>1051297
В чём проблема тогда?
#342 #1051388
>>1051363
Во мне. Ненавижу себя.
#343 #1051400
Шапки не будете делать?
#344 #1051401
Шапку не будете делать?
#345 #1051406
Шапку треда буⰟдетеⰁ делать?
#347 #1051462
>>1050949
Бамп вопросу.
#348 #1051471
>>1051462
Техносфера же для студентов МГУ только или нет?
#349 #1051491
>>1051471
Вроде да. Или только для основных техфаков.
83 Кб, 400x300
#350 #1052474

>Техника атаки на системы, использующие алгоритмы машинного обучения


https://www.opennet.ru/opennews/art.shtml?num=47086
#351 #1052509
>>1051416
Лучше сделайте. Иначе появятся два треда: один без шапки, другой без трусов.
#352 #1052541
>>1052509

>Иначе появятся две нитки: одна без шапки, другая без трусов.

#353 #1052635
Неужели в этом треде нет мгушников.
#354 #1052639
Меня очень сильно напрегает, что про теносферу нет ни одного адекватного отзыва в интернете, максимум - обзоры от всяких журналов о том, как круто - биг дата и машин ленинг, 300к/секунду и прочее.
#355 #1052641
>>1052639

>напрягает

#356 #1052645
>>1052639
В правильном направлении мыслишь. А разгадка проста - эта ваша техносфера суть маняпрожект для галочки, яндекс - рекламное агентство, ни во что кроме агрессивной рекламы не могущее (а особенно в МЛ), МГУ - африканское ПТУ для ТП с силиконовыми дакфейсами и мажорчиков на бентлях, преимущественно с монобровью.
#357 #1052658
>>1052639

> теносферу


сначала прочитал тенсорфлоу лол про него тоже нет
#358 #1052738
>>1052645
Насчет всего остального не знаю, поэтому и спрашиваю, но вот это

>МГУ - африканское ПТУ для ТП с силиконовыми дакфейсами и мажорчиков на бентлях, преимущественно с монобровью


точно неправда. Может с остальным ты тоже ошибаешься. Извини, но в таком случае я не могу доверять твоему мнению.
#359 #1052768
У МЕНЯ НЕ СТОЛЬ БУЗУМНАЯ ИДЕЯ
Нейронка на AutoIt3.
#360 #1052776
хочу сделать себе робота со стальным фаллосом, чтобы долбил во все дырочки :3
рейт идею. смогу ли я под нее выбить гранты?
#361 #1052837
>>1052768
Таки да, хорошо для взаимодействия с внешним миром. Можно обучаться на любой хуите.
#362 #1052841
>>1052837
Или там нельзя смотреть видеопамять?
#363 #1052848
>>1052738

>я не могу доверять твоему мнению.


А не надо доверять мнению. Доверяй фактам. Факты ты сам озвучил, выводы тоже сам делай, 1 и 1 сложить не сложно.
#364 #1052854
>>1052848
А какие факты? Я написал, что нет отзывов, это можно списать на то, что место новое, да и если бы там было прямо отвратительно наоборот из всех щелей бы лез негатив, а так непонятно.
#365 #1052855
>>1052841
Можно
#366 #1052879
а если я хочу сайт с нейронкой сделать на пхп, мне как-то питоновские либы туда надо прикручивать или можно прямо на пхп свой велосипед написать? просто оче мало хостингов, поддерживающих питон
#367 #1052885
>>1052879
На похапе есть какая-то либа для МЛ https://github.com/php-ai/php-ml
#368 #1052907
>>1052885
да я знаю эту либу, но она маленькая и единичная, а ведь на питоне есть оче большая либа, которая во всех учебниках приводится, вдруг мне понадобятся алгоритмы из нее.
#369 #1052910
>>1052768
Есть нормальные либы для AutoIt3?
#370 #1052913
>>1052879
юзай flask может?
500 Кб, 944x1195
#371 #1052991
>>1043666
Надо будет добавить сумму.
#372 #1053037
Какие мысли по поводу plot.ly/api/ ?
509 Кб, 944x1323
#374 #1053174
>>1053173
Эх, с плюсами проебался. Вот так правильно.
#375 #1053180
>>1053174
Йобы, соберитесь в ряд!
#376 #1053201
Нужно еще добавить йобу-интеграл и дифференциал.
31 Кб, 781x406
#377 #1053212
Например.
#378 #1053250
Вот тут говорилось, что нейроночки тащат в машинный перевод и вообще NLP сейчас самый топчик. В связи с чем вопрос - чем можно нормально перевести текст с немецкого пусть на английский (про русский и не заикаюсь, хуле уж). Нормально - значит учитывая структуру предложения, семантику там хуе-мое, вот это все, а не просто отдельные слова. Чтобы в итоге не получалось нечитаемого набора слов. Есть такая возможность?
15 Кб, 642x200
#379 #1053258
>>1053250
Гугл переводчик и можешь какое-то ПО для проверки грамматики или еще там что.
#380 #1053260
>>1053250

>чем можно нормально перевести текст с немецкого пусть на английский


https://translate.google.com
http://www.bing.com/translator/
#381 #1053297
>>1053258
Правивильно будет
Wir gehen in DIE Schule
#382 #1053700
рейтаните мой простенький персептрон на php. :3
https://ideone.com/qyao0t
#383 #1053702
>>1053700
ой, там одну переменную надо было поменять
https://ideone.com/Ljtxzy
30 Кб, 126x168
#384 #1053703
>>1053250
дефаин семантика, формально опиши, в чем разница между семантикой и синтаксисом, без упоминания валентности и 10 падежей, ведь это тоже синтаксис, просто неявно выраженный.
В этом собственно одна из проблем.
336 Кб, 800x718
#385 #1053823
>>1053702
С точки зрения программирование - гомно. Я бы начал с написания своей либы для матриц, иначе нечитабельные циклы будут. + константы сразу привыкай прописывать, замучаешься менять же.
Ну, под либой я подразумеваю на коленке сделанные функции или классы. Чтобы основная логика читалось норм. Даже если пилишь оч быструю и грязную реализацию, основные правила лучше не вертеть на хую, себе дороже будет.


Какой левел? Го болтать, пацаны. У меня ощущение, что каждый школьник учит нейроночки. А те, что в Москве, и имеют все шансы на какой-нибудь Яндекс, ебошат на острие науки уже.
250 Кб, 1288x1288
#386 #1053885
Как это делается? Читал про style transfer, нихуя не понял. По сути же там автоэнкодер да?
#387 #1053908
>>1053885
Просто нашли фото похожих людей.
#388 #1053922
>>1053823
Двачую, заебали вкатывальщики. Вот я начал вкатываться до того, как жто было мейнстримом, а смысл?
Алсо писал свою ""либу"" для матриц на jsдаже на тайпскрипте, если это что-то меняет, было дохуя перемножений в секунду, но работало на удивление очень шустро.
первый курс
#389 #1053928
>>1053922

>заебали вкатывальщики


Жопкой уже чувствуешь конкуренцию со школьниками заканчивающими ШАД? Чувствуешь приближающеюся ненужность, отказы на собеседованиях, гнет ебанотеки, вечерние запилы жены про отсутствии денег? На вакансию с зарплатой в 60к уже стоит очередь из студентов с несколькими публикациями? А у тебя еще ни одного препринта?

Вы вкатились слишком поздно. Попробуйте выкатиться.
#390 #1053930
>>1053928

> Попробуйте выкатиться в окно

#391 #1053941
>>1053928
Я тут раньше выкладывал картинку, где какой-то отец обучал четвероклассницу машобу с помощью лекций на ютубе.
#392 #1053943
>>1053941
С одной стороны, ничего внятного по лекция на ютюбе не сделаешь. С другой - человек посмотрит на ютюбе, ему станет интересно, он начнет разбираться глубже.
Говно короче, хуй знает что делать.
#393 #1054249
>>1053823
ой ой ой, я же написал, что это просто максимально простенький персептрон. А то такие как ты для простого действия начинают городить абстрактные фабрики синглтонов из кучи классов и интерфейсов, даже не поймешь, что они делают. Как работает персептрон и самостоятельно набросать его я в итоге смог только прочитав 60 страниц, 59 из которых был ненужный матан.
#394 #1054260
>>1054249
Ой, иди нахуй. Я тебе годный совет дал, а ты не чувствуешь разницы между простенький и хуёвый. Абстрактные фабрики тут не причем. Как ты вот learning rate подбирал? Каждый раз бродил по коду и менял 0.25?
#395 #1054261
>>1053922
Ну заебись, первый курс. Я на первом ещё даже теорвер не прошёл. Ща бакалавра получаю, дошёл только до свёрточных. Ничего, ща ёба проект для диплома заебашу, и вы все соснёте хуев со своим шадом.
#396 #1054284
>>1054261
Что за проект?
У мея вообще 0 идей что для диплома брать.
#397 #1054287
>>1054260

> learning rate


А как его подбирают? Я скопировал из примера в книге, там такой дается, чтобы не сильно большой (даст не корректный результ) и не сильно маленький был (медленно будет обучаться).
#398 #1054288
>>1054284
Чем ваши научники занимаются?
#399 #1054292
млин, я пока в отпуске был и появилось свободное время, решил взять вашу книжечку по ml, накатил питон и NumPy. Как же это интересно боже.

Я теперь не знаю, как на работу возвращаться и опять заниматься версткой 8/5 после такого??

Я чувствую, что на меня даже на работе смотрят, как на зашкваренного питуха (я там один на верстке сижу).
17 Кб, 399x388
#400 #1054293
>>1054292
пепе фрог отклеился
7 Кб, 230x219
#401 #1054302
>>1054288
Откуда мне вообще знать.
#402 #1054306
>>1054292
Какую книжку брал?
#403 #1054315
>>1054306
По ml.
#404 #1054329
>>1054306
там выше скидывали.
ML Marsland
#405 #1054330
>>1054287
Да сам поймешь потом.

>>1054292
Двачу. Аще лень работать.
100 Кб, 794x661
#406 #1054374
>>1054329

>X-Files


Что-то здесь не так.
#408 #1054490
>>1036439 (OP)
Могу ли я на Scheme Lisp заебашить нейронную сеть?
32 Кб, 383x416
#409 #1054510
Как без pygal и pandas (только с помощью matplotlib) сделать такой график?
Есть два списка x, y. В одном названия столбцов, в другом количества.
plt.bar(x, y) выдёт ошибку, видимо потому что x состоит из строк, а не чисел.
sage #410 #1054517
>>1054510
что то типа
plt.hist(y)
plt.xticks(x)
#411 #1054519
>>1054517
TypeError: unorderable types: numpy.ndarray() < str()
sage #412 #1054523
>>1054519
plt.xticks(range(len(x)), x)
#413 #1054524
>>1054523
сажа прилипла
#414 #1054532
>>1054510
на цсс + жс легко.
#415 #1054539
>>1054523
О, спасибо большое, заработало.
#416 #1054575
>>1054490
Да, чому нет. Если придумаешь как читать jpeg в список, то запросто. А ты школьник/первак, дрочащий сиспу?
#417 #1054724
>>1054575
Совсем одурели уже. Кто мне сможет внятно объяснить, как вообще нейросети связаны с jpeg?
#418 #1054729
>>1054724
Да я ебанутый, не обращай внимание. Хотел сказать, просто данные, которые ты будешь учить и предсказывать. Но место данных сразу представил пикчу, и подумол, что сжатые форматы без готовых либ читать заебешься.
#419 #1054740
>>1054575
У меня консольное приложение на лиспе, да и в целом язык нравится. Также повод сикп дочитать.
#420 #1055664
Ребзя, я продолжаю читать кижечку по машобу и там очень много ссылок на смежные работы (персептрон, бэкпропагейшн, классификации и т.п.).
Так вот стоит ли мне все их читать, чтобы въехать в курс дела или лучше пытаться писать свои персептроны, кластеры и алгоритмы?
Наверное, лучший ответ - это совмещение теории и практики. Например, покурить доки NumPy?
Что посоветуете? Скоро выхожу на работу и времени будет мало.
#421 #1056140
>>1055664
Какой смысл что-то без практики читать?
#422 #1056145
Какая нужна математика для понимания книг по вашему машобу? И какие есть ресурсы, чтобы ее выучить? mathprofi хватит или что-то еще будет нужно?
#424 #1056203
>>1056182
Что такое e и почему йобы в фигурных скобках что означают эти скобки? нечеткие? И как понять теорему байеса, я просто совсем не знаком с теорией вероятностей?
#425 #1056213
Привет!
Я достаточно уверенно пишу на Python, классическими алгоритмами.
К современному миру машоба решил приобщиться через адаптацию книги на изображении 1. Уже на первой главе меня встретила математика.
Нужно сказать что я ее порядком не помню, разве что численные методы, которые преподавали в непрофильном техническом ВУЗ. Какие выкладки следует знать? Только матрицы, или еще что-то? Насколько сильно абстрагирование sickit, keras и прочих либ от математики?
Может быть, вам видится другой путь изучения, только, пожалуйста без букваря/азбуки/SICP и прочего в начале.
#426 #1056215
>>1056213
Абстрагирование сильное, просто в учебниках углубляются в детали, чтобы ты знал, что пихаешь в аргументы функций, так что лучше попытаться что-то понимать.
#428 #1056233
>>1056203
>>1056145
бамп вопросам
#429 #1056234
Что лучше для поиска работы на швитом, r или питон?
#430 #1056236
>>1056223
>>1056215
Спасибо за мнения.

>Note that as this post continues, I’m going to use the term “data analysis” as a shorthand for “getting data, cleaning data, aggregating data, exploring data, and visualizing data.”


В его понимании, собственно, я владею анализом данных.
#431 #1056244
>>1056236
В архиве работаешь?
#432 #1056280
>>1056244
Нет, моя работа вообще не связана с компьютерами. Это хобби.
#433 #1056290
Вообще это нормально, что я пропускаю места с мат. формулами в книгах по мл? Я просто не понимаю их, но общие описания принципа работы персептронов там бэк пропагейшн, хидден лэйерс я вроде понимаю.
Алсо мне было бы значительно проще, если бы эти формулы записывались кодом (питоновским). Но вместо этого приводят только названия функций из Numpy, которые реализуют эти формулы.
Зачем так делается? сложна жи
#434 #1056329
>>1056203
Бамп вопросу
#435 #1056330
>>1056290
Зачем в МЛ полез, макака?
#436 #1056331
>>1056330
илитный матиматик закукарекал.
#437 #1056334
>>1056290

>если бы эти формулы записывались кодом (питоновским)


Покопипастить не удается, быдло?
#438 #1056336
>>1056290

>я вроде понимаю


ты думаешь, что понимаешь
#439 #1056344
>>1056336
Тащемо понимать можно на разном уровне.
#440 #1056413
>>1056203
Е - это число Эйлера. Размытые йобы в фигурных скобках - элементы нечеткого множества, элементы множества вообще принято указывать в таких скобках, это стандартная нотация. Теорему Байеса понять очень просто, достаточно подумать над этой формулой. Если в теорвер вообще не можешь - читай Вентцель "теория вероятностей", там все очень подробно, в т.ч. и за Байеса с кучей примеров.
#441 #1056416
>>1056290

>я пропускаю места с мат. формулами в книгах по мл? Я просто не понимаю их, но общие описания принципа работы персептронов там бэк пропагейшн, хидден лэйерс я вроде понимаю.


Наркоман чтоле? Формула алгоритма / его части - это и есть принцип работы этого алгоритма / его части. Как можно понимать принцип, но не понимать формулу - формальную запись этого принципа? Бред какой-то.
69 Кб, 651x676
#442 #1056418
>>1056416
как можно понять эти формулы? какие-то закорючки. Я уже не помню, что такое y, x, k
#443 #1056420
>>1056418
И что тут непонятного? Логарифм, сигма, дельта Кронекера?

>Я уже не помню, что такое y, x, k


Записывай, лол. В тексте 100% написано, что это.
#444 #1056436
>>1056420

>дельта Кронекера


а ну теперь-то стало понятно. только вот для обычного самоучки из пр без мат. подготовки это не понятно.
может какой-то вводный курс по матану перед книжка советовать, который бы расшифровывал эти символы? типа справочника. а то ведь их хз как гуглить
#445 #1056437
>>1056436

>только вот для обычного самоучки из пр без мат. подготовки это не понятно


Нахуй ты нужен, самоучка? Почему в айти столько уебанов, считающих, что без фундаментальной подготовки они здесь что-то смогут? Все равно что хирург-самоучка придет в больницу устраиваться на работу и скажет: "Ну я это, дома хлеб и колбасу резал, значит и людей смогу резать, хуле тут сложного".
#446 #1056442
>>1056437
потому что Мистер Робота посмотрели ;)
вообще что тебе не нравится? могу и хирургом стать при нынешнем обилии мануалов в сети, если я закажу соответствующее оборудование. но это мне не особо интересно. хотя подумываю о приложухах на стыке медицины и кодинга, индивидуальных роботов-лабораторий типа "домашний доктор", но тут у меня пробел в бюджете.

а весь программач - это сборник туториалов по кодингу, почему не запилить туториал по матану, юзающемуся в кодинге? и почему тебя это так злит? мы вообще тут за свободное распространение информации. на вот манифест аарона почитай:

http://www.furfur.me/furfur/heros/manifesto/179919-aaron-swartz
#447 #1056443
>>1056436
ИТТ сто раз жи писалось, что для МЛ ничего сверхъестественного знать не нужно. Матанализ, линал и теорвер на уровне читанных по диагонали любых первых попавшихся учебников/методичек, больше для общего развития, как раз чтобы не впадать в ступор при виде сигмы или той же дельты Кронекера.
#448 #1056445
>>1056413
Спасибо. Теперь где можно подробно прочитать про число эйлера и множества, в том числе нечеткие?
#449 #1056451
>>1056437
Не знаю. Получил заборостроительное, всё пока понимаемо. Но возможно только лишь пока.

>>1056420

>дельта Кронекера


Лол, впервые слышу. Но, бро >>1056418 в твоих формулах нет ничего мутного. Они все чисты и используют самые примитивные математические операции. Поверь, если бы ты немного разобрался, ты бы понял, как со стороны странно выглядишь.
#450 #1056459
>>1056445
Да это легкое, ты бы лучше разобрался с теорией вероятности и теоремой Байеса.
#451 #1056464
>>1056445
Число Эйлера - обычноконстанта. Просто знай её, посмотри график натурального алгоритма. Потом уже на примерах увидишь, как её юзают.

Нечёткие множества - зачем? Пока дрочишь нейроночки, можешь забить.
#452 #1056470
>>1056464
Будет как тни в универе, которые до последнего курса тупят перед доской: как продифференцировать константу.
#453 #1056472

> как понять теорему байеса


Это траленг такой?
#454 #1056473
>>1056470
(C-C)/2*e = 0 Численные методы наше всё.
33 Кб, 354x499
#455 #1056481
Вот в этой книжке есть абсолютно весь матан который нужен для статистики.
#456 #1056485
>>1056481
Здесь только хипстеров нехватало. Где твои конспекты из универа, манюша?
#457 #1056488
Почему просто не выпустить одну версию книжек по МЛ для математиков и вторую для программистов, где все уравнения и формулы описаны кодом?
Зачем заставлять кодеров тратить время на матан, а математиков разгребать код?
#458 #1056491
>>1056485

> нет, хочу жрать конспекты сомнительного качества


Алсо в моих много чего не было.
#459 #1056492
>>1056451
я провинциальную вечерку 11 лет назад заканчивал и по физике, геометрии и алгебре у меня были тройки. причем училки по алгебре всегда издевались надо мной и у меня сложилось довольно негативное мнение об этом предмете.
#460 #1056496
>>1056491
А у меня была гора конспектов. Причем я конспектировал учебники в основном: Кострикина, Кудрявцква и тд. Когда узнал что предки их выкинули, знатно у меня пригорело.
#461 #1056499
>>1056491
>>1056492
Съебите из этого треда, уебища.
#462 #1056503
>>1056472
Да там рассказывают о каких-то печеньках
#463 #1056514
>>1056472
К сожалению, нет.
Я просто пытаюсь в машоб, вот начал с математики.
#464 #1056518
>>1056488
1) Язык математики лучше подходит. Нет, сам подумай, это же бред. Из кода хуй вытащишь смысл формулы. Это полный бред.

2) Таки книги вполне пишутся под программистов, и формулы там простые. А дело в том, что хороший программист есть инженер. И когда он получает вышку, его как минимум надрачивают на типовые задачи, и он чувствует себя комфортно с твоими страшными формулами. Нет, чувак, это бред. Твои формулы зайдут и школьнику без проблем. Разве что вероятностный смысл всяких там softmax будет неочевиден.
А если ты тот пхпшник, то не льсти себе, ты пока что и на программиста не тянешь.

3) ML в идеале для прикладных математиков. Тот же Бишоп грил, что его книга для phd студентов.
#465 #1056527
>>1056518

>Из кода хуй вытащишь смысл формулы.


1) А какой там смысл формулы? Как раз кодом формула гораздо лучше описывается и понятнее.
3) МЛ пишется с помощью кода, значит это для программистов. То, что не хотят писать формулы кодом - т.е. на понятном программистам языку - это проблемы математиков, написавших книгу.
Т.е. специально завышают порог вхождения и стопорят развитие науки, заставляя программистов тратить время на иную дисциплину.
#466 #1056530
>>1056518
>>1056527
На самом деле существует нотация, которая согласно изоморфизму Карри-Говарда одновременно и кудахтерный код и математическая формула. Вот только с той нотации хуеют как 95% математиков, так и 95% программистов. Поэтому пусть уж лучше будет как есть, тем более, что все формулы в МЛ это реально простейшая дискретка, доступная любому птУшнику при минимальном желании разобраться.
#467 #1056531
>>1056527
Даешь квоты для птушников! Долой несправедливость!
#468 #1056532
>>1056527
1) Изначальная задача нахождение весов - задача минимизации функции ошибки. Как ты это запишешь в виде кода? В коде уже применяется численный метод для решение данной задачи. Как ты будешь понимать это по коду?
2) Нет, основа мл - мат. модели. Значит это для математиков. Без формул матмодель не объяснить. По коду ты лишь видишь тупой алгоритм, без понимание, почему он должен работать. Реализаций можно вообще дохуя запилить, тот же SVM.
#469 #1056533
>>1056532
1 - это для дефолтной нейронки пример.
#470 #1056534
>>1056499
Дефайн уебище
#471 #1056536
>>1056496
Нахуя?
#472 #1056538
>>1056536
Что нахуя? Нахуя конспектировал, нахуя выкинули, нахуя пригорел?
#473 #1056540
Нейроночки в js завезли уже?
#474 #1056541
>>1056538
Нахуя конспектировал учебники?
23 Кб, 571x220
#475 #1056543
расшифруйте мне вот эту формулу раз такие умные. Что это за С с хвостиком и n c хвостиком?
#476 #1056546
>>1056543
Что там расшифровывать? Такую нотацию задаёт автор.
#477 #1056547
>>1056541
Чтение дает самый фиговый уровень понимания сложных вещей. Проблема в том что человеческий мозг способен запомнить и узнать даже волосню на заднице рандомного мимококодила. Но узнавание не есть понимание.

Когда угораешь по какому-то делу до такой степени что, если тебя разбудят среди ночи и спросят по этому делу, то ты, не моргнув глазом, начнешь отвечать - это хороший уровень понимания.
#478 #1056549
>>1056547
Читать учебник != понимать. А понимать можно и без конспектирования. В лучшем случае, на временных листках что-то доказать/решить. Вот переписывание учебника точно не даёт понимания.
#479 #1056554
>>1056549
Переписывание != конспектирование. Конспектироване == сжатие информации == выделение главного => ты должен понять, что является главным. Советую еще самостоятельно доказывать максимум лем и теорем из учебников. Можно подглядывать только идею доказательства. Польза от прочитанной книги максимальна, когда ты помнишь содержание и можешь по нему воспроивести в памяти кратко весь материал.
#480 #1056565
>>1056554
Бред какой-то. Вот я читаю книгу. Вот я вижу что-то, что нельзя просто прочитать. Вот я это понимаю. Если готовлюсь к экзаменам - то ок. Но для экзаменов у меня есть конспекты лекций, или методичка. Но ирл мне пригодится именно тот факт, что я прошёл через понимание, и запомнил, где что подглядеть. Смысл выписывать "главное"?
#481 #1056570
>>1056554
Я вот иногда расписываю неочевиднфе мне моменты, но чтобы прям конспектировать.
#482 #1056571
>>1056565
Можешь продолжать в том же духе. Будешь как большинстово хипстеров, способен только чекать, какую из тысяч книг ты читал или нет. Узнавание - оно такое - создает иллюзию знания.

Решение задач, конечно, хороший тест на усвоение материала, и он обязателен, но этот тест не покрывает все случаи. Просто решая задачи из учебника, ты не установишь связи между разными знаниями, которые ты уже приобрел или приобретешь.

Почему-то считается, что преподование лучший способ глубокого понимания предмета.

А вообще я сейчас тоже как ты ленюсь.
#483 #1056584
>>1056532
1. Ну как берешь и записываешь в виде функции с переменными.
2. ой все. ну значит надо брать и для таких как я расшифровывать каждую закорючку в формуле - это сигмоид (ссыль на вики), это весы, это дельта кронекера (ссыль на вики), эта формула делает то-то. а то напишу значение переменных вначале книги, ищи их потом в 400 страницах, чтобы каждую формулу понять
sage #484 #1056585
>>1056584
Он толстиит, я не верю что такие бывают.
#485 #1056588
я пукнула
#486 #1056595
>>1056571
Лолшто? Это не узнавание. Я получаю от книги скиллы, которые могу на практике закрепить решением задач. А вот смысл переписывания якобы главных мест книги - ты не показал. Я вот приемлю это только на временных листах, аналогично с упражнениями.

Про связь знаний - установлю. Что мне мешает? Чем поможет конспектирование?
#487 #1056599
>>1056584
Давай, покажи для той минимизации. Ещё раз говорю, кодят численный метод. Алгоритм кода не отражает модель полностью. А исследуют и работают именно с моделью.

Нет, надо чтобы ты имел базу перед взятием учебника (которая, как тебе уже тыщу раз сказали, очень простая).

Вообще, даже пусть тебя хотят конкретно научить решение персептрона с помощью градиентного спуска. Как ты думаешь, почему код является самым паршивым объяснением алгоритма даже среди кодеров? Почему нужно писать всякие слова, комментарии, пояснения?
#488 #1056600
>>1056595

>Я получаю от книги скиллы


+5 к интеллекту
-15 к скрытности
#489 #1056602
>>1056584
Алсо, какой лвл? Я пытаюсь понять, ты просто птушник или реально школьник, который решил типа маошоб мммммммммммммммммм.
#490 #1056605
Ну вот хотел по-быстрому теорию нейроночек почитать, чтобы понимать, что в тех либах, которые я буду использовать для своего сайтика на нейроночках.
а получается, что мне еще пару лет придется потратить на чтение лит-ры сначала по нейронкам, потом по матану, а сайтик придется отложить на это время. ._.
#491 #1056606
>>1056602

> какой лвл?


16 лвл
#492 #1056609
>>1056602
>>1056492
попробуй посчитай мой лвл, гений математики.
#493 #1056610
>>1056588
Как запах? Нравится или бывало получше?
#494 #1056611
>>1056610
пернула при своем парне. так стыдно ппц
#495 #1056612
>>1056610
Думаешь девочки пукают духами? А ледибои чем?
#496 #1056621
>>1056611
Ну бывает. Если бы ты пернула, делая бурпи или отрабатывая удары в челноке, можно было бы сказать, что рабочий процесс хорошо идет!
#497 #1056624
>>1056605
Еба, какие пару лет, твоя нейроночка это просто составная функция а бекпропагейшн это просто взятие производных, сомневаюсь что для твоего сайта нужно более детальное понимание.
#498 #1056627
>>1056612
Ну я люблю занюхнуть свои пуки. Наименее интересный запах - это когда кишка пустая, а самый вкусный - когда внутри есть немного свежего дерьма или слегка залежавшегося. Свежее дерьмо пропитывает пук ядреным запахом, а лежалое - густым, выдержанным ароматом.
#499 #1056628
Сколько минимум нужно картинок с капчей, чтобы сделать её распознавалку?
#501 #1056650
>>1056540
Да, но там чисто на поиграть.
Что-то серьёзное сделать можно только на python/cpp.
#502 #1056653
>>1056543

>С схвостиком


В голос. Это либо дзета, либо кси. Нотация авторская.

ru.m.wikipedia.org/wiki/Греческий_алфавит
#503 #1056699
>>1056650
Java?????????????????????????????
#504 #1056751
>>1056699
Для рептилойдов.
#505 #1057838
>>1056464

>график натурального алгоритма


проиграл, 6ти калссник учит 6 классника что такое логарифм, экспонента и е.
#506 #1058014
>>1057838
Иди нахуй, я опечатался.
#507 #1063071
>>1043554

> eep reinforcement learning запилить бота, который на бирже всех вертит на хую и рубит миллиарды, то вот это было б годно.


Уже сделали.
#508 #1064230
>>1037045
Двачую реквест
#509 #1065779
#510 #1065780
>>1065779
x[ i ] * w[ i ]
#511 #1065788
>>1050864
Какие?
Тред утонул или удален.
Это копия, сохраненная 26 сентября 2017 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски