Двач.hk не отвечает.
Вы видите копию треда, сохраненную 4 ноября 2016 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
147 Кб, 800x661
740 Кб, 1212x388
148 Кб, 1920x1080
machine learning #7 #817451 В конец треда | Веб
книги
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay. http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy
Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR Sixth Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/
А. Пегат, "Нечёткое моделирование и управление"

другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
https://vk.com/deeplearning и http://deeplearning.net/reading-list/
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
http://videolectures.net/mlss09uk_cambridge/
kaggle.com - весёлые контесты. денежные призы
https://www.reddit.com/r/MachineLearning/wiki/index
http://katbailey.github.io/

яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают

ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.

Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru

Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.

Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.

будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп.

смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.

нужна математика?
для начинающего ничего особого знать не нужно

поясните за нейроночки
нейроночка - массив

Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
#2 #817496
Весь айти это хайп.
>>817514
77 Кб, 750x682
#3 #817514
>>817496
бля, и правда же
расходимся, хайпаны
#4 #817602
Второй пик не понял. Что это за символы?

Кроме шутки про R конечно.
>>817784>>819285
#5 #817784
>>817602
это иллюстрация эволюции подхода к статистическому выводу у приматов
например, первые шерстяные обезьяны умели работать только с априорными распределениями вероятности
более продвинутые человекообразные безшерстяные приматы уже могли генерировать данные используя заданные параметры модели
на данный момент пик развития - вывод распределения параметров модели по наблюдаемым данным
>>819285
#6 #817867
Котаны. Я знаю с++ на уровне шаблонов, ооп, stl, умных указателей, перегрузок и прочего говна осваиваемого за месяц.
Как вкатится? Буду использовать шинду, не хочу и вряд ли хватит терпения перейти на новую ОС.
Что почитать чтобы с нуля как дебилу объяснялось?
И

> нейроночка - массив


Что это значит? И что по нейронкам почитать?
>>817973>>818209
#7 #817973
>>817867
Для начала напиши нейроночку на шаблонах, чтобы во время компиляции тренировалась.
>>817974
#8 #817974
>>817973
Хорошо пошутил.
212 Кб, 996x1024
#10 #818231
Это сообщение предоставляется только для тех читателей, которые любопытно Теория выборки / байесовский методы дебаты. Если вы обнаружите какие-либо из этого поста трудно понять, пожалуйста, пропустите его. Там нет смысла пытаться понять дебаты. Просто используйте байесовские методы (они гораздо легче понять, чем сами дебаты!)
#11 #818606
Посаны, посаны, а кто-то прикидывал, сколько слоев нужно будет в сети заделать, чтобы сеточка очень качественно переводила с одного языка на другой?
#12 #818674
>>818728
#13 #818728
>>818674
так на видюшках под 200 слоев делают и чет не видно пока переводов нормальных.
>>818741
#14 #818741
>>818728
при чём тут вообще слои-то?
>>818606
>>819075
#15 #818812
>>818606
Параллельных текстов мало, а не слоев.
>>819077
#16 #819075
>>818741
Ну в распознавании графических образов получается чем больше слоев - тем лучше распознает. Каждый новый слой - новое правило(условие) в распознавании. Т.е. тебе не приходится искать эту закономерность самому, а алгоритм оптимизации ее сам найдет.
#17 #819077
>>818812
Вот это похоже на правду. И щас кто-то занимается их составлением? Или слишком много их нужно?
>>819309
#18 #819285
>>817784
>>817602
а я шутки про R не уловил, разви это не стандар для биг даты и мл?
>>819318
#19 #819309
>>819077
Роботы поисковиков ходят по интернету и помимо индексации ищут параллельные тексты, есть методы. Или ты думал почему сейчас этим занимаются гуглы да яндексы? У них мощности есть. А качество можешь сам оценить.

Параллельные тексты сейчас это
а) Художественная литература. Очень хуево, потому что художественный перевод не дословный, даже порядок предложений местами меняется.
б) Различного рода мануалы к стиральным машинкам и софту - язык совершенно особый.
в) Новости - самое норм, но, опять же, это не бытовой язык, и контента оче мало. Там, где дохуя (например, русско-украинская языковая пара), переводы качественные.

Человек делает это лучше, потому что понимает смысл текста. Т.е. преобразование идет не напрямую текст-текст, а в некоторое промежуточное представление, а далее из этого представления генерится переведенный текст. Но для понимания смысла нужны нейроночки совершенно другого рода - например, умеющие отвечать на вопросы.
#20 #819318
>>819285
ща вроде перекатываются на пестон.
>>819536
27 Кб, 400x366
#21 #819533
>>817451 (OP)

>нейроночка - массив


Зависимый тип.
#22 #819536
>>819318
На пистоне по ML нет нихуя по сравнению с R. Только диплернинг, xgboost, всякий рандомфорест и прочие школоалгоритмы, которые и вне пейстнона есть на каждом углу, не говоря про R.
#23 #819547
>>819536
Дебилы блядь. R для статистического анализа. Если вы готовы часами/днями жечь электричество в ожидании результатов - флаг в жопу.
>>819549
#24 #819549
>>819547

>R для статистического анализа


Как там, в 1996? https://cran.r-project.org/web/views/
#25 #819562
>>819536
Нормальные люди пользуются Scala/Java, так что вы оба соснули с проглотом.
>>819566
78 Кб, 858x570
#26 #819566
>>819562

>Scala


>Java,


>для ML


>Нормальные люди


Даже слов нет.
>>821419
#27 #819596
Вы ебанулись. R и Java/Scala будут выдавать производительность в сотни раз меньше, поскольку все фреймворки для machine learning пишутся на плюсах/CUDA и портируются затем только на пайтон и плюсы за редкими исключениями.
>>819608
#28 #819599
>>819536
А в яндексе и гугле вот пистон юзают, а не R
>>819608
#29 #819608
>>819596

>все фреймворки для machine learning пишутся на плюсах/CUDA и портируются затем только на пайтон и плюсы за редкими исключениями.


В массе своей ничего никуда не портируется, сам код как есть на крестах/куде, так и остается, на пистонах или R там только враппер.
>>819599
Во что больше индусов может, то и юзают, очевидно же.
>>819609
#30 #819609
>>819608
Хочешь сказать, что в самом гугле работают "индусы"? Не путай с аутсорсом.
>>819613
54 Кб, 500x500
#31 #819613
>>819609

>Хочешь сказать, что в самом гугле работают "индусы"?


А ты хочешь сказать, что нет? Автор так до сих пор и не вышедшей книги по TensorFlow пикрелейтед - индус.
>>819616
#32 #819616
>>819613

>Во что больше индусов может, то и юзают, очевидно же.



В данном контексте индус рассматривался, как быдлокодер, так, что не виляй.
>>819619
#33 #819619
>>819616
Лол, ты не в курсе, откуда взялась традиция называть быдлокодеров индусами?
#34 #819621
>>819619

Ну очевидно в гугле работают не быдлокодеры.
#35 #819622
>>819619

>Лол, ты не в курсе, откуда взялась традиция называть быдлокодеров индусами?


расизм?
>>819631
#36 #819627
>>819536
ты совсем дурачек, да?
http://scikit-learn.org/stable/
>>819631
#37 #819628
>>819619
Среди них это распространено, и там еще фишка, что чем больша кода, тем больше денег, вот они и пишут бредовые конструкции по типу сделать 10 присваиваний вместо цикла.
#38 #819631
>>819622

>расизм?


Нет, статистика.
>>819627
Все так как я и сказал же, полтора алгоритма. Сравни это с почти 9000 пакетов для R.
>>819635
#39 #819635
>>819631
ну приведи пример алгоритма, которого нет в сциките и который есть в R.
>>819637
#40 #819637
>>819635
Смеешься? В R по одним байесовским методам десятки, если не сотни алгоритмов. https://cran.r-project.org/web/views/Bayesian.html обзор самого основного. Сцикит этот ваш примерно равен 1-2 пакету R для ML.
>>819641
#41 #819641
>>819637
pyMC & pomegranate это та часть баесовских методов, которые нужны в ML. С остальным говном иди к статистикам, ебаный свидетель баеса.
>>819646
#42 #819646
>>819641
Лол, "нинужно". Ну кот бы сомневался. Ладно, раз школьник яскозал, то так и есть. Там еще SVM фигурирует, поди 3-4 основных варианта, да? https://cran.r-project.org/web/packages/kernlab/index.html целый конструктор кернел-алгоритмов, помимо кучи готовых вариантов, можно самому прописывать свои кернелы и многое другое. Потом, что там было? Кластеризация? https://cran.r-project.org/web/views/Cluster.html обзор основных пакетов.
#43 #820049
Есть ли курсы по МЛ на русском языке?
Да, да, обоссыте. Гуглить не умею, в английский не хочу.
Но я точно знаю, что есть, правда на курсере только какая-то платная параша.
>>820086>>820186
#44 #820086
>>820049
Есть. На хабре поковыряй бложек яндекса.
Но с таким отношением тебе только хуй сосать, а не ML себе в жопу тыкать.
>>820198
2 Кб, 170x154
#45 #820186
>>820049

>курсы по МЛ на русском языке


Наверное, есть и на таджикском. Вот только зачем? Вся литература кроме 3,5 переводных изданий по этой теме на английском. Весь софт вместе со всей документацией к нему на английском. Если захочется общения/возникнут вопросы к авторам, вся тусовка англоязычная. И так далее.
#46 #820198
>>820086

>хуй сосать


>в жопу тыкать


а в чем тогда разница?
>>820213
#47 #820213
>>820198
Очевидно, в месте, с которого ты начнёшь заполнять экзистенциальную пустоту.
43 Кб, 561x556
#48 #820420
Итак, ИТТ мы выяснили, что вообще всё, что на пиструне есть по ML, примерно на уровне пары пакетов для R. Более того, есть и более серьезные расстановки точек, чем дискуссии на этой параше, https://www.r-bloggers.com/more-data-scientists-prefer-r-survey/ например, пикрелейтед, http://www.burtchworks.com/2016/07/13/sas-r-python-survey-2016-tool-analytics-pros-prefer/ и т.д. Так откуда, из какой школы есть пошел форс пистона как якобы стандарта в датасаенс?
#49 #820433
>>820420
R, как и слово "датасаенс" - это недавно выплывшие хипстерские баззворды, причем одно тянет за собой другое. А здесь machine learning тред и пожалуйста без этой аналитической параши. Аналитики и эксель предпочитают, и хули.
>>820440
#50 #820440
>>820433
Так про ML и речь. Вчера еще выяснили, что на пистоне алгоритмов ML реализовано хуй да нихуя по сравнению с R. Предыдущий оратор, правда, сказал что и нинужно.
>>820460
#51 #820446
>>820420
SAS, кек. Мож еще эксель посчитаем, он там всех порвет.
R умер, да здравствует Питон.
>>820449
#52 #820449
>>820446

>R умер,


Потому что так сказал школьник с подтирача?
>>820450
#53 #820450
>>820449
Большего и не надо.
Мы все мертвы вместе с этим тредиком.
#54 #820460
>>820440
На питоне реализовано ровно то, что нужно, а на R - тонны невменяемого говна из левых пейперов.
>>820466
871 Кб, 2480x3508
#55 #820462
только мои пять копеек:

Я использовал R для нескольких крупных проектов. это отстой несколькими способами для проектов я работал на:

1. крайне медленно для числовых значений. медленнее, чем MATLAB. медленнее, чем Python (с NumPy). после разговора с несколькими людьми статистике, кажется, в значительной степени все заканчивается тем, что писал большую часть своего кода в C при использовании R. (в отличие от этого, я не нашел это необходимым в Python или MATLAB для аналогичных проектов.)

2. его синтаксис довольно неуклюжим. хотите соединить две строки? макаронные изделия (string_a, string_b, отд = ''). Рэдфорд уплотнение имеет ряд постов в блоге на недостатки дизайна R в: HTTP: //radfordneal.wordpress.com/2008/09/21/design-flaws-in -...

3. неинформативные сообщения об ошибках. по умолчанию, трассировки стека не печатается. даже если это, часто ошибки на самом деле не сказать вам, что пошло не так.

я не вижу каких-либо преимуществ для R над питона. выход делает хорошую замену для ленивых оценки R.
>>820464
#56 #820464
>>820462
Ты текст через машинный перевод прогоняешь что ли?

Подмножество Matlab умеет компилироваться в C с помощью matlab coder. И это киллерфича на самом деле. Но и то в основном для аналитики и обработки сигналов. А для ML лучше питона не придумали.
>>820469
#57 #820466
>>820460
"Нинужно" уже было, как говорится, вчерашняя хохма уже не хохма.

>тонны невменяемого говна из левых пейперов.


Опять же, школомаксимализм тоже уже был. Согласись, если лично ты не знаешь за какой-то алгоритм, это вообще никак не доказывает что этот алгоритм "невменяемое говно из левого пейпера".
>>820486>>820530
19 Кб, 200x256
#58 #820469
>>820464

> Ты текст через машинный перевод прогоняешь что ли?


ну да

> А для ML лучше питона не придумали.


юляша > пиздон > Rговно
>>820470>>820475
#59 #820470
>>820469
Юляша уже научилась REPL в дебаггере запускать? Я сомневаюсь, потому что как работает LLVM-JIT примерно представляю.
>>820478
#60 #820475
>>820469

>юляша > пиздон


Откуда вы лезете?

>юляша


Там вообще хоть что-то полезное есть?
>>820476>>820478
#61 #820476
>>820475
Система типов там полезная.
>>820477
#62 #820477
>>820476
Зависимые типы штоле? В прошлом треде говорили, что нинужно это в ML.
>>820482>>820483
#63 #820478
>>820470
https://github.com/Keno/Gallium.jl

>>820475

> Там вообще хоть что-то полезное есть?


Откуда вы лезете?
>>820480>>820481
#64 #820480
>>820478
И что это?
#65 #820481
>>820478
Смотри. Я хочу встать на точке останова, взять текущий стекфрейм и, допустим, вывести график какого-то массива в виде мультика. Так можно?
>>820487
41 Кб, 600x450
#66 #820482
#67 #820483
>>820477
Нет, это динамический язык в котором можно опционально проставлять типы для очень быстрого JIT. Грубо говоря, преставь крестовые темплейты в рантайме (которые работают в рантайме за счет JIT-компиляции). Это система типов Julia.
#68 #820486
>>820466
Если с аргументом тебе неудобно спорить, это не значит, что он не состоятелен. Большая часть таких методов - это вещи уровня "а вот мы ебались полгода и улучшили показатели в такой-то задаче при таких-то условиях на 0,05% по сравнению с SVM". Наука-то, может, и вперед идет, но на деле никаких новых чудес такой метод не дает, проще больше данных наебенить, чем сидеть и рассматривать эти методы. И scikit learn содержит только лучшее, и при этом в виде консистентного интерфейса. Короче, python - это как мак, а R - это как линукс. Причем оба бесплатные. Одни работают, другие пердолятся.
#69 #820487
>>820481
ладно да, с дебагом не очень
но так-то ведь всё збс)
>>820490
#70 #820490
>>820487
Вот поэтому я ебусь с ворованным матлабом :( Даже для питона не нашел нормальной IDE (хотя и не искал особо), а уж Julia с JIT принципиально ограничена и ближе к С++ по look and feel разработки.
>>820494>>820499
#71 #820494
>>820490
PyCharm
Хотя мне, как человеку частично связанному с сигналами, проще работать с матлабом.
168 Кб, 1906x988
#72 #820499
>>820490
Так можно в pycharm.
>>820502
#73 #820502
>>820499
Что за расцветка от Васяна?
>>820508
#74 #820503
начали читать Introduction to Statistical Learning , блять я до 40 стр. дочитал и почти нихуя не понял, а это блять Introduction! Что за ебанутые формулы берущиеся с неоткуда? Откуда их взяли? Это нормально вообще так тупить или вы сразу вдуплились в эту книгу? я уверен что большинство из здесь седящих читали её мб матан подучить, если да то что именно?
>>820506>>820507
#75 #820506
>>820503
В ISL никакого матана нет, родной.
>>820510
#76 #820507
>>820503
где ебанутые формулы?
всё должно нормально выводиться или это просто определения
>>820510
#77 #820508
>>820502
По умолчанию такая, Darcula.
>>834487
107 Кб, 834x537
#78 #820510
>>820507
>>820506
а что это? как это понимать? что это значит? это при чем одна из таких формул котрые раз 20 встречались, нихуя не понятно ведь
>>820520>>820524
#79 #820520
>>820510
это вероятность того что х0 принадлежит классу j
алгоритм берёт К ближайших точецк к x0
сумма даёт вероятность для конкретного класса j
I(true) = 1
I(false) = 0
>>820523
#80 #820523
>>820520
спс, но мой вопрос скорее нормально ли то что я этого не понимаю, даже после того как ты разжевал я еле понял как все это работает ибо в каком то треде по ML в шапке было написано мол в этой книге всё разжевано, но я и половины не понимаю
61 Кб, 1344x444
#81 #820524
>>820510
Все расписывают же, там даже картинка дальше есть из которой должно стать понятным всё.
Слева: вероятность класса j из распределения Y для точки x0 из распределения X.
Справа: взять K точек около x0 и посчитать сумму значений индикаторной переменной, деленную на К.
Т.е. вероятность класса j для точки х0 при произвольном К будет равна количеству рядом лежащих точек с классом j, деленное на K.
>>820532
#82 #820530
>>820466
Тибе ж бамбит, паринь. Это потому, что ты и сам знаешь, что Р мертв, но изучать что-то новое ты неспособен.
#83 #820532
>>820524
а что это за дата сэт вообще, откуда берётся эта вероятнось, предыдущие примеры с зарплатой были более понятные но тут даже ничего абстрактного нету, просто вероятность что в том или ином месте точка будет синей или желтой и ещё есть граница где эта вероятность 50%, где такое вообще на практике применяют? Зачем? Мб начать заново читать эту книгу, хотя боюсь что все равно ничего не пойму
>>820542>>820548
#84 #820542
>>820532
Применяют для классификации, внезапно.
>>820545
#85 #820545
>>820542
классификации чего?
>>820564
#86 #820548
>>820532
Тебе объясняют как работает k-means classifier. Все алгоритмы так "абстрактно" работают — сопоставляют заданной точке из дата сета какой-либо класс или число.

>откуда берётся эта вероятнось


Алгоритм её считает. Алгоритму дают произвольную новую точку, заданную вектором параметров, алгоритм выдает вероятность принадлежности её к классу.

>где такое вообще на практике применяют?


Ну, ты подставь вместо цветов классы из реальной задачи, а по осям отложи любые параметры. Синие кружочки товар купили, желтые не купили.
>>820557
176 Кб, 1500x1566
#87 #820550
следующая волна хайпа будет связана с гауссовскими процессами
новoмодные библиотеки и фреймворки будут реализованы на языке программирования "юляся"
глубокие нейронные сеточки уйдут на второй план
#88 #820553
>>820550

>гауссовскими процессами


В двух словах суть?
Тут кидали блог тётки, но читать лень.
>>820560
#89 #820557
>>820548

>заданную вектором параметров


сори за очередной тупой вопрос но какой ещё вектор, ни слова о векторе не нашел в том параграфе
>>820562>>820566
30 Кб, 800x600
#90 #820560
>>820553
безпараметрическая бейсовская модель с кернелами
тренировка - обращение матрицы грама
>>820561>>821573
#91 #820561
>>820560
Intrinsic Gaussian Markov Random Field?
144 Кб, 1000x800
#92 #820562
>>820557
вектор - массив
#93 #820564
>>820545
Любого множества точек. А виде множества точек представимо вообще все что угодно.
173 Кб, 755x496
#94 #820566
>>820557
Датасет задан набором векторов (строк). Вектор — n-мерный массив, n — число параметров (фич). Каждый вектор задает точку в n-мерном пространстве. Потом для этого пространства задается метрика — функция, которая берет две точки и выдает расстояние между ними. И так далее.
Чтобы понять про что это, можешь посмотреть как делают классификацию текстов.
>>820571
#95 #820570
>>820550

> на языке программирования "юляся"


А как же симит?
>>820576>>820581
#96 #820571
>>820566
тогда если я правильно понял, на твоем пике ветора это ТВ и радио которые задают крассные точки, а метрика(функция) это синезелёный квадрат?
>>820582
298 Кб, 1500x1566
#97 #820576
>>820570
за антисимитизм будет смертная казнь
как преступника, так и его семьи
#98 #820581
>>820570
Захайпленное говно, без нихуя. Никаких преимуществ перед Юлей кроме хайпа нагнанного именем "МИСАЧУСЕСКЕЙ ИНСТЕТУТ ТИХНАЛОГЕЙ" не имеет.
#99 #820582
>>820571
Вектор — это точка, то есть массив значений параметров. ТВ и радио — параметры, точки задаются векторами вида [значение ТВ, значение Радио]. Метрика нужна для определения расстояния между двумя точками, в обычном случае берется евклидово расстояние из школьной программы. Синезеленый квадрат — это то, что тебе выплевывает алгоритм, плоскость или поверхность, которая, как предполагается, отображает что-то в исходных данных и может использовать для предсказания новых значений.
>>820590
#100 #820590
>>820582
то есть вектор это всего лишь точка с значениями параметров? Просто насколько я помню вектор это направление или отрезок, тогда выходит вектор в МЛ это массив со значениями? Поправь если не прав
>>820595>>820826
219 Кб, 542x890
#101 #820595
>>820598>>827394
#102 #820598
>>820595
ок, спс
#103 #820664
куда пихнуть .data файл для R на линуксе что б открыть через read.table
>>820666
#104 #820666
пох, уже открыл указав полную деректорию вместо одного названия фала, хотя было б неплоххо узнать все же куда пихать что б открыть не указывая полную деректорию
>>820664
>>820670
#106 #820674
>>820670
спс
#107 #820695
>>820550
Рассказывай о их достижениях.
>>820700
#108 #820700
>>820695
их нет
#109 #820826
>>820590

>Просто насколько я помню вектор это направление или отрезок


Вектор можно рассматривать как направление от начала координат до точки, указанной в массиве.
#111 #821388
Поясните плиз вкратце что такое bias второй раз перечитываю страницу так и не понял.

>As a general rule, as we use more flexible methods, the variance will


increase and the bias will decrease
Если это, насколько я понял, степень наклона графика, то почему более гибкие методы выдают меньшый bias?
ISLR стр. 36
>>821409
43 Кб, 1016x499
#112 #821409
>>821388
Думай об этом в терминах overfit/underfit.
Bias -- ошибка от того, что извлек из данных грубую модель, слабо чувствительную к твоей выборке. Underfit.
Variance -- ошибка от того, что приложил извлек нежную модель, очень чувствительную к твоей выборке. Overfit.
Гибкие методы соответственно могут легче сделать overfit и выдать большой bias, ригидные могут сделать underfit и выдать большой variance.
см. пикрелейтед гибкое vs негибкое
>>821431
#113 #821419
>>819566
По делу есть что сказать? На жабе огромное количество инструментов для бигдаты написано и для машин лёргнинга, а всё, что написано для жабы, написано и для скалы.
Рка же - ограниченная хуета и отомрёт из-за питона и Джулии в будущем. У пестона возможностей мало по сравнению со скалой/Джулией.
#114 #821420
>>820420

>пестон - стандарт для датасцаенс


Это где ты такое услышал? Стандарт для даты - это скала.
#115 #821431
>>821409
Спс, вродь понял что такое bias, но вот насчет твоего примера не пойму, разви variance это не несоответствие графиков в разных дата сетах? Почему тогда грубые (ригидные) методы выдают большой variance, в книге наоборот написанно что большой variance выдают гибкие методы, а у линейного спада variance маленький
>>821441
#116 #821441
>>821431
Я обосрался.

>Гибкие методы соответственно могут легче сделать overfit и выдать большой variance, ригидные могут сделать underfit и выдать большой bias.


Алсо, вот вроде понятное из вики:

>The bias is error from erroneous assumptions in the learning algorithm. High bias can cause an algorithm to miss the relevant relations between features and target outputs (underfitting).


>The variance is error from sensitivity to small fluctuations in the training set. High variance can cause overfitting: modeling the random noise in the training data, rather than the intended outputs.

77 Кб, 852x946
#117 #821449
точечные оценки сломают вам жизнь
все проблемы с оверфиттингом/выбором моделей можно решить маргинализируясь над постериором и грамотно применяя теорему бейса
алсо бейс выводит оптимальные значения гиперпараметров прямо из данных, без пердолинга с кросс-валидейшеном
>>821451>>821573
41 Кб, 400x400
#119 #821452
>>821451

> вексельштейн


шалом!
>>826777
#120 #821481
>>821275
Крутой блог, спасибо.
28 Кб, 604x403
#121 #821573
>>821449
>>820560
>>820550
А потом может быть до кого-нибудь дойдет, что теорема бейса - частный случай своего более общего нечеткого варианта. Или не дойдет, что скорее всего.
>>821582>>821590
#122 #821582
>>821573
Обоснуй.
>>821583
#123 #821583
>>821582
Что обосновать?
>>821584
#124 #821584
>>821583
За базар.
>>821587
#125 #821587
>>821584
Обосновывал уже. Вероятность сводится к множествам, бейс - к нечеткому бейсу. http://sipi.usc.edu/~kosko/Fuzziness_Vs_Probability.pdf Местные школьники ответили "ко-ко-коско" (см. оп-пик 2). Причем, все это на фоне кукареканий, что а бейс-то оказывается годнота и даже будующее ML (см. выше). Наркоманы.
#126 #821590
>>821573
Нечеткое множество неопределенности измеряет совершенно различное количество, чем вероятности и ее меры неопределенности, как функция Хартли (для неспецифичностью) или энтропией Шеннона. Нечеткость и неопределенность вероятностная не влияют друг на друга вообще. Есть целый ряд мер нечеткости доступных, которые количественно оценить неопределенность в границах измерения (это по касательной к неопределенности измерений, обычно обсуждаемых на CrossValidated, но не идентичны). "Пушок" добавляется в основном в тех случаях, когда было бы полезно рассматривать порядковое переменную как непрерывным, ни один из которых имеет много общего с вероятностями.
>>821622
#127 #821622
>>821590
Ебал её рука с форчана, мы знаем.
6 Кб, 885x108
#129 #821767
>>821750
Всего-то 129к далларов))) Зато глубокие нейроночки будут сходиться по 1 месяцу, а не по 3 года.
>>821776>>822337
#131 #821885
Слыште, вы, уебки, почему в шапке нет БОЖЕСТВЕННОГО https://www.coursera.org/learn/machine-learning?
>>821893
#132 #821893
>>821885
Потому что в книгах в шапке это всё изложено гораздо пизже. А этот курс годится разве что помощникам слесарей.
>>821982
#133 #821982
>>821893
Хорошо, тогда какую бы ты книгу посоветовал тому, кто не знает логической регрессии, градиентного спуска и т.д., а знает только как программировать?
Какую бы я книгу не открывал, обычно там сразу в лоб, без объяснений, рассказывают о нейросетях и предполагается, что тот кто читает знает что такое логическая регрессия, overfitting, underfitting. Я когда читал эти книги, я просто ничего не понимал. А в этом курсе мне все разжевали, а я просто доел. Очень он хорош для того, чтобы вкатится в ml. После него стало намного понятнее, что в этих книгах происходит.
>>821988>>822006
#134 #821985
http://rgho.st/8g68fTCSx
Добавьте в шапку две брошюры по deep learning для слесарей.
>>822008
#135 #821988
>>821982
Introduction to Statistical Learning, An Elementary Introduction to Statistical Learning Theory
>>822008
#136 #822006
>>821982
бишоп и маккай - лучшие вводные тексты без особых требований к читателю
грамотно разжёваны все важные темы, типа вариационных методов и гауссовских процессов, параллельно уринируя на классико-и-нечётко-питушков
от всего тредика рекомендуем эти книги, не даром же они в самом верху шапки!
#137 #822008
>>821985
>>821988
>>822006
Спасибо, мужики, от души. Долго искал книги для чайников, нашел только тот курс. Ну, теперь буду обучаться. Храни вас Бог.
>>822180>>822567
32 Кб, 711x560
#138 #822009
кому мы сегодня пощекотали очко?
А. нейро-школоте
В. классико-даунам
С. нечётко-питушку
D. R-макаке
#139 #822010
>>822006
>>822009
Поясните уже за все локальные мемесы, заебали своими петушками.
>>822022
#140 #822014
>>822009
Бля, месяц был в деревне. Что за классико-дануы? Пидоры с точечными оценками? Частотнобляди?
#141 #822022
>>822010
нейро-школота - очевидные пидоры, прикатившиеся сюда из-за хайпа с глубинкой, которые хотят объяснения нейроночек на пальцах. Один такой охуел сюда с вопросом: "Нероночка - это что просто массив?"

нечётко-питушок здесь унижается с самых первых тредов, кукарекает что-то про оптимальность, коско и нечёткого Байеса, не показывая сколько-нибудь охуительных результатов в ML на основе нечёткой логики. Копипастит свои посты из треда в тред, на что часто в ответ получает пасту от Байесионистов про маргинализацию постериоров с минимизацией KL-дивергенции.

R-макака возникла здесь хуй пойми каким боком, вещая про стандарты ЯП в дата сцайнсе. Посылаем фанатиками пиздонистами. Но мы то в /зк знаем, что все эти споры про молотки для долбоёбов, школьников и троллей.

А вот про классико-даунов чот сам всё пропустил.
#142 #822031
>>822022
ещё намечается зависимые-типы-гребешок, с формальными нейроночками на идрисе или что у них там
>>822034
#143 #822034
>>822031
и с тренировкой во время компиляции ох лол
>>822374
#144 #822036
>>822009
>>822022
Шагоход ещё куда-то исчез. Чем там всё закончилось? Напомните, датаны.
#145 #822179
>>822022

>Один такой охуел сюда с вопросом: "Нероночка - это что просто массив?"


Лол, ньюфаг.
#146 #822180
>>822008
ml-class.org в разы лучше этих книг. Просто тред сам по себе захвачен слесарями, которые пытаются сделать вид, что они не слесари. Отсюда и комплексы.
>>822327
60 Кб, 420x433
#147 #822327
>>822180

> ml-class.org


> Linear Algebra Review


> Linear Regression with One Variable


> Octave/Matlab Tutorial


> курс не для слесарей


твой вскукарек заслуживает ехидной ухмылки жёлтого блинчика))
>>822384>>822415
#148 #822336
>>817451 (OP)

> нейроночка — массив


Ну нихуя себе поскроллил /pr/.
#149 #822337
>>821767

>in select countries


Угадай, входит ли сраная в их число.
#150 #822374
>>822034
На крестах сейчас можно на constexpr все зделоть, даже не напрягаясь с шаблонами. Просто пишешь обычный код, помечая все constexpr'ами, и засовываешь тренировочные данные в код опять же constexpr'ом, и натренируется при компиляции без проблем.
>>822381
#151 #822381
>>822374

> срать, не снимая свитер



А как выборку в compile-time загрузить?
>>822398
1313 Кб, 350x197
#152 #822384
>>822327
Разве не нужно разбираться как оно вообще внутри работает, чтобы понимать как лучше делать? Или это не про МЛ?
мимокрок
>>822394
678 Кб, 1032x724
#153 #822394
>>822384
нахуя?
from theano import *
a ботаны пускай дрючат свои формулки))
>>822396>>823515
#154 #822396
>>822394
жизаа))
#155 #822398
>>822381
Никак, грю же в код вбивать надо:
constexpr double input[][] = {и поехали};
#156 #822415
>>822327
Не пытайся делать вид, что ты не слесарь. Новых методов ты не разрабатываешь (да и нахуй они не нужны сейчас). Поэтому разница между книжкой и ml-class в одном, ml-class помогает быстро ухватить суть и далее читать документацию по конкретным методам. А книжки твои... это уровня типичного "повторения документации", когда автор хуевой книжки по языку программирования тупо перечисляет методы. Налита куча воды, а толку - ноль.
>>822422>>822423
#157 #822417
На реддите рекомендовали курс Нанды https://www.cs.ox.ac.uk/people/nando.defreitas/machinelearning/
Чо скажите?
>>822420
#158 #822420
>>822417
Lecture 7: Logistic regression
Lecture 12: Recurrent neural networks and LSTMs

Галопом по европам.
>>822421
#159 #822421
>>822420
Чо тебе еще между ними надо вставить?
#160 #822422
>>822415
о какой ты книжке щас говоришь?
#161 #822423
>>822415
Ага, а потом ебись с bias-variance tradeoff с этим мизерным количеством знаний. Model selection в mlclass вообще не затрагивается, Байесовской бритвы Оккама нет, вариационных методов нет.
Как уже было сказано, этот курс позволяет только вкатиться, дальше нужно дрочить что-нибудь помощнее.
Я не говорю, что после этого ты будешь круче слесаря, но хотя бы разряд поднимешь.
>>822437>>822439
#162 #822437
>>822423

>Model selection в mlclass вообще не затрагивается


ну про биас/варианс, клюшку и кроссвалидацию рассказали и то хлебушек
#163 #822439
>>822423
Потому что, внезапно, это курс по machine learning, а не по нахуй никому не нужному statistical learning. Statistical learning умирает и туда ему и дорога, ML как новая дисциплина учит другому и по-другому. Вся суть-то в том, что тред захватили статистические слесари с R головного мозга.
#164 #822443
>>822439
в чём разница между

> machine learning


> Statistical learning

>>822447>>822481
#165 #822447
>>822443
Statistical learning -- наука, статистика, функан.
Machine learning -- компьютерные обезьяны.
#166 #822450
>>822439

> умирает


Просто посмотри на количество публикаций по Stat.ML

> нахуй никому не нужному


> CD-k в RBM


> Variational Autoencoders


> Variational IMRL


> DBM


> вероятностное программирование


> Гауссовские процессы в управлении и обучении с подкреплением


Ага, нахуй не нужно. Статистика в ML жила и будет жить.

> R головного мозга


Да, на пиздоне/любой-другой-ЯП этого же не написать.

> ML как новая дисциплина учит другому и по-другому


Расскажи нам
#167 #822451
>>822439
Никто тред не захватил, это официальный тред нейроночек, а над устаревшими петухами тут только потешаются, как над старыми клоунами.
#168 #822454
я всё не пойму
ML можно как-то делать без статистики?
как?
>>822455
67 Кб, 727x612
#169 #822455
>>822454

> from sklearn import svm

>>822477>>822479
#170 #822477
>>822455
Одна из худших вот ай ду картинок, что я видел.
>>822478
#172 #822479
>>822455
Хотя, не, нормальная. Посмотрев ещё пару итераций, нашёл в ней структуру.
#173 #822481
>>822443
Ты бы хоть загуглил. Вот, например, рассуждают https://brenocon.com/blog/2008/12/statistics-vs-machine-learning-fight/
На курсере есть 2 курса, ml-class от Энрю Ына, основанный на CS229 и конкурирующий от статистика Тревора Хасти. Можешь сравнить подходы. И какой подход лучше УЖЕ очевидно - это именно ML-коммьюнити всю движуху делает, а статистики копашатся в том говне, которое и пять лет назад тем же говном было, и десять, зато пафосу при этом куча - хули, они же фундаментальные, а ML - это обезьяны. Особенно смешна попытка представить, будто в ml-class нет теории (все эти аутичные шуточки про import svm), хотя она там есть.

ML по сути смежная дисциплина на стыке наук, которая взяла что-то из статистики, но оверхайпить при этом статистику не нужно, вся это байесовщина тебе ничего не даст.

И главное как бы похуй, может халялные фундаменталисты статистики и окай, но нахуя подсовывать эту парашу в оппосте и делать вид, что это и есть machine learning? Типа Machine Learning: A Probabilistic Perspective, Introduction to Statistical Learning, Elements of Statistical Learning? Отдельный мусор - Нечёткое моделирование и управление. При этом нет ни ml-class (даже в виде CS229), ни книг deep learning. Ибо нехуй, деды страдали, и ты страдай.
>>822484>>822490
#174 #822484
>>822481

> книг по deep learning


Предобучение -> статистический подход в автоэнкодерах и RBM.
inb4: pretraining is dead
>>822500
#175 #822490
>>822481
В посте все верно расписано. Statisticians -- ученые, ориентированные на научную работу и публикации. ML -- обезьяны с модными баззвордами и конференциями.
>>822493
#176 #822493
>>822490
Окей, теперь посмотри на название треда, и съеби в свой. Упс, в него же никто заходить не будет, ведь это обезьяны state of art на ILSVRC делают.
>>822497
#177 #822497
>>822493
Тренд для стремящихся ML-обезьян, которые хотят стать хоть немного человекоподобными.
#178 #822499
терминология-срачи это всегда увлекательно
вспомнился дебил с backpropagation vs gradient descent
>>822517
#179 #822500
>>822484
Статистические методы - это как асм в 90-е годы. Когда вроде бы еще и остались места, где он нужен, но понятно, что это не надолго, и далее ниши будут совсем узкими. Но пафосу при этом от красноглазых васянов, умеющих в masm32 и сегментированную память столько, что все вокруг, кто пользуется высокоуровневыми языками - обезьяны.
Так и здесь. Никаких прорывов в state-of-art статистики не делают, в тырпрайзе же вообще ML слесарная работа по подбору лучшего алгоритма и этот слесаризм может быть автоматизирован целиком, но нет, деды пердолили LDA, QDA и прочую хуйню, и ты пердоль. А то как же.
>>822557
#180 #822517
>>822499
Это не терминология-срач, это подход-срач. Кому-то не понравился божественный ml-class и вместо него советуется какашка в виде Introduction to Statistical Learning из оппика. В которой на 265-й странице (после охуенно нужного QDA например) пишется следующее:

>Polynomial regression extends the linear model by adding extra pre- dictors, obtained by raising each of the original predictors to a power. For example, a cubic regression uses three variables, X, X 2 , and X 3 , as predictors.



Это когда Ын дает это второй неделе (http://www.holehouse.org/mlclass/04_Linear_Regression_with_multiple_variables.html). Большая разница, однако.
>>822530
#181 #822530
>>822517
так разница только в порядке подачи материала?
>>822540
#182 #822540
>>822530
Не только, но и в акцентах. Разные дисциплины по сути.
#183 #822557
>>822500
Однако знание низкоуровневых основ порой помогает программерам писать более качественный код. Здесь то же самое.
>>822567
#184 #822567
>>822557
Сейчас низкоуровневые основы - это плоская модель памяти (+кэши), сишка, интринсики. А не особенности синтаксиса masm и реальный режим процессора. Вот Ын он дает тот низкий уровень, который нужен в ML. Градиенты, нормальные уравнения, SVM там, хуе-мое. А не гауссовские процессы, от которых бежать надо, как от чумы.
Поехавшее утверждение #1: >>820550 Здесь как бы видно сразу, что оно поехавшее, чел замахнулся ни много ни мало, на state of art, причем беспруфно. Но далее раз >>822006 и два >>822008
Т.е. тот есть то же утверждение кормит ньюфага говном. Что гауссовские процессы-то, важная тема, оказывается. Хотя это типичный статистикодроч. Который да, используется в ML, но по важности он где-то на уровне дна.
>>822641>>822905
#185 #822641
>>822567

> А не гауссовские процессы, от которых бежать надо, как от чумы.


Чому это?
>>822647
#186 #822647
>>822641
Читать придется, а эта сложна нипонятно тупо
#187 #822905
>>822567

> Градиенты, нормальные уравнения


лол, это же школьная примитивщина, при чём тут мл-чик?

> вскукарек на божественные гауссовские процессы


обоснуй
гауссовские процессы в каком-то там пределе эквивалентны нейроночкам, при этом обладая замкнутой формулой для тренировки
и заслуживают не меньшего дроча

> прочее кококо


лень кормить такую толстоту
>>822929
#188 #822929
>>822905

>гауссовские процессы в каком-то там пределе эквивалентны нейроночкам


Типичный вкукарек а-ля фуззипетух. Все в каком-то пределе эквивалентно, но нас-то интересует, как решать задачи, а не ковыряться в в говне ради ковыряния в говне. В говне пусть статистики типа тебя ковыряются.
>>823101
#189 #823101
>>822929

>но нас-то интересует, как решать задачи


Типичные быдло-вскукареки.
"У нас тут мозолистые руки от укладки шпал, а вы там со своими когомологиями де Рама возитесь, мрази!!"
>>823517
#191 #823117
>>823110
Дафна пиздата, но прошлый курс как-то мне не очень вкатил.
>>823121
#192 #823121
>>823117
мало задачек/теории?
думаю попробовать пройти
>>823125
#193 #823125
>>823121
Курс показался очень поверхностным. Сейчас попытаюсь посмотреть ещё раз.
Вообще, почти всё необходимое по теории графических моделей есть в "монстре":
https://people.eecs.berkeley.edu/~wainwrig/Papers/WaiJor08_FTML.pdf

Для прохождения курса и адекватного его понимания неплохо было бы понимать основы Байесовского вывода и Байесовскую теорию принятия решений.
#194 #823138
Кстати, есть кто-нибудь разбирается в графических моделях. Есть какой-нибудь прок от junction tree algorithm вообще? Или лучше сразу ебашить variational message passing или expectation propagation?
>>823145
#195 #823145
>>823138
В своих статьях Минка говорит, что EP работает примерно так же хорошо, как и точный вывод, но быстрее.
#196 #823391
Пацаны, что посоветуете почитать по нейросетям? Чтоб было побольше практики.
>>823392
#197 #823392
>>823391
Практики а ля from keras import *?
>>823394
#198 #823394
>>823392
Ну, чтобы кода было побольше. Хочу вникнуть в саму суть нейросетей.
>>823422
#199 #823422
>>823394
сначала нужно разобраться с линейной и логистической регрессиями
ну и гауссовские процессы не помешают
всё это есть в бишопе/маккае
>>823426
#200 #823426
>>823422
Линейную и логистическую регрессию я уже кое как знаю. А зачем гауссовские процессы?
>>823639
#201 #823515
>>822394

>*


Предлагаю заменить на "всю хуйню"
#202 #823517
>>823101
Я уважаю математиков. Они тусят в /sci/ в своем треде и обсуждают действительно что-то возвышенное и неведомое (кто из них картофан, например). А вас я не уважаю, потому что вы балаболы, которые человеку, который задал вопрос про нейросети, впаривают гауссовские процессы, а свой тред назвали почему-то machine learning, чтобы впаривать свое говно другим. Вы как ебаные MLM-щики.
>>823688
#204 #823639
>>823426
ну тогда начинай читать бишопа или маккая
у них наиболее толковые введения из встречающихся
у бишопа алсо есть целая книженька о нейроночках "Neural networks for pattern recognition" написанная до начала хайпа dl
#205 #823658
http://colah.github.io/posts/2014-03-NN-Manifolds-Topology/
Интересно.

>The manifold hypothesis is that natural data forms lower-dimensional manifolds in its embedding space. There are both theoretical and experimental reasons to believe this to be true. If you believe this, then the task of a classification algorithm is fundamentally to separate a bunch of tangled manifolds.

#206 #823688
>>823517
А что ты посоветуешь по нейросетям тогда?
>>823706
#208 #823846
Delphi+CUDA=pascuda?
>>823854
#209 #823854
>>823846
Это нонсенс.
#210 #823863
С кудой лучше всего обучать батчами. Когда я пробнул обучение батчем, у меня получилось так, что сетка приспособилась к нагенеринным данным(перед этим я обучал не батчем), но новые данные стала распознавать еще хуже.
>>824331
#211 #823882
>>823706
Спасибо.
#212 #824051
Так, пацаны, я вкатываюсь кароч, берегитесь.
>>824194
43 Кб, 595x354
#213 #824194
>>824051
ну как? ещё не выкатился?
#214 #824328
>>823706
этот анон шарит. он читает colah.
#215 #824331
>>823863

> лучше всего обучать батчами


> ухудшилась производительность на тестовом сете

#216 #824338
В предыдущих тренделях было крайне дохуя шикарных паст и мемсов.
Давайте соберём их в одном месте?
>>824340
#217 #824340
>>824338
Хуйня же протухшая.
#218 #824388
Гауссовские модели процессов, как они применяются в области машинного обучения являются привлекательным способом сделать непараметрического байесовского моделирование в поднадзорной задачи обучения, и поэтому их сравнения с нейронными сетями (которые, как правило, параметрический, и оптимизированы для получения точечной оценки) является немного несправедливое сравнение. Они также могут быть привлекательным способом добавления дополнительной информации в виде до более функций многих параметров (см Adams, Dahl & Мюррей, от UAI 2010). Их недостаток заключается в том, что они масштабироваться довольно слабо (логический вывод, а точнее, это O (N ^ 3) дело, хотя есть некоторые хитрости, которые были предложены), в то время как нейронные сети, как параметрических моделей, которые могут быть обучены онлайн с помощью стохастического градиентного спуска , имеют почти наиболее благоприятные свойства масштабирования мыслимые.

Нейронные сети также могут быть сделаны непараметрический, принимая число скрытых блоков до бесконечности, и в этом случае оказывается, что такие "бесконечный скрытый слой" нейронные сети эквивалентно гауссовских процессов с определенной ковариационной ядром. См 1994 кандидатскую диссертацию Рэдфорд Нила, Байесовское обучение нейронных сетей.
>>824390
#219 #824390
>>824388
квору все умеют читать
>>824391
8 Кб, 147x605
#220 #824391
>>824390

> 01:13:14


> 01:15:05


а ты быстрый
#221 #824574
Есть одна плоскость на которой дохуя точек. Точки имеют цвет. Задача узнать есть ли где-нибудь на плоскости скопление точек одного цвета. Есть обучающие выборки. Что почитать чтобы такое сделать? Мне не нужен весь ml мне нужна только одна программа
>>824580>>824595
#223 #824582
>>824580
А если мне не известно минимальное расстояние до k-ого соседа чтобы назвать группу точек скоплением и не известно k? Как получить эти данные из обучающих выборок?
>>824587>>824595
#224 #824587
>>824582
А что в выборках?
>>824597
#225 #824595
>>824574
>>824582
бейсовская вариационная комбинация гауссовых распределений (bishop, PRML 10.2 глава)
k выводится прямо из данных
минимальное расстояние выводится прямо из данных
>>824655
#226 #824597
>>824587
То же что и в тестовых, но только есть координаты и радиус скоплений которые вручную обозначил.
>>825432
#227 #824655
>>824595
Если вы все еще задаетесь вопросом, почему нам нужна эта вещь, то вот маленький бонус: байесовский регрессионный иммунитет к переквалифицироваться (переобучения). И я не имею в виду только "стабильный" или "надежный" как регресса с регуляризацией - в определенной степени это, как правило, иммунитет к нему.

Что переобучения, опять? Именно тогда, когда мы "слишком настроить" модели имеющимся данным (например, выбрать кривую, которая идеально проходит через точку набора данных, но будет показывать плохие прогнозы на новых данных). В переводе на философский язык в последнем разделе, это означает, что, когда мы искали «правых» набор опций, мы нашли некоторые неправильно, неправильно. Это невозможно сделать с байесовского подхода, потому что просто нет понятия «права» набор параметров! Странно, черный и желтый конус на картинке выше говорит нам: "Да, скорее всего, следующие пункты будут находиться где-то в середине вдоль белых линий, но может оказаться на краю, а сверху и снизу, без проблем. " Степень полинома может быть увеличена столько, сколько нужно: с это увеличит число возможных кривых, и каждый из них по отдельности уменьшит вероятность.
>>824706
#228 #824706
>>824655
Вы можете смеяться все, что вы хотите, но я в принципе знаю двух принципов для лечения сложных систем в простых способов: первый принцип модульности, а второй является принцип абстракции. Я апологетом вычислительной вероятности в машинном обучении, потому что я считаю, что байесовский теория вероятностей реализует эти два принципа в глубоких и интригующих способов, а именно - через факторизации и через усреднение. Эксплуатируя эти два механизма настолько полно, насколько это возможно, мне кажется, что путь вперед в машинном обучении.
#229 #825432
>>824597
Ну, это тогда простая задача классификации, если у тебя есть набор точек размеченных по кластерам. Бери опорные вектора и вперед. http://scikit-learn.org/stable/auto_examples/svm/plot_iris.html#example-svm-plot-iris-py
130 Кб, 832x690
#230 #825688
Помогите нейрошколоте великовозрастной с выбором курса ( на книжицы нет времени). Есть два варианта:

https://www.edx.org/course/applied-machine-learning-microsoft-dat203-3x#!
https://ru.coursera.org/specializations/machine-learning
>>825712
#231 #825712
>>825688

>https://ru.coursera.org/specializations/machine-learning


Я второе дропнул. После божественного ЫНа выглядит убого, растянуто и бесполезно
>>825748>>825830
#233 #825748
>>825712

>божественного ЫНа


Что это? В шапке треда не нашел.
>>825776
#234 #825776
>>825748
ml-class.org
>>826105
#235 #825830
>>825712
поддерживаю
#236 #825870
Хера се сколько текста под куда на один конволюшионал слой и это мы еще не дошли до обучения.

http://igm.univ-mlv.fr/~biri/Enseignement/MII2/Donnees/convolutionSeparable.pdf
>>825907
#237 #825907
>>825870
Это не про слои же, а просто про эффективную реализацию свертки под куду.
>>826079
#238 #825979
Почему на kaggle сбрасываются результаты соревнования digit recognition? Я хочу заходить к себе в профиль и видеть там, что у меня 98% распознано. Чому все так?
>>825985
#239 #825985
>>825979
как то связано с тем что соревнование тренировочное
где-то читал, уже не помню
#240 #826079
>>825907
Ну да, а со слоями там хер пойми вообще что.

Какой пиздец.
ATL is not available in Express version of Visual Studio. CImage class
>>826089
#241 #826089
>>826079

> ATL is not available in Express version of Visual Studio. CImage class



Слоупочное мелкомягкое говно, лучше бери OpenCV или dlib. Хотя тоже сорта говна.
и чем вы тут занимаетесь блять #242 #826102
в шапке треда нихуя не написано, поэтому спрошу тут. Хули в делаете ребята? зачем это все? Я нихуя не шарю в матане. Сегодня я узнал, что такое тензор. Ну как, посмотрел видосик на 13 минут и понял что это типа вектор, только не первого ранга, а разных...
В общем я тоже хочу вкатиться, тема видимо интересная.
Скажите с чего начать? Я могу писать на это вашем пистоне например бэкэнд. Сделал штук 15 задачек на projectEuler или как его там блять.

Скажите что это, с чего начать, откуда читать и тд. спасибо.
>>826105
#243 #826104
ах ну еще зашел на www.kaggle.com и тоже нихуя не понял.
#244 #826105
>>826102
Сначала >>825776

Потом книжки из шапки
#245 #826495
Пацаны, что думаете о "Л. П. Коэльо, В. Ричард - Построение систем машинного обучения на языке Python"?
>>826508>>826557
#246 #826508
>>826495
Платиновый вопрос. Хуйня.
>>826514
#247 #826514
>>826508
Обоснуй?
>>826531>>826554
#248 #826531
>>826514
Держи цитату из книги за щеку:
"Математические идеи, лежащие в основе метода латентного размещения Дирнхле, довольно сложны, и мы не будем вдаваться в детали. Интересующиеся читатели с авантюрным складом ума най­дут все относящиеся к делу уравнения в википедии по адресу en.wikipedia.org/wiki/Latent_Dirichlet_allocation ."

> мат. идеи - детали


> не будем вдаваться в детали


> детали для авантюристов


> ссылка на википедию



Хочешь лёгкого введения? Пиздуй к Ыну.
>>826554
#249 #826554
>>826531
это не аргумент
-> >>826514
445 Кб, 760x695
391 Кб, 756x710
108 Кб, 728x546
#250 #826557
>>826495
Хуйня, причем из-под коня. Обыкновенная документация к пистоновскому пакету для ML, сцикит или как там его, ну плюс некоторые бесполезные комментарии. Мне другое интересно, почему пикрелейтед шлюха - какой-то стандарт в области обработки изображений? Встречал эту фотку в самых разных книгах.
>>826558>>826564
#251 #826558
>>826557
Просто прижившаяся шлюха из плейбоя. Пацанам нравится её Фурье спектр и всё.
>>826563
#252 #826563
>>826558
Я бы сделал свёртку в её вейвлет-преобразование.
#253 #826564
>>826557
Побольше уважения к Ленке.
>>826566
#254 #826566
>>826564
Ленка коленка
#255 #826771
>>823706

>karpathy


TRIGGERED
#256 #826777
>>821452
Ауф видер зиен!
#257 #827394
>>820595
Отсыпь своего терпения, анон.
24 Кб, 329x400
#258 #827935
Истинно вам говорю, школьники, будущее ML - это нейроночки и не только на языках с зависимыми типами. Можете скринить. Абсолютно корректные алгоритмы, соответствующие спецификациям - это то, что откроет нейроночкам путь в серьезный продакшен и промышленные решения. Вот пример многослойного перцептрона на хачкелле - https://www-lisic.univ-littoral.fr/~dehos/nn42h/index.html https://themonadreader.files.wordpress.com/2013/03/issue214.pdf http://colah.github.io/posts/2015-09-NN-Types-FP/
Вот эту книжку http://haskelldata.com/ http://gen.lib.rus.ec/book/index.php?md5=37E36A4652A2355552FFFC7180D6E81B в шапку треда добавьте.
>>827965>>827980
#259 #827938
Вот еще на окамле нейроночка https://github.com/ihodes/brainy-caml 162 строки, прошу заметить.
#260 #827943
И лекция про имплементацию нейроночки на окамле же.
https://www.youtube.com/watch?v=HanQoB-dXBM
>>827956
#261 #827947
Хипстеры уходите. Пока ваше говно не компилится в код для видеокарты оно вообще никому не нужно.
>>827951>>827963
#262 #827951
>>827947
Видеокарты и прочее наращивание системных требований до бесконечности - это путь в никуда. Маняалгоритм, которому для работы нужен кластер из сотен GPU - это хуйня без задач, а не алгоритм для повседневной работы.
#263 #827956
>>827943
Да хоть на губной гармошке. Лучше бы под ЖПУ учили как делать, не все хотят юзать питон с готовыми решениями.
>>827959>>827963
#264 #827959
>>827956
А пистон и не нужен. Будущее языков программирования - это зависимые типы. Говнокод на говноязыках, работающий не как нужно, а как получится, программное обеспечение, в котором глюк на глюке едет и глюком погоняет, все это так или иначе отомрет за ненадобностью.
#265 #827963
>>827956
>>827947
двачну

пользуясь случаем:
посоветуйте библиотеку алгебры под видюху
хочу чтоб все операции с матрицами выполнялись на видюхе, при этом без куда-ёбли в моём коде
#266 #827965
>>827935
Среди шведов тоже говноглазые встречаются?
Не знал...
>>827969
9 Кб, 333x293
#267 #827969
>>827965

>рабби Лёф


>швед


Ой-вей. Шведы у заезжих нигр kuk сосут, губой трясут, и детей своих к этому же с детства готовят. В то время как Люди создают целые парадигмы в математике.
>>827979
#268 #827979
>>827969

> Шведы у заезжих нигр kuk сосут


Sverige ja!
#269 #827980
>>827935

>с зависимыми типами


макс, ты?
>>827992
#270 #827981
>>827963
torch вроде могет
>>830898
#271 #827992
>>827980
Нит, ни я)) Сохатского отсюда выгнали ссаными тряпками, и тред его снесли, хотя он единственный серьезный программист в этом разделе, вряд ли тута еще кто-то осилит написать свой прувер (!) да еще на ерланге. Но факт остается фактом - единственный способ избежать ошибок в ПО - это изначально писать его на правильных языках, с возможностью проверки корректности, а не на бесполезных парашах. К ML все это особенно относится, т.к. там важна полная прозрачность происходящего, а не мутное шаманство, которое никто толком не может объяснить (типа "магического коэффициента" в многомерной проекции Сэммона).
>>827993
#272 #827993
>>827992
покажи свой гитхаб с правильным мл кодом
>>827999
#273 #827999
>>827993
Че сразу свой-то? Я говорю о том, что это перспективное направление, на эту тему пока почти ничего нет, я выше постил же примеры нейроночек на хаскелле в 42 строки и на окамле. Даже целую книгу принес про анализ данных на хаскелле. Правильный мл на ЯП с зависимыми типами - это дело будущего, хотя и обозримого.
>>828004>>828005
#274 #828004
>>827999

> после предложения обосновать своё кукареканье школьник жиденько обдристался


ок
#275 #828005
>>827999
Блджад, вот за книгу спасибо. Обмолофился от содержания, надеюсь, что будет очень годно.
#276 #828010
алсо

> зависимые типы


при чём тут вообще хаскел? и тем более мёртвое кемло-говно
>>828013
#277 #828013
>>828010
Их на нём тоже можно реализовать.
>>828014
#278 #828014
>>828013
ну покажи поцанам нейроночку на хачкеле с завтипами лол
>>828015
#279 #828015
>>828014
Вот это https://www-lisic.univ-littoral.fr/~dehos/nn42h/index.html я для чего выше давал?
>>828017>>828021
#280 #828016
>>817451 (OP)

>нужна математика?


>для начинающего ничего особого знать не нужно



Опять наёбываешь?
>>828030
#281 #828017
>>828015
там нет завтипов
>>828018>>828020
8 Кб, 848x80
#282 #828018
>>828017
А это не типы, зависящие от параметров?
>>828023
#283 #828020
>>828017
Я говорил, что их самих можно в хачкеле реализовать, а на счёт машинного обучения я не в курсах.

Is Haskell a dependently typed programming language? Many
would say no, as Haskell fundamentally does not allow expressions
to appear in types (a defining characteristic of dependently-typed
languages). However, the type system of the Glasgow Haskell
Compiler (GHC), Haskell’s primary implementation, supports two
essential features of dependently typed languages: flow-sensitive
typing through Generalized Algebraic Datatypes (GADTs) (Peyton Jones et al. 2006; Schrijvers et al. 2009), and rich typelevel computation through type classes (Jones 2000), type families (Chakravarty et al. 2005), datatype promotion and kind polymorphism (Yorgey et al. 2012). These two features allow clever
Haskellers to encode programs that are typically reputed to need
dependent types.
>>828026
#284 #828021
>>828015
И где тут зависимые типы, школьник?
Не позорь хаскеллистов
#285 #828023
>>828018
неа, прост переименования
>>828024
#286 #828024
>>828023
Почему нет-то? Есть типы, зависящие от параметров. Получают входные значения и выдают выходные. Что еще надо?
>>828034
#287 #828026
>>828020

> на счёт машинного обучения я не в курсах


чего тогда раскукарекался в мл-треде?
#288 #828030
#289 #828034
>>828024
Так толсто, что даже тонко.
>>828039
5 Кб, 200x121
#290 #828039
>>828034
Где толсто-то?
201 Кб, 1209x828
#291 #828056
собираю свой первый комплюхтер для мачин лёрнинга
рейт
>>828066
#292 #828057
>>827963

>посоветуйте библиотеку алгебры под видюху


cuBLAS
>>830898
#293 #828066
>>828056
осторожно с материнкой и процем. Они должны поддерживать 16 PCI дорожек на полной скорости.
Вот мой конфиг для референса:
NamePrice
Seagate Technology Desktop HDD - 3 To$106.40
Kingston Kingston Technology SSDNow KC300 - SSD 180 Go$108.00
Intel Core i7-5930K$622.00
Kingston HyperX FURY noir 16GB (2x8GB) DDR4 2400MHz CL15$150.00
ASUS X99-A/USB 3.1$271.50
Corsair RM1000 - 1000W$178.60
BitFenix NEOS$43.90
>>828068
#294 #828068
>>828066

> осторожно с материнкой и процем. Они должны поддерживать 16 PCI дорожек на полной скорости.


незнал, спасибо
надо больше узнать по этой теме перед покупкой
>>828124
#295 #828124
>>828068
и еще мне непонятно зачем тебе столько SSD. Обычно схема такая: память на гпу 24гб, туда ты загрузишь модели и батч, батч не превысит 200мб, соответственно тебе нужно будет загрузить в память максимум 100 батчей, что будет 20Гб, соответственно берем 32Гб оперативки. В оперативную память с ссд загружается все довольно медленно, плюс трудно представить себе обработанный датасет больше 200Гб. Даже необработанный ImageNet меньше. А потом ты фигачишь необработанные датасеты и просто всякие долго хранящиеся вещи с ХДД драйва.
>>828378
6 Кб, 362x608
#296 #828357
Есть два набора точек. Допустим, расположены они произвольно, хоть друг на друге, можно их деформировать и поворачивать, лишь бы результат был. Показал для наглядности рядом. Как для каждой точки в одном наборе найти пару для другого? Если просто начать парить самые близкие, то вскоре начнут соединяться уже очень далёкие точки. Хотя путём уступки можно было освободить пару для точки, которая отстояла бы чуть дальше, но суммарная дистанция двух получившихся пар была бы меньше. Нихуя не понятно объяснил, наверное. Нужно найти именно пары, а не оптимальную матрицу трансформации для одного из наборов точек.

Ваши шальные мысли.
133 Кб, 472x527
#297 #828374
>>828357
Приблизительная демка перехода наборов один в другой для спейренных и рандомных точек.
>>828550>>829467
#298 #828378
>>828124
вообще особого смысла ssd брать нет, возьму простой винт на пару тб
мощный процессор вроде тоже не особо нужен
насчёт 2 видеокарт не уверен

>>828357
я беру каждую точку из первого набора и сопоставляю её со случайной точкой из второго на видюхе
>>828519
#299 #828428
>>828357
Что такое пара?
>>828440
253 Кб, 1246x530
#300 #828440
>>828428
Вот точки, которые спарены рандомно и так, как мне хочется. То есть чтобы суммарная длина была самой оптимальной (со штрафом для длинных, чтобы две полуметровые дистанции были лучше, чем нулевая и метровая).

Заметь, что редко, когда ближайшей синей соответствует ближайшая жёлтая. То есть пара была переуступлена более далёкой для всеобщего блага.
#301 #828441
>>828440
А, и тут неоптимально найдены пары, лишь по большей части. Я руками это делал.
#302 #828519
>>828378

>особого смысла ssd брать нет


есть, загрузка данных в память с диска для больших датасетов норма, каждая секунда при обучении будет превращаться в дни.

>мощный процессор вроде тоже не особо нужен


у меня знакомый из соседней лабы купил титан х паскаль и оставил свой старый ксенон. В итоге он использует видеокарту на 10-20 процентов. Для него это означает что код работает не день-два а неделю.
>>828842
#303 #828550
>>828357
>>828374
>>828440
Двунаправленные карты Кохонена - XYF или BDK. Первый набор на вход, второй на выход. https://www.jstatsoft.org/article/view/v021i05/v21i05.pdf
#304 #828606
Бля, хотел вкатиться в машин лернинг, думал типа буду пиздатым, а тут написано что все машин лернингисты - слесари и компьютерные макаки. Хочу ученым быть епт и свои алгоритмы придумывать
#305 #828613
Тут есть биоинформатики? Что из машинного обучения посоветуете выучить в обязательном порядке?
>>830239
#306 #828614
>>828606

>Хочу ученым быть епт и свои алгоритмы придумывать


Ну так придумывай. Я вот придумывал, только реализовать руки не доходят, долго и сложно жи.
#307 #828645
>>828606
Получай магистра, потом доктора по мл\прик.мат.\кс или чему-то подобному, потом будешь алгоритмы придумывать.
#309 #828842
>>828519
ну ок
есть ли какие нибудь спец-требования по охлаждению?
>>829083
#310 #828845
>>828837
Эта шутка была здесь 2 года назад, как сейчас помню.
>>828981
690 Кб, Webm
#311 #828981
>>828983
#312 #828983
>>828981
конкретно с кудой и бегущими петухами
#313 #829001
Спиздил ссылку с БД треда. Были нейроночки на хачкелле, камле, вот вам на сиквеле:
http://blog.itdxer.com/2016/07/01/neural-networs-in-mysql.html
>>830139
#314 #829083
>>828842
стандартные: если будет греться до выше чем 85, добавь в smi-settings config управление вентиляторами и выкрути их на 100 по умолчанию.
#315 #829466
Объясните второй пик из оп поста пожалуйста.
#316 #829467
>>828374
>>828440
Олтичные гифки, как делал?
#317 #830139
>>829001
Это норма, говорили ж что нейроночка = массив.
>>830464
#318 #830239
>>828613
Нейроночки учи, датаслесарь.
>>830277
#319 #830241
>>828606
Любая пхпмакака, считай, "придумывает алгоритмы". Подобно тому как слесарь "придумывает алгоритм" как добраться до поврежденной трубы, минимизировав контакт с говном.
>>830277>>830841
#320 #830277
>>830241
Не пизди, нихуя они не придумывают, даже не пишут реализацию уже известных, просто импортируют библиотеки и все.
>>830239
И зачем они в биоинфе?
>>830289
#321 #830289
>>830277
Ты тоже не в машинных кодах пишешь. Последовательность вызовов библиотечных функций тоже алгоритм.

Как зачем? Все теперь на нейроночках будеть, тебе разве не сообщили? Скоро нейроночки все протеины повычисляют, и мы тут бессмертными сидеть будем, до скончания веков. Просвещайся, лапоть: http://www.nature.com/nature/journal/v521/n7553/abs/nature14539.html
>>830308
#322 #830308
>>830289
Ну причем тут машинные коды, ты же понимаешь о чем я. Новые алгоритмы, всякие блять нейросети, вот это все придумывать.

Там платно. И вообще, такое ощущение что весь дипленинг переоценен, вот квантовый компьютер изобретут, туда дипленинг впердолят вот заживем
>>830350>>830465
#323 #830350
>>830308
Лови бесплатно: https://www.cs.toronto.edu/~hinton/absps/NatureDeepReview.pdf

Нейросети придумывать это в науку надо. Умей различать МЛ как научную область (там надо быть ПхД и публиковать статьи) и МЛ как слесарное дело (там надо import tensorflow as tf).
>>830354
#324 #830354
>>830350
Пиздец ты дурик, он тебе про это и писал.
#325 #830464
>>830139
Нейроночка - таблица.
#326 #830465
>>830308
Тут по поводу квантов в вычислениях такая мысль есть:
https://youtu.be/T1Ogwa76yQo

tl;dr: кванты мертвы, мир детерминирован
#327 #830841
>>830241
Как вы заебали с своими охуительными сравнениями мл с слесарным делом и сантехникой. Так получается что врачебное дело сантехника. Да почти все. А что не слесарство тогда?
>>830852>>831069
#328 #830852
>>830841
Всё слесарство, даже дрочка.
53 Кб, 957x540
#329 #830898
>>827963
>>827981 >>828057
взял короче
http://arrayfire.org/docs/index.htm
https://github.com/JuliaComputing/ArrayFire.jl/
в целом охуенная вещь
куда-гемора вообще никакого, пользуешся как обычными матфункциями из библиотеки
жаль только свд и чолески на видюхе притормаживают

слесарь с видюхой
58 Кб, 523x343
#330 #830938
Подскажите туториал, чтобы быстро вкатиться в сентимент-анализ. Хочу хотя бы простейший рабочий пример, чтобы было откуда двигаться.
>>830941>>830942
#331 #830941
>>830938
Уточню пожелание - примеры на простейший сентимент анализ текста целиком с разбиением на N-грамы у меня есть. Меня интересует извлечение из большой статьи троек [объект, субъект, отношение].
>>830942
#333 #830943
>>830942
Спасибо, держи исследование Sentiment Analysis in Financial News.
http://muonium.rgho.st/8fmkRsRcF
#334 #831069
>>830841
Так и есть. Это помогает от снобизма и неумеренного ЧСВ. Некоторые макаки возомнили о себе невесть что, придумали себе титул "data scientist". Ну какой ты ученый, если ты просто чистишь данные и запускаешь хгбуст/нейроночки на видюхе? Эти чуваки разбираются в науке не лучше слесарей, каковыми по сути и являются. Так и появился термин "data plumber", точно описывающий суть этой работы.

Скромнее надо быть, и реально оценивать себя и свои достижения. Самозваных "ученых" с распухшим ЧСВ никто не любит.
#335 #831095
>>831069
зануда
#336 #831338
>>831069
Чётко пояснил, две видюхи этому господину.
>>831799
#337 #831391
>>831069
Термин data plumber имеет другой смысл, если верить этой статье
http://www.business2community.com/tech-gadgets/big-data-you-dont-need-a-data-scientist-you-need-a-data-plumber-0268818#9MjOx8Du7djIFEve.97

он не подразумевает уничижительного оттенка.
А вообще, data sceintistы именно сидят во всяких лабораториях и разрабатывают новые методы. Просто слово стало как слово ПРОГРАММИСТ, которое теперь обозначает вообще всех, начиная от системных архитекторов и заканчивая теми, кто помогает тетенькам из бухгалтерии принтер настроить
>>831799
#338 #831799
>>831069
>>831391
>>831338
ДАТАСЛЕСАРЬ
>>831824
#339 #831824
>>831799
Data Miner
Шахтер по данным
Сфера деятельности же называется Data Mining.
#340 #831947
Признавайтесь, кто из местных запилил? https://twitter.com/neuromzan
#341 #832876
134 Кб, 1920x1080
#342 #833331
купил таки новый комп для мл
взял нормальный проц и7, 30гб оперативки, ссд ещё 500гб, всё как советовали
карточку решил всего одну брать, потом всегда можно добавить
значит на видюхе перемножить 2 матрички 10к х 10к занимает полторы секунды, это нормальная производительность?
на чистом проце уходит секунд 8
#343 #833334
>>833331
Ты так спрашиваешь, словно купил себе пк для мл, а не знаешь зачем толком.
>>833670
#344 #833350

>>833337


Нахуй иди и свою говноконфу забери. Пожаловался.
>>833352
#345 #833352
>>833350
Ябеда
>>833360
#346 #833360
>>833352
Ябедничать - это хорошо. И только в воспаленном сознании совка это что-то плохое.
#347 #833438
>>833331

>OpenCL

>>833670
#348 #833624
>>833331
схуяли у тебя форточки. ты его гамать купил, а не МЛ хуячить?
>>833670
#349 #833670
>>833334

> Ты так спрашиваешь, словно купил себе пк для мл, а не знаешь зачем толком.


очень хочется вкатиться в мл, но мне надоело ждать пока мои поделки выполняются
пробовал делать кагловский "титаник" на гауссовских процессах, одна итерация градиентного подъёма занимала несколько секунд на моём старом ноутбуке

>>833438

>OpenCL


это сильно плохо? восьмая куда ещё не вышла

>>833624

> играться в игрули в 23 годика


)
>>833682
#350 #833682
>>833670
То есть ты, полуебок, вместо того, чтобы ботать бишопа для "вкатывания в мл", побежал получать наслаждения от покупки нового компа? Далеко пойдешь. Не забудь еще новый стол купить, мебель обновить, а то с этой как-то плохо работается.
>>833707
1524 Кб, 1824x3264
#351 #833707
>>833682

> ботать бишопа


я его с марта ботаю, уже надоело, лол
хочется больше хэндс-он экспириенса
>>833717
#352 #833717
>>833707
Ну так попробуй еще раз "титаник" и сравни.
#353 #834225
а хуле в шапка ни курса ни с едкс ни с курсеры?
>>834285
#354 #834285
>>834225
Чтобы эти ебанутые вопросы с платиной появлялись по десять раз за трендж, мелкобуквенная ты поебота.
>>834297>>834401
#355 #834297
>>834285
тссс, не надо
вдруг это будущий %ИМЯ_ВСЕМИРНОГО_ИЗВЕСТНОГО_ЭКСПЕРТА_ПО_МЛ%
#356 #834401
>>834285
нахуй ты грубишь, пидор, это мое право писать с большой или маленькой буквы, по делу лучше б ответил бы, агрессивный выблядок.
#357 #834487
>>820508
В Darcula нет вырвиглазного черного фона редактора.
>>834492>>834494
69 Кб, 958x872
#358 #834492
>>834487
Возможно, я сам настроил. Быдло не может в православные цвета.
>>834509
294 Кб, 1680x1050
#359 #834494
>>834487
Хотя, вот пикрелейтед из гугла.
>>834509
#360 #834509
>>834494
>>834492
Это всё кастомизация.
Поставь новую копию с дефолтными настройками и увидишь.
>>834527
1636 Кб, 1902x970
#361 #834527
>>834509
У всех так скастомизирован?
>>834597
#362 #834597
>>834527
А ты не замечаешь, что на всех пиках по-разному фон у редактора выглядит?
блять, ты споришь с человеком который эту самую Идею минуту назад из исходников компилировал и запускал, чтобы пофиксить багу
>>835356
#363 #835356
>>834597

> Идею минуту назад из исходников компилировал и запускал, чтобы пофиксить багу


Кулстори сис
>>835362
#364 #835362
>>835356
Лол, как будто это дохуя сложно. Там инструкция на гитхабе есть для этого.
38 Кб, 400x300
#365 #836781
Хочу вкатиться, но не знаю как.
Работать в яндексе не потяну.

Кодил всякие вещи на векинатор, ну с mnist и прочими тензорфлоу игрался.
Живу в мухосрани, чем бы мне таким заняться в ML, чтобы не пропустить очередной тренд?

Или всё таки машинное обучение останется прерогативой больших компаний вроде Гугла и Байду, а простые ML-макаки повсеместно нужны не будут?

Есть, конечно, вариант сделать ололо-стартап вроде призмы. Но что-то нет идей/готовых алгоритмов, для которых можно сделать красивую обёртку, не делая научных открытий в области ML. Ну и очередной конв-нет "хаха-смотрите, моя софтина рисует как Моне))" никому не нужен.

Все говорят про повсеместное использование, уже даже нейронные процессоры появляются, но где всё это использовать - не очень понятно.

Что думаете?
>>838081
#366 #836995
Наткнулся на такой гайд, если кому интересно:
https://www.quantstart.com/articles/How-to-Learn-Advanced-Mathematics-Without-Heading-to-University-Part-1
#367 #837829
Сап, котаны. Решаю проблему мультиклассовой классификации таким методом, что соединяю классы в определенные мета-классы и выстраиваю это все дело в дерево. На каждом узле дерева присваиваю признакам разные весы и в конечном итоге классифицирую ближайшим соседом. Есть кто занимался чем-то подобным или хотя бы слышал/читал, подкиньте какую-нибудь литературу или статьи без хардкорной математики.

Эту йобу я придумал сам, потом нагуглив классификаторы называются иерархическими, а конкретно мой пример вроде как local per node classifier.

Вот здесь чуваки занимались чем-то подобным goo.gl/UGOmSB например.
#368 #837931
Ребята, поясните неофиту. Нужно кластеризовать объекты, с разными метриками по разным признакам. Условно, если у объекта есть текст и координаты, то оценивать схожесть нужно по cosine similarity с tf-idf для текста и эвклиду по координатам. Но одна мера в километрах, а другая попугаях. Достаточно ли стандартизировать матрицы расстояний и сложить их?
>>838081
#369 #837952
Тут вам вряд ли помогут, тут сидят олухи которые только и умеют что кричать ОЛОЛО НЕ УЧЕНЫЙ А САНТЕХНИК))))
>>838081
#370 #838081
>>837952
Сантехнику неприятно.
>>836781
Я думаю что жизнь пройдет мимо тебя. Какой в мухосрани МЛ может быть?
>>837931
В кластеризации метрику тебе придется самому делать, исходя из здравого смысла. Стандартизируя матрицы ты искажаешь расстояния.
>>838146>>838215
#371 #838146
>>838081

>Сантехнику неприятно


Нет, вы оффтопите вместо нормального обсуждения.
#372 #838215
>>838081
Почему искажаю, скорее привожу к одной шкале.
Тер.вер. #373 #840044
Ку, привет, двачаны.

хочу спросить совета:

1) Вот книга по тер.веру. Годная?
http://www.math.louisville.edu/~pksaho01/teaching/Math662TB-09S.pdf
Если нет, посоветуйте лучшую.

3) Если выше книга годнач, идти дальше по пути ( https://www.quora.com/What-are-some-good-books-for-learning-probability-and-statistics )
Говно/не говно?
2) Есть ли годнач на курсере по тер.веру и статистике.
>>840185
#374 #840185
>>840044
у (((розенталя))) есть хорошие книги и не вода на 700 страниц
алсо если тебя интересует мл то можешь сразу начать читать книги из шапки
>>840218
#375 #840218
>>840185

Спасибо, прочитаю.

Я ничего не пойму из этих книг, за спиной только школьная база. (Я не про английский, а про матем.)
Уж больно сложные формулы.

Ну а так, спасибо.
4 Кб, 100x100
#376 #840538
https://medium.com/learning-new-stuff/machine-learning-in-a-year-cdb0b0ebd29c#.hjw2pjc9r

> Я продолжал учиться в свое свободное время и почти ровно через год я сделал свой первый проект мл на работе, которая связана с использованием различных мл и обработки естественного языка (NLP) методы, чтобы квалифицировать продаж приводит в Xeneta.


> Это ощущается как благословение: получать деньги, чтобы сделать что-то я обычно делал для удовольствия!



> Он также разорвал меня из заблуждения, что только люди с мастерами градусов или работы доктора философии с мл профессионально.


> Истина заключается в том что вам не нужно много математики, чтобы начать работу с машинного обучения, и вам не нужна степень, чтобы использовать его профессионально.



> Изучение нового языка в то же время пытается кодировать мл алгоритмы слишком сложно для новичка.



> должен знать Scikit Узнать


> пытавшиеся мл на реальном мире набора данных


> закодированы алгоритм линейной регрессии с нуля (в Python)


> сделал чуть-чуть NLP



> Тем не менее, я начал с нейронными сетями, по крайней мере, и начал медленно понять концепцию. В июле мне удалось закодировать свой первый сеть. Это, вероятно, crappiest реализация когда-либо созданных, и я на самом деле считаю стыдно показать. Но это сделал трюк; Я доказал себе, что я понял, такие понятия, как и обратного распространения градиентного спуска.

>>840540>>840591
#377 #840540
>>840538
Пиздец, текст уровня привлечения в продажники орифлейм и прочего дерьма. Ощущение, что пишут это для привлечения толпы макак в дата саенс, которые будут from sklearn import svm.
Хотя я и не прочь переквалифицироваться из дворника в дата-слесаря.
>>840580>>840594
#378 #840569
Вот вам ещё говна НЕЙРОНОЧЕК на ваши кулеры на видяхе:
https://youtu.be/QfNvhPx5Px8
#379 #840580
>>840540
Потому что с дата саенсом сейчас полный пиздец. Не так давно смотрел выступления пасанов из фейсбука, такое чувство, что первокуров заставили делать лабы, вот на таком уровне у них знания.

Жду БУТКЕМПЫ за 20 ТЫСЯЧ ДАЛЛАРОВ уровня СТАНЬ ДАТА САЕНТИСТОМ или ИКСПЕРТОМ ПО МАШИН ЛЕРНИНГУ за 12 недель!
#380 #840591
>>840538
кек. На реддите все старательно делают вид, что у них не пригорело от этого поста, но мы-то знаем.
>>842359
#381 #840594
>>840580
>>840540
Ну это с любой расхайпленной областью происходит, но мы то знаем что настоящие пасаны как минимум ШАД должны закончить и знать математику на уровне мехмата МГУ.
А про фейсбук странно, у них там тот самый Ян Лекун работает
>>840618>>840629
#382 #840618
>>840594

> настоящие пасаны как минимум ШАД должны закончить


Надеюсь, что это сарказм.
>>840640>>840644
#383 #840629
>>840594

>как минимум ШАД должны закончить


Это профтехучилище для слесарей высшей категории. Настоящие пацаны даже не знают о его существовании.
>>840640>>840647
#384 #840640
>>840618
>>840629
Я в шад собираюсь, а чем он плох? Там программа вроде нормальная и вообще яндекс в авангарде дата лернинга.
>>840641
#385 #840641
>>840640

> в авангарде дата лернинга


В России. Яндекс хорош, без базара. Но мне кажется неправильным считать, что хорошим слесарем можно стать только в шаде.
>>840643
#386 #840643
>>840641

Ну я не спорю, что есть места настолько же хорошие/лучше, просто те отписались, как будто шад - это вообще зашквар
>>840644
#387 #840644
>>840643
Это >>840618 я отписался. Не зашквар, но на шаде мл в России не сошёлся.
>>841161
#388 #840647
>>840629
Профтехучилище, в которое не все студенты мфти и мгу могут поступить. Эх, хотел бы там учиться.
>>840673
#389 #840673
>>840647
Не все студенты мфти и мгу настоящие пацаны.
#390 #841141
Закончил недавно вводный курс по сетям. Посоветуйте какую простую сеть написать, чтобы не очень сложно и самое главное чтобы были тренировочные данные в открытом доступе.
>>841166>>841177
#391 #841161
>>840644
Как я понял, в шад ты поступить не смог.
>>841341
#392 #841166
>>841141
можешь сам нагенерить простых данных и тренировать по ним
>>841168
#393 #841168
>>841166
Данные же должны быть закономерны вроде как.
Имеешь ввиду создать математическую закономерность и попытаться научить сеть её понимать?
>>841169
#394 #841169
>>841168
ну да, возьми функцию, добавь к ней гауссовского шума, нагенерь данных и попробуй вывести функцию
#395 #841177
>>841141
Мнист распознай свертками.
#396 #841341
>>841161
И не пытался.
74 Кб, 600x600
#397 #841574
дрочу титаниц, пытаюсь вывести недостающие возрасты
вот что получилось: http://pastebin.com/Gqc3W2ry пиздоватые значения с кучей знаков после точки есть вывод алгоритма
кто нибудь ещё пытался их вывести? покажите что получалось
или скажите где найти полный сет, в интернете чо то не нашлось

стремящийся датаслесарь
>>841930>>841938
#398 #841625
То чувство, когда ты сто лет назад запилил тред, ушел с двача, вернулся на двач, а тут и шапка твоя, и тред уже в седьмом номере.
>>841769>>841956
#399 #841769
>>841625
Ничего не изменилось. Почти те же вопросы, те же ответы.
>>841956
#400 #841799
А машинное обучение и анализ данных используются в мобильных приложениях допустим по сети, так как очевидно мощностей смартфонов не хватит? Мне просто интересно, можно ли сочетать мобильную разработку и машинное обучение хотя бы на уровне использования апи.
>>841803
#401 #841803
>>841799
Естественно. Распознавание голоса в айфоне и ведре, например, через сервер делается. Хотя все тужатся сделать суперчип для исполнения нейроночек с низким энергопотреблением, но пока что это мечты.
>>841818
#402 #841818
>>841803
Спасибо за ответ, ну круто тогда.
#403 #841930
>>841574
У меня шишка задымелась.
#404 #841938
>>841574
Она сосёт? У неё кансырь?
Дональд Трамп - наш президент?
>>842015
#405 #841956
>>841625
>>841769
Надо бы шапку подновить. Новый ОП молодец, но тему сисек не до конца раскрыл - книг можно досыпать, как минимум, и FAQ в последних вопросах подробнее сделать. И куда-то делись описания книг. КМК, это важно было - новички охренеют, если случайно первой из списка откроют ESL.
Какую же хуевую тут сделали капчу
#406 #842015
>>841938
хилари няша-змеяша
https://www.youtube.com/watch?v=zXX6XZuV4zI
#408 #842359
>>840591
реддит - кармапараша. Стоит кому-то написать что-то, что противоречит всеобщему "правильному" мнению - заминусуют.
>>842365>>842368
#409 #842365
>>842359
как и весь "демократический" запад
#410 #842368
>>842359
Приведи пример адекватного поста, который заминусовали в /r/machinelearning или в /r/programming.
#411 #842751
Вечер в хату.Скоро предстоит писать НИР, умею в мат. статистику и теорвер(в рамках двухсеметрового курса).Хочу убить двух зайцев, заодно начать вьезжать в машинное обучение.Какого формата задачу поставить?Накидайте примеров.
#412 #842815
>>842751
Гиперспектральные изображения. Сделай с ними что-нибудь. Можешь запилить сегментацию, классификацию. Там же потренерироваться в feature selection.
Только хз, где размеченные данные достать. У меня где-то были сами изображения.
>>842817
#414 #842862
>>842751
распознай мнист
#416 #844087
>>817451 (OP)
Привет, поцоны, кто курил Wavenet от DeepMind? У меня что-то подозрения, что это какой-то хайп. Я сам не смотрел толком, только на ютубе обзоры, на слух звучит не лучше обычного RNN, смотрел комментарии на реддите, там кидали ссылку на свертку новую какую-то, потом, руки дойдут, прочитаю.
>>844105>>844385
#417 #844096
>>840580
Так еще Ын же постоянно во время курса жаловался на то, что у него пложно знакомых датасаентистов с зарплатами в шесть знаков, которые и малой части того, что он в своем курсе дает совсем не знают.
>>844104
72 Кб, 604x575
#418 #844104
>>844096
знатоки вроде тебя наверно по 7-8 знаков загребают, правда?
>>844109
#419 #844105
>>844087
Звучит очень хорошо, но 90 минут на топовой карте для рендера 1 секунды, это слегка неюзабельно. Так что подожди полгодика, может оптимизацию какую придумают.
#420 #844109
>>844104
Я-то тут причем вообще?
>>844127
#421 #844127
>>844109
да не ты
я о том школьнике что форсит тут слесарские курсы от китаёзы
>>844135>>845377
#422 #844135
>>844127
Съебал бы ты в обосцай со своими слесарями.
#423 #844385
>>844087

> DeepMind


> hype


> CNN


Лол.

Работает неплохо, вангую, что там будут ещё пытаться уменьшить количество настраиваемых параметров с помощью какой-нибудь архитектуры типа Inception.
#424 #844688
>>817451 (OP)
Поясните за предмет.
Я так понимаю у вас тут три основных ветки: Большие данные, машинное обучение и нейронные сети.
Не пойму в чем их различия, что востребовано и что куда втыкается.
#425 #844738
>>844688
большие данные ет тип ентерпраиз, денюжка))
мошинное обучене ет для задратов
нейроночки ет тип когда import tensorflow as tf
>>844756>>844875
#426 #844756
>>844738
Не до конца понятно, но все же.
#427 #844763
>>844688
Машинное обучение и нейронки - одни из методов анализа биг даты.
Нейронки в свою очередь можно вписать под машинное обучение.
>>844769
sage #428 #844768
>>844688
Ты бы википедию почитал сначала, прежде чем тут спрашивать.
>>844769
#429 #844769
>>844768
>>844763
Спасибо, теперь все попроще стало.
#430 #844790
Антош, введи меня, пожалуйста, в курс дела. Уже придумали охуенно умных ботов, способных вести осмысленный диалог?
>>844795>>847139
#431 #844795
>>844790
нероночка - массив
гауссов процес - два масива
тренировка - обращение матрицы
нечётко-питушки соснули

> Уже придумали охуенно умных ботов, способных вести осмысленный диалог?


не
>>844864
#433 #844864
>>844795

>не


А что является проблемой?
Во что упирается человечество?
>>844872>>844879
#434 #844872
>>844864
чатботы не приносят деньги
#435 #844875
>>844738
четко расписал для нуба)
по полочкам разложил))
#436 #844877
>>844807
С этими товарищами не поймешь. Этот чел в каментах говорит, что в дипмайнде уже используют эту оптимизацию. При этом один чел якобы из дипмайнда скозал, что генерация секунды звука занимает полтора часа, а этот говорит, что две минуты. Крутят они что-то, секретность навели какую-то, наверное думают что это золотая жила. Хотя оно всего-то немного лучше старых рилтаймовых подходов.
#437 #844879
>>844864
человечество не может четко понять, что такое смысл
пытаются заменить его рандомом, выходит плохо
#438 #844962
Недавно начал изучать Prolog, цель которого, судя по интернетам, писать искусственный интеллект и экспертные системы. Сам я в этом (как и в сабже данного треда) абсолютно не шарю, за несколько дней успел выучить только несколько базвордов и разобраться в устройстве языка. Но насколько я понял, язык и правда предоставляет удобные инструменты для описания кучки правил в какой-либо предметной области.
Так вот вопрос местным экспертам - раз пролог был создан для искусственного интеллекта, можно ли его средства применить в машинном обучении?
>>844966>>844978
#439 #844966
>>844962
ты опоздал на 50 лет
#440 #844978
>>844962
Имхо, всякие императивные вещи на нём описывать очень неудобно. Но можно удобно делать запросы, да.

> удобные инструменты для описания кучки правил в какой-либо предметной области


Но их нужно забивать вручную.

Обучать подобные вещи (тащить структуру из данных) можно, используя графические модели:
http://research.microsoft.com/en-us/um/people/heckerman/tutorial.pdf
>>844984
#441 #844984
>>844978
Вопрос как раз возник из того, что, насколько я понял, заставить систему получать знания извне геморройно настолько, что люди стали использовать для этого питон.

>tutorial.pdf


Ни черта не понял, что там говорится и как это относится к вопросу, объясни ньюфагу, пожалуйста.
>>844994
#442 #844994
>>844984
Кароч, пролог хорошо умеет в семантические сети, семантические сети могут хорошо (неоч) представлять предметные знания. Эти сети в пролог должны вбивать людишки, а этого делать не охота. Поэтому начали придумывать сети, которые могли бы строиться по данным.

Сейчас вроде ещё модны гиперграфы, знаю, что их где-то в когнитивных архитектурах используют, но ссыль не дам.
#443 #845246
>>817451 (OP)
Платина, но пох. (В архивах не нашел)

Что есть градиент для backprobagation на softmax слое?
>>845253
#444 #845253
>>845246
Тебя в школе производные не научили находить?
>>845260
#445 #845260
>>845253
Нет, не учили.

softmax слой это вектор-функция от многих переменных.
Марицу Якоби я найти смогу. Но я не понимаю, что передавать на предыдущий слой в backpropagation.
#446 #845377
>>844127
Чем тебе курсы откитаезы не угодили?
81 Кб, 700x963
#447 #845481
Можно ли с помощью МЛ научиться дорисовывать недостающие части картинки?
Пример на пикрилейтед. Стоит закрасить купальник и наш мозг думает, что баба голая.
То есть, если скормить АИ сотню тыщ голых баб, сможет ли он дорисовать сиськи в данном случае?
#448 #845482
>>845481
попробуй
#449 #845483
>>845481
И хуйцы тоже дорисует.
#451 #845536
>>845481
На автоэнкодерах можно сделать.
Слушай этого >>845489 господина.
>>845582
274 Кб, 864x396
348 Кб, 881x754
#452 #845582
>>845481
ML здорового человека в это могло еще в начале 80-х. Это потом поналезло бабуинов с быдлонейроночками, которые на гугловских кластерах еле дышат.
>>845489
>>845536
Ага, нейроночка ищет в гугле оригинальную картинку вместо покоцаной.
>>845583
#453 #845583
>>845582
Hipster kitten-клоун в ML, спешите видеть.
#454 #845804
>>845481
Learning Deep Generative Models - Ruslan Salakhutdinov
DRAW: A Recurrent Neural Network For Image Generation
Generative Adversarial Nets
и тд
Тысячи статей, и на гитхабе 100% есть имплементации, только обучуающие данные нужны "баба в купальнике -> голая баба", это сложно достать. Легче будет закрашивать уже голым бабам сиськи. Но все равно это нудная и рутинная работа.
>>846139
#455 #845835
Что по поводу сканирования людей и создания на основе этого трехмерных моделей, которые повторяют контуры лица, тела и тд? Есть успехи?
>>845844>>846447
#456 #845844
>>845835
сними шлюху ёпт
>>845848
#457 #845848
>>845844
У меня научный интерес к данному вопросу. Если говорить о практическом применении, можно было бы сделать виртуальные примерочные, не выходя из дома подбирать себе одежду, опять же аватары для виртуальных миров. Или распознавание картинок - это предел?
>>845854
#458 #845854
>>845848
При чем тут machine learning?
>>845856
#459 #845856
>>845854
Ну я думал это из области ai, чем как раз машинное обучение занимается, научить программу строить трехмерные модели на основе видео/фото файлов
>>846171
#460 #846139
>>845804
натрави другую сеть на локализацию сисек
#461 #846171
>>845856
Больше похоже на классический computer vision. Другой вопрос, что без системы типа кинекта (с освещением сеткой) нормальную точность не получишь.
#462 #846447
>>845835
http://old.ektf.hu/tanszek/matematika/hofi/head_model_NN.pdf
хотел другую статью найти, там строили 3д модели зданий и тд, в глубину можно было ходить, но 10 секунд в гугле только это выдали
>>846461
#463 #846461
>>846447
Спасибо, схоронил, я вообще по фану спросил, но сама тема интересна
#464 #847011
>>840580

> Жду БУТКЕМПЫ за 20 ТЫСЯЧ ДАЛЛАРОВ уровня СТАНЬ ДАТА САЕНТИСТОМ или ИКСПЕРТОМ ПО МАШИН ЛЕРНИНГУ за 12 недель!


Уже есть такое. Видел на днях даже.
http://newprolab.com/bigdata/?utm_source=habr&utm_medium=habr&utm_campaign=new
>>847027
#465 #847027
>>847011
Интересно, за сколько времени окупается этот курс?
От курса Ына отличается лишь наличием хадупов, азуры и прочей энтерпрайзной мишуры без бара, важной, но 180к это не стоит
>>847028
#466 #847028
>>847027
> без базара
быстрофикс
#467 #847139
>>844790

>Уже придумали охуенно умных ботов, способных вести осмысленный диалог?


https://www.youtube.com/watch?v=pIORV4DMbHQ
24 Кб, 615x410
#468 #847568
>>847714
#469 #847570
алсо

> Delivery £11.99


лолблядь
#470 #847714
>>847568
можно было бы от гарантии отказаться, цены бы им не было :3
#471 #848019
>>817451 (OP)
Кароч, пацаны, я в универе немного мутил регресси в ехеле + смотрел пару курсов по анализу данных, но из-за этого хайпа не могу понять что и как изучать, в каком порядке.
Энивей, тут такое дело.
Наткнулся на вакансию младшего аналитика, прислали несколько тестовых заданий.

1. 1 сентября 2015 года на двух телеканалах разместили два ролика с различными номерами заказа такси. В течение недели оба ролика прокрутили по 40 000 раз. В течении этой недели на первый номер поступило 10 000 звонков и было совершено 7 670 поездок, а на второй — 12 000 звонков и 8100 поездок. Маркетолог просит у вас совета: какой канал оставить, а какой отключить? Что вы ему ответите? Обоснуйте свой ответ.

2. При доставке товара, заказчик может оценить качество работы курьера, либо положительно (поставив «лайк»), либо отрицательно (поставив «дислайк»). Предложите систему (формулу или набор правил) расчета рейтинга курьеров на основе истории их оценок, которая позволила бы определять и отсеивать курьеров, которые работают хуже остальных (код или какие-то другие материалы, созданные в ходе решения приветствуются).

Выглядит одновременно и легко и, мне кажется, не все тут так просто.
Эни айдиас в какую сторону копать?
>>848722
#472 #848722
>>848019
Конверсия-хуеверсия.

> Эни айдиас в какую сторону копать?


Что копать? Чего ты хочешь?
#474 #850533
>>849703
Отняшил бы красавца в попчан?
Отдался бы ему за место с ним в команде кегли?
>>850581
#475 #850581
>>850533
Чувак в 17 лет имплементит топовую статью с переднего края машинлернинга. Если это не круто, то что тогда круто? Вспомни что ты делал в 17 и ужаснись.
>>850587>>850591
#476 #850587
>>850581
Круто делать что-то новое, а не import tf.
#477 #850591
>>850581
Не спорю, что он крут, но на вопрос ты не ответил.
>>850966
#478 #850966
>>850591
Ну... Я бы, пожалуй, сделал его членом своего стартапа. Если ты понимаешь, о чем я.
#479 #852131
Один раз мне здесь подсказали годную литературу, мб в этот раз тоже прокатит.
Анончики, есть ли исчерпывающие туторы по information theoretic learning? Чтобы с ответами на вопросы, чем критерий коррэнтропии пизже критерия относительной энтропии и прочее. Гугл даёт только что-то отдельными статьями. Я заебался.
#480 #852587
сап аноны, есть ли тут кто-то кто работает в ML сфере без вышки?
поделитесь опытом/историей плиз
>>853000>>853012
#481 #853000
>>852587
это невозможно
для ML нужно знать много математики, а математику учат только в вузах
>>853007
#482 #853007
>>853000
А в чём проблема изучить её самостоятельно?
Благо литературы, курсов, ресурсов всяких более чем достаточно.
>>853012
#483 #853012
>>852587
Здесь проблема втом, чтобы вообще найти кого-нибудь, работающего в сфере ML. А ты тут ещё без вышки просишь, лол.

>>853007

> А в чём проблема изучить её самостоятельно?


Количество времени, которое нужно потратить, высокий порог вхождения, постоянное ощущение того, что ты что-то не понимаешь. Не каждому дано это.
>>853016
#484 #853016
>>853012
А вуз то чем тебе поможет? Единственное чем вуз отличается от самообразования, это то, он более менее заставляет учиться
>>853017
#485 #853017
>>853016
Ничем.
Однако, практика показывает, что порой распиздяй, дотянувший до четвёртого курса, может вытащить из глубин разума хоть какие-то минимальные знания анализа.
#486 #853022
Вступительные в ШАД пиздос дизморалят, и это после того, как я ботал как зверь последние полгода.
>>853050>>853121
#487 #853050
>>853022
Проглядел:
https://download.cdn.yandex.net/shad/exam-2014.pdf
Знаю как решается одна задача, видел ее в учебнике по терверу.
Монеты наверное тоже просто, все остальное сходу не знаю как решать. 5 часов мне явно не хватит.
>>853121
#488 #853121
>>853022
>>853050
Умение решать подобные задачи - без пизды охуительный и полезный навык, без сарказма. Но освоить мл на слесарском уровне можно, и не попадая под монструозные требования шада.
Просто берёшь курсы китаёзы, бишоп и мёрфи и без задней мысли проходишь весь материал с прорешиванием всех задач. Времени уйдёт уйма, но другого пути я не знаю.
>>853163>>853176
#489 #853163
>>853121
Только такой путь и есть. ШАД - ебота та еще. Типичная подмена понятий "раз мы соберем умнейших людей ебическими экзаменами не по теме, ЭТО ЗНАЧИТ, что мы учим хорошо". А не потому что люди умные и их похуй, как учить.
#490 #853176
>>853121
Ng вьетнамская фамилия, не?
188 Кб, 1024x768
#491 #853178
>>853176
отклеилась
#492 #853262
>>853176
Пойду у соседа вьетнамца спрошу, а нет, не спрошу, мне похуй.
#493 #853264
>>853176
Он китаец из гонконга.
#494 #854889
Так чо, есть работа по ML или нету? Что профитнее, на питоне сайтики клепать или табличке в pandas мерджить?
>>854904>>855002
#495 #854904
>>854889
Для кого-то есть. для кого-то нет. Сам то кем будешь?
>>854999
#496 #854999
>>854904
чел с высшим техническим, инженер. прошел курсы от Ng,на кэгле есть опыт, несколько книжек прочитал.
Пока что вакансии видел только для лютых задротов-надмозгов, к коим не отношусь
>>855117
#497 #855002
>>854889
я работал неделю на апверке за 15 баксов в часов, потом уехал на юга и забил. Мне очень стыдно, и, боюсь, другой шанс устроиться в мл с моим гуманитарным образованием у меня очень нескоро появится.
>>855006
#498 #855006
>>855002
и очень странно было работать, так как если клепать сайтики, то там все отлично, а тут большая часть времени уходит на тренировку моделей, чтение нужных статей и тд, а импорт тензорфлоу эз тф - это 2 минуты.
>>855027
32 Кб, 512x512
#499 #855009

> Быть великовозрастным вкатывальщиком, полным нубом в кодинге


> Не знать матана, не мочь даже вывести формулу для квадратных уравнений


> Никогда не осилить и 20% обсуждаемых в треде вещей, куда уж там прочесть Бишопа/Мёрфи


> Никогда не побывать в писечке няшной мл-щицы Леночки и не уехать к ней в Канаду няшиться под пледиком


Зачем жить, байесаны?
#500 #855027
>>855006
а что за работа была, что делал? И как её получил?
>>855045
#501 #855045
>>855027
ну, профиль на upwork.com (тогда одеск еще) у меня давно висит, хотя опыта вообще нет. Один раз получил заказ года три назад на парсинг, когда осваивал только питон и программирование, но я не смог разобраться с автоматическими сменами прокси и прочим, денег за проект не получил. Летом обновил профиль, добавил туда инфу про машинное обучение. Поговорил с дядькой по скайпу на английском. Что делал - в этом весь вопрос. Меня просили помочь придумать, как их проект можно улучшить с помощью нейроночек, но фирма, видимо, не очень большая, и данных мало (мне дали всего 300 картинок с описаниями, обучаться было проблематично), так по картинкам выдавал текст из скольки-то там категорий, категории пересекались. Я порыпался с недельки две-три, что-то обучил сильно переобученное и с низкими результатами, на том и все закончилось.
41 Кб, 314x604
#502 #855117
>>854999
I know that feel, bro.

Ищи трактор.
Optical character recognition #503 #855552
Подскажите, какие существуют открытые библиотеки для распознавания текста с изображений с возможностью подключения в С++? Помимо OpenCV и TesseractOCR
>>855670
#505 #856142
Двачик с какой книжечки в шапке начинать изучать ML?
>>856149
#506 #856149
>>856142
Зависит от твоего бэкграунда.
Нубам с курсы китаёзы.
Людям с оброзованием можно сразу брать пару из Бишопа и Мёрфи.
>>856151
#507 #856151
>>856149
Че за китаёзы? В шапке только хачи.
>>856153
#508 #856153
>>856151
Andrew Ng, mlclass на coursera
#509 #856180
Надо бы запилить перекат, но мне впадлу.
>>856237
Обновить тред
Двач.hk не отвечает.
Вы видите копию треда, сохраненную 4 ноября 2016 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски