Этого треда уже нет.
Это копия, сохраненная 9 июня 2016 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
90 Кб, 640x360
Computer Science & Machine Learning #2 #733276 В конец треда | Веб
Тред #1: https://arhivach.org/thread/147800/

Machine Learning 101:
1. Introduction to Statistical Learning, Casella ( http://www-bcf.usc.edu/~gareth/ISL/ISLR Sixth Printing.pdf )
Читается легко, неплохая разминка перед ESL
2. Pattern Recognition and Machine Learning, Bishop.
3. Bayesian Methods for Hackers. Введение в байесовские методы, годно.
4. http://neuralnetworksanddeeplearning.com
Введение в нейронные сеточки для самых маленьких. Написано простым английским.
Machine Learning Advanced
1. Elements of Statistical Learning (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.
2. Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.
Иногда from sklearn.linear_model import LogisticRegression перестает работать и тогда нужно все переписать. Оптимизация квадратичных приближений на больших объемах данных, разреженные модели, суррогатные оптимизации - вот это все тут есть.

Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.

Computer Science
1. Intoduction to Algorithms, Corman
2. The Art of Computer Programming, Knuth
3. Compilers: Principles, Techniques, and Tools. Разработчикам компиляторов и прочим авторам убийц питонов и крестов посвящается.

Programming
1. Python Unlocked. Короткая книжка без соплей. В ней описаны метаклассы, дескрипторы, системы типов, шаблоны проектирования и TDD. Всего чуть больше 100 страниц концентрированной сути.
2. Code Complete (2nd), McConnel.
Неплохая книга. Не то чтобы обдрочиться, но в голове всякие фишки по структуризации кода и его проектированию остались.

Misc
1. Telegram: @techsparks
Подкаст про всякие гик-штуки.

F.A.Q
По мотивам предыдущего треда.
Эти ваши книжки стоят овер 9000 рублей, как быть? Как ОП, крайне не одобряю пиратство и рекомендую при возможности все-таки покупать книги, но если вы жмот вам надо кормить 10 детей, то идите сюда http://libgen.io
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Но ведь есть Machine Learning per se, чем он занимается?
Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и их возможные архитектуры, но даже они двигаются рука об руку с практикой.
Что такое TensorFlow?
TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
#2 #733287
Единственное о чём мечтаю: вкатиться в ML.
Курсы прохожу, книжки читаю, задания делаю.
Но как мне работу найти?

На данный момент опыта программирования за деньги - нет, но специальность математик-программист имею.
>>733297>>749404
#3 #733293
>>733276 (OP)
Настало время узнать чтото по ОПтеме.
#4 #733297
>>733287

>вкатиться в ML


Это самоцель? Имхо, так далеко не уедешь.

>Но как мне работу найти?


hh.ru, blastim.ru, yandex.ru/jobs/ - это если нет знакомых.
>>733340>>733356
#5 #733340
>>733297

>Это самоцель? Имхо, так далеко не уедешь.


А вообще, чем можно заниматься вкатившись в ML? Что это вообще такое? Как оно может пригодится в быту, т.е. как я могу использовать знания ML в повседневной жизни?

Платина:
Какой математический бекграунд нужно иметь, чтобы свободно плавать в ML?
Разумно ли заниматься ML, если ты даун, вылетевший с девятого класса, не освоивший математику даже на уровне седьмого класса?

Вам не нужно вводить капчу, у вас введен пасс-код.
#6 #733349
>>733340
Вот этот вопрос поддержу. Алсо, хватит ли проситать основы тервера и матстата?
>>733579
#7 #733356
>>733297

> Это самоцель?


Мне нравится возится с данными, анализировать, искать закономерности и т.п. Было бы здорово заниматься этим.

> hh.ru, blastim.ru, yandex.ru/jobs/


Если написать в резюме: закончил универ, прошёл пару [десятков] курсов и хочу вкатиться джуниором, то возьмут или нет?
Если нет, то какой минимальный опыт нужен?
Какой проект для портфолио можно запилить?
>>733370>>733442
#8 #733361

>https://vk.com/deeplearning


>Участники 5 502

#9 #733370
>>733356

>Мне нравится возится с данными, анализировать, искать закономерности


Как ты об этом узнал? Тебе просто нравится об этом мечтать?
>>733421
#10 #733386
Можно ли с помощью машинлернинг заставить машину увидеть группу людей, опеделить чем и вообще вооружены ли они, оценить обстановку, и принять решение ебнуть ракетой? Я правильно себе представляю область приминения?
>>733397>>733442
#11 #733394
Как найти работу без знакомых, работающих в этой области?
sage #12 #733397
>>733386
можно и без
>>733404
#13 #733404
>>733397
Пусть роботы убиваю, у них совести нету
#14 #733421
>>733370
Например, потому что примерно со второго курса в качестве развлечения писал парсеры разных сайтов, складировал данные в таблицы, искал закономерности и т.п. Но ничего круче статистики и кластеризации не использовал.

В любом случае, я спрашивал не "а правда ли мне понравится работать?", а "как вкатиться?"
>>733422>>733443
#15 #733422
>>733421

>"как вкатиться?


ОПпост читай
>>733437
#16 #733437
>>733422
Из него не понятно:
- какого уровня проект нужен для портфолио
- берут ли без опыта работы программистом
>>733439
#17 #733439
>>733437
Меня взяли ещё студентом. Из опыта работы у меня было пару более менее серьёзных прог на Delphi. Причём взяли на похапе
>>733441
#18 #733441
>>733439
А хотя ты наверно спрашивал именно про программирование в ML
# OP #19 #733442
>>733340

>А вообще, чем можно заниматься вкатившись в ML? Что это вообще такое? Как оно может пригодится в быту, т.е. как я могу использовать знания ML в повседневной жизни?


Какая такая повседневная жизнь? Если ты про работу, то можно распознавать картинки, заниматься ботообороной, анализировать поведение пользователей, пилить поиск и рекламные системы, рыскать по биоинфоматическим данным. Если же ты про то как выжить в лесу при помощи ML, то хуй знает что тебе посоветовать. Можно запустить на видяхе какую-нибудь йобу и кашу сварить на раскаленном радиаторе, збс греет.

>Какой математический бекграунд нужно иметь, чтобы свободно плавать в ML?


Статистику, это основное. Алгоритмы, немного функана - должно хватить. Из личного опыта - у меня матмеховское образование; с одной стороны оно вроде бы оверкилл, с другой стороны проблематично оценить степень влияния на мышление и способность воспринимать прикладной материал. Кажется, что без матмеха я был бы глупее. А вот ШАД полнее покрыл мои рабочие нужды.

>Разумно ли заниматься ML, если ты даун, вылетевший с девятого класса,


Стоит определится, хочешь ты свободно плавать или все же ты даун. Некоторую математику стоит знать.
>>733356

>Если написать в резюме: закончил универ, прошёл пару [десятков] курсов и хочу вкатиться джуниором, то возьмут или нет?


Да, возьмут. Правда еще есть собеседования, но если ты не просто закончил универ, а что-то из него вынес, то это не будет проблемой.

>Если нет, то какой минимальный опыт нужен?


AFAIK для джуна промышленного опыта особо не нужно. Если руки не из жопы и опыт решения каких-нибудь простых задачек есть, то полдела в кармане.
>>733386
Да, можно. Это как раз примерно то, чем исследования в распознавании образов занимаются именно сейчас.
#20 #733443
>>733421
Никак, лол. Те, кто могут вкатиться, не выспрашивают об этом на харкаче.
>>733511
# OP #21 #733500
>>733340

>как я могу использовать знания ML в повседневной жизни?


Кажется, неправильно тебя понял, поэтому дополню свой прошлый ответ. Применение в быту у ML есть, хотя зачастую такое применение выглядит гиковски и уж точне не жизненно необходимым. Вот тебе пример: у меня во дворе постоянно забита парковка и три недели назад, в очередной раз приехав поздно вечером и не найдя места для своей поповозки, я серьезно взбугуртнул и на следующих выходных вывесил за окно панорамную камеру для наблюдения за ситуацией на паркинге. Такое пассивное наблюдение оказалось не очень жизнеспособным, так как при подъезде к дому на экране телефона проблематично разобрать картинку. Поэтому очередные выходные были потрачены на то, чтобы добавить подсчет свободных мест в Caffe в разных зонах парковки (так как к ним разные подъезды и нужно заранее знать куда ехать). Еще у меня есть машинка, которая умеет ездить по разметке на бумаге - в ней тоже под капотом бьется Caffe.
Но, откровенно говоря, какой-то убийственно нужного применения ML именно в быту и именно сегодня я назвать не могу. Такие системы только-только входят в нашу жизнь, поэтому сейчас такие вещи могут казаться блажью и излишеством.
В IT - да, таких применений миллион.
>>733507
#22 #733501
как с няшными тяночками в отрасли?
>>733507
# OP #23 #733507
>>733500

>точно


>какого-то


>>733501
Все хорошо.
#24 #733511
>>733442

> если ты не просто закончил универ, а что-то из него вынес, то это не будет проблемой.


А что на собеседованиях спрашивают?

>>733443
Жил бы я не в мухосранске - ходил бы по собеседованиям. А в слепую ехать не хочется - проебу деньги, не устроюсь и вернусь с позором.
#25 #733512
>>733511

>А что на собеседованиях спрашивают?


Хуи сосешь? Бочку делаешь?
5700 Кб, 3000x1971
# OP #26 #733516
>>733511
Зависит от компании, позиции, собеседующего. В Я, Рамблере и Мейле, насколько я знаю, на джунов дают задачки.

>А в слепую ехать не хочется - проебу деньги, не устроюсь и вернусь с позором.


Это последнее, чего стоит бояться. Страшнее так и не попробовать.
# OP #27 #733517
>>733511
И да, в Я сначала идет Skype-собеседование и только после этого приглашают на очную ставку.
#28 #733579
>>733349
>>733349
Там основы, которые тянут другие основы.
#29 #733900
>>733511
Сидя в мухосранске ты никогда ничего не добьешься. Очевидно же, что спрос на МЛ рождается только при некотором минимальном уровне технологического развития. Если население промышляет только грабежом, перепродажей и распилами, то какой там может быть МЛ? Это относится во многом ко всей рахе, техническая отсталость которой от первого мира порядка 10 лет.

Наивно думать, что в Яндексе тебя прям возьмут на позицию, где требуется МЛ, при том что ты никто. Там очередь у них стоит из ШАДников, тех что недостаточно круты для трактора (однако даже по сравнению с ними ты пустое место). Если тебя туда и возьмут, то только говночистом. Будешь скрипты какие-нибудь клепать, прозябая на джунской должности без развития.
>>733917
#30 #733917
>>733900

>10 лет


Слабо взял. Хочешь сказать, через 10 лет мы запилим свой Windows, Intel, Apple, Tesla и прочие тачанки и медицину?
Лет 40 здесь, не меньше.
>>733928
#31 #733928
>>733917
Ну да, это сложный вопрос. По медицине, например, согласен с 40 годами. По софтострою отставание поменьше, ну вот тот же Яндекс довольно продвинутый ведь. Не Гугл, но тем не менее.
Windows не запилим, так ведь и какая-нибудь Франция тоже своей ОС не имеет, тут скорее отличие количественное.
>>734397
#32 #733962
медицина в бриташке отвратительна
на любое заболевание тупо прописывают обезбаливающее и отправляют домой
приходится ездить к себе в латвию за нормальными лекарствами/операциями
#33 #734069
– Вот поэтому-то я, господин, и предлагаю изготовить машину, которая сможет сообщать тебе волю богов, – механический оракул. Это тебе не какой-нибудь упившийся жрец, бормочущий хвалы Бахусу за задернутой занавеской. И не учебник по толкованию линий руки или свойств помета храмовой лани, посвященной богине Артемиде. Нет, то будет машина, в которую я загружу истории всех прошлых битв и сражений: стратегии, тактики, принесенные жертвы, диспозиции военачальников, рельеф местности, действия опытных сотников. Сей аппарат будет хранить всю историю военного дела Греции и Рима – и не только, ибо я научу его всем путям и обычаям рода людского. И если какой-нибудь консул вроде тебя пожелает узнать исход отдельно взятого сражения, целой войны или каких-нибудь трудных переговоров, достаточно будет набрать вопрос и предоставить действовать механизму. Он просеет тысячу военных трактатов и десять тысяч битв и выдаст тебе предсказание – и это будут не сомнительные жреческие побасенки, но сама мудрость богов, которые взирают с небес на нас, будто расставленных на столе для игры – понятных и предсказуемых в поступках наших, движениях и желаниях, словно бредущие цепочкой муравьи.
<...>
– Будет у нас коллегия весталок, непорочных и отрезанных от мира, – пояснил он. – Только в мужеска пола.
– И правда, – согласился Марк Фурий, – собрание чистых отроков, никогда не видящих дневного света, – самое то что надо для управления счетной машиной подобного рода.
248 Кб, 1856x2786
#35 #734253
Почему про нечеткие множества в оп-посте нет ничего? Единственное перспективное направление в ML уже не в моде?
>>734497
#36 #734397
>>733928
А что, Франция по софтостроению не отстает?
#37 #734497
>>734253
Напиши что-то годное про нечеткие множества, добавлим в шапку в следующий раз.
>>736014
#38 #734547
>>733276 (OP)
Пока вы тут дрочите на кнута, кормена и ахо скину я немного годноты по КС http://www.mi.ras.ru/~podolskii/hse.html
>>734556
#40 #734561
>>734556
и чо?
#41 #734999
Это и Ai тред? Или есть свой. Поиск, csp, mdp, hmm, bayes nets, вот это всё.
>>735024>>735084
#42 #735024
>>734999
Милости прошу к нашему шалашу.
#43 #735084
>>734999
AGI школьники обсуждают здесь:
https://2ch.hk/pr/res/717453.html (М)
>>735202
sage #44 #735202
>>735084
Полезного там мало.

Есть ли у кого настолько же хорошие ссылки по ai, как в ОП-посте?
>>735203>>735445
#45 #735203
>>735202
Сажа прилипла
#46 #735249
Кстати, помните, как в библии было написано? Люди появились в результате того, что ангелы брали жен человеческих и от их союза появились люди.
Роботехника ща в основном в сторону секс-игрушек идет. Вдруг люди будущего будут результатом спаринга людей и роботехники?
>>735431>>736862
#47 #735431
>>735249

> Роботехника ща в основном в сторону секс-игрушек идет


Есть пруфы?
>>735447>>735448
#48 #735445
>>735202
Всё в статьях чаще всего. Первые авторы, которых вспомнил:
Goertzel, Hutter, Schmidhuber.
Обзорная статейка:
https://pdfs.semanticscholar.org/72e1/4804f9d77ba002ab7f1d3e3a5e238a3a35ca.pdf
#49 #735447
>>735431

> в основном


Это он борщнул, но на гиктаймсе мелькают статьи про секс с роботами.
https://geektimes.ru/company/robohunter/blog/251052/
https://geektimes.ru/company/robohunter/blog/259922/
https://geektimes.ru/company/robohunter/blog/263562/
20 Кб, 615x411
46 Кб, 615x410
271 Кб, 499x321
#50 #735448
>>735431
ты в каком бункере живешь, маня?
http://www.scoopnest.com/user/TerezOwens/639292740627337217
>>735462
#52 #736014
>>734497

>Напиши что-то годное про нечеткие множества, добавлим в шапку в следующий раз.


Именно про применение в задачах ML очевидная годнота А. Пегат, "Нечеткое моделирование и управление". Очевидный плюс - вся матчасть с нуля, можно рекомендовать даже тем, кто в душе не ебет что такое нечеткое множество. Самый заметный минус - некоторые довольно элементарные вещи даны излишне заумно.
>>737605>>749329
180 Кб, 480x486
#53 #736568
>>733276 (OP)
Прохожу ml на курсе от Andrew Ng и вот этот курс:
http://cs224d.stanford.edu/syllabus.html

Ничего толком не понимаю. Во всяких quiz'ах набираю 4/5 баллов, в заданиях просят брать производные, ну окей, делаю, задания на программирование по инструкциям выполняю, все вроде работает, НО все равно ничего не понятно!
Отберите у меня инструкции и с нуля я ничего не сделаю. Тащем-то в первом курсе на octave писал forward / backward propagation, во втором уже на питоне и пришлось заново разбираться как это работает.
Для backprop'а и вовсе мне потребовалось посмотреть 3 разных лекции, чтобы примерно понять как и почему оно работает, и то я до сих пор не уверен.

Лучше бы они не предоставляли заготовки с кодом, чтобы совсем-совсем с нуля нужно было писать все. Так бы лучше усваивалось.

> 1. Elements of Statistical Learning


Натыкался на совет почитать это, скачал, полистал и это ужасно.

Ах, пофиг, со временем все осилится. Надо просто читать все эти whitepaper'ы с описаниями всяких методов, пробовать реализовывать в коде и тинкерить.

Правда, проблема еще в том, что железо дохлое, никаких cuda-хов, сплошные старые ноуты без дискретных видеокарт. Вот задание из cs224d выполняется уже фиг знает сколько, можно отправляться спать в надежде, что утру закончится.
#54 #736862
>>735249

>что ангелы брали жен человеческих и от их союза появились люди.


Вут, откуда же взялись жены человеческие, если только от них появились люди? Или библия намекает, что жены человеческие -- не люди?
>>737701
#55 #736995
>>736568
>>736568
попроси у анонов доступ к сервачку, быстрее будет
#56 #737477
>>736568
Могу пояснить за backpropagation. По сути это тупо градиентный спуск. Т. е. тебе надо тупо посчитать частные производные по весам (они считаются рекуррентно с помощью chain rule). Посмотри на вики как выводятся формулы и потом сам выведи не подсматривая.
#57 #737480
Кстати, может кто-то объяснить, почему нейросети так хорошо работают? Допустим, у нас 500 связей. В 500мерном пространстве может быть дохуя локальных минимумов, почему мы попадаем именно в какой-то хороший локальный минимум?
#58 #737489
>>737480
Вообще-то они весьма плохо и работают. Результат достигается многократной прогонкой gradient descent при разных (как правило, рандомно сгенерированных) НУ. Плюс разные свистоперделки типа deep learning, чтоб веса первых слоёв тренировались. Есть такой феномен, когда NN учит только среднее по выборке, втречается нередко. Я могу даже на пальцах расписать, как происходит обрубка первых слоёв и NN обсирается с обучением.
>>737571>>737576
#59 #737523
>>733276 (OP)

>Computer Science


Блять, это действительно смешное слово или я один такой долбоёб? Даже наша ИНФОРМАТИКА звучит лучше, чем это. Так и представляю, как сидят две англоязычных бабушки на лавочке, и одна другой хвалится "Вот, Тереза, мой внучок Джо отучился, теперь он phd КОМПЬЮТЕРЩИК*"
>>737568>>737605
#60 #737567
>>737480

>может кто-то объяснить, почему нейросети так хорошо работают?


Потому что они универсальные аппроксиматоры функций. Еще Колмогоров и Арнольд доказали, что функция от любого числа аргументов представима через суперпозицию частных функций от 1-2 переменных. Именно так и работает тот же 3-слойный перцептрон. У Горбаня это подробно разобрано.
#61 #737568
>>737523
Оно смешное, потому что слово "компутер" приобрело иные оттенки в русском языке. Англоговорящим человеком Computer Science воспринимается скорее как "науки о вычислениях"
#62 #737571
>>737489
Пиздец у тебя каша в голове
>>737586
#63 #737576
>>737489

>Вообще-то они весьма плохо и работают. Результат достигается многократной прогонкой gradient descent


Это недостаток не нейросетей как таковых, а методов настройки свободных параметров - бекпропагейшна, градиентного спуска и т.д. Поэтому именно эти методы и пытаются допилить или заменить на что-то другое, тогда как собственно структура того же многослойного перцептрона не менялась с середины прошлого века.
>>737586
#64 #737586
>>737571
Каша в дупе твоей мамки, а я математик.

>>737576
Долбаёб, а что, по-твоему, NN? Вектор параметров на вектор базисных функций. А ты, картофан, видно думаешь, там какая-то магия. И чем ты собрался заменять BP? Лолблядь, хоть почитай про оптимизацию. Алсо

>бекпропагейшна, градиентного спуска


> имплаинг, это разные вещи


Плебеи. Плебеи никогда не меняются.
>>737600>>737681
#65 #737599
ОПчик, ты вроде проходил курсы от ШАДа, но не включил ни одного в список учебных курсов. Те, что в ОП-посте, полностью покрывают материал ШАДа?
>>737605
#66 #737600
>>737586

>Каша в дупе твоей мамки, а я математик.


Ранец собрал, математик?
>>737633
#67 #737605
>>737599
Привет, включать курсы я не стал, зачем? По поступлению в ШАД тебе расскажут обо всех курсах, а не ШАДовцам эти курсы не доступны, так что если я даже посоветую курс, то это будет бесполезный совет. Или ты что-то другое имел ввиду?
>>737523
Вроде бы никогда не проигрывал с этого.
>>737480

>почему мы попадаем именно в какой-то хороший локальный минимум?


Никто этого не гарантирует, просто запустив 1000 раз обучение и выбрав лучшие результаты, мы предполагаем, что они не так далеки от истинного минимума. Тем более редко когда требуется глобальный минимум. И да, НН универсальные аппроксиматоры, как уже тут заметили.
>>736568
Пробовал заказать машину на амазоне?
>>736014
А можешь описать чем вообще такой подход лучше/хуже, чем постановка задач оптимизации в классическом варианте?
>>737626>>743328
#68 #737614
крутой тред
автор, пили ещё
#69 #737616
Заканчиваю прикладную математику в универе, параллельно работаю джава девелопером. Хочу перекатиться во фриланс, посему вопрос- есть ли в ML сфере фриланс?
#70 #737626
>>737605

>Или ты что-то другое имел ввиду?


Да, там же есть открытые курсы по машинному обучению, по теорверу, по алгоритмам. На них можно забить, если буду дрочить Elements of Statistical Learning?

И еще вопрос: есть что-то вроде джун-вакансий по ML? Чтобы порог входа был пониже, чем у полностью готового спеца? Я нихуя не умею в ML, но хочу заниматься этим в конце концов на серьезном уровне. Проблема в том, что денег у меня не работать нет, и, вместо того, чтобы изучать ML, я ебусь с iOS, чтобы наработать некий капитал, чтобы упороться ML фуллтаймом.
>>738229>>738295
#71 #737633
>>737600
Слив засчитан.
#72 #737681
>>737586

>>бекпропагейшна, градиентного спуска


>> имплаинг, это разные вещи


Но бекпропагейшн это поиск градиента, вычисление его значения, а градиентный спуск это использование градиента для минимизации некоторой функции, причем градиент можно и иначе вычислять, например, с помощью приближенных вычислений [(f(x + h) - f(x)) / h]. Разве не так?
>>737698>>738136
#73 #737698
>>737681
))))
Познания в математике уровня пр.
>>738136
#74 #737700
не знаю господа, мне хочется внести какой-то вклад в эту роботехнику и умные самообучающиеся проги. Но я такой тупой, я не смыслю в матане, я даже до конца не могу понять принцип работы перцептрона, там единицы, нолики, тренируешь его, потом записываешь результат в массив, потом берешь из него значение? В роботехнике я тоже полный ноль, паять не умею, детали хрен купишь в моей мухосрани да и дорого, наверное.
никакого иного применения для нейросетей, кроме моделирования поведения персонажей в игре, я не вижу. И вообще весь кодинг в моем понимании сводится к решению очень тривиальных задач - создание игр и веба под различные платформы и взаимодействие с апи интернет-гигантов типа фейсбук, вк, телеграм и т.п.
Какое направление вы бы обозначили в этой области в ограниченных условиях обычного кодера из провинции, как я например? Пытаться применить принцип перцептрона в геймдеве?
>>737790>>738295
#75 #737701
>>736862
Под женами человеческими очевидно подразумевались какие-нибудь полуобезьяны-неандертальцы.
#76 #737790
>>737700
Да забей ты на это хайпнутое говно, бро. Душа ИИ живёт в матлогике и символьных вычислениях. Так что угорай по Lisp, Prolog и еби весь этот ML в рот.
1537 Кб, 1171x659
#77 #737918
оп выходи на связь

читаю вот эту дичь
2. Об интеллекте. http://archism.narod.ru/lib/bleiksli_sandra_ob_intellekte.pdf

понравилось

подкинь подобного
но чтобы без маразма

мне интересно читать о работе мозга, и всё такое
ну ты понял
>>737920>>738295
#78 #737920
>>737955>>737961
#79 #737955
>>737920
пасибки
#81 #737974
>>737961
Проиграл.
#82 #738136
>>737681
не слушай >>737698-неосилятора
>>738673
#83 #738229
>>737626
двачую.
Есть ощущение, что единственный способ вкатиться в ML, это через ШАД. Серьезно, есть другие пути?
#84 #738233
>>738229
В долине трактористов про ШАД никто ничего не знает, если что. Так что с этой т.з. это просто потеря времени.
>>738240
#85 #738240
>>738233
но вкатываться в отросль придется здесь, а не в долине трактористов.
>>738241
#86 #738241
>>738240
То есть тебе материалы именно на русском нужны?
>>738248
#87 #738248
>>738241
нет. я, вообще, не про обучение, а про то, как влиться в отрасль в рф. Рабовладельцам же нужны какие-нибудь пруфы твоей компетенции и, у меня ощущение, что гит с пет проджектами ими будет оценен меньше чем какой-нибудь шадовский сертификат.
>>738295
#88 #738256
>>738229
Меня раздражает закрыть ШАДа. Хули им стоит выложить лекции на всеобщее обозрение? Ок, они не хотят тратить время преподов на проверку домашних заданий анонов, ну пусть и не тратят. Но что за жлобство не выложить лекции+задания в открытый доступ я не понимаю.
>>738260>>738295
#89 #738260
>>738256
мне кажется, в ШАД стоит идти только за сертификатом. В плане образования, по-любому, ничего лучше, чем пилить собственную йобу, и попутно находить решение возникающих проблем. Тем более материала в инете дохерища, начиная с десятков открытых курсов на coursera, edx и тд.
#90 #738261
>>738260
Там жи ж дохрена математики. Йобу пилить - это, конечно, нужно, но математику без помощи довольно долго будешь вдуплять. Плюс курс в ШАДе весьма фундаментальный. Ты проходил ШАД?
>>738263
#91 #738262
>>738260
ну и, судя по вступительным они отбирают охуеть каких математиков. Из моего, небольшого, экспириенса -- ML это, все-таки, прежде всего инжиниринг.
#92 #738263
>>738261
мой ответ выше. Из моего экспириенса достаточно знаний( даже не первой свежести) линейной алгебры и основ общей алгебры.
740 Кб, 1920x1080
# OP #93 #738295
>>737626
Открытые все ок, но это самые первые и простые курсы.
Воронцова тут уже обсасывали - нормальная база, правда без семинаров 50% пользы исчезает. Бабенко - очень хорошо. Я не знаю какой курс выложен в паблик, продвинутый или обычный, если первое, то считай, что крупно повезло - куча топового материала для расширения сознания.
Сухорослов - это вроде бы жаба+паралелльные вычисления. Рекомендую только если ни того, ни другого не знаешь.
Про Райгора и Верещагина ничего сказать не могу - курсы примерно совпадали с тем, что было на матмехе, поэтому я смотрел курсы удаленно и только половину из них. Вроде было ок.

>На них можно забить, если буду дрочить Elements of Statistical Learning


Эм, ну если ты действительно задрочишь весь EoSL с задачами, то к этому моменту ты сможешь силой мысли раздвигать стены и на какие-либо курсы тебе будет насрать.

>И еще вопрос: есть что-то вроде джун-вакансий по ML?


Чистого ML наверное нигде нет (если это не университетская лаборатория или Google/Яндекс), везде надо уметь воплощать этот ML в Python/C++. Это очень практическая дисциплина. Поэтому вопрос надо поставить чуть по-другому - есть ли такая вакансия, где доля ML будет соответствовать моему уровню. Ответ: да, есть. Вакансия с описанием "разработчик со знанием математики/статистики/ML" - это то, что ты ищешь. Берешь грейд, который тебе по плечу и вперед.
>>737700

>Какое направление вы бы обозначили в этой области в ограниченных условиях обычного кодера из провинции, как я например


Если уж так хочется, то какую-нибудь предиктивную аналитику можно во многих уголках России найти. Логистам помогать товары в ретейл развозить или логи грепать у гейм-девелоперов.
>>737918
Ты неплохо так планку задрал, назвав лучшую книгу подобного рода.
Можешь попробовать
The Future of the Mind: The Scientific Quest to Understand, Enhance, and Empower the Mind почитать, авось понравится.
А вообще работа мозга - это Neuroscience (Bear & Berry). Правда это уже не научпоп, а учебник.
>>738229
>>738248
Мне тяжело ответить что-то кроме банальностей типа "дорогу осилит идущий".
Тебя никто принципиально не будет срезать, если ты не учился в ШАДе или где-то еще. Вопрос только в знаниях и скилле получать эти знания из Интернета/книг. Фигуры на этой доске двигаешь ты.
Бумажки из ВУЗа нужны для того, чтобы пройти HRов. Дальше можешь их выкинуть. Если ты серьезно уверен в своих силах, то приукрась резюме, а как дойдешь до технической части, так и начнешь на ней блистать (ну или обосрешься с подливой, зависит от).
>>738256
На некоторой части курсов рассказывают про внутренние фишки Яндекса. Их нельзя выносить наружу.
Ну и не стоит забывать, что люди в первую очередь оценивают выгоду от своих действий. Вполне себе допустимо, что руководство ШАДа не видит профитов для Яндекса от выпуска всех курсов в паблик.
>>738260

>мне кажется, в ШАД стоит идти только за сертификатом.


Ну а у меня диаметрально противоположное мнение. На сертификат абсолютно по барабану, а вот мозги мне там подправили.
Впрочем, бумажка тоже вроде бы ценится. Просто у меня не было в ней серьезной необходимости.
740 Кб, 1920x1080
# OP #93 #738295
>>737626
Открытые все ок, но это самые первые и простые курсы.
Воронцова тут уже обсасывали - нормальная база, правда без семинаров 50% пользы исчезает. Бабенко - очень хорошо. Я не знаю какой курс выложен в паблик, продвинутый или обычный, если первое, то считай, что крупно повезло - куча топового материала для расширения сознания.
Сухорослов - это вроде бы жаба+паралелльные вычисления. Рекомендую только если ни того, ни другого не знаешь.
Про Райгора и Верещагина ничего сказать не могу - курсы примерно совпадали с тем, что было на матмехе, поэтому я смотрел курсы удаленно и только половину из них. Вроде было ок.

>На них можно забить, если буду дрочить Elements of Statistical Learning


Эм, ну если ты действительно задрочишь весь EoSL с задачами, то к этому моменту ты сможешь силой мысли раздвигать стены и на какие-либо курсы тебе будет насрать.

>И еще вопрос: есть что-то вроде джун-вакансий по ML?


Чистого ML наверное нигде нет (если это не университетская лаборатория или Google/Яндекс), везде надо уметь воплощать этот ML в Python/C++. Это очень практическая дисциплина. Поэтому вопрос надо поставить чуть по-другому - есть ли такая вакансия, где доля ML будет соответствовать моему уровню. Ответ: да, есть. Вакансия с описанием "разработчик со знанием математики/статистики/ML" - это то, что ты ищешь. Берешь грейд, который тебе по плечу и вперед.
>>737700

>Какое направление вы бы обозначили в этой области в ограниченных условиях обычного кодера из провинции, как я например


Если уж так хочется, то какую-нибудь предиктивную аналитику можно во многих уголках России найти. Логистам помогать товары в ретейл развозить или логи грепать у гейм-девелоперов.
>>737918
Ты неплохо так планку задрал, назвав лучшую книгу подобного рода.
Можешь попробовать
The Future of the Mind: The Scientific Quest to Understand, Enhance, and Empower the Mind почитать, авось понравится.
А вообще работа мозга - это Neuroscience (Bear & Berry). Правда это уже не научпоп, а учебник.
>>738229
>>738248
Мне тяжело ответить что-то кроме банальностей типа "дорогу осилит идущий".
Тебя никто принципиально не будет срезать, если ты не учился в ШАДе или где-то еще. Вопрос только в знаниях и скилле получать эти знания из Интернета/книг. Фигуры на этой доске двигаешь ты.
Бумажки из ВУЗа нужны для того, чтобы пройти HRов. Дальше можешь их выкинуть. Если ты серьезно уверен в своих силах, то приукрась резюме, а как дойдешь до технической части, так и начнешь на ней блистать (ну или обосрешься с подливой, зависит от).
>>738256
На некоторой части курсов рассказывают про внутренние фишки Яндекса. Их нельзя выносить наружу.
Ну и не стоит забывать, что люди в первую очередь оценивают выгоду от своих действий. Вполне себе допустимо, что руководство ШАДа не видит профитов для Яндекса от выпуска всех курсов в паблик.
>>738260

>мне кажется, в ШАД стоит идти только за сертификатом.


Ну а у меня диаметрально противоположное мнение. На сертификат абсолютно по барабану, а вот мозги мне там подправили.
Впрочем, бумажка тоже вроде бы ценится. Просто у меня не было в ней серьезной необходимости.
#94 #738586
Парни, прохожу курс Воронцова на coursera, в теме о важности признаков линейных деревьев использую такой код
http://pastebin.com/tZzbExkP
В итоге получаю:
[('Pclass', 0.017933362369337985),
('Fare', 0.29549222165179184),
('Age', 0.40310551645733922),
('Sex', 0.28346889952153104)]

Пытаюсь засабмитить Fare и Age, получаю ошибку.
В чем обосрался?
>>738596
#95 #738589
Анкета ШАД сложная? Осталось несколько часов, думаю проходить ли.
#96 #738596
>>738586
Раскурил, надо чистить вилкой только Age
#97 #738621
>>738589
Проходи, ничего не теряешь.
#98 #738632
>>738589
Анкета сложная, тест довольно легкий. По крайней мере, анкету я заполнял дольше чем тест.
#99 #738673
>>738136

> неосилятора


У тебя какой Хирш-индекс, мальчик?
>>738675
#100 #738675
>>738673
Уровня /pr/, полагаю.
Дай ссылки на твои работы тогда уж.
>>738678>>738679
#101 #738678
>>738675
Прям дать ссылки, где мои имя и фамилия стоят? А спермы тебе не дать глотнуть вдогонку?
>>738686
#102 #738679
>>738675
Зачем ты вообще разговариваешь с этим инфантильным дауном?
#103 #738680
Даун тут только мальчик, который не может в математику уровня первого курса Заборостроительного техникума.
#104 #738686
>>738678

> боится деанона в зк


> выёбывается без пруфов


Ясно, уёбывай обратно в /b/ и за щеку себе кончи, уёбок
#105 #738693
Проходи, не задерживайся. В /ссы иди школоту хиршем своим тралить.
103 Кб, 1879x1006
#106 #738696
Мда. Нехило мальчику пердак разнесло.
#107 #738700
>>738696
Ладно, оставайся. Кратко хоть расскажи про темы твоих исследований.
>>738721>>739878
#108 #738721
>>738700
Да пусть нахуй идет, точнее в /сцы/ рассуждать о картофане. Я знавал таких физиков, как этот "математик".
>>738729
#109 #738729
>>738721
И что там с физиками было?
>>738753
#110 #738739
>>738696

> Tech


техникум заборостроительный лол
#111 #738753
>>738729
Ну физик, ну публикации. Но тупой я ебал. Если человек не видит разницы между backpropagation и градиентным спуском - это клиника, насмехайтесь над таким.
>>738756
#112 #738756
>>738753
А картошка там при чём?
>>738836>>739040
#113 #738836
>>738756
Это мем /sci/, важно обвинить оппонента в том, что он любит картофан, а не науку. Пошло откуда-то от вербицкого.
#114 #738837
Написал нейросеть с gradient decent. А она не обучается. Cost function уменьшается до 3, и всё. А вот с функцией из курскровского курса все нормально, ошибка примерно 1. Грустно чет.
>>738839
#115 #738839
>>738837
Для начала определи high variance у тебя или high bias. А потом реши проблему, следуя советам по поводу high variance и high bias.
>>738842
#116 #738842
>>738839
У меня скорее high varianceда, я смотрел learning curves, все дела. Просто вот эти функции поиска локального минимума. В матлабе годных нету, хотя я потихоньку качусь к R и Python, как следствие к линуксуна самом деле к армии, боже, сколько еще учить.
>>738843
32 Кб, 400x388
#117 #738843
>>738842
На самом деле high bias. Я даже в терминах примитивных путаюсь.
#118 #738882
>>733442
А если не закончил универ?
#119 #738889
>>738696
Деанон по числу цитирований!
>>738920
#120 #738920
>>738889
Он подправил числа, там запятые должны быть, 7000 -> 7,000 и т.д.
>>738976
105 Кб, 1024x683
#121 #738975

>разницы между backpropagation и градиентным спуском



> Этот полоумный всё продолжал бомбить ...

>>739878>>739911
97 Кб, 736x736
#122 #738976
>>738920
Подправил дупу твоей маме.
#123 #738984
Долго не мог решить, стоит писать этот комментарий или нет. В итоге все-таки решил, что необходимо до всех и каждого донести эту информацию.

ОП, в первую очередь хочу сказать, что это сообщение никоим образом не направлено на то что бы оскорбить тебя или кого-либо еще, ты делаешь хорошие и качественные треды, комментарий не об этом, не нужно воспринимать это на свой счет.

Итак, перейду к сути дела- информация касательно содержания данного треда.
Как уже несколько человек написали в этом и предыдущих тредах, это не просто прикольные книжки что бы прочесть, послушать, посмотреть и забыть, нет. Эта область науки крайне негативно воздействуют на ваше подсознание, даже если вы просто смотрите курсы на курсере, а уж тем более “читаете перед сном книжки по этой теме” и все такое (в таком случае информация пишется вообще напрямую). Они прописывают в ваш мозг программы поведения для вас, а что самое хреновое, для ваших потомков.

Между вот такими штуками и обычным программированием лежит просто невообразимая пропасть.

Т.е. если вы после поглощения этого всего проживете норм жизнь, знайте, что вся эта херня, которую Вы наслушались и насмотрелись в книжках подобного рода, обязательно ударит, и ой как больно ударит по вашим будущим поколениям. Это как поведение, привычки, черты характера, хорошие и плохие, которые передаются ментально, не зримо, по ДНК, от родителей к детям, из поколения в поколение, автоматически. 10 раз подумайте, надо ли оно вам. Если вам плевать на себя, подумайте хотя бы о своих детях, своих последователях.

Для кого-то это может звучать как параноидальный бред, но черт подери, если вы не знаете о том как что-то работает и это возможно, то это не означает что такого не может быть. Нам ведь не обязательно знать все законы физики и прочих наук, что бы элементарно пользоваться электричеством- нажал на кнопку и все работает. Тут точно так же.

Опять же, это сообщение не призвано никого обидеть, оно направлено на то что бы люди все-таки думали, что они “хавают”. Ведь мозг, в отличии от желудка, особенно если он недостаточно развит, не способен распознать “гнилую” информацию от полезной, светлой.

На данное сообщение не надо отвечать, я не собираюсь вступать в полемику с кем-либо.

Всего вам хорошего, будьте здоровы.
#123 #738984
Долго не мог решить, стоит писать этот комментарий или нет. В итоге все-таки решил, что необходимо до всех и каждого донести эту информацию.

ОП, в первую очередь хочу сказать, что это сообщение никоим образом не направлено на то что бы оскорбить тебя или кого-либо еще, ты делаешь хорошие и качественные треды, комментарий не об этом, не нужно воспринимать это на свой счет.

Итак, перейду к сути дела- информация касательно содержания данного треда.
Как уже несколько человек написали в этом и предыдущих тредах, это не просто прикольные книжки что бы прочесть, послушать, посмотреть и забыть, нет. Эта область науки крайне негативно воздействуют на ваше подсознание, даже если вы просто смотрите курсы на курсере, а уж тем более “читаете перед сном книжки по этой теме” и все такое (в таком случае информация пишется вообще напрямую). Они прописывают в ваш мозг программы поведения для вас, а что самое хреновое, для ваших потомков.

Между вот такими штуками и обычным программированием лежит просто невообразимая пропасть.

Т.е. если вы после поглощения этого всего проживете норм жизнь, знайте, что вся эта херня, которую Вы наслушались и насмотрелись в книжках подобного рода, обязательно ударит, и ой как больно ударит по вашим будущим поколениям. Это как поведение, привычки, черты характера, хорошие и плохие, которые передаются ментально, не зримо, по ДНК, от родителей к детям, из поколения в поколение, автоматически. 10 раз подумайте, надо ли оно вам. Если вам плевать на себя, подумайте хотя бы о своих детях, своих последователях.

Для кого-то это может звучать как параноидальный бред, но черт подери, если вы не знаете о том как что-то работает и это возможно, то это не означает что такого не может быть. Нам ведь не обязательно знать все законы физики и прочих наук, что бы элементарно пользоваться электричеством- нажал на кнопку и все работает. Тут точно так же.

Опять же, это сообщение не призвано никого обидеть, оно направлено на то что бы люди все-таки думали, что они “хавают”. Ведь мозг, в отличии от желудка, особенно если он недостаточно развит, не способен распознать “гнилую” информацию от полезной, светлой.

На данное сообщение не надо отвечать, я не собираюсь вступать в полемику с кем-либо.

Всего вам хорошего, будьте здоровы.
>>739009>>739077
#124 #739009
>>738984
Ребята не стоит вскрывать эту тему. Вы молодые, шутливые, вам все легко. Это не то. Это не Чикатило и даже не архивы спецслужб. Сюда лучше не лезть. Серьезно, любой из вас будет жалеть. Лучше закройте тему и забудьте что тут писалось. Я вполне понимаю что данным сообщением вызову дополнительный интерес, но хочу сразу предостеречь пытливых - стоп. Остальные просто не найдут.
>>739877
#125 #739040
>>738756
Математика делится на собственно настоящую математику (чистая системная математика), и на инженерную шелуху на периферии (для решения под водочку и картофан). Соответственно, термин картофан можно применять к любой науке, где есть ядро и прикладная периферия для негров. Ну или вообще везде, лол.
170 Кб, 1500x1000
#126 #739077
>>738984
Пацан
я вот начал читать это

2. Об интеллекте. http://archism.narod.ru/lib/bleiksli_sandra_ob_intellekte.pdf

Я уже потрачен ?

______

Мне прежде всего важно понять для себя, каким образом работаем мозг, и всё. РАДИ ИНТЕРЕСА

Было бы классно с тобой пообщаться в телеграмме. Если что, пиши - @lightglams
>>739085
#127 #739085
>>739077
Чтоб понять как работает моцк, тебе в neuroscience, но чтоб там осилить что-то сложнее научпоп-ссанины, нужен пиздатый бекграунд.
>>739094>>739096
#128 #739094
>>739085
окай
#129 #739096
>>739085
Рекомендую этот курс с мягким введением:
https://www.mcb80x.org/lessons
>>739112
#130 #739112
>>739096
пасиб
#131 #739877
>>739009
Предлагаю добавить в шаблон ОП-поста.
#132 #739878
>>738975
Ты так и не ответил на >>738700
Или боишься, что сдеанонят по тегам работ, лол?
>>740149
#133 #739911
>>738975
Лол, ты думаешь тебя один человек хуями кормит, математик? Ну облажался, бывает, скромно съеби в сцы и о тебе забудут.
>>740149
#134 #739921
Я ПРОСТО ХОЧУ СОЗДАТЬ ИИ КОТОРЫЙ РАСПИДОРАСИТ ЭТОТ ЕБАНЫЙ МИР К ЕБАНЫМ ЧЕРТЯМ НЕУЖЕЛИ Я ТАК МНОГО ПРОШУ РЕЕЕЕЕЕЕЕЕЕЕЕЕЕ
>>739923
#135 #739923
>>739921
Ты можешь создать робота с ИИ, который разъебет твою башку, для тебя мир закончится.
>>739925
#136 #739925
>>739923
Нет, я хочу увидеть, как другие пострадают, это важно.
>>739929
#137 #739929
>>739925
Распечатай исходник того же numpy и опиздюль им одноквашника-чухана
>>739933
#138 #739933
>>739929
Можно просто исходники OpenCV почитать.
#139 #740149
>>739878
Думаешь, я каждый день посещаю этот раздел?

>>739911
Мальчик, тебе мало? Ты понял уже, какой ты бред спорол?
>>740173
#140 #740173
>>740149

> Ты понял уже, какой ты бред спорол?


Почему бы тебе не объяснить уже, а не кривляться тут как малолетний даун?
>>740654
#141 #740275
Аноны, сегодня в компании был тренинг по ML. Вроде тема мне понравилась, но я жалею что в универе на физфаке не учил даже ту математику, что там преподавали.

Можете накидать годных ресурсов для изучения матана с самого нуля?
Производные знаю, интегралы (худо-бедно), логарифмы знаю, а вот лимиты уже не помню.
>>740292>>741021
#142 #740292
>>740275
Ты не хохол случаем? Один учебник знаю хороший, но на мове
Алгебра та початки анализу - автор Шкиль
>>740294
#143 #740294
>>740292
Не, не хохол.
#144 #740305
Как хранить и анализировать json от разных api?
Мне не хочется создавать десятки таблиц для каждого из сервисов, а потом пересоздавать если api изменилось.
Может есть бд, которой можно просто скармливать json, а она будет сама заботится о том как это хранить?
Производительность не особо критична, но желательна поддержка sql или чего-нибудь похожего на него.
>>740312
#145 #740312
>>740305
Туда ли ты зашел?
>>740316
#146 #740316
>>740312
Анализ данных, визуализация, дата сайнс, вот это вот всё тут же обсуждается?
Значит велика вероятность, что тут люди знают как, особо не напрягаясь, собрать кучу json-ов в одном месте, а потом делать к ним запросы.
И это очень популярная задача, так что должен быть инструмент для этих целей.
>>740353>>740359
#147 #740353
>>740316
mongodb
#148 #740359
>>740316
Postgres тоже может json.
#149 #740476
>>733276 (OP)

>Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.


Карьера преподавателя в Мухосранском Государственном Университете? Или что поинтереснее?
>>740556>>741021
#150 #740556
>>740476
Помощник дворника на пол ставки по выходным
175 Кб, 691x531
48 Кб, 800x600
#151 #740609
Парни, поясните отсталому. Читаю Introduction to Statistical Learning, введение (13 страница). Там предлагается использовать линейную регрессию для классификации, и представлена данная иллюстрация. Мне кажется это хуйня полная, почему на плоскости представлена зависимость Y от двух параметров, когда на деле все должно выглядеть как пространство, разбитое плоскостью зависимости?
>>740656
#152 #740625
Ладно ОП прорешаю твой учебник, если гришь, что на практике его можно будет применить.
#153 #740654
>>740173
Backpropagation - это и есть пример применения GD, придурок.
>>741528>>741795
#154 #740656
>>740609
Нет, там все правильно нарисовано. Каждая точка - это решение классификатора для этих значений переменных. Линия - это граница решения.
>>740670
#155 #740670
>>740656
Что по осям?
>>740741
#156 #740741
>>740751
#157 #740751
>>740741
Остроумно, но что в xy то. y должен быть {0,1}
>>740775
#158 #740775
>>740751
Ты жопой читаешь, или инглиш совсем плох? Речь о классификаторе с двумя входными переменными. Оси им соответствуют. Подумай хоть немного сам, что же я тебе все разжевываю?
>>740793
#159 #740793
>>740775
А результат линейной регрессии это не линия, разделяющяя параметры. А ебаный функционал от параметров в таргет.
>>740798>>740821
27 Кб, 364x225
#160 #740798
>>740793
Вот о чем я говорю.
>>740821
#161 #740821
>>740798
>>740793
я ретард, забыли
# OP #162 #741021
Ну вы и насрали тут, ребята.
>>740275
Зорич подойдет.
>>740476
По-интереснее.
>>742709
#163 #741102
Пацаны, поясните за градиентный спуск? Делаю реализацию по классическому условию while J(Q) - oldJ(Q) > epsilon, где J(Q) это функция из которой формируется кривая обучения , если надо могу подробнее алгоритм расписать. Так вот, как выбрать эпсилон? Для начального J(Q) порядка 10^6 годится и единичка, т.к. сходится довольно быстро даже с темпом обучения 10^-3, а вот для порядков 10^14 уже нихуя не годится, либо слишком долго считает, либо кривые значения выходят если брать намного большее значение
#164 #741161
>>741102
Потуги картофана.
>>741243
#165 #741243
>>741161
По теме есть что сказать? Если нет - прошу нахуй
#166 #741285
>>741102
на длину градиента смотри?
>>741308
#167 #741308
>>741285
Что ты подразумеваешь под длиной градиента? Может быть мы с тобой разными терминами говорим. Длина градиента=шаг обучения? Если да, то я динамически изменяю(вычислили новое значение кэфов и J(Q) - если новое J(Q) > старое J(Q) значит кривая обучения растёт, хуйня, уменьшаем шаг обучения и заново считаем).
Если же нет, то я зря высрал абзац выше
>>741310
#168 #741310
>>741308
Норма вектора, шайтан.
#169 #741344
>>741102
Считай пока оценка ошибки уменьшается и не парь мозг.
>>741360
#170 #741360
>>741344
лол
33 Кб, 400x207
36 Кб, 400x275
#171 #741402
>>741102

> Так вот, как выбрать эпсилон?


Никак не выбирать. Такой путь - верный способ сделать overfitting, переобучить твою сеть под конкретные входные данные. Делай просто 1 (10, 100) шагов спуска для каждого из примеров, и все. Когда же закончить, спросишь ты. А вот когда (пишу это тут миллионный раз, так как ml-class.org прошли 1.5 человека - всем сразу глубокие нейросети подавай).

Делишь множество на 2 части, training и validation. Обучаешь training, получаешь функцию J(Q), далее прогоняешь через обученную функцию множество validation, получаешь функцию V(Q). Если все правильно сделал, со временем эти функции нарисуют график на картинке. Останавливайся, когда J(Q)==V(Q). В таком случае ты избежишь переобучения. Далее будут варианты - все хорошо (J(Q)==V(Q) причем требуемая тебе точность достигнута), обучение остановилось, а перформанса нет (J(Q)==V(Q) но требуемая точность не достигнута high bias), или обучение застряло (J(Q)!=V(Q)). Для каждого из вариантов есть свои рецепты как это улучшить - где-то можно создать новые примеры, где-то - сменить модель. Подробности в учебниках.
#172 #741528
>>740654

> Often the term "backpropagation" is used in a more general sense, to refer to the entire procedure encompassing both the calculation of the gradient and its use in stochastic gradient descent, but backpropagation proper can be used with any gradient-based optimizer, such as L-BFGS or truncated Newton.


То есть все это время ты кривлялся из-за того, что считаешь единственно правильным / знаешь только первое значение.
>>741674
#173 #741674
>>741528
Пиздец, дурак. Лучше просто заткнись. Ты даже читать не умеешь.
#174 #741795
>>740654
О, наконец-то ты родил что-то отличное от оскорблений. И тут же показал свой уровень.

>Backpropagation - это и есть пример применения GD, придурок.


А если я использую L-BFGS, это уже не backpropagation что ли? Иди ты нахуй, школьник, мамку свою траль.
#175 #742213
Уважаемые академики, у меня есть выборка, в виде троек из трех чисел, полученные анкетированием с вопросом вроде "Выберите три главных фактора". Как мне выделить признаки для кластерного анализа?
>>742347
#176 #742347
>>742213
3 числа ты можешь легко визуализировать в трехмерном пространстве и посмотреть сам, что просходит. Можешь также применить PCA и посмотреть 3 проекции.
>>742404
#177 #742404
>>742347
Разумно, но ме бы еще пару циферок вроде p-value для пруфа.
>>742463
#178 #742463
>>742404
Ты не понял. Смотришь на визуализацию и оцениваешь, как лучше все это кластеризовать. Далее выбираешь метод и кластеризуешь. Проще 3д только 2д.
>>742473
#179 #742473
>>742463
Понял, но смотри еще в чем загвоздка, ответы на вопросы равносильные. То есть тройка (1,2,3) по идее должна быть равна (2,3,1).
>>742509
#180 #742486
>>733276 (OP)
Аноны, вы тут нейронными сетями не занимаетесь?
Расскажите мне, какой из их типов лучше использовать для следующих задач:
Нужно научить манипулятор хватать, удерживать и перемещать предметы.
Нейронная сеть должна сама научиться классифицировать предметы по группам.

И еще одно, можно ли с помощью нейросети научить гуманоидное создание ходить?
Какой для этого лучший способ обучения? Нацепить на себя акселерометры и ходить по смоделированной в 3д комнате?
Нужно, чтобы в конечном итоге сеть сама определяла, как робот будет шагать и что делать в разных ситуациях.
>>742525>>742827
#181 #742509
>>742473
Отсортируй тройки по возрастанию перед визуализацией и кластеризацией.
>>742826
#182 #742525
>>742486
И с каких задач лучше начать? Чтобы через 1.5 года суметь написать такое?
В алгоритмы умею, но работаю в другом направлении Серверы и жаба
>>742551
#183 #742533
>>738589
Репортинг ин: решил 9 из 11 (соснул на перестановках и комбинаторике). Экзамен будет в разы сложнее, так что шансы мои не велики.
>>745547
#184 #742551
>>742525
Никто в мире еще не написал, а ты напишешь. Ну удачи, че. Начни с изучения того, что уже есть.
>>742552
#185 #742552
>>742551
Чего не написал?
Про хватания предметов уже давным-давно написали же.
А вот про ходьбу - да, но я и не нагуглил ничего по этой теме.
>>742558
#186 #742558
>>742552
Хотя нет, в 2002 что-то подобное было.
https://www.youtube.com/watch?v=JFJkpVWTQVM
>>750951>>751973
#187 #742709
>>741021

>Зорич подойдет.


Окей, спасибо.
#188 #742826
>>742509
Затупил, спасибо.
#189 #742827
>>742486
Какой нибудь reinforcement learning тепе в помощь, можешь глянуть на intrinsically motivated reinforcement learning.
>>742829
#190 #742829
>>742827
Бля, ну и криво я написал, пиздец.
#191 #743013
>>733276 (OP)
О, анончики, мне понравилась тема треда.
Насколько это будет модным в ближайшие 6 лет? Я найду работу?
>>743069
#192 #743018
>>733276 (OP)
Аноны, а нейросеть может сама понять взаимосвязь между определенными элементами, например? Вывести закон физики для маятника?
>>743024>>743069
#193 #743024
>>743018
подсунешь хорошую обучающую выборку - чота тебе выведет
>>743036
#194 #743036
>>743024
Понятно.
А каким образом может происходить такое обучение вообще, если, например, в 3Д редакторе написать скрипт маятника и посадить сеть в роли камеры следить за ним, то научится?
Или надо связывать скрипт маятника и все данные с него посылать на сеть?
>>743064
#195 #743064
>>743036
Если совсем примитивно, то любое машинное обучение это построение отображение из пространства признаков в пространство ответов. В случае с нейронными сетями у тебя есть конкретные функции преобразования исходных данных в конечный вектор представлений и какая-то функция потерь, принимающая на вход этот самый вектор представлений и истинное значение. Дальше мы каким-то образом оптимизируем параметры сети, чтобы она минимизировала нашу функцию потери. Сможет-ли она это сделать или нет и насколько хорошо (теоретически) в общем случае вопрос нерешенный, так что нужно пробовать. Ну и наличие здравого смысла тоже не помешает. Скажем, классифицировать изображения по количеству пикселей в них не получится.
# OP #196 #743069
>>743018
Очень широкая постановка вопроса, невозможно ответить.
Подобрать константы для готовой формулы - да, может.
Подобрать формулу при фиксации конечномерного базиса функций - сейчас уже скорее да, чем нет.
Самостоятельно выводить законы физики - нет.
Не надо пихать ML туда, где работают точные законы и зависимости уже известны.
>>743013
Оче модно.
>>743123
# OP #197 #743071
И да, я вам покушать принес. Мне понравилось:
http://www.cs.nyu.edu/~mohri/mlbook/
>>743084
#198 #743084
>>743071

> Mehryar Mohri, Afshin Rostamizadeh, and Ameet Talwalkar


Allahu Akbar!
#199 #743123
>>743069

>Подобрать константы для готовой формулы - да, может.


Можно примерно описать, что здесь имеется ввиду?
Если у меня есть готовая формула, с зависимостями, то зачем мне нейросеть?

В общем, ситуация такая, есть формула, но я не знаю полностью. связи между элементами этой формулы, а вычислять их - это очень и очень муторно, например, есть шагоход, я знаю, в какую сторону будут двигаться конечности, но высчитывать все затраты на сопротивление у материалов - мне лень, а нужна относительная точность.
Хочу использовать нейросеть, она для этого подходит?

>Подобрать формулу при фиксации конечномерного базиса функций - сейчас уже скорее да, чем нет.


Не понял тебя.

>Самостоятельно выводить законы физики - нет.


А как же кластеризация?
>>743128
#200 #743128
>>743123

>>Подобрать формулу при фиксации конечномерного базиса функций - сейчас уже скорее да, чем нет.


А все, понял.
Если у меня есть несколько рядов чисел, то между ними сеть может найти закономерность?
>>743189
# OP #201 #743189
>>743128
Нейросети, как и все остальное здесь - аппроксиматоры. После обучения она будет представлять собой функцию, достаточно хорошо (а может быть и плохо, если обучение пошло не так) переводящую числа из одного ряда в другой.
Проблема в том, что ты вряд ли сможешь проинтерпретировать веса в сети, чтобы извлечь из нее готовую формулу.
Попробуй лучше регрессию с достаточно богатым базисом.

>А как же кластеризация?


Что кластеризация?
>>743243
#202 #743242
>>733340

>А вообще, чем можно заниматься вкатившись в ML?


Я, например, оптимизирую CTR. Намеренно не вкатывался, просто возникла такая задача.
>>745317
#203 #743243
>>743189

>Попробуй лучше регрессию с достаточно богатым базисом.


Черт, тот момент, когда математика становится полезной, загуглил.
У моего шагохода всего пока 12 приводов и мне лень высчитывать все затраты на сопротивление.
Суть в том, чтобы каждому значению положение ноги соответствовали значения из других сервоприводов, а вот эти значения мне никак не найти, потому что они могут быть рандомными.
#204 #743248
>>743243

>рандомными


Ой что пишу, бред какой.
Они могут лежать в целой области значения чисел.
#205 #743254
>>743243
Мб тебе какая-то модификация Калмана нужна? Опиши задачу подробнее, что за сопротивления? Какие датчики?
>>743259>>743261
#206 #743259
>>743254
Сопротивления у подшипников, у моторов сервоприводов + сопротивление поверхности ступни.
Датчики - акселерометры и гироскопы.
И да, регрессия уже используется в коде самих сервомоторов.
Кстати, интересно получилось, сервомоторы не дергаются и потребляют на 32% меньше энергии и выглядят привычнее + момент инерции куда меньше.
>>743262
#207 #743261
>>743254
У меня, считай решение задачи обратного маятника, только не в двух направлениях, а в повороте шарового шарнира на 360 градусов.
Но суть в том, что значения у этого маятника "плавающие"
#208 #743262
>>743259
Почитай что-нибудь про HMM и Factorial HMM. Вообще, очень смахивает на задачи, решаемые в теории управления.
>>743293
#209 #743293
>>743262
Нет, это не тоже самое.
У меня имеет значение скорость ускорения сервоприводов, время исполнения.
Вроде того, что нога должна двинуться вперед, а туловище назад или как-то, чтобы уравновесить момент инерции ноги.
Поэтому и думаю использовать нейросеть, потому что мне неизвестна структура поверхности, ее высота или углубление, а оно может быть вообще рандомным.
Это будет в будущем, но в качестве модели в 3Д редакторе
Но как мне в этом случае проводить обучение?
>>743333>>743740
79 Кб, 1032x1472
#210 #743328
>>737605

>А можешь описать чем вообще такой подход лучше/хуже, чем постановка задач оптимизации в классическом варианте?


Это не оптимизация же. Идентификация систем, универсальная аппроксимация, вот это все. Лучше тем, что во-первых все очень просто, любая вообще нечеткая модель представима в форме стандартной аддитивной модели Коско пикрелейтед, для которой есть методы настройки параметров (обучения), как с учителем бекпропагейшеном, так и без, кластеризацией. Потом, получаемые модели полностью прозрачны и интерпретируются, в отличие от нейросетей н-р.
Вот типичный пример >>743243 когда лучше всего зайдет контроллер на нечеткой логике.
>>743487>>750598
# OP #211 #743333
>>743293
Давай лучше без обучения, это все-таки задача из теории управления. Чем тебя не устраивает выполнять периодическую калибровку сервоприводов? Замеряешь производную общего момента силы от управляющего сигнала на сервопривод и используешь его потом для выравнивания момента инерции.
>>743353
#212 #743353
>>743333
С того, что это будет слишком дубово.
Я уже пробовал решать этот подход на двуногом шагоходе, но без поворотов ход только вперед-назад
И скажу тебе, что это худший вариант, я использовал нечеткие регуляторы, которые хорошо справлялись со своей работой, но как бы я не изменял мощность приводов - затрата на обычный шаг времени была огромна, если все сделать скриптом обычным, то время получалось чуть ли не в 3 раза меньше.
>>743370>>743399
#213 #743370
>>743353
Да и та система не умела считать момент инерции и баланс веса, а просто, использовала усредненные значения с сервомоторов и подстраивала их под друг-друга.
Таким образом при общей высоте шагохода в 40 см и длине ног - 24, скорость метр за 48 секунд - слишком.
>>743399
# OP #214 #743399
>>743370
>>743353
А расскажи, что там дубового, были дерганые движения? Что происходило, если просто увеличить скорость работы всех сервоприводов? Шагоход начинал заваливаться? Ты использовал стабилизаторы?
>>743406
#215 #743406
>>743399
Нет, дерганных движений не было.
Были наоборот, плавные движения.

>Что происходило, если просто увеличить скорость работы всех сервоприводов?


Тогда будет сильная вибрация всех частей, увеличится момент инерции и соответственно да, шагоход начинает вести себя очень непредсказуемо, может как уверенно стартовать, так и упасть на старте или на 3-5 шаге.

>Ты использовал стабилизаторы?


Нет и не собираюсь.
>>743412
#216 #743412
>>743406
И да, я изменял материал подошвы, переписывал все под новые параметры, но все - фейл.
Поэтому и хочу использовать нейронную сеть, думаю, она сможет показать куда более интересный результат
>>743451
#217 #743451
>>743412
Понятно. Честно говоря, у меня подозрение, что для обучения нейросети движениям потребуется огромная выборка.
Задачу формулируешь так - на входе требуемое изменение импульса + текущие управляющие сигналы, на выходе требуемые управляющие сигналы для получения требуемого импульса.
Попробуй посмотреть статью 10.1007/BF01186934, может что-то найдешь для себя.
>>743468>>743740
#218 #743468
>>743451
Хмм, а может быть, для начала, занять рабочее время своего домашнего сервера вычислениями в несколько потоков?
Замоделировать уровень с препятсвиями, где модель будут толкать, а опорная точка двигаться по всякому, дать системе возможность управлять конечностями.
И через несколько тысяч перезапусков она сама, научится идеально управлять собой?

А потом просто все откалибровать.
>>743487>>743533
# OP #219 #743487
>>743468
Так и надо делать - примерную архитектуру сети и идеи обкатывать на компьютерной модели, эталонную версию сети тренировать на более тяжелой компьютерной модели с учетом большей части нюансов, а калибровку, учитывающую все допуски реальной модели выполнять уже на самом шагометре. Калибровать можно либо дообучая сеть, либо наложив на выходной сигнал сети какой-нибудь несложный фильтр.
Попробуй TensorFlow, Theano или Keras (если не осилишь первые два). Хотя особо значения не имеет на чем писать, просто эти трое мне нравятся.
Ты случайно не из ДС?
>>743328
Видимо, с наскоку идею понять не получится. Пока, с твоих слов, для меня это выглядит еще одной линейной моделью.
Попробую открыть твою книгу.
>>743509>>743538
577 Кб, 1478x2248
#220 #743509
>>743487

>Пока, с твоих слов, для меня это выглядит еще одной линейной моделью. Например, модель Такаги-Сугено пикрелейтед и есть линейная модель с правилами вида "если х есть А, то у = ах+b", но с ее помощью можно представить сколь угодно нелинейную систему. В правой части пика примеры 1 и 2-мерных моделей, в левой собственно матчасть, но я исправил ошибки, которые были в оригинале http://takagiken.com/takagi-sugeno-modeling.pdf

>>743537
#221 #743533
>>743468
Это ты вообще, верно пришел к использованию нейросети.
Иди и почитай для начала, как работают нейросети.
А все же, для тебя будет легче сделать все таким образом:
Сделай все балансирующие движения, вообще, в качестве методов или функций.
И протестируй вообще, все-все-все движения, чтобы понять, как разная скорость и положение будут влиять на тело робота в разных положениях.
И потом, когда ты будешь толкать своего шагохода, то он будет выбирать из параметров ранее заданных функций и научится не падать.

Только тебе понадобится очень много тестирований.
Представь, что тебе надо затестить как будет влиять рука на робота вообще во всех положениях, которые он только может принимать, скоростях и прочем.
Но это все равно, будет очень быстро, просто понадобится туева хуча часов.

Зато ты сможешь выследить закономерности, я бы на твоем месте использовал тот же подход, который используют авторы всяких симуляторов, когда у них с помощью прямых показывается подъемная сила крыла.
>>743536
#222 #743536
>>743533
Что-то слишком круто для меня. Но подход интересный и простой.
Надо будет опробовать в ближайшее время на обычной, стоячей позе.
#223 #743537
>>743509
Что это за ебучий пиздец? Нахуя это надо в жизни?
#224 #743538
>>743487

>Видимо, с наскоку идею понять не получится. Пока, с твоих слов, для меня это выглядит еще одной линейной моделью.


Это поехавший из /sci/, который уже хуй знает сколько времени носится с этими Такаги-Сугено. Тебя должно было насторожить уже то, что для него это самый перспективный метод в ML.
>>743539>>743541
#225 #743539
>>743538

>2ch


>Анонимное общение

#226 #743541
>>743538
А что не так-то?
#227 #743740
>>743451
Класс, с домашнего компа статью не скачать.

>>743293
Мб, тебя это заинтересует:
Luciw, M., Kompella, V. R., Kazerounian, S., & Schmidhuber, J. (2013). An intrinsic value system for developing multiple invariant representations with incremental slowness learning. Frontiers in Neurorobotics

http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3667249/pdf/fnbot-07-00009.pdf
>>743753
#228 #743750
Анончик, какой же адъ, я таких сложных вещей никогда не видел.
#229 #743753
>>743740
Да я уже понял способы решения своей проблемы.
Кстати, нейронная сеть - это вообще, магия.
Сейчас тестирую свой старый шагоход, в целом, получится около 10к значений.
Потом кину на входы другой нейросети и пусть сидит, кластеризирует все, потом дам ей пошагать.
Вообще, картина интересная получается, все можно уложить в методы обычные.

То-есть, например, толчок туловища - 50 условных очков
Движение ногой в противоположное направление с определенной скоростью - это 50 очков.
Да еще и если двинуть в разные моменты, скорости ноги ступней, то она может как минусануть, так и плюсануть все.

От так то.
>>743757>>743771
#230 #743757
>>743753
До этого лучший вариант был у генетического алгоритма.
Он смог прошагать метр за 16 секунд и ходил ровно и уверенно.
Но с 1200 попытки.
>>743763
#231 #743763
>>743757
У меня какой-то печальный опыт с ГА и всеми этими эволюционными вещами. Мне с моими кривыми руками уж как-то очень трудно было их настраивать для получения адекватного результата.
>>743766
#232 #743766
>>743763
А что реализовал то хоть?
Для них самое лучшее - это найти вариант, который будет работать из множества значений постоянно, но минус в одноразовости, в отличии от нейронной сети она не сможет поставить себя на место исходя из значений.
>>743772
#233 #743771
>>743753
О, ты сегодня в моеи треде писал, где я про универы спрашивал? Мир Двач тесен.
>>743773
#234 #743772
>>743766
В первый раз была задача связанная с ресемплингом в particle filter. Есть достаточно много статей, где народ использовал ГА. На моей модели (косинус с неизвестной моделью изменения фазы и амплитуды) как-то не пошло. Хотя непрерывный муравьиный алгоритм сработал годно.
Во второй раз я игрался с GP на примерах классификации и смвольной регрессии, работало жутко долго и хреново.
#235 #743773
>>743771
Эмм, нет, но на другой борде писал, да.
>>743774
#236 #743774
>>743773
У вас там соревнование шагоходов что ли?
>>743776
#237 #743776
>>743774
Ага, Шагай к победе
#238 #743797
Анон, как подготовиться к поступлению в ШАД в следующем году? А то в этом я был немного шокирован заданиями, в которых половина слов была непонятна.
#239 #743798
>>743797
Загугли слова и задрочи тесты.
Если хочешь готовиться к тесту - готовься к тесту.
>>743799
#240 #743799
>>743798
Они не гуглятся даже почти. А то, что гуглится, окружено не меньшим колличеством непонятных слов.
#241 #743910
>>743797
Бери учебники и дрочи, в математике нет царских путей.
>>743916
#242 #743916
>>743910
Я хочу, чтоб учебник посоветовали.
>>743919>>745329
#243 #743919
>>743916
Бери все
#244 #743933
Итак, аноны, за ночь произвел более 6к тестов на ноги.
Тестил его следующим образом:
Так как эта версия ходит только вперед-назад, то и тест соответственный.
В тест входили данные с сервомоторов и акселерометров.
И самое главное, что после основных тестов и подачи этого на другую сеть, она каким-то образом сама научилась прогнозировать данные.
>>743970
#245 #743970
>>743933
А у тебя реальный шагоход, или модель в каком-нибудь юнити?
>>743973
#246 #743973
>>743970
Реальная уменьшенная копия оригинального проекта.
Но дальше все буду где-нибудь тестировать.
Кстати, какая среда для этого лучше подойдет? Чтобы физика по реалистичнее была?
>>744004
#247 #744004
>>743973

>Но дальше все буду где-нибудь тестировать.


Попробуй Blender Game Engine
Он с физикой, вроде, хорошо дружит
>>744012
#248 #744012
>>744004
Но он же сырой, разве нет?
#249 #744051
Анонимусы уже пробовали в https://gym.openai.com что-нибудь делать?
#250 #744299
Аноны, давайте конфу в телеграме замутим, может польза какая будет.
14 Кб, 1008x235
#251 #744303
Есть тут еще кто писал?
>>744307>>745547
#252 #744307
>>744303
Я соснул 5/11
#253 #745317
>>743242
Зачем нужно ML чтобы оптимизировать?
#254 #745329
>>743916
Ну смотри. Были задачи по линейной алгебер, теории групп, теории вероятности, дифференциального и интегрального исчисления и парочка задач по программированию.

1. Линейная алгебра и теория групп это например Винберг.
2. Теории вероятности да хотя бы и статейки на вики(не знаю учебника по теор. веру).
3. Анализ читали в твоём вузике. На тесте были задачи первого курса. Так что знаешь что читать.
4. Программирование было элементарное. Рекомендую полистать Хормана, всего не прочтёшь, но основых заботай.
>>745695>>745894
#255 #745547
#256 #745695
>>745329

> Теории вероятности да хотя бы и статейки на вики(не знаю учебника по теор. веру).


Чтобы понимать статьи на вики по теорверу, надо быть знакомым с теорией меры и интегралом Лебега.
>>745762
#257 #745762
>>745695
Дурак что ли?
>>746034
#258 #745894
>>745329

>1. Линейная алгебра и теория групп это например Винберг.


Спасиб, эо главное, что я искал.

>Анализ читали в твоём вузике


Я не учился в вузе.
#260 #746034
>>745762
https://ru.wikipedia.org/wiki/Математическое_ожидание

В английской википедии какое-то говно нестрогое написано.
>>746067
sage #261 #746067
>>746034

> В английской википедии какое-то говно нестрогое написано.


как раз твоего уровня писня
читай и не выёбы
>>746277
768 Кб, 1872x3328
#262 #746075
>>746080>>746091
#263 #746080
>>746075
Интересно?
Уже 105 человек смотрит, но я потерял нить после "мы" .
>>746088
#264 #746088
>>746080
Более-менее.
116 Кб, 264x259
#265 #746091
>>746075
Попался.
>>746094>>746097
#266 #746094
>>746091
Деанон PhD в зк по затылку.
#267 #746097
>>746091
Стой, я правильно понимаю, что наш герой - это тот хлюпик в полосатой майке?
>>746190
#268 #746190
>>746097
Наш герой -- морячок!
#269 #746277
>>746067
Еще что вскудахтнешь, картофан?
#270 #746390
Парни, а кто вообще занимается изучениием нейронных сетей? То есть не практические задачи а-ля "накидать и обучить сетку для решения вот этой проблемы", а что-то вроде обратной задачи - почему вот эта сеть решает проблему лучше вот той, декомпозиция короче. Какие-то может есть известные группы? Хотелось бы начать неспешный вкат в ту сторону.
#271 #746391
>>746390
Ух, это ты жестоко загнул.
У нас в итме этим кто-то занимается, но, зная уровень своей шараги, могу сказать, что творится там может полная хуитень.
#272 #746459
>>746390
Опять же гугли ШАД и Яндекс. У них там полно ML и нейросеток.
>>746460
#273 #746460
>>746390
>>746459
Вот же первая строка в выдаче, дебил.
https://academy.yandex.ru/events/sci-sem/cv/

Хочешь быть гуру?
1. читаешь статьи с докладов
2. читаешь статьи из ссылок статей
3. читаешь статьи из ссылок
4. въёбываешь
5. ????????
6. PROFFIT!!!!1!!!111!

Всё ж блядь как ирисы классифицировать.
>>746528
#274 #746528
>>746460

>как ирисы классифицировать.


Кстати, об ирисах. А есть вообще алгоритмы, которые на классификации ирисов дают нулевую ошибку?
>>746553>>747200
#275 #746553
>>746528
Да, большая часть нелинейных трансформаций входных данных сделает данные линейно-разделимыми.
>>746608
#276 #746608
>>746553

>большая часть


Совсем поехавший
>>747191
#277 #746801
>>746930
#278 #746930
>>746801
с какого момента?
>>746949
#279 #746949
>>746930
Он считает ИИ самой большой угрозой потенциальной человечеству и что надо даже законодательно запрещать какие-то вещи.
>>746950>>747082
#280 #746950
>>746949
Ну типа скайнет возможен?
#281 #747016
Аноны, как лучше попасть в ваше направление? Дома сидеть развиваться, или в ВШЭ ФКН поступать? А если в него не смогу поступать, то куда лучше?
>>747046>>747057
#282 #747046
>>747016
В ОП-посте есть всё необходимое, при должном желании и адекватной мат.базе можно и дома задрочить.
>>747056
#283 #747056
>>747046
Я пробовал то читать. Что-то понимаю, что-то нет. На самом деле я именно чувствую, что

> адекватной мат.баз


у меня и нету.
#284 #747057
>>747016

> А если в него не смогу поступать, то куда лучше?


Кстати, двачую вопрос. Во ВШЭ пар как-то много, я смотрел учебный план, там нагрузка 1к часов в семестр (то есть как в бакалавриате). С работой по времени тяжело будет совмещать.
Какие есть магистратуры на эту тему, где учеба вечером и пар не очень много? Куда-то поступать надо, потому что у меня военника нет, кек.
#285 #747082
>>746949
хуйня
нет никакого "ии"
>>747149>>747189
#286 #747149
>>747082
и добавить нечего
#287 #747189
>>747082
Если примитивная обезьяна смогла получить интеллект в результате случайных мутаций, то уж целенаправленное создание интеллекта точно возможно. Вопрос в том, не будем ли мы все кормить червей к тому времени, как его изобретут.
>>747462>>747596
#288 #747191
>>746608
Привет, даун. Набор данных имеет конечный размер n, мощность множества преобразований, повышающих комбинаторную размерность любого алгоритма до значений выше n, несоизмеримо больше, нежели тех, что повышают ее до любого значения от исходного до n.
>>747214>>747217
#289 #747200
>>746528
Не очень понял о чём вы, но ирисы могут слегка изменить свой внешний вид в результате эволюции, и любой алгоритм соснёт.
>>747207>>747414
#290 #747207
>>747200
Тот, который отслеживает эти изменения, нет.
@
СОСНУЛ ТЫ
>>747299
7 Кб, 234x216
#291 #747214
>>747191

> большая часть нелинейных трансформаций входных данных сделает данные линейно-разделимыми.


Привет, важный профессор-академик. Думаешь можно с важным видом вскукарекнуть про мощность множества?
Так что, слабо пояснить почему мощность множества нелинейных трансформаций входных данных, которые сделают данные линейно-разделимыми больше мощности множества нелинейных трансформаций входных данных, которые сделают данные линейно-неразделимыми?
Ты же даже не можешь выписать мощности этих двух множеств, зато можешь с умным видом прокукарекивать слова мощность множества и называть окружающих даунами.
>>747450
46 Кб, 600x578
#292 #747217
>>747191
и да мне похуй на твои последующие вскукареки про алгоритмы. Разговор именно про нелинейные преобразования.
>>747237
#293 #747237
>>747217
Какой же ты тупой, пиздец. В посте написано все что надо. Еще раз тегами - комбинаторная (или VC) размерность, конечность промежутка от 1 до n, счетность промежутка от n до inf.
>>747217
Не способен в вычислительную сложность?
>>747256
6 Кб, 200x179
#294 #747256
>>747237
Олух, мы обсуждаем твой вскукарек про _нелинейные_ трансформации входных данных:
"большая часть _нелинейных_ трансформаций входных данных сделает данные линейно-разделимыми."
Про нелинейность ты сразу забыл и стал с умным видом кукарекать про повышение комбинаторной размерности алгоритмов.
Если бы ты не был пустопорожним вскукарекалом с умным видом, ты бы просто выписал мощности двух множеств, про которые ты утверждал, что одна больше другой:
1) множества нелинейных трансформаций входных данных, которые сделают данные линейно-разделимыми
2) мощности множества нелинейных трансформаций входных данных, которые сделают данные линейно-неразделимыми
Просто выписать два
кардинальных числа.
Вместо этого:

>кококо мощность множества!


>покпокпок комбинаторнаю размерность алгоритма!


>я тут чет написал тип пояснил, сделаю вид, типа не я нихуя не пояснил, а ты не понимаешь)))))

>>747271
#295 #747271
>>747256
Ебанутый, правда не понимаешь, что разговор о нелинейных преобразованиях и о всех суть одно и то же?

>Просто выписать два кардинальных числа.


k и k^(cf(k)), где cf(k)) - кофинальность.
Это очевидная вещь даже не для математиков - осознаешь степень своей кончености?
>>747347
#296 #747299
>>747207

> отслеживает эти изменения


Нет пути
1017 Кб, 600x900
#297 #747347
>>747271
Ну т.е. ты настаивашь на том, что ты просто кривляющийся клоун, кидающийся умными словечками.
ты формулируешь математические утверждения или пытаешься отделаться кукареканьем и пердежом в лужу?

>разговор о нелинейных преобразованиях и о всех суть одно и то же?


поясняй в каком петушином смысле это утверждение является правильным и почему. В прямом смысле это утверждение верным не является. - ты обосрался.
Если тебе очевидно, что в некоторых утверждения - ну так выпиши эту пару предложений, подтверждающих правильность, а не очевидность.

>k и k^(cf(k)), где cf(k)) - кофинальность.


у математиков принято вводить обозначения перед тем, как ими пользоваться. k - обозначение?

>кофинальность


ты типа все знаешь, только как пишется не знаешь, да? Верим-верим.

>cf(k)) - кофинальность


ты разницу между кардинальном числом и ординалом знаешь? Я тебя спрашивал про кардинальные числа или ординалы? ты понимаешь конфинальность - кардинальное число или ординал?
#298 #747358
>>747347

>не отличает кофинальность от конфинальности


Все, свободен, иди нахуй.
>>747365>>747368
#299 #747361
>>747347

>ты понимаешь конфинальность - кардинальное число или ординал


>Если тебе очевидно, что в некоторых утверждения


Ебал ее рука
23 Кб, 480x472
#300 #747365
>>747358
Круто, что ты жиденько обосрался и так и не смог пояснить свои кукареканья.
Мощность простого множества у него выражается через какую-то выдуманную кофинальность, которая не конфинальность с ошибкой.
266 Кб, 1920x1080
#301 #747368
>>747358
>>747365
Это успех.
Двач на острие науки.
#302 #747373
>>747365
Ты заебал засирать тред боевыми картиночками. Почему бы вам обоим не съебать в /sci/, /b/ или еще куда и не ебать там друг друга в жопу?
>>747375
41 Кб, 300x371
#303 #747375
>>747373
почему бы тебе не пойти и не пожаловаться своей мамаше.
Какой-то даун тут несет хуйню с умным видом и весь тред молча это ест.
>>747381
#304 #747377
На ангельском кофинальность отлично гуглится.
https://en.wikipedia.org/wiki/Cofinality

Пойду повторять математику...
#305 #747381
>>747375
Ну да, несет хуйню, причем порвался и постит боевые картиночки для придания веса своим словам. Нахуя мне кому-то жаловаться, хочешь быть клоуном - будь им.
А ваши аутичные споры о терминах неинтересны, этой хуйней весь /sci/ забит так, что сидеть там невозможно, аутисты засрали /c/, аутисты засирают вообще все, что можно. В нормальную беседу не могут, лишь бы письку показать, и показать, какой ты крутой на ебаных бордах.
>>747382
#306 #747382
>>747381
Я тоже слабо понимаю, о чём они сейчас.
Они пытаются посчитать VC-размерность нейросети? Они считают её оторвано от конкретной архитектуры?
>>747384
#307 #747384
>>747382

> Я тоже слабо понимаю, о чём они сейчас.


Ну пиздец.
Вопрос был сформулирован конкретнее некуда.
>>747548
#308 #747386
>>747365
Даун жидехенько обосрался, изображая, будто он что-то понимает. Попробуй сначала гуглом научиться пользоваться, прежде чем с дядями разговаривать. Кофинальность у него конфинальность с опечаткой, вообще охуеть.
#309 #747414
>>747200
Речь о конкретном датасете, общеизвестном под названием "ирисы Фишера"
#310 #747415
>>747347
Ну ты хоть поясни. Реально ли для любых линейно-неразделимых множеств найти нужное количество нелинейных трансформаций, которые могли бы сделать эти множества линейно разделимыми?
>>747453
#311 #747450
>>747214
Вижу мудака. Без математики понятно, что если взять два класса и четыре точки на плоскости, то преобразование, оставляющее четыре точки линейно-неразделимыми - это любое преобразование из R2 в R2. А вот преобразование из R2 в любое другое пространство более высокой мерности, чем два, и не оставляющее точки на одной гиперплоскости сделает их линейно-разделимыми. Объем такого пространства - все возможные нелинейные преобразования из R2 в любое пространство минус все преобразования из R2 в R2 (ну и из R2 в R1, что маргинально). Преобразований из R2 в Rx интуитивно больше, чем из R2 только в R2, о чем и была речь. Данная ситуация прекрасно расширяется на любое количество точек и классов, выводы остаются в силе.
#312 #747451
Нужно хранить логи вида: "время-свойство-значение", где значение - строка. Логов много и значения очень часто повторяются.
Как их хранить, что бы занимали мало места, но можно было обрабатывать?
>>748602>>748802
#313 #747453
>>747415
У нас в ML любой вектор конечномерен. Значит ты всегда можешь завести табличку вида вектор -> число со всеми возможными векторами, и далее, ясен перчик, это разделить не то, что линейно, а прямо по y=const.
>>748095
#314 #747462
>>747189

>то уж целенаправленное создание интеллекта точно возможно


С чего? Вдруг за это отвечает квантовая гравитация, которую мы не можем понять? Просто из-за ограниченности нашего мышления по Гёделю. Тогда возможно только случайное создание человеком.
Кароч, ты как-то голословно заявление сделал.
>>748014
#315 #747548
>>747384
Вопрос был о ирисах, но вы уехали в срач о теминологии.
#316 #747596
>>747189
если ты говоришь с точки зрения теории вероятности, то соглашусь.
в противном случае - это задача даже не ближайшего будущего с учетом вполне себе постоянно ускоряющегося развития технологий
#317 #748014
>>747462

>Просто из-за ограниченности нашего мышления по Гёделю.


Я слышал, как теоремы Геделя приплетают к логике. Мол, логика неверна из-за стопятьсотой теормы Геделя, кек)))0
Но это, блядь, новая ебаная вершина. Ограниченность мышления по Геделю. Край нахуй, лизоблюды от математики совсем ебанулись.
Ты хоть понимаешь, что эта злоебучая теорма была про формальные системы - конкретный математический объект? Не про логику нахуй, не про мышление, а про сраную формальную систему. Слышим звон и вообще не понимаем где он. Гедель бы поехал от такой интерпретации своих теорем. Хотя подождите-ка, он ведь и так OH SHI~
#318 #748095
>>747453

>Значит ты всегда можешь завести табличку вида вектор -> число со всеми возможными векторами, и далее, ясен перчик, это разделить не то, что линейно, а прямо по y=const.


Но остается вопрос, насколько один вектор ближе или дальше от другого. Т.е. не каждый входной вектор принадлежит к своему классу, а все входные векторы принадлежат некоему числу классов, н-р в тех же ирисах это 3 вида.
>>748110
#319 #748110
>>748095
"Не принадлежит никакому классу" - это тоже класс.
#320 #748267
>>733276 (OP)
Может кто-нибудь накидать вот прям примеры реального применения ML? Судя хайпу по миллиардам влитых долларов, должен уже быть какой-то мощный выхлоп, да и вообще, в эту область довольно умные люди заняты не просто так уходят. Скорее всего я просто не глубоко копаю, но пока все успехи в МЛ, о которых я слышу, заключаются в том, что какой-то новый подход позволяет распознавать стандартный сет на несколько процентов лучше, или что кто-то со своим новым подходом победил в очередном контесте. Или что какой-то информационный гигант выпустил революционную систему AI, которая в теории сильно поможет врачам в постановке диагнозов, заменит бизнес-консультантов...но пока вы можете попросить ее составить вам рецепт блюд. Или пораспознавать возраст на фоточках. Самое реальное, что мне попадалось - это системы автопилота для транспорта, которые реально используются в конечных продуктах. Ну и тот же Watson, по завялениям, реально используется для помощи в диагностики рака и помог в организации бизнеса зоопарку. Но этого всего как-то мало, чтоли.
#321 #748278
>>748267
Я парсю Яндекс пробки что бы найти места где заказывать билборды
Парсю список предыдущих закупок дилеров одной сети что бы прогнозировать что заказывать и заказывать некоторую часть еще до того, как сами дилеры закажут, что бы ускорить время изготовления и доставки.
При этом я вообще никогда не работал программером
#322 #748284
>>748267
Яндекс.пробки сами по себе, рекомендательные системы, высокочастотная торговля, фильтрация спама.
>>748321
#323 #748321
>>748284

> рекомендательные системы, высокочастотная торговля, фильтрация спама


как раз в том и дело, что это сильно абстрактный список. Мне же интересны конкретные системы, чтобы можно было вот наглядно прям понять, что именно в итоге МЛ делает. Для чего в итоге делаются все эти исследования с довольно сложной математикой
#324 #748339
>>748267
У мамки на работе (онкоцентр) используют хуйню вроде ML чтобы выдать прогноз по онкобольным. Типа сколько жить осталось. Если прогноз херовый - не лечат ни хуя, все равно помрет хули, а лекарства дорогие шо пиздец и на всех не хватает. В других онкоцентрах такая же хуерга, внедрена сверху минздравом.
#325 #748340
>>748339
ML спасает жизни карман чинушей.
>>748476
#326 #748342
>>748339
Где она работает? Прям анамнез парсят? Что за система такая?
#327 #748351
>>748267
Взять хотя бы контекстную рекламу у Гугла или Яндекса, приносящую миллионы нефти. Рекомендательный сервис Netflix или Amazon'а, да и вообще рекомендательный сервис.
#328 #748383
>>748339
А не придумал ли ты это только что? Как система называется?
#329 #748468
деанона не будет.
мамке до пенсии еще пахать. она одна за еботеку платит - мы без отца живем. скандалы нахуй не нужны.

парсят все подряд. плюс снимки, лабы
я в медецине не ебу. so подробностей нет.
#330 #748476
>>748340
у мамки говорят что чинуши лечатся в европе или израиле, где угодно только не у нас.
в швейцарии и австрии например.

онкоцентры это для быдла, шобы не бугуртело.
Dmitriy #331 #748522
>>733276 (OP)

>Linux


I'd just like to interject for moment. What you're refering to as Linux, is in fact, GNU/Linux, or as I've recently taken to calling it, GNU plus Linux. Linux is not an operating system unto itself, but rather another free component of a fully functioning GNU system made useful by the GNU corelibs, shell utilities and vital system components comprising a full OS as defined by POSIX.

Many computer users run a modified version of the GNU system every day, without realizing it. Through a peculiar turn of events, the version of GNU which is widely used today is often called Linux, and many of its users are not aware that it is basically the GNU system, developed by the GNU Project.

There really is a Linux, and these people are using it, but it is just a part of the system they use. Linux is the kernel: the program in the system that allocates the machine's resources to the other programs that you run. The kernel is an essential part of an operating system, but useless by itself; it can only function in the context of a complete operating system. Linux is normally used in combination with the GNU operating system: the whole system is basically GNU with Linux added, or GNU/Linux. All the so-called Linux distributions are really distributions of GNU/Linux!
>>748725
#332 #748602
>>747451
Загнать всё в БД?
#333 #748725
>>748522
Столман, отъебись
#334 #748802
>>747451
значение строка, чо правда?
#335 #748805
Посоны, поясните за новые алгоритмы обучения, которым не нужно предобучение как RBM, а то я как-то упустил этот момент.
>>748807>>749054
#336 #748807
>>748805
Это ты о чём? Есть ссылки?
>>748811
#337 #748811
>>748807
https://habrahabr.ru/company/spbifmo/blog/271027/

ServPonomarev 17 ноября 2015 в 14:40
0
Писать про глубокие сети и ни разу не упомянуть машину Больцмана? Ведь именно она позволила уйти от проклятия алгоритма обратного распространения (быстрого затухания) и строить современные глубокие сети (с количеством слоёв больше 3-х). Нет упоминаний о свёрточных слоях — а это тоже один из столпов глубоких сетей.

barmaley_exe 17 ноября 2015 в 15:27
+1

А сейчас RBM'ки где-то используются? Тогда их использовали для предобучения, но теперь придумали новые трюки (например, дропаут, правильная инициализация, нормализация), с помощью которых можно обучать полносвязные нейросети, не занимаясь их предобучением.
>>748816
#338 #748814
И как обучают всякие ебанутые модели нейронов, типа рекуррентной сети?
>>748838
#339 #748816
>>748811
Хз, мб, академик нам расскажет.
Про сети без жадного послойного обучения могу только только показать эту штуку:
http://www.cs.toronto.edu/~fritz/absps/dbm.pdf

Они тут всячески крутятся с mean field и MCMC.
Есть ссылка на доклад Салахутдинова:
http://www.cs.toronto.edu/~rsalakhu/
http://videolectures.net/deeplearning2015_salakhutdinov_deep_learning/
http://videolectures.net/deeplearning2015_salakhutdinov_deep_learning_2/
>>748820
#340 #748820
>>748816
Бля, я обосрался, там тоже претрейнинг есть на RBM.
#341 #748838
>>748814
Короче вот че нашел
https://www.youtube.com/watch?v=0LVIEnfqf8g

Только не понятно, в память сети он говорит попадает новое предыдущее значение, а пример уже объясняет с суммированием со всеми предыдущими значениями. Так что там в памяти должно находиться? По логике понятно вроде что просто предыдущее значение, без всякого суммирования. Значит пример не совсем корректен?
>>748846
#342 #748846
>>748838
А хотя не, все правильно же. Тогда непонятно, как же без нормализации не будет выход за слишком большие значения.
>>748912
#343 #748880

>2016


>предобучение

#344 #748912
>>748846
Хотя если значения отрицательные будут поступать, то нет.
#345 #748985
Анончик, мне по дипломному проекту нужно сделать выбор между нейронными сетями и нечеткой логикой. Сначала проанализировать плюсы и минусы того и другого, затем выбрать какой-либо метод в одном из двух. Проблема в том, что как я ни гуглил, никак не пойму общей картины. По одной статье складывается впечатление, что нейронные сети это подраздел нечеткой логики, по другой статье складывается впечатление, что нейронка - это то, что обучается само, а нечеткое множество - то, что работает только на основе какого-то базиса... И я не пойму где истина. Нет четкой картины всего.
Анон, подскажи, в какую сторону копать, чтобы понять это все?
Может, найдется анон, который круто разбирается и в нейронных сетях, и в нечеткой логике, чтобы объяснить все ро хардкору и наставить на путь истинный.
Очень надеюсь на помощь, спасибо.
>>749309>>749329
#346 #749053
В шапку надо добавить необходимую литературу по математике.
>>749110
#347 #749054
>>748805
ReLU-юниты (нелинейность без насыщения которое вызывает очень медленный спуск по градиенту) + дропаут + ДОХРЕНИЩА данных.
#348 #749067
Аноны, а можно ли формировать контекст из рекуррентной нейронной сети То-есть каждый раз сохранять информацию
Чтобы сеть училась на своих же ошибках?
>>749113
#349 #749110
>>749053
Двачую!
#350 #749113
>>749067
Короче - пропатчить рекуррентную нейронную сеть до уровня ассоциативной?
Интересно, никто бы не подкинул примера, как рекуррентная сеть учится управлять, например, обратным маятником?
Очень интересно было бы на это взглянуть.
>>749251
#351 #749251
>>749113
Вот тут есть LSTM.
http://arxiv.org/pdf/1602.03032.pdf

Для подобных целей ещё всякие графические модели используют, вроде бы. У Бишопа что-то было по этому поводу, вроде бы.
>>749912
41 Кб, 2155x934
#353 #749309
>>748985
Поясните ньюфагу хотя бы по поводу различий.
Я примерно вкурил, что такое нейронка, но вот выстроить картину с нечеткой логикой никак не могу.
Нашел наглядную пикчу. Где здесь должна быть нечеткая логика?
>>749314>>749329
#354 #749313
>>743797

>Анон, как подготовиться к поступлению в ШАД в следующем году? А то в этом я был немного шокирован заданиями, в которых половина слов была непонятна.


Я нашел репетитора (кандидат мат. наук) и занимаюсь с ним два раза в неделю по 2 часа. Плюс самостоятельно читаю вузовские учебники по алгебре/матану и задрачиваю решебники.
153 Кб, 996x717
#355 #749314
>>749309
Хуёвая пикча, нет?

Сам я в нечёткой логике нихуя не разбираюсь и в остальных вещах разбираюсь слабо
Но тут есть тред на реддите:
https://www.reddit.com/r/MachineLearning/comments/32ja88/fuzzy_logic_and_machine_learning/
>>749386
16 Кб, 324x324
#356 #749329
>>749309

>Нашел наглядную пикчу. Где здесь должна быть нечеткая логика?


Пик у тебя полный пиздец, если честно.
>>748985

>объяснить все ро хардкору и наставить на путь истинный.


>я не пойму где истина. Нет четкой картины всего.


А я ведь советовал Пегата выше, >>736014 на русском по нечеткой теме (множества, логика, модели, применение, устойчивость, ...) сложно найти что-то лучше. Но главное не в этом. Нейросети, весь этот ваш байес и т.д. это стохастические модели, на основе теории вероятности. Нечеткие множества - отдельная тема, более того, вероятность можно свести к нечеткости, но не наоборот. Я даже конкретную статью давал http://sipi.usc.edu/~kosko/Fuzziness_Vs_Probability.pdf где все по-хардкору, в частности показано как само понятие вероятности сводится к множествам, а теорема байеса показана как частный случай нечеткой теоремы байеса.
#357 #749340
>>749329
хуйня, не верю
бейс - сила, нечёткая лохня - сосила
>>749344
46 Кб, 334x627
#358 #749344
>>749340

>строгие математические выкладки


>не верю


Ой, всё.
60 Кб, 600x450
#359 #749376
>>749329

>нечоткая логика


слыш бля сюда подошол
#360 #749386
>>749314
Вроде даже натыкался на тот тред, но ничего дельного не вынес. но все равно спасибо
>>749329
Спасибо анончик, ща буду вкуривать.
Ты, если что, тут еще долго будешь сидеть, чтобы можно было вопросик какой-нить задать?
>>749392
#361 #749392
>>749386
Я не очень понимаю, как ты собираешься сравнивать ИНС и нечёткую логику. На мой взгляд, это всё равно, что сравнивать линейную регрессию и теор.вер.
Линейная регрессия - модель.
Теория вероятностей - раздел математики.
Понятное дело, что говорить о регресси можно на языке вероятностей. Но как их сравнивать?
ИНС - модель (множесво моделей)?
Нечёткая логика - раздел математики.
О ИНС тоже можно говорить на языке нечётких множеств. Но как их сравнивать?
>>749401
#362 #749401
>>749392
Ну вот как так получается, что строят ии с помощью нейронных сетей и строят с помощью нечеткой логики?
Еще можно встретить такие высказывания, что якобы нечеткая логика уделает нейронные сети.
Я не говорю об их верности, но кто же их как-то сравнивает..
Или вот вбить на youtube запросы нейронная сеть: там скажут, что можно распознать рисунок или лицо. И вбить нечеткую логику и там скажут, что с помощью нее можно научить машину объезжать препятствия.
Значит, это вроде как 2 способа обучить систему ии? Или я мыслю неверно?
>>749405
#363 #749404
>>733287

>специальность математик-программист


Ты учился на 02.03.03? МОАИС
#364 #749405
>>749401
Ты не понял мою мысль.
Ты хочешь сравнивать металл и молоток.
Молоток можно сделать из металла, но как их сравнивать?
Нечёткая логика и теория вероятностей - средства описания моделей, как металл - материал, из которого можно изготовить инструмент.

Или я не прав?
>>749414>>749503
#365 #749414
>>749405

>Нечёткая логика и теория вероятностей - средства описания моделей,


А что является моделью или какие бывают модели?

Это я просто слишком туплю, видимо, пытаясь взять слишком много, но тем не менее хочу осилить
>>749417
#366 #749417
>>749414
Линейная ререссия - модель.
HMM - модель.
Нейронка - модель.
>>749421
#367 #749421
>>749417

>Нейронка - модель.


Значит, стало быть, нечеткая логика это способ описания нейронной сети?
То есть типа как подраздел нейронных сетей?
>>749429>>749451
#368 #749429
>>749421

> нечеткая логика это способ описания нейронной сети?


Один из способов.
Не подраздел нейросетей, а подраздел математики.
В гугле есть тьма статей о нечётких ИНС:
https://en.wikipedia.org/wiki/Neuro-fuzzy
>>749434
#369 #749434
>>749429
Понятно, анон.
Можно, я еще раз уточню, есть методы построения обучающих алгоритмов, и одним из методов является нейронная сеть. В свою очередь нейронная сеть может быть описана различными способами, и один из этих способов -- нейронная сеть.
Я все правильно понял?
>>749451>>749459
373 Кб, 252x448
#370 #749451
>>749421
"Нейронная сеть" - это просто граф из отдельных операций. Точнее, некоторое множество таких операций, которые удобно представить в виде н-р ориентированного графа. В качестве самих операций можно взять что угодно, в том числе операции, типичные для модели на основе нечетких множеств/логики. В итоге получится структура типа нейросети, как выше заметили, например нейронечеткая сеть. У Пегата эта тема тоже раскрыта.
>>749434

>я еще раз уточню, есть методы построения обучающих алгоритмов, и одним из методов является нейронная сеть. В свою очередь нейронная сеть может быть описана различными способами, и один из этих способов -- нейронная сеть.


"Нейросеть" - больше модное название для любого алгоритма, который удобно представить в виде графа. Фактически при таком определении любой алгоритм машинного обучения можно представить в виде "нейросети", т.к. в любом случае есть какая-то итеративная настройка параметров. Пример - гугловский тензорфлоу https://www.tensorflow.org/ MXNet и прочие подобные библиотеки. Другой вариант - считать нейросетями только те алгоритмы, которые эмулируют/имитируют какой-то функционал реальных биологических нейронов.
>>749462
#371 #749459
>>749434

>Можно, я еще раз уточню, есть методы построения обучающих алгоритмов, и одним из методов является нейронная сеть. В свою очередь нейронная сеть может быть описана различными способами, и один из этих способов -- НЕЧЕТКАЯ ЛОГИКА


описался, прошу прощения
#372 #749462
>>749451
Все, кажись, въезжаю.
В общем, нечеткая логика -- это сама суть, сам метод, алгоритм обучения в искусственном интеллекте.
А нейронка -- это способ обучения, вид
>>749470>>749474
#373 #749470
>>749462
Или я все же что-то неправильно опять трактую?
#374 #749474
>>749462
Нечеткая логика и теория нечетких множеств - это разделы математики, общий подход, матчасть, скажем. Ниже - конкретные модели с использованием матаппарата нечетких множеств и нечеткой логики, например модель Такаги-Сугено из-за которой какой-то школьник на меня агрится в двух разделах. Еще ниже - методы настройки свободных параметров чего угодно, в частности вышеупомянутой модели Такаги-Сугено, например нейронечеткие сети, генетические алгоритмы, линейные матричные неравенства, фильтры Калмана, тысячи их. Конкретная модель с конкретным методом настройки - это уже алгоритм, например нейронечеткая сеть ANFIS.
#375 #749475
почему в интернети все так надрачивают на нейроночки?
это всего лишь одна из мл моделей, притом не самая удачная
>>749476>>749487
#376 #749476
>>749475
А какая самая удачная?
>>749478
#377 #749478
>>749476
от задачи зависит, лалка
>>749481
#378 #749481
>>749478
А есть задачи, не сводимые к аппроксимации функциональной зависимости выходов от входов?
>>749489>>752336
#379 #749487
>>749475
Очевидно, хайп связан с тем, что глубокие сети показали самые крутые результаты в разных задачах.
>>749521
#380 #749489
>>749481
разумеется, задач дохуя разных бывает
только причём тут нейроночки?
>>749493>>749497
#381 #749493
>>749489
универсальный-аппроксиматор.тхт
>>749496
#382 #749496
>>749493
чтож ты сразу не сказал!
#383 #749497
>>749489

>разумеется, задач дохуя разных бывает


Приведи пример задачи, не сводящейся к аппроксимации зависимостей выхода от входа.
>>749508
#384 #749503
>>749405
А можно провести различия, между, например вариантами обучения
Типа нейронка обучается с учителем и без, а нечеткие множества на основе реальных данных
>>749505>>749507
#385 #749505
>>749503
А с учителем и без мы не можем обучаться на реальных данных?
>>749522
#386 #749507
>>749503
Нельзя. Как нейросети так и нечеткие модели можно настраивать ("обучать") как с учителем так и без, в зависимости от алгоритма обучения.
>>749522>>749526
121 Кб, 671x651
#387 #749508
>>749511>>749517
#388 #749511
>>749508
Reinforcement learning
>>749515
#389 #749515
>>749511
как будешь измерять "нравственное качество"?
формализни-ка
>>749517>>749518
25 Кб, 800x1200
#390 #749517
>>749508
А ты смешной. Все описанное легко сводится к тому, что я описал. Например, пасха - это выход (класс), все остальное - входы (переменные) вещественнозначного или даже бинарного вектора скреп (бухать/нет, стукаться яйцами/нет и т.д.).
>>749515

>как будешь измерять "нравственное качество"?формализни-ка


Как нехуй. По поведенческим, эмоциональным, нейровизуализационным коррелятам. Это задача планирования экспериментов/исследований, сбора данных, а не МЛ как такового.
#391 #749518
>>749515
Охуительный вопрос. Никак очевидно, нет никаких нравственных качеств. Но это вопрос, который может уйти в длительный холивар.
Хотя можно взять ватника со скрепами, который будет поощрять за нравственное поведение. Но, судя по происходящему в /b/, этот подход чаще является провальным, чем успешным.
#392 #749521
>>749487
такой то людской overfitting хе-хе
#393 #749522
>>749505
>>749507
Мда, правда, херь спросил.
Блин, просто буквально только что отзвонился науч. руку, он сказал епта, что это вполне себе два метода: нейронка и нечеткие множества и чтобы я нашел различия между ними. Че-то сказал как раз таки про обучение с учителем, без учителя.
Ух, блин, вообще хер проссышь.
>>749524>>749533
#394 #749524
>>749522
Бля, ты не из итмо случайно? Знаю я там одного уёбка, застрявшего в девяностых, который дико угарает по всяким нечётким множествам.
>>749527
#395 #749526
>>749507

>нечеткие модели можно настраивать ("обучать")


Можно прям так и загуглить "обучение нечетких моделей"? Или какой-то раздел отдельный есть?
>>749533
#396 #749527
>>749524
Не, я из дс
Незнаю, насколько это глубоко в 90х, но точно могу сказать, что это уже очень глубоко в моей заднице, чуть ли не до панических атак
>>749531
#397 #749531
>>749527
Хуй знает, нашёл эти две статьи. Почитай, расскажешь нам потом чего полезного мб.
http://www.cee.uma.pt/morgado/Down/JVieiraFMD_SISICA.pdf
http://www.emo.org.tr/ekler/f187f643090a53e_ek.pdf
>>749542
#398 #749533
>>749522

>это вполне себе два метода: нейронка и нечеткие множества


Он про нейронечеткие сети знает? Ну скажи ему, что нейросети на основе формализмов теорвера, а нечеткие модели - на основе нечетких множетсв и логики.
>>749526

>Можно прям так и загуглить "обучение нечетких моделей"? Или какой-то раздел отдельный есть?


Любой конкретный алгоритм - это модель и его настройка. Методы настройки общие для нейросетей и нечетких моделей - с учителем бэкпропагейшн, без учителя - всякая кластеризация. Например, существует такой софт http://www2.imse-cnm.csic.es/Xfuzzy/Xfuzzy_3.3/download.html типа продвинутого конструктора. Можно построить почти любую нечеткую модель и обучить методами обратного распространения и т.п. Для нечетких моделей кроме настройки параметров есть еще настройка структуры модели, но там опять же обычно кластеризация данных, на основе которых модеь строится.
>>749536>>749542
#399 #749536
>>749533
Есть у моделей на основе нечёткой логики какие-нибудь преимущества в итоге, нет?
>>749552
#400 #749542
>>749533

>что нейросети на основе формализмов теорвера, а нечеткие модели - на основе нечетких множетсв и логики.


Так вот оно и различие, не? Или ты сам уже это притянул для меня?
>>749531
Спасибо анон, ща почитаю
>>749556
214 Кб, 1322x894
#402 #749552
>>749536
Есть конечно. Они полностью прозрачны, база правил, которая создается процессом настройки, легко интерпретируется, есть даже такой довольно новый метод как финграммы пикрелейтед, на который почему-то всем похуй, который может графически представлять нечеткую модель любой сложности в виде, доступном для интерпретации человеком. Еще одно преимущество - для любой нечеткой модели можно получить строгое математическое доказательство устойчивости, стабильности. Это обязательное условие использования алгоритма в промышленности и т.п. Ну никто ж не хоче, чтобы контроллер доменной печи спалил ползавода или система управления метро со всей скорости посадила поезд с пассажирами на тупиковую призму. Поэтому поезда метро на нечетких контроллерах существуют с 1987 года и используются по всему миру, поэтому почти половина мирового производства цемента - это установки с нечетким управлением (где-то видел такую цифру, да) и протчая и протчая. А нейросети те же - в основном для аутистов поиграться. В последнее время, правда, тот жи гугл взялся за глубокие сети, но там в основном распознавание изображений и т.п., о применении в промышленности и технике речи пока нет.
#403 #749556
>>749542

>Так вот оно и различие, не? Или ты сам уже это притянул для меня?


Ну я примерно предполагаю, что такой ответ это примерно то что от тебя хочет услышать препод, так-то да, это толстовато сказано, хотя в общем случае не поспоришь.
>>749560
#404 #749560
>>749556
Спасибо, анончик.
От этого и буду танцевать, пожалуй
Спасибо.
вернулся к статьям
#405 #749570
Чёт трет скатился в пустопорожнее блеяние, поразительно напоминающее /ссы. Никто ничего не делает, не рассказывает, никаких новостей даже не постят.
>>749586>>749588
63 Кб, 600x435
#406 #749586
>>749570
Ну ты понел
>>749597
43 Кб, 500x404
#407 #749588
>>749570

>Никто ничего не делает, не рассказывает,


>не рассказывает,

>>749597
#408 #749597
>>749586
>>749588
Сук это был мой любимый трёт, а теперь тут какой-то чатик трёх даунов. Мне с ними разговаривать, что ли?
#409 #749601
>>749597
Ты можешь съебать.
#410 #749604
>>749597
Да не трех даунов, это из ссы протек хуй с фагготорией по поводу нечеткой логики. По-нормальному его надо игнорить, но полно ньюфагов, которые его кормят.
>>749657
#411 #749657
>>749604
так это >>749597 и есть хуй с фаготрией
208 Кб, 420x319
#412 #749704
Короче, я даун полный по части матана, меня пугают такие слова, как весы, бэк-пропагешн, кластеры. Я с трудом понимаю принцип работы перцептрона, все это слова-физбазы для меня.
Но я хочу уничтожить/поработить человечество с помощью роботов и искусственного интеллекта, может кто-нить станет разрабатывать нейросети (и обучать меня по мере моих способностей) и показывать мне их, а я буду направлять в философском смысле этого слова?
Просто я реально тупой в этом плане и не технарь, я понимаю, что мне уже поздно наматывать матан и все эти кластеры. Это будет просто тратой времени без цели в моем случае, когда вокруг так много школьников-олимпиадников со свежим и быстрым умом, способностями к математике, блестящим образованием, умеющие паять и т.п.
#413 #749705
>>749704
Бля, как ты сюда попал вообще?
#414 #749711
>>749704

> а я буду направлять в философском смысле этого слова?


Неплохая затея. Но как я могу знать, что ты не скрытый гуманист? Накатай-ка мне эссе о термодинамическом аспекте сознания и связи больцмановского мозга с ницшеанской концепцией вечного возвращения.
>>749728
sage #415 #749715
>>749704
ещё один долбоёб с

> уничтожить/поработить человечество с помощью роботов и искусственного интеллекта


и конечно же

> нейросети

#416 #749728
>>749711
Но я и есть гуманист в незапятнанном нравственностью и морализмом смысле этого слова.
Сорри, в термодинамике и биохимии мозга я тоже не шарю.
>>749747
sage #417 #749747
>>749728

> Сорри, в термодинамике и биохимии мозга я тоже не шарю.


Тогда какой же вы философ, батенька? Вы гей-шлюха для грядущей армии хозяев-роботов.
#418 #749912
>>749251
Графические - это типа Карты Кохонена?
Мне просто интересно поработать с ассоциациями.
На их основе можно проводить классификацию же.
А если есть классификация - то можно проводить уже сравнения.
Если есть сравнения - можно уже создавать методы, чтобы сеть экспериментировала самостоятельно, без учителя.
Мне интересно, до чего она дойдет в моем случае с шагоходом.
>>749925
#419 #749914
>>749704
Даже банальная ходьба - нереально сложная задача.
Уходи отсюда, Мамкин Гитлер, тред для серьезных людей.
#420 #749925
>>749912
Типа Байесовских и Марковских сетей, типа CRF.
>>749927
#421 #749927
>>749925
Ха-ха-ха.
Ой, как же весело с этими сетями то, то-есть можно информацию с рекуррентной подавать на байесовскую, например?
И тогда сеть через множество зависимостей сможет выделить для себя нужный алгоритм ходьбы?
#422 #749929
>>749927
Из начального твоего поста про контекст, я не очень понял чего ты хочешь. Возможно, это не совсем то, чего ты хочешь.
>>749935
#423 #749930
>>749927
Правда, мне же надо научить правильной осанке и всему прочему.
Да, походу без готовых функций тут не обойтись.
#424 #749934
>>749927
Всё-таки попробуй осилить ассоциативную LSTM и Holographic Reduced Representations.
>>749937
#425 #749935
>>749929
Нужно показать то, как с помощью ассоциативного мышления можно решать задачи, для которых не существует готовых решений, но существует определенная закономерность.
>>749939
#426 #749937
>>749934
LSTM - это та-же рекуррентная, только с долгой памятью же.
>>749940
#427 #749939
>>749935
Ты как всегда объясняешь задачу какими-то отрывками. Была бы простыня с постановкой задачи, мб и посоветовали бы тебе чего годного.
>>749944
#428 #749940
>>749937
Она там с довесами типа голографической памяти, почитай.
#429 #749944
>>749939
У меня нда вообще, не особо имею право разглашать информацию о проекте.

Есть человекоподобный шагоход.
Считай, что шарнирная кукла в которую встроили сервоприводы, пропорции человеческие, уменьшено в 2 раза.
И вот это чудо нужно научить ходить используя лишь ассоциативную память и классификацию/кластеризацию.
И вот мы уже давно бьемся над попытками заставить это нормально стоять, а учитывая ее общую неустойчивость и огромную трудность в калибровке - это еще та задачка.
Но ходить оно может.
>>749952
#430 #749952
>>749944
И да, в калибровке сервоприводов нечеткая логика то работает.
А вот с регрессией совсем не получилось, как мы ее не пытались применить - шарниры все равно сваливаются.
Особенно приходится поебаться с верхним шарниром
Выглядит оно примерно так, только совсем без половых признаков, но схема такая же.
Эх, теперь поймете, почему кидал все отрывками, на что я трачу свою жизнь, блядь.
30 Кб, 500x869
#431 #749953
#432 #749962
>>749952
Мысль пока в том, что все конечности до центра тяжести - это обычные маятники.
Все конечности выше центра тяжести - обратные маятники.
И в аналогии с человеком есть всего 1 акселерометр и пара гироскопов в ногах.
Смысл в том, что есть некоторая закономерность между скоростью/моментом инерции/положением конечности относительно других конечностей.
И нейронная сеть должна найти именно эту закономерность.
#433 #749965
>>749962
Кто-то уже предлагал, но вы не пробовали генетику?
>>749966
#434 #749966
>>749965
Генетика конечно прикольная вещь.
Но задача не в том, чтобы конкретно научить его ходить, задача применить ассоциативное мышление.
31 Кб, 584x249
47 Кб, 743x403
#435 #750264
Не по теме, но я думаю здесь сидят люди, которые в этом разбираются. Мне нужно параллельно перемножить матрицы. На википедии и в Кормене предлагается алгоритм пикрелейтед 1, когда матрица делится рекурсивно. В книге Golub, Van Loan: Matrix Computations предлагают пикрелейтед 2. Есть какая-то разница? Что лучше? Я буду использовать C++ и MPI.
>>750275
#436 #750266
>>749952

>в калибровке сервоприводов нечеткая логика то работает.


Ну, и? Если работает, почему бы ее и не использовать?
>>749962

>Смысл в том, что есть некоторая закономерность между скоростью/моментом инерции/положением конечности относительно других конечностей. И нейронная сеть должна найти именно эту закономерность.


Почему не используете нейронечеткие сети? Закономерность оно найдет + у вас будет готовая нечеткая модель для контроллеров движения.
>>750295
#437 #750275
>>750264
Это одно и то же - разбиение на блоки.
>>750276
#438 #750276
>>750275
Ну да, но может какая-то разница в скорости будет за счет того что разбиение разное.
#439 #750295
>>750266
Ох, задача уже почти решена.
Нечеткая логика хороша только в калибровке.
Далее, в действие войдет рекуррентная сеть, а за ней и байесовская классификация.
Проще говоря - сеть обязана научиться ходить.
Ей то по сути остается лишь классифицировать информацию с приводов и акселерометра с несколькими гироскопами и по этим параметрам выискать зависимость.

Правда, надо будет сначала на банальном обратном маятнике потестить
>>750427>>750510
43 Кб, 600x399
#440 #750427
>>750295
>>749962
Ебать вас, питухов, почитаешь конечно..

Намедни мы с френдами по коворкингу собрались на митинг в лаунджбар. Нужно было выбрать себе лук. Решил надеть свой любимый свитшот и кардиган, на даунсайд пошли слим джинсы и эйрмаксы и так как пошёл небольшой дождь я решил надеть парку. Закинул вбэг ультрабук и покатился на лонгборде.
Естественно, что до бара я добрался быстрее всех и уже заказал себе маффины и смузи. Когда все куны и тяночки собрались вместе, начался брейншторм на тему дизайна лэндингпейджа для нашего нового стартапа. Во время тимбилдингаменя назначили тимлидом, по-этому я установил границу дэдлайна.
Темнело... а это значит, что пришло время идти в клуб. На фэйсконтроле нас легко пропустили ибо мы отлично разбираемся в модных течениях, а ещё у меня гитлерюгенд.
Там я познакомился с няшей-стесняшей, с которой мы уехали ко мне на вписку. Она была в короткой юбочке и я заметил, что она без трусиков... Спустя пару минут я уже дудонил её во влагалище. Но это уже другая история...
#нежность,улыбка,волнение,вкусспермы
>>750510>>750536
2433 Кб, Webm
#441 #750510
>>750295
А смысл во всей этой сборной солянке? Что может байесовская классификация такого, чего не может нечеткая?
>>750427
Неслабо тебя прогрело. Что сказать-то хотел? Сложна?
>>750710>>752340
#442 #750529
Анон, если для нейронной сети нам нужна выборка данных (например несколько фоток, если мы тренируем на распознавание лиц), то для тренировки нечеткой системы что нужно? Тоже какая-то выборка?
>>750539
#443 #750536
>>750427
Что-то вообще не в кассу. В том посте, на который ты сослался, 99% не имеют аналогов в русском языке или аналог не прижился. Акселерометр? Гироскоп? Рекуррентная сеть? Или ты настолько тупой, что думаешь, что "байесовская" - это какое-то заимствованное слово, а не именное прилагательное, образованное от фамилии Байеса?
#444 #750539
>>750529

>для тренировки нечеткой системы что нужно? Тоже какая-то выборка?


Разумеется. Точно такая же выборка, по которой настраиваются свободные параметры модели.
>>750550
#445 #750550
>>750539
А нахера тогда в нечеткой системе правила составляются?
>>750560
184 Кб, 1434x835
#446 #750560
>>750550
Правила составляются по имеющейся выборке. Для того, чтобы входы по этим правилам соотносить с выходами. Пикрелейтед - модель Такаги-Сугено, обученная классифицировать ирисы https://en.wikipedia.org/wiki/Iris_flower_data_set В этом датасете 4 входа и 1 выход (сорт ириса). Каждый вход разбит тремя функциями принадлежности. Правила сгенерированы обучением модели. Наглядно видно, что по 2му (sepal width) и 3ему (petal length) входу можно получить выход (сорт ириса).
>>750565>>750569
#447 #750565
>>750560
То есть petal length и petal width, там же нумерация с нуля.
#448 #750569
>>750560

>модель Такаги-Сугено


Это аналог алгоритма Мамдани?
>>750576
#449 #750576
>>750569
Не совсем. В модели Мамдани выход задается нечеткими множествами (если х есть А, то у есть В), а в TS - линейной функцией от входов (если х есть А, то у = а*х+b).
>>750591
#450 #750591
>>750576
А если я хочу обучить нечеткую систему, например, обучить систему распознавать контрабас и гитару, какой алгоритм использовать?
Получается, у меня будет 2 правила, "ЕСЛИ 6 струн И вес меньше 2кг ТО это гитара" и "ЕСЛИ 4 струны И вес больше 10 кг ТО это контрабас". И выборкой послужат 10 гитар с 6 струнами и примерным весом 1-2кг и 10 контрабасов с 4 струнами с примерным весом 10кг. Это так работает?
>>750598
#451 #750598
>>750591

>какой алгоритм использовать?


Который лучше понимаешь. В общем случае там нет каких-то радикальных преимуществ одной модели перед другими, не считая того, что все они тривиально сводятся к стандартной аддитивной модели Коско >>743328

>Получается, у меня будет 2 правила, "ЕСЛИ 6 струн И вес меньше 2кг ТО это гитара" и "ЕСЛИ 4 струны И вес больше 10 кг ТО это контрабас". И выборкой послужат 10 гитар с 6 струнами и примерным весом 1-2кг и 10 контрабасов с 4 струнами с примерным весом 10кг. Это так работает?


Да.
>>750616
#452 #750616
>>750598
Спасибо, анон!
Последний вопрос
правильно ли я понял, что каждая гитара и каждый контрабас в моем примере будут являться лингвистическими переменными?
Если да, на нее наложить вот такую "пятерку" из x, T, X, G, M?:

https://ru.wikipedia.org/wiki/Лингвистическая_переменная
>>750633
18 Кб, 1060x429
#453 #750633
>>750616
Не-а. Лингвистическая переменная - это разбиение входного пространства. В твоем примере вход состоит из двух лингвистических переменных - "струны" и "вес". Соответственно, лингвистическую переменную "струны" можно представить двумя лингвистическими термами (т.е. нечеткими множествами) - "много струн" и "мало струн". То же с весом - "малый" и "большой".
>>750643
#454 #750643
>>750633
а если бы была еще такая переменная, как "наличие струн". Допустим, у нас еще есть барабаны и мы вводим еще и параметр с наличием струн. Как такую лингвистическую переменную представить термами?
>>750652
10 Кб, 472x470
#455 #750652
>>750643

>а если бы была еще такая переменная, как "наличие струн". Допустим, у нас еще есть барабаны и мы вводим еще и параметр с наличием струн.


Самый простой вариант - поправить область определения пикрелейтед. Чтобы начиналась с нуля. Тогда терм "мало" лингвистической переменной "струны" будет иметь функцию принадлежности = 1 при количестве струн = 0.
>>750667
#456 #750667
>>750652
Я плохой пример подобрал.

Что вот если у нас есть такая лингвистическая переменная, которая априори может иметь два варианта: 1 или 0, "да" или "нет".
Не обязательно в рамках моего примера про барабаны.
Вот допустим такой пример:
Учим распознавать, обычный телефон перед нами (только звонилка) или смартфон.
И мы учим нечеткую систему распознавать смартфон, например. Получаем лингвистические переменные "наличие камеры", "наличие интернета", "наличие bluetooth". И в качестве выборки положим 5 смартфонов, у которых есть одно из этих свойств.
Это корректное обучение?
Как тогда представлять термами данные переменные?
>>750768>>750869
#457 #750708
Вы только представьте, что скоро весь этот биоскам (продавцы, кассиры, врачи, учителя) заменят биоротами и они пойдут на улицу просить подаяния у нас программистов. Наконец-то справедливость восторжествует и биоскам с одной извилиной отправится на свалку истории.
>>750714>>750753
#458 #750710
>>750510
Скорость и производительность же.
Плюс у байесовская лучше под это заточена.
И напрямую использовать нечеткую логику нельзя, а вот под драйвер - можно.
У нас же еще и вопрос байтоебства очень строго стоит.
>>750724
#459 #750714
>>750708
Я бы не радовался, все-таки живая эстетика должна существовать.
Да и куда ты людей денешь? Они значит пойдут в программисты и их дети.
И зарплаты будут ниже некуда
>>750718
#460 #750717
я ничего не понимаю, о чем вы тут пишете? а как мне собрать робота и научить ходить на нейросетях вот этих вот? ю_ю
#461 #750718
>>750714
ну у кого хватит извилин - пойдут, остальные будут клоунами у пидорасов. А вообще я думаю, начнется сильное регрессивное движение биоскама, как на ближнем востоке, за скрепы, духовность, биоскам вместо роботов. Ну в отдельных очагах цивилизации.
>>750753
#462 #750724
>>750710
Да я вроде и говорил, что стоит упоротая цель поиграть в ассоциации.
То-есть робот пробует сделать шаг и у него не получается, он запоминает условия при которых у него это не получилось и в следующий раз делает уже по другому.
Через n количество раз он выстроит таблицы значений, а по ним уже с помощью прогнозирования сможет понимать.

Наркомания полнейшая, я бы сам подставил формулы.
#463 #750753
>>750718
>>750708
Але, долбаеб, в загнивающей уже несколько стран вводят программу безусловного дохода. Люди вообще не будут работать, будут получать еду + жилье ПРОСТО ТАК. Алсо посмотри как живут страны типа Дании,Бельгии,Норвегии,Нидерланды,Швейцария - это страны, которые не тратят на оборону и соответственно перераспределяют этот бюджет в социальную сферу.
>>750766
#464 #750760
Как вкатится на ентри левел типа как по аналогии создать маленькую веб-страничку визитку или типа сортировки массива пузырьком, чтоб посмотреть вообще че как, твое это или не твое ?
#465 #750765
>>750760
сидеть читать книги, запоещнные в треде, чтобы потом тоже с умным видом повторять умные словечки типа кластеры, регрессия, не понимая их значения.
#466 #750766
>>750753
Кто будет нести на своих плечах биоскам типа пидорашек? Бесплатные еду и жилье в развитых странах раздают либо креативщикам (всяким погромиздам, рисовальщикам, игроделам) либо людям с хорошей генетиком (танцоры, модели, спорсмены). Среднюю жирную беззубую тупую и озлобленную пидорашку продавщицу бабу Клаву из продуктового авторы всяких роботов и новейших технологий на своем горбу тащить не станут.
#467 #750768
>>750667
бамп вопросу.
Анончик, спасай, в гугле вообще ничего нагуглить не получается по вопросу
#468 #750769
>>750760
Берешь и читаешь любую статью из приведенных ранее терминов Вон, сколько всего тот шагоходоеб понаоставлял
Как находишь непонятное слово - так гуглишь его и понимаешь, разбираешь.

Потом, ищешь задачу и подбираешь ее методы решения, как получится нормальный код - ищи работу, куда хочешь вкатываться, там смотри требования
>>750798
#469 #750772
>>750760
Сделай так, чтобы капчу распознавало на Доброчане, например.
#470 #750789
>>750766
Сам себе противоречишь. Кто кого тащить то должен если будут роботы? Тем более толерантный загнивающий уж точно ничего такого предпринимать не будет
>>750809
#471 #750798
>>750769
Звучит не структурировано. Таким же постом можно дать совет как научить запускать ракеты в космос.

Особенно часть про "ищи работу"

Тебе вот надо выучить весь фреймворк Foundation и потратить овер 100 часов на его изучение, чтобы понять подходит ли тебе разработка мобильных приложений или ты на несколько раннем этапе это поймешь?
#472 #750806
я нихуя не понимаю в этой книги, какие-то закорючки, дискретная алгебра. Я ее вообще не знаю. как понять матан не зная матана?
http://arxiv.org/pdf/1602.03032.pdf
>>750807
#473 #750807
>>750806
Открой книгу для 10-11-го класса и понимай сиди.
#474 #750809
>>750789
Роботов кто-то должен программировать, маня. Вот эта будет единственная прослойка людей, что-то проивзодящее, остальные либо будут в индустрии развлечений, либо сдохнут.
Зря ты думаешь, что запад будет толерантен к богомерзкой русне. как раз он всеми своими действиями показывает, что его толерантность будет распространяться только на тех, кто принял его ценности и прибежал с протянутой рукой от войны. На пидорах ни одна из перечисленный категорий не распространяется.
>>751915>>752352
15 Кб, 404x161
#475 #750812
Что это за закорючки? Какое они имеют отношение к программированию?
>>750824>>751395
#476 #750815
>>750766
Вот читаю иногда американскую прессу и там все патриоты хоть какой партии и тд - обожают реднеков своих, умиляются их наивности и тд.
Читаю отечественных претендующих на интеллектуалов - желчь, злоба и выдуманный мирочек "какие все говно на самом деле" под соусом какие-нибудь расплывчатого дерьма типа "борьба с коррупцией"
И теперь я вижу кто целевая аудитория этого фонтана из фекалий - да это же лично ты.

И нет, весь мир не ненавидит то что ты называешь пидорашками, всем лишь бы человек был хороший. Даже если он сам на себя заработать полностью не может - ничего страшного, выкатим на-гора какую-нибудь соц программу что бы ему помогла.
>>750827
#477 #750817
>>750766
Бесплатное жилье дают всем гражданам.
Но это уже не жизнь же, блядь.
Нормально же жили в нулевых, в богатстве даже, а сейчас все скатилось.
Если все роботизируют - то не будет стоять вопрос о том кто сдохнет или не сдохнет.
Просто будут митинги, потому что людям негде работать.
А если такая угроза стоит - то ничего роботизировать полностью не будут.
#478 #750824
>>750812
Да открой ты уже таблицу математических символов, дурашка.
>>750829>>752347
#479 #750827
>>750815
У них реднеки живут в нищих трейлерах и стреляют нигеров из ружья. А у нас пидорахи дорвались до власти, живут в особняках и диктуют остальным свои говновзгляды.
>>750830>>750833
40 Кб, 830x381
#480 #750829
>>750824
вопросов стало еще больше.
>>750831
#481 #750830
>>750827
Черт, вот что значит давно в /b не сидел.
Думал люди называющие кого-то пидорашками, как и сами пидорашки вымерли уже.
Забудь это слово и катись в свой /b
Здесь конкретные вопросы задаются.
>>750847
#483 #750833
>>750827
Ну и что тебе навязали? Ну и чего сам не навязываешь, вон даже Кац в люди выбился?
Хотя не отвечай, хватит тред скатывать. Роботов он клепать собрался, ну-ну.
>>750834>>750847
#484 #750834
>>750833
Только не путайте этого залетного со мной, пожалуйста.
>>750847
3 Кб, 32x37
#485 #750844
ЭТОГО ЗНАЧКА НИ В ОДНОЙ ТАБЛИЦЕ НЕТ!!
>>751475>>751541
#486 #750847
>>750830
>>750833
>>750834
>>750831
ничего никогда не добьетесь, пидорашки, с такими взглядами, бытие определяет сознание.
>>750862
#487 #750862
>>750847
Что тебе конкретно не понравилось, чего хочешь?
Или ты потроллить зашел?
#488 #750869
>>750667
Кстати говоря, а на вход обязательно должны подаваться именно лингвистические переменные? Могут ли подаваться просто нечеткие переменные?
Ведь лингвистические состоят из нечетких
#489 #750885
>>750869
Мой любимый анон ушел спать :(
#490 #750951
>>742558
да, нейроэволюционные алгоритмы интересные
я сейчас свою делаю с рекурентными связями

Если юзать обычную сетку то у неё нет "памяти", она как амёба (если не юзать TD). А если добавить рекурентные связи, то это уже муравей нахуй.
>>751034>>751684
#491 #750967
>>750869
Для алгоритма Мамдани, например, можно применить не лингвистические переменные, а нечеткие?
#492 #751034
>>750951
На какой задаче будешь гонять?
>>751973
#493 #751340
looking forward to pereckatueaux
#494 #751364
>>751374>>751480
#495 #751374
>>751364
Уровень доклада студента с четвёртого курса.
67 Кб, 639x642
#496 #751390
>>750869

>а на вход обязательно должны подаваться именно лингвистические переменные? Могут ли подаваться просто нечеткие переменные? Ведь лингвистические состоят из нечетких


Не обязательно, я не знаю зачем ты именно к лингвистическим переменным привязался. Суть в том, что входное пространство (а в случае модели Мамдани и других подобных - еще и выходное) разбивается нечеткими множествами. Частный случай такого разбиения, один из вариантов - лингвистические переменные. В общем же случае это может быть что угодно - нечеткие числа и интервалы, рандомные нечеткие множества с любыми функциями принадлежности и даже четкие множества с бинарными функциями принадлежности. Идеологически правильно их как-то расставить в соответствии со значениями переменных н-р пикрелейтед (предварительная кластеризация и построение функций принадлежости по ее результатам), но в общем случае это не обязательно, можно их тупо расставить квадратно-гнездовым способом, как это сделано в нейронечеткой модели ANFIS.
#497 #751395
>>750812
Читай объяснение в тексте, вне конкретных обозначений это может быть что угодно.
61 Кб, 602x452
#498 #751475
>>750844
Ты читать-то умеешь?
>>752351
#499 #751480
>>751364
Что это? Зачем кто-то пересказал общеизвестную информацию? Это в любом мухосранском вузе проходят на 4 курсе.
#500 #751541
>>750844
коловрат, аримулт
#501 #751684
>>750951
Ты гуглил про LSTM?
Это уже уровень кошки, лол, если сделать глубокую сеть на ее основе - то будет вообще вин.
LSTM вообще считается лучшей сетью, способной изучать последовательности, да и метод обратного распространения ошибки для нее - лучший.

Мы вообще сейчас стоим в вопросе о том, чтобы дать сети LSTM одновременно анализ информации и прогнозирование Ты можешь модифицировать сеть таким образом, что она запомнит хоть 1000 значений
Но мне не совсем нравится их свойство - забывать.
Конечно, формировать первичный контекст то нужно.
Но и долгосрочная память - штука необходимая.
О господи, кажется, я пришел в аналогию с человеческим мозгом
#502 #751699
>>751684
Постой, это если LSTM запоминает много информации, то как она ее будет обрабатывать?
>>751706
#503 #751706
>>751699
Легко же.
Зависит от поставленной задачи вообще и от того, какую информацию ты можешь разрешить "забыть"
#504 #751762
>>751684

>если сделать глубокую сеть на ее основе - то будет вообще вин.


>если


Так уже. Запилено в TensorFlow, https://www.tensorflow.org/versions/r0.8/tutorials/recurrent/index.html
Stacking multiple LSTMs

To give the model more expressive power, we can add multiple layers of LSTMs to process the data. The output of the first layer will become the input of the second and so on.

We have a class called MultiRNNCell that makes the implementation seamless:
>>751795
#505 #751795
>>751762
Так это языковая модель же, с ней еще работать и работать напильником.
#506 #751915
>>750809
В манямирке живешь ты, глупый школьник
#507 #751948
>>751684
Эх аноны, я разочарован слегка.
Прогнал значит сеть на маятнике.
И знаете, что она сделала? Она тупо отсекла неудачные комбинации.
А я почему-то надеялся, что она выведет некоторую закономерность, а это надо самостоятельно делать.
>>752042
#508 #751973
>>751034
уже гонял на такой хуйне как тут >>742558
(только в юнити)
собственно да, эффект схожий
Чтобы максимизировать целевую функцию начинали читерить и передвигаться "стрефами" не знаю как сказать, в конвульсиях бились и довольно быстро перемещались таким образом. Пришлось понижать фитнесс функцию за лишнии телодвижения. Стало намного грациозней.

теперь написал реализацию торгового бота для btc. Обученная сетка на куске исторических данных на которых не обучалась уходит в хороший профит. Хотел подключить к бирже через API, но руки пока не дошли.
#509 #752021
>>751684
да, в TF немного с ними поигрался
в принципе понимаю как они работают, аля гейты.

Кстати, кто нибудь может придумать эксперимент с Q-обучением когда есть некие агенты, и нужно максимизировать их общую эффективность, а не эффективность каждого по отдельности, как в стандартном подходе ?

В нейроэволюции я просто задам fitness функцию как fitness всей популяции, таким образом у меня появятся агенты которые действуют сообща. Как то такое можно повторить с Q-обучением ?
>>752025>>752066
#510 #752025
>>752021
В Q-обучении можно всем агентам вознаграждение за командную работу поставить.
Это самое простое, наверное.
>>752031
#511 #752031
>>752025
но тут ты должен заранее знать что именно они должны выучить, какое именно поведение

Нейроэволюция хороша тем что ты просто задаёшь оценку за всю жизнь агента, а агенты сами генерируются таким образом чтобы быть наиболее преспособленными к этой целевой функции, порой весьма неожиданным вещам.

Это я сейчас просто пытаюсь понять какие преимущества имеет нейроэволюция по сравнению с Q-обучением. Что умеет она, чего нельзя сделать с Q-обучением.
>>752037
#512 #752037
>>752031
Да все понятно и так же.
Нейроэволюция больше относится к самостоятельному обучению, чем Q-обучение.

Вообще, странно подходы сравнивать.
#513 #752042
>>751948
И вот теперь придется переписывать
И лучше структурировать информацию с датчиков и обратной связи сервоприводов.
#514 #752066
>>752021
Мультиагентный подход же?
>>752070
#516 #752095
Скайнетаны, есть ли по сабжу книжка более-менее энциклопедического характера, т. е. содержащая базовые сведения о как можно большем числе понятий, задач, моделей, подходов и т. д., чтобы там были хорошо разжеваны все термины и баззворды, и дана какая-то более-менее целостная картина? Так чтобы можно было ее прочитать и иметь представление о том, куда двигаться дальше. Очень хочется постигать эту область, но из-за отсутствия структурированной инфы и огромного числа в разные стороны торчащих направлений даже непонятно, чего именно собсно хочется.
>>752101
# OP #517 #752100
Котаны, я вам перекат сделял
ПЕРЕКАТ >>752098 (OP)
ПЕРЕКАТ >>752098 (OP)
ПЕРЕКАТ >>752098 (OP)
ПЕРЕКАТ >>752098 (OP)
ПЕРЕКАТ >>752098 (OP)
ПЕРЕКАТ >>752098 (OP)
>>755458
#518 #752101
>>752095
Парни, хочу сниматься в порнухе, есть ли по сабжу книжка более-менее энциклопедического характера, т.е. содержащая базовые сведения о как можно большем числе понятий, задач, моделей, подходов и т.д., чтобы там были хорошо разжеваны все термины и баззворды, и дана какая-то более-менее целостная картина? Так чтобы можно было ее прочитать и иметь представление о том, куда двигаться дальше. Очень хочется постигать эту область, но из-за отсутствия структурированной инфы и огромного числа в разные стороны торчащих направлений даже непонятно, чего именно собсно хочется.
#519 #752336
>>749481
Конечно все задачи обучения с учителем это поиск аппроксимации функциональной зависимости выходов от входов.
И нейронки занимаются поиском аппроксимации, но это же не ответ на вопрос почему они сильно популярны.
Блядь, возьмем любой другой метод, который так-же занимается поиском аппроксимации, это тоже будет аргументом в пользу того, что он сильно популярен?
#520 #752340
>>750510

>пикрил


пожалуйста, хотя бы сюда не тащите это говно
#521 #752345
>>750760
анон, я надеюсь, что ты это прочитаешь. Я еще недавно задавался таким же вопросом и не мог найти ответа.
Короче машинное обучение - это такая тема, что совсем простых примеров для демонстрации нет, ну т.е. можно, конечно, придумать, но они выглядят как полная хуйня.

Я бы для начала порекомендовал посмотреть на этот курс:
https://classroom.udacity.com/courses/cs271/

Его преподают _уважаемые_ специалисты. Все рассказывается очень _доступным_ языком, но при этом не превращается в профанацию.
Не смотри на то, что он называется искусственный интеллект, а не машинное обучение. Курс по сути про МО.
#522 #752347
>>750824
Нахуя тут твои вскукареки с умным видом?
Что-то с умным видом видом вскукарекнул, вопрошающему НИХУЯ не помог.
#523 #752351
>>751475
Просто иди нахуй.
Вместо того, чтобы прямо сказать человеку, что с его бэкграундом не получится разобраться в этой статье, кукарекает тут с умным видом.
Вот ты пишешь:

>Огого я то нашел в статье определение, а ты не смог, посмотрите все какой я молодец.



Вот нахуя ты это написал, типа чтобы все знали в мл-треде какой ты молодец? Ведь человеку ты нихуя не помог, и не пытался помочь и не способен ему помочь.
>>752455
#524 #752352
>>750809

> толерантен к богомерзкой русне


катись-ко обратно в по.
#525 #752455
>>752351
Во-первых, ты ебанутый? Он спросил, что означает звездочка в кружочке, я ответил.

Во-вторых, при чем тут бэкграунд? Когда в литературе видишь непонятный необщепринятый символ, очевидно, что нужно найти первое вхождение этого символа в текст, потому что там скорее всего написано, что этот символ означает. Это элементарный здравый смысл. Человек говорит, что не может понять "закорючки", потому что это что-то очень сложное и непостижимое, а на самом деле он тупо не владеет элементарными навыками чтения математической/технической литературы. Довольно глупо, когда читаешь статью, не читать пункт Background, если тебе не хватает бэкграунда для понимания.
#526 #755131
>>733442
Ты учил(шь)ся в ШАД? Где можно достать домашки его курсов?
Тред утонул или удален.
Это копия, сохраненная 9 июня 2016 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски