Этого треда уже нет.
Это копия, сохраненная 10 июля 2016 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
102 Кб, 620x387
Computer Science & Machine Learning #3 #752098 В конец треда | Веб
Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/

Machine Learning 101:
1. Introduction to Statistical Learning, Casella ( http://www-bcf.usc.edu/~gareth/ISL/ISLR Sixth Printing.pdf )
Читается легко, неплохая разминка перед ESL
2. Pattern Recognition and Machine Learning, Bishop.
3. Bayesian Methods for Hackers. Введение в байесовские методы, годно.
4. http://neuralnetworksanddeeplearning.com
Введение в нейронные сеточки для самых маленьких. Написано простым английским.
5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.

Machine Learning Advanced
1. Elements of Statistical Learning (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.
2. Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.
Иногда from sklearn.linear_model import LogisticRegression перестает работать и тогда нужно все переписать. Оптимизация квадратичных приближений на больших объемах данных, разреженные модели, суррогатные оптимизации - вот это все тут есть.
3. http://www.cs.nyu.edu/~mohri/mlbook/
Как ESL, только слегка по-проще. Попробуйте, может зайти.

Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.

Computer Science
1. Intoduction to Algorithms, Corman
2. The Art of Computer Programming, Knuth
3. Compilers: Principles, Techniques, and Tools. Разработчикам компиляторов и прочим авторам убийц питонов и крестов посвящается.
4. Введение в информационный поиск, Кристофер Маннинг.
Как работает поиск с теоретической точки зрения.

Programming
1. Python Unlocked. Короткая книжка без соплей. В ней описаны метаклассы, дескрипторы, системы типов, шаблоны проектирования и TDD. Всего чуть больше 100 страниц концентрированной сути.
2. Code Complete (2nd), McConnel.
Неплохая книга. Не то чтобы обдрочиться, но в голове всякие фишки по структуризации кода и его проектированию остались.

Misc
1. Telegram: @techsparks
Подкаст про всякие гик-штуки.

F.A.Q
По мотивам предыдущего треда.
Эти ваши книжки стоят овер 9000 рублей, как быть?
http://libgen.io
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Но ведь есть Machine Learning per se, чем он занимается?
Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и их возможные архитектуры, но даже они двигаются рука об руку с практикой.
Что такое TensorFlow?
TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
#3 #752130
#4 #752132
Аноны, я в прошлом треде начитался всякого с роботами.
Расскажите мне, например, как нейронная сеть научится управлять обратным маятником?
>>752300>>752305
#6 #752305
>>752132
например так
эволюция связей и весов нейросетевого графа

https://www.google.ru/search?q=neat+pole+balancing&oq=neat+pole+balancing&aqs=chrome..69i57.10776j0j1&sourceid=chrome&ie=UTF-8
#7 #753154
up
#8 #753340
Аноны, а вы можете пояснить, как генетический алгоритм будет приспосабливаться к разным показателям обратного маятника?
Он что, просто подождет, пока маятник придет в норму и обратно восстановит баланс?
>>753591
#9 #753591
>>753340
Функция приспособленности для обратного маятника принимает свой максимум при 0 угле наклона и 0 дельте угла наклона, как-то так. Остальное - рандомный поиск в пространстве состояний угла наклона и его дельты. Но вообще говоря, стабилизировать обратный маятник генетическим алгоритмом - аутизм какой-то.
74 Кб, 665x396
89 Кб, 732x479
#10 #753704
Я смотрю, половина постов ИТТ про обратный маятник. Вкину симулятор нечеткой модели для стабилизации такого маятника, вполне работоспособно под досбоксом, пикрелейтед 1. Суть метода в бвзе правил, пикрелейтед 2. Тета - угол наклона, дельта тета - скорость изменения угла, ячейки таблицы - скорость мотора. Все вместе - правила типа "если тета = ZE (зеро, ноль) и дельта тета = ZE, то скорость мотора, требующаяся для компенсации маятника = ZE".
http://ftp.funet.fi/pub/sci/neural/cns-bbs/annsim/togai.lzh
>>753820
#11 #753820
>>753704
Какой-то брутфорс, в чем нечеткость?
>>753834
#12 #753834
>>753820
А в чем брутфорс?
>>753835
#13 #753835
>>753834
Ну, обычный поиск значений и запоминание их куда-либо
#14 #754123
Смотрите, как вариант с вирт. реальностью можно сделать. Типа два человека, подключенные к сети, надевают 3D очки, потом они как бы оказываются в гипер пространстве, где взаимодействуют. Только по факту физически каждый из них взаимодействует с роботом-манекеном, которым управляет оппонент на другом конце провода.
>>754125>>754127
#15 #754125
>>754123
Сначала бы с разрешением окулус рифта разобраться.
Сначала бы нормальную анимацию в нем сделать.
Сначала бы нормальную передачу движения сделать
Сначала бы в нормальную нейронную сеть суметь хотя я не понял, зачем она тут
Короче, мы не умеем ни во что из того, что ты хочешь
>>754127>>754146
#16 #754127
>>754123
>>754125
Сначала бы в нормального робота суметь
>>754131
#17 #754131
>>754127
Ведь это пиздец непросто.
Знаешь, сколько конструкционных заморочек?
А ведь надо заморочиться так, чтобы потом не заморачиваться.
И когда делаешь что-то сам и впервые, то все по другому, тебе никто не скажет, почему у тебя тут нечеткая логика работает так, что сервопривод не доходит на 4 см, а по расчетам все вообще верно?
Или как бы сделать ей систему торможения, чтобы ее не колбасило моментом инерции?
Или как сделать нормальную амортизацию в коленных суставах и тазобедренном шарнире?
>>754137
#18 #754137
>>754131
И у меня давно не встает член на девушек, я дрочу на макак
>>754138
#19 #754138
>>754137
Что блядь?
>>754148
#20 #754146
>>754125
А зачем нейросеть? Просто датчики на скафандре и манкене сканируют и передают те же движения манекену, а через окулус и манекен поступает инфа о расстоянии до тела.
>>754151>>756518
#21 #754148
>>754138
Извини не туда написал, хотел тебе ответить что-то другое.
#22 #754151
>>754146
Какие датчики? Как настраивать их точность? Как их калибровать? Как их размещать? Как их запитывать, какая архитектура, вид платы?
>>754205>>754207
#23 #754198
Прошлый тред был плох, но тут вообще какая-то ахинея пошла.
#24 #754205
>>754151
Есть же аналоги таких роботов, действующих по движениям. Я лично для себя подумал, что можно изменять угол сгиба скелета в трехмерном пространстве (т.е. три оси координат). И на его основании моделировать положение тела. Расстояние между манекеном и скелетом человека можно измерять с помощью датчиков, ну как на тачках, который расстояние до парковки измеряют лол. А там от какой-то одной точки выстраивается аналогичная модель скелета оппонента трехмерная.
>>755072
#25 #754207
>>754151

>какая архитектура, вид платы?


Я вот не силен в роботехнике и компьютерных железках, я просто быдлокодерок, но наверняка серьезные фирмы запилят машину для такого устройства с соответсвующей платой-кодом-архитектурой. Может даже свой язык запилят под это дело.
>>755072
553 Кб, 1268x825
#26 #754535
Что-то тред правда не туда катится. Давайте-ка вскроем вот какую тему. В любых моделях, хоть нейросеточках, хоть кластерного анализа, хоть генетических алгоритмов, да хоть чего, используется довольно ограниченный набор критериев качества получаемой модели. Не сильно ошибусь, если скажу что это варианты среднеквадратичной ошибки и AIC для кластеризации еще есть понятие ошибки квантования. Но ведь еще в 70-х годах в совке были предложены целые классы подобных критериев - критерии несмещенности, баланса переменных, что интересно - комбинированные. Причем, их необходимость обосновывалась тем, что среднеквадратичная ошибка не дает большой точности, если модель делается для предсказания числовых рядов и т.п. Может быть, я чего-то не знаю и таки сейчас где-то используются более сложные критерии качества модели чем SSE?
>>754555>>754566
#27 #754555
>>754535
Для классификаторов сейчас используется почти исключительно кросс энтропия. Там через логарифмы пропускают выход.

Для НС крайне важно, чтобы функция цены имела хорошие производные. Абсолютно необходимо, чтобы цена от Х примеров была суммой цены по всем примерам, иначе и производную считать геморно, и на батчи не разложишь, т.е. это вообще ни в какие ворота. "Странные" функции, которые ты перечислил, по-моему этим свойством не обладают.

Кросс-энтропия, средние квадраты и еще несколько обладают всеми нужными свойствами. Однако см. также недавние работы по аутоэнкодерам, в частности variational autoencoder, generative adversarial networks. Там как раз борются со среднеквадратичной ошибкой, т.к. по ней выходит, что если у стола может быть она нога или четыре, то оптимально предсказывать 2.5. На эту тему много исписано, но думаю что в 70-х годах о таком еще никто и не подозревал.
#28 #754566
>>754535
Для классификаторов обычно используют F1-score.
#29 #754596
То́чечная оце́нка - говноедство
дискас
>>754667
#30 #754667
>>754596
А как надо, точе́чная о́ценка?
#31 #754706
эй машинисты, сколько за месяц бабла загребаете?
>>754732
#32 #754732
>>754706
Нам платят не за время, а за модели. 5руб. за каждый натренированный параметр.
#33 #754993
Посоны? Никто не занимался вероятностными графическими моделями? Пытаюсь найти оценку апостериорного среднего Марковской сети, но нихуя не выходит.
MCMC кормит меня хуями.
В mean field не получается ввести сопряжённые приоры.
Particle Loopy BP не сходится.
Есть ещё какие-нибудь общеизвестные варианты?
Мб, анон наставит на путь истинный?
>>755022
#35 #755072
>>754205
Это уже все известно и не работает нормально и эффективно.
>>754207

>Может


>наверняка серьезные фирмы


Ну ты сам понял
>>756518
#36 #755268

> MCMC кормит меня хуями


не может быть
>>755280
#37 #755280
>>755268
То есть?
#38 #755393
пацаны насколько силен щас ажиотаж вокруг ML?
>>755396
#39 #755396
>>755393
невероятно силен
>>755399
#40 #755399
>>755396
Ну хоть на спад идет?
>>755404
#41 #755404
>>755399
нет же, с каждым твитом от дипмайнда интерес все больше разогревается
https://www.google.com/trends/explore#q=machine learning, deep learning&date=1/2010 77m&cmpt=q&tz=Etc/GMT-2
>>755405
73 Кб, 600x600
#42 #755405
>>755404
Ну всеравно это интереснее, чем быть макакой. Да и порог входа тут выше, хотя и требуется меньше.

Мойдодыр! Принимайте пополнение!
Знаю что такое p.value, нормальное распределение, анализ выживаемости, могу в r сделать кластерный анализ, построить регрессию, немного могу knn, gbm, деревья классификации.

Где мне стелить? У окошка с авторитетами, на параше или к мужикам пока?
>>755410>>755457
#43 #755410
>>755405

> p.value


> Где мне стелить?


-> на параше
>>755481
#44 #755457
>>755405

>Где мне стелить? У окошка с авторитетами, на параше или к мужикам пока?


Есть две НС. В одной 200 слоев по 50 нейронов, а в другой 50 слоев по 200 нейронов. Какую сам будешь использовать, какую матери отдашь?
>>755482
#45 #755481
>>755410
Это ваш петух местный? Что не так p.value?
>>755614
#46 #755482
>>755457
Матери 200 слоев. Хотя хз что там в ваших нейросетях.
#47 #755614
>>755481
>>755481

> Что не так?


С частым false positive.
Почитай про критику p value. Некоторые журналы даже не принимают статьи, где они используются.
>>755615
#48 #755615
>>755614
Какие есть альтернативы?
>>755617
#49 #755616
Из твитора Салахутдинова:
http://arxiv.org/pdf/1605.07912v2.pdf
>>756205
#51 #755621
>>755617
Спасибо
#53 #756518
>>754146
>>755072
Маркерный мокап себя уже сколько времени хорошо чувствует.
#54 #756565
Как тут ваш back propagation? Если вы понимаете, о чем я.
>>756620
#55 #756620
>>756565

> back propagation


Результатов: примерно 0
Возможно вы имели в виду: expectation propagation
>>756670
#56 #756670
>>756620
я бы тебе anal prpagation устроил.
#57 #756782
Анончики, не смотрели этот курс?
https://www.youtube.com/watch?v=2pWv7GOvuf0&list=PL5X3mDkKaJrL42i_jhE4N-p6E2Ol62Ofa
Кто как изучал RL?
>>756820
1801 Кб, 1946x1258
#58 #756817
За нейросеточки поясните. В чем разница между перцептроном и ADALINE?
#59 #756818
>>756817

> The difference between Adaline and the standard (McCulloch–Pitts) perceptron is that in the learning phase the weights are adjusted according to the weighted sum of the inputs (the net). In the standard perceptron, the net is passed to the activation (transfer) function and the function's output is used for adjusting the weights.

>>756822
#60 #756820
>>756782
Курс Сильвера мне показался сложным. Рекомендую 5 и 6 недели этого:
https://courses.edx.org/courses/BerkeleyX/CS188x_1/1T2013/info для плавного въезда в RL.
>>756823
14 Кб, 259x194
#61 #756822
>>756818
Веса настраиваются по-разному штоле? Вроде и там и там обратное распространение ошибки, не?
>>756824
#62 #756823
>>756820
Ага. спасибо.
У меня в шаражке уже было два семестра с ИИ, так что какая-то минимальная база у меня есть.
#63 #756824
>>756822
ADALINE линеен. В русской литературе это называется "адаптивный линейный сумматор", емнип.
>>756828
#64 #756828
>>756824
Однослойный линеен, да. Как и перцептрон.
>>756830
#65 #756830
>>756828

> перцептрон линеен


> нелинейная активационная функция

>>756837
137 Кб, 503x409
2709 Кб, 1280x720
#66 #756837
>>756830
На >>756817 пике тоже сигмоид, а это адалайн. Как жи быть?
>>756839>>757495
#67 #756839
>>756837
У тебя на втором пике ошибка идёт до активации выхода, в перцептроне после.
>>756841>>757495
370 Кб, 772x554
#68 #756841
>>756839
На втором пике м.б. дядя намудрил. На схеме-то немного не так.
#69 #757302
>>752098 (OP)
Почему гугл еще не выдал более менее нормальный переводчик на основе deeplearning?
#70 #757304
Если я добавлю на выход(кроме 10 выходов) еще координаты цифры, ширину и длину, то сеть сможет обучиться находить цифры на картинке?
>>757551
1545 Кб, 2398x1298
#72 #757495
Я нашел еще одну, нормальную схему адалайна, предыдущий оратор >>756839 предположил, что разница в том, что у перцептрона ошибка считается после активации (н-р сигмоида), а у адалайна - до. Это не так, т.к. на схеме пикрелейтед и втором пике >>756837 ручная электромеханическая конструкция адалайна и поправка вводится вручную после срабатывания активации. Т.е. ошибка таки считается после сигмоида или что там вместо активации, как у перцептрона. Но тогда вопрос >>756817 остается в силе. Неужели правда никто не знает?
>>758015
#73 #757551
>>757304
А если еще свои мысли добавишь, она вообше думать научится.
>>757553
#74 #757553
>>757551
Вот если ты такой умный, объясни как правильно делать сегментацию.
>>757556
#75 #757556
>>757553

>как правильно делать сегментацию.


В сверточных сетях и неокогнитроне она автоматически делается. А вообще, должно быть достаточно, если на картинке кроме самой цифры ничего нет.
>>757744
#76 #757744
>>757556
Я понимаю, что можно одну картинку прогонять с разной вырезкой по координате и найти ее оптимальное начало и длину и высоту, но есть же способ сразу получить их.
>>758826>>759288
#77 #758015
>>757495
У тебя опять сигнал ошибки до активации идёт.
Ты сам гуглить то пытался, нет?
https://www.quora.com/Artificial-Neural-Networks-what-is-the-difference-between-perceptron-and-adaline-in-recognition-+-and-X-images

https://en.wikipedia.org/wiki/ADALINE
>>758360
#78 #758083
Скомпилил openblas.dll (там же создался openblas.a) под вин, там же появился, указал в настройках Theano путь к папке где эти 2 файла, вроде все подключилось. Удалил эти 2 файла, но Python почему-то не ругается на это и каким-то образом их находит. Ошибки начинаются только если я укжу другой путь к openblas где его нет.
>>760306
3 Кб, 393x605
#79 #758360
>>758015
Ну смотри, на пикрелейтед "учитель" оценивает выход адалайна после активации, после чего правит в консерватории, если выход неправильный. Правятся-то веса модели, а не сам сигмоид. По второй ссылке одни общие фразы кроме

>The only difference is that the adaline, after each iteration checks if the weight works for each of the input patterns; the perceptron just updates the weight after each new input pattern and does not go back and check.

#80 #758826
>>757744
бамп вопросу
#81 #758882
Играют в майнкрафт (почти) с помощью RL: http://arxiv.org/abs/1605.09128
https://www.youtube.com/watch?v=jQg8p-V8jF4
#82 #759288
>>757744
Ну хуй знает. Может быть вейвлеты какие-нибудь помогут, может быть главные компоненты, может быть аутоэнкодеры. Вряд ли есть способ сделать это проще чем в сверточных сетях.
#83 #760295
поссал на ригер
#84 #760306
>>758083
лучше сразу поставь убунту и не еби мозг всем.
#85 #760768
Аноны, а нейронная сеть сама может находить взаимосвязи между поступающей в нее информации?
Или например, вычислить формулу, по которой качаются качели?
>>760776>>760830
#86 #760776
>>760768
Да, может. Это называется идентификация системы. Только в нейросети результат непрозрачен, весовые коэффициенты тебе не дадут ничего. Интерпретируемый результат возможен при использовании например нечетких моделей. Вычислить формулу сложнее, но это тоже возможно. В совке еще был разработан такой метод как МГУА (метод группового учета аргументов, GMDH). Частный его случай - полиномиальная нейросеть. Подобными алгоритмами можно прямо восстанавливать формулы по входным-выходным данным системы, подробнее например http://gen.lib.rus.ec/book/index.php?md5=E73366E46C7B2375264EA47C1C09F4C5 там есть пример восстановления по данным т.н. соотношений Онзагера https://ru.wikipedia.org/wiki/Теорема_Онзагера но эти алгоритмы в своем изначальном (а не обрезанном) виде нигде не реализованы, и в массе своей существуют в виде еще совкового кода на фортране разной степени допиленности.
>>760780
#87 #760780
>>760776
Ну, вычислять формулу не надо, главное - искать взаимосвязи.
А совковский код - очень даже интересно, в этом направлении еще никто не работал, если не ошибаюсь?
Может себе дипломник взять по этой теме?
>>760783
#88 #760783
>>760780

>главное - искать взаимосвязи.


Тогда идентификация систем. Аппроксимация функций зависимости выходов от входов. Тема известная и широкая. Основная проблема - интерпретируемость полученной модели, но тут тоже есть свои подходы. А эти совеццкие алгоритмы вещь вообще малоизвестная, сейчас смотрю даже сайт http://gmdh.net/ где весь код был выложен, помер.
>>760801
#89 #760792
Хотя вот есть довольно новая кнжка http://gen.lib.rus.ec/book/index.php?md5=2D438F11AAB79ACDE5A004F211EC93DF
Лол, поехавший >>760789 в треде, я спокоен.
#90 #760801
>>760783
Хм, очень даже интересно.
А если у меня задача не в классификации, а в том, чтобы идентифицируемую систему, нейронная сеть составила сама.
>>760806
#91 #760806
>>760801

>чтобы идентифицируемую систему, нейронная сеть составила сама.


Это как? Система - это некий реальный объект или их совокупность. Качеля та же. Есть некие действия (входы), на которые система отвечает (выходы). Допустим, нам не известны принципы ответа системы на внешние воздействия. Но есть возможность измерить как воздействия так и ответ системы. Вот по этим данным можно построить модель системы, что и составляет идентификацию.
>>760808
#92 #760808
>>760806
Можно накапливать информацию от объекта и искать взаимосвязи.
>>760810
#93 #760810
>>760808
Я об этом и говорю. Любая такая взаимосвязь есть функция зависимости выходов от входов. Задача в том чтобы такие функции выявить. Это и есть идентификация системы. Которая решается с помощью универсальных аппроксиматоров функций.
>>760812
#94 #760812
>>760810

>функция зависимости


Ты рили немного поехавший, лел.

>Задача в том, чтобы такие функции выявить.


Ну это понятно, но как такое реализовать? Может использовать несколько нейросетей? Или есть архитектура сети, умеющая в такое?

Ведь нужно искать не только взаимосвязь между данными, но и исключения.
>>760819>>761176
#95 #760819
>>760812
Вообще, можно представить все в виде области значений из точек.
Такое в Картах Кохонена вроде реализовано, но они старые.
>>761176
#96 #760830
>>760768
Ох, а правда.
Как научить нейронную сеть считать упреждение?
Как научить ее предсказывать точно колебания маятника?
И платина:
Может ли нейронная сеть научить шагоход ходить?

И чтобы сеть не имела изначально никакой информации, а сама все узнала, подбирая методы.
#97 #760879
Жил-был царь,
у царя был двор,
на дворе был кол,
на колу мочало;
не сказать ли с начала?
#98 #760967
Аноны, а для сравнения и классификации у нейросети обязательно должни быть математические операторы, вроде <>=/*+-
Есть ли сети, которые могут сравнивать и классифицировать информацию только потому, что в процессе обучения без учителя получают награждение, например?
>>760974
#99 #760969
>>760830
Ты про нечёткие модели забыл.
#100 #760974
>>760967
О, догадался.
Надо научить сеть математике самостоятельно.
>>760979
#101 #760975
>>760830
а ты можешь держать равновесие двух длинных палок одновременно ?
а нейронка может (ну как минимум с помощью td\Q обучения)

В меня сейчас будут кидаться немытыми хуями перельмана, но предлагаю порассуждать о нейронках с точки зрения психологии.

И вопрос господам когнитивистам, зачем нам внимание ?
Для перераспределия вычислительных ресурсов ?
>>760977
#102 #760977
>>760975

>а ты можешь держать равновесие двух длинных палок одновременно ?


Могу, я же тоже нейронка, лел.

>В меня сейчас будут кидаться немытыми хуями перельмана, но предлагаю порассуждать о нейронках с точки зрения психологии.


Чистый вычислительный механизм.
Порассуждай еще о синусе с точки зрения психологии, одно и тоже.
#103 #760979
>>760974
Кстати, а это уже интересно.
29 Кб, 256x256
#104 #760985
Давайте придумывать какие нибудь механизмы по аналогии word2vec, doc2vec, like2vec , illustration2vec
https://github.com/MaxwellRebo/awesome-2vec

Для неофитов поясняю, мы берём некое пространство, и редуцируем его в пространство меньшей размерности с помощью автоэнекодера прости господи.

В результате получаем семантически сжатое пространство, вектора которого отражают вектора из пространства большей размерности. При том нам становятся доступны такие ништяки как интерполяция, векторные операции и сравнение векторов.
>>760987>>760996
#105 #760987
>>760985
anime2vec
>>760989
#107 #760996
>>760985
прикольно было бы попробовать редуцировать на другие типы конструкций: алгебры, кольца и т.д.
>>760997>>761002
#108 #760997
>>760996
А с функциями есть что-нибудь такое?
#109 #761002
>>760996
я не эксперт в этих ваших кольцах и гомологиях, но что может быть проще и понятнее обычного вектора ?
У нас есть вектор в n-мерном пространстве. Близкие вектора похожи. Над векторами можно проводить разные операции которые будут интуитивно понятно.
Что предлагает ваш аппарат ?
>>761007
#110 #761007
>>761002
в векторном пространстве слишком много операций задано. Например, как интерпретировать скалярное произведение двух векторов? Сложение интерпретируется как аналогия. Имхо нужна по настоящему только одна операция, которая должна быть некомутативна (композиция слов) + одна комутативная (аналогия). Идеально для этого подходят кольца:

A ring is a set R equipped with binary operations[1] + and · satisfying the following three sets of axioms, called the ring axioms[2][3][4]

1. R is an abelian group under addition, meaning that

(a + b) + c = a + (b + c) for all a, b, c in R (+ is associative).
a + b = b + a for all a, b in R (+ is commutative).
There is an element 0 in R such that a + 0 = a for all a in R (0 is the additive identity).
For each a in R there exists −a in R such that a + (−a) = 0 (−a is the additive inverse of a).
2. R is a monoid under multiplication, meaning that:

(a ⋅ b) ⋅ c = a ⋅ (b ⋅ c) for all a, b, c in R (⋅ is associative).
There is an element 1 in R such that a ⋅ 1 = a and 1 ⋅ a = a for all a in R (1 is the multiplicative identity).[5]
3. Multiplication is distributive with respect to addition:

a ⋅ (b + c) = (a ⋅ b) + (a ⋅ c) for all a, b, c in R (left distributivity).
(b + c) ⋅ a = (b ⋅ a) + (c ⋅ a) for all a, b, c in R (right distributivity).
#111 #761010
>>761007
точнее варианты колец с измененными пунктами 2 и 3.
32 Кб, 638x479
#112 #761021
>>761007
как интерпретировать скалярное произведение двух векторов?
Для начала разберёмся с углом между векторами.
Вот у нас есть пространство характеризующее пиструн, пусть это будет длина и ширина. Для каждого пиструна в мире можно задать длину и ширину.
Допустим мы хотим узнать, на сколько похожи два пиструна.
Соотвественно мы можем воспользоваться манхэттенским расстоянием, евклидовым и другими параметрами расстояния минковского.
Померяли расстояние, получилось 15. И что из этого следует ? это много или мало ?

Заменим меру на угол, таким образом получим меру схожести. Если угол 90, то у нас есть два пиструна, один абсолютно толстый, но нисколько не длинный, а другой на оборот. Если угол 0, то мы сможем получить один пиструн умножив характеристики другого на одно число.

В случае множеств я думаю надо смотреть на расстояния Джаккарда.
#113 #761134
Аноны, а как можно научить нейронную сеть классифицировать информацию?
Например, есть рекуррентная сеть.
Я хочу ее обучать математике, но, как мне дать ей понять, что цифры - это цифры? И что они выражают?
Вместо тупого матана
>>761144>>761176
#114 #761144
>>761134
больной ублюдок, чем тебя обычный калькулятор не устраивает ?
У людей за математикой стоят некие идеи, а математика это просто язык описания этих идей.
Делать математические операции можно и с яблоками не зная вообще ничего о математике.

Если рассматривать математику как часть логики (мы же можем перевести всю математику в бинарное исчисление) то про обычный XOR на ИНС я говорить не буду, скажу что уже есть калькуляторы на нейронках и с недавних пор машины тьюринга.
http://arxiv.org/abs/1511.06279
108 Кб, 604x604
#115 #761176
>>760812
>>760818

>но как такое реализовать? Может использовать несколько нейросетей? Или есть архитектура сети, умеющая в такое?


>Эта задача НЕ РЕШАЕТСЯ с помощью универсальных аппроксиматоров.


Пиздец, я реально не могу уже с вами. Сколько раз за последние года 3 я упоминал теорему Коско об универсальных нечетких аппроксиматорах - http://sipi.usc.edu/~kosko/FuzzyUniversalApprox.pdf - Аллаху одному ведомо. Вот даже целая книга на эту тему http://gen.lib.rus.ec/book/index.php?md5=BC1EC0F44F2E619AB46D6FD0B7088514 глава 2 особенно, И что? Ответ один - врети, поехавший, и т.д.
>>760819

>в Картах Кохонена вроде реализовано, но они старые.


А, ну ясно. Раз до 2015 года создано, значит старье. А много ли ты слышал о двунаправленных картах Кохонена с супервайзед обучением? https://cran.r-project.org/web/packages/kohonen/index.html Да, карты Кохонена могут в такую задачу, особенно XYF, Supersom и BDK.
>>760830
Идентификация систем же. Маятник или что там у тебя, представляется в виде матрицы Ганкеля и подкладывается нейросети или чему угодно и все, профит. Гугли NARX/NARMAX если интересно подробнее.
>>761134
Входы - любое выражение, выходы - правильные ответы.
#116 #761195
Все-таки фрилансером, несмотря на мизерные копйки, хамское отношение заков и биржи, я ощущаю, что исполняю какую-то интеллектуальную работу, где нужно зарабатывать именно извилиной и элементарной грамотностью. Пусть даже у меня будет выходить всего косарь в месяц, а остальное время я буду прогать for free. Не могу представить, как можно работать каким-то официантом или подаваном-продаваном, пусть даже там ты общаешься с людьми, но ты ведь вообще ничего не создаешь, не выполняешь никакой полезной функции, не ощущаешь себя уникальным. Тобой просто забивают дыру в велфере, ну родился человек, нихуя не умеет, мозг ему дан просто, чтобы ложку мимо рта не пронести и не промахнуться, подтирая жопу. Не давать же им с голода дохнуть, вот тебе паек рядом с продажами, сиди и пинай хуи либо страдай ненужной хренью. Вот так вот они все думают, когда очередной васян с улицы просится в теплое местечко посидеть за зарплату. Вот так все это быдло и вьет себе кормушки возле продажных мест, где проходят денежные потоки, ничего по сути не делая, совершенно лишние люди, изображающие деятельность ради деятельности. Вся суть эпохи постмодернизма. Или вот взять каких-нибудь тупорылых зажиточных бизнесменов и нефтянников, многие ни писать, ни читать, ничего не умеют, а им и не нужно, им хватает того, что они чем-то денежным владеют, а за них все сделают задроты, которые всю жизнь жопу рвут и что-то изучают, чтобы попасть на это копеечное место, еще и конкурируют за него во всю. Вот мы тут думаем, напрягаемся, чтобы что-то написать или напрогать, используем мозг на полную катушку, а какой-нибудь васян или машка-продавщица сидят, принимают деньги и записывают в книжку товар по 8 часов в сутки, не напрягая ни одной извилины, и получают гораздо больше нас. Тупые ненужные люди получают больше умных, тех, кто зарабатывает мозгом и кому унизительно работать, как баба маша - затычкой в системе. Короче, всех их заменят скоро роботы и справедливость восторжествует. Вот к чему я, сори за простыню.
>>761201>>762230
107 Кб, 666x800
#117 #761199

>хотел сделать прорыв в науке и изобрести ИИ


>открыл pdf про backpropagation


>не понимаешь линейной алгебры, формул и высшего матана


ладно, пойду дальше круды шлепать.
>>761233
#118 #761200
>>761007

>по настоящему


русский выучи, скалярный вектор блять.
#119 #761201
>>761195

>работать, как баба маша - затычкой в системе. Короче, всех их заменят скоро роботы и справедливость восторжествует. Вот к чему я,


Считаешь программизм дохуя интеллектуальной работой? Тогда у меня для тебя плохие новости, от бабы маши ты ничем не отличаешься. Ты про конструктивную теорию типов Мартин-Лёфа слышал? Читни http://maxim.livejournal.com/479716.html вот. В крации - любая возможная программа на любом языке программирования есть подмножество инфинити топоса, причем поддается экстракции оттуда.
#120 #761233
>>761199
Вот. Проще уже вряд ли можно найти
http://www.aiportal.ru/articles/neural-networks/back-propagation.html
#121 #761264
>>761201
Интелелктуальный - это вообще избитый термин. Я бы сказал оптимальный, прогрессивный, современный. Один кодер накодит прогу для миллиона роботов, выполняющих функции продаванов. Смотри, какая КПД у кодера и какая у продаванов. У них ведь алгоритм: принять деньги, доставить товар покупателю. Тут даже нейросеть не нужна, этот простой алгоритм уже реализован в автоматах с кофе. Знаешь, мне вот кажется, что это натуральный заговор. да они уже бы смогли поставить везде такие автоматы с роботами (только больших размеров) в каждый магазин, в каждую аптеку, в каждую кафешку и забегаловку. Но нет, они хотят сохранить места для тупого и бесполезного быдла, не могущего в создание чего-то.
>>762953
#122 #761267
>>761201
а любой натюрморт - это просто набор трехмерных объектов, а теперь попробуй выстроить из рандомных объектов натюрморт, все дело в креативности и организации, которых нет у бидла.
>>761274
#123 #761274
>>761267
Сразу видно, что по ссылке ты не читал, либо не понял.
#124 #761354
>>752098 (OP)
Аноны, а почему все только на компьютерах?
Ведь нейронная сеть - это математическая модель.

Но почему она реализовывается только в виде кода? Ведь вычислять и сохранять в памяти умеют и шестереночные механизмы.
Можно ли воссоздать нейронную сеть в виде шестереночного механизма?
#125 #761358
>>761354
А так, как подобные механизмы теперь могут быть ОЧЕНЬ маленькими, то проблем с размерами теперь не будет.
Но в чем будут проблемы? В скорости?

Интересно будет собрать нейронную сеть в аналоговом виде
#126 #761363
>>761354
Да можно вообще делать вычисления с помощью узелков на веревке.....

%%съеби нахуй из раздела??
>>761366
#127 #761365
>>761354
Можешь почитать про голографические нейросети. Эти поехавшие спят и видят, как они создают AGI на базе голографии. Но на практике там дикий обосрамс.
>>761370
#128 #761366
>>761363
С чего такая агрессия?
Этого еще никто и никогда не делал же, а у меня внезапно возникла такая мысль.
#129 #761370
>>761365
Не, в голографию не хочу.
А вот сделать что-нибудь забавное на базе шестеренок, игрушку, которая сама сможет чему-нибудь научиться - это забавно.
>>761371>>761377
#130 #761371
>>761370
99% людей даже неправильно понимают это слово.
>>761373
#131 #761372
>>761354

>Можно ли воссоздать нейронную сеть в виде шестереночного механизма?


Можно. Можно в виде химической реакции, оптических элементов, в виде чего угодно можно.
>>761374
#132 #761373
>>761371
Обычно все понимают объемные изображения.
#133 #761374
>>761372

>Можно в виде химической реакции


То-есть, теоретически, можно заставить воду в туалете разговаривать с людьми?
>>761376
#134 #761376
>>761374
Человеческий мозг более чем на 80% та же вода из унитаза. И никаких специальных алгоритмов в мозгу не реализовано, все работает только на свойствах среды. Никого не удивляет при этом, что человека можно научить разговаривать с другими людьми.
#135 #761377
>>761370
Розен, даже не думай.
86 Кб, 537x447
#136 #761403
Не понимаю. Зачем скрытые нейроны?
>>761412>>761499
429 Кб, Webm
#137 #761412
>>761403
Представление функции многих аргументов через суперпозиции функций одного аргумента. Колмогоров, Арнольд, Горбань. http://icm.krasn.ru/ftp/articles/1998/2096gorban_SibZhVM98.pdf Это классика, блядь, это знать нада!
#138 #761418
>>761412
Что? А попроще. На примере распознание рукописных цифр. Что эти 15 нейронов делают и почему их количество можно менять? 2 часа назад учить начал
>>761437>>761438
#139 #761437
>>761418
Это самое простое объяснение происходящему, можешь поверить.
#140 #761438
>>761418
На хуй иди. Тебе литературу дали, учи, блять!
Нет, не хочу, говно жрать хочу.
Чтобы получить более высокоуровневое представление
>>761441
#141 #761441
>>761438
Я половины слов не понимаю. Давай литературу для новичка.
>>761451
#142 #761451
>>761441
По нейросетям штоле? Вот это можно навернуть, там с примерами http://gen.lib.rus.ec/book/index.php?md5=9EC6CA538388D16910331E309741732E Если сам будешь искать - Хайкина читать не вздумай, вынос мозга гарантирован.
>>761464>>761470
#143 #761458
такое ощущение, что вы обчитались умных книг и теперь повторяете про свои вектора и бэкпропагешены без понимания сути произносимых слов и реализации на практике, как попугаи.
>>761464>>761478
#144 #761464
>>761458
Тебе ж посоветовали >>761451 интересную книжку, там каждый алгоритм на пальцах расписан, кто угодно поймет. Если интересуешься реализацией на практике, вот тебе еще книжка http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6
>>761476
#145 #761470
>>761451
Спасибо. Ахуеть 500 страниц введения в нейросети. Я на 100 рассчитывал.
#146 #761476
>>761464
а как ее открыть?
>>761487
#147 #761478
>>761458

>без понимания сути


Про суть опять же, >>761412 статья. По ссылкам почитай соотв. теоремы Колмогорова и Арнольда. Это именно вся суть происходящего. Вот еще видео есть https://www.youtube.com/watch?v=hc2Zj55j1zU https://www.youtube.com/watch?v=skfNlwEbqck как раз очень годно рассказано и показано распознавание символов.
>>761489
#148 #761487
>>761491
#149 #761489
>>761478
Какой-то разваливающийся дед с двумя блоками 60 года выпуска. Поновее ниче нет?
>>761495>>761497
#150 #761491
>>761487
нет там пдф.
#151 #761495
>>761489
Это основы, сначала пойми их, потом гугли поновее.
#152 #761497
>>761489
Поновее в оп-посте ссылка. А этот дед, это не просто дед.
#153 #761499
>>761403
Ебать, зачем столько нейронов? Какое назначение у этой функции вообще?
>>761506
#154 #761506
>>761499
*у этой функции
У этой сети, шрифты распознает?
>>761509>>761513
#155 #761509
>>761506
На входе 784 на выходе 10. Да.
#156 #761513
>>761506
Цифры от 0 до 9 же, смотри выход.
#157 #761596
Аноны, а нейронная сеть всегда имеет жесткое количество нейронов?
>>761613
#158 #761613
>>761596
да
нервные клетки не восстанавливаются/растут
#159 #761615
>>761613
Но как тогда человек живет? У него просто очень дофига нейронов или что?
>>761625
#160 #761617
>>761613
расскажи это своему гиппокампу
#161 #761625
>>761615
И вообще, может ли нейронная сеть включать дополнительные слои нейронов?
Может ли ей не хватать нейронов?
#162 #761671
>>761412
Прочитал. Ещё и в гугле определения незнакомым словам искал. А как эти функции, теоремы, радикалы, суперпозиции и прочая хуйня связана с скрытым слоем в той нейросети?
#163 #761683
>>761613
Нейрогенез же.
58 Кб, 1198x221
#165 #762150
Решаю яндекс курсы и надо узнать какую долю составили пассажиры первого класса. Где здесь написано какой у них класс?
Аноним #166 #762157
>>762150

> Pclass

>>762174
#167 #762168
>>762150
pclass, даун.
>>762174
#168 #762173
Я в теме не очень шарю, но в этом треде обсужаются нейронные сети, bigdata, ML и еще какая-то еботень? А разве это не сильно разные вещи?
>>762217
#169 #762174
>>762157
>>762168
Ясно. Спасибо. А first name? Там же у них по 2 слова после Mr и Mrs у некоторых.
>>762199>>762219
#170 #762199
>>762174
>>762150
Бамп вопросу. Подчеркните там имя .Последнее задание осталось.
#171 #762210
>>762206
И то что в скобках тоже не подходит?
#172 #762217
>>762173
Разные, но связанные.
#173 #762219
>>762174
тебе 12? первое имя до запятой идет.
#174 #762220
т.е. наоборот после запятой.
#175 #762227
>>762215
А нужно найти самое популярно женское first name. Пробую так s[s.index('. ')+2:s.index(' ',s.index('. ')+2)]
, но вдруг скобки имеют значение?
#176 #762229
>>762150
кр4 весь плебс подох
а богатые суки все выжили
такие дела
>>762241
624 Кб, 2025x2052
#177 #762230
>>761195
Молодец, теперь ты можешь в капитализм.
#178 #762232
>>761354
Можешь в майнкрафте потренироваться.
https://www.youtube.com/watch?v=zi6gdjLLSPE
>>762264
51 Кб, 362x395
#179 #762241
>>762229
но но
>>762252>>762551
#180 #762252
>>762241
в третьем классе же одни работяги ехали.
#181 #762264
>>762232
Проиграл с опущенца в видео
#182 #762348
>>762150
Здесь кто-то ещё решал эти задачки? Знает кто ответы и решения на задачи с средним арифметическим возрастов и самым популярным женским именем?
#184 #762487
допустим у меня есть матрица чисел.
можно ли использовать нейросеть для поиска минимума и максимума?
теоретически скорость работы должна замедлится?
>>762493
#185 #762493
>>762487
Допустим мне нужно решить FizzBuzz.
Можно ли использовать нейросеть для решения?
Теоретически скорость работы должна замедлиться?

Что ты делаешь то?
#186 #762515
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
>>762521
#187 #762521
>>762515
Быдлецо набигает. Это тленчик.
#188 #762526
Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/

НЕЙРОНОЧКИ 101:
1. Introduction to НЕЙРОНОЧКИ, Casella ( http://www-bcf.usc.edu/~gareth/ISL/ISLR Sixth Printing.pdf )
Читается легко, неплохая разминка перед ESL
2. НЕЙРОНОЧКИ and НЕЙРОНОЧКИ, Bishop.
3. НЕЙРОНОЧКИ for Hackers. Введение в НЕЙРОНОЧКИ, годно.
4. http://neuralnetworksanddeeplearning.com
Введение в НЕЙРОНОЧКИ для самых маленьких. Написано простым английским.
5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.

НЕЙРОНОЧКИ Advanced
1. Elements of НЕЙРОНОЧКИ (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.
2. Optimization for НЕЙРОНОЧКИ. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.
Иногда from НЕЙРОНОЧКИ.НЕЙРОНОЧКИ import НЕЙРОНОЧКA перестает работать и тогда нужно все переписать. Оптимизация НЕЙРОНОЧКИ на больших объемах данных, НЕЙРОНОЧКИ, НЕЙРОНОЧКИ - вот это все тут есть.
3. http://www.cs.nyu.edu/~mohri/mlbook/
Как ESL, только слегка по-проще. Попробуйте, может зайти.

Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.

F.A.Q
По мотивам предыдущего треда.
Эти ваши книжки стоят овер 9000 рублей, как быть?
http://libgen.io
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и НЕЙРОНОЧКEK, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут НЕЙРОНОЧКАМИ и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг НЕЙРОНОЧКИ, далеко не во всех IT компания есть необходимость в НЕЙРОНОЧКИ и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
НЕЙРОНОЧКИ-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Но ведь есть НЕЙРОНОЧКИ per se, чем он занимается?
Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и НЕЙРОНОЧКИ, но даже они двигаются рука об руку с практикой.
Что такое TensorFlow?
TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и НЕЙРОНОЧКA для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
#188 #762526
Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/

НЕЙРОНОЧКИ 101:
1. Introduction to НЕЙРОНОЧКИ, Casella ( http://www-bcf.usc.edu/~gareth/ISL/ISLR Sixth Printing.pdf )
Читается легко, неплохая разминка перед ESL
2. НЕЙРОНОЧКИ and НЕЙРОНОЧКИ, Bishop.
3. НЕЙРОНОЧКИ for Hackers. Введение в НЕЙРОНОЧКИ, годно.
4. http://neuralnetworksanddeeplearning.com
Введение в НЕЙРОНОЧКИ для самых маленьких. Написано простым английским.
5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.

НЕЙРОНОЧКИ Advanced
1. Elements of НЕЙРОНОЧКИ (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.
2. Optimization for НЕЙРОНОЧКИ. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.
Иногда from НЕЙРОНОЧКИ.НЕЙРОНОЧКИ import НЕЙРОНОЧКA перестает работать и тогда нужно все переписать. Оптимизация НЕЙРОНОЧКИ на больших объемах данных, НЕЙРОНОЧКИ, НЕЙРОНОЧКИ - вот это все тут есть.
3. http://www.cs.nyu.edu/~mohri/mlbook/
Как ESL, только слегка по-проще. Попробуйте, может зайти.

Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.

F.A.Q
По мотивам предыдущего треда.
Эти ваши книжки стоят овер 9000 рублей, как быть?
http://libgen.io
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и НЕЙРОНОЧКEK, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут НЕЙРОНОЧКАМИ и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг НЕЙРОНОЧКИ, далеко не во всех IT компания есть необходимость в НЕЙРОНОЧКИ и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
НЕЙРОНОЧКИ-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Но ведь есть НЕЙРОНОЧКИ per se, чем он занимается?
Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и НЕЙРОНОЧКИ, но даже они двигаются рука об руку с практикой.
Что такое TensorFlow?
TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и НЕЙРОНОЧКA для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
>>762538
#189 #762538
>>762526
Э, слы, пацан, у тебя в нейроночке LSTM юниты есть? А если найду?
#190 #762551
>>762241

> Алёна думает что во всех классах женщины&дети / мужчины = 50 / 50

30 Кб, 209x512
#191 #762646
>>761201
Объясните, пожалуйста, зелёному студенту, почему из этого:

>>любая возможная программа на любом языке программирования есть подмножество инфинити топоса, причем поддается экстракции оттуда.


следует, что

>>программизм не является дохуя интеллектуальной работой


?

Топос — тип категорий в теории категорий, по своим свойствам напоминающих и обобщающих категорию множеств. То есть выше утверждается,что любую программу можно формализовать, упростить и как следствие, автоматизировать?
#192 #762655
>>762646
Это маняфантазии технофашистов. Любой текст на естественном языке тоже внезапно объект Set, и эти кукареки ничем не лучше утверждения о том, что Шекспир это обезьяна, которой дали перо и чернила.
>>762718>>762842
#193 #762658
>>762646
Тогда и механизм работы человека тривиальная программа.

Меня эти топосы уже просто доебали, не могу их слушать, одно кольцо охуительней другого.
>>762718
#194 #762718
>>762655
>>762658
Спасибо.
А то я за это время подумал и уже было пришёл к согласию с тем, что, по аналогии с текстом произведений Шекспира, который

>>на естественном языке тоже внезапно объект Set ,


текст программы, безусловно является тривиальным, но зато процесс поиска идеи и разработки в обоих примерах считается выдающимся, потому что пока что недостаточно изучен. В общем, загнался.
#195 #762842
>>762646
Ты текст по ссылке почитай, а не местных клованов типа >>762655
>>762953
#196 #762953
>>762842
Прочитал, но не нашёл ни слова про интеллект. Причина того, что, по мнению >>761201 , программистов рано или поздно заменят роботами, понятна без ссылки. Не понятно высказывание про интеллект. По-моему, дело в том, что слово выбрано неверно, как выше уже писалось. Только сейчас до этого >>761264 дошёл.
>>762997
#197 #762990
Что думаете про эту интеллектуальную систему полного разума с интуицией (Колешко, Воробей): http://intsysjournal.org/articles/is04/04_koleshko.pdf ?
Вот обновлённая статья с подробностями и красивыми графиками: http://j-asymmetry.com/Koleshko_3_2015.pdf.

Цитаты:

>>"Полный разум — это гипер-метаэвристическая многокомпонентная гиперсферная интеллектуальная нейронная сеть (МГИНС) с логическим и интуитивным ускоренным распознаванием сенсорных информационных образов, беспроводных сенсорных систем и сетей при классической метрологии.


>><...> Ряд электронных блоков выполняют функции левого полушария, то есть самоорганизующегося гиперметаэвристического распознавания информационных образов, и правого полушария, то есть интуитивного прогнозирования на основе ранее полученных знаний. Чтобы придать сенсорам разум, на основе самоорганизующейся МГИНС проводится обучение на количественных данных информационных сенсорных образов."



Меня напрягает указание "Европейского свободного смарт университета удаленного доступа", информации о котором нет в интернете.
56 Кб, 560x604
#198 #762993
Как вытащить из LogisticRegression() имя алгоритма?
Пробую model.__class__, выдает
<class 'sklearn.linear_model.logistic.LogisticRegression'>
а мне нужно только 'LogisticRegression'
#199 #762996
>>762990

>>>"Полный разум — это гипер-метаэвристическая многокомпонентная гиперсферная интеллектуальная нейронная сеть (МГИНС) с логическим и интуитивным ускоренным распознаванием сенсорных информационных образов, беспроводных сенсорных систем и сетей при классической метрологии.


Хуета и вода, итак понятная каждому дауну.

>Ряд электронных блоков выполняют функции левого полушария, то есть самоорганизующегося гиперметаэвристического распознавания информационных образов, и правого полушария, то есть интуитивного прогнозирования на основе ранее полученных знаний. Чтобы придать сенсорам разум, на основе самоорганизующейся МГИНС проводится обучение на количественных данных информационных сенсорных образов."


Ну, вопросы на счет самоорганизующегося
Интуитивного прогнозирования - обычное прогнозирование, никакой интуиции в этом нету.
Придать сенсорам разум, лел
Ога, сначала учим, потом она распознает, ничего в точности не указано, вода.

Итого: статья дерьмо.
>>763055
#200 #762997
>>762953
Верстальщиков уже можно заменять и без всяких нейронных сетей.
>>763059
#201 #762999
>>762990

>Полный разум — это гипер-метаэвристическая многокомпонентная гиперсферная интеллектуальная нейронная сеть (МГИНС)


Уже на этом этапе фрикометр зашкалило.
>>763055
#203 #763003
Аноны, а на русском языке где-нибудь есть грамотная статья про работу мозга?
Вот на хабре было пиздато написано про ассоциативную работу нейронов.
А про все остальное? Логические решения, например, удаление информации и прочее?
>>763005
#204 #763005
>>763003
Авторитет информации и то, как человек создает контекст - тоже очень интересно.
1644 Кб, Webm
#205 #763012
>>762990
Самый прикол, что в статье описан обычный перцептрончик, к которому добавлены какие-то эвристики. Ну и всю терминологию переписали на какую-то шизу типа мегагитлерметаэвристический технослой технодендрит и т.п. Наркоманы какие-то.
>>763016>>763055
#206 #763016
>>763012
Обычный перцептрончик
А будущее то, будущее то, за рекуррентными нейронными сетями.
Но это когда они научатся анализировать всю прошлую информацию, а не просто учитывать ее подольше перцптрончика.
#207 #763024
>>763018
Вот ты неправ. Это как раз путь в никуда, уже сейчас все эти глубокие сеточки сходятся неделями на GPU-кластерах, все закончится на том, что дойдут до сеточек, которые даже на Аллахе не сойдутся за приемлемое время.
#208 #763025
>>763018
Это да, недавно на тире тестировалась модель рекурретной сети.
У нас была информация о массе заряда, его скорости и положению ружья Оно стояла на одном расстоянии от мишени
Ее фича в том, что всю информацию, которая она запоминает влетает в банку памяти и оттуда в БД.
Информация бралась из БД и отдельно обсчитывалась сетью, которая была обучена математическим операторам и понятию ряда, пропорции.
На удивление, она быстро научилась считать то, куда попадет.
Но вот ресурсов поела сильно.
>>763033
#209 #763033
>>763025
Ну, на самом деле не так уж много она и пожрала, просто провела овердохуя вычислений, считайте, что обсчитала вообще всю информацию.
На 1 выстрел она перемножила, переделила, вычитала и складывала все, определила то, что там больше и меньше чего.
На 2 выстрел она уже проводила математические действия с 2-мя таблицами.
На 3 выстрел она уже нашла закономерность и 4 выстрел смогла предсказать.

Теперь интересно бы было, если она научилась бы находить закономерности между 2-мя действиями, если, например, изменить ружье, а потом, снова его взять, или что будет, если в действие вступит аэродинамика на дальних расстояниях, как она будет формировать исключения.

Эх, а потом на шагоход.
#210 #763037
>>763033
Зачем для этого рекуррентная нейросеть, поясни. Типичная задача векторного квантования, т.к.:

>информация о массе заряда, его скорости и положению ружья


-это вещественнозначный вектор.
>>763040>>763043
#211 #763040
>>763037
И да, вычислений для этого надо чуть менее чем нихуя.
>>763044
#212 #763043
>>763037
Потому что надо, чтобы сеть из знаний о своем нихуя взяла и сформировала методы по быстрому.
>>763045
#213 #763044
>>763040
Да я мог и сразу формулу наебашить, смысл не в решении задачи.
>>763046
#214 #763045
Да даже не векторное квантование, а тупо проекцией Сэммона можно было ебнуть.
>>763043
Ну так я об этом. обучение без учителя.
#215 #763046
>>763044
Вы там походу знатно гвозди микроскопом забиваете, господа.
>>763058
#216 #763055
>>762996 >>762999 >>763012
То есть эта схема уже устарела или она изначально была бредовой?
>>763033
Ого. Где это тестировалось?
>>763058
#217 #763058
>>763046
Это да, но все на будущие задачи с шагоходом рассчитывается, чтобы, он умел разбираться с разными ситуациями, так сказать.
Так он и на льду сможет научиться ходить, а нечеткая логика здесь уже не справится, да и формула для такого неизвестна.
>>763055
На кафедре Информационных технологий.
>>763066>>763089
#218 #763059
>>762997
Тогда почему же не заменяют? Инб4 люди не готовы
>>763064
#219 #763064
>>763059
Никто еще не сделал такую программу %%хотя заготовки уже есть и многие сайты можно
А в связи с развитием технологий многие фреймворки и прочая лабуда устаревает.
#220 #763066
>>763058

>нечеткая логика здесь уже не справится


Это еще почему? С шагоходом вполне возможно построить полную базу правил, которая будет охватывать все возможные положения ног и нарушения равновесия для их компенсации. Априорные формулы для этого не нужны.
>>763068
#221 #763068
>>763066
Заебешься все это строить, очень заебешься.
Да даже тогда он будет ходить как парализованный инвалид.
Мы проверяли, поверь.

А нейронная сеть в этом плане выгоднее ген. алгоритма, так как научиться ходить может всего за 10 шагов от учителя.
Но для этого ее надо немного допилить.
>>763083
#222 #763083
>>763068
Но есть страх в том, что робот сможет ошибиться и не поймет, в чем именно.
Прямо как человек, лал.
Аноним #223 #763089
>>763058

>На кафедре Информационных технологий.


Пожалуйста, напиши название института. Иду в магистратуру по этому направлению, очень бы пригодилось.
>>763097
#224 #763097
>>763089
Наш закрывают, после того, как МГИМО перекупило.
>>763098
#225 #763098
>>763097
А вообще совместно работаем с ИТМО, так что туда и поступай.
>>763104>>763291
#226 #763104
>>763098
Спасибо.
>>763291
#227 #763291
>>763098
>>763104
Бля, только на КТ или, в другие места даже не суйся. Разрекламированная шарага.
#228 #763418
>>763033
Тир говоришь? А сколько у вас всего параметров то было? Скорость, масса, положение и цель?
Да там же не так уж и много вариантов перебора?
>>763424
#229 #763424
>>763418
Да, а кроме этого еще и наклон оружия, изначально оно стояла под 90 градусов.
У всех тех переменных по 20 значений.
#230 #764085
Аноны, я вот почитал про работу мозга достаточно дохуя.
И меня возмутило то, что нейронные сети вообще сравнивают с человеческим мозгом.
Они, пусть и симулируют часть его работы, но уже давно ушли от той математической модели, что есть в голове у животных и людей.

То, чем руководствуются живые существа - это больше нечеткая логика и работала сигналов-транспортных путей, чем нейронные сети.
#231 #764087
Ребят, задался вопросом попытаться распознать капчу абу. Возможно ли это, если я нуб? Юзать хочу си шарп
>>764090
#232 #764090
>>764087
конечно, opencv в помощь.
>>764704
#233 #764108
>>764085
Что почитать о работе мозга порекомендуешь? Не столько для проф пользования, я даже не совался еще в мл и все такое, сколько для общего образования
>>764110
#234 #764110
>>764108
Зачем оно тебе нужно?
В работе мозга и нейронных сетях ничего общего почти нету
>>764111
#235 #764111
>>764110
Для общего образования. Знать как работает твоя память мне кажется полезнее чем не знать.
>>764113
#236 #764113
>>764111
Ты оттуда ничего не поймешь же, там не написано в точности, как работает твоя память, ибо это слишком общее описание.
Да и вообще, за такими вопросами тебе в когнитивную психологию.
>>764119
#237 #764119
>>764113
Ок, спасибо. Говна тебе.
#238 #764130
>>764085
сравнивают их только две категории:
1. долбоебы журналисты, которые нихуя не шарят
2. ученые которые дохуя шарят но их сравнения очень точные и в узком смысле (типа корреляции активаций конвнетов и нескольких слоев сетчатки)
не слушай первых, а про вторых ты скорее всего ничего не знаешь.
#239 #764152
>>764085

>Они, пусть и симулируют часть его работы, но уже давно ушли от той математической модели, что есть в голове у животных и людей.


А у тебя когда самолеты птичками называют не бомбит случайно? На самом деле ушли не далеко, просто реализуют те же идее на другой "элементной базе".
>>764276
13 Кб, 500x223
#240 #764174
#241 #764276
>>764152
Я уже давно не встречал таких сравнений.
#242 #764590
>>764085

>меня возмутило то, что нейронные сети вообще сравнивают с человеческим мозгом.


Как из душа окатило, аж трисёт? Про любые нейросети, которые сравнивают с человеческим мозгом, обычно пишут что там именно от биологических нейронов, какой функционал эмулируется и т.д. Ну если это серьезная работа, а не быдлостатейка. Более предметно - 2 и 4 главы https://rutracker.org/forum/viewtopic.php?t=5096476 этой книжки. Можешь читнуть и сказать, возмутило ли тебя там что-нибудь.

>То, чем руководствуются живые существа - это больше нечеткая логика


Любая адаптивная нечеткая модель это частный случай нейросети, т.к. свободные параметры надо как-то настраивать, а самый естественный способ это сделать - то же самое обратное распространение ошибки.
>>764694
#243 #764601
Аноны, что можете сказать по бигдате и пр. в сбербанке?
>>764683
#244 #764683
>>764601
бигдата и пр. в сбербанке - заебись!
#245 #764694
>>764590
Почему нет хайпа вокруг карт Кохонена, а все вокруг дрочат на AE, VAE, RBM, DBM?
>>764799>>764804
#246 #764703
Вам делать нехуй сидеть огромные шизоpdf с дискретным матаном читать? Каким это боком вообще к кодингу? Типа чтобы понтоваться потом в своей вебшараге: а вот я прочитал хуйнянейм.
>>764708>>764800
#247 #764704
>>764090
а капчу гугл чем распознавать?
#248 #764708
>>764703
Шизопдф не читай,
@
Ебанутый вопрос сразу задавай

Тут господа-академики беседают за МЛ, а не за вебпараши
>>764740
#249 #764740
>>764708
Что ты забыл на сосаче, академик? иди свои диссертации пописывай.
#250 #764799
>>764694

>Почему нет хайпа вокруг карт Кохонена


Форсить некому. Это касается не только SOM, а вообще всего адаптивного векторного квантования - LVQ, Neural gas, Growing neural gas.
>>764747

>Потому что они deep.


Не поэтому. Некие японцы разрабатывали стеки из SOM (SOM^2, SOM of SOMs и т.д.) не зашло, опять же из-за малоизвестности.
#251 #764800
>>764703
Каким боком он нужен?
Попробуй сделать манипулятор хотя-бы на нейронных сетях и узнаешь, каким боком он нужен
#252 #764804
>>764694
Потому что никто не развивает, а тащить на себе это - вообще не хочется.
Да и нахуй оно нужно? Что-то я еще здравого применения не видел.
>>764814
53 Кб, 262x319
#253 #764814
Иксперды приехали.
>>764804

>никто не развивает


https://github.com/peterwittek/somoclu
Somoclu is a massively parallel implementation of self-organizing maps. It exploits multicore CPUs, it is able to rely on MPI for distributing the workload in a cluster, and it can be accelerated by CUDA.

>я еще здравого применения не видел.


http://gen.lib.rus.ec/book/index.php?md5=259CC290B1BD9BDFF950EB595C1CB0E9
>>764895
#254 #764895
>>764814
Какой-то один полуживой проект
И одна система?
ВАУ, РАЗВИТИЕ, ПРОРЫВ.
743 Кб, 2122x1323
#255 #765140
Лайвхаки, наканецта
#256 #765145
>>765140
У Dlib похожая есть.
>>765146
510 Кб, 1826x888
#257 #765146
>>765145
Отклеилось.
>>765390
#258 #765163
>>752098 (OP)
http://scanlibs.com/postroenie-sistem-mashinnogo-obucheniya-na-yazyike-python/
Аноны, годнота или нет? Добавите в шапку для начинающих?
>>765171
#259 #765166
>>765140
Короч взял готовую реализацию сверточной сети на теано, она там на мнисте обучается. Сделал под свои 32 на 32 генерированные цифры с помощью пхп скрипта переделал, а она хуй че обучается.пиздец короч
>>765697
#260 #765171
>>765163
На озоне засрали
>>765174
#261 #765174
>>765171
Чому?
>>765187
#262 #765185
Кто знаком с Hearthstone, подскажите, применим ли там ML?
Кто не знаком, вкратце:
1) Пошаговая карточная игра для 2-х игроков
2) Колода оппонента не известна и состоит из 30 карт (из 1000+), но какие-то карты имеют бОльшую вероятность там оказаться (некоторые почти 100%-ую)
3) В среднем матч длится 15 ходов, на каждом ходу у игрока примерно 3-15 вариантов действий, некоторые действия приводят к разному исходу (эффект рандома)

По идее мы тут ближе к го, чем к шахматам.
Есть ли смысл вкатываться в ML или лучше использовать минимакс и эвристику?
>>765187>>765214
67 Кб, 935x405
#263 #765187
>>765185
Можно какой-нибудь RL потренировать, наверное. Но ресурсов нужна уйма.

>>765174
>>765269
#264 #765214
>>765185
Есть какая-нибудь база с матчами? API к этой базе?
>>765219
#265 #765219
>>765214
В публичном доступе точно нету.
Матчхистори официально не поддерживается, есть только самодельные решения для трекинга.
Даже если насобирать сколько-то, часто выходят обновления (карты меняются, добавляются новые). Еще осложняется тем, что может быть очень много разных колод.
Я так понимаю, в лучшем случае получилось бы обучить какую-то конкретую колоду против другой конкретной.
#266 #765269
>>765187
Херово, с ангельским у меня проблемки, а тут вроде бы все годно расписано. Есть ли русскоязычное подобие, которое не обосрали? Конкретно интересует Байес и бинарная классификация с помощью scikit. А везде просто формулы и код, поясняют его не так годно, как в книжке.
#267 #765390
>>765140
>>765146
Зачем столько рисовали, можно было бы просто написать "в любой непонятной ситуации используй SVM)))". Векторное квантование на пистон не завезли, или авторы этих картинок про него не слышали?
#268 #765486
Я только вкатываюсь в тему. Разделяют ли опытные аноны мое мнение, составленное просто по научной картине мира без занятий ИИ, что никакого И о котором принято говорить у человека то и нету, и создание полноценного ИИ и даже сложнее лишь вопрос ресурсоемкости. А интеллект по сути триллиарды условий если?
Или я неправ и скорее всего изменю свое мнение почитав литературу об ИИ?
#269 #765494
>>765486
Почитай про свойства эмергентных структур для начала.
>>765495
#270 #765495
>>765494
Ты на вопрос ответь, плиз, если можешь, то что я нулевый и мне много читать надо я сам понимаю.
А ответ мне важен потому что я свое восприятие изучаю. Это важно для саморазвития.
#271 #765501
>>765486
"Интеллект" - это просто термин, к тому же неформализованный. Рандомная гуманитарщина, короче. Без сколько-либо строгих определений говорить об эквивалентности чего-то одного чему-то другому бессмысленно.
>>765502
#272 #765502
>>765501
Ясно, спасибо большое.
#273 #765506
>>765486
Интеллекта у человека нету?
Как разгадаем полностью работу мозга - так можно будет о чем-то подобном говорить.

А создание ИИ - и правда вопрос ресурсоемкости, но это не триллиарды условий если.
>>765514
#274 #765512
Аноны, у нейронных сетей есть что-то вроде фоновой активности?
#275 #765514
>>765506

>Интеллекта у человека нету?


Ну как мы выяснили туманное понятие. Самая суть моей точки зрения, это что нет никакого трудного и магического порога в достижении ИИ равного человеческому нет и он будет достигнут просто увеличивающейся сложностью.
>>765519
#276 #765519
>>765514
На самом деле нет.
А трудный и магический порог в достижении хоть немного работающей системы есть.
Не то, чтобы она была равной человеческой
#277 #765632
Порог очень простой: никто понятия не имеет, как сделать интеллект. Есть средства для решения каких-то формализованных задач, но именно самой сути они не понимают. Т.е., допустим, система может научиться подавать сигналы в правильной последовательности, ориентируясь по фреймам из видеоигры, чтобы получать награду, но при этом она бесконечно далека от понимания того, что на самом деле происходит: что это игра, что игра это модель реальности, что определенные картинки символизируют свои ИРЛ аналоги. Поэтому им нужны годы игрового времени чтобы научиться играть в какой-нибудь понг, и то он будет управлять ракеткой как пьяный эпилетик.
3651 Кб, Webm
#278 #765643
>>765632
Обосрался ты, братюнь. Это тебе нужно несколько лет, чтобы научиться управлять пикрелейтедом как автоматика, и то будешь дергать джойстик как эпилептик, а контроллер за 1 сек прошивается. Не говоря о том, что у тебя реакция раз в 100 хуже, чем у автоматики и от атаки ты не увернешься, причем так чтобы не уебаться. То же самое с игорами, против нормального алгоритма без искусственных ограничений ни тебе ни кому другому не устоять. А "интеллект" и прочая фуфлософия это просто слова.
>>766355
#279 #765648
>>765632

> Сёрл.тхт


> Artificial general intelligence (AGI) is the intelligence of a (hypothetical) machine that could successfully perform any intellectual task that a human being can.

>>765689>>766355
#280 #765689
>>765648

>the intelligence that could perform any intellectual task


Люблю такие определения. Не мешало бы еще тогда определить понятие intellectual task.
>>765691
#281 #765691
>>765689
intellectual task is a task that requires intelligence to solve
#282 #765697
>>765166
оказалось че ЧБ изображения не конвертирует в нумпи аррай нормально.
#283 #765775
>>765632

>но при этом она бесконечно далека от понимания того, что на самом деле происходит: что это игра, что игра это модель реальности, что определенные картинки символизируют свои ИРЛ аналоги.


Нет, все зависит от обучающей выборки и того, сколько ты ей данных подаешь, если она не может анализировать остальной мир, то на что ты вообще надеешься?
Полноценный искусственный человек не нужен.
>>766355
#284 #766340
Аноны, как карты Кохонена связываются с волновой моделью мозга и ассоциативной работой нейронов?
>>766351>>766413
#285 #766351
>>766340
И сверточными сетями?
Совсем не понимаю, в каждом слое нейронов они растаскиваются, как в картах?
>>766413
#286 #766355
>>765643

>Есть средства для решения каких-то формализованных задач


>>765648

>никто понятия не имеет, как сделать


>>765775
Поноценный "человек" в машине это как раз то, что нужно, в этом и есть "порог". Программа, распознающая картинки, это просто игрушка или в лучшем случае некий инструмент, но к самому понятию интеллекта оно даже близко не стоит, потому что она не понимает, что это за картинки, зачем их нужно распознавать.

Пример с понгом был просто для пояснения. Суть в том, что даже если ты подашь как обучающую выборку, скажем, несколько лет записей теннисных турниров, миллиарды часов симулированных прыгающих мячиков, или что угодно из этой области, оно все равно не научится сопоставлять это с тем, что происходит в понге. Оно не поймет в чем суть игры, что второй ракеткой управляет условный противник, что цель игры в ловле мячика, что надо отразить мяч по определенной траектории чтобы противник его не поймал. Ведь в этом суть понга, а не в том, что если пиксель 57:134 ярче 0.3, то нужно подать 0.8 на выход 3, т.к. раньше в миллионах предыдущих эпизодов такое действие приводило к большей награде в 50.02% случаев.
>>766360
#287 #766360
>>766355
Бля, 30+ лет прошло, а эти дебилы всё ещё мусолят Сёрла в комнате. Съеби отсюда со своим пониманием, квалиа и рефлексией.
#288 #766413
>>766351
Ничего никуда не растаскивается. Ни в мозгу, ни в картах Кохонена.
>>766340
Читай про физиологические модели SOM. Что такое "волновая модель мозга" я не знаю.
>>766494
#289 #766494
>>766413
Да я понял.
Но мне интересно, а как тогда в мозгу, в случае ошибки, мы запоминаем то, что предыдущий опыт был неверен?
>>766496
#290 #766496
>>766494
Очень маленькая награда, заставляющая избегать таких действий/состояний.
>>766498
#291 #766498
>>766496
Получается, что сеть запоминает предыдущее состояние или что?
Если у меня например карта организовалась, но тут оказывается, что данные прежние неверные и мне надо запомнить исключения.
Чтобы было, как у человека в голове.
Как мне поступить?
Может запоминать ошибки отдельно в память?
#292 #766610
В чем отличие LinearSVC() от SVC(kernel='linear')?
#293 #766775
Короч, без видюшки кроме как научить гадать циферки и буковки вряд ли получится.
#294 #767136
>>752098 (OP)
Анон, нет, я уже второй день ищу инфу по поводу того, как гормоны воздействуют на нейроны.
Нет, вот нейроны просчитывают и обрабатывают информацию, по сути - они сумматоры, а нейронная сеть просто аппроксиматор

КАК НА ЭТО ДЕЙСТВУЮТ ГОРМОНЫ? Нигде не нашел подобной инфы, придерживаюсь волновой модели мозга.
>>767212
#295 #767212
>>767136

>ищу инфу по поводу того, как гормоны воздействуют на нейроны.


На русском языке поди ищешь? Неудивительно. Родина дала сайнсдирект http://www.sciencedirect.com/ ищещь там по ключевым словам, затем релевантные статьи пиздишь через сайхаб. Вот эту книжку еще посмотри http://gen.lib.rus.ec/book/index.php?md5=FB94D5F7C1F4A86F7C1EAAD002A711AB
>>767220
#296 #767220
>>767212
Там же ПЛАТНА. Вывод: наука не для нищенок.
>>767225
#297 #767225
>>767220

>Там же ПЛАТНА.


Сайхаб для кого сделали?
#298 #767819
Сап аноны, я тут кое что выяснил.
Если использовать несколько SOM и попытаться "накладывать" их друг на друга, то можно получить интересный результат.
Мне кажется, что сеть начинает уметь в "абстракцию".

Мы продолжили обучать сеть на том, чтобы она на этот раз попробовала в управление шагоходом.
И получилось, что у нее очень хорошо выходит обобщение.
Сеть сама смогла понять, что от нее имеют ввиду, когда просят пойти вправо или влево, сама классифицировала и выдала нам все значения.

То есть она уже работает не просто со значениями, она их классифицировала и выделила закономерности, обобщив все.
И самое главное то, что она может делать то, что не смогла раньше, теперь она подбирает направление конечностей не единообразно, а ищет лучший вариант, разрабатывая стратегию самостоятельно.
>>767834>>767961
#299 #767834
>>767819
Я уже не первый раз тута пишу, что многие задачи, которыми содомируют всякие модные глубокие сети и прочий градиентный бустинг, тривиально сводятся к адаптивному векторному квантованию, в частности SOM. Я тебе больше скажу - в твоем случае и карты Кохонена излишни, т.к. они нужны для проецирования многомерных данных на 2д вид. В случае шагохода это абсолютно лишняя работа, более чем достаточно было бы использование "нейронного газа" NG или его растущей разновидности GNG. И да, все эти алгоритмы можно стыковать через опорные векторы для получения глубоких сетей, такие стеки очень даже могут в абстракцию в т.ч. для динамических систем и т.п. В т.ч. и буквально, есть примеры использования карт Кохонена для анализа текстов и их классификации по семантике. Н-р WEBSOM. Растуще-иерархические карты Кохонена GHSOM для этого еще лучше. Вот эти ребята http://www.ifs.tuwien.ac.at/dm/somtoolbox/ этим занимались. У них же есть примеры классификации музыки по жанрам и рекомендации музыки, похожей на понравившуюся с помощью SOM.
>>767846
#300 #767846
>>767834
Да это вообще новая информация для меня оказалась.
В частности то, что сеть учится выбирать стратегии, если раньше она видела только поля значений и логику в виде взаимодействий, то теперь она все это классифицировала и использует как абстрактное понятие.

Если раньше был манипулятор с 4 степенями свободы, который умел двигаться по кругу и хватать предметы, то теперь он научится делать это с разворота и двигать конечность нестандартно.
А вот GHSOM - очень интересная сеть, надо посмотреть.
>>767891>>767961
#301 #767851
Анончики, есть ли у кого-нибудь сей опус в пдф?
https://www.crcpress.com/Music-Data-Mining/Li-Ogihara-Tzanetakis/p/book/9781439835524
>>767858
42 Кб, 600x600
#302 #767858
>>767851
Если тi хочеш уяснить как поет Мiку Хатсуне, тобi сюда:
http://www.dmoz.org/Arts/Music/Theory/Tuning_Systems/Microtonal/
#303 #767879
Аноны, а может ли нейронная сеть сомневаться?
Или она настолько прочно завязана с математикой, что у нее сомнений не возникает?
мимопроходил
>>767891
1087 Кб, 2592x1944
#304 #767891
>>767846

>А вот GHSOM - очень интересная сеть, надо посмотреть.


http://www.ifs.tuwien.ac.at/~andi/ghsom/publications.html Тут статьи по GHSOM. В этом алгоритме самое интересное то, что он не затрагивает самой SOM, а реализован как бы поверх нее и работает за счет манипуляций с ошибкой квантования. Т.е. при желании нечто похожее можно прикрутить к любому алгоритму векторного квантования, технических проблем нет. Если бы я не был хуем, не могущем в серьезное программирование, обязательно занялся бы этой темой, благо идей хватает.
>>767879

>может ли нейронная сеть сомневаться?


Может. Считай вероятность классификации нейросетью обратно пропорциональной сомнению. То же с нечеткостью для нечетких моделей. В конце-концов человеческое сомнение возможно только там где есть неточность. А неточность это либо вероятность, либо нечеткость события и т.д.
#305 #767945
Аноны, а может ли нейронная сеть влюбляться?
Или она настолько прочно завязана с математикой, что у нее любви не возникает?
мимопроходил
>>767989
#306 #767961
>>767819
>>767846
Ух ты, получается, что твоя сеть может искать скрытый смысл?
Интересно, а какая-нибудь из сетей умеет фантазировать, чтобы как человек?
#307 #767989
>>767945
Аноны, а могут ли люди влюбляться?
Или они настолько прочно завязаны с химией, что у них любви не возникает?
#308 #767991
А можно ли нейросеть научить играть в карты? В дурака, скажем?
Насколько я понимаю, для этой задачи нужна обратная связь, чтобы сеть могла планировать свои ходы, но как такую обучать - не представляю.
#309 #767992
Пора заводить отдельный тред для "может ли нейросеть в X"?
>>768003
#310 #767994
>>767991
в шахматы же играет.
>>767999
#311 #767999
>>767994
Какие сети там используются? Какая у неё структура?
У меня довольно поверхностные знания в этой области, поэтому слабо представляю, как с помощью сетей решать более сложные задачи, чем распознавание циферок на поле 8x4.
>>768001
#312 #768000
>>767991

>А можно ли нейросеть научить играть в карты? В дурака, скажем?


Легко, в шахматы может.
В Го может.
#313 #768001
>>767999
Обычный перцептрон даже сможет.
Задача из теории вероятностей, не более, ходов не так уж и много.
>>768013
#314 #768003
>>767992
С одним семеном-хейтером нейросетей на самоподдуве?
>>767991
Забудьте вы слово "нейросеть" вообще, это просто аппроксиматор функций. Если задачу можно представить в виде переменных с какой-либо (даже априорно неизвестной) взаимосвязью между ними, значит нейросеть в это может.
>>768005
#315 #768005
>>768003

> С одним семеном-хейтером нейросетей на самоподдуве?


Тут же ещё нечёткопетух есть.
>>768006
#316 #768006
>>768005
Ты кого петухом назвал, сука?
#317 #768013
>>768001
На каждый ход по слою предлагаешь что ли?
>>768014
#318 #768014
>>768013
Нет, погугли, как учат в шахматы играть.
А я пока набью ебало тому петуху, который не любит нечеткую логику
>>768016>>768305
62 Кб, 453x604
#319 #768016
>>768014

>нечоткая логика


слыш
#320 #768036
Есть какие-то ML-стажировки? Кроме Яндекса: там вообще god tier, меня туда не возьмут.
#321 #768123
Посоны, а автоэнкодер сети подскажет где именно сеть увидела циферку?
>>768166>>768273
#322 #768166
>>768123

>автоэнкодер


это когда пропустили сигнал через сеть, а потом хуяк и пропустили в обратном направлении с тем же сигналом и весами который был на выходе.
#323 #768202
Ауууу. Тут есть кто-то?
#324 #768244
Отдыхайте ребята.

5 лет в ДМ, статьи, публикации, магистратура. Не сказать, что пиздец продуман, но не новичок.

Работы нет, сижу во всяких шарашках делаю хуй пойми что.

Думаю зря я этим занялся. На каггле пиздец, лютые типы через час после начала грузят под максимум - ловить нехуй.

В яндексе и в мейле уже сидят люди. Биоинформатика в России это пиздец уровня мытья толчков по выходным.

Так что не идите сюда, в натуре пацаны, я не шучу, если не хотите жестко проебаться.
>>768739
#325 #768255
кто-то пробовал смоделировать коннекты мухи и для нее виртуальный мир?
>>768269>>768274
#326 #768269
>>768255

ты с грибами завязывай, а то реально заберут ведь
#327 #768273
>>768123
Сам не подскажет, нужно свистопердюли поверх строить вроде.
#328 #768274
>>768255
блять, это вопрос уровня детсадовца. не думаю, что даже у школьника хватило тупости такое спросить.
>>768276
#329 #768276
>>768274
В начале января модераторы онлайн-игры EyeWire, посвященной картографированию сетчатки человека с обозначением всех находящихся там нейронов и связей между ними (синапсов) силами добровольцев со всего мира, с гордостью заявили о завершении обследования 250-го нейрона. Учитывая, что таких нейронов в сетчатке больше миллиона, это достижение трудно назвать гигантским прорывом — скорее один из первых шажков по дороге «в тысячу ли». Дороге, которая должна привести нас к раскрытию тайн нашего мозга. И кто знает — может быть, даже к цифровому бессмертию.
>>768286
#330 #768286
>>768276
Тогда будущий Нобелевский лауреат 2002 года Сидней Бреннер (Sidney Brenner), южно-африканский биолог, предположил, что поведение живого организма можно понять, составив полную карту его нервной системы. Он взялся за простейшую нервную систему круглого червя Caenorhabditis elegans (всего 302 нейрона, распределенных по всему телу), и, изучая один за другим его тонкие срезы, создал за два десятилетия полную нейронную карту. В 1986 году она была опубликована в Philosophical Transactions of the Royal Society of London, почтенном научном журнале, основанном еще Исааком Ньютоном. Номер вышел объемным, в 340 страниц, и с тех пор многие биологи называют его Книгой, причем не столько из-за фолиантной толщины, сколько из-за информации, которая там содержится, и сегодня, спустя почти три десятилетия, остается для исследователей сборником вопросов без ответа.

Пиздос 304 нейрона управляют червем. Как же такое на кампутерах не повторить-то?
>>768311
#331 #768305
>>768014
Довольно хуево гуглится. Везде сплошной научпоп о невероятном прорыве нейросетей с весьма поверхностным обзором. Исходники ёбаные 30к крестодрисни не слишком хочется читать.
Может, сам на пальцах пояснишь, какую архитектуру сети он там использует или какую ты бы использовал?
>>768309
#335 #768389
Сап, аноны. Ищу человека, который мне пояснит по scikit learn. Есть готовая база текстов (слова нормализованны, стоп-слова убраны). Мне нужно, чтобы мне помогли обучить модель, я не понимаю что и в каком виде передается в функции библиотеки. Готов оплатить.
Почта randomma5M9il1ANUSGCKbkPUNCTUMr.1hu
#336 #768472
Аноны, а вот теперь я возвращаюсь к задачам классифицирования.
Да, я использовал две сети SOM для того, чтобы сеть могла абстрагировать данные, это вполне подобно тому, как человек это делает.
Но что получается, когда нам нужно классифицировать больше признаков и их количество нам неизвестно?

Также интересна еще следующая вещь, в мозгу человека многие отделы мозга общаются с друг-другом только для того, чтобы узнать о происходящем и на основе своей "логики" что-либо предпринять.

Нам требуется нечто подобное, дабы каждая конечность могла обучаться в процессе более эффективнее, чем сейчас.

Кстати, внезапно, но обнаружил, что игровые движки с физикой Rigdoll вполне могут что-нибудь классное симулировать.
>>768507>>768628
sage #337 #768507
>>768472

> я возвращаюсь к задачам классифицирования.


таак..

> ... НЕЙРОНОЧКИ ИИ НЕЙРОНОЧКИ КОКОК


понятно
>>770214
301 Кб, 1440x900
#338 #768628
>>768472

>что получается, когда нам нужно классифицировать больше признаков и их количество нам неизвестно?


Я ж говорю - любое unsupervised адаптивное векторное квантование (NG/GNG). SOM это несколько не то что нужно в данном случае, оно для визуализации и визуального анализа данных. В случае надобности все это легко визуализируется, например проекцией Сэммона, для наглядности можно даже мозаику Вороного прикрутить.
>>770219
#339 #768735
>>768311

>These early attempts of simulation have been criticized for not being biologically realistic. Although we have the complete structural connectome, we do not know the synaptic weights at each of the known synapses. We do not even know whether the synapses are inhibitory or excitatory. To compensate for this the Hiroshima group used machine learning to find some weights of the synapses which would generate the desired behaviour. It is therefore no surprise that the model displayed the behaviour, and it may not represent true understanding of the system.

#340 #768739
>>768244
Трактор. Алсо что такое ДМ?
>>768741
#341 #768741
>>768739
Очевидный дата майнинг.
#342 #768987
>>752098 (OP)
Вот я дурааааак. Оказывается слой свертки - просто максимум из 4-ех значений(если 22), а я думал настраиваемые веса 22 и настраивал их.
>>769263
494 Кб, 886x704
#343 #769263
>>768987

>максимум из 4-ех значений


Максимум - это max pooling. Свертка - это умножение значений исходных пикселей на значение ядра свертки.
>>769285>>769339
#344 #769285
>>769263
Да, имелось ввиду объединение. Это единственное место где нет весов.
#345 #769339
>>769263
И да, картинка неправильная, -8 должна быть в самом левом верхнем углу.
#346 #770214
>>768507
Что тебе понятно?
#347 #770219
>>768628
Да нет, SOM - это конкретно то, что нужно в данном случае.
А векторное квантование и тут и там присутствует.
Да и гугл что-то отказывает гуглить NG сети.
>>771144
#348 #770400
>>752098 (OP)
Аноны, хочу вкурить, что такое персептрон
Рекуррентные сети и этот ваш SOM
Уже завтра начну повторять Питона.
А что по сетям почитать?
Не на английском, я то перевести смогу, но хуево.
#349 #770508
>>770400

> Не на английском


No way
>>770509
#350 #770509
>>770508
Да блджад, я другим языком занят, нет у меня времени на английский.
>>770511
#351 #770511
>>770509
Немецкий, французский? Только не говори, что это пиздон.
>>770512
#352 #770512
>>770511
Японский, лол.
#353 #770523
Черт, сейчас уже не до кода, но что будет, если рекуррентную сеть динамически расширять?
У меня, допустим, есть потребность в динамической памяти, которую нужно по разному обрабатывать и сохранять, причем, эта информация всегда остается актуальной.
#354 #770524
Хочу начать заниматься биоинформатикой, какой курс лучше подойдет с курсэры и прочих вещей, какие еще критерии надо изучать?
>>770525>>770532
#355 #770525
>>770524
причем тут машинное обучение?
#356 #770532
#357 #770581
>>770525
Ну, если смоделировать нервную систему, то самое прямое.
>>770583
#358 #770583
>>770581
а если упростить с несущественными потерями, то мы получим искусственную нейросеть с полезной структурой, которую можно было бы применить где-либо.
>>771132
#359 #771132
>>770583
Нейронную сеть и так можно применять где-либо, а по сути - везде.
Но суть далеко не в этом.

Суть в том, что приходится пилить ОЧЕНЬ МНОГО КОСТЫЛЕЙ.
Знаете, что пришло в голову в нашем универе у людей? А давайте обучим сеть чистой мат логике и на основе иерархической структуры будем анализировать вообще все.
То-есть хотят взять числа и прочие показатели как константу, связать их с методами и обрабатывать.

Это пиздецкие костыли, а ведь я просто предлагал использовать классификацию для того, чтобы получать новые методы..
>>771144>>771151
#360 #771144
>>770219

>гугл что-то отказывает гуглить NG сети.


Neural Gas / Growing Neural Gas.
>>771132
А с чего ты вообще взял, что различные (адекватные решаемой задаче) представления данных это костыли? Чтобы решить какую-то задачу каким-то аогоритмом, ее нужно представить в виде, адекватном для алгоритма, это норма. В чем костыльность-то?
>>772045>>772076
#361 #771151
>>771132
Это представьте, что если бы вы для решения примера вспоминали бы всю математику заново и вспоминали бы все свои ранее решенные примеры ради чего-нибудь простого.

Нет, с 2 + 2 это еще легко, но на практике понадобится пиздецкая мощность для 50 параллельных расчетов одновременно.
Правда такая сеть может считать вообще все, что угодно, подходит для решения любой задачи, где есть набор переменных и надо найти взаимосвязи
>>771157>>771173
#362 #771157
>>771151
И чем сложнее задача и больше переменных, тем больше придется просчитывать, в некоторы случаях нужно около 10000 вычислений одновременно.
Ну, можно еще сократить вычисления до 100, но тогда обучение будет очень медленным и ответа придется ждать долго.
>>771173
#363 #771173
>>771151
>>771157
Я так и не понял, в чем проблема. Долго? Так новомодные сверточные сети на многопроцессорных теслах по месяцу сходятся, и всем норм.
>>771177
#364 #771177
>>771173
Я бугурчу от отсутствия иерархичности и рационального подхода, все тупо сваливают в одну кучу, пишут говнокод
>>771227
#365 #771182
Аноын, я почти все понял, но не понял, что такое весысинапсы нейронной сети, объясните мне, что это и зачем оно нужно?
Или где почитать в целом об работе одного, конкретного, отдельного нейрона
>>771199
#366 #771199
>>771182
Коэффициенты линейной функции ax+b, где x - вход, a - "синаптический" вес, b - порог.

>где почитать в целом об работе одного, конкретного, отдельного нейрона


Да где угодно, на каждом углу жи расписано.
>>771202
#367 #771202
>>771199
А что делает конкретно, один нейрон в сети?
Тупо складывает поступающие на него значения или что?
И чему равен этот синаптический вес?
>>771211>>771214
#368 #771211
>>771202

>что делает конкретно, один нейрон в сети?


Если речь о перцептроне, то вычисляет суперпозицию частной функции от одного аргумента в общей функции от многих аргументов. Горбаня читни http://www.pereplet.ru/nauka/Soros/pdf/9812_105.pdf http://kpfu.ru/portal/docs/F1732864826/02_5.PDF у него годно расписано что и зачем. В общем случае - постарайся понять что такое линейная функция, в той же педивикии есть. Как она соотносится с "нейроном" - я написал. Для чего нужна функция активации нейрона (обычно нелинейная, н-р сигмоид) на пальцах объяснить уже сложнее, там суть в том, чтобы деформировать входы так, чтобы они оказались линейно-разделимыми для линейных функций первой части "нейрона". Общая же суть происходящего - аппроксимация зависимости выходов от входов.
>>771214
#369 #771214
>>771202
>>771211
Этот прав, тебе в матан надо.
Сначала пойми что такое функция вообще
Потом, все про линейные функции.
Пойми про суперпозицию функции.

И это будет только началом, но не согласен с тем аноном по части матана, не нужно его столько, вон, есть статьи попроще на хабре
https://geektimes.ru/post/84125/
https://habrahabr.ru/post/143129/
>>771249
#370 #771227
>>771177
Да и вообще, представлять все в виде сети Джордана и пытаться применить к банкам памяти метод векторного квантования - малясь долбоебизм.
#371 #771236
>>771233
Это разные алгоритмы, от слова совсем разные. Гугли каждый.
#372 #771248
>>771243

>как выбрать нужный алгоритм, исходя из данных?


Тут два варианта:
- читаешь про каждый алгоритм, понимаешь его логику (что, как и с какой целью он делает), думаешь что лучше подойдет для решения конкретной задачи, анализа конкретных данных.
- хуяришь все подряд, прямо по списку, смотришь с каким алгоритмом самый лучший результат (при классификации - наименьшее количество неправильно классифицированных примеров из тестовой выборки).
#373 #771249
>>771214
Спасибо, так матан совсем легкий.
Получается, что посылаются векторы, адаптивный сумматор их считает посылает на нелинейный преобразователь сигнала и тот преобразует в число, потом этот сигнал перераспределяется на выходе.
Это пока просто.
>>771252>>771255
#374 #771252
>>771249
Но тут в дело входит просто охуительное объяснение, спасибо блядь, что из этого понятно вообще?

>Линейная связь – синапс отдельно от сумматоров не встречается, однако для некоторых рассуждений ывает удобно выделить этот элемент. Он умножает входной сигнал x на “вес синапса” α.

>>771253>>771255
#375 #771253
>>771252
Как, зачем и нахуя задавать этот вес синапса? По какой логике и чему он должен быть равен?
10 Кб, 566x475
#376 #771255
>>771249

>потом этот сигнал перераспределяется на выходе.


На выходе полученное значение сравнивается с реальным, разница (ошибка) используется для настройки свободных параметров сети (тех же коэффициентов линейных функций).
>>771252
Очевидно же, речь о параметрах линейной функции.

>По какой логике и чему он должен быть равен?


Тебе жи говорят - читай про линейную функцию. В линейной функции ax+b параметр а - это тангенс угла между линейной функцией и положительным направлением координатной оси. Т.е. входное значение х умножается на значение этого тангенса.
>>771259
#377 #771259
>>771255
А все, кажись понял, для чего оно нужно, для того, чтобы входной сигнал корректировать в согласии с результатом обучения?
Только я еще не понял, сигнал поступает в векторном виде, переводится в скалярный, а потом опять в векторный?
В каких местах идут эти переводы?
#378 #771264
>>771259
И вот этот момент странный

>Для полносвязной сети входной сумматор ней-


рона фактически распадается на два: первый вычисляет линейную функцию от входных сигналов сети, второй – линейную функцию от выходных cигналов других нейронов, полученных на предыдущем шаге.
Такс, Два сумматора
Первый вычисляет результат от входа, второй от других нейронов.
А что дальше с этими результатами происходит?
>>771271
#379 #771267
>>771259
А все понял, сначала берется вектор, подается в сумматор
У которого есть переменная A
Тот берет и складывает в скалярном виде
Посылает на Нелинейный преобразователь, тот переводит в векторный вид
И все это рассылается?

А от чего сначала зависит параметр A? Чему он равен?
Обучение - это и есть настройка этого параметра A?
>>771271>>771299
#380 #771271
>>771267
>>771264
Неужели наши мозги также работают, серьезно?
Вот эта вот хуйня, простая как дверь?
#381 #771299
>>771267
Аноны, а объясните, зачем нейрон делает вот это вот?

>Нейрон получает на входе вектор сигналов x, вычисляет его скалярное произведение на вектор весов α и некоторую функцию одного переменного ϕ(x, α).


Я опять ничего не понял, что делает адаптивный сумматор.
Сначала думал, что он берет и находит произведение входящих в него векторов в скалярном виде.
А теперь - это что еще за нахуй? Ну объясните, пожалуйста, я совсем нихуя не понимаю.
#382 #771347
А есть ли какие актуальные средства разработки не на прыщах? Чтобы сразу можно было взять нейросеточку закомпилить, обучить, пощупать? А не проливать реки слёз, обламываясь с установкой куды на виртуалку убунты.
>>771658
#383 #771357
Аноны, а значение синаптических весов всегда лежит в диапазоне от 1 до -1
Или это может быть любое число вообще?
>>772044
#384 #771394
Как будет обучаться сеть, если у меня есть несколько параметров, например 3
И я провожу обучающую выборку, показывая взаимосвязь правильную.
А потом я даю сети задачу на нахождение взаимосвязи уже с другими значениями.

Как это все осуществляется, аноны?
#385 #771529
>>752098 (OP)
Аноны, нейронные сети же работают только с -1,0,1
А как они работают с цифровыми данными?
#386 #771557
У Лекуна есть демки где он с шумами показывает распознавание. Это он их с шумами обучал?
#387 #771657
>>770400
Ну хотя бы хайкина для ознакомления с темой вообще.
#388 #771658
>>771347
matlab
#389 #771662
Анончики есть ли способ проверить на адекватность обучающую и тестовую выбоки?
sage #390 #771712
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
>>771719
#391 #771719
>>771712
Хули ты тут забыл?
#392 #771725
Аноны, посмотрел вступительные экзамены для поступления в ШАД, и понял, что там всё достаточно серьезно в плане требований к математике.
В связи с этим вопрос: какая математическая подготовка должна быть для нормального восприятия ML, то есть не на уровне "магии"? В ШАД адекватно оценивают сложность темы или всё-таки перестраховываются, дабы оградить менее одарённых товарищей даже от мыслей о поступлении?
Еще лучше будет конкретнее - какие книги по теме стоит переработать перед изучением сабжа?
>>771871>>771909
#393 #771871
>>771725
Ты не поступишь.
#394 #771909
>>771725

> В связи с этим вопрос: какая математическая подготовка должна быть для нормального восприятия ML, то есть не на уровне "магии"?


Хз.

> посмотрел вступительные экзамены для поступления в ШАД, и понял, что там всё достаточно серьезно в плане требований к математике


Нет. Нужно тупо дрочить примерчики из Демидовича. Теорию множеств знать не надо, топологию знать не надо, теорию меры знать не надо. То, что там требуют - это вообще не математика.
#395 #772006
Аноны, я все вкурил в нейронных сетях и персептронах многослойных. Не надо уж так много матана для этого знать.
А что посоветуете почитать для того, чтобы понять по части матана и всяким приемчикам?
Пожалуйста не на английском и чтобы не много матана было
>>772014>>772017
#396 #772012
Аноны, а вы помните статью того чувака на хабре про волновую, паттерновую модель?
Волновую модель в топку, а вот распространение всего с помощью паттернов - это фишка.

Представьте, что у вас есть револьвер.
И револьвер - это рекуррентная сеть с открытой памятью.
И при каждой операции у других сетей мы берем и навешиваем им некоторый символ, по которому мы сможем их отличать.

И так вот, если обучить сеть чему-нибудь, закодировать все операции в виде паттернов, дальше, методом векторного квантования мы классифицируем результаты и получаем приоритеты в тех или иных вещах.

Теперь, когда на сеть подаются данные - она ищет соответствия в паттернах, и загружает информацию в слой рекуррентной сети.
Получается, что это работает, как револьвер.
И главное - вычисления можно проводить в несколько потоках, то есть как у человека, который выполняет несколько привычных действий.

Эх, еще бы примотать к этому надклассификацию, чтобы сеть могла выискивать новые значения функции, исходя из старых И в том числе поиск закономерностей
>>772017
#397 #772014
>>772006
Долбоёб, бля.
Дебилы, бля.

АНОНЧИКИ, ПОСОВЕТУЙТЕ КНИЖКУ ПО ДИП ЛЕАРНИНГУ, ТОЛЬКО НА РУССКОМ БЕЗ МЕТЕМАТИКИ, РЕГИСТРАЦИИ, СМС И КРОСС-ВАЛИДЕЙШЕН. АНОНЧИКИ, А МОЖЕТ ЛИ СЕТОЧКА НАУЧИТЬСЯ ГЛУБОКОМУ БЛОУДЖОБУ? НО ВЕДЬ ЛЮДИ ТАК НЕ ОТЛИЧАЮТСЯ, СЁРЛ, СЁРЛ, СЁРЛ.КАК ПОСТУПИТЬ В ШАД, ЕСЛИ У МЕНЯ ДЕВЯТЬ КЛАССОВ ОБРАЗОВАНИЯ В ШКОЛЕ ДЛЯ ДЕБИЛОВ?

Либо вы очень унылая зелень, умрите[/spoiler[
#398 #772015
>>772014
Ещё и с разметкой обосрался.
Академика на вас нет, пидоры.
#399 #772017
>>772012
Правда производить надклассификацию еще очень тяжело.
Но с простыми мат.функциями сеть работает отлично, она быстро научилась всем правилам.
>>772006

>Хочу разобраться в матане без матана


>Без английского.


Что ты тогда тут вообще забыл? Иди английский учи, тебе либо нормальное объяснение на энглише, либо статьи русских маразматиков.
>>772014
Ой, да не агрись ты так, побесится и уйдет
>>772022
#400 #772018
а вы можете в этих учебниках перевести все матановые алгебраичные формулы в код? ну непонятно же.
мы же программисты, а не математики.
>>772019
#401 #772019
>>772018
Да хули там непонятного, блядь
Тебе математическая сумма непонятна?
Или линейная функция?
Или операция умножения двух чисел тебе непонятна, блядь?
Ты не программист - ты говно.
>>772026
#402 #772022
>>772017
>>772014
Анон, ну объясни хотя-бы как сеть работает с цифровыми данными.
Есть ли где-нибудь пример калькулятора на нейронной сети или вроде того?
>>772526
5 Кб, 229x83
5 Кб, 263x78
#403 #772026
>>772019
вот это, например.
44 Кб, 711x487
#404 #772028
НЕПОНЯТНА
>>772083
#405 #772030
показательная функция, вес, дробь.
Что тебе непонятно?
>>772033
#406 #772033
#407 #772043
>>771259

>для того, чтобы входной сигнал корректировать в согласии с результатом обучения?


Нет. Входной сигнал - это константа, корректировать можно свободные параметры сети.
>>772046
#408 #772044
>>771357

>значение синаптических весов всегда лежит в диапазоне от 1 до -1


Это значение нелинейной функции активации "нейрона". Параметры линейной функции не обязаны быть от -1 до 1.
#409 #772045
>>771144
Охуеннейший алгоритм, анон, спасибо.
Как нельзя лучше подходит для векторного квантования данных.
Кстати, название на русском "Нейронный газ", блядь.
Интересно, как это визуализировать? Какая-нибудь мозаика Вороного явно подойдет.
>>772052>>772076
#410 #772046
>>772043
То-есть вполне допустимо работать с числами любых размеров?
И я вполне могу обучить нейронную сеть, что 15+5 = 1, она сама подберет синаптические веса, верно?
>>772047
#411 #772047
>>772046

>я вполне могу обучить нейронную сеть, что 15+5 = 1, она сама подберет синаптические веса, верно?


Да.
#412 #772051
Многое зависит от датасета, если там будет хуйня уровня "15+5 = 1", это не проблема нейросети.
#413 #772052
>>772045
Подожди, это растущая сеть.
А что в ней случится, если я укажу, что она ошиблась?
Победители тупо перерастянутся?
>>772053>>772076
#414 #772053
>>772052
NG/GNG нельзя указать на ошибку, это алгоритмы обучения без учителя. Они воспринимают только ошибку квантования на текущем датасете. Есть векторное квантование с учителем, там можно задавать правильные выходы.
>>772059>>772076
#415 #772059
>>772053
А, в глаза ебусь.
Кстати, забавно оно работает.
https://www.youtube.com/watch?v=L4hYvMXoO0c
>>772076>>772080
#416 #772076
>>772053
>>772059
>>772052
>>772045
>>771144
Аноны, а зачем это нужно? Это типа, чтобы классифицировать что-то?
А как эти растянутые нейроны означают группу? Это типа как у гугла, где от главного запроса можно получить связанные с ним?
>>772080
#417 #772080
>>772059
Это апплет от самого автора GNG http://www.demogng.de/ http://sund.de/netze/applets/gng/full/GNG-U_0.html растущий нейронный газ в базовом варианте для практических целей бесполезен, т.к. при большой размерности датасета и большом количестве узлов объем вычислений настолько конский, что любой комплюктер встает раком. Смысл есть использовать только оптимизированные варианты, н-р http://r.gmum.net/ пшеки для R делали.
>>772076
Для любой задачи, сводимой к векторному квантованию. Не только классификация.
>>772099
#418 #772082
>>772026
Кстати, да, всегда бесило, что некоторые пишут только мат формулы без объяснения как это программить. Ладно там только сумма или еще че простое, но если та интегралы и вся хуйня математическая, которую хуй пойми как запрограммировать.
#419 #772083
>>772028
Где ты такие ебанутые объяснения берешь?
#420 #772084
>>772082
Интеграл - это и есть сумма, только для непрерывной а не дискретной величины.
>>772089
#421 #772085
>>772082
ХУЛИ СЛОЖНОГО В ИНТЕГРАЛАХ, БЛЯДЬ?
ВОЗЬМИ ЕГО ЗНАЧЕНИЕ ИЗ ТАБЛИЦЫ, БЛЯДЬ И НАЙДИ ИНТЕГРАЛ, НИЧЕГО ЛЕГЧЕ БЫТЬ НЕ МОЖЕТ.
Кто в треде сидит, девятиклассники?
>>772091
#422 #772089
>>772084
Это ясен хуй. Самый простое объяснение: это умножаешь с этим, получаешь то-то - это эквивалент записи такой-то, схем побольше и т.д.
#423 #772091
>>772085
А ты уверен, что именно тот интеграл из таблицы надо брать, а не вычислять численными методами, где об этом могут нигде не сказать.
>>772100
#424 #772099
>>772080
У него возможностей побольше, чем у обычной SOM, архитектура не задана сразу и при небольшом кол-ве данных оно очень полезно.
А такой подход в Som - даже для меня новизна.
Это же можно брать классы и паттерны из операций и грузить их в банки памяти рекуррентной сети сразу же.
Только надо еще посмотреть, как она с логическими операциями справляется и как на нее можно влиять, все-таки такое обучение без учителя может оказаться и правда бесполезным.
Или еще 50 методов сколхозить Som с другими сетями
>>772119
#425 #772100
>>772091
Обычно - да.
Если какой-то слишком сложный, то всегда есть калькулятор.
#426 #772119
>>772099

>А такой подход в Som - даже для меня новизна.


Есть жи растущие варианты SOM и даже растуще-иерархические - GSOM, GHSOM http://www.ifs.tuwien.ac.at/dm/somtoolbox/index.html к слову тоже основаны на работах этого Фрицке. Всё адаптивное векторное квантование сходно в своей сути, карты Кохонена не исключение, там тоже большие возможности для всяких маневров с ростом, иерархией, стыкованием и т.д. SOM к слову, есть и с учителем - XYF/BDK/Supersom https://cran.r-project.org/web/packages/kohonen/index.html https://www.jstatsoft.org/article/view/v021i05/v21i05.pdf
>>772128
#427 #772128
>>772119
Ну, их "рост" - это тоже до предела значений, потом все более-менее организовывается.
Хотя можно и их наебнуть.

Но на больших данных - это ебнешься такие расчеты производить, я и так сервак держу под нужды вычислений
#428 #772142
>>772026
Если ты не можешь перевести это в код, то ты не знаешь ни матетики, ни программирования.
#429 #772179
Поясните за ELM, это убийца ANN или просто еще один алгоритм, типа RBF-сетей, который вскоре канет в лету?
>>772181>>772201
#430 #772181
>>772179
Че это такое хоть?
>>772183
#431 #772183
>>772181
extreme learning machines
#432 #772198
Какие годные книги есть по text mining, текстовая обработка данных и тому подобному?
#433 #772201
>>772179

>Поясните за ELM,


Ну хуй знает, создатель сверточных сетей ЛеКун эту идею обоссал, грит, во-первых еще Розенблатт такое предлагал, во-вторых, плохо сделано, тупо:
Yann LeCun's thoughts about ELMs:

What's so great about "Extreme Learning Machines"?

There is an interesting sociological phenomenon taking place in some corners of machine learning right now. A small research community, largely centered in China, has rallied around the concept of "Extreme Learning Machines".

Frankly, I don't understand what's so great about ELM. Would someone please care to explain?

An ELM is basically a 2-layer neural net in which the first layer is fixed and random, and the second layer is trained. There is a number of issues with this idea.

First, the name: an ELM is exactly what Minsky & Papert call a Gamba Perceptron (a Perceptron whose first layer is a bunch of linear threshold units). The original 1958 Rosenblatt perceptron was an ELM in that the first layer was randomly connected.

Second, the method: connecting the first layer randomly is just about the stupidest thing you could do. People have spent the almost 60 years since the Perceptron to come up with better schemes to non-linearly expand the dimension of an input vector so as to make the data more separable (many of which are documented in the 1974 edition of Duda & Hart). Let's just list a few: using families of basis functions such as polynomials, using "kernel methods" in which the basis functions (aka neurons) are centered on the training samples, using clustering or GMM to place the centers of the basis functions where the data is (something we used to call RBF networks), and using gradient descent to optimize the position of the basis functions (aka a 2-layer neural net trained with backprop).

Setting the layer-one weights randomly (if you do it in an appropriate way) can possibly be effective if the function you are trying to learn is very simple, and the amount of labelled data is small. The advantages are similar to that of an SVM (though to a lesser extent): the number of parameters that need to be trained supervised is small (since the first layer is fixed) and easily regularized (since they constitute a linear classifier). But then, why not use an SVM or an RBF net in the first place?

There may be a very narrow area of simple classification problems with small datasets where this kind of 2-layer net with random first layer may perform OK. But you will never see them beat records on complex tasks, such as ImageNet or speech recognition.
#433 #772201
>>772179

>Поясните за ELM,


Ну хуй знает, создатель сверточных сетей ЛеКун эту идею обоссал, грит, во-первых еще Розенблатт такое предлагал, во-вторых, плохо сделано, тупо:
Yann LeCun's thoughts about ELMs:

What's so great about "Extreme Learning Machines"?

There is an interesting sociological phenomenon taking place in some corners of machine learning right now. A small research community, largely centered in China, has rallied around the concept of "Extreme Learning Machines".

Frankly, I don't understand what's so great about ELM. Would someone please care to explain?

An ELM is basically a 2-layer neural net in which the first layer is fixed and random, and the second layer is trained. There is a number of issues with this idea.

First, the name: an ELM is exactly what Minsky & Papert call a Gamba Perceptron (a Perceptron whose first layer is a bunch of linear threshold units). The original 1958 Rosenblatt perceptron was an ELM in that the first layer was randomly connected.

Second, the method: connecting the first layer randomly is just about the stupidest thing you could do. People have spent the almost 60 years since the Perceptron to come up with better schemes to non-linearly expand the dimension of an input vector so as to make the data more separable (many of which are documented in the 1974 edition of Duda & Hart). Let's just list a few: using families of basis functions such as polynomials, using "kernel methods" in which the basis functions (aka neurons) are centered on the training samples, using clustering or GMM to place the centers of the basis functions where the data is (something we used to call RBF networks), and using gradient descent to optimize the position of the basis functions (aka a 2-layer neural net trained with backprop).

Setting the layer-one weights randomly (if you do it in an appropriate way) can possibly be effective if the function you are trying to learn is very simple, and the amount of labelled data is small. The advantages are similar to that of an SVM (though to a lesser extent): the number of parameters that need to be trained supervised is small (since the first layer is fixed) and easily regularized (since they constitute a linear classifier). But then, why not use an SVM or an RBF net in the first place?

There may be a very narrow area of simple classification problems with small datasets where this kind of 2-layer net with random first layer may perform OK. But you will never see them beat records on complex tasks, such as ImageNet or speech recognition.
>>772226>>772234
sage #434 #772226
>>772201

> лекун


это жолтая женщина
патриархия обосралась вместе с росистами
>>772232
sage #435 #772230
а нет, это я обосрался и перепутал персонажей
идите нахуй?
>>772232
1644 Кб, Webm
#436 #772232
>>772226
>>772230
Наркоман, уходи
#437 #772234
>>772201
А как же результаты экспериментов на различных дата сетах, которые показывают, что ELM, по точности классификации сравнима с MLP и deep boltsman networks?
>>772238
#438 #772238
>>772234

>ELM, по точности классификации сравнима с MLP


Это местами и есть MLP: The original 1958 Rosenblatt perceptron was an ELM in that the first layer was randomly connected.
>>772255
#439 #772242
И да, тот жи ЛеКун где-то писал, что все что может сверточная сеть, может и MLP, только свободных параметров будет в разы больше, соотв-но и вычислительных ресурсов нужно намного больше.
#440 #772255
>>772238
Там BP нету
>>772258
#441 #772258
>>772255
И что? BP необязательный аттрибут MLP. Веса настраивать можно как угодно, хоть генетическим алгоритмом, не только обратным распространением.
#442 #772268
>>772014
Четко пояснил.
#443 #772282
>>772205
Что-бы детектировать тнн-пасту
Надо взять пасту на анализ, выделить ключевые слова, количество оскорблений
И из подобной статистики машина поймет, что это тнн-паста, на самом деле все куда сложнее и легче самому читать, чем это дело программировать.
sage #444 #772296
а может ли НЕЙРОНОЧКА Х, где Х = генерирование тнн паст?
>>772298
#445 #772298
>>772296
Может
>>772301
sage #446 #772301
>>772298
а если X = предсказать понравлюсь ли я тянке?
>>772303
#447 #772303
>>772301
Может
>>772307
sage #448 #772307
>>772303
а Х = ответить может ли НЕЙРОНОЧКА Y
где Y задаётся отдельно?
>>772313
#449 #772313
>>772307
Хочешь, чтобы нейронная сеть сама спрашивала и отвечала на вопрос, может она то или иное X?
>>772314>>772538
sage #450 #772314
>>772313
нет, я хочу автоматизировать отвечание на вопрос "может ли НЯРОНОЧКА Х"
она должна только отвечать
спрашивать её будет здешний контингент
#451 #772318
Намного интереснее - это идея сделать все механическим.
Может можно какую сеть в таком виде захуярить?
Ведь по сути в персептроне есть синапсы - ну, это просто операция умножения, блок суммирования - операция сложения и дальше просто взять и развести сигнал на встречу другим синапсам.

Надеюсь, я ничего не упустил? Механические калькуляторы уже были, если шестерни сделать очень маленькими, то оно и займет очень малые размеры.
Можно сделать что-нибудь, что будет самостоятельно калиброваться, например, или подстраиваться под какие-то условия.

Если бы она научилась считывать информацию с пленки механического фотика - то можно было бы вообще без электроники обходиться.
>>772320>>772335
#452 #772320
>>772318
А она вполне может, правда тебе придется крутить много барабанчиков с пленкой, можно кадр на пиксели разбить даже.
То-есть научиться распознавать цифры какие-нибудь она и так может.

А вот вам и корм для каких-нибудь шизанутых.
#453 #772335
>>772318
Как сделаешь настройку синаптических весов?
Все, конечно, можно реализовать через математическую функцию, но есть же ПК, нахуй оно надо?
>>772352
#454 #772352
>>772335
Также, как это делает и нейронная сеть.
Хм, что-ли взять такое аутирование себе и построить какой-нибудь дирижабль на механике или подобное чудо и сказать, что он разумный?
Мне же все любители стимпанка и прочей хуйни поклоняться станут.
Это же несколько простых операций - сначала обучить нормальную нейронную сеть, а потом перевести в механику.
Если ты прав насчет того, что через механический фотик можно сделать распознавание образов - так это же замечательно.
Представь, что можно научить дирижабль стрелять в один тип объекта.
Типа "видит" объект и стреляет в него.
Да это же будет первый механический, беспилотный бот с нейронной сетью.
Итого: сеть для управления дирижаблем и его двигателем, сеть для навигации, определение ветра и погоды, счет образа, баллистическая сеть для пушки.
Бля, ушел делать
#455 #772526
>>772022
Как, как? Там, бля, на выходе сети всё что угодно может быть. То, что на выходе могут быть числа в диапазоне от -1 до 1, не является никаким препятствием для обработки цифровых данных.
#456 #772533
>>772082
>>772082
MCMC, стохастические аппроксимации. Обычно об этом упоминают.
#457 #772538
>>772313
Лол, intrinsically motivated rl.
#458 #772693
Аноны, понял насчет перцептрона
Понял насчет многослойных сетей
Понял насчет обратного распространения ошибки
Мне уже можно изучать питон и брать библиотеку PyBrain? Она вообще нормальная?
>>772698
#459 #772698
>>772693
Брать NumPy и изобретать велосипеды. На мой взгляд, иного пути нет.
>>772700
#460 #772700
>>772698
Но ведь NumPy - не нейронные сети, а массивы.
>>772701
#461 #772701
>>772700
Тебе хватит на первое время для реализации своих mlp, автоэнкодеров, RBM и свёрточных нейронок.
>>772708
#462 #772708
>>772701
Но у меня же будут велосипеды всякие, а в функции по части матана я все равно вкурил плохо, у меня с логикой намного лучше.
Или идти перекуривать?
А, может ты и прав.
>>772715
#463 #772715
>>772708
Полезно научиться собирать велосипеды.
>>772717
#464 #772717
>>772715
Черт, не так я себе представлял создание нейронной сети.
Но ладно, главное ведь результат.
Пока единственное что вижу - это статья про 11 строк кода
>>772728
#465 #772726
>>770525
Потому что блядь в заголове мелькает CS сука слепая
#466 #772728
>>772717
СТОП
Подожди, то-есть, если написать что-то типа вот этого:
X = np.array([ [0,0,1],[0,1,1],[1,0,1],[1,1,1] ])
y = np.array([[0,1,1,0]]).T
syn0 = 2np.random.random((3,4)) - 1
syn1 = 2
np.random.random((4,1)) - 1
for j in xrange(60000):
l1 = 1/(1+np.exp(-(np.dot(X,syn0))))
l2 = 1/(1+np.exp(-(np.dot(l1,syn1))))
l2_delta = (y - l2)(l2(1-l2))
l1_delta = l2_delta.dot(syn1.T) (l1 (1-l1))
syn1 += l1.T.dot(l2_delta)
syn0 += X.T.dot(l1_delta)

То это и есть нейронная сеть? Блядь, а я ждал чего-то особого.
Вон, там выше в треде чувак про шагоходы рассказывал.
>>772838>>773014
sage #467 #772838
>>772728
НЕЙРОНОЧКА - массив
>>773011
#468 #773011
>>772838
Ее и писать вот так вот?
В виде массива?
#469 #773014
>>772728

> а я ждал чего-то особого.


Например?
>>773018
#470 #773018
>>773014
Ну не знаю, хотя бы не писать каждый нейрон отдельно.
Но ладно, раз так надо, то буду.
А всегда надо представлять нейрон в виде простого массива?
>>773073
sage #471 #773073
>>773018
можешь представить его в виде монады - одно и то же ведь
"веса" (параметры) разумеется представляются в виде распределиния вероятности, распределение считаешь по теореме бейса
для НЕЙРОНОЧЕК оно не будет задано аналитически - придётся аппроксимировать
советую найти пару-сотен максимумов апостеирорного распределения. хороший численный метод - метод нютона
твоя реализация бекпропа должна уметь считать как градиенты, так и гессианы
используя гессианы на максимумах делаеш лаплас аппроксимейшены
теперь из получившийся комбинации гауссовых распределений делаеш сэмплинг (никакого мсмс)
сэмплаешь каких 50-100 массивов параметров, вычеслешь значение НЕЙРОНОЧЕК с этими параметрами и берёшь среднее
>>773076>>773078
#472 #773076
>>773073
Итого, мне надо знать:
Python, библиотеку numpy
теорему байеса
Что такое аппроксимация
Апостериорное распределение
Метод Ньютона
градиенты, гессианы
ГАУССОВЫ РАСПРЕДЕЛЕНИЯ, БЛЯДЬ? ЭТО ЖЕ ВЫШ МАТАН.
>>773080>>773113
#473 #773078
>>773073
Вореции - сила, Лаплас - могила.
Ты, кстати, неявно подсказал мне, как решить мою проблему, ACOC должен подойти, спасибо.
#474 #773080
>>773076
Сука, да что тут за монстры сидят? Чтобы реализовать простую, значит, нейронную сеть - надо лезть в Гауссовы распределения, метод ньютона.
Ну охуеть теперь, я в депрессии.
#475 #773113
>>773076
Нахуя? Есть книжка про алгоритмы ML на пистоне http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6 читаешь, пробуешь, что непонятно - гуглишь, разбираешься. Ты не с той стороны в тему заходишь.
#476 #773115
>>773113
Спасибо.
Только придется ее полностью переводить, хотя оно и не важно, главное, что код понятен.
После этой книги я смогу писать простые персептроны, Som, да?
>>773120
#477 #773120
>>773115

>придется ее полностью переводить,


Зачем? Там английский уровня школы.

>После этой книги я смогу писать простые персептроны, Som, да?


Ну да, там все это разбирается на примерах. Весь код к книге тута http://stephenmonika.net/MLbook.html
#478 #773122
>>773120
А знания Питона на уровне книги "Укус Питона" мне хватит?
>>773130
sage #479 #773123
>>773120
харош его кормить
перекат делай
>>773126>>773130
#480 #773126
>>773123
Я не зеленый.
#481 #773130
>>773123

>перекат делай


Лол, я не оп.
>>773122
Хз, я больше по R угораю, хотя у местных школьников он не в моде. Касаемо нейроночек и т.п. там даже без доп. пакетов, чисто стандартными средствами ограниченную машину Больцмана делали в несколько строк кода http://www.r-bloggers.com/restricted-boltzmann-machines-in-r/
#482 #773133
>>773113
Черт, там же ни одного пира нету, как книгу получить?
>>773134
#483 #773134
>>773133
А все, скачал, где оп?
Пора перекатываться
#484 #773137
>>773120
По оглавлению пробежался, ничего в духе Som не нашел.
Но хуй с ним, сейчас перечитаю книгу по питону и пойду со словарем читать эту книгу.
>>773143
#485 #773143
>>773137

>ничего в духе Som не нашел.


Глава 14.3, стр. 291
>>773157
#486 #773157
>>773143
Ой, в глаза долблюсь.
#487 #773284
Как же хуево, что в 23 года я впервые заинтересовался ML, но без знаний проганья и матана можно только хуи сосать.
>>773310>>773319
#488 #773310
>>773284
Ну матан да, местами весьма хитрый. Но кодинг-то зачем? Почти все реализовано до тебя, для любых практических целей достаточно существующего софта.
>>773352
sage #489 #773319
>>773284
ну и хули? самый збс возраст что бы чем нибудь заняться таким вот
читай:
1. david mackay (RIP) - ITILA. 2, 3, 27, 28 чаптеры
2. лекции из летней школы МЛ, кембридж-едишн:
http://videolectures.net/mlss09uk_cambridge/
3. bishop - PRML. от корки до корки
это на 2-3 месяца
дальше сам поймёшь что интересует
и к 24 будешь норм шарить
>>773352
#490 #773352
>>773310
>>773319
Посоны, а есть ли толк от учебы по паре часов в будни и выходные? Работаю в сапе (лол) и свободен по вечерам.
И да, спасибо за ответы.
>>774240
sage #491 #773365

> имеет ли смысл учить Х если я хочу научиться Х

#492 #773385
>>773113
Короче, буду разбирать и переводить по 30 страниц в день.
Может, через 2 недели и закончу.
До этого срока в тред и не войду.

Это же хорошая книга, если я знаю только питона и хуево знаю матан?
>>773938
НЕЙРОНОЧКИ #4 #493 #773428
предлагаю шапку для переката:

НЕЙРОНОЧКИ 101:
1. Introduction to НЕЙРОНОЧКИ, Casella ( http://www-bcf.usc.edu/~gareth/ISL/ISLR Sixth Printing.pdf )
Читается легко, неплохая разминка перед ESL
2. НЕЙРОНОЧКИ and НЕЙРОНОЧКИ, Bishop.
3. НЕЙРОНОЧКИ for Hackers. Введение в НЕЙРОНОЧКИ, годно.
4. http://neuralnetworksanddeeplearning.com
Введение в НЕЙРОНОЧКИ для самых маленьких. Написано простым английским.
5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.

НЕЙРОНОЧКИ Advanced
1. Elements of НЕЙРОНОЧКИ (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.
2. Optimization for НЕЙРОНОЧКИ. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.
Иногда from НЕЙРОНОЧКИ.НЕЙРОНОЧКИ import НЕЙРОНОЧКA перестает работать и тогда нужно все переписать. Оптимизация НЕЙРОНОЧКИ на больших объемах данных, НЕЙРОНОЧКИ, НЕЙРОНОЧКИ - вот это все тут есть.
3. http://www.cs.nyu.edu/~mohri/mlbook/
Как ESH, только слегка по-проще. Попробуйте, может зайти.

Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.

F.A.Q
По мотивам предыдущего треда.
Эти ваши книжки стоят овер 9000 рублей, как быть?
http://libgen.io
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и НЕЙРОНОЧКИ, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут НЕЙРОНОЧКАМИ и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг НЕЙРОНОЧКИ, далеко не во всех IT компания есть необходимость в НЕЙРОНОЧКИ и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
НЕЙРОНОЧКИ-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Но ведь есть НЕЙРОНОЧКA per se, чем онa занимается?
Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и НЕЙРОНОЧКИ, но даже они двигаются рука об руку с практикой.
Что такое TensorFlow?
TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и НЕЙРОНОЧКA для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
НЕЙРОНОЧКИ #4 #493 #773428
предлагаю шапку для переката:

НЕЙРОНОЧКИ 101:
1. Introduction to НЕЙРОНОЧКИ, Casella ( http://www-bcf.usc.edu/~gareth/ISL/ISLR Sixth Printing.pdf )
Читается легко, неплохая разминка перед ESL
2. НЕЙРОНОЧКИ and НЕЙРОНОЧКИ, Bishop.
3. НЕЙРОНОЧКИ for Hackers. Введение в НЕЙРОНОЧКИ, годно.
4. http://neuralnetworksanddeeplearning.com
Введение в НЕЙРОНОЧКИ для самых маленьких. Написано простым английским.
5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.

НЕЙРОНОЧКИ Advanced
1. Elements of НЕЙРОНОЧКИ (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.
2. Optimization for НЕЙРОНОЧКИ. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.
Иногда from НЕЙРОНОЧКИ.НЕЙРОНОЧКИ import НЕЙРОНОЧКA перестает работать и тогда нужно все переписать. Оптимизация НЕЙРОНОЧКИ на больших объемах данных, НЕЙРОНОЧКИ, НЕЙРОНОЧКИ - вот это все тут есть.
3. http://www.cs.nyu.edu/~mohri/mlbook/
Как ESH, только слегка по-проще. Попробуйте, может зайти.

Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.

F.A.Q
По мотивам предыдущего треда.
Эти ваши книжки стоят овер 9000 рублей, как быть?
http://libgen.io
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и НЕЙРОНОЧКИ, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут НЕЙРОНОЧКАМИ и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг НЕЙРОНОЧКИ, далеко не во всех IT компания есть необходимость в НЕЙРОНОЧКИ и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
НЕЙРОНОЧКИ-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Но ведь есть НЕЙРОНОЧКA per se, чем онa занимается?
Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и НЕЙРОНОЧКИ, но даже они двигаются рука об руку с практикой.
Что такое TensorFlow?
TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и НЕЙРОНОЧКA для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
>>773430
#494 #773430
>>773428
Заебал, слово НЕЙРОНОЧКИ бесит и мозолит глаза.
>>773437
77 Кб, 600x565
sage #495 #773437
>>773430
НЕЙРОНОЧКИ
#496 #773938
>>773385
Мой план осуществляется аноны, восприимчивость к английскому тексту повысилась уже на 2-й день, правда, не сильно.
А покажите перспективы развития, что почитать после этой книги?
#497 #773975
Аноны, первый раз в жизни повезло
Моя идея с реккурентной сетью со сменной памятью оказалась удачной.
Ng сеть классифицирует информацию и подает нейронной сети сигнал о том, какую банку памяти юзать
Новая "группа" - новая банка памяти.
Но всего еще недостаточно, хочу, чтобы группы в растущей сети умели в иерархию, для того, чтобы искать информацию быстрее.
И это облегчит параллельные вычисления, как по мне.
>>774050
#498 #774050
>>773975
покажи что нибудь?
>>774054
#499 #774054
>>774050
нда
>>774064
#500 #774064
>>774054
а ты под спойлер засунь
>>774142
#501 #774142
>>774064
несколько тысяч строк кода?
>>774176
#502 #774176
>>774142
ты как стриптизёрша, возбуждаешь но не даёшь
надо тебя отшлёпать..
49 Кб, 1050x396
#503 #774203
Почему они клепают такие курсы, что их можно пройти за неделю с 97% баллом и в итоге ничего толком не уметь и не знать?
#504 #774214
>>774203
Чтобы денег заработать
#505 #774232
>>774203
с китаёзой всё время курсы советуют
значит правда говно
#506 #774240
>>773352
Почти все так и делают. Есть 1-2% элиты, которые учились в 57й матшколе а потом в каком-нибудь элитном вузе, но у остальных 98% детство проебано почти полностью и люди наверстывают как могут.

Алсо, ты по 8 часов прям работаешь? Если ты на работе будешь учебники по матану читать, кто-то заметит?
#507 #774588
Куда оп проебался? Кто тред перекатывать будет?
>>774682
#508 #774682
>>774588
ОП в лесу ягоды ест.
Перекачу сегодня вечером. Покидайте пока что в шапку добавить
>>775025>>775091
#509 #774807
Аноны, регрессия - это когда нам надо дать значения выходов y, имея значение входов x?
А что такое аппроксимация тогда?
>>774824
sage #510 #774824
>>774807
аппроксимация это когда __аппроксимируешь__
можно __апприксимировать__ апостериорное распределение параметров НЕЙРОНОЧКИ например
для __аппроксимации__ можно минимизировать расстояние кулльбака лейблера
это можно зделать неявно максимизируя нижнюю границу вероятности данных
забыл как это выводится, есть у бишопа в начале 10 чаптера всё разжёвано
после этого НЕЙРОНОЧКА может вычислять предсказания маргинализируясь над этим аппроксимирующим распределением, вместо поедания говна (предсказание по точечной оценке)
>>775072
#511 #775025
>>774682
Взять пример с крестоблядского тредика.
Сёрлодауны идут на хуй.
Рузке безматановые шадники идут на хуй.
#512 #775072
>>774824
Что аппроксимируешь? Что такое аппроксимация?
Что такое апостериорное распределение?
Что такое расстояние кулльбака лейблера
#513 #775091
>>774682
убери всё про 'computer science'
добавь больше яп: R, julia
#514 #775344
Аноны, что такое "Обобщение"generalisation у нейронной сети?
И правда ли, что когда сеть переобучается, что она теряет способность этого "обобщения" в сторону точных данных?
Или я неправильно нихуя перевел?
>>775374
#515 #775374
>>775344

> Аноны, что такое "Обобщение" у нейронной сети?


это когда подобрано удачное апостериорное распределение и у НЕЙРОНОЧКИ хоросё получается экстраполировать за пределы тренировочных данных

> И правда ли, что когда сеть переобучается, что она теряет способность этого "обобщения" в сторону точных данных?


переобучение произходит в основном при использовании точечной оценки параметров вместо всего распределения
оценка часто берётся с как можно большей плотностью вероятности в распределении
однако плотность алсо часто высока на очень ограниченной площади, основная масса вероятности может лежать далеко в регионах с меньшей плотностью
и тогда НЕЙРОНОЧКА обсирается
#517 #775383
Где сраный перекат?
>>775399
#519 #776071
походу опа сьел медведь и перекатываться придется самим ;з
>>776123
#520 #776123
>>776071
Тест ОП-а с форматированием:
http://termbin.com/qzfw
#522 #781892
Всем привет. Учиться по этому ресурсу норм?

http://deeplearning.net/
#523 #785485
>>770400
Хайкин в переводе
#524 #785490
>>774203
курс хорошо дает основы за неделю. Это же вообще отлично.
Тред утонул или удален.
Это копия, сохраненная 10 июля 2016 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски