Этого треда уже нет.
Это копия, сохраненная 27 августа 2017 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ & МАШОБЧИК #15 sage #1004751 В конец треда | Веб
Ошибка постинга: В сообщении присутствует слово из спам листа
да и пора уж новую шапку запилить

книги
А. Пегат, "Нечёткое моделирование и управление"

другое
https://www.deeplearningbook.org/
https://www.youtube.com/watch?v=mbyG85GZ0PI&list=PLD63A284B7615313A не индус а ебиптянин

яп
конец списка

Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Тред #8: https://arhivach.org/thread/209934/
Тред #9: https://arhivach.org/thread/223216/
Тред #10: https://arhivach.org/thread/234497/
Тред #11: https://arhivach.org/thread/240332/
Тред #12: https://arhivach.org/thread/246273/
Тред #13: https://arhivach.org/thread/256401/
Тред #14: http://arhivach.org/thread/257951/
17 Кб, 469x480
#2 #1004781
Что'то слесаря совсем деградировали, не могут осилить не только алгоритмы, которыми пытаются что'то сделать, но и либы, реализующие эти алгоритмы. Господа, вам не стыдно задавать вопросы как в конце предыдущего треда? Мне такое даже читать стыдно, если честно. Какой вам машоб, если вы гугл и пару страничек документации одолеть не можете? Пиздец с какими деградантами сижу...
63 Кб, 499x463
#3 #1004790
>>1004781
У господ каникулы: некогда
#4 #1004802
Как в матлабе сделать такую трансформацию:
прохожу по изображению окном 3x3 пикселя, и записываю вектор из этих 3 пикселей?
Был для RGB изображения массив:
1) ширина-высота-3
Должен стать массив:
2) ширина-высота-9
575 Кб, 390x281
#5 #1004804
Напомню неприятный вопрос из прошлого треда. Тут принято хейтить R, ок. Возьмем такую тему как natural language processing. Покажите мне на пистоне или где угодно функционал уровня https://cran.r-project.org/web/packages/LSAfun/index.html особенно интересует функция MultipleChoice().
#6 #1004808
>>1004804

>Возьмем такую тему как natural language processing


Работник Янжекса не палится.
37 Кб, 547x411
#7 #1004856
Нет вы послушайте. Решил я угореть по всякому семантическому анализу текстов. Ну, думаю, уж на пистоне этого добра навалом, раз он такой распиаренный. А там и нет нихуя кроме word2vec, tfxidf и прочего примитива. Как же так? Хотелось бы оправданий. Тем более, что на R полно всего по этой теме. LSA, LDA, topicmodels итд. Книги по анализу текста в пистоне просто смешно читать, это для начальной школки учебники?
>>1004808
Причём яндекс?
#8 #1004892
>>1004856
для питона есть nltk и gensim, никто не призывает читать книги про анализ текстов на питоне, к тому же такие книги в основном о питоне, а не о анализе текстов.
#9 #1004906
>>1004892

> и gensim,


Уже интереснее, но не то. Короче, нет на пистоне нормальных тулз для анализа текстов. Это печально.
#10 #1004930
LSTM достаточно точно описывает нейрон? Именно на них можно будет построить ИИ ? Какой сейчас предел в количестве моделирования? Какие модели применяются для переводчиков? Если наращивать количество нейронов, перевод будет точнее?
#11 #1004946
>>1004930

> LSTM достаточно точно описывает нейрон?


Достаточно для чего? Нет, искусственные нейроны это математические модели, которые основаны на биологических, но их задача быть эффективными, а не похожими. Близкие к настоящему нейрону модели могут быть использованы в специализирующихся на этом проектах, вроде Blue Brain, но на практике у них нет применения, или оно не обосновано.

> Именно на них можно будет построить ИИ ?


Нет.

> Какой сейчас предел в количестве моделирования?


Что есть количество моделирования? На полный мозг, например, человеков пока не хватило.

> Если наращивать количество нейронов, перевод будет точнее?


Увеличение размера и количества слоев имеет свои пределы полезности, масштабирование это не решение, нужно подбирать архитектуру.

Проблема не с тем чтобы была больше мощща, а с тем что используются подходы 70-80х. Математике нужно догнать развитие железа.
#12 #1004955
>>1004946

>Достаточно для чего? Нет, искусственные нейроны это математические модели, которые основаны на биологических, но их задача быть эффективными, а не похожими. Близкие к настоящему нейрону модели могут быть использованы в специализирующихся на этом проектах, вроде Blue Brain, но на практике у них нет применения, или оно не обосновано.


Это че, моделировали, моделировали, а на практике так и нет применения? Мда.
#13 #1004958
>>1004955
Практика это машинное обучение, датаслесарство - дана предметная область и в ней надо решать задачи как можно более простыми методами. Пока не появился ИИ, его моделирование следует относить к теории.
#14 #1004962
>>1004958
на сколько я понял, то в настоящем нейроне вероятность передачи по одному из каналов, а в искусственном - вес связи.
303 Кб, 1600x1200
#15 #1004964
>>1004946

> Проблема не с тем чтобы была больше мощща, а с тем что используются подходы 70-80х. Математике нужно догнать развитие железа.


В области машоба все равно лучше теории статистического обучения Вапника небыло и скорее всего не будет ничего. Саму задачу обучения не получится поставить шире и точнее. Но большинству похуй же, пока подход уровня 'нахуярим побольше слоев' дает результаты лучше, чем более умные алгоритмы.
sage #16 #1004971
>>1004964
что за ушастый чёрт?
есть с ним порево?
#17 #1004975
>>1004962
Настоящий нейрон это сложная система физических и химических процессов. Воссоздавать сам по себе нейрон на базе железа нет смысла, пока не изучена работа всего мозга - мы не можем собрать всю сеть, а сам нейрон без нее... просто не для задач машинного обучения.
>>1004964
Этот подход рано или поздно себя исчерпает. Вообще, забавно будет наблюдать картину в программировании лет через 10, когда в вебе останется только 3.5 соцсети с широким функционалом, а автоматизация вытеснит остальных макак из профессии.
#18 #1004977
>>1004971

> что за ушастый чёрт?


> есть с ним порево?


У мамки своей спроси, наверняка есть, он ее регулярно поебывает.
#19 #1004980
>>1004975
но есть куча инструментов изучать отдельные нейроны, можно же делать модели и сравнивать с поведением отдельных групп нейронов.
#20 #1004988
>>1004980
Это например каким инструментом можно изучить отдельный нейрон?
sage #21 #1004989
>>1004977

> это девственное лысое пузатое ушастое чмо


> поёбывает


маня плёс
#22 #1004993
>>1004988
как-то же изучили, чтоб простейшие модели построить.
#23 #1004994
>>1004993
Построили. Не изучили.
#24 #1005080
Поясните за либы машоба для хаскеля, пожалуйста.
#25 #1005096
>>1004980
Этим занимается computational neurosciene. Но пытаться на этом сделать машоб - это (как по-моему Ле Кун говорил) все равно, что пытаться сделать самолет на с помощью махания крыльями. Нейроны сложные, при чем довольно сильно и избыточно.
#26 #1005107
>>1005096
Сколько их видов?
#27 #1005133
>>1005107
Видов нейронов? Дохуя. А тебе зачем?
#28 #1005136
>>1005133
Понять основные отличия в их функциях и хотя бы прикинуть приблизительные модели. Понять на сколько полна существующая модель нейрона и возможна ли замена одного натурального нейрона несколькими искусственными.
#29 #1005154
Нейроны изучать таки можно. Микроэлектроды никто не отменял.
#30 #1005158
>>1005136
Можешь посмотреть вот этот курс - https://www.coursera.org/learn/computational-neuroscience
Начинается с описания работы биологических нейронов, далее рассказывается про то, как наблюдения за группами нейронов превратились в первые мат. модели, после чего описание мат. моделей перерастает в описание backprop.

TL;DR биологический нейрон несоизмеримо сложнее того, что называется нейроном в машобе. Описанию первого даже на базовом уровне посвящены книги, а о последнем можно рассказать в двух предложениях.
#31 #1005160
>>1005158

>Описанию первого даже на базовом уровне посвящены книги


Важны каналы передачи сигналов и как они обрабатываются и передаются далее же. Хотелось бы примеров в двух словах для начала.
#32 #1005170
>>1005160
Калий-натриевые насосы (и др. механизмы) на поверхности нейрона поддерживают высокую концентрацию ионов натрия, кальция и хлора снаружи, и высокую концентрацию ионов калия внутри нейрона. Нейромедиаторы, улавливаемые дендритами, провоцируют вливание ионов из межклеточной жидкости внутрь клетки, изменяя таким образом мембранный понетциал. Когда мембранный потенциал доходит до определенной отметки, клетка возбуждается и в ней начинается сложный процесс входа и выхода ионов, который сопровождается ионным током по аксону. Аксон покрыт миелиновой оболочкой, которая предотвращает потерю заряда, а миелиновая оболочка разделена на сегменты перехватами Ранвье, в которых ионный ток дополнительно усиливается. Доходя до конца аксона, ионный ток высвобождает нейромедиаторы, а клетка переходит на некоторое время в период восстановления. Эффект от высвобожденных нейромедиаторов определяется синаптической пластичностью.

Синаптическая пластичность - это основа для памяти и одновременно крайне сложный механизм, который зависит от синхронизации спайков и ионных эффектов, описанных выше в этом посте. Поэтому сделать и просто, и очень похоже на биологический нейрон на сегодняшний день не выйдет. Нейросаенс это не машинное обучение. Нейросаенс это биофизика, а машинное обучение это, если хочешь, модное название для статистики.

Пожалуй, с точки зрения создания ИИ мы ближе к чему-то совершенно отличному от человеческого мозга. Точно так же, как воздушный шар не похож на птицу.
#33 #1005174
>>1005170
Вебкамера на глаз тоже не очень. Но мне кажется такая сложность в функционале только из-за процессов эволюции, а суть процесса не сильно и сложна, и все таки все можно упростить.
#34 #1005178
>>1005170
так а в чем их разновидность?
Аноним #35 #1005204
>>1004964
Таки в последнее время байесовские методы в сочетании в дип лернингом показывают очень крутые результаты -- и теоретические, и практические
#36 #1005209
>>1005204
Сейчас диплернинг курильщика. Диплернинг здорового человека это глубокие стеки из SVM и глубокий бустинг. Пока в зачаточном состоянии, но в перспективе порвут эту хуйню с мильенами слоев.
#37 #1005216
>>1005209

>Пока


>в перспективе


ВСЁ БУДЕТ
ВСЕМ ВСЁ ПЛАТИТСЯ
#38 #1005386
Как вы стали умными и стали обсуждать такие серьезные вещи? Не ужели хватило просто около десятка книг? Или таки профильное образование и сопутствующее? Реально ли быть громким, эм, исследователем, но при этом самоучкой?
#39 #1005390
>>1005386
Исследователем - нет, изобретателем - да.
#40 #1005399
>>1005386
Техническое образование (высшая математика), тысячи часов программирования, пара курсов на курсере и несколько книг.
#41 #1005409
>>1004906
в генсим есть lda и lsi (хотя они и не шибко продвинутые), есть и отдельная библиотека для lda
#42 #1005446
>>1005386
Кто тут умный-то? Полтора ебалая. Все темы, что тут обкашливаются - это любая книшка в тему + общее представление о матанализе, теорвере и линейной алгебре.

>Реально ли быть громким, эм, исследователем, но при этом самоучкой?


Сложно сказать. Если реально угореть по этой теме и не пожалеть времени и сил, то да.
#43 #1006023
Можно сделоть нейросеть, которая будет генерировать математические задачи (и ответы на них), расписывать поэтапно и некие подсказки чуть-чуть к мелким этапам? Ну, и как такое бы делалось?
#44 #1006036
>>1006023
Можно, но зачем именно сетью? Родина дала тебе марковские цепи, генетические алгоритмы и прочее счастье для получения новых текстов из датасета. Решения вообще проще выводить аналитически.
#45 #1006044
>>1006036
https://2ch.hk/sci/res/403016.html (М) да в общем, я хотел что-то такое сделать, но автоматизировать чуток хотя бы.
210 Кб, 970x377
#46 #1006604
На чем учите, котики? Хочу собрать стойку бюджетных видеокарт помайнить белки, может есть какие-то готовые велосипеды?
#47 #1006743
Поясните про AutoML. Что это даёт в плане возможностей? В инете инфа что будто бы нейросеть сама будет обучаться, а насколько я понимаю - собирают все нейросети в некий набор, и проверяют какая нейросеть из этого набора лучше справляется с возникшей задачей, то есть под принципиально новую задачу надо будет писать новую нейросеть.

Можеть быть я неправильно понимаю?
#48 #1006745
>>1004751 (OP)
Почему составители книг по нейронным сетям и статическому обучению аутисты?
У Мерфи прямо в начале поясняется за MAP, хотя оно нахуй не нужно там, а только потом поясняется за Теорию Вероятности, причем так, что ты не поймешь, придется гуглить, пояснений о том, как работает формула нет.
Автору Machine Learning: Probabilistic Perspective хочется пожелать рака прямой кишки за объяснение теории вероятности с помощью сложнейшего примера.
Можно было использовать простой пример, но лучше выдать сложный, а потом написать:
"Ой, вы что-то не поняли? А гляньте в учебник по теории вероятности, нахуй мы это написали, если вы изначально могли заглянуть туда? Ну хз)))"
#49 #1006747
>>1006745

>статистическому обучению


Хуйню написал, статистике.
#50 #1006749
>>1006745

>Probabilistic


Спутал, an algorithmic perspective
Caffe #52 #1006760
Какая разница между Caffe и Caffe2? Хочу оформить CNN под лицепонимание. Но по сути никаких diff статей не нашел про эти два продукта. Алсо может кто-то с барского плеча подскажет толковую уже либу под с++ (тензор тушится по памяти, судя по всему у них там мемлики есть(!sic))
#53 #1006776
Пацаны, очень важно обучить линейный классификатор в tensorflow, бинарная классификация
на этапе обучения вот такая ошибка
UnimplementedError (see above for traceback): Cast string to float is not supported
[[Node: linear/linear/ToFloat_4 = Cast[DstT=DT_FLOAT, SrcT=DT_STRING, _device="/job:localhost/replica:0/task:0/cpu:0"](SparseTensor_6/values)]]

Все категориальные признаки переписаны в тензоры, все вещественные во float64, две метки классов во float64
#54 #1006905
>>1006760

>Какая разница между Caffe и Caffe2?


было кривое говно аутиста, стало еще хуже
#55 #1006994
Сделойти свой учебник.
#56 #1006997
>>1006994
Двачую.
#57 #1007047
>>1006994
Тебе не хватает Бишопа?
773 Кб, 1212x388
sage #58 #1007066
>>1006994
давай
вот обложка
503 Кб, 944x1195
sage #59 #1007068
>>1006994
вот ревьюшка/FAQ матеши
178 Кб, 569x281
#60 #1007100
>>1007068
А это что такое? Нечеткое множество штоле? Пиздец вы клоуны, лол.
#61 #1007234
#62 #1007242
Каким образом Теорема Байеса подгоняется под задачу классификации? Знаю про существование наивного Байесового классификатора.
А еще есть методы?
#63 #1007445
>>1006994
>>1007066
>>1007068
Если бы правда всем тредиком запилить учебник, Slesar's Guide to Machine Learning, SGML. Кратенько так, по всем основным направлениям. Без всякой матчасти, общие принципы, примеры, ссылки на профильные пейперы, книжки, туторы и т.п. Чтобы любому школьнику было понятно.
#64 #1007585
Сап, анончики!
Проблемный ньюфач вкатывается в тред, вопрос такой, буду писать диплом на очень интересную тему, которая звучит как "Оценка ценности информации при геологоразведочный работах на основе баесовых сетей". Про баесову теорию в курсе, возможно, даже смогу ее применить, вопрос лишь в том, что я не шарю в программировании. В описании темы указано, что понадобится знание R и матлаба.
Вопрос вот в чем, с чего начать изучение этих пакетов и стоит ли вообще, может есть варианты получше? Вопрос еще в сроках, так как на всю работу примерно полтора месяца.
#65 #1007753
>>1007585
нейронныесети.рф
#66 #1007762
>>1004751 (OP)
Антоши, а какую ось лучше юзать? Я так понимаю, что линукс? Но он у меня криво на ноутбук встает.
#67 #1007765
>>1007585
https://cran.r-project.org/web/views/Bayesian.html что касается R, по этой ссылке есть даже больше, чем нужно. Находишь подзодящий пакет из обзора, читаешь документацию к нему, разбираешь примеры, применяешь к своей домашке.
#68 #1007766
>>1007762
Смотря для чего. Если нужен пистон, то однозначно глинукс, в винде заебешься + все примеры и уроки для глинукса. Бубунта оптимальна. Ее можно и на винду поставить как приложение.
#69 #1007837
Есть где спиздить краткое общее описание нейронок на научном языке? Да, для ебучего отчета по вузовскому проекту
#70 #1007842
>>1007837
Иди сапоги защищай, какой из тебя специалист, если ты домашку нагуглить не можешь?
#71 #1007845
>>1007842
Везде или введения для чайников, или пейперы на 50 страниц на английском. Нужно что-то среднее.
#72 #1007889
>>1007766
Я сейчас с cuda разбираюсь, мне бы мейкфайлы написать, а вот хуй
#73 #1007974
>>1007889
Какой make в 2017, юзай cmake, а CMakeLists.txt для куда это три строчки https://codeyarns.com/2013/09/13/how-to-build-cuda-programs-using-cmake/
Аноним #74 #1008042
>>1007845
Введения для чайников на русском языке сразу выкинь на мороз, там обычно пишут такую хуиту, что страшно становится.

Вообще забудь про научно-техническую литературу по теме на русском языке, считай что нет ее.
Вот тут есть охуенное введение в нейроночки для зрения http://cs231n.github.io
Что-то проще ты вряд-ли найдешь
#75 #1008094
Сап, посоны, я в вашем треде не сижу, но принес вам ободряющие новости. Да, нейроночки сейчас в цене, но специалистов, как я понимаб, в конторы набирают в маленьком количестве. Вот в нашем модном стартапе в дс, где я херачу разрабом баз данных, сейчас берут одного 30лвл чувака как раз для нейроночки, платят ему 300к в месяц. Чел этот еще говорит, что все это изи, и он вообще не понимает, почему все это не изучают, тип

>изи жи))))


так что старайтесь, учитесь, все у вас будет збс.
Аноним #76 #1008102
>>1008094
Не телепорт случаем?
#77 #1008105
Блять как мне хочется выпилиться от осознания того, что когда я доучусь выкатиться будет нереально. Узнал бы я об этом хоть года на три раньше.
#78 #1008121
>>1008105

Если ты проиграл по жизни, тебе всегда все не то будет, время или фаза луны.
#79 #1008124
>>1008105
Надо видимо математику учить дабы было актуально. Хотя и математиков в скором будущем автоматизируют.
#80 #1008131
>>1008105
С чего вдруг нереально будет вкатиться?
#81 #1008133
>>1008131
Будут метаметанейроночки, наверное.

другой
#82 #1008136
>>1008133

> метаметанейроночки


Это еще что такое?
#83 #1008146
>>1008136
Как метанейроночки, но уже метамета.
#84 #1008148
>>1008136
Метанейроночки под метамфетамином
#86 #1008324
>>1006994
Нахуя? Максимум можно взять другой учебник и адаптировать его под рашкинские реалии.
#87 #1008437
>>1008324
А какие реалии?
#88 #1008495
>>1008131
Рыночек порешает.
#89 #1008625
>>1008437
Чтобы русским объяснения были понятны.
Эх, занялся бы таким, но оно никому не нужно.
#90 #1008770
>>1008625
Русские это которые не смогли в математику?
#91 #1008825
Кто знает на сколько большой плюс даёт шад при устройстве на работу?
#92 #1008862
Заебался вручную писать нейросети. Понял, что нужно писать на питоне, но какую либу использовать и какие книги читать?
#93 #1008881
>>1008862

> вручную писать нейросети


Даже если в это можно поверить, зачем писать что-то сложнее AND с нуля?

> писать на питоне


На питоне обучаться будет значительно дольше, плюсы все еще рулят. Но что-то простое можно начать и на питоне + керас.

> какие книги читать


Читай документацию по либам, школьник.
И да, следи за речью, тут приличные люди сидят.
#94 #1008917
Аноны, вот обучил я нейронку в каком-либо из фреймворков. Как мне делать к ней коллы из моего приложения на c++?
Coursera - Yandex -МФТИ я #95 #1008939
гайз, у яндекса на курсере несколько лет назад выше короткий курс по маш обу, а потом запилили и специализацию из нескольких курсов. Годнота или не?

Норм, чтобы посмотреть вообще что есть машоб и надо ли оно мне?
мимопроходил .net developer, которому надоел crud ежедненво
#96 #1009134
Что за tensor2tensor вышел?
#97 #1009359
Сап программач. Подскажите какой размер(слои, структура) сети имеют в практических задачах. Керас попинал, хочу что-нибудь полезное запилить.
#98 #1009539
>>1008939
Ой нахуй оно тебе надо, все наоборот валят из машиноба в тырпрайз, я вот был недавно на курсах дядьки-профессора-пхд по АИ, который свалил из АИ и перекатился в spring давать лекции про фреймворк. Вот где деньги крутятся реальные, а не ссаный АИ.
#99 #1009541
>>1009539
Дядька просто слишком тупой, чтобы продавать за миллионы свой стартап гуглу. Макаки должны страдать изучая новые конструкторы от других макак.
#100 #1009543
>>1009541
А ты чё, такой гений? А ну-ка давай выкладывай ссылку на свой супер-пупер стартапчик?
#101 #1009545
>>1009543
А я уже продала ^_^
#102 #1009572
Митовские лекции по мошинному разуму (ссылка: https://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-034-artificial-intelligence-fall-2010/lecture-videos/) кто-нибудь смотрел? Годнота? Почему зог удалил 20 лекцию?
#103 #1009597
>>1009572
Как-то всё усложнено, а я к тому же бы не выдержал слушать такие черно-белые (хоть бы цветные мелки завезли, не говорю уже о презентациях) лекции, тем более на английском. Разве что, транскрипции читать.
#104 #1009600
>>1009597

> усложнено


> черно-белые


> на английском


Продолжай делать сайты.
#105 #1009636
>>1009597
Хз, мне наоборот лекции гораздо проще слушать, в книги надо вчитыватся и там как правило намного больше плотность информации. Поэтому я обычно сначала смотрю курс лекций, получаю общую картину, а потом уже читаю книгосы, перехожу к практике. Про черно-белые однако посмешил, может еще если лекция не в fullHD или 4k тоже не смотришь?
#106 #1010003
>>1008825
думаю, огромный, хотя бы потому, что если поступишь, то, значит, что голова на плечах есть
#107 #1010004
>>1008881

>На питоне обучаться будет значительно дольше, >плюсы все еще рулят. Но что-то простое можно >начать и на питоне + керас.


питон - это просто оболочка для библиотек на плюсах
#108 #1010006
>>1009134
не читал, наверное, очередной хайп, который забудут через неделю
#109 #1010303
Господа, почему в тредах не обсуждался Ватсон от IBM https://www.ibm.com/watson/
Неужели никому ITT не интересна эта платформа?
#110 #1010314
>>1010303
Начнем с того, что сие платная параша. Потом, абсолютно неясно чем оно лучше облачной платформы от Сирожи. Гугл так'то посерьезнее контора в этом плане. Что'то я не слышал про решения от айбием уровня слесарьфлоу.
#111 #1010443
Гамильтонов цикл нейронка может найти?
sage #112 #1010446
>>1010443
нейроночка может всё что может твой мозг
твой мозг может всё что может массив чисел
массив чисел может вообще всё
#113 #1010474
А как используют нейросети уже обученные и готовые для работы? Берут вектор данных какой-то и умножают его на загруженную матрицу с числами?
#114 #1010477
>>1010474
import caffe
#115 #1010594
Поясните за ковариационную матрицу.
А то по формуле
E[(x1 − µ1)(x1 − µ1)] E[(x1 − µ1)(x2 − µ2)]
Не очень понятно. И как, например, рассчитать подобную матрицу для двух наборов данных, у которых не равное количество элементов?
#116 #1010600
Писал нейронки на keras + theano. Задачи стали сложнее, считать надо быстрее, при этом желательно не пользоваться гуглоподелками, облаками и проприетарщиной. Ощутим ли прирост скорости, если перекатиться на плюсы? На R? Какие библиотеки пользовать?
132 Кб, 719x796
#117 #1010639
>>1010594

>Поясните за ковариационную матрицу.


Это матрица для выборки (1 набора данных). Ты считаешь средний вектор и эту матрицу. Имея эти два числа ты можешь посчитать нормальное распределение векторов в выборке.

Если у тебя 2 набора данных (2 выборки), то соотвественно и матриц, средних векторов у тебя будет 2.
45 Кб, 1020x506
#118 #1010646
>>1010639
А если у меня 3 выборки, например? Или если выборка не укладывается в квадратную матрицу, то нельзя?
Для такой вот матрицы все посчитать легко, а вот в том, как считать в подобных примерах, как на пике, я путаюсь.
На этом пике мы вычисляем для S13
А как вычислить для S12? Или для S11?
Покажите, как изменится формула.
#119 #1010652
>>1010646

>выборка не укладывается в квадратную матрицу


Выборка это множество (ну или если хочешь лист или вектор-столбец или вектор-строка -- просто набор векторов). Ща замучу тебе пример.

Лучше напиши в чем у тебя задача. Из картинки не очень понятно.
#120 #1010661
>>1010652
Да я пытаюсь понять, как ковариационную матрицу вычислять ручками.
А то в учебнике вообще непонятно, да и автор видимо забыл указать про деление на среднее, либо вообще не посчитал нужным.

На картинке показан пример вычисления ковариационной матрицы, вот ссылка https://math.stackexchange.com/questions/2316185/example-of-a-covariance-matrix
16 Кб, 788x829
#121 #1010662
У тебя есть вектора (в данном случае черные точки). Считаешь среднее значение -- получаешь красную точку. Матрица ковариации описывает эллипсоид внутри которого лежат твои вектора. Подробности про эллипсоид тут:
https://mathematica.stackexchange.com/a/81128

Для векторов более высоких размерностей все тоже самое (средний вектор и сфероид и т.д.).
#122 #1010664
>>1010662
Чувак, ну это слишком сложно.
Я то не могу сообразить, как формулой воспользоваться, а ты мне даешь пример, из которого мне вообще ничего непонятно.
49 Кб, 631x1033
#123 #1010676
>>1010661

>как ковариационную матрицу вычислять ручками.


Смотри пикрил.
#124 #1010681
Слесари, как насчет http://autumnai.com/
Пробовал кто?
12 Кб, 433x399
#125 #1010682
>>1010661

>пример вычисления ковариационной матрицы, вот ссылка


Посчитал для векторов по твоей ссылке.
#126 #1010688
Алсо. Матлаб, например, не вычитает единицу в знаменателе и поэтому считает не выборочную ковариационную матрицу, а популяционную. На этом отличия заканчиваются.
#127 #1010689
>>1010688
Хотя нет. Он что-то другое делает. Я уже сам запутался.
#128 #1010705
>>1010688
Ошибся с вводом чисел. Все тоже самое он считает.
#129 #1010765
>>1010705
>>1010689
>>1010688
>>1010682
Все, я таки понял, ориентируясь на свой пример.
Так, чтобы вычислить 1 значение в x1 формула такая:
((2−3)(2−3)+(3−3)(3−3)+(4−3)(4−3))/3-1
Чтобы вычислить 2 значение в x1 формула такая:
((2-3)(5-4.666667)+(3-3)(8-4.666667)+(4-3)(1-4.666667))/3-1
А для x2 мы просто возьмем 2-й столбец и для 3-его по аналогии.
Спасибо, анон.
#130 #1010819
Как так случилось, что связи между нейронами стали дробными?
#131 #1010888
ИИ - прошлый век. Совсем другое дело - Распределённый планетарный СверхИнтеллект!
#132 #1010902
>>1010888
Ну и в чем разница?
#133 #1010906
>>1010888

>Когда в теме совершенно не шаришь, но так хочется кукарекнуть что-нибудь типа умное

#134 #1010922
>>1010906
Типа умное кукарекнуть? да я просто так кукарекнул, тему поддержать, не дать умереть ИИ в очередной раз, как уже было в прошлом веке итд
До сих пор для ИИ нет дешёвого железа даже и появится оно лет через 20 только.
#135 #1010933
Что можно хорошего почитать по Гауссовому распределению? А то не удается найти понятного обучающего материала
#136 #1010943
>>1010933
Google, поиск картинок, bell curve
#137 #1010975
>>1010943
Да я понял, что оно в форме колокола.
А как считать? Для чего оно применяется? Что такое x в формуле?
#138 #1010983
>>1010975

>А как считать?


Можешь погонять случайную величину по шахматной доске, только случайно не сожри слишком много печенья, сахар в таких количествах для здоровья вреден, http://www.exler.ru

>Для чего оно применяется?


У вас на военной кафедре должна быть такая задача, и ещё Гугл знает какую-то хрень под названием probability matrix — я не копал глубоко.
#139 #1010989
>>1010888
Так второе включается в первое. Вон достигли максимума в pacman'е недавно с помощью коллективного ИИ. Или ты о использовании человеческого? Тогда хуита.
#140 #1010994
>>1008825
Почти гарантировано тебя позовут поговорить. Знаю по собственному опыту.
#141 #1011038
>>1010922

>До сих пор для ИИ нет дешёвого железа даже и появится оно лет через 20 только.


Ты неправ.
Написал ИИ на оптических нечетких вычислителях, но пока очкую выкатывать миру, слишком нестабильно все.
#142 #1011044
научите в ИИ на Питоне за 5 минут плиз
#143 #1011052
>>1011044
import tensorflow as tf же
#144 #1011061
>>1004751 (OP)
Почему deep learning это symbolic compuations, а не machine learning?
#145 #1011074
>>1011052
и дальше что?
#146 #1011093
>>1011061
Deep learning находит фичи в графических изображениях, графах структур молекул и подобное, а классический машобчик работает с числовыми значениями.
#147 #1011106
>>1011093
а машобчик это что? math чего-то там?
объекты?
#148 #1011112
ок, дошло, машобчик - машинное обучение, но зачем так дерьмово называть МО?
#149 #1011120
>>1011074
Ну и все, теперь можешь добавлять в резюме: strong skills in linear algebra, differential geometry, machine learning, NEURAL NETWORKS, deep learning, python coding, concurrent algoritms, GPU computations, dataflow programming
Кирилл, 16 лет
#150 #1011129
Что такое плотность вероятности? О чем она говорит вообще?
#151 #1011170
>>1011112
Какое направление, такое и название.
#152 #1011178
Сап, программеры.
Кто-нибудь работал с пакетом neuron и с его встроенным языком hoc?
Я сейчас вкатываюсь в это дело и мне сложно не фейспалмить от его кривизны и неповоротливости.
#153 #1011180
>>1011178
А... зачем?
#154 #1011186
>>1011180
так_надо.
На самом деле, в этом пакете уже есть всё необходимое для симуляции спайковой НС вплоть до уровня напряжений на синапсах - именно то, что мне сейчас надо. Писать собственные велосипеды не хотелось бы, да и не окупится это дело по затратам времени.

С другой стороны, постижение этого языка идёт крайне медленно, в первую очередь оттого, что я большую часть времени фейспалмлю от языковых решений. И вот думаю - может быть, это не язык кривой, а я туплю? Поэтому и хочу спросить у других, может, кто имел с этим дело.
#155 #1011265
>>1011129
Скорость изменения вероятности при изменении величины.
#156 #1011523
Где я могу задавать свои вопросы о машинном обучении на английском? Желательно, чтобы мне еще и отвечали по теме и совсем хорошо, если без регистрации.
#157 #1011524
Ох лол, новый день - новый бугуpт.
Автоp учебника Machine Learning: An Algorithmic Perspective
Показывает формулу Гауссова распределения, но не говорит о том, что эта формула для непрерывной переменной и позволяет получить pаспpеделение веpоятностей.
И почему он говоpит о ноpмальном pаспpеделении, но игноpиpует распределение Пуассона? Оно что, не нужно?
Ненавижу его, как можно писать настолько на отъебись?
#158 #1011538
>>1011523
https://www.reddit.com/r/MachineLearning/ возможно. Регистрация на реддите атмта, даже подтверждение электронной почты не надо.
#159 #1011550
>>1011538
Не совсем, ему нужен:
https://www.reddit.com/r/learnmachinelearning/

Твой сабреддит для обсуждения новостей и проектов.
#160 #1011582
>>1011120
У Вас есть друг Кирилл и вы тайно желаете у него отсосать.

Ваш Психолог
#161 #1011698
>>1011524
Просто ты неосилятор. Не стоит сюда лезть, если у тебя нет минимальной математической культуры.
#162 #1011714
>>1011698
Да есть она, просто пояснения в книге на уровне "А вот это вот важное Гауссово распределение," и больше ничего толком не сказано.
А если бы я знал это заранее, то мне бы книга нафиг не была нужна. Обьяснить можно все с помощью аналогий и примеров.
#163 #1011717
>>1011714
Хотя у Меpфи все хоpошо написано
#164 #1011729
>>1011698
Тут математика не нужна, машобчик даже проще делать чем сайты.
#165 #1011731
>>1011729
Проще только если считать по количеству строк кода.
#166 #1011753
Котаны, кто-нибудь тут вкатывался на инженерные работы в ML-ориентированные компании (тот же DeepMind)? Что требуется от программиста в таких конторах? Серьезно, пожалуйста.
#167 #1011755
>>1011582
Вы не тайно несете какую-то чушь

Ваша нейросеть
30 Кб, 300x400
#168 #1011756
>>1011717
Что за мерфи? Я знаю только одного. Который синий.
11 Кб, 300x250
#169 #1011757
>>1011756

> Я знаю только одного.


Пикрил.
Machine Learning: A Probabilistic Perspective, Murphy
#170 #1011857
>>1011729
сайты проще, просто ты сам неосилятор и не умеешь в дизайн
#171 #1011873
БУРЖУИ ТОЖЕ ПЛАЧУТ
https://www.youtube.com/watch?v=7yhDA65k7zk
#172 #1012347
А как гуглить всякие попытки дизассемблирования нейросетей и теории что они делают внутри, то есть рассмотрение вне концепции черного ящика?
#173 #1012352
>>1012347
Visualization это называется
http://cs231n.github.io/understanding-cnn/
#174 #1012494
>>1004751 (OP)
Знаю арифметику. Как вкатиться в машоб?
#175 #1012634
>>1012494
Узнаешь еще логарифмы, сигма-функцию и можешь подавать заявки на синьора. Ну и словечек там поднаберись: оверфиттинг, свертка, тензоры-хуензоры и т.д.
#176 #1012643
Я так понял, LSTM и любые рекуррентные сети себя еще нормально ни в чем не показали? Могли бы в переводе текстов, но там они еще проигрывают обычному переводу?
#177 #1012680
>>1012643
Нормально они в переводах текста работают, у гугла сейчас рекуррентные сети и работают они хорошо. Человеческому переводу офк проигрывают.
#178 #1013031
>>1012347

>рассмотрение вне концепции черного ящика


По-моему уже всем очевидно, что манясети -- это тупиковый путь развития науки. Вместо разумного познания и развития математического аппарата давайте хуячишь черные ящики. Почему он работает похуй. Ведь главное "хуяк-хуяк и в продакшен".
#179 #1013032
Кто-нибудь знаком с тонкостями уменьшения размерностей с помощью Locally Linear Embedding? Как лучше это учить?
#180 #1013237
>>1013031
Хуйню не неси, одно другому не мешает. Сетки решают задачи, для которых ты будешь тысячи лет пилить лаконичный и стройный мат. аппарат потому что пространство решений очень огромное. Попытка решить задачу частично перебором, частично анализом задачи. И с развитием вычислительных мощностей в этом нет ничего плохого.
#181 #1013245
>>1013237
Ты про теорию статистического обучения Вапника не слыхал, школотрон?
#182 #1013264
>>1004751 (OP)
Кому нравится этот машоб, статистика? Рили, видел эту хуйню в универе - тоска смертная.
#183 #1013360
>>1013264
мне нравится
я получаю дозу эндорфинов от толкания вперёд науки, публикации пейперов, придумывания новых алгоритмов и доказывания теорем
машобчик - збс
#184 #1013395
>>1004751 (OP)
Где почитать про обычные (фидфорвард) нейрончики? Особенно интересует обратное распространение. Я ньюфаг.
#185 #1013406
>>1013395
cs231n
#186 #1013802
Что лучше учить, хаскель или R?
#187 #1013810
>>1013802
R конечно. А так питон. О хаскеле вообще забудь, уж лучше С++ учи, раз статику хочешь.
#188 #1013811
>>1013810
Плюсы и питон знаю, но хотелось бы что-то человеческое.
#189 #1013813
>>1013811
Для меня матлаб более человеческий, но R наверное тоже норм. Хаскель точно не нужен, во всяком случае в машобе.
#190 #1013816
>>1013813
Матлаб бесчеловечен, поскольку проприетарен.
#191 #1013826
>>1013802
R и питон
#192 #1013846
>>1013816
Зато IDE заебись
#193 #1013906
>>1013816
Главный недостаток матлаба не в проприеиарности, всегда ж спиздить можно, а в конских системных требованиях и в общей ненужности. Все, что есть в матлабе, есть и в другом, свободном софте.
#194 #1013910
Анончики, нужна ваша помощь!

В программировании не шарю, но вот клюнул петух и пришлось разобраться с нейронными сетями, пытаюсь вникнуть плюс разбираюсь с питоном.

Задача следующая, есть куча данных в формате
parameter1parameter2parameter3class
1,00,24,1A
3,02,24,7A
6,05,25,7A
3,02,24,7A
22,021,211,1A
4,03,25,1A
14,013,28,4B
321,0320,2110,7B
6,05,25,7B
3,02,24,7B
22,021,211,1B
4,03,25,1A
14,013,28,4A
321,0320,2110,7A
321,0320,2110,7A
321,0320,2110,7A
12,011,27,7A
312,0311,2107,7A
12,011,27,7C
312,0311,2107,7C
3,02,24,7C
6,05,25,7C
3,02,24,7C
4,03,25,1B
14,013,28,4B
312,0311,2107,7B

Нужно сделать программку, которая могла бы принимать на вход данные в таком формате с уже определенным классом, а потом после обучения, могла бы сама классифицировать данные в подобном формате и сама определяла бы для них последний столбик Class. Что читать, куда воевать и прочее? Молю, анон, хелп ми.
#194 #1013910
Анончики, нужна ваша помощь!

В программировании не шарю, но вот клюнул петух и пришлось разобраться с нейронными сетями, пытаюсь вникнуть плюс разбираюсь с питоном.

Задача следующая, есть куча данных в формате
parameter1parameter2parameter3class
1,00,24,1A
3,02,24,7A
6,05,25,7A
3,02,24,7A
22,021,211,1A
4,03,25,1A
14,013,28,4B
321,0320,2110,7B
6,05,25,7B
3,02,24,7B
22,021,211,1B
4,03,25,1A
14,013,28,4A
321,0320,2110,7A
321,0320,2110,7A
321,0320,2110,7A
12,011,27,7A
312,0311,2107,7A
12,011,27,7C
312,0311,2107,7C
3,02,24,7C
6,05,25,7C
3,02,24,7C
4,03,25,1B
14,013,28,4B
312,0311,2107,7B

Нужно сделать программку, которая могла бы принимать на вход данные в таком формате с уже определенным классом, а потом после обучения, могла бы сама классифицировать данные в подобном формате и сама определяла бы для них последний столбик Class. Что читать, куда воевать и прочее? Молю, анон, хелп ми.
#195 #1013911
>>1013816

>Матлаб бесчеловечен, поскольку проприетарен.


А можно ли его полностью заменить на Gnu Octave?
#196 #1013964
>>1013911
На маке этот Octave безбожно глючил (или я криворукий), поэтому пока матлаб
#197 #1014007
>>1013911
Уж лучше тогда питон. Матлаб хорош двумя вещами - IDE из коробки и общей искоробочностью. А octave - типичный опенсорс, который нужен, чтобы запускать на сервере не переписанные на питон скрипты.
#198 #1014022
>>1014007

>Матлаб хорош двумя вещами - IDE из коробки и общей искоробочностью


У меня ощущение, что я с этим аноном живу в параллельной вселенной. В его вселенной у матлаба есть ide и по-всей видимости в нем удобно работать.

В моей вселенной матлаб -- это образец того, как не надо писать недоязыки программирования. Это скриптовое поделие по-сути является оберткой вокруг lapack. И если в 70-х так еще можно было делать, то в 2017 это некроговно выглядит атавизмом. Типов нет: где переменные, где чистые функции, где процедуры не понятно. Из-за этого в нем до сих пор нет автозаполнения, а есть какой-то обрубок. Стандарт оформления кода ужасен. m,n,h,w -- типичные имена матриц, функций, программ, субпрограмм, переменных, строк. Так пишут только дауны. Шейдинг 3д-графиков говно. В 2д-графиках до сих пор нет антиалиасинга. Единственная сильная сторона матлаба состоит в том, что он быстрый. Но зато потом надо потратить несколько недель на перенос прототипа в нормальный язык. Если так нужна быстрота, то проще уж выучить фортран и не ебать себе мозг этой скриптовой оберткой.
#199 #1014039
>>1013910
Нейронные сети на Степике.
#200 #1014044
>>1014022

>Типов нет: где переменные, где чистые функции, где процедуры не понятно.


Типичный динамический язык.

>Стандарт оформления кода ужасен. m,n,h,w -- типичные имена матриц, функций, программ, субпрограмм, переменных, строк.


Тебе наверное и музыкальная нотация сложна - кружки какие-то, полоски.

>Единственная сильная сторона матлаба состоит в том, что он быстрый.


Сильная сторона матлаба - это дебаггер с REPL и выводом графиков. Питон такое может, но это нужно искать IDE и т. п., а здесь ты получаешь все из коробки. О чем и написал.

>Если так нужна быстрота, то проще уж выучить фортран и не ебать себе мозг этой скриптовой оберткой.


Более тупое утверждение сложно придумать. Как альтернативу для медленного прототипного языка предлагать устаревшее говно.
#201 #1014051
>>1014044

>кушает сладкий хлеб стива молера


>считает фортран устрарешим


>MATLAB started its life in the late 1970s as an interactive calculator built on top of LINPACK and EISPACK, which were then state-of-the-art Fortran subroutine libraries for matrix computation.


Выбери одно.
#202 #1014056
>>1014051
У тебя нет силлогизма.
Если язык С появился на компьютере PDP11, из этого не следует, что PDP11 не является устаревшим говном. Из этого вообще ничего не следует.
Ну и я не знаю каким долбоебом нужно быть, чтобы рассуждать в стиле "у питона низкоуровневые функции написаны на С - значит учите С, пацаны, питон не нужен".
#203 #1014063
>>1014056
C нужен, Питон не нужен. Питон до сих пор не может в большую часть сишных библиотек для машоба, которые давно есть в том же R.
#204 #1014067
>>1014063
Это ты, R-петух, не нужен.
#205 #1014086
Вкатился. Щас будет много тупых вопросов.
Первый: почему в Pandas нельзя обращаться к элементу по индексу типа data['Age'][3], только срезы делать типа data['Age'][3:7]?
#206 #1014090
>>1013911

>Gnu Octave


Сладкий хлеб. Тогда уж Scilab.
50 Кб, 800x666
#207 #1014190
Я одного понять не могу. Каждый дебил, который только вчера узнал о модном у всякой школуйни диплернинге, даже здесь ИТТ пишет только об одном направлении этого хайпа - распознавании картинок. 99,9999% пейперов и всяких прожектов вна гитхабе тоже об этом. Бородатое хипстерское индусско-китайское быдло всё комьюнити занимается ровно тем же, за редчайшим исключением. Весь этот цирк длится уже не первый год. Так почему до сих пор я не вижу ни одного сколько-либо готового решения для OCR математических текстов? Я никогда не поверю, что такая вещь нужна одному мне на всей этой сраной планетке. Так почему же, а?
#208 #1014222
Кто сейчас возится с бумажными источниками? Работы на один вечер, возьми да напиши, в чем проблема?
#209 #1014235
>>1014190

>Я никогда не поверю, что такая вещь нужна одному мне на всей этой сраной планетке.


А кому еще? Слишком узкоспециализировано (я вообще не представляю, зачем это может понадобиться - чтобы искать по ключевым словам, достаточно распознать текст, чтобы читать вообще картинки достаточно), макаки дешевле, плюс нотации слишком дохуя, чтобы сделать более-менее приемлемый датасет.
#210 #1014242
>>1014235

>нотации слишком дохуя, чтобы сделать более-менее приемлемый датасет.


Вот это ложь и провокация. Есть латех, т.е. его текстовые комманды и их рендер в окончательную символику. Я не вижу, почему:
1) из последнего нельзя восстановить первого.
2) сгенерировать средствами того же латеха любой требуемый для подобной задачи датасет. Т.е. все ведь готово, не нужно искать по интернету тысячи фоток котиков одного размера.
>>1014222

>возьми да напиши, в чем проблема?


Проблема в том, что миллионы индусов до сих пор не сподобились. Хотя, по твоим словам, работы на один вечер.
sage #211 #1014249
>>1014190
уже давно всё сделано
http://www.sciaccess.net/en/InftyReader/
гугли перед кукарекать
#212 #1014251
>>1014249
1) Эта ебулда платная. Платная, год 2017.
2) В одном пейпере видел сравнение этого поделия с нейроночками, обученными на готовом датасете из математической нотации, у твоей хуитки там вообще смешные цифры, 26% правильно распознанных формул или около того.
Т.е. отдельные опыты в этом направлении есть, как и готовые датасеты, вот только готовых для нормального пользователя решений нет.
#213 #1014269
>>1014242
Я сначала подумал, что ты хочешь OCR рукописных формул, может быть даже в реальном времени.
Ну возьми и сгенерируй датасет. Что тебя останавливает?
38 Кб, 907x663
#214 #1014286
>>1014269

>Я сначала подумал, что ты хочешь OCR рукописных формул, может быть даже в реальном времени.


Нет, конечно же. Не рукописное и не в реальном времени. Мне нужен текст из тысяч страниц примерно пикрелейтеда. Это латех + AMS-TeX.

>Ну возьми и сгенерируй датасет. Что тебя останавливает?


Вот опять "возьми и сделой". Я недостаточно могу в эту хуйню, чтобы взять и сделать. И у меня нет фермы из десятка видюх, на которой такая нейроночка сойдется хотя бы за неделю-другую. Зато я смотрю, тут специалистов полно. Я даже готов рублей 200 заплатить (ну раз все так просто) за готовое решение - обученная на датасете из латеха + AMS-TeX-а нейроночка, распознающая рендеренные пдф-ки в простой текст, скажем, юникод.
#215 #1014304
Вот наиболее интересное, что нагуглил, http://lstm.seas.harvard.edu/latex/ там есть и код https://github.com/harvardnlp/im2markup и даже готовый датасет https://zenodo.org/record/56198#.V2p0KTXT6eA и пейпер https://arxiv.org/pdf/1609.04938v1.pdf Вроде как все уже украдено до нас, но как из всей этой солянки сделать готовое решение, которое мне будет из пдф-ок текст делать?
#216 #1014370
>>1014304
Запили КРАУФАУДИНГ.
#217 #1014389
>>1014086
Ну что же вы, ананасы?
Почему я не могу срать, не снимая свитер?
#218 #1014402
>>1014190

>Так почему до сих пор я не вижу ни одного сколько-либо готового решения для OCR математических текстов?


Эндрю Ын сказал, что это задачка для второкурсника и им с Яном Лекуном ею лень заниматься. На самом деле уже есть несколько готовых решений на гитхабе. Была где-то страничка, где все подобные проекты собраны, но сейчас не гуглится. Поиск, кстати, у гугла почти окончательно доломан. Почти ничего уже найти нельзя.
#219 #1014405
#220 #1014424
>>1014022
тернаус писал на хабре или в чатике, что они используют матлаб в продакшене
#221 #1014425
>>1014389
dataframe.values()[0]
или что-то в этом роде, можешь просто нампай использовать
#222 #1014426
>>1014286
ну, это тебе нужно, ты и сделай, я не могу представить такой ситуации, что мне нужно распознавать отпечатанную формулу, которая уже была в электронном формате
#223 #1014427
>>1014424

>тернаус


Ебать у него биография.
#225 #1014446
>>1014428
Даже с отбитыми в армейке мозгами можно выигрывать конкурсы по машобу.
#226 #1014454
>>1014446

> Даже с отбитыми в армейке мозгами можно выигрывать конкурсы по машобу.


А кто сказал, что мозги отбили ему, а не он? Успешный человек жи, сначала сажал чеченов на бутыль, потом пошел в датасаенс.
#227 #1014455
>>1014402

> Эндрю Ын сказал, что это задачка для второкурсника и им с Яном Лекуном ею лень заниматься.


Здесь говорят то же самое, типа можно за один вечер сделать. Однако, по факту этого не сделал никто. В гугле ровно один прожект, и то сырая хуитка, с которой неясно что и как делать. При этом существует платное решение, что говорит о наличии спроса. Что-то не сходится.
132 Кб, 983x642
#228 #1014457
>>1014454
Прочитать правила перед участием у него почему-то мозгов не хватило
#229 #1014659
Хаскель или R? Питон и так знаю.
Я доучиваюсь на математика, проприетарщина не нужна, octave это не серьезно. Область применения - тяжеловесные вычисления, в том числе и на видеокартах, всевозможный машоб и моделирование процессов, может быть с простеньким гуем. Требуется быстродействие, простота, меньше "программирования" (ООП-фаги могут укусить меня за зад).
#230 #1014672
>>1014659
Хаскель и машоб это как писать драйвера железок на ява в блокноте.
#231 #1014679
>>1014672
А для чего тогда применим Хаскелль?
#232 #1014685
>>1014659
R довольно простой но может достаточно долго ворочать всякие там матрицы 50к х 300к
#233 #1014690
>>1014685
А что ворочает быстрее?
#234 #1014703
>>1014659

>Я доучиваюсь на математика


И как?
#235 #1014708
>>1014703
С программерской точки зрения было много ненужного вольфрама и порой внезапные "запилите гуй, документацию, взаимодействие с юзером и мне плевать что вы это не учили, потому что саентисты, а не макаки", с математической - копания в решениях, которые просто не выгодно кодить.
Рекомендую.
#236 #1014709
>>1014685
А что в рке такие вещи пишут на самом r? Во всех серьезных либах такие вещи байтоебы на сях или плюсах пишут, а то античные фортрановещи биндят.
#237 #1014713
>>1014709
Я для примера сказал. У меня учебный проект просто был рекомендалку написать именно а R.
#238 #1014738
>>1014713
Одно дело когда все современные решения долго ворочают такие матрицы и совсем другое когда только рка, что не есть гуд. Сам я не в курсах, с ркой дел не имел
#239 #1014742
>>1014738
Какой тебе R, ты ж в гугл даже не можешь. Базовый пакет в R для работы с матрицами - это враппер для набора тулз на фортране и сях.

>The Matrix package provides a set of S4 classes for dense and sparse matrices that extend the basic matrix data type. Methods for a wide variety of functions and perators applied to objects from these class es provide efficient access to BLAS (Basic Linear Algebra Subroutines ), Lapack (dense matrix), TAUCS (sparse matrix) and UMFPACK (sparse matrix) routines.

#240 #1014746
>>1014742
Почему код на фортране до сих пор не переписали на расте?
#241 #1014748
>>1014746
Раст - официальный язык СЖВ-куколдов. Очевидно же, не хотят зашквара. Нет смысла чинить то, что работает.
#242 #1014750
>>1014748

>СЖВ-куколдов


Господи, при чём тут это?
#243 #1014751
>>1014742
Я вообще мимо, вопрос задавал другой анон, мой пост >>1014709 т.к. по посту анона могло показаться что дело именно в r
#244 #1014752
>>1014746

>Почему код на фортране до сих пор не переписали на расте?


Потому что в код на фортране вложены миллиарды долларов министерств обороны и энергетики США. Он там отлажен вплоть до ручных ассемблерных оптимизаций. Ничего быстрее уже не будет.

>https://en.wikipedia.org/wiki/Kazushige_Goto

#245 #1014753
>>1014750
Забей, этот шизик с кучей свободного времени по всему двачу эту хуйню с куколдами форсит
#246 #1014754
>>1014752
Ничего быстрее для суперкомпьютеров может и не будет, а вот для обычного слесаря с x86 и игровой видюшкой есть куда ускоряться.
#247 #1014755
>>1014754

>суперкомпьютеров США

#248 #1014756
>>1005409
вы дауны
https://spacy.io/
хули вам ещё нужно
#249 #1014757
>>1014756
Нет нормальной поддержки итальянского.
#250 #1014787
Вы только посмотрите чего сделали 2 года назад на сетях
https://www.youtube.com/watch?v=FmSsek5luHk

я даже не представляю, что сейчас творится в этой области! Наверное, кони и скейбордисты теперь везде!
#251 #1014800
>>1014787
про сотовые я даже не заикаюсь
#252 #1014811
>>1014752
2k17
@
думать что человек на ассемблере напишет код эффективней чем это сделает компилятор
#253 #1014815
>>1014811
2k17
@
не знать что человек напишет код эффективней чем компилято, вопрос только в человекочасах
#254 #1014818
>>1014815
сможет ли макака (которая примат, а не господа из других трудов) написать роман если будет бесконечно хуячить по клавиатуре ?
#255 #1014819
>>1014818
Нейросеть может, чем макака хуже?
29 Кб, 458x413
#256 #1014821
>>1014818

>сможет ли макака (которая примат, а не господа из других трудов) написать роман


А ты сам-то типа не макака можешь?
#257 #1014827
>>1014821
В том-то и речь, что дело не в человекочасах.
#258 #1014837
>>1014787
Эта хуерга что-ли отдельные кадры описывает? Прошлый век. Вот как надо https://youtu.be/pER0mjzSYaM
44 Кб, 635x476
#259 #1014850
>>1014837
А наоборот может, текст в видео? Джва года хочу нейрон очку, которая будет делать ЦП по текстовому описанию :3
#260 #1014860
У меня есть набор из пары миллионов 5-мерных векторов. Хочу их кластеризовать. С помощью чего это лучше всего делать?
#261 #1014861
>>1014860
Если известно, к каким классам принадлежат векторы, то SVM, если неизвестно, то somoclu.
#262 #1014873
Что почитать про поведение ботов в играх? Стрелять по мишеням просто, а вот как бегать\кататься-прятаться в складках местности осмысленно? Вот заспавнил я бота, теперь ему надо куда-то идти, чтобы и самого убили, и врагов пострелять. Может, курс какой-то есть?
#263 #1014878
>>1014860
с помощью индусов
#264 #1014886
>>1014873

Behaviour Tree? Там же ссаный FSM, не более.
#265 #1014920
>>1014837
Проиграл с этих обобщений. Можно сразу
void callbackForEachFrame(){
print("Something happens right now")
}
#266 #1014947
Как в керасе сохранять оптимальные веса и гиперпараметры пока идет обучение? Тупо что если прерывается, надо начинать с самого начала.
#267 #1015015
>>1014947
ты чё охуел тут такие вопросы задавать ?
мы тут теоретизируем, пиздуй отсюда!
callbacks -> ModelCheckpoint
#268 #1015308
Как мне распределить тренировку модели на несколько машин? (допустим, линукс, допустим, keras)
#269 #1015312
>>1015308
Нужно как можно проще, без свистелок и для работы с .csv
#270 #1015336
ананасы, выручайте
из вышесказанного не понял, что лучше плюсы или питон
хуярю диссер, дошел до необходимости написать нейросеть, до этого писал проги на матлабе, немного знаю плюсы
есть ли смысл вкатываться в питон или на плюсах можно норм все реализовать
ключевой критерий - время обучения написанию нейросетей
#271 #1015342
>>1015336
питон
#272 #1015344
>>1015336
Бери matcaffe, тебе хватит
#273 #1015357
>>1014457
Хватило, орги говорили что все ОК и хуй положат на это правило, но ВНЕЗАПНО неполучилось.
#274 #1015367
>>1015308
Слесарьфлоу такое может.
#275 #1015512
Ребятушки, выручайте, пожалуйста!

Имеется несколько кривых (x,y), для каждой точки есть свой класс, всего классов около 10. Также имеется куча данных, которые не классифицированы. Задача - через свм, нейронные сети и рандомный лес проклассифицировать пустые данные, а также используя тренировочную подборку определить, какой из алгоритмов подходит лучше в конкретном варианте.
Куда лучше копать? Есть ли уже готовые решения, чтобы осталось только вставить свои код в компилятор, подгрузить свои данные и посмотреть результат? Какие инструменты нужны (R, Matlab, Python)?
#276 #1015554
>>1015512
Какой код, какой компилятор? Грузишь датасет куда угодно, на нем тренируешь по обучающим данным свм и что там тебе нужно, потом по тестовым делаешь предикт и сравниваешь какой алгоритм больше угадал. Чистое слесарство жи.
#277 #1015608
>>1015512
Давай по новой, Миша, всё хуйня.
#278 #1015610
>>1015554

>какие компиляторы


То есть, ты хочешь сказать, что мне не обязательно ебаться с языками, учить их с нуля, а потом искать коды в открытом доступе и подстраивая под себя работать с данными?

>куда угодно


Это куда? Можно пару примеров? Пока нашел только оранж.
Заранее спасибо, анон.
#279 #1015611
>>1015608
Есть набор данных, который содержит несколько функций от х, причем х общий для всех и дискретизация одинаковая. Также кроме значений функций, каждый х содержит какой то класс, это тренировочные данные. Необходимо на них проверить несколько алгоритмов и выбрать лучший, который потом будет использоваться на пустых данных, которые надо классифицировать.
#280 #1015700
>>1015512
Если программировать не хочешь, возьми какой-нибудь azure ml или что-то отсюда https://www.quora.com/What-are-the-alternatives-to-Azure-Machine-Learning-and-Amazon-Machine-Learning
А так из R, Matlab, Python тебе подойдет все, что угодно.
#281 #1015758
>>1015610

> Это куда? Можно пару примеров? Пока нашел только оранж.


Ты ж сам примеры написал. R тот же. Там почти 11000 дополнительных либ, реализующих любые алгоритмы машоба. Сам язык знать не нужно, работа с готовыми библиотеками элементарна. Ты написал, тебе надо SVM, оно есть например в пакете e1071. Читаешь документацию, профит.
#282 #1015760
>>1015700

> Если программировать не хочешь, возьми какой-нибудь azure ml


Зачем? Это ж облачный сервис. Для чего с ним ебаться, если все можно поставить локально, R тот же?
#283 #1015761
#284 #1015762
>>1015761

> Weka


Вот кстати в чем суть этой хуитки? Нескучный интерфейс? Так Statistica все равно в этом плане пижже.
#285 #1015774
>>1015760
Я не знаю локальной альтернативы, в которой весь путь можно накликать мышкой. Знаешь - скажи.
#286 #1015920
Решил обмазаться ШАД, но вступительные экзамены на этот год уже прошли. Зато нашёл специализацию от Яндекса на coursera http://www.coursera.org/specializations/machine-learning-data-analysis
Но эти курсы внезапно платные. Теперь в раздумьях: годная ли специализация или есть что получше? На той же курсере, например. Давным-давно проходил стэнфордский курс от Andrew Ng, когда coursera ещё была бесплатной.
#287 #1015955
>>1015920
Не вижу, сколько денег стоит без логина, но тот же Воронцов - годный мужик в плане обучения, только вкладываться по времени все равно придется. Реши для себя, ты хочешь только сейчас или серьезно готов вложить времени и сделать. Если второе - плати.
#288 #1015971
>>1015955

> тот же Воронцов - годный мужик в плане обучени


В плане мозгоебства, ты хотел сказать? Его лекции по SVM и лда/топикмоделям это пиздец натуральный.
#289 #1015979
>>1015774

> Я не знаю локальной альтернативы, в которой весь путь можно накликать мышкой. Знаешь - скажи.


Да вон жи, выше написали, weka. Гуй, мышка, стрелочки, диаграммы. Все как ты хочешь.
#290 #1015981
>>1015774
А, KEEL еще. Это поделие интересно наличием там помимо кучи всего прочего финграммов т.н. Но тут нечеткую логику принято хейтить.
#292 #1016374
>>1015986
Сантехнику припекает.
#293 #1016376
У меня есть временной ряд и признаки для каждого значения. Какая общая логика для дальнейшего предсказывания? Признаков для предсказываемых значений нет. Пока только выявил тренд и периодичность, чтобы сделать ряд стационарным, ни малейшего понятия что делать дальше.
#294 #1016386
>>1016376

>есть временной ряд и признаки для каждого значения


>Признаков для предсказываемых значений нет


Выбери что-то одно
#295 #1016388
>>1016376
А конечная цель какая? Предсказание временного ряда? Ну построй из него матрицу Ганкеля и предсказывай.
#296 #1016391
>>1016386
>>1016388
Оче смешно. У меня есть на период времени и ряд, и значения. Дальше нет нихуя и надо предсказать ряд.
#297 #1016392
>>1016391
*и признаки, и значения ряда
фикс
#298 #1016396
>>1016391
ARIMA, SSA или еще какой метод предсказания рядов, или регрессия.
#299 #1016399
>>1016396
Я одного понять не могу - как мне могут помочь признаки для известного периода?
#301 #1016425
>>1015971
Он читает лекции с большим количеством теории и формулок, это плохо?
#302 #1016692
>>1016425
Формулки это не плохо, плохо то, что он одну неведомую хуйню объясняет с помощью хуйни еще более неведомой. Показать, как он крут, у него получается, а вот нормально объяснить, в чем и есть цель лекции - нихуя. На примере лекции про SVM у него вообще нихуя не понятно в сравнении с Вапником даже в оригинале на английском, о чем тут говорить вообще.
#303 #1016776
Сап аноны. Посоветуйте пожалуйста школьнику доступные книжки, а лучше видеокурсы на русском языке по линейной алгебре и теории вероятности. Очень тяжело одновременно изучать новые понятия и переводить.
#304 #1016883
>>1004751 (OP)
Анончики, какие есть классические датасеты? Накидайте названия или ссылки на самые основные.

Из популярных знаю только cifar, mnist, iris.
#306 #1017043
Аноны, посоветуйте чтива для вкатывания в матлаб, зная программирование и всю хуйню
#307 #1017095
>>1017043
Проприетарное добрецо не нужно, а ты быдло.
#308 #1017278
>>1017043
Ну уж для матлаба целые подборки на рутрекере, причем на русском.
#309 #1017280
>>1017043
ml-class.org
#310 #1017612
Что почитать/посмотреть/покодить чтобы разобраться в natural language processing?
#311 #1018126
Да запилите уже Искусственный Интеллект, чего вы. Или хотя бы программу, что успешно делает из картинок отсканированой книги читаемый текст в каком-то латехе.
#312 #1018344
Хочу обмазать себя коллективным разумом. С чего начать?
#313 #1018651
>>1018126

> отсканированой книги читаемый текст


Кстати на основе детектора можно сделать. Только размечивтаь лень чет, там запятые и точки и мало ли еще какая фигня попадется. На одной странице около 2к разметок делать а таких страниц где-то надо около 500 штук хотя бы или пробнуть обучать по дной букве- символу, тогда сложность разметки на порядок упадет, не понятно тогда что с пробелами делать. Думаю, на сегодняшнее время был бы самый лучший конвертер.
#314 #1019055
>>1016776
По линейной алгебре книжка Умнова, еще на Степике вроде лекции есть. По теорверу Ширяев, только тебе потом для всяких распределений нужно будет научиться интегрировать.
#315 #1019091
Посоны, кто-нибудь может знает стандартное название такой задачи?

Есть целевой вектор. Назовем его V-target.
И есть набор векторов. Для простоты пусть их будет 3: V1, V2, V3.
Я хочу найти набор коэффициентов k1,k2,k3 такой что, эвклидового расстояние между V-sum = k1 V1 + k2 V2 + k3 V3
и
V-target
минимально?

Если кто знает с помощью какой оптимизационной техники (или может это вообще аналитически можно решить) лучше решать?
#316 #1019094
>>1019091
В итоге задачу можно переформулировать в такой форме минимизировать норму
||V_i.k-v_target||
с неизвестным вектором k. Чем такое лучше всего решать?
#317 #1019096
>>1019091

> Посоны, кто-нибудь может знает стандартное название такой задачи?


Система линейных уравнений.
Ax = b
A - матрица из столбцов [V1 ... Vn]
x - вектор [k1, k2, k3]
b - V-target
#318 #1019097
>>1019096
Спасибо, но я уже сам все это понял. Кек. Правда, в результате условие задачи надо как-то менять. Никакие осмысленные результаты из получающихся решений не выходят. Слишком много возможных комбинаций, а как наложить дополнительные ограничения я пока не придума.
#319 #1019098
>>1019097
Что за задача?
#320 #1019600
>>1017095
А вы итт на чем пишите? Я не сверх специалист, знаю, что котируется питон. На мой взгляд у него та же сфера, что и у матлаба
#321 #1019673
>>1004751 (OP)
Есть реализации kmeans с использованием GPU?
#323 #1019703
>>1019683
В тензорфлоу не только нейроночки?
#324 #1019858
Расскажите, как вкатиться в ИИ с нуля.
Есть закрытые математика и физика бакалавриата "Экспериментальная ядерная физика", энтрилевельные познания сей, средний скилл электроники.
Сейчас всё бросил и записался в кодеры, но иллюзий не питаю, бакалавриат особо ничему не научит, надо к магистру всему научиться самостоятельно и уже просто искать работодателя.
Вероятно, без нейросетей тут не обойтись.
Я примерно понимаю, как написать, положим, распознавание речи обычным способом. Спектр, базы данных, всё такое.
А вот как это делают нейросети — даже близко не представляю.
#325 #1020120
>>1019703
Слесарьфлоу это либа для перемножения тензоров и др. операций с ними. Нейроночки это очень малая часть того, что там реально можно намутить, однако это уже не слесарство.
#326 #1020121
>>1019858

> Я примерно понимаю, как написать, положим, распознавание речи обычным способом. Спектр, базы данных, всё такое.


> А вот как это делают нейросети — даже близко не представляю.


Апроксимация функции от многих аргументов через суперпозиции частных функций от 2х аргументов т.н. нейронами. По имеющимся данным. Параметры настраиваются итеративно, до обеспечения минимальной ошибки.
#327 #1020247
>>1019858
Сдаёшь егэ, поступаешь на фкн или фивт, спокойно вкатываешься. Брат жив.
#328 #1020248
>>1017612
CS224n: Natural Language Processing with Deep Learning
Всё остальное можешь даже не открывать, все мэннинги и шутцы безбожно устарели.
#329 #1020970
Где можно скачать датасеты каггла без регистрации и смс?
#330 #1021003
Посоны, запустил матлабовский kmeans на 5 миллиардов точек с целью разбиения на 10 кластеров. Эта срань написала, что за 100 итераций она не сошлась и больше пока ничего не пишет. Работает уже вторые сутки. Это нормально? Какая у него алгоритмическая сложность? Сколько еще дней ждать? Выключать жалко -- вдруг уже близок конец. Запуская в первый раз.
#331 #1021478
>>1021003
В общем случае NP, для фиксированного количества итераций O(IterNN_dim*n_clusters).
#332 #1022129
Можно как-то из командной строки запустить все ячейки по очереди в ноутбуке?
#333 #1022133
>>1021003

>Посоны, запустил матлабовский kmeans на 5 миллиардов точек с целью разбиения на 10 кластеров. Эта срань написала, что за 100 итераций она не сошлась и больше пока ничего не пишет. Работает уже вторые сутки. Это нормально? Какая у него алгоритмическая сложность? Сколько еще дней ждать? Выключать жалко -- вдруг уже близок конец. Запуская в первый раз.


>



Какая размерность у данных?
#334 #1022319
>>1022133

>Какая размерность у данных?


Там были 2-мерные точки. В общем он отработал где-то через шасов 6, после того как я написал сюда пост с вопросом.
#335 #1024803
В чем смысл байесовского вывода? Поясните на пальцах.
#336 #1024822
В этих ваших машобах и нейроночках что-то поинтересней матана, теорвера и линала есть?
#337 #1024840
>>1024822
Еще есть функциональный анализ, теория графов, генетические алгоритмы, снижение размерностей, скрытые марковские модели, случайные блуждания и теория информации. Все как ты любишь.
337 Кб, 1793x2700
#338 #1024894
>>1024822
Нечеткая логика есть.
#339 #1024895
>>1024803
По заданной априорной вероятности событий вычислить апостериорную.
#340 #1024898
>>1024895
Я знаю некоторые из этих слов.
#341 #1024901
>>1024898
Почитай хоть "Теорию вероятностей" Вентцель, хотя бы 1 главу оттуда, из опхуй-поста выпилили, как и большинство других книжек. Это годный учебник, поясняется и за теорему Байеса на пальцах с примерами.
#342 #1024932
>>1024840
Чем отличаются генетические и меметические алгоритмы? Что лучше? Что используется?
#343 #1024938
>>1024932
Меметические алгоритмы - это генетические + локальный поиск, а не простой рандом как в генетических. Меметические быстрее сходятся.
#344 #1025231
>>1004751 (OP)

>А. Пегат, "Нечёткое моделирование и управление"


Не увидел в этой книге задач на доказательства. Как извлечь из нее пользу?
#345 #1025322
>>1025231
Мне кажется эту книгу добавляют для троллинга. Но я, правда, ее не читал.
#346 #1025353
>>1025231

>Не увидел в этой книге задач на доказательства.


На доказательства чего?

>Как извлечь из нее пользу?


Какого рода польза тебя интересует?
#347 #1025358
>>1025353

>На доказательства чего?


Ну я математик и привык прорабатывать материал, решая задачи. А тут какая-то хуйня для слесарей, которым лениво загружать мозг.

>Какого рода польза тебя интересует?


Вкуривание теории, необходимой для машоба.
#348 #1025372
>>1025358

> Ну я математик и привык прорабатывать материал, решая задачи.


Типичная узколобая макака, спешите видеть.
#349 #1025390
Решил поковырять каггловский титаник и наткнулся в многочисленных его решениях на вещи типа пикрелейтед. Сделаны они при помощи кода на питоне, но если нужно всесторонне рассмотреть данные перед тем, как пихать их в очередной ансамбль - то пердолиться с кодом не очень хочется, постоянно изменяя настройки отображения графиков, зависимостей и т.д.
Есть ли какой-либо вменяемый софт для всестороннего анализа данных? Гугление дало слишком много всего, надеюсь, что ИТТ знают более-менее проверенные вещи.
#350 #1025427
>>1015920
На курсере есть хоть какие-то бесплатные курсы?
мимокрокодил
#351 #1025461
>>1025358

>Вкуривание теории, необходимой для машоба.


Там большая часть того, что нужно знать для использования нечетких множеств в машобе.
1,3 Мб, 2000x1517
#352 #1025465
>>1025390

>Есть ли какой-либо вменяемый софт для всестороннего анализа данных?


Есть. https://cran.r-project.org/
#353 #1025599
>>1025427
Все, например, платить только за диплом надо
#354 #1025601
Как быстро без регистрации и смс освоить всю нужную математику для этого?
#355 #1025624
>>1025601
Идешь на сайт мита и наворачиваешь математические курсы.
#356 #1025652
>>1025601
Проучитится два-три года в шараге.
#357 #1025692
Чопаны, с подачки млру решил потыкать писюньи слесарные инструменты.
Ну все чин чинарем: скачал датасет для бинарной классификаци 12 признаков на 70 тысяч измерений. Скопировал код вызываюший svm'а из sklearn, перекинул это все значит с макбука на сервер, запустил там.
Ну и отшел повейпать да в барбершоп по пути заглянуть, возвращаюсь, значит, через три часа, думаю сейчас погляжу, чему он тут научился...
И от удивления аж монитор залил смузи.
Вопрос в чем: sklearn в многоядерность в принципе не способен, или просто нужно запускать его каким-то особым образом?
146 Кб, 534x700
#358 #1025736
Есть одномерная числовая выборка размером в несколько триллионов единиц, возможен только последовательный доступ к данным, о распределении предположений нет.
Задача максимум - найти все выбросы за константное число обходов (установить минимум и максимум, за которыми находятся все выбросы), нужны только выбросы, медианы-квартили не нужны.
Задача минимум - "причесать" множество за 1-2 прохода, выкинув "дикие" выбросы.
Нужен не инструмент, а алгоритм.
#359 #1025758
>>1025736
А чем "дикий выброс" отличается от домашнего?
#360 #1025759
>>1025758
Это как Навальный отличается от Зюганова.
#361 #1025761
>>1025759
Ничем?
8 Кб, 184x274
#362 #1025787
>>1025758
potential outliers и problematic outliers
outliers и far outs
отличаются тем, что с первыми можно худо-бедно жить, а вторые гарантированно рушат модель
#363 #1025792
>>1025736
Ну бери и находи.
Пиздец. Ты выбросы искать умеешь?

>Нужен не инструмент, а алгоритм.


Это ты хочешь чтобы двачик за тебя лабу2 сделал?
#364 #1025794
>>1025787
Давай почетче, с какими выбросами ты не сможешь жить, и почему правила трех сигм тебе не хватает?
#365 #1025824
Можно ли сделать transfer learning из сиамской сети в сеть классификации?
Чую я что триплет лосс можно прихуячить.
#366 #1026004
>>1004751 (OP)
Кто-нибудь тут точно делал диплом по сабжу, потому что модно. Поясните за следующие: как вообще определяется новизна в данной теме? Вот берётся проблема, решается относительно успешна. Но ведь где-то могут быть получены более оптимальные решения той же проблемы.
#367 #1026025
Как научить нейросеть генерировать тонны видео типа elsagate?
#368 #1026028
>>1026025
Если что вычислительный кластер в наличии.
#369 #1026032
>>1026028
>>1026025
Но там ведь уникальные сцены, которые снимают люди.
#370 #1026136
>>1026004
Так ведь новизна определяется как либо новая задача либо новый метод и анализ решения для научной работы более ничего и не нужно.
#371 #1026189
>>1025599
Они недавно поменяли политику. Диплом бесплатный, за курсы подписка.
#372 #1026192
>>1026004
Говорят, есть сайт такой, гугл называется. Можно написать туда название проблемы, и он тебе выдаст статьи других чуваков, которые тоже ей занимались.
Если пишешь диплом в рашке, то можешь забить хуй и писать полнейшую отсебятину, приёмная комиссия сама нихуя не шарит. А вот рецензенты нормальных научных журналов и конференций доебутся.
#373 #1026194
>>1026192

> Говорят, есть сайт такой, гугл называется. Можно написать туда название проблемы, и он тебе выдаст статьи других чуваков, которые тоже ей занимались.


Тем не менее, если тема довольно узкая на широком поле деятельности вроде ML - то часто гугел тебе будет выдавать что угодно, начиная от "распознать хуй при помощи deep learning бесплатно без смс и регистрации" и заканчивая статьями индусов на совершенно другие проблемы. Статья того самого китайца, который уже решил твою проблему 10 лет назад, часто теряется в этом шлаке.
#374 #1026218
>>1026194
Хуй знает. У меня всё находит. Может ты просто тему неправильно формулируешь?
#375 #1026270
>>1025736
Медианная фильтрация со скользящим окном, вычитаешь из сигнала фильтрованый сигнал и сравниваешь с порогом:
x - filt(x) > THRESH
У тебя есть два параметра, размер окна и порог, которые ты можешь настроить за первый проход, тренируя свой алгоритм кусками, допустим, по гигабайту (но лучше просто посмотреть глазами на данные и оценить частоту выбросов, медианная фильтрация к ним в принципе устойчива)
#376 #1026273
>>1026194
Используй site:arxiv.org , люк. Впрочем, гугол каким-то магическим образом выдает именно нужные статьи по дипленингу на первое место. Я так препринт препринта мастеркласса начал превращать в коммерческий продукт еще до того, как автор опубликовался на какой-то конференции.
#377 #1026302
>>1026273

> Я так препринт препринта мастеркласса начал превращать в коммерческий продукт еще до того, как автор опубликовался на какой-то конференции.


Великий комбинатор в треде, все в Васюки.
#378 #1026393
>>1026194
>>1026273
>>1026004
Ну, тащемто есть scholar.google.com
#379 #1026394
>>1026393
Но постоянно вводить капчу надоедает...
#380 #1026457
>>1014819

>Нейросеть может


Не может.
#381 #1026459
>>1026273
"Начал превращать в коммерческий продукт" - это, надо понимать, повесил на каггле обьявление "Молодой и инициативный школьник ищет команду"?
#382 #1026582
>>1026189
Можешь дать ссылку на новую политику? А то я не нашёл нихуя. Как проходить курсы без верификации, за что курсера берёт бабки, есть ли бесплатный контент и вот это всё.
#384 #1027875
>>1027819
Слесарьфлоу Бабушкина? Что там, какой-нибудь враппер выдают за неимеющую аналогов отечественную технологию?
#386 #1027919
>>1027882
Видел уже тралленк этого в каких-то комментах на хабре. Чувакам просто лень рефакторить. Ведь это интерфейсы, а значит надо будет рефакторить и все приложения, которые их используют. SplitStroku будет навсегда.
141 Кб, 865x745
#387 #1027938
>>1027919
Лолед, они это ещё и по разным проектам растащили.
#388 #1027946
>>1027819
А в чем суть этого бустинга вообще? Соединить алгоритмы вместе в большой костыль?
#389 #1027948
>>1027946

> соединить алгоритмы вместе в большой костыль


Ты только что понял суть машинного обучения.
#391 #1028195
Будет время - соберу этот ваш котбуст в R и сравню с deepboost'ом. Сдается мне, яндекс не может в бустинг здорового человека.
#392 #1028287
>>1028195
Ну, всё-таки в ЦЕРНе используют. Это может быть о чем-то свидетельствует.
#393 #1028289
>>1028287

> Ну, всё-таки в ЦЕРНе используют. Это может быть о чем-то свидетельствует.


Яндексопарашу в церне?
#394 #1028334
>>1027819

>SplitStroku


>Яндекс


В общем-то дальше можно не продолжать.
#395 #1028347
>>1028289
видел (2 минуты общался) парня из яндекса, который еще в церне и работает
#396 #1028353
>>1028287
Как будто ЦЕРН дохуя небожители.
#397 #1028460
Всем доброго времени суток. Вкатываюсь сейчас в рисеч мл по теме process mining. В чем суть? В том, чтобы восстанавливать не ебливые немощные функции, которые сами по себе не могут достаточно точно отразить сложность происходящих в природе процессов, а СЕТИ ПЕТРИ. Очень интересно, есть ли здесь ещё аноны, которые занимаются этим или слышали? Так же начинаю расшаривать automata learning(гуглится в онглийской вики). Оба этих раздела очень новые, очень сложные и за ними будущее ЯЩЕТАЮ.
Ссылки по теме:
processmining.org
https://www.coursera.org/learn/process-mining/home
в этой книжице есть раздел про learning automata http://libgen.io/book/index.php?md5=E82E5CA08E4FD812B672BD31184CBD91
(кстати, если посмотрите на концепцию автоматного обучения, то поймете, что оно даёт на клыка всем вашим нейронкам, потому что чтобы дообучить нейронку, нужно заново скормить ей все данные и заново обучить на новом трейне, а чтобы дообучить автомат, достаточно просто скормить ему новые данные.) В общем об этом всем знают единицы, но если вдруг кто-нибудь заинтересуется, расшарит тему или уже что-нибудь знает, хотелось бы дискасс.
60 Кб, 720x951
#398 #1028463
>>1028460

>СЕТИ ПЕТРИ


>Оба этих раздела очень новые

#399 #1028484
>>1028463
Сами сети петри не новые, а вот задача их восстановления требует усилий
1,7 Мб, 844x1190
#400 #1028490
>>1028460
Нечеткие когнитивные карты Коско с настройкой параметров хеббовским обучением прогрессивнее сетей Петри в разы, например. Да, обучающиеся автоматы круче нейроночек, только в них никто не может.
#401 #1028496
>>1028490
Спасибо тебе огромное, буду щас копать
Может есть проверенные источники полные по изложению?
Может еще и про автоматы знаешь чего годного?
#402 #1028591
А что там за автоматы, может кто объяснить вкратце? Почему лучше нейронок? Книжку качнул, но сейчас нет времени вчитываться
#403 #1028701
Сап, аноны, хотелось бы вкатиться в нейроночки(для собственного интереса), что можете посоветовать почитать для совсем вкатывающего? В универе немного упарывался нейронками(писал однослойные персептроны, лол, и с помощью жабовского пакета сеть Кохонена).
#405 #1028738
>>1028704
Благодарю!
Сам-то чем занимаешься? Какой лвл, образование? Может работаешь где? Не каждый день услышишь про такие штуки, мне очень интересно
#406 #1028983
>>1028460

>нужно заново скормить ей все данные и заново обучить на новом трейне


Щито? Я в слесарьфлове могу батчами запихивать тренировку в сеть, потом гонять ее по тесту, если тест предсказывает плохо, то можно подкинуть в печ еще тренировочных батчей. О каком переучивании идет речь?
#407 #1029062
Ананоши, плес, скажите, есть ли гайд какой-нибудь/книги/видосы/хуесы, по которым можно вкатиться без проблем? Ну, типа, чтобы все было максимально последовательно, а не вразброс. Сколько ни начинал вкатываться, то курсы смотрел, то еще че, всегда говорили абстрактно о какой-то хуйне, блядь, непонятно зачем нужной.
Что имеется: англ уровня с1, могу в математику, могу в упорство, не могу в непоследовательность.
#408 #1029087
>>1004751 (OP)
Почему MLPClassifier из sklearn не может обучиться под обычный xor? Что я делаю не так?
#409 #1029136
#410 #1029199
>>1029062

>чтобы все было максимально последовательно, а не вразброс.


Слишком широкая тема, чтобы последовательно и не вразброс. В любом случае изложение будет однобокое и точно не охватит всю подноготную. Даже у Вапника с Червоненкисом, несмотря на изначальную идею вывести общую теорию происходящего, начиная с перцептрона Розенблатта, например нет ничего о работах Колмогорова и Арнольда о представлении функции многих аргументов через суперпозиции функций от 1-2 аргументов, что является самой сутью нейроночек. Поэтому, чтобы не париться, начинай с чего угодно, что непонятно - догугливай.
#411 #1029239
>>1029199
Спасибо, ананас, что подсказал. Попробую что-нибудь сделать
#412 #1029574
>>1029136
Так почему склеарн не может обучиться?
88 Кб, 710x590
#413 #1030089
Там слесарьфлоу для R запилили. https://tensorflow.rstudio.com/index.html Пакет https://cran.r-project.org/web/packages/tensorflow/index.html позволяет не только полноценно работать со слесарьфловом, в т.ч. сресарьбордом (что естественно), но и автоматически (!) устанавливать слесарьфлоу любым указанным методом.
#414 #1030098
>>1004751 (OP)
Кто-ибудь знает происхождение первого пик и, что на нем делает Ленка? Она сейчас машинным обучением занимается что ли?
#416 #1030108
>>1030105
Зачем им все, что там написано? Они сами хоть половину слов понимают, что там написано?
#417 #1030145
>>1030108
Что конкретно ты считаешь там лишнее?
#418 #1030312
>>1030089
Так че можно выбрасывать питон?
#419 #1030427
>>1030312
Ага, охуенно наверное R будет в продакшене использовать.
#420 #1030437
>>1030312>>1030427
R в данном случае используется как враппер для слесарьфлова + юзер-френдли метод его установки одной коммандой, хоть на глинукс хоть на шиндовс, хоть на мак. Главные плюсы в том, что производительность при этом не теряется и не нужно пистонить эту пистонопарашу, все общение со слесарьфловом через R. Поэтому в т.ч. продакшену как будто школьцам вообще грозит продакшон этот метод вообще никак не повредит, если не наоборот, поскольку такой путь полностью снимает вопрос пердолинга с установкой слесарьфлова, все ставится и используется из коробки.
#421 #1030456
>>1030427
на реддите писали, что многие R используют в продакшене
#422 #1030494
>>1028983
Блен, не шарю за слесарьплов, обязательно расшарю
#423 #1030582
Сегодня начался курс на Coursera от Andew Ng. Стоит ли тратить на него время полному новичку?
#424 #1030616
#425 #1031379
>>1030494
Да дело не в в течении слесаря, оно там для красного словца, сам процесс обучения и взадраспространения ошибки определен для одного отдельного входного данного, и ты в любой момент можешь перестать подсыпать новые знания, или доучить нейронку.
#426 #1031380
>>1030582
Дядя Нг научил меня всему, что я знаю.
#427 #1031434
>>1030616
>>1031380
Практически закончил первую неделю. Очень крутой чувак. Новичкам рекомендую.
#428 #1031435
>>1004751 (OP)
Риал сделать робота который будет ебашить гопоту?
13 Кб, 377x279
#429 #1031459
#430 #1031640
>>1031434
Вкачусь и я тогда чтоли.
Бишопа параллельно читать стоит или сначала курс пройти?
#431 #1031644
>>1031435
Захуячивай личиниуса и потиху программируй его. Лет через 14-16 можно пожинать плоды. В отличии от всяких еб, которые могут и через 20 лет быть недоступны - это безотказный вариант.
#432 #1031677
>>1031644
Чет архитектура слишком долго тренируется и еще очень много как-то уходит в даун не пойми почему.
шютка-минутка
#433 #1032015
Анон, вопрос по литературе.

Все книги по ML начинаются с того, что автор ожидает от читателя знания вузовского курса статистики и теории вероятностей.

А если я проебал вспышку, будучи в шараге, какой книгой заполнять пробел, без лишнего углубления, но с хорошей базой?
31 Кб, 1366x768
#434 #1032077
Почему правильный ответ №2, а не №4?
Если при первом прохождении вместо Oj := ... я подставляю O0, то разве её значение не изменится, когда я подставлю O1?
#435 #1032125
>>1032077
далеш обе подставки паралельно
(при чём тут мл)
#436 #1032128
>>1032125
Разбираю метод градиентного спуска, а он же как я понял относится к мл.
#437 #1032138
>>1032077
Там жи написано одновременно надо обновить значения
#438 #1032139
>>1032128
всё делаешь одновременно, последовательность обновления в задачке не узказана
#439 #1032162
Сделайте йобаредактор для нейроночек чтобы я там ИИ создал
#440 #1032357
>>1032162
Сделал. С тебя ИИ:
http://playground.tensorflow.org/
#441 #1032391
>>1032357
Этот игрушечный слесарьплов такая шляпа. Ни своих датасетов не подгрузить, ни вычислительную часть элементов графа не задать. Вот если бы то же самое, но с полным функционалом слесарьплова - цены бы не было.
#442 #1032825
>>1020247
Ты ебу дал? Он уже окончил вуз, судя по всему, МИФИ.
#443 #1032845
Стоит ли вкатываться в ML? С целью фриланса. Не овер-хайпнутое ли направление? Базовые представления имею, с математикой дружу.
#444 #1032851
>>1032845
Стоит. Оверхайпнутое.
#445 #1032858
>>1032851
Зато есть барьер для дегенератов, неспособных к матеше.
#446 #1033221
>>1032858

>неспособных к матеше


Для тезорфлоу нужна какая-то особенная математика, которую не преподают в рашкинских вузах?
#447 #1033232
>>1033221
90% программистов не владеют этой математикой.
#448 #1033233
>>1033232
Ну так ее на первом-втором курсе проходят
#449 #1033234
>>1033233
Линал, анализ I-III, функан, дискретка, теорвер, матстат. Почти полный курс, есличо.
#450 #1033335
Кто-то пробовал собирать неуралтолк на даркнете, например? Как ее обучать? Слово - вектор? Как переводить слово в вектор? Какя модель для неуралтолка должна быть? Входная сеть - распознавания изображения, потом идет рекуррентная? Есть пример этой сети на тенсфлоу или керасе или даркнет?
#451 #1033435
>>1032858
Ну епт а хули нейроночки не сделают курс по математике для тех кто будет их применять
#452 #1033727
SegNet кто-нибудь использовал? Интересует какая у него производительность после обучения(плюс/минус) на карточке типа 980?
#453 #1033836
>>1030437

>пердолинга


pip3 install --upgrade tensorflow

>п е р д о л и н г а

#454 #1034087
>>1032077
Какой лвл?
#455 #1034295
В R реально взялись за врапперы для новомодных диплернинг-пистонопараш. Я с полгода назад говорил, что отсутствие поддержки этого направления - слабая сторона R, и вот ситуация меняется прямо на глазах. Кроме полной поддержки слесарьплова >>1030089 от установки до визуализации слесарьборда, буквально сегодня запилили официальную поддержку Кераса https://cran.r-project.org/web/packages/keras/index.html бинарных пакетов пока нет, только сорцы, но это ненадолго :3 Так что уже в этом году пистон для нужд МЛ можно не учить, все есть в R, в т.ч. и автоматизированная установка вышеуказанных пистонопараш. Разрисовывать котиков под Пикассо теперь можно не выходя из R.
#456 #1034380
>>1034295
но ведь пистон как язык намного лучше чем R. а для пакетов из R есть rpy.
#457 #1034381
>>1034295
Слу, а с этими стилизациями под Пикассо какие сеточки используют? Там же обучающая выборка маленькая, этих картин не так много, плюс они все же отличаются по стилю.
#458 #1034392
>>1004751 (OP)
Пацаны поясните, зачем шибко нужен язык R, если есть Python + много библиотек, которые решают большинство вопросов???
#459 #1034400
>>1034392
Линал и статистика из коробки с удобным интерфейсом.
#460 #1034402
Есть какой-то Vasyan YobaUltraPack Edition Machine Learning дабы не мучатся с окружением и кнопочки чтобы были красивые?
#461 #1034409
>>1034402
Ну хз, поищи на гитхабе модные "Jupyter Notebook", чтобы только свои данные вставлять и всё из-под коробки работало.
355 Кб, 1179x640
#462 #1034447
>>1034402
Бесплатно нету. За бабло всегда пожалуйста https://azure.microsoft.com/ru-ru/services/machine-learning/
48 Кб, 1183x362
#463 #1034459
>>1034402
Впрочем, пижжу, есть и халява.
#464 #1034606
Сап двач. Почему когда тренируют несколько классификаторов над тренировочной выборкой то её разбивают под их количество? Почему нельзя прогнать классификаторы над целой тренировочной выборкой и найти лучший?
#465 #1034655
>>1034606
Ну ты тупой.
#466 #1034657
Сап, подскажите, сложно ли выучить все вот это ваше и стать каким-нибудь специалистом по информации? Не знаю куда пойти, нравятся подобные вещи(в смысле приложение математики к обработке, изучал пока только алгоритмы для больших объемов данных, ну и всякие вводные лекции посмотрел обо всем.), но страшно, что везде это форсят и все эти курсы на курсере. Не останусь ли я завтра без работы из-за двачеров, которые за пару вечеров преодаления прокрастинации вкатились.
#467 #1034708
>>1034657
Так и будет.
#468 #1034718
>>1004751 (OP)
Как проверить нейросеть на правильность? Например, какую архитектуру засунуть так, чтобы синус обучился?
sage #469 #1034719
>>1034708
Ты уверен? Судя по вопросам, которые рядом с моим постом, все очень просто, но долбоебы даже в это не могут. Или это так только на дваче, а нормальные люди уже за 20 часов все поняли и демпингуют зп?
#470 #1034721
>>1034719
Тут сидят такие себе ребятки.
За 20 часов вряд ли поймешь. Прикол как раз в том, что есть кафедры в топовых фузах (ФИВТ, ФУПМ, ФКН), которые готовят спецов именно в машинном обучении. Вот и подумай, что ты можешь по сравнению с победителем всероса, который 6 лет дрочил нейросети. Скажешь, что их мало? Ок, однако все студенты этих вузов имеют доступ по желанию к лекциям на тему. Есть вузики попроще, где тоже учат этой хуйне.
А рынок заметно меньше, чем на веб-разработку. Вот и считай.
#471 #1034804
>>1032825
тогда пусть на мсц вкатывается
#472 #1034806
>>1034721
Тащемто чтобы вкатиться в продакшен не нужно быть гением математики и всеросником, достаточно уметь в import tensorflow и знать в каких случаях какой алгоритм применять, плюс основы линейки и матстата на уровне первого курса. По крайней мере так обстоит дело в nlp, в классическом ml, думаю, ещё проще, не нужно чесать репу и думать ёпту бля какие бы фичи ещё нагенерить. на выходных был на аисте, там все школьники-студенты уже пицот лет все работают дата саентистами, и они все достаточно простые пацаны и учатся даже не на фкн/фивт
sage #473 #1034878
>>1034721
Но я сам с мехмата. Говорю же, проблема не в том, чтобы конкурировать с парнями с физтеха. Они то как раз те еще ЧСВ и только задерут зп, проблема в том, что я не хочу конкурировать с макакми.
#474 #1034882
>>1034878
Ну если смотреть по пайтон-треду и тому коду, который там присутствует, никакой машин лернинг этим ребятам не светит.
#475 #1034942
>>1034718
Бампую.
Просто есть один хуй neuralnetworksanddeeplearning.com/chap1.html, может кто сталкивался. У него своя сетка работает. Моя имплементация - нет. Имплементация sklearn с фиксированным learning rate тоже выдаёт плохой результат.
#476 #1034947
>>1034942
Зато не с фиксированным выполняется дохуя, но 80% угадывает. А у этого хуя целых 90%. Грешил на сетку, но ручками проверил - вроде всё хорошо. Да и sklearn с такими параметрами плох. Я в шоке короче.
#477 #1035112
Поступаю в этом году на 1 курс вуза, собираюсь обмазываться математикой, чтобы стать человеком. Однако итт видел мнение о том, что у машоба не самые приятные перспективы. Так ли это на самом деле? Если да, то куда тогда посоветуете вкатываться, чтобы быть белым человеком в будущем?
#478 #1035136
Кто-нибудь стажировался тут http://wunderfund.io/ ?
Хочу следующую стажировку к ним пойти. Нормальное место?
#479 #1035192
>>1035112

> куда тогда посоветуете вкатываться, чтобы быть белым человеком в будущем


Быть белым человеком возможно в любом деле если ты умеешь его хорошо делать.
PS
Что за мнение?
#480 #1035197
>>1035112
Биология. Биотехнологии, генная инженерия, фолдинг белка, это все. Очень перспективная отрасль.
А программистишек как блох расплодилось, никому они не нужны. А в будущем еще DeepCoder допилят - компьютер будет сам писать сайты, 90% веб-макак пойдут собирать бутылки.
#481 #1035198
>>1035192

>Быть белым человеком возможно в любом деле если ты умеешь его хорошо делать.


Очень интересно, расскажи как быть белым человеком в сантехнике.
#483 #1035235
>>1035202

>Мой доход составляет примерно 300 тысяч рублей. Я знаю много мастеров, которые зарабатывают даже больше, чем я.


Да, побольше чем у программистишки будет. Но все равно нырять в говно неприятно.

>Стал обучаться, посещать семинары


Учись, сынок, а то так и будешь подавать ключи!
#484 #1035308
Однако, значит, у машоба хорошие перспективы? Понятно, что через несколько лет хороших специалистов будет больше, но не как в макакинге?
#485 #1035345
Угораю с вас, ребята. Почему нельзя просто заниматься тем, чем нравится? В любой области хороший специалист будет зарабатывать нормально.
#486 #1035369
>>1035345

>В любой


Уборщик?
#487 #1035370
>>1035369
Депутат госдумы этой федерации.
#488 #1035448
Котаны, есть одна задача. Я взял данные, их мало, обучил на 30%, проверил на 70% (такое соотношение, потому что данных ну очень мало), всё окей, мне нравятся результаты. Теперь вопрос: если я точно знаю, что алгоритм обучения правильно учится на данных при таком extracting features, который я задал и проверил, то можно ли теперь обучать сетку на всех 100% и не тестировать вообще? Проверить я эту сетку, само собой, уже не смогу. Разве что сравнить её анализ рандомных данных на входе с тем, что выдаёт сетка на 30% реальных данных
#489 #1035465
>>1035369
Уборщики на даче у министров нормально зарабатывают.
#490 #1035485
>>1035448

>данных ну очень мало


Пришло время читать Вапника.
#491 #1036055
>>1035448

>данных ну очень мало


Bootstrap наверни.
>>1035485

>читать Вапника.


Его тут мало кто осилит.
#492 #1036117
Машоб == нейронные сети? Или это синоним? Поясните нубу
#493 #1036124
Искусственный интеллект включает в себя машобчик, который включает в себя ANN (искуственные нейросети)
#494 #1036125
#495 #1036193
Так что там со всякими юзб-ускорителями нейроночек?
#496 #1036206
>>1036117

>Машоб == нейронные сети?


Ну вообще нет но именно сейчас да.
#497 #1036234
>>1036124
>>1036206
Спасибо
#498 #1036251
Хочу потыкать обучение с подкреплением. Что и как?
#499 #1036327
>>1036117
Машоб = статистика. Нейронная сеть — частный случай способа решения какой-нибудь задачи в статистике.
#501 #1036481
Тред утонул или удален.
Это копия, сохраненная 27 августа 2017 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски