Это копия, сохраненная 26 сентября 2017 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Может, и мандада тогда тоже мосив?
но тогда мондадо - нейроночка
ну да, так мозги и работают же
При том что вышка техническая у меня есть (инженегр) и математика мне знакома с курса университета.
Реквестирую материалы для вката, кстати
А тебе не похуй какой моделью создавать закономерности? В голове вроде как тоже веса. Интересно было бы понять алгоритм их настройки.
Ух ты! Как много красивых картинок! А какие инструменты используют? Слесарьплов уже не подходит? Нужно тензор2тензор или еще что-то?
1. В каких журналах обычно публикуются топовые статьи по машинному обучению?
2. Если смотреть на теорию, а не на практику. Это скорее статистика, или все же математика?(да, статистику как бы не считаем математикой)
3. Та математика, которая используется, теоретиками машинного обучения она узкая и специфическая именно для этой отрасли, или эти теоретики они вполне себе математики не хуже других?
Т.е. алгебра если и нужна, то минимально, а всякие геометрии так вообще нахуй не нужны?
В статистике есть движение вперед, прогресс, открытия? Или это все полумертвое?(без подвоха, я правда не в теме)
Никакой алгебры (она нигде не нужна), никакой геометрии (это не геймдев), в статистике никакого движения вперед, всё полностью мертвое.
Что-то мне подсказывает, что ты надо мной издеваешься, ну да ладно. Другой вопрос. Я слышал, что два самых годных научных центра(в РФ) по этому вашему машинному обучению это ВЦ РАН и ИППИ, так ли это? они занимаются одним и тем же, или у каждого своя специфика? это один уровень, или какой-то из них все же более годный?
Не издеваюсь, это так.
Хз, я не в курсе развития машобчика в россии, статей с архива и так по горло хватает.
Не очень тебя понимаю. Машобчик развивается? Наверное развивается. Значит должны быть люди, которые двигают соответствующую теорию. Но, как можно двигать то, что по твоему мертво и новых результатов нет?
> Машобчик развивается?
Машобчик сейчас это скорее не про науку, а про технологию обработки данных, никакого существенного левел-апа в теории не было уже лет 5.
Хоть что-то про науки о данных развивается? Ну там дата майнинг или биг дата, ну или как там у вас это назвается.
Последние левел-апы в теории были сделаны с помощью ученых занимающихся статистикой, или чем?
Появилось много всяких-разных данных/датасетов => нейросеточки стали обучаться эффективнее. Последние левел-апы делали специалисты по нейросетям/сomputational_statistics.
Т.е. сейчас все довольно стабильно, медленный рост качества, ничего нового? Есть хотя бы намеки на то, что в какой-то сфере может быть прорыв?
Сейчас очень много людей в машобе (на реддите уже больше 100000 подписчиков на r/machinelearning), тема очень модная, так что всё возможно.
Я правильно понял, что эта такая вещь в себе относительно слабо связанная с разными науками как статистика, математика и тд и тп?
Вот-вот. Сейчас по сути то, что мне было узнать важнее всего. Т.е. есть очень немного матана, который надо бы знать. А если знать больше? Это бесполезно в машобе? Применение есть только у ОЧЕНЬ ограниченных разделов матана?
Ок, спасибо, бро
Ну теоретики специализируются на статистике, теории алгоритмов + мультидисциплинарство (биология, лингвистика) в почёте.
кроме биологии и лингвистики есть распространенные варианты?
и, теперь уж точно последний вопрос: если есть желание не спеша вкатиться с нуля, в качестве средства заняться свободное время, с чего начать?
Ну хз, любые науки где есть биг дата.
Если с нуля, то лучше всего курсы от яндекса на курсере, потом читаешь туториалы к популярным библиотека по машобу (keras, tensorflow) и гуглишь непонятное.
>кроме биологии и лингвистики есть распространенные варианты?
Экономика, обработка сигналов, социология
>ВЦ РАН и ИППИ
>они занимаются одним и тем же?
В ВЦ РАН умножают матрицу на вектор и раскладывают тензор. В ИППИ ищут минимум функции.
> А для человека не знакомого с темой, можно как-то попонятнее?
>В ИППИ ищут минимум функции:
>Лаборатория №10 Интеллектуальный анализ данных и предсказательное моделирование
проект по минимизация массы композитной боковой панели болида «Формулы-1» на основе данных натурных экспериментов и данных вычислительных экспериментов с соответствующей физической моделью.
>наука сырьевой криптоколонии в 2017 году
Что лучше-то?
В ИППИ до недавнего времени работал Юрий Нестеров -- один из ведущих исследователей в мире по выпуклой оптимизации. Сейчас он уже в Бельгии.
Про ВЦ РАН не знаю ничего, но думаю полдюжины нормальных ученых там еще осталась.
Только все это нафиг никому тут не нужно. Публикации, препринты, цитирования. Нахер оно все надо.
Будете облегчать композитную боковую панель на субподряде или считать загрузку такси в Яндексе. Ничего более осмысленного делать криптоколонии не положено.
https://scholar.google.com/citations?view_op=view_org&hl=en&org=135524506371074591
У ВЦ РАН нет странички, но походу самые высокоцитируемый там Воронцов.
https://scholar.google.com/citations?user=KIW4fnsAAAAJ&hl=en
https://scholar.google.ru/citations?view_op=search_authors&hl=ru&mauthors=label:machine_learning
Читайте Вапника короче. Круче него никого нет. Плюс все ранние книги написаны по-русски. Плюс отдельная книга с кодом на Фортране.
Круче Вапника в МЛ и правда нет никого, только местное быдлецо этого не понимает. И на английском он не сложнее, чем на русском. Вот только код на фортране точно не нужон, в плане практики лучше почитать про запиливание вручную SVM на слесарьплове или в R с помощью тамошних солверов квадратичных задач типа quadprog.
Т.е нужно чтобы моя функция лежала внутри границ, но может и не лежать внутри для некоторых выбросов.
Типо пика
Только есть проблема, границы очень разные, т.е у одного значения это может быть 100±10, а следующего 70±50. В этом случае среднее считать почти бессмысленно.
>когда таргет задается не значением, а верхней и нижней границей?
Нечетким числом, то есть. Есть, конечно, нечеткие аппроксиматоры никто не отменял. Но тута это не модно, Ын, Сутскевер, Лекун и прочие бородатые хипстеры на коворкингах не одобряют.
Не понимаю в чем проблема. По сути у тебя функция двух(если границы заданы нормальным распределением) переменных или трех переменных (если надо отдельно указывать нижнюю грань, верхнюю грань, среднее).
Строй приближение функции нескольких переменных и все.
Лол я даун. Сорри.
Почему Эндрю Нджи берёт за ошибку последнего слоя error = a - y, хотя я обычно вижу error = (a-y)*g'(z)
Зарешай тетрадочки отсюда:
https://github.com/yandexdataschool/Practical_RL
Когда разбершься, регайся на openai.com и начинай фигачить игоры из gym.openai.com
Еще советую глянуть на policy gradient strategy и feudal(hierarhical) reinforcment learning.
Три интересные статейки на тему:
https://arxiv.org/abs/1611.01626
https://arxiv.org/abs/1703.01161
https://arxiv.org/abs/1707.06203
Не очень понял зачем и как, но, судя по всему, вам нужны автоэнкодеры:
https://en.m.wikipedia.org/wiki/Autoencoder
>насколько сложно обучить нейросеть генерировать уникальный контент для сайтов по заданным ключевым словам
Очень. Текст-то генерировать несложно но только он бессвязный выходит.
>что они уже в состоянии романы писать
Постмодернистские разве что, лол.
Ишь ты, кокой хитрый. Нагенерить миллионы текстов и впаривать копирайтерам с сотен левых акков. Нет, братюнь, не выйдет у тебя зарабатывать по одной-двум хатам в день. Максимум получишь нечто уровня https://twitter.com/neuromzan
Запили нам фоточки с конфы. Кенгуру там или что вокруг.
Нахуя мне твои копирайтеры, имея лямы уник контента можно клепать тысячи сдл и иметь по пентхаусу в сутки:-) Короче пока что максимум ныне это что-то вроде https://habrahabr.ru/company/meanotek/blog/259355/
То есть максимум ныне это коменты в клиттере или небольшое описание к товару? Если даже скормить нейросети десятки гигов текста определенной направленности, то грубо говоря, она не сможет установить достаточное кол-во зависимостей, чтобы текст был более менее связным, это будет просто простыня уник текста на уровне грубого синонимайза?
Ну сейчас все эти модели вероятностные, то есть недалеко ушли от какой-нибудь цепи Маркова. Осмысленный текст они не могут генерировать потому что никаких мыслей у них нет. Напиши Хассабису в DeepMind письмо, пусть что-нибудь придумает.
) ограниченный словарный запас
>>1041978
Леее, чукчи. "тюленя, оленя", больше ни про что не слышали. Если не керас, значит слесарьплов. Если не слесарьплов, то керас. Вот на крестах - http://mxnet.io/
https://github.com/joelgrus/fizz-buzz-tensorflow/blob/master/fizz_buzz.py
Двачую эстета
Спасибо, угарнул со статьи.
С каких пор курсера стала платной? Я раньше все просто так получал что там, что на юдасити. Думал в айти уже почти коммунизм.
Смотрел видос про какого-то мужика с физтеха, который 40 лет строил нейрокомпьютеры. Он норм? Или профессор Выбегалло?
Несколько тысяч (или даже десятки/сотни тысяч).
В residual networks тысячи слоёв. На практике чаще какие-нибудь готовые модели типо AlexNet или Vgg-19 где пара десятков слоёв.
https://blog.openai.com/dota-2/
Вспомнил как зовут профессора который выглядит, как Выбегалло -- Галушкин А. И.
В википедии написано, что он придумал backpropagation, но так как данная инфа написана только в русской вики -- то боюсь, что это он сам про себя и написал.
Дота-дауны, кстати, визжали, что их игра в миллион раз сложнее шахмат и го. Что для нее никогда не создадут кампуктерную программу, которая будет их ебать. Наивные.
Че ты как лох ограничиваешься тремя измерениями.
решил начать обмазываться мл и алгоритмами.
буду разбирать сорцы вот этой либы и алгоритмы из нее.
http://php-ml.readthedocs.io/en/latest/machine-learning/association/apriori/
положняк?
Как только будет создан сильный ИИ, вас же всех выкинут на мороз, как сраных луддитов после появления станков. ИИ может работать бесплатно 24 часа в день, не ест, не пьет кофе, не читает хабру, никогда не уставать и не ошибаться.
>Как только будет создан сильный ИИ
А в чем сила, брат?
>вас же всех выкинут на мороз
Если уж и программистишек на мороз выкинет, то остальные быдлопрофессии и подавно.
>зачем вы пилите сук, на котором сидите?
Потому что могут.
Дота говно для дебилов, кстати.
Да вон какие-то конструктивисты даже математиков обещают автоматизировать, а ты о программистишках
Я надеюсь, что ИИ выкинет вообще всех людишек на помойку. пилю его из пиплхейта.
>А в чем сила, брат?
В способности выполнять работу как минимум не хуже человека, при этом еще и бесплатно и непрерывно.
>Если уж и программистишек на мороз выкинет, то остальные быдлопрофессии и подавно.
Э, нет, тут-то мы и поправим программистишку! В быдлопрофессиях рыночек решает, ведь нелегальный таджик-строитель стоит дешевле робота. В IT наоборот, выгоднее будет заменить зажравшуюся кодомакаку на ИИ.
>Потому что могут.
Потому что узко направленны и не видят дальше своего носа.
как можно остаться без работы в создании самого модного направления последних 20 лет?
Я про веб-макак и прочих формошлепов, их как раз системы вроде DeepCoder заменят как класс.
В Machine Learning и Data Mining люди будут нужны, но бывшему пиццевозу в эту область никак не вкатиться, там же нужно знать математику.
В итоге 99% современных кодеров останутся без работы.
Ну, как-бы есть сторонники и совсем других архитектур, не диплеринг, но это не так модно, не так стильно и не так молодежно.
блять, да меня бычий цепень медленно убивает и никакие лекарства не помогают, ты зря недооцениваешь сосальщиков.
какие-то дикие фантазии свихнувшегося байтоеба.
веб уже автоматизирован до конструкторов сайта и плагинов, которыми может любой уася пользоваться.
Гугеловский tensor2tensor уже научился сортировать массивы, через несколько десятков лет можно будет шлёпать кожаных мешком на удобрения.
Долбоёб, ты понимаешь, что машоб на текущем этапе развития и сильный ИИ это вообще разные вещи?
В дотку даже Карина без мозгов может. Вот если бы на этом deep reinforcement learning запилить бота, который на бирже всех вертит на хую и рубит миллиарды, то вот это было б годно. Теоретически разницы с доткой никаких, тренировать можно на тестовых счетах.
>ты понимаешь, что машоб на текущем этапе развития и сильный ИИ это вообще разные вещи?
Самая хохма в том, что сильный ИИ не нужон, это больше философия чем прикладная задача. На практике достаточно того, что алгоритмы МЛ, не являющиеся сильным ИИ, давно уже могут решать задачи, в которые традиционно может только мыслящий человек. И чем дальше, тем таких задач все больше и больше, без всякого сильного ИИ даже в проекте. В эти ваши ссаные нейроночки все не уперлось, к слову. Вон выше упомянули системы автоматизированных математических доказательств. Coq не нейроночка и вообще принципиально не машоб, но теорему 4 красок (в которую даже мыслящие людишки нишмагли) на нем доказали как нехуй http://www2.tcs.ifi.lmu.de/~abel/lehre/WS07-08/CAFR/4colproof.pdf на данном этапе Кок используется как костыль для человека, но и это поправимо, я как раз занимаюсь одним из возможных путей полной автоматизации подобных задач. И опять же без нейроночек и машобчика, хотя вон есть и желающие приколхозить нейроночки к пруверам https://arxiv.org/pdf/1606.04442.pdf и даже не без некоторых успехов.
На днях заинтересовался нейросетью и интересует такой вопрос.
Какой вид математики нужно знать что сделать нейросеть?
У меня уровень 7-8 класс математики.
А я вот старый, но раньше математику знал хорошо. Алгебру по Кострикину, например, изучил. Но мат статистикой, в то время, не очень интересовался. Давно это было. Какие пути вкатиться а эту область, х.з. Хочется побороться с гредущим альцгеймером, так как уже за тридцатник...
сам PHP и расширения к нему написаны на C, в том числе и реализация "Fast Artificial Neural Network или FANN" => всё достаточно быстро, особенно в последних версиях
Ты еще алгебраическую топологию и дифференциальную геометрию забыл. Плюс ТФКП, операционное исчисление...
По еnglish тегу тоже
Каких наук? Теологических?
Алгебраическая топология, дифференциальная геометрия, ТФКП и т.д.
Я пол года назад пробовал изучать дискретную математику, то дальше первой главы не мог пройти, так как РЕЗКО все вставало непонятным и запутанным.
Надеюсь ты понимаешь, что это стеб. Реально нужно инженерное знание математики на уровне заборостроительного.
>Надеюсь ты понимаешь, что это стеб.
Нет не понял, думал что это серьезно.
>Реально нужно инженерное знание математики на уровне заборостроительного.
Вот посмотри на пикчу, я так понял это сумма, ее тоже нужно знать.
Пикча из сайта.
http://neuralnet.info/глава-2-основы-инс/
>Но ведь это всё не нужно...
Тогда что нужно?
Если ты программер, то представь сигму как оператор for (i=1; i<=n; i++) { sum += x * w }
Элемент с индексом i
Зато в кадом перезвоним-треде:
РЯЯЯ!! ВЫСШЕЕ ОБРАЗОВАНИЕ НИ НУЖНА!!
ЕБАТЬ ВЫ ЛОХИ!
ПЯТЬ ЛЕТ ЖИЗНИ В ПИЗДУ
ЛУЧШЕ ВЕБ-МАКАКОЙ ЗА 30 ТР
ВО и правда ненужно, в институте старый пердун хриплым голосом объясняет математику по учебникам из 60 годов, где поймешь только 5% материала в лучшем случае.
Лучше изучать то что нужно по мере продвижения, если все попытаться охватить то жопа треснет.
>ЛУЧШЕ ВЕБ-МАКАКОЙ ЗА 30 ТР
Сейчас веб-макакам платят от 40 и выше.
Я уже в одном из из тредов написал что сложные знания имеют цикличискую зависимость друг от друга. Без систематического образования освоить это в одиночку большая задача.
Подскажи чем новые учебники лучше старых из 60-х годов и посоветуй нормальные новые.
>учебникам из 60 годов
И что? Вот например А. Н. Колмогоров написал учебник по теорверу ещё в начале 1930-х, что положило начало аксиоматической теории вероятностей. Учебник до сих пор актуален.
По матану годнота H. Amann, J. Escher "Analysis I-III" 10/10, лучше Зорича. Первый том в 2005 вышел. По алгебре P.Aluffi "Algebra: Chapter 0" вообще красота, т.к. с самого начала учит теории категорий, первое издание вышло в 2009г.
Нубо вопрос мимо проходящего в связи с видеорилейтед.
Может ли нейронка обучаться в несколько потоков или она только в одном работает? И если может, то как она потом производит синхронизацию этого изученного материала особенно если там данные противоречивые получились? Или процесс записи / обучения по факту происходит в одном потоке изолированного от распараллеливанного процессинга вычисления и извлечения данных и потом что-то типа коротких готовых результатов которые передаются в вашу Mode/Data ?
>Я уже в одном из из тредов написал что сложные знания имеют цикличискую зависимость друг от друга. Без систематического образования освоить это в одиночку большая задача.
Для простых задач хватит и минимума, я не собираюсь скайнет делать.
>Вот например А. Н. Колмогоров написал учебник по теорверу ещё в начале 1930-х, что положило начало аксиоматической теории вероятностей. Учебник до сих пор актуален.
Там устаревшие математические обозначения, в новый учебниках более понятные объяснения и доказательства.
Лично мне просто интересно, хочется написать какого то бота для игры, и чтобы он соревновался с другим ботом, чтобы узнать какая нейросеть лучше будет, а то как людишки между собой соревнуются уже неинтересно, прошлый век.
>kaggle
Ведь его придумали хитрые жиды, которые получают решение проблемы за символическую плату вместо того, чтобы нанимать исследовательскую группу без гарантированного успеха.
Правильно я понимаю, что она не может дообучаться во время непосредственно игры?
Вот родился ты в Пакистане, но очень умный. Берешь и работаешь над датасетами на планшете, пока груженый ишак поднимается в гору. Выиграл $50k и можешь уже гарем купить и забыть о работе на всю жизнь.
Богиня Азура подарила
>сам PHP и расширения к нему написаны на C, в том числе и реализация "Fast Artificial Neural Network или FANN"
падажжи, эта библиотека использует GPU или нет?
>Теоретически разницы с доткой никаких,
Разница принципиальная.
>тренировать можно на тестовых счетах.
нет
Можно поставить чтобы и обучалась а можно и отключить эту способность.
И что это?
Не может быть алгоритма, который в долгосрочной перспективе прибыльней среднего по рынку, потому что рынок полностью прозрачен (все видят сделки по купле и продаже) и симметричен (все могут купить любые акции). Поэтому если такой алгоритм будет реально работать, все просто начнут копировать твои сделки и он работать перестанет.
А у спекулянтов есть спрос на прогеров знающих ML? Тяжело вкатиться, покатиться и прокатиться?
мл как ты понял маркетинговый ход, для впаривания говна матанопитухам, в трейденге мл нинужно от слова совсем.
>Не может быть алгоритма, который в долгосрочной перспективе прибыльней среднего по рынку,
Ты согласишься с тем, что доход на рынке зависит от конкретного поведения (купи-продай) в конкретной ситуации (текущая цена, история цены, объем торгов, его история показания индикаторов, текущие новости и т.д.)?
Это двач сожрал квадратные скобки с индексами.
>Школьники незнакомые с суммой не засирайте тред.
Мне 25
>свежих статей из архива
Какого архива?
Да, но можно и без него
Тут какая-то солянка из интерфейсов и абстрактных классов, использующих различные алгоритмы. пока не оче понятно.
https://github.com/php-ai/php-ml/blob/master/src/Phpml/NeuralNetwork/Network/MultilayerPerceptron.php
никто не хочет скоординироваться, чтобы разобраться в кишках нейронок? Просто использовать без понимания ее действия мне не хочтеся (планирую запилить веб сервис с самооучающейся нейронкой).
>КТО ШКОЛЬНИК ТЫ ШКОЛЬНИК МНЕ 30 ЛЕТ!!
Нахуй ты его гнобишь? У человека появился новый интерес и в первую очередь нужно общаться с человеком, а не с его заслугами или невежеством. Эту математику можно быстро выучить, а ничего сверхпродвинутого для import sleasorflow as sf не нужно. Если ты такой сверхразум он тебе конкуренции не составит, не мешай человеку вкатываться, если интересно
>солянка из интерфейсов и абстрактных классов, использующих различные алгоритмы. пока не оче понятно.
Похапе вообще ЯП курильщика, тут уже не в нейросетях проблема. Перцептрон и в африке перцептрон, что там разбирать. Аппроксимация функции многих переменных через суперпозиции частных функций от двух переменных, для чего и нужен скрытый слой. У Вапника суть перцептрона очень хорошо раскрыта, http://gen.lib.rus.ec/book/index.php?md5=BC6C3185972183559646187BE34C1C31 Аппроксимация функций зависимостей выходов от входов - это вообще универсальная суть всех нейронок, ничего другого они не делают в принципе.
я сейчас свою бизнес-идею палю, но ок:
анализировать симптомы болезней из сети, ставить диагноз по симптомам и выписывать лечение.
Книга на 332 страницы. Я уже читал краткие описания нейронок, даже в википедию про синапсы полез читать. Но все-таки я не могу понять, как они обучаются. Все результаты трейнинга они куда-то запоминают в класс, а потом выуживают, чтобы сравнить с инпутом??
Учи матчасть. Стохастические примочки работают как раз из-за того, что при распространении градиента на веса, дельта зависит в данный момент времени только от данного объекта, и даже если один объект (условно) попадается несколько раз подряд, то это окей. Думаешь, почему тащат GPU и TPU? Именно поэтому.
А в сабже они вообще могли запустить на одном агенте 100 сессий одновременно.
да без разницы, куда конкретная реализация запоминает результаты обучения -- в класс или куда-то ещё.
Если ты, допустим, врач -- тебе нужен результат. Бери и применяй.
>свою бизнес-идею палю,
Братюнь, твоей гениальной бизнес-идее лет сильно больше чем тебе. Няпонци еще в 80-х годах мутили диагностические системы на нечеткой логике, Вапник еще в СССР в 70-х годах подобным занимался. Хохлы, вон, готовую технологию продают, гугли luven diagnostic, ранняя диагностика онкологии по параметрам клеток буккального эпителия.
>Все результаты трейнинга они куда-то запоминают в класс, а потом выуживают, чтобы сравнить с инпутом??
Результаты трейнинга - это изменения весов "синапсов". Вход, умноженный на эти веса, должен давать правильный выход. Для того и существует обучение. Сами веса представляют собой коэффициенты линейных или полиномиальных функций, в простейшем случае.
Хуя ты с 57 школы
>Вход, умноженный на эти веса, должен давать правильный выход
Тип я могу доумножаться до искусственного интеллекта?
Вот очень годное видео, один из создателей этой технологии все на пальцах поясняет, как что работает. Искусственный интеллект - это философская концепция, а не формальная постановка задачи. Нет нормального определения предмета - нет и быть не может предметной дискуссии. Чисто фактически, алгоритмы машобчика могут многое, что раньше считалось возможным только для человека, это все, о чем можно говорить твердо и четко в наше время.
https://www.youtube.com/watch?v=hc2Zj55j1zU&t=14s
https://www.youtube.com/watch?v=skfNlwEbqck
Расскажите, как вам на кафедре? Норм платют? На науч. работах бабло пилить удается (инвесторы там фонды)?
На данный момент есть обрывочные знания из школьной программы, знаю, что такое логарифм, синус - не больше, в азы матанализа не умею.
Но ведь то, что я описал, это и есть суть алгоритмов reinforcement learning, конкретные примеры - Q-learning, POMDP (марковский процесс принятия решений в условиях системы, только частично доступной для наблюдения). Это вполне алгоритмы, а ты сам только что признал, что оптимальное поведения на рынке к ним сводится.
Матанализ, теорвер, линал. Все на уровне первого попавшегося учебника, читанного по диагонали. Работа со слесарьпловом - это всего лишь построение графов, вершины которого это математические операции, ребра - скаляры/векторы/матрицы/тензоры в зависимости от задачи.
>Матанализ, теорвер, линал
Изучать именно в таком порядке?
И что делать, если встретится тонна незнакомых математических символов?
И да, требуют ли книги по высшей математике глубокого знания школьной программы?
>Изучать именно в таком порядке?
Нет, лучше параллельно.
>что делать, если встретится тонна незнакомых математических символов?
В любом учебнике объясняется вся используемая нотация.
>требуют ли книги по высшей математике глубокого знания школьной программы?
Нет.
Спасибо большое, анон.
Лучше учебник высшей математики для экономистов возьми - там как раз уклон в статистику.
Нет, не сводится. Когда ты каким-нибудь deep q-learning учишься играть, скажем, в блэкджек, у тебя есть определённое распределение состояний, которое задано правилами игры, и ты пытаешься найти стратегию, которая позволит тебе получить состояния, в которых ты получаешь какие-то ништяки. Фондовые рынки принципиально отличаются от этого тем, что распределение постоянно меняется. Это как пытатся MNIST нейронкой классифицировать но при каждом прогоне датасет слегка меняется так, чтобы у тебя ошибка осталась прежней. Заработать на акциях можно только если ты точнее оцениваешь её реальную стоимость чем остальной рынок но если ты можешь оценивать акции точнее других то все просто будут копировать твою стратегию и разница между твоей оценкой и реальной рыночной ценой очень быстро сойдёт к нулю. Такой вот парадокс. Если бы алгоритм мог здесь помочь, то Гугл уже давно был бы королём всех рынков но увы. Чтобы зарабатывать на акциях нужна ассиметричная информация, без этого никак.
Ты сам читаешь, что пишешь? Почитай. Разница между каким-нибудь понгом и рынком только в том, что в случае рынка правила динамически меняются. Но это не отменяет их существования, т.е. оптимальное поведение на рынке все равно зависит от состояний самого рынка, описанных здесь >>1043868 а не от астральных сущностей в виде гномика. И если под эти изменения может подстроиться человек, то может и алгоритм обучения с подкреплением, потому что в противном случае (если бы таких зависимостей не было) не мог бы и человек. В обоих случаях имеет место аппроксимация функции зависимости выхода (дохода) от входов (состояний рынка и возможных вариантов поведения). Я бы мог еще тезис Черча вспомнить, но это лишнее. В любом случае, как ни крути, в конечном счете то что может вычислить человек, может и машина Тьюринга. Нет ни одного известного человечеству случая, опровергающего этот тезис, как бы у хейтеров математики с этого жопы ни горели.
Для игры на рынке нужны ужаса и магия. Может тут и есть ряд закономерностей, но рандом тоже присутствует. Это как ставки на лошадей. Исходя из истории побед лошади ты можешь вычислить, какая победит. Но точно может предсказать только врач, берущий кровь у лошадей.
Не распознает шум. Переобучается.
Терминатор расстреливающий манекены?
>Может тут и есть ряд закономерностей, но рандом тоже присутствует.
Там не только рандом. Наверняка есть моменты, не сводящиеся ни к рандому ни к функциональным зависимостям выходов от входов (многоходовочки крупных игроков, заговоры рептилоидов и т.д). Поэтому в алгоритмах обучения с подкреплением типа POMDP (parial-observed markov decision-making process) речь именно о частично-наблюдаемой системе, все переменные которой нам не будут доступны никогда и ни при каких обстоятельствах. При этом задача - выйти на наилучший возможный результат именно исходя из того, что мы имеем, а не из 100% целостной картины. Так что магия тоже учитывается.
да никаких проблем не решается, братан, хуйня всё это
https://pastebin.com/pZsvvwU4 вот кусок кода
Вывод XGBoost'а приложил. Я перебираю бустеры и eval_metrics и ожидаю хоть какого-то изменения в деревьях, но нет, результаты одни и те же. Что-то меняет только objective.
Так вот, никто не мог бы помочь и набросать пару строк на Питоне? В общем, есть файл input.json, там объект с четырьмя полями. TestInput (float[][]), TestOutput (float[]), TrainInput (float[][]), TrainOutput (float[]). Мне нужен кусок кода, который загрузит эти данные и подаст на XGBoost (сам файл я переподготовлю, чтобы в нём вообще ничего было менять не нужно, и оставалось бы только подать его на библиотеку для обучения). Ну совсем в идеале также перебрать метрики и бустеры как это делаю я. Я хочу понять в чём дело, в обертке на C# или в самом XGBoost'е.
Спрашиваю здесь, а не в Пистон треде, потому что здесь кто-нибудь Пистон да знает и мб подскажет в чём дело, если дело в самом XGBoost.
Обертка вот эта была: https://github.com/PicNet/XGBoost.Net
Заранее спасибо, няши
То, что у меня precision такой маленький это пока отдельный разговор, сначала надо понять работает ли сам швейцарский нож
Понял, принял.
На brainfuck'e, очевидно.
на чём хотите, на том и пишите. На питоне легче, так как больше библиотек и разработка проще. Но сейчас даже для сраной пыхи есть пакеты.
https://github.com/dmlc/xgboost/blob/master/demo/binary_classification/README.md lol, оказывается xgboost поддерживает работу из-под консоли, принимая файл конфигурации на вход. Так тоже сойдёт. Так и сделаю
Теперь другой вопрос, который не является оффтопиков. Вот у меня есть обучающая выборка на 1200 значений, почти всё там это класс A, класса B там в 9 раз меньше (11.1%). Теперь вопрос: почему XGboost (по крайней мере с дефолтными значениями) так сильно забивает на precision? Потому что по умолчанию там мера error, а не kind of F1?
Я от безысходности запилил свою разбивку с Gini / F1-мерой, и я точно знаю, что там можно срезать 3%-4% от данных так, чтобы они почти полностью состояли из класса B. И, да, я учил на тренинговой выборке, а тестировал на тестовой, выборки не пересекаются.
У меня уже всерьёз появляются идеи самому имплементировать дерево решений.
На Пистоне уже всё готово и ждёт тебя. У Яши и Гугла весь ML на Пистоне. Вывод очевиден.
>У меня уже всерьёз появляются идеи самому имплементировать дерево решений.
Ты одну хуйню юзаешь из-под хуевой обертки к третьей хуйне. Родина дала R, где всех этих хгбустов и прочего бустинга до жопы, все работает, в документации разберется даже средний пенсионер из аудитории одноклассников. Нет, не хотим. Хотим сладкий хлеб поедать. И это слесари? Говно какое-то...
Подойдет. Есть вот такая книшка http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6 про объяснения алгоритмов МЛ и запиливание их с нуля на пистоне.
Ну из России несколько хороших учёных есть, про остальные не знаю.
Весьма велико. На индусах весь современный машоб держится.
спасибо
Хочу научную работу какую-нибудь написать, но до этого ничего не писал и опыта в машобе почти нет, только вот пару месяцев назад начала работать, до этого хелоуворлды разные на слесарьфлоу и на плюсах писал.
Нейроночки в НЛП не могут, все натужные попытки их там использовать напоминают попытки подмести пол болгаркой. Есть vector-semantic models, которые еще в 90-е успешно проходили тесты типа TOEFL, до чего нейроночки еще лет 15-20 не дорастут.
Завести китайца и заставить его работать.
Я не знаю об R ничего кроме того, что это язык для числодробилок и числового анализа. Ты мне предлагаешь ещё один синтаксис выучить?
>пытается в МЛ
>"я нихуя не знаю и знать не желаю о самом продвинутом языке для МЛ"
Понял, отстал.
Спасибо.
>R
>самый продвинутый язык для ML
Ты, видимо, в 2007 до сих пор живёшь. Пока для питона не было API matplotlib'ы, R еще мог что-то выиграть, но сейчас он в принципе нахуй не нужен.
Все, что есть для МЛ на пистоне - 5-6 средних пакетов для R, которых там в официальном репозитории больше 11000. Я уже предлагал мне показать аналог LSAfun для пистона, его нет и не будет никогда, что уже говорит о том, что пистон для семантического анализа текста непригоден, word2vec - это предел. Так что это ты в 2007 году еще.
*nltk
Хуета, там нет ничего подобного тому, что есть в LSAfun. И анализ текстов - не единственное, во что не может пистон.
Зато он смог в твою мамку.
приведи пример нлп задачи, которая бы решалась классическим машобом (или чем то ещъ) эффективнее чем нейроночками
ты заебал со своим LSAfun. Если чего-то нет в питоне, значит это настолько ненужно, что никто не заморочился портировать интерфейс для питона. А написать такой интерфейс дело пары дней для большинства алгоритмов в статистике.
Вы типа настолько элитные, что даже шапку для новичков убрали? Как вкатываться теперь? Поломали мне жизнь, спасибо!
Математика это что-то о пучках.
Оно и видно, как держится. Даже до классических векторно-семантических моделей из 90х не дотягивают ваши нейроночки в 100500 слоев.
>>1047681
>приведи пример нлп задачи, которая бы решалась классическим машобом (или чем то ещъ) эффективнее чем нейроночками
Ты читать не умеешь? TOEFL-тест ваши нейраначке до сих пор не пройдут, тогда как semantic-space модели в это еще в 90-к годы могли.
>>1047772
>Если чего-то нет в питоне, значит это настолько ненужно
Коооо-кококо-кооко нинужно!!111 Стандартная мантра деградантов. Факт же в том, что вот как раз нужно, а вот на пистоне нету.
>написать такой интерфейс дело пары дней
Аутист-вэй. Сейчас бы учить пистон, чтобы джва дня пердолить костыли для инструментов, которые в нормальном языке для МЛ уже давно запилены и работают.
Нахуй кому сдался твой TOEFL?
А вот анализ эмоциональной окраски и машинный перевод востребованны, и нейроночки тут тащат.
>Нахуй кому сдался твой TOEFL?
Это пример того, как алгоритм может решать задачу, в которую традиционно могут только люди.
>А вот анализ эмоциональной окраски и машинный перевод востребованны, и нейроночки тут тащат.
Ты ведь даже не задавался вопросом, кем и почему востребованы. Сентимент анализ нужен для анализа рынков потенциального спроса и предложения всяким рекламщикам и т.п. хуепутолам. Потому и востребован и оплачивается.
Почему линейная регрессия в TF без нормализации данных так плохо работает?
>линейная регрессия в TF
Ты, наверное, на винде запускаешь? Всем известно, что линейная регрессия на винде плохо работает. Лучше всего на маке, но она там платная, так что обычно ее на линуксе делают.
Тонко.
>Коооо-кококо-кооко нинужно!!111
ты явно не понимаешь как устроена область машинного обучения. вангую ты ни одной статьи на нормальной конференции даже не опубликовал
Моя имплементация-то заебись угадывает.
Расскажи, какие ещё есть NLP-инструменты в R, которых нет в питоне. У меня просто весь стек, с которым я работаю -- синтакснет, скиптхотс, сиамские сетки, фасттекст -- весь на Питоне, и я хз, есть ли смысл постигать R.
>Расскажи, какие ещё есть NLP-инструменты в R, которых нет в питоне.
Я ж сто раз уже написал - на пистоне нет нихуя для LSA, да вообще для всех semantic-space моделей, тематическое моделирование (topicmodels) так же в зачаточном состоянии (вроде что-то есть, но в сравнении с R можно просто считать что нету).
>>1048993
>вангую ты ни одной статьи на нормальной конференции даже не опубликовал
Никак, Пхд закукарекал?
Не, читать ты все-таки не умеешь. Впрочем, от пистонщика я большего и не ожидал.
Так для топик модделинга самый пиздатый это bigartm
И нахуя нужен LSA, если для построения семантик спейс есть модели эмбеддингов, тот же фасттекст?
>для построения семантик спейс есть модели эмбеддингов, тот же фасттекст?
Есть, да. https://cran.r-project.org/web/packages/fastTextR/ Но я с ним не знаком, даже скажем честно - только что услышал. Я неоднократно упоминал LSAfun как пример того, что мне нужно. Так вот, читаю я описание этого вашего фасттекста, и ничего подобного там в упор не вижу. Только не нужно говорить "сделай сам", там дохуя делать-то надо, зачем мне это если есть готовое решение?
>божественную джулию
Хуета из-под кота, например. Там вообще ничего полезного нет, тогда лучше уж сразу на кресты переезжать.
Найти, насколько 2 слова близки в семантическом смысле это не проблема, это еще в 80-е решалось картами Кохонена, сейчас кернел методы в моде. А вот как быть с сентенциями, документами и т.д.? Вплоть до автоматического подбора ответов на поставленный вопрос. Фастттекст в такое может?
Почитал https://arxiv.org/abs/1607.04606 оно ж только в отдельные слова может. Идея использовать для анализа не целиком слова, а н-ки от 2 до 6 буков внутри слов интересна, но это не то что мне нужно.
Для поиска близости коротких предложений обычно используют усреднённые вектора слов; для длинных предложений сиамские сетки и skip-thoughts. Тебе, как я понимаю, надо находить семантическую близость документов, и поэтому ты используешь LSAFun?
>Тебе, как я понимаю, надо находить семантическую близость документов,
Не только документов. Разных подмножеств корпуса, между словом и словом, словом и сентенцией, сентенциями, документами, сентенцией и документом и т.д. Допустим, есть слово (пусть какой-то хитрый термин) и есть документ, где объясняется значение этого слова (пусть статья в педивикии). Задача - автоматически выбрать из документа предложение / сентенцию, определяющую заданный термин. В LSAfun можно итеративно сравнить данное слово со всеми снтенциями документа и выбрать подходящюю по наибольшему значению. Мне неизвестно, как это можно сделать другими методами, желательно безо всякого шаманства (я не утверждаю, что других методов нет в природе).
>Для поиска близости коротких предложений обычно используют усреднённые вектора слов;
Среднее по больничке очень редко нормальный вариант, я читал пейпер Mitchell, J., & Lapata, M. (2008). Vector-based Models of Semantic Composition, там сложнее все. Как раз показано, как можно получить семантику множества слов из отдельных составляющих. И все эти методы + некоторые другие реализованы только в одном месте.
>для длинных предложений сиамские сетки и skip-thoughts
Про такое даже не слышал. Есть чо почитать?
Эх, там питон, а я плюсы хотел. Спасибо, буду заниматься.
>божественную джулию
Очередная попытка сделать аналог матлаба. Но проблема в том, что сам матлаб — раковый язык и вдохновившись им можно сделать только кусок говна.
Это как с си-подобными языками, которые стабильно появляются раз в пару лет. Архитектор каждого нового си-подобного языка думает: "ну сейчас-то мы устраним все фатальные недостатки си и все девелоперы перекатятся к нам". Сколько их там уже было? C++, Objective-C, Dart, Swift, Go, D и еще 60 других из списка википедии.
Никаких проблем Джулия не решит, а только наплодит серию недоделаных проектов собранных из костылей и палок.
https://www.scipy.org/scipylib/building/linux.html#debian-ubuntu
В книге есть такой пример. я чота не понимаю, как мне его с либой numpy использовать? просто создал питон файлик и открыл через командную строку а он мне просто гедит открыл. может я чота не там подключаю?
Нюфаня, с твоим уровнем понимая происходящего, может стоит сначала почитать какую-нибудь книжечку про юникс сначала? Питон файл он создал лол.
ну я нюфаня в питоне (я пхпшник). яж не виноват что там примеры на пайтоне
Делай.
Пишу с Brain.js. Рейт.
Напиши-ка ганчик или генеративную модель через распределение гумбеля. Да хотя-бы LeNet. Ну как? Хорошо на JS? А LSTM нейрончки считаются как? Кайф?
JS - медленная хуйня для макак. Даже R подойдёт лучше, не говоря уже о питоне/lua, для которых написано 90% библиотек и поддерживаются видюхи/tpu из коробки
Он на lua написан, крендель
>вшэ и яндекса
Яндекс - рекламная параша. Ни во что кроме агрессивного впаривания рекламы они не могут, никогда не могли и никогда не смогут. Говнокод уровня SplitStroku даже индусским называть не хочется дабы не обижать индусов сравнением с этими производителями сладкого хлеба.
>>1049997
Stephen Marsland. Machine Learning: An Algorithmic Perspective, Second Edition
2) Есть ли примеры использования tensorflow для чего-то отличного от задачи классификации? В каждой статье пердолят задроченный mnist. Особенно интересно посмотреть на реализацию RNN для предсказания.
1) Могут, без проблем, только дай датасеты.
2) site:github.com tensorflow+RNN+prediction первая ссылка https://github.com/guillaume-chevalier/seq2seq-signal-prediction
Туториалы пишутся для вкатывальщиков, которые mnist посмотрят и сольются. Нормальные люди читают книги, гитхаб и пишут сами.
>Эти ваши нейронные сети в состоянии решать простые задачи по типу вопросов iq тестов для аутистов?
Вся эта поебень с машобом и нейроночками умеет делать ровно одну вещь — аппроксимировать функцию по заданным точкам. Больше она делать ничего не умеет и уметь не будет.
Если у тебя есть миллион правильных ответов на миллион тестов IQ, то эта тупая задача тоже будет аппроксимирована. Однако, легко понять, что никакого интеллекта или творчества там нет. Больше всего вся эта область напоминает анекдот:
Студент выходит к доске и рисует идеальный круг.
Профессор: - Как ты это смог сделать?
Студент: - Да, я просто в армии весь год мясорубку крутил!
> продолжите ряд
Можно придумать бесконечное число ответов. Например, сайт OEIS сообщает о 41 последовательностях, начинающихся с чисел в первом вопросе, встречающихся в математике:
https://oeis.org/search?q=18,+20,+24,+32&language=english&go=Search
Тесты на IQ, как уже миллион раз обоссано, могут сообщить только одну вещь — насколько близко твои ответы совпадают с ответами автора теста. Какое отношение имеет эта информация к интеллекту не ясно. Не слышал чтобы изобретатели, инженеры или ученые занимались составлением подобных тестов. Обычно этим промышляют выпускники различных кафедр психологии и фрейдизма-юнгизма.
>Вся эта поебень с машобом и нейроночками умеет делать ровно одну вещь — аппроксимировать функцию по заданным точкам. Больше она делать ничего не умеет и уметь не будет.
Будто интеллект к этому не сводится.
>Будто интеллект к этому не сводится.
Скорее всего сводится. Представим на секунду, что это так. Пусть интеллект человека — это функция от n переменных (пусть каждая n — это один нерв кожи, носа, глаз, ушей, языка и т.д.). А сам интеллект мы аппроксимировали полиномом степени i, с коэффициентами степени j. Но хватит ли нам памяти и вычислительной мощности когда-нибудь для оперирования с таким полиномом? Сомневаюсь.
Посмотрим сколько синапсов в мозге: 1000 триллионов штук.
А сколько в кампуктерах транзисторов (22-core Xeon Broadwell-E5): 7,200,000,000 штук.
Первое делим на второе = 138 тысяч раз. Наконец, транзисторы это не синапсы. Представим, что к 2100 году сделают не огромный калькулятор, а нейроморфный чип типа TrueNorth со сравнимым числом синапсов. Скорее всего и тогда нас ждет обсер.
>Пусть интеллект человека — это функция от n переменных (пусть каждая n — это один нерв кожи, носа, глаз, ушей, языка и т.д.). А сам интеллект мы аппроксимировали полиномом степени i, с коэффициентами степени j.
Про что несет... Лень отвечать даже, настолько ты не в теме.
Забей, квантовый компуктер всё мгновенно подсчитает.
Все это очень напоминает схему 10 летней давности, когда такими же громкими словами обрабатывали школьников, но только вместо слов data science, нейросети и машинное обучение, использовали слова айти и прогромист. Так, вдохновленные своей уникальностью первооткрыватели после последнего звонка массово будут поступать на дорогие факультеты и ходить на платные курсы, а ректора и владельцы курсов будут купаться в золоте.
Так вот, как вкатиться минуя этот заговор сионистов?
Берешь и без задней мысли поступаешь на соответствующую магистратуру, или читаешь книжки, можешь с Бишопа начать. Намекну, это сложная область, видосов с мемами не хватит.
>Куча видосов каких то дедов из яндекса, мфти, шад и пр.
Так не смотри хуйню всякую, в чем проблема.
>как вкатиться минуя этот заговор сионистов?
Никак, забудь. Тебе уж вряд ли что поможет с твоим подходом уровня лекций от яндекса и шад.
о, спасибо. а то вчера весь день пришлось это читать http://robotics.stanford.edu/people/nilsson/MLBOOK.pdf
а тут не оче понятные формулы и матан.
>>1050809
Я хотел в интернете учиться, потому что в универе уже учусь на прогромиста и связывать свое существование только с нейросетями нет желания. Просто ради интереса, посмотреть что это такое и сделать практичный хелоу ворд. Но из 2х лекций что посмотрел на ютубе к делу ни относилась ни одна. Такое ощущение, что там читали вольный пересказ одного и того же текста "какие нейроны ахуенные". Поэтому не знаю с чего конкретно начать.
Начни с CS231n. Он маскимально практико-ориентированный. Можешь сразу со второй лекции. В первой маркетинговая вода не по делу.
>Я хотел в интернете учиться,
> Просто ради интереса, посмотреть что это такое и сделать практичный хелоу ворд.
>из 2х лекций что посмотрел на ютубе
А теперь забудь про нейроночки и представь, что таким же методом ты решил разобраться в любой другой (около)математической теме.
А почему искусственные нейронные сети не могут сгенерировать нормальный учебник по математике?
В курсе от яндекса математика очень простая, буквально на пальцах. Для первого раза заходит хорошо, а потом уже можно догоняться нормальными курсами от стенфорда и учебниками.
Еще от ods курс ничего.
Наверное это хорошо, что на дваче сидит столько душевнобольных и дебилов. Они не лезут в другие места.
Стартап грузинский.
аи-рилейтед имеется в виду.
Я имел в виду:
Есть нейросеть. Когда она все делает правильно, то учитель говорит:это хорошо. И нейросеть старается придумать как этих "хорошо" получить больше.
Deep reinforcement learning ты имел в виду. На луа такое вряд ли есть, разве что под torch запилили, в чем я сомневаюсь. Зачем тебе это, пользуйся реализациями на пистоне - openai gym / universe
Ставлю TensorFlow с поддержкой GPU по мануалу отсюда http://www.nvidia.com/object/gpu-accelerated-applications-tensorflow-installation.html все валится с ошибкой на последней комманде из 3го пункта (установка куды, cudnn):
/sbin/ldconfig.real: /usr/local/cuda-8.0/targets/x86_64-linux/lib/libcudnn.so.7 is not a symbolic link
/sbin/ldconfig.real: /usr/lib/nvidia-375/libEGL.so.1 is not a symbolic link
/sbin/ldconfig.real: /usr/lib32/nvidia-375/libEGL.so.1 is not a symbolic link
Абдейт, абгрейд делал (гуглил, там это советуют), все бесполезно. Просто пишет эту ошибку и все. И как быть-то?
Та я не вкатываться собрался, мне просто интересно, меня устраивает и формочки клепать на js/php.
Во мне. Ненавижу себя.
Вроде да. Или только для основных техфаков.
>Техника атаки на системы, использующие алгоритмы машинного обучения
https://www.opennet.ru/opennews/art.shtml?num=47086
В правильном направлении мыслишь. А разгадка проста - эта ваша техносфера суть маняпрожект для галочки, яндекс - рекламное агентство, ни во что кроме агрессивной рекламы не могущее (а особенно в МЛ), МГУ - африканское ПТУ для ТП с силиконовыми дакфейсами и мажорчиков на бентлях, преимущественно с монобровью.
Насчет всего остального не знаю, поэтому и спрашиваю, но вот это
>МГУ - африканское ПТУ для ТП с силиконовыми дакфейсами и мажорчиков на бентлях, преимущественно с монобровью
точно неправда. Может с остальным ты тоже ошибаешься. Извини, но в таком случае я не могу доверять твоему мнению.
рейт идею. смогу ли я под нее выбить гранты?
Таки да, хорошо для взаимодействия с внешним миром. Можно обучаться на любой хуите.
>я не могу доверять твоему мнению.
А не надо доверять мнению. Доверяй фактам. Факты ты сам озвучил, выводы тоже сам делай, 1 и 1 сложить не сложно.
А какие факты? Я написал, что нет отзывов, это можно списать на то, что место новое, да и если бы там было прямо отвратительно наоборот из всех щелей бы лез негатив, а так непонятно.
Можно
да я знаю эту либу, но она маленькая и единичная, а ведь на питоне есть оче большая либа, которая во всех учебниках приводится, вдруг мне понадобятся алгоритмы из нее.
Есть нормальные либы для AutoIt3?
юзай flask может?
Йобы, соберитесь в ряд!
Гугл переводчик и можешь какое-то ПО для проверки грамматики или еще там что.
>чем можно нормально перевести текст с немецкого пусть на английский
https://translate.google.com
http://www.bing.com/translator/
https://ideone.com/qyao0t
дефаин семантика, формально опиши, в чем разница между семантикой и синтаксисом, без упоминания валентности и 10 падежей, ведь это тоже синтаксис, просто неявно выраженный.
В этом собственно одна из проблем.
С точки зрения программирование - гомно. Я бы начал с написания своей либы для матриц, иначе нечитабельные циклы будут. + константы сразу привыкай прописывать, замучаешься менять же.
Ну, под либой я подразумеваю на коленке сделанные функции или классы. Чтобы основная логика читалось норм. Даже если пилишь оч быструю и грязную реализацию, основные правила лучше не вертеть на хую, себе дороже будет.
Какой левел? Го болтать, пацаны. У меня ощущение, что каждый школьник учит нейроночки. А те, что в Москве, и имеют все шансы на какой-нибудь Яндекс, ебошат на острие науки уже.
Просто нашли фото похожих людей.
Двачую, заебали вкатывальщики. Вот я начал вкатываться до того, как жто было мейнстримом, а смысл?
Алсо писал свою ""либу"" для матриц на jsдаже на тайпскрипте, если это что-то меняет, было дохуя перемножений в секунду, но работало на удивление очень шустро.
первый курс
>заебали вкатывальщики
Жопкой уже чувствуешь конкуренцию со школьниками заканчивающими ШАД? Чувствуешь приближающеюся ненужность, отказы на собеседованиях, гнет ебанотеки, вечерние запилы жены про отсутствии денег? На вакансию с зарплатой в 60к уже стоит очередь из студентов с несколькими публикациями? А у тебя еще ни одного препринта?
Вы вкатились слишком поздно. Попробуйте выкатиться.
Я тут раньше выкладывал картинку, где какой-то отец обучал четвероклассницу машобу с помощью лекций на ютубе.
С одной стороны, ничего внятного по лекция на ютюбе не сделаешь. С другой - человек посмотрит на ютюбе, ему станет интересно, он начнет разбираться глубже.
Говно короче, хуй знает что делать.
ой ой ой, я же написал, что это просто максимально простенький персептрон. А то такие как ты для простого действия начинают городить абстрактные фабрики синглтонов из кучи классов и интерфейсов, даже не поймешь, что они делают. Как работает персептрон и самостоятельно набросать его я в итоге смог только прочитав 60 страниц, 59 из которых был ненужный матан.
Ой, иди нахуй. Я тебе годный совет дал, а ты не чувствуешь разницы между простенький и хуёвый. Абстрактные фабрики тут не причем. Как ты вот learning rate подбирал? Каждый раз бродил по коду и менял 0.25?
Ну заебись, первый курс. Я на первом ещё даже теорвер не прошёл. Ща бакалавра получаю, дошёл только до свёрточных. Ничего, ща ёба проект для диплома заебашу, и вы все соснёте хуев со своим шадом.
> learning rate
А как его подбирают? Я скопировал из примера в книге, там такой дается, чтобы не сильно большой (даст не корректный результ) и не сильно маленький был (медленно будет обучаться).
Я теперь не знаю, как на работу возвращаться и опять заниматься версткой 8/5 после такого??
Я чувствую, что на меня даже на работе смотрят, как на зашкваренного питуха (я там один на верстке сижу).
пепе фрог отклеился
Откуда мне вообще знать.
По ml.
Могу ли я на Scheme Lisp заебашить нейронную сеть?
Есть два списка x, y. В одном названия столбцов, в другом количества.
plt.bar(x, y) выдёт ошибку, видимо потому что x состоит из строк, а не чисел.
на цсс + жс легко.
О, спасибо большое, заработало.
Да, чому нет. Если придумаешь как читать jpeg в список, то запросто. А ты школьник/первак, дрочащий сиспу?
Совсем одурели уже. Кто мне сможет внятно объяснить, как вообще нейросети связаны с jpeg?
Да я ебанутый, не обращай внимание. Хотел сказать, просто данные, которые ты будешь учить и предсказывать. Но место данных сразу представил пикчу, и подумол, что сжатые форматы без готовых либ читать заебешься.
У меня консольное приложение на лиспе, да и в целом язык нравится. Также повод сикп дочитать.
Так вот стоит ли мне все их читать, чтобы въехать в курс дела или лучше пытаться писать свои персептроны, кластеры и алгоритмы?
Наверное, лучший ответ - это совмещение теории и практики. Например, покурить доки NumPy?
Что посоветуете? Скоро выхожу на работу и времени будет мало.
Какой смысл что-то без практики читать?
Что такое e и почему йобы в фигурных скобках что означают эти скобки? нечеткие? И как понять теорему байеса, я просто совсем не знаком с теорией вероятностей?
Я достаточно уверенно пишу на Python, классическими алгоритмами.
К современному миру машоба решил приобщиться через адаптацию книги на изображении 1. Уже на первой главе меня встретила математика.
Нужно сказать что я ее порядком не помню, разве что численные методы, которые преподавали в непрофильном техническом ВУЗ. Какие выкладки следует знать? Только матрицы, или еще что-то? Насколько сильно абстрагирование sickit, keras и прочих либ от математики?
Может быть, вам видится другой путь изучения, только, пожалуйста без букваря/азбуки/SICP и прочего в начале.
Абстрагирование сильное, просто в учебниках углубляются в детали, чтобы ты знал, что пихаешь в аргументы функций, так что лучше попытаться что-то понимать.
Нет, моя работа вообще не связана с компьютерами. Это хобби.
Алсо мне было бы значительно проще, если бы эти формулы записывались кодом (питоновским). Но вместо этого приводят только названия функций из Numpy, которые реализуют эти формулы.
Зачем так делается? сложна жи
Бамп вопросу
илитный матиматик закукарекал.
Тащемо понимать можно на разном уровне.
Е - это число Эйлера. Размытые йобы в фигурных скобках - элементы нечеткого множества, элементы множества вообще принято указывать в таких скобках, это стандартная нотация. Теорему Байеса понять очень просто, достаточно подумать над этой формулой. Если в теорвер вообще не можешь - читай Вентцель "теория вероятностей", там все очень подробно, в т.ч. и за Байеса с кучей примеров.
>я пропускаю места с мат. формулами в книгах по мл? Я просто не понимаю их, но общие описания принципа работы персептронов там бэк пропагейшн, хидден лэйерс я вроде понимаю.
Наркоман чтоле? Формула алгоритма / его части - это и есть принцип работы этого алгоритма / его части. Как можно понимать принцип, но не понимать формулу - формальную запись этого принципа? Бред какой-то.
как можно понять эти формулы? какие-то закорючки. Я уже не помню, что такое y, x, k
И что тут непонятного? Логарифм, сигма, дельта Кронекера?
>Я уже не помню, что такое y, x, k
Записывай, лол. В тексте 100% написано, что это.
>дельта Кронекера
а ну теперь-то стало понятно. только вот для обычного самоучки из пр без мат. подготовки это не понятно.
может какой-то вводный курс по матану перед книжка советовать, который бы расшифровывал эти символы? типа справочника. а то ведь их хз как гуглить
>только вот для обычного самоучки из пр без мат. подготовки это не понятно
Нахуй ты нужен, самоучка? Почему в айти столько уебанов, считающих, что без фундаментальной подготовки они здесь что-то смогут? Все равно что хирург-самоучка придет в больницу устраиваться на работу и скажет: "Ну я это, дома хлеб и колбасу резал, значит и людей смогу резать, хуле тут сложного".
потому что Мистер Робота посмотрели ;)
вообще что тебе не нравится? могу и хирургом стать при нынешнем обилии мануалов в сети, если я закажу соответствующее оборудование. но это мне не особо интересно. хотя подумываю о приложухах на стыке медицины и кодинга, индивидуальных роботов-лабораторий типа "домашний доктор", но тут у меня пробел в бюджете.
а весь программач - это сборник туториалов по кодингу, почему не запилить туториал по матану, юзающемуся в кодинге? и почему тебя это так злит? мы вообще тут за свободное распространение информации. на вот манифест аарона почитай:
http://www.furfur.me/furfur/heros/manifesto/179919-aaron-swartz
ИТТ сто раз жи писалось, что для МЛ ничего сверхъестественного знать не нужно. Матанализ, линал и теорвер на уровне читанных по диагонали любых первых попавшихся учебников/методичек, больше для общего развития, как раз чтобы не впадать в ступор при виде сигмы или той же дельты Кронекера.
Спасибо. Теперь где можно подробно прочитать про число эйлера и множества, в том числе нечеткие?
Не знаю. Получил заборостроительное, всё пока понимаемо. Но возможно только лишь пока.
>>1056420
>дельта Кронекера
Лол, впервые слышу. Но, бро >>1056418 в твоих формулах нет ничего мутного. Они все чисты и используют самые примитивные математические операции. Поверь, если бы ты немного разобрался, ты бы понял, как со стороны странно выглядишь.
Да это легкое, ты бы лучше разобрался с теорией вероятности и теоремой Байеса.
Число Эйлера - обычноконстанта. Просто знай её, посмотри график натурального алгоритма. Потом уже на примерах увидишь, как её юзают.
Нечёткие множества - зачем? Пока дрочишь нейроночки, можешь забить.
Будет как тни в универе, которые до последнего курса тупят перед доской: как продифференцировать константу.
(C-C)/2*e = 0 Численные методы наше всё.
Зачем заставлять кодеров тратить время на матан, а математиков разгребать код?
я провинциальную вечерку 11 лет назад заканчивал и по физике, геометрии и алгебре у меня были тройки. причем училки по алгебре всегда издевались надо мной и у меня сложилось довольно негативное мнение об этом предмете.
А у меня была гора конспектов. Причем я конспектировал учебники в основном: Кострикина, Кудрявцква и тд. Когда узнал что предки их выкинули, знатно у меня пригорело.
Да там рассказывают о каких-то печеньках
1) Язык математики лучше подходит. Нет, сам подумай, это же бред. Из кода хуй вытащишь смысл формулы. Это полный бред.
2) Таки книги вполне пишутся под программистов, и формулы там простые. А дело в том, что хороший программист есть инженер. И когда он получает вышку, его как минимум надрачивают на типовые задачи, и он чувствует себя комфортно с твоими страшными формулами. Нет, чувак, это бред. Твои формулы зайдут и школьнику без проблем. Разве что вероятностный смысл всяких там softmax будет неочевиден.
А если ты тот пхпшник, то не льсти себе, ты пока что и на программиста не тянешь.
3) ML в идеале для прикладных математиков. Тот же Бишоп грил, что его книга для phd студентов.
>Из кода хуй вытащишь смысл формулы.
1) А какой там смысл формулы? Как раз кодом формула гораздо лучше описывается и понятнее.
3) МЛ пишется с помощью кода, значит это для программистов. То, что не хотят писать формулы кодом - т.е. на понятном программистам языку - это проблемы математиков, написавших книгу.
Т.е. специально завышают порог вхождения и стопорят развитие науки, заставляя программистов тратить время на иную дисциплину.
>>1056527
На самом деле существует нотация, которая согласно изоморфизму Карри-Говарда одновременно и кудахтерный код и математическая формула. Вот только с той нотации хуеют как 95% математиков, так и 95% программистов. Поэтому пусть уж лучше будет как есть, тем более, что все формулы в МЛ это реально простейшая дискретка, доступная любому птУшнику при минимальном желании разобраться.
Даешь квоты для птушников! Долой несправедливость!
1) Изначальная задача нахождение весов - задача минимизации функции ошибки. Как ты это запишешь в виде кода? В коде уже применяется численный метод для решение данной задачи. Как ты будешь понимать это по коду?
2) Нет, основа мл - мат. модели. Значит это для математиков. Без формул матмодель не объяснить. По коду ты лишь видишь тупой алгоритм, без понимание, почему он должен работать. Реализаций можно вообще дохуя запилить, тот же SVM.
1 - это для дефолтной нейронки пример.
Дефайн уебище
Что там расшифровывать? Такую нотацию задаёт автор.
Чтение дает самый фиговый уровень понимания сложных вещей. Проблема в том что человеческий мозг способен запомнить и узнать даже волосню на заднице рандомного мимококодила. Но узнавание не есть понимание.
Когда угораешь по какому-то делу до такой степени что, если тебя разбудят среди ночи и спросят по этому делу, то ты, не моргнув глазом, начнешь отвечать - это хороший уровень понимания.
Читать учебник != понимать. А понимать можно и без конспектирования. В лучшем случае, на временных листках что-то доказать/решить. Вот переписывание учебника точно не даёт понимания.
Переписывание != конспектирование. Конспектироване == сжатие информации == выделение главного => ты должен понять, что является главным. Советую еще самостоятельно доказывать максимум лем и теорем из учебников. Можно подглядывать только идею доказательства. Польза от прочитанной книги максимальна, когда ты помнишь содержание и можешь по нему воспроивести в памяти кратко весь материал.
Бред какой-то. Вот я читаю книгу. Вот я вижу что-то, что нельзя просто прочитать. Вот я это понимаю. Если готовлюсь к экзаменам - то ок. Но для экзаменов у меня есть конспекты лекций, или методичка. Но ирл мне пригодится именно тот факт, что я прошёл через понимание, и запомнил, где что подглядеть. Смысл выписывать "главное"?
Я вот иногда расписываю неочевиднфе мне моменты, но чтобы прям конспектировать.
Можешь продолжать в том же духе. Будешь как большинстово хипстеров, способен только чекать, какую из тысяч книг ты читал или нет. Узнавание - оно такое - создает иллюзию знания.
Решение задач, конечно, хороший тест на усвоение материала, и он обязателен, но этот тест не покрывает все случаи. Просто решая задачи из учебника, ты не установишь связи между разными знаниями, которые ты уже приобрел или приобретешь.
Почему-то считается, что преподование лучший способ глубокого понимания предмета.
А вообще я сейчас тоже как ты ленюсь.
1. Ну как берешь и записываешь в виде функции с переменными.
2. ой все. ну значит надо брать и для таких как я расшифровывать каждую закорючку в формуле - это сигмоид (ссыль на вики), это весы, это дельта кронекера (ссыль на вики), эта формула делает то-то. а то напишу значение переменных вначале книги, ищи их потом в 400 страницах, чтобы каждую формулу понять
Он толстиит, я не верю что такие бывают.
Лолшто? Это не узнавание. Я получаю от книги скиллы, которые могу на практике закрепить решением задач. А вот смысл переписывания якобы главных мест книги - ты не показал. Я вот приемлю это только на временных листах, аналогично с упражнениями.
Про связь знаний - установлю. Что мне мешает? Чем поможет конспектирование?
Давай, покажи для той минимизации. Ещё раз говорю, кодят численный метод. Алгоритм кода не отражает модель полностью. А исследуют и работают именно с моделью.
Нет, надо чтобы ты имел базу перед взятием учебника (которая, как тебе уже тыщу раз сказали, очень простая).
Вообще, даже пусть тебя хотят конкретно научить решение персептрона с помощью градиентного спуска. Как ты думаешь, почему код является самым паршивым объяснением алгоритма даже среди кодеров? Почему нужно писать всякие слова, комментарии, пояснения?
Алсо, какой лвл? Я пытаюсь понять, ты просто птушник или реально школьник, который решил типа маошоб мммммммммммммммммм.
а получается, что мне еще пару лет придется потратить на чтение лит-ры сначала по нейронкам, потом по матану, а сайтик придется отложить на это время. ._.
Ну бывает. Если бы ты пернула, делая бурпи или отрабатывая удары в челноке, можно было бы сказать, что рабочий процесс хорошо идет!
Еба, какие пару лет, твоя нейроночка это просто составная функция а бекпропагейшн это просто взятие производных, сомневаюсь что для твоего сайта нужно более детальное понимание.
Ну я люблю занюхнуть свои пуки. Наименее интересный запах - это когда кишка пустая, а самый вкусный - когда внутри есть немного свежего дерьма или слегка залежавшегося. Свежее дерьмо пропитывает пук ядреным запахом, а лежалое - густым, выдержанным ароматом.
>С схвостиком
В голос. Это либо дзета, либо кси. Нотация авторская.
ru.m.wikipedia.org/wiki/Греческий_алфавит
Для рептилойдов.
>график натурального алгоритма
проиграл, 6ти калссник учит 6 классника что такое логарифм, экспонента и е.
Иди нахуй, я опечатался.
> eep reinforcement learning запилить бота, который на бирже всех вертит на хую и рубит миллиарды, то вот это было б годно.
Уже сделали.
Двачую реквест
x[ i ] * w[ i ]
Какие?
Это копия, сохраненная 26 сентября 2017 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.