Этого треда уже нет.
Это копия, сохраненная 17 июля 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.3 1176320 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем выяснять, кто двигает ноуку: толпы смузихлёбов или фундаментальные деды.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarflow as sf по туториалам, либо идти изучать математику. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ | https://www.general-ai-challenge.org/ | https://corp.mail.ru/ru/press/events/452/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работает на серьёзных задачах.

Архивач:
https://arhivach.org/thread/340653/
https://arhivach.org/thread/355442/
Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1162357 (OP)
BigData.jpg88 Кб, 510x614
2 1176324
Постите смешное.
3 1176326
Как подготовить нейроночку к ЕГЭ? Почему это ещё не сделали? Ведь после сдачи ЕГЭ, человек может стать полноценным членом общества. А может и не стать.
4 1176328
на второй картинке Ричи?
5 1176332
>>76328
Бишоп же.
6 1176334
Какой IQ надо для занятие этим?
7 1176339
>>76324
Я??
>>76326
Тренируйся на ЕГЭ прошлых лет. Удачи!
>>76334
120+
5193db0avbey.jpg70 Кб, 947x946
8 1176358
Ну надо же, самого Маэстро на оп-пик поставили, надо было еще правду жизни пикрелейтед. Тут в конце прошлого треда поступила претензия, что я только хипстеров заочно хуесосить могу, а сам ничего умного не предлагал, здесь бы помогли, бла-бла... Пиздежь же, ну. Я только за последний год не помню уже сколько раз пытался пояснить, как на типизированной лямбде вымутить растущее адаптивное ядро, которое бы не аппроксимировало, а точно представляло задачу любой сложности через суперпозицию наиболее подходящих в данном случае функций, хоть временнЫе ряды ебучие, с которыми любой диплернинх сосет и причмокивает. Толку-то. И то, что я якобы дрочу только на алгоритмы и идеи 60-х, тоже пиздежь. Я ни слова не сказал никогда против действительно прорывного открытия, неважно каких оно годов. Word2vec например, это просто революция по сравнению с тем что было до него в плане векторно-пространственных моделей представления текста.
9 1176362
Запилите мемес вапника в виде ватника плес
10 1176364
>>76358
аноны, можно ли делать предсказания по временным рядам на дипленинхе или нет?
нет времеи въезжать в регрессии все как всегда
11 1176367
>>76364
Я в самом начале прошлого треда пояснял, почему диплернинх в этом деле не может быть кардинально лучше какой-нибудь arima, хоть 100500 слоёв сделай и насилуй амазоновский кластер с 100500 gpu.
12 1176369
>>76358

>Ну надо же, самого Маэстро на оп-пик поставили


А ведь когда-то давно он всегда там стоял, заметил такую тенденцию
1) Кто то видит новую технологию и создает тред с базовыми вопросами, подтягиваются новички
2) Аноны из треда матереют, тред обрастает подробной шапкой, кто-то даже находит работу
3) Т.к. вопросов становится мало начинается тупой срач, типа, какую картиночку поставить в шапку, тред постепенно загнивает, знающие аноны больше не заглядывают и он умирает
4) Вернись к пункту один
13 1176373
>>76320 (OP)
Хорошая у вас шапка, и картинки интересные.

мимо
14 1176389
>>76358

>Пиздежь же, ну. Я только за последний год не помню уже сколько раз пытался пояснить, как на типизированной лямбде вымутить растущее адаптивное ядро


Лол, а нахуя ты пытался пояснить? Не похоже, чтобы у его величества нарцисса были бы какие-то проблемы с реализацией. Взял датасет, те же ряды с форекса, написал, предсказал, что, что можно, разбил всех в пух и прах и получил почет и уважение. Однако этого не происходит. Поэтому на самом деле происходит следующее.
Лет десять-пять назад на бордах были такие же петушки как ты, только дрочили на хаскель и лисп. Ничего хорошего не писали, одни короткие программы с какими-то ебическими концепциями. Чуваки эти были днищем - один даже разъебал стекло в подъезде дома в рамках борьбы с системой, но в собственном манямирке они были величайшими хуями на свете. А так как реальность больно бьет по тому факту, что на деле никакого величия нет, то самое время закопаться в какую-нибудь антимейнстримную хуйню и из нее кукарекать.
В конце концов пришло новое поколение, придумало мем "борщехлебы", и хаскель-петушки испарились. На бордах вообще таких фриков дохуя, в любом разделе.
Ну и вот в этой атмосфере родился ты. Возразить тебе сходу не о чем, потому что для этого нужно читать те же рандомные статьи, что читал ты. Сам ты не делаешь ошибок, потому что нихуя не делаешь на публике. Даже с системных ученых, с которыми ты состоишь в переписке, ты считаешь говном, ведь они не читали те же рандомные статьи, а рандомных статей в интернете дохуя.
15 1176424
Что-то мне разонравилась курсера аж на 2-ой неделе. Половина вопросов обходится, половина простые - я такое на матстае изучал. В тестах непонятно как вводить ответы, их гайд перечитал дважды. Много воды и повторов. Скажите, продолжать превозмогать или поискать нормальные курсы?
>>76320 (OP)

>Либо в тупую import slesarflow as sf по туториалам


Это как и что?
16 1176437
>>76389
Таких фриков в интернете толпы. Поехавших по темам квантмеха, теории относительности, различных тем в математике можно найти сотни сходу. Они все абсолютно одинаковые, пытаться вразумлять их бессмысленно и негуманно. У тебя и самого синдром "в интернете кто-то неправ". Какое тебе дело до нечеткого петуха, чо ты его вразумляешь? Ты думаешь, он сейчас такой скажет, мол, а ведь действительно, ты прав чувак, я кретин и постил тут пять (или сколько?) лет подряд ежедневно полную чушь?
17 1176445
>>76437
А у тебя какое дело до меня? Хочу и вразумляю. Ты же знаешь, фриков в интернете толпы.
18 1176451
>>76445
Засираете мой уютный тред своей тупостью.
19 1176474
>>76451
Будешь дохуя кукарекать - засру гомониграми и говном.
20 1176477
>>76474

>гомониграми и говном


Будут распознаны как гетерогориллы и шоколад.
21 1176488
>>76389
Я не знаю о каких "рандомных статьях" ты говоришь, я если что-то упоминаю, то это достаточно общеизвестные вещи.
>>76437

> Ты думаешь, он сейчас такой скажет, мол, а ведь действительно, ты прав чувак, я кретин и постил тут пять (или сколько?) лет подряд ежедневно полную чушь?


Если бы это была чушь, я бы об этом знал. Или как минимум, это можно было бы доказать. Однако, ничего из этого я не увидел за все время, что тут сижу. Чья-то батрушка это не доказательство.

> нечеткого петуха,


Я давно уже говорю, что нечёткие множества это будущее в т.ч машобчика. И вот, выясняется что квантовая логика (основа квантовых вычислений, за которыми будущее) выразима в терминах нечёткой. И выходим на два стула - использовать готовый математический аппарат, или изобретать полностью равнообьемный ему велосипед. Очевидно, что второе - абсолютно бесполезная потеря времени и сил, т.к все нужное давно существует.
22 1176491
>>76488

>нечёткие множества это будущее


>квантовых вычислений, за которыми будущее


Мамкин оракул в треде
23 1176549
>>76369

> Аноны из треда матереют


я прям чувствую как я матерею здесь. Узнал что такое сумма. Ну а если серъёзно то зря вы на анона агритесь. Он хорошие вещи говорит за регрессии. И объясняет круто. Хороший он человек короче.
24 1176560
>>76451
А я думаю, что он засирает мой уютный тред своей тупостью. Двойные стандарты такие двойные стандарты - тебе критиковать можно, а мне нет.
Карта Математики (2).jpg5,1 Мб, 4000x2817
25 1176568
Разнобразие матанопараши
26 1176571
>>76568
Машинное обучение кажется самым простым
27 1176576
>>76571
Его просто еще не успели изговнякать
image.png55 Кб, 791x296
28 1176714
Ъ
29 1176821
>>76424

>это как


Это берёшь либу и без разбора, как там эти методы работают, пиздишь код.
30 1176950
>>76821
Что за либа то?
31 1176952
>>76950
TensorFlow
32 1176956
>>76952
А почему в шапке напсано что-то другое flow?
33 1176957
>>76956
Там в шутку написано слесарьflow
34 1176959
>>76956
Выбирай отечественное!
http://the-flow.ru
35 1176960
>>76956
"Слесарьплов" - местный мемас. Речь об упомянутом гугловском поделии.
36 1176964
>>76960
>>76957
Все, понял, спасибо, т.е. вместо сраных курсер сразу в бой. Раскошно.
37 1176991
>>76334
После изучения питона тебе потребуется минимум 6 месяцев, чтобы полноценно вкатиться в нейронные сети. Наверное хотя бы iq 100 нужен, но лучше больше, там так много логики.
38 1177718
СУББОТА В ХАТУ, НЕЙРОНЫ В РАДОСТЬ
https://www.youtube.com/watch?v=hb7tjqhfDus
39 1177719
>>77718
А почему биодолбоебы решили, что мозговые нейрогы имееют отношение к мышлению?
40 1177720
>>77719
Ты правда тупой или тупостью троллить решил? В обоих случаях дегрод, конечно, просто если правда веруешь в то, что написал, тебе самому должно быть стыдно.
41 1177721
>>77720
Мне не стыдно, а тебе каргокультисту должно быть стыдно.
42 1177722
>>77721
Ну смотри, есть нейрофизиология. Опровергнуть ее не сможет никто, т.к. это объективные данные. Всякая веруйня же на раз опровергается любой другой веруйней, т.к. одно слово против другого такого же. Ты даже смысла слова "каргокульт" не понимаешь, с чего ты решил, что понимаешь что-то более сложное?
43 1177725
>>77722

>Опровергнуть ее не сможет никто, т.к. это объективные данные.


Кокие данные? Если ебнуть там бабахнет здесь? Связь между мышлением и мозгом притянута за уши. Они могут сказать, что на какие то раздражители, будет активна какая то часть мозга, а может и не будет. И каргокульт очень даже подходит, особенно к адептам нейронных сетей.
44 1177726
>>77722
он просто думает что мышление живой материи это настолько уникально что её ничем нельзя обьяснить
45 1177727
>>77725

>Связь между мышлением и мозгом притянута за уши.


Двачую этого мыслителя жопой.
46 1177728
>>77725
Ценное мнение рандомного клоуна с мейлру никому не интересно. Ты просто не знаком с темой, потому что мозгов не хватит, вот и несешь хуйню.
47 1177730
>>77728
Кококо, врети111 Мозг черный ящик и ни один вменяемый нейробиолог не скажет, что он знает как это работает. А вот матанопеткшня подменяет факты и хайпит нейронные сети, которые никакого оношения к биологическим нейронам не имеют. По факту, получается, что однозначно связывают нейроны и мышление, люди которые далеки от биологической тематики.
48 1177731
>>77726
Ну почему, как насчет того, что живое существо является тонким клиентом, а весь процесс мышления лежит в ноосфере? Мозг только осуществляет связь.
49 1177732
>>77730
>>77731
Охуеть, кокой кросавчег залетел в тред. Откель будешь, мамкин неуч?
50 1177734
>>77732

>Откель будешь, мамкин неуч?


На вопросы ответь, уч.
51 1177735
>>77734
Уже метнулся кабанчиком, спешу расписать всё по пунктам.
52 1177736
>>77730

>Кококо, врети111 Мозг черный ящик и ни один вменяемый нейробиолог не скажет, что он знает как это работает. А вот матанопеткшня подменяет факты и хайпит нейронные сети, которые никакого оношения к биологическим нейронам не имеют. По факту, получается, что однозначно связывают нейроны и мышление, люди которые далеки от биологической тематики.


>


Концепция простая есть входы и выходы, и нейронная сеть учится что-то делать, у живых существ много данных поступает, потому и ведут себя лучше чем нейронносеточные роботы.
53 1177737
>>77735
Тогда обтекай нейронами.
54 1177738
>>77736

> у живых существ много данных поступает


Это не как не объясняет связи нейрон-мышление.

>нейронная сеть учится что-то делать


Нет, она сохраняет состояние на основе статистики и рендомной магии.
55 1177739
>>77737
Ох нихуя, мамкин школотрон ворвался в тренд, высрал пару постов шизопоноса, и всех подебил. Круто, а? Учитесь у школотрона!
56 1177740
>>77739
Во первых я не школотрон, во вторых давай по существу.
школьник.webm1,2 Мб, webm,
360x480, 0:14
57 1177741
>>77738

>Это не как не объясняет


>не как


Уроки иди делай, гений из 5 б.
58 1177742
>>77740

>давай по существу


>>77735
59 1177743
>>77738

> Нет, она сохраняет состояние на основе статистики и рендомной магии.


нет, она не сохраняет состояние, а настраивает пропускную способность синопсисов. Это стало возможным благодаря тому что синопсисы стало возможно записывать на магнитные носители. Это твой ответ больше походит на рандом. А вообще жаль конечно что ты такой толстый.

> не как не


В ряду хим элементов пополнение
60 1177745
>>77738
Нет никакого мышления, ты только реагироват на раздражители умеешь и делать то чему научился по сто раз, точно как нейронная сетка
61 1177748
>>77745
пиздец а если это правда... и мы всего лишь движущиеся камни, собранные высшими существами и развивающиеся по программе
62 1177751
>>77748
Гугли демон Лапласа.
63 1177770
>>77743

>нет, она не сохраняет состояние, а настраивает пропускную способность синопсисов.


И в чем отличие от сохранения состояния и пропускной способностью?

> записывать на магнитные носители


И что? Ты можешь восстановить из надроченных манясинапсиах данные на которых они обучались?

>В ряду хим элементов пополнение


ну марявановна, ну пазязя
>>77745

>ты только реагироват на раздражители умеешь и делать то чему научился по сто раз


утверждаешь, что разумное существо не примет решение в ситуации с которой он никогда не сталкивался и не обучался?
64 1177772
>>77751

>демон Лапласа.


Сейчас бы мнения матанопетушни по таким вопросам гуглить.
65 1177774
>>77772
Ну тогда гугли Откровения Преподобного Васяна.
66 1177775
подскажите куда катиться для изучения биг даты? Тут уроды спорят за нейроночки и прочее бесполезное говно. На хабре вообще ничего не происходит. А реддит по запросу биг дата - объединение двача и хабра, только на ангельском.
Форумы там, группы вк на крайний случай. Просто посыл на почту к какому-нибудь чуваку. Буду рад всему.
67 1177776
>>77774

>Откровения Преподобного Васяна


всякое связное, односвязное, компактное трехмерное многообразие без края гомеоморфно сфере S3
68 1177777
>>77775

>для изучения биг даты


статистика
69 1177781
>>77776
Читал Бурбаки?
-----
Кремация состоится в субботу, 23 ноября 1968 в 15 часов на «Кладбище случайных величин», станции метро Марков и Гёдель. Сбор состоится перед баром «У прямых произведений», перекрёсток проективных резольвент, бывшая площадь Косуля.
Согласно воле покойного месса состоится в соборе «Богоматери универсальных конструкций», месса будет проведена кардиналом Алефом I в присутствии представителей всех классов эквивалентностей и алгебраически замкнутых тел. За минутой молчания будут наблюдать ученики Высшей нормальной школы и классов Чэня.
Поскольку Бог есть компактификация Александрова для Вселенной — Евангелие от Гротендика, IV,22
70 1177782
>>77777
Не, я знаю статистику. Ну так, что проблем не возникает. Знаю вводные в биг дату, хадуп и пару алгоритмов. Максимум чято там используется это умножение матриц, что даже не линейная алгебра, нормы, просто определение, основы тервера, причем совсем простого и основы статистики, причем даже не какие-то оценки и прочее, а просто идея построения гипотез, даже не общих. И это я уже давно пытаюсь что-то откопать, а это вся математика, что мне встретилась.
71 1177783
>>77781

>Бурбаки


Нет, я не поехавший.
72 1177786
>>77783
Совкодрочер штоле? На западе, в отличии от Союза, их уважали.
73 1177787
>>77782

>а это вся математика, что мне встретилась.


ну так это так и есть. Хотя зависит от сортов бигдаты, вот поисковые машины тоже бигдата, но там основной упор на обработку текста и его хранение/поиск, а статистика дело десятое.
74 1177788
>>77786

>На западе


поэтому они надрачивали на советскую матанопетушню?
75 1177789
>>76320 (OP)

>персептроны действительно не работает


Выходить, нет смысла их изучать?
Что тогда изучать вместо них?
76 1177790
>>77787
Спасибо, конечно, за анализ, но есть что-то более общее? В смысле между основами и поисковыми машинами. Что читать и где?
77 1177791
>>77788

>матанопетушню


Ты кокой-то мамкин маняпитух, даже разговаривать нормально не умеешь. Поссал на тебя.
78 1177792
>>77775
почитай поковыряй sklearn. Всякое желание дальше ковырять тему биг даты пропадёт. И придёшь к нам в нейроночки
79 1177793
>>77792
А есть что-то после чего не пропадет?
80 1177794
>>77793
нету. это очень задротская тема
81 1177795
>>77790

>В смысле между основами и поисковыми машинами


Базы Данных.
82 1177798
>>77775
Бигдата начинается там, где заканчивается оперативка. Только и всего. Речь о данных, которые не влезут в имеющуюся оперативу. Остальное ничем не отличается от небигдаты, алгоритмы работы с этим зависят от того, что за дата. Если текст, то NLP итд.
72617.jpg55 Кб, 700x525
83 1177802
>>77798
Я очень часто встречаю в этом треде слово nlp и очень редко , скажем кластаризация.
Еще раз, я понял что такое биг дата, да я и знал впрочем, с определением про оперативку не согласен, важнее время выполнения, а это не совсем одно и то же.
И самое главное, че читать то, куда идти, по каким запросам гуглить. Пока имею только вот это >>77792 но автор грозится, что это отобьет всякое желание вообще.
84 1177803
>>77795
По этому запросу меня выкенет на склуль и прочие непотребства, что мне придется знать, но улубляться в чем я совершенно не хочу.
15237755775310.png77 Кб, 240x240
85 1177809
>>77802

> Пока имею только вот это >>77792 но автор грозится, что это отобьет всякое желание вообще.


Склерн это просто пистоновская либа с алгоритмами типа SVM итд. Ничего специфического для бигдаты там нет. Ты скажи ты скажии че те надо, че те надо, может дам может дам че ты хошь у тебя задачи какие? Если бигдата как вещь в себе, то всякие хадупы кури, если что-то конкретное, то что именно? Кластеризация? Тогда склерн, ну или карты Кохонена, но векторное квантование сейчас не в моде, хипстеры на коворкинге засмеют.
86 1177810
>>77803
бигдата работает с данными, а их где то нужно хранить, хранят их в сортах ов БД, вот и думай.
87 1177811
>>77809
ну да непосредственно биг дату он рассматривает как часть обучения, когда даты сильно дохера и она занимает всю оперативку чтобы сфитить модель. И там предлагается некие стратегии как всё-таки всё содержимое твоего винта скормить модели. мимо нуб
88 1177812
>>77802
на тебе, типичная биг дата с кучей всего, чего ты не осилишь:
https://github.com/Maxime2/dataparksearch
89 1177813
>>77809

>ты скажии че те надо


Найти призвание в жизни и заниматься им.
Мне нравится эта тема и я хочу работать в этой области.
>>77810
Еще раз, по запросу базы данных я стану мастером скуля, носкуля, еще какого говна, но ни на йоту не приближусь к большим данным. Машины тоже на бензине ездят, но гонщики почему-то на скаважины не ездят обучаться.
90 1177815
>>77812
Это же не обучающие материалы.
91 1177817
>>77813

>скуля


долбоеба кусук, скуль это язык запроса.
92 1177823
>>77813

> Найти призвание в жизни и заниматься им.


> Мне нравится эта тема и я хочу работать в этой области.


Ну если так глобально, иди на либген и качай что там есть по бигдате. Из пары десятков книжек всяко что-то заинтересует.
93 1177826
>>77817
И еще раз.
По запросу базы данных я стану профи в скуле или еще чем-то подобном.
>>77823
Урааа.
94 1177847
>>77789
Бамп вопросу
95 1177849
>>77847
Слушай больше всяких ебанашек. Перцептроны работают, только это очень неоптимальная хуйня, поэтому на сколько-нибудь сложной задаче встают раком. Ответ на вопрос "что изучать?" прямо вытекает из ответа на вопрос "что тебе надо?". Если машобчик как явление - то все подряд и изучай. ISLR, Бишоп, дальше сам разберешься что нужно, что нет.
Bishopjpg.jpg80 Кб, 400x546
96 1177851
>>77849
Окей, а какие именно серии комиксов нужно прочитать?
97 1177869
Ничоси у вас тут. Вот вы кормите тралов, думаете это все просто игра. А ведь на кормежку рано или поздно придет шизик из /ссы, и это будет конец треда опять. Он генерит тысячи постов про квалиа, семенит, спорит сам с собой и полностью вытесняет какой-либо другой контент. Я вполне понимаю, что данным сообщением вызову дополнительный интерес, но хочу сразу предостеречь пытливых - стоп. Остальные просто не найдут.
98 1177873
>>77869
чё за шизик из ccы/ Где это?
99 1177881
>>77731
Не в ноосфере, а квантовом мире. Квантовое сознание. Чего же ты такой не модный.
100 1177924
>>77881
Это ты не в тренде. Просвещайся: https://ru.wikipedia.org/wiki/Нооскоп
Занимается этим не кто-нибудь, а барин лично: https://ru.wikipedia.org/wiki/Вайно,_Антон_Эдуардович
Так что ты лучше того, варежку закрой, пока не обнаружил себя сидящим на бутылке.
101 1177929
>>77924
Ссылки бы вставлять научился. Что там? Богоскоп Лайно? Пиздуй с этой дурью на /по/рашу, к машобу это говнишко никакого отношения не имеет.
102 1177934
>>77929
А где можно пройти курсы по вставке ссылок на мейлач? Мне на русском надо.

>Богоскоп Лайно?


Он самый.

>дурью


Ты на кого батон крошишь, раб? Совсем рамсы попутал, черт. Твой хозяин сказал, что это надо.

>к машобу это говнишко никакого отношения не имеет.


Сказал так, будто хоть один пост ИТТ имеет какое-то отношение к машобу.
103 1177952
да пиздец, за сто коментов еще не высрали ниодной формулы
104 1177996
Что такое гиперпараметры? Почему они гипер, а не просто параметры?
105 1178028
>>77996

> Что такое гиперпараметры? Почему они гипер, а не просто параметры?


Гипер потому что это параметры, задаваемые пользователем (например, коэффициент обучения, число слоёв в нейроночке), а не настраиваемые самим алгоритмом (например синаптических веса) в процессе обучения. Т.е это параметры алгоритма, находящиеся над ним. Естественно, то что является гиперпараметром в одной модели, может быть параметром в другой, если он настраивается уже самой моделью.
106 1178034
>>76358

>> которое бы не аппроксимировало, а точно представляло задачу любой сложности через суперпозицию наиболее подходящих в данном случае функций


Дебил иди учи уроки, по конечной выборке нельзя ничего точно предсказать, между точками может быть что угодно. PAC методы лучшее, что есть на данный момент, включает неронки. Сходимость по вероятности - это максимум на что можно рассчитывать.
107 1178045
>>78034
Он видимо хочет добиться охуительного оверфитинга, и типа вот, УНИВЕРСАЛЬНЫЙ АППРОКСИМАТОР.
108 1178134
А правда, что нейроночки - смесь карго-культа и математики?
109 1178143
>>77770
Оно не решение принимает а реагирует на раздражитель, человек ничего не изобрел с нуля, все создавалось с помошью уже имеющегося опыта.
110 1178144
>>77873
кадр из /cc, который все полимеры просрал из-за нейронок, вот и поехал
111 1178146
>>77849

>Слушай больше всяких ебанашек


Сука, в оп-посте под спойлером и написано, что для сложной хуйни это говно не работает.
112 1178150
>>78144
спасибо. Пойду позову.
1.png11 Кб, 470x156
113 1178160
>>78034

>PAC методы


Ну и каково это, сначала кукарекать против Вапника, а затем ссылаться на сорта его теории? Шизики ебучие.
114 1178162
>>78160

>Ну и каково это, сначала кукарекать против Вапника


Кто посмел оскорбить Бога нашего шизика, кто совершил такое святотатство?
115 1178167
>>78160
Я вообще об этом молчал ты меня с другим шизиком перепутал
116 1178171
>>78167
>>78034

>по конечной выборке нельзя ничего точно предсказать, между точками может быть что угодно.


Между точками не может быть "что угодно". Там может быть то же, что и в точках - в случае стохастического процесса / процессов - распределение вероятности этих процессов, причем в худшем случае - в виде суперпозиции в общем случае неизвестных случайных процессов. По конечной выборке их восстановить можно только в случае, если все эти процессы детерминированные, разумеется. Чего в реальности не бывает. Однако, их можно аппроксимировать не рандомной функцией, которая само собой не работает даже на минимальной эстраполяции, а суперпозицией функций, наиболее близких к реальному распределению.
117 1178227
>>77775
scala (обычно ее используют), hadoop, h20, spark, kaffka, kubernetes и книжки издательства орайли (oreilly) по данным предметам, для нейронок часто используют всякие обертки на docker + какой-нибудь пакет для машоба (tensorflow, mxnet, pytorch)
fuzzylogic!.png185 Кб, 827x727
118 1178232
Смотрите, чему китайских школьников учат - http://gen.lib.rus.ec/book/index.php?md5=3B640E408D2A9B3AB41CFE50788FC8A0

>This basic book has been used at the middle schools in Shanghai, China for more than 10 years. The book presents carefully-selected contents in order to achieve the roles of enlightenment and popularization.


Вот поэтому Китай в области машобчика в обозримом будущем обгонит пиндосов.
119 1178235
>>78232
НЕЙРОНОЧКИ И МАШОБ ТРЕД. Новости.
В Китае обнаружена жежешечка артемия лебедева первая ферма по выращиванию нечётких петухов. Местный нечёткий петух уже ведёт переговоры с правительством Китая о поставках серийных петухов прямо в наш уютный тред. Мы будем следить за развитием событий.
120 1178237
>>78171

>> Между точками не может быть "что угодно". Там может быть то же, что и в точках - в случае стохастического процесса / процессов


Очень сильное предположение относительно просто выданной обучающей выборки.

>> их можно аппроксимировать не рандомной функцией, которая само собой не работает даже на минимальной эстраполяции, а суперпозицией функций, наиболее близких к реальному распределению.


Это типа перебрать гиперпараметры (семейство функций) по сетке и по CV замерить качество и выбрать лучший? Тогда зачем лямбда, которая здесь является лишней сущностью?
121 1178247
>>78237

>Очень сильное предположение относительно просто выданной обучающей выборки.


Почему? Все равно любой процесс либо заметно влияет на выборку и т.о. его как минимум можно выявить, либо не влияет и т.о. в самой выборке никак не отражен.

>Это типа перебрать гиперпараметры (семейство функций) по сетке и по CV замерить качество и выбрать лучший? Тогда зачем лямбда, которая здесь является лишней сущностью?


Лямбда затем, чтобы эти внешние для модели гиперпараметры стали настраиваемыми параметрами модели, как в случае ядер в SVM. И чтобы структура нужной функции / суперпозиции функций подбиралась сама, а не выбиралась из чего-то априори заданного таблицами итд.
122 1178287
>>78232
А как у них вообще учат математике и информатике?
123 1178288
>>78287
Хорошо.
124 1178302
>>78288
тогда почему проебуют алемпиады?
125 1178313
>>78302
Потому что это бессмысленное задротство ради жестяных кубков и циферок на малоизвестном сайте.
126 1178314
>>78313

>Потому что это бессмысленное задротство ради жестяных кубков и циферок на малоизвестном сайте.


Как ты сейчас точно описал весь нейронодроч на MNIST-е.
127 1178385
А вот интересно, может ли нейроночка распознать капчу на дваче?
128 1178386
>>78385
Нюфаня, этим ещё сто лет назад баловались.
https://github.com/Kagami/chaptcha
129 1178410
>>78386
тогда в чём смысл качп, если они так легко ломаются?
130 1178421
>>78410
1) Гуглокапчу для того и ввели, 2) средний двощер не осилит ничего сложнее программы с большой кнопкой "сделать заебись", 3) надо собирать тренировочный сет, 4) возможно, для массивного вайпа это не подойдёт из-за доп. нагрузки на систему (хотя, наверное, зависит от реализации), 5) все охуевшие ловят бан подсети, остальные сидят и не вякают.
131 1178468
>>78410
Чтобы школьники не вайпали, допетрив до скрипта постинга говна в цикле. Более же взрослым людям нахуй не всралось тратить время на вайп мочана.
132 1178472
>>78386
пиздос, даже в демке обосраслись. воистину, нейропараша ждля пидарасов.
133 1178481
>>78472
Как там дела у дедовских методов с точностью на искажённых данных?
134 1178485
Где найти БД картинок машин, где видно номера? Пробну сделать распознаватель номеров.
135 1178498
>>78481

>искажённых данных


наркоман, где там искаженные? на развороте страницы при сканировании больше смещение
136 1178502
Подскажите как можно объединить точки с первой пикчи в линии идущие от левого края картинки к правому (лишние надо выкинуть).

Исходные данные - вторая пикча. Мне, по сути, надо распознать горизонтальные кривые линии на изображении. Подкиньте идей, вообще не пойму с чего начать.

На первом пике выделены "локальные максимумы" столбцов второго изображения.
138 1178577
Сделайте что ли телеграм чат.
139 1178580
Убер нехило ускорил нейроэволюцию на Атари: https://eng.uber.com/accelerated-neuroevolution/
140 1178618
>>78502
Это сейсмика?
Если да, оставь фейкомыло
141 1178664
>>78618
fakez:k2404ANUSyqTlandexPUNCTUMr4yNu
142 1178665
>>78572
Ну всё, через пару недель ждите раздевающие тянок мобильные приложения
143 1178687
>>78577
А оно надо кому? Его ж модерировать придётся, чтобы стикеры с цп не лили и проч.
оп
144 1178724
>>76320 (OP)

>3 пик


А что есть тело?
145 1178731
>>78724
Математика, наверное.
146 1178747
сделать бы каталок баз с картинками
sage 147 1178795
148 1178977
Кто-нибудь может прогнать у себя этот датасет?
У меня почему-то выдаёт только одну мышь.
ЧЯДНТ
https://yadi.sk/d/SJhYyKs_3UjRCb
149 1179006
Посоветуйте годных учебников по теории вероятностей и статистике!
Чтоб для самых маленьких и тупых. Мой бэкграунд: школа.
150 1179009
>>79006
Вентцель, "Теория вероятностей".
151 1179014
>>79009

Спасибо
152 1179098
>>79022 (Del)
Не нужно.
153 1179387
>>79006

>Мой бэкграунд: школа.


Ты не прогуливал что ли?
154 1179490
Хочу пилить ИИ для игр (не танчики, а серьезные направленные на это проекты вроде http://www.botcolony.com , но для начала как-то попроще), и возникает вопрос на какой стул садиться. Большинство игровых проектов не ААА сейчас пишутся на луа, но тут проблема с библиотеками для нейроночек. Зато с ними все просто замечательно на питоне, на котором игорей не пишут. Правильный ли я делаю вывод что нужно вкатываться в торч на плюсах?
1524056229128758608.jpg16 Кб, 400x222
155 1179517
>>79490

>ИИ для игр


>серьезные направленные

156 1179521
>>79517
Ты бы погуглил что-нибудь типа "game industry revenue", что ли. Или ты очередной илитист с пхд по серьёзности с двача?
мимохуй, не играющий в игры
157 1179532
>>79517
Почему-то не выдерживаю её взгляда. Про оригинальное видео вообще молчу, мне стыдно это смотреть.
158 1179541
>>79521
ИИ для игорь это что то на уровне ясель
159 1179546
>>79490

> на луа, но тут проблема с библиотеками для нейроночек


Торч на луа же.
160 1179573
>>79546
Теперь живем, мой милый на луа пишет, могу нейроночки приделывать!
161 1179697
Что можно прочитать про обучение RNN? Посмотрел лекцию, там сказали, что обратное распространение ошибки не работает нихуя. В одной статье нашёл обучение через генетически алгоритм, лол.
162 1179701
>>79490
Всё в этом посте неправильно. Не программируй никогда.
163 1179704
>>78665
Сам сделай, хули. Всего то надо на силуэт натянуть модельку голой тёлки.
164 1179752
>>79490
да тут больше инженерная задача. имхо есть смысл поэксперементировать с процессами и расшаренной паматью. например вкатываешься в питон, делаешь сервак в котором крутится модель. Игруля птшется на любом языке и просто имеет апи через который взаимодействует с процессом которым управляет змеиный интерпритатор. Еще сейчас намечается тенденция глобализации в програмаче. неисключено что популярные игровые фрйемворки выкатят некие инструменты по компилированию моделей из питоновсеих либ в свои экоситьемы. Так что если всерьез думаешь об ии начинать имеет смысл с питона ввиду большего количества обучалок и документации от сообщества
165 1179793
>>79697
Гугли LSTM и GRU.
166 1179842
Как же хочется стажировочку...
167 1179864
>>79697
диплернингбук и ссылки из нее.
Там коротко и про то, что градиенты нужно клипать, и немного других базовых вещей.
168 1179866
>>79697
attention is all you need
169 1179921
Можете объяснить, что такое свёрточная сеть своими словами, позязя?
170 1179939
так же еще один тупой вопрос
можно ли натренировать нейронку на датасете из 15 картинок?
171 1179962
>>79921
Перцептрон знаешь? Вот взяли перцептрон и его построчно по картинке двигают.
>>79939
Можно ли научить тебя распознавать класс "животное", если тебе покажут только кота, ворону, жопу осла, и дохлую рыбину?
172 1179963
>>79921
Короче бля, тебе дают массив весов размером 3 на 3, ты умножаешь на эти веса область данных 3 на 3, суммируешь, в среднюю записываешь результат. Так как ядер свёртки разное количество и всё это пуляется и прогоняется ещё раз, а потом ещё и накрывается посносвязным слоем, такие значения в итоге подают на нейроны как-то невъебенно перекодированную информацию об расположении значений, об их последовательностях.
173 1179965
>>79939
Смотря какие картинки и что распознавать. Но вообще наврятли, скорее обучишь её распознавать эти 15 картинок.
174 1179967
>>79962

>Можно ли научить тебя


Вполне.
175 1179970
>>79967
Если перед этим ты не видел вообще никаких животных?
176 1179977
>>79939
Да, можно.

Надо просто напихать побольше слоев, и сделать все нейроны линейными для ускорения обучения и избежания оверфитинга
177 1179978
>>79970
Ты недооцениваешь интеллект ребенка. Он вполне сможет сделать вывод, что все что выглядит как живое и не является человеком, является животным.
178 1179982
>>79978
Перед этим ребенку нужно запомнить человека и окружающую среду, чтобы все незнакомые движущиеся объекты, методом исключения, отнести к живым.
нейросеть такой возможности не имеет.
179 1179984
>>79982
Поэтому твоя аналогия не корректна.
180 1179986
>>79977
спасибо! Какие еще будут инструкции?
181 1180007
Что делать если меня взяли за жабры в универе? Мне задали сделать задачу регрессии с помощью нейронной сети. Я взял нейросетевую библиотеку Keras, пытался сделать 3-5 слоев с десятками нейронов. Нихуя не вышло, тогда я психанул и сделал 12 слоев и в каждом по нескольку сотен нейронов. Всё вышло охуенно, я показал результат в универе и старушка-препод была в восторге и думала, что я невъзебенный ботан и познал матан.

Теперь старушка-препод сказала, чтобы я описал нейронную сеть и описал сколько там слоев и нейронов.

А что теперь делать? Так и сказать, что у меня 12 слоев с тремя тысячами нейронов?
182 1180017
>>79962

>Можно ли научить тебя распознавать класс "животное", если тебе покажут только кота, ворону, жопу осла, и дохлую рыбину?


Да.
183 1180021
>>80017
Я выше написал для дегенератов - сравнение с другими известными образами и классификация методом исключения не считается.
184 1180133
>>80007

>> Так и сказать, что у меня 12 слоев с тремя тысячами нейронов?


Да, построй еще графики ф-ии потерь на валидации и трейне и покажи бабуле, что не переобучился.
185 1180195
>>80007

>пытался сделать 3-5 слоев с десятками нейронов. Нихуя не вышло, тогда я психанул и сделал 12 слоев и в каждом по нескольку сотен нейронов. Всё вышло охуенно


Вся суть диплернинга же.
186 1180199
>>79939
См. работы по метаобучению. Популярный датасет omniglot, например, содержит всего несколько примеров для каждого класса.
187 1180221
И всё-таки как обучать RNN?
188 1180226
>>80221
Никогда не поверю, что это какая-то военная тайна и на каждом углу (слесарьплов, керас, ...) нет конкретных примеров. Сдается мне мил человек, это тебя обучать как-то надо, а не эту нейрон очку.
189 1180229
>>80226
Тащемта правда тайна. Найти можно только абстрактную хуйню про то, что нужно все веса по одному значению считать или что это возможно только с генетическими алгоритмами.
190 1180289
>>80221
Ребята, не стоит вскрывать эту тему. Вы молодые, шутливые, вам все легко. Это не то. Это не Чикатило и даже не архивы спецслужб. Сюда лучше не лезть. Серьезно, любой из вас будет жалеть. Лучше закройте тему и забудьте, что тут писалось. Я вполне понимаю, что данным сообщением вызову дополнительный интерес, но хочу сразу предостеречь пытливых - стоп. Остальные просто не найдут.
191 1180333
>>80226

> это тебя обучать как-то надо, а не эту нейрон очку.


И как же?
192 1180354
Здорова, пацаны. Перекатываюсь к вам из пхп. Заебало слесарить проблемы уровня «отчёт не пришёл пушо кто-то поломал статистику с индексами в базе». Хочу жить поближе к бизнесу.
Имейте в виду, короче, конкуренция растёт.
193 1180369
>>80221
Есть смысл юзать только для последовательностей входных данных, и то периодически, например, в данных с финансовыми кривыми, иногда лучше использовать 1D свёрточные. А можно комбинировать.
Обучение просто работает через backprop in time, та же самая херня как с обычным backprop (Chain rule), только распространяется на время.
Но там трабл в том, что есть Vanishing gradient проблема, то есть если нейронов много, то градиент пидорасит и нейронка перестаёт вообще понимать, что происходит в этой ёбаной жизни. И для фикса этой проблемы юзают GRU\LSTM, которые с помощью специфичной реализации контроля запоминания\забывания входных данных могут блочить всякую ненужную инфу, которая в них попадает, при том ещё и запоминая далеко отстоящие связи.

Итого:
Гугли backprop in time, vanishing gradients. По ЛСТМам на архиве есть статья неплохая, вроде бы, с участием Bengio, но там довольно жоска, если не читал другой литературы.
194 1180394
>>80354
Мдауш.
195 1180411
>>80354
Ну такое. Хороший пыхарь знает Си, человек знающий Си знает всё.
196 1180412
>>80411
Сишник, если он знает только С, сосет хуец в функциональшине.
197 1180414
>>80412
Знающий Си знает все языки программирования априори, ему ничего не стоит изучить новый, разве нет?
15224620502200.jpg47 Кб, 512x680
199 1180437
>>80429
Вот ты думаешь, что умный, раз Канта запостил, а на самом деле ты еблан, и я это докажу. ЦНС человека не с нуля появилась, а в ходе миллионов лет эволюции. И возможность априорных суждений это свойства ЦНС. Нейровизуализацией показано, что априорные интуиции пространства и времени зависят от предсуществующих структур в rIPC, нижней префронтальной коре. Да, все это работает у новорожденных и опыта не требует, вот только новорожденный это продукт взаимодействия геномов своих родителей, а не собранный с нуля биоробот. А вот веса нейрон очки это именно взятые более менее с потолка значения и не зависят от предсуществующих нейроночек. Поэтому сравнивать такие вещи с человеком это глупость либо толстота.
200 1180451
>>80437

>все создавалось с помошью уже имеющегося опыта.


>возможность априорных суждений это свойства ЦНС.


Так априорные синтетические суждения возможны или нет? Почему ты противоречишь сам себе?
201 1180457
>>80437
Как тогда люди учатся водить машины, допустим? Ведь у предков людей их не было. Точно так же могу сказать про чтение, письмо, сложение-вычитание, да и вообще про способность абстрактно мыслить - это уникально для человека, за исключением пары других видов у которых это развито примитивно.

Плюс, твои утверждения в корне ошибочны, ибо по твоей логике каждый человек по дефолту способен на все то на что способны другие люди, что в корне неверно. Ребенок выросший в лесу слабо похож на своих сверстников.

То что ты говоришь касается лимбической системы, допустим, она не осознана и выполняется в нашем мозгу как программа свернутая в трей, и формируется она еще со времен динозавров, но, так сказать, уровень сознания у каждого человека уникален, в т.ч потому-что для каждого индивида эволюция мозга своя, и каждый индивид проживает уникальную жизнь, только в общих чертах похожую на жизнь всех остальных.
202 1180467
>>80451

> Так априорные синтетические суждения возможны или нет?


Возможны. Только они представляют собой не то, что ты думаешь.

> Почему ты противоречишь сам себе?


Это ты думаешь, что противоречу. На самом деле противоречия тут нет.
>>80457

> Как тогда люди учатся водить машины, допустим? Ведь у предков людей их не было.


Потому что кроме безусловнорефлекторной деятельности есть ещё условнорефлекторная.

> То что ты говоришь касается лимбической системы,


Нет, конечно же.

> Плюс, твои утверждения в корне ошибочны, ибо по твоей логике каждый человек по дефолту способен на все то на что способны другие люди, что в корне неверно.


Во-первых, это не мои утверждения, а данные нейровизуализации. Во-вторых, это твоя, а не моя логика, я ничего подобного не утверждал, и из приведенных мной фактов ничего подобного не следует.
203 1180490
>>80437
Но ведь всей этой писанины можно было избежать, ведь канта пидор...
boosting vs bagging? 204 1180515
Няши, есть ли где-то исследования о: boosting vs bagging?
Не является ли bagging более продвинутым алгоритмом (хотя он и проще) хотя бы потому что он не может уйти в редкие цепочки вида (A>N1)&(B<N2)&(B>=N3)&(...) ? Покрывает ли boosting всё алгебраическое множество, когда положительные результаты в диаметрально противоположных углах пространства? Например (A>0.95)&(B>0.95) и (A<0.05)&(B<0.05) ?
205 1180535
>>80457
Вот это научпоп.
151629721280.jpg771 Кб, 857x1200
206 1180614
1) Если набор фич x_train[:N] кажется мне более важным чем x_train[N:], как мне увеличить его вес при обучении нейроночки?
2) Как и чем лучше крутить ручки гиперпараметров? Стоит ли использовать что-то кроме RandomizedSearchCV? Как лучше определять в какую строну крутить?
3) Есть ли механизм нахождения важности фич менее топорный чем считать mean фичи и заменять им весь столбик чтобы проверить насколько упадет аккураси?
Дяденьки матаноняши, не набрасывайтесь на меня, как только научусь пользоваться тем что есть, так сразу ударюсь в теорию чтобы раздвигать горизонты самостоятельно.
207 1180715
>>80614
1) Зачем? Нейронка сама определит, какие фичи важные, а какие нет, если собрана архитектурно адекватно. Если ты про диплёрнинг, конечно.
Если ты про простые модели, то тут очень важно тщательно продумывать, что нужно пихать в нейронку, а без чего можно обойтись.

! Вообще совет насчёт датасетов. Вникай в задачу логически как человек. С чем и что может объективно коррелировать. И там уже отбирай нужные фичи, выкидывай ненужные.

2) Уточни вопрос. Я, конечно, могу почитать эту тему, но скайкитом я не пользуюсь, поэтому быстрее будет, если ты объяснишь это абстрактно.

3) Логически думаешь, что важно, а что нет. Матлаб автоматически, например, пытается исключать определённые фичи и даже предлагает это вручную делать.
208 1180796
>>80715
3) В датасетах с которыми я работаю какая-то часть фич вообще не интерпретируется, а влияние остальных невозможно предсказать логически, разве что объеденив в группы, которым я хочу задать разные веса.
1) Особенность задачи и то что я хочу предварительно натренировать нейронку на немного других данных.
2) Это то же самое что перебирать комбинации гиперпараметров из таблицы (как в GridSearchCV), только в RandomizedSearchCV ты задаешь количество комбинаций и можешь вводить параметры диапазонами.
Суть в том что находились статьи где описывались методы умнее чем тупо перебор без оптимизации поиска, но на практике никто (в статьях и коде на гитхабе не топ-уровня-такого-что-я-не-пойму) их не применяет.
209 1180901
>>80796
Ну на самом деле как ты понимаешь, суть формирования модели это подгонка весов под некоторую оптимальную комбинацию.
Не знаю, есть ли что-то такое в скайките, но в Керасе\Тензоре можно настроить нетренируемость слоёв определённых. Если попробуешь поизвращаться с кодом на тензоре или будешь писать нейронку с фундамента, то сможешь залочить какие-то параметры после некоторого числа итераций.
Есть ещё опция с тем, что можно задать самому какие-то веса заранее, а можно вообще загрузить из некоторой стадии обучения.

1) Если хочешь на других данных - очень сильно зависит от типа нейронки, уточни. Потому что для тех же CNN можно какое-то число первых слоев свёртки и макс-пула оставить нетренируемыми после обучения на другом датасете, так как они содержат фильтры примитивов на картинке. А дальнейшие слои перетренировать, чтобы более специфичные для задачи паттерны выделить.
С теми же RNN это так скорее всего не сработает, но попытаться можно, маловероятно.

2) На самом деле всякие оптимизации по параметрам довольно сложно вычленять. Честно говоря это в основном приходит с опытом, видишь одну фичу на плоте - понимаешь, что то-то и то-то может быть проблемой. Обычно здесь говорят так: "Прочекайте основные логичные предположения, потом перебирайте"
Можешь почитать что-нибудь вроде книжки от создателя Кераса по МЛ, там есть пару фич. Или курс на курсере от Ынга глянуть, он тоже некоторые такие признаки выдаёт, что и где подкручивать.
Если признаки не помогают, то обычно тут помогает только тык с отсылками на логику задачи.

3) Можешь привести пример данных, которые нельзя интерпретировать? (Желательно ещё контекст задачи) Если хочешь разделить на несколько весовых групп, то попробуй просто в ручную загрузить веса с некоторой рандомизацией в каждый из твоих условных блоков. Только обязательно регуляризацию сделай, а то эффективность может люто упасть.
210 1180929
Гиперпараметры потому так и называются, что нет алгоритма для их эффективного подбора. Иначе бы это были просто параметры алгоритма. Даже такую простую вещь как learning rate невозможно определить заранее, нужно пробовать разные и смотреть как получается, т.е. фактически перебором. С опытом начинаешь замечать признаки, по которым можно определить некоторые стандартные проблемы, например слишком высокий learning rate. Для SOTA результатов все равно решает перебор, в т.ч. перебор по архитектурам, которые тоже на самом деле гиперпараметры. В частности, на кагле суть работы сводится к feature engineering и подбору гиперпараметров, довольно нудное занятие как по мне.
211 1180932
>>80929

> Гиперпараметры потому так и называются, что нет алгоритма для их эффективного подбора.


Это проблема функции потерь на самом деле. Если использовать полтора стандартных варианта ,известных хипстерам, то да, задача не то чтобы нерешаема, просто решение скажем не будет поражать качеством. Нужны более комплексные оценки качества решения задачи, чтобы не только среднеквадратичные отклонения считал, но и устойчивость решения на экстраполяциях итд. Что-то по типу комбинированных критериев Ивахненко. Но это для хипстров сложна.
212 1180940
>>80932
Ну и как тебе более другая функция оценки качества решения поможет подобрать значения десятков гиперпараметров, таких как количество слоев, типов слоев, нейронов в слоях (и это мы еще даже не затрагиваем более экзотические архитектуры, не укладывающиеся в концепцию слоев), типы нелинейных преобразований, проценты дропаута, тип оптимизатора и его параметры, вид схемы инициализации весов сети и ее параметры? Установи любой из этих гиперпараметров неправильно, и вообще ничего не натренируется.
213 1180944
>>80940

> Ну и как тебе более другая функция оценки качества решения поможет подобрать значения десятков гиперпараметров, таких как количество слоев, типов слоев, нейронов в слоях (и это мы еще даже не затрагиваем более экзотические архитектуры, не укладывающиеся в концепцию слоев)


Очевидно, что все это говнишко не нужно, все равно там одно шаманство, для которого даже vc-размерность не найдешь. Можно взять простую модель, скажем SVM, и усложнять только ядро, так чтобы оно возможно более точно представляло функции идентифицируемой системы. С другой стороны, если человек с опытом может подобрать гиперпараметры нейроночки, значит это алгоритмически разрешимая задача и решается подходящими эвристиками (а не тупо брутфорсом).
d5d248a949f7a36d54f20557c9b82c35d7a2e2df.png2,2 Мб, 1400x1000
214 1180982
>>80901
С таким функционалом как я хочу попробовать, кажется, проще действительно переписать модели самостоятельно.
1) В моем случае нейронка тоже гиперпараметр, вот попробую и посмотрю что взлетит.
2) Кажется, в тех случаях что ты написал все советы можно свести к тому чтобы построить гистрограммы метрики каждой фичи по хистори поиска гиперпараметров и если максимальное значение не в середине - то раздвинуть поиск в нужном направлении. Тоесть, если подбирается 5 гиперпараметров, то рассматривается каждый отдельно и если для какой-то условной С = [0.01, 0.1, 1, 10, 100] выше всего значения метрик были не при С = 1, а при С = 100, то добавить еще С = 1000 и С = 10000, затем повторить наблюдение.
3) Например, нельзя интерпретировать хеши. Были какие-то строки разного размера, по которым я специальным алгоритмом строю бинарные репрезентации длинной ровно N бит. Теперь нельзя сказать что означает значение какого-то конкретного бита. Плюс к этим хешам добавляются еще варианты репрезентаций тех же строк, какие-то я считаю более важными, какие-то менее, но все же необходимыми. Плюс, я знаю что нейронка вероятно будет забивать на какую-то часть фич, потому что она разделяет данные не так явно (на начальных этапах), поэтому нужно реализовать например дропаут сильной части фич, чтобы модель училась и на слабой.
>>80929
Про алгоритм я понимаю, но может быть можно как-то оптимизировать процесс чисто инженерными решениями, например, тот же GridSeachCV из dask-ml возможно работает быстрее чем из sklearn. Таким образом, мой вопрос сводится к тому какую функцию какой библиотеки выбрать для того чтобы находить гиперпараметры в моем манкикоде.
>>80944
Знаешь почему хипстеры заполонили? Потому что когда кто-то новенький пытается вкатиться, он не идет сразу на арксив читать последние фундаментальные исследования, он хочет попробовать написать что-то по понятным инструкциям, повторить с какими-то незначительными вариациями для своих данных что-то подробно описанное. И когда он ищет эти инструкции, ими оказываются исключительно хипстерские поделки от реддита до видосиков на ютубе где школьник поясняет за шмот и то как напихать слоев чтобы получился диплернинг. Знаешь что тогда делает ньюфаг? Он повторяет хипстеркий подход и тут же описывает свой опыт в бложеке чтобы остальные могли повторить. Матаноняш, я какое-то время слежу за тредом и ты никому не помог и не написал ни одного гайда по которому можно было бы вкатиться в твою религию.
Пожалуйста, напиши что-то конструктивное чтобы помогло и работало (например, что делать со страшной SVM кроме хипстерского перебора гиперпараметров из вариантов в sklearn, хотя бы как найти нужное ядро), или начни подписываться чтобы тебя можно было скрыть.
А вообще я хочу чтобы хоть кто-то меня учил, а не только показывал насколько больше знает чем я. Или хотя бы чтобы учился вместе со мной.
d5d248a949f7a36d54f20557c9b82c35d7a2e2df.png2,2 Мб, 1400x1000
214 1180982
>>80901
С таким функционалом как я хочу попробовать, кажется, проще действительно переписать модели самостоятельно.
1) В моем случае нейронка тоже гиперпараметр, вот попробую и посмотрю что взлетит.
2) Кажется, в тех случаях что ты написал все советы можно свести к тому чтобы построить гистрограммы метрики каждой фичи по хистори поиска гиперпараметров и если максимальное значение не в середине - то раздвинуть поиск в нужном направлении. Тоесть, если подбирается 5 гиперпараметров, то рассматривается каждый отдельно и если для какой-то условной С = [0.01, 0.1, 1, 10, 100] выше всего значения метрик были не при С = 1, а при С = 100, то добавить еще С = 1000 и С = 10000, затем повторить наблюдение.
3) Например, нельзя интерпретировать хеши. Были какие-то строки разного размера, по которым я специальным алгоритмом строю бинарные репрезентации длинной ровно N бит. Теперь нельзя сказать что означает значение какого-то конкретного бита. Плюс к этим хешам добавляются еще варианты репрезентаций тех же строк, какие-то я считаю более важными, какие-то менее, но все же необходимыми. Плюс, я знаю что нейронка вероятно будет забивать на какую-то часть фич, потому что она разделяет данные не так явно (на начальных этапах), поэтому нужно реализовать например дропаут сильной части фич, чтобы модель училась и на слабой.
>>80929
Про алгоритм я понимаю, но может быть можно как-то оптимизировать процесс чисто инженерными решениями, например, тот же GridSeachCV из dask-ml возможно работает быстрее чем из sklearn. Таким образом, мой вопрос сводится к тому какую функцию какой библиотеки выбрать для того чтобы находить гиперпараметры в моем манкикоде.
>>80944
Знаешь почему хипстеры заполонили? Потому что когда кто-то новенький пытается вкатиться, он не идет сразу на арксив читать последние фундаментальные исследования, он хочет попробовать написать что-то по понятным инструкциям, повторить с какими-то незначительными вариациями для своих данных что-то подробно описанное. И когда он ищет эти инструкции, ими оказываются исключительно хипстерские поделки от реддита до видосиков на ютубе где школьник поясняет за шмот и то как напихать слоев чтобы получился диплернинг. Знаешь что тогда делает ньюфаг? Он повторяет хипстеркий подход и тут же описывает свой опыт в бложеке чтобы остальные могли повторить. Матаноняш, я какое-то время слежу за тредом и ты никому не помог и не написал ни одного гайда по которому можно было бы вкатиться в твою религию.
Пожалуйста, напиши что-то конструктивное чтобы помогло и работало (например, что делать со страшной SVM кроме хипстерского перебора гиперпараметров из вариантов в sklearn, хотя бы как найти нужное ядро), или начни подписываться чтобы тебя можно было скрыть.
А вообще я хочу чтобы хоть кто-то меня учил, а не только показывал насколько больше знает чем я. Или хотя бы чтобы учился вместе со мной.
215 1181021
>>80982
2) Да, можно сделать в таком духе.
3) Думаю, что можно попробовать сделать две нейронки сходной архитектуры, в одну впихнуть важные параметры, в другую те, что ты считаешь менее важными. Потом присоедить эти две нейронки к общему слою и вывести.
Так будет проще искусственно подогнать веса в нейронке с важными параметрами, возможно даже искусственно сможешь их просто домножать при попадании в выходную нейронку. Такой подход позволит наверняка выделить то, что тебе важно, если ты подобрал "важность фич" корректных образом.
216 1181029
>>81021
2) В таком духе работает не лучшим образом, это самый примитивный подход который получилось реализовать.
3) У меня есть какое-то подсознательное чувство что это кисленькое решение. Еще нужно подумать что делать с классическими моделями вроде SVM и лесов.
217 1181059
>>80944
SVM слишком вычислительно сложный для большого (а по нынешним меркам крошечного) количества данных, как говорит Ын, и сложное ядро тоже дорого вычислять, а если дорого, - значит это не работает, и поэтому сразу все ушли с SVM на нейроночки, несмотря на все их минусы
218 1181093
>>80944

>подобрать гиперпараметры эффективно нельзя


>нет можно, надо другую функцию потерь


>как?


>гиперпараметры нинужны!


Жду очередной порции нелепых кривляний нечеткого петуха в оправдание своей никчемности.
219 1181145
>>81093

> Жду очередной порции нелепых кривляний нечеткого петуха в оправдание своей никчемности.


Мань, я ж написал про эвристики. Если это может сделать человек, то может и алгоритм.
>>81059

> SVM слишком вычислительно сложный для большого (а по нынешним меркам крошечного) количества данных, как говорит Ын, и сложное ядро тоже дорого вычислять,


Негров распознавать? Да, для такого SVM малоприменимы. Но можно ограничиться временными рядами, лично мне это интереснее, чем негры и разрисованные под Пикассо котики.
1431579883723.jpg185 Кб, 1013x800
220 1181176
>>81145
Я не буду расстраиваться только потому что нечетконяша меня проигнорировал.
Зато мною была разгадана тайна почему тебя не любят в треде. Задача плохая потому что твой любимый метод с ней не справляется? Серьезно? Можно ограничиться тем что у тебя получается делать? Все что не получается это ненужно и для хипстеров? Да ты же ограниченный!
221 1181242
>>80437
Можно провести параллель с натренированной сетью в которой пользователю (вернее разработчику) предлагается самостоятельно натренировать последний слой на собственной выборке.
222 1181283
>>81145
Ну и зачем нужны твои временные люди? Сверхчеловеки живут вне пространства и времени и смотрят на картины Пикассо с котиками-неграми.
223 1181370
>>81176

> Задача плохая потому что твой любимый метод с ней не справляется? Серьезно?


Плохих задач нет, есть плохие подходы к решению. Всякое хипстерство с нейрон очками как раз из этой области.
224 1181372
>>81283

> Ну и зачем нужны твои временные люди?


Чего? Временные ряды это задача, с которой ни один существующий подход не может справиться. Никакие хипстерские диплернинхи на топовых видюхах не дают качества заметно выше какой-нибудь arima из 80х. Ящитаю, это пиздец. А проблема только в том, что нет понимания этой задачи.
225 1181383
Зачем нужны нейронки когда есть вероятностные логические машины?
226 1181389
>>81383

> вероятностные логические машины


И что это? Байесовский вывод или где?
227 1181410
>>81145
дак для временных рядов (я только про звук знаю и не очень хорошо) нейроночки тоже много где заменили svm, так как для svm для звука нужны всякие костыли вроде гауссовских смесей, которые являются довольно приближенной и грубой штукой, ну и для звука хорошо заходят сверточки и рекурсия, я не уверен, можно ли сделать для svm рекуррентное ядро (думаю, можно).
Ну, а для части временных рядов и марковских процессов хватит даже и логрегов.
Ну и основной хайп для потребителя в звуке.
228 1181413
>>81410
Я имею в виду предсказания временных рядов, скажем финансовых. Хотя бы дальнейшего их направления при минимальной экстраполяции. Как пример, для бинарных опционов хватило бы правильного предсказания направления значения, т е будет ли цена выше или ниже текущей через минуту, с точностью хотя бы 30%, т.е чтобы не было больше 3-4 неправильных предсказаний подряд. Даже такие скромные требования не гарантирует любой алгоритм. Лично я вижу в этом всю суть нынешнего машобчика. А негров распознавать, да они мне в хуй не стучат. Как и котики.
229 1181414
>>81389
Очевидно это индуктивная машинка, на нее подаются данные, она считает вероятность удачного исхода.
230 1181419
>>81414

> Очевидно это индуктивная машинка, на нее подаются данные, она считает вероятность удачного исхода.


Ну байесовский вывод. В R дохуя такого. Только вся возможная неточность к вероятности не сводится, возможны и другие варианты. На основе большинства из которых системы вывода вообще никем и никогда не делались, поэтому невозможно сказать даже что из этого может оказаться полезным. Хипстеры в это не могут, так и живём.
231 1181422
>>81419
Ты хоть что-то делаешь кроме того что ноешь? Покажи свой гитхаб или пейперы.
232 1181457
Сап, тяночки. Вот пытаюсь делать тутор по распознанию прямоугольника на картинке. https://github.com/jrieke/shape-detection/blob/master/single-rectangle.ipynb . Застрял на первлм же абзаце. Вкратце кун генерит датасет из овер 40000 семплов с одним единственным черным прямоугольником и тренит модель. Чую это какой-то бесполезный подход к стратегии распознавания предметов. Скиньте пожалуйста годный тутор на ваш перцептрон что-ли.
234 1181487
>>81460
а есть что нибудь для макак?
vsemdobra.jpg58 Кб, 848x480
235 1181489
>>81487
Конечно! Как насчет дружеского совета? Свали.
236 1181507
>>81457

> Чую это какой-то бесполезный подход к стратегии распознавания предметов


Распознавание нейрон очками так и работает. Берётся миллион фоток негров, тренируется сеть, затем сети предъявляется миллионпервый негр, сеть выдаёт ответ что это горилла, у негра попито бомбито whomst da fak faking gugle, my friends not a gorilla
237 1181514
>>81507
ну с классификацией блять понятно. Меня сейчас дико интересует что именно на картинке в области 0х0х100х100 негр а 50х50х100х100 кот...
238 1181516
>>81514
Оно само может в сегментацию. Поэтому если на картинке есть и негр и кот, распознаётся и то и другое.
239 1181524
>>81516
Вангую, если кот черный, то он может задетектится как негр
мимо
240 1181536
>>81516

>Оно само может в сегментацию


Надо просто потрясти или чё?
241 1181559
Аноны, почему статистики все такие красивые уберменши как в американских фильмах?
242 1181561
>>81524
Сделай нейроночку трёхканальной )))
243 1181606
>>81413

>финансовых


Ты ебанутый, блять?
244 1181622
>>81606
А что не так, мань? Там определённо есть распределение (или некая суперпозиция распределений) отличное от нормального, т.е не чистый рандом , в чем очень легко убедиться (мартингейл не работает, а в случае нормального распределения заходил бы идеально).
245 1181673
>>81622

>Там определённо есть распределение


Хуяпределение. А еще твое нейронное говно не поддается отладке.
246 1181677
>>81673

> А еще твое нейронное говно не поддается отладку.


Тебе лет сколько? 12? Что ты сказать пытаешься, хуесос? Рюсське изика можешь, нихт? Или пиши по-человечески или иди нахуй уже.
247 1181681
>>81677
Написал тебе за щеку, ньюфаня в розовых очках.
1522917251186673350.jpg87 Кб, 605x578
248 1181685
>>81681
Пикча отклеилась
249 1181745
>>81622

>не чистый рандом


Не, ты точно ебанутый. Т.е. ты считаешь, что возможно предсказать, например, что через минуту кто-нибудь по какому-нибудь инсайду от тёти Сраки начнёт распродавать свои активы? А для того, что ты выше написал, не нужно ничего, кроме макаки и графика курса - она такой же процент точности выдаст. И это тебе нихуя не даст, лол.
intellectual.jpg9 Кб, 211x239
250 1181838
>>80944

>если человек с опытом может подобрать гиперпараметры нейроночки, значит это алгоритмически разрешимая задача

251 1181859
>>81745
Ты мне хочешь доказать, что теханализ рынка невозможен или что?
252 1181861
>>81859
Ну посчитай количество повышений и количество понижений цены, если так непонятно... случайные там данные, ясно?
253 1181884
Сап. У моего друга есть майнинг-ферма на 48 1080ti. Спрашивает можно ли извлечь из них профит с помощью ML?

Мои варианты:
- разгадывание капч за 0.00005 копеек сразу нахуй
- покер-бот потратить несколько месяцев на обучение, а потом выяснить что он умеет играть только сам с собой, но не с людьми
- предсказания курсов валют/акций смущает что на уолл-стрит сидит куча профессоров-математиков с гигантскими саляри и до сих пор ни у кого не получилось
- конкурсы на kaggle опять же конкурировать с командами суперзадротов, а у меня бекграунд пара курсов по TF

Что скажете?
254 1181888
>>81884
Продать и пропить.
255 1181894
>>81861

> случайные там данные, ясно?


Пиздец ты тёмный. С москвасранска поди, лол. Я ещё раз скажу, при чистом рандома, т.е. нормальном распределении, наилучшая стратегия это мартингейл. Но, очень легко убедиться что это не так. Достаточно зарегаться на каком-нибудь биномо и слить тестовый счёт. Можно поумнее - посчитать для временных рядов сечение Пуанкаре и т.п вещи, по которым опять же, наглядно увидим, что там не рандом. Это же азы, кем надо быть чтобы не знать очевидного.
256 1181895
>>81884

> предсказания курсов валют/акций смущает что на уолл-стрит сидит куча профессоров-математиков с гигантскими саляри и до сих пор ни у кого не получилось


Я уже писал, почему ни один диплернинх временные ряды не возьмёт. Можешь сам попробовать, архивы курсов валют есть на TrueFX с миллисекундным разрешением, попробуй на этой ферме и убедись, что нихуя не вышло.
257 1181929
>>81884
Эх, на такой ферме почти ИИ можно обучать
258 1181945
>>81894
Нужно быть матанодебилом вроде тебя чтобы полностью игнорировать саму предметную область задачи. Какой же ты тупой, весь тред загадил.
259 1181956
>>81945

> Нужно быть матанодебилом вроде тебя


А, понятно, ты тот деградант, копротивляющийся против математики и здравого смысла. Так бы сразу и сказал, вопросов больше не имею.
260 1181959
>>81884
Хуячить порн с селебами на заказ. Гугли deepfakes.
261 1181995
>>81859
Ну да. Биржи зависят от скрытых факторов, которые ты физически не можешь для модели взять. У меня кореш из дойчебанка, он там какой хуйни только не вертел - в итоге никакого стабильного выигрыша, даже маленького.
262 1181999
>>81995

>Биржи зависят от скрытых факторов, которые ты физически не можешь для модели взять.


Ты про теханализ не слышал? Так я тебе расскажу. Сколь угодно скрытые факторы, вплоть до секретных указаний аннунаков с Нибиру, либо отражаются на показателях рынка (т.к. приводят к каким-то действиям на рынке), либо не отражаются (и тогда физически не могут влиять на рынок). Не согласен? Тогда расскажи, как можно влиять на рынок, не влияя на его показатели.
263 1182004
>>81995

>У меня кореш из дойчебанка, он там какой хуйни только не вертел - в итоге никакого стабильного выигрыша, даже маленького.


Я еще раз скажу. Ни в одном существующем методе задача не ставится так, как надо. Потому что мы имеем дело с суперпозицией неизвестной структуры неизвестных же распределений. С простой аппроксимацией тут и делать нечего, нужны методы "развернуть" эту суперпозицию без априорных знаний об ее структуре. Такая задача в машобчике вообще не ставилась никем кроме Ивахненко, но он соснул, т.к. не имел достаточных вычислительных мощностей + не учитывал того, что эта задача с вероятностью 146% некорректнопоставленная + предлагал довольно деревянные методы подбора суперпозиций т.н. "полиномов Ивахненко", хотя сама структура этих его полиномов, как и метод представления через них полного степенного VKG полинома Вольтерры-Колсогорова-Габора, это очевиднейший вин. Я тут описывал, как эти ограничения можно попытаться обойти - вместо таблиц полиномов Ивахненко использовать генетическое программирование с типизированной лямбдой, вместо обычных лоссов использовать комбинированные критерии Ивахненко, а вместо OLS взять SVM.
264 1182005
>>81999
https://www.vedomosti.ru/technology/news/2018/04/02/755633-kotirovki-intel

>отображаются


И как это предсказать? Получил инсайд от друга из апла - поднял шекелей, не получил и решил закупиться прямо перед падением - соснул хуйцов.
265 1182006
>>82005

>Получил инсайд от друга из апла - поднял шекелей, не получил и решил закупиться прямо перед падением - соснул хуйцов.


Инсайд чего?
266 1182008
>>82004
Ты кукарекаешь годами, но сам так ничего и не сделал.
267 1182010
>>82004
Так а какого хуя ты ничего не делаешь, если у тебя в голове потенциальная идея на миллионы?
>>82006
Блять, иди ты нахуй. Ты же у нас спец по рынкам или нет? Это настолько детский вопрос, что просто охуеть.

>Ты про теханализ не слышал? Так я тебе расскажу


>подрубил менторский тон


>мозги не подрубил

268 1182016
>>82010

>Ты же у нас спец по рынкам или нет? Это настолько детский вопрос, что просто охуеть.


Я не просто так спросил, ты не понимаешь, о чем говоришь. Рынок ты не развернешь за 1 секунду так,чтобы те, кто закупился уже через 2 секунды соснул. Такого даже в бинарных опционах не бывает. Задача - определить направление изменения рынка по изменениям основных показателей. Инсайд поможет разве что заработать больше шекелей, но не радикально всех переиграть.
>>82010

>какого хуя ты ничего не делаешь, если у тебя в голове потенциальная идея на миллионы?


Потому что во-первых, хуй знает как это реализовать, я даже R не настолько знаю, во-вторых, у меня идеи и получше есть.
269 1182083
http://www.dataminingbook.info/pmwiki.php/Main/BookPathUploads?action=downloadman&upname=book-20160121.pdf

Почему нет в шапке? Самое то для абсолютных нубов.
270 1182108
>>82083
Для абсолютных нубов надо с арифметики начинать.
271 1182115
>>76320 (OP)

>алгебра, теорвер и матстат, базовый матан calculus многих переменных


С чего начать? Знаю только, что такое производная и как ее считать. Начать с mathprofi, а потом уже углубляться?
272 1182116
Уважаемые ученые, как вы думаете, можно ли поручить подобную работу не человеку, а компьютерному боту?

https://geektimes.com/post/300445/

Что-то вроде программы ELIZA, но способной к самообучению?
273 1182123
>>82115
Демидович.
274 1182127
>>82123
Ты хочешь, чтобы он возненавидел математику?
276 1182143
Матан у вас сейчас тоже в моде хипстерский? Чем Фихтенгольц не угодил?
277 1182288
>>81895
Напиши еще раз про временные ряды
278 1182383
На работе вместо няшных алгоритмов начали применять нейроночки.
Вроде все просто, импортим с пацанами из кераса и слесарьфлоу, радуемся жизни, но сам алгоритм не нравится мне. Этакий блек-бокс, который хуй знает какие закономерности ищет. Особенно cnn не люблю, люди как сильвер буллет себе их представляют.
Мне кажется нейронки хороший алгоритм наравне с другими(HMM, бустинги, svm), но на всех конкурсах, конфах и статьях нейроночки практически везде рвут "обычные" алгоритмы.
Неужели это и правда так, что старые модели больше не нужны?
279 1182394
>>82383
Для грязных данных без структуры еще рулит ГБМ, см. тот же кагл где всякие предсказания кликов и прочая бурда. Все остальное - нейроночки.
280 1182456
>>82394
а правда что нейроночки не могут делать предсказания по временным рядам?
281 1182458
>>82383

>нейроночки практически везде рвут "обычные" алгоритмы.


Например?
282 1182531
>>82458
опознование негоров на фоторафии
1344159763812.jpg34 Кб, 580x435
283 1182536
Есть здесь кто-нибудь, кто проходил или недавно проходил курс Энга?
284 1182539
пасаны, пасаны а чё у этой хуйни есть апи? https://pixabay.com/ru/service/about/api/
мож захуярим че нить типа приложухи которая бут скачивать сет по тегам? тип слонёнок или обезьяна
285 1182543
>>82536

>кто проходил или недавно проходил


Ну я например, остановился на 9 неделе сейчас.
286 1182555
>>82543
Ты один проходишь или с кем-то общаешься на эту тему? Я, к сожалению, всю учёбу учил французский, сейчас вот на ходу вникаю в технический ? английский, возникают проблемы с пониманием смысла, хотя до 5 недели без проблем в одиночку дошёл.
287 1182561
>>82555
Один. Английский понимаю хорошо, т.к. уже второй год как погрузился в чтение англонета и тех. литературы, просмотр фильмов в оригинальной озвучке. Пишу и говорю плохо потому что негде тренироваться.
288 1182596
Аноны, я заканчиваю 3 курс бакалавра и хочу начать готовиться к сдаче диплома
Собственно вопрос, достаточно ли 6-8 месяцев для того чтобы вкатиться в нейрончики и написать по ним дипломную работу
Опыт в программировании есть, но с машинным обучением не сталкивался до этого. Хочется попробовать себя в этом направлении, но есть опасения что я просто не осилю за такой срок что то освоить на приемлемом уровне
289 1182612
В чём разница между полносвязной и свёрточной сетью? Объясните, позязя, ыыы
290 1182616
>>82612

>В чём разница между полносвязной и свёрточной сетью?


Очевидно же, сверточная - не полносвязная. Т.е. последующий слой связан не со всеми нейронами предыдущего. Перцептрон полносвязный, а в сверточной сети связи по типу зрительной коры кошки.
291 1182618
>>82616
Не помогай откровенному быдлу.
292 1182621
>>82616
а вот положим мы натренировали полносвязную сеть и свёрточную сеть. И просим распознать изображение. Время работы свёрточной сети будет меньше времени работы полносвязной? Или одинаково?
293 1182625
>>82456
Нет.
294 1182626
>>82596
Смотря что такое приемлемый уровень. Статьи читать не сможешь, не говоря уж о писать. Использовать керас для тренировки простых архитектур можно научиться.
295 1182652
>>82626
т.е. по твоему диплом по нейронам без начальной базы плохая идея?
296 1182660
Хватит ли сотни фото с номерами машин для обучения находить эти номера? Больше просто ломает размечивать, да и найти проблематично.
297 1182668
>>82660
Генерируй сам.
298 1182678
>>82660
могу помочь с размечиванием. За день могу наразмечивать фоток 300 если затея стоящая
299 1182682
>>82678
Идея распознавать рос и укр номера. Сначала с камеры находт табличку, потом пытается из вырезанного номера распознать символы.
300 1182685
>>82660
Для дииплернинга хотя бы 10000 нужно.
>>82652
По-хорошему ты должен отлично разбираться в теме своего диплома, так что с нуля я бы не брался. Нейроночки на уровне современных исследований все равно слишком сложны для уровня бакалавра. Можешь прицелиться на магистрскую работу, как раз два года более-менее достаточный срок для нормального вката.
301 1182690
>>82682
Вижу у тебя годные скилы. Пиши мне на почту yabitozehote{n<lpopitANUSg]0UmailPUNCTUMcenuom
сапоги.mp45,6 Мб, mp4,
1280x720, 0:50
302 1182693
>>82682

>распознавать рос и укр номера. Сначала с камеры находт табличку, потом пытается из вырезанного номера распознать символы.


И если номер украинский, то владельцу, найденному по базе, на телефон скидывается пикрелейтед? Ты пограничник штоле? Сколько распилили на этом прожекте, если тебя отправили на мейлру искать халявных исполнителей?
303 1182706
>>82690
Чем занимаешься?
304 1182711
>>82706
разной компилируемой парашей
305 1182731
>>82682
Специально обученный человек (обучение не так долго) может распознать вырезанный номер лучше.
306 1182736
>>82731
russia-way
307 1182869
>>82531

>опознование негоров на фоторафии


на самом деле это не тривиальная задача, без шуток
sibo.jpg53 Кб, 326x500
308 1182915
>>76320 (OP)

>Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работает на серьёзных задачах.



Поясните ньюфагу, а что там принципиально нового появилось, кроме пердсертронов и "прочего мусора" ?

Если положить что любая комбинация или модификация персертрона тот же персертрон.
309 1182917
>>82915
Ню-фагу читать нужно. Учиться, учиться и еще раз учиться, как завещал Великий Дедушка Ленин.
310 1182922
>>82458
Во всей голосовой индустрии. ASR, SV, Spoofing.
Не говоря уж про картинки, там дефакто cnn стандарт.
311 1182942
>>82915

> Поясните ньюфагу, а что там принципиально нового появилось, кроме пердсертронов и "прочего мусора" ?


Ничего. Функции активации поменяли, полносвязность выпилили, ещё косметические мелочи. Главные недостатки никуда не делись, данные все так же обрабатываются квадратно-гнездовым методом при том, что 90% из них вообще не участвуют в формировании решающих правил классификации итд., т.к не лежат на границах, разделяющих классы (для классификации опять же).
312 1182957
>>82917
Это не ответ по существу.
313 1183028
>>82915
Имеются в виду оригинальные сетки, без модификаций. Тут иногда проскакивают нюфани, которые плачут "накрутил миллиард линейных слоёв, ничего не работает, что делать".
314 1183144
>>83028

> Тут иногда проскакивают нюфани, которые плачут "накрутил миллиард линейных слоёв, ничего не работает, что делать".



Зачем они это делают?
315 1183158
>>82915
batch norm, ReLU, cross entropy loss вместо квадратичной, конволюции, resnet, рекуррентные сети, автоэнкодеры, attention механизмы, GAN
un-apunte-en-torno05.jpg84 Кб, 350x486
316 1183193
>>83158

>batch norm, ReLU, cross entropy loss вместо квадратичной, конволюции, resnet, рекуррентные сети, автоэнкодеры, attention механизмы, GAN


Но ведь это все мусор из средины прошлого века.
317 1183198
>>83193

> Но ведь это все мусор из средины прошлого века.


Это не мусор. Это косметические изменения перцептрона. Которые не меняют уебищной сути обработки данных, при которых обсчитывается все оптом, хотя это не требуется для построения правил классификации итд.
1*e5ekyYmz1GxBZiB1GOfodg.png231 Кб, 480x360
318 1183241
Макакство
319 1183249
>>83241
Человекство
320 1183285
А вы можете доказать Бином Ньютона?
321 1183289
322 1183291
>>83289

Будь добр, объясни тогда основной принцип доказательства простым языком.
Как мы переходим от «есть произведение n скобок (a+b)» к известной сумме комбинаций a и b с различными степенями и коэффициентами?
323 1183292
324 1183524
Датасет:
X - входная строка для машины тьюринга
Y - что мт выдала на выход

Какие нейроночки такому обучатся (построят из своих слоев этот алгоритм) и будут хорошо предсказывать?
325 1183526
>>83524
В такой формулировке безразлично, машина ли у тебя Тьюринга, программа на С++ или Вася с листочком бумаги и ручкой.
Естественно, все зависит от преобразования. Если у тебя там просто каждый второй символ удаляется из входа, то простейшая RNN сможет сделать. Если у тебя там какое-то шифрование, то никак. И полный спектр возможностей между этими двумя крайностями.
326 1183528
>>83526
Хотя нет, с удалением символов тоже будет гемор, т.к. длина входа и выхода разная, лол. Нужна будет неограниченная память, что невозможно, либо какая-то нетривиальная схема для вывода.
327 1183529
Если вдуматься, то почти все нетривиальные задачи не будут решаемы, т.к. у МТ бесконечная память, а у нейроночки конечная и обычно маленькая. Тут уместнее с конечными автоматами сравнивать. Если КА может решить задачу, то есть шанс что нейроночка тоже сможет.
328 1183539
>>83524

> Какие нейроночки такому обучатся (построят из своих слоев этот алгоритм) и будут хорошо предсказывать?


Любые. Важно только чтобы датасет содержал все возможные входы и выходы. Можешь хоть линейную регрессию использовать, входы и выходы же полностью детерминированы и представляют собой правила МТ, даже аппроксимировать ничего не требуется.
329 1183554
>>83524
>>83529
Машина Тьюринга не нужна.
330 1183797
>>76320 (OP)
Аноны, вот у меня есть очень шумные данные и классификатор.
Меряю его ф1 на случайном разбиении - получил, допустим, 0.9.
Меряю его на 2-fold, получаю условные mean = 0.9 (так же) и стандартное отклонение 0.05.
Меряю его на 100-fold и получаю тот же meam = 0.9, но стандартное отклонение 0.1
Есть ли метрика, которая определяет confidence level результатов? Для малошумных данных наверное это не так важно, но у меня все очень сильно зависит от того, как разбить сет на трейнинг и тест сеты.
Это не промышленное применение, а пруф оф концепт в научный журнал, рецензент на мажор ревижоне спрашивает, почему я для кросс валидации выбрал k=10. А мне похуй если честно какое выбирать, кросс-валидация в принципе нужна только для того, чтобы показать, что это у меня не ошибка переобучения, а классификатор в принципе работает.
331 1183814
>>83797

>очень шумные данные


Попроси их не шуметь. В смысле denoising autoencoder наверни какой-нибудь.

>спрашивает, почему я для кросс валидации выбрал k=10


Ну так и шли его основы изучать.
Вообще, в том же sklearn, например, кросс-валидацию можно было разную получать, рандомно "тасуя" данные (shuffle). Но я точно не помню.
332 1183825
>>83797
Чем больше фолдов, тем точнее оценка метрики, но при этом ее дисперсия растет, например LOO дает самую точную оценку, но при этом имеет наибольшую дисперсию
333 1183827
>>83814
Ну рецензентов нельзя нахуй слать. Надо вылизать жопу и доказать со ссылкой на цитируемый источник почему я прав. А я хуй знает почему - тут обычно как инженер решил что норм, так и есть. На стекэксчейндже люди берут значения k потому что они привыкли и делали так раньше, но на это не сошлешься.
Мне бы в идеале методику по которой можно получить доверительные интервалы и аргументировать, мол, что выбрав к=10 я попал в 99 перцентиль, чего я и добивался.
Расшумливать данные на лету нельзя, расшумливать только тренировочную выборку можно, но мне если честно не хочется такие серьезные изменения делать сейчас, все картинки в статье переделывать придется и как-то объяснять рецензентам такие маневры.
334 1183829
>>83825
Да, это я и понимаю. Но для этой точности есть ли какая-нибудь формальная методика? Доверительный интервал или что-то в таком духе.
335 1183833
>>83829
Метрика*
337 1183848
>>83838
А теперь представь, что данные очень шумные и нам охуенно повезло с разбиением и тестсетом. На другом тестсете ввиду шумности данных классификатор покажет худшую производительность.
Множество фолдов поможет этого избежать, на к=2 у меня низкое стд и на к=100 оно высокое.
Вот как мне доказать, какое к достаточно, чтобы в мин плюс/минус стд входил 99 перцентиль, условно говоря.
Я доказываю пруф оф концепт, в реальных применениях данные будут другими и классификатор придется обучать на них каждый раз.
338 1183904
339 1183916
>>83904
Спасибо, анон. Это не то, что я реквестировал, но то, что мне надо.
340 1184044
Аноны,
насколько вообще питон реально подходит для сурового продакшена? У кого какой опыт? Имеет ли смысл разворачивать хадуп кластер, если данных относительно немного (десятки гигов, но не террабайты), но нужна надёжность/возможность раскидать вычисления на пару машин и сохранять результаты в HDFS, чтобы не бояться, что они умрут вместе с hdd? cloud storage не предлагать
341 1184151
Непонятно нихуя ни по доками, ни по гайдам как работает рекурентная сеть на TensorFlow. Там какие-то собственные библиотечные оболочки. Они что, однослойные?

Как в бэкпропогэйшн во времени определяется какие веса с какими ошибками нейрона перезаписи ячейки памяти и нейрона извлечения из ячейки памяти?
342 1184173
>>84151
те имеет идти на форум тенсора, это уже попахивает инжиниренгом. Тут чисто матаноэлита
343 1184246
>>84151
Попахивает тем, что кто-то не осилил базу и пытается прыгнуть выше головы. Похоже на многотредовую эпопею какого-то дауна (это не ты был?) несколько месяцев назад про "ну кок жи щитать гродент сверточной сити?????"
344 1184314
Почему все только на обучении с учителем сосредоточены? А не на обучении с подкреплением?
345 1184320
Есть примеры эффективного использования сверточных сетей для приближенных математических вычислений?
346 1184333
347 1184334
>>84314

> Почему все только на обучении с учителем сосредоточены? А не на обучении с подкреплением?


Хипстеры только в этом году про уравнения Хебба узнали. Так что все будет, но не сразу.
348 1184371
>>84320
Помню две работы: в одной погоду обсчитывали на нейроночке, вроде был выигрыш по сравнению со стандартными решателями дифуров, которые обычно там используются. В другой обсчитывали квантовое состояние какой-то сложной системы, которое напрямую было считать слишком долго. Вторая работа в нейчер была.
349 1184374
>>84334
Если ты такой умный, то где же тогда твои деньги?
350 1184426
>>84246
Нахуя щитать, если есть функция? А где эта база?
351 1184431
>>84374

> Если ты такой умный, то где же тогда твои деньги?


А у Перельмана где деньги? Или Ашот с рынка на лексусе умнее? Что-то не сходится в твоей манятеории. Может быть то, что ты пытаешься пиндосскую поговорку использовать применительно к Африке со снегом?
352 1184439
>>84426
Извозчик сам знает куда ехать? Ясно, ясно. База в шапке.
354 1184455
>>84431
Да хуйня поговорка, даже в Пиндостане. Можно быть невъебенно умным, просто в Пиндостане доедать хуйцы не будешь или будешь. Вон, сколько в Тесле инженеров, а богатеет только Маск.
355 1184456
>>84431

>Перельман


Ой-вей, гои поверили, что наш человек будет жить на 15 тысяч и есть одну гречу. Гриша таки в Швеции программистом работал (и в Швейцарии до этого, если мне память не изменяет). Но ты продолжай верить в свои сверхсилы и нихуя не делать.
356 1184618
Анончи, накидайте ссылок на датасеты и корпуса великого и могучего русского языка.
КРЯ жадные пидарасы
357 1184748
Но считать градиент слишом сложно. Я нашёл функцию попроще.

wij = wij + lerning_rateinput_valuesum(activation_value(1 - activation_value)sum(error*wjj+1))
358 1184758
>>84748
бля вакаба
wij = wij + lerning_rate&input_value&sum(activation_value(1 - activation_value)&sum(error&wjj+1))
359 1184771
>>84758
Сейчас мне кажется это просто ебучая формула прямого подсчёта на сколько эта хуйня возможно должна измениться. То есть тупо и прямо. Но градиент, который даёт чистое и правильное значение, я всё равно не понимаю.
360 1184859
>>80614
Прогоняй более важный сет ещё раз. )))
361 1184917
>>84859
Этот чувак тренирует.
362 1184929
>>84917
Ну. Пусть тренирует на более важном сете больше раз
363 1184930
>>84758

> wij = wij + lerning_rate&input_value&sum(activation_value(1 - activation_value)&sum(error&wjj+1))


Один из вариантов стохастической аппроксимации Роббинса-Монро. Собственно, как и в картах Кохонена. И чем вам в таком случае векторное квантование не нравится? А я скажу, вы просто не понимаете, чем занимаетесь.
364 1185037
Как из мимокрокодила стать машоббоярином?
365 1185048
>>85037

> Как из мимокрокодила стать машоббоярином?


Читать, писать что-нибудь. Учиться, учиться и учиться но не коммунизму.
366 1185062
>>76568
Пиздец, лучше останусь в своём уютном энтерпрайзе
367 1185191
https://www.coursera.org/specializations/machine-learning-data-analysis

Эта специализация от мфти и Яндекса - хороший вариант для вката неофиту?
Математику курю отдельно и глубже (там ее как-то совсем поверхностно дают).
368 1185277
>>85048

> но не коммунизму.


Почему нет?
369 1185295
>>85191

>https://www.coursera.org/specializations/machine-learning-data-analysis


не знаю, нахер эта курсера вообще нужна? С матскилами вкатится ты можешь просто почитав старт гайд от sklearn, а дальше есть божественные статьи того же Стенфорта например и вообще материалов очень много. Вот например http://colah.github.io
370 1185418
>>85295
Не, матскиллов у меня пока нет.
371 1185930
Я в машобе не секу, но по работе нужно просчитать как одна штука во временном ряде коррелирует с другой.
Правильно-ли понимаю что если знать заранее что с чем должно коррелировать то именно машинное обучение здесь это overkill?
372 1186067
>>85930
смотри автокореляцию для ВР
373 1186681
Представим две рекурентные нейросети. Для представления значений в стандартных рекурентных сетях для обработки текста используют словарь из векторов, соответствующих словам. Но в нашем случае необходимо получать не слова, а символы, а на выход получать слова (неупорядоченые векторы, но имеющие несколько диапазонов) в строгом порядке, далее эти векторы необходимо извлекать и обрабатывать именно в том порядке ({t0, t1, ... tn}). В таком случае упираемся в проблему того, что для этого потребуется просто огромное количество нейронов, ввиду более двух тысяч слов, которые небходимы для адекватной обработки. В стандартном случае также меньше затрат, ведь векторы упорядочены. Но далее нам паралельно с хард-кодом нужно обрабатывать выходные векторы в ещё одной сети, на выход которой должны поступать значения определённых векторов и также близкие к нулевым значения. Выход обрабатывается хард-кодом. Тут ещё сложнее, потому что определённый диапазон векторов записывается ещё раз, а также их связи. Вопрос - как мне считать дохулиард нейронов и где хранить все веса? Это ещё при учёте, что дальше на основе работы этих сетей будет построена ещё одна система, чтобы этот текст восстанавливать. То есть ещё столько же дохуя.
374 1186689
>>86681
Для таких случаев используют иерархический софтмакс (тогда обрабатывать приходится не дохулиард нейронов, а логарифмическое их количество от этого дохулиарда). Конкретные архитектуры - CBOW и skipgram, реализовано в word2vec, но все нужное есть и в слесарьплове. Если нужно именно для отдельных символов в словах, то SISG (subword information skipgram), есть в пейсбуковском fasttext.
375 1186707
>>86689
Ещё кое что непонятно. При обучении RNN бэкпропогэйшн во времени ведь может моделировать ошибку до начала работы самой сети. Как на улететь в бесконечный зацикленный алгоритм в первой же итерации?
IMG20180509130354.jpg1,6 Мб, 2697x2672
376 1186766
Здравствуйте машорбщики, у меня для вас прикладная задача: посчитать количество жуков на фотографии. На этой качество говно, но я смогу сделать получше, если надо.
377 1186770
>>86766
это ты раньше червячков сортировал?
378 1186773
>>86770
Ээээ, нет. А что там за черви были?
379 1186782
>>86766
такую хуебень лучше с дополнительным временным измерением считать
380 1186783
>>86773
червяков вообще анирал почситать
381 1186784
>>86782
Подробнее?
382 1186787
>>86784
видево жи
383 1186789
>>86773
кормовые, анон хотел из по размеру/возрасту сортировать
384 1186796
>>86789
Эти тоже кормовые, но тут мне скорее нужно контролировать их численность чтобы выкидывать лишнее. Оверпопуляция только ухудшает их положение - загрязнение подстилки и банки, нехватка корма личинкам.
385 1186806
>>86796
ищи контуры, и попроси их не лезть друг на друга. тебе достаточно определить всего лишь олну дугу для детекта.
386 1186809
>>86806
Я не занимаюсь машобом, я только дал прикладную задачу. Если кто-то хочет взяться, буду рад посодействовать. Если нет... то нет.
387 1186811
>>86809
можно их просто на весах взвесить и не страдать хуйней.
388 1186820
>>86796
Ну считать ты их никак не посчитаешь через нейросеть. Можно их распознавать через нейросеть. Хотя, конечно, можно собрать ебенейшую архитектуру чтобы она считала через несколько, но легче взять картинку и распознавать где находится один жук, а в следующую итерациюпросто затирать это место на картинке белым цветом. Таким образом понадобится только одна маленькая сеть и пара функций обработки изображений.
389 1186821
>>86811
Ты мне предлагаешь каждые 2-3 дня вылавливать каждого жука ради взвешивания? Я бы тогда их считал просто так.
390 1186826
>>86820
неплохо
391 1186831
>>86821
(вес с жуками - без жуков) / вес одного жука
392 1186833
>>86821
кучку взял и взвесил, можно с гнездом взвешивать, даже доставать не нужно. у тебя хуйня с постановкой задачи, 2 маленьких жука и один большой будут жрать как четыре маленьких, плюс большой даст им пизды и поебет самочек
393 1186834
>>86820
правда в этом случае нужно найти очень маленькие фичерсы жука, как например клювик, или чтобы сеть могла определить заднюю и переднюю лапку жука (и посчитав между ними расстояние понять что это жук), потому что при таком подходе от низлежащих жуков будут оставаться только маленькие кусочки. Так же вопрос а если на картинке тысяча жуков как нейросеть из них выберет того единственного, которого она опознает?
394 1186836
>>86831
а как взвесить одного жука в домашних условиях?
395 1186847
>>86836
Кухонные весы взвешивают с точностью до грамма. Взвесь штук 20 и усредни.
396 1186849
>>86847
А как положить 20 жуков на весы, чтобы они не убежали?
397 1186852
Весело вы рофлите конечно, но если кто захочет взяться и нужны будут еще материалы пишите в телегу - @aatof
398 1186853
>>86849
Загон им из картонки сделай.
399 1186881
>>86852

> пишите в телегу


+15
400 1186964
>>86834
Да вообще без проблем. Говорит нам где жук - затираем его там и прибавляем ещё единичку в счётчик. Распознавать то всё зачем? Тут по пятнадцать свёрток в два слоя, полносвязку с выходом на координаты, этого хватит. Хотя этого много для такой простой жучары. Обучать на картинках в гигле, которые скачиваются специальными программами.
tensorflow 401 1186996
Простите за нубство.
Есть 180 входов, 4 выхода и 1 tensorflow на питонах.
Помогите описать занесение входов и получение выходов. Обучение не нужно, веса задать случайными значениями.
402 1187003
>>86996

weights = tf.variable((180,4))
x = tf.placeholder()
y = activation_function(какая-то хуйня я дальше не помню, но суть в том, что нужно перемножить все x со всей строкой весов и это суммировать)
sess = tf.session()
sess.run(опять забыл)
403 1187007
>>87003
Оп-а, ситуация теперь прорисовывается. Спасибо больше. Если никто не распишет подробней, буду гуглить.
404 1187011
>>87007
Короче, не гугли гайды на русском. Они все полнейшее говно. Нужно постараться чтобы сделать хуже, серьёзно. Лучше прочти документацию, даже через гугл переводчик если не знаешь ангельский.
405 1187017
>>87011
С ангельским знаком, но на сайте tensor меня мучают или распознаванием по MNIST, или фотографиями ирисов(
Простого, для недалёких людей, не нашёл.
406 1187019
>>87017

> Простого, для недалёких людей, не нашёл.


Хоспаде. Простое для недалёких макак это Keras. Не мучай себя брат макак.
407 1187055
>>87017
output = []

x = tf.placeholder(dtype = tf.int32, shape = [None, 180])
w = tf.variable(tf.random_normal([180, 4]))

func = map(activation_function, matmul(x,w))

with tf.Session() as sess:
------output = sess.run(func)

Может сработает, а может нет, хуй знает, но тут множатся матрицы так что возможно форма стоит не в правильном порядке и строки нужно поменять со столбцами.

>>87019
А тебе хуй за шиворот.
408 1187056
>>87055
это вся ваша нейройоба в 6 строчках кода?
409 1187064
>>87056
Исходники открой и охуей, сколько там строчек кода. Это просто удобная либа.
BYfDbjL.jpg103 Кб, 550x550
410 1187066
>>87056
Да. Без обучения и с одним слоем. С обучением 9 будет, каждый слой +3 строки.
Лол, нет, это же полносвязка на фреймворке.
411 1187072
>>87066

>9 будет, каждый слой +3 строки.


так, а в чем тогда еба? я могу и 12 строк написать, где мяготка, вы фреймворкоебы?
412 1187074
>>87072
Дальше начинается вообще самый смак. Ты можешь написать в те же 6 строчек ультраклёвую сеть с одним слоем просто импортировав её оболочку из либы.
413 1187078
>>87072
>>87072
есть два стула:
- Ты ебёшь непосредственно сеть
- Ты ебёшь анализ данных, вычисляешь фичерсы и готовишь дату для нейросети. И там и там год может вырстать да красивых стройных блоков текста. Но всё же первый на первом стуле неоспоримо более толстый дилдак.
414 1187081
>>87074
если все так просто, почему это не работает? где там вменяемые автономус вехикалс или окр?
415 1187085
>>87078
подготовил дату, положил в ящик и хорошенько потряс.
416 1187089
>>87085
ну в общем да. А чё еще надо? Модели валяются на гитхабе в екзамплах кераса. Там и анализ картинок, и лексика. Да блять я вот собрал модель из хеловорд туториала в три строки и до се ей пользуюсь для всего. Надеюсь, что когда нибудь пойму что она делает.
417 1187090
>>87081
Ало, да потому что эти оболочки и фреймворки разрабатывают топовые учёные топовых корпораций. Нахуй ты меришь способность местных по докам кнопки нажимать как способность разработки передовых технологий?
418 1187095
>>87090
ученые в говне моченые, оставим проблему распознования негров, а возьмем к примеру окр русских слов с ударением, файнридер виляет жопой и не монгут, тезеракт сосет с проглотом и без ударений, где ваша магия?
419 1187099
>>87095

>2k 18


>распознавать орочьи каракули

420 1187111
>>87099
про деванагари или синегальские писмена, тоже повыебуешься?
421 1187115
>>87055
Простите, а куда тут засовывать входные данные?
422 1187134
>>87115
А, ну да, там фиддикт нужен. В сессию когда запускаешь нужно засунуть {x:[твоя хуйня]}
423 1187141
>>87134
И при этом надо ещё указать что это аргумент feed_dict конечно.
424 1187157
>>87111
Предпочитаю heptapod b.
425 1187160
>>87089
Зачем ты ещё не сделал ИИ?
426 1187161
>>87115
Вот кстати, да. В туториалах это самое сложное.
427 1187165
>>87160
>>87160
а что ты подразумеваешь под ИИ. Я сделал мини тулзы для моих быдло задачек. Вот например парень просит опознавать жуков. Для этой ебонины подойдёт модель из любого хелоуворлда. Нет?
428 1187166
>>87160
То что ии так не делается. Никто сейчас не может высрать ничего лучше распознавания видео.
429 1187327
>>86766
Можно наверное по бликам на панцырях детектить.
430 1187440
Чувак из Дипмайнд поясняет за новые концепции в ИИ, над которыми они работают: https://www.youtube.com/watch?v=N5oZIO8pE40
431 1187516
>>87440
Это всё тупые хипстеры, лучше бы ватника навернули
432 1187655
>>87440
Как вы на англопараше слушаете, это же не язык, это говно
433 1187683
>>87440
Это не ИИ.
434 1187857
Анон я только начинаю свой путь программиста. Подскажи к какому классу задач относиться моя, и порекомендуй направление дальнейших изысканий. В общем:
Мини задача, есть пользователь, который хочет посмотреть аниме. Каждую серию и каждый тайтл сопровождает 10 источников. Например 10 разных озвучек, или 10 переводов сабов от разных команд. Вот я хочу, чтобы пользователю не пришлось каждый раз выбирать озвучку, а построить список предпочитаемых пользователем источников (источник может включать в себя такие параметры как "команда озвучки", "разрешение видео", возможно что-то ещё). То есть на выходе должен быть тайтл с оптимальным параметрами для пользователя, без необходимости выбирать каждый раз вручную, смотреть ли в разрешении 1080р но озвучкой от васяна с мерзким голосом, или посмотреть 720 но в той озвучке, которую хочет пользователь. То есть необходима оценка приоритетов, что важнее для пользователя, любимая озвучка, или высокое разрешение, например.
Дело также в том, что не у каждого тайтла есть озвучка или Сабы от любимой команды, и нужно автоматически выбирать наиболее подходящий вариант на основе прошлых выборов. В общем такая задача, решил выбрать ее чтобы попробовать что такое машоб, если он подходит под эти задачи. Но ее нужно решить
435 1187885
>>87857
В общем мне хотя бы сначала определить, является ли моя задача областью решения которой является машоб
436 1187971
>>87885
Смотри все очень просто. Скачиваешь питон и керас (это такая библеотека). Читаешь официальный туториал, там все просто и примеры есть. Затем делаешь нейрал нетворк из слоев количеством примерно сколько у тебя бывает разных озвучек. Каждый слой состоит из н нейронов где н это байтовый размер озвучки. Потом ты просто прогоняешь сетку по всем озвучкам и получаешь ризультат.

Изи пизи, как говорил Линус тарвальдс
437 1187975
>>87885
Да, это задача ранжирования.
un-apunte-en-torno05.jpg84 Кб, 350x486
438 1188057
Есть метод обучения фид-форвард рециркуляцией.

Не могу заставить его работать.

Есть у кого удачные примеры?
439 1188065
>>87971
>>87975
Спасибо. Даже с этим уже можно в гугл.
440 1188068
>>88057
А почему не воспользуешься алгоритмом Хебба?
441 1188174
>>88068
Им только старые пердуны в НИИ пользуются
442 1188181
>>88174
Давайте назовём старые методы новыми именами для того, чтобы ими все пользовались.
443 1188243
>>88068

>А почему не воспользуешься алгоритмом Хебба?


Потому, что мне нужно скрытый слой обучать?
444 1188506
Анонсы, что скажите про топологический анализ данных? У меня топологии в универе не было, стоит вкатываться?
445 1188526
>>88506
Это сложно очень. Чистая наука
http://colah.github.io/posts/2014-03-NN-Manifolds-Topology/
1447339556139685852.png170 Кб, 400x548
446 1188592
>>88526

>Чистая наука


Аки теология
447 1188630
>>76320 (OP)
Можно в 28 без вышки вкатиться в машоб?
448 1188631
>>88630
Нет, не разрешаю.
449 1188759
А как дела у байесовской нейронной сети с распознаванием картинок, а не только тестовых MNIST ?
450 1188760
>>88759
Или там дела как и с капсульными НС ?
451 1188943
>>88506
>>88526

>Это сложно очень.


Плюс, больше спекуляция и пользы для макакингаприложений никакой.
452 1188981
>>88630
Вышка вроде помогает понимать математические значки.
image.jpeg1 Мб, 750x1334
453 1188986
>>88981

Пик помогает их понимать ничуть не хуже.
454 1188994
>>88981
Щас бы 5 лет учится, что бы матанопетуханские каракули разбирать
455 1189074
>>88986
ССЫЛКУ В СТУДИЮ
>>88943

> пользы для макакингаприложений никакой


Правильно! Ведь все мы тут макаки!
Как же хочется бананов
456 1189138
Сап. Надо распознать капчу майлру. Использую python + tensorflow, пробовал модели с гитхаба, типа https://github.com/JackonYang/captcha-tensorflow, но нормального ничего не получается. Обучал и на картинках без предобработки, и алгоритм писал удаляющий линию и кадрирующий капчу - на результат особо не повлияло. Что можете подсказать?
В идеале хочу что то такое - https://habr.com/post/343222/ но не могу додуматься, как должны работать карты центров, и в гугле информации по ним нету.
457 1189166
И сразу ламерский вопрос. Почему в этой статье когда объясняется про ядра свёрточной сети, говорят что они квадратные. Разве на вход в такую сеть мы подаём не одномерный массив а двумерный?
458 1189180
>>89166
Сверточным сетям на вход, как правило, подают картинки, а они двумерные
459 1189181
>>89166
Сверточным сетям на вход, как правило, подают картинки, а они двумерные
460 1189184
>>89181
Повтори, я не расслышал.
figure.png97 Кб, 400x400
461 1189190
>>89181
а есть ли в этом профит? Почему нельзя просто сделать Dense и радоваться?
462 1189217
>>89180

> Сверточным сетям на вход, как правило, подают картинки, а они двумерные


Тензоры, вообще-то. И они хоть сколько мерные, но в случае картинок обычно 3хмерные - R, G и B каналы. Пошто ж вы негр амотные такие, слесарьплов для вас же именно так назвали, что он тензоры считает. Ну в машобчике тензор не то же что в физике, в целом и скаляр, и вектор и матрица это тензоры, речь скорее про общий подход к массивам.
463 1189233
>>89217

> 3хмерные - R, G и B каналы


Минуточку, 3 в данном случае это длинна последней размерности. лол
Под размерностью я имею ввиду длину самой формы массива.
например форма массива
[[211,211,211], [211,211,211]]
есть (2, 3), значит его мерность 2
464 1189331
>>89217

>Тензоры, вообще-то


Я простой слесарь, для меня массив - это массив, а матанопетухи пусть как хотят его называют.
465 1189388
>>89331
Так ты не слесарь тогда, ты макака. Разница огромная. Алсо, макакам ИТТ слово не давали.
466 1189410
>>89388
Да я и так молчу, тут разговаривать не с кем, одни шизики-теоретики. Что вы вообще в /pr забыли, вам прямая дорога в /сцы
467 1189422
>>89190
раньше так и делали (мнист), но теряется жи информация
468 1189443
Нейронки на жаваскрипте реально ли? В жс ведь реальны многомерные массивы и операции над ними.
469 1189445
>>89443
Да хоть на ассемблере.
470 1189446
>>89445
ну вот на пхп массивы sucks
471 1189448
>>89443
есть Слесарьплов.жс
472 1189449
>>89422
то есть Convolution это как бы 3-ёхмерная сеть да? Бляяять я пояяяяял да же?
473 1189451
>>89446
Что не отменяет, что реально.
474 1189458
>>89449
А капснет тогда что?
475 1189469
>>89410

>теоретики


Может просто ты настолько тупой, что вокруг одни мамкины учёные мерещатся?
476 1189492
>>89448

> есть Слесарьплов.жс


И он полностью на жс, в браузере работает? Или просто обёртка для пистоновского слесарьплова?
477 1189523
>>89166
Потому что как бы ты не подавал данные, преобразовываешь ты их согласно квадратному ядру.
478 1189524
>>89443
Так это один массив нужен и цикл. Всё.
479 1189533
>>89523
Стоит сказать, что ядра бывают и не квадратные
480 1189549
>>89533
Круглые? Кубические
481 1189567
>>89549
Прямоугольные же.
482 1189619
Пишите предложения по шапке, господа.
483 1189620
>>89190
Пиздец блядь, такую громозкую хуйню делают только ради того, чтобы буковку s распознать, пиздец.
484 1189621
>>89619

> Пишите предложения по шапке, господа.


Если что-то нехипстерское добавить, мало кто поймёт. А с хипстерского толку мало, после такого чтива поциент идёт сюда и спрашивает, хуле сотни слоёв не хватает для линейной регрессии. Лично мне неизвестны книжки, в которых и теория давалась бы нормально, и последние достижения. Скорее всего, таких просто нет. С одной стороны Вапник, который с первых страниц ебашит вариационное исчисление, с другой хуйня уровня import slesarplow as sp. С третьей вроде норм книшки, но написаны в 90е годы и про всякий диплернинх там нету.
485 1189623
>>89620
Ну ты же циферку пять не распознал на картинке. Такую громоздкую хуйню родили, а она с такой простой задачей не справилась, пиздец.
486 1189626
>>89621

>А с хипстерского толку мало, после такого чтива поциент идёт сюда и спрашивает, хуле сотни слоёв не хватает для линейной регрессии.


Согласен. Это какой-то пиздец. Прочитал статью какой-то тянки для макак об Convolution, бля лучшеб вообще не читал. Вот это мания писать просто о сложном иногда совершенно лишняя и уводит в неправильное понимание вещей.
487 1189633
>>89623
Её можно и как S интерпретировать.
488 1189635
>>89633
Чё вы доебались до этой S. Тут вопрос нахуя нужны Conv слои? Когда Dense вполне справляются с битмапами расшейпенными до одномерного массива?
489 1189637
Почему не детектируют символы в тексте или на табличках? Это очень сложно?
490 1189644
>>89635
Дурень, блять, как же ты надоел.

>вполне справляются


Они вполне не справляются. Развернул ты картинку в строку - что там ловить? Даже свёртку после этого поставь с кернелом 1xn - нихуя фич не словишь. Свёртка с первого слоя видит целый кусок картинки, а не хуй пойми как расположенный.
491 1189645
>>89644
спасибо
492 1189667
>>89635
Для больших Dense у тебя будет дохулион параметров, которые просто не влезут в память. Поэтому берут маленький Dense и построчно его водят по картинке, получают 2D фичи - это и есть свертка. По полученным фичам снова водят сверткой, и получают новые фичи. В какой-то момент 2D у фич нам уже не нужно (например, для классификации похуй, где котик, главное что он есть) - тогда фичи растягивают в 1D массив.
493 1189674
>>89667
Звучит охуенно. Спасибо.
494 1189697
>>89667
То есть по сути из одной большой фичи - фотографии кота с собакой мы делаем несколько фич - глаз кота, нос собаки, лапка кота?
495 1189703
>>89697

> То есть по сути из одной большой фичи - фотографии кота с собакой мы делаем несколько фич - глаз кота, нос собаки, лапка кота?


Нет. Фичи кота это более сложная тема. Но в сверточных нейроночках их можно визуализировать на разных уровнях. Так же как в зрительном анализаторе, самый простой уровень это части контура объекта, потом уже всякие совокупности и контуры этих контуров итд.
496 1189716
>>89697
Да. Чем глубже фича от начала, те выше уровень абстракции.
Упрощенно говоря, на первом уровне ядра свертки реагируют на края (контуры), текстуры (типа "шерсть") и дают на выходе карты активации этих фич.
На следующем уровне свертки, исходя из сочетания предыдущих фич, можно уже задетектить глаза кота, нос кота, и так далее.
Следующее ядро свертки видит, что вот тут глаза кота, тут уши кота, тут нос кота - значит можно сказать, что это голова кота, и выдает фичу расположения головы.
Еще глубже сверткой можно сопоставить голову кота с туловищем и остальными частями, и выдать фичу расположения всего кота. Так решается задача детектирования - где именно на фото кот.
Для собаки некоторые простые фичи могут быть общие с котом (линия, контур, текстура), а некоторые нет (у кота уши не такие, как у спаниеля)
498 1189751
>>89739
Что в ней такого? Судя по содержанию, обычный первый семестр первого курса матфака. То же было у меня в универе, то же есть в курсе MIT, например. Гуглится на раз по очевидному запросу "linear algebra course". Проще добавить, чтобы для всей матхуйни смотрели эти курсы.
499 1189752
>>88759

> байесовской


Для распознавания картинок достаточно частотной вероятности.
500 1190024
Может знаете какие-нибудь ОБЗОРНЫЕ работы хотя бы по части того что напридумывали за всё это чудное время хайпа чтобы вкатывающиеся хоть как-то сориентировались что-куда и вот их и запихнёте в шапку?
501 1190025
>>89752
Понятно, но одно время хвастались что баес не имеет переобучения. Вот я не видел больше никакого его тестового применения, кроме мниста.
>>90024
О чем ты говоришь? Тут даже и сырых и размеченных данных нет.
502 1190026
>>90024
Ммм, даже не знаю... как насчет первой ссылки из шапки? Как насчет того, чтобы вообще прочесть шапку? Если ты не осилил шапку, то почему ты думаешь, что осилишь обзорную работу?
503 1190027
>>89619
Предлагаю оставить только ссылку на диплернинбук, все остальное нахрен не нужно. Большую шапку никто не читает, а так хоть будет бросаться в глаза. Нубам нужна только эта ссылка, вкатившиеся господа все сами знают. Если я буду перекатывать, так и сделаю.
504 1190033
https://www.youtube.com/watch?v=lXUQ-DdSDoE

Как называются такие диалоговые системы? Как их тренируют или это не НС ?
505 1190078
>>90033

>Как называются такие диалоговые системы?


HINDUSTAN

> Как их тренируют или это не НС ?


Forward meditating.
506 1190175
507 1190179
ПЕРЕКАТ
ПЕРЕКАТ
ПЕРЕКАТ


>>1190173 (OP) (OP)
>>1190173 (OP) (OP)
>>1190173 (OP) (OP)

ПЕРЕКАТ
ПЕРЕКАТ
ПЕРЕКАТ


>>1190173 (OP) (OP)
>>1190173 (OP) (OP)
>>1190173 (OP) (OP)

ПЕРЕКАТ
ПЕРЕКАТ
ПЕРЕКАТ


>>1190173 (OP) (OP)
>>1190173 (OP) (OP)
>>1190173 (OP) (OP)

ПЕРЕКАТ
ПЕРЕКАТ
ПЕРЕКАТ


>>1190173 (OP) (OP)
>>1190173 (OP) (OP)
>>1190173 (OP) (OP)
507 1190179
ПЕРЕКАТ
ПЕРЕКАТ
ПЕРЕКАТ


>>1190173 (OP) (OP)
>>1190173 (OP) (OP)
>>1190173 (OP) (OP)

ПЕРЕКАТ
ПЕРЕКАТ
ПЕРЕКАТ


>>1190173 (OP) (OP)
>>1190173 (OP) (OP)
>>1190173 (OP) (OP)

ПЕРЕКАТ
ПЕРЕКАТ
ПЕРЕКАТ


>>1190173 (OP) (OP)
>>1190173 (OP) (OP)
>>1190173 (OP) (OP)

ПЕРЕКАТ
ПЕРЕКАТ
ПЕРЕКАТ


>>1190173 (OP) (OP)
>>1190173 (OP) (OP)
>>1190173 (OP) (OP)
Тред утонул или удален.
Это копия, сохраненная 17 июля 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски