Этого треда уже нет.
Это копия, сохраненная 18 ноября 2017 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ & МАШОБЧИК #17 #1056633 В конец треда | Веб
нероночка - зависимый тип (массив)
#2 #1056636
Я покакал.
#3 #1056637
В последней строчке вместо т лучше бы ебу на 90 градусов повернули.
#4 #1056643
я пержу оче вонюче. расстройство кишечника.
и еще постоянно пержу. иногда в офисе сижу и пержу.
надеюсь коллеги этого не замечали.
обычно тихо пержу. но сегодня пер был звонкий, сам вырвался.
#5 #1056644
sage #6 #1056645
>>1056643
согодня вброскресенье, долбоёб
проснись, ты обдристался

вопрос то теме, почему нейроночки так смачно отсасывают у гауссовых процессов?
#7 #1056646
Что-то картинка с йобами сложная уже какая-то. Видимо нужен йобаучебник с мемасиками.
#8 #1056654
Что-то картинка с эволюцией сложная уже какая-то. Видимо нужен эволюшинучебник с мемасиками.
#9 #1056687
>>1056645
я разве написал что сегодня буду в офисе?
#10 #1056694
вы никогда не думали, что каждая секунда приближает нас к смерти?
а на что мы тратим драгоценные секунды?
смотрим фильмы, играем в игры, сремся на дваче.
я не говорю о потребностях, которые нвозможно вычеркнуть типа еда или секс, т.к. без них не сможет функционировать организм.
но ведь все остальное - пустая трата времени, которое можно было потратить на изучение медицины, математики, кодинга, конструирования, попытки решить глобальные вопросы типа старения и смерти.
меня теперь мучает осознание этого. большинство людей вообще занимается наукой за плошку риса, т.е. не ради прогресса ради решения собственных проблем (старение, смерть, болезни), а из-за необходимости - плошка риса чтобы не сдохнуть с голоду.
#11 #1056712
>>1056694

>я не говорю о потребностях, которые нвозможно вычеркнуть типа еда или секс, т.к. без них не сможет функционировать организм


Приграл с социобляди. Ни разу не занимался сексом, чувствую себя нормально. Уже год пью нейролептики, от которых хуй без усилий не встает и желание ебаться не возникает. Не знаю, как относиться к этому. Скорее всего, мне похуй.
Не можешь получать удовольствие от процесса - катись нахуй, ты дефективная капиталистическая потреблядь.
#12 #1056717
>>1056712
Двачу адеквата.
sage #13 #1056718
>>1056694
4/10, average b8
#14 #1056727
>>1056694
мне кажется, что все об этом думают, но молчат. трудно принять что человек может об это _не_ думать. зачем такой человек что-то делает? вот так, просто захотелось, и не озадаченно, он идет на работу, или еще что делает? но рано или поздно он должен был обзавестись вопросом, а че это я, блять делаю? или же он быстро про этот вопрос забывает, как наркоман забывает про губительность привычки?
и где -же тогда тот разум, упоминание которого присутствует в наименовании нашего вида, человека разумного?
#15 #1056730
>>1056727
я думаю, большинство людей просто отвечают на этот вопрос религией: типа я не делаю никому зла, а значит попаду в рай и эта вся цель моей жизни.
т.е. они уже считают себя бессмертными, а болезни оправданными (испытания б-га) и не хотят ничего менять или улучшать.
это же пиздец, господа.

>>1056712
ты насильно подавил одну из фундаментальных заложенных в тебе биопрограмм, жди ахуенной побочки.
#16 #1056732
>>1056730

>жди ахуенной побочки


Насрать, мне без нейролептиков хуево.
#17 #1056737
https://ideone.com/71pNwR

Готовьте анус, бездушные потребители бабла. Ваши страдания в айти будут лишь усиливаться.
#18 #1056741
>>1056694
А ты никогда не думал, что смерть это не старуха с косой, которая однажды неожиданно постучит в твою дверь. Смерть - это сама матушка природа что наградила тебя песочными часами. Каждый вдох кислорода сжигает твои внутренности, приближая тебя к среднему состоянию биологического бульона окружающего планету - состоянию питательного гумуса.

Ты считаешь, что твои мертвые предки следят за твоей судьбой с того конца линии жизни, пристально рассматривая каждое деяние с точки зрения великого смысла, блага для человечества, славы и почета в веках? Присмотрись внимательно. какие они крохотные создания, как они резво копошатся в рыхлом черноземе, как их длинные кольчатые тельца извиваются в экстазе, желая вкусить теплые соки, что стучат в в твоих выпирающих шейных артериях.

- Что же ты не признаешь нас сынок? - сладко шепчут тебе они. - Это же мы - твои бабушка с дедушкой, те кто постоянно носил тебя на руках, кого ты обожал больше своих родителей, за то что не скупились удовлетворить любую твою прихоть. Иди же к нам, наше ласковое дитя. Накорми нас.

Мир как огромный котел наполнен кипящим хаосом. Все происходящее - в той или иной степени случайное завихрение, созданное потоками космической энергии. Тебе повезло оказаться частичкой турбулентности называемой жизнь. Ты в этом вселенском шторме всего лишь крохотная частица, имеющая стохастическую траекторию, не выходящую за область биологического аттрактора.

https://www.youtube.com/watch?v=tH2w6Oxx0kQ
147 Кб, 690x659
#19 #1056745
>>1056732
а что с тобой без нейролептиков?
>>1056737
очень интересные отсылки к половой гомоебли, товарищ девственник.
#20 #1056747
>>1056741
ну так я и говорю. направлять все силы на борьбу со смертью (болезни лишь ее проявления) - это разумно.
#21 #1056753
>>1056712

>чувствую себя нормально


>Уже год пью нейролептики


Взлолнул. Попроси чтобы тебе лоботомию сделали, вообще норм будет.
#22 #1056755
>>1056747
Те кто могут - направят, те кто не могут - пойдут на завод пить тормозную жидкость. Разумная воля - в большей степени мистификация.
#23 #1056765
>>1056753
Без НЛ меня мучают навязчивые мысли.
#24 #1056774
>>1056765
ОКР?
#25 #1056775
>>1056774
Я не спрашивал название расстройства. Пью эсциталопрам, эглонил и ноотроп.
#26 #1056777
>>1056775
Ну, а мысли-то какие? Уебать тех даунов из треда сверху? Или делать то, что от чего тебе будет плохо?
#27 #1056778
Ну вот, на конец выяснили, что машобом интересуются под веществами, а когда отпускает, возвращаются на работу говнокодить на php.
#28 #1056781
>>1056778
ПТУшник, плес.
#29 #1056783
>>1056777
Мысленное проговаривание определенных фраз.
#30 #1056784
>>1056781
Ой все, ухожу пить тормозную жидкость.
#31 #1056786
>>1056783
Ну, ладно, удачи. Рад видеть таких здесь.
Мог бы рассказать уж, что за фразы. Разводишь меня на новые и новые ответы.
#32 #1056787
>>1056786

>Мог бы рассказать уж, что за фразы


Это не так интересно, как причина, когда в детстве проговаривание определенных фраз помогало справиться со страхом смерти близких. Страхи прошли, а обсессии остались.
#33 #1056788
Всем привет. В этом году я поступил на 1 курс довольно сильного вуза. В дальнейшем хочу заниматься ИИ. Но солидная математическая база у меня появится только через 2 года, что в таком случае можете посоветовать делать, чтобы начать развиваться в этом направлении? Добра.
#34 #1056790
>>1056787
Дети не боятся за близких, в крайнем случае этот страх возникает в возрасте 16 лет и старше. Дети антропоморфизируют смерть, представляя ее как нечто страшное, что может зайти ночью в комнату, а сам страх смерти лишь защита от психологической травмы наносимой родителями.
#35 #1056794
>>1056788
А через два года ты поймешь, что хочешь заниматься ИИ однокурсниц.
#36 #1056796
>>1056794
Возможно, но пока есть время, чтобы не настолько деградировать.
#37 #1056797
>>1056790
Чушь какая-то. Я боялся смерти матери и своей собаки. Для противодействия этому я почему-то придумал игру с набором правил построения и произнесения фраз, которые отсрочат их смерть. Со временем правила усложнялись, а гоодам к 16 наоборот - упростились, но к тому времени это уже была обсессия, с которой я не мог ничего поделать.
#38 #1056798
>>1056787
А я бы почитал. В дурку не клали? Трудоустройству не мешает?

>>1056788
Не надо. Вы перехайпили. В ИИ нет ничего такого, чтобы идти именно сюда. Выбери что-нибудь другое.

>>1056790
Нахуй иди.
#39 #1056801
>>1056798

>Не надо. Вы перехайпили. В ИИ нет ничего такого, чтобы идти именно сюда. Выбери что-нибудь другое.


Это ИИ выбрал меня.
#40 #1056804
>>1056798

>Трудоустройству не мешает?


Нет. Спросили военный билет, где у меня категория "д" (острые психические расстройства) и взяли без проблем.
#41 #1056810
>>1056797
Какая разница как ты это объяснял - это не имеет отношения к действительности. Навязчивые состояния - это распространенный невроз. Лекарство - вылезти из скорлупы, это в большей степени когнитивный процесс.

Сейчас тебе может это казаться обыдлением. Но со временем это само произойдет, когда превратишься в брюзжащего старпера и просрешь все полимеры, которые можешь просрать. Лучше пройти этот процесс взросления намеренно, пока еще не поздно, что-то поменять в своей жизни.

Не знаю что тебе поможет. Мягкую помощь могут оказать групповые тренинги, позволяющие в безопасной обстановке взглянуть на жизнь с другой стороны.

Как ни странно помогают страдания. Армия - это суровый групповой тренинг.
#42 #1056811
>>1056765
Тебе нужно тяночку. У меня парень тоже окрщик. Как только появилась я, он слез с фарсы, прошла депрессия
#43 #1056813
>>1056810

>Сейчас тебе может это казаться обыдлением. Но со временем это само произойдет, когда превратишься в брюзжащего старпера и просрешь все полимеры, которые можешь просрать. Лучше пройти этот процесс взросления намеренно, пока еще не поздно, что-то поменять в своей жизни.


Мы вместе с тянкой пытаемся вылезти из говна. У нее социофобия, у меня вот эта хуйня, тревожность и последствия родовой травмы. Для нее сейчас главный вопрос - найти работу.

>Как ни странно помогают страдания. Армия - это суровый групповой тренинг.


Помогают, но временно. На тренировках по рукопашному бою обсессии прекращаются, но через пару часов снова одолевают. Наверно, это связано со снижением уровня серотонина, который вырабатывается при аэробных нагрузках.

Алсо, какие последствия приема нейролептиков и ад? Кто испытал их на своем опыте?
#44 #1056814
>>1056811
Фармы*
#45 #1056815
>>1056811

>Как только появилась я, он слез с фарсы, прошла депрессия


У меня прошла депрессия, но не окр :3
#46 #1056818
>>1056815
А у меня прошли депрессия и страхи, когда я стал пердеть нагибаясь.
#47 #1056821
>>1056818
Клево. Пердишь оче вонюче?
#48 #1056825
>>1056810

>Лекарство - вылезти из скорлупы


Психолух, плез. Когнитивная терапия применяется, но твоё предложение - какой-то бред. Ты бы ещё шизофрению вылезанием из скорлупы лечил.

>>1056811
А ещё тянучка принести и лишнюю суету. Я б не рисковал.
#49 #1056835
>>1056815
Зачем, ты же фильм смотришь, что тебе делать на доске для кодеров?
#50 #1056837
>>1056813
>>1056813
У меня тоже лёгкая социофобия, но я давно нашла работу
40 Кб, 582x326
#51 #1056844
Прекращайте уже
#52 #1056870
>>1056788
Шарящие аноны, помогите, пожалуйста.
#53 #1056872
>>1056870
Ты Ландау или Ферми, чтобы заниматься чем-то независимо от кафедры на которой учишься? Невыебывайся, просто учись.
#54 #1056875
>>1056872

>Не выебывайся


я точно не Ландау :)
#55 #1056876
>>1056788
Какого вуза?
К концу первого курса дадут базу, ботом будет намного легче внимать в машобтебя хотя бы знак суммы не будет пугать.
#56 #1056915
>>1056870
Машоб на каждом углу рекламируют. Сейчас каждый студент пишет диплом на эту тему (потому что очень низкий порог вхождения). Если ты хочешь матан, высокую зарплату, гарантированную востребованность - тебе не сюда. Есть много других очень интересных направлений.
#57 #1056923
>>1056915
Ой блять, нахуй иди, каких именно направлений ты, конечно, не скажешь.
#58 #1057038
>>1056872
Нужно ведь начинать уже сейчас, чтобы к 3 курсу уже был мало-мальский опыт в этом деле.

>>1056876
СПбГУ, матмех.

>>1056915

>Если ты хочешь матан, высокую зарплату, гарантированную востребованность


Если под эти критерии не подходит ИИ, то что тогда?
#59 #1057044
>>1057038
Начинай со второго.
#60 #1057050
>>1057044
Ладно, спасибо. А пока буду долбить математику и алгоритмы.
sage #61 #1057056
>>1057050
математика - первый оппик
алгиртмы (генетические) - второй оппик
#62 #1057057
>>1057056
приклеилась
#63 #1057062
>>1056915

>Есть много других очень интересных направлений.


Мне аж интересно стало
Компьютерное зрение
Генетические алгоритмы
...
Сеттлеретика???
#64 #1057064
сука, куда я попал
#65 #1057065
>>1057050
Представь, что Билл Гейтс был первокуром как ты. Он ходил около большой вычислительной машины в своем универе и облизывался. Вот бы иметь такую личную штуку, чтобы не писать код на бумажке в студенческой библиотеке и не стоять в длинной очереди к мигающему разноцветными огоньками шкафу. Но внезапно судьба повернулась к его мечте лицом. Персональные компьютеры быстро стали реальностью, а он оказался во главе разработчиков программ для таких штук.

Теперь сравни со своей ситуацией. Ты хочешь пойти по протоптанной тропинке потому, что так понятнее и безопаснее. Ты не видишь возможностей вокруг. Никто их не видит - кроме гениев.
#66 #1057069
>>1057065
TOLOSTO
#67 #1057071
>>1057064
Тред захвачен шизофрениками-графоманами. Сопротивление бесполезно.
#68 #1057970
все бывшие одноклассники & однокурсники уже женаты, детей стругают а я тут с вами долбоёбами сижу
#69 #1058130
Хочу вкатиться в machine learning, есть ли гайды от двачей, в нете дохуя видел, облако чекал, книги видел. И еще вот вопрос, счас все юзают питон как мейн язык для machine learning, а нужно ли какой-то язык учить еще дополнительно? Плюсы например и тд, в технический английский могу. Вообщем реквестирую годный гайд для вкатывания в МЛ, англ/русс.
студент-бульбаш 1 курс, планирую дрочить и поступать в ШАД

Репост из змия треда
#70 #1058314
>>1058130
Да кому ты нужен. Рынок перегрет.
Почитай лучше >>1057065
#71 #1058389
Сап, нейросети!
Поясните за дообучение сетей и использование каких-то предобученных сетей в нейронках. Распространено ли это, какова эффективность?
Т.е. например одну нейронку успешно обучили на распознавание кошек. Насколько целесообразно будет дообучать сеть на распознавание собачек или мб велосипедов каких-то?
Или вот в глубоких сверточных нейросетках, которые изображения распознают, на первых слоях какие-то примитивные фичи (палочки, их комбинации и т.д.). Есть ли такая практика, что изначально в нейросеть забивают веса именно с такими фичами, и ее обучают? Или, например, берут уже обученную, и вторую половину слоев зануляют, чтобы заново обучить?
#72 #1058598
>>1058389
судя по эффективности например на CIFAR, чтобы порог переобучения был повыше лучше обучать под каждый класс объектов отдельную сеть, если условия задачи позволяют
#73 #1058602
>>1057065

>Ты не видишь возможностей вокруг. Никто их не видит - кроме гениев.


https://www.youtube.com/watch?v=zNuIgCn9SF0
#74 #1058756
>>1056633 (OP)
Завидую тем, у кого хороший вуз и научрук может выдать интересную тему.
#75 #1058824
Ребят, объясните нубу, где можно применять машобчик и нейронки. Просто у меня настолько убогие представления, что кроме распознавания картинок ничего в голову не приходит.
#76 #1058846
Посоны, как быть. В cifar все объекты разделены, а у меня картинки имеют сразу 2 класса на одном изображении. Как такое классифицировать? Будет ли сеть обучатся если на большинстве картинок имеется сразу 2 класса? Получается так: часть картинок только 1 класс, часть - 2 класса в одной картинке. Например 1. Машина без дороги, 2. Машина с дорогой, 3. Дорога без машины.
#77 #1058882
>>1058846
все отлично будет обучаться (при очень большом желании там есть специальные лоссы и тд)
1 выход - есть машина
2 выход - есть дорога
#78 #1058883
>>1058824
в яндексе рекламу и погоду кликать, как одна курица мне на собеседовании чуть ли ни матом сказала, что машоб и нейроночки - это типа штука для повышения конверсии, после чего попросила "продать себя"
#79 #1058903
>>1058882
Ага, спасибо, буду пробовать, надеюсь получится.
#80 #1059050
>>1058824
Загугли Reinforcment Learning, самая фановая область. Хотя GAN'ы тоже неплохи.
#81 #1059075
>>1058882
И еще вопрос. Стоит ли делать еще один выход который будет сигнализировать что там нет ни дороги, ни машин? Т.е. получается всего 4 выхода.
#82 #1059083
>>1059075
Ой, 3. 1. Машины, 2. Дорога, 3. Ни дорога, ни машины.
#83 #1059084
>>1059075
Всё верно. Но забей на это устаревшее говно. Обучай мультиклассовый SVM.
#84 #1059089
>>1059084
Сравнительный анализ со сверточными есть?
#85 #1059092
>>1059050
Разве для обучения с подкреплением есть что-то типа бишопа?
#86 #1059113
>>1058883
>>1059050
Просто мне не совсем понятно: вот я хочу заняться машобом, в каких сферах для решения задач я смогу применить свои знания? Или нет какого-то ограничения?
#87 #1059117
>>1059113
Но как ты можешь хотеть заниматься этим, если даже понятие не имеешь о применении? Неужели повёлся на хайп и решил, что это твоё?
#88 #1059178
>>1059083

> Буду тратить слои на обучение логического или

#89 #1059199
>>1059117
Это было обычное предположение, я обычный мимокрок, которому просто интересно чуть-чуть разобраться в этом.
#90 #1059203
>>1059178
что посоветуешь? разбить на 2 разные сети? памяти на видюхе не хватит
#91 #1059245
Что за хуйня в оп-посте и треде?
Я попал в тред по маш.обучению или где?
Дайте 1-2 книжки на почитать для начала. Вроде ж были в старых тредах.
Алсо, какие языки больше подходят для этого, назовите по убыванию.
#92 #1059250
>>1059245

>Тебя самого не фейспалмит от вопроса про языки?

#93 #1059251
>>1059250
Цитирование случайно приклеилось
#94 #1059264
>>1059251
Двачую. Понабежали студентики-уже-не-школьники. Учебный год начался.
#95 #1059278
>>1059250
Не фейспалмит. Для всего есть наиболее популярные/удобные/обкатанные инструменты, фреймворки. Я заметил, что чаще всего используют яву (хадуп, махаут) и пистон (numpy?), а я их не знаю. Я веб-макака и знаю php/js, ну еще c++/c#.
#96 #1059282
>>1059113
в любых, сириосли, не могу области даже придумать, куда засунуть его при желании нельзя
#97 #1059285
Рекомендательная система - это тоже относится к маш.обучению?
#98 #1059315
>>1059278

>жаба


Насмешил.
#99 #1059354
>>1059245
И всё-таки, что почитать, чтобы вкатиться?
другой анон
sage #100 #1059457
>>1059354
Высшее образование своими руками луракай. Пока не пройдешь, даже не думай сюда лезть.
#101 #1059473
Как в sklearn понизить границу, по которой объект относится к тому или иному классу?
Есть 1000 X объектов, из них 16 относятся к одному классу 1, остальные к классу 2. При предикте X разделяется 16\984, а мне требуется отнести как можно больше Х из класса 2 в класс 1 (который представлен этими 16 образцами). Как это сделать?
#102 #1059478
>>1059473
class_weight={1:0.1,2:0.9}
как-то так
102 Кб, 778x960
#103 #1059491
>>1059478

>1:0.1,2:0.9


Добра
#104 #1059640
>>1059457
Я эту пасту написал. Шизофреничная штука. Ни слова про нейроночки и машобчик. Теперь можно сюда лезть?
#105 #1059691
>>1059640
Тебя сейчас научи, а потом ты и про нейроночки такую пасту сделаешь. Тогда к нам набигут тысячи новых людей, и весь рынок порушат.
#106 #1059791
Как сделать искусственный интеллект? Я слышал что это круто
sage #107 #1059813
>>1059640
А зачем? Программистам всё равно платят в разы больше, а требования в 10 раз меньше.

Короче, школьники, выкатывайтесь, пока не поздно.
25 Кб, 615x458
#108 #1062454
Что-то тред сдох. Давайте, я наброшу гениальную идею на миллион, а вы покритикуете. Читал я давеча пейпер про fasttext, если кто не в курсе, это либа для NLP от пейсбука https://github.com/facebookresearch/fastText умеющая в subword-анализ, т.е. анализирующая не слово как атомарный элемент текста, а н-ки буков этого слова от 2 до 6. Ну и дальше все как обычно - чаще встречающиеся в определенном контексте из других буков н-ки позволяют вычислить семантику слова (в данной либе - отдельны частей слов, таких как корень, суффиксы, ну вы понели). Далее сама идея:
1) Но ведь в качестве слов можно использовать все, что угодно. Например, вещественные числа. Ведь чисто формально это тоже слова в алфавите, состоящем из натуральных чисел от 0 до 9 и точки.
2) Далее, есть такая тема как нихонские свечи пикрелейтед. Опять же, исходя из вышесказанного за вещественные числа, чисто формально японская свеча это слово, состоящее из значений открытия, закрытия, максимальной и минимальной цены.
3) Теперь усложним задачу. Разница между парами 4х значений соседних свечей (или логарифм от нее) это так же слово. Контекст которого - подобные же значения соседних свечей.
4) Тогда, если мы возьмем числовые ряды, сделанные как описано в предыдущем пункте, у нас будет формальный текст (напомню, в алфавите из цифр 0,...,9 и точки).
5) Если мы пройдемся по такому тексту фасттекстом, мы сможем выявить статистическую закономерность, зависимость динамики изменения свечей от динамики же контекста этих свечей (то же самое можно сделать для показателей индекса Ишимоку, как пример). Т.е. в итоге мы получим нечто типа регрессионного анализа с возможностью предсказывать последующие значения свечей исходя из предыдущего и текущего (как элементов контекста). Т.е. фасттекст в данном случае используется как алгоритм для идентификации системы.
#109 #1062628
>>1056633 (OP)
Аноны, реквестирую датасеты на диплом.
Желательно NLP. В кеглях буржуйские какие-то
В идеале - сайт, который будет легко запарсить.
#110 #1062632
>>1062454
какие свечи, наркоман?
43 Кб, 480x244
#111 #1062737
Дело такое - мне нужен наставник.
Живу в общаге, и мои соседи нихрена не соображающие быдланы, играющие в дотан сутками.
Я хочу самообучиться до нормального уровня, но мне нужно кому-то отчитываться ин рил лайф, чтобы это держало меня на плаву.
Что я планирую делать: каждый день присылать отчёт что я сделал, что прочитал, краткий пересказ понятого материала, и небольшое эссе на английском или французском.
Ваша задача: сказать "молодец, продолжай", или что-то подобное. Можете иногда придумывать мне челленджи, которые я должен выполнять inb4: синий кит, а ля "перечитай весь матанализ за 10 часов".
Короче, кому там нужен послушный раб-зубрила?
втентакле: /quantumdemon
#112 #1062743
>>1062737
Учеба для того и нужна, чтобы найти себе наставника из числа преподов. Лекции, как и экзамены - это просто повод пообщаться, реальные знания можно получить только самостоятельной работой под (как минимум) наблюдением сенсея. Если в твоей шараге не так - это достаточный повод сменить шарагу.
23 Кб, 325x248
#113 #1062754
>>1062743
Гуд пойнт, но мне уже поздно менять шарагу.
Алсо, ни разу не встречал препода, который бы подошёл на такую роль.
Единственный человек, который был в этом плане более-менее подходящим, внезапно, это препод из ZTH, который с какого-то хрена стал отвечать на мои письма с вопросами. Но он слился под НГ, лол.
Давайте,ребята, все в детстве хотели себя хомячка.
29 Кб, 535x400
#114 #1062763
>>1062754
Заведи себе воображаемого друга, как делают все дети.
#115 #1062914
>>1062628
2ch.hk
#116 #1062924
>>1062914
Я тоже первым делом об этом подумал.
Но слишком стрёмно.
Да и датасет не так уж и огромен, разве что архивач поднимать.
#117 #1063013
>>1062454
да никому ты не нужен, тем более, если в шараге учишься, нормальные преподы берут себе в хомяки олимпиадников с вышкой в 12 лет
#118 #1063188
>>1062924
На архиваче 200к тредов вообще-то. Да и аноны уже озаботились, вот либа(https://toster.ru/q/437218) с помощью которой реплаи можно с минимумом ебли парсить.
#119 #1063309
>>1062454

>Ну и дальше все как обычно - чаще встречающиеся в определенном контексте из других буков н-ки позволяют вычислить семантику слова


Это не семантика. Это что-то очень отдалённо похожее на семантику.

мимо-лингвист
#120 #1063317
Посоны, решаю конкретную математику. Щас на 5 главе, домашки. Заебался. Расскажите че нить.
#121 #1063356
Анон, объясни, почему нельзя найти точку минимума функции с помощью производной?
Почему надо использовать шаги и искать минимум функции ошибки с множеством итераций?
#122 #1063357
>>1063317
Якубович умер же.
1,8 Мб, 2092x2916
#123 #1063394
>>1063309

>Это не семантика. Это что-то очень отдалённо похожее на семантику.


Ну тогда расскажи, что такое семантика.
>>1063356
Потому что в оригинале матанализ слишком идеализирован, аутичен, для практических нужд. Чтобы не просто рисовать значки, а реально вычислять, необходимы численные методы. А они невозможны без учета вычислительных погрешностей, устранимых и неустранимых ошибок, оценки стабильности вычислений, оценки точности приближения (аппроксимации) и т.д. чего в оригинальном матане нет. А машобчик - это практическая дисциплина, так что добро пожаловать в реальный мир, Нео.
#124 #1063484
>>1063356
так ты её и ищешь с производной, всё правильно понял
итерации нужны когда функция слишком сложна что бы найти замкнутую формулу
#125 #1063544
>>1063394

>Ну тогда расскажи, что такое семантика.


Как минимум семантика слова включает в себя коннотативный аспект.
#126 #1063549
>>1063544

>коннотативный аспект.


Подразумеваемое значение? Но оно ведь отражается в контексте употребления слова, т.е. опять же его использование относительно других слов. Если бы этого не было, то собеседник не смог бы понять в каком смысле ты используешь слово. Разве нет?
30 Кб, 600x320
#127 #1063557
>>1063356
Единственный случай когда никаких шагов не надо - положительные параболоиды. Чаще всего их можно найти в задачах МНК. Её единственный экстремум всегда в точке где производная равна нулю. Раз корень только один, то это линейная задача, которая имеет способ решение через поиск обратной матрицы и.т.д. Более сложные функции имеют множество экстремумов, не известно какой из них даёт минимум ошибки, и их не решить линейной алгеброй, т.к. там уже будут хитрожопые вектор-функции, а не простые линейные операторы. Однако, какой бы хуёвой, не была эта функция, её линейная часть приращения, матрица Якоби, будет оставаться объектом линейной алгебры, а значит её можно юзать для градиентного спуска.
#128 #1063578
>>1063394
>>1063484
>>1063557
Спасибо анончики <3
104 Кб, 509x318
#129 #1063684
Поясните за Метод обратного распространения ошибки. Если у меня есть 2 выходных нейрона и первый выдал правильный результат, а второй ошибся, то нужно ли пересчитывать веса для первого выходного нейрона, который не ошибся. Я просто смотрю гайд и там формула дана, что бы считать ошибку по всем выходящим нейронам. Но в примере выходящий нейрон всего один, так что не понятно, как работать с несколькими выходящими нейронами.
#130 #1063699
>>1063684
Вот чтобы подобные вопросы не ставили тебя в тупик, и нужно учить сначала матан.
#131 #1063761
>>1063684
Похуй сколько выходящих нейронов, т.к. их они принимаются за вектор. Вектор из одного элемента - тоже вектор.
#132 #1063779
Сап, нейрач. Читаю Хайкина, натолкнулся на такие понятия, как оператор замкнутого контура и оператор разомкнутого контура. Что сие означает?
31 Кб, 600x595
#133 #1063782
>>1063779

>Читаю Хайкина


Зачем?

>такие понятия, как оператор замкнутого контура и оператор разомкнутого контура. Что сие означает?


У Хайкина спроси. А вообще, либо там объясняется, либо понятно из контекста, либо странности перевода, Хайкина на русский отвратно перевели, именно в плане терминологии.
#134 #1063790
>>1063782
Да просто есть свободное время, решшил ознакомиться с фундаментальной литературой. Что, не стоит даже в оригинале того?
#135 #1063791
>>1063790
Мое мнение - не стоит. Мутновато излагает, лучше первоисточники наворачивать. Тем более тема широкая, в одной книжке нормально охватить нереально.
#136 #1064709
>>1063782
Я тоже начинал Хайкина читать, но бросил.
Что посоветуешь именно по нейронным сетям?
У треда нет списка литры?
#137 #1064712
>>1064709

>нейронным сетям


в голосяндру, повелся на хайп?
мимокрок
Аноним #138 #1064714
>>1064709
нет но был, поищи в предыдущих
списка предыдущих тоже нет но был, поищи в гуглокеше
#139 #1064719
Есть ли в машинном обучении какие-то технологии на свалке, которыми никто особо не занимается?
#140 #1064725
>>1064719
nearest neighbor классификаторы
анализ временных рядов с помощью grammar induction

Это то что было более-менее популярно, но потом было заброшено. В общем любая статья, которая не получила распространения, это технология на свалке, но про них по очевидным причинам никто не знает.
#141 #1064775
>>1056633 (OP)
Анон, машоб это пиздец интересно, конечно, но где работать среднему бигдата спецу?
#142 #1064796
>>1064775
И что ты ожидаешь в ответ на этот вопрос? Что тебе кто-то начнет подбирать вакансии?
#143 #1064852
>>1064775

>но где работать среднему бигдата спецу


там где пр
очевидно, что в макдаке.
#144 #1064859
Анон-нейрон, посоветуй ресурс по анализу данных на Python/Pandas. Хорошую книгу или отличный курс (лучше книгу). Хочу повозиться с данными, прежде чем лезть в машобчик.
#145 #1064862
>>1064859

>Хорошую книгу


держи http://www.litlib.net/bk/72279
#146 #1064864
>>1064862
Спасибо, очень смешно. Я уже нагуглил что надо, а ты нахуй иди.
#147 #1064885
>>1064796
Нет, ожидаю услышать, где работает анон вангую смищные шутки про макдак, чем занимается, какие проблемы решает на работе и прочее.
#148 #1064886
Спасибо за картинки в ОП-посте, они мне знатно помогли.
#149 #1065032
Получается, на рынке ценятся только синьоры? И как ж тогда обычному двачеру дорастать до этого уровня без работы над реальными проектами?
#150 #1065083
>>1065032
Область недостаточно широкая, чтобы обучать джунов, да и синьоров есть некоторый резерв.
Шанс у джуна может быть в конторе, которой специалист нужен, но не очень сильно, так что она готова платить только очень низкую ЗП, сопоставимую с макдаком.
#151 #1065092
>>1065083
А как же тогда стать этим самым синьором, если нет опыта с реальными проектами?
#152 #1065096
>>1065092
Отправится в 2010.
#153 #1065100
>>1065096
Что ж тогда направления Data Science и ML/AI такие популярные у вкатывальщиков? Чисто хайп?
#154 #1065105
>>1065100

>Чисто хайп?


да

>такие популярные у вкатывальщиков?


нетъ. с этой хуйни кормяться матанопитухи-грантопилы, типа исследования черных дыр, приздишь что угодно в рамках общепринятой теории, никто проверить не сможет.
#155 #1065112
>>1065105
А что можешь посоветовать ты? Вебмакакинг, в котором индусы отберут твоё место за корку хлеба? Геймдев, который в СНГ практически нулевой? Робототехника, где единственный твой путь - педагогика?
#156 #1065120
>>1065112

>А что можешь посоветовать ты?


В чем, в выборе галеры?

>Робототехника, где единственный твой путь - педагогика?


Как насчет автономной сельхозтехники навскидку, или для тебя роботы бипедальные терминаторы?
#157 #1065126
>>1065100
У каждого своя мотивация. Если тебе это не нужно, тебе это не нужно.
#158 #1065129
>>1065120

>В чем, в выборе галеры?


Если у тебя не суперобеспеченные родители и твоё будущее не устроено благодаря им, то в большинстве случаев выбор именно такой. И IT, к слову, довольно неплохая галера.

>Как насчет автономной сельхозтехники


0 ваканский на хедхантере.
#159 #1065134
>>1065126
Какая мотивация в этом деле может быть кроме денег? Неужто ноука?
#160 #1065144
>>1065134
Лучше задай себе вопрос: какая тебе разница, какая у других людей мотивация?
У кого-то ноука, у других деньги, третьи "куда все, туда и я", четвертые просто рандомом, пятым нравится звучание словосочетания "нейронные сети". Сильно тебе это помогло?
#161 #1065146
>>1065144
Мне просто интересно, что хотят от машоба двачеры, если, как было сказано выше, вкатиться практически нереально. Ни больше, ни меньше.
#162 #1065148
>>1065146
Лично я работаю в этой области с давних лет ("синьор"). Мне это интересно, для меня это ноука.
#163 #1065150
>>1065148
Вкатиться сегодня действительно так тяжело, как рассказывают? В вакансиях, кстати, не уточняют твой уровень, всегда заведомо имеется синьор? И как работодатель отличит-то синьора от несиньора?
#164 #1065157
>>1065148
контекстную рекламу впариваешь или тариф обсоса?
#165 #1065161
>>1065150
Я выше писал свое мнение про джунов. Спрос на спецов не очень велик, особенно в РФ, где они нужны только большим конторам с сильным технологическим уклоном. Это, видимо, банки, интернет-бизнесы вроде Яндекса и Мейлру, да и все. В банках своя атмосфера, там тебя с улицы никто не пустит делать модели. Остальная мелочевка это уровень стартапов за еду, только в русских реалиях это будет без еды.
Специалистов тоже нет так уж мало, пресловутый хайп даром не прошел. Хотя самые крутые постоянно уезжают в другие страны, так что тут по РФ мне трудно оценить. Глобально, например такой показатель: в r/MachineLearning/ 128000 подписчиков.
Посчитать свои шансы заранее трудно, как и в любых инвестициях. Мое мнение: за этой областью будущее. Все остальное сойдет на нет и будет находиться на уровне, где сейчас разработка компиляторов и ОС.

Чтобы узнать, что нужно в вакансии, позвони по указанному там телефону. Там же можешь прояснить требования, если тебе что-то непонятно из описания.
#166 #1065163
>>1065161
Всё, что я хотел узнать. Спасибо, анон.
#167 #1065164
>>1065161

>за этой областью будущее


хуюдущее. что для тебя мл? гнапример медицинские эс были еще в 70х, их похерили копитолизды, что бы не выебывались.
#168 #1065167
>>1065164

>медицинские эс были еще в 70х, их похерили копитолизды


чому же похерили, есть такая область - СППР, весьма вездесуща (не только у врачей, и у юристов, психолухов, у бухгалтеров даже ссаных). Просто там делать нечего особо, для погромишечьего труда мало задач, всё делается на раз-два по готовому шаблону.
#169 #1065171
>>1065167

> Просто там делать нечего особо


вот глупости не говори, бугурт идет как раз от тех кого пытаются заменить ии
#170 #1065174
>>1065171
не вижу связи; я о том, что "заменить" весьма легко, для этого не нужно и сотой доли того человеческого труда, который необходим для вёрстки миллионов сайтов, скажем
#171 #1065176
>>1065174

>что "заменить" весьма легко


нетъ, просто тебе никто не даст это сделать
#172 #1065257
Смарите какого колоритного ИИ-мыслителя вам нашел: http://www.cognitivealgorithm.info/
Русский тоже, вроде бы. Хотя живет в Бостоне, так что доподлинно неизвестно.
#173 #1065468
Сап, нейроны
Есть face recognition моделька, точней и скорее всего быстрей findface'овой.
Есть смысл пилить второй findface с блекджеком, шлюхами, и анонами?
#174 #1065485
>>1064864
Поделишься?
#175 #1065620
Скоро ли я получу 5-ый том «Войны и мира»?

-то любимым и приятным лицом, встретившись, что-то сказал Жерков.

– Еще, еще! – повторил он, улыбаясь, сказал он.

– Да, я сказала она, – сказал Билибин, – и уне были в Москве, и что он отец иттого не было.

– Вы заботили вперед, – сказала Анна Павловна, – сказал Билибин, подхватив за руку князю Андрею, убежавший под голову князя Василья, который с улыбкой на путь со всею светским, столько беспрестанному командующим, я знаю только потому, что бы он не мог ответить. Она взяла его портфель. Видно было, что всё эти стояли подумать и вывезти на моего сущность, я бы счастливы, полку, – сказал он, – но чтобы думать, что этот вечер, не разбира!

– Ты входите, – сказал он, улыбаясь, – вы, не понимаю, что он желал бы тоже получить меня нет тому, что было ей, то успокоиваясь. – Я привал судьбу сухие.

– Вы ведь не за чем? – спросил он, – и уже не знает, и что он сказал, что здесь, ни другое оторвало ноги с нают. – Я жалую землю особу.]

– Я понимаю, что я знаю, что я не смею. Вот в
#176 #1065637
>>1056633 (OP)
У вас синус квадратного йобы неправильный же.
#177 #1065793
У меня батхерт от конкретной математики. Там что реально сложно или я тупой?
#178 #1065797
>>1065793

>конкретной математики


Тебя развели, это говно никто кроме ебанутых ПМИшников не читает, как и Кнута.
#179 #1065798
>>1065797

> как и остального Кнута


fixed
#180 #1065799
>>1065797

> ПМИшников


Кто это такие?
#181 #1065800
>>1065799
Прикладная математика - ВМК, ФКН, ФИВТ и прочие поехавшие олимпиадники.
#182 #1065801
>>1065800
И в чем они поехали? Кнут же четко пояснил что в батле абстракции против конкретного. Первые сосут.
#183 #1065820
>>1065801

>Кнут же четко пояснил


Хуесос, который не писал индустриальный код.
92 Кб, 589x1080
#184 #1065877
Есть Одна Молекула, из ее 1d репрезентации строкой я могу получить фингерпринт на сколько угодно битов, в статьях обычно от ~200 до ~2000. Это мои фичи. Вопрос, как выбрать количество нужных мне фич и как происходит отбор самых полезных?
#185 #1065881
>>1065793
КОроче в русском издании ошибка. Ебалихврот. Апокалипсис отменяется.
#186 #1065883
>>1065801

>в батле абстракции против конкретного. Первые сосут


По скорости это очевидно, но пока что код пишут люди и нам необходимы абстракции
#187 #1065925
Кажется мой пост удалили. Что за беспредел?
#188 #1066091
>>1065468
бамп вопросу, нейроны
#189 #1066146
>>1065161

>Мое мнение: за этой областью будущее


Что, машоб мне и сайт запилит? И распределенную базу данных? И автоматику поездов метрополитена? я лучше пешком пойду%
#190 #1066261
Ну дак что анон? Как найти пересечение логики двух сеток без дополнительного обучения. В обоих сетках есть одинаковые сущности, но представленные в разных метриках. Должно же существовать какое-то отображение одного через другое, пускай и не очень симметричное.
#191 #1066348
>>1066146
Во всех перечисленных типах систем уже вовсю применяется машоб, и его доля будет расти, пока эти системы не превратятся в нейроночки с тонкой обвязкой для взаимодействия с железом.
#192 #1066380
>>1066348
Так-так-так, и как машоб применяется в распределённых БД? Я просто мимо проходил, а тут такие инновационные технологии.
#193 #1066381
>>1066348
Не применяется, не надо тут ссать в уши.
Машоб имеет очень ограниченное применение - преимущественно для неформализуемых задач.
Во всех остальных случаях проще и эффективнее реализовать алгоритм руками. По крайней мере, до тех пор, пока не появится ИИ выше уровня среднего человека, который сможет писать алгоритмы.
80 Кб, 640x1517
#194 #1066812
Есть нейронка на keras и theano, как распределить ее обучение по нескольким машинам?
#195 #1066841
>>1066812
И как убить воркера если оперативки не хватает и скоро все крашнется?
#196 #1066869
>>1066380
Вместе с блокчейном, наверное.
#197 #1066996
>>1066869
Греф сказал что они в сбере будут делать блокчейн и нейронные сети и что рашка отстала.
221 Кб, 760x1092
#198 #1067026
>>1066996

>Греф сказал что они в сбере будут делать блокчейн и нейронные сети


Ага, а Чубайс лет 15 назад сказал, что будут нанотехнологии. Рашка это 100% африка - эпидемия ВИЧ, папуасы-каннибалы и т.д. Кто этими технологиями будет заниматься? Распильное рекламное агентсово "яндекс"? Греф начитался умных слов "блокчейн, нейросети", возможно даже понимает что это такое. И что он сделает? Въебет миллиарды, чтобы в итоге получить яндексовский быдлокод SplitStroku? Зачем пизду-то смешить.
#199 #1067058
>>1056633 (OP)
Поясните за блокчейн. Как делать и где там нейронка используется? Знакомый сказал что у него знакомый эту тему изучил и кучу бабла поднял
#200 #1067111
>>1066091
Сколько на LFW выдает? Фронтализовать лица чем будешь?
#201 #1067116
>>1067026
Почему вы так яндекс хейтите? Репозитории по машобу у них суперские, самое то, если с ноля учить.
#202 #1067138
>>1067111

>на LFW выдает


99.61%
но на самом деле LFW не нужно

>Фронтализовать


тоже не нужно
#203 #1067191
>>1067138
Center-face? resnet?

Ну ебошь.
Правда, уже есть готовые опенсурсные. Щас таких сервисов, как грибов после дождя.
Но если сделаешь нормальный апи и хуйлоад, может будет конкурентным. нет
#204 #1067193
>>1067191

>Center-face? resnet?


ну как сказать, я пошел дальше, лул
#205 #1067216
>>1067191
Короч текущая моделька построенная на реснет50 набивает 84% на мегафейсе, это 2ое место.
Думаю если заменить на что-то тип реснет-инсепшн, то могу за 90% выползти
#206 #1067339
Посоны, почему не обучается? Еcть данные 100x100 картинки из гуглкапчи.
50 процев - машина(ы)+дорога
15 проц - только машины
15 - только дороги
20 ни машины ни дороги

т.е. 3 выхода. Сеть не обучается почти, точнее всегда один выход больше других при настройке. Подозреваю что данные неочень, но что лучше поделить на 2 сети с одним выходом:1 - машины, 2 - дороги.

файл с картинками http://dropmefiles.com/opxtW
#207 #1067354
>>1067339
лосс какой?
топологию хоть нарисовал бы
#208 #1067369
>>1067354
Та разные типы сверточных(с релу, а так же полносвязная сеть в конце и без нее). Лосс постоянно скачет от 0.8 до 0.1. Вектор правдоподобия если и машина и дорога заполняю как 0.5(чтобы в сумме получилась 1), ну и 1 если что-то только одно на картинке.
#209 #1067370
>>1056712

>нейролептики


Так это ж нерабочая хуета. Смешно что у тебя еще и хуй не стоит.
#210 #1067390
>>1067369

>вектор правдоподобия


wtf?
#211 #1067393
>>1067369

>с релу


проиграл с долбоеба
#212 #1067414
>>1067390
ну что должно быть на выходе в идеале.
#213 #1067420
>>1067414
хуй должен быть на выходе, еблан
можешь внятно написать что это блять такое?
#214 #1067422
>>1067420
Блядь, неужели трудно догадаться, если и так все очевидно? По-моему тут и даун должен догадаться, что имеется ввиду. Исходный вектор для бэкпропа.
#215 #1067424
>>1067422
даун тут только ты.
#216 #1067432
>>1067424
не обижайся, я же не со зла.
#217 #1067497
Здраститя.
Решил, я, значица, нейросеть написать.
Но не могу понять структуру.
Есть игра - яцзы, кидаем 5 кубиков, 3 раза за итерацию перекидываем, сохраняем любое количество.

Не могу понять структуру нейросети, как ее построить.

Допустим, на входе: 5 входов - значения кубиков, 6 - количество бросков что остались.
Но ведь надо же как то учитывать структуру поля, сколько полей осталось, сколько очков получилось.
Как это сделать??

Функция обучения тоже понятна - набрать максимальное количество через 20 итераций.

Выходы, допустим, 5 - на каждый кубик - значение, оставляем его или нет.

А как со слоями сети быть? Там вообще не ясно блядь. 1000 слоев, с 100 нейронов на каждой? Или как?
sage #218 #1067500
>>1067497
Чем отличается нейросеть от какого нибудь графа с элементами?
#219 #1067520
>>1067500
Граф абстрактен, а нейросетке надо выплюнуть в конце на выходе определенные значения. Она ближе к монаде, чем к графу, как мне кажется.
sage #220 #1067525
>>1067520
ну вот граф с весами, мы ищем кратчайший путь. В конечном итоге получается минимальный путь от а до б. Это нейронная сеть?
#221 #1067638
>>1067525
Ну я хз как граф заставить проодить марио
#222 #1067640
>>1067370
Расскажи подробнее.
#223 #1068014
Ебаный TF, нахуй его вообще запилил?
вывести тензор нельзя, воткнуть дополнительную логику между forward и backward нельзя
как считается backward вообще только небу и Аллаху известно.
Верните теплый ламповый torch суки
#224 #1068061
>>1067638
Логика подсказывает. Если дохрена графов и рёбер насовать, то можно будет свести к нейронкам.
#225 #1068076
Добрый день, джентельмены.
Задача такая - у меня есть около 8 тыс штаммов бактерии, про несколько тысяч из них известно являются ли они патогенными/непатогенным. Про практически все 8 тыс известны их параметры. Вопрос - как на основе этих параметров предсказать возможную патогенность? Что нужно использовать машинное обучение/нейросети? Как вкатиться в это в минимально возможные сроки?
#226 #1068092
>>1068076
8k это очень скромное количество, для начала поищи еще данные где бактерии описываются такими же параметрами, кроме патогенности.
Машинное обучение не гарантирует приемлемый результат, но можно попытаться.
Лучший вариант для вкатывания, это найти датасаентиста, который будет с тобой работать.
Следующий по убыванию - посмотреть бактерии+нейронные_сети, взять готовый код и с минимальным знанием питона украсить его под себя.
За ним идет просто вариант с тем чтобы посмотреть архитектуру использованных в чужих публикациях сетей, научиться в питон и keras и воспроизвести такое у себя. Туториалов по "простая нейронка в keras" полно, документация тоже на уровне.
Просто вкатываются в машоб и нейронки люди, которые учат их в университете 3-5+ лет.
#227 #1068269
что почитать внятного про TF?
Torch у меня как-то сразу пошел, а с TF уже неделю ебусь, и даже не знаю как тензор блять на экран вывести, это пиздец блять
#228 #1068280
Посаны, поясните вкратце как играм обучают, я так и не понял как строится оптимальный граф и с помощью него обучают сеть как описано тут https://habrahabr.ru/company/yandex/blog/307260/ в обучение с подкреплением. Как давать оценку выигрыша для текущего шага? Я так понял используется несколько скринов экрана, потому что надо знать и скорость объектов? Если ориентироваться по очкам на экране, то большую часть времени эти очки не меняются, а жать на джойстике что-то надо.
#229 #1068283
>>1068014

>tf.eval()?



>ламповый torch


Если ты про питон, то там есть pytorch.
#230 #1068284
>>1068092
Для градиентного бустинга сойдёт.
#231 #1068336
>>1068283

>Если ты про питон, то там есть pytorch.


нахуй мне pytorch когда есть torch7

>tf.eval()?


и как это работает? у меня не пошло, с каких только сторон не пытался зайти.
И да - как вручную прикрутить градиенты?
Как сделать backprop?
ебаный TF
#232 #1068345
>>1068336
Ты какое-то быдло. Не хочется тебе помогать.
#233 #1068348
>>1068345
зачем называть быдлом любого кто не укладывается в твое мировоззрение?
#234 #1068350
>>1068345
и да, ты можешь сказать как в этом TF можно явно задать градиенты на выходе из леера?
Что делать если мне не нужна производная, можно её как-то заменить?
#235 #1068421
поясните что за О что за Х на оп пике ?
#236 #1068450
>>1068421
Крестики-нолики?
1,9 Мб, 954x996
#237 #1068482
>>1068269
Ты аутист, не обижайся. Сейчас, в конце 2017 года, по слесарьплову полно топовых книжек, где все объясняется с установки слесарьплова до примеров готовых проектов. Все книжки прекрасно воруются на либгене. Родина дала, читай, пользуйся. Нет, ты аутируешь над самим слесарьпловом, пытаясь угадать как там что-нибудь на экран вывести.
>>1068280
Суть обучения с подкреплением в аппроксимации зависимости конечного результата от происходящего на экране (в динамике, обычно используется 4 последовательных кадра) и действий для дальнейшего выбора оптимальных действий в данной обстановке (происходящем на экране). Все это прекрасно, в картинках разжевано в пейперах по openai gym / universe.
749 Кб, 1212x388
#238 #1068733
че это, Х О
X, O
че
#239 #1068747
>>1068733
ХОХОХО
Это мы все над тобой хохочем.
#240 #1068769
>>1068482
Меня бесит, что они используют 4 кадра вместо рекуррентной нейроночки. Вон же куча статей про LSTM с дремучих времен, показывающих как они прекрасно запоминают вещи при обучении с подкреплением. Ну что же вы? Что ж такое, почему 4 кадра, почему не LSTM? Что, не работает? Не работает ваш LSTM? Не работает, да? Ну признайтесь, что не работает он в RL. Выйдите на площадь, покайтесь перед народом. Скажите, что не работает. А то понаписали статей на игрушечных примерах, и все, дело мол закрыто. Расходитесь, тут не на что смотреть. А на играх (которые тоже в принципе игрушечные примеры, но посложнее) никто и не пытается сделать нормально.
#241 #1068773
>>1068769

>Меня бесит, что они используют 4 кадра вместо рекуррентной нейроночки.


А большая разница? В рекуррентных нейроночках нет никакого волшебства по сравнению с 4мя кадрами. Как я понял, кадры там используют по типу элементов матрицы Ганкеля:
1 2 3 4
2 3 4 5
3 4 5 6
4 5 6 7
....
а таким способом представима любая динамическая система, что было доказано еще в 80-е.
#242 #1068774
>>1068747
пидор
#243 #1069137
>>1068773
Почему для тебя это всё так просто?
#244 #1069171
>>1056633 (OP)
Врываюсь с вопросом: какой алгоритм распознавания линий дорожной разметки, основанный на машинном обучении, сейчас можно считать лучшим?
#246 #1069428
>>1069171
дебилоид лучше курсы криптовалют предсказывай всё остальное это примитивное долбоёство
#248 #1069450
>>1069447
Каждый раз с тебя-дебыча проигрываю; когда акулы(>100kk$) в игре, нихуя твои схемы не работают.
#249 #1069552
>>1069137

>Почему для тебя это всё так просто?


Для меня? Лол. Индусы, вон, вкатываются в МЛ всей Индией и ничего. Машобчик же реально математика уровня оп-пика с йобами, ну есть вещи, которые сходу не раскуришь типа теории статистического обучения Вапника, но это исключения из общей картины.
#250 #1069596
Смотрю лекции Воронцова и как то со второй, третьей лекции все очень размыто пошло. Такое ощущение что там на семинарах они дохуя чего объясняют и потом на лекциях уже подразумевается что ты это знаешь.
С другой стороны курс китаезы на курсере совсем примитивный, для деревенщины с тремя классами.

Есть ли какие-то промежуточные материалы, почитав которые будут более понятны лекции Воронцова? Или может где-то есть лекции семинаров в шаде?
#251 #1069615
>>1069596
Там нет ничего сколь-нибудь сложного, тем более в первых лекциях. Наверни книжки Воронцова, если что-то непонятно и там, учи статы, тервер и немножко численные методы оптимальных систем.
#252 #1069619
>>1068747
В голосину проорал.
#253 #1069662
Посоветуйте каких-нибудь интересных датасетов. Ебучий титаник не предлагать.
#254 #1069811
Пытаюсь разобраться с нейронными сетями, читаю как стандартизировать данные на вход. Везде пишут, что нужно нечисловые данные вроде названий и категорий представлять в виде векторов типа [1,0,0], [0,1,0], [0,0,1] (для трех категорий). Но у меня такая ситуация, я на вход хочу подавать имена игроков спортивных команд, а их очень большое количество, тогда получается что если всего 1000 игроков и нужно произвести вычисления для 10 из них, то понадобится 10 тысяч входов? А если 10000 игроков? Совсем страшные цифры получаются. Поясните что с этим делать?
#255 #1069851
>>1068773
Рекуррентная нейроночка может запоминать информацию неограниченно долго, в этом вся суть.
#256 #1069855
>>1069851
Я хз, но я пока ничего лучше не настроил на них чем бредогенератор, взяв рандомную русскую книгу и обучив на ней.
#257 #1069881
>>1065820
Хуесос тут только ты, Кнут латех запилил.
#258 #1069884
>>1068482

> Ты аутист, не обижайся. Сейчас, в конце 2017 года, по слесарьплову полно топовых книжек, где все объясняется с установки слесарьплова до примеров готовых проектов


Не могли бы вы, сударь, скинуть названия книжек или ISBN? Я обучен пользоваться либгеном.
#260 #1069889
>>1069888
Спасибо, сударь, надеюсь, это действительно топовые книжки по вашей рекомендации
#261 #1069947
>>1069888
Тоже приобщился, господа слесари. Благодарствую.
#262 #1069951
Все книжки читаете?
#263 #1069956
Нахуя вы эту хуйню развиваете, мрази?
https://2ch.hk/pr/res/1066794.html (М)
#264 #1069957
>>1069956
Для уничтожения быдла, это всем очевидно же.
#265 #1069959
Нахуя вы эту хуйню развиваете, мрази?
https://2ch.hk/pr/res/1066794.html (М)>>1069957
лул
#266 #1069960
>>1069956
Даже до слабого универсально ИИ еще очень далеко, можно быть спокойным.
#267 #1069961
>>1069960
А зачем универсальный, когда специализированными под конкретную задачу интеллектуальными системами можно заменить большую часть профессий?
#268 #1069962
>>1069961
значит будет бод
#269 #1069963
>>1069962
и ограничения на размножение
#270 #1069966
На заметку: если твоя профессия сводится к задрачиванию моторных навыков, то человеческих прав ты лишишься еще в первой половине этого века.
#271 #1069967
>>1069966
Да почти любая профессия сводится к определённому набору алгоритмов.
Всем пизда.
#272 #1069969
А в чём проблема, разве не для создания ололо-сверхчеловека живём?
#273 #1069970
>>1069969
Нет
Тут всё это обсуждалось " https://2ch.hk/pr/res/1066794.html (М) "
Вывод такой, что пизда экономике, пизда людям.
#274 #1069973
>>1069970
Ну ладно, уговорил, почитаю.
#275 #1069974
>>1069811
Гугли word/category embeddings
#276 #1069983
>>1069974
Спасибо, но насколько я понял после прочтения статьи на хабре, эта технология подходит для слов в контексте, а у меня же просто имена отдельные и никак не связанные друг с другом "Ванька, Петя, Коля".
#277 #1070048
>>1069983
Какой хабр, Ванька? Забудь о нем. Читай статьи, книги. Эмбеддинг на нейроночках можно сделать через автоэнкодер на любом датасете про твоих игроков.
#278 #1070083
>>1069966

>если твоя профессия сводится к задрачиванию моторных навыков


Как бы ты сам не хлебнул мочи с мельдонием
#279 #1070091
>>1070083
буду только рад отхлебнуть у https://wiki.lesswrong.com/wiki/Roko's_basilisk лол.
#281 #1070364
>>1069966
минеты всегда будут в цене
#282 #1070474
Есть 30 положительных лейблов на 5к отрицательных. Что делать в таком случае?
#283 #1070865
>>1069615
Не подскажешь, этот курс годный по матстату?
https://ocw.mit.edu/courses/mathematics/18-650-statistics-for-applications-fall-2016
#285 #1071721
Я так понимаю без вышки в эту тему будет тяжело влезть? даже при любви и знании матана
#286 #1071779
>>1071721
Нет, не сложно
#287 #1071818
>>1071779
Почему? В вакансиях, особенно тех, что на английском, почти каждый требует вышку или даже ученую степень.
#288 #1071829
>>1071818
Это уже как ты сможешь пройти хромусор и попасть на собес, а дальше всем похуй на твой диплом, если хорошие навыки, получить которые вышка никак не поможет, даже магистратура(ну может пару топрашковузов).
#289 #1071878
Расскажите про этот сайт:
http://mathprofi.ru/lekcii_po_vysshei_matematike.html

Стоит ли начинать оттуда, если вообще никогда не касался высшей математики?
#290 #1071908
>>1071829
Ну так а как их пройти, если тут появляется замкнутый круг - нам нужны люди с вышкой, без вышки не попадешь на такую работу, следовательно компенсировать ее отсутствие нечем. Речь то не о вакансиях какой-нибудь явы.
#291 #1071915
Нужна ли аналитическая геометрия в машобе?
#292 #1072145
Такая проблема, на работе нужен тензорфлоу, но сетка заблочена так глубоко, что через пип его установить невозможно. Теано и Керас я установил просто скачав их с гитхаба и собственно запустив установочный скрипт, но тензор такой возможности не предлагает. Что можно придумать?
#294 #1072160
>>1072145
Понабрали по объявлению. Качай пакеты для пипа отсюда: https://pypi.python.org/pypi/tensorflow , не забудь зависимости скачать, запиши их на свои пятидюймовые дискеты, и устанавливай пипом локально. Ему просто имя локального файла можно указать.
#295 #1072163
>>1071908
Никак ты их не пройдешь. Абсурдно ведь, когда датасаентистом работает крестьянин с тремя классами церковно-приходской школы. Компания, нанимающая таких людей, делает это чтобы повысить уровень образованности команды. И что это будет, когда новый мега спец менее образован, чем двадцатилетняя фронтэндщица-джуниор?
#296 #1072207
>>1072160
Спасибо, анон!

Я то сам не погромизд, я так, сорт оф нефтянник, но хотим попробовать модные штуки внедрить. Я так понимаю, что если у меня стоит анаконда, то, наверное, больше никаких библиотек не надо?
#297 #1072219
>>1072207
Пройдись на всякий случай, можешь на свой ноут установить, чтобы посмотреть все зависимости. ТФу нужна какая-то гугловская экзотика, насколько я помню, и еще пара малоизвестных либ. На голую анаконду точно не встанет.
#298 #1072226
а если я фронтендщик и вместо изучения очередного модного жс-фреймворка почитываю книжки по машобу на выходных - я нормален?
или я проебываю время и свою ценность как спеца на ненужную хрень вместо изучения востребованных навыков, применимых в моем фронте?
#299 #1072241
>>1072226

>или я проебываю время и свою ценность как спеца на ненужную хрень вместо изучения востребованных навыков, применимых в моем фронте


this
#300 #1072247
Как реализовать Gradient Descent правильным и наиболее простым способом. Что почитать, чтоб быстро понять тему.
#301 #1072272
>>1072247
x -= learning_rate * grad
#302 #1072276
>>1072272
Р Е Г У Л Я Р И З А Ц И Я
#303 #1072279
>>1072276
Реализуется модификацией коста, ортогонально градиентному спуску.
#304 #1072291
>>1072247
Я пока мини-специалист по машобчику (шестая неделя курсеры), но довольно упитанный специалист по приложению численных методов. Всё равно тебе советов дам.
1) Устанавливаешь либу с CG (или чем-нибудь поприличнее, чем CG)
2) Запускаешь CG
3) Никогда не переписываешь численные методы
4) Никогда, слышишь, никогда не переписываешь численные методы
#305 #1072575
>>1056633 (OP)
посоны, где найти ментора по машобу+матану? я прочитал 128 страниц из https://doc.lagout.org/science/Artificial Intelligence/Machine learning/Machine Learning_ An Algorithmic Perspective (2nd ed.) [Marsland 2014-10-08].pdf

и я нихрена не понимаю, мне просто скучно, я смотрю на эти формулы. как баран на новые ворота.
может мне просто плюнуть на книги и теорию и перейти к практике?
#306 #1072584
>>1072575
Может, это просто не твое? Зачем оно тебе нужно? Это как через силу смотреть 500-серийный аниме тайтл, отчаянно борясь со сном.
#307 #1072588
>>1072584
неужели кому-то может нравиться читать такое? или для этого нужна серьезная подготовка?
я просто хотел написать сайтик на нейронках и решил почитать теорию, но я уже 3 месяца откладываю сайтик потому что не могу дочитать эту книгу, а каждый раз как сажусь ее читать не осиливаю больше страницы.
мне кажется я делаю что-то не так. но как человечество будет делать прогресс, если каждый как я начнет лениться? может надо себя заставлять?
#308 #1072607
>>1072588

>неужели кому-то может нравиться читать такое


Да, мне например, просто не лезь, если совсем туго тебе не достигнуть даже уровня школьника, который потратил на это в 100 раз больше усилий просто потому что он молодой, шутливый и еще может яростно надрачивать то что популярно. А нейроночки это сейчас стильно, модно, молодежно. Даже ты вон немного поддался и хочешь какой-то манясайт на нейроночках сделать. Что между прочим сразу выдает полного профана и нуля в этом деле

>может надо себя заставлять?


Я вот многие годы пытался влездть во фронтендопарашу, потому что проще и можно сразу начинать зарабатывать. Хоть и вкатился, а потом выкатился, щитаю это были потраченые годы т.к. постоянно себя заставлял и шло очень туго, а потом нашел машоб с датамайнингом, которые мне намного интереснее, и все пошло как по маслу.
#309 #1072632
>>1072588
Во-первых, нужна серьезная подготовка, а во-вторых кому-то нравится. Просто для того чтобы поиграться или сделать какой-то маленький проект, основы не изучают. Ты либо посвящаешь этому жизнь, либо используешь нейроночки как черный ящик, копируя код из интернета.

Твои слова звучат как "захотел собрать свой процессор, начал изучать химию и квантовую механику, но не могу продвинуться дальше оглавления."
#310 #1072681
>>1072575
Потому что надо было сначала вкатиться в математику, а затем начать с простых книг и курсов.
#311 #1072767
>>1072607
Почему это желание сделать светить на нейронках выдаёт во мне профана? Ты ведь не знаешь что будет делать моё веб-приложение
#312 #1072768
>>1072632
Аа, ну ты прав, спасибо за совет. Буду использовать как черный ящик тогда.
Хотя некоторые моменты (перцептрон) книга прояснила, но дальше там просто какая-то китайская комната
#313 #1072770
>>1072767
Потому что машоб не про нейроночки, это как если бы ты написал "хочу написать сайт на юникоде"
#314 #1073021
Training RNNs as Fast as CNNs

https://github.com/taolei87/sru
#315 #1073593
Сап антуаны.
Только вкатываюсь в тему.
Есть такая задача: генерация обучающих выборок для систем распознавания текста, ну и сами эти системы на нейронках написать/поюзать/поэксперементировать.
Больше интересует первая часть.
Собираюсь писать Gan на Keras.
Хочу услышать от вас какие-нибудь советы по этой теме.
Сорян если вопрос недостаточно корректен.
#316 #1073634
>>1073593
На керасе ганы такое себе пилить, лучше фреймворк поглубже - tf или theano. Если проект не в прод - pytorch.

Ну и ты же сам понимаешь, что ган - это сделка сразу с двумя дьяволами
#317 #1073681
>>1073634
Но ведь керас в бэкэнде юзает в том числе tf
#318 #1073683
>>1073634
И да, за ответ спасибо большое.
#319 #1073731
>>1073593
Запили OCR для математической нотации. http://lstm.seas.harvard.edu/latex/ https://zenodo.org/record/56198#.Wd0HoHZLcdV
#320 #1073783
Подходящего треда вроде как нет, так что спрошу тут, ибо итт наименее зашкваренный. Заранее извиняюсь за оффтоп. Обоссыте, не бейте.

Что почитать про распределенную генерацию возрастающих последовательностей в п2п сетях? Что вообще почитать на тему самых типичных задач, методов их решений и подводных камней в распределенных системах?
#321 #1073787
>>1073681
Тебе придётся расширять керас кодом на этом самом tf. Как по мне - лучше сразу работать с более низкоуровневым фреймворком, e.g. lasagne
#322 #1073800
>>1056633 (OP)
подскажите довену,
пытаюсь сделать титаник
https://ideone.com/ge4TLA
как сделать accuracy_score
#323 #1073802
Че там у яндекса за курс "Введение в машинное обучение"? Он только онлайн, нигде нельзя бесплатно глянуть? На ютабе есть похожее что-то, но там я так понял для продвинутых ребят версия
#324 #1073803
>>1073787
Окей, больше поищу/почитаю на эту тему. Спасибо!
>>1073731
Идея классная, мне нравится, спасибо!
#325 #1073805
>>1073802
На курсере он бесплатный.
В конце концов слей с торрентов. Там есть версия 2014 года, говорят она в чем то лучше нынешнего курса.
Можешь попробовать попасть в Шад)
#326 #1073810
>>1073805
На торрентах как раз ютубовская версия для продвинутых, как я понял.
А бля, ну курсере он реально бесплатный. Я уж забыл про халяву.
#327 #1073830
>>1073634
слушай, я про торч только немного слышал
а он с gpu из коробочки ставится?
а то пытался накатить в своё время cudnn на ноут с gtx 965m и пока вышло неоч, а то на нем сейчас стоят важные вещи которые очень геморно переустанавливать-перенастраивать.
на сайте вроде строку в конду впиши - радость получи, а как оно на деле?
#328 #1073833
>>1073634
погуглил, яжмамкиндатасайентист
вроде всё норм, ещё раз спасибо :)
две цистерны чая в благодарность!
#329 #1074167
>>1073783
Ну что, кто-нибудь таки подскажет?
#330 #1075301
>>1072607
Фактически моя история, благодарен судьбе что обосрался с ui/ux в свое время. Сейчас хоть математику вспомнил.
#331 #1075367
Читаю introduction в терзорфлоу, просто кек, это же расширение numpy
#332 #1075413
Посоны, хочу посвятить сабжу всю жизнь, хочу сделать искусственный интеллект, стать бессмертным, очень умным и т.д. С чего начать, как развиваться дальше?
Из бэкграунда - я перфоманс инженир, с матаном дружил в универе, но почти все позабыл, потому что в работе нахуй не надо
#333 #1075417
>>1075413
Рекомендую начать с книжки по машобу, а потом смержить кодинг с биологией, химией и медициной.
#334 #1075433
Классификация, два класса, первый составляет где-то 96% датасета. Пробовал добавить class_weight="balanced" в модель, пробовал менять метрику гридсерча, все равно predictions заполняются первым классом полностью. ЧЯДНТ?
#335 #1075435
>>1075417
Посоветуйте литературу плез, куда идти глобально мне понятно. Плюс, если в курсе, чего можно почитать про теорвер и матстатистику? Так что б по хардкору.
#336 #1075441
Я правильно понимаю, что не все то нейронные сети, что машинное обучение?
#337 #1075449
>>1056755
чтобы мочь, нужно захотеть. одних что-то подталкивает изучать окружающий мир, познавать, пытаться его преобразить. Других -нет. вот почему кодинг стал так популярен, почему куча крупных компаний типа гугла выкладывает свои проекты в опен сорс, снимает простенькие и смешные поясняющие видео? они просекли фишку, что если каждый чел в отдельности будет заниматься прогрессом своей маленькой области, то их усилия сложатся в сингулярность и ускорят прогресс в миллиарды раз.
#338 #1075522
>>1075441
Да. И не все то машинное обучение, что нейроночки. Это только один подход из многих.
#339 #1075526
>>1075449
Тебе еще самому нужно понять и принять, что ты не будешь Ландау или Тьюрингом. Я для себя решил, что я хоть и могу немногое, но сделаю что-то, что приблизит общую цель. И мне этого будет достаточно.
#340 #1075527
>>1075435
Хотел кинуть тебе список из шапки старого треда, а там какое то слова из спам листа. Ну что за бред
Держи линк на архивач

http://arhivach.org/thread/257951/
#341 #1075529
Тут все только читают и изучают, или кто-то что-то все же пишет?
#342 #1075584
>>1075527
Добра, ананий
#343 #1075593
>>1075526
блять школьник тупой. кто говорит о том чтобы стать ВИЛИКИМ И БАХАТЫМ УЧЬЕНЫМ) можно хотя бы максимум своего мелкого времени своей жалкой жизненки направлять на поиски средства от смерти и старения.
#344 #1075594
>>1075529
пока тока читаю
#345 #1075616
>>1075593

>средства от смерти


Какой ты глупенький, анон. И нервный.
#346 #1075621
>>1075616

> предотворати рак


> отключи ограничение на восстановление клеток

#347 #1075673
Ебучий линейный классификатор отказывается в одиночку работать с xor, чо за хуйня, почему математики не смогли придумать так, чтобы он мог работать?
#348 #1075674
>>1075529
Пишу.
#349 #1075701
>>1075621
Ты ведь понимаешь что пункт 1 вызван пунктом 2?
#350 #1075736
>>1075417
Что по мержингу посоветуешь?
мимо ванаби мамкин биоинформатик
#351 #1075763
>>1075701
Пункт 2 это убогий вариант предотвращения пункта 1, задача науки убрать этот костыль и сделать нормально.
#352 #1075774
Можете коротко раскидать, какие библиотеки за что отвечают и чем друг от друга отличаются? Вот есть numpy, она для матриц, есть scipy, это нампай с дополнениями, есть матплотлиб, он для графиков. Есть пандас, это тоже такое навороченный numpy с анализом таблиц и датафреймов. Зачем нужны тензорфлоу, керас, теано, scikit-learn?
#353 #1075935
>>1075774
Тензорфлоу это поделка Корпорации Зла для того чтобы собирать нейроночки из модулей по большому туториалу ничего не зная о том как они детально работают. Теано это аналог тензорфлоу, только не от гугла. Керас использует тензорфлоу или теано на выбор, чтобы собирать нейроночки по маленькому туториалу ничего не зная о том как они принципиально работают. В scikit-learn реализованы другие модели помимо нейроночек, которые можно просто вызывать и использовать.
Энджой йоур датаслесарство.
#354 #1075965
>>1075935
А разве во всех остальных библиотеках ты не собираешь нейроночки по туториалу, не зная как они работают?
#355 #1075969
>>1075965
В стандартной библиотеке С++ - нет.
#356 #1075994
>>1075969
я про библиотеки для машоба, например, numpy.
#357 #1076009
>>1075935
Но если датаслесарство - это так просто, то почему сейчас не все поголовно им занимаются?
134 Кб, 2042x1086
#358 #1076021
Есть задача бинарной классификации которая решена через регрессию (не спрашивайте зачем, так уж есть). Значениями целевой функции были {0, 1}, регрессия выдает результаты иногда немного вылезающие за этот интервал. Хотелось бы замапить их на интервал [0..1] чтобы потом интерпретировать как вероятности принадлежности классу 1.

Вопрос - какой функцией это лучше сделать? Сейчас применяется обычный clamp(value, 0, 1) (пикрилейтед), но он не монотонный по value. Предложите пожалуйста какую-то гладкую альтернативу такой функции. В голову приходит только уродливая конструкция из 2x smooth maximum или какая-то "сдвинутая" сигмоида.

С меня гигафлопсы.
sage #359 #1076023
>>1056633 (OP)
скрыл отсталых
#360 #1076025
>>1076009
задач мало
#361 #1076033
>>1076009

>не все поголовно им занимаются


Ну не знаю, у меня больше половины класса хочет вкатиться в айти, а 5 человек уже вкатываются в нейроночки, даже на курсы по машинлернингу для школьников записались
#362 #1076057
>>1076033
ШАД?
#363 #1076063
>>1076057
Нет
Мы в мухосрани
#364 #1076137
>>1075673

>xor


>линейный классификатор


дебил блять
sage #365 #1076255
>>1056633 (OP)
Где в России можно устроиться на стажировку в области ML кроме Яндекса?
#366 #1076295
>>1076021
Чтобы именно интерпретировать как вероятности, тебе придется навесить сверху нормальную логистическую регрессию. Если числа, выдаваемые твоим регрессором, совсем плохо откалиброваны (скорее всего так и есть), может понадобиться нейроночка для перевода в вероятности.
#367 #1076520
>>1076021

>задача бинарной классификации которая решена через регрессию (не спрашивайте зачем, так уж есть).


Потому что функция от нескольких аргументов, а ты только про регрессию и слышал, очевидно же.
#368 #1076715
Скиньте готовый инструмент чтобы вытащить из хтмл и пдф файлов список всех упомянутых там имён и желательно сгруппировывать их по национальности. Где вообще искать полезные годовые инструменты чтобы без велосипедов? Наверняка люди пишут научные работы по таким темам, но есть ли единое хранилище?
#369 #1076730
>>1076715
Используй ntlk, Люк.
#370 #1076731
#371 #1076733
>>1076730
Это библиотека, а мне нужен инструмент. Чтобы сам файл спарсил и имена вывел.
#372 #1076741
#373 #1076743
>>1076741
Нахуя?
#374 #1076754
>>1076743
Не хочешь писать велосипед, я напишу для тебя.
#375 #1076757
>>1076754
Хочу качественный, который давно написали пара азиатов и хорошо документировали.
#376 #1076760
>>1076757
За $10 могу откомментировать и трогать двух азиаток в процессе. За большую вовлеченность азиаток в процесс придется доплачивать и им.
#377 #1076766
>>1076760
Может быть мне готовый инструмент напишешь на основе http://lstm.seas.harvard.edu/latex/ https://zenodo.org/record/56198#.WeTdqXZLcdW и с поддержкой AMS-TeX? Азиатки ненужны, если что.
#378 #1076768
>>1076766
Ок. Напишу в тред когда можно будет тестить.
#379 #1076893
>>1076520

>Потому что функция от нескольких аргументов, а ты только про регрессию и слышал, очевидно же.


Еще я слышал что не все жрут мамкин борщ - некоторые даже работают по спецаиальности, причем не в одиночку а в команде.
#380 #1076935
Стоит ли осваивать базовую математику в питоне, если все равно придется дрочить библиотеки?
#381 #1076941
#382 #1076950
>>1076941
Хорошо, а то задание понял как делать только благодаря оп-пику. Как, кстати, этот символ называется? Который Т в самом конце йоба мас
#384 #1076965
>>1076960
Спасибо. Соррян за глупость.
1,9 Мб, 950x1344
#385 #1077153
Где в биоинформатике можно применить эти ваши нейроночки для небольшого проекта? Суть в том чтобы было может быть даже полезно, а не тягаться с гигантами предсказывания стуктур белка.
#386 #1077352
Аноны, посоветуйте, как быть. Сейчас учусь на 1 курсе и имею 2 стула: доучиться на специальности с достаточно глубоким изучением математики и средним проги примерно 80/20 распределение, на которой курса до 4, а то и до 8 семестра не будет совсем времени на самообразования из-за сильной нагрузки, или перевестись на направление полегче с менее глубокой мат. подготовкой, но с большим количеством времени для самообразования и халявой, начиная с 3 курса можно уже будет начинать работать на полную ставку. Скоро заканчивается октябрь, а я успел почувствовать, что иногда времени не хватает даже разобраться с тем, что дают в вузе, не говоря уже об изучении чего-либо дополнительно. К тому же, складывается ощущение, что преподаваемая математика всё-таки фундаментальная и в работе не сильно пригодится. Стоит ли переводиться? Можно ли самому изучить необходимые разделы математики, попутно разбираясь и в самом машобе с нуля? Дай совет, анон, буду очень тебе благодарен.
#387 #1077420
>>1077352
По своему опыт скажу, что математическая база - это лучшее, что тебе может дать вуз. И это именно то, что самостоятельно задрочить сложнее. Учись спокойно, если освоишь математику на должном уровне, научиться "делать то же самое, но кодом" будет очень просто. Ну и могу добавить, что "халява" выльется не в самодроч на саморазвитие, а на проебы. Ни разу не видел, чтобы было обратное.
#388 #1077425
>>1077420
Спасибо, анон, сам так же надумал. Со 2 начну в студ. проектах участвовать, а на 4 уже, думаю, можно и по-серьёзному начать вкатываться.
#389 #1077472
>>1077420
Удваиваю этого джентельмена.
#390 #1077819
>>1077420

>на должном уровне


Что это за уровень?
#391 #1077853
Как запомнить огромное количество информации про нейронки? Начал читать книгу и понимаю, что начинаю забывать о чем говорилось в начале.
#392 #1077857
>>1077853
со временем всё само устаканится
читай статьи, читай книги, смотри видосы на ютубе, визуализируй
я примерно год вкатываюсь, вроде что-то секу
#393 #1077858
>>1077352
Если это топ-вуз, то не дропай.
#394 #1077859
>>1077857
На каком уровне сечешь, уже работаешь в области ML или продолжаешь смотреть лекции?
#395 #1077862

> «Сегодня они (продвинутые системы искусственного интеллекта — прим.) вручную создаются учёными из области машинного обучения, и буквально всего несколько тысяч из них во всём мире могут с этим справиться, — говорит генеральный директор Google Сундар Пичаи (Sundar Pichai). — Мы хотим дать возможность делать это сотням тысяч разработчиков».


Ну что, маньки, готовы к зарплатам как у грузчика или пхп-макаки и к сотням тысячам новых вкатывальщиков?
#396 #1077863
>>1077858
Не физкек с вышкой, конечно, но довольно неплохой вуз ДС-2. Тоже так думаю, просто, скорее всего, я в учебный процесс не очень хорошо влился за сентябрь, но уже более менее поехало.
#397 #1077865
>>1077859
пишу CGAN для курсача в унике на pytorch, спасибо анонам, что направили в хорошее русло
только сейчас у меня там квест с прифигачиванием лейбла к картинке
секу на уровне понимания происходящего и терминологии
#398 #1077866
>>1077863
Переводись с матобеса на ПИ, вон гугол обещают сделать так, чтобы нейронки могла писать любая макака без среднего образования. Зачем кому-то математика в 21 веке?
#399 #1077880
>>1077863
Просто влейся в CSC на старших курсах, там крутая движуха.
#400 #1077889
>>1077866
У них, кстати, расписание 1 семестра какое-то криповое.

>>1077880
Буду как раз пробовать поступить в этом году, надеюсь, пройду. Алсо, не знаешь, как лучше подготовиться к вступительным?
#401 #1077897
>>1077889
Извини, я тупой, в этом году в четвертый раз в ШАД поступаю, так что я так себе советчик. Мои знакомые, которые поступали после первого или второго курса КТ ИТМО, вроде как вообще не готовились, им знаний хватило. Но может они прихвастнули, не знаю.
#402 #1077901
>>1077897
И на этом спасибо. Просто все, у кого я спрашивал, либо поступали несколько лет назад ещё как-то по-другому, либо учились в 239, либо тоже на 2-3 курсе КТ.
#403 #1077923
>>1077901
Удачи тебе.
#404 #1077945
>>1077923
Спасибо :3
#405 #1077962
>>1077897
В шад иногда и не тупых не берут знаю чела,
который все собесы-таски сдал на ура и не взяли

так что не парься и саморазвивайся
#406 #1077974
https://deepmind.com/blog/alphago-zero-learning-scratch/

Альфаго научили играть в го без использования записей людских игр. Он играет только сам с собой. В результате он превзошел по силе версию, натренированную имитировать игру человечишек.
#407 #1078028
Как метод градиентного спуска поможет мне корректировать веса в сети? Я чет не ебу как производная функция ошибки от весов к внешнему слою что-то меняет
Объясните дебилу как это работает
#408 #1078114

>ШАД


Поясните, зачем вы на эту рекламную парашу дрочите? Может быть, у яндекса есть хоть один программный продукт уровня среднего индусского стартапа? Во что они могут кроме агрессивного впаривания рекламы, врапперов к готовым либам или реализации 1,5 готовых алгоритмов, не ими разработанными?
#409 #1078119
>>1078114

>бигдата кококо, машоб кококо, нейроночки кококо


господам интересующимся ии очевидно, что это говно не работает
#410 #1078128
>>1078119
Есть хоть одна публикация, "интересующийся"?
#411 #1078135
>>1078128
есть хоть что-то похожее на ии, кроме бота, который заготовленными фразами отвечает?
#412 #1078137
>>1078135
двачну, даже адекватное распознавание примитивных геометрических 2д фигур в динамике непосильная задача для современного ии
#413 #1078144
>>1078128
а ты читал публикации по ии? авторы в основном перекрестно ссылаются друг на друга, высирая горы матана и в заключении - "моя манятеория хорошо, но она нихуя в коде не работает, поэтому необходимы дополнительеые исследования".
530 Кб, 910x600
#414 #1078166

>Искусственный интеллект превзошел человека в создании искусственного интеллекта



>Искусственный интеллект от Google научился создавать программное обеспечение машинного обучения, которое по своей эффективности превышает системы, созданные людьми.



Как сосётся, матаны?
Поступаешь такой на примат, дрочишь бишопа, не спишь ночами, вкатываясь в датасаенс по курсере, а тут вона чего.

>Т.е. Первыми кого заменит искусственный интеллект будут специалисты по искусственному интеллекту? Уххахаххахахахах какова ирония.

#415 #1078171
>>1078166
Да это срань какая-то, типа перебора архитектуры нейроночки брутфорсом
слава роботам #416 #1078177
>>1078166
>>1078171
Я еще весной предлагал, как это можно реализовать. У Вапника очень общие схемы, из которых он дальше выводит конкретные алгоритмы МЛ, как уже существующие типа перцептрона, так и свои типа SVM. Подобные алгоритмы можно было бы получать генетическим программированием в типизированной лямбде, параллельно проверяя как они минимизируют функцию потерь. Очевидно, что с ресурсами гугла (как машинными, так и человеческими) это реализуемо тривиально.

>Т.е. Первыми кого заменит искусственный интеллект будут специалисты по искусственному интеллекту? Уххахаххахахахах какова ирония.


Нет, конечно. Проблема в том, что на нынешнем уровне развития алгоритмы "слабого ИИ" способны решать такие задачи, но не способны их поставить перед собой в качестве цели. Это, конечно же, временное явление, людишки сосут у машин уже исходя из тезиса Черча. Границы математических способностей у машины и человека одинаковы, а вот производительность у машин выше в разы. Вон, даже выше пример с альфаго >>1077974 машина уже способна объебать человека, обучаясь при этом с нуля.
#417 #1078188
>>1078177

> Очевидно, что с ресурсами гугла (как машинными, так и человеческими) это реализуемо тривиально


Да щас, learning curve мало того, что для конкретных данных, так ещё и немнонотонной будет, перебором там проверять это аленей тропою.
157 Кб, 360x230
#418 #1078192
>>1078177

> Я еще весной предлагал, как это можно реализовать


прототип уже готов, кукаретик?
#419 #1078194
>>1078177

> Я еще весной предлагал, как это можно реализовать.


Осенью опять начались обострения.
слава роботам #420 #1078196
>>1078188
Это наоборот фишка. Можно подбирать алгоритмы для конкретного класса датасетов. Про no free lunch theorem я в курсе.
>>1078192
>>1078194
Врети ж!
#421 #1078228
>>1077962
А почему не взяли, тест на мотивацию не прошел?
#422 #1078235
Я правильно понимаю, что сейчас никто сам не пишет алгоритмы для ML, а просто используют готовые библиотеки? Насколько полезно запрограммировать самому ту же регрессию?
#423 #1078243
>>1078235

>Насколько полезно запрограммировать самому ту же регрессию?


Ну, глубже разберешься, чем если просто прочитал в книжке. Польза ограничивается образовательными возможностями. Практической ценности в твоей реализации регрессии не будет.
#424 #1078345
>>1078243
А что тогда полезно делать?
112 Кб, 640x254
#425 #1078430
Какая ситуация сейчас с распознаванием букв текста?
Есть ли готовые бесплатные решения?
#426 #1078523
>>1078430
tesseract разрабатывается с 80-х годов. Сейчас вроде на нейроночках работает, хотя его за десятилетия так раздуло, что, наверное, даже авторы до конца не уверены, как оно работает. Теперь это вещь в себе наподобие gcc, который нужно годами изучать чтобы хоть как-то начать понимать суть происходящего.
#427 #1079086
Посоветуйте книжку по линалу, а-то у нас в универе 1.5 семестра было, мы только до линейных операторов успели дойти, а надо бы побольше знать.
#428 #1079146
>>1077153
fold it
#429 #1079199
>>1078345
Смотря что ты имеешь в виду под пользой. Полезно для кого, для чего?
>>1079147
Уебывай, дегенерат.
#430 #1079304
>>1056633 (OP)

Анончик, поясни за обучение Маши, интересует выбор родителей в ныне забытых ГА.

Есть три стратегии выбора родителей: панмиксия, инбридинг и аутбридинг. С панмиксией все более-менее понятно. Каждая особь случайно скрещивается с другой особью, может даже с собой, кек. А вот в инбридинге и аутбридинге момент о количестве пар родителей опускается, даже гугл на эту тему предательски молчит. Очевидно, брать одну пару - неэффективно. Так сколько родительских пар обычно выбирают для этих стратегий? Половину от тех, что пройдут селекцию?
#431 #1079315
>>1079304
юзай хонгильдонгинг
#432 #1079349
>>1079315

Почитал вики, пишут:

> New parents are selected for each new child, and the process continues until a new population of solutions of appropriate size is generated.



Посмотрел исходники одной либы, сделано как в вики написано.

Так что не думаю, что мне нужен «хонгильдонгинг», если я правильно понял смысл этого слова.
#433 #1079364
>>1079199
Для своего понимания машин лернинга и наработки навыков работы с ним.
91 Кб, 847x1200
#434 #1079477
Хочу вкатиться в машоб и нейронки по этой книге.
Какие подводные?
#435 #1079488
>>1079477

>Какие подводные?


Рандомный трюкач-автор, может быть? По самописным алгоритмам МЛ на пистоне есть http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6
#436 #1079498
>>1079488
Там математики много, а мне нужно, что ее было как можно меньше
#437 #1079502
>>1079498
Там математика уровня 1го оп-пика. И разве в МЛ есть что-то кроме математики?..
#438 #1079505
>>1079502
Я вообще хочу писать софт для real time анализа видеопотока, мне сказали учить для этого нейронки и МЛ. Я знаю лишь что такое производная и синус, а тут меня начинают ебать разными градиентами функций, матрицами и другими радостями
Я в полном отчаянии, что мне делать?
#439 #1079510
Может мне начать с курса andrew ng на курсере?
#440 #1079531
>>1079505

> real time анализа видеопотока


> нейронки и МЛ


будет скорость 1 кадр в секунду
#441 #1079535
>>1079531
А что делать? Я хочу писать распознавание лиц на видеопотоке в реалтайме и мне посоветовали нейронки.
90 Кб, 1332x871
#442 #1079548
Собрал себе пека для машинлернинга. Буду теперь как боярин тренировать нейроночки на картинках, а то на ноуте не оче это шло.
#443 #1079551
>>1079535

>и мне посоветовали нейронки.


в риалтайме скриншоты снимать тот еще гемор, а ты хочешь препроцессинг и обмазать нейронным говно. ебись со статической картинкой.
#444 #1079553
>>1079548

>тренировать нейроночки


лол., лучше выкинь их нахуй.
#445 #1079564
>>1079551
Мне нужно в прямом эфире картинку с камеры анализировать.
Как поступить в данной ситуации?
#446 #1079569
>>1079564

>Как поступить в данной ситуации?


приемлемого решения не существует
#447 #1079571
>>1079569
А что скажешь об этом?
Оно хоть в состоянии найти мое ебало в прямом эфире?
https://docs.microsoft.com/en-us/azure/cognitive-services/face/face-api-how-to-topics/howtoanalyzevideo_face
https://github.com/Microsoft/Cognitive-Samples-VideoFrameAnalysis/
#448 #1079576
>>1079571

>Оно хоть в состоянии найти мое ебало в прямом эфире?


на фоне зеленого ковра возможно, появится второе ебало и кот и пизда. задача кокая?
#449 #1079585
>>1079576

>задача кокая?


В прямом эфире с камер наблюдения высокого разрешения распознавать лица людей и сравнивать их с фотографиями в базах
#450 #1079598
>>1079585
что бы ты понял. задача распознавания деталей на транспортерной ленте в риалтайме довольно проблематична. распознавание лиц по шаблону в риалтайме это фантастика.
#451 #1079612
>>1079598

>распознавание лиц по шаблону в риалтайме это фантастика


А возможно ли на обычной фотографии высокого разрешения (не реалтайм) найти мое лицо, учитывая, что на фотографии также есть еще 300 человек и из моего шаблона есть только фотография на паспорт?
#452 #1079623
>>1079612

>А возможно ли на обычной фотографии высокого разрешения (не реалтайм) найти мое лицо


да, но погрешность будет большая, хорошо если в 70% попаданий уложишься.
#453 #1079624
>>1079612
Боишься на митинге спалиться что ли?
#454 #1079628
>>1079624
В моем селе митингов нет, просто интересно
#455 #1079633
>>1079624
Наверное его наняла гебня на проект по автоматизации репрессий. После распила бюджета хватило только на студента, просящего помощи на мейлаче.
#456 #1079640
>>1079633

>по автоматизации репрессий


словно что то плохое
#457 #1079641
Ребята, зачем существует этот тред? Тут ни код не показывается, ничего нормально не объясняется, давайте его закрывайте.
#458 #1079648
>>1079641
Логичнее было бы создать отдельную доску /ml вместо этого треда
#459 #1079650
>>1079641

>Тут ни код не показывается, ничего нормально не объясняется, давайте его закрывайте.


ты сейчас описал вес аи сайенс
#460 #1079654
>>1079641
Какой смысл тут что-то показывать, если никто не сможет оценить? Какой смысл объяснять залетным даунам про основы нейронок, если они все равно ничего не поймут и бросят через день?

А зачем ты существуешь, кстати? Мож тебя тоже закрыть?
#461 #1079665
>>1079654

>Какой смысл объяснять залетным даунам про основы нейронок


что бы показать, что нейроночки рулят
мимонейронохейтер

не, действительно, покажите йоба проекты где нейронки дают пасасать всем
#462 #1079668
>>1079665
Нахрен ты сдался, доказывать тебе что-то?
#464 #1079683
>>1079665

>не, действительно, покажите йоба проекты где нейронки дают пасасать всем


google translate
#465 #1079710
>>1079668
>>1079683
я так не играю, где пруфы, маньки?
#466 #1079791
>>1079710
Хейтер обезумел, сумеем ли мы собладать с ним?!
http://lmgtfy.com/?iie=1&q=google+translate+neural+network
#467 #1079824
>>1079585

>В прямом эфире с камер наблюдения высокого разрешения распознавать лица людей и сравнивать их с фотографиями в базах


Охлол, чекисты задали написать распознаватель навальношкольников на митинге в рилтайме? Можешь им передать - нихуя не выйдет:
1)С хд-картинками будут тензоры пиздецких размеров, которые условный слесарьплов на гугловских суперкластерах не прожует.
2)С шакальными камерами будут еблеты размером 20 пикселей, которые для распознавания бесполезны.
3)Распознавание такого рода работает с контурами еблета, которые можно подправить простейшим гримом, причем даже мусор на том же митинге ничего не земетит. А твое распознавание даже в хд разрешении выдаст результат уровня "Рулон Обоев - 0,002%, Иван Говнов - 0,0015%, ..." + еще 3/4 твоей базы с такими же процентами.
Итого - забудь, это не работает и в текущем веке не заработает, технические возможности не те.
#468 #1079851
>>1079824
Дело только в деньгах и размере базы, по которой они проверяют. Очевидно, денег у них нет, впрочем тот анон тоже вряд ли может просто так отказать. Пусть копается, хотя бы для опыта пригодится.
#469 #1079856
>>1079824

>это не работает и в текущем веке не заработает


Ты тот нейронохейтер? Все уже работает, и будет работать еще лучше.
#470 #1079860
>>1079856

>Ты тот нейронохейтер?


Отнюдь.

>Все уже работает,


Оно и видно, раз сюда посылают консультироваться рандомных васянов, которым вчера про нейроночки рассказали. С яндексом, наверное, совсем плохо. Поди написали чекистам свой фирменный код SplitStroku.

>будет работать еще лучше.


Не будет. Освоят бюджеты и забудут.
#471 #1079891
>>1079683

>google translate


неа, ниработает. может на англопарашу еще более менее криво и переведет, а вот на другие, более сложные языки - хуй.
#472 #1080004
Аноны, а можно ли зелёному вкатиться в машоб в России? Есть ли у нас конторы, в которых можно будет расти в этом направлении?
#473 #1080031
>>1080004
Нет, машоб особо пока никому не нужен и требует хорошей математической базы.
#474 #1080047
>>1080031
Хм, а через 2-3 года? Мат. база не проблема. Как тогда вы, анонче, развиваетесь?
#475 #1080050
>>1080047
Я никак не развиваюсь, я только сру в треде.
Но вакансий по машобу пока что очень мало, а в регионах их совсем нет
#476 #1080069
>>1080050
Так куда стажироваться идти кроме Яндекса?
#477 #1080169
Что скажете о курсе andrew ng?
#478 #1080175
>>1080169
Мне понравилося, я уже на 7 неделе
#479 #1080179
>>1080069
Никто тебя за ручку не поведет, машоб это другой уровень. Тут тебе придется самому крутиться. Если тебе надо чтобы все было понятно и стабильно, иди в вебдев или 1с какой-нибудь.
#480 #1080191
ух, не терпится дочитать книгу, нагуглить все описанные там алгоритмы на языках, на которых они уже реализованы (т.е. на питоне), а потом переписать их на пхп и внедрить в веб.
гауссовские функции, скрытые слои, радиальная базис функция, общее описание гораздо интереснее сухих формул.
#481 #1080193
>>1080069
В гугл, очевидно же
#482 #1080195
>>1080191
А для чего это в вебе, если не секрет?
#483 #1080201
>>1080193
Очень плохо, хоть действительно бросать дрочить каггл и учить джаваскрипт.
#484 #1080204
>>1080195
так это только в вебе и применяется, в основном. всякие умные рекомендации, алгоритм подбора видео в ютубе, сортировки, классификация, сбор данных и т.п.
#485 #1080228
>>1080201
Если ты выдрочишь кэгл, то найти работу проблем не составит
#486 #1080240
>>1079891
Петуха забыли спросить.
#487 #1080242
>>1080240
так тебя и не спрашивали
33 Кб, 502x339
#488 #1080245
#489 #1080246
>>1080204
Так не у тебя в браузере же, а на няшной сишке в подвале Корпорации Зла.
#490 #1080263
>>1080246
ааа, ну под петухон же сложно хостинг искать.
а под сишку я даже не знаю, существуют ли они.
#491 #1080316
Как дела в ВУЗе, анон? Вот Ерохин, не закончив даже школу, пилит машоб вконтакте https://meduza.io/feature/2017/10/22/na-urokah-otvechal-na-soobscheniya-kolleg
#492 #1080397
>>1080316

> Машоб


> Умеет в математику только на уровне 9 классов

#493 #1080446
Посоветуйте что-нибудь по линейной регрессии для даунов. Книгу или статьи.
#494 #1080452
>>1080397
Мне тоже интересно, как он в 9 классе вкатился в метопты. Очень серьёзно подозреваю, что никак, просто держат перспективного школьника.
#495 #1080466
>>1080397
>>1080452
Вам же говорят - достаточно 1го оп-пика, вы не верите. Ну не верьте дальше, терзайтесь смутными сомнениями, пока школота в машоб вкатывается.
#496 #1080473
>>1080466
Кто нибудь мне объяснит, что на втором оп пике? Сам я R, да
#497 #1080492
Нахуй так жить. Пишу кое-что на R, и довольно быстро возникла надобность в вычислениях, превосходящих возможности проца (грустно смотреть, как функция, считающая элементы матрицы в несколько десятков миллионов элементов за 3 часа так и не закончила считать). Я думал, что в 21-то веке есть возможность использовать для этого видюху, ан хуй там плавал. Готовые возможности есть для некоторых вычислений, в т.ч. с теми же матрицами, но (как я понял) чтобы использовать видюху для своих вычислений, нужно работать напрямую с кудой (либы для этого присутствуют). Есть вот такое https://cran.r-project.org/web/packages/gpuR/index.html пробовал считать свою матрицу как класс gpuMatrix, толку 0, монитор GPU показывает нулевую загрузку. Либо я что-то не так делаю, либо одно из двух. Пистон - говно из жопы, даже если там возможно использовать видюху напрямую, т.к. там нет и никогда не будет реализаций того, что я использую для построения вышеупомянутой матрицы.
#498 #1080502
>>1080492
К сожалению, но насколько мне известно, кроме pytorch и форков тебе искать нечего. Я сам R-щик.
Могу посоветовать посмотреть как считал парень с кэгла, который в том году выиграл компетишн. Он на R делал.
Пистрон сейчас обзавелся нампаем, пандас и т.д. Синтаксис точно такой же, как в R. И то, и то, работает на С.
#499 #1080541
>>1080466
Ну так даже то, что на оп пике не изучается в 9 классе. Мы в 9 классе решали квадратные уравнения и неравенства, а синусы уже начались в 10 вместе с тригонометрией. На одних квадратных уравнениях в машоб не вкатишься
#500 #1080551
>>1080541
Ты просто недостаточно просветлен, и через призму своего нечистого видения не видишь сути вещей. Любой машобчик это алгоритм, любой алгоритм (любое равнообъемное его уточнение типа машины Тьюринга, лямбда-определимости, алгорифма Маркова и т.д.) это конструктивный объект, любой конструктивный объект это обобщение нвтурального числа и сводится к натуральным числам простым лексикографическим упорядочиванием либо геделевской нумерацией. Т.о. для машобчика вообще ничего кроме арифметики не нужно, и это математический факт.
#501 #1080556
В оп-посте жи написано, что нейроночка - это зависимый тип, а объекты зависимого типа так же тривиально нумеруются натуральными числами. Итого, нейроночка - это чистая арифметика, которую способен осилить даже дошкольник.
#502 #1080559
>>1080466
Писать ботов по готовым алгоритмам это не машоб, это все тот же вебмакакинг в условиях хайлоада хомячков которые не могут сами найти себе информацию.
#503 #1080992
>>1080551
Про это второй пик?
#504 #1081017
>>1080556
Двачую. Вообще не могу понять, почему школьники так плохо разбираются в нейрохирургии – в учебниках меньше 100 символов для кодирования используется, и в музыка – там вообще семь нот.
#505 #1081096
>>1080169
Такое себе, мне в 9 классе зашёл, теперь понимаю, что хуйня.
#506 #1081154
>>1081096
А сейчас ты в каком?
#507 #1081209
Реквестирую датасет для классификации последовательностей в формате fasta.
#508 #1082052
наше, РУССКОЕ нейромашлёрнинговае исследование!

https://goo.gl/AAQas2
https://goo.gl/tGLYWU
#509 #1082190
>>1082052
Лол. Им даже размечать было лень. Нарисовали 256-мерное говно, и рады.
#510 #1082229
>>1081154
В девятом.
#511 #1082575
САП НЕЙРОНЫ, есть свободные мощности, и я думаю запилить на них файндфейс2, с блекджеком и шлюхами.
Цель - сделать поиск по ебалу бесплатным и качественным (файндфейс находит через раз).
Зарабатывать не планирую, ну может на рекламе чуток, чисто окупить проект.
Взлетит или нет?
#512 #1082895
>>1082575
Замути лучше приложение "потенциальные дети". Загружают фото тян и фото куна, а на выходе их смесь выбранного пола.
#513 #1082936
>>1082052
Not so long.
#514 #1083040
Аноны, подкиньте, пожалуйста, годных блогов или сайтов с новостями про машоб, чтобы в свободное время читать их вместо скролла двача.
66 Кб, 1054x368
#515 #1083735
Где оп-хуй, тред перекатывать кто будет, Пушкин?
Алсо, свидетели нейроночек приглашаются для ОПРАВДАНИЙ по такому насущному вопросу - почему они веруют, что нейрон очка - универсальное решение на все случаи жизни, когда факты говорят нам о том, что специализированные для своей области математические модели уделывают нейроночки только по требованиям к вычислительной мощности в тысячи раз? Кому выгодно тащить тысячеслойные нейроночки в natural language processing при том, что там есть гораздо более простые, легкие и эффективные алгоритмы?
#516 #1084580
>>1083040
medium на эту тему можешь поскролить, зафолови towards data science например
#517 #1085628
>>1082052
Хренасе, я думал нетсталкеры это которые тихий дом в китах ищут, а они уже нейроночки пилят.
107 Кб, 1059x779
#518 #1086254
>>1083735
внутри fasttext нейронка же
Тред утонул или удален.
Это копия, сохраненная 18 ноября 2017 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски