Этого треда уже нет.
Это копия, сохраненная 11 марта 2019 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №13 /ai/ 1315967 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем сраться по поводу и без.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/ | Николенко и др. "Глубокое обучение" На русском, есть примеры, но уже охват материала
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.tk/thread/412868/
Остальные в предыдущих тредах

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1305682 (OP)
2 1316010
Что такое сигма?
3 1316011
Маняматика не нужна.
4 1316062
PC снова объявили войну реальности. Поднимите свои головы, сойбои, мы должны победить рассистские и сексистские датасеты на arxiv!
https://hightech.fm/2018/12/23/ai-learning
5 1316069
>>16062

>обнаруживая смещения смысла


В голосяндру, тоесть если я прямо называю педика педиком, то это не будет смещением?
6 1316082
>>16069
Зачем тебе кого-то называть педиком, если в этом треде только натуралы, сладкий?
7 1316123
>>16062
Шиза какая-то. Типа тензорфлоу скажет что мой датасет токсичный и откажет его обрабатывать?
8 1316136
>>16082
Ну как зачем, это оказывает негативное влияние на общество, это пропаганда! Я традиционалист вообще, каждого педика бы в жопу трахнул!
9 1316158
Двач, есть материалы по VAE с объяснением матеши что стоит за ним?
10 1316159
>>16158
Есть оригинальная хуйня от автора: https://www.dropbox.com/s/v6ua3d9yt44vgb3/cover_and_thesis.pdf?dl=0
если под "объяснением" понимается разжёвывание, то фиг знает, может в гугле что и есть
15401048295260.jpg76 Кб, 604x523
11 1316194
>>16062
А вот вам и пример опасности сойбойства в машобчике. Через несколько версий какой-нибудь слесарьплов не только откажется работать с нетолерантными картинками, но и будет стучать на пользователя во все спортлото сразу, от ФСБ до местных сжв параш, да-да и в Барнауле. Захотел негров распознать, нейроночка их пометила как горилл, на следующий день вышел из хаты, а под дверью насрано, ручка говном обмазана и плакат висит "здесь живёт белый цисгендерный угнетатель", спускаешься по лестнице, а на встречу тебе отряд СОБРа с бутылкой. 2 года условно, внесение в список террористов и заблокированные карты. Бобро пожаловать в кибергулаг.
12 1316249
>>16194
Не забывай, что ты в рашке живешь (если, конечно, живешь в ней). Тебя сначала во дворе кибергопники изобьют, так как яндекс-гласс классифицировало тебя хачом в штанах с подворотами (в тени стоял, а штаны были шортами, но алгоритм всегда прав), потом полиция заберет тебя в отделение, так как на толоке ассессоры тебя единогласно классифицировали неправославным террористом. Ну, а с бутылкой и дальше все верно.
13 1316317
>>16249
С бутылкой оно всегда всё верно..
14 1316372
Так вот, где ебанный Unet на NodeJS?
15 1316399
Я серьёзно не понимаю почему AGI ещё нет. Столько людей, столько бабла, столько TPU, а всё упирается в негров и котов и стэйт оф зе арт - сросток конверсэйшонал ии и ТТС от гугла. Тупые люди.
16 1316430
>>16399

>AGI


Давай по русски говори
17 1316441
>>16430
ИГИ тогда
18 1316455
>>16441

>ИГИ


Институт гуманитарных исследований и проблем малочисленных народов Севера?
19 1316456
Знакомый ходил на собес на должность обычного прогера в отдел, который занимается МЛ. Его спросили, есть ли у него какие-то познания в области, и он ответил, что почитывает книжку

>Trevor Hastie et al. "The Elements of Statistical Learning"


Они сказали, что это уже устарело и нинужно, все перешли на диплернинг.
20 1316472
>>16456
В голос. Что хуже? То, что у них есть отдел по МЛ или то, что они знают об этой книжке и всё равно дебилы?
21 1316488
>>16456

>Они сказали, что это уже устарело и нинужно, все перешли на диплернинг.


Предъяви им за арабские цифры, скажи,что они устарели
15434009635130.jpg35 Кб, 491x550
22 1316655
>>16456
>>16472
>>16488
А разве в этом треде не то же самое кукарекается? Коооококо Вапник не нужон, Бишоп не нужон, ISLR и 300стр про линейную регрессию не нужно, все устарело к хуям, что написано раньше чем 2 месяца назад, как нейроночки работают науке не известно, наука это индусы и сойбои. Вот и в этой конторе такие же деграданты.
23 1316663
>>16655
Ты че, шизоид, кто так в этом треде говорит?
24 1316681
>>16455
artificial general intelligence, сильный ии в обиходе
25 1316683
>>16456
ну, это просто обычные русские некомпетентные программисты и не разбираются в мл вообще.
Нормальный специалист (вкатившийся после ее выпуска) знает про эту книжку.
1545307721191490045.jpg144 Кб, 700x982
26 1316684
>>16681

>сильный ии


А слабый тогда какой? А ИИ на полшишечки?
27 1316686
>>16683

>Нормальный специалист


Это ты про себя что ли?
28 1316687
>>16399
а какие предпосылки для того, чтобы оно было? Люди только пять лет назад научились котов классифицировать на картинках с более-менее высокой точностью (а ведь не кажется сложной задачей - уши есть, хвост есть, чего там определять) - и то до сих пор все про adversarial attacks пишут. Мы даже не знаем, что такое AGI (сириусли - единственное нормальное описание - это чтоб как человек, но в 10 раз быстрее). Это как в 17 веке возмущаться, почему до сих пор не придумали термоядерный синтез, ведь столько же бабла в паровой двигатель вкладывают, а все упирается в ткацкие станки и водокачки.
29 1316689
>>16684
слабый, это который только в шахматы умеет играть
30 1316690
>>16684

> А слабый тогда какой


Наши нейросети - это слабый ИИ.
31 1316691
>>16686
я или почти любой из одс
32 1316696
>>16690

>нейросети - это слабый ИИ.


>шахматы умеет играть


Причам тут интеллект, если это маняматика и статистика? Шазматы вобще позиционная игра и к интеллекту никакого отношения не имеет.
33 1316697
>>16696
Интеллект и есть математика.
1543087685136550170.png597 Кб, 700x635
34 1316698
>>16687

>котов классифицировать


Тоесть отличит кота от любого другого кошачьего? Сколько котов на пикрил?
35 1316700
>>16697

>Интеллект и есть математика.


Какая маняматическая степень у шмеля?
36 1316704
>>16696
Дебил ты дырявый. Иди нахуй отсюда читать определение слабого ИИ.
>>16663

> Ты че, шизоид, кто так в этом треде говорит?


Как минимум одно чучело точно. Возможно, долбаеб не один.
37 1316706
>>16704

>Иди нахуй отсюда читать определение слабого ИИ.


Прочитал тебе за щеку, порванный математический гондон
38 1316708
>>16696
просто раньше считали, что в шахматы и го нельзя победить сугубо статистическими методами (curse of dimensionality и тд). Потом пришлось эти задачи засунуть в "слабый ии".
https://www.reddit.com/r/baduk/comments/2wgukb/why_do_people_say_that_computer_go_will_never/
39 1316710
>>16708

>шахматы


Так дипблю там тупо перебор даже, а не статистика, это собственно та игра где компы всегда рулили

>го


С го да, но перебор не работает всилу охулиарда вариантов, а вот статистические методы как раз порешали. Хотя даже старые го программы меня выносят как школьника.
40 1316948
Нужно генерировать не очень длинные предложения на английском языке с определенными словами, какие есть подходы? Подскажите в какую сторону копать.
41 1316976
>>1315946

>И как ты дошёл до мысли использовать для этого машоб? Какие-нибудь профильные CADы типа nastran уже не в моде


Это очень интересный способ.
А вообще, изначальный способ - визуализация потоков воздуха, тут ничего оригинального еще нет по сути, а если добавить к этому еще температуру и давление, то будет очень интересно.
У нас есть способы визуализации потоков воздуха, например, с помощью метода Шлирена, но хотелось бы, чтобы оно было трехмерным, например.
А если при этом еще и получится учитывать, каким образом этот воздушный поток взаимодействует с объектами и как влияет на их скорость, то было бы идеально
42 1316978
>>16976

>изначальный способ


изначальная цель*
43 1317022
>>16655

>Коооококо Вапник не нужон, Бишоп не нужон, ISLR и 300стр про линейную регрессию не нужно, все устарело к хуям


Ну отчасти это правда.
Будущее машинного обучения это алгебраическая топология и изучение statistical manifolds.
44 1317030
>>16976

>Шлирена


>Шлюхена


Ты про solidworks не слышал или специально умничаешь?
45 1317086
>>17030
Слышал, солидворкс нужен немного для других целей.
46 1317113
>>16948
NLP, ебанный в рот.
47 1317119
>>17113
Нлп мошенники
48 1317126
>>17086
ну если симулятор ламинарных потоков не нужен, то ок
49 1317127
>>17119
джвачую, прочитал книги по нлп, а бабы не дают
50 1317128
>>16976
Т.е в конечном счёте тебе нужна идентификация динамических систем с помощью машобчика и затем предсказание поведения объектов в такой модели системы. Это все решаемо, ещё в совке этим занимались, да и на жопаде и в японии в те же годы. Просто тогда это делали несколько иначе, с помощью параметров системы, а не прямой её видеосьемки. Алсо, в промышленности для таких целей использовались алгоритмы, для которых есть строгие доказательства сходимости, хотя бы функция Ляпунова должна быть или устойчивость по Попову. Естественно, никакой диплернинх этим требованиям не соответствует. Но сойбоям похуй, вроде уже были случаи когда беспилотное такси убер размазало прохожих по переходу.
51 1317142
>>17128

>Ляпунова


>устойчивость по Попову


Ааааааахаха, прекрати, мой Жопеншмульцер разорвался
52 1317148
>>17128

> Although the car’s sensors detected Herzberg, its software which decides how it should react was tuned too far in favour of ignoring objects in its path which might be “false positives” (such as plastic bags), according to a report from the Information. This meant the modified Volvo XC90 did not react fast enough.



убер и дип лернинг не при чем. У них моделька постоянно давала false positive (как выше из yolo - объекты дрожат и на пару кадров выпадают из сегментации). А умники из убера (у них и статьи так себе и, мне кажется, часто результаты из головы взяты) вместо того, что нормально ее обучить на видео-потоке, просто забили на это и выкатили гигантский джип (тоже додумались) с лидарами ночью на улицу без освещения. А тестер, который сидел за рулем, в это время втыкал в телефон.
https://www.youtube.com/watch?v=hthyTh_fopo
53 1317158
Пасаны, обьясните пожалуйста. В статистике есть такое понятие как outlier. Но в нейронках эта штука, как бы, почти не учитывается, из-за чего падает сильно точность сбора статистических данных. В каких именно видах нейронок такую багу пофиксили?
54 1317196
Тут магия присутствует? Сколько часов уйдет на изучение? Проебал 200 часов на веб, понял, какая это однотипная параша.
55 1317212
>>17196
Я восемь лет на андроид проебал и ничего.
56 1317233
>>17158

>В статистике есть такое понятие как outlier.


По-русски это называется выброс.

>Но в нейронках эта штука, как бы, почти не учитывается


Почему? Все виды регуляризации борятся с выборосами.
57 1317251
>>16691

>одс


>Нормальный специалист


Ну-ну.
58 1317292
>>17128

>Т.е в конечном счёте тебе нужна идентификация динамических систем с помощью машобчика и затем предсказание поведения объектов в такой модели системы.


Да, только предсказания кратковременные.

>Алсо, в промышленности


В промышленности немного другие штуки обсчитывают, типа вентиляцию, обтекаемость и все такое.

>Естественно, никакой диплернинх этим требованиям не соответствует.


Почему?
59 1317299
ШАД все еще считается плохим местом?
60 1317300
>>17292
Ты сейчас разговариваешь с местным шизиком, можешь не тратить время.
61 1317301
>>17233

>регуляризации


Ладно, зайду с другой стороны.
Каким образом давить шум, если он громче полезного сигнала, что делать с этим шумом, что делать с сигналом? Как не послать такой сигнал просто нахуй?
62 1317316
>>17301
Обучить нейронку, которая распознает распределения с выбросами!
63 1317317
>>17301
Не очень понятен вопрос. В статистике у тебя есть модель сигнала и модель шума, и зная эти модели, ты можешь предсказать вероятность того, является ли порция пришедшей информации сигналом или шумом. Например, если у тебя сигнал - синусоида, которая утопает в белом шуме с точки зрения громкости, ты можешь простым IIR фильтром (который является простейшей рекуррентной нейронкой с 1 слоем без активации) или FIR фильтром (который является простейшей сверточной нейронкой с 1 фильтром аналогично без активации) вычленить эту синусоиду. Настроить параметры такого фильтра можно градиентным спуском, хотя это будет не самый эффективный метод.

Нейронки посложнее сами себе разрабатывают себе эти модели сигнала и шума - по сути каждый слой что-то фильтрует относительно предыдущего слоя. Получается это потому, что с каждым батчем существует способ немного улучшить модель, на большом числе данных модели улучшаются значительно. Застревания в локальном минимуме не происходит из-за того, что чем больше у тебя в пространстве измерениий, тем менее вероятно тебе встретить локальный минимум.
64 1317321
>>17301
Пишу сеточку на торче, вставил дропаут и скор на тесте стал перестал меняться от эпохи к эпохе.
Делаю так:
1)тренирую
2) net = net.eval(); считаю на тесте; net = net.train()
3)goto 1
ЧЯДНТ?
65 1317324
>>17317

>Застревания в локальном минимуме не происходит из-за того, что чем больше у тебя в пространстве измерениий, тем менее вероятно тебе встретить локальный минимум.


ЩИТО
66 1317327
>>17324
Для условия локального минимума у тебя производные по всем направлениям должны быть равны нулю, а вторые менять знак. Для 1 измерения это значительно более вероятно, чем для 1000, там ты скорее встретишь какую-нибудь седловую точку и прочие многомерные изъебства. Грубо говоря, 3д гору умная нейронка обойдет через четвертое измерение, и пойдет спускаться дальше.
67 1317328
>>17327

>Для условия локального минимума у тебя производные по всем направлениям должны быть равны нулю, а вторые менять знак.


А мир то интереснее, чем я думал.
Это ты обосрался или я?
мимо
68 1317330
>>17327
Локальный минимум это когда у тебя градиент (первые производные) зануляется, а гессиан положительно определен. И локально глобальный минимум от локального ничем не отличается.
Просто у нейронок значения в локальных минимумах не очень сильно отличаются, даже при некоторых упрощениях доказано вроде.
69 1317331
Здесь вообще есть хоть один не зеленый?
70 1317332
>>17331
Я не зеленый. Вон выше спрашивал про ШАД. А что?
71 1317333
>>17332
А что плохого в ШАДе?
72 1317334
>>17333
Раньше в шапке поясняли, что это говно. Учат так же как и везде, но отбор жесткий.
73 1317335
>>17334

>везде


Может курсы уровня физтеховских или фкновских, но если ты там учишься, то и отбор не сложный, а если не там, то отбор вполне проходимый и альтернатив не так много.
74 1317338
>>17335
Нихуя не понял из твоего поста. Можешь в несколько предложений расписать?
15421592376800.jpg39 Кб, 511x509
75 1317355
>>17300

> Ты сейчас разговариваешь с местным шизиком, можешь не тратить время.


Тыскозал, что я шизик? Возражений по существу поста нет, но вот тебе небанбит, и я уже почему-то шизик. Не думал, что проблема в тебе?
76 1317365
>>17299
А он хоть когда-то считался плохим? Вроде как единственное место в рф, где можно получить нормальную подготовку в области дс.
77 1317368
>>17321
ну чего, метамашинлернеры, никто реально нейронки не трогал что ли?
78 1317440
Доложите уровень перемоги в машинленинге!
79 1317552
>>17330

>Локальный минимум это когда у тебя градиент (первые производные) зануляется, а гессиан положительно определен.


Я примерно это и написал. Со сменой знака проебался (он у первых производых меняется), но это не суть, суть в том, что чем больше у тебя измерений, тем больше факторов должно совпасть, чтобы алгоритм застрял.

>Просто у нейронок значения в локальных минимумах не очень сильно отличаются, даже при некоторых упрощениях доказано вроде.


Глобальный минимум при стохастическом градиентном спуске означает то, что у тебя дикий оверфит к конкретному минибатчу. Это никому не нужно. Если же ты пользуешься глобальным алгоритмом вместо SGD, то аналогично, просто это будет дикий оверфит к конкретному обучающему множеству.
Нам нужно другое - чтобы каждый конкретный минибатч куда-то спускался. И вот для этого нужна многомерность.
80 1317553
>>17552

>оверфит к конкретному минибатчу


лол
мимо зоонаблюдатель
81 1317666
>>17251
основные участники регулярно берут золото на каггле и других площадках, а что остальные 18000 зарегистровавшихся мертвых душ делают - это уже не важно
82 1317670
>>17368
прикладывай код нормальный, ванга в /sci сидит
83 1317910
>>17666

>это уже не важно


Как и золото на кагле.
84 1317973
>>17440
Минимальный. В основном МЛ в постсовка дислоцируется около ДС.
85 1318288
>>17973
ну, а что тогда важно?
86 1318316
>>17973

>постсовка


А в буржуинии?
87 1318355
>>17196

>Тут магия присутствует?


Худший вид магии - индустрия на 90% состоит из полуграмотных малолеток с хохолками, которые анализ и классическую статистику не осилили, а учоными почувствовать себя хочется. Магия хаоса, в своём роде. А всё научпоп, будь он неладен.
test.png7 Кб, 850x1100
88 1318414
Анончики, можно вопрос по матплотлибу? Пытаюсь сделать график в постскрипте, но у него почему-то здоровые белые границы. Как исправить, чтобы их не было?

import matplotlib
matplotlib.use('PS')
import matplotlib.pyplot as plt
matplotlib.rc('ps', usedistiller='xpdf')

f = plt.figure()
plt.plot(x, label=u'тест')
plt.legend()
plt.savefig('test.ps', bbox_inches='tight', pad_inches=0)
plt.close(f)
89 1318442
>>18414
А, всё, разобрался.
90 1318460
>>18355
Ты только что весь IT
91 1318487
Стоит ли брать 2070 для нейронок и немного игорей?

Вроде тензорные ядра, и производительность на уровне 1080 Ti, но как-то многовато негативных отзывов
92 1318492
Когда вы поняли, что 50% задач, которые бизнес пытается решить машинным обучением, решаются стандартными методами оптимизации/теории управления/обработки сигналов, а остальные 50% требуют сильного ИИ?
93 1318499
>>18492
Откуда ты можешь это знать, ты хотя бы 100 бизнес-задач видел?
94 1318504
>>18492

> оптимизации/теории управления/обработки сигналов,


Такую хуйню лень делать. В этом и прелесть самообучалок, они сами решения находят, ничего не нужно изучать, просто подключать нейросеть к Старкрафту/Форексу/любой другой хуйню требующую тактики и стратегии, и она сама находит оптимальную стратегию.
95 1318530
>>18504

>просто подключать нейросеть к Старкрафту/Форексу/любой другой хуйню требующую тактики и стратегии, и она эпически обсирается, но деньги уже освоены и пейперы написаны, так что всем похуй


Поправил тебя.
96 1318584
>>18504

> просто подключать нейросеть к Старкрафту/Форексу/любой другой хуйню требующую тактики и стратегии, и она сама находит оптимальную стратегию.


Если бы с форексом было так просто, любой школьник бы озолотился.
97 1318691
Анончики, объясните гуманитарию, насколько далеко мы от создания ИИ с самосознанием? Сколько лет ещё ждать?
98 1318699
>>18691

> далеко мы от создания ИИ с самосознанием? Сколько лет ещё ждать?


Этим занимаются передовые учёные работающие сразу в нескольких областях: анатомия, математика, и информатика. Обычный Васян с линалом и перцептроном эту хуйню не осилит. Основная проблема в том, что отсканировать мозг, и запустить его на суперкомплюхтере хотя бы 10с, мягко говоря, очень сложно.
99 1318710
>>18691
Примерно так же далеко, как далека самая умная муха от обретения самосознания.
sage 100 1318712
>>18691

>гуманитарию


Ты сначала определение дай своему "самосознанию".
101 1318721
>>18699

>математика


нинужна
102 1318724
>>18712
Вообще это такая вычислительная машинка, которая пространственно-дискретна, в отличии от обычных коплюхтеров, которые временно-дискретные.
103 1318729
>>18724

> вычислительная машинка


Чем докажешь?
104 1318732
>>18729
Мозг - вычислительная машинка, это очевидный факт.
Алсо, эта машинка должна уметь в саморефлексию.
105 1318737
>>18732

>это очевидный факт.


Вот прям сразу и обосрался.
106 1318778
>>18732
Тащемта, что является вычислительной машиной?
Главная функция мозга - клеить самочек и реализовать волю к власти.
107 1318779
>>18778

>Главная функция мозга


Управлять телом и процессами, мышление лежит в другой области, вне мозга
108 1318782
>>18779
Где именно, верифицируй утверждение.
109 1318785
>>18782

>Где именно


За пределами физ. тела, в астрале/ноосфере
110 1318788
>>18785
А теперь докажи, почему именно не в физическом теле.
111 1318797
>>18788

>почему именно не в физическом теле


Место сознания в физическом теле не определено, а вот предчувствия, коллективные вдохновение и прочие загадочные вещи имеют место
112 1318799
>>18797

>Место сознания в физическом теле не определено


Потому что ты так сказал?
original.jpg242 Кб, 632x474
113 1318802
114 1318869
>>18721

> >математика


> нинужна


Нахуй пшел,пидор дырявый
>>18729

> Чем докажешь?


Тезис Черча-Тьюринга. Ещё раз нахуй пшел.
115 1318872
>>18785

> За пределами физ. тела, в астрале/ноосфере


Дебил тупой, ты почитай что такое ноосфера у автора термина - Вернадского, потом кукарекай. Он никогда никакие атсралы в виду не имел, чучело ты ебаное.
116 1318873
>>18872
Да забей ты на этого шизика
117 1318876
>>18869

>Тьюринга


Питух проткнутый
>>18872

>ноосфера у автора термина - Вернадского


Понятие «ноосфера» было предложено профессором математики Сорбонны Эдуардом Леруа, который трактовал её как «мыслящую» оболочку, формирующуюся человеческим сознанием. Э. Леруа подчёркивал, что пришёл к этой идее совместно со своим другом — крупнейшим геологом и палеонтологом-эволюционистом, и католическим философом Пьером Тейяром де Шарденом.

>Черча


Хуерча, Алонзо Чёрч матаношизик абосанный
118 1318878
>>18872

>атсралы


Тебя термин смущает? Выбери любой другой.
119 1319030
>>18876

> Питух проткнутый


Ты? Разумеется.

> Понятие «ноосфера» было предложено профессором математики Сорбонны Эдуардом Леруа, который трактовал её как «мыслящую» оболочку, формирующуюся человеческим сознанием. Э. Леруа подчёркивал, что пришёл к этой идее совместно со своим другом — крупнейшим геологом и палеонтологом-эволюционистом, и католическим философом Пьером Тейяром де Шарденом.


Полтора ноунейма, Пындельшмуклер и Пихвельплейшнер придумали хуйню, а пруфов подвезти совсем забыли. Что же делать, ну давайте просто уверуем.
>>18878

> Тебя термин смущает? Выбери любой другой.


"Хуйня из-под коня" сойдёт? Ты и в боженьку поди веришь, а?
120 1319032
>>18699

>отсканировать мозг, и запустить его на суперкомплюхтере


каргоученый поясняет за ИИ
121 1319037
>>19030

>боженьку поди веришь, а?


верю, а ты разве нет?
122 1319038
>>19030

>Что же делать, ну давайте просто уверуем.


Тоесть, когда маняматик несет дич оторванную от реальности это норма?
15400044479080.png32 Кб, 645x729
123 1319042
>>19038

> Тоесть, когда маняматик несет дич оторванную от реальности это норма?


Дебилок, попробуй включить в свой манямир простую истину - если ты в силу своей безмозглости чего-то не понимаешь, это никак не доказывает того, что это что-то - дичь. Ну нету мозгов и ладно, бывает. Но использовать это как доказательство - школьничество.
>>19037

> верю, а ты разве нет?


Ясно все.
1545655093127940488.jpg81 Кб, 650x439
124 1319071
>>19042
Маняматический каргокультист начинает маневрировать, можете еще и в жопу ебешься по Тьюрингу?
125 1319221
>>18699
В чем проблема сжать мозг в шакала? Вроде же запускали 1 с, просто понижаем настройки
126 1319240
>>18487
Бамп вопросу
Вуз с машобом 127 1320426
Сап, тред. Мне 16 и я интересуюсь машобом, хожу на занятия от ФПМИ МФТИ DeepLearningSchool + параллельно пытаюсь сам вкатываться в эту тему. Мне скоро поступать в вуз, соответственно, я уже прикинул что и как, и по нейронкам выходит не так много вузов, как хотелось бы: МФТИ тот же самый, МГУ, Бауманка, Вышка, Санкт-Петербургский национальный исследовательский университет информационных технологий, СПБГу и ещё какой-то в Самаре. Сам живу в Москве, так вот, судя по нереальным проходным баллам, мне только в Самару и светит, думаю (не в обиду самарцам), хоть я уже сейчас готовлюсь к экзам/занимаюсь с репетиторами. Соответственно, вопрос: нужно и оправданно ли вообще стараться поступить в вуз с машинками или можно самому по книжкам/курсам и т.д.? Повторю, очень хочу связать свое будущее с машобом.
128 1320427
>>20426

>МФТИ тот же самый, МГУ, Бауманка, Вышка, Санкт-Петербургский национальный исследовательский университет информационных технологий, СПБГу


В итмо машынкой почти не занимаются

А теперь подумай, потянешь ли ты учебу в тех топовых вузах, которые ты назвал? Все-таки машинное обучение начинается обычно на старших курсах, а скорее всего только в магистратуре. Далеко не каждый сможет выдержать тот дроч, который происходит в топовых вузах на пми.
Ну а если есть такое сильное желание - начни участвовать в перечневых олимпиадах, которые дадут тебе льготу поступления без экзаменов в топовые вузы.
129 1320462
Че у вас по зп, датасаентисты?
130 1320468
>>20426
на фкн поступай по олимпиадке какой-нибудь
131 1320492
>>16194
Да похуй, запилят альт-райтский фреймворк зига-торч. Не такой уж и рокет-сайенс. Вот с облаками действительно проблемы могут быть.
132 1320507
Ананас, как в R можно разбить текст по уникальным словам с учётом падежей и числительных? Чтобы текст "собрались мужики на рыбалку, а один мужик забыл собраться" анекдот смешной получился разбился на список типа "собраться", "мужик", "на", "а", "один", "рыбалка", "забыть"? Я тут попытался саморазвиться, а в словаре получается жуткий оверхед.
133 1320553
>>20462
Ни-ху-я. На энтузиастичах работаем. Деньги у тырпрайз-макак из соседнего.
134 1320657
>>20507
гугли спец либы для работы со словами. они определяют части речи, приводят к каноническому виду и т.д. для каждого языка свои. вручную запаришься делать. это на годы задача.
b6b6d4ff8274209c787b9dabda432064.jpg154 Кб, 550x412
135 1320660
>>20657

>это на годы задача.


Йобамашинленинх не может в морфологию, кто бы мог подумать
136 1320749
Кто-нибудь MARL-ом занимается тут?
137 1321375
Здарова! Помацал немного нейроночки и обнаружились странные штуки.
Теперь поджробнее:
На входе двумерная сетка со значениями 0/1. Задача нейронки обнаружить есть ли в сетке ряд или

столбец в котором все ячейки будут единицами. При этом такой ряд должен быть один. Столбцов так же

максимум 1.
Нейронка самая простая на сигмах и обратным распространением ошибок.
На первой пике ожидаемый ход обучения (сетка 20х20), два скрытых слоя по 10 нейронов, 2 выхода на

вертикальную и горизонтальную линию.
А на второй - сетка 3х3 с двумя скрытыми слоями по 9 нейронов. Эта хрень вертелась больше 1кк

итераций но так и не смогла полностью осилить задачу. Собственно как так-то?
Серый цвет тут - средняя ошибка, чёрный - случайная единовременная ошибка.
138 1321484
>>15967 (OP)
Добрый день, на данный момент я школьник (11 класс), в будущем хочу заниматься нейроночками, но сейчас больше занят подготовкой к егэ. Я правильно понимаю, что мне надо поступить в средненький вуз (В Москве), а с лета начинать прямо вкатываться? (я пытался начать в этом году с курса мфти, но в итоге зажмотил время). Я правильно думаю? Мне же будет норм, если я пойду не в топ-вуз? Насколько я понял, работодатеям в основном нужен опыт. Или стоит все же попытаться пройти в мгу какой-нибудь (мфти не потяну)? И там учиться? Просто так не хочется, на самом деле. Что анон посоветует? Образование мгу сильно поможет в этой сфере?
139 1321487
>>21484
Забавно, увидел пост 16 летнего анона, а у меня примерно та же ситуация. В общем, остановлюсь пока на том, что топ-вуз не нужен.
мимо 1321484
140 1321490
>>21484
Смотри программу, чтобы были вещи типа openmp, cuda, свертки и преобразования фурье и прочая поебистика.
Иначе твой вуз просто заберет у тебя кучу времени на хуиту типа написания курсачей на паскале на тему документооборота, и в таком случае лучше никакого вуза, чем средненький.
Далее скорее всего 2 года ты потеряешь в любом случае на матан, но параллельно нужно будет дрючить общепрограммерские вещи, которые в вузах не дают, типа гита, unix shell, aws и т. д. и т. п. С третьего курса можно начинать искать работу по специальности, к бакалавру будет нужный опыт. Если так хочется образование МГУ, то можно на 4-м курсе подготовиться к поступлению на магистра именно в МГУ.

>Образование мгу сильно поможет в этой сфере?


Похуй.
141 1321548
>>16010
Буква греческого алфавита.
142 1321572
>>21490
Ого, спасибо за такой полный гайд, сейчас пойду проверять программы вузов.
1545655216116058504.jpg97 Кб, 500x636
143 1321684
Эй, Жопеншмульцеры, хорош бухать, где мой ИИ? А уже 2к19 на дворе, так то.
144 1321867
>>21684
Иди нахуй, быдло.
145 1321954
>>21867
нипадю
146 1321966
>>21684

>t. пишет на хабре про то, что сейчас-сейчас будет общий искуственный интеллект, который убьёт всех непрограммистов

147 1322016
>>22008 (Del)
Уже давно используют. Только я бы не стал это называть ИИ, слишком громко звучит. Машинное обучение лучше.
148 1322017
>>22009 (Del)
Смерть человека неизбежна.
15463371164730.jpg119 Кб, 960x680
149 1322058
Сей быдлотред превратился в полную парашу. Помимо пидарашки без мозгов, трясущей подгоревшей жопой, ещё один шизик подтянулся - вычислитель протеинов. В сци опуща несколько лет назад забанили, ну а тут ему самое место. Вообще, вся эта подмывальня стремительно деградирует. Даже год назад все не было настолько плачевно.
>>22009 (Del)
>>22048 (Del)
15453430924760.jpg49 Кб, 481x481
150 1322059
Предсказать курс валюты нереально, там всякое случайное блуждание итд. А зачем его предсказывать, если задача вообще не в этом? Что нужно трейдеру? Максимизировать прибыль и минимизировать убытки. Очевидно, что это зависит от определённых действий трейдера (купил, продал, ничего не делал) в определённых состояниях рынка (цена актива, объёмы торгов, перекупленность, перепроданность и прочие показатели всяких индексов, осцилляторов итд). Это же можно выявить по историческим данным и построить модель типа y = f(x), где y = "прокатился на хуях" при х = "закупился на хаях" итд. Тут вообще нет никакого предсказания, просто мониторинг состояния системы и оптимальные действия при каждом состоянии. В чем я не прав?
151 1322061
>>22059

>Предсказать курс валюты нереально, там всякое случайное блуждание итд. А зачем его предсказывать, если задача вообще не в этом? Что нужно трейдеру?


Для алгоритмического трейдинга как раз применяют методы предсказания с помощью алгоритмов. Есть же теория вероятностей, теория игр, математическая статистика, и т.д. Ты просто немного не в теме. Советую специализацию из 6 курсов по ML на русском https://www.coursera.org/specializations/machine-learning-data-analysis
152 1322062
>>22059
На курс влияют события. События можно отслеживать и анализировать. Так что все вполне реально. До компьютеров было тоже самое, только отслеживали и анализировали события сами биржевые брокеры и другие заинтересованные. А теперь все можно запрограммировать.
1459225930198294452.jpg143 Кб, 400x378
153 1322129
>>22061

>Для алгоритмического трейдинга как раз применяют методы предсказания с помощью алгоритмов. Есть же теория вероятностей, теория игр, математическая статистика, и т.д.

b6b6d4ff8274209c787b9dabda432064.jpg154 Кб, 550x412
154 1322132
>>22062

> А теперь все можно запрограммировать

155 1322173
>>22129
>>22132
Ссылку оставил выше на курсеру. Зайдите посмотрите несколько вводных видео. Там расскажут, что давно уже проводят анализ валют и других биржевых инструментов, для успешной алгоритмической торговли. Также предсказывают погоду метеоцентры, и много чего еще можно запрограммировать.

Вот даже ссылка на первый курс из специализации. В первых видео это рассказывают https://www.coursera.org/learn/mathematics-and-python?specialization=machine-learning-data-analysis
1536772027115355053.jpg77 Кб, 700x583
156 1322187
>>22173

>для успешной алгоритмической торговли.


Школу закончил уже, трейдер?
157 1322399
>>22062
События инициируются совершенно ебанутыми иррациональными решениями людишек и распространяются на волне таких же субъективных реакций тех же людишек. Удачи в предсказаниях
.
158 1322467
>>22399
И что. Так всегда было. И всегда так будет. Только раньше собрать и проанализировать такой объем информации было сложно. А сейчас это решается компьютером.
159 1322543
>>22059 >>22061 >>22173
Вот вам страницы из книг:
1) "Introduction to Scientific Computing" (Mark H. Holmes)
2) "Introduction to Probability" (Charles M. Grinstead, J. Laurie Snell)
3) "Statistics in a Nutshell" (Sarah Boslaugh, Paul Watters)
И да, таким образом таки предсказывают погоду. Но на бирже это не работает, и тов. учоный с Курсеры, по-моему, пытается выдать желаемое за действительное.
Вы понимаете, что основная интрига на бирже состоит не в том, чтобы угадать будущую цену или область, где она могла бы оказаться (для этого есть формула случайного блуждания), а в том, что существует некая группа юридических лиц, которые видят все позиции физических лиц.
Вы понимаете это или нет?..
160 1322552
Вопрос о возможности установления авторства текстов.

Возможно ли проанализировав комментарии подозреваемого в социальных сетях установить, что другие комментарии принадлежат ему же? Возможно основываясь на повторяющихся грамматических ошибках, часто используемых слов, сленга... На сколько точно на данный момент решаются такие задачи?

мимо-неспециалист
161 1322558
>>22543
У тебя три рандомных скриншота из учебника, к чему ты их привел?
162 1322566
>>22558
То есть, вы не понимаете, в чём интрига. Так я и думал.
А запостил я эти страницы для того, чтобы не понимающшие в чём там интрига поискали эти три книги в Энторнете. Потом легче будет лекции прогуливать и тервер сдавать. Мой любимый был предмет, кстати.
И это не учебники, а вполне себе техническая литература, особенно первая книга, где предсказывают погоду.

>>22552
Вы не поверите - отлично решаются: https://ideone.com/1V8pJe
163 1322578
>>22566

>эти три книги в Энторнете


сейчас бы всякое математическое говно скачивать
164 1322580
>>22467
И что даст тебе твой анализ? Что в любой ситуации может происходить всё что угодно?
165 1322581
>>22566
Ты шизик? Написал столько текста, а по существу ничего. И программа твоя делает совсем не то, что человек спрашивает.
166 1322630
>>22566
Меня глюкнуло или ютуб на лету улучшает произношение английской речи?

Смотрел видеоролик какого-то индуса, в начале речь была с ужасным акцентом и дефектами записи, а под конец произношение стало, как в аудиозаписях к учебнику инглиша
. Такое тоже умеете?
167 1322634
>>22630

>Меня глюкнуло


da
168 1322652
>>22543
Слушай, еще до появления массовых компьютеров люди умели предсказывать положение дел на бирже. Есть математика, ты в курсе вообще об этом. А теперь есть возможность обработки больших объемов данных, что очень кстати для таких задач.
169 1322653
>>22552
Почти со стопроцентной долей вероятности. Но для этого используют особые алгоритмы и большие вычислительные мощности. Какой-нибудь Google такое может сделать. Не знаю кто еще, но такое возможно.
170 1322654
>>22580

>И что даст тебе твой анализ? Что в любой ситуации может происходить всё что угодно?


Ты вообще про машинное обучение слышал? А про математику? Если быстро обрабатывать слухи и события, то можно покупать и продавать по выгодной цене.
171 1322672
>>22652

>Есть математика


Назови хоть одного кто разбогател торгуя на бирже.
172 1322677
>>22672

>Назови хоть одного кто разбогател торгуя на бирже.


Уоррен Баффет
173 1322686
>>22677

>Уоррен Баффет


Но он не маняматик
174 1322693
Есть аноны, которые угорают по Reinforcement Learning?
175 1322719
>>22693
Есть, но я сам ньюфаг в этом.
176 1322731
>>22686
Юные годы Баффета прошли в родном городе. В раннем детстве он обнаружил хорошие математические способности и, обладая прекрасной памятью на числа, легко запоминал статистические данные о количестве населения в различных американских городах [63].
177 1322734
>>22686
Уоррен Баффет родился 30 августа 1930 года в Омахе, самом большом городе штата Небраска, в семье биржевого брокера и политика Говарда Баффета. Он рано научился читать, уже к школьному возрасту знал основы математики. С самого детства он удивлял родителей способностью перемножать в уме многозначные числа, а постигать азы финансового искусства Баффет начал в шесть лет.
178 1322736
>>22686
В детстве Уоррена Баффета интересовали только цифры, статистика и математические расчёты.

Именно тогда у него возник интерес к цифрам и вычислениям. Только в них Уоррен находил спасение от нападок матери. Он и школу полюбил за возможность уйти из дома и изучать математику.

Члены семьи замечали и поощряли интерес Уоррена к цифрам и статистике. Когда ему исполнилось восемь, дед подарил Уоррену книгу о бейсбольном сезоне 1938 года. Подарок так обрадовал мальчика, что он буквально вызубрил биографию каждого игрока.


В детстве Уоррен с другом Рассом любили сидеть на крыльце и записывать в блокнот номера проезжающих мимо машин. Родители думали, что мальчишки вычисляли частоту, с которой встречается каждая буква и цифра. На самом деле ими двигало желание прославиться. Их улица была единственной дорогой из тупика, в котором располагался банк. Они верили, что однажды по ней проедут грабители, найти которых полиция сможет только с помощью этих записей.

Уоррен часами сидел в своей комнате, вдали от властной матери, погрузившись в чтение любимых книг или решая сложные математические задачи.
179 1322766
>>22736
...последнее вообще... до слёз)
15421592376800.jpg39 Кб, 511x509
180 1322787
>>22552

> Возможно ли проанализировав комментарии подозреваемого в социальных сетях установить, что другие комментарии принадлежат ему же?


Тащмайор, в суд потом тоже с нейроночкой пойдете? А если защита попросит обосновать устойчивость и сходимость алгоритма в любой возможной ситуации?
>>22543

> Вы понимаете, что основная интрига на бирже состоит не в том, чтобы угадать будущую цену или область, где она могла бы оказаться (для этого есть формула случайного блуждания), а в том, что существует некая группа юридических лиц, которые видят все позиции физических лиц.


Позиции каких угодно лиц видит кто угодно по объёму торгов. Сколько продаётся, сколько покупается. Вопрос в том, что делать в каждой ситуации чтобы максимизировать профит.
1024px-IcelandSaenautaselEarthcoveredhomeoutside.JPG170 Кб, 1024x768
181 1322796
Здравствуйте, я работал грузчиком на производстве маспо и молонеза в своих далеких провинциальных палестинах. Оказалось, что вся производственная линия продуктов собрана и доработана напильником и своими руками слесарями 90ых, которые достали из своих закромов старые запчасти продуктовых линии Германии 40ых годов, когда воиска СССР взяли Германию и привезли на родину немецкие ништяки.

Благодаря этому я загорелся идеей вката в реверс-инжиниринг. Моя цель, будучи жителем далекой провинции, выточить напильником из технического и металлического мусора установки для выпуска строительных материалов на основе мусорных отходов, песка, камней, щебня и т.д. За основу хочу взять существующие разработки и с помощью реверс-инжиниринга догадаться как они работают, создать близкий аналог из технического и металлического мусора. После чего построить себе землянку и забор из полученных строительных материалов.

Если я в будущем построю потенциальную землянку, то ко мне сразу на разборки приедут провинциальные коммерсы качать права за то, что я из мусора построился, а не купил у них стройматериалы как все. И предъявят за то, что я мужиков своим примером сколачиваю так же сделать. Я отвечу, что они не авторитеты для меня, смачно плюну: "харктьфу", кто вы такие, чтобы запрещать мне строиться из мусора! Все, базар окончен! И уйду, гордо развернувшись. Но тогда ко мне разборки будут приезжать рэкетиры: борцы, боксеры, штангисты, гиревики.

Так вот, я хочу для защиты от коммерсов строить землянку как на пике, только еще более приземистую и с бойницами вместо окон. Чтобы она была низкая, чтобы была меньше площадь поражения и было сложнее за каменным забором попасть в нее из гранатомета или попасть зажигательной смесью. А также хочу построить башню для обзора окрестностей. На башне должна быть камера и нейросетевая программа для распознавания изображений, чтобы задетектировать подъезжающих рэкетиров на разборку и поднять тревогу, включив сирену, чтобы я был готов, взять лук и стрелы и взобраться по тревоге на башню.

Отсюда вытекают вопросы, помогите, пожалуйста, найти на них ответ:
1) НАСКОЛЬКО СЛОЖНО САМОМУ СДЕЛАТЬ ТАКУЮ НЕЙРОСЕТЬ? Достаточно ли будет для этого языка Си?

2) Если я хочу еще, чтобы нейросеть защищала мою землянку от выстрелов гранатомета, выбрасывая навстречу гранатометному снаряду металлические осколки для детонирования снаряда до достижения землянки. То насколько сложно будет создать такую защиту?

3) Насколько углубленно надо учить матан для такой цели? Хватит ли стандартного курса отечественных ВТУЗов?
1024px-IcelandSaenautaselEarthcoveredhomeoutside.JPG170 Кб, 1024x768
181 1322796
Здравствуйте, я работал грузчиком на производстве маспо и молонеза в своих далеких провинциальных палестинах. Оказалось, что вся производственная линия продуктов собрана и доработана напильником и своими руками слесарями 90ых, которые достали из своих закромов старые запчасти продуктовых линии Германии 40ых годов, когда воиска СССР взяли Германию и привезли на родину немецкие ништяки.

Благодаря этому я загорелся идеей вката в реверс-инжиниринг. Моя цель, будучи жителем далекой провинции, выточить напильником из технического и металлического мусора установки для выпуска строительных материалов на основе мусорных отходов, песка, камней, щебня и т.д. За основу хочу взять существующие разработки и с помощью реверс-инжиниринга догадаться как они работают, создать близкий аналог из технического и металлического мусора. После чего построить себе землянку и забор из полученных строительных материалов.

Если я в будущем построю потенциальную землянку, то ко мне сразу на разборки приедут провинциальные коммерсы качать права за то, что я из мусора построился, а не купил у них стройматериалы как все. И предъявят за то, что я мужиков своим примером сколачиваю так же сделать. Я отвечу, что они не авторитеты для меня, смачно плюну: "харктьфу", кто вы такие, чтобы запрещать мне строиться из мусора! Все, базар окончен! И уйду, гордо развернувшись. Но тогда ко мне разборки будут приезжать рэкетиры: борцы, боксеры, штангисты, гиревики.

Так вот, я хочу для защиты от коммерсов строить землянку как на пике, только еще более приземистую и с бойницами вместо окон. Чтобы она была низкая, чтобы была меньше площадь поражения и было сложнее за каменным забором попасть в нее из гранатомета или попасть зажигательной смесью. А также хочу построить башню для обзора окрестностей. На башне должна быть камера и нейросетевая программа для распознавания изображений, чтобы задетектировать подъезжающих рэкетиров на разборку и поднять тревогу, включив сирену, чтобы я был готов, взять лук и стрелы и взобраться по тревоге на башню.

Отсюда вытекают вопросы, помогите, пожалуйста, найти на них ответ:
1) НАСКОЛЬКО СЛОЖНО САМОМУ СДЕЛАТЬ ТАКУЮ НЕЙРОСЕТЬ? Достаточно ли будет для этого языка Си?

2) Если я хочу еще, чтобы нейросеть защищала мою землянку от выстрелов гранатомета, выбрасывая навстречу гранатометному снаряду металлические осколки для детонирования снаряда до достижения землянки. То насколько сложно будет создать такую защиту?

3) Насколько углубленно надо учить матан для такой цели? Хватит ли стандартного курса отечественных ВТУЗов?
bd246281ddd8.jpg47 Кб, 520x350
182 1322798
>>22672

> Назови хоть одного кто разбогател торгуя на бирже.


Я знал, что ты дебил, в клиническом смысле, но чтобы настолько. Мань, если у человека есть доход и он при этом не олигарх, друг пыньки и не медийная личность, о своих доходах он на каждом углу орать не будет. В цивилизованных странах вообще не принято доходами понтоваться, даже Брин в метро или Цукерберг в майке и шлепках за 5$ это норма. А сколько дохода имеет рандомный чувак на улице ты и вообще не угадаешь. Это не Африка, где масповские мажорики 14летнего возраста носят шмоток в среднем на полтора ляма.
183 1322805
>>22672
Хедж-фонды
В них толпа математиков мутят разные модели и стратегии, а евреи им дают миллиарды чтобы торговать на бирже
У них нет бешеных прибылей, но даже несколько процентов сверху среднерыночной доходности при таких объемах - огромный профит.

Эти математики вполне себе не бедствуют.
184 1322816
Аноны, есть ли у вас какие-нибудь инструменты для оптимизации ORM-запросов? А то мне кажется, что эта задача как раз для нейронок. Ну или кто-нибудь что-нибудь делает в этом направлении?
мимо вебмакака
185 1323000
>>22787
ну кстати нейронку т. майор может использовать, чтобы найти все подозрительно похожие комментарии, а потом Эксперт уже проанализирует их и вынесет заключение для суда.
186 1323063
>>22787

>Позиции каких угодно лиц видит кто угодно по объёму торгов. Сколько продаётся, сколько покупается.


Ты видишь их уже после того как они попадают к Серьёзным Людям. Задержка там несколько десятков миллисекунд, но этого хватает чтобы ты сосал хуи со своими манямоделями, а евреи забирали твои денюжки.
187 1323067
>>23063
И конечно суммировать всё в объём торгов и цену это уже потеря ценной информации. Надо смотреть на глубину рынка и ордер бук, в идеале.
188 1323333
матанопетушня опять сосет хуи и мечтает о джвух лишних долярах
image.png193 Кб, 600x600
sage 189 1323342
190 1323358
Ищу сейчас хороший учебный план или гайд по онлайн курсам, есть у кого что интересное? Что-то по типу сделай сам MSC по MOOC у себя дома, только для DS.
191 1323446
>>22693
Ну я например.
192 1323490
Юзаю связку cuda / python для нейроночки. Но нужно больше мощности, возможно 2-3-4 видеокарты. Нужна специальная материнка, в которую полноценно можно воткнуть 4 карты в sli или же можно собрать подобие майнинг фермы на райзерах и норм?
193 1323538
>>23063

> Ты видишь их уже после того как они попадают к Серьёзным Людям. Задержка там несколько десятков миллисекунд, но этого хватает чтобы ты сосал хуи со своими манямоделями, а евреи забирали твои денюжки.


Какой же ты дебил, господи. Как 10 миллисекунд могут что-то решать в модели, оценивающей состояние актива как минимум в часовых интервалах? Да даже в миллисекундных, что ты там сделаешь за 10мс чего нельзя сделать за 20? Начитаются мемасов, потом несут хуйню.
>>23333
Хуи сосешь только ты, потому что мозгов у тебя нет.
194 1323588
>>23490
и то и то норм будет. в обычную мать atx размера по крайней мере 2 штуки втыкнуть можно.
но ты прикинь по деньгам - может проще будет на амазоне каком-нибудь инстансы покупать для обучения.
195 1323669
>>23538

>Как 10 миллисекунд могут что-то решать в модели, оценивающей состояние актива как минимум в часовых интервалах?


Так что рынок на часовых уже практически эффективен, потому что все лишние деньги которые можно забрать забираются на милисекундах.

>Да даже в миллисекундных, что ты там сделаешь за 10мс чего нельзя сделать за 20?


На, школьник, попросвещайся прежде чем за мамкиной кредиткой бежать
https://en.wikipedia.org/wiki/High-frequency_trading
196 1323693
>>23669

> Так что рынок на часовых уже практически эффективен, потому что все лишние деньги которые можно забрать забираются на милисекундах.


Еблан, ой еблан...

> https://en.wikipedia.org/wiki/High-frequency_trading


И что? Боты с микросекундным разрешением друг друга наебывают, будто это как-то отменяет весь остальной рынок.
197 1323756
Подождите, тут правда у вас имеется романтичный юноша, который считает, что он одной статистикой будет на курсе валют зарабатывать?
198 1323758
>>23693

>будто это как-то отменяет весь остальной рыно


Это не отменяет рынок конечно, это отменяет неэффективности на нём с помощью которых делаются деньги.
1546504835159259310.jpg13 Кб, 400x203
199 1323860
>>23756

>у вас имеется романтичный юноша,


Тут все романтические юноши кроме меня и еще одного анона, уверовавшие в маркетинговую пропаганду нейроговна.
200 1323864
>>23860
Нет никакой маркетинговой пропаганды нейроговна, шизик
201 1323869
>>23864
Еще скажи, что не была форса блокчайна, поехавший
202 1323874
>>23869
При чем тут блокчейн, шизик? Ты всегда скачешь с мысли на мысль, когда с людьми разговариваешь?
203 1323877
>>23874

>людьми


Это с каких пор математики и нейродети стали людьми?
1494937946126385536.jpg69 Кб, 1080x789
204 1323879
>>15967 (OP)
Программисты бигдаты и нейронных сетей пикрил
205 1323884
>>23879
Унтермаргинал, вали с двачей.
1538478342120013721.jpg50 Кб, 807x420
206 1323895
207 1323896
>>23756
Я, например.
208 1323900
>>22798
Они не мажоры, дебил. Это просто субкультура и они из среднего класса, считай такие же бедные.
209 1323907
>>23900

>среднего класса


>бедные


Выбери одно.
210 1323945
>>23874
А ты между строк читай. Он же пишет "я уже на блокчеин повелся, просрал кучу времени и бабла" теперь уверен что нейроночки и датасайенс то-же самое. И что вообще все вокруг говно и форс, кроме него любимого.
5ac20068183561d61b8b4596.jpg90 Кб, 827x465
211 1323970
>>23945

>нейроночки и датасайенс то-же


Разве нет? Светофоры на капче хоть находить научились, лол? Или кроме высирания стотысячного папера ни начто не пригодны?
212 1324065
>>15967 (OP)
Кто-нибудь из местных собирал питоновский скрипт с включённым keras c theano бэкэндом в exe-шник или линуксовский исполнительный файл? Сейчас пытался через pyinstaller и py2exe. Не может theano зацепить.
213 1324153
>>16655
Каждый месяуц проигрываю с "устаревания" и "новых" внедрений хуйни. На деле получается что Васян прикручивает к программе одну дополнительную функцию, а потом бежит репортить что он совершил революцию. На почве тотального соибойства и климата в котором никто не говорит "Ты чё долбоёб чтоли совсем, одну функцию так форсить, ты блядь не сделал НИХУЯ даун тупой! Иди пиздуй работать, выебонщик хуев" - это приобретает тотальную волну из новшеств и внешний вид лавинообразного развития индустрии.
sage 214 1324167
>>24153

>На деле получается что Васян прикручивает к программе одну дополнительную функцию, а потом бежит репортить что он совершил революцию


Хочу заметить, что у нас по такому принципу пишется большинство курсовых, дипломных и прочих работ в "топовых" вузиках. Как бе некому этим калом возмущаться.
215 1324175
>>24167
Ваши "Вузики" никому нафиг ненужны. Ты можешь учиться за деньги твоих родителей и потом стать кассиром в пятёрочке. И всем похуй. А вот когда ты выходишь с докладом на какой-нибудь митап где билеты по 200 баксов, а на деле твоя zalupa.js внедрила в себя технологии 12 летней давности...
Я короче склоняюсь к тому, что сообщество программистов отупело и не может понять новшество это или нет. Тот же MVC почему-то в своё время превозносился, хотя по факту ему лет 40-45.
216 1324330
>>24175

>Ты чё долбоёб чтоли совсем, одну функцию так форсить, ты блядь не сделал НИХУЯ даун тупой! Иди пиздуй работать, выебонщик хуев


Ну вот посмотри на себя - используешь буквы, которым тысяча лет, чтобы в каждый мл-тред нести вот эту вот хуйню. Работать не пробовал?
217 1324344
>>24330
Хуя тебя пробрало с правды, лол. Никак себя узнал, или в чем причина твоих анальных скорбей? Он прав же, ситуация с машобом точно как с курсовичками и дипломчиками в быдловузиках - быдлостудентики пиздят одни и те же тексты с одних и тех же сайтиков, а всем и норм, ибо там и преподы такое же тёмное быдло.
218 1324357
>>24344

>Хуя тебя пробрало с правды, лол.


И правда эта не меняется уже лет 10: безработный шизик с борд самый умный хуй на свете, а вокруг все идиоты.
Давай, расскажи мне, откуда ты знаешь о ситуации с машобом, а мы поржем.
219 1324395

> > Ну вот посмотри на себя - используешь буквы, которым тысяча лет, чтобы в каждый мл-тред нести вот эту вот хуйню. Работать не пробовал?



> Хуятебяпробралосправдылолникаксебяузналиливчемпричинатвоиханальныхскорбей?



Весело у вас тут
220 1324397
>>22796
Бамп, пожалуйста!
1545307721191490045.jpg144 Кб, 700x982
221 1324424
>>24357

>откуда ты знаешь о ситуации с машобом, а мы поржем.


Достаточно посмтреть вокруг, даже ебаного помщника типа Алисы запилить нормально не могут.
222 1324425
>>24424
маняме моего детства
223 1324428
>>24357
Я безработный потому что не собираюсь жить по лжи. Я понимаю, карьеристская пидораха вроде тебя не то что правду, мать продаст ради того чтобы жопу в тёплое офисное кресло с бонусами и страховкой усадить, но есть и (меньшинство) других людей.
224 1324431
>>24428
Ты безработный, потому что тупой. Уродился таким.
И дальше, осознавая свою ущербность, ищешь недостатки в тех, кто умнее тебя. Типичный шизик с борд.
225 1324459
>>24431

> ты просто тупой ущербный оправдываешься не хочешь как я генералом успешным в кресле сидеть завидуй лох


Мог бы просто ничего не писать, твой вскукарек был просто алгоритмически предсказуем. Ты машинка.
226 1324487
>>24424

> Алисы


Пушо чатботы нинужны. Во всех остальных нужных вещах, типа раскрашивания манги, генерации музыки, обыгрывания людей в дотах и т.д. нейросети справляются отлично.
227 1324492
Какую нейросеть посоветовали бы для создания TTS?
Задача: Нужно из некоторого wav вычленять трифоны.
Самому лень это делать.
228 1324494
>>24487
Waifu2x не забудь
229 1324699
>>24330

>в каждый мл-тред нести вот эту вот хуйню. Работать не пробовал?


Ты меня с кем-то перепутал, я только вчера впервые написал в тред. А так сижу тут с ноября в рид онли режиме.
230 1324704
>>24330
Алсо ты вместо обсуждения темы спора зачем-то перескочил на обсуждение личности написавшего. У меня работа есть. Но ты видимо не можешь защитить аргументами тезис "В IT полно ебланов которые не разбираются в IT и поэтому говно 10 летней давности многими воспринимается как инновация."
231 1324769
>>24704

>Алсо ты вместо обсуждения темы спора зачем-то перескочил на обсуждение личности написавшего.


Нет, просто ты, гхм, туповат и в упор не видишь намек.
С чего ты взял, что при внедрении инновации возраст используемых технологий является чем-то важным?
Допустим, некий шизик Вася жил себе и жил, а потом решил внедрить Common Lisp вместо 1С. Успешно внедрил, получил премию, рассказал об этом на митапе. Дальше ты приходишь и говоришь Васе, мол, ты, червяк, вообще не имеешь право на митапах ничего рассказывать. Вот я - имею. Но не буду, потому что ссусь публичных выступлений. А ты - червяк и еблан.
232 1324788
>>24769
Я тебе про новые технологии в индустрии в целом и как следствие отсутствие развития при внешнем ощущении её роста, а ты "Common Lisp вместо 1С".
233 1324793
Аноны, есть кто-то кто учить densepose и densereg? Го в дискордах группу организуем?
234 1324794
>>24793

>в дискордах


Говноедство.
235 1324796
>>24794
Предлагай своё.
236 1324797
>>24796
В телеге 300 человек сидит.
237 1324800
>>24797
Дай ссылку, плез
238 1324801
>>24788
Вот твой текст: "Я короче склоняюсь к тому, что сообщество программистов отупело и не может понять новшество это или нет. Тот же MVC почему-то в своё время превозносился, хотя по факту ему лет 40-45. "
Иными словами, MVC нельзя превозносить просто по факту его возраста. Рассказывать о внедрении MVC нельзя. Будешь рассказывать - станешь частью отупевшего программерского сообщества. И вообще комбинирование технологий не является инновацией.

Вот колесо - разве инновация? Пффф. Взяли существующие элементы и соединили в ось, получили инновацию. Никакого развития уже пятьдесят тысяч лет.
15398164729740.jpg157 Кб, 650x430
239 1324802
>>24769

> Допустим, некий шизик Вася жил себе и жил, а потом решил внедрить Common Lisp вместо 1С. Успешно внедрил, получил премию, рассказал об этом на митапе.


Вот нынешние сойбои от машобчика чем-то таким и занимаются. Молодцы, конечно, но остаётся вопрос - где в этой схеме прогресс и развитие? За всеми этими тысячами пейперов, митапов итд как-то не принято замечать, что даже негров распознать нормально так и не могут. И это ещё не худшая сторона проблемы. Худшая сторона в том, что все выгодополучатели это сторонники электронного ГУЛАГа, враги прайвеси, свобод личности итд. Даже в случае относительно безобидных технологий типа контекстной рекламы все это работает на сбор данных и в конечном счёте это просто ещё один элемент все того же электронного ГУЛАГа.
240 1324805
>>24802

>Молодцы, конечно, но остаётся вопрос - где в этой схеме прогресс и развитие?


Define прогресс
241 1324812
>>24802

>электронного гулага


какие-то русске комплексы, посмотри любое киберпанк произведение - никаких свобод, а общество кибербанка - это и есть единственно возможный прогресс. Тем более в России нет и никогда не было относительно Европы свободы (недавно отпраздновали 150 лет с отмены крепостного права и 50 лет с вручения паспортов крестьянам, лол), в Европах всегда внедрят GDPR и другие прайваси-инициативы.
242 1324972
>>24812

> никаких свобод, а общество кибербанка - это и есть единственно возможный прогресс.


Наркоман ты что ли? Любой киберпанк это антиутопия, нет ничего прогрессивного в мире, где власть принадлежит транснациональным корпорациям, вместо закона устав компании, и где лучшая судьба для среднестатистического человека это работа в такой корпорации всю жизнь с пением гимна компании по утрам вплоть до смерти на рабочем месте от переработки, у гуков даже термин для этого есть. А если не вписался в рыночек - пиздуй к кибергопникам в канализацию или к кибербомжам в Коулун а то и на органы в подпольную больничку. Нет в этом никакого прогресса, точнее только узкоспециальный "прогресс" в области средств контроля и подавления. Именно к такому обществу все и идёт.
.gif2,5 Мб, 350x204
243 1325016
Нейрач, я тут решил для саморазвития написать генератор бугуртов, и наткнулся на проблему. Вместо языка я использую R, потому что больше ничего не умею. Как я это делаю: в текстовый файлик копирую будапешты, разбиваю в коде его на слова, нейронка обучается предсказывать слово на основе пяти предыдущих, потом я беру случайную последовательность из пяти слов из исходного текста и заставляю нейронку непрерывно строить баребух на основе пяти последних слов сгенерированной последовательности. Иногда получается неплохо, чаще всего не очень из-за несогласованности слов в русскоязычном предложении. Собственно, проблема в том, что баребухи у меня не отделяются друг от друга, поэтому программа обучается предсказывать начало следующего бугурта на основе конца предыдущего. Как это можно поправить? Идея использовать в качестве длины последовательности наибольший общий делитель списка количества слов в бенедиктах не работает, на некоторых датасетах она равна единице.
244 1325036
>>25016

> Собственно, проблема в том, что баребухи у меня не отделяются друг от друга


Так отделяй. Как минимум введи стоп-символ для отделения.
Ну и вообще здесь напрашивается рекуррентная сеть с произвольной длиной последовательности.
245 1325039
>>25036
Ну так я с радостью бы отделил, но тогда обучение переписывать придется, длина последовательности же разная будет.

> рекуррентная сеть с произвольной длиной последовательности.


Поясни за них
246 1325058
>>25039

>Ну так я с радостью бы отделил, но тогда обучение переписывать придется, длина последовательности же разная будет.


Да нет, ничего не изменится, по 5 словам будешь предсказывать следующее, просто одно из символов будет стоп-символов

>Поясни за них


Да загугли уж
247 1325102
>>25058

> по 5 словам будешь предсказывать следующее, просто одно из символов будет стоп-символо


Тогда я не понял, что именно останавливает стоп-символ
248 1325105
>>25102
Он ничего не останавливает, это ты сможешь порезать вывод нейронки, встретив стоп-символ.
249 1325183
Вопрос к нлпистам: подскажите подход генерации предложения с указанным словом. На ум приходит лишь две нейронки, одна будет предсказывать слова, следующие после указанного, другая предыдущие, но это как-то совсем костыльно и неэлегантно.
250 1325225
Посоветуйте современный обзор по генетическим алгоритмам и как применить машинлёрнинх чтобы они заработали.
251 1325277
>>25225

>современный


>генетическим алгоритмам


>чтобы они заработали


"Нет"
252 1325327
>>25183

>генерации предложения с указанным словом


А почему не сочинений на заданную тематику?
никак
253 1325329
>>25327
Эй, нейросети продолжения к книгам пишут уже, тащемта.
254 1325330
>>25329

>продолжения к книгам пишут


Они предложение составить не могут, какие нахуй книги?
255 1325331
>>25277
поясни
256 1325335
>>25330
https://www.google.com/search?q=нейросеть написала продолжение игры престолов
257 1325336
Почему бы не сделать DAW на основе марковских цепей? Генеративная музыка - прогрессивно! В Tone.js как раз есть марковская цепь. Осталось только ui. И это проблема, ибо мне нужна какая-нибудь библиотека, благодаря которой можно создавать патчер с линиями и объектами типа Instrument, Chain, Effect и т.д
8794758.jpg24 Кб, 400x400
258 1325368
>>25335

>нейросеть написала продолжение игры престолов


>Отмечается, что часть книги состоит из абсурдных сцен и бессмысленных словосочетаний


Ня, переводи
https://github.com/zackthoutt/got-book-6/tree/master/generated-book-v1

Достаточно чутка мокнуться в НЛП, что бы понять какую хуету пытаются втюхать маркетолохи и нейрошкольники.

увернет, что пикрил школьник даже не знает что такое анафора и какие с ней проблемы.
260 1325399
>>25368
на диалоге-21 в этом году конкурс на разрешение анафоры, не хочешь ли написать действительно годный алгоритм, который покажет нейрошкольникам, как надо делать настоящий НЛП?
261 1325504
>>25331
Генетические алгоритмы это брутфорс. Они не могут принимать во внимание какую-то структуру проблемы, которую ты хочешь решить. Соответственно конкурировать с хотя бы теми же самыми нейроночками они не могут, это тупик.
262 1325505
>>25336

>Почему бы не сделать DAW на основе марковских цепей?


Потому что хуйня получается.
263 1325514
>>25504
Ты ебанутый какой-то, сравнивать нейронки с ГА. Нейронки - это нейронки, вид математических функций. А ГА - это метод оптимизации. В случае нейронок применяется градиентный спуск, потому что нейронки дифференцируемы.

Если сравнивать ГА с градиентным спуском, то у ГА преимущество в том, что ему похуй, дискретные у тебя величины, или нет, похуй, можешь ли ты посчитать градиент, вообще на все похуй. Почти любая np-complete задача неплохо решается ГА.

ГА очень хороши для разного класса задач. Главное их преимущество - можно декларативно описать, что ты хочешь получить, а ГА будет перебирать, но не за экспоненциальное время, как брутфорс.

К примеру, есть у тебя цены в магазине и ты хочешь подобрать их таким образом, чтобы приходилось выдавать минимум сдачи. В принципе задача решается линейным программированием. Но с помощью ГА код пишется за несколько минут, просто записываешь целевую функцию, соответствующую минимуму сдачи, и все; и выдает решение, близкое к глобальному минимуму на 99.9%.

Это хорошо, например, для оценки качества других, более сложных, решений. Если хуже ГА, ищи ошибку.
264 1325520
>>25504
Нейронки - это баззворд для одного из видов регрессионного анализа. А ты хуйню какую-то написал.
265 1325522
>>25520
Особенно GAN'ы. Сам хуйни не пиши
266 1325561
>>25522
Ебанутый? ГАН - это алгоритм обучения нейросеток.
5a5bf1c5-e5da-4943-977d-7d72d35d24f4-original.jpeg91 Кб, 720x720
267 1325710
>>25399

>конкурс


мокрописьки на конфочках и митапчиках не показывают, покрописечки это мохнатое золотце, мохнатое ноухау. И когда я разрешу анафору, я буду рубуть бабосики, а не перед васянамя с Абби, Хуяндекса или Харкевича хвастаться.
268 1325808
Короч есть всякие авиасимуляторы. ДКС и прочее говно. Они все ебутся со своими кривыми упрощенными флайт-моделями годами и получается все равно говно.
Надо научить сеть данными из аэродинамических продувок моделей чтобы она сама генерировала флайт-модель в рантайме. Норм или не взлетит?
269 1326038
Где можно взять портреты в хорошем качестве, без очков и прочей хуйни и чтобы у людей был разный тип лица (жирные, длинные, телки и прочие, хотя бы ~10 различных видов)? Нужно нейроночку научить различать различные виды лиц. С вк искать вручную долго, там все телки одинаковые + фотки говно
270 1326088
>>26038
mmlab.ie.cuhk.edu.hk/projects/CelebA.html
Без очков сам отбрери
271 1326089
А, в хайрезе это celeba hq https://github.com/nashory/pggan-pytorch/issues/21
272 1326133
>>25808
По мне звучит норм. Видел люди пилили CFD нейроночки
273 1326270
Подскажите пожалуйста, что происходит в строке 46, почему минус 1:
delta3[range(X.shape[0]), y] -= 1 #yhat - y

https://github.com/jldbc/numpy_neural_net/blob/master/three_layer_network.py
274 1326395
>>24801
Блядь что ты несёшь уёба? Вам дали ИИ, системы обучения, кучу алгоритмов по распознаванию лиц, жоп пёзд и прочего. НЕТ МЫ БУДЕМ ПРО MVC В PHP РАССКАЗЫВАТЬ, ЭТО ВЕДЬ ЕБАТЬ КАКОЕ НОВШЕСТВО!
275 1326625
>>24492
Тебе нужен GMM/HMM + expectation maximization. Скачивай kaldi, там вся эта хуйня в готовом виде.
276 1326627
>>26625
Добавлю. Конкатенативный TTS это гавно мамонта. Настоящие пацаны используют нейронки для синтеза.
278 1326634
>>20507
pymorphy2.
Python, правда.
279 1326822
>>26628
Мне только такие вакансии и попадаются, а ты шутки шутишь.
281 1326859
>>26628
Это с вычетом соженного электричества нейрофантазерами
282 1326860
>>26854
Видео не смотрел, но телку выебал бы
Hopfield-net.png22 Кб, 406x423
283 1326924
Скоро дедлайн на ICML, и снова жопа в огне.
Снова тяжело.
Есть ли здесь еще титаны? Давайте превозмогать вместе.
284 1327000
https://youtu.be/1WtZM9LvHKI
Объёб гоев на даллары усиливается.
285 1327003
>>27000
Никогда такого не было и вот опять
286 1327172
Есть смысл лезть в ДатаСаянс, если я не дружу с мат статистикой и ненавижу возиться с визуализацией(графики, гистограммы, вот это все)?

На каком уровне вообще нужно знать мат. статистику для комфортной работы с машобом?
288 1327425
>>27253
Какое то гавно, делал подобное, у меня в 3 раза лучше получалось.
289 1327428
>>27172
Я хуй знает почему датасайнс мешают в одну кучу с машобом, но на мой взгляд это разные вещи. Если просто в нейронки вкатиться, то матстат тебе не особо нужен. Хотя, читал где-то альтернативное мнение, что в датасайнс идут те, кто не осилил нейронки.
image.png293 Кб, 600x398
290 1327447
>>16698

>Сколько котов на пикрил?


Тебя ебет?
292 1327493
>>27447
в ебыч на
293 1327497
https://www.youtube.com/watch?v=zvGeLvWZ7yQ
О, нью эйдж кайнда гай, с крашеной волоснёй рекламирует перед зеленоротыми задротами нейромагию, которая позволяет ничего не знать. Просто хуячишь в чёрный ящик и всё работает)). Классика.
294 1327513
>>27453
Нельзя быть настолько тупым чтобы сообщить о своих открытиях относительно природы разума и умным чтобы совершить такое открытие. Умный но тупой, именно это поистине неразрешимый человеческий парадокс.
296 1327536
>>27453
Даже не читал. ИИ можно создать, создав точную копию мозга.
297 1327546
>>27453
ученый в очередной раз изнасиловал журналиста
298 1327547
>>27517
Хули тебе не нравится? Я тебе пересказал статью в двух словах, как ты решишь этот парадокс?
299 1327554
>>27547
Ты шизу какую-то пересказал, которую тебе голоса нашептали, а не статью. Суть статьи (оригинальной в nature, а не этого говна в форбсе) в том, что математики нашли аналог проблеме остановки в каком-то кастрированном варианте машоба. Ну и хуй с ним, проблема остановки не привела программирование к карачуну.
Мне их выводы скорее очевидны были, не умаляя их заслуг как математиков.
300 1327567
>>27554

>Оригинальной в nature


>А сам запостил хуйню с форбс


Тогда дальше

>We describe simple scenarios where learnability cannot be proved nor refuted using the standard axioms of mathematics


Этого её можно и не читать.
301 1327569
>>27554
Одни необразованые безответственные говени написали статью на форбсе, другой её перепостил, третий пересказал и его назвали шизиком, да пошли вы нахуй просто.
302 1327575
>>27567
Полегче, я ничего не постил, постил не я
303 1327624
>>27497
пять минут послушал, ни хуя не понял, какой то стиль подачи материала как у торгаша
304 1327635
>>27547
Ты какую-то бессвязную чушь написал, не имеющую смысла. У нас здесь не литературный кружок.
305 1327636
>>27624
Он и есть торгаш. Как вы этого пидора не знаете, он же хуйню несёт уже сто лет.
306 1327651
>>15967 (OP)
Сеть из 2-3 полносвязных слоёв всегда запоминает треноровочную выборку (при условии, что количество нейронов в слоях не меньше размерности данных)? Я именно про запоминание, а не обучение, говорюниасилил даже это
307 1327658
>>27453
Когда маняматики начинают хвелософствовать - явно проступает шиза. Считали бы свои производные и не выебывались.
308 1327661
>>27651
обучение=запоминание, вопрос в том, что она запоминает
309 1327670
>>27661
Хочешь сказать, что нейронка не сможет запомнить несолько мегабайт белого шума?
310 1327920
Погодьте, но ведь насколько я понимаю теорема Арнольда утверждает что любую функцию можно аппроксимировать нейронкой в том смысле что найдется такая структура сети и такой набор активационных функций что функция точно представима как композиция таких и суммирование с весами. Это не значит что мы можем взять какую-то сетку, какие-то стандартные активационные функции и надеяться что случайно взятую функцию мы можем так представить.
311 1327945
>>27920

>теорема Арнольда


Ознакомтесь с лемой Жопеншмульцера
312 1327974
А есть тут анон, желающий вместе со мной написать говорилку под Android? Пока думаю обмазаться deeppavlov'ым, но готов рассмотреть другие варианты.
313 1327979
>>27651

>Сеть из 2-3 полносвязных слоёв всегда запоминает треноровочную выборку (при условии, что количество нейронов в слоях не меньше размерности данных)


Ну а как бы ты это вручную задизайнил?

Нужно взять входные данные, посчитать расстояние между ними и тренировочной выборкой. Найти у этой хуитки минимум (в смысле [0.1 0.4 0 5 10] превратить в [0 0 1 0 0]. Затем перемножить результат этого минимума с матрицей выходных данных.

То есть минимум получается уже в первом слое "размерность входных данных умножить на число тестовых примеров", а во втором слое - "размерность выходных данных умножить на число тестовых примеров".

На деле больше, ведь поиск расстояния нелинеен.
314 1328025
Какими навыками нужно обладать, чтобы вкатиться в двихужу с машобом и нейроночками? Действительно ли это актуально, аля .com или все это оверрейтед и будут кормить бананами? Дискасс.
315 1328160
>>28025
Нужно уметь делать бочку. Я серьезно.
316 1328781
>>28025
Надо знать что такое линейная регрессия, знать python и уметь умножать матрицы. Про матрицы я серьезно, без них нихуя не поймешь.
317 1328846
Что делает на работе типичный датасайн?
Какие задачи решаются ежедневно, какие крупные задачи на неделю, на месяц?
Какие инструменты регулярно используются?
Интересуюсь тк мне предложили вакансию по сабжу, хочу понимать что меня ждёт в случае успеха.
318 1329246
>>28846
Датасайн работе с данными подобен. Задачи решаются, и на месяц и годец типичное задание преобразование данных в информацию полезную бизнесу и подобие работы выполнений сладостных. Инструментыы тоже имеются как и в любой пролетарской позиции рабочего места ибо и руки и голова используется постоянно. В случае успеха ждут горы золотца сверху базовых накоплений каких-то гнилых овощей.
319 1329303
>>29246
Вот и генераторы текста подтянулись
320 1329372
>>29246
Ага. На самом деле будете писать ботов для двача. Оплата бананами.
321 1329377
>>15967 (OP)

>первый пик


>are belong to us


Что за дичь, это же грамматически неправильно.
322 1329379
>>29377
lurk more
323 1329383
>>29379
Ох бля, даже не знал про это, благодарю.
324 1330131
Двощ подскажи книг по матану который реально нужен в Машобе, в которых очень быстро переходят от теории к практике (в смысле математической, примеры, решения, задачи для практики). В будущем хочу вкатиться в машоб (сейчас веб макака), а на данный момент хочу улучшить сообразительность и скорость решения задач (программистских). Спасибо.
325 1330136
>>30131

>по матану который реально нужен в Машобе


Eduard Zhopenzchmulzer
"Математика от теории к практике, ускоренный курс"
326 1330139
>>30136
Звучит как по заказу. Спасибо.

Ещё такой вопрос, как лучше обучаться? В смысле следует ли по мере изучения делать какие-нибудь конспекты чтобы лучше запоминалось, или прочтения и решения задач хватит?
327 1330141
>>30136

> Eduard Zhopenzchmulzer


> "Математика от теории к практике, ускоренный курс"


Бля, это был троллинг?
328 1330235
>>30136

> Zhopenzchmulzer


Это типа теоремы Сосницкого?
329 1330683
Недавно взял ноут, в нем оказалась в целом-то нахуй мне не нужная йоба-видюха жефорс МХ150, ибо в игоры не играю (других подходящих моделей с 8гигами памяти не было). Погуглил, норот на таких видюхах тензорфлоу этот ваш гоняет. Почитал по установке, это ж пиздец полный, попроще его нельзя поставить? Или чтото более другое для нейронок, хотелось бы немного пообмазываться, не пропадать жи добру.
330 1330690
>>30683
pip install tensorflow
331 1330693
>>30690
Лолнуб
pip install tensorflow-gpu
332 1330699
>>30693
Ага, щас. Там еще перед этим дохуя всего нужно ставить.
333 1330708
>>30699
третий питон и virtualenv? да, дохуя
334 1330710
>>30708
Куда, хуюда, куднн, хуюднн, пистон, докер, хуекер, ...
335 1330713
>>30710
Если ты даже установку tensorflow не осилишь, то дальше тебе в МЛе делать нечего
336 1330729
>>30683
небось на винде сидишь?
337 1330732
>>30713

>даже установку tensorflow


Вообще-то, это самая сложная часть дата сосаенса.
image.png10 Кб, 400x45
338 1330752
Аноны, поясните нубу-вкатывальщику, куда в этой формуле в p(x | theta) делась D? То есть, разве не будет правильно p(x | theta, D)? Это же формула ПВ? Я не могу понять, какое свойство они использовали, чтобы D выбросить.
339 1330755
>>30752
Единственное, что могу предположить, это раз они все зависимы, то зависимость от D передается y через theta. Но это не очень вяжется с формальными правилами.
340 1330757
>>30683

>йоба-видюха жефорс МХ150


Проиграл. Это же говно какое-то.
tf.png61 Кб, 1498x494
341 1330886
>>30699
Да ну. Только сегодня ради прикола поставил на венду. Вроде работает. Единственное, на чём запнулся - нужны 64х-битный питон и nightly-версия
342 1330893
>>30732
Двачую. Вообще мл на пятоне тот еще пердолинг. Лучше сразу на крестах вкатываться.
343 1330902
>>30893

>Intel Software Developer Manual на столе во всей своей четырёхтомной красе


>распечатанный список AVX2-интринсиков (остальные ты и так помнишь наизусть) рядом


>vtune и IACA на втором мониторе


Итак, сегодня можно продолжить делать быстрейшую в мире кластеризацию синих выхухлей. Правда сегодня выяснилось, что нужно добавить ещё один параметр в модель, что изменит тонко подобранное расположение всего и вся в памяти и приведёт к ненужным L1-миссам, из-за чего добавится тактов 10-12 к каждой итерации цикла, что категорически недопустимо. Но ничего, за пару недель работы можно соптимизировать.
344 1330920
20 января 2019 года, где мой ИИ?
345 1331055
>>30902
Архитектура уровня /b/.
346 1331194
Вот я слышал в одной из лекций что сейчас много людей приходят в датасаенс из разных областей. Правда могут взять левых людей кто прошел курсы, а работал скажем технологом на заводе, или там иненером в машиностроении, или например геодезистом, или залупологом????

Я просто думаю что много людей и крутых матфаков вкатываются, а на рынке не так много мест рабочих в датасаесе и машобе. Не получится ли так что все эти самоучки с левым образованием окажутся не у дел., а набирать будут только молодняк с топовым физмат образованием?
sage 347 1331240
>>31194
А ты сам как думаешь?
348 1331364
>>27974

> А есть тут анон, желающий вместе со мной написать говорилку под Android?


Гугл TTS чем плох? Маловероятно, что ты сделаешь лучше. Говорилка не помешала бы на пекарню, ибо лучшее что есть - alyona rabotaet hrenova из 2008 года.
>>27920

> Погодьте, но ведь насколько я понимаю теорема Арнольда утверждает что любую функцию можно аппроксимировать нейронкой


Эта теорема вообще не про нейронки. А про то, что любая функция от многих аргументов аппроксимируется суперпозицией функций от 2х аргументов. Что в том числе служит объяснением как вообще они работают.

> Это не значит что мы можем взять какую-то сетку, какие-то стандартные активационные функции и надеяться что случайно взятую функцию мы можем так представить.


Все зависит от того, что за функция. Если функция представима в виде полного степенного полинома VKG (Вольтерры- Колмогорова -Габора), то она всегда представима в виде т.н полиномов Ивахненко. И так далее.
>>27945
С мамкой твоей ознакомился, хуета какая-то.
hqdefault.jpg11 Кб, 480x360
349 1331417
>>31364

>Вольтерры- Колмогорова -Габора


Писька Жопо Гоблина
350 1331653
>>31240
Зачем тогда все это говно учить - только время терять просто так, все равно устроятся на работу малая часть людей, пару процентов от 100, остальные так и будут годами что-то вяло ковырять.
351 1331656
>>31653
Нихуя ты прозрел, бротиш)
352 1331821
>>31653

> все равно устроятся на работу малая часть людей, пару процентов от 100,


Рабу только бы жопу дяде продать занидорага.
>>31417
Пиздец ты унылое хуепутоло.
353 1331996
>>31821
На жизнь то надо как то зарабатывать. Твои предложения как?
354 1332004
>>31996
Родиться в богатой семье.
355 1332442
>>31996

> На жизнь то надо как то зарабатывать. Твои предложения как?


Т.е ты не знаешь как заработать на жизнь без машобчика?
356 1332449
>>31194

>Правда могут взять левых людей кто прошел курсы, а работал скажем технологом на заводе, или там иненером в машиностроении, или например геодезистом, или залупологом


Все не так. Работаешь на заводе, вдруг в соседнем отделе внезапно возникает датасаенс-задача, которых, вообще-то дохуя. И у завода есть два стула, искать хуя с горы за 300к в секунду (и завод скорее всего просто забьет и посадит тетю Машу ковырять говно в ручную), или сказать толковому васе-залуплогу, мол, вася, есть такая задача.
А васю заебало работать залупологом, он берет, импортирует слесарьплов и решает задачу.
Хотя курсы, конечно, хуйня. Все упирается в твой интеллект.

>Я просто думаю что много людей и крутых матфаков вкатываются


На матфаках до сих пор учат как проектировать ракеты с технологиями 70-х годов. Люди оттуда куда только не вкатываются, в финансы те же и даже во фронтэнд. Инфа 100%, у меня тян с матфака и я смотрю на ее круг общения, ничего особенного в плане работы там нет. Понятно, что через 5 лет будет, но это потому что люди сами по себе не тупые, а не из-за образования.
357 1332453
>>31996
Я другой аноним, я в Мухосрани живу, знаю двух пацанов, которые очень сильно математикой увлекались. Оба нейронки и машинное обучение задрачивали, но в Мухосрани таких вакансий нет. Оба пошли в МухГУ и стали диссертации писать по машинному обучению. А на жизнь зарабатывают так: один бухгалтерские расчеты делает в зашкварной по меркам итт this этого данного треда в 1С-ке. А другой армию дитачек учит ЕГЭ на 100 баллов задрачивать. Такие дела епта, бля! Понял нет!

Ладно, я шучу, но примеры ИРЛ из жизни, как она есть. Шутка, это плохие примеры, не слушай меня. Слушай себя.
358 1332454
>>32453
Ты бы еще про Зимбабве кулстори задвинул.
359 1332456
>>32454
Я из Зимбабы, ты че сука, че то против Зимбабы имеешь? Я пацанов математиков позову, они тебя вычислят.
360 1332457
>>32456
Я сравнил Зимбабве с российской мухосранью, но ты прав, это слишком для Зимбабве, сорян.
361 1332458
>>32457

>сорян


Поздно извиняться, ходи, оглядывайся теперь.
362 1332489
Можете посоветовать хороших статей (не обучающих, а исследований) по keyword extraction и sentimental analysis
363 1332720
>>32449
Ты про какой-то матфак в саратове говоришь?
364 1332731
>>32720
мехмат, вмк, физфак, бауманка, вышка
Везде единичные примеры - я не буду пиздеть о том, что у меня охуенный круг общения в 200 человек, но тем не менее.
Вышка исключение, кстати, но человек оттуда тоже страдает какой-то хуйней типа репетиторства.
365 1333163
>>32731

>круг общения в 200 человек


>мехмат, вмк, физфак, бауманка


В Мак Дональдсе на тимбилдинге познакомились?
366 1333183
>>33163
Как с дислексией живется?
367 1333194
>>33183
Ты как с клиентом разговариваешь? Бери швабру и иди мой сортир.
368 1333250
>>33194
Каким нахуй клиентом, маня. Я не знаю, кем нужно быть, чтобы прочитать фразу "я не буду пиздеть о том, что у меня охуенный круг общения в 200 человек", будто бы у меня круг общения в 200 человек. Это совсем дауном нужно быть. С такой способностью читать ты не то, что моим клиентом не будешь, я тебя в магазин за хлебом не пущу - ты неправильно прочитаешь список покупок и купишь вместо хлеба дилдак, потому что хлеб на букву х начинается.
369 1333254
>>33250

>дауном нужно быть


Ок.
370 1333275
Как же горит тут какому-то отребью от того что он никак что такое производная понять не может. Зато постеронию усвоил))
371 1333292
>>33275

>производная


жидовские выдумки НЕНУЖНЫ

>постеронию


Мемология это важнейшая из наук в 2к!9 году.
372 1333295
ноги воняют
а вроде вчера мылся
373 1333333
Обожаю этот трехед, где можно унижать маняматиков и прочий теоретический скам который нихуя не может кроме чтения паперов и перманентного бугурта.
374 1333335
>>33275

>производная понять


Открыл гугл, прочетал и решил нужную задачу, а не 5 лет задрачивать никому не нужное говно.
375 1333358
>>33333
тут никого нет кроме школьников-неосиляторов, усердно троллящих друг друга
376 1333414
Здравствуйте, я веду замкнутый образ жизни, имею плохую память и плохо знаю свою Мухосрань даже те места, где часто хожу, ибо пробегаю, не запоминая обстановку. Ладно, это вступление. В общем мне нужен репетитор по математической части машинного обучения. Я нашел какого-то городского математика, увешанного грамотами и медалями, доктор всех наук, 500-кратный чемпион мира по математике, квадратная академическая шапка с золотыми дубовыми листьями, серебряными мечами, усыпанная бриллиантами.

Так как я нищук, то ноутбука у меня нет. Подскажите, пожалуйста, существуют ли кафе или еще какие-то заведения, где можно засесть и на три часа арендовать ноутбук?
377 1333421
>>15967 (OP)
Здесь кто-нибудь пытался найти работу/нашел работу в области компьютерного зрения?
Действительно ли нужно быть выпускником мехмата, чтобы твое резюме хотя бы прочитали? Слышал, что в датасаенсе такое часто бывает, особенно в москве, где полно выпускников разных мгу/мфти/вшэ.
378 1333462
>>33414
Квартира хоть есть? Купи пеку десятилетней давности за тысячу рублей
379 1333496
Сап, нейронач. Недавно приступил к такой теме как нейросеть Хопфильда. Вначале по правилу Хеббиана через Numpy по гайду одному написал и все прекрасно работало, мы умножали входящую поврежденную инфу на веса, "округляли" до 1 и -1 и так раз 5 для уверенности. И вот проблема оказалась в понимании реализации градиентного спуска для нейросети Хопфильда с помощью Tensorflow. Нейросеть то я написал, прописал loss-функцию и обучил прекрасно и она заработала идеально. Только вот потом уже я заметил, что пропустил округление промежуточных результатов.

То есть вместо классической схемы
Повторить 5 раз:
----Поврежденная инфа = округлить(поврежденное инфа веса)

У меня вышло
Повторить 5 раз:
----Поврежденная инфа = поврежденная инфа
веса
Поврежденная инфа = округлить(поврежденная инфа)

Короче пытался переписать правильно, ведь по сути она же должна шагами двигаться, каждый раз получая новую репрезентацию активации нейронов как все описывают в лекциях на эту тему, а не умножать все по пять раз подряд, ток в конце получая результат. Но в другом случае нейросеть просто оказывается необучаема. Округления посередине мешают. В чем проблема? Может я что-то не понимаю? Описывается всеми почему-то именно так в теории, что на практике мы должны округлять каждый наш шаг и доводить до -1 либо 1, хотя тут уже и я засомневался. Хочу понять саму суть почему все именно так происходит.
380 1333497
>>33496
Сука, разметка знаки проебала

То есть вместо классической схемы
Повторить 5 раз:
----Поврежденная инфа = округлить(поврежденная инфа УМНОЖИТЬ НА веса)

У меня вышло
Повторить 5 раз:
----Поврежденная инфа = поврежденная инфа УМНОЖИТЬ НА веса
Поврежденная инфа = округлить(поврежденная инфа)
381 1333514
>>30752
Бамп
382 1333554
Бля, как классифицировать если классы в датасете представлены пизда не равномерно? до в сто раз больше доходит.
383 1333611
>>33554
Бутстрапируй
384 1333634
>>33611
А в экстремальном случае, когда на класс всего один сэмпл?
385 1333640
>>33634
Молись, постись, аугментируй
мимокрок
386 1333722
Я прошел курс на stepic.org про нейронные сети. Какую-то базу понял, но очень многого еще не знаю. Теперь пробую читать статьи к Keras. Там все время фигурируют три термина: Validation, Estimate, Evaluate, я их не могу различить, не могу понять, что есть что.

Где можно прочесть про Validation, Estimate, Evaluate, чтоб стало точно понятно, чем они друг от друга отличаются?
387 1333738
>>33414
пк бывают в библиотеках и учебных заведениях. В ДС есть коворкинги. Если есть планшет, то можно купить к нему клавиатуру (можно даже и без клавиатуры) и выучить забесплатно весь машоб на http://colab.research.google.com/ или на том же kaggle.com
388 1333758
Есть какое-нибудь ньюби френдли комьюнити для совместного решения/обсуждения задач на каком-нибудь кагеле? Только вкатываюсь в это дело и нужен кто-то кто будет обсирать мои решения и пояснять почему так делать не стоит.
389 1333786
>>33758
В OpenDataScience слаке есть подобный канал
390 1333821
всем привет я из php как сюда вкатиться на 300к
391 1333831
>>33821

>я из php


Ты слишком крут для местных теоретиков
392 1333864
А что будет если сделать глубокий перцептрон с очень узкими слоями и разреженными матрицами весов но с огромным их количеством? Будет ли он лучше обычного однослойного в чём-то?
393 1333873
>>33864
Все упрётся в проблему троутинга, если глубина перцептрона окажется слишком большой, то он просто разорвёт твои узкие слои, после придется ходить к проктологу и зашивать твои разреженные матрицы.
394 1333874
>>33864

>Будет ли он лучше


да, он будет узенький
395 1333895
>>33864
Больше трех слоев мало смысла из-за vanishing gradients. Нужно хотя бы residual связи делать.
396 1333971
>>15967 (OP)
помогите, плез, слоупку
уровень IQ и ангельского не позволяют понять одну из частей работы

http://rodrigob.github.io/documents/2014_eccv_face_detection_with_supplementary_material.pdf
http://videolectures.net/eccv2014_mathias_face_detection/

просто нихуя не одупляю benchmark issues и решения этих проблем
можете пожалуйста разжевать кто нибудь, что они делают с датасетами, чтобы они подходили для сравнения разных детекторов, а то я совсем даун
397 1333975
>>33971
Ты чо охренел? Там на английском.
398 1333976
>>33975
ну извини, было бы на русском, я бы сюда не писал (
399 1333995
>>33971
Правильно ли я понимаю, что ты хочешь, чтобы кто-то потратил час своей жизни на то, чтобы ответить на твой вопрос?
400 1334002
>>33995
на видео 4 минуты по интересующему меня вопросу, так что сомневаюсь, что человек с нормальным знанием английского потратит на это час своей жизни
401 1334010
>>34002
Видео 18 минут. Короче, пишу прямо: ты долбоеб и ленивое чмо, которое даже нормально задать вопрос не может.
Нормально было бы сказать конкретный таймлайн сразу.
У тебя нихуя в машобе не выйдет, потому что человек, который даже вопрос задать не может, не имеет достаточно интеллекта, чтобы заниматься этим.
402 1334032
>>34010
ебать мой хуй, сколько категоричности, не написал таймлайн, в 18 минутном видео, где интересующая тема начинается с 28 блять секунды, сам не понял что спросили, а я долбоеб и нихуя у меня не выйдет

не пиши больше, с тобой все ясно
403 1334048
>>34032>>34002

>это тупое мелкобуквенное быдло


Голос.
404 1334054
>>33995
Пиздец, ты хуже говна, если тебе нужен час, чтобы осилить 18 минутное видео
405 1334062
>>34054

>этот маняврирующий быдларий


Соси хуй, быдло.
406 1334079
>>34032

>ебать мой хуй, сколько категоричности, не написал таймлайн, в 18 минутном видео, где интересующая тема начинается с 28 блять секунды


И как я должен был это узнать? Ты совсем аутист ебаный что ли.

>сам не понял что спросили


Я понял, что спросили - открыть две ссылки, просмотреть их целиком, чтобы найти benchmark issues, и потом разржевать тебе это.

В этих 4-х минутах говорится о том,
1. В популярных датасетах криво размечены данные, в итоге методы, которые работают верно, оцениваются неверно. Например, если алгоритм выдает квадрат лица чуть больше, чем размеченный в датасете, это будет считаться false positive. Некоторые лица не размечены вовсе - а значит правильно работающий алгоритм будет оценен как false positive
2. В разных датасетах разные прямоугольники считаются лицом - кто-то отмечает лицо целиком, а которо только глаза и рот. Кто-то игнорирует лица начиная с какого-то размера, а кто-то с другого размера, в итоге для разных датасетов нужно настраивать алгоритм на игнор разных лиц. Это все приводит к тому, что алгоритм, тренированный на одном датасете, на другом работает, как его учили, а не так, как считает тот, кто размечал датасет.

На этом 4 минуты закончились.

Как решение, они переразметили датасеты, чтобы они подчинялись одной логике в плане того, что считать лицом, и имели меньше ошибок. Ломающие новости, оказывается, в машобе самое важное - качество датасета.

В целом это все типичное научное каглодрочерство - наши алгоритмы сосут (а они правда сосали до нейронок), поэтому мы переразметим датасеты так, чтобы они выглядели получше.

Доклад 2014 года и без нейроночек, в нем полезной информации для 2019 минимум. Нейроночкам похуй на этот датасетодроч, они на любом криво размеченном говне тренируются, главное, чтобы этого говна побольше было. Хочешь разобраться, читай cs231n и про детекторы YOLO, SSD, не хочешь - бери MobileNetSSD или что-то подобное и используй. На подобную хуйню время не трать.

>>34054
В оригинальном вопросе нет никакого видео. Там две ссылки в стиле "ебись, анон, как хочешь, я ведь нихуя не одупляю".
406 1334079
>>34032

>ебать мой хуй, сколько категоричности, не написал таймлайн, в 18 минутном видео, где интересующая тема начинается с 28 блять секунды


И как я должен был это узнать? Ты совсем аутист ебаный что ли.

>сам не понял что спросили


Я понял, что спросили - открыть две ссылки, просмотреть их целиком, чтобы найти benchmark issues, и потом разржевать тебе это.

В этих 4-х минутах говорится о том,
1. В популярных датасетах криво размечены данные, в итоге методы, которые работают верно, оцениваются неверно. Например, если алгоритм выдает квадрат лица чуть больше, чем размеченный в датасете, это будет считаться false positive. Некоторые лица не размечены вовсе - а значит правильно работающий алгоритм будет оценен как false positive
2. В разных датасетах разные прямоугольники считаются лицом - кто-то отмечает лицо целиком, а которо только глаза и рот. Кто-то игнорирует лица начиная с какого-то размера, а кто-то с другого размера, в итоге для разных датасетов нужно настраивать алгоритм на игнор разных лиц. Это все приводит к тому, что алгоритм, тренированный на одном датасете, на другом работает, как его учили, а не так, как считает тот, кто размечал датасет.

На этом 4 минуты закончились.

Как решение, они переразметили датасеты, чтобы они подчинялись одной логике в плане того, что считать лицом, и имели меньше ошибок. Ломающие новости, оказывается, в машобе самое важное - качество датасета.

В целом это все типичное научное каглодрочерство - наши алгоритмы сосут (а они правда сосали до нейронок), поэтому мы переразметим датасеты так, чтобы они выглядели получше.

Доклад 2014 года и без нейроночек, в нем полезной информации для 2019 минимум. Нейроночкам похуй на этот датасетодроч, они на любом криво размеченном говне тренируются, главное, чтобы этого говна побольше было. Хочешь разобраться, читай cs231n и про детекторы YOLO, SSD, не хочешь - бери MobileNetSSD или что-то подобное и используй. На подобную хуйню время не трать.

>>34054
В оригинальном вопросе нет никакого видео. Там две ссылки в стиле "ебись, анон, как хочешь, я ведь нихуя не одупляю".
407 1334423
Так я не понял. Keras все таки по умолчанию использует ускорение на GPU. Или там надо команды писать типа "зе программа юзай Графический процессор"!

И еще вопрос - умеет ли Keras в ускорение GPU или нужны какие-то tensorflow команды написать, чтобы использовать ускорение на GPU?

Если что использую для запуска программ Google Colaboratory
408 1334424
>>34423

> Так я не понял. Keras все таки по умолчанию использует ускорение на GPU. Или там надо команды писать типа "зе программа юзай Графический процессор"!


Керас это надстройка над слесарьпловом (и не только). Логично предположить, что использование видюхи зависит от конкретной установки слесарьплова, если он у тебя в ГПУ версии, то и через керас будет использоваться видюха.
409 1334428
>>34424
Не знаю, это же не моя пека, а Google Colaboratory. Я могу там только галочку поставить в настройках GPU Acceleration. А так я не очень понимаю как там все устроено.

То есть если там последняя версия Keras, то оно по умолчанию может использовать GPU Acceleration?
411 1334477
>>33895
Блять, выучи что такое ванишинг градиент сначала.
>>33864
Он может быть лучше, но врядли будет. Однослойный перцептрон на самом деле почти ничего не может, но и пецептрон со сколько угодно слоями тоже не сможет, если у него слои эти узкие, так как просто вектор слишком маленький будет для передачи информации. Да и вообще если ты расширяешь свою сеть, то готовься к андерфиттингу.
412 1334478
>>33496

>проблема оказалась в понимании реализации градиентного спуска для нейросети Хопфильда с помощью Tensorflow


В голос с тебя.
413 1334494
>>34477

>Блять, выучи что такое ванишинг градиент сначала.


Это ровно то, что я описал, пидор ты ебаный.

>Да и вообще если ты расширяешь свою сеть, то готовься к андерфиттингу.


При усложнении модели нужно готовиться к андерфитингу? Вопросов больше не имею
414 1334540
>>34470
Спасибо большое, надеюсь это поможет понять про GPU.
1.jpg71 Кб, 973x347
415 1334603
Я шарюсь в Google Colab, запустил следующий код на пике. Там написано:
CPU: 0
XLA_CPU: 0
Скажите, пожалуйста, это один и тот же CPU или это два разных CPU?
416 1334623
>>34603

> Скажите, пожалуйста, это один и тот же CPU или это два разных CPU?


Один и тот же, там же написано цпу0.
417 1334627
>>34623
Ок, спасибо, а как понять, что такое XLA_CPU:0 - как понять, что это за эфирная субстанция? Почему он напечатан отдельной строкой от CPU:0?
418 1334634
>>34623
Ну, то есть я загуглил, что такое XLA (Accelerated Linear Algebra). Но я не понял насчет CPU:0 и XLA_CPU:0. Если это один и тот же CPU, а не два разных, то почему он не называется одним названием, например, XLA_CPU:0. Хочу узнать - почему же у него два названия?
Untitled.png2,8 Мб, 3000x889
419 1334875
>>27493
Бля, больна
420 1335534
Расскажите о работе датасайнтистов.
Как проходит типовой рабочий день?
Какие задачи решаются ежедневно?
Какие задачи на неделю, на месяц, какие долгосрочные задачи?
Кто ставит задачи и кто контролирует качество выполнения?
хочу заранее знать что меня жлёт
421 1335540
>>35534
нираскажем
422 1335572
Какта прощелкивал лекции по этим вашим сеточкам (коих немерено как говна) и одну лекции читала тянучка. Очень даже я бы не отказался чтобы она глубоко отобучила меня с подкреплением страпоном. Хочу еще разок на нее глянуть но никак не могу найти. Лекции были в каком то из рашко-вузиков на весьма высоком уровне (на сколько может быть высоким уровень сеткоговен), читали их по очереди разные вчерашние/сегодняшние студентики. Анон, выручай.
423 1335581
>>35572
https://youtu.be/RviskFqwF3M
Мб этот курс, тут некоторые лекции как раз тянучки ведут (даже 2)
Безымянный.png149 Кб, 279x392
426 1335595
>>35593
Нейробратушка
index.jpg63 Кб, 763x429
427 1335596
>>35581>>35583
о да детка обучай меня глубоко
428 1335601
>>35596
Почему нейроговноеды даже графики не удосужились перевести?
1535128474758.jpg36 Кб, 210x472
429 1335649
>>35596

>в одну кучу свалены эмпирический риск, функции потерь i и logloss и градиентный спуск

430 1335693
>>35540
Понятно что ты не расскажешь. Я практикующих датасайнтистов спрашивал, а не школьников.
431 1335771
>>35596
https://youtu.be/1-GWn5uYvsc
Лови ещё, раз тебе так зашло
432 1335798
>>35771
Потрясная тянучка, с юным голоском и сексуальным ошейником, ДА!!!!!!!!!!!!
433 1335826
>>35693

> Я практикующих датасайнтистов


таких нет, они здест все кукаретики
434 1335827
>>35798
всратка
435 1335969
>>35827
Ну хз, лицо широковато слегка, но зато голова в целом большая, лоб прямой и высокий да цефальный индекс отличный
436 1336146
>>35969

>но зато голова в целом большая


Это хорошо что ли?
437 1336170
>>35826
Значит я буду первым. Если меня возьмут.
438 1336281
>>36146
Ну это увеличивает вероятность наличия высокого интеллекта
439 1336355
>>15967 (OP)

>2.jpg


Почему чем больше слоёв тем больше андерфитинга?
440 1336383
>>36355
Vanishing gradient time
15459032912361.jpg548 Кб, 1595x962
441 1336532
>>15967 (OP)
Я прошел на stepic.org курсы по pyhton и по нейронным сетям. Там они все время говорят биоинформатика - то биоинформатика - се. Короче, все время за биоинформатику топят.

И мне стало интересно, скажите, пожалуйста, а эти хваленные программисты-биоинформатики, они только матстатистику, машинное обучение знают или они еще и в медицину углубляются и шарят в генетике и вычислениях протеинов? Или только ученые-медики шарят в генетике и вычислениях протеинов, а программисты-биоинформатики только лишь технически работают с данными, не заморачиваясь с пониманием биологии, химии, генетики и вычисления протеинов?
442 1336629
>>36532
Здорова хома
443 1336661
>>36629
Здорова, а можно ответ на вопрос -->
>>36532
?
444 1336665
>>36532
Никто ни в чем не шарит, ни медики ни тем более маняматики, уймись уже.
445 1336669
>>36665

>Никто ни в чем не шарит


По себе не суди
446 1336670
>>36669
А я не по себе, я вот по таким как ты нейрозадротам сужу
447 1336680
>>36670

>как ты


Ты зенки бы продрал. Повторяю для тех, кто не умеет читать и не прошел начальную школу. Я не занимаюсь нейронными сетями, я лишь нашел тред и задал вопрос.
448 1336683
>>36680

>я лишь нашел тред и задал вопрос.


Слушай учительницу и не отвлекайся
449 1336685
>>36683

>нет ты сам такой


Школьники, школьники never change.
450 1336711
>>36532
Все таки какое-то знание у них должно быть. Не поверхностное, но и не очень глубокое. Обычно с ними вместе работают тру-биологи.
451 1336716
Ну что массово перекатываемся на PyTorch? Не вижу никаких достоинств у TensorFlow, ради которых за него стоит держаться. Только импортируемый визуализатор да возможность использовать на мобилках (в которой пока что PyTorch слегка сложнее в реализации) Статичные нейронные сети и не питонический синтаксис, где вместо даже вместо простых if else нужно писать tf.map_fn(cond, do_this, do_that), что ебическая функция недружелюбная. И все по одной дорожке вести каждый раз и лучше максимально простой, иначе бобонет и ебанешься исправлять все.
452 1336738
>>36716
Проще привыкнуть и лечь под тензорфлоу.
453 1337008
>>36383
Погуглил. Как я понял всё из-за активационных функций, производная слишком ограниченная. Почему нельзя просто нормальных функций взять?
454 1337010
Уже месяц где-то вкатываюсь в нейронные сети, и хоть я пиздец какой тупой, но за пару недель вкатывания, курсов и матана я начал уже более-менее разбираться в теме, есть тут такие же упоротые? Посоветуйте чего почитать, я уже примерно понимаю в чём суть, как там веса и баяс подкручивать, всякие адам оптимизации и тд, куда лучше вкатываться, в керас или тензорфлоу? Или там надо и то и другое, с чего начинать? Какой проектик можно запилить для начала с нейронками?
455 1337013
>>37010

>Какой проектик можно запилить для начала с нейронками?


Поиск негра на картинке
456 1337016
>>37013
такое в резюме не вставишь
457 1337023
>>37016

>такое в резюме не вставишь


Тогда полегче, ищи светофоры.
458 1337122
>>15967 (OP)

> АХАХА ПЕДОРАШКА ТУПАЯ НУ КОКОЙ ЕЩЁ ЦЕФРОВОЙ ГУЛАГ ПРОИГРАЛ С ПАДЛИВАЙ ИДИ ШАПОЧКУ ИЗ ФАЛЬГИ НАДЕНЬ ПОСМОТРИ ЛУЧШИ КАКОГОНИБУДЬ НАУЧПОПА СТОТЕЕК ИЗ АРХИВА ПАЧЕТАЙ


https://en.wikipedia.org/wiki/Social_Credit_System
459 1337125
>>37008
Ну в комиксе не взяли, в этом и юмор.

А так - каких, например? ReLU имеет в 2 раза меньше насыщений, но ровно одно (для x<0). Вот и попробуй придумать монотонную функцию без насыщений, которая при этом не y=x (линейная нам не подходит).
460 1337560
>>37125
y = |x|
461 1337568
>>37560
Не монотонная
462 1337608
>>37125
х^3, например, или LeakyReLU
Их вообще можно миллион придумать, другой вопрос - нахуя?
463 1337632
>>37608
Чтобы стакать слои без оглядки и охуеть.
464 1337758
>>37632
их и сейчас стакают, 152-слоя в 2015 победило ImageNet
https://arxiv.org/pdf/1512.03385.pdf
465 1337842
>>37758
>>37632
А почему вообще стаканье слоёв работает?
Ну интуитивно так, можно примерно почувствовать?
466 1337852
>>37632
Для этого достаточно residual связей. 152 слоя как раз за счет этого - градиент не vanish'ится, потому что по skip-коннекшону идет до самого верха. Сообществу потребовалось больше 30 лет, чтобы дойти до такой простой идеи.

Если слово residual тебе не понятно (а я не знаю как сказать по-русски), то вместо

y = f(x)
используется
y = x + f(x)

И тебе похуй, ванишится ли градиент у f, потому что x идет напрямую.

Из-за того, что нейросеть уменьшает пространственное разрешение информации, скипнуть информацию со входа проблематично (не y=x+f(x), а y = downscale(x) + f(x)) , нужно все равно уменьшать разрешение, поэтому информация все равно теряется, но не так сильно, как в случае активационных функций.

>>37842

>А почему вообще стаканье слоёв работает?


Каждый слой нелинейно преобразует пространство - растягивает его, сжимает и делает прочие вещи.
Стаканье позволяет описывать многократно более сложные преобразования.

Конечная цель классификатора преобразовать инфу в такое состояние, что твоя проблема становится линейной. Естественно, чем больше слоев, тем больше шансов этого добиться. Если точнее, то более глубокая сеть экспоненциально эффективнее неглубокой сети с меньшим числом слоев. Не помню, где я это прочитал, но может пользоваться такой эвристикой.
467 1337863
Что есть стаканье?
ньюфаг вышел из ридонли
468 1338091
>>37852

>Каждый слой нелинейно преобразует пространство - растягивает его, сжимает и делает прочие вещи.


>Стаканье позволяет описывать многократно более сложные преобразования.


Хм, но получается что организация сети по слоям предполагает что у фич одинаковая "нелинейная сложность" в модели. Что совсем необязательно так.
469 1338100
>>37863
наслаивание, от слова stack
470 1338103
>>38091
Разверни мысль, пока ты написал какую-то хуйню
471 1338195
>>37125
а как нейроны в мозгу не насыщаются?
1*NKhwsOYNUT5xU7Pyf6Znhg.png94 Кб, 1600x420
472 1338258
>>38195
Хороший вопрос.

Чтобы ответить на него, смотри пикрелейтед. RNN, если подать на нее постоянный во времени сигнал и развернуть - это по сути та же feedforward сеть с residual связями, но с общими параметрами у слоев.

Мозг - RNN. Там мало слоев, например, в визуальной коре их всего 6, но каждый слой имеет обратную связь с предыдущими. И эти образные связи скорее всего и делают его глубоким - он глубокий во времени.

Вкупе с тем, что он еще и очень широкий, в каждом слое нейронов очень много, получается очень мощная штука.
473 1338367
Аноны, что должно быть в резюме у начинающего DS специалиста, чтобы его позвали на интервью?
475 1338406
>>38393
Разработчики? Это те которые коэффициенты рендомно проставляли?
476 1338419
>>38406
Тогда уж тренеры
477 1338450
>>38367
опыт
1548916538573.png31 Кб, 778x960
478 1338458
479 1338460
С учетом небольшого рынка DS в нашей стране, чувствую мне как вкатывальщику необходимо усиленно дрочить инглиш до уровня разговорного.
Correct me if I'm wrong.
481 1338631
>>37008
Не только. В RNN хорошо видно, что оно из-за собственных значений возникает (см. cs231n).
482 1338638
>>38629
Он сам эти термины придумывает? Стекинг бля, ору
483 1338953
>>38460
Учитывая что на русском нет нормальных книг по статистике и мл, то у тебя нет выбора.
484 1338959
>>38638
Нет, это калька с устоявшихся англоязычных терминов как бустинг и Бэггинг.
485 1338964
>>38959

>бустинг и Бэггинг


Поппинг и жопельшмульцинг
486 1338975
>>38964
Как будто это что то плохое.
487 1339093
>>38638 >>38964
что ты вообще в этом треде делаешь?
эти термины употребляют как вапникофилы, так и адепты "from keras import *"
что же ты такое?
eiwjgxotbhxtvbc7qijy0nt6rky.jpeg111 Кб, 1024x685
488 1339282
>>39093

>что же ты такое?


Первый в очереди потребитель, жду когда мне ИИ зделают как в фильмах, а у вас пока одни смешнючие названия.
489 1339302
>>39282

>Первый в очереди потребитель


>ИИ зделают как в фильмах


Ебать ты суицидник.
1542263577177384085.jpg171 Кб, 700x703
490 1339520
>>15967 (OP)
Так, вы тут умные типа и бугуртите когда вас теоретиками обзывают, вот вам задача:
нужно бистро-бистро сравнить джве картинки на схожесть, причем сравниваемая картинка имеет меньший размер и может содержать незначительные помехи (не такой пиздец как в капче, но все же) и отличаться в цвете.
Кокие ваши действия?
491 1339529
>>39520
Что-то такое
https://medium.com/machine-learning-world/feature-extraction-and-similar-image-search-with-opencv-for-newbies-3c59796bf774
стандартный путь.
В качестве фичедетектора можно и нейронку въебать.

А можно просто отмасштабировать 2 изображения и посчитать евклидову норму между ними, например.
492 1339539
>>39520
Возьму какую-нибудь VGG-19, прогоню обе картинки через неё и активации в верхних слоях буду использовать, как эмбеддинг ентих картинок. Дальше смотришь евклидову дистанцию между ними, у похожих картинок должна быть небольшая. Только надо поэкспериментировать, из какого слоя активации брать
1.jpg77 Кб, 922x993
493 1339577
Здравствуйте, помогите, пожалуйста, допустим у меня задача восстановления регрессии:
Есть 9 сортов удобрений. Х1...Х9 - это количество добавленного в яблоню удобрения каждого из 9 сортов.
Y1 - это средний размер итоговых яблок с яблони
Y2 - это средняя вкусность итоговых яблок с яблони
Y3 - это средняя калорийность итоговых яблок с яблони

Для восстановления регрессии нужно применить нейронную сеть.

Скажите, пожалуйста, как правильнее сделать? Три отдельные нейронные сети для предсказания по Х1...Х9 по отдельности Y1,Y2, Y3.

Или правильнее сделать одну нейросеть, которая имеет три выхода и оптом предсказать Y1,Y2,Y3?
494 1339582
>>39577
Ты видел чтобы я хоть раз яблочки гадостью поливал? А Я ПОЛИВАЛ!
495 1339971
Да, похоже что я сейчас всё-таки понял. Это странное чувство. Я не могу найти полезной информации, хороших идей и прорывных открытий просто потому что в глубине понимания я всю эту сферу уже исследовал. Нечего больше изучать кроме фреймворков. Нихуя нет дальше и ничего больше не удивительно. Хочу сказать что ИИ настолько дно сейчас, что невозможно представить как вообще может идти такой хайп. Дерьмовое время для ресерчеров, если всё знание в сфере можно поглотить за один год.
496 1339976
>>38638
Стопкование.
>>38959
Подусиливание, попрошайничество

Истинно православный ИИ
image.png648 Кб, 900x900
497 1340081
>>39582
Хуя олд.
498 1340141
>>39971

>ресерчеров


Это ты школьников и смузиблядей так называешь?
499 1340197
>>39577
9 входов, 3 выхода, 0 слоёв.
500 1340203
>>40197
Спасибо большое, а почему 0 слоев? Слишком простая зависимость что ли?
501 1340211
>>40203
Линейная.
502 1340229
>>40211
Благодарю, спасибо
503 1340272
Здрасте. На kaggle есть раздел learn. Насколько он взаимозаменяем с курсэрой от Яндекса? В смысле, всему ли, что есть на курсэре, я научусь, делая только каггл?
504 1340278
>>40272
Эскобар
505 1340279
>>40278
Пошёл нахуй или отвечай по существу. Я не спрашивал, хороши ли они, многому ли я научусь и так далее, твоё ебаное мнение мне вообще не интересно. Мне интересен один блядский факт: покрывает ли каггл курсэру?
506 1340611
В чём отличия MLE и MAP? Где и когда что из них применяется?
507 1340746
>>40611
MLE можно рассматривать как MAP при условии, что априорное распределение параметров - равномерное. Соответственно, MAP применяется, если есть априорное распределение, MLE - если его нет.
508 1341301
Ладно. А в чём отличия naive bayes от optimal bayes?
509 1341401
>>39520
Посчитаю какой-нибудь специальный хэш для картинокч и буду сравнивать хэши
510 1341406
>>40203
Сука, на полу катаюсь.
511 1341627
>>20507
Токенизация по словам, удалить повторы и использовать стемминг. Хз как в Эр, в питоне NLTK библиотека, с русским вроде ок работает
512 1341894
>>41406
поэтому вот все русские камьюнити - говно. Вместо того чтобы помогать тупо высмеювают.
Ты просто никчёмный хуесос.
513 1342043
>>41301
В naive bayes предполагается, что p((x1, x2, ..., xn)|y) = p(x1|y)p(x2|y)...p(xn|y), т.е. признаки условно независимы.
514 1342135
cuda 10 ставить?
515 1342394
Как так получилось что из игр с неполной информацией дотку и старкрафт сломали, а в более простых играх вроде покера или маджонга до сих пор аи не очень справляется? Лажа какая-то, за счет реакции что-ли всё?
516 1342440
>>42394

>дотку и старкрафт сломали


В манямирке разве что.
518 1342573
>>42456
Игру на стриме, во время которой ИИ не сумел законтрить простейшую тактику и слил, ты игнорируешь? Там сразу стало ясно, что стратегически альфастар не умнее существующих ботов и выезжает на сверхчеловеческом микро, причём это 1 в 1 то же, что случилось летом с ботом от OpenAI которой в Доту слил людям. Там видно, что не тот, не другой боты игры не понимают, не могут выстроить причинно-следственную цепочку и абсолютно не могут адаптироваться к тактике противника. Текущий подход очевидно тупиковый и Дипмайнд это игнорирует, потому что для них главное в этом деле это пиар.
519 1342594
>>42394

>вроде покера


Покер - чистая рулетка же - в него невозможно выиграть. Но - удваиваю предыдущего оратора - для пиара скоро и покер как нибудь "выиграют".
520 1342599
>>42594

> Покер - чистая рулетка же - в него невозможно выиграть.


Это комбинаторика, вероятности и теория игр. Ты просто тупенький.
521 1342604
>>42456
Бот читает данные прямо из игры, у человека же только глаза для ввода информации. Дай хуману столько же информации сколько даешь боту, хуман изи обоссыт.
522 1342605
>>42394
Такие уже есть давно. Тебе было бы легче если ты знал о их существовании? Было бы легче если знал, что взрослые дяди ничего не делая фармят вечнозеленые 24/7? О таком просто не принято говорить.
523 1342612
>>42605

>Тебе было бы легче если ты знал о их существовании? Было бы легче если знал, что взрослые дяди ничего не делая фармят вечнозеленые 24/7?


Да-да, рептилоиды вообще без всяких покеров деньги из воздуха делают. Покер с двумя игроками сломали более менее, тогда же и опубликовали без проблем.
524 1342689
>>42394
1на1 покер выиграли, другой не выиграли, так как толковых команд в мире мало, а DeepMind и OpenAI решили, что видеоигры покруче будут.
>>42604
нет, это в доте API есть, в старкрафте все чуть почестнее (в последней версии, которая проиграла, даже карту двигать нужно)
>>42440
еще не сломали, ждем близзкона, оупен аи выглядит неплохо и думаю, победят серрала, но это совсем неточно, мб, будет как с дотой (если, конечно, не будут убирать ммр)
>>42573

> альфастар не умнее существующих ботов


существующие боты даже с 20к ммр не выигрывают

> то же, что случилось летом с ботом от OpenAI которой в Доту слил людям


тут проблема в openAI, они слишком сильно пытались обогнать DeepMind и не осилили

> Там видно, что не тот, не другой боты игры не понимают, не могут выстроить причинно-следственную цепочку...


ты этот вывод сделал по одной игре из 11 на экспериментальной модели? сразу виден баейсианский подход к делу!
525 1342814
>>42689

>сразу виден баейсианский подход к делу!


Ну так априорное предположение у нас есть: что это всё дикая лажа ради привлечения денежек инвесторов, как и 99% машинлёрнинх стартапов.
526 1342963
>>42689

>нет, это в доте API есть, в старкрафте все чуть почестнее


Что нет то? У каждой игры есть свой интерфейс, все эти ваши АИ боты используют его на полную катушку. В реальных же условиях, исключительно на компьютерном зрении, боты научились только в ксачке врагов замечать кое как. Энивей пока что все пиздец как сыро и заоверречено с целью сруба бабла.
527 1343366
Какой самый простой способ проверки данных на выбросы?
528 1343462
>>43366
Отклонение от среднего.
529 1343723
Кто-нибудь в тредике собирал сам датасет с нуля? Как это происходит и чем удобнее пользоваться?
530 1343741
>>43723
Смотря какой сет. Странный вопрос, бери и собирай без задней мысли. Потом конвертируй в удобный формат и вперед.
531 1344364
Анон, подскажи пожалуйста вот какой момент.
Учусь на программной инженерии, сейчас вот хочу освоить для себя нейронки и написать хороший диплом магистра, не просто чтоб потратить время и получить бумажку, но ещё и что-то полезное узнать/сделать. Можешь ли ты посоветовать идею диплома связанную с нейронками, которую можно было бы обосновать дедам с точки зрения НОВИЗНЫ, АКТУАЛЬНОСТИ И НАУЧНОЙ ЦЕННОСТИ, которая позволила бы мне получить хоть немного серьёзный опыт и которую реально осилить за год?
К примеру, я думал про нейронку, которая пишет музыку (учится на миди и пишет миди), но такого уже много и потому такое не интересно будет презентовать. Может, у тебя есть подобные хорошие идеи, которыми тебе не жалко поделиться?
Заранее спасибо.
532 1344414
>>44364
По фотографии лица определять вероятность наличия тех или иных психических отклонений.
533 1344468
>>44364
Самое логичное что можно придумать чтобы впечатлить дидов: возьми задачу, которую ваши деды на кафедре/каком-нибудь оборонном нии при вашей шараге поколениями решают и только по ней и пишут научные статьи (обычно это какая-нибудь механика твёрдого тела/сплошной среды/задачи упругости и подобная картофанная прикладная дрисня) и попробуй присунуть туда нейронки. Обычно там вся задача в том как бы подобрать пооптимальней сетку для метода конечных элементов чтобы уравнения решить или там получше аппроксимировать какие-нибудь коэффициенты при каком-нибудь говне, или придумать метод чтобы матрицы какие-нибудь сделать поразреженней, тут как раз что-то можно нейронкой сообразить.
14935237884320.jpg63 Кб, 800x800
534 1344481
>>15967 (OP)

> Николенко и др. "Глубокое обучение"


Там во второй главе после теоремы Байеса начался матан. Он нужен для работы с сетями? Или можно пропустить до введения в тензорфлоу и керас?
535 1344520
>>44414
>>44468
Спасибо, буду обдумывать.
И ещё задним числом возник такой вот вопрос: по сути, я буду щеглом, который начитается обучающей литературы и методом тыка, очень неоптимально реализует такую нейронку на основе какого-то фреймворка типа тензорфлоу. Если внезапно в комиссии будут люди, которые имеют опыт работы с машобом, не буду я в их глазах выглядеть лохом, который взял фреймворк и на основе этого фреймворка сделал какую-то примитивщинупонимаю, что это очень абстрактный вопрос, но я хочу понять, что отличает тупого юзера ТФ от человека, который придумал хорошую идею и грамотно реализовал её с помощью хорошего инструмента? А то я насмотрелся на студентов, которые взяли какой-то веб-фреймворк и пытались защитить диплом, показывая пхпшную админку - не хочу быть как они.
536 1344528
>>44520
Как ты свою сеть реализуешь не имеет отношения к научной работе. Это опишешь буквально двумя-тремя предложениями, типа использовался фреймворк такой-то, оптимизатор такой-то с такими параметрами, было столько-то эпох и бэтчи такого-то размера, всё.

Иначе твой димлом как админка на пхп и будет.
sage 537 1344544
>>44520
И как сдали те студенты?
538 1344560
>>44528
Отличный ответ, спасибо.
539 1344565
>>44544
Они получили пять. Но мне важнее не хорошая оценка, а осознание того, что я не обманул себя, сделав простую штуку по шаблону, а действительно провёл какую-то работу. Ну и деды тоже не дураки, им просто надо было выполнить квоту на хорошие оценки чем-то откровенно не разваливающимся на части.
sage 540 1344722
>>44565
Зря, экзамены только для этого и созданы. Что-то значимое делай для себя или продавай. Иначе есть возможность полететь.
541 1344783
Не знаю смысл здесь спрашивать или нет. Обнаружил одну темку и, соответственно, идейку, по которой можно написать исследовательскую бумагу в области комплюктор саенс и математики. Эти бумаги вообще могут котироваться при получении гражденства где-нибудь или нихуя?
А то мало ли, может просто стоит хуй забить, софтину чисто для себя накатать.
542 1344784
Тема связана с проекцией шара на плоскость. Я блядь знаю нахуй как его нормально на плоскость перенести.
543 1344789
Знать знаю, но может в рот оно ебись, у меня других дел полно.
544 1344796
>>44364
Что лично тебе интересно то и делай, то что ты унесёшь с собой в будущее нахуй, что не проебёшь со временем и не забудешь. Пусть эта тема не будет новой, но такой в которой ты хочешь разобраться нормально.
А пытаться выглядеть крутым перед совковым дедом это успех уровня /univer/
545 1344840
>>44784

>проекцией шара на плоскость


круг, ёпта
546 1344845
>>44840
Зачем ты придрался к словам, что ты этим доказал, что ты умней другого, да? Тебе легче от этого стало жить? Нахуя ты это сделал, долбоёб? А, долбоёб? Нахуя?

Всегда найдётся тот кто умнее тебя, пусть его ум и будет проявляться в другой области знания. Это значит ты никогда не победишь в этой ебучей игре "стать умнее другого". Нахуя ты в неё играешь, дегенерат?
547 1344884
>>44845
Чтобы не быть быдлом вроде тебя, очевидно.
548 1344887
>>44884
Ты лишь зажравшаяся обезьяна, задрочившая механические навыки последовательных операций, не способная сделать ничего своими руками или придумать самостоятельно, ты лишь высер того информационного мусора, который воспринимал всю жизнь, ты не способен сделать ничего своего, ты лишь критик перфекционист, который нихуя не умеет кроме как копаться в чужом говне, зато имеющий свое бесценное мнение чсвшного снобистского мусора. Я вас снобов ебаных ненавижу больше чем любое быдло.
549 1344892
>>44520
Не будет. Скорее даже довольны будут - есть чётко прикладная задача, есть новое решение.
550 1344894
>>44783
Могут котироваться в получении работы/поступлении на учёбу по соответствующей специальности, а работа/учёба может скорее всего будет котироваться в получении гражданства. Другое дело, что для получения этой работы за рубежом надо пахать как папа Карло, одной бумаги тут не хватит. Ну и зависит от бумаги, да.
551 1344907
>>44894
Точно, совсем забыл, что нужны ещё рекомендации всякие письменные, благодарственные письма, которые в рф-то делать не принято ни разу и никогда, одной-двумя бумажками так просто не отделаешься в общем нет, спасибо, ну его нахуй, быстрее будет другим способом пройти
Спасибо, помогло.
552 1345006
>>44783
В смысле "гражданство"? Если ты про трактор, то в случае трудоустройства за границей это будет рабочая виза и вид на жительство, не гражданство. Есть и иные поводы получить ВНЖ в той или иной забугорной стране, но это обычно владение дорогой недвижимостью, брак с местными или учредительство LLC (ООО) с трудоустройством местных. Это я про то, что само по себе наличие подобных публикаций тебя напрямую к гражданству не приблизит - разве что поможет в трудоустройстве, и то не факт.
553 1345050
>>44840
Я знаю как спроектировать в квадрат
554 1345106
>>45006
Получаешь нобелевку или ты какой-нибудь Депардье и граждаство Монако считай у тебя в кармане.

>Также в теории возможно получение гражданства Монако за особые заслуги (по усмотрению Принца), но, конечно, это для очень крупных инвесторов или выдающихся всемирно известных личностей мирового масштаба.

555 1345112
>>45106
Я не претендую на звание особого эксперта, но не проще ли просто поднаточить когти и поехать по блю карду? В ойти это реальнее чем где бы то ни было. Одно дело - ремесло, где ты получил 3-4 года опыта на фрилансе/местных конторах и в принципе можешь наниматься куда угодно, а другое дело - грёбаная нобелевка. Первый вариант и быстрее, и надёжнее. Да и если у тебя голова настолько светлая, что родила настолько амбициозную идею, то идти просто работать в машоб - нефиг делать.
556 1345587
>>44364
По фотографии лица определять расовую чистоту
557 1345589
>>44565
Админку на пхп сложнее нейронки написать
сойбои.jpg50 Кб, 960x492
558 1345747
Очередные эпические обосратушки всего NLP проходят незаметно для соевых мозгов хипстерско-барбишопной общественности. В середине января сего года полтора неизвестных гука выкатили пейпер https://arxiv.org/pdf/1804.00306.pdf в котором пояснили, что сама задача встраивания слов в векторное пространство внезапно некорректно-поставленная, как и абсолютное большинство задач в реальном мире, к слову. И ни один из существующих алгоритмов для построения таких моделей (рассмотрено на примере скипграма с негативным сэмплированием) этого не учитывает! Это какой-то позор, в 2019-то году. Вышеупомянутые гуки в этой связи что-то намухлевали с регуляризацией (чему и посвящен пейпер) и в итоге добились некоторого улучшения результатов. Но понятно, что проблема глубже и решить ее можно только в рамках теории статистического обучения Вапника, просто лимонить слои в нейроночках до бесконечности бесперспективно. Такие дела.
559 1346211
>>45747
сойбои опять вместо алгоритмов придумывают регуляризации, которые не работают
560 1346214
>>45747
эти сойбои еще и в 2014 застряли, ортогональность в эмбеддингах уже сто раз обсосали
https://aclweb.org/anthology/P18-1073 поиск цитат по слову "orthogonal"
561 1346216
>>45747

>просто лимонить слои в нейроночках


word2vec вообще можно одной матрицей посчитать (считают двумя, но можно одной), про какие слои ты вообще говоришь?
562 1346257
>>46216
Слои слои барбершоп хипстеры лимон соснули азаза лалка кек
563 1346352
>>46257
Пихвоиды и жопельшмульцера забыл.
564 1346370
>>45747
>>46214
Да это хуйня, проблема с эмбеддингами фундаментальнее о чем я тут пару тредов назад пытался одному супчику втолковать. Слова по любым этим вашим громматеканинужна метрикам тупо не удовлетворяют нервенству тругольника, поэтому их не вложить ни в какое R^n так чтобы близкие слова по метрикам слова всегда были близко, а далекие далеко.
565 1346376
>>46370
Напиши скорее Миколову, а то он дурак не знает. А тут его этой фундаментальной проблемой и огорошишь.
566 1346439
Здравствуйте, я посмотрел Keras application там есть готовые нейронные сети:
Available models
Models for image classification with weights trained on ImageNet.

Правильно ли я понял, что только для распознавания картинок есть готовые сети? А просто для классификации без картинок и для регрессии(аппроксимации, интерполяции) нету готовых примеров?
567 1346458
>>46376
Да это элементарщина, всем первокурам любого матфака очевидно, только для безграмотных лейерстакеров какое-то непостижимое знание.
568 1346462
>>46439
А как ты себе это представляешь - "просто для классификации"? Классификации чего?
kat donlan ok.jpg18 Кб, 198x241
569 1346464
570 1346469
>>46462
Классов.
571 1346530
Есть последовательность данных с сенсоров, типа кардиограмма только многомерная. Как можно выделить в этой последовательности паттерны? Олсо нужно учесть что паттерны могут различаться как по периоду, так и по амплитуде.
572 1346588
Объясните такой момент, пожалуйста. В шапке много разнообразных ништяков, но нету всяких модных либ типа tensorflow. Почему? Это не претензия, просто я хотел бы понимать где он стоит относительно всего того, что есть в шапке. Я так понимаю, если проводить аналогии, в шапке - ссылки на RFC по сетевым протоколам, а тензорфлоу - модный веб-фреймворк, который всё делает за тебя? Если так, то есть ли смысл начинать с тензорфлоу и окружающих его мануалов/туторов/пробных задач, параллельно изучая основы, на которых он строится?
573 1346610
>>46588
Потому, что шапку пилили высокомерные уебки типа такого >>45747
В шапке на 99% ненужная и нерелевантная для вкатывания хуйня.
574 1346619
>>46610
А что тогда можно читнуть простому анону, который хочет делать что-то простое и по ходу дела понимать принципы?
575 1346621
>>46619
Ну если ты интересуешься именно его >>46610
мнением, то макса фрая наверное или чего там низкомерные уёбки с подворотами сейчас читают, не знаю.
576 1346633
>>46462

>А как ты себе это представляешь - "просто для классификации"? Классификации чего?



Без картинок. Например, классифицировать гипо или гперфункцию щитовидной железы у пациент или здоров пациент(3 класса: гипер,гипо, здоров) на основе жалобы и диагностики пациента. То есть входные данные не картинка, а жалобы и диагностика конвертированные в какие-то значения Х1...Хn.

А вообще я больше не классификацию, а восстановление регрессии хотел бы найти - готовые примеры сетей.
577 1346681
>>46619
читай chollet или николенко,
переведено даже на русский
Шолле Ф. - Глубокое обучение на Python (Библиотека программиста) - 2018.pdf
https://vk.com/doc74080069_488023056
578 1346682
>>46439
это уже предобученная сеть для картинок,
если тебе нужен пример архитектуры, то http://www.letmegooglethat.com/?q=neural+network+regression+keras+example
579 1346747
>>46633
Так там предобученные сети лежат не для примера работы (хотя и для этого тоже), а чтобы не обучать каждый раз с нуля.
1.jpg54 Кб, 922x508
580 1346751
>>46682
>>46747
Тогда понятно, спасибо. Я гуглил neural network regression keras example. Чаще всего выходит, то что на левой части картинки, то есть прямую строят. Иногда редко, то что на правой части, то есть какую-нибудь синусоиду по точкам. В обоих случаях одна входная переменная x1 и один выход y1. А я то хотел найти какой-нибудь смачный пример с 14 входными атрибутами х1...х14 и 3 выходами y1..y3. Поэтому понадеялся, что где-нибудь в Keras это вдруг есть - готовые примеры, и что я просто неправильно ищу.
581 1346766
>>46751

>смачный пример с 14 входными атрибутами х1...х14 и 3 выходами y1..y3


Это херовый пример, потому что его сложно потом визуализировать.
582 1346769
>>46766
Да хер с этой визуализацией, главное чтобы пример был с большим количеством атрибутов
583 1346771
Кто-нибудь трогал AWS или google cloud? Как оно? Сильно накладно?
584 1346891
>>46681
Спасибо!
image.png484 Кб, 1077x723
585 1347156
>>46681
Двачую!
Отличные объяснения в книге. Читается легко и приятно. Для вкатывания - самое оно.
586 1347274
>>46370

> Слова по любым этим вашим громматеканинужна метрикам тупо не удовлетворяют нервенству тругольника, поэтому их не вложить ни в какое R^n так чтобы близкие слова по метрикам слова всегда были близко, а далекие далеко.


А подробнее? Это как-то можно обойти?
587 1347773
Чето сдулся хайп с нейроночками. Даже нового треда за январь не создали. Что сейчас модно?
588 1347786
>>47773
neural differential equations вроде интересная тема
гугловский BERT ещё
589 1347805
>>47274
Слить весь NLP в унитаз и начать с нуля.
Не с нейродаунами конечно, а сотрудничестве с математиками и работающими лингвистами, оставив маняфантазии о том что ничего не учив с помощью крутых кампов)) можно разрешить такую сложную задачу.
590 1347820
>>47805
Слил тебе за щеку. Проверяй.
591 1347833
>>47820
Preepeeklow 0.98
592 1347908
>>47805

>лингвиста


>Каждый раз, когда я увольняю лингвиста, производительность системы возрастает


Эти бездари за 40 лет хомскианства ничего годного не создали. Все их поделки были настолько убоги, что нейронки их сразу разнесли во всех придуманных лингвистами задачах.
593 1347956
только негров генерировать умеют
https://blog.openai.com/better-language-models/#sample8
594 1348134
>>47908

>нейронки их сразу разнесли


В манямирке нейродаунов именно так. В этом манямирке можно вообще ничего ни про что не знать, потому что нейронные сетки это магия которая сама по себе всё решит.
595 1348152
>>48134
Ну а по делу? Что лингвисты могут предложить лучше лингвистических регулярностей и graphspace, где алгоритм обучается "пониманию" и предсказанию отношений между словами, фразами итд? А то кудахтанья много, а где хоть один рабочий проект на гитхабе?
596 1348329
Насколько реально написание чего-то уровня аимбота на нейросетях? Я понимаю, что это нахуй не нужно, но интересно так сказать для общего развития. Особенно при условии, что информация будет получаться непосредственно с экрана, а не от процесса игры.
597 1348331
>>48329
Вполне реально, только непонятно зачем.
598 1348364
Математика мне давалась, но больно я её не люблю и всякие ебучие формулы тоже. В нейросетях мне делать нечего?
599 1348394
Чет я не понял: tensorflow не поддерживает python 3.7 или просто у меня что-то на пеке не установлено?
600 1348398
>>48394
Не поддерживает
602 1348452
>>48364
Тебе и в жизни делать нечего.
603 1348454
>>48452
Зарепортил за пропаганду суицида.
Bob Ross painting Japanese Bird cooking spaghetti.jpg60 Кб, 420x543
604 1348491
>>48432
В чём прикол-то?
605 1348586
https://thispersondoesnotexist.com
генерим негров
606 1348692
>>48586
Фоны на картинках пиздец.
1316332164290.jpg64 Кб, 604x453
ХЭЛП! 607 1348803
Скрипт работает, но выдает nan вместо чисел:

import numpy as np
import tensorflow as tf
from tensorflow.python import debug as tf_debug

n_samples, batch_size, num_steps = 1000, 100, 2000
x_data = np.random.uniform(1, 10, (n_samples, 1))
y_data = 2 x_data + 1 + np.random.normal(0, 2, (n_samples, 1))

x = tf.placeholder(tf.float32, shape=(batch_size, 1))
y = tf.placeholder(tf.float32, shape=(batch_size, 1))

with tf.variable_scope('linear-regression'):
k = tf.Variable(tf.random_normal((1, 1)), name='slope')
b = tf.Variable(tf.zeros((1,)), name='bias')

y_pred = tf.matmul(x, k) + b
loss = tf.reduce_sum((y - y_pred)
* 2)
optimizer = tf.train.GradientDescentOptimizer(0.01).minimize(loss)

display_step = 100
with tf.Session() as sess:
#sess = tf_debug.LocalCLIDebugWrapperSession(sess)
sess.run(tf.initializers.global_variables())
for i in range(num_steps):
indicies = np.random.choice(n_samples, batch_size)
x_batch, y_batch = x_data[indicies], y_data[indicies]
_, loss_val, k_val, b_val = sess.run([optimizer, loss, k, b],
feed_dict={x: x_batch, y: y_batch})
if (i + 1) % display_step == 0:
print('epoch %d: %.8f, k=%.4f, b=%.4f' %
(i + 1, loss_val, k_val, b_val))
1316332164290.jpg64 Кб, 604x453
ХЭЛП! 607 1348803
Скрипт работает, но выдает nan вместо чисел:

import numpy as np
import tensorflow as tf
from tensorflow.python import debug as tf_debug

n_samples, batch_size, num_steps = 1000, 100, 2000
x_data = np.random.uniform(1, 10, (n_samples, 1))
y_data = 2 x_data + 1 + np.random.normal(0, 2, (n_samples, 1))

x = tf.placeholder(tf.float32, shape=(batch_size, 1))
y = tf.placeholder(tf.float32, shape=(batch_size, 1))

with tf.variable_scope('linear-regression'):
k = tf.Variable(tf.random_normal((1, 1)), name='slope')
b = tf.Variable(tf.zeros((1,)), name='bias')

y_pred = tf.matmul(x, k) + b
loss = tf.reduce_sum((y - y_pred)
* 2)
optimizer = tf.train.GradientDescentOptimizer(0.01).minimize(loss)

display_step = 100
with tf.Session() as sess:
#sess = tf_debug.LocalCLIDebugWrapperSession(sess)
sess.run(tf.initializers.global_variables())
for i in range(num_steps):
indicies = np.random.choice(n_samples, batch_size)
x_batch, y_batch = x_data[indicies], y_data[indicies]
_, loss_val, k_val, b_val = sess.run([optimizer, loss, k, b],
feed_dict={x: x_batch, y: y_batch})
if (i + 1) % display_step == 0:
print('epoch %d: %.8f, k=%.4f, b=%.4f' %
(i + 1, loss_val, k_val, b_val))
608 1349271
>>48586
Вот это уже интереснее. Если сделать генерацию рандомных картинок от фоток несуществующих людей, другой несуществующей хуеты от текста до схем, карт, формул итд, причём, генерировать такие страницы можно до бесконечности и каждая страница уникальна и никогда не повторится на 100%, то получится прямо как у Борхеса, "книга песка".
609 1349344
>>49271
Зачем для этого лица несуществующих людей, наркоман?
610 1349576
Вот у гугла есть бесплатный TPU2, типа можно его использовать чтобы быстрее обучать свои нейронки.

А какие еще на 2к19 есть подобные штуки для аппаратного ускорения? Хочу нейронку ускорить на какой-нибудь такой штуке и старым преподам в шараге показать ускорение на новомодной магической штуковине.

Алсо, я не понял за бабло можно TPU3 использовать? Или хуй на данный момент и все занято?
611 1349577
>>49271

>каждая страница уникальна и никогда не повторится на 100%


Если длина страницы и алфавит ограничены, повторы неизбежны.
612 1349598
>>49576

> за бабло можно TPU3 использовать?


В Google Cloud'e посмотри
a3074519-2a82-47d7-9166-537c1b9deedd.jpg49 Кб, 800x533
613 1350171
Если у вас есть идеи для применения машоба, и вы готовы ими поделиться - милости прошу
614 1350177
>>50171
А разве не стремно такими идеями делиться со всеми подряд? Вдруг кто то на твоих идеях построит себе супер-интеллект и заработает себе миллиарды / поработит человечество.
615 1350180
>>50177
Идея ничего не стоит.
616 1350187
>>50180
Так только пидоры говорят у которых за всю жизнь в голове ни одной годной идеи не промелькнуло. Или какие-нибудь Жопсы которые пиздили чужие идеи на регулярных началах
617 1350210
>>50171

> милости прошу


К какому шалашу? Я тут сто раз писал - ни одного вменяемого OCR для математической нотации (latex, ams-tex), полторы платных хуитки и бесплатного говнишка на андроид. Зато несуществующих негров, гуков и всяких le face'ов генерировать, это всегда пожалуйста.
618 1350303
>>50210
а нахуя?
619 1350346
>>50303
Для одной моей темы нужно дохуя latex/ams-tex нотации из определённых пейперов, tex-исходников которых нет, единственный вариант - распознать пдфки. И я очень сомневаюсь, что мне одному во всем мире что-то подобное нужно.
620 1350381
>>50210
https://webdemo.myscript.com/views/math/index.html

Есть вот такое, правда это не для фото
621 1350392
>>50381
Это из рукописного текста в латех. А надо из пдф.
622 1350397
>>50392
Добавлю, что из картинок по идее даже проще, т.к не надо разбирать каракули, изначально есть нотация в стандартном шрифте.
623 1350576
Пришёл к вам за помощью. Есть 2 класса, нужно их предсказывать. Проблема в том что первого класса в 5 раза больше (75% и 15%). Каким образом лучше всего их выровнять?
624 1350638
>>50392
>>50397
If you install AbiWord with the additional import and export plugins,* you can open a PDF file in the Word Processor, and then export to LaTeX. In fact, you can also convert from the command line:

abiword --to=tex filename.pdf
625 1350640
>>50576
Аугментация.
626 1350669
>>50640

>Аугментация


У меня нет эталонных объектов. Я работаю с объектом и его свойствами. Может есть другой способ? Удалять половину датасета не очень хочется
627 1350784
>>50576
1) забить, просто посмотреть потом на f1; roc
628 1350787
>>50576
2) сбалансировать классы на k-fold (давать весь первый класс и столько же второго на каждом фолде)
3) много всего другого
629 1350873
>>50669
Мы говорим о разном. Датасет же у тебя есть? Копируй элементы с внесением шума. Какой шум - смотри сам исходя из физ смысла.
630 1350883
>>50784
>>50787
>>50873
Спасибо что написали, попробую все
631 1350885
>>15967 (OP)
Как вы боритесь с синдромом самозванца?
632 1350886
>>50885
У меня недостаточно опыта чтобы с ним бороться.
633 1350929
Куда опа-хуя проебали? Тред перекатывать кто будет, Пушкин?
634 1351459
>>49271
Количество состояний конечно, так что это скорее "Вавилонская Библиотека".
635 1351533
>>50210
взял и написал, в чём проблема? благо датасет не нужно собирать, можно его тупо генерить
636 1351681
sup /pr/
Подскажите, насколько сильно может помочь в изучении линала, теорвера, мат статистики обучение в вышке, с хорошим преподом? Изучая Deep Learnig и застряв на главе 4. Numerical Computation понял, что нужно уделить больше внимания изучению линала, теорвера, мат статистики. Медленно но верно изучаю учебник по линалу, но пугает скорость. Бывает такое, что на понимание одной темы трачу не меньше 3 дней.
637 1351690
>>51681
в вышке это во вшэ?
638 1351720
639 1351735
Пацаны,смело ссым в ебло нейроночкодиссидентам. Нейросеточки то оказывается уже овер 15 лет каждым пихлом каждого четырехколесного ведра управляют.

https://www.drive2.ru/b/523622347714855958/
640 1351737
>>51735

Интересно, каково теперь неверующим в нейронки осознавать, что 99% авто, которые они видят на улице управляются именно нейронками и нечеткой логикой? Вангую подрыв пуканов ИТТ
641 1351738
>>51737

Вообще, если прочитать предыдущие статьи автора, то это наглядный пример как формальнобляди соснули крепкого такого хуйца у нейронко и нечеткологикобогов, а всего-лишь и требовалось что экологические стандарты подкрутить да потребовать выжать охулиард кобыл с пакета сока что бы инженеры придумали непосредственный впрыск и вращатели фаз распредвалов, что бы формальная модель и ее адаптация под конкретные моторы стала невозможной.
642 1351746
>>48134

>В манямирке нейродаунов именно так. В этом манямирке можно вообще ничего ни про что не знать, потому что нейронные сетки это магия которая сама по себе всё решит.



Напоминаю формалопетушкам вроде тебя.

Суровые автопроизводители уже 15 лет как провели вам LOLIMOTом по губам.

Каждый двигатель каждой иномарки, выпущенной позднее 15 лет назад (и даже все последние тазы) работает на LOLIMOT нейроночке как на основном алгоритме для адаптации всех своих функциональных карт с обучением в рамках моментной модели.

Теперь вы с этим будете жить, и, каждый раз глядя на проезжающие по улице легковушки и грузовики, вы будете раз за разом полыхать своим пуканом.

Для дальнейшего пожара вам в пердачело:

https://core.ac.uk/download/pdf/76649740.pdf
15502556687450.jpg2 Кб, 323x235
644 1351755
Шок, сенсация, нейрофаззи модели не только работают, но и давно применяются во всех жоповозках, никогда не было и вот опять! Ну и каково это, вылезти из своего манямира в реальный? Экие ж вы дегроды, однако.
645 1351762
>>51755

> Шок, сенсация, нейрофаззи модели не только работают, но и давно применяются во всех жоповозках, никогда не было и вот опять! Ну и каково это, вылезти из своего манямира в реальный? Экие ж вы дегроды, однако.



Теперь понятно, почему современные жоповозки не едут и помпажируют поршнями наружу блока аккурат к концу гарантии. Действительно, подобную задачу без нейрон-очка не решить, инженерно не с формулировать. Можно лишь надрочить на стенде на реальных моторах, да.
646 1351763
>>51762

> https://www.drive2.ru/b/523622347714855958/



И этот даун, которого репостят, судя по его другим постам еще чего-то про отсталые рисовозки с милионниками без нейросет-очка пиздит, мда.
647 1351764
>>51762

>Действительно, подобную задачу без нейрон-очка не решить, инженерно не с формулировать.



Почему же, можно, только на выходе получится очевидная любому реверс-инженеру закладка с тайм-бомбой в коде, обнаружение которой вызовет нехуёвый скандал. А так вот тебе вумная нейросеть, вот там какие-то вумные коэфициенты у нейронов, вот она как-то вумно решает сколько топлива в горшок лить (а с недавних пор - и насколько дроссель открывать, у водятла больше механической связи с мотором-то нет), чтоб экологично - хуй докажешь что она еще и равномерно убивать движок надрочена.
648 1351768
>>51764

И, вот, кстати, никто не гарантирует, что эта фузи-нейроночка не пизданется вдруг и не захочет убить меня внезапно сама втопив в пол при перестроении.

Вообще пиздец, кончено, я знал что смузихлебы скоро зашкварят этот мир, лишат его детерменированности и безопасности в простейших и привычных бытовых вещах, сделают его игрой в русскую рулетку каждый день, но не думал, что это будущее уже наступило.

Ну его нахуй, буду ездить на метро.
649 1351783
>>51768

> И, вот, кстати, никто не гарантирует, что эта фузи-нейроночка не пизданется вдруг и не захочет убить меня внезапно сама втопив в пол при перестроении.


Как раз для нечетких моделей такие гарантии есть. В отличие от диплернинха, который в убере уже кого-то размазал на пешеходном переходе.
650 1351795
>>51720
Ну исходя из названий понятно, что первая специализация более продвинутая, там нет основ. Вторая вообще начинается с изучения необходимой математики и питона, так что решай сам.
651 1352014
>>51690
ВУЗ
652 1352124
>>51681
А ты как хотел?
На изучение всего того, что требуется для изучения и понимания МашОба, ты потратишь гораздо больше времени, чем на сам МашОб.
653 1352129
Какое отношение к сверточным сетям имеет свертка из мат. анализа?
654 1352132
>>52129
Дискретная свёртка - самое прямое.
Screenshot3.png31 Кб, 816x291
655 1352162
>>52132
Линейная свертка - это оно?
Почитал вики, почему там именно такой расчет кол-ва выходных элементов? В одномерной свертке(той, что Conv1D) же это будет n1-n2+1, или я совсем еблан?
656 1352223
>>15967 (OP)
Кто-то в Яндекс дата сатанистом ходил устраиваться? Там тоже сначала несколько раундов ебут мозг олимпиадным программированием?
657 1352251
>>52223
в яндексе насколько я слышал вообще любят олимпиадное программирование, так шо скорее всего да
15361167923600.jpg165 Кб, 612x612
До чего техника дошла 658 1352436
Кроме несуществующих негров и гуков теперь можно генерить несуществующих котов! Правда, они часто всратые выходят а-ля кот пиздос, но сойбои над этим работают.
https://thiscatdoesnotexist.com/
Screenshot20190222-120713Dashchan.jpg197 Кб, 720x1280
659 1352449
>>52436
Котики которых мы заслужили.
660 1352453
>>52436
А бесконечных аниме девочек не желаете?
http://www.thiswaifudoesnotexist.net
661 1352496
>>52453
Во, это уже лучше. Анимцо вообще можно полностью нейроночками генерить - персонажи, сюжет, весь графон итд. Думаю, в течение 2-3 лет что-то такое замутят.
662 1352574
При градиентном спуске ошибка растёт практически по экспоненте, пока не станет inf. ЧЯДНТ?
663 1352576
>>52251
может ты делаешь градиентный подъем?
(поменяй знак у градиента при обновлении)
664 1352579
>>52576
Однохуйственно, падает до -inf.

error = tf.reduce_mean(tf.square(prediction - y), name="output/error")

learning_rate = 0.002
epochs = 20
optimizer = tf.train.GradientDescentOptimizer(learning_rate=learning_rate).minimize(
error,
var_list=[w1, w2, w3, w4, w5, w6, w7, b]
)
665 1352604
Вобщем оказалось что лёрниг рейт для моей модели слишком высок. С 0.00002 пошло дело.
666 1352681
>>52579
Как это у тебя сумма квадратов падает до -inf?
667 1352742
>>15967 (OP)
дароу всем
слышал что есть какие то тулзы позволяющие конвертить нейроночки (написанные на любом языке) в бинарки, которые потом можно скачивать и запускать без установки 100500+ библиотек и фрэймворков
подскажите такие, пожалуйста
668 1352787
>>52681
Я её на -1 умножил.
669 1352788
>>52251
>>52223
А если не разработчиком, а исследователем?
И сколько они там проверяют тестовое?
670 1352810
>>52742
Невозможно. Это надо все связки компилировать, а такое нужно писать под каждую библиотеку отдельно.
671 1352838
672 1352946
Теперь можно говорить что ты не смотришь порно, а собираешь датасеты.

https://yandex.ru/turbo?text=https://habr.com/sandbox/124587/
673 1353573
>>52604
ты в 2019 году learning rate вручную ставишь? тебя даже вчерашний шторм не разбудил https://arxiv.org/abs/1506.01186
674 1353606
Кстати Жопеншмульцер, почитай тут, как у математиков речь поставлена: http://lj.rossia.org/users/grigori/5805.html
675 1353781
>>52946
Мааааааам, это для работы!
677 1354689
>>52742
Нейронки это просто натрененные веса по сути. Т.е. можно самому написать тулзу которая берёт выгруженные модели и запихивает туда инпут.
678 1354707
>>54689
This. Те же Caffe модели хранятся в обычном протобуфе. Мне как-то пришлось написать конвертилку моделей для своей либы, в которой вполне спокойно они и использовались.
679 1354763
>>54707
это до тех пор, пока вы вашу нейронку не пытаетесь перенести на какой-нибудь embedded или даже андроид или iOS, где бывают проблемы даже с поддержкой чисел одинарной точности. А писать три версии кода (для андроид, iOS и ПК) и поддерживать их не хочется. ONNX довольно полезен в этих случаях.
680 1354801
Надо бы перцовку купить к началу сезона. Что посоветуете?
681 1354804
>>54801
Посоветую тхэквондо ITF, руки и ноги - оружие которое всегда с собой.
682 1354806
>>54804
Хорошо что я попросил тебя посоветовать презервативы.
683 1354807
>>54806

> Не попросил


Быстрофикс
684 1354823
>>54807
Кек, сам облажался, а хотел мне что-то указывать ЛЛЛЛЛЛЛЛЛЛОООООООООООООЛЛЛЛЛЛЛЛЛЛЛЛЛЛ!!!!!!!!!!!
685 1354836
>>54823
Бля, я вообще доской ошибся, не то что тредом. Прошу прощения.
686 1354868
>>54836
Да я пошутил просто.
687 1354898
Здравствуйте, мне для шараги нужно взять три набора данных с задачей регрессии из репозитория UCI, с помощью Keras, scikit-learn и XGBoost обучить по ним разные виды нейронных сетей, обучить модели на основе SVM, случайных лесов, градиентного бустинга и линейной регрессии. После этого ускорить это дело на GPU и показать в шараге.

Я хочу купить выполнение этого дела у фрилансеров.

Подскажите, пожалуйста, какой фрилансерский сайт лучше всего подходит для такого? Чтобы не кинули, типа деньги взяли и давай до свидания. А также скажите как выбрать фрилансера, чтобы он сделал модели осознанно с пониманием, а не схитрил, сделав так как могу и я бесплатно, то есть тяп-ляп накидать код, не подбирая разумно параметров, кое как выполнить и просто скинуть результат как-будто оно так и есть?

Сколько денег такое может стоить?
688 1354955
>>51755
>>51748
>>51746
А я в свою очередь напомню нейрошкольнику что помимо произнесения модных слов в надежде на то что шлюшенция в роговых очках с митапа тебе даст (всё равно не даст) неплохо бы читать собственно статьи которые кидаешь, а не только названия. По ссылке твоей та самая старая добрая инженерная хуерга, которая была и при царе горохе. Ту же некрасивую, задизайненную, с обсчётом на машине, только лишь сдобренную модными сейчас словами. В общем, опять же, никакой магии и надежды на то что работу можно найти ничего не зная и будучи отбитым дебилом-двоечником с либами наперевес вроде тебя.
689 1355626
Где перекат? Люди волнуются
bikiniindex.png1 Мб, 1284x513
690 1355779
>>54551
Голые бабы когда будут?
691 1355785
>>55779
Чем тебе эти не нравятся?
692 1355824
>>55785
Всратые как моя жызнь
добройоба.jpg135 Кб, 518x386
693 1355892
>>54806
Ну, руки всегда с тобой.
694 1356114
Что у нас сейчас SOTA в рл?
696 1356290
>>52838
скажи пожалуйста, если знаешь, после конвертации в ONNX, когда загружаю нейронку в OpenCV (cv.dnn), можно ли данной загруженной сети подать на вход не изображение, а, например, массив чисел? если можно то как?
imagine 2.png25 Кб, 130x192
697 1356343
698 1356415
>>56290
Изображение - это и есть числа, матрица размера (width, height, #channels).
Скормить сети можешь что угодно. Но вот получится из этого что-то адекватное или нет уже зависит от топологии и данных.
700 1356788
Что можно почитать про CNN и их использование в детектирование, классификации и распознавании объектов? Т.е. как их строить, как тренировать, как подбирать параметры? А то устал от бесконечных индусов с медиума с их "построить свой детектор на своих 5 изображениях за 5 минут". Нихуя так не получается, все гораздо сложнее. Ебучий yolo нихуя не смотрит даже только раз. Может кто нить занимался таким.
701 1356824
>>56788
Зависит от твоей цели.

Если тебе хочется понять, как это работает, то открывай оригинальные статьи про Yolo, R-CNN и Fast R-CNN и читай их до просветления. Потом пробуй сам имплементировать их.

Если тебе хуяк хуяк и в продакшн надо, то бери готовую реализацию для своего любимого DL-фреймворка, тысячи их и все работают.
702 1356861
>>56824

> Если тебе хуяк хуяк и в продакшн надо, то бери готовую реализацию для своего любимого DL-фреймворка, тысячи их и все работают.


Вот я так и хотел, но не получилось. Вроде все делал похожим образом, как это описано в гайдах и сделано у других, но вменяемого результата не получил. Или совсем ничего не видит или видит совсем не то и результат покрывается боксами. Может все получится опытным путем, подбором разных параметров и выбором подходящего фреймворка, просто я потратил уже кучу времени на установку, настройку и устранение ошибок что просто заебался. Меня может изначально подкупила эта кажущаяся простота этих готовых реализаций, т.е. их использования.
703 1356870
Как выделять фичи для задачи регрессии? Есть ли какой-то общий алгоритм?
704 1357100
>>56870
не совсем понятно, что ты хочешь, но можешь попробовать lasso regression. Он обнулит коэффициенты для ненужных фичей.
https://en.wikipedia.org/wiki/Lasso_(statistics)
705 1358010
>>56861
Так это... тебе нужна предтренированная сеть, в которой ты дотренировываешь ботлнек слой. Если просто взять готовую архитектуру и начать тренировать с нуля, то хуйня и получится.
706 1358075
>>58010

> Если просто взять готовую архитектуру и начать тренировать с нуля, то хуйня


Почему?
707 1358077
Куда (до активации или после) ставить батч норм? И сколько батчнормов нужно в сетке?
708 1358082
>>58010
Не зная, что у него за задача, говорить, что ему нужно - точно ошибочно.
Далеко не всегда трансфер лёрнинг подходит.

>>58075
Нет.
709 1358532
710 1358572
Помогите вкатиться в обучение с подкреплением. Что можно почитать, где можно примерчики посмотреть, какой фреймворк выбрать?
711 1358721
>>58010
>>58075

>Если просто взять готовую архитектуру и начать тренировать с нуля, то хуйня и получится.


Ну, это всё-таки преувеличение. Но да, для серьёзных задач без здорового датасета, нормальной аппаратуры и долгого ожидания ловить особо нечего.
712 1358722
>>58075
Потому что скорее всего у тебя недостаточно сэмплов в датасете, чтобы с нуля натренировать какой-нить resnet без оверфита.
713 1358723
Аноны, а есть какие-нибудь исследования по представлению методов оптимизации как нейронок? Я видел только learning to learn by gradient descent by gradient descent. Так-то кажется, что какой-нибудь градиентный спуск примитивно реализуется как RNN с фиксированными весами, по которым оптимизировать не надо, но при этом можно backprop через неё устраивать.
714 1360524
Можно ли мочь в эти ваши нейронки/машобы/хуёбы, не умея при этом в матан от слова нихуя? Пытался смотреть какие-то гайды, но либо скорее всего я просто тупой и ничего не понял, либо ничего толкового на ютабе нет. Откуда начать вообще, если учесть нулевость в матане, и цель - не стать гуру в этом и задрочить по хардкору, а просто по фанчику что-нибудь запилить? Видел видосы, где чел крафтит змиев, и они живут, развиваются и пиздятся между собой. Господи, это же просто 10/10.
Алсо, какого размера вообще должна быть программа, делающая что-то полезное/интересное, типа того что под спойлером, а не просто хелловорлд от мира сабжа?
715 1360556
>>60524
Ты программировать умеешь на питоне? Если да - то просто берешь интересующий код с гитхаба и пытаешься запустить. А еще даже легче - можешь ноутбуки в colab или на kaggle (kernels на их жаргоне) сразу в браузере запустить.
https://colab.research.google.com/drive/1iTGGKIfxRRrhWpQQUqHdfVMrfqkdE0un
https://www.kaggle.com/startupsci/titanic-data-science-solutions
mnist на keras'е 70 строк занимает
https://github.com/keras-team/keras/blob/master/examples/mnist_cnn.py (при желании в 2 раза можно урезать)
>>58723
В scholar смотрел? там часто полезно посмотреть, кто цитирует данную статью (no offence)
https://scholar.google.ru/scholar?cites=17211876730630533152&as_sdt=2005&sciodt=0,5&hl=ru
https://scholar.google.ru/scholar?oi=bibs&hl=ru&cites=6287137833382757427,18074471133612715449
716 1360631
Хлопчики, такой вопрос. Как диплом выдает ШАД после его окончания?
717 1360714
>>60631
стандартный диплом об высшем. Магу дают если из кошерных МФТИ или НГУ, насколько я знаю. А зачем тебе? Это место ценится именно своей репутацией, а не бумажкой.
718 1360720
>>60714

> стандартный диплом об высшем.


ШАД - это не вуз, а дополнительное профессиональное образование. Никакого диплома о высшем они дать не могут.

> Это место ценится именно своей репутацией, а не бумажкой.


С репутацией, но без бумажки, ты трактор в Европу не заведешь.

Мимо
719 1360742
Ну что, датасайсаны. Вот уже месяц я изучаю tensorflow. И сегодня я получил первую настоящую (не учебную) регрессионную модель. Точность вполне неплохая, хоть сейчас в продакшен. Поздравьте меня.
720 1360806
Здравствуйте, что делать. если я хочу запустить нейронку на своей пеке на своем старом двухядерном процессоре. А потом запустить нейронку в google colab на TPU? Суть в том, что я хочу показать скорость на пеке со старым процессором. И скорость с TPU. Но насколько я понимаю, помимо TPU в google colab есть еще CPU0, который вероятно тоже как-то участвует и вносит свои коррективы.

Как сделать так, чтобы CPU0 от google colab не участвовал?
721 1361202
>>15967 (OP)
Объясните нубу, когда примерно эти ваши нейросети из нишевой хуиты для учОных задротов стали ВНЕЗАПНО популярными ? В каком году это случилось ? Скиньте какую-нибудь статью, хотя бы на лурку или что-нибудь похожее.

И что посоветуйте почитать для вебмакаки, которая на довольнь среднем уровне умеет во фронтэнд ? Можно ли все это пощупать на обычной машине ?
722 1361205
Блядь, такое чувство, как будто я проспал 5 лет и только сейчас вышел из спячки. Пиздец. Что самое обидное, я в 2016 году ходил на курсы по погромированию на Java, там ни слова про МАШИН ЛЁРНИНГ не сказано.
723 1361208
>>61202
~2012 когда научились CNN правильно тренировать и получили на ImageNet результаты лучше, чем традиционные методы типа SIFT + SVN
724 1361230
>>61205
Где моя пицца?
725 1361363
>>61205
Зачем тебе на джаве машоб?
Зачем тебе на курсах по программированию машоб?
726 1361364
>>61205
На джаве полно машоба (apache spark) в первую очередь, но на вводных курсах зачем про машоб говорить? У джавы гораздо больше применений, чем машоб, это все-таки самый популярный язык в мире
727 1361365
>>60806
никак, кто-то должен питон запускать и данные на tpu кидать
728 1361537
нет инфы когда торч с тф будут куда10.1 поддерживать?
729 1361603
>>61205
Чувак, машинное обучение и программирование очень слабо связаны, дата сатанисту программирования нужно на очень базовом уровне (собственно подумай почему Python самый популярный язык для маш. об.)
730 1361697
>>61365
Спасибо большое. А можно ли сделать так, чтобы использовался процессор с моей пеки, а TPU от гугл или это невозможно и гугловский CPU0 все-равно будет участвовать?
Снимок экрана от 2019-03-10 12-22-37.png87 Кб, 1920x1080
731 1361875
Памагите. Установил docker, драйвера nvidia, nvidia-docker, склонировал официальный реп keras, запустил контейнер докера по инструкции, вроде все поднялось и даже не упало, но Jupiter Notebook не может создать блокнот из-за ебучих прав.
Что я сделал не так? Как пофиксить?

Самое главное - это же не права моей системы, а права где-то внутри контейнера докера.
Снимок экрана от 2019-03-10 13-17-20.png179 Кб, 1920x1080
732 1361898
>>61875
Кажется решил. Надо добавить параметр --user root к запуску докера.

notebook: build
$(DOCKER) run -it --user root -v $(SRC):/src/workspace -v $(DATA):/data --net=host --env KERAS_BACKEND=$(BACKEND) keras

https://github.com/jupyter/docker-stacks/issues/114#issuecomment-449594702
Поясните нубу 733 1362151
Можно ли на одном одновременно считать и отрисовывать GUI?

Сколько минимум видеокарт надо датасатанисту?
734 1362162
>>62151
\на одном GPU\
Тред утонул или удален.
Это копия, сохраненная 11 марта 2019 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски