Этого треда уже нет.
Это копия, сохраненная 2 ноября 2019 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №17 /ai/ 1473408 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают.

Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/ | Николенко и др. "Глубокое обучение" На русском, есть примеры, но уже охват материала
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущий:
https://2ch.hk/pr/res/1440632.html (М)

Архивач:
http://arhivach.ng/thread/412868/
Остальные в предыдущих тредах

Там же можно найти треды 2016-2018 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"
2 1473410
О, новый тхред.
Анон, обозначь список вопросов, которые затрагивают на собеседования для датасатанистов, как опытных так и не очень.
3 1473411
Антоны, можно где-нибудь посмотреть на пример разметки датасета для сегментирующей сети?
4 1473416
Каковы перспективы крестообезьяны 26 лвл вкатиться в машобы? Сложнее линейной регрессии в этой области ничего не писал. Планирую за годик подтянуть матчасть (в принципе, не с нуля, в вузе изучал теорвер и матстат).
ТрдSciKindaMathМашобPetuhБезымянный.png276 Кб, 1762x974
5 1473417
6 1473425
>>73416
Если ты умеешь нормально кодить, то половина задачи сделана. Пройди пару курсов на курсере по машобу.
7 1473427
>>73411

>можно где-нибудь посмотреть на пример разметки датасета для сегментирующей с


http://cocodataset.org/#home
image.png859 Кб, 1290x642
8 1473486
>>73427
Ага, я понял, значит для Unet у меня картинка может быть как справа?
9 1473647
Сап аиач. Есть ли смысл пытаться реализовать детектор объектов на капсулях?
10 1473676
Антоны, какие есть проги для разметки данных?
11 1473690
>>73417
Да ты заебал. Ну перепутал названия, хули ты.
12 1473691
>>73690
Ты уже настолько старый пердун? Или это ты стекломоя нахлебался?
13 1473692
>>73691
Чё ты меня чмыришь в зекаче вообще? Я статей прочитал больше чем ты.
14 1473695
>>73692
Ты никому не нравишься. Какой-нибудь студент задаст вопрос, а в ответ получит от тебя кучу говна под видом конфетки. Создаётся впечатление, что общаюсь реально с дедом за 60. У меня в универе был похожий препод. Профессор, а кроме Паскаля ничего не знал.
15 1473721
>>73695

> У меня в универе был похожий препод. Профессор, а кроме Паскаля ничего не знал.


Ты и паскаля не знаешь, хуле уж.
16 1473726
Антоны, а почему для нахождения текста в прошлом треде советовали сегментирующую нейронку?
Как мне разметить данные для нее?
17 1473730
Какая модель лучше всего решает задачу регрессии?
18 1473732
>>73726
Если по сути - это проблема object detection, ведь мне нужно классифицировать обьекты и найти расположение нужного обьекта.
Короче, возьму вот это https://github.com/dotnet/machinelearning-samples/tree/master/samples/csharp/getting-started/DeepLearning_ObjectDetection_Onnx
19 1473735
>>73732
А не, я вообще не то скинул.
20 1473739
>>73735
Кто бы сомневался.
21 1473743
>>73726
Потому что object detection выдает тебе прямоугольник, а сегментация красит отдельные пиксели. В случае задачи "отправить в гугл только нужное", сегмантация + небольшой денойзинг и дилатация сработает лучше, чем тупые прямоугольники.
22 1473747
>>73730
Это глупый вопрос, типа "какой автомобиль лучше всего едет".
23 1473749
>>73408 (OP)
когда уже тян с самотыком сделают?
24 1473757
>>73743
Хм, но мне было бы удобнее просто находить блоки текста и отправлять их в OCR, со всем остальным она уже сама справится.
Еще можно было бы реализовать нахождение текста по клику.
25 1473758
>>73739
Я вот такую статью нашел, очень даже близко к тому, что я хотел
https://medium.com/saarthi-ai/how-to-build-your-own-ocr-a5bb91b622ba
26 1473817
Антоны, а для чего нужны pre-trained weight?
В моем наборе с оригинальными классами едва ли что будет связано, если я хочу детектить текст.
Или там всякие низкоуровневые штуки могут быть, которые помогут классифицировать мои объекты?
27 1473883
>>73817

>для чего нужны pre-trained weight?


>В моем наборе с оригинальными классами едва ли что будет связано, если я хочу детектить текст.


>Или там всякие низкоуровневые



Для трансферлернинга
15648130473430.gif3,6 Мб, 375x346
28 1473909
>>73410
Бамп вопросу.
29 1473968
>>73883
Спасибо.
Таки установил все, интересно, мне сотки примеров хватит для того, чтобы Yolov3 находил текст в манге и не только
30 1473982
>>73410
Тервер, матан, матстат, линал, основы вроде "как работают деревья".
А дальше зависит от специальности и уровня (например, вот парень собрал вопросы с собеседований в ~20 разных компаний, связанных с self-driving https://docs.google.com/document/d/1YyA11GE_3wfvLrr4X0ozpJYXNLMs4yAga-tx42ARdqU)
31 1474040
>>73968
Начал обучать, по быстрому разметил 30 картинок и решил проверить.
Если оно хотя бы треть на таких данных сможет найти, то размечу куда больше.
У нейроночки есть плюс перед opencvq, ведь можно классифицировать данные и размечать данные.
32 1474048
>>73982
Спасибо, но "Файл не обнаружен. Возможные причины ошибки: указан неверный URL или файл не существует."
33 1474064
>>73982
Прогу тоже могут спросить
34 1474065
>>74064
Что за "прога"?
Написать код на листике?
35 1474066
>>74065
Да, обычные задачки типа разверни список и все в таком роде
36 1474068
>>74066

>разверни список


Типа готовые функции использовать нельзя, надо самому писать?
37 1474071
>>74068
Нужно накодить что-нибудь самому
38 1474118
>>74040
Короче, довёл количество данных до 110 и поставил subdivisions в 32 при batch 64.
Отключил рисование графика и теперь обучение происходит куда быстрее, в прошлый раз он вообще завис
39 1474145
>>74040
Очевидно у тебя на маленьком сете будет что-то вроде 38% успеха, лол. Больше раз в десять - уже 62%, дальше ещё тяжелее.
40 1474156
>>73982
погуглил, похоже что вот ссылка которая ведет на вопросы

https://docs.google.com/document/d/1YyA11GE_3wfvLrr4X0ozpJYXNLMs4yAga-tx42ARdqU/edit
>>74048
41 1474159
>>74156
да, она, там просто скобка лишняя добавилась в ссылку
42 1474161
>>74156
>>74159
Спасибо.
43 1474381
>>74145
Я до 110 довел сет утром и таки понял, что на моем CPU считать вообще не варик.
Так что если кто не знал, аноны, у гугла есть Google Colab, который предоставляет GPU на 12 часов.
44 1474419
>>74381
Таки зная, что и это не очень солидно разметил еще сотню картинок, ну теперь посмотрим.
Figure1.png13 Кб, 640x480
45 1474507
Откуда берется ступенька в падении ошибки?
46 1474518
>>74507
меняется learning rate
47 1474522
>>74507
Хм, а на какой итерации это произошло?
У меня нейроночка сейчас учится, у нее learning rate ползет медленно
48 1474523
>>74507
2-я эпоха не пошла случайно?
49 1474526
>>74522
>>74523
93 эпоха
50 1474560
>>74522
Погугли как adaptive lr реализован
image.png13 Кб, 979x73
51 1474566
Антоны, это нормально, что на этой итерации оно все еще не ищет мои классы, но вполне ищет классы из предтренированных весов?
Или я в чем-то обосрался? Это Yolov3, если что
52 1474912
>>74566
А, это я долбоеб и не так путь прописывал.
Нейронка справляется практически на 100%, очень хороший результат, стоило сразу ее взять.
53 1474954
>>74912
Вот результат.
Стоит разметить еще как минимум 2к данных со всякими поворотами, фоновым текстом и прочим
54 1475013
>>74954
Охуенно. Сколько страниц разметил для тренировки?
55 1475058
>>75013
Всего 200
56 1475129
>>73730
регрессионная
57 1475282
>>75058
Для такой сетки пиздец мало. Дотяни как-нибудь до тысячи хотя бы.
58 1475724
>>75282
До 3к планирую дотянуть.
Там есть еще версия tiny yolo, может она пошустрее и эффективность будет не хуже, у меня в приложении пользователи и на CPU будут, ведь не у всех нвидия, а так пару секунд - это уже многа.
59 1475845
Какой из языков предпочтительнее для машинного обучения: C++ или Java?
15668401350010.jpg104 Кб, 960x720
60 1475847
>>75845

> для машинного обучения: C++ или Java


Пикрелейтед. Пистон учи
61 1475848
>>75847
Питон знаю, просто в вузе нужно сделать выбор между 2 вышеперечисленными. Склоняюсь к плюсам.
62 1475953
>>75724
Пара секунд норм для нейронки, обычно юзер ждёт 3-4.
63 1475967
>>75845
>>75847
>>75845
Положняк:
Питон для прототипирования и исследований
Плюсы для выката в продакшен и имплементации готового решения
Джаба/Скала для биг дата хуйни
Лучше знать всего по чуть-чуть
64 1476000
>>75967

>Плюсы для выката в продакшен и имплементации готового решения


Библиотеки же и так на плюсх пишут. На питоне только верхушка для взаимодействия с юзером. Не?
65 1476007
>>76000
Не, все сложнее.
66 1476036
>>76000
Да, так. Не слушай этого долбоеба.
67 1476039
>>75967
Поссать тебе в ротешник? Заебал уже.
68 1476053
>>76039
Чё порвался? Кого я заебал?
70 1476203
Что скажете за pandas?
71 1476204
>>76191

>habr


Не позорься
72 1476260
>>76203
Инструмент, как numpy. Что ещё сказать?
73 1476498
Это заебись тема?
https://www.coursera.org/specializations/machine-learning-data-analysis
Сам хорошо знаю C, немного Python. Из Computer Science тоже что-то знаю. Матан из универа +- помню, начало этого курса напомнит. Збс курс?
74 1476738
>>76498
Главное на кагл зарегайся и в соревнованиях начни участвовать, необходимый минимум там есть, а вот уже паралельно можешь курить сторонние курсы. Ну и в слаку зайди
75 1476769
>>76738
Пусть какой-то анон подтвердит вот этот пост. Всегда думал что кагл бесполезен
76 1476791
>>76203
хуйня
77 1476822
>>76769

>решать реальные задачи


>бесполезно


Ну иди теорию дрочи
78 1476872
>>76822
Хватит кукарекать. К другим ведь людям обращаюсь.
79 1476875
>>76791
Какая кормушка для сетки лучше?
80 1476879
>>76769
Чем больше датасет, тем валидней результат.
81 1476967
>>76879
Как это к каглу относится?
82 1476986
Решаю задачу бинарной классификации. Есть фича, которая выглядит как набор категорий данного объекта.
Как можно использовать такую фичу, кроме как используя уанхот энкодинг?
83 1477007
>>76967
Участвовал бы в каглах - понял бы шутку
84 1477011
>>76986
Использовать решающие деревья, им похуй.
85 1477013
>>76769
Примерно как спортивное программирование и программирование. Для азов норм, но потом пути расходятся, потому что KPI у кагла сильно отличается от того, что происходит в бизнесе.
86 1477033
>>77011
RF не особо помог. Еще варианты?
87 1477039
>>76872
А я и есть другой человек
88 1477092
>>77033

> RF не особо помог. Еще варианты?


Бустинг.
89 1477121
Анон, если не в падлу, пожалуйста посмотри на вопросы и ответь на вопрос(ы). Спасибо за твое внимание.

1.Зачем нужен коэф. детерминации, зачем он... ну отношение "верных" прогнозов и что? Чем он отличается от среднеквадратичной ошибки в плане использования?

2.Каким образом лассо регрессия "зануляет" некоторые веса, почему вообще такое происходит?
90 1477130
>>77121
1. коэффициент детерминации: http://www.machinelearning.ru/wiki/index.php?title=Коэффициент_детерминации
2. Lasso: добавление L1 регуляризации эквивалентно решению оптимизационной задачи в гиперкубе, диагонали которого находятся в осях координат и центр в точке 0, таким образом с большой вероятностью решение Lasso находится в вершине гиперкуба и часть коэффициентов зануляется.
91 1477132
>>76986
Градиетный бустинг Catboost и LightGBM поддерживает категориальные признаки. Или OneHot + LogisticRegression. Или как-то еще кодировать категории.
93 1477190
>>77121
Если расписать шаг градиентного спуска с L1 и L2 регуляризацией, то станет видно что L2 уменьшает вес тем медленней чем меньше сам вес, а L1 изменяет его на фиксированную величину приближая к нулю вне зависимости от веса. Поэтому L2 просто сначала быстро занижает веса, а потом почти не изменяет, а L1 упрямо забивает в ноль.
94 1477202
>>76769>>76738>>77013
А вы получали спец. образование или сами осваивали дата саенс?
Сколько у вас заняло времени на получение первой работы по этому профилю?
95 1477204
>>77130
Почитал, офигел, к матану адекватно отношусь, иногда с любовью, а иногда с ненавистью, нужен матанский бекграунд чтоб такое адекватно воспринимать, тервер и матстат изучаю сам и вопрос в том что нормально ли подучивать матан по мере необходимости или для адекватного вкатывания нужно сначала ебшаить бекграунд??
96 1477206
>>77190
спасибо
97 1477207
>>77204
Нужен интеллект, в любой книжке по машинному обучению есть достаточно математики, чтобы понять ее с математикой первокурсника (т.е. семестр матана и линала)
98 1477208
>>77204
Если тебе хочется заниматься чем-то наукообразным, но при этом лень/не получается освоить матёшку то тебе как раз прямая дорога в датасайнц
99 1477210
>>76000
И тем не менее тебе надо поднимать интерпретатор питона. Для риалтайм-систем нереально.
100 1477239
>>77207
>>77208
Науитупейший вопрос, но все же, я зеленый второкурсник, со знаниями линала и матана, есть гиганское желание опробовать себя в практических задачах, кАроче машоб возможно освоить для джуна за год?
101 1477241
>>77239
Можно и быстрее. Машоб это именно про мозги, а не про опыт.
102 1477242
>>77210
Почему, питон может в async, вычисления идут на видюхе, поэтому софт-риалтайм вполне возможен. Оверхед у нас был что-то типа 10%
103 1477349
Учусь на матфаке, скоро распределение по кафедрам. Куда лучше идти в целях машоба: на кафедру матанализа к мужику, который отвечает за тервер/матстат и около того или на кафедру алгебры ну а вдруг теория групп пригодится, хули нам.
104 1477357
>>77202
Сам учил, но хуева. Работать пойду через пару месяцев грузчиком.
105 1477548
>>77202
Неприлично дата саентистам такие вопросы задавать
106 1477554
>>77349
В матан иди, опыт работы со statistica будет плюсом в резюме
107 1477579
>>77349
аллоооу додик, течё сказали, забей на маняматику
вся матёшка там всё равно либо примитивна, либо специальна и если ты всеръёз считаешь что то что ты на какую-то особую кафедру пойдёшь определит будешь ты её понимать или нет, то тебе маняматиком ресёрчером в любом случае не быть, так что лучше дрочи опыт решения реальных задач, с которыми обычные слесари датанюхи по жизне сталкиваются
108 1477839
>>77548
Извини, дружок, собираю информацию, для дальнейшей обработки и получения информативных признаков с целью формирования модели подготовки для последующего трудоустройства.
109 1477922
>>77839
Умный ты мужик конечно, мне бы твои мозги
110 1477977
>>77839
Вышка математическая и чуток в кодинге бекграунд, вкатывался года 2 с перерывами. Сейчас за жрат и опыт по удаленке стажером с основной совмещаю, если все норм будет под новый год перееду в офис с норм зп
111 1478146
>>77202
учил сам, когда отчислили с физмата. От начала самообучения до работы джуном чуть меньше года. Отказов 5 получил, потом взяли. Учил питон и алгоритмы, на кагле что-то начинал делать
112 1478249
>>78146
Вдохновляет, сам в шараге сижу, но заваливают пиздец иногда сплю по 4 часа, спасибо за твой пост
113 1478259
>>78146

>От начала самообучения до работы джуном чуть меньше года


Начинал с датасаенсе или с другой сферы? ДСы? Какая-то маняфантазия.
114 1478286
Посоны есть книги или курсы, которые:
1) Полностью self-contained
2) Доведут меня с уровня "хуй с 3 классами образования" до бога, который перечитывает ESL ради удовольствия.

Пробовал стартануть с ESL и Бишопа, идет ну просто пиздец туго. Хоть Бишоп пишет, что мол знакомство с теорвером необязательно, он дает небольшой справочный огрызок математической базы, где за полстраницы доходит до плотности распределения вероятностей. Пиздабол короче этот Бишоп. Приходится идти проходить доп. мат курсы, а это заебывает, потому что не ясен объем необходимой работы, чтобы осилить ESL.
115 1478299
>>77349
Теория групп не пригодится, иди на тервер и еби мужика, чтобы заниматься актуальными вещами. Так и скажи, хочу в ML, он скажет типа, не ебу что это, принеси ему пару пейперов и скажи, что что-то подобное хочу.
116 1478305
>>78286

>Пробовал стартануть с ESL и Бишопа, идет ну просто пиздец туго.


Мозг нормального человека не может изучать абстрактную хуйню без морковки в виде того, что ей за это будет, а информация в этих книгах никакой морковки не предлагает.
Начни с практики, как только почувствуешь, что математику не тянешь, математика пойдет со свистом.
117 1478307
>>78286
Нету такого. Если бы было, это был бы единственный курс и единственная книга по машобчику в принципе.
118 1478375
>>78305
Проблема не в мотивации, а в том, что я тупо не понимаю смысла части выкладок. Я начинал с ололо практического курса от мфти на курсере, говно уровня: суешь эту хуйню в другую хуйню и ХУЯК - получается новая хуйня. Меня такие навыки не устраивают, я хочу хорошо понимать, нахуя это все, почему так, а не иначе и т.д.

>Начни с практики, как только почувствуешь, что математику не тянешь, математика пойдет со свистом.


Каггл?

>Нету такого. Если бы было, это был бы единственный курс и единственная книга по машобчику в принципе.


А есть что-то типа серии курсов/книг? Чтобы можно было последовательно въебать хорошую книгу с упражнениями по линеечке, потом по теорверу, необходимому матану, а потом неотвлекаясь на подтягивание математики хуячить статистическое обучение с хорошей практикой?
119 1478402
>>78375

>Проблема не в мотивации, а в том, что я тупо не понимаю смысла части выкладок


А чем тебе это мешает? Мозг кричит "сложна" и мотивация пропадает.
Эти книжки концентрированные, если бы там автор все расписывал, то
1. Книга была бы в 10 раз толще.
2. Не факт, что интуиции автора подойдут тебе.

>Каггл?


Я на апворке делал домашки студентам по этим темам. Кагл не люблю
120 1478452
>>78286
Мехмат + PhD в сколтехе
121 1478457
>>78402
Ну да, ты прав. Некомфортно постоянно искать, где бы прочитать про math-name-хуню.

>>78452

>Мехмат + PhD в сколтехе


ммм, а можно не ждать до следующего лета, потом сдавать экзамены (или егэ), а потом 7 лет учиться, а ПРОСТО взять и изучить нужные разделы математики? У меня как бы уже есть вышка.

Короче раз нет одного охуенного курса, то может быть есть список книг/курсов, которые можно пройти последовательно и стать гуру?
122 1478608
Скинули мне задачу по кредитному скорингу (подаюсь вроде как на начальный уровень)

В данных нет:
- ни единого индекса от external банков по поводу заемщика
- ни единого признака истории клиента (какие кредиты брал, как пользовался лимитами)

Зато дали ссаную информацию про:
- семью
- работу
- проживание
А ЭТИ ФИЧИ Я РАНЬШЕ ПРОСТО ОТБРАСЫВАЛ и на похуе работал с временными данными

Какая же мне пизда!

Вопрос:
Также даны данные поведения пользователя на сайте (браузер, id страницы на которую заходил, время на которое заходил)
Как думаете, как могут данные поведения в браузере повлиять на то, станет ли клиент плохим заемщиком, или всё с ним будет ок?
123 1478612
>>78608
Тебе интерперетируемая модель нужна или нет?
124 1478633
>>78612
Нет, интерпретируемость не важна
Анон, а как бы ты пользовался данными поведения в браузере? Типа "больше сидит на сайте => больше раздумывает над кредитом => это взмешенный поступок => кредит отдаст", а если "мало сидит на сайте => как нарколыга которому нужна доза поскорее => необдуманный поступок => кредит не отдаст" - как думаешь, такое адекватно вообще?

В конце-концов всё-равно впихну всё в lgbm и буду надеяться что всё будет хорошо
125 1478638
>>78633
Попробуй сделать эмбедденги сайтов, затем используй их как фичи для людей.
126 1478645
>>78638
Ничего себе
Что-то вроде "Сидел на странице 1,5 и 3" -> [1, 0, 1, 0, 1], а "Сидел на странице 1,2" -> [1, 1, 0, 0, 0] ?
127 1478652
>>78645
Нет делаешь эмбеддинги сайтов типа Word2Vec или FastText, где сайт - это аналог слова. Затем по части истории человека усредняешь эмбединги по сайтам. Получается вектор размера эмбеддинга.
128 1478656
>>78652
Благодарю, попробую
129 1478670
>>78608
Может это просто игрушечная задача на применение стандартного классификатора какого-нибудь.
130 1478784
>>78652
Вообще-то для такого есть тип эмбеддинга pagespace в пейсбуковском starspace, как раз для анализа поведения терпилы в интернетах. Сайт представлять в виде слова в эмбеддинге - натягивание совы на глобус.
>>78608

> Как думаете, как могут данные поведения в браузере повлиять на то, станет ли клиент плохим заемщиком, или всё с ним будет ок?


Если на двачах капчует, точно кинет ваш наебанк, лол.
131 1478785
>>78608

> Скинули мне задачу по кредитному скорингу (подаюсь вроде как на начальный уровень)


В этой задаче главное выдавать 4 метрики (false/true positive/negative) и сдвинуть все так, чтобы был минимум false positive (то есть одобрения плохим людям). Если при этом будет дохуя false negative (то есть отказов хорошим людям), это не так плохо.

>Как думаете, как могут данные поведения в браузере повлиять на то, станет ли клиент плохим заемщиком, или всё с ним будет ок?


Хули тут думать, проверять надо.

>время на которое заходил


Время - однозначно, если чел заходит в рабочее время или вообще в будни ночью, значит он может быть безработным. Но в выходные это норм. Остальное вряд ли.
132 1478786
По поводу страниц - самое важное мне кажется с какого сайта переход. Я гугла или яндекса например.
133 1478796
>>78608

>как могут данные поведения в браузере повлиять на то, станет ли клиент плохим заемщиком, или всё с ним будет ок?


Если человек часами сидит в группе вк "как наебать коллекторов", то очевидно, как повлияет.
134 1478798
>>78785

> если чел заходит в рабочее время или вообще в будни ночью, значит он может быть безработным.


Хуя ты Шерлок. А что мешает с работы заходить когда и куда угодно? С тилибона хотя бы. Вы тут сейчас намутите систему маняскоринга, которая половину перспективных заёмщиков через хуй прокинет, а всякую бичевню пропустит, лол.
135 1478799
>>78786

> По поводу страниц - самое важное мне кажется с какого сайта переход. Я гугла или яндекса например.


Типа, если с Яндекса то патриот, а если с Гугла то агент госдепа переодетый? Ору с вас, зумеров.
136 1478800
>>78798
Во-первых, ты делаешь данных гипотезы и проверяешь их. Не сработало - пошел дальше.
Во-вторых, любая система скоринга так и устроена. Тебе мир спасать или тест для банка сдать?
137 1478801
>>78799
Зумеры у тебя под кроватью, шизик
138 1478804
Посоветуйте книгу по линалу, чтоб были все нужные темы типа разложений матриц но поменьше лишней мишуры. ну или просто хорошую книгу, но чтоб чтение не затянулось на два года
139 1478814
>>78804
Шелдона Акслера читай, будешь батей в линале
140 1478946
>>78786
Та там плохая инфа на счет страниц - просто счетчик и время когда заходил на страницу #N сайта компании

>>78785

>если чел заходит в рабочее время или вообще в будни ночью, значит он может быть безработным


Звучит супер, благодарю!
141 1478950
>>78286
Не читай. Не знаю ни одного машобиста, осилившего эти книги дальше 2 главы. Говорят, что это сложно о простом и академщина, а на практике интуитивно все понятно. Изучай туториалы к фреймворкам и практические книги типа deep learning with python.
142 1479024
>>78950
Крудошлепы.
143 1479044
>>79024
Ну объясни, зачем мне нужно знать, как устроен внутри оптимизатор Adam или RMSProp. Эта теория не дает ответ на вопрос, что выбирать для конкретной задачи. На практике все сводится к перебору доступных оптимизаторов, пока не найдется тот, что дает лучший результат.
Или, например, архитектура сети. Сколько слоев делать и сколько нейронов должно быть на каждом слое? Маняматика ответа не дает.
В общем, вся матеша нужна либо для разработки либ и фреймворков, либо для академических исследований, то есть в работе от нее толку нет.
144 1479077
>>79044

>. Эта теория не дает ответ на вопрос, что выбирать для конкретной задачи.


Даст: нужно выбирать Адам.

>Маняматика ответа не дает.


Дает - похуй в широких пределах.

И мы имеем кучу вкатывальщиков, которые перебирают архитектуру всерьез, вместо того, чтобы заниматься важными вещами.
145 1479091
>>73408 (OP)
Пить пиво?
146 1479094
>>79091

>важными вещами

147 1479096
>>79077

>выбирать Адам


>похуй


Окей, это можно запомнить и без матеши
148 1479101
>>73408 (OP)
Нужна голосовая нейроночка чтобы озвучивать мои яойные новеллы. Куда вкатываться?
149 1479113
>>79101
гугл-переводчик
150 1479114
>>79096
Ты-то не запомнил. Вообще же между крутым пейпером и реализацией в tensorflow может пройти 2 года. Не можешь реализовывать пейперы (в крайнем случае переписывать с MXNET китайца в гитхабе во фреймворк, на котором у тебя свой проект), соснешь.
151 1479115
>>79113
Не подходит, у него никаких эмоций нет.
152 1479122
>>79115
Просто съеби
153 1479123
>>79114
На пайторч хабе все есть.
154 1479127
>>79122
Не съебу, страдай.
155 1479252
>>77033
mean target encoding
встроен по умолчанию в катбуст (и лгбм), попробуй его
156 1479260
>>79101
tacotron, mimic2
wavenet, clarinet
хочешь с эмоциями? вкатывайся в какой-нибудь стенфорд за phd
image.png100 Кб, 1711x433
157 1479305
Как можно преобразовать данные для анализа, если они имеют вид, как на картинке?

Я придумал только такое:
В CG1 перечислены числовые значения различного рода параметров,
можно найти строку, где количество таких параметров максимально, далее разбить столбец CG1 на столбцы число которых равно максимальному количеству этих параметров,
для тех строк, где количество параметров меньше максимального, для отсутствующих параметров надо поставить 0 или -1.
Из минусов - в тестовой выборке может оказаться больше параметров, чем в "максимальной" строке тренировочной выборки.
Ну а в столбце CG2 "nan" надо просто заменить на какое-то спец значение, например 0 или -1
Естественно, каждый полученный столбец надо нормализовать, например этим https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.StandardScaler.html способом
158 1479610
>>79305
У тебя последовательности значений же!
Ты работай с ними, как с последовательностями/текстом.

Т.е. можно преобразовать в спарс и посчитать, например, tf/idf, PCA, можно попробовать обучить на них word2vec а дальше - lstm/трансформер/небо/аллах
159 1479687
Антоны, можно ли надрочить нейронку на то, чтобы она умела расчленять текст на части речи?
Да, работа опять с японским текстом.
Или лучше свой алгоритм нашаманить?
160 1479897
>>79687
https://github.com/taishi-i/nagisa
https://github.com/rakuten-nlp/rakutenma
Первые две ссылки в поисковике от копрорации бобра
161 1479910
>>79897
Анемедауны не могут в поиск
162 1479938
Аноны, будьте добры, посоветуйте нейронку для распознавнаия объектов (обучаемую) с bounding box.

Пердолюсь в tf object detection API, наткнулся на ошибку, с которой не могут помочь ни на github, ни на stackoverflow.

Единственное требование - возможность перевода разметки датасета в csv файле (генератор датасета, помимо изображений, на выходе дает этот файл с разметкой). Крайне желательна поддержка python, т.к. генератор написан на нем.
163 1480263
Анонче, помоги понять как работает L2 регуляризация. На каждом слое надо добавлять квадрат весов с коэффициентом к градиенту, а потом докидывать веса с коэффициентом в ошибку следующему слою?
164 1480266
>>80263

> помоги понять как работает L2 регуляризация.


Минимизирует ошибку исходя из гипотезы, что у твоих данных нормальное распределение.
См. https://stats.stackexchange.com/questions/163388/l2-regularization-is-equivalent-to-gaussian-prior

>На каждом слое надо добавлять квадрат весов с коэффициентом к градиенту, а потом докидывать веса с коэффициентом в ошибку следующему слою?


Бери tensorflow и не выебывайся. Твои детали реализации к тому, как она работает, не имеют никакого отношения.
165 1480269
>>80266

>у твоих данных нормальное распределение


А если это не так то что использовать?
Хочу наговнокодить минимальный рабочий пример перед тем как практические задачи решать.
166 1480292
>>80269

>А если это не так то что использовать?


Скорее всего это так. Алсо batch normalization вхуярь, да побольше
167 1480295
>>80292
Уже есть на каждом слое, попробую обойтись без остального.
169 1480308
>>80298
Вот это очень хорошая ссылка. Добра, анон.
изображение.png2 Кб, 523x124
170 1480454
ХЗ где ещё спросить, так что пришел сюда. Аноны, вопрос по теме предварительной обработке данных. Что такое кодирование данных на гиперсферу и чем оно отличается он нормирования ?
Пик, якобы и есть кодирование на гиперсферу, но по формуле в интернете - это формула нормирования.
171 1480459
>>80454
Нормирование это когда l1, l2 или max норма вектора равна единице, то что на пике нормирование по max норме, если максимум берется по признакам объекта.
172 1480466
>>80459
PS Тогда вектора представлены точками на сфере с центром в нуле, так как их норма 1
173 1480468
>>80466
Тогда, получается кодирование на гиперсфере где вектора представлены точками на сфере с центром в нуле, можно назвать нормированием ?
174 1480476
>>80468
У сферы длина всех векторов равна единице. То есть вектор делить нужно нужно на его евклидову норму
175 1480558
На слабом ноуте реально за вечер обучить агента играть в дум? Хотя бы против афк ботов
176 1480617
>>73408 (OP)
Человек с 20-летним опытом разработки, занимающийся нейронками, сказал, что все о языке знать невозможно, и поэтому он спорные моменты проверяет в REPL питона. Что это за хуйня? Как люди раньше писали машинный код по таблицам, как хацкеры оптимизировали шеллкоды, чтобы в них не было нулей и они были максимально компактными, как сишники писали оптимизации? Что за хуйня, блядь, происходит? Почему айти так стремительно тупеет? Здесь люди разучиваются даже код писать. Пиздец.
15692170381210.gif425 Кб, 931x682
177 1480623
>>80617
Так раньше программирование было для элиты. А сейчас каждый первый тупой зумерок с кукареком на пустой башке, петушиной бородой из барбишопа, в петушиных лосинах, кедиках и клетчатой рубашке клиповым мышлением в эту тему лезет. А дальше закон Мерфи "создай что-то чем сможет пользоваться даже дэбил, и только дэбилы и будут этим пользоваться". Не зря же ещё фон Нейман говорил, что кроме машинного кода не нужно ничего, все высокоуровневые яп для барышень - телефонисток.
178 1480636
>>80617

>Как люди раньше писали машинный код по таблицам, как хацкеры оптимизировали шеллкоды, чтобы в них не было нулей и они были максимально компактными, как сишники писали оптимизации?


Это риторический вопрос? Если нет то ответ простой: очень медленно и долго. Для современного рынка задачи требуется решать намного быстрее.
179 1480638
>>80636

>очень медленно и долго


Ювелирная работа и не должна быть простой и быстрой.
180 1480641
>>80623
Просто когда жил и творил Нейман ещё не придумали каэнэн с каминсом.
Безымянный.png330 Кб, 1738x754
181 1480642
Справа RNN, а слева что?
https://youtu.be/VYpAodcdFfA?t=771
182 1480658
>>80638
А ювелирная работа и не нужна, если с успехом заменяется конвеерным производством.
183 1480662
>>80642
Слева - инкодер, справа - декодер.

Оба они RNN.
184 1480671
>>80617

>Как люди раньше писали машинный код по таблицам, как хацкеры оптимизировали шеллкоды, чтобы в них не было нулей и они были максимально компактными, как сишники писали оптимизации


Нахуя это делать, если оно всё автоматическое, а разработкой занимаются люди из другой сферы программирования? Ты таблетки давно принимал, скажи честно?
kormushka-dlya-svinej-rukami-10[1].jpg80 Кб, 700x522
185 1480673
>>80642
Кормушка для рнн. Для всех ячеек цепи одновременно.
186 1480772
>>79897
Они наверняка хуево работают, я прямо уверен, что любое разговорное сокращение им не под силу
187 1480774
>>80772
Чуть позже протестирую их.
Уверен, что они едва ли лучше обычного парсера
188 1480775
>>80468
Сфера единичная и она в сферы в смысле какой-то нормы не обязательно L2
189 1480780
>>80772
А, ее и тренить можно, тогда другое дело
190 1480794
>>80617
>>80623
Нечеткий петух НЕ ТУПОЙ. Слышите, НЕ ТУПОЙ
191 1480847
Подскажите идею для учебного проекта по нейронкам. Интернет советует что-то лично мне интересное, но я хотел бы скажем так просто пощупать, попробовать саму технологию. И еще, на будущее, есть ли годные датасеты по Рашн реалиям последних лет?
192 1480852
>>80847
LaTeX/AMS-TeX OCR. Будешь первым в мире, кто сделал OCR для математической нотации.
193 1481025
>>80852
А что нейросеть то распозновать будет?
194 1481054
>>81025

> А что нейросеть то распозновать будет?


Пдфки, математические пейперы.
195 1481164
>>80794

> У меня жопа не горит, слышите, не горит!!!11


Ты сосал, тебя ебали. Мдауш...
196 1481207
>>80852

>OCR для математической нотации


говноеды, астанавитесь1111
197 1481278
>>78402

> Я на апворке делал домашки студентам по этим темам.


С какого уровня знаний вкатился? Как готовился?
198 1481280
>>81278
Математика в вузике (линал, матан, свертки+фурье, диффуры, тфкп), ml-class.org, пару лет на госзаводе месил говно в стиле "алгоритм компьютерного зрения, работающий на контроллере уровня 80-х годов". Большая часть этого не нужна.

>Как готовился?


Смотрел заказы, дальше изучал тему, тяну я, или нет, писал клиенту. Собственно я в ML вкатился не потому что хотел именно ML, меня рыночек порешал. Я первый год облизывался на доступность какого-нибудь бэкенда.
199 1481289
>>81280

> Математика в вузике (линал, матан, свертки+фурье, диффуры, тфкп)


Что нибудь из этого пригодилось?
200 1481400
А если кредитный рейтинг нужно не по фичам искусственным предсказывать, а по сырой истории транзакций, чё делать? В LSTM их все пихать?
201 1481404
>>81400
ты ебобо
202 1481494
>>81400
Что за наебанк таких сказочных специалистов нанимает? Пеньков поди? У него и звонари сброд какой-то...
203 1481516
>>81494
>>81404
Чего рвёмся?
204 1481546
>>81516
Нечёткопетух агрится на незнакомые слова, забей.
Ты чё хочешь-то вообще?
205 1481552
>>81546
e2e какое-нибудь напрямую из истории транзакций, для сравнения
206 1481716
>>81289
Из всего я вынес примерно 10% сути, которая постоянно пригождается. Но если я эту суть кому-то пересказываю, никто нихуя не понимает, видимо это так не работает.
В целом чем больше ты знаешь, тем больше в мозге ассоциативная карта и тем быстрее ты учишься, понимаешь и запоминаешь чужие пейперы. Но если тебе нужно понять конкретный пейпер, допустим, за месяц, ты можешь за этот месяц прочитать все референсы из этого пейпера вплоть до учебников по математике и что-то родить.
207 1481720
>>81400
Можно преобразовать историю транзакций из
[понедельник; +500; от васяна]
[пятница; -500; васяну]

в еботу виде
[500; эмбеддинг васяна;
0; 0;
0; 0;
0; 0;
0; 0;
-500; эмбеддинг васяна;

И скормить это дело CNN с архитектурой типа WaveNet. Может учиться побыстрее LSTM. Но в целом не думаю, что сработает e2e.
208 1481750
>>81720

>WaveNet


Нахуя ему генерировать транзакции? у него задача предсказания кредитного рейтинга
14686749226180.jpg51 Кб, 604x372
209 1481767
210 1481795
>>81767
>>80852
Может он с доски хуёво парсит. Проверь, если да форкни.
211 1481821
Вопрос к вам, знатоки.
Обязательно ли знать матанскую кухню машобовских алгоритмов? Если да то насколько глубоко если цель вкатиться через одиночные проектики для бомжей в удаленку?
212 1481836
>>81821
Блядь, мало жуликов в среде пхп-лендингов, ща еще и ML-фриланс засрете так, что перед тем, как тебя заапрувят на проект, будут или спрашивать пятилетнее портфолио, или заставлять поворачивать деревья.
213 1481839
>>81750
Если ты ограничишь выход WaveNet одним нейроном, у тебя получится неплохой классификатор 1D-сигналов. Суть-то не в генерации, а в стеке dilated convolution'ов.
214 1481875
>>81767
Говно. AMS-TeX не поддерживает.
215 1481954
>>81836
Не собираюсь "жульничать" лол, я просто спросил про порог для фриланса, к чему такая агрессия?
216 1481972
>>81821
В удаленку проще вкатиться через вэб или джаву для приложений.
5233341A-E5EC-4D30-BA88-4861341E8414.jpeg93 Кб, 959x1280
217 1482032
>>81954
Я не работаю в DS, но судя по тому, что я читал , в большинстве случаев нужен уровень 1-2 курса, те ты понимаешь теоретическую часть матана, линала, тервера и матстата и ручками можешь решить шаблонные задачи.

Для примера вот ссылка на вступительный тест в новую школу анализа данных от mail.ru для специалистов с опытом
https://t.(убери эту вставку)me/kantor_ai/53
Автор канала - экс-сотрудник яндекса, преподает в ШАД
218 1482333
>>82032

>не скачивается


ебаные дебилы блядь, теперь они интернет захотели засунуть в мессенджер
219 1482357
>>82333
Куда тебе интернет, если с одним мессенджером разобраться не можешь
Безымянный.png102 Кб, 850x1167
220 1482395
Задоминировал омежку.
221 1482404
>>82395
Какие-то унылые выебоны cunt destroyer'ов на публику.
222 1482542
>>82404
Zachar_5, ты?
Сладкоежку повторить решил?
223 1482543
>>82395
шваброхомячье можно только обосать, не более
224 1482743
>>82395
Оба хуесоса, которые путают ряд Фурье и дискретное преобразование Фурье. ДПФ имеет конечное число коэффициентов. Формулы тоже какие-то кривые, но копаться в этом куске говна лень.
225 1482847
>>82743

>путают ряд фурье и дпф


нет, они обсуждают именно ряд фурье
зачем ты это высрал вообще?
226 1482882
>>82847
Ты тоже хуесос, если не понял, о чем я.
227 1482893
>>82882
Да и нейронки сами это вообще какая-то залупа. Делаешь преобразования Фурье, а на деле твоя работа будет нужна для распознавания ебел каких-то унерменшей с гос структурах или для вычисления кредитного скоринга. При этом еще и разработчиком себя не чувствуешь и делаешь import slesarplow as keras
228 1482903
>>73408 (OP)
Нейронки это не исследования, а самая обычная область, где тебе платят за то, насколько качественно ты делаешь флюродрос бизнесу.

Что примечательно, есть задачи на нейронках, которые нужны государству. Но их реализуют все равно частники, ололо.
229 1482959
>>82903

>Но их реализуют все равно частники, ололо.


Почему "но"? Ты нам из СССР пишешь?
1567107127110410130.jpg130 Кб, 650x471
230 1482976
>>82959

>Ты нам из СССР пишешь?


Тот анон прав, чем занимается куча НИИ и ученых в говнемоченых? Всю эту теоретическую пидарасню с академии наук гнать саными тряпками, а то на одного робофедора сотня кукаретиков.
15666057474581.png47 Кб, 326x281
231 1483100
>>82976
Если зумер не понимает, чем занимаются учёные, значит они не нужны, и дебилы тоже учёные, а не зумер. Я тебя правильно понял? Вы себе реально мозги тайдом убиваете, https://en.m.wikipedia.org/wiki/Consumption_of_Tide_Pods или от рождения такие альтернативно одаренные?
232 1483125
>>83100

>чем занимаются учёные


Выращивают новых ученых и пилят бабло, что сказать то хотел?

Британский математик доказал гипотезу Римана.
Гипотеза о распределении нулей дзета-функции Римана была сформулирована математиком Бернхардом Риманом в 1859 году.
Она описывает, как расположены на числовой прямой простые числа. Без этого доказательства человечеству был бы пиздец.
15686456905830.jpg84 Кб, 996x1006
233 1483137
>>83125
Я тебя услышал. Иди тайд доедай, топовый подросток.
234 1483138
>>82976
Я про НИИ и госучреждения вообще не говорил, дурачок.
1568268880167852910.jpg189 Кб, 1101x663
235 1483139
>>83137

>Я тебя услышал


А ты кто? Ноунейм ученый просравший всю жизнь в универе, который пытается доказать свою нулевую значимость доя социума? Хорошо слышно?
236 1483140
>>83138
Не ври
237 1483207
>>83100

>nearly 7,700 pod-related exposures to children age 5 years and younger



Причем тут вообще зумеры?
Как же ты серишь себе в штаны, пиздец.
238 1483249
>>83207
Это все, что ты из статьи понял? Тоже поди тайдом балуешься, а, зумерок?
239 1483250
>>82893
Только если ты дод который не может загуглить чем кнн от кминс отличается. А так всё нормально, никакого комплекса неполноценности.
240 1483251
>>83250
Хоспаде, сдвачевавшийся долбаеб с протекающей от тайда крышей, воюющий с воображаемыми врагами, называет кого-то додом. Ты же настолько дэбилен, что даже не понял суть того диалога про кнн, зато свое зумерское мнение имеешь.
241 1483252
А где самые дешёвые вычислительные ресурсы?
Пытаюсь вкатиться в ml, но на моем макбук эире все занимает вечность.
Или лучше комп собрать?
Есть бюджетные варианты?
242 1483260
>>83249
Слишком толсто и глупо. Называешь нас зумерами, а сам вечером пятницы не можешь найти своей персоне никакого достойного применения, кроме как пытаться в троллинг на дваче.

Фу, мне противно.

Кстати, это даже смешно. Я ни на секунду не сомневался, что ты начнешь аппелировать к тому, что я не понял каких-то аспектов статьи, хотя их не понял именно ты.
243 1483261
>>83252
гугл колаб
ABC5EFE0-6945-4D07-8D7A-972CC3DAFD4F.jpeg178 Кб, 1080x1080
244 1483270
Наткнулся тут на видос, спикер из яндекса рассказывает про зарплатную вилку, джун, который "может рассказать про доверительные интервалы" получает до 120к ,он это серьезно?

13:05
https://youtu.be/gGce2JDbJAQ
245 1483279
>>83270

>до 120к


Слишком много для Хуяндекса.
246 1483330
>>83270
Какой то странный этот Валера
image.png18 Кб, 734x197
247 1483334
Что такое VOC format? Гугл кидает либо на датасет Pascal VOC, либо на xml.

https://github.com/experiencor/keras-yolo3
248 1483368
>>83251
Сколько нужно скушать тайдподов чтобы перепутать кнн с кминсом?
249 1483370
>>83270
Что-то маловато, но это ямбекс, что с них взять.
250 1483377
>>83368

>кнн с кминсом


Шо то говно, шо то
Мимо
251 1483379
кнн это рекурсивная аббревиатура - кнн не нужен
252 1483381
>>73982
Понял, что нихуя не знаю из перечисленного, зарыдал
word-embeddings-phd-student
253 1483383
>>83381
*почти нихуя
254 1483410
>>83381

> нихуя не знаю


> phd-student


Вся суть машобчика на Блинолопатии. Да и не только машобчика.
255 1483411
>>83410
щито поделать, вылезаторствую потихоньку, на постдок надеюсь поехать за бугор
бака-мухгу-мага-дс-универ-пхд-якобы-топ-дс-универ
256 1483475
Где ищется работка по данной специальности?
хх? прочие подобные сайты?
Конфа одс вообще нужна для такого?
257 1483483
>>83330
Ёбнутый гнум сайкопат
https://youtu.be/HuAjBrjWfYI?t=424
258 1483506
>>83270
Джунам в Яндексе платят от 50к до 120к независимо от направления, а после
этой отметки идут зарплаты мидлов. Ничего особенного, ради такой зп придется долго расти внутри компании.
259 1483529
>>83483
Почему ебнутый сайкопат? По-моему он обычный быдломужик. В рашке таких много.
260 1483551
>>83529

>в рашке


> быдломужик


На /po/рашу, быдло.
261 1483559
>>83551
Вата загорелась и горит.
72.png105 Кб, 300x225
262 1483560
>>83559

>Вата загорелась и горит.

263 1483561
>>83250

>дод


Дод это dead on date?
264 1483586
>>83529
Ну процентов 80% таких русскех мужичков и есть психопаты, таскающие с ножами по улицам. В /b/ загляни, например.
265 1483979
>>83561
DataOrientedDesign
267 1484228
очные задачи.png70 Кб, 1170x598
268 1484230
>>82357
А почему очный экзамен не выкладывают? Обещали статью или типа того.
3bc7bc030fad10c9b37619a25a9b05ff.jpg70 Кб, 640x570
269 1484261
>>73408 (OP)
Привет, двач. Есть у кого на примете годный курс лекций по алгоритмам? Знаю, что библией алгоритмизации считается книга Кормэна(потом по нисходящей идут Дасгупта и Бхагарва, тоже знаю) и мне нравится её полнота, однако, формальный язык очень и очень отталкивает, не способствуя пониманию. Да и вообще, формат лекций мне как-то ближе, нежели просто чтение книги. В общем, какие требования? Полнота(речь не об N-полноте, лол) Кормэна в сочетании с интересным, не сухоформально рассказывающим преподом. А, да, и чтобы на русском(знаю, что охуел). Подскажите чего по сабжу?
270 1484299
>>84230
Наверное, чтоб можно было дать его в следующем году, кек
Ну а вообще, судя по этим постам, можно пройти и без письменного
15436678629821.mp4478 Кб, mp4,
480x360, 0:08
271 1484304
>>84299
Я только первую задачу решил за полтора часа, а они ее даже не учитывали.
2FB574EE-AAF3-42F7-B3CA-6E5A9B419420.jpeg107 Кб, 640x640
272 1484349
>>84304
что за задача такая
273 1484355
>>84230
Интересно, мне бы сказали на экзамене, что коммутатор это AB - BA? Я такой термин первый раз в жизни встречаю, хотя прочитал 2 книжки по линалу и эту задачу решил.
274 1484384
>>84349
Из заданной последовательности чисел вывести число с максимальным количеством делителей.
BAFA8B1F-5F3D-4C3D-B7BF-0B32E7D7D752.jpeg390 Кб, 1080x1350
275 1484407
>>84384
Звучит довольно просто, если в лоб решать, то для каждого n из последовательности в цикле от 1 до n делить и записывать в переменную кол-во успешных делений без остатка, если для нового n это число больше, то перезаписывать
276 1484429
>>84407
Я словарь добавил.

.dict_ints = dict((c, 0) for i, c in enumerate(list_int))

.for i in list_int:
. numb = 0
. for j in range(1, i + 1):
. if i % j == 0:
. numb = numb + 1
. dict_ints = numb

.max_int = max(dict_ints.values())
277 1484619
>>84230
Ответ на 1 задачу ((e - 1)^2) / 2?
278 1484707
>>84429
говно, переделывай с поиском всех простых делителей до sqrt(n) и последующим подсчетом составных делителей
279 1484718
>>84230
Блядь, какое же совковое говно. Нахуя спрашивать у поступающих что-то по теме, давайте устроим нерелевантный экзамен на математику и будем надеяться на корреляцию.
И я понимаю когда при поступлении в ВУЗ якобы требуют школьную программу (которая по сравнению с тем что нужно выдрачивается до уровня как в профессиональном спорте), потому что это внковая бюрократия, но что тут-то мешало нормально сделать.
280 1484723
>>84718

>Нахуя спрашивать у поступающих что-то по теме, давайте устроим нерелевантный экзамен на математику


Макаке неприятно что его ценные знания по тому как сделать фитпредикт никого не интересуют, а на обучении профессии где нужно уметь думать проверяют внезапно умение думать.
281 1484732
>>84723
Это в задаче "найти сумму ряда" нужно умение думать? Если ты так думаешь, то думать ты как раз не умеешь.
282 1484733
>>84355
Что это были за книжки? Там наверно и про скобку Ли ничего не говорилось? Это не релевантно простому линалу, но где твой кругозор, анон? На экзамене было именно AB-BA≟E, но я просто по памяти напечатал как мне удобно.

>>84299
Ну что за глупости, не стали бы они повторять задания на следующий год. Даже с вариациями.
Сука, все сидят в телеграме, что за интернет в интернете, бесит.
По сабжу, подход вызывает уважение.

>>84718
Я согласен, но заебали во всём совок винить. Я не совкодрочер, но вот так, по делу и без дела - это не от большого ума. Везде так, вот везде, кроме каких-то единичных мест. Единственные известные мне примеры - когда дают задачки на основы теорвера, линала и статистики, когда проверяют знание SQL (привет, тинькофф). Но видишь ли какая проблема, дохрена нас таких, кто нормально знает основы. Нужно из этого дохрена (150) как-то отсеять нужное количество человек (допустим 50). Как это делать? Расскажи. Мне других способов проверить "креативность", кроме как надеяться на корреляцию с решением олимпиадных задачек не известно. Никому не известно, отсюда и эти странные задачи на собеседованиях в конторки типа гугла.
И то этот Кантор, судя по постам выше, оказался достаточно человечным, чтобы _попытаться_ уменьшить этот бредор.
283 1484737
>>84732
Если в такой задаче тебе даже думать не надо, то в чём сложность её наличия? Берёшь и не думая всё сдаёшь. Изи. Даже помнить ничего конкретного не нужно, разрешается брать любые печатные материалы.
284 1484746
>>84732

> думать ты как раз не умеешь


Спасибо, как-нибудь обойдусь без вердиктов макаки, которая в своём мухгу видела только механические однотипные задачи на сумму рядов и думает что ими всё ограничивается.
285 1484751
>>84733

>Что это были за книжки?


Наверное какое-то старое говно для подготовки инженеров-слесарей, где под вершинами линейной алгебры обычно имеют ввиду кучу формул для перемножения матриц специального вида или ещё какой-то бред.
286 1484753
>>84733

>Мне других способов проверить "креативность", кроме как надеяться на корреляцию с решением олимпиадных задачек не известно.


Самое банальное - спрашивать по теме учебы.
Потому что что подразумевается. Есть совковый школьник, он честно учится в совковой школе, на экзамен приходит, не готовившись, отвечает по программе, поступает. Все логично и просто.
На деле происходит следующее. Известная бюрократическая формула "как только что-то статистическое становится KPI, статистика перестает адекватно показывать действительность". Есть конкуренция, и есть люди, которые ради конкуренции начинают задрачивать подобное дерьмо. Проходят от этого, естественно, НЕ ТЕ люди, при чем они задрачивают какую-то рандомную пыль, которая родилась в мозгах бюрократа и является смесью случайности и его, бюрократа, синдрома утенка (типа: ну ЭТО-то все должны знать).
Можно поступать проще. Хочешь поступить - реши задачки из темы курса. Тогда хотя бы это будет не рандомная хуйня. Правда, мозг бюрократа от такого переклинит: мол, нахуя поступать если в итоге пройдут те, кто способен в самообучение. А как тогда оценивать эффективность самого бюрократа? Не, так не пойдет.
На самом деле, чем так, проще бросать рандомный кубик. Работать будет не менее эффективно.
287 1484763
>>84753

> бюрократы


> бюрократы


> пропускают задротов а не меня умненького


> ну я умный на самом деле просто не савок


Макак, успокойся уже, каждому своё. Ну не родился ты достаточно умным, можешь работать обычным кодерком, они тоже совсем не бедно живут. В любом случае нечего каких-то рептилоидов-бюрократов придумывать, в шаде умненьких студентиков учат умненькие преподаватели, естественно порог получается повыше знания какого-то очередного фреймворка и умения простейшие задачи с монетками решать.
288 1484770
>>84753
Тут такое дело... Этот школьник приходит, сдаёт экзамен на полный балл. И ещё 100 школьников сдают. А мест всего 10. Придётся в этот экзамен добавить нечто (назовём это "второй этап"), что отсеет из 100 школьников, которые знают программу, 10 школьников, которые могут что-то ещё (например, имеют железную жопу, чтобы задрочить применение своих навыков до олимпиадного уровня). В итоге профит: кого бы ни взяли, они всё равно знают необходимое (напомню, они прошли первый этап), так что совсем левых не возьмём.
Можно сделать, как ты говоришь. Добавить к этому второму этапу альтернативный второй этап, который проверит знание релевантных программе вещей. И отбирать будем и по нему.

Ой, погоди-ка, но ведь Кантор так и сделал. Первый (заочный) этап, второй олимпиадный (очный) (на самом деле задачи для олимпиадников там простые) и альтернативный второй - контест по анализу данных (куда уж релевантнее).
Так в чём проблема? Как можно ещё улучшить?
289 1484772
>>84763

>Макак, успокойся уже, каждому своё. Ну не родился ты достаточно умным, можешь работать обычным кодерком, они тоже совсем не бедно живут.


Ты обо мне не знаешь нихуя и сводишь аргументацию к "не служил - не мужик".

>в шаде умненьких студентиков учат умненькие преподаватели


Да вообще-то нет. В шаде случайных студентов учат туповатые преподаватели, не способные создать нормальный вступительный тест, будучи статистиками по профессии. То, что на этом фестивале тупости они друг другу надрачивают, не делает никого в этом процессе умными. Во всяком случае, мозгов доказать это у тебя точно нет.
290 1484798
>>84770

>В итоге профит: кого бы ни взяли, они всё равно знают необходимое (напомню, они прошли первый этап), так что совсем левых не возьмём.


Сомнительный профит, исходящий из того, что KPI бюрократа - это средний балл, и левый двоечник для такого наамного страшнее, чем десяток посредственностей. Поэтому сначала ты создаешь подобную говносистему в виде лучшего в мире советского образования, а потом создаешь систему спецшкол, в которую берешь людей с детства, потому что данная система тебе не может дать нормальных специалистов.
Это - в оригинале (и совок правда не при чем, просто подобные эпитеты показывают, что я имею в виду), потому что тупой корпоративный мозг мейлрушников просто подобную поебень воспроизводит, не задумываясь. Так повелось, хули.

>Так в чём проблема? Как можно ещё улучшить?


Не спрашивать нерелеватное говно. Если ты собираешься учить людей линейной регрессии, спрашивай у них про линейную регрессию. Тогда на лекциях придется иметь дело не с унылым зачитыванием учебника (люди сами изучили основы при поступлении), а, не теряя времени, объяснять то, что самостоятельно можешь пропустить.
В идеале вообще сделать онлайн-курс и тех, кто его сдал хорошо (по результатам оффлайн экзамена, мы же не за жуликов), звать на курс для продвинутых.

Те же интегралы и ряды, например, - это отрыжка МЕХмата. Когда-то, между 30-ми и 70-ми, государство платило за них, чтобы можно было делать ракеты (нужны были сотни макак, умеющие брать интегралы), дальше эти макаки начали вариться в собственном соку, навыдумывали задачек, и теперь это считается типа латыни в медицинских рецептах, нахуй не нужно, но ЕСЛИ УМЕЕШЬ ДУМАТЬ ТО РЕШИШЬ ЕПТ.
291 1484837
>>84798
Ещё раз. К тебе пришло 200 человек, из них 100 ответили тебе линейную регрессию, а мест 10.
Что ещё делать, как не спрашивать что-то дополнительное, релевантное в той или иной степени? Вот как?
292 1484843
>>84772

> Да вообще-то нет. В шаде случайных студентов учат туповатые преподаватели


Аргумент. Да вообще-то да, а фантазии макаки которую не пустили и она теперь обидки кидает придумывая на пустом месте всякую хуйню никого не интересуют, напомню.
293 1484852
>>84837
Спрашивать по кишочкам кераса, естественно. Выпускать же нужно макакичей, которые матиматики не знают, но умеют правильно заимпортить хуйню из библиотеки.
294 1484903
>>84733

>Что это были за книжки?


LADW, LADR + лекции 18.06 MIT.
>>84751

>кучу формул для перемножения матриц специального вида


Именно этого мне не хватает. Я много олимпиадных задач по линалу видел, которые решаются хитрыми формулами типа инверса блочной матрицы. Решаю дома, гугля развороты с формулами на все случаи жизни. В задаче на совместную обратимость M и N, например, нужно было использовать формулу детерминанта блочной матрицы для случая коммутирующих блоков (возможно и иначе можно было решить). На экзамене бы отсосал, потому что в вызубривании спецформул не силен.
295 1484918
>>84903

>вызубривании спецформул не силен


Ты наверное не понял, это не есть линейная алгебра.
Линейная алгебра это наука о модулях над кольцом.
296 1484922
>>84918
Ты наверное не понял мой пост.

>Линейная алгебра это наука о модулях над кольцом


С точки зрения теоретической математики? Формулы детерминанта блочных матриц оттуда?
297 1484961
>>84922
В каком смысле с точки зрения? Линейная алгебра - это бОльшая часть математики. Что такое детерминант блочных матриц не знаю.
det37 Кб, 893x271
298 1484973
>>84903
Ладно, признаю, книжки не дно. Может, я зря на своём мунспике назвал коммутатор коммутатором, потому что как отдельный объект вне алгебр Ли он наверно и правда не особо рассматривается. У нас, физиков, коммутатор операторов - обычная штука в квантовой механике.
На счёт кучи формул для перемножения матриц специального вида - мб подразумевается, что ты можешь их родить, если посидишь часок над задачкой. Так-то и правда есть сборники-справочники всякие. У меня вот в электронном виде есть такой, на 750 страниц.

Расскажи как решать 4 задачу, если случайно помнишь прикреплейтед формулу?
299 1484989
>>84837

>Что ещё делать, как не спрашивать что-то дополнительное, релевантное в той или иной степени?


На колу мочало, начинай сначала. Вот здесь >>84230 нет ничего релевантного. Если ты пытаешься поступить куда-то, есть вероятность, что ты этого не понимаешь. Но это так.
Подобная хуйня имеет смысл, когда на дворе 19 век, спецлитературы нет, а тебе нужно отсеить школьников. Приходит на помощь школьная программа. Сейчас же тебе откровенно похуй, учить нерелевантные формулы общевузовской высшей математики, или что-то релевантное. Но тебя заставляют учить нерелевантное. Просто потому что ТАК ПОВЕЛОСЬ.

>>84843

>Аргумент


Ты так и не принес пруф на то "в шаде умненьких студентиков учат умненькие преподаватели". Равно как и на то, что я макака.
300 1484990
Сап двачик. Пишу(буду) диплом по капсульному классификатору(текст или картинки) подскажите пожалуйста какой то апликэйшин под эту тему. Надумал только классифицировать картинки с хуёвым расширением.
301 1484992
>>84989
Дальше бессмысленно. Ты считаешь, что нерелевантно, я считаю что релевантно. Всё, дискуссии больше, видимо, не будет. Ну лан.
302 1484994
>>84992
Дальше ты должен доказать наличие: раздел программы обучения, где это релевантно. Начни с рядов, бггг.
Screenshot2019-09-2923-52-56.png23 Кб, 961x112
303 1484995
>>84973
По-моему 4-я задача следует из этой формулы из русской википедии. Она наверное пиздецки известная, если она есть в русской википедии, лол.
304 1485010
>>84992
Долго же ты с ним мыкался, а мне с первого поста всё понятно стало.
305 1485015
>>73408 (OP)
Ботаны, го в попчан няшится!
306 1485018
>>85010
Хули тебе ясно стало, пришел с предубеждением, высказал ноль аргументов, кроме "ряяяя, тебя не взяли ты и бомбишь))))", и дальше довольный продолжил демонстрировать свое предубеждение, что объект твоего религиозного поклонения могут критиковать только макаки и неосиляторы. Ты даже осознать глубину своей ригидности не можешь.
307 1485020
>>84995
Я уже устал и мне лень думать, но вроде бы ещё надо доказать, что если D-CB обратима, то и D-BC обратима. Как это сделать?
308 1485024
>>84903

> LADW, LADR


Раскрой ньюфагу аббревиатуру, пожалуйста, а то ничего не ищется.
309 1485025
>>85020
Зачем. Если формула верна, то для обратимости матрицы
A B
C D
данного вида (A и D - квадратные матрицы) достаточно обратимости матрицы A. У нас A=eye().
310 1485031
>>85025
А, нужна еще линейная независимость строк матрицы [C D]. Да, не подходит в лоб формула.
311 1485034
>>85024
Двойка по гугл-фу.
иди в гугл и напиши "LADW linear algebra" или "LADR linear algebra"
господи, какие иногда беспомощные встречаются, и даже не знаешь, это молодёжь тупая или старые пердуны не могут в гугл (хотя оба варианта вероятны)
312 1485037

>> [E A; B C]


ans =

1 0 1 1
0 1 1 1
1 2 1 2
7 8 1 2

>> [E B; A C]


ans =

1 0 1 2
0 1 7 8
1 1 1 2
1 1 1 2

Контр-пример. Нде, ну и задача.
313 1485042
>>85037
А как подбирал?
314 1485043
Строки матриц E A и E B всегда линейно-независимы из-за E.
Значит, нужно подобрать такой случай, чтобы строки B C было линейно-независимыми, а A C - линейно зависимыми (равными в простейшем случае).
ваша макака
315 1485051
>>84733

> знание SQL (привет, тинькофф).


Лол, так я угадал про пенькова.
316 1485053
>>85051
где
317 1485058
>>84733

>Но видишь ли какая проблема, дохрена нас таких, кто нормально знает основы. Нужно из этого дохрена (150) как-то отсеять нужное количество человек (допустим 50).


а зачем? это же не работа а учеба
14618611171890.jpg49 Кб, 604x604
318 1485133
Как определитель матрицы весов меняется при изменении ошибки обучения?
319 1485138
>>85133
Ты что-то не дописал в условии задачи
320 1485140
>>85138
Чем начальные матрицы весов отличаются от обученных с точки зрения линала?
321 1485144
>>85140
Ничем, ты же обратным распространением меняешь веса в соответствии с ошибкой между желаемым и полученным
322 1485146
>>85140
Начнем с того, что определитель имеет смысл только для квадратной матрицы. Ты часто видел квадратные матрицы весов?
323 1485212
>>85144
Ошибка по каждому весу отдельно считается?
324 1485231
>>85212
Ошибка у тебя одна, это скаляр. Далее ты вычисляешь частную производную этого скаляра по каждому весу, и апдейтишь каждый вес так, чтобы ошибка уменьшилась (то есть на направлению, обратному этой самой частной производной). Называется это градиентный спуск. Никакого линала тут нет, сплошной матричный матан.
325 1485237
>>85018

>Хули тебе ясно


Про таких как ты - всё, достаточно только лишь бросить взгляд на твои простыни, полные провинциальной ресентиментарной хуйни про злых бюрократов в спецшколах, берущих букашек-посредственностей вместо Гения в белом пальто.
326 1485261
>>85237
Опять вагон предубеждений. Я хорошо понимаю как те задачи, которые там описаны, так и профессию, чтобы заявлять об отсутствии связи. Если ты в это говно поступаешь, значит ты не понимаешь профессии, мал еще. Если ты не смог решить 4-ю задачу, то ты и в задачах этих ничего не понимаешь.
Ну и опять же, если ты уверен, что решение 4-й, допустим, задачи, так важно, почему ты ее не решил? Получается ты тупее меня в твоей же системе координат.
327 1485315
>>85146
Окно свертки.
328 1485402
>>85261

>значит ты не понимаешь профессии


В третий раз, шад и не нацелен на то чтобы выпускать макак и датаслесарей типа тебя (хотя там есть пара отделений специфических вроде). "Профессию" твою любой человек не с двухзначным айкью освоит за пару дней, там же в основном готовят дата саенс и мл ресёрчеров, от таких людей требуется умение думать, а не знание того что нужно заимпортить из склерна для линейной регрессии. Ну тебе это уже несколько людей сказало, но всё как об стенку горох, потому что с ресентиментом и эмоционально мотивированной позицией никакие аргументы не справятся.
329 1485416
>>85402

> шад


Инфоцыгане, впаривающие чудодейственные курсы по цене 130к/семестр. Покажи хоть одного работающего исследователя из их выпускников.
330 1485436
>>85402

>от таких людей требуется умение думать, а не знание того что нужно заимпортить из склерна для линейной регрессии


Еще бы маня типа тебя знала, что мне требуется на работе. Рессентимент как есть - это не я тупой, это датамакакам повезло, что им по 400к платят, а они при этом на дваче сидят. Ты тот шизик, который knn и kmeans путает, или другой?
Вот это >>85037 - умение думать. А "я прорыл кучу учебников в поисках спецформул и все равно слооожна блядь", обернутое в пафосные речи - это попытки тупой маньки съехать на зубрежку формул вместо мышления. И, что характерно, эти формулы даже в работе не помогут, потому что сейчас бы обратные матрицы искать на серьезных щщах.
331 1485553
>>85436
Создают теорию нейросетей те, кто знает математику. А не те кто подбирает значения методом тыка.
332 1485579
>>85436

>Ты тот шизик, который knn и kmeans путает, или другой?


Не, это я.
вопрос.PNG14 Кб, 529x110
333 1485610
Здравствуй анон, спасибо за твое внимание.

Вопрос по svm'ке, пожалуйста объясни как для дибила, на пальцах
то что мы пытаемся минимизировать длину вектора w, я понимаю это для увеличения "зазора" между двумя опорными векторами, t в скрине это метка для классов(1 - положительный, -1 - отриц.), на второй строке творится непонятное, почему такое условие?
334 1485611
>>85610

> на второй строке творится непонятное, почему такое условие?


Линейная, точнее аффинная функция y=ax+b, разделяющая классы.
335 1485633
>>85610
Минимизировать ошибку через метод наименьших квадратов.
336 1485641
>>85034
Спасибо.
15648545809010.webm1,7 Мб, webm,
400x224, 0:16
337 1485667
>>83475
Бамп вопросу.
338 1485687
>>85436

>Еще бы маня типа тебя знала, что мне требуется на работе. Рессентимент как есть - это не я тупой, это датамакакам повезло, что им по 400к платят


Макак, к чему это кокетство? Обосравшись, пальцы веером тут раскидывать не стоит, лучше давай ещё какой-нибудь дурацкий сентиментальный пассаж про дядек-бюрократов, обижающих гениального мальчика.

>умение думать. А "я прорыл кучу учебников в поисках спецформул и все равно слооожна блядь", обернутое в пафосные речи - это попытки тупой маньки съехать на зубрежку формул вместо мышления


У макак всё с ног на голову: закодить брутфорс это умение думать, нестандартные задачки на умение соображать где ничего сильнее стандартного курса знать не надо - тупые ботаны, задрочили и прошли. Профессиональная деформация, видимо, или может распалённый пердак думать мешает.
339 1485762
>>85610
Бамп, зачем ограничитель(2-я строка)?
340 1485845
Пиздец у вас тред токсичный)
341 1485865
>>85633
Откуда метод наименьших квадратов в SVM, чё несешь-то?
SVMoptimize.png20 Кб, 517x290
342 1485891
>>85610
Смотри на картинку.
||w||=w' w , это первое условие.
Далее подставь t=-1,1, подели обе части на t, знак уравнения в случае -1 сменится, получишь, что твоя вторая строка это то же самое, что (wx+b)>=1, (wx+b)<=-1. То есть это условие указывает, с какой стороны от разделяющей плоскости должны находиться твои классы.
343 1485896
>>85687

>Обосравшись, пальцы веером тут раскидывать не стоит


Действительно. ML-тред привлекает шизиков, которые, с одной стороны, уверены, что ML очень прост, с другой - путаются в базовых понятиях и не могут не только решить задачи по линейной алгебре, но и даже въехать в решение (оказывается, это был метод тыка, лол). Вместо этого они несколько часов ищут нужную формулу в книжке.
Маня, если я критикую вступительные куда-то, это не значит, что я не могу их решить. Но до тебя это никогда не дойдет.
344 1485906
Нахуй тем, кто может решить экзамен ШАД, идти в ШАД? Нахуй создавать из ШАД клуб илиток? Лол, да если я в одно ебло освою все темы для экзамена, я и всю остальную математику задрочу тем же способом
345 1485918
>>85906
ШАД нужен для хедхантинга толковых студентов, больше ни для чего он не нужен
346 1485928
яндекс вообще говно какое-то
я хотел попробовать попасть в их шри, узнал что надо иметь дело с бэм и сказал ебитесь вы конем
347 1485973
>>85906
А с универами/школами это тоже работает? и нахуя вообще тогда из пизды вылезать?
348 1486143
>>85896

> вам никогда не понять..


Ну в общем я понял, ты всё будешь продолжать обсираться постя одну и ту же хуйню раз за разом. Остужайся, макакен.
349 1486187
>>85891
Большое спасибо, как я понимаю такое ограничение сделано для удобства расчетов, чтоб при минимизации wTw(увеличении зазора) не возникали в уравнении (wTx + b) величины близкие к нулю, для удобства пусть выражение в скобочках для x-ов (а именно объектов) которые стоят у самой границы равняется 1 или -1.
350 1486232
>>86187
Понять бы еще подробнее принцип работы ядра
351 1486235
>>86232
Ядро нелинейно искривляет пространство, делая изначально линейно неразделимую задачу линейно разделимой.
352 1486241
>>86235
Охуенно. Какую книгу почитать, чтобы в этом разбираться? Начинал Aluffi, но там немного не про то.
353 1486309
>>86241
ISLR наверни, 9ая глава про SVM. Вапника тоже можно, Vladimir N. Vapnik "The Nature of Statistical Learning Theory" , но он не для начинающих, нотация сложнее чем в ISLR.
354 1486318
>>86241
Шизика который тебе ответил не слушай, он сам ни в чем не разбирается
355 1486330
>>86318
Ну сам посоветуй что-нибудь, чучело.
356 1486388
>>86330
Ну вышел ты на пенсию — отдыхай. Нет, не хочу. Хочу говно молодняку в глотки пихать.
357 1486694
>>86388
Ну долбаеб ты — отдыхай. Нет, не хочу. Хочу другим указывать.
358 1486733
>>86318
Но тогда где он проебался, если очень кратко то ядра как я понимаю, "генерят" новые признаки, которые в некотором другом n пространстве разделимы n-1 гиперплоскостью, ответь без эмоций пожалуйста.
359 1486843
>>86733
Откуда такие познания?
360 1486858
>>86733

>если очень кратко то ядра как я понимаю, "генерят" новые признаки, которые в некотором другом n пространстве разделимы n-1 гиперплоскостью


Не ядра. Мы неявно вводим преобразование phi, такое, что в phi(x) задача будет линейно разделимой.
Но именно что неявно. Ядро - это такая функция K, что
K(x, x')=(phi(x), phi(x')), phi - неявное преобразование, а (,) - скалярное произведение
361 1486900
>>86858

>Мы неявно вводим преобразование phi, такое, что в phi(x) задача будет линейно разделимой


Это и называется "новые фичи", внутреннее представление,
362 1487202
import matplotlib.pyplot as plt
import numpy as np
import time
from sklearn.datasets import make_blobs
from matplotlib.colors import ListedColormap
X_D2,y_D2=make_blobs(n_samples=30,n_features=2, centers=2,
cluster_std=1.3, random_state=0)
plt.figure
plt.scatter(X_D2[:,0],X_D2[:,1],c=y_D2,marker='o',
s=50,cmap=ListedColormap(['#FF0000','#00FF00']))
def logisticFunction(X,theta):
h=1 / (1 + np.exp(-X[0]))
return h
theta=np.array([0.5,0.5])
print(logisticFunction(np.array([1,1]),theta))
def logisticRegressionByNumpy(X,y):
print('Logistic regression')
m=y.size
#print('m=',m)
on=np.ones([m,1])
#print('on=',on)
X=np.concatenate((on,X), axis=1)
#print('X=',X)
theta=np.array([0.1, 0.5, 0.7])
h=logisticFunction(X,theta)
#print(np.concatenate((X,y.reshape(-1,1),h.reshape(-1,1)),axis=1) )
alpha=0.05
iter=150
for i in range(iter):
theta=None
h= None
print('Result')
h=None
print(np.concatenate((X,y.reshape(-1,1),h.reshape(-1,1)),axis=1) )
return theta,h
theta,h=logisticRegressionByNumpy(X_D2,y_D2)
#print(logisticRegressionByNumpy(X_D2,y_D2) )

out:Logistic regressionResult[[ 1. -0.16288373 3.43367167 1. 0.11541267][ 1. 1.55329228 4.73756395 0. 0.08331115][ 1. -0.04279968 0.6211013 1. 0.56079306][ 1. 1.60298173 1.10091732 1. 0.62472714][ 1. 1.38325809 3.19346287 0. 0.22468078][ 1. 1.17770173 4.7953986 0. 0.0696791 ][ 1. 2.96888306 6.21395373 0. 0.04676088][ 1. 1.39122084 -0.63715818 1. 0.85898989][ 1. 0.89116099 1.40063691 1. 0.49801373][ 1. 2.91857287 4.03708158 0. 0.21321711][ 1. 0.42663355 1.90840112 1. 0.35579437][ 1. 3.40409547 3.03332608 0. 0.42122543][ 1. 2.01863062 1.45449509 1. 0.59678372][ 1. 0.84208557 4.83756538 0. 0.05969651][ 1. 3.65464541 2.46075746 1. 0.55858148][ 1. -2.34261668 5.1534915 0. 0.01394478][ 1. 1.03575615 4.06044832 0. 0.11267961][ 1. 3.92695109 2.41311195 0. 0.59391987][ 1. 1.96561912 4.46196485 0. 0.11739231][ 1. 2.21138502 4.10702296 0. 0.16261045][ 1. 2.10003714 3.3389728 0. 0.25489858][ 1. 2.14173991 1.29087713 1. 0.63885129][ 1. 0.99817735 -1.34650372 1. 0.90167225][ 1. 1.55174266 0.50467008 1. 0.72374108][ 1. 1.39271969 0.32816707 1. 0.73900903][ 1. 1.18106894 0.43024455 1. 0.7061229 ][ 1. -0.17785139 1.72875192 0. 0.33439181][ 1. 0.69214867 -0.94835966 1. 0.85563972][ 1. 1.16352672 6.19434289 0. 0.02393286]
[ 1. 1.2306488 0.42610014 1. 0.71082439]]

Ананасы, что идет в None?
362 1487202
import matplotlib.pyplot as plt
import numpy as np
import time
from sklearn.datasets import make_blobs
from matplotlib.colors import ListedColormap
X_D2,y_D2=make_blobs(n_samples=30,n_features=2, centers=2,
cluster_std=1.3, random_state=0)
plt.figure
plt.scatter(X_D2[:,0],X_D2[:,1],c=y_D2,marker='o',
s=50,cmap=ListedColormap(['#FF0000','#00FF00']))
def logisticFunction(X,theta):
h=1 / (1 + np.exp(-X[0]))
return h
theta=np.array([0.5,0.5])
print(logisticFunction(np.array([1,1]),theta))
def logisticRegressionByNumpy(X,y):
print('Logistic regression')
m=y.size
#print('m=',m)
on=np.ones([m,1])
#print('on=',on)
X=np.concatenate((on,X), axis=1)
#print('X=',X)
theta=np.array([0.1, 0.5, 0.7])
h=logisticFunction(X,theta)
#print(np.concatenate((X,y.reshape(-1,1),h.reshape(-1,1)),axis=1) )
alpha=0.05
iter=150
for i in range(iter):
theta=None
h= None
print('Result')
h=None
print(np.concatenate((X,y.reshape(-1,1),h.reshape(-1,1)),axis=1) )
return theta,h
theta,h=logisticRegressionByNumpy(X_D2,y_D2)
#print(logisticRegressionByNumpy(X_D2,y_D2) )

out:Logistic regressionResult[[ 1. -0.16288373 3.43367167 1. 0.11541267][ 1. 1.55329228 4.73756395 0. 0.08331115][ 1. -0.04279968 0.6211013 1. 0.56079306][ 1. 1.60298173 1.10091732 1. 0.62472714][ 1. 1.38325809 3.19346287 0. 0.22468078][ 1. 1.17770173 4.7953986 0. 0.0696791 ][ 1. 2.96888306 6.21395373 0. 0.04676088][ 1. 1.39122084 -0.63715818 1. 0.85898989][ 1. 0.89116099 1.40063691 1. 0.49801373][ 1. 2.91857287 4.03708158 0. 0.21321711][ 1. 0.42663355 1.90840112 1. 0.35579437][ 1. 3.40409547 3.03332608 0. 0.42122543][ 1. 2.01863062 1.45449509 1. 0.59678372][ 1. 0.84208557 4.83756538 0. 0.05969651][ 1. 3.65464541 2.46075746 1. 0.55858148][ 1. -2.34261668 5.1534915 0. 0.01394478][ 1. 1.03575615 4.06044832 0. 0.11267961][ 1. 3.92695109 2.41311195 0. 0.59391987][ 1. 1.96561912 4.46196485 0. 0.11739231][ 1. 2.21138502 4.10702296 0. 0.16261045][ 1. 2.10003714 3.3389728 0. 0.25489858][ 1. 2.14173991 1.29087713 1. 0.63885129][ 1. 0.99817735 -1.34650372 1. 0.90167225][ 1. 1.55174266 0.50467008 1. 0.72374108][ 1. 1.39271969 0.32816707 1. 0.73900903][ 1. 1.18106894 0.43024455 1. 0.7061229 ][ 1. -0.17785139 1.72875192 0. 0.33439181][ 1. 0.69214867 -0.94835966 1. 0.85563972][ 1. 1.16352672 6.19434289 0. 0.02393286]
[ 1. 1.2306488 0.42610014 1. 0.71082439]]

Ананасы, что идет в None?
363 1487224
>>87202
блядь h = 1 / (1 + np.exp(-np.dot(theta, X))) ебанный в рот почему я так туплю
364 1487226
>>87224

> h=1 / (1 + np.exp(-X[0]))


*12 строка
365 1487263
>>87202
Вот все это сочинение-простыня на тему "как я просрал время" ради регрессии? Пистон слишком костыльная параша для анализа данных.
366 1487424
>>87263
Байтоёб, ты?
Снимапапок.PNG4 Кб, 48x42
367 1487436
Гоняют ли на собесах по углубленным вопросам по матану машобных алгоритмов? Если я знаю в каком практическом случае применять тот или иной алгоритм, но не знаю как, например, решать задачу оптимизации smv, смертельно ли это? Иными словами ебашат ли по теории?
368 1487504
>>86858
Ок , спасибо, но почему неявно? Объясни пожалуйста на пальцах, почему не легче изменить напрямую признаки(нагенерить новые в матрице объекты-признаки)?
369 1487511
>>87504
В самом алгоритме все явно. Кернелом трансформируются входные данные. Ты возьми да посмотри ручные реализации SVM, что там пошагово происходит.
370 1487534
>>87511
http://tullo.ch/articles/svm-py/ вот ссылка, посмотрел охренел, с виду понятна задача оптимизации(1 пик), но что происходит у него не понятно, капец еслиб были ресурсы для дибилов было б офигенно, у него в коде ничего не ясно , спаси сохрани
371 1487624
>>87504
Так удобней решать задачу оптимизации, признаков становиться слишком много при таком преобразовании, к тому же в случае гаусовского ядра размерность пространства бесконечна.
372 1487660
>>87534
Код смотри, разберись что там делается с входами и выходами, для чего используется кернел, солвер квадратичных задач оптимизации. Саму математическую нотацию смотри в ISLR, говорю же там проще материал даётся.
Red-Bull.png156 Кб, 260x496
Датасет токсик комментов на русском 373 1487918
Помогите собрать датасет токсичных комментариев! Хочу сделать классификатор токсичности комментария. От вас нужно только написать токсичный комментарий, можно с матами, можно без матов, орфографические ошибки тоже опциональны. Заранее благодарю.
374 1487944
>>87918
П0wEJl HAxyu*, gJl9 -)T0r0 EcTb ryrJl
375 1488143
>>87918
Интересная идея, пройдись по трендам ютуба и полит роликам
376 1488161
>>87918
Был контест такой как-то, вроде на ML Trainings разбирали, напиши челикам.
377 1488253
>>87918
paesh gavna
378 1488286
>>87624
Вообщем, пришел к выводу что джуну это врядли надо, с ядром разобрался, как реализовать свм в чистом виде - нет, лучше попрактикуюсь на кегле, спасибо за внимание
379 1488302
>>87436
Бамп
380 1488309
>>87918
sosi hui bydlo
381 1488369
>>87436
Спрашивают обычно основы. Как работают градиентный спуск, регуляризации и т.п.
382 1488799
Сап двачик. Пишу(буду) диплом по капсульному классификатору(текст или картинки) подскажите пожалуйста какой то апликэйшин под эту тему. Надумал только классифицировать картинки с хуёвым расширением.
383 1488841
Помогите, зачем визуализировать данные, для характера распределения(для восстановления отсутствующих значений), для сокращения числа значений кат. признаков, для чего еще? ведь можно просто взять и "запихнуть" признаки в модельки и с помощью feature_importances_ посмотреть важные признаки , с помощью корреляции Пирсона(heatmap) или еще с помощью чего, зачем визуализировать? вот к примеру кернел https://www.kaggle.com/artgor/eda-and-models
зачем столько мега сложных графиков и т.д, объясните нубу, пожалуйста
384 1488962
Почему предиктивные модели не работают в трейдинге? И где они тогда вообще используются (если трейдинг не взлетит, хотя бы прокачаюсь не плохо и интересно где ещё это применить)
385 1488965
>>88962
Патамушта в трейдинг может модель, которая может и в предсказывание будущего
386 1488967
>>88965
ну предиктивность и означает предсказание будущего, не?
387 1488973
>>88962
Потому что рынки это шум
388 1488980
>>88973

>шум


Сам ты шум, это ваша маняматика не работает
389 1488981
>>88980
Рынки - это шум, а этот тред - магнит для шизиков типа тебя
390 1488985
Стоит ли вообще сюда лезть (в эту сферу), если впринципе поздно вкатился в it, аж в 24 (до этого с 19 лет эникействовал, нещитово короче). Сам в школе любил математику и даже в универе успел поучиться на бюджете (дропнул из-за эникейской работы). Сейчас более-менее только-только понял как в айти всё работает, прокачался в кодинге и теории, начинаю метить на более высокие позиции, но очкую что нейросети и рыночек готовых решений лет через 10 порешают весь этот кодинг и хочется как-то сменить профессию на более востребованную, где мало народа, в отличии от веба
391 1488989
>>88973
ок, я в принцие знал это. Но можно же зарабатывать на дёргании котировок, похуй куда цена пойдёт (тут уже больше речь о математических моделях и скорей всего они тупо будут основаны на мартине)
392 1488993
>>88985
И вообще, насколько там сильная конкуренция? А то вкатишься туда, выучишь всё, а окажется что задротов-математиков в мире нихуя не меньше, чем индусов-школьников-кодеров, дышащих в спину.
393 1489001
>>88985

> очкую что нейросети и рыночек готовых решений лет через 10 порешают весь этот кодинг


Ты ебнулся, даже естественный сильный ИИ под названием человек программировать, в среднем не умеет. Только отдельные уникумы, каждый десятый в лучшем случае. А ты считаешь, что за 10 лет будет создана нейросеть, получше.
Максимум, кого порешают за 10 лет - это переводчиков и художников, да и то не более, чем их уже технологии порешали. Просто художник будет пользоваться нейросетями, реализуя свои концепции.

Другой вопрос, что и без нейросетей в IT есть кому кого решать.
394 1489003
>>88989
На теханализе нельзя заработать.
395 1489007
>>89001

>Другой вопрос, что и без нейросетей в IT есть кому кого решать.


ну вот я и говорю - или рыночек или нейронки (они растут по экспоненте, поэтому не стоит их отбрасывать тоже)
396 1489009
>>89003
Так я и не про тех анализ, а про математическую модель, которая никак его не учитывает, которая не на целена на предсказания, а лишь сёрфит по волнам котировок делая ставки как в казино (но на финансовых рынках всё же можно свести мат ожидание в свою пользу + гарантированные выплаты).
397 1489010
>>89009

>математическую модель


сразу закапывай
398 1489011
>>89007
Это теханализ. Привет.
399 1489012
>>89010
ну как модель... тупо на мартингейле пусть зарабатывает робот, единственно, что нужно сделать такую логику, чтобы не проебаться (возможно на новостях даже придётся торговать, чтобы снизить риск проебать котлету, т.к. новости пока ещё работают)
400 1489013
>>89011
теханализ это уровни
401 1489019
>>88962
В каком трейдинге? HFT шаманство чистой воды, а в нормальном трейдинге крутятся реальные деньги, следовательно нужны реальные статистические оценки на риск и интерпретируемые модели, а не "натренил state of the art на 99% точности".
402 1489057
>>88962
Алсо, вопрос, есть смысл с ворлд квантом связываться?
403 1489058
>>88841
Бамп
404 1489066
>>89012

> пусть зарабатывает робот


>единственно, что нужно сделать такую логику, чтобы не проебаться


А ты забавный
405 1489068
>>89066
я имел ввиду, чтобы не чистый мартин был, а какой-то доп. алгоритм, который бы не дал спуститься ниже 10-го колена. Тот, кто придумает такое, естественно, станет миллиардером
406 1489076
>>89068
if koleno == 9 return

дарю алгоритм, зарабатывай миллионы
407 1489080
>>88962
объясняю
тупо натренировать модель на исторических данных равносильно в принципе древней фигне вроде подбирания наилучшей за какой-то промежуток длинны двух скользящих средних на пересечении которых надо покупать или продавать
проблема в том что эти наилучшие коэффициенты или веса наилучшие только на истории
у рыночных данных нет прогнозной силы т.е. цена не зависит или мало зависит от своего поведения в прошлом
408 1489093
>>88973

> Потому что рынки это шум


>>88980

> >шум


> Сам ты шум, это ваша маняматика не работает


Биба и Боба - кусок долбаеба. Один угашенный тайдом школопитек кукарекает что математика это наебалово, другой - что рынок это шум. Шум у вас в ваших головах из барбишопа.
e2dd58e05cbf2877ae31fc8e06a15a18.jpg91 Кб, 800x410
409 1489094
>>89093

>что математика это наебалово


Назови изобретения математиков.
411 1489293
>>89109
Пук
412 1489324
>>88967
и ты свято веришь что твоя предиктивная модель работает на реальных данных так же как и на тестовой выборке?
А ты задумывался над тем какие данные использовать для предсказания?
Для затравки: да, такие модели используются в HFT
15701504489580.jpg32 Кб, 600x683
413 1489592
Вы вдумайтесь, насколько сдвачевались. Что должно быть в голове (наплечной параше), чтобы этой головой верить, что результат действия на рынке никак не зависит от состояния рынка, от этих действий, что это шум и рандом. Как называется эта болезнь?
414 1489600
>>89592
та ну не, на интервалах в 0,3-0,7 секунд предсказывать движение можно, тот же ордер флов инбаланс или ордер бук инбаланс. можно на поводырях модель строить. это широкая и обширная тема.
415 1489612
>>89592

>никак не зависит от состояния рынка, от этих действий, что это шум и рандом. Как называется эта болезнь?


Маняматика головного мозга.
416 1489615
417 1489800
>>89600

>на интервалах в 0,3-0,7 секунд предсказывать движение можно


две строчки кода на любом ЯП встроенном в терминал трейдера, твое нейроговно там не нужно как впрочем и в других областях
15692170381210.gif425 Кб, 931x682
418 1489836
Причем тут вообще предсказания, вы цыганки что ли? Речь о детекции состояний рынка, благоприятных или нет для покупки или продажи актива. Это же типа автоматического управления кондером, "если температура воздуха высокая и растет, то нужно добавить оборотов" итд правила. Что тут предсказывать?
>>89612
Тебе на матеше в портфель ссали всем классом?
419 1489861
>>89836
В среденесрочной перспективе если центральные банки развитого мира понижают ставки, то появляются условия для надувания финансовых пузырей. Если наоборот повышают, то инвесторы бегут в облигации. Можно еще ловить отскоки после коррекции - скальпирование, но там нужен быстрый брокер с низкой комиссией. При этом при скальпировании вырываются вперед алгоритмы на низкоуровневых языках.
420 1489863
Нейросети торгуют на новостях.
421 1490006
>>89836
да лааадно, рынок имеет благоприятные состояния и неблагоприятные? А рынок то и не знал об этом
422 1490007
>>89861
съебись в форекстред
2038449182dd6b447329301de01b51659105dfa0e800[1].jpg36 Кб, 363x375
423 1490049
>>90006
Рынок остался только в странах 3 мира. В 1 мире он сохранился только на низовом потребительском уровне. На уровне макроэкономики там давно уже коммунизм для богатых - кейнсианство.
https://ru.wikipedia.org/wiki/Неоклассический_синтез
424 1490120
>>89836

>детекции состояний рынка


Пиздос, ты заебал своей детской кукаретикой, может пойдешь на хуй к брокеру и спустишь мамкину пенсию для начала.
425 1490121
>>90006
Ты вместо того чтобы нести хуйню, лучше ещё раз перечитай мой пост. Если уж решил ответить. Если нет, просто мимо иди.
426 1490123
>>90121
А ты это че раскомандовался тут?
427 1490134
Зачем люди продолжают вкатываться? Всех же заменит automl
428 1490150
>>90134
А automl кто настраивать будет? autoautoml?
429 1490201
>>90150
я буду настраивать, а ты будешь размечать картинки
430 1490222
>>90201
Тех кто умеет только керас импортировать заменят в первую очередь, макак.
431 1490223
>>90201
Это та мелкобуква, которая разницы между алгеброй и калькюлусом не знает?
>>90222
А вот и мистер "я не могу запомнить все специализированные формулы"

Не парьтесь, вы оба идиоты.
432 1490258
>>90223

>калькюлусом


Жопеншлулюсом
433 1490261
>>90258
А вот ты хороший
434 1490275
>>90223
Не маневрируй макакен, думаешьм своими дешёвыми ужимками заставишь всех забыть как ты пролюдно обосрался?
435 1490279
>>90261
Типичный ИИМашоБигдатаНЛП кодер
https://youtu.be/tK8eKc3fdpk
436 1490282
>>90275
Это когда ты задачу решить не смог?
437 1490367
>>90282
Когда ты начал какие-то формулы гуглить для элементарной задачки а потом заключил ВЫ ВСЕ БОТАНИКИ ТУПЫЕ ВОТ Я ФОРМУЛ НИУЧУ МНЕНИНАДА
15666057474570.png63 Кб, 320x180
438 1490397
>>90120
И.е это я виноват, что ты долбаеб и понятие системы и идентификации системы тебе ни о чем не говорит?
439 1490400
>>90367
Я начал гуглить? Ты обкурился?

>ВЫ ВСЕ БОТАНИКИ ТУПЫЕ ВОТ Я ФОРМУЛ НИУЧУ


Формул-то я побольше тебя знаю, потому что знаю, как они выводятся.
440 1490445
>>89863
Новости это такая хрень...
В большинстве пейперов про "ANALYZING NEWS/TWITTER/REDDIT/... FOR XXX PREDICTION" очень много упоминаний такой фразы: "CORRELATION IS NOT CAUSATION"
Хотя интересная тема , у тебя что-то по ней есть?
441 1490506
>>90397

>системы и идентификации системы


Сходи к успешным трейдерам со своим матаноговном, пусть они посмеются.
442 1490518
Почему Python используют для ML, которое по факту является перебором всех возможных комбинаций и анализом результатов, если он настолько плох в быстродействии/эффективности выполнения?
443 1490521
>>90518

> ML, которое по факту является перебором всех возможных комбинаций


Не является.
444 1490525
>>90521
А чем тогда на пальцах оно является? И почему Python лучше в этом других "модных" языков?
445 1490527
>>90525

> А чем тогда на пальцах оно является?


Разновидностью expectation maximization (EM).

> И почему Python лучше в этом других "модных" языков?


Сойбои кроме пистона ничего не умеют. Надо соответствовать.
446 1490530
Нечеткий петух опять разговаривает сам с собой
447 1490536
>>90530
Я серьёзно спросил. Выбираю язык для изучения, появился такой вопрос.
448 1490539
>>90536

>Выбираю язык для изучения, появился такой вопрос.


Для начала получи Computer Science PhD.
449 1490550
>>90536
У питона шикарные инструменты для взаимодействия с си и си++, прекрасные инструменты для написания типизированного кода (cython), а также кода с выводом типов и jit-компиляцией (numba), а современные фреймворки это сложные системы компьютерной алгебры, где питон это просто язык для описания графов.
Кроме того, библиотеки на нем написаны профессионально и взаимозаменяемо (типа pyopencv работающий с массивами numpy как с родными).
На самом деле основной гемор питона не его тормоза, а GIL.
450 1490551
>>90539

>Computer Science PhD


Профессор философии, лучше конечно бы ThD профессора теологии.
451 1490553
>>90539
Там тебя научат отличать knn и kmeans
452 1490557
>>90550

>шикарные


>прекрасные


>профессионально и взаимозаменяемо


Питухонщик, выдыхай
453 1490560
>>90557
Про R свой опять кукарекать будешь, лол? Мало тебя ебали ИТТ?
454 1490562
>>90560

>Про R


Я с ним не знаком, но питухоноговно где навязано ООП и отсутпы табами, за язык не считаю.
455 1490568
>>90562

>где навязано ООП


Ты сказал? В той же джаве оно навязано гораздо больше.

>и отсутпы табами


Пробелами.
456 1490570
>>90562
А к хаскелю ты как относишься?
457 1490571
>>90550

>современные фреймворки это сложные системы компьютерной алгебры, где питон это просто язык для описания графов


Хм, спасибо, ясно.
458 1490573
>>90568
Ооп в питоне если и навязано, то смоллтокоподобное, динамическое. Но оно там не навязано, можно писать как хочешь, разве что хардкор ный фп код не приветствуется что хорошо
459 1490578
>>90570

>А к хаскелю ты как относишься?


Не смотрел на него, он мне не нужен

> В той же джаве оно навязано гораздо больше.


Жаба хотябы не тормозит как говнопитон
460 1490583
>>90578

>Жаба хотябы не тормозит как говнопитон


Жаба тоже тормозит и еще вдобавок жрет память как ненормальная. Да и какая тебе разница, если основную работу будут выполнять библиотеки, написанные на крестах?
461 1490585
>>90400

> макака дала заднюю и пятится


То-то же
462 1490592
>>90583

>если основную работу будут выполнять библиотеки, написанные на крестах?


Знаешь Жабу, знаешь Кресты и наоборот, а питухон детектор неосилятора.
463 1490599
>>90592

>а питухон детектор неосилятора


Какой еще нахуй детектор? Питон идеален для быстрого написания прототипов, благодяря своему синтаксису и куче библиотек на все случаи жизни. Или ты из тех, кто бекпропагацию каждый раз пишет руками?
464 1490602
>>90585
Обосрался с решением задачи - притворись троллем
465 1490604
>>90578

>Жаба хотябы не тормозит как говнопитон


Жаба даже в перегрузку операторов не может. То есть банальный код типа ReLU(W*Input) для жабы - недосягаемый рокетсайнс. Не говоря уже об удовольствии работы с компьютерной алгеброй на статическом языке без вменяемого вывода типов. Ты еще сопляк гнать на питон, да еще и детектировать неосиляторов где-то.
466 1490609
>>90604

> работы с компьютерной алгеброй на статическом языке без вменяемого вывода типов.


На агду надо весь машобчик перевозить, чтобы вы зумера соснули без знания mltt. А то каждое школьное попандопуло себя программистом считает.
467 1490612
>>90602

> нет ты абасрался нет ты


Всегда забавно как школьники на сосаке любят строить крутую мину при плохой игре как будто никому не заметно
468 1490616
>>90609
Ага, все побежали переносить, чтобы у великовозрастного борщехлеба меньше бомбило от того, что он девственник
469 1490618
>>90604

>перегрузку операторов не может


Нинужно, эта ООП шиза в С++ всегда забавляла, когда два объекта класса складывают

>для быстрого написания прототипов


Какого на хуй прототипа, дерганья крестовой либы?
470 1490619
>>90609
Двачую. Заебало, что каждый молодой бородач вкатывается в нейронки даже без знания матчасти. А те, кто знает матчасть на уровне первого курса вуза, попадают в мейлру. Пиздец хайп среди убогих.
471 1490622
>>90619
Ты сам-то матчасть знаешь, чтобы оценивать, кто как ее знает?
472 1490624
>>90618

>Нинужно


Сейчас бы кукареканье программистишки слушать о том, кому что нужно. Ты как в этот тред залетел, голубчик?
473 1490625
>>90618

>Какого на хуй прототипа, дерганья крестовой либы?


Нечеткий петух, тебе здесь не рады.
474 1490627
>>90612
А я не знаю, нахуя ты ее строишь. Простейшую задачу не смог решить. И даже не понял решение. А гонору, как будто не борщи ешь в своем нии.
475 1490628
>>90624

>слушать о том, кому что нужно


a = '1'
b = '2'
c = a + b

Каков результат в c, мань?
476 1490629
>>90628
Это твой код на работе такой?
477 1490631
>>90629
Ты жопой не виляй, а рассказывай про перегрузку
478 1490637
>>90631
Плати мне $50 в час, буду рассказывать, что потребуешь. Только не менее 100 часов, за более мелкие проекты не возьмусь.
Вот тебе строчка из реального проекта: y_true = y_true[:, 0, :, 0:1]. Как она будет выглядеть на жабе? Ну или любом другом языке без перегрузки.
479 1490640
>>90637

>y_true = y_true[:, 0, :, 0:1].


>--<-<<+[+[<+>--->->->-<<<]>]<<--.<++++++.<<-..<<.<+.>>.>>.<<<.+++.>>.>>-.<<<+.


лол
480 1490848
Есть ли еще какое переходное звено между MS Exel и нейронками. Пандас кривой и нелогичный, нумпай слишком низкоуровневый.
481 1490876
>>90848
матлаб есть
482 1490882
>>90848
Не подходит ваш пистон для анализа данных и работы с данными, его и делали не для этого. И неужели до сих пор никаких костылей не придумали? В том же R полно всего.
>>90876

> матлаб есть


Ага, 10 гиг матлаба поставить чтобы из екселя в пистон таблицу передать. Хоспаде, какое деградантство.
483 1490921
>>90882

>В том же R полно всего.


Кроме тензорфлоу или пайторча.
484 1490936
>>90882
Это твой мозг, шизик, не подходит ни для чего
485 1490945
>>90921
Слесарьплов давно есть, как и керас.
486 1490963
Это трап на превьюхе?
https://www.youtube.com/watch?v=mWl45NkFBOc
487 1491070
Какие есть курсы/книги по meta-learning? а то лекции нового стенфордского cs330 публично выкатят только в конце семестра
488 1491102
>>90963

>Это трап


Скорее всего математик
489 1491110
>>90936
>>91102
Ты сосал, тебя ебали
490 1491125
>>91110

>Ты сосал, тебя ебали


>жалкий математический пук

491 1491154
Нейроны, какие есть бестпректис по организации проекта и инфраструктуры?
492 1491167
>>91154
Рычи, двигай тазом, и представляй, что ты уже делаешь distributed learning на облачных мощностях гугла.
493 1491233
Глупый вопрос, НО, правда что autoML или еще какая нить поебень с автоМашОбом убьет необходимость sklearn'а и прочего? Убьет мл и все алгоритмы будут использоваться как черные ящички?
494 1491280
495 1491329
>>91233
нет
Снимомвавак.PNG3 Кб, 53x28
496 1491361
>>91280
>>91329
Слыш не прикалывайс, давай серьезно а
15692170381210.gif425 Кб, 931x682
497 1491425

> autoML


Походу, зумеров вкатывальщиков уже порешали? Оправдывайтесь, макаки. Импорт слесарьплов и подбор эвристик уже работает лучше, чем зумер с кукареком на пустой башке из барбишопа и "знаниями" уровня курсов от инфоцыган типа шада. Вы понимаете, что не сделаете лучше чем сделает automl без вас? А это только первое такое решение.
498 1491430
>>91425
Скажи честно, ты нейросеть?
499 1491468
>>91430
Любой человек это нейросеть. В ЦНС больше ничего толком и нет. Я говорю о том, что с нынешним прогрессом в машобчике через пару-тройку лет средний вкатывальщик будет бибу сосать, т.к все что может он, может и без него облачный сервис от Гугла, к тому же это в разы дешевле, чем платить по 120к каждому начинающему мартыхану. И это правильно, либо знаешь нужную математику и можешь в уровень исследователя, либо сразу в Макдак кукарекать "свободная касса!!11".
500 1491481
>>90562
Отступы надо делать табами, выравнивание - пробелами. Слыхал?
501 1491625
>>91481
Это нужно делать согласно стайл-гайду для питона в основном используют либо pep8, либо Google, в обоих отступы пробелами.
15705204616652.png2 Кб, 273x125
502 1491637
>>91481
>>91625
Поясните за ваш пистон. Как у одного зумера пикрелейтед получился? У вас там какая-то своя пистонная арифметика?
503 1491673
>>91637
КАК ЖЕ ВЫ ДАУНЫ ЗАЕБАЛИ
ЗУМЕРЫ БЛЯДЬ
ХУЮМЕРЫ
ПИЗДУЙ ЧИТАТЬ ПРО IEEE 754 НЕЗУМЕР ТЫ ЕБАНЫЙ

Пиздец блядь. Что за мода пошла така, в случае полной умственной неполноценности вспоминать каких-то зумеров. Отныне употребление слова зумер итт - мгновенный зашквар. Потому что нет гарантии, что это не подобное одноклеточное пишет.
504 1491699
>>91425
Удачи в очистке и выделении фьюч, дебил
505 1491700
>>91637
Вот скажи честно, ты дегенерат? Ты вообще программировал когда нибудь? Или ты троллишь тупостью?
e2dd58e05cbf2877ae31fc8e06a15a18.jpg91 Кб, 800x410
506 1491704
>>91468

>Любой человек это нейросеть


Матанодебил, плез
507 1491706
>>91481

>Отступы надо делать табами, выравнивание - пробелами


>я не гомик, я гей


Ясно
15666057474570.png63 Кб, 320x180
508 1491749
>>91673
>>91699
>>91700
>>91704
Вам не стыдно такими дегродами быть? Собственно, выше все по вашему случаю я написал, макаки в мл больше не нужны, выкатывайтесь обратно к хуям в т.ч отсюда, зумера.
509 1491807
Это нормально, что CEM работает лучше чем DQN на стандартных средах из gym (basic control)? Мне сразу Rainbow нужно запускать, что ли?
И вообще, что лучше всего работает из коробки?
510 1491812
>>91637
некорректно использовать знак равенства при сравнение чисел с плавающей запятой, из-за ошибок округления, нужно использовать math.isclose
511 1491881
>>91625
Если стандарт плох, то его надо слать подальше как целое. Брать только лучшее.

>>91706
Всякий раз, когда вижу на гитхабе отступы табами и выравнивание пробелами (тот же пайчарм так умеет) - думаю: "о, для этой планеты ещё не всё потеряно"

Потому что какие есть реальные минусы от табов? Ну, мололетние дибилы не умеют настроить свою IDE, а ещё?
512 1491890
>>91881
Всякий раз, когда вижу как очередной дебил на полном серьезе обсуждает табы-vs-пробелы, думаю, "как же вы заебали, макаки, у вас других забот нет что ли?"
513 1491991
>>91881
бляятььььь да какая разница-то , а -_-
514 1492067
>>91233
В отличие от того что макакены думают, машоб это не магия и никакого полностью автоматического машоба никто не допуститв ближайшее время не предвидится. Учи нормальную математику, короче, как деды, и всё будет в порядке, а как импортить хгбуст по мере нужд подучишь.
515 1492086
>>92067
Теплые слова, спасибо, все равно большая часть работы это пайплайны и тд(работа с данными вообщем). В крайняк пойду в науч. МашОб, матан нравится, но иногда он страшный.
516 1492093
>>74381
IBM WATSON
517 1492122
>>74381

>Я до 110 довел сет утром и таки понял, что на моем CPU считать вообще не варик.Так что если кто не знал, аноны, у гугла есть Google Colab, который предоставляет GPU на 12 часов.


Проще свою видеокарту купить.
15635789722520.jpg90 Кб, 1159x665
518 1492134
>>92067

> никакого полностью автоматического машоба никто не допуститв ближайшее время не предвидится.


Уже допустили и уже предвидится. Причем, уже сейчас в виде решения, пригодного для использования в продакшене, а не просто как соевый стартап. Кроме Гугла аналоги аутомл выкатят все остальные крупные игроки на этом рынке, можешь скринить, уже к весне 2020 будут аналоги от Амазона и мокрософт на базе azure. Скажи ещё что алгоритм не может фичи отбирать. Какая ирония, машобчик, призванный порешать мартышек, первыми порешал мартышек от машобчика.
519 1492162
>>92134
Предсказывать будущее и я могу, откуда такая уверенность? Без обоснований ты кажешься просто обиженкой.
520 1492213
>>92162

> откуда такая уверенность?


Видно же, в какую сторону движется это направление. В последнее время не столько новые алгоритмы, сколько автоматизация работы с имеющимися, даже в вашем пистоне это auto sklearn, auto keras. И.е машобчик для пользователя превращается просто в фишку яп, не требующую специфических знаний. Как для работы с любым соевым яп не требуется знать регистры и уметь обращаться к ним, а в машинный код вообще не может никто кроме дидов байтоебов из ещё совковых НИИ.
521 1492263
>>92162
А, ну и главное - у этого явления рыночные механизмы, так как машоб-мартышки требуют все больше деняк за "импорт слесарьплов ас сп", при том, что задачи они решают довольно однотипные. Конечно, сама профессия датасатаниста никуда не денется, но спрос на таких будет только в случае нестандартной задачи, не решающейся тривиально аутомлом. Ну и требования будут на уровне - мехмат, пхд, портфолио.
YZwGllZ.png11 Кб, 64x64
522 1492274
>>92263
>>92213
Что поделаешь если нравится, да конечно будут требования расти, это нормально, но чтоб была полная поддержка автоматической разработки пайплайны, врядли
523 1492357
>>92134
>>92213
Ты ни одной модели в своей жизни не тренировал и с данными не возился, как я погляжу, поэтому тебе кажется что всё по щелчку пальцев из коробки работать будет. Так не бывает никогда, ни в какой области. Хотя куда тебе, ты даже кнн не осилил.
524 1492368
>>92357
Конечно-конечно, утешай себя. Ты знаешь что такое кнн, закончишь шад, устроишься в Яндекс на 120кк/сек, все у тебя будет хорошо нет
525 1492388
>>92368
Там мне не нужно чего-то гадать и утешать, ты сам своей безграмотной болтовнёй все карты раскрываешь.
526 1492465
Я далек от этой темы, но слышал, что в нейросетях используют производные для нахождения минимума ошибки. И приводятся графики процента ошибки от веса нейрона. Но это же не математический график. Как можно получить формулу этого графика чтобы взять производную
527 1492552
>>92388
Ага, держи в курсе. Про кнн не забывай писать.
529 1493024
>>75967
А какие библиотеки C++ юзаете для машинок и нейронок?
Тред утонул или удален.
Это копия, сохраненная 2 ноября 2019 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски