Этого треда уже нет.
Это копия, сохраненная 7 октября 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.7 /ai/ 1242753 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем спрашивать очевидные вещи, о которых знает любой индус, прочитавший хоть одну книгу по машобу.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.cf/thread/340653/
http://arhivach.cf/thread/355442/
http://arhivach.cf/thread/360889/
http://arhivach.cf/thread/366809/
http://arhivach.cf/thread/368934/
http://arhivach.cf/thread/379620/

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1226323 (OP)
2 1242766
>>42753 (OP)
Файнали я понял все формулы в йобаматематике. Оказалось для этого не нужны нейроночки.
3 1242815
>>42766
Всегда был двоичником в математики и физики. Грустно все это. Машинное обучение, дип лернинг и прочие радости мне будут недоступны :(
4 1242816
>>42815

>Всегда был двоичником в математики и физики.


Да и по русскому тоже.
5 1242921
А зачем в TF переводить модель в фрозен граф(переменные делать константами), неужели инициализация переменных занимает так много времени?
6 1243092
Короче как я понял, метаграф никак не загрузить через C-api(тем более и сохранить), все так или иначе нужно в виде .pb файла.
Вот так на питоне:
tf.train.write_graph(sess.graph_def, 'models/', 'graph.pb', as_text=False)
или вот так
builder = tf.saved_model.builder.SavedModelBuilder(path)
builder.save(as_text=False)

Второй - с дополнительной инфой о входных и выходных тензорах(если это не так - поправьте).

Чтобы тренировать модель вне питона, надо веса сохранят отдельно в свой формат файла, а потом соответственно считывать из него.
7 1243109
>>42815
машобчик - в первую очередь школьные - биология, и информатика
биология - описивает дтруктуру нейронов и их бинарные операторы (функции от входов)
информатика обучает: кодингу
на остальные говнопредмету типа математики и русского можно положить хуй, они НЕ-НУ-ЖНЫ!
8 1243111
>>43109
Лол, биология
10 1243113
>>43112
>>43111
Одна из важных идей заключается в том, что наука - это способ, с помощью которого обучение игнорируется не только теоретическими оценками, но и практическими фактами, с другой стороны, но из-за принципа и мотивации практики.
- Джордж П. Коробка
image.png468 Кб, 653x435
11 1243115
>>43109

>биология

13 1243147
>>43111
>>43115

> эволюция, генетические алгоритмы, генетическое обучение


> нейроны, нейромедиаторы, процесс усвоения информации и архитектура нейросетей. травмы мозга наконец


всё это не нужно, да?
14 1243157
>>43147
Вытекайте в другой тред, пожалуйста.
15 1243158
>>43147
Естественно нет, долбоёб, это тред машоба а не филологии.
16 1243221
>>43109
ахахах МАТИМАТИКА НИНУЖНА!!!!! БУНД!
17 1243223
>>43109
кстати, а причем тут русский язык? он как-то роляет в машобе или ты домашку делать не хочешь?
18 1243236
вместо метахуйни своей запилите лучше ультимативный гайд о настройке lightgbm
19 1243249
Работу младшим ds без образования/с сертификатом с каких-нибудь курсов найти можно? Ясное дело в мухосрани наврятли, но как в ДС? Пишут нужно искать крупные компании, которые набирают.
20 1243262
>>43249
Датасаентисты только на панели нужны
21 1243265
>>43109
Биология как раз и не нужна, без знаний математики в машобе делать нечего.
22 1243280
>>43249

> без образования


Без магистра топвуза ВМК/мехмат МГУ, ФКН ВШЭ, ФИВТ МФТИ можешь нахуй пройти.
23 1243314
>>43280
Кто-нибудь, выпроводите уже толстяка.
24 1243326
>>43249
Временами мелькают вакансии типа "размечай говно, пиши скрипты - авось тебя возьмём потом".
25 1243362
Анонасы, принимайте вкатывальщика. Начал читать Deep Learining Book, но чет непонятно нихуя, матан какой-то, матрицы, векторы, уххх. Есть ли нечто промежуточное не Hello World на питоне, но и не DL book, какая-нибудь поверхностная и казуальная, но практическая жвачка по теме, для познания которой не требуется глубокое знание высшей математики? Только поступил на первый курс вуза, а шишка на машоб и Data Science уже дымится, неужели до практики мне действительно предстоит еще два-три года теории?
26 1243370
>>43362

>поверхностная и казуальная, но практическая жвачка по теме


рукописные цифры и котиков распознавать, на том же kaggle куча практических заданий
27 1243410
>>43362
В конце предыдущего треда была ссылка на книжку попроще.
28 1243421
>>43362
"Python machine learning", Себастьян Рашка лол.
30 1243427
>>43426
Как же я обосрался с картинкой
Абу, гнида, какого хуя картинка не грузится
Ладно, вот ссылка: https://futureofsex.net/future-of-sex-report/
31 1243637
>>43421
Вот за это спасибо, годно!
32 1243660
Зачем кто-то учит, если работать по сабжу негде, кроме как если с магистром(тогда и учить не надо если уже магистр)?
33 1243662
>>43660

>Зачем кто-то учит


Модна, стильна, маладежна
34 1243680
>>43662
Ну чтож, расходимся.
35 1243685
>>42753 (OP)
Анон, после курсов по мл и сайкита решил попробовать современные штуки вроде keras или tf и немного растерялся в терминологии. Посоветуйте книг про все эти тензоры-хуензоры, с актуальной терминологией, вобщем.
36 1243689
>>43660

>Зачем кто-то учит, если работать по сабжу негде


Ой, вам холопам, лишь бы на галеру устроиться. На кегле работай, если уж без работы никак.
37 1243690
>>43689
Не все тут господа на мамкиной шее.
38 1243736
>>43690
Холоп не может представить себе иной ситуации, кроме мамкиной шеи или рабства.
39 1243753
>>43736
Папкина шея? Да понял я что ты квартиру, доставшуюся от бабки, сдаёшь в черте города.
40 1243817
Как бороться с проблемой невозможности сбора большого колличества информации?
41 1243836
>>43817
аугментация?
без контекста -- тупой вопрос
42 1243848
>>43685
Словарь
1477124065126490316.jpg160 Кб, 639x644
43 1243983
Берём несколько алгоритмов машобчика, второй настраивает гиперпараметры первого, ... , последний настраивает параметры второго. Короче, схема уровня пикрелейтед с возможностью обрабатывать внешние данные (у некоторых алгоритмов типа первого входы и выходы для этого). Чем не ИИ? Так-то основа жизни - структуры типа гиперцикла Эйгена.
44 1243989
>>43983
Настройка гиперпараметров тоже подвергается энтропии. Так что парадоксов машин исследования гиперпараметров не избежать.
45 1243990
>>43983
Ну запили, по мне так развитие загнётся почти сразу. Было бы всё так просто давно бы уже ИИ запилили.
46 1244006
>>43990

> Было бы всё так просто давно бы уже ИИ запилили.


А кто-нибудь пробовал? Именно в виде такой метаструктуры, которая может и на внешние воздействия отвечать, и своё внутреннее состояние и структуру адаптировать под решаемую задачу? Мне так наоборот вспоминаются кукареканья машка небоходца и Хокинга покойничка, что мол низзя такое делать, запретить надо, зохавают людишек подобные решения.
47 1244014
>>44006
Конечно, никто не пробовал, ты первый догадался до этого. Еще никто не пробовал писать ИИ левой рукой, при этом читая Отче Наш задом наперед и трижды сплевывая через плечо на каждом n-ом прочтении, где n это простое число. Если получится, то ссылка на меня обязательна.
48 1244024
>>44006
Я тебе уже сказал. Если веса или биасы хоть в одной нейронке у тебя станут отрицательными, то нихуя не получится. Такая нейронка даже кота от негра не отличит. Можешь скринить.
49 1244028
>>44024

>Если веса или биасы хоть в одной нейронке


А кто сказал про эту хипстерскую хуйню для распознавания негров с котами? Естественно, речь только о верифицируемо стабильных алгоритмах, которые гарантированно не наебнутся просто в силу своей кривости.
>>44014

>Конечно, никто не пробовал,


Ну покажи, кто пробовал, так уж и быть.
50 1244033
>>44028
Лол блять. Нейронки - это единственное на счёт чего можно сомневаться, что точно не получится. Все остальные алгоритмы машоба просто ноль для таких задач. Не говори что ты этого не понимаешь. Если у тебя будет машина, принимающая собственные гиперпараметры, то на алгоритмах она работать никогда не станет.
51 1244038
>>44033

>Все остальные алгоритмы машоба просто ноль для таких задач.


Школомаксимализм. Если негров распознавать не нужно, то и диплернинх не нужен.
52 1244043
>>44038
Я сейчас уже сомневаюсь что ты знаешь алгоритмы машоба.
53 1244047
Приходит очередной обдроченный хуесос, не работавший с алгоритмами от слова совсем, в тред и начинает нести какую-то ебанутую толстоту пургу. Каков пиздец.
Правда в том, что все эти алгоритмы только и способны что негров с такой-то точностью распознавать. Как ты детальки конструктора не крути, какой-либо "сильный" ии не получишь. А новые детальки не будут сложнее старых. Весь дроч внутри современного компухтер сосаенса - ползанье по лабиринту.
54 1244048
>>44047
толстоту
Блять
55 1244052
>>44047
Будни машобтреда.
56 1244053
>>44047

>как ты атомы углерода, водорода, кислорода и азота ни крути, никакой органики из неорганики ты не получишь


Ясно, понятно.
изображение.png472 Кб, 640x480
57 1244061
>>44053
Сдрисни, демагог хуев.
58 1244122
Сап математики. Хочу написать свой сервис проверки орфографии с автокоррекцией по типу https://tech.yandex.ru/speller/ апи которого сломался
Как оно реализовано внутри? Вот есть у меня терабайт текста для обучения, что дальше? Как его скормить градиентному бустингу?
Или литературу посоветуйте
59 1244123
А что там всякие там гугла не вкладывают деньги в HTM?
60 1244127
>>44123
Потому что устаревшая и бесполезная ваша HTM. Нужна была бы сетка с предикторами - сделали бы сами и современную.
61 1244245
>>44122
https://arxiv.org/pdf/1709.06429.pdf
Пара секунд в гугле.
image.png121 Кб, 743x741
62 1244411
>>42753 (OP)
помогите мне пожалуйста, не уверен, в тот ли раздел пишу, но у меня вопрос по обработке изображений (digital image processing). При слиянии двух изображений, то есть получении из 2 двух изображений одного (image fusion), сначала нужно сделать image registration. Допустим у меня есть 2 картинки в разных форматах, одна 480х640, а вторая 1280х720. Image processing заключается в данном случае в преобразовании одной из картинок в размер другой картинки? То есть сделать две картинки одинакового размера, или 480х640 или 1280х720?
63 1244506
>>44411
На твоей же картинке все объяснено. Масштабирование, трансляция и поворот обычно нужны.
64 1244530
Как можно предсказать состояние системы через небольшой отрезок времени по состоянию системы в данный момент? Состояния могут быть потенциально разные, но т. к. отрезок времени небольшой не критично. Тренировочные данные есть. Просто я только {0, 1} умею предсказывать.
65 1244533
>>44530
Слишком размыто. Никто не поможет тебе если не поймёт как эта система вообще работает.
66 1244545
В связи с недавним матчем в дотку повылазило много восторженных идиотов с радостными пересказами научпопа про искусственный интеллект и, в частности, про то как в проектах типа альфагозеро сетки УЧАТСЯ САМИ, как утверждается такой же кейс и в случае с масковским проектом, обучение шло путём игры совершенствовующихся алгоритмов против себя. Звучит это конечно как полная ахинея, но в тонкости я, честно говоря, не вдавался, ограничился беглым чтением сжатого описания алгоритма: ощущение что в задизайненных "оценках для ходов" и прочих евристиках и есть вся соль дела. Или я неправ, и альфагозеро на самом деле прорыв?
67 1244548
>>44533
Ну вообще есть какие-то более, скажем, глобальные алгоритмы? Или нужно просто хитро свести все к регрессии-классификации?
68 1244550
>>44545
Ты неправ и это прорыв. Впрочем, подавляющее большинство пишущих об этом писак не имеют даже примерного представления, что они описывают.
69 1244551
>>44548
Нужно свести.
70 1244562
>>44530
Регрессию отменили уже?
71 1244591
>>44548
Ну ты хоть скажи у тебя состояние вектор или число одно?
72 1244599
>>44506
хорошо, то есть если у меня есть 2 картинки, одна снята на камеру, 1280х720, а другая снята на тепловизор, 480х640, одной и той же сцены, ну, чуть-чуть картинки отличаются, то мне нужно уменьшить картинку 1280х720? Этого будет достаточно для image registration?
73 1244600
>>44599
Спроси у того, кому эта картинка нужна. Лично мне пофиг, можешь хоть обрезать большую картинку или вообще выкинуть ее.
74 1244657
>>44591
Вектор вначале, вектор в конце. В принципе, можно сказать что картинка.
>>44562
Как ее здесь применить?
75 1244663
>>44657

> Как ее здесь применить?


У тебя есть числовой ряд с состояниями системы? Делаешь из него матрицу Ганкеля и вуаля.
76 1244751
>>44657

> Вектор вначале, вектор в конце. В принципе, можно сказать что картинка.


Фичи получай из векторов. Напрямую считать смысла нет, если там большая размерность. Тем более картинка. На один пиксель смещение и все, никакого сходства с точно такой же, все компоненты вектора другие.
77 1244761
>>44657
Ну если никаких признаков второго состояния в первом состоянии нет, то и не вычислить.
78 1244884
>>44663

>матрицу Ганкеля


мацу Шницеля и капцу Розенфельда
79 1244930
>>44884
Нахуй сьебал, школопитек.
80 1244940
>>44930
Вай, вай, таки интеграл не возмешь?
81 1245056
>>44600
а в общем случае, если есть 2 картинки разного размера и соотношения сторон одной и той же сцены, снятые на разные устройства, то для image registration достаточно привести их к одному размеру?
82 1245066
Куда движется это направление? актуальные задачи и продукты? Насколько полезно для науки?

Вопрос конечно глупый, но стоит ли тратить годы на это дело

заработал веб макакингом на пенсию, хочу перекот, во что сурьезное и интересное
83 1245072
>>45066
К созданию сильного ИИ с помощью слесарьплова и математики с 4 картинки.
84 1245139
>>45056
В общем случае не достаточно. Картинки могут быть с разных углов, они не будут совпадать.
85 1245167
Почему нельзя взять гигабайт(терабайт) звуков, издаваемых дельфинами/собаками/обезьянами, закинуть это в какую-нибудь SoTA сетку для сегментации/кластеризации/text2woof translation и сделать генератор животной речи?
86 1245189
>>45167
Нахуя?
87 1245203
>>45167
И будут у тебя кластеры петушиных криков. Что с ними делать будешь?
88 1245210
>>45203
Вообще-то кластер петушиных криков загружается нажатием Ctrl+S. А я надеюсь на что-то большее а ля машинный перевод на животный язык.
89 1245243
Гайс, а ведь цвета в мозге обрабатываются одновременно в одном формате. То есть если они не обрабатываются как раздельные, то изображение чернобелое. То есть само значение цвета не имеет для формы никакого значения. Это значит что простые цветные свёртки пиздец как неправильные.
90 1245295
>>45243
А в чём аргументация? "Не как в мозге" значит не как в мозге, а не плохо.
91 1245513
Научный руководитель сказал что только у аутистов нет своего дерзкого ресерч-бложека на гитхаб пейджес, в котором в очередной раз объясняется backpropagation и gradient descent. Придется делать, я и так смотрю аниме про 18-летних физиков и нейробиологов, иначе мне вообще перестанут помогать. Но у меня проблема с придумыванием броского и смешного названия связанного с датасаенсом и нейроночками, а без этого никак. Предложите что-то оригинальное в одно-три слова, пожалуйста.
92 1245514
>>45243

>а ведь цвета в мозге обрабатываются


Никто не знает как они обрабатываются, кроме матанопетушни которая в любой бочке затычка
93 1245551
>>45514
По крайней мере мы знаем о существовании нарушения цветовой дифференциации. Так что этого достаточно чтобы сказать что свёртки сейчас неправильные.
94 1245555
>>45513
Это что правда чтоли что все кто по машобу смотрят калитку потому что там про ИИ?
95 1245560
>>45513

>Предложите что-то оригинальное в одно-три слова, пожалуйста.



machine autism
ювелкам
зы че за аниме?
96 1245594
>>45551
гугловские 1х1 свёртки тебя не удовлетворяют?
97 1245597
>>45594
Чего? 1х1? Это как?
98 1245603
>>45597

>Это как?


Через мацу Шредингера или Каца
99 1245644
>>45139
а если есть 2 картинки разного размера и соотношения сторон одной и той же сцены, снятые на разные устройства с одного угла, то для image registration достаточно привести их к одному размеру?
а вот если картинки сделаны с разных углов, то как тогда сделать image registration?
100 1245646
>>45644

> сделаны с разных углов,


Соснешь, поебись с ОпенЦВ
101 1245662
>>45597
просто свёртки размером 1х1 (ака pointwise convolution). Что не так с ними?
102 1245670
>>45662

>Что не так с ними?


Они противоречат теореме Бергмана-Каца
103 1245672
>>45662
В чём их смысл?
104 1245677
>>45513
Возьми и сделай нормальный блог, про плохо гуглящиеся штуки, например.
>>45555
Я смотрю калитку, потому что одно из немногих нравящихся мне аниме. Аниме - говно для совсем отбитых. Хуже только комиксопараша.
мимо
105 1245681
>>45672
да ни в чем, деньги отмывают
давно известно, что любая функция приближается двухслойным перцептроном с любой точностью, а всё остальное - псевдонаука
106 1245687
>>45681
Ну впринципе это так. Но нам ведь нужно уменьшить затраты, да ещё и получить какие-то понятные системы. Так что пока что свёрточки полезные. Но с одинарным ядром - это пиздец.
107 1245703
>>45560
Steins;Gate же. В этом треде все смотрят калиточку, с подключением.
>>45677
Проблема названия остается для любого контента.
Ты просто не читал интересные комиксы, трай http://freefall.purrsia.com/ . Спойлер - антропоморфная собака это ИИ.
108 1245711
>>45687
Это даже я понял. Если у тебя в одном канале красный, а в другом зеленый, то свертка 1х1 даст тебе фичу "желтый", и вообще любой другой цвет.
109 1245712
>>45711
Другими словами, свертка 1х1 ищет корреляцию не вокруг, а между каналами.
110 1245719
>>45711

>фичу "желтый",


вы серьезно ориентируетесь на цвета? ох лол
111 1245720
>>45712
И чем свертка 1х1 отличается от приведения к grayscale?
112 1245727
>>45711
Подожди, ядро или входной слой 1х1?
113 1245740
>>45703

>с подключением.



маня плиз
image.png1,4 Мб, 1024x675
114 1245749
>>45560
Что ты такое советуешь, окаянный?
Projec Orcon birg guidance.webm12,7 Мб, webm,
640x360, 2:59
115 1245757
>>45749
Моя сборка.
116 1245759
>>45749
Разработать такой алгоритм на самом деле вариант линейной регрессии чтобы система сама себя обучала.
117 1245761
>>45759
Хуйню написал про регрессию. Перепутал всё.
118 1245762
>>45759

>чтобы система сама себя обучала


ох, лол
119 1245786
>>45759
Чему обучала?
120 1245791
>>45786
Сама себя решать.
121 1245793
>>45791
Что ты имеешь ввиду под словом решать?
122 1245796
>>45793
Вычислять.
123 1245797
Набросайте плиз функцию которая берёт лэйбл, вывод и скорость обучения и выводит градиент.
124 1245798
>>45796
Вычислять что? Я понимаю что это тред аутистов, но постарайся сформулировать какого результата ты хочешь добиться.
125 1245799
>>45798
Я хочу создать machine autism
126 1245808
>>45797
def function(label, output, lr):
tabtabtabreturn grad
127 1245810
>>45799
Тогда нужно сначала сделать sql-инъекцию.
128 1245823
>>45646
а возможно такое, что для 2 картинок одной сцены невозможно сделать image registration?
В OpenCV есть встроенные средства для image registration или мне с помощью OpenCV нужно делать какое-то аффинное преобразование?
129 1245840
>>45823
Ты идеалист и пришло твое время соснуть, все это говно не работает.
130 1245842
Где можно взять/сгенерировать датасеты настольных игр? Например, шашек?
В духе
f4-g5
f4:h6
131 1245843
>>45842
Для го есть большие датасеты, бесплатные или дешевые.
132 1245844
>>45843
А для шашек?
133 1245846
>>45844
господи, не говори, что ты хочешь прикрутить сетку к шашкам
134 1245847
>>45846
персептрон
135 1245851
>>45847
википедия/chinook
89 год - шашки решены без всяких перцептронов
136 1245854
>>45851
Мне нужен датасет
137 1245858
>>45854
Нет не нужен. Придумай что-нибудь клёвое. Например помоги нам придумать machine autism
138 1245859
>>45858
Блджад, а ты думал, для чего мне датасет?
139 1245883
>>45859
Для петпрожекта, с которым ты потом будешь скитаться по джунским собеседованиям. Тебя ждет фейл еще на этапе создания самого петпрожекта.
c4c6a1600300ac6cb9a3b5b31bc220aae5da07ac.jpg587 Кб, 1530x880
140 1245892
Насколько реально из записей стримерш на ютубе (не смотрю такое и представляю по случайным вебм в тредах) обучить модель естественным телодвижениям сидя за компьютером (чтобы заменить органическую куклу виртуальной)?
141 1245893
>>45513
Try XGBoobs.
142 1245894
>>45892
В принципе реально, но это большой проект.
143 1245895
>>45892
>>45894
Да, реально, но придётся очень трудно. OpenCV в помощь.
144 1245896
>>45895
Детектил пешеходов в OpenCV, но почти не работаю с изображениями и тем более с видео. Какой примерный план? Как сгенерировать один кадр еще как-то представляю, но всю картину не вижу.
1.jpg20 Кб, 515x302
145 1245897
>>45892
Такая-то мотивация
146 1245899
>>45897
Машинное обучение нужно чтобы заменять человеков во всех сферах деятельности, это естественный процесс. Нейроночка будет делать работу с постоянным качеством и в соответствии со стандартами, куда лучше чем отбросы вроде ютуберов.
147 1245900
>>45899
Нейроночка будет орать дебильным голосом : "Ой это вы мне столько задонатили?! С ума сойти!"?
148 1245901
>>45900
Это не /biz, мне интересна сама задача и пока что только в имитации поведения.
149 1245902
>>45896
Ну очевидно тебе либо считать весь кадр по динамической системе (от машоба знаю только рекурентные сетки) и тратить огромные баблища на это. Либо взять какую-нибудь систему для анимации и считать банально простые движения. Можно триде фигурку, там поворот и позиция костей только, вообще не сложно выход настроить. Гораздо сложнее будет видео обрабатывать чтобы по точкам вычислять относительный угол и расположение.
150 1245903
>>45901
А кроме улыбок в камеру и стучания по клавиатуре не будет ничего, скучно.
151 1245904
>>45902
Наверное дешевле обойдется посадить девочку в плагсьюте сенсорах и сразу собирать трехмерные координаты. Это реализуемо. Что дальше?
152 1245905
>>45904
Придётся всё равно искать много материала. Мокап для датасета больная идея. А разработка способа вычисления - это не вопрос денег. Хотя вообще сейчас непонятно что ты делаешь и вообще нужны ли тебе нейронки или можно обойтись деревьями.
153 1245909
>>45905
Я смутно себе представляю сам процесс получения видео на выходе. Нужно работать с тайм-сериями?
154 1245914
>>45909
Нейроночки сейчас не генерируют полное видео с нуля, если ты об этом. Тебе нужно будет рендерить 3д сцену, которую ты сделаешь руками, а нейроночка может, например, анимировать сидящую в ней модель.
155 1245920
>>45840

>все это говно не работает.


что именно не работает? В OpenCV нет автоматических функций для image registration? Или аффинных преобразований может быть недостаточно общем случае?
156 1245922
Посоветуйте датасет для крестиков-ноликов 3x3
157 1245930
>>45719
А как еще ты отличишь красный помидор от желтого, или зеленого?
>>45720
Тем, что она применяется не только к RGB, но и глубже, к любым другим фичам, сокращая, таким образом, количество каналов
>>45727
Ядро
159 1245962
>>45930

>отличишь красный помидор от желтого, или зеленого?


никак, чутка позже поймешь
160 1245964
>>45922
Есть только 200ГБ игр в камень-ножницы-бумагу
162 1245976
>>45965
уши свернулись в трубочку, как англопарашу можно слушать, это не язык, это шум ебаный
163 1246066
>>45946
>>45965
Спасибо, многое стало понятней, теперь займусь девочками.
>>45976
Уже накатил с утра за советскую науку? Сколько тредов ты уже не можешь английский выучить?
164 1246073
>>45922
Не смог в шашки, решил для начала сгенерировать себе датасет на крестики нолики со всеми возможными партиями. Могу скинуть на мыло.
165 1246131
>>46066

>можешь английский выучить?


нахуй мне это говно учить?
166 1246137
>>46131
Все подпиндохи этим говном обмазываются.
15340665241648557.jpg54 Кб, 700x525
167 1246143
>>46137
Но я не подпиндоха
168 1246174
>>46131
Бедняга, это Обама заставляет в треде пиндосских нейроночек пиндосского интернета с пиндосского компьютера закупленного подпиндосским продавцом за пиндосские доллары сидеть?
cuck.png231 Кб, 2212x1584
169 1246180
Смарите как я ловко натренировал мейлачевский фильтр постов скрывать нечеткого куколда.
170 1246191
>>46174
Ох и зализал матрасникам, молодец, держи доляр. Наука это атом и космос - величие России, а переносной дибилятор с котиками, так, развлечение.
171 1246192
>>46180
Матанодибил освоил веб, лол.
1498991502136419505.jpg133 Кб, 800x615
172 1246200
Пендохи изобретают нейроговно пикрил.
173 1246236
>>46174
Вот не надо, нейроночки канадец придумал.
174 1246261
>>43249
Наверно можно, мне очень повезло знакомый препод из шараги устроил в контору что занимается ценообразованием, в итоге доучиваюсь плюс практикуюсь и все это за 500 бачей в моей мухосрани где стандартный джун получает 100-200.
175 1246266
>>46261

>доучиваюсь


Когда школу закончишь?
176 1246273
Поясните мне за Ноама Хомского. Почему он так популярен и его рекламируют как гения и гиганта мысли?

Во-первых он говорит, что ребёнок осваивает языки благодаря уже встроенным структурам в мозгу. Говорит, мол опыт (да хоть те же родители научающие чадо) влияет, но как-то лишь чуть-чуть, на полшишечки, а главное то, что ребёнок гений и он чуть ли не вспоминает знания языка по Платону.

Для доказательства всего этого он создал различные крутые формализмы, которое кто-то не так уж часто и использует, но активно молится на них.
Другой вид доказательств состоит в том, что он берет предложения типа "3еленая трава зеленит зелёную зелень" и доказывает с помощью таких предложений некоторое таинственное богатство языка. Можете взглянуть его работы и посмотреть примеры хоть на французском.

Если заглянуть даже в Википедию (будь она неладна), то о самих работах Хомского написано крайне мало. Зато можно увидеть о его политической деятельности, антисемитизме и семитизме, о Бин Ладене и совсем полной хуите, если откровенно.

Также нет вменяемой критики по этому (((феномену))). Ух, я добавил скобки, вы выдели какой я модный? Теперь вы поняли? Большинство критики высказывается не за его работы, а по политической деятельности.

Зато в целом он появился внезапно, как гром среди ясного неба и стал символом некой новой эпохи. И прессой описывается не иначе как гений и гигант мысли. С чего я и начинал. Вот так кратко я описал суть понимаемую мною. Объясните хоть мне что это за феномен.

Как вы поняли из строк выше у меня довольно сильно так бомбит и ажтрисет от этого всего.
177 1246274
>>46180

Можно по русски, без подросткового сленга, объяснить что он скрывает?
178 1246282
>>46273
Жид и либираха потому что, таких пидоров любят. Еще забавно, как англопидарахи ковыряясь в своем аналитическом недоязыке начинают строить манятеории, которые моментально абасываются на нормальных флективных языках.
179 1246290
>>46261

>где стандартный джун получает 100-200


Это меньше мрота, долбоёбич.
180 1246293
>>46290
Он наверное хохол
181 1246304
>>46282
И чем тогда прошлый подход с бихевиоризмом плох?
182 1246331
>>46304
Нимодна
183 1246335
>>43092
Бамп вопросу.
image.png76 Кб, 620x555
184 1246349
Вопрос, почему софтмакс регрессия выдала параметры для трех кривых, ведь если нам дано пространство с размерностью таргета 3 и 2 предикторами, то нам достаточно на плоскости провести 2 кривые, чтобы восстановить область?
185 1246356
>>46266
Лет через 5, короче даже школьник лучше тебя
186 1246357
>>46293
Да, хохол, и у нас в мухосранях с айти треш
187 1246360
>>46349
Что не так? У тебя выдаёт параметры для трёх классов. Разве классы не задаются человеком? Я, конечно, сам нихуя не знаю ничего кроме того как softmax применяется для вероятностей в нейронках, но что-то мне подсказывает что магическим образом находить классы тебе регрессия никогда не будет.
image.png56 Кб, 537x427
188 1246363
>>46360
k - это количество классов. У нас мультиномиальное произведение и вероятность(область) для третьего класса заведомо известна. Всё как для случая с двумя классами, мы же не строим две прямые, а строим одну.
189 1246364
>>46360
Не, это обучение с учителем, классы известны. Магии нет никакой.
190 1246365
>>46357
У вас там везде треш
191 1246366
>>46356

> даже школьник лучше тебя


Я как умный и взрослый человек давно дропнул нейроговно, а вот школьники едят и причмокивают.
192 1246368
>>46363
Если у тебя разные параметры, то одна прямая не будет.
193 1246369
>>46366
И занялся вебом?
194 1246372
>>46368
хм, как не будет, это обычная логистическая регрессия, которая задается одной прямой
195 1246375
>>46372
У одной прямой одни параметры.
196 1246376
>>46375
Не можешь подробнее написать о чем ты, я тебя не понимаю.
197 1246377
>>46376
Такое утверждение.
Два значения функции вида f(x)=x*m+c, где m и c - постоянные значения, равны двум значениям такой же функции только тогда, когда постоянные параметры первой функции равны постоянным параметрам второй.
198 1246383
>>46377
Только ты к чему? У нас есть лог регрессия log(\frac{p}{1-p}) = w_i x_i , обучаем на выборке параметры w_i, дальше смотрим на знак скалярного произведения, если положительный - то это один класс, если отрицательный - то другой. никаких других прямых не возникает, у нас один вектор w_i, который задает прямую
199 1246389
>>46383
фикс: не прямую, конечно, а в общем случае гиперплоскость, я оговорился.
200 1246390
>>46383
Лил. Значит ты задаёшь одну прямую и делишь классы по розным сторонам относительно неё? Ллогистическая регрессия на один класс рассчитана.
201 1246392
>>46383
Попробуй методом Зильбермана
202 1246393
>>46369
Водородными генераторами
image.png20 Кб, 1062x88
203 1246396
>>46390
>>46390

>Ллогистическая регрессия на один класс рассчитана.


Что?
204 1246398
>>46396
Ай, лол, точно, терминологию попутал. Про линейную говорил. Потому что одно и то же, когда дело касается изменения предикторов. Но сигмоид всё равно для вероятности, а не классификации.
205 1246399
>>46392

>Зильбермана


Почему не регрессией Каца?
206 1246400
>>46398
Сигмоид - это хуйня, которая естественно возникает, тот же линейный классификатор, только непрерывный. Я не вижу здесь принципиальной разницы, если не вдаваться в интерпретации, ответы такие же будут в итоге.
207 1246402
>>46400

>Сигмоид


Чем он от соленоида отличается?
208 1246405
>>46402
Я надеюсь, что ты запарился какой-нибудь код написать, а не сам строчишь здесь свой прекрасный юмор
209 1246407
>>46405
Конечно сам, ведь складывать предложения с учетом семантики компьютеры не умеют.
210 1246410
>>46407
Хм, так ведь и есть. Научи.
211 1246412
>>46410

>Научи


Кого? Нейронки в НЛП не могут.
212 1246413
Логистическая регрессия обучилась. Пенальти не указываю, вроде автоматом л2.
При прогоне через тестовую выборку все вероятности близкик 0.5 буквально на сотые доли только отличаются. Можете пованговать чем это может быть?
213 1246414
>>46413

>чем это может быть?


Подстройкой под данные.
214 1246415
>>46414
В смысле перееобучилась думаешь система? Но там должно быть пенальти и кросс валидация.
Забыл добавить, я еще поиск по сетке веду.
Но вообще надо попробовать прогнать по всем данным.
215 1246416
>>46415

>прогнать по всем данным


Неприятно удивишься
216 1246417
>>46413
>>46414
Чё нахуй? Как можно регрессию переобучить? Или вы хуёвый лёрнингрэйт переобучением называете?
217 1246418
>>46417
Логистическая регрессия не переобучается?
Что за лернигрейт?
218 1246420
>>46418
Подбором не переобучается. Скорость обучения.
219 1246421
>>46420
Скорость обучения то тут при чем?
Что значит подбором?
А как переобучается?
220 1246423
>>46421
Подбором - это когда берешь кучу значений и возвращаешь то, при котором ошибка меньше. Скорость обучения при том, что можно отправить y в космос и с каждой итерацией всё дальше.
Никак не переобучается.
221 1246424
>>46423
Че-то я вообще запутался. Я пока других способов кроме как перебором и не знаю.
Логрес это же поверхность в пространстве признаков, что ей мешает идеалтно проходить по всем объектам?
222 1246425
>>46424
Когда подбором, лёрнингрейт вообще не нужен. Сейчас у тебя переобучения вообще быть не должно. А проблему твою я не понимаю. Видимо дисперсия по регрессорам малая.
223 1246525
>>46413
не слушай поехавших, которые говорят про переобучение
вероятности ~0.5 - недообучение
на чем валидацию проводил? данные не забыл нормировать?
224 1246537
>>46525
Разделил исходные данные на две части. В обучающей 4000 записей, в тестовой в три раза меньше. Данные не нормировал(в смысле вычитал мат ожидание и делил на дисперсию?). Разве без этого работать не будет?
225 1246552
>>46537
Будет работать если ты используешь обычную линейную регрессию. Но если добавляется регуляризация, то лучше нормировать данные, иначе регуляризация будет штрафовать одни признаки сильнее чем другие.
Да, вычитать мат ожидание и делить на дисперсию
(В sklearn - StandartScaler)
226 1246580
>>46525
Кем нужно быть чтобы говорить, что регрессию можно переобучить подбором? Да хоть ты на всех серверах гугла прогоняй один датасет, будет лучшее значение и ничего более.
227 1246587
>>46580
Кто вообще придумал обучение "подбором"? Как это называется у нормальных людей?
линейная регрессия переобучается только когда признаков больше чем объектов в обучающей выборке.
228 1246631
Значит посчитал аук скор для тренировочной выборки, т.е. подал на вход аук скор правильные ответы для обучающей выборки и ответы, которые дала мне моя лучшая лог регрессия. Аук скор выдал 0.5002...
Я не уверен в этом, но вроде для аук скора это озгэначает произвольное распределение классов?
А, да, класса в ответе у меня два.
229 1246637
>>46631
покажи код (если питон)
230 1246638
Ну что вы тут? Давайте такую вещь обсудим - почему машобчик стесняются использовать для анализа рынков? Т.е. я думаю, никто не будет спорить, что эффективность (профит) каких-то действий (купил-продал) на рынке зависят не от божьей воли, а от текущего состояния рынка. Формально, профит = f(x1,...,xn), где x1-xn - некоторые показатели рынка. Допустим, нам неизвестно, что за зависимость. Но мы можем влошить фантики с тестового счета, и для нескольких x1-xn (разных!) измерить профит (он может быть и отрицательным) и пометить им наборы x1-xn. В дальнейшем проецируя текущие x1-xn на построенную модель, получаем метку класса, т.е. насколько выгодно или невыгодно в данных условиях входить на рынок. Не?
231 1246640
>>46638

>почему машобчик стесняются использовать для анализа рынков


Потому, что цена — случайная величина. И что ты там собрался анализировать, расстояние по формуле с кваджратным корнем искать, что ли? Так оно там и есть.
232 1246641
>>46640
Я про цену что-то писал вообще? Читай еще раз.
233 1246642
>>46638
Потом твое нейроговно сольет все активы, а ты такой, я невиноват, это она сома
234 1246643
Алсо, ок, допустим, что цена - чисто случайная величина, т.е. имеет место быть нормальное распределение. Но в таких условиях мартингейл будет заходить максимум с 3-4 раза, т.е. к примеру, на бинарных опционах гарантирован профит в тысячи процентов в день. Однако, очень легко убедиться, что это не так, а значит, распределение там заметно отличается от гауссова.
235 1246644
>>46643

>чисто случайная величина, т.е. имеет место быть нормальное распределение.

236 1246646
>>46644
Ок, я тебя услышал. Случайная величина, распределение не гауссово. Но тогда его можно аппроксимировать по имеющимся данным.
237 1246647
>>46643

>чисто случайная величина


Она не случайная, там очень много факторов
1532869750196244079.jpg105 Кб, 700x699
238 1246648
>>46646

> я тебя услышал


Лол
239 1246649
>>46647

>там очень много факторов


Которые:
- существенные. отражаются в динамике самой цены (т.к. влияют на нее).
- несущественные. на самой цене никак не отражаются.
240 1246651
>>46649
Политические, экономические и инсайдеровские.
241 1246652
>>46651
Еще раз. Они ибо влияют на показатели рынка, и т.о. могут быть восстановлены по имеющимся данным, либо не влияют и т.о. нахуй не нужны.
242 1246653
>>46652

>Еще раз.


Школьник, плез
243 1246654
>>46637
Второй питон, юпитер ноутбук, надеюсь у тебя тоже заработает.
Pastebin.com/xYHkqsN1
244 1246663
>>46652
Смотри, как ловят игроков на понижение. Думаешь, их выпустили?..
245 1246680
>>46654
какой-то костыльный код
написал свой - 0.87 roc auc
pastebin.com/qyiRunVa
246 1246689
>>46646
Обсер в том что у случайного блуждания равномерное распределение, а не нормальное, имелось ввиду.
247 1246719
>>46689

> у случайного блуждания


Случайное распределение, манька
248 1246782
>>46719
random walk
249 1246793
>>46782
random walk это случайный процесс и как тогда понимать что у случайного процесса равномерное распределение
qzykydqehszxvrm7hkao.jpg81 Кб, 636x770
250 1246811
Уже реализовали риалтаймовую отрисовку 2D аниме-мира из видео с камеры? Есть известные или личные и постыдные датасеты вроде срисованных в аниме-стиле фотографий? Вместо виртуальной и дополненной я выбираю избегание реальности.
251 1246812
>>46811
Зачем тебе вся эта дичь? Смотри аниме.
252 1246817
>>46812
Я хочу ходить в хеадсете и жить в аниме. Отчасти, потому что реальность вокруг убога как сюжеты последних тайтлов.
253 1246834
>>46811
обучи cyclegan и нам расскажи
254 1246863
>>46817
Как будто сюжет реальности поменяется от того, что тебе в комнату будет заносить борщ не похожая на умирающую летучую мышь мама, а дергающаяся аляповатая Суигинто.
255 1246868
>>46863
Я больше думал о том чтобы рисовать деревья, здания и гудящие провода, а людей обозначивать только как препятствия если с ними можно столкнуться.
256 1246873
>>46868
А как ты дополненную реальность будешь на улице делать, каким девайсом? Или тебе в комнате деревья нужны?
257 1246919
>>46689
>>46793
Но ведь если есть временной ряд, описывающий динамику процесса, всегда можно сказать, чистый там рандом или нет. Сечение Пуанкаре хоть посмотреть итд.
258 1246931
>>46643
Уже 70% брокеров додумались. Каково в 60-х?
259 1246937
>>46931

> Уже 70% брокеров додумались.


До чего додумались?
260 1246956
>>46937
Не брокеры, а торгаши на бирже. Додумались применять комплюхтеры вместо людей.
261 1246958
>>46937

>До чего додумались?



Что кукл - это не мем для ньюфань.

И не страшилки про зога.

А определенная группа солидных людей которые ваши распределения и матожидания на половом органе крутит.

И масса хомячков, движения которой вы анализируете путем теории вероятностей - как раз и предназначена для того, чтобы

1) Маскировать движуху солидных людей.

2) Двигать график в нужную солидным людям сторону.

Никакой вероятности и случайных величин тут нет (кроме лотерейной погрешности, на которой и пытаются наебать систему манятрейдеры). Система полностью управляемая.

Не работает здесь теорвер - кажущиеся случайными величины и мнимая швабодка рынка - это наебалово.
262 1246959
>>46958
Значит мы можем взять в качестве датасета действия децентрализованных монополий, перевести вход в вектор, а выход в скаляр и вычислять рынок с точностью до 70%
263 1246960
>>46652

>могут быть восстановлены по имеющимся данным



Читает мысли кула на расстоянии и угадывает инсайдерские интриги нейросеточкой по ленте новостей для быдла из быдлосми?

Вы блядь, хоть понимаете , что ваши графики - это не данные. Вообще. Не данные. Нихуя.
264 1246961
>>46959

А, всё же мысли кукла нейросеточкой на расстоянии собрались читать.

Тогда без шпиона с комплектом жучков, которые по интеренту в нейросеточку будут передавать о чем уважаемые люди пиздят в своих тусовочках - не взлетит.
265 1246965
>>46960

>угадывает инсайдерские интриги нейросеточкой по ленте новостей для быдла из быдлосми?



На самом деле годный вариант. Не рофл ни разу. Ты даже не представляешь. Если взять такой психологический факт, что изобретательность людей ограничена, а в плане "лох не мамонт" - так и вовсе мошенники по статистике сос хемами не заморачиваются и эксплойтят одни и те же дыры человеческого сознания, то пиздеж очень даже можно и нужно кореллировать с неизвестной инсайдерской движухой.
266 1246969
>>46965

Более того, в силу свободы прессы и доступности быдлоновостей со всего мира и наличия антагонизма можно вообще охуительно фильтровать всю хуйню.

Типа на входы подаем СМИ либераху/пиндоса и СМИ вату/китайчатину, раскладываем эти сигналы в опинион и семантику, контент-анализ короч, баттхерт и передёргивания взаимоликвидируются, прямо как в дифференциальном (балансном) сигнале,

Параллельно по этим двум сигналам интент-анализ по каждому, далее смешивание с результатом пункта 1, и вот у нас уже сравнительно чистые крупицы того самого инсайда.
267 1246970
Кроч, в конце список литературы, читаешь@анализируешь и вот твой непобедимый кукл:

http://journals.uspu.ru/i/inst/ling/ling24/ling_4(24)2008_gavrilova.pdf
268 1246974
Вы не поняли. Какие бы там ни были многоходовочки рептилоидов, их смысл - заработать на рынке, а не проебать. Заработать можно вовремя купив или продав. И теперь ещё раз: есть состояние рынка, его показатели (в т.ч не напрямую, а по индикаторам) и есть объективный показатель дохода при покупке или продаже при определённых значениях показателей рынка или их динамике. Доход - функция от динамики состояний рынка, как ни крути, каких там аннунаков ни добавляй в эту схему - ничего не изменится. Че вы мне сказки рассказывает, что теорвер не работает на рынке?
269 1247067
>>46974
Дебилов с уважаемыми рептилоидами можно нахуй слать, это помоечники которые ничего не соображают вообще ни в чем.
Не выйдет ничего у тебя по более простой и очевидной причине: потому что "никто не применяет компьютеры для анализа рынков" это какая-то наивная чушь, люди давным давно додумались до алгоритмической торговли. Неэффективности на рынке позволяющие заработать, в принципе конечно есть, но будучи замеченными они эксплуатируются и быстро исчезают, поэтому желающие на них заработать, коих немало, соревнуются в том насколько хорошо и, не менее важно, насколько быстро они их обнаружат (за вот уже более 30 лет дарвинистической гонки на выживание актуальный масштаб по времени составляет полмиллисекунды). Большинство даже средних алгофондов, у которых куча creme de la creme phd по датасаенсу, математике и финансам на большой зарплате интенсивно по 80 часов в неделю думают как бы еще выжать тысячные доли процента прибыли, у которых оборудования на несколько сотен миллионов долларов все равно в итоге проебывают, и денежки их забирают несколько самых крупных фондов и Голдман с Морганом. Так что шансы дурачка с сосаки внезапно найти клондайк можешь сам примерно оценить.
15341595092830s.jpg9 Кб, 176x250
270 1247136
>>46974

>Вы не поняли.

271 1247164
>>46273
хомского знаю только из пересказов, но суть хомского в генеративной модели языка (это было и до него, но не в такой степени), которая позволяет для каждого предложения построить его дерево. В рамках этой модели можно генерировать предложения с помощью неких правил и конечных символов. Так, к предложению можно применить функцию вопроса, а к слову функцию множественного числа. А с формальным распарсенным деревом в теории можно много, что сделать - перевести на другой язык или вообще понять "смысл" (ну, и вообще до 2000ых вся компьютерная лингвистика увлекалась парсингом под влиянием всего этого). Про детей он вроде бы еще в 60ых передумал, просто сначала он думал, что правила для генерации предложений хранятся от рождения. Так, вся его работа в духе структуралистов предыдущих лет и является их логичным предложением, его научник Харрис занимался примерно тем же, как и Пражский лингвистический крыжок с беглым русским князем Трубецким (они придумывали всякие правила для фонологии). В английской википедии много написано. https://en.wikipedia.org/wiki/Generative_grammar
7bea90dfb469406d982d0764cd60f1e8.png23 Кб, 1182x335
272 1247168
>>47164
картинку забыл
vlc-record-2018-07-22-00h25m53s-The Wall Street Code - VPRO[...].mp43,7 Мб, mp4,
1280x720, 0:58
273 1247209
>>47067
насколько я понял слушая лекции этих самых рокетсаентистов с волстрита, у них главная проблема с которой они борются, это искажение рынка своими наносекундными ставками, плюс гонка вооружений и большая часть усилий топовых умов планеты сейчас тратится именно на это. А вот область >10 минут и со ставками <100к вполне себе не паханное поле.
274 1247210
>>47168
о, ABBYY Compreno, эталон неработоспособного говна
275 1247217
>>47209

>слушая лекции этих самых рокетсаентистов с волстрита


теперь иди мой уши от говна
276 1247220
>>47168
Этот дух 60-х на пикче. Вспоминаю CYC, лисп, пролог, компьютеры пятого поколения, такой-то ретрофутуризм и стимпанк от ИИ.
277 1247235
>>47217

>теперь иди мой уши от говна


почему? все на само деле не так?
278 1247246
>>46680
Под костыльностью, ты наверное имеешь в виду деление и обработку по отдельности выборки, но на то есть своя причина в виде того, что рассматриваются разные виды замены пропущенных значений. За код спасибо, почерпнул несколько синтаасических приемов. Теперь попытаюсь понять где я такой лох.
279 1247247
>>46974
Расклад следующий. Все публичные компании, акции которых торгуются на биржах выкладывают фин. отчетность. В большинстве случаев, отчетность эта представляет собой PDF файл. Есть ряд ресурсов, которые хранят отчетности по зарубежным и отечественным компаням соответственно. Отчетность выкладывают в определенное время (иногда несколько раз в год). По данной отчетности можно вычислить т.н. мультипликатор и определить какие акции купить, а какие лучше скинуть. Проблема в том, что листать отчетность по сотням и тысячам компаний довольно уныло и не очено продуктивно, т.к. процесс довольно однообразный, который включает в себя школьную математику. Можно конечно считать мультипликаторы только по топовым компаниям (Apple, Microsoft, Facebook, etc.), но есть шанс пропустить восходящую звезду и вместе с тем упустить потенциальную прибыль.
Подход тут может быть следующий: выгребать фин. отчетность в виде PDF файлов по кд с этих сайтов. Парсить их (может копнуть в сторону Text Mining) и получать данные в структурированном виде (формат в котором описана фин. отчетность варируется от компании к компании, но ключевые слова везде одинаковые). Затем вычислять мультипликаторы, сортировать их и красиво строить графики. Как идея?
280 1247255
>>47246
Забыл добавить, поиска по сетке нет, а это же очень важно.
281 1247300
>>47247
вот это да, ведь никто так не делает...
282 1247302
>>47247

>Как идея?


Это буквально схавано и высрано ещё в начале 70-80-х, если не раньше. Сколько там лет Баффету? Сильно удивлюсь если это во-первых давно уже не автоматизированно и доступно онлайн за 3 копейке для комнатных инвесторов, во-вторых на этом все ещё можно заработать денег спустя миллисекунду послу выхода отчетности.
283 1247314
>>47302
А нахуя если можно воспользоваться блокчейном, где деньги кидают как грязь по тем же программам и не боятся сесть на бутылку?
284 1247336
>>47302
ну в Открытии Брокер есть подобная услуга. Но она стоит 3к в месяц!
285 1247367
Как я понимаю NN использующая моделирование вероятностей на основе "деревьев" не нужна и полностью аппроксимируется LSTM?
image.png114 Кб, 550x231
286 1247376
>>42753 (OP)
может кто-нибудь разбирается в image fusion? У меня такой вопрос, например если есть две картинки, уже зарегистрированные, но одна раза в полтора больше другой, то как лучше сделать, увеличить картинку, которая меньше, до размера который больше, или же уменьшить большую картинку?
287 1247385
>>47235
>>46974

>почему? все на самом деле не так?


>Чё вы мне сказки рассказывает, что теорвер не работает на рынке?


Просто понимаешь, кукловод — реально существующий участник торгов, ну или, скажем, стая товарищей. Они видят твои заявки и стоп-приказы и даже остатки на счёте. В правилах лондонской биржи ICE прямо сказано, что брокеры обязаны предоставлять ей данные о состоянии счетов своих клиентов. И это ещё не самый худший случай, на ICE остаётся возможность хоть немного заработать (там у цен видны горизонтальные уровни), а на РТС, CBOT и NYSE такой возможности мелким игрокам не оставили.
Я вот недавно по телеканалу «Дискавери» смотрел, как пума, чорная вся, на собственный хвост рыбу ловила. Сунула хвост в воду, и давай им водить, какая-то стая рыб решила хвоста откушать, а она рыбину — когтем, — цап!!! — и сожрала.
Евгений 288 1247386
Прочитал пару статей типа "нейросеть за 5 минут" и метод обратного распространения ошибки. Переписал формулы в код. Сеть не обучается, причем увеличение числа итераций/учебных материалов не помогает. Кто поможет тупенькому ньфагу разобраться в 100 строках кода?
289 1247395
>>47209

>не паханное


Скорее выжженое. На наносекундную высокочастотную торговлю не от хорошей жизни перешли.
290 1247414
>>47386

>Переписал формулы в код

291 1247419
>>47414
Ну так с осознанием же. Благо 2 курса все же дают некоторую мат. базу
292 1247432
>>47419
Теперь просто сделай так, чтобы формулы осознали себя, и твоя нейроночка готова.
293 1247437
>>47432
К сожалению, дело не в формулах. Математика неоднократно проверялась
294 1247447
>>47395
В самысле перешли, полноценный алготрейдинг как раз и начался с наносекунд, т.к. только там у первых алгоритмов машоба была приемлемая предсказательная сила, чем больше масштаб времени тем хуже они работают. Одно дело предсказать например точные координаты человека на 10 секунд вперед и другое на месяц.
295 1247449
>>47386
вот поэтому в машобе сначала нужно писать хотя бы тесты про визуализацию я уже молчу, а потом код
296 1247463
>>47449
Что вы понимаете под тестами? За изменением значения функции среднеквадратичной ошибки, связанным с увеличением числа итераций я наблюдал. После определенного их числа оно фактически перестает изменяться
297 1247484
>>47376

>или же уменьшить большую картинку


это
298 1247488
>>47447
Да какие там алгоритмы, регрессии линейные.
299 1247489
>>47386
прочитал пару статей типа "компьютер для чайников". Решил повторить. Компьютер не работает, причем повышение напряжения в сети и молитвы не помогают. Помоги мне плиз, а я тебе
300 1247499
Есть прога, которая по известным буквам шрифта догадывается как выглядят другие буквы в этом шрифте?
301 1247531
>>47499
Статья такая была.
302 1247546
>>47489
Могу разве что посмеяться над твой великолепной шуткой, чтобы чуть твою самооценку поднять
303 1247580
Когда мы бэкпропогэйшн включаем, разве не изменяются только веса выходного слоя для конкретной ситуации? Если мы движемся дальше, то получается ошибка нулевая.
304 1247598
>>47580
Пиздуй производные через цепное правило расписывать.
305 1247635
>>47598
Отвечай нормально. Даже с производной если мы модифицируемых веса по дельте, то у нас банально тренируется один слой.
306 1247685
>>47635
Только дельты ты считаешь для каждого слоя
307 1247697
>>47210
о ты пользовался компрено, расскажи, как оно, а то они пиарились-пиарились, я даже на одну их лекцию ходил, а сейчас совсем пропали
308 1247746
>>47685
Я считаю дельту для последнего слоя, меняю веса, получается что выход равен ожидаемому, при этом вычисленные значения стоящего перед ним слоя не меняются, так как я уже модифицировал веса на которые они перемножаются. Соответственно для каждого следующего слоя дельта равна нулю.
309 1247747
>>47697
Онтологическая бза созданная вручную прибита гвоздями из говна к синтаксическому велосипеду из поноса. Короче, у них на уровне синтаксического разбора уже не работает. Я про нормальный русский язык, в англопидерском там проще и может компрено и покажет что то отличное от говна.
310 1247754
Почему validation loss сильно прыгает при обучении? Что надо делать, lr уменьшать?
311 1247757
Аноны, действительно в машобе необходимо именно ТОПОВОЕ математическое образование, т.е нужны выпускники только МФТИ, МГУ, ВШЭ?
Я поступил на прикладную математику в МИСиС, собираюсь попробовать себя в компьютерном зрении.
Посмотрел hh и впал в уныние - неужели мой максимум - это какой-нибудь веб или энтерпрайз?
312 1247765
>>47757

>неужели мой максимум - это какой-нибудь веб или энтерпрайз


Оптимист, максимум матанопетушни это Крошка Картошка
313 1247769
>>47757
По идее должно быть дотаточно. В заборостроительных обычно никто не учится нормально, да и сами студенты тупые, поэтому они не котируются особо.
314 1247771
Есть гиты по рисованию изображения с помощью полученных весов при обучении?
315 1247773
>>47769
Можно стать успешным в машобе имея только 11 классов школки? Относительно собственных проектов ясно, но что там с работодателями?
316 1247775
>>47773

>но что там с работодателями


Видимо все совсем плохо. Требуют MS, а то и PhD по математике или Computer Science, причем обязательно чтобы степень была получена в топвузе.
317 1247776
>>47773
Ну разве что для своих свистоперделок, да и то придется самому учить довольно много математики.
А на работу в DS/ML/AI требуют очень серьезную матподготовку уровня матфака/пми топового вуза в дс
318 1247778
>>47776

>очень серьезную матподготовку


>решаешь задачу про 2 яйца и n-этажный дом

319 1247784
Аноны, я в спецкурсах кафедры яндекса на физтехе видел алгебраическую топологию. У меня вопрос: нахуя?
320 1247791
>>47778
Такое спрашивают только на собесах на вебмакаку
321 1247793
>>47778
Ну так почему-то вчерашние магистры не могут решить задачу про два яйца, значит она всё-таки сложная, нет?
322 1247794
>>47793

>не могут решить задачу про два яйца, значит она всё-таки сложная, нет?


Магистров учат решать более/менее реальные задачи, а не выдуманные головоломки для школьников и людей постарше.
323 1247799
>>47794
То есть ты считаешь, что задача о двух яйцах это сугубо абстрактная головоломка и в реальной работе никогда не нужна? Ну такой работник тем более должен быть отсеян.
324 1247801
>>47794
Чему учат там вообще? Мне вообще интересно, никогда не видел людей с техническим образованием магистра.
325 1247802
>>47799
Спасибо, проиграл
326 1247803
>>47801
В основном маются хуйней, чтобы в армию не идти.
1522077762117332311.jpg22 Кб, 400x309
327 1247870
>>47803
В жопы ебутся? Где еще может пригодится матан, кроме ебли в жопу?
328 1247882
>>47870

>матан


>без ебли в жопу


Ты дебил или да?
329 1247883
>>47784
Persistance homology and topological data analysis.
330 1247890
Алло, это машоб-тред, или хуячечная?
331 1247906
>>47890
Весь зекач про гомоеблю, не обращай внимания.
332 1247909
>>47883
гомологии назвать баркодом, хм...

Ну спасибо, интересно. Только меня на работу без знания машоба всё равно не возьмут
333 1247912
>>47909

>гомологии назвать баркодом


Ой, я в глаза долблюсь
334 1248019
>>42753 (OP)
Анон, такая хуйня короче. Ебанул типа нейронную сеть на питоне. Без всяких там numpy и прочее. Решил по хардкору короче. В итоге, что я получил. При обучении сети, к примеру, по следующим сетам: на вход подается 0.3 на выходе должно получиться 0.09. Все заебись, сеть обучается. Однако, когда я хочу обучить сеть, хотя бы обычному умножению и подаю на входы несколько значений по порядку, а в качестве контрольных выходов, соответственные значения. Выходит следующая ситуация. Такое ощущение, что сеть стоит на месте. То есть, подав на вход нормализованное значения x1, y1 и соответственно, в качестве контрольного параметра z1 сеть пытается подстроить свои веса именно к этому контрольному параметру (метод обратного распространения ошибок) . Сеть вроде кое-как подстроила веса за одну итерацию, а потом сука сразу НА и подаю уже x2, y2 и z2 и сеть заново подстраивается к z2 и так далее. Из-за чего появляется ощущение, будто сеть просто стоит на месте меня свои веса туда и обратно без какого-либо профита. В качестве активационной функции я использую сигмоиду 1 / (1 +_exp(-x)), при корректировке весов используется следующая функция: new_w = old_w + n dsigma(x) error, где old_w -- старый вес связи, n - норма обучения, dsigma производная сигмоиды. Ошибка для выходного нейрона определяется лишь разницей между контрольным значение и реальным выходным значением. Ошибки для скрытых слоев определяются по следующему мануалу (изображен на двух пикчах, на второй выше описана формула).
Анонче, помоги мне, чем сможешь, возможно встречался с такой ситуацией. Уже не знаю что делать, от горя фапаю и прозябаю.
335 1248078
>>48019

>по хардкору


Лил, почти написал (всё кроме формулы обучения) такую вчера по памяти за полтора часа в телефоне пока нечего было делать.


Без лёрнингрейта у тебя даже линейная регрессия работать не будет, ёпт.
336 1248080
>>48078
>>48019
А нет, есть она там. Возможно просто слишком большое значение. Или нейронов мало.
337 1248085
>>48078

>Без лёрнингрейта у тебя даже линейная регрессия работать не будет


Держите неуча, не дайте ему уйти!
338 1248088
>>48085
Естественно я имел ввиду случай, когда обучение ведётся методом градиентного спуска. Сам ты неуч.
339 1248159
>>47580
чел, ты берешь производную целевой функции по каждому весу в сети это и будет градиент
340 1248164
Кстати не очень понимаю почему бэкпропагнейшн как какое-то особенное изобретение представляют нам? Этож мы просто дифференциал оптимизируемой функции подсчитываем пользуясь тем что d(fg) = df dg
341 1248167
>>48159
Это как?
342 1248170
Объясните вообще как находить градиент и производную. Что вообще такое производная. Как вычислять градиентный спуск?
343 1248172
Посаны,а не пора ли топовых ЛОЛ задротов поставить на место, как это недавно сделали по доте2 ?
344 1248179
>>48170

> Что вообще такое производная.


Ты загугли хоть что ли. Это же матан простой, к нейроночкам как таковым не относится. Вы б сначала основы почитали, зачем тут спрашивать что такое сигма, производная, интеграл итд.
345 1248183
>>48179
Как можно выщитать производную, не имея знания об других её значениях? Как это делается в нейронках?
346 1248184
Если значение выхода окажется слишком большим или слишком маленьким, то производная активации станет нулём, при этом условии дельта тоже. Какой в этом смысл?
347 1248196
>>48183

>выщитать производную


Методом Каца
348 1248199
>>48167
вся твоя сеть по сути раскладывается в одну функцию с кучей переменных
допустим ты имеешь 2 входных нейрона 2 в скрытом слое и 1 на выходе
и пусть все активационные функции будут линейными (тобишь y(x)=x) и целевой ф-цией J = (y_pred - y)2 , где y_pred значение которое ты предсказываешь а y правильный ответ тогда все это можно разложить в нечто

y_pred = (x1w1+x2w2)... ну кароч ты понял в латех я не умею делаешь forward propagation и представляешь в виде одной функции всё это а потом берешь градиент тобишь производную по всем переменным
ето как бы основы
вот тут все на православном объясняется с азов https://stepik.org/course/401
является калькой с буржуйского http://neuralnetworksanddeeplearning.com/index.html
349 1248204
>>48199

>берешь градиент тобишь производную по всем переменным


Как? Зачем ты это всё писал, но так и не ответил на вопрос?
350 1248206
Сраная математика. Я хочу просто учить алгоритмы, я прогроммист!
351 1248214
>>48164
Исторически так сложилось. Отцы нейроночек вроде все переизобретали на заре нейроночкостроения, и им, наверное, казалось, что они изобретают что-то невероятное. А может, это был просто метод самопиара, круто же звучит Я ИЗОБРЕЛ БЕКПРОПАГЕЙШН. Сравни с "я понял как взять производную сложной функции."
352 1248215
>>48206
Толсто
353 1248227
>>48214
ну пиздец конечно
вы говорите что для дипленингов надо мехмат закончить а тут оказывается отцы не знали матана из максимум третьего семестра
причем самой базовой его части
354 1248242
>>48227
40 лет назад вообще нихуя не знали и интернетов не было.
355 1248255
>>48164
>>48214
Вы б хоть исторический обзор у Вапника почитали. Там описано, как настраивались веса в перцептроне Розенблатта, и почему бекпропагейшн - большой шаг вперед по сравнению с.
image.png27 Кб, 218x366
356 1248284
Позволяю спиздить идею.
357 1248354
>>48284
Шо цэ?
358 1248365
>>48354
Полноценная машина Больцмана для ваших импотентных сеток.
Makeapp.webm10,9 Мб, webm,
640x360, 2:39
359 1248413
Ребзя, кто-нибудь вкурсе на чем тренировали сабж?
360 1248415
>>48413
На ненакрашеных тёлках очевидно.
361 1248461
>>48365

> Полноценная машина Больцмана для ваших импотентных сеток.


Я вижу две ограниченные машины Больцмана, между ними хуйня непонятного назначения и один выходной нейрон. И в чем космический эффект всей этой ебулды?
362 1248531
>>48461
Это один входной нейрон
363 1248536
>>48531

> Это один входной нейрон


Возможно, там на пике неориентированный граф. Так нахуя эта конструкция, что полезного она делает?
364 1248539
>>48415
Но где их взять в таких количествах?
365 1248683
>>48539
Есть сетки, которые добавляют макияж на лица
366 1248771
Как вкатиться в компьютерное зрение?
367 1248779
>>48771
Читаешь документацию OpenCV и.. все. Ты в машинном зрении.
368 1248783
>>48771

>компьютерное зрение?


Читай статьи Каценеленбогена и Яффе
369 1248796
>>42753 (OP)

> MIT


Аноны, подскажите, пожалуйста, есть ли курсы на русском языке если знаете об их существовании, хотелось бы ссылку
Если не владеете этой информацией, можете дать линк на MIT курсы на английском ? Благодарю
370 1248798
>>48796
Есть
371 1248799
>>48798
Дай, пожалуйста ссылку
372 1248807
>>48799
вот тут все на православном объясняется с азов https://stepik.org/course/401
373 1248809
>>48807
Благодарю
374 1248811
Почему все пытаются сделать всё через одну нейросеть, если в человеческом мозге нейросетей для банально одной задачи всегда несколько?
375 1248818
>>48811

>человеческом мозге нейросетей


Причем тут моцк и нейроговно?
376 1248824
>>48818
При том, что сколько бы маньки в этом треде не обмазывались матаном и архитектурами просрочеными 20 лет назад, область искусственного интеллекта нацелена на реализацию механизмов именно мозга и нервной системы.
377 1248831
>>48824

>механизмов именно мозга


Уже знают как работает моцк? Ты нам с 5000 года капчуешь?
378 1248837
>>48831
Это ты, видимо, в 19-ом веке застрял. Мы знаем о мозге просто дохуя, невероятно много.
379 1248838
>>48837
Твое невероятно много и 1% от всех знаний о мозге не составит.
О океане ты тоже невероятно много знаешь? А может о космосе?
380 1248844
>>48837

>Мы


Рептилоиды? Ну так расскажи, как например хранится информация, в каком виде?
381 1248855
>>48844
Ассоциативная память.

>в каком виде?


В виде нейронных связей.
382 1248861
>>48855

>В виде нейронных связей.


У слона 250 млрд нейронов, зделой из него флешку
383 1248864
>>48855
Асоциации не имеют отношения к памяти, это отдельный алгоритмический инструментарий, тут скорее подходил бы глагол вроде "ассоциировать". То есть либо ассоциативная хуйня непонятная, либо память.
мимо проходил, не машобщик
384 1248865
>>48864
Еще как имеют.
Ассоциативная память даже есть в железе выполненная.
385 1248868
>>48844

>как например хранится информация, в каком виде?


https://en.wikipedia.org/wiki/Hierarchical_temporal_memory
386 1248987
Вапник давно пояснил, почему для машоба не нужны знания по нейрофизиологии. Сами подумайте, где бы была сейчас авиация, если бы главная задача была скопировать птицу. Задача авиации - летать, а не копировать летающую хуйню, созданную эволюцией. Так и тут, задача - обучающиеся алгоритмы, а не копия существующих механизмов, сложившихся эволюционно.
>>48831
>>48818
>>48783
Пшел нахуй отсюда, чучело.
387 1249002
>>48771
cs231n
388 1249004
>>49002
Единственный правильный ответ.
389 1249006
>>48987
Шмуэль пиздеть не будет
390 1249014
>>48987
Почему тогда Вапники долго не могли вдуплить в свертку, и только у кошки (или жабы, хз) её подсмотрели? При том, что про декомпозицию знает любой даун.
391 1249029
>>49014

> Почему тогда Вапники долго не могли вдуплить в свертку,


Потому что она нужна только негров распознавать? Создатель неокогнитрона до неё и без кошек додумался, и что ты знаешь про неокогнитрон? Эта ваша свёртка - хипстерский хайп, про который забудут.
392 1249079
>>48987
Аналогия = ложь.
le-fish-glider-powering-up-a-top-and-rear-view-of-first-gli[...].jpg54 Кб, 485x600
393 1249097
>>48987

>Сами подумайте, где бы была сейчас авиация, если бы главная задача была скопировать птицу.



Авиация на самом деле как раз началась, после того как изучили и скопировали птицу, мани. Именно так появился первый летающий аэроплан Ле Бри скопировал его с альбатроса. До этого были одни сраные воздушные шары. Точно так же как у вас, сейчас ваши сраные "нейросетки", которым нужен миллиард примеров что бы хуй от жопы научиться отличать. А все додики, которые повторяют бред о том, что самолеты не машут крыльями, что бы лететь, не понимают что и большинство птиц, блядь, тоже не машут крыльями, что бы лететь, а только что бы взлетать, набирать скорость и маневрировать. Нухуя в этой области не получится пока люди не начнут обращать больше внимания на ЕДИНСТВЕННЫЙ РАБОТАЮЩИЙ ПРИМЕР ИНТЕЛЛЕКТА - МОЗГ. А весь машоб сейчас это обклеивание воздушных шаров гребешками и перестановка реек в каркасе, в надежде на то что он из-за этого начнет летать как птица.
394 1249106
Накидайте каких-нибудь крутых приложений (irl а не в алгеоме) тер вера или статистики, чтобы рассказать-показать человеку.
Еще была книжка вроде какая-то по статистике кажется, очень наглядная, кто-нибудь помнит?
395 1249118
>>49106
Лагутин наглядная математическая статистика
396 1249127
>>49097

>Нухуя в этой области не получится


В какой области, в математической оптимизации? Уже получилось, привет из середины 20го века. "Искусственный интеллект" это рекламное название определённой области этой дисциплины в общем-то, сам интеллект нахуй никому не упал. Основная потреба бизнеса в "интеллекте" это улучшенные алгоритмы впихивания рекламы, распознавания человеческих фигур и машин с камер и улучшающийся кредитный профайлинг быдлеца. Сочиняющие симфонию, пишущие шедевры роботы никого не интересуют.
397 1249135
>>49127

>интеллект нахуй никому не упал


Ну охуеть
398 1249147
>>49127

> Сочиняющие симфонию, пишущие шедевры роботы никого не интересуют.


А чем принципиально диалоговые системы отличаются, которые все большие компании разрабатывают?
399 1249170
Забавно, что любое обсуждение ИИ скатывается в лучшем случае к обсуждению принципа стимул-реакция.
400 1249207
>>49135
Ну а зачем создавать интеллект похожий на человеческий с помощью каких-то упрощенных искусственных моделей если природа уже все сделала за нас. Получается и проще и эффективней. Найди тяночку, заделай ребеночка, воспитай, вот тебе и реинфорсмент лернинг. Через n лет искусственные матки делать научатся, вообще будем штамповать РАБотничков на конвеере.
401 1249217
>>49170

> Забавно, что любое обсуждение ИИ скатывается в лучшем случае к обсуждению принципа стимул-реакция.


Потому что основа высшей нервной деятельности это условный рефлекс и ничего кроме рефлексов там нет? Такой вариант тебе в голову не приходил, школьничек?
402 1249223
>>49207

>Найди тяночку, заделай ребеночка, воспитай


>проще и эффективней

403 1249239
>>49217

>Потому что основа высшей нервной деятельности это условный рефлекс и ничего кроме рефлексов там нет?



Разве условный рефлекс тьюринг-полный?
404 1249242
>>49207
Наоборот. Дно какое-то. Тяжело и неэфективно. Будет такой же клон. Максимум человеческих возможностей уже был достигнут и уже был давно унижен технологиями хотя иногда люди и унижали технологии, но это минимизируется с прогрессом
405 1249244
>>49239
Человеческий мозг тьюринг-полный.
406 1249284
Чем можно генерировать текст, сложнее марковских цепей, но проще state-of-art ботов Трампа?
407 1249317
Я вам формулы принес, быстро создавайте мне Искусственный интеллект!
408 1249360
Аноны, поступил на Информационные системы и технологии. Но понял, что хочу заниматься ML, каковы шансы, что большинство вакансий мне будут недоступны из-за не той специальности ?
409 1249368
>>49360
Пока ты закончишь, хайп окончательно спадёт, не парься. Технологии еще 100500 раз поменяются
410 1249370
>>49368
Думаешь, человечество выйдет с нейросетей на уровень выше ?
411 1249386
Реквестирую годные и недорогие книги по МЛ и Математике, необходимой для них, для совсем не шарящего в математике, но шарящего в программировании.
Глянул тут книжки по МЛ, охуеть там книга на 250 страниц стоит штукарь в среднем. Пиздец.
Хуй с ним с МЛ, хотя бы по математике для МЛ что-нибудь.
412 1249388
>>49386

>дорогие


?????? они же все бесплатные
413 1249402
>>49386
Вроде Арифметика Пчёлко норм
1527411692094.png117 Кб, 500x500
414 1249416
Посоветуйте тему дипломной, интересуюсь виртуальными ассистентами (в Космосе, для экспедиций на Юпитер), но такую тему нельзя заявить "потому что это инженерная проблема без научной новизны и с кучей опенсорных имплементаций на гитхабе, если конечно не говорить о серьезном социальном ИИ масштабов топовых корпораций". Делал курсовые с классификацией негров и ДНК, какой-то скромный опыт имеется, но требования к диплому очень серьезные и начинать работу нужно уже сейчас.
>>49386
Прочти шапку.
415 1249418
Аноны, начал накатывать CS50, стоит ли его досматривать? Или для ML бесполезно?
416 1249419
>>48172
Что скажите?
417 1249420
>>49419
В доте еще этого нет. Ебал ИИ из-за того, что его реакция была 0,08с, а у топ игрока 0,2с. как накинули ограничений, чтоб смотреть не на скрипты, а на игру ИИ 2/3 вин(если не ошибаюсь) у студии комментаторов. У про тимы выиграть шансов мало
418 1249422
>>49416

>сразу после негров делать йобу


Тебя научрук не осадил? Сумасшедший.
419 1249426
>>49422
Какую-то йобу нужно таки сделать, потому что негры на диплом не годятся.
420 1249432
>>49420
А по стате щас лол или дота задротов больше? И что думает себе гугл? Не желает ли он надрать задротам задницу?
421 1249438
>>49432
Гугл ежедневно занимается разработкой передовых архитектур, им не до игорей ОпенИИ Машка.
422 1249443
Уже второй день вкатываюсь в машоб на курсере андрей нг
Вроде пока что очень годно, я даже понял как работает градиентный спуск

держу в курсе
423 1249444
>>49443
А ты симпатичный?
424 1249445
>>49443
И как он работает?
425 1249621
Как визуализировать бинарный классификатор, который просто отвечает на вопрос: относится ли текст к категории а или к категории b ?
Мне нужен какой-то красивый график для научной работы,
с задачей регрессии понятно как это сделать, а с обычным супервайзд бинарным классификатором - неочень
426 1249635
>>49621
Софтмакс на выходном слое ебни и значения просто рисуй любым графиком.
427 1249672
>>49388
Хочу бумажные
>>49402
Ты долбоеб?
>>49416
Я читал, но там нет примеров книг по математике. А на английском книги полюбому дорогие.
428 1249673
>>49621
Делаешь предикт, получаешь столбец ноликов и единичек, используешь его как параметр s в pyplot.scatter
429 1249704
>>49672

> Хочу бумажные


Купи принтер да печатай. Ксерокс 3010 2.5 косаря стоит, одна заправка - чип 50р + краска сотка, хватает на 2,5 пачки бумаги по 500 листов. Если в формате а5 печатать, это 6000 страниц.
>>49672

> на английском книги полюбому дорогие.


Полтора года назад покупал Вапника у индуса, вместе с доставкой из Индии обошлось 800р.
430 1249710
https://twitter.com/karpathy/status/1031266180240093184
Спешите видеть, хипстор открыл для себя учебники. Таки скоро увидим сильный ИИ, не иначе.
431 1249721
>>49710
Лалка, учебники - это и есть хипстерство. Стопочка красивых разноцветных книжек на столе или на полке, рядом стаканчик латте-мокиаты, можно еще на фоне коллекцию винтажных пластинок поставить. Вот только тыщи страниц писанины невозможно освоить в принципе, и в этом нет никакого смысла ведь вся полезная и актуальная информация получается в 21 веке исключительно из статей в интернете.
432 1249725
>>49721 дополнение:

>You must have read at least two other textbooks on that same subject


А хипсторок то начинает прозревать понемногу. Всегда если видишь рекомендацию книги - это 100% гарантия что дающий ее ничего другого по вопросу никогда не читал.
433 1249734
>>48255
а какой именно обзор ты имеешь в виду?
434 1249763
>>49721

>тыщи страниц невозможно


Стоит ли говорить что учебники это не художка, и их не нужно читать подряд от корки до корки?

>исключительно из статей в интернете


Если ты про прошедшие рецензирование научные статьи из журналов или из архива, то это, очевидно, более продвинутый уровень для дальнейшего исследования, учебники пишутся по ставшим классическими вещам. Если ты о чем-то вроде чтения очередного научпоп говна про бекпропагейшн на хабре, реддите или бложеках то это не "получение полезной и адекватной информации" а тупорылое бесполезное хипстерство.
435 1249835
>>49438
поэтому они играют в старкрафт?
436 1249836
>>49621
>>49635
чаю этому, просто вероятность рисуй, а не 0/1
437 1249839
>>49721
что ты подразумеваешь под полезной и актуальной информацией в статьях? очередной перцептрон на numpy?
а если ты про какой-нибудь arxiv, то там тоже 90% публикаций юзлесс
15347517649380.png583 Кб, 805x698
438 1249878
Вы тут правда не понимаете >>49721 разницы между учебником и пейперами? Не, ну ладно когда про сигмы нихуя не знаете, но вот это уже конкретное деградантство.

> Вот только тыщи страниц писанины невозможно освоить в принципе,


Ты б хоть попытался, для разнообразия.
439 1249879
>>49878
Давно уже пора делать учебники в стиле тредов на двоще. Типа диалоги Платона.
NVIDIA-RTX-Turing-GPU19.png2,4 Мб, 2560x1440
440 1249883
Ну шо пацаны, тензорные ядра?
441 1249900
>>49883
Они вроде стоят дороже квартиры твоей бабушки.
442 1249960
>>49900
так это обычная гпу для игор
не volta v100
443 1249963
>>49960
С 96Гб памяти? Я не особо в курсе, но слышал что цена одной карточки исчисляется десятками тысяч долларов.
445 1250012
>>49839
Немного не в тему, но как можно нормально вкатиться в написание юзлесс статей под arxiv за репутацию и шанс поступить в норм пхд?

мимо-второкурс, английский C2
446 1250020
>>50012

>как можно нормально вкатиться


Внимательно читай материалы Шомпульфейера
447 1250033
>>50012
Статья чисто в архиве, тем более от ноунейма, не дает репутации, ее даже не прочитает никто. На конференции посылай.
Как писать - научник объяснит.
448 1250135
>>50012
goo.gl/uG2jXW
кстати, не рано в пхд?
449 1250149
>>49443
держи нас в курсе нет
450 1250215
>>50135
Спасибо. В нормальные вузы на пхд, вроде бы, можно сразу после бакалавриата ехать - как раз два года есть на статьи и попинывание хуев, самое то.
451 1250247
>>49978
Сукпздц. Где реальность вообще?
452 1250279
Как поделить коэффициенты на ноль?
453 1250296
>>49635
>>49673
>>49836
А что делать, если у меня как таковых слоев нет, есть только классификатор, то есть вот такой примерно код,
но размеры трейнинг и тест сета больше и мне нужно по результатам предсказаний какой-нибудь ёбнуть график

import numpy as np
X = np.array([[-1, -1], [-2, -1], [1, 1], [2, 1]])
y = np.array([1, 1, 2, 2])
from sklearn.svm import SVC
clf = SVC()
clf.fit(X, y)

print(clf.predict([[-0.8, -1]]))
454 1250325
>>50296
возьми какой-нибудь другой классификатор, у которого есть метод predict_proba
а если другой прям никак нельзя, то хоть гистограмму на 2 столбца построй
455 1250326
>>50296

>ёбнуть график


Строй график вероятностного распределения по коэффициентам
456 1250328
>>50325

>гистограмму на 2 столбца построй


Лучше на три
457 1250329
>>50328
По методу Йозефа-Пихвила?
458 1250330
>>50329
Да, с коэффициентами Каца-Шмуцер-Траерсона
459 1250538
>>49900
теперь есть 2070 и там тоже тензорные ядра, всего за 500 басков!
460 1250550
>>50538
>>49900
*600 баксов, но поскольку майнеры соснули, то через пол года будут по 500.
462 1250606
>>42753 (OP)
помогите мне пожалуйста с темой. Я разбираюсь с image fusion с помощью метода главных компонент (principal component analysis, PCA). На картинке написана часть алгоритма, то есть допустим есть две картинки I1 и I2, уже зарегистрированные, размером MxN. Берем значения пикселей двух картинок, cоставляем матрицу размером MN x 2, то есть у нас есть 2 столбца. Вычисляем матрицу ковариации полученной матрицы, находим собственные векторы и собственные значения. Получается 2 собственных вектора и 2 собственных значения. Выбираем собственный вектор, соответствующий большему собственному значению, а вот дальше я не понимаю, что делать. Вот например если я вычисляю матрицу ковариации и собственные значения и собственные векторы этой матрицы с помощью OpenCV, и OpenCV вычисляет уже нормализованный собственный вектор, то получается последний пункт алгоритма с первой картинки выполнен? И мне осталось только, в случае например если собственный нормализованный вектор имеет значения (a,b), то перемножить значения пикселя с первой картинки Im1 на a и значение пикселя со второй картинки Im2 на b? То есть I1a+I2*b? Объясните пожалуйста
463 1250607
>>50551
Дождемся тестов, посмотрим. Тензорные ядра там для рейтрейсинга (на них постпроцессинг картинки делается), возможно они вообще не будут доступны в ином качестве. К тому же надо чтобы кудовские либы их поддерживали, cudnn, в частности - пока об этом ни слуху ни духу.
А так-то на моей 1080ти 3584 ядра, против 2304 тут.
464 1250608
>>50551
Да и памяти на 1080ти 11 гигов, а тут 8 всего.
465 1250612
>>50296
добавь в svc параметр probability=True, потом predict_proba заработает
466 1250618
>>50606
Похоже на то, хотя написано там не очень внятно.
467 1251007
>>49763

>Стоит ли говорить что учебники это не художка, и их не нужно читать подряд от корки до корки?


Говори, конечно, много и подробно. Я вот если уж берусь за книгу читаю от введения и оглавления не пропуская не страницы. Завидую таком подходу на самом деле. Вот только это мне рвет шаблон - если бы половина книги была "лишней" почему же ее не выкинули и не написали книгу в два-три раза меньше? И как я узнаю что нужно а что нет? Страницы то вообще то совершенно одинаковые. (Тут мне вспоминается печальный случай когда я сдавал экзамен по матану и решил что обобщенные функции - не такая уж важная тема, ведь она в самом конце и вообще не до них; вот только экзаменатор думал совсем по-другому). Ведь учебники как раз пишутся по такому принципу что можно начать читать с любого места - и сразу все понятно. Одна история просто охуительнее другой.
С другой стороны - если я вижу тыщи говностатей про бэкпропагейшн на хабре, то у меня есть хотя бы какой-то ориентир на то что наиболее актуально. Статья, кстати даже если она совершенное говно, как правило пишется в расчете на самодостаточность, а не как отдельная глава из сотен.
>>49878
Что мне мешает узнать что такое сигма из статьи в википедии. Я же не такой дебик как ты чтобы наворачивать тыщи страниц ради одного определения.
468 1251034
Аноны, как там с теоремой Йозенфуфела?
469 1251144
Аноны, кто-нибудь писал на torch7 на lua? Можете посоветовать что-нибудь для вкатывания?
470 1251147
>>51144
pytorch
471 1251156
Судя по сосачу такое чувство что скоро каждый школьник будет neural_network из sklearn импортировать чтобы понять даст ли ему одноклассница
мимо-ds
472 1251168
>>51156
Так нормальным людям понятно, что нейронки неработоспособное говно, а школчмони на то и школчмони, что жрут любое говно.
video.webm1,4 Мб, webm,
400x224, 0:20
474 1251345
>>51168

>нейронки неработоспособное говно


это да
476 1251574
>>51565
В чем смысл данного видеоклипа?
477 1251576
>>51574
Мам, я загрузил свое фото на сайт, нажал кнопку, и вон чего, гыгык.
478 1251600
>>51565
Нейроночка будто я без очков
479 1251956
Есть ли смысл идти в топвуз на математическую специальность, где будут ебать в жопу все 4 года, либо же на математическую специальность в чуть менее топовый вуз, где будет свободное время на свои проекты и самообразование?

Планирую вкатиться в компутер вижион
480 1252013
>>51956

Иду туда где ебут в жопу, свободного времени у тебя потом ещё будет овердохуя, но вот математику, как там, ты сам наверное не выучишь.

>Планирую вкатиться в компутер вижион



Хуй забей, актуальная математика в мо обязательно поменяется, а вся эта параша которая актулаьна сейчас, станет нахер никому не нужна навроде многопоточности, которой всех надрачивали 5 лет назад кроме мл-макакеров, которые к тому времени расплодятся и будут обслуживать шаблонные проекты, а вот в новую математику того времени без топ вуза ты вряд ли вкатишься.
481 1252026
Посоветуйте Linux-дистрибутив, который СТАБИЛЬНО работает с Nvidia-драйверами. Я уже задолбался с этой херней.

Две недели назад ставил драйвер на Debian Stretch и все работало. Сегодня ставлю и оно не работает. Какие-то несовместимости с ядром или сам драйвер вышел новый.

Забил болт, скачал Fedora. В отличии от Debian'а установка драйвера это квест из n шагов. Зацените портянку:
https://www.if-not-true-then-false.com/2015/fedora-nvidia-guide/

В итоге все сделал как там написано и черный экран после загрузки GDM. Стал гуглить, отключил Wayland, переставил через RPM Fusion -- то же самое.
483 1252056
>>52026
Нормально на дебиане работает, криворук.
484 1252089
>>52026

>и оно не работает


О, узнаю стреднестатистического нейродебила
485 1252132
Сад машоб! Хочу написать умного бота, чтобы он понимал письменную речь, в каком направлении идти? Собираюсь писать на python.
Изначально цель такая:
Боту пишут, он понимает, что надо ответить и отвечает разговорной записью. Тип письменный ответ переводится в звук как в войсы в вк телеге, ну вы поняли
Войс генкрацию я уже запилил, асинхронную. Как то так
486 1252157
>>52132

>Хочу написать умного бота, чтобы он понимал письменную речь


Чат боты уже вдоль и поперек расписаны, питух, хотя бы погуглил. Если что нибудь уровня NLP, то соснешь с проглотом.
487 1252182
>>52157
Петух это твоя мать, спермоглотка ебаная. Я попросил дать мне направление, а не твой высер про ботов с логикой прописанных ответов заранее, хуйло тупое
488 1252185
>>52132
>>52182
Лол, как обычно.
hqdefault.jpg19 Кб, 480x360
489 1252332
>>52132

>отвечает разговорной записью

490 1252355
>>52132
я нашел! нашел!!!
https://www.google.com/
491 1252375
Поясните. Вот есть же нейросети, которые перерисовывают любые рисунки под стиль Пикассо и так далее. Так вот, есть такой художник - Аарон Бек, примерное творчество пик- и видеорелейтед. Если его концепты нейросети скормить, сможет она перерисовывать под такое планшетные или сканированные карандашные наброски? Как это сделать, в какой статье описаны такие нейросетевые архитектуры?
https://www.youtube.com/watch?v=8fHLt5hlHjM
492 1252501
Я думаю что без образование и диплома нормального после курсов хер кого возьмут, я просто сужу с т.з. работодателя, я лучше возьму парня из МФТИ ВШЭ МГТУ или еще какого ВУЗа, чем чучело окончившего курсы по датасаенс. Моет я ошибаюсь?
493 1252504
>>52501
Ты во всех тредах этим срёшь или промахнулся?
Хорошо хоть стадия торга началась.
494 1252506
>>52501
А ты прямо как тяночка мечтаешь, чтобы тебя взял большой и богатый дядя?
495 1252511
>>52506
Надо платить по счетам, деньги всем нужны, иначе зачем годами дрочить машоб и не зарабатывать на этом. Пока мамка кормит оно конечно может и по фану, но потом то что?
496 1252516
>>52375
style transfer
скачай себе prisma и посмотри, во что превратятся рисунки
497 1252538
Ну хорошо, в этом треде ест те кто не имеет IT или технического образование, и после самообучения смог вкатиться на зарплату в машоб?
498 1252545
>>52538
В машоб не каждый выпускник математического факультета попадает. Везде нужны только выпускники топовых вузов: мфти, мгу, вшэ бомока уже не очень стала котироваться, ну может еще СПбГУ. Все, людей из других мест просто не берут, потому что они имеют недостаточную математическую подготовку.
499 1252546
>>52545
Тогда я не понимаю зачем дурачки дрочат эти курсы если все равн их не куда не пустят работать. Просто тратят время в пустую.
500 1252547
А классическое IT образование вроде программной инженерии и прикладной информатики тем более не нужно. Туда специально идут, чтобы получить корочку программиста, не напрягаясь с математикой. Резюме таких выпускников сразу летит в мусорку, потому что всем известно, что такой человек максимум способен верстать странички и писать бекенд на пеашпи или джаве
501 1252548
>>52546
Ну, кому-то интересно для своих проектов, например написать хуевину, которая будет говно и мочю искать на фотографии, весело же
502 1252551
>>52548

>мочю


Чувствуется МФТИ во всех смыслах!
503 1252560
>>52375
Есть статьи, где конкретно такая задача решается: из скетчей делаются полные детализированные рисунки. Это не трансфер стиля, а с помощью ГАНа делается.
504 1252562
>>52547
На норм факультетах дают матан, матстат, линал, выч. методы - как раз тот набор, который нужен.
505 1252564
>>52546
Это просто интересно. Эсли тебе не интересно это само по себе, то ты явно не туда зашел, и у тебя все равно ничего не выйдет.
506 1252566
>>52564
Ты придурок, если за это деньги не будут платить то я бомжом стану, не всех мамка кормит.
507 1252577
>>52566
Зачем ты мне это рассказываешь? Мне безразличны твои проблемы. Я сказал тебе, как есть.
508 1252579
>>52577
Как будто другие люди бы учили программирование если бы за него не платили выше средней ЗП. Ненавижу лицемеров таких как ты.

Ты бы не учил кодинг если бы за него платили как дворнику.
509 1252592
>>52013
НОВАЯ МАТЕМАТИКА
проиграл
510 1252601
>>52579
Я и не "учил кодинг", я просто начал кодить еще в 12 лет. По образованию я математик. Твои претензии смешны, если ты не тралишь, конечно. Нейроночки это явно не для тебя, ты сформировавшийся напомоечник.
511 1252605
>>52013

>два века ничего принципиально нового


>аррряя новая математика

512 1252622
>>52592
>>52605

Новая, значит из другой области, маня.
513 1252624
>>52622
Какая другая область? Мы уже на вершине, дальше некуда. Только обратно к древним алгоритмам.
514 1252654
>>52624
Ты же даже не пробовал узнать какие у современных алгоритмов ограничения?
515 1252655
>>52026
Посоны, у кого проблемы с ядром/драйверами -- ставьте Ubuntu. Все работает из коробки. Само находит, само ставит, само обновляет. Ничего не ломается.
516 1252657
>>52655
У тебя nvidia-smi криво работает, ни загрузку, ни процессы не показывает.
517 1252674
>>52654
Эм, ровно никаких?
518 1252733
>>52674
P = NP
519 1252742
>>52733
Это не ограничение алгоритмов, это научная проблема. Проблема в инженерии тут возникает только из-за отсутствия оптимальной модели.
520 1252753
>>52742
Ну тогда и у случайного поиска нет никаких ограничений, маня, нахер вообще нужны эти нейросетки. Короче не толсти.
521 1252755
>>52753
Не толщу, нейросетки способны вычислять любые алгоритмы и программы за ровное колличество времени, каждый раз. Не просто с одинаковыми затратами, буквально идентично.
522 1252779
>>52624

> Какая другая область? Мы уже на вершине, дальше некуда. Только обратно к древним алгоритмам.


Ну ты и клован. Правда в это веруешь?
523 1252814
>>52779
Да. А ты чё, знаешь что возможно что-то лучше?
524 1252818
>>52814

> 18 век


> а ты че, знаешь что-то лучше для освещения, чем газовый фонарь?! Мы уже на вершине, дальше некуда. Можно только к первобытным кострам откатиться.

525 1252822
>>52818
Аналогия = ложь.
526 1252828
>>52755

>вычислять любые алгоритмы и программы



Понятно, свободен.
527 1252830
>>52828
Да, может. Пруфы что нет. На моей стороне википедия.
528 1252857
Запоздалый ПЕРЕКАТ

>>1252855 (OP)
>>1252855 (OP)
>>1252855 (OP)
Тред утонул или удален.
Это копия, сохраненная 7 октября 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски