Это копия, сохраненная 7 октября 2018 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Продолжаем спрашивать очевидные вещи, о которых знает любой индус, прочитавший хоть одну книгу по машобу.
FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.
Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/
Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Архивач:
http://arhivach.cf/thread/340653/
http://arhivach.cf/thread/355442/
http://arhivach.cf/thread/360889/
http://arhivach.cf/thread/366809/
http://arhivach.cf/thread/368934/
http://arhivach.cf/thread/379620/
Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"
Предыдущий тред: >>1226323 (OP)
Файнали я понял все формулы в йобаматематике. Оказалось для этого не нужны нейроночки.
Всегда был двоичником в математики и физики. Грустно все это. Машинное обучение, дип лернинг и прочие радости мне будут недоступны :(
Вот так на питоне:
tf.train.write_graph(sess.graph_def, 'models/', 'graph.pb', as_text=False)
или вот так
builder = tf.saved_model.builder.SavedModelBuilder(path)
builder.save(as_text=False)
Второй - с дополнительной инфой о входных и выходных тензорах(если это не так - поправьте).
Чтобы тренировать модель вне питона, надо веса сохранят отдельно в свой формат файла, а потом соответственно считывать из него.
машобчик - в первую очередь школьные - биология, и информатика
биология - описивает дтруктуру нейронов и их бинарные операторы (функции от входов)
информатика обучает: кодингу
на остальные говнопредмету типа математики и русского можно положить хуй, они НЕ-НУ-ЖНЫ!
Вытекайте в другой тред, пожалуйста.
Естественно нет, долбоёб, это тред машоба а не филологии.
ахахах МАТИМАТИКА НИНУЖНА!!!!! БУНД!
кстати, а причем тут русский язык? он как-то роляет в машобе или ты домашку делать не хочешь?
Датасаентисты только на панели нужны
Биология как раз и не нужна, без знаний математики в машобе делать нечего.
> без образования
Без магистра топвуза ВМК/мехмат МГУ, ФКН ВШЭ, ФИВТ МФТИ можешь нахуй пройти.
Кто-нибудь, выпроводите уже толстяка.
Временами мелькают вакансии типа "размечай говно, пиши скрипты - авось тебя возьмём потом".
>поверхностная и казуальная, но практическая жвачка по теме
рукописные цифры и котиков распознавать, на том же kaggle куча практических заданий
В конце предыдущего треда была ссылка на книжку попроще.
Как же я обосрался с картинкой
Абу, гнида, какого хуя картинка не грузится
Ладно, вот ссылка: https://futureofsex.net/future-of-sex-report/
Вот за это спасибо, годно!
Ну чтож, расходимся.
Анон, после курсов по мл и сайкита решил попробовать современные штуки вроде keras или tf и немного растерялся в терминологии. Посоветуйте книг про все эти тензоры-хуензоры, с актуальной терминологией, вобщем.
>Зачем кто-то учит, если работать по сабжу негде
Ой, вам холопам, лишь бы на галеру устроиться. На кегле работай, если уж без работы никак.
Словарь
Настройка гиперпараметров тоже подвергается энтропии. Так что парадоксов машин исследования гиперпараметров не избежать.
Ну запили, по мне так развитие загнётся почти сразу. Было бы всё так просто давно бы уже ИИ запилили.
> Было бы всё так просто давно бы уже ИИ запилили.
А кто-нибудь пробовал? Именно в виде такой метаструктуры, которая может и на внешние воздействия отвечать, и своё внутреннее состояние и структуру адаптировать под решаемую задачу? Мне так наоборот вспоминаются кукареканья машка небоходца и Хокинга покойничка, что мол низзя такое делать, запретить надо, зохавают людишек подобные решения.
Конечно, никто не пробовал, ты первый догадался до этого. Еще никто не пробовал писать ИИ левой рукой, при этом читая Отче Наш задом наперед и трижды сплевывая через плечо на каждом n-ом прочтении, где n это простое число. Если получится, то ссылка на меня обязательна.
Я тебе уже сказал. Если веса или биасы хоть в одной нейронке у тебя станут отрицательными, то нихуя не получится. Такая нейронка даже кота от негра не отличит. Можешь скринить.
>Если веса или биасы хоть в одной нейронке
А кто сказал про эту хипстерскую хуйню для распознавания негров с котами? Естественно, речь только о верифицируемо стабильных алгоритмах, которые гарантированно не наебнутся просто в силу своей кривости.
>>44014
>Конечно, никто не пробовал,
Ну покажи, кто пробовал, так уж и быть.
Лол блять. Нейронки - это единственное на счёт чего можно сомневаться, что точно не получится. Все остальные алгоритмы машоба просто ноль для таких задач. Не говори что ты этого не понимаешь. Если у тебя будет машина, принимающая собственные гиперпараметры, то на алгоритмах она работать никогда не станет.
>Все остальные алгоритмы машоба просто ноль для таких задач.
Школомаксимализм. Если негров распознавать не нужно, то и диплернинх не нужен.
Я сейчас уже сомневаюсь что ты знаешь алгоритмы машоба.
Правда в том, что все эти алгоритмы только и способны что негров с такой-то точностью распознавать. Как ты детальки конструктора не крути, какой-либо "сильный" ии не получишь. А новые детальки не будут сложнее старых. Весь дроч внутри современного компухтер сосаенса - ползанье по лабиринту.
Будни машобтреда.
>как ты атомы углерода, водорода, кислорода и азота ни крути, никакой органики из неорганики ты не получишь
Ясно, понятно.
Сдрисни, демагог хуев.
Как оно реализовано внутри? Вот есть у меня терабайт текста для обучения, что дальше? Как его скормить градиентному бустингу?
Или литературу посоветуйте
Потому что устаревшая и бесполезная ваша HTM. Нужна была бы сетка с предикторами - сделали бы сами и современную.
помогите мне пожалуйста, не уверен, в тот ли раздел пишу, но у меня вопрос по обработке изображений (digital image processing). При слиянии двух изображений, то есть получении из 2 двух изображений одного (image fusion), сначала нужно сделать image registration. Допустим у меня есть 2 картинки в разных форматах, одна 480х640, а вторая 1280х720. Image processing заключается в данном случае в преобразовании одной из картинок в размер другой картинки? То есть сделать две картинки одинакового размера, или 480х640 или 1280х720?
На твоей же картинке все объяснено. Масштабирование, трансляция и поворот обычно нужны.
Слишком размыто. Никто не поможет тебе если не поймёт как эта система вообще работает.
Ну вообще есть какие-то более, скажем, глобальные алгоритмы? Или нужно просто хитро свести все к регрессии-классификации?
Ты неправ и это прорыв. Впрочем, подавляющее большинство пишущих об этом писак не имеют даже примерного представления, что они описывают.
Нужно свести.
хорошо, то есть если у меня есть 2 картинки, одна снята на камеру, 1280х720, а другая снята на тепловизор, 480х640, одной и той же сцены, ну, чуть-чуть картинки отличаются, то мне нужно уменьшить картинку 1280х720? Этого будет достаточно для image registration?
Спроси у того, кому эта картинка нужна. Лично мне пофиг, можешь хоть обрезать большую картинку или вообще выкинуть ее.
> Как ее здесь применить?
У тебя есть числовой ряд с состояниями системы? Делаешь из него матрицу Ганкеля и вуаля.
> Вектор вначале, вектор в конце. В принципе, можно сказать что картинка.
Фичи получай из векторов. Напрямую считать смысла нет, если там большая размерность. Тем более картинка. На один пиксель смещение и все, никакого сходства с точно такой же, все компоненты вектора другие.
Ну если никаких признаков второго состояния в первом состоянии нет, то и не вычислить.
Вай, вай, таки интеграл не возмешь?
а в общем случае, если есть 2 картинки разного размера и соотношения сторон одной и той же сцены, снятые на разные устройства, то для image registration достаточно привести их к одному размеру?
Вопрос конечно глупый, но стоит ли тратить годы на это дело
заработал веб макакингом на пенсию, хочу перекот, во что сурьезное и интересное
К созданию сильного ИИ с помощью слесарьплова и математики с 4 картинки.
В общем случае не достаточно. Картинки могут быть с разных углов, они не будут совпадать.
Нахуя?
Вообще-то кластер петушиных криков загружается нажатием Ctrl+S. А я надеюсь на что-то большее а ля машинный перевод на животный язык.
А в чём аргументация? "Не как в мозге" значит не как в мозге, а не плохо.
>а ведь цвета в мозге обрабатываются
Никто не знает как они обрабатываются, кроме матанопетушни которая в любой бочке затычка
По крайней мере мы знаем о существовании нарушения цветовой дифференциации. Так что этого достаточно чтобы сказать что свёртки сейчас неправильные.
Это что правда чтоли что все кто по машобу смотрят калитку потому что там про ИИ?
>Предложите что-то оригинальное в одно-три слова, пожалуйста.
machine autism
ювелкам
зы че за аниме?
а если есть 2 картинки разного размера и соотношения сторон одной и той же сцены, снятые на разные устройства с одного угла, то для image registration достаточно привести их к одному размеру?
а вот если картинки сделаны с разных углов, то как тогда сделать image registration?
да ни в чем, деньги отмывают
давно известно, что любая функция приближается двухслойным перцептроном с любой точностью, а всё остальное - псевдонаука
Ну впринципе это так. Но нам ведь нужно уменьшить затраты, да ещё и получить какие-то понятные системы. Так что пока что свёрточки полезные. Но с одинарным ядром - это пиздец.
Steins;Gate же. В этом треде все смотрят калиточку, с подключением.
>>45677
Проблема названия остается для любого контента.
Ты просто не читал интересные комиксы, трай http://freefall.purrsia.com/ . Спойлер - антропоморфная собака это ИИ.
Это даже я понял. Если у тебя в одном канале красный, а в другом зеленый, то свертка 1х1 даст тебе фичу "желтый", и вообще любой другой цвет.
640x360, 2:59
Моя сборка.
Разработать такой алгоритм на самом деле вариант линейной регрессии чтобы система сама себя обучала.
Хуйню написал про регрессию. Перепутал всё.
Вычислять что? Я понимаю что это тред аутистов, но постарайся сформулировать какого результата ты хочешь добиться.
Тогда нужно сначала сделать sql-инъекцию.
а возможно такое, что для 2 картинок одной сцены невозможно сделать image registration?
В OpenCV есть встроенные средства для image registration или мне с помощью OpenCV нужно делать какое-то аффинное преобразование?
В духе
f4-g5
f4:h6
Нет не нужен. Придумай что-нибудь клёвое. Например помоги нам придумать machine autism
Для петпрожекта, с которым ты потом будешь скитаться по джунским собеседованиям. Тебя ждет фейл еще на этапе создания самого петпрожекта.
Try XGBoobs.
Детектил пешеходов в OpenCV, но почти не работаю с изображениями и тем более с видео. Какой примерный план? Как сгенерировать один кадр еще как-то представляю, но всю картину не вижу.
Машинное обучение нужно чтобы заменять человеков во всех сферах деятельности, это естественный процесс. Нейроночка будет делать работу с постоянным качеством и в соответствии со стандартами, куда лучше чем отбросы вроде ютуберов.
Нейроночка будет орать дебильным голосом : "Ой это вы мне столько задонатили?! С ума сойти!"?
Ну очевидно тебе либо считать весь кадр по динамической системе (от машоба знаю только рекурентные сетки) и тратить огромные баблища на это. Либо взять какую-нибудь систему для анимации и считать банально простые движения. Можно триде фигурку, там поворот и позиция костей только, вообще не сложно выход настроить. Гораздо сложнее будет видео обрабатывать чтобы по точкам вычислять относительный угол и расположение.
А кроме улыбок в камеру и стучания по клавиатуре не будет ничего, скучно.
Наверное дешевле обойдется посадить девочку в плагсьюте сенсорах и сразу собирать трехмерные координаты. Это реализуемо. Что дальше?
Придётся всё равно искать много материала. Мокап для датасета больная идея. А разработка способа вычисления - это не вопрос денег. Хотя вообще сейчас непонятно что ты делаешь и вообще нужны ли тебе нейронки или можно обойтись деревьями.
Я смутно себе представляю сам процесс получения видео на выходе. Нужно работать с тайм-сериями?
Нейроночки сейчас не генерируют полное видео с нуля, если ты об этом. Тебе нужно будет рендерить 3д сцену, которую ты сделаешь руками, а нейроночка может, например, анимировать сидящую в ней модель.
>все это говно не работает.
что именно не работает? В OpenCV нет автоматических функций для image registration? Или аффинных преобразований может быть недостаточно общем случае?
Есть только 200ГБ игр в камень-ножницы-бумагу
уши свернулись в трубочку, как англопарашу можно слушать, это не язык, это шум ебаный
Не смог в шашки, решил для начала сгенерировать себе датасет на крестики нолики со всеми возможными партиями. Могу скинуть на мыло.
Но я не подпиндоха
Бедняга, это Обама заставляет в треде пиндосских нейроночек пиндосского интернета с пиндосского компьютера закупленного подпиндосским продавцом за пиндосские доллары сидеть?
Ох и зализал матрасникам, молодец, держи доляр. Наука это атом и космос - величие России, а переносной дибилятор с котиками, так, развлечение.
Матанодибил освоил веб, лол.
Вот не надо, нейроночки канадец придумал.
Наверно можно, мне очень повезло знакомый препод из шараги устроил в контору что занимается ценообразованием, в итоге доучиваюсь плюс практикуюсь и все это за 500 бачей в моей мухосрани где стандартный джун получает 100-200.
Во-первых он говорит, что ребёнок осваивает языки благодаря уже встроенным структурам в мозгу. Говорит, мол опыт (да хоть те же родители научающие чадо) влияет, но как-то лишь чуть-чуть, на полшишечки, а главное то, что ребёнок гений и он чуть ли не вспоминает знания языка по Платону.
Для доказательства всего этого он создал различные крутые формализмы, которое кто-то не так уж часто и использует, но активно молится на них.
Другой вид доказательств состоит в том, что он берет предложения типа "3еленая трава зеленит зелёную зелень" и доказывает с помощью таких предложений некоторое таинственное богатство языка. Можете взглянуть его работы и посмотреть примеры хоть на французском.
Если заглянуть даже в Википедию (будь она неладна), то о самих работах Хомского написано крайне мало. Зато можно увидеть о его политической деятельности, антисемитизме и семитизме, о Бин Ладене и совсем полной хуите, если откровенно.
Также нет вменяемой критики по этому (((феномену))). Ух, я добавил скобки, вы выдели какой я модный? Теперь вы поняли? Большинство критики высказывается не за его работы, а по политической деятельности.
Зато в целом он появился внезапно, как гром среди ясного неба и стал символом некой новой эпохи. И прессой описывается не иначе как гений и гигант мысли. С чего я и начинал. Вот так кратко я описал суть понимаемую мною. Объясните хоть мне что это за феномен.
Как вы поняли из строк выше у меня довольно сильно так бомбит и ажтрисет от этого всего.
Жид и либираха потому что, таких пидоров любят. Еще забавно, как англопидарахи ковыряясь в своем аналитическом недоязыке начинают строить манятеории, которые моментально абасываются на нормальных флективных языках.
Нимодна
Бамп вопросу.
Что не так? У тебя выдаёт параметры для трёх классов. Разве классы не задаются человеком? Я, конечно, сам нихуя не знаю ничего кроме того как softmax применяется для вероятностей в нейронках, но что-то мне подсказывает что магическим образом находить классы тебе регрессия никогда не будет.
k - это количество классов. У нас мультиномиальное произведение и вероятность(область) для третьего класса заведомо известна. Всё как для случая с двумя классами, мы же не строим две прямые, а строим одну.
Не, это обучение с учителем, классы известны. Магии нет никакой.
У вас там везде треш
> даже школьник лучше тебя
Я как умный и взрослый человек давно дропнул нейроговно, а вот школьники едят и причмокивают.
хм, как не будет, это обычная логистическая регрессия, которая задается одной прямой
Такое утверждение.
Два значения функции вида f(x)=x*m+c, где m и c - постоянные значения, равны двум значениям такой же функции только тогда, когда постоянные параметры первой функции равны постоянным параметрам второй.
Только ты к чему? У нас есть лог регрессия log(\frac{p}{1-p}) = w_i x_i , обучаем на выборке параметры w_i, дальше смотрим на знак скалярного произведения, если положительный - то это один класс, если отрицательный - то другой. никаких других прямых не возникает, у нас один вектор w_i, который задает прямую
фикс: не прямую, конечно, а в общем случае гиперплоскость, я оговорился.
Лил. Значит ты задаёшь одну прямую и делишь классы по розным сторонам относительно неё? Ллогистическая регрессия на один класс рассчитана.
Водородными генераторами
Ай, лол, точно, терминологию попутал. Про линейную говорил. Потому что одно и то же, когда дело касается изменения предикторов. Но сигмоид всё равно для вероятности, а не классификации.
Сигмоид - это хуйня, которая естественно возникает, тот же линейный классификатор, только непрерывный. Я не вижу здесь принципиальной разницы, если не вдаваться в интерпретации, ответы такие же будут в итоге.
Я надеюсь, что ты запарился какой-нибудь код написать, а не сам строчишь здесь свой прекрасный юмор
При прогоне через тестовую выборку все вероятности близкик 0.5 буквально на сотые доли только отличаются. Можете пованговать чем это может быть?
В смысле перееобучилась думаешь система? Но там должно быть пенальти и кросс валидация.
Забыл добавить, я еще поиск по сетке веду.
Но вообще надо попробовать прогнать по всем данным.
Подбором - это когда берешь кучу значений и возвращаешь то, при котором ошибка меньше. Скорость обучения при том, что можно отправить y в космос и с каждой итерацией всё дальше.
Никак не переобучается.
Че-то я вообще запутался. Я пока других способов кроме как перебором и не знаю.
Логрес это же поверхность в пространстве признаков, что ей мешает идеалтно проходить по всем объектам?
Когда подбором, лёрнингрейт вообще не нужен. Сейчас у тебя переобучения вообще быть не должно. А проблему твою я не понимаю. Видимо дисперсия по регрессорам малая.
не слушай поехавших, которые говорят про переобучение
вероятности ~0.5 - недообучение
на чем валидацию проводил? данные не забыл нормировать?
Разделил исходные данные на две части. В обучающей 4000 записей, в тестовой в три раза меньше. Данные не нормировал(в смысле вычитал мат ожидание и делил на дисперсию?). Разве без этого работать не будет?
Будет работать если ты используешь обычную линейную регрессию. Но если добавляется регуляризация, то лучше нормировать данные, иначе регуляризация будет штрафовать одни признаки сильнее чем другие.
Да, вычитать мат ожидание и делить на дисперсию
(В sklearn - StandartScaler)
Кем нужно быть чтобы говорить, что регрессию можно переобучить подбором? Да хоть ты на всех серверах гугла прогоняй один датасет, будет лучшее значение и ничего более.
Кто вообще придумал обучение "подбором"? Как это называется у нормальных людей?
линейная регрессия переобучается только когда признаков больше чем объектов в обучающей выборке.
Я не уверен в этом, но вроде для аук скора это озгэначает произвольное распределение классов?
А, да, класса в ответе у меня два.
>почему машобчик стесняются использовать для анализа рынков
Потому, что цена — случайная величина. И что ты там собрался анализировать, расстояние по формуле с кваджратным корнем искать, что ли? Так оно там и есть.
Я про цену что-то писал вообще? Читай еще раз.
Потом твое нейроговно сольет все активы, а ты такой, я невиноват, это она сома
Ок, я тебя услышал. Случайная величина, распределение не гауссово. Но тогда его можно аппроксимировать по имеющимся данным.
>там очень много факторов
Которые:
- существенные. отражаются в динамике самой цены (т.к. влияют на нее).
- несущественные. на самой цене никак не отражаются.
Еще раз. Они ибо влияют на показатели рынка, и т.о. могут быть восстановлены по имеющимся данным, либо не влияют и т.о. нахуй не нужны.
Смотри, как ловят игроков на понижение. Думаешь, их выпустили?..
Обсер в том что у случайного блуждания равномерное распределение, а не нормальное, имелось ввиду.
random walk это случайный процесс и как тогда понимать что у случайного процесса равномерное распределение
Я хочу ходить в хеадсете и жить в аниме. Отчасти, потому что реальность вокруг убога как сюжеты последних тайтлов.
обучи cyclegan и нам расскажи
Как будто сюжет реальности поменяется от того, что тебе в комнату будет заносить борщ не похожая на умирающую летучую мышь мама, а дергающаяся аляповатая Суигинто.
Я больше думал о том чтобы рисовать деревья, здания и гудящие провода, а людей обозначивать только как препятствия если с ними можно столкнуться.
А как ты дополненную реальность будешь на улице делать, каким девайсом? Или тебе в комнате деревья нужны?
Не брокеры, а торгаши на бирже. Додумались применять комплюхтеры вместо людей.
>До чего додумались?
Что кукл - это не мем для ньюфань.
И не страшилки про зога.
А определенная группа солидных людей которые ваши распределения и матожидания на половом органе крутит.
И масса хомячков, движения которой вы анализируете путем теории вероятностей - как раз и предназначена для того, чтобы
1) Маскировать движуху солидных людей.
2) Двигать график в нужную солидным людям сторону.
Никакой вероятности и случайных величин тут нет (кроме лотерейной погрешности, на которой и пытаются наебать систему манятрейдеры). Система полностью управляемая.
Не работает здесь теорвер - кажущиеся случайными величины и мнимая швабодка рынка - это наебалово.
Значит мы можем взять в качестве датасета действия децентрализованных монополий, перевести вход в вектор, а выход в скаляр и вычислять рынок с точностью до 70%
>могут быть восстановлены по имеющимся данным
Читает мысли кула на расстоянии и угадывает инсайдерские интриги нейросеточкой по ленте новостей для быдла из быдлосми?
Вы блядь, хоть понимаете , что ваши графики - это не данные. Вообще. Не данные. Нихуя.
А, всё же мысли кукла нейросеточкой на расстоянии собрались читать.
Тогда без шпиона с комплектом жучков, которые по интеренту в нейросеточку будут передавать о чем уважаемые люди пиздят в своих тусовочках - не взлетит.
>угадывает инсайдерские интриги нейросеточкой по ленте новостей для быдла из быдлосми?
На самом деле годный вариант. Не рофл ни разу. Ты даже не представляешь. Если взять такой психологический факт, что изобретательность людей ограничена, а в плане "лох не мамонт" - так и вовсе мошенники по статистике сос хемами не заморачиваются и эксплойтят одни и те же дыры человеческого сознания, то пиздеж очень даже можно и нужно кореллировать с неизвестной инсайдерской движухой.
Более того, в силу свободы прессы и доступности быдлоновостей со всего мира и наличия антагонизма можно вообще охуительно фильтровать всю хуйню.
Типа на входы подаем СМИ либераху/пиндоса и СМИ вату/китайчатину, раскладываем эти сигналы в опинион и семантику, контент-анализ короч, баттхерт и передёргивания взаимоликвидируются, прямо как в дифференциальном (балансном) сигнале,
Параллельно по этим двум сигналам интент-анализ по каждому, далее смешивание с результатом пункта 1, и вот у нас уже сравнительно чистые крупицы того самого инсайда.
http://journals.uspu.ru/i/inst/ling/ling24/ling_4(24)2008_gavrilova.pdf
Дебилов с уважаемыми рептилоидами можно нахуй слать, это помоечники которые ничего не соображают вообще ни в чем.
Не выйдет ничего у тебя по более простой и очевидной причине: потому что "никто не применяет компьютеры для анализа рынков" это какая-то наивная чушь, люди давным давно додумались до алгоритмической торговли. Неэффективности на рынке позволяющие заработать, в принципе конечно есть, но будучи замеченными они эксплуатируются и быстро исчезают, поэтому желающие на них заработать, коих немало, соревнуются в том насколько хорошо и, не менее важно, насколько быстро они их обнаружат (за вот уже более 30 лет дарвинистической гонки на выживание актуальный масштаб по времени составляет полмиллисекунды). Большинство даже средних алгофондов, у которых куча creme de la creme phd по датасаенсу, математике и финансам на большой зарплате интенсивно по 80 часов в неделю думают как бы еще выжать тысячные доли процента прибыли, у которых оборудования на несколько сотен миллионов долларов все равно в итоге проебывают, и денежки их забирают несколько самых крупных фондов и Голдман с Морганом. Так что шансы дурачка с сосаки внезапно найти клондайк можешь сам примерно оценить.
хомского знаю только из пересказов, но суть хомского в генеративной модели языка (это было и до него, но не в такой степени), которая позволяет для каждого предложения построить его дерево. В рамках этой модели можно генерировать предложения с помощью неких правил и конечных символов. Так, к предложению можно применить функцию вопроса, а к слову функцию множественного числа. А с формальным распарсенным деревом в теории можно много, что сделать - перевести на другой язык или вообще понять "смысл" (ну, и вообще до 2000ых вся компьютерная лингвистика увлекалась парсингом под влиянием всего этого). Про детей он вроде бы еще в 60ых передумал, просто сначала он думал, что правила для генерации предложений хранятся от рождения. Так, вся его работа в духе структуралистов предыдущих лет и является их логичным предложением, его научник Харрис занимался примерно тем же, как и Пражский лингвистический крыжок с беглым русским князем Трубецким (они придумывали всякие правила для фонологии). В английской википедии много написано. https://en.wikipedia.org/wiki/Generative_grammar
1280x720, 0:58
насколько я понял слушая лекции этих самых рокетсаентистов с волстрита, у них главная проблема с которой они борются, это искажение рынка своими наносекундными ставками, плюс гонка вооружений и большая часть усилий топовых умов планеты сейчас тратится именно на это. А вот область >10 минут и со ставками <100к вполне себе не паханное поле.
Этот дух 60-х на пикче. Вспоминаю CYC, лисп, пролог, компьютеры пятого поколения, такой-то ретрофутуризм и стимпанк от ИИ.
Под костыльностью, ты наверное имеешь в виду деление и обработку по отдельности выборки, но на то есть своя причина в виде того, что рассматриваются разные виды замены пропущенных значений. За код спасибо, почерпнул несколько синтаасических приемов. Теперь попытаюсь понять где я такой лох.
Расклад следующий. Все публичные компании, акции которых торгуются на биржах выкладывают фин. отчетность. В большинстве случаев, отчетность эта представляет собой PDF файл. Есть ряд ресурсов, которые хранят отчетности по зарубежным и отечественным компаням соответственно. Отчетность выкладывают в определенное время (иногда несколько раз в год). По данной отчетности можно вычислить т.н. мультипликатор и определить какие акции купить, а какие лучше скинуть. Проблема в том, что листать отчетность по сотням и тысячам компаний довольно уныло и не очено продуктивно, т.к. процесс довольно однообразный, который включает в себя школьную математику. Можно конечно считать мультипликаторы только по топовым компаниям (Apple, Microsoft, Facebook, etc.), но есть шанс пропустить восходящую звезду и вместе с тем упустить потенциальную прибыль.
Подход тут может быть следующий: выгребать фин. отчетность в виде PDF файлов по кд с этих сайтов. Парсить их (может копнуть в сторону Text Mining) и получать данные в структурированном виде (формат в котором описана фин. отчетность варируется от компании к компании, но ключевые слова везде одинаковые). Затем вычислять мультипликаторы, сортировать их и красиво строить графики. Как идея?
Забыл добавить, поиска по сетке нет, а это же очень важно.
вот это да, ведь никто так не делает...
>Как идея?
Это буквально схавано и высрано ещё в начале 70-80-х, если не раньше. Сколько там лет Баффету? Сильно удивлюсь если это во-первых давно уже не автоматизированно и доступно онлайн за 3 копейке для комнатных инвесторов, во-вторых на этом все ещё можно заработать денег спустя миллисекунду послу выхода отчетности.
А нахуя если можно воспользоваться блокчейном, где деньги кидают как грязь по тем же программам и не боятся сесть на бутылку?
ну в Открытии Брокер есть подобная услуга. Но она стоит 3к в месяц!
может кто-нибудь разбирается в image fusion? У меня такой вопрос, например если есть две картинки, уже зарегистрированные, но одна раза в полтора больше другой, то как лучше сделать, увеличить картинку, которая меньше, до размера который больше, или же уменьшить большую картинку?
>>46974
>почему? все на самом деле не так?
>Чё вы мне сказки рассказывает, что теорвер не работает на рынке?
Просто понимаешь, кукловод — реально существующий участник торгов, ну или, скажем, стая товарищей. Они видят твои заявки и стоп-приказы и даже остатки на счёте. В правилах лондонской биржи ICE прямо сказано, что брокеры обязаны предоставлять ей данные о состоянии счетов своих клиентов. И это ещё не самый худший случай, на ICE остаётся возможность хоть немного заработать (там у цен видны горизонтальные уровни), а на РТС, CBOT и NYSE такой возможности мелким игрокам не оставили.
Я вот недавно по телеканалу «Дискавери» смотрел, как пума, чорная вся, на собственный хвост рыбу ловила. Сунула хвост в воду, и давай им водить, какая-то стая рыб решила хвоста откушать, а она рыбину — когтем, — цап!!! — и сожрала.
>не паханное
Скорее выжженое. На наносекундную высокочастотную торговлю не от хорошей жизни перешли.
К сожалению, дело не в формулах. Математика неоднократно проверялась
В самысле перешли, полноценный алготрейдинг как раз и начался с наносекунд, т.к. только там у первых алгоритмов машоба была приемлемая предсказательная сила, чем больше масштаб времени тем хуже они работают. Одно дело предсказать например точные координаты человека на 10 секунд вперед и другое на месяц.
вот поэтому в машобе сначала нужно писать хотя бы тесты про визуализацию я уже молчу, а потом код
Что вы понимаете под тестами? За изменением значения функции среднеквадратичной ошибки, связанным с увеличением числа итераций я наблюдал. После определенного их числа оно фактически перестает изменяться
Да какие там алгоритмы, регрессии линейные.
прочитал пару статей типа "компьютер для чайников". Решил повторить. Компьютер не работает, причем повышение напряжения в сети и молитвы не помогают. Помоги мне плиз, а я тебе
Статья такая была.
Могу разве что посмеяться над твой великолепной шуткой, чтобы чуть твою самооценку поднять
Отвечай нормально. Даже с производной если мы модифицируемых веса по дельте, то у нас банально тренируется один слой.
о ты пользовался компрено, расскажи, как оно, а то они пиарились-пиарились, я даже на одну их лекцию ходил, а сейчас совсем пропали
Я считаю дельту для последнего слоя, меняю веса, получается что выход равен ожидаемому, при этом вычисленные значения стоящего перед ним слоя не меняются, так как я уже модифицировал веса на которые они перемножаются. Соответственно для каждого следующего слоя дельта равна нулю.
Онтологическая бза созданная вручную прибита гвоздями из говна к синтаксическому велосипеду из поноса. Короче, у них на уровне синтаксического разбора уже не работает. Я про нормальный русский язык, в англопидерском там проще и может компрено и покажет что то отличное от говна.
Я поступил на прикладную математику в МИСиС, собираюсь попробовать себя в компьютерном зрении.
Посмотрел hh и впал в уныние - неужели мой максимум - это какой-нибудь веб или энтерпрайз?
>неужели мой максимум - это какой-нибудь веб или энтерпрайз
Оптимист, максимум матанопетушни это Крошка Картошка
По идее должно быть дотаточно. В заборостроительных обычно никто не учится нормально, да и сами студенты тупые, поэтому они не котируются особо.
Можно стать успешным в машобе имея только 11 классов школки? Относительно собственных проектов ясно, но что там с работодателями?
>но что там с работодателями
Видимо все совсем плохо. Требуют MS, а то и PhD по математике или Computer Science, причем обязательно чтобы степень была получена в топвузе.
Ну разве что для своих свистоперделок, да и то придется самому учить довольно много математики.
А на работу в DS/ML/AI требуют очень серьезную матподготовку уровня матфака/пми топового вуза в дс
Такое спрашивают только на собесах на вебмакаку
Ну так почему-то вчерашние магистры не могут решить задачу про два яйца, значит она всё-таки сложная, нет?
>не могут решить задачу про два яйца, значит она всё-таки сложная, нет?
Магистров учат решать более/менее реальные задачи, а не выдуманные головоломки для школьников и людей постарше.
То есть ты считаешь, что задача о двух яйцах это сугубо абстрактная головоломка и в реальной работе никогда не нужна? Ну такой работник тем более должен быть отсеян.
Чему учат там вообще? Мне вообще интересно, никогда не видел людей с техническим образованием магистра.
Спасибо, проиграл
Весь зекач про гомоеблю, не обращай внимания.
гомологии назвать баркодом, хм...
Ну спасибо, интересно. Только меня на работу без знания машоба всё равно не возьмут
Анон, такая хуйня короче. Ебанул типа нейронную сеть на питоне. Без всяких там numpy и прочее. Решил по хардкору короче. В итоге, что я получил. При обучении сети, к примеру, по следующим сетам: на вход подается 0.3 на выходе должно получиться 0.09. Все заебись, сеть обучается. Однако, когда я хочу обучить сеть, хотя бы обычному умножению и подаю на входы несколько значений по порядку, а в качестве контрольных выходов, соответственные значения. Выходит следующая ситуация. Такое ощущение, что сеть стоит на месте. То есть, подав на вход нормализованное значения x1, y1 и соответственно, в качестве контрольного параметра z1 сеть пытается подстроить свои веса именно к этому контрольному параметру (метод обратного распространения ошибок) . Сеть вроде кое-как подстроила веса за одну итерацию, а потом сука сразу НА и подаю уже x2, y2 и z2 и сеть заново подстраивается к z2 и так далее. Из-за чего появляется ощущение, будто сеть просто стоит на месте меня свои веса туда и обратно без какого-либо профита. В качестве активационной функции я использую сигмоиду 1 / (1 +_exp(-x)), при корректировке весов используется следующая функция: new_w = old_w + n dsigma(x) error, где old_w -- старый вес связи, n - норма обучения, dsigma производная сигмоиды. Ошибка для выходного нейрона определяется лишь разницей между контрольным значение и реальным выходным значением. Ошибки для скрытых слоев определяются по следующему мануалу (изображен на двух пикчах, на второй выше описана формула).
Анонче, помоги мне, чем сможешь, возможно встречался с такой ситуацией. Уже не знаю что делать, от горя фапаю и прозябаю.
>по хардкору
Лил, почти написал (всё кроме формулы обучения) такую вчера по памяти за полтора часа в телефоне пока нечего было делать.
Без лёрнингрейта у тебя даже линейная регрессия работать не будет, ёпт.
>Без лёрнингрейта у тебя даже линейная регрессия работать не будет
Держите неуча, не дайте ему уйти!
Естественно я имел ввиду случай, когда обучение ведётся методом градиентного спуска. Сам ты неуч.
чел, ты берешь производную целевой функции по каждому весу в сети это и будет градиент
> Что вообще такое производная.
Ты загугли хоть что ли. Это же матан простой, к нейроночкам как таковым не относится. Вы б сначала основы почитали, зачем тут спрашивать что такое сигма, производная, интеграл итд.
Как можно выщитать производную, не имея знания об других её значениях? Как это делается в нейронках?
вся твоя сеть по сути раскладывается в одну функцию с кучей переменных
допустим ты имеешь 2 входных нейрона 2 в скрытом слое и 1 на выходе
и пусть все активационные функции будут линейными (тобишь y(x)=x) и целевой ф-цией J = (y_pred - y)2 , где y_pred значение которое ты предсказываешь а y правильный ответ тогда все это можно разложить в нечто
y_pred = (x1w1+x2w2)... ну кароч ты понял в латех я не умею делаешь forward propagation и представляешь в виде одной функции всё это а потом берешь градиент тобишь производную по всем переменным
ето как бы основы
вот тут все на православном объясняется с азов https://stepik.org/course/401
является калькой с буржуйского http://neuralnetworksanddeeplearning.com/index.html
>берешь градиент тобишь производную по всем переменным
Как? Зачем ты это всё писал, но так и не ответил на вопрос?
Исторически так сложилось. Отцы нейроночек вроде все переизобретали на заре нейроночкостроения, и им, наверное, казалось, что они изобретают что-то невероятное. А может, это был просто метод самопиара, круто же звучит Я ИЗОБРЕЛ БЕКПРОПАГЕЙШН. Сравни с "я понял как взять производную сложной функции."
Толсто
ну пиздец конечно
вы говорите что для дипленингов надо мехмат закончить а тут оказывается отцы не знали матана из максимум третьего семестра
причем самой базовой его части
40 лет назад вообще нихуя не знали и интернетов не было.
> Полноценная машина Больцмана для ваших импотентных сеток.
Я вижу две ограниченные машины Больцмана, между ними хуйня непонятного назначения и один выходной нейрон. И в чем космический эффект всей этой ебулды?
> Это один входной нейрон
Возможно, там на пике неориентированный граф. Так нахуя эта конструкция, что полезного она делает?
Есть сетки, которые добавляют макияж на лица
Читаешь документацию OpenCV и.. все. Ты в машинном зрении.
> MIT
Аноны, подскажите, пожалуйста, есть ли курсы на русском языке если знаете об их существовании, хотелось бы ссылку
Если не владеете этой информацией, можете дать линк на MIT курсы на английском ? Благодарю
Благодарю
При том, что сколько бы маньки в этом треде не обмазывались матаном и архитектурами просрочеными 20 лет назад, область искусственного интеллекта нацелена на реализацию механизмов именно мозга и нервной системы.
Это ты, видимо, в 19-ом веке застрял. Мы знаем о мозге просто дохуя, невероятно много.
Твое невероятно много и 1% от всех знаний о мозге не составит.
О океане ты тоже невероятно много знаешь? А может о космосе?
Асоциации не имеют отношения к памяти, это отдельный алгоритмический инструментарий, тут скорее подходил бы глагол вроде "ассоциировать". То есть либо ассоциативная хуйня непонятная, либо память.
мимо проходил, не машобщик
>как например хранится информация, в каком виде?
https://en.wikipedia.org/wiki/Hierarchical_temporal_memory
>>48831
>>48818
>>48783
Пшел нахуй отсюда, чучело.
Единственный правильный ответ.
Шмуэль пиздеть не будет
Почему тогда Вапники долго не могли вдуплить в свертку, и только у кошки (или жабы, хз) её подсмотрели? При том, что про декомпозицию знает любой даун.
> Почему тогда Вапники долго не могли вдуплить в свертку,
Потому что она нужна только негров распознавать? Создатель неокогнитрона до неё и без кошек додумался, и что ты знаешь про неокогнитрон? Эта ваша свёртка - хипстерский хайп, про который забудут.
Аналогия = ложь.
>Сами подумайте, где бы была сейчас авиация, если бы главная задача была скопировать птицу.
Авиация на самом деле как раз началась, после того как изучили и скопировали птицу, мани. Именно так появился первый летающий аэроплан Ле Бри скопировал его с альбатроса. До этого были одни сраные воздушные шары. Точно так же как у вас, сейчас ваши сраные "нейросетки", которым нужен миллиард примеров что бы хуй от жопы научиться отличать. А все додики, которые повторяют бред о том, что самолеты не машут крыльями, что бы лететь, не понимают что и большинство птиц, блядь, тоже не машут крыльями, что бы лететь, а только что бы взлетать, набирать скорость и маневрировать. Нухуя в этой области не получится пока люди не начнут обращать больше внимания на ЕДИНСТВЕННЫЙ РАБОТАЮЩИЙ ПРИМЕР ИНТЕЛЛЕКТА - МОЗГ. А весь машоб сейчас это обклеивание воздушных шаров гребешками и перестановка реек в каркасе, в надежде на то что он из-за этого начнет летать как птица.
Еще была книжка вроде какая-то по статистике кажется, очень наглядная, кто-нибудь помнит?
Лагутин наглядная математическая статистика
>Нухуя в этой области не получится
В какой области, в математической оптимизации? Уже получилось, привет из середины 20го века. "Искусственный интеллект" это рекламное название определённой области этой дисциплины в общем-то, сам интеллект нахуй никому не упал. Основная потреба бизнеса в "интеллекте" это улучшенные алгоритмы впихивания рекламы, распознавания человеческих фигур и машин с камер и улучшающийся кредитный профайлинг быдлеца. Сочиняющие симфонию, пишущие шедевры роботы никого не интересуют.
> Сочиняющие симфонию, пишущие шедевры роботы никого не интересуют.
А чем принципиально диалоговые системы отличаются, которые все большие компании разрабатывают?
Ну а зачем создавать интеллект похожий на человеческий с помощью каких-то упрощенных искусственных моделей если природа уже все сделала за нас. Получается и проще и эффективней. Найди тяночку, заделай ребеночка, воспитай, вот тебе и реинфорсмент лернинг. Через n лет искусственные матки делать научатся, вообще будем штамповать РАБотничков на конвеере.
> Забавно, что любое обсуждение ИИ скатывается в лучшем случае к обсуждению принципа стимул-реакция.
Потому что основа высшей нервной деятельности это условный рефлекс и ничего кроме рефлексов там нет? Такой вариант тебе в голову не приходил, школьничек?
>Потому что основа высшей нервной деятельности это условный рефлекс и ничего кроме рефлексов там нет?
Разве условный рефлекс тьюринг-полный?
Наоборот. Дно какое-то. Тяжело и неэфективно. Будет такой же клон. Максимум человеческих возможностей уже был достигнут и уже был давно унижен технологиями хотя иногда люди и унижали технологии, но это минимизируется с прогрессом
Человеческий мозг тьюринг-полный.
Пока ты закончишь, хайп окончательно спадёт, не парься. Технологии еще 100500 раз поменяются
Думаешь, человечество выйдет с нейросетей на уровень выше ?
Глянул тут книжки по МЛ, охуеть там книга на 250 страниц стоит штукарь в среднем. Пиздец.
Хуй с ним с МЛ, хотя бы по математике для МЛ что-нибудь.
>>49386
Прочти шапку.
В доте еще этого нет. Ебал ИИ из-за того, что его реакция была 0,08с, а у топ игрока 0,2с. как накинули ограничений, чтоб смотреть не на скрипты, а на игру ИИ 2/3 вин(если не ошибаюсь) у студии комментаторов. У про тимы выиграть шансов мало
Какую-то йобу нужно таки сделать, потому что негры на диплом не годятся.
А по стате щас лол или дота задротов больше? И что думает себе гугл? Не желает ли он надрать задротам задницу?
Гугл ежедневно занимается разработкой передовых архитектур, им не до игорей ОпенИИ Машка.
Вроде пока что очень годно, я даже понял как работает градиентный спуск
держу в курсе
А ты симпатичный?
И как он работает?
Мне нужен какой-то красивый график для научной работы,
с задачей регрессии понятно как это сделать, а с обычным супервайзд бинарным классификатором - неочень
Делаешь предикт, получаешь столбец ноликов и единичек, используешь его как параметр s в pyplot.scatter
> Хочу бумажные
Купи принтер да печатай. Ксерокс 3010 2.5 косаря стоит, одна заправка - чип 50р + краска сотка, хватает на 2,5 пачки бумаги по 500 листов. Если в формате а5 печатать, это 6000 страниц.
>>49672
> на английском книги полюбому дорогие.
Полтора года назад покупал Вапника у индуса, вместе с доставкой из Индии обошлось 800р.
Спешите видеть, хипстор открыл для себя учебники. Таки скоро увидим сильный ИИ, не иначе.
Лалка, учебники - это и есть хипстерство. Стопочка красивых разноцветных книжек на столе или на полке, рядом стаканчик латте-мокиаты, можно еще на фоне коллекцию винтажных пластинок поставить. Вот только тыщи страниц писанины невозможно освоить в принципе, и в этом нет никакого смысла ведь вся полезная и актуальная информация получается в 21 веке исключительно из статей в интернете.
>You must have read at least two other textbooks on that same subject
А хипсторок то начинает прозревать понемногу. Всегда если видишь рекомендацию книги - это 100% гарантия что дающий ее ничего другого по вопросу никогда не читал.
а какой именно обзор ты имеешь в виду?
>тыщи страниц невозможно
Стоит ли говорить что учебники это не художка, и их не нужно читать подряд от корки до корки?
>исключительно из статей в интернете
Если ты про прошедшие рецензирование научные статьи из журналов или из архива, то это, очевидно, более продвинутый уровень для дальнейшего исследования, учебники пишутся по ставшим классическими вещам. Если ты о чем-то вроде чтения очередного научпоп говна про бекпропагейшн на хабре, реддите или бложеках то это не "получение полезной и адекватной информации" а тупорылое бесполезное хипстерство.
поэтому они играют в старкрафт?
что ты подразумеваешь под полезной и актуальной информацией в статьях? очередной перцептрон на numpy?
а если ты про какой-нибудь arxiv, то там тоже 90% публикаций юзлесс
> Вот только тыщи страниц писанины невозможно освоить в принципе,
Ты б хоть попытался, для разнообразия.
Давно уже пора делать учебники в стиле тредов на двоще. Типа диалоги Платона.
С 96Гб памяти? Я не особо в курсе, но слышал что цена одной карточки исчисляется десятками тысяч долларов.
Немного не в тему, но как можно нормально вкатиться в написание юзлесс статей под arxiv за репутацию и шанс поступить в норм пхд?
мимо-второкурс, английский C2
Статья чисто в архиве, тем более от ноунейма, не дает репутации, ее даже не прочитает никто. На конференции посылай.
Как писать - научник объяснит.
Спасибо. В нормальные вузы на пхд, вроде бы, можно сразу после бакалавриата ехать - как раз два года есть на статьи и попинывание хуев, самое то.
Сукпздц. Где реальность вообще?
>>49673
>>49836
А что делать, если у меня как таковых слоев нет, есть только классификатор, то есть вот такой примерно код,
но размеры трейнинг и тест сета больше и мне нужно по результатам предсказаний какой-нибудь ёбнуть график
import numpy as np
X = np.array([[-1, -1], [-2, -1], [1, 1], [2, 1]])
y = np.array([1, 1, 2, 2])
from sklearn.svm import SVC
clf = SVC()
clf.fit(X, y)
print(clf.predict([[-0.8, -1]]))
возьми какой-нибудь другой классификатор, у которого есть метод predict_proba
а если другой прям никак нельзя, то хоть гистограмму на 2 столбца построй
Да, с коэффициентами Каца-Шмуцер-Траерсона
помогите мне пожалуйста с темой. Я разбираюсь с image fusion с помощью метода главных компонент (principal component analysis, PCA). На картинке написана часть алгоритма, то есть допустим есть две картинки I1 и I2, уже зарегистрированные, размером MxN. Берем значения пикселей двух картинок, cоставляем матрицу размером MN x 2, то есть у нас есть 2 столбца. Вычисляем матрицу ковариации полученной матрицы, находим собственные векторы и собственные значения. Получается 2 собственных вектора и 2 собственных значения. Выбираем собственный вектор, соответствующий большему собственному значению, а вот дальше я не понимаю, что делать. Вот например если я вычисляю матрицу ковариации и собственные значения и собственные векторы этой матрицы с помощью OpenCV, и OpenCV вычисляет уже нормализованный собственный вектор, то получается последний пункт алгоритма с первой картинки выполнен? И мне осталось только, в случае например если собственный нормализованный вектор имеет значения (a,b), то перемножить значения пикселя с первой картинки Im1 на a и значение пикселя со второй картинки Im2 на b? То есть I1a+I2*b? Объясните пожалуйста
Дождемся тестов, посмотрим. Тензорные ядра там для рейтрейсинга (на них постпроцессинг картинки делается), возможно они вообще не будут доступны в ином качестве. К тому же надо чтобы кудовские либы их поддерживали, cudnn, в частности - пока об этом ни слуху ни духу.
А так-то на моей 1080ти 3584 ядра, против 2304 тут.
Да и памяти на 1080ти 11 гигов, а тут 8 всего.
добавь в svc параметр probability=True, потом predict_proba заработает
Похоже на то, хотя написано там не очень внятно.
>Стоит ли говорить что учебники это не художка, и их не нужно читать подряд от корки до корки?
Говори, конечно, много и подробно. Я вот если уж берусь за книгу читаю от введения и оглавления не пропуская не страницы. Завидую таком подходу на самом деле. Вот только это мне рвет шаблон - если бы половина книги была "лишней" почему же ее не выкинули и не написали книгу в два-три раза меньше? И как я узнаю что нужно а что нет? Страницы то вообще то совершенно одинаковые. (Тут мне вспоминается печальный случай когда я сдавал экзамен по матану и решил что обобщенные функции - не такая уж важная тема, ведь она в самом конце и вообще не до них; вот только экзаменатор думал совсем по-другому). Ведь учебники как раз пишутся по такому принципу что можно начать читать с любого места - и сразу все понятно. Одна история просто охуительнее другой.
С другой стороны - если я вижу тыщи говностатей про бэкпропагейшн на хабре, то у меня есть хотя бы какой-то ориентир на то что наиболее актуально. Статья, кстати даже если она совершенное говно, как правило пишется в расчете на самодостаточность, а не как отдельная глава из сотен.
>>49878
Что мне мешает узнать что такое сигма из статьи в википедии. Я же не такой дебик как ты чтобы наворачивать тыщи страниц ради одного определения.
pytorch
мимо-ds
Так нормальным людям понятно, что нейронки неработоспособное говно, а школчмони на то и школчмони, что жрут любое говно.
Мам, я загрузил свое фото на сайт, нажал кнопку, и вон чего, гыгык.
Нейроночка будто я без очков
Планирую вкатиться в компутер вижион
Иду туда где ебут в жопу, свободного времени у тебя потом ещё будет овердохуя, но вот математику, как там, ты сам наверное не выучишь.
>Планирую вкатиться в компутер вижион
Хуй забей, актуальная математика в мо обязательно поменяется, а вся эта параша которая актулаьна сейчас, станет нахер никому не нужна навроде многопоточности, которой всех надрачивали 5 лет назад кроме мл-макакеров, которые к тому времени расплодятся и будут обслуживать шаблонные проекты, а вот в новую математику того времени без топ вуза ты вряд ли вкатишься.
Две недели назад ставил драйвер на Debian Stretch и все работало. Сегодня ставлю и оно не работает. Какие-то несовместимости с ядром или сам драйвер вышел новый.
Забил болт, скачал Fedora. В отличии от Debian'а установка драйвера это квест из n шагов. Зацените портянку:
https://www.if-not-true-then-false.com/2015/fedora-nvidia-guide/
В итоге все сделал как там написано и черный экран после загрузки GDM. Стал гуглить, отключил Wayland, переставил через RPM Fusion -- то же самое.
Нормально на дебиане работает, криворук.
Изначально цель такая:
Боту пишут, он понимает, что надо ответить и отвечает разговорной записью. Тип письменный ответ переводится в звук как в войсы в вк телеге, ну вы поняли
Войс генкрацию я уже запилил, асинхронную. Как то так
>Хочу написать умного бота, чтобы он понимал письменную речь
Чат боты уже вдоль и поперек расписаны, питух, хотя бы погуглил. Если что нибудь уровня NLP, то соснешь с проглотом.
Петух это твоя мать, спермоглотка ебаная. Я попросил дать мне направление, а не твой высер про ботов с логикой прописанных ответов заранее, хуйло тупое
https://www.youtube.com/watch?v=8fHLt5hlHjM
Надо платить по счетам, деньги всем нужны, иначе зачем годами дрочить машоб и не зарабатывать на этом. Пока мамка кормит оно конечно может и по фану, но потом то что?
В машоб не каждый выпускник математического факультета попадает. Везде нужны только выпускники топовых вузов: мфти, мгу, вшэ бомока уже не очень стала котироваться, ну может еще СПбГУ. Все, людей из других мест просто не берут, потому что они имеют недостаточную математическую подготовку.
Тогда я не понимаю зачем дурачки дрочат эти курсы если все равн их не куда не пустят работать. Просто тратят время в пустую.
Ну, кому-то интересно для своих проектов, например написать хуевину, которая будет говно и мочю искать на фотографии, весело же
Есть статьи, где конкретно такая задача решается: из скетчей делаются полные детализированные рисунки. Это не трансфер стиля, а с помощью ГАНа делается.
На норм факультетах дают матан, матстат, линал, выч. методы - как раз тот набор, который нужен.
Это просто интересно. Эсли тебе не интересно это само по себе, то ты явно не туда зашел, и у тебя все равно ничего не выйдет.
Ты придурок, если за это деньги не будут платить то я бомжом стану, не всех мамка кормит.
Зачем ты мне это рассказываешь? Мне безразличны твои проблемы. Я сказал тебе, как есть.
Как будто другие люди бы учили программирование если бы за него не платили выше средней ЗП. Ненавижу лицемеров таких как ты.
Ты бы не учил кодинг если бы за него платили как дворнику.
Я и не "учил кодинг", я просто начал кодить еще в 12 лет. По образованию я математик. Твои претензии смешны, если ты не тралишь, конечно. Нейроночки это явно не для тебя, ты сформировавшийся напомоечник.
Какая другая область? Мы уже на вершине, дальше некуда. Только обратно к древним алгоритмам.
Посоны, у кого проблемы с ядром/драйверами -- ставьте Ubuntu. Все работает из коробки. Само находит, само ставит, само обновляет. Ничего не ломается.
У тебя nvidia-smi криво работает, ни загрузку, ни процессы не показывает.
Это не ограничение алгоритмов, это научная проблема. Проблема в инженерии тут возникает только из-за отсутствия оптимальной модели.
Ну тогда и у случайного поиска нет никаких ограничений, маня, нахер вообще нужны эти нейросетки. Короче не толсти.
Не толщу, нейросетки способны вычислять любые алгоритмы и программы за ровное колличество времени, каждый раз. Не просто с одинаковыми затратами, буквально идентично.
> Какая другая область? Мы уже на вершине, дальше некуда. Только обратно к древним алгоритмам.
Ну ты и клован. Правда в это веруешь?
> 18 век
> а ты че, знаешь что-то лучше для освещения, чем газовый фонарь?! Мы уже на вершине, дальше некуда. Можно только к первобытным кострам откатиться.
Аналогия = ложь.
Да, может. Пруфы что нет. На моей стороне википедия.
Это копия, сохраненная 7 октября 2018 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.