Это копия, сохраненная 7 августа 2016 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Machine Learning 101:
1. Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR Sixth Printing.pdf )
Читается легко, неплохая разминка перед ESL
2. Pattern Recognition and Machine Learning, Bishop.
3. Bayesian Methods for Hackers. Введение в байесовские методы, годно.
4. http://neuralnetworksanddeeplearning.com
Введение в нейронные сеточки для самых маленьких. Написано простым английским.
5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.
Machine Learning Advanced
1. Elements of Statistical Learning (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.
2. Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.
Иногда from sklearn.linear_model import LogisticRegression перестает работать и тогда нужно все переписать. Оптимизация квадратичных приближений на больших объемах данных, разреженные модели, суррогатные оптимизации - вот это все тут есть.
3. http://www.cs.nyu.edu/~mohri/mlbook/
Как ESL, только слегка по-проще. Попробуйте, может зайти.
Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.
яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
Misc
1. Telegram: @techsparks
Подкаст про всякие гик-штуки.
F.A.Q
По мотивам предыдущего треда.
Эти ваши книжки стоят овер 9000 рублей, как быть?
http://libgen.io
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Но ведь есть Machine Learning per se, чем он занимается?
Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и их возможные архитектуры, но даже они двигаются рука об руку с практикой.
Что такое TensorFlow?
TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа параллелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
Сап, нейрооБоги. Я ньюфаг, посмотрел лишь пару десятков разных роликов на трубе на тему нейронных сетей. Понимаю, как они устроены примерно, но не понимаю, как это всё делается именно в коде. Посоветуйте простой хэллоуворлд, дабы разобраться в основах всего этого. ЯП не принципиален.
Посоветуй хорошую книгу по математике или доступные видео-курсы, если знаешь, браток.
Периодически попадается это словосочетание во всяких статейках по распознаванию образов на нейронках, но какого-то конкретного примера или определения или описания того, что именно это отличает от чего-то другого не находил.
Еще иногда встречается фраза dense outputs.
Байес-кун, поясни за реализации на питно. Вот для классики есть scikit-learn, а для байесов?
Или ответьте на следующие вопросы
1. На Windows полная хуйня, все на Linux?
2. Debian тоже не канает, нужна убунта?
анус себе разверни
Задержался на повторение питона и кое в чем застрял.
Что здесь делает self.weights, как оно влияет на activations?
они скалярно умножаются на вход
активация есть параметры ("веса") умножонные на вход
активация потом пихается через нелинейную функцию активации
совсем как в настоящих мозгах
И почему ничего не произошло после того, как я удалил часть с Confusion Matrix.
Ууух, я наконец разобрался почти, как работает перцептрон.
По идее тут нету сумматора?
> есть ли специальные инструменты, которые упрощают процесс?
чумазая индусня
по одной рисинке за датум
>>791432
https://arxiv.org/pdf/1411.4038.pdf вот например. Там еще несколько не до конца ясных фраз, типа end-to-end training (гугл везде разное трактование end-to-end дает; один из синонимов я находил - сквозной, но хз на сколько это связано с обучением), еще patchwise training (patch - кусочек изображения, или одно изображение из целого набора?)
Что-то связанное с полносвязным - мб. Хотя у меня была мысль, что это что-то связанное с тем, что в выводе сети - полная картинка, а не просто выбор класса из нескольких.
Предложение было действительно интересным и работодатель был из штатов, если бы получилось был бы очень хороший опыт + строчка в резюме.
>>791471
А нет, настраивается, только я не понял, по какому принципу вводится еще одно измерение в массив.
Что за хуйня?
Если ввожу вот так вот:
inputs = np.array([[0,0,1],[0,1,0],[1,0,0],[1,1,0]])
targets = np.array([[0],[1],[1],[0]])
То не настраивается
А если в targets будут единицы по краям, то сможет настроиться, что за хуйня?
нарисуй/представь эти точки в 3-пространстве и посмотри, можно ли их разделить плоскостью
нарисуй другой вариант и нельзя будет настроить
прямые через точки одного класса пересекаются, их не разделить
параметры добавляются что бы зделать перцептрон более умным - чем больше параметров, тем более сложные функции он сможет моделировать
Хаскель? Лисп? Go? Erlang? Ассемблер?
Конечно же ассемблер
А еще лучше - сразу в машинном коде
Если серьезно - python c библиотекой pandas, либо matlab
J, поскольку нейроночка - массив и J хорошо могёт в массивы
А, я долбоеб, он в вычислениях же складывает и перемножает, так что сумматор есть.
> было бы выше ну 150, 200, деньги не так важны в данном конкретном случае
Средний рейт за вебдев фриланс что-то около 800 баксов в неделю ($20/hr).
Даже если тебе лично не нужны деньги, работа за копейки плохо влияет на систему в целом. Нефиг демпингом заниматься, для этого и так всякие пакистанцы с индусами существуют.
То, что ты нихуя не умеешь не оправдание. Если клиент не доволен твоей работой, у него есть опция не платить или открыть диспут.
> ведь область ... и нова и интересна.
Только так и работаю всегда иначе не получается увы, я не помню с какого рейта начинал, что-то вроде 400-500 баксов в неделю, но это тащем-то тоже мало.
>Типа QMR-DT?
Я же говорю, что я не вник в ml.
Впервые от тебя вообще слышу этот термин, погуглил - так там вообще дебри ml.
Завтра ищешь в интернете книжку "Neural networks for pattern recognition". Похуй если ничего не поймешь. Затем идешь на deeplearning.net и изучаешь библиотеку theano от корки до корки. Потом зубришь, именно, сука, вызубриваешь алгоритм обратного распостранения ошибки - чтоб от зубов отскакивало. Когда напишешь свою первую нейроночку, по пути поучавствовав в kaggle компетишенах, покупаешь и изучаешь нормальную видеокарту, рекомендую NVIDIA GTX1080. Как переделаешь нейроночку, чтобы выдавала по крайней мере 5 тысяч предсказаний в секунду, можешь идти дальше - тебя ждет увлекательный мир диплёрнинга. CNN, RNN, сверхглубокие машины больцмана, tensorflow. Отсос веб макак / просто неудачников типа нечётко-питуха или сёрло-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.
http://www.deeplearningbook.org/
видишь ли, TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа параллелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
похоже, что шапку писал шизик.
Охуительно, всегда хотел быть трапом, но ты говоришь про Байеса так, словно это какой-то злоебучий алгоритм.
> Часть - потому что важные куски типа параллелизации еще не выкачены в паблик
Уже давно выкачены (с версии 0.8):
https://www.tensorflow.org/versions/r0.9/how_tos/distributed/index.html
AbstractSingletonProxyFactoryBean
Нахуй она вкупе с нейроночками нужна?
И что она делает? Просто подбирает точки, которые наиболее близкие?
Но я совершенно не понимаю, каким хуем это относится к этому
>np.dot(np.dot(np.linalg.inv(np.dot(np.transpose(inputs),inputs)),np.transpose(inputs)),targets)
В части np.dot(np.transpose(inputs),inputs)
Мы берем наши входы, переворачиваем матрицу и перемножаем ее со входами?
Дальше берем от этого обратную матрицу и еще раз умножаем на перевернутые входы?
А после этого я нихуя не понял
Или мы берем перевернутую матрицу , через np.dot перемножаем ее на входы и все это в конце перемножаем с целями?
А нахуя? Чего из этого мы достигнем?
Раскури матрицы и операции над матрицами. Раскури сам метод линейной регрессии.
Раскури все формулы, которые используются в нейронках (сумматор, активационная функция, функции ошибки и т.д.).
Потом найди взаимосвязи между ними. Это основы, это надо знать.
Да как его раскуришь то?
Я про сумматор, функцию активации знаю, узнал на примере пиздоновского кода.
Но про эти матрицы и массивы не понимаю, а про Линейную регрессию пишут
>Линейная регрессия — метод восстановления зависимости между двумя переменными
И что мне это должно давать?
Раскурить - не значит прочитать определение.
Посмотри какие бывают модели регресии и как они выглядят математически. Как их в матричном виде можно записать.
Посмотри что такое регрессионный анализ и какие методы там используются.
В нормальный вуз не пошел - проебал всю базу, теперь надо нагонять самому.
Да это же я, какой вуз? Я из шараги на 2 курс перехожу.
И там такому не будут учить, а может и будут, мат.статистика будет.
А зачем ждать вуза, если я сейчас хочу?
Значит надо искать нужные книги и курсы. По статейкам из инетика, блять, нельзя получить полные знания.
Нормальные книги и курсы либо уже предполагают йоба-высокий порог вхождения, либо написаны ебанутым языком.
>йоба-высокий порог вхождения
>написаны ебанутым языком
Значит ты что-то пропустил в своем обучении.
Другие люди читают, изучают - и ничего.
оставлю тут
в первых главах нормально разжёвана линейная регресия и вся хуйня
>>792072
>Но я совершенно не понимаю, каким хуем это относится к этому
https://ru.wikipedia.org/wiki/Метод_наименьших_квадратов
Читай раздел "Пример — система линейных уравнений". Вот этот код на питоне есть ни что иное как (A'A)^-1A' в википедии, где A' - транспонирование.
Выводится эта формула из того факта, что если тебе нужно минимизировать функцию Ax-b -> min, тебе нужно приравнять производную к нулю, далее она приравнивается и вычисляется и получается формула, что A'Ax=A'b. В школе ты не проходил вычисление производных для матриц, но это не суть. А суть в том, что это уравнение действительно дает правильный ответ (такую матрицу A, что Ax-b наиболее близко к нулю).
кароч ортогональная проекция на пространство столбцов
На днях постараюсь предложить что-нибудь.
Того же Письменного в шапку впихнуть, хотя он для опущенцев (я по нему учился).
>(t − Xβ)T(t − Xβ)
>Где β = (XT X)^(−1)XTt
Аноны, зачем мы умножаем перевернутые входы на таргеты?
В скобках мы ищем отрицательное значение от самого короткого расстояния между двумя точками?
И эти транспонированные цели умножаем на то, что нам уже известно? Типа это средняя линия?
> Пасаны, объясниет за всю хуйню с моментом и шагом.
Шаг если взять маленький, то вроде как застрянет на локальных минимумах, если взять большой, то в конце обучения лучше достроить с маленьким? Некоторые берут для каждой эпохи уменьшают шаг в 0.99.
Объяснил.
можешь увеличивать шаг если градиент маленький или не меняется например, чтобы перепрыгнуть через седло или быстрее сойтись
и наоборот
вообще:
градиентный подьём/спуск - говно
максимумы - говно и оверфиттинг
тема нейроночек раскрывалася в конце 3го тренделя
Так как обучать, чтобы не заморачиваться с этой хуйней? А то ждешь, ждешь, а оно может все в шаге дело.
Какой нахуй момент? Среднее по батчу?
Так ведь он выступает как регуляризатор. Всё что связано с эффективным методами оптимизации это сплоная эмпирика. Просто постарайся запомнить эвристики и понять когда их надо применять.
попробуй заменить градиентный пердёж на метод нютона например
там нет гиперпараметров типа длины шага
Аноны, накидайте байесовский моделей, где используются распредления отличные от Дирихле или Гауссовского, или её графовое представление имеет длинную цепочку узлов(больше >3.
А почему оно тогда оно решает проблему линейной регрессии?
B в этом случае - это линия или плоскость?
РОбъясни, зачем эта хуйня нужна в НС?
ОП, нахуя переименовал тердик в НЕЙРОСЕТОЧКИ? На них мир клином не сошёлся ведь.
да диагональную бери, прокатит
>>792348
нейроночки
>>792350
смотря какие базисные фунцкии выбраны
линейность тут от параметров, а не от входных данных
В учебнике это написано, что реализация линейной регресии.
Типа мы сначала по теореме пифагора ищем самое короткое расстояние и минимизируем error function
такая
> (XT X)^(−1)XTt
формула получится если взять производую первого выражения и приравнять к нулю
производная = 0 необходимое условие для минимума
что бы доказать что это минимум ты должен немного поебстись со вторыми производными
теперь понятно?
Ты вот про это хотел сказать?
>Computing the smallest value of this means differentiating it with respect to the (column) parameter vector β and setting the derivative to 0, which means that XT (t − Xβ) = 0
Если B = 0, то и первое выражение равно нулю?
да, производная равна нулю
> XT(t − Xβ) = 0
дальше раскрываем скобки
> XTt − XTXβ = 0
> XTt = XTXβ
> β = (XTX)-1XTt
вот и всё, что бы доказать что это минимум берём вторую производную
> ХTХ
что бы доказать что вторая производная положительа во все стороны надо доказать что ХTХ положительно-определенa иногда нет
умнож с обоих сторон на вектор и транспонируй левую половину
детали оставляются тебе в качестве упражения
>np.dot(np.dot(np.linalg.inv(np.dot(np.transpose(inputs),inputs)),np.transpose(inputs)),targets)
Ну вот эта строка соответствует (XTX)^(-1)XTt
Еще есть строка outputs
>outputs = np.dot(inputs,beta)
Что все равно,что X*((XTX)^(-1)XTt)
И если взять таргеты(t), вычесть из этого output и возвести в квадрат, то получится сумма квадратов остатков регрессии?
Сама линейная регрессия в строке с (XTX)^(-1)XTt ?
И если данные не линейно делимые, то оно не сможет нихуя?
Мне еще не совсем понятно, как сделать разделение на отдельные символы - сегментацию, я генерю капчу(цифры склеены и с шумами) чтобы провериь на сколько сетка хороша, ибо обычная задача: просто распознать отдельный символ на котором же и обучал - неинтересна. Обучил я пока вроде норм для распознавания, но вот как просегментировать- хз.
С помощью автоэнкодера или как?
Например, обычный перцептрон не сможет в XOR, ибо там нет логического OR и данные просто так нельзя поделить
А если слоев больше, то сеть уже способна запомнить, как разделить эту XOR функцию, верно?
Или можно сказать, что чем больше Слоев у сети, тем большее ее разрядность?
В таком случае, если мы имеем что-то, имеющее множество исключений, то как нейронка такое обрабатывает?
Это как я понял алгоритм Витерби, но как его применять я не понял, а тем более для сегментирования.
Короч, сначала надо разобраться что Лекун имел ввиду вот этой SDNN сеткой. Я так понял обучаешь как обычную CNN но потом расширяешь до SDNN.
И используешь сети маркова, чтобы найти самую вероятную комбинацию букв. Без пояснений хуй пойми с чего начинать.
ууууу там еще шняга с тренировкой
The replicated net work and the HMM can be trained simultaneously by back propagating gradients through the HMM.
не совсем же. производную целевой функции умножаем на производную функции активации, а потом на значение нейрончика.
Ты уже не первый тред про сегментаци спрашиваешь. В сверточной сети оно автоматически делается.
потому что у меня не видюхи, я тренирую на проце, мне нужно знать смогу ли я на нем чет внятное сделать. приходится ограничиваться символами.
Завтра ищешь в интернете книжку "Neural networks for pattern recognition". Похуй если ничего не поймешь. Затем идешь на deeplearning.net и изучаешь библиотеку theano от корки до корки. Потом зубришь, именно, сука, вызубриваешь алгоритм обратного распостранения ошибки - чтоб от зубов отскакивало. Когда напишешь свою первую нейроночку, по пути поучавствовав в kaggle компетишенах, покупаешь и изучаешь нормальную видеокарту, рекомендую NVIDIA GTX1080. Как переделаешь нейроночку, чтобы выдавала по крайней мере 5 тысяч предсказаний в секунду, можешь идти дальше - тебя ждет увлекательный мир диплёрнинга. CNN, RNN, сверхглубокие машины больцмана, tensorflow. Отсос веб макак / просто неудачников типа нечётко-питуха или сёрло-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.
Это Forward фаза обучения мульти-перцептрона.
N здесь - это output nodes, L - input nodes,
Знаю, что вторая формула - это градиент, минимизация функции ошибки.
Я понимаю, что у нас L входных нейроной, а что такое Xi и Viζ не знаю.
И про вот это свойство i=0 тоже не знаю.
А, все, кажется понял, у нас есть слой j представлен в виде греческой буквы
Количество нейронов в слое N
А i=0 - это начальное значение.
v - это веса
А x - это значение самого нейрона?
Вторая формула - это пороговая функция.
Все правильно? Только почему у нейрона 0, если у нас есть смещенный с показателем -1?
Все, теперь осталось понять, как алгоритм сам использует это chain-rule для того, чтобы минимизировать функцию ошибок еще и дополнительных скрытых слоев и я специалист.
Кстати, про градиентный спуск нихуя не понял кроме того, что это как шар, катящийся по поверхности вниз и он может застрять где-нибудь и минимизация функции ошибок и есть этот самый градиентный спуск
>специалист
Точнее смогу разобраться в коде, лол, таких тупых специалистов не существует.
Решил, что надо понять сначала принцип и потом только лезть в код.
Пиздишь как дышишь. Из свежих примеров Призма и Маскарад. В гос. заказе и технологии двойного названчения: системы управления дорожным трафиком, автопилоты для комбайнов, автобусов, трамваем, машин, танков.
Достаточно двух слоёв с нелинейностью и n-ым число входов. Либо один слой, но подавать на вход нелинейные комбинации признаков.
Двачую. Устроим соревнование: сначала кто лучше фильтрует тупые вопросы, а потом кто лучше раскапчёвывает.
>обычный перцептрон не сможет в XOR
Что значит "обычный" перцептрон? Есть еще необычные? В XOR не может однослойный перцептрон, который есть простая линейная модель.
>>792813
>>792814
>>792822
Пока вы будете учиться меня игнорировать, я уже напишу свою многослойную сеть и смогу в обратное распространение ошибки.
И матан выучу.
Тогда вопросы уже не будут тупыми и фильтр не сработает.
Почему php? Не разу не был в том треде. Собиру посты по апишке и подниму админку для разметки.
Зная двачи - для вас это на десятилетие затянется.
Там Ваенга же не просто так прилеплена.
> В гос. заказе и технологии двойного названчения
Бюджеты пилят сыночки генералов, реальные разработки опаздывают от рынка на лет пять, так? Или нет?
Хуй знает. Знаю оптиков, работающих по военке, вот их оче часто заставляют подписывать документы о неразглашении. Тут похожая хуйня будет, скорее всего.
Знаю, что некоторые компании порой заказывают у русских лаб некоторые разработки.
Ну хоть что-то.
Там и правда пиздецово. Такие перлы пишут. Но вопрос был о возможностях, поэтому возможности будут.
Вот кстати яндех. Казалось бы, крупная контора. А есть у них ML продукты,сравнимые с гугловскими? Рашка хуже африки, даже селедки из Туниса(!) могут в реализацию своих усовершенствованных вариантов SOM https://sites.google.com/site/malikacharrad/research/multisom-package
>>792895
>ДатаФактори
Даже не гуглится.
Вот же она.
https://yandexdatafactory.com/
Да, с забугорными монстрами соперничать трудно, но дело продвигается. На хабре давно была статья, как яндех помогал ЦЕРНу обрабатывать данные.
Интересно было бы посмотреть обзор рынка ML в рашке.
чот проиграл с себя, когда писал "рынка ML в рашке"
Но предложения по работе на том же hh есть, хотя и не в тех количествах, как хотелось бы.
А причем тут старперы? Молодежи в стране нет? Почему в нейроночки может уже даже африка, но не расеюшка?
Потому, что 90-ые добили рашкинскую науку для производства робототехники, если в СССР хоть пытались, но надорвались, в России же все пустили через хуй. Энджой йор быдло, которое готово наебать, и коррупция.
Подход еще не столь распространён. Пока ваши конкуренты используют устаревшие технологии на базе нечоткой логики или классического подхода с точечными оценками, вы сможете в разы поднять свою эффективность, задействовав EP - последнее достижение науки в области вариационных методов. Но это еще не всё.
В жизни любого ML-проекта наступает момент, когда он превращается в продукт и сопровождению проекта привлекаются дополнительные разработчики. На этом этапе распространённость и доступность методов начинает играть решающую роль. Благодаря активной популяризации бейсотвкого вывода в среде коммерческих разработчиков, а также поддержке со стороны лидера разработки методов машинного обучения - университета Кембриджа, Вы можете быть уверены, что в будущем Вам не придется переписывать свой проект как это было с печально известной разработкой Нечётко-питуха.
Бейс обеспечит вам гарантии успеха и стабильности Ваших начинаний. Выберите Бейсовский вывод сейчас и через несколько лет Вы сможете наслаждаться результатами своих трудов - успешным проектом, выполненным с учётом всех современных технологий и индустриальных стандартов. Бейс - Ваш проводник к успеху в мире машинного обучения. Выбирайте Бейсовский вывод.
Двачую этого! Хоть кто-то понимает что значит байесовский вывод в методах машинного обучения. А ведь этот подхот столько ништяков даёт. Чего стоит хотя бы введение кастомных гиперприор на холодном старте.
Миф и пропаганда. Есть и дохуя.
>>792829
Поднял размечалку на VPS'ке. Сделайте нормальную морду и придумайте название(сейчас рабочее filter2ch). На бэке стоит Jinja. Доверстаю и вброшу API'шку.
http://188.166.162.151:5000
Не положите только, ок?
Выше шла речь о том, чтобы разметить посты. Сверстать главную и можно размечать. Дальше учим сетки, ебёмся с Байесами, etc.
Есть же API которое возвращает посты в json, не понимаю смысла в твоей размечалке.
Я говорил про апи двача, которое уже имеется.
Разметить = to label? То есть цель размечалки в том, чтобы коллективно расставить метки где говно, а где нет?
Всё верно. Положил nginx ибо идея не зашла.
http://camdavidsonpilon.github.io/Probabilistic-Programming-and-Bayesian-Methods-for-Hackers/
какая нибудь хуйня типа https://en.wikipedia.org/wiki/Naive_Bayes_spam_filtering по идее могла бы сработать
>>793040
> MCMC
не особо одобрямс %)
бегло пробежался с начала, завтра посмотрю пару предыдущих тредов
потом подчистить все тексты и можно уже что то думать
платина:
Сап, нейрооБоги. Я ньюфаг, посмотрел лишь пару десятков разных роликов на трубе на тему нейронных сетей. Понимаю, как они устроены примерно, но не понимаю, как это всё делается именно в коде. Посоветуйте простой хэллоуворлд, дабы разобраться в основах всего этого. ЯП не принципиален.
Господа, есть ли что ловить мне, при условии, что в разные дифуры/матан не умею?
Дайте гайд как развернуть какую-нибудь нейросеть.
На каком языке лучше всего программировать нейросети?
Хаскель? Лисп? Go? Erlang? Ассемблер?
Аноны, а ведь чем больше у нейронной сети слоев, тем больше она может логически "или" поддерживать?
Сап, подскажите, будет ли ML нужен в ближайшие 10 лет, или это просто хайп, станущий ненужным через 2 года? Стоит ли вкатываться, останется ли работа через 2-3 года еще?
Аноны, поясните мне за Линейную Регрессию.
хуятина:
Кто-нибудь знает что есть такое dense prediction?
Периодически попадается это словосочетание во всяких статейках по распознаванию образов на нейронках, но какого-то конкретного примера или определения или описания того, что именно это отличает от чего-то другого не находил.
Еще иногда встречается фраза dense outputs.
Пасаны, объясниет за всю хуйню с моментом и шагом. Шаг если взять маленький, то вроде как застрянет на локальных минимумах, если взять большой, то в конце обучения лучше достроить с маленьким? Некоторые берут для каждой эпохи уменьшают шаг в 0.99.
Вот вы говорите, что подготовка данных занимает 95% времени, и что это скучно и неинтересно. Можете привести какой-нибудь конкретный пример датамайнинга из вашей практики, рассказать как это делается и есть ли специальные инструменты, которые упрощают процесс? А может даже есть вакансии на рынке для тех, кто не смог в матан и готовит данные для датасаентистов?
Мне еще не совсем понятно, как сделать разделение на отдельные символы - сегментацию, я генерю капчу(цифры склеены и с шумами) чтобы провериь на сколько сетка хороша, ибо обычная задача: просто распознать отдельный символ на котором же и обучал - неинтересна. Обучил я пока вроде норм для распознавания, но вот как просегментировать- хз.
бегло пробежался с начала, завтра посмотрю пару предыдущих тредов
потом подчистить все тексты и можно уже что то думать
платина:
Сап, нейрооБоги. Я ньюфаг, посмотрел лишь пару десятков разных роликов на трубе на тему нейронных сетей. Понимаю, как они устроены примерно, но не понимаю, как это всё делается именно в коде. Посоветуйте простой хэллоуворлд, дабы разобраться в основах всего этого. ЯП не принципиален.
Господа, есть ли что ловить мне, при условии, что в разные дифуры/матан не умею?
Дайте гайд как развернуть какую-нибудь нейросеть.
На каком языке лучше всего программировать нейросети?
Хаскель? Лисп? Go? Erlang? Ассемблер?
Аноны, а ведь чем больше у нейронной сети слоев, тем больше она может логически "или" поддерживать?
Сап, подскажите, будет ли ML нужен в ближайшие 10 лет, или это просто хайп, станущий ненужным через 2 года? Стоит ли вкатываться, останется ли работа через 2-3 года еще?
Аноны, поясните мне за Линейную Регрессию.
хуятина:
Кто-нибудь знает что есть такое dense prediction?
Периодически попадается это словосочетание во всяких статейках по распознаванию образов на нейронках, но какого-то конкретного примера или определения или описания того, что именно это отличает от чего-то другого не находил.
Еще иногда встречается фраза dense outputs.
Пасаны, объясниет за всю хуйню с моментом и шагом. Шаг если взять маленький, то вроде как застрянет на локальных минимумах, если взять большой, то в конце обучения лучше достроить с маленьким? Некоторые берут для каждой эпохи уменьшают шаг в 0.99.
Вот вы говорите, что подготовка данных занимает 95% времени, и что это скучно и неинтересно. Можете привести какой-нибудь конкретный пример датамайнинга из вашей практики, рассказать как это делается и есть ли специальные инструменты, которые упрощают процесс? А может даже есть вакансии на рынке для тех, кто не смог в матан и готовит данные для датасаентистов?
Мне еще не совсем понятно, как сделать разделение на отдельные символы - сегментацию, я генерю капчу(цифры склеены и с шумами) чтобы провериь на сколько сетка хороша, ибо обычная задача: просто распознать отдельный символ на котором же и обучал - неинтересна. Обучил я пока вроде норм для распознавания, но вот как просегментировать- хз.
Ок. Итак, имеем метки: платина, хуятина, курятина и всё остальное. Ещё бы добавил дополнительные лейблы: школьник-нейроман, нечёткий логик, байесовский пидор, классик-миссионер.
1 if max else 0
http://cs231n.github.io/convolutional-networks/#pool
http://cs231n.github.io/optimization-2/#grad
Делаешь вариационную аппроксимизацию, записываешь конволюцию с сигмоидом, потом уменьшаешь размерность интеграла (здесь поможет дельта функция дирака) как конволюция гауссовых распределений, и с обратной пробит-функцией маргинализируешься над постериором. Любой второкурсник справится. А если делать на МСМС — так задачка вообще на пять минут.
как это перевести?
Backpropagation. Recall from the backpropagation chapter that the backward pass for a max(x, y) operation has a simple interpretation as only routing the gradient to the input that had the highest value in the forward pass. Hence, during the forward pass of a pooling layer it is common to keep track of the index of the max activation (sometimes also called the switches) so that gradient routing is efficient during backpropagation.
При проходе туда сохраняем индекс максимального элемента.
При проходе обратно ошибка идет только в инпут с сохраненным индексом.
Спасибо. Так и думал, что переводится, но не хотел верить своим глазам. Придется делать сохранение этого ебучего индекса.
а в остальные получается ноль писать, ведь от них зависят ошибки следующего слоя?
>deltah = self.hidden(1.0-self.hidden)(np.dot(deltao,np.transpose(self.weights2)))
Настройка второго и так далее скрытых слоев, это просто (цели - выходы)*выходы
Это потому что функция ошибки в данном случае общая для всех слоев и на отдельном слою больше быть не может?
И вот это вот интересная вещь
>np.transpose(self.weights2)
Зачем нам переворачивать матрицу весов? Это 2-я линия, делящая наш датасет здесь должна проходить под углом 90 градусов?
Или и то и другое.
хорошо бы его сюда, в етот итт трендель
Наспех скопированное и спизженное говно, которое уже все видели раз 100.
Хочу настроить моба на нейронке, как понимаете, у него будет множество модулей.
Например одна из целей - нанести удар с такой-то силой, одной цели - сила удара мне хватит?
А все остальное, вроде локальных показателей различных модулей я помещу в массив.
Или если все будет не так, а например, положение моба, скорость его модулей, инерция Если она конечно поддерживается движком и нейроночка для каждого из этих показателей должна увидеть закономерности и в зависимости от одних параметров настраивать другие так эффективно, как она только сможет.
А в таргеты засунуть что-нибудь увеличивающееся и когда нейронка через n итераций уже не сможет сделать все эффективнее, то заканчивать обучение.
Как подобрать нужное число слоев в таком случае и как привести информацию в нормальный для нейроночки вид?
> как подобрать нужное число слоев
гугли bayesian model selection
> как привести информацию в нормальный для нейроночки вид
нанять школьников с одеска
> нанять школьников с одеска
Вряд ли сетка у школьников чему-нибудь научится(разметка будет хуёвая).
Можно те самые 300-350 долларов поднимать, какая нагрузка для этого нужна? За что лучше браться новичку?
какие вообще заболевания встречаются у нейронных сетей и как их избегать?
http://arxiv.org/pdf/1506.02640v4.pdf
Почему ее еще не реализовали га питоне на сайте диплернинг?
Если я уменьшу к-во слоев для обучения поиска позиций символов мне хватит?
Годноту палю.
http://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-438-algorithms-for-inference-fall-2014/index.htm
Хули Юля делает в ЯП? Она же ещё сырая.
Чем это лучше сотни других таких же курсов? Например, вот этого от Koller:
https://www.coursera.org/learn/probabilistic-graphical-models
Книжку которой они упоминают в своем syllabus.
Одна функция активации нужна для логических функций, линейная, насколько я понял, для проблемы регрессии.
А softmax нахуя? Что значит это
>the 1-of-N output encoding is used
когда классов больше 2 - ебашишь софтмакс
мотивация та же что и для сигмоида
>>the 1-of-N output encoding is used
способ кодировать классы векторами
напр если 2 класса, то
(1, 0) - первый класс
(0, 1) - второй
> Что значит это
> the 1-of-N output encoding is used
Число n просто представляется в виде вектора [0, ..., 1, ..., 0] с размерностью N и единицей на n-ом месте.
https://en.wikipedia.org/wiki/One-hot
>Что значит это
>the 1-of-N output encoding is used
Пиздец вопросы у тебя. Это классика блядь, это знать нада! кодирование "1 из N". Нужно для задания классов, например если тебе нужно закодировать для нейроночки разные объекты, скажем, волк коза и капуста. Если ты эти объекты задашь просто цифрами 1, 2 и 3, то для нейроночки коза будет чем-то средним между волком и капустой, а это абсурд. В случае кодирования 1 из N волк, коза и капуста представляются в виде 3хмерных векторов 001, 010 и 100.
В его книге написано, что это будет объясняться чуть позже.
Русский, ты говоришь на нем?
Дропаут — это один из разновидностей концовки пера вилки, куда устанавливается ось колеса. Благодаря дропауты вы легко можете снять колесо, не ослабляя цепь.
Все дропауты можно разделить на горизонтальные, вертикальные.
Горизонтальные дропауты — используют на велосипедах без заднего переключателя скоростей. Благодаря этому дропауту, можно легко менять положение колеса и натяжку цепи. Особенностью является то, что нужно сильно зажимать болты или эксцентрик, что бы колесо не скривилось, после натяжения цепи.
Вертикальные дропауты используют для велосипедов, у которых есть задний переключатель скоростей. Дропаут не позволяет менять положение колеса и натяжку цепи, поэтому для натяжения нужно использовать переключатель с натяжителем, или внешний натяжитель.
Так же на некоторые велосипеды с одной скоростью или велосипеды использующие внутреннюю трансмиссию ставят вертикальный дропаут вместе с эксцентриковой кареткой, что бы регулировать натяжение цепи.
На современных велосипедах, которые оснащены системой переключения передач задний переключатель крепиться к держателю на заднем правом дропауте или на специальный накладной кронштейн — так называемы петух.
В зависимости от рамы, расстояние между дропаутами может меняться.
Так же дропауты разделяют на штампованные и кованные.
Возьми производную Взял? Есть скачёк в нуле. Так-то сейчас leaky ReLU пиже.
Я наконец допетрил, как сделать так, чтобы он не дрожал и все, что пытались применить до этого - дерьмо.
Ведь по сути у нас есть манипулятор, который хоть и работает аккуратно Хотя кому я пизжу, китайское говно, никто не может себе позволить, спасибо, что он хотя-бы сенсорный
Но создает вибрацию, так вот, оказалось, что если взять материал, который намного больше вибрирует и просто минимизировать его вибрацию.
Блджад, можно это запатентовать и продать пиндосам?
И программа с обратным маятником хоть и была правильной, но легко аккумулировала вибрации, которые и наебывали робота.
Да, нейронка может сделать так, что робот на обратном маятнике будет ходить нормально, но по сути она просто в определенный момент не даст вибрации наебать систему и будет дерганным и медленным, как сука.
Также это заставляет подумать о том, что момент инерции вообще-то надо нивелировать и в качестве передаточного механизма использовать гидравлику.
Ебаные школьники-нейроманты. Короче, для даунов есть вольфрам.
http://www.wolframalpha.com/input/?i=max(0,+x)'
>>794468
Кстати, что привлекает школьников, которые даже матана нихуя не знает в нейронки?
Они на что надеются, что они писать будут с ними, блядь?
ППЦ, столько ебали мозги с экспонентами, чтобы потом показать что они нахер не нужны?
То-есть временный хайп заставляет их идти изучать целую отрасль в науке? Охуеть.
Кстати, что с процессорами под нейронки, когда уже будут нормальные, а не жрать дерьмо на дедике за 15к?
> Сууука!
Что-то ты какой-то нервный, держи себя в руках.
> Там есть кнопка step-by-step.
Ага, за денюжку.
Не хочу платить. Хочу ебать.
Раньше бесплатно было. Телепортировал объяснение тебе за щеку.
Короче, слева от нуля функция равно константе(нулю), а её производная ноль. Справла там где максимум обращается в x производная равна единицы. Всё. Нелинейность это всё что НЕ линейность, а линейность имеет производную всюду равную однёрки. Проще, ReLu составляется из двух линий, а не из одной.
Кстати, здесь есть ананимасы, которые вынуждены производить огромные вычисления, а не ебаные школьники, на чем вы гоняете свои нейронки?
Я с шагоходом заебался, кстати, спасибо шапочке за ссылку где объясняется за квадратичные приближения с огромным объемом данных, полезно.
Ты самое интересное же пропустил. Почему нет производной в нуле? Почему в нуле нельзя определить как 0, например?
1. клёвое название - роботы, захват мира, искусственный интеллект, етц
2. обучать их веселее чем другие модельки, итеративный градиентный спуск создаёт иллюзию что комп и вправду "учится"
3. легко усложнять модель до бесконечности - прост слоёв добавь))
Думаю, так. Видишь ли они даже акценты не правильно расставляют: начинают ковыряться в нейронах, выбирать нелинейность, реализовывать персептрон, не смотря на то, что глубокое обучение завязано именно на глубины.
Вообще можно до этого >>794490 школьника доебаться.
Можно, но на это поебать. Есть производные справа и слева, есть усреднённая производная, есть ещё всякое говно в p-адическом анализе и суперматематике. Одним словом это не важно.
Добавь ещё один
4. не нужно уметь в математику и статистику; достаточно быдлокодить; есть видеокарта для игор.
почему школьникам так нравятся нейроночки
1. клёвое название - роботы, захват мира, искусственный интеллект, етц
2. обучать их веселее чем другие модельки, итеративный градиентный спуск создаёт иллюзию что комп и вправду "учится"
3. легко усложнять модель до бесконечности - прост слоёв добавь))
4. не нужно уметь в математику и статистику; достаточно быдлокодить; есть видеокарта для игор.
Ну, по правде математика в самих нейронках и правда не очень нужна, обучить можно и обезьяну, в каких ситуациях что делать.
Математика ведь будет нужна во всем остальном, там данные надо отсортировать, там подготовить обучающий сет, там оптимизировать вычисления, там можно использовать эффективнее не нейронки.
В книжечке которая, кажется, зовется она Machine Learning an Algorithn матана вообще особо нету, а в том что есть используются условные обозначения и все можно понять просто из кода.
Да, если говорить про инженерную составляющу. А ведь есть ещё такой важный пункт, как проектирование эксперимента так, чтобы можно было интерперетировать результаты и не охуевать. Во-вторых, есть ведь чисто математическая теория, которая сопрягается с граф-моделями, приорами, представлениями, EM, вариационным выводом и прочими интересными ништяками.
Ну, в том, где сейчас используются нейронки оно особо и не нужно, заказчики сами о них хуй что знают и их смело наебывают все, кому не лень.
Достаточно посмотреть заказов на фрилансе и убедиться в том, какая хуйня там.
А в научных вычислениях или даже нашем шагоходе такая пиздецовая вакханалия творится, на кафедре 3 инженера и не один из них матана нормально не знает, а программисты физику не знают, вот и пытайся работать с такими, Сколково, блять.
Странно как-то вы рассуждаете.
Почему не в плане задач, возможных идей для проектов, для реализации которых требуется машинное обучение?
Хочу сделать X, поэтому мне нужно изучить A, B, C, нет?
>Почему не в плане задач, возможных идей для проектов, для реализации которых требуется машинное обучение?
Ты сам понял, что написал?
С хайпом ничего не поделать. Можешь попробовать написать книжку как в своё время сделал Минский.
Если ты из акселератора, то смело доёбывайся до Фонда с тем, чтобы выйти на экспертов, которые есть в Ск.
>>794545
Двучую исследователя. Работаю над тем, чтобы структурировать говно и связать его с другими методами, подходами, идеями.
>Почему не в плане задач, возможных идей для проектов, для реализации которых требуется машинное обучение?
Перепиши еще раз, использовав синонимичные слова, более четко выразив смысл предложения
Ну и нахуя ты принёс это говно. Всем известно, что в Сколково только пилят.
http://iitp.ru/ru/researchlabs/1145.htm
>Математические методы предсказательного моделирования
ХАХАХАХА, БЛЯДЬ.
Предсказательного, сука.
Кстати, я знаю этого профессора.
А вангует кто? Существуют ли ванговательные модели?
сасай
Randomized ReLU
The second variant is called randomized rectified linear unit (RReLU). In RReLU, the slopes of negative parts are randomized in a given range in the training, and then fixed in the testing. As mentioned in [5], in a recent Kaggle National Data Science Bowl (NDSB) competition, it is reported that RReLU could reduce overfitting due to its randomized nature. Moreover, suggested by the NDSB competition winner, the random αi in training is sampled from 1/U(3,8) and in test time it is fixed as its expectation, i.e., 2/(l+u)=2/11.
сколково - заебок!
Лучше не найдёшь, вся инфа по этим моделям разбросана в виде отрывков по разным статьям. Читай монстра, хотя его никто не осилил.
https://people.eecs.berkeley.edu/~wainwrig/Papers/WaiJor08_FTML.pdf
Спасибо, анон.
Наткнулся на то, что в лекция очень неаккуртно недоказывает изоморфиз граф-модели и класса распределений, а потом из этого ещё и алгебра строится. Хочу формальнее.
Кстати, в определении процедуры d-разделения стоит введение топологии порядка. Как это связано с топологией на классе вероятностей? Думаю, что можно построить какую-нибудь процедуру, которая бы ввела структуру порядка на сигма-алгебре.
Ещё была мысль вычитать Дафни Келлер, кажется. Она ведь тоже вроде стояла у истоков.
С этим тяжелее, ибо мы, слесари, об этом даже не задумываемся.
Второй - родственник SVD.
на есть kaggle.com задачки
also https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1
Я только вкатился. Но вроде капчу наебывать можно.
Ни о чём. Я книжки норм нашёш. В основном здесь школьни тусуют тред уровна php.
Говно можешь поковырять.
Давно мечтаю запилить что-нибудь связанное с рисованием нейронными сетями. В итоге хочу запилить хуйцегенератор. Пользователь выбирает фотографию, а моя штука как бы перерисовывает её из хуйцов. Как Google DeepDream, только вместо машин, домов и собак будут хуйцы и, например, вагины.
С чего мне начать? Какой ЯП для этого посоветуете? Какие готовые решения и фреймворки существуют?
Да ни с чего, дебил, блять, нейронки - это тебе не хуета, раз-два, а месяца 2 изучения матана, месяц изучения питона и хуй знает сколько времени убьешь на то, чтобы научить сеть обрабатывать фото.
В гугле на это убили сотни тысяч человекочасов, а ты в одиночку хочешь запилить, совсем дебил?
Я уже учил теорию, так что не проблема, тем более я не собираюсь с нуля писать это всё, в пиздон и прочие популярные ЯП я умею. Я попросил именно или фреймворков или готовых решений или просто в какую сторону копать.
Кто-то явно уже запилил как минимум одну библиотеку, упрощающую написание подобного.
Даун, плиз. 3 месяца это немного.
Вот именно что гугл уже запилил, осталось взять готовое и перепилить под свои нужды.
Два чаю адеквату.
А книги в шапке чекнуть не судьба? Это топ уровень, тем более нейронки не привязаны к языку и реализовать их можно на чем-угодно, в гугле информации полно, хули ты сюда пришел?
>Даун, плиз. 3 месяца это немного.
Это если у тебя есть свободное время.
Шапка не под эту задачу, всю шапку, все статьи и книги, которые в ней есть, долго читать. Не нашёл ничего тематического в гугле. А тут ответят как лучше, исходя ещё и из личного опыта. У меня есть свободное время, однако под мою задачу нужны конкретные библиотеки, а не изучение всего подряд.
>все статьи и книги, которые в ней есть, долго читать
Просто
>У меня есть свободное время, однако под мою задачу нужны конкретные библиотеки, а не изучение всего подряд.
Можешь съебать отсюда, а то подайте ему все на блюдечке с золотой каемочкой, нахуй всю статистику, ведь он у нас ЯП знает.
Да и тем более мог почитать выше тред и поискать по прошлому, а не засорять новый, ничего лучше, чем книгу тебе никто и не даст, нейроночки - это тебе не Питон, порог вхождения высокий и из гугла не изучается за полчасика.
Нейроночки — лишь подход к решению задач. Есть разные либы для различных частных случаев задач, решаемых ими. Я всего лишь спросил какую лучше всего использовать для моей. Так что сосни хуйца, даун.
>ведь он у нас ЯП знает.
А ты ньюфаг, осиливший один недоязык и разобравший пару примеров с нейронными сетями и тебе с меня горит?
Нейроночка - это тебе не лопата, а целая теоретическая база, ядерная физика тоже подход к решению задач, может тебе и по ней также подсказать?
Да и ты мог заметить, если бы прочитал тред, что никто тут этим не занимался.
Мне не нужно знать не единой формулы из ядерной физики, если кто-то запилит готовую библиотеку для работы с ней. Да ладно? Не занимался? А вот мочератор /pr/ посчитал, что занимался и послал меня в этот тред.
Шизик, это ты?
В нейроночках нужно знать принципы их работы.
Numpy держи, вперед, пиши.
>Да ладно? Не занимался? А вот мочератор /pr/ посчитал, что занимался и послал меня в этот тред.
Он тебя послал в тред ML, а не говорил, что тут это разбирали и тебе помогут
Спешите видеть, петух-семён обосрался.
Да и нейроночка - это подход, верно, но он не состоит из чего-то готового.
Вот дал я тебе Numpy, покопаешься ты в массивах и нихуя не поймешь.
Это как игра на скрипке, хуй ты что сумеешь без знаний того, как оно устроено и работает.
А то, что ты тут ведешь срач уже показывает тебя полностью, давно бы в гугле нашел или треды перечитал, но нет же, ждешь готового, а говна наверни, ублюдок.
Нейроночки, также как и другие дисциплины, каким-то образом связанные с человеком, интеллектом (типа теория принятия решения, методы анализа нечеткой информации), недостаточно сформированы, и любая задача требует индивидуального подхода к ее решению (требуется подбор структуры сети, подбор функций, метода обучения и т.д.). И хоть у тебя есть библиотека со всеми этими структурами, функциями, методами обучения, ты нихуяшеньки не сможешь сделать толкового, не зная основ (что где вообще применяется в более общих случаях) и не изучая кучи дополнительной лит-ры с исследованиями по конкретным направлениям (какие новые методы и в каких конкретных задачах применяются).
Завтра ищешь в интернете книжку "Neural networks for pattern recognition". Похуй если ничего не поймешь. Затем идешь на deeplearning.net и изучаешь библиотеку theano от корки до корки. Потом зубришь, именно, сука, вызубриваешь алгоритм обратного распостранения ошибки - чтоб от зубов отскакивало. Когда напишешь свою первую нейроночку, по пути поучавствовав в kaggle компетишенах, покупаешь и изучаешь нормальную видеокарту, рекомендую NVIDIA GTX1080. Как переделаешь нейроночку, чтобы выдавала по крайней мере 5 тысяч предсказаний в секунду, можешь идти дальше - тебя ждет увлекательный мир диплёрнинга. CNN, RNN, сверхглубокие машины больцмана, tensorflow. Отсос веб макак / просто неудачников типа нечётко-питуха или сёрло-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.
Это же просто либа для машинного обучения, что в ней особенного? Во что такое может она, во что не нельзя написать на питоне в несколько строк кода?
С её помощью можно быстро, практически без каких-либо знаний нейронных сетей, написать что-то типа гугл дипДрим, только со своими пикчами вместо собак.
И что гугл от нее хотел, дабы хомяки сами освоили технологию?
Кстати, кто работает в направлении нейронных сеточек? Есть тут фрилансеры, которые расскажут, что делают вообще?
Почитай интервью или техобзоры на маскарад и призму.
Я прочел 1/4 книги, стоит ли читать дальше? Там вроде будет углубление по всем темам, рекуррентные сети, сверточные, распознавание образов.
Но нахуя все это? Нет, сама нейронка в том виде, которая она нужна была мне и для моих целей у меня теперь есть.
Стоит ли идти дальше, есть ли фриланс на нейронках или знаний питона и 1 книги недостаточно будет?
Да, видимо недостаточно, везде надо знать либо nlp впридачу, либо нужно быть intermediate минимум, а заказов для entry level почти нету.
> nlp
Нейролингвинистическое программирование? Я что-то пропустил, и роботы уже научились понимать человеческое поведение?
Обработка естественного языка
А есть какой-нибудь список этих главных компонентов и что-то вроде "хеллоуворлдов", которые должен уметь написать любой человек, который работает в машинном обучении?
Завтра ищешь в интернете книжку "Neural networks for pattern recognition". Похуй если ничего не поймешь. Затем идешь на deeplearning.net и изучаешь библиотеку theano от корки до корки. Потом зубришь, именно, сука, вызубриваешь алгоритм обратного распостранения ошибки - чтоб от зубов отскакивало. Когда напишешь свою первую нейроночку, по пути поучавствовав в kaggle компетишенах, покупаешь и изучаешь нормальную видеокарту, рекомендую NVIDIA GTX1080. Как переделаешь нейроночку, чтобы выдавала по крайней мере 5 тысяч предсказаний в секунду, можешь идти дальше - тебя ждет увлекательный мир диплёрнинга. CNN, RNN, сверхглубокие машины больцмана, tensorflow. Отсос веб макак / просто неудачников типа нечётко-питуха или сёрло-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.
А то мне неохота идти в Джангу и писать сайтики за 300.
>>795750
Найс паста, только где про графические библиотеки, работу с лингвистикой?
Если посмотришь на апворке что-то связанное с машинным обучением вообще, то там везде что-то такое требуют.
Теано шляпа. Самые новомодные библиотеки для диплернинга все рассчитаны на распределенные вычисления. MXNet, TensorFlow как вариант. В последнем пока жмутся полное распараллеливание плебеям выкладывать, а вот в MXNet все есть.
Вот еще какое дело. Тута принято хейтить R, покажите мне где еще есть столько готовых алгоритмов на все случаи жизни? https://cran.r-project.org/web/views/ это только вершина айсберга, более 8500 пакетов, во многих не по одному десятку алгоритмов и методов.
deeplearningbook.org
С учётом, что могу в линал, матан, тервер и матстат
И со знанием всех этих библиотек - свободная касса.
>Вот еще какое дело. Тута принято хейтить R
Да потому что это очередное новомодное никому не нужное говно.
R не умирает, но Python сделал много нашествий в тех областях, где R имело обыкновение быть единственным языком считается. Это довольно ужасный язык, так что, вероятно, продолжит медленно снижаться. Но, как Fortran, мы никогда не избавиться от него.
Сука, кто из нас человек, а кто из нас нейронка и почему нейронка чмырит R?
Сраный тред машинного обучения, хуй, что поймешь.
Не расстраивай нейроночку.
Пиши на Python.
А классификация у нейронок после обучения - это просто выбор самого близкого?
для регрессии она не нужна тебе
> А классификация у нейронок после обучения - это просто выбор самого близкого?
выбор - это целая теория
> В последнем пока жмутся полное распараллеливание плебеям выкладывать
C чего ты взял? Ничего там не жмутся.
Скорее ты его не понял. Делай скриншот страницы, где автор мудак.
Вот смотрю, на чем пишут ИИ и прочий матан: MATLAB, R, Julia, Fortran, Python/NumPy. Всяких этих МОНАДОК нету. Так о какой научности своих языков пиздят борщехлебы?
О классах, типах и категоргиях, хотя недавно была серия тредов, где поясняли, что на хачкеле нельзя даже накодить свою категорию.
Стоящий?
If only condition is given, return the tuple condition.nonzero(), the indices where condition is True.
Да и вообще? Как получается так, что нейроночка должна из train = array[::2,0:4] сделать traint = target[::2]
В одном же 4 элемента, а в другом 3, она их как-то сожмет? Как она распределит?
Вот тред ИИ-богов, там подскажут: >>790256 (OP)
А здесь только школота и жирные тролли-гансоебы вроде меня.
Упс, не туда запостил братишки.
У меня есть массивы данных с 4 столбцами.
У меня есть таргеты с 3 столбцами.
И причем, если число слоев меньше 4, то классификацию он отказывается производить и просто минимизирует функцию ошибки.
Как это работает? Я прочитал книгу и ничего не понял, он на 1-м слою отдает по 1 input nodes на каждый вертикальный столб массива и между 3 слоями делит активацию?
А нет, напиздел, производит он классификацию и с 3 слоями и с 2, но в таком случае я совсем нихуя не понимаю.
Или он ставит только в выходном слое 3 нейрона и принимает все параметры от них? И тогда вот эта схема на пике правильная?
Обмазываться.
И output nodes он берет из образца target?
>lastPoint = np.shape(PNoz)[0]-t*(k+1)
Зачем вот здесь мы используем (k+1)
Это для смещенной ноды, верно?
а хотя нет, еще настраивается, хотя медленнее.
Аноны, ну вот, представил всю информацию в доступном виде, нахуй там k+1
Это закономерность временного ряда, верно?
иншала
Аноны, а все-таки объясните мне, каким образом нейронная сеть может что-то прогнозировать?
Все что она может - это настраивать свои веса, если она проанализирует информацию о температуре за текущие 10 лет, то как она спрогнозирует информацию о температуре на следующий год? Она же по сути просто решила проблему регресии и может выдать нам сильно усредненные данные.
Я понимаю, что она может спрогнозировать какую-нибудь функцию, где значения, например, синуса будут повторяться.
Тут такой же принцип? Самое усредненное значение и выдается за прогноз?
У меня не такой хороший уровень английского.
А все-таки интересно, какой смысл пихать огромное количество данных на нейроночку? Вот в моей книге она пусть и проанализировала кучу данных, но прогноз то не выдала, каким образом это происходит?
Нейроночка же заметит только самую общую тенденцию, типа положительной динамики по расширению очка у негритянских младенцев в течении последнего года по сравнению с предыдущим и покажет это на графике.
Или мы даем сети какой-то один из параметров на вход, а она используя свои веса дает нам значение?
Хотя, если ввести классификацию общих тенденций, то можно нейроночку использовать в качестве мощного инструмента для прогнозирования
То-есть сначала пытаемся гонять на подобии сегвея Причем учитывая только то время, когда он движется и через некоторое время такой езды узнаем показания мотора для различных положений С графиком, лол, заодно и будет видна зависимость от угловой и общей скорости
Или можно указать положение аппарата в таргеты и дать сети, обученной решать проблему регрессии подбирать показания мотора?
>C чего ты взял? Ничего там не жмутся.
Там жи нет поддержки распараллеливания вычислений между физически разными девайсами. Или уже зарелизили?
Ну ок. Возьмем байесовские методы. На пистоне хотя бы треть от этого https://cran.r-project.org/web/views/Bayesian.html найдется? А это только самое основное рассмотрено, реально там в несколько раз больше.
Суть-то в том что на пистонах нихуя и нет кроме 1,5 распиаренных библиотек под модные глубокие нейроночки, которые все равно неработоспособны на реальных задачах (а не манядатасетах типа мниста) без нескольких видеокарт, каждая стоимостью с годовую зарплату твоей мамки. Остальной тамошний функционал есть даже в екселе.
Подход еще не столь распространён. Пока ваши конкуренты используют устаревшие технологии на базе нечоткой логики или классического подхода с точечными оценками, вы сможете в разы поднять свою эффективность, задействовав EP - последнее достижение науки в области вариационных методов. Но это еще не всё.
В жизни любого ML-проекта наступает момент, когда он превращается в продукт и сопровождению проекта привлекаются дополнительные разработчики. На этом этапе распространённость и доступность методов начинает играть решающую роль. Благодаря активной популяризации бейсотвкого вывода в среде коммерческих разработчиков, а также поддержке со стороны лидера разработки методов машинного обучения - университета Кембриджа, Вы можете быть уверены, что в будущем Вам не придется переписывать свой проект как это было с печально известной разработкой Нечётко-питуха.
Бейс обеспечит вам гарантии успеха и стабильности Ваших начинаний. Выберите Бейсовский вывод сейчас и через несколько лет Вы сможете наслаждаться результатами своих трудов - успешным проектом, выполненным с учётом всех современных технологий и индустриальных стандартов. Бейс - Ваш проводник к успеху в мире машинного обучения. Выбирайте Бейсовский вывод.
Да везде. В отличие от нейроночек для нечетких контроллеров очень просто доказать глобальную и локальную устойчивость, что позволяет использовать ихв промышленности. Поезда на нечетких контроллерах в Японии с 1987 года ездят, сейчас уже и во многих развитых странах. Даже в Дубаях есть такое метро. Половина мирового производства цемента - это установки на нечетких контроллерах. Лень все перечислять, применений реально полно, фотоаппараты, рисоварки ,стиральные машинки и прочее. И все это уже непервое десятилетие. А вот нейроночками и то только сверточными толькогугл и занимается и то последние года 3.
Ну вот, раз так давно используется, то питон в этом и не нужен.
А Нейроночки активно развиваются.
>Нейроночки активно развиваются.
Ничего там не развивается, только слоев добавляют, да сигмоиды заменили на релу. А так все на уровне первых работ Лекуна, 80-е годы. Это сверточные нейроночки, остальное впрактических целях вообще малоприменимо или вообще неприменимо.
Учатся применять везде и расширяют, заменяет дохуя того, что было раньше, это все медленно, но нейроночки выгрызают себе место.
В конце-концов хоть что-то развивают.
Сверточные нейроночки могут заменить только сверточные нейроночки. Хуйня,которая по месяцу сходится на многопроцессорных теслах, не заменит нчечткий контроллер ,который можно реализовать на микроконтроллере и вкорячить в лбое устройство. Ну и я упомянул главную причину, почему нейроночки не использут в промышленности - они работают как аллах на душу положит, для них нет строгих доказательств устойчивости, а это обязательное требование для внедрения изделия в промышленности. Никто (в особенности из ответственных лиц) не одобрит изделие, которое теоретически может спалить ползавода или со всей дури посадить поезд метро с пассажирами на тупиковую призму.
Ну видишь ли, это все только пока, в будущем будут и мультипроцессоры под них.
Нейроночка хороша тем, что она по сути как волшебная палочка может выступать и делать все, что угодно.
>Нейроночка хороша тем, что она по сути как волшебная палочка может выступать и делать все, что угодно.
Для нечетких моделей давно доказаны универсальные аппроксимационные свойства. При этом, в отличие от нейроночек, знания представлены в интерпретируемой форме, а не как черный ящик, который вроде работает, а как - хуй его знает (а вдруг еще и хуй не знает).
И кому это устаревшее дерьмо сейчас и здесь нужно?
Те, кому оно нужно им уже давно пользуются, а не лезут сюда, ты бы еще залез к чувакам, которые новые двигатели делают и начал им про преимущества паровых рассказывать.
А ВОТ НА ЭЛЕКТРО-ДВИГАТЕЛИ АККУМУЛЯТОРЫ ОГРОМНЫЕ НУЖНЫ, ИМИ ТОЛЬКО ОДНА КОМПАНИЯ ЗАНИМАЕТСЯ
ЛАМПОЧКИ НЕ НУЖНЫ, СГОРАЮТ И ПОЛЬЗУЮТСЯ ИМИ ТОЛЬКО В БОЛЬШИХ ПОМЕЩЕНИЯХ, СВЕЧКИ НАМНОГО ЛУЧШЕ
Ракеты не долетят до космоса, давайте пользоваться Дирижаблями
Для Дирижабля подъем гарантирован
Поэтому нечетко-петух должен съебать нахуй, дикарь.
Ага, а концепт танка появился еще в 13 веке.
Я? Нисколько, но там, где участвовал, на первых местах всегда ебаные нейроночки, и никогда - твоя шизофрения. Хотя казалось бы. Миллионером стал бы.
Почему у тебя столько противоречий в твоем посте. Это что, нечеткая логика изложения мыслей?
Говоришь, что применение принципиально невозможно, тут же говоришь, что суть нейронок - аппроксимационные свойства, и что они доказываются рядом теорем. К тому же теоремы, которые ты назвал, относятся к сходимости обучения системы (в т.ч. и нечетких моделей). Конкретно для перцептрона, например, уже доказана теорема сходимости. Не думаю, что для более сложных систем невозможно доказать нечто аналогичное как и для других систем; мб и потруднее будет, но нейронки все-таки развиваются, и через какое-то время обязательно все будет.
сколково
>Говоришь, что применение принципиально невозможно, тут же говоришь, что суть нейронок - аппроксимационные свойства, и что они доказываются рядом теорем.
Я писал, что применение нейроночек в промышленности невозможно из-за отсутствия возможостей доказать устойчивость и стабильность. До сих пор существут только общие советы по параметрам нейроночек для обеспечения нормальной сходимости. А нужны строгие доказательства устойчивости алгоритма при любом возможном режиме функционирования. Нейроночки слишком сложная ебань, чтобы существовали подобные доказательства для общего случая (любая нейроночка и любая задача). Даже если такое доказательство и возможно, оно будет слишком сложное, чтобы использоваться на практике. Тогда как те же поезда метро на нечетких контроллерах давно и успешно работают.
Твои нечеткие модели не могут в искусство.
А учитывая, что нейросетки это всего-лишь аппроксимационная модель, состоящая из множества однотипных простых узлов, объединенных в определенную структуру, и то что они могут извлекать нужные фичи из данных, а также порождать что-то новое, или по крайней мере какой-то "идеальный" образ, это создает еще больший интерес, и вообще говорит о многом.
Ну и как тебя выше ткнули, нейросетки-таки мощнее во множестве задач.
Пиздуй в тред по теории управления. Здесь машинным обучением занимаются, а не разработкой рисоварок.
Я до этого пользовался тем, что менял параметры для весов 1 слоя и всех остальных скрытых, все выглядело вот так вот:
deltah = self.hiddenself.beta(1.0-self.hidden)(np.dot(deltao,np.transpose(self.weights2)))
updatew1 = eta(np.dot(np.transpose(inputs),deltah[:,:-1])) + self.momentumupdatew1
updatew2 = eta(np.dot(np.transpose(self.hidden),deltao)) + self.momentum*updatew2
self.weights1 -= updatew1
self.weights2 -= updatew2
А как этот код обновить в согласии с градиентным спуском?
Универсальная типа?
δo(κ) = (yκ − tκ)yκ(δκK − yK)
А причем тут жесткий диск? Речь о том, что для перцептрона на крестах не нужны 1-2 гига только пистона со всеми зависимостями. Это же 100% детектор индусского кода и быдлокодеров-авторов. Даже в наше время, вот есть библиотека для диплернинга https://github.com/dmlc/mxnet от автора любимого всеми школьниками xgboost'а. с врапперами под все нормальные ЯП. Меньше 2 мб. Пистон поддерживается, но не обязателен как во всяких теанах.
Нет же блядь, надо выебнуться, понимаешь, насколько ты пидор?
Почему не дать код, чтобы все понятно было?
>βa(1 − a)
Это равно записи
>self.beta(self.outputs-targets)self.outputs*(1.0-self.outputs)
сегодня*
Бля, ебать я даун, пары формул испугался.
Я понимаю, что если скрытый слой 1, то совсем похуй, или в случае с дополнительными скрытыми слоями считать как для входного слоя?
В книге написано, что:
>Note that we can do exactly the same computations if the network has extra hidden layers between the inputs and the outputs. It gets harder to keep track of which functions we should be differentiating, but there are no new tricks needed.
Пиздец, наркоманы тут сидят. И не лень было рисовать. Нечего возразить @ нарисуй смищную картинку.
Лол, ты всерьез считаешь, что ведешь серьезный диалог с кем-либо?
Никому не интересно твое говно здесь разбирать, а вот поугарать над нечетко-петухом - весело.
Да и ты сам виноват.
Мне кажется тут весь тред чувак поехавший типа золотца сам с собой разговаривает притворяясь то нормальным, то мелкобуковкой, я уже второй тред этот пиздец наблюдаю, изредка люди заходят с вопросами как вкатиться, видят шизика и убегают
Также я интересуюсь криптовалютами. Думаю, с них начать изучение этой темы было бы намного проще - не нужно ни лицензий, ни больших вложений (благодаря высокой степени делимости всех криптовалют, так повелось ещё с биткоина).
Насколько я понимаю, основная работа таких программ - анализ финансовых новостей из множества источников, т.е. обработка текста на естественных языках.
Может кто подсказать, с чего начать? Как решить, какие источники рассматривать? Какие именно характеристики текста нужно вычислять?
По машинному обучению смотрел лекции ШАДа и курс от Стендфорда (ml class), но практикой не могу себя заставить заняться - хочется реальных задач, а не абстрактных. Понятно, что потом всё равно нужно будет решать абстрактные задачи чтобы интуитивно уже чувствовать, какой алгоритм может быть применим в конкретной ситуации. Но начинать с этого нет совершенно никакой мотивации - это не даёт никакой общей картины.
На четверть
Вот это подойдёт как источник новостей? Как часто он присылает письма при конфигурации "Частота отправки: По мере появления результатов"? Что делает фильтр "Количество: только лучшие результаты"? Убирает дубликаты (копирайт)?
А все, понял, считать как для последнего слоя.
я думаю, что машинное обучение не так много используется в торговле, потому что торговля на самом деле не что-то легко формализуется как проблема машинного обучения, несмотря на что, будучи нелогичным к компьютеру ученого.
Для начала открой для себя технический анализ и пойми чем он отличается от фундаментального.
>ты всерьез считаешь, что ведешь серьезный диалог с кем-либо?
Для серьезного диалога нужно чтобы оппонент что-то понимал в предмете. Этого я не вижу, поэтому говорить можно только о серьезном монологе.
>Три аксиомы технического анализа
>Движения цен на рынке учитывают всю информацию
>Согласно этой аксиоме вся информация, влияющая на цену товара, уже учтена в самой цене и объёме торгов и нет необходимости отдельно изучать зависимость цены от политических, экономических и прочих факторов. Достаточно сосредоточиться на изучении динамики цены/объёма и получить информацию о наиболее вероятном развитии рынка.
Согласно этому постулату, анализ новостей вообще не имеет смысла. Но, тем не менее, он проводится многими. Значит, меня интересует именно фундаментальныйанализ?
Если ты сделаешь фундаментальный анализ в виде, пригодном для использования в алгоритмах машинного обучения, его можно и совместить с техническим. Как представить новости и т.п. в виде набора векторов? Тут надо смотреть в сторону латентного семантического анализа (LSA), ящитаю. Я немного думал в этом направлении, но решил, что особого смысла в этом нет, т.к. колебания показателей (цен, объемов, показания индикаторов и т.п.) отражают в т.ч. и новости, как и написано в твоей пасте.
Мне чтобы уметь такое придется всю эту тонну литературы с оп поста изучать?
> Да.
Хм, я не читал ничего из ОП-поста, но помню вузовский курс по НС и прочёл несколько статей по генетическим алгоритмам, и мне кажется что ничего сложного в этом нет.
Я сильно заблуждаюсь?
>Хм, я не читал ничего из ОП-поста, но помню вузовский курс по НС и прочёл несколько статей по генетическим алгоритмам, и мне кажется что ничего сложного в этом нет.
Ну а ты попробуй.
Если мои предположения подтвердятся, то я буду глупо себя чуствовать потому что вложил время в проверку очевидного.
Если не подтвердятся, то потому что ошибался.
Есть 3d уровни из игры, представляющий собой обычные текстовики с перечисленными объектами, их свойствами и положением (грубо говоря).
Цель, используя нейросети поиграться со всеми этими объектами. Создавать уровни на основе других уровней, применять стиль одного уровня к форме другого, ну и всё такое прочее.
Какой тут лучше всего взять язык, фреймворки, библиотеки? Ну и если кто шарит в теме нейросетей, можете дать общих советов?
Нейросети надо показать цели.
Видишь ли, нейросеть - это аппроксиматор функции, она с некоторой ошибкой будет делать то, что ты от нее потребуешь.
Если ты хочешь, чтобы она перемещала кирпичики - то можно дать ей форму и она как-нибудь заполнит пространство.
Можешь попробовать сделать так, чтобы нейросеть из твоих набросков понимала, как уровень устанавливать.
Но фантазировать нейронная сеть не умеет, она не геймдизайнер, ты можешь ей выставить требования к чему-либо и она по ним построит.
>>799153
Я думаю, что как-то всё таки можно это реализовать.
https://github.com/jcjohnson/neural-style
https://nucl.ai/blog/enhance-pixel-art/
Я вот охуел от подобных вещей, вот и решил начать изучение этой темы, параллельно делая то, что интересно.
Мне интересно написать аркадку для начала, где нейронная сеть будет на 2д карте на технике бороться с людьми.
И я не знаю, как сеть реализовать, тут ведь несколько подходов, но в основном все же будет зависеть от скорости, положения.
Я могу применить оценочный алгоритм?
То есть хочу, чтобы сеть выбирала наилучшее из положений и запоминала его, используя наиболее часто, прямо как люди, лол.
Кстати, такое где было реализовано?
Не умеет, это никакая не фантазия, нейронная сеть ищет элемент на 1-й картинке, который соответствует элементу на второй и перемещает его.
>>799164
Это другой подход, тебе для твоих карт нужны некоторые принципы.
Это не фантазии, а поиск и усиление по выбранным свойствам. Обычная машинная работа без привлечения сознания, фантазирует лишь оператор, выбирая как настраивать эту машину.
Можно даже юзать алгоритм Монте-Карло.
Но он вроде вычисляет для линейных моментов стратегию, а я хочу, чтобы машина мыслила масштабно.
Хотя по идее распределение приоритета можно выделить тоже нейронной сети, верно?
То-есть, если при подходящих условиях выстрелить по 5 точкам лучше, чем по 1, хоть и вероятность попасть - меньше, то машина так и сделает, верно?
>>799170
Вы типа знаете как на самом деле работает фантазия и в чем ее "биологическая" сущность?
Может быть это и есть фантазирование, просто для такой небольшой машины она несколько примитивна.
Кто знает до чего доберутся нейросети.
Знаем, фантазия работает вовсе не так, у человека в голове есть подобный алгоритм, но никаким боком к фантазии он не относится.
Нейросеть может написать лучший сценарий для аниме из всех, что ты видел в текущем жанре.
Но нового жанра она не создаст.
Хотя нейронная сеть может кое-чему научиться.
Если бы мы могли наблюдать за полным выбросом эндорфинов и реакции у людей, то ничего не запрещает нейронной сети оценивать все точно так же, как и людям.
Любая новая идея, придуманная человеком - комбинация уже известных идей. Это всегда так и по другому не может работать; человек не может оперировать тем, что он никогда не видел.
Например: как выглядит иная вселенная, не подобная нашей? Хуй знает. Она может выглядеть так, как мы и не представляем, и никогда не сможем представить. Единственное что мы можем - это только отталкиваясь от идей нашей вселенной видоизменить их каким-то образом и как бы выдумать другую вселенную, якобы не такую как у нас.
>Любая новая идея, придуманная человеком - комбинация уже известных идей
К этому алгоритму это не относится.
>комбинация уже известных идей
А это хоть и правда, но число таких комбинаций бесконечно, ибо в мире уже дохуя всего, чего в природе и во вселенной ты не найдешь.
>К этому алгоритму это не относится.
>нейронная сеть ищет элемент на 1-й картинке, который соответствует элементу на второй
>Это не фантазии, а поиск и усиление по выбранным свойствам
>>799189
>число таких комбинаций бесконечно
В этом и суть творчества/изобретательства, поиск каких-то особенных деталей в изначальном образе, которые при композиции с другими деталями/идеями дадут что-то новое.
Под такое определение творчества подходит вообще любой перебор данных.
Этот алгоритм просто сопоставляет элемент с 1-й картинки с элементом со 2-й.
Для творчества у него нету оценочного восприятия, например, как появится - так и будем говорить о реальном творчестве.
>оценочного восприятия
Надо написать нейронку, которая будет учиться на всяких оценках и критиках картин различных художников.
И тогда она создаст нечто среднее между ними всеми.
Но новое она создаст только в случае ошибки.
Ну, правда еще можно научить ее классифицировать оценки критиков по критериям и прочему дерьму и суметь в перебор классов, тогда уже может выйти нечто более интересное.
>>799018
Я вообще думаю на java ебашить, так как умею, но хз что там с быстродействием, наверное надо всё таки C++?
>наверное надо всё таки C++
Если юзаешь какой-то фреймворк, то бывает можно вообще питон юзать, на нем по сути просто пишешь скрипт для прогона сетки, а сама сетка, например, на плюсах написана. Примерно так происходит в Caffe. Про другие фреймворки/движки не знаю, но их целая куча есть.
> Нейросеть может написать лучший сценарий для аниме из всех, что ты видел в текущем жанре.
))
Но ведь сценарий Elfen Lied уже давно написан, лалка. Как ты собрался писать заново уже написанное?
Но они же пока недоступны для моего ватного сиятельства. Как только откроют так сразу пойду на кладбище, искать годноту у жмуриков.
https://2ch.hk/pr/res/799576.html (М)
https://2ch.hk/pr/res/799576.html (М)
https://2ch.hk/pr/res/799576.html (М)
https://2ch.hk/pr/res/799576.html (М)
https://2ch.hk/pr/res/799576.html (М)
https://2ch.hk/pr/res/799576.html (М)
Достойна быть в шапке.
Со вторым пунктом всё понятно. Поясните за первый. Ну, поставил бы я себе студию или QtCreator без проблем и вкатывался бы в сабж под Windows. В чём была бы проблема?
Поставил CodeLite. Сижу читаю первую книжку из шапки с переводчиком Google.
(Так-то у меня ещё были причины ставить линукс, но вот тут поясните..)
Продвинутые люди используют движки и фреймворки, в которых рутина уже сделана за них. А они в свою очередь разрабатывались как раз под линухами и тестировались под ними же.
TensorFlow, Theano, Torch, Caffe - основные встречающиеся, так-то их куча есть.
А то мне кажется, что я изучаю хоть и полезную хуйню, но мне она совсем не нужна.
Это копия, сохраненная 7 августа 2016 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.