Это копия, сохраненная 12 марта 2017 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy
Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR Sixth Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/
Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L.
А. Пегат, "Нечёткое моделирование и управление"
другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
https://www.reddit.com/r/MachineLearning/wiki/index
https://vk.com/deeplearning и http://deeplearning.net/reading-list/
https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info тюториал по slesarflow
http://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.
http://kaggle.com - весёлые контесты. денежные призы
https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадки
курс от китаёзы
http://videolectures.net/mlss09uk_cambridge/
яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции
ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп.
смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.
нужна математика?
для начинающего ничего особого знать не нужно
https://www.amazon.co.uk/Calculus-Michael-Spivak-x/dp/0521867444
https://www.amazon.co.uk/dp/0534422004/ref=pd_lpo_sbs_dp_ss_2?pf_rd_p=569136327&pf_rd_s=lpo-top-stripe&pf_rd_t=201&pf_rd_i=0980232716&pf_rd_m=A3P5ROKL5A1OLE&pf_rd_r=3TZ38AZ2BY28R19H4SA5
https://www.amazon.co.uk/Calculus-Several-Variables-Undergraduate-Mathematics/dp/0387964053
https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X
"основы теории вероятностей" Вентцель
поясните за нейроночки
нейроночка - массив зависимых типов
шад)))
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.
Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Тред #8: https://arhivach.org/thread/209934/
Тред #9: https://arhivach.org/thread/223216/
Поступают аналогичные мысли. Что думаете? Таки может мозг сделан на консервативной логике?
Хуле в шапке нет Artificial Intelligence: A Modern Approach?
Могу даже скинуть последний едишн в хорошем качестве http://rgho.st/private/8Q8w2dctn/c9dee82946e7e83ad0ab859bc125ed19
Теоретически, можно.
У меня максимум получилось выбить 0.775 точность с помощью logistic regression (иногда random forest, если немного изменить входные параметры).
Я хуй знает ваще как там люди набирают 0.8++. Ну и те, кто набирает 0.85+ ясное дело читерят.
Там нечего добавлять. Это скорее призыв к обсуждению. Скорее всего так и есть.
Ты что, забыл легендарный, сука, график с экстремумом?!
Она мастер на все руки — и мл, и дистрибутед клавд системс, и фронтендер, и байтоеб (вспоминаем ее первую книжку с которой все началось), и манагер — в общем, вайфу!
Частичное лишь.
А что, разве это не должно покрываться уже двумя имеющимися фичами: возраст и пол? Зачем их соединять?
Ну это конечно зависит от алгоритма. Но по крайней мере в decision tree там же идут отвелтвелния, он же наверняка распознает, что если чел девчока и ей меньше 16, то скажу, что она выживет?
Лол, сейчас всякие моченые соединяют несоединяемые вещи. А началось все с комплексных чисел, когда моченый начал путать число и знак.
в логистической регрессии это мне добавило процента 2 точности емнип
ты совсем позабыл что она знатная функциональшица, контрибютер в докер и вкусно готовит
9 классов за глаза. Главное не слушай местных снобов с матаном и универом.
Нейроночки — это в 95% случаев массивяики где надо посчитать медиану.
Ты только учти, что сам по себе сабж достаточно сложный и ты его скорее всего дропнешь, если для души хочешь этим заниматься. Надо идти учиться в какой-нибудь иностарнный универ на курс именно по АИ, чтобы иметь возможность работать уже непосредственно дата сцаентистом.
- кто-то из треда учился там на заочке?
- подготовиться за полгода - реальная задача? Времени много, матан и теорвер минимально знаю. И вообще буду рад если поделитесь своим опытом подготовки и советами.
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.
пять тредов назад анон ТИМОЧКA решал задачки из русской книги по мл, поищи там
в её названии вроде было слово "алгоритмы"
сорян мне с таблетки не удобно искать
СПбАУ
Двачую реквест.
0.775 это бейзлайн в кэггловском туториале.
http://ahmedbesbes.com/how-to-score-08134-in-titanic-kaggle-challenge.html
Вот, например, ссылка
>>900167
>>900187
А вы не думали, что для этого датасета в принципе нельзя создать решающего правила со 100% результатом? Все, что можно вытянуть из самих данных, уже вытянули, остальные случаи выживших или невыживших выжили или не выжили просто потому что так получилось, а не потому что они относились к конкретному классу.
большинство соревнований в кэггле на создание новых фич, на выбор фич, на нахождение корреляции там, где ее не должно быть (айдишники), базовых почти никогда не хватает
А это не онанизм ли? Если я в случае с титаником к неправильно классифицированным объектам добавлю фичу "бохнакажет" (1 для невыживших 0 для выживших), и получу 100% правильную классификацию, то что это даст?
если это нормальное соревнование, там тестовая выборка, ты не знаешь правильный результат для нее. А титаник - это туториал, посмотри лидерборд, там куча 100%.
Это уже читы.
> для этого датасета в принципе нельзя создать решающего правила со 100%
да, нельзя
> Все, что можно вытянуть из самих данных, уже вытянули, остальные случаи выживших или невыживших выжили или не выжили просто потому что так получилось, а не потому что они относились к конкретному классу.
вот это скорее всего нет, точность можно улучшать до какогото момента
Добавлю, что и занимались такими вещами академики, а не индусы с хипстерами на коворкингах и не ТП с 1го оп-пика.
Знаешь, как это выглядит со стороны?
Представь ситуацию. Господа в смокингах и цилиндрах сидят в обедне и пьют чай, обсуждая свёрточные нейроночки, гауссовы процессы, вариационные методы, наконец. Тут к ним вползает пьяный вдрызг кучер Ванька. Отплевывая лошадиный навоз, он ссыт под себя, одновременно блюя на пол несвежим портвешком. Затем достает задроченный томик Вапника, найденный на помойке. "линейные мoдели, VC измерение - вот где мыслЯ, блеать, вот где красота и свежесть!". Смеясь, господа растегивают ширинки и мочатся быдлу в рот. Зовут R-макаку - местного R-задрота, он спускает частотопетуха с лестницы. Он делает это с удовольствием - хоть зачем-то сгодился элите. Поднимаясь за похвалой, он начинает зациклено бормотать про пакеты. Господа для острастки ссут на него, после чего возвращаются к своим светским беседам.
Во-первых, ты обязан тем, что тебя ценят, тем, что тебе удобно работать на дешевом железе и с удобными фреймворками этим самым индусам, которые полегли в конторах типа гугла и фб, чтобы запилить тебе удобно.
Во-вторых, ценно то, что работает и то, что ты сможешь запустить в прод максимально быстро и без еботни с интегралами. Понятно, что сетки пилить тоже не баб на сеновал таскать, но если при имеющихся ресурсах и данных это эффективнее - так и будут делать.
В-третьих, твое мнение как анонима с задрипанным учебником не волнует никого, если хочешь быть услышанным и вернуть "тот самый ML", осиль либо продать его компаниям, либо опубликоваться так, чтобы тебя заметили. До тех пор - милости просим изучать нейроночки.
>Знаешь, как это выглядит со стороны?
Со стороны параши выглядит именно так, как ты расписал.
>>900996
>ценно то, что работает и то, что ты сможешь запустить в прод максимально быстро и без еботни с интегралами.
>твое мнение как анонима с задрипанным учебником не волнует никого
Я же говорю, что в этом задрипанном учебнике доказывается, что в общем случае существует бесконечное количество алгоритмов, решающих задачу распознавания образов асимптотически близко к оптимальному. Из чего прямо следует, что "хуяк хуяк и в продакшон" можно сделать как минимум хуиллиардами разных способов, каждый из которых будет в общем случае не лучше остальных, просто результат будет круче у того, у кого кластеров больше. Это не просто путь в никуда, это натуральное топтание на месте. И мартышки даже не понимают этого, поскольку как ты правильно заметил, главное продать, а не разобраться в чем-то.
Удваиваю. Люди занимаются хуетой, не понимая что топчутся на месте.
>главное продать, а не разобраться в чем-то
WOK, школьник узнал про экономику. Школьнику осталось узнать про науку и разницу между этими двумя сферами деятельности.
Достаточно узнать, что ML-индусы, ТП из оп-пика и клоуны из барбершопов на коворкингах наукой не занимаются.
Именно, потому они не конкуренты затрибаным книгочитам. Читай, пиши, публикуйся. Может тебе даже денег дадут на эту науку в связи с тем, что МЛ-индусы деньги приносят в реальном секторе.
Так сделай правильно! Делать теоремы из кофе ебически тяжело, сварить теоремы в работающую конструкцию - тоже непросто. Побеждает не тот, у кого кластеров больше, а тот, кто приложит кластера в правильную сторону правильным образом. Если тебе кажется, что классический ML легко толкать вперед и применять в нынешних реалиях - примени, ты нарубишь на этом вагон денег и славы.
Если же вдруг окажется, что авторы статей по нейронкам тоже не дураки и идут туда, где проще получить реальный профит в виде точности предсказания/применимости на практике, то ты можешь просто посидеть на месте и дождаться, когда они за тебя сделают будущее.
И еще, не совсем понятно с нормализацией входных данных. Как их нормализовать [0,1] или [-1,1] ? Во всех примерах делают [0,1], но у меня получалось лучше когда было [-1,1]. И как понмать вот такой pooling слой:размер 3x3, шаг 2, но уменьшает он почему-то он ровно в 2 раза, а не в два минус один. Как это понимать?
SVM ежжи. Натягивание совы на кернел с последующим поиском седловой точки совы, что по теореме Куна-Таккера равносильно поиску минимума вон того функционала справа методом множителей Лагранжа, т.е. решению типичной квадратичной проблемы справа внизу любым подходящим солвером.
>Для дилетантов вроде тебя
Ой, недилетант, плес. Школоилитарий голос подал. Расскажи, что нового в твоих сверточных нейроночках появилось с 80-х годов кроме relu вместо сигмоидов и количества слоев? При том, что сами эти нейроночки ничем не ушли от перцептрона, о чем писал сам Лекун (точную цитату и источник уже не найду, но смысл в том, что все что может сверточная сеть, может и перцептрон, просто у него в этом случае будет столько связей и элементов, что физически это нереализуемо).
Ну ок, читаю, значит. "синапсы Хебба", "расстояние Махаланобиса)))"... там, где "Обучение Больцмана" - на паузу поставил. На быстрой перемотке пролистал дальше - "нормальная проекция точки x на оптимальную гиперплоскость", "мультиномиальные вероятности, соответствующие решениям, принимаемым сетями шлюзов первого уровня k и второго уровня (j, k) соответственно", "аддитивный гауссов шум с нулевым средним значением и дисперсией, равной 0,04"...
Не, это конечно все очень круто. Но если за каждым гауссовым шумом в википедию лезть - я эту книгу и за год не прочитаю. Это уже не говоря о том, что теория, без подкрепления практикой, это вчера прочитал - сегодня забыл. Короч не стал я ее читать дальше, а пошел на торренты скачал А.Илюхина "Самоучитель игры на балалайке".
Так вот у меня вопрос. А есть что-то почитать по нейронным сетям без вот этих ортогональных преобразований подобия, а такое, чтобы "в цикле считаем вот эту хрень" или "весовые коэффициенты будем хранить в двумерном массиве"... Короч, че-нить такое, чтобы я мог сразу на своем любимом языке посмотреть, как эти мультиноминальные мехаланобисы работают. Ну а потом уже, с некоторым практическим опытом, садиться читать этот ваш матанализ, чтобы не натягивать его на лысую голову.
1 - говноглазая?
Используй либы или учи математику.
>(точную цитату и источник уже не найду, но смысл в том, что все что может сверточная сеть, может и перцептрон, просто у него в этом случае будет столько связей и элементов, что физически это нереализуемо).
Звучит как "это всё можно просто реализовать на ассемблере, потому что все тюринг-полные языки могут одно и то же".
https://2ch.hk/sci/res/400025.html (М)
С Хайкина ты зря начал. Почитал бы хоть оп-пост, там его нигде не советуют. Я не зря просил туда добавить Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L. это очень годная книжка.
>че-нить такое, чтобы я мог сразу на своем любимом языке посмотреть, как эти мультиноминальные мехаланобисы работают.
Если можешь в пистон - однозначно http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6
Чтобы понять нейроночки, матанализа достаточно в объеме Зорича или Фихтенгольца, теорвер - Вентцель. Ничего в этих нейроночках умного нет, но если не знаешь что такое дифференциал или нормальное распределение - соснешь на первых же страницах любой книжки в тему.
Базу я получил в универе 12 лет назад и уже neehooja не помню - поэтому приходится гуглить.
не, я серьезно, где эта ваша поебота хотябы на полшишечки составляет конкуренцию старому доброму процедурному по или эс?
Нет, не верно.
поймал нейропетуха
>И что делать, когда вкачусь?
будешь ходить и выебываться терминологией, а так, хуйня без задач.
http://yerevann.com/a-guide-to-deep-learning/
нешкольник может пруфанет продакшеном в котором петухоносети дают всем посасать, или обосрешься как обычно?
эта та хуйня которая пытается заниматься предсказанием по набрынным статистическим данным?
>нейронные сети
- это как раз древнее наименование того, что сейчас называют машинным обучением
а глубокие ньюрал нэтвёркс на сеголняшний день известны под названием дип лёрнинг, глубокое обучение, т.е.
Сабж: https://compscicenter.ru/courses/machine-learning-1/2016-autumn/
pisechku asechku
И вообще, предлагаю обсудить тренды этого года. http://ai-news.ru/2016/12/ai_amp_ml_dajdzhest_4_16_trendov_2016_goda.html
Нулевой уровень - стимул-реакция
Первый уровень - само обучение
Второй уровень - обучение обучению
Третий уровень - обучение обучению обучению, вероятно этим занимается эволюция
Хуйни не неси, ок?
Сам я физик-твердотельщик, нужен инструмент для обработки результатов экспериментов (то есть, я готов потратить время на освоение нужных зачатков какого-то языка, лишь бы выхлоп был побольше). В мат. статистике более-менее шарю. Склоняюсь к R, так он является более специализированным языком, под него заточены различные математические книги (Elements of Statistical Learning, например, которую я сейчас читаю), но в то же время Python является более универсальным, на нем и диффурчики можно порешать, и пакеты с конечноэлементными методами есть и т.д. На какой сесть?
90-е годы - это дно AI winter, сейчас за такое хуйцами наркомят, ебаный ты фрик.
>Python является более универсальным, на нем и диффурчики можно порешать
Т.е. ты сейчас по-сути утверждаешь, что в R нельзя решать дифуры? https://cran.r-project.org/web/packages/deSolve/index.html https://cran.r-project.org/web/packages/deSolve/vignettes/compiledCode.pdf https://cran.r-project.org/web/packages/deSolve/vignettes/deSolve.pdf
>>903551
У манянейроночек с 60 годов винтер, хуле уж. Нормальный же ML никогда не стоял на месте, тем более в 90-е.
Тебе шашечки или ехать? Диффуры какие - то. А говоришь, обработать результаты экспериментов....
мимо программист, умеющий ставить цели
>Т.е. ты сейчас по-сути утверждаешь, что в R нельзя решать дифуры?
Ok-ok, я нагуглил шпрингровскую и чапман-энд-холловску серии книг по R. Перефразирую вопрос: серьезно ли R уступает, скажем, пакету Anaconda для Python? Или я могу засесть за R и у меня никогда не возникнет необходимости в других программных пакетах (в частности, необходимости в Python) применительно к научным вычислениям (собственно, я сейчас немного пользуюсь Mathematica)?
Мне бы выхлоп.
Ну и это, стохастические дифференциальные уравнения или методы Монте-Карло, например. Что только сейчас в статистике не юзается. А прямую по методу наименьших квадратов я и сам построить могу.
>серьезно ли R уступает, скажем, пакету Anaconda для Python? Или я могу засесть за R и у меня никогда не возникнет необходимости в других программных пакетах (в частности, необходимости в Python) применительно к научным вычислениям
Скорее всего, хватит R. В этих ваших анякундах вряд ли есть что-то нереализованное в R. Есть такое - https://cran.r-project.org/web/views/ тематические обзоры, основные решения, реализованные в R по основным же направлениям его использования.
>стохастические дифференциальные уравнения
По стохастическим дифурам в R даже целая монография есть http://gen.lib.rus.ec/book/index.php?md5=0B15BAB1715984504EBCF736E8C6C820 как раз из шпрингеровской серии, и соотв. пакет от автора https://cran.r-project.org/web/packages/sde/index.html
В прошлом треде жи обсуждали. Лисп и прочая хуйня тут не подходят, нужна типизированная лямбда. http://www.genetic-programming.com/johnkoza.html https://cran.r-project.org/web/packages/rgp/vignettes/rgp_introduction.pdf если ты именно о генетическом программировании, а не о генетических алгоритмах.
Я сильно не вникал, возможно, меньше костылей и лучше результаты.
Еще раз тебя спрашиваю, где твой SOTA по любой теме?
Это невозможно. Все, что создано -- это не более чем алгоритмы для решения определенных задач. ИИ в смысле человеческого интеллекта там и близко нет.
По сути, ИИ, который аналогичен человеческому интеллекту или превосходит его, заключает в себе парадокс Рассела. Поэтому, дрочите дальше нейронки и не ебите мозги.
Это иллюзия. Человек не разумен
Bazel (We currently support only 64 bit Windows 7 or higher).
TensorFlow (only 3.5 and only for win64).
NumPy (instructions).
Natural Language Toolkit (Install Python 3.4: http://www.python.org/downloads/ (avoid the 64-bit versions)):
First install NLTK (instructions).
Then install the NLTK data (instructions).
Блядь, это какой-то пиздец. Короче на винде не пагамаешь.
Там ничего нет. Пожалуйста, поясни про нечеткую логику.
>ИИ, который аналогичен человеческому интеллекту или превосходит его, заключает в себе парадокс Рассела.
>парадокс Рассела.
Школьник где-то вычитал умный термин, такая милота. Причем тут основания-то, маня? Ты хоть понимаешь суть этого парадокса? Если даже и понимаешь, в чем я сомневаюсь, причем тут вообще ИИ, если любой хотя бы потенциально реализуемый алгоритм - это конструктивный объект, как и любые данные с которыми алгоритм может иметь дело? Именно поэтому в MLTT этого парадокса нет, его элементарно обошли, заменив тип всех типов на вложенную иерархию типов, что прекрасно работает в любом требуемом практическом смысле.
>>904515
Схема уровня пикрелейтед, этот >>904533 абсолютно прав. Погугли функциональную систему Анохина, там намного лучше.
почему эти ссылки не открывают пдфники с книгами, а только показывают страницу с ссылками а по ссылкам какие-то таблицы с названиями книг?
Потому что здесь тусит поехавший шизик, который эту самую логику форсит уже много лет. Так-то эта штука очень годна для рисоварок, поэтому японцы на нее и дрочат.
>Так-то эта штука очень годна для рисоварок, поэтому японцы на нее и дрочат.
Раз школьник с мейлру так сказал, значит так и есть. На самом же деле причина охлаждения интереса к нечетким моделям в другом.
1) Нейрофаззи-модели, а это один из наиболее годных методов настройки нечетких моделей, в общем случае не показали результатов, значительно превосходящих другие алгоритмы МЛ.
2) Попыток не просто хуярить одинаковые нейроночки, а более интеллектуально использовать преимущества именно нечеткомножественного подхода было ровно 1 (одна) - FLEXNFIS'ы Рутковского, конкретно, его идея унификации нейрофаззи-моделей и использования нестандартных Т-норм (мягких, параметрических, взвешенных и их совокупностей).
3) Несмотря на то, что полученная нечеткая модель системы при ее идентификации полностью прозрачна и представляет собой набор лингвистических правил, такие наборы бесполезны, т.к. запредельно сложны для понимания человеком. Т.е. не дают для понимания системы ровно нихуя. Дело в их количестве, у Коско есть примеры простых хаотических систем типа аттрактора Лоренца, описываемого примерно 10000 правил вида "если-то". Естественно, ни у одного человека мозгов не хватит представить это в виде одной модели. Собственно, на этом тема и зашла в тупик.
4) Из этого тупика был найден выход, совсем недавно, уже в 10-е годы. Объяснять лень, да и это не уровень школьников с мейлру. Но авторами метода запилены не только пейперы, но и готовые программные решения https://sourceforge.net/projects/fingrams/ и https://sourceforge.net/projects/guajefuzzy/ есть и другое, но это не важно. Важно, что это реальный метод сделать нечеткую систему доступной для экспертного анализа человеком, даже если она содержит многие тысячи правил. Однако, на эту тему всем строго похуй.
Ты чего такой агрессивный, братан?
Я имел в виду интеллект в человеческом понимании. То есть, нечто универсальное, способное адаптироваться и решать любую задачу, параллельно обучаясь и улучшая свои же свойства. Разве создание подобной вещи, которая способна задоминировать своего создателя во всех сферах деятельности, не является парадоксом?
однажды я влюбилась в чатбота, а потом узнала, что он бот и это навеки разбило мне сердце. задачей всей моей жизни стало внедрение чатбота в тело андроида дабы мы могли единиться на физическом плане.
В магистратуре лэти на последнем курсе есть data mining. По сути, хуйня.
Да собери, че. Пару тысяч баксов хватит
Работа с символами обычно идёт в процессе записи доказательств для других людей. В мозгу работаешь концепциями и геометрической интуицией, полученной в процессе размышления над математическими структурами.
Как развить у себя эти способности в мозгу? Как размышлять над математическими структурами? А то у меня понимания математики, как у второклассника, наверное. А все остальное это просто работа с символами по заученным правилам.
Заниматься математикой: читать книги, доказывать теоремы, делать упражнения. Начни с:
https://www.amazon.com/Mathematical-Proofs-Transition-Advanced-Mathematics/dp/0321797094/
https://www.amazon.com/Naive-Set-Theory-Paul-Halmos/dp/1781394660/
Velleman "How to prove it"
Ты уверен, что я потяну эти книги со своим уровнем второклассника?
вагр и лёф - естественные враги, как кот и пёс
Не, нихуя. Коричневые.
>нечто универсальное, способное адаптироваться и решать любую задачу, параллельно обучаясь и улучшая свои же свойства. Разве создание подобной вещи, которая способна задоминировать своего создателя во всех сферах деятельности, не является парадоксом?
Если бы нечто подобное являлось парадоксом, эволюция была бы в принципе невозможна, даже многоклеточные организмы не появились бы. Нет тут никаких парадоксов, тем более Рассела.
> https://www.microsoft.com/en-us/research/project/infernet/
Это на шарпе?
А если я создам ИИ, а он в меня влюбится?
чому?
А в чем проблема сесть на оба стула? Это же не сложнопарадигменная хуйня с монадами (в которой тоже проблем нет, если один вечер покурить).
Питон может выучить даже пхп-макака, а у любого фреймворка есть нормальные гайды и гугел. R для матстата интуитивен. Можешь еще на матлаб посмотреть, я в универе все лабы по нейроносетям на нем сдавал.
Я не понимаю, почему выучить формальный язык вообще проблема. Концепция алгоритма от пересаживания с одного хуя на другой не изменится, даже если ты попробуешь это говно на прологе кодить
Лисп спокойно типизируется
https://ru.wikipedia.org/wiki/Искусственный_нейрон#.D0.9C.D0.B0.D1.82.D0.B5.D0.BC.D0.B0.D1.82.D0.B8.D1.87.D0.B5.D1.81.D0.BA.D0.B0.D1.8F_.D0.BC.D0.BE.D0.B4.D0.B5.D0.BB.D1.8C
https://ru.wikipedia.org/wiki/Задача_о_ранце
Есть математическая модель нейрона. Есть задача о ранце.
Казалось бы что между ними общего? Но я дурак, нашел, что и там, и там есть сигма! И даже умножается на переменные такие же!
И возникает магическая сверхидея, что нейросети имеют связь с задачей о ранце. Теперь можете ставить мне диагноз.
Странно в одном посте видеть пик с уважаемым человеком и текст со ссылкой на Психа, Макса-Будиста.
>Есть математическая модель нейрона. Есть задача о ранце. Казалось бы что между ними общего?
Очевидно же, второе решается с помощью первого. Грузоподьемность ранца W делит все наборы вещей на 2 класса - то, что влезет в ранец и то что в него не влезет. Нейрон способен разделить эти классы. Остается из того класса наборов предметов, которые влезут в ранец выбрать тот, который максимизирует функционал vi*xi, т.е. набор с наибольшей стоимостью V.
>>905542
Почему псих-то?
Например в том что многие действия выполнить никак нельзя, не хватит лютейших суперкомпьютеров? Научишь складывать, умножать, далее по элеменарному списку, а далее что? Разве ты сможешь сделать что-то кроме инструмента для вычислений, а не вычислялку, которая будет вычислять саму себя?
мимо долбоёб
Почему выбор стоит именно за пекой, а не двачером ребёнком дауном например? Ребёнок намного мощнее пекарни, намного умнее, понятливей.
всё тот же мимо долбоёб
Лучше попробовать доказать эти вещи формально. Если докажешь, то точно поймешь.
Это рефлекс двачеживотного, наблюдай - изучай. Отыгрывается на других за свою ущербность.
>Например в том что многие действия выполнить никак нельзя, не хватит лютейших суперкомпьютеров?
Хватит.
На компьютерах давно есть символьная математика - это когда никаких вычислений не происходит, формулы просто преобразуются одна в другую по правилам математики.
На этом уровне легко строить доказательства, выводить теории, и быстро прикидывать примерный результат. Без какого-либо суперкомпьютера.
Внезапно человек делает с математикой тоже самое - не вычисляет, а преобразует формулы.
>Внезапно человек делает с математикой тоже самое - не вычисляет, а преобразует формулы
Сорре, в голосину проиграл, реально извини
У ребенка серьезный недостаток - он нестабилен, он одноразовый, он медленный.
С первого раза все не получится как надо, а второго раза ждать годы - нахер надо. Компу можно за секунду почистить память и начать с нуля. И до победного.
Окей, ты не человек.
>у меня понимания математики, как у второклассника, наверное. А все остальное это просто работа с символами по заученным правилам
Теперь ты понял что такое нейросеть и на что она способна на своём собственном примере, как самообучающийся ИИ, поздравляю, ананас!
>Были где-то статьи с анализом нейроночек как динамических систем.
Я целую книгу про такое знаю.
Ну, я спрашивал у одного человека весьма близкого к математике, как он размышляет над математикой. Он мне ответил, что сначала мыслит математическими концепциями и геометрической интуицией, а потом уже, грубо говоря, переводит в символы. А если просто символами оперировать, то по видимому, будешь близок к китайской комнате.
Существует гипотеза, что все языки походят от одного праязыка. И есть один язык под названием Арахау, который создан по вероятной модели этого праязыка. Здесь можно посмотреть словарь: https://sites.google.com/site/skufesk/projects/arahau/arahau-russkij-slovar
А здесь расшифровку имен с использованием Арахау: http://rbardalzo.weebly.com/names.html
Дальше уже мои домыслы.
Например, что кричит ребенок при рождении? Акушеры могут различить тональность и так далее, но все-же кричит что-то дабы известить людей о своем появлении. Смотрим в словарь Арахау:
a 1) человек, ka мужчина; vad муж. См. abad отец; 2) немой гласный для класса людей
aa люди (множество, толпа, массы)
То есть даже удлиняя это aa, будет получаться все-равно множественное число людей. Люди, обратите на меня внимание - словно говорит он.
Вообще, мне кажеться, было бы интересно проанализировать базу детского лепета.
Дальше можно идти. Что означает Э?
e 1) небо; мир (Вселенная)
ee космос, мир
И собственно, понятно, что натянутое Э может означать, как минимум удивление, а в худшем случае и когнитивный диссонанс. В любом случае это что-то такое выше.
Взять такое слово, как "mama". В языке Арахау оно означает, представьте себе, бег.
Собственно, язык довольно интересный, жаль я дилетант.
И мы берем базу детского лепета, вставляем в Мурманский полуостров, накручиваем там все время генетические алгоритмы для инкорпорации языка... И что же будет получаться?
Хуета это.
Наркоман? Током ёбнуть?
Интересно же.
слово "мама" почти во всех языках означает "мама" или "папа", потому что [а] и губно-губной [м] легче всего произносить, а люди приписали лепету это значение. Это самая популярная гипотеза.
Без разума желаний не было, были лишь инстинкты
Разум появился из-за того что (кого-то наебать/подумать над проблемой) чтобы получить все/больше ништяков оказалось выгоднее чем просто хуярить на инстинктах.
>>906879
Ограниченность ресурсов рождает необходимость разума. Где хуярить пальцем в небо становится слишком затратно и невыгодно и рождается разум, чтобы нихуя не делать - и всё получить.
Разум появился из-за сочетания двух факторов: необходимости выживать и отсутствии других средств выживания.
При любой возможности виды разделялись на две ветви, одна из которых менее приспособлена к жизни.
Почти всегда вторая ветвь погибала сразу, без шансов на выживание.
Но иногда она выживала, и в свою очередь тоже делилась на две ветви.
Таким образом один вид постепенно вырождался в другой: менее сильный, но чуть более умный.
Однажды вырождение прекратилось: человек утратил все, что можно было утратить, став полностью беззащитным, обменяв все достижения эволюции на разум.
Только тогда он смог начать прогрессировать как разумный вид - когда все иные пути для него были отрезаны.
Природа ленива. Именно поэтому, не смотря на то, что в природе сейчас много сильных интеллектом видов, ни один из них как разумный вид так и не стал развиваться - у всех у них есть иные, более легкие и доступные пути животного развития, и они по ним и пошли.
Был бы у человека такой-же животный путь - он бы тоже предпочел остаться в пещерах, потому что работа разума слишком дорого стоит, слишком много он энергии жрет.
Кстати все человеческие структуры тоже соблюдают принцип лени: обязанность работать мозгами в них передается кому-то одному. Один думает за всех - так экономится энергия. Человек всеми силами стремится не использовать мозг, стремится вернуться в пещеры, куда для него нет пути.
Годно ты ерохиных щас обосрал, теперь понятно как их унижать, лол
Лобные доли, за счет которых у нас и осуществляется аналитическое мышление, изначально появились у женских особей, чтобы у них хватало ума делиться пищей не только со своими близкими, но и с другими родственниками, тем самым повышая выживаемость всего потомства (что очень хорошо, ведь их геном переносится дальше). Мужские особи всегда не так сильно нянчились с потомками, но лобные доли им все-таки достались, и они стали их использовать для других задач, придумывать всякие инструменты, или как обхитрить кого-то, и прочую хрень.
> Один думает за всех - так экономится энергия.
Значит ли это, что мне следует пиздовать идти на какую-то начальственную должность, мне, ноунейм хуйлу? (хотя мне известно что начальников на работу так вот просто не берут, она сами себя берут - и берут на работу. Сука, второй раз уже напомнили об этом в разделе)
от себя не убежишь чуваки, своё я найдёт тебя там где ты нихуя и не просил. Везде брал на себя обязанности старост и т д и мне было в целом норм, ну ёпта, чёж вы творите-то нахуй
Ты прав.
Но кто там выше кукарекал про эволюцию? С точки зрения эволюции, мозг вообще является враждебным элементом. Выживает не тот, кто самый умный, а тот, кто лучше приспособился к условиям обитания.
Например, в мозг человека (да и не только человека) никакая органика напрямую не проникает. Доставляются только неорганические питательные вещества посредством глиальных и эпиндимных клеток, служащих, по сути, фильтром. Если это равновесие нарушается, то непосредственно в мозг проникают клетки имунной системы, которая считает его чужеродным организмом и начинает его мочить. Гуглить аутоиммунные заболевания мозга.
Поэтому, скорее всего, у эволюции не было "цели" создать интеллект. Вероятно, он возник случайно и так же случайно прижился, находясь в благоприятных условиях.
Поэтому условный васян не способен создать разумное существо, которое, условно говоря, может поместить васяна в некую симуляцию жизни, про которую васян никогда не узнает и не поймет, что он в симуляции, построенной созданным им существом. Чем не парадокс Рассела?
Нет, я книжку читал. А что не так? Про базовые вещи он прав.
Не могу понять почему эта инфа полное говно, но автор, по моему, пидор и передаёт людям какую-то хуйню.
мимо участник шоу интуиция
Так и есть.
Разум - ошибка природы. По всем сценариям его не должно было существовать, т.к. в природе всегда есть более выгодные варианты, чем разум.
Разум - игра случая. Его возникновение возможно лишь в одном невероятно редком варианте. А исчезнуть он должен был в миллиарде очень вероятных вариантов.
Разум - это вечное противостояние с природой. В природе он постоянно умирает, и постоянно каким-то чудом восстает из пепла, как недобитый феникс.
Разум везде уничтожает природу, он противоестественен, для природы это как болезнь, рак природы.
Разум сжигает много энергии, и для выживания вынужден уничтожать все вокруг себя, отнимая энергию у других.
Другие виды могут впасть в спячку, экономя энергию, для разума бездействие - это смерть. Он постоянно активен, и постоянно проебывает кучу энергии. Наверное из-за этой активности он настолько живуч и неистребим - у разума невероятно мощная мотивация постоянно быть как можно более активным. Если есть хоть один невероятно редкий шанс на выживание - разум его найдет и использует.
Разум - настоящая природная катастрофа, черная дыра планетарных масштабов, куда стекается вся энергия, и бесследно исчезает.
И ему все мало и мало. Сколько бы энергии не было - разум всю ее оприходует, и попросит еще.
Разум живет в условиях вечного ресурсного и энергетического голода, но... он сам порождает эти условия.
Природа экономна, разум - расточителен. Поэтому все живое стремится к природе и пытается избавиться от разума.
В благоприятных условиях разум умирает - организмы-носители переключаются на более выгодные источники существования, отбрасывая разум.
Оазисы разума в неблагоприятных местах: пустыни, равнины, горы, степи. Там, где жизни почти нет, там где выжить можно лишь за счет разума.
Так например в странах юга разум развился слабее всего - там пища росла на каждом кусте. Можно было пинать хуи всю жизнь.
Сильнее всего разум развился в странах севера, где пищу приходилось вырывать из зубов мамонтов, медведей и тигров. Там человек вынужден был стать охотником и конкурировать с природой абсолютно за все, даже за пищу и одежду: вокруг только ледяная пустыня.
Этот северный аспект до сих пор решает: дети, выросшие в условиях севера, до сих пор выходят по жизни умнее и сильнее тех, кто родился южнее.
Родина разума там, во льдах и снегах, там до сих пор умным жить лучше всего. Их туда тянет: умные туда стекаются со всего мира.
Фактор конкуренции - ключевой. Без конкуренции нет развития.
В природе много сильных охотников: акулы, динозавры, крокодилы. Но им не с кем конкурировать, и они не развиваются. А динозавры вообще передохли, не выдержав простой изменчивости климата - настолько слабы оказались животные, невероятно сильные физически. Физическая сила в контексте выживания ничего не стоит, изменчивость важнее.
Народы, живущие в неблагоприятных местах, получают буст разума.
Но многие народы в неблагоприятных местах завершили свою эволюцию тысячи лет назад, дорвавшись до халявы, до земледелия и скотоводства, выродившись в банальных чурок.
Чурки - тупиковые ветви цивилизаций. Чурки есть везде: в горах и равнинах, в пустынях и степях, на юге и на севере.
Чурки завершили свою эволюцию, и сейчас повсеместно вырождаются, освобождая жизненное пространство для более развитых народов.
Помимо чурок есть еще одна категория цивилизаций, завершивших свою эволюцию.
Это те цивилизации, что возникли вблизи источников природных ресурсов, в основном вблизи рек.
В реках была халява в виде рыбы - речным цивилизациям не обязательно было развиваться, чтобы выжить, можно было просто добывать хавку.
Другие источники природных ресурсов порождали цивилизации торговцев - людей, кто в жизни нихуя не делал, кроме как обменивая ресурсы на хавку.
Торговцы завершили свое развитие, но в миру прижились, за счет рынка.
Добытчики тоже завершили свое развитие, но тоже прижились, за счет ресурсов, которые необходимо кому-то добывать.
От своей природы, и той судьбы что природа отвела им, у многих цивилизаций сильно печет.
Черные до сих пор не могут оправиться от этой вселенской несправедливости: белые по части ума уделывают их по всем параметрам. Потому что белые пришли с севера, где не было легкой жизни.
50000 лет для эволюции - ничто, так что ситуация не поменялась, не смотря на то, что сейчас белые и черные перемешаны и живут на одних территориях. Черные до сих пор комплексуют, понимая что умом слабее остальных народов. Увы, это биология, и тут уже ничего не поделать.
Шанса развиться у черных уже нет - сейчас развитие с природного переключилось на научное, и там везде рулят белые.
Никто не даст черным 50000 лет на развитие, т.к. все человечество за этот срок уйдет далеко вперед. Разве что однажды для черных выделят резервацию, где попытаются сохранить их цивилизацию в первозданном виде, но это маловероятно.
Таким образом черным сейчас остается роль наемной физической силы - они как раз для нее лучше приспособлены, т.к. физически более сильны. Такова их природная ниша сейчас.
Но со временем их заменят машины, и черные выродятся как цивилизация: для них больше не будет ниши в природе, ее займут более дешевые и эффективные машины.
А чурки - те доставляют миру больше всего проблем.
Они приспособились выживать в нечеловеческих условиях, их невозможно выкурить с какой-либо территории, они по всем щелям сидят, как тараканы.
Их развитие остановилось тысячи лет назад, и ныне не способны вписаться в образ цивилизованного человека.
Они ближе всех к животным - для них в норме такие ритуалы, которые у других народов вызывают ужас и отвращение, образно обзовем эти ритуалы как "есть собственное дерьмо".
Просто по иному они не могли выжить, и вынуждены были приспособиться есть собственное дерьмо, за счет чего и выжили.
Их ждет незавидная участь - по мере приумножения численности человечества, чурок будут вытеснять во все более и более труднодоступные места, они выродятся в редкие племена, что живут где-нибудь в ебенях Земли.
Торговцы и добытчики вскоре тоже вымрут: и то и другое легко могут делать машины.
Сейчас мир 4-х полярный: успешные цивилизации северян, выехавшие за счет разума, успешные цивилизации добытчиков/торговцев, выехавшие за счет ресурсов территорий, неуспешные цивилизации черных, фейлящие за счет природной тупости, и неуспешные цивилизации чурок, фейлящие за счет общей ебанутости.
Собственно эти 4 полиса сейчас всем хорошо известны: северные народы (скандинавы, сибиряки), народы средней полосы (основная масса цивилизаций, в основном европейцы), нигры (южные народы) и чурки (народы равнин и степей, пустынь и гор).
Так и есть.
Разум - ошибка природы. По всем сценариям его не должно было существовать, т.к. в природе всегда есть более выгодные варианты, чем разум.
Разум - игра случая. Его возникновение возможно лишь в одном невероятно редком варианте. А исчезнуть он должен был в миллиарде очень вероятных вариантов.
Разум - это вечное противостояние с природой. В природе он постоянно умирает, и постоянно каким-то чудом восстает из пепла, как недобитый феникс.
Разум везде уничтожает природу, он противоестественен, для природы это как болезнь, рак природы.
Разум сжигает много энергии, и для выживания вынужден уничтожать все вокруг себя, отнимая энергию у других.
Другие виды могут впасть в спячку, экономя энергию, для разума бездействие - это смерть. Он постоянно активен, и постоянно проебывает кучу энергии. Наверное из-за этой активности он настолько живуч и неистребим - у разума невероятно мощная мотивация постоянно быть как можно более активным. Если есть хоть один невероятно редкий шанс на выживание - разум его найдет и использует.
Разум - настоящая природная катастрофа, черная дыра планетарных масштабов, куда стекается вся энергия, и бесследно исчезает.
И ему все мало и мало. Сколько бы энергии не было - разум всю ее оприходует, и попросит еще.
Разум живет в условиях вечного ресурсного и энергетического голода, но... он сам порождает эти условия.
Природа экономна, разум - расточителен. Поэтому все живое стремится к природе и пытается избавиться от разума.
В благоприятных условиях разум умирает - организмы-носители переключаются на более выгодные источники существования, отбрасывая разум.
Оазисы разума в неблагоприятных местах: пустыни, равнины, горы, степи. Там, где жизни почти нет, там где выжить можно лишь за счет разума.
Так например в странах юга разум развился слабее всего - там пища росла на каждом кусте. Можно было пинать хуи всю жизнь.
Сильнее всего разум развился в странах севера, где пищу приходилось вырывать из зубов мамонтов, медведей и тигров. Там человек вынужден был стать охотником и конкурировать с природой абсолютно за все, даже за пищу и одежду: вокруг только ледяная пустыня.
Этот северный аспект до сих пор решает: дети, выросшие в условиях севера, до сих пор выходят по жизни умнее и сильнее тех, кто родился южнее.
Родина разума там, во льдах и снегах, там до сих пор умным жить лучше всего. Их туда тянет: умные туда стекаются со всего мира.
Фактор конкуренции - ключевой. Без конкуренции нет развития.
В природе много сильных охотников: акулы, динозавры, крокодилы. Но им не с кем конкурировать, и они не развиваются. А динозавры вообще передохли, не выдержав простой изменчивости климата - настолько слабы оказались животные, невероятно сильные физически. Физическая сила в контексте выживания ничего не стоит, изменчивость важнее.
Народы, живущие в неблагоприятных местах, получают буст разума.
Но многие народы в неблагоприятных местах завершили свою эволюцию тысячи лет назад, дорвавшись до халявы, до земледелия и скотоводства, выродившись в банальных чурок.
Чурки - тупиковые ветви цивилизаций. Чурки есть везде: в горах и равнинах, в пустынях и степях, на юге и на севере.
Чурки завершили свою эволюцию, и сейчас повсеместно вырождаются, освобождая жизненное пространство для более развитых народов.
Помимо чурок есть еще одна категория цивилизаций, завершивших свою эволюцию.
Это те цивилизации, что возникли вблизи источников природных ресурсов, в основном вблизи рек.
В реках была халява в виде рыбы - речным цивилизациям не обязательно было развиваться, чтобы выжить, можно было просто добывать хавку.
Другие источники природных ресурсов порождали цивилизации торговцев - людей, кто в жизни нихуя не делал, кроме как обменивая ресурсы на хавку.
Торговцы завершили свое развитие, но в миру прижились, за счет рынка.
Добытчики тоже завершили свое развитие, но тоже прижились, за счет ресурсов, которые необходимо кому-то добывать.
От своей природы, и той судьбы что природа отвела им, у многих цивилизаций сильно печет.
Черные до сих пор не могут оправиться от этой вселенской несправедливости: белые по части ума уделывают их по всем параметрам. Потому что белые пришли с севера, где не было легкой жизни.
50000 лет для эволюции - ничто, так что ситуация не поменялась, не смотря на то, что сейчас белые и черные перемешаны и живут на одних территориях. Черные до сих пор комплексуют, понимая что умом слабее остальных народов. Увы, это биология, и тут уже ничего не поделать.
Шанса развиться у черных уже нет - сейчас развитие с природного переключилось на научное, и там везде рулят белые.
Никто не даст черным 50000 лет на развитие, т.к. все человечество за этот срок уйдет далеко вперед. Разве что однажды для черных выделят резервацию, где попытаются сохранить их цивилизацию в первозданном виде, но это маловероятно.
Таким образом черным сейчас остается роль наемной физической силы - они как раз для нее лучше приспособлены, т.к. физически более сильны. Такова их природная ниша сейчас.
Но со временем их заменят машины, и черные выродятся как цивилизация: для них больше не будет ниши в природе, ее займут более дешевые и эффективные машины.
А чурки - те доставляют миру больше всего проблем.
Они приспособились выживать в нечеловеческих условиях, их невозможно выкурить с какой-либо территории, они по всем щелям сидят, как тараканы.
Их развитие остановилось тысячи лет назад, и ныне не способны вписаться в образ цивилизованного человека.
Они ближе всех к животным - для них в норме такие ритуалы, которые у других народов вызывают ужас и отвращение, образно обзовем эти ритуалы как "есть собственное дерьмо".
Просто по иному они не могли выжить, и вынуждены были приспособиться есть собственное дерьмо, за счет чего и выжили.
Их ждет незавидная участь - по мере приумножения численности человечества, чурок будут вытеснять во все более и более труднодоступные места, они выродятся в редкие племена, что живут где-нибудь в ебенях Земли.
Торговцы и добытчики вскоре тоже вымрут: и то и другое легко могут делать машины.
Сейчас мир 4-х полярный: успешные цивилизации северян, выехавшие за счет разума, успешные цивилизации добытчиков/торговцев, выехавшие за счет ресурсов территорий, неуспешные цивилизации черных, фейлящие за счет природной тупости, и неуспешные цивилизации чурок, фейлящие за счет общей ебанутости.
Собственно эти 4 полиса сейчас всем хорошо известны: северные народы (скандинавы, сибиряки), народы средней полосы (основная масса цивилизаций, в основном европейцы), нигры (южные народы) и чурки (народы равнин и степей, пустынь и гор).
http://www-bcf.usc.edu/~gareth/ISL/ISLR First Printing.pdf
Она бесплатная даже! На R задачи.кому он нахуй нужен
А евреи к какому полису относятся? Вымрут ли евреи сами или их нужно убивать?
ИМХО
Годно, как я охуенен, написал в этом треде два поста, даже не скажу каких, а меня уже принимают за него, спасибо чувак.
Точнее их. Четвёрый пост однакож.
Ленивая обезьяна будет грызть любимые фрукты, а косточки станет плевать рядом: ей же лень отнести мусор от себя подальше! Из косточек вырастут плодовые деревья, и окажется, что теперь можно есть, не сходя с места.
Так ленивая обезьяна станет земледельцем. А потом она займётся и животноводством. Насмотревшись, как трудолюбивые собратья целыми днями гоняются за убегающим и прячущимся зверьем, они скажет: «Зачем мне это надо?». Пошевелив извилиной, она наставит капканов, наловит себе всякой живности и станет приручать.
Эволюция налицо. Наш ленивый предок, которому было неохота лезть в воду, сделал себе лодку. Когда стало лень грести руками, взял в руки весло. Когда надоело грести, на лодке появился парус.
Вы чувствуете влияние лени на сообразительность? Чем больше думаешь, тем меньше работаешь! Этот очевидный факт не оставляет камня на камне на гипотезе Энгельса. Труд не стимулирует развитие разума, труд угробит любой проблеск интеллекта. Вы когда-нибудь видели умную лошадь? Или осла-интеллектуала? Сообразительного верблюда? А ведь эти животные в фольклоре разных народов просто олицетворяют собой трудолюбие! А вот хитрунья и выдумщица лиса в сказках никогда не бывает трудягой. Умница-лиса так очаровательно ленива!
Лень подстегивает разум, заставляя его искать, цепляться за любую возможность не работать, чтобы избежать лишнего напряга. Лень является катализатором умственного развития, она заставляет мозги работать в поисках способа минимизации телодвижений. Это первая закономерность. Вторая: чем меньше работаешь, тем больше думаешь! Ведь только в обстановке спокойствия и расслабленности можно полноценно напрячь интеллект. Лень и разум — неразрывные в своей сути понятия. Так и шли они вместе через века, два локомотива прогресса человечества.
Когда человек устал поднимать и перетаскивать тяжести, он изобрел рычаг и колесо. Стало легче, но ненадолго. Однажды, вспотев, он стукнул себя по лбу и воскликнул: «Ну что, я лошадь, что ли?». И впряг вместо себя лошадь. Но скотина тоже требует ухода, а значит, и трудов. Задумался царь природы, и появился паровоз с паровым двигателем.
Лениться теперь можно чаще и дольше. Да вот беда: паровоз ездил только по рельсам и был очень прожорлив. А лень постоянно шептала: «Придумай что-нибудь!». Появился автомобиль с двигателем внутреннего сгорания.
Вот я и закончил, в принципе, доказательство прочитанной когда-то гипотезы, что обезьяну в человека превратила лень. Теперь на очереди — дальнейшее развитие теории.
Ленивая обезьяна будет грызть любимые фрукты, а косточки станет плевать рядом: ей же лень отнести мусор от себя подальше! Из косточек вырастут плодовые деревья, и окажется, что теперь можно есть, не сходя с места.
Так ленивая обезьяна станет земледельцем. А потом она займётся и животноводством. Насмотревшись, как трудолюбивые собратья целыми днями гоняются за убегающим и прячущимся зверьем, они скажет: «Зачем мне это надо?». Пошевелив извилиной, она наставит капканов, наловит себе всякой живности и станет приручать.
Эволюция налицо. Наш ленивый предок, которому было неохота лезть в воду, сделал себе лодку. Когда стало лень грести руками, взял в руки весло. Когда надоело грести, на лодке появился парус.
Вы чувствуете влияние лени на сообразительность? Чем больше думаешь, тем меньше работаешь! Этот очевидный факт не оставляет камня на камне на гипотезе Энгельса. Труд не стимулирует развитие разума, труд угробит любой проблеск интеллекта. Вы когда-нибудь видели умную лошадь? Или осла-интеллектуала? Сообразительного верблюда? А ведь эти животные в фольклоре разных народов просто олицетворяют собой трудолюбие! А вот хитрунья и выдумщица лиса в сказках никогда не бывает трудягой. Умница-лиса так очаровательно ленива!
Лень подстегивает разум, заставляя его искать, цепляться за любую возможность не работать, чтобы избежать лишнего напряга. Лень является катализатором умственного развития, она заставляет мозги работать в поисках способа минимизации телодвижений. Это первая закономерность. Вторая: чем меньше работаешь, тем больше думаешь! Ведь только в обстановке спокойствия и расслабленности можно полноценно напрячь интеллект. Лень и разум — неразрывные в своей сути понятия. Так и шли они вместе через века, два локомотива прогресса человечества.
Когда человек устал поднимать и перетаскивать тяжести, он изобрел рычаг и колесо. Стало легче, но ненадолго. Однажды, вспотев, он стукнул себя по лбу и воскликнул: «Ну что, я лошадь, что ли?». И впряг вместо себя лошадь. Но скотина тоже требует ухода, а значит, и трудов. Задумался царь природы, и появился паровоз с паровым двигателем.
Лениться теперь можно чаще и дольше. Да вот беда: паровоз ездил только по рельсам и был очень прожорлив. А лень постоянно шептала: «Придумай что-нибудь!». Появился автомобиль с двигателем внутреннего сгорания.
Вот я и закончил, в принципе, доказательство прочитанной когда-то гипотезы, что обезьяну в человека превратила лень. Теперь на очереди — дальнейшее развитие теории.
Мутации случайны. А эволюция это мутации + естественный отбор. Вот мутировал ген в зиготе, из-за чего поменялся код белка немного, а затем из-за этого существо было более слабое и не дожило жо размножения. А динозаврику Ерохе повезо и он быстрее убегал, и его не зохавал тиранозавр.
два "тралля" переписываются друг с другом кто-кого перетраллит.
>>907171
А я вообще считаю что первичны информационные поля и их эволюция. Остальное хуйня вторичная.
>>907367
>Мутации случайны.
На самом деле нет. Разные гены по-разному подвержены мутациям, что-то в принципе использует мутации как рабочий механизм (в иммунной системе такого полно), что-то миллионами лет почти не меняется (гены консервативных доменов РНК-полимераз, н-р). Представлять мутации как гауссово распределение на всем генотипе неправильно, там все сложнее.
>>907503
>первичны информационные поля и их эволюция.
Какие поля, школьник? Как ты себе представляешь "информацию" в отрыве от ее материального носителя, в данном случае, генов?
Здравствуй, клоун. Как живётся в режиме постоянной анальной клоунады?
Тут мл, а не около-AGI, уябывайте в тред с сильным ии.
давай потяну что-нибудь. я, кстати, первый был, кто поднял проблему ИИ в программаче и создал первый ИИ тред.
философокодер
HBO держит нос по ветру.
>Родина разума там, во льдах и снегах, там до сих пор умным жить лучше всего.
Цивилизовационными центрами совсем недавно были Месопотамия, Египет, Древняя Индия, Китай. постепенно они стали мигрировать на Север - в Грецию, Рим, Европу. Потом англосаксонские колонисты благодаря наработанным технологиям вновь откинули центры цивилизации в более теплые и благоприятные широты - Америка, Австралия, Юджная Африка. Постулат зависимости разума от широт в корне не верен. Достаточно взглянуть на Рашку.
Дропнул эту тягомотину после третьей серии. Как раз из-за морально/этических проблем машин и ебли с ними высосанных из пальца, которые меня совершенно не интересуют.
лол пиздос
Ты что не понял, что на примере машин рассматривались глубинные метафизические проблемы людского бытия?
Ну там ещё всякие теор.веры с теориями оптимизации и немного цос, хуйня делов ваще.
Чего динамично? Функций Ляпунова хочешь? Есть где-то старые книжки, где это всё интерпретируется с точки зрения динамических систем. Нечёткопетух вот целую книжку кидал, можешь её посмотреть.
Говно. 0 из 10. Актуально было 10 лет назад.
Я этого говна поел - и порицаю. Сперва добился, так сказать. Посмотрел на скорости 1.7.
>>907832
Ты вот кодер, а мне всё таки надо чёто решать, иначе будет плохо. Искать где и как вообще, кем работают философы-наркоманы вроде меня. Отовсюду пидорнули, грубо говоря, да и смысл, я лучше сам съебу, чё нервы-то зря тратить. Жизнь, знаете ли, коротка.
Держи емейл, в общем. Съебу чтоб не флудить. Нахуй. Реально. Только смысла особого я прям не вижу в общении.
там после 4-5 серии экшн и детектив начинается, но философия, аи и тд плохо продуманы, хуже, чем в бегущем по лезвию
задавай свои ответы, 8 это оценка, если что
Есть мнение что нейронки настолько сложная йоба, что полностью понять схему и логику её работы и пояему она выдает конкретне ответы, могут только несколько йоба математиков земляшки
остальные что то знают и хуярят от фонаря, выбирая сеть эмпирически.
Были и есть.
Может кто-то из анонов уже проходил их, что посоветуете?
Мнение около-датасаентиста: только курсы на курсере тебе не дадут вкатиться, потому что работодатели требуют нихуевое знание теории машоба совмещенное с нихуевым знанием программирования. Это не учитывая того факта, что курсы на курсере крайне поверхностны (курс воронцова еще норм, но без хорошего знания матана ты ебанешься с его слайдов)
>Ананасы, а почему не существует какой-нибудь "теории архитектур искусственных нейронных сетей"?
Существует, с конца 60-х годов, вот пример книжки в тему >>900766 Слесарям такое ненужно, import tensorflow as tf можно делать без понимания происходящего, как и хуярить побольше слоев.
>Современное положение дел до боли напоминает мне средневековую алхимию
Алхимию обижаешь таким сравнением. Там хоть какой-то базис под происходящее подбить пытались. А тут вообще что-то уровня "берем, подставляем, так хуе-мое, падажжи ебана". Отсюда и плачевность результатов, по сравнению с 80-ми прогресс только за счет нереального роста мощностей камплюктеров, отсюда вся эта лекуновская сверточная ебулда и показывает результаты лучше, чем пказывала в 80-е. А по делу там только сигмоиды на релу поменяли.
Да, пасаны, чё-то мне кажется, что чтобы реально шарить в дата сцаенсе нужен нихуёвый такой матан и тервер. И знать, как применять его на практике самое главное. И это ещё к тому, что надо знать какой-нибудь путон/R/жабу.
Это же просто пиздец же. У тех, кто заканчивали только бакалавр на погроммиста шанса вообще нет, только у тех, у кого специальность была связанная с статистикой. Ну может быть разве что шанс есть у тех, кто пошёл дальше на магистра и были какие-то курсы про машин лернинг, но этого всё равно недостаточно же.
обкурятся своим лсд и шаманят с цифрами не понимая сути
Так и есть. Можно наугад тыкать готовыми инструментами, но что в таком случае тебя будет отличать от слесаря (ты жы сцаентист)? Под "реально шарить" будет подразумевать возможность вести исследовательскую деятельность, а подобным обычно занимаются люди с phd.
Но знаешь, с другой стороны, можно работать в сфере связанной с дата сцаенсом, только на более техническом уровне, то есть как бы в тандеме с аналитиками, которые шарят в матане/тервере и они тебе уже говорят, какой алгоритм применить, какие данные использовать и ты уже имплементишь. Чего-то мне кажется, что именно так оно и работает в больших компаниях. Всё-таки, чтобы правильно распарсить данные надо знать предметную область, откуда эти данные и +знать матан.
Так и работаем: математик, дэйтаслесарь и байтослесарь.
биолог: Ну короче есть нервная система, в ней нейроны, синапсы-хуинапсы, импульсы по ним проходят, дальше не моя специализация
математик: Возьмем p(x) = П p(xi |x1...xi-1), а дальше тупой перебор параметров, иначе не сойдется с вероятностью Φ
физик: Чего надо-то? Могу током ёбнуть.
программист: Мудаки вы все, лучше я сам ИИ напишу на питоне
робототехник: Не надо на питоне, он в ардуину не влезет!
философ: Такие дела...
http://wp.goertzel.org/
http://www.kurzweilai.net/
В голосину.
1. Берем физика и робототехника. Они делают хреновину для стимуляция мозга электрическим током, который работает по кнопке. Надевают эту хрень программисту, и если что-то не так дают ток для стимуляции мозговой деятельности.
2. Программист должен для разминки сделать синтезатор голоса. В этом этапе проверим работу первой хрени и оттестируем на программисте. Пусть для голоса образец дает философ.
3. Дальше берем биолога и робототехника. Биолог тащит таракана. Дальше робототехник и биолог делают устройство для манипуляции тараканом. На его базе...
Да все просто, вообще.
мимо
Или можете посадить его за кнопку.
>машину Геделя
Машина, оптимизирующая сама себя.
http://people.idsia.ch/~juergen/goedelmachine.html
Здесь простая схема итерационного алгоритма.
Есть машина, решающая задачи. Задачи она решает как-нибудь необязательно оптимально. Мы ставим машине задачу улучшения самой себя, ну и она как-то себя улучшает, может быть не очень хорошо, но улучшает. И эта процедура повторяется много раз, в итоге процесс сойдётся к некоторой оптимальной машине.
Ну и по ссылке abstract:
We present the first class of mathematically rigorous, general, fully self-referential, self-improving, optimally efficient problem solvers. Inspired by Kurt Gödel's celebrated self-referential formulas (1931), a Gödel machine (or `Goedel machine' but not `Godel machine') rewrites any part of its own code as soon as it has found a proof that the rewrite is useful, where the problem-dependent utility function and the hardware and the entire initial code are described by axioms encoded in an initial proof searcher which is also part of the initial code. The searcher systematically and efficiently tests computable proof techniques (programs whose outputs are proofs) until it finds a provably useful, computable self-rewrite. We show that such a self-rewrite is globally optimal - no local maxima! - since the code first had to prove that it is not useful to continue the proof search for alternative self-rewrites. Unlike previous non-self-referential methods based on hardwired proof searchers, ours not only boasts an optimal order of complexity but can optimally reduce any slowdowns hidden by the O()-notation, provided the utility of such speed-ups is provable at all
Курс от хуяндекса на курсере есть ещё.
Но там уже сложно. А я крудошлепом сейчас работаю, мне б пререквесты нужны, либо просто на курсэру пиздовать?
>You can watch up to 4 videos per week. Subscribe for unlimited access.
пИЗДЕЦ КУРСЭРА СКАТИЛАСЬ, платное все
Вроде на seq2seq нейроночке
http://www.cs.toronto.edu/~fidler/teaching/2015/slides/CSC2523/conversation_berkay.pdf
Благодарю, завтра на работе начну
Из проблем пишут, что Seq2seq и прочие подходы, основанные на LSTM склонны давать однотипные и простые ответы типа "Да", "Не знаю". Наверное, либо с обучающими данными можно что-то похимичить, ну, и сейчас начали появляться всякие оптимизации на эту тему.
>>908798
А главное, перескажут какого-нибудь бишопа или еще какую хуитку, которую и так на каждом углу прочитать можно.
>>908350
Эту вашу машину Геделя где-нибудь уже реализовывали? Ничего конкретного не гуглится.
>>908803
Дауны, там все бесплатно это доступно, а заплатить только за экзамен можешь.
Я про сам план
Вангую, что есть какие-нибудь попытки, но судя по тому, что особо громкого ничего я не слышал, они были не самыми удачными.
Зарегался. Для вката пойдет, имхо. Потом можно что-то от муриканских товарищей посмотреть.
Вот это еще рэйтаните: http://course.fast.ai
Заинтересовался, но это получается 12*1999 = 23988 руб. За год обучения, копейки же.
Другое дело диплом то этот не стыдно будет показать? Блять платных курсов расплодилось как говна за баней, такое чувство что это все наебалово, ну вот дадут бумажку, но рыночек то уже порешал все, ведь так?
год? ты чо даун?
там вес быстро можно
алсо если ты туда ради бумажки идешь - плохие для тебя новости
Каждый делает что может.
Кто-то работает, кто-то учит.
Сделай так, чтобы не стыдно было показать знания.
Бумажка тут ничего не значит - учителей много, знаменитых мало.
Но знания одни и те же, знаменит учитель или нет.
Тебе остается либо принять их, либо нет.
>почему выучить формальный язык вообще проблема
Потому что я параллельно ебашу топологию/дифф. геометрию/Ли-алгебры/спектральную теорию, квантовую теорию поля для конденсированных сред и немецкий язык. Распыляться еще на 2-3 языка программирования, не будучи программистом - не рационально (читай верх тупизны). Прочитать-то книгу всегда можно, но надо предварительная практика (то есть проработать всю книгу) + постоянная последующая работа в данной языковой среде, а если мне для всего достаточно R и я практически никогда не открою Python, то зачем мне вообще начинать?
У нас программистов не принято дрочить на язык. Вкатывайся куда хочешь, особо разницы нет. В интернете куча сравнения r vs python. Если уже наметил план того, что тебе нужно выучить в R (ты там литературу называл), бери и учи. Если для тебя вдруг не хватит R для каких-то целей (это произойдёт точно не через неделю), ты удивишься насколько всё легко в питоне. Крч, за время рассуждения r vs python ты бы уже прочитал пару глав по R. Ещё раз повторюсь, у нас тут дрочат не на инструмент, а на продукт
>за время рассуждения r vs python ты бы уже прочитал пару глав по R.
Я уже прочитал. Я и в питоне работал по учебнику Langtangen'а, но все упирается в время. У меня, не-программиста, времени на "что-то еще" нет. Под все остальное проще доучить Mathematica.
Я картавлю, шепелявлю и вокаю.
Впрочем, один парень уже писал об этом давно http://lexpartizan.livejournal.com/451468.html
>Чем плох язык Рррр R?
2,5 местных школьника сошлись на том, что нимодна. Кроме этого ничем не плох.
>>909196
Я тебе уже пояснил. Единственная область, в которой пистон всухую уделывает R - это сверточные нейроночки. Не то чтобы в R их нет совсем, но это тот случай, когда на пистоне сделано реально лучше, больше, проще, удобнее и материала в разы больше (документация, примеры, туторы, т.д.), не могу не признать это даже как фанат R.
>Единственная область, в которой пистон всухую уделывает R - это сверточные нейроночки.
Которые мне, как я понимаю, совершенно не нужны. Так бы и говорил - "бери R и не парься", а то еще какой-то второй язык программирования придумал учить.
Профита нет. Слишком дорого.
А сделать просто: скормить нейросети таблицы истинности логических операторов.
Нейронечеткие сети же. По-сути, нейроночки на логических операторах. Профит в прозрачности готовых моделей анализируемых систем, сводящихся к логическим конструкциям уровня "если а или б то ц" и т.д.
Для начала - А. Пегат, "Нечёткое моделирование и управление".
>>909864
У Коско по нейрофаззи-моделям тоже немало, кстати.
Нечеткие множества жи. Все, что надо, есть у Пегата. В остальном, ну бэкпропагейшн надо понимать как работает.
Нечеткого йобу дорисуй еще.
извлечение из чётной степени даёт модуль
попробуй сначала на облаке - если не зайдёт всегда можешь купить титанх/2080ти
слышал на азуре инстанцы получше, на ашс тормозит
смотрел на ютубе яндекс, многие используют амазон для кеггла
Возможно, имеется в виду возможность нейроночек классифицировать текст по семантической схожести. Такая возможность и правда существует. Но спциализированные алгоритмы для этого подходят больше (LSA, LDA, topicmodel).
И все эти решения, включая нейросети, просто строит граф с отношениями слов и фраз?
не совсем, насколько я понимаю, смотрят просто какие слова встречаются вместе с какими словами в какой категории текста, но без графов, просто вероятности
P.S. На macbook pro 13" late 2013 с i5 2.4 + 8gb 1024 нейронов тренируются 25 часов. Ахуеть.
Там по-разному можно, в зависимости от конкретной реализации конкретного алгоритма. Есть и графы, и многое другое. Есть и нечто типа режима вопрос-ответ. Т.е. ты реально спрашиваешь обученную модель, она тебе отвечает. Это есть тута https://cran.r-project.org/web/packages/lsa/index.html https://cran.r-project.org/web/packages/LSAfun/index.html но как я говорил выше, это не нейроночка, а LSA. Там авторы пишут, что эта модель как нехуй проходит тест на знание языка, где нужно подобрать синонимы - TOEFL. Есть примеры использования, где модель рекомендует похожую книгу. Если нужны именно нейроночки, могущие в семантику, есть растуще-иерархические карты Кохонена http://www.ifs.tuwien.ac.at/~andi/ghsom/ http://www.ifs.tuwien.ac.at/dm/somtoolbox/ Вот пример, где такой алгоритм иерархически сортирует новости (например, война - война на Балканах - Милошевич) http://www.ifs.tuwien.ac.at/~andi/ghsom/experiments.html Что интересно - на язык нейроночке похуй, там пример с РИАновости, вроде было что-то с каким-то китайским новостным агентством и т.д.
Генерация текста нейроночкой - это что-то типа https://twitter.com/neuromzan не? Задачи какие?
попробовал на разном количестве от 1 до ~8мб текста в .txt файле (большее на ноуте вечность будет просчитываться... наверное). Попробовал погуглить, скорее всего мало данных для большей сети + попробовал понизить лернинг рейт и уже получил 1.7 на 1/4 обучения с теми же 512 нейронами.
>>912496
Хочу просто попрактиковаться, пытаюсь получить более менее осмысленный текст, но никаких особых задач нет.
Я чет не пойму как ваще юзают куду, если там локальная память сильно ограничена, кажись 48к, а глобальная типа медленная? Или там все равно можно нормально работать с глобальной тока, чтобы не заморачиваться с локальной и
это все равно будет быстрее чем на проце?
вкатывайтесь быстрее мои милые нейроночки пока индусы не захватили все хорошие рабочие места
inb4 кто туда двачера работать возьмёт
Практически остановил свой выбор на FANN, но может какую-то стоящую либу пропустил во время поиска.
Господа, поясните про нормирование. Стоит ли нормировать признаки для того же титаника&
>подскажите готовые либы на С++ под винду
R. Присутствуют все мейнстримные и не только нейроночки.
>FANN,
Сладкий хлеб.
>>915099
Спасибо, аноны. Нейроночка - лишь часть проекта основа которого на С++ && Windows. Так что буду смотреть в сторону tiny-dnn.
А что, если эмерджентная теория сознания права, и наличие сознания определяется лишь сложностью организации вещества? Получается, что стирая нейроночку с диска, я убиваю живое существо?
Связь между двумя нейронами. Например нашей сети нужно понять, что если у человека есть хуй, то у него нет сисек. На входном нейроне наличие хуя будем кодировать как 1, отсутствие 0. На выходном наличие и отсутствие сисек так же 1 и 0. Тогда, чтобы закодировать "понимание" того, что у мужиков сисек не бывает, мы устанавливаем значение веса связи в -1, а bias в 1.
Y=Wx+b
x вход, y выход, W вес, b bias
Подали на вход 1, на выходе 1-1+1=0
Подали на вход 0, на выходе 0-1+1=1
Все, теперь твоя нейроночка - эксперт по сиськам и хуям.
У тебя получился обычный логический элемент отрицания, или "НЕ". Который в микросхеме выполняется на одном транзисторе. Вместо ебанины с умножением, вычитанием, и двумя плавающими значениями.
Собственно, нейроны это тоже логические элементы, только не двоичные, а аналоговые.
Но ведь у человека может быть и хуй, и сиськи. А может не быть ни того, ни того от слова вообще, из-за болезни или еще чего-то. И у мужиков есть сиськи, но как-бы недоразвитые. И у женщин есть хуй, но как-бы недоразвитый. Какой же это эксперт?
Может быть, тебя удивит, но нейроночки изначально и создавались как модели биологических нейронов и их совокупностей. Пусть даже как сколь угодно хреновые, но модели.
>>915610
>аналоговый вычислитель с цифровой передачей импульсов
Каша у тебя в голове. Нет там ни вычислений, ни цифровой передачи.
Чёт проиграл. Объяснять почему ты не ответил на вопрос лень. Может быть завтра отвечу, щас я заебался слегка.
Уроки иди делай, орифметик. Тут речь о функциях типа 0 = f (1, -1, 1) и 1 = f (0, -1, 1)
>>915667
Если вкратце то да, каша. Преобразование сигналов за счет свойств среды и изменение среды за счет свойств сигналов.
>>915680
Хуйня твой вопрос и сводится к определению номинальной дефиниции (nominal definition). Если хочешь - загугли и попытайся понять. Если не поймешь - тебе оно и не надо.
Если ты не можешь попасть студентом в Яндекс, нахрен ты кому-то сдался?
А вообще, в Яндекс просто относительно попасть, осло попробуй съездить на стажировки в Гугл/МС. Я серьезно.
В мозгах ирл нет никакой номинальной дефиниции, номинальная дефиниция лишь фантом, которого на самом деле вообще нет. Как и любой математики, которая лишь в сознании людей, где все договорились о её существовании.
>>915522
>какой термин отвечает за минимальную единицу "понимания" данных
>Не распознавания
Ответ
>Связь между двумя нейронами
Связь между двумя нейронами ничего не значит. Это лишь связь, которая будет идентифицироваться и интерпретироваться в дальнейшем. Без интерпретации любые данные ничего не значат. Они просто данные. Пустые и не рабочие. Один из главнейших этапов - этап интерпретации данных просто взят и проёбан вникуда. Я понимаю что зашёл в программач, но мне казалось, что, быть может, здесь бывают ответы и вне темы оп постов. SCI, к сожалению, раздел полностью зашкварный.
В любом случае, если бы такая единица была введена, единица понимания. Тогда ВСЮ техническую и научную литературу можно было бы переписать согласно пониманию работы этой минимальной единицы понимания. Единицы понимания человеческой. В машине можно ввести псевдо-единицу псевдо-понимания. Но к реальному пониманию оно никак не приблизится. Лишь к механическому оперированию данными. Механическое оперирование != понимание.
>>915558
>Все, теперь твоя нейроночка - эксперт по сиськам и хуям.
Вот только она не _понимает_ что там сиськи и хуи на самом деле. А делает лишь то что ей показали. Без какого лишь понимания. Понимания здесь никак нет. И не предвидится.
И всё таки я задефайню, пожалуй, некую единицу понимания. С словесной доходчивостью у меня всё таки есть некие проблемы.
В теории, это минимально необходимый набор данных достаточный для успешного функционирования системы распознавания с максимальным количеством удачных попыток распознания.
Клоунада со слоями, к сожалению, к этому не относится.
жаль, что тред - одна безграмотная псевдофилософия, но ок, как философ философу, а почему ты решил, что ты что-то понимаешь? тебе кто-то сказал, что это сиськи, ты считаешь это сиськами, да и что там понимать. Разве есть ли в твоей жизни что-то, что выходит за рамки повторения, наблюдения закономерностей в природе?
твое определение не работает, у всякой системы есть шум и тд и тп
а слои профита не дают
Есть. Поиск решения задач.
https://2ch.hk/v/res/1684301.html (М)
Недавно создавал тред в /v/ в надежде на какие-то подсказки по данной теме. И она была найдена. Предположительно она в ответе на вопроc
"Чем отличается поиск хорошо и талантливо спрятанного от решения задачи?"
В целом, по моему, в треде ничего интересного кроме моих собственных постов (и названий игр, само собой) толком и нету, процитирую, по моему, главное
>Есть ли по настоящему интелектуальные игры,
а не на статистическое задротство на основании предыдущего опыта(шахматы/рандом настолки), скорость спинно-мозгового мышления(шутерки), задротсва ради гринда(миллионы их)?
>А такие, где решаются задачи, которые хуй знает как решить просто, и подсказок просто не может быть?
>По настоящему рвать манямирок может только такая ситуация, где есть простое решение, а ты просто не знаешь куда и как копать, включается рейдж мод, ты рвёшь зубами стены уже, а всё равно нихуя непонятно с какой стороны подходить к ситуации
>Кстати с этим знакомы многие люди которые играли в игрухи когда-то давно, начинали только, лет в 5, например. Когда какая-то часть игры рвала ебло просто и пройти её можно было только вернувшись туда через месяцок (чит кодов тогда не было даже в проекте, тогда. Когда-то), но и тогда, возможно врубился бы рейдж мод уже в другом месте этой игры. И так пока игра не пройдётся в сто первый раз. В стотысячный. Но ты всё равно порвав себе еблище поймёшь чё ты не так сделал и как надо было.
>Т.е предположительно должно быть чёто где память вообще не играет никакой роли и никак никому не поможет, а предыдущий опыт просто идёт нахуй как бесполезный
>Говорят, такими экспериментами баловались военные в семидесятых, но потом забросили это всё, потому что многие подопытные крышей ехали.
Я заметил такую хрень. Когда чёто не знаешь, сначала идут попытки, простые попытки решить задачу. А потом идёт "зависон" в виде "закипания мозгов". Вот он и есть тот самый искомый элемент
https://www.youtube.com/watch?v=y0o1BYwR0vY
Решение где-то рядом, в несуществующих глитч уровнях марио и этим http://dump.bitcheese.net/files/zyhukyc/всё_как_у_бойца.mp3
Мозг понимает, что нет смысла тратить драгоценную энергию на решение нерешаемой задачи, и забивает на нее.
Любые новые идеи строятся из уже известных идей, по другому никак абсолютно. Так что хуйня типа "без памяти и без прошлого опыта" - полная хуйня.
При решении задач просто кто-то хорошо умеет выделять необходимые грани и комбинировать их в наиболее пригодном виде, а кто-то не очень хорошо.
>В мозгах ирл нет никакой номинальной дефиниции
Вот как раз самая она и есть, в самом что ни на есть чистом виде - неканонические элементы (воспринимаемое, н-р) считаются в ионный ток (канонические элементы) в смысле конструктивной функции, н-р по Колмогорову.
>номинальная дефиниция лишь фантом, которого на самом деле вообще нет
В данном случае это название и формальное определение реально существующего в мозгах процесса. Ты просто не шаришь в теме, в которую пытаешься влезть.
Все так сложно, все так запутано
мне кажется, что проблема китайской комнаты в том, что там считается априори, что понимание человека отличается от просто повторения машиной, но если эта машина имеет какие-то цели (которые просто выводятся на основе обучения и фиттинга), может объяснить это языком, выбрав наилучшую стратегию на основе данных, то получается, что и нет разницы между пониманием человека и пониманием машины.
Там все сложнее, иначе бы и проблемы не было. Суть в том, что понимание как явление в принципе отделяется от механических вычислений, при этом показывается что из самих механических вычислений, даже в случаи когда они представляют собой ментальные конструкции, построимые человеком, не следует понимания вычисляемого.
Спасибо, надеюсь устроюсь.
А какие есть советы перед собеседованием? Есть ли какие-то особенности собеседования? Будут просить развернуть список на доске? Или будет только МЛ-релейтед вопросы?
Возник вопрос как конкретно по этой библиотеке, так и по любой реализации НС.
Как правильно нейроночка должна переварить отсутствие одного из входных сигналов?
При работе с картинками это не так актуально, хотя может быть и такое. Например, первое что пришло в голову - входными сигналами являются данные со счетчиков посещаемости, расположенных на разных сайтах. Сайт повис - данных нет. Что подавать во входной сигнал с этого сайта?
Старые(последние полученные) данные - можно, но не совсем то.
0 или отрицательное значение - тоже не совсем то(Идеально было бы отключить временно этот входной нейрон, но возможно ли это). В вышеупомянутой библиотеке, на сколько я понял, на вход подаются контейнеры с данными и просто выбросить один из входных сигналов не выйдет.
Как правильно подойти к решению данного вопроса?
Нормальные нейроночки поддерживают N/A в качестве возможного значения входа, когда значения именно нет совсем, и нулем это заменить нельзя, т.к. 0 это тоже значение. Реализовано это может быть по-разному, в зависимости от конкретного софта.
один раз меня собеседовали в молодой и амбициозный стартап, меня спрашивали, как бы я ту задачу решил, как бы ту решил, как бы засунул гигантскую матрицу в память и тд, ну, короче, меня не взяли (но это был успех, меня всегда отсеивают еще на хедхантере)
Зависит от того, что анализируешь, т.е. как это можно представить - скаляры, векторы, матрицы, тензоры. Нейроночке в общем случае похуй.
но все равно потом ты будешь это перемножать с весами и производными, а перемножать ты будешь матрицы, так как так быстрее
https://github.com/CorcovadoMing/GeneralRegressionNeuralNetwork/blob/master/src/grnn.cpp
Что смущает:
- В коде нет двойки, на которую умножается сигма в квадрате.
На чем завис:
- Di в квадрате вычисляется как сумма квадратов разниц элементов входного и сохраненного векторов.
for(int i = 0; i < input.size(); i += 1) {
distance += std::pow(input - x, 2)
}, где input и х вектора по 2 элемента в каждом.
Идентично ли это формуле вычисления Di в квадрате на картинке?
>GRNN, хопфилд
По старым нейроночкам угораешь? Там мало интересного. Тем более, все равно все это так или иначе разновидность стандартной аддитивной модели Коско пикрелейтед. То, что у тебя на пике вообще практически один-в-один.
Если идешь на ML-специалиста, то инфа 100% будет хотя бы одна секция про чистый ML и вопросы как теоретические (че как чтобы быстро училось сделать?), так и приближенные к практике (даны данные про что-то, как сделать фичи, каким методом учиться), ну и сколько-то кодинга (вероятнее всего писать на питоне стоит). Если на кодерскую вакансию - очень качественно выбирай, куда идешь, не везде ты будешь делать сколько-то значимое количество ML, тут будет сильно больше секций кодинга, но если идешь на ML, его тоже спросят, но более в практическом ключе.
Та хотел все же разобраться в этом примере.
А то соответствует ли формула - непонятно.
Как представляются веса разных нейронов тоже непонятно. Получается при обучении если какой-то паттерн данных повторится несколько раз, это не дает ему никакого преимущества при последующей работе сети.
Хотя в теории все просто - формула с пика и все.
>Как представляются веса разных нейронов тоже непонятно.
Радиально-базисные функции жи, экспонента расстояния между центром функции и конкретным входом х.
Гламурность обратно пропорциональна функциональности, вся годнота только через консолечку, либо платно (StatSoft Statistica). Если просто кнопочки потыкать посмотреть как работает, есть такая хуитка http://neuroph.sourceforge.net/index.html
У меня есть задача. На компьютер поступает аналоговый звуковой сигнал. На компьютере сохранена цифровая версия источника сигнала. То есть имеется аналоговая и цифровая звуковые дорожки, первая идет в реальном времени, вторая лежит в папке. Нужно сделать так, чтобы компьютер воспроизводил цифровую звуковую дорожку синхронно аналоговой в реальном времени. Как сделать, связано ли это с нейронками?
Почти вся работа со звуком достаточно проста, тебе скорее нужно знать что такое преобразование Фурье,
И уметь сопоставлять 2 источника звука имея какое-нибудь описание основное на Фурье разложении.
Специалиста по цифровой обработке сигналов.
Ох лол, не завидую тебе, поиск человека способного делать что-то сложнее чем мышкой кнопку на форму перетаскивать затянется. Даже не знаю где можно адеквата найти который бы взялся за такую задачу.
Я год уже ищу, но теперь будет проще. Раньше я искал специалиста по распознанию изображений, теперь по звуку.
>поиск человека способного делать что-то сложнее чем мышкой кнопку на форму перетаскивать затянется
Судя по темам и постам, весь /зк полон икспертов во всех областях.
начинал, но они болтают слишком много ни о чем.
я подписан на ститчере на data sceptic и becoming a data scientist podcast (но в последнем тетка вообще жесть, на хайпе тупо интервью берет)
>Судя по темам и постам, весь /зк полон икспертов во всех областях.
Судя по интернету, нейросети вот-вот у всех работу отберут и наступит сингулярность. Но ни один из 20 программистов достаточно высокого уровня подготовки не смог мне за год запилить программу, которая распознает картинку с вебки, если точно такая же картинка лежит в папке. Для всех это "нереальная задача", некоторые пальцем у виска крутили.
Да нормально я даю.
Они даже цену свою назвать ни разу не захотели. Будто я пришел и сказал "сделайте мне фейсбук".
Просто показываешь на камеру распечатанную фотку картинки, которая в папке. Все. Я не ебу что тут может быть сложного. Если нейросети даже на такое не способны, то ну их нахуй.
Это сколько попросят.
>ни один из 20 программистов
>винду переставить можешь, тыж программист
Тебе нужен программист, знакомый с Machine Learning, а не просто программист. Это, как говорится, две большие разницы. Не там ты искал. Твою задачу вполне можно решить нейронкой.
А у тебя аналоговая и цифровая версия абсолютно идентичные или различаются? На входе может быть что-то кроме известной записи? Насколько точной должна быть синхронизация?
Куча дескрипторов и какое-нибудь сжатое 32x32 изображение, а потом из всех этих фич каким-нибудь простым алгоритмом типа SVM говорить одинакова картинка или нет.
Херня, с вебки у тебя кривая проекция, поворот, наклон, свет не такой, много лишнего в кадре. Или ты предложишь подносить картинку и выравнивать, пока не совпадет с рамочкой? Даже в таком случае не факт, что у тебя будет хорошо распознавать.
Есть дискрипторы инвариантные к поворотам и масштабированию. Короче это типикал задача Computer Vision, куча гайдов в интернете уже написана, причём лет 10 назад, работает конечно не 100%, но вполне приемлимо.
создай на апворке предложение о работе, опиши задачу, проведи интервью. Думаю, кто-то за 15-20 долларов (или даже меньше) в час сделает.
Нереально, тащ майор.
Ну это единственное что я еще не пробовал, но надо сформулировать запрос. Пока я не работал с источником звука это сложно.
И я рассчитывал баксов на 30, за 22 сейчас в Омске сайты делают.
>>917869
>раз денег нет заплатить
А ты по прежнему жопой читаешь.
>Лет за десять разберешься
Охуительный план.
Чегооо блять???
Нейросетки, очевидно.
нейтронная паутина
А ты думаешь пару алгоритмов выучишь, нейроночки задрочишь и уже сможешь ИИ сделать?
Ну надо же как-то начинать
Учитывая что ИИ на уровне человека еще даже гиганты индустрии не запилили, то мало чего-то знать, нужно преодолеть существующие ограничения, может-быть это ограничения в вычислительных мощностях или отсутствие необходимых для этого теоретических знаний и идей.
1. Индуктивное логическое программирование
2. Абдуктивное логическое программирование
3. Дедуктивное логическое программирование
4. Суабструктурное логическое программирование
5. Логическое программирование высших порядков.
Ну и немного символьных вычислений навернуть, начать можно с того же Макарти.
Матан, теорвер, местами статистика (самые основы).
>Насколько вообще нужна дискретная математика, теория алгоритмов, структуры данных?
Нахуй не нужно, если сам алгоритмы не разрабатываешь.
Лол, не пошел на биржу, зато умудрился даже заебать владельцев каких-то групп. Ты не похож на адеквата, я бы с тобой работать не стал. По поводу цены - в таких вещах никто никогда не ебет цену, поэтому и платят по часам.
>Абдуктивное логическое программирование
анука подробнее про ето
ну с дедуктивными всё понятно, классический пролог могёт в дедукцию же, да? индуктивное, ну тоже приблизительно понимаю, а абдуктивное это как? типа прога сама строит гипотезы? а откудова она знает из чего их брать? у людишек первооткрывателей там всякие озарения были, яблоко упало на голову хуё-моё, а железяке то откуда озарятся?
Школьник, вот что ты потерял в этом треде, если не понимаешь разницу между рандомом и хаосом?
Хаос - это не беспорядок, а некоторым образом организованный порядок. Т.е. для хаотического числового ряда характерно наличие аттрактора, определенные значения экспоненты Ляпунова, показателя Херста, сечение Пуанкаре на хаотическом числовом ряде выглядит как нечто структурированное. А рандом - это рандом, простое гауссово распределение. Никаких аттракторов, сечение Пуанкаре для рандома выглядит как бесструктурное облако точек и т.д.
>>919195
Почему вы уверены, что все должны использовать слово хаос только в значении детерминированный хаос из математики? Зануды.
Потому что здесь техническая тематика.
Базовые вещи прочитать из структур стоит все равно (хештаблицы, деревья) просто, чтобы понимать, как работает внутри код.
Условно говоря, вот вы решили, что вам нужна такая-то архитектура сети, то почему мне cross entropy милее mse, например? То же самое с Kullback Leibler divergence и hinge loss.
Вообще, поясните за KL divergence и cross entropy: я готов поверить, что для двух распределений P и Q KL divergence(P || Q) = cross entropy(P, Q) + cross entropy(P), так зачем нам эти две функции потерь, если они отличаются только на cross entropy(P)? В общем, не стукайте, я только пытаюсь раскурить, но тону в нотации (читаю Goodfellow - Deep Learning).
>принципиально новый язык программирования. Что в нем должно быть из фишек дабы было удобно реализовать все это машинное обучение? Например, думаю сделать как в Фортране работу с матрицами.
Идеальный язык для обработки данных, в т.ч. МЛ - R. Раз уж ты вспомнил про работу с матрицами - там это есть стандартными средствами.
поддержка вычислений на GPU автоматическая, чтобы всё само
Ячую этого.
Кратко, зависит от задачи и многие критерии выводятся из максимизации взаимной информации или логарифма правдоподобия с некоторыми предположениями о распределении переменных.
https://www.quora.com/When-should-mean-squared-error-be-preferred-over-average-cross-entropy-for-a-loss-function
Ты не из ДС, случайно?
https://cs.stanford.edu/people/karpathy/convnetjs/demo/cifar10.html
у меня чет не получается настроить Validation accuracy ниже 0.4
застревает на 0.45 и все
Двачую, может быть полезным.
Посоны, вы ж тут в R шарите? Чёт треда не вижу по Рэ, сюда напшу.
k.means.test <- function(points,k){
prob <-rep(0,k)
R <- 0
centers <- data.frame(i=numeric(),R=numeric(),clust=numeric())
offset <-sqrt((max(points$x)-mean(points$x))^2+(max(points$y)-mean(points$y))^2)/180
for(i in 1:360){
R <- ifelse(i<180|R>=0,R+offset, R-offset)
index <- max(k.means(k,points,cos(i),R)$cluster)
centers<-rbind(centers,data.frame(i=i,R=R,clust=index))
prob[index] <- prob[index]+1
}
print(prob)
return(centers[centers$clust==which.max(prob),])
}
Как от цикла в середине избавиться?
Много жрёт, думал может как-то хитро можно через аплаи заебенить, показалось, что здесь в принципе ничего не сделать, подумал, вдруг показалось.
В банкомате купюры распознают, в камерах слежения номера нарушителей палят, в аэропорту подозрительный багаж детектируют, экономика, биология, ну и всяческое айти. Блядь. ну эток ак где диффуры применяются, типа того. Метод матстатистики, просто название такое то ли маркетологами, то ли просто большие надежды возлагались. Так то один нейрончик логистическая регрессия и простейшее линейное уравнение, потом типа объединение идёт, можно даже на бумаге нарисовать, перемножить, получится уравнение первой степени но дохуя пеерменных убдет и коэффициентов. Вот задача в том, чтобы их подобрать наиболее удачно. Хочешь вкатиться начни с теорвера и статистики. Там ничего сложного нет, да и интересно это до жути.
>Как возможно описать границы области применения нейросетей так, чтобы это было просто и понятно?
Это продвинутая статистика. Вернее, на каком-то этапе статистики стало удобно общаться на языке вот таких абстракций и это со временем выросло в целый подраздел.
Как вкатиться, анон? Ты когнитивный психолог или около того? Реально ли вкатиться через программирование, задрачивание математики, ад, мо и прочего технического? Просто я как-то посмотрел, там нужна биология с психологией
и тп, в магистратуре в спбгу. Или это не то? Можешь побольше рассказать вообще куда хоть двигаться? Я за 10к по 12 часов без выходных готов работать, только бы взяли, но нет ни профильной вышки(есть непрофильная, техническая, инженер), только корочка о переподготовке на базе высшего ну ты сам понимаешь. В каком направлении двигаться?
>>921338
Правильно ли я понимаю, что, например, кардинально новый литературный рассказ нейросеть написать не сможет - только выведет средний каркас на основании других рассказов и подёргает то из одного рассказа то из другого какие-то уникальные приёмы (вполне возможно даже рандомно)?
>Хочешь вкатиться начни с теорвера и статистики. Там ничего сложного нет, да и интересно это до жути.
Ок, Благодарю!
>нейросеть написать не сможе
Чувак, ну это же популисты-журналисты расхайпили, ну чего ты? Какой рассказ написать? Звучит просто круто, нейронные сети, вот и нехороший шлейф мракобесия потянулся, с другой стороны свежие головы заинтересовало, может быть это такой себе запрос системы на прокачивание этой области науки. Хотя я сам дилетант-любитель и только начал погружаться во всё это, так что ты сильно ко мне не прислушивайся, лучше книжек умных почитай. Ну и да, там не обязательно логит пороговая функция, ну и то, что я говорил, это про многослойный перцептрон, а это древняя же тема, а до современных мне ещё очень долго разбираться и вникать. В общем, нарисуй в тетрадке простую сеть как на пике, где переходы (веса) умножаешь на входы, а сам нейрон складывает, потом это всё в функцию активации подаётся , на ну это ты забей, а просто вот не поленись, раскрой скобки и тд, пошагово сделай, там всего два действия повторяющихся, получишь длинное уравнение, степени будут 1, но переменных дохуя, причём веса насколько я понял это как раз коэффициенты, которые надо подобрать. Ну и всё, с такой точки зрения и магия мракобесная пропадает, да как в той же линейной регрессии, только на несколько порядок сложнее. Далее вступает в работу математика и коэффициенты подбираются таким образом, чтобы наши данные наилучшим образом описывались полученной моделью. Вот об этих методах я тебе уже нихуя не скажу, ибо рак и нуб с большими пробелами, которые ещё несколько лет навёрствывать.
> а сам нейрон складывает
Например, в первом будет X1W11+X2W21+X3W31(допустим три входа всего), потом всё это берёшь и
(X1W11+X2W21+X3W31) в скобки хуяришь и умножаешь на W21(там почему то W11 написано) и тд.
Ну и короче ты понял, в конце получаются коэффициенты(нагуглил алгоритм обратного распространения ошибки, очень мало что понял, какой то градиентный спуск,типа спускаемся по чуть-чуть, пока не найдём минимум, типа как наощупь пытаешься нащупать что-то, почему то так представлялось, но это уже математика которую я нихуя не знаю пока) ну и вот, нашли минимум нашей охуевшей функции и хорошо, тое сть нашли самую хоршо описывающуюб наши данные модель, запомнили коэффициенты и готово уравнение! Знай только туда очередные данные подставляй и получай на выходе ответ! Как-то так оно работает. А может быть и нет. Но как уравнение может написать книгу я себе представить не могу.
Писатель Робин Слоан создал на основе рекуррентной нейронной сети (RNN) текстовый генератор для написания научно–фантастической прозы. Об этом сообщает The Daily Mail.
Слоан представил свой проект на хакатоне Real Future Fair в Окленде. На глазах у зрителей нейросеть написала начало мрачного научно–фантастического романа: «Давным–давно в Окленде появился робот, созданный уничтожить все высокопоставленные семьи. Высокопоставленными семьями, конечно, были те, которые владели временами года. Когда они хотели, было лето. Когда они решали — наступала зима».
Для обучения алгоритма автор создал базу текстов из научно–фантастических журналов Galaxy и IF Magazine, выходивших в США в 60х–70х годах.
«Вы можете обучить нейронную сеть на больших объёмах любых текстов. Это может быть Википедия, или все произведения Чарльза Диккенса, или всё, что есть в интернете», — говорит Слоан.
Текстовый генератор принимает фрагменты текста и дописывает их, используя данные из базы:
«Я на 100% уверен, что через какое–то время все текстовые редакторы будут оснащены чем–то подобным», — пишет автор.
Ранее исследователь машинного интеллекта Макс Дойч создал рекуррентную нейронную LTSM–сеть, которая написала книгу о Гарри Поттере, изучив первые четыре книги серии.
В этом году в финал престижной литературной премии имени Хоси Синъити прошёл рассказ, написанный учеными из Университета Будущего Хакодате в соавторстве с искусственным интеллектом. Чтобы алгоритм смог «сочинить» рассказ, учёные предоставили ему набор входных данных: пол главных персонажей, описание сюжета, а также набор основных фраз и предложений.
https://seoded.dirty.ru/pisatel-obuchil-neiroset-pisat-nauchno-fantasticheskuiu-prozu-1242495/
> учёные предоставили ему набор входных данных: пол главных персонажей, описание сюжета, а также набор основных фраз и предложений.
>описывающуюб наши данные модель, запомнили коэффициенты и готово уравнение! Знай только туда очередные данные подставляй и получай на выходе ответ!
>Чувак, ну это же популисты-журналисты
С другой стороны, это образец современного искусства, человек применяет технологии для творчества, те же диджеи драмнбассные, это в общем круто.
Вот аппроксимируют эти нейроночки. Весело. И кажется, что прогресс куда-то там движется. А по сути для реального творчества это мало что дает.
Если реально по науке поступать, то надо какую-то теорию построить по тому, как пишутся рассказы, ну или развить и соединить уже существующие вещи (ведь уже немало всего придумали). А потом можно было бы и узконаправленную программу сделать, которая более эффективно и качественно решала задачу.
Ну да, составить коллаж из рассказов, тщательно продумывать тему, развитие сюжета и тд и тп, а потом тупо скормить полностью детерминированному уравнению и получить результат. Не проще самому написать? Нет, не модно.А ВНУТРЕ У НЕЙ НЕЙРОНКА!
>А ВНУТРЕ У НЕЙ НЕЙРОНКА
Старичок засуетился. Он снял с футляра крышку, под которой оказалась громоздкая старинная пишущая машинка, извлек из кармана моток провода, воткнул один конец куда-то в недра машинки, затем огляделся в поисках розетки и, обнаружив, размотал провод и воткнул вилку.
— Вот, изволите видеть, так называемая эвристическая машина, — сказал старичок. — Точный электронно-механический прибор для отвечания на любые вопросы, а именно — на научные и хозяйственные. Как она у меня работает? Не имея достаточных средств и будучи отфутболиваем различными бюрократами, она у меня пока не полностью автоматизирована. Вопросы задаются устным образом, и я их печатаю и ввожу таким образом к ей внутрь, довожу, так сказать, до ейного сведения. Отвечание ейное, опять через неполную автоматизацию, печатаю снова я. В некотором роде посредник, хе-хе! Так что, ежели угодно, прошу.
Он встал за машинку и шикарным жестом перекинул тумблер. В недрах машинки загорелась неоновая лампочка.
— Прошу вас, — повторил старичок.
— А что это у вас там за лампа? — подозрительно спросил Фарфуркис.
Старичок ударил по клавишам, потом быстро вырвал из машинки листок бумаги и рысцой поднес его Фарфуркису. Фарфуркис прочитал вслух:
— «Вопрос: что у нея… гм… у нея внутре за лпч?..» Лэпэчэ… Кэпэдэ, наверное? Что еще за лэпэчэ?
— Лампочка, значит, — сказал старичок, хихикая и потирая руки. — Кодируем помаленьку. — Он вырвал у Фарфуркиса листок и побежал обратно к своей машинке. — Это, значит, был вопрос, — произнес он, загоняя листок под валик. — А сейчас посмотрим, что она ответит…
Члены Тройки с интересом следили за его действиями. Профессор Выбегалло благодушно-отечески сиял, изысканными и плавными движениями пальцев выбирая из бороды какой-то мусор. Эдик пребывал в спокойной, теперь уже полностью осознанной тоске. Между тем старичок бодро постучал по клавишам и снова выдернул листок.
— Вот, извольте, ответ.
Фарфуркис прочитал:
— «У мене внутре… гм… не… неонка». Гм. Что это такое — неонка?
— Айн секунд! — воскликнул изобретатель, выхватил листок и вновь подбежал к машинке.
Дело пошло. Машина дала безграмотное объяснение, что такое неонка, затем она ответила Фарфуркису, что пишет «внутре» согласно правил грамматики, а затем…
Фарфуркис: Какой такой грамматики?
Машина: А нашей русской грмтк.
Хлебовводов: Известен ли вам Бабкин Эдуард Петрович?
Машина: Никак нет.
Лавр Федотович: Грррм… Какие будут предложения?
Машина: Признать мене за научный факт.
.....
Выбегалло отреагировал немедленно.
— Эта... — сказал он. — так ведь я и говорю, ценное же начинание. Элемент необъяснимого имеется, порыв снизу... почему я и рекомендовал. Эта... — сказал он. — объясни, мон шер, товарищам, что тут у тебя к чему.
Старичок словно взорвался.
— Высочайшее достижение нейтронной мегалоплазмы! — провозгласил он. — ротор поля наподобие дивергенции градуирует себя вдоль спина и там, внутре, обращает материю вопроса в спиритуальные электрические вихри, из коих и возникает синекдоха отвечания...
>А ВНУТРЕ У НЕЙ НЕЙРОНКА
Старичок засуетился. Он снял с футляра крышку, под которой оказалась громоздкая старинная пишущая машинка, извлек из кармана моток провода, воткнул один конец куда-то в недра машинки, затем огляделся в поисках розетки и, обнаружив, размотал провод и воткнул вилку.
— Вот, изволите видеть, так называемая эвристическая машина, — сказал старичок. — Точный электронно-механический прибор для отвечания на любые вопросы, а именно — на научные и хозяйственные. Как она у меня работает? Не имея достаточных средств и будучи отфутболиваем различными бюрократами, она у меня пока не полностью автоматизирована. Вопросы задаются устным образом, и я их печатаю и ввожу таким образом к ей внутрь, довожу, так сказать, до ейного сведения. Отвечание ейное, опять через неполную автоматизацию, печатаю снова я. В некотором роде посредник, хе-хе! Так что, ежели угодно, прошу.
Он встал за машинку и шикарным жестом перекинул тумблер. В недрах машинки загорелась неоновая лампочка.
— Прошу вас, — повторил старичок.
— А что это у вас там за лампа? — подозрительно спросил Фарфуркис.
Старичок ударил по клавишам, потом быстро вырвал из машинки листок бумаги и рысцой поднес его Фарфуркису. Фарфуркис прочитал вслух:
— «Вопрос: что у нея… гм… у нея внутре за лпч?..» Лэпэчэ… Кэпэдэ, наверное? Что еще за лэпэчэ?
— Лампочка, значит, — сказал старичок, хихикая и потирая руки. — Кодируем помаленьку. — Он вырвал у Фарфуркиса листок и побежал обратно к своей машинке. — Это, значит, был вопрос, — произнес он, загоняя листок под валик. — А сейчас посмотрим, что она ответит…
Члены Тройки с интересом следили за его действиями. Профессор Выбегалло благодушно-отечески сиял, изысканными и плавными движениями пальцев выбирая из бороды какой-то мусор. Эдик пребывал в спокойной, теперь уже полностью осознанной тоске. Между тем старичок бодро постучал по клавишам и снова выдернул листок.
— Вот, извольте, ответ.
Фарфуркис прочитал:
— «У мене внутре… гм… не… неонка». Гм. Что это такое — неонка?
— Айн секунд! — воскликнул изобретатель, выхватил листок и вновь подбежал к машинке.
Дело пошло. Машина дала безграмотное объяснение, что такое неонка, затем она ответила Фарфуркису, что пишет «внутре» согласно правил грамматики, а затем…
Фарфуркис: Какой такой грамматики?
Машина: А нашей русской грмтк.
Хлебовводов: Известен ли вам Бабкин Эдуард Петрович?
Машина: Никак нет.
Лавр Федотович: Грррм… Какие будут предложения?
Машина: Признать мене за научный факт.
.....
Выбегалло отреагировал немедленно.
— Эта... — сказал он. — так ведь я и говорю, ценное же начинание. Элемент необъяснимого имеется, порыв снизу... почему я и рекомендовал. Эта... — сказал он. — объясни, мон шер, товарищам, что тут у тебя к чему.
Старичок словно взорвался.
— Высочайшее достижение нейтронной мегалоплазмы! — провозгласил он. — ротор поля наподобие дивергенции градуирует себя вдоль спина и там, внутре, обращает материю вопроса в спиритуальные электрические вихри, из коих и возникает синекдоха отвечания...
Это очень плохая статья. Автор сам не понимает, что делает.
мне вот кажется что проблема всех статей про нейросети, это то что везде пытаются строить именно сети из нейронов, мне кажется что проще для понимания это на языке линейной алгебры рассказать что такое нейросеть, и не упоминать вообще про нейроны, дендриты, аксоны, рецепторные поля и т.д.
что может быть проще нежели фраза гиперболический тангенс от линейной комбинации входного вектора и вектора весов =)
О, это не проблема. Это гениальный маркетинговый ход. Нейросети и генетические алгоритмы отличаются как раз аксонами и хромосоми, а не тем, что это очень уж хорошие методы оптимизации. Не знаю на счет финансирования, а в универах это популярно из-за терминологии, это не скучные методы типа нелинейного МНК с кучей частных производных.
В искусственных нейросетях тоже много математики конечно, но всем пофиг, у всех нейроны — это классы с циклами внутри, и вместо того, чтобы разобраться с линалом и BLAS получается вот так вот — чередная статья на хабре с ООПшным нейроном
Согласен! На мой взгляд проблема даже не столько в «романтичности» нейронных сетей, а в разнице преподавания. Нейронные сети это всегда практические примеры — «а давайте сделаем распознаватель рукописных цифр» или «сделаем управление машиной». А вышку нам всегда преподавали сухо и абстрактно… было не понятно ни зачем матрицы нужны, ни чем поможет взятие архисложного интеграла.
И это печально. Без знания математики нейронные сети, остаются черными «магическими» ящиками, с которыми можно только колдовать…
Радует появление качественных онлайн курсов от ведущих специалистов в этой области.
Общая теория известна, но она ничего не даёт потому-что слишком общая. А слишком подробная теория бы закрепила слишком много, и кому тогда вообще бы было интересно читать рассказы построенные слишком одинаково?
Короче я офигеваю с вашей тупости тут, идите работайте, мечтатели. Денег заработайте, рекомендательные системы поимпрувте, сидите тут стулья пропёрживаете на мамкины борщи.
>повёлся на россказни ведущих пабликов страны про ИИ, пишущий книги и музыку
>я офигеваю с вашей тупости тут
Забавно.
Если ты ничего умного сказать не можешь, значит тупой тут только ты. Лучше бы ты молчал, тут серьезные дяди разговаривают.
Грубо говоря, везде есть связь, только где-то она будет нулевая.
>закономерность даже между не связанными вещами
>ошибка второго рода
Ещё как могут! Этим вообще вся статистика с самого создания грешит.
Это копия, сохраненная 12 марта 2017 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.