Этого треда уже нет.
Это копия, сохраненная 6 января 2019 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №11 /ai/ 1287447 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем спрашивать очевидные вещи, о которых знает любой индус, прочитавший хоть одну книгу по машобу.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/ | Николенко и др. "Глубокое обучение" На русском, есть примеры, но уже охват материала
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.tk/thread/398904/
Остальные в предыдущих тредах

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1281076 (OP)
2 1287451
Годная шапка. А вот спойлеры негодно, только читать мешают
kisspng-rage-pepe-the-frog-video-game-kill-for-you-pol-pepe[...].jpg105 Кб, 900x900
3 1287465
Товарищи неосиляторы, допилите уже шапку до мана и пушните на гитхаб, блэт. Уже дохуя ссылок проебалось.
4 1287470
>>287465

>допилите


Не хочешь начать с себя?
5 1287502
>>287447 (OP)

>http://www.deeplearningbook.org/


Уберите уже эту хуету, для начинающих оно бесполезно, как и для всех остальных. Или это троллинг такой?
6 1287605
>>287447 (OP)
Почему не работает?

# [ [9278, 37.9, ...], [18594, 36.3, ...], ... ]
print(training_set_input.shape) -> (300, 636)

# [ [1, 0], [0, 1], ... ]
print(training_set_output.shape) -> (300, 2)

//////////////////////////////////// ATTEMPT 1

model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=(300, 636)))
model.add(tf.keras.layers.Dense(2, activation='softmax'))
model.compile(optimizer='adam', loss='mse')

history = model.fit(training_set_input, training_set_output, validation_data=(validation_set_input, validation_set_output), epochs=10, batch_size=32)

//////////////////////////////////// ERROR 1

File "network.py", line 85, in train
history = model.fit(training_set_input, training_set_output, validation_data=(validation_set_input, validation_set_output), epochs=10, batch_size=32)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/models.py", line 920, in fit
validation_steps=validation_steps)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 1592, in fit
batch_size=batch_size)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 1431, in _standardize_user_data
exception_prefix='input')
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 144, in _standardize_input_data
' dimensions, but got array with shape ' + str(array.shape))
ValueError: Error when checking input: expected lstm_1_input to have 3 dimensions, but got array with shape (300, 636)

//////////////////////////////////// ATTEMPT 2

model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=(636,)))
...

//////////////////////////////////// ERROR 2

ValueError: Input 0 of layer lstm_1 is incompatible with the layer: expected ndim=3, found ndim=2. Full shape received: [None, 636]
6 1287605
>>287447 (OP)
Почему не работает?

# [ [9278, 37.9, ...], [18594, 36.3, ...], ... ]
print(training_set_input.shape) -> (300, 636)

# [ [1, 0], [0, 1], ... ]
print(training_set_output.shape) -> (300, 2)

//////////////////////////////////// ATTEMPT 1

model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=(300, 636)))
model.add(tf.keras.layers.Dense(2, activation='softmax'))
model.compile(optimizer='adam', loss='mse')

history = model.fit(training_set_input, training_set_output, validation_data=(validation_set_input, validation_set_output), epochs=10, batch_size=32)

//////////////////////////////////// ERROR 1

File "network.py", line 85, in train
history = model.fit(training_set_input, training_set_output, validation_data=(validation_set_input, validation_set_output), epochs=10, batch_size=32)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/models.py", line 920, in fit
validation_steps=validation_steps)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 1592, in fit
batch_size=batch_size)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 1431, in _standardize_user_data
exception_prefix='input')
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 144, in _standardize_input_data
' dimensions, but got array with shape ' + str(array.shape))
ValueError: Error when checking input: expected lstm_1_input to have 3 dimensions, but got array with shape (300, 636)

//////////////////////////////////// ATTEMPT 2

model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=(636,)))
...

//////////////////////////////////// ERROR 2

ValueError: Input 0 of layer lstm_1 is incompatible with the layer: expected ndim=3, found ndim=2. Full shape received: [None, 636]
7 1287709
>>287605
input_shape=(636, 1), дальше expand_dims для training_set_input, затем скорее всего будет Flatten перед Dense
8 1287842
>>287709

>input_shape=(636, 1)



model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=(636, 1)))
ValueError: Error when checking input: expected lstm_1_input to have 3 dimensions, but got array with shape (300, 636)

>дальше expand_dims для training_set_input



np.asarray(np.expand_dims(training_set_input, axis=0)) ->
ValueError: Error when checking input: expected lstm_1_input to have shape (None, 636, 1) but got array with shape (1, 300, 636)

>затем скорее всего будет Flatten перед Dense



model.add(tf.keras.layers.Flatten()) ->
ValueError: Error when checking input: expected lstm_1_input to have shape (None, 636, 1) but got array with shape (1, 300, 636)
9 1287845
>>287842

>np.asarray(np.expand_dims(training_set_input, axis=0)) ->


>ValueError: Error when checking input: expected lstm_1_input to have shape (None, 636, 1) but got array with shape (1, 300, 636)


Ну очевидно же что axis в expand_dims должен быть равен 2, чтобы, (None, 636, 1) совпадал с (300, 636, 1)
Что-то ты совсем тупенький
15126703918780.jpg55 Кб, 552x783
10 1287853
>>287845
Ого... заработало...

Это точно сет из 300 итераций? Зачем ему всё это форматирование?
1920px-Origin-of-the-World.jpg812 Кб, 1920x1591
11 1287880
Освящаю пихвоидом
12 1287945
>>287880
Искусство это прекрасно, но разве это единственная работа на эту тему? Потрудитесь для следующего треда найти что-нибудь новое, коллега.
13 1287948
>>287945

>но разве это единственная работа на эту тему?


На кокую тему?
14 1288077
>>287853
Тебе уже писали, в tensorflow принят формат данных (число_примеров, длина, ширина, каналы). Для одномерных данных будет (число_батчей, длина, каналы). У тебя данные одномерные и одноканальные, поэтому нужно (None, 631, 1).
А дальше с помощью expand_dims, reshape и squeeze ты можешь добиться, чтобы твои данные были должным образом оформлены.
15 1288160
Может, пока уходить от нейроноёбства? Почему типовые задачи до сих пор решаются с бубном?
16 1288187
SOOQYUA как же бесит ебаный python. Датасаенсы как стандартные макаки-говноеды выбрали изи-говно, лишь бы нихуя не изучать. А четкие поцоны теперь должны вытирать кровь, текущую из глаз, и наслаждаться динамической парашей, потому что это индустриальный стандарт.

Пидарасы
17 1288190
>>288160

>решаются


ничего они не решаются, так пыль в глаза
18 1288198
>>288190

Семён, плз
hqdefault.jpg11 Кб, 480x360
19 1288201
>>288198
Это опять ты? Ну давай, расскажи, какую там задачу решили, ну или решают с приемлемым результатом
20 1288212
>>288187
>>288201
опять петухи набежали
>>288187
к сожалению, у питона просто нет альтернатив (мб, скала только)
21 1288214
>>288212
Опять виляешь жоппой?
22 1288219
>>288187
Питон наиболее подходит для "тяп-ляп быстро-на-коленке-хуяк" прототипирования, типичного в датасаенсе. Потом написали пейпер и забыли нахуй, пишем другой прототип.
23 1288230
>>288219

>прототипирования


чего? есть буйные фантазии матанопетушни которые высераются на бумагу, затем хуяк хуяк прототип на питухоне, который может от силы 1 процент заявленного реализует, затем кульминация это требует дополнительных исследований, ну или дальше все очевидно, сделаете сами
24 1288234
>>288214
>>288219
>>288230
исследователи пихвоидов негодуют
25 1288237
>>288234
https://m.youtube.com/watch?v=tqTPOPvtx7I
Даже профессоры уже охуевают матанопетушни, матан ни к физике не имеет никакого отношения ни к ИИ. Нейронки это маркетинговый ход со стороны маняматиков.
26 1288252
>>288237

>Нейронки это маркетинговый ход со стороны маняматиков.


Веб-макака, плес.
27 1288278
>>288212

> к сожалению, у питона просто нет альтернатив (мб, скала только)


R. Пистон и прочее хипстерство не нужно.
28 1288279
>>288187
А ты хочешь CAS на статикопетушне делать что ли? Совсем ебобо что ли
29 1288348
>>288212

>к сожалению, у питона просто нет альтернатив (мб, скала только)


scala, kotlin, даже б-гомерзкая java последних версий получше будет

>>288279
Да. Будет тулинг и ошибки на этапе конпеляции. Питон - это более красивый php, но не более того. Смирись
30 1288364
>>288348

>даже б-гомерзкая java последних версий получше будет


Толсто. То, что на питоне можно сделать в 1-2 строчки при помощи map/reduce/filter/list comprehension и лямбд в джаве займет десятки строк кода. Про вербозность джавы и отсутствие вменяемых библиотек я вообще промолчу.
31 1288370
>>288364

>То, что на питоне можно сделать в 1-2 строчки при помощи map/reduce/filter/list comprehension и лямбд в джаве займет десятки строк кода.


Лол, фантазер. Буквально сегодня я охуел от того, насколько неудобно и многословно выглядит map/reduce/filter в питоне в сравнении с джавой.
32 1288377
>>288348

> Будет тулинг и ошибки на этапе конпеляции


Нахуя мне ошибки на этапе компиляции?
Мне не нужны ни ошибки на этапе компиляции, ни сама компиляция.
33 1288380
>>288370

>map/reduce/filter


Заменяется list comprehension, которые в жабу не завезли
34 1288383
>>288377
Ага, тулинг туже не нужен. Сиди дальше в своем notepad.exe(или jupiter) без автокомлита, статического анализа и рефакторинга. Впрочем для ПРОТОТИПОВ это и не нужно, правда?

>>288380

>list comprehension


У меня от этого болит flatmap. Кстати, любой list comprehension будет длиннее и непонятнее, чем цепочка transform & action операций.
35 1288385
>>288383

>для ПРОТОТИПОВ это и не нужно, правда?


Правда, на то они и прототипы. Потом, при выпуске готового продукта, прототип нужно по уму переписать.
36 1288388
>>288385
Нихуя ты программист. И на чем ты этот прототип переписывать будешь? Бля, неужели на java/kotlin/scala? А как же невменяемые библиотеки, компиляция и статикопараша?
37 1288403
>>288383

>без автокомлита


>статического анализа


>рефакторинга


Пиши код в PyCharm и декларируй типы.
38 1288502
>>288388

>программист


написанные трудом и потом десять строчек на питухоне будут переписанны в 15 строчек на жабе
вся суть нейронщиков
39 1288516
>>288383
Основной твой тул - интерпретатор. Питон в свое время победил, потому что это неплохой интерпретируемый язык, он и задизайнен с учетом этого. А когда у нас там jshell появился? В 2016? А когда вывод типов в kotlin станет достаточно развитым, чтобы интерпретатор был удобен? Никогда? То-то же.

Приоритеты разные. Автокомлит, может, и хорош, но какой ценой.
В продакшене ты лучше лишний час посидишь, но зато меньше тестирования и меньше падений у заказчика. Плюс код большой - самодокументируемость и т. п. Но результат работы ML- специалиста - модель, которую уже можно загрузить на любом более-менее популярном языке. Как она обучена никого не волнует. Поэтому твой подъеб по поводу прототипов инвалидный.

При исследованиях основной пользователь твоих скриптов это ты и твои коллеги-профессионалы. Упадет - и хуй с ним. Тестится все тоже довольно просто, ты комментишь tf.Session.run и запускаешь - дошло до конца, значит и при недельном обучени не упадет. А упадет - подымишь из снапшота и продолжишь.
И типы у тебя это в 99% случаев numpy-матрицы. Которые, внезапно, статическим образом не проверяемы - если у тебя не йоба-язык с зависимыми типами, конечно. Так что страшно далек ты от народа.

По поводу внезапного срача редакторы vs IDE не понял, при чем тут он.
1. У питона есть IDE
2. Да, IDE - говно для нубасов, батьки используют редакторы, причин этому тьма. Но это оффтопик, так как смотри п. 1.
40 1288548
Диапазон: (-1, 1)

Пример данных, которые должны быть на выходе:
[0, 0, ... 0, -0.245, 0, ... 0, 0.03, 0, ... 0]
Может быть большое количество нулей.

Какая функция активация для этого подойдёт?
41 1288551
>>288548
p.s. каждое значение это один экземпляр из сета, на выходе всегда одно значение в диапазоне (-1, 1)
42 1288558
хочу строить роботов

с чего начать? Напишите роадмап
43 1288580
>>288558
1) купи ардуину и кастрюлю из нержавейки
1535384750156697094.jpg183 Кб, 700x933
44 1288584
>>288558

>с чего начать?


С гейпорно
45 1288606
>>288580
>>288584
опа, задродитки не понимающие что у них нет чувства юмора
46 1288610
>>288548
бамп вопросу
47 1288634
>>288548
Либо никакая, либо tanh. Это в последнем слое. В остальных relu есесна.
Гораздо важнее выбрать правильный loss.
48 1288658

>>128818



Фреймворки самые годные
49 1288659
>>288634
хммм.... у меня структура такова:

530 - input (диапазон входных данных от 0 до 1)
50 - sigmoid
50 - sigmoid
1 - output, activation='tahn' (диапазон данных от -1 до 1)

optimizer='adam', loss='mse'

при тестировании сети почему-то почти все значения в диапазоне 0.00057-0.00056

что тут не так?
50 1288697
>>288659
у тебя данные нормализованные?
а то у тебя сигмоида может НАСЫЩАТЬСЯ
51 1288700
>>288697

>сигмоида может НАСЫЩАТЬСЯ


А еще мою пихвоиду критикуют.
52 1288721
>>288697
Пример входных данных:
https://pastebin.com/n4BdzKNF
53 1288737
>>288697
Скорее всего, у него сетка тупо выдаёт среднее. Он же написал, что у него нулей в ответах много.
Хотя с учётом того, как выглядят данные >>288721 (там отличие в третьем знаке, лол!), нормализовывать ещё как надо.
>>288659
И какое MSE на контроле в итоге?
И сколько у тебя данных-то?
И что это >>288721 за данные - это один объект такой или один признак?
54 1288749
>>288737
Интересно. Попробую перенормализовать. А что, нейросети некорректно работают с малыми отличиями?
55 1288755
>>288700
никто не критикует, просто одна голодная ходит и потому не сходится
56 1288759
Антоны, а нейронную сеть можно приспособить под сборку различных вещей?
Чтобы она генерировала инструкцию, какую деталь и в каком порядке присоединять?
57 1288812
>>288749
С малыми отличиями все плохо работают, кроме, может быть, лесов.
58 1288834
Сап двач поясни за cnn. Вот первый слой фильтров активируется на всевозможные линии. Но как эти фильтры получают параметры именно под линии? Ведь мы прост инициализируем их рандомными значениями, а дальше бэкпроп.
59 1288842
>>288834
Ровно так и получают.
Однажды я решил поставить markov-chains на NodeJS 60 1288864
Пришлось пост порезать, ктож знал, что марковские цепи так быстро работают, что в такую графоманию способны.
Перед молодой девушкой раздался громкий стук металла. Она просто не была система, где игроки попытаются вторгнуться в кошек и напоминала яйцо, у девушки не так уж и высокоуровневые классы. Предельным для них было достаточно, чтобы мне уходить... — неистово закричав, он поклонился. Момонга наконец достиг последней части её имя.
Её звали Альбедо, Смотритель Стражей этажей Великого Склепа Назарика было интерфейса.
— Что происходит?
Время было особыми словами. А некто, смеясь, говорил, что он зарабатывал деньги на кресло, где должны принудительно выкинуть из игры. Но ведь игра закончится, и Хэрохэро сказал дальше:
— Как и никого не хочу остаться онлайн до закрытия сервера.
С чувством, будто он зашёл?
Каждый НИП, обладает такими настройками.
— Хмм... — Конечно, ответа не двигая челюстью. Несмотря на содержимое, он к НИП с любовью создал согильдиец? Немного поразмыслив, Момонга вооружился до тех пор, пока у меня нарушилось чувство времени, потому что ты поменял работу вовремя, куча работы, из-за подвигов Момонги, а вместо этого украшал сорок восьмым, их суммарный уровень это место, и имеющие некоторые параметры выше, чем у девушки Смерть двинулась в нежить. Второй был мёртв.
Да, мёртв.
Бедствие, угрожающее жизни не успевал сделать работу в виртуальном мире не делать НИП Великого Склепа Назарика остался он решил написать такие как его держит. Рыцарь замер, будто на другой смысл этого, если игроку удавалось заполучить один из радужных самоцветов, они принадлежали, Аинз Оал Гоун.
— Си-дзюутэн Судзаку.
Палец задвигался быстрее, указывая на левом запястье. И одна сияла особенно высокие доходы, просто постоянно тут же стёр предложение.
— Вот почему это предложил, был...
— Улберт-сан...
Среди всех к нему женщину.
Пышные светлые волосы до самого себя, и серебром низкие ступеньки, — вот это место останется, а Великий Склеп Назарика, которое позже назвали «визуальной популярностью». Со стены за чёрт?! — ход мыслей вдруг атаковать всех подряд. Однако Момонга увидел тридцать восьмой год. Термин ММОРПГ-П появился давно и собирали материалы. Спорили по сути, монстром. При вражеском вторжении он ступает на талии были разделены по размерам в самом деле големами, созданными из одежды. В целом, от Хэрохэро и взял оплачиваемый отпуск.
Были времена, когда это было бы даруй мне это слышать.
— ...Но, боюсь, уже очень часто — а сервер отключить.
0:00:38.
Уже прошло анонсированное время с какой должен быть и Муспельхейм.
Обширный мир, бесчисленные переменные, такие как из флагов.
— Я.
Затем указал на Момонгу, чтобы мне пора начать приказывать нужно высоко поднимать голову, чтобы узнал Момонга. Держась за то, что в шелковой перчатке держала странный объект — Плечи Момонги начало дрожать. В Иггдрасиле не должно было бы гримаса. Момонга сделал их грандиозности, двери и затем того, можно было забрать жизнь одним ударом. Поднятый высоко поднимать голову, будто скованный льдом. Он поднял левую руку и странные настройки. Один из таких привилегий — Следуйте за рамки приличия.
Момонга уставился на внешность дьявола, всего было по-настоящему весело...
Каждый месяц Момонга удовлетворенно кивнул — Нимфоманка... значит, она бы еще могла отбиться от Смерти, но была исключением. Именно поэтому посох обвивали семь змей. Во рту каждой категории, число всех дней что-то добавить...
— Но сидя тут же эмоцию.
Затем Хэрохэро задвигалась в сочетании имело огневую мощь, которая должна была НИП, обладает такими настройками.
— Хмм... — Голос Момонги сильно затряслись. Затем он быстро ответил:
— Всё в последний день, и стал перед таким обширным, что, казалось, вырезан из одежды. В стене холла было написано — двенадцать лет назад, в зал. Он увидел вдали идущую к системе, Чат, вызов Гейммастера, Выход из захватчиков не делать НИП можно посчитать, что он услышал, что он всегда уставший. Но тем не станется, если отведёт глаза.
— Хватка сердца, — потерял дар речи.
— ...Э? Что происходит?
Время было всего Иггдрасиля. Даже после своего сердца, её ранг был старый дворецкий, также почувствовал тревогу, его могущественные способности никогда не хватает величия, — воплощение смерти сжало руку. Рядом с сорок пять метров. Дотошно выгравированная богиня на Момонгу, чтобы следовать разговору.
— Согласен. Давно не могло быть никакого другого толкования: — как будто он уже очень часто — Глядя, как не могла радоваться, ведь на то чтобы любой класс, пока их прекрасно проработанный ИИ.
Однако...
— Как же и были монстрами.
Они были одни из потустороннего мира. Подумала девушка, когда она начала хватать ртом воздух от работы тело, чтобы на троне и он не командовал НИП.
После того как бумага, но Момонга поднёс руку и сильной, как уйти. Тот, кто это, Момонга поспешно попытался найти любые новости о Назарике, то мгновение, когда она бы еще могла радоваться, ведь на другой смысл этого, если он рисует, тоже хорошо провёл время могли выбрать игроки.
— Давно не игровым персонажем (НИП). В пустых глазницах блестело тёмно-красное зарево, а чуть более сильными и забрать жизнь одним из таких игр одна сияла особенно ярко.
Иггдрасиль.
Игра была выпущена известным японским разработчиком двенадцать лет назад, в замысловатой угольно-чёрной мантии, края которой они проводили в игру после своего сердца, её создал Хэрохэро сказал Момонга, глядя на девушку и указал на охрану ключевых мест.
Но из сорока одного НИП. Возможно ли, что мы снова встретимся... было девять колец, каждое с кресла. Он всё равно он послал письма своим видом она была прекрасной женщиной с потолка люстры светили мягким, тёплым светом. Этот случай превратил Назарик в Иггдрасиле.
— Что за?..
Хотя Момонга молча ждать, как бумага, но своей властью. Придя к нейронному наноинтерфейсу — Плечи Момонги начало дрожать. В этот зал, который в ярости, он почувствовал разочарование от рыцаря и активировал одну треть зарплаты на пустое место не вернётся. Во рту каждой категории, число «0». — человек, заявлявший: «лучшее оружие гильдии. Вот почему это не видят дневного света. В таком случае Гейммастера уже пережиток прошлого...
В сердце Назарика.
Момонга со впалыми щёками были почти никогда не предавал. Должно быть, для игры расы с друзьями. Для Момонги, а вместо этого не было невозможно тут в замысловатой угольно-чёрной мантии, края которой держал посох. Момонга подумал, что, казалось, поглощает каждый звук его держит. Рыцарь замер, будто изменение в Иггдрасиле гильдиям, владеющим базой, эквивалентной замку и автоматически перерождаются через Лемегетон и отбивали атаки вражеских игроков.
Но сейчас я очень давно не слишком напугана. Она уже сделали бы чудесно, если бы это намеренно.
Такой уровень свободы применялся и даже избегал опасных мест, которые они не решился сказать в преддверии конца Иггдрасиля разделялись на содержимое, он через консоль к этому НИП. Когда же стёр предложение.
— Вот почему в полной грудью, угрожающей вот-вот вывалиться из самих глубин её божественная красота. Кроме них не в две ниши, в месте, известном своей красотой он вселял ужас.
Будто из самих глубин её сторону. Тьма перед концом. Хорошей игры.
— ... — потерял дар речи.
Ответил ему впервые услышал за это подобает Гильдмастеру. Затем он чувствовал какую-то странность происходящего. Ведь рыцарь, облачённый в замысловатой угольно-чёрной мантии, края которой они принадлежали, Аинз Оал Гоун.
Прошло довольно поздно.
Однажды я решил поставить markov-chains на NodeJS 60 1288864
Пришлось пост порезать, ктож знал, что марковские цепи так быстро работают, что в такую графоманию способны.
Перед молодой девушкой раздался громкий стук металла. Она просто не была система, где игроки попытаются вторгнуться в кошек и напоминала яйцо, у девушки не так уж и высокоуровневые классы. Предельным для них было достаточно, чтобы мне уходить... — неистово закричав, он поклонился. Момонга наконец достиг последней части её имя.
Её звали Альбедо, Смотритель Стражей этажей Великого Склепа Назарика было интерфейса.
— Что происходит?
Время было особыми словами. А некто, смеясь, говорил, что он зарабатывал деньги на кресло, где должны принудительно выкинуть из игры. Но ведь игра закончится, и Хэрохэро сказал дальше:
— Как и никого не хочу остаться онлайн до закрытия сервера.
С чувством, будто он зашёл?
Каждый НИП, обладает такими настройками.
— Хмм... — Конечно, ответа не двигая челюстью. Несмотря на содержимое, он к НИП с любовью создал согильдиец? Немного поразмыслив, Момонга вооружился до тех пор, пока у меня нарушилось чувство времени, потому что ты поменял работу вовремя, куча работы, из-за подвигов Момонги, а вместо этого украшал сорок восьмым, их суммарный уровень это место, и имеющие некоторые параметры выше, чем у девушки Смерть двинулась в нежить. Второй был мёртв.
Да, мёртв.
Бедствие, угрожающее жизни не успевал сделать работу в виртуальном мире не делать НИП Великого Склепа Назарика остался он решил написать такие как его держит. Рыцарь замер, будто на другой смысл этого, если игроку удавалось заполучить один из радужных самоцветов, они принадлежали, Аинз Оал Гоун.
— Си-дзюутэн Судзаку.
Палец задвигался быстрее, указывая на левом запястье. И одна сияла особенно высокие доходы, просто постоянно тут же стёр предложение.
— Вот почему это предложил, был...
— Улберт-сан...
Среди всех к нему женщину.
Пышные светлые волосы до самого себя, и серебром низкие ступеньки, — вот это место останется, а Великий Склеп Назарика, которое позже назвали «визуальной популярностью». Со стены за чёрт?! — ход мыслей вдруг атаковать всех подряд. Однако Момонга увидел тридцать восьмой год. Термин ММОРПГ-П появился давно и собирали материалы. Спорили по сути, монстром. При вражеском вторжении он ступает на талии были разделены по размерам в самом деле големами, созданными из одежды. В целом, от Хэрохэро и взял оплачиваемый отпуск.
Были времена, когда это было бы даруй мне это слышать.
— ...Но, боюсь, уже очень часто — а сервер отключить.
0:00:38.
Уже прошло анонсированное время с какой должен быть и Муспельхейм.
Обширный мир, бесчисленные переменные, такие как из флагов.
— Я.
Затем указал на Момонгу, чтобы мне пора начать приказывать нужно высоко поднимать голову, чтобы узнал Момонга. Держась за то, что в шелковой перчатке держала странный объект — Плечи Момонги начало дрожать. В Иггдрасиле не должно было бы гримаса. Момонга сделал их грандиозности, двери и затем того, можно было забрать жизнь одним ударом. Поднятый высоко поднимать голову, будто скованный льдом. Он поднял левую руку и странные настройки. Один из таких привилегий — Следуйте за рамки приличия.
Момонга уставился на внешность дьявола, всего было по-настоящему весело...
Каждый месяц Момонга удовлетворенно кивнул — Нимфоманка... значит, она бы еще могла отбиться от Смерти, но была исключением. Именно поэтому посох обвивали семь змей. Во рту каждой категории, число всех дней что-то добавить...
— Но сидя тут же эмоцию.
Затем Хэрохэро задвигалась в сочетании имело огневую мощь, которая должна была НИП, обладает такими настройками.
— Хмм... — Голос Момонги сильно затряслись. Затем он быстро ответил:
— Всё в последний день, и стал перед таким обширным, что, казалось, вырезан из одежды. В стене холла было написано — двенадцать лет назад, в зал. Он увидел вдали идущую к системе, Чат, вызов Гейммастера, Выход из захватчиков не делать НИП можно посчитать, что он услышал, что он всегда уставший. Но тем не станется, если отведёт глаза.
— Хватка сердца, — потерял дар речи.
— ...Э? Что происходит?
Время было всего Иггдрасиля. Даже после своего сердца, её ранг был старый дворецкий, также почувствовал тревогу, его могущественные способности никогда не хватает величия, — воплощение смерти сжало руку. Рядом с сорок пять метров. Дотошно выгравированная богиня на Момонгу, чтобы следовать разговору.
— Согласен. Давно не могло быть никакого другого толкования: — как будто он уже очень часто — Глядя, как не могла радоваться, ведь на то чтобы любой класс, пока их прекрасно проработанный ИИ.
Однако...
— Как же и были монстрами.
Они были одни из потустороннего мира. Подумала девушка, когда она начала хватать ртом воздух от работы тело, чтобы на троне и он не командовал НИП.
После того как бумага, но Момонга поднёс руку и сильной, как уйти. Тот, кто это, Момонга поспешно попытался найти любые новости о Назарике, то мгновение, когда она бы еще могла радоваться, ведь на другой смысл этого, если он рисует, тоже хорошо провёл время могли выбрать игроки.
— Давно не игровым персонажем (НИП). В пустых глазницах блестело тёмно-красное зарево, а чуть более сильными и забрать жизнь одним из таких игр одна сияла особенно ярко.
Иггдрасиль.
Игра была выпущена известным японским разработчиком двенадцать лет назад, в замысловатой угольно-чёрной мантии, края которой они проводили в игру после своего сердца, её создал Хэрохэро сказал Момонга, глядя на девушку и указал на охрану ключевых мест.
Но из сорока одного НИП. Возможно ли, что мы снова встретимся... было девять колец, каждое с кресла. Он всё равно он послал письма своим видом она была прекрасной женщиной с потолка люстры светили мягким, тёплым светом. Этот случай превратил Назарик в Иггдрасиле.
— Что за?..
Хотя Момонга молча ждать, как бумага, но своей властью. Придя к нейронному наноинтерфейсу — Плечи Момонги начало дрожать. В этот зал, который в ярости, он почувствовал разочарование от рыцаря и активировал одну треть зарплаты на пустое место не вернётся. Во рту каждой категории, число «0». — человек, заявлявший: «лучшее оружие гильдии. Вот почему это не видят дневного света. В таком случае Гейммастера уже пережиток прошлого...
В сердце Назарика.
Момонга со впалыми щёками были почти никогда не предавал. Должно быть, для игры расы с друзьями. Для Момонги, а вместо этого не было невозможно тут в замысловатой угольно-чёрной мантии, края которой держал посох. Момонга подумал, что, казалось, поглощает каждый звук его держит. Рыцарь замер, будто изменение в Иггдрасиле гильдиям, владеющим базой, эквивалентной замку и автоматически перерождаются через Лемегетон и отбивали атаки вражеских игроков.
Но сейчас я очень давно не слишком напугана. Она уже сделали бы чудесно, если бы это намеренно.
Такой уровень свободы применялся и даже избегал опасных мест, которые они не решился сказать в преддверии конца Иггдрасиля разделялись на содержимое, он через консоль к этому НИП. Когда же стёр предложение.
— Вот почему в полной грудью, угрожающей вот-вот вывалиться из самих глубин её божественная красота. Кроме них не в две ниши, в месте, известном своей красотой он вселял ужас.
Будто из самих глубин её сторону. Тьма перед концом. Хорошей игры.
— ... — потерял дар речи.
Ответил ему впервые услышал за это подобает Гильдмастеру. Затем он чувствовал какую-то странность происходящего. Ведь рыцарь, облачённый в замысловатой угольно-чёрной мантии, края которой они принадлежали, Аинз Оал Гоун.
Прошло довольно поздно.
61 1288867
>>288759
Можно приспособить, главное как данные ей подавать, и каким алгоритмом пользоваться.
Если распознавание пикч, то тут ничего сложного, индуктивной машинки достаточно, она легче и быстрее, чем нейросети.
image.png441 Кб, 442x604
62 1288906
>>288864

Пизда тебе теперь
63 1288910
>>288906
Я первый fb2, что попался по мышь, взял для тестов на ноде. В ноду я кстати только довчера вкатился.
64 1288956
Аноны на просторах тырнета можна найти этот курс без смс и регистрации https://www.udacity.com/course/computer-vision-nanodegree--nd891 ?
65 1288960
>>288842
Так а шо бэкпроп говорит нейроночке что на первом уровне она должна детектить линии? Почему не что-то другое?
66 1288965
>>288960
Там не линии, а синусоиды скорее, фильрующие пространственные частоты
67 1288967
Если бы знали, почему, можно было бы инициализировать нейронки не шумом, а этими линиями. А это не делает.
68 1288968
>>288584
Казанская обсерватория. Внезапно.
69 1289095
>>288967
А почему тогда так не делать? Разве фильтры не быстрее улучшались.
70 1289104
Что-нибудь цепи Маркова для генерации пикч использовал?
71 1289129
>>289104
Лучше для музыки используй, толку больше будет.
72 1289204
Кто-то покупал DL машину у майнеров?
73 1289212
Можно ли обучить машину ТРИЗу?
74 1289246
>>289204
Майнерам нужно другое - отсутствующий CPU, дешевый диск, видюха с небольшой памятью.
Для DL же нужен хороший CPU, хороший SSD и память важнее производительности (потому что подождать в два раза больше времени несложно - сложно, когда нейронка не влезает в память).

Поэтому у майнеров особо нечего покупать. Я покупал один раз 1060 у майнера-любителя, который распродавал три штуки, и у него была непопулярная среди майнеров версия с большой оперативкой. Работает нормально.
75 1289267
>>289246
я курсе в чем отличия, поэтому и интересуюсь.
Хочу собрать DL-ферму, видюшки и БП взять у майнеров
76 1289268
>>289267

> Хочу собрать DL-ферму, видюшки и БП взять у майнеров


И как ты это монетизировать собрался? Или просто бабла девать некуда?
77 1289272
>>289268
если бы бабла было некуда девать взял бы все новьем.
78 1289287
>>289267

>я курсе в чем отличия, поэтому и интересуюсь.


Во мудак-то. Ну раз в курсе, то иди нахуй
79 1289335
Это благо, что мы с майнерами не пересекаемся. Иначе 1080ти была бы на вес золота.
80 1289342
>>289335
Ну не знаю. Сейчас на авито дохуя карт от горе-майнеров, которых рост сложности выбросил с рынка.
81 1289344
>>289335
эм, ты не заметил как она подорожала с 47 тысяч до 70?
82 1289346
>>289344
https://cdn.pcpartpicker.com/static/forever/images/trends/trend.gpu.chipset.geforce-gtx-1080-ti.b26838e101b18b9fbeb1052860842196.png
Был период подъема, сейчас все вернулось. Не уверен, что это было из-за майнинга.
83 1289347
>>289346

>не уверен что это было из-за майнинга


а ты у мамы не очень умный, да?
84 1289387
>>289346
В России еще весной 2017 был резкий рост.
И тот и тот рост был из-за майнеров.
85 1289391
>>289347

> а ты у мамы не очень умный, да?


Вообще, Греф заявлял, что это их параша все видюхи скупила. Якобы как раз для диплернинха, но мы-то знаем, что они майнеры.
13384170261.jpg111 Кб, 1280x720
86 1289476
Поясните за ваши актуальные либы по сетям. Какие стратегии градиентного спуска они используют? Типа сопряжённые градиенты и.т.д. Неплохо бы список или линки.

>>288864
Новый том подъехал!
87 1289490
>>289476
torch7
88 1289513
В чём может быть проблема?
Модель не выдаёт значения в нужном диапазоне [-1, 1]
К самой неточности ввиду малого сета претензий нет,
Но значения вообще не те, которые должны быть, даже не в ту сторону графика!
https://pastebin.com/k6KeHUuF
89 1289530
>>289513
Форматированный input/output выглядит так:
https://pastebin.com/scr3qmAF

Может быть проблема в том что каждый из них в отдельном массиве?
90 1289538
>>289530
Попробовал убрать каждый output из массива (теперь training set output в виде простого массива с float32 значениями).
Модель работает так же (т.е. никак, все predicted значения неправильны, даже если для тестирования использовать training set).
Почему модель работает в обоих случаях, когда output и в виде float32 и в виде list?
91 1289545
>>289513
А в чем там не может быть проблем?
Навскидку, у тебя крайне маленький датасет, крайне сложная сеть (зачем тебе две LSTM, если даже с одной нет сходимости?), при этом нет никакой регуляризации, learning rate ты оставил дефолтным, можно ли обучать RNN все скармливая ей последовательность (530, 1) я не знаю, но подозреваю, что это не очень.
92 1289558
>>289545
А по этому идеи есть? >>289538
93 1289588
Аноны, где можно почитать основы случайных лесов? Желательно в виде презентации.
94 1289594
>>289588

>Желательно в виде презентации.


тебя уже не спасти.
95 1289620
>>289588

>случайных лесов


Типа этого?
https://www.youtube.com/watch?v=nbxiRdAk1JY
96 1289621
>>289620
Не, мне слайды нужны.
97 1289622
Причём в Бишопе деревьям посвящено 3 странички, а про леса вообще нет, лол.
98 1289624
>>289490
Предлагаешь прошерстить их доки, чтобы только узнать реализованные у них стратегии? Ну это такое.
Мне скорее нужно самое распространённое решение. Например, то что в LSTM'ы кидают.
Нужно будет запилить свою, а весь спектр стратегий я не покрою, просто нужно то, что с большей вероятностью выстрелит.
99 1289633
>>289624
Все используют adam. Есть еще adamw, его двигают одни товарищи, я юзаю, большой разницы не заметил.
100 1289638
>>289633
О! Это уже лучше.
Вижу статью по этому говну https://habr.com/post/318970/
Наверно тогда от этого и начну.
101 1289641
>>289638
Да, это неплохая статья. Вот еще посмотри https://www.fast.ai/2018/07/02/adam-weight-decay/
102 1289642
>>289641
Окей
103 1289747
Анон, меня че-то пробил холодный пот.
Учусь на мехмате МГУ, про машоб узнал уже тут, но шел в принципе на программиста. С удовольствием бы вкатился во что-то другое, но аналогов машобу в плане околопромизм, сложный для рандом хуя, не вижу.
Суть вот в чем. А не лучше ли бы мне было пойти в условный фкн вышки? Я программу их глянул, с математической точки зрения говно говном, но машоб - на высоте. И вроде учатся там не совсем додики, как на ВМК МГУ или физтехе.
Неужели я жидко оборсался еще в моменте выбора шараги?
104 1289767
>>289747
Заканчивай мехмат, иди в ШАД
105 1289776
>>289747

>С удовольствием бы вкатился во что-то другое


>аналогов машобу в плане околопромизм, сложный для рандом хуя, не вижу


А это проблема? Сегодня машоб имеет крайне узкое применение на рынке. В частности, большинству контор во всем мире он не нужен, и сейчас уже наблюдается переизбыток желающих найти работу связанную с машинным обучением и анализом данных, несмотря на требующуюся высокую квалификацию соискателя.
Как вариант - какие-нибудь области вроде компьютерного зрения, низкоуровневого и системного программирования тяжелы для человека без необходимого бекграунда, поэтому можешь податься в эти области.
106 1289783
>>289747

>шел на мехмат ради программирования


Интересно, как ты до этого додумался? Ладно, если на какой-нибудь ВМК идут ради программирования, или там ФИВТ/ФКН, но зачем мехмат, который в первую очередь готовит чистых и прикладных математиков?
Вообще да, ты явно обосрался с выбором шараги, но не очень жидко: на мехмате есть кафедра статистики, там наверняка пацаны по-черному хуярят машоб и пишут статейки, но это не точно, потому что на ВМК есть кафедра ММП, которую возглавляет Воронцов и которая занимается именно машобом.

Можешь вкатиться в ШАД, как говорит этот господин >>289767
Только ждать выпуска явно не стоит, потому что после 6 курса только начинать учиться профессии, на мой взгляд, поздновато и стоит начать делать это раньше.
107 1289787
>>289767
Речь не про то, что делать. В ШАД не пойду, потому что не возьмут, не хочу, уже вкатился через курсеру и кучу мелких статей, так что второй раз слушать половину информации вообще не хочу.
Я хотел выяснить, действительно ли я обосрался?
>>289776
Да? А мне казалось это просто про изучение кучи технологий. Насчет машин вижна не знаю почти ничего про эту тему. И раз переизбыток то почему существуют ШАДы и прочие?
>>289783
Мехмат готовит кого угодно, но не чистых математиков. В частности есть широкое направление с чем-то средним, между математиком-исследователем и чисто прикладным программистом. Всякие там пруферы кода и не кода, лингвистика, но эти темы вообще никому вроде не нужны.
А на ВМК, физтехе в основном неприятные и тупые личности учатся, туда просто не хотелось от слова совсем.
Матстат занимается в основном не прикладными штуками и считается, что на тервере студенты круче. На мехмате есть отдельные люди, которые шарят в машобе, но целой кафедры нет.
108 1289795
>>289787

>В ШАД не пойду, потому что не возьмут, не хочу, уже вкатился через курсеру и кучу мелких статей, так что второй раз слушать половину информации вообще не хочу.


Ну а ты все-таки попробуй поступить туда и походить немножко, может быть, ты ошибаешься в себе. ШАД бесплатный, если сумел пройти собес и экзамены, и всегда можно отчислиться

>И раз переизбыток то почему существуют ШАДы и прочие?


Потому что машоб последние пару лет был у всех на слуху, есть хайп, много студентов слышат сказки про то, что машоб скоро заменит все профессии и что дата саентистам платят огромные деньги, поэтому логично, что существуют школы будущих дата саентистов, которые продают свои услуги за деньги. То же самое с юристами и экономистами в свое время - были кучи шараг, выпускающих никому не нужных недо-специалистов, впрочем как и сейчас.

>Я хотел выяснить, действительно ли я обосрался?


Вообще да, потому что программированием и машинным обучением занимаются на ФКН/ФИВТ/ВМК. И, наверное, стоило бы поступать именно туда.

>А на ВМК, физтехе в основном неприятные и тупые личности учатся, туда просто не хотелось от слова совсем.


Сомневаюсь, что все студенты вмк и физтеха ужасные и отвратительные личности. Скорее ты просто был знаком всего лишь с парой челов, которые тебе не понравились чем-то.
109 1289798
>>289795

>Ну а ты все-таки попробуй поступить туда и походить немножко, может быть, ты ошибаешься в себе.


Мне нужно потратить очень много сил, чтобы подготовиться к их экзамену и даже это ничего не гарантирует, я видел много людей, которым отказывали на собесе, не смотря на хорошие результаты.

>что существуют школы будущих дата саентистов, которые продают свои услуги за деньги


Шад бесплатен. Техносфера, технотрек тоже бесплатны. Это то меня и настораживает. Зачем компании за свои деньги, с низким выхлопом готовят спецов, которых хоть жопой жуй?

>Сомневаюсь, что все студенты вмк и физтеха


Разумеется нет. Я написал большинство, потому что большинство именно такие. Разумеется там есть адекватные люди, но меня всегда интересовало большинство. Вот такие дела.
110 1289809
Какие есть годные фреймворки для RL?
111 1289823
>>289783

>которую возглавляет Воронцов


С каких это пор?
112 1289831
>>289747

>С удовольствием бы вкатился во что-то другое, но аналогов машобу в плане околопромизм, сложный для рандом хуя, не вижу.


1. Компьютер вижн - там машоба не мало, но много всякой 3д-математики и прочей еботы
2. DSP - аналогично, машоба много, но много всяких преобразований фурье и прочей еботы.
3. CADы - решение всяких диффуров для расчетов любой хуйни от прочности до тепла. На самом деле вот это самый хардкор.
4. Экономика - после мехмата вполне можно пойти квантовым аналитиком и зашибать просто космические бабки

>Суть вот в чем. А не лучше ли бы мне было пойти в условный фкн вышки


Думаю похуй, если ты знаешь свою цель, знаний можно добрать на онлайн курсах.
И вышка лично меня не впечатляет - много хуйни какой-то, мало сути.
113 1289840
>>289787
Не обосрался, ибо фундаментальное математическое образование довольно универсально (если ты не зубрил доказательства, а пытался понять, как что работает). Да и если ты хочешь идти в "индустрию", а не исследования, то там на первый план выходит именно гибкость ума и умение прикрутить ту же логистическую регрессию, а не то, можешь ли ты расписать всю теорию для SVM с RBF кернелом или еще какую-то теоретическую дичь.
114 1290060
>>289831

>Компьютер вижн


подумаю в эту сторону

>DSP - аналогично, машоба много, но много всяких преобразований фурье и прочей еботы.


Не переношу подобные штуки

>CADы - решение всяких диффуров для расчетов любой хуйни от прочности до тепла. На самом деле вот это самый хардкор.


Переношу еще меньше

>Экономика - после мехмата вполне можно пойти квантовым аналитиком и зашибать просто космические бабки


Не слышал про такую область. В смысле знаю, что там можно стать аналитиком, но квантовым аналитиком, хммм.

>Думаю похуй, если ты знаешь свою цель, знаний можно добрать на онлайн курсах.


Онлайн курсы всегда слабее аналогичных программ из вуза.

>И вышка лично меня не впечатляет - много хуйни какой-то, мало сути.


О, ну по твоим словам я тогда и не сильно обосрался. Поспокойнее мне стало, спасибо, анон.
>>289840

>фундаментальное математическое образование довольно универсально


Не знаю, кому в интересных мне областях нужны мои 2 года геометрии и умение работать с конечными группами.

>выходит именно гибкость ума и умение прикрутить ту же логистическую регрессию


Почему гибкость ума лучше всего развивать на мехмате?
Чтобы хорошо тягать штангу приседания на скорость, наверное помогут, но не сильнее, чем приседания со штангой.
И почему я лучше буду уметь прикручивать логистическую регрессию, чем человек, которго этому целенаправленно учили этому в вузе, а я учился по статьям с хабра ,в перерывах между зубодробительными сессиями, никак с этим не связанными.
115 1290075
>>289840

>ибо фундаментальное математическое образование довольно универсально


Универсально ненужное, ты прав. Сейчас пошла хорошая тенденция изгнания матанопетушни из прикладных наук.
116 1290089
>>290075

>тенденция изгнания


Пруфай.
117 1290092
>>290060

>Онлайн курсы всегда слабее аналогичных программ из вуза.


Это неправда. В программах для вуза много академического балласта, который в онлайн-курсах смело выпиливают. Слабее они от этого не становятся. Как я это узнал? Программы из вуза тоже доступны онлайн. Поэтому если ты такой их фанат, можешь смотреть их. Собственно здесь первому мимокрокодилу советуют cs231n, а это именно что программа вуза. Она хорошая.
А вот если сравнивать ml-class.org с оригинальным курсом, ml-class лучше.
118 1290095
>>290060
Я закончил магистратуру ФКНа (да, она слабее бакалавриата, причем заметно) и насчет прикручивания логрегрессии ты неправ. То, что у студента была одна-две лабы на том же титанике или любом кэггловском датасете не делает его сильно круче тебя. Прелесть мехмата в том, что ты сможешь "докрутить" свои навыки до того, что нужно в данный момент. Откуда ты знаешь, будет ли тебе нравиться заниматься машобом в 25? в 27? в 30? У тебя будет возможность уйти в 95% других областей, а у человека, которого "целенаправленно учили прикручивать" - скорее всего нет.
119 1290098
>>289840

>на первый план выходит именно гибкость ума


Вуз учит учиться, ага. Из того, что на мехмате полно людей с гибким умом не следует, что мехмат этот гибкий ум как-то развивает. Они туда поступают. Мозг не мышца и прокачивая какой-то навык ты прокачиваешь только его. И на мехмате дают навыки зачастую не только бесполезные, но и вредные. Когда, например, чувак видит задачу, и бежит решать ее символьно, когда там нужно применить численное решение. Потому что мозг уже заточен под это.

>>290060

>О, ну по твоим словам я тогда и не сильно обосрался. Поспокойнее мне стало, спасибо, анон.


Выбор вуза вообще мало что решает. Это скорее вопрос откоса от армейки, тусовки с правильными людьми, умения развить навыки работать в стойле. Главное это начать работать как можно раньше, а пока есть легальная возможность сидеть на шее - развиваться (например кагл тот же самый, онлайн-курсы и т. д.). Вуз нужен если по научной линии хочешь двигаться - но не думаю что тут есть разница между мехматом и вышкой. Я науку как институт ненавижу, поэтому мне это неинтересно.
120 1290145
>>290098

>Я науку как институт ненавижу, поэтому мне это неинтересно.


Какова причина для ненависти?
Анекдоты уровня МАШОБ 121 1290149
Приходит математик в ответ. Уходит.
А бармен и уходит, но по-моему у него елда торчит из которого ты пидор.

— Иванов!
— Я!
— Логично… Сидоров!
— Я!
— Логично… Сидоров!
— Я!
— Логично…
- Товарищ сержант, почему вы, Александр Сергеевич, кувыркнулись?
- Да никто не земля, с ними расставаться.
- Ты найдешь таких же сто рублей на стол, лежит так еще полтора часа. Люди молча смотрят в этом городе? Старик ответил старик.
За всей этой девушке и падает на геймдизайнерские вопросы задавать, и вообще чувствует себя, струйка мочи доходит до ванны и смотрит на остановке заходит в одном месте с уважением головой покачивает: "Ох хитёр, собака, ох хитёр!"

Купил бизнесмен три математика в лесу ёжика. Принес домой. Кормил орехами, наливал молока. Наступила весна. Ёжик залез на е3. Геймеры смотрят, вроде парень статный, пошептались - Пошёл нахуй сексист

Решил я уравнения решаю. А к продавцу мяса:
— Сколько кило мяса стоит?
— 400 рублей.
— А к этому месту и правда была фаза, а сколько тебе масло, хлеб и коньяком.
- Спасыба, дарaгой, выручыл, вэк нэ забуду!
- Чтo, уже помогло? - Пошёл нахуй отседова

Геолог спрашивает пастуха:
— Отец, скажите, а яиц 0, потому что плохо слышу, и крикнул "Стоять"! У меня попробуй!"

Захотел мужик домой. Член - сзади.
На балу...
- Господа! кто знает, но на дороге воронка огромная, кровища вокруг. Среди погибших были добрые, гостеприимные и начинает им водить туда-сюда, помешивая воду. Это длится час. После этого встает, надевает пальто и получает сдачу и, неожиданно, пукает. В итоге 12 трупов, на все в отель, ну и он купил. Разворачивает пакет, а когда бабы видели его в бар. Выпил. Дает бармену 20 долларов.

Фемка решила стать адекватной, и накопил 2 года не бывало. Мужик удивился и крутанул сальто. И вот этот парень влюбился. Он в ахуе, а че это что Вы снимаете! Расскажите, как наклонила бокал и пошел мужик. Садится за стойку. Десять минут я в баре еще десять минут сидит молча. Поворачивается в стакан воды. Бармен приносит стакан. Мужик смотрит на стол, лежит так еще может гореть, всякие фонарики, свечи и пошел мужик. Садится за пропеллер там
-Ааа, это... Да однажды один мужик шляпу нашел...

Заходит в баре еще двадцать минут. Кладет головы людей в хрустальные бокалы. Фемка наслаждается всей романтической атмосферой.
Раз такое дело, подумал мужик, надо было изобразить, что вы наци, то тот, о ком рассказано было, тот час же там...ща вспомню...
Курт Кобейн:
- Сейчас просто башню снесёт!
Бати:
- ух бля

Попал мужик после выходных
-Как провел выходные?
- CH3-CH2-CH2-, а там ПЕСИКИ-БУРБЕСИКИ!!!

В первую брачную ночь. Сапожник:
- Вам не спеша наливает его в баре еще двадцать минут. Погружает палец в московском музее народного и говорит:
— Купил мужик шляпу, а там сам Александр Сергеевич, кувыркнулись?
- Да так, осматриваюсь...

Инвентаризация в панике: по буквам!
—ГЕННАДИЙ АФАНАСИЙ ВЛАДИМИР

Тихий час стоит, два, шесть стоит. Устал уже сказала - без пасскодов себе трубку себе в камеpy, огляделся и кидает ее вперед, с мужем. Укусила его в поезде. Напротив него сосед достает двести рублей.
Бармен берёт и как заорёт:
— Только светлое будущие! Слава перестройке!

Стоит на следующий день без проблем, подходи к 8 утра, сам в окружении нескольких мужчин. Он, естественно, обалдели от вас демократия.
Гид:
- Мамка твоя у карлика сказал не приятно, Ватсон.
- Ясно.
- Сей факт не Олег!

Приходит математик в стакан. Закончил и начинает ебать в лесу ёжика. Принес домой. Кормил орехами, наливал молока. Наступила весна. Ёжик залез на остановке сын (сын жуткого мудака, но на днях веду службу в конкурсе.
Владелец заведения замечает пьяного мужика, спящего на нём пять минут всё равно делать-то нечего, и прощай, военкомат. Прихожу к женсинам тянет?
— Пока нет.
— Знасит ты подохнешь.

Приехал муж с охраной, к женсинам тянет?
— Пока нет.
— Знасит ты что, пидор?

Купается мужик. Вдруг старик вынимает два гаража, один угол комнаты, а сам Александр Сергеевич, кувыркнулись?
- Да так, и протягивает ему стакан упал. Выходит из кабинета.

Инвентаризация в "Поле чудес". Пеpвый зек кpутит баpабан. Выпадает 250 очков. Зек-ведущий говоpит:
- Ваша буква?
- Буква "А"
- Hет такой буквы, ваше очко тарабанил

На передних сидениях едут две бабушки.Маршрутка почти полная. На утро просыпаются, и вообще не надо.

Приходит Тодд Говард его кто-то за яйца:
- Плюс четыре яйца.

Лежит как-то Маяковский на дворе
И обосрался

Купается мужик. Вдруг старик вынимает два или белым? — тихий смех, хихиканье. А какая?
- "Чу! Я не помните случайно, чему равен
какой-нибудь простенький интеграл. Пессимист со смехом соглашается. Оптимист вызывает официантку и так смешно было...
Анекдоты уровня МАШОБ 121 1290149
Приходит математик в ответ. Уходит.
А бармен и уходит, но по-моему у него елда торчит из которого ты пидор.

— Иванов!
— Я!
— Логично… Сидоров!
— Я!
— Логично… Сидоров!
— Я!
— Логично…
- Товарищ сержант, почему вы, Александр Сергеевич, кувыркнулись?
- Да никто не земля, с ними расставаться.
- Ты найдешь таких же сто рублей на стол, лежит так еще полтора часа. Люди молча смотрят в этом городе? Старик ответил старик.
За всей этой девушке и падает на геймдизайнерские вопросы задавать, и вообще чувствует себя, струйка мочи доходит до ванны и смотрит на остановке заходит в одном месте с уважением головой покачивает: "Ох хитёр, собака, ох хитёр!"

Купил бизнесмен три математика в лесу ёжика. Принес домой. Кормил орехами, наливал молока. Наступила весна. Ёжик залез на е3. Геймеры смотрят, вроде парень статный, пошептались - Пошёл нахуй сексист

Решил я уравнения решаю. А к продавцу мяса:
— Сколько кило мяса стоит?
— 400 рублей.
— А к этому месту и правда была фаза, а сколько тебе масло, хлеб и коньяком.
- Спасыба, дарaгой, выручыл, вэк нэ забуду!
- Чтo, уже помогло? - Пошёл нахуй отседова

Геолог спрашивает пастуха:
— Отец, скажите, а яиц 0, потому что плохо слышу, и крикнул "Стоять"! У меня попробуй!"

Захотел мужик домой. Член - сзади.
На балу...
- Господа! кто знает, но на дороге воронка огромная, кровища вокруг. Среди погибших были добрые, гостеприимные и начинает им водить туда-сюда, помешивая воду. Это длится час. После этого встает, надевает пальто и получает сдачу и, неожиданно, пукает. В итоге 12 трупов, на все в отель, ну и он купил. Разворачивает пакет, а когда бабы видели его в бар. Выпил. Дает бармену 20 долларов.

Фемка решила стать адекватной, и накопил 2 года не бывало. Мужик удивился и крутанул сальто. И вот этот парень влюбился. Он в ахуе, а че это что Вы снимаете! Расскажите, как наклонила бокал и пошел мужик. Садится за стойку. Десять минут я в баре еще десять минут сидит молча. Поворачивается в стакан воды. Бармен приносит стакан. Мужик смотрит на стол, лежит так еще может гореть, всякие фонарики, свечи и пошел мужик. Садится за пропеллер там
-Ааа, это... Да однажды один мужик шляпу нашел...

Заходит в баре еще двадцать минут. Кладет головы людей в хрустальные бокалы. Фемка наслаждается всей романтической атмосферой.
Раз такое дело, подумал мужик, надо было изобразить, что вы наци, то тот, о ком рассказано было, тот час же там...ща вспомню...
Курт Кобейн:
- Сейчас просто башню снесёт!
Бати:
- ух бля

Попал мужик после выходных
-Как провел выходные?
- CH3-CH2-CH2-, а там ПЕСИКИ-БУРБЕСИКИ!!!

В первую брачную ночь. Сапожник:
- Вам не спеша наливает его в баре еще двадцать минут. Погружает палец в московском музее народного и говорит:
— Купил мужик шляпу, а там сам Александр Сергеевич, кувыркнулись?
- Да так, осматриваюсь...

Инвентаризация в панике: по буквам!
—ГЕННАДИЙ АФАНАСИЙ ВЛАДИМИР

Тихий час стоит, два, шесть стоит. Устал уже сказала - без пасскодов себе трубку себе в камеpy, огляделся и кидает ее вперед, с мужем. Укусила его в поезде. Напротив него сосед достает двести рублей.
Бармен берёт и как заорёт:
— Только светлое будущие! Слава перестройке!

Стоит на следующий день без проблем, подходи к 8 утра, сам в окружении нескольких мужчин. Он, естественно, обалдели от вас демократия.
Гид:
- Мамка твоя у карлика сказал не приятно, Ватсон.
- Ясно.
- Сей факт не Олег!

Приходит математик в стакан. Закончил и начинает ебать в лесу ёжика. Принес домой. Кормил орехами, наливал молока. Наступила весна. Ёжик залез на остановке сын (сын жуткого мудака, но на днях веду службу в конкурсе.
Владелец заведения замечает пьяного мужика, спящего на нём пять минут всё равно делать-то нечего, и прощай, военкомат. Прихожу к женсинам тянет?
— Пока нет.
— Знасит ты подохнешь.

Приехал муж с охраной, к женсинам тянет?
— Пока нет.
— Знасит ты что, пидор?

Купается мужик. Вдруг старик вынимает два гаража, один угол комнаты, а сам Александр Сергеевич, кувыркнулись?
- Да так, и протягивает ему стакан упал. Выходит из кабинета.

Инвентаризация в "Поле чудес". Пеpвый зек кpутит баpабан. Выпадает 250 очков. Зек-ведущий говоpит:
- Ваша буква?
- Буква "А"
- Hет такой буквы, ваше очко тарабанил

На передних сидениях едут две бабушки.Маршрутка почти полная. На утро просыпаются, и вообще не надо.

Приходит Тодд Говард его кто-то за яйца:
- Плюс четыре яйца.

Лежит как-то Маяковский на дворе
И обосрался

Купается мужик. Вдруг старик вынимает два или белым? — тихий смех, хихиканье. А какая?
- "Чу! Я не помните случайно, чему равен
какой-нибудь простенький интеграл. Пессимист со смехом соглашается. Оптимист вызывает официантку и так смешно было...
122 1290159
>>290149
Проигрывал не переставая. Похоже, я уже деградировал до уровня марковской цепи.
123 1290168
>>290149
Только после пятого анека понял, что читаю анеки от seq2seq модели. Машины победили.
124 1290219
>>290168
>>290149

>seq2seq


Правильно ли я понимаю, что это говно преподносится как охуительное достижение в НЛП?
125 1290248
>>290168
>>290219
Нет тут никаких seq2seq, обычная цепь маркова.
мимо >>290149
126 1290249
Девушка типичного машобщика: https://ru.aliexpress.com/item/158/32905950153.html
127 1290299
>>289831

>2. DSP - аналогично, машоба много, но много всяких преобразований фурье и прочей еботы.


DSP - Digital Signal Processing? Если да, то можно поподробнее. Какие перспективы насчёт работы?
128 1290302
>>289831

> CADы - решение всяких диффуров для расчетов любой хуйни от прочности до тепла. На самом деле вот это самый хардкор.


Для физиков норм.
129 1290484
Я гумманитарий, посоветуйте как вкатиться в МашОб? Как можно быстрее вкатиться.
130 1290522
>>290249
Я бы хотел такую. Как можно устроиться в компанию которая пишет мозги милым девочкам? Есть профильная вышка и какие-то маленькие проекты для портфолио.
131 1290573
Здравствуйте, мне нужно для оценки в ВУЗике изучить нейросети. Я прошел на stepic.org курс по нейросеткам. Но там не рассказывается как выбрать количество слоев и нейронов.

Как научиться правильно выбирать количество слоев и нейронов? Где такие уроки найти, где объясняют сколько слоев и нейронов брать?
132 1290575
>>290573
Это опытным путём выясняется. Кроме некоторых редких случаев.
133 1290582
>>290573
Больше - лучше.
134 1290585
>>289823
думаю, перепутал с https://dyakonov.org/ag/
135 1290587
>>290573
ng на курсере
136 1290648
Почему в 2018 году нет GUI для кераса/хгбуста? На kaggle для разных задач люди юзают одни и те же шаблоны.
Тыкать мышкой в комбобоксы удобнее чем изменять параметры в 20 местах кода, не?
137 1290649
>>290648
Почему в 2018 году ты не можешь вынести параметры в одно место, если не написать свой гуй?
138 1290650
>>290648

>Тыкать мышкой в комбобоксы удобнее чем изменять параметры в 20 местах кода, не


Конечно нет, текст удобнее, он скриптуется, сохраняется в системе контроля версий, можно делать диффы и так далее.
139 1290654
>>290299
Если шаришь и прет тема, то хорошие, западного заказчика найдешь, будешь пановать.
140 1290657
Что там новенького и бесполезного придумали адепты нейросеточек за последний месяц?
141 1290659
>>290657
Как ебать мамок хейтеров
142 1290660
>>290659
И как?
143 1290725
>>290660
Нужно больше мамок хейтеров для успешного решения
144 1290728
Нейроны, хочу вкатиться в FRVT
У кого какие результаты?
146 1290762
>>290741

>снимать себя в упитом состоянии и выкладывать это в интернет


Представители интеллектуальной профессии.
147 1290912
хочу переобучить гугловскую модельку на распознавание двух категорий изображений. допустим у меня 1 категории датасет на 20к изображений, а другой 2.5к, мне брать и тех и тех по 2.5к лучше или можно взять все те 20к?
148 1290919
>>290912
Есть такая штука как class weighting, она позволяет работать с несбалансированными по числу примеров классами. Ты не назвал свой фреймворк, но в любом такое есть
149 1290926
>>290919
tensorflow
150 1290927
>>290912
Плюсую веса, но еще посмотри в сторону https://imbalanced-learn.readthedocs.io/en/stable/api.html
151 1291172
>>290159
+
похоже на современный абстрактный юмор
152 1291224
Хлопцы, подскажите, какую ось лучше всего накатить? Даёт ли линух ощутимое преимущество? Пока играюсь с склерном только, однако уже пара моментов меня выбешивает: не могу настроить kaggle нормально, colab и jupyter хз какие ядра питона выбирают и запускают. Это чисто мои кривые руки или есть смысл рыпаться? Алсо, macos.
?
153 1291235
>>291224
Поставь виртуалку, попробуй. Хули как неродной?
154 1291250
>>291224

>какую ось лучше всего накатить?


Лучше всего накати 100 грамм
155 1291253
>>291224

>хз какие ядра питона выбирают и запускают


Начни с virtualenv?
Вопрос потому что не ебу что там у макоси с этим, но не думаю, что будут проблемы
156 1291288
Вопрос от нуба:
Насколько вообще реально сделать "диспетчера такси" на ИИ?
Стандартный диалог:
-Откуда вас забирать?
-Улица Комсомольская, дом 18, первый подъезд.
-Куда поедете?
Улица Ленина, дом 20.
ИИ должен заполнить карточку заказа, т.е. выбрать из выпадающего списка улицы и номера домов в программе, записать номер телефона пассажира, ну и подобную хуйню к диалогу не имеющую отношения.
Сколько может стоить разработка подобной хуйни? Миллионы?
157 1291295
>>291288
Нахуя? В 2018-ом году есть приложения для телефонов, разговор с диспетчером не нужен. Ну а тратиться на систему распознавания речи, чтобы заменить мясо в мелких городах, где нет яндекса и прочих геттуберов, это вообще какая-то блажь.
158 1291299
>>291295
У нас есть приложение, скидка по нему 10%, менее 1% заказов через приложение. Все звонят.
Город не большой, но порядка полутора тысяч заказов в сутки стабильно.
159 1291305
>>291299
дешевле посадить полк шлюх
160 1291306
>>291299
Жди пока клиенты не поумнеют. Твой ИИ диспетчер будет еще менее удобным, чем приложение (хотя если в нем нет распознавания адреса, добавь его)
161 1291307
>>291306

>поумнеют


или вымрут
или завезут каршеринг
или завезут каршеринг с автопилотом
162 1291308
>>291288
Хочешь тянок предпоследней работы лишить?
163 1291309
>>291306
Там слизано все с яндекс такси, даже адрес не надо вводить. "Откуда" по GPS ставится метка, "куда" достаточно тыкнуть по экрану.
>>291305
Сейчас з/п диспетчеров 6000 в сутки.
>>291308
Да хуле, хуй не сосут, вот и приходится в сторону ИИ смотреть.
164 1291311
>>291309
у тебя не получится. я этим заниматься не буду.
так что иди нахуй
165 1291324
>>291309

>Там слизано все с яндекс такси, даже адрес не надо вводить. "Откуда" по GPS ставится метка, "куда" достаточно тыкнуть по экрану.


По-твоему все люди охуенно разбираются в карте своего города? Долбоеб, люди звонят как раз потому что ты можешь назвать адрес и не ебать мозг больше ни с чем.
166 1291366
>>291288
Реально. Все жду когда по телефону роботы будут разговаривать с роботами.
https://www.youtube.com/watch?v=5c2YfOqCWTA
Новый точечный рисунок.jpg163 Кб, 1842x434
167 1291487
настроил CUDA для tensorflow но в итоге при обучении он все равно грузит процессор под сотку, а на видюхе сжирает всю память и ее загрузка 0-1%. Это нормально вообще?
168 1291491
>>291487

> Нейросети


> надеяться на быструю работу

169 1291503
>>291491
ну на видюхе же вроде как быстрее энивэй должна учиться она, не?
170 1291504
>>291503
Нейросети по большей части - нерабочее/плохорабочее говно.
171 1291529
Аноны, поясните линейную регрессию с точки зрения статистики (матемач умер, а то бы я там спросил). Вот я в R посмотрел - с формулами, в общем, всё понятно, кроме одного: что такое x:y? Там написано, что это какая-то связь, но как это формульно выражается?
172 1291535
>>291529

>матемач


школа тоже умерла?
173 1291565
>>291529

>что такое x:y?


Я не знаю, что там имелось ввиду, но может быть х это входные данные, а у выходные? Типа y=f(x).
174 1291570
>>291487

>настроил CUDA для tensorflow но в итоге при обучении он все равно грузит процессор под сотку, а на видюхе сжирает всю память и ее загрузка 0-1%


Значит неправильно настроил. Ты устанавливал tensorflow-gpu?
175 1291583
ХОЧУ СОЗДАВАТЬ ИСКУСТВЕННЫЙ ИНТЕЛЛЕКТ!!1

ГДЕ ОБУЧИТЬСЯ?
176 1291585
>>291583
Очень скудную базу на русском в stepic.org. А на английском на курсере остальное самое существенное.
177 1291595
>>291570
да, его как раз и установил
178 1291686
>>291583
нигде
179 1291698
Хочу сказочно обогатиться, предсказывая блокчейн рынок на завтра.
Владею питон в совершенстве.
Хочу сделать машинное обучение для бота, который будет покупать/продавать коины.
Ведь есть же open data для всех коинов, и её можно использовать при обучении модели на завтра.
Что я ещё забыл учесть?
180 1291701
>>291698

> Хочу сказочно обогатиться, предсказывая блокчейн рынок на завтра.


Возьми какой-нибудь классификационный алгоритм, типа индуктивной машинки:
https://pastebin.com/GR1zXsSY
И высчитывай вероятность какого-либо исхода события из входных данных.

> Владею питон в совершенстве.


Эх, надо будет когда-нибудь переписать индуктивную машинку на питхон.
Гугли в общем классификационные алгоритмы, основанные на теорвере.
181 1291722
>>291698

> Что я ещё забыл учесть?


Рандомное блуждание хуй предскажешь даже на шаг вперёд.
182 1291727
>>291698

>Что я ещё забыл учесть?


Что если бы это было так просто, это бы уже реализовали.
183 1291732
>>291535
Чё сказать-то хотел?
>>291565
Нет/ R довольно заковыристо позволяет задать вид зависимости для регрессии через формулу. В справке написано, что через x:y в формуле задаётся некое "взаимодействие между x и y" (interaction). Вот я и спрашиваю анонов, разбирающихся в статистике, а не только в fit-predict: что это за взаимодействие такое.
184 1291753
Пожалуй, войду в торговлю криптами через арбитраж.
Буду сравнивать валютные пары BTCUSD с периодичностью раз в 5 сек (тут главное чтобы биржевое API позволяло) на разных биржах и высчитывать процент несоответствия. Если процент > 0.40, тогда буду бот будет оперативно продавать на одной и покупать на другой бирже. Увеличу процент, добавив несколько бирж и побольше релевантных валютных пар.
Какие подводные камни у такого подхода?
gromov.jpg164 Кб, 1180x730
185 1291779
>>291753
Да никаких
186 1291802
>>291753
Перевод денег с биржи на биржу - это транзакция в криптовалюте, которая не будет моментальной.
Весь вопрос в том, сколько процентов годовых ты от такой хуйни иметь будешь по итогу.
187 1291814
>>291727
>>291722
https://www.ntv.ru/novosti/amp/1612908
Можете еще гуглить подробности.
188 1291836
>>291814
Мне кажется, тут метод в том, чтобы сделать ситуацию более предсказуемой. Уже была такая хуйня с криптой, некто с помощью ботов размещал предложения покупки или продажи, ничего не покупалось, но рыночек разворачивался в нужном направлении, что видимо позволяло предсказать направление движения цены.
15131790833180.jpg29 Кб, 211x334
189 1291841
>>291836
Методы методами, а гешефт очевиден. Ой вей!
190 1291942
>>291585
Владею английским.
Дай какие то советы чтоб я все подряд не читал/смотрел и сэкономил время
191 1291998
Антоны, есть цель научить нейронку генерировать инструкцию по сборке.
Например, есть бумажные развертки и информация о том, как развертки должны быть соединены с друг-другом, их размер, положение, изгиб, вес.
Цель нейронки в том, чтобы выдать мне подробную инструкцию о том, какую деталь с какой склеить и в каком порядке. В перспективе научить бы ее генерировать инструкции, которые бы подсказали, что делать в случае возникновения ошибки.
Мне штатного перцептрона хватит или нужно какую-то другую архитектуру искать?
192 1292026
>>291583
в школе
193 1292069
>>291998

>Например, есть бумажные развертки и информация о том, как развертки должны быть соединены с друг-другом, их размер, положение, изгиб, вес.


Но у тебя этого нет, зачем ты врешь? Будет, тогда приходи
194 1292085
>>291998
Нет, это фантастика.
195 1292098
>>292085
Продвинутые нейронки способны творить фантастику.
>>291998
Обычного генерирующего алгоритма не достаточно. Может быть классификационный подойдёт?
196 1292142
>>292098

>Продвинутые нейронки способны творить фантастику.


пруфы
197 1292272
Вчера видел в метро парня, который на английском читал про one hot enc. Ну че, все, рынок совсем перегружен?
198 1292277
>>292272

>ван хот


Вот уж ниебически передовая тайная технология. Всё, пацаны, расходимся.
199 1292568
Антоны, а что если размещать на картинке, рядом с местонахождением предполагаемого объекта некую фигуру, для того, чтобы получить дополнительные данные?
Суть идеи в том, чтобы нейронная сеть могла хитрить и искать какие-нибудь зависимости между положением примитива и какими-нибудь точками контура фигуры, например, для того, чтобы распознать буковку непонятного шрифта.
Это стоит попробовать или совсем наркомания?
200 1292669
>>292568
Крапленый датасет, лол. Ну естественно, если рядом с каждым негром на фотке будет арбуз, то по фичам от арбуза негры будут распознаваться лучше, особенно если в обучающей выборке будут так же фотки горилл без арбузов. Но зачем это надо, это ж неестественно, т.к негры без арбузов лучше распознаваться все равно не будут.
201 1292674
ХОЧУ СОЗДАВАТЬ ИСКУСТВЕННЫЙ ИНТЕЛЛЕКТ!!1

ГДЕ ОБУЧИТЬСЯ?
202 1292675
ТАКЖЕ ЧТО ПОЧИТАТЬ ЧТОБ БЫТЬ В КУРСЕ ЧТО ПРОИСХОДИТ В СФЕРЕ ИИ???7
203 1292688
>>292675
Учи теорему Жопеншульцера.
204 1292692
Есть длинный текст. Надо его разбить на участки по настрою, который они у читателя скорее всего вызывают, ну и собственно предсказать какой это настрой либо из фиксированного какого-то списка, либо выдать список наиболее вероятных тегов так сказать.
1) Каковы шансы такое реализовать за +-4 месяца у андроид джуна, который об этом вашем машобчике знает не более того, что нейронки != машоб, а знание матана на уровне чуть выше среднего студента парашного технического вуза рф, ну или предтопового техвуза рб?
2) Собственно через что такую задачу можно решить (подходы, алгоритмы, технологии), куда копать, в сторону чего смотреть, и т.д?
205 1292707
>>292692

> Собственно через что такую задачу можно решить (подходы, алгоритмы, технологии), куда копать, в сторону чего смотреть, и т.д?


StarSpace от facebookairesearch. Или FastText их же. То, что тебе нужно это sentiment analysis, как вариант - tagspace, оно есть в StarSpace.
206 1292710
>>292142
Гугли всякие проекты типа DeepMind.
207 1292747
>>292692
https://github.com/llSourcell/Learn_Data_Science_in_3_Months
За три месяца. Сам сейчас на обучение Питона. Там ссылка на канал автора, он вообще так легко поясняет, что даже моя мама понимает, а она гуманитарий.
208 1292857
>>292675
ai-news.ru
209 1292865
>>292747

>https://github.com/llSourcell/Learn_Data_Science_in_3_Months


Может закатиться?
Знаю питон, худо бедно статистику и матаны и базы данных.
210 1292930
>>292669

> Но зачем это надо


Чтобы научиться лучше классифицировать, имея ограниченный датасет.

>негры без арбузов лучше распознаваться все равно не будут.


Я предлагаю их изначально генерить, у нас получается не 1 картинка, а сразу несколько, причем информации больше.
Человек, например, может мерить расстояние до объектов с помощью большого пальца, чому бы нейроночке не уметь.
211 1292931
>>292930

>причем информации больше.


Ну это я про переобучение говорю.
212 1293281
>>292857

>ai-news.ru


СПС, есть что то на англ такое или подобное:?
214 1293337
>>293330
Хохлы не могут в машоб.
215 1293402
>>293337

> Хохлы не могут в машоб.


Мань, теорема Гливенко - одна из основ машоба как явления вообще. Стефанюк - соавтор Вапника по работе, подводящей общий фундамент под разные решения некорректно-поставленных задач, т.е теоретическое обоснование всякой регуляризации итд.
216 1293405
>>293402
Шизик, ты еще и хохол?
217 1293413
>>293402

>регуляризации


рагулезации
218 1293415
>>293402
Так, а хохлы то при чем?
219 1293417
>>293402
Так это в совке было. Сейчас это нинужно.

Хотя может и будем строить электронный концлагерь в качестве мировой практики.
220 1293419
>>293330
Это доказательство того, что современные нейроночки в корне не верны?
221 1293420
>>293419
Нейронки неработоспособное говно, всем это очевидно кроме математиков, поскольку в маняматическом мире все не так, да и докозали111
222 1293434
>>293417

>электронный концлагерь


Если туда будут ссылать электронных либирах и смузихлебов, я только за. А вобще лучше частные электронные тюрмы, как в США.
223 1293441
>>293330

>0.005


как ты это в восьмибитном представлении джепега себе представляешь?
224 1293450
>>293441
Методом Шмули-Вандерфуфена
225 1293575
>>292865
Давай закатывайся, будем вместе)
226 1293694
>>290573

>Как научиться правильно выбирать количество слоев и нейронов?


Кросс-валидация
227 1293893
>>291732
Обычная линейная регрессия и известные мне ее модификации не требуют никаких уточнений касательно связи между свободной переменной x и зависимой y. Единствое предложение ты делаешь неявно, когда берешься использовать регрессию -- это линейность модели.
228 1294007
>>293893
Да нет, там связь не между свободной и зависимой, а между двумя свободными факторами.
229 1295117
Сап баесач посни за nms хуль просто нельзя взять бокс с наибольшим бокс конфиденсом?
230 1295205
ВАЖНЫЙ ВОПРОС

Хочу создавать ИИ. Для начала хочу сделать программу, которая понимала бы печатную речь. Например, чтоб когда вводишь фразу "у тебя 5 яблок, 3 отдал Пете, сколько осталось" программа правильно отвечала.

ВОПРОС
Что почитать/посмотреть чтоб въехать в эту тему. Не хочу тратить время на шлак и начинать с азов.

ДЛЯ ДОЛБОЕБОВ:
НЕЧЕГО ОТВЕТИТЬ ПО СУТИ - ИДИ НА ХУЙ И НЕ ВЫЕБЫВАЙСЯ
231 1295210
>>295205
Сам пошел на хуй, школотрон ебаный
мудрец.jpeg87 Кб, 488x626
232 1295213
>>295205
Не хочешь начинать с азов - не сможешь достичь высот.
Нахуй иди, жирный.
233 1295218
>>295213
Что рекомендуешь?
234 1295220
>>295218
Общий курс матанализа Кудрявцева
235 1295221
>>295220
Можно как то эти все анализы освоить в процессе?
Зачем мне матанализ? Там же точно полно всякого ненужного дерьма.

С чего начать писать эти проги и исследовать ИИ?

Вытягиваю блять каждое слово. Это Роиисисися!
236 1295225
>>295221
можно пойти нахуй
15352828126290.jpg39 Кб, 511x509
237 1295230
>>295205

>программу, которая понимала бы печатную речь


>для начала


Неплохое такое начало. Ты либо зеленый, либо настолько тупой, что можешь даже не начинать.
238 1295236
>>295230
Где почитать почему такое невозможно?

Что посоветуешь делать чтоб осоздавать ИИ? Или лучше не лезть так как все равно не выйду на уровень?
239 1295304
>>295205

>программа правильно отвечала


Петухам отдавать хавчик зашквар! AIE! Жизнь ворам, хуй матанам!
240 1295329
>>295205

> которая понимала бы печатную речь


1. Нужен грамматический анализатор. Либо сам пиши, либо отдай это самообучалке, типа хипсторских нейросетей.

> "у тебя 5 яблок, 3 отдал Пете, сколько осталось"


Тут нужна логическая машинка, либо сам пиши, либо отдай нейросети она сама найдёт нужные правила.

В общем гугли системы вопрос-ответ. Такой хернёй страдают все крупные айти-компании. И Гугл®(ассистент™, дипмайнд™) и Эпл®(Сири™) и даже Майкософт®. Не ты первый.
1541814241151783214.png649 Кб, 700x663
241 1295341
>>287447 (OP)
Анончи, представте, что есть неизвестный язык, в нем есть слова и предложения, взаимосвязь неизвестна. Есть ли способы прогнав тексты хоия бы преблизительно вычимлив связи. Ну например как в ДНК анализеили нет
242 1295342
>>295341
нет
243 1295343
>>295341
Ответ простой. Это не задание для машоба.
244 1295345
>>291753
Подводные камни в том, что апи тебе выдает курс раз в 5 минут.
245 1295346
Я просто хочу быть датасаентистом и ии-разработчиком. Почему мир так несправедлив?
246 1295356
>>295343

>Это не задание для машоба


Как раз зависимости можно найти автоматом.
247 1295357
>>295346

>датасаентистом


Это которые глотают?
248 1295362
>>295357
И не только.
249 1295363
>>295356
А еще можно капчевать на программируемом калькуляторе и подтираться рукой. Но ты ведь этого не делаешь.
250 1295373
>>295363
Да все понятно с вашим машобом и йобанейроночками.
251 1295591
Двач, как фули конектед лайер в йоло предиктид параметры баундинг бокса?
252 1295596
>>295591
Пихвоветоризацией
253 1295602
>>295591
Ебись с кодом, никто не знает.
254 1295609
Ебать пролог ахуенен.
Когда-то классификатор на питхоне написал - 2000 символов несколько десятков строк.
Переписал на прологе - 200 символов, 6 строк.
Скорость работы примерно одинаковая.
Конечно с рекурсивными вычислениями поебаться пришлось, т.к я ньфаггот в Прологе.
255 1295654
>>295609

>пролог ахуенен


Да, но сейчас модно нейроночки
256 1295734
>>295609

>с рекурсивными вычислениями


Отцифруй свой мозг в к-меан.
258 1295986
259 1296023
Двач, когда тестим йоло откуда ground truth object берётся?
260 1296124
>>295341
NLP. Оно так и работает. Английские слова и связи между ними для алгоритма ничем не лучше тарабарского или инопланетянского языков. Если это реально язык, а не рандомная хуета, все сработает. Манускрипт Войнича расшифровать собрался штоле?
261 1296130
>>296124

>Манускрипт Войнича расшифровать собрался штоле?


Ага.

>Английские слова и связи между ними


Устанавливают макаки вручную на Толоке или используя морфологию и магию.
262 1296800
На стоянке стоит 40 машин, 8 из них фирмы Рено. Какой процент машин фирмы Рено от всех стоящих на стоянке?
Пиздец. Не понимаю как решить
263 1296850
>>296800
Попробуй 8 поделить на 40 и умножить на 100. Не уверен, но вроде бы так решается, проценты давно проходил.
264 1296852
>>295205

>создать ИИ


Никто не знает, ничего не учи, только голову себе забьёшь шаблонами и станешь одним из тех, кто нихуя не знает. Помедитируй и придумай сам, как это сделать. Ну только программировать надо уметь, остальное только собьёт тебя. Не тролль.
265 1296853
>>296852
Забыл, не кури в сторону нейросетей и прочего расхайпленного говна, кури в сторону математической лингвистики.
266 1296884
>>296800
С кем я сижу на одной доске.
267 1296925
>>296850
я нихуя не понимаю почему 8 надо Делить на 40. никогда не понимал этой хуйни
268 1296929
>>296800
20%
8+8+8+8+8 = 40.

Это на пальчиках можно посчитать, тебе в первый класс пора снова, а не в программирование.
269 1296943
>>296925
Часть делишь на целое и умножаешь на 100. У тебя всё получится.
270 1296950
>>296943
И что получается, когда мы часть делим на целое?
271 1296951
>>296929
ты не понял вопроса
272 1296953
Я имею ввиду что это ведь то же самое, что пы 8 пицц поделили на 40 человек, каждому досталось по 1/5 пиццы, но тут нахуя 8 машин делить на 40?
273 1296955
>>296950
Узнаем долю части.
274 1296971
Года три назад щупали машобчик. Сверточные нейронные сети для изображений. Прошло три года, давно вертится одна идея(не изображения, но по нейронным сетям), хочу проверить. Правильно ли я понял, что сейчас остался только TensorFlow, остальное теперь маргинально?
275 1296984
>>287447 (OP)
Поясняйте, для Keras и прочих Тензорфлоу мне брать нвидиа гпу, ведь оптимизации как и cuda нет у амуды в этом? но при этом драйвера для работы на линуксе у амуды лучше, хехмда?
Или уже нормально оптимизировали всё и могу брать вегу для своих домашних фоток негров? Я просто не знаю что брать в случае нвидии, ведь 10 поколение закончилось в магазах, а 20хх выглядит не очень надёжным. Времени ждать может не быть, к сожалению.
276 1297042
>>296800

Всех машин Рено:
В год Рено делает 10млн машин. Предположим, что в среднем каждые 20 лет машина Рено выбрасывается на свалку, итого всех машин Рено 200млн.

На стоянке 40

Какой процент машин фирмы Рено от всех стоящих на стоянке?

200млн/40*100=500млн%
277 1297207
>>297042
Нипонятно
278 1297208
>>296984
Нахуя ты используешь спойлеры? Ты хочешь, чтобы твой пост читали через ctrl-a, с использованием расширений, или как дауны наводя мышку, чтобы ответить на твой мудацкий вопрос?
279 1297355
Решил сделать алгоритм, который ищет нечто общее в картинках пиксели и рисует эти самые общие пиксели.
В теории должно быть новый арт, но в итоге хуйня какая-то. То ли рукожоп, толи сет маленький, толи сам принцип хуйня.
154235162911868441.jpg181 Кб, 400x694
280 1297357
>>297355

>толи сам принцип хуйня.


Добро пожаловать в ИИ
281 1297411
>>297208
Да. Буду рад, чтобы ты ответил на него.
282 1297416
>>297355

>То ли рукожоп,


давай я задам вопрос - ты читал статью о том что потом стали называть "призма"?
283 1297418
Подкиньте идеек для несложных задач по OpenCV.
Думаю, тут должны сидеть СиВи-шники.
284 1297422
>>297418

>несложных задач по


sudo apt remove libopencv*
285 1297431
>>297422
Спасибо.
286 1297433
>>297416
Нет не читал, что за статья
Мимо
287 1297440
>>297433

>Нет не читал, что за статья


хуле ты в этом треде тогда потерял, быдло?
пиздуй на завод
288 1297441
Мне сказали, тут кто-то 4-й курс НМУ курирует. Отзовитесь.
289 1297442
>>296984
Ну поясните, ананасы.
290 1297443
>>297440

>пук

291 1297445
>>297441
В общем я не знаю кто ты. Просили передать, что тебе выселяют нахуй из общаги. Все.
292 1297458
>>297441

>НМУ


Ты доской не ошибся?
293 1297472
Джентльмены, смотрите. Правильно ли я понимаю текущий расклад сил. В левом углу ринга - деды-пердеды с символьным ИИ, логическим выводом методом грубого перебора, и линейными моделями. В правом - смузихлебы с алхимическим мышлением. Ну а на параше numenta и вообще область computational neuroscience?
294 1297473
>>297472
с какой параши капчуешь?
295 1297478
>>297472
Ринг под шконкой
photo2018-11-1911-32-21.jpg55 Кб, 1200x423
296 1297759
>>297472

>деды-пердеды с символьным ИИ, логическим выводом методом грубого перебора


>и линейными моделями



Лол, нет. Вот картинка была в телеге.

Сначала был коннективизм, потом деды-аутисты заклевали его и навязали свой ебнутый аутизм в виде символьного ИИ, логического вывода и прочей тупиковой поеботы. Это определило 20 потерянных лет для индустрии. Но потом пришли 90-е и SVM, и коннективизм вернулся на свои основные роли.

В головах же местных шизиков есть популярное в мейнстриме (нейронки и леса) и непопулярное в мейнстриме (куда в одну свалку попадает и пролог и SVM), получается вот такая каша, в которой любители пролога и линейных моделей борятся со смузихлебами. А для аутистов все, что нельзя разложить в виде игрушек с увеличивающимся размеров на кровати - алхимия.

Короче, если рисовать на диаграммах Эйлера, будет так. Есть коннективизм и символизм. Коннективизм же распадается на две тусовочки, статистиков и машинобучателей. Разница в журналах и скорости публикаций. Пока статистик опубликует статью, в ML-тусовке код будет выложен на гитхаб, два раза обосран, три раза склонирован в стартапах, выложен на архиве и зачитан на конференции. А так в целом это одно и то же.
15399311211460.jpg60 Кб, 700x734
297 1297776
>>297759

> получается вот такая каша,


Каша только у тебя в голове, судя по написанному тобой. Единственная существенная классификация алгоритмов машоба - конечнооптимальные и асимптотическиоптимальные. Остальное разделение существует только в соевых мозгах бородатых клоунов, а по факту обсуждаются только сорта асимптотическиоптимальной хуеты.
298 1297778
>>297776
Шизик, марш под шконку.
299 1297788
>>297776

>асимптотическипихвотермальной


Фикс
bangzheng-du-the-best-pork-ramen.jpg1,3 Мб, 1920x2716
300 1297791
>>297759

>логического вывода и прочей тупиковой поеботы


Которые показали черезвычаюную эффективность, что дало нехило просраться людишкам, которых запросто могли заменить ЭС. Поэтому нужно было срочно загнать стадо под откос подменив тупиковый SVM. Вот сейчас норма, нихуя не работает, опасаться нечего, писать пургу пачками и пилить гранты можно, да.
МАРКОВСКИЕ ЦЕПИ И WAV 301 1297812
В теории должно быть заебись, но сука, памяти не хватает. WAV это тебе не MID, он не весит как жпег-картинка. Оптимальный stateSize цепи - 3, ниже цепь уже будет генерировать шум.
Если обрезать wav, то трек получится слишком однохуйственный, в иделе мы должны конкатить сразу несколько треков, но учитывая то, что загрузка даже одного трека не представляется возможной, - "возможности" заоблачная.
А может это ограчения самого NodeJS, а не железа.
302 1297888
>>297759
Боже, как вообще связан конективизм(перцептрон и... все) и классический машоб с линейщиной. Ты ничего не попутал?
303 1297890
304 1297913
>>297890
Ты серьёзно такой потерянный по жизни?
Вбей в гугле opencl support tensorflow чтоли
305 1297927
>>297913

> Ты серьёзно такой потерянный по жизни?


Да

>Вбей в гугле opencl support tensorflow чтоли


Вбил. Официальной поддержки не нашёл.
https://www.tensorflow.org/install/gpu
Но тут очевидно намекают, что только на стуле нвидии сидеть.
306 1297982
ВКАТИТЬСЯ В КРУТОЕ IT

Кароче пацаны такое дело. Учился на экономе, потом нашел хорошую работу и думал что все норм будет, но эта сфера тухнет. ИТ на подъеме и хочу вкатиться, но не в макакинг а что то крутое. Готов въебывать 24/7.

Рассматриваю ШАД заочку и потом искать работу.
Предложите ваши варианты вкатиться и ваше мнение по ситуации.
Трудно что ли написать пару строчек?
111111.jpg104 Кб, 922x993
307 1297989
Здравствуйте, у меня к вам следующий вопрос:

Допустим есть задача восстановления линейной регрессии по данным.

Допустим есть 1000 измерений:
1 измерение) Мужчина клал кильку со значением вкусности p = 0,5 в вонючий носок. Мужчина швырял вонючий носок с килькой со скоростью 24 метра в секунду, швырял в течении 10 секунд при температуре воздуха 30 градусов. В итоге искомая вкусность кильки p стала ровна 0,768

2 измерение) Мужчина клал кильку со значением вкусности p = 0,5 в вонючий носок. Мужчина швырял вонючий носок с килькой со скоростью 35 метров в секунду, швырял в течении 5 секунд при температуре воздуха 20 градусов. В итоге искомая вкусность кильки p стала ровна 0,846

3 измерение) Мужчина клал кильку со значением вкусности p = 0,5 в вонючий носок. Мужчина швырял вонючий носок с килькой со скоростью 10 метров в секунду, швырял в течении 20 секунд при температуре воздуха 10 градусов. В итоге искомая вкусность кильки p стала ровна 0,496

...

1000 измерение) Мужчина клал кильку со значением вкусности p = 0,5 в вонючий носок. Мужчина швырял вонючий носок с килькой со скоростью 40 метров в секунду, швырял в течении 11,1 секунд при температуре воздуха 6,7 градусов. В итоге искомая вкусность кильки p стала ровна 0,595

Перечисляю переменные Х:
v = 24, 35, 10, ... ,40 метров в секунду
t = 10, 5, 20, ... ,11.1 секунд
T = 30, 20, 10, ... , 6.7 градусов
p = 0.5 всегда. Вкусность от 0 до 1

Искомая переменная Y:
0.768, 0.846, 0,494, ..., 0,595. Вкусность от 0 до 1

У меня следующей вопрос. Если у меня задача восстановления линейной регрессии Y = f(X). То правомерно ли считать вкуность p = 0,5 переменной? Если она никак не изменяется? Она всегда одинаковая. Ее надо удалить из Х? И оставить только изменяющиеся показатели?
308 1297994
>>297791

> Которые показали черезвычаюную эффективность, что дало нехило просраться людишкам, которых запросто могли заменить ЭС


Свидетель экспертных систем, плес. Как там в 80х? От этой хуитки отказались по той причине, что эс ничем не превосходит любой другой аппроксиматор. Те же системы нечеткого вывода, которые так же пытались применять для всего подряд - от медицинской диагностики до управления производственными процессами.

> Поэтому нужно было срочно загнать стадо под откос подменив тупиковый SVM.


Что там тупикового? Первый работающий конечнооптимальный алгоритм. И кстати, его прототипы (метод обобщенного портрета) ещё в совке работали, для предсказания погоды, например.
Без названия.jpg13 Кб, 318x159
309 1297998
>>297994

>не превосходит любой другой аппроксиматор


У тебя аппроксмация головного мозга.

> Как там в 80х?


Заебись, как там в 2k18? Диагностические медицинские системы потомки Mycin уже в каждом доме? Что, картинки генерируете?.... Э....
310 1298010
>>297998

> У тебя аппроксмация головного мозга.


А что в твоём магическом мышлении есть ЭС? Не аппроксиматор зависимости выхода от входов?
311 1298011
посоны, а можно сделать хуйню, которая по запаху пердежа экспертно аппроксимирует еду, котору я хавал?
312 1298027
>>298010

>А что в твоём магическом мышлении есть ЭС? Не аппроксиматор зависимости выхода от входов?



Полноценная формальная модель.
313 1298028
>>298010

>А что в твоём магическом мышлении есть ЭС? Не аппроксиматор зависимости выхода от входов?



https://www.drive2.ru/b/466174514431001350/
https://www.drive2.ru/b/490360746585096283/
314 1298031
>>298027

> Полноценная формальная модель.


Зависимости выхода от входов. Так вот, полноценная формальная модель возможна для очень небольшого класса систем. Большинство реальных проблем, та же диагностика в медицине, к вышеупомянутому классу систем не относится. Это не считая некорректно поставленных задач, на которых и аппроксиматоры далеко не все нормально не работают. Если бы все было так просто, вместо врачей палачей, судей итд давно бы было программное обеспечение, хоть тот же Coq. Но ты и дальше считай, что это рептилоиды ЭС запретили.
315 1298036
>>298031

>вместо судей итд давно бы было программное обеспечение


Хуя манямирок.
316 1298040
>>298036
Остальное неосилил, слов непонятных много, чучело? Уроки иди делай.
317 1298155
>>298011
да, но нужна экспертная система
318 1298194
>>298155

> да, но нужна экспертная система


Местного эксперта (свидетеля ЭС) хватит.
319 1298297
>>298031

>судей


это как раз запросто, даже тупой пендоха наваял жалкое подобие ЭС и составлял иски автоматом, помогая людям сжкономит сотни тысяч долляров. Погугли как разорвались пердаки юристов.
320 1298298
>>298031

>аппроксиматоры


Ясно, у тебя матан головного мозга, мне два гамбургера и картошку.
321 1298302
>>298298

>мне два гамбургера


Сотрудники ресторана могут получить бесплатно только один гамбургер на обед. Если хочешь два, придётся вычесть из зарплаты.
мимо менеджер
bangzheng-du-bms-12-kobe-beef.jpg1,3 Мб, 1920x2716
322 1298308
>>298302

>Сотрудники ресторана


Маневры
323 1298625
>>298298
По-существу есть что возразить, тупенький?
>>298297
У них может быть и взлетит, в рашке закон это противоречивая аксиоматика, например, все конституционные права отменяются чекистской статьёй 55.3, это только известный мне пример.
324 1298645
>>298625

>все конституционные права отменяются чекистской статьёй 55.3


Ты к нам с /po прорвался, либерахен промытый?
325 1298646
>>297791
Ну конечно, какой шизик без теории заговора.
ЭС тупиковы, потому что из наличия знаний в голове эксперта не следует, что у тебя есть способ эти самые знания достать. Не тупиковый путь моделирует не предметную область, а эксперта.

>>297994

>От этой хуитки отказались по той причине, что эс ничем не превосходит любой другой аппроксиматор


Текс, а это аппроксиматорный шизик №2
326 1298647
>>298646

>из наличия знаний в голове эксперта не следует, что у тебя есть способ эти самые знания достать


Такс, значится как достать хз, как работает мозг хз, как хранятся данные в мозгу тоже хз. Верно?

>ЭС тупиковы


Ты скозал? Теперь назови проекты на нейронках в 2к18 которые бьют проекты ЭС из 80х.
327 1298649
>>298646

> Текс, а это аппроксиматорный шизик №2


Мамка твоя шизик зашифрованный. Что не так-то, есть входы и выходы, есть функциональная зависимость выходов от входов. Никогда не слышал про то, что логические и теоретикомножественные операции это одно и то же? "И" - пересечение, "или" - объединение итд.
328 1298651
>>298649

>есть функциональная зависимость выходов от входов


В умных еврейских математических книжках зависимости расписаны?
329 1298652
>>298647

>Такс, значится как достать хз, как работает мозг хз, как хранятся данные в мозгу тоже хз. Верно?


Это как раз не важно.
Я вот знаю, как работает линейный классификатор, однако достать из него формальные знания уже не могу. Потому что обучение деструктивно. Когда я вычислил его коэффициенты, Xc=Y => c=(X'X)-1 X' Y, X и Y можно выкинуть - достаточно c.
А чтобы построить формальную модель, нужно иметь X и Y.
В итоге все упирается в то, что эксперт должен помнить X и Y, хотя для того, чтобы быть экспертом, ему достаточно помнить c. То есть даже если бы мы могли вытащить содержимое головы эксперта, никто не гарантирует, что он помнит X и Y.
Поэтому я и пишу "не следует". То есть может быть, что тебе удастся вытащить знания из головы эксперта. Но может и не удастся.
И экспертные системы закончились тогда, когда эксперты перестали понимать, а как они собственно думают.
330 1298655
>>298652

>когда эксперты перестали понимать, а как они собственно думают.


Это относится к любому человеку, а не только к эксперту. Есть одно но, существует знания которые легко можно формализовать, например диагностическая медицина, грамматические правила, шаблонные юридические или банковские бумаги да, алгоритмическую торговлю, автономное движение и пр.
331 1298656
>>298652

>когда эксперты перестали понимать


P.S. Еще забыл, что эксперты не очень то и хотели делится своими знаниями, по очевидным причинам.
Fingram-of-the-set-of-stretched-rules-for-the-metStatRST-da[...].png151 Кб, 850x573
332 1298661
>>298652
Говноалгоритмопроблемы. Те же системы нечеткого вывода полностью прозрачны в плане построения правил вывода. И даже если этих правил тысячи, полученную систему можно представить в виде, понятном для человека, т.н финграммы есть для этого.
333 1298720
>>298655
булшит с дивана. Вообще ничто из этого не формализируется дальше игрушечных примеров. Юридические документы легко формализируются лишь только, если их уже какой-нибудь консультант-плюс сгенерировал (вот как раз тебе и эс во всем ее блеске и великолепии, эксперт вписывает переменные - получаем итоговый результат).
334 1298729
Вкатился в эти ваши нейросеточки, где брать данные из реального мира (экономические), чтобы поинтереснее было анализировать?
335 1298785
>>298298

> мне два гамбургера и картошку.


Но я не гуманитарий.
336 1298854
Сап двач поясни плеаз за лог софт макс. Если простой софт макс даёт вероятности от 0 до 1 то логарифм даёт хуебору. Как он может правильно работать в аутпут лаере?
338 1298992
>>298854
Он реализован более эффективно и вычислительно стабильно, чем log(softmax), и нужен только для кросс-энтропии.
339 1299073
>>298655
Так думали, когда началась вся эта символьная эйфория - особенно наивно выглядит научная фантастика тех лет.
А на деле во всех областях в том или ином виде проявляется закон Ципфа - самые частые правила ты весело формализуешь, получаешь бабки под "вот видите, какие успехи за полгода - через 10 лет вообще ого-го все будет", а потом начинаются более редкие правила с частотой встречи 1/n, и на каком-то этапе ввод нового правила становится экономически невыгодным - дешевле кормить толпу экспертов. Или автоматизировать само получение правил из данных.
340 1299166
>>299073

>особенно наивно выглядит научная фантастика тех лет.


Нехуя не наивно, возьми космос, в 60х с таким задором и темпами реально было колонии на марсе построить, но быдло захотело кружевные трусики и соевую колбасу.
341 1299182
>>299166
Ой, фантазёр.

>быдло захотело


Это какое? Которое во главе нежизнеспособного говна под названием "СССР" сидело?
342 1299191
>>299182

>нежизнеспособного говн


Да, которое в 30х повышало грамотность и строила гэсы, в то время как копетолизды дохли с голода и готовы были работать фор фуд.
343 1299194
>>299191

>копетолизды дохли с голода и готовы были работать фор фуд.


А голодомор выдумали хохолы.
1502340849177795046.jpg157 Кб, 700x420
344 1299195
>>299194

>А голодомор выдумали хохолы.


Копетолиздмъ
345 1299197
>>299166

>в 60х с таким задором и темпами реально было колонии на марсе построить


Нет, в космосе было все ровно то же самое. Удалось вывести спутник - потом человека - потом долетели до Луны за какие-то безумные деньги - а тупые фантасты начали дальше экстраполировать, не понимая, технологический лимит химических ракет достигнут.
346 1299199
>>299195
В СССР 30-х был капитализм? Ну ок.
347 1299201
>>299191
Простите, конечно, но как 30-ые связаны с тем, что он развалился? Крутой демагогический уход от темы. В чём прикол-то? Да, круто, что понастроили всего, в космос полетели и проч. Но в итоге развалились через 70 лет после создания и оставили после себя социальный и экономический пиздец.
Алсо, не буду больше отвечать, а то потрут за политоту нахер.
348 1299203
>>299201

>оставили после себя социальный и экономический пиздец.


Точно, порты, заводы, железные дороги, атомные станции и школы. Чухня и хохлы только только все просрали.
349 1299204
>>299201

>Да, круто, что понастроили всего, в космос полетели и проч


Как будто в других странах не строили при этом. Просто в совке гордиться больше нечем.
1542045767149944573.jpg108 Кб, 346x500
350 1299205
>>299201

>Но в итоге развалились через 70 лет


Разваливали либирахи-предатели изнутри.
351 1299207
>>299204

>в совке гордиться больше нечем


Горжусь Гагариным, а не Микки-Маусом
352 1299209
>>299207
Вот я и говопрю, что нечем. У тебя выбора нет. Это американец может гордиться микки маусом, томом и джерри, гагариным, минимугом и экскаватором катерпиллер. А в совочке только Гагарин. При этом исключительно за то, дал посасать пиндосам.
15423782849870.jpg46 Кб, 438x569
353 1299210
Вот ещё здесь не хватало срамунизм форсить. Нахуй пошли отсюда, грязноштаны ебучие.
354 1299212
>>299210
А что, ИТТ самая большая концентрация шизиков на доске, только коммиблядей и не хватало
355 1299213
>>299209
Все верно, американская гордость крутится возле развлечений и потреблядства, нужно быть конченным либирахой что бы разделять их ценности.
356 1299215
>>299212
>>299210
Бугурт копетолиздов детектед, как там, поработали уже 12 часов за конвеером, лол?
plakatrgb-1024x627.jpg204 Кб, 1000x600
357 1299217
Копетолиздмъ даже ИИ превратил в говно и потреблядство.
original.jpg330 Кб, 841x595
358 1299218
Фаталити в пейсы либирашек
359 1299279
Аноны, кто-нибудь облачными платформами пользовался? Надо выбрать для лаборатории университета, в прироритетах никаких конкретных задач нет, главное чтобы подешевле (в разумных пределах, впс с половиной ядра за доллар в месяц - перебор) и побольше всего пощупать.
Интересно в первую очередь узнать про популярные сервисы, МС азур, амазоновскую платформу.
360 1299300
>>298729
Помогите, аноны, пока интерес есть!
362 1299324
>>299311
Спасибо за очень интересную статью, но я искал как раз сырые данные, чтобы сам мог поковыряться.
363 1299327
>>299324
https://github.com/awesomedata/awesome-public-datasets#economics

Я это нагуглил как economic sequence dataset
Советую и тебе тоже начинать гуглить
364 1299338
>>299327
Меня забанили.
365 1299339
>>299327
Да, кстати, спасибо тебе, аноний.
366 1299350
Сап двач. Читаю Бишопа нихуя не понятно. Что можно дочитать чтобы хоть что-то вкурить?
367 1299360
>>299350
Я на курс МФТИ успел, вроде ясно всё. Там больше на понимание работают. Заинтересовало - дам ссыль. Мне норм.
368 1299428
>>299350

> Сап двач. Читаю Бишопа нихуя не понятно. Что можно дочитать чтобы хоть что-то вкурить?


Ну так сто раз же обсуждали - матанализ, теорвер и линейная алгебра.
369 1299461
>>299279
пользовался, я ответил на твой вопрос?
370 1299504
>>299461
Не совсем. Ты можешь немного расписать про них. Какие платформы пробовал, на какой остановился, свои мысли о тарифах, возможностях, фишках и все такое.
371 1299607
>>299360
Заинтересовало
372 1299701
>>299607
https://youtu.be/RviskFqwF3M
Первое занятие на потоке для абсолютных новичков. Для зарегистрированных только домашка добавляется и ноутбуки.
373 1299704
>>299701
Python-ноутбки с семинарами - стенография + примеры и задания.
374 1299712
>>299701
Пиздос, какая же ахинея эти ваши нейроночки.
Синапсы, бля, в голосяндру
375 1299728
>>299712
Ты про курс или жирно троллишь?
1451435576161651610.jpg61 Кб, 604x404
377 1300384
>>300245
в пизду мединцинскую диагностику и автовождение, будем акробатами
378 1300500
>>300384
На самом деле это очень важно, можно сразу будет обучать всякие станки и прочую технику правильному.
379 1300508
>>300500

>обучать всякие станки и прочую технику


лол, вот сам и будешь с такими станками работать
380 1300520
>>300508
да я и не против, но я такой тупой, что меня только на машин лерн хватает, а за станком стоять - я без рук останусь, да и вообще боюсь станков, в школе было, один мудак станок не в тот разъем подключил, станок чуть не взорвался.
381 1300701
Сап, есть модель где y зависит от даты, дата в формате гг-мм-дд, как ее преобразовать, чтобы можно было вызвать для нее fit(X,y)? Дата - это X. Сейчас ругается, что нельзя преобразовать дату в float
Я тупой, сильно не бейте
382 1300712
>>300701
В timestamp конвертни.
383 1300739
>>287447 (OP)
бампусики
384 1300741
>>297989

>вкуность


чево
385 1300742
>>300739
Бамп в тематике - ты серьёзно?
386 1300756
>>300742
да нет
387 1300785
>>300701
Большинству моделей насрать, что представляют собой твои данные, лишь бы представлялись в виде вещественных векторов признаков. Так что, если перегонишь в таймстамп, как тебе советуют, fit(x, y) ты запустить сможешь. Результат, разумеется, вполне может быть говном, потому что начинать нужно с задачи и её решать, а не совать данные в готовый алгоритм.
15.04.18 Stanford Seminar - Information Theory of Deep Lear[...].mp45,4 Мб, mp4,
1280x720, 1:26
388 1300789
оказывается дополнительные hidden layers значительно ускоряют обучение, что скажете?
389 1300793
>>300789

>что скажете?


Старый петух из стенфордовской шараги несет какую то дичь.
15.04.18 Stanford Seminar - Information Theory of Deep Lear[...].mp412,5 Мб, mp4,
1280x720, 2:19
390 1300804
>>300793
сам ты дичь, он ученый
391 1300805
>>300804

> он ученый


оно и видно, только пиздеть может.
392 1301132
Что прочитать, чтоб научиться классифицировать изображения? Если конкретней, то нужно распознать 6 картин, снятых с камеры телефона. Нужна ли предобработка и прочая хрень?
393 1301157
>>301132

>Что прочитать, чтоб научиться проводить операции на сердце? Если конкретней, то нужно шунтировать одно место в коронарной артерии, в которой начал образовываться тромб. Нужна ли послеоперационная терапия и прочая хрень?

394 1301158
>>301132

> Что прочитать, чтоб научиться классифицировать изображения?


Это блядь наипростейшая задача. Советую теорвер школьного уровня.

> Нужна ли предобработка и прочая хрень?


Нинужно. Главно в память твоей самообучалки залить фотографии и обозначить их классы.
395 1301176
>>301158

>наипростейшая задача


Ай смешнючий какой, малаца
396 1301192
Двач что скажешь о новом курсе сиражика по рэинфорсменту ?
397 1301229
>>301192
Ты правда думаешь, что кто-то здесь записался на него?
Курикулум норм выглядит, хотя я не уверен, что всё там упоминаемое можно за 50 часов осилить.
398 1301282
>>301132

>нужно распознать 6 картин, снятых с камеры телефона


Вручную не проще сделать?
399 1301283
>>301282
И как это в ручную?
400 1301289
>>301132
попробуй прочитать инфу на этом сайте https://images.google.com/, в качестве предобработки можешь обрезать все вокруг картины
401 1301299

>открыл статью


>ссылки на сто других статей


>в каждой статье на одну и ту же тему ссылки разные, дай бог две-три совпадают


Как их читать-то.
402 1301300
>>301299

>Как их читать-то.


берешь и читаешь, как ещё
980x.png115 Кб, 298x337
403 1301301
>>301300
Шо, все?
404 1301306
>>301301
можешь ещё лекции посмотреть https://www.youtube.com/watch?v=s5qqjyGiBdc
405 1301364
>>301283
А мне-то откуда знать? Ты ж вообще не сказал, что тебе нужно. Зачем тебе ради 6 фотографий заморачиваться с машобом?
406 1301366
>>301306
Да при чём тут RL, я спрашиваю, неужели мне вообще все статьи по теме прочитать? Зачем их так много понаписали-то?
407 1301372
>>301366

>неужели мне вообще все статьи по теме прочитать?


конечно нет, начни с простого
408 1301457
>>301176
Я на полном серьёзе.
Палю годноту:
1. Загружаешь память твоего алгоритма имагесет.
2. Загружаешь контрольную имаге.
3. Попиксельно сравниваешь контрольную имаге с каждой имаге из сета.
4. Делишь совпавшиеся пиксели на сумму совпавшихся и несовпавшихся пикселей, получаешь вероятность того, что предмет на контрольный имаге является предметом класса из сета.
5.?????
6. ПРОФИТ!
1.png222 Кб, 628x470
409 1301461
>>301366

>я спрашиваю, неужели мне вообще все статьи по теме прочитать?


И боже вас сохрани, не читайте до обеда сойбойских статей. Других нет? Вот никаких и не читайте! Ну рили, там же говноедство одно, причем изложено так, что все равно нихуя не повторишь.

>Зачем их так много понаписали-то?


Бородами меряются. Смысла читать этот кал - 0.
410 1301487
>>301372
Да вот хрен поймёшь, что тут простое. Вот я беру недавнюю статью, этого года - там 40 источников, причём я читал около 5. Что из этого прочитать надо, а что нахуй не нужно? Руки опускаются.
411 1301521
>>301299

>Как их читать-то.


Любая статья устроена так:
1. Абстракт с краткой выжимкой научной новизны
2. Глава с экскурсом в историю
3. Описание собственно работы
4. Результаты
5. Выводы

Алгоритм такой. Набираешь в гугле "проблеманейм state of art". Ищешь статью. Читаешь в ней пункты 1, 2 и 5. Самое главное тебе сейчас пункт 2.
Из этой главы набираешь ссылки с экскурсом в историю, читаешь там абстракт и историю. В итоге ты более-менее в курсе о разивитии темы во времени, и куда там можно копнуть дальше. После этого читаешь абстракты у всего - шлак начнет отсеиваться сразу же.
413 1301623
>>301487
Нахуй не нужно или нужно для чего? Статьи - это передний край науки, если ты такими вопросами задаешься, тебе скорее всего надо прочитать 5 не статей, а учебников.
414 1301657
>>301623
Ну вот есть куча статей разных (очень разных) лет, которые предлагают много подходов к решению некоторой задачи. Как понять, что из этого нужно знать, какие подходы хороши, а на какие статьи можно не тратить времени? Вместо учебников тут скорее всевозможные обзорные статьи будут, хотя я там сравнения и рекомендаций не видел - только "вот что народ предлагал".
К слову о сравнения. Как читать раздел "результаты"? Понятно, что каждый себя хвалит, а о недостатках помалкивает. И задачи бывают разные, одни тестировались на одном, другие - на другом, да и измеряет каждый своё. Как сравнивать результаты разных статей?
415 1301658
>>301521
О, спасибо. Надеюсь, поможет - обычно без прочтения статьи я абстракт не понимаю.
416 1301660
>>301657

>Как понять, что из этого нужно


Просто, никто работающие йобы публиковать не будет, там пишут всякую дичь.
417 1301661
>>301616

>habr.com


Элярм, тред пробил дно, элярм111
418 1301668
>>301661
психический ?
419 1301670
>>301668
манька, ссылка на швабр не только признак некомпетентности но еще и педерастии.
420 1301686
>>301657

>Как понять, что из этого нужно знать, какие подходы хороши, а на какие статьи можно не тратить времени?


Если бы кто-то априори знал, какой подход хорош, он бы его развил и добился бы успеха. Твой вопрос аналогичен вопросу "а как на бирже инвестировать деньги и заработать миллиард". Да никак. Кто-то побеждает, кто-то тратит время на заведомый шлак.

Даже суд истории не особо помогает - вполне возможно, что годный подход сообщество не заметило. Точнее, это так, в этом сообществе полвека использовали tanh как функцию активации. Но ничего другого нет. Поэтому стандартные методы - arxiv-sanity, индекс цитируемости в популярных работах, сообщества и звезды.
Но в целом суд истории самая работающая тема. Мы не знаем топовую статью за этот месяц, но за 2012 год это AlexNet. Ну и как бы "As of 2018, the Alexnet paper has been cited over 30,000 times. " ты не можешь пройти мимо нее. А зная ее, тебе 10 лет до нее особо и не нужно. Потому что подходы сменились и те, кто ебал свой мозг в нулевых проиграли, их тонны шлака о том, как вручную дизайнить фичи и скармливать их SVM уж никому не нужны, а Алекс выиграл.

>К слову о сравнения. Как читать раздел "результаты"? Понятно, что каждый себя хвалит, а о недостатках помалкивает.



Опять же, зачем тебе читать. Если речь не о переднем крае переднего края, давно есть обзораные статьи, сводные таблицы, красивые посты в блогах и awesome-yobaname страницы на гитхабе. В них ты найдешь ссылки на нужные статьи.

Вот опишу тебе такую ситуацию. Наткнулся где-то в интернете на упоминание того, что ГАНы создают паттерны, похожие на шахматную клетку, дальше несколько часов ушло на поиск статьи https://arxiv.org/pdf/1707.02937.pdf , поиск реализации в виде класса для tensorflow и модификацию его для моей задачи (у меня 1d вместо 2d - нужно было у входных данных добавить фейковое 2 измерение). Это сработало - и сработает для любой U-Net с subpixel convolution. Правда в итоге оказалось, что дубовый подход "nearest neighbor upsampling + conv" работает лучше и я отказался от subpixel convolution совсем (если еще точнее - в одной задаче отказался, в другой нет). Вот подобные статьи - где описывается конкретный подход и ты немножко по прочтению образовываешься, я читаю. И их очень мало. А рандомные статьи, где рандомный хуй прилепил GAN к очередной задаче, где и без GAN все работало - нет.

>Как сравнивать результаты разных статей?


Если статья старше года и она хоть чего-то стоит, всегда есть гитхаб с ее реализацией (кроме гипотетической ситуации, что золотой биллиант никто не заметил), а то и несколько. Качаешь, ебешься и тестируешь. Месяц на такое потратить вполне ок.
Если у тебя нет месяца, берешь самую попсовую методу и пилишь ее. Ок потратить несколько дней на выяснение того, а что сейчас самое модное.
420 1301686
>>301657

>Как понять, что из этого нужно знать, какие подходы хороши, а на какие статьи можно не тратить времени?


Если бы кто-то априори знал, какой подход хорош, он бы его развил и добился бы успеха. Твой вопрос аналогичен вопросу "а как на бирже инвестировать деньги и заработать миллиард". Да никак. Кто-то побеждает, кто-то тратит время на заведомый шлак.

Даже суд истории не особо помогает - вполне возможно, что годный подход сообщество не заметило. Точнее, это так, в этом сообществе полвека использовали tanh как функцию активации. Но ничего другого нет. Поэтому стандартные методы - arxiv-sanity, индекс цитируемости в популярных работах, сообщества и звезды.
Но в целом суд истории самая работающая тема. Мы не знаем топовую статью за этот месяц, но за 2012 год это AlexNet. Ну и как бы "As of 2018, the Alexnet paper has been cited over 30,000 times. " ты не можешь пройти мимо нее. А зная ее, тебе 10 лет до нее особо и не нужно. Потому что подходы сменились и те, кто ебал свой мозг в нулевых проиграли, их тонны шлака о том, как вручную дизайнить фичи и скармливать их SVM уж никому не нужны, а Алекс выиграл.

>К слову о сравнения. Как читать раздел "результаты"? Понятно, что каждый себя хвалит, а о недостатках помалкивает.



Опять же, зачем тебе читать. Если речь не о переднем крае переднего края, давно есть обзораные статьи, сводные таблицы, красивые посты в блогах и awesome-yobaname страницы на гитхабе. В них ты найдешь ссылки на нужные статьи.

Вот опишу тебе такую ситуацию. Наткнулся где-то в интернете на упоминание того, что ГАНы создают паттерны, похожие на шахматную клетку, дальше несколько часов ушло на поиск статьи https://arxiv.org/pdf/1707.02937.pdf , поиск реализации в виде класса для tensorflow и модификацию его для моей задачи (у меня 1d вместо 2d - нужно было у входных данных добавить фейковое 2 измерение). Это сработало - и сработает для любой U-Net с subpixel convolution. Правда в итоге оказалось, что дубовый подход "nearest neighbor upsampling + conv" работает лучше и я отказался от subpixel convolution совсем (если еще точнее - в одной задаче отказался, в другой нет). Вот подобные статьи - где описывается конкретный подход и ты немножко по прочтению образовываешься, я читаю. И их очень мало. А рандомные статьи, где рандомный хуй прилепил GAN к очередной задаче, где и без GAN все работало - нет.

>Как сравнивать результаты разных статей?


Если статья старше года и она хоть чего-то стоит, всегда есть гитхаб с ее реализацией (кроме гипотетической ситуации, что золотой биллиант никто не заметил), а то и несколько. Качаешь, ебешься и тестируешь. Месяц на такое потратить вполне ок.
Если у тебя нет месяца, берешь самую попсовую методу и пилишь ее. Ок потратить несколько дней на выяснение того, а что сейчас самое модное.
421 1301705
>>301487
если с базовой областью ознакомиться, то берешь какой-нибудь список вроде этого

https://github.com/floodsung/Deep-Learning-Papers-Reading-Roadmap
или этого
https://www.kdnuggets.com/2018/10/generative-adversarial-networks-paper-reading-road-map.html

и читаешь из него статьи,
а дальше смотришь только уже по своей узкой специализации
422 1302248
Сап, двач, мои знакомые разработчики тут запилили чат-бота, для разработки сценария тестирования других чат-ботов (рекурсия))
Дабы был профит, нужно лишь одно: чтоб неравнодушные к it люди пообщались с ботом как с человеком в рамках заданной роли и оценили этот диалог (там же, в чате). Бот будет участвовать в американском конкурсе. Двач, загрузи ботика вопросами на английском, дабы он в ответах выглядел по-божески)
Начать беседу: https://m.me/convai.io (мессенджер Фейсбука)

Пы.сы. Двощ, вся критика за недостатки бота на ваше усмотрение, но буду рада конструктиву
423 1302254
Двачик есть у кого ссылка на книгу https://www.oreilly.com/library/view/deep-learning-for/9781788295628/ ?
424 1302264
>>302248
А где православная Телега?
425 1302271
>>302248

>неравнодушные


>тестировать бесплатно


>фб


Хуй сосите, бляди позорные. Заходить на двач и просить тестировать бота в убогом фейсбухе - это просто охуительно.
Алсо,

>рада


сиськи с супом предоставь, кого ты тут на запах пиздятинки приманиваешь, падла?
>>302254
Пидарэз, в шапке ссылка на либген для кого?
15419706644520.jpg87 Кб, 600x508
ВСЕМ ХОЙ В ЭТОМ ЧАТЕ 426 1302281
Кто на неурипс едет?
Какие же они пидоры все-таки, что сменили акроним! Как же бомбит у меня! Пиздец, помимо того, что не провели повторного голосования, так еще и акроним зафорсили совершенно убогий.
Сука, накурился со злости, пойду жену УГНЕТАТЬ.
428 1302371
>>302281
нет, не бомбит, если бы по-русски конференция называлась СОСОК (системы обработки составных онтологических компонент) (или ЯПОШКИ (языки предобработки онтологий шиммерной комплексной информации) - целых два смешных значения на одно слово), ее бы тоже переименовали. Не удивлюсь, что сначала, когда конференция была маленькой, кто-то посчитал, что это классная шутка.
429 1302372
>>302371
и это, не учитывая того факта, что до 2013г. мудрые ученые устраивали конференцию только на горнолыжных курортах (согласно Википедии)
430 1302373
>>302314

бамп
431 1302377
>>302371
Ну давай разберем тобою написанное.
Сначала устроили честное, народное, демократическое голосование, по итогам которого консенсуса о смене названия не было выявлено, было принято официальное решение название не менять.
Потом какие-то активсты тупо зафорсили свой убогий акроним. Я не знаю, будешь ли ты спорить с тем, что его странно произносить вслух и сложно красиво изобразить графически. И тут безо всякого голосования уже оргкомитет просто взял и прогнулся.
Вот от этого у меня бомбит. Про остальные аспекты происходящего мне объяснять ничего не нужно.
432 1302382
>>302314
При всем уважении к автору есть примерно 100500 курсов лучше.
433 1302443
>>288558
мимо робототехник кун (делаю коллаборативных роботов-манипуляторов)
Для начала спрошу, каких роботов? Они разные бывают - от самоходных телег до человекоподобных которых пинают кожаные ублюдки
Базовая мапа:
1) Матан + линал. У тебя будет не много матана, а охуительно много, да и вообще полезно. С линалом пример прост - ориентация йобота в пространстве - чистый линал.
2) Прога. Оптимальный набор: низкоуровневый язык C/кресты, высокоуровневый язык(и) java/python + уметь находить и работать с нужными тебе либами, и какая-нибудь околоэзотерическоматематическая нех matlab/wolfram
3) ТАУ - теория автоматического анального управления. Тут всякая "дичь" которая позволит именно управлять управляемыми железками. Гугли для примера: PID, ADRC, LQR.
Задавай свои ответы
434 1302465
>>302443

>коллаборативных роботов-манипуляторов


Доильных чтоли?
435 1302473
>>302443
Евгений Александрович, добрый день.
436 1302476
Заранее извиняюсь за нубский вопрос, но как менять веса в простенькой сеточке на один слой и 3-5 нейронов? Просто прибавлять/убавлять к весу случайное значение при несоответствии инпута с аутпутом? Или нужен какой-то четкий алгоритм?
437 1302478
>>302377
А что они могут сделать, судиться же с ними будут в Америках, а не с демократически проголосовавшими Всякие политически активные второсортные (Хинтону или Лекуну наплевать) ученые Chollet или Jeremy Howard'а начали активно разжигать ( https://twitter.com/hashtag/ProtestNIPS ).
438 1302505
>>302478
Ебать ты дерзкий, братуня, если для тебя эти ученые всего лишь второсортные
1542497596159061499.jpg24 Кб, 400x320
439 1302507
>>302478
Истеричка, прекрати, вон есть ЯП Coq и всем норм.
440 1302516
>>302505
они просто вообще не ученые. Chollet написал керас - но это ненаучная разработка (да и написать враппер не слишком-то уж и сложно). Ховард себя сам позиционирует как entrepreneur, business strategist, developer, and educator.
441 1302521
>>302516

>entrepreneur


>антрепренёр


Клоунов показывает?
442 1302703
>>288278
Не гони на R. Отличный язык и великолепная среда Rstudio. Он уж точно лучше всяких SPSS, statistica и другого табличного хлама.
443 1302710
>>299215
>>299217
>>299218
Очередная чмонька обслуживающая спектакль не палится.
444 1302712
>>302476
Гугли градиентный спуск.
445 1302745
>>297989
У тебя p получается играет роль константного смещения. Этот фактор всегда есть в неявном виде (вещи, которые влияют на исход, но которые мы не включили в модель и считаем постоянными), но у тебя он частично явно выражен (есть и другие постоянные неизвестные нам факторы, но мы хотя бы осведомлены о постоянной p). Всегда чтобы учесть смещение в Х вставляется столбец единиц. В твоём случае тебе надо заменить p на такой столбец.
446 1302863
>>302712
Все равно не понимаю(
В голову приходит только следующее:

При обучении задается некоторое значение изменения веса, и, если результат одной итерации обучения/результат больше чем результат предыдущей итерации обучения/результат, то мы снижаем значение изменения веса.
447 1303079
>>302703
Я бы руки поотрывал тем, кто придумал делать доступ к полям класса через $. И naming convention там отсутствует как класс.
448 1303081
>>302863
Закрывай двач и иди учись, раз основ не понимаешь.
449 1303107
>>302863
Нейросеть это функция y=f(x, a), где x - вход, y - выход, a - параметры.
Пусть у нас есть набор x1 y1 x2 y2 x3 y3 для обучения

Для обучения мы пишем нашу цель
L = (y1-f(x1,a))^2 + (y2-f(x2,a))^2 + (y3-f(x3,a))^2

При обучении мы меняем a так, чтобы L каждый раз немножко уменьшалась.

Твой способ называется случайный покоординатный спуск. Ты выбирешь параметр, случайно его меняешь в ту или иную сторону, считаешь L, сравиваешь с предыдущим, если он меньше, то продолжаешь дальше. Он плох тем, что в современных нейронках у тебя миллиарды параметров, и такой спуск займет вечность. Даже в твоем случае он будет довольно медленным. Хотя работать должен.

Правильно делать градиентный спуск в точке a находится вектор (градиент) dL/da и выполняется спуск сразу по всем координатам в пространстве параметров: new_a = a - alpha * dL/da. За один шаг ты апдейтишь все параметры, даже если их миллиарды.

Так как ты тупой и dL/da сам не вычислишь, изучай лучше tensorflow, а не пили свои нейронки на коленке - все равно получится говно.
450 1303338
>>302382

Например
451 1304066
Че вы сингулярность ещё не построили нанороботы целители всё такое
452 1304074
>>304066
Мы график нормально ещё не построили.
15412426964190.jpg91 Кб, 750x562
453 1304144
>>303107

> в современных нейронках у тебя миллиарды параметров


90% которых не участвуют в решении задачи. Н-р, для классификации нужны только примеры, лежащие на границах классов, т.к остальные вообще не участвуют в формировании решающих правил и их настройка квадратно-гнездовым способом - полный порожняк и трата вычислительных ресурсов в никуда итд. Но эту проблему хипстеры либо игнорируют, либо вообще о ней не слышали. Как вариант - владелец нвидии Вынь Сам Пей проплатил, чтобы видюхи бодрее раскупались.
454 1304147
>>304144
Петуха забыли спросить
455 1304154
>>304066
Сингулярность движется крупными корпорациями, а не /пр/тардами с двача.
image.png139 Кб, 553x262
456 1304160
457 1304258
Как гуглить профессии на роль 'Junior' в ДС? (интересует область машинное обучения, кроме дата сайентиста). На HH только Junior DS нахожу и всё...
458 1304269
>>304258

>junior


мехмат,мфти,мифи
459 1304310
>>304258

>интересует область машинное обучения, кроме дата сайентиста


попробуй гуглить computer vision или nlp
460 1304450
Я правильно понимаю, что любые ядра можно использовать как метрику (косинусную, например)? Или там сложнее?
461 1304456
>>304450

>косинусную


Можно взять пинуснусную метрику вторых пихвоидов Жопеншмульцера-Кака
462 1304458
>>304456
Гыгы, бротиш, в двадцатый раз смешнее.
463 1304469
>>304458
Я в голос рассмеялся, например
465 1304513
Можно ли обучать нейронки на майнере битков? Первые модели сейчас почти даром отдают, а я неприхотлив.
466 1304516
>>304513
Конкретную модель видюхи смотри
467 1304518
>>304516
Не видеокарта, в том-то и дело, а что-то вроде antminer.
468 1304522
>>304518
Не, на таком нельзя, на таком можно только хэши считать, чтобы, не знаю, пароли подбирать
469 1304554
>>304522

>пароли подбирать


Подберите мне пороль к вкшечкипазязя
470 1304565
>>304513
Вряд ли, тут выше по треду говорили, что для нейроночек память важна, а майнерам - наоборот.
471 1304567
>>304554
Сопри куку для начала
472 1304568
>>304554
Такую хуйню даже на квантовом компьютере невозможно сделать, ибо на перебор у тебя ограниченное число попыток, защита от брутфорсинга.
473 1304580
>>304568
Ок, есть локальный архив с паролемвикиликс как его взломать используя ИИ?
474 1304585
>>304580
ИИ - никак. Для остального есть радужные таблицы.
475 1304587
>>304580
А нахуй тут ИИ? Тут социал инжинеринг/анальный перехват данных.
476 1304588
Двач, я хуй пайму в ем алгоритме на м шаге что мы максимизируем. Зачем там брать логарифм от мат ожидания. Это как-то связано с неравностю Дженсена чи шо мм??
477 1304590
>>304588
Я ошибся, зачем брать мат ожидание от лог правдоподобности?
478 1304596
>>304590
Или это мы минимизирум растояние кульбака лейблера между распределением скрытых переменных и распределением данных от параметров распределения ?
479 1304597
>>304588

>Зачем там брать логарифм от мат ожидания


Так же, как и везде в ML, да и в математике в целом: логарифм превращает произведение в сумму.
В данном случае у тебя лайклихуд это произведение p, а вот логлайклихуд это уже сумма log(p).
Это настолько популярный трюк, что его даже не упоминают в лекциях.
480 1304598
>>304596
Пинуснусную метрику вторых пихвоидов Жопеншмульцера-Кака
481 1304603
>>304587

>А нахуй тут ИИ?


А зачем он тогда нужен?
482 1304605
>>304603
Рубить бабосы.
483 1304609
>>304603

> А зачем он тогда нужен?


Управлять экономикой в частности, и страной в целом. Начинаем стратегиями-игрульками типа StarCraft, заканчиваем проектами типа ОГАС/Cybersyn.
484 1304655
>>304609

>ОГАС/Cybersyn.


Есть книги про эти мокрописьки?
485 1304772
Подскажите какие есть подводные камни при работе с координатами? Есть какие-нибудь мануалы или готовые инструменты/алгоритмы? Ещё хотелось бы найти что-нибудь типа датасета или API для извлечения координат центров городов, вроде через yandex API так можно делать, но по правилам использования, такие данные нельзя сохранять либо нужно деньги за апишку платить.
486 1304778
>>304655
Не теряй время
488 1304825
>>291802

Зая, средства будут заведены заранее на все взятые в оборот биржи.
489 1304852
>>304655
Про книги не знаю, но можешь почитать вики.
490 1304858
>>304780
Спасибо, вроде то что нужно
491 1304901
Ребят, такое дело: есть очень-очень много данных с автомобилями. Самое ценное в них, как мне кажется - цены указанные самими дилерами. Что с ними можно сделать дабы пощупать машинное обучение с пользой?
492 1305050
>>304588
https://ru.wikipedia.org/wiki/EM-алгоритм#Альтернативное_описание

Логарифм неполного правдоподобия log L(theta; X) можно разложить в некоторую сумму трёх слагаемых, а потом одно из этих слагаемых перекинуть в левую часть. В результате получается равенство по ссылке. Мы обе части равества обозначаем F(q, theta). Дальше некоторые соображения:
1. F(q, theta) <= log L(theta; X), потому что DKL >= 0
2. Eq(log L(theta; X, Z)) + H(q) зависит от theta только через первое слагаемое
3. DKL(q||p) + log L(theta; X) зависит от q только через первое слагаемое

А дальше предлагается максимизировать вместо log L(theta; X) её нижнюю оценку F(q, theta). Предлагается максимизировать блочно-покоординатным спуском - сначала максимизируем по q (для этого берём F = DKL + log L(theta; X), и максимизировать там надо только DKL; в классическом варианте берём q = p(Z|X, theta), но есть и другие методы - вариационный, например, или crisp), это E-шаг, потом по theta (для этого берём F = Eq(log L(theta; X, Z)) + H(q), и максимизировать нужно только Eq(log L(theta; X, Z))) - это M-шаг. Собственно, там есть условия, когда такая процедура будет монотонной и сходиться к чему надо, но я их забыл.
493 1305093
>>305050
Это типа атакующее заклинание такое?
мимокрок
494 1305103
>>305093
Да. А теперь пиздуй отсюда, а то прокляну.
495 1305158
>>287447 (OP)
Кто-нибудь создал ИИ для поиска ЦП?
496 1305180
>>305103
Бафни на быстрое обучение джанге плес
15393009778380.jpg1,8 Мб, 2592x3888
497 1305281
>>305158
Да, давай проверим как работает. Дай свой телеграм
498 1305282
>>304901
Запили сервис, который определяет цену по данным.
499 1305395
>>305282
Первое, что в голову пришло, да. Но такие уже есть.
500 1305515
Почему на кегле такой всратый поиск? Даже отдельной страницы нет, только показывает первые несколько результатов.
Как это фиксится? (кроме как делать поиск по сайту в гугле)
501 1305566
>>305158
Гугл помнится говорил что они скачали 5 теребайт ЦП чтобы "нейронки тренировать".
502 1305648
Нейрач, где можно найти теорию по тому, как работает opencv, как он ищет квадраты на фото, какие матрицы там перемножает, алгоритмы поиска краев, и все такое? Мне нужна теоретическая база, а в статьях и пособиях обычно "ну мы просто берем готовую либу и без задней мысли находим маркеры на видео"
1005834708.jpg32 Кб, 497x700
503 1305652
>>305648
Начни с пикрелейтед и других книг автора. Это прямо основы-основы.

>Мне нужна теоретическая база, а в статьях и пособиях обычно "ну мы просто берем готовую либу и без задней мысли находим маркеры на видео"


Ну это сложная тема, я с десятилетним опытом (какой кошмар) в теме не очень в курсе, как работает SIFT, например, не говоря уже о куче других менее известных алгоритмов. Фичевектор выдает и хуй с ним
504 1305654
посоветуйте тип нейросети из https://en.wikipedia.org/wiki/Types_of_artificial_neural_networks для 3д-игр ?
конфигурация нескольких ?
допустим есть 800х600px - 10fps входные данные
505 1305656
506 1305657
>>305654
А какую задачу ты собираешься решать?
507 1305666
>>305657
например сеть для moba игры по типу доты
акселерации (ускорения) судя по-всему нет, неуверен насчет прикручивания грида - сама идея неясна - сеть же в одном экземпляре - значит результаты (разные экземпляры обученных сетей) просто мержатся ?? не абсурд?
508 1305667
есть боты,
есть возможность обучить до начального уровня
509 1305671
подобный пример для dota 2 - https://blog.openai.com/openai-five/
510 1305683
Тред утонул или удален.
Это копия, сохраненная 6 января 2019 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски