Этого треда уже нет.
Это копия, сохраненная 25 апреля 2021 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №32 /ai/ 1868191 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают.

Я ничего не понимаю, что делать?
Вкатывальщики импортят slesarplow as sp по туториалам (хотя сейчас актуальнее pytorch)
Толковые качают из репозитория awesome-XXXX на гитхабе проект какого-то китайца, меняют фамилию и получают $10M инвестиций как стартап.
Умные смотрят prerequisites на https://see.stanford.edu/Course/CS229 и http://cs231n.stanford.edu/
Остальные сидят ИТТ

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/

Почему python?
Исторически сложилось

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров: https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом

Кто нибудь использовал машоб для трейдинга?
Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущие:
https://2ch.hk/pr/res/1847673.html (М)
https://2ch.hk/pr/res/1832580.html (М)
https://2ch.hk/pr/res/1817320.html (М)
https://2ch.hk/pr/res/1785952.html (М)
https://2ch.hk/pr/res/1758961.html (М)
https://2ch.hk/pr/res/1734710.html (М)
https://2ch.hk/pr/res/1704037.html (М)
https://2ch.hk/pr/res/1665515.html (М)
2 1868269
Куда вкатываться в айти, если хорошо знаю математику?
3 1868270
>>868269
функционально программрование
4 1868274
https://www.youtube.com/watch?v=nV7cI5zgOpk&list=PLA0M1Bcd0w8yv0XGiF1wjerjSZVSrYbjh
Отличный плейлист по machine learning

Пример видео:
https://youtu.be/lRJJEMSD7kI
5 1868281
>>868269

>Куда вкатываться в айти, если хорошо знаю математику?


Никуда. Математики в айти не нужны.
6 1868285
>>868269
В машоб и вкатывайся, смотри первый вопрос в оппосте
7 1868290
>>868285
Чел сказал что хорошо шарит в математике, а с тем что написано в оп посте любой второкурсник-хорошист знаком.
8 1868299
>>868269

>если хорошо знаю математику


Скажи, а как ты ее познал? Ну в смысле это же говно безполезное, какие у тебя цели были?
9 1868325
>>868274
Если нужна теория, то лучше нормальный курс посмотреть. А если знаешь теорию, то 10 минут на видео "как раскрашивать изображения" нет смысла убивать.
10 1868365
>>868325
На видео вообще не смысла убивать время. Лучше уж тогда смишное смотреть или нетфликс какой-нибудь.
Для ознакомления с какой-то МЛ темой лучше всего качественные блогпосты читать, вроде Karpathy.
11 1868371
>>868290
Если твой второкурсник знаком с cs231n, то он и не будет спрашивать про то, куда ему вкатываться
12 1868381
>>868365

>Лучше уж тогда смишное смотреть или нетфликс какой-нибудь.


Ты даун просто. А хороших видео полно
13 1868429
>>868325
Видео для очень быстрого вкатывания в алгоритмы, для поверхностного ознакомления с темой. Что не так?
14 1868443
>>868429
Если прослушать нормальный курс а ля cs231n, тогда 95% видео будет очевидно.
15 1868555
>>868299

>эти мантры макакена

16 1868603
>>868269
В учителя математики и информатики
17 1868606
>>868191 (OP)
Настоебали со своим мЫшинным обучением. Миллион книг блядь понаписали, а толку нихуя. Кто из вас может интерпретатор написать? Никто? а нахуй тогда мышинное обучение вам? Вы же один хуй ничего не напишите.
18 1868616
>>868606
интерпретатор чего?

Мы котов в зомби превращать умеем. И еотовых раздевать
19 1868620
>>868606

>Кто из вас может интерпретатор написать?


Ну я
20 1868713
>>868606
А чего там писать-то? Абсолютно рутинная задача.
21 1868745
Ты кран-то текущий в доме починить можешь? Интерпретаторы ему.
22 1869073
https://www.youtube.com/watch?v=930l_Tc65Uo
дато соенс разрушен
23 1869082
>>869073
ужс
bernd++.webm1,1 Мб, webm,
1024x600, 1:07
24 1869096
>>869073
Почему он так активно жестикулирует?
Вообще - мл нужон чтобы фильтры делать типа фейсаппа - и зарабатывать на пользователях, а не всякие там ресерчи с 0.00001% процентом увеличения эффективности.

>>868606
Webm релейтед написан мной (давно ещё).
25 1869099
>>869096
Это какой год? 2007?
26 1869103
>>869096

>Webm релейтед написан мной


На чем писал?
27 1869104
>>869073
Какой то клоун. С первых же слов возникло ощущение, что он хочет наебать или что то продать.
index.jpg63 Кб, 1024x512
28 1869110
>>869099
2013й где-то.

>>869103
c++\Qt.
29 1869185
>>869096

>Вообще - мл нужон чтобы фильтры делать типа фейсаппа - и зарабатывать на пользователях, а не всякие там ресерчи с 0.00001% процентом увеличения эффективности.


Еще жизофазию генерировать.
30 1869189
>>869096

>мл нужон


Не нужон
image.png68 Кб, 256x256
31 1869201
32 1869212
>>869096
Пиздец. Я это еще в 1983 году посмотрел на Ютубе. Зачем это писать повторно?
33 1869216
>>868606

>мЫшинным обучением


>интерпретатор


Макака не палится
34 1869258
Анон объясни желательно подробно кратко чем dqn отличается от обычной комбинации разновидных слоев в нейронке со входом параметров состояния и выходами равным кол-ву действий где мы просто берем то действие которое имеет наибольший вес https://www.machinelearningmastery.ru/introduction-to-various-reinforcement-learning-algorithms-i-q-learning-sarsa-dqn-ddpg-72a5e0cb6287/
Единственное до чего я не додумался как рассчитывать веса в этой нейронке
35 1869284
>>868606

> Кто из вас может интерпретатор написать?


Деточка, мы транспилируем описания приложений на естественном языке в готовый код, ты решил нас интерпретаторами запугать?
36 1869295
>>869216
>>869284
Вы все тут лохи и неучи. Ваше образование на уровне заборостроительного. Кого вы хотите обмануть. Все эти выебоны только чтобы казаться элиткой, которой вы не являетесь. Тот кто является кем то, тому не нужно создавать видимость. Вы только пытаетесь казаться кем то.
37 1869301
>>869258
dqn - это просто попытка сделать приближенный табличный q-learning с помощью нейросети. Так что сначала разберись с обычным q-learning'ом, а потом переходи к dqn.

>где мы просто берем то действие которое имеет наибольший вес


DQN это про то, что это за вес и как обучиться его предсказывать.

>как рассчитывать веса в этой нейронке


чиво нахуй?
38 1869307
>>869295
Ты тоже мог вместо быдлокодинга учить что-то более сложное и интересное в своё время, тебя никто не заставлял, нечего гореть теперь
39 1869325
>>869307
Как раз это и есть отличная причина для горения. От чего еще гореть, как не от просраной жизни?
Гори, анончик!
40 1869376
>>869258
Разве DQN не умер в пользу policy graidents или как там
41 1869390
>>869295
Я-то в рот ибал машоб и просто мимо проходил, но твой обсёр не заметить не смог
42 1869428
>>869307
Я и так это делал, делаю, и буду делать. А вы тут занимается культом карго, как первобытные племена без образования и какой либо цивилизации.
43 1869501
>>869104
Этот клоун уже из Яндекса в Фейспук тим лидом уехал, и мастер/грандмастер на каггле. А то, что тебя смущает в речи, - это называется софт скиллз.
Хотя манера речи у него действительно на любителя. Мне кажется, такая получается, когда аутист-интроверт читает манагерские книжки и активно их применяет.
44 1869505
>>869376
Не, DQN живет и здравствует, особенно когда нужен sample efficiency. Естественно, не ванильный, а со всеми улучшениями, как в rainbow.
45 1869512
>>869501
Рваный фанбойчик лощеного клоуна тут как тут. Нассал всем в уши, заставил задротов-трясунов из пятёрочки решать себе каггл пока сам банки качал, помахал ими чего-то на тедтолке, словил хайп и свалил, ясно как день.
46 1869520
>>869512
1) Как будто что-то плохое. 2) Он уже в пятерочку пришел (гранд)мастером. 3) Там, скорее, остальную пятерочку он тащил. 4) Кидай свой каггл/резюмеху.
47 1869569
>>869520

> врёти а ты кто такой


классика
48 1869611
>>868191 (OP)
Есть какое-нибудь применение теории графов в машобе?
49 1869620
>>869611
Нет, но есть применения машоба к задачам с графами.
50 1869621
>>869611
Вопрос звучит как "Есть какое-нибудь применение теории хеш-таблиц в машобе?" или "Есть какое-нибудь применение теории списков в машобе?". Граф - просто структура данных.

И вообще нейросети всегда представляются в виде графов(да и по факту ими являются).
51 1869626
>>869620
О, а это интересно.
>>869621
Меня сейчас больше графы с математической точки зрения интересуют. Просто у меня будет дипломка о прохождении графа с определенными условиями и я подумал, что было бы интересно добавить щепотку машоба.
image.png778 Кб, 1200x900
52 1869719
Там нейтроночка все портвеины порешала:
https://www.nature.com/articles/d41586-020-03348-4
photo2020-11-3022-08-25.jpg35 Кб, 601x430
53 1869722
>>869719
Уже только ленивый не написал о новости: сетка AlphaFold выиграла (https://www.nature.com/articles/d41586-020-03348-4) с огромным отрывом соревнование CASP по предсказанию структур белков. Деталей пока известно очень мало, статьи еще нет, а первый доклад по этой работе будет рассказан завтра на закрытой конференции CASP. Точно можно сказать пока только одно: они выиграли соревнование. Насколько же эта сетка, как пишут, “решила проблему фолдинга белка”, — пока, наверно, судить преждевременно.

Дело в том, что есть несколько принципиально разных задач. Можно, например, предсказывать структуру белка, зная структуры его гомологов. Можно не знать структуры гомологов, но по последовательностям из разных организмов знать, какие участки в гомологах этого белка эволюционируют согласованно — и это может значить, что они контактируют в структуре. Любую такую информацию можно использовать для улучшения предсказания, и по результатам в других областях мы видим, что сетки умеют хорошо это делать — обучаться по аналогии. Но есть и другая задача, гораздо более сложная: предсказать структуру для последовательности, похожих на которую мы никогда не видели. Модель, которая сможет такое сделать, обязана будет выучить биофизику белка и закономерности его сворачивания, — и это то, что ученым интереснее всего! И насколько новая сетка умеет решать последнюю задачу, пока совершенно не очевидно.

Поэтому давайте подождем немного и обсудим, когда станет известно больше деталей. Мы заслали агента на конференцию и раскинули щупальца в поисках структурщиков, которые нам все объяснят. Запасайтесь попкорном.
54 1869725
>>869719

Заебись, нахуй биохимию и какие то там исследования и попытки понять как работает мир, нейросеточка подборчик под ответик порешает.
55 1869726
>>869626

>добавить щепотку машоба


И обмаж блокчайном
56 1869732
Начал изучать этот ваш машоб и чёт создалось у меня ощущение, что это какая-то хуета для быдла. Всё идёт легко и не напряжно. Чувство, что если вкачусь, то буду конкурировать с индусами за копейки т.к. любая макака может в этом зашарить.

Собсна вопрос: к какому разделу ML стоит мне катить яйца: где больше требований к пониманию матана и где сложнее идеи.

Также спрошу: вот вы говорите про анальную жопоеблю на kaggle ради повышения качества на 0.01%. Расскажите поподробнее: что вы применяете кроме очевидных перебора гиперпамов и нормализации признаков
57 1869733
И ещё вопрос: как смотреть этот ваш cs231n? Есть видеолекции или только можно смотреть на вшитые на сайт ноутбуки
58 1869743
>>869725
Добро пожаловать в новый мир. Нейроночки все понимают лучше человеков. Человеки уже не нужны по большому счету - только как простейшие устройства для подбора гиперпараметров.
59 1869745
>>869743

>Человеки уже не нужны по большому счету - только как простейшие устройства для подбора гиперпараметров.


Для этого люди тоже не особо нужны, были бы вычислительные мощности.
60 1869755
>>869722
и да, проблему фолдинга они не решили. В том смысле, что прошлое решение было основано на том, что AlphaFold предсказывал карту попарных расстояний, после чего использовались абсолютно классические (родом из 90х) аглоритмы для сворачивания структуры с учетом наложенных ограничений.

Это ни коим образом не описывает непосредственно процесс фолдинга в живой системе.
61 1869762
>>869755
The team tried to build on that approach but eventually hit the wall. So it changed tack, says Jumper, and developed an AI network that incorporated additional information about the physical and geometric constraints that determine how a protein folds. They also set it a more difficult, task: instead of predicting relationships between amino acids, the network predicts the final structure of a target protein sequence. “It’s a more complex system by quite a bit,” Jumper says.
62 1869785
>>869733
Лекции за 17 год на ютубе лежат.
63 1869797
>>869719
Где протеиношизик? Порадовать его надо.
64 1869807
>>869719
Кто-то eще сомневается в bitter lesson?
16043772499880.png5 Кб, 500x590
65 1869857
>>869722
>>869755
Ну так какой в итоге положняк по протеинам? Сойбои хайпанули, сделяв хуйню, или можно уже вычислять вечную автономную капсулу с печкой буйлерон (зимой жарко)?
66 1869873
>>869857
Соснул как всегда ты, каргокультист с форчка
67 1869892
В треде есть успешные люди, вкатившиеся из другой сферы и без технической вышки? Насколько рабочая схема сначала вкатиться как питонист, а после пары лет опыта плыть в сторону ML? Вообще готов работать за еду и уехать в любые ебеня, лишь бы поскорее "пощупать" это сферу.

ИИ интересуюсь давно, сейчас появилось желание вкатиться, но за спиной неоконченное ВО социологическое в топвузике (где нас 2 года ебали статистикой, теорвером и матрицами, но кого это волнует). Меня же HR-ы пошлют нахуй с таким бекграундом и без опыта работы в ИТ?
68 1869915
>>869892
Ты сам не осилишь скорее. Учись программировать
69 1869964
>>869732
Удваиваю вопрос. Самому стрёмно от того как МО выглядит простым
16000971951330.jpg33 Кб, 577x425
70 1869967
>>869732
тоже по Orange изучаешь?
71 1869981
>>869732
За столько лет и до постсовков наконец-то дошло, лол
Все хоть сколько-нибудь востребованные хуевины может осилить и школьник с базовым знание питона и опвенсв, а в кровавый машоб для пентагона всё равно не вкатиться
https://www.youtube.com/watch?v=4W5M-YaJtIA
https://www.youtube.com/watch?v=cCeUdTXZJHs
72 1869983
>>869981

>до постсовков


Совки чмоне насрали в шаровары?
73 1870015
Начал изучать эту вашу {вставить дисциплину} и чёт создалось у меня ощущение, что это какая-то хуета для быдла. Всё идёт легко и не напряжно. Чувство, что если вкачусь, то буду конкурировать с индусами за копейки т.к. любая макака может в этом зашарить.
74 1870027
>>870015
Уже было
75 1870104
>>870027
*быдло
76 1870122
>>869807
Ценность всех предыдущих исследований в области фолдинга (коих было довольно много) была помножена на 0. Все люди, которые этим занимались, что еще не получили тенюр, пойдут на помоечку - конкурировать с дипмайндом и их триллионами ТПУ они все равно никогда не смогут. Все по биттер лессону. Его нужно высечь на камне.
Машоб продолжает подминать под себя науку. Еще один пример, как замещение людей начинается сверху пирамиды. В первую очередь замещаются самые высокотехнологичные и интеллектуальные работы (мало областей более головоломных чем фолдинг).
77 1870143
>>869807
>>870122
Если ты необразованный школьник, ориентирующийся только на хайповые сенсационные заголовки статей в журналах - безусловно всё так и есть.
78 1870237
Околонаучный ФБ захлестывает волна AlphaFold2/CASP хайпа (https://deepmind.com/blog/article/alphafold-a-solution-to-a-50-year-old-grand-challenge-in-biology). Прежде чем фанаты AI (в смысле ML) спишут мою профессию в синие воротнички, позвольте обратить ваше внимание на несколько моментов:

1. Во-первых, AlphaFold не решает проблему фолдинга. В том смысле, что они предсказывают финальную структуру, но ничего не говорят о том, как она достигается в живой клетке. Практически идентично, в миллиардах живых клеток, ежесекундно. Но именно на нарушении (а правильнее даже сказать управлении) процессом фолдинга в живой клетке основаны эффекты многих мутаций и лекарств.

2. Они тренировались на полном банке PDB и, соответственно, предсказывают такие же усредненные структуры. Для многих белков, например Ca2+ зависимых сенсорных белков, которые кардинально меняют конфигурацию в зависимости от условий, это может иметь очень существенный эффект.

Более того, по-факту, AlphaFold предсказывает только ограничения на положения некоторых аминокислот и фрагментов белка, которые потом собираются в финальную структуру старыми добрыми алгоритмами и подходами родом из 90х, если не раньше. (google Modeller)

3. Текущие метрики приводятся на основании данных по доменам, но не целым белкам. Некоторые белки состоят из заметного числа доменов, чья взаимная пространственная ориентация может иметь существенный эффект на структуру и функцию белка. Особенно в динамике.

4. Точно предсказания даже по Ca атомам все равно весьма примерная. Цитата: These are for single domains-not whole proteins-and there are a few poor predictions. So corner cases remain but core problem appears solved: 88% of predictions are <4Å, 76% <3Å, 46% <2Å.

При этом даже 0.6Å достаточно (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5069389/), чтобы кардинально повлиять на результаты докинга и, соответственно, дизайна лекарств.

Не говоря уже о положениях отдельных боковых радикалов аминокислот. Там нередко одна аминокислота может сломать весь докинг/моделирование реакции. И люди десятилетями бьются чтобы понять, в какой же конфигурации и состоянии эта аминокислота (привет-привет Glu197 в ацетил- и бутирил- холинэстеразах человека. Остаток, из-за которого, в том числе, до сих пор нет эффективных антидотов для органофосфатов. Все же помнят Навального и "Святой источник"?)

5. Автоматизированные высокопроизводительные подходы порождают иллюзию уверенности. Вот сейчас-то мы сможем все! Структурная биология встала с колен, хо-хо! Нет. Достаточно посмотреть на предсказанные структуры (https://zhanglab.ccmb.med.umich.edu/COVID-19/) всех белков SARS-CoV-2 одним из лидеров упомянутого CASP challenge. Их нуклеокапсидный белок (для которого, между прочим, известно аж 60-70% структуры в виде X-ray структур!) не вызывает ничего, кроме истерических слез. Но, я более чем уверен, кто-то на полном серьезе будет делать докинг препаратов в нее и на голубом глазу утверждать, что вот сейчас то они придумали лекарство!

P.S. Но вообще, конечно, товарищи молодцы. Возбудили невероятный интерес к классической теме и, если смотреть их выступления на специализированных эвентах, рассказывают все аккуратно и со всеми оговорками. К сожалению, популяризация снова победила науку :(

И, конечно, ждем детального описания и кода, чтобы поиграться! xD
78 1870237
Околонаучный ФБ захлестывает волна AlphaFold2/CASP хайпа (https://deepmind.com/blog/article/alphafold-a-solution-to-a-50-year-old-grand-challenge-in-biology). Прежде чем фанаты AI (в смысле ML) спишут мою профессию в синие воротнички, позвольте обратить ваше внимание на несколько моментов:

1. Во-первых, AlphaFold не решает проблему фолдинга. В том смысле, что они предсказывают финальную структуру, но ничего не говорят о том, как она достигается в живой клетке. Практически идентично, в миллиардах живых клеток, ежесекундно. Но именно на нарушении (а правильнее даже сказать управлении) процессом фолдинга в живой клетке основаны эффекты многих мутаций и лекарств.

2. Они тренировались на полном банке PDB и, соответственно, предсказывают такие же усредненные структуры. Для многих белков, например Ca2+ зависимых сенсорных белков, которые кардинально меняют конфигурацию в зависимости от условий, это может иметь очень существенный эффект.

Более того, по-факту, AlphaFold предсказывает только ограничения на положения некоторых аминокислот и фрагментов белка, которые потом собираются в финальную структуру старыми добрыми алгоритмами и подходами родом из 90х, если не раньше. (google Modeller)

3. Текущие метрики приводятся на основании данных по доменам, но не целым белкам. Некоторые белки состоят из заметного числа доменов, чья взаимная пространственная ориентация может иметь существенный эффект на структуру и функцию белка. Особенно в динамике.

4. Точно предсказания даже по Ca атомам все равно весьма примерная. Цитата: These are for single domains-not whole proteins-and there are a few poor predictions. So corner cases remain but core problem appears solved: 88% of predictions are <4Å, 76% <3Å, 46% <2Å.

При этом даже 0.6Å достаточно (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5069389/), чтобы кардинально повлиять на результаты докинга и, соответственно, дизайна лекарств.

Не говоря уже о положениях отдельных боковых радикалов аминокислот. Там нередко одна аминокислота может сломать весь докинг/моделирование реакции. И люди десятилетями бьются чтобы понять, в какой же конфигурации и состоянии эта аминокислота (привет-привет Glu197 в ацетил- и бутирил- холинэстеразах человека. Остаток, из-за которого, в том числе, до сих пор нет эффективных антидотов для органофосфатов. Все же помнят Навального и "Святой источник"?)

5. Автоматизированные высокопроизводительные подходы порождают иллюзию уверенности. Вот сейчас-то мы сможем все! Структурная биология встала с колен, хо-хо! Нет. Достаточно посмотреть на предсказанные структуры (https://zhanglab.ccmb.med.umich.edu/COVID-19/) всех белков SARS-CoV-2 одним из лидеров упомянутого CASP challenge. Их нуклеокапсидный белок (для которого, между прочим, известно аж 60-70% структуры в виде X-ray структур!) не вызывает ничего, кроме истерических слез. Но, я более чем уверен, кто-то на полном серьезе будет делать докинг препаратов в нее и на голубом глазу утверждать, что вот сейчас то они придумали лекарство!

P.S. Но вообще, конечно, товарищи молодцы. Возбудили невероятный интерес к классической теме и, если смотреть их выступления на специализированных эвентах, рассказывают все аккуратно и со всеми оговорками. К сожалению, популяризация снова победила науку :(

И, конечно, ждем детального описания и кода, чтобы поиграться! xD
79 1870238
>>870237
неправда!! биттер лессон! первыми заменят учоных и другие высокотехнологичные работы!
image.png448 Кб, 1470x900
80 1870284
81 1870371
Наверное избитая тема но все же: Что взять в качестве темы на диплома?

Предистория такова: пошел в магистратуру, именно на ии потому что там самые адекватные и лояльные преподы на факультете кн в моем универе. Надеялся что действительно будет время всем этим заниматься, но на практике понял что после работы сидеть еще учиться желания не сильно много. Петпроджекты по своему профилю писать и то интереснее (а главное полезнее).

Но все же дойти до победного конца нужно, сдавать через полгода, хочу потихоньку уже начинать.

Опять же, всерьез что-то делать самому ни времени ни особой мотивации нет, хотелось бы взять что-то +- готовое, слегка допилить, налить воды в диплом и сдать. Офк после сессии (если сдам конечно) пойду с вопросом выбора темы к дип руку (ее ж еще и утвердить нужно заранее).

Работаю мидлом-андроидом, поэтому если можно будет прикрутить к мобилке (на tf lite или что там еще модно, боюсь что самое очевидное - ARCorе тупо взять не прокатит) и показать таким образом работу в дейтсвии - будет круто.
82 1870391
>>870371
Определитель расы человека по изображению
83 1870392
>>870391

>Определитель расы человека по изображению


Это легко сделать и без машоба.
84 1870393
>>870391
Ага и ориентации. Реквестирую датасет с отборными пидорасами.
85 1870423
>>870393
Можно определять по тексту. Бери этот тред.
86 1870489
>>870371
Апп-фотоаппарат для россиян. Делает фотографию автоматически, если на картинке грустное лицо.
87 1870507
>>870489
Предсказание интенсивности участия в несанкционированных митингах по лицу.
88 1870574
>>870391
Это уже сделано многократно.
ethnicity estimate
89 1870575
Вопрос про tensorflow.
Вот есть у меня плоский слой A, за ним следует плоский слой B из, допустим, 10 значений.
Слой B = [слой A] x [веса] + [биасы]
Как определить значимость значений в слое A? Я могу получить значения весов и биасов, а дальше-то что? Формулы самому с нуля определять не хочется
90 1870600
>>870237
А вот и усталость металла подвалила
91 1870602
>>870575
Тебе для прунинга что ли? Погони весь датасет и получи усредненые значения активаций. Способ простой и на уровне остальных способов.
Хочешь больше - читай пейпер по synflow.
Хотя скорее ты просто градиент посчитать не можешь. Ну это tf.gradients делает вроде
92 1870606
>>870507
Мм, со вкусом кибергулага!
93 1870613
>>870600

> врёти не хочу ничо читать вон журналисты написали нироночка всех победила неибёт

94 1870617
>>870371

>Что взять в качестве темы на диплома?


Детектинг либирашек в риалтайме.
95 1870618
>>870606
Все как ты любишь, потребитель.
96 1870620
>>870613
Я прочитал https://www.nature.com/articles/d41586-020-03348-4 , а не "спасение рядового манямирка" для нечеткого петуха.
Как обычно. Какой-то успех это вызывает жжение в жопе и резкий гуглинг удобных манямирку постов, который это самое жжение немножко уменьшит. В этом посте будет классическое "вы находитесь здесь.тхт" с обязательным мнением какой-то пидорахи с десятилетним стажем, что не, это все хайп.
Почему пидорахи? Потому что живя в депрессивном окружении охота отрицать любой прогресс и доебываться до чего угодно.
А для отрасли это alexnet. Теперь все вот эти столбики на первой картинке будут заниматься нейронками, и суммарно продвинут подход еще дальше, чем это сделала одна команда.
97 1870621
>>870620
Особенно поржал с

>Достаточно посмотреть на предсказанные структуры (https://zhanglab.ccmb.med.umich.edu/COVID-19/) всех белков SARS-CoV-2 одним из лидеров упомянутого CASP challenge


То есть он не видел даже прикрепленных с посту картинок выше, но уже побежал строчить пост о том, что "азаза глупые журналисты в Nature)))". Как обычно, короче.
Увидете очередного с "усталостью металла" - насмехайтесь над ним.
98 1870622
>>870620
Все так, только серые столбики пойдут искать еду в мусорных ящиках, а не нейронками заниматься. Во-первых у них опыта профильного нет, а во-вторых, чтобы те нейронки тренировать, им таких грантов не дадут. Это миллионы стоит. Это все равно что сказать, что те, кто занимался машинным переводом по фразам (подход нулевых), сейчас вдруг перейдут на ГПТ3. Да нет, не перейдут. Перейдут на помоечку.
99 1870623
>>870620

>Матанопетух высказал свое очень важное мнение


ты это, машобщиг, давай, шевели булками и принеси мне два гамбургера и колу
100 1870624
>>870620

>что живя в депрессивном окружении


Но я не живу в грязном Берлине с арабами
101 1870629
>>870622
Фолдинг - это оптимизационная задача, люди, которые над этим работают, достаточно продвинуты, чтобы переучиться, как уже лет 5 как сделали специалисты по компьютерному зрению. Наука вообще подразумевает умение постоянно использовать что-то свежеоткрытое. Поэтому этим людям дают деньги, а не потому что их phd ниибаца актуален, а их умение писать код под MPI особо выдающееся.
А твоя дрочь на то, что ML якобы очень дорог по сравнению с любой другой наукой, просто никакого отношения к реальности не имеет. ML очень дешев и дешевле других методов, особенно экспериментальных. На реддите была инфа, что экспериментальное изучение одного белка сейчас стоит 100 тысяч долларов. Если вычислительные методы позволять отбрасывать хотя бы 90% априори неудачных вариантов, это удешевит разработку на более значительные суммы, чем стоимость GPU-кластера.
napalm.jpg22 Кб, 640x339
102 1870631
Люблю запах горящей ваты по утрам.
103 1870632
>>870631
Тарасику больше ничего и не нужно, лол
104 1870636
>>868191 (OP)
Скажите, а почему среди МЛ-щиков такой зашкаливающий процент русофобов и антисоветчиков?
hidethepainharold.jpg139 Кб, 1410x793
105 1870637
>>870629
Стоимость эксперементов нерелейтед к тому, что я сказал. Никто не даст микрочелику, занимавшемуся всю жизнь традиционным фолдингом, сжигать миллионы денег на тренировку гига-модели с 1000 слоев трансформеров впервые в жизни. Наймут опытного тф-слесаря вместо него, а еще лучше скачают уже натренированное и посядят макаку кнопку пуск давить.
В целом ясно, что это прогресс для отрасли как таковой. Вот только те серые столбики сейчас имеют вид пикрела. Все это круто, но не для них.
А когда-нибудь (скоро) придут и за самими машобщиками.
106 1870639
Ну чо, фолдинг уже, биохимикопетухи идут со своей биохимией на помоечку.

Ждем теперь квантовых физиков на мороз.
107 1870641
В пределе - точная аппроксимация любой нелинейной модели какого либо явления методом обучения по известным фактам этого явления без необходимости тратить миллионы долларов на кучу лысеющих фриков, пытающихся понять что эта за хуйня. Потому что понимать станет ненужно - это бессмысленная трата времени в то время как конечный результат - нейросеть предсказывающая исход явления на 99.9% входных параметров это как раз то что нужно на практике.

Вот так ученопитухи вкусят биттер лессон и отправятся на мороз. все отправятся на мороз.
108 1870642
>>870639

> со своей биохимией


Так уровень современной биохимии примерно около нулевой
109 1870643
>>870639
Уже были репорты в нейчер, когда нейроночки какие-то там дифуры из квантмеха круто решали, пару лет назад.

Вот бы они взялись за квантовые компьютеры. Яйцеголовые уже 30 лет не могут родить, может нейроночка нам зделоет. А потом эти же нейроночки на этих же КК тренировать можно будет - это ужс что начнется.
110 1870644
>>870637
Лол, у тебя такое клиповое мышление, что ты из двух абзацов запомнил только второй. Перечитай первый. Ученые - не птушники, за свою жизнь переучиваются новым парадигмам постоянно. Но то они и ученые. А работать на стремительно меняющейся области более интересно, чем в стагнирующей, в которой 20 лет не было прогресса.
111 1870645
>>870644

>Но то они и ученые


В говне моченые, ладно там ущербные математики, этих убогих оставим, но биохимики чего добились то? Производство соевой колбаски?
112 1870650
>>870644
Удачки им переучиться с ужа на ежа, чо. Хорошо, что это все не у меня.
113 1870651
Да, кстати чистым математикам тоже приготовиться. Уже вовсю клепают автоматические доказатели теорем на нейронках. В опенаи целый отдел по этой части, а им палец в рот не клади.
114 1870652
>>870645
Вообще похуй. Есть конкретный человек, который понимает в фолдинге - то есть решении сложной оптимизационной задачи с использованием софта, который считается на кластерах, скорее всего он неплохом уровне знает python, C++/MPI, и матан, а скорее всего там уже сработанная команда. И вот по-твоему этот самый человек не способен освоить DL, ведь это колдунство, доступное только зумерам-вкатывальщикам.
115 1870654
>>870650
А что у тебя-то?
116 1870655
>>870654
Прикладной нейрослесарь. Пока не автоматизированный.
117 1870656
>>870652

>есть решении сложной оптимизационной задачи


Мне не нравится такой подход в науке, это значит что они не хуя не понимают
118 1870674
>>870624
Берлин гораздо чище ДС и дс2, я правда не был в бедных районах там.
119 1870675
>>870674

> гораздо чище ДС и дс2


Лол, нет.
изображение.png1,7 Мб, 2812x2361
120 1870686
Вопрос не совсем про машоб. Почему в гугле на запрос "parallel evolution algorithm" "parallel genetic algorithm" вываливается куча статей вроде https://arxiv.org/pdf/1209.5319.pdf но нихуя нет готовых библиотек?
У меня есть задача поиска глобального минимума функции около 10-40 аргументов, одно вычисление функции будет больше минуты точно, много локальных минимумов. Поскольку функция тяжелая логично использовать параллелизацию. Особенно если учесть что в генетическом алгоритме можно независимо вычислять значения функции у конкретных "особей". А кроме того у меня есть доступ на кластер с десятками узлов.
Именно по этому однопроцессорный scipy.optimize.differential_evolution не сгодится.
image.png78 Кб, 993x261
121 1870699
>>870686

>scipy.optimize.differential_evolution


В глаза не ебись
122 1870714
>>870686

>А кроме того у меня есть доступ на кластер с десятками узлов.


Что-то типа https://pypi.org/project/mpipool/
Генеративно-состязательные сети 123 1870716
https://youtu.be/8z13MZiXdD4

Отличное видео про GAN'ы, про состязательную генерацию, генерацию без пар примеров.

Нашему раздевальщику бы генерация без пар помогла
https://2ch.hk/h/res/165538.html (М)
124 1870724
>>870699
Для кластера с узлами только mpi-процессы, а не распараллеливание по потокам.
125 1870725
>>870714
А нафига эта хуета, когда есть mpi4py?
126 1870730
>>870716
Что-то ты совсем контент для мимопроходивших принес. Имхо, вот получше.
https://youtu.be/b9WGTTPhXFk
127 1870735
>>870725
Понятия не имею, я не разбираюсь в MPI, в особенности для питона.
Суть в том, что ты берешь функцию типа YobaPool.map типа и скармливаешь ее в качестве параметра workers как указано в документации на скриншоте.
Можешь использовать https://mpi4py.readthedocs.io/en/stable/mpi4py.futures.html?highlight=pool#mpi4py.futures.MPIPoolExecutor.map , можешь mpipool.Pool.map , чем они отличаются не знаю.
128 1870740
>>870735
Вот это всё примерно понятно. Но вопрос-то был в том, а какого собственно хуя нет в сети открытой библиотеки с параллельным генетическим алгоритмом.

Не я всё прикрасно понимаю, нет значит нет. Либо пишу свое, либо использую другие инструменты, либо переформулирую задачу.
129 1870747
>>870740

> Вот это всё примерно понятно. Но вопрос-то был в том, а какого собственно хуя нет в сети открытой библиотеки с параллельным генетическим алгоритмом.


Да в общем-то все генетические либы скидывают всё на разработчика. Хочешь паралельности - делаешь паралелльность. Алсо, GA достаточно простая вещь. Можешь и без фреймворков собрать.
130 1870748
>>870740
Не похоже, что тебе что-то понятно, раз ты вместо того, чтобы пойти имплементировать это решение в 3 строчки, строчишь посты о том, что тебе нужна специальная библиотека, где тебе все разжуют и в рот положат.
131 1870753
>>870740

> вопрос-то был в том, а какого собственно хуя нет в сети открытой библиотеки с параллельным генетическим алгоритмом.


Есть. Но не для пистонохолопов https://cran.r-project.org/web/packages/GA/vignettes/GA.html#parallel-computing на пистоне вообще много чего нет из нормальных алгоритмов, зато есть вся соевая поебень. Я вот искал что-нибудь для grammatical evolution для пистона, нашел только какую-то хуету.
132 1870918
>>870686
Всем спасибо. Сам нашел PGAPack и pgapy, хз насколько она работоспособна на многопроцессорных машинах.
image.png56 Кб, 893x734
133 1870967
Аноны, как вы думаете, учебные курсы по теории обработки сигналов пойдут на пользу аналитику данных? Посматриваю вот на курс пикрелейтед, например. У меня нетехническое образование, поэтому об этом всем представление достаточно слабое.

Со статистикой, программированием и базовым ML и так дружу, работа уже есть, просто пытаюсь развиваться дальше.
134 1870984
>>870967
Обычный датаслесарь ничего из этого не использует. ИМХО это все устарело и имеет очень ограниченное применение. Если есть возможность, все будут переводить на нейроночки.
135 1871039
>>870641

>ученопитухи вкусят биттер лессон и отправятся на мороз. все отправятся на мороз


Ох уж эти мечты птушника. Ты потому и занимаешься макакингом что не понимаешь: "предсказывание исхода явления" понимание не заменяет даже если оно на 99.(9)1% точно, просто потому что наука в первую очередь про второе а не про первое. Как примерно любую олимпиадную задачку с огромными входными данными можно решить брутфорсом если подождать достаточное количество времени, вот только никто это "решением задачи" не называет кроме тупарей только на брутфорс и способных. Забавно как машоб становится последним прибежищем low iq брейнлетов, лол.

>Да, кстати чистым математикам тоже приготовиться.


Ну, ещё одна иллюстрация непонимания в копилку. "Автоматические доказатели" это маргинальная тема, на которую настоящим математикам насрать по большему счёту.
136 1871049
>>870639

> фолдинг уже


Читайте что-то помимо новостных сводок >>870237
здесь.jpg26 Кб, 640x339
137 1871099
138 1871103
>>871039

> "Автоматические доказатели" это маргинальная тема, на которую настоящим математикам насрать по большему счёту.


В данном конкретном случае дело больше в том, что те, кто называет себя "настоящими математиками" в массе своей просто не могут в разные теории типов, на которых такие пруверы основаны, так как это не только выходит за пределы их компетенции, но и требует принципиально нового мышления. Отдельные из них, самые одаренные, поступают ещё проще - заявляют, что математика за пределами их мирка это вообще не математика.
139 1871109
Сейчас доказательство это самая суть любой математической статьи. Кто ловчее доказывает, тот и больше математик. Когда все доказательства будут автоматическими, писать будет не о чем. Какое-то время по инерции будут писать статьи "я тут потыкал и компьютер сказал ОК", но разумеется это никому не интересно. И математика просто умрет.
140 1871110
>>870984
Насколько я сужу с позиции своего незнания теории сигналов, я бы мог использовать эти знания на этапе предообработки данных для целей моделирования - а это мне интересно. Но это предположение.
141 1871114
>>871110

>использовать эти знания


биттер лессон используй
142 1871117
>>870967
Если хочешь естественными одномерными сигналами заниматься, то обязательно. Если картинками - желательно. Если вещами типа NLP - не нужно. Короче, там где CNN, там бывает нужна обработка сигналов.
В детали алгоритмов можно не вчитываться, просто нужно знать, например, что a[::4] - херовый способ сконвертировать 44100 кГц звук в 11025, а librosa.resample - нормальный. То же касается и картинок, некоторые не знают, что ужимать котика в 224х224 пикселей надо с помощью Image.resize(), а не тупо отбрасывая каждый энный пиксель.
Или другой пример, для обучения сетки, которая восстанавливает некоторые данные, есть сетка, которая их ухудшает из чистых данных. И некоторые люди делают так, чтобы они работали в одном разрешении. И получают более хуевый результат, чем если бы деградатор (которого в продакшене не будет и он может быть очень тяжелым) работал бы в повышенном разрешении с последующим ресайзом к нужному.

В целом в контексте нейронок
1. Spectral analysis - для понимания того, как устроены речевые фичи, хотя лично я за raw сигналы
2. Filtering/Convolution - для аугментации
3. Resampling - довольно важная фундаментальная вещь, на незнании которой я периодически ловлю даже авторов пейперов, не говоря уже о китайцах с гитхаба.

Все остальное либо готовит к этим темам, либо не нужно (как вейлеты), о чем 3 последних пункта не знаю.
143 1871118
>>871109

>И математика просто умрет.


Туда этому говну и дорога
144 1871125
>>871103
Нечёткий, мы уже давным давно установили что настоящей математики ты не знаешь, поэтому в твоём мирке математика=быдлокодинг, не нужно повторяться.
145 1871129
>>871099
Только пока что-то горят нейродауны закрывая уши и повторяя мантры на всего лишь предложение "погодите минутку, давайте разберёмся". >>870237 >>870620
146 1871133
>>871129
Главное правило треда: нечеткий петух всегда сосет
147 1871137
>>871109
Жаль только, что автоматически ничего нового ещё не вывели, только уже известные результаты передоказали. Когда там Logic Theorist появился, в 56?
НУ НИЧЕГО, СЕЙЧАС ВОТ-ВОТ И ВСЕХ МАТЕМАТИКОВ ЗАМЕНИМ.
148 1871147
>>871137

>ВСЕХ МАТЕМАТИКОВ ЗАМЕНИМ


В мусорных корзинах будут рыться не математики, а роботы
149 1871230
>>871147
Кто-нибудь запилит сервис для поиска, рейтинга, и обсуждения мусорных баков. Какой там ассортимент еды, когда выбрасывают.
150 1871236
>>871147

>В мусорных корзинах будут рыться не математики, а роботы


Запомните этот твит, через пару-тройку лет затухающего хайпа так и будет.
152 1871246
если scikit learn классифицирует разнообразный датасет нормально, а когда только один класс данных то всё хуёво, где можно было обосраться?
image.png51 Кб, 740x348
153 1871251
154 1871311
>>870730
Посмотрел твое видео. Намного менее интересно и слишком душно. Из первого видео душили только петросянские шутки, тут душит подача
image.png234 Кб, 1622x1410
155 1871339
156 1871462
>>871117
Спасибо за детальное пояснение
157 1871501
>>871339
дипманя порвалась
158 1871513
>>871311
Ну только подача это абстрактная субъективная хуйня, а петросянские шутки и уровень "сейчас я вам расскажу что такое нейронки" видят все.
159 1871630
Анон, подскажи, в сторону каких методов копать. Теорвер забыл напрочь, даже не знаю, с какой стороны подойти к задаче.
В общем, имеется множество X и множество Y, элементами которого являются мультиподмножествами X. Также имеется полученная на опытных данных Y' таблица вида (Xi, Xj, Qi,j), где Qi,j = | ∀y ∈ Y' { y, где { Xi, Xj } ⊆ y } | количество наборов, в которых встречается данная пара
Задачей стоит определить степень родства элемента Xa с набором { X0, ..., Xn }.
Какой-нибудь байесовский классификатор тут нужен или что-то подобное, не?
photo2018-11-2921-00-16.jpg76 Кб, 780x780
160 1871652
Кто вообще этот Bitter Lesson форсит?
Маняпрофессор на маняпрофессорской должности может рассуждать о том куда идет индустрия, а анон на своей должности должен делать что сейчас выгодно
161 1871654
>>871630
а можешь без ебучих формул написать вопрос?
162 1871683
>>871652
Тупни, которые используют спойлеры в текстах вместо скобок, идут нахуй
163 1871700
>>871513

> подача это абстрактная субъективная хуйня


https://youtu.be/Smfj9reCwBo?t=29
164 1871733
>>871654
Мозги купи.
165 1871737
Учебник по математике какой посоветуете?
166 1871750
>>871733
Ты осознаешь что метрики степеней сходства без твоего матана всем известны, но если бы ты их формулировал попроще, сам бы все нагуглил давно?
167 1871907
>>871652
Мы и делаем, кушоть-то надо что-то. Но и порассуждать тоже не дураки, по рассуждизмам я Саттону еще фору дам.
То, что он сказал это нетривиальное наблюдение, которое предсказывает куда все идет. Оно совершенно верно, и оно сильно бьет по эго некоторых интеллектуалов, которые считают свой разум пределом совершенства. Это идеальная комбинация для форса. Биттер лессон будут заталкивать в глотки анонам, пока у всех не наступит принятие.
168 1871913
>>871907

> нетривиальное наблюдение


Совершенно обычное очередное субъективное суждение про волшебную палочку, повторюсь.
169 1871921
>>871907

>Это идеальная комбинация для форса


Повзрослей уже, комбинации для форса он ищет
170 1872027
В чем суть этого вашего bitter lessona? Прочитал - нихуя не понял. Какой нахуй экспоненциальный рост вычислительных мощностей? Даже если за последние 70 лет это было так, то где пруфы что они продолжат расти экспоненциально в следующие 70 лет?
171 1872032
>>872027
Торг пошел.
172 1872043
>>872027

>Какой нахуй экспоненциальный рост вычислительных мощностей?


Саттон просто отрабатывает интересы бигтека, им деградация знания за счёт форса дорогостоящих якобы универсальных методов выгодна как средство монополизации, вот и несёт хуйню про пользу забивания гвоздей микроскопами.
173 1872088
>>872043
Потрешь шизика - получишь конспиролога
174 1872099
>>872027
Я это понимаю, что не нужно читать статьи от бездельников из Стэнфорда и лучше дождаться статьи от ФААНГа. Потому что Гугл делает Берт и Эффишнтнет, а профессора из Гугла ищут в них гендерный байас и добавляют сверху цепи Маркова, и каждый раз одно и то же .
175 1872112
>>872088
Эт точно, дипшизик выше совсем с ума сошёл со своими заговорами учёных противостоящих НАСТОЯЩЕМУ ПРОГРЕССУ.
176 1872218
https://twitter.com/timnitGebru/status/1334352694664957952?s=19 не все ещё потеряно в этом мире
177 1872287
Сегодня сам Trevor Hastie дает онлайн лекцию
178 1872329
>>872218
Кто это? О чем речь?
179 1872378
>>871654
Без ебучих формул описание было бы менее однозначным, более ёмким и, пожалуй, не обошлось бы без погружения в предметную область.
Какой именно момент тебе непонятен?
И вообще, как можно сидеть в программаче и не знать хотя бы основ теории множеств?
181 1872388
>>872329
Какое-то говно, а не ссылку я скинул. Если коротко, это какое-то сжв от Racial/Homophonic Bias in AI, которое затравило ЛеКуна в твиттере и устроило ему немного cancel culture.
182 1872392
>>871630
Ну если тебе нужна какая-нибудь степень родства возьми произведение Q_{ai} / |Y| по всем (X_a, X_i, Q_{ai})
183 1872400
>>872378
Шутить изволите? Готов поставить остаток холодного кофе в моей чашке, что людей, хотя бы слышавших о теории множеств, здесь не наберется и трети. В тредах вкатышей и языковых сидят буквально дети и пускающие слюни идиоты.
184 1872401
>>872218
Нашла коса на камень. Имхо это ошибка Дина, ему еще аукнется. Если она поднимет цунами говна (а она мастер говнища - за это и была нанята изначально), то оно сметет и Дина, и весь его Брейн.
185 1872408
>>872401
Никого эти всесильные и всеужасные фемки и сжв не сметут если не дадут отмашку, а отмашку не дадут, ибо трампа уже обоссали, теперь вся эта шелупонь уже не нужна.
186 1872427
>>872408
Это уж как повезет. Сделает хештег #бойкот_гаглу, если народу зайдет тема про гигакорпорацию, угнетающую женщин и детей (а это хороший, сочный мем), то их начальники могут заставить Гугл Брейн в полном составе встать на колени, чтобы рекламные доходы не падали. Полицейские встали, и эти встанут, никуда не денутся - жить-то все хотят.
187 1872435
>>872392
Не. Такая метрика будет обратно пропорциональна длине "набора", что неправильно.

Хм. Пожалуй, точнее было бы сказать, что нужно определить не степень родства, а вероятность существования такого y, который бы включал в себя и данный "набор" (назовем его S ⊂ X), и X_a. Короче, P(∃y ∈ Y: S ⋃ { X_a } ⊂ y).
Теорвера я не помню, но интуиция мне подсказывает, что ключом к решению задачи может быть теорема Байеса. На википедии нашел байесовский классификатор, но похоже, что он годится только для тех случаев, когда классы явно определены, а это не мой случай.
188 1872437
>>872427

>если народу зайдет тема


Ты со своим школьным правачизмом так и не можешь понять, что нет никаких тем которые куда-то там "заходят" каким-то "людям", а есть просто бабки, которые и определяют повестку. Без желания людей с бабками вопли твиттерских додиков не имеют никакой силы; ну и весь трагизм последних в том что после того как трампа подсрачником выгнали из белого дома они вместе с блмщиками больше никому не нужны.
189 1872440
>>872400
Ты преувеличиваешь. Думаю, не меньше половины местных учились или учатся на связанном с ИТ направлении, т.е. представление должны иметь.
190 1872443
>>872437

>они вместе с блмщиками больше никому не нужны.


Ну-ну. Беги за изолентой, скреплять треснувший манямирок:
https://www.nasdaq.com/press-release/nasdaq-to-advance-diversity-through-new-proposed-listing-requirements-2020-12-01
Скоро без 1+ черного (под расовой дайверсити понимается исключительно черные) и 1+ алфавитного в совете директоров не сможешь выйти на биржу. А может, и уже вышедших повыкидывают. А на этой бирже, ну считай вся мировая экономика там происходит.
191 1872472
>>872443
Обычный булшит для инвесторов, а тем временем гебру-то реально того.
192 1872475
>>872440
Напомню, что он (или это ты?) не смог нагуглить как в машобе считают подобие.
Из-за ебучих формул.
193 1872481
>>872437

> есть просто бабки, которые и определяют повестку. Без желания людей с бабками вопли твиттерских додиков не имеют никакой силы;


И как ты это видишь? Как бабло может повлиять на ситуацию, когда реально мотивированная фемка использует реально работающие в обществе механизмы для достижения поставленной цели? В каком месте тут бабки могут что-то изменить?
194 1872482
>>872475
Это я. Если тебе есть что посоветовать, то излагай. Я здесь затем и спросил.

>Из-за ебучих формул.


А ты хотел неформализованную задачу, чтобы самому пришлось разобраться в предметной области и покорпеть над формализацией?
195 1872483
>>872482
Может быть ты уже какую-то информацию выкинул? Вот это "количество пар" - весьма подозрительно. Не схлопнул ли ты что-то важное в этот момент
196 1872489
>>872483

>Вот это "количество пар" - весьма подозрительно.


Есть такое. Пока не решено как именно их обрабатывать, накапливаются в таком виде.

>Не схлопнул ли ты что-то важное в этот момент


Думаю, ничего значительного не должно было утратиться.
197 1872506
>>872435

>Не. Такая метрика будет обратно пропорциональна длине "набора", что неправильно.


Все хуже. Чем больше у тебя набор, тем меньше вероятность, что он существует.
Допустим у тебя все наборы {1,2,3} имеют вероятность 1. Вероятность {1,4}=0.5, {2,4}=0.5, {3,4}=0.5. Какова вероятность {1,2,3,4}? В 0.5^3 раз меньше, потому что тебе нужно, чтобы твои пары одновременно принадлежали одному набору, а наоборов у тебя много.
Если это не так, ты что-то не учел, например, корреляцию между парами, то есть что-то типа "если {2,3} встречается, значит, скорее всего, {2,4} тоже будет встречаться".

Чтобы избавиться от этой множественной криптографии, назовем Y матрицей, в которой строки - это сами элементы, а столбцы - описывают с помощью 1/0 есть ли элемент в X или его там нет.

Вероятность того,что пара встречается в матрице вообще:
P(пара)=q_пара/sum(Q)
Вероятность того,что пара встречается в какой-то данной строке:
P(пара ⊂ строка)=P(пара)/N_строк (1)
Нужно найти, что тапл встречается в строке. Для этого попарно перемножаем вероятности (самое отстойное предположение - что корреляций межу парами нет):
P(тапл123 ⊂ строка)=P(пара12 ⊂ строка) x P(пара23 ⊂ строка) x P(пара13 ⊂ строка)
Подставим (1) и домножим на N, чтобы избавиться от "⊂ строка" везде.
P(тапл)=N x P(пара12) x P(пара23) x P(пара13)/ (N^(число_пар_в_тапле-1))
Пусть L=длина тапла, тогда число_пар_в_тапле это L(L-1)/2.
P(тапл)=P(пара12) x P(пара23) x P(пара13)/ (N^(L x (L-1)/2-1))
Избавляемся от констант, заменив показательную функцию на экспоненту:
Yoba(тапл)=P(пара12) x P(пара23) x P(пара13) x exp(-L^2)

Как-то так.
198 1872651
Анон, поясни, пожалуйста, про сохранение и загрузку модели, которая будет дообучаться.
Например, я сохраняю GAN:
torch.save(G.state_dict(), PATH)
torch.save(D.state_dict(), PATH)

Как мне дальше подгрузить модель с учётом вот этого:
https://pytorch.org/tutorials/beginner/saving_loading_models.html
Достаточно ли будет просто:
G.load_state_dict(torch.load(PATH))
D.load_state_dict(torch.load(PATH))
Или надо предварительно объявлять:
G = TheModelClass(args, kwargs)
D = TheModelClass(
args, kwargs) ?

А что насчёт использования CUDA?
Загруженные модели всё равно надо туда класть через to(device)
199 1872698
>>872506

>P(пара ⊂ строка)=P(пара)/N_строк (1)


Тут натупил, это N уже учтено в P(пара), то есть P(пара) это и есть P(пара ⊂ строка). Соответственно нужно просто перемножить вероятности всех пар и не ебать мозг.
200 1872706
>>872482
если бы ты попроще формулировал запросы к гуглу, то нагуглил бы косинусное расстояние, например.

думаешь ты такой уникальный?
201 1872887
Путин пояснил, что в будущем машины будут контролировать человека «в значительной степени», но в конечном итоге контроль над машинами сохранит сам человек.
1 человек
Искусственный интеллект — это не #хайп, заявил #Путин 202 1872983
203 1872994
>>872706
И причём здесь косинусное растояние, где ты здесь эмбеддинг подходящий видишь? Какие же машобщики тупые, просто пиздец, синдром даннинга-крюгера во всей красе.
204 1873032
>>872994
Ну перечисли признаки в строку - вот тебе и вектор.
205 1873062
>>873032

> Ну перечисли признаки в строку - вот тебе и вектор


> косинусное растояние


Уровень машоба дипшкольник/10
206 1873072
Че, когда там гугловцы/опенэйай уже GPR (Generative Pre-trained Reformer) пилить начнут? Говорят Reformer и контекстное большое имеет, и модель меньше весить будет.
207 1873074
>>873072
По мне performer выглядит симпатичнее всего
208 1873200
>>873072
Они скорее всего написали кучу кастомного мега-оптимизированного кода для ГПТ, и на другую модель переходить дорого.
209 1873208
>>873074
Почитал пейпер от гугла. Выглядит многообещающе (линейное время!).
210 1873217
>>873200
Вообще, да. Поставьте себя на место разрабов. Потратили миллиарды, а в итоге их проект уже устарел. "Вась, всё хуйня, давай по-новой."

Ясное дело выгодней существующий проект допилить, чем заново миллиарды тратить. Однако, думаю на обучение performer/refomer уйдет меньше денег, учитывая, что датасет есть.
211 1873228
>>873208
Реформер тоже линейный. Как и линформер. Как и бигберд. Последний год вообще прошел под флагом O(n)-трансформеров.
Там главное не это, а то, что
1. В отличие от реформера, статья утверждает о нулевом перформанс дропе по сравнению с оригинальным трансформером и приводит графики, их сравнивающие
2. Модели совместимы, то есть уже натренированную модель можно сконвертировать

В целом я думаю, что они хотят/хотели собрать побольше всякого рода фишечек и трюков, прежде чем опять сжечь 10 миллионов баксов на большой модели. Перформер, конечно, хорош, но похоже что он недоисследован. В частности, почему аппроксимируется именно softmax.
212 1873232
>>873228

> Реформер тоже линейный. Как и линформер. Как и бигберд.


Да и не спорю.
213 1873249
>>873228
Именно в ГПТ от линейности по контектсу, возможно, не так и много проку будет. Контекст у них не очень большой (2048 токенов в ГПТ3).
С фиксированным контекстом можно все так заоптимизировать, что даже формально квадратичную сложность будет трудно побить. Из-за дополнительной сложности асимптотически более быстрый алгоритм может проиграть.

Конечно, с более эффективным алгоритмом можно было бы расширять контекст. Но тексты там - веб странички, которые короткие обычно. То есть выигрыш може быть минимальным, потому что длинных тренировочных данных мало.
215 1873252
>>873249
Ну, думаю будет прок при использовании. Всё таки, если GPT будет держать инфу на протяжении всего использовании - это серьезно.
image.png124 Кб, 1008x246
216 1873256
>>873249
Константа маленькая. Черная линия на графике - это теоретический предел. Сплошная - перформер, пунктир - трансформер. Видно, что он начинает обгонять уже с 512 токенов, позволяя утоптать в V100 не 2048 токенов, а 32768.
217 1873258
https://arxiv.org/pdf/2011.04006
Хотя тут не все так радужно
218 1873287
>>873256
Он начинает обгонять какую реализацию? Я предполагаю, что опенаи сделали какие-то особые трюки, чтобы тренировать обычный трансформер. Почти наверняка он у них работает гораздо быстрее стандартного питорчевского кода.
dc64zpc-414ed0d1-d55a-4339-802d-9cdd45b6216b.jpg705 Кб, 1280x960
219 1873319
Спайковые сети лучше чем персептронные.
Чендж май майнд.
220 1873320
>>873319
Любая хуйня лучше персептрона, че сказать то хотел?
221 1873321
ответил аниме-дебилу, во дурак
222 1873329
>>873319
Результаты хотя бы на imagenet какие?
223 1873338
>>868191 (OP)
Эй, пошли в мусорных баках копаться, там свежачок завезли
224 1873343
>>873287
За счет чего? Там все оптимизации - это как распихать это говно по видюхам и серверам, и как между ними обмениваться данными, весами и градиентами. Но само перемножение матриц остается перемножением.

>>873319
В "персептронных" (почему так?) сигналы у тебя кодируются векторами, в спайковых - частотами в некотором одномерном сигнале в времени.
На лицо вычислительная избыточность - грубо говоря, вместо операции типа "если на входе 6, выдай на выход 4" у тебя получается "если на входе спайки с частотой 6, выдай на выход спайки с частотой 4". Вместо простой арифметики целое физическое моделирование.
Поэтому если нет подходящего какого-то полуаналогового железа, которое будет бесплатно считать соответствующие спайковым нейронам диффуры, что в них хорошего. Поэтому я особого смысла по сравнению с обработкой векторов не вижу.

Главная фишка биологических сетей в том, что у них нет глобального бэкпропа и каждый "вычислительный модуль" работает параллельно, по каким-то волшебным сигналам из внешней среды адаптируя свои веса. Вот это эффективно делать не умеют, а мозг, судя по всему, умеет.
225 1873346
>>873343

> а мозг, судя по всему, умеет


Судя по всему, матанопетухи ничего не понимают.
226 1873706
>>870651
Давайте вы для начала решите задачку попроще, типа предсказания следующего простого числа например своими нейронками, машинлёрнеры, а там уже и до статей как-нибудь доберётесь.
227 1873728
Пожалуй надо разбавить поток двачеризма и какого-то мутного научпопа научпопом годным
https://yakovlev.me/para-slov-za-alphafold2/
228 1873755
Ребзя, подскажите, хочу запилить расширение для браузера для блока эро-катинок.
Есть ли такая уже натренеованная нейросеть? (я ньфаг в этой теме)
В каком формате вообще имеют ход данные о натренированности? Это тупа записи в БД?
229 1873781
Кто-нибудь работал с catboost?
Кто-то может пояснить смысл cat_features? Это названия признаков?
По документации что-то не догнал.
https://catboost.ai/docs/concepts/python-reference_catboostclassifier_fit.html
230 1873791
>>873781
Названия признаков или номера столбцов, да.
231 1873799
>>873781
>>873791
Именно категорных, если ты про это спрашиваешь
232 1873801
>>873791
>>873799
Спасибо.
Названия всех признаков, что есть в обучающей выборке? Или можно ограниченную часть передавать?
233 1873810
234 1873826
Train rmse: 9.824433247328741
Validation rmse: 4.480288278511864
Пиздец, нахуй так жить, посоны?
235 1873841
>>873826
Регуляризуй епт
236 1873911
>>873826
Так нормально жи. Разве нет?
здесь.jpg26 Кб, 640x339
237 1873985
Untitled-design-1-3.jpg29 Кб, 658x470
238 1873990
>>873985

> вы находитесь здесь

239 1874268
>>873062
Почитай биттер лессон лучше.
Ты проверил? Не работает?
240 1874459
Сколько платят джунам-студентам без опыта в провинции? MLE/DS.
image.png25 Кб, 608x403
241 1874586
Взял учебный датасет, с распределением пикрил. Какие бы анальные бустинги не использовал на валидации выше 0.84 не прыгнуть. Предсказывая только 0 класс выдает скор 0.72. Не знаю будет ли правильно апсемплить два меньших класса до певого, ясно что даунсемплить тоже не варик. Пока только увеличил веса для двух классов в 4 и 35 раз, особо не помогло. Что посоветуете? Мб взять ансамбль двух моделей, типо одна предсказывает первый ли это класс, а вторая выбирает между двумя другими?
242 1874588
>>874459
да нисколько . нахуй ты им нужен, если проще программиста переучить?
он хотя бы sql знает.
243 1874594
>>874459

>в провинции


>MLE/DS


Хорошая шутка
244 1874601
>>874594
Сам удивлён
245 1874611
>>874586
На трейне что выдает? 99,9999999?
246 1874614
>>874611
акураси 0.84-0.89
247 1874624
>>874601
Удивлен чему? Тому что есть вакансии и тут я окончательно охуел или что решил вкотиться именно в эту область? Если второе - то лучше перекатывайся куда-то ещё, хайп мышиного облучения уже прошел, лучше идти в более традиционный кодинг
248 1874635
Есть у кого нибудь мнение про курсы DLS? Насколько подходит для вкатывальщика?
249 1874641
>>874635
Для вкатывальщика лучше всего быть старшекурсником топового вуза
250 1874660
>>874614
Ну то есть всегда выдает самый большой класс и считает это наилучшей стратегией. Попробуй обучать медленнее и модель посложнее, чтобы добиться хотя бы оверфита.
251 1874663
>>874459

>Сколько платят джунам-студентам без опыта в провинции?


20к.
252 1874666
>>874660
Ну я пока в гридсерч кучу параметров запихнул, пусть ищет. Пока сделал апсемплинг до 140 примеров в каждом классе, скураси на трейне до 93 поднялась, на вале 84. У меня кстати в датасете текстовых колонок в разы больше чем float. Сделал я one-hot и вот думаю, стоит ли нормировать числовые до [-1;1]. До этого пробовал, значительного прироста не увидел. Мб есть какие то лучшие практики что делать в случае разных типов колонок?
253 1874776
>>874624

>хайп мышиного облучения уже прошел


всмысли, прошел?
а как же Путин?
16045141277960.jpg53 Кб, 500x728
254 1874788
>>874776

> а как же Путин?


А что Путин? Дедушка старый, ему главное - покакать. На бумажке что-то там написали, он зачитал. Какой в Блинолопатии машобчик, хоспаде. Своего вообще ничего нет, Вапник сьебал давно в цивилизованный мир, Червоненкис не сьебал и замёрз насмерть на улице, как собака. Максимум, у китайцев что-то купят для электронного ГУЛАГа, и твои личные данные зекам сольют, у грефа давно, а главное, официально совместные проекты с ФСИН.
255 1874793
>>874788
пейпер скачать и реализовать anomaly detection чтобы налоги стрясти с зажравшихся машобщиков по любой технологии уж они осилят.
256 1874794
>>874788
https://www.youtube.com/watch?v=i1PkfRbGx6s
Вот тебе лекция "машинлернинг для кабанчиков из РАНХигс" будущих чиновников и налоговиков.
Рассказывает натуральный жирненький кабанчик.
257 1874798
>>874793
Может быть, когда-нибудь в следующей жизни. Пока что не осилили. Со всеми своими Яндексами, тысячами синьоров пиздаболов 3000кккк/сек типа того зумера, что здесь форсят, любым баблом, админресурсом и неподсудностью за нарушения любых прав человека типа свободной торговли личными данными итд.
258 1874802
>>874788
Как же у хiхла горит.

>Вапник, Червоненкис


Устаревшее говно. Зато вот Шмидхубера привезли.
259 1874822
>>874798

>изучал в /pr/ линейную регрессию


>пока что не осилили


>вроде бы все идет хорошо

260 1874954
что нужно знать помимо машоба, чтобы вкатиться джуном в машоб?
261 1874964
>>874954

>что нужно знать помимо машоба, чтобы вкатиться джуном в машоб?


Программирование на уровне мидла.
262 1874976
>>874964
Что ты имеешь в виду под "программированием"? Какой стек?
263 1874983
>>874976

>Что ты имеешь в виду под "программированием"?


Нормальное владение одним-двумя языками, алгоритмы, ООП, паттерны проектирования, гит.

>Какой стек?


Любой.
264 1874984
>>868191 (OP)

>Что ты имеешь в виду под "программированием"? Какой стек?


Чет лолирую с вкатунов в этом трхеде
265 1874996
>>874976
Кодомакака бушует, забей. На питончике чего-нибудь маленько говнякать умеешь и нормас.
266 1875006
>>874954

>знать


Это >>874641
267 1875009
>>875006
Но ведь одного только этого недостаточно. Я спрашивал про конкретные скиллы.
268 1875014
>>875009

>Я спрашивал про конкретные скиллы.


Если ты не старшекурсник топового вуза - то не вкатишься и соответственно скиллы тебе нахуй не нужны
269 1875021
>>875014
Так я старшекурсник топового вуза. Какие скиллы-то нужны?
15982164124121.png115 Кб, 482x400
270 1875022
>>874996

>Кодомакака бушует, забей

271 1875025
>>875021

>Так я старшекурсник топового вуза


Иди в армию
272 1875162
Почему ещё никто не обучил эту штуку https://www.deepstack.ai/ и не начал собирать деньги с онлайн покерков?
image.png510 Кб, 680x494
274 1875180
064.gif170 Кб, 326x281
275 1875184
276 1875186
>>875162
Как там в 2005?
277 1875274
>>875186
И тут ты кидаешь что-то из 2005 года, что обыгрывало профессионалов в безлимитный техасский холдем.
Спойлер: такого нет, ты обосрался.
278 1875310
>>875274

>что-то из 2005 года


Poker Academy: Texas Hold'em, довольно хорошо играет, но там без обоссаного смузихлебного нейроговна.
279 1875319
>>875310

>довольно хорошо играет


Мне тебя жаль
280 1875326
>>875274

>думать, что в онлайн покерах сидят профессионалы

281 1875329
>>875319
Скажы, что ты его на изичах выигрываешь?
282 1875330
>>875326
Я как то в тройку лидеров вышел на каком то там чемпионате, но покер это игра для деградов, унылая и однообразная.
283 1875354
>>875274
А и не нужно никаких диких алгоритмов чтобы обыгрывать онлайн обрыганов, там самые простые из прошлого века и так прибыль дают. Насколько я знаю главная хитрость ботоводства в покере не в алгоритмах, а техническая: как делать чтоб не палили, антифрод покерских контор жутко сложный и проприетарный чуть более чем полностью.
284 1875361
>>875354

>диких алгоритмов


Там в каком то пендоинституте целое подразделение ИИ было, которое исследовало ботов и писало паперы. Потом они нашли не плохой алгоритм, дропнули институт и основали какой то там онлайн покеррум. Лол, поэтому пеперы для пидоров, в них сливают всю воду матанолохам.
285 1875362
>>875354
Вангую это потому что они сами там ботов держат и конкуренты им ни к чему.
286 1875363
>>875361

>думать, что исследования ИИ покера предназначены для создания онлайн ботов

287 1875369
>>875363

>думать, что дяди будут палить работующую годноту анонам в интернетах

288 1875384
Я практически не понимаю ничего про нормы, метрики, энтропии. Этого нет в обычных учебниках матстата. Какой это вообще предмет? Подскажите, пожалуйста, чего почитать.
289 1875387
Анон, помоги нюфажине разобраться с графиками, пожалуйста.
Что можно сказать про дискриминатор с генератором?
Обучились? Или всё плохо?
так и не понял, за что этот ползунок справа от графика отвечает
290 1875389
>>875384

>нормы, метрики


линал

>энтропии


тервер
291 1875418
>>875354
Соглашаюсь и не соглашаюсь с этим аноном:
Покер сильно зависит от удачи. Чтобы застраховаться от неудачного доезда сопернику выигрышной карты (что случается довольно часто даже при идеальной стратегии), принято брать с собой за стол только маленькую часть общего банкрола (по классике 1/50). С ботоводской точки зрения это значит что ты можешь орудовать только 2% тех денег, который оставляешь в заложниках похер руму. Если же тебя обвинят в ботоводстве или читерстве тебе вообще нихера могут не вернуть, поэтому цена ошибки довольно высока. При этом люди, которые действительно могут обучить нейросеть играть в покер и интегрировать это в более-менее беспалевное ПО скорее всего могут на изи пойти на галеру за жопочасы и получать пару К без риска (и особо не напрягаясь если честно).
292 1875547
>>875310
Как-то так выходит, что без обоссаного смузихлебного нейроговна достижим только уровень "довольно хорошо" и "а ты сам лучше сможешь?".
293 1875577
>>875547

>Как-то так выходит


Все просто, все остальное не хайпово, да и тратить врямя на покер удел смузихлебов
294 1875578
>>875577

>да и тратить время на компьютерное зрение, обработку естественных языков, обучение с подкреплением, рекомендательные системы, фолдинг белков - удел смузихлебов

295 1875603
>>875389
Спасибо
296 1875605
>>875578

>как будто в нлп и копьютервижен что то работает


Ох уж эти маняфантазеры со смузи
16073924767301.jpg59 Кб, 800x450
297 1875610
А вы говорите, машобчик говно без задач. https://www.bbc.com/russian/news-55220730

> Иранский физик-ядерщик Мохсен Фахризаде был убит из пулемета с искусственным интеллектом и спутниковым наведением, заявил заместитель главнокомандующего Корпуса стражей исламской революции Али Фадави. Часть экспертов относится к этой официальной версии скептически.



> По словам контр-адмирала Фадави, из оружия было выпущено 13 пуль. Они попали в Фахризаде, проезжавшего по близлежащей дороге в бронированном автомобиле, но не задели сидевшую рядом жену. Пулемет был установлен на припаркованном в отдалении от дороги автомобиле "Ниссан".



> Пулемет "навелся на лицо мученика Фахризаде с помощью высокотехнологичной камеры, в нем были применены технологии искусственного интеллекта", - цитирует иранского военачальника агентство Мехр. Четыре пули попали в начальника охраны, который закрыл собой Фахризаде, добавил Фадави.



> При этом автономное оружие, по его словам, "контролировалось онлайн с помощью спутника", люди в нападении на конвой Фахризаде не участвовали. Иранское информационное агентство Фарс сообщало, что после убийства Фахризаде автомобиль самоуничтожился при помощи взрыва.


Понели, да? Просто стоит пустая припаркованная машина и срисовывает еблишки всех проезжающих мимо, хоть неделю подряд. А нужного пассажира прямо на ходу нашпиговывает свинцом, вместе с прикрывшим его охранником, при этом даже его жену не задевает. После чего самоуничтожается, чтобы скрыть все улики.
298 1875637
Что нужно знать, если в вакансии требуются методы оптимизации? Что под ними подразумевается?
299 1875645
>>875637
Забей. Машоб не для тебя, если даже его основ не знаешь. В джаву со спрингом вкатывайся или джаваскрипт, там нет такой конкуренции за место.
300 1875653
Почему машобач такой токсичный? Или здесь просто сидит пара типов, что срут всем в уши?
301 1875660
>>875653

> токсичный


Люди сюда пришли за зарплатами в миллионы, а получают, как обычная кодомакака.
В МЛ идут самые душные аутисты, которым не хватает бабского внимания. Потому они злые
302 1875665
>>875653

>такой токсичный


Математика деградирует мозг.
303 1875690
>>875354
Так у меня вопрос не про огромную сеть ботов, а про стабильное обыгрывание с помощью хоть каких алгоритмов. Что мешает в одном окне открывать окошко с покером, а в другом покерный аналог stockfish, вводить состояние стола, получать лучший ход и медленно собирать профит?

>>875653
Тимнит Гебру, спок!
304 1875691
>>875665
казнить нельзя помиловать
16057698633000.jpg56 Кб, 380x501
305 1875692
>>875387
Бамп вопросу.
306 1875695
>>875610
Вот видити видити?? Всем читать битерлесон!!
307 1875696
>>875690

>Что мешает в одном окне открывать окошко с покером, а в другом покерный аналог stockfish, вводить состояние стола, получать лучший ход и медленно собирать профит?


Ммм ну может потому что таких находчивых пидарашек банят наверное?
308 1875700
>>875696
Как детектят?
309 1875703
>>875653
При чем оба безработные
310 1875771
>>875700

>Как детектят?


Мониторят список процессов и просят прислать подозрительный, еще за рабочим столом подсматривают и в камеру.
311 1875796
>>875771
С ноута или второго компа параллельно можно. Ну и полно турниров без камер.
Если уже 15 лет есть алгоритмы, позволяющие стабильно выигрывать средних игроков, то в чем проблема?
Вот в шахматах проблемы нет, просто там не играют на деньги, а ради рейтинга на сайте таким заниматься никто не будет.
312 1875807
Как скрипт на питоне + TF + Keras скомпилировать и использовать на другом ПК? Или надо ставить питон, и пользоваться скриптами?
313 1875818
>>875796
Мань, ты хоть бы форумы ботоводов почитал
314 1875839
>>875807
докер
315 1875843
>>875839
В доккер надо уметь пробрасывать видео-карты. Если чуваку это не нужно, и ему нужно просто гонять тренированную модельку, то сойдет и доккер
316 1875847
>>875839
>>875843
А можно как-нибудь в exe скомпилировать?
317 1875848
>>875847
Ты можешь выложить весь virtualenv, который можно запускать на других машинах
318 1875856
>>875818
Я читал - там написано, что ты обосрался.
319 1875880
Есть кто учился или учится в Шаде? Если да, какие профиты почувствовали на себе? В плане скилов, например.
320 1875893
>>875796
Просто увидят что ты стабильно выигрываешь и забанят на всякий случай
321 1875950
>>875807

> Как скрипт на питоне + TF + Keras скомпилировать


Так же как и все остальные скрипты, лол.
322 1875951
>>875807
Экспортируешь модель в ONNX и используешь opencv
323 1875953
>>875880
Какой ШАД, чел, тут сидят одни кодомакаки кидающие боевые картинки с петухом при любом упоминание минимальной математики.
324 1875969
У макак перманентный баттхерт от того, что они работают с формальными системами, но ниасилили достаточный уровень абстракции для математики. Это постоянное напоминание о собственной тупости.
325 1875971
>>875953
Неужели никто из тех, кто сидит на дваче не вырвался с уровня кодомакаки? Или те, кто вырвался, на двач больше не заходят?
326 1875979
>>875953
>>875969
А вот и воннаби математики-датасаентисты.

>при любом упоминание минимальной математики


Не при упоминании математики, а в ответ на вскукареки про ненужность программирования.

>баттхерт от того, что они работают с формальными системами, но ниасилили достаточный уровень абстракции для математики


Продут работы датасаенса - это точно такая же программа, как и все остальное. У меня горит от качества кода и нехватки нормальных программистов в этой сфере, и от того, что приходится работать с подобным говнокодом.

кодомакака
327 1876010
>>875979
Но это твоя роль и есть. Я чищу данные, ты чистишь мой код. Невозможно писать продакшен-код, когда ты экспериментируешь с данными.
Мне нет смысла делать все гибко и стабильно. Я делаю прототипы и разрабатываю методы. Когда я все сделал, ты уже делаешь индустриально, на чем хочешь, докеры там, веб-сервисы, что от тебя нужно. Если до этой стадии вообще доходит дело - в науке все заканчивается на пруф оф концепт, например. Там макаки почти не заняты.

Как аналогия, я работаю в лаборатории, а ты на заводе.
328 1876021
>>875979

>У меня горит от качества кода и нехватки нормальных программистов в этой сфере, и от того, что приходится работать с подобным говнокодом.


Ну так границы открыты, уёбывай в кровавый ентерпрайз и там обмазывайся сколько хочешь своим ООПЭ и ТЕСТАМИ
329 1876039
>>876010

>я работаю в лаборатори


Мышонком?
330 1876054
Погодите, а нечёткий петух это и есть горящая кодомакака?
Или от математики горит дипшизик?
Я запутался
331 1876060
Нужен FAQ по шизам треда для ньюфагов. Добавьте в шапку.
332 1876061
>>876054
Тут есть резидентные шизы, но помимо них также заходят продемонстрировать свою фрустрацию и мимонапомоечники.
В рахе полно ваты, люто ненавидящей любой прогресс. Еще с совка традиция. Кибернетика лженаука, генетика продажная девка капитализма, или какие там им мантры читали с ТВ. Эта культура, плюс осознание того что ты остался на обочине жизни и видишь как все уходят куда-то далеко в недоступные тебе высоты, и дают такую реакцию повсеместно.
333 1876069
>>876061

>Кибернетика лженаука


Все верно, или хочешь поспорить, что с приходом компьютеров человечество как то перешло на новый уровень развития? Даже как то и деградацией попахивает.
334 1876074
>>876069

> что с приходом компьютеров человечество как то перешло на новый уровень развития?


Ебать дебил. Конечно перешло. Вернее начинает переходить в светлое будущее без нищеты, войн, и политики.
335 1876079
>>876074

>без нищеты, войн, и политики.


Kek
336 1876157
>>876061
>>876069
А вот не были бы вы оба безграмотными школьниками, знали бы что "кибернетика" это невнятная полушизоидная водичка про "управление", к тому как компьютеры изменили мир имеющая опосредованное отношение.
Учите математику братцы, а то мозги стремительно деградируют. Ибо технологии и фреймворки приходящи, а теоремы Пифагора и Атьи-Зингера вечны.
337 1876168
>>876010

>Невозможно писать продакшен-код, когда ты экспериментируешь с данными.


Нормальный код писать можно, хотя бы с соблюдением PEP8 и адекватной структурой, а не хуячить все в один файл со строчками по 300 символов.

>Я делаю прототипы и разрабатываю методы.


Если ты выкладываешь код в открытый доступ, то твоими прототипами потенциально будет пользоваться все научное сообщество. Даже если не выкладываешь, то работаешь наверняка не один, и не один вечер. За говнокод тебе не скажут спасибо в любом случае.

>Если до этой стадии вообще доходит дело - в науке все заканчивается на пруф оф концепт, например.


Нормальные исследования завершаются созданием работающих моделей и систем, готовых для продакшена.

В то же время, абсолютное большинство исследований - это попил грантов и намеренная обфускация эксперимента и результатов. Не получается сделать ничего работающего? Иди в науку и пиши пруф оф концепт! Такие "исследователи" хуже даже кодомакак, которые хотя бы делают что-то полезное.
338 1876180
>>876061
То есть дипшкольник всё-таки? Понял
339 1876188
>>876168

>Не получается сделать деталь на станке? Иди в науку и пиши свои гипотезы!

340 1876192
>>876168

>готовых для продакшена


Пусть рабы пашут на подскакивающего кабанчика, а я делаю науку ради науки (прикинь, и такое бывает)
341 1876194
>>876188
Лучше стоять у станка, чем писать никому не нужные статьи про прототипы, которые годятся лишь для пруф оф концепт который никому нахуй не сдался.

Настоящей наукой занимаются в основном в R&D отделах крупных компаний.
342 1876195
>>876168

>Нормальные исследования завершаются созданием работающих моделей и систем, готовых для продакшена.


Нет. Димпайнд, который двигает диплернинг, вообще редко код выкладывают даже для воспроизведения. Если кто и выкладывает, в большинстве случаев это ноутбуки. Но и это не обязательно. Нет в науке никакого продакшена, кроме статей.
343 1876201
>>876054
Оба горят, но по разным причинам. Нечеткий - конструктивист-кефирщик, отрицающий мейнстрим науки (https://2ch.hk/math/res/65396.html#76607). (М)
Дипшкольник уверен, что биттерлессон дает ему право не заниматься собственным образованием вообще - это все для дедов, из которых песок сыпется.
344 1876204
>>876195

>Димпайнд, который двигает диплернинг, вообще редко код выкладывают даже для воспроизведения


Выкладывают, причем иногда есть даже юнит тесты:
https://github.com/deepmind/deepmind-research
https://github.com/google-research
https://github.com/facebookresearch

В статьях как правило скрывают все неудобные факты, и в целом подгоняют результат. Получается, что заебись все только на бумаге, а реально использоваться никогда не будет по ряду ограничений. Более того, ты можешь в наглую завысить результаты, и никто об этом не узнает, поскольку воспроизвести эксперимент очень сложно. В общем, нет кода = пиздабол.
345 1876212
>>876204
У них тысячи статей ежегодно. И в том репо дипмайнда одни ноутбуки.
346 1876221
>>876212

>У них тысячи статей ежегодно


За 2020 около 200 штук.

>И в том репо дипмайнда одни ноутбуки.


Есть проекты без ноутбуков, а у гугла и фейсбука их еще больше.

Тем более что проблема не столько в ноутбуках, сколько говнокоде. У димпайнда с этим все хорошо. Еще возможно, что код в ноутбук они засунули лишь на самом последнем этапе. Собственно, для этого ноутбуки и нужно использовать - они хороши для презентации результата.
347 1876226
>>876157

>"кибернетика" это невнятная полушизоидная водичка


>Учите математику


Типа математика не оторванная от реальности шиза
348 1876244
>>876010
Поэтому сейчас половина соревнований на докере
350 1876265
>>876255
Хуй соси
351 1876317
>>876061

>В рахе полно ваты, люто ненавидящей любой прогресс


Ненавидят в основном научпоперов от машоба продающих всем какую-то дичь в первую очередь типа этого фолдинга. Не сказать что незаслуженно.
352 1876349
>>876010
Макакен может на западного барина работать удаленно и получать больше, чем дата-саентист, пытающийся оживить бизнес кабанчика, крутясь с ним в одном колесе.
16015598020110.webm5,4 Мб, webm,
400x224, 2:46
353 1876358
354 1876416
>>876079
Когда ИИ будет изобретен, всё соврееннте капиталистическое общество потеряет какой-либо смысл. Пруф ми вронг.
355 1876446
>>876416

>Пруф ми вронг


С пробуждением, MYCIN завалили даже не копетоглисты, а вговнемоченыемедикипедики которые могли бы остаться без корыта с хрючевом и это еще в 70х. А была еще глобальный ИИ управления государством, который то же себя хорошо показал.
356 1876463
>>876416

>пук пук пук, пруф ми вронг.

15846757431750.jpg21 Кб, 553x473
357 1876490
>>876463
Что, даже противопоставить ничего не можешь, да?
358 1876495
>>876490
Так у тебя аргументов нет. Могу с таким же успехом ответить "нет, ты не прав".
15845927938990.jpg43 Кб, 419x398
360 1876500
>>876498
С тем же успехом я тоже могу пейпер написать, с графиками, энтропиями. И что же. Ты давай реальные пруфы, а не манятеории.
361 1876506
>>876500
Какие пруфы ещё тебе нужны? О каких манятеориях ты говоришь? Пейпер написан Пьеро Скаруффи, и, в отличие от тебя, он занимается ИИ профессионально всю жизнь.

https://en.wikipedia.org/wiki/Piero_Scaruffi
362 1876528
>>876500
Пиши пейпер - тогда будем опровергать. А пока у тебя пердеж в лужу.
363 1876543
>>876446

>акинатор на лиспе


>ИИ


Kek

>Киберсвин


>который то же себя хорошо показал.


Double kek
364 1876584
>>876498
Нереферируемая научпоп-книжка в качестве пруфа. Оок.

>The real innovation in Ng’s approach was the idea to use GPUs. That simple idea made it possible to train multi-layer neural networks.


Какой-то мудачок-хайпожор не в курсе, кто именно начал тренировать нейронки на GPU. То есть буквально не стал копаться в истории - нахуя это вообще, а тупо написал имя того, что прочитал в хайповых блогах или услышал в том кафе, где покупает смузи.
Дальше идет параграф про NLP и его очень смешно читать в книжке 2016 года. Ждем новое издание, где он опять напишет "ваш прогресс не прогресс, нет никакого прогресса". Хррртьфу.
365 1876589
>>876543
Ну лучше чем трясти черные ящики, собственно поскольку нейроговно в силу своей ущербности никакой опасности не представляет копетоглистам то его и форсят.
366 1876593
>>876589
Поссал на конспиролога
367 1876604
>>876593
Поссал на копетоглиста
QP.PNG185 Кб, 1504x687
368 1876652
Смотрите, есть динамика технологических показателей по объектам во времени. Объектов несколько десятков. Три показателя каждого объекта взаимосвязаны, а также зависят от других факторов, значение которых неизвестно, вмешательства человека (нечастого), а также, возможно, от показателей соседних объектов. Как думаете, возможно ли на таких данных построить модель, которая будет предсказывать динамику?
369 1876663
>>876543

> который то же себя хорошо показал.


Как раз таки хорошо показал. Но потом пришел Пиночет, и разогнал всех коммунистов-прогрессивистов и начал террор.
Screenshot321.jpg67 Кб, 917x604
370 1876700
>>876652
а нормально написать можешь? что еще за "объекты"?

из сотен возможных моделей придется выбирать осмысленную и описывающую реальные процессы, а не секретный уровень CO2 в твоих секретных пуках.

И вот тебе первая модель в Tableau:
371 1876703
>>876584

>То есть буквально не стал копаться в истории


Ну ты бы хоть на его сайт зашел, этого мудачка-хайпожора. Потому что Скаруффи, блядь, историк, мудозвон ты поверхностный.
372 1876710
>>876349
Да, может. А если датасаентист будет дворы мести, то разница еще больше будет.
Кто в здравом уме вообще на раху работает? Очнись, раха давно уже все.
373 1876745
>>876652
Для динамики нужны дифуры. Если в конечных разностях, то что-то типа (y-y[i-1])/dT=ay[i-1]+bx (апериодическое звено первого порядка). Если смотреть на нейронную сеть, то апериодическое звено первого порядка она повторит легко, если завести выход нейрона на вход (возможно через еще один нейрон, выполняющий роль "сумматор+запаздывание на такт"). ХЗ, тренируют сети такой структуры или нет...
Это будет не модель "выбросов" (возмущений), а некая динамическая модель объекта.

На "выбросы" (возмущение) нужно отдельную нейронную сеть тренировать, она вполне неплохо повторит "типовой шум" (с особенностями, типа всплески в обед/по выходным или спад к вечеру). Но результаты нейронки с возмущениями нужно будет скармливать динамической модели объекта, чтобы получить адекватный результат (например, добавлять возмущение f к x).

Имея вторую нейронную сеть (для возмущений) на создание динамической модели объекта "на нейронных сетях" можно и забить... Просто построить примитивную динамическую модель 1 или 2 порядка (ну с 3-мя входами, или сколько у тебя их там будет).
374 1876748
>>876663

>Как раз таки хорошо показал


>[источник не указан 1185 дней]


Правда (факт)
375 1876764
>>876745

> Для динамики нужны дифуры.


Не нужны. Это задача анализа временных рядов.
376 1876772
>>876764
Ну если хочешь, назови "анализ экспоненциальных временных рядов". Смысл не изменится.
377 1876782
>>876745
>>876772
>>876764

>дифуры


>звено первого порядка


>примитивную динамическую модель


>временных рядов


>экспоненциальных


Дедууушки, читать биттерлессон, выкиньте всю эту чушь из головы уже.
image.png65 Кб, 1399x156
378 1876790
>>876703

>Ну ты бы хоть на его сайт зашел, этого мудачка-хайпожора. Потому что Скаруффи, блядь, историк, мудозвон ты поверхностный.


И что там на сайте написано, что это Великий Топ №1 который круче всех на свете? На сайте любого фрика написана подобная хуйня...
Никаким историком он не является. Он в лучшем случае автор нонфикшена для быдла, пишущий сразу обо всем, типа Латыниной. То есть чтиво прикольное, но с кучей ошибок и подтасовок, без особой претензии на научность. В худшем - нарциссичный научный фрик. Не ученый-нарцисс типа Шмидхубера, это хуй с ним (хотя довольно смешно читать самонаписанную биографию себя любимого в третьем лице на домашних страничках у обоих поциентов), а натуральный фрик с нулем достижений в той науке, которую он пытается обозревать.

А по фактам там все очень грустно и вредно. "The real innovation in Ng’s approach was the idea to use GPUs" - это ложь. Ын использовал CPU. То есть книга настолько хуевого качества, что в ней не вычитаны такие банальные фактические ошибки. Ошибки ли? Скорее подтасовки. История искажается в удобную сторону.
Дело в том, что задача - переспорить самые хайповые инфоповоды. Поэтому например здесь https://scaruffi.com/mind/ai2010.html ты не найдешь упоминание чего-то типа MobileNet. Потому что не вписывается в картинку "больше, толще, еще больше, а прогресса на самом деле нет". 2020-й год прошел и что? GPT-3. Какая неожиданность.

>поверхностный


Не, мань. Все хитрее. Книга 2016 года. Что произошло между 2016 и 2020? Например, появились трансформеры. Соответственно, так как мне неинтересно копаться в говне очередного фрика, я полез сразу туда, где он гарантированно обосрется - в параграфы о NLP и speech recognition. Потому что эти фрики всегда смотрят в прошлое, а при наступлении будущего они спасают свой манямир какой-то новой спасительной хуйней. И вот этот миг между прошлым и будущим называется "обсер". А потом идет демендж контрол, новый манямир, и так по кругу. Единственное что полезно, это тыкать подобное говно в собственные обсеры двух-трехлетней давности.
image.png65 Кб, 1399x156
378 1876790
>>876703

>Ну ты бы хоть на его сайт зашел, этого мудачка-хайпожора. Потому что Скаруффи, блядь, историк, мудозвон ты поверхностный.


И что там на сайте написано, что это Великий Топ №1 который круче всех на свете? На сайте любого фрика написана подобная хуйня...
Никаким историком он не является. Он в лучшем случае автор нонфикшена для быдла, пишущий сразу обо всем, типа Латыниной. То есть чтиво прикольное, но с кучей ошибок и подтасовок, без особой претензии на научность. В худшем - нарциссичный научный фрик. Не ученый-нарцисс типа Шмидхубера, это хуй с ним (хотя довольно смешно читать самонаписанную биографию себя любимого в третьем лице на домашних страничках у обоих поциентов), а натуральный фрик с нулем достижений в той науке, которую он пытается обозревать.

А по фактам там все очень грустно и вредно. "The real innovation in Ng’s approach was the idea to use GPUs" - это ложь. Ын использовал CPU. То есть книга настолько хуевого качества, что в ней не вычитаны такие банальные фактические ошибки. Ошибки ли? Скорее подтасовки. История искажается в удобную сторону.
Дело в том, что задача - переспорить самые хайповые инфоповоды. Поэтому например здесь https://scaruffi.com/mind/ai2010.html ты не найдешь упоминание чего-то типа MobileNet. Потому что не вписывается в картинку "больше, толще, еще больше, а прогресса на самом деле нет". 2020-й год прошел и что? GPT-3. Какая неожиданность.

>поверхностный


Не, мань. Все хитрее. Книга 2016 года. Что произошло между 2016 и 2020? Например, появились трансформеры. Соответственно, так как мне неинтересно копаться в говне очередного фрика, я полез сразу туда, где он гарантированно обосрется - в параграфы о NLP и speech recognition. Потому что эти фрики всегда смотрят в прошлое, а при наступлении будущего они спасают свой манямир какой-то новой спасительной хуйней. И вот этот миг между прошлым и будущим называется "обсер". А потом идет демендж контрол, новый манямир, и так по кругу. Единственное что полезно, это тыкать подобное говно в собственные обсеры двух-трехлетней давности.
alphafold.jpg268 Кб, 1300x1720
379 1876798
380 1876799
>>876798
Жоско ты всех бумеров приложил с их неработающим говном.
381 1876801
>>876652
Судя по твоим графикам , у тебя экспоненциальное убывание, которое предсказать можно даже по одному графику, а потом ХУЯК и скачок, который явно результат какого-то вмешательства (ну либо что-то типа фазового перехода в веществе, что интереснее).
Без источников этих скачков нихрена ты не предскажешь.
382 1876803
>>876782

> выкиньте всю эту чушь из головы уже



ИМХО, современное состояние нейронных сетей, это как аппроксимировать всё подряд в Excel полиномом 10-го порядка. Классно работает и через любые точки проходит... Но если ты знаешь, что у тебя зашумлённая синусоида, какого хрена порядок полинома увеличивать для получения адекватного результата? Ведь при большом порядке полинома даже между точками кривую начинает колбасить (то, что называют умным словом "переобучение"), не говоря уже об экстраполяции

Вот современные нейронные сети - это плюс-минус игры с регрессией полиномом N-го порядка в Excel. Иногда нужны качественные изменения: определённая структура сети, или корректно подготовленные данные.
383 1876812
>>876803

>это как аппроксимировать всё подряд в Excel полиномом 10-го порядка. Классно работает и через любые точки проходит... Но если ты знаешь, что у тебя зашумлённая синусоида


Би. Тер. Ле. Сон. Бумерок, хватит пыжиться своим умишком пытаться охватить величие нейронок.
384 1876814
>>876803

>Вот современные нейронные сети - это плюс-минус игры с регрессией полиномом


Удачи поиграться полиномом на Imagenet или в NLP-задачах. Нейронки нужны чтобы тебе не приходилось самому придумывать фичи (что в каком-нибудь компьютерном зрении невозможно). А вот если у тебя в выборке полтора объекта, то понятное дело нужно что-то придумывать.
image.png66 Кб, 264x191
385 1876816
>>876803

>Ведь при большом порядке полинома даже между точками кривую начинает колбасить


Для борьбы с чем в эпоху динозавров была придумана L2-регуляризация. То есть ты ПРОСТО берешь полином побольше и добавляешь регуляризацию.
То есть пока в Вилларибо регуляризуют, в деревне Пидорасино пытаются сэкономить 1.5 флопса на том, чтобы обойтись полиномом меньшей степени, потому что иначе на советском микроконтроллере оно не запустится.

>не говоря уже об экстраполяции


Давай поговорим об эстраполяции, че не поговорить.
Снимок экрана 2020-12-09 190122.png46 Кб, 1740x641
386 1876818
>>876790

> image.png


Так это и есть простейшее предложение
387 1876822
>>876816

>Для борьбы с чем в эпоху динозавров была придумана L2-регуляризация. То есть ты ПРОСТО берешь полином побольше и добавляешь регуляризацию.


>То есть пока в Вилларибо регуляризуют, в деревне Пидорасино пытаются сэкономить 1.5 флопса на том, чтобы обойтись полиномом меньшей степени, потому что иначе на советском микроконтроллере оно не запустится.


Ребёнок, блядь, колбасит полиномы не из-за того что коэффициенты большие. Пиздец, учите дети математику.
388 1876823
>>876814
>>876816

Я не говорю, что это плохо. Это элементарная аналогия. По-моему, она не противоречит современным реалиям в нейронных сетях.

Фанатично выводить формулы тоже не нужно, если быстрее построить регрессию с приемлемым результатом. Но также точно не нужно и уравнение регрессии выдавать за описание всего что только существует в мире. Нужно предствалять границы применимости, баги и возможности полученных регрессий/нейронок. Вот и всё...
389 1876825
>>876822

> колбасит полиномы не из-за того что коэффициенты большие


Всё верно, анон. В математике есть хорошо развитый матанализ, сразу взглянув на уравнение видно количество экстремумов и не будет сюрпризов во внезапно возникшем пике между двумя точками.

Для нейронок такие инструменты пока не придумали... или не развили... или не адаптировали. Может лет через 10-20 оно и появится.

>>876803-кун
390 1876830
>>876825

>хорошо развитый матанализ


битерлесан!!
391 1876835
>>876822

>Ребёнок, блядь, колбасит полиномы не из-за того что коэффициенты большие. Пиздец, учите дети математику.


>>876825

>Всё верно, анон



Вся суть этих долбоебов. "коэффициенты большие".
392 1876836
>>876830

> битерлесан!!


Макаки так и не смогли за 3 месяца на планшетной клавиатуре написать ни одного английского слова. Наверное, к другой раскладке привыкли ^_^

Сколько будем войну и мир ждать?
393 1876837
>>868191 (OP)
У же хорошо берете пихвоиды, полностью?
394 1876840
>>868191 (OP)
Почему технологии ИИ 70-х вызывают уважение, а современные смех?
395 1876846
>>876840
Потому что ты нечеткопетух
396 1876853
>>876840

>вызывают уважение


>акинатор на лиспе

397 1876854
Нечеткий петух очнулся от алкогольного угара, лол. Иди еще стопочку наверни и спать. Новости только не открывай, а то сердечко пади не то уже у старика.
398 1876860
>>876835
Учи что такое l2
399 1876861
>>876860
Петух, не закапывай себя еще больше
400 1876868
>>876861

> кококо


Ну ладно тебе, распиши как l2 в случае полинома выглядит, полезно будет. Знаешь что такое полином?
401 1876873
>>876854
>>876846
Он попозже обычно подходит, пока дипшкольник тут бушует.
image.png158 Кб, 453x340
402 1876884
>>876868
Стратегия петуха: он страшно боится обосраться, поэтому врубает менторский тон и начинает задавать НЕУДОБНЫЕ ВОПРОСЫ.
Ты высрал: "Ребёнок, блядь, колбасит полиномы не из-за того что коэффициенты большие".
Ну давай, расписывай, из-за чего будет колбасить "зашумленную синусоиду", и как же с этим делом бороться.
403 1876891
>>876884

> кук пук не хачу ничево давай пиши мне простыни


Щас.
http://www.machinelearning.ru/wiki/index.php?title=Интерполяция_полиномами_Лагранжа_и_Ньютона
404 1876892
>>876891
Там нет пруфов твоему высеру
405 1876930
Трясунишек в штанишках и адептов нейроговна колбасит ИТТ.
406 1876933
>>876840

>70-х


Раньше полеты на другую планету сейчас челочка на смартфоне, кекус.
407 1876985
>>876930

>нейронки в жопу заливают, не дают коммунистический ИИ

408 1877005
>>876985

>трясу ящик на благо копетоглистов111

409 1877007
>>877005
Да, а что не так
410 1877008

>Начало работы с системой Искусственного Разума СТАЛИН-3000.


>Введите ФИО:


>Введите должность:


>Введите номер партбилета:


>Введите домашний адрес:


>Введите рабочий адрес:


>Введите номер телефона:


>Введите номер военной части, к которой приписаны:


>Введите ФИО ответственного лица:


>Введите идентификационный номер задания:


>Введите код подтверждения из Министерства Электронно-Вычислительных Приборов Больших Масштабов:


>Введите ваш уровень допуска к секретным данным:


>Выберите режим работы:


>1. Определение типа бактерии с помощью экспертной системы МОЙСЫН.


>2. Выход.

411 1877016
>>877008

>СТАЛИН


Великий человек, всех либирах и трясунов заставил работать на благо родины в Норильске.
412 1877022
>>876930
Virgin вапникошиз куколдит вычислительной машине, лично подбирая все параметры
Chad нейроговнарь заливает данные и даёт машине пинка, чтобы быстрее трясла ящик
413 1877030
>>877022

>Chad нейроговнарь заливает данные и даёт машине пинка


Но Chad получает на выходе рендомное говно, а Virgin надежный результат который можно воспроизвести.
414 1877050
Подскажите как написать банальную нейронку для предсказания значений, чтобы на ряд x_train = (1, 2, 3, 5, 6, 7, 9, 10, 11) оно выдало продолжение (13, 14, 15...)

Ну, допустим есть у меня x_train и y_train (x_train[::-1])
Создал keras.sequential
model.compile(loss='mse', optimizer='rmsprop')
model.fit
А че в смысле как?
415 1877064
>>877050

>чтобы на ряд x_train = (1, 2, 3, 5, 6, 7, 9, 10, 11) оно выдало продолжение (13, 14, 15...)


цикл for ебани
15930006957370.gif391 Кб, 652x562
416 1877065
417 1877066
аноны, которые занимаются cv
скажите плз, насколько нейронки работают в анализе облаков точек? ну или мешей и прч 3д вакханалии
слышал мнение, что они там не очень стабильные, а о риалтайме вообще можно забыть
и также вопрос, что можно почитать на тему обработки всей этой истории? самое близкое - это дифф геометрия, но поднимать такую базу нет времени, а проект сдать надо (хотя бы в mvp виде)
спасибо
418 1877079
>>877050
Чувак. Математические прогрессии учат в 9 классе. В хуевых случаях нужна регрессия. В самых хуевых случаях - LSTM или Transformer.
419 1877109
>>877050
Примерно так https://pastebin.com/BPYU03FJ
sequential сразу нахуй, потому что смысла в нем никакого нет.
А так, вместо линейного слоя можешь хоть LSTM хоть стек трансформеров нахуячить, суть не изменится. Работать правда хуже будет, потому что такой датасет численно говнян.
420 1877133
>>877109
>>877079
Всё хуйня. Ваши нейронки здесь работать не будут. Они усвоят только числа из датасета, а продолжать числа дальше не будут.
И вообще нейронки созданы для неформальных, сложных задач, к которым даже хуй знает как подойти. А у чувака формальнейшая задача, для которой можно найти математическое решение.
421 1877148
>>877133
Можно выучить преобразование из a_n в a_{n+1}, а оно одинаковое что для чисел из датасета, что для всех остальных чисел в последовательности.
16061753525490.jpg67 Кб, 592x532
422 1877164
>>877133
>>877148

> Всё хуйня. Ваши нейронки здесь работать не будут. Они усвоят только числа из датасета, а продолжать числа дальше не будут.


Зумера... Я тут года 3 назад показывал, как инженерный калькулятор, могущий в вычисление регрессии, на датасете из 3-4 примеров может экстраполировать подобные ряды за пределами датасета. Но вы слишком брейнлеты, чтобы понять, как и почему это возможно.
16067487341190.jpg110 Кб, 1280x720
423 1877168
>>877133
>>877148
Вы даже простую линейную регрессию не понимаете, кукарекая про нинужно и битерлесон, при этом не только лезете куда-то дальше, но и почему-то думаете, что поймёте. Зачем вы такие?
424 1877173

>Вы даже не понимаете, как пользоваться абаком, при этом считаете что-то на калькуляторах. Зачем вы такие?

425 1877184
>>877133

Но ведь его цель не в том, чтобы задачу решить, а в том чтобы научиться учить нейронку на заранее простой и понятной задаче.

Так че, не работает что-ли?
16057052318310.jpg45 Кб, 601x429
426 1877193
Слов нет. Уже все расписал, бесполезно...
>>877184

> Так че, не работает что-ли?

427 1877211
А почему классические методы так хуево работают на картинках?
Я собрался изучать классику, чтобы не быть батхертом, а там точность чуть лучше подбрасывания монетки.

>We extract conventional Fisher Vectors (FV) [Sanchez et al., CVPR 2011] and streamlined version of Graphical Gaussian Vectors (GGV) [Harada, NIPS 2012]. For extraction, we use not only common SIFT and CSIFT, but also LBP and GIST in a dense-sampling manner.


Почему всё это ТЕОРИТЕЧЕСКИ-ОБОСНОВАННОЕ говно работает хуже чем dense-dense-dense?
428 1877217
>>877211

>а там точность чуть лучше подбрасывания монетки.


Бери ящик и тряси, умный тут нашелся.
image.png20 Кб, 829x398
429 1877224
>>877109
Спасибо, наконец-то хоть что-то заработало. А то одни ошибки и не понятные результаты.
Буду теперь на основе этого разбираться в другом.
430 1877225
>>877211

> А почему классические методы так хуево работают на картинках?


> Я собрался изучать классику, чтобы не быть батхертом


Так ты ембединги в классику и загоняй.
Что ты собрался изучить?
431 1877324
>>877211
С чего ты взял, что оно хоть как-то обосновано? Точно такая же тряска формул вручную. "Мы тут с пацанами посидели и решили навернуть больше фич".
432 1877333
>>877066
Чти про persistance homology
433 1877341
>>877211

>Почему всё это ТЕОРИТЕЧЕСКИ-ОБОСНОВАННОЕ говно работает хуже


Потому что в руках зумерка, тут сноровка нужна
434 1877368
>>877066
Growing neural gas.
435 1877438
>>877225
Классика - это и есть способы получение эмбеддингов.
>>877324
Зумерошизик пиздабол получается никогда бы не подумал
436 1877822
Я почти не разбираюсь в ml. Объясните насколько сложно сделана нейронка https://deepsukebe.io/.
437 1877834
>>877822
Примерно 4.7
sage 438 1877885
>>877834
Ну нет, там 4 размер, не больше
439 1877894
>>877822
Нейронка сделана просто, обучить её сложно.
440 1878223
Изучаю tensorflow, родился вот такой вопрос. У меня есть некий объект, который надо классифицировать. У меня есть временные ряды, будем считать 5 рядов по 100 значений в каждом, значения нормализированы в [0; 1]. Есть ли смысл рассматривать временной ряд как изображение Nx1 и подавать его на conv-сеть или тупо выдавать 100 значений для каждого ряда безо всяких сверток?
441 1878244
>>878223
Есть смысл.
442 1878265
>>878223

>Есть ли смысл рассматривать временной ряд как изображение Nx1


Рассматривай временной ряд как временной ряд и используй для этого conv1d слои.
nix.PNG1,9 Мб, 1489x779
443 1878307
В компаниях какой сферы интереснее data science спецу (не ML инженеру, а именно аналитику)? Под интересом будем подразумевать разнообразие задач, их субъективную интересность и возможность получить ценный для спеца начального уровня опыт. В моем городе набирают ритейл, банки, продуктовое IT, gamedev, телеком, микрокредиты, букмекеры, онлайн-казино и иногда крупные местные промышленные компании и компании сферы энергетики.
Еще есть data science консалтинг местного разлива, но там у меня низкие шансы судя по требованиям. Хотя это, наверно, было бы интереснее всего.
444 1878309
>>878307
Энергетика и промышленность, наверное. Только если не надо на заводе работать.
445 1878310
>>878307
И в санкционные параши не вляпайся, попадешь в черные списки.
446 1878412
>>878307

>интереснее


>не ML инженеру, а именно аналитику


Без разницы, "аналитика" это в 99% случаев таблички в эксельчике/дашборды в табло вне зависимости от индустрии.
447 1878524
ШОК, СЕНСАЦИЯ. ФИНСКИЙ УРКА С ПОЖИЗНЕННЫМ ПОЯСНЯЕТ ЗА AI! https://youtu.be/l554kV12Wuo?t=370
448 1878526
>>878524

>ФИНСКИЙ


Сейчас бы обезьян всяких смотреть
16051960060010.png75 Кб, 200x200
449 1878664
Очередная победа машобчика, нейрон очка шакально раздевает людей по фото.
https://deepsukebe.io
450 1878745
>>878664
Ебать там сайт какой то математик делал
451 1878765
>>878664
Реально, хочешь собрать датасет из фоток имбецилов без всякого майнинга - сделай очередной пРиКоЛьНый сервис по обработке фоток. Жаль с другими данными так не работает, с номерами кредиток там, состоянием счёта итп, не жизнь была бы а малина.
452 1878771
>>878765
Ты какой-то не очень умный, если действительно считаешь, что таким способом можно собрать нормальный датасет.
453 1878783
>>878765

> Реально, хочешь собрать датасет из фоток имбецилов без всякого майнинга - сделай очередной пРиКоЛьНый сервис по обработке фоток.


Будто каждый первый туда загружает что-то оригинальное и свое, а не одни и те же фоточки пыни и прочий хлам, которого и так в сети тонны.
454 1878871
>>878412
Я все же про позиции data scientist типа пикрелейтед - т.е. с уклоном в аналитику, но где уже используется машоб.
455 1878888
>>878765
Что ты несешь. Не проще соцсети распарсить? Все равно все фото оттуда берут.
456 1879038
>>878664
Норм, сразу видно что нейронки не говно
457 1879043
>>879038
Проиграл
мимо сохранил боевую картинку
458 1879045
В /б, господа, пройдите в /б. Там полно подходящего вам контента. Владелец этого сайта форсит его, как в последний раз.
459 1879057
460 1879069
>>879057
Нейронкошкольнику печёт глядя на весь этот битерлесон.
461 1879095
>>879069

>когда на исходе жизни, находясь на помоечке, единственное твое утешение это мечтать о том, как какому-то школьнику припечет


>а ему все не печет и не печет


>а жизнь утекает

462 1879103
>>879095

>а жизнь утекает


Это же радоваться нужно, что дропнешь этот отстойный мир
463 1879106
>>879095

>да не печёт мне я филосаф

464 1879202
>>877822
если коротко: очень сложно. Тебе нужно несколько сотен тысяч примеров одетых / раздетых баб
465 1879203
>>878244
>>878265

> conv1d слои


Спасибо
466 1879210
>>879202
Как там в 2015? Уже есть stylegan и много образцов не требуется.
Технология описана например здесь https://www.reddit.com/r/MachineLearning/comments/jhl36y/p_turn_yourself_into_a_zombie_with_a_neural/
Зомби ли голые бабы, особо разницы нет
467 1879227
>>879210
Но в итоге хуета получается >>879038
468 1879248
>>879227
а почему хуета? Ты можешь получше голые женские тела пририсовать?
469 1879249
Сап аноны, как лучше вкатиться в Ml? Есть опыт года работы с питоном и го, и от веба как-то шишка не дымится, думаю вкатиться в машинки. Как лучше вкатываться? просто курс от яндекса выглядит достаточно заманчиво, в то же время есть вроде как норм книги по теме + kaggle
470 1879251
>>879248

> Ты можешь получше голые женские тела пририсовать?


Я вообще рисовать не умею, это не аргумент. Но ты же не будешь спорить, что результат этой нейроночки выглядит крайне кринжово.
471 1879256
>>879251

> Я вообще рисовать не умею, это не аргумент.


Аргумент. Сможешь ли ты написать симфонию? Ты же человек, имитация нейронки.
472 1879271
>>879251
Ну где-то выглядит так себе, где-то даже очень хорошо.
Учитывая сложность задачи, я считаю это как успех.
473 1879329
>>879271

>я считаю это как успех


>я пью мочу и ем говно, считаю это успехом

474 1879390
>>879329
Аргументы пошли
475 1879407
>>879095
Ну, пока незабитерлессенели даже фотожаберов >>879038 мне на помойку рановато, а вот тебе, эмоционально инвестированному в весь этот бред действительно надо будет думать куда карьеру поворачивать.
smug2.jpg4 Кб, 144x200
476 1879476
>>879407
Эмоционально инвестирован я, а горишь ты.
10316-73.jpg130 Кб, 626x626
477 1879597
>>879476

> нет ты горишь

478 1879709
>>879407
А во что надо эмоционально инвестировать?
479 1879713
>>879709
В любовь
480 1879756
Анончики, наверно не совсем по сабджу треда, но всё же. Есть задача радномно взвешенно выбирать несколько элементов из множества. Сейчас в качестве веса элемента используется обратная величина того, сколько раз этот элемент уже был выбран до этого (чуть-чуть сложнее на самом деле, но это без подробностей). Вопрос. Как правильно будет тестировать результаты происходящего, когда я захочу использовать более сложные веса. Комбинировать какие-то метрики на основе которых будет потом считаться этот вес. И собственно как он (вес) будет в итоге считаться. Как понять, что один способ подсчета весов предпочтительней другого. Пока это выглядит так, что это будет на уровне "путем проб и ошибок, пока результат визуально не будет казаться удовлетворительным", а не что есть какие-то четкие критерии для этого все. Или тут как раз нужно свои критерии придумать для этого всего придумать? Спасибо.
481 1879819
>>879756
Нечеткие множества используй.
482 1880064
>>879819

>Нечеткие


Все норм пацаны четкие используют
483 1880099
Анончики, подскажите пж, есть ли нейросеточки для создания гачи ремиксов?
484 1880973
У модели среди признаков есть угол alpha. И модель сама должна предсказывать угол theta.
Как лучше всего закодировать признаки и что лучше всего предсказывать? Проблема в том, что углы могут накапливаться и поэтому 2pi = 0. Да и если брать остаток от деления на 2pi, то теряется знание того, что 0 и 1.99pi находятся близко.
С предсказанием аналогично - есть ли что-то лучшее чем предсказывать число от 0 до 1 и умножать на 2pi?
485 1881093
>>880973
Точку на окружности, т.е. косинус и синус.
И для alpha соответственно.
486 1881094
>>880973

>Как лучше всего закодировать признаки и что лучше всего предсказывать?


Так, чтобы зависимость между альфой и тетой была максимально линейной либо монотонной, без лишних пиков и ям.

>Проблема в том, что углы могут накапливаться и поэтому 2pi = 0. Да и если брать остаток от деления на 2pi, то теряется знание того, что 0 и 1.99pi находятся близко.


Ну тебе лосс нужен какой-то специфический.
Смотри например, у тебя есть два единичных вектора с углями p и y, расстояние между концами будет
(sin(p)-sin(y))^2+(cos(p)-cos(y))^2.
Либо, косинус угла между этими же векторами вообще cos(p-y).
Вроде так.
487 1881110
488 1881187
Анон, помоги разобраться с lightgbm.
Всего 10 числовых признаков в датафрейме.
Параметры lightgbm модели такие вот:
lgb_params = {
'boosting_type': 'gbdt',
'objective': 'binary',
'num_leaves': 100,
'num_round': 360,
'max_depth':10,
'learning_rate': 0.01,
'feature_fraction': 0.5,
'bagging_fraction': 0.8,
'bagging_freq': 12
}
Пытаюсь определить при помощи неё важность признаков, а мне пишут [LightGBM] [Warning] Stopped training because there are no more leaves that meet the split requirements
А когда делаешь lightgbm.plot_importance, то:
not enough values to unpack (expected 2, got 0) подореваю из-за того, что там пустой список.
Как починить это?

И вдогонку, XGBRegressor у меня нормально важность признаков опеределил, надо ли его перепроверять другим способом, например, вышеприведённым LightGBM?
Или одного способа хватит?
489 1881270
>>881093
Ну вот я тоже про синус и косинус подумал, но вот предсказывать два числа вместо одного не хотелось. Ну если это стандартное решение, то ок.
>>881094

>Так, чтобы зависимость между альфой и тетой была максимально линейной либо монотонной, без лишних пиков и ям.


Между ними полносвязная нейронка.

>Ну тебе лосс нужен какой-то специфический.


Он уже.
Твою идею понял, но выше подсказали, что заменить на синус и косинус - нормальная практика.
>>881110
Ну только в перевернутом маятнике не нужно предсказывать углы, там регулируется сила, толкающая тележку. Да и входные углы можно не преобразовывать, потому что они по модулю не очень большие. У меня суть в преобразовании углов в нормальные признаки.
490 1881275
>>881270

> Ну только в перевернутом маятнике не нужно предсказывать углы, там регулируется сила, толкающая тележку


Да, там выбирается сила и направление воздействия на тележку исходя из углов отклонения маятника и динамики такого отклонения. Но можно же и наоборот.
492 1881283
>>881270

>но вот предсказывать два числа вместо одного не хотелось


Ну можешь предсказывать сам угол, а в лоссе считать косинус и синус от него как написано выше.
Но в качестве фичи всё равно лучше синус и косинус вместо угла подавать.
493 1881378
>>881270
Для фичи нормальная. Для выхода - нет, потому что у тебя синус и косинус жёстко связаны тригонометрическим тождеством, соответственно это степень свободы, лишняя и неизвестная для нейронки.
Лучше тогда уж выводить вектор (два числа) и нормировать его длину на единицу (alpha=atan2(y, x))

А лучшая мера для лосса - это cos(a-b)
494 1881401
Анон. Я в ML очень поверхностно разбираюсь, однако у меня есть идея для хорошего прикладного инструмента на основе NN.
Генератор пиксельных спрайтов по описанию.
На вход поступает описание спрайта в виде строчки, либо массив из тегов.
На выходе идет массив вида [0,4,2,1], где числа - номера цвета в специфичной палитре, которая задается постфактум пользователем.

То есть ты пишешь нейронке "Аниме-девочка держащаяя меч. 64x64." и нейронка генерирует спрайт.

Какую архитектуру использовать для этих целей? Насколько требовательна к железу будет эта нейронка?
495 1881405
>>881401
А датасет ты откуда возьмешь?
496 1881410
>>881405
Так пиксель-арта в интернете хоть жопой жуй. Хоть 1bit, хоть gb-стайл.
497 1881414
>>881410

>Так пиксель-арта в интернете хоть жопой жуй.


Он не размеченный. Для каждой картинки тебе придется руками писать описание. Учитывая сложность твоей задачи, придется разметить как минимум несколько десятков тысяч картинок.
498 1881420
>>881414
Пиздец. Ну, как всегда, процедурщина и rule-based алгоритмы рулят.
Я погуглил, и нашел нормальный такой инструмент https://rxi.itch.io/tilekit , правда он платный.
499 1881430
>>881414
>>881420
Битерлесон лучше читайте
500 1881431
>>881430
Сколько раз нужно перечитать биттерлессон чтобы нейронки решили мою задачу?
Прочитал 7 раз, а всё равно не работает.
501 1881436
>>881420

>Пиздец. Ну, как всегда, процедурщина и rule-based алгоритмы рулят.


Они не рулят. Хочешь нормальные результаты - размечай датасет, или нанимай мартышек, которые сделают это за тебя. Разметка датасета стоит не сильно и дорого. За 100к картинок заплатишь тысяч пять.
502 1881441
>>881436

>размечай датасет


ИИ уровня /b
503 1881452
>>881430

> Битерлесон


Заебал ты с этой соевой хуйней.
504 1881502
>>881436

> Они не рулят


Rule-based systems:
- быстро
- эффективно
- мало весят
Neural networks:
- медленно
- малоэффективно
- весят дохуя
505 1881513
>>881502

>Rule-based systems:


>- быстро


>- эффективно


>- мало весят


Можно воспроизвести вывод, это самое главное.
506 1881514
>>881502

>Rule-based systems


Они работают лишь на определенных достаточно легких задачах, и по точности в лучшем случае не проигрывают нейронкам.
507 1881525
>>881441
Ничоси после ГПТ3 аутсайдеры задвигали гоалпостами. Если нужен размеченный датасет, это уже выписали из ИИ.
image.png157 Кб, 1125x590
508 1881586
Узнали? Согласны?
510 1891884
Существует ли методика обучения, когда обучающий массив формируется из более-менее натурально выглядящих рендеров 3д модели объекта, а уже работа сети происходит на реальных фотографиях? Ведь гораздо производительнее будет смоделировать или взять готовые 3д модели например автомобилей, сделать скрипт который будет делать рендеры с разных ракурсов и с разными освещениями, разными бликами и разными цветами автомобилей, менять их форму. А потом автоматом все скормить сетке. Ведь по сути на картинках мы видим проекцию 3д объектов реального мира.
511 1895727
Запустил новый DeepFake вроде получается неплохо (для моего скудного датасета EOT) но вопрос почему у меня используется 6Гб видеопамяти а графический процессор судя по диспетчеру задач практически не загружен? И ещё вопрос, влияет ли Batch Size на качество результатирующее?
512 1898647
Аноны, т.к. тред по дата аналитике мертв - пишу сюда как к близкой сфере.

Хочу вкатиться в Дата Аналитики, за душой почти ничего, что бы могло пригодится с устройством.
Для себя составил план обучения из статистики, SQL, BI инструментов, вохможно ещё Питон или R.

Насколько дибильная затея? И почему? Будет ли найти сложно работу джуну?
513 1899449
Питон или яваскрипт? Что лучше и почему?
514 1913807
Двачане, вкатываюсь в академический матан, но хоть какие-то деньги иметь надо, так что решил взять себе что-то из ит сферы связанное с метаном, чтобы качались обе сферы параллельно. Прогать умею, матешу знаю. Прошёл пару курсиков, послушал лекции, занял призовые в 3-ех хакатонах в сфере машоба, но что-то чувствую, что ничего дальше 2-3 курса вузика тут из матана не видно. Это максимум необходимый машобу? Мат анализ и линал с основами дискретки? Никакой более сложный мат аппарат не нужен? Если не нужен, то мб знаете сферу в ит где нужен. Заранее спасибо
Тред утонул или удален.
Это копия, сохраненная 25 апреля 2021 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски