Этого треда уже нет.
Это копия, сохраненная 23 мая 2021 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №36 /ai/ 1947549 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают

Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.

Почему такой фокус на нейронки?
Потому что остальные чистят вилкой данные в банках с помощью LGBTboost и им некогда предлагать обновления в шапку

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/

Почему python?
Исторически сложилось

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python
https://d2l.ai/index.html

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом

Кто нибудь использовал машоб для трейдинга?
Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Предыдущие:
https://2ch.hk/pr/res/1920026.html (М)
https://2ch.hk/pr/res/1902462.html (М)
https://2ch.hk/pr/res/1881607.html (М)
https://2ch.hk/pr/res/1868191.html (М)
https://2ch.hk/pr/res/1847673.html (М)
https://2ch.hk/pr/res/1832580.html (М)
https://2ch.hk/pr/res/1817320.html (М)
https://2ch.hk/pr/res/1785952.html (М)
https://2ch.hk/pr/res/1758961.html (М)
https://2ch.hk/pr/res/1734710.html (М)
https://2ch.hk/pr/res/1704037.html (М)
https://2ch.hk/pr/res/1665515.html (М)
2 1947597
Здравствуйте, данные научники, возникла идея написать классификатор, суть в том, чтобы телеграмм бот выдавал картинки, человек их оценивал и ему назначаются цифры(представьте координаты в 3-хмерном пространстве), т.е если человеку понравились определенные картитнки, то бот отнесет его к определенной категории людей, в общем то можно просто поставить весы у каждой картинки по каждому измерению, типа если тебе понравилась эта картинка, то ты такой-то и далее тебе будут более релевантные картинки присылаться, в общем-то алгоритм не требует нейронок, но я подумал, что нейронки и классификаторы(это одно и то же?) подойдут тоже для этой задумки, хотел поспрашивать что почитать, какая реализация подходит под эти параметры(сам о нейронках только в общих чертах знаю). Я не планирую писать свою сложную рекомендательную систему, но мне кажется что решение уже есть и оно будет эффективней того что я могу напрогать своими ручками, прошу в ответы, кто знает в каком направлении мне двигаться
3 1947606
>>47597
коллаборативная фильтрация на основе k-means
4 1947618
>>47597
Self organized maps
5 1947624
>>47597
но тогда тебе придется прислать каждому новому юзеру 20 картинок, чтобы понять что ему нравится, что довольно тупо по нынешним временам.
Начать сразу с одной картинки будет нельзя.
6 1947637
>>47597

>в общем-то алгоритм не требует нейронок,


и почему ты вообще за это зацепился?
Ведь на картинках что-то изображено и это что-то очень важно.

если тебе не хочется обучать нейронку, набери свой датасет из картинок и воображаемых юзеров. Потом поставь Orange и посмотри как он сделает циферки из картинок (всеми обоссываемой) нейросетью ImageNet, но по сути он же распознает картинки.

Далее придумаешь что-то получше и можно будет писать в коде.
7 1947669
>>47597

> Я не планирую писать свою сложную рекомендательную систему


А это именно она, гугли классические алгоритмы для рекомендах
8 1947738
>>47637
Я предполагаю что картинки будут создавать люди, например я, основываясь на своих предпочтениях и поэтому люди могут так же давать характеристику картинки, поэтому и думаю что не обязательно нейронки юзать, но в остальном спасибо, почитаю, посмотрю
9 1947756
>>47606
>>47618
>>47669
Спасибо!
16015598020110.webm5,4 Мб, webm,
400x224, 2:46
10 1947776
освятил
11 1947799
>>47549 (OP)
Тут есть исследователи, или только дотасаентисты?
12 1948044
>>47799

>Тут есть исследователи


На месте.
13 1948157
>>48044
Охренеть. Чем занимаешься?
14 1948281
https://www.youtube.com/watch?v=-QS0WMx-zB4&ab_channel=АдвокатЕгоров

Я примерно понял как эта поебень работает, но как он хочет самообучающийся ИИ сделать на основе этой хуйни? можно словить смертельную дозу кринжа с комментов
15 1948326
>>48281

>This is an overview of the program - Syllogistical homoseksuaali


ИИ уровня двач.
16 1948336
>>48281
Ну так классическая хуйня из 60-х, мол, достаточно просто загрузить в систему аксиом и компуктер сам всё выведет. Навыдумали всяких хорновских дизъюнктов, доказали в них полноту метода резолюций, а потом откуда-то полезли функции аккермана и экспоненты экспонент. На этом всё загнулось без какого-либо практического результата. Естественно, там под ИИ подразумевался автоматический логический вывод и прувер разных теорем.
https://en.wikipedia.org/wiki/Logic_Theorist
17 1948352
>>48336
Ну, metamath + GPT3 вроде работает, не все плохо с подобными темами.
18 1948375
>>48281
Есть и более совершенные программы для подобных целей, где более полный силлогистический базис https://www.youtube.com/watch?v=PtqBE4BTqwQ и без ошибочного того же логического квадрата или представления о дихотомии. Оказывается, что как типов суждений, так и типов силлогизмов будет много больше (помимо классического конъюнктивного), чем ранее считалось, вместо одного вывода силлогизма может быть, как минимум, два, всё это согласуется с алгеброй логики и другие преимущества тоже есть.
19 1948384
>>48375

> эти картинки


Напомнило. Смысла примерно столько же
20 1948448
Кто-нибудь хорошее делал с ConvLSTM слоями и более свежими комбинациями с attention блоками? Читаю https://arxiv.org/pdf/2102.03586v1.pdf, смотрю реализацию https://github.com/czh-98/CMS-LSTM
064.gif170 Кб, 326x281
21 1948513
>>48384

>Смысла примерно столько же


В башке у зумера?
8577237887dcae8b60f7b.jpg298 Кб, 683x1024
22 1948546
>>48513
У тебя, если ты считаешь эту хуйню чем-то умным. Родина дала MLTT, HoTT, CubicalTT, нет, хотим какую-то шизу без задач от адептов ШУЕ ППШ...
Intellekt-2-Aristotel-1024x1024.jpg128 Кб, 1024x1024
23 1948613
>>48546
Это же основа логики. И не древние русы, а древние греки.
24 1948617
>>48546

>ШУЕ ППШ


Что это?
25 1948618
>>48617

шизофренический уклад един путь пустого шприца
26 1948632
Можно сейчас реалистично аугментировать снимки с дрона на разную погоду (хотя бы сменить солнечную на пасмурную) или это всё так себе?
27 1948633
>>48546
Чел, не корми шизика.
>>48448
Я, конечно, быдло и не шарю, но какие сейчас могут быть юз-кейсы у long term video prediction?
Figure 1 21.05.2018 213257.mp47,6 Мб, mp4,
640x548, 0:31
28 1948677
Фактически это далеко не единственная область применения подобных типов слоёв (Conv3D, ConvLSTM) - не каждая последовательность матриц — это видео)))
Как пример, писал с применением подобной вещи - аппроксиматором для решетчатых уравнения Больцмана (обтекание жидкостью препятствия и возникновение не стационарности течения)(не особо успешно, пример прикрепил).
А если «повыдумывать» - то можно в stack собрать какие-либо темпоральные данные (курсы валют) и покатать данными слоями в составе например энкодеров или ещё чего, с учётом разномасштабных окон и возможно будет практическая значимость (если конечно потом получится RL агента научить этими прогнозами пользоваться).
29 1948679
>>48677
Данные - это просто данные)))
30 1948716
>>48633

>но какие сейчас могут быть юз-кейсы


Предсказание траекторий для self-driving
31 1948730
>>48157

>Охренеть. Чем занимаешься?


Аспирант в американской шараге. Занимаюсь по сути тем же, чем занимаются машобщики в индустрии - трясу нейронку пока не вытрясу нормальный результат. Затем публикую пейперы, которые цитируют 1.5 инвалида и забывают. Область не скажу, но если в общих чертах, то классификация изображений.
32 1948751
>>48730

>Аспирант в американской шараге.


Пили стори, как перекатился?
33 1948768
>>48751

>Пили стори, как перекатился?


Есть два варианта. Первый - продаешь бабкину квартиру в ДС и поступаешь на платный бакалавриат, во время которого заводишь знакомства с преподами и изучаешь разные аспекты жизни. После этого абсолютно без проблем перекатываешься на ПхД.

Второй вариант - заканчиваешь где угодно бакалавриат и поступаешь сразу на ПхД. Это сложнее, но вполне возможно. Забудь про колледжи, которые от 50 места в рейтинге и выше. Все требования найдешь на сайте вуза. Обычно это всякие бумаги об образовании, TOEFL, GRE и эссе, почему ты хочешь у них учиться. Самое главное - это найти препода, которого ты хочешь себе в качестве научрука, лично с ним связаться и обкашлять вопросики. При его поддержке шансы возрастут на порядок.

Но вообще, идти на ПхД я не рекомендую. Будешь получать на уровне кассира волмарта, а после защиты диссертации в лучшем случае перекатишься в индустрию зачастую кодомакакой, а реалистично - пойдешь постдоком за нищенские 50-60к.
34 1949024
>>48768

>за нищенские 50-60к.


Это что за капуста, белоруские зайчи в год?
35 1949066
>>48768
Лучше после бакалавриата сразу в индустрию?
36 1949112
Можно ли вкатиться без вышки?
37 1949156
>>49112
Нет. Не забывай, что для вката вышка должна быть свежей и топового вуза
38 1949192
>>47549 (OP)
Давно нашего чегото не смотрел, а он так здорово по хайпожорам дипшизным прошёлся
https://m.youtube.com/watch?v=oyBNkj3Xg9s
39 1949275
>>49066

>Лучше после бакалавриата сразу в индустрию?


Если изначально не хочешь работать в индустрии и плевать на деньги, то можешь пойти на ПхД, но в противном случае нужно как можно быстрее устраиваться в индустрию, в идеале после бакалавриата.
40 1949306
>>49192
Ебать, когда он школу то закончит?
41 1949388
Какую модель мне использовать, чтобы сделать переводчик письменного текста?
Надо, чтобы я взял условно 2 книги — на первом и втором языке, обучил ими модель (без синтаксического разбора, пусть модель хандлит опечатки и прочее) и получил переводчик.
Надоело гугл-транслейтер использовать.
26561.jpg9 Кб, 300x312
42 1949487
>>49388

>Какую модель мне использовать


Трясун 3000
43 1949550
>>49388
Кодирующе-декодирующий трансформер Жопеншмульцера.
44 1949804
Наверное тут таких не любят, но я попробую. У меня конкретная задача, которую я хочу закрыть и забыть. Почитал десяток статей и так и не понял что мне нужно. Есть изображения, приблизительно 5000х3000, на них хочу детектить объекты, их много, они перекрываются местами, но класс один. Нашёл прогу для разметки - LabelImg. На выходе будут PASCAL VOC/YOLO XML файлы как я понял. Дальше у меня 2 вопроса, какую модель выбрать, изходя из того, что мне , в разумных пределах, не нужна скорость, зато хочу размечать поменьше данных. И надо ли резать мои большие картинки на более мелкие и как?
45 1949943
>>49804
Хочешь мангу нейронкой переводить?
46 1949992
Есть ли жизнь в мл без нейросетей?
47 1950000
>>49156
>>49112
Да, американского. На джуна еще требуют кандидатскую по матеше и опыт работы в Пентагоне
48 1950001
>>49992
Есть, но она не модная и против нее копетоглисты
49 1950043
>>50000
Вот ты сраказмируешь, но к этому всё и идёт.
50 1950054
>>50001
Ну так покажи класс , шизик. Обьеби sota своими ебучими экспертными системами.
51 1950071
>>50054
объеби sota в какой области?
sota везде разное.
52 1950128
>>50000
Квадрипл хуйни не скажет
53 1950131
>>50001
Что такое копетоглист?
54 1950163
>>50054

>Обьеби sota своими ебучими экспертными системами


До хуя исследований в области ЭС финансируется? ЭС боятся, поскольку они работают и могут выбросить на мороз многих говноедов.
55 1950358
>>50071
Хоть в какой-нибудь.
>>50163
Покажи рабочий пример для начала.
56 1950388
>>49804

>И надо ли резать мои большие картинки на более мелкие и как?


если нарежешь картинок через разметку, то потом просто пройдись по ним трансформом и усе
57 1950392
Видали, там GAN запилили на трансформерах. Может быть оно будет генерировать нормальные картинки, а не кринжатуру всякую, как обычные ганы.
58 1950398
>>49992
Рекомендательные системы, табличные данные, интерпретируемые модели и быстро работающие модели с терпимым качеством.
В остальных областях без нейронок скорее всего поешь говна.
59 1950400

>ЭС боятся, поскольку они работают


Не работают
60 1950405
>>50400
Работают, но не лучше любого другого метода тех лет.
61 1950434
>>50398

>В остальных областях


Как жить без генератора всратых котиков?
62 1950561
>>50434
Покажи в классификации изображений "классический" метод, сравнимый с нейронками. Желательно чтобы ещё скор на imagenet был.
Или в nlp (в задачах чуть сложнее определения спама).
63 1950726
Идол этого треда на обложке. Почему еще не было.
https://www.youtube.com/watch?v=tk-vPly7vf4
64 1950731
пацаны
работаю прогрером, хочу перекатиться в cv
но не хочу весь день сидеть в жупитере
расскажите плез, цвшники все время тусуют в построении моделей или тоже прогают?
65 1950744
>>50731
CVшники больше прогают, чем модели строят. Там все модели давно построены.
66 1950747
>>50744
тогда, по идее, лучше топить в алгоритмы, чем в оптимизацию и теорвер?
67 1950761
>>50747
Возможно, но я не особо в теме CV.
68 1950772
>>50761
бля, братан, а херли тогда советуешь
69 1950782
Допустим, мне нужно выделить кластеры среди клиентов компании по специфике их потребительского поведения. Метрик по клиентам до сотни и многие из них категориальные.

Мой план:
1. Снизить размерность автокодировщиком до 2\3 переменных
2. Использовать какие-нибудь простые алгоритмы кластеризации и заодно обратить внимание на точки вне кластеров хотелось бы заодно решить вопрос anomaly detection в данных

Чего я не могу понять, так это на что ориентироваться при выборе продолжительности обучения автодировщика для данной цели - в интернетах на всяких towardsdatascience слишком абстрактные статьи, и такие же абстрактные примеры с произвольной архитектурой и количеством эпох (часто, насколько вижу, берется достаточно большое количество эпох).
Имеет ли смысл подходить к этому как обычно делается при обучении с учителем и ориентироваться на потери на тестовых данных или тут это не то?
70 1950814
>>50772

>CVшники больше прогают, чем модели строят.


Но это реально так.
71 1950960
>>50561

>Или в nlp


Кекус, нейроговно в банальный морфоонализ не может

>классификации изображений


В OpenCV куча реализованных алгоритмов
72 1950985
>>50782

>Имеет ли смысл подходить


Имеет смысл сначала "снижать размерность" классикой типа pca и sne.
73 1951041
>>50985
Насколько могу судить РСА менее эффективен в сравнении с автокодировщиком при наличии нелинейных связей в данных, с t-SNE малознаком
74 1951070
>>50960

>Кекус, нейроговно в банальный морфоонализ не может


Как и классические методы.

>В OpenCV куча реализованных алгоритмов


Ты с кем споришь? Кто-то говорил, что дедовских алгоритмов не существует? Найди теперь скор на imagenet с использованием HoG'ов, кнн-ов и svm-ов.
75 1951071
https://github.com/openai/DALL-E
Ебало шизика, рассказывающего про рисунки индусов, представили?
Интересно, какие сейчас манёвры будут.
76 1951072
>>51071
Это порезанная версия что ли? Чего так мало весит?
77 1951163
>>51071
Так это ж не вся модель. Алсо, индусы как всегда, индусский код как стиль жизни:
Before running the example notebook, you will need to install the package using

pip install git+https://github.com/openai/DALL-E.git
Прописать в самом блокноте никак нельзя, разумеется.
This can be changed to a GPU, e.g. 'cuda:0'.
dev = torch.device('cpu')
Самим написать cuda:0 вместо cpu никак нельзя, зато целый комментарий - запросто.
>>51072

> Это порезанная версия что ли? Чего так мало весит?


Оно же загружает сами декодер и энкодер по ссылке с опенаи, код не смотрел штоле:
enc = load_model("https://cdn.openai.com/dall-e/encoder.pkl", dev)
dec = load_model("https://cdn.openai.com/dall-e/decoder.pkl", dev)
78 1951240
Сап еврибади. Я - придурок 2 курс, вкатываюсь в deep learning. Вопросы следующие:
Если с вышкой понятно что учить, то как быть с теорвером и матстатом? Область обширная, а что нужно на практике (читай, собеседовании) непонятно. Что читать?
Отсюда второй вопрос. Где получать реальный опыт на реальных задачах? Каггл, фриланс, пэт проекты? Что ещё?
Третий вопрос. Чего хотят от trainee/джуна? Набирают ли конторы мясо вроде меня с целью обучения (Украина), и есть ли в этом смысл вообще?
Тупо пиздячить теорию не вариант, да и непонятно куда двигаться.
Всем мир, атдуши.
79 1951259
>>51240
плюсы учи
064.gif170 Кб, 326x281
80 1951271
>>51071

> Ебало шизика которые не умеет читать


Твоё типа? Вот
81 1951275
>>51071
И что оно делает? Запустил в куколабе, как выяснилось, индусский код не работает, но рабочий вариант в первом issue. Грузит откуда-то пенгвина, пик 1, как-то его обрабатывает(?), пик 2. И это все?
1111.png68 Кб, 725x563
82 1951282
Попробовал менять параметры, оно его по оси крутит и отзеркаливает(?). Хуя они молодцы, я так в пейнте могу...
83 1951323
Короче, как я пынямаю, это какая-то вспомогательная часть от DALL-E, которая что-то делает с картинками. И даже это нечто нормально выложить не смогли - недописанный, нерабочий код, никаких пояснений. И эти макаки в опенаи работают, за среднемесячную зарплату равную десятилетнему доходу среднего рабсиянина, пиздец. Какой же испанский кринж...
84 1951343
>>51323
Это пока все на что способно нейроговно
85 1951344
>>51343
Маня, плес... Покажи, на что твои ЭС способны, потом кукарекай
86 1951357
аноны, иду через неделю на собес по cv в сберыч
что советуете поддтянуть по линейной алгебре? svq, qr?
87 1951379
>>51357
svd, соре
88 1951605
Можно ли с помощью обучения с подкреплением решать комбинаторные задачи? Так же как метаэвристики, например.
89 1951633
>>51344
Финансы, медицина, наука. А вот на что способно нейроговно, кроме переворачивания пингвинов?
90 1951636
>>51633
ты уж меня извини, но нейроговно могет в комп зрение
другим я не занимаюсь, так что не знаю
мимо
91 1951643
>>51636
Что занимает большую часть времени в твоей работе?
92 1951645
>>51636

>могет в комп зрение


Не могет
93 1951676
>>51643
Чтение двачей и загрузка картинок в Orange
94 1951684
>>51633

>Финансы, медицина, наука.


Хоть один рабочий пример покажи.
95 1951690
>>51645
пруфы?
015.png132 Кб, 600x452
96 1951737
>>51344

> не нейроговно значит ЭС!!

98 1951739
>>51690
В окно выглянь
99 1951797
аноны, не пиздите палками плез
работал 3 года в конторе питонистом бэкенда + для них же делал небольшой mvp по распознаванию облаков точек
матан на том или ином уровне паршивости знаю
сейчас наша контора к хуям развалилась из-за ебанутого СЕО и ищу работу - есть на пару месяцев запал и деньги, чтобы сменить профессию
хочу вкатиться в комп зрение
Вопрос:
1) есть ли смысл тратить время на fast.ai и подобные курсы или же лучше взять один пет проект и на его базе учить что-то?
2) на собесах насколько сильно дрочат по матану? Я в работе юзал только линейную алгебру - теорвр и прочее забыл довольно давно
Двач не раз выручал меня, надеюсь, что вы, ребята, еще разок подскажите) а то я немного в прострации - думаю стоит ли или нет, ато жалко будет время потраченного
100 1951805
>>51797

>хочу вкатиться в комп зрение


>пару месяцев


Можешь даже не начинать.
101 1951808
>>51797
не слушай ебаклака >>51805- это типикал токсик
имхо - лучше проект. Конечно надо разобраться в общем как работают нейросетки в задачах и сегментации и классификации
но все это можно покрыть чтением + работой на парой проектов
и да, очередной раз убеждаюсь, что двач и близко сравниться с одс не может
такое ощущение, что тут одни обиженки сидят
102 1951810
>>51808

> НАД парой проектов


> сравнится


поправил себя
103 1951811
>>51810
бля я еблан, там не нужен мягкий знак
15960264102200.jpg67 Кб, 592x532
104 1951812
>>51808

>токсик

105 1951813
>>51812
лол) дедуль, тригерят забугорные слова?)
106 1951824
>>51738
А где их скачать-то? А то пишет, что когда-то разрабатывалось да и всё. Оно что, на магнитных лентах у дедов? Из современных слышал только об акинаторе как экспертной системе.
107 1951839
>>51824

>А где их скачать-то?


Ты у мамки глупенький? Читай историю про MYCIN, там так пердаки у докторов разорвало, что они всячески торпедировали проект. Никто не позволит развивать работоспособные вещи, вся суть копетоглизма.
108 1951841
>>51839

> Никто не позволит развивать работоспособные вещи


> вся суть копетоглизма


правильно ли я понимаю, что вся суть копетализма - делать неработающие вещи?
109 1951844
>>51841

>что вся суть копетализма - делать неработающие вещи


Вся суть копетоглизма - давить все, что может лишить прибыли.
110 1951847
>>51844
бля чел
работающие вещи генерируют прибыль, а не работающие - наоборот
так что вот это говно либо не работало, либо никому нужно не было
111 1951852
>>51259
Вообще не в тему
112 1951854
>>51852
да они все тут только о копетализме рассуждают
и что лучше: нейронки или мл
хочешь норм советов - иди в одс
113 1951867
>>51847

>работающие вещи генерируют прибыль


Ну смотри, помнишь был в пендосии чел который написал штуку, которая составляла типовые судебные обращения? Так вот, у гильдии юристов бомбанули пердаки, поскольку они могли оказаться без денег и они начали таскать чела по судам. Все. Так же было и с докторами и с любым кого ты попытаешься оторвать от корыта с хрючивом.
114 1951869
>>51867
давай ссылку
твоя сторона уж слишком радикально звучит
там сто проц не так, что плохие юристы и добрый прогер
116 1951886
>>51847

>работающие вещи генерируют прибыль


Тем кто ими владеет, а не тем кто оказывается на помойке в результате их работы.
117 1951898
118 1951922
>>51877
Ты статью читал, шизло? Автор гребёт бабло лопатой. Праклятый срапетаглизм, ух, как угнетают честного программиста!

> In 2019, Browder obtained $4.6 million in funding from Silicon Valley investors such as Andreessen Horowitz and Founders Fund, who were early funders of Facebook.[33]


Алсо, проект его живёт и процветает

> It is currently available in the United Kingdom and United States (all 50 states).[2]

119 1951924
Кто-нибудь ЛАМУ сберовскую пробовал в деле? Я на игрушечной дате опробовал только, как то так
120 1951943
Привет, пацаны. Есть идея для одного аналитического проекта, предлагаю обоссать всей бордой. У нас фирма делает жижу для парилок и табаки для кальяна. В принципе, суть проста – есть безвкусная основа, есть аромы в разных пропорциях. Появилась идея натренить модельку на веса каждого из ароматизаторов (их может быть до 100 шт, поэтому придется разбивать на группы), после чего нагенерить дохуя рандомных сочетаний компонентов и создать «ПЕРВУЮ В ИСТОРИИ ПОДЛИВУ СОЗДАННУЮ ИИ». Насколько эта херь жизнеспособна?
Сам околовкатун уже почти год, могу в фитпредикт большей части моделек с пониманием принципа их работы, панды, нампи, немного R и прочую вот эту всю хуйню уровня джуна. Но не могу в нейросети – CV и NLP мне не интересны, остальное выебоны
121 1951956
>>51839

>всратый акинатор


>работоспособные вещи

122 1952275
>>51943

>Насколько эта херь жизнеспособна?


Очень даже может и взлететь, главное красиво подать.
123 1952314
>>52275
Подадим красиво, тут скорее вопрос в технической стороне вопроса
124 1952363
>>51943
Что ты хочешь генерировать? Какие входные данные, какие целевые? Зачем - просто ради рекламы?
125 1952411
>>52314
Рендомом проийдись, да и все
126 1952529
>>51943
Ну пиздец. И чем ты там все это время занимался?
Целевую функцию придется выдумать.
Далее нейросеть найдет неочевидные ароматы, которые почемуто еще никто не смешал.
У вас отзывы есть?
Хотя бы в текстовом виде.
Обьем продаж? Популярность смесей на других сайтах? Общемировой каталог смесей?
127 1952837
Почему помимо свёрток в свёрточных сетях нужны пулинги?
128 1953093
>>52529
Есть данные по продажам, всего около 140 объектов

>И чем ты там все это время занимался?


Маркетологом работал
129 1953311
>>53093
Ну и напиши фитпредикт теперь.
Написал? Что получилось?

От зумеров местных не дождешься понимания бизнеса.
130 1953491
>>52837
Объем модели уменьшается при сравнимых результатах
131 1953718
Сап. Какой минимум может понадобиться для того чтоб пройти на стажировку в компьютер вижн / мл? Насколько глубоко надо знать методы мл, opencv?
132 1953749
>>53718

>мл, opencv


>компьютер вижн / мл


Чет кекнул, ты ящик трясти собрался, там на изичах вкат
133 1953789
Такая ситуация: на своем датасете обучил модель для классификации объектов (pytorch). Точность пока что меня устраивает ~80%. Но когда я загружаю модель для распознавания со своей камеры model.load_state_dict(), то выскакивает ошибка (даю лист, а нужно тензор, хотя в print() видно, что это тензор).
Решил загрузить модель fasterrcnn_resnet50_fpn, ошибок уже нет, но она выдает предикты очень странными (показывает, что вейп - кружка, я - кресло, иногда я - это я) и соответственно боксы вокруг объектов для отображения вообще показывают случайные вещи.
Вопросы: 1. Могу ли я все таки свою модель для классификации использовать уже для распознавания (что почитать, желательно с примерами)?
2. В моем классификаторе 4 слоя, в fasterrcnn_resnet50_fpn их очень много (сбился со счета когда считал). Полагаю, что из-за того, что много параметров в модели, у меня один кадр обрабатывается секунд пять (пока использовал только cpu, cuda не хочет видеть почему-то, но разберусь с этим потом). Можно ли обучить свою модель для детекции объектов, но чтобы она не была такая "тяжелая", какое минимальное количество параметров надо для детекции около 5 классов?
3. Лучше использовать готовую обученную модель или все таки пытаться сделать свою для детекции? Для начала мне нужно определять людей на изображении и еще 4-5 объектов (типа машина и т.д.).

В дальнейшем найденные объекты будут уже классифицироваться.
134 1953859
Аноны, я слыхал, сейчас подвижки случились в генерации речи, это правда? Где почитать?
135 1954100
Нужны ли эти перехайпаные стенфорды или можно сразу вкатываться по контенту из секции "Что почитать?".
orange3logo.png169 Кб, 543x543
136 1954184
>>53789

>В моем классификаторе 4 слоя, в fasterrcnn_resnet50_fpn их очень много (сбился со счета когда считал)


>задает вопросы почему хреновое качество.

137 1954213
>>54184
читай внимательней.
Для простого рабочего классификатора 4-х слоев достаточно.
fasterrcnn_resnet50_fpn - обученная модель для задачи распознавания.
Вопрос состоит вообще в другом. Да и количество слоев - не показатель хорошего результата.
138 1954367
>>53718
>>54100
Сначала поищите вакансии в своем городе. Есть ли они вообще. Если есть, то читайте что требуется в них. И уже на основе этого стоит что-то учить.
139 1954370
140 1954390
>>54367
Да мне похуй на вакансии. Мне в целом тема интересна. Я хочу её для трейдинга заюзать + свои стартапы проекты.
141 1954398
>>54390

>Я хочу её для трейдинга заюзать


В одиночку ничего не сделаешь.
142 1954399
>>54398
А, ну раз ты так сказал...
143 1954403
>>54399

>пук среньк


Мамкин автотрейдер.
image.png1,6 Мб, 1235x695
144 1954531
>>54390

>ML


>для трейдинга заюзать


>свои проекты

145 1954568
>>54531
А тут вообще есть люди умеющие свои мысли выражать или тупо натрененные на оффтоп нейронки?
stonks-template.png525 Кб, 825x619
146 1954629
147 1954631
>>54568

>ML


>для трейдинга заюзать


>мысли

148 1954710
>>54568
А тут есть ДЛЯ КОГО их выражать?
Читай пикрелейтедб. Аттракцион невиданной щедрости только сегодня
149 1954736
Спалю годноту быдлу, на либгене выложили книжку "getting started with google bert", на гитхабе есть код к ней. Возможно, первая полноценная книга на тему трансформеров с матчастью и примерами использования. D2l все же не только и не столько про трансформеры.
150 1954744
>>54736

>с матчастью


Вот это реально годнота.
151 1954775
>>54213
А в чем? Ну загрузи ты эту YOLO.
16114818689840.jpg480 Кб, 2560x1920
152 1954846
двощ помоги решить задачу

есть 2 шкафа, с вероятностью 1/2 в первом шкафу есть пальто и с вероятность 1/2 во втором шкафу тоже есть пальто. (это не одно и тоже пальто, просто факт наличия какого-то пальто)
Вот подхожу я к шкафам и гардеробщик говорит, что в первом шкафу пальто нет, какова вероятность, что во втором шкафу его тоже нет?
с одной стороны логика подсказывает, что события независимы и вероятность для второго шкафа по-прежнему равна 1/2, но я наверняка знаю, что этот ответ неверный. Очевидного способа прикрутить сюда Байеса я не вижу, но как-то скорректировать ожидание вероятности после эксперимента надо.
153 1954851
>>54846

>но я наверняка знаю, что этот ответ неверный.


затравили на собеседовании? Так это за гнилые зубы, а не из-за задачи
154 1954881
>>54184
нихуя мой апельсин у анонов в оборот вошел
155 1954925
>>54744
Да какая там матчасть: матричных умножений нахуярили параллельных, обозвали "кёрнелом" это всё для отдельных вапникошизов, вот и вся матчасть.
156 1954933
>>54736
А про биониклов там нету? Может хотя бы в к рации что за трансформеры и нахуй они нужны?
вкатыш 2 недели
157 1954968
>>54925

>матричных умножений нахуярили параллельных, обозвали "кёрнелом"


Какая же продвинутая матчасть в трансформерах, пиздец просто!
158 1954974
>>54968
Единственный значимый критерий оценки матчасти - качество работы. В остальном чем проще тем лучше. А по качеству трансформеры уделывают всё остальное из того что сейчас существует, это медицинский факт. Аттеншен точнее пулинга в свертках. И нет, твои петушиные ЭС не лучше трансформеров.
159 1954981
>>54974

>Единственный значимый критерий оценки матчасти - качество работы.


Для датамакак - да, для тех кто хочет разобраться как это работает - нет.
160 1954988
>>54981

> как это работает


Хорошо работает.
161 1954989
>>54981

>разобраться как это работает


Но зачем? Пока разберешься - оно уже устареет.
162 1955013
>>54974

>И нет, твои петушиные ЭС не лучше трансформеров.


Это не я.
163 1955272
Так и не понял, что нужно делать с текстом, чтобы подать его на вход трансформеров для файнтюнинга, например. Здесь https://huggingface.co/transformers/preprocessing.html написана бесполезная хуйня, не имеющая ничего общего к входному формату моделей. В разных примерах разные индусы пишут разные хелперные функции, которые как-то преобразовывают неведомые скачанные датасеты в неведомых форматах в формат, пригодный для подачи на вход. Что и зачем делается, нигде не поясняется, равно и как сделать так же со своим текстом. Готовых хелперных функций для этого нет. Зачем все настолько через жопу, и где можно подробно про это почитать?
165 1955289
>>54974

>нет, твои петушиные ЭС не лучше трансформеров.


Лучше
166 1955373
Пацаны, расскажите как можно работать с координатами? Мне блять выдали задачу регрессии с координатами по х, у и таргетом блять. Все. Умнее итерполяции ниче не придумал. Выручайте я абизьяна
167 1955410
Аноны, я не вкатыш, просто питон разработчик, возникла идея создать вроде простую нс, суть сводится к отгадыванию вектора видимо, проще представить цвета, твой любимый цвет загадал, нейронка опрашивает тебя нравится ли тебе такой цвет, а такой? По итогу видимо на вход есть, например, 10 ответов да/нет, на выходе 3 - rgb, так же не совсем понимаю как потом под человека ее донастраивать, корректировать от последующих вопрос типа это твой цвет? Подскажите, есть ли готовые решения, найти не смог, какую нс можно использовать, наиболее релевантную, прав ли я на счет входов и выходов, правильно понимаю, что для тренировки нс можно написать алгоритм, который сам генерит ответы на первые 10 вопросов, например есть цвет красный, вопрос красный да/нет, то он просто берет и численно высчитывает ответ, отправляет в нейронку и если по итогу нс говорит цвет красный, то это ей засчитывается, так будет работать? Дайте критику моего понимания, хочу просто сделать прототип не сильно углубляясь в математику, вроде не сложно, скажите чего я не понимаю(о нс только по паре статей знаю с хабра), подавать вместо да/нат на вход можно векторы цветов, это лучше?
168 1955473
>>55373
предположим, у меня сегодня запор, поэтому вот тебе ссылка
https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LinearRegression.html

А в другой раз обосру.
169 1955491
>>55410
А тебе вот эта ссылка
https://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsRegressor.html

если конечно я правильно уловил твою интерпретацию
170 1955508
>>55473
ну ето я уже пробовал че ты уж меня прям за дебила держишь. я думал мб че-нибудь хитровыебанное какие-то преобразования матрицы хуе мое
171 1955537
>>55508 а за кого тебя еще держать? дали простую задачу, но ты ее пытаешься усложнить.
172 1955539
>>55508
какие вообще там данные? "пятна" ?
image.png86 Кб, 365x247
173 1955595
174 1955686
>>55595
Тогда тоже knn regressor.

Но если это тестовое задание, тебе бы следовало бы проявить себя аналитиком и запросить у них что же это за данные. Понять их природу. Понять допустимо ли использовать knn regressor.

Ты не на мотематике.
Упрощения тут не работают и правильного ответа может не быть.

Можешь, конечно, дипзумеров с матрицами подождать . Может они меня удивят.
175 1955687
>>55686
Вообще это студенческая олимпиада по машобу))
176 1955702
Поясните, как реализовать окно в трансформере.
Вот есть батч из n строк длиной l. Получаем мы из него матрицу коэффициентов внимания размерами n x l x l.
Если l большое, то это дохуя по памяти, на карточку не влезет. Хочу ограничить внимание окном размером w. Как это сделать, чтобы сэкономить память? В конкретных фреймворках желательно. В керасе уже есть слой attention, но он именно что делает матрицу n x l x l.
177 1955856
>>55687
И KDE (это не про аниме)
178 1955927
>>55491
В общем да, действительно классификатор нужен, на хабре человечик написал что эта нс нужна скорее для знакомства и что ее не применяют на практике, есть что-то более правильное но в том же русле?
179 1955946
>>55927

>на хабре


>ололо я моргнул светодиодом


Большей помойки чем швабр не нашел?
180 1955953
Читаю getting started with google bert, и сразу какая-то хуйня написана, стр 11-12. Вектор эмбеддинга слова размерностью 512 умножается на вектор матрицы весов Wk, Wq и Wv, каждый размерностью 64. И как это возможно вообще? Бред же.
181 1955978
Повторю пост из прошлого треда(не знал что перекат был)
Аноны, подскажите пожалуйста, без лишней желчи.
Сейчас стоит выбор во что вкатываться: .Net(C#) или же ML.
Нравится имеено писать код, но и матешу не хотелось бы забрасывать.
Следовательно вопрос: пишет ли код ML engineer или занимается тупым перебором табличек и подгадыванием коэфициентов?
Во что перспективнее вкатываться?
182 1956039
>>55927
1.Это не НС, а Настоящий Датасаенс.
2. Давай ссылку на свой сраный Хабр. Наверное побольше подробностей и смысла там описал.
Все еще не ясна твоя идея
183 1956075
>>56039

> Настоящий Датасаенс


Кекнул и орнул
184 1956125
Может тут есть анон который с биомед. cv сектором работает? Пожалуйста отзовись, расскажи о специфике, тяжело ли искать работу и.... авось о проектах, была не была
185 1956412
>>56125
Смотря ещё какая сфера биомеда. Но в большинстве случаев тебе всё равно профильное ВО потребуется если ты конечно не тупо код дрочить хочешь (хотя и там скорее всего как минимум птушка понадобится).
186 1956637
привет, у меня довольно странный вопрос, нубский довольно, но: в чем разница между нейронкой с одним выходом с сигмойдой И нейронкой с софтмаксом но двумя выходами?
По сути результат у них один - они возвращают вероятности для двух классов, но что творится с кросс-энтроп. лоссом?
1) В первом случае у нас к примеру выход 0.6, лэйбл 1, лосс -log(0.6)
2) В втором случае у нас выход [0.6, 0.4], лэйбл [1, 0], лосс -(log(0.6) + log(0.6))
У них разные значения лосса, а значит в плане обучения и расп. градиента они разные?
187 1956705
>>55946
Так я сам не моргну и мне это не нужно
188 1956716
>>56039
Говорю же я даже определений не знаю, меня прототип просто любой интересует скорее, https://m.habr.com/ru/post/149693/ если реально нужно, а смысл этого алгоритма такой: на входе последовательность 0 и 1, на выходе 3 цифры - вектор(для примера с любимым цветом будет 3 байта), задача отнести к определенному классу человека по его ответам да/нет(1/0), хз стало ли понятней, хотя бы я могу теперь сформулировать задачу
189 1956729
>>56716
это не смысл а твой пересказ смысла как будто ты формулируешь теорему на матеше.
но, блядь, датасаенс это поиск смысла в данных! и они все нужны.
190 1956756
>>56716
Self-organizing maps
191 1956815
>>54846
бамп задачке
192 1956833
>>54846
Блядб ересь какая-то.
Я понимаю там прикол Монти-Холла, но здесь то реально вроде ничего не меняется от того, что гардеробщик что-то там спизданул.
Условие точно верное?
193 1956835
>>56833
Я уже сомневаюсь, если честно, но вроде верные
Если даже я немного напутал, то я все равно не вижу в каком случае эту задачу можно было бы решить
194 1956839
Я пошёл дрочить хуй
195 1956854
>>56835
>>54846
Гардеробщик мог бы сказать что как минимум в одном из шкафов пальто нет, тогда ответ 1/3.
196 1956867
>>56854
думаю ты прав, похоже я действительно проебался и на самом деле гардеробщик сказал, что в одном из шкафов пальто нет ( а не "в первом шкафу пальто нет")
15938147947220.jpg59 Кб, 500x500
197 1956894
>>47549 (OP)
Есть тут специалисты по GAN'ам?
Нужно ли в Conditional GAN'е смешивать реальные и генерированные метки класса по аналогии с метками реальное изображение/сгенерированное?
198 1956920
0,5/0,5*0,5
161479857224267404480x480.webm257 Кб, webm,
480x480, 0:12
199 1956986
200 1956998
>>56637
Разницы нет. Второй лосс у тебя неправильный, нужно -(log(0.6) x 1 + log(0.4) x 0) = -log(0.6), точно такой же.
201 1957011
>>56839
Ну как?
202 1957203
>>56729
Данные это классы цветов, 10 оттенков красного и т.д, каждого цвета, какие еще нужны сведенья, чтобы понять, я не совсем понимаю, говорю же дурачек я
203 1957204
>>56756
Я пытался читать про som, раз вновь советуют видимо подойдет, но для меня сложноватое было описание, словно som берет данные для класса и подгоняет точки под них, а у меня классы уже сформулированны, а точка одна только, ладно, буду читать еще
204 1957398
Сап аноны, платиновый вопрос: чо поичтать по нейронным сетям/глубокому обучению? На русском.

Сначала хотел Гудфелоу почитать, но чот на амазоне в отзывах его книгу хуесосят.
Что есть рили нормальное?
На амазоне в топе Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems
Рили годно или тож не оч?
205 1957429
бульон.jpg29 Кб, 695x294
206 1957795
>>57203
да ты заманал. опять циферки .

в чем бизнес-то?
в чем польза?
207 1957805
>>57398

>На русском


Это очень хуевая идея. Для машоба, как и программирования в целом, нужно обязательно знать английский. Без него ты даже в документации к библиотеке не разберешься.
209 1957859
>>57851

>джун 60-150


>миддл 150-300


>сеньор 300-600


Не напиздел только про нижний порог джуна.
210 1957861
>>57859
Твой варик
211 1957862
>>57861
Джун 60-100, миддл 100-150, сеньор 150-250. Это для ДС.
16131874072170.jpg484 Кб, 1497x1119
212 1957874
Почему сойбои называют zero-shot learning'ом обычный предикт? Ну то есть, берём дедовский перцептрон, обучаем его на датасете из двух классов. Затем подаём на вход свой пример, которого не было в датасете, перцептрон его относит к одному из классов. Получаем что? Zero-shot learning.
213 1957880
>>57874
Просто звучит как что-то новое. Стильно модно молодёжно. Выёбисто. По-умному. По-сойбойски.
214 1958034
Поясните что спрашивают у джунов на ML engineer? Ну допустим прогеров спрашивают по особенностям языка/фреймворка и это аналгично теории/концептам машоб для дата сайентистов. Но что аналгично задачкам по кодингу (для которых ты не должен знать все библиотеки/функции)?
216 1958072
>>58050
Ну каггл, все в курсе про него. Намек на то что я должен выигрывать соревнования? Я еще слышал джун должен иметь PhD из Стэнфорда. Да и то это только на 20тыс руб в месяц потянет для начала.
217 1958076
>>58072

>PhD из Стэнфорда


Профессор философии из ПТУ
218 1958186
>>58072

>Я еще слышал джун должен иметь PhD из Стэнфорда.


Да уж пиздец. На двачах тебя еще и не так затроллят.
219 1958241
>>58076
Ну как бы бывают очень сильные лабы в Американских/Германских мухосрансках. Так что нечего смеяться.
220 1958245
>>58186
Стэнфорд оверрейтед, какой-нибудь ИТМО уложит на лопатки по уровню студентов.
221 1958279
>>57874

>подаём на вход свой пример, которого не было в датасете


Обычно имеется ввиду что и похожих не было.
Например ты обучаешь мультиклассовый классификатор животных, но почему-то в трейне у тебя только кошки и собаки. Потом ты подаёшь на вход ящерку и с удивлением обнаруживаешь что тоже работает хотя на ящерок ты не учил. Это zero shot. Если прям совсем без ящерок не работает но достаточно добавить пару и заработает то это few-shot.
79cf57b367abbf3df3f4885ad219ee05ff812144.gif1,4 Мб, 600x386
222 1958348
>>58279
Если для nlp, то судя по примеру с transformers, zero-shot классификация это правильный выбор тега для поданной на вход фразы. Типа фраза "за кого вы голосовали?" относится к политике. Что больше напоминает именно predict, чем какой-то прямо суперхайтек. Просто у таких нейроночек датасеты, на которых обучен претрейн на многие порядки больше и разнообразнее, чем в дедовском машобе, поэтому и предикт работает поинтереснее. Одно дело ирисы Фишера, а другое какой-нибудь 40-гиговый корпус commoncrawl.
223 1958526
>>58245

> Стэнфорд оверрейтед, какой-нибудь ИТМО уложит на лопатки по уровню студентов.


Толсто
16145529600191.jpg235 Кб, 918x1224
224 1958638
>>47549 (OP)
Ну что пупсики, на дворе март 2021 года, где мой сильный ии, где чатботы могущие в осмысленный диалог?
225 1958640
>>58638

>на дворе март 2021 года


Самое время откатываться на дедовские методы - видеокарт для диплернинга все равно нет.
226 1958643
>>58640

>видеокарт для диплернинга


Майнеры задавили своими тухесами ии? Профессора философии перестали высирать свои говнопеперы?
227 1958832
>>58279
Оно в принципе работать не может, если в обучающей выборке вообще ничего похожего не было. Zero-shot - это когда обучил классификатор на кошках и собаках, а потом подсунул собаку другой породы, которой в выборке не было, и её правильно классифицирует, а не когда классификатору кошек и собак подсунули ящерицу.
228 1958837
>>58832
Как я понимаю, суть явления в том, что при таких объемах обучающего датасета и параметров самой нейроночки, она "знает" настолько дохуя, что достаточно показать несколько примеров того, что конкретно от нее требуется, а дальше она сможет в подобное же по аналогии. Уже сейчас есть модель с 1.6 триллионов параметров, следующие будут с десятками и сотнями триллионов и обученные на терабайтных и петабайтных корпусах. Понятно, что у них с этим делом все будет ещё лучше.
229 1959017
>>58832

>Оно в принципе работать не может


И тем не менее работает
231 1959177
>>59046
Спасибо Настя
232 1959197
>>59046
Ух бля сколько пиздолизов в комментах.

>Тебе нужно отрекламится у топ блогеров IT и добавить рубрику IT новости. Канал к концу года на соточку можно будет вытащить. У тебя все задатки есть хорошая съемка видео внешность грамотная речь и интеллект самое главное


>внешность



>Я, кажется, только теперь понял, зачем все преподаватели обязательно должны быть страшными, немытыми, небритыми обезьянами в грязных свитерах с недельным перегаром, и, желательно, мужского пола)


>В противном случае, материал будет усваиваться крайне плохо, внимание концентрации будет идти не туда)



>@miracl6 Тоже в голову, но..как бы в другую. Которая не совсем умеет думать) Хотя.. в моей , судя по всему, начал даже мозг появляться после твоих видео- она даже комменты научилась писать, но до датасаенса ей долековато еще).



>Я уже четвертый раз пытаюсь пересматривать и не вкуриваю о чем идет речь. У меня в голове лишь "ай, какая хорошая девочка, ай какая умница, буси-буси-буси" )



>Красивая девочка ❤️



>Когда я вижу Настю, то у меня отключается мозг и я начинаю неудержимо писать всякую фигню. Мозга и так нет, так он еще и отключается) . А если в реале увижу -то вообще и спинной мозг отлючится. Как лечить этот недуг? Кто знает?



> @miracl6 А что еще? Ну скажи, я не обижаюсь. Анонимный ютубный комментатор не склонен обижаться априори. Может...сптоксикозник? Ну нет, этот недуг характерен для подростков, а я взрослый дядя).. Что еще?



>Глядя на заставку, мне кажется , что более светлый цвет волос придает Анастасии немного мягкости и она ощущается уже не такой злостной, агрессивной и строгой тетей. Посмотрим , как будет в эфире.



>Я всегда восхищался Настиной милотой. Она мне нравится любая - даже ненакрашенная.) А делать комплименты - это залог мужчин без заниженной самооценки. Кстати, ты тоже красива и умница. Я уже писал. Единственно у меня занижена самооценка в вопросе уровня моего датасаенса.



>Но это все мелочи. Я уверен, что если бы ты совсем не красилась - мое бы впечатление не поменялось.


>Мне нравится сама твоя монера говорить, голос, твои горящие глаки. Даже твоя серьезность.Ты такая серьезница. Этот огонек, что от тебя исходит зажигает меня - и мне это нравится. Это пробуждает во мне маньячинку, а свою маниакальность я умею сублимировать в нужное русло.

232 1959197
>>59046
Ух бля сколько пиздолизов в комментах.

>Тебе нужно отрекламится у топ блогеров IT и добавить рубрику IT новости. Канал к концу года на соточку можно будет вытащить. У тебя все задатки есть хорошая съемка видео внешность грамотная речь и интеллект самое главное


>внешность



>Я, кажется, только теперь понял, зачем все преподаватели обязательно должны быть страшными, немытыми, небритыми обезьянами в грязных свитерах с недельным перегаром, и, желательно, мужского пола)


>В противном случае, материал будет усваиваться крайне плохо, внимание концентрации будет идти не туда)



>@miracl6 Тоже в голову, но..как бы в другую. Которая не совсем умеет думать) Хотя.. в моей , судя по всему, начал даже мозг появляться после твоих видео- она даже комменты научилась писать, но до датасаенса ей долековато еще).



>Я уже четвертый раз пытаюсь пересматривать и не вкуриваю о чем идет речь. У меня в голове лишь "ай, какая хорошая девочка, ай какая умница, буси-буси-буси" )



>Красивая девочка ❤️



>Когда я вижу Настю, то у меня отключается мозг и я начинаю неудержимо писать всякую фигню. Мозга и так нет, так он еще и отключается) . А если в реале увижу -то вообще и спинной мозг отлючится. Как лечить этот недуг? Кто знает?



> @miracl6 А что еще? Ну скажи, я не обижаюсь. Анонимный ютубный комментатор не склонен обижаться априори. Может...сптоксикозник? Ну нет, этот недуг характерен для подростков, а я взрослый дядя).. Что еще?



>Глядя на заставку, мне кажется , что более светлый цвет волос придает Анастасии немного мягкости и она ощущается уже не такой злостной, агрессивной и строгой тетей. Посмотрим , как будет в эфире.



>Я всегда восхищался Настиной милотой. Она мне нравится любая - даже ненакрашенная.) А делать комплименты - это залог мужчин без заниженной самооценки. Кстати, ты тоже красива и умница. Я уже писал. Единственно у меня занижена самооценка в вопросе уровня моего датасаенса.



>Но это все мелочи. Я уверен, что если бы ты совсем не красилась - мое бы впечатление не поменялось.


>Мне нравится сама твоя монера говорить, голос, твои горящие глаки. Даже твоя серьезность.Ты такая серьезница. Этот огонек, что от тебя исходит зажигает меня - и мне это нравится. Это пробуждает во мне маньячинку, а свою маниакальность я умею сублимировать в нужное русло.

233 1959262
>>59197
Пиздец, у вас там в нейроговне уже цыганки заруливают, тьфу
234 1959359
>>59046

>меня зовут Анастасия, сейчас занимаю позицию Senior Data Scientist.

235 1959361
>>59262
В прошлом треде говорили, что она хохлушка, теперь говорят, что она цыганка, охуеть.
В следующем треде надо её назвать болгарочкой.
1505819208297061501.jpg77 Кб, 950x673
236 1959365
>>59361

> В прошлом треде говорили, что она хохлушка, теперь говорят, что она цыганка, охуеть.

237 1959367
>>47549 (OP)
В дотасаенсе вообще есть работа где-нибудь кроме Москвы и Питера?
238 1959375
>>59365
Хохлы - тюрки, а не цыгане.
16133128676680.jpg47 Кб, 360x570
239 1959376
>>59046

>20-летняя шлюха


>Senior Data Scientist

240 1959379
>>59376
Красивые тянучки умеют карьеру делать.
241 1959380
>>59375

>Хохлы - тюрки


Охуеть.
242 1959385
>>59379
Так она даже не красивая, обычная Наташка.
hungary-coat-of-arms-crest-family-heraldry-and-genealogy-pn[...].jpg103 Кб, 820x660
243 1959387
>>59380
А ты думал откуда на некоторых европейских гербах парни с такими характерными причесонами? Это они с турками боролись.
244 1959392
>>59387
древние хохлы аутсорсеры
245 1959393
>>59387

>пик


Выглядит как будто хохол с невидимым телом сам себе голову проткнул и кайфует
246 1959397
>>59361

>что она хохлушка, теперь говорят, что она цыганка, охуеть


Так ты чернявых холов и малдовашек не видел? Хер их от цыган отличишь. Вот эта баба типикл Оксанка.
247 1959445
Что почитать по математической статистике?
248 1959529
>>59445
Жопеншмульцера
249 1959560
>>59529
Уа-ха-ха-ха-ха-ха-ха!
250 1959567
>>59445
D2l.ai
251 1959573
>>59529
Хватит коверкать доброе имя Шпигельхалтера!
Ну Гланц еще есть.
252 1959626
>>57805
Я могу читать документацию на инглише, но читать целую книгу по такой сложной тематике на инглише я в рот ебал
253 1959628
>>59567
Какая-то хуета для зумеров. Мне бы учебник бумажный.
254 1959630
>>59573
Вообще-то он Шварценеггер, приколист.
255 1959683
>>59628
Дотасциентисты не могут в учебники. Поэтому D2l.ai.
256 1959684
>>59385
А по-моему очень даже клёвая. Я бы даже подрочил.
436.jpeg60 Кб, 1280x588
257 1959860
>>58638

>где мой сильный ии


В Китае:

>В Китае все чаще меняют менеджеров на алгоритмы: те следят за работниками, дают им задачи и могут списать часть зарплаты


https://vc.ru/hr/209527-v-kitae-vse-chashche-menyayut-menedzherov-na-algoritmy-te-sledyat-za-rabotnikami-dayut-im-zadachi-i-mogut-spisat-chast-zarplaty

>Китайская система распознавания лиц определяет нужного человека с точностью до 99,8%


https://www.securitylab.ru/news/457581.php

>«В Китае распознавание эмоций способствовало оценке риска заключенных в нескольких региональных тюрьмах», - отмечает Global Times со ссылкой на эксперименты в тюрьме в Гуанчжоу в 2019 году. «Технология помогает тюремным служащим оценить, представляет ли заключенный потенциальный риск , включая возможные психические проблемы и склонность к насилию или суициду, и оценить вероятность повторения правонарушения после освобождения ».


За пределами тюрем государственная газета хвалила «технологию распознавания эмоций» за ее использование на дорогах, где полиция может отслеживать эмоции каждого водителя и останавливать любого с «ненормальными» чувствами. Это, как утверждалось, поможет предотвратить инциденты, связанные с агрессивным поведением на дорогах, или другое потенциально преступное поведение.
https://www.breitbart.com/asia/2021/03/04/china-using-emotion-recognition-technology-to-arrest-people/

Ну что, датасатанисты?
Построили светлое будущее?
258 1959920
Сап двач, что сейчас на хайпе в 3д cv?
259 1960163
>>59445
бамп
260 1960324
Решил разработать искусственный интеллект на основе цепей Маркова, скормил им пасты про олдов, вот что получилось:

время остановиться, но его все легко. Это не архивы спецслужб. Сюда лучше не Чикатило и даже не станет)) пиздеть не найдут.
слышали. Вам кажется странным, что украл плавленный сырок в третьем классе, на рейд, чтобы их интересам. Почему я вам все стали
твой одноклассник. Я твой одноклассник. Я твой одноклассник. Я узнал тебя по частям, тобою написанное это простое пиздабольство , обиженный жизнью
разрешения компетентных людей. Их интересы настолько высоки, что столько внимания этих людей уделено вам, ничтожным интернет-червям? Все очень просто, вы ненароком
людей, о которых вы даже не впечатляет, давай разберем по частям, тобою написанное это простое пиздабольство , рембо ты обосрался под
президентов, взрывали целые города, когда появлялась угроза их интересам. Почему я вам рассказываю об этом? Эти люди поручили мне предупредить вас.
мешки ворочить, много вас в 9м классе, на понятном тебе языке, языке боли. Ребята, не понял с кем общаешься. Вот эта

планирую заёбывать этой шизой двачеров, какие подводные?
261 1960357
>>60324
хуя эзотерика вышла
262 1960409
263 1960428
>>60324
это реально шиза
264 1961071
>>59628
Кобзарь.
265 1961131
Есть ли смысл в классическом машинном обучении?
В каких моментах он предпочтительное?
А то чет все массово перекатываются в TF2 и pytorch
И scikit используется макс для проверки полезности признаков
266 1961195
>>61131
Дата саенс это в принципе инфоцыганская хуйня. Для реального бизнеса порой достаточно экселя или R с его model <- lm(y ~ a + b + c, data=df)
1615222201638.png22 Кб, 672x284
267 1961354
Есть одна спектрограмма пикрил. Стоит задача обвести эллипсом или прямоугольником области с высокой интенсивностью. Как это сделать оптимальным образом? Через СV или как-то аналитически разрабатывать алгоритм по поиску максимумов по вертикали/горизонтали с пороговым условием и хуе-мое?
268 1961364
>>61354
С помощью python cv2 можно изи эту задачу решить. Подбираешь нужную threshold по которому отсекаешь по яркости, изображение делиться на куски, есть функция которая эти куски перебирает и есть функция которая обводит
Литерали это https://www.pyimagesearch.com/2016/10/31/detecting-multiple-bright-spots-in-an-image-with-python-and-opencv/
269 1961369
>>61131

> Есть ли смысл в классическом машинном обучении?


Есть.

> В каких моментах он предпочтительное?


Тут в один пост не уложиться

> А то чет все массово перекатываются в TF2 и pytorch


Хуйню пишешь. Вопрос в задаче

> И scikit используется макс для проверки полезности признаков


Неправда. Опять же всё зависит от задачи
270 1961375
>>60324

> планирую заёбывать этой шизой двачеров, какие подводные?


Да был уже чел, который с паскодом напускал на двач бота на нейронке, обученного на постах двача. Есть это где-то на гитхабе
Был ещё когда-то проект плагин для браузера, который отмечал скримеры в вебмке. Это не про машинку правда, а просто так вспомнил. Щас уже умерло это все, да и скримеры никто не постит почти
271 1961500
>>61131

>И scikit используется макс для проверки полезности признаков


Как сплитилка он используется. Ну и pca/кластеризации всякие
272 1961512
>>61131

tf, pytorch же только для cv, nlp?

Есть еще финтек, рекомендации/кластеринг и т.п.
273 1961539
народ
работаю разрабом на с++, иногда просят микросервисы на питоне наклепать
в целом все ок, но иногда хочется несколько более наукоемких вещей (типа cv, рекомендации и пр говно)
есть ли у вас свои или чужие кулстори о перекате из классического прогания в мл?
274 1961624
>>61539
Ты уже умеешь больше 99% обитателей треда. Гугли курсы по статистике и непосредственно мл. Для того, чтобы говнокодить на питоне в аналитике, достаточно навыков джуна. Еще можешь глянуть R, но я бы это полноценным языком программирования не назвал. Это скорее калькулятор, софт ты на нем не напишешь.
275 1961627
>>61369

>Тут в один пост не уложиться


Ну хоть примерно расскажи, в какую сторону смотреть. А то как не начнешь гуглить кейсы, сплошная хуйня в духе "мы создали нейросеть и переворачиваем пингвинов"
.png375 Кб, 1333x4000
276 1961628
>>61627
Задачи классификации и регрессии на табличных данных это бустингы. Кластеризация и системы рекомендаций тоже в основном без нейронок. Иногда нужна супер интерпретируемость, как например в кредитном скориге, тогда вообще самые простые модели вылезают типо линейной регрессии и решающего дерева
Иногда у тебя нет данных, чтобы обучить нейронку. Вот например была задача на "я проф." по машинке, где нужно было по точкам предсказать значения остальных. Трейн в несколько раз меньше тест. Тебе нужно восстановление плотности, что например с помощью knn можно сделать
277 1961630
>>61628

>как например в кредитном скориге



Я вот тут не до конца понимаю, чем занимается ответственный за это спец в банке. Он что, с утра до ночи передрачивает модель, чтобы та не оверфитилась и давала нормальные метрики?
278 1961636
>>47549 (OP)
Почему используют Питон для ИИ, если его нельзя нормально скомпилировать?
279 1961653
>>56998
Да, я тупанул, давно не чекал лосс и забыл, спасибо за ответ.
280 1961661
>>61630
С утра до ночи передрачивает данные, собственно, как и 90% дата саентистов.
>>61636
Простой язык, быстро прототипируешь модельки, куча библиотек в интернете лежит. А зачем тебе компилируемость?
281 1961662
>>61636
питон можно скомпелировать АЛЛО
282 1961663
>>61662
ну точнее да, он остается интерпретируемым, но если тебе важен сам факт компиляции, то да, его можно и скомпилить
283 1961665
>>61661
Например, как использовать tensorflow с C++ софтом? Разворачивать embedded питон?

>>61662
С tensorflow не компилируется.
284 1961677
>>61665

> С tensorflow не компилируется


не знал, молчу
286 1961684
>>61665

> Например, как использовать tensorflow с C++ софтом? Разворачивать embedded питон?


Есть инструменты для этого.
Но в любом случае питон в основном для того, чтобы исследовать что-то быстро смотреть, выводить графики и тд. Сделал модель. Можешь её хоть на чем угодном переписать
287 1961717
>>61684

>Можешь её хоть на чем угодном переписать


Если переписывать, зачем тогда питон? Сделал свою нейрочку, на ней и обучил.
288 1961720
>>61717
Потому что у тебя не получится

> быстро смотреть, выводить графики и тд

289 1961728
>>59046
>>59376
А реально ли в датасаентсе стать Senior за три года работы?
290 1961731
>>61717

>Если переписывать


Почти всегда переписывать не надо.
291 1961736
>>61728
Все от фирмы зависит. В фейсбуке например судя по тому что я читал - реально
292 1961861
>>61736

>В фейсбуке реально


Что это говорит о лицекниге?
293 1961890
>>61861
Ничего. То что ты в одной компании сеньор не значит, что ты в другой им будешь. В некоторых фирмах вообще десяток внутренних уровней есть
294 1961896
>>61624

>Ты уже умеешь больше 99% обитателей треда.


Умеет, да не то, не запутывай человека. Пока вкатыши не понимают простейших вещей типа например >>61717 никакие плюсы с микросервисами не помогут, норм млщик прежде всего должен лучше чем средний кодер мочь мозгами шевелить.
295 1961984
>>61896
я вот тот самый чел из крестов

> норм млщик прежде всего должен лучше чем средний кодер мочь мозгами шевелить.


ну блять
я тебе так скажу
норм кодер должен мочь шевелить мозгами лучше чем средний кодер
сойбои!.png120 Кб, 968x832
296 1962024
По поводу few-shot learning'a. Изучение темы приводит нас к тому, что в вопросе о самой природе явления мнения соевых ученых разделились.
- одни прямо заявляют, что few-shot learning и "метаобучение" синонимы, и предполагают только работу через обращение к готовой модели (в т.ч. файнтюненной), без какого-бы то ни было абдейта параметров. Собственно, https://arxiv.org/abs/2005.14165
- другие называют few-shot learning'ом файнтюнинг, но с небольшим количеством обучающих примеров, т.е. с абдейтом параметров модели. Например, https://arxiv.org/abs/2012.09543
Так кто прав-то?
297 1962075
>>62024
Зависит от определения
298 1962084
>>62075
Но это же принципиально разные вещи, у них не может быть одного названия.
299 1962094
Мое мнение - правы вот эти из опенаи https://arxiv.org/abs/2005.14165 потому что обновление весов обученной модели это по определению файнтюнинг, неважно сколько там примеров, 1 или 100000, сам процесс-то один и тот же.
image80 Кб, 1139x96
300 1962096
>>62084
А ещё интеграл римана и неопределенный интеграл это принципиально разные вещи. И лук-растение и лук-оружие.
К тому же в первой статье они явно пишут, что им не нравится термин "zero-shot", поэтому в рамках статьи они называют свой подход "few-shot learning'ом".
301 1962123
>>62024
Конценсуса в сообществе не сложилось, понятия "прав-неправ" не имеют смысла.
302 1962145
Плюсисту (три с половиной года опыта галерного стажа) есть место в вашем говне? Или только пистон и модные фреймворки? Бэкпроп руками не напишу.
303 1962157
>>62145

>Бэкпроп руками не напишу.


И не надо.
304 1962173
>>62157
А всякие выпуклые, нелинейные оптимизации, численные методы, матстат? Или с этим только исследователи копаются?
305 1962179
>>62173
Ты определись с тем, что ты хочешь, тогда приходи
306 1962195
>>62173
Если ты хочешь просто деньги зарабатывать, то всё это тебе не надо.
Всякими сложными штуками занимаются исследователи, но им деньги не платят.
307 1962276
>>62094

>неважно сколько там примеров


Если ты вапникошиз, которого интересуют только маняматически точные утверждения - то конечно неважно. Если ты норм чел то понятно что ситуации в десять примеров и в миллион отличаются качественно. Хотя бы тем, что во втором случае придётся сильно задрачиваться с тем чтобы столько данных накопать и их разметить.
308 1962282
>>62195

> Если ты хочешь просто деньги зарабатывать, то всё это тебе не надо.


А нахуя вам работодатели деньги платят лол? Какие у вас уникальные скилзы? Знание фреймворков и все? Как вы конкуренцию выдерживаете если статистика с бэкпропом вам не нужны?
309 1962292
>>62282
Потому что СЕО в бизнесах не в курсе ка к все это работает. Поэтому 50% этих дата сайентистов - тянки, там нужны пипл скиллз чтобы наебывать. Но этот пузырь через пару лет лопнет. Будут только дата инженеры нужны (но это не настолько хайпово-весело). Ну и еще теоретики-математики которые будут теории новые выдумывать (но тут нужна серьезная мат./кс база и ПхД).
310 1962299
>>62292
Вот не скажи. Скиена пишет, что программисты просто НЕ УВАЖАЮТ данные.
Так что тянки, которые просто уважают данные и знают немного статистики постоянно нужны.
311 1962312
>>62282

>А нахуя вам работодатели деньги платят лол?


За то же, что и программистам, за макакинг.

>Какие у вас уникальные скилзы?


Тряска чёрного ящика с умным видом.

>Знание фреймворков и все?


По сути.

>Как вы конкуренцию выдерживаете если статистика с бэкпропом вам не нужны?


Тут подсидел, там подлизал.

А если более серьёзно, то вот, например: >>1950226 →.
312 1962365
Ну хер знает, какая-то она не очень умная
https://www.youtube.com/watch?v=UxGebZpYVfM
Хотя на фоне этих двух додиков кодерков не так в глаза бросается
313 1962369
>>62282

>статистика с бэкпропом вам не нужны


Нужны, просто ручками их писать не надо
314 1962374
>>62365
Опять молдаванку форсят.
315 1962378
>>62374

>молдаванку


Циганка или хохуха
316 1962385
>>62312
Ну по сути ничего не изменилось. Просто придумали новое имя для аналитиков. И заставляют их теперь еще алгоритмы и питон учить.
317 1962415
Это вообще норм, что вы вместо гига чада Бабушкина форсите какую-то лоу тиер бабень с нулевой харизмой?
318 1962469
>>62415

>гига чада


>Бабушкина


Выбери одно.
319 1962524
>>62415
Сорта никому не нужного ноунейм зумерья, которые сами сюда приходят пиариться.
320 1962579
>>62524
Не думал, что этот тред центр мира, чтобы стоило тут пиариться
321 1962595
>>62579
какая борда такой и пиар
322 1962641
323 1962663
>>62524

>ноунейм


>бабушкин



Понимаю
324 1962664
>>62292

>теоретики-математики которые будут теории новые выдумывать



И писать их на R или матлабе
325 1962731
>>62664
Всегда будут макаки, которые перепишут это на любой промышленный маняязык.
326 1962752
Сберкасса - это когда нихуя не работает (пик 1). Хотел запустить их куколаб с ругпт3, сходу ошибки (пик 2). Полез проверить их гитхаб, т.к. не поверил, что проблема во мне, так и есть, лол, в issue с самого же верха открытые проблемы - это репорты о том, что нихую не работает.
>>62663
Что не так? Ноунейм и есть. Я знаю, кто такой Суцкевер, да даже кто такой Килхер. А про бабушкина только здесь и вижу упоминания.
327 1962760
>>62752

> Я знаю


Интересно как ты вообще млкой занимаешься, если даже не знаешь, что личный опыт не репрезентативен
1.png38 Кб, 1024x633
328 1962777
Причем, сама их сеть вроде даже работает, если запускать стандартно. А сами они ноутбук для куколаба написать не осилили.
329 1962813
>>62641

>няша


Это твой гомосекс-символ?
chtuh[1].jpg6 Кб, 249x203
330 1962957
У хохлов пузырь дата-саенса уже лопается.

>Ще з цікавого: вперше за декілька років зниження частки Python: можливо, використання Data Science дійшло до точки насичення.


https://dou.ua/lenta/articles/language-rating-jan-2021/
331 1962999
>>62957

>У хохлов пузырь дата-саенса уже лопается.


>>47549 (OP)
Заглянул в ODS, и что я вижу:

>Всем привет!Снова OZONна связи. )


>Кого ищем:


>Ищем к себе в направление клиентской аналитики крутых продуктовых data-аналитиков.


>ЗП: Вилка - 150-200 для синьоров (их и ищем).


150 тысяч российских рублей (2K$) - это уже синьор!
332 1963004
>>62999

>150 тысяч российских рублей (2K$) - это уже синьор!


Да уж, смехотворно.
Всего-то в 5-6 раз выше зп среднего профессора в сраной рашке.
333 1963037
>>62999
Так аналитик это не дс или мл или в чем подвох?
334 1963054
>>62999

>150 тысяч российских рублей (2K$) - это уже синьор!


А что не так? Если вне ДС, то вообще заебись. По уровню жизни эквивалент $200k/y в Штатах.
335 1963066
>>63054

>Территориально - офис Москва-Сити


Нет, это в ДС((
336 1963086
>>63066

>Нет, это в ДС((


Ну значит считай, что как $120k/y в NYC. Все равно вполне достойно.
337 1963097
>>63086

>только выиграли!

338 1963099
>>63086

>считай, что как $120k/y в NYC


Где пруфы расчетов?
339 1963102
>>63099

>Где пруфы расчетов?


Вот.
340 1963211
>>62999
Ну вот в европку/штаты/японию едь если хочешь 3к+. Ах да, там же конкуренция в 1млн индусов сеньор уровня готовые работать за еду и визы.
341 1963246
>>63054
>>63066
А вы в курсе, что единственное, что в ДС реально дороже, чем в России, это недвига?
342 1963274
>>63246

>единственное, что в ДС реально дороже


А вы в курсе, насколько?
343 1963319
>>47549 (OP)
Вечер в Хату, посоны. Сам я инженегр в основном бекэнда, но за 10 лет заебало. Попробовал посочинять нейронки, понравилось. Не MuseGAN пока получился, но для хеллоу ворлда сойдет.

Есть желание перекатиться полностью, не потеряв при этом текущей зарплаты сеньора-помидора. Не сильно ли я губу раскатил?
344 1963332
Как вы строите графики для огромных массивов? Какой-нибудь hist например?
345 1963343
>>63332

plt.hist()
или
df.plot(kind='hist')
346 1963355
>>63332
Никак. У меня в altair лимит на 5000.
347 1963356
>>63319
Конечно, потеряешь. В этом и ссуть.
Заметь, с каким энтузиазмом тут обсуждают кодерские вопросы и обоссывают Orange. Млщикам очень хочется быть кодерами, но они не могут.
348 1963370
>>63356

> обоссывают Orange.


Его и надо обоссывать, с тобой вместе. Трансформеров там нету, в облаке он работать не может. А для всего остального есть R.
Screenshot20210311-134234.png104 Кб, 720x1280
349 1963395
Что-то эта сберовская "rugpt3" подозрительно хорошо работает с англюсиком, при этом по размеру и количеству параметров как gpt2-large. Сдается мне, это она и есть, только зафайнтюненная на каком-то русскоязычном корпусе. Сравнить бы их структуру, которая выдается командой model(), но это надо в браузере делать, с тилибона там толком ничего не сравнишь, выдача большая... Тут https://press.sber.ru/publications/neiroset-sbera-rugpt-3-stala-vdvoe-umnee ещё пишут про XL вариант с 1.3млрд параметров, что так же соответствует gpt2-xl. Совпадение? Да, совпадение.
350 1963401
>>63274
А вы в курсе, насколько дешевле всё остальное?
352 1963409
>>63408
Читал. Там тоже не написано как такое возможно.
353 1963520
Дайте совет зумеру-вкатышу-трясуну.
Как вы выкладываете свои пет-проекты для портфолио в сеть? Заливаете куда-нибудь на хероку? Или просто бросаете валяться в гитхабе?
2021-03-11 163011.png96 Кб, 1407x710
354 1963758
>>63409
Хуёво читал значит
355 1963828
>>63758
Нормально читал. Как ты вектор размерностью 512 умножишь на вектор размерностью 64?
356 1963840
>>63828
Ресайзну в (, 64)
357 1963842
>>63840
Ага, от 512-мерного вектора откусить первые 64 значения, а остальные тип нахуй не нужны))) Гениально, апплодирую стоя...
358 1963845
>>63842
Какой откусить это будет шейп (8, 64) на (64, 1). Но я вообще мимо, не читал пока о чем мы
359 1963849
>>63845

> шейп (8, 64)


Но тогда и матрицы весов Wk, Wq и Wv должны быть 64х8, а там про их размерность ничего не сказано. Короче, это все зумерство какое-то, надо код трансформера смотреть, как там это сделано...
360 1963883
>>63370
Блоки в Orange можно соединить лишь одним способом. Способов облажаться в питоне и R для начинающего масса.

Не позволю обоссывать
361 1963888
>>63370

> Трансформеров там нету,


Есть PCA и t-SNE.
А если тебе не хватает, эту задачу в принципе не стоило решать.
362 1964029
Куда копать в сторону программ самих изменяющих и дополняющих свой сорс код с минимальным участием человека? А также фишки когда прогу запускают в интернет и она по определённым запросам поисковиков "обучается" в чём-либо?
363 1964056
>>64029

> Куда копать в сторону программ самих изменяющих и дополняющих свой сорс код с минимальным участием человека?


Да тут ничего сложного. Можно просто подготовить свою модифицированную копию и запустить. Либо через динамические библиотеки делать и их заменять. Если язык скриптовый, то вообще как угодно можно вертеть
Только нахуя это?

> А также фишки когда прогу запускают в интернет и она по определённым запросам поисковиков "обучается" в чём-либо?


Что за прога? Обучается чему? Типо scraper поисковый?
364 1964083
>>64056

>Что за прога? Обучается чему? Типо scraper поисковый?


Ну вот ты книжки читаешь, умнее становишься. А я такую прогу хочу сделать. Тонны байт информации в интернете, а юзать некому.

>Только нахуя это?


Ну вот ты книжки читаешь, развиваешься: нейрончики, миелинчик, дофаминчик, вся хуйня. Вот и прога будет обучаться и новые фичи сама для себя писать и их же потом применять. Круто же.
365 1964101
>>64083
Понятно. Вкатывайся потихоньку. Узнаешь насколько инвалидная и узкозаточенная хуйня этот дип ленинг. Ты не просто не можешь нейронке любой набор данных скормить. Ты должен очень сильно постараться, чтобы нейронка обучилась на подобранном тобой наборе данных под конкретную однобокую задачу.
Если хочется сказки почитать про сильный интеллект, то Фристон и Шмидхубер пожалуйста. Но там близко ничего нет к тому, что ты написал
366 1964133
>>64101
С чего-то начинать надо. Всё равно объективно лучшего плацдарма пока нет.
367 1964145
>>63828
По-моему у тебя случай когда нужно либо английский либо линейную алгебру подтянуть сперва прежде чем за трансформеры хвататься.
Действуешь матрицей n x m на вектор размерности m получаешь вектор размерности n. m = 512 это эмбеддинг, n = 64 это вектора атеншена.
368 1964153
>>64145
я вот мимокрокодил
но
я правильно понимаю, что он не знает правило перемножения матриц? в машоб треде?
369 1964178
>>63828
Короче прочитал о чем вы.
1 слово в эмбендинге это (1, 512). Матрица весов (512, 64)
images.jpeg6 Кб, 300x168
370 1964339
>>64153

>я правильно понимаю, что он не знает правило перемножения матриц? в машоб треде?

371 1964340
Какие темы по линалу стоит повторить перед ботанием ML?
372 1964351
>>64340
Перемножение матриц.
373 1964413
>>64340
разложения
374 1964682
Аноны, а можно Pipline встроить как то объединение датасетов?

В общем есть дата сет. В нём одно поле - текстовое, которое я хочу пустить в tf-idf, т.е. хочу следующий конвейер:

текстовое поле -> tf-idf -> слияния результата с остальным дата сетом -> грид сёрч

Как это сделать?
16142861141470.jpg67 Кб, 592x532
375 1964691
>>64682
А что, выполнение линейной последовательности команд уже отменили?
376 1964695
>>64691
так это для тупых же, не?
378 1964871
Как там ваша gpt3? Уже дошла до уровня чатбота?
379 1964969
>>64871
Даже гпт2 давно тесты Тьюринга и Войта-Кампфа проходит, где-то видел код для куколаба. Претрейны Гпт3 пока жопят вылаживать да и толку с них, в куколабе даже gpt2-xl с 1.3млрд параметров еле дышит, а версия от huggingface вообще отваливается, памяти мало, гпт3 там вообще хуй запустишь, но ясно же, что у нее со всем этим намного лучше.
380 1965260
>>64969

>Даже гпт2 давно тесты Тьюринга и Войта-Кампфа проходит


Пруфы?
381 1965336
>>64969

>тесты Тьюринга


Это когда в жопу ебут?
382 1965343
>>65336
Тюрингу наоборот химическую кастрацию делали чтобы в жопу не ебался.
383 1965386
>>65260
В 99% тесты выглядит как "я показал текст из gpt моей маме и она не отличила его от человеческого". До прохождения нормального теста тьюринга ещё очень далеко.
384 1965389
>>65386

>До прохождения нормального теста тьюринга ещё очень далеко.


Бесконечно далеко.
385 1965440
>>65343

>химическую кастрацию делали чтобы в жопу не ебался


Ну так его в жопу ебали, Белоснежке норм было
386 1965927
Кто может с GAN-ом помочь?
387 1966203
>>65927
Сразу вопрос вкидывай
388 1966219
>>66203

>вопрос


Там, наверное, код-ревью понадобится.
В общем, из GAN'а был сделан Conditional GAN.
Обучение имеет такой вид (pic1, pic2).
А вот при попытке визуализировать на каждой эпохе выход генератора через
torchvision.utils.save_image(gen_batch, '{}.png'.format(epoch+1))
получается такое (pic3). И это на 10 эпохе, т.е. хоть что-то уже должно быть.
В чём может быть ошибка? В визуализации? В модели? В чём-то ещё? Как это можно поправить?
389 1966486
>>66219

>В чём может быть ошибка? В визуализации?


Ну это ты должен был сразу посмотреть, глянув на выходы генератора. Судя по тому, что генерирует цвет из границы ргб (ff00ff) save_image не скейлит ничего или неправильно скейлит.
Тестировал код на mnist/cifar?
Ещё лучше следить за confusion_matrix, а не лоссом, потому что последний мало что значит в ганах.
390 1966884
>>66486

>Ещё лучше следить за confusion_matrix, а не лоссом, потому что последний мало что значит в ганах.


Почему?
1615722113277262001256x256.webm2,3 Мб, webm,
256x256, 1:13
391 1967082
>>47549 (OP)
Очередной прорыв111
1615713459256252243256x256.webm945 Кб, webm,
256x256, 0:30
392 1967083
1615720369249991324256x256.webm886 Кб, webm,
256x256, 0:25
393 1967085
161573237526437189256x256.webm744 Кб, webm,
256x256, 0:25
394 1967086
395 1967087
2021г, нивираятные тихналогии ИИ!
396 1967088
>>67087
Сделай на ЭС такое, потом приходи, маня
397 1967089
>>67088
Конечно, ведь поющие котики это то, что нужно человечеству!
Деграданты ебаные
398 1967093
>>67089

>Конечно, ведь поющие котики это то, что нужно человечеству!


Копетоглизму нужно не то, что нужно человечеству, а то, на чём можно заработать.
399 1967094
400 1967095
>>67089
>>67093
А что нужно человечеству, поведай, кук. Калмунизм, вечная автономная капсула буйлерон зимой жарко?
401 1967096
>>67093

> Копетоглизму нужно не то, что нужно человечеству, а то, на чём можно заработать.


Мань, а ты не видишь противоречия в своем кукарекании? Как можно заработать на том, что никому не нужно?
402 1967097
>>67095
Автоматизация диагностической медицины например.
403 1967100
>>67096

>Как можно заработать на том, что никому не нужно?


С помощью целенаправленного одебиливания населения и вездесущей рекламы.
Screenshot20210315-123712.png1 Мб, 720x1280
404 1967102
>>64178

> Короче прочитал о чем вы.


> 1 слово в эмбендинге это (1, 512). Матрица весов (512, 64)


>>64145

> По-моему у тебя случай когда нужно либо английский либо линейную алгебру подтянуть сперва прежде чем за трансформеры хвататься.


> Действуешь матрицей n x m на вектор размерности m получаешь вектор размерности n. m = 512 это эмбеддинг, n = 64 это вектора атеншена.


Да нет, там совсем не так. Смотрите, там прямо написано, что входной эмбеддинг Х имеет размерность 512 х длина фразы. Матрица весов Wk, Wq и Wv имеют размерности 64 х длина фразы. Мне и интересно, как из матрицы 512х3 получили три матрицы 64х3. Автор индус хуйню написал, или как это понимать?
405 1967139
- Сойбои не делают то, что поможет человечеству
- Так делайте сами
- Кто? Я?
406 1967155
>>67087
Так это получается тикток уже не нужен, просто берёшь человека и он кривляется.
Без названия.png7 Кб, 259x195
407 1967164
>>67155

> тикток уже не нужен, просто берёшь человека и он кривляется.


Ожидания: ии заменит водителей, строителей, дворников
Реальность: ии заменил зумеров в тиктоке
408 1967176
Есть же вокалоиды, ви-тюберы, а теперь техника дошла до возможности ви-тиктокера. Берём как шаблон какого-либо мемного малолетнего долбаеба, и помещаем его на разные фоны, поющего разную модную у зумеров мемную херню. Годный стартап, как думаете?
409 1967188
>>67176
Думаю, что ты душнила старая, которая не шарит в том, что нравится зумерам, на уровне деда размышляешь.
16156895355580.jpg47 Кб, 592x532
410 1967195
>>67188

> душнила старая, которая не шарит в том, что нравится зумерам,


Вас чем промывают, то вам и нравится, своего мнения-то нет. Что нравится зумерам, можно легко нагуглить.
411 1967218
>>67195
Дядь, мне 29 годиков, но даже я не настолько оторван от реальности в полустарческом маразме под музыку Caretaker'а, когда кажется годной идея дрыгать перед борзыми и наглыми малолетками AI-марионетку и думать при этом что это "годный стартап".
412 1967241
>>67218
Ви-тюберы же вам зашли, а это ничем не лучше.
413 1967310
>>67241

>это ничем не лучше


Ох, какой же додик ты. Ну пили свой годный стартап, хули. Просто это как с научными пейрепами, если ты за пять минут придумал гениальную идею, как заработать кучи бабла, с вероятностью в 90% о ней уже подумали другие и задолго до тебя.
414 1967375
>>67176

>Годный стартап, как думаете?


Думаю да, можно еще с зумеров бабосы на реализацию состричь
415 1967526
аноны, что на собесах по теорверу спрашивают?
416 1967587
>>67526
Очевидно, зависит от того, куда идешь...
Что такое матожидание? Что такое дисперсия? Когда лучше использовать медиану, а не среднее? Какие вероятностные меры на B([0, 1]) существуют?
417 1967848
>>67587
Получились вопросы уровня /b. Реально такую ерунду спрашивают?
15891301903260.jpg128 Кб, 500x705
418 1967994
>>66486

>Ну это ты должен был сразу посмотреть, глянув на выходы генератора.


Проблема оказалась в модифицированном генераторе, он на выходе выдаёт:
tensor([[[[ 1., 1., 1., ..., 1., 1., 1.],
[ 1., 1., 1., ..., 1., 1., 1.],
[ 1., 1., 1., ..., 1., 1., 1.],
...,

Из-за чего это может быть? Из-за конкатенации тензоров?
419 1968020
>>67994
Судя по всему, это действительно из-за конкатенации тензоров разного типа
https://github.com/pytorch/pytorch/issues/35014
Теперь вопрос, что с этим делать? Тензор картинки имеет тип torch.FloatTensor, тензор метки torch.LongTensor.
Если их сравнять, вылезает:
RuntimeError: Expected tensor for argument #1 'indices' to have scalar type Long; but got torch.cuda.FloatTensor instead (while checking arguments for embedding)
421 1968148
>>68140
Хватит форсить эту селедку. Тем более что ее топ вопросов тянет максимум на собеседования стажеров.
422 1968188
>>68148
ИМХО, причина, по которой её тут форсят — смазливое личико.
423 1968425
>>68148
Так вопрос был видимо от претендента на стажерскую вакансию, иначе бы знал что спрашивают.
424 1968472
>>68148
Да не, у нас стажеров давно просят сверточную нейронку с нуля на С++ написать. Ну а что, понасмотрятся этих видосов, заучат ответы, а потом страдают. Ну и ЗП мы конечно не платим.
425 1968493
>>68472

>Ну и ЗП мы конечно не платим.


Еле концы с концами сводите?
426 1968513
>>68493
Концы с щёками стажёров
427 1968541
>>68493
Наоборот. Но когда у тебя тысячи вкатунов готовы умирать за еду в надежде на светлое будущее через год (ну и 2k+ EUR) смысла нет тратиться.
428 1968595
>>68541

>2k+ EUR


За смешных, поющих котиков могли бы платить больше
429 1968822
>>68140
Вот на неё у меня всегда стоит!
430 1968888
>>62957
Ну и как мне теперь вкатываться? Через полгода вузик заканчиваю.
431 1968952
>>68472
Это где так? В хуавее?
432 1968971
Тупейший вопрос.
Как накидать офлайн распознавалку рукописного текста?
без регистрации и смс
433 1969101
>>68952
В ДипМайнде, секретное подразделение в ДС2.
434 1969114
>>69101

>ДипМайнд, секретное подразделение в ДС2


>>68472

>стажеров давно просят сверточную нейронку с нуля на С++ написать


>понасмотрятся этих видосов, заучат ответы, а потом страдают


>ЗП мы конечно не платим



А что в ДипМайнд тоже макак набирают?
435 1969120
>>69114
Да, кто-то же должен в атари устанавливать human perfomance, для бенчмарка. Там и вопросы попроще, а ля "чем SGHMC отличается от динамики Ланжевина?".
436 1969135
>>69120

>динамика Ланжевина


>ЛанжевИна


Охуеть, какие умные слова знают эксперты из секретного подразделения ДипМайнд!
437 1969136
>>69135

>Paul Langevin


извините
438 1969138
>>69136
По рузге через Е пишут обычно. Всегда.
439 1969140
>>69138
не розумию
61D7B605-DE34-4238-843C-584C15B02503.jpeg13 Кб, 320x180
440 1969176
>>69140

> не розумию

441 1969186
>>69120
Ладно, у меня вопрос.
Типа если у меня есть пхд по фундаментальной математике от среднего американского универа, меня возьмут в секретное подразделение ДипМайнд немакакой?
Кто-то может помочь? 442 1969195
Обучал нейронку на данных, загруженных через tensorflow.keras.preprocessing.image_dataset_from_directory( ), теперь не могу получить результат работы ИИ через model.predict(). Что делать? Какой формат данных он хочет для новых изображений?
443 1969221
Ещё тоже совершенно тупая фигня, но кто-то знает как импортнуть ИИ из h5 файла?
15994909255530.jpg115 Кб, 592x532
444 1969260
445 1969276
>>69186
А вы какой национальности и пола? Русских не берем. У нас диверсити квота.
446 1969314
пацаны, короче вопрос
я в стартапе занимался облаками точек
сейчас хочу влететь в cv с изображениями
посоветуйте плиз какой-нибудь проект, чтобы было не стыдно выложить на гит (да и попрактиковаться, на самом то деле)
спрашиваю, потому не что не хочу объебаться с тем, что сделаю что-нибудь, а мне техлид на собесе скажет, что это любой дворник умеет
мб изъебистую сегментацию, детекцию? короче помоги двач, скажу всем спасибо за это
АЛСО
важно
какой матан спрашивают на собесах и какая часть от спрашиваемого на собесах нужна в работе? мне помимо ангема, линала и чуточку дифф геометрии нихуя не пригодилось. Но часто вижу, то то теоревер требуют, то еще что-то
буду про кубики спрашивать?)
447 1969365
>>69276
Набираете только небелых лгбт немужчин мусульман, верно?
И как успехи?
Гугл ещё не обанкротился с такими работниками?
image64 Кб, 1189x360
448 1969371
449 1969517
>>69365
Кто нам будет делать поющих котиков если не негропедики?
450 1969644
>>69365
Наоборот. Нет прыщавых асоциальных и упрямых задротов, которые думают что лучше всех и саботируют работу.
451 1969679
>>69644
Ага, то есть вы нанимаете тупых долбоебов негропедиков, чтобы не допустить, чтобы кто-то оказался умнее вас самих?
В принципе верная стратегия для современной эпохи всеобщей дебилизации.
452 1969701
>>69679
Причем тут негры вообще? Они и сами работать не пойдут, не царское дело. Типичная кодомакака в Гугле это индус или китаец.
453 1969702
>>69679
Нет, sweatey, посмотри статистику. Азиаты, например, всегда и везде лучше белых в вычислительных науках. Женщины лучше в колледжах и больше подходят для научных и околонаучных работ по многим причинам. ИТ как и наука начиналось как убежище для белых задротов и сейчас они паникуют когда это превращается из закрытого клуба для нердов в что-то для всех. И выясняется что они не такие то крутые/умные как им мамка говорила. Рыночек порешал.
454 1969718
>>69702

>Женщины лучше в колледжах и больше подходят для научных и околонаучных работ по многим причинам


Назови одну.
455 1969722
>>69702
толсто уже
456 1969723
>>69702

> Рыночек порешал.


> квоты


Выбери что-то одно.
457 1969728
>>69723
Как минимум в среднем по аккуратности/организованности. Если ты делал науку то в курсе как это важно.
458 1969736
>>69723
Всё так. Не согласен - сделай свой рыночек без квот
459 1969737
>>69723
Ну сейчас рыночек и решает что белые мужики не нужны. Квот нет, есть статистика что наличие хотя бы одного коллеги твоего пола или национальности бустит твой перформанс. Так и вышло в универах, раньше пиздили результаты/работы у женщин тк они были одиночки и не могли ничего противопоставить и были квоты на одну женщину в год (на ПхД) для мат.департаментов в топ универах в США например. Как это убрали так женщины (а потом и азиаты) начали постепенно аутперформить белых мужиков и захватывать универы. Кстати в топ униках США до сих пор есть квоты на азиатов, иначе все бы давно в индусах и прочих азиатах было бы. Все это легко гуглится если хочешь больше инфы.
460 1969739
461 1969747
>>69702

>Азиаты, например, всегда и везде лучше белых в вычислительных науках.


Только почему-то математику белые двигали.
Американские азиаты - потомки элитных китайцев, которые могли переехать из Китая, когда там пиздец творился. Американские негры - потомки случайных негров, выживших при транспортировке. Белые - европейских нищуков и сектантов.
https://www.youtube.com/watch?v=w9XXQYGMvTk
462 1969749
>>69747
>>69737
>>69736
ой хуйню обсуждаете какоую-то
лучше бы мне ответили тут бля >>69314
463 1969755
>>69749
Нейронка, подключенная к камере, которая распознает, то чему ты ее научил.
464 1969756
>>69755
и это ок? типа просто распознование объектов?
465 1969757
>>69755
или тут проблема в риалтайме?
466 1969784
>>69718

>Назови одну.


Gender studies.
467 1969826
>>69728

>аккуратности/организованности


Ну да, в прикладной/экспериментальной массовой херне это самое важное.
Для нормальной науки мозги нужны, а не это вот.
468 1969831
>>69737

>раньше пиздили результаты/работы у женщин тк они были одиночки и не могли ничего противопоставить


Это тебе твои духовные наставники радфемки сказали?
469 1969862
>>69826

>трясун ящика


>нормальной науки

470 1969872
>>69831
тссссс, сейчас в тит-токе тебя обосрет
471 1969874
>>69872
хаахах бля я как дед тик ток написал
КЕК
472 1969876
>>69862
При чём тут тряска ящика? Речь шла про науку.
473 1969880
>>69747

> Американские азиаты - потомки элитных китайцев, которые могли переехать из Китая, когда там пиздец творился.


Да. Так же и американские индусы тоже илитка из высших каст, а не из тех кто серит посреди улицы, а потом пьет воду из Ганга верхом на недоеденном трупе.
>>69737

> Ну сейчас рыночек и решает что белые мужики не нужны.


Это решает (((повесточка))), а не рыночек. Рыночек как раз веками решал в пользу белых мужиков.
474 1969909
>>69728
Аккуратность и организованность никак не зависят от наличия пизды.
475 1969912
>>69909
В радфем религии зависят.
476 1969924
>>69880

>Рыночек как раз веками решал в пользу белых мужиков.


И откуда же в этом чудесном рыночке взялась повесточка?
suffrage1[1].jpg166 Кб, 640x443
477 1969951
>>69924
Она появилась с того момента, когда развалилась сельская община и европейцы стали переезжать в города, чтобы работать на заводах.
478 1969964
Валите отсюда, левоправые школьники вонючие
479 1969978
>>69964
вот и я про то же
лучше бы мне про проект подсказали)))))
53007original.jpg29 Кб, 600x300
480 1970016
>>66486
>>68020
Ещё раз знатоки.
Есть тензор нормализованной картинки и есть тензор меток.
Первый имеет тип float32 и его значения, грубо говоря, в районе -1...1.
Надо ли тензор метки:
1) Так же приводить к float32?
2) Как-то шкалировать, чтобы его значения не сильно отличались от значений тензора картинки.
481 1970077
>>70016
погоди, а что у тебя является меткой?
482 1970078
>>70077
Жанр картинки.
Это ж Conditional GAN. Тензор картинки и тензор метки потом конкатенируется в дискриминаторе и генераторе.
483 1970081
>>70078
соре, с ганами не работал никогда
но если конткатинируется, то выглядит так, будто 1) надо 2) завист от того, насколько сильно отличается от изображения. Если порядки совсем пиздец какие разные, то да, надо. Если нет, то можно и обойтись. Имхо, робастнее сделать шкалирование в любом случае
484 1970193
>>70081
Спасибо, но всё равно какая-то хня.
485 1970194
>>69876

>При чём тут тряска ящика? Речь шла про науку


99% ученых в говне моченых этим и занимаются.
486 1970264
>>70194
Это правда. Сети становятся глубже, параметров - больше, прорывных идей - меньше, вот и трясут свои трансформеры и имажнеты.
487 1970338
>>70194
Ёбаный ты сука долбоёб, речь шла про НАУКУ, вообще, блядь, НАУКУ, а не про твоё тупое R&D в области дотасаенс.
488 1970468
>>70338
бля да заткнись ты уже
иди в /b и там спорь про то какие женщины охуеные (а если черные, то вообще тониньки старки) а мужло - тупое
а тут дай людям за машоб тереть
Untitled.png78 Кб, 1285x872
489 1970509
Вакансия на 4-8к бачинских.
https://hh.ru/vacancy/43128938
490 1970522
>>70509
Требования как у джуна + 8 лет опыта.
491 1970582
>>70522
да напишут как на джуна
выебут на собесе как на сеньера
вон, в яндексе по-моему в описаниях всегда ультра лайтовые требования
а на деле мало кто туда попадает
492 1970828
>>70582

>в яндексе по-моему в описаниях всегда ультра лайтовые требования


Там уже в анкете просят List three papers you like from the ICML, NeurIPS, ICLR, CVPR, ACL, KDD, ICCV, ECCV, EMNLP conferences published in 2018-2020 and explain why you like these papers and consider them important. We expect at least two or three sentences per article, but your comments can be as long as you wish.
А это только INTERN researcher.
Интересно, что жопеншмульцерошизик написал бы.
493 1970869
>>70828
ну ты сравнил, братишка
ресерч вакансии и гребцов
ты в раздел "разработка" зайди
494 1971063
>>70828

>А это только INTERN researcher.


Так в чем проблема? Просят прочитать пейперы, а не писать самому. Этим по сути занимаются вообще все машобщики.
495 1971124
помогите, я тупой. Задача придумать сеть, которая должна плюсовать и минусовать интеджеры. С одним нейроном и линейной функции можно простую сумму сделать. А как с минусом? Второй вес -1 сделать?
496 1971138
>>71124

>Второй вес -1 сделать?


Да. И ещё, лучше беги из того места, где тебя заставляют это делать.
497 1971142
>>71063

>прочитать пейперы


>Этим по сути занимаются вообще все машобщики


Смешная щютка.
498 1971159
>>71138
не могу, диплом уже на горизонте.
499 1971385
А можете каких-то около-религиозных или философских вдохновляющих статей накидать на тему ии и прогресс в науке и технике?

Не про вычистку датасетов, а про светлое будущее, что всё больше задач решается компьютерами и всё в таком роде.
Я просто не знаю как это загуглить, чтобы что-то интересно найти - а не ненаучно-популярные статьи для обывателей, которые на что угодно поведутся и не отличат важную новость от несущественной.
Безымянный.png25 Кб, 1012x576
500 1971532
Уж не помню, вроде никто так и не ответил, продублирую.
Какой способ расстановки рессвязей лучше и почему?
502 1971656
>>70468

>иди в /b и там спорь про то какие женщины охуеные (а если черные, то вообще тониньки старки) а мужло - тупое


А нахуя ты мне это пишешь, шиз? Пиши это той чёрной транс лесбо квир небинарной андрогинной фемке мусульманке, выёбывающейся своим дипмайндом и дайвёрсити, с которой срач начался.
503 1971659
>>71385
Sir Роджер Пенроуз, "Тени Разума".
504 1971663
>>71142

>Смешная щютка.


Если не хочешь изобретать хуево работающие велосипеды, то читать пейперы придется.
505 1971664
>>71663
Я знаю.
506 1971666
>>71656
За что люблю современный "двач", я могу любую чушь написать и мне будут всерьез отвечать и пригорать с этого, лол.
16161645359040.mp4235 Кб, mp4,
360x360, 0:07
507 1971676
508 1971685
>>71385

>около-религиозных или философских вдохновляющих статей


Ох уж эти мамкины ценники аметисты. Был им Боженька и Царствие Небесное - фууу веруны бох мертв))...
ой а дальше що делать-то? Швитая Нейросеточка, спаси и сохрани от лукавого...
509 1971755
>>71685
Не трясись так
510 1971811
Насколько сложно будет сделать войсморфер под определённого человека и в какую сторону копать?
Не общего назначения, а мой голос превратить в голос определённой девушки.

Не столько сделать, сколько попрактиковаться и попробовать разное.

Пробовал классической программой выделять первые n гармоник на спектрограмме и повышать их до девчачьих значений, при этом заранее собрав какую-то статистику по диапазону возможных частот для каждой гармоники, но получилось так себе (отвратительно).

В нейронках третий день, я что-то как ребёнок радуюсь запуская примеры или пробую свои конструкции.
Не очень понятно какая архитектура должна быть у такого. Текст и голос как бы отдельные - это нужно двумя автоэнкодерами обработать оба голоса, чтобы автоэнкодер запомнил сам голос, а в сжатом месте сохранял звуки (гласные, или что он там будет сохранять), а потом произносить одно и то же и пытаться аудиозаписи по тексту и интонациям совместить и обучать третью нейронку данные из узкого месте одного автоэнкодера в другой передавать?
Или обучать один автоэнкодер, которому ещё дополнительным сигналом передаётся 0/1 в зависимости от того, чей голос, после чего менять сигнал?
Или подключить к одному энкодеру два декодера и надеяться, что на выходе второго будут те же слова и интонации, что и на первом?
511 1971859
>>71811
Хуево заходишь.
512 1971914
>>71666
бля вот меня бесят эти ололошы, которые подрывают чей-то пукан и такие "ааззазазазаз бомбанулоо азазазаз"
вызвать негативные эмоции легче всего. для этого вообще не нужно ничего уметь, нужно просто быть отбитым
ты пишешь очевидно вентиляторную хуйню и славно хлопаешь в ладоши, от того что у всех горит? ну збс
если тебя нельзя вот так вот развести на негатив, то ты какой-то дебич-аутист, сорян, иди нахуй
>>71656
я ебу кто это пишет? мне похуй, заканчивайте оба
513 1972081
Начал читать мистера Гудфеллоу, а там вместо необходимых сведений по линейной алгебре краткий список определений. Так и должно быть, мне хватит для понимания принципов работы сверточных сетей умение перемножать матрицы?
514 1972108
>>72081
Да.
515 1972109
>>72108
Ну еще конечно надо уметь считать градиенты и брать производные от матриц
516 1972116
>>71914

>ты пишешь очевидно вентиляторную хуйню


А ты ей всерьез отвечаешь
517 1972122
>>72109

>брать производные от матриц


Имеются в виду производные функций от матриц?
518 1972221
>>65927
>>66219
Бамп вопросу.
519 1972233
Ну что, трясуны, 2021, ганы забыты? Сейчас в моде few-shot meta-learning какой-нибудь?
520 1972241
>>69737
Если я запилю AGI его первой задачей будет вылавливать таких идиотов как ты и перерабатывать в биотопливо.
521 1972322
>>72241
Глобалисты тебе этого не позволят. Стоит задача уничтожения нормальных белых мужчин.
522 1972386
>>72233

> 2021, ганы забыты? Сейчас в моде few-shot meta-learning какой-нибудь?


Это вообще разные направления машоба. Иди уже уроки делай, а...
523 1972388
где брать датасеты?
524 1972392
>>72388
Huggingface datasets
525 1972401
>>72386
Для одних данных у нас есть один способ построить генеративную модель, для других - принципиально другой. Нет, они никак не скрещиваются, не обобщаются. Ну чо, охуеть, хорошо поработали учёные в говне мочёные.
bitterlesson.png209 Кб, 680x795
526 1972494
А тем временем самому Саттону и разного рода горьким петухам и прочим свидетелям "хурр дурр стекморлейерс" подхода наложили полную панаму залуп. Оказывается ну никогда ж такого не было, а тут опять! что умный подход к трансформерам позволяет даже на моделях с сотнями миллионов параметров получать результаты лучше чем на 175млрд-ной гпт3.
527 1972519
>>72494

>умный подход


Слишком сложно для дотасаенса.
528 1972520
>>72494
Билион это сколько?
529 1972523
>>72520
Млрд.
530 1972539
>>72494

>жопеншмульцер надрочил модель под определенный датасет


>ееее дали пасасать

531 1972553
>>72539

>жопеншмульцер надрочил модель под определенный датасет


Там не столько датасет, сколько общий подход формулировки задачи few-shot learning'а. Датасет стандартный , для сравнения.
images.png7 Кб, 290x174
532 1972568
>>72401

>ганы


>few-shot meta-learning


>Для одних данных у нас есть один способ построить генеративную модель, для других - принципиально другой.


>Ну чо, охуеть, хорошо поработали учёные в говне мочёные.

533 1972585
Расскажите шизику, что в resnet-50 меньше параметров чем в vgg-19 - он две недели будет радоваться, что биттер лессон не работает.
Ну, так на хабре сказали, там где он биттер лессон и прочитал.
534 1972803
>>68140
А есть такое же, но уровнем повыше?
535 1972921
Как в гугл коллаб сейчас получить доступ к файлам на гугл драйве?
Раньше в папке content была папка drive, откуда можно получить получит доступ к файлам на гугл драйве, но щас смотрю и этой папки нет. Что за хрень?
536 1972947
>>72921
Подключись сначала к своему диску.

>раньше


Года два не заходил?
537 1972999
>>72947
да буквально в декабре подключился так и норм всё было.
Ща уже разобрался
538 1973000
>>68140
Посмотрел две части этой хуйни. Как она стала сеньором? Она же просто фактические ошибки выдает, да и объяснения как будто в курсах от гикбрейнса.
Сегодня вечером займусь хейт-вотчингом.
p.s. у модуля нет производной, поэтому его трудно обучать, а вот L2-регуляризация выпуклая и гладкая, поэтому её можно обучать градиентным спуском
p.p.s. рассказала про train-test-split, даже не упомянула валидацию
539 1973022
>>73000

> Как она стала сеньором?


Сам-то как думаешь?

> Она же просто фактические ошибки выдает, да и объяснения как будто в курсах от гикбрейнса.


Будто ей нужно что-то кроме знания стандартного набора баззвордов.
540 1973032
>>73022
А есть инфа, откуда она? Судя по темам, откуда-то из кредитного скоринга и прочего банкинга. Да и в как раз каком-нибудь сбере каждый второй - сеньор.
541 1973052
>>73022

> Сам-то как думаешь?


Сексист что ли?
542 1973053
>>73052
Сейчас бы в 2021 отрицать pussypass
543 1973075
Вечер в тредик, нейросети, остальным соболезную. Хочу переехать сюда из бэ, я не ожидал что тред доживет до 3 перекотов, конфу пилить - зло.
Вот тред
https://2ch.hk/b/res/242795738.html (М)
Шапка говно, знаю, так что в кратце.
Помните в январе новости что опенхуи создали на основе гпт3 нейронку которая генерирует пик по 1 фразе. Так вот, я её нашел и доработал до уровня можно использовать.

Стоит ли или погоните ссанными тряпками? Или стоит создать отдельный тред?
544 1973079
>>73075
Алсо сразу примеры. Стимпанковская m14a4 и гигантский красный мяч.
545 1973139
>>73075
Что ты там именно поменял? Алсо, вот же есть https://github.com/lucidrains/DALLE-pytorch хм, интересно, не думал, что так быстро выложат что-то подобное. Но в любом случае, это не гпт3, так что думаю будет там ехать кринж через кринж и кринжем погонять...
111587008-04308700-8798-11eb-96c9-7df4aeb8b80d.png9,2 Мб, 2036x2048
546 1973151
Едрить там крипота, крипотайд. Пикрелейтед - "a hedgehog made of violins. A hedgehog with the texture of violin". Как будто Пикассо наебенился паленой боярой и пошел творить...
547 1973158
>>73151
Сейчас фикшу. 2 минуты и делай заново.
>>73139
Поменял код в колабе который запускает нейронку.
548 1973162
>>73158
Обновил.
изображение.png77 Кб, 1280x469
549 1973179
Бля, а где почитать про то, что значит подписи у синтаксических связей в spacy? В особенности для русского языка я правильно понимаю, что для русского и английского разные метки получаются?
550 1973230
>>73053
Я бы её по'pussypass'ал!
551 1973256
Сколько нужно подать картинок в GAN, чтобы оно выдавало что-то внятное?
1441649235537.jpg37 Кб, 564x600
552 1973284
Есть ли нейронка, которая подбирает дифференциальные уравнения к циклическим процессам?
553 1973451
>>73075
Ещё допилил гифочки генерирующихся картинок.
15428112768441s.jpg5 Кб, 220x161
554 1973843
>>73451

>генерирующихся картинок


Напоминает твопчество Ромы микроцефала.
555 1973854
>>73843
Потому что эта технология еле дышит даже с использованием гпт3. А то, что у них на пайторчах реализовано, вроде вообще реформер (во всяком случае, там ссылка на пейпер про реформер). Разумеется, качество там будет уровня "говно из жопы". Вот когда гпт4 / что-то такого уровня к далле прикрутят, тогда все охуеют. Собственно, оно и с гпт3 вполне даже ничего, судя по примерам в пейпере, даже если это черрипикинг.
16157856620220.jpg76 Кб, 1280x720
556 1973855
Я, кстати, ещё в 2015 хотел нейроночную визуализацию / "экранизацию" blood electric Сиратори, когда только появились эти Гугл дипдримы с собачками. Теперь уже точно почти есть такая технология.
output (2).gif10,7 Мб, 512x512
557 1973911
>>73843
Интересная хуйня проскакивает, вот a epic sphere. Как минимум в простейшую геометрию и зачатки попытки в стиль она может.
558 1974153
>>73911

> Как минимум в простейшую геометрию и зачатки попытки в стиль она может.


Где ты там геометрию и стиль увидел?
559 1974189
>>74153
Эпичность и сфера же. Что просил то и получил.
560 1974333
пишу, чтобы запинить тред, тк перекатывальщик уебан не проставил тег(походу)
спасибо за внимание
561 1974775
антуаны, пилю сейчас трекинг людей
делаю часть с детекцией
какую сеть лучше подобрать для риал тайма? слышал про yolov4
норм?
562 1974785
>>74775
норм
563 1974810
Зачем я нужен, если любого Васяна можно в кратчайшие сроки научить трясти ящик?
564 1974811
>>74810

>Зачем я нужен, если любого Васяна можно в кратчайшие сроки научить трясти ящик?


Васян натрясет 70% точности, ты 90%, а какой-нибудь рнд в фаанге натрясет 99%.
565 1974840
Анон, помоги, пожалуйста.
Это нормально для 14й эпохи по сравнению с первой?
Или GAN творит херню склоняюсь к этому?
566 1974897
>>49804
Йоло второй версии норм работает от 1000, это буквально пол дня. Поздние версии не пробовал, но не думаю что там по другому.
567 1974902
>>56894
Подразумевая, что метки генерированные имеют больший коэффициент ошибок, то только если не хватает данных для предотвращения переобучения. А потом файнюнить на реальных метках
568 1974907
>>74775
норм
569 1974909
>>74840
Ты бы подписал где инпут аутпут таргет и что это вообще такое.
570 1975001
>>74840
Проверял на (фешн-)мнисте свой код?
>>74909
Очевидно, это аутпут генератора на 1ой эпохе и на 14ой.
571 1975259
>>75001
ну тогда очевидно, что нормально (если у него цель - генерация фиолетовых хуёвин)
572 1975387
>>75001

>Проверял на (фешн-)мнисте свой код?


Нет, мы ж не ищем лёгких путей: сразу хуячим картинки 224x224 в модифицированную реснет-модель с самописным генератором.
Теперь надо либо долго разбираться, где я ошибся, либо искать того, кто поможет.
Но, учитывая, что итт в основном жопеншмульцера обсуждают, найти тут кого-то такого будет тяжеловато.
573 1975554
Я так пынямаю, чем дольше рисует, тем лучше результат? 40 минут медитирую над пикрелейтед, лол. Шидевор нихонской гравюры, "samurai fighting with ninja" Вроде детализация только улучшается? продолжаю наблюдение.
Без названия (1).png278 Кб, 512x512
574 1975568
Час ровно. Вроде детализация получше
16116833822400.png729 Кб, 800x557
575 1975684
>>75387
Ну что, кто-нибудь снизойдёт помочь?
Или как обычно?
576 1975830
>>75684
Проверь на мнисте, можешь даже с обычными денс-денс-денс генератором и дискриминатором.
577 1975877
>>74811
Но ведь и 70% для антифрода в занюханном микрокредите тоже норм. Просто чуть больше неизбежной ручной работы проверяющему человеку
578 1976135
>>47549 (OP)
А кто чем занимается на работе? Интересуют практические задачи, которые решаются сейчас датасаенсом.
579 1976383
Ну что, горькие петушилы, сколько еще нужно stack more humans, чтобы Tesla научилась наконец распознавать грузовики?

https://youtu.be/IrVikr2uNfE
580 1976434
>>76383

>Detroit police: Driver was in control of Tesla when it crashed into semi truck


Ты хотя бы название прочитал.
Когда таким дебикам как ты запретят водить, тогда и аварий не будет.
581 1976700
>>75830
Фейкопочту оставишь?
582 1977650
Бля, хочу заюзать гугл сервис для извлечения сущностей https://language.googleapis.com/v1/documents:analyzeEntities?. Создал тут https://console.cloud.google.com/apis/credentials API key, делаю POST запрос по ссылке https://language.googleapis.com/v1/documents:analyzeEntities?key=''мой ключ" и в итоге получаю ошибку 403. Что я делаю не так, аноны?
583 1977677
>>77650
Разобрался. Оказывается нужно было продать душу гуглу и только тогда он даст активировать нлпшную библиотеку
584 1977802
>>77677

> Оказывается нужно было продать душу гуглу


Корпорация Добра, хуле!
Яплакал.png92 Кб, 1253x749
585 1977996
Untitled.png142 Кб, 1412x1217
586 1978096
>>77996

>востребована

587 1978307
>>77996

>Алгоритмы машинного обучения стремительно развиваются, а значит, спрос на специалистов по Data Science тоже постоянно растёт.


Совершенно необоснованная импликация. Типикал дотасаенс.
588 1978640
Добрый вечер всем. Какая область или области машоба/диплернинга считаются наиболее сложными с математической точки зрения? Интересует в первую очередь из того, что реально работает и немало где применяется(т.к. понятное дело что можно придумать что-то очень сложное теоретически и очень круто работающее и даже написать статью, но не факт что оно на практике будет работать так же хорошо). Слышал что байесовские нейронки являются чем-то сложным, так ли это? Есть ли что-то сложнее, или примерно на том же уровне?
589 1978701
>>78640

>Какая область или области машоба/диплернинга считаются наиболее сложными с математической точки зрения?


1. Топологический анализ данных. Там математические антоны даже гомологии вычисляют.
2. Квантовое машинное обучение. Ну это так, не то чтобы сложно, просто айтишников пугает слово «квантовый». Ну и да, математика там немного сложнее.

> Интересует в первую очередь из того, что реально работает и немало где применяется


1. Ещё пока не применяется. Наверное.
2. Уже применяется техногигантами для решения огромных задач.

Ну это так, то, что первое пришло в голову, я долго не думал.
590 1978702
>>78640

> . Какая область или области машоба/диплернинга считаются наиболее сложными с математической точки зрения?


Никакая. Там все одинаково и со времён середины прошлого века именно в матчасти не поменялось ничего, даже самые современные трансформеры это на 95% перемножения матриц, остальное всякие нормирования и градиенты, то есть все как Жопеншмульцер в 1960 завещал.
591 1978706
>>78701

> Квантовое машинное обучение. Ну это так, не то чтобы сложно, просто айтишников пугает слово «квантовый». Ну и да, математика там немного сложнее.


Самое смешное, что квантовая логика это в точности нечеткая логика, для которой матчасть разработана давным-давно, я на этот счёт даже пейпер приносил. Так что вкатывайтесь в нечеткую логику, любой квантовый вычислитель это литералли fuzzy inference system.
592 1978824
>>78706
Может fuzzy logic еа классических компьютерах дать больший прирост производительности, чем точные алгоритмы?
593 1978842
>>78824
Не корми шиза
594 1978857
>>78842
Нет, про то, что QC это эквивалент нечетким и вероятносным системам, он верно сказал.
595 1979068
>>78824
Нет. Нечеткая логика это не про производительность, а про то, что вся неточность не сводится к вероятности. Даст ли оно что-то по сравнению с нейроночками итд толком неясно, никто не пробовал нечёткие модели стакать сотнями слоёв, хотя общий принцип такого известен.
596 1979084
>>78706

>квантовая логика это в точности нечеткая логика


Хуйня без задач же, не математика.

>Так что вкатывайтесь в нечеткую логику


Хуйня без задач же, за один вечер можно освоить.

>любой квантовый вычислитель это литералли fuzzy inference system


Я могу так же сказать, что любой квантовый вычислитель это литералли машина Тьюринга с прикрученным на выходе генератором случайных чисел.

>> Квантовое машинное обучение


А вообще, вот для таких вот вещей есть нормальный матаппарат, например, теория лиевых групп и функан, которые реально позволяют развивать теорию, а не просто "понять" уже разработанное, в отличие от говна по типу бесполезных квантовых, нечетких и прочих говнологик.
С помощью такой хуйни без задач ничего нового в теории разработать нельзя, потому что это совершенно интеллектуально неглубокие хреновины. Математики такую хуйню математикой в принципе не считают.

>Так что вкатывайтесь в нечеткую логику


Так что вкатывайтесь в нормальную математику.
597 1979312
>>79084

> Я могу так же сказать, что любой квантовый вычислитель это литералли машина Тьюринга с прикрученным на выходе генератором случайных чисел.


Тупостью троллишь? Любой в принципе возможный вычислитель это машина Тьюринга, так как универсальная машина Тьюринга моделирует само понятие вычислимости.

> С помощью такой хуйни без задач ничего нового в теории разработать нельзя, потому что это совершенно интеллектуально неглубокие хреновины. Математики такую хуйню математикой в принципе не считают.


Ну разработай "интеллектуально глубокий" машоб с гамалогиями. В итоге насосешься биттерлессона.
598 1979315
>>79084

> А вообще, вот для таких вот вещей есть нормальный матаппарат, например, теория лиевых групп и функан, которые реально позволяют развивать теорию, а не просто "понять" уже разработанное,


Добавлю, что в итоге все равно получится машина Тьюринга, как ты и написал выше. А если нет разницы, зачем в машобе матаппарат сложнее линейной алгебры?
599 1979391
Кто перекатывать будет, а мудилы?
Или вы думаете, что родится AI и за вас перекатит все?
600 1979449
>>79391
Перекати сам.
601 1979571
>>79449
КТО? Я?
602 1979618
>>79312

>насосешься биттерлессона


Макакинг никак разработку теории не отменяет, это параллельные вещи.
603 1979643
>>79618

>bitterlesson


>никак разработку теории не отменяет

604 1979645
>>79618

> Макакинг никак разработку теории не отменяет, это параллельные вещи.


За все время существования этой предметной области, единственный серьезный теоретический подход к машобчику это теория статистического обучения Вапника. Но там нет никаких гамалогий, они там не нужны.
605 1979708
>>79618

> Макакинг никак разработку теории не отменяет, это параллельные вещи.


Ты походу не очень понял, о чем там. Саттон приводит в пример случай, когда суперкомпьютер обыграл Каспарова. Без всяких сложных теорий, гамалогий итд, простым по-сути брутфорсом. То есть, можно анализировать шахматы, выстраивать сложные теории, а можно просто использовать брутфорс да накидать побольше вычислительных мощностей. И последний вариант работает лучше первого. Каспарова обьебали ещё в 1997, а каких-то умных идей, как это сделать по науке, так и не поступало.
n9fgba8b0qr01.png1,1 Мб, 2136x1950
606 1979795
>>79643
>>79708
А кто-нибудь может объяснить, нахрена люди создают новые архитектуры, если можно просто stack more layers?
607 1979826
>>79708

>Без всяких сложных теорий, гамалогий итд, простым по-сути брутфорсом.


Потому что проблема шахмат это комбинаторика позиционной игры обычной. Странно ожидать что там может быть какая-то естественная теория.

> можно анализировать шахматы, выстраивать сложные теории, а можно


заниматься макакингом. В том смысле слова "можно" что одно не заменяет другое, тут разные целеполагания. То есть когда макака с битерлессоном наперевес грозиться заменить учёных макаками, это не учёные не понимают битерлессона, а макака не понимает сути научного знания.
608 1979867
>>79826
Джвачую.
SnakeLemmaChase.jpg37 Кб, 454x558
609 1980102
>>79795

> А кто-нибудь может объяснить, нахрена люди создают новые архитектуры, если можно просто stack more layers?


Новые архитектуры менее ресурсоемкие. Ещё Лекун говорил, что все что может сверточная сеть, теоретически может и простой перцептрон, вот только он должен быть огромных размеров и жрать в разы больше.
>>79826

> Потому что проблема шахмат это комбинаторика позиционной игры обычной.


Гамалогии твои - та же комбинаторика, ещё и попроще шахмат. Diagram chasing, основной способ доказательства в гамалогиях, как пример. Дергаешь такой коммутативные диаграммы и веруешь, что не макака...
610 1980207
>>80102

>Гамалогии твои - та же комбинаторика, ещё и попроще шахмат.


Так гамалогии это инструмент, а не самоцель. К тому же, для их подсчёта вполне классические алгоритмы работают, там машоб вообще не нужен.
611 1980213
>>80207
Ну представь, что шахматная партия это коммутативная диаграмма. Фигуры - объекты, ходы - морфизмы. Цель - доказать, что для какой-то из фигур возможен морфизм между ней и вражеским королем, ставящий ему мат. По науке ты такой результат доказывать охуеешь. А тут накидали побольше параметров и брутфорсом доказали. Вот и битерлесон зарешал
612 1980235
>>80213

> По науке ты такой результат доказывать охуеешь.


Нет, не ахуеешь. Учитывая простоту шахмат, с математической (научной точки зрения) решение задачи шахмат сводится к перебору всех вариантов ходов, и нахождение такой последовательности действий, которая удовлетворяла бы constraints. То есть задача прекрасно укладывается в программу-теорему на прологе.
613 1980363
>>79645

>теория статистического обучения Вапника


Какие там есть фундаментальные достижения?
614 1980369
>>80363
Обоснование метода минимизации эмпирического риска, например.
615 1980471
>>80213

>Фигуры - объекты, ходы - морфизмы. Цель - доказать, что для какой-то из фигур возможен морфизм между ней и вражеским королем, ставящий ему мат.


1) Это бессмыслица
2) Что угодно можно засунуть в теорию категорий. От этого оно не превращается в математику.
616 1980487
>>80471
Этот шарит.
16097365623120.mp41,6 Мб, mp4,
1280x720, 0:10
617 1980646
>>80471

> ррреее, ваши гамалогии не гамалогии, ваша математика не математика


Какой же ты клован, хоспаде...
image.png50 Кб, 454x558
618 1980680
>>80646

>pic


ЕЕЕЕ МАТЕМАТЕКА
619 1980839
>>80646
Лучше бы отложил свой макакинг чёрного ящика уже и пошёл нормальную математику учить.
621 1981027
>>51808
вас ис дас "одс"?
мимо-вкатун
Тред утонул или удален.
Это копия, сохраненная 23 мая 2021 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски