Этого треда уже нет.
Это копия, сохраненная 8 июня 2021 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №37 /ai/ 1980946 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают

Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.

Почему такой фокус на нейронки?
Потому что остальные чистят вилкой данные в банках с помощью LGBTboost и им некогда предлагать обновления в шапку

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/

Почему python?
Исторически сложилось

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python
https://d2l.ai/index.html

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом

Кто нибудь использовал машоб для трейдинга?
Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущий:
https://2ch.hk/pr/res/1947549.html (М)
2 1981007
Первыйнах
3 1981046
Сап, всем доброй ночи.
Хочу вкатиться в вашу еботу.
Подобрал где-то в б вот этот гайд: https://docs.google.com/document/d/18epDVkco9M8313RK7IczMEWKjL9eETOqQ94Nac0qQ9o/edit?usp=sharing

За плечами: говновуз экономический (не ходил, диплом есть), много говнокода на шарпе, питоне, немного на плюсах.
С матешей довольно странно: не помню почти ничего, но если сяду и буду усердно задрачиват, то все вспомню. Со статистикой кстати хуевато, пропустил ее в свое время.
В коммерческой разработке/ойти никогда не работал, но работаю в смежной сфере.
Бонусом идет английский почти на нейтив-уровне, так что литературу читать смогу.

Вопроса собственно два:
1. Стоит ли вкатываться вообще в возрасте 24 годиков, если мне это тащемта интересно, но и на жизнь хотелось бы нормально заработать?
2. Если стоит, то насколько релевантен вон тот гайд сверху, и если не очень, что туда стоит добавить/убрать?
4 1981071
>>1981046
1 - да
2 - я бы добавил курс от ods, если хочется быстрее вкатиться
5 1981111
>>1981071
Спасибо.
И вопрос, верно ли там курс по математике расписан?
Я немного треды почитал, и аноны пишут что мол вот та и та хуйня нинужна, а нужна только вот эта.
1395152501030.png2,6 Мб, 1300x916
6 1981209
Хохлам посвящается.
https://www.youtube.com/watch?v=bWGcApPx9qU
16159192725910.jpg264 Кб, 438x700
7 1981240
>>1981209

> Хохлам посвящается.


Скуфидон, тебя кто из крымозагона выпустил?
8 1981270
>>1981046
1. Стоит. Тем более, если тебе это интересно.
2. Гайд норм, много полезных ссылок, но очень много и лишнего, имхо.
Например, из математики почти весь первый пункт идёт нахуй. Из необходимого: матан (на уровне первого курса вузовской программы), линал, теорвер, матстат. При этом не нужно всё это проходить очень глубоко, не нужно читать полностью Зорича, не нужно подробно разбирать и учить доказательства теорем. Иначе ты в одной математике застрянешь на пару лет, а скорее всего тебе просто не хватит терпения и ты забьёшь, так и не добравшись до самого мл. Желательно как можно быстрее переходить от теории к практике, а лучше делать всё одновременно, а не так, что ты первые полгода будешь только книжки читать и только потом начнешь писать код. А все серьёзные вузовские книги рассчитаны как раз для тех, кто собирается математикой дохуя заниматься и погружаться глубоко. Не рекомендую за них браться конкретно в твоём случае.
В общем, для понимая теории в машинном обучении тебе будут нужны только основные темы и концепции из вышеозвученных курсов по математикие, без фанатизма. Но надо чтобы этот необходимый набор тем ты хорошо понял и знал, как применять на практике. Для этих целей можно посмотреть курс матана от Khan Academy, например. По линалу там уже есть ссылка на хороший курс на Степике. А по теорверу/матстату вот топовый (и самый понятный из тех, что я встречал) курс от mit:
https://ocw.mit.edu/courses/mathematics/18-05-introduction-to-probability-and-statistics-spring-2014/
Видео-лекций там нет, но заходишь в readings и там находишь пдфки всех лекций. После их прочтения решаешь домашки в разделе assignments по каждой теме (ответы и разборы домашек там тоже есть). Разберёшься короче. Рекомендую его полностью пройти. Тебе этого хватит, чтобы понимать почти весь теорвер/матстат, который ты будешь встречать курсах по мл/дл.
Что касается самого машин/дип лернинга, то я бы рекомендовал:
1) мфти-шный курс от Нейчева, который указан в гайде
2) курс Соколова из ВШЭ https://github.com/esokolov/ml-course-hse
Здесь тоже есть лекции (как видео, так и пдф), семинары и домашки, как и у Нейчева, но нет дип лернинга, а только классический мл, зато некоторые темы разобраны получше, как мне кажется. Я бы начал именно с этого курса.
3) курс cs231n от стэнфорда

Когда их посмотришь, ты уже сам будешь иметь обо всём нормальное представление и понимание того, что тебе дальше надо изучать. Хотя в целом у тебя уже будет хорошая база, чтобы устроиться стажером/джуном.
Я сам, когда вкатывался, уже знал неплохо питон, а со всеми нужными библиотеками разбирался на ходу по необходимости. Разбираться во всём по необходимости - это ключевой фактор, который тебе поможет как можно быстрее всё освоить, не растратив своё время и силу воли на изучение лишней инфы.

Всё вышесказанное я написал с учётом того, что ты хочешь быстро освоить необходимую теорию и практику и поскорее устроиться куда-нибудь джуном и писать модели для продакшена. Если ты хочешь работать, например, в академической среде, придумывать новые модели и архитектуры нейросетей, то, там, конечно, требования к теоретической базе будут намного-намного больше.
8 1981270
>>1981046
1. Стоит. Тем более, если тебе это интересно.
2. Гайд норм, много полезных ссылок, но очень много и лишнего, имхо.
Например, из математики почти весь первый пункт идёт нахуй. Из необходимого: матан (на уровне первого курса вузовской программы), линал, теорвер, матстат. При этом не нужно всё это проходить очень глубоко, не нужно читать полностью Зорича, не нужно подробно разбирать и учить доказательства теорем. Иначе ты в одной математике застрянешь на пару лет, а скорее всего тебе просто не хватит терпения и ты забьёшь, так и не добравшись до самого мл. Желательно как можно быстрее переходить от теории к практике, а лучше делать всё одновременно, а не так, что ты первые полгода будешь только книжки читать и только потом начнешь писать код. А все серьёзные вузовские книги рассчитаны как раз для тех, кто собирается математикой дохуя заниматься и погружаться глубоко. Не рекомендую за них браться конкретно в твоём случае.
В общем, для понимая теории в машинном обучении тебе будут нужны только основные темы и концепции из вышеозвученных курсов по математикие, без фанатизма. Но надо чтобы этот необходимый набор тем ты хорошо понял и знал, как применять на практике. Для этих целей можно посмотреть курс матана от Khan Academy, например. По линалу там уже есть ссылка на хороший курс на Степике. А по теорверу/матстату вот топовый (и самый понятный из тех, что я встречал) курс от mit:
https://ocw.mit.edu/courses/mathematics/18-05-introduction-to-probability-and-statistics-spring-2014/
Видео-лекций там нет, но заходишь в readings и там находишь пдфки всех лекций. После их прочтения решаешь домашки в разделе assignments по каждой теме (ответы и разборы домашек там тоже есть). Разберёшься короче. Рекомендую его полностью пройти. Тебе этого хватит, чтобы понимать почти весь теорвер/матстат, который ты будешь встречать курсах по мл/дл.
Что касается самого машин/дип лернинга, то я бы рекомендовал:
1) мфти-шный курс от Нейчева, который указан в гайде
2) курс Соколова из ВШЭ https://github.com/esokolov/ml-course-hse
Здесь тоже есть лекции (как видео, так и пдф), семинары и домашки, как и у Нейчева, но нет дип лернинга, а только классический мл, зато некоторые темы разобраны получше, как мне кажется. Я бы начал именно с этого курса.
3) курс cs231n от стэнфорда

Когда их посмотришь, ты уже сам будешь иметь обо всём нормальное представление и понимание того, что тебе дальше надо изучать. Хотя в целом у тебя уже будет хорошая база, чтобы устроиться стажером/джуном.
Я сам, когда вкатывался, уже знал неплохо питон, а со всеми нужными библиотеками разбирался на ходу по необходимости. Разбираться во всём по необходимости - это ключевой фактор, который тебе поможет как можно быстрее всё освоить, не растратив своё время и силу воли на изучение лишней инфы.

Всё вышесказанное я написал с учётом того, что ты хочешь быстро освоить необходимую теорию и практику и поскорее устроиться куда-нибудь джуном и писать модели для продакшена. Если ты хочешь работать, например, в академической среде, придумывать новые модели и архитектуры нейросетей, то, там, конечно, требования к теоретической базе будут намного-намного больше.
9 1981291
>>1981209

>Хохлам посвящаетс


У хохлов на гиперлупах растут грибы
14981628836770.png1,5 Мб, 700x934
10 1981333
Раз уж заговорили про работу и прочий вкат, может ли кто-нибудь снизойти и стать наставником для ньюфага?
Спасибо.
Untitled.png115 Кб, 1366x1187
11 1981362
>>1981333
Примерный список того, что нужно знать.
12 1981383
>>1981362
Такс, а фронтенд пилить к этому всему Пушкин будет? Добавляем знания js, ts, опыт работы с nodejs, jest для тестов и еще знания реакта будет весомым плюсом
13 1981401
>>1981383

> а фронтенд пилить к этому всему Пушкин будет


Нахуя вот ты сейчас высрался ни к селу, ни к городу просто так? Какой нахуй фронтенд, когда речь идёт чисто о машобе? Или у тебя еще датасатанисты фронт пишут?
14 1981402
>>1981362
>>1981383
>>1981401
Web
HTML
CSS
Sublime Text
Shell
Git
GitHub
JavaScript
jQuery
Python
Flask
Heroku
SQL
Postgres
SQLAlchemy
15 1981405
>>1981401
ты на картинку посмотри, додик
16 1981443
>>1981046
Стоит.
Этот шарит >>1981270 .
Этот тоже https://2ch.hk/pr/res/1920026.html#1950226 (М) .
17 1981687
>>1981362
Нормальный список. Знаю где-то процентов 80 из перечисленного, при этом ни дня не работал.
unnamed.jpg96 Кб, 512x473
18 1981716
>>1981270

https://docs.google.com/document/d/18epDVkco9M8313RK7IczMEWKjL9eETOqQ94Nac0qQ9o/edit?usp=sharing

математико долбоебы идут нахуй

>>1981270

>Из необходимого: матан (на уровне первого курса вузовской программы), линал, теорвер, матстат



Сейчас даже эта херь не нужна. Это раньше, пять-семь лет назад, когда все только начиналось, может и стоило знать всякие фурье-ххурье и прочие Chi. Сейчас же, с ростом мощностей и появлением все новых библиотек и совершенствованием старых, все подбирается через кросвалидацию с грид серчем, а что не подбирается делается на нейронках. Посмотри на новые курсы от всяких мичиганов и стенфордов, там уже почти нет матана и все меньше статистики. И сравни со знаменитым курсом от яндексодаунов 2016 года, там буквально все из матана состоит. Так что математикодебилы снова соснули
19 1981736
>>1981716

>математико долбоебы идут нахуй


Ты буквально выложил гайд по математике для машоб. Шизик? Сам себя нахуй послал?
20 1981750
Че не придумают что-то чтобы математику было также весело изучать как программирование
21 1981783
>>1981270
Я не он, но можешь подсказать как собеседования для джунов проходят? А конкретно:
1) Пишется ли код и какой. Заставят ли нейронку в торче написать или решить задачу классификации и все без гугления библиотек? Или обычные алгоритмические задачи?
2) Спрашивают ли алгоритмы и структуры данных (развернуто)?
3) Что по SQL спрашивают (просто по основам или решкние задачек)?
4) Надо ли знать библиотеки наизусть (pytorch, scikit)?
5) Надо ли выводить математику МЛ алгоритмов (расписать ручками бэкпроп через свертку и тд)?
6) Заставляют ли решать комбинаторные задачки (и на вероятности)?
22 1981790
>>1981270
Спасибо. Про математику понял, про мл и дл и про питон тоже. Скилл гугления у меня вкачан неимоверно (я фактически и работаю сейчас на позиции гуглера на своей галерке)
>>1981443
Спасибо за ответ, анон.
изображение.png386 Кб, 830x423
23 1981791
>>1981783
я не он, но вот
24 1981804
>>1981783

>3) Что по SQL спрашивают (просто по основам или решкние задачек)?


Что такое оконная функция? Напиши-ка одну.
25 1981811
>>1981804
select dvacher_name, rank() over(order by toxicity) as toxic_rank
from itt

Я принят как макака по дейта саенс?
26 1981814
>>1981791
Спасибо. Что-то какая-то хуйня легкая. Есть еще?
27 1981815
>>1981811
Нет, зато теперь можешь в навыки вписывать sql
28 1981819
>>1981750

>Че не придумают что-то чтобы математику было также весело изучать как программирование


Это для того не придумывают, чтобы математики не становились такими же макаками, как программисты.
29 1981821
>>1981736
Очевидно, что он забыл там поставить значок гринтекста.
30 1981858
>>1981716
Для макак, предел возможностей которых ограничивается тряской черного ящика - да, математика не нужна. Собственно, с такой мотивацией тебе и подобным место в вебпараше или еще где, фу, блядь.
31 1981908
>>1981858

>да, математика не нужна


Докажи нужность маняматики
32 1981912
>>1981908
Предположим что математика никому не нужна. Ты хочешь стать программистом и поступаишь на ит специальность. На эту специальность тебе нужно сдать ЕГЭ по математике. Следовательно тебе математика нужна. Получаем противоречие с начальным утверждением, что математика никому не нужна. Следовательно существует по крайней мере один школьник (это ты) которому нужна математика.
33 1981913
>>1981912
s/поступаишь/поступаешь /
34 1981970
>>1981912

>сдать ЕГЭ по математике


Нужность уровня /b
35 1981972
>>1981750

>математику было также весело изучать


Математика для грустных
36 1982012
Сап, двач, я тян пруфов не будет
Учусь на последнем курсе Компьютерной Лингвистики, пытаюсь себя приткнуть в NLP и волосы на жопе рву немного, что с нулевой математической базой (в ВУЗе только дискретную математику проходили) и без инженерной вышки не смогу найти работу. С математикой и статистикой у меня всё крайне плохо, но буду дальше пытаться разбираться
Из технических навыков, полученных в ВУЗе, имеются какой-никакой Python, базовый SQL, HTML5, CSS3 (последние два нахуя??!!), ну и вроде неплохо разобралась с NLTK, в процессе освоения Spacy, Scikit-Learn.
Сама живу в Гейропке и вроде как чатботы сейчас в тренде у местных компаний по ИИ/МО.
Возможно, есть какие-то идеи, как дополнить еще теоретическо-практические знания.
37 1982014
>>1982012
Без пруфов в наше время никуда.
38 1982061
Есть какие-то курсы по MLOps? mlflow, docker, k8s, airflow, dvc
Желательно чтобы что-то +- связное, а не просто подборка выступлений гугла с различных конференций.
Screenshot11.png195 Кб, 384x355
39 1982096
>>1981333
Бамп вопросу.
40 1982097
>>1981362

>опыт 2 года


>умение прогнозировать ml-проект


>вывод моделей в прод



Сразу видно позиция для вкатывальщиков.
мммм.jpg26 Кб, 523x307
41 1982121
>>1980946 (OP)
Страшно заходить в тред. Чуть-чуть научился кодить, на где-то уровене, когда получается, но уже понимаешь какое на самом деле ничтожный сделал прогресс по сравнению с по-настоящему опытными мастадонтами. Столько всего, что разбегаются глаза, в то время как хочется быть в прямом пути и быстрой конве прогресса.
16036383184200.gif170 Кб, 326x281
42 1982135
>>1982121

> какое на самом деле ничтожный


> мастадонтами.


> быстрой конве прогресса.


Уроки сделал?
43 1982151
>>1982135
Еще SQL лабу сдавать. Веб сайт и приложение на плюсах, трехчасовой экзамен по плюсам, тест на полиморфизм,двухчасовой по JS, двухчасовой по SQL. Так что не сделал.
44 1982157
ребят, задача такая. есть 2 массива, каждый с цифрами с -9 до +9. как предсказать сумму, есть взять рандомно взать из каждого аррая один элемент?
45 1982164
>>1982061
Бамп вопросу.
46 1982165
>>1982157
return 0
47 1982166
>>1982157
Думаю это - задача из тематики статистики
Поэтому ответ будет зависеть от типа распределения случайной величины в первом массиве, втором массиве

По-моему ответ таков:
expected_sum = E[X_1] + E[X_2], где
E[X_1] - мат ожидание типа распределения в первом массиве
E[X_2] - мат ожидание типа распределения во втором массиве

Для прикола ты можешь показать, что с увеличением количества независимых экспериментов значение будет более стабильным в значении
48 1982167
>>1982166Ой бляяя, не прочитал что ты берёшь 1 элемент. Сори анон
49 1982174
>>1982157
Нихрена не ясно про массивы. Они фиксированны и имеют одинаковый вид [ -9, -8, ..., 0, ... 8, 9 ], или имеют произвольную длину и произвольную расстановку этих чисел, к тому же ещё и не одинаковые?
50 1982180
>>1982157
Сумма будет в пределах от -18 до 18 вероятностями такими:
Скорее всего сумма будет равна 0 (вероятность 19/361) или 5%. Прикольная задача давай ещё. Это с собеседования в Яндекс или Гугол наверно или банк. Для решения надо перемножить вероятность числа в массиве на вероятность из другого массива.
51 1982183
>>1982157
Ты угораешь?
DbsXlqJUwAAyLf.jpeg82 Кб, 593x900
52 1982185
>>1982180

>Это с собеседования в Яндекс или Гугол наверно

53 1982187
>>1982185
Картинка должна быть смешной. Что это за тетка? Я после похода в казино и игры в блекджек(очко) и естественно проигрыша всю ночь считал вероятность выйграть. Теперь скажи мне какова стратегия игры в блекджек исходя из вероятности получения карт на руки. Я сидя в казино я её вычислил пока играл и меня даже крупье похвалил черт. Назови очко выше которого не будешь брать. Какова общая вероятность выйгрыша в игре?
54 1982192
>>1982187
Я даже правил твоего очка не знаю.
55 1982197
>>1982192
Что вообще знаешь охломонище?
56 1982198
>>1982197

>охломонище


Не пошёл бы ты нахуй?
57 1982199
>>1982198
Быдло огрызается.
58 1982201
>>1982199
От быдла слышу.
59 1982202
>>1982201
Ты еще и девочка оказывается.
60 1982204
>>1982202
Ты должно быть трапик.
61 1982208
>>1982204
Ты моча.
62 1982210
>>1982208
Ты говно.
63 1982261
>>1982210
>>1982208
Это был неравный бой
Вцепились моча и говно.
64 1982431
>>1982174
a=[]
b=[]

for i in range(-9, 10):
a.append(i)
b.append(i)
ареал макак.jpg69 Кб, 1280x643
65 1982497
>>1982431
Ареал макак. Индия там.
66 1982586
>>1982187
Игра с натуральным блэкджеком? Разрешено ли удвоение? А сплит? Конечная ли колода? Если да, то какая "горячесть"? Какая карта открыта у дилера?
И нахуя мне всё это считать самому, если есть Q-learning?
67 1982634
>>1982586
Колода очень большая считай бесконечная. Прочие правила не учитываются. Считай по простому. Карта диллера не считается. Считай в общем и в уме. На вскидку.
68 1982642
>>1980946 (OP)
Каков средний IQ собеседника на дваче если по СНГ где провинциальный IQ = 100 показатель подавляет массой столичный? Ответ: 100. То же самое что поехать в провинцию и подойти к рандомному челику на улице.
69 1982649
>>1982634
А ты тогда считай в уме до десяти тысяч.
70 1982653
ОБЫЧНЫЕ НЕЙРОН ОЧКИ ВСЁ
Новое устройство уже сейчас может быть использовано в квантовом машинном обучении — области науки на пересечении квантовой физики и обработки данных. Квантовые системы могут ускорять вычисления и сокращать количество параметров в нейросети. Благодаря этому квантовые нейросети становятся более выразительными и позволяют описать задачу меньшим числом параметров. Система также поможет в исследовании подходов к созданию квантовых симуляторов, служащих для контролируемой имитации поведения естественных систем, не поддающихся классическим расчетам.
71 1982657
>>1982653
Всегда знал что у скайнет квантовая нейронтка
72 1982659
>>1982657
нейронка
73 1982671
>>1982657
Квантово-гравитационная.
74 1982672
>>1982642
Очередной московит выёбывается.
75 1982673
>>1982671
Кварк-глюонная. У квантово-гравитационных ИИ не дотягивает даже до шимпанзе
16162154869780.jpg58 Кб, 500x500
76 1982683
>>1982673

>Кварк-глюонная.


Это просто критическое состояние вещества.
77 1982694
>>1982683
Не употребляй вещества и не будет критического состояния
78 1982712
>>1982694
А я-то серьёзно насчёт квантовой гравитации сказал.
79 1982744
>>1982672
В чем я не прав. Я не московит просто у меня горит от быдла. Был бы тут рейтинг. Все равно айпишники палятся.
80 1982842
>>1982431
Макакич, ты что в машобчике забыл?
81 1982893
>>1982497
>>1982842
Ох, ипать, можно подумать, в машобе не макаки работают.
82 1982918
>>1982893
Машоб это математика. А прикладная математика это фп.
83 1982922
>>1980946 (OP)
Я король треда. Задавайте вопросы. Расшарю любую задачу на статистику.
84 1982989
>>1982918
Ох, ипать, можно подумать, машоб-макаки знают математику.
85 1982995
>>1982918

>Машоб это математика


Ее знают от силы 10% машобщиков. Машобщик - это та же кодомакака, только которая не умеет кодить.
86 1983498
Для чего нужно смещение в сети когда веса умножаются с вводными данными? там + bias всегда. что даёт это смещение?

насколько я понял что там что то с нулём и границей связано, типа что если данные на разделительной границе лежат то не определить к какой категории данные принадлежат.. а может и не правильно понял

total = np.dot(self.weights, inputs) + self.bias
87 1983501
>>1982989
мат. анализ, лин. алгебра, дискретные структуры, научные вычисления и чето еще я сдавал.. не достаточно?
download (1).jpg52 Кб, 1280x720
88 1983518
89 1983802
Ай, хулиган, вы только оцените этот задорный прищур!
https://www.youtube.com/watch?v=HG6SbYDwYsY
90 1983804
>>1981750
Математика гораздо интересней унылой бухгалтерской деятельности под названием "программирование", ты о чём?
91 1983815
Ну и где ваши проекты с нейронками? 37й тред а выхлопа никакого от анона, только пиздеть и можете.
92 1983825
>>1983804
В математике нет теории типов, да и вообще нет какой-то четкой модели вычислений. В программировании есть. Problems?
93 1983834
>>1983498
Потому что без свободного члена интерполяционный полином не полином.
94 1983836
>>1982012

>Возможно, есть какие-то идеи, как дополнить еще теоретическо-практические знания.


Вот >>1981270.
95 1983844
>>1983498

> Для чего нужно смещение в сети когда веса умножаются с вводными данными? там + bias всегда. что даёт это смещение?


Педивикия -> "линейная функция".

> насколько я понял что там что то с нулём и границей связано,


Да.
96 1983851
>>1983804
Математика и есть унылой бухгалтерией с алгебраическими преобразованиями, когда программирование позволяет создавать целые миры.
97 1983969
>>1983825

>В математике нет теории типов


Есть соответствие карри-ховарда, так что можно считать, что теория типов в математике есть.
98 1983978
>>1983825
Конструктивист, плез.
99 1983986
>>1983969
Что интересно, подобное безымянное соответствие между логическими и теоретико-множественными операциями никого не парило, ну есть и есть, чё бухтеть-то. Но стоило подобное же использовать как базу для конструктивных оснований, всяким модульным петухам сходу днище пробило и пошли кукареканья со стороны параши, что HoTT нинужно
100 1983993
>>1983986
Пруверщик, плез.
101 1984048
>>1983969
Ну и как по твоему математической нотацией описать понятие натурального числа? Ну, кроме как безымянными множествами?
102 1984064
>>1983825

> нет какой-то четкой модели вычислений


Так потому она и интереснее и богаче что нет подобного говна имбецильного
103 1984066
>>1983851
Много миров создал, первокур? Ничего, успеешь ещё разочароваться, не торопись
104 1984069
>>1984066
Так-то он прав. Но не совсем.
105 1984070
Блядб, уже и сюда петухи из тредов пруверов и оснований доползли.
106 1984072
>>1984064
Математика это та вещь, в которой необходимо иметь строгую систему преобразования данных.
16161781267530.jpg419 Кб, 1024x1024
107 1984074
>>1983851

>Математика и есть унылой бухгалтерией с алгебраическими преобразованиями, когда программирование позволяет создавать целые миры.

108 1984088
>>1984072

>строгую систему преобразования данны


Они с буквами там не определились, какие нах преобразования?
sergei1[1].jpg279 Кб, 1262x632
109 1984090
>>1984066

>Много миров создал?


Майнкрафт считается?
110 1984105
>>1984048
N петух, что ты тут забыл?
111 1984132
>>1984048
Тоже странная хрень. Типа вместо нормального счётчика мы должны считать скобки и это типа умно.

counter = 0
counter += 1
ууу тупые тараканы н петухи не знают математики

джигурда
(джигурда) 1
ого 1 скобка это так математично алгебраично премию филдса в студию небывалое открытие в алгебре множеств

Разве что вместо джигурда написали норвежскую букву, чтобы умнее выглядело.
112 1984161
>>1984132
Синтаксис десятичных чисел не отражает суть натуральных чисел. А суть: натуральное число это рекурсивно вложенный конструкт.

> +=


Так ты у нас еще и макакич.
113 1984167
>>1984161
Дополню себя. В доказательство моих слов приведем следующие простые функции:
inc x = (N x)
dec (N x) = x
Эти функции прибавляют и убавляют единицу к числу соответсвенно.

inc (N Z) # => (N (N Z))
dec (N (N Z)) # => (N Z)
114 1984168
>>1984074
Слишком тонко.
115 1984313
Добрый вечер, ученые по черным ящикам, сейчас у нас в универе идет курс по компьютерному зрению, помогите с выбором топика для проекта.
116 1984317
>>1984313
Наковыряй датасет и обучи ган.
117 1984320
>>1984313
Ещё забыл добавить что из вычислительных мощностей есть только колаб
118 1984928
>>1984072

> в которой необходимо


Что математикам необходимо а что нет предлагаю решать самим математикам, а не кодеркам с манией величия, которые ничего из математики кроме основ логики и теории множеств выучить не способны.
119 1984971
>>1984928
Этот шарит.
120 1984978
>>1984928
Да как можно жить без крепкой системы вычислений? Информатика это естественное продолжение математики, которое даёт не только её практическое применение, но и делает формулы чем-то материальным и объясняет основы самого понятия вычисления.
121 1985011
>>1984978

>Информатика это естественное продолжение математики


Информатика это мелкий аппендикс математики, а не её продолжение.
download (2).jpg14 Кб, 250x242
122 1985127
>>1981750
Заходит в бар математик. Бармен математик его спрашивает - какова вероятность того, что сейчас в бар зайдет динозавр? Математик говорит - ну одна миллонная или даже предел нуля. Заходит динозавр в бар садится. Бармен его спрашиват тот же вопрос. А он говорит - вероятность 50-50. Встретить или не встретить. Я вчера про if else читал.
123 1985155
>>1985127

> Заходит в бар математик. Бармен математик его спрашивает - какова вероятность того, что сейчас в бар зайдет динозавр? Математик говорит - "ну 50/50 или зайдет или нет, я вчера про исключенное третье читал"

124 1985180
>>1985127
Остроумие уровня /pr/.
125 1985259
>>1985180
Не можешь сделай лучше или завали ебало
126 1985260
>>1985127
Лол
127 1985347
>>1985259

>Не можешь сделай лучше


Так у тебя ещё и с выражением мыслей по-русски проблемы, долбоеб.
128 1985465
Какие есть стандартные темы для проектов по анализу графов?
Желательно что-то сложнее чем "выгрузить сеть друзей вк, посчитать всякие статистики, визуализировать".
129 1985626
>>1985011

>Информатика это мелкий аппендикс математики


Какая связь информатики с математикой?
130 1985656
>>1985626
Бля ебать, это как спросить какая связь ручки с дверью.
131 1985657
>>1985626
Прикладная математика.
1305366257207.jpg88 Кб, 450x796
132 1985777
>>1981333
Последний бамп.
Кто-нибудь снизойдет побыть ньюфагу наставником?
Спасибо
134 1985838
>>1985777
Суть работы дата-саентиста - нахождение инсайтов в беспорядочно наваленной куче инфы.
135 1985877
>>1985777

>Кто-нибудь снизойдет


Нет, иди нахуй
136 1985926
>>1985777
А вот с каких хуёв быть кому-либо тебе наставником, скажи?
137 1985931
>>1985465
Бамп вопросу. Неужели никто с графами не работал?
138 1985934
>>1985931
Нет, только с герцогами
14384349270480.png71 Кб, 241x300
139 1985955
140 1985964
Сап всем. Есть смысл вкатываться в data science (реально ли работать устроиться), если опыт проганья есть только в десктоп говнрприложухах на c#?
P.S. Захотел вкатититьсч в бекенд на питоне, но как только что-то гуглю вылезает хуева туча зазывал онлайн курсов в нейронки (курсы нахуй конечно).
141 1985965
>>1985964
Отбой, в первом же посте чувак с идентично историей (либо матрица дала сбой, либо я в беспамятстве написал пост
142 1985971
А что вообще можно делать с нейроночками? Модно сделать такую, чтобы думала за тебя?
143 1985980
>>1985965

>в первом же посте чувак с идентично историей


>либо матрица дала сбой, либо я в беспамятстве написал пост


Ахуенно!
144 1985981
>>1985971
Конечно.
145 1986018
>>1985777
Поспрашивай на одс. Там публика поадекватнее.
>>1985877
Лолблять. Жопеншмульцердебил, ты?
Нюфажина нормально спросила, чего ты порвался-то?
Тред вообще-то и существует для обсуждения машоба, помощи, кооперации. И это все есть практически везде в /pr/, кроме этого треда. Зазнавшиеся питухи вроде тебя могут разве что плескать желчью и страдать хуйней, обмазавшись всяким говном. И такая тенденция уже давно. Даже /b/ и тот адекватнее. Закройте ai-тхреды и не позорьтесь тогда.
Или ты очередной горе-вкатывальщик, который отыгрывается на своих неудачах ИТТ?
>>1985926
Лол х2.Тебе твоих 300кк/наносек не хватает? Решил на вкатунах подзаработать, да ещё и на харкаче? Ты, пирожок, попутал площадки. Скилбокс с курсами в другой стороне.
>>1985971
Всякое разное.
Зависит от задачи и навыков.
146 1986039
>>1986018

>Нюфажина нормально спросила


>может ли кто-нибудь снизойти


Токсик с пассивной агрессией. Такие не нужны, пусть в пятерочке хуи сосёт. И да, чего ты сам порвался-то, а наставником быть не хочешь?
147 1986070
>>1985831
Сам видео смотри, зумер. Навигатор нихуя нормально не определяет путь.
>>1985656

>ручки с дверью


И как ручка связана с дверью? Типа вначале придумали ручку (математику)?
>>1985657

>Прикладная математика.


Нет такого. Есть задачи которые решали мимокроки, потом матанопетушня собралала их в кучку и сказала что теперь они рулят но на самом деле нет. Вот.
148 1986072
>>1986018
Хуя ты порвался как проткнутый маняматик прям.
149 1986108
>>1985971

> Модно сделать такую, чтобы думала за тебя?


Я вот, например, живу чужим умом. Сложновато чуток.
150 1986109
>>1985964
Почму бы не вкатиться в бэкенд на дотнете?
151 1986118
>>1986039

>Токсик с пассивной агрессией.


Кек. Так вкатун прав оказался, он о помощи просит, а вы ебало корчите, как зазнавшиеся небожители, и не хотите снизойти. Зато доебаться до чьего-то текста и обидеться на ровном месте - наипервейшее дело.

>а наставником быть не хочешь


Из меня хуёвый учитель. Но я хотя бы не самоутверждаюсь за счёт вкатунов, как, например, это ничтожество >>1986072

Ладно, пусть это всем уроком будет, что итт в основном желчные клоуны. И ML вопросики лучше прояснять на других ресурсах.
152 1986122
>>1985626
Математика проститутка наук, информатика царица проституток.
153 1986142
>>1985347
Селюк выебывается за свой азиатский нахрюк
154 1986215
Есть кто-то, использующий карточку от амд и нейронки?
нихуя нет инфы для rocm, как блять на амд хоть что-то запустить?
155 1986281
>>1986142
Слив засчитан, пидор ёбаный.
156 1986283
У меня есть база товаров разбитых по категориям и чеков, есть список заказов с товарами, есть инфа по поисковым запросам которые на сайте вбивают.
Как составить список рекомендаций под товаром? Понятно что связи вручную можно вбивать, чем сейчас и занимались, но можно ли составить какую-нибудь вероятностную модель по которой к каждому товару можно получить схожие товары?
157 1986285
>>1986283
Можно подсчитать вероятности покупки вместе с этим товаром чего-нибудь ещё. Типа "n% людей, купивших селёдку / три семёрки, так же купили молоко / гондоны". Associative rule mining для этого используется.
158 1986290
>>1986283
Это же стандартная постановка рекомендательной системы, не? Что угодно бери.
sage 159 1986303
Go для макак. Proved.

> Так для чего же он был создан таким простым? Вот пара цитат Роба Пайка (прим.пер.: один из соавторов языка Go):



> Ключевой момент здесь, что наши программисты (прим.пер.: гуглеры) не исследователи. Они, как правило, весьма молоды, идут к нам после учебы, возможно изучали Java, или C/C++, или Python. Они не в состоянии понять выдающийся язык, но в то же время мы хотим, чтобы они создавали хорошее ПО. Именно поэтому их язык должен прост им для понимания и изучения.



> Он должен быть знакомым, грубо говоря похожим на Си. Программисты работающие в Google рано начинают свою карьеру и в большинстве своем знакомы с процедурными языками, в частности семейства Си. Требование в скорой продуктивности на новом языке программирования означает, что язык не должен быть слишком радикальным.

160 1986305
>>1986303
Ошибся тредом.
16161202910740.jpg25 Кб, 655x436
161 1986309
>>1986305
Пщ-дебилы даже в постинг не могут, не то что в программирование
162 1986333
>>1986303
Простота в данном случае это скорее плюс языка. С теоретической же точки зрения тьюринг-полный яп он и в Африке тьюринг-полный.
163 1986497
>>1986333

>тьюринг-полный


Полный Тюринг спермыяблок
259eb21b59c5e9e1bab4daabf5c68e08.jpg34 Кб, 700x803
164 1986553
Аноны, я уже 3 года работаю в дата сцаенсе, а чувствую, что нихуя не знаю ни в дате, ни просто в программировании. Возможно, потому, что компания на этом не специализируется, и я там один такой (делаю машоб в продуктах). Есть у меня шансы более по специальности устроиться?
165 1986558
>>1986553
Трясунишка
166 1986645
>>1986553
Иди и устраивайся.
image.png170 Кб, 512x512
167 1986658
>>1986553
Тревожная масса
168 1987167
>>1986558
>>1986658
ну не стукай
>>1986645
По собеседованиям походить предлагаешь?
169 1987192
>>1987167

>По собеседованиям походить предлагаешь?


А почему нет?
Если реально нихрена не помнишь, не знаешь, вот, например, гайд >>1981270, можешь его с конца просмотреть, начиная собственно с машоба и при необходимости откатываясь к математике.
170 1987323
Где сайт, чтобы выучить всю математику?
scale1200.png628 Кб, 600x600
171 1987341
172 1987390
>>1987323
хан академи, степик
173 1987405
>>1987323
Записки Пола по математике, академия Хана.
174 1987449
>>1981333
иди на хуй
175 1988682
Я решил немного попробовать детектить тип минералов на фотках, решил обучить на сете https://www.kaggle.com/asiedubrempong/minerals-identification-dataset сейчас его просматриваю, и вижу на некоторых фотографиях надписи сайтов, где-то лишние объекты по типу ручек или линеек.

Собственно у меня вопрос, стоит ли выкидывать такие изображения, или пофиг сеть сама разберется?
176 1988691
>>1988682

>пофиг сеть сама разберется


Это.
177 1988692
>>1988682
При малом размере датасета- это плохо. Нейронка может начать детектить любой объект с "ручкой" в кадре как "опал". При большом- эти дефекты будут отсеяны как шум, нейронка будет даже лучше работать с изображениями с дополнительными шумами. Если в итоге распознавать фото с другими объктами в кадре не нужно - можно убрать. Если они могут попасть в кадры при работе- я бы оставлял и делал бы искусственные дополнительно дефекты и еще аугментацию сверху и побольше.
178 1988693
>>1988692
Спасибо
179 1988781
Объясните пожалуйста зачем используются предварительно обученные модели для написания своей модели? Что это дает для моего датасета условных фотографий птиц если я беру модель vgg16 за основу?
180 1988794
>>1988781

> предварительно обученные модели


Претрейны штоле?
181 1988802
>>1988794
Не уверен, что я понимаю о чем вопрос. Но например я сейчас листаю код:
model = models.vgg16(pretrained = True)
model.classifier = nn.Sequential(

и я не понимаю, почему используется vgg, я погуглил и понял что это уже готовая модель на свертке, для меня это в новинку, может все сверточные пишутся через уже готовые модели?
182 1988807
>>1988802
Крупные нейроночки с нуля ты не обучишь, для этого кластер нужен с сотнями и тысячами GPU / TPU. Но можно взять готовый претрейн и дообучить (файнтюнинг) на своих данных. Для этого в большинстве случаев достаточно колаба.
183 1988811
>>1988807
Хорошо, а зачем добавлять слои в модель основанную на претрейне?
184 1988813
>>1988811

> Хорошо, а зачем добавлять слои в модель основанную на претрейне?


Затем, чтобы оно работало именно на твоей задаче. То есть ты дообучаешь сеть, надстраивая над ней например классификатор.
185 1988815
>>1988813
Спасибо!
16177846041343.png149 Кб, 512x512
186 1988835
>>1987323

>выучить всю математику

187 1988921
>>1988811
Потому что считается, что сверточные сетки устроены иерархично, то есть первые слои выделяют низкоуровневые признаки (линии), следующие слои выделяют углы и простые фигуры и т.д. Тебе нет смысла с нуля обучать сеть выделять эти признаки учитывая, что это занимает кучу времени.
sphxglrfinetuningtorchvisionmodelstutorial001.png26 Кб, 640x480
188 1988995
>>1988811
>>1988802
Статья как и где нужно менять последний слой (и зачем)

https://pytorch.org/tutorials/beginner/finetuning_torchvision_models_tutorial.html

На картинке точность предобученной сети (синим) и обученной с нуля, разница где-то в два раза за 14 эпох.
Но это не всегда так, не на всех маделях, wide_resnet101_2 мне удалось обучить на ихнем примере с таким же качеством с нуля
189 1989015
>>1988995
Спасибо, почитаю
190 1989085
Бамп
191 1989128
>>1989085
чего?
192 1989143
>>1989128
чего чего, а не чего а
193 1989209
>>1987323
Что значит "вся математика"? Если что, можешь изучить фунтаментальные свойства формальных систем вычисления и познать дзен. Тогда, перед тобой откроются все двери.
194 1989226
>>1989209

>перед тобой откроются все двери


в дурку разве что.
195 1989231
>>1989226
Аргументировать могёшь?
196 1989241
>>1987323
Нужна только математическая статистика с теорией вероятности. Еще из матана надо только знать что такое частные производные, чтобы понять градиент.
197 1989246
>>1989241
Да. Еще линал на уровне начальных курсов технического вуза.
198 1989247
>>1989241
Ещё чуть-чуть теорию меры, чтобы понять, что такое производная.
image.png356 Кб, 512x480
199 1989262
16177846041343.png149 Кб, 512x512
200 1989270
>>1989246

>Да. Еще линал на уровне начальных курсов технического вуза.


На уровне первого семестра пту.
>>1989247

>Ещё чуть-чуть теорию меры, чтобы понять, что такое производная.


Без комментариев.
16139078432870.jpg79 Кб, 512x384
201 1989272
202 1989321
>>1989270
Что такое вероятность?
Понятно, что тебе в твоем кликере можно просто блоки с нейросетками перетаскивать, но в нормальной компании такое не прокатит.
203 1989338
>>1989272
>>1989262
Про теорию вычислений еще деды рассуждали. Пытаетесь опровергнуть их труды? Ну попробуйте, лол.
204 1989342
>>1988781

>Объясните пожалуйста зачем используются предварительно обученные модели для написания своей модели? Что это дает для моего датасета условных фотографий птиц если я беру модель vgg16 за основу?


Основная причина - потому что это увеличивает точность классификатора без необходимости собирать больше данных. От предварительно обученной модели берутся начальные слои, которые замораживаются и используются, по сути, для преобразования датасета и извлечения полезных фичей. Как результат - размерность датасета и количество обучаемых параметров уменьшаются, из-за чего в свою очередь улучшаются результаты.
205 1989351
>>1989338
Теория вычислений это вся математика по-твоему?
206 1989358
>>1989321
Я знаю, что такое вероятность. Именно поэтому и "без комментариев".
Понятия не имею, где в работе в индустрии может понадобиться это знание.
1617823777217.jpg47 Кб, 400x524
207 1989378
>>1989351
Это основа. Всё остальное это просто формулы, которые могут быть любыми в зависимости от задачи.
208 1989404
>>1989378
Это как сказать, что элементарные частицы - это основа, а всё остальное - это просто разные сочетания этих частиц. То есть вроде бы и почти верно, но смысла в этом очень мало в итоге.

Теория вычислений это такая хрень, на которую дрочат петухи-конструктивисты, которые любят основания математики.
Но основания математики имеют довольно слабое отношение к математике.
209 1989405
Сейчас вот какой ужасающий перекос: в вузе у студенов основными являются разделы математического анализа (условно 80 % времени) и дополнительными являются разделы численные методы (10 %) и дискретная математика (10 %).

Но в современной математике - совсем другая расстановка акцентов:
50 % - численные методы
50 % - дискретная математика
1 % - математический анализ.

Здесь две причины:

1) Практически все реальные функции, с которыми мы сталкиваемся, - не являются непрерывными и дифференцируемыми, как нужно для мат.анализа, поэтому нельзя брать производные и считать интегралы. То есть весь мат.анализ неприменим вообще. Из него максимум можно взять только исходные определения, да и то их надо корректировать. Поэтому для работы с реальными функциями (обычно они заданы с помощью таблиц) - используются только численные методы. Численно считают оценки производной, считают суммы вместо интегралов, и т.д. Кроме того, аналитическая математика не является научной - аналитическими методами обычно не решаются ни уравнения, ни диф.уры, ни считаются интегралы и.т.р. Строго научными являются численные методы - они полностью обоснованы и с помощью них решаются любые задачи.

2) Очень многие современные математические методы, которые имеют огромное применение, являются алгоритмическими, требуют программирования. При этом используются основные разделы дискретной математики - мат.логика, теория графов и др.

Поэтому, по хорошему, акценты в математике надо совсем по-другому расставлять, кардинально менять программы обучения.
1617826235397.jpg522 Кб, 2340x1080
210 1989416
>>1989404

> Но основания математики имеют довольно слабое отношение к математике.


Ага, а фундамент здания имеет слабое отношение к зданию.
211 1989423
>>1989416
И к чему ты это спизданул?
212 1989428
>>1989405
>>1989416
Ебало этих обезьян кодерков, искренне верящих в высранное представили, коллеги?
213 1989456
>>1989428
Да, это пиздец.
16177846041343.png149 Кб, 512x512
214 1989460
>>1989405

>Но в современной математике - совсем другая расстановка акцентов:


>50 % - численные методы


>50 % - дискретная математика


>1 % - математический анализ.

215 1989465
>>1989416

>Ага, а фундамент здания имеет слабое отношение к зданию.


Это вот нихуя не аналогия к этому:

>> Но основания математики имеют довольно слабое отношение к математике.

16178171166820.png356 Кб, 512x480
216 1989467
>>1989405

>Но в современной математике - совсем другая расстановка акцентов:


>50 % - численные методы


>50 % - дискретная математика


>1 % - математический анализ.


ПТУшник поясняет за расстановку акцентов в современной математике.
15982164124121.png115 Кб, 482x400
217 1989469
>>1989428

>обезьян кодерков

218 1989470
>>1989428
Любой опытный математик знает, что аналитические методы не являются научными. В науке принято, что любой обоснованный НАУЧНЫЙ МЕТОД ДОЛЖЕН РАБОТАТЬ НА 100 %. Теперь вспомните математику. Только 10 % реально встречающихся уравнений можно решить аналитически (численно решаются 100 % уравнений), только 10 % реально встречающихся интегралов можно вычислить аналитически (численно вычисляются 100 % интегралов), только 5 % реально встречающихся дифференциальных уравнений можно решить аналитически (численно решаются 100 % дифуров). Только 20 % реально встречающихся функций могут быть описаны аналитической зависимостью (численно можно работать с любыми реальными функциями, заданными таблично)... Я думаю, не надо дальше продолжать. Аналитические методы работают только в 5-20 % случаев. То есть с точки зрения науки они практически не применимы. Аналитическую математику бесполезно пытаться делать строгой научной теорией. За 300 лет, со времен Ньютона, это никому не удалось. Численная же математика является строго научной и работает всегда на 100 %. Применима ко всем реальным задачам.
219 1989474
>>1989470

>В науке принято, что любой обоснованный НАУЧНЫЙ МЕТОД ДОЛЖЕН РАБОТАТЬ НА 100 %.


Нет. И нет никакого научного метода.
Поговорил с пастой - день прошёл не зря.
220 1989494
>>1989470

>Любой опытный математик знает, что аналитические методы не являются научными.


>Только 10 % реально встречающихся уравнений можно решить аналитически (численно решаются 100 % уравнений)


Численное решение - это численное решение, аналитическое решение - аналитическое. Это сущности совершенно разной природы, ебанутая ты макака.
Во-вторых, численные методы развиваются и обосновываются с помощью всё той же «непрерывной» математики. Но откуда тебе, макаке, это знать, правда?

>Аналитическую математику бесполезно пытаться делать строгой научной теорией.


Ёбаный идиот.

А твоя паста про современную математику это вообще пиздец.
221 1989572
>>1989405
Численных методов не так много и они давно изучены. И реализованы.

Решения практических задач, полученных аналитически, через уравнения, часто частично решаются аналитически, и частично численно. То есть ты или упрощаешь уравнение, или аналитически вычисляешь в первом приближении, а разность уже численно.

Современная математика как наука оккупирована геометрами, это всякая аналитическая и дифференциальная геометрия, теория струн, матфизика и прочая ересь. Уравнения в частных производных, где вот как раз прикладной счёт, куда меньше популярны и там хуже с премиями и финансированием, как я понимаю.

А задачи моделирования, нейронных сетей и т.п. слишком не строгие и математикой особо и не называются.

Программа на матспециальностях действительно странная, там больше упор на теоретическую математику, меньше на классические численные методы. А вот с современными прикладными вещами, нужными для алгоритмов, ИИ, моделирования и др. там совсем слабо.

Все современные программ формировались её в махровом СССР, когда кибернетика была лженаукой. А потом менялись очень слабо.
222 1989581
>>1989572

>Уравнения в частных производных, где вот как раз прикладной счёт, куда меньше популярны


Достаточно они популярны, но только нормальные (то есть с дифференциальной геометрией, анализом и "прочей ересью"), а не с дедовским "прикладным счётом"

>А задачи моделирования, нейронных сетей и т.п. слишком не строгие


Скорее тривиальные с математической точки зрения, суть моделирования не в математике а в предметном знании (или данных, как сейчас модно)

>Программа на матспециальностях действительно странная, там больше упор на теоретическую математику, меньше на классические численные методы


Ровно наоборот, нормально математику на более-менее современном уровне преподают в двух с половиной вузах страны, все остальные выпускают недоученных инженеров, причём не современных опять же, а искалеченных каким-то старым нерелейтед дерьмом из XVIII века. Плюс кодинг ещё преподают, туда они в основном и идут после выпуска ибо самое релевантное.
223 1989633
>>1989404

> Это как сказать, что элементарные частицы - это основа, а всё остальное - это просто разные сочетания этих частиц. То есть вроде бы и почти верно, но смысла в этом очень мало в итоге.


Классе в седьмом узнаешь про химию и физику, о том, что все свойства веществ зависят от их строения. Из этого может быть поймёшь, что любая настоящая наука в своей основе имеет некий набор элементарных "кирпичиков", к которым ее можно свести. Потом подрастешь и может быть даже поймёшь какое отношение имеют основания математики к математике.
224 1989661
>>1989494
Теперь насчет АНАЛИТИЧЕСКОЙ И ЧИСЛЕННОЙ математики. В вузовской математике насаждается следующая идеология, что, мол, аналитические методы абсолютно точные, поэтому ими надо пользоваться, а численные - приближенные, поэтому ими нежелательно пользоваться. ЭТО ОБМАН. Как раз наоборот, численные методы абсолютно точные, и полностью обоснованные. А аналитические - всегда приближенные и ненаучные. Простой пример. Решите уравнение sin x + x = 0,8. Это трансцендентное уравнение, и в принципе нет никакого аналитического метода точного решения этого уравнения. Единственный способ аналитически его решить - грубые приближения, например можно считать, что х мал, поэтому sin x = x, тогда x + x = 0,8, откуда x = 0,4. Но при этом допускается ошибка порядка 10 %. Еще есть вариант аналитического решения: можно разложить синус в ряд и ограничиться первыми двумя слагаемыми, тогда уравнение примет вид: x - x^3/3! + x = 0,8. Получается кубическое уравнение, которое можно решить аналитически (правда на это уйдет целый вечер). При этом решение тоже будет не точное, ошибка будет порядка 5 %. То есть аналитические методы в принципе не являются точными. А вот численными методами, например методом деления отрезка пополам, можно решить это уравнение ТОЧНО - с любой необходимой степенью точности - хоть до двадцати значащих цифр. При решение производится за очень короткое время: метод деления отрезка пополам программируется за 5 минут, а само уравнение компьютер решает за 0,0001 с. Я не зря привел в пример уравнение такого типа - это ходовое уравнение. И среди всех встречающихся уравнений около 90 % именно такие - вообще не допускают аналитического решения, а остальные 10 %, если и допускают аналитическое решение, время аналитического решения составляет порядка нескольких часов (попробуйте решить любое кубическое уравнение с нецелыми коэффициентами). В математике если время решения задачи превышает 5 минут, то этот метод не является ни научным, ни практически ценным. Поэтому уравнения в математике решаются исключительно численными методами.
224 1989661
>>1989494
Теперь насчет АНАЛИТИЧЕСКОЙ И ЧИСЛЕННОЙ математики. В вузовской математике насаждается следующая идеология, что, мол, аналитические методы абсолютно точные, поэтому ими надо пользоваться, а численные - приближенные, поэтому ими нежелательно пользоваться. ЭТО ОБМАН. Как раз наоборот, численные методы абсолютно точные, и полностью обоснованные. А аналитические - всегда приближенные и ненаучные. Простой пример. Решите уравнение sin x + x = 0,8. Это трансцендентное уравнение, и в принципе нет никакого аналитического метода точного решения этого уравнения. Единственный способ аналитически его решить - грубые приближения, например можно считать, что х мал, поэтому sin x = x, тогда x + x = 0,8, откуда x = 0,4. Но при этом допускается ошибка порядка 10 %. Еще есть вариант аналитического решения: можно разложить синус в ряд и ограничиться первыми двумя слагаемыми, тогда уравнение примет вид: x - x^3/3! + x = 0,8. Получается кубическое уравнение, которое можно решить аналитически (правда на это уйдет целый вечер). При этом решение тоже будет не точное, ошибка будет порядка 5 %. То есть аналитические методы в принципе не являются точными. А вот численными методами, например методом деления отрезка пополам, можно решить это уравнение ТОЧНО - с любой необходимой степенью точности - хоть до двадцати значащих цифр. При решение производится за очень короткое время: метод деления отрезка пополам программируется за 5 минут, а само уравнение компьютер решает за 0,0001 с. Я не зря привел в пример уравнение такого типа - это ходовое уравнение. И среди всех встречающихся уравнений около 90 % именно такие - вообще не допускают аналитического решения, а остальные 10 %, если и допускают аналитическое решение, время аналитического решения составляет порядка нескольких часов (попробуйте решить любое кубическое уравнение с нецелыми коэффициентами). В математике если время решения задачи превышает 5 минут, то этот метод не является ни научным, ни практически ценным. Поэтому уравнения в математике решаются исключительно численными методами.
225 1989668
>>1989633

>Классе в седьмом узнаешь


Этот унылый перефорс.

>любая настоящая наука в своей основе имеет некий набор элементарных "кирпичиков", к которым ее можно свести


Можно, ага, только бесполезно. А для развития этой науки особенно бесполезно.
А так то можешь её и к Инь и Янь свести, к бинарному коду, примерно такая же польза.

>Потом подрастешь и может быть даже поймёшь какое отношение имеют основания математики к математике.


Ну так объясни. Мне, как математику, будет очень интересно это послушать.
226 1989675
>>1989668

> Можно, ага, только бесполезно.


Именно поэтому все физики мира стремятся открыть Единый Закон™? Потому стремятся познать самые неделимые элементы мироздания?
227 1989678
>>1989675
Ты причину со следствием перепутал.
228 1989682
>>1989661
Дебил блядь, ни в какой вузовской программе не скажут, что такие уравнения надо решать аналитически. Потому что их и нельзя решить аналитически. Охуительные истории какие-то выдумал и теперь свои выдумки опровергает. Аналитически нужно решать такие задачи, которые можно решить аналитические, и для таких задач аналитический способ решения заведомо лучше, чем численный.
229 1989688
>>1989661
А ведь это гениально. И что самое главное, можно сднэелать в любом языке программирования, а не только в тех, в которых есть поддержка символических вычислений и бектрекинга. Но вот интегралы, анон, нужно решать только аналитически. Ты как численно интегралы решать собрался?
230 1989691
>>1989682
Этому долбоёбу ничего не объяснить, я вот тут >>1989467 и тут >>1989494 пытался, не вышло. На это >>1989661 говно даже отвечать не буду.

>>1989572
Много бреда, но есть и годные мысли.

>>1989581
А этот реально шарит.
231 1989769
>>1989581
Только в нашей стране при обучении математике ЗАПРЕЩАЮТ ПОЛЬЗОВАТЬСЯ КАЛЬКУЛЯТОРОМ (и тем более компьютером)! На ЕГЭ запрещают. На олимпиадах по математике запрещают. Учителя и преподаватели математики запрещают. А во всем мире наука, техника и обучение ушли далеко вперед: вспомните, в Японии устраивают соревнования роботов между школьными командами (это в 1 000 000 раз сложнее наших уроков математики). Во всех странах учат программировать (многие математические задачи легко решаются, если составить простую программку в 1-2 строчки). Если у Вас в руках всего лишь простой инженерный калькулятор - вы сможете решить любую задачу математического анализа. Быстро, не задумываясь, с любой точностью. Есть простые численные методы расчета пределов, производных, интегралов, дифференциальных уравнений, рядов, и т.п. КАЛЬКУЛЯТОР ДЛЯ МАТЕМАТИКА - УЖЕ МОЩНОЕ ОРУЖИЕ. В моем вузе олимпиады по математике проводят две женщины пенсионного возраста. И они не любят, когда приходят мои студенты. Потому что мои студенты достают калькуляторы и быстро решают все 10 олимпиадных задач - легко и правильно. Но им обычно не засчитывают: бабульки почему-то уверены, что нельзя в математике использовать калькулятор. И победителем олимпиады становится студент, который решил всего 2-3 задачи из 10, но без калькулятора. Поэтому олимпиады у нас - конкурсы для дебилов. Даже если ты победил в олимпиаде - все равно ты дебил. А еще один раз - отправили моего самого лучшего студента на областную олимпиаду по математике, а там бабульки, которые проводят олимпиаду, запретили вообще пользоваться калькулятором. Это только в анекдотах бабульки-пенсионерки сидят на лавочке возле подъезда. В реальной жизни бабульки-пенсионерки почему-то определяют какой должна быть математика. А в математике ЛЮБАЯ ЗАДАЧА НАЧИНАЕТСЯ С ЧИСЕЛ И ЗАКАНЧИВАЕТСЯ ЧИСЛАМИ. Поэтому РЕШЕНИЕ ЗАДАЧИ ЗАКЛЮЧАЕТСЯ В ПРЕОБРАЗОВАНИИ ЧИСЕЛ. И смешно в 21 веке решать задачи без вычислительной техники)
232 1989786
>>1989769

> А в математике ЛЮБАЯ ЗАДАЧА НАЧИНАЕТСЯ С ЧИСЕЛ И ЗАКАНЧИВАЕТСЯ ЧИСЛАМИ. Поэтому РЕШЕНИЕ ЗАДАЧИ ЗАКЛЮЧАЕТСЯ В ПРЕОБРАЗОВАНИИ ЧИСЕЛ


Ты не прав. А как же символьная математика (та самая, в которой только комбинаторы и буквы) и общая алгебра?
233 1989797
>>1989769
Ебааать. Этот дебил уже четвёртый пост высрал, и тут он уже каких-то студентов учит.

Заберите у него телефон, санитары, в дурке телефоны запрещены.
234 1990116
Народ, подскажите нубу, если мне нужно локализовать и классифицировать только два и три объекта, могу я обойтись без всяких крутых и тяжёлых сеток? Могу использовать что-то вроде такого: https://towardsdatascience.com/object-detection-with-neural-networks-a4e2c46b4491 ? Это должно работать на CPU. В принципе, yolo3-tiny даёт 60 fps, но вот чисто интерес попробовать простоую архитектуру для двух объектов, как по ссылке.
235 1990153
>>1989797
Он, возможно, в колледже (т.е. ПТУ) преподаёт.
236 1990581
>>1990116

>локализовать и классифицировать только два и три объекта, могу я обойтись без всяких крутых и тяжёлых сеток?


Без тяжёлых - да, крутых - нет.
Вообще, если нужны fps, то бери yolo, там как раз недавно v4 вышла.
image.png134 Кб, 256x256
237 1990600
Я люблю позапускатьвсякое разное с гитхаба, но совсем уж надоели все эти зависимости, версии и все такое. Как правильно сейчас установить (на убунту) все библиотеки, жупитеры там, CUDA тулкиты и CuDNN чтобы не было выноса мозга не теми версиями? Даже в рамках разных версий одной библиотеки там требуются чуть ли не разные CUDA. Я как-то старался стороной обходить venv и conda. Не понимал зачем все это, а тут еще и контейнеры всякие. Я в общем-то даже не вкатун, просто интересующийся. Помогите настроить все это дело. Сегодня снес замусоренную 18.04 и поставил 20.04 начисто. Как не засрать свежую систему? Как все это правильно установить? Попробовал kubeflow, но как-то странно там все, думаю не для массштабов 1 пользовательского ПК.
238 1990769
>>1990600
Ставь конду
239 1990788
>>1990600
Колаб же. Зачем все это локально ставить, если цель просто посмотреть?
240 1990804
>>1989668

> Ну так объясни. Мне, как математику, будет очень интересно это послушать.


Сантехнику, чтобы поставить унитаз, не нужны знания о взаимодействиях между атомами вещества, из которого унитаз сделан. Это ровно то, что ты называешь математикой.
241 1990807
>>1990804
То есть математики - это сантехники, а быдлокодеры - физики?
Мимо
242 1990813
Почему в науке при прогнозировании тренда чего угодно стараются сначала преобразовать данные в какую-нибудь линейную шкалу, а не делают сразу scipy.curve_fit на фунцию похожую по форме на тренд?
curve_fit вообше имеет хоть какое-нибудь хождение у ml-щиков?
243 1990815
>>1988995
Прикол в том, что я еще не видел статьи, которая бы рассмотривала долгое обучение модели с нуля и переобучение + новый слой для какой-то новой задачи. Почему-то кажется, что в долгосрочной перспективе новая непредобученная сетка будет лучше, чем предобученная. По крайней мере для какой-то новой специфической задачи типа распознавания камней, где осноным критерием была бы текстура объекта, а не формы, ну если использовать какую-то сетку для распознавания объектов как предоубченную- она больше внимания будет уделять именно границам форм. как-то так.
244 1990817
>>1990600
conda с её встроенными виртуальным средами норм, ими можно и нужно пользоваться. Может кто-то знает, поддерживается ли там в conda как-то разные версии cuda?
245 1990818
>>1986553
Какая разница, если платят? Со временем приложится.

А кто тогда программирует за тебя?
В каком виде ты результат выдаешь?
246 1990819
>>1990788
Дома можно на подольше ставить и не нужно постоянно подключенным быть.
247 1990821
>>1990819
Тогда ответ - никак.
Все равно найдется пидор с tf1 или истинный torch на lua.

Venv используй.

Только вчера решил сделать то же что и ты - поставить один раз библиотеки чтобы минимизировать возню с venv.
Опять нихуя не работает. TF ругается, какие-то либы не доставились и тд и тп.
Проклятое место.
248 1990825
>>1990600
Для линуха есть официальные докер-контейнеры с тензорфлоу.
Я в винде ставлю и недавно проблема с либами была, когда TF2 поставил. Решил тем, что установил куда 11.2 и куда 10.1. В path прописал 11.2. Потом скопировал один файл из папки bin 10.1 в bin 11.2, которого не хватало для запуска на гпу. На цпу всегда без проблем работает.
249 1990918
>>1990116
Один анон уже ответил, но как-то не равёрнуто. Поэтому БАМП!
250 1990921
>>1990825
Ну тот же cubeFlow, да?

Я понять никак не могу все эти контейнеры, где про это почитать можно? Еще venv и ему подобное понял, это что-то навроде snap пакетов по функционалу, а вот Докеры, кубернетесы не особо, как их состовлять, работать с ними, уж тем более на практике разворачивать.
251 1990923
>>1990921
*kubeFlow
fix
252 1991147
Подскажите что сейчас актуально в компьютерном зрении(какие задачи, архитектуры итд) и какие статьи по теме стоит прочитать.
253 1991156
>>1990921
Докер уже по умолчанию в убунте стоит. Надо только скачать образ из докерхаба и запустить его. cubeFlow уже для продакшена нужен. На низовом уровне те же контейнеры использует.
254 1991203
>>1990818
Нет, код я, конечно, пишу, но я именно что код связанный с машобом, всякое взаимодействие с остальной системой пишут другие сотрудники. А разница большая - боюсь отстать от жизни, потому что других людей нет, с кем делиться знаниями.
255 1991385
>>1991147

>какие задачи


Как и всегда - детекция/сегментация.

>архитектуры


А в какой момент ты отвалился от "тренда"? Почитай про всё, что есть в keras.applications или torchvision.models. Ну ещё про SE-ResNext'ы, потому что это стандартный ноубрейн вариант для любой задачи.
256 1991460
>>1991147

>что сейчас актуально в компьютерном зрении


Актуально - что хайп этой хуйни стихает, так что лучше перекатывайся куда ещё
257 1991470
>>1991460
Компьютерное обоняние?
258 1991473
>>1991460
Где стухает то? Вроде пока на около пике находится.
Какие еще сферы есть близкие к мл/дл и для людей с таким бэкграундом?
259 1991476
>>1991385
SE-Resnet посмотрю, спасибо. А как там насчет трансформеров и аттеншена в зрении? Есть ли какие то значимые улучшения? Появлялось ли что-либо более-менее значимое с момента появления трансформеров вообще?
260 1991502
>>1991473

>Вроде пока на около пике находится.


Находится скорее на хуе
261 1991504
>>1991473

>Где стухает то?


Везде стухает
262 1991641
>>1991502
>>1991504
И что сейчас входит в моду вместо ЦВ?
263 1991710
Был кто на DS|ML собесах в mail|ok ? о чем спрашивают, есть инфа?
264 1991718
>>1991476
Вроде в Image captioning используются, но не думаю, что этим в реальности кто-то занимается.
Ещё регулярно всплывают статьи, обещающие, что вот-вот сверточные сети заменят на трансформеры, но тоже звучит сомнительно. Можешь походить по референсам тут, например. https://arxiv.org/abs/2103.17239
265 1991752
>>1991718
Я до сих пор понять не могу, а где там жкономия памяти то?
Они де берут те же свертки, но просто дополнительно их вместе комбинируют, перебирают почти.
мимо
266 1992206
>>1991476

>А как там насчет трансформеров и аттеншена в зрении?


Вот же наш недавно разбирал новую соту, не следишь что-ли?
https://www.youtube.com/watch?v=Bd8jFcoJBto
267 1992244
>>1991710
разве нет каких-то читшитов по теме мл/дс?
268 1992303
Началась ли стагнация дип лернинга? Вышло ли что-то принципиальное новое со времен аттеншнов(которые были уже в далеком 2017)?
269 1992341
>>1992303
А что принципиально новое выходило с 2012 по 2017?
270 1992361
>>1992341
А что принципиально новое выходило с 80х по наши дни?
271 1992384
>>1992341
>>1992361
Дофига всего начиная от Алекснета, ГАНов и заканчивая трансформером
272 1992385
>>1992361
Свертки, рекуррентные сети, GAN
273 1992386
>>1992385
Сюда же можно добавить по сути все СОТА, которые сильно лучше результат дали, чем то, что было раньше.
274 1992511
>>1992384
Речь была про те года между алекснетом и трансформерами, когда ничего не выходило. Да и в алекснете ничего принципиально нового не было, просто большой LeNet догадались применить к соревнованию.

>Ганы


Ну это может быть, хотя по качеству всякие вариационные автокодировщики им не уступают.
275 1992517
>>1992341

> А что принципиально новое выходило с 2012 по 2017?


>>1992511

> Речь была про те года между алекснетом и трансформерами, когда ничего не выходило.


Хгбуст, лгбтбуст.

> в алекснете ничего принципиально нового не было,


Принципиально нового в машобчике вообще с 60х годов ничего не было и скорее всего не будет. Даже трансформеры с их аттеншеном это дальнейшее развитие идеи кернел регрессии Жопеншмульцера Надарайи-Уотсона 1964 года.
276 1992550
>>1992517
Принципиальная по сути у каждого своя. Лично для меня это когда вышло что-то что отличается по сути своей работы от того, что уже было или что-то что сильно улучшает результаты, например около +10% accuracy
277 1992612
сап.
работаю аналитиком данных в довольно многопрофильном отделе в не самой безызвестной организации - есть смысл перекатываться в ds? вроде понимаю о чём говорят коллеги, обсуждая всякие модели, значимости переменных и тому подобное, а вроде, нихуя не знаю с чего начать обучение необходимым скиллам.

что и где мне посоветуете изучать, если на сильном уровне владею питоном, +- понимаю его библиотеки визуализации и работы с датасетами (np + pd), знаю пару диалектов sql, но больше нихуя? с матаном, линалом, матстатой в универе было всё в порядке, но связь предметов с DS пока очень размыто представляю
278 1992802
>>1992612
Пройди курс на курсе по ML или книжку какую прочитай по ML.
Знания математики понадобятся для понимания как работают и обучаются ML алгоритмы.
279 1992955
R или петухон?
280 1992958
>>1992955
Джава.
281 1992966
>>1992958
Тогда я лучше на плюсах останусь.
282 1993459
>>1992966
Это был рофл вообще-то.
283 1993469
>>1993459
У меня в компании за такие рофлы премий лишают.
284 1993560
>>1993469
За какие такие?
285 1993565
>>1993560
Гейские
286 1993587
>>1993565

>Гейские


Кто как обзывается, тот сам так называется.
287 1993632
>>1993587
Извини пожалуйста.
>>1992955
Бамп кста.
288 1993712
>>1993632

>Извини пожалуйста.


Пыня одобряет.

>Бамп кста.


Петухон, естественно.
289 1993803
>>1993712

>Пыня одобряет.


Да похуй на него.

>Петухон, естественно.


Как вкатиться если есть бекграунд в других япах?
290 1993924
>>1993803
Те же плюсы, но все проще и синтаксис другой.
291 1994083
>>1993924
Ладно, за ночь думаю освою.
292 1994092
Какая официальная позиция по Julia? Хуета для экономистов, не умеющих в программирование?
293 1994122
>>1994092
"Хуета для экономистов, не умеющих в программирование" - это нестареющая классика Excel, а Julia дважды хуета - "для экономистов", а погромировать всё равно надо.
294 1994341
Кто-нибудь работает с сетями? Там применяются модные ГрАфОвЫе сетки или хватает подсчета статистик и случайных блужданий?
1561958461Morshu22.jpg57 Кб, 595x385
295 1994508
Ребятки, а кто может посоветовать какой-то сайт, где лежит куча офисных документов, типа запрос нового оборудования, документ об устройстве кого-то на работу(офферы там) с тегами? Куча текстовых файлов на русском с тегами нужно. Очень нужно.
296 1994632
Кто-нибудь пытался дообучать сберовскую gpt? У меня в 3070 даже gpt3small не влезает, выкидывает CUDA out of memory. Это я долбоеб, или 3070 действительно недостаточно?
297 1995152
Какой сейчас самый крупный трансформер (претрейн со свободным доступом)? Наткнулся на https://www.eleuther.ai/ они выложили что-то на основе ГПТ https://huggingface.co/EleutherAI 2.7В параметров. Куколаб ее не берет (модель 10 гиг, памяи не хватает), но вариант 1.3В параметров работает. Причем, лучше чем самая большая ГПТ-2 на моей задаче, как минимум
>>1994632

>сберовскую gpt?


Не нужна. Мутное поделие от ноунейм конторы. Алсо, используй куколаб, там вроде работает.
image.png1 Мб, 1280x720
298 1995201
299 1995204
>>1994122

> Хуета для экономистов


Лел, как ловко они переобулись. А ведь джулия была заменой питухона в области DS и ML. Потом в питухоне появились либы для обработки больших данных и чисел, и джулия тут же стала никому ненужна.
300 1995205
>>1995152
Лучше Switch Transformer (триллион параметров) обучи. А то хуй знает, когда обучат, а попробовать хочется.
301 1995208
>>1995205

> Лучше Switch Transformer (триллион параметров) обучи.


Для обучения гпт3 175В использовался кластер с 280000 процессоров и 10000 ГПУ. Подумай, какие нужны ресурсы для сети с 1600В параметров.
302 1995230
>>1995208
Так Switch Transformer в 6 раз быстрее обучается и требует меньших ресурсов.
303 1995231
>>1995204

>Потом в питухоне появились либы для обработки больших данных


Чё?
>>1995208
Легче просто подождать пока мода на большие модели спадёт и все эти трилиарды параметров быстренько запрунят чтобы на втором пентиуме шло.
304 1995239
>>1995231
А вот мне интересно, это говно хоть-где то используется кроме красивых картинок, исследований и эксперементальных мемных чат-ботов?
305 1995275
>>1995204

>джулия была заменой питухона в области DS и ML


Да ладно
306 1995299
>>1995239
Трансформеры типа? Да, с помощью них более лучшие эмбеддинги получают
307 1995324
>>1993459
А ведь существует Weka...
08.png94 Кб, 988x561
308 1995468
>>1995231

> Легче просто подождать пока мода на большие модели спадёт


А она не спадет, битерлесон же, все дела. Способность сети к zero-shot / few-shot learning зависит только от количества параметров. Алсо, все эти модели с триллиардами параметров все равно на чем-то домашнем не запустить. 1.3В еле влезает в 12 гиг оперативы, даже если вот прямо сегодня Маск Небоходец обдолбится паленой ганжой и выложит 175В гпт3 в открытый доступ, ты ее не запустишь ни на чём. 1.3В весит 6+ гиг и требует хотя бы 12 гиг оперативы. 2.7В весит 10+ гиг и ей наверное 16 гиг оперативы маловато будет. Можно предположить, что 175В весит в районе 700+ гиг и для работы с ней надо не менее терабайта памяти. Такое только на каком-нибудь небесплатном облачном сервисе запустить можно.
309 1995471
>>1995324

> А ведь существует Weka...


Очередной кликер типа того что тут форсят, оранж или как там. Пистон лучше для диплернинха, чем R. Но за пределами модных моделей пистон хуже. На нем нет ничего сравнимого с тем, что есть в R для grammatical evolution, например.
310 1995479
>>1995231

>Легче просто подождать пока мода на большие модели спадёт


Да, определенно дело в моде, а не в лучших метриках.
А размер моделей всегда пытались снизить.
15218263315720.jpg142 Кб, 1600x1200
311 1995551
>>1994508
Неужели такого нет? Мне нужен датасет с документами о приеме на работу например, о бух. квартальных отчетах и т.д. Помогите, умоляю...
312 1995569
>>1995551
Устройся и спизди.
Неужели заказчик не готов содействовать в решении задач?
313 1995588
>>1995569
Та чет это пиздец. Устраиваться на работу только чтобы получить ОДИН файл о приеме на работу.
314 1995591
>>1995551
В даркнете такое поищи.
315 1995827
>>1995468

>zero-shot / few-shot learning зависит только от количества параметров


От чего оно зависит точно никто не знает, но биттердодик конечно уже разрешил все проблемы человечества
16034655456491.jpg36 Кб, 511x407
316 1995838
>>1995827

> От чего оно зависит точно никто не знает,


Ты и картинку к тому посту не осилил?
317 1995871
>>1995827

>но биттердодик конечно уже разрешил все проблемы человечества


Ну так это же максимально заманчивая идея для всех болванов: «не нужно ни о чём думать, нужно просто stack more layers». А потом чувствуешь себя самим Б-гом!
318 1995920
>>1995871
Ну покажи архитектуру, превосходящую stack more layers. Умный что ли?
319 1995924
>>1995920
https://arxiv.org/abs/1806.05393
Что-то "stack 10000 layers" не дало прироста к точности
320 1995960
>>1995838
Зумеридзе, я понимаю что по молодости любой график может вызвать изумление, но мозги отключать всё-таки не надо
321 1995976
>>1995924
Черрипикинг. Свертки вообще архитектура такая себе. Перцептрон тоже стакать бесполезно. Что ж ты не сравнил производительность трансформеров в зависимости от количества параметров и слоев?
>>1995960

> Зумеридзе, я понимаю что по молодости любой график может вызвать изумление, но мозги отключать всё-таки не надо


Ты ж отключаешь. И зачем-то споришь с реальностью.
322 1996010
>>1995976

>зачем-то споришь с реальностью.


Реальность состоит в том что ты не понимаешь:
1) Из того что качество растёт с количеством параметров на одной архитектуре не следует никаких универсальных выводов для всех возможных архитектур вообще
2) Из того что качество растёт с количеством параметров на одной архитектуре не следует что даже на этой же самой архитектуре не существует такой инициализации параметров которая позволяет существенно сократить их количество

Я ни с первым ни со вторым не спорю
323 1996036
>>1995976

>Черрипикинг. Свертки вообще архитектура такая себе.


Ваше стаканье слоёв - не стаканье слоёв. Ненастоящий шотландец, все дела.

>Перцептрон тоже стакать бесполезно


Как удобно. Stack 10000 layers не работает для большинства архитектур, но это потому что архитектуры такие себе.

>Что ж ты не сравнил производительность трансформеров в зависимости от количества параметров и слоев?


А вот это не черрипикинг, да? Брать архитектуру, которая появилась два года назад и с которой не успели наиграться. Биттер лессон до 18 года не работал?
image.png114 Кб, 1459x572
324 1996112
Антоны, в статейке встретил интересный график. Я правильно понимаю что красная, оранжевая и зеленая модели сходятся почти что мгновенно и достаточно 10-20 эпох чтобы быть уверенным что модель обучилась?
p.s. данные на графике усреднены по 10 семплам
325 1996164
В чём проблема совмещения подходов encoder-decoder и generator-discriminator? Первая статья в гугле - 2018 год, 12 цитирований, значит, не взлетело - почему?
326 1996165
>>1994508
>>1995551
Хуясе ты губу раскатал, специализированный корпус текстов на русском...
328 1996995
Какие есть нормальные бесплатные альтернативы колабу? 11 гиг оперативы маловато, а больше нахаляву не дают. Попробовал несколько бесплатных сервисов с жупитер нотбуком, хоспаде, какое говно... Это вообще реально, бесплатная альтернатива колабу? Или таки придется в Гугл денешки нести? Амазон дропнул на стадии регистрации, ладно адрес я им написал улица Пушкина, дом Колотушкина но реквизиты карты что-то не хочется.
329 1997013
>>1996995

>Или таки придется в Гугл денешки нести?


Я тебе больше скажу, ты в данный момент даже денежку им не можешь занести - покупка премиума открыта только для пользователей из США и Канады, за попытку указать фейковые данные могут и забанить нахуй.
330 1997056
>>1997013
Пиздец. А что делать-то?
331 1997105
>>1997056
Оптимизировать модель.
332 1997381
>>1997056
Собирай свой кластер с блекджеком и шлюхами.
333 1997487
>>1997056

>Пиздец. А что делать-то?


Покупать видеокарту.
334 1997576
Можно вкатиться в МЛ без опыта в МЛ и без профильного образования? Есть два года опыта на плюсах. Если я задрочу МЛ и выучу все что нужно, меня могут взять на работу? Что вообще нужно?
335 1997674
>>1997487

> Покупать видеокарту.


За 60к? Спасибо, не надо.
>>1997013

> , ты в данный момент даже денежку им не можешь занести - покупка премиума открыта только для пользователей из США и Канады,


А что насчёт Амазона? Мне так-то всё одно, если не Брину, могу лысому занести, раз уж других вариантов нет.
336 1998293
>>1997674

>За 60к? Спасибо, не надо.


За 260к, спасибо ебаной крипте. А вообще, я тебя не понимаю. Ты бы для начала поработал а любой другой сфере айти и поднакопил денег, а потом бы уже вкатывался в машоб.
08.png94 Кб, 988x561
337 1998457
>>1998293
Я не вкатыш. Просто у меня есть интересный проект аналоговнет на трансформерах. Конкретно - на основе few-shot learning. И по причине пикрелейтед на публично доступных архитектурах он не работает, разве что на GPT-neo 2.7B и GPT-3 из AI dungeon начинает выдавать нужное. Видюха за 260к мне не нужна, на ней все равно ничего полезного для меня не запустить, разве что майнер. А вот нормальный облачный инстанс с жупитер нотбуком был бы очень полезен, даже платный.
338 1998518
>>1998457

>А вот нормальный облачный инстанс с жупитер нотбуком был бы очень полезен, даже платный.


Можешь попробовать MS Azure - оно в России вроде бы доступно. Бесплатного облака для своих запросов ты все равно не найдешь, так что регистрируйся по нормальному и плати с карты.
339 1998533
Как думаете, раньше пидерлессон сработает и через пару лет можно будет запускать gpt3 в мобильных играх (с нынешним ростом ОЗУ у мобил) или все это говно запакуют в GoPenschmulTser-3 и оно будет нормально работать на нынешнем железе в потребительском сегменте, а не только на серваках гугла? Inb4: раньше закончится кремний
340 1998535
>>1998533

>через пару лет можно будет запускать gpt3 в мобильных играх


В лучшем случае через пару десятков.
341 1998740
>>1998457
Ну убери трансформер, попробуй дистиляции какие-нибудь.
Что за зумерьё такое беспомощное, присохли к одной архитектуре и дрочат сидят.
342 1998757
>>1998740

> Ну убери трансформер, попробуй дистиляции какие-нибудь.


Будто не пробовал. Нихуя оно не работает, всё что я увидел, это зависимость способности сети к few-shot learning только от числа параметров. Чем их больше тем лучше результат. Всё. Остальные изьебства не работают. Пидерлессон ин экшн, так сказать. Использовать файнтюнинг вместо фьюшотлернинга не вариант.
343 1998768
Gg
344 1999784
Я правильно понимаю что большую часть задач машинного обучения можно описать так: есть функция из пространства фич в пространство решений, нам известны её значения на каком-то множестве (датасет) и надо эту функцию аппроксимировать. И все эти нейронные сети это просто функция которую мы подгоняем под неизвестную. Так или не так?
345 1999843
>>1999784
Это задача обучения с учителем. Да функция подгоняется, для некоторых классов функций есть гарантия обобщения, в частности для нейронных сетей.
346 2000047
>>1999784
Почитай бишопа, там удобный байесовский фреймворк, из которого выводится 99% алгоритмов машоба.
347 2000094
>>1999784
if piska_ebat() != null do piska_ebat(*arr) else if nesudba() != null do nesudba() else exit;
4054original.png175 Кб, 1402x1295
348 2000119
>>1999784
Да. Теорема Байеса, задача машинного обучения и формула условной вероятности в кругах Эйлера. D - данные, θ - веса.
349 2000128
>>2000119
Кто вообще решил, что круги эйлера сделают объяснение понятнее?
22968987-sara-boslaf-statistika-dlya-vseh-22968987[1].jpg164 Кб, 1092x1500
350 2000466
>>2000128
Отсюда позаимствовал эту идею.
351 2000570
>>2000119
Нихуя непонятная пикча
352 2000859
>>2000047
Че за байес
353 2000863
>>2000859
Преподобный Томас.
Зачем лезть в машоб, если не знаешь основ тервера?
354 2000918
Анонас накидал ноутбучек по обученной wannabe-dalle модели на открытом CLIP
https://colab.research.google.com/drive/1qbeMjhWCsjClREqARPRNapkE-MosJ9jI?usp=sharing
16061753525490.jpg67 Кб, 592x532
355 2000922
>>2000918
Хуита. Предыдущая версия хоть работала, а эта одних сутулых собак рисует.
>>2000859

> Че за байес


Зумера в своем репертуаре. Скоро будут спрашивать что такое таблица умножения
357 2001240
>>1980946 (OP)
Нужно модельку не большу (где-то на миллион параметров) потренить много раз. С разным порядком слоёв, оптимизаторами и прочим. Проверить какая архитектура лучше зайдёт. Быстро она будет на моём ноуте без видюхи трениться или стоит в облаке гпу не дорогой поискать? У яндекса есть датасфера, где можно сразу код писать и платить за каждую секунду выполнения кода. Может сразу там и начать проект делать?
358 2001277
z
image110 Кб, 860x611
359 2001597
>>2001240

>Нужно модельку не большу (где-то на миллион параметров) потренить много раз. Быстро она будет на моём ноуте без видюхи трениться?


Да, если только без серьезных извращений с рекуррентными сетями. Ну и офк зависит от данных.
360 2001599
>>2001597
Пикрандом, если что
361 2001706
>>2000119

>пик


Только 1% людей на земле могут решить эту задачку?
1552555728073.webm215 Кб, webm,
960x720, 0:05
362 2001710
363 2001727
>>2001710
Кунихико Фукусима выпрашивает у инвесторов грант на разработку неокогнитрона, 1980 год
добрый.png238 Кб, 550x550
364 2002030
Найдите ошибки во фразе "semi-supervised подход к анализу текстов: unsupervised обучение эмбеддингов + supervised обучение итоговой модели".
365 2002086
>>2002030
Набор баззвордов
366 2002142
>>2002030
Чет слишком общно
367 2002286
мне кажется, это лучший тред для моего вопроса:
Какого современного ит-философапочитать чтобы уложить в мозгу законы развития науки и программирования?
Как научиться видеть в тенденциях общее?
Как развиваются программные системы? Где баланс между выгодой обобщения и эффективностью быстрых решений?

Вот был Лем - и умер.
Вот был Джоел Спольски - исписался (и пидор к тому же)
Остальных я не знаю. Кто прям ГЛЫБА и в то же время полезен уму, как логика Аристотеля?
JaronLanier1.jpg177 Кб, 800x777
368 2002371
>>2002286
Лем крут был, да. Сейчас таких уже нет. Пикрелейтед чувак Джерон Ланье как философ айти интересен. Создатель виртуальной реальности и вообще. Но его на русский никогда не переводили, так что чтиво не для всех.
369 2002465
>>2002371
ну и что вкратце? что тебя зацепило в нем?
370 2002485
>>2002286
Элиезер Юдковский
371 2002525
>>2002485

>Юдковский


Этого шарлатана? Каким местом он вообще относится к ИТ
372 2002594
>>2002286
Непоследние люди в машобе общаются по поводу ИИ.
https://sysblok.ru/category/podcasts/
373 2002655
>>2002594
Либо нонеймы, либо неинтересные люди.
Ветров вообще одно и то же из подкаста в подкаст рассказывает.
Ну и на серьезных щщах обсуждать AGI больше 2 минут - моветон.
ec0.gif144 Кб, 600x800
374 2002719
>>2002485

>Элиезер Юдковский


AI BAD AND WILL KILL US ALL!!!!1111пыщьпыщь
Философия уровня /b/.
375 2002749
>>2002719
А что ещё ждать от неуча без высшего образования
376 2002768
>>2002371
О, я видел документалку с ним на нетфликсе.
377 2003003
>>2002286
Не читай философов. Читай пейперы, устраивайся в гугл, греби деньги лопатой.
378 2003108
>>2002465

> ну и что вкратце? что тебя зацепило в нем?


Пижжу, его оказывается на русском издавали. А я и не знал, лол. Интересен он своими взглядами на айти, его влияние на общество. С одной стороны с его доводами не поспоришь, а с другой - читаешь и пынямаешь, что сам до многих таких мыслей никогда бы не дошел, хотя все в общем-то на поверхности. Всё-таки, простой обыватель и мыслитель его уровня это абсолютно разные уровни понимания вещей.
379 2003191
>>2002286
>>2002371
>>2002768
В той документалке он говорил о том, как айти гиганты, главным образом Фейсбук и Гугл, а также Твиттер, манипулируют людьми, знают про людей больше, чем эти люди сами, и таким образом ведут общество туда, куда им, этим корпорациям, нужно. Что фактически эти корпорации стали могущественнее правительства США.
Так же он говорил, что ведут они американское общество к гражданской войне, выступая на стороне Демократической партии.
Собственно, 2020 год показал, как чертовски прав был этот чел, когда эти гиганты похоронили свободу слова в США, уничтожая сторонников Трампа и его самого.

Хотя мне лично давно ясно было, что они выступают на стороне блевачков.
380 2003194
>>2003191

>Хотя мне лично давно ясно было, что они выступают на стороне блевачков.


Да, блевачки же выступают за то чтобы рабочие не могли в туалет выйти на работе.
Фейсбуки и гуглы форсят blm, лгбт и прочее говно чтобы люди отвлекались на проблемы рабов в 18 веке и не спрашивали "а почему безос зарабатывает в миллион раз больше меня, хотя он ничего не делает"?
381 2003201
>>2003194
Ну всё правильно, так и есть.

Я не понял, это был сарказм или не сарказм?
382 2003204
>>2003201
В чем левизна тогда, если это всё делается ради собственного профита?
383 2003221
>>2003204
А левизны там и нет, там есть блевизна только.

АйТи гиганты выступают на стороне блевачков, то есть радфема, пропаганды лгбт, блм, тупых мигрантов в Европе и прочего сжв говна.
То есть тех, чья борьба идёт против какого угодно выдуманного неравенства, фактически превращаясь в обратную дискриминацию, но только не против капитализма. Блевачки даже и не слышали о такой классовой борьбе.
Просто так уж получилось, что борьба с неравенством — левая тема, вот эти тупые быдланы и называют себя левыми, не имея к настоящим левым никакого отношения.
384 2003339
>>2003221
Это культурный марксизм.
385 2003382
>>2003339

> Это культурный марксизм.


Каво? В этом нет никакого марксизма. Марксизм это про экономику, классовую борьбу, и коммунизм без государства, денег, и буржуев.
386 2003449
>>2003221

>ЭТО ДРУГОЕ


Оправдания левака.
387 2003458
>>2003449
Да, это другое, лол. Ты не можешь показать на свою мертвую мать и сказать "смотрите, какие леваки тупые".
388 2003464
>>2003458
Нет каких-то "других" леваков. Ты ведь не скажешь, что есть какие-то другие праваки, верно?
389 2003473
>>2003464
Найс подмена понятий дебил
мимо
390 2003635
>>2003449
Ты ебанутый? Ты где-то увидел у блевачков борьбу против капитализма?
391 2003638
МашОбучач - оплот красной политэкономии!
392 2003655
>>2003638
Так-то логично!
393 2003686
>>2003638
Машоб проникнет во все щели и приведет к максимуму в эффективности расхода ресурсов. Рыночная рука будет зажата тисками планирования. Госплан на новом витке диалектической спирали развития.
394 2003780
>>2003686
Все верно. Сначала будет БОД (социализм), потом классовое общество полностью разрушится, ибо пролетариат вымернет как класс.
395 2003796
>>2003686
я просто представляю как найронка написанная пынелхатой стреляет по Воронежу ядерными ракетами в целях борьбы с коронавирусом.
Потом её заменят на новую версию- внутри компьютера будет сидеть человек, ему будет подватсья информация, ону бдует печатать отчет и советы по решению проблемы. если совыет помогают- то нейронку положительн омотивируют- льют в щель молоко и сыплют гречку. По итогам года выдаётся премия конфетами.
396 2003798
>>2003686
https://www.popularmechanics.com/technology/infrastructure/a27793543/artificial-intelligence-carbon-footprint
Да, действительно, так эффективно ресурсы мы ещё никогда не расходовали. Осталось создать thiskotletadoesnotexist и можно будет переходить к новой формации.
397 2003807
>>2003798
Идет переход на альтернативные источники энергии.
image203 Кб, 1112x908
398 2003869
Что выглядит наиболее перспективно из "трансформеров" за O(n)/O(nlogn)?
Почитал про бигберд - выглядит как сверточная сеть с приколами.
На изучение всего зоопарка время тратить не хочется.
SkyNet 399 2004324
Вот тут наши посоны скайнет делают: https://github.com/mastertimer/mutator
А если серьезно, то помогите понять что это за нёх? С с++ плохо знаком. Проект скомпилил, запускается(скрин 2). Что делать не понятно. Что это за бодяга очень интересно.
Кто умет в чтение кода с++ - опишите что это такое? Какой-то AI?
400 2004341
>>2004324
Вот в этом файле комменты интересные. Они-то меня и заинтересовали изначально:
https://github.com/mastertimer/mutator/blob/master/sable/sable.cpp
401 2004369
>>2003686
Довольно наивно надеяться на это. Ведь любой прогноз сопровождается Ошибкой
402 2004395
>>2004341
Крепкий член сильный волос
403 2004401
404 2004419
>>2004324
Что-то уровня протеиношиза.
Untitled.png180 Кб, 685x416
405 2004557
Как прокачать бизнес-смекалочку?
406 2004594
Что там. Когда будет нейронка, которая сама будет собирать датасет и чистить его от мусора?
407 2004698
>>2004557
как и всё другое- делаеш бизнес, мотришь, что делают конкуренты, повторяешь, думаешь как улучшить. Потом приходит понимание собственной потребности и ты удовлетворяешь её для всех, профит.
408 2004702
>>2004594
Когда ты формализуешь задачу и соберешь данных.
409 2004877
>>2003869
Бамп вопросу.
Прочитал про лонгформер - работает как бигБёрд, но без рандомных токенов.
410 2004956
Сап. Есть одная нейронка. На вход получает 32 байта из рандомного места файла, а найрон на выходе говорит вероятность, что этот чанк принадлежит файлу нужного типа. Всего 2 типа файлов поэтому этой CNN достаточно для классификации. Задача нейронки изучить общие патерны в файлах каждого типа и по чанку выдернутому из рандомного места файла угадывать из файла какого типа он вынут. Для этой задачи лучше RNN и LSTM подойдут, но я не умею их писать. Поэтому такой костыль через чанки и CNN. Сейчас я тупо читаю файл как большой одномерный нумпай массив и по очереди перебираю чанки размера 32 байта и скармливаю в нейронку. Как лучше считывать вход переменной длинны в такую CNN? Хочу что-то типа RNN чтобы не костыльно было.
411 2004983
>>2004956

> Сап. Есть одная нейронка. На вход получает 32 байта из рандомного места файла,



Нормально описать не можешь что-ли? Не бывает просто файлов.
Зумер-ебанат...

>. Для этой задачи лучше RNN и LSTM подойдут, но я не умею их писать.



Если это так, очевидно, речь не просто о файле, а о последовательных сигналах.
Но твои попытки запутать не дают тебе сформулировать вопрос к гуглу.
412 2005094
У меня есть 2 вида картинок. Первая это скриншот с видео.
Вторая это скриншот консоли в которой этот скриншот отрисован символами.

Оба изображения имеют размер 640х360.

Всего имеется 5к картинок 2х версия, 10к в общем.
Я усредню каждый пиксель (R+G+B) / 3, получу оттенок. Во втором скриншоте беру G канал так как там только зеленый цвет.

В итоге я получаю 2 массива чисел. 230400 параметров. Мне уже что то подсказывает что обучать такую сеть я буду лет 50. Думаю объединить пиксели в квадраты по 100шт и взять среднее значение для них. Проблема в том что я не знаю как это все скомпоновать?
До этого ML я трогал через Model Builder в Net, там все просто, загрузил табличку, выбрал столбец который надо спрогнозировать. А мне надо спрогнозировать каждый пиксель.

Вопрос состоит в том как из всего этого создать Data Set который можно будет обработать нейронкой?
В итоге хочу получить модель которая стилизирует картинку под ASCII графику.
413 2005111
>>2005094
Тыб погуглил хоть. Чуть ли не просто алгоритмы есть, которые картинку в АСКИ переводят.
414 2005121
>>2005111
Да я хуй знает как такое гуглить.
Все что я нагуглил это статьи с описанием сервисов которые что то с изображениями делают.
415 2005123
>>2005111
А бля не так понял твое сообщение.
Ебать ты умный шо пиздец алгоритм который переводит картинку.
Точно как это я сам этого не понял? Ебать да можно ведь алгоритм нагуглить и перевести картинку.
Ну спасибо, без тебя бы я сам до такова не додумался.
Я вот скрины в пикриле руками собирал, смотрел какой пиксель а потом ставил точку, заебался пиздец, а коазывается алгоритм есть.
Спасибо.
Слушай ты сам то работаешь где? Я бы работодателю твоему хотел бы написать какой ты ахуенный и какие дельные советы даешь.
416 2005175
>>2005094
совсем не факт, что это займёт 50 лет. Для этой задачи подойдёт неплохо даже оригинальный pix2pix на минимальных разрешениях. Или у тебя видеокарты нету?
417 2005279
>>2005094

>В итоге хочу получить модель которая стилизирует картинку под ASCII графику.


style transfer, pix2pix, cyclegan
Датасет собирать в зависимости от того, чем из этого воспользуешься.
Картинки лучше бы поменьше раза в два, но опять же, всё от модели зависит.
418 2005635
>>2005123
Нихуя не понятен твой сарказм. И первый пост не понятен. Чё тебе надо-то?
https://github.com/RameshAditya/asciify
419 2006306
Бля где найти годный курс по тензерфлоу на русском?
На офф сайте слишком сложна, а на ютубе просто пересказывают офф сайт.
3ca717ac75482a2e1d6fc97a5f34f9d3b721ed7c30bde23c4b7b0c26982[...].09 Кб, 300x168
420 2006308
>>2006306

> слишком сложна

421 2006327
>>2006308
Я 30 сыч которому сложно читать по англицки.
Да и еще примеры на ебучем питоне который создан для аутистов.
Пиздец, разграничение команд пробелами, беать разрабы данного ЯП по пьяне придумали такой рофл и он зашел, представляю как они сейчас ржут.
422 2006398
Хуйзнает где спрашивать. Дайте видосов, статей как правильно засетапить среду разработки на ПК для анализа данных и каких-то лафовых моделей.
1. Пайтон, как разместить структуру проектов, куда всунуть юпитер?
Достаточно анаконды со всей хуйней или лучше пичарм?
2. Пайтон это реально сильно и уверенно? Или Р вполне конкурентно способен?
HELP.PNG92 Кб, 1495x700
423 2006418
Добрые люди - помогите, пожалуйста, в чём дело, как фиксить?
424 2006442
>>2004956
Нахуя тебе в этой таске сверточная нейроная сеть? И нет никакого входа переменной длины у тебя только один чанк такой будет, если файлы большие то можешь его выкинуть, либо дополнить нулями, либо заэнкодить с символом означающий конец. И тут нахуй не нужна свёртка.
Впрочем таска какое-то бесперспективное одебилившее говно, так что лучше просто пива попей
425 2006443
>>2005094
Зумеры изобретают свертку, что за высер. Написали тебе модели нейронок. Не будет у тебя там 230к параметров
И опять какая дебильная идея непонятно зачем нужная, зачем тут нужны нейронки неясно
426 2006449
>>2006327

> сложно читать по англицки


В программировании с таким только в петлю. Как и с тем, чтобы смотреть на язык не как на инструмент
427 2006453
>>2006398

> Достаточно анаконды со всей хуйней или лучше пичарм


Блеа анаконда это васяносборка библиотек, приложений, менеджера пакетов и менеджера виртуальных окружений. По мне так говно редкостное. Conda медленнее работает pip, там меньше версий библиотек. Зато можно не только python библиотеки устанавливать. Пригодится тебе когда-нибудь это? Нет. А пайчарм это вообще IDE. То, что ты спрашиваешь, что лучше как бы намекает, что тебе рано задаваться такими вопросами
428 2006464
>>2006398

>как правильно засетапить среду разработки на ПК для анализа данных и каких-то лафовых моделей


Для написания кода - пайчарм с интерактивной консолью жупитер говно без задач. Анаконда нужна для установки Tensorflow/PyTorch без возни с внешними зависимостями, ну и для возможности одновременно иметь несколько версий питона, или версий с разными библиотеками. Все пакеты можно ставить через pip прямо в окружение конды. Если не хочешь замусоривать систему говном, можешь поставить миниконду - минимальный установщик анаконды. Для контроля версий кода - git, для данных - dvc, для экспериментов - mlflow.
429 2006469
Родина дала куколаб, нет, хочу анякунды какие-то, пайчармы... Зачем весь этот мусор себе на комп тащить, если из облака все работает.
430 2006479
>>2006469

> Зачем весь этот мусор себе на комп


Дай угадаю, ты слушаешь музыку только из стриммингов? Может еще и жопу корпорациям продашь?
431 2006481
В каком формате лучше всего хранить нейросеть?
Screenshot20210424-153401.png219 Кб, 1280x720
432 2006552
Походу, взлетает идея обьебать по производительности гпт3 умным использованием всяких бертов размером 1% от гпт3, вон ещё одну модель вымутили. Ну и где ваш пидерлессон, как тебе такое, Илон Маск? https://arxiv.org/abs/2103.11955
433 2006556
>>1991147
seresnext и все прилагающиеся, efficientnet, трансформеры в CV
434 2006567
>>2006552
Объебать в одном конкретном задании на одном конкретном датасете. Неплохо, да. А ещё можно двузначные числа складывать эффективнее чем в гпт3, представь себе.
435 2006574
>>2006567

> Объебать в одном конкретном задании на одном конкретном датасете


Стандартные датасеты для того и делают, чтобы как-то сравнить производительность разных архитектур, но при этом на профильной для них задаче. Поэтому в общем случае если архитектура А превосходит архитектуру Б на наборе стандартных датасетов, то можно считать, что А лучше Б.
436 2006746
>>2006574
Только у гпт-3 нет профильной задачи (кроме предсказывания следующего токена по предыдущим).
437 2006931
>>2006453
Так что всё таки ставить? Пока никаких тензоров не предвидится, иду только к этому. Делаю какие-то модельки основаные на регресии, парсеры данных, деревья.
>>2006464
Какую ИДЕ выбрать чтобы сидеть копипастить код? Где еще можно работать в режиме ноутбуков как в юпитере? Желательно чтобы в ИДЕ был гит модуль или только через сосноль корректно ебашить гит?
438 2006977
>>2006931

> Так что всё таки ставить


Анаконду нахуй. python + pip + virtualenv + pew

> Где еще можно работать в режиме ноутбуков как в юпитере


VS Code там можно и к колабу подключиться, и гит через кнопочки понажимать (хотя нахуя это надо когда есть терминал).

Но ты же долбоеб ставь что угодно какая разница, это все дело вкуса. Может тебе удобнее вообще в виме писать скрипты или в браузере в колабе. Из года в год дебильные вопросы не меняются
439 2007009
>>2006977
Пиздец ты. Так и напиши, что не знаешь что посоветовать, а не выебывайся.
440 2007026
>>2007009
Ты когда приходишь в продуктовый тоже выпрашиваешь у других покупателей, что тебе купить? Просто осознай насколько ты дегенеративен, когда без объяснения для каких задач нужны инструменты просишь их посоветовать
441 2007032
>>2007026
Успокойся, шизло. Мне кажется я нормально всё распросил. Если бы разницы не было что ставить, то я бы и не задавал вопроса.
442 2007052
>>2007032

> Мне кажется я нормально всё распросил


> как правильно засетапить среду разработки на ПК для анализа данных и каких-то лафовых моделей


Ну покупай тогда SAS studio или excel с azure или matlab, АХХАХАХХАХА. Бля ну таких мудил, как ты, надо шеймить обязательно. Каждый приличный человек должен так делать, чтобы подобные дебильные вопросы "хочу не знаю чего" было стыдно задавать
443 2007117
>>2006443
Чтобы делать прикольные гифки.
444 2007127
>>2006746
И нахуй она нужна тогда?
445 2007379
>>2007127
Она может делать всё.
Но лучше всего предсказывает следующий токен по предыдущим.
А то что она внезапно очень хорошо решает ещё 9000 задач - это фича.
446 2007393
>>2006931

>Какую ИДЕ выбрать чтобы сидеть копипастить код?


>Где еще можно работать в режиме ноутбуков как в юпитере?


Я же тебе написал - пайчарм. Настраиваешь ipython, и можешь запускать выделенный мышкой код или делить файл на секции подобно жупитеру.
447 2007430
Котаны, подскажите, есть какой нибудь дата сет, в котором просто список богатых людей и ссылки на их профили в соц сетях? (фейсбук, твиттор, инста, вк)?
Либо такой же дата сет, но где хотя бы для каждого профиля в соц сети указан годовой доход его владельца чтоб оценить богатство?
Или какая то модель, которая даёт оценку по профилю в соц сети богатый человек или нет?
448 2007452
>>2007430
Много подписчиков (а ля кто-то с тнт) = богатый. Или тебе нужен датасет топ-менеджеров газпрома? Такого очевидно нет, тем более с ссылками на соцсети.
449 2007486
>>2007393
Значит если я в одном блоке создал датафрейм. А в другом делаю превращения над ним, то при условии что я ранее выполнил первый блок записал в память, могу как хочу запускать второй?
450 2007487
>>2007486
да
зачем ты это в тред пишешь?
451 2007545
Аноны, мне страшно. Очень много людей вкатились после курсов и реально нашли свой работы первые. Здесь есть такие? За сколько работаете?
мимо мех-мат МГУ, рвал жопу несколько лет, сейчас джун
452 2007585
>>2007452

>топ-менеджеров газпрома


Почему нет? у них же у всех есть твиттеры наверняка
453 2007647
>>2007545

> Очень много людей вкатились после курсов и реально нашли свой работы первые.


Научись мысли выражать, непонятно нихуя

> мимо мех-мат МГУ


Ясно, на клавиатуре значков кванторов нет, поэтому тяжко мысли формулировать.
454 2007652
>>2007647
Очень много людей пишут, что закончили всратые курсы и нашли работу. Теперь любой может стать джун-ДСом.
455 2007661
>>2007652
Любой да не любой. На самом деле не имеет значение закончил ли ты инфоцыганские курсы или вообще по бесплатным источникам накопал инфу и обучился. Важно, чтобы ты понимал какую-то базовую часть материала, представлял себе как решать те или иные задачи и готов был обучаться дальше. А в это не все могут, даже если с профильным образованием. Вон можно тред полистать выше и увидеть на каких моментах люди застревают и не могут самостоятельно разобраться
Да и смотря какой ДС. ДС бывает разным. Какому-нибудь аналитику макаке дата инженеру ничего кроме sql и питона и знать не надо будет
456 2007682
>>2007545
Зачем ты рвал жопу несколько лет? Как связаны нейросеточки с маняматикой? Как изменится регрессия при условии, что ошибки имеют равномерное на отрезке -1, 1 распределение?
457 2007684
>>2007682
Ну вот в том-то вся проблема. Я знаю, почему сходится PageRank(из эргодической теоремы) и с какой скоростью, знаю как вывести основные функции потерь в основных случаях из допущений о распределении ошибки и регулязаторы, знаю еще очень много всего, типа топологии и ее приложения. Но на хуй это нужно, если импортить и пихать данные может любой идиот?
458 2007695
>>2007682

> Как изменится регрессия при условии, что ошибки имеют равномерное на отрезке -1, 1 распределение?


Если речь о модели линейной регрессии (что вообще-то надо уточнять), то ничего не изменится, даже независимо от способа, которым ты будешь её строить по МНК, или ММП. Просто в случае МНК не будет одной из предпосылок и из-за этого формально мы не можем сказать, что по МНК мы получаем самую пиздатую оценку. Но на практике все предположения никогда и не выполняются.

>>2007684

> PageRank(из эргодической теоремы)


А причем тут ДС?

> знаю как вывести основные функции потерь в основных случаях из допущений о распределении ошибки


Например?

> знаю еще очень много всего, типа топологии и ее приложения


Причём тут ДС?

> Но на хуй это нужно, если импортить и пихать данные может любой идиот?


Такие как раз никому не нужны
459 2007696
>>2007684
И тем не менее, что случится, если в регрессии заменить нормальное распределение на равномерное?
460 2007697
>>2007695
Прости, незнакомые мне слова. Давай так,
y = Ax + epsilon
{epsilon_i} - независимые одинаково распределенные случайные величины с равномерным на отрезке -1, 1 распределением.
Как найти оценку x?
461 2007698
>>2007695

>А причем тут ДС?


Ну вот видишь, ты даже этого не знаешь, хотя многое из этого спрашивали меня в свое время на собесах джуновских.
462 2007699
Аноны блять может мне кто-нибудь объяснить нормально, что такое ебучий few shot и zero shot learning?
463 2007702
>>2007698
Ну расскажи. Я знаю PageRank только в поисковых системах. Причем тут ДС хуй знает. Что ещё тебя спрашивали?
464 2007706
>>2007697

> Как найти оценку x?


Метод наименьших квадратов
Метод максимального правдоподобия
Любой из них.
465 2007708
>>2007706
Ой, все, пошел нахуй.
В ответе должно было получиться выпуклое множество, любая точка которого явлется оценкой
466 2007709
>>2007699
Что тебе непонятно? Или кто-то тебе должен пересказывать миллион статей изложенных доступным языком ещё и с примерами? Очередной человек, которому "сложно читать на английском"?
467 2007713
>>2007708

> В ответе должно было получиться выпуклое множество, любая точка которого явлется оценкой


Мне трудно понять этот высер. Вопрос "как найти оценку". Ответом на такой вопрос является метод с помощью которого ты находишь оценку. МНК, ММП, есть другие но они почти не используются.
Тебе надо дохуя оценок? Можешь бутстрепить свои данные и применять к ним перечисленные методы
Хотя может ты имеешь в виду построить доверительный интервал по МНК с учётом такой ошибки, ну тогда хз
468 2007715
>>2007709
ладно чел спасибо, я думал тут сидят те кому не в лом будет блять объяснить маслёнку. Статьи то я читал и на английском, и модели с zero shot использовал в pet проекте, но блять стыдно как-то без понимая полноценного. Я как бы для себя принял, что вот оно так работает и всё, но блять хуёво же.... Я так понимаю, что zero shot это когда у нас прямых тренировочных данных нет, но есть какая-то мета инфа (какая зависит от задачи) и мы её используем. А few shot когда у нас просто мало тренировочных данных (ну и чё блять какая нахуй разница, я блять понимаю что там может быть всего 1-2 фотки одного человека, ну блять значит пиши модель чтобы работала сука так)
469 2007717
>>2007713
Пиздец, ты же даже не понял, о чем он говорит.
стартер нити
470 2007722
>>2007717
Расскажи, о чем он говорит в таком случае и что я не понял
471 2007754
>>2007487
А куда писать, аллаху?
472 2007759
>>1981270
Бамп
473 2007849
>>2007430
кредитный скоринг уровня БЭ
474 2007862
>>2007849
На самом деле не кредитный скоринг. Я просто хочу узнать, какой примерно процент богатых людей смотрят аниме
475 2007873
>>2007862
0%, забирай бейзлайн
476 2007943
>>2007873
Какой ты скучный. Я уверен, что минимум 5% богачей смотрят аниме и хочу это доказать.
477 2007946
>>2007943
>>2007873
Швятой Машк смотрит вроде, какой-то шейх оплатил большую часть аниме по доте.

https://dtf.ru/gameindustry/646199-princ-saudovskoy-aravii-zayavil-vkontakte-chto-profinansiroval-anime-po-dota-dlya-netflix-i-teper-hochet-kupit-valve
478 2007967
>>2007946
Да, я слышал об этом. Но это частные случаи, а я хочу собрать статистику
479 2007975
>>2007967
Ты никак не соберешь. Люди не публикуют свой доход в соцсетях
480 2008138
>>2007379
Зачем мне палка, которой в теории можно забивать гвозди, копать землю и ковыряться в жопе, если есть куда более эффективные лопата, молоток и дилдо?
481 2008173
>>2007975
ну может есть модельки, которые оценивают доход пользователя по профилю в соц сети
16166551320610.jpg22 Кб, 417x417
482 2008195
>>2008173

> ну может есть модельки, которые оценивают доход пользователя по профилю в соц сети


Нет такого. Тебе проще купить какие-нибудь базы налоговой в даркнете, лол. Алсо, задача у тебя - шиза какая-то. Да, какой-то ненулевой процент богатых смотрят аниме. И что дальше? Что тебе даёт знание этого? Ты им аниме впаривать собрался?
Screenshot from 2021-04-25 18-14-52.png7 Кб, 333x312
483 2008250
>>2006442
>>2004983
Есть файлы. Это простые бинарные фыйлы специального формата со свои телом, хедером, метаданными. А я классифицирую их на 2 группы. Просто способ из разделить это посчитать энтропию файла и сделать регрессию. Файлы с большой энтропией в теле в одну группу, а с маленькой в другую. Но я хочу улучшить этот способ с помощью нейронок. Опыта работы с ними нет, но пока что смог сделать cnn, которая глядя на любой чанк из файла размером 32 байта говорит к какому классу он относиться. И чтобы весь файл классифицировать я прочитал его по байтам как одномерный массив и таким сканирующим окном размером 32 байта прошёлся по нему и для каждого окна посчитал вероятность, а в результате вернул среднеарифметическое вероятностей всех чанков. Сейчас моя cnn это модель на пайторче как класс определена, а предсказание реализовано как функция, которая принимает нумпай массив, проходит этим окном по нему и возвращает вероятность. Я бы хотел эту функцию переписать как какую-нибудь модель, которая вутри себя этот cnn инкупсулирует и работает как rnn. Скармливается нумпай массив произвольной длины, вызывается предикт и сразу возвращается результирующая вероятность принадлежность файла классу. Как такое сделать?
484 2008334
>>2008250
Никак. Пиши rnn или лучше lstm.
485 2008338
>>2008250
Можешь сделать полносверточный кусок. а все его выходы сворачивать globalaveragepooling'ом, но там с масштабированием качество будет проседать.
486 2008482
>>2008195
Просто, ради фана. Поэтому инфа с даркнета не пойдёт
И, алсо, я уверен, что не меньше 5%

А как всякие статистические агентства считают количество богатых и бедных в стране? Типо соотношения между ними и прочие
487 2008502
>>2008482
Через отчётность компаний в налоговую
488 2008668
>>2007699
Кто-нибудь, объясните что такое cum-shot. Я не понимаю, гугл на сайты странные отправояет,. Меря родительский контроль не пускает на них.
489 2008687
>>2008668
ахахаххахахахаххахахахахахаххахаххахахахахахахахааххахаххахахаххахахаахаххахахахаххххахаххахахахахахахахаххаххаахахха вот угар
490 2009114
Распознаю текст с доков, что бы потом анализировать этот текст. Для распознавания юзаю Тику. После распознавание есть всякие ошибки - типо где то буквы в слове не хватает, где то одно слово разбито на два, где то вообще хрень какая то. Есть какие то библиотеки в питоне, которые могут помочь снизить количество таких ошибок? Поправить орфографию, там, где есть опечатки и объединить два слова в одно. Стоит ли этим вообще заниматься?
491 2009233
>>2008338

>globalaveragepooling


Отличная идея. Мне нравится. Мой алгоритм как раз это и делает только через велосипед. А как теперь сделать чтобы вход разделялся на нужные чанки и по очереди в нейронку подавался?
492 2009442
Кто тут про камшот лернинх спрашивал, вот обзор основных направлений, причем на русском https://www.youtube.com/watch?v=YNA6N4x6iZs
493 2009618
>>2009442
за видос спасибо реально топ топ, но мне то блять норм нужны были гайды для маслят.

Короче я в очередной раз пересмотрел 20 видосов и прочитал 10 статьей по запросам zero,one,few shot learning и вот что мне зашло.

https://www.youtube.com/watch?v=hE7eGew4eeg (азиат объясняет для типичного двачера, чтобы он точно всё понял (те как для дауна полного))
https://www.youtube.com/watch?v=jBnCcr-3bXc (если вам нехуй делать можете послушать челика, тоже топ топ)
https://www.youtube.com/watch?v=QhUtXH1BF48 (по сути тоже самое, что прошлый видос, но на русском и для более тупых с объяснением структуры модели в общем)
https://www.youtube.com/watch?v=96b_weTZb2w&pp=qAMBugMGCgJydRAB (этого азиата наверное все уже видели, но честно мне его видосы не заходят потому что я даун)

Статьи кидать не буду ибо идите нахуй
494 2009892
И зачем нужны эти собственные значения, жордановые формы какие-то, ещё что-то там?
16067479990680.png83 Кб, 511x407
495 2010056
>>2009892

> И зачем нужны эти собственные значения, жордановые формы какие-то, ещё что-то там?

496 2010073
497 2010254
>>2009892
Если собираешься в кликере работать, то не нужны, не переживай.
498 2010313
>>2010254
Назови где нужны
499 2010425
>>2010313
В анализе графов собственные значения/векторы постоянно всплывают - обобщения pagerank, различные метрики центральности.
500 2012499
https://arxiv.org/abs/1905.00094
посаны, тут пишут, что кроме того, что нужно уменьшать learning rate можно применять некий decay loss. Можете мне помочь понять что это такое, я уже два раза прочитал бумагу. Не понел.
501 2012667
>>1980946 (OP)
Зачем PR-curve если есть ROC-curve? В чем разница?
Без названия.png7 Кб, 259x195
502 2012692
503 2012995
>>2012667
Ну это же буквально разные метрики. В ROC ты выбираешь порог в трейд оффе между долей правильно угаданных объектов первого класса априори и процентом ошибок в классификации объектов второго класса. То есть в таком случае мы выбираем порог для того, чтобы угадывать оба класса хорошо. В PR же трейд офф между точностью (долей правильных в наших ответах первого класса) и "долей правильно угаданных объектов первого класса априори". То есть в таком случае мы задрачиваемся выбирать как можно лучше первый класс.
Ну и таким образом площадь под ROC показывает как хорошо мы угадываем в целом, а площадь под PR как хорошо мы угадываем первый (positive) класс.
504 2014528
Как правильно считать эффективность бинарных классификаторов относительно друг друга? Есть простой бинарный классификатор, у которого precision и recall около 90%. При этом в тестовой выборке релевантных элементов 80% и не релевантных 20%. Поэтому если написать классификатор, который все элементы будет называть релевантными, то он получит precision 0.8 и recall 1. Тогда F-score будет всего на 3 процента меньше, чем у моей модельки. Значит моя модель не работает? Но при этом если сравнивать с алгоритмом, который 50 на 50 угадывает элемент релевантный или нет, то у него F-score будет где-то 60%, я у меня сейчас 90. Так значит алгоритм всё таки работает? Не понимаю. Как правильно оценивать эффективность моей модели?
505 2014569
>>2014528
Зависит от задач бизнеса.
Можешь смотреть на roc auc или pr auc
506 2014571
>>2014528
Смотря, что для тебя эффективность
507 2014597
>>2014569
>>2014571
Погуглил эти метрики. Нашёл Cohen's kappa. Это то, что мне нужно. Буду его использовать на пару с F-score . Спасибо
508 2014625
>>1980946 (OP)
Анон, поясни как в нейронных сетях, сохраняется и обрабатывается информация?
Я знаю, что различные mindmap и прочие семантические паутины, представляют из себя сетевую модель данных. Пик1.
Я также знаю, что любую сетевую модель данных, можно свести к реляционной модели данных, и вписать в базу данных, то есть в реляционной базе данных можно хранить все эти сетевые модели данных, если реализовать связи многие-ко-многим, между элементами, через промежуточные таблицы. Пик2.

Так же само, можно и реляционную базу данных, представить в виде сетевой модели, и я так полагаю, ассоциативная память на нейронных сетях, являет собой базу данных, с сетевой моделью данных.

Но, база данных, содержит сами данные, а нейронные сети содержат просто нейроны взаимосвязанные.

Так как же именно, в этих нейронах записываются данные, и как они считываются, а???
509 2014645
>>2014625
В смысле. У простейший инс есть входной слой, есть выходной слой. Веса инс настраивают как входной вектор преобразуется в выходной. Преобразование состоит из последовательных операций над матрицами: умножением, активацией, сверткой и так далее. Это просто такой класс функций, настраиваемых через веса
image.png362 Кб, 961x816
510 2014708
Сап. Сразу же попрошу не кидаться палками, ибо я, во-первых, не знаю, куда идти, во-вторых, от программирования далек как повар от милиционера, а вопрос достаточно срочный.
Ситуация бляздец: у меня в лаборатории софт для установки пишет значения, получаемые с нее раз в секунду, в формате .abf. Мне нужно открыть этот формат дома. Софт, который стоит в лабе, нельзя нигде достать и просто так накатать на комп, это не обсуждается. Я слышал, что .abf можно открывать в MS SQL, но вот вообще не понимаю, на какую кнопку тыкнуть, мне это сложно. Гайды уже почитал, но они все для людей, которые разбираются в тем0чке. А я нет. Анончик, надеюсь на твою помощь и снисходительность. Как открыть ебучий .abf, скопировать значения и, желательно, экспортировать в эксель? (ну это уже опционально)
511 2014713
>>2014708
sql и visual studio с компонентами для баз данных или че там надо уже поставлены
512 2014753
>>2014625

>Анон, поясни как в нейронных сетях, сохраняется и обрабатывается информация?


Сохраняешь параметры функции. Обрабатываешь, применяя функцию к аргументу.
Сравнение с бд очень всратое, лучше почитай про работу нейронок, а не пытайся выдумать аналогии.
513 2015621
>>2014708
AbfConvert
514 2016008
>>2014645
То есть, фактически, различная информация, а именно - данные, хранится не столько в самой структуре взаимосвязи между нейронами, сколько - кименно в весовых коэффициентах, задающих силу связи между различными нейронами?

И в то время, как в весах хранится инфа, сама структура взаимосвязи между нейронами, особо, не имеет значения, так как различные нейросетевые паттерны, могут реализовываться различными способами, через разные структуры, по принципу белого ящика Винера: https://ru.wikipedia.org/wiki/Обратная_связь_(кибернетика)
То есть, я что хочу сказать. Вот есть например, у меня, в памяти какое-то слово, или буква даже - ещё элементарнее.
Это слово или буква, может храниться в виде весовых коэффициентов связей между дендритами надцати нейронов,
а может храниться при взаимосвязи пяти скажем нейронов. Эдакий стандартный, и оптимальный - нейросетевой паттерн, задающий именно букву, более сложной и неоптимальной вариацией которого и является стурктура нейросети, в памяти моей. Верно?
То есть, блядь, я вот что хочу сказать. Что различную инфу, можно было бы хранить в виде оптимальных нейросетевых паттернов, оптимизированных, стандартизировав эти паттерны, ебучие. Это раз.

И во вторых, если инфа хранится именно в весах,
то возможно ли создать, внезапно, опять же - реляционую базу данных, в виде таблицы какой-нибудь, скажем:
|КодСинаптическойСвязи|КодНейрона1|КодНейрона2|ВесовойКоэффициентСилыСвязиНейронов|
И в этой таблице, хранить и структуру нейросети, и веса, а значит и инфу, в памяти, представленную в виде весовых коэффициентов?
Если такое возможно, то как эту инфу считать из базы, и главное - как её правильно вписать туда?
Как инфу сконвертировать в эти вот веса?

Ты говоришь о каких-то функциях для матричного преобразования входных векторов на входном слое, в выходные вектора в выходном слое...
Но я ваще не ебу что это за функции вектора, и как вообще их вкодить, блядь.
Вот есть, например, буква "Х", ты видишь её на экране, она состоит из пикселей,
описание положений этих пикселей, можно вкодить, а если эта буква в памяти, в мозгах зависла,
как её, блядь, описать через эти вот функции и вектора?
И когда я вспоминаю букву "Х", как я понимаю, то одним сигналом от какого-либо нейрона - просто совозбуждается ячейка ассоциативной памяти, в долговременной или кратковременной памяти с адресацией по содержанию, и эта буква "Х", просто вспоминается,
а потом либо пишется, либо озвучивается - уже в зависимости от контекста, в котором она была вспомнена,
в результате контекстно-зависимых вычислений нейрокомпьютерных.
514 2016008
>>2014645
То есть, фактически, различная информация, а именно - данные, хранится не столько в самой структуре взаимосвязи между нейронами, сколько - кименно в весовых коэффициентах, задающих силу связи между различными нейронами?

И в то время, как в весах хранится инфа, сама структура взаимосвязи между нейронами, особо, не имеет значения, так как различные нейросетевые паттерны, могут реализовываться различными способами, через разные структуры, по принципу белого ящика Винера: https://ru.wikipedia.org/wiki/Обратная_связь_(кибернетика)
То есть, я что хочу сказать. Вот есть например, у меня, в памяти какое-то слово, или буква даже - ещё элементарнее.
Это слово или буква, может храниться в виде весовых коэффициентов связей между дендритами надцати нейронов,
а может храниться при взаимосвязи пяти скажем нейронов. Эдакий стандартный, и оптимальный - нейросетевой паттерн, задающий именно букву, более сложной и неоптимальной вариацией которого и является стурктура нейросети, в памяти моей. Верно?
То есть, блядь, я вот что хочу сказать. Что различную инфу, можно было бы хранить в виде оптимальных нейросетевых паттернов, оптимизированных, стандартизировав эти паттерны, ебучие. Это раз.

И во вторых, если инфа хранится именно в весах,
то возможно ли создать, внезапно, опять же - реляционую базу данных, в виде таблицы какой-нибудь, скажем:
|КодСинаптическойСвязи|КодНейрона1|КодНейрона2|ВесовойКоэффициентСилыСвязиНейронов|
И в этой таблице, хранить и структуру нейросети, и веса, а значит и инфу, в памяти, представленную в виде весовых коэффициентов?
Если такое возможно, то как эту инфу считать из базы, и главное - как её правильно вписать туда?
Как инфу сконвертировать в эти вот веса?

Ты говоришь о каких-то функциях для матричного преобразования входных векторов на входном слое, в выходные вектора в выходном слое...
Но я ваще не ебу что это за функции вектора, и как вообще их вкодить, блядь.
Вот есть, например, буква "Х", ты видишь её на экране, она состоит из пикселей,
описание положений этих пикселей, можно вкодить, а если эта буква в памяти, в мозгах зависла,
как её, блядь, описать через эти вот функции и вектора?
И когда я вспоминаю букву "Х", как я понимаю, то одним сигналом от какого-либо нейрона - просто совозбуждается ячейка ассоциативной памяти, в долговременной или кратковременной памяти с адресацией по содержанию, и эта буква "Х", просто вспоминается,
а потом либо пишется, либо озвучивается - уже в зависимости от контекста, в котором она была вспомнена,
в результате контекстно-зависимых вычислений нейрокомпьютерных.
515 2016013
>>2016008
Ты сам себе мозги ебёшь. Загрузи любую нейроночку в куколаб и посмотри как она устроена, выполни model() итп. Нахуя это в виде базы данных представлять, кому и какая от этого польза, непонятно.
516 2016092
>>2016013
Как я понимаю, любую сетевую модель данных, а быть может и любую модель вообще - можно представить семантической сетью,
если разбить эту модель на достаточно-элементарные фрагменты,
и просто взаимосвязать их между собой, различными связями.
Но сами эти элементы, являют собой данные.

Нейросеть, состоит из достаточно-элементарных элементов, нейронов, но нейрон не содержит данные, он содержит просто передаточную функцию, и входы, и может либо возбуждаться, либо нет. Вот я и спросил, как именно в нейросетях записывается и считывается инфа, в частности - воспоминания,
но ты такую хуйню затёр про веса, про вектора и функции их матричного преобразования, шо яебу.
517 2016111
>>2016092
Вектора весов нейронки подгоняются под векторизованные данные с помощью минимизации ошибки между весами и данными. Нейронка - зеркало отражающее данные.
518 2016147
>>2016092
>>2016008
Ты даун что ли ебаный? Если ты не знаешь, что такое вектор, матрица, то иди читай учебник по линалу за первый курс. Никто в твою шизу не будет впихивать определение инс.
519 2016642
>>2015621
спасибо, ты спас мою жизнь, анон!
520 2017155
>>2016147
Вот блядь, да я знаю что такое вектор и матрица, вектор - это стрелочка, а матрица - это таблица с данными.
Ты лучше скажи как инфу записать в нейросеть? Есть простейшие примеры, не?
521 2017275
>>2017155

> вектор - это стрелочка,


Не стрелочка. С таким пониманием тебе реально лучше почитать что-то по линейной алгебре.

> Ты лучше скажи как инфу записать в нейросеть? Есть простейшие примеры, не?


Есть. Я же выше писал >>2016013 нейросеть это просто объект, возьми да посмотри.
522 2017383
>>2017155

> вектор - это стрелочка


Нет, блядь, не стрелочка. Скажу больше, вектор это частный случай матрицы.
523 2017384
>>2017275

> линейной алгебре.


А ведь линал это школьная программа. Вот и думайте, с кем в треде сидите.
ZoomerFortniteDance[1].gif224 Кб, 680x498
524 2017396
>>2017384
С зумерами, которые еще учатся в кшоле?
525 2017399
>>2017384
С двачерами
526 2017422
>>2017383
Только наоборот
527 2017534
>>2017422
Точно. Матрица это вектор векторов. Т.е data Matrix = Vector (Vector a)
528 2017535
>>2017534

> data Matrix a = Vector (Vector a)



самофикс
529 2017547
>>2017534
Не, не поэтому. Матрицы это один из важнейших примеров векторного пространства, c естественной структурой алгебры на них.
16200433414840[1].mp44,4 Мб, mp4,
540x960, 0:26
530 2017663
Вот и выросло поколение. Думают, что вектор - это стрелочка, но требуют хорошую работу.
531 2017722
>>2009233
>>2008338
>>2008250
>>2006442
>>2004956
Снова привет. Это штука заработала. Но только для маленьких файлов. При этом перед перед подсчётом среднего значения всех выходов я сначала их сгруппировал в группы по 128 выходов и выбрал их них максимальный. Это значительно уменьшило размер слоя, из которого среднее значение считается и заработало для маленьких файлов. Но для больших получается очень много околонулевых выходов, где после взятие максимума он тоже околонулевым получается и среднее значения тоже получается маленьким. Хотя файл должен детектиться. Как тогда правильно обрабатывать эти выходы? Пробовал ещё вместо поиска максимума среди групп размером 128 разделять все выходы на 128 одинаковых групп переменой длины, но в больших файлах они большими получаются и тогда ложно положительные детекты выскакивают. Как правильно этот случай хендлить?
16195597805770.jpg73 Кб, 592x532
532 2018103
>>2017155

> вектор - это стрелочка

533 2018164
>>2017663
Но ведь ты сам выдумал, что он требует хорошую работу.
Это же просто залётуха, задавшая очень хуевый вопрос.
изображение.png9 Кб, 922x186
534 2019206
>>1980946 (OP)

>Где ещё можно поговорить про анализ данных?


>http://ods.ai/



А там прямо обязательно расписывать кто ты по масти и с какого района? Или там всех принимают?
image225 Кб, 1080x1845
535 2020298
536 2020776
Господа Машобисты поясните за ИИ и человека. Ести ли у биологического интеллект преимущества перед исскуственным? Или человек уже ВСЕ и можно расслабиться с распределением, один хуй через пару лет заменят.
Опять же ИИ это чистая математика, значит и человека можно математически рассчитать? Ни души, ни уникальных способностей для био-интеллекта?
И, если не затруднит, оцените мощю GP3- это уже общий интеллект и он даже мне может интеллектуально переебать?
537 2020780
>>2020776

>ИИ ИИ ИИ ИИ


Ты для начала обычному интеллекту дай определение и критерии. Прохождение теста тьюринга в ближайшие лет 5 не предвидится.
538 2020782
>>2020776
очень хотелось бы написать, что с такими вопросами тебе нечего думать про распределение после вуза, но ,к сожалению, в мире всё еще очень высока конкуренция даже среди таких как ты, так что не расслабляйся.
539 2020799
>>2020776

> Ести ли у биологического интеллект преимущества перед исскуственным


Биологический существует, а сильный искусственный — нет
540 2020813
>>2020780
Прошли же вроде? Ну там 33% не смогли определить. Или что ты имеешь ввиду?
>>2020782
Ну ты мог искренне попытаться ответить на идиотские вопросы, но просто решил подъебать. Ок, а теперь твоё мнение?
>>2020799
Ну машины уже сами ездят, а ведь это почти магия. Не думаю, что после такого будут проблемы дотянуть хоть до сверхинтеллекта.
541 2020824
>>2020813
человек гораздо дешевле машины. еще работать и работать.
Душа. Как только найдешь критерий наличи или отсутвия луши -сразу пиши в нобелевский фонд.
Переебат ьможет и кирпич, а GPT-3 не ответит на простую задачу типа полотенца на входе или двух стульев. Для своих задач типа рисовать котиков-мутантов- подойдёт. Для чего-то другого- не подойдёт.
Читай Юдковсокго, может будет толк.
542 2020833
>>2020824

>человек гораздо дешевле машины. еще работать и работать.


Проблема только в цене? И всё? Печально ощущать себя устаревшим.

>Душа. Как только найдешь критерий наличи или отсутвия луши -сразу пиши в нобелевский фонд.


Я имел ввиду, что-то за счёт чего человек никогда не попадёт в апокалиптический сценарий и можно успокоиться и спокойно жить.

>Переебат ьможет и кирпич, а GPT-3 не ответит на простую задачу типа полотенца на входе или двух стульев


Я смотрел кого-то жирного ретарда на ютубе и он задал вопрос GP3 типа, как пронести большой стол через дверь. Ответ: разреть стол на куски. Оригинально?
543 2020876
>>2020813

> Ну машины уже сами ездят, а ведь это почти магия


Ага целое уже (давно они могли сами ездить, вопрос в безопасности). Никакой магии тут нет и нейронки узко заточены.
544 2020888
>>2020876

>Никакой магии тут нет


Ну как нет, там нужно и пространственное мышление и предсказания поведения других машин на дороге и различать все дорожные элементы.
545 2020908
>>2020888
Боты в контер страйке наверное для тебя тоже магия, хех
Laughing-Guy-Meme-01.jpg54 Кб, 991x902
546 2020952
>>2020824

>Читай Юдковсокго, может будет толк.

547 2021045
>>2020813

>Прошли же вроде? Ну там 33% не смогли определить.


Это rule-based боты, притворяющиеся двухлетним украинским мальчиком, разговаривающем на английском языке.
Ну и речь не о том чтобы наебать (почти) ничего не подозревающего человека с улицы, а о том, чтобы научиться правдоподобно "играть" в огромный класс лингвистических игр.
Ну и ты так и не дал определение и критерий интеллекта.
>>2020824

>а GPT-3 не ответит на простую задачу типа полотенца на входе или двух стульев


А ты ответишь, кожаный мешок? Что общего у лося и пожилого мексиканца?
548 2021060
>>2021045
И что общего?
549 2021094
>>2020824

> GPT-3 не ответит на простую задачу типа полотенца на входе или двух стульев.


Скорее всего как раз ответит. Такие архитектуры обучают на корпусах commoncrawl, это считай архивы интернетов. И про полотенца и стулья эта нех точно знает. Поэтому там упор на зерошот/фьюшотлернинг а не файнтюнинг, оно и так почти все знает.
550 2021159
>>2021060
Что-то ты на простой вопрос не ответил, а до gpt-3 доебывался.
551 2021194
>>2021045

> Что общего у лося и пожилого мексиканца?


Шляпа.
552 2021275
>>2021094
>>2021045
с тем же успехом можно поисковые алгоритмы гугла назвать разумными, они тоже знают про блатные законы.
553 2021286
>>2021275
А чем твоя разумность разумнее трансформера?
554 2021329
>>2021286
То что я могу написать что-то кроме неловкой шизофазии?
555 2021336
>>2021329
У тебя просто параметров больше, чем у гпт3.
556 2021382
>>2021286
ничем, лол, я уже писал, что критерия разумности нету.
557 2021407
>>2021336
Или: интеллект принципиально по другому устроен, тоже вариант.
558 2021436
>>2021407

> интеллект принципиально по другому устроен


И как он по-твоему устроен?
559 2021445
>>2021436
Ну уж точно не как накостыленый трансформер, с чего вдруг такое совпадение?
560 2021452
>>2021445

> Ну уж точно не как накостыленый трансформер


Ты знаешь, как? Расскажи
561 2021475
>>2021452
Чего то ты порвался неожиданно, мне кажется. Никто не знает, в том-то и проблема с по настоящему сложными вещами что их брутфорсом не задавить.
562 2021482
>>2021475

> Чего то ты порвался неожиданно, мне кажется.


Где?

> Никто не знает,


Никто не знает, но ты с чего-то утверждаешь, что "не так".

> в том-то и проблема с по настоящему сложными вещами что их брутфорсом не задавить.


Шахматы ещё в 1997 брутфорсом задавили.
563 2022091
>>2021482

> Никто не знает, но ты с чего-то утверждаешь, что "не так".


Бремя доказательства, слышал такую штуку?

> а вот шахматы а вот го


Ну да, ведь интеллект сводим к решению какой-то комбинаторной игры с простыми правилами на ограниченной доске..
564 2022393
>>2022091

> Бремя доказательства, слышал такую штуку?


Так ты же что-то утверждаешь, не я. Вот и доказывай.

> Ну да, ведь интеллект сводим к решению какой-то комбинаторной игры с простыми правилами на ограниченной доске..


Вообще-то с 60х было очень много кукареканья, что "шахматы для ии это как дрозофилы для генетики" итд. Но тут смысл в том, чтобы алгоритм решал задачи, в решение которой может только человек. Например, распознавать рак на МРТ, или отличать стили живописи даже на впервые увиденных картинах, может и голубь. А вот шахматы уже нихуя, животные в них не могут. Конечно, в общем случае это ничего не доказывает, но это направление мысли хотя бы какой-то практический смысл имеет, вместо жонглирования объяснительными фикциями типа "интеллекта", которые не только ничего не объясняют, но и сами требуют определения, которого нет.
565 2022445
>>2022393

>Так ты же что-то утверждаешь, не я. Вот и доказывай.


Утверждение "интеллект == трансформеры" не имеет под собой никаких оснований, сначала ты должен доказывать это

>смысл в том, чтобы алгоритм решал задачи, в решение которой может только человек


Cмысл в способности обобщать. Набрутфорсить алгоритм под задачу не сложно если есть много бабок, ты попробуй сделать так чтобы алгоритм играющий в шахматы сносно же играл в преферанс или складывал предложения. Да или хотя в шахматы Фишера играть научился, у мясных гроссмейстеров это выходит более-менее , у взъёбывающего их альфа зеро подозреваю что вообще нет

> хотя бы какой-то практический смысл имеет


Системы без всякого мл в себе вполне имеют практический смысл, значит ли это что мл не нужен?
566 2022459
>>2022445

> Утверждение "интеллект == трансформеры" не имеет под собой никаких оснований, сначала ты должен доказывать это


С какой стати я должен доказывать то, чего нигде и никогда не утверждал? Я говорил, что существует класс задач, который могут решать как трансформеры, так и человек. Про "интеллект" я говорил только то, что это объяснительная фикция без задач.
567 2022494
>>2012692
спасибо, я просто не мог найти этот параметр в pix2pixHD, видимо автор не хочел его трогать. Хотя там, в том пейпере, вроде именно на ГАНе лучше результат. Спрошу- а в алгоритме ADAM случайно уже не уменьшается вес loss со временем? По-моему ведь уменьшается- там постепенно само значение loss падает при обучении (и потом выходит на мертвое плато, по крайней мере у меня), так?
14669681540613.jpg449 Кб, 1380x2048
568 2022591
Аноны, какие библиотеки вы предпочитаете для оптимизации гиперпараметров на Python? Столкнулся с тем, что Grid Search уже не хватает из-за объема вычислений. Начал ковырять hyperopt, но выглядит он и его документация как-то сыро. Работаю в основном с линейными и tree-based алгоритмами, нейронки не использую.
569 2022612
>>2022591

>Grid Search уже не хватает из-за объема вычислений


>Работаю в основном с линейными и tree-based алгоритмами, нейронки не использую.


Ты на тостере что-ли работаешь? Для деревьев пойдет вообще что угодно.

hyperopt - нормальная библиотека, а еще есть tpot. Обе плюс-минус одинаковые по требованию к ресурсам и годятся как для классики, так и для небольших нейронок.
570 2022651
>>2022612
благодарю

>Ты на тостере что-ли работаешь?


это вопрос объема данных
571 2022849
>>2022591
Ковыряй дальше hyperopt. Ну и если что, random search лучше чем grid search.
572 2023062
Сап, как можно измерить качество получаемых эмбедингов в вакууме? Т.е. есть датасет 500кк каких-то объектов и для них каким-то образом построены эмбединги, никакой разметки нету. Наверняка есть какие-нибудь метрики чтобы понять насколько хорошо получаемые эмбединги описывают объекты. Сейчас из идей только вручную разметить маленькую часть датасета выбрав для некотрого числа объектов какое-то количество релевантных и взять какую-нибудь метрику для задачи ранжирования.
573 2023132
Если ли какие-то ситуации, когда полносвязная сеть будет лучше бустингов \ RF?
574 2023253
>>2023132
Когда у тебя есть готовый экстрактор фич в виде свёрточной нейросети, то лучше приклеить к ней полносвязную сеть, а не бустинг/лес. В каком-нибудь REINFORCE лучше будет полносвязная сеть, потому что непонятно, как с деревьями будет выглядеть шаг в направлении градиента.
Ещё можно считать линейную регрессию частным случаем полносвязной сети.
575 2023279
>>1980946 (OP)
Возможно ли разобучить нейросеть свою?
576 2023389
>>2023279
чего? можно переобучить на похожую задачу. Можно вьебать lr просто больше раза в два-три.
577 2024389
Наше сознание - стремление энтропии энергии к бесконечному ускорению.
1620485914567.jpg32 Кб, 461x480
578 2024422
>>2024389
Знаешь что будет если бесконечно ускорить нейронку (увеличить learning rate)? Все полетит в пизду.
579 2024467
>>2024422
Находится между хаосом и потенциальной энергией.
580 2024469
>>2024467
Кто?
581 2024470
>>2024469
бох
582 2024472
>>2024470
Но между хаосом и потенциальной энергией находится кинетическая энергия.
583 2024481
>>2024470
>>2024472
Нейронка галюцинирует
585 2024619
Нужно распознавать лица + сопоставлять их со списком людей по которым есть какой-то датасет и узнавать их. Посоветуйте готовое решение.
586 2024629
>>2024619
Готовое в какой степени? Предобученный facenet + поиск ближайшего эмбеддинга в списке.
Если нужен готовый продукт, то их хоть жопой ешь, зависит от твоего бюджета.
587 2024633
>>2024629

>Готовое в какой степени?


В идеале чтобы можно было скопировать скрипт на питоне, в функцию do_zaebis() передать путь до моих картинок и чтоб все работало. Но на такое я не рассчитываю конечно.

>Если нужен готовый продукт, то их хоть жопой ешь, зависит от твоего бюджета.


Мне не для коммерческого использования, так что бюджет 0.
16163641761400.jpg148 Кб, 635x600
589 2024766
>>2024389

> Наше сознание - стремление энтропии энергии к бесконечному ускорению.

590 2024767
>>2024619
Сасай кудасай, с вопросами по электронному ГУЛАГу сразу нахуй.
591 2024948
https://github.com/facebookresearch/dino
Поясните, как из этой шайтан машины вынудить классификацию или сегментацию в виде текста или что то вроде этого. Или она имаже2имаже онли?
С меня эта нейронка в пофикшенном колбае когда проснусь.
593 2025137
>>2024948
https://github.com/facebookresearch/dino#evaluation-linear-classification-on-imagenet

>сегментацию в виде текста


чего нахуй?
>>2025108
Сам выдумал хайп, сам опроверг, молодец как всегда.
594 2025167
>>2024948
https://colab.research.google.com/drive/17hHoEHyAC4a3M4U9vqVS4Rvis9b6GweU

>>2025108
Из этого видео все что я понял это то что нейронка выделяет одинаковые объекты и что код прикольный.

>>2025137

> https://github.com/facebookresearch/dino#evaluation-linear-classification-on-imagenet


> >сегментацию в виде текста


> чего нахуй?


Типо увидеть вот тут собачка, вот тут корабль и написать это или дать оценку какова вероятность что это собачка а это кораблик. Вроде эту нейронку позиционировали как йоба нейронку понимающую суть видео или как то так. Или все же никак? Код пока не читал, сейчас гляну и сам посмотрю но она же юзелесс по сравнению с тем же clip если не может в это.
595 2025283
>>2025167

>Типо увидеть вот тут собачка, вот тут корабль и написать это или дать оценку какова вероятность что это собачка а это кораблик.


we observe that our model automatically learns an interpretable representation and separates the main object from the background clutter. It learns to segment objects without any human-generated annotation or any form of dedicated dense pixel-level loss.
Хочешь классы - пихай в специальную сеть для сегментации.

>Вроде эту нейронку позиционировали как йоба нейронку понимающую суть видео или как то так.


Нейронка без разметки научилась отличать основной объект от фона - звучит как довольно высокоуровневое понимание видео.

>но она же юзелесс по сравнению с тем же clip если не может в это


Статья про self-supervised learning трансформеров, а прикольное эмерджентное поведение в виде сегментации нужно для красивых визуализаций. Clip же про использование текстовых описаний при обучении.

>clip


Он же тоже по умолчанию не может в сегментацию, по крайней мере в оригинальной статье про это не говорят.
596 2025287
>>2025283
Понятно, спасибо что пояснил.
597 2025310
>>2024389

> Наше сознание - стремление энтропии энергии к бесконечному ускорению.


Долбоёб. Энтропия - сигмоида. Нет никакого бесконечного ускорения. Ускорение идет только в первую половину графика - дальше стагнация.
598 2026515
Есть ли готовые нейронки для оптимизации lr в других нейронках, типо чтобы в функции train или раз в эпоху основной она брала потери, брала текущий lr и предсказывала стоит ли его понизить или повысить и как сильно? Обычные методы (понижение при увеличении потерь, просто понижение и так далее) спустя пару эпох требуют ручной корректировки и долгих подборов, а хитровыебанные алгоритмы - сложно и скучно.
Думал прикрутить к одной что то вроде этого но прежде чем изобретать колесо решил спросить тут да, в гугле забанен.
599 2026628
Подскажите, пожалуйста, заготовку, которая работает на вход/выход аудио(тупо, например, на отдельных кейфреймах), где легко менять коэффициент обучения.

Я не хочу долго поднимать и изучать особенности разных фреимворков и собирать данные о основах вручную, нужна простая заготовка, чтобы посмотреть и покрутить.

Алсо, о том, как работают нейронки, слои, градиентный спуск и тд. более менее в курсе.
600 2026633
>>2026628
Вот это интересует в итоге
https://www.youtube.com/watch?v=y-pkvaD2Xls
601 2026712
>>2026515
ты изобрел ADAM в нейронке.
602 2026867
>>2026712
Но ведь у адама есть параметр lr, который пиздец как влияет на потери, нельзя ли прикрутить к нему ещё одного адама и начать гомоеблю для поиска верного значения? а к нему еще одного, потом к тому ещё одного и устроить целую нейрогомооргию
603 2026881
>>2026633
Разве это не ручной ремикс в вегасе с наложением громкости, миксом звука и ускорением/замедлением, и все это работающее через зад?
Ну и для простого миди есть musenet от опенхуев. А если хочешь натренировать свою нейронку на обычном мп3 то это займет много времени и сил, готовых решений для полноценной генерации, ещё и с текстом просто нет.
Но можно сделать как тут https://youtu.be/FsVSZpoUdSU, на видео 2016 года и там используют торч который ещё на луакамнях работал, однако бин2ютф из описания крайне годная хуйня. Можешь найти самую заебатую на сегодняшний день нейронку в открытом доступе, например интерпретацию йоба трансформеров майков от ноунеймов с гитхабов, к слову они куда быстрее обучаются, а дальше как выйдет. я пытался завести это дело на гпт2 ещё когда она выходила, но она не жевала китайские символы, а китайские интерпретации полное говно из под залупы
604 2026974
>>2026867
получится просто наслоение нейронок с прааметрами, верификация всё равно будет производитсья по Inpul- output. Такая нейронка не научится ничему, прост обудут рандомно скачущие lr. Хотя, если на вход ей скармливать инфу о том какая сейчас итерация, о всех лосс...
605 2026989
>>2026974

> Хотя, если на вход ей скармливать инфу о том какая сейчас итерация, о всех лосс...


Примерно это и хочу сделать но пока своих нейронок с нуля не писал и будет обидно изобретать велосипед если это уже кто то сделал. Ну и думаю что такая нейронка будет проще в обучении и в подборе lr ведь по сути ей нужно будет просто писать число или множитель на основе двух массивов и итерации а функция потерь будет просто копировать потери основной, да и датасет подготовить можно если в рандомную нейронку запихать код который будет заставлять lr скакать по рандому, статично, верх и вниз а потом снова по рандому. Разве что вопрос как быстро она будет это делать чтобы поспевать за основной..
Но по этому и интересуюсь.
606 2027097
>>2026881
Судя по описанию канала, там использовали Fl Studio с расширениями.

Нагуглил это дело, в общем, называется оно Style-Transfer, в основном используется на изображениях.
Нашел относительно старый(как я понял при использовании) готовый проект на питоне. https://github.com/alishdipani/Neural-Style-Transfer-Audio
1.5 часа потратил на переустановку питона и либ из-за несовместимости версий. Вроде заработало наконец-то. Прикреплю потом аудио, если получится что-то нормальное.
607 2027099
>>2027097
Там в описании версия 2.7, но у меня на 3.7 заработал, пытался изначально собрать на 3.9.
608 2027123
>>2024389
Я тоже сегодня об этом думал.
Вообще высокая энтропия - это состояние с максимально возможным количеством вариаций.

А что думает человек, когда его загоняют под одну гребенку омега/быдло/мечтатель?
Правильно, ему неприятно и он старается измениться.
Сознание стремится пожрать как можно больше контента, быть одновременно и тем и другим, не иметь рамок.
609 2027344
>>2026515
Как будет выглядеть лосс у этой нейронки?
610 2027358
>>2027344
Хз. В общем я нашел что то похоже от fast ai, но там только для построения графика и ручного анализа.
Сейчас решил просто взять и натренировать гпт2 с датасетом где каждый текст начинается с потерь, итерации и лр чтобы он по первым двум давал третий. То есть все же скатил в гомонейрооргию.
611 2027565
>>2027358
А "правильную" разметку ты откуда возьмешь?
612 2027578
>>2027358

>натренировать гпт2 с датасетом где каждый текст начинается с потерь, итерации и лр


Пиздец, нахуя если можно просто тот же аттеншен навернуть напрямую на последовательность лоссов и лр? Веруны в битерлесон такие забавные в своей твердолобости..
А по делу, то вряд ли ты найдёшь что-то универсальное так как это равносильно существованию универсальной нейронки для всех задач вообще. Есть подходы на ганах и рл актор-критик, где отдельная нейронка не просто lr подбирает а по посчитанному направлению градиента от первой выдаёт свой вектор для изменения её весов и вот так вдвоём они сообучаются, но судя по тому что про эту идею я слышал давно и больше не, то это как и всё подобное не работает.
613 2027599
>>2027578

> вряд ли ты найдёшь что-то универсальное так как это равносильно существованию универсальной нейронки для всех задач вообще.


И тут ты такой с примерами задач, для которых не трансформер работает лучше чем трансформер.
614 2027744
>>2027565
С другой нейронки же, просто вклинив в код запись значений в массив.
615 2027776
>>2027744
Кажется, я не понял твой план. Ты хочешь предсказывать, какой learning rate выставлять в начале каждой эпохи. Вот ты предсказал 3e-4, как потом поймешь, это было правильно или нет?
616 2027831
>>2027776
В датасете будут кучи строк вида

> itt:1 loss:78.432 reduced:True lr:0.2 | itt:2 loss:79.182 reduced:False lr:0.199995


с ограничением длины lr и будет включать десять итераций разделенных | до текущей, а потом в основной на вход пойдет тот же десяток но без последнего значения, которое (8 символов) будет генерировать эта нейронка а затем этот lr подастся основной. Ну и пока это будет проходить будет записываться новый датасет с каждой прогонки которым можно дообучить гпт2.
Хотя тут нужно правильно рассчитать параметры чтобы это охватывало около 500 символов до и быстро выполнялось.
Есть идеи где я проебался?
617 2027848
>>2027599
Для всех кроме стандартных где не достать предобученную кабанами модель?
618 2027851
>>2027831

>Есть идеи где я проебался?


И что ты хочешь таким образом получить? Ты получишь большую модель которая будет предсказывать lr (гипотетически) который тебе подбирается каким-то адаптивным алгоритмом например, откуда твой датасет. Как ты получишь результат лучше этого алгоритма таким образом?
619 2027874
>>2026515
все что дифференцируемо (или суп-дифференцриуемао) можно дифференировать!! отсюда ВЫВОД - надо дифференцировать через всю процедуру обучения по ___LR. во времена моей МОЛОДОСТИ люди делали так http://proceedings.mlr.press/v37/maclaurin15.html
620 2027881
>>2024422
правильньо на самом деле нужно делать lr БЕСКОНЕЧНО МАЛЫМ тогда нейросеть будет следовать градиентным потоком
621 2027882
>>2002655
ветров очень интересный ЛЮД, умеет пить и курить и гиперпараметры крутить
622 2027906
>>2027851
Типо того, там есть флаг reduced, если false то потери увеличились, если true то уменьшились. То есть если давать нейронке в 10 (текущем) значении флаг со значением True то она предскажет lr при котором потери должны уменьшаться.
алсо пиздец, гпт2 все так же сложно обучить с нуля на кастомном датасете или я отупел. все эти длинные лица с дохуялионом подводных раскиданных в тысячах файлов по пол строки, мегатроны нвидии с поломанным апексом и кривыми скриптами, а оригинальный попросту морально устарел
623 2027910
>>2027874
Почему это сейчас не используется? или используется?
624 2027917
>>2027831

>Есть идеи где я проебался?


Рандом и инициализация будут влиять сильнее чем небольшое изменение lr. Обучать заебешься. Алгоритму будет выгоднее быстрее (чем прошлая версия) загнать тебя в локальный минимум, чтобы получить заветные reduced:True. А если смотреть на всю траекторию обучения, то возникает credit assignment problem. Придется подключать обучение с подкреплением и ты до тепловой смерти вселенной будешь повторять эксперименты дипмайнда на локальной машине.
625 2027962
>>2027917
Часть проблемы легко решить если ограничить число знаков после запятой у потерь до 2-3. Ну и у нейронки будут только 10 ближайших итераций в виде текстовой строки, это простейший генератор текста по сути но это его и ограничивает от слишком большой выборки и слишком долгой генерации, хотя так же ограничивает и точность.
А обучение с подкреплением на 1 карте в колабе гугла ведь у меня житиикс 1060 это попросту пиздец, не думаю что это действительно нужно для предсказания всего одного числа на столь мелкой задаче со столь мелкими входными.
626 2028245
>>2027848

> Для всех кроме стандартных где не достать предобученную кабанами модель?


То есть, предобученный кабанами трансформер это не по фен-шую, а предобученный кабанами нетрансформер норм? Жидкие какие-то оправдания... Но ладно, на какой задаче предобученный кабанами нетрансформер работает лучше предобученного кабанами трансформера? Алсо, уже гпт3 не требует файнтюнинга под конкретную задачу, а началось это вообще с гпт2.
627 2028982
>>2028245

>То есть, предобученный кабанами трансформер это не по фен-шую, а предобученный кабанами нетрансформер норм


То есть из того что на деньги кабанов получилось натренировать какую-то накостыленную архитектуру ничего не следует само по себе. Просто гигантский трансформер за дохуя денег и вменяемое время сейчас можно натренировать, а гигантский перцептрон пока нет, вот и всё превосходство

>уже гпт3 не требует файнтюнинга под конкретную задачу, а началось это вообще с гпт2


Ну ещё бы, если заоверфититься на всём датасете то внезапно скор на этом датасете будет хороший как бы искаробки
628 2029213
>>2028982

> Просто гигантский трансформер за дохуя денег и вменяемое время сейчас можно натренировать, а гигантский перцептрон пока нет, вот и всё превосходство


То есть, в качестве замены трансформерам ты предлагаешь перцептрон? Перцептрон со свойствами трансформера нереализуем. Как минимум, такая реализация требовала бы на порядки больше ресурсов. На мощностях достаточных для 175В гпт3 не заработает перцептрон даже уровня самого дохлого берта.

> Ну ещё бы, если заоверфититься на всём датасете то внезапно скор на этом датасете будет хороший как бы искаробки


То есть ты веруешь, что вся эффективность трансформеров это оверфит? Ты случайно не тот поридж, свидетель экспертных систем?
629 2029537
>>2027599
99.9% задач с табличными данными. Рекомендательные системы. OCR.
image182 Кб, 546x774
630 2029620
А перекатывать кто будет, трансформер?
16161645359040.mp4235 Кб, mp4,
360x360, 0:07
631 2029720
Зачем еще нужны нейронки кроме слежки за населением и генерации смищных видосиков?
632 2029729
>>2029720
Низачем. Компании платят по 300к чтобы им делали смищные видосики.
633 2029752
>>2029720
В первую очередь, нейронки это оракулы. Ну или предсказатели. Ведь именно это они и делают, но предсказывают не по прямому каналу с нибиру а с собственного опыта. Надеюсь на счет того что компании вкладываются в научных оракулов которые могут день и ночь все точнее и точнее предсказывать данные у тебя вопросов нет?
и да, все нейронки используют предсказание по опыту: текст - берется рандомный токен (считай символ) и предсказывается следующий а потом на основе них еще один и так далее, видео/текст - берется пиксель и его движение или позиция предсказывается на основе других и на основе задания, все остальные делают ту же хуйню
634 2029754
>>2002286
Твиттер Шолле. Я от него в рейдж квите раз в три месяца отписываюсь, потом через месяца снова подписываюсь
635 2029759
>>2029720
Одной первой причины достаточно для существования индустрии, тем более всю индустрию двигают гугл и Фейсбук, чтобы лучше учитывать твои интересы для рекламы
636 2029802
>>2029754
А что там, кроме рассказов про охуенность кераса?
637 2029929
>>2029802
Да у него про керас там почти ничего и нет, большая часть постов - это либо что-то из повестки демократической партии (я не люблю никакую политику, и из-за этого у меня припекает), либо философствования на тему ии
638 2029932
>>2029802
Но совет был ироничным. Я и в философию ии не верю.
639 2030315
Есть какая-нибудь модель, которая может определить область научной статьи? Ну типо, медицина, юриспруденция, физика, айти?
640 2030332
>>2030315
Любая модель по классификации текста.
641 2031231
Вопрос к дядям. Учусь по d2l ai, достаточно ли математики из Preliminaries? Просто там, например, вероятность на дискретных случайных величинах заканчивается, а за непрерывными просят проследовать в приложение, которое в конце книги.
642 2031265
>>2031231
Приложения в конце тоже нужны, иначе их бы там не было.
643 2031287
>>2031265
Как вообще по ценности книга, на галеру можно с ней устроиться? Если у меня уже есть полугодовые практические навыки в нейронках (CV), и по книге я освою черный ящик в плане математики.
644 2031417
>>2031231

>достаточно ли математики из Preliminaries


Для чего? Некоторым тут достаточно уметь запускать кликер и пользоваться мышкой. Если же ты в фаанг собрался, то скорее всего нет.
sage 645 2031712
Господа, делаю задание A3 (convolutional networks своими руками) от cs231nшного клона eecs498 (домашки такие же, только на pytorch вместо numpy и курс побольше) и я конкретно завис, пытаясь оформить хоть какую-то более-менее эффективную реализацию forward и backward pass. Пытался гуглить, но про всю эту матричную магию понятного мне объяснения я так и не нашел. Если тут есть кто-то, кто уже отстрадал cs231n, подскажите направление куда копать.
646 2031956
Бля, мудилы ленивые, перекатывать кто будет?
647 2031959
>>2031956

>перекатывать кто будет


Зачем?
16205953493572.jpg259 Кб, 600x912
648 2031961
>>2031959
Ну потомучто прервется приток новых людей и останутся одни жопашмунцеры
16205564938540.jpg68 Кб, 592x532
649 2031974
>>2031961

> приток новых людей


Одинаковых как под копирку кринжовых зумеров с одними и теми же вопросами? Потеря потерь...
650 2032142
>>2026515
добавь scheduler и не парься, идея с нейронкой будет сложной, неэфективной
651 2032148
>>2032142
Он уже есть но в определенный момент потери попросту перестают снижаться. Ну и нейронку уже натренировал на половину, хотя бы посмотрю как там будет.
652 2032150
Где-то мельком слышал, что Proximal Policy Optimization является почти оптимальным алгоритмом с точки зрения использования данных и что где-то есть статья, где это доказывается с помощью всякой байесианщины. Кто-нибудь знает название статьи?
653 2032575
Время от времени в новостях научпопа пишут что-то вроде "Ученый научил ИИ смотреть на данные и находить физические законы – мы скоро автоматизируем физику". Очень часто речь идет именно о законах Кеплера – ИИ изобретает их регулярно где-то с как минимум 1987, когда Герберт Саймон написал программу BACON специально для такого рода открытий, что я узнал от не прекращающего смеяться над этим Ж-И Жирара – и каждый раз вызывает в научпопжуре абсолютную сенсацию. Сегодня выводом журналиста из переизобретения компьютером законов Кеплера было "реальность это симуляция".

Это напоминает немного "Менон", где Сократ задает рабу вопросы типа "Знаешь ли ты, что у квадрата четыре равные стороны?", тот отвечает "Да", и Сократ из этого делает вывод, что раб "знает геометрию, хотя и не изучал её". И в "Автостопом по Галактике" шутка на абсолютно ту же тему – а ведь те же люди, что вдохновенно шарят такие научпоп новости, обожают шутить про 42 – но "42" это и было ровно о том, что настоящая проблема для компьютера это не правильный ответ, а правильный вопрос. Это всё ясно. Но всё-таки... а вдруг это всё можно как-то более интересно интерпретировать? Что имел в виду Сократ?

(Кстати, почему это всегда именно законы Кеплера? Миф про Кеплера, а точнее, миф про Коперника, Кеплера, Галилея, Браге – этот очень расхожий, но не особенно точный миф, смешивая открытия всех этих ученых мужей, утверждает, что до их "переворота" люди были глупые и думали, что все вращается вокруг них, а после него стали умными и изобрели настоящую науку. Это важное событие для любителя науки, оно отделяет для него настоящую науку от совершенно непонятной ему античной и средневековой глупости. Повторить их переворот означало бы, что умный компьютер изобретет новую науку, свободную от человеческой глупости.)

Лакан интерпретирует "Менон", предлагая, что античные философы "выбивали знание из рабов". "Господину не нужно знать – это рабам нужно знать, как ему угодить; рабы знают, что хотят господа. Философия начинается с того, что господин зачем-то решает силой отобрать у рабов знание." Это очень странное рассуждение, странно звучащее в век, когда знание явно крепко стоит на месте господина. И все-таки оно позволяет отойти на шаг и посмотреть на эту ситуацию, принимая во внимание сам вопрос о том, как люди в принципе сочетаются со знанием, зачем оно им. Точно так же, как Сократ из раба, люди сейчас выбивают из компьютеров то знание, которое сами же в него и вкладывают. Как и Сократ, они утверждают на основе этого, что компьютеры что-то могут знать сами по себе.

Итак, не значит ли это, что ощущается какая-то более серьезная потеря знания? Вся эта игра в умные компьютеры – не попытка ли она как-то справиться с тем знанием, которое действительно принадлежит не нам, а технологии – знание о нашей экономике, о нашем обществе, о нашем общении, столь важных нам вещах, которые управляются технологией и достаточного знания о которых нам уже никак не получить. По отношению к компьютерам мы уже – господа, которым так легко угодить, что они и не знают, чего хотят. И чтобы не чувствовать себя так глупо по сравнению с "умной лентой" фейсбука, по сравнению с давно победившей нас рекламой, со всеми этими алгоритмическими наркотиками, мы даем компьютеру "изобрести" что-то, что нам известно давно, и тем самым, в наших фантазиях, остаться умнее.
653 2032575
Время от времени в новостях научпопа пишут что-то вроде "Ученый научил ИИ смотреть на данные и находить физические законы – мы скоро автоматизируем физику". Очень часто речь идет именно о законах Кеплера – ИИ изобретает их регулярно где-то с как минимум 1987, когда Герберт Саймон написал программу BACON специально для такого рода открытий, что я узнал от не прекращающего смеяться над этим Ж-И Жирара – и каждый раз вызывает в научпопжуре абсолютную сенсацию. Сегодня выводом журналиста из переизобретения компьютером законов Кеплера было "реальность это симуляция".

Это напоминает немного "Менон", где Сократ задает рабу вопросы типа "Знаешь ли ты, что у квадрата четыре равные стороны?", тот отвечает "Да", и Сократ из этого делает вывод, что раб "знает геометрию, хотя и не изучал её". И в "Автостопом по Галактике" шутка на абсолютно ту же тему – а ведь те же люди, что вдохновенно шарят такие научпоп новости, обожают шутить про 42 – но "42" это и было ровно о том, что настоящая проблема для компьютера это не правильный ответ, а правильный вопрос. Это всё ясно. Но всё-таки... а вдруг это всё можно как-то более интересно интерпретировать? Что имел в виду Сократ?

(Кстати, почему это всегда именно законы Кеплера? Миф про Кеплера, а точнее, миф про Коперника, Кеплера, Галилея, Браге – этот очень расхожий, но не особенно точный миф, смешивая открытия всех этих ученых мужей, утверждает, что до их "переворота" люди были глупые и думали, что все вращается вокруг них, а после него стали умными и изобрели настоящую науку. Это важное событие для любителя науки, оно отделяет для него настоящую науку от совершенно непонятной ему античной и средневековой глупости. Повторить их переворот означало бы, что умный компьютер изобретет новую науку, свободную от человеческой глупости.)

Лакан интерпретирует "Менон", предлагая, что античные философы "выбивали знание из рабов". "Господину не нужно знать – это рабам нужно знать, как ему угодить; рабы знают, что хотят господа. Философия начинается с того, что господин зачем-то решает силой отобрать у рабов знание." Это очень странное рассуждение, странно звучащее в век, когда знание явно крепко стоит на месте господина. И все-таки оно позволяет отойти на шаг и посмотреть на эту ситуацию, принимая во внимание сам вопрос о том, как люди в принципе сочетаются со знанием, зачем оно им. Точно так же, как Сократ из раба, люди сейчас выбивают из компьютеров то знание, которое сами же в него и вкладывают. Как и Сократ, они утверждают на основе этого, что компьютеры что-то могут знать сами по себе.

Итак, не значит ли это, что ощущается какая-то более серьезная потеря знания? Вся эта игра в умные компьютеры – не попытка ли она как-то справиться с тем знанием, которое действительно принадлежит не нам, а технологии – знание о нашей экономике, о нашем обществе, о нашем общении, столь важных нам вещах, которые управляются технологией и достаточного знания о которых нам уже никак не получить. По отношению к компьютерам мы уже – господа, которым так легко угодить, что они и не знают, чего хотят. И чтобы не чувствовать себя так глупо по сравнению с "умной лентой" фейсбука, по сравнению с давно победившей нас рекламой, со всеми этими алгоритмическими наркотиками, мы даем компьютеру "изобрести" что-то, что нам известно давно, и тем самым, в наших фантазиях, остаться умнее.
654 2032760
>>2032575
Хуже философии только черви-пидоры, тащущие её в этот тред.
655 2032775
>>2032575
Слишком много воды, а если сократить то

> люди создали нейронки чтобы они говорили людям то что им уже известно и самоутверждались за их счет


И нет, суть в лени. Вообще нейронки - самое ленивое достижение человечества как по мне. Люди вполне могут придумать как зная значение а в большом уравнении вывести и рассчитать б, но таких а и б дохуялионы. И вместо расписывания на все а и б своих специфичных правил, люди скармливают уже подсчитанные а и б в парах не давая другой информации самообучающемуся алгоритму, который во много раз медленнее но затем может решать любую комбинацию. Ну или по крайней мере к этому стремятся.

То есть люди не ждут что компьютеры дадут им то что уже известно людям, они ждут что компьютеры дадут людям то что им слишком лень считать самим разумеется это абстракция, к примеру вместо чтения гарри поттера натренировали нейронку которая даст ответ по тексту, вместо ручной рисовки или фотографирования натренировали biggan, dall-e, guided diffusion model, вместо рукописного текста и понимания контекста натренировали gpt-3, вместо ручной сегментации изображений для создания капчи натренировали clip и так далее, список огромен. И как можно заметить, масштаб этой лени столь велик что в нейронки вливаются дохуялионы денег от всех и вся.
656 2032800
>>2032775

>Слишком много воды, а если сократить то


>> люди создали нейронки чтобы они говорили людям то что им уже известно и самоутверждались за их счет


Неправильно сократил, не создали для самоутверждения, а пытаются выглядеть не глупее изо всех сил
657 2032831
>>2032775

>Люди вполне могут придумать как зная значение а в большом уравнении вывести и рассчитать б


Не могут. Придумай алгоритм, отличающий котов от собак.
658 2032837
>>2032831
Два пальца обоссать. Взять маску шумов с фотки кота и сравнить с шумами фотки собаки. Но это сработает только с одной парой, чтобы работало с двумя уже нужно брать маску краев, даже скорее массив этих масок. И чем дальше тем сложнее, для 4 пар картинок уже понадобится дохуялион кода с самыми разными решениями. И опять же, это можно сделать и глазами а затем - определил - запихнул в нейронку значения для всех картинок на которых определил, и нейронка будет определять другие. Именно об этом я и говорю.
659 2032845
>>2032800
А, перечитал и понял. Но тогда тоже не совсем верно. Например гений создал йоба нейронку, значит он гений и выглядит в глазах людей умнее.
А если смотреть шире, то тут можно провести черту между теми кто хочет интеллект лучше человеческого и теми кто хочет интеллект хуже человеческого но лучше чем сейчас, и вторые крайне популярны в медиа, есть крайне много фильмов, книг, да даже игорей, которые говорят что второй подход правильнее.
А в их основе страх. Но я в философии не настолько силен чтобы загинать дальше, да и тред не тот, эти рассуждения скорее для ночной нулевой.
660 2032856
>>2032837
Это не лень. Ты просто предложил хуйню, а не решение.
661 2032869
>>2032856
Это именно лень. Никто не будет днями и ночами делать универсальный алгоритм для отличения котов от собак без нейронок потому что самый действенный метод - посмотреть своими глазами и подписать что это собака, это кот. Решения без нейронок будут костылями и применимы только к определенным парам, чем больше пар тем больше костылей, и опять же, эти костыли будут работать только на тех парах на которые они и прикручены. Если это не лень смотреть глазами и подписывать, то что это?
662 2032892
>>2032869

>Если это не лень смотреть глазами и подписывать, то что это?


Необходимость в решении задачи до наступления тепловой смерти вселенной. Желание заработать больше денег, избавившись от людей и увеличив скорость работы.
663 2032894
>>2032892
Примерно это и есть лень. Та самая лень которая двигатель прогресса.
664 2032991
>>2032831
Легко.
Видеокамера снимает собак и кошек. Видео выводится на монитор. Перед монитором сидит голубь, натренированный на изображениях кошек и собак. Всё. Через 20 лет только такой машоб и останется.
50550x550FrontColor-White.jpg16 Кб, 550x550
665 2033050
>>2032991

> Перед монитором сидит голубь, натренированный на изображениях кошек и собак. Всё.


Ты только что three-term contingency. Различимые стимулы -> поведение (нажатие кнопки / педали) -> вознаграждение за правильный ответ. Reinforcement learning именно это и моделирует. Как я пынямаю, предыдущий оратор имел в виду нечто более формальное.
мимо
666 2033052
>>2032991

> Перед монитором сидит голубь, натренированный на изображениях кошек и собак


Кстати, голуби легко находят пиздецомы на МРТ снимках, и даже определяют стиль живописи картин, которых раньше не видели, если перед этим натренированы детектить нужный стиль. Думаю, для нужд электронного ГУЛАГа голуби на порядки дешевле, проще и полезнее машобчика.
667 2033139
Че не перекатываете
668 2033232
>>2033050
В рл много вещей помимо "поощряем хорошее поведение". А ещё эта формулировка настолько общая и очевидная, что никакой прикладной пользы она не несёт.
669 2033242
>>2033232

> эта формулировка настолько общая и очевидная, что никакой прикладной пользы она не несёт.


Лол, поридж ниспровергатель бихевиоризма? Это определение операнта Скиннера, чисто прикладная тема, например, легко визуализируемая в виде кумулятивного графика для дальнейшего анализа. И нет, оно не очевидно, до Скиннера ровно все исследователи заблудились в топографии поведения, понятие операнта до него не смог сформулировать никто. Как и все следствия из этого.
670 2034063
Есть ли вообще варианты, как сделать ML доступным для пользователей? Ну, там скачал приложение на говнофончике и генерируешь себе хентай-арт по заданным тегам.
671 2034071
>>2034063

> Есть ли вообще варианты, как сделать ML доступным для пользователей?


Он и так доступный. Мозги, желание, немного времени и всё. Те же huggingface'ы очень много делают для доступности машобчика - унифицированная хорошо документированная библиотека с единым интерфейсом не только для очень разных моделей, но и для пред и постобработки результатов.

> Ну, там скачал приложение на говнофончике и генерируешь себе хентай-арт по заданным тегам.


По-сути почти так все и есть. Сейчас почти все разработчики предоставляют версию для колаба, бери и делай. Уже не нужно содомировать исходники, конпелять неведомую йобу итд, все более-менее унифицировано.
672 2034179
>>2034071

> предоставляют версию для колаба, бери и делай.


Я говорю не про облако, контролируемые корпорациями (мелкие компании не вывозят, и требует плату за сервера, было - плавали), а машоб на стороне клиента.
673 2034184
>>2034179

> облако, контролируемые корпорациями


Не похуй ли? Что можно такого делать в колабе, чтобы тобой Гугл и ЦРУ заинтересовались?

> машоб на стороне клиента.


Ну все это и на стороне клиента работает, при наличии достаточных ресурсов.
674 2034220
>>2034184

> Ну все это и на стороне клиента работает


Не работает. Говорю же, машоб должен идти в ровен со всем остальным софтом.

> Что можно такого делать в колабе, чтобы тобой Гугл и ЦРУ заинтересовались?


Генерация лоликона / цопэ. И всё - тебе пизда.
675 2034227
>>2034220

> Не работает. Говорю же, машоб должен идти в ровен со всем остальным софтом.


Ты говоришь о том что нужно принудительно ослабить развитие нейронок и запретить все нейронки которые не смогут выполняться на некроноутах? Или ты не настолько шиз?
мимо
676 2034234
>>2034227
Говорю о том, что с этим надо что-то делать. Нейронки слишком медленные и тяжелые. Надо либо сделать революцию в железе, либо придумать такую архитектуру, что не жрет терабайты памяти, и не падает если нет CUDA.
677 2034252
>>2034234

> Говорю о том, что с этим надо что-то делать.


Так делают. Pattern-exploitable training имеет сравнимую с гпт3 производительность при использовании нейронок размером 1% от гпт3. Код для генеративной версии выложат и всё, запануем. Всё прекрасно пынямают, что гпт3 это непрактично.
678 2034275
>>2034234
Так а чего ты ждал от самообучающегося эмулятора клеток мозга? Революция уже была и она называется cuda, затем была еще одна и она называется тензорные ядра в rtx серии карт. Их пока не использовать полноценно для нейронок, но вот если их разлочат и выложат исходники то есть никогда - ухх заживем.
А дальше пока некуда. Есть tpu и специализированные устройства для нейронок но они стоят дохуя и их могут позволить лишь те же корпорации. А архитектуры и так улучшаются, модели можно сжимать квантизацией или как то так. Но реально снизить тяжеловесность смогут совсем не скоро.
К тому же пока все идут к усложнению архитектур не считая некоторых малых исследователей, возможно когда дальнейшее усложнение станет крайне не выгодным и долгим, корпорации направят все силы на оптимизацию.
679 2034286
681 2034351
>>2034290
Как это использовать для генерации текста?
682 2034406
>>2034351
Пока никак, я же говорю, код генеративной версии ещё не вылаживали - https://github.com/timoschick/pet/issues/28
683 2034440
>>2034406
Я так понял, PET куда эффективней и быстрее в задачах, к примеру, интерактивной литературы. Задал паттерны как надо вести игру, и играешь.
684 2034450
>>2034440
Судя по результатам, этот метод точно намного лучше простого файнтюнинга тех же самых моделей. Тут какие-то индусы ещё улучшили результаты оригинального pet - https://github.com/rrmenon10/ADAPET но у них пока даже версии для колаба нет. Эх, вот если бы это завезли в виде pipeline в huggingface transformers, вообще было бы идеально...
685 2034459

> Обновление нашего сообщества : вчера мы выпустили тестовую систему для предотвращения создания определенного сексуального контента, нарушающего наши правила, в частности контента, который может включать изображения или описания несовершеннолетних, на платформе AI Dungeon. Мы не сообщали об этом тесте сообществу заранее, что создало среду, в которой пользователи и другие члены нашего более широкого сообщества, включая модераторов платформы, были застигнуты врасплох.



Ну челики, это дроп. Я ведь говорил, что корпорациями доверять нельзя, и надо переводить ML на клиентов.
686 2034476
>>2034459
Ты же только про ai dungeon который еще сайт и приложение?
Я уж испугался что колаб ограничивают.
687 2034482
>>2034476

> Ты же только про ai dungeon который еще сайт и приложение?


Да.

> Я уж испугался что колаб ограничивают.


До этого пока не дошло. Да и вряд ли дойдет: в отличии от play.aidungeon.io колабом пользуются только прошаренные, а не быдло всякое.
688 2034489
>>2034459

>корпорациями доверять нельзя


>полторы калеки


>корпорациям



Ну и ничто не помешает корпорациям провернуть то же самое, когда МЛ будет на клиенте.
689 2034507
>>2034489

> Ну и ничто не помешает корпорациям провернуть то же самое, когда МЛ будет на клиенте.


Эээ, сам клиент? Исходный код открыт - берешь, запускаешь, играешь. Корпорации сосут хуй.
690 2034526
>>2034507
Так локально драконью модель с gpt-3 не запустишь ведь во первых ее нет в открытом доступе, во вторых она даже не запустится если у клиента нет видеокарты на пару-тройку десятков гигов как минимум.
691 2034531
>>2034507
Ты определись, ты за опенсорс или за запуск моделек на стороне клиента.
692 2034565
>>2034526
Я об этом и говорю, надо ML на клиента перевести. Но для этого нужен новый подход, новые архитектуры или железо. Наш мозг тратит совсем мало энергии и времени для работы. Надо стремиться к той же производительности.
>>2034531
Нет противоречий. Модельки можно файнтьюнить при желании, если там что-то вырезано.
693 2034605
>>2034565

>Нет противоречий.


Зафайнтюнь модельки из инстаграма, снапчата. Или из nvidia dlss. Всё на стороне клиента ведь.

>Но для этого нужен новый подход, новые архитектуры или железо.


Шок, этим и занимаются корпорации!
694 2034610
>>2034605
Надеюсь в конечном итоге сделают, и можно будет жить так же как и раньше, но лучше. Мой ПК - это мой ПК. Делаю на нем всё что захочу.
695 2034868
>>1980946 (OP)

>Почему python?


>Исторически сложилось


Это стеб такой? Очевидно же, что пистон стал нужен после разделения на МЛ-инженегров и датасаентологов, чтобы последние не парились с написанным первыми пиздецом на сях, а работали через простую-понятную оболочку.
696 2034892
>>2034459
>>2034507
>>2034565
>>2034610
Два чая, и это не только к нейронусам относится. Люди должны иметь право выбирать между облаками и своим железом. Повальный переход на облачные сервисы - рак, убивающий приватность.
1621352143125.gif79 Кб, 600x450
697 2034915
>>2034892
Должны? Должны кому?
698 2034973
>>2034915
Лан, некрасиво написал. Это корпорации должны людям такое право давать.
699 2034975
>>2034973
Вот это даже смешнее получилось.
Untitled.png100 Кб, 1564x916
700 2035757
Рамки демотиватора не хватает.
701 2035769
>>2035757
Что не так?
702 2035898
Я тот анон что хотел натренировать гпт-2 чтобы та предсказывала lr при котором снизятся потери. Как оказалось с самого начала сделал ошибку и тренировал модель с максимальной длиной в 600 токенов вместо дефолтных 1024 но это позволило но 16 колабских гигах видеопамяти тренировать модель на 400М параметров с 24 слоями и 24 головами так что заебись.
Интегрировать в другую нейронку на удивление получилось, но пока она не сильно лучше рандома однако структура датасета менялась 4 раза и модель обнулялась 2 раза, и все это в сессиях колаба по 3-4 часах на двух акках в день. К слову уже правильно нумерует эпохи.

Так вот вопросы тем кто не так туп как я

1) Можно ли расширить модель или увеличить длину генерации чтобы она все же анализировала те же 1024 токена если их дать? Если просто поменять конфиг то ошибка соответствия тензоров. А тренировать с нуля на 1024 токена 16 гигов хватит лишь на 102М с 8 головами и 12 слоями и это выглядит не так пиздато.

2) Возможно ли объеденить эту модель с другой, скажем так же натренированной с 400М параметров и получить мега йобу с 800М, или хотя бы просто тренировать с двух акков одновременно разные модели и объеденить их в одну на 400М?

3) Можно ли ее сжать? Она сохраняется в файл .bin и весит 1.5 Гб, будут ли профиты в виде снижения необходимой видеопамяти если ее сжать, и если да то как это сделать?
703 2035915
>>2035898
Бля, только сейчас заметил что во всем датасете перепутал False и True для снижения потерь. Но тогда она генерирует с поражающей точностью и нужно сменить пару строк. Завтра отпишу тест на основной нейронке.
704 2035939
>>2035898
Всё ещё считаю, что ты выдумал какую-то нерабочую хуйню.
705 2036005
>>2035939
Пусть делает. Один раз в жизни надо сделать какую-нибудь такую хуйню чтобы не носиться как угорелый петух потом с биттерлессоном.
706 2036083
>>2035898
В слесарьплове вроде же было распараллеливание задачи на разные устройства + сохранение чтобы не считать все с нуля если что-то наебнется. Возможно, это можно использовать чтобы считать последовательно на одном устройстве. Я бы в эту сторону смотрел. Самому вручную разбивать нейроночку на части выглядит спорным решением.
707 2037835
Кто-нибудь использовал JAX? Зачем он вообще нужен?
708 2038270
слыхал за bias variance trade off а чем оно от bias complexity trade off отличается кроме теоремы о бесплатном завтраке?
709 2038405
Оцените плиз тупость идеи.

Есть задача оценить качество разных рекомендационных алгоритмов на определённом дата сете. В дата сете нет никакой информации о пользователях - лишь информация об самих объектах и о том, как часто по ним кликали, когда они выпадали. Поэтому хочу сгенерировать пользователей для того, чтоб алгоритмы коллаборативной фильтрации можно было тоже оценить. Это тупая идея или как? Есть вообще готовые решения для генерации пользователей?
710 2038409
>>2038405

>Это тупая идея или как?


Тупая.

>на определённом дата сете.


В чем смысл определённого датасета, если ты всё равно собрался портить его синтетическими данными?
711 2038413
>>2038409
Бля да просто проебался. Хотел анализировать статьи и делать рекомендации, а почти все алгоритмы оказались коллаборативными
712 2038780
Как вам кринжфест?
713 2038875
>>2038780
Буквально, кто?
714 2039023
>>2035898
Так, в процессе изучал нейронки на более глубоком уровне чем был знаком до этого, прочитал про эти ваши оптимизаторы, адамы, и назрел вопрос. А хули ещё не сделали нейронку которая заменяет их? То есть которая не говорит на сколько пинать мяч алгоритму как я худо бедно и пытаюсь склепать, а которая сама и есть алгоритм который пинает мяч. Очевидно это решит все проблемы существующих оптимизаторов - локальные минимумы не будут препятствием, слишком сильные изменения толчка будут оправданы, а обучение не смотря на увеличение времязатрат на оптимизацию будет быстрее. Ну и точка старта тоже будет не настолько сильно ограничивать результаты.
Сам я едва едва понимаю части формул и явно не смогу это сделать, по крайней мере пока не додрочу оставшуюся базу начиная от основ питона часть которых я даже не изучал, и заканчивая математикой нужного уровня.
Или есть причины по которым это будет бесполезно?
715 2039087
>>2038780
Формат говна, поэтому задоджу, как и прошлый.
>>2039023
https://arxiv.org/pdf/1606.04474.pdf
Ты вот эту хуйню собрался сделать?
716 2039139
>>2039087
Если я правильно понял то да. Только вместо старенького lstm запихать тот же gpt-2 и поместить его в модуль оптимизаторов путорча чтобы в любую модель вбить ее вместо адама.
717 2039156
>>2039087
Не нравятся слодчайшие спейшл чатики?
718 2039167
>>2039139
Будем всем тредом ждать тебя на следующем нипсе!
1621712542591.jpg244 Кб, 1080x1161
719 2039173
>>2039167

> нипсе


?
720 2039731
Графовые нейросети в проде кто-то использует или это хуйня для ресерча без юзкейсов из индустрии?
>>2039173
Conference on Neural Information Processing Systems
Правда уже NeurIPS
721 2039881
Мошинники, есть ли архитектура, по сути схожая с GAN, где результат работы этого самого условного advancedGAN проходил и далее несколько итераций в ней же. Т.е. если задача нарисовать кота, то можно разделить рисование на несколько стадий, с дальнейшей доработкой предыдущей итерации на основании сравнения текущего результата с желаемым? Напоминает само по себе обучение, но на несколько большем уровне абстракции. Т.е. когда я рисую кота, я не вывожу его сразу по пикселям, я рисую сначала приближенную картинку, потом довожу ее все ближе к тому, что задумал. Типо как когда в 3д редакторе картинку рендеришь, она становится все более качественной. Есть ли такое уже?
722 2039885
>>2039881
Это же позволит сэкономить ресурсы на обучении, зачем обучать модель делать все сразу, если можно обучить делать ее несколько отдельных задач, умения выполнять которые она будет комбинировать для выполнения общей цели.
723 2039914
>>2039881
DALL-E похожим образом рисует. Сначала, на первых итерациях или собака сутулая, или вообще какие-то залупы на воротник, а дальше заданная картинка отрисовывается все лучше и лучше.
724 2039942
>>2039914
Разве она есть в открытом доступе? Хз как там, но biggan и похожие нейронки которые начинают с собак основаны на том что там по сути функция потерь на clip который смотрит на картинку и сравнивает с фразой. А генерируют с помощью простого подбора латентных координат модели, то есть отрисовывает лишь на одном уровне целиком или отдельные участки. Вроде и остальные так же, помню пару архитектур с той основой но названия уже забыл.
К тому же closedAI выложили guided diffusion который по сути улучшенная версия biggana, но вот выложить предобученную модель или добавить в код способ генерации не на рандом по сиду они добавить забыли. Если у них уже есть dall-e которая лучше биггана, зачем они разработали то что лучше биггана, но хуже того что уже у них есть? Там к слову так же цельная генерация.
мимо
725 2039946
>>2039942

> Разве она есть в открытом доступе?


Давно уже. Но не с гпт3 конечно же, вместо нее туда реформер вроде приколхозили. В колабе все работает, конечно не так как с гпт3, но рисует.
726 2039969
>>2039946
Помню только попытку воспроизвести на pytorch, но натренированных моделей до вменяемого состояния еще не видел. Ну и там так же, только один колаб использует токены и чем то частично напоминает гпт-2, но там ясен хуй меньше параметров которые можно натренировать ведь это бы потребовало огромного количества памяти, вот если что https://github.com/kobiso/DALLE-reproduction. И тут так же используется цельная генерация с точно тем же подбором латентных координат.
К слову а идея нескольких нейронок на самом деле не плоха, но вот реализовать это довольно сложно ведь архитектуру нужно будет делать с нуля, и на текущих решениях это займет лет 100 для каждой на бытовом пк.
Хотя если например изменить саму основу нейрона на что то вроде этого https://m.habr.com/ru/post/526850/ но с доработками, использовать йоба решения для других мелочей, возможно это сократит время до разумных масштабов, но вот только чую что уже были эти решения и они нихуя не работали и поэтому о них забыли как и о таком типе нейронок.
728 2040138
>>2039969

>изменить саму основу нейрона на что то вроде этого https://m.habr.com/ru/post/526850/


Подавился чаем с шизы в посте, предупреждать надо.
729 2040149
>>2040138
Сорян что не предупредил. Да, там шиза полнейшая, но про то что нужно уделять внимание не только передаче сигнала но и приему звучит как минимум логично, ну и пару других интересных идей там найти можно. В любом уже сейчас очевидно что некоторые фундаментальные вещи нужно менять иначе скоро даже корпорации с суперкомпами упрутся в лимиты когда количество параметров перестанет хоть что то давать. А рядовые пользователи уже не могут тренировать или использовать многие нейронки из за железа.
730 2040168
>>2040149

>В любом уже сейчас очевидно что некоторые фундаментальные вещи нужно менять


Не очевидно. В отрасли всё ещё много low hanging fruits.

>скоро даже корпорации с суперкомпами упрутся в лимиты когда количество параметров перестанет хоть что то давать


Упрутся в лимиты = 99.9 точности на imagenet? Придумают новые архитектуры.

> рядовые пользователи уже не могут тренировать или использовать многие нейронки из за железа.


Рядовые физики не могут запустить дома БАК или ИТЭР. Рядовые астрономы не могут запустить на орбиту хаббл или собрать дома 10-метровый телескоп. Рядовые веб-программисты не могут проиндексировать 100 триллионов документов и вынуждены пользоваться гуглом.
Почему в датасаенсе подобное нужно предотвратить любой ценой?
1621793044234.jpg61 Кб, 770x531
731 2040185
>>2040168

> Упрутся в лимиты = 99.9 точности на imagenet? Придумают новые архитектуры.


Скорее в 95% и не продвинутся дальше, хотя по сути распознавание объектов это одно из легчайших направлений среди основных, генерировать картинки или идеально генерировать тексты они не могут, и если когда число параметров перевалит за их количество в мозге человека а результаты будут не сильно лучше текущих, вот тогда и архитектуры и будут придумывать. Но это будет крайне не скоро и прежде чем это будет, если конечно будет, дохуя времени уйдет впустую.

> Почему в датасаенсе подобное нужно предотвратить любой ценой?


Очевидно же потому что это один из путей к концу света. Если он в руках корпораций и переразвит то пикрил, если он в руках всех людей то перед этим можно извлечь лулзы.
732 2040192
>>2040185

>Очевидно, ясное дело, все мы понимаем, в скором времени всё будет так...


Нет, это всё хуйня, которую ты выдумал.
733 2040215
>>2040168

> Почему в датасаенсе подобное нужно предотвратить любой ценой?


Потому что ИИ перестанет работать на благо общества. ИИ должен принадлежать всем, тогда всё будет заебись.
1621796395646.png1,4 Мб, 900x866
734 2040225
>>2040215
Должен? Должен кому?
735 2040259
>>2040215

>Потому что ИИ перестанет работать на благо общества.


Генетика не перестала, хотя напечатать генов дома ты не сможешь - только покупать у крутой компании с дорогущими принтерами.
736 2040347
Эй, псих который делал нейронку для Lr, ты тут?
Ты не оригинален- https://arxiv.org/abs/1907.08610
и еще тебе сверху-https://github.com/rwightman/pytorch-image-models#introduction смотри сборку оптимизаторов.
1621838771733.png237 Кб, 1651x683
737 2040540
>>2040347
Прочитал на сколько хватило знания ангельского, действительно похоже но сложнее в раз 200. Только там как я понял сначала идут обычные оптимизаторы а затем нейронка на их работу смотрит и генерирует новую траекторию и по новой. Сейчас провожу тесты пикрил с той что тренирую и это разделение которое призвано ускорить обучение почти бесполезно, у меня с генерацией 400 токенов уходит столько же времени что и без нее если округлять до сотых.
Да и прирост уступает тому же madgrad от фейсбуков.
А тот что постили раньше который на lstm морально устарел.
все еще обучаю и понял один из проебов, нужно было ебашить датасет не из другой нейронки а из элементраного поиска минимума простой функции
а так же только три дня назад заметил что по сути она изменяет не сам lr а альфу
738 2040643
В общем есть лаба на питоне, где нужно на из обучающей выборки нужно найти остаток деления на 4 целого двухбайтного числа, лаба в колаборатори, 1 курс, преподу похуй. Объясните мне пожалуйста что и как сделать правильнее? Сразу формировать выборку с учетом условия, или уже после формирования выборки искать в ней остаток?
739 2040714
>>2040540
я в такие дебри матема не лезу, я человек простой- вижу гит, он работает на моей машине- фижу ему датасет и жгу гигафлопы. Сам факт того, что это работает- радует. Удачи.
740 2040742
>>2040540
ну и там такое улччшение- 0,5% ускорение на некоторых датасетах, но это не точно. Прям как в той картинке с бинго выше.
741 2041162
>>2040643
Бамп, помогите идиоту
742 2041181
>>2022591
Optuna - есть универсальный сэмплер и уже написаны велосипеды для популярных библиотек.
743 2041183
>>2040225

> никто никаму ничё не должын ничо ни истина всё дазволена

744 2041185
>>2023132
Когда данных очень много и признаки гомогенные.
1621860444210.png1,4 Мб, 900x866
745 2041192
>>2041183
Ты отвечай твёрдо и чётко, к чему этот омежный гринтнест.
746 2041318
>>2040540
А ты не пытался подумать прежде чем пилить что сама идея предсказания лернингрейта просто по предыдущим лернингрейтам идиотская? Жизнь была бы слишком простой если бы вся нужная информация для решения вообще любой задачи заключалась бы просто в последовательности лров.
748 2041423
>>2041318
Так и не только по ним же. По сути все обучение нейронок это подбор весов с помощью оптимизаторов, а у них самый важный параметр - lr, то есть как они ищут минимум функции, то есть минимальные потери. И по сути нейронке нужны будут известные потери и предыдущие lr. На удивление, именно эти данные нужны и всем стандартным оптимизаторам.
Ну и то что я худо бедно пилю использует строку в которой lr и потери 30 итераций + флаг снижения потерь как костыль для того чтобы сказать нейронке сделай пиздато для следующей.
749 2041510
>>2041423

>И по сути нейронке нужны будут известные потери и предыдущие lr


Не, это всё равно слишком мало. Отдельный неадекват это предсказывать lr не как число а как последовательность цифр, что ты по сути делаешь с помощью gpt3. При том что известно что гпт даже на простых арифметических примерах обсирается, то есть концептуально понять что lr 0.001 близок к lr 0.0011 она не может.
750 2041514
>>2041510

>gpt2


фикс
1621871784765.png9 Кб, 1842x213
751 2041538
>>2041510
Как раз таки она и понимает что 0.001 близок к 0.0011, в арифметику она может херово но понимать что один токен в последовательности связан с другим она еще как может, это ее суть. Иначе она бы не то что не генерировала текст, она бы не могла понимать что если число в потерях стало меньше то и флаг должен быть true, однако она уже может это. Пикрил строка к слову была сгенерированна при обучении только что, и до конца еще долго так как потери 0.86. К слову датасет был со скачущим на рандом lr, по этому и добавил флаг который она на удивление правильно обрабатывает. С самого начала тупил и не создал спец токены так как не разобрался, но их можно добавить в процессе при смене датасета который будет собран уже с помощью нее.
Алсо кто за них шарит, киньте где про них и их использование почитать, а то ничего дельного гугол не выдает.
752 2041559
>>2039914
Откуда инфа что она так-же рисует? Недавно в /b чел с куколдолабом все треды создавал, но там с каждой итерацией сам генератор дообучался, т.е. менялись веса генератора. Тут же суть как раз в том, что обучать ничего не надо, он не генерирует обновленным генератором с нуля, а доГенерирует. Не могу статью по dall-e найти нигде, все говно какое-то с картинками котиков и стула-авокадо. Толком так и не понял архитектуру, кроме того, что там есть трансформер.
753 2041565
>>2040215
Ты ъоть пояснить за ИИ-то сможешь? А то у тебя эта абстрактная манна небесная, а не, сука, отдельный блять интеллект с отедльной личностью.
754 2041609
>>2041538

>Как раз таки она и понимает что 0.001 близок к 0.0011


Это понимает любая непрерывная модель с вещественным выходом. Зачем gpt здесь?

>С самого начала тупил и не создал спец токены. Алсо кто за них шарит?


Какие именно спец токены? [start] и [end] тоже спец токены, тебе про них?

Куда ты вообще лезешь, если у тебя нет ни знаний, ни базовых интуиций?
755 2041616
>>2041559
Я тот чел с колабами, сейчас сру тут нейронкой для lr, и там нейронка не дообучалась. Она искала латентные координаты, используя оценку clip как функцию потерь, подробнее тут https://youtu.be/rR5_emVeyBk. А про dall-e уже писал, единственная в опенсорсе это интерпретация на торче, первая ссылка в гугле, единственная натренированная и генерирующая не только через латенты - https://github.com/kobiso/DALLE-reproduction, но там явно мало параметров для этой задачи.
Ну и объяснение принципа работы уже опубликовали на arxiv, так же первая ссылка в гугле по запросу dall-e arxiv.
756 2041622
>>2041609

> Это понимает любая непрерывная модель с вещественным выходом. Зачем gpt здесь?


По тому что она наиболее пиздата же. И разве это не значит что она как раз таки подходит, не?

> Какие именно спец токены? [start] и [end] тоже спец токены, тебе про них?


Да, именно они. Видел как они используются например в ai dungeon в роли объявителей контекста и того что сейчас говорит игрок, ну и еще для чего то. Другие проекты тоже их используют когда есть определенные данные которые нужно сгенерировать.

> Куда ты вообще лезешь, если у тебя нет ни знаний, ни базовых интуиций?


Саморазвитие через познавание того что тебе нихуя не понятно, чому бы и нет? А еще интерес, к тому же так я на практике совершенствуюсь в питоне, вон недавно получил чуть больше базы и изучил регулярочки.
757 2041740
>>2041622

>По тому что она наиболее пиздата же.


Пиздата для чего? Что угодно можно превратить в строку и пихать в гпт но это маразм, обычный мл для каждой такой задачи зайдёт лучше.
758 2042046
Анон, сап. Подскажи плз вкатуну.
Нужно ли уметь разбираться на практике в развертывании модели, все эти докеры-хуёкеры или этим занимаются отдельные спецы.
759 2042259
>>2042046
В крупных компаниях - отдельные спецы.
760 2042268
>>2042259
Но при прочих равных это же плюс, если в этой теме шаришь?
761 2042281
>>2042046
Докеры - хуйня без задач, но если нужны библиотеки которые хуй найдешь в рабочем состоянии вроде апекса от нвидки, то им можно научиться с одной статьи. Так же при работе в корпорациях если куча компов и лень на каждый устанавливать зависимости отдельно - один раз собрал среду на одном пк, запихал все в докер и разослал по всем пк. Там делов раз плюнуть в сонсоль.
762 2042288
>>2042268
Да. Но это относится к крупным IT-компаниям, куда джунов неохотно берут, если не вундеркинд. Крупные не IT-компании вообще нередко вкатывают требования, где надо всю систему собрать от забора данных до вывода результатов в браузер.
763 2042319
>>2042046
https://cloud.google.com/architecture/mlops-continuous-delivery-and-automation-pipelines-in-machine-learning
tldr: лучше разбираться, но с джунов такое спрашивать не будут
>>2042259
Нет. Тот же гугл уже который год форсит MLops и заставляет дата саентистов делать пайплайны, а не модели.
>>2042288
Крупные IT-компании как раз стажеров/джунов и берут.
764 2042526
Хера вы ленивые, жопы трансформенные, триста лет без переката
>>2042522 (OP)
>>2042522 (OP)
>>2042522 (OP)
765 2042638
>>1980946 (OP)
Аноны, я уже блядь нихуя не понимаю, inverse Reinforcement Learning и Imitation Learning это одно и то же или нет сука?
766 2045247
Ребятки, а какая лучшая книга с pytorch'ем?
767 2045253
>>2045247
И если можно, то с курсом молодого бойца как у Николаенко...
768 2045333
Сколько в ДС получает джун ML/DS? Хочу перекатиться из финансов с $2.5к, 25 лвл. Есть смысол? Или буду катиться до этой суммы еще года 3-4?
769 2045444
>>2045333
совсем зелёный джун - не более 1,5к$, поэтому решай сам, надо ли оно тебе. но если 2,5к$ - твой потолок в финансах, возможно стоит и попробовать.
770 2045465
>>2045444
Лан, подумаю еще, $2.5к - не потолок канеш, но апать кэш дальше сложнее гораздо, особенно фикс часть
771 2045466
>>2045444
а по остальным какая вилка? диапазоны
772 2045580
>>2045466
Можно много зарабатывать, но на топовых позициях надо быть кабанчиком, который на основе статистики чует куда копать, чтобы повысить профит. Это если ближе к дата-аналитике. Для компьютер вижн надо еще плюсы знать, которые быстро не осваиваются. В распознавании речи приемлемый результат только у топовых компаний типа яндеха.
773 2046722

>>>2045333


В ДС зарплаты падают, мне синиора в большую и известную российскую компанию предлагали месяц назад примерно на 2.5к. А джунов сейчас по 50 человек на вакансию.
774 2047201
>>2046722
Чот грустные вилки, - синиор на $2.5k, джун - $800
775 2047667
>>2047201
Потому что сложно быть аналитиком на удаленке. Надо общаться с менеджментом и щупать бизнес. Поэтому нет галер дата-саентистов. Весь рынок ограничен компаниями в зоне физической досягаемости тела дата-саентиста.
776 2047668
>>2047667
Ну хотя кагл есть. Есть займешь первое место, то сколько-то десятков тысяч зелени получишь.
777 2047713
есть кто RL крутит, к чему вы его реально применяете на практике?
778 2047992
JS или петухон?
779 2048166
>>2047667
Как в офисы сейчас повыводят остатки, так и ракета будет по зп
780 2048243
>>2047992
Golang или пыха.
781 2048251
>>2048243
Сиплюсы. А по моему вопросу что?
782 2048682
>>2047201
Для синиоров делай х1.5
783 2050736
Поясните мне такую мою несостыковку.
В гайдах на ютубе, в примерах работы, в любых обучалках все юзают готовые команды для моделей что любая модель это три строчки типа tf.keras.Sequential([слои]), потом model.compile(ошибка, оптимайзер, метрика), потом model.fit(данные, вербоз, каллбак и т.д.) и все, заебок. Так же предподготовка данных, типа просто one_hot энкод, train_test_split для тренировочного и тестового куска.
Но в книгах и коде со стаковерфлоу все это написано ВРУЧНУЮ, т.е. разбиение на трен. и тест. написано лупом, уанхот прописан лупом если, и дальше модели вписаны вручную for i in epochs: и так далее. При этом по докам тенсорфлоу там они вручную пишут код 1в1 как в тех же командах keras. Смотрел в курсе от удасити этот проект по оценке сентимента отзывов imdb, там кода ДОХУЯ, препод там листает только функцию модели на три обычных экрана размазанную, смотрю уже сейчас отдельно этот же проект, 10 строчек нахуй.
Короче мне надо знать это все, как это вручную писать, а то у меня диссонанс что из этого учить, если надо - я буду учить полный код, но если окажется что чтобы почистить рыбу надо делать свой собственный нож, то это как-то ебано.
784 2051163
>>2050736
Треин_тест_сплит и тд все делают командой с склерна, в питорче используют часто даталоадеры, но обычно не удается обойтись тремя строками каждый датасет каждый раз оборачивают по-разному
785 2051312
как быстро можно апнуть свой лвл с дата аналера (python, sql, airflow + тупо эксель с vba) до нормального саентиста?
786 2051340
>>2051312
Хуй знает, я вот собесы отлично прохожу, а меня все посылают.
787 2051607
>>2051312

>нормального саентиста


Слишком размытое понятие.
https://www.youtube.com/watch?v=Cs3ae65tmKA
788 2052050
Насколько сложнее вкатиться во всю эту вашу нейрохуйню, чем в обычную бизнес или системную -аналитику?
789 2059036
>>2051340
ты тупой мб? или шо куда проходишь?
790 2059995
>>2059036
Пошел нахуй, я умный
791 2060314
>>1994508
Документы вк.
792 2060640
Тред утонул или удален.
Это копия, сохраненная 8 июня 2021 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски