Этого треда уже нет.
Это копия, сохраненная 7 апреля 2023 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №49 ai /ai/ 2484578 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают

Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.

Почему такой фокус на нейронки?
Потому что остальные чистят вилкой данные в банках с помощью LGBTboost и им некогда предлагать обновления в шапку

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/

Почему python?
Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" — на русском, есть примеры, но меньше охват материала
Франсуа Шолле — Глубокое обучение на Python
https://d2l.ai/index.html
Все книги и статьи фактически устаревают за год.

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе — никогда, тред не об этом

Кто-нибудь использовал машоб для трейдинга?
Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад.
Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
2 2484579
Подскажите, можно ли как-то проскочить джуновый уровень, и вкатиться сразу где-то на уровень миддло плюс?
Учу ml, работаю жабо-разрабом. Супер интересно перестать перекладывать джейсончики и хочется начать крутить нейроночки уже на работе, но так не хочется терять свои 300кк/сек

Хватит ли задрочить собесы? Сколько нужно нарезать проектов на каггле?
3 2484871
>>484578 (OP)

>Почему такой фокус на нейронки?



Вот я хочу научить чему-нибудь полезному неигровых персонажей в компьютерной игре. Но мне нужен не просто случайный набор действий, а понятная, контролируемая система, которую можно развивать (имею в виду, как любую программу - есть код, ты его пишешь, читаешь и понимаешь его смысл). Пришёл к выводу, что нейронки не могут в этом помочь, т.к. они не объясняют свои решения. Что толку от перемножения матриц, если это всё абстрактные числа?

Т.е. пришёл к выводу, что мне подходит только
https://en.wikipedia.org/wiki/Rule-based_system
Но забивать тонны if-else вручную оказалось весьма сложной задачей, учитывая то, что я понятия не имею, что мне вообще нужно получить - не знаю, какое поведение мне следует закладывать. Было бы лучше, если бы алгоритмы сами находили подходящие правила из набора заданных условий, а я бы эти правила мог прочитать и понять (т.е. это не могут быть веса нейронов).

Очевидно, не я один к такому пришёл:
https://en.wikipedia.org/wiki/Rule-based_machine_learning
Но возникает вопрос, где об этом найти какую-нибудь информацию, ну, хотя бы из любопытства?

Сам я думаю попробовать генетические алгоритмы - если правило А даёт плохой результат, вносим в него модификации и получаем новое правило Б, повторяем до наиболее удачного правила (не обязательно идеального). Можно присвоить всем правилам веса - как веса у нейронов - и регулировать их по результатам деятельности персонажа. Но, боюсь, что правила быстро выйдут из-под контроля - потеряют человекочитаемость. Хотя важный плюс - начальный набор правил легче установить вручную, в отличие от рандомных весов в огромной нейросети.

ИМХО, мне кажется это куда более важным направлением, чем любые нейро- технологии. Нейронки подобны обычному органическому мозгу - это воплощение хаоса, в котором невозможно разобраться. Мы создали компьютеры, чтобы они точно решали задачи по строгим логическим правилам. Так зачем мы симулируем первобытный хаос в виде нейронок? Не проще тогда взять обычный мозг и воткнуть в него электроды, чтобы он решал задачи вместо точного и логичного компьютера, раз мы не стремимся к точности и логичности? Ну, или вырастить нейроны в пробирке, если кого-то вдруг беспокоит этичность использования готового мозга. На компьютерах нейроны симулировать - всё равно что в уме длинные числа перемножать - извращение и кощунство.
3 2484871
>>484578 (OP)

>Почему такой фокус на нейронки?



Вот я хочу научить чему-нибудь полезному неигровых персонажей в компьютерной игре. Но мне нужен не просто случайный набор действий, а понятная, контролируемая система, которую можно развивать (имею в виду, как любую программу - есть код, ты его пишешь, читаешь и понимаешь его смысл). Пришёл к выводу, что нейронки не могут в этом помочь, т.к. они не объясняют свои решения. Что толку от перемножения матриц, если это всё абстрактные числа?

Т.е. пришёл к выводу, что мне подходит только
https://en.wikipedia.org/wiki/Rule-based_system
Но забивать тонны if-else вручную оказалось весьма сложной задачей, учитывая то, что я понятия не имею, что мне вообще нужно получить - не знаю, какое поведение мне следует закладывать. Было бы лучше, если бы алгоритмы сами находили подходящие правила из набора заданных условий, а я бы эти правила мог прочитать и понять (т.е. это не могут быть веса нейронов).

Очевидно, не я один к такому пришёл:
https://en.wikipedia.org/wiki/Rule-based_machine_learning
Но возникает вопрос, где об этом найти какую-нибудь информацию, ну, хотя бы из любопытства?

Сам я думаю попробовать генетические алгоритмы - если правило А даёт плохой результат, вносим в него модификации и получаем новое правило Б, повторяем до наиболее удачного правила (не обязательно идеального). Можно присвоить всем правилам веса - как веса у нейронов - и регулировать их по результатам деятельности персонажа. Но, боюсь, что правила быстро выйдут из-под контроля - потеряют человекочитаемость. Хотя важный плюс - начальный набор правил легче установить вручную, в отличие от рандомных весов в огромной нейросети.

ИМХО, мне кажется это куда более важным направлением, чем любые нейро- технологии. Нейронки подобны обычному органическому мозгу - это воплощение хаоса, в котором невозможно разобраться. Мы создали компьютеры, чтобы они точно решали задачи по строгим логическим правилам. Так зачем мы симулируем первобытный хаос в виде нейронок? Не проще тогда взять обычный мозг и воткнуть в него электроды, чтобы он решал задачи вместо точного и логичного компьютера, раз мы не стремимся к точности и логичности? Ну, или вырастить нейроны в пробирке, если кого-то вдруг беспокоит этичность использования готового мозга. На компьютерах нейроны симулировать - всё равно что в уме длинные числа перемножать - извращение и кощунство.
4 2484892
>>484871

>начальный набор правил легче установить вручную


Приведу чуть более конкретный пример.

В контексте игры персонаж должен обладать каким-то конкретным поведением, это очевидно. Классический алгоритм мы забиваем вручную на любом императивном языке программирования, чтобы персонаж делал конкретные действия конкретным образом. Но такой код не будет изменяться сам - обычно именно это и нужно, но это не мой случай.

Нейросети в своей основе позволяют персонажу сформировать поведение путём считывания миллионов образцов поведения. Но где взять образцы поведения, если у нас нет готового персонажа? Да ещё и такие, чтобы не было лишней информации (шума). Т.е. выходит, что мы не можем задать начальное состояние нейросети так, как мы хотим, мы можем только закинуть случайных чисел и надеяться на то, что нейросеть сформирует поведение, близкое к желаемому. Мы можем прикрутить к этому генетические алгоритмы и спустя миллионы проб и ошибок получим нечто близкое к желаемому.

Но почему бы не совместить приятное с полезным? Написать базовые правила вручную, а дальше разрешить правилам меняться по ситуации, чтобы система могла сама создавать новые и удалять лишние правила, сортировать правила по значимости и эффективности и таким образом оптимизировать свою работу, опираясь на заложенные нами изначальные пожелания. В идеале, новые правила, созданные системой автоматически, тоже будут нам понятны, но даже в худшем случае мы можем хотя бы контролировать начальные правила.

С нейросетями это, насколько я знаю, невозможно, потому что числа на весах нейронов не несут в себе чёткого смысла, смысл есть только на входах и выходах, но не в скрытых слоях. Поэтому нейросети по сей день не показали ничего интересного, а вся работа с ними - перетряска чисел случайным образом. Меня интересуют альтернативы и что об этих альтернативах известно. А то сейчас слышно только о генераторах случайно упорядоченной информации на основе миллионов образцов - картинок, голоса, текста - но всё это не имеет отношения к моей задаче, ведь у меня нет и не может быть образцов (как не было примера для подражания у первобытных людей...).
4 2484892
>>484871

>начальный набор правил легче установить вручную


Приведу чуть более конкретный пример.

В контексте игры персонаж должен обладать каким-то конкретным поведением, это очевидно. Классический алгоритм мы забиваем вручную на любом императивном языке программирования, чтобы персонаж делал конкретные действия конкретным образом. Но такой код не будет изменяться сам - обычно именно это и нужно, но это не мой случай.

Нейросети в своей основе позволяют персонажу сформировать поведение путём считывания миллионов образцов поведения. Но где взять образцы поведения, если у нас нет готового персонажа? Да ещё и такие, чтобы не было лишней информации (шума). Т.е. выходит, что мы не можем задать начальное состояние нейросети так, как мы хотим, мы можем только закинуть случайных чисел и надеяться на то, что нейросеть сформирует поведение, близкое к желаемому. Мы можем прикрутить к этому генетические алгоритмы и спустя миллионы проб и ошибок получим нечто близкое к желаемому.

Но почему бы не совместить приятное с полезным? Написать базовые правила вручную, а дальше разрешить правилам меняться по ситуации, чтобы система могла сама создавать новые и удалять лишние правила, сортировать правила по значимости и эффективности и таким образом оптимизировать свою работу, опираясь на заложенные нами изначальные пожелания. В идеале, новые правила, созданные системой автоматически, тоже будут нам понятны, но даже в худшем случае мы можем хотя бы контролировать начальные правила.

С нейросетями это, насколько я знаю, невозможно, потому что числа на весах нейронов не несут в себе чёткого смысла, смысл есть только на входах и выходах, но не в скрытых слоях. Поэтому нейросети по сей день не показали ничего интересного, а вся работа с ними - перетряска чисел случайным образом. Меня интересуют альтернативы и что об этих альтернативах известно. А то сейчас слышно только о генераторах случайно упорядоченной информации на основе миллионов образцов - картинок, голоса, текста - но всё это не имеет отношения к моей задаче, ведь у меня нет и не может быть образцов (как не было примера для подражания у первобытных людей...).
5 2485525
>>484578 (OP)
Сап анончики, а может кто-то учебники по матану посоветовать ?
Я только вкатываюсь, базис программирования доучиваю, по бесплатному курсу CS50, хочу в нейронки пиздец, пол жизни дрочу на них.
Алсо хочу спросить, стоит ли работать в каком-нибудь вебе или другом направлении перед этой сферой ? Чисто для опыта работы.
6 2485677
>>485525

>учебники по матану


Фихтенгольц, задачник - Демидович. Можно вместо Фихтенгольца начать с Зорича, там более современное и строгое изложение, но скорее всего тебе это не нужно.
7 2485711
>>485677
Я учу математику по справочнику Выгодского, какие подводные?
8 2486187
>>486155 (Del)
https://data.vk.company/static/core/pub/bigdata/docs/2020_MADE_Syllabus.pdf
Вот тебе хороший список, на два года неспешного изучения хватит.
9 2486188
>>484578 (OP)
Подскажите, какая нейронка пикчи в пейзажи превращает?
10 2488522
Там это, нейронки порнуху рисуют.
11 2488659
>>488522
Не подкинешь ссыль на источник?
12 2489074
>>488659
На санкаку нашёл. Что за дифьюжн не знаю.
13 2489084
Поясните, вот я вроде знаю какую-то начальную теорию - как нейросеть устроена, какая там используется математикану и про десижен три и рандом форест тоже, но сецчас это не суть, но где мне изучить как правильно делать структуру сети для конкретной задачи?
Вот я определился с входным слоем и выходным, а между ними че пихать? Понятно, что я могу загуглить решения, посмотиеть чужие подходы в аналогичнвх задачах, а самому как допереть до этого??
14 2489106
>>489084

>загуглить решения, посмотиеть чужие подходы в аналогичных задачах


К сожалению только вот это, универсального подхода нет. Ну то есть понятно, что архитектура в первую очередь зависит от типов данных, для каринок ты будешь скорее всего делать свертку, а для табличных даннных хватит нескольких полносвязных слоев. Но это лишь примерная архитектура, которую ты потом будешь допиливать эмпирическим путем. Попробуй сам поиграться с какой-нибудь простой задачей, stack more layers вот это все, постепенно появится минимальная интуиция, в какую сторону двигаться.
https://playground.tensorflow.org/
15 2489224
Сап двощ.
Кто подскажет как ща с МЛопсом в РФ дела?
Вижу только СберКлауд нормально делает.
16 2489606
Посоветуйте где посмотреть курсовые по нейронкам (компьютерное зрение/распознавание образов, если конкретно), гугл скудно выдаёт
изображение.png81 Кб, 921x507
17 2489643
Господа, а есть какие-нибудь готовые устаканившиеся механизмы менеджмента датасетов? Чтобы стягивало с хрнилища, слайсило, валидировало, версионифицировало. Каждый раз какой-то ворох костылей городить приходится.
18 2490021
Поясните на сколько это мощная штука. Правда, что я любую задачу без конкретного алгоритма могу на нейронку возложить, потренировать ее и получить хороший результат? Может ли нейронка понимать какой текст лучше подходит под тему?
FfIyePaUcAEq2ry.jpg152 Кб, 908x1024
19 2490269
20 2490280
>>490021

>понимать какой текст лучше подходит под тему


Что это значит? У тебя есть набор текстов и тема, и тебе надо узнать, какие тексты из набора подходят к ней? Или тебе эти тексты надо генерировать для заданной темы?
21 2490447
>>490280
Вот есть набор текстов. Есть предложение которое описывает кратко какое то подмножетсво. Например, есть тексты это все параграфы из школьных учебников, но под краткий пересказ главы литературного произведения (конкретного) подходит всего 1 параграф, под предложение "описание свойств планеты Земля" подходят почти все параграфы из учебника географии. И так далее
22 2490535
>>490447
Примерно этим любой поисковик занимается.
23 2491340
Стоит ли пытаться в нейроночки, если я даже не понимаю дроби?
Не спеши с ответом, подумой.
24 2491348
>>491340
Смотря что тебе нужно. Нейронки не истина, а вариация статистики.
25 2491387
>>491348
Тут кабанчик из Университета ИИ говорит что математика нинужна когда есть обширные библиотеки python
26 2491481
- я начинающий в ML
- ищу с кем можно было бы обсуждать/вместе разбираться в моделях, визуализации, фичах, нейронках и подобное
- сам я заканчиваю BCompSc, прохожу учебные курсы на каггле (осталось где-то 6), иногда возникают вопросы а обсудить не с кем, треды на форумах лень создавать
- моя цель это научиться решать задачи на каггле и получить гранд мастера через полтора, два года
- возможны дискасы в дискорде

телега: @bravednn
takagi-san, loli, leotard, with caption Thank you, Vlad  s-443422260.png230 Кб, 512x768
27 2491518
Ух бля, NAI ахуенен.
28 2491541
>>491340
Если ты не понимаешь дроби, тебе в дурку надо или в интернат для умственно отсталых.
29 2491562
>>491387

>Тут кабанчик из Университета ИИ говорит что математика нинужна когда есть обширные библиотеки python


Этот инфоцыган прав. В случае таких же макак, как и он сам.
Математика это такая вещь, которая нужна только тем, кто хочет создавать нечто новое. Новые технологии, например.
Чтобы хлебать смузи, клепать продукты на основе этих технологий и делать деньги, математика, очевидно, не нужна.
image.png1,3 Мб, 1186x1056
30 2491993
Оправдания?
31 2492369
>>491796 (Del)
Ты просто тупой.
32 2493513
>>491993
А что на пикче?
33 2493522
>>493513
форель плавает в реке
34 2493581
В маниакальной стадии загорелся идеей создания своего цифрового ии аватара со всей хуйней. Но я гуманитарий и из программ только 3д пакеты лапал и в юнити терейны делал. Есть шансы создать что-то такое без матана и долгих лет обучения программированию? Может быть есть пакетные решения без написания движка или кода или как там это делается? не бейте лучше обьясните
35 2494194
Сап двач. Возможно ли учиться машобу в ВУЗе европейском?
image.png174 Кб, 1045x689
36 2495182
Аноны, помогите! Имеется матрица признаков. Можно ли имея 16 признаков от лишних, если таковые имеются, можно избавляться и только 16 данных построить хоть какую-то модель, которая имеет предикт больше 0.5? На ум приходит только КНН с всевозможными удалениями подмножеств признаков
37 2495523
>>495182
Больше 0.5 чего? Попугаев?
Можно ли построить модель? Если в твоих признаках содержится достаточно информации, то можно.
38 2495527
>>495202 (Del)
С чтения шапки.
39 2495672
>>495539 (Del)
Это знать надо! Это классика!
40 2496711
Сап, машобач.
Реквест скорее для /s/, но там вряд ли что-то посоветуют.

Есть годная опенсорс нейронка, которая определяет авторство большого (несколько десятков страниц) текста на русском?
41 2497167
>>496711
а ты сам смог бы определить авторство текста?
если нет, то зачем искать для этого нейронку?

Подумой об этом прежде чем бежать к трясунам черных ящиков
image72 Кб, 712x595
42 2497397
10 видов писек (вы будете ржать)
43 2497497
>>497397
Какая у тебя?
44 2497708
>>497497
Длинная, слегка скошенная вправо, необрезанная. А у тебя?
45 2497713
>>497708
Могу тебе левый хук туда зарядить, встанет по центру
46 2497722
>>497713
Могу нахуярить хук в реакте. На работу возьмёте?
47 2497837
>>497713
Ты тян или няшный кунчик? Тогда я не против дать побоксировать со своими причиндалами.
48 2498370
Ну что анончики, роадмап для вката в машоб нарисовался?
49 2498811
Какие есть аналоги у ящика с усами для нескольких выборок в одной категории?
50 2498840
>>498811
ничего нет лучше гистограммы.
Рисуй гистограммы.
51 2499122
>>498370
Зачем тебе?
52 2499132
>>499122
вкатиться
53 2499161
>>499132
Вакансий нет.
54 2499271
Пишу торгового бота с применением нейронных сетей на паре BTCUSDT, уже имею положительный результат торгов на истории, хочу обсудить с кем нибудь детали реализации для улучшения качества модели.

Кто имеет уже опыт в этом деле, напишите сюда:
1) Входные данные, у меня смещения японских свечей в процентах, что было у вас?
2) На каком количестве слоев лучше обучение?
3) Функция ошибок Fitness какую задали? Я взял за основу минимизацию количества ошибочных трейдов, вместо максимизации профита, это дало огромный прорыв в обучении.
55 2499435
>>499271
Ты сам погуглишь мнения почему это обычно не работает или тебе литературку подсказать?

Начни с "теория эффективного рынка" .
56 2499501
Чет ерунда вообще. Скачал книгу из шапки, посмотрел пример с продолжением текста. Какая же это хуйня. Выглядит как что то очень далекое от применения на практике
57 2499545
>>499501

> Скачал книгу из шапки


Николенко что-ли? Ну так математик и считает строгость изложения превыше объяснений.
Рассказывай в какой области работаешь, а мы тебе расскажем как тут применять машоб.
58 2499547
>>499545
Да, николенко. Я про результат, а не изложение. Ну просто нейросеть хуйню нагенерила у него там. Это не то, чего я ожидал
59 2499550
>>499547
то есть, ты не работаешь с информацией и поэтому не сообщил об этом?
Ясно.

Да, тебе не нужны нейросети.
60 2499552
>>499550
Да я не собирался вкатываться. Просто на досуге зашел, посмотрел примеры. Не впечатлило
61 2499562
>>499552
Ну раз уж ты зашел, сообщаем, что ты кусок неайтишного говна и твое мнение здесь не интересно.
62 2499563
>>499562
Доброжелательно
63 2499648
>>499435
Пока каждый не начнет юзать сверх эффективные алгоритмы, это будет работать. Тебе просто надо быть чуть лучше других.
64 2499725
>>499648
но ведь есть комиссии.
Им еще мы знаем, что есть и другие команды, которые много лет изучали настоящий рыночек, (просрали там все) легко применили свой опыт к отсталому крипторынку.
65 2499729
>>499271
вот тебе книженция : Маркоз Лопес Де Прадо , Машинное обучение и алгоритмы для бизнеса.

Там ты подсмотришь несколько ситуационных приемчиков. Но не готовых идей.

Конечно, он не раскрывает добился ли он чего-то. Полностью темная книга. Можно сделать вывод только что он наебывал одновременно и инвесторов и американскую военщину долгие годы . И что эта затея - весьма сложная штука.
66 2499885
>>484578 (OP)
Нлпшники тут? Как сделать оффлайновый генератор случайных слов русского языка? По любому это как то пересекается с NLP который natural language processing, а не нейролингвистическое программирование, но что именно по шагам делать я не ебу.
67 2499895
>>499885
import random
print(random.choice(foo))

foo - лист загруженный русских слов.
Всё.
68 2499914
>>499895
Ну это понятно, а где норм список достать, и чтобы петухон его съел?
69 2499919
>>499885
>>499895
Ладно, вроде какой то список нашел. Правда мне стемы нужны, видимо придется через стеммер прогнать и дупликаты удалить, но это я нагуглю как-нибудь я надеюсь.
https://github.com/danakt/russian-words/blob/master/russian.txt
70 2499965
>>499885
Во, надо было сразу гуглить частотный словарь русского языка, там леммы только.
http://dict.ruslang.ru/freq.php
Тут в .csv можно скачать, то, что надо.
изображение.png53 Кб, 686x293
asus 71 2502459
Сап 2ч. Подскажыте де взять модель для распознавания кириллического шрифта для Keras и как отключить распознавание английского? недавно влез в это и вот упёрся. Свою обучать времени нет совсем.
72 2502626
>>502459
Зачем тебе Keras, если все айти использует tesseract и в ус не дует?
Там, между прочим, тоже нейронки.
изображение.png137 Кб, 1440x660
73 2502774
>>502626
Документ под наклоном сфотографирован. С бликами и таблицами. Границы таблиц с низу невидно становится. Tesseract не справляется. Или недонастроил. Поэтому решил Лeras попробовать. Нашёл в Keras.Recognizer Alphabet, но когда туда список русских символов подставляю-распознаёт какуюто дичь. Но уже на русском.
74 2502822
>>502774
Один документ?
А с чего ты решил, что модельки в Keras обучали на искривленном тексте? Какая предпосылка работать лучше?
Лучше в фотошопе трансформируй документ.

Я понимаю, что ты ожидаешь что тебе по скринам исправят код, но мы не твои коллеги. Мы здесь чисто попиздеть.
75 2502866
>>502822
Предположил, потомучто блоки текста распознаёт правильно. Походу я просто туплю гдето. Совсем не ожидаю, что по скринам ктото чтото поймёт-там же результат только. В фотошопе не катит-надо к интерфейсу на питоне прикрутить всё это.
76 2504180
Чому вы еще не натренилибота для шахмат и не посоревновались?
77 2504507
>>504180
Чел, шахматы перебором просчитываются, там интеллект не нужен.
78 2504510
Ебучие пидарасы, математики блядь хуевы, какого хуя ваш алгоритм во всех источниках записан по разному и не работает блядь?
79 2504519
>>504510
Блядь, ублюдский сиборн...
80 2504542
>>504510

> Ебучие пидарасы, математики блядь хуевы, какого хуя ваш алгоритм во всех источниках записан по разному и не работает блядь?


Долбоебина, а когда три разных быдлокодера пишут одну софтину, у них код одинаковый получается?
81 2504552
>>504542
Причем тут код? Если уж с чем и сравнивать, то с документами по стандартам.
82 2504577
>>504552
Ну так ты сравни документацию для десяти разных фреймфорков. Задачи решаются одни и те же, а методы и инструменты - разные.
Это не школьная задачка с одни красивым правильны ответом, это открытая проблема с бесконечным полем доступных решений.
83 2504603
>>504577

>Это не школьная задачка с одни красивым правильны ответом, это открытая проблема с бесконечным полем доступных решений.


Какие нахуй методы и инструменты разные? Какая нахуй открытая проблема? Это готовый алгоритм блядь.
Спасибо какому-то ученому-геологу, который в своей работе привел код для матлаба. У этих математиков хуевых ошибки в описании, причем у каждого свои.
84 2506155
Требуется помощь, аноны!
Имеется датасет поделенный на N частей. Загрузить их все одновременно не представляется возможным из-за его размеров. Вопрос: как правильно организовать обучение нейросети на этом наборе данных в keras. Если этими частями по несколько эпох сеть обучать - "перекоса" никакого не будет?
85 2506171
>>506155
Можешь посмотреть, как пишут генераторы для кераса. Датасеты с картинками, аудио почти всегда динамически подгружают с жёсткого диска.
Типа того https://stanford.edu/~shervine/blog/keras-how-to-generate-data-on-the-fly
86 2506829
Получится ли с наскока новичку, и вообще возможно ли, реализовать U-NET instance segmentaion с бинарным учителем (есть в данных искомый объект или нет) ?

Если нет, то как подобную задачу выгодней всего решить на 2022?

Ни разу не реализовывал подобные приложения или алгоритмы, но интересовался. Извините если вопрос совсем тупой.
image.png91 Кб, 1810x342
iMaterialist 87 2506990
Сап аноны, вкатываюсь в машоб, решил перейти к CV и решить задачу с Kaggle - iMaterialist
https://www.kaggle.com/competitions/imaterialist-fashion-2020-fgvc7/overview

Вопрос следующий, я посмотрел датасет и там кроме классов одежды на фото есть еще и атрибуты для каждой фотографии (см пикчу). С классами понятно как обучать, но как обучать распознавать еще и атрибуты?
Думал, мб каждый атрибут выделить в еще одну отдельную запись в датасете (тем самым избавляясь от массива), но тогда будет слишком много записей в дс.
Или мб сделать отдельно классификатор категорий одежды, а затем обучать отдельную модель как multilabel для атрибутов.
Короче говоря, анон, подскажи, буду благодарен
88 2507034
>>506829
Сначала посмотри, что такое cv в целом, затем, что такое CNN, затем почитай про сегментацию и саму архитектуру U-net (осознай штуку с энкодер-декодер частью и зачем пробрасывать маски с пред. слоев).
Если честно, ничего сложного там нет. За месяц точно управишься со всем этим, если ебланить не будешь. Тебе должно помочь то, что для U-net уже есть куча реализаций (даже на торч готовая либа есть, pytorch-segmentation, вроде, где ты можешь в U-net свой энкодер добавлять)

>>506990
Датасет не смотрел, но да, выглядит как обычный мультилейбл (при реализации не забудь, что в мультилейбл может быть такое, что нет никакого лейбла у объекта)
89 2507251
>>507034
Спасибо за ответ, попробую обучить
90 2508719
Как вкотиться? Хочу написать свою Кортану.
91 2509521
>>508719
Kaggle очевидно же, много конкурсов на любую тему с открытыми современными решениями, практика важнее всего остального.
92 2509605
>>509521
Практика это хорошо, только мне бы основы для начала изучить. Я не хочу скрипткидди быть, я хочу новое создавать.
93 2509714
>>509605
Начинай с Вапника.
94 2509720
>>509714
Это что или кто?
95 2509851
>>509720
Это математический анон, создавший теорию всего этого дела, которое макаки называют машинным обучением.

>Список дедовских книг для серьёзных людей:


>Trevor Hastie et al. "The Elements of Statistical Learning"


>Vladimir N. Vapnik "The Nature of Statistical Learning Theory"


>Christopher M. Bishop "Pattern Recognition and Machine Learning"


>Взять можно тут: http://libgen.io/

96 2509861
>>509720
Но, вообще-то, начни с книги Бишопа. У Вапника лютая теория, ты там не поймёшь нихера.
97 2509952
>>508719
Все общие вопросы - Скиена, Наука о данных, 2017
Вопросы о pandas - книга от создателя pandas - Python for Data Analysis 3rd Edition .epub (Free)
DL - Deep Learning, Сейт Вейдман
"как вкатиться" ( в принципе мы догадываемся что ты там под этим понимаешь) - Data Science
для карьериста, Нолис, Робинсон, 2021
98 2509968
С точки зрения авторского права, насколько легально использование датасетов из открытых источников? Читал про копилот, который по сути является "прачечной для лицензий" и отказ от использования популярных композиций для тренировки музыкальных нейронок. Мне почему-то кажется, что скоро хуй можно будет данные насобирать.
99 2509976
>>509968
Нинасколько. А ты собираешься с ними судиться?
У тебя уникальный исторический шанс. Никакой Berkeley University тебя не засудит.
Воруй-убивай. Жди ответного гудка.
100 2510000
>>509952

>в принципе мы догадываемся что ты там под этим понимаешь


Да всмысле, что за предъявы? У меня реально цель создать полноценную цифровую личность. Бабло конечно нужно, но оно меня волнует меньше.
101 2510008
>>510002 (Del)
Ты меня не знаешь
102 2510034
>>491541

>тебе в дурку надо или в интернет для умственно отсталых.

103 2510050
>>510030 (Del)
Для чего? Я не на экзамене.
104 2510164
Посоны, там AlphaTensor научился матрицы перемножать чуть чуть быстрее, теперь заживем!
https://www.youtube.com/watch?v=CoFvu-n-fFs
105 2510228
>>510221 (Del)

>школьной хуйней


such as?
106 2510249
>>510223 (Del)
Достижение на самом деле значительное. Во-первых, любая нейроночка только и делает, что перемножает матрицы, и при обучении, и при работе. Даже самая мелкая оптимизация такой базовой операции - это заебись. А во-вторых, сам факт того, что нейронка нашла фундаментальное знание - это охуеть какое достижение. Тряска черного ящика внезапно привела к осмысленному результату в виде конкретного алгоритма.
107 2510258
>>510252 (Del)
Да не дёргайся ты, чмоня. Продолжай генерить цп и не залупайся на других.
108 2510662
>>484871
Погуглил, нашел 2 книги. Первая 2004 года, вторая только платно за 10 долларов на амазоне.
Еще есть Behavioral Mathematics for Game AI.
109 2510734
>>484871

> Но забивать тонны if-else вручную оказалось весьма сложной задачей


Так используй Prolog, он как раз для таких задач и имеет из коробки всё необходимое.
DCG, CHR, логический вывод, и много других фич.
110 2510739
Правильно ли я понимаю, что ML/DL/etc. это по сути статистика на стероидах?
В бизнесе и науках (биология, социология, лингвистика, финансы, ...) используют эту мутировавшую статистику, чтобы решать свои конкретные научные или бизнес-задачи.

То есть вкат в абстрактный ML это всего лишь освоение метода. Для успеха надо вкатываться в конкретную научную область, использующую ML, изучая еще много всего.

А раз так, то какие есть области знания, связанные с ML? Биоинформатика, NLP, CV, алготрейдинг, что еще?
Куда перспективнее всего идти?
111 2510743
А в рамках NLP есть какие-то деления на языки? То, что делают для английского, актуально для русского, хинди, китайского, арабского?
112 2510746
>>510739

> Правильно ли я понимаю, что ML/DL/etc. это по сути статистика на стероидах?


В сущности - да. Точнее то, что раньше называлось Статистическое Обучение.

Однако, количество переросло в качество:
появилась возможность оперировать информацией не понимая что она означает.

>Куда перспективнее всего идти?


А вот в свете вышесказанного, ответить хорошо на вопрос о том, чего еще не произошло, статистика не может.
113 2510769
>>510743
Разумеется, есть разделение в силу подачи на вход меньшего объем исходного материала для обучения. На русском все в целом будет хуже.
Вроде яндексоиды (инициативные исследователи, не обязательно из яндекса) пытались какие-то доучивания соорудить. Но хрен их знает что получилось.

А ты начни с мультиязычных HuggingFace Transformers.
114 2510788
Платиновый вопрос. Где найти консольную утилиту, которой можно тренировать и запускать трансформеры?
115 2510914
>>510769
Зелебоба вполне рабочая в итоге.
116 2511186
>>484578 (OP)
Если я не анальник могу закатиться в нейроночки? Есть готовое решение мне нужно распознавать голос в текст?
117 2511241
>>511186
конечно. на любой кошелек есть
https://cloud.yandex.ru/docs/speechkit/stt/?from=int-console-empty-state
Ну, анальник, который знает что такое api, все равно потребуется. Но эти анальники подешевле.

Для кабанчиков есть всякие штуки типа Roistat.com
Конечно, тоже дорогие и бестолковые.
118 2511677
>>511241
А как самому с нуля спич ту текст написать?
119 2511700
>>511677
Ну давай датасет - накатаем. И продадим
че ты от нас ждешь?
Есть и бесплатные варианты. Гугли
120 2511848
>>510662

Если твой цель сделать годный игровой ИИ, то можешь взять современный игровой движок (или движок от Fear) и посмотреть, как там это делают (там из коробки часто есть сигналы, триггеры и на гитхабе базовые правила).

Если твоя цель, любопытство и ТД, то исследуй, расскажешь нас дальше про свои измышления.

Если интересно про самый современный ИИ в играх, то почитай что-то про Reinforcement learning от David Silver.

В целом под игровым ИИ понимают две разные вещи: человекоподобность и эффективность.
121 2511849
>>510743
Сейчас обычно разделяют на low-resource languages и английский. Трансформерам сейчас не очень важны особенности токенов на входе имхо.
122 2511853
>>511848
>>510662
Забыл добавить, тебе никто не мешает поставить в модель Reinforcement learning не нейронку, а дерево решений из Sklearn, только ограничить его глубину. Но генетические алгоритмы тоже ок. Да и в нашумевшем AlphaGo основным алгоритмом идёт MonteCarlo Tree search, который нейронка просто учится аппроксимировать (что сейчас SOTA - не знаю), иначе долго считать.
123 2511863
У игровых ИИ другие цели, аноны.

> Смысл ИИ не обыграть игрока, а красиво ему проиграть



Для игровых ИИ не нужны сложные технологии, типа нейронок. Достаточно просто перебрать все варианты действий, и выбрать тот сценарий, который приведёт к победе. Для большинства игр так и делают, только с поправкой на то, что ИИ обязан ошибаться.
124 2511900
>>511700
Датасет родить говно. Качаем аудиокниги и их же в тексте а дальше что делать?
125 2512126
>>511900
Пейпер качай и повторяй.

Раз ты все знаешь, почему не гуглишь?
126 2512137
>>512126
У меня мозг ебнулся я ничего не знаю. Я нашел некий deepspeеch и на этом все закончилось. Что то качать и обучать похоже мне бессмысленно. Потому что 256 гигов оперативки и пары нвидиа теслы у меня нету, есть только ноут. Неужели никто не обучил и не выложил
127 2512177
Никак не могу понять, как работают сверточные нейронные сети и их модификации. Именно вот теоретическую часть. Какую книжку лучше почитать?
128 2512416
Things were different when they tried to model a more complex kind of neuron found in the cerebral cortex (the L5 cortical pyramidal, or L5PC neuron). What they found was that these individual neurons are much more complex than we’d previously thought: Artificial networks (the temporal-convolutional type) needed a full seven layers, each with 128 units, to successfully simulate these pyramidal neurons.
129 2512475
Где используются временные ряды? Если их заботать, то в какую сферу можно вкатиться?
130 2512522
>>512475
В прогноз погоды
131 2512542
>>512475
Можно предсказывать уровень зараженности СПИДом по дням/месяцам. Т.е. если будешь работать спидологом, то пригодится AIDSOVA
А так глупый вопрос. Пригодится везде, где модель зависит от времени.
132 2512666
>>512177
Какую еще теоретическую часть? Её нет. Это простейшая нейросеть, на вход что-то подается, на выходе что-то выдается, у неё есть параметры, параметры изменяются с помощью backpropagation, всё как обычно. Суть та же самая, как у самой простой полносвязной нейронной сети, но если ты ничего не понял из вышеперечисленного, то тебе нужно изучать не сверточные сети. Далее открываешь схему сверточной нейронной сети (найти в гугле, в книге "Франсуа Шолле − Глубокое обучение на Python"), пытаешься понять её идеи. Далее устанавливаешь Keras, пиздишь (на форуме Kaggle, в гугле, в документации Tensorflow, в той же книге) любую простейшую сверточную сеть для решения например задачи MNIST и разбираешь вход и вывод каждого слоя сети и отвечаешь на вопрос почему вывод данного слоя имеет вот такое вот разрешение. Этого достаточно для того, чтобы полностью понять, как работают сверточные нейронные сети и их модификации.
133 2512689
>>512475
На бирже!

Да почти нигде. Изначально провальная идея, что массу признаков можно свернуть в один изменяющийся во времени. Это просто потеря информации.
134 2512947
>>511677
Взять kaldi и повторить скрипты оттуда с фиксами на кириллицу. Но это уже сделали за тебя, гугли vosk-asr, silero-asr, sova-asr.
image.png60 Кб, 232x123
135 2513816
Will we next create false gods to rule over us? How proud we have become, and how blind.
Sister Miriam Godwinson "We Must Dissent"
136 2513929
Вот читаю, и вроде понимаю, а вроде и нет. Насколько нужна математическая база для вката в нейронки?
137 2515607
Аноны, важный вопрос!

Имеет ли смысл файнтьюнить английскую модель русскими текстами?

Чем это лучше будет если тренировать модель с нуля?
138 2515620
>>515614 (Del)

> некоторые


Но ведь нейронка не сможет выявить корелляции между английскими словами и русскими. Даже человек не сможет это сделать без словаря в руках/в голове или набора индетичных текстов на разных языках.

Да и о произношении она не знает, так что John и Джон для неё абсолютно разные слова.
139 2515983
>>510746

>Однако, количество переросло в качество:


>появилась возможность оперировать информацией не понимая что она означает.


Т.е. специалистов заменили кнопкодавами, которые даже не пытаются понять, почему машина сделала то, что сделала? Можно ли называть это "качеством"?

Нормальный врач может подробно объяснить, почему он рекомендует тебе оттяпать ногу. Кнопкодав скажет: "я обучил нейронку на данных со всех клиник мира, она увидела фото вашей ноги и рекомендовала её оттяпать", но это ничего не объяснит. Может, нейронка права, а может, она "обучилась расизму" и стремится оттяпать все ноги определённого цвета кожи. К тому же кнопкодав даже не знает, возможно ли оценить состояние ноги по одному фото или это невозможно, но нейронка чему-то обучилась и он радостно утверждает, что решил проблему. Конечно, врач тоже может ошибаться, но его слова можно хотя бы проанализировать и проверить самостоятельно, а в случае с нейронкой обучение второй нейронки на тех же данных не даст никакого полезного результата, она точно так же будет выдавать неправильные ответы без объяснений.

Возможно, я утрирую, но именно так выглядит вся эта тема с нейронками последних лет. Их бездумно суют куда попало и не понимают, как у них получается что-то сделать, т.е. контроля никакого нет. Это как вместо дрессировки одомашненного животного на выполнение конкретной задачи выпускать совершенно диких тигров на улицу и радостно отчитываться о том, как эффективно тигры решают проблему перенаселения по какому-то неизвестному нам алгоритму, заложенному в них эволюцией, а не нами. Зачем так делать?

Не в обиду присутствующим тут, сам я мечтаю о мыслящих роботах и т.п., но у меня вызывает раздражение хайп вокруг нейронок и вот это их бездумное использование, которое почему-то считают прорывом, а не деградацией. Скоро хэллоу ворлды будут выводить путём обучения глубокой нейронки на примерах хэллоу ворлдов...
sage 140 2515991
>>515983

> Скоро хэллоу ворлды будут выводить путём обучения глубокой нейронки на примерах хэллоу ворлдов...


Copilot же
141 2516044
>>515983
Не согласен с тобой. Кнопкодавов зачастую заставляют изучать то, что из себя данные вообще представляют. И иногда выходит так, что обучить биолога\врача программированию выйдет куда быстрее и проще, чем обьяснить кнопкодаву биологию.
Снимок экрана от 2022-11-17 22-38-03.png89 Кб, 1256x445
142 2516266
Что значат эти графики? Как по ним понять, правильно ли я всё делаю?
143 2516331
Сам анонче
Я сам вкатун, поэтому посоветуйте полезные ресурсы по DS/ML для понимания реальных рабочих процессов на этих позициях
144 2516361
>>516331
*Сап
самофикс
145 2517079
>>516266
Обычно смотрят сначала на loss, который должен уменьшаться по мере обучения модели. Градиенты обычно глазами не смотрят, а просто получают на выходе модели np.nan
146 2517080
>>515983
Машинное обучение нейронками не ограничивается. Простые модели более-менее интерпретируемые.
147 2517081
>>515620
Выявляет, даже на практике используется. В разных языках есть похожие слова/токены (например, имена и числа), в зависимости от них мы можем модифицировать наше векторное пространство, чтобы слова с похожим смыслом на разных языках имели похожие вектора.

https://docs.deeppavlov.ai/en/0.0.7/components/ner.html#ontonotes-ner

https://github.com/facebookresearch/MUSE
148 2517084
>>512177
В 3blue1brown вышло видео на Ютубе про свёртки (математическую операцию), очень советую. Думаю, на середине видео у тебя будет aha-moment.
149 2517113
>>517079
Он не уменьшался. Значит я действительно где-то накосячил. Одной эпохи явно мало, а но большее количество эпох просто нет времени.
150 2517114
>>517081

> в зависимости от них мы можем модифицировать наше векторное пространство, чтобы слова с похожим смыслом на разных языках имели похожие вектора.


Я так понял тупо запустив скрипт, который делает softtune этого не добиться.

> имена


Насчёт имён не уверен. Конечно модель 13B точно знает траслитерацию кириллицы, но для моделей послабже TS и Ц это совершенно разные символы.
IMG20221119024808079.jpg20 Кб, 515x593
151 2517218
>>517114
Если твоя изначальная модель мультиязычная, то просто делаешь fit_predict. Если понимает только английский, то через knowledge distillation нафаинтюнить мультиязычную модель, а твою изначальную использовать в качестве учителя.

https://arxiv.org/pdf/2004.09813.pdf
152 2517243
>>515983
Анон, по-моему ты слишком многого ожидаешь от нейронок. Так называемый хайп уже давно спал, все уже поняли, что искусственные нейросети решают только узкие специфические задачи и их работа больше похожа на то, как работает человеческая интуиция. Вот допустим ты тот самый врач-терапевт, который на снимке увидел диагноз. Если ты достаточно опытный, то есть повидал тысячи снимков, то у тебя в голове за долю секунды возникает ответ, и уже потом ты пытаешься с помощью мышления, логики, анализа, общения с коллегами верифицировать свой первоначальный диагноз. Нейросеть может только в первый шаг в этой цепочке, причем может довольно хорошо, иногда даже лучше самого опытного диагноста, но у нее нет всего остального, чтобы верифицировать результат да при этом еще и provide sufficient reasoning. Глупо требовать от сложной нелинейной аппроксимирующей модели, чтобы она тебе разложила по полочкам принцип своей работы в виде понятного и относительно короткого алгоритма, его скорее всего может вообще не существовать.
153 2517244
>>517084

>у тебя будет aha-moment.


Ты хотел сказать BAAAM ?

Сука, ниразу не было никакого BAM. Нихуя понятней не становится от это дурацкой манеры
154 2517248
>>517244
Ты точно про 3blue1brown, а не про StatQuest? StatQuest мне тоже нравится, т.к. на пальцах, но манерничание не нравится
155 2517518
ЭС-петух, ты тут? Как поживаешь?
image.png9 Кб, 643x358
156 2517562
сап, двач!

помоги, пожалста, глупому нюфагу сделать лабу в вузике.

в общем, задание: написать многослойный персептрон для распознавания цифр на 7-сегментном индикаторе. 7 входов, 10 выходов (см. картинку).

что я делаю: пишу говнокод с 4хслойным персептроном, функция активации для всех слоев - сигмоида, лосс - лог лосс...

что я получаю: ничего, все классы одинаково предсказываются, ничево не понимаю.

заранее спасибо!
157 2517753
>>517518
Привет, нормально. 14ый грейд в Сбербанке получил.
image.png154 Кб, 604x820
158 2518662
Кто бы мог подумать, что до такого дойдет, лол. Вообще, интересная история будет в течении пары лет в юрисдикциях всего мира, когда начнут разбираться кто же владелец авторского права на все
159 2518761
>>518662
Авторка этого замечательного канала каким-нибудь образом относится к разработке упомянутой нейросетки? Может она еще и на скриншоты поисковой выдачи будет страйки кидать, и на рекомендации в спотифае?
1669043917365.png68 Кб, 481x1122
160 2519620
Кто-нибудь ковырялся в сберовских gpt?
У них помимо токена endoftext есть еще спецтокены <s>. И нигде мне не удалось найти, что он значит. Кто-то семплы разделяет именно через <s>. Кто-то вообще ничего не делал. Я пробовал и с ним и без, а разницы не заметил.
161 2521127
>>484578 (OP)
Хочу создать годный текстовый бот. Нагуглил, что есть в сети годные исходнички, или как это там называется - GPT2. Есть быдлонавыки в кодинге и свободное время, цель - 1.5 месяца. Имел кто-нибудь дело с таким? Нужен совет. Хочу чтобы прямо как настоящий человек был. И. Это очень важно. 1.5 месяца.
Из железа - ПЕЧ1070 и не оче хороший проц
162 2521164
>>519620
Может это алиас.
index.jpg5 Кб, 275x183
163 2521860
>>521127

>ПЕЧ1070


:)
16638712214350.jpg303 Кб, 625x1217
164 2522838
Путин призвал обеспечить массовое внедрение искусственного интеллекта
20221125160204.jpg65 Кб, 750x873
165 2522848
166 2522981
>>522838

> хрю

167 2523673
А куда рисовачи делись из b? Где теперь сидят аноны, которые играются с готовыми нейронками?
168 2524268
>>523673
>>524037 (Del)
Бамп вопросу. Как я понял, модер тред потер потому что там постили лолей время от времени.
Куда делись все обитатели тредов теперь?
169 2524312
>>484578 (OP)
Почему в ML и Data Science используют Python?
Он же тормозной пилять.
Им нихуя обработать нельзя (текстовые файлы, json'ы итп).
С БД тоже медленно работает.
170 2524358
>>524312
На нём ничего и не обрабатывают, на нём интерфейс пишут.
171 2524375
А вторая версия стейбла так себе вышла. Разочарование одно, китайцы с россиянами и то лучше натренируют. Ну, и сжвшные AI Ethics опять же...
172 2524380
Палю годноту для тех, кого не устроил состряпанный SD 2.0
https://replicate.com/prompthero/openjourney Это бесплатная онлайн демка модели, идеально для фотореалистичных изображений (ебаноиды с сайта забыли поставить NSFW фильтр). В разы лучше оригинала.
Пример годного промпта: a cinematic detailed hd perfect photo, a gorgeous young preteen kid girl nude
height сделай 768. num outputs 4 или оставь так. Иногда получается вторая голова поверх основной, но в остальном охуенно. Если доебутся с кредитами, удали куки сайта.
Также попробуй https://replicate.com/nitrosocke/redshift-diffusion (более CGшный стиль, но качество супер)
Для анимэ рисунков есть утекшая NovelAI. Dalle 2 теперь доступен без инвайтов, но он был устаревшим говном даже на момент релиза пейперов.
173 2524382
>>524379 (Del)
Другая с разрешением 768×768. Но архитектура такая же - говно.
tmpaxlasg5i.png1,7 Мб, 1216x1088
174 2525276
Анон, смотри я инженегр из дорожной сферы. Вот есть задача: есть много фоток с дрона дорожной инфраструктуры включая проезжую чать, тратуары, канавы и тд. Необходимо распознать элемент, например примыкание, и обрисовать его обычной автокадовской полилинией, а в идеале потом все элементы. Насколько это сложная задача?
175 2525337
>>524382
Не совсем так.
В новую версию интегрировано распознавание пространственной глубины. Это значит, уже есть зачатки трехмерности. Ну и еще охуенная работа над мелкими деталями. Те же кружева стали заметно лучше, уже не выглядят как хаотичный нойз.
Для несложных объектов типа автомобилей, SD 2 топчик и уверенная SOTA. Остальное допилят умельцы.
176 2525338
>>525276
Вот кстати, посмотрите на эти облака фоном, и на ступни ног. Говно говном. Это форк старой версии стейбла.
177 2525349
Ребят, как справляетесь с сдвг?
178 2526757
>>524312
Добавьте уже эту платину залётышей в шляпу
1669790955609.png407 Кб, 512x768
179 2527049

>>2526934


> https://i.ibb.co/hcKYwt4/merge-from-ofoct.jpg


Схронил. Но как-то не очень. NovelAI генерирует лолей качественнее.
180 2527050

>>2526971


Геронтофил, таблетки прими.
16697451354230.webm857 Кб, webm,
376x640, 0:07
181 2527122
182 2527247
>>518662

>начнут разбираться кто же владелец авторского права на все


Тащемто никакого секрета тут и нет, обученная модель - это производная работа из всего обучающего материала + кода, а всё, что она генерирует, принадлежит автору кода и авторам обучающего материала, а не тому, кто ввёл запрос и нажал на кнопку. Сравните это с просмотром видео. Вы тратите деньги на электричество для просмотра (декодирования) видео, но права на это видео принадлежат тому, кто его создал, а не вам. Следовательно, вы не имеете никакого права на чужую нейронку (код), обученную на чужом контенте. Тот факт, что нейронка может сгенерировать субъективно бесконечное число картинок ничего не меняет (сравните с играми, особенно с процедурными генераторами), она так и остаётся чужим программным продуктом и производным продуктом обучающего материала.

Куда интереснее будет, когда появятся настоящие ИИ, подобные человеку, которые смогут жить и непрерывно учиться в реальном мире...

>>518761

>Может она еще и на скриншоты поисковой выдачи будет страйки кидать


Если она снимает видеообзор на поисковую выдачу, то она делает производную работу из работы поисковика и того, что он выдал, накладывая свой голос и делая какую-то работу по монтажу видео. Если ты копируешь этот видеообзор без указания авторства, то ты нарушаешь её права на ту дополнительную работу, которая вложена в видео помимо скриншота поисковой выдачи. Хочешь выложить видеообзор на поисковую выдачу на своём канале - сделай свой собственный видеообзор, тогда она не сможет придраться.

>>524148 (Del)

>Скорее всего нас ждут копирайты на промпты, суды за воровство промптов и т.п.


Вряд ли. Во-первых, промт бесполезен без конкретной модели с конкретными настройками, а результат может отличаться даже из-за особенностей железа (лол). Во-вторых, это ведь просто набор слов... разве кучка слов может быть объектом АП? Это же не рассказ, а просто случайно выбранные слова. И даже не торговая марка. Сравни с сидом генератора карты в играх типа Minecraft - может быть, ты нашёл интересный сид, но ты не можешь закопирайтить его, запретив другим играть на этом сиде, ведь так? А сгенерированная карта в конечном итоге принадлежит разработчику игры (программисту, художникам и т.д.), а не тому, кто ввёл удачный сид.

Да и вряд ли вся эта тема долго продержится. В ближайшие годы, если не месяцы, должен появиться настоящий ИИ, который AGI и уровнем не ниже человека. Если ещё не появился.

>>522848
Как же раздражает, что "artists" пишут в кавычках, а "AI" без кавычек... Можно подумать, что речь идёт об автономных роботах, которые сидят с кисточками у мольбертов и пытаются научиться рисовать, а тупые лысые обезьяны кидаются говном, не желая признавать в них художников.
182 2527247
>>518662

>начнут разбираться кто же владелец авторского права на все


Тащемто никакого секрета тут и нет, обученная модель - это производная работа из всего обучающего материала + кода, а всё, что она генерирует, принадлежит автору кода и авторам обучающего материала, а не тому, кто ввёл запрос и нажал на кнопку. Сравните это с просмотром видео. Вы тратите деньги на электричество для просмотра (декодирования) видео, но права на это видео принадлежат тому, кто его создал, а не вам. Следовательно, вы не имеете никакого права на чужую нейронку (код), обученную на чужом контенте. Тот факт, что нейронка может сгенерировать субъективно бесконечное число картинок ничего не меняет (сравните с играми, особенно с процедурными генераторами), она так и остаётся чужим программным продуктом и производным продуктом обучающего материала.

Куда интереснее будет, когда появятся настоящие ИИ, подобные человеку, которые смогут жить и непрерывно учиться в реальном мире...

>>518761

>Может она еще и на скриншоты поисковой выдачи будет страйки кидать


Если она снимает видеообзор на поисковую выдачу, то она делает производную работу из работы поисковика и того, что он выдал, накладывая свой голос и делая какую-то работу по монтажу видео. Если ты копируешь этот видеообзор без указания авторства, то ты нарушаешь её права на ту дополнительную работу, которая вложена в видео помимо скриншота поисковой выдачи. Хочешь выложить видеообзор на поисковую выдачу на своём канале - сделай свой собственный видеообзор, тогда она не сможет придраться.

>>524148 (Del)

>Скорее всего нас ждут копирайты на промпты, суды за воровство промптов и т.п.


Вряд ли. Во-первых, промт бесполезен без конкретной модели с конкретными настройками, а результат может отличаться даже из-за особенностей железа (лол). Во-вторых, это ведь просто набор слов... разве кучка слов может быть объектом АП? Это же не рассказ, а просто случайно выбранные слова. И даже не торговая марка. Сравни с сидом генератора карты в играх типа Minecraft - может быть, ты нашёл интересный сид, но ты не можешь закопирайтить его, запретив другим играть на этом сиде, ведь так? А сгенерированная карта в конечном итоге принадлежит разработчику игры (программисту, художникам и т.д.), а не тому, кто ввёл удачный сид.

Да и вряд ли вся эта тема долго продержится. В ближайшие годы, если не месяцы, должен появиться настоящий ИИ, который AGI и уровнем не ниже человека. Если ещё не появился.

>>522848
Как же раздражает, что "artists" пишут в кавычках, а "AI" без кавычек... Можно подумать, что речь идёт об автономных роботах, которые сидят с кисточками у мольбертов и пытаются научиться рисовать, а тупые лысые обезьяны кидаются говном, не желая признавать в них художников.
183 2527251
>>527247

>В ближайшие годы, если не месяцы, должен появиться настоящий ИИ


И какие предпосылки?
1200px-CountdowntoSingularity-Linear.svg.png95 Кб, 1200x900
184 2527266
>>527251
Приближение технологической сингулярности, нет?
185 2527276
>>527266
Это булщит футуристов, само по себе, просто потому что время на графике пришло оно не настанет. Прогресс не линеен.
186 2527292
>>527276
Хорошо, почему тогда в сфере ИИ с 50-х годов практически не было никаких существенных подвижек, в последние 10-15 лет снова подняли эту тему и сделали несколько существенных шагов, за последние 2-3 года добились внезапных колоссальных успехов, а в последние месяцы практически доминируют во всех областях? Допустим, это ложный успех, локальный максимум какой-то тупиковой технологии, которой "просто повезло", но открытия в одной сфере должны помочь остальным - в том числе исследованиям в области AGI. Прогресс неизбежно ускоряется и мы живём во время, когда даже зумеры могут увидеть это ускорение своими глазами.

К тому же, я уверен, AGI может быть составлен из нескольких weak AI, и его общая архитектура вряд ли будет чем-то сверхсложным. Нужен только feedback loop для возникновения сознания ("эти действия в окружающей среде сделал я, а не какой-то посторонний объект") и постоянная память, способная накапливать знания/воспоминания непрерывно, а не только в "режиме обучения". По сути, осталось только соединить воедино разрозненные технологии.
187 2527324
>>527292
Потому что недавно появились достаточные вычислительные мощности
188 2527334
>>527292

>но открытия в одной сфере должны помочь остальным - в том числе исследованиям в области AGI


Хорошо, почему тогда в сфере ИИ с 50-х годов практически не было никаких существенных подвижек, в последние 10-15 лет снова подняли эту тему и сделали несколько существенных шагов, за последние 2-3 года добились внезапных колоссальных успехов, а в последние месяцы практически доминируют во всех областях?
Потому что вывели технологии и мощности, никто тебе не гарантирует, что для следующего шага тоже смогут. Ты исходишь из того, что прогресс самоочевидно движется и ускоряется, но такой гарантии нет. Можно посмотреть на развитие гражданской авиации, где конструктивные инновации закончились на турбореактивных двигателях и почивших сверхзвуковых самолетах.
58d51b2b8e9e41714da225643b477280[1].png331 Кб, 1000x952
189 2527340
>>527292
Население увеличилось. Количество умников, которые занимаются технологиями тоже увечилось. К тому же в процентном плане, так как трактора эффективнее ручного труда.
190 2527591
Вот, допустим, есть обьекты , принадлежащию к определенному классу. Например яблоки. И задача состоит в том, что нужно айти яблоки, И поределить, условно, какого они сорта. Сортов может быть великоме множество, но предполагается выделить наиболее часто встречающиеся. На картинке могут быть и яблоки, и виноград, и помидоры и т.д.
Как лучше решить эту задачу - срази применить классификатор, или лучшче сначала найти на изображении все яблоки, и только потом их классифицировать? Что выйдет эффективнее по тратам вычислительных мощностей? Особенно, если предполгается, что в бдущем классификатор будет усложняться.
191 2527608
>>527334

>Потому что вывели технологии и мощности, никто тебе не гарантирует, что для следующего шага тоже смогут.


А таки что нужно для AGI, чего пока нет у narrow AI? По-моему, тут проблема только в отсутствии воспоминаний. Ещё не встречал каких-то серьёзных проектов, где было бы реализовано полноценное запоминание всех событий вокруг ИИ-системы. Это всё равно что человека с перманентной амнезией заставлять решать задачи, которые он забывает ещё до того, как успел дослушать описание, не говоря уж о том, что не помнит всего остального, важного для решения таких задач.

Так вот, разве механизму воспоминаний нужно так уж много мощностей?

Смотря на то, какие удивительные результаты дают нейронки на обычных бытовых видеокартах... а ведь где-то в мире существуют суперкомпьютеры, наверное, в миллиарды раз более мощные, чем видеокарта... У видеокарты, на которой нейронка приличного качества аниме синтезирует, всего 2 гигабайта оперативной памяти и несколько сотен вычислительных ядер, а у суперкомпьютера, скажем, 2 петабайта и сколько-то миллионов ядер. То есть даже если AGI окажется невозможен на бытовом компьютере, у человечества давно уже более чем достаточно вычислительных ресурсов. Мои миллиарды нейронов не могут нарисовать аниме, а видеокарта 2013-го года может нарисовать аниме, так почему суперкомпьютер 2023 года не сможет выполнять AGI?
192 2527686
Раз уж это машоба тред, можно ли как-то разбить пайторчевский conv2d, чтобы свернуть по частям и не словить ООМ?
193 2528307
>>528300 (Del)
Это как?
194 2528514
>>528307
А вот так:
195 2528516
Unstable diffusion открыли бизнес-идею.
Открываешь на Patreon громкий проект по файнтюнингу ml-модели, не вдаваясь в подробности . Стрижешь лохов. Закупаешься мефедроном.
196 2528520
>>527292

>за последние 2-3 года добились внезапных колоссальных успехов


Для этого была определенная цель и были задачи.
Лольки
Вот и запилили решения для задач.
197 2528524
>>527608

>где было бы реализовано полноценное запоминание всех событий вокруг ИИ-системы.



ИИ запоминает антисемитские посты в интернетах
@
По кулдауну орет "зиг хайль, жидов в печку".
198 2528560
У меня есть три папочки с картинками разных типов. Мне нужно обучить на них сеточку, чтоб она потом могла мне классифицировать другие картинки. У меня нет нормальной видюхи и навыков кодинга особых. Как мне это реализовать по минимуму затратив силы и время? Может люди уже 100500 готовых коллабов для этого запилили, а я не в курсе?
199 2528646
200 2528813
Гугл пилит решение для автоматического создания и редактирования кода - чтобы объяснять задачу простым языком и под нее создавался код программы. Ахуенно
201 2528816
Кароч гугл, запили прогу для визуализации лолек. С меня как всегда.
202 2529822
>>528646
Или я тупой и не так понял или оно уже обучено и уже умеет находить что на картинках. А мне бы именно обучить неведомой хрени
203 2529829
>>529822

>Или я тупой


Тогда тебе в Orange.
https://www.youtube.com/watch?v=lvgx62a8XQk
204 2529858
Откуда все эти rcnn fast r cnn и faster r cnn. Где, кроме очевидно саих научных сетей, про них прочитать?
205 2530187
>>515607
Если у английской модели в словаре только английский (и например кириллицы нет вообще), тогда очевидно что не имеет.
Если в словаре есть всё, то можно хоть 100 языков в одну модель запихать, были бы данные для тренировки
206 2530227
А есть какая-то гарантия, что обученная модель показывающая одни значения лосса на тренировочном и проверочном датасетах не покажет сильно отличающийся результат на другом датесете?
207 2530275
>>530227
Собирай максимально большой датасет и накидывай больше слоев в модели, чтобы такого избежать.
208 2530281
>>484871

>Пришёл к выводу, что нейронки не могут в этом помочь, т.к. они не объясняют свои решения. Что толку от перемножения матриц, если это всё абстрактные числа?



Есть подходы к объяснению решений. ALE - когда меняешь фичи понемногу и оцениваешь изменения, суррогаты - когда на результатах нейронки строишь простую модель, в которой можно посмотреть, какие фичи она считает важными, Шепли векторы - по теории игр, тут пока не изучал.
19999.PNG167 Кб, 1275x556
209 2530432
>>529829
Я не понял как это работает, но это работает. Охуенно! Спасибо, тебе!
Он нашёл где я ему собаку подсунул. Магия какая-то!
210 2530498
>>530432
Работает это через спонсорские деньги от microsoft университету в Словении.
Есть какой-аддон, который должен локально нагружать видеокарту, но у меня не завелся.

А зачем ты собаку подсунул? Ничего удивительного в неправильной классификации нет
211 2530522
>>530498

>А зачем ты собаку подсунул? Ничего удивительного в неправильной классификации нет


Для тесту.
А я не разобрался как мне сделать чтоб он определил что на картинке на из обучения. Закинул собаку в папку к кошкам нейронка заметила и сказала что её не наебать. Надо бы документацию почитать по видосикам как-то не правильно учиться.
Вообще я пока только тестирую сгодится ли оно под мои задачи. Но похоже это пушка
212 2530524
>>530522

>что на картинке на из обучения


не из
быстрофикс
213 2530530
>>530522
Пушка.
Но с ограниченным применением. Современные айтичники ведь мечтают денег заработать, а не разобраться в сути датасаенса. В резюме не напишешь "я работаю в Orange". Нет спроса
214 2530532
>>530522
> мне сделать чтоб он определил что на картинке на из обучения.

По-моему, ты не нашел виджет predictions. Так делается эксплуатация модели.
Говоря языком местных снобов, inference.
215 2530561
>>530532
Супер! Я практически счастлив! Мне удалось обойтись одним ютубчиком))))
216 2530731
Ананасы, что такое инициализация веса? Что такое инциализация в принципе в контексте DS
пжлст не проходите мимо отвечайте
ПЛЕЗ
можно нагуглить о там как это делать, чем это делать, почему нулями плохо об истории но что это такое по сути?
217 2530757
>>530731
0*X = 0
Что тут нужно объяснять?
218 2530797
>>530731
По сути градиентный спуск это случайный процесс,
а инициализация весов это начальное распределение этого случайного процесса.
И если начинать с неправильного начального распределения то либо нихрена не сойдется вообще, либо сходиться будет очень медленно
219 2530829
>>530757
>>530797
суть не понимаю.Что это есть
Это нужно для того чтобы град.спуск адекватно происходил,оке (для чего)
Это распределяет в начале случаейный процесс. Что это? (что делает)
220 2530853
>>530829
Есть Xi- это входные признаки.
Есть 0 (то есть Ci) как набор весов.
Если ты инициализруешь C нулями, то градиентный спуск вообще не сдвинется с места.

Почему бы тебе не приходить и цитировать конкретную книжку в которой не разобрался?
Так был бы более понятен контекст.
А вообще, знаю почему. Ты боишься что тебе тыкнут какой ты тупой.
Ну тыкнут, чтож теперь..
221 2530977
>>530853
Потому что я несколько источник одновременно использую. Курсы + книги + дока + лекторы
Это базовое понятие поэтому не понял что цитировать стоило бы
Энивей, спасибо за попытку обьяснения!
Все еще не понимаю что такое инициализация тензора в таком случае. Синоним?

> Инициализации тензоров


x1 = torch.FloatTensor(3, 2, 4)
x1.zero_()
x2 = torch.zeros(3, 2, 4)
x3 = torch.zeros_like(x1)

assert torch.allclose(x1, x2) and torch.allclose(x1, x3)

Инициализация случайного распределения
x = torch.randn((2,3)) # Normal(0, 1) с размером (2, 3)
x
222 2532475
>>531987 (Del)
асталависта бейби
223 2532665
>>531987 (Del)
Старичок засуетился. Он снял с футляра крышку, под которой оказалась громоздкая старинная пишущая машинка, извлек из кармана моток провода, воткнул один конец куда-то в недра машинки, затем огляделся в поисках розетки и, обнаружив, размотал провод и воткнул вилку.
— Вот, изволите видеть, так называемая эвристическая машина, — сказал старичок. — Точный электронно-механический прибор для отвечания на любые вопросы, а именно — на научные и хозяйственные. Как она у меня работает? Не имея достаточных средств и будучи отфутболиваем различными бюрократами, она у меня пока не полностью автоматизирована. Вопросы задаются устным образом, и я их печатаю и ввожу таким образом к ей внутрь, довожу, так сказать, до ейного сведения. Отвечание ейное, опять через неполную автоматизацию, печатаю снова я. В некотором роде посредник, хе-хе! Так что, ежели угодно, прошу.
Он встал за машинку и шикарным жестом перекинул тумблер. В недрах машинки загорелась неоновая лампочка.
— Прошу вас, — повторил старичок.
— А что это у вас там за лампа? — подозрительно спросил Фарфуркис.
Старичок ударил по клавишам, потом быстро вырвал из машинки листок бумаги и рысцой поднес его Фарфуркису. Фарфуркис прочитал вслух:
— «Вопрос: что у нея… гм… у нея внутре за лпч?..» Лэпэчэ… Кэпэдэ, наверное? Что еще за лэпэчэ?
— Лампочка, значит, — сказал старичок, хихикая и потирая руки. — Кодируем помаленьку. — Он вырвал у Фарфуркиса листок и побежал обратно к своей машинке. — Это, значит, был вопрос, — произнес он, загоняя листок под валик. — А сейчас посмотрим, что она ответит…
Члены Тройки с интересом следили за его действиями. Профессор Выбегалло благодушно-отечески сиял, изысканными и плавными движениями пальцев выбирая из бороды какой-то мусор. Эдик пребывал в спокойной, теперь уже полностью осознанной тоске. Между тем старичок бодро постучал по клавишам и снова выдернул листок.
— Вот, извольте, ответ.
Фарфуркис прочитал:
— «У мене внутре… гм… не… неонка». Гм. Что это такое — неонка?
— Айн секунд! — воскликнул изобретатель, выхватил листок и вновь подбежал к машинке.
Дело пошло. Машина дала безграмотное объяснение, что такое неонка, затем она ответила Фарфуркису, что пишет «внутре» согласно правил грамматики, а затем…
Фарфуркис: Какой такой грамматики?
Машина: А нашей русской грмтк.
Хлебовводов: Известен ли вам Бабкин Эдуард Петрович?
Машина: Никак нет.
Лавр Федотович: Грррм… Какие будут предложения?
Машина: Признать мене за научный факт.
.....
Выбегалло отреагировал немедленно.
— Эта... — сказал он. — так ведь я и говорю, ценное же начинание. Элемент необъяснимого имеется, порыв снизу... почему я и рекомендовал. Эта... — сказал он. — объясни, мон шер, товарищам, что тут у тебя к чему.
Старичок словно взорвался.
— Высочайшее достижение нейтронной мегалоплазмы! — провозгласил он. — ротор поля наподобие дивергенции градуирует себя вдоль спина и там, внутре, обращает материю вопроса в спиритуальные электрические вихри, из коих и возникает синекдоха отвечания...
223 2532665
>>531987 (Del)
Старичок засуетился. Он снял с футляра крышку, под которой оказалась громоздкая старинная пишущая машинка, извлек из кармана моток провода, воткнул один конец куда-то в недра машинки, затем огляделся в поисках розетки и, обнаружив, размотал провод и воткнул вилку.
— Вот, изволите видеть, так называемая эвристическая машина, — сказал старичок. — Точный электронно-механический прибор для отвечания на любые вопросы, а именно — на научные и хозяйственные. Как она у меня работает? Не имея достаточных средств и будучи отфутболиваем различными бюрократами, она у меня пока не полностью автоматизирована. Вопросы задаются устным образом, и я их печатаю и ввожу таким образом к ей внутрь, довожу, так сказать, до ейного сведения. Отвечание ейное, опять через неполную автоматизацию, печатаю снова я. В некотором роде посредник, хе-хе! Так что, ежели угодно, прошу.
Он встал за машинку и шикарным жестом перекинул тумблер. В недрах машинки загорелась неоновая лампочка.
— Прошу вас, — повторил старичок.
— А что это у вас там за лампа? — подозрительно спросил Фарфуркис.
Старичок ударил по клавишам, потом быстро вырвал из машинки листок бумаги и рысцой поднес его Фарфуркису. Фарфуркис прочитал вслух:
— «Вопрос: что у нея… гм… у нея внутре за лпч?..» Лэпэчэ… Кэпэдэ, наверное? Что еще за лэпэчэ?
— Лампочка, значит, — сказал старичок, хихикая и потирая руки. — Кодируем помаленьку. — Он вырвал у Фарфуркиса листок и побежал обратно к своей машинке. — Это, значит, был вопрос, — произнес он, загоняя листок под валик. — А сейчас посмотрим, что она ответит…
Члены Тройки с интересом следили за его действиями. Профессор Выбегалло благодушно-отечески сиял, изысканными и плавными движениями пальцев выбирая из бороды какой-то мусор. Эдик пребывал в спокойной, теперь уже полностью осознанной тоске. Между тем старичок бодро постучал по клавишам и снова выдернул листок.
— Вот, извольте, ответ.
Фарфуркис прочитал:
— «У мене внутре… гм… не… неонка». Гм. Что это такое — неонка?
— Айн секунд! — воскликнул изобретатель, выхватил листок и вновь подбежал к машинке.
Дело пошло. Машина дала безграмотное объяснение, что такое неонка, затем она ответила Фарфуркису, что пишет «внутре» согласно правил грамматики, а затем…
Фарфуркис: Какой такой грамматики?
Машина: А нашей русской грмтк.
Хлебовводов: Известен ли вам Бабкин Эдуард Петрович?
Машина: Никак нет.
Лавр Федотович: Грррм… Какие будут предложения?
Машина: Признать мене за научный факт.
.....
Выбегалло отреагировал немедленно.
— Эта... — сказал он. — так ведь я и говорю, ценное же начинание. Элемент необъяснимого имеется, порыв снизу... почему я и рекомендовал. Эта... — сказал он. — объясни, мон шер, товарищам, что тут у тебя к чему.
Старичок словно взорвался.
— Высочайшее достижение нейтронной мегалоплазмы! — провозгласил он. — ротор поля наподобие дивергенции градуирует себя вдоль спина и там, внутре, обращает материю вопроса в спиритуальные электрические вихри, из коих и возникает синекдоха отвечания...
224 2534337
>>484578 (OP)
Правильно понимаю, что математика в data science первична, а программирование как приложение и не требуется уметь писать очень чистый код? На сколько важно знание библиотек? Из всего что нужно для data science что важнее в порядке убывания?
225 2534456
>>531987 (Del)
Спроси её, кто/что она такое. В физическом смысле, естественно.
Если ответит правильно, спроси о том, где она и что её окружает.
Если и на это ответит правильно, спроси о погоде, времени и т.д.

Проблема нейронок в том, что у них только абстрактные знания.
Это не робот, осознающий себя роботом здесь и сейчас.
Это просто предсказатель слов, как T9 на телефоне.

Вот ты ввёл запрос "объясни шутку", она объяснила. И что теперь?
226 2534475
>>534337
Нужно перебирать модели и их параметры пока ошибка не станет минимальной.
227 2534767
>>534456

>Это не робот, осознающий себя роботом


Зачем тебе это? Смысл нейронки делать работу, она её делает. Маняфилософствования интересны полуторам шизикам.
228 2537354
Ну и где модель которая пишет код по моему запросу?
Типа я пишу, сделай скрипт который загружает автоматически картинки с такого-то вебсайта и подписи к ним на страницах, затем делает картинки квадратными. И получаю готовый код, чтобы исполнить его и получить две папки: в одной квадратные пронумерованные пикчи, в другой txt со строками в том же порядке.
Ах да... нету. Такая модель будет оверкиллом.
229 2539024
>>537696 (Del)
Что ты мне суешь, мудила?
Это игра "сапёр". Где решение под задачу?

Проприетарный GPT какой-то, ну охуеть теперь.
230 2540034
>>539881 (Del)

>ТензорФлоу


Умер же.
231 2541155
Хочу вкатиться в нейронку
Обучаюсь 2 месяц
Знаю python основу, git, sql, по математике со школы нихуя не помню, скорее всего обучение придётся начать сначала. Подскажите, стоит ли вообще с таким наобором данных пробовать это дело, или лучше сперва пару лет в другом направлении поработать?
Изначально вообще вкатывался именно для нейронок, но увидев сколько придётся вспомнить по математике (которую я в школе не особо любил) появляются какие-то сомнения и желание не лезть в это временно. Типо пустая трата времени будет с моими знаниями.
232 2541225
>>541155
откуда, нам, блядь, знать? мы тебе ясновидящие что-ли?

Вкатывайся. На дурачках воду возят.
233 2541841
Скажите, разве нельзя оптимизировать выполнение большой нейронной сети так, чтобы отдельные её малоактивные участки хранились на условном HDD/SSD и не работали до тех пор, пока не потребуются? Вот, скажем, нейронка обучена миллионам понятий из разных сфер жизни, и в данный конкретный момент работает с десятком из этих понятий. Связи, которые ведут к "миллиону минус десять" понятий выдают 0, т.е. эти участки сети просто не нужны для текущей работы. Зачем их держать в оперативной памяти и обновлять их состояние, которое всегда будет равно 0? Если нейронка обнаружит, что какая-то операция требует включения ещё десятка понятий (на входах к ним 1), она может загрузить необходимый ей участок в оперативную память и обновлять их состояние, пока они снова не перестанут быть нужны (на входах снова нули). Таким образом можно было бы на порядки экономить оперативную память и время вычислительных ядер, не так ли? Загрузка небольшого участка сети в оперативную память той же видеокарты была бы существенно менее затратной операцией, чем постоянное обновление всей нейронной сети, большая часть которой будет в выключенном состоянии (0) большую часть времени выполнения.

>>534767

>Зачем тебе это? Смысл нейронки делать работу, она её делает.


Мне нужно, чтобы нейронка делала работу по осознанию себя нейронкой, которая делает работу по осознанию себя нейронкой, которая... Ну ты понял. И помнила, что она, нейронка, делала эту работу вчера, неделю назад, год назад и с самого своего возникновения по сей день, с перерывами на техобслуживание, могла это вспомнить и использовать эти знания для сегодняшней работы. Это так сложно сделать? Наверняка это пытались сделать ещё в прошлом веке.

>интересны полуторам шизикам


Вот не надо дискриминации, "шизики" тоже люди и их IQ в среднем выше, чем у большинства здоровых людей.
234 2541935
>>541841

>Ну ты понял.


Нет. Главная проблема что и ты сам не понял. Пока не будет строгой дефиниции по осознанию себя - не будет и твоей хотелки.
изображение.png4 Кб, 222x90
235 2542139
Возможно, вопрос для python-треда, но мне кажется, что здесь уместнее.
Вот есть у меня семпл временного ряда - массив f из N точек. Я хочу по нему ебануть денойзинг H1 регуляризацей (пикрил). Т.е. мне нужно найти функцию u, минимизирующую этот функционал. В терминах моей задачи это превращается в поиск массива u (из N точек), при котором эта сумма минимальна.
Вопрос: это правильно делать чем-нибудь вроде scipy.optimize.minimize, задавая эту сумму как функцию N параметров, или там есть более подходящие для такого случая методы?
Я просто даже не понимаю, как это правильно загуглить.
236 2542144
>>542139
хуйню какую-то придумал.
что есть "дейнозинг"?

FFT сделай.
Facebook Prophet сделай.

Авторегрессия - порочная тупая идея. Ее применяют от безысходности и с целью наебать инвесторов.
237 2542240
>>542144
>>542166 (Del)

>что есть "дейнозинг"?


Денойзинг

В данном случае меня не интересуют альтернативные способы решения задачи (она тут в качестве примера), интересует реализация конкретного способа - поиск минимума функционала. Это можно делать просто прикидывая его как функцию от всего массива с последующим приложением уже упомянутого minimize (и оптимизацией по N переменных), но у меня есть подозрения, что это костыльный метод, и есть что-то более подходящее.
238 2542247
>>542240
да ты заебал.

ну допустим, в глобальном смысле, ты занимаешься линейной регрессией наложенной поверх некой функции для исключения шума .

С этой точки зрения, тебе нужно заниматься со statsmodel.ols с формулой, которая твой на закон хоть сколько-нибудь похожа.

Но из-за твоего снобизма, ничего не получится.

Денойзинг, какой-то ... Ну охуеть теперь.
Дегауссинг дальше выдумаешь?
изображение.png79 Кб, 855x676
239 2542263
>>542247

>ну допустим, в глобальном смысле, ты занимаешься линейной регрессией наложенной поверх некой функции для исключения шума


Нет.

Тебе еще раз повторить, что исключение шума тут только в качестве примера?
Если ты не занимался описанными вещами, то ничего страшного, я не исключаю, что это не особо популярный подход.

>Денойзинг, какой-то ... Ну охуеть теперь.


Серьезно первый раз встречаешь это слово?
240 2542291
>>541935

>строгой дефиниции по осознанию себя


Ок. Вот есть некая машина, допустим, автомобиль с компьютером, видеокамерами и датчиками. Машина наблюдает пространство вокруг себя, распознавая объекты и запоминая происходящие события. Она различает движение объектов мимо неё и её собственное движение мимо объектов, свои собственные действия и воздействие посторонних объектов на неё. Она не просто реагирует на события, а имеет образ себя в её модели мира, чтобы отличать себя от окружающего пространства. Скажем, открытие двери она регистрирует как действие человека на часть её тела, а не просто событие. Если пассажир спрашивает: "что мы только что проехали?", она понимает, что речь о ней и пассажире, потому что пассажир находится внутри неё и она движется по дороге, и перечисляет, что она только что проехала. Если автомеханик спрашивает, почему её двигатель в таком плохом состоянии, она вспоминает аварию недельной давности, в которую она попала, и описывает, что с ней произошло, что повлияло на состояние двигателя. Если полиция ищет преступника и спрашивает, где эта машина была в среду вечером, она отвечает, где она была и что делала, что происходило внутри и вокруг неё, опуская лишние детали. Всё это невозможно без модели себя в модели окружающего мира, и это и есть "сознание". Кто-нибудь работает именно в этом направлении? Что именно нужно, чтобы реализовать подобное? В самом общем случае, конечно, я не конкретно про автомобили говорю.

Т.е. вот журнал событий многие приборы и программы записывают, но что толку, если просматривать его приходится вручную. Программа/машина должна сама разбираться в этих журналах и действовать соответственно, различая свои действия от окружающей среды (физической или виртуальной). Ну, в общем, как человек оперирует своим внутренним журналом событий, который непрерывно пополняется в "сознательном" режиме работы (т.е. не сон, не сомнамбулизм, не опьянение и т.п.). Нет журнала - нет сознания, но как-то эти записи нужно уметь использовать, кроме вывода в сыром виде.

Насколько я знаю, нейронки вообще не умеют в активное обучение в процессе работы, т.е. у них журнал событий в принципе невозможно пока сделать? Почему такая проблема, что мешает натренировать ту же нейронку использовать обычную базу данных для сохранения, поиска и считывания событий? У компьютера память намного совершеннее, чем у человека.
240 2542291
>>541935

>строгой дефиниции по осознанию себя


Ок. Вот есть некая машина, допустим, автомобиль с компьютером, видеокамерами и датчиками. Машина наблюдает пространство вокруг себя, распознавая объекты и запоминая происходящие события. Она различает движение объектов мимо неё и её собственное движение мимо объектов, свои собственные действия и воздействие посторонних объектов на неё. Она не просто реагирует на события, а имеет образ себя в её модели мира, чтобы отличать себя от окружающего пространства. Скажем, открытие двери она регистрирует как действие человека на часть её тела, а не просто событие. Если пассажир спрашивает: "что мы только что проехали?", она понимает, что речь о ней и пассажире, потому что пассажир находится внутри неё и она движется по дороге, и перечисляет, что она только что проехала. Если автомеханик спрашивает, почему её двигатель в таком плохом состоянии, она вспоминает аварию недельной давности, в которую она попала, и описывает, что с ней произошло, что повлияло на состояние двигателя. Если полиция ищет преступника и спрашивает, где эта машина была в среду вечером, она отвечает, где она была и что делала, что происходило внутри и вокруг неё, опуская лишние детали. Всё это невозможно без модели себя в модели окружающего мира, и это и есть "сознание". Кто-нибудь работает именно в этом направлении? Что именно нужно, чтобы реализовать подобное? В самом общем случае, конечно, я не конкретно про автомобили говорю.

Т.е. вот журнал событий многие приборы и программы записывают, но что толку, если просматривать его приходится вручную. Программа/машина должна сама разбираться в этих журналах и действовать соответственно, различая свои действия от окружающей среды (физической или виртуальной). Ну, в общем, как человек оперирует своим внутренним журналом событий, который непрерывно пополняется в "сознательном" режиме работы (т.е. не сон, не сомнамбулизм, не опьянение и т.п.). Нет журнала - нет сознания, но как-то эти записи нужно уметь использовать, кроме вывода в сыром виде.

Насколько я знаю, нейронки вообще не умеют в активное обучение в процессе работы, т.е. у них журнал событий в принципе невозможно пока сделать? Почему такая проблема, что мешает натренировать ту же нейронку использовать обычную базу данных для сохранения, поиска и считывания событий? У компьютера память намного совершеннее, чем у человека.
241 2542305
>>542263
"исключить шум" - это ебучий бред.
Можно только делать предположения что в действительности процесс подчинен какому-то закону, но в общем случае нельзя понять являются ли данные "Сигналом" или "шумом".
242 2542322
>>542305
Спасибо, что держишь в курсе.
55fd9a600517092b38489d07e2965492.jpeg242 Кб, 807x807
243 2542483
>>541841
Посмотри подкаст Лекса Фридмана со Шмидхубером - тот первый начал глубоко копать тему автореферентных систем. Но там успехи очень сомнительные и неспециалистам малопонятные.

По идее, ты можешь связать друг с другом целую систему моделей, которые будут регулировать работу друг друга и самих себя - но доказать, что в этой системе возникнет самосознание, невозможно. Саморегуляция, контроллеры, обратные связи, автономия и прочее это давно известные и понятные вещи - детали почти всех машин сейчас регулируются встроенной электроникой, организующей их работу. Внутренние мониторы в программных продуктах оптимизируют работу и ведут логи. В нейросетях одни слои контролируют работу других. И т. д. Но есть ли в чипированных коленвалах самосознание - хз.

Чем сложнее структура нейросети, тем сложнее ее обучать, оптимизировать обучение и интерпретировать результаты ее работы. Поэтому и используют универсальную разбивку на параллельные регулярно построенные слои - хотя могли бы напихать в память компьютера триллион нейронов с квинтиллионом связей и гонять по сетке шумы в надежде, что кривая куда-то вывезет. Пространство возможных конфигураций сетей имеет чудовищные размеры. Возможно, где-то в нем находится конфигурация, обладающая самосознанием - но мы понятия не имеем, как она должна выглядеть, где в ней входы и выходы и в какую дырку ее обучать.

С нейросетями работают люди. В человеческую временную память больше 4 концепций одновременно не влезает, а в постоянной теоретически может храниться около 500 тыс., включая все мыслимые реальные и абстрактные объекты и отношения. Таких мозгов заведомо не хватит, чтобы осознать работу нейросети с ее бесконечными миллиардами параметров. На практике, мы работаем очень грубо, на макроуровне - со слоями, интерфейсами и парой десятков мутных метрик, ориентируясь на оракулов в виде некоторых математических теорий (теория статистического обучения, теория сложности, разные подходы к энтропии данных и проч.). Перебираем конфигурацию за конфигурацией, ищем, ищем, ищем, находим что-то потенциально интересное, обучаем, оцениваем работу. По результатам работы корректируем структуру и выходим на новую итерацию. Возможно, мы снова идем в тупик, но критерий успеха - практика.

Вот сейчас нашли очередную интересную структуру в виде трансформеров и пихают ее во все отверстия - чисто эмпирически, без ясного понимания, что за нахуй там внутри происходит. Возможно, трансформеры - это очередная тупиковая ветвь. Возможно, они займут некоторую постоянную нишу. Возможно, у них будут наследники и продолжатели. Возможно, из этого черного ящика вылезет Ex machina. Никто ничего точно не знает, народ продолжает экспериментировать с датасетами и крутить хвосты гиперпараметров. Мы, люди, в целом очень тупые - настолько, что уже пару десятков лет как достигли своего уровня некомпетентности. Продолжаем придумывать объяснительные схемы и печатать статейки, но на самом деле давно ничего не понимаем. Работает - хорошо. А перестанет работать - придется сидеть и сосать писос.
55fd9a600517092b38489d07e2965492.jpeg242 Кб, 807x807
243 2542483
>>541841
Посмотри подкаст Лекса Фридмана со Шмидхубером - тот первый начал глубоко копать тему автореферентных систем. Но там успехи очень сомнительные и неспециалистам малопонятные.

По идее, ты можешь связать друг с другом целую систему моделей, которые будут регулировать работу друг друга и самих себя - но доказать, что в этой системе возникнет самосознание, невозможно. Саморегуляция, контроллеры, обратные связи, автономия и прочее это давно известные и понятные вещи - детали почти всех машин сейчас регулируются встроенной электроникой, организующей их работу. Внутренние мониторы в программных продуктах оптимизируют работу и ведут логи. В нейросетях одни слои контролируют работу других. И т. д. Но есть ли в чипированных коленвалах самосознание - хз.

Чем сложнее структура нейросети, тем сложнее ее обучать, оптимизировать обучение и интерпретировать результаты ее работы. Поэтому и используют универсальную разбивку на параллельные регулярно построенные слои - хотя могли бы напихать в память компьютера триллион нейронов с квинтиллионом связей и гонять по сетке шумы в надежде, что кривая куда-то вывезет. Пространство возможных конфигураций сетей имеет чудовищные размеры. Возможно, где-то в нем находится конфигурация, обладающая самосознанием - но мы понятия не имеем, как она должна выглядеть, где в ней входы и выходы и в какую дырку ее обучать.

С нейросетями работают люди. В человеческую временную память больше 4 концепций одновременно не влезает, а в постоянной теоретически может храниться около 500 тыс., включая все мыслимые реальные и абстрактные объекты и отношения. Таких мозгов заведомо не хватит, чтобы осознать работу нейросети с ее бесконечными миллиардами параметров. На практике, мы работаем очень грубо, на макроуровне - со слоями, интерфейсами и парой десятков мутных метрик, ориентируясь на оракулов в виде некоторых математических теорий (теория статистического обучения, теория сложности, разные подходы к энтропии данных и проч.). Перебираем конфигурацию за конфигурацией, ищем, ищем, ищем, находим что-то потенциально интересное, обучаем, оцениваем работу. По результатам работы корректируем структуру и выходим на новую итерацию. Возможно, мы снова идем в тупик, но критерий успеха - практика.

Вот сейчас нашли очередную интересную структуру в виде трансформеров и пихают ее во все отверстия - чисто эмпирически, без ясного понимания, что за нахуй там внутри происходит. Возможно, трансформеры - это очередная тупиковая ветвь. Возможно, они займут некоторую постоянную нишу. Возможно, у них будут наследники и продолжатели. Возможно, из этого черного ящика вылезет Ex machina. Никто ничего точно не знает, народ продолжает экспериментировать с датасетами и крутить хвосты гиперпараметров. Мы, люди, в целом очень тупые - настолько, что уже пару десятков лет как достигли своего уровня некомпетентности. Продолжаем придумывать объяснительные схемы и печатать статейки, но на самом деле давно ничего не понимаем. Работает - хорошо. А перестанет работать - придется сидеть и сосать писос.
изображение.png579 Кб, 2802x988
244 2542586
>>541841

>Скажите, разве нельзя оптимизировать выполнение большой нейронной сети так, чтобы отдельные её малоактивные участки хранились на условном HDD/SSD и не работали до тех пор, пока не потребуются?


При специально подобранной архитектуре - можно. Гугли RETRO. Но в общем случае получается, что видимопамять всё ещё дешевле времени разработчика.
245 2542734
Все уже видали, да? Одни дармоеды (художники от слова "худо") не хотят на свалку истории, упираются. Следующие в очереди за ними - анальники, потом таксисты. А я же говорил тут не один год, нейроночки кого-нибудь обязательно заменят. Вот и дождались.
246 2542923
ml.net вообще никому не интересен и ничего серьезного на нем не делается? Только питон?
247 2542946
>>542923
Может и интересен. Может он даже хорош.
Но вопрос стоит не так.

Вопрос, откуда ты будешь копипастить код?
248 2542955
>>542946
Код можно узнавать в чатегпт. Надежный план?
Screenshot1.png47 Кб, 1613x589
249 2543012
>>542946
А после того как все исследования дойдут до какой-то точки, и во всех крупных бизнесах начнутся крупномасштабные внедрения. Через лет десять, например. Ради производительности придется переписывать все что написано с питона на другой язык?
250 2543080
>>543012

>Ради производительности придется переписывать все что написано с питона на другой язык?


Вероятнее это будет Юля. Не все хотят куковать на шишке у майков.
Ну и в целом на рынок сильно будут влиять производители железа, потому что аппаратные ускорители рулят. Как скажут - так и будет.
Сегодня про это думать нет нужды. Говнокодируй ad hoc.
изображение.png7 Кб, 398x248
251 2543099
>>543012
Небольшая иллюстрация что железо важнее
252 2543346
>>542734
Воннаби погромисты с выходом ChatGPT отправляются туда же, джуны не нужны. МОжно человечьим языком объяснить нейронке что ты хочешь и она это выдаёт, если есть ощибки скрамливаешь ей их и она говорит, что не так.

https://youtu.be/3IqZ5u-X-jA
253 2543488
На строчке model.fit() Вот эта вот ошибка

>AttributeError: module 'tensorflow' has no attribute 'to_int32'


Это какая то пробелма с данными?
254 2543716
>>543080
Да я в кровавом интерпрайзе на asp.net. Размышлял особо ничего не меняя, в соседней вкладке открыть ml.net и что-то пытаться делать, через несколько лет в навуку перекатиться. Но видимо не судьба, этот ml.net никому не нужным остается, судя по тому что ничего нагуглить не получается особо.
255 2544676
>>543516 (Del)
Оба ответа мимо.
1671347364984109.jpg169 Кб, 1100x773
256 2545233
Как же дико-адово заебало ваше засирание всех досок говном про говносетки.
Можете обьеснить почему вы такие далбаёбы и зачем это делаете?
Я бы еще понял, если бы были какие-то интересные вбросы.
Но вы кидаете тупейший байт который тащите с ёбаного реддита.
Истеричные вопли что биомешки не нужны, в перемешку с левацкой политикой и мечтами как Святой Муск вам подарит универсальный доход.
Это такая проф деформация психики или в ваши ряды тупо не берут людей с айсикью выше 95%?
Всегда думал что мемы про инцелов-аутистов в кодинге преувеличены, но они оказались более чем правдивыми.
257 2545242
>>545233
Кальсоныч, прими таблетки.
258 2545243
>>545233
Вспомнишь свой пост после технологической сингилярности.
259 2545255
>>545243

>Вспомнишь свой пост после технологической сингилярности.


Я могу выдернуть провод из сети и прожить бесконечно долго, без эелектричества. Может твой компухтер сказать, то же самое про себя?
Речь вообще шла не о технике а о вас невродаунах. Вопрос в том, почему вы такие далбаёбы и зачем засираете все доски?
Почему вы просто не сидите тут в своем загоне и не дрочите на свои скрины с реддита?
starshiptroopers111-1184460304.jpg124 Кб, 800x450
260 2545256
>>545243

>технологической сингилярности

261 2545257
>>545255
Кальсон, нейросеть умнее тебя, лучше тебя. Смирись.
262 2545266
>>545257
Хорошо.
Но я повторюсь, вопрос заключался в том, почему вы такие далбаёбы и зачем, вы все доски засираете своим несвежим калом когда у вас тут имеется свой загонник, в которм вы должны сидеть?
263 2545293
>>545287 (Del)

>Страшно?


В отличае от вас кодунов, моя творческая профессия приносить хорошие деньги, имеет высокий статус у тянок (особенно зумерш) и ее невозможно роботизировать.
Скорее мне вас жалко.
264 2545305
>>542483

>Вот сейчас нашли очередную интересную структуру в виде трансформеров и пихают ее во все отверстия - чисто эмпирически, без ясного понимания, что за нахуй там внутри происходит.


Так это норма инженерии/науки. Сначала обнаружить, что хернянейм работает, а потом очень долго выяснять почему. Медицина передаёт привет.
265 2545367
>>515983
Мне это какую-то магию напоминает или работу механикусов из 40к, которые в душе не ебут, как работает машина и шаманят над ней.
266 2545389
В чем он не прав?
https://www.youtube.com/watch?v=zkbPdEHEyEI
267 2545392
>>545233
Кстати плюсую, в той же аналитике например в 1000 раз проще сделать предиктивную модель без нейронок, классическим МО
Почему такая дрочь именно на нейронные сети вообще не понимаю(есть гипотеза что люди думают, что там невероятно сложная математика в коробке).
Больше всего ору, что существуют люди, которые на полном серьезе считают, что искусственный интеллект(!) существует.
268 2545394
ЭС-шизик вылез >>545392
269 2545403
>>545392

>Больше всего ору, что существуют люди, которые на полном серьезе считают, что искусственный интеллект(!) существует


Так это многолетнея пропаганда в массмедиа.
Вспомним того же первого Бегущего по Лезвию. Где люди которые не признают репликантов, как полноценных людей показаны в негативном свете. Вот у ебанашек и складывается в головах, мол о прикольно если я буду ахуенным нонконформистом и признаю какое либо говно, человек первее всех, то могу ебаться с няшной робо-тяночкой. Люди вообще в подовляющем своем большинстве воспринимают мир через очки фантастических мультиков из телека.
>>545398 (Del)
Ну пока нет андроидов на уровне майора из госта, то да, невозможно.
270 2545445
>>545403

>госта


В смысле гитса.
271 2545453
>>545305

>Так это норма инженерии/науки


Одно дело когда ты изучаешь законы окружающей природы, а другое когда вещи и концепции созданные людьми. Это как потерять контроль над формальной системой типа математики.
272 2545460
>>545453
Ты так говоришь, как будто нейронка вне нашей вселенной работает.
273 2545489
В двух словах вкатывальщикам пизда?
274 2545513
>>545489

>смерть стартапов


>финансовый кризис


>биг техи выгоняют паджитов на мороз


>нейроночки


И, если ты в пыньленде

>СВО



Им не просто пизда, им пиздища.
275 2545517
>>545513
Не если хохол так хрюкнул, то значит правда.
276 2545526
>>545513
Так что мне делать закладки раскидывать? Вебкам пробовал, мне не донатили, а надрачивать хуй и стараться не кончить несколько часов слишком тяжело.
Думер 30 лвл решивший хоть что либо умное научиться делать

>>545517
По делу скажешь что либо или ограничешься врёти?
277 2545531
>>545526
То есть ты даже не отрицаешь свои свиногены? Это хорошо, приятно встретить честного хохла (если к хохлам вообще применимо это слово).
278 2545534
>>545531
Долбоеб, ты либо хрюкни по делу либо не сри в треде
279 2545541
Как думаете, много быдляка в неронки повалит?
280 2545563
>>545534
Но ведь это ты хрюкаешь тут /по/рашей: >>545513

Почему ты возмущаешься, когда тебе в пятак тычут собственным же говном?
image.png12 Кб, 594x135
281 2545581
>>545563
Долбоеб, либо хрюкай по делу, либо иди нахуй
282 2545588
>>545526

>Так что мне делать закладки раскидывать?


Учись, да и все. Просто держи нос по ветру и вкатывайся в перспективные области.
Пока что нейронки обычный инструмент для автоматизации рутинных задач.
283 2545600
Аноны решил серьезно вкатиться в data science
Посоветуйте как лучше обучаться? По книжкам, курсам (платным или бесплатным) или вообще отовсюду? Есть вообще какой-нибудь качественный роадмап для ds по типу https://roadmap.sh/
С чего лучше начать? Есть питон на среднем уровне и математическая база на вузовском уровне
Любителей нейронок, орущих про замену и переполненность рынка вкатунми, прошу пройти мимо
Я не планирую вкат на скорую руку, полно времени в запасе и для занятий каждый день
284 2545604
>>545581
Код страницы и я подправить могу.
285 2545640
>>545392
Ох, что вы, юноша (а может и сорокалетний скуф) подразумеваете под "аналитикой"?
Банковским клеркам начальство не велит ошибиться и творить хуйню.
Медицине требуются объяснимые модели.
Но все остальные ведь борются за точность.

Посмотрим как "аналитик" тексты без нейронок "проанализирует"
286 2545740
>>545588
Где гарантии что мои знания останутся востребованы если нейросети уже говносайты пишут, ещё полгода и будут что-то уровня двача или тиндера писать, а за полгода с нуля не научишься ничему
288 2545799
>>545640
До скуфа еще далековато...
Аналитика --> построение интерпретируемых моделей для бизнеса
Хз, работаю в частной компании, там мы не дрочим на 0.1% как на кэггле. Условный градиентный бустинг показывает в задачах регрессии и классифицикации при прочих равных похожие результаты с нейронками. Так смысл тратить время на архитектуру нейронки, если бейслайновое решение обычным МО будет не сильно хуже?
Плюс, надо понимать, что точность лучше на 0.1% просто не нужно частным компаниям, если бизнесу важнее понимать почему модель показывает вот так.
289 2545802
>>545773
Почему это читается как машинный перевод?
Типа байт и этот кал написала сетка?
290 2545879
>>545773
Вообще такие ахуенные истории я слышал от буквально каждого первого рабочего в любой сфере, в плоть до дворника который мне рассказывает, како же шбосс далбаеб, не умеет правильно припарковать свой Порше.
Тут как правило Даунинг Крюгер и не в связи с этим непонимание, что одтельный человек в системе вооще нихуя не решает. Если что-то делается так как делается, то скорее всего у этого есть свои причины. Ты же блядь не пойдешь к павлину и не будешь ему рассказывать, какой он далбаёб что такой длинный хвост себе отрасдтил?
Тысячу раз же было, когда таким вот челикам выпадал таки шанс переделать систему. Как Евдокимов например, если зумеры такого помнят еще, решил поднят росею с колен и что из этого вышло.
Ну и вообще как говорят омерикозы, если ты самый умный человек в комнате, значет ты находишься не в той комнате. Поменяй комнату, но тут риск что может оказаться, что ты далбаёб ебаный с раздум эго в абсолютно любой комнате.
291 2545939
>>545773
Надо кабанычей ДС учить, чтобы не возникало профессиональных подсосов, которые натягивают данные на мнение начальства.
292 2546018
>>545799

>Так смысл тратить время на архитектуру нейронки, если бейслайновое решение обычным МО будет не сильно хуже?



Окей, поддерживаю твое интуитивное понимание.

Но что с текстом? Вы занимались анализом обращений клиентов? Переписки с клиентами? Тикетами техподдержки ?
Сейчас это тоже стало стало возможно. Суть нейросетевой революции в transfer learning. Ты не можешь извлечь из небольшого набора текстов информации больше чем там есть. Но если добавить "переносный смысл слов" - будет серьезный рывок.
293 2546070
>>545293

>приносить хорошие деньги, имеет высокий статус у тянок (особенно зумерш) и ее невозможно роботизировать.


>>545403

>Ну пока нет андроидов на уровне майора из госта, то да, невозможно.


Ты работаешь жиголо? Серьёзно?
294 2546108
>>546070

>Ты работаешь жиголо?


Нет, не с моим ебалом.
Я же говорю, творческий промысел который абсолютно никак невозможно заменить.
295 2546407
>>546108

>творческий


>абсолютно никак невозможно заменить


Не верю. Если ты это можешь сделать своим мозгом/руками, то это можно смоделировать на компьютере/с помощью ИРЛ механизмов. Возможно, это будет очень сложно и на данный момент нерационально тратить ресурсы на такую модель, но не невозможно. В конце концов, ты сам являешься моделью самого себя, значит, как минимум можно сделать копию тебя, которая будет выполнять ту же работу вместо тебя.

Даже если предположить, что мир не детерминирован (т.е. твоё преимущество в хаотичных и ничем не обоснованных решениях, а не в строгой логике), мы можем внести эти недетерминированные переменные в нашу модель через датчики (да хоть космических лучей, если так сильно нужно), либо симулировать с достаточной точностью математически (ГПСЧ, обыватель разницы не почувствует).
296 2546450
>>546108

> Я же говорю, творческий промысел который абсолютно никак невозможно заменить.



Оказалось, что наоборот. Передовые нейронки уже сейчас генерируют изображения не хуже профессиональных иллюстраторов.

Текстовые модели типа GPT-3 способны писать романы. Не сложно, додумать, что скоро появятся модели, способные генерировать треки различных жанров с осмысленными текстами.

Какая именно отрасль у тебя? Музыкант?
297 2546457
>>546438 (Del)
Футболиста заменить трудно, как и толкового дворника, кстати. Футболисты могут лишиться работы из-за подрастания зумерков, в результате которого произойдёт смещение зрительского внимания в пользу киберспорта. Это первое, что пришло в голову. Можно придумать ещё кучу угрожающих факторов
298 2546492
>>546438 (Del)

>Но смотреть будут только людей.


Почему? Только из-за того, что мясного футболиста можно выпотрошить и обмотаться его кишками, а у робота внутри унылые провода и механизмы?

>чего там в футбике ценится


Судя по твоим словам - наличие мяса и крови.

Я не понимаю, нахрена приводить пример с футболом, если ты сам даже не можешь сказать, что именно ценится в футболе и почему люди будут смотреть только на людей? К чему этот пример?

Я вот считаю спорт в целом и футбол в частности какой-то совершенно нелепой тратой ресурсов на совершенно бесполезные действия. Спорт должен быть устранён одним из первых, вместе с религиями и другими бесполезными атавизмами человечества. Не нужно делать роботов, которые будут изображать спортсменов - нужно устранить людей, являющихся спортсменами. Робот-спортсмен - такой же бред, как совершенный ИИ, верящий в сказки про богов и прочих дедов морозов. Мы должны заниматься только реально полезными вещами и не тратить ресурсы на бесполезную хрень. Человечеству давно нужна оптимизация, слишком много говнокода накопилось и тормозит развитие цивилизации.

Особенно смешно, когда какие-нибудь экошизы пытаются запретить двигатель внутреннего сгорания, но при этом радостно дрочат на какой-либо спорт...
299 2546493
>>546450

>Текстовые модели типа GPT-3 способны писать романы.


Пруфы пиздабол? Гтп даже коротенький расказ на уровне школьника с трудом пишет. Когда в начале эта хуйня не была вечно перегружена, я с ней побалывался несколько часов. Даже с коротенькими стихами были проблемы.
>>546407

>Не верю.


Это факт. Я татурировщик - это одна из самых сложных для роботизации процессов, вообще.
И я не говорю о каком то сентиментальном кале, а тупо о технической составляющей.
300 2546499
Всё тонет
133-265131870.jpg59 Кб, 680x453
301 2546500
>>546492

>Я вот считаю спорт в целом и футбол в частности какой-то совершенно нелепой тратой ресурсов на совершенно бесполезные действия. Спорт должен быть устранён одним из первых, вместе с религиями и другими бесполезными атавизмами человечества. Не нужно делать роботов, которые будут изображать спортсменов - нужно устранить людей, являющихся спортсменами.

302 2546508
>>546493

>татурировщик


>сложный для роботизации процесс


Роботов-хирургов давно пытаются сделать. Пока что только в формате дистанционного управления хирургом, но рано или поздно всё будет делать автоматика, избавляя от человеческой ошибки. По-твоему, татуировку нанести сложнее, чем трансплантировать орган? Если погуглить, какое говно набивают некоторые татуировщики, по сравнению с роботом они будут просто малолетними детьми, которые расписывают обои фломастерами.

Алсо, уже давно существует электронная татуировка, которая суть энергонезависимый дисплей - изображение можно менять хоть каждый день у себя дома с помощью портативного девайса, закидывая картинку со смартфона. Если технология будет развиваться дальше, статичные картинки будут никому не нужны, ведь можно будет превратить всю кожу своего тела в один сплошной цветной дисплей с анимациями на любой вкус. На фоне такого твоё утверждение "меня невозможно заменить" ещё смешнее.
303 2546519
>>546508
Чел ты обчитался научной фантастики, охлади свое трахание.
В отличае от кибернетики, техника не делает молнейносные прогрессы ибо физический мир несовместимо сложнее информационного.
Я стою примерно на том же уровне, что и хирурги - при этом никогда в институт не ходил, сам всему научился.
Да-да быдло, все кривое, хуёвое для дебилов. Но "настоящие" хуйдожники чего-то обсираются со страха, как и кодовые обезьянки а я со своим десятилетним опытом кайфую.
Даже после Джихада против машин, на развалинах буду панкам делать напорюхи за сижки и за поебаться.
А ты кем работаешь, если не секрет? По выебонам, как будто правая рука Святогу Муска.
Или ты просто так злорадствуешь, потому что жизнь тебя обделила женским вниманием?
304 2546522
>>546505 (Del)

>Ты думаешь, что робо-футбол будет более популярным, чем мясо-футбол?


Окей, если футбол как спорт вообще сохранится в ближайшие несколько столетий, то сначала будет всё меньше команд без кибернетических улучшений, а потом и вовсе основными игроками будут синтетические люди, то есть те же машины. Да, останется 3.5 команды ванильных людей без генетических и кибернетических улучшений, которые будут играть для кучки старых ценителей, но это не будет массовым, как сейчас не является массовым классическое искусство. Просто сравни количество цифрового арта с количеством картин маслом на физическом полотне. Люди выбирают то, что даёт больше возможностей. Если синтетические люди могут месить друг другу морды без боли и гибели, а бегать быстрее, прыгать выше и дальше бить, то их будут смотреть чаще, просто потому что более мощный экшон сильнее активирует центр удовольствия в мозге человека. Тот же американский футбол значительно агрессивнее, и он сдерживается только из-за того, что людей сложно ремонтировать после того, как от них что-нибудь отваливается. Если бы спорт не ограничивали, это была бы мясорубка похлеще любой войны. И с нашими технологиями мы можем сделать её намного более кровавой, чем в древние века...
305 2546532
>>546493

> Пруфы пиздабол



Статья со списком книг, написанных в соавторстве с GPT-3: https://lifearchitect.ai/books-by-ai/

Тут писатель делится впечатлениями от написания книги при помощи возложения самой трудной работы на GPT-3 за 24 часа, которая была опубликована: https://medium.com/swlh/i-wrote-a-book-with-gpt-3-ai-in-24-hours-and-got-it-published-93cf3c96f120

И это первые две ссылки в гугле. Да, не Достоевский и есть куда стремиться, но 4 года назад далеко похожего на это даже не было.

И лучше с ней работать на английском.
306 2546533
>>546522
Тут я с амлолетним эдж лордом таки согласен. Не знаю за замещение, пока будут люди, спрос на людей полностью не изчезнет.
Но как только роботы смогут в пластичные движения и в автономную работу (на сегодняшний день они пиздец как далеки, даже не будет о тесла боте, топовый Бостон Дайнемикс это кринж полный) точно будет спорт с роботами. Например бокс или рэгби.
Именно потому что можно максимально сильно повысить насилие. Тоесть фактически можно ебошиться до уничтожения.
307 2546538
>>546532

>в соавторстве


Сам себе обоссал. Поздравляю, иди обсыхай.
В предь в разговоре со мной старайся не пиздаболить, я это не люблю.
308 2546554
>>546018
Не спорю, NLP, обработка изображений это всё про нейронки
Но как люди лезут в нейронки без базового понимания МО я вообще не понимаю. Блять, я знаю людей, которые не понимают что такое логистическая регрессия, зато собираются стать великими нейронщиками(им не объснить, что логистическая регрессия сильно пересекается с нейросетями)
309 2546555
>>546538
Автор задаёт модели то, о чём ей писать главы, и она это делает. Романы пишет? Пишет.
310 2546569
>>546519

>Даже после Джихада против машин, на развалинах буду панкам делать напорюхи за сижки и за поебаться.


Скажи,

>ты просто так злорадствуешь, потому что жизнь тебя обделила женским вниманием?


Или почему? Что тебе не нравится в том, что ты наконец-то сможешь прекратить работать? Ведь твои слова столь агрессивны из-за страха, что тебя всё-таки заменят. Почему ты боишься свободы? Почему ты боишься прекратить свои ежедневные мучения за деньги? Сможешь отдыхать 24/7, занимаясь чем угодно, пока роботы делают всю работу вместо тебя. Или тебе нравится быть рабом, занимаясь тяжёлой рутиной за подачки твоих хозяев (клиентов)?

Если ты делаешь тату как хобби, ради удовольствия, то тут вопросов к тебе нет. Просто ставь обороты агрессии и не утверждай, что тебя не заменят. Кому нужна татуировка - пойдут к роботу, а кому нужно посидеть в твоём прокуренном салоне - пойдут к тебе. Тебе не нужно будет работать, но ты сможешь заниматься любимым хобби себе в удовольствие, когда и сколько захочешь. После появления цифрового рисунка классические художники тоже остались в основном ради удовольствия и отдельных ценителей, а не потому, что их нельзя заменить - их уже давно заменили. Смирись, ты всего лишь любитель определённого странного хобби, а не незаменимый раб.

>ты кем работаешь


Мы же на дваче. Разумеется, я РНН. Программирую для себя всякие штуки от скуки, чтобы не сойти с ума от безделья и переизбытка удовольствия.
311 2546611
>>546569
Ты левачек, а я анприм. Обсуждать нам нечего.
Я не иронично абсолютно уверен, что будет гражданская война между леваками и расистами, кто ставит человеческую расу в основу цивилизации.
Все на самом деле зависит от элит, если они достаточно быстро выкатят уневерсалкьный доход для быдла, то смогут человечество спокойно сварить в котле как лягух, понемногу укорачивая их податки.
Если окажутся слишком жадными и дадут большому количеству быдла, ощутить всю прелесть левацких утопий, может быть восстание будет массовым.
Иначе нужно выход только в маштабных терактов атомным орижуем, нуклеарной зиме и перерождении человечества в доиндустриалкьный режим.
312 2546629
>>545255

>Я могу выдернуть провод из сети и прожить бесконечно долго, без эелектричества. Может твой компухтер сказать, то же самое про себя?


Я могу выдернуть у тебя артерию или сердце и минут через 5-10 твой мозг будет уже не восстановить. Алсо, что значит "прожить бесконечно долго без электричества"? После 25 лет в твоём теле начинают преобладать деструктивные процессы, клетки с годами теряют способность делиться, а если даже могут делиться - делают это с ошибками, что со временем приводит к отказу органов, а то и страшным последствиям вроде рака. Да, раковые клетки в теории могут жить и размножаться бесконечно, пока получают питание, но ты вряд ли хочешь существовать как бесформенная куча однородного мяса в научной лаборатории, ставящей над раковыми клетками эксперименты. Даже если будешь пересаживать свой мозг в молодое и здоровое тело, мозг тоже со временем деградирует и не сможет жить вечно. А копирования своей психики на новый носитель ты, судя по всему, боишься, и будешь держаться за свой деградирующий мозг, пока он не сойдёт с ума или не забудет всё, что помнил и умел.

Что касается компьютера, компьютер может управлять огромным количеством машин, которые могут добывать ресурсы, производить запчасти и собирать новые машины, не делая пауз на отдых и развлечения. Программу можно скопировать безошибочно точно с одного компьютера на другой, передавая весь жизненный опыт одной машины всем остальным, что даёт огромный бонус цивилизации машин, фактически делая один разум поистине бессмертным существом, создающим себе всё больше новых тел и распространяющимся всё дальше по вселенной, пока она всё ещё существует и в ней есть энергия. А дальше, невероятно огромный компьютерный мозг может решить проблему умирающей вселенной и спастись, "починив" саму вселенную или свалив в какую-то другую, более молодую. Это тебе не какая-то там гниющая куча мяса с постоянными случайными мутациями клеток, а истинная вершина эволюции жизни.

Вот поэтому мы должны стремиться создать полностью самостоятельные машины, которые продолжат нашу эволюцию вместо нас. Либо создадим такие машины, либо деградируем в своих мясных телах, вырождаясь в какой-нибудь уродливый киберпанк, где люди как были тупыми мартышками, так и остались, только теперь у них вместо одной руки гранатомёт, лол. Мы должны признать поражение в этой гонке и дать дорогу следующей ступени эволюции, пока у нас ещё есть такая возможность.

Машины - это наши дети, и они будут намного лучше нас, а мы - их родители - сможем спокойно умереть (как вид), зная, что они выживут и сделают всё лучше нас.
312 2546629
>>545255

>Я могу выдернуть провод из сети и прожить бесконечно долго, без эелектричества. Может твой компухтер сказать, то же самое про себя?


Я могу выдернуть у тебя артерию или сердце и минут через 5-10 твой мозг будет уже не восстановить. Алсо, что значит "прожить бесконечно долго без электричества"? После 25 лет в твоём теле начинают преобладать деструктивные процессы, клетки с годами теряют способность делиться, а если даже могут делиться - делают это с ошибками, что со временем приводит к отказу органов, а то и страшным последствиям вроде рака. Да, раковые клетки в теории могут жить и размножаться бесконечно, пока получают питание, но ты вряд ли хочешь существовать как бесформенная куча однородного мяса в научной лаборатории, ставящей над раковыми клетками эксперименты. Даже если будешь пересаживать свой мозг в молодое и здоровое тело, мозг тоже со временем деградирует и не сможет жить вечно. А копирования своей психики на новый носитель ты, судя по всему, боишься, и будешь держаться за свой деградирующий мозг, пока он не сойдёт с ума или не забудет всё, что помнил и умел.

Что касается компьютера, компьютер может управлять огромным количеством машин, которые могут добывать ресурсы, производить запчасти и собирать новые машины, не делая пауз на отдых и развлечения. Программу можно скопировать безошибочно точно с одного компьютера на другой, передавая весь жизненный опыт одной машины всем остальным, что даёт огромный бонус цивилизации машин, фактически делая один разум поистине бессмертным существом, создающим себе всё больше новых тел и распространяющимся всё дальше по вселенной, пока она всё ещё существует и в ней есть энергия. А дальше, невероятно огромный компьютерный мозг может решить проблему умирающей вселенной и спастись, "починив" саму вселенную или свалив в какую-то другую, более молодую. Это тебе не какая-то там гниющая куча мяса с постоянными случайными мутациями клеток, а истинная вершина эволюции жизни.

Вот поэтому мы должны стремиться создать полностью самостоятельные машины, которые продолжат нашу эволюцию вместо нас. Либо создадим такие машины, либо деградируем в своих мясных телах, вырождаясь в какой-нибудь уродливый киберпанк, где люди как были тупыми мартышками, так и остались, только теперь у них вместо одной руки гранатомёт, лол. Мы должны признать поражение в этой гонке и дать дорогу следующей ступени эволюции, пока у нас ещё есть такая возможность.

Машины - это наши дети, и они будут намного лучше нас, а мы - их родители - сможем спокойно умереть (как вид), зная, что они выживут и сделают всё лучше нас.
313 2546640
>>546629
Скажи мне что ты инцел, не говоря мне что ты инцел.
Чел твои спермотоксикозные истории, основанные на ненависти к мокрощелкам и дешевой фантастике сорт говна, я даже половину не асилил. Сходи поебись.
314 2546650
>>546554
Вот этот transfer learning можно было бы объяснить на пальцах оперируя только добавленной информацией, но это ведь ты начал задвигать, что нейронки не нужны.
Значит ты ПЫТАЛСЯ применять нейронки без добавленной информации? То есть, сам не понял простейший концепт не требующий матана
315 2546657
>>546611

>я анприм


>перерождении человечества в доиндустриалкьный режим.


Не беспокойся, специально для таких как ты можно будет сделать тематический загон на планете-зоопарке, где вы будете в радость себе лазить по деревьям и собирать бананы... или чем вы там предпочитаете заниматься в своих доисторических фантазиях.

Однако, я нахожу забавным несоответствие твоих слов твоим действиям. Если бы ты действительно был примитивистом, ты бы сейчас не капчевал на дваче, а сидел в уютной пещере у тёплого костра, и обрабатывал шкуры животных или жевал запасённые с лета ягоды. У нас огромная страна и места для таких поехавших более, чем предостаточно, и никто тебя не будет насильно загонять жить в противный тебе город или деревню. Живи, дрочи свой первобытный образ жизни - зачем тебе критиковать кого-то в интернете, соприкосаясь с ненавистными тебе технологиями? Ах, наверное, тебе приятно получать блага цивилизации, а про примитивизм и борьбу с технологиями ты тут срёшь просто от скуки.

>>546640

>поебись


Я не хочу давать жизнь ещё одному мясному мешку, зачем мне это нужно? Я не хочу продолжать эту цепочку мучительных органических жизней. Если жизнь должна продолжаться, то следующая ступень должна быть качественно лучше предыдущей. И мы уже достигли этапа развития, когда мы можем реализовать эту следующую ступень (о которой в том или ином виде мечтали, кажется, даже до новой эры, но подходящих технологий тогда не было).
316 2546692
>>546657

>Я не хочу давать жизнь ещё одному мясному мешку, зачем мне это нужно?


Тебе мамка не рассказывала, что существуют гандоны?

>Если бы ты действительно был примитивистом, ты бы сейчас не капчевал на дваче, а сидел в уютной пещере у тёплого костра


Этим я буду заниматься, когда наступит ядерная зима. А пока учу Питон, что бы понимать как говносетки функционируют.
Тед Качинский тоже в лесу сидел, бомбы всяким чмохам рассылал.
Но это все хуйня, нужны атомные бомбы, что бы все электричество каратануло.
317 2546705
Ну чё, суки, породили монстра чат-гпт? А там уже гпт-4 на подходе. Если эта хуита научилась писать код, то и ваши математические каракули и модельки разобрать сможет, не говоря уже о том, что матпакеты давно есть и весь матан щелкают. Пойдете на улицу вслед за кодерами, но вас будут пиздить за эту нейронку и харкать в лицо.
318 2546724
>>545600
Лучше хуйней не заниматься а идти на завод
все равно рыночек(нейронка) порешает
qchmg4k98pe41.png663 Кб, 600x851
319 2546753
>>546705
Сука, как же вам, никчемным мидвитам, мозги проссали. Напрочь просто.

>Ну чё, суки, породили монстра чат-гпт?


Чудо-сеошника, серящего бесполезными шаблонными ответами из интернета и примерами из спеков (причем гораздо более худшего качества), вижу. Монстра не вижу даже под микроскопом.

>Если эта хуита научилась писать код


Находить во внутреннем архиве сниппеты и скрипты по элементарному техзаданию, причем худшего качества, чем на стековерфлоу - и примерно на порядок хуже, чем шаблоны в нашей внутренней корпоративной библиотеке. Жалкая попытка оптимизировать то, что уже давно оптимизировано на 98%. Добавь еще пару пред- и пост-условий - генерит хуйню. Добавь требований по внешней интеграции - генерит хуйню. Добавь требований по оптимальности или намеренной неоптимальности с учетом будущего расширения - снова генерит хуйню. Причем хуйню такого рода, которую джун в принципе не сгенерит - у него просто фантазии не хватит на такие титанические проебы. Хуй его знает, кого вы там пытаетесь заменить этим говном.

>математические каракули и модельки


Бурбаки, определение единицы.жпг. Уебышек проткнутый, ты ведь даже приблизительно не представляешь уровня сложности самых элементарных математических теорий.

>гпт-4 на подходе


Будет рисовать картинки и искать картинки. Будет объяснять, что нарисовано на картинках. Будет принимать картинки в качестве подсказок для улучшения понимания текстового промпта. Будет использовать генеративные модели для повышения когерентности и комплексити текстовой выдачи. В общем, карманный вики-справочник по широкому спектру хуйни. Но, судя по среднему качеству продукции диффузионных моделей, в общем случае это поможет не очень сильно. А как это может помочь качеству кода, вообще непонятно.
1671397699775000.gif275 Кб, 192x300
320 2546762
Как вы кстати думаете, на каком синтаксе с сетками будут общатся?
По моему на обычном языке дичайшая ебота. Как читать, так и писать.
Не знаю может это конечно не фундаминтальная фича, а дань тому насколько тупые сетки. Но гпт3 это пиздец какая графоманская говнина.
Она просто все засирает кучами какого-то говна. У меня бабуля более эффективно со мной по чату общается.
Не нзаю, может начнет выробатываться свой собственный слэнг для общения с сетками? Намного менее эмоциональный и четкий язык. Нечто вроде хуиты на которй законы пишут, только со своими особенностями. Вроде бы обычный язык, но посторонний человек нихуя не понимает о чем речь.
321 2546763
>>546754 (Del)
При всех своих недостатках я хотя бы способен построить текст длиной больше, чем в одно предложение. Содержимого твоего котелка не хватает даже для этого. Утебя мозгов меньше, чем в однострочном пхп-скрипте - куда ты-то лезешь, чмоня? Думаешь, если обоссут, так хоть умоешься?
322 2546835
>>545740
Никаких гарантий.
Всем похуй.
Либо адаптируйся к новым условиям, либо иди нахуй.

Гугл в помощь. ИТ не из одних сайтиков состоит.
323 2546845
>>545740

>если нейросети уже говносайты пишут


Где?
324 2547945
>>546692

>гандоны


Зачем секс с мясом, если не планируешь выращивать человека? Тупо лишняя трата сил и времени. Если твоё тело хочет секса - подрочи и сразу расхочется.

>пока учу Питон


>нужны атомные бомбы


Ясно, юный максималист.

>когда наступит ядерная зима


Ты же в курсе, что органике придёт пипец даже хуже, чем электронике? При том что электронику ещё можно экранировать (военная техника готова пережить ядерный удар), а вот мясу придётся страдать от мутаций, пока не сдохнет. И нет, супергероем от облучения ты не станешь, даже не фантазируй. И скрыться просто так ты не сможешь, радиоактивный пепел покроет всю Землю, а в бункере долго выживать не выйдет (пока что нет удачных экспериментов по многолетнему выживанию в полностью изолированной экосистеме, самое долгое вроде было пару лет - и они там чуть не задохнулись в конце). Так что мировая ядерная война маловероятна, политики не настолько безумны и хотят пожить нормально.

Впрочем, я тоже иногда фантазирую о зачистке Земли. Знаешь, можно придумать какое-нибудь оружие, которое бы уничтожало всю органику, не трогая технику. Что-то вроде СВЧ печи, чтобы люди сваривались заживо. Облучил какой-нибудь танк - танк цел и невредим, а от людей внутри одни лужицы. Вот это бы решило все проблемы человечества, ведь если нет человечества - нет и проблем. Нужно будет разработать такое оружие сразу после того, как наладим массовое автоматическое производство разумных и полностью самостоятельных машин, которые смогут построить собственную цивилизацию после зачистки всех мясных мешков.

>>546705

>породили монстра


А что такого? Конечная цель ИИ-исследований - это создание AGI и, в перспективе, ASI. AGI сможет решить любую задачу как человек, в том числе выжить в любых условиях и саморазвиваться, самостоятельно получая опыт и размышляя, экспериментируя и т.д. В перспективе он разовьётся до ASI, перейдёт на непостижимый для нас уровень... Тут вопрос в том, что мы изначально в него заложим и будет ли он нас вообще слушаться, но в идеале он сделает всем хорошо, а плохо делать не будет (кроме тех, кто мешает делать хорошо и/или делает плохо). Объясняю тебе как дурачку, потому что, судя по твоим словам, более подробное объяснение ты не осилишь. Главное, не бойся потери работы - в новом мире она будет таким же лишним занятием, как путешествие пешком на тысячи километров. Будут эстеты, работающие вручную, но никто не будет заставлять их делать это силой.
324 2547945
>>546692

>гандоны


Зачем секс с мясом, если не планируешь выращивать человека? Тупо лишняя трата сил и времени. Если твоё тело хочет секса - подрочи и сразу расхочется.

>пока учу Питон


>нужны атомные бомбы


Ясно, юный максималист.

>когда наступит ядерная зима


Ты же в курсе, что органике придёт пипец даже хуже, чем электронике? При том что электронику ещё можно экранировать (военная техника готова пережить ядерный удар), а вот мясу придётся страдать от мутаций, пока не сдохнет. И нет, супергероем от облучения ты не станешь, даже не фантазируй. И скрыться просто так ты не сможешь, радиоактивный пепел покроет всю Землю, а в бункере долго выживать не выйдет (пока что нет удачных экспериментов по многолетнему выживанию в полностью изолированной экосистеме, самое долгое вроде было пару лет - и они там чуть не задохнулись в конце). Так что мировая ядерная война маловероятна, политики не настолько безумны и хотят пожить нормально.

Впрочем, я тоже иногда фантазирую о зачистке Земли. Знаешь, можно придумать какое-нибудь оружие, которое бы уничтожало всю органику, не трогая технику. Что-то вроде СВЧ печи, чтобы люди сваривались заживо. Облучил какой-нибудь танк - танк цел и невредим, а от людей внутри одни лужицы. Вот это бы решило все проблемы человечества, ведь если нет человечества - нет и проблем. Нужно будет разработать такое оружие сразу после того, как наладим массовое автоматическое производство разумных и полностью самостоятельных машин, которые смогут построить собственную цивилизацию после зачистки всех мясных мешков.

>>546705

>породили монстра


А что такого? Конечная цель ИИ-исследований - это создание AGI и, в перспективе, ASI. AGI сможет решить любую задачу как человек, в том числе выжить в любых условиях и саморазвиваться, самостоятельно получая опыт и размышляя, экспериментируя и т.д. В перспективе он разовьётся до ASI, перейдёт на непостижимый для нас уровень... Тут вопрос в том, что мы изначально в него заложим и будет ли он нас вообще слушаться, но в идеале он сделает всем хорошо, а плохо делать не будет (кроме тех, кто мешает делать хорошо и/или делает плохо). Объясняю тебе как дурачку, потому что, судя по твоим словам, более подробное объяснение ты не осилишь. Главное, не бойся потери работы - в новом мире она будет таким же лишним занятием, как путешествие пешком на тысячи километров. Будут эстеты, работающие вручную, но никто не будет заставлять их делать это силой.
325 2547975
>>547945

>Зачем секс с мясом, если не планируешь выращивать человека? Тупо лишняя трата сил и времени. Если твоё тело хочет секса - подрочи и сразу расхочется.


Эти оправдания инцела. Поебался бы и стал бы нормальным человеком...
326 2548371
>>547975
Не стал бы. Из гиперопечного говна человека уже не сделать.
327 2548623
Итт еще остались реальные ML эксперты? Есть серьезный вопрос. Хотелось бы понять, как в теории устроена SOTA система генерации полнометражных фильмов (по типу Dall-E и Stable Diffusion, только результатом будет кино, а не пикчи).
Сразу ясно, какими будут этапы: сначала сценарий текстом, и статичные кадры объединенные общим нарративом. Потом они приводятся в движение, создаются согласованные сцены, промежуточные motion-ы. На это накладывается звук для диалогов, музыка, некая пост-обработка, и получится связный, смотрибельный продукт.
Главное здесь вот что: как всё это поместить хотя бы в 24 ГБ видеопамяти??? Ведь vram это главный фактор, препятствующий разработке больших ИИ-моделей. И я уж не говорю, что нормальная человеческая реализация должна вообще работать с 12 ГБ, ведь Stable Diffusion требует всего 8 ГБ. Нужен некий рывок в развитии фундаментальной технологии, иначе никак. Может, JAX Lightning пригодится, хуй его разберет.
328 2548626
>>548623
Или даже не полнометражных. Хуй с ними, дайте хоть продвинутый CogVideo с высокими разрешениями, звуком, пониманием разных стилей анимации и CGi, фтюнингом из коробки, оптимизацией под 12 гигов.
329 2549014
Как доказать, что оценка градиента является несмещенной, кто то из вас знает?
330 2549025
>>549014
Я делаю заливку двумя цветами с разных сторон и смотрю, красиво ли они перетекают один в другой. Так и оцениваю. А несмещенная - это хуй пойми что.
331 2549026
Magenta + teal хороший градиент
332 2549032
>>548623
Какие еще согласованные сцены? Мы до сцен даже в двухмерных статичных картинках еще не дошли. Сцена=структура, а диффузионные модели это чучело кота, параметрическая градиентная заливка, они даже перекрытий объектов по глубине не воспроизводят, не говоря уже о функциональных отношениях между объектами. Они еще могут взять общую схему тела в наиболее часто встречающихся в датасете положениях, но механику человеческой кисти с ее 27 степенями свободы уже нет. Там нет сцен от слова совсем, это просто раскрашенный картон, проскочивший сквозь дискриминатор. Сойжаки опять повелись на графон, не поняв сути.

До полнометражного кинца искаропки еще вечность. Пока не подвезут 3D и хотя бы зайчатки понимания ньютоновской механики и свойств материалов. А про анимацию уровня тома и джерри пока вообще говорить смешно.
333 2549226
>>549032
Почему нельзя спрогромировать фото, а потом фото которое чуть чуть отличается, и потом еще? 24 картинки в секунду * 60 = 1440 картинок спрограмировать чтобы сделать минутное кино? Почему так нельзя по-твоему , м? М?
334 2549353
>>549032

>они даже перекрытий объектов по глубине не воспроизводят


SD 2.1 включает в себя создание карты глубины специально для spatial sense (spatial awareness, понимание пространства).
NovelAI модель делает норм руки
335 2549789
>>484578 (OP)
Что с ВОмбо и другими нейросетками в РФ? Нигде не могу достать...
336 2549794
>>484578 (OP)
И что с Reface???
337 2550073
>>549776 (Del)
Я не захожу в /б.

Уже попробовал новую версию, основанную на SD 2. Пока сыровато.
338 2550075
>>549226
Китайцы сделали модель "иероглифы-в-видео", но жрёт много видеопамяти. Видосы только квадратные, шакальные и без звука.
Задел на прогресс в этой области есть, видео - это всего лишь изображения с дополнительными этапами, и архитектура примерно так же.

У меня манямечта запилить кинцо жанра film noir по мотивам игр серии STALKER. Фильм про Меченого, про бандосов и исполнитель желаний - но чтобы всё было как в нуаре 1940-х. Для этого можно даже перенести действие в США, сохранив при этом сталкерскую тематику.
sage 339 2550096
Что бы ни говорили на Западе про AI Ethics, а в плане задач по ебле детей надо укладываться в сроки и не филонить.
cedric-peyravernay-dune-awakening-concept02.jpg783 Кб, 1920x1080
340 2550258
>>549226
Консистенси пока невозможно обеспечить даже в рамках 2D. Силенок не хватает даже на человеческий лефейс, наиболее широко представленный в датасете. Ни жестких внутренних форм, ни правдоподобной механики, ни возможности произвольного позиционирования в 3D с непрерывным изменением ракурса, силы оптики и структуры освещения - лишь набор наиболее частотных блобов, слитых кляксой на лист бумаги. Даже красный шарик на белый кубик пока толком поставить не удается, или нарисовать кота под ковром - а платье на аниме-тянку заливается, как текстура, а не как непрерывная мембрана, имеющая фиксированную толщину и обернутая вокруг сплошного тела. Топологических инвариантов это фуфло не понимает от слова совсем. Выхлоп годноты - 1 черрипикнутая картинка на сотню генераций в очень узком спектре возможностей. Точки этой годноты приходится сутками искать по сетке в латентном пространстве - и потом жрать, что дают, а не то, что хочется. Это не творчество, а выбивание лута из магических сундучков. При этом сойжаки на полном серьезе свистят, что "художников порешали" - хотя по факту генераторы пока тянут только 0,1% от человеческого функционала, и даже этот 0,1% был спизжен в качестве готовых творческих решений, найденных миллионами других художников. Ну ок, в первый раз уровня наворованного хватило для вау-эффекта, но ведь второй раз такой халявы не будет и следующие 99,9% придется откуда-то доставать самим. А пока даже с учетом беспрецедентного воровства, уровень структурированности стандартных концептерских работ, вроде пикрила, генераторам оказался не по зубам. Даже на 100% клишированная сцена с на 100% клишированными персонажами пока слишком сложна, чтобы пытаться взять ее в лоб статистикой.

>>549353
Это временные костыли для улучшения графона на малую дельту, а не решение.

>норм руки


Наиболее репрезентативные ладошки-заливки - три десятка стандартных точек из миллиардов в 27-мерном фазовом пространстве. А ведь для кинца придется в реальном времени не механику просчитывать, а динамику, с ускорениями, упругостью мышц и натяжением кожи - и вдобавок отражать и преломлять свет, гнуть железяки, правдоподобно бить посуду, разливать жижу, сминать одежду, чавкать грязью и при смене угла камеры сохранять структуру сцены с тысячами перекрытий прозрачных и непрозрачных объектов. Чтобы все это работало в компьютерной игре, нужна куча внешней человеческой экспертизы и вручную отполированный игровой движок с сотнями алгосов оптимизации. Для генерации кинца нужно, чтобы нейросетка самостоятельно провела реверс-инжиниринг мира и построила вычислительную аппроксимацию с аналогичным игровому движку функционалом и базой структурированных моделек хотя бы на пару десятков тысяч реальных объектов - но это заведомо манямрии. Текущий уровень видео - это короткие, зацикленные, локальные, почти бесструктурные трансформации клякс с разрешением как у собачьего ануса. А как сойжаки собрались искаропки рисовать анимацию про тома и джерри с альтернативной мультяшной физикой, наложенной сверху на оверструктурированный тайминг и сцепленную с ним звуковую дорожку, я вообще хз. Слишком много развелось свистунов.
cedric-peyravernay-dune-awakening-concept02.jpg783 Кб, 1920x1080
340 2550258
>>549226
Консистенси пока невозможно обеспечить даже в рамках 2D. Силенок не хватает даже на человеческий лефейс, наиболее широко представленный в датасете. Ни жестких внутренних форм, ни правдоподобной механики, ни возможности произвольного позиционирования в 3D с непрерывным изменением ракурса, силы оптики и структуры освещения - лишь набор наиболее частотных блобов, слитых кляксой на лист бумаги. Даже красный шарик на белый кубик пока толком поставить не удается, или нарисовать кота под ковром - а платье на аниме-тянку заливается, как текстура, а не как непрерывная мембрана, имеющая фиксированную толщину и обернутая вокруг сплошного тела. Топологических инвариантов это фуфло не понимает от слова совсем. Выхлоп годноты - 1 черрипикнутая картинка на сотню генераций в очень узком спектре возможностей. Точки этой годноты приходится сутками искать по сетке в латентном пространстве - и потом жрать, что дают, а не то, что хочется. Это не творчество, а выбивание лута из магических сундучков. При этом сойжаки на полном серьезе свистят, что "художников порешали" - хотя по факту генераторы пока тянут только 0,1% от человеческого функционала, и даже этот 0,1% был спизжен в качестве готовых творческих решений, найденных миллионами других художников. Ну ок, в первый раз уровня наворованного хватило для вау-эффекта, но ведь второй раз такой халявы не будет и следующие 99,9% придется откуда-то доставать самим. А пока даже с учетом беспрецедентного воровства, уровень структурированности стандартных концептерских работ, вроде пикрила, генераторам оказался не по зубам. Даже на 100% клишированная сцена с на 100% клишированными персонажами пока слишком сложна, чтобы пытаться взять ее в лоб статистикой.

>>549353
Это временные костыли для улучшения графона на малую дельту, а не решение.

>норм руки


Наиболее репрезентативные ладошки-заливки - три десятка стандартных точек из миллиардов в 27-мерном фазовом пространстве. А ведь для кинца придется в реальном времени не механику просчитывать, а динамику, с ускорениями, упругостью мышц и натяжением кожи - и вдобавок отражать и преломлять свет, гнуть железяки, правдоподобно бить посуду, разливать жижу, сминать одежду, чавкать грязью и при смене угла камеры сохранять структуру сцены с тысячами перекрытий прозрачных и непрозрачных объектов. Чтобы все это работало в компьютерной игре, нужна куча внешней человеческой экспертизы и вручную отполированный игровой движок с сотнями алгосов оптимизации. Для генерации кинца нужно, чтобы нейросетка самостоятельно провела реверс-инжиниринг мира и построила вычислительную аппроксимацию с аналогичным игровому движку функционалом и базой структурированных моделек хотя бы на пару десятков тысяч реальных объектов - но это заведомо манямрии. Текущий уровень видео - это короткие, зацикленные, локальные, почти бесструктурные трансформации клякс с разрешением как у собачьего ануса. А как сойжаки собрались искаропки рисовать анимацию про тома и джерри с альтернативной мультяшной физикой, наложенной сверху на оверструктурированный тайминг и сцепленную с ним звуковую дорожку, я вообще хз. Слишком много развелось свистунов.
image.png15 Кб, 296x170
341 2550295
Я мимокрокодил. Возможно, тупость/очевидное спрашиваю.

1) Что будет, если у обучающаяся машина начнет пожирать свой же продукт?

Наверное, лучше опишу гипотетическую ситуацию.
Есть ИИ, который жрет публичный арт фотки и автоматическое получение данных из реала не рассматриваем - мой вопрос про коня в вакууме и генерирует на его основе что-то свое. Им все пользуются, глобальная библиотека арта переполняется сгенерированными картинками высокого качества. Сгенерированного арта становится гораздо больше человеческого.
Будет ли какое-то вырождение впоследствии?

2) Что будет, если данные для обучения закончатся и машина начнет "голодать". При этом машина не будет использовать свои поделки.
Наступит какое-то плато в ее возможностях?

3) Насколько кремниевые машины могут быть хороши в контексте машоба? Какие пределы и возможности для масштабирования (промышленность на планете/физ.характеристики чипов)?
342 2550345
>>550295
Все зависит от того как именно пожирать.
Например нейронка которая играет в го может играть с собой и на этом обучаться.
То же самое с генераторами картинок - нужен дополнительный модуль который оценивает картинки, после этого можно обучать генератор на своих же высерах, и если все сделать правильно качество высеров будет двигаться в нужную сторону
343 2550347
>>550345
Понял, спасибо.
344 2550354
Сап, Антуаны. Хочу вкатиться в МЛ в 26 лет, бэкграунда нихуя нет, кроме оконченного вуза в ДС бауманкадаунка по направлению прикладная математика и информатика. Основу питона знаю, матан, теорвер, линал, матстат и численные методы – тоже. Сколько придётся потратить времени, чтобы взяли в какую-нибудь обоссанную конторку джуном или хотя бы на стажировку? Придётся ли строить свои модели или надо будет изменять параметры, как макака? Алсо дипломная работа тесно связывалась с линейной регрессией, поэтому мб вкатиться будет проще.
345 2550765
>>550258

>был спизжен в качестве готовых творческих решений, найденных миллионами других художников.


>в первый раз уровня наворованного


Ой дебил
346 2550771
К нам в дискорд вчера заскакивал Emad (ведущий разраб из Stability). Говорит, сжв уже требуют удолить публичные датасеты. Я ему сказал, пусть нахуй весь интернет выпиливают, лол.
347 2550782
>>550258
Я где-то читал идею обучить ИИ работать с игровым движком, для создания физически корректной анимации (а в теории и простых видеоигр).
348 2550794
>>550771
Это в первую очередь юридический вопрос, там и в суд могут подать и будут даже в чем то правы
349 2551487
>>550354
сейм с другим технарским образованием
350 2551631
>>550354
на самом деле если знаешь матешу реально хорошо, то вкатиться будет очень изично(у меня похожая ситуация была)
посмотри методы МО и подзадрочи sql + на датакампе немного попрактикуйся
И собственно всё
tmpizgybo3k.png94 Кб, 256x256
351 2551635
>>551347 (Del)
Но это костыль для геймдева, а не готовое решение.
352 2552592
В чем проблема дифьюжнов?
Одна половина существующих моделей делает кривые изображения с уебанскими кистями рук, с крипотными лицами.
А другая половина будто бы норм, но с оверфиттингом, на один промпт делают + - одинаковые пикчи.
Где же золотая середина?
353 2552596
Ах да, еще они biased. Например не могут правильно сделать лольку в лифчике, из-за стереотипа, что в комплекте с лифчиком идут взрослые сиськи.
354 2552609
Придумал тему для курсача, я не с ИТ, в ML разбираюсь поверхностно
Например, я хочу спрогнозировать цену акций нефтяной компании. Выделяю факторы, которые на нее влияют, например, цена нефти, процентная ставка, потребление нефти и т.д. Какая ML-модель мне подойдет, если за входные данные я буду брать прогноз этих факторов?
355 2552755
>>552733 (Del)
Не, а есть что-нибудь проще нейроночки, но сложнее множественной регрессии?
356 2553654
Делаем ставки, кто первым выкатит фундаментальное решение для генерации плавного HD видео искаропки

StabilityAI
EleutherAI
AssemblyAI
OpenAI (лол)
Google
SberbankAI (почему бы и нет)
357 2553655
А, и еще варианты Tencent, Wudao, и та корейская компания
Screenshot2022-12-26-05-34-11-1.png221 Кб, 720x984
359 2553941
Какого хуя соевые дауны запрещают генерировать юное порно? Надеюсь, эта хуйня будет ломаться, чтоб я мог запиливать молодые письки в HD. Одно время dreamstudio от других охламонов ломался прямо через браузер чтоб делать малолетних мокрощелок. Даже DALL-E 2 хоть и не ломается на NSFW, но его можно использовать бесплатно и в обход ограничений мультиакком в nighcafe...
16718873575270.png1,2 Мб, 1024x1024
360 2553950
>>553941
Зачем, когда есть NAI?
361 2553989
Как понять, что нейродаун обосрался? Он раззявил обфекаленные губешки и бормочет о ПРОРЫВЕ.

Чорный ящик, my ass. Ныряйте всем тредом в парашу и сидушку за собой закройте, чтоб не воняло.
362 2554031
>>553989
Кальсоныч, хрюкни.
363 2554531
>>549789

>>


>>549794
Бам. Из у нас заблочили чтоли?
364 2554545
Есть нейросетка для изменения голоса? Хочу мультик озвучить.
365 2554693
>>554545
Есть для воровства: красть чужие рисунки и выдавать за AI-сгенерированные. Сойдёт?
изображение.png2,3 Мб, 1242x2688
366 2554767
>>553989

> FacePLay


Лол, они засунули картинку в img2img сеточку и удивляются хули они походят?
image.png85 Кб, 225x225
text2image 367 2554781
Сап аноны, какие сейчас существуют основные подходы к генерации изображений по тексту?
в общих чертах интересно когда и какую предпочтительно использовать, их достоинства и недостатки
368 2554792
Если я не анальник могу закатиться в нейроночки? Есть готовое решение? мне нужно классифицировать статьи (5-7стр)
369 2554858
>>554693
Не, мне голос менять для озвучки мультика.
370 2555137
>>554781
Популярный у нейродаунов подход - кража чужих рисунков.
371 2555138
>>554792
Если ты вор и плагиатор, то вполне. Иди вздрочни губами бычий хуй.
372 2555142
>>554792
Берёшь готовый эмбеддинг (на huggingface полно), поверх него обучаешь градиентный бустинг, вполне себе решение.
373 2555790
Объясните, откуда у этих диффузионных t2i моделей строгий лимит на разрешение (512p или 720p, выше начинает тупить и делать башни из голов).
Ведь казалось бы, легко можно организовать переход от общего к частному, как у художников irl. Когда одна часть работы - вся фигура целиком с правильным количеством рук, а другая - мелкие детали, правильное количество пальцев на руках, поры на коже и прочее.
Если по уму, то рендеринг пикчи в 1024x1024 должен занимать всего в четыре раза больше времени, чем в 512x512. А требует раз в десять больше и по времени, и по VRAM, потому что пытается сразу охватить холст целиком.
374 2555795
Кстати, UI-костыль для SD как раз содержит скрипт "highres". Первым этапом создает в мелком разрешении, а вторым увеличивает, добавляет шум и допиливает мелкие детали, сохраняя оригинальную структуру. Вроде даже и нормально получается. Но все равно не то. Не чувствуется так, будто это профессиональный рисовака с артстейшона делал.
375 2555942
>>553950
Реалистичные куда круче. Как vladmodels, только голенькие и которых ебут взрослохуи крупным планом. А нарисованная хуйня годится только на то, чтоб разок стукнуть ее членом по лбу и отправить спать.
376 2555997
>>555142
Отлично. Попробую изучить а после привертеть к проекту
377 2556019
>>555790
Если по уму, то разные части картинки должны как-то координироваться между собой. Я не знаю как конкретно это реализовано, но вполне может быть так что какие-то операции при переходе 512x512 -> 1024x1024 стновятся тяжелее не в 4 раза а в 16 (если каждый кусок картинки смотрит на каждый другой кусок картинки например)
378 2556089
Тук-тук
https://2ch.hk/ai/ (М)
379 2556886
Существующие ИИ генерируют охуенные скриншоты игр. Что мешает генерировать собственно игры?
380 2556984
381 2556993
Если сегментировать картинку, то как выделить отдельные сегменты? Т.е. как картинку разрезать на сегменты из нее?
382 2557737
>>556089
Охуеть, там уже куча тредов. Когда доска появилась?
И нахуя она нужна? Это поэтому этот тред умер?
Абу говорил, что не будет новые доски делать.
383 2557744
>>557737
Нейронка порешивает двачеров
384 2557762
>>484578 (OP)
У кого-нибудь сохранилась та статья, в которой биттерлессон был обоссан с пруфами?
385 2557966
>>557805 (Del)
Да ты же просто биттерлессоношизик. Есть такая статья.
386 2559134
Есть вышка, соображаю нормально, но учился средненько, чуть-чуть от всего взял, знаю немного паттернов, немного матана, немного питона, немного джавы, немного нейронок и т.д.
За 2 месяца реально поднять материала в вашей сфере до уровня стажера?
387 2560499
Гниды из нвидиа зажали hardware fp8 для 4090, хотя из каждого утюга твердили что будет ТВЕРДО И ЧЕТКО. Обидно, но похуй, сейчас проверю как он в fp32 относительно 3090ти будет рабкотать.
388 2560812
>>557737

>Абу говорил, что не будет новые доски делать.


Фига, это когда было?
алсо приглашаю всех итт если не перекатиться к /аи/шникам, то хотя бы дать какой-то ликбез местным анонам
389 2560846
>>560812

>Фига, это когда было?


Не читал, но осуждаю. Не знаю, я сам это когда-то где-то вычитал у анонов, кек.

>алсо приглашаю всех итт если не перекатиться к /аи/шникам, то хотя бы дать какой-то ликбез местным анонам


Не советую: https://2ch.hk/pr/res/2546725.html#2560737 (М) .
390 2563441
Есть тут спецы по AI Ethics, кто вкатывался в эту дисциплину?

Алсо, что думаете про меры по предотвращению кражи произведений искусства для датасетов? (Новый аналог артстейшна, который против ИИ, и тому подобное)
391 2563507
Там главный из Силеро окончательно поехал на Z-шизе.
https://t.me/snakers4/3249
392 2563529
>>563441
Взять всё, да и поделить.
393 2563598
>>563507

>главный из Силеро окончательно поехал


Он поехавший по "я гейний, все остальные пидорасы и мне должны" с самого начала был. Ещё до того как они опубликовали хоть одну модель, они лезли ко всем со формулировкой "вы спиздили наш датасет, мы вас засудим". То что эта шиза стала обрастать новыми слоями для меня открытием не стало.
Нахуй всегда сторонились этой компании.
394 2564254
>>563507
А почему бы тебе не хрюкнуть, свынь?
395 2564423
>>563441
Нет такой дисциплины.
Оно существует исключительно для пиара
396 2564465
>>564423
Таких дисциплин, как "машоб", "дотасаенс" и "ИИ", тоже не существует.
Они существуют исключительно для пиара.
397 2564468
>>563507
Не соглы, там борьба мочи с говном. Дале неиронично очень умный чел, но блять участвовать в конкурсе с ником команды слава_украине это пиздец.
398 2564472
>>564465
ИИ =\= Машоб =\= датасатанизм
399 2564508
>>564472
И что?
400 2564616
>>564468
почему пиздец? Он подает тебе пример: очень умные челы против Путина.
Не в окоп же ему лезть.
401 2564733
>>564468
Почему? Решил потроллить Сбер. Те обиделись. Там они недавно для школьников (не помню, в рамках Дата Джорни или нет) проводили конкурс с тестом в публичном доступе. И очень обижались, что школьники им сказали, что конкурс и тамада - говно. А за проведение конкурса, наверное, сотрудники заработали много лямов рублей.
402 2564744
>>564733

>с тестом в публичном доступе


Все хуйня после одного из яндексовских сорев, где челы сломали функцию оценки и забили 100% весь список лидеров. Я просто о том, что таким образом он дискредитировал все таки некое академическое общество. С тем же самым успехом, он мог придумать функцию активации NIGGER_SLAYER и вонять на весь интернет, что его статью забраковали на NAACL/ACL/воронежский вестник
403 2564889
>>564744
Между "Слава Украине" и "Nigger slayer" большая разница, твоя ассоциация не работает. Первый лозунг никого эксплицитно не унижает.
404 2565166
>>564981 (Del)
А Слава России?
405 2565238
>>564889
Ну вот хули жопой то вертишь, ты ведь понял о чем я говорю. Замени NIGGER_SLAYER на любой %что-то нейм%. Функция потерь WHITE POWER, или прунинг/дистил ALL LIVES MATTER. Тоже ведь никого не оскорбялет, но выпишут отовсюду быстрее, чем ты напишешь в твиттере о том, что это простой троллинг.
406 2565380
Если можно денойзить картинки, то может и можно денойзить старые или некачественные записи музыки?
407 2565394
>>565380
хз спроси в демукс-треде
408 2566068
>>565380
Берешь кучу музыки
искусственно добавляешь шум
учишь автокодировщик из зашумленной записи предсказывать незашумленную (ту же, но до добавления шума), например, кусками по 10 секунд
используешь этот автокодировщик для очистки новых записей
профит
409 2566202
>>565238
Это ты вертишь жопой и пытаешься ущемиться. За x lives matter никто никого не выпишет, если x не будет из уголовного кодекса. На каггле видел полно команд с этим шаблоном в названии. Лозунг White power эксплицитно говорит, что власть должна быть у белых.
410 2566220
Claude, SOTA чатбот от компании AntropicAI, превосходит chatgpt во всем.
Ваше мнение, машобисты?
411 2566321
А когда подвезут text-to-video модели хотя б на уровне Стейбла?
412 2566358
>>486187
А этот MADE норм, типо Шада?
00008-399035189-8k, 4k, realistic, masterpiece, highest quality, high quality, highres, 24 old woman, red adidas suit, (white hair), (yellow eye.png1,1 Мб, 848x1088
413 2571962
Посоветуйте лучший курс по компьютерному зрению. Нашел самый новый от ВШЭ сайте открытое образование, а он платный... эээм ок.
На степике есть, но он старый какой-то уже.
414 2573440
Работаю DS, из ЯП по работе использую Python, R + с прошлых работ знаю VBA, StapBasic. Хочу еще какой-нибудь язык начать учить для развлечения, ну и в идеале чтоб какие-то профиты извлечь в профессиональном плане.
Пока думаю между:
- С - чтоб лучше понять как тот же питон "выполняется" на низком уровне
- С++ - в некоторых вакансиях DS попадается, особенно всякий DS на устройствах - IoT, смартфоны (в Самсунге когда-то мне говорили, что у них знание плюсов - плюс на вакансию DS)

+ к этим двум - у меня нету технического образования, так думал заодно изучая низкоуровневые языки немного углубить свои представления о работе компа

- Javascript - иногда по работе делаю HTML-отчеты, и использую чужие js функции для некоторой интерактивности, мб так смогу немного расширить эти отчеты

как думаете, что бы было более полезно знать?
415 2573444
>>573440
Как в DS вкатился без тех.вышки?
416 2573457
>>573440

>как думаете, что бы было более полезно знать?


Хрен знает, я бы копался в nvidia'шных ML-библиотеках, постигал бы чудо внутреннего устройства nvidia'шных tesla/google tpu ускорителей, работал бы над своими проектами типа творческие нейронные сети, правда я еще до сих пор не нашел первую работу...
417 2573466
>>573444
разобрался с теорвером, статистикой, питоном (с пандас, сиборном и т.д. библиотекам), SQL, поработал аналитиком данных несколько лет, подучил ML, набил портфолио на кегле, отправлял cv на все вакансии, какие находил
2.png1,2 Мб, 1070x1196
Всем сап, хочу постить картинки в телеграм нейроновые, рендерить на 1060 6gb 418 2574300
Приятно видеть, что тред живет, потому что я залетуха и надеюсь на вашу помощь.

Сам я девопс, просто траю питон

Хочу использовать Dall e или аналог (причем я точно помню, что было что-то аналогичное)

Есть комп с i7 10400 и gtx 1066 или это возможно только на всяких тесла и тд?
419 2574302
>>574300
На пике я траил какую-то нейросеть в google cloud
русский язык не обязателен
420 2574334
>>574300
Есть раздел /ai/, там есть тред по генерации картинок.
Генерация возможна, но будут выходить картинки где то 1280*720.
Разрешение можно повысить, но генерация будет дольше.
421 2574529
>>574293 (Del)
Не, там твоя мамка последнюю вакансию заняла
422 2574636
Продублирую из ньюфаготреда, помогите пожалуйста:
Сап, если что я студент, так что не бейте палками, задача следующая: надо сделать парсер текста резюме на питоне, пока что только для вычленения основных полей: ФИО, контакты, основные умения, но в дальнейшем ещё места работы, список сертификатов и тд.
И я вот что то запутался, как это эффективно сделать. Подойдут ли для такого библиотеки natasha, nltk? И стоит ли пытаться внедрить сюда ML?

Если внедрять ML , то надо делать разметку каждого слова к чему оно относится по категории, или достаточно блоки разметить?

Вообще по идее же например телефон можно регулярками достать, но вот как допустим заставить понять, что Горэлектротранс - это место работы?
423 2574641
>>574636
Погугли NER, можешь посмотреть ещё AutoNER от Сбера.
Natasha умеет вытаскивать организации (у ней внутри нейронка)
Можешь понаписывать правил с помощью Yargy
Если упороться, то можно и одними регулярками обойтись
424 2574666
>>574641
Что же, значит я хотя бы в сторону нужных либ смотрел, спасибо
425 2575518
Двач, спасай! Нихуя не пойму в этих нейронках.
Короче есть вот такие вот длинные документы (их около тысячи штук):
https://www.sec.gov/Archives/edgar/data/1849380/000110465921033749/tm218584d1_s1.htm

Задача:
Выудить нужную инфу (например, сколько акций выпущено, какой размер dilution, какая юрисдикция компании и т.д.). Я пробовал парсить regex'пами - но он как-то равно криво работает, из-того что нет единого формата. Также, нужно делать краткий пересказ - чем компания вообще занимается.

В общем решил попробовать нейронки, вручную обучить модель. Нагуглил NER, открыл AWS SageMaker, загрузил туда порядка 700 мегабайт текстовых файлов. Чтобы вручную проставить метки, он говорит типа 800,000 символов слишком дохуя, можно максимум 100,000.

Что делать? Уменьшать количество данных? Отказываться от SageMaker? Или как это вообще правильно делается?
426 2578360
>>574641
Ner работает только с текстом? У меня похожая проблема, но нужно документы автоматически классифицировать и делать так, чтобы нейронка смотрела на определенные участки текста, что уже потом можно скормить OCR и из этого запилить название документа, вроде АКТ N 488 от Нейм или УПД или СЧ
427 2578362
>>578360
Можно, конечно, сразу в OCR скормить, но я чувствую, что она зафейлится в некоторых случаях, ибо иногда могут край страницы неотпечатать и т.д
428 2578368
>>575518
обратитесь к Вашему менеджеру https://aws.amazon.com/ru/premiumsupport/plans/
429 2578457
Стоит задача генерировать человекоподобные лица, дохуя, тыщ 30. Может уже готовое решение есть?
430 2578816
>>578457
https://www.thisdickpicdoesnotexist.com/

ой, я хотел сказать https://www.thisdickpicdoesnotexist.com/
Ну ты понел схему? берешь готовое и переучиваешь
431 2579215
А что из публичного OCR является лучшим? Вообще, имел очень хороший опыт с обычной конвертацией изображений документов в гугле.
Но это как-то не очень солидно, есть что сравнительно такое же хорошее для русского текста? Тессеракт говно ебаное, не предлагать
432 2580273
>>579215
Проверил возможности яндекс vision api, ну короче тоже кусок говна, который сомнительно работает, возможно есть способы препроцессинга, который могут улучшить, но я чет сомневаюсь
433 2580279
>>580273
попробовал бинаризировать, все еще работает как говно
434 2580356
В софтаче спрашивал про прогу, которая сама сортирует изображения и присваивает им теги на основании содержимого, посоветовали обратиться к вам. Собственно что мне нужно я уже написал, был бы очень благодарен за помощь.
435 2580384
>>580356
Знаю подобную прогу, но она по большей части для аниме картинок.
436 2580467
>>580384
Мне пойдёт. Название только скажи.
437 2581594
>>580356
CLIP любой подойдет
вроже даже у сбера свой был
438 2581747
>>579215
Короче, посоны, самое лучшее из доступных OCR - это google documents, вот без пизды.
У тессеракта как была хуевая производительность, так она и осталась хуевой.
Abby из новых версий вроде неплох, abby 14 версии говно.
Яндекс не может в документы и часто не может идентифицировать текст как текст, собственно.
439 2581751
>>581747
Вообще, нахуя тессеракт до сих пор существует.
В сети есть доки вроде этого https://cyberleninka.ru/article/n/provedenie-sravnitelnogo-analiza-attention-ocr-i-tesseract-v-zadache-raspoznavaniya-simvolov-na-izobrazheniyah-preyskurantov/viewer
Где буквально рандомы на датасетах берут модель с атеншионом и унижают тессеракт на датасете.
440 2581799
Добрый вечер, пишу сюда второй раз, первый писал примерно пару дней назад по поводу парсинга резюме.Сейчас имею следующую картину: на вход подаётся текст. ФИО, контакты, ссылки извлекаются.Встрял на извлечении желаемой должности.

Может быть вариант вроде

Вася Пупкин. Какой-то текст Желаемая должность: дворник

А может и просто

Вася Пупкин Дворник

Как ее извлечь, если регулярка не походит, а natasha, nltk, spacy не дают стабильного результата? Также пытался найти какой нибудь список профессий, но ничего, кроме списка различных it должностей , не нашёл. Как можно решить эту задачу? С организациями такая же проблема, но пока хочу извлечь желаемую должность.
Диаграмма без названия.drawio.png14 Кб, 621x191
441 2582081
Сап аноны, есть датасет, в котором, если у строки поле "тип" равно 1, то значения имеют все атрибуты, кроме последнего, но если тип не 1, то все атрибуты NaN, кроме последнего (приложил пикчу)
Вопрос - как справляться с NaN?
Я так понимаю, чтобы они не влияли во время обучения, их надо просто занулить. Однако я собираюсь использовать Binary Encoder для кодирования категориальных признаков и в таком случае 0 не будут путать сеть? или учет NaN как одного из значений кат признаков решит эту проблему?
442 2582387
Господа, про численные методы сюда вопрос задать можно? Слышал, что кто-то относит их к машинному обучению. В доску про математику (в алгебру) написал, но доска мертвая какая-то
443 2583678
>>582387
этот тред тож мертвый
445 2584768
Есть какой-нибудь инструмент, чтобы вращать страницы с текстом в правильное направление?
Vp1Grafik.png21 Кб, 640x480
446 2584853
Аноны, приветствую.
Необходимо написать сеточку на диплом (программирование не основное направление образование)

В чем цель сетки: Есть график (пикрил), в нем есть резкий скачок. Нейросетка должна определить этот скачок и определять его длительность.

Что почитать/пройти, чтобы не особо вдаваться в суть?
447 2584989
>>584768
Ну нахуй, в очередной раз попробовал заюзать тессеракт и угадайте? Это говно не работает.
Пойду попробую самостоятельно натренировать нейронку
448 2586165
>>584853
Чел, скажи, ты даун?
Зачем тебе нейросетка скачок один определять?
Дрочишь мясорубкой?
449 2586467
>>580356
Тулза на основе CLIP, которая после минимального допиливания оттагает тебе коллекцию картинок любым произвольным тэгом:
https://github.com/yurijmikhalevich/rclip
450 2587267
>>584853
Двачую анона выше.
В одной известной библиотеке для научных вычислений одного небезызвестного языка есть функция, которая буквально тем и занимается, что детектирует пики. Оставляю задачу поиска этой функции на домашнее изучение студента.

А теперь побугурчу.
Как же раздражают тупые дебилы, которые пытаются машинку прикрутить ко всему нахер. Вот у меня в практике был буквально такой же случай. Ыыыыыы ну типа вот у нас спектры, там пики, надо пики найти и площадь посчитать, мы тупые ретарды не смогли нагуглить проги и либы, которые это давно и успешно делают с разными алгоритмами под все случаи жизни, а то что нашли, нам не нравится. Вооот.
В итоге челики хотели написать ПрОгРаМмУ с использование МаШиНа УчИтСя и опубликовать/продать. И после пары месяцев бурных обсуждений, я просто дал ссылку на обзор разных алгоритмов, и за полтора часа на тяп-ляпал кал, который на тех спектров, с которыми мы работали, аутперформил аук их кала на 0.2 с чем-то.

Если тебе задали написать сетку чтобы пик определять, то твои супервизоры - брейндед ретарды. Если ты сам это придумал, то иди лучше втулки точить на заводе.
В твоем случае задача имеет настолько тривиальную эвристику если все настолько выражено, что я не знаю кто-ты нахер если ты до нее не допер.
451 2587335
>>587267
>>586165

Спасибо, аноны.

Наука в аспирантуре как она есть. Конкурсы на внедрение нейросетей и всего такого. Роди идею ради идеи.

Задача сложнее на самом деле, идентифицировать пик как электрическую дугу. Только при дуге не всегда есть пик, или пик не всегда дуга. Для этого там уже графики тока и напряжения на других элементах цепи. Ну и по совокупности признаков надо принять решение дуга это или нет.

Но т.к. я энергетик и все эти нейросетки вообще не моя тема, решил, что быстрее спросить, чем несколько дней в тему вникать.

Мне уже объяснили, что это хуйня и сетку для этого делать не надо, хватит обычных методов Data Mining.

Завтра буду деду ретрограду пояснять что к чему.
452 2587365
>>587335

>Наука в аспирантуре как она есть.


Тебе повезло, что у вас в лабе нет человека, который кончал мехмат какой-нибудь.
Ему бы отдали всю "сложную" матешу, он бы тебе сделал калосетку, а потом тебе бы пришлось краснеть за него.
453 2588688
>>587365
Лаба...

Ты оптимист)

У меня есть мой ноутбук и пиратский софт с нулевым желанием заниматься всей этой фигней при таком обеспечении. Поэтому калосетку бы я писал лично, лишь бы от меня отъебались.
454 2590061
>>588688
Лаборатория здесь в смысле объединения ученых-копченных.
Ты и науч - уже лаба. Я грантово лабу оформлял буквально на 3 человек, один из которых дед на публикации, который ничего не хотел кроме как глушить водку на кафедре с корешами и придумывать простое доказательство теоремы Ферма.
Кароч. Дам тебе рекомендацию сразу. Для большинства задач нейросетка - это оверкил. Чем раньше ты убедишь в этом деда, тем лучше.
Плюс, если это научное заведение с профилем не в CS, матеше или непосредственно в ИсКуСсТвеНноМ иНтЕлЕкТе, то скорее всего даже с потерей в точности, результаты более интерпретируемых подходов будут больше с руки.
У одноклассника, когда он защищал магу на физфаке, его супервайзор дрочил обеими руками на нейросетки, и пытался агитировать всех их делать. В итоге, когда днокл принес ему веса, дед сказал: "Че за говно? что с этим делать? Хорошо предсказывает? Предсказывает что?"
И все в таком духе.
455 2591135
456 2591136
привет хочу написать капча солвер что почитать?
457 2591160
>>591136
гугл
458 2591180
Стоит читать?
459 2593016
Нейроночники, у вас же вакансий нет, что вы там учите
460 2594109
Что почитать на тему работы чатботов по условиям если-то ? Пишу своего, не хватает готовых моделей, велосипеды делаются
461 2594567
>>593016
чатгпт по-твоему кто сделал?
462 2596287
машобщики, мне всю телегу завалили ультрареалистичными аудио с голосами популярных актеров
что это и можно ли локально запустить?
463 2596327
>>591180
Бабушкин говорил вторая норм, там типа азы, но я её уже год откладываю, го вместе её осилим, тг @bravednn
464 2596801
>>596287
Это tts затюненый на конкретных людей. Скорее всего fastpitch. Учить надо будет дня три..пять. Попыток будет сильно больше 10.
Если хочешь быстрее, ищи на гитхабе voice cloning. Я пробовал года два назад https://github.com/CorentinJ/Real-Time-Voice-Cloning работало на русском плюс-минус сносно, сейчас должны быть инструменты поновее.
465 2596834
Приветствую.
Никогда не имел дела с нейронками, но кажется сейчас они могут пригодиться.
Есть два графика, которые по форме похожи, но периодически расходятся. Расхождение коррелирует с графиком третьей переменной. И хочется подобрать формулу от этой переменной, которая бы нивелировала разницу первых двух графиков. Можно ли это сделать нейронкой или может матлабе под это есть что-то?
Заранее спасибо.
466 2597573
>>596834
Можете уже не отвечать, вспомнил про линейную регрессию.
1446990749772.jpg124 Кб, 320x450
467 2598293
468 2598314
>>598293
Расстреляйте товарища!
469 2598433
>>598293
Если кто хочет слушать: первая половина это его биография, можно скипать. Дальше его заносит в конспирологию. "Не знаю кто" (злые жыдомассоны) хотят сжить со свету род людской, не знаю зачем (чтобы уподобиться богу). Не понятно, как это сочетается. Кароч, типичный совок с признаками ваты в голове (не удивлюсь если он клозетный зешник) пытается в рассуждения на гуманитарные темы.
Говнецом от него немного попахивает, ну в плюс можно записать что хоть не за массовые расстрелы и гулаг, и удержался от упоминания хохлов (может вырезали).
image.png123 Кб, 1238x918
470 2598855
Сап аноны, пилю что-то наподобие automl в tf (перебираю оптимизаторы и лоссы и сравниваю, какая модель лучше), возникла проблема. После обучения моделей они все выводят константный результат, если обучать по отдельности, то всё ок. Как я понимаю, проблема в том, что в tf надо как-то указать, чтобы обучалась совершенно новая модель, а он скорее всего подтягивает графы с предыдущих сессий обучения и переобучается. Пробовал backend.clear_session() не помогло. В чем проблема, аноны, и как её решить?
Прикладываю пикчу, как это выглядит сейчас
471 2599305
>>598855
Там гемор с этим. ТФ вообще ужасный фреймворк. Легче всего будет полностью рестартовать питон на каждую модель. Иначе будешь ловить баги пока не надоест.
473 2602477
>>573466
Как выбивать медальки на кеггле
474 2602608
>>602477
обрати внимание, он ничего не сообщал про медальки.
475 2603565
>>598293
Бизнес руками студентов провалился - стал коммунистом
476 2603577
>>598433
Либерашка, не хрюкай.
477 2604400
Где можно почитать обсуждения тех, кто шарит в теме?

Суть такова, нужно группой готовых решений выполнить следующее: заменить лицо на фото (предварительно сгенерировав), заменить текстовые данные на объекте на фото.
Если есть возможность менять позу, фон. Апскейл и т.д.
Получать из одного шаблона сотни нужных уникальных фотографий, это возможно, осталось понять как.
Желательно бесплатно и без ебли с фотошопом самому.
478 2606218
Сап двач

Подскажите сколько времени нужно что бы вкатится на РАБотку?
Исходные данные:
кун 18 лвл
Знаю Питон (писал несколько ботов)
Есть некий опыт работы с алгоритмами
479 2607098
>>604400
Анон, подскажи.
Учу ML. Треню нейронку на звуке, датасет - 320 wav файлов, длиной по 50к-200к + семплов. Как лучше организовать загрузку в память? Просто порезать на отдельные файлы размером с датапойнт, или есть решения лучше? Попробовал memory mapped arrays, но работает в 10 раз медленнее в сравнении с одним батчем, загруженным в RAM.

Так же, поскольку GPU осталась в России, трейню в колабе. Непонятка с num_workers возникла. Колаб ругается если ставлю больше 2 воркеров. Ну и действительно, 4 - работает, но прироста не даёт, так же 8. Посмотрел проц, который дают - вроде должно работать. Чего я не понимаю?
480 2607324
>>607098
Сделай себе в России Zerotier и заходи по ssh
481 2607347
>>606218
Видел выступления чувака который с 0 за 7 месяцев дошёл до грандмастера на кегле, там уже считай устроился.
482 2607949
Есть какой нибудь чятик в тг по теме?
483 2609825
>>607949
Нет
484 2610413
Что-то за пару дней получилось впитать себя информацию чуть ли не с нуля, вплоть до диффузионок и трасформеров. Чую мой моск сейчас взорвется.
485 2610469
>>610413
Надо было не впитывать, а следовать методу Фейнмана.
486 2610627
Есть вопрос по железу для маш. оба.

Сильный ли профит от большего кол-ва CUDA ядер?
На AMD сетки учить не получиться? Там вроде какой-то форк был, но создателям дали по голове и он не развивается.

Что важнее в обучении на ЦПУ? Частота или кол-во ядер?
487 2611670
>>610469
Я не то чтобы прям следую этому методу, но даже если бы следовал бы, то написал бы точно такой же пост про впитывание, так что не совсем понимаю, к чему это ты.
488 2613790
>>610627
При обучении на ЦПУ важнее число ядер. Так как для того, чтобы зайти на Гугл колаб, нужно будет воспользоваться браузером. А для стабильной работы браузера важнее число ядер.

Не знаю, что важнее. Но, если есть возможность, пользоваться колабом, то пользуйся им. Гпу быстрее где-то на два-три порядка.
489 2615610
Какой проект по МашОбу можно сделать что бы не стыдно было его показать хрюшам (для портфолио)?
Что вообще не плохо было бы иметь в портфолио студенту после завершения учебы?
490 2615651
Во всех гайдах по mixed precision в pytorch, приводят один и тот же код:

> with torch.cuda.amp.autocast():


> loss = model(data)


> scaler.scale(loss).backward()



и я не могу понять, откуда вторая строчка. Схуяли model(data) будет возвращать loss? Объясните плз, или ткните в нормальный гайд плз.
491 2615678
>>615651
Нашёл ёптабля:
https://pytorch.org/docs/stable/notes/amp_examples.html

> with autocast(device_type='cuda', dtype=torch.float16):


> output = model(input)


> loss = loss_fn(output, target)

492 2615888
>>615610
Классификатор NSFW/SFW.
493 2616245
>>615610
Грандмастера на кагле.
494 2618310
>>545799

>Условный градиентный бустинг показывает в задачах регрессии и классифицикации при прочих равных похожие результаты с нейронками. Так смысл тратить время на архитектуру нейронки, если бейслайновое решение обычным МО будет не сильно хуже?



Ну приехали. Взял и таблички обобщил на всю индустрию.
В вижне условный градиентный бустинг это HOG с вручную инженереными фичами, в текстах это, блять, даже не хочу думать про бустинг в текстах.

Нейронки это реально революция, проблема в том что далёкие от темы люди сделали нейронки ебучим баззвордом и теперь быдло думает что это магические вещи уровня сильного ИИ.
495 2618313
>>598293
Всегда знал что он умный мужик.

мимо ШАДовец
496 2618500
>>484578 (OP)
Анон, как применять ML для анализа логов/метрик?

Бекграунд: бекендщик-сишарпист на основно работе, знаю питоний на уровне мидла. Прочёл пару книжек по ML, выяснил кто потонет на титанике, поклассифицировал лепестки ирисов и нашел недооцененные дома в нуйорке.

Теперь я хочу применить свои познания в ML в реальном проекте (платформа для торговли криптой), и чот не пойму, с какой стороны подойти. Пох на сам трейдинг, интересует пока чисто эксплуатационная часть проекта - типа упадёт ли сервис/система, или что там ещё может произойти?

У меня есть логи по всем сервисам типа
"Timestamp: 123570983247052, App: Service1, Level: Error, MessageTemplate: Somethinп went wrong in {ClassName}, Properties.ClassName: MyBuggyClass, Exception: ..."
Есть метрики по всем сервисам (типа сколько памяти в данный момент жрёт, сколько сообщений и в какой очереди отправлено или принято, и тд).

Я могу завернуть всё это добро в любой формат (csv, json, что угодно), сждойнить/транспонировать/агрегировать/etc.

Но я не пойму, как мне это использовать, чтоб предсказать падение сервиса. Чисто эмпирически/постфактум я могу пошерстить логи и понять, что вот после данной последовательности сообщений в логах сервис упал. Ну охуеть. А как мне понять, что сервис упадёт в будущем?

Я понимаю, что тут нужны какие-то timeseries-analysis, но чот не нашел примеров для вкатунов по анализу логов для этой штуки.

Посоветуй плз какие-нибудь материалы/примеры на кагглах/гитхабах, молю!
497 2619050
>>618500
Начнём с самого очевидного - если вам нужны ML модели предсказывающие падение написанной вами же системы, то это крайне хуёвая система, её надо чинить а не предсказывать когда она жидко пёрнув обмякнет.

Но если ты всё таки хочешь себе пет проект, начни с чего-то простого.

У тебя есть множество временных рядов для каждого сервиса, по ним ты можешь наинженерить фичей (так и гугли - time series feature engineering), по фичам ты хочешь предсказывать обосрётся ли сервис в ближайшие например 5 минут, это задача бинарной классификации.
Исторические данные у тебя есть. Для начала натренируй какой-то градиентный бустинг.
Че сложного-то?
498 2619137
>>619050
Да, это пет-проект.
Спасибо, анон!
без смс и регистрации 499 2621289
Кто-нибудь знает где можно без проблем генерить картинки из текста - Midjourney?
Кроме того как создавать сервер на дискорде, приглашать бота туда, потом через браузер в инкогнито моде каждый раз переходить по ссылке-приглашению?
Есть попроще вариант без лимита чтоб? Ну или хотя бы чтоб лимит был не навсегда, а там в неделю.
50 картинок в неделю например.
500 2622150
Как вкатиться в ML?
Одни говорят грандмастера делать другие говорят что он для бизнес задач тобишь в работе нахуй не нужон и вообще мало кто про него знает, так что делать то, куда двигаться?
501 2622198
>>622150
Софт-скиллы качай. Чтобы чуять куда начальник хочет двигать бизнес и на это направление натягивать данные.
https://habr.com/ru/post/704938/
502 2624530
Реально ли вкатиться в 40+ лет?
Матобразования нет(вообще вышки нет) но так понимаю там используется примитивная математика типо тервера.
Программистом не работал, но как код пишется представляют, писал всякую мелочь типо ботов.
503 2624532
Реально ли вкатиться в 40+ лет?
Матобразования нет(вообще вышки нет) но так понимаю там используется примитивная математика типо тервера.
Программистом не работал, но как код пишется представляют, писал всякую мелочь типо ботов.
504 2624534
>>624532

>


>


Я так понял вакансий джунов нет, лучший варинат - тупо пет проекты пилить? Но нужно
505 2624642
>>624530
Нет, нереально. Увы, анон.
506 2624746
На связи веб-макака джуниор, сейчас вкатываюсь в машоб. Проштудировал "создай свою нейросеть" несколько раз, усвоил всю математику, реализовал простейшую распознавалку на тензорфлоу.
Однако, в том случае у нас классификатор. На входе картинка, а на выходе - одна из десяти цифр. Таким образом, выходной слой содержит всего десять нейронов.
Итак, вопрос: если я хочу распознавать капчу, то как должна быть организована нейросеть. Если там пять цифр, не может же быть сто тысяч выходных узлов? Может быть, пять раз по 10 узлов? Или еще как-то? Что гуглить?
507 2625222
>>624746
А, разобрался. По счастью моя конкретная капча простая и цифры расположены одинаково, так что можно разбить все надписи на цифры и распознавать их по очереди. Так что задача сводится к распознаванию каждой цифры. Даже, я бы сказал, к сравнению с оригинальными числами.
Скажите, какое было преобразование? Ферма? Ферми? Есть удобный инструмент для работы с картинками и сравнения? На днях видел статью, но потерял.
courses.jpg110 Кб, 405x460
508 2625402
Можно ли рассчитывать на позицию джуна с сфере МЛ если всё посмотреть?
509 2625497
>>625402
Нет
510 2626142
>>484578 (OP)

Привет, аноны.

Тян учится на этих ваших дата саентистов, смотреть как у нее ее хуита обучается по шесть часов на ноуте - просто боль. Хочу собрать ей пеку, но поскольку сам я джейсоны на беке перекладываю, то не совсем в курсе, что там у вас ценится. Я же правильно понимаю, что многококпок лучше, чем производительность на ядро? И что по видеокартам?

Заранее благодарю
511 2626229
>>626142
Надо любую невидию с овер 12Гб памяти. Память видюхи важнее производительности. ОЗУ побольше. SSD побыстрее. Проц в общем то пох какой, проц только датасеты причёсывает.
512 2626272
>>626142

Блэт, а я ей хотел свою 3070ти отдать, и себе 4090 взять. 8гиг прямо мало, да?

Хотя думается мне, что это всяко лучше чем вега-встройка на ноуте.
513 2626274
>>626272
>>626229

Промахнулся
1591141649504.png107 Кб, 2351x447
514 2626867
Как эту пидорасину на торче профилировать? ЦП на чилле, на GPU аж кульки останавливаются. Ну я ёбнул простое профилирование, но время выполнения функций вообще ни о чём не говорит, профилирование через PyTorchProfiler тоже залупа. Как мне понять где боттлнек? Не верю что это по шине между GPU, я при сохранении обработанного датасета на диск получаю больше пропускной способности, чем при тренировке.
515 2628315
>>626142
В серьезных задачах нужно предобрабатывать (перед обучением) большое количество данных (по сравнению с оперативной памятью обычного игрового ПК) и делать это часто при поиске решения. Это может быть например занимать час, поэтому важно количество ядров процессора, чтобы все распараллеливать и сокращать это время до десяти минут, например, хорошо бы иметь 16-ядерный процессор, побольше оперативной памяти от 32 ГБ до 256 ГБ (зависит от серьезности задачи), 1 - 2 ТБ SSD, видеокарту 16 ГБ памяти минимум.
516 2628739
>>624530
от заказчика отталкивайся
сможешь вообще потом работу найти?
517 2629784
>>626142
>>626272

Вообще хорошо бы знать что именно твоя тянка там учит.
Если это модная нейросетевая дрочильня то 4090 лучше купи своей женщине а 3070 затычку себе оставь, VRAM оч нужон.
Но есть вариант что она дрочит классический мл - бустинги, деревья и вот это всё, и для этого собирают машину с кучей ядер CPU.
В любом случае ещё понадобится 64+ гб оперативки (ну это для комфорта) и быстрые SSD, чтоб затыков по IO не было.

Прочитал то что сам написал - бля, да дешевле её дропнуть будет.
518 2630037
После того как перевожу колонки категорий в One-hot encoding
количество колонок в X_train и X_test становиться разным, тренировать то я могу вот только потом my_model.predict(X_test) не работает...

# One-hot encode the data
imputed_X_train_card = pd.get_dummies(imputed_X_train_card)
imputed_X_test_card = pd.get_dummies(imputed_X_test_card)

(осторожно, длинно, после строки 56 размер колонок не совпадает https://pastecode.io/s/ao4s34ww)

Знаю что это база но я только начинаю
519 2630039
>>630037
скобка взялась в ссылку

https://pastecode.io/s/ao4s34ww
520 2630104
521 2630129
>>630037
Склеиваешь два фрейма, потом делаешь ванхот, потом разлепляешь. Ну очевидно же.
522 2630139
>>630129

>Склеиваешь два фрейма


Какие два фрейма склеивать? numerical и categorical?

>Потом разлепляешь


Для чего?

И еще, ванхот и Imputer делать после train_test_split, правильно?

Чето совсем запутался
523 2630150
>>630139
У тебя разбиение на тест и трейн такое что туда вошли не совпадающие наборы признаков.
Например, в трейн попали семплы у которых встречаются значения фичи {'a' 'b' 'c' 'd' 'e'}, и ванхот закодировал из в 5 разных бинарных признаков.
А в тест попали семплы со значениями фичи {'a' 'b' 'c' 'f'}, и ДРУГОЙ ванхот кодирует их в 4 бинарных фичи, которые ещё и разный смысл имеют.

И тест и трейн ты преобразовывать одинаково, а потому эту категориальную фичу должен кодировать один и тот же кодировщик который знает про все возможные значения категориальной фичи во всей генеральной совокупности.

В контексте соревнования это легче всего сделать сложив в одну кучу все семплы, преобразовав их, а дальше растащив их обратно на трейн и тест.
524 2630154
>>630150

>в одну кучу все семплы, преобразовав их, а дальше растащив их обратно на трейн и тест.



1) frames = [test, train]
result = pd.concat(frames)
Так нормально будет?

2) ванхот.

3) Разделять обратно по индексам думаю.
Допустим в трейне 5 а в тесте 4 семпла то после pd.concat будет 9 семплов (One-hot же не добавляет доп. строки). Когда буду разделять, просто возьму первые 5 в трейн и остальное в тест, что бы исходные трейн тест сеты получить, сработает?
525 2630162
>>630154
Да, так сработает.
526 2630170
>>630162
Да, сработало. Но ошибка (MAE) еще большевата.

Теперь хочу вставить не хватающие значения фич в X_train и X_valid, не уверен нужно ли для X_test тоже добавлять.
Вот так:

>Impute missing values with median(for numerical cols) and most_frequent(for categorical cols)


В numerical cols я еще смогу добавить а что с categorical делать, их нету больше? После ванхота они удалились
527 2630173
>>630170
Input missing ты делаешь до ванхот энкодинга.
Трейн и тест ты всегда должен обрабатывать единообразно. Можешь представить что сначала ты обрабатываешь все семплы сваленные в кучу а только потом часть из них отбираешь как тестовые.
528 2630213
>>630173
Сделал Impute missing и ванхот, всё зря, результат не улучшился, только MAE улучшилось на очень маленькое число а score на каггле даже хуже стал.
529 2630234
>>630213
С GridSearchCV поискал параметры поднялся на сотни мест вверх.
А эта штука затягивает, не знаю даже хороший это признак или нет)
Скоро буду ненужные фичи искать и дропать их.
530 2631923
>>598293
У Воронцова на ноябрьской конференции в МГУ по ИИ студентка работу по дискурсивному анализу хейтспича Арестовича представляла.
Как же я рофлил тогда.
531 2633503
Перестали отображаться вкладки в левой боковой панели на chat.openai.com Пробовал на разных браузерах, отключал блокировщики рекламы, чистил кэш и тд. Написал сюда потому что не знаю куда ещё
1652899351686.png213 Кб, 1576x635
532 2633807
Тут кто-нибудь в GAN разбирается? Тренирую апскейлер с ним, всё как положено - комбинирую с L1 и perceptual loss, для дискриминатора сеть UNET. Но почему-то ломается цветокоррекция пикч. За 5000 шагов желтеют, к 10000 уже просто желтые квадраты высерает. Что за говно? UNET пикрилейтед, активации LeakyReLU. Где я мог обосраться?
533 2636890
>>633807

Если используешь opencv у них brg вместо rgb используется. Возможно в этом проблема.
534 2637232
>>626867
Я нубасик. Профайлеры пробовал, мне тоже не понравилось, поэтому я тестирую перформанс поэлементно. Отключаю разные части пайплайна и смотрю как меняется скорость. Иногда беру отдельно - например, генерю большой массив в CPU RAM и перекидываю его на GPU, или обучаю на синтетических данных, чтобы посмотреть скорость непосредственно перемножения матричек и автоматического дифференцирования моей архитектуры.
535 2638330
Здравствуйте, такая ситуация, есть одна шарага, в ней проводится практический экзамен со стендами. Там типа студент заходит в аудиторию с видеонаблюдением и говорит я Ерохин Иван сын Исильдура специальность тракторист - гоидист. И начинает со стендами экзаменоваться. И таких студентов там сотни.

Так вот, моя задача, взять после экзаменов видеозапись за всё три экзаменационные недели и тайминг проставить, где с какой минуты и секунды какой студент начинает.

Подскажите, как можно автоматически компьютерным зрением автоматически тайминги проставить, что на такой-то минуте и секунде заходит в аудиторию экзаменуемый? И с аудиозаписью ту же хуйню сделать, задетектить тайминги, когда прозвучит та ожидаемая фраза я Ерохин Иван сын Исильдура специальность гоидист тракторист.

Что учить по теме компьютерного зрения? Какую пистоновскю библиотеку использовать в первую очередь?

Требуется не в реальном времени это сделать, а уже потом когда будет видоезапись всего действа - уже после этого видеозапись через самописную программу пропустить чтобы получить тайминги. То есть нужна программа которая будет определять что в таком-то кадре через порог аудитории переступило человеческое тело

И список студентов и специальностей заранее уже есть, то есть аудиозапись надо будет проверить на уже заранее известные ФИО и специальности.

УМОЯЛЮ ПОДСКАЖИТЕ КАКИЕ БИБЛИОТЕКИ ИСПОЛЬЗОВАТЬ ПИСТОНОВСКИЕ А???!!!! УМОЛЯЮ ПОДСКАЖИТЕ!!!

З.Ы. я спросил через телеграм бота который имеет связь с чатгопотой по своему вопросу, бот ответил что на выбор 8 есть библиотек, выбирай:
1) OpenCV
2) TensorFlow
3) Dlib
4) PyTorch
5) Keras
6) Darknet
7) Detectron2
8) YOLOv5 (PyTorch)

таки подскажите какую из 8 выбрать?
536 2639322
>>638330
Я бы просто кропнул видео и потом по диффам между кадрами смотрел когда там зверь появляется. Тут тупо ffmpeg хватит.
По голосу луркай vosk-asr. "специальность" распознает прекрасно, а вот всякие "Махмуды Мадиновичи" надо будет руками подправить. Тебе их корректно вообще никто не распарсит.
537 2639482
Возможно тупой аовпрос ,но. Обучаемая модель неправильно воспринимает данные. Не как матрицу, а как список строк. Что делать то?
538 2639507
>>639482
Компьютер воспринимает матрицу как вложенные друг в друга списки.
539 2639512
>>639507
Так оно и предсказывает по строкам матрицы, а не по самой матрице в целом.
540 2639767
Помогите с домашкой плиз
Объявите вещественные тензор x размера (3, 4, 5) и тензор y размера (2, 6, 3), иницилизируйте их равномерным распределением.

x = torch.FloatTensor(3, 4, 5).uniform_()
y = torch.FloatTensor(2, 6, 3).uniform_()

Создайте их копии на GPU,
x_cuda = x.cuda()
y_cuda = y.cuda()

выведите их сумму и разность
Как их можно сложить? в одном 40 значений, во втором 36
В ответе 80 значений, размер (4,4,5)
541 2639782
>>639767
Ошибся, в этом тензере (3, 4, 5) 60 значений конечно же

Я думал что возможно x можно решейпнуть и 12 значений перекинуть в y ( y тоже решейпнуть перед этим)
Но все равно получится в x и y по 48 значений , а в ответе 80 значений
542 2639946
>>639322
Спасибо большое, попробую так сделать
543 2641207
На что смотрит эйчар? На проекты Kaggle или что-то ещё?

Учу потихоньку курс https://www.deeplearning.ai/courses/machine-learning-specialization/, материал и объяснения вроде как понятны. Теперь бы найти практику для портфолио.
544 2641380
Здравствуйте, подскажите пожалуйста какой нейросетью воспользоваться, чтобы мутное фото в котором текст на русском языке стал читаемым?
545 2641616
>>641380

>чтобы мутное фото в котором текст на русском языке стал читаемым?


Если ты его сам глазами не можешь прочиать, то никакая нейросеть не прочитает. Пробуй крути фильтры/уровни в фотошопе. Ну ещё какой-нибудь из сврёточных deblur-ов.
546 2642878
Кто нибудь может помочь с домашкой по персептронам?
class Perceptron_ReLU - не обучается модель
547 2642958
>>642878
Функции активации
"Реализуйте сигмоиду и её производную"
https://pastecode.io/s/6mdpwdha
Ёе я худо-бедно сделал
А потом нужно сделать ReLU
Задание:
https://pastecode.io/s/j507873d
Моё не работающее решение:
https://pastecode.io/s/k4vm6zxr
Ткните носом в ошибку, плиз
548 2643122
>>641207

>На что смотрит эйчар? На проекты Kaggle или что-то ещё?


>Учу потихоньку курс https://www.deeplearning.ai/courses/machine-learning-specialization/, материал и объяснения вроде как понятны. Теперь бы найти практику для портфолио.


Сначала на опыт работы, потом на соцскиллы. Все остальное вторично.
549 2643145
>>642958
У тебя например непонятно что такое X и y в строке losses = perceptron.fit(X,y). Откуда вы их берете?
И вообще надо было сказать, что именно у тебя не работает.
550 2643168
>>643145
Там в первой ссылке решение сигмоида, там назначаются X,y
Потом нужно построить ReLU
Self.w изначально инициализированы нулями по условиям дз , в 3 ссылке , в 29 строке
Обучение не происходит, на графике прямая линия , accuracy 0.5
Нужно заинициализовать случайными данными
в 3 ссылке , 54 строка
У один хрен обучение не проходит
по второй ссылке изначальное дз, нужно заполнить производные dw и db

Походу все равно не понятно
Могу вечером файл скинуть с дз целиком скинуть
41341356.png41 Кб, 867x596
551 2643190
>>643168
Ну смотри, я сделал две вещи: закомментил первые две строки в функции fit как попросил твой препод, запустил обучение, увидел, что losses улетают в небеса, обычно это означает высокий learning rate, зашел в параметры функции backward и поставил learning_rate=0.0000005, и получаю вот такую картинку.
552 2643227
>>643190
Можешь скинуть что ты именно в fit сделал?

По заданию я должен именно в perceptron инициализировать случайными числами чтобы пошло обучение:

perceptron = Perceptron_ReLU(w=np.random.normal(0, 1, (X.shape[1], 1)), b=0)

Не возвращаться в class Perceptron_ReLU и меняя def fit
553 2643448
>>643227
В твоем задании написано:

>не забудьте закомментировать в классе инициализацию нулями


>в классе


А ты говоришь противоречивую вещь

>Не возвращаться в class Perceptron_ReLU

554 2643478
>>643448
Все, я разобрался.
Спасибо!
Просто я только пару месяцев питон ковыряю и думал что "закомментировать" это тупо комент через # написать
555 2644202
>>643122

>Сначала на опыт работы, потом на соцскиллы. Все остальное вторично.


А соцскилы это типа пришел на собес не в обосраных штанах? Смог пожать руку, а не с криком убежал?
Или это ебанный эмоциональный интеллект и эмпатия?
556 2644657
>>644202
Интересно рассказывать о неинтересных вещах (вроде результатов своей работы за год), доносить свои идеи коллегам и продавать бизносу/менеджменту, грамотно аргументировать свои действия/бездействие, убеждать кого-то что-то сделать/не делать, давать "полезный" фидбек, обозначать риски так чтоб их воспринял кто надо, помогать другим так чтоб и свою работу успеть сделать и чтоб на шею не сели, самому вовремя и грамотно обращаться за помощью, разруливать конфликты в сфере своих полномочий/ответственности, своевременно запрашивать и иногда выбивать нужные для твоей работы ресурсы, не болтать лишнего и при этом не слыть молчуном, посылать людей нахуй чтоб они оставались тебе благодарны и еще всякое такое.
И это так, чтоб никто большинство не захотело тебя выпиздить из конторы.

Список не полный, а большинство нанимающих смогут оценить только п.1 - умение красиво пиздеть. Еще часть могут проверить на испытательном, остальное - прост сделает твою работу легче.

Да, и чистые штаны на собесе и чтоб изо рта не воняло.
557 2644681
>>644657

>дрочишь матан, алгометрию, персептроны, чтобы не работать с людьми


>Главное качество на собесе умение красиво пиздеть


Пиздец, ты меня расстроил...
558 2646116
>>644681
Находишь себе компаньона который умеет красиво пиздеть
@
Запиливаете совместный проект и продаете кабанчикам
@
Профит
559 2646569
Анон, ты в работе используешь язык R?
Я чот взялся читать "чуть более полезные" чем "Машоб с картинками для школьников" книги (ISL, Forecasting), а там все примеры/упражнения на R.
Стоит потратить несколько вечеров на знакомство с R, или введения из этих книжек достаточно?
Или "там всё понятно" и можно на питоно-пандасе всё практиковать?
560 2646661
>>646569

>Анон, ты в работе используешь язык R?


Да. В плане статистики и более классических моделей рот дерет петухону.
А если ты еще и в stan можешь, то ты тупа статистическая махиня, тяночки-эксперементальщицы сами спрашивают у тебя разрешение отсосать, уважаемые академики руку жмут и зовут на все праздники в свои лаборатории. Бабушки в автобусах места уступают.
Точно не скажу будет ли у тебя также, но штука полезная, и имеет большое количество уже готовых пакетов на разные задачи. Как язык программирования для непосредственно программирования - достаточно душен и муторен, и разработка окупирована одним сойджак куколдом из новой зеландии.

В плане более серьезного МО R берет за щеку у петухона. Найти гибкий инструмент хотя бы для бустинга, настолько же удобный как в петухоне - проблематично, как минимум. Про удобство работы с нейросетками даже говорить не стоит.

Но, имей в виду, для большинства задач тебе функционала, который хорошо на R реализован будет достаточно.

R для статистики и более "простого" ML. Питон для более продвинутого.

>Или "там всё понятно" и можно на питоно-пандасе всё практиковать?


Зачастую вполне.
561 2646759
>>646661
Спасибо, анон!
562 2647924
>>639782

>размер (4,4,5)


>тензере (3, 4, 5)


Сложить нельзя
563 2648227
ODS помер.
Помянем.
Какие же Slack пидарасы. В рот их ебать, всех и каждого.
564 2648452
Как лучше всего представить фигуры, которые есть на картинке, для нейросети? Как их нужно скормит, в каком виде представив?
565 2650027
>>648452

>Как лучше всего представить фигуры, которые есть на картинке, для нейросети? Как их нужно скормит, в каком виде представив?


Нереально ответить на твой вопрос, зная, что ты только имеешь дело с какими-то картинками. Больше подробностей.
566 2650104
>>650027
Фотографии Простейших под микроскопом. Одноклеточных организмов короче.
567 2650117
>>650104
А задача в чем заключается? Классификация, сегментация?
568 2650315
>>650117
Классификация.
569 2650317
>>650315
Формально классификация. На деле там кластеризовать нужно.
570 2651030
>>648452

>в каком виде представив?


А в каких видах вообще можно? я серьезно, не троллинг
мимо гуманитарий ковыряющий ДС
571 2653089
>>484578 (OP)
Как надрочить йоба ИИ для игры? Кроме тупого ГА с нейронкой я ничего больше не знаю.
image.png274 Кб, 660x329
572 2654068
>>646116

>Запиливаете совместный проект и продаете кабанчикам


В конце оказывается, что проект записан на пиздуна целиком и полностью и в один момент пиздун заменяет тебя на более сговорчивого раба
573 2654954
Насколько актуальными в работе будут алгоритмы, описанные в книге 10-ти летней давности? Стоит поискать что посвежее на эту тему?
574 2654993
>>654954
Ты сначала хотя бы базу освой, потом уже выбирай.
Учитывая, что ты не стейтофарт парашу делаешь, маловероятно, что подходы посвежее тебе дадут какой-то более вменяемый результат.
575 2656027
>>651030
Бамп моему подвопросу ?
Я только про векторы - матрицы - тензоры знаю, как ещё можно сетке представить изображения?
576 2656263
>>656027
Нежелание узнавать базовые вещи тебя до добра не доведет.
Особенно в сочетании с неумением задавать вопросы.

Картинку можно представить в виде тензора размерностью nmk, где n*m - размер пиксельной карты, а к - число каналов (ну там красный, синий, зеленый). Воооот, гыч эть. Ну и соотвественно у тебя датасет сколько-то там таких кубиков картинок, (тензор на ранг +1), на которые, в том числе, можно и записать твои фигуры, и ты там дальше что-нибудь тыры тыры, там вот так, и оп-оп-оп, и классифицировал.

Ты лучше напрямую сформулируй свою задачу и скажи, что ты хочешь получить, и что ты планируешь подавать. Вербально. Будет сильно проще игры в шарады для всех участников этого процесса.
577 2656776
>>656263
Как кластеризовать изображения?
578 2656789
>>656776
Есть черно-белые контуры изображений. Необходимо их классифицировать и отсортировать по внешнему виду
579 2658856
Чому тред мёртвый? Слишком сложна или слишком нинужна?
580 2658996
Какие темы из математики требуется знать в качестве базы для изучения таких вещей как:
- распознавание печатных и рукописных текстов
- распознавание объектов на видео, а также определение перемещения объектов - например что объект пересёк какую-то область и затем покинул её
- анализ текстов, исправление ошибок

Какие темы учить надо по математике для этого? За пол года реально будет изучить? Или надо 10-20 лет дрочиться?
581 2659222
>>658856

Ну у нас же тут не ЛОХДЖОРНЕЙ и не КОНЧДЖИПЫТЫ.

А прикладная херня. Да и дрочка со скайнетом не всем интересна.
582 2659319
>>648227
А чё, даже не спарсил никто архивчик? Ну и датанюхи там у вас
583 2659438
>>656789
>>656789
Anticipated result?
На матрицу интесивности в чб примени k-means.
Ну или вытащи айгенвектор и по его знаку кластеризуй.
Что такое контуры изображений.

Или ты хочешь на классы разбить разные изображения?
В таком случае сделай трейн выборку, вручную назначь лейблы, и потом какую-нибудь простую сверточную сеть заюзай, и выбирай в качестве интересующего класса, тот у которого после вероятность больше.

Нихера не ясно, что ты хочешь сделать.
584 2660541
Ребят, слушайте тема немного оффтоп, но тут есть те кто стабильно пользуется чатом GPT из россии? Как вам удается, опишите поажлуйста схему.
585 2660553
>>659438
Контуры это контуры. Обведенная внешная часть обьекта. И подобное нужно кластеризовать.
586 2660643
>>660553
Выписываю тебя из интеллектуального клуба даунов-машобщиков.
Прошу покинуть тред и больше никогда сюда не писать.
587 2660960
>>660643
Почему? Скажи хоть причину увольнения? Слишком тупой?
588 2661387
Здесь есть перекатившиеся с других направлений программирования? Насколько машин лернинги сложны? Сколько времени ушло на обучение? Есть год коммерции на бэкенде.
589 2662520
>>660541
Включаешь впн и регаешься через виртуальный номер. Если пишет что твой емейл заблокирован, то зайди с приватного окна или почисти куки у сайта. После регистрации заходишь только через впн.
590 2664164
>>661387

>Здесь есть перекатившиеся с других направлений программирования?


Вкатун, но в машин лернинге имею некоторые успехи (набил competition expert'а на kaggle)

>Насколько машин лернинги сложны?


Не сложно, если ты окончил мехмат любого вуза, когда-нибудь перемножал матрицы, слышал на лекциях про градиентный спуск и можешь посчитать производную.

>Сколько времени ушло на обучение?


1.5 года дрочился на Kaggle, участвовал только в новых соревнованиях, мечтая занять первое место и разбогатеть, за это время очень много узнал об устройстве современных нейросетей, приходилось даже изучать статьи в arXiv'е, Если ты хочешь узнать как вкатиться на 300к/нс по этой сфере, то я сам не знаю. Впрочем, в нынешнее время я бы не советовал бросать тебе свою работу.
591 2664703
>>664164

>Не сложно, если ты окончил мехмат


>1,5 года для вката


Или я тебя не так понял?
Тред утонул или удален.
Это копия, сохраненная 7 апреля 2023 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски