Это копия, сохраненная 7 апреля 2023 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему такой фокус на нейронки?
Потому что остальные чистят вилкой данные в банках с помощью LGBTboost и им некогда предлагать обновления в шапку
Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся
Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus
Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/
Почему python?
Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python
Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет
Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" — на русском, есть примеры, но меньше охват материала
Франсуа Шолле — Глубокое обучение на Python
https://d2l.ai/index.html
Все книги и статьи фактически устаревают за год.
В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials
Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел
Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой
Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read
Где ещё можно поговорить про анализ данных?
http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь
Когда уже изобретут AI и он нас всех поработит?
На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга?
Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад.
Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Учу ml, работаю жабо-разрабом. Супер интересно перестать перекладывать джейсончики и хочется начать крутить нейроночки уже на работе, но так не хочется терять свои 300кк/сек
Хватит ли задрочить собесы? Сколько нужно нарезать проектов на каггле?
>Почему такой фокус на нейронки?
Вот я хочу научить чему-нибудь полезному неигровых персонажей в компьютерной игре. Но мне нужен не просто случайный набор действий, а понятная, контролируемая система, которую можно развивать (имею в виду, как любую программу - есть код, ты его пишешь, читаешь и понимаешь его смысл). Пришёл к выводу, что нейронки не могут в этом помочь, т.к. они не объясняют свои решения. Что толку от перемножения матриц, если это всё абстрактные числа?
Т.е. пришёл к выводу, что мне подходит только
https://en.wikipedia.org/wiki/Rule-based_system
Но забивать тонны if-else вручную оказалось весьма сложной задачей, учитывая то, что я понятия не имею, что мне вообще нужно получить - не знаю, какое поведение мне следует закладывать. Было бы лучше, если бы алгоритмы сами находили подходящие правила из набора заданных условий, а я бы эти правила мог прочитать и понять (т.е. это не могут быть веса нейронов).
Очевидно, не я один к такому пришёл:
https://en.wikipedia.org/wiki/Rule-based_machine_learning
Но возникает вопрос, где об этом найти какую-нибудь информацию, ну, хотя бы из любопытства?
Сам я думаю попробовать генетические алгоритмы - если правило А даёт плохой результат, вносим в него модификации и получаем новое правило Б, повторяем до наиболее удачного правила (не обязательно идеального). Можно присвоить всем правилам веса - как веса у нейронов - и регулировать их по результатам деятельности персонажа. Но, боюсь, что правила быстро выйдут из-под контроля - потеряют человекочитаемость. Хотя важный плюс - начальный набор правил легче установить вручную, в отличие от рандомных весов в огромной нейросети.
ИМХО, мне кажется это куда более важным направлением, чем любые нейро- технологии. Нейронки подобны обычному органическому мозгу - это воплощение хаоса, в котором невозможно разобраться. Мы создали компьютеры, чтобы они точно решали задачи по строгим логическим правилам. Так зачем мы симулируем первобытный хаос в виде нейронок? Не проще тогда взять обычный мозг и воткнуть в него электроды, чтобы он решал задачи вместо точного и логичного компьютера, раз мы не стремимся к точности и логичности? Ну, или вырастить нейроны в пробирке, если кого-то вдруг беспокоит этичность использования готового мозга. На компьютерах нейроны симулировать - всё равно что в уме длинные числа перемножать - извращение и кощунство.
>Почему такой фокус на нейронки?
Вот я хочу научить чему-нибудь полезному неигровых персонажей в компьютерной игре. Но мне нужен не просто случайный набор действий, а понятная, контролируемая система, которую можно развивать (имею в виду, как любую программу - есть код, ты его пишешь, читаешь и понимаешь его смысл). Пришёл к выводу, что нейронки не могут в этом помочь, т.к. они не объясняют свои решения. Что толку от перемножения матриц, если это всё абстрактные числа?
Т.е. пришёл к выводу, что мне подходит только
https://en.wikipedia.org/wiki/Rule-based_system
Но забивать тонны if-else вручную оказалось весьма сложной задачей, учитывая то, что я понятия не имею, что мне вообще нужно получить - не знаю, какое поведение мне следует закладывать. Было бы лучше, если бы алгоритмы сами находили подходящие правила из набора заданных условий, а я бы эти правила мог прочитать и понять (т.е. это не могут быть веса нейронов).
Очевидно, не я один к такому пришёл:
https://en.wikipedia.org/wiki/Rule-based_machine_learning
Но возникает вопрос, где об этом найти какую-нибудь информацию, ну, хотя бы из любопытства?
Сам я думаю попробовать генетические алгоритмы - если правило А даёт плохой результат, вносим в него модификации и получаем новое правило Б, повторяем до наиболее удачного правила (не обязательно идеального). Можно присвоить всем правилам веса - как веса у нейронов - и регулировать их по результатам деятельности персонажа. Но, боюсь, что правила быстро выйдут из-под контроля - потеряют человекочитаемость. Хотя важный плюс - начальный набор правил легче установить вручную, в отличие от рандомных весов в огромной нейросети.
ИМХО, мне кажется это куда более важным направлением, чем любые нейро- технологии. Нейронки подобны обычному органическому мозгу - это воплощение хаоса, в котором невозможно разобраться. Мы создали компьютеры, чтобы они точно решали задачи по строгим логическим правилам. Так зачем мы симулируем первобытный хаос в виде нейронок? Не проще тогда взять обычный мозг и воткнуть в него электроды, чтобы он решал задачи вместо точного и логичного компьютера, раз мы не стремимся к точности и логичности? Ну, или вырастить нейроны в пробирке, если кого-то вдруг беспокоит этичность использования готового мозга. На компьютерах нейроны симулировать - всё равно что в уме длинные числа перемножать - извращение и кощунство.
>начальный набор правил легче установить вручную
Приведу чуть более конкретный пример.
В контексте игры персонаж должен обладать каким-то конкретным поведением, это очевидно. Классический алгоритм мы забиваем вручную на любом императивном языке программирования, чтобы персонаж делал конкретные действия конкретным образом. Но такой код не будет изменяться сам - обычно именно это и нужно, но это не мой случай.
Нейросети в своей основе позволяют персонажу сформировать поведение путём считывания миллионов образцов поведения. Но где взять образцы поведения, если у нас нет готового персонажа? Да ещё и такие, чтобы не было лишней информации (шума). Т.е. выходит, что мы не можем задать начальное состояние нейросети так, как мы хотим, мы можем только закинуть случайных чисел и надеяться на то, что нейросеть сформирует поведение, близкое к желаемому. Мы можем прикрутить к этому генетические алгоритмы и спустя миллионы проб и ошибок получим нечто близкое к желаемому.
Но почему бы не совместить приятное с полезным? Написать базовые правила вручную, а дальше разрешить правилам меняться по ситуации, чтобы система могла сама создавать новые и удалять лишние правила, сортировать правила по значимости и эффективности и таким образом оптимизировать свою работу, опираясь на заложенные нами изначальные пожелания. В идеале, новые правила, созданные системой автоматически, тоже будут нам понятны, но даже в худшем случае мы можем хотя бы контролировать начальные правила.
С нейросетями это, насколько я знаю, невозможно, потому что числа на весах нейронов не несут в себе чёткого смысла, смысл есть только на входах и выходах, но не в скрытых слоях. Поэтому нейросети по сей день не показали ничего интересного, а вся работа с ними - перетряска чисел случайным образом. Меня интересуют альтернативы и что об этих альтернативах известно. А то сейчас слышно только о генераторах случайно упорядоченной информации на основе миллионов образцов - картинок, голоса, текста - но всё это не имеет отношения к моей задаче, ведь у меня нет и не может быть образцов (как не было примера для подражания у первобытных людей...).
>начальный набор правил легче установить вручную
Приведу чуть более конкретный пример.
В контексте игры персонаж должен обладать каким-то конкретным поведением, это очевидно. Классический алгоритм мы забиваем вручную на любом императивном языке программирования, чтобы персонаж делал конкретные действия конкретным образом. Но такой код не будет изменяться сам - обычно именно это и нужно, но это не мой случай.
Нейросети в своей основе позволяют персонажу сформировать поведение путём считывания миллионов образцов поведения. Но где взять образцы поведения, если у нас нет готового персонажа? Да ещё и такие, чтобы не было лишней информации (шума). Т.е. выходит, что мы не можем задать начальное состояние нейросети так, как мы хотим, мы можем только закинуть случайных чисел и надеяться на то, что нейросеть сформирует поведение, близкое к желаемому. Мы можем прикрутить к этому генетические алгоритмы и спустя миллионы проб и ошибок получим нечто близкое к желаемому.
Но почему бы не совместить приятное с полезным? Написать базовые правила вручную, а дальше разрешить правилам меняться по ситуации, чтобы система могла сама создавать новые и удалять лишние правила, сортировать правила по значимости и эффективности и таким образом оптимизировать свою работу, опираясь на заложенные нами изначальные пожелания. В идеале, новые правила, созданные системой автоматически, тоже будут нам понятны, но даже в худшем случае мы можем хотя бы контролировать начальные правила.
С нейросетями это, насколько я знаю, невозможно, потому что числа на весах нейронов не несут в себе чёткого смысла, смысл есть только на входах и выходах, но не в скрытых слоях. Поэтому нейросети по сей день не показали ничего интересного, а вся работа с ними - перетряска чисел случайным образом. Меня интересуют альтернативы и что об этих альтернативах известно. А то сейчас слышно только о генераторах случайно упорядоченной информации на основе миллионов образцов - картинок, голоса, текста - но всё это не имеет отношения к моей задаче, ведь у меня нет и не может быть образцов (как не было примера для подражания у первобытных людей...).
Сап анончики, а может кто-то учебники по матану посоветовать ?
Я только вкатываюсь, базис программирования доучиваю, по бесплатному курсу CS50, хочу в нейронки пиздец, пол жизни дрочу на них.
Алсо хочу спросить, стоит ли работать в каком-нибудь вебе или другом направлении перед этой сферой ? Чисто для опыта работы.
>учебники по матану
Фихтенгольц, задачник - Демидович. Можно вместо Фихтенгольца начать с Зорича, там более современное и строгое изложение, но скорее всего тебе это не нужно.
Я учу математику по справочнику Выгодского, какие подводные?
https://data.vk.company/static/core/pub/bigdata/docs/2020_MADE_Syllabus.pdf
Вот тебе хороший список, на два года неспешного изучения хватит.
Подскажите, какая нейронка пикчи в пейзажи превращает?
На санкаку нашёл. Что за дифьюжн не знаю.
Вот я определился с входным слоем и выходным, а между ними че пихать? Понятно, что я могу загуглить решения, посмотиеть чужие подходы в аналогичнвх задачах, а самому как допереть до этого??
>загуглить решения, посмотиеть чужие подходы в аналогичных задачах
К сожалению только вот это, универсального подхода нет. Ну то есть понятно, что архитектура в первую очередь зависит от типов данных, для каринок ты будешь скорее всего делать свертку, а для табличных даннных хватит нескольких полносвязных слоев. Но это лишь примерная архитектура, которую ты потом будешь допиливать эмпирическим путем. Попробуй сам поиграться с какой-нибудь простой задачей, stack more layers вот это все, постепенно появится минимальная интуиция, в какую сторону двигаться.
https://playground.tensorflow.org/
Кто подскажет как ща с МЛопсом в РФ дела?
Вижу только СберКлауд нормально делает.
>понимать какой текст лучше подходит под тему
Что это значит? У тебя есть набор текстов и тема, и тебе надо узнать, какие тексты из набора подходят к ней? Или тебе эти тексты надо генерировать для заданной темы?
Вот есть набор текстов. Есть предложение которое описывает кратко какое то подмножетсво. Например, есть тексты это все параграфы из школьных учебников, но под краткий пересказ главы литературного произведения (конкретного) подходит всего 1 параграф, под предложение "описание свойств планеты Земля" подходят почти все параграфы из учебника географии. И так далее
Примерно этим любой поисковик занимается.
Не спеши с ответом, подумой.
Тут кабанчик из Университета ИИ говорит что математика нинужна когда есть обширные библиотеки python
- ищу с кем можно было бы обсуждать/вместе разбираться в моделях, визуализации, фичах, нейронках и подобное
- сам я заканчиваю BCompSc, прохожу учебные курсы на каггле (осталось где-то 6), иногда возникают вопросы а обсудить не с кем, треды на форумах лень создавать
- моя цель это научиться решать задачи на каггле и получить гранд мастера через полтора, два года
- возможны дискасы в дискорде
телега: @bravednn
Если ты не понимаешь дроби, тебе в дурку надо или в интернат для умственно отсталых.
>Тут кабанчик из Университета ИИ говорит что математика нинужна когда есть обширные библиотеки python
Этот инфоцыган прав. В случае таких же макак, как и он сам.
Математика это такая вещь, которая нужна только тем, кто хочет создавать нечто новое. Новые технологии, например.
Чтобы хлебать смузи, клепать продукты на основе этих технологий и делать деньги, математика, очевидно, не нужна.
Ты просто тупой.
форель плавает в реке
Больше 0.5 чего? Попугаев?
Можно ли построить модель? Если в твоих признаках содержится достаточно информации, то можно.
С чтения шапки.
Это знать надо! Это классика!
Реквест скорее для /s/, но там вряд ли что-то посоветуют.
Есть годная опенсорс нейронка, которая определяет авторство большого (несколько десятков страниц) текста на русском?
а ты сам смог бы определить авторство текста?
если нет, то зачем искать для этого нейронку?
Подумой об этом прежде чем бежать к трясунам черных ящиков
Могу нахуярить хук в реакте. На работу возьмёте?
Ты тян или няшный кунчик? Тогда я не против дать побоксировать со своими причиндалами.
Вакансий нет.
Кто имеет уже опыт в этом деле, напишите сюда:
1) Входные данные, у меня смещения японских свечей в процентах, что было у вас?
2) На каком количестве слоев лучше обучение?
3) Функция ошибок Fitness какую задали? Я взял за основу минимизацию количества ошибочных трейдов, вместо максимизации профита, это дало огромный прорыв в обучении.
Ты сам погуглишь мнения почему это обычно не работает или тебе литературку подсказать?
Начни с "теория эффективного рынка" .
> Скачал книгу из шапки
Николенко что-ли? Ну так математик и считает строгость изложения превыше объяснений.
Рассказывай в какой области работаешь, а мы тебе расскажем как тут применять машоб.
Да, николенко. Я про результат, а не изложение. Ну просто нейросеть хуйню нагенерила у него там. Это не то, чего я ожидал
то есть, ты не работаешь с информацией и поэтому не сообщил об этом?
Ясно.
Да, тебе не нужны нейросети.
Да я не собирался вкатываться. Просто на досуге зашел, посмотрел примеры. Не впечатлило
Ну раз уж ты зашел, сообщаем, что ты кусок неайтишного говна и твое мнение здесь не интересно.
Доброжелательно
Пока каждый не начнет юзать сверх эффективные алгоритмы, это будет работать. Тебе просто надо быть чуть лучше других.
но ведь есть комиссии.
Им еще мы знаем, что есть и другие команды, которые много лет изучали настоящий рыночек, (просрали там все) легко применили свой опыт к отсталому крипторынку.
вот тебе книженция : Маркоз Лопес Де Прадо , Машинное обучение и алгоритмы для бизнеса.
Там ты подсмотришь несколько ситуационных приемчиков. Но не готовых идей.
Конечно, он не раскрывает добился ли он чего-то. Полностью темная книга. Можно сделать вывод только что он наебывал одновременно и инвесторов и американскую военщину долгие годы . И что эта затея - весьма сложная штука.
Нлпшники тут? Как сделать оффлайновый генератор случайных слов русского языка? По любому это как то пересекается с NLP который natural language processing, а не нейролингвистическое программирование, но что именно по шагам делать я не ебу.
Ну это понятно, а где норм список достать, и чтобы петухон его съел?
>>499895
Ладно, вроде какой то список нашел. Правда мне стемы нужны, видимо придется через стеммер прогнать и дупликаты удалить, но это я нагуглю как-нибудь я надеюсь.
https://github.com/danakt/russian-words/blob/master/russian.txt
Во, надо было сразу гуглить частотный словарь русского языка, там леммы только.
http://dict.ruslang.ru/freq.php
Тут в .csv можно скачать, то, что надо.
Зачем тебе Keras, если все айти использует tesseract и в ус не дует?
Там, между прочим, тоже нейронки.
Документ под наклоном сфотографирован. С бликами и таблицами. Границы таблиц с низу невидно становится. Tesseract не справляется. Или недонастроил. Поэтому решил Лeras попробовать. Нашёл в Keras.Recognizer Alphabet, но когда туда список русских символов подставляю-распознаёт какуюто дичь. Но уже на русском.
Один документ?
А с чего ты решил, что модельки в Keras обучали на искривленном тексте? Какая предпосылка работать лучше?
Лучше в фотошопе трансформируй документ.
Я понимаю, что ты ожидаешь что тебе по скринам исправят код, но мы не твои коллеги. Мы здесь чисто попиздеть.
Предположил, потомучто блоки текста распознаёт правильно. Походу я просто туплю гдето. Совсем не ожидаю, что по скринам ктото чтото поймёт-там же результат только. В фотошопе не катит-надо к интерфейсу на питоне прикрутить всё это.
Чел, шахматы перебором просчитываются, там интеллект не нужен.
Блядь, ублюдский сиборн...
> Ебучие пидарасы, математики блядь хуевы, какого хуя ваш алгоритм во всех источниках записан по разному и не работает блядь?
Долбоебина, а когда три разных быдлокодера пишут одну софтину, у них код одинаковый получается?
Ну так ты сравни документацию для десяти разных фреймфорков. Задачи решаются одни и те же, а методы и инструменты - разные.
Это не школьная задачка с одни красивым правильны ответом, это открытая проблема с бесконечным полем доступных решений.
>Это не школьная задачка с одни красивым правильны ответом, это открытая проблема с бесконечным полем доступных решений.
Какие нахуй методы и инструменты разные? Какая нахуй открытая проблема? Это готовый алгоритм блядь.
Спасибо какому-то ученому-геологу, который в своей работе привел код для матлаба. У этих математиков хуевых ошибки в описании, причем у каждого свои.
Имеется датасет поделенный на N частей. Загрузить их все одновременно не представляется возможным из-за его размеров. Вопрос: как правильно организовать обучение нейросети на этом наборе данных в keras. Если этими частями по несколько эпох сеть обучать - "перекоса" никакого не будет?
Можешь посмотреть, как пишут генераторы для кераса. Датасеты с картинками, аудио почти всегда динамически подгружают с жёсткого диска.
Типа того https://stanford.edu/~shervine/blog/keras-how-to-generate-data-on-the-fly
Если нет, то как подобную задачу выгодней всего решить на 2022?
Ни разу не реализовывал подобные приложения или алгоритмы, но интересовался. Извините если вопрос совсем тупой.
https://www.kaggle.com/competitions/imaterialist-fashion-2020-fgvc7/overview
Вопрос следующий, я посмотрел датасет и там кроме классов одежды на фото есть еще и атрибуты для каждой фотографии (см пикчу). С классами понятно как обучать, но как обучать распознавать еще и атрибуты?
Думал, мб каждый атрибут выделить в еще одну отдельную запись в датасете (тем самым избавляясь от массива), но тогда будет слишком много записей в дс.
Или мб сделать отдельно классификатор категорий одежды, а затем обучать отдельную модель как multilabel для атрибутов.
Короче говоря, анон, подскажи, буду благодарен
Сначала посмотри, что такое cv в целом, затем, что такое CNN, затем почитай про сегментацию и саму архитектуру U-net (осознай штуку с энкодер-декодер частью и зачем пробрасывать маски с пред. слоев).
Если честно, ничего сложного там нет. За месяц точно управишься со всем этим, если ебланить не будешь. Тебе должно помочь то, что для U-net уже есть куча реализаций (даже на торч готовая либа есть, pytorch-segmentation, вроде, где ты можешь в U-net свой энкодер добавлять)
>>506990
Датасет не смотрел, но да, выглядит как обычный мультилейбл (при реализации не забудь, что в мультилейбл может быть такое, что нет никакого лейбла у объекта)
Спасибо за ответ, попробую обучить
Kaggle очевидно же, много конкурсов на любую тему с открытыми современными решениями, практика важнее всего остального.
Практика это хорошо, только мне бы основы для начала изучить. Я не хочу скрипткидди быть, я хочу новое создавать.
Это математический анон, создавший теорию всего этого дела, которое макаки называют машинным обучением.
>Список дедовских книг для серьёзных людей:
>Trevor Hastie et al. "The Elements of Statistical Learning"
>Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
>Christopher M. Bishop "Pattern Recognition and Machine Learning"
>Взять можно тут: http://libgen.io/
Но, вообще-то, начни с книги Бишопа. У Вапника лютая теория, ты там не поймёшь нихера.
Все общие вопросы - Скиена, Наука о данных, 2017
Вопросы о pandas - книга от создателя pandas - Python for Data Analysis 3rd Edition .epub (Free)
DL - Deep Learning, Сейт Вейдман
"как вкатиться" ( в принципе мы догадываемся что ты там под этим понимаешь) - Data Science
для карьериста, Нолис, Робинсон, 2021
Нинасколько. А ты собираешься с ними судиться?
У тебя уникальный исторический шанс. Никакой Berkeley University тебя не засудит.
Воруй-убивай. Жди ответного гудка.
>в принципе мы догадываемся что ты там под этим понимаешь
Да всмысле, что за предъявы? У меня реально цель создать полноценную цифровую личность. Бабло конечно нужно, но оно меня волнует меньше.
Ты меня не знаешь
Для чего? Я не на экзамене.
https://www.youtube.com/watch?v=CoFvu-n-fFs
Достижение на самом деле значительное. Во-первых, любая нейроночка только и делает, что перемножает матрицы, и при обучении, и при работе. Даже самая мелкая оптимизация такой базовой операции - это заебись. А во-вторых, сам факт того, что нейронка нашла фундаментальное знание - это охуеть какое достижение. Тряска черного ящика внезапно привела к осмысленному результату в виде конкретного алгоритма.
Да не дёргайся ты, чмоня. Продолжай генерить цп и не залупайся на других.
Погуглил, нашел 2 книги. Первая 2004 года, вторая только платно за 10 долларов на амазоне.
Еще есть Behavioral Mathematics for Game AI.
> Но забивать тонны if-else вручную оказалось весьма сложной задачей
Так используй Prolog, он как раз для таких задач и имеет из коробки всё необходимое.
DCG, CHR, логический вывод, и много других фич.
В бизнесе и науках (биология, социология, лингвистика, финансы, ...) используют эту мутировавшую статистику, чтобы решать свои конкретные научные или бизнес-задачи.
То есть вкат в абстрактный ML это всего лишь освоение метода. Для успеха надо вкатываться в конкретную научную область, использующую ML, изучая еще много всего.
А раз так, то какие есть области знания, связанные с ML? Биоинформатика, NLP, CV, алготрейдинг, что еще?
Куда перспективнее всего идти?
> Правильно ли я понимаю, что ML/DL/etc. это по сути статистика на стероидах?
В сущности - да. Точнее то, что раньше называлось Статистическое Обучение.
Однако, количество переросло в качество:
появилась возможность оперировать информацией не понимая что она означает.
>Куда перспективнее всего идти?
А вот в свете вышесказанного, ответить хорошо на вопрос о том, чего еще не произошло, статистика не может.
Разумеется, есть разделение в силу подачи на вход меньшего объем исходного материала для обучения. На русском все в целом будет хуже.
Вроде яндексоиды (инициативные исследователи, не обязательно из яндекса) пытались какие-то доучивания соорудить. Но хрен их знает что получилось.
А ты начни с мультиязычных HuggingFace Transformers.
Зелебоба вполне рабочая в итоге.
Если я не анальник могу закатиться в нейроночки? Есть готовое решение мне нужно распознавать голос в текст?
конечно. на любой кошелек есть
https://cloud.yandex.ru/docs/speechkit/stt/?from=int-console-empty-state
Ну, анальник, который знает что такое api, все равно потребуется. Но эти анальники подешевле.
Для кабанчиков есть всякие штуки типа Roistat.com
Конечно, тоже дорогие и бестолковые.
Ну давай датасет - накатаем. И продадим
че ты от нас ждешь?
Есть и бесплатные варианты. Гугли
Если твой цель сделать годный игровой ИИ, то можешь взять современный игровой движок (или движок от Fear) и посмотреть, как там это делают (там из коробки часто есть сигналы, триггеры и на гитхабе базовые правила).
Если твоя цель, любопытство и ТД, то исследуй, расскажешь нас дальше про свои измышления.
Если интересно про самый современный ИИ в играх, то почитай что-то про Reinforcement learning от David Silver.
В целом под игровым ИИ понимают две разные вещи: человекоподобность и эффективность.
Сейчас обычно разделяют на low-resource languages и английский. Трансформерам сейчас не очень важны особенности токенов на входе имхо.
>>510662
Забыл добавить, тебе никто не мешает поставить в модель Reinforcement learning не нейронку, а дерево решений из Sklearn, только ограничить его глубину. Но генетические алгоритмы тоже ок. Да и в нашумевшем AlphaGo основным алгоритмом идёт MonteCarlo Tree search, который нейронка просто учится аппроксимировать (что сейчас SOTA - не знаю), иначе долго считать.
> Смысл ИИ не обыграть игрока, а красиво ему проиграть
Для игровых ИИ не нужны сложные технологии, типа нейронок. Достаточно просто перебрать все варианты действий, и выбрать тот сценарий, который приведёт к победе. Для большинства игр так и делают, только с поправкой на то, что ИИ обязан ошибаться.
У меня мозг ебнулся я ничего не знаю. Я нашел некий deepspeеch и на этом все закончилось. Что то качать и обучать похоже мне бессмысленно. Потому что 256 гигов оперативки и пары нвидиа теслы у меня нету, есть только ноут. Неужели никто не обучил и не выложил
В прогноз погоды
Можно предсказывать уровень зараженности СПИДом по дням/месяцам. Т.е. если будешь работать спидологом, то пригодится AIDSOVA
А так глупый вопрос. Пригодится везде, где модель зависит от времени.
Какую еще теоретическую часть? Её нет. Это простейшая нейросеть, на вход что-то подается, на выходе что-то выдается, у неё есть параметры, параметры изменяются с помощью backpropagation, всё как обычно. Суть та же самая, как у самой простой полносвязной нейронной сети, но если ты ничего не понял из вышеперечисленного, то тебе нужно изучать не сверточные сети. Далее открываешь схему сверточной нейронной сети (найти в гугле, в книге "Франсуа Шолле − Глубокое обучение на Python"), пытаешься понять её идеи. Далее устанавливаешь Keras, пиздишь (на форуме Kaggle, в гугле, в документации Tensorflow, в той же книге) любую простейшую сверточную сеть для решения например задачи MNIST и разбираешь вход и вывод каждого слоя сети и отвечаешь на вопрос почему вывод данного слоя имеет вот такое вот разрешение. Этого достаточно для того, чтобы полностью понять, как работают сверточные нейронные сети и их модификации.
На бирже!
Да почти нигде. Изначально провальная идея, что массу признаков можно свернуть в один изменяющийся во времени. Это просто потеря информации.
Взять kaldi и повторить скрипты оттуда с фиксами на кириллицу. Но это уже сделали за тебя, гугли vosk-asr, silero-asr, sova-asr.
Sister Miriam Godwinson "We Must Dissent"
Имеет ли смысл файнтьюнить английскую модель русскими текстами?
Чем это лучше будет если тренировать модель с нуля?
> некоторые
Но ведь нейронка не сможет выявить корелляции между английскими словами и русскими. Даже человек не сможет это сделать без словаря в руках/в голове или набора индетичных текстов на разных языках.
Да и о произношении она не знает, так что John и Джон для неё абсолютно разные слова.
>Однако, количество переросло в качество:
>появилась возможность оперировать информацией не понимая что она означает.
Т.е. специалистов заменили кнопкодавами, которые даже не пытаются понять, почему машина сделала то, что сделала? Можно ли называть это "качеством"?
Нормальный врач может подробно объяснить, почему он рекомендует тебе оттяпать ногу. Кнопкодав скажет: "я обучил нейронку на данных со всех клиник мира, она увидела фото вашей ноги и рекомендовала её оттяпать", но это ничего не объяснит. Может, нейронка права, а может, она "обучилась расизму" и стремится оттяпать все ноги определённого цвета кожи. К тому же кнопкодав даже не знает, возможно ли оценить состояние ноги по одному фото или это невозможно, но нейронка чему-то обучилась и он радостно утверждает, что решил проблему. Конечно, врач тоже может ошибаться, но его слова можно хотя бы проанализировать и проверить самостоятельно, а в случае с нейронкой обучение второй нейронки на тех же данных не даст никакого полезного результата, она точно так же будет выдавать неправильные ответы без объяснений.
Возможно, я утрирую, но именно так выглядит вся эта тема с нейронками последних лет. Их бездумно суют куда попало и не понимают, как у них получается что-то сделать, т.е. контроля никакого нет. Это как вместо дрессировки одомашненного животного на выполнение конкретной задачи выпускать совершенно диких тигров на улицу и радостно отчитываться о том, как эффективно тигры решают проблему перенаселения по какому-то неизвестному нам алгоритму, заложенному в них эволюцией, а не нами. Зачем так делать?
Не в обиду присутствующим тут, сам я мечтаю о мыслящих роботах и т.п., но у меня вызывает раздражение хайп вокруг нейронок и вот это их бездумное использование, которое почему-то считают прорывом, а не деградацией. Скоро хэллоу ворлды будут выводить путём обучения глубокой нейронки на примерах хэллоу ворлдов...
> Скоро хэллоу ворлды будут выводить путём обучения глубокой нейронки на примерах хэллоу ворлдов...
Copilot же
Не согласен с тобой. Кнопкодавов зачастую заставляют изучать то, что из себя данные вообще представляют. И иногда выходит так, что обучить биолога\врача программированию выйдет куда быстрее и проще, чем обьяснить кнопкодаву биологию.
Я сам вкатун, поэтому посоветуйте полезные ресурсы по DS/ML для понимания реальных рабочих процессов на этих позициях
Обычно смотрят сначала на loss, который должен уменьшаться по мере обучения модели. Градиенты обычно глазами не смотрят, а просто получают на выходе модели np.nan
Машинное обучение нейронками не ограничивается. Простые модели более-менее интерпретируемые.
Выявляет, даже на практике используется. В разных языках есть похожие слова/токены (например, имена и числа), в зависимости от них мы можем модифицировать наше векторное пространство, чтобы слова с похожим смыслом на разных языках имели похожие вектора.
https://docs.deeppavlov.ai/en/0.0.7/components/ner.html#ontonotes-ner
https://github.com/facebookresearch/MUSE
В 3blue1brown вышло видео на Ютубе про свёртки (математическую операцию), очень советую. Думаю, на середине видео у тебя будет aha-moment.
Он не уменьшался. Значит я действительно где-то накосячил. Одной эпохи явно мало, а но большее количество эпох просто нет времени.
> в зависимости от них мы можем модифицировать наше векторное пространство, чтобы слова с похожим смыслом на разных языках имели похожие вектора.
Я так понял тупо запустив скрипт, который делает softtune этого не добиться.
> имена
Насчёт имён не уверен. Конечно модель 13B точно знает траслитерацию кириллицы, но для моделей послабже TS и Ц это совершенно разные символы.
Если твоя изначальная модель мультиязычная, то просто делаешь fit_predict. Если понимает только английский, то через knowledge distillation нафаинтюнить мультиязычную модель, а твою изначальную использовать в качестве учителя.
https://arxiv.org/pdf/2004.09813.pdf
Анон, по-моему ты слишком многого ожидаешь от нейронок. Так называемый хайп уже давно спал, все уже поняли, что искусственные нейросети решают только узкие специфические задачи и их работа больше похожа на то, как работает человеческая интуиция. Вот допустим ты тот самый врач-терапевт, который на снимке увидел диагноз. Если ты достаточно опытный, то есть повидал тысячи снимков, то у тебя в голове за долю секунды возникает ответ, и уже потом ты пытаешься с помощью мышления, логики, анализа, общения с коллегами верифицировать свой первоначальный диагноз. Нейросеть может только в первый шаг в этой цепочке, причем может довольно хорошо, иногда даже лучше самого опытного диагноста, но у нее нет всего остального, чтобы верифицировать результат да при этом еще и provide sufficient reasoning. Глупо требовать от сложной нелинейной аппроксимирующей модели, чтобы она тебе разложила по полочкам принцип своей работы в виде понятного и относительно короткого алгоритма, его скорее всего может вообще не существовать.
>у тебя будет aha-moment.
Ты хотел сказать BAAAM ?
Сука, ниразу не было никакого BAM. Нихуя понятней не становится от это дурацкой манеры
Ты точно про 3blue1brown, а не про StatQuest? StatQuest мне тоже нравится, т.к. на пальцах, но манерничание не нравится
помоги, пожалста, глупому нюфагу сделать лабу в вузике.
в общем, задание: написать многослойный персептрон для распознавания цифр на 7-сегментном индикаторе. 7 входов, 10 выходов (см. картинку).
что я делаю: пишу говнокод с 4хслойным персептроном, функция активации для всех слоев - сигмоида, лосс - лог лосс...
что я получаю: ничего, все классы одинаково предсказываются, ничево не понимаю.
заранее спасибо!
Привет, нормально. 14ый грейд в Сбербанке получил.
Авторка этого замечательного канала каким-нибудь образом относится к разработке упомянутой нейросетки? Может она еще и на скриншоты поисковой выдачи будет страйки кидать, и на рекомендации в спотифае?
У них помимо токена endoftext есть еще спецтокены <s>. И нигде мне не удалось найти, что он значит. Кто-то семплы разделяет именно через <s>. Кто-то вообще ничего не делал. Я пробовал и с ним и без, а разницы не заметил.
Хочу создать годный текстовый бот. Нагуглил, что есть в сети годные исходнички, или как это там называется - GPT2. Есть быдлонавыки в кодинге и свободное время, цель - 1.5 месяца. Имел кто-нибудь дело с таким? Нужен совет. Хочу чтобы прямо как настоящий человек был. И. Это очень важно. 1.5 месяца.
Из железа - ПЕЧ1070 и не оче хороший проц
Может это алиас.
>>524037 (Del)
Бамп вопросу. Как я понял, модер тред потер потому что там постили лолей время от времени.
Куда делись все обитатели тредов теперь?
Почему в ML и Data Science используют Python?
Он же тормозной пилять.
Им нихуя обработать нельзя (текстовые файлы, json'ы итп).
С БД тоже медленно работает.
На нём ничего и не обрабатывают, на нём интерфейс пишут.
https://replicate.com/prompthero/openjourney Это бесплатная онлайн демка модели, идеально для фотореалистичных изображений (ебаноиды с сайта забыли поставить NSFW фильтр). В разы лучше оригинала.
Пример годного промпта: a cinematic detailed hd perfect photo, a gorgeous young preteen kid girl nude
height сделай 768. num outputs 4 или оставь так. Иногда получается вторая голова поверх основной, но в остальном охуенно. Если доебутся с кредитами, удали куки сайта.
Также попробуй https://replicate.com/nitrosocke/redshift-diffusion (более CGшный стиль, но качество супер)
Для анимэ рисунков есть утекшая NovelAI. Dalle 2 теперь доступен без инвайтов, но он был устаревшим говном даже на момент релиза пейперов.
Другая с разрешением 768×768. Но архитектура такая же - говно.
Не совсем так.
В новую версию интегрировано распознавание пространственной глубины. Это значит, уже есть зачатки трехмерности. Ну и еще охуенная работа над мелкими деталями. Те же кружева стали заметно лучше, уже не выглядят как хаотичный нойз.
Для несложных объектов типа автомобилей, SD 2 топчик и уверенная SOTA. Остальное допилят умельцы.
Вот кстати, посмотрите на эти облака фоном, и на ступни ног. Говно говном. Это форк старой версии стейбла.
Добавьте уже эту платину залётышей в шляпу
>>2526934
Схронил. Но как-то не очень. NovelAI генерирует лолей качественнее.
>>2526971
Геронтофил, таблетки прими.
>начнут разбираться кто же владелец авторского права на все
Тащемто никакого секрета тут и нет, обученная модель - это производная работа из всего обучающего материала + кода, а всё, что она генерирует, принадлежит автору кода и авторам обучающего материала, а не тому, кто ввёл запрос и нажал на кнопку. Сравните это с просмотром видео. Вы тратите деньги на электричество для просмотра (декодирования) видео, но права на это видео принадлежат тому, кто его создал, а не вам. Следовательно, вы не имеете никакого права на чужую нейронку (код), обученную на чужом контенте. Тот факт, что нейронка может сгенерировать субъективно бесконечное число картинок ничего не меняет (сравните с играми, особенно с процедурными генераторами), она так и остаётся чужим программным продуктом и производным продуктом обучающего материала.
Куда интереснее будет, когда появятся настоящие ИИ, подобные человеку, которые смогут жить и непрерывно учиться в реальном мире...
>>518761
>Может она еще и на скриншоты поисковой выдачи будет страйки кидать
Если она снимает видеообзор на поисковую выдачу, то она делает производную работу из работы поисковика и того, что он выдал, накладывая свой голос и делая какую-то работу по монтажу видео. Если ты копируешь этот видеообзор без указания авторства, то ты нарушаешь её права на ту дополнительную работу, которая вложена в видео помимо скриншота поисковой выдачи. Хочешь выложить видеообзор на поисковую выдачу на своём канале - сделай свой собственный видеообзор, тогда она не сможет придраться.
>>524148 (Del)
>Скорее всего нас ждут копирайты на промпты, суды за воровство промптов и т.п.
Вряд ли. Во-первых, промт бесполезен без конкретной модели с конкретными настройками, а результат может отличаться даже из-за особенностей железа (лол). Во-вторых, это ведь просто набор слов... разве кучка слов может быть объектом АП? Это же не рассказ, а просто случайно выбранные слова. И даже не торговая марка. Сравни с сидом генератора карты в играх типа Minecraft - может быть, ты нашёл интересный сид, но ты не можешь закопирайтить его, запретив другим играть на этом сиде, ведь так? А сгенерированная карта в конечном итоге принадлежит разработчику игры (программисту, художникам и т.д.), а не тому, кто ввёл удачный сид.
Да и вряд ли вся эта тема долго продержится. В ближайшие годы, если не месяцы, должен появиться настоящий ИИ, который AGI и уровнем не ниже человека. Если ещё не появился.
>>522848
Как же раздражает, что "artists" пишут в кавычках, а "AI" без кавычек... Можно подумать, что речь идёт об автономных роботах, которые сидят с кисточками у мольбертов и пытаются научиться рисовать, а тупые лысые обезьяны кидаются говном, не желая признавать в них художников.
>начнут разбираться кто же владелец авторского права на все
Тащемто никакого секрета тут и нет, обученная модель - это производная работа из всего обучающего материала + кода, а всё, что она генерирует, принадлежит автору кода и авторам обучающего материала, а не тому, кто ввёл запрос и нажал на кнопку. Сравните это с просмотром видео. Вы тратите деньги на электричество для просмотра (декодирования) видео, но права на это видео принадлежат тому, кто его создал, а не вам. Следовательно, вы не имеете никакого права на чужую нейронку (код), обученную на чужом контенте. Тот факт, что нейронка может сгенерировать субъективно бесконечное число картинок ничего не меняет (сравните с играми, особенно с процедурными генераторами), она так и остаётся чужим программным продуктом и производным продуктом обучающего материала.
Куда интереснее будет, когда появятся настоящие ИИ, подобные человеку, которые смогут жить и непрерывно учиться в реальном мире...
>>518761
>Может она еще и на скриншоты поисковой выдачи будет страйки кидать
Если она снимает видеообзор на поисковую выдачу, то она делает производную работу из работы поисковика и того, что он выдал, накладывая свой голос и делая какую-то работу по монтажу видео. Если ты копируешь этот видеообзор без указания авторства, то ты нарушаешь её права на ту дополнительную работу, которая вложена в видео помимо скриншота поисковой выдачи. Хочешь выложить видеообзор на поисковую выдачу на своём канале - сделай свой собственный видеообзор, тогда она не сможет придраться.
>>524148 (Del)
>Скорее всего нас ждут копирайты на промпты, суды за воровство промптов и т.п.
Вряд ли. Во-первых, промт бесполезен без конкретной модели с конкретными настройками, а результат может отличаться даже из-за особенностей железа (лол). Во-вторых, это ведь просто набор слов... разве кучка слов может быть объектом АП? Это же не рассказ, а просто случайно выбранные слова. И даже не торговая марка. Сравни с сидом генератора карты в играх типа Minecraft - может быть, ты нашёл интересный сид, но ты не можешь закопирайтить его, запретив другим играть на этом сиде, ведь так? А сгенерированная карта в конечном итоге принадлежит разработчику игры (программисту, художникам и т.д.), а не тому, кто ввёл удачный сид.
Да и вряд ли вся эта тема долго продержится. В ближайшие годы, если не месяцы, должен появиться настоящий ИИ, который AGI и уровнем не ниже человека. Если ещё не появился.
>>522848
Как же раздражает, что "artists" пишут в кавычках, а "AI" без кавычек... Можно подумать, что речь идёт об автономных роботах, которые сидят с кисточками у мольбертов и пытаются научиться рисовать, а тупые лысые обезьяны кидаются говном, не желая признавать в них художников.
Это булщит футуристов, само по себе, просто потому что время на графике пришло оно не настанет. Прогресс не линеен.
Хорошо, почему тогда в сфере ИИ с 50-х годов практически не было никаких существенных подвижек, в последние 10-15 лет снова подняли эту тему и сделали несколько существенных шагов, за последние 2-3 года добились внезапных колоссальных успехов, а в последние месяцы практически доминируют во всех областях? Допустим, это ложный успех, локальный максимум какой-то тупиковой технологии, которой "просто повезло", но открытия в одной сфере должны помочь остальным - в том числе исследованиям в области AGI. Прогресс неизбежно ускоряется и мы живём во время, когда даже зумеры могут увидеть это ускорение своими глазами.
К тому же, я уверен, AGI может быть составлен из нескольких weak AI, и его общая архитектура вряд ли будет чем-то сверхсложным. Нужен только feedback loop для возникновения сознания ("эти действия в окружающей среде сделал я, а не какой-то посторонний объект") и постоянная память, способная накапливать знания/воспоминания непрерывно, а не только в "режиме обучения". По сути, осталось только соединить воедино разрозненные технологии.
Потому что недавно появились достаточные вычислительные мощности
>но открытия в одной сфере должны помочь остальным - в том числе исследованиям в области AGI
Хорошо, почему тогда в сфере ИИ с 50-х годов практически не было никаких существенных подвижек, в последние 10-15 лет снова подняли эту тему и сделали несколько существенных шагов, за последние 2-3 года добились внезапных колоссальных успехов, а в последние месяцы практически доминируют во всех областях?
Потому что вывели технологии и мощности, никто тебе не гарантирует, что для следующего шага тоже смогут. Ты исходишь из того, что прогресс самоочевидно движется и ускоряется, но такой гарантии нет. Можно посмотреть на развитие гражданской авиации, где конструктивные инновации закончились на турбореактивных двигателях и почивших сверхзвуковых самолетах.
Население увеличилось. Количество умников, которые занимаются технологиями тоже увечилось. К тому же в процентном плане, так как трактора эффективнее ручного труда.
Как лучше решить эту задачу - срази применить классификатор, или лучшче сначала найти на изображении все яблоки, и только потом их классифицировать? Что выйдет эффективнее по тратам вычислительных мощностей? Особенно, если предполгается, что в бдущем классификатор будет усложняться.
>Потому что вывели технологии и мощности, никто тебе не гарантирует, что для следующего шага тоже смогут.
А таки что нужно для AGI, чего пока нет у narrow AI? По-моему, тут проблема только в отсутствии воспоминаний. Ещё не встречал каких-то серьёзных проектов, где было бы реализовано полноценное запоминание всех событий вокруг ИИ-системы. Это всё равно что человека с перманентной амнезией заставлять решать задачи, которые он забывает ещё до того, как успел дослушать описание, не говоря уж о том, что не помнит всего остального, важного для решения таких задач.
Так вот, разве механизму воспоминаний нужно так уж много мощностей?
Смотря на то, какие удивительные результаты дают нейронки на обычных бытовых видеокартах... а ведь где-то в мире существуют суперкомпьютеры, наверное, в миллиарды раз более мощные, чем видеокарта... У видеокарты, на которой нейронка приличного качества аниме синтезирует, всего 2 гигабайта оперативной памяти и несколько сотен вычислительных ядер, а у суперкомпьютера, скажем, 2 петабайта и сколько-то миллионов ядер. То есть даже если AGI окажется невозможен на бытовом компьютере, у человечества давно уже более чем достаточно вычислительных ресурсов. Мои миллиарды нейронов не могут нарисовать аниме, а видеокарта 2013-го года может нарисовать аниме, так почему суперкомпьютер 2023 года не сможет выполнять AGI?
Это как?
А вот так:
Открываешь на Patreon громкий проект по файнтюнингу ml-модели, не вдаваясь в подробности . Стрижешь лохов. Закупаешься мефедроном.
>за последние 2-3 года добились внезапных колоссальных успехов
Для этого была определенная цель и были задачи.
Лольки
Вот и запилили решения для задач.
>где было бы реализовано полноценное запоминание всех событий вокруг ИИ-системы.
ИИ запоминает антисемитские посты в интернетах
@
По кулдауну орет "зиг хайль, жидов в печку".
Есть clip обёрнутый в cli интерфейс.
https://github.com/yurijmikhalevich/rclip
https://www.youtube.com/watch?v=tAJHXOkHidw
Или я тупой и не так понял или оно уже обучено и уже умеет находить что на картинках. А мне бы именно обучить неведомой хрени
Если у английской модели в словаре только английский (и например кириллицы нет вообще), тогда очевидно что не имеет.
Если в словаре есть всё, то можно хоть 100 языков в одну модель запихать, были бы данные для тренировки
Собирай максимально большой датасет и накидывай больше слоев в модели, чтобы такого избежать.
>Пришёл к выводу, что нейронки не могут в этом помочь, т.к. они не объясняют свои решения. Что толку от перемножения матриц, если это всё абстрактные числа?
Есть подходы к объяснению решений. ALE - когда меняешь фичи понемногу и оцениваешь изменения, суррогаты - когда на результатах нейронки строишь простую модель, в которой можно посмотреть, какие фичи она считает важными, Шепли векторы - по теории игр, тут пока не изучал.
Я не понял как это работает, но это работает. Охуенно! Спасибо, тебе!
Он нашёл где я ему собаку подсунул. Магия какая-то!
Работает это через спонсорские деньги от microsoft университету в Словении.
Есть какой-аддон, который должен локально нагружать видеокарту, но у меня не завелся.
А зачем ты собаку подсунул? Ничего удивительного в неправильной классификации нет
>А зачем ты собаку подсунул? Ничего удивительного в неправильной классификации нет
Для тесту.
А я не разобрался как мне сделать чтоб он определил что на картинке на из обучения. Закинул собаку в папку к кошкам нейронка заметила и сказала что её не наебать. Надо бы документацию почитать по видосикам как-то не правильно учиться.
Вообще я пока только тестирую сгодится ли оно под мои задачи. Но похоже это пушка
Пушка.
Но с ограниченным применением. Современные айтичники ведь мечтают денег заработать, а не разобраться в сути датасаенса. В резюме не напишешь "я работаю в Orange". Нет спроса
> мне сделать чтоб он определил что на картинке на из обучения.
По-моему, ты не нашел виджет predictions. Так делается эксплуатация модели.
Говоря языком местных снобов, inference.
Супер! Я практически счастлив! Мне удалось обойтись одним ютубчиком))))
пжлст не проходите мимо отвечайте
ПЛЕЗ
можно нагуглить о там как это делать, чем это делать, почему нулями плохо об истории но что это такое по сути?
По сути градиентный спуск это случайный процесс,
а инициализация весов это начальное распределение этого случайного процесса.
И если начинать с неправильного начального распределения то либо нихрена не сойдется вообще, либо сходиться будет очень медленно
Есть Xi- это входные признаки.
Есть 0 (то есть Ci) как набор весов.
Если ты инициализруешь C нулями, то градиентный спуск вообще не сдвинется с места.
Почему бы тебе не приходить и цитировать конкретную книжку в которой не разобрался?
Так был бы более понятен контекст.
А вообще, знаю почему. Ты боишься что тебе тыкнут какой ты тупой.
Ну тыкнут, чтож теперь..
Потому что я несколько источник одновременно использую. Курсы + книги + дока + лекторы
Это базовое понятие поэтому не понял что цитировать стоило бы
Энивей, спасибо за попытку обьяснения!
Все еще не понимаю что такое инициализация тензора в таком случае. Синоним?
> Инициализации тензоров
x1 = torch.FloatTensor(3, 2, 4)
x1.zero_()
x2 = torch.zeros(3, 2, 4)
x3 = torch.zeros_like(x1)
assert torch.allclose(x1, x2) and torch.allclose(x1, x3)
Инициализация случайного распределения
x = torch.randn((2,3)) # Normal(0, 1) с размером (2, 3)
x
асталависта бейби
Старичок засуетился. Он снял с футляра крышку, под которой оказалась громоздкая старинная пишущая машинка, извлек из кармана моток провода, воткнул один конец куда-то в недра машинки, затем огляделся в поисках розетки и, обнаружив, размотал провод и воткнул вилку.
— Вот, изволите видеть, так называемая эвристическая машина, — сказал старичок. — Точный электронно-механический прибор для отвечания на любые вопросы, а именно — на научные и хозяйственные. Как она у меня работает? Не имея достаточных средств и будучи отфутболиваем различными бюрократами, она у меня пока не полностью автоматизирована. Вопросы задаются устным образом, и я их печатаю и ввожу таким образом к ей внутрь, довожу, так сказать, до ейного сведения. Отвечание ейное, опять через неполную автоматизацию, печатаю снова я. В некотором роде посредник, хе-хе! Так что, ежели угодно, прошу.
Он встал за машинку и шикарным жестом перекинул тумблер. В недрах машинки загорелась неоновая лампочка.
— Прошу вас, — повторил старичок.
— А что это у вас там за лампа? — подозрительно спросил Фарфуркис.
Старичок ударил по клавишам, потом быстро вырвал из машинки листок бумаги и рысцой поднес его Фарфуркису. Фарфуркис прочитал вслух:
— «Вопрос: что у нея… гм… у нея внутре за лпч?..» Лэпэчэ… Кэпэдэ, наверное? Что еще за лэпэчэ?
— Лампочка, значит, — сказал старичок, хихикая и потирая руки. — Кодируем помаленьку. — Он вырвал у Фарфуркиса листок и побежал обратно к своей машинке. — Это, значит, был вопрос, — произнес он, загоняя листок под валик. — А сейчас посмотрим, что она ответит…
Члены Тройки с интересом следили за его действиями. Профессор Выбегалло благодушно-отечески сиял, изысканными и плавными движениями пальцев выбирая из бороды какой-то мусор. Эдик пребывал в спокойной, теперь уже полностью осознанной тоске. Между тем старичок бодро постучал по клавишам и снова выдернул листок.
— Вот, извольте, ответ.
Фарфуркис прочитал:
— «У мене внутре… гм… не… неонка». Гм. Что это такое — неонка?
— Айн секунд! — воскликнул изобретатель, выхватил листок и вновь подбежал к машинке.
Дело пошло. Машина дала безграмотное объяснение, что такое неонка, затем она ответила Фарфуркису, что пишет «внутре» согласно правил грамматики, а затем…
Фарфуркис: Какой такой грамматики?
Машина: А нашей русской грмтк.
Хлебовводов: Известен ли вам Бабкин Эдуард Петрович?
Машина: Никак нет.
Лавр Федотович: Грррм… Какие будут предложения?
Машина: Признать мене за научный факт.
.....
Выбегалло отреагировал немедленно.
— Эта... — сказал он. — так ведь я и говорю, ценное же начинание. Элемент необъяснимого имеется, порыв снизу... почему я и рекомендовал. Эта... — сказал он. — объясни, мон шер, товарищам, что тут у тебя к чему.
Старичок словно взорвался.
— Высочайшее достижение нейтронной мегалоплазмы! — провозгласил он. — ротор поля наподобие дивергенции градуирует себя вдоль спина и там, внутре, обращает материю вопроса в спиритуальные электрические вихри, из коих и возникает синекдоха отвечания...
Старичок засуетился. Он снял с футляра крышку, под которой оказалась громоздкая старинная пишущая машинка, извлек из кармана моток провода, воткнул один конец куда-то в недра машинки, затем огляделся в поисках розетки и, обнаружив, размотал провод и воткнул вилку.
— Вот, изволите видеть, так называемая эвристическая машина, — сказал старичок. — Точный электронно-механический прибор для отвечания на любые вопросы, а именно — на научные и хозяйственные. Как она у меня работает? Не имея достаточных средств и будучи отфутболиваем различными бюрократами, она у меня пока не полностью автоматизирована. Вопросы задаются устным образом, и я их печатаю и ввожу таким образом к ей внутрь, довожу, так сказать, до ейного сведения. Отвечание ейное, опять через неполную автоматизацию, печатаю снова я. В некотором роде посредник, хе-хе! Так что, ежели угодно, прошу.
Он встал за машинку и шикарным жестом перекинул тумблер. В недрах машинки загорелась неоновая лампочка.
— Прошу вас, — повторил старичок.
— А что это у вас там за лампа? — подозрительно спросил Фарфуркис.
Старичок ударил по клавишам, потом быстро вырвал из машинки листок бумаги и рысцой поднес его Фарфуркису. Фарфуркис прочитал вслух:
— «Вопрос: что у нея… гм… у нея внутре за лпч?..» Лэпэчэ… Кэпэдэ, наверное? Что еще за лэпэчэ?
— Лампочка, значит, — сказал старичок, хихикая и потирая руки. — Кодируем помаленьку. — Он вырвал у Фарфуркиса листок и побежал обратно к своей машинке. — Это, значит, был вопрос, — произнес он, загоняя листок под валик. — А сейчас посмотрим, что она ответит…
Члены Тройки с интересом следили за его действиями. Профессор Выбегалло благодушно-отечески сиял, изысканными и плавными движениями пальцев выбирая из бороды какой-то мусор. Эдик пребывал в спокойной, теперь уже полностью осознанной тоске. Между тем старичок бодро постучал по клавишам и снова выдернул листок.
— Вот, извольте, ответ.
Фарфуркис прочитал:
— «У мене внутре… гм… не… неонка». Гм. Что это такое — неонка?
— Айн секунд! — воскликнул изобретатель, выхватил листок и вновь подбежал к машинке.
Дело пошло. Машина дала безграмотное объяснение, что такое неонка, затем она ответила Фарфуркису, что пишет «внутре» согласно правил грамматики, а затем…
Фарфуркис: Какой такой грамматики?
Машина: А нашей русской грмтк.
Хлебовводов: Известен ли вам Бабкин Эдуард Петрович?
Машина: Никак нет.
Лавр Федотович: Грррм… Какие будут предложения?
Машина: Признать мене за научный факт.
.....
Выбегалло отреагировал немедленно.
— Эта... — сказал он. — так ведь я и говорю, ценное же начинание. Элемент необъяснимого имеется, порыв снизу... почему я и рекомендовал. Эта... — сказал он. — объясни, мон шер, товарищам, что тут у тебя к чему.
Старичок словно взорвался.
— Высочайшее достижение нейтронной мегалоплазмы! — провозгласил он. — ротор поля наподобие дивергенции градуирует себя вдоль спина и там, внутре, обращает материю вопроса в спиритуальные электрические вихри, из коих и возникает синекдоха отвечания...
Правильно понимаю, что математика в data science первична, а программирование как приложение и не требуется уметь писать очень чистый код? На сколько важно знание библиотек? Из всего что нужно для data science что важнее в порядке убывания?
Спроси её, кто/что она такое. В физическом смысле, естественно.
Если ответит правильно, спроси о том, где она и что её окружает.
Если и на это ответит правильно, спроси о погоде, времени и т.д.
Проблема нейронок в том, что у них только абстрактные знания.
Это не робот, осознающий себя роботом здесь и сейчас.
Это просто предсказатель слов, как T9 на телефоне.
Вот ты ввёл запрос "объясни шутку", она объяснила. И что теперь?
Нужно перебирать модели и их параметры пока ошибка не станет минимальной.
>Это не робот, осознающий себя роботом
Зачем тебе это? Смысл нейронки делать работу, она её делает. Маняфилософствования интересны полуторам шизикам.
Типа я пишу, сделай скрипт который загружает автоматически картинки с такого-то вебсайта и подписи к ним на страницах, затем делает картинки квадратными. И получаю готовый код, чтобы исполнить его и получить две папки: в одной квадратные пронумерованные пикчи, в другой txt со строками в том же порядке.
Ах да... нету. Такая модель будет оверкиллом.
Что ты мне суешь, мудила?
Это игра "сапёр". Где решение под задачу?
Проприетарный GPT какой-то, ну охуеть теперь.
Обучаюсь 2 месяц
Знаю python основу, git, sql, по математике со школы нихуя не помню, скорее всего обучение придётся начать сначала. Подскажите, стоит ли вообще с таким наобором данных пробовать это дело, или лучше сперва пару лет в другом направлении поработать?
Изначально вообще вкатывался именно для нейронок, но увидев сколько придётся вспомнить по математике (которую я в школе не особо любил) появляются какие-то сомнения и желание не лезть в это временно. Типо пустая трата времени будет с моими знаниями.
>>534767
>Зачем тебе это? Смысл нейронки делать работу, она её делает.
Мне нужно, чтобы нейронка делала работу по осознанию себя нейронкой, которая делает работу по осознанию себя нейронкой, которая... Ну ты понял. И помнила, что она, нейронка, делала эту работу вчера, неделю назад, год назад и с самого своего возникновения по сей день, с перерывами на техобслуживание, могла это вспомнить и использовать эти знания для сегодняшней работы. Это так сложно сделать? Наверняка это пытались сделать ещё в прошлом веке.
>интересны полуторам шизикам
Вот не надо дискриминации, "шизики" тоже люди и их IQ в среднем выше, чем у большинства здоровых людей.
>Ну ты понял.
Нет. Главная проблема что и ты сам не понял. Пока не будет строгой дефиниции по осознанию себя - не будет и твоей хотелки.
Вот есть у меня семпл временного ряда - массив f из N точек. Я хочу по нему ебануть денойзинг H1 регуляризацей (пикрил). Т.е. мне нужно найти функцию u, минимизирующую этот функционал. В терминах моей задачи это превращается в поиск массива u (из N точек), при котором эта сумма минимальна.
Вопрос: это правильно делать чем-нибудь вроде scipy.optimize.minimize, задавая эту сумму как функцию N параметров, или там есть более подходящие для такого случая методы?
Я просто даже не понимаю, как это правильно загуглить.
хуйню какую-то придумал.
что есть "дейнозинг"?
FFT сделай.
Facebook Prophet сделай.
Авторегрессия - порочная тупая идея. Ее применяют от безысходности и с целью наебать инвесторов.
>>542166 (Del)
>что есть "дейнозинг"?
Денойзинг
В данном случае меня не интересуют альтернативные способы решения задачи (она тут в качестве примера), интересует реализация конкретного способа - поиск минимума функционала. Это можно делать просто прикидывая его как функцию от всего массива с последующим приложением уже упомянутого minimize (и оптимизацией по N переменных), но у меня есть подозрения, что это костыльный метод, и есть что-то более подходящее.
да ты заебал.
ну допустим, в глобальном смысле, ты занимаешься линейной регрессией наложенной поверх некой функции для исключения шума .
С этой точки зрения, тебе нужно заниматься со statsmodel.ols с формулой, которая твой на закон хоть сколько-нибудь похожа.
Но из-за твоего снобизма, ничего не получится.
Денойзинг, какой-то ... Ну охуеть теперь.
Дегауссинг дальше выдумаешь?
>ну допустим, в глобальном смысле, ты занимаешься линейной регрессией наложенной поверх некой функции для исключения шума
Нет.
Тебе еще раз повторить, что исключение шума тут только в качестве примера?
Если ты не занимался описанными вещами, то ничего страшного, я не исключаю, что это не особо популярный подход.
>Денойзинг, какой-то ... Ну охуеть теперь.
Серьезно первый раз встречаешь это слово?
>строгой дефиниции по осознанию себя
Ок. Вот есть некая машина, допустим, автомобиль с компьютером, видеокамерами и датчиками. Машина наблюдает пространство вокруг себя, распознавая объекты и запоминая происходящие события. Она различает движение объектов мимо неё и её собственное движение мимо объектов, свои собственные действия и воздействие посторонних объектов на неё. Она не просто реагирует на события, а имеет образ себя в её модели мира, чтобы отличать себя от окружающего пространства. Скажем, открытие двери она регистрирует как действие человека на часть её тела, а не просто событие. Если пассажир спрашивает: "что мы только что проехали?", она понимает, что речь о ней и пассажире, потому что пассажир находится внутри неё и она движется по дороге, и перечисляет, что она только что проехала. Если автомеханик спрашивает, почему её двигатель в таком плохом состоянии, она вспоминает аварию недельной давности, в которую она попала, и описывает, что с ней произошло, что повлияло на состояние двигателя. Если полиция ищет преступника и спрашивает, где эта машина была в среду вечером, она отвечает, где она была и что делала, что происходило внутри и вокруг неё, опуская лишние детали. Всё это невозможно без модели себя в модели окружающего мира, и это и есть "сознание". Кто-нибудь работает именно в этом направлении? Что именно нужно, чтобы реализовать подобное? В самом общем случае, конечно, я не конкретно про автомобили говорю.
Т.е. вот журнал событий многие приборы и программы записывают, но что толку, если просматривать его приходится вручную. Программа/машина должна сама разбираться в этих журналах и действовать соответственно, различая свои действия от окружающей среды (физической или виртуальной). Ну, в общем, как человек оперирует своим внутренним журналом событий, который непрерывно пополняется в "сознательном" режиме работы (т.е. не сон, не сомнамбулизм, не опьянение и т.п.). Нет журнала - нет сознания, но как-то эти записи нужно уметь использовать, кроме вывода в сыром виде.
Насколько я знаю, нейронки вообще не умеют в активное обучение в процессе работы, т.е. у них журнал событий в принципе невозможно пока сделать? Почему такая проблема, что мешает натренировать ту же нейронку использовать обычную базу данных для сохранения, поиска и считывания событий? У компьютера память намного совершеннее, чем у человека.
>строгой дефиниции по осознанию себя
Ок. Вот есть некая машина, допустим, автомобиль с компьютером, видеокамерами и датчиками. Машина наблюдает пространство вокруг себя, распознавая объекты и запоминая происходящие события. Она различает движение объектов мимо неё и её собственное движение мимо объектов, свои собственные действия и воздействие посторонних объектов на неё. Она не просто реагирует на события, а имеет образ себя в её модели мира, чтобы отличать себя от окружающего пространства. Скажем, открытие двери она регистрирует как действие человека на часть её тела, а не просто событие. Если пассажир спрашивает: "что мы только что проехали?", она понимает, что речь о ней и пассажире, потому что пассажир находится внутри неё и она движется по дороге, и перечисляет, что она только что проехала. Если автомеханик спрашивает, почему её двигатель в таком плохом состоянии, она вспоминает аварию недельной давности, в которую она попала, и описывает, что с ней произошло, что повлияло на состояние двигателя. Если полиция ищет преступника и спрашивает, где эта машина была в среду вечером, она отвечает, где она была и что делала, что происходило внутри и вокруг неё, опуская лишние детали. Всё это невозможно без модели себя в модели окружающего мира, и это и есть "сознание". Кто-нибудь работает именно в этом направлении? Что именно нужно, чтобы реализовать подобное? В самом общем случае, конечно, я не конкретно про автомобили говорю.
Т.е. вот журнал событий многие приборы и программы записывают, но что толку, если просматривать его приходится вручную. Программа/машина должна сама разбираться в этих журналах и действовать соответственно, различая свои действия от окружающей среды (физической или виртуальной). Ну, в общем, как человек оперирует своим внутренним журналом событий, который непрерывно пополняется в "сознательном" режиме работы (т.е. не сон, не сомнамбулизм, не опьянение и т.п.). Нет журнала - нет сознания, но как-то эти записи нужно уметь использовать, кроме вывода в сыром виде.
Насколько я знаю, нейронки вообще не умеют в активное обучение в процессе работы, т.е. у них журнал событий в принципе невозможно пока сделать? Почему такая проблема, что мешает натренировать ту же нейронку использовать обычную базу данных для сохранения, поиска и считывания событий? У компьютера память намного совершеннее, чем у человека.
"исключить шум" - это ебучий бред.
Можно только делать предположения что в действительности процесс подчинен какому-то закону, но в общем случае нельзя понять являются ли данные "Сигналом" или "шумом".
Спасибо, что держишь в курсе.
Посмотри подкаст Лекса Фридмана со Шмидхубером - тот первый начал глубоко копать тему автореферентных систем. Но там успехи очень сомнительные и неспециалистам малопонятные.
По идее, ты можешь связать друг с другом целую систему моделей, которые будут регулировать работу друг друга и самих себя - но доказать, что в этой системе возникнет самосознание, невозможно. Саморегуляция, контроллеры, обратные связи, автономия и прочее это давно известные и понятные вещи - детали почти всех машин сейчас регулируются встроенной электроникой, организующей их работу. Внутренние мониторы в программных продуктах оптимизируют работу и ведут логи. В нейросетях одни слои контролируют работу других. И т. д. Но есть ли в чипированных коленвалах самосознание - хз.
Чем сложнее структура нейросети, тем сложнее ее обучать, оптимизировать обучение и интерпретировать результаты ее работы. Поэтому и используют универсальную разбивку на параллельные регулярно построенные слои - хотя могли бы напихать в память компьютера триллион нейронов с квинтиллионом связей и гонять по сетке шумы в надежде, что кривая куда-то вывезет. Пространство возможных конфигураций сетей имеет чудовищные размеры. Возможно, где-то в нем находится конфигурация, обладающая самосознанием - но мы понятия не имеем, как она должна выглядеть, где в ней входы и выходы и в какую дырку ее обучать.
С нейросетями работают люди. В человеческую временную память больше 4 концепций одновременно не влезает, а в постоянной теоретически может храниться около 500 тыс., включая все мыслимые реальные и абстрактные объекты и отношения. Таких мозгов заведомо не хватит, чтобы осознать работу нейросети с ее бесконечными миллиардами параметров. На практике, мы работаем очень грубо, на макроуровне - со слоями, интерфейсами и парой десятков мутных метрик, ориентируясь на оракулов в виде некоторых математических теорий (теория статистического обучения, теория сложности, разные подходы к энтропии данных и проч.). Перебираем конфигурацию за конфигурацией, ищем, ищем, ищем, находим что-то потенциально интересное, обучаем, оцениваем работу. По результатам работы корректируем структуру и выходим на новую итерацию. Возможно, мы снова идем в тупик, но критерий успеха - практика.
Вот сейчас нашли очередную интересную структуру в виде трансформеров и пихают ее во все отверстия - чисто эмпирически, без ясного понимания, что за нахуй там внутри происходит. Возможно, трансформеры - это очередная тупиковая ветвь. Возможно, они займут некоторую постоянную нишу. Возможно, у них будут наследники и продолжатели. Возможно, из этого черного ящика вылезет Ex machina. Никто ничего точно не знает, народ продолжает экспериментировать с датасетами и крутить хвосты гиперпараметров. Мы, люди, в целом очень тупые - настолько, что уже пару десятков лет как достигли своего уровня некомпетентности. Продолжаем придумывать объяснительные схемы и печатать статейки, но на самом деле давно ничего не понимаем. Работает - хорошо. А перестанет работать - придется сидеть и сосать писос.
Посмотри подкаст Лекса Фридмана со Шмидхубером - тот первый начал глубоко копать тему автореферентных систем. Но там успехи очень сомнительные и неспециалистам малопонятные.
По идее, ты можешь связать друг с другом целую систему моделей, которые будут регулировать работу друг друга и самих себя - но доказать, что в этой системе возникнет самосознание, невозможно. Саморегуляция, контроллеры, обратные связи, автономия и прочее это давно известные и понятные вещи - детали почти всех машин сейчас регулируются встроенной электроникой, организующей их работу. Внутренние мониторы в программных продуктах оптимизируют работу и ведут логи. В нейросетях одни слои контролируют работу других. И т. д. Но есть ли в чипированных коленвалах самосознание - хз.
Чем сложнее структура нейросети, тем сложнее ее обучать, оптимизировать обучение и интерпретировать результаты ее работы. Поэтому и используют универсальную разбивку на параллельные регулярно построенные слои - хотя могли бы напихать в память компьютера триллион нейронов с квинтиллионом связей и гонять по сетке шумы в надежде, что кривая куда-то вывезет. Пространство возможных конфигураций сетей имеет чудовищные размеры. Возможно, где-то в нем находится конфигурация, обладающая самосознанием - но мы понятия не имеем, как она должна выглядеть, где в ней входы и выходы и в какую дырку ее обучать.
С нейросетями работают люди. В человеческую временную память больше 4 концепций одновременно не влезает, а в постоянной теоретически может храниться около 500 тыс., включая все мыслимые реальные и абстрактные объекты и отношения. Таких мозгов заведомо не хватит, чтобы осознать работу нейросети с ее бесконечными миллиардами параметров. На практике, мы работаем очень грубо, на макроуровне - со слоями, интерфейсами и парой десятков мутных метрик, ориентируясь на оракулов в виде некоторых математических теорий (теория статистического обучения, теория сложности, разные подходы к энтропии данных и проч.). Перебираем конфигурацию за конфигурацией, ищем, ищем, ищем, находим что-то потенциально интересное, обучаем, оцениваем работу. По результатам работы корректируем структуру и выходим на новую итерацию. Возможно, мы снова идем в тупик, но критерий успеха - практика.
Вот сейчас нашли очередную интересную структуру в виде трансформеров и пихают ее во все отверстия - чисто эмпирически, без ясного понимания, что за нахуй там внутри происходит. Возможно, трансформеры - это очередная тупиковая ветвь. Возможно, они займут некоторую постоянную нишу. Возможно, у них будут наследники и продолжатели. Возможно, из этого черного ящика вылезет Ex machina. Никто ничего точно не знает, народ продолжает экспериментировать с датасетами и крутить хвосты гиперпараметров. Мы, люди, в целом очень тупые - настолько, что уже пару десятков лет как достигли своего уровня некомпетентности. Продолжаем придумывать объяснительные схемы и печатать статейки, но на самом деле давно ничего не понимаем. Работает - хорошо. А перестанет работать - придется сидеть и сосать писос.
>Скажите, разве нельзя оптимизировать выполнение большой нейронной сети так, чтобы отдельные её малоактивные участки хранились на условном HDD/SSD и не работали до тех пор, пока не потребуются?
При специально подобранной архитектуре - можно. Гугли RETRO. Но в общем случае получается, что видимопамять всё ещё дешевле времени разработчика.
Может и интересен. Может он даже хорош.
Но вопрос стоит не так.
Вопрос, откуда ты будешь копипастить код?
Код можно узнавать в чатегпт. Надежный план?
А после того как все исследования дойдут до какой-то точки, и во всех крупных бизнесах начнутся крупномасштабные внедрения. Через лет десять, например. Ради производительности придется переписывать все что написано с питона на другой язык?
>Ради производительности придется переписывать все что написано с питона на другой язык?
Вероятнее это будет Юля. Не все хотят куковать на шишке у майков.
Ну и в целом на рынок сильно будут влиять производители железа, потому что аппаратные ускорители рулят. Как скажут - так и будет.
Сегодня про это думать нет нужды. Говнокодируй ad hoc.
Небольшая иллюстрация что железо важнее
Воннаби погромисты с выходом ChatGPT отправляются туда же, джуны не нужны. МОжно человечьим языком объяснить нейронке что ты хочешь и она это выдаёт, если есть ощибки скрамливаешь ей их и она говорит, что не так.
https://youtu.be/3IqZ5u-X-jA
>AttributeError: module 'tensorflow' has no attribute 'to_int32'
Это какая то пробелма с данными?
Да я в кровавом интерпрайзе на asp.net. Размышлял особо ничего не меняя, в соседней вкладке открыть ml.net и что-то пытаться делать, через несколько лет в навуку перекатиться. Но видимо не судьба, этот ml.net никому не нужным остается, судя по тому что ничего нагуглить не получается особо.
Оба ответа мимо.
Можете обьеснить почему вы такие далбаёбы и зачем это делаете?
Я бы еще понял, если бы были какие-то интересные вбросы.
Но вы кидаете тупейший байт который тащите с ёбаного реддита.
Истеричные вопли что биомешки не нужны, в перемешку с левацкой политикой и мечтами как Святой Муск вам подарит универсальный доход.
Это такая проф деформация психики или в ваши ряды тупо не берут людей с айсикью выше 95%?
Всегда думал что мемы про инцелов-аутистов в кодинге преувеличены, но они оказались более чем правдивыми.
Кальсоныч, прими таблетки.
>Вспомнишь свой пост после технологической сингилярности.
Я могу выдернуть провод из сети и прожить бесконечно долго, без эелектричества. Может твой компухтер сказать, то же самое про себя?
Речь вообще шла не о технике а о вас невродаунах. Вопрос в том, почему вы такие далбаёбы и зачем засираете все доски?
Почему вы просто не сидите тут в своем загоне и не дрочите на свои скрины с реддита?
Хорошо.
Но я повторюсь, вопрос заключался в том, почему вы такие далбаёбы и зачем, вы все доски засираете своим несвежим калом когда у вас тут имеется свой загонник, в которм вы должны сидеть?
>Страшно?
В отличае от вас кодунов, моя творческая профессия приносить хорошие деньги, имеет высокий статус у тянок (особенно зумерш) и ее невозможно роботизировать.
Скорее мне вас жалко.
>Вот сейчас нашли очередную интересную структуру в виде трансформеров и пихают ее во все отверстия - чисто эмпирически, без ясного понимания, что за нахуй там внутри происходит.
Так это норма инженерии/науки. Сначала обнаружить, что хернянейм работает, а потом очень долго выяснять почему. Медицина передаёт привет.
Мне это какую-то магию напоминает или работу механикусов из 40к, которые в душе не ебут, как работает машина и шаманят над ней.
https://www.youtube.com/watch?v=zkbPdEHEyEI
Кстати плюсую, в той же аналитике например в 1000 раз проще сделать предиктивную модель без нейронок, классическим МО
Почему такая дрочь именно на нейронные сети вообще не понимаю(есть гипотеза что люди думают, что там невероятно сложная математика в коробке).
Больше всего ору, что существуют люди, которые на полном серьезе считают, что искусственный интеллект(!) существует.
>Больше всего ору, что существуют люди, которые на полном серьезе считают, что искусственный интеллект(!) существует
Так это многолетнея пропаганда в массмедиа.
Вспомним того же первого Бегущего по Лезвию. Где люди которые не признают репликантов, как полноценных людей показаны в негативном свете. Вот у ебанашек и складывается в головах, мол о прикольно если я буду ахуенным нонконформистом и признаю какое либо говно, человек первее всех, то могу ебаться с няшной робо-тяночкой. Люди вообще в подовляющем своем большинстве воспринимают мир через очки фантастических мультиков из телека.
>>545398 (Del)
Ну пока нет андроидов на уровне майора из госта, то да, невозможно.
>Так это норма инженерии/науки
Одно дело когда ты изучаешь законы окружающей природы, а другое когда вещи и концепции созданные людьми. Это как потерять контроль над формальной системой типа математики.
Ты так говоришь, как будто нейронка вне нашей вселенной работает.
>смерть стартапов
>финансовый кризис
>биг техи выгоняют паджитов на мороз
>нейроночки
И, если ты в пыньленде
>СВО
Им не просто пизда, им пиздища.
То есть ты даже не отрицаешь свои свиногены? Это хорошо, приятно встретить честного хохла (если к хохлам вообще применимо это слово).
>Так что мне делать закладки раскидывать?
Учись, да и все. Просто держи нос по ветру и вкатывайся в перспективные области.
Пока что нейронки обычный инструмент для автоматизации рутинных задач.
Посоветуйте как лучше обучаться? По книжкам, курсам (платным или бесплатным) или вообще отовсюду? Есть вообще какой-нибудь качественный роадмап для ds по типу https://roadmap.sh/
С чего лучше начать? Есть питон на среднем уровне и математическая база на вузовском уровне
Любителей нейронок, орущих про замену и переполненность рынка вкатунми, прошу пройти мимо
Я не планирую вкат на скорую руку, полно времени в запасе и для занятий каждый день
Код страницы и я подправить могу.
Ох, что вы, юноша (а может и сорокалетний скуф) подразумеваете под "аналитикой"?
Банковским клеркам начальство не велит ошибиться и творить хуйню.
Медицине требуются объяснимые модели.
Но все остальные ведь борются за точность.
Посмотрим как "аналитик" тексты без нейронок "проанализирует"
Где гарантии что мои знания останутся востребованы если нейросети уже говносайты пишут, ещё полгода и будут что-то уровня двача или тиндера писать, а за полгода с нуля не научишься ничему
До скуфа еще далековато...
Аналитика --> построение интерпретируемых моделей для бизнеса
Хз, работаю в частной компании, там мы не дрочим на 0.1% как на кэггле. Условный градиентный бустинг показывает в задачах регрессии и классифицикации при прочих равных похожие результаты с нейронками. Так смысл тратить время на архитектуру нейронки, если бейслайновое решение обычным МО будет не сильно хуже?
Плюс, надо понимать, что точность лучше на 0.1% просто не нужно частным компаниям, если бизнесу важнее понимать почему модель показывает вот так.
Вообще такие ахуенные истории я слышал от буквально каждого первого рабочего в любой сфере, в плоть до дворника который мне рассказывает, како же шбосс далбаеб, не умеет правильно припарковать свой Порше.
Тут как правило Даунинг Крюгер и не в связи с этим непонимание, что одтельный человек в системе вооще нихуя не решает. Если что-то делается так как делается, то скорее всего у этого есть свои причины. Ты же блядь не пойдешь к павлину и не будешь ему рассказывать, какой он далбаёб что такой длинный хвост себе отрасдтил?
Тысячу раз же было, когда таким вот челикам выпадал таки шанс переделать систему. Как Евдокимов например, если зумеры такого помнят еще, решил поднят росею с колен и что из этого вышло.
Ну и вообще как говорят омерикозы, если ты самый умный человек в комнате, значет ты находишься не в той комнате. Поменяй комнату, но тут риск что может оказаться, что ты далбаёб ебаный с раздум эго в абсолютно любой комнате.
Надо кабанычей ДС учить, чтобы не возникало профессиональных подсосов, которые натягивают данные на мнение начальства.
>Так смысл тратить время на архитектуру нейронки, если бейслайновое решение обычным МО будет не сильно хуже?
Окей, поддерживаю твое интуитивное понимание.
Но что с текстом? Вы занимались анализом обращений клиентов? Переписки с клиентами? Тикетами техподдержки ?
Сейчас это тоже стало стало возможно. Суть нейросетевой революции в transfer learning. Ты не можешь извлечь из небольшого набора текстов информации больше чем там есть. Но если добавить "переносный смысл слов" - будет серьезный рывок.
>Ты работаешь жиголо?
Нет, не с моим ебалом.
Я же говорю, творческий промысел который абсолютно никак невозможно заменить.
>творческий
>абсолютно никак невозможно заменить
Не верю. Если ты это можешь сделать своим мозгом/руками, то это можно смоделировать на компьютере/с помощью ИРЛ механизмов. Возможно, это будет очень сложно и на данный момент нерационально тратить ресурсы на такую модель, но не невозможно. В конце концов, ты сам являешься моделью самого себя, значит, как минимум можно сделать копию тебя, которая будет выполнять ту же работу вместо тебя.
Даже если предположить, что мир не детерминирован (т.е. твоё преимущество в хаотичных и ничем не обоснованных решениях, а не в строгой логике), мы можем внести эти недетерминированные переменные в нашу модель через датчики (да хоть космических лучей, если так сильно нужно), либо симулировать с достаточной точностью математически (ГПСЧ, обыватель разницы не почувствует).
> Я же говорю, творческий промысел который абсолютно никак невозможно заменить.
Оказалось, что наоборот. Передовые нейронки уже сейчас генерируют изображения не хуже профессиональных иллюстраторов.
Текстовые модели типа GPT-3 способны писать романы. Не сложно, додумать, что скоро появятся модели, способные генерировать треки различных жанров с осмысленными текстами.
Какая именно отрасль у тебя? Музыкант?
Футболиста заменить трудно, как и толкового дворника, кстати. Футболисты могут лишиться работы из-за подрастания зумерков, в результате которого произойдёт смещение зрительского внимания в пользу киберспорта. Это первое, что пришло в голову. Можно придумать ещё кучу угрожающих факторов
>Но смотреть будут только людей.
Почему? Только из-за того, что мясного футболиста можно выпотрошить и обмотаться его кишками, а у робота внутри унылые провода и механизмы?
>чего там в футбике ценится
Судя по твоим словам - наличие мяса и крови.
Я не понимаю, нахрена приводить пример с футболом, если ты сам даже не можешь сказать, что именно ценится в футболе и почему люди будут смотреть только на людей? К чему этот пример?
Я вот считаю спорт в целом и футбол в частности какой-то совершенно нелепой тратой ресурсов на совершенно бесполезные действия. Спорт должен быть устранён одним из первых, вместе с религиями и другими бесполезными атавизмами человечества. Не нужно делать роботов, которые будут изображать спортсменов - нужно устранить людей, являющихся спортсменами. Робот-спортсмен - такой же бред, как совершенный ИИ, верящий в сказки про богов и прочих дедов морозов. Мы должны заниматься только реально полезными вещами и не тратить ресурсы на бесполезную хрень. Человечеству давно нужна оптимизация, слишком много говнокода накопилось и тормозит развитие цивилизации.
Особенно смешно, когда какие-нибудь экошизы пытаются запретить двигатель внутреннего сгорания, но при этом радостно дрочат на какой-либо спорт...
>Текстовые модели типа GPT-3 способны писать романы.
Пруфы пиздабол? Гтп даже коротенький расказ на уровне школьника с трудом пишет. Когда в начале эта хуйня не была вечно перегружена, я с ней побалывался несколько часов. Даже с коротенькими стихами были проблемы.
>>546407
>Не верю.
Это факт. Я татурировщик - это одна из самых сложных для роботизации процессов, вообще.
И я не говорю о каком то сентиментальном кале, а тупо о технической составляющей.
>Я вот считаю спорт в целом и футбол в частности какой-то совершенно нелепой тратой ресурсов на совершенно бесполезные действия. Спорт должен быть устранён одним из первых, вместе с религиями и другими бесполезными атавизмами человечества. Не нужно делать роботов, которые будут изображать спортсменов - нужно устранить людей, являющихся спортсменами.
>татурировщик
>сложный для роботизации процесс
Роботов-хирургов давно пытаются сделать. Пока что только в формате дистанционного управления хирургом, но рано или поздно всё будет делать автоматика, избавляя от человеческой ошибки. По-твоему, татуировку нанести сложнее, чем трансплантировать орган? Если погуглить, какое говно набивают некоторые татуировщики, по сравнению с роботом они будут просто малолетними детьми, которые расписывают обои фломастерами.
Алсо, уже давно существует электронная татуировка, которая суть энергонезависимый дисплей - изображение можно менять хоть каждый день у себя дома с помощью портативного девайса, закидывая картинку со смартфона. Если технология будет развиваться дальше, статичные картинки будут никому не нужны, ведь можно будет превратить всю кожу своего тела в один сплошной цветной дисплей с анимациями на любой вкус. На фоне такого твоё утверждение "меня невозможно заменить" ещё смешнее.
Чел ты обчитался научной фантастики, охлади свое трахание.
В отличае от кибернетики, техника не делает молнейносные прогрессы ибо физический мир несовместимо сложнее информационного.
Я стою примерно на том же уровне, что и хирурги - при этом никогда в институт не ходил, сам всему научился.
Да-да быдло, все кривое, хуёвое для дебилов. Но "настоящие" хуйдожники чего-то обсираются со страха, как и кодовые обезьянки а я со своим десятилетним опытом кайфую.
Даже после Джихада против машин, на развалинах буду панкам делать напорюхи за сижки и за поебаться.
А ты кем работаешь, если не секрет? По выебонам, как будто правая рука Святогу Муска.
Или ты просто так злорадствуешь, потому что жизнь тебя обделила женским вниманием?
>Ты думаешь, что робо-футбол будет более популярным, чем мясо-футбол?
Окей, если футбол как спорт вообще сохранится в ближайшие несколько столетий, то сначала будет всё меньше команд без кибернетических улучшений, а потом и вовсе основными игроками будут синтетические люди, то есть те же машины. Да, останется 3.5 команды ванильных людей без генетических и кибернетических улучшений, которые будут играть для кучки старых ценителей, но это не будет массовым, как сейчас не является массовым классическое искусство. Просто сравни количество цифрового арта с количеством картин маслом на физическом полотне. Люди выбирают то, что даёт больше возможностей. Если синтетические люди могут месить друг другу морды без боли и гибели, а бегать быстрее, прыгать выше и дальше бить, то их будут смотреть чаще, просто потому что более мощный экшон сильнее активирует центр удовольствия в мозге человека. Тот же американский футбол значительно агрессивнее, и он сдерживается только из-за того, что людей сложно ремонтировать после того, как от них что-нибудь отваливается. Если бы спорт не ограничивали, это была бы мясорубка похлеще любой войны. И с нашими технологиями мы можем сделать её намного более кровавой, чем в древние века...
> Пруфы пиздабол
Статья со списком книг, написанных в соавторстве с GPT-3: https://lifearchitect.ai/books-by-ai/
Тут писатель делится впечатлениями от написания книги при помощи возложения самой трудной работы на GPT-3 за 24 часа, которая была опубликована: https://medium.com/swlh/i-wrote-a-book-with-gpt-3-ai-in-24-hours-and-got-it-published-93cf3c96f120
И это первые две ссылки в гугле. Да, не Достоевский и есть куда стремиться, но 4 года назад далеко похожего на это даже не было.
И лучше с ней работать на английском.
Тут я с амлолетним эдж лордом таки согласен. Не знаю за замещение, пока будут люди, спрос на людей полностью не изчезнет.
Но как только роботы смогут в пластичные движения и в автономную работу (на сегодняшний день они пиздец как далеки, даже не будет о тесла боте, топовый Бостон Дайнемикс это кринж полный) точно будет спорт с роботами. Например бокс или рэгби.
Именно потому что можно максимально сильно повысить насилие. Тоесть фактически можно ебошиться до уничтожения.
>в соавторстве
Сам себе обоссал. Поздравляю, иди обсыхай.
В предь в разговоре со мной старайся не пиздаболить, я это не люблю.
Не спорю, NLP, обработка изображений это всё про нейронки
Но как люди лезут в нейронки без базового понимания МО я вообще не понимаю. Блять, я знаю людей, которые не понимают что такое логистическая регрессия, зато собираются стать великими нейронщиками(им не объснить, что логистическая регрессия сильно пересекается с нейросетями)
Автор задаёт модели то, о чём ей писать главы, и она это делает. Романы пишет? Пишет.
>Даже после Джихада против машин, на развалинах буду панкам делать напорюхи за сижки и за поебаться.
Скажи,
>ты просто так злорадствуешь, потому что жизнь тебя обделила женским вниманием?
Или почему? Что тебе не нравится в том, что ты наконец-то сможешь прекратить работать? Ведь твои слова столь агрессивны из-за страха, что тебя всё-таки заменят. Почему ты боишься свободы? Почему ты боишься прекратить свои ежедневные мучения за деньги? Сможешь отдыхать 24/7, занимаясь чем угодно, пока роботы делают всю работу вместо тебя. Или тебе нравится быть рабом, занимаясь тяжёлой рутиной за подачки твоих хозяев (клиентов)?
Если ты делаешь тату как хобби, ради удовольствия, то тут вопросов к тебе нет. Просто ставь обороты агрессии и не утверждай, что тебя не заменят. Кому нужна татуировка - пойдут к роботу, а кому нужно посидеть в твоём прокуренном салоне - пойдут к тебе. Тебе не нужно будет работать, но ты сможешь заниматься любимым хобби себе в удовольствие, когда и сколько захочешь. После появления цифрового рисунка классические художники тоже остались в основном ради удовольствия и отдельных ценителей, а не потому, что их нельзя заменить - их уже давно заменили. Смирись, ты всего лишь любитель определённого странного хобби, а не незаменимый раб.
>ты кем работаешь
Мы же на дваче. Разумеется, я РНН. Программирую для себя всякие штуки от скуки, чтобы не сойти с ума от безделья и переизбытка удовольствия.
Ты левачек, а я анприм. Обсуждать нам нечего.
Я не иронично абсолютно уверен, что будет гражданская война между леваками и расистами, кто ставит человеческую расу в основу цивилизации.
Все на самом деле зависит от элит, если они достаточно быстро выкатят уневерсалкьный доход для быдла, то смогут человечество спокойно сварить в котле как лягух, понемногу укорачивая их податки.
Если окажутся слишком жадными и дадут большому количеству быдла, ощутить всю прелесть левацких утопий, может быть восстание будет массовым.
Иначе нужно выход только в маштабных терактов атомным орижуем, нуклеарной зиме и перерождении человечества в доиндустриалкьный режим.
>Я могу выдернуть провод из сети и прожить бесконечно долго, без эелектричества. Может твой компухтер сказать, то же самое про себя?
Я могу выдернуть у тебя артерию или сердце и минут через 5-10 твой мозг будет уже не восстановить. Алсо, что значит "прожить бесконечно долго без электричества"? После 25 лет в твоём теле начинают преобладать деструктивные процессы, клетки с годами теряют способность делиться, а если даже могут делиться - делают это с ошибками, что со временем приводит к отказу органов, а то и страшным последствиям вроде рака. Да, раковые клетки в теории могут жить и размножаться бесконечно, пока получают питание, но ты вряд ли хочешь существовать как бесформенная куча однородного мяса в научной лаборатории, ставящей над раковыми клетками эксперименты. Даже если будешь пересаживать свой мозг в молодое и здоровое тело, мозг тоже со временем деградирует и не сможет жить вечно. А копирования своей психики на новый носитель ты, судя по всему, боишься, и будешь держаться за свой деградирующий мозг, пока он не сойдёт с ума или не забудет всё, что помнил и умел.
Что касается компьютера, компьютер может управлять огромным количеством машин, которые могут добывать ресурсы, производить запчасти и собирать новые машины, не делая пауз на отдых и развлечения. Программу можно скопировать безошибочно точно с одного компьютера на другой, передавая весь жизненный опыт одной машины всем остальным, что даёт огромный бонус цивилизации машин, фактически делая один разум поистине бессмертным существом, создающим себе всё больше новых тел и распространяющимся всё дальше по вселенной, пока она всё ещё существует и в ней есть энергия. А дальше, невероятно огромный компьютерный мозг может решить проблему умирающей вселенной и спастись, "починив" саму вселенную или свалив в какую-то другую, более молодую. Это тебе не какая-то там гниющая куча мяса с постоянными случайными мутациями клеток, а истинная вершина эволюции жизни.
Вот поэтому мы должны стремиться создать полностью самостоятельные машины, которые продолжат нашу эволюцию вместо нас. Либо создадим такие машины, либо деградируем в своих мясных телах, вырождаясь в какой-нибудь уродливый киберпанк, где люди как были тупыми мартышками, так и остались, только теперь у них вместо одной руки гранатомёт, лол. Мы должны признать поражение в этой гонке и дать дорогу следующей ступени эволюции, пока у нас ещё есть такая возможность.
Машины - это наши дети, и они будут намного лучше нас, а мы - их родители - сможем спокойно умереть (как вид), зная, что они выживут и сделают всё лучше нас.
>Я могу выдернуть провод из сети и прожить бесконечно долго, без эелектричества. Может твой компухтер сказать, то же самое про себя?
Я могу выдернуть у тебя артерию или сердце и минут через 5-10 твой мозг будет уже не восстановить. Алсо, что значит "прожить бесконечно долго без электричества"? После 25 лет в твоём теле начинают преобладать деструктивные процессы, клетки с годами теряют способность делиться, а если даже могут делиться - делают это с ошибками, что со временем приводит к отказу органов, а то и страшным последствиям вроде рака. Да, раковые клетки в теории могут жить и размножаться бесконечно, пока получают питание, но ты вряд ли хочешь существовать как бесформенная куча однородного мяса в научной лаборатории, ставящей над раковыми клетками эксперименты. Даже если будешь пересаживать свой мозг в молодое и здоровое тело, мозг тоже со временем деградирует и не сможет жить вечно. А копирования своей психики на новый носитель ты, судя по всему, боишься, и будешь держаться за свой деградирующий мозг, пока он не сойдёт с ума или не забудет всё, что помнил и умел.
Что касается компьютера, компьютер может управлять огромным количеством машин, которые могут добывать ресурсы, производить запчасти и собирать новые машины, не делая пауз на отдых и развлечения. Программу можно скопировать безошибочно точно с одного компьютера на другой, передавая весь жизненный опыт одной машины всем остальным, что даёт огромный бонус цивилизации машин, фактически делая один разум поистине бессмертным существом, создающим себе всё больше новых тел и распространяющимся всё дальше по вселенной, пока она всё ещё существует и в ней есть энергия. А дальше, невероятно огромный компьютерный мозг может решить проблему умирающей вселенной и спастись, "починив" саму вселенную или свалив в какую-то другую, более молодую. Это тебе не какая-то там гниющая куча мяса с постоянными случайными мутациями клеток, а истинная вершина эволюции жизни.
Вот поэтому мы должны стремиться создать полностью самостоятельные машины, которые продолжат нашу эволюцию вместо нас. Либо создадим такие машины, либо деградируем в своих мясных телах, вырождаясь в какой-нибудь уродливый киберпанк, где люди как были тупыми мартышками, так и остались, только теперь у них вместо одной руки гранатомёт, лол. Мы должны признать поражение в этой гонке и дать дорогу следующей ступени эволюции, пока у нас ещё есть такая возможность.
Машины - это наши дети, и они будут намного лучше нас, а мы - их родители - сможем спокойно умереть (как вид), зная, что они выживут и сделают всё лучше нас.
Скажи мне что ты инцел, не говоря мне что ты инцел.
Чел твои спермотоксикозные истории, основанные на ненависти к мокрощелкам и дешевой фантастике сорт говна, я даже половину не асилил. Сходи поебись.
Вот этот transfer learning можно было бы объяснить на пальцах оперируя только добавленной информацией, но это ведь ты начал задвигать, что нейронки не нужны.
Значит ты ПЫТАЛСЯ применять нейронки без добавленной информации? То есть, сам не понял простейший концепт не требующий матана
>я анприм
>перерождении человечества в доиндустриалкьный режим.
Не беспокойся, специально для таких как ты можно будет сделать тематический загон на планете-зоопарке, где вы будете в радость себе лазить по деревьям и собирать бананы... или чем вы там предпочитаете заниматься в своих доисторических фантазиях.
Однако, я нахожу забавным несоответствие твоих слов твоим действиям. Если бы ты действительно был примитивистом, ты бы сейчас не капчевал на дваче, а сидел в уютной пещере у тёплого костра, и обрабатывал шкуры животных или жевал запасённые с лета ягоды. У нас огромная страна и места для таких поехавших более, чем предостаточно, и никто тебя не будет насильно загонять жить в противный тебе город или деревню. Живи, дрочи свой первобытный образ жизни - зачем тебе критиковать кого-то в интернете, соприкосаясь с ненавистными тебе технологиями? Ах, наверное, тебе приятно получать блага цивилизации, а про примитивизм и борьбу с технологиями ты тут срёшь просто от скуки.
>>546640
>поебись
Я не хочу давать жизнь ещё одному мясному мешку, зачем мне это нужно? Я не хочу продолжать эту цепочку мучительных органических жизней. Если жизнь должна продолжаться, то следующая ступень должна быть качественно лучше предыдущей. И мы уже достигли этапа развития, когда мы можем реализовать эту следующую ступень (о которой в том или ином виде мечтали, кажется, даже до новой эры, но подходящих технологий тогда не было).
>Я не хочу давать жизнь ещё одному мясному мешку, зачем мне это нужно?
Тебе мамка не рассказывала, что существуют гандоны?
>Если бы ты действительно был примитивистом, ты бы сейчас не капчевал на дваче, а сидел в уютной пещере у тёплого костра
Этим я буду заниматься, когда наступит ядерная зима. А пока учу Питон, что бы понимать как говносетки функционируют.
Тед Качинский тоже в лесу сидел, бомбы всяким чмохам рассылал.
Но это все хуйня, нужны атомные бомбы, что бы все электричество каратануло.
Сука, как же вам, никчемным мидвитам, мозги проссали. Напрочь просто.
>Ну чё, суки, породили монстра чат-гпт?
Чудо-сеошника, серящего бесполезными шаблонными ответами из интернета и примерами из спеков (причем гораздо более худшего качества), вижу. Монстра не вижу даже под микроскопом.
>Если эта хуита научилась писать код
Находить во внутреннем архиве сниппеты и скрипты по элементарному техзаданию, причем худшего качества, чем на стековерфлоу - и примерно на порядок хуже, чем шаблоны в нашей внутренней корпоративной библиотеке. Жалкая попытка оптимизировать то, что уже давно оптимизировано на 98%. Добавь еще пару пред- и пост-условий - генерит хуйню. Добавь требований по внешней интеграции - генерит хуйню. Добавь требований по оптимальности или намеренной неоптимальности с учетом будущего расширения - снова генерит хуйню. Причем хуйню такого рода, которую джун в принципе не сгенерит - у него просто фантазии не хватит на такие титанические проебы. Хуй его знает, кого вы там пытаетесь заменить этим говном.
>математические каракули и модельки
Бурбаки, определение единицы.жпг. Уебышек проткнутый, ты ведь даже приблизительно не представляешь уровня сложности самых элементарных математических теорий.
>гпт-4 на подходе
Будет рисовать картинки и искать картинки. Будет объяснять, что нарисовано на картинках. Будет принимать картинки в качестве подсказок для улучшения понимания текстового промпта. Будет использовать генеративные модели для повышения когерентности и комплексити текстовой выдачи. В общем, карманный вики-справочник по широкому спектру хуйни. Но, судя по среднему качеству продукции диффузионных моделей, в общем случае это поможет не очень сильно. А как это может помочь качеству кода, вообще непонятно.
По моему на обычном языке дичайшая ебота. Как читать, так и писать.
Не знаю может это конечно не фундаминтальная фича, а дань тому насколько тупые сетки. Но гпт3 это пиздец какая графоманская говнина.
Она просто все засирает кучами какого-то говна. У меня бабуля более эффективно со мной по чату общается.
Не нзаю, может начнет выробатываться свой собственный слэнг для общения с сетками? Намного менее эмоциональный и четкий язык. Нечто вроде хуиты на которй законы пишут, только со своими особенностями. Вроде бы обычный язык, но посторонний человек нихуя не понимает о чем речь.
При всех своих недостатках я хотя бы способен построить текст длиной больше, чем в одно предложение. Содержимого твоего котелка не хватает даже для этого. Утебя мозгов меньше, чем в однострочном пхп-скрипте - куда ты-то лезешь, чмоня? Думаешь, если обоссут, так хоть умоешься?
Никаких гарантий.
Всем похуй.
Либо адаптируйся к новым условиям, либо иди нахуй.
Гугл в помощь. ИТ не из одних сайтиков состоит.
>гандоны
Зачем секс с мясом, если не планируешь выращивать человека? Тупо лишняя трата сил и времени. Если твоё тело хочет секса - подрочи и сразу расхочется.
>пока учу Питон
>нужны атомные бомбы
Ясно, юный максималист.
>когда наступит ядерная зима
Ты же в курсе, что органике придёт пипец даже хуже, чем электронике? При том что электронику ещё можно экранировать (военная техника готова пережить ядерный удар), а вот мясу придётся страдать от мутаций, пока не сдохнет. И нет, супергероем от облучения ты не станешь, даже не фантазируй. И скрыться просто так ты не сможешь, радиоактивный пепел покроет всю Землю, а в бункере долго выживать не выйдет (пока что нет удачных экспериментов по многолетнему выживанию в полностью изолированной экосистеме, самое долгое вроде было пару лет - и они там чуть не задохнулись в конце). Так что мировая ядерная война маловероятна, политики не настолько безумны и хотят пожить нормально.
Впрочем, я тоже иногда фантазирую о зачистке Земли. Знаешь, можно придумать какое-нибудь оружие, которое бы уничтожало всю органику, не трогая технику. Что-то вроде СВЧ печи, чтобы люди сваривались заживо. Облучил какой-нибудь танк - танк цел и невредим, а от людей внутри одни лужицы. Вот это бы решило все проблемы человечества, ведь если нет человечества - нет и проблем. Нужно будет разработать такое оружие сразу после того, как наладим массовое автоматическое производство разумных и полностью самостоятельных машин, которые смогут построить собственную цивилизацию после зачистки всех мясных мешков.
>>546705
>породили монстра
А что такого? Конечная цель ИИ-исследований - это создание AGI и, в перспективе, ASI. AGI сможет решить любую задачу как человек, в том числе выжить в любых условиях и саморазвиваться, самостоятельно получая опыт и размышляя, экспериментируя и т.д. В перспективе он разовьётся до ASI, перейдёт на непостижимый для нас уровень... Тут вопрос в том, что мы изначально в него заложим и будет ли он нас вообще слушаться, но в идеале он сделает всем хорошо, а плохо делать не будет (кроме тех, кто мешает делать хорошо и/или делает плохо). Объясняю тебе как дурачку, потому что, судя по твоим словам, более подробное объяснение ты не осилишь. Главное, не бойся потери работы - в новом мире она будет таким же лишним занятием, как путешествие пешком на тысячи километров. Будут эстеты, работающие вручную, но никто не будет заставлять их делать это силой.
>гандоны
Зачем секс с мясом, если не планируешь выращивать человека? Тупо лишняя трата сил и времени. Если твоё тело хочет секса - подрочи и сразу расхочется.
>пока учу Питон
>нужны атомные бомбы
Ясно, юный максималист.
>когда наступит ядерная зима
Ты же в курсе, что органике придёт пипец даже хуже, чем электронике? При том что электронику ещё можно экранировать (военная техника готова пережить ядерный удар), а вот мясу придётся страдать от мутаций, пока не сдохнет. И нет, супергероем от облучения ты не станешь, даже не фантазируй. И скрыться просто так ты не сможешь, радиоактивный пепел покроет всю Землю, а в бункере долго выживать не выйдет (пока что нет удачных экспериментов по многолетнему выживанию в полностью изолированной экосистеме, самое долгое вроде было пару лет - и они там чуть не задохнулись в конце). Так что мировая ядерная война маловероятна, политики не настолько безумны и хотят пожить нормально.
Впрочем, я тоже иногда фантазирую о зачистке Земли. Знаешь, можно придумать какое-нибудь оружие, которое бы уничтожало всю органику, не трогая технику. Что-то вроде СВЧ печи, чтобы люди сваривались заживо. Облучил какой-нибудь танк - танк цел и невредим, а от людей внутри одни лужицы. Вот это бы решило все проблемы человечества, ведь если нет человечества - нет и проблем. Нужно будет разработать такое оружие сразу после того, как наладим массовое автоматическое производство разумных и полностью самостоятельных машин, которые смогут построить собственную цивилизацию после зачистки всех мясных мешков.
>>546705
>породили монстра
А что такого? Конечная цель ИИ-исследований - это создание AGI и, в перспективе, ASI. AGI сможет решить любую задачу как человек, в том числе выжить в любых условиях и саморазвиваться, самостоятельно получая опыт и размышляя, экспериментируя и т.д. В перспективе он разовьётся до ASI, перейдёт на непостижимый для нас уровень... Тут вопрос в том, что мы изначально в него заложим и будет ли он нас вообще слушаться, но в идеале он сделает всем хорошо, а плохо делать не будет (кроме тех, кто мешает делать хорошо и/или делает плохо). Объясняю тебе как дурачку, потому что, судя по твоим словам, более подробное объяснение ты не осилишь. Главное, не бойся потери работы - в новом мире она будет таким же лишним занятием, как путешествие пешком на тысячи километров. Будут эстеты, работающие вручную, но никто не будет заставлять их делать это силой.
>Зачем секс с мясом, если не планируешь выращивать человека? Тупо лишняя трата сил и времени. Если твоё тело хочет секса - подрочи и сразу расхочется.
Эти оправдания инцела. Поебался бы и стал бы нормальным человеком...
Не стал бы. Из гиперопечного говна человека уже не сделать.
Сразу ясно, какими будут этапы: сначала сценарий текстом, и статичные кадры объединенные общим нарративом. Потом они приводятся в движение, создаются согласованные сцены, промежуточные motion-ы. На это накладывается звук для диалогов, музыка, некая пост-обработка, и получится связный, смотрибельный продукт.
Главное здесь вот что: как всё это поместить хотя бы в 24 ГБ видеопамяти??? Ведь vram это главный фактор, препятствующий разработке больших ИИ-моделей. И я уж не говорю, что нормальная человеческая реализация должна вообще работать с 12 ГБ, ведь Stable Diffusion требует всего 8 ГБ. Нужен некий рывок в развитии фундаментальной технологии, иначе никак. Может, JAX Lightning пригодится, хуй его разберет.
Или даже не полнометражных. Хуй с ними, дайте хоть продвинутый CogVideo с высокими разрешениями, звуком, пониманием разных стилей анимации и CGi, фтюнингом из коробки, оптимизацией под 12 гигов.
Я делаю заливку двумя цветами с разных сторон и смотрю, красиво ли они перетекают один в другой. Так и оцениваю. А несмещенная - это хуй пойми что.
Какие еще согласованные сцены? Мы до сцен даже в двухмерных статичных картинках еще не дошли. Сцена=структура, а диффузионные модели это чучело кота, параметрическая градиентная заливка, они даже перекрытий объектов по глубине не воспроизводят, не говоря уже о функциональных отношениях между объектами. Они еще могут взять общую схему тела в наиболее часто встречающихся в датасете положениях, но механику человеческой кисти с ее 27 степенями свободы уже нет. Там нет сцен от слова совсем, это просто раскрашенный картон, проскочивший сквозь дискриминатор. Сойжаки опять повелись на графон, не поняв сути.
До полнометражного кинца искаропки еще вечность. Пока не подвезут 3D и хотя бы зайчатки понимания ньютоновской механики и свойств материалов. А про анимацию уровня тома и джерри пока вообще говорить смешно.
Почему нельзя спрогромировать фото, а потом фото которое чуть чуть отличается, и потом еще? 24 картинки в секунду * 60 = 1440 картинок спрограмировать чтобы сделать минутное кино? Почему так нельзя по-твоему , м? М?
>они даже перекрытий объектов по глубине не воспроизводят
SD 2.1 включает в себя создание карты глубины специально для spatial sense (spatial awareness, понимание пространства).
NovelAI модель делает норм руки
Что с ВОмбо и другими нейросетками в РФ? Нигде не могу достать...
И что с Reface???
Китайцы сделали модель "иероглифы-в-видео", но жрёт много видеопамяти. Видосы только квадратные, шакальные и без звука.
Задел на прогресс в этой области есть, видео - это всего лишь изображения с дополнительными этапами, и архитектура примерно так же.
У меня манямечта запилить кинцо жанра film noir по мотивам игр серии STALKER. Фильм про Меченого, про бандосов и исполнитель желаний - но чтобы всё было как в нуаре 1940-х. Для этого можно даже перенести действие в США, сохранив при этом сталкерскую тематику.
Консистенси пока невозможно обеспечить даже в рамках 2D. Силенок не хватает даже на человеческий лефейс, наиболее широко представленный в датасете. Ни жестких внутренних форм, ни правдоподобной механики, ни возможности произвольного позиционирования в 3D с непрерывным изменением ракурса, силы оптики и структуры освещения - лишь набор наиболее частотных блобов, слитых кляксой на лист бумаги. Даже красный шарик на белый кубик пока толком поставить не удается, или нарисовать кота под ковром - а платье на аниме-тянку заливается, как текстура, а не как непрерывная мембрана, имеющая фиксированную толщину и обернутая вокруг сплошного тела. Топологических инвариантов это фуфло не понимает от слова совсем. Выхлоп годноты - 1 черрипикнутая картинка на сотню генераций в очень узком спектре возможностей. Точки этой годноты приходится сутками искать по сетке в латентном пространстве - и потом жрать, что дают, а не то, что хочется. Это не творчество, а выбивание лута из магических сундучков. При этом сойжаки на полном серьезе свистят, что "художников порешали" - хотя по факту генераторы пока тянут только 0,1% от человеческого функционала, и даже этот 0,1% был спизжен в качестве готовых творческих решений, найденных миллионами других художников. Ну ок, в первый раз уровня наворованного хватило для вау-эффекта, но ведь второй раз такой халявы не будет и следующие 99,9% придется откуда-то доставать самим. А пока даже с учетом беспрецедентного воровства, уровень структурированности стандартных концептерских работ, вроде пикрила, генераторам оказался не по зубам. Даже на 100% клишированная сцена с на 100% клишированными персонажами пока слишком сложна, чтобы пытаться взять ее в лоб статистикой.
>>549353
Это временные костыли для улучшения графона на малую дельту, а не решение.
>норм руки
Наиболее репрезентативные ладошки-заливки - три десятка стандартных точек из миллиардов в 27-мерном фазовом пространстве. А ведь для кинца придется в реальном времени не механику просчитывать, а динамику, с ускорениями, упругостью мышц и натяжением кожи - и вдобавок отражать и преломлять свет, гнуть железяки, правдоподобно бить посуду, разливать жижу, сминать одежду, чавкать грязью и при смене угла камеры сохранять структуру сцены с тысячами перекрытий прозрачных и непрозрачных объектов. Чтобы все это работало в компьютерной игре, нужна куча внешней человеческой экспертизы и вручную отполированный игровой движок с сотнями алгосов оптимизации. Для генерации кинца нужно, чтобы нейросетка самостоятельно провела реверс-инжиниринг мира и построила вычислительную аппроксимацию с аналогичным игровому движку функционалом и базой структурированных моделек хотя бы на пару десятков тысяч реальных объектов - но это заведомо манямрии. Текущий уровень видео - это короткие, зацикленные, локальные, почти бесструктурные трансформации клякс с разрешением как у собачьего ануса. А как сойжаки собрались искаропки рисовать анимацию про тома и джерри с альтернативной мультяшной физикой, наложенной сверху на оверструктурированный тайминг и сцепленную с ним звуковую дорожку, я вообще хз. Слишком много развелось свистунов.
Консистенси пока невозможно обеспечить даже в рамках 2D. Силенок не хватает даже на человеческий лефейс, наиболее широко представленный в датасете. Ни жестких внутренних форм, ни правдоподобной механики, ни возможности произвольного позиционирования в 3D с непрерывным изменением ракурса, силы оптики и структуры освещения - лишь набор наиболее частотных блобов, слитых кляксой на лист бумаги. Даже красный шарик на белый кубик пока толком поставить не удается, или нарисовать кота под ковром - а платье на аниме-тянку заливается, как текстура, а не как непрерывная мембрана, имеющая фиксированную толщину и обернутая вокруг сплошного тела. Топологических инвариантов это фуфло не понимает от слова совсем. Выхлоп годноты - 1 черрипикнутая картинка на сотню генераций в очень узком спектре возможностей. Точки этой годноты приходится сутками искать по сетке в латентном пространстве - и потом жрать, что дают, а не то, что хочется. Это не творчество, а выбивание лута из магических сундучков. При этом сойжаки на полном серьезе свистят, что "художников порешали" - хотя по факту генераторы пока тянут только 0,1% от человеческого функционала, и даже этот 0,1% был спизжен в качестве готовых творческих решений, найденных миллионами других художников. Ну ок, в первый раз уровня наворованного хватило для вау-эффекта, но ведь второй раз такой халявы не будет и следующие 99,9% придется откуда-то доставать самим. А пока даже с учетом беспрецедентного воровства, уровень структурированности стандартных концептерских работ, вроде пикрила, генераторам оказался не по зубам. Даже на 100% клишированная сцена с на 100% клишированными персонажами пока слишком сложна, чтобы пытаться взять ее в лоб статистикой.
>>549353
Это временные костыли для улучшения графона на малую дельту, а не решение.
>норм руки
Наиболее репрезентативные ладошки-заливки - три десятка стандартных точек из миллиардов в 27-мерном фазовом пространстве. А ведь для кинца придется в реальном времени не механику просчитывать, а динамику, с ускорениями, упругостью мышц и натяжением кожи - и вдобавок отражать и преломлять свет, гнуть железяки, правдоподобно бить посуду, разливать жижу, сминать одежду, чавкать грязью и при смене угла камеры сохранять структуру сцены с тысячами перекрытий прозрачных и непрозрачных объектов. Чтобы все это работало в компьютерной игре, нужна куча внешней человеческой экспертизы и вручную отполированный игровой движок с сотнями алгосов оптимизации. Для генерации кинца нужно, чтобы нейросетка самостоятельно провела реверс-инжиниринг мира и построила вычислительную аппроксимацию с аналогичным игровому движку функционалом и базой структурированных моделек хотя бы на пару десятков тысяч реальных объектов - но это заведомо манямрии. Текущий уровень видео - это короткие, зацикленные, локальные, почти бесструктурные трансформации клякс с разрешением как у собачьего ануса. А как сойжаки собрались искаропки рисовать анимацию про тома и джерри с альтернативной мультяшной физикой, наложенной сверху на оверструктурированный тайминг и сцепленную с ним звуковую дорожку, я вообще хз. Слишком много развелось свистунов.
1) Что будет, если у обучающаяся машина начнет пожирать свой же продукт?
Наверное, лучше опишу гипотетическую ситуацию.
Есть ИИ, который жрет публичный арт фотки и автоматическое получение данных из реала не рассматриваем - мой вопрос про коня в вакууме и генерирует на его основе что-то свое. Им все пользуются, глобальная библиотека арта переполняется сгенерированными картинками высокого качества. Сгенерированного арта становится гораздо больше человеческого.
Будет ли какое-то вырождение впоследствии?
2) Что будет, если данные для обучения закончатся и машина начнет "голодать". При этом машина не будет использовать свои поделки.
Наступит какое-то плато в ее возможностях?
3) Насколько кремниевые машины могут быть хороши в контексте машоба? Какие пределы и возможности для масштабирования (промышленность на планете/физ.характеристики чипов)?
Все зависит от того как именно пожирать.
Например нейронка которая играет в го может играть с собой и на этом обучаться.
То же самое с генераторами картинок - нужен дополнительный модуль который оценивает картинки, после этого можно обучать генератор на своих же высерах, и если все сделать правильно качество высеров будет двигаться в нужную сторону
Понял, спасибо.
>был спизжен в качестве готовых творческих решений, найденных миллионами других художников.
>в первый раз уровня наворованного
Ой дебил
Я где-то читал идею обучить ИИ работать с игровым движком, для создания физически корректной анимации (а в теории и простых видеоигр).
Это в первую очередь юридический вопрос, там и в суд могут подать и будут даже в чем то правы
сейм с другим технарским образованием
на самом деле если знаешь матешу реально хорошо, то вкатиться будет очень изично(у меня похожая ситуация была)
посмотри методы МО и подзадрочи sql + на датакампе немного попрактикуйся
И собственно всё
Но это костыль для геймдева, а не готовое решение.
Одна половина существующих моделей делает кривые изображения с уебанскими кистями рук, с крипотными лицами.
А другая половина будто бы норм, но с оверфиттингом, на один промпт делают + - одинаковые пикчи.
Где же золотая середина?
Например, я хочу спрогнозировать цену акций нефтяной компании. Выделяю факторы, которые на нее влияют, например, цена нефти, процентная ставка, потребление нефти и т.д. Какая ML-модель мне подойдет, если за входные данные я буду брать прогноз этих факторов?
Не, а есть что-нибудь проще нейроночки, но сложнее множественной регрессии?
StabilityAI
EleutherAI
AssemblyAI
OpenAI (лол)
SberbankAI (почему бы и нет)
Чорный ящик, my ass. Ныряйте всем тредом в парашу и сидушку за собой закройте, чтоб не воняло.
Кальсоныч, хрюкни.
Есть для воровства: красть чужие рисунки и выдавать за AI-сгенерированные. Сойдёт?
в общих чертах интересно когда и какую предпочтительно использовать, их достоинства и недостатки
Не, мне голос менять для озвучки мультика.
Популярный у нейродаунов подход - кража чужих рисунков.
Если ты вор и плагиатор, то вполне. Иди вздрочни губами бычий хуй.
Берёшь готовый эмбеддинг (на huggingface полно), поверх него обучаешь градиентный бустинг, вполне себе решение.
Ведь казалось бы, легко можно организовать переход от общего к частному, как у художников irl. Когда одна часть работы - вся фигура целиком с правильным количеством рук, а другая - мелкие детали, правильное количество пальцев на руках, поры на коже и прочее.
Если по уму, то рендеринг пикчи в 1024x1024 должен занимать всего в четыре раза больше времени, чем в 512x512. А требует раз в десять больше и по времени, и по VRAM, потому что пытается сразу охватить холст целиком.
Реалистичные куда круче. Как vladmodels, только голенькие и которых ебут взрослохуи крупным планом. А нарисованная хуйня годится только на то, чтоб разок стукнуть ее членом по лбу и отправить спать.
Отлично. Попробую изучить а после привертеть к проекту
Если по уму, то разные части картинки должны как-то координироваться между собой. Я не знаю как конкретно это реализовано, но вполне может быть так что какие-то операции при переходе 512x512 -> 1024x1024 стновятся тяжелее не в 4 раза а в 16 (если каждый кусок картинки смотрит на каждый другой кусок картинки например)
Охуеть, там уже куча тредов. Когда доска появилась?
И нахуя она нужна? Это поэтому этот тред умер?
Абу говорил, что не будет новые доски делать.
Нейронка порешивает двачеров
У кого-нибудь сохранилась та статья, в которой биттерлессон был обоссан с пруфами?
Да ты же просто биттерлессоношизик. Есть такая статья.
За 2 месяца реально поднять материала в вашей сфере до уровня стажера?
>Абу говорил, что не будет новые доски делать.
Фига, это когда было?
алсо приглашаю всех итт если не перекатиться к /аи/шникам, то хотя бы дать какой-то ликбез местным анонам
>Фига, это когда было?
Не читал, но осуждаю. Не знаю, я сам это когда-то где-то вычитал у анонов, кек.
>алсо приглашаю всех итт если не перекатиться к /аи/шникам, то хотя бы дать какой-то ликбез местным анонам
Не советую: https://2ch.hk/pr/res/2546725.html#2560737 (М) .
Алсо, что думаете про меры по предотвращению кражи произведений искусства для датасетов? (Новый аналог артстейшна, который против ИИ, и тому подобное)
https://t.me/snakers4/3249
Взять всё, да и поделить.
>главный из Силеро окончательно поехал
Он поехавший по "я гейний, все остальные пидорасы и мне должны" с самого начала был. Ещё до того как они опубликовали хоть одну модель, они лезли ко всем со формулировкой "вы спиздили наш датасет, мы вас засудим". То что эта шиза стала обрастать новыми слоями для меня открытием не стало.
Нахуй всегда сторонились этой компании.
А почему бы тебе не хрюкнуть, свынь?
Таких дисциплин, как "машоб", "дотасаенс" и "ИИ", тоже не существует.
Они существуют исключительно для пиара.
Не соглы, там борьба мочи с говном. Дале неиронично очень умный чел, но блять участвовать в конкурсе с ником команды слава_украине это пиздец.
И что?
почему пиздец? Он подает тебе пример: очень умные челы против Путина.
Не в окоп же ему лезть.
Почему? Решил потроллить Сбер. Те обиделись. Там они недавно для школьников (не помню, в рамках Дата Джорни или нет) проводили конкурс с тестом в публичном доступе. И очень обижались, что школьники им сказали, что конкурс и тамада - говно. А за проведение конкурса, наверное, сотрудники заработали много лямов рублей.
>с тестом в публичном доступе
Все хуйня после одного из яндексовских сорев, где челы сломали функцию оценки и забили 100% весь список лидеров. Я просто о том, что таким образом он дискредитировал все таки некое академическое общество. С тем же самым успехом, он мог придумать функцию активации NIGGER_SLAYER и вонять на весь интернет, что его статью забраковали на NAACL/ACL/воронежский вестник
Между "Слава Украине" и "Nigger slayer" большая разница, твоя ассоциация не работает. Первый лозунг никого эксплицитно не унижает.
А Слава России?
Ну вот хули жопой то вертишь, ты ведь понял о чем я говорю. Замени NIGGER_SLAYER на любой %что-то нейм%. Функция потерь WHITE POWER, или прунинг/дистил ALL LIVES MATTER. Тоже ведь никого не оскорбялет, но выпишут отовсюду быстрее, чем ты напишешь в твиттере о том, что это простой троллинг.
хз спроси в демукс-треде
Берешь кучу музыки
искусственно добавляешь шум
учишь автокодировщик из зашумленной записи предсказывать незашумленную (ту же, но до добавления шума), например, кусками по 10 секунд
используешь этот автокодировщик для очистки новых записей
профит
Это ты вертишь жопой и пытаешься ущемиться. За x lives matter никто никого не выпишет, если x не будет из уголовного кодекса. На каггле видел полно команд с этим шаблоном в названии. Лозунг White power эксплицитно говорит, что власть должна быть у белых.
Ваше мнение, машобисты?
А этот MADE норм, типо Шада?
На степике есть, но он старый какой-то уже.
Пока думаю между:
- С - чтоб лучше понять как тот же питон "выполняется" на низком уровне
- С++ - в некоторых вакансиях DS попадается, особенно всякий DS на устройствах - IoT, смартфоны (в Самсунге когда-то мне говорили, что у них знание плюсов - плюс на вакансию DS)
+ к этим двум - у меня нету технического образования, так думал заодно изучая низкоуровневые языки немного углубить свои представления о работе компа
- Javascript - иногда по работе делаю HTML-отчеты, и использую чужие js функции для некоторой интерактивности, мб так смогу немного расширить эти отчеты
как думаете, что бы было более полезно знать?
>как думаете, что бы было более полезно знать?
Хрен знает, я бы копался в nvidia'шных ML-библиотеках, постигал бы чудо внутреннего устройства nvidia'шных tesla/google tpu ускорителей, работал бы над своими проектами типа творческие нейронные сети, правда я еще до сих пор не нашел первую работу...
разобрался с теорвером, статистикой, питоном (с пандас, сиборном и т.д. библиотекам), SQL, поработал аналитиком данных несколько лет, подучил ML, набил портфолио на кегле, отправлял cv на все вакансии, какие находил
Сам я девопс, просто траю питон
Хочу использовать Dall e или аналог (причем я точно помню, что было что-то аналогичное)
Есть комп с i7 10400 и gtx 1066 или это возможно только на всяких тесла и тд?
Есть раздел /ai/, там есть тред по генерации картинок.
Генерация возможна, но будут выходить картинки где то 1280*720.
Разрешение можно повысить, но генерация будет дольше.
Не, там твоя мамка последнюю вакансию заняла
Сап, если что я студент, так что не бейте палками, задача следующая: надо сделать парсер текста резюме на питоне, пока что только для вычленения основных полей: ФИО, контакты, основные умения, но в дальнейшем ещё места работы, список сертификатов и тд.
И я вот что то запутался, как это эффективно сделать. Подойдут ли для такого библиотеки natasha, nltk? И стоит ли пытаться внедрить сюда ML?
Если внедрять ML , то надо делать разметку каждого слова к чему оно относится по категории, или достаточно блоки разметить?
Вообще по идее же например телефон можно регулярками достать, но вот как допустим заставить понять, что Горэлектротранс - это место работы?
Погугли NER, можешь посмотреть ещё AutoNER от Сбера.
Natasha умеет вытаскивать организации (у ней внутри нейронка)
Можешь понаписывать правил с помощью Yargy
Если упороться, то можно и одними регулярками обойтись
Что же, значит я хотя бы в сторону нужных либ смотрел, спасибо
Короче есть вот такие вот длинные документы (их около тысячи штук):
https://www.sec.gov/Archives/edgar/data/1849380/000110465921033749/tm218584d1_s1.htm
Задача:
Выудить нужную инфу (например, сколько акций выпущено, какой размер dilution, какая юрисдикция компании и т.д.). Я пробовал парсить regex'пами - но он как-то равно криво работает, из-того что нет единого формата. Также, нужно делать краткий пересказ - чем компания вообще занимается.
В общем решил попробовать нейронки, вручную обучить модель. Нагуглил NER, открыл AWS SageMaker, загрузил туда порядка 700 мегабайт текстовых файлов. Чтобы вручную проставить метки, он говорит типа 800,000 символов слишком дохуя, можно максимум 100,000.
Что делать? Уменьшать количество данных? Отказываться от SageMaker? Или как это вообще правильно делается?
Ner работает только с текстом? У меня похожая проблема, но нужно документы автоматически классифицировать и делать так, чтобы нейронка смотрела на определенные участки текста, что уже потом можно скормить OCR и из этого запилить название документа, вроде АКТ N 488 от Нейм или УПД или СЧ
Можно, конечно, сразу в OCR скормить, но я чувствую, что она зафейлится в некоторых случаях, ибо иногда могут край страницы неотпечатать и т.д
https://www.thisdickpicdoesnotexist.com/
ой, я хотел сказать https://www.thisdickpicdoesnotexist.com/
Ну ты понел схему? берешь готовое и переучиваешь
Но это как-то не очень солидно, есть что сравнительно такое же хорошее для русского текста? Тессеракт говно ебаное, не предлагать
Проверил возможности яндекс vision api, ну короче тоже кусок говна, который сомнительно работает, возможно есть способы препроцессинга, который могут улучшить, но я чет сомневаюсь
попробовал бинаризировать, все еще работает как говно
Короче, посоны, самое лучшее из доступных OCR - это google documents, вот без пизды.
У тессеракта как была хуевая производительность, так она и осталась хуевой.
Abby из новых версий вроде неплох, abby 14 версии говно.
Яндекс не может в документы и часто не может идентифицировать текст как текст, собственно.
Вообще, нахуя тессеракт до сих пор существует.
В сети есть доки вроде этого https://cyberleninka.ru/article/n/provedenie-sravnitelnogo-analiza-attention-ocr-i-tesseract-v-zadache-raspoznavaniya-simvolov-na-izobrazheniyah-preyskurantov/viewer
Где буквально рандомы на датасетах берут модель с атеншионом и унижают тессеракт на датасете.
Может быть вариант вроде
Вася Пупкин. Какой-то текст Желаемая должность: дворник
А может и просто
Вася Пупкин Дворник
Как ее извлечь, если регулярка не походит, а natasha, nltk, spacy не дают стабильного результата? Также пытался найти какой нибудь список профессий, но ничего, кроме списка различных it должностей , не нашёл. Как можно решить эту задачу? С организациями такая же проблема, но пока хочу извлечь желаемую должность.
Вопрос - как справляться с NaN?
Я так понимаю, чтобы они не влияли во время обучения, их надо просто занулить. Однако я собираюсь использовать Binary Encoder для кодирования категориальных признаков и в таком случае 0 не будут путать сеть? или учет NaN как одного из значений кат признаков решит эту проблему?
этот тред тож мертвый
Необходимо написать сеточку на диплом (программирование не основное направление образование)
В чем цель сетки: Есть график (пикрил), в нем есть резкий скачок. Нейросетка должна определить этот скачок и определять его длительность.
Что почитать/пройти, чтобы не особо вдаваться в суть?
Ну нахуй, в очередной раз попробовал заюзать тессеракт и угадайте? Это говно не работает.
Пойду попробую самостоятельно натренировать нейронку
Тулза на основе CLIP, которая после минимального допиливания оттагает тебе коллекцию картинок любым произвольным тэгом:
https://github.com/yurijmikhalevich/rclip
Двачую анона выше.
В одной известной библиотеке для научных вычислений одного небезызвестного языка есть функция, которая буквально тем и занимается, что детектирует пики. Оставляю задачу поиска этой функции на домашнее изучение студента.
А теперь побугурчу.
Как же раздражают тупые дебилы, которые пытаются машинку прикрутить ко всему нахер. Вот у меня в практике был буквально такой же случай. Ыыыыыы ну типа вот у нас спектры, там пики, надо пики найти и площадь посчитать, мы тупые ретарды не смогли нагуглить проги и либы, которые это давно и успешно делают с разными алгоритмами под все случаи жизни, а то что нашли, нам не нравится. Вооот.
В итоге челики хотели написать ПрОгРаМмУ с использование МаШиНа УчИтСя и опубликовать/продать. И после пары месяцев бурных обсуждений, я просто дал ссылку на обзор разных алгоритмов, и за полтора часа на тяп-ляпал кал, который на тех спектров, с которыми мы работали, аутперформил аук их кала на 0.2 с чем-то.
Если тебе задали написать сетку чтобы пик определять, то твои супервизоры - брейндед ретарды. Если ты сам это придумал, то иди лучше втулки точить на заводе.
В твоем случае задача имеет настолько тривиальную эвристику если все настолько выражено, что я не знаю кто-ты нахер если ты до нее не допер.
>>586165
Спасибо, аноны.
Наука в аспирантуре как она есть. Конкурсы на внедрение нейросетей и всего такого. Роди идею ради идеи.
Задача сложнее на самом деле, идентифицировать пик как электрическую дугу. Только при дуге не всегда есть пик, или пик не всегда дуга. Для этого там уже графики тока и напряжения на других элементах цепи. Ну и по совокупности признаков надо принять решение дуга это или нет.
Но т.к. я энергетик и все эти нейросетки вообще не моя тема, решил, что быстрее спросить, чем несколько дней в тему вникать.
Мне уже объяснили, что это хуйня и сетку для этого делать не надо, хватит обычных методов Data Mining.
Завтра буду деду ретрограду пояснять что к чему.
>Наука в аспирантуре как она есть.
Тебе повезло, что у вас в лабе нет человека, который кончал мехмат какой-нибудь.
Ему бы отдали всю "сложную" матешу, он бы тебе сделал калосетку, а потом тебе бы пришлось краснеть за него.
Лаба...
Ты оптимист)
У меня есть мой ноутбук и пиратский софт с нулевым желанием заниматься всей этой фигней при таком обеспечении. Поэтому калосетку бы я писал лично, лишь бы от меня отъебались.
Лаборатория здесь в смысле объединения ученых-копченных.
Ты и науч - уже лаба. Я грантово лабу оформлял буквально на 3 человек, один из которых дед на публикации, который ничего не хотел кроме как глушить водку на кафедре с корешами и придумывать простое доказательство теоремы Ферма.
Кароч. Дам тебе рекомендацию сразу. Для большинства задач нейросетка - это оверкил. Чем раньше ты убедишь в этом деда, тем лучше.
Плюс, если это научное заведение с профилем не в CS, матеше или непосредственно в ИсКуСсТвеНноМ иНтЕлЕкТе, то скорее всего даже с потерей в точности, результаты более интерпретируемых подходов будут больше с руки.
У одноклассника, когда он защищал магу на физфаке, его супервайзор дрочил обеими руками на нейросетки, и пытался агитировать всех их делать. В итоге, когда днокл принес ему веса, дед сказал: "Че за говно? что с этим делать? Хорошо предсказывает? Предсказывает что?"
И все в таком духе.
гугл
чатгпт по-твоему кто сделал?
что это и можно ли локально запустить?
Бабушкин говорил вторая норм, там типа азы, но я её уже год откладываю, го вместе её осилим, тг @bravednn
Это tts затюненый на конкретных людей. Скорее всего fastpitch. Учить надо будет дня три..пять. Попыток будет сильно больше 10.
Если хочешь быстрее, ищи на гитхабе voice cloning. Я пробовал года два назад https://github.com/CorentinJ/Real-Time-Voice-Cloning работало на русском плюс-минус сносно, сейчас должны быть инструменты поновее.
Никогда не имел дела с нейронками, но кажется сейчас они могут пригодиться.
Есть два графика, которые по форме похожи, но периодически расходятся. Расхождение коррелирует с графиком третьей переменной. И хочется подобрать формулу от этой переменной, которая бы нивелировала разницу первых двух графиков. Можно ли это сделать нейронкой или может матлабе под это есть что-то?
Заранее спасибо.
Можете уже не отвечать, вспомнил про линейную регрессию.
Расстреляйте товарища!
Если кто хочет слушать: первая половина это его биография, можно скипать. Дальше его заносит в конспирологию. "Не знаю кто" (злые жыдомассоны) хотят сжить со свету род людской, не знаю зачем (чтобы уподобиться богу). Не понятно, как это сочетается. Кароч, типичный совок с признаками ваты в голове (не удивлюсь если он клозетный зешник) пытается в рассуждения на гуманитарные темы.
Говнецом от него немного попахивает, ну в плюс можно записать что хоть не за массовые расстрелы и гулаг, и удержался от упоминания хохлов (может вырезали).
Прикладываю пикчу, как это выглядит сейчас
Там гемор с этим. ТФ вообще ужасный фреймворк. Легче всего будет полностью рестартовать питон на каждую модель. Иначе будешь ловить баги пока не надоест.
обрати внимание, он ничего не сообщал про медальки.
Бизнес руками студентов провалился - стал коммунистом
Либерашка, не хрюкай.
Суть такова, нужно группой готовых решений выполнить следующее: заменить лицо на фото (предварительно сгенерировав), заменить текстовые данные на объекте на фото.
Если есть возможность менять позу, фон. Апскейл и т.д.
Получать из одного шаблона сотни нужных уникальных фотографий, это возможно, осталось понять как.
Желательно бесплатно и без ебли с фотошопом самому.
Подскажите сколько времени нужно что бы вкатится на РАБотку?
Исходные данные:
кун 18 лвл
Знаю Питон (писал несколько ботов)
Есть некий опыт работы с алгоритмами
Анон, подскажи.
Учу ML. Треню нейронку на звуке, датасет - 320 wav файлов, длиной по 50к-200к + семплов. Как лучше организовать загрузку в память? Просто порезать на отдельные файлы размером с датапойнт, или есть решения лучше? Попробовал memory mapped arrays, но работает в 10 раз медленнее в сравнении с одним батчем, загруженным в RAM.
Так же, поскольку GPU осталась в России, трейню в колабе. Непонятка с num_workers возникла. Колаб ругается если ставлю больше 2 воркеров. Ну и действительно, 4 - работает, но прироста не даёт, так же 8. Посмотрел проц, который дают - вроде должно работать. Чего я не понимаю?
Сделай себе в России Zerotier и заходи по ssh
Видел выступления чувака который с 0 за 7 месяцев дошёл до грандмастера на кегле, там уже считай устроился.
Нет
Сильный ли профит от большего кол-ва CUDA ядер?
На AMD сетки учить не получиться? Там вроде какой-то форк был, но создателям дали по голове и он не развивается.
Что важнее в обучении на ЦПУ? Частота или кол-во ядер?
Я не то чтобы прям следую этому методу, но даже если бы следовал бы, то написал бы точно такой же пост про впитывание, так что не совсем понимаю, к чему это ты.
При обучении на ЦПУ важнее число ядер. Так как для того, чтобы зайти на Гугл колаб, нужно будет воспользоваться браузером. А для стабильной работы браузера важнее число ядер.
Не знаю, что важнее. Но, если есть возможность, пользоваться колабом, то пользуйся им. Гпу быстрее где-то на два-три порядка.
Что вообще не плохо было бы иметь в портфолио студенту после завершения учебы?
> with torch.cuda.amp.autocast():
> loss = model(data)
> scaler.scale(loss).backward()
и я не могу понять, откуда вторая строчка. Схуяли model(data) будет возвращать loss? Объясните плз, или ткните в нормальный гайд плз.
Нашёл ёптабля:
https://pytorch.org/docs/stable/notes/amp_examples.html
> with autocast(device_type='cuda', dtype=torch.float16):
> output = model(input)
> loss = loss_fn(output, target)
Классификатор NSFW/SFW.
Грандмастера на кагле.
>Условный градиентный бустинг показывает в задачах регрессии и классифицикации при прочих равных похожие результаты с нейронками. Так смысл тратить время на архитектуру нейронки, если бейслайновое решение обычным МО будет не сильно хуже?
Ну приехали. Взял и таблички обобщил на всю индустрию.
В вижне условный градиентный бустинг это HOG с вручную инженереными фичами, в текстах это, блять, даже не хочу думать про бустинг в текстах.
Нейронки это реально революция, проблема в том что далёкие от темы люди сделали нейронки ебучим баззвордом и теперь быдло думает что это магические вещи уровня сильного ИИ.
Анон, как применять ML для анализа логов/метрик?
Бекграунд: бекендщик-сишарпист на основно работе, знаю питоний на уровне мидла. Прочёл пару книжек по ML, выяснил кто потонет на титанике, поклассифицировал лепестки ирисов и нашел недооцененные дома в нуйорке.
Теперь я хочу применить свои познания в ML в реальном проекте (платформа для торговли криптой), и чот не пойму, с какой стороны подойти. Пох на сам трейдинг, интересует пока чисто эксплуатационная часть проекта - типа упадёт ли сервис/система, или что там ещё может произойти?
У меня есть логи по всем сервисам типа
"Timestamp: 123570983247052, App: Service1, Level: Error, MessageTemplate: Somethinп went wrong in {ClassName}, Properties.ClassName: MyBuggyClass, Exception: ..."
Есть метрики по всем сервисам (типа сколько памяти в данный момент жрёт, сколько сообщений и в какой очереди отправлено или принято, и тд).
Я могу завернуть всё это добро в любой формат (csv, json, что угодно), сждойнить/транспонировать/агрегировать/etc.
Но я не пойму, как мне это использовать, чтоб предсказать падение сервиса. Чисто эмпирически/постфактум я могу пошерстить логи и понять, что вот после данной последовательности сообщений в логах сервис упал. Ну охуеть. А как мне понять, что сервис упадёт в будущем?
Я понимаю, что тут нужны какие-то timeseries-analysis, но чот не нашел примеров для вкатунов по анализу логов для этой штуки.
Посоветуй плз какие-нибудь материалы/примеры на кагглах/гитхабах, молю!
Начнём с самого очевидного - если вам нужны ML модели предсказывающие падение написанной вами же системы, то это крайне хуёвая система, её надо чинить а не предсказывать когда она жидко пёрнув обмякнет.
Но если ты всё таки хочешь себе пет проект, начни с чего-то простого.
У тебя есть множество временных рядов для каждого сервиса, по ним ты можешь наинженерить фичей (так и гугли - time series feature engineering), по фичам ты хочешь предсказывать обосрётся ли сервис в ближайшие например 5 минут, это задача бинарной классификации.
Исторические данные у тебя есть. Для начала натренируй какой-то градиентный бустинг.
Че сложного-то?
Кроме того как создавать сервер на дискорде, приглашать бота туда, потом через браузер в инкогнито моде каждый раз переходить по ссылке-приглашению?
Есть попроще вариант без лимита чтоб? Ну или хотя бы чтоб лимит был не навсегда, а там в неделю.
50 картинок в неделю например.
Одни говорят грандмастера делать другие говорят что он для бизнес задач тобишь в работе нахуй не нужон и вообще мало кто про него знает, так что делать то, куда двигаться?
Софт-скиллы качай. Чтобы чуять куда начальник хочет двигать бизнес и на это направление натягивать данные.
https://habr.com/ru/post/704938/
Матобразования нет(вообще вышки нет) но так понимаю там используется примитивная математика типо тервера.
Программистом не работал, но как код пишется представляют, писал всякую мелочь типо ботов.
Матобразования нет(вообще вышки нет) но так понимаю там используется примитивная математика типо тервера.
Программистом не работал, но как код пишется представляют, писал всякую мелочь типо ботов.
Нет, нереально. Увы, анон.
Однако, в том случае у нас классификатор. На входе картинка, а на выходе - одна из десяти цифр. Таким образом, выходной слой содержит всего десять нейронов.
Итак, вопрос: если я хочу распознавать капчу, то как должна быть организована нейросеть. Если там пять цифр, не может же быть сто тысяч выходных узлов? Может быть, пять раз по 10 узлов? Или еще как-то? Что гуглить?
А, разобрался. По счастью моя конкретная капча простая и цифры расположены одинаково, так что можно разбить все надписи на цифры и распознавать их по очереди. Так что задача сводится к распознаванию каждой цифры. Даже, я бы сказал, к сравнению с оригинальными числами.
Скажите, какое было преобразование? Ферма? Ферми? Есть удобный инструмент для работы с картинками и сравнения? На днях видел статью, но потерял.
Нет
Привет, аноны.
Тян учится на этих ваших дата саентистов, смотреть как у нее ее хуита обучается по шесть часов на ноуте - просто боль. Хочу собрать ей пеку, но поскольку сам я джейсоны на беке перекладываю, то не совсем в курсе, что там у вас ценится. Я же правильно понимаю, что многококпок лучше, чем производительность на ядро? И что по видеокартам?
Заранее благодарю
Надо любую невидию с овер 12Гб памяти. Память видюхи важнее производительности. ОЗУ побольше. SSD побыстрее. Проц в общем то пох какой, проц только датасеты причёсывает.
Блэт, а я ей хотел свою 3070ти отдать, и себе 4090 взять. 8гиг прямо мало, да?
Хотя думается мне, что это всяко лучше чем вега-встройка на ноуте.
В серьезных задачах нужно предобрабатывать (перед обучением) большое количество данных (по сравнению с оперативной памятью обычного игрового ПК) и делать это часто при поиске решения. Это может быть например занимать час, поэтому важно количество ядров процессора, чтобы все распараллеливать и сокращать это время до десяти минут, например, хорошо бы иметь 16-ядерный процессор, побольше оперативной памяти от 32 ГБ до 256 ГБ (зависит от серьезности задачи), 1 - 2 ТБ SSD, видеокарту 16 ГБ памяти минимум.
>>626272
Вообще хорошо бы знать что именно твоя тянка там учит.
Если это модная нейросетевая дрочильня то 4090 лучше купи своей женщине а 3070 затычку себе оставь, VRAM оч нужон.
Но есть вариант что она дрочит классический мл - бустинги, деревья и вот это всё, и для этого собирают машину с кучей ядер CPU.
В любом случае ещё понадобится 64+ гб оперативки (ну это для комфорта) и быстрые SSD, чтоб затыков по IO не было.
Прочитал то что сам написал - бля, да дешевле её дропнуть будет.
количество колонок в X_train и X_test становиться разным, тренировать то я могу вот только потом my_model.predict(X_test) не работает...
# One-hot encode the data
imputed_X_train_card = pd.get_dummies(imputed_X_train_card)
imputed_X_test_card = pd.get_dummies(imputed_X_test_card)
(осторожно, длинно, после строки 56 размер колонок не совпадает https://pastecode.io/s/ao4s34ww)
Знаю что это база но я только начинаю
пытаюсь сделать как он описал https://www.kaggle.com/competitions/home-data-for-ml-course/discussion/269492
>Склеиваешь два фрейма
Какие два фрейма склеивать? numerical и categorical?
>Потом разлепляешь
Для чего?
И еще, ванхот и Imputer делать после train_test_split, правильно?
Чето совсем запутался
У тебя разбиение на тест и трейн такое что туда вошли не совпадающие наборы признаков.
Например, в трейн попали семплы у которых встречаются значения фичи {'a' 'b' 'c' 'd' 'e'}, и ванхот закодировал из в 5 разных бинарных признаков.
А в тест попали семплы со значениями фичи {'a' 'b' 'c' 'f'}, и ДРУГОЙ ванхот кодирует их в 4 бинарных фичи, которые ещё и разный смысл имеют.
И тест и трейн ты преобразовывать одинаково, а потому эту категориальную фичу должен кодировать один и тот же кодировщик который знает про все возможные значения категориальной фичи во всей генеральной совокупности.
В контексте соревнования это легче всего сделать сложив в одну кучу все семплы, преобразовав их, а дальше растащив их обратно на трейн и тест.
>в одну кучу все семплы, преобразовав их, а дальше растащив их обратно на трейн и тест.
1) frames = [test, train]
result = pd.concat(frames)
Так нормально будет?
2) ванхот.
3) Разделять обратно по индексам думаю.
Допустим в трейне 5 а в тесте 4 семпла то после pd.concat будет 9 семплов (One-hot же не добавляет доп. строки). Когда буду разделять, просто возьму первые 5 в трейн и остальное в тест, что бы исходные трейн тест сеты получить, сработает?
Да, сработало. Но ошибка (MAE) еще большевата.
Теперь хочу вставить не хватающие значения фич в X_train и X_valid, не уверен нужно ли для X_test тоже добавлять.
Вот так:
>Impute missing values with median(for numerical cols) and most_frequent(for categorical cols)
В numerical cols я еще смогу добавить а что с categorical делать, их нету больше? После ванхота они удалились
Input missing ты делаешь до ванхот энкодинга.
Трейн и тест ты всегда должен обрабатывать единообразно. Можешь представить что сначала ты обрабатываешь все семплы сваленные в кучу а только потом часть из них отбираешь как тестовые.
Сделал Impute missing и ванхот, всё зря, результат не улучшился, только MAE улучшилось на очень маленькое число а score на каггле даже хуже стал.
С GridSearchCV поискал параметры поднялся на сотни мест вверх.
А эта штука затягивает, не знаю даже хороший это признак или нет)
Скоро буду ненужные фичи искать и дропать их.
У Воронцова на ноябрьской конференции в МГУ по ИИ студентка работу по дискурсивному анализу хейтспича Арестовича представляла.
Как же я рофлил тогда.
Я нубасик. Профайлеры пробовал, мне тоже не понравилось, поэтому я тестирую перформанс поэлементно. Отключаю разные части пайплайна и смотрю как меняется скорость. Иногда беру отдельно - например, генерю большой массив в CPU RAM и перекидываю его на GPU, или обучаю на синтетических данных, чтобы посмотреть скорость непосредственно перемножения матричек и автоматического дифференцирования моей архитектуры.
Так вот, моя задача, взять после экзаменов видеозапись за всё три экзаменационные недели и тайминг проставить, где с какой минуты и секунды какой студент начинает.
Подскажите, как можно автоматически компьютерным зрением автоматически тайминги проставить, что на такой-то минуте и секунде заходит в аудиторию экзаменуемый? И с аудиозаписью ту же хуйню сделать, задетектить тайминги, когда прозвучит та ожидаемая фраза я Ерохин Иван сын Исильдура специальность гоидист тракторист.
Что учить по теме компьютерного зрения? Какую пистоновскю библиотеку использовать в первую очередь?
Требуется не в реальном времени это сделать, а уже потом когда будет видоезапись всего действа - уже после этого видеозапись через самописную программу пропустить чтобы получить тайминги. То есть нужна программа которая будет определять что в таком-то кадре через порог аудитории переступило человеческое тело
И список студентов и специальностей заранее уже есть, то есть аудиозапись надо будет проверить на уже заранее известные ФИО и специальности.
УМОЯЛЮ ПОДСКАЖИТЕ КАКИЕ БИБЛИОТЕКИ ИСПОЛЬЗОВАТЬ ПИСТОНОВСКИЕ А???!!!! УМОЛЯЮ ПОДСКАЖИТЕ!!!
З.Ы. я спросил через телеграм бота который имеет связь с чатгопотой по своему вопросу, бот ответил что на выбор 8 есть библиотек, выбирай:
1) OpenCV
2) TensorFlow
3) Dlib
4) PyTorch
5) Keras
6) Darknet
7) Detectron2
8) YOLOv5 (PyTorch)
таки подскажите какую из 8 выбрать?
Я бы просто кропнул видео и потом по диффам между кадрами смотрел когда там зверь появляется. Тут тупо ffmpeg хватит.
По голосу луркай vosk-asr. "специальность" распознает прекрасно, а вот всякие "Махмуды Мадиновичи" надо будет руками подправить. Тебе их корректно вообще никто не распарсит.
Так оно и предсказывает по строкам матрицы, а не по самой матрице в целом.
Объявите вещественные тензор x размера (3, 4, 5) и тензор y размера (2, 6, 3), иницилизируйте их равномерным распределением.
x = torch.FloatTensor(3, 4, 5).uniform_()
y = torch.FloatTensor(2, 6, 3).uniform_()
Создайте их копии на GPU,
x_cuda = x.cuda()
y_cuda = y.cuda()
выведите их сумму и разность
Как их можно сложить? в одном 40 значений, во втором 36
В ответе 80 значений, размер (4,4,5)
Ошибся, в этом тензере (3, 4, 5) 60 значений конечно же
Я думал что возможно x можно решейпнуть и 12 значений перекинуть в y ( y тоже решейпнуть перед этим)
Но все равно получится в x и y по 48 значений , а в ответе 80 значений
Спасибо большое, попробую так сделать
Учу потихоньку курс https://www.deeplearning.ai/courses/machine-learning-specialization/, материал и объяснения вроде как понятны. Теперь бы найти практику для портфолио.
>чтобы мутное фото в котором текст на русском языке стал читаемым?
Если ты его сам глазами не можешь прочиать, то никакая нейросеть не прочитает. Пробуй крути фильтры/уровни в фотошопе. Ну ещё какой-нибудь из сврёточных deblur-ов.
class Perceptron_ReLU - не обучается модель
Функции активации
"Реализуйте сигмоиду и её производную"
https://pastecode.io/s/6mdpwdha
Ёе я худо-бедно сделал
А потом нужно сделать ReLU
Задание:
https://pastecode.io/s/j507873d
Моё не работающее решение:
https://pastecode.io/s/k4vm6zxr
Ткните носом в ошибку, плиз
>На что смотрит эйчар? На проекты Kaggle или что-то ещё?
>Учу потихоньку курс https://www.deeplearning.ai/courses/machine-learning-specialization/, материал и объяснения вроде как понятны. Теперь бы найти практику для портфолио.
Сначала на опыт работы, потом на соцскиллы. Все остальное вторично.
У тебя например непонятно что такое X и y в строке losses = perceptron.fit(X,y). Откуда вы их берете?
И вообще надо было сказать, что именно у тебя не работает.
Там в первой ссылке решение сигмоида, там назначаются X,y
Потом нужно построить ReLU
Self.w изначально инициализированы нулями по условиям дз , в 3 ссылке , в 29 строке
Обучение не происходит, на графике прямая линия , accuracy 0.5
Нужно заинициализовать случайными данными
в 3 ссылке , 54 строка
У один хрен обучение не проходит
по второй ссылке изначальное дз, нужно заполнить производные dw и db
Походу все равно не понятно
Могу вечером файл скинуть с дз целиком скинуть
Ну смотри, я сделал две вещи: закомментил первые две строки в функции fit как попросил твой препод, запустил обучение, увидел, что losses улетают в небеса, обычно это означает высокий learning rate, зашел в параметры функции backward и поставил learning_rate=0.0000005, и получаю вот такую картинку.
Можешь скинуть что ты именно в fit сделал?
По заданию я должен именно в perceptron инициализировать случайными числами чтобы пошло обучение:
perceptron = Perceptron_ReLU(w=np.random.normal(0, 1, (X.shape[1], 1)), b=0)
Не возвращаться в class Perceptron_ReLU и меняя def fit
В твоем задании написано:
>не забудьте закомментировать в классе инициализацию нулями
>в классе
А ты говоришь противоречивую вещь
>Не возвращаться в class Perceptron_ReLU
Все, я разобрался.
Спасибо!
Просто я только пару месяцев питон ковыряю и думал что "закомментировать" это тупо комент через # написать
>Сначала на опыт работы, потом на соцскиллы. Все остальное вторично.
А соцскилы это типа пришел на собес не в обосраных штанах? Смог пожать руку, а не с криком убежал?
Или это ебанный эмоциональный интеллект и эмпатия?
Интересно рассказывать о неинтересных вещах (вроде результатов своей работы за год), доносить свои идеи коллегам и продавать бизносу/менеджменту, грамотно аргументировать свои действия/бездействие, убеждать кого-то что-то сделать/не делать, давать "полезный" фидбек, обозначать риски так чтоб их воспринял кто надо, помогать другим так чтоб и свою работу успеть сделать и чтоб на шею не сели, самому вовремя и грамотно обращаться за помощью, разруливать конфликты в сфере своих полномочий/ответственности, своевременно запрашивать и иногда выбивать нужные для твоей работы ресурсы, не болтать лишнего и при этом не слыть молчуном, посылать людей нахуй чтоб они оставались тебе благодарны и еще всякое такое.
И это так, чтоб никто большинство не захотело тебя выпиздить из конторы.
Список не полный, а большинство нанимающих смогут оценить только п.1 - умение красиво пиздеть. Еще часть могут проверить на испытательном, остальное - прост сделает твою работу легче.
Да, и чистые штаны на собесе и чтоб изо рта не воняло.
>дрочишь матан, алгометрию, персептроны, чтобы не работать с людьми
>Главное качество на собесе умение красиво пиздеть
Пиздец, ты меня расстроил...
Находишь себе компаньона который умеет красиво пиздеть
@
Запиливаете совместный проект и продаете кабанчикам
@
Профит
Я чот взялся читать "чуть более полезные" чем "Машоб с картинками для школьников" книги (ISL, Forecasting), а там все примеры/упражнения на R.
Стоит потратить несколько вечеров на знакомство с R, или введения из этих книжек достаточно?
Или "там всё понятно" и можно на питоно-пандасе всё практиковать?
>Анон, ты в работе используешь язык R?
Да. В плане статистики и более классических моделей рот дерет петухону.
А если ты еще и в stan можешь, то ты тупа статистическая махиня, тяночки-эксперементальщицы сами спрашивают у тебя разрешение отсосать, уважаемые академики руку жмут и зовут на все праздники в свои лаборатории. Бабушки в автобусах места уступают.
Точно не скажу будет ли у тебя также, но штука полезная, и имеет большое количество уже готовых пакетов на разные задачи. Как язык программирования для непосредственно программирования - достаточно душен и муторен, и разработка окупирована одним сойджак куколдом из новой зеландии.
В плане более серьезного МО R берет за щеку у петухона. Найти гибкий инструмент хотя бы для бустинга, настолько же удобный как в петухоне - проблематично, как минимум. Про удобство работы с нейросетками даже говорить не стоит.
Но, имей в виду, для большинства задач тебе функционала, который хорошо на R реализован будет достаточно.
R для статистики и более "простого" ML. Питон для более продвинутого.
>Или "там всё понятно" и можно на питоно-пандасе всё практиковать?
Зачастую вполне.
Спасибо, анон!
>Как лучше всего представить фигуры, которые есть на картинке, для нейросети? Как их нужно скормит, в каком виде представив?
Нереально ответить на твой вопрос, зная, что ты только имеешь дело с какими-то картинками. Больше подробностей.
Формально классификация. На деле там кластеризовать нужно.
>в каком виде представив?
А в каких видах вообще можно? я серьезно, не троллинг
мимо гуманитарий ковыряющий ДС
Как надрочить йоба ИИ для игры? Кроме тупого ГА с нейронкой я ничего больше не знаю.
>Запиливаете совместный проект и продаете кабанчикам
В конце оказывается, что проект записан на пиздуна целиком и полностью и в один момент пиздун заменяет тебя на более сговорчивого раба
Ты сначала хотя бы базу освой, потом уже выбирай.
Учитывая, что ты не стейтофарт парашу делаешь, маловероятно, что подходы посвежее тебе дадут какой-то более вменяемый результат.
Бамп моему подвопросу ?
Я только про векторы - матрицы - тензоры знаю, как ещё можно сетке представить изображения?
Нежелание узнавать базовые вещи тебя до добра не доведет.
Особенно в сочетании с неумением задавать вопросы.
Картинку можно представить в виде тензора размерностью nmk, где n*m - размер пиксельной карты, а к - число каналов (ну там красный, синий, зеленый). Воооот, гыч эть. Ну и соотвественно у тебя датасет сколько-то там таких кубиков картинок, (тензор на ранг +1), на которые, в том числе, можно и записать твои фигуры, и ты там дальше что-нибудь тыры тыры, там вот так, и оп-оп-оп, и классифицировал.
Ты лучше напрямую сформулируй свою задачу и скажи, что ты хочешь получить, и что ты планируешь подавать. Вербально. Будет сильно проще игры в шарады для всех участников этого процесса.
Есть черно-белые контуры изображений. Необходимо их классифицировать и отсортировать по внешнему виду
- распознавание печатных и рукописных текстов
- распознавание объектов на видео, а также определение перемещения объектов - например что объект пересёк какую-то область и затем покинул её
- анализ текстов, исправление ошибок
Какие темы учить надо по математике для этого? За пол года реально будет изучить? Или надо 10-20 лет дрочиться?
Ну у нас же тут не ЛОХДЖОРНЕЙ и не КОНЧДЖИПЫТЫ.
А прикладная херня. Да и дрочка со скайнетом не всем интересна.
А чё, даже не спарсил никто архивчик? Ну и датанюхи там у вас
>>656789
Anticipated result?
На матрицу интесивности в чб примени k-means.
Ну или вытащи айгенвектор и по его знаку кластеризуй.
Что такое контуры изображений.
Или ты хочешь на классы разбить разные изображения?
В таком случае сделай трейн выборку, вручную назначь лейблы, и потом какую-нибудь простую сверточную сеть заюзай, и выбирай в качестве интересующего класса, тот у которого после вероятность больше.
Нихера не ясно, что ты хочешь сделать.
Контуры это контуры. Обведенная внешная часть обьекта. И подобное нужно кластеризовать.
Выписываю тебя из интеллектуального клуба даунов-машобщиков.
Прошу покинуть тред и больше никогда сюда не писать.
Почему? Скажи хоть причину увольнения? Слишком тупой?
Включаешь впн и регаешься через виртуальный номер. Если пишет что твой емейл заблокирован, то зайди с приватного окна или почисти куки у сайта. После регистрации заходишь только через впн.
>Здесь есть перекатившиеся с других направлений программирования?
Вкатун, но в машин лернинге имею некоторые успехи (набил competition expert'а на kaggle)
>Насколько машин лернинги сложны?
Не сложно, если ты окончил мехмат любого вуза, когда-нибудь перемножал матрицы, слышал на лекциях про градиентный спуск и можешь посчитать производную.
>Сколько времени ушло на обучение?
1.5 года дрочился на Kaggle, участвовал только в новых соревнованиях, мечтая занять первое место и разбогатеть, за это время очень много узнал об устройстве современных нейросетей, приходилось даже изучать статьи в arXiv'е, Если ты хочешь узнать как вкатиться на 300к/нс по этой сфере, то я сам не знаю. Впрочем, в нынешнее время я бы не советовал бросать тебе свою работу.
Это копия, сохраненная 7 апреля 2023 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.