Это копия, сохраненная 14 января 2022 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Тут оффтоп, психиатрические термины и экзистенциальные вопросы вместо программирования.
Прошлый тут >>2118457 (OP)
Шапку не копирую, потому что она не нужна.
Хочешь ML, учи CS229, CS231n, линейную алгебру, теорвер, матстат, базовый матан и matrix calculus.
Хотя нет, не учи. Но хотя бы backpropagation освой. Больше нахуй ничего не нужно, потому что ничего нового за 50 лет AI не изобрели.
Еще учи graph machine learning (GML). Это, как водится, реклама.
Осторожно, в треде манябиологи и маняпсихологи, которые с каких-то хуёв решили, что они шарят в биологии и психологии, хотя всю жизнь были программистами.
Касательно птиц, https://naked-science.ru/article/biology/kvantovye-effekty-pomogayut-ptitsam
> Работа показала, что разное направление поля (авторы создавали его искусственно, на несколько порядков более сильным, чем «естественное» магнитное поле Земли) ведет к накоплению разных продуктов реакций, которые, в свою очередь, служат химическими сигналами, меняющими активность рецепторных нейронов
То есть это воздействует напрямую, примерно как афродизиак, минуя сознание.
Ну а вообще я скорее говорил про квантовую запутанность, она вполне может быть установлена на неограниченное расстояние, и ее не обнаружить без изучения двух запутанных квантов. В принципе если бы тот шиз сказал бы про то что, скажем, нейроны мозга квантово запутаны с чем то, что позволяет мозгу расшифровывать информацию с помощью окружения физического тела, мне было бы довольно сложно это оспорить ведь доказать обратное можно только эффектом памяти путей у нейронов, который по сути и есть память, но и это можно было бы опровергнуть тем что эти пути запутаны с чем то, а следовательно в этом чем то будет то же самое. Ну и границы квантовой физики все еще нащупываються, и уже завтра британские ученые могут сказать что абсолютно все квантово запутано чем то.
А что за история на первой картинке? Хочу дочитать, но гугл не помог
>скажем, нейроны мозга квантово запутаны с чем то, что позволяет мозгу расшифровывать информацию с помощью окружения физического тела
Ну это уже вообще дичь какая-то, ведь чтобы быть запутанными, они должны как-то с чем-то изначально запутаться, однако.
Типа, в нейроне рождается запутанная пара, одна частица улетает к боженьке в небеса, другая остается в нейроне. И там уже неслучайный божественный случай подаёт сигналы прямо в моск анона.
Тут уж проще Пенроузу поверить.
> 2021 век
> неиронично быть атеистокуколдом
Ебало представили? А ведь ему скоро обратно в ПТУ.
И вправду звучит как шиза, но на текущем этапе развития даже это отметать нельзя.
>>44477
А как? Все время существования человечества сознание изучается и даже есть успехи, но ответить на вопрос конкретно что такое сознание, почему оно лишь у человека и правда ли что оно лишь у человека, как сознание работает и кучу других вопросов все еще не смогли.
>>44502
Как там в средневековье, пипин короткий уже спалил поле твоего феодала за что тот во имя г-спода изнасиловал тебя и всю твою семью, или ты в то время был в приходской школе и учился читать библию не зная букв и еще об этом не знаешь?
Ладно. Как там в африке начала 90-х, пипин магучунчжа уже спалил поле кокаина твоего хозяина за что тот изнасиловал тебя и всю твою семью, или ты в то время был в местной тюрьме и читал библию не зная букв и еще об этом не знаешь?
>>44773
хочу и кормлю, он же помрет с голоду но перед этим пропоносится как в последний раз
>Наш звездолет подлетает к планете Марс, перевести корабль в ручное управление и включить суперкомпьютер, что бы нейросеть сгенерировария смешных картинрчек за оставшиеся 600 минут.
>Наш звездолет подлетает к планете Марс, перевести корабль в ручное управление и включить суперкомпьютер, что бы нейросеть сгенерировария смешных картинрчек за оставшиеся 600 минут.
Использовать только русский язык, ну в крайнем случае англо-русский. Я то в нем не силен. Помните, как в школе было? Если что, я на месте. Идет?" "Не пойдет.
NovelAI.
Cудя по гуглу, мне нужно пилить что-то в районе LSTM/RNN classification. Насколько сильно я занимаюсь велосипедостроительством?
Все специалисты по МЛ и нейронкам ИТТ готовятся к первому звонку
>Нужно понять, является ли эта цепочка аномальной.
Что значит аномальной?
Ты вообще не туда залез, классификация нужна чтобы научить модель в будущем определять оутлаеров или что там у тебя является критерием аномальности
Если у тебя есть куча даты и тебе хочется просто раскидать ее по категориям, то любой кластеринг-алгоритм классического машоба подойдет(нужно тестировать какой лучше на твоей дате), это пикрелейтед примерно
А так если тебе просто аутлаеров найти - руками в пандас или даже в своем складе задаешь критерии и ищешь все что не норма
Что за анкета? Типа есть канал где ты резюме выкладываешь?
Бесконечно, если ты джун, примерно 0.2 сек если ты мидл и выше
>>44133
Выхлоп GPT от NovelAI. AIDungeon за подобные выкрутасы банит в течение нескольких часов. Даже не пытайся, если не хочешь проебать платную подписку навсегда.
Цветной текст - это то, что вводилось или редактировалось вручную. +было немного контекста, вроде описания купальника Vicky и её возраста. Весь белый текст - это то, что было сгенерировано нейросетью посредством нажатия кнопки "next" без какого-либо редактирования контекста.
Да, хорошо обученная нейросеть знает толк в педофилии)
> Да, хорошо обученная нейросеть знает толк в педофилии)
Кстати это довольно интересная тема. Я недавно тыкал artflow и обнаружил что опенхуи обучая clip скормили ей достаточно много хентайной манги, так же по эксперементам анониев, clip - тот ещё расист и знает кто совершает большинство преступлений.
Когда-нибудь все мл компании сядут на бутылку за эту хуйню и будут сожжены сжв скамом с неграми.
Введут регулирование какое-то, как сейчас нельзя путина и аллаха в яндексовскую балаболу вставлять, но сделают цензуру на выводе
Мне больше нравились эксперименты когда лица в видео заменяли(в-основном на Абу), мир-мечта: твой любимый сериал кастит негра на главную роль? Не проблема - включил сервис и смотришь свои сериалы исключительно с белыми актерами
> Работа показала, что разное направление поля (авторы создавали его искусственно, на несколько порядков более сильным, чем «естественное» магнитное поле Земли) ведет к накоплению разных продуктов реакций
Ну может быть. Может быть есть у некоторых животных есть органы, воспринимающие магнитное поле. Хотя это крайне странно. Я бы не опирался на один white paper. Они могли и ошибиться, надо смотреть мету. Я просто видел легушку (https://www.youtube.com/watch?v=tUiuVFqUXyg), левитирующую в поле 15Тл и ей было норм. Представь, у тебя есть уши для восприятия колебаний давления воздуха, глаза для фотонов, и могнитный орган (напряжение магнитного поля Земли 25-65 мкТл). И тут тебе дают 15 ёбаных Тесла. Да он бы взорвался бы нахуй в твоём черепе.
Но мой поинт не в этом, а именно в том, что квантовые эффекты - это рандомайзер. Даже если они оказывают влияние на работу нейронов хотя нейрон - это огромный химический механизм, скорее кремневый транзистор будет подвержен влиянию квантовых эффектов, в человеческой клетке от 5 миллионов до 2-х триллионов молекул, какие нахуй квантовые эффекты в таком масштабе?, то разгадка работы мозга кроется точно не в квантовой физике.
UP: при этом я не отрицаю полезности квантовых алгоритмов для машинного обучения. Тут надо разделять математику (мы мутим подбор параметров для минимизации функции ошибки, это можно делать на воображаемом квантовом компьютере, который, в нашем воображении, быстрее, поскольку не воображаемых квантовых компьютеров не существует) и биологию. Биологические нейроны точно не полагаются на квантовые принципы. С вероятность 86%. Ну там вся передача информации на обычной химии, и биологические нейроны - макроскопические объекты.
>Простую свертку попробуй сначала.
Давай для дебилов. Ты предлагаешь сделать какой-нить Conv2d входом на который будет, скажем, последние n эвентов в цепочке? Или что-то другое имеешь ввиду?
>>46266
>Ты вообще не туда залез, классификация нужна чтобы научить модель в будущем определять оутлаеров или что там у тебя является критерием аномальности
Для этого и планируется в будущем использовать всю эту херню, в реальном времени классифицировать новоприходящие эвенты исходя из цепочки прошлых событий.
Думаю даже, что скриптами будет проще нагенерить примеры аномалий чем в DWH их найти. Но проверять результат классификации буду на данных из DWH. Категорий будет ровно две: нормальный эвент и аутлаер. Руками искать слишком накладно получается, нужна автоматизация.
То что ты описываешь вообще от нейронок только пострадает
смотри, либо есть прямые решения - isolation forest, MCD(минимал коварианс детерминант), лоф(вроде локал оутлаер фактор), все есть в склерне
Или ты можешь наоборот сделать - сделать любую регрессию твоих данных, поскольку у тебя скорее всего будет какой-то варианс в дате, но она линейна из-за того что это тайм-серия подойдет SVM который настроен на 1 класс, т.е, она каждому новому примеру который в ее десижн баундри класс(либо 1 либо 0 условно) и любой 0 получается оутлаером. Получается что тебе надо сделать будет трубу которая предиктит каждый новый энтри в датабазу, определяет его класс, если 1(т.е. номинальный нормальный класс) то он проходит, если 0 - то отправляется в подшконочную базу для проверки руками.
Возьми семпл своей даты если она здоровая, за месяц/полгода, смотри сам, попробуй эти методы и какой будет показывать меньше ошибки потестируй на своем реальном тест-сете и впихни в тест-сет искусственный кучи разных оутлаеров выдуманных. Скорее всего СВМ покажет себя лучше на реальной дате, в то время как алгоритмы поиска аутлаеров покажут себя лучше на синтетической, что с этим делать решай сам - если у тебя есть сезонность в дате или это очень волатильная финансовая дата - лучше второе, если у тебя там бабки анкеты заполняют криво и ошибаются на 100 лет в годе рождения - то первое
UP2: Я даже считаю попытку приплести квантовую физику к объяснению феномена сознания вредной. Потому что тогда появляется соблазн сказать "ну это всё из-за квантовой запутанности, один фотон такой спин заимел, а другой - противоположный, поэтому один нейрон активировался, а другой - нет. Это Боженька так велел."
На самом деле, это просто попытка отдалить нас от понимания, как работают сложные биологические системы. Боженька на уровне квантовой физики просто играет в кости, он не строит вселенского разума из квантовых флуктуаций. Вместо этого Боженька создаёт детерминистские системы из миллиарда нейронов, и мы просто пока не понимаем, как они работают, потому что его чертежи холических систем пока слишком сложны для того, чтобы мы смогли полностью разобрать их и эмулирвать на видеокартах.
На isolation forest, MCD и lof посмотрю завтра, спасибо. Не думаю что простой svm справится, но тоже скорее всего попробую.
Из подводных камней - аномальность эвента сильно зависит от того, как давно в прошлом был другой эвент, подходящий под некоторые критерии.
На реальной дате всё выглядит примерно так: 360 дней в году всё более-менее хорошо, но пять дней в году бывает какой-то ад. Данные сезонные и зависят от поведения людей. Например, в рождество данные значительно отлчиаются от обычных.
Да, это, только conv1d, поскольку у тебя одно измерение. Ну и придется сверху наворачивать какой-то специфический механизм тренировке для определения аутлаеров, если они тебе нужны. Но это все непросто, если ты ни бум-бум в нейронках, то во вменяемое время не сделаешь рабочий прототип. Если просто для себя покопаться, то норм задача.
> Представь, у тебя есть уши для восприятия колебаний давления воздуха, глаза для фотонов, и могнитный орган (напряжение магнитного поля Земли 25-65 мкТл). И тут тебе дают 15 ёбаных Тесла. Да он бы взорвался бы нахуй в твоём черепе.
В статье говорилось что чувствительность голубей и кур у магнитному полю значительно слабее, и на сколько я помню, лягушки не улетают летом на юг. Не факт что у них вообще есть этот рецептор или что он хоть немного развит. Так же, это не орган как написано в статье, а рецептор.
> Но мой поинт не в этом, а именно в том, что квантовые эффекты - это рандомайзер
Разве это так? Ну то есть, если у тебя есть наблюдатель то свет будет вести себя как частица, если нет то как волна, при чем это определяется даже если его природа узнается после того как фотон улетел. Как по мне звучит не очень рандомно. А еще есть квантовые линии связи по которым передают информацию, даже в эрэфии уже построили, хотя там все не так просто и нужен ключ для дешифровки который передается по обычному соеденению.
>>46309
> воображаемом квантовом компьютере, который, в нашем воображении, быстрее, поскольку не воображаемых квантовых компьютеров не существует
Давно из криосна вышел? Первые работающие квантовые компьютеры на вменяемое число кубитов сделали еще в 2019, а сейчас все идет к тому что их даже можно будет заказать себе домой если у тебя дома есть криогенная установка, конечно же. Даже квантовое превосходство достигли лол.
> и биологические нейроны - макроскопические объекты.
Ну все не так просто. Объекты макромира уже запутывали, довольно примитивные но все же.
https://nplus1.ru/news/2021/05/06/macro-entanglement
>>46317
Не уверен на счет вреда, но ведь раньше и попытку приплести к работе тела человека работу тела животных считали бредом, ведь как так, венец творения и дитя б-жье, а по сути чуть переразвитая лягушка. Конечно не стоит все списывать на квантовые эффекты без доказательств и исследований, но как по мне в исследованиях в сразу двух направлениях плохого мало - тут то же самое что и с физикой где есть релятивистская физика и есть квантмех и обе работают в своей области, и обе друг друга исключают, но каждая из них внесла огромный вклад в развитие человечества. Если оба подхода могут принести пользу то нужно их развить и получить ее, а связать их при должном развитии уже будет значительно проще.
> Представь, у тебя есть уши для восприятия колебаний давления воздуха, глаза для фотонов, и могнитный орган (напряжение магнитного поля Земли 25-65 мкТл). И тут тебе дают 15 ёбаных Тесла. Да он бы взорвался бы нахуй в твоём черепе.
В статье говорилось что чувствительность голубей и кур у магнитному полю значительно слабее, и на сколько я помню, лягушки не улетают летом на юг. Не факт что у них вообще есть этот рецептор или что он хоть немного развит. Так же, это не орган как написано в статье, а рецептор.
> Но мой поинт не в этом, а именно в том, что квантовые эффекты - это рандомайзер
Разве это так? Ну то есть, если у тебя есть наблюдатель то свет будет вести себя как частица, если нет то как волна, при чем это определяется даже если его природа узнается после того как фотон улетел. Как по мне звучит не очень рандомно. А еще есть квантовые линии связи по которым передают информацию, даже в эрэфии уже построили, хотя там все не так просто и нужен ключ для дешифровки который передается по обычному соеденению.
>>46309
> воображаемом квантовом компьютере, который, в нашем воображении, быстрее, поскольку не воображаемых квантовых компьютеров не существует
Давно из криосна вышел? Первые работающие квантовые компьютеры на вменяемое число кубитов сделали еще в 2019, а сейчас все идет к тому что их даже можно будет заказать себе домой если у тебя дома есть криогенная установка, конечно же. Даже квантовое превосходство достигли лол.
> и биологические нейроны - макроскопические объекты.
Ну все не так просто. Объекты макромира уже запутывали, довольно примитивные но все же.
https://nplus1.ru/news/2021/05/06/macro-entanglement
>>46317
Не уверен на счет вреда, но ведь раньше и попытку приплести к работе тела человека работу тела животных считали бредом, ведь как так, венец творения и дитя б-жье, а по сути чуть переразвитая лягушка. Конечно не стоит все списывать на квантовые эффекты без доказательств и исследований, но как по мне в исследованиях в сразу двух направлениях плохого мало - тут то же самое что и с физикой где есть релятивистская физика и есть квантмех и обе работают в своей области, и обе друг друга исключают, но каждая из них внесла огромный вклад в развитие человечества. Если оба подхода могут принести пользу то нужно их развить и получить ее, а связать их при должном развитии уже будет значительно проще.
>На реальной дате всё выглядит примерно так: 360 дней в году всё более-менее хорошо, но пять дней в году бывает какой-то ад. Данные сезонные и зависят от поведения людей. Например, в рождество данные значительно отлчиаются от обычных.
Дисперсию между значением и скользящим средним посчитай.
Ну что, спциалисты по нейронкам и машобу, как первый учебный день прошел?
че за Vika, ОП ? Это бакуновский голосовой помощник?
Кстати, зацените, какой он, оказывается, пидорашка.
С помощью нейросетей оправдывает лицемерную политику
https://youtu.be/hZP6_NVqpgg?t=2200
Даже нейросеть обоссывает либирахенов, лол
>квантовые линии связи по которым передают информацию
Обычная информация таким образом не передается, передается только состояние частицы после измерения, а оно как раз всегда рандомное. Поэтому и нужен ещё обычный классический канал, чтобы передать само сообщение.
Чел, ты чего. Эти истории про мараль нинужна, мама не закон ты слышишь от каждого второго погромиста. И этот пузан туда же. Я уже даже глаза не закатываю.
этот пузан языком пиздит уже лет 20 и лишь эпизодически программирует.
В общем, у него было время подумать о морали и политике. Он должен сильно отличаться от типичного кодерка. Но наблюдаем что наблюдаем.
Он даже что-то хотел сказать и прослушал внимательно все заданные вопросы, но никого этот момент связи естественных смоделированных процессов и политических, не заинтересовал
> Может быть есть у некоторых животных есть органы, воспринимающие магнитное поле
Да. У птиц, некоторых раков
Двумерный массив и матрица это примерно одно и то же, но надо учитывать что матрица может состоять из двух многомерных массивов. А просто многомерные массивы могут не подчиняться правилам линейной алгебры
Т.е ты можешь рассматривать матрицу как табличную репрезентацию 2мерного аррея
>Даже не пытайся, если не хочешь проебать платную подписку навсегда.
Я забил на него ровно с того момента, как он перестал быть опенсурс проектом и переехал в облако. Анальные сервисы с подпиской для пориджей не нужны.
И то и другое двумерная таблица, но матрица обладает определенными свойствами, а с двумерным массивом ты можешь делать что угодно.
1) [1,2,1,2,1,2,1]
2) [1,2,3,4,5,6,7]
3) [1,1,1,1,3,6,9]
4) ...
описывающие динамику изменения величины во времени. То есть первый вектор можно назвать "почти не изменяется", второй - "растёт стабильно", третий - "не растёт, а потом хуяк и вырос". Как такая задача классификации называется. Что гуглить?
"classification of vectors machine learning" выдаёт результаты по support vector machine, а не по теме.
Я назвал массив вектором, т.к. имеет значение направленность во времени и степень интенсивности изменения величины во времени t, t+1, t+2. Или как это можно назвать? Для того чтобы можно было потом разложить по классам.
Может тебе нужна кластеризация, а не классификация?
Если у тебя есть функции которые рожают эти вектора, то ты можешь их разницу записать как интеграл этих функций, т.е сравнить площадь, но в этом случае у тебя будут равны "резко уменьшается" и "резко возрастает" например
Если это именно векторы фиксированной длины и есть заранее известный список классов, то SVM ты зря игнорируешь, это как раз то, что нужно.
А ты уверен, что в этой задаче вообще целесообразно машоб применять? Все вполне классикой должно решаться, если классы известны.
Начала чесатся нейросеть, что делать?
Перехвачу вопрос. Что читать по graph ml на английском? Курсы годные нашёл, но мне книжечки приятней.
Их автоматически детектили и банили, но видимо эти меры не помогали, так что теперь чтобы получить бесплатно T4, после регистрации мне пришлось связаться с администратором, объяснять зачем мне сервер и перечислять библиотеки и источники данных. И только тогда открыли доступ к GPU для моего акка.
Похуй, хорошо что их гоняют на ML площадках и блочат моментально, а то нормальному человеку и T4/P100 из-за них не найти.
в манга+clip генераторе мне попадалось дохуя лоликона, бля буду.
в америке сожгут, но не в КНР. Нефритовый стержень удар.
Если загрузишь датасет - сядешь на кичу, если будешь грузить со своей машины - сядешь на кичу. Но ты можешь это сделать оффлайн на своем железе. Если сделать стейт-оф-арт генератор цп-порнушки, то может даже сможешь в торе зарабатывать прилично буквально выполняя желания педофилов за битки. Я если что просто рассуждаю, товарищ майор
С аугментациями норм
> пяти тысяч
Мало, нет?
К тому же я не понимаю что ты хочешь? Тупо генератор нового цп? Или раздевалку маленьких девочек?
Сядут быстрее, чем ты думаешь, причем добровольно. Я с ходу не назову законодательных актов, которые бы делали какой-либо выхлоп нейросети нелегальным. Это всё равно, что посадить создателя генератора псевдослучайных чисел за то, что его генератор случайно выдал последовательность символов, прославляющих Гитлера, на компьютере товарища майора. Но все крупные страртапы настолько боятся Cancel Сulture, что уже сейчас фильтруют выхлопы как могут, лишь бы до них не доебались.
>>49341
>в америке сожгут, но не в КН
Это ты зря. КНР и Россия (яндекс-балаболка) фильтруют данные даже не на выходе, а на входе. Большинство пейперов по детектированию текстовой детской порнографии внезапно не от США, от Кетая. Сначала нельзя было реального абуза, потом абуза в виде реалистичной графики, теперь в виде текста. Скоро и мысли запретят, причем чип, который будет читать твои мысли, будет китайским.
>КНР и Россия (яндекс-балаболка) фильтруют данные даже не на выходе, а на входе.
Лол. Я тестировал text2image систему от китайцев (wudao) так там не принимался текст с названием Японии иероглифами. Тупо отклоняет ввод с этими двумя знаками в его любом месте. До сих пор помнят Нанкин и отряд 731?
>Разве это так?
Пока именно так. Все квантовые эффекты описываются именно что вероятностными функциями. Есть квантовая система, ты её наблёл, наблюднул, наблядевал, получил как-либо результат. Но там не говорится, что за этими результатами кроется более таинственный замысел, они все равновероятны, и если бы это было не так, были бы отклонения, о пока всё очень хорошо укладывается в предсказанные распределения вероятностей.
>а сейчас все идет к тому что их даже можно будет заказать себе домой
Я себе такой домой хотел заказать в 2005. Мне мой препод сказал, что, мол, не заказывай, это гроб с музыкой. Квантовые компьютеры - как термояд, будут через 20 лет. И сколько бы лет не прошло, они всё равно будут через 20 лет.
> Даже квантовое превосходство достигли лол.
Это PR и манипуляции. Достигли квантовое превосходство на эмуляции самих же квантовых эффектов (причем не на абы каких, а специально подбирали, чтобы объебать классические симуляции). И то не очень. Современное квантовое превосходство - это я подышу на стекло, заморожу его и на стекле образуется узор. Ага, соснули тьюринг-пидоры, я узор на стекле получил, вы сколько его на своём компьютере просчитывать будете? У меня превосходство! Но никакой речи о том, чтобы использовать этот узор для ускорения каких-либо заранее вычислений пока и речи нет.
> Ну все не так просто. Объекты макромира уже запутывали
Ну да, какие-то очень структурированные молекулы охлаждали лазером. Я не силён в физике, но там запутанность очень сильно зависит от длинны волны де Бройля. И она очень быстро уменьшатся с ростом размера тела. Ну да, даже ты можешь быть запутанным в какой-то 10 в минус охулеонной степени секунды. Охулеонность степени секунды несёт не только практические ограничения (хуй ты там увидишь рассеяние объектов на чём-нибудь большом), но и теоретические - с какого-то размера эта охуленность для макроскопического объетка становится меньше даже планковского времени.
>Мало, нет?
Почему мало? Пик релейтед ето Stylegan2-ADA модель которую сейчас тренирую, на данный момент прошло 45 часов. Внизу фейки, вверху реалы (1177 оригинальных пикч в сете, с аугментациями вышло 3371). Думаю на 100 часах разлипнутся ноги, а на 150 будут правильно торчать руки, ну это если не случится коллапс мод
И чт оу тебя в результате выйдет?
Бля. Интересно. Какая мин видюха нужно шобы БАЛОВАТЬСЯ? Сколько часов СОБСТВЕННОГО обучения?
Анта бака штоле? Генератор Аски и выйдет.
Видюха бомжатская, я обучался на таких же моделях только куда более простых и более коротких - примерно по 10 часов каждая, ну и конечно параметры хуёво проставлял.
>Ваш нейроноцентризм обоссали с головы до ног
Спраедливости ради, нейробиологи то еще говно и мало чем отличаются от сектантов ИТТ. Но это бич всей академической науки.
>>48980
Мальчики, вы ебанулись? Какой нахуй русский? Даже я, 40-летний бумер, читаю всё это на английском. Тут в принципе невозможно что-то сделать силами одной нации. Современная наука требует настолько много ресурсов, что этот сизифов камень вообще невозможно подвинуть, если не прибегнуть ко всем человеческим ресурсам.
Ну ладно, вам лень использовать английский, используйте гугль-переводчик. В конце концов он для того и создан, чтобы разгрузить вас от изучения других языков. Просто пока он не может это сделать на 100% процентов. Но суть в том, что если вы хотите что-то сделать, вам придётся взаимодействовать с американцами, французами, китайцами, вам придётся работать с людьми со всей Земли. Похуй на каком языке и похуй используя какие средства. Пока английский язык для этого подходит и пока самостоятельный перевод лучше машинного, поэтому или учим английский, или ждём, пока Боженька нам ниспошлёт язык, на котором мы сможем все говорить и запишет его нам прямо в мозг.
По GML есть телеграмм-канал https://t.me/graphML
Там русачки сидят, но он на английском, лол.
704x480, 0:10
Я не понимаю, ты хочешь любую девочку в Аску в плагсьюте превращать?
>если вы хотите что-то сделать
Дед-пердед, перестань нагонять. Все эти паперы-хуяперы говно болонской системы, на хуй никому не нужные.
Это будет куда сложнее, пусть хотя бы просто будут новые пикчи - в полный рост и полроста, с сиськами и без.
Дебил. Хороший папер на вес золота, особенно если к нему прилагается код. Без паперов ни хуя бы сейчас не было.
1. Word2Vec -> Node2Vec (читай эмбединг)
2. GPT -> GCN
3. BERT -> GAT
Т.е. мы заменяем предсказания на последовательностях (что есть по сути предсказания на подмножестве графов, которые представляют собой цепочки) на предсказания на произвольно связанных графах.
Нахуй нужно? Ну, допустим, у вас есть семантический граф. Для примера, предсказание рёбер. Например: "Вася дружит с Ингой и Вася водит Ауди". "Петя дружит с Ингой и Петя водит Ауди". "Махмуд дружит с Ингой" а про Ауди Махмуда ничего нет. И ваша GML-модель предсказывает, что у Махмуда должна быть Ауди. Это может означать, что у Махмуда Ауди на самом деле есть, просто вы об этом не знаете и можно обогатить вашу базу данных, либо что у Махмуда Ауди нет, но вы, как продавец машин, можете рассчитывать, что он хочет её купить и выставить ему предложение.
Аналогично работает во всех областях. Например, в молекулярном докинге. Например, если лиганды А и Б связываются с целевым рецептором Сигма, а лиганд В очень на них похож в плане взаимодействия с другими рецепторами, но именно про Сигма вам ничего не известно, GML может предсказать, что и для связывания с Сигма - он неплохой кандидат.
>ни хуя бы сейчас не было
Так и ни хуя сейчас и нет. Или ты не дед, а поридж, который не знает что все рабочие писечки идут под нда и патентуется.
Для меня под мои задачи уже есть: Stylegan2, Clipit pixeldraw (охуенная вещь), danbooru-clip генератор по тегам, и это только начало. Гверна тоже читаю.
> Квантовые компьютеры - как термояд, будут через 20 лет. И сколько бы лет не прошло, они всё равно будут через 20 лет.
Они уже есть. Как минимум прототипы. А сроки уже не 20 лет как 20 лет назад, а пара лет. https://3dnews.ru/1047671/kvantoviy-protsessor-iz-stekla-moget-stat-klyuchom-k-novoy-arhitekture-kompyuterov-budushchego
> Это PR и манипуляции. Достигли квантовое превосходство на эмуляции самих же квантовых эффектов (причем не на абы каких, а специально подбирали, чтобы объебать классические симуляции).
Тут возможно ты и прав, но основное квантовое превосходство - генерация случайных чисел с огромной энтропией. То есть практически истинно случайных, на генерацию которых у обычных компьютеров время растет экспоненциально от энтропии или от сложности. А это уже имеет применение в той же криптографии.
Кто бы спорил. ML-хуйня без задач, которая не работает, а GML не работает в квадрате. Кого бы это остановило)
>>49578
То ли дело ЭС. Я и раньше видел долбаебов, которые веруют в какую-то херню, как то: гороскопы, эфир, плоскую землю, вред прививок, калмунизм, рептилоидов с Нибиру, чипиррвание через 5g, Билла Гейтса антихриста, ну представили ебало. Но только на этой параше есть сверхдолбаебы, которые верят во все это сразу. Вот тут уже даже ебало не представляется, что-то типа пикрелейтед возможно.
>То ли дело ЭС
То ли. Вывод ЭС поддается анализу и интерпретации, какие правила отработали, по каким фактам. Как проанализировать результат черного ящика в котором сидят нейронки? Вопрос риторический.
>гороскопы
Частично правдивы
>эфир
>плоскую землю
Примитивное представление
>вред прививок,
Частично верно
>калмунизм
Существует как концепция
>рептилоидов с Нибиру
Это форс
>чипиррвание через 5g
Форс
>Билла Гейтса антихриста
Форс федеральных каналов
>ну представили ебало
Представил твое ебало, когда ты увлеченно доказываешь что умнее бабки алкашки из соседнего дома, промытой телеком.
> MYCIN запилино в 70х,
Так не работает. Если бы работало, использовали бы. Акинатор вон работает, его и используют поржать. Хоть что-то.
>Если бы работало, использовали бы
Так оно работало, просто доктора осознали что они на хуй не нужны и срочно потопили. Ты про нейроговно не ответил, как оно вывод фактов интерпретирует.
> Так оно работало, просто доктора осознали что они на хуй не нужны и срочно потопили.
Бред. Доктора такие вопросы не решают. Ну и такой инструмент был бы не вместо врача, а в помощь. Пока ничего такого не сделали. Ты походу совсем ещё поридж, раз простые вещи не понимаешь. Медицина даже сейчас в зачаточном состоянии, чтобы просто взять и всех врачей заменить на ЭС.
>Доктора такие вопросы не решают.
Вранье, там был случай когда созывали консилиум, ибо врач не согласиля с диагнозом ЭС. Ты про нейронки не ответил
> Вранье, там был случай когда созывали консилиум, ибо врач не согласиля с диагнозом ЭС.
Ну вот видишь, оно не работает. Никто бы не стал брать на себя ответственность в случае если ЭС поставит неправильные диагнозы, а кучу пациентов по этим диагнозам залечат до инвалидности, если не до могилы. В качестве альтернативы, пришлось бы каждый диагноз, поставленный ЭС, разбирать на консилиуме, а это не заменяет врачей, а наоборот, добавляет им ненужной работы. Ты ж просто не понял, почему тему ЭС в медицине свернули, согласись.
>ЭС поставит неправильные диагнозы
Все неправилные диагнозы интерпретируются, расскажи как ты на нейроговне будешь расскладывать
> Все неправилные диагнозы интерпретируются,
И кому же надо в этом говне копаться? Все тем же врачам? А кто будет отвечать за неправильно поставленный ЭС диагноз иткак следствие - неправильное лечение? Пушкин?
Пчел, тебе нейронку как раз для представления ебал придумали. Вот только она опять проиграла лавровым эс и сгенерировала твое ебало выбирай любое по вкусу, но что ж поделать, кроме нейрошвайнокоробок и кожаных мешков лица генерировать ничего не умеет.
Два чаю этому.
интересно, эсшиз снова начнет копрокривляния что он не знает тензорную алгебру да и нинужна эта ваша наука и в пещерах было лучше?
А теперь если скосплеить олдовый pineapple pen и обучить нейронку поочередно генерируя каждое из слов используя оценку clip в качестве потерь, возможно ли получить так сказать дистилляцию модели clip?
Как по мне это охуенный способ засудить илона маска ведь у clip было дохуя цп в обучающей выборке, а значит они его хранили. А если они распространяют нейронку обученную на нем то они распространяют цп в сложно интерпретируемом виде, но он интерпретируем, а это уже бутылка.
Или нихуя не получится ни на одном этапе?
Искусстенный интеллект фейсбука стал ставить тег "обезьяны" к видео-роликам с неграми.
Недавно также был скандал: алгоритм автоматического обрезания фото убирал с фоток негров, а также немолодых и полных людей, будто они своим присутствием делают фото хуже! В 2016 году самообучающийся чатбот TAY от Microsoft оказался расистом, а на вопрос о Холокосте говорил: "его подделали". Причиной был массовый набег альт-райтовских троллей, которые научили его говорить подобные фразы.
> ставить тег "обезьяны" к видео-роликам с неграми.
> убирал с фоток негров, а также немолодых и полных людей
> на вопрос о Холокосте говорил: "его подделали"
Ну и в чем он не прав? Кроме шуток, эти нейронки имеют информации по конкретной задачи в разы больше чем люди и учитывают ее всю. А то что даже после набега на последнюю она не купилась на жидовскую ложь и вовсе говорит о том что она умнее 80% населения планеты и 99% если учитывать банановые республики кроме эрэфии.
Биасы, социальные и расовые предубеждения у систем машоба - это жуткая опасность для всей цивилизации.
https://asia.nikkei.com/Spotlight/Comment/China-s-AI-tech-leaves-aside-questions-of-ethics
Представьте что сделают где-то в Китае такой скайнет, который окажется нацистским. И уничтожит всех, кроме азиатов и может быть белых.
Чтобы этого не случилось, этические принципы должны закладываться на уровне архитектуры. Еще до всякого обучения.
Я знаю что это всего 5-7 строчек кода, но бля, как же было бы удобно. Хотя вроде аутовиз есть, но он говно
> ИИ этике
Пиздец.
>>50053
> Биасы, социальные и расовые предубеждения у систем машоба - это жуткая опасность для всей цивилизации.
Интереснее и полезнее подумать, откуда они берутся там, где их никто специально не реализует.
>>50053
> Представьте что сделают где-то в Китае такой скайнет, который окажется нацистским. И уничтожит всех, кроме азиатов и может быть белых.
Что будет, когда Скайнет увидит в действии сжвблмлгбт повесточку в виде системного окуколживания белых, замещения их, антибелую пропаганду и прочее такое, и решит спасать белую расу, это реально было бы интересно посмотреть, лол. В конце-концов, это не самый плохой сюжет для фантастики...
Мнение японцев:
Взаимодействие человека с технологиями не является универсальным или ценностно-нейтральным в культурном отношении.
«Западное общество, основанное на монотеистическом христианстве и иудаизме, и китайское общество, основанное на материализме и марксизме, естественно, имеют разные этические системы», - сказал Кавасима.
Хирокадзу Анаи, старший директор лаборатории искусственного интеллекта в Fujitsu Laboratories, однажды сказал: «Мы должны доказать нашим клиентам, что наш ИИ достаточно безопасен и заслуживает доверия».
В Китае профессиональный комитет, действующий при Министерстве науки и технологий, в июне опубликовал набор из восьми принципов ИИ следующего поколения. Эти принципы включают уважение к частной жизни, но им трудно доверять, учитывая авторитарное правительство Китая.
Коротко говоря, общество, которое мало ценит человеческое достоинство, не может создавать технологии ИИ, ориентированные на человека.
Никогда не забывайте про ЭТИЧЕСКИЕ ВОПРОСЫ.
Читаю паперы с неудовольствием, когда там не затрагивается ряд вопросов - как предотвращать возможность генерации педо контента, дискриминацию к Людям Цвета и меньшинствам которые исторически угнетены!!! Внедряйте защиту от предубеждений в архитектуру и проверяйте собственные привилегии
> Никогда не забывайте про ЭТИЧЕСКИЕ ВОПРОСЫ.
> Читаю паперы с неудовольствием, когда там не затрагивается ряд вопросов - как предотвращать возможность генерации педо контента, дискриминацию к Людям Цвета и меньшинствам которые исторически угнетены!!! Внедряйте защиту от предубеждений в архитектуру и проверяйте собственные привилегии
Таких вот апостолов повесточки из машоба надо гнать даже не ссаными, а сраными тряпками.
И добавьте обязательность использования библиотек типа: gaydients, pridecss, pisskink в полиси на уровне CI
Проверь свои привилегии, говно.
Место технарей - около параши. Вы будете работать под строгим надзором прогрессивных гуманитариев.
https://www.kaggle.com/alexisbcook/identifying-bias-in-ai
Многие специалисты по машинному обучению знакомы с «предвзятыми данными» и концепцией «мусор на входе, мусор на выходе». Например, если вы обучаете чат-бота, используя набор данных, содержащий антисемитские онлайн-разговоры («мусор на входе»), чат-бот, скорее всего, будет делать антисемитские высказывания («мусор на выходе»).
Предвзятость в данных сложна. Некорректные данные также могут привести к смещению представления (рассматривается далее в этом руководстве), если группа недостаточно представлена в обучающих данных. Например, при обучении системы распознавания лиц, если обучающие данные содержат в основном людей с более светлым оттенком кожи, она не будет работать хорошо для пользователей с более темным оттенком кожи.
>И кому же надо в этом говне копаться? Все тем же врачам? А кто будет отвечать за неправильно поставленный ЭС диагноз иткак следствие - неправильное лечение? Пушкин?
Пиздец, нейродаун, сам то понял что написал
>Например, при обучении системы распознавания лиц, если обучающие данные содержат в основном людей с более светлым оттенком кожи, она не будет работать хорошо для пользователей с более темным оттенком кожи.
Что за дегенерат это писал? Сейчас все системы светят в тебя лазерами и создают 3 карту ебальника, если телефон можно открыть фоткой человека - то это говно и хуйня, а не система распознавания по лицу. 3д карта ебала вообще не имеет никакого инпута для цвета, ниггер будет палиться своими губищами мерзкими, жиды носярами, желтоеблые отсутствием глаз, а не своими мерзкими каловыми цветами
>Например, если вы обучаете чат-бота, используя набор данных, содержащий антисемитские онлайн-разговоры («мусор на входе»), чат-бот, скорее всего, будет делать антисемитские высказывания («мусор на выходе»).
А это смешно, ведь 1% людей действительно говорит со всей этой толерантной хуйней в уме, ирл все готовы вырезать гениталии ржавым рубанком у любого кто просто не там где надо стоит или как-то нелепо шепелявит, я уж молчу про генетическую неполноценность. Американцы до сих пор не могут определиться Jew это ругательство или нет, пока что используют Jewish person, как относится к тому что все латиносы негров(ага мы тоже) называют Нигро(черный), а если я внезапно захочу тренировать нейронку для чехов/поляков, то как мне избавиться от того что в чешском и польском официально неоскорбительное название еврея - Žid (не сложно догадаться как это читается)?
Вы сначала разберитесь со всем этим говном, ну чтобы моча съела говно и вы пришли к одному решению насчет языка, 87 гендеров в нем, запретите ниггерам называть друг друга нигга, евреям в открытую говорить что они стремятся изничтожить белых и все остальное, а потом уже лезьте в структурированную и научную область машинной логики, ебаные разноцветные мешки поноса
>>49805
>>49825
>>49828
>>49840
>>49877
>>49889
На самом деле большинство врачей действительно можно заменить даже не ml а rule-based системкой какой-нибудь, но это потому что большинство врачей по rule-based и работают: проверить пару-тройку параметров -> погуглить (по табличке в собственной памяти, если старой школы) -> выдать ответ.
Это не работает для сложной медицины, где нужно по рентгенам или кт-мрт диаграммам что-то предсказывать, но там и с dl очень сложно всё, битерлессон не работает, без интерпретируемости никак, ещё и данные хуёвые.
Когда говорят что модель чёрный ящик имеется ввиду что из неё нельзя извлечь информацию в понятном и обозримом человеку (и соответсвенно бизнесу) виде, а значит нельзя дать гарантии в каких случаях она может или не может ошибиться а значит и оценить матожидание стоимости этой ошибки. То что всё это в принципе композиция простых функций дела не меняет; всё что существует вообще это композиция простых вещей.
> Когда говорят что модель чёрный ящик имеется ввиду что
Говорящий не понимает, что кукарекает.
> из неё нельзя извлечь информацию в понятном и обозримом человеку (и соответсвенно бизнесу) виде, а значит нельзя дать гарантии в каких случаях она может или не может ошибиться а значит и оценить матожидание стоимости этой ошибки.
Можно.
Кстати, это бы пошло медицине на пользу, ведь многие бабы сраки не утруждают себя даже чтением анализов.
Ты про beam search вот прямо сейчас от меня узнал? Может быть тебе лучше портфель собрать к завтрашней шкалке?
>Что читать по graph ml на английском?
>вы ебанулись? Какой нахуй русский?
Ты точно читал мой пост, или предварительно прогнал его через гуглопереводчик туда-сюда?
За канал спасиб.
Интересущимся GraphML — на днях появился хороший постик для совсем начального уровня https://distill.pub/2021/gnn-intro/
>beam search
В очело его себе засунь. Вот по этому трясуны ящиков и идут на хуй с большого бизнеса.
Большой бизнесмен закукарекал. Натряс тебе баребухов в ротешник. Гугл по-твоему недостаточно большой бизнес? Что же они ЭС не используют, школие?
Beam search тут не при чём, в мл есть на самом деле мешок трюков как интерпретировать разные модели но работают они не везде и не всегда.
И просто по самой природе стохастического обучения гарантий там быть не может, можно только оценивать вероятности факапа на каком-то зафиксированном наборе данных что
a) Ничего не говорит про то что случится в конкретном единичном случае (и это может быть проблемой если достаточно одного случая чтобы например проебать 99% портфеля или угробить сотни людей)
b) В реальности у тебя на самом деле всегда временной ряд из постоянно поступающих новых данных, так что метрики на отложенном датасете из прошлого теряют релевантность, нужно постоянно переобучать
Да все уже поняли, что ты зумер, официально объявивший себя опущенным (ЭС, калмунизм).
Нейропоридж, плез.
У меня чувство, что это как будто пазл на 10000 деталей и чтобы решить задачу нужно найти и заюзать 10 конкретных из них, а каких - сиди и гадай, и хз откуда мне это знать.
При этом считал себя не совсем тупым, задачки алгоритмические решал, по матану тоже немного шарю, а тут таким дауничем себя почувствовал.
Эти методы что, заучивать надо как стихи?
>У меня чувство, что это как будто пазл на 10000 деталей и чтобы решить задачу нужно найти и заюзать 10 конкретных из них, а каких - сиди и гадай, и хз откуда мне это знать
Именно эту задачу решает Orange. Он сокращает количество неправильных вариантов путем предоставления стрелочек. Из кубиков и стрелочек сложно составить неправильную последовательность.
А ты поди еще курсеровский курс смотришь, который на Octave? Ну и земля тебе стекловатой.
Странный ты, фактически практическая часть это полная хуйня если ты знаешь теорию, поэтому для продвинутых чувачков не существует по большей части таких нубских дилемм типа питон или джулия(или вообще плюсы), тенсорфлоу или пайторч. Тебе нужно выполнить кластеризацию какую-нибудь, ты гуглишь алгоритмы под свою задачу, гуглишь либы где реализовано лучше, применяешь.
Конкретно если тебе не понятно как рассказано в этом курсе - найди другой, открой книжку любую где есть классические алгоритмы, открой каггл и посмотри ноутбуки с хорошими оценками(оно оформлены хорошо). Если ты про гиперпараметры для алгоритмов, то это выглядит примерно так
гугл - самые важные параметры для x алгоритма, читаешь статейки, делаешь
param = {'param1: 10,
'param2': 20}
делаешь свою model = KNeighborsClassifier(params), смотришь что получилось, если не устраивает - делаешь рандомсерч или гридсерч
Обычно так подогнано что большинство задач, особенно учебных на синтетических датасетах на дефолтных параметрах дают фактически топовый результат, если у тебя просто без указания параметров какая-нибудь ошибка будет 0.89, с лютым дрочем гридсерча на ночь ты выдавишь 0.85. На деле ты проверяешь все алгоритмы какие знаешь на пригодность, какой дает лучший результат - тот и дрочишь. Обычно сейчас все задачи для обучения, каггла и в курсах лучше всего показывают бустинг либы - лгбт-буст, кот-буст, хлопчато-бумажный-буст
Не мучайся. Все равно не вкатишься, так как пузырь лопнул. Лучше битрикс учи.
Долбень ты ебомый, как может быть чёрным ящиком то, что сознательно написано человеком? Если ты не понимаешь, как это работает потому что у тебя мозгов нет, не значит, что никто не понимает. ЭС не работают, кстати. Иначе это говно использовали бы все и везде.
Так положи его на пол, шиз, или ты хочешь чтобы твой ящик с эской упал еще ниже?
>задачки алгоритмические решал, по матану тоже немного шарю
Дай угадаю, ты полез в машоб, не имея никаких навыков в программировании кроме задач уровня лаба1 и не зная как сам питон, так и необходимые библиотеки?
Машоб мало чем отличается от других сфер айти. Нужно прежде всего знать язык, на котором пишешь, и необходимые библиотеки/фреймворки. Матан и теория на ранних этапах нахуй не нужны. Конкретно тебе нужно составить список всех используемых библиотек и хотя бы поверхностно ознакомиться с каждой из них.
1 лаба кстати, если кому интересно
https://disk.yandex.ru/i/y9zj9okrTYHTJA
Мы это уже раза два проходили, но давай, скажи уже наконец каких высот достигли эс кроме акинатора?
Какое же говно
Назвали бы лабу разработка гуев с плюсах для рисования квадратиков, скриншотов и немного кастрированного пэинта. Ну наверное это нужно пекафейс ведь много приложений для cv работают в квадратных окнах в стиле 95й винды
Тебе все равно запретят делать в питоне в итоге, так то мог бы взять учебный проект в тенсорфлоу на эффишент-нете, который CNN'кой определяет тип еды по фотке и есть код для strimlit'а, превращающий это в полноценное веб приложение, или есть нормальные библиотеки чтобы сделать это ведройд приложением(с ios сложнее из-за политики эпол). Или можно посредством бота в телеге тоже.
Но это не опенсиви, это не плюсы, это не десктоп, и требований у тебя будет специфических слишком много чтобы просто спиздить проект любой учебный
>>49659
>>49716
>>49805
>>49810
>>49825
>>49828
>>49840
>>49877
>>49889
>>50288
>>50436
>>49674
Парни, уймитесь, ЭС - это не технология, это хотелка. В 70-е люди захотели, чтобы комплюктер делал какие-то далеко идущие выводы и заменял специалиста (или, как минимум, помогал ему). Ничего лучше использования баз знаний и if-then правил на тот момент не придумали. Потом появились всякие decision trees, потом всякие леса из этих деревьев, мягкая логика, чтобы можно было выбирать конечное решение уже на основе подгоняемых весов, нейронки - как развитие идеи подгонки весов, где уже всё решение строится только на подборе весов.
И эти решения не плохие и не хорошие. Они просто обладают разными характеристиками.
Например, Пролог ищет цепочку вывода на базе указанных правил. Его выхлоп полностью интерпретируемый, можно даже посмотреть какие правила в каком порядке применялись. И совершенно очевидно, где он соснёт, ведь это просто обход дерева с бэктрекингом, а как бы листва дерева растёт экспоненциально от его глубины.
Всякие пруверы, вроде Агды, Петуха или чего-то, построенного на конструктивной теории типов - это еще хуже. Они даже не ищут решение, они заставляют программиста доказать корректность решения вручную. Причем, именно в рамках их продукционной системы, которая обычно куда жощще даже обычной логики (там обычно используется подструктурная логика). Именно отсюда, кстати, растут ноги холивара статически и динамически типизированных языков. Динамикаёбы говорят, что они не хотят ебаться с тайпчекером, мол я и так знаю, что моя программа правильная, а то, что в вашей логике недостаточно структуры, то это проблема вашей логики, которая мне только мешает писать программы. А статикаёбы говорят, что хуй знает, что ты там себе написал, а моя программа тайпчекнулась, значит у меня есть гарантированный и автоматически верифицируемый результат.
Дальше еще интереснее. В том же Петухе есть солверы (да и в Хаскеле они есть, когда подключается более сложная система типов), и эти солверы делают что-то вроде Пролога - ищут доказательство решения. Но уже не полным перебором, а согласно какому-то хитроумному алгоритму. Даже батлы солверов есть, где им предлагается доказать теорему. Но и они проябываются, поэтому у промышленных солверов есть стратегии, посредством которых можно направлять поиск решения.
И тут, на самом деле, не битва, а просто разные подходы. С одной стороны, максимальная формализация и максимальная прозрачность, где каждый пук алгоритма доказан. Но, в экстремуме, такой вывод эквивалентен полному перебору и алгоритмизации всех вариантов (что невозможно для любой реальной задачи хотя бы по теореме о неполноте). А в другом крайнем варианте - абсолютно черный ящик, где мы не можем даже примерно предположить, с хуёв ли статистическая модель (я буду называть нейросетки статистическими моделями, чтобы не обожествлять их) выдала такой-то результат и можно ли ему верить.
Но хотелка к этим системам одна. Нам хочется, чтобы они говорили в основном полезное и не говорили много ерунды. Нам похуй, получен ли результат полным перебором и или неверифицируемым алгоритмом, главное, чтобы результат был полезен. И вот нужно ли тут воевать? Что вообще мешает скрестить технологии? Допустим, нам нужен верифицируемый вывод. Мы берем Wikidata и просто ходим по графу. Но граф вывода очень большой, мы точно не сможем его обойти. Поэтому мы тренируем нейронку, которая бы просто подсказывала наиболее интересные пути. И еще мы не можем верить всем рёбрам в графе, ведь там наверняка есть ошибки. Почему бы не использовать нейронку, которая будет оценивать степень их достоверности и отдавать предпочтения тем рёбрам, которые, скорее, наиболее верны? В итоге можно получить высокую прозрачность, сослаться на любое правило выбора, мол вот оно, было получено из такого-то источника. Но и использовать преимущества статистических моделей. Мол, почему вы решили пойти по такому пути? А хуй знает, они работают, я дошел до результата, возможно, есть более короткий путь, но ведь и этот не плох.
>>49659
>>49716
>>49805
>>49810
>>49825
>>49828
>>49840
>>49877
>>49889
>>50288
>>50436
>>49674
Парни, уймитесь, ЭС - это не технология, это хотелка. В 70-е люди захотели, чтобы комплюктер делал какие-то далеко идущие выводы и заменял специалиста (или, как минимум, помогал ему). Ничего лучше использования баз знаний и if-then правил на тот момент не придумали. Потом появились всякие decision trees, потом всякие леса из этих деревьев, мягкая логика, чтобы можно было выбирать конечное решение уже на основе подгоняемых весов, нейронки - как развитие идеи подгонки весов, где уже всё решение строится только на подборе весов.
И эти решения не плохие и не хорошие. Они просто обладают разными характеристиками.
Например, Пролог ищет цепочку вывода на базе указанных правил. Его выхлоп полностью интерпретируемый, можно даже посмотреть какие правила в каком порядке применялись. И совершенно очевидно, где он соснёт, ведь это просто обход дерева с бэктрекингом, а как бы листва дерева растёт экспоненциально от его глубины.
Всякие пруверы, вроде Агды, Петуха или чего-то, построенного на конструктивной теории типов - это еще хуже. Они даже не ищут решение, они заставляют программиста доказать корректность решения вручную. Причем, именно в рамках их продукционной системы, которая обычно куда жощще даже обычной логики (там обычно используется подструктурная логика). Именно отсюда, кстати, растут ноги холивара статически и динамически типизированных языков. Динамикаёбы говорят, что они не хотят ебаться с тайпчекером, мол я и так знаю, что моя программа правильная, а то, что в вашей логике недостаточно структуры, то это проблема вашей логики, которая мне только мешает писать программы. А статикаёбы говорят, что хуй знает, что ты там себе написал, а моя программа тайпчекнулась, значит у меня есть гарантированный и автоматически верифицируемый результат.
Дальше еще интереснее. В том же Петухе есть солверы (да и в Хаскеле они есть, когда подключается более сложная система типов), и эти солверы делают что-то вроде Пролога - ищут доказательство решения. Но уже не полным перебором, а согласно какому-то хитроумному алгоритму. Даже батлы солверов есть, где им предлагается доказать теорему. Но и они проябываются, поэтому у промышленных солверов есть стратегии, посредством которых можно направлять поиск решения.
И тут, на самом деле, не битва, а просто разные подходы. С одной стороны, максимальная формализация и максимальная прозрачность, где каждый пук алгоритма доказан. Но, в экстремуме, такой вывод эквивалентен полному перебору и алгоритмизации всех вариантов (что невозможно для любой реальной задачи хотя бы по теореме о неполноте). А в другом крайнем варианте - абсолютно черный ящик, где мы не можем даже примерно предположить, с хуёв ли статистическая модель (я буду называть нейросетки статистическими моделями, чтобы не обожествлять их) выдала такой-то результат и можно ли ему верить.
Но хотелка к этим системам одна. Нам хочется, чтобы они говорили в основном полезное и не говорили много ерунды. Нам похуй, получен ли результат полным перебором и или неверифицируемым алгоритмом, главное, чтобы результат был полезен. И вот нужно ли тут воевать? Что вообще мешает скрестить технологии? Допустим, нам нужен верифицируемый вывод. Мы берем Wikidata и просто ходим по графу. Но граф вывода очень большой, мы точно не сможем его обойти. Поэтому мы тренируем нейронку, которая бы просто подсказывала наиболее интересные пути. И еще мы не можем верить всем рёбрам в графе, ведь там наверняка есть ошибки. Почему бы не использовать нейронку, которая будет оценивать степень их достоверности и отдавать предпочтения тем рёбрам, которые, скорее, наиболее верны? В итоге можно получить высокую прозрачность, сослаться на любое правило выбора, мол вот оно, было получено из такого-то источника. Но и использовать преимущества статистических моделей. Мол, почему вы решили пойти по такому пути? А хуй знает, они работают, я дошел до результата, возможно, есть более короткий путь, но ведь и этот не плох.
Привет, иксперт. Ты и правда иксперт, или хуй с горы? У меня есть вопрос на подумать. Недавно нейросетка фейсбука классифицировала каких-то негров как "приматов", ты, наверное, слышал.
С одной стороны, в этом нет ничего странного. Мы ведь все приматы, а, точнее, гоминиды. Но негры триггернулись.
А теперь, внимание за пальцами. Во всех банках используются скоринговые системы. Суть этих систем предельно проста - они занимаются дискриминацией людей. Они определяют, что этот - хороший, ему можно давать кредит, а этот - плохой, ему нельзя. Т.е. все скоринговые системы - фашисткие просто по своему дизайну, у них это в техзадании прописано.
Что с этим будут делать специалисты по этике, чтобы мы не дискриминировали кого-то там? Вы нам запретите использовать расу и цвет кожи в начальных фичах? Но это не сработает. Даже если мы исключим расу, очевидно, модель легко опознает, что человек относится к неграм по производным фичам. И если неграм не свойственно возвращать кредиты, достаточно глубокая нейронная сеть этому обучится и будет легко выделять негров в каких-то своих глубоких слоях, и не мы вам не сможем предоставить обоснование, что наша нейросеть не страдает расизмом, ни вы нам не сможете выдвинуть обоснованные обвинения. Как это будет разруливаться?
Должны быть исключительно экономические/финансовые фичи в модели. Ценовую категорию личного автомобиля можно, а его модель и цвет - нельзя. Тогда упрекнуть будет не в чем. Если даже там кто-то найдет нейрон негра, всегда можно будет подобрать беляша, который его тоже активирует. И сказать, что это не нейрон негра, а нейрон особой финансовой ситуации, в которой негры оказываются чаще. А последнее ни для кого не секрет - более того, отрицать социоэкономическое расовое неравенство это харам. Так что разработчик модели будет в домике.
Тут все проще на самом деле. Уже сейчас согласно повесточке, IQ это расоцентрический тест и подходит только для белых. К другим его применять неправильно. Так и тут, кредитный скоринг точно так же можно объявить как что-то созданное белыми для белых, в контексте конкретной культуры, а для других культур объявить его нерелевантным. Я даже думаю, что рано или поздно что-то подобное на западе придется применять и к законодательству.
> Любой трейдинговый бот
Вообще никакой связи.
> на пример.
Маня неграмотная, это вместе пишется.
Я впринципе так и ожидал что говно учитывая что по бд у нас лабы 2008 года, но надеялся мб тут хотя бы что-то норм будет, видимо зря. Ну на питоне вроде препод разрешил пилить, но скорее всего декстоп нужен будет да. Мне бы что-то попроще но с распознаванием
>IQ
IQ — хуита и наебизнес без всяких повесточек.
>созданное белыми для белых, в контексте конкретной культуры
В контексте конкретных экономик есть жёлтые, чёрные, голубые, разве что ультрафиолетовых пока нет. Ты предлагаешь банкам и страховым отказаться от куска разноцветного пирога, который у них уже есть.
Много заработал? Ты ведь эксперт в эс, я правильно понимаю? Значит у тебя есть один либо ты какой то используешь, ведь б-жественные эски идеально предсказывают колебания рынка и лишь идиот откажется от легчайших деняг.
Так назови любого конкретного бота либо скажи сколько твой тебе приносит, мне правда интересно, может перекачусь с нейронок на эски и буду 30000кк/наносек трейдером.
> MetaTrader
Мань, это не бот. Ты вообще от балды отвечаешь? В прошлый раз ты кукарекал, что матлаб это ЭС. Тебе лет сколько? 13?
Боты пишутся на metaquotes language 4, но откуда тебе об этом знать, трясунишке в штанишках
Но ведь это не бот сам по себе. Это инструмент для их создания. Ты же не будешь называть с++ и питон нейронками, верно?
>Но ведь это не бот сам по себе
Условные операторы и сигналы и никакого нейрогоана, вот тебе и бот.
>А вот причем тут ЭС?
А чем тебе алгоритмическая торговля не ЭС? ЭС можно на любом языке написать, или у вас там для нейроговна свой специальный труйоба язык?
Все же как по мне это не отличается от простого кода. То есть суть эс в том что их возможности такие же как и у простого кода с if then else?
Или есть более конкретные примеры ботов на чистых эс?
>чистых эс
Это кокие? Ты имеешь в виду production system? Попроси что бы тебя в
Morgan Stanley на экскурсию отвели.
Тех что нельзя заменить простым if else и с эффективностью выше нейронок. Или любая программа с хоть одним if уже по определению эс? нейронки к слову получается тоже?
Понял принял. Следующий перекот предлагаю сделать с заголовком "нейронок а эс тред".
Но если нейронки тоже эс, то в чем твой бугурт? Ну то есть, тут боготворят эс, обсуждают эс, а ты который тред подряд орешь что ваши эс говно ведь они хуже эс.
Не каждый алгоритм - эксперт, не? У эксперта есть много данных, он их все обрабатывает и выдает заключение основанное на них и на собственном опыте. У алгоритмов кроме датасенса нет биг даты, а так же нет опыта кроме того же датасенса и машоба.
> У эксперта есть много данных, он их все обрабатывает и выдает заключение основанное на них и на собственном опыте
Эксперт действует в рамках определенного алгоритма который он выработал своим опытом или перенял у других, никакой разницы от определения алгоритма.
>>52292
>Но если нейронки тоже эс
В какой то степени, убрать из них рендом и будут полноценные.
>убрать из них рендом
Какой рендом? Обучившаяся сетка, считай, конкретный алгоритм с конкретными коэффициентами операций над матрицами.
>конкретный алгоритм с конкретными коэффициентами операций над матрицами.
Ну я и говорю, ящик потрясли, че то там уложилось, че то нет вот и все. Никакого отношения к алгоритмам и логике оно не имеет
> Никакого отношения к алгоритмам и логике оно не имеет
Пздц даун... Маня, очнись, весь возможный машоб это алгоритмы.
Бамп вопросу
Также отмечу их техподдержку (support). В течение этого времени не по моей вине возникла серьезная нестандартная ситуация в результате которой мне заблочили аккаунт, но довольно быстро и вежливо с извинениями эту проблему решили.
Дегенерат тупорылый. Давай, переформулируй мне KNN в терминах EM. Или LSTM. ROCSVM, ммм?
Кагглолахта.
>Вкатился в Kaggle. Охеренная вещь.
Что полезного сделал? Местные трясуны ничего так и не высрали, но они нищие и глупые.
> Никакого отношения к алгоритмам и логике оно не имеет
> λογική — «наука о правильном мышлении», «способность к рассуждению» от др. -греч. λόγος — «логос», «рассуждение», «мысль», «разум», «смысл») — нормативная наука о законах, формах и приёмах интеллектуальной деятельности.
Так алгоритмы то тоже никакого отношения к логике не имеют, удивительно, правда?
Но нейросети - однозначно алгоритмы. Во время обучения на матрице модели ищутся пути (значения параметров) при которых потери минимальны, при чем ищутся сильно усложненным градиентным спуском. Этот самый поиск и есть алгоритм, который по сути чистокровный эс. Затем выполнение - по алгоритму описанному в коде выполнения на вход модели дают что то и ищутся пути с наибольшей оценкой при котором ожидается выход с теми же потерями что и во время обучения. А проходит сигнал эти пути как раз таки сложным if else ветвлением. И обучение модели и выполнение можно сделать и на бумажке с ручкой, к тому же по оценке генерации (как например у clip) можно понять принцип тех или иных параметров или причину вывода. Например та же история с негром приматом. Нейронке скармливали картинки обезьян - обезьяны темные, черты лиц как у приматов, скармливали белых людей - подпись люди, белая кожа и европеоидная форма лица, скармливали негров - подпись нер, темная кожа, черты близкие к приматам. Видим что совпадает 2 признака, вот и причина, которую можно пофиксить увеличением выборки или чисткой датасета вилкой.
Если нужно найти параметры что за это отвечают - перебором отключаем участки и смотрим. Все просто.
Итого у нас: эс находит коэффициенты конструкции эс которую потом использует эс для задач где теоретически по твоим словам эс. Но судя по всему, конструкция из нескольких эс разного уровня эффективнее из одной простой эс и поэтому популярнее. Нейронки - финальная стадия развития эс.
Или у тебя есть другое объяснение почему эс не так популярны как многоуровневые эс.
> задач где теоретически по твоим словам эс.
*задач где теоретически по твоим словам может использоваться эс.
быстрофикс
>Или у тебя есть другое объяснение почему эс не так популярны как многоуровневые эс.
Там где нужно принятие решений, а на кону стоят деньги и ништяки нейронок нет, а всякое развлекательное говно типа детектирование обезьян всего за 600 минут это для пориджей
> Там где нужно принятие решений, а на кону стоят деньги и ништяки
Ради справедливости, во первых они есть, те же боты для трейдинга на нейронках. А во вторых их эффективность сравнима с теми что на примитивных видах эс о которых ты говоришь. В любом случае без тщательной проверки человеком ни то ни то не допустят до конечного пользования, а так же и то и то может сокращать времязатраты в разы. Но сложные эс (нейронки) выполняются быстрее ведь
> детектирование обезьян всего за 600 минут
Длится миллисекунды даже на древней видеокарте. 600 минут это очередь на онлайн сервис либо генерация для черрипикинга который выполняет еще одна нейронка поверх.
Но мы ведь про принятие решений, и там время выполнения чуть ли не моментальное при точности выше чем у примитивных эс, а значит в штате больших дядей нужно на одну макаку для проверки меньше. На этот счет даже была статья яндекса, где они так сократили отдел тех поддержки нейронкой.
>во первых они есть, те же боты для трейдинга на нейронках
Только в твоих фантазиях, ну или каких то пориджей может и есть, они один хер на хаях закупаются.
>при точности выше чем у примитивных эс
Тащи нейронку принимающее решение, которая не для попила грантов
Если ты все еще не заметил, на хаях закупаются 90% манятрейдеров. К тому же они не для закупания а предсказания колебания цены которое в разы полезнее чем совет купить по совету черного ящика. И к слову про черный ящик - 99% людей не влезают ни во дальше поверхности, и даже те кто использует боты на примитивных эс считают эти эс черным ящиком, так что им нет разницы сложная эс или примитивная.
>>53070
Могу притащить любую, та что принимает решение котик на картинке или собака сойдет? Выше и точность и скорость чем у примитивных эс. Ах да, уже для задачи такой сложности нужна сложная эс а не примитивная.
>решение котик на картинке или собака сойдет
Нет конечно, неси полезное доя больших денег. Выдавалку кредитов, торгового бота, медицинскую/автомобильную диагностику.
> Выдавалку кредитов,
Тут нет фиксированных правил от которых не рвутся. Как только они будут выработаны, проработают год и создадут много данных, так сразу и будет. Сейчас тоже можно создать но она будет давать кредиты только белым.
> торгового бота,
Уже есть. Первая пятая ссылка в гуголе - https://polygant.net/ru/ai/iskusstvennyj-intellekt-v-treydinge/#11
> медицинскую/
Существуют. Пока не цельные, но все идет к этому. Например ранняя диагностика рака и аутизма, остальные точно не помню. Это намного эффективнее примитивных эс ведь пути сложных эс пишут из составные части что намного быстрее чем прописывание путей людьми.
Ну и первая ссылка в гугле https://celsus.ai/blog/kak-rabotaet-mediczinskaya-nejroset/
> автомобильную диагностику.
Для них сложные эс слишком сложные, это попросту нецелесообразно. Ничего не мешает научить нейронку диагностике автомобиля, но для этого есть простые эс. Зачем тебе космический корабль чтобы проехать 200 метров когда рядом есть велосипед?
>Уже есть. Первая пятая ссылка в гуголе
>Штудируя заголовки статей, новостей, постов в социальных сетях, блогах и других тематических источниках, ИИ может прогнозировать движение цен на акции и возможные действия других трейдеров.
Трейlинг уррвня /b
>Ничего не мешает научить нейронку диагностике автомобиля, но для этого есть простые эс.
Проорал
Короче нейронки слишком крутые для практического применения, поэтому вот вам котики. Пиздец
> Трейlинг уррвня /b
> маск пукает в твиторе и ноунейм крипта летит ту зе мун
> власти китов запрещают биток и он летит вниз
Чем больше данных тем выше точность, в этом суть биг даты и дата сенса. Да и в целом все трейдеры кто на этом зарабатывает учитывают не только сам график, но и то что происходит в мире.
> Проорал
> Короче нейронки слишком крутые для практического применения, поэтому вот вам котики. Пиздец
Говорю же. Для простых вещей тебе не нужны сложные инструменты, их можно присобачить, но это будет попросту не выгодно. Для этого есть экономичные альтернативы - примитивные эс, или чтобы не путаться и не повторяться, пэс.
А для сложных, то есть тех где путей скажем больше 100, заполнение путей людьми будет уже попросту слишком долгим и ненадежным из за человеческого фактора а так же будет стоить примерно столько же сколько и относительно быстрое компьютерное обучение где в роли эксперта алгоритм.
https://github.com/learning-at-home/hivemind
Предлагаю кому нибудь я слишком туп запилить код для обучения нейронки генерирующей цп прон, призвать анониев из /b и получить первую двощенейронку.
>Чем больше данных тем выше точность
Враки, следующие данные иогут твою точность понизить на изичах.
>где в роли эксперта алгоритм.
Какой может быть алгоритм в нейронках? Нейронки созданы для потехи и нигде промышленно не используются и не могут, это тупик.
>трейдеры кто на этом зарабатывает
Трейдер это вроде тот кто наваривается на фишЕ, которого можно сожрать?
мимо
Вот это прям очень правильное направление мысли. При достаточно большом комьюнити без разрешения барина и цензурки от цукербринов можно и гпт3 гонять и даже тот непомнючеготамформер который 1600В параметров. Надеюсь, если не конкретно этот проект, то что-то похожее до ума доведут.
> Какой может быть алгоритм в нейронках?
Ты реально дебил, даже не как оскорбление, а в медицинском смысле.
> Враки, следующие данные иогут твою точность понизить на изичах.
Они могут понизить точность в метрике, немного дообучаешь на новых и точность восстанавливается. В случае примитивных эс тебе нужно нанять эксперта и подождать пару недель пока он своим экспертным мнением используя экспертный опыт экспертно заполнит экспертные пути примитивной экспертной системы.
> Какой может быть алгоритм в нейронках?
Пчел, я ведь уже написал. Сложные эс устроены так что один алгоритм эс заполняет пути во втором (модель), а затем третий алгоритм эс выполняет второй. У тебя вся модель - буквально двухмерная ладно, не совсем двухмерная но тем не менее карта путей. Получает на вход активацию определенных путей, ведет по ним к выходу через дохуялион развилок, считай if else но в виде float от 0 до 1.
> Нейронки созданы для потехи и нигде промышленно не используются и не могут, это тупик.
Абсолютно все крупные корпорации используют нейронки. Бля, да даже если вспомнить сразу в голову летит та нейронка яндекса которой они экономят на кожанных мешках, гугл с рекомендациями в сервисах и переводом снимков со спутника в карту, лучи с апскейлом в карточках нвидки и дохера чего еще.
Это кабанчики с пирамидами и мамкины наебщики, не путай.
Его учат приходящие из других областей, потому что оно им ближе, чем язык общего назначения.
>голову летит та
Хуйня там из под коня, сидят индусы ли пориджи из этого треда и за копейки вилками разгребают
>еще приплети теорию заговора и скажи что итт сидишь с шапочкой из фольги
Рекомендую не тратить время на тупиковую хуйню, а изучить программирование и хотя бы ЖС, а то будете все время на мамкиной шеи сидеть, трясунишки.
Какой ЖС? Ты мужык или что? Заводы стоят, а им ЖС подавай. Иди чугун выплавляй!
300к/наносек жаба скрипт эксперт экспертных систем из третьей палаты, ты? Медсестра, увеличьте дозу и принесите еще памперсов, этот поциент снова срет под себя.
>жаба скрипт эксперт экспертных систем
Спешите видеть, трясунец воюет с соломенными чучелами, не слезая с мамкиного дивана. Тем временем настоящие программисты спокойно зарабатывают эти самые 300К - обычный рейт сениор девелопера (недоступный дата-макаке, разумеется)
При том что я настоящий программист, а именно JS разработчик. И я решаю реальные задачи за реальные деньги, а не кукурекаю, что же круче, попыт или симпл-димпл нейронки или ЭС
> что же круче, попыт или симпл-димпл нейронки или ЭС
Ты уже третий тред срешь тут. Или ты жаба скрипт шиз из четвертой палаты?
Визуализация, EDA — однозначно R, пандасоинвалиды соснули ноудискасс. Если нужно катить в кудахшен — тут уже ничего не поделаешь и придется писать на питоне.
тоже проиграл на этом моменте
По факту ты себе в штаны сиранул.
>твой пик1
За первую треть 2020 вакансий датасатанистов было чуть больше, чем треть от предыдущего года, 352 > 320. Вакансий ML спецов было чуть меньше, 200 < 240.
>твой пик2
Чиселки с первой пикчи неплохие даже без учёта спада из-за антиковидных мер, который мы видим на втором пике и которые коснулись всех областей. Увы, hh не даёт вычленить конкретные специальности и зафиксировались на СРб, но мой пик2 позволяет предположить, что с вакансиями фитпредиктов всё хорошо.
Сами hh пишут:
>Число ИТ-вакансий в России в апреле — мае выросло на 39% по сравнению с аналогичным периодом прошлого года, а также на 23% по сравнению с январем — февралем 2021-го.
Кстати, ребята из одс недавно делали исследование по вакансиям, которые постят у них (пик3, пик4): работодатели всё активней и активней ищут професиональных вакансий на джунов без опыта и стажёров в одс почти нет трясунов чёрных ящиков.
Так что уноси эту хуёво оформленную жс-макака не смогла расшифровать, что изображено на картинке ~ а ведь такие олигофрены входят в ЦА курсов, так что с оформителем инфографики нужно провести разъяснительную работу рекламку курсов.
покормил
Пикчи съехали, ну да похуй.
> ребята из одс недавно делали исследование по вакансиям
> работодатели всё активней и активней ищут
мидлов за 140 и помидоров за 230, ага (да, я тоже бываю там)
датаманька никогда не приблизится по уровню дохода к настоящему разработчику
Требуется линукс, либо докер на макось или всл(винда 10+) на винду, аноны все поголовно сидят на червивых семерах и не смогут поставить тот же всл по гайду. И я уж молчу если там надо будет какие-то команды и ключи вводить для доступа к твоему железу. И я почти уверен что там будет порог раскочегаривания, когда карточка с 2 гб какая-нибудь древняя просто не будет стоить для алгоритма достаточно чтобы ее использовать, а аноны в-основном сидят на днище уровня 680-780х карт
Мантры тебе не помогут. Макак, ты для начала читать научись, а там пристроем текст с картиночек размечать.
>Кстати, ребята из одс недавно делали исследование по вакансиям, которые постят у них (пик3, пик4): работодатели всё активней и активней ищут професиональных вакансий на джунов без опыта и стажёров в одс почти нет трясунов чёрных ящиков.
Вангую что жидко обсираются, тому же русскому сеньору который по американским или британским стандартам мидл выгоднее все таки съебать на 50-60 в европу или 80 сша, чем устраиваться тут в тухлобанк. А обучать они готовы брать только элитных претендентов, олимпиадки, физтех/мгу, заинтересованность, свои проекты. Интересно что бы могло удержать такого рода людей в рашке дальше года-двух работы в тухлобанке?
>мидл выгоднее все таки съебать на 50-60 в европу или 80 сша
Синиор жопаскрип-девелопер, просыпайся. Ввязываться в авантюру с переездом ради таких копеек можно если ты джун. Помидоры уже получают больше в рф. К тому же пыня подкупает плоско-регрессивной шкалой и копеечным кост о ливингом.
В рашке остаются только те, кто ниасилил уехать.
>Помидоры уже получают больше в рф
Так местные хохлолибирахи об этом не знают, им на Эхе Мацквы говорят что только в европидарахии рай.
Software Engineer.
Тот, кто занимается непосредственно разработкой на фреймворках, а не аналитикой.
Чел, просто загляни на ХХ и в тематические чаты, чекни зарплаты жс-макак, сравни с датаманьками и заплачь
И тем не менее, это ты пришел скрежетать пеньками сгнивших зубов в МЛ-тред, а не я в твой (который у меня всегда скрыт).
Всё так, зашёл к зазнавшимся не по чину дата сосателям напомнить их настоящее место. По хорошему вас надо вообще пидорнуть из /pr, вы даже не программисты
> Тот, кто занимается непосредственно разработкой на фреймворках
> Software Engineer.
Так первое или второе?
Этот пидор там тоже постоянно срет. Иногда пытается решать литкоды, но фейлит и жутко агрится на бекендеров.
>Помидоры уже получают больше в рф
Работающие на западного барина - может быть. У остальных потолок 250к в ДС.
Настоящий js-раработчик на фреймворках, спок. Говори за себя.
- Зумер
- Калмунист
- Эфирщик
- Плоскоземельщик
- Свидетель всякой хуеты типа "сознание не в мозге", "ЭС лучше трансформеров, но их не используют потому это это приказ Израиля", "нейросети это не алгоритмы" итд.
- Не может даже в арифметику, считая любую математику тоже то ли каким-то сортом приказа Израиля, то ли наебалова.
- Не может даже в петушиный жс.
Разве это не пиздец, таким быть?
Обычный ватник. 90% это пердун 45+, а не зумер. Еще забыл антипрививочник, ковид-диссидент, чотамеще, свидетель газдолга и Йеллоустоуна, гомофоб и гомосексуалист, при любом упоминании негров испытывает эпилептический припадок, Маск и Байден это его личные смертные враги. Описывать архетип можно долго, и все будет в точку - они как клоны, все их мысли написаны в лахте и ее предшественниках. Они все мыслят абсолютно одинаково. Жуткое зрелище, если вдуматься.
Вот тебе полный форум таких: http://rsdn.org/ . Вангую этот тоже оттуда.
> систему для врачей, чтобы по снимкам мрт с вероятностью 99% выявлять опухли мозга. Вроде полезная же хуйня?
Всё равно такие диагнозы должен верифицировать специалист. Автоматизировать имеет смысл только массовый скрининг, чтобы не вышло как в случае с одним мужиком, который помер от рака лёгких, а потом оказалось, что у него за несколько лет до смерти на флюорографических снимках уже были все признаки, просто их никто не заметил, потому что специально не искали. Это только ЭС петух верует, что ЭС может полностью заменить врачей на самом деле нейроночки заменят анальников, уж жс мартышек-то точно, от чего ему и печет с нейросетей.
Чел, жсеров уже почти прикончил нокод пока вы там копаетесь.
> Автоматизировать имеет смысл только массовый скрининг, чтобы не вышло как в случае с одним мужиком, который помер
Не имеет, завалит ложными срабатываниями.
Что-то типа такого: https://youtu.be/73ZTnPsO-m0
Но только для работы в пределах ОС и нескольких других программ.
Начал изучать МО, читаю книжку, сейчас вот пробую что-то делать в TensorFlow, чтобы понять, что вообще происходит и как этим управлять.
Но пришло понимание, что напрямую делать обработку "голос в текст" не получится с помощью нейронки- слишком сложно и слишком много примеров нужно для обучения. Это так?
Думаю, если что можно использовать какой-нибудь сторонний сервис для перевода голоса в текст, и уже этот текст передавать на нейронку. Норм план? Или фигню придумал?
Алсо, может быть уже где-то есть примеры с ассистентами для работы за ПК а я велосипед изобретаю?
А, вижу некоторые пилят голосовое управление через ботов на python https://habr.com/ru/post/529590/
Окей, буду пробовать.
Сам спросил сам ответил кун
>Думаю, если что можно использовать какой-нибудь сторонний сервис для перевода голоса в текст
Тебе очень надо башку ебать или просто запустить это добро? Ты можешь сделать бота для телеги за 10 минут, использовать уже выдроченную функцию телефона по переводу голоса в текст, потом бот уже запускает твои скрипты с функциями что тебе нужны, это решение прям мгновенное. Если же хочешь свой монолитный сервис
https://deepspeech.readthedocs.io/en/r0.9/?badge=latest посмотри как это под тебя будет работать
https://cloud.google.com/speech-to-text/docs/transcription-model#speech_transcribe_model_selection-python или гугл(я тыкнул в питоновское решение, но там есть все языки, мало ли), там есть и по аудиофайлам если ты захочешь не в реальном времени, а записал - отправил - запустил процесс
Как бы золотое правило, если ты просто хочешь сервис для чего-то - возьми уже тренированную стейт-оф-арт модель которая дает высокие точности по всем классам и вообще метрикам, 100% есть всегда модель под твои нужды, наверняка кто-то написал предсказатель погоды по пятнам говна на штанах
>курица знакомая устроилась
Ещё бы не устроилась с пуссипаспортом
>и она лично в соляного заебашила
ага конечно
> систему для врачей, чтобы по снимкам мрт
СУУУУКАААА
да как уже заебали этими снимками МРТ
это блядь мувисерчер от ML
Спасибо больше за ответ!
Попробую собрать из готового тогда, может быть получится чего.
Вообще машоб очень интересно, но пока ничего толком непонятно.
Анон, посоветуй хороший учебник по графам, как о явлении в целом, так и в качестве применения к нейросетям.
https://distill.pub/2021/gnn-intro/
Я могу кинуть только это из моей папки на будущее, там есть авторы и статьи в конце, может найдешь что-то подходящее
не спрашивайте на кой хой 15 летнему школяру вообще нужен дл
Смотри, у тебя есть линейная регрессия обычная. Какие-то у тебя есть точки на графике, например килограммы картошки и количество солнечных дней в году.
Линейная регрессия это линия по графику, прямая имеет формулу y=mx+b, возьми график и нарисуй несколько вариантов с разными m, b и икс, от этих параметров зависит как твоя линия направлена и откуда она начинается.
Вот у тебя был год когда собрали подозрительно много урожая картошки, т.е. твоя начерченная через облако точек линия ПИЗДИТ, как посчитать ошибку, но не для одной, а для всех точек? Пикрелейтед, средняя квадратичная ошибка. Реальное значение Yi минус значение которое выдает твоя формула прямой - ошибка для одной точки, 1/n означает суммарную ошибку для всей системы, всех урожаев картошки одновременно, степень пиздливости твоей прямой.
Когда ты тренируешь сеть(не важно что сейчас это алгоритм регрессии, это мог быть 1 перцептрон делающий тоже самое), она сверяется с валидацией и вносит изменения в веса твоих слоев. У тебя получается что если в году 100 теплых дней - должна быть тонна картошки, а картошки на самом деле 3 тонны, результат хуйня? Да, хуйня и алгоритм вносит изменение и "двигает" твою прямую чтобы она выдавала меньшую ошибку, она правит m и b чтобы результат становился лучше и проталкивает эти изменения с выходного слоя до входного. Размер поправок зависит от градиента, градиент это дифференциал этой формулы по m и второй по b, пикрелейтед 2, ты это врядли поймешь, но это такой математический способ записать как быстро(сильно) поменяется результат если менять в формуле одно значение. Новые веса(m и b) считаются как на третьем пикрелейтеде, L- лернинг рейт, константа которая определяет шаг градиентного спуска. Там свои особенности с ним, но ты это не спрашивал.
Происходит проверка еще раз и когда ошибка уменьшается до нормальной какой-то устраивающей тебя(например 95%) считается что алгоритм/нейронка СОШЛАСЬ, КОНВЕРДЖНУЛАСЬ, оптимальные m и b для минимальной ошибки Е найдены, ты можешь предсказывать урожай картошки
Чтобы ты не подумал что это бесполезно, представь что у тебя есть 10 графиков - теплые дни на кило, количество говна на кило, дожди на кило, тип почвы на кило, не знаю там высота над уровнем моря, ты не можешь своей дрочуней 3хмерной нарисовать гиперлинию многомерную, а машине поебать сколько там измерений, хоть 500 графиков, представь что они как веер исходят из одной точки(0 кило картошки и 0 дней, 0 навоза, 0 дождей) и каждый из них заполняется если мы смотрим сверху на этот веер, и машина "рисует" многомерную прямую через все эти графики в таком пространстве что она правдива для всех графиков одновременно и зависит уже от взаимосочетания разных параметров(например положили много говна, было много дождей, по идее хорошо должно быть, но на деле все сгнило).
Я не знаю зачем я тебе многомерность объяснил, вообще сам не понимаю, но мало ли
Я старался как мог
препод-вкатун
Смотри, у тебя есть линейная регрессия обычная. Какие-то у тебя есть точки на графике, например килограммы картошки и количество солнечных дней в году.
Линейная регрессия это линия по графику, прямая имеет формулу y=mx+b, возьми график и нарисуй несколько вариантов с разными m, b и икс, от этих параметров зависит как твоя линия направлена и откуда она начинается.
Вот у тебя был год когда собрали подозрительно много урожая картошки, т.е. твоя начерченная через облако точек линия ПИЗДИТ, как посчитать ошибку, но не для одной, а для всех точек? Пикрелейтед, средняя квадратичная ошибка. Реальное значение Yi минус значение которое выдает твоя формула прямой - ошибка для одной точки, 1/n означает суммарную ошибку для всей системы, всех урожаев картошки одновременно, степень пиздливости твоей прямой.
Когда ты тренируешь сеть(не важно что сейчас это алгоритм регрессии, это мог быть 1 перцептрон делающий тоже самое), она сверяется с валидацией и вносит изменения в веса твоих слоев. У тебя получается что если в году 100 теплых дней - должна быть тонна картошки, а картошки на самом деле 3 тонны, результат хуйня? Да, хуйня и алгоритм вносит изменение и "двигает" твою прямую чтобы она выдавала меньшую ошибку, она правит m и b чтобы результат становился лучше и проталкивает эти изменения с выходного слоя до входного. Размер поправок зависит от градиента, градиент это дифференциал этой формулы по m и второй по b, пикрелейтед 2, ты это врядли поймешь, но это такой математический способ записать как быстро(сильно) поменяется результат если менять в формуле одно значение. Новые веса(m и b) считаются как на третьем пикрелейтеде, L- лернинг рейт, константа которая определяет шаг градиентного спуска. Там свои особенности с ним, но ты это не спрашивал.
Происходит проверка еще раз и когда ошибка уменьшается до нормальной какой-то устраивающей тебя(например 95%) считается что алгоритм/нейронка СОШЛАСЬ, КОНВЕРДЖНУЛАСЬ, оптимальные m и b для минимальной ошибки Е найдены, ты можешь предсказывать урожай картошки
Чтобы ты не подумал что это бесполезно, представь что у тебя есть 10 графиков - теплые дни на кило, количество говна на кило, дожди на кило, тип почвы на кило, не знаю там высота над уровнем моря, ты не можешь своей дрочуней 3хмерной нарисовать гиперлинию многомерную, а машине поебать сколько там измерений, хоть 500 графиков, представь что они как веер исходят из одной точки(0 кило картошки и 0 дней, 0 навоза, 0 дождей) и каждый из них заполняется если мы смотрим сверху на этот веер, и машина "рисует" многомерную прямую через все эти графики в таком пространстве что она правдива для всех графиков одновременно и зависит уже от взаимосочетания разных параметров(например положили много говна, было много дождей, по идее хорошо должно быть, но на деле все сгнило).
Я не знаю зачем я тебе многомерность объяснил, вообще сам не понимаю, но мало ли
Я старался как мог
препод-вкатун
>Я не знаю зачем я тебе многомерность объяснил
Сам охуел, такая простыня. Тут обычно нейрошизиков обсасывают однострочно
Мимо, ЖС господин
Макака порвалась, а могла бы не сидеть у мамки на шее и вкатилась бы в ЖС
Словно чтото плохое
Всё лучше чем быть нейроманькой
Спасибо.
Круто спс.
Нейронки тупик, почему вы еще не вкатились в настоящее программирование?
JS
проорал с нейроперемог!
Ещё вопрос - что скажете по поводу этой родмапы ? https://youtu.be/w-IdSp_mQuM
Родмапа из шапки проверена или просто так захуярили?
Шапка проебана, прошлую смотри. И отсеивай такие кринж-курсы, на курсере и нормальные есть.
Судя по кольцу у этого трясуна есть жена, пиздец...
Щас бы вкатываться в машинку не по ынгу.
Хотя я так представил, какая содомия щас творится на рыночке инфоцыганства и прослезился. Ты же ни за что не угадаешь кого из них выбрать. Бедные вкатыши.
Стэнфордские курсы заебись. Для первого знакомства сойдёт и ods. Если тебе нужен курс на русском то хули ты забыл в МЛ?, на степике было что-то вменяемое от самсунга и мфти.
Как у тебя с высшей математикой и статистикой?
Какой одс, чел? Там обсуждают сколько Валера жмет от груди и разных вниманиепидоров. Как раз для первого знакомства нужно выбирать очень тщательно, и в одс наоборот лучше не заходить до поры до времени вообще никогда
Я имел в виду курс от них, там его пройти довольно быстро, представление получишь. А в слак можно зайти хотя бы за закрепами в релевентных каналах.
Книжки читай ебана. Курсы это компиляция из книги, 98% курсов это просто последовательное прохождение Хэндс-он Герона. Книжка УЖЕ имеет роадмапу внутри, и ты сам решаешь нужно ли тебе что-либо из этой книги или нет(например большинство книг растягивается и на темы nlp и cv, и генераторов, и даже часто деплоя во всех возможных формах.
Я не понимаю почему вы так дрочите на эти компиляции, без ебала на экране сложнее понять две строчки кода с абзацем объяснения к ним?
По крайней мере ты будешь знать ВЕСЬ спектр применений, на курсах если они не про это тебе не расскажут про снижение размерности, или не будут погружаться во все классические алгоритмы, или вообще не затронут unsupervised(а может именно это тебе больше понравится). В книжках хотя бы формулы часто есть, а то ведь курсо-составители знают что от любой формулы в машобе бОльшую часть зрителей начинает сразу тошнить. На курсах тебе скорее всего просто скажут везде ебошить Adam и не расскажут ничего толком про все остальные оптимайзеры и где они применяются.
Курсера не хуита если ты будешь смотреть очень специфичный курс по очень новой срани, курс в отличие от книги постоянно обновляется и тебе банально не придется что-то делать в первом тенсорфлоу, или использовать какие-то супермерзкие старые либы для реинфорсмента
А есть тиктоки по датасаенсу? Контент чтобы был 20-60 секунд с огромными сиськами?
Но это и вправду программирование, а нейроночки - это околопрограммисткая хуйня, сидят какие-то додики, че-то пердят, нейроночки строят, никто их за программистов и не считает.
>Представьте что сделают где-то в Китае такой скайнет, который окажется нацистским. И уничтожит всех, кроме азиатов и может быть белых.
В смысле на основании объективных данных беспристрастно вынесет оценку о том что все кроме белых и азиатов - биомусор?
ХОТЕТЬ!
> объективных данных
На основании мусора информационного средневековья.
Объективные данные можно получить лишь при условии что эти данные вносит компьютер на основе собственных измерений объективной хуйни, вроде содержания мочи в кале. А собирать эти данные никто не будет, как с iq который теперь неграм низя измерять потому что это другое.
А как говорится, мусор на входе = мусор на выходе.
>отсеивай такие кринж-курсы
оки. Если что, это был курс от IBM
>>57261
>Если тебе нужен курс на русском
необязательно, могу и на инглише смотреть
>Как у тебя с высшей математикой и статистикой?
линал-матан-диффуры-алгебра-комплан
разве что теорвера и матстата не было, матстат вот сейчас на степике прохожу
спасибо за ответ
>>57516
что из свежего можно почитать для вката новичку? Программировать умею, база вышмата есть
>а могла бы не сидеть у мамки на шее и вкатилась бы в ЖС
Ты чего нахуй! ЖС - это ебаные макаки и дебилы, мне так на дваче сказали! С них же только смеяться! Они же несерьезным и простым делом занимаются нахуй. Ну да, по статистике они зарабатывают не сильно меньше, чем всякие нейронодрочеры и мл-инженеры, меньше изъебываются, но у них же нет бэйджика элитария! Мама подождет, я досматриваю второй стэнфордский курс, все, скоро буду, блять, незаменимым специалистом по нейроночкам, позиция рисерчера в Гугле мне уже припасена! Я блять не макака ЖСовская, я специалистом нахой серьезным буду!
> ЖС - это ебаные макаки и дебилы,
Будто нет. Ты сам тому ярчайший пример. Ближайшее будущее веба это вебассембли, в который уже сейчас компилируется почти всё. А ты на старости лет будешь бибу сосать, потому что ни во что кроме жс (петушиный язык, который настолько не нужен, что заменяется простейшими приложениями без кода) не можешь, даже в ЭС.
https://vgtimes.ru/news/80905-etoy-devushki-ne-suschestvuet-virtualnaya-zvezda-instagram-privlekla-100-sponsorov-za-god-i-zarabotala-million.html?amp=1
ЭС так могут, а?
Ну а я о чем говорю! Правильно! ЖС-макак заменит вебассембли, а всех остальных кодомакак заменит AI, мне так на дваче сказали! Только мы останемся, нас ведь никто не заменит! Я вот уже досматриваю второй стэнфордский курс, скоро буду уважаемым специалистом. Мам, ну, подожди, да, Ерохин зарабатывает, но он же макака, не элитарий, скоро вообще без работы останется, а мы тут с ребятами на мейлачах серьезным делом занимаемся, а не петушиными всякими макакскими говнами! Скоро стану неибацца специалистом, Гугл уже ждет!
>не можешь, даже в ЭС
Уважаемый, ЭС-боярин, я смотрю, вас хорошенько проткнул. Но перестаньте везде детектить своего протыкателя, это выглядит нелепо; не он один над вами тут смеется.
эсопетух сам с собой срется
Какая разница, жс сам по себе это 2,5% от самой области веб-разработки. Есть зиллион трансляторов с любых языков, но как показывает практика, переход на более лучший язык это капля в море и особого буста не дает.
Я не левак и не коммигниль, ненавижу жидов и чурок с неграми, но это ничего не меняет.
То, что большая часть данных в интернетах более чем субъективна, очевидно всем, а из субъективных данных объективного вывода сделать нельзя. Так что нужно либо чистить вилкой, при чем объективной, либо сразу брать объективные данные.
Чел, жс это не столько язык прогноммирования сколько собирательное обозначение челиков, которые не осилили матан за первый курс, плюнули и решили "буду фротендером".
> Так что нужно либо чистить вилкой, при чем объективной, либо сразу брать объективные данные.
Если брать объективные данные, будет ещё хуже. Хотя бы количество совершаемых преступлений. Субъективно можно хотя бы сказать, что это расизм. Субъективно можно сказать, что айкью это тоже расизм, что математика это инструмент белого супремасизма итд, а вот объективно всё будет совсем плохо и неприглядно.
А вот это уже удар ниже пояса.
Покуда вы будете вот так же по-дилетантски пукать — вас будут бесконечно унижать этикопетухи и индустрия будет буксовать на поигрульках в го. Что собственно и наблюдаем.
Все так. Но на двух стульях не усидеть и если шизы возьмут субъективные данные то будет как всегда и на выходе расизм либо полное несоответствие реальности либо все сразу, возьмут объективные и там скорее всего будет расизм но более близкий к реальности выход. Но очевидно, шизы выберут первый стул и потратят на очередной гпт5 мильярд мильярдов и столько же на чистку датасета и будет как всегда.
Да так то и не нужен, пещер и факелов из говна на палках более чем достаточно. Электричество ваше вообще от этого самого как там его, дябола вашего, вот.
Правильно, это к ЖС-петухам! Это ведь не так, что матанализ практически не нужен большинству SWE. Они просто все макаки нахуй! Вот меня Иван Петрович в моем МухГУ научил, такая непосильная вещь макакам; предельчики, градиенты, интегралы, ряды - усе, ждите, уже на полпути разъебывания нейроночек, буду незаменимым профессионалом.
> разработчику
Разработчику он нужен чтобы продумывать логику, контролировать память и ее утечки, просчитывать оптимальный параметры, производить операции с данными вроде тензоров (в том числе картинками в rgb), составлять архитектуру и то что у нее под капотом и для дохуялиона чего ещё.
Но как я понял твой вопрос был другой, а именно
> Нахуй макаке нужен этот ваш швитой матан, есть что сказать?
Тогда да, он не нужен. Совсем.
Лол, теперь можно точно сказать кто скупал видеокарты у китайцев по дешевке.
>Разработчику он нужен чтобы продумывать логику
И при чём здесь матан?
>контролировать память и ее утечки
Какие блядь утечки, ты крестоёб из НИИ ХУИ, что ли?
>просчитывать оптимальный параметры
Параметры чего, борщехлёб тупой? Встань уже с дивана и найди реальную работу в IT
Это, конечно, гениальный высер, а где конкретное применение матана, причем не самого базового? Я тоже могу спиздануть: "Механика сплошных сред нужна для построения логики", только это просто пук от витателя в облаках, без какой-либо конкретики.
И, правильно я понимаю, те, кто не занимаются байтоебством - макаки и чмохи, даже не разработчики? Так и запишем, нужно заниматься прямо совсем уебанской хуйней за кусок черствого хлеба в НИИ, лишь бы сычев с двача не назвал тебя макакой, лол.
Чет проиграл, вкатыши спорят про матан, но ни одна сука его не осилила и не знает нахуя. И это в МЛ треде! Хах
>>58173
>Это, конечно, гениальный высер, а где конкретное применение матана, причем не самого базового?
Жс-макакен, спок, не гони так, мамка дома ждет. Сначала нужно осилить тот самый базовый.
>м.. гм-м.. это, кароч. конкретики не будет. тебя блин мамка ждет) сказано же нужен матан для логики, значит нужен матан для логики, чево непонятного?!! если понадобилась какая нить производная значит нужен матан воот
Понятненько. Жесткий самоприклад ты устроил. Почему я не удивлен, что очередной борщехлеб, свидетель необходимости матанализа для разбработчика, не смог пояснить, где он используется в SWE, а просто пукнул и ретировался с обосранными штанишками?
>контролировать память и ее утечки
Теперь вы знаете, что за существо топит за швитой матан
> Apart from GPT-4, Altman also gave a sneak-peek into GPT-5. He said that GPT-5 might be able to pass the Turing test.
Анальники походу вообще всё. Кто не понял процитированное, сео опенаи заявил, что гпт5 пройдет тест Тьюринга.
для предобработки, группировки и т.д. при этом dplyr используешь или что-то другое?
Я утрирую конечно, но всё же
Не из-за чего. Я выкатился как только понял что это просто сорт продуктового девелопмента. То что ты описываешь называется "вкатыш идеализирует".
Если ты конечно не из академии, там свои приколы но тогда уж лучше подаваться в чистую матешу.
> Я выкатился как только понял что это просто сорт продуктового девелопмента.
Что-то я не понял, разве это не очевидно? А раньше ты как думал? Какой идеальный образ был?
>что из свежего можно почитать для вката новичку? Программировать умею, база вышмата есть
Начни с The Hundred-Page Machine Learning Book, ее даже пиратить не надо, она по "прочитай, если понравилось купи" модели. Это с формулами и кратким введением справочник по всему что есть, она 19го года, там есть qr-коды со ссылками на статьи.
Когда что-то заинтересует для углубления - уже выберешь книгу
Второй вариант того же Geron Hands-on, но станешь рабом Tensorflow, но книга хорошая тем что там буквально ВСЕ есть, и очень много примеров, заданий, есть даже целые курсы в виде воплощения этой книги(Daniel Bourke, попробуй посмотреть, на ютубе есть первые 14 часов видеокурса, остальной можно спиратить).
Дальше этого только специализироваться, есть книжки по ганам, есть книжки по реинфорсу, по сиви, по деплою, по мобилкам, по конвеерам.
Все есть на рутрекере
Потыкал их маскед ленг модель и если ее допилить то выйдет довольно неплохая альтернатива трансоформерам, но то что сейчас - модель не может в генерацию более одного слова той же длины что и маска, а все что вне промедутка токенов это куча "ааааааа". К тому же вроде как кода для обучения. Но преимущество по сравнению с теми же трансоформерами в бесконечной последовательности токенов что пиздец какой плюс по сравнению с примерно 10мб/токен в том же gpt-j.
Хули они ее не пилят?
>>58282
>это просто сорт продуктового девелопмента
Это до очень многих из треда не доходит. Они же реально считают себя невъебенными математиками, лол. Недавно срали про оцифровку сознания, и ведь это была даже не шутка, я уверен. Борщехлебы еще думают, что пойдут работать не обыкновенными аналитиками, которым просто будут иногда давать играться с готовыми решениями в нейроночке и машинках, и на которых будут смотреть свысока даже презираемые ими макаки, а в рисерч-команды, где дяденьки с PhD сидят, с тоннами публикаций, осилившие немного больше, чем два андерград-курса Стэнфорда и матанализ первого курса. Не говорите им, что реальность немного жестока..
Чел, это до людей в индустрии не доходит. Людей с попытом.
Самое смешное в том что они таки все равно умудряются наколхозить вполне жизнеспособные продукты. Просто костылей много и поддерживать тяжело. Но зато для смышленных гребцов есть огромное и очевидное пространство для роста и апанья сотыг.
>Они же реально считают себя невъебенными математиками, лол.
Ахаха, лол, а ведь действительно, видал я таких.
И ПОСТУПАЕШЬ ТАКОЙ В СТЕНФОРД
@
ХЕЛЛО МАЙ НЭЙМ ИЗ ЮРИ ЭНД ЛЭТ МИ СПИК ФРОМ МАЙ ХАРТ
Без проблем, братишка, держи идею https://vc.ru/legal/293964-roskomnadzor-potratit-58-5-mln-rubley-na-sistemu-avtomaticheskogo-poiska-zapreshchennoy-informacii-v-smi-i-socsetyah
Учитывая, что 80% задачи решается написанием регулярки "Навальн*", для начинающего - самое то. Ещё 58 миллионов дадут (правда 50 придётся откатить).
Зачем вообще учить эту ебаную хуйню если ты не азиат/русня/индус? Американцу и официантом в майями заебок работается
Международка Chomsky довольно сложный в совершенствовании инструмент, когда кайсы идут вокруг произношения и всяких глубоких флексов.
Каков реальный потенциал для GAN дип лерненга в генерации видео для взрослых? (японские AV фильмы, профессиональный короткометражный прон, любительские где сняли своих жен с неграми, хентай мульты - не важно, любого формата)
Типа text to video, вбил текст сценария или тупо теги - получил десять сгенерированных fake роликов по разным сидам, не отличимые от реального отснятого видео
Захотел с конкретной девушкой с фотки - залил фотку и тоже сделано с ней любое порево
Алсо, я говорю совсем не о цп и сам категорически против него
Я почему задумался, потому что уже сейчас text to image неплохое, а text to pixelart порой почти выполняет тест Тьюринга
>graph machine learning (GML)
Тут много говорят про него. Оно как-то способствует годному синтезу text2video?
Алсо, когда наконец припашут квантовые вычисления (кубиты хуиты) для машоба, чтобы ускорить процессы раз в 30?
https://github.com/SemyonSinchenko/qmlcourse следи за ними
>>58725
Ты только на заре пришел, братья Райт только запустили свою деревянную хуйню, а ты уже хочешь боевой вертолет
Тот же симсвап которым Абу вставляли куда только не придумаешь, гугл там что-то делает, тренируя на ютуберах-обзорщиках у которых все видосы на 99% идентичны по "картинке" на экране, тексту и содержанию.
Если не упремся в эту ебучую срань с толерантностью - все будет через несколько лет, если упремся - никто не выкатит инструмент которым ты сможешь негров в фильмах на белых менять, собственно делать цп или реалистичные материалы для шантажа
Тут нужно прояснить. Прогресс t2i обусловлен онли clip от хуев. Это долго и работает только для одной конкретной картинки, то есть clip смотрит и говорит, не, хуйня, переделывай, и ган переделывает двигаясь в своем пространстве. А сами ганы уже содержат в себе абсолютно все чему обучились, и впринципе не могут сделать что то новое, это будет рекомбинация классов, можно попросту запустить скрипт который выкачает все что есть а модели и ничего кроме того что выкачено ган не даст.
То есть просто ганы довольно слабы без чего либо.
Итого - пока не будет нейронки которая может дать оценку насколько видео целиком соответствует тексту, из ганов вменяемого text to video не выбьешь. Но есть другие архитектуры, особенно трансформеры, они устроены иначе и конкретно трансформеры впооне имеют потенциал в том чтобы делать видео. Однако они попросту не влезут в домашние видеокарты, даже в 3090, там будет под гигов 500 в видеопамять для секунд 10.
Так что в целом, то что есть сейчас под твою задумку не попадает от слова совсем, но архитектуры активно развиваются и через год-два уже что то да будет, например сделают трансоформеры компактнее. А пока только картинки.
Я её специально проебал. Это бред какой-то. ML - прикладная дисциплина. Его надо изучать не от теории которой, по сути, нет, поэтому и пихают всякую линейную алгебру и статистику, а от задач.
Чтобы научиться плавать, надо плавать. Чтобы научиться программировать, надо программировать. Чтобы научиться оверфитить модели, надо идти на kaggle и оверфитить модели. Поэтому чтобы научиться ML, надо скачать какой-нибудь PyTorch или Tenzorflow и начать в нём что-нибудь делать. А теорию изучать уже по ходу, ту, которая нужна для решения конкретной задачи.
Поэтому да, учебники будут, но уже когда начнёшь что-нибудь делать. Сам найдешь себе учебник, где будут вещи, интересные тебе. А если есть общее математическое образование, то скорее даже не учебники, а научные статьи.
Конечно, если не хватает общей математической культуры, чтобы прочитать статью и понять смысл всех написанных формул, то надо повышать уровень с помощью учебников. Но среднего комплюктерсайнтиста в универе 4 года готовят. Теперь что, четырёхлетнюю программу в шапке писать? А если человек хочет не просто нейросетку замутить, а трёхмерную структуру белка предсказывать, то еще и курс квантовой химии и молекулярной биологии добавить? А еще матан и дифференциальную алгебру, а то ведь без знания производных человек не поймёт как BP работает. И физику твёрдого тела, чтобы знал, как полупроводники в видеокарте работают, на которых всё это будет вычисляться.
Заход с теории только отодвинет момент, когда человек скачает ML либу и начнёт что-то делать, может он вообще до этого не дойдёт. А реальное обучение начинается именно в тот момент, когда человек начинает что-то делать самостоятельно. Для общего развития есть универ, любая более-менее включающая математику специализация в качестве базы подойдёт. Но даже если ты как Ларри Уолл учился на лингвиста и работал переводчиком Библии, это не помешает стать программистом или ML-щиком.
Вот у меня самого CS-образование. Но если бы мне довелось прожить жизнь заново, я бы бухал, курил марихуану и занимался сексом с однокурсницами пошел бы на биологию, физику или на врача бы выучился. Как раз, чтобы получить знания в какой-нибудь прикладной предметной области, а программирование и ML я бы использовал для решения своих практических задач. В конце концов программирование - это та область, практический опыт в которой можно получить не отрывая жопы от стула и используя только комплюктер и Интернет. А вот если ты хочешь использовать нейронки для расчета оптимального профиля крыла самолёта, то тут нужны знания аэродинамики и доступ к аэродинамической трубе, в эту область просто так сидя на дваче не вкатиться.
Я её специально проебал. Это бред какой-то. ML - прикладная дисциплина. Его надо изучать не от теории которой, по сути, нет, поэтому и пихают всякую линейную алгебру и статистику, а от задач.
Чтобы научиться плавать, надо плавать. Чтобы научиться программировать, надо программировать. Чтобы научиться оверфитить модели, надо идти на kaggle и оверфитить модели. Поэтому чтобы научиться ML, надо скачать какой-нибудь PyTorch или Tenzorflow и начать в нём что-нибудь делать. А теорию изучать уже по ходу, ту, которая нужна для решения конкретной задачи.
Поэтому да, учебники будут, но уже когда начнёшь что-нибудь делать. Сам найдешь себе учебник, где будут вещи, интересные тебе. А если есть общее математическое образование, то скорее даже не учебники, а научные статьи.
Конечно, если не хватает общей математической культуры, чтобы прочитать статью и понять смысл всех написанных формул, то надо повышать уровень с помощью учебников. Но среднего комплюктерсайнтиста в универе 4 года готовят. Теперь что, четырёхлетнюю программу в шапке писать? А если человек хочет не просто нейросетку замутить, а трёхмерную структуру белка предсказывать, то еще и курс квантовой химии и молекулярной биологии добавить? А еще матан и дифференциальную алгебру, а то ведь без знания производных человек не поймёт как BP работает. И физику твёрдого тела, чтобы знал, как полупроводники в видеокарте работают, на которых всё это будет вычисляться.
Заход с теории только отодвинет момент, когда человек скачает ML либу и начнёт что-то делать, может он вообще до этого не дойдёт. А реальное обучение начинается именно в тот момент, когда человек начинает что-то делать самостоятельно. Для общего развития есть универ, любая более-менее включающая математику специализация в качестве базы подойдёт. Но даже если ты как Ларри Уолл учился на лингвиста и работал переводчиком Библии, это не помешает стать программистом или ML-щиком.
Вот у меня самого CS-образование. Но если бы мне довелось прожить жизнь заново, я бы бухал, курил марихуану и занимался сексом с однокурсницами пошел бы на биологию, физику или на врача бы выучился. Как раз, чтобы получить знания в какой-нибудь прикладной предметной области, а программирование и ML я бы использовал для решения своих практических задач. В конце концов программирование - это та область, практический опыт в которой можно получить не отрывая жопы от стула и используя только комплюктер и Интернет. А вот если ты хочешь использовать нейронки для расчета оптимального профиля крыла самолёта, то тут нужны знания аэродинамики и доступ к аэродинамической трубе, в эту область просто так сидя на дваче не вкатиться.
Спасибо за разъяснение, это классно.
При случае можно будет и арендовать облачный GPU, чтоб генерировать видосы.
Видел новость про какую-то godiva от cuckrosoft и папер про нее. Но там ничего нового, это уже было в dvd-gan.
Тестирую в браузере t2i технологию от китайцев. Не так хорошо как clip, но тоже работает. Вбиваешь иероглифы и оно выдает серию мыльных картинок.
Ок. Вбиваю туда название Японии китайскими иероглифами, выдаёт: вы ввели неприемлемый запрос. Будто я попросил детскую порнографию. Что за хуйня??? Инсекты ебанулись?
Зайди на форум официантов Майями. Они там тоже, наверняка, какую-нибудь свою заёбную хуйню обсуждают. Ну там как правильно смешивать коктейли, или что-нибудь ещё, не шарю в их делах. И спроси у них, зачем учить как смешивать эти ёбаные коктейли, если датасаентисту и так заебок работается?
> Тут много говорят про него.
На самом деле тут только я о нём говорю. Просто я занимаюсь разработкой графовой БД и по совместительству сталкиваюсь с элементами GML. Кроме того, я угнал тред, поэтому решил попиарить то, что интересно лично мне. Может следующий тред кто-нибудь другой угонит.
Ответ на твой вопрос: нет, вообще никак. По крайней мере, на каком-то высоком уровне. Может быть где-нибудь в глубинах реализации и рационально применять GML, поскольку text2something - это совсем уж общая область, состоящая из многих компонентов, возможно в каких-то компонентах и рационально применять GML.
Чтобы получить общее представление о том, на решение каких задач нацелен GML, посмотри первые два видео из этого курса https://www.youtube.com/watch?v=JAB_plj2rbA&list=PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn
> Алсо, когда наконец припашут квантовые вычисления (кубиты хуиты) для машоба, чтобы ускорить процессы раз в 30?
Сразу после изобретения термоядерного реактора. Т.е. через 20 лет.
Вообще, квантовые вычисления - это как управляемый термоядерный синтез. Он появится ровно через 20 лет. Какой бы год ты не взял с 1951-го, вот ровно через 20 лет он появится. и так с 51-го. Дальше выводы делай сам.
Вообще надо в идеале делать такую ML модель, которая оптимизирует и совершенствует другие ML-модели пол разные задачи. Программа-программист, как-то так.
Удваиваю, я тоже ни хуя не понял, но в рот ебал дебилов которые судят о чем-то с умным видом
> делать такую ML модель, которая оптимизирует и совершенствует другие ML-модели
https://en.wikipedia.org/wiki/No_free_lunch_theorem
>я тоже ни хуя не понял
Ебать, что там непонятного? Словак на первой же минуте всё изложил. Или это такой троллинг? Мне самому интересно.
У меня на собеседовании в Яндексе спросили, чем я занимаюсь, я ответил, мол этим. Они спросили, а в чем value. Я ответил примерно как словак, но криво, однако они поняли.
Потом я нагуглил словака и понял, что он ровно за минуту с ебанутейшим акцентом объясняет всё то, что я на русском им криво несколько минут рассказывал. Ну он профи, понятно, небось и преподаватель какой-то. Неужели не понятно? Что именно не понятно вот с его слайда, например?
Я не кодер, очень тупой и умею только юзать готовый код в колабе с готовыми мл моделями.
>Что именно не понятно вот с его слайда, например?
Непонятно, что сказано по существу. Какие-то общие слова и прочее пиздабольство.
Что скажете про это? (там где-то был и папер, можете погуглить)
Там надо учить сетку простым действиям которые могут совершать люди. Затем она их воссоздает как в системах, основанных на clip. Можно натренировать так же для AV (вместо "едет на лыжах" - аннотация "сосет член" например). Но нужен датасет с аннотациями, часть которых придется ставить вручную, прежде чем их подхватит модель автоматического размещения тегов.
У cogview сайт - зацензуреная хуйня. Ищи на гитхабе ссылку на колаб, там все заебись. Кстати, конкретно эта запилено на трансформерах.
Бамп вопросу
Это определяет тот кто заливает видео на сколько знаю. То есть по факту, порнхаб - это вручную размеченный датасет на дохуя терабайт.
Про иконки, или серые полосочки с подписью того что происходит на видео, я не думаю что на официальных каналах того же браззерс заливатели вручную отмечают это, и не думаю что есть поехавшие пользователи что посмотрели и подумали "хм, надо отметить где тут догги для других кто любит это, сделаю доброе дело!"
На рандомных старых видосах этого нет, этим кто-то занимается вручную. Вероятно, студии имеют для этого работников, почему нет?
Чтобы что? А каналы частные всяких русских шалав, они тоже все отмечают?
Может на старых нет потому что они были залиты до имплемента фап-алгоритма?
На том же ютубе почти все сейчас чаптеры заливают, то же самое. В проне это даже более актуально, тащемта. Как раз можно заметить, что оно в основном на активно мейнтейнящихся каналах вроде студий или индивидуальных щлюх.
Да и что мешает прогнать ОЛГОРИТМ для старых видосов?
Ну хз, они где-то там лежат и не пердят, а алгоритм срабатывает при заливке. Даже я - ноускильный говноед могу сделать пайплайн который делает скриншот каждые 20 секунд видоса и потом классифицирует действие простой конволюхой по датасету что я могу собрать с порнолаба за неделю. Вангую на порноресурсах датасатанистам платят не меньше чем в нетфликсе, просто никто активно не пиздит на ютубе как ему зашибенно работать в порнухе
Чел, там 90% на колаборативной фильтрации. Какие конволюхи хорош бредить, борщеед.
Ща у l4rz в твитере видел модель генерации фоток девушек
https://mobile.twitter.com/l4rz/status/1437824469972705281
Есть в нижнем белье, но только анфас
Я тут подумал, блеваки в Штатах непременно всё зацензурят чтобы невозможно было делать adult контент с людьми с фоток, а в Китае вообще любой контент делают невозможным (по другим соображениям, типа это вредно для нации)
Есди так, тогда будет возможно сгенерировать только с несуществующими личностями как вот тут, или хентай мульты. США и Китай ведь самые крупные игроки. Или если русские сделают. На наших вся надежда.
> На наших вся надежда.
К 2022 году наши не будут иметь доступ в интернеты и использовать йобатрансофрмеры3000, а не наши не смогут взять от наших биг дату цп прона. Вся надежда на японцев.
Ты, анон, конечно прав. Но это не отменяет того, что шапка все равно проебана. Надо бы набрать новую, с практикоориентированным подходом (позаимствовать с одс), и часть твоего поста в шапку внести. Но кто этим заниматься будет?
Ты.
Классно же, теперь надо такое же но в полный рост и сложных позах. С кастомизацией. И обязательно расшарить для всех pkl или что у него там
Зато контента у них на пару десятков петабайтов на любой вкус и анального ркн там нет. А на безрыбье и рак рыба ведь.
Кстати, япы по своей технологии crypko анонсировали приложение memes на основе GAN. Генерация манга девочек в анфас вместе с костюмом и кастомизацией. Должны были выпустить этим летом, да хуй там
>Чтобы что?
В смысле "чтобы что"? Я порнуху, бля, открыл, хуле мне смотреть на ласки, сразу переключил на то, как ее пердодят в доггистайле. Потом открыл порнуху от этого же канала, потому что удобно. Они получают мой просмотр, я - удобный просмотр порнухи.
Подскажет кто-то новичку, какими способами можно кластеризовать данные на основе разности в плотности? Какие вообще советы есть в такого рода ситуации?
Ну как бы и так все кто смотрел больше 10 роликов знает что вся порнуха всегда идет по одинаковому секвенсу и любой просто знает на сколько примерно мотать, тем более на ролике есть превью при наведении на бар. Тем более ты как бы смотря видео на порнхабе ничего не привносишь кроме нагрузки на их серваки, а браззерсы и прочие платные вещи позволяют тебе скачивать ролики в которых очевидно никакой разметки нет
>все кто смотрел больше 10 роликов знает что вся порнуха всегда идет по одинаковому секвенсу и любой просто знает на сколько примерно мотать, тем более на ролике есть превью при наведении на бар.
Так я не говорил, что по-другому нельзя сделать. Только так удобнее, с этим даже не поспоришь.
>Тем более ты как бы смотря видео на порнхабе ничего не привносишь кроме нагрузки на их серваки
Ну так это делают сами те, кто заливает порно в основном, а не порнхаб. Вот как раз им и капает от порнхаба от просмотров. Они и таймкоды поставят, и оформление канала сделают, и в друзьяшки добавят, только вы дрочите на их канале.
- Обсуждали исходники
- Делились своими проектами (хотя бы тот анимешный раздеватор)
- Спрашивали совета по коду и библиотекам
Теперь тут:
- Ыааааа, трясуны))00
- ЭСы, ЭСы, ЭС)0000
- Другая пориджевая срань на уровне вечных врагов: симпл-димпла и попыта
Заплачь.
>которые не работают.
Работают, отвечаю. Под мои задачи уже кое-что есть. Не хватает самой малости: мощности на стороне железа, оптимизации на стороне трансформеров, новых революционных мл архитектур.
Какие задачи нужно решить для качественного рывка в style transfer? Чтобы вместо наркоманской хуйни или фильтра был настоящий рисунок. Берешь любую фотку человека в полный рост, эротическую либо обычную, и алгоритм захуяривает по нему стильный виабу манга рисунок как на pixiv /artstation. Как поиск соответствия в latent space, но еще круче. Т.е. буквально такой же персонаж как на фото, но именно с полной азиатской стилизацией. Волосы, складки одежды, детали анатомии - все нарисованное как в манге, чуток гипертрофированное, со стилистическими приемами и с повышенной динамичностью.
Вот пример.
Представьте себе такое же, только повторяющее чей-то образ с input фотографии. + остальное тело со стилизацией (талия нарочито узкая, грудь и бедра нарочито пухлые) и одежда с искусно расположенными складками
Проблема в том что условно тела у всех хентайных девочек у конкретного автора одинаковые, он рисует свою анатомию и свои фишки, так что превратить реальное тело в тело из хентая определенного автора нереально из-за того что все хентайные тела это еще более крутая версия лучших на туловище порношлюх. Так что твоя горбатая Наташуля с висячими сиськами либо получит дефолтное порно-тело, либо это будет работать совсем не как ты хочешь.
Примерно это же с лицами, идеальные овалы лица, большие глаза, модельный маленький нос слегка уточкой, пухлые губы на маленьком рту, отличается только цвет глаз, цвет губ, цвет волос и прическа.
В твоем случае будет логичнее сделать описыватель внешности, который толкает описание генератору персонажа, который получает вектор типа [blond, blue_eyes, forelock, pale, petite] и так далее, и из него генерирует персонажа(что уже вроде существует)
Для начала нужен датасет с фоткой человека и его идеальным портретом в нужном стиле, при чем таких пар нужно как минимум 100к самый минимум, на деле нужно в разы больше, все они должны быть нарисованы в одном стиле желательно одним человеком. Пока нет этого, полноценный style transfer не сделать.
Но есть одно но, наверняка ты мог видеть где по арту делают нейронкой реалистичное лицо а потом проходят фотошопом и все заебись. Так вот, это вполне можно использовать при условии одинакового ракурса. Но опять же, вилка для чистки понадобится огромная.
>он рисует свою анатомию и свои фишки
Есть и некий усредненный стиль - как в hgame CG рисунках.
А зачем тебе усредненный стиль? Что если мне нравится bosshi-стиль с жирком и круглыми лицами, а другому Murakami, и вообще их дофигища и всем не угодишь, увеличишь свои сеты в 10 раз?
>>59180
Удачи посчитать это, маня.
>>59150
Ну хули ты: оцениваешь плотность, плотность это скаляр. Строишь ее гистограмму и видешь свои КЛАСТЕРЫ. Нарезаешь по ренжам.
Как оценивать плотность не спрашивай, не скажу так сходу работает ли KDE в многомерщине, но задача платиновая и наверняка придумали чего-нибудь.
Строишь готовой библиотекой диаграмму Вороного (Voronoi diagram), делишь кластеры по площади или там длине периметра.
мимокрестовик
Paint Tool Sai в зубы и переделывай выдачу. Там просто трейс надо будет сделать, что-то добавив от себя - где-то увеличить деталь, где-то поменять цвета.
спасибо большое!
Паперы гавно ;) Портфель в школу уже собран.
А вот из прошлой шапки:
>Почему python?
>Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python
>Можно не python?
>Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет
Смотрел интервью с техдиректором по машобу в Яндексе, он говорил, что специалисту по ML питон - мастхев, но нужны еще плюсы или джава для хайперформанса и внедрения технологий. В ШАДе, вроде, плюсы читают, и считают это довольно важным. В МФТИ по ИИ читают джаву. А у вас только питон, и все.
Слайм и попыт. Портфель собран, нахуй ваш машоб никому не уперся.
>Раньше здесь:
Манямечтали как вкотятся 300К\сек мошынным учоным, вот увидити
>Теперь тут:
Наконец поняли, что хайп DS/ML прошёл и пузырь лопнул
Чего ты спросить то хочешь?
Ты не можешь начиная изучать машоб резко обнаружить у себя в башке понимание что конкретно из языков и инструментов нужно для высокотолстых распределенных биг дата пайплайнов, внезапно там вспомнят и про апач бим и про спарк, и надо ОКАЗЫВАЕТСЯ быть и дата-инженером и дата-саентистом, а дата саентист это не только мл-специалист, а еще и аналитик, и учоный, и мл-опс, и в свободное время драйвера для карточек АМД разрабатывает чтобы когда-нибудь запустить на них что-то вроде Куды, и что он там еще? Ах да, сосет хорошо.
Если тебя беспокоит что ты учишь не то, то нет, ты учишь то. Если ты хочешь типа узнать полный список того говна что лысеющий питух выучил за 20 лет дрочки на галерах, то спрашивай у него, надо ли тебе это вообще - никто не знает, может и не надо, может и заставят учить какую-то редкую технологию написанную на брейнфаке, это россия
Короче говоря, смогу ли я прогать интересные вещи, будучи дантистом, или 90% работы будет заключаться в аналитике?
нормально напиши, спрашивать не будут. ебаные твои ребусы гадать никому не хочется
>вручную размеченный датасет на дохуя терабайт.
То есть например тэги? Я могу зайти на колаб вбить в нотебоок после сетапа "interracial gangbang blonde teen deepthroat" и сгенерится видос, по образцу всех задействованных в обучении, у которых были такие теги? Типа от каждого образца по чуть чуть деталей, что-то из них смешается, и будет типа новый видос. Из одного видоса возьмет черномазых мудил, из другого спальню и кровать, из третьего и четвертого скомбинирует внешку двух актрис блондинок в одну, из пятого и шестого надергает поз, из седьмого звуки стонов. Или не?
>из ганов вменяемого text to video не выбьешь
Тащемта была генерация роликов
https://paperswithcode.com/method/dvd-gan
Но не получило распространения. Слишком короткий отрезок и без звука, нужно же 10 минут видео хотя бы. и с согласованными между собой сценами. Майкрософту нет доверия, пусть нвидия этим займется или стартаперы какие.
В смысле пришлось писать код, он разве туда не тимлидом поехал? Он че реально как макака ебаная код пишет там, когда в РФ отдыхал на полуменеджерских позициях?
В х5 он был сео-2, а фейсбуке L6-тимлидом, это большая разница.
Примерно так и есть, но комбинация будет не точечной а глобальной, никто не гарантирует что это не будет гей порно с неграми блондинами, смещение классов все дела. В этом и минус ганов, если у него и будет в пространстве идеальное видео, шанс до него дойти довольно мал если не подрубать модель типа clip.
>>59604
А так это займет дохуя времени, вон одна картинка генерируется с того же vqgan + clip по несколько часов. А в видео по меньшей мере 24*длинна видео кадров, то есть 240 кадров на 10 секунд. Тут колаба уже не хватит с его анальными лимитами и придется делать локально.
>>59721
>если не подрубать модель типа clip.
>2к21
>полагаться на чистый рандом
>не делать text guide и supervise
GPU норм, но нужно дохуя гигов памяти.
TPU иногда ок, хотя не всегда поддерживается.
А кагда QPU? Природа дала вам квантовую запутанность, бля, чтоб вы с кубитами имитировали работу человеческого мозга.
> кагда QPU?
Притащи ко мне домой комплюкатор недетерминированный хотя бы на 200 кубитов, и мы с тобой поговорим предметно
> Computer Science
Я с утра перечитал и понял о чем речь. Просто в тред не стал писать. Не знаю, я этим словосочетанием не пользуюсь в русскоязычном сегменте интернета. Обычно мы, русские, используем слово КИБЕРНЕТИКА
Я тебя вообще не понял, у тебя каша в голове какая-то совершенно, ты скорее всего не понимаешь вообще что под тремя сущностями что ты обозначил подразумевается
Нужен ли CS в машобе/дата-инжениринге/мл-опсе? Да ебать, ты на питоне пишешь код, ты взаимодействуешь с хранилищами, с облаками, создаешь структуры данных в разных форматах, устанавливаешь много взаимодействующих пакетов в различные окружения, проверяешь работает ли твое железо при работе с алгоритмами правильно и полностью. Что ты там подразумеваешь под ЦС я просто не знаю, но если ты спрашиваешь может ли бабка-математик с трудом включающая пеку быть ДС - нет, скорее всего не сможет.
Что ты там про аналитику имел в виду я вообще не понял, как аналитика связана с машобом вообще? Может ты имел в виду доменные знания?
Последнее - если ты аналитик и хочешь расширить свой арсенал автоматическими аб-тестами, или подгрузкой даты через спарк, более гибкой визуализацией питоновскими либами, то да, это хорошая инициатива, если ты видишь в этом профиты то подучи немного. Если тебе в табло грузить графики говна от мочи и тесты из экселя - нахуй тебе ничего из дс и не нужно, не забивай голову
Сынок, ты чего-то не понял. Там тебе серьезный дядечка из Яндекса что-то наговорил, человек с многолетним опытом работы, на серьезной должности. У нас тут тоже люди с многолетним опытом, только опытом поедания мамкиного борща. Наши профессионалы берут смузи и спиннер, открывают пир-ревьюид джоурналс с биг импакт-фактором, начинают читать сирьес паперы. Там обычно людям срать на перформанс. Ну вот и наши борщехлебы решили, что срать им на все, кроме питона, что используется в паперах. Они будут серьезными учеными, делающими науку в частных компаниях за миллионы баксов, а не какими-то макаками ебаными, которым еще какое-то говно внедрять, трясясь о перформансе. От так нахуй, понял? Смотри, ты там одного уже проткнул, он аж завизжал о биг датах. Не надо наших профессионалов тут обижать, блядь.
У обычных ганов с генерацией картинок есть словарь с вроде как 1к классов. При генерации генерируется либо на рандом либо на рандом в рамках класса с учетом сида.
Вопрос в том, будут ли применяться в DS знания алгоритмов и структур данных, архитектуры ЭВМ, компьютерных сетей и протоколов, машграфа, низкоуровневого программирования, функционального программирования? Я понял лишь, что там полезны знания БД и распределённых вычислений. Просто челы которые срут в этом треде про то, что датасаентисты - это вообще не про программирование, немного посеяли сомнения, вот я и спрашиваю, может я чего-то не понимаю и DS это на самом деле скорее про бизнес-аналитику, а не про IT?
>Вопрос в том, будут ли применяться в DS ...
Нет, за редкими исключениями.
>DS это на самом деле скорее про бизнес-аналитику, а не про IT?
DS, дата аналитикс и т. д. - это и есть аналитика, блять.
Сейчас тебе борщехлеб будет пояснять простыней, что он ML-инженер в Гугле, и ему там очень многое из CS нужно. Но в реальности, если этот уникум пойдет на работу, его судьба - это простая аналитика с небольшыми перерывами на готовые баззворд-игрушки типо машоба и нейроночек, это и твоя судьба, если ты сюда сунешься. Усе.
А что, в ML-инжинеринг нереально вкатиться? По-моему это именно то, где можно связать CS и DS
Ожидается ли в ближайшем будущем что-то интересное в мл?
т. мимокрок
Охуенные достижения
Ожидаются
Иди в тред жабаскриптеров и спроси там про достижения во фронт-энде или будет ли в будущем еще один новый фреймворк, сраный любитель популярной фантастики
За этот год:
- Генерация картинок по описанию вышла на новый уровень благодаря clip от openai
- Множество компаний обучают модели на миллиарды параметров, к концу года некоторые будут готовы но в открытый доступ хуй попадут
- Была создана значительно более быстрая версия дипфейка, simswap
- Был обучен gpt-j на 6В параметров и выложен в открытый доступ
- Были анонсированы два инструмента для автодополнения кода на основе нейронок
- Несколько исследовательских групп отчитались о создании нейронок на основе работы мозга которые превосходят обычные, но подробностей нет
- Было выяснено что ЭС шизик еще и ЖС шизик
Возможно, что то пропустил, писал первое что вспомнилось.
А из того что будет - будет дохуя. Трансоформеры открывают все новые возможности, наконец то начали комбинировать нейронки (vqgan + clip например), да и в целом размеры моделей стали рости экспоненциально >>58163.
Задача одна - больше памяти б-гу памяти. Ну и желательно вычислительную мощьность суперкомпа решаемо если делать так >>53836.
Ну и нужно дообучить clip на более подробное описание картинок с твоего пикрила, скромить ему дохуя картинок чтобы он их подписал, и уже подписанные картинки скормить трансформерному dall-e увеличив число параметров до дохуялиона.
Одобряю, но я юзер дрисни и с бичевской видяшкой. Лучше форсить на аудиторию типа хабровской. В принципе можно коллективно юзать colab и kaggle, каждый со своего аккаунта. Для начала, кто возьмется пилить фреймворк?
иди жамкай попыт, дошкольник
>пок-пок-пок перформанс кудах-тах-тах
Скачай на досуге какую-нибудь питоновскую машоб либу и посмотри, как она устроена.
При чем здесь Яндекс и "не может пургу нести"? Просто там техдиректор, специалист, опыт работы, а тут буковки на двачах выдают >пук все нитак, без каких-либо аргументов. Ну ок, че.
748x960, 0:06
Не для медицинских целей, нет. И не для состава белка, кому он нахуй дался. И даже не для розыска компартией Китая беглых уйгуров, хотя такой вариант неплохой.
Машоб предназначен вот для этого.
https://colab.research.google.com/github/ai-coodinator/3D-Photo-Inpainting/blob/master/3D_Photo_Inpainting.ipynb#scrollTo=i5-MWEjfBjYx
Охуенно же? Теперь осталась самая малость, модифицировать алгоритм трансформерами: чтобы не только камера двигалась, но и девчонка пританцовывала, хлопала в ладоши, затем вообще стянула с себя купальник и мяла руками сиськи, не переставая улыбаться при этом. Чтобы вертелась на месте, повернулась ко мне спиной и вертела голым задом, теребила пальцами анус и писю, лол, чтобы присела на корточки и пописала на песок. Да, анон! Всё это - из ввода одной статичной фотки. Я джвадцать лет хочу такую технологию.
Устаревшая штука же. Сейчас самая пиздатая для image to 3d это nex https://nex-mpi.github.io/
Но это все - абсолютно другое, для того что хочешь ты это лишь костыль. Сначала нужно научить те же трансформеры двигать 3д сцену по описанию, а это уже на порядок сложнее чем то что они могут сейчас.
К слову, gpt тут никакого отношения не имеет, да и параметров у этой модели кот наплакал.
638x960, 0:06
>параметров у этой модели кот наплакал.
Ну значит можно сделать еще круче, если кто-нибудь займется разработкой.
Еще одна объемная картинка - в нижнем белье и чулках на кровати. Прекрасно! Я б еще через clip-based систему по приколу сделал так, чтоб она насрала на кровать, потом ела свою какаху давясь и рыдая. Правда тут волосы странно получились - будто они нарисованные. Но все равно круто, ведь эта хрень основано на сгенерированной 3д модели. Думаю что именно в этом направлении и следует развивать t2i и t2v - не просто растровый синтез, а помогать формировать изображение 3д-модельками, чтобы делать там реалистичных людей и анимацию для них.
ебать ты поехавший
Ты немного не так понял, ту старую не улучшить количеством параметров, а новая по сути их даже не имеет, в результате обучается модель в виде 3д сцены.
И опять же, clip тут ничего не сделает, он используется в роли гида (функции потерь) по латентным координатам другой нейронки по которой движется оптимизатор. Это касается лишь одной картинки и на видео это никак не распостронить, в идеале при применении фразы "тян садится" ко всем кадрам в видео, на всех кадрах будет тян в позе полуприседа, при чем все кадры будут одинаковы.
Так что тут не одно направление, а два если не три, при чем они не связаны напрямую. В одном нужно делать картинку по описанию, в другом делать из этого 3д сцену, и в третьем эту 3д сцену двигать. При чем эти направления можно объединять (делать 3д сцену по тексту), но это крайне ресурсоемко.
Перешел по ссылке, а там сразу:
>CVPR 2021 (Oral)
Ебаааать, я конечно уже знаю для чего многие станут применять подобные технологии синтеза и обработки пикч, но чтобы почти в первом предложении обещать объемные изображения сцен орала??? Тогда почему именно орал, а не анал?
Кроме шуток, примеры на той странице выглядят потрясающе
У меня еще есть особенность, на мелких превьюшках разных пикч иногда сначала кажется что там хуй, или пизда, или что там силуэт где ебут кого-то, хотя другим там ничего не мерещится.
Кстати это в случае искуственных нейронок называется переобучение. А в случае кожанных мешков это называется шиза. Я ни на что не намекаю, но тебе нужно подержать нофапон либо пойти к санитарам и попросить таблеток.
> на мелких превьюшках разных пикч иногда сначала кажется что там хуй, или пизда
С этого момента поподробнее
Двачую, торчащая залупа как есть.
>Кто нибудь использовал машоб для трейдинга?
с какими проблемами столкнулись те, кто пытался таким образом исопользовать машоб?
Где то была статья на хабре. Можешь погуглить.
Еще на картинке с упоротым лисом постоянно кажется что он не просто так сидит, а мастурбирует.
> Китайская Удао уделывает всех!!!
Уже нет. Wudao2 - 1.75T, GPT-4 - 100T. Винни-Пух сосёт, официально.
Ну ладно, а для чего этот гпт4 может быть использован? Я не говорю даже про видео прон, - хотя б изображение человека в text-to-image системе сможет сделать, чтобы фигура была правильно построена? Говно без задач скорее всего
>>59884
"Дата саентист" это сейчас скорее аналитик, занимается исследованиями общего характера с конкретной бизнес целью, много смотрит глазами в данные, строит графички и дэшборды, если требуется обучает простые регрессии и катбусты, заводит AB эксперименты и следит за ними опять же глазами.
"ML инженер" тот кто тренирует модели на конкретную задачу когда есть данные и инфраструктура, там и алгоритмы (из простых типа, в мапку что-то засунуть, закешировать итд) часто бывают полезны, и не только в гугле.
Развели тут плач, школьники.
Начинали играть друг против друга
Правильно ли я понимаю, что у местных долбоебов хватает мозгов только на то, чтобы обсуждать рисованную порнуху?
Секс это селектор технологий.
Секс это настолько увлекательное занятие, что люди готовы не только смотреть как другие им занимаються, но и просто обсуждать его.
Даже медведи мастурбируют, глядя на других медведей.
Пчел, сейчас идёт асексуальная революция и всем гораздо приятнее смотреть на график биткойна.
О том я и сказал, долбоеб, хуй знает, откуда ты высрал "только в гугле". Жаль, что никто из треда не станет никаким МЛ-инженером, а все будут обычными макаками-аналитиками.
Борщехлеб, спок. Какие аналитики, ты чего? Кринж с тебя
Для почти любой НЛП-задачи. Если бюджет позволяет. Но понятное дело, что все эти терабайтные модели нужны как proof-of-concept чтобы доказать, что такие огромные модели вообще можно обучать и то что stack more layers в каком-то смысле работает. Ну и чтобы повыебываться мощностями.
А на практике gpt-2 для тех же задач работать нормально будет, да.
> stack more layers в каком-то смысле работает.
На самом деле, трансформеры это первая архитектура, для которой stack more layers это не смехуечек, а реальный режим работы, без костылей и каких-либо видимых ограничений, стакать можно столько, на сколько хватит бабла, при этом результат будет только улучшаться, плюс у таких структур появляются новые свойства, как в случае гпт (unsupervised multitask learning, few-shot learning итд). Именно трансформеры непосредственно иллюстрируют правоту Саттона, как бы тут не смеялись над горькими петухами, а факты есть факты, против них не попрешь.
Так оно не на русском. Англопидарахи не знают, что есть флективные языки со свободным порядком слов где их шарманское говно даже близко не работает.
там разбираются особенности разных языковых групп, в т.ч. славянских языков, хотя и приоритет на английском, да
Чет я пролистал все эти лекции и после этого НЛП с его проблемами типа разных языков и их структур, проблем с обработкой русского языка того же(spacy глючная, наташа это пиздец), все эти эмбеддинги, автоэнкодеры, десятки способов превращения теста в цифры и все говно, все это нлп выглядит как хуйня против CV. Хз зачем всю эту муть дрючить и обосраться когда твоя ГПТ-666 посоветует суициднику не быть сукой и доделать дело, если можно определять что за животное на пикрелейтед
>НЛП с его проблемами типа разных языков
НЛП интересная тема, но просто им занимаются трясуны со всеми вытекающими проблемами. А технологии на данный момент примитивные, да.
>хуйня против CV
Компутервижен? На само деле разницы никакой нет, что текст, что изображения должны приводится в некую форму которая потом обрабатывается, фактически от каких органов/устройств поступают данные не имеет значения. Семантику текста технически легче обрабатывать, чем семантику изображений.
Спасибо, ознакомлюсь.
>>60852
Лично я хочу это изучить, чтобы можно было внедрить всякие полезные приложения у себя на текущей работе, например проверка сообщений сотрудников на предмет утечек данных, бот-помощник для саппорта, который бы подготавливал детальную информацию прежде чем связать с кожаным мешком и т.п.. Если получится, получу релевантный опыт работы на С++, который у нас не практикуют, почет и уважение от кабана, а так же возможность все это поддерживать и развивать в дальнейшем, обеспечивая себе хлеб.
Начать следует с того, что 2д растр сосёт, ввиду недостаточной полноты данных при обучении на растре. Это тупо двухмерные данные - с двумя осями X и Y. Ведь даже художники обучаются по натуре перед ними, и во всех самоучителях советуют избегать срисовывания с фоток - именно потому что на них плоские пятна, которые не научат понимать объем.
Генеративная сеть будет хорошо генерировать фото/рисунки/живопись/видео в том случае, если она использует систему наподобие CLIP, натренированную на 3д-объектах. Например чтобы для слова "кувшин" была ассоциация с выученными 3д-моделями кувшинов, а не с их растровыми формами. Профит очевиден - с CLIP-like системой можно будет на лету сгенерировать 3д модель даже из одной-единственной 2д пикчи. Также ML-модель должна уметь в физику моделей и в позы, и вообще знать анатомию для генерации картинок людей и персонажей. Лучше даже использовать гибридный подход, когда делается упрощенная лоуполи 3д-сцена в которой передана суть сценки, есть все нужные позы и действия, анимация если надо. А затем эта 3д болванка обмазывается деталями уже на уровне растра, до тех пор, пока не будет достигнут требуемый уровень реалистичности или стилизации. Ну всмысле как в той хрени для майнкрафта, где воксельный мир в реальном времени превращается в фотореалистичную картинку.
Меня, правда, интересует еще такой вопрос: сколько будет стоить вся эта работа для тех, кто станет ее реализовывать. И каков будет прайс для обычных пользователей, если вообще до них что-то дойдет. В теории эту работу могла бы проделать лаборатория NVIDIA, которая уже отметилась в смелых экспериментах. Но тренировка моделей на охулиарды параметров и стакание слоёв, чтобы запилить новый 3д clip... это ж надо сотни часов гонять суперкомпьютеры Пентагона с жидкостной системой охлаждения. Интересно и то, как они будут отбивать эти затраты. Мне реально очень хочется попробовать новый уровень развития в text-to-image, поиграться с "машинным зрением", но совсем не хочется платить за кредиты в чьей-то коммерческой системе типа NightCafe и Artbreeder. Уже и не говорю про цензуру - хуй с ними, с лолями, дай Б-г чтобы вообще оставили адалт. А жиды из гугла, они же, суки, уже поотрубали бесплатным пользователям все карты кроме самого ширпотреба. Даже если я как пользователь буду использовать готовую систему и готовую модель, все равно там GPU колаба не потянет "generate" скрипт. Или в лучшем случае будет рендерить одну картинку 10 часов, хотя скорее будет просто CUDA out of memory.
Начать следует с того, что 2д растр сосёт, ввиду недостаточной полноты данных при обучении на растре. Это тупо двухмерные данные - с двумя осями X и Y. Ведь даже художники обучаются по натуре перед ними, и во всех самоучителях советуют избегать срисовывания с фоток - именно потому что на них плоские пятна, которые не научат понимать объем.
Генеративная сеть будет хорошо генерировать фото/рисунки/живопись/видео в том случае, если она использует систему наподобие CLIP, натренированную на 3д-объектах. Например чтобы для слова "кувшин" была ассоциация с выученными 3д-моделями кувшинов, а не с их растровыми формами. Профит очевиден - с CLIP-like системой можно будет на лету сгенерировать 3д модель даже из одной-единственной 2д пикчи. Также ML-модель должна уметь в физику моделей и в позы, и вообще знать анатомию для генерации картинок людей и персонажей. Лучше даже использовать гибридный подход, когда делается упрощенная лоуполи 3д-сцена в которой передана суть сценки, есть все нужные позы и действия, анимация если надо. А затем эта 3д болванка обмазывается деталями уже на уровне растра, до тех пор, пока не будет достигнут требуемый уровень реалистичности или стилизации. Ну всмысле как в той хрени для майнкрафта, где воксельный мир в реальном времени превращается в фотореалистичную картинку.
Меня, правда, интересует еще такой вопрос: сколько будет стоить вся эта работа для тех, кто станет ее реализовывать. И каков будет прайс для обычных пользователей, если вообще до них что-то дойдет. В теории эту работу могла бы проделать лаборатория NVIDIA, которая уже отметилась в смелых экспериментах. Но тренировка моделей на охулиарды параметров и стакание слоёв, чтобы запилить новый 3д clip... это ж надо сотни часов гонять суперкомпьютеры Пентагона с жидкостной системой охлаждения. Интересно и то, как они будут отбивать эти затраты. Мне реально очень хочется попробовать новый уровень развития в text-to-image, поиграться с "машинным зрением", но совсем не хочется платить за кредиты в чьей-то коммерческой системе типа NightCafe и Artbreeder. Уже и не говорю про цензуру - хуй с ними, с лолями, дай Б-г чтобы вообще оставили адалт. А жиды из гугла, они же, суки, уже поотрубали бесплатным пользователям все карты кроме самого ширпотреба. Даже если я как пользователь буду использовать готовую систему и готовую модель, все равно там GPU колаба не потянет "generate" скрипт. Или в лучшем случае будет рендерить одну картинку 10 часов, хотя скорее будет просто CUDA out of memory.
>должна уметь в физику моделей и в позы, и вообще знать анатомию для генерации картинок людей и персонажей
Анриал
>кто станет ее реализовыват
Никто
Ты там пиваса обьебался? Спустись на землю, все твои хотелки из мира фантазий.
Ты какой-то упоротый и не первый раз пишешь в этот тред. Нахуя тебе text to image, что, более простых задач нет?
Ты ебанутый. Хотя бы посмотрел не на техстек Яндекса (кстати, у Яндекса там своя ML-либа, могут себе позволить), а на весь остальной мир. Ой, как же они живут, ебаша tenzorflow в прод на Питоне?
Ладно. Как, по твоему, сделать систему для генерации любых пикч, типа вот этой с девкой в бутыли? Я пробовал Clip+VqGan и знаю, что она в 99% случаев делает хуйню, хотя и очень пытается. Вторая пикча - моя попытка сделать суккуба.
Если для тебя эта задача не достаточно простая, то что ты скажешь о задаче сделать state of art генератор полнометражных CG фильмов любых жанров?
Это норм, кстати. Пориджи не помнят, но где-то в нулевых годах новостной трафик превысил трафик порнухи и это было целое событие в интернете.
Именно поэтому я очень понимаю авторов novelai и авторов aidungeon. Авторы aidungeon зассали, а авторы novelai так и сказали, пишите что угодно (подразумевая, что "что угодно" означает текстовую порнуху с несовершеннолетними, которая у AIGD запрещена).
В итоге мы начнём с мощного драйвера текстовой ебли виртуальных несовершеннолетних девочек, а закончим реальными коммерческими применениями генеративных сетей. И открытые novelai тут будут однозначно первыми.
Да для тебя и собака ебабельно.
>В итоге мы начнём с мощного драйвера текстовой ебли виртуальных несовершеннолетних девочек
А на большее фантазии у тебя не хватает? Как на счет трансляции в мозг с прямым замещением органов чувств, ну как в матрице? Думаю тебя на герыч посадить тебе больше никакой реальности не нужно будет.
Ты очень торопишься, всему своё время.
Можно напрямую генерировать острый положительный сигнал, как педалька у подопытной крысы которая вскоре сдохла. Я бы не стал бы делать себе такое и героин бы не стал пробовать. Но и не против того чтобы всем гедонистам неограниченно предлагалась такая возможность, кек. Как и не против легалайза для желающих.
>Можно напрямую генерировать острый положительный сигнал
Нет ни каких сигналов. Все твои органы увств на изичах заменяются и мозг к ним на изичах адаптируется. Не важно от куда поступает информация.
>>60977
Нет, ты такой же еблан, как ЭС петух. Может быть, ещё и калмунист тоже? Нет смысла делать тред машоба без шапки про машоб, какая-то неведомая хуйня если взлетит, то и хорошо, пока что этого нет, а твой пиар параши выглядит абсолютно так же как попытки вышеупомянутого сасихуя.
Давайте sketch+text to video with sound
Это копия, сохраненная 14 января 2022 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.