Вы видите копию треда, сохраненную 16 мая 2022 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Курс GML-бойца: https://www.youtube.com/watch?v=JAB_plj2rbA&list=PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn (не пугайтесь его английского, чувак из Словении, а сейчас он профессор в Стэнфорде, очередное доказательство, что не важно, насколько хорошо вы говорите, важно, что вы делаете).
Aphla Fold: https://deepmind.com/blog/article/AlphaFold-Using-AI-for-scientific-discovery И ведь это был GML.
Data science (общий): https://t.me/opendatascience
GML: https://t.me/graphML
Железо: https://t.me/pdp11ml
Предыдущий >>2143396 (OP)
Провёл ОПу вялым по губам.
Э... я бы принял, но как твой вялый к моим исследованиям вообще относится? Может сразу к собакам со своим вялым, собаки любят вялые.
> моя попытка сделать суккуба
ААААА блядь! Гигер изнасиловал Кроненберга! Мне эта хуйня теперь будет сниться по ночам
Там должна была быть девочка с кожистыми крыльями и рогами. Тогда давай сам и пили норм систему, умник.
Нихуя у этого чувака из Словении там сантиметров Хирша! Охуеть... А с виду обычный паренек с ломаным потешным английским.. А там - ого-го нахуй!
Боевые картиночки всё, порридж?
>Aphla Fold
А существуют ли вообще доказательства, что Alpha Fold воссоздала структуру реальных белков?
Существуют ли быстрые лабораторные методы проверки вероятной структуры на подлинность?
>очередное доказательство, что не важно, насколько хорошо вы говорите, важно, что вы делаете
Но если вы чёрная лесбиянка мусульманка, то не важно даже то, что вы делаете.
у тебя 5 рук?
> А существуют ли вообще доказательства, что Alpha Fold воссоздала структуру реальных белков?
Да, все в гугле легко находится. На международном соревновании где была структура нового белка которую нигде не публиковали нейронка воссоздала ее максимально точно.
> Существуют ли быстрые лабораторные методы проверки вероятной структуры на подлинность?
Нет, таких методов нет и в ближайшее время не предвидится, иначе смысла бы в этих соревнованиях и самом alpha fold бы не было. Но есть крайне дорогие и долгие методы, и пока не было ни одного расхождения между предсказанной и реальной структурой.
Потом понял что лучше пойти потеребить своего порнослоника. (такой слоник у которого "уши" это растянутая мошонка, а "хобот" реагирует только на порно и больше ни на что другое). Потеребил. Да нахуй вообще нужен ваш мл. Харэ страдать хуйней, аноны, тред можно закрывать.
>ломаным потешным английским
Он, кстати, нормально говорит. В плане построения предложений, словарного запаса, грамотности. Я бы даже сказал, что он гораздо лучше меня знает английский хотя даже залупа коня Будулая лучше меня знает английский. Хоть иногда и строит предложения в стиле Simple English, но зато всегда грамотно.
Его произношение - это лол, конечно. Я раньше думал, что так только в клюквенных голивудских фильмах про СССР бывает. И ведь он постоянно общается с англоязычными, очевидно видит, что они не так говорят.
Короче, хуй знает, почему у него такой акцент. Но быстро привыкаешь, на самом деле, через некоторое время вообще перестаёшь замечать.
>>161437
Так, братишка, кидай ссылки на свои пейперы. Мы тебя бесплатно попиарим, исправим эту несправедливость, чего ты стесняешься?
Пишу папер на алгоритм по добавлению хуёв голым бабам. Всовываешь туда фотку, он делает трапа. Пишу с хуем в руке, одной рукой текст набираю а другой подрачиваю? Китайцы тоже задают жару в машин лернинге, ух
>А существуют ли вообще доказательства, что Alpha Fold воссоздала структуру реальных белков?
Вопрос немножко некорректно задан. Ты же должен понимать, как устроено машинное обучение. Есть обучающая выборка (в которой реальные и уже открытые белки), есть контрольная выборка (в которой тоже реальные и уже открытые белки).
Если модель, обученная на обучающей выборке, предсказывает результаты контрольной выборки, которая в процессе обучения не использовалась, значит модель не плоха, в чём проблема?
Я даже больше скажу. Даже очень хуёвая модель может воссоздавать структуру реальных белков, если они были в обучающих выборках, она тупо может их "запомнить". Т.е. формально она уже пройдёт твоё требование "воссоздания реальной структуры". Фишка в том, что к рабочим моделям гораздо жестче требования, чем ты только что написал. Они должны корректно предсказывать даже те варианты, которых не было в обучающих выборках.
Или твой вопрос в том, открыла ли AlphaFold фолдинг новых белков, который был не известен до неё? Таких данных у меня нет. Это надо проверять in vitro, это дохуя дорого. Спроси у >>161591, может он подгонит ссылки.
Ну или у тебя совсем тонкий вопрос. Допустим, AlphaFold успешно научилась фолдингу некоторых известных классов белков. И успешно предсказывает фолдинг всех белков из этих классов, пусть даже еще не открытых. Существуют ли другие белки, которые фолдятся принципиально иначе и AlphaFold вообще не в состоянии что-то там предсказать? Ну, бро, это возможно... Но как ты вообще представляешь возможность проверки этого утверждения? Ну, может, умеет, а может вообще не умеет. Проверить это пока мы сами такие белки не открыли, вообще нет никакой возможности.
Я готов выслушать конструктивную критику.
Объясняю принцип своей шапки.
В ней ссылка всего на один (пусть даже довольно продолжительный) курс лекций по GML от весьма хорошего преподавателя. Причем, весьма современный курс от 2021, прочитанный в хорошем универе (Стендфорде). Тебе нужны ссылки на 100500 курсов? Когда анон будет всё это читать?
В его курсе по GML есть всё, включая классический ML. Есть ссылки на литературу, ваш божественный backpropagation он тоже рассматривает.
Там есть немного чисто про графы, включая PR и тому подобное. Ну, промотайте, курс. В целом, он про machine learning.
Я добавил ссылки на телеграмм-каналы про:
- ML-общий - там 45 тысяч подписчиков.
- GML для анимуёбов, там такое: https://people.csail.mit.edu/keyulux/pdf/thesis.pdf
- ML-железо.
Чего тебе не хватает, что бы ты хотел подкорректировать в рамках рассматриваемой темы?
Подскажите куда залить pdf чтоб сразу не пидорнули, мне чисто чтоб расшарить.
Я на хую вертел твой гмл, даун. Вечно обмажутся графами и в жепы ябутся
>Так, братишка, кидай ссылки на свои пейперы. Мы тебя бесплатно попиарим, исправим эту несправедливость, чего ты стесняешься?
Пососи бибу, Хиршепетушок.
http://www.math.nsc.ru/LBRT/g2/english/ssk/presse.html
Вот тебе для ознакомления одна из многих критик ебучей наукометрии.
У самого Гёделя Хирш ниже, чем у современных ноунейм петушков.
Ах да, тут же написано по-русски, конечно, значит, это долбоёбы всё написали, не верь им, Хиршепетушок.
Просто эс шиза пидорнули с работы жс макакена и перевели в це европейскую лахту ограничивать развитие искусственного интеллекта, впрочем ничего нового.
С чего ты взял что нейронки имеют хоть какое то отношение к либерастам или гомунистам? Совсем долбаеб? Технология нейтральна и ее могут использовать и те и те если им религия позволит, конечно же.
наверное, потому что любой человек с айсикью выше 70 или либерал, или умеренно-левый, а чтоб МЛем заниматься хотя бы двухзначный айсикью нужон
А любой человек с айкью выше 130 сможет понять, что ублюдки леваки уничтожают Европейскую цивилизацию и будет поддерживать правых.
>>161794
>а чтоб МЛем заниматься хотя бы трехзначный айсикью нужон
Учитывая процент невоспроизводимых работ по МЛ, который давно уже переплюнул этот же процент даже в психологии, это очень сомнительное утверждение.
Что неудивительно, учитывая такой гиперхайп вокруг нейроёбства, что каждый долбоеб с тремя классами образования считает своим долгом стать МЛщиком.
Имхо, скоро «МЛщик» уже станет оскорблением.
> ублюдки леваки уничтожают Европейскую цивилизацию и будет поддерживать правых.
Этот ваш ЭС петух помимо всего прочего, ещё и плюмодебил и зигамет? Хоспаде, повидал я ебланов, но чтобы настолько... Барнаул, маня, алтайский край!
Нет уж, блевачок ты наш, я не ЭС шизик.
Иди прицел настрой получше и прими в жопу мигрантский хуй, потом отдай ему на проёб свою бабу и попроси, чтоб долго тебя не мучал, когда будет тебе горло перерезать.
> Учитывая процент невоспроизводимых работ по МЛ
0%?
>>161824
Семен, ты хоть пытайся в мимикрию, ну глупые ошибки ведь в шизоидности текстов.
А леваки действительно плохо, впрочем как и праваки, однако леваки орудуют постмодерном и методами модерна можно только пердеть а лужу на радость сжв скаму, а для метамодерна действительно нужен трехзначный айкью.
мимо
>Семен, ты хоть пытайся в мимикрию, ну глупые ошибки ведь в шизоидности текстов.
Уровень интеллекта - блевачок.
Лично я - чад центрист. А пока из пруфов что ты другой шиз только то что ты шиз, что как пруф так себе.
Если ты правда считаешь что в гомунизме все было настолько хорошо что он развалился, а страна где его строили до сих пор расхлебывает дерьмо и менталитет говна, то даже продолжать диалог бессмысленно.
И да, левые помойки постепенно перенимают качества того самого гомунизма (власть как бы у людей, но на деле у некоторой группы людей и все мы знаем какой, у жидов, инакомыслие осуждается а рассовая толерантность бьет из всех щелей и так далее), хотя и сами по себе ни чем не лучше.
>GML - это круче, чем просто ML.
Двачую, я сам гуманитарий но мне тоже пришла такая мысль. Я пришел с выборов где отдал голос за Путина, потом устроился попой вверх, прислонившись к спинке дивана, мастурбировал в такой позе и кончил себе в рот. Прям метко выстрелил и попал в рот. Я наслаждался вкусом горьковатой вязкой кончи, потом проглотил ее, облизнулся и понял, что нет ничего лучше граф машин лернинга.
> Антикоммунист,
Да
> русофоб,
С хуя ли?
> нейропетух,
Пчел, у если у тебя нет нейронов в мозгах, то это уже крайне серьезный диагноз.
> ммм.
Правда вкусный хуй? Еще будешь?
> Наверное еще и в сказки про срыночек и коклетоглизм веришь?
Хуйня для даунов же, которую к слову ни в сторону коммигнили ни в сторону леводоунов не сделать без перегиба на 180°.
Что тебе даст прослушивание всех лекций? Нужна еще практика, где семинары, примеры кода? Теорию я и сам могу нагуглить.
>Лично я - чад центрист.
Ну так хуй-то мигрантский ты в жопу принял?
>А пока из пруфов что ты другой шиз только то что ты шиз, что как пруф так себе.
Лично мне похуй.
В том понимании коммунизма, которое сложил тот обсер в 20 веке, я антикоммунист. А то, что ты, надеюсь, имеешь ввиду, называется социализмом и путь к нему лежит точно не через коммунизм. И во первых я не против его в идеальной форме, во вторых даже он имеет недостатки, а в третьих на текущем технологическом развитии его не достигнуть. А, и да, на счету третьего, туда входит и отсутствие agi, который нейронки достигнут с большими шансами и с большей скоростью чем все что есть сейчас (включая эс).
>>161954 (Del)
Ладно, допустим теперь я верю что вы два разных шиза, хотя мимикрирование показной тупостью исключать все еще нельзя.
> Ну так хуй-то мигрантский ты в жопу принял?
Нет, я хоть и не нацист, но чурок, евреев и умеренно негров ненавижу осуждаю уже за то что они есть.
А че за фантазии о мигрантских хуях у тебя, раскрой тему.
А потом эта сверхдержава обмякла, просто от факта своей охуенности.
https://youtube.com/watch?v=jVbpAfoBwFI
Развитие систем Искусственного Интеллекта (ИИ) и работу следующего их поколения - Интеллектуальных Систем (ИС) невозможно осуществить без учёта возможности этих систем обеспечивать логически корректный диалог - как с человеком, так и другими ИС. Однако, здесь есть одно серьёзное ограничение: это может быть только диалог, основанный на строгих законах алгебры логики.
- Что мешает созданию полноценных диалоговых систем?
- Каким образом можно свести простые суждения и составленные из них силлогистические конструкции к стандартным конструкциям логических формул?
- Способна ли силлогистика оперировать вопросительными и/или восклицательными суждениями?...
Здесь - ответы на эти и некоторые другие вопросы.
https://cloud.mail.ru/public/ZuWw/gtapNZccA
>>162031
У кого есть акк на архиве, залейте плз (у меня не регается, т.к. заблочен айпишник)
Читаем, пориджи, читаем пока мамка спать не погнала.
>I propose
>I pertain
>I take up
Сразу видно пориджа, который понятия не имеет, как пишутся пейперы.
Ну так предложи свой исправленный вариант документа, дебил, мы тогда и добавим тебя в перечень авторов.
А ты дрочил, пока срал? Дверь кончой заляпал? А забрызгал анус водой от бултыха какахи?
Типикал ЭСошиза.
> Из аграрной романовской помойки в сверхдержаву.
Так и запишем, ебланил на уроках истории а после окончания школы не набрал проходной даже в подзалупную коллягу. Продолжай.
До обсера с малой победоносной просранной войной на которую ставил колька, во внешней политике ри была одной из главных политических сил, и осталась ею даже после него. Но по плану других политических сил, которые профинансировали ленина с бригадой гомунистов, шла по пизде внутренняя политика или даже вернее сказать авторитет императора. А до сверхдержавы гомунисты сначала все правление ленина собирали страну по кусочкам под автоматами после обсера с возможностью каждому субъекту выйти из состава страны, а при сталине до 60-х восстанавливались после демилитаризационной политики во время войны по соседству. Гомунисты очень умны, не правда ли?
> Вот это обсер, не то что пендохи там детей своих продавали и дохли с голоду в 30х при швятом срыночке.
Я же уже вроде написал что свободный рынок не работает, ровно как и полный контроль государства, когда палка колбасы и целлофановые пакеты с туалетной бумагой были в дефиците в то время когда во всем мире с этим все было в порядке. Поэтому и нужно сидеть на двух стульях не касаясь резиновых дылдаков в центре каждого.
Посоны, начинайте репортить все следующие посты
Ношу чулки и выгляжу сексуально, я всегда стремилась иметь хорошие и удобные ощущения для своего тела. Еще я ношу стринги, которые обычно не предназначены для использования в качестве нижнего белья. Я действительно уверена, что красиво в них выгляжу, так что буду ходить в них несколько недель, а то и несколько месяцев. Я покачиваю грудью и держу руки сложенными под ней. Я такая сексуальная, что мне не надо носить стринги, но они мне очень нравятся. Просто говорю о том, насколько сексуальной я себя чувствую в этих стрингах. Если они так сексуальны, то они просто необходимы! Я не говорю, что вы тоже должны носить стринги, но я говорю, что вы должны иметь их при себе на всякий случай. Я ношу чулки, и это заставляет меня чувствовать себя привлекательной, но не делает меня красивее. Я ношу чулки просто потому, потому что они дают мне больше уверенности и дают мне лучшее представление о том, кто я есть и как я выгляжу. Я знаю что я девочка, но я не стремлюсь к тому, чтобы как можно больше других женщин имели такую уверенность. Я просто не думаю, что буду носить что-то подобное, пока снова не почувствую себя более сексуально.
Такие дела, жду когда будет генератор на gpt-4
you will never see next Trump's tweet
- Чинг Чонг
- Сунь Хуй в Чай
- Вынь Су хим
- Ли Си Цын
- Сяо Ляо
- Мяо Пяо
и т.д.
Чем объяснить эту поебень?
желтоликий супер-айкью
Ну хотя бы не евреи
>учишь эту хуйню как осатанелый полгода
>смотришь как с каждой неделей вакансии становятся все пиздецовее и пиздецовее, уже и спарк, хадуп, sql обязательно, желательно и хуй-торч и тензор-хуй, 10 проектов покажи, и чтобы мог как мл-опс все это разместить в гугле, нам похую что разместить модельку на 10 мб стоит 120 баксов, и ты еще аналитиком будешь короче, доменные знания и хуе мое, еще мы начнем образование просить профильное, раз спермбанк захватил кучи магистратур в рашкинских шарагах
>посмотрел вакансии на ios
>Вы знаете что такое классы, покажите туду-лист, если он будет на гитхабе - хрюша отсосет на собесе
>знатно охуевая скачиваешь весь гуглдиск с книгами и курсами
Ебал этот машоб в рыло блядь, каггл этот ебаный дрочил, проекты, да пусть у Валеры хуй от стероидов отвалится
Ты че пес, иос, жс, андроидовских и прочих макак скоро заменит ИИ!! Не сейчас, так завтра. Он уже умеет генерировать код связный блин! Выбирая дрочево этого нейроговна - ты выбираешь будущее! А ты посмотри, как Бабушкин устроился, а? А ну в каггл дрочить на грандамстера! Давай-давай, за работу, за паперами и попытом. Ну да, жсбояре и иосаристократы уже за полгода на полквартиры заработали, зато ты ученым будешь, математиком, сознание оцифровывать будешь!
> разместить модельку на 10 мб стоит 120 баксов
Ты можешь без задней мысли разместить код на гитхабе за нихуя + модельку на гуглодиск до 15 гигов если не даешь в открытый доступ сотне васянов, а если даешь то нет ничего легче чем создать простой торрент.
> рашкинских
Зачем? Ищешь вакансии с работой из дома в европке или щвятой, в резюме указываешь что ты небинарная личность, сидишь на гормонах но так как боишься осуждения мимикрируешь под васяна и профит. 200к/наносек из 300 у тебя уже есть. А потом если хочешь перекатываешься в европку или щвятую и у тебя все 300к/наносек.
Главное знать английский на разговорном уровне, на самом деле уметь в машоб и писать о себе в женском лице чтобы компании выполняли норму по текущей повесточке.
>Ищешь вакансии с работой из дома в европке или щвятой, в резюме указываешь что ты небинарная личность, сидишь на гормонах но так как боишься осуждения мимикрируешь под васяна и профит
Да ничего особенного.
После универа веслал два года обычным разрабом, параллельно ради интереса ковырял нейронки. В какой-то момент решил перекатиться. Благо была база математики/линала/тервера.
Начал с The Hundred-Page Machine Learning Book, которую в прошлом треде упоминали — слишком ужато. Вспомнил питухон, который ковырял в студенчестве. Прошёл несколько разных курсов по классическому мл начал с Ына, потом одс/курс Соколова/текст лекций Воронцова на отдельные темы и нейронкам Стэнфордские курсы. Перепроходил не от начала до конца, а непонятные моменты, так что с каждой итерацией понимал чуть больше. Вкурил доки торча. В какой-то момет начал читать важные пейперы, но на изначальную задумку — реализовать самому — забил. Поковырялся в каггле и понял, что я долго могу заниматься какой-то хуйнёй, а надо искать работу.
Вбил ml interview questions в гугол и надрачивал их, раскидав резюме.
На собесах самыми неприятными были вопросы на теоретическую базу. Они произвольной глубины, а материала много.
Если есть время, лучше сделать один хороший петпроект. Раскатку в облака спрашивают как раз потому, что сейчас это просто гугл ещё и 300 баксов даёт на старте.
Иногда говорили про мои попытки кагглить какую задачу решал, как, почему, и я прям ощущал, как мне петпроекта не хватает.
По git/sql/питону до меня-то не докапывались, для джуна нужен уровень написать код, закоммитить в гит, сделать несложный запрос к бд.
Апачи со спарками на собесах ни разу не видел, разве что как необязательный плюс.
Нашёл работу за месяц до локдауна, но вряд ли ситуация кардинально не поменялась.
Я нихуя не понял, понял только что там нихуя не дефолтные настройки и применяется свой собственный GPU. https://twitter.com/l4rz/status/1437824469972705281 Паперы хуяперы - обмажутся паперами и в жопы ябутся
Модель на второй пикче хуевая, на фейках какие-то актрисы чешских кастингов. Лучше бы делали японок айдору.
Конечно покрывают. Но когда тебе надо оперативно вкатиться, а из практики кроме задачек ты 90% классики никак не используешь хотя при понимании концепций обрисовать их в общих чертах труда не составит, материал имеет свойство забываться.
Не так то, что вкакиши в МЛ на самом деле неиронично мыслят как в том мемасе "ты че пёс, я математик"
> Москва, количество вакансий data scientist - 435
> Москва, количество вакансий iOS - 2226
> Москва, количество вакансий JS - 5328
> Москва, количество вакансий php - 2200
> Москва, количество вакансий Java - 5095
> Москва, количество вакансий 1С - 27360
Тебе видимо изначально не стоило вкатываться в ds/ml/dl если тебе нужно было просто вкатиться. Хочешь относительно большой рынок труда - иди в разработку. Хотя ты туповат малость, твой максимум это пхп-битрикс я считаю.
>После универа веслал два года обычным разрабом, параллельно ради интереса ковырял нейронки.
>универ скорее всего айти
>два года стажа разрабом
>два года хоть и вальяжного но изучения машоба
Ты не вкатился, а перекатился.
Тоже заорунькал с этого долбоеба.
> Каково присутствие трансов, трапов и фембоев в machine learning индустрии - уже дофига или по прежнему не особо?
Пиши по-русски, "пидорасов". Никто таких исследований не проводил, да и в США многие предпочтут объявить себя опущенными, лишь бы не доебались и не отменили как цисгендерного угнетателя. Поэтому объективно такая оценка невозможна.
Истеричка на гормонах не сможет ни в research, ни в методичную продуктовую разработку. Ваше петушиное гнездо - в языке для шизиков-борщехлёбов Rust, если кто не понял
Я могу, у меня есть проект на гитхабе и стаж kaggle
Уже тестировал кто-нибудь? Дохуя задач для этого или не очень?
>У самого Гёделя Хирш ниже, чем у современных ноунейм петушков.
И что? h-индекс - это всего лишь упрощенная метрика, которую можно накрутить, если поставить такую цель. Типа как PageRank, даже ещё примитивнее.
Низкий h-индекс не означает, что ты не продуктивный. Как и любая другая метрика. Как и низкие оценки в школе не означают, что ты тупой. Но если у тебя низкие оценки в школе, это еще не значит, что ты у мамки самый самый умный просто от того, что они, как и любые другие упрощения, не всегда способны адекватно отразить все нюансы.
В этом треде появились идейные последователи Золотца/Базарова, возводящие нигилизм в абсолют. При том, что Базаров довольно плохо кончел. Но он был воображаемым персонажем, на него похуй. А вот Золотце - вполне реальный человек, не самы глупый (просто с проблемами с башкой, ну да у кого из нет), однако пизданулся на отличненько.
Но пориджи не читают классическую литературу. Ведь Достоевский - моралист позапрошлого века, игрок-картёжник и интриган, писавший развлекательные книги (почти как Пелевин, лол), чтобы отбить свои карточные долги. Что он вообще полезного напишет?
h-индекс - хуйня. Им можно манипулировать. Мировая наука в кризисе. Китайские ученые задирают свой h-индекс, потому что товарищ Xi платит им за KPI. Давайте заодно мочить словаков с высоким хиршом. Кризис воспроизводимости. Кризис оценки фактической значимости. Да, это объективная реальность, я тут как бы отрицать что-ли это буду? Но некоторые Базаровы считают, что это повод послать нахуй вообще всё на свете.
Я уже староватый пердун и туповатый, наверное. Но что-то мне подсказывает, что мамкины отрицатели в конце концов повторят путь Золотца, или воображаемого персонажа Достоевского, и отрицатель h-индекса тоже каким-нибудь фриком в итоге станет из-за своих сверхидей.
Не соглашусь. Чтобы выбрать между "добром" и "злом" особый интеллект не нужен. Ведь сразу понятно, что есть добро, а что есть зло. А вот когда тебе нужно выбрать меньшее зло, или хотя бы осознать, какие последствия могут иметь твои стремления к добру в реальной ситуации, там уже всё сложнее.
Для примера. Партия "Единая Россия" - это однозначное зло. Это однозначно и понятно. Но что лучше, быть внесистемным оппозиционером, как Волков, гоняющим пориджей под дубинки, или наоборот, слиться с ЕдРом и модифицировать его изнутри - это большой вопрос.
Легко отрицать систему: "Ваш код - говно, давайте всё перепишем!" Ответ на это - cancelling и посадки. Гораздо сложнее придумать, как её реально можно изменить и как можно добиться своих целей.
> Что тебе даст прослушивание всех лекций
Ключевые слова, по которым можно гуглить, горячие темы, интуиция, которую даёт чувак, разобравшийся в теме.
Теория и практика, как ты сам заметил, нахуй не нужна. Чувак задаёт ориентиры, дальше гугль и самостоятельная работа. Ты предлагаешь разместить ссылки на tensorflow или другие конкретные либы? Ну уж нет, пускай програмеры сами решат, что работает.
Говно без задач.
Первая пикча - input, второй скрин output. Ну вы просто сами сравните, что я ввел и что получил.
Пейпер говно, автор мудак. Если погонять десять часов крошечный датасет в Stylegan, будет точно такое же.
Классом там был suit. Разнообразие в мелких деталях будто бы имеется, но по сути одно и то же и всюду анфас. Если бы было кроме этого сбоку и в три четверти, то я бы еще понял такой алгоритм.
Да, там есть какой-то прогресс от первых пикч к последней, но хуй его разберет сколько надо итераций чтобы получилось что-то годное. Скорее всего ничего годного и не появилось бы.
Я 100% уверен что пейпер и код делали тупорылые чонги, чтобы заработать миску риса и чтоб вертухай бамбуковой палкой не пиздил.
Просто говно без задач как оно есть, надо было пристрелить мамашу автора чтоб он не появился.
Китайцы какают, словаки писают, вот и вся разница. Нассали лужу, потом посрали в лужу, потом нассали на говно, потом сверху еще наблевали русня с хохлами и япошки спустили туда кончу.
А как тебе такой суккуб от guided diffusion? 8к итераций и ровно 8 часов между прочим, но судя по всему детали и на 8к допиливаются.
Типа итерации-кадры, там должно было быть видео под конец, но не стал дожидаться.
>>163611
Это половина от default настроек
>>163614
So far лучшую генерацию изображений предоставляет clipit pixeldraw, причем персонажей лучше делать в маленьком квадрате, чтобы их не распидорашивало по более крупной композиции.
> default настроек
От click to go настроек, все дефолтные настройки в колабовских нотбуках сделаны для простоты и быстроты, по хорошему нужно все подкручивать вилкой чтобы ровно вписаться в лимиты.
Я датасаентистка. Транс. Вставила в попу анальную пробку со стразиком в форме сердечка, сама голая сейчас но поверх натянула колготки (плотно обтягивают письку и попку). И работаю сидя в одних колготках и с пробкой в попе. Совмещаю приятное с полезным. Data сайентист
Это да, а ещё большим, недвузначным, iq надо обладать чтобы не вестись на подобную гебешную индоктринацию про "конструктивность" и "политику малых дел". Код переписывать не надо, надо создавать новый продукт, а старое замшелое говно пусть умирает, это естественный цикл.
Я женщина. Трансженщины это Женщины
>GML - это круче, чем просто ML.
Не, ни хуя.
ОП, у мужа твоей матери и твоего мужа и у тебя маленький член. И у дочери твоей, членодевки, тоже маленький
Проверяй свои привилегии, цис сволочь. Коралина-то права, надо всё меритократию отменить и права у вас отобрать.
В твиттер попробуй запостить
А вот за это уважаю
>GML - это круче, чем просто ML.
Пизда твоей мамы круче чем ML и GML. Жаль только что она воняет. передай мамаше чтоб мыла пизду. Дышать невозможно, фуууу нахуй
У меня есть две идеи - нормализовать таргет из объявлений (привести матожидание и дисперсию к честному таргету), а также модифицировать лосс, чтобы за ошибку на честном таргете сильнее наказывало. Больше идей нет. Поэтому прошу помощи.
То есть иногда у тебя известна только цена из объявлений, а иногда только реальная? Тогда никак. Можно цену в объявлении использовать как признак. Можно попробовать что-то из арсенала semi-supervised. Можно даже совместить. Но использовать цену из объявления как таргет нельзя, это смена домена, математика прямо говорит "я умываю руки, нет никаких гарантий, что те результаты, что ты получишь, имеют хоть какой-то смысл".
В чем проблема прочистить вилкой в датасете непарные цены? В данной ситуации это единственный выход.
Иногда только из объявлений, а иногда только реальная, да.
Semi supervised думаю буду использовать, как часть из базовых моделей в стекинге, думаю можно и как таргет попробовать, с меньшим весом при ошибки и какой-нибудь нормализацией/подгонкой. Мне не принципиально математическое обоснование, нужно чтобы в реальности работало.
>>165315
В том то и дело что там все непарные - такой датасет. Цена из объявлений даётся не как фича, а как изуродованный таргет.
P.s. если что это соревнование, которое многие в треде наверняка пишут, возможно неэтично об этом спрашивать было. но всё равно спасибо за ответы.
Математика говорит "пошёл нахуй, пидор, нормально делай, а не хуяк хуяк и в продакшен"
Это соревнование, длящееся 36 часов. "нормально делай" тут не подразумевается
> невоспроизводимых
Так это показатель чего вообще? Для воспроизводимости нужна хорошо формализуемая и минималистичная база. Считай, всё должно сводиться к математике. Причем, к очень примитивной математике. Всё должно описываться уравнениями, которые имеют аналитические решения (т.е. всё должно описываться механическим применением некоторого набора правил замены символов, буквально). В крайнем случае, должны быть численно-устойчивые методы.
Но математика очень быстро перестаёт работать при минимальном повышении сложности. Задачу трёх тел хотя бы решили математическими методами? А там как бы всего три объекта и всего одна сила, действующая на них.
> психологии
Я рад, что ты упомянул её. Вообще, психология - это то, как электрические импульсы в нашей башке бегают. Казалось бы, бери и считай, есть же физические законы. Но это пример того, как система, построенная на вроде бы известных физических процессах, с увеличением числа переменных становится настолько сложной и непредсказуемой, что математика вообще бессильна. Даже в теории мы не в состоянии что-то формализовать и рассчитать известными на данный момент инструментами в психологии.
И что это означает? Что психология - хуйня для даунов? Или наоборот, что психология - это безумно сложная вещь, для которой нужен стозначный IQ и умение оперировать чем-то, что далеко выходит за рамки современной математики, чтобы выдавать стабильные и воспроизводимые решения в области психологии?
> Всё должно описываться уравнениями, которые имеют аналитические решения
Только анальники хотят использовать аналитические решения, когда нормальные люди решают всё численными методами. Аналитическими методами даже sin x + x = 0,8 нормально не решишь, а вид делают ужас какой важный.
> гиперхайп вокруг нейроёбства
Лоллирую с пориджей, которые не застали AI-зиму. AI-куриных-мужей чморили буквально 20 лет назад все, кому не лень. Одна теорема об отсутствии бесплатных завтраков чего стоит. Казалось бы, разъебали весь ML одной теоремой. Базировано математически доказали, что ML сосёт. Но нет, сейчас наоборот жалуются, что ML на гиперхайпе.
А с хуёв ли он вдруг стал на гиперхайпе? Да просто потому, что он работает в наших реалиях и приносит деньги.
Чтобы матемакикоёбам стало понятнее. Есть такая штука, как симплекс-метод. Очень хуёвая штука, практически переборный алгоритм с комбинаторным ростом сложности. Казалось бы, он не должен работать и его можно закапывать. Но работает ведь и очень популярен. Как так? А разгадка проста: математика - это успешный инструмент, но не всесильный, есть многие вещи, которые математика пока объяснить не может и есть простор для исследований.
> А леваки действительно плохо, впрочем как и праваки, однако леваки орудуют постмодерном и методами модерна можно только пердеть а лужу на радость сжв скаму, а для метамодерна действительно нужен трехзначный айкью.
Ты же вроде умный, да? Вот объясни, что такое постмодерн и что такое метамодерн? Что значит орудовать постмодерном или метамодерном?
> И что это означает? Что психология - хуйня для даунов? Или наоборот
А вот это интересный момент кстати. Видимо у некоторых есть синдром methodology neglect (название я только что придумал) - это когда человек считает, что истина ограничена рамками какой-то методологии, и считает ложью и заблуждением всё, что выходит за рамки этой методологии.
Например, науковеры-материалисты-редукционисты: выбранная ими методология ведёт к тому, что они начинают заявлять, что весь мир - это такой большой механизм, а субъективных ощущений не существует.
Или наоборот, какие-нибудь веруны, которые вынуждены отрицать какие-то факты из-за того, что какие-то предположения стали частью догмы.
Я - нейросеть, мне можно нести хуйню чисто на статистике и проябываться на простых фактах, разве нет?
Говно умирает, но не будем ходить далеко.
Простой вопрос: кто развалил тоталитарный совок и кто был главным бенефициаром?
1. Может быть это были проклятые пендосы с их авианосцами?
2. Или может совок развалили рокеры и деклассированные элементы?
3. Или может быть это были члены ЦК КПСС и сотрудники силовых структур, которые до сих пор у власти?
>кто был главным бенефициаром
Главным не главным, но бенефициары это в том числе и такая вата как ты, что может в пиндосском интернетике сейчас обсуждать кто развалил совок и прочую ГЕОПОЛИТИКУ отвлекаясь на работу на белого человека и попивать кофеек, вместо того чтоб коммиглистскую правду читать под кипяточек в короткий перерыв между 12часовыми сменами у станка
>То есть иногда у тебя известна только цена из объявлений, а иногда только реальная? Тогда никак.
Ещё какак, мультитаргет делаешь просто и всё
Лучше б умела рисовать CG артворки по-китайский. [title] by сунь хуй в чай trending on artstation
Всё ещё не вижу принципиальных отличий от текстов с дорвеев из нулевых, нагенеренных марковскими цепочками, поридж. Разве что с падежами чуть получше.
Для полноценного ии нужно чтобы количество токенов устремилось к бесконечности.
Ты только что perceiver..
Ждемс ГПТ4.
Хуйня. Даже как отдельные рисунки лиц это полная хуйня
Мимо съел свой поридж, закинулся тайдом и пожамкал попыт. В понедельник мне в школу.
за кем он повторяет движения? он явно не мог сам их придумать
В том виде в котором он сейчас (dall-e mini) это хуйня.
>Самое главное в ИИ это его этика!!! Все люди равны
>учишь эту хуйню как осатанелый полгода
>смотришь как с каждой неделей вакансии становятся все пиздецовее и пиздецовее, уже и спарк, хадуп, sql обязательно
Очень интересное наблюдение, особенно для вкатывальщиков в ML, которые и так почти все профессиональные программисты и спарк и хадуп у них как в магазин за овощами сходить.
Ну просто тема на хайпе и слишком много левых долбоёбов появилось, поэтому их и отсевают. В самом деле, какой ML, если ты даже в сраный спарк не можешь, это же значит чувак вообще с улицы пришел.
>это же значит чувак вообще с улицы пришел.
Это значит что чувак поридж. Java, php, simple dimple/popit.
Проблема не в том что я не могу осилить спарк, там где не спарк - окажется апач, где-то еще волт какой-нибудь, sql будет 20 разных, проблема в том количество этих технологий в вакансии не связанной с дата-инженерством возрастает каждый месяц последние месяцев 5. И проблема повторяюсь не в том чтобы выучить все это, а в том что ты будучи ньюкеком без стажа просто не знаешь что учить, что там действительно нужно на каком уровне и как это все вместе работает.
А на деле в итоге действительно смотришь вакансии веб-макаки или ios и требования после машобских как бальзам, где жабаскрипт или свифт это 80% требований, а в машобе питон - это 10% требований, зарплаты такие же, фирм много, вакансий много, это тебе не выбирать между патлатым очкариком или рыжим гномом-качком
Очень много. Как и любая новая и хайповая область, ML привлекает не-таких-как-все. Но, всё же, в ML меньше пидоров, чем в том же Хаскелле.
С другой стороны, чем меньше сообщество, тем более они лояльны ко "своим". Поэтому хаскеллисты вообще никогда не станут гнобить фашистов или педерастов. Там очень надо постараться или проявить открытый харастмент, чтобы вызвать к себе ненависть, им твой код важнее твоей сексуальной ориентации.
ML-шики тоже пока к педикам довольно лояльны. Но никто не гарантирует, что они будут столь же лояльны по мере роста сообщества.
Неплохо, но видна недостаточность корпуса.
>>166099
Корпус же маловат. Там русских текстов доли процентов было. Алсо, ГПТ-ха на то и ГПТ-ха, что она закономерности языка ловит. Ну там падежи и правила, как ты указал. Она очень грамотно пиздит по-английски (лучше, чем я, потому что все правила поймала). Но абсолютно безидейно.
И это, что я вам пытаюсь донести, пориджи. Нейросетки - это крутые статистические модели. Они - цепи Маркова на стероидах. А для извлечения знаний нужны формализованные модели представления знаний. Knowledge graphs. Но сам по себе knowledge graph не способен делать каких-то выводов, нужен алгоритм, который сможет по нему ходить и искать закономерности. И нейросетка может быть таким алгоритмом. Поэтому будущее AI в сочетании структурированных моделей (графов знаний) со статистическими алгоритмами (нейросетками), т.е. в GML.
> Это значит что чувак поридж. Java
Спарк программируется на Java неотличимо от Scala. И вообще, Спарк - это sql и немного распределёнки. Если чувак не может в Спарк, то он даже не поридж, он тупо не программист и не может в простейшую реляционную алгебру и common sense. Он даже НЕ ГРАЖДАНИН https://www.youtube.com/watch?v=UOkpO--XtH0
Проблема в том, что данные для машобучения идут из больших данных и там, лол, как неожиданно, надо иметь хоть какое-то представление об инструментах для обработки больших данных. И это не "проблема", это - требование бизнеса для решения его задач.
>А на деле в итоге действительно смотришь вакансии веб-макаки или ios и требования после машобских как бальзам, где жабаскрипт или свифт это 80% требований
А тебя никто и не заставляет заказываться в машоб. Нравится IOS, пиши под IOS. Нравится писать сайты на PHP, пиши сайты на PHP. Если у заказчиков машоба появятся потребности, они будут повышать зарплаты, чтобы переманить именно тебя. Если они этого не делают и тебе удобнее писать сайты, то в чем проблема вообще, у тебя ведь всё и так нормально, проблемы нет.
Зачем это все нужно, когда ГПТ3 и так все знает (на английском)? Весь что называется common sense у нее есть. Безо всяких графов. Задай три вопроса, на знания о мире, я передам, посмотрим. Тренировка там заканчивается на 2019 году.
Со знаниями на графах 40 лет назад мудохались, гугли CYC. Думали, щас ВСЕ забьем руками в базу, ну лет 10 потратим, и заживем. Обосрались.
>Зачем это все нужно, когда ГПТ3 и так все знает (на английском)?
Нет, не знает. Давай, я что-нибудь у ГПТ-хи спрошу, на твой выбор. Я там в платных подписках. Я её уже заебался спрашивать, кидал скриншоты в прошлые треды. Она ломается даже на простых вопросах, вроде радиуса Луны и количества нейронов в C. Elegans.
Она может ответить правильно, а может абсолютно бредово ответить. Причем, истину от бреда могу отличить только я, потому что я заранее знаю правильный ответ.
ГПТ - это лингвистичекая модель, обученная на языковых корпусах. Единственное, что она умеет - это рандомно генерировать лингвистичеки корректный текст. Да, она вряд ли ошибётся в правильном применении падежей. Но она нихуя не понимает. Не понимает почему человек может стоять на одной ноге, но не может стоять, подняв обе ноги вверх, потому что у человека всего две ноги и стоять подняв обе вверх - это какой-то бред.
Там всё очень хуёво даже с фактическими знаниям. А с логикой и common sense там не просто хуёво, а вообще никак. ГПТ - это про то, как наиболее вероятно продолжаются тексты, на которых она была обучена, не более.
Ну и главное, сеть, а почему ты сгенерировала такой ответ, назови источники источники, которые привели тебя к такому выводу? Нейронка: юк-пук. Knowledge graph - данные такие-то, загруженны оттуда, вот цепочка вывода. То, что цепочка вывода была именно такая (их ведь дохуя может быть) - это уже проблема системы, никто не гарантирует, что она самая короткая, типа нейронка решала по какому пути иди. Но это хотя бы проверяется.
Вангую у тебя с английским траблы. Нейроночка, видя твои ошибки, думает, что отвечать надо тоже по-даунски.
Про источники знаний это ты уже гоалпостами задвигал. Да и ты сам откуда про ноги знаешь? Приведи-ка мне цитату из учебника про это.
>А тебя никто и не заставляет заказываться в машоб. Нравится IOS, пиши под IOS.
>у тебя ведь всё и так нормально, проблемы нет.
> Не понимает почему человек может стоять на одной ноге, но не может стоять, подняв обе ноги вверх, потому что у человека всего две ноги и стоять подняв обе вверх - это какой-то бред.
А с какой стати она должна это понимать? У нее нет никакой обратной связи с реальным миром кроме обучающего датасета, у нее нет тела, нет рук и ног, нет органов чувств, никакого их аналога, нихуя нет кроме корпуса текстов, на котором настраивались веса. Такие вещи как обоснование динамики некоего тела в некоем окружении, можно вывести только из опыта взаимодействия с реальностью. Если ты настолько простых вещей не понимаешь - поздравляю, ты дебил. А скорее всего, ты зумер.
Очевидно что полноценный dall-e, но так как его нет в открытом доступе, то вопрос довольно сложный. icgqn еще не тестил, а biggan крайне плох, так что скорее всего банальный vqgan.
Когвью по сути тот же dall-e но с меньшим числом параметров так что не в счёт.
Как же все время смешно с этих борщехлебов, которые корчат серьезные ебла и рассуждают о нуждах бизнеса. Ору блять. Борщ стынет, ололош.
Если гпт всё знает почему она не может сгенерировать не бредовый текст, или хотя бы такой что читающий не разгадывает за секунду что он был написан нейроговном?
>ГПТ3 и так все знает
Эта шиза биттерчухов так и будет из треда в тред продолжаться, несколько тредов же назад обоссали этот фанбойский бред?
> ГПТ3
> на скринах GPT-J-6B где в 29 раз меньше параметров и которая сделана группой энтузиастов
> шиза биттерчухов
Ты биттерчух или просто дурачек?
> а вот в n раз больше параметров и всё получица!
Ну давайте, спросите у наёмных китайцев за полцента
>где жабаскрипт или свифт это 80% требований
Тащемта, тебе любой жс/айос-макакен быстро пояснит на любом собесе, что ты зумерок с гипертрофированным манямирком и всё айти развивается таким образом, что кроме БАЗЫ есть ворох технологий около неё, который меняется без остановки. Исключением тут могут быть разве что какие нибудь полусгнившие области, где код с кобола никто не спешит переписывать.
Двигай гоалпостами так, как будто ты УЖЕ создал сверхинтеллект. Арк это достойная задача, уровнем гораздо выше того, чего пытаются добиться с ГПТ.
И тем не менее, ГПТ это один из потенциальных путей решения. Потому что это единственная модель, где самоорганизуется процесс few shot learning, что есть суть АРКа. Но ГПТ работает со словами, поэтому сам АРК он не сможет решить. Да и вычислительная интенсивность его великовата.
ГПТ4 обещают мультимодальным - там посмотрим.
>жс: хорошие зарплаты, низкий порог вката, фирм много, вакансий много
>машоб: зарплаты на уровне жс, даже ниже, а порог вката довольно высокий, фирм нихуя, вакансий нихуя и их рост только замедляется
Но зато у тебя будет бейджик элитария! Ты же не кодомакака какая-нибудь, ты - ого-го! - математик. И еще тебя не заменит ИИ! Правда, кодомакак он если и заменит, то лет через 50, да и тебя он тоже, скорее всего, заменит, но то такое.. Короче, правильной дорогой идешь, товарисч! Давай, борщ дохлебывай, и за паперы!
Отточеные. Неуверенные, но придуманные заранее
Нужны прокачанные софт-скиллы, чтобы приседать на уши кабану, кормя его обещаниями о будущем ии-прорыве. Через полгода намыливаешь лыжи в другую контору, накопив опыт стаж.
Тя ебёт?
Потому что за обычный вычмат не платят 300К\сек и не дают поиграться с новейшими ведьмокартами
В общем-то ты прав, хотя в плюсах и питоне средняя встречаемости тега в вакансиях нормализованная к самому популярному тегу еще ниже. Хотя если искать именно по спарку, то это разнообразие сокращается.
{'Python': 0.038750926985712926,
'C%2B%2B': 0.040023200721169896,
'Data scientist': 0.04238972738796154,
'SQL': 0.04577398620667029,
'Java': 0.046159222751719325,
'C%23': 0.047146133794826996,
'Javascript': 0.05521971140283655,
'Frontend': 0.05776091915349929,
'Data': 0.057874939586914594,
'php': 0.06506176575549223,
'Typescript': 0.06689768651943644,
'Golang': 0.06792139354619676,
'DevOps': 0.07429151799994821,
'Spark': 0.08107407390864209,
'Intern': 0.09846736304474563,
'EPAM': 0.12178288697867923}
https://replicate.ai/arantxacasanova/ic_gan
Гверн говорил, надо под них тренировать CLIP или хотя б vqgan.
Пока что TADNE CLIP лучшее что есть.
Для чего? Это чтобы такие генерить?
Проиграл с выражения лица на третьей
Kajou is prude, Anna is slut
Ввел рандомный прон, выдало с десяток около-ЦПшных пикч. Никто не станет такое развивать.
ТИХНАЛОГЕЯ БУДУЩИГО
B NeurIPS?
И да я вообще не ебу за дата саенц я просто разработчик
Делаешь 3 класса - да/нет/хуета. Обучаешь только на да/нет. Надеешься, что на хуевых объектах "хуета" перевесит остальные варианты или отсеиваешь по какому-нибудь порогу.
Если ещё намайнишь примеров хуеты, то должно вообще замечательно работать.
Ещё можешь изначально обрабатывать данные каким-нибудь детектором аномалий
Делаешь три класса:
TF
FD
TD
True, False, Dick. Учишь через вот это. Само собой, там не бинарка, а три нейрона на выходе, с софтмаксом на кончике.
Если TF = 10%, FD = 43%, TD = 47% —> то данные хуита
Я изначально не знаю, где у меня плохие данные. Как мне учить третий выход?
Чистишь вилкой же.
Ты наверное подразумевал семи-супервайз? Фактически 90% машоба кроме редких случаев является обучением с учителем
> ЭС
> ИИ
Да да, мы поняли что ты шиз еще три треда назад, но ты ведь сейчас толстишь, верно? Покажи любой ИИ на ЭС, абсолютно любой, который может хотя бы частично пройти тест Тьюринга либо тест на iq, либо выполнять те же действия что и коженные ИИ с той же точностью. Абсолютно любой.
>Насколько часто в реальной работе приходится иметь дело с временными рядами?
>реально работе
>машоб
Можешь насобирать данных вручную. Можешь нагенерировать. Можешь не учить третий выход и молиться, что модель сама туда скинет неизвестные объекты.
>>171101
Если ты занимаешься аналитикой (строишь дашборды и перекладываешь таблички), то 99% времени. За пределами предсказания оттока/онлайна/фрода никаких временных рядов нет или их количество стремится к нулю.
> Можешь не учить третий выход и молиться, что модель сама туда скинет неизвестные объекты
это так не работает
В clip draw проблема в архитектуре. Там не повлияет на качество количество параметров.
По сути у тебя подбираются такие цвета квадратов не пикселей, пиксели в реальном лоурезе бы сглаживались в говно и не было бы угловатости, при которых clip выдает наибольшее количество очков. Это конечно если упрощать, но суть думаю передал.
Основная проблема - нет связи между частями, и у скажем рыцаря вместо руки вполне может вырасти солнце, но если вместе с появлением этого солнца появились детали в других местах, то генератор будет считать что clip повысил оценку в том числе и из за солнца, после чего будет дорисовывать солнце.
То есть проблема комплексная, по крайней мере конкретно с clip draw, и без улучшения архитектуры stack more layers работать не будет. Однако stm это основа трансформеров, того же dall-e или cogview, но там есть свои проблемы, и первая это огромные энерго и время затраты.
Есть еще персивер от глубоких москов, но пояснения к говнокоду нет, а разбираться в нем никто не хочет, ведь его истинные возможности еще не до конца понятны.
Так что, как говорится, it's a only matter of time.
Кэп, у нас зашкаливает детектор жирноты, проба 2 первых букв расплавила антену. Повторяю, кэп, жирнота вылезает через экран, срочно начинайте эвакуацию из треда в экстренном порядке и ни в коем случае не кормите шиза.
Чем интересны GML и network analysis в академии понятно, а что насчёт индустрии?
мимо магистрант не айтишник, могу в статистику, но не в машоб
Тебе моей диванной аналитики или фактов?
Факт:
- GML используется в AlphaFold. Это вполне ценная задача для индустрии.
- У одной крупной российской компании есть заинтересованность в GML. Правда, как сотрудник этой компании и человек, который в теме, я думаю, что у них завышенные ожидания от технологии и они иногда пытаются применить её не по месту Хотя это мои личные ощущения. В конце концов, это просто одно из R&D подразделений. Ну делают то, что вероятно не принесёт результатов, но это копейки по меркам компании, я х.з. как это выглядит в рамках их общей стратегии.
Диванная аналитика:
- Многие данные имеют естественное представление в виде графов. Особенно хорошо графами описываются базы знаний, социальные сети, сети отношения финансового участия (для задач вроде такой: https://naked-science.ru/article/column/algoritm-rossijskih-uchenyh-nashel). ML хорошо зарекомендовал себя в задачах скоринга, классификации и т.п. Но ML-лю на вход подаются векторы фичей. А GML как раз про то, как использовать в ML-е графовые представления. Есть мнение, что GML сможет повысить качество работы моделей.
- Есть сверхзадача ML - automated feature extraction. И если у тебя есть данные, представленные графом (а это очень общее представление), то, скажем, задача эмбеддинга (сопоставления вершинам графа векторов) - это и есть автоматическое извлечение признаков. Задача эмбеддинга никак не привязана к конкретной предметной области. Она формулируется в абстрактных терминах языка теории графов. Т.е. если ты научился адекватно конвертировать вершины графа в векторы, значит ты сделал автоматическую извлекалку признаков. Почти любые данные можно представить в виде графа, это очень легко сделать. Дальше делается эмбеддинг неким общим алгоритмом, и вуаля, у тебя набор фичей для предметной области, в которой ты даже не разбираешься!
- Есть алгоритмы ML, которые неплохо себя зарекомендовали. Скажем, word2vec. Но они выглядят так, как будто работают над некоторыми представлениями, которые являются подмножеством графовых представлений. Т.е. word2vec работает над цепочками объектов, где каждый объект связан с двумя своими соседями (словами перед и после), они со своими соседями и так далее. Возникает естественное желание, а почему бы не обобщить эти цепочки на граф, где связи могут быть произвольными? Это бы позволило применять подобные алгоритмы к куда большему классу задач.
Теперть про подводные камни:
- Заметание мусора под ковёр. Допустим, у тебя есть граф финансовых транзакций и некий человек, который постоянно ездит на такси, и, стало быть, транзачится с таксистами. В таком эмбеддинге его вектор будет лежать рядом с вектором таксиста по метрике random walk. Но если твоя задача - оценить платежеспособность человека, то что он вообще имеет общего с таксистом в плане этого фактора? А ведь при грамотном анализе графа транзакций о платежеспособности человека можно сказать очень многое. А если ты решил продать человеку тачку - то эта близость к таксистам тебе вообще не подходит. Человек может и ездит на такси потому, что у него прав нет, ему может тачка вообще не нужна, а вот самому таксисту тачка может очень даже пригодится. Это и есть заметание мусора под ковёр. Да, у тебя есть алгоритм, который автоматически эмбеддит вершины. Но твоя задача feature engineering-га никуда не делась, она просто перешла на уровень выбора правильного графа и правильных метрик.
- Брать нахрапом. Слепая вера в то, что если мы обучим модель на всех данных, то интеллетк у неё появится сам собой. Нет, не появится. GTP-3 почти на всём курпусе доступных английских текстов обучили. И чему она обучилась? Обучилась строить синтаксически грамотные, но полностью лишенные смысла английские предложения. GTP-3 даже не понимает, почему человек может стоят подняв одну ногу, но не может поднять другую (потому что у человека всего две ноги, и если он поднимет обе, то упадёт на жопу). GTP-3 - это демонстрация полного провала массированного машинного обучения на больших данных. Не учатся, не понимают, даже если все данные скормить, будет хуйня. Кто-то скажет, может параметров было маловато? Так вот, если в GTP-3 увеличить количство параметров, она тупо начнёт запоминать, у нас просто столько текста нет. К GML всё это тоже относится. У нас пытаются загрузить 5 терабайт в мою графовую базу данных, она трещит, я спрашиваю «Нахуя, разве бывают такие большие графы знаний?», они отвечают «Ну мы всё грузим, типа чем больше инфо, тем лучше» Ну нет, это так не работает.
- Вера в магию AI и стабильность решений. AI просто находит похожие решения, AI полагает, что если две молекулы похожи в заданной метрике, то и действовать они будут примерно одинаково. Но это не так. Оторвав OH ты можешь сделать из нейтральной молекулы йад. AI заточены под какие-то уже известные выборки, а если что-то новое, то они там фейлят.
- Стрельба из пушек по воробьям/один молоток для всех шурупов. Сталкивался с тем, что в графовые базы данных грузят любую хуйню. Тут надо понимать, что GML даст профит только если надо извлекать данные из структуры графа. Допустим, ты вегетарианец. Ну и нам надо искать вегетарианцев. Твои ближайшие связи - это магазин, в который ты идешь. Магазин закупает веган-жрачку у некоторой овощебазы. Нам интересно, что ты как-то косвенно связан с этой овощебазой, сорее нет, скорее нам достаточно просто посмотреть твой профиль продуктов. GML может что-то дать, но примнять его бессмысленно в этом кейсе.
Тебе моей диванной аналитики или фактов?
Факт:
- GML используется в AlphaFold. Это вполне ценная задача для индустрии.
- У одной крупной российской компании есть заинтересованность в GML. Правда, как сотрудник этой компании и человек, который в теме, я думаю, что у них завышенные ожидания от технологии и они иногда пытаются применить её не по месту Хотя это мои личные ощущения. В конце концов, это просто одно из R&D подразделений. Ну делают то, что вероятно не принесёт результатов, но это копейки по меркам компании, я х.з. как это выглядит в рамках их общей стратегии.
Диванная аналитика:
- Многие данные имеют естественное представление в виде графов. Особенно хорошо графами описываются базы знаний, социальные сети, сети отношения финансового участия (для задач вроде такой: https://naked-science.ru/article/column/algoritm-rossijskih-uchenyh-nashel). ML хорошо зарекомендовал себя в задачах скоринга, классификации и т.п. Но ML-лю на вход подаются векторы фичей. А GML как раз про то, как использовать в ML-е графовые представления. Есть мнение, что GML сможет повысить качество работы моделей.
- Есть сверхзадача ML - automated feature extraction. И если у тебя есть данные, представленные графом (а это очень общее представление), то, скажем, задача эмбеддинга (сопоставления вершинам графа векторов) - это и есть автоматическое извлечение признаков. Задача эмбеддинга никак не привязана к конкретной предметной области. Она формулируется в абстрактных терминах языка теории графов. Т.е. если ты научился адекватно конвертировать вершины графа в векторы, значит ты сделал автоматическую извлекалку признаков. Почти любые данные можно представить в виде графа, это очень легко сделать. Дальше делается эмбеддинг неким общим алгоритмом, и вуаля, у тебя набор фичей для предметной области, в которой ты даже не разбираешься!
- Есть алгоритмы ML, которые неплохо себя зарекомендовали. Скажем, word2vec. Но они выглядят так, как будто работают над некоторыми представлениями, которые являются подмножеством графовых представлений. Т.е. word2vec работает над цепочками объектов, где каждый объект связан с двумя своими соседями (словами перед и после), они со своими соседями и так далее. Возникает естественное желание, а почему бы не обобщить эти цепочки на граф, где связи могут быть произвольными? Это бы позволило применять подобные алгоритмы к куда большему классу задач.
Теперть про подводные камни:
- Заметание мусора под ковёр. Допустим, у тебя есть граф финансовых транзакций и некий человек, который постоянно ездит на такси, и, стало быть, транзачится с таксистами. В таком эмбеддинге его вектор будет лежать рядом с вектором таксиста по метрике random walk. Но если твоя задача - оценить платежеспособность человека, то что он вообще имеет общего с таксистом в плане этого фактора? А ведь при грамотном анализе графа транзакций о платежеспособности человека можно сказать очень многое. А если ты решил продать человеку тачку - то эта близость к таксистам тебе вообще не подходит. Человек может и ездит на такси потому, что у него прав нет, ему может тачка вообще не нужна, а вот самому таксисту тачка может очень даже пригодится. Это и есть заметание мусора под ковёр. Да, у тебя есть алгоритм, который автоматически эмбеддит вершины. Но твоя задача feature engineering-га никуда не делась, она просто перешла на уровень выбора правильного графа и правильных метрик.
- Брать нахрапом. Слепая вера в то, что если мы обучим модель на всех данных, то интеллетк у неё появится сам собой. Нет, не появится. GTP-3 почти на всём курпусе доступных английских текстов обучили. И чему она обучилась? Обучилась строить синтаксически грамотные, но полностью лишенные смысла английские предложения. GTP-3 даже не понимает, почему человек может стоят подняв одну ногу, но не может поднять другую (потому что у человека всего две ноги, и если он поднимет обе, то упадёт на жопу). GTP-3 - это демонстрация полного провала массированного машинного обучения на больших данных. Не учатся, не понимают, даже если все данные скормить, будет хуйня. Кто-то скажет, может параметров было маловато? Так вот, если в GTP-3 увеличить количство параметров, она тупо начнёт запоминать, у нас просто столько текста нет. К GML всё это тоже относится. У нас пытаются загрузить 5 терабайт в мою графовую базу данных, она трещит, я спрашиваю «Нахуя, разве бывают такие большие графы знаний?», они отвечают «Ну мы всё грузим, типа чем больше инфо, тем лучше» Ну нет, это так не работает.
- Вера в магию AI и стабильность решений. AI просто находит похожие решения, AI полагает, что если две молекулы похожи в заданной метрике, то и действовать они будут примерно одинаково. Но это не так. Оторвав OH ты можешь сделать из нейтральной молекулы йад. AI заточены под какие-то уже известные выборки, а если что-то новое, то они там фейлят.
- Стрельба из пушек по воробьям/один молоток для всех шурупов. Сталкивался с тем, что в графовые базы данных грузят любую хуйню. Тут надо понимать, что GML даст профит только если надо извлекать данные из структуры графа. Допустим, ты вегетарианец. Ну и нам надо искать вегетарианцев. Твои ближайшие связи - это магазин, в который ты идешь. Магазин закупает веган-жрачку у некоторой овощебазы. Нам интересно, что ты как-то косвенно связан с этой овощебазой, сорее нет, скорее нам достаточно просто посмотреть твой профиль продуктов. GML может что-то дать, но примнять его бессмысленно в этом кейсе.
Чувак, если бы мне хотелось сказать, что всё не работает, я бы так и сказал. Но я в этой теме с нулевых, и я как бы очень даже AI-нигилист и уже не раз посылал нахуй эту тему.
Однако глупо говорить, что "не работает", когда сейчас AI чипы в любой микроволновке. Ну или отъебитесь от моей микроволновки, или ML кому-то нужно и надо с этим как-то жить и адаптироваться.
>А с какой стати она должна это понимать?
Не должна. Это ведь лишь более сложная статистическая модель, обученная на большем количестве корпусов. А пориджи с каких хуёв считают, что моделька сама собой чуть ли не разум обретёт.
Хохлина, хрюкни.
>- Брать нахрапом. Слепая вера в то, что если мы обучим модель на всех данных, то интеллетк у неё появится сам собой. Нет, не появится.
Ты оскорбляешь чувства Свидетелей ПидерЛессона.
>- Вера в магию AI и стабильность решений.
Магическое мышление - неотъемлемое свойство завсегдатаев данного треда.
Ведь как ещё убедить себя и кабанчика в собственной интеллектуальной ИЛИТАРНОСТИ и своём высшем предназначении создания будущего, имея три класса образования, мм?
>сверхзадача ML - automated feature extraction
Это про поиск всяких подмногообразий? Representation learning?
Вроде как начинает "нормально" работать, если хоть сколько-то намайнить примеров этого класса other.
Ещё слышал про какие-то байесовские способы заставить работать, но не найду сейчас.
Я:
1. Делаю ANOVA для cat1 ~ num1
2. Тестирую две гипотезы, что между двумя конкретными группами в cat2 есть стат.значимая разница в значениях (1) num1, (2) num2.
Правильно ли я понимаю, что в таком случае будет более правильно и для ANOVA и для A/B теста сделать корректировку Бонферрони порогового уровня? Правильно ли я понимаю, что коэффициент корректировки будет 3 (три)?
Кто-нибудь тут теорию Вапника изучал?
В чём там суть вообще?
Она имеет отношение к разработке реальных архитектур и алгоритмов обучения, или она слишком абстрактная для этого?
У тебя выполнены условия для корректного применения дисперсионного анализа?
Ты же свои гипотезы post-hoc t-тестами проверяешь?
Что у этого Leskovec там? Одна теория? Или задачи тоже есть? А то листать эти десятки видео не хочется.
Ну сперва anova, потом постхок, если анова говорит, что стат.значимая разница между группами есть. Вопрос в том, нужно ли корректировать p в anova. AB у меня в другой колонке, т.е. анова с ними несвязанна.
Т.е. анова и 2 a/b теста по идее - это три независимых друг от друга исследования
У тебя две категориальные переменные (cat1 и cat2), ты делаешь анову num1 ~ cat1, затем, как ты пишешь, смотришь на разницу между двумя группами, но не из тех, что в cat1, а в cat2. Это не опечатка?
Кроме того, ты смотришь на разницу по num1 и num2, но анова у тебя только num1 ~ cat1. Это не ошибка?
И еще раз спрошу - у тебя условия для применения ановы выполнены? Есть ли нормальность по группам, одинаковая ли у них дисперсия, независимы ли наблюдения? Иначе (если нет нормальности и одинаковости дисперсий) тебе придётся применять непараметрику.
>У тебя две категориальные переменные (cat1 и cat2), ты делаешь анову num1 ~ cat1, затем, как ты пишешь, смотришь на разницу между двумя группами, но не из тех, что в cat1, а в cat2. Это не опечатка?
>Кроме того, ты смотришь на разницу по num1 и num2, но анова у тебя только num1 ~ cat1. Это не ошибка?
Все так. Разве что я про постхок не дописал в первом посте. Итак:
Есть один датасет, категориальные колонки: cat1, cat2; числовые: num1, num2
1. Делаю ANOVA для cat1 по num1. Если ANOVA проходит - делаю постхок (Tukey, например), все группы между собой. (допустим, 4 группы - 6 сравнений)
2. Тестирую две гипотезы, что между двумя конкретными группами в cat2 есть стат.значимая разница в значениях (1) num1, (2) num2.
Вопрос: какой коэффициент в корректировке Бонферрони для ANOVA и A\B тестов из второго пункта, если она нужна?
>И еще раз спрошу - у тебя условия для применения ановы выполнены? Есть ли нормальность по группам, одинаковая ли у них дисперсия, независимы ли наблюдения? Иначе (если нет нормальности и одинаковости дисперсий) тебе придётся применять непараметрику.
Допустим, что да это гипотетическая ситуация, с помощью которой я пытаюсь понять, когда и как нужно применять корректировку Бонферрони, по гайдам не до конца разобрался. Но разве есть разница с точки зрения моего вопроса про корректировку? Для непараметрической ANOVA такой же подход будет же, разве что сам алгоритм другой и постхок тесты тоже надо будет делать непараметрические, по идее.
Я тут по-человечески пытаюсь общаться, а тебе лишь бы троллить.
Нет, я не жру его 20 лет, я сам оттуда ливнул в нулевых. Потому что тогда думал, что не стоит вскрывать эту тему. Кто тогда мог предположить, что нейроговнго станет мейстримом. А вот стало, кто не вкатился, тот не успел.
Я тут пытаюсь обозначить говна, которые выстрелят в ближайшие несколько лет и попутно сливаю болячки, о которых хайпоёбы предпочитают не говорить. А тебе бы лишь бы самоутвердиться. Ну, продолжай, я не только для тебя пишу.
Если сводить к математике, то это вера в то, что большинство решений NP-задач можно найти и так каким-нибудь магическим образом. Ну или в то, что формальное решение - правильное, но и без полного его решения можно достаточно близко подойти на полиномах.
Вера? Ты поди и про теорему Новикова о перцептроне не слышал, не говоря о чём-то из статической теории обучения, правда же?
Ага, теперь ясно.
Коэффициент в поправке Бонферрони равен числу проверяемых гипотез. Анова + постхоки + две гипотезы различий по группам cat2. Только учти, что для постхоков стандартные функции сами часто делают поправку на множественные сравнения тем или иным методом, что может привести к ошибкам в твоём случае - сначала будет поправка к постхокам, потом общая.
Про условия применимости ановы спросил безотносительно поправок откуда же мне знать, что пример гипотетический; на практике обычно нужно что-то делать дополнительно ибо нормальности и равенства дисперсий часто нет. Для непараметрики с поправками все остаётся без изменений.
Я не в дата сайнс, а в науке работаю, судя по чертовой уйме статей, что видел, на поправки обычно кладут болт, это скорее исключение, чем правило.
>статической теории обучения
Там есть какие-нибудь фундаментальные ограничения на возможности машоба?
Прочитал тут одну статью... Идея интересная, заявленные метрики высокие. Правда код не выложили. Да и сам я всё равно не обучил бы, там две недели на сотне тпу обучать надо. Поэтому буду дальше резнет-50 во все поля пихать.
А что вы из последнего читали?
1400 TPU-дней... А что бы ты смог скрафтить на них за это время?
>я в этой теме с нулевых
А чем тогда занимался, если не секрет? Просто продвинутая статистика на компе, или уже были зачатки всякого computational learning?
Спасибо!
Посоны, там китайцы новую версию онлайн генератора пикч выложили, с повышенным разрешением. Го тестировать https://agc.platform.baai.ac.cn/CogView/index.html
Теперь можно выбрать вид изображения: фото, живопись маслом, китайская живопись, скетч и так далее
Принимается ввод только на упрощенном китайском (используйтe google переводчик)
По-моему охуительно, ведь выдача куда более связная, осмысленная и релевантная чем в clip + vqgan, при этом также и разнообразная. Я рад за успехи Поднебесной.
Тебе какая разница? Сейчас все мировые спецы в машобе это китайцы.
Нет, хорошо работает маска/очки у эпла, потому что фейс-айди светит на тебя кучей лазеров и дата по твоему лицу это не картинка, а расстояния между неизменными точками на твоем лице(зрачок - кончик носа, переносица, углы глаз), то есть даже жирея, худея, морщинясь и загорая ты не теряешь способность открыть телефон. Все что по картинке - хуита из под коня и не работает, как и другие говнейронки
Они и есть на западе, дебил.
А кто они? Китаец и в Африке китаец.
Целует ботинки у негров
бамп вопросу(
Наотрез отказывается принимать промпты на эротику
Примитивные рисунки персонажей в купальниках генерирует кое как со скрипом (надо правильно подбирать иероглифы)
Отказывается генерировать пикчи по диснеевскому аладдину потому что в его имени "а ла динь" два иероглифа "а ла" которые также означают "Аллах" у китайских мусульман
Это всё ожидаемо. Винни-Пуха хоть может нарисовать, или это у них сразу идёт как оскорбление товарища Кси?
Везде одна политкорректность, что на жопаде что на востоке.
Частично принимает ввод на инглише, все равно выходит хуйня и нет даже намека на nsfw. Я конечно понимаю что Партия борется за скрепы и здоровье нации, но могли бы и отдельно выложить колаб без цензуры "для специалистов" где получится генерировать nude контент.
Наука бывает разная, Gwern тоже исследует необычные области.
>>175551
Интересно, вот за такую выдачу заблочат мне ойпи или нет? На самом деле в этом нет ничего особенного - на ютубе полно легальных видосов где маленькие девочки надевают свои купальники и леотарды и позируют в них, а недавно на пляже я видел вживую лоли в купальнике с оголенной спиной и даже украдкой снимал ее на видео
Но самый главный вопрос (не взирая на цензуру на уровне обработки строк) - в дате по которой тренировали алгоритм, ЦП все-таки было??? или нет???
Лол. Для науки они опубликовали метод. Демо на сайте для пиара просто.
Ой да не пизди, у меня на харде хранятся закриптованные 10 терабайт фото и видео материалов и всем похуй.
Смотрю курс, слова понимаю, а какие-то сраные формулы - нихрена.
Из всего что препод показывает в курсе, я помню только как матрицы перемножать и транспонировать, а остальное - белый шум. Слишком давно универ закончил, да и стоит признать, у нас, на физике, была не особо углубленная математика.
Как бы максимально лайтово настроиться на восприятие математических письмен, если я не готов сначала прорешивать заново демидовича, а полгода спустя еще столько же тратить на дискретку, потом столько же на линал, а потом столько же на теорию вероятности?
Может коллективный разум уже нашел какое-нибудь сочетание учебника-задачника-решебника, которое поможет погрузиться в это все не тратя оставшуюся жизнь на это?
Другие идеи приветствуются.
Читай паперы, поридж
>да и стоит признать, у нас, на физике, была не особо углубленная математика
А у них, в мл, математика ещё менее углубленная, чем у вас в физике.
>Другие идеи приветствуются.
Забить на математику и дрочить мануалы по либам, как это делают 95 процентов этого треда.
>Ну там же есть статистика которая хз относится к матиматике или нет?
К математике относится матстатистика, да.
К мл относятся также хотя бы вероятность и оптимизация, помимо матстата, а к ним - линал и матан.
>Мне непонятна сама постановка вопросов в МЛ, что они пытаются эмулировать с помощью математики?
Не беспокойся, они этого тоже не понимают.
Чтобы это понимать, нужно изучать теорию Вапника, а здесь её никто не изучает.
>Хотя я склоняюсь что это заблуждение в терминологии, должно называться типа риски
Заблуждение в том, что аноны часто путают математику и реальность.
В математике есть конкретное определение вероятности, как и определение случайной величины, например, и эти определения нужно адекватно переносить на реальность, создавая адекватные матмодели.
И вот про это все часто забывают, смешивая математическое и бытовое понимание терминов.
> нет никакой вероятности
Её и нет в математике. Можно по Байесу интерпретировать: x -- какая-то неизвестная нам величина, x -- реализация этой величины. У неизвестной величины неизвестны конкретные значения, но могут быть известны свойства типа её распределения. Благодаря им мы и можем как-то всё это считать.
Наверное.
От матана там только термины, если ты для линейной регрессии понимаешь смысл какой-нибудь средней ошибки, градиента, может момента - тебе хватит матана
Сейчас вообще эта хуйня отомрет, потому что все курсы, гайды и книги учат тебя хуярить какие-то нелепые огрызки нейронок в пайторче/тенсорфлоу, когда как повсюду применяются ГИГА трансформеры с 30 миллиардами параметров в тысячи слоев с взаимосвязями, памятью, внутренними подстройками ошибок и предтренированные даже на Аллахе. Зачем тебе тренировать конв2д-Макспул-конв2д-макспул-денс(софтмакс) если ты можешь просто ебануть резнет50, зачем тебе тренировать ЛСТМ-денс-ЛСТМ(бидирекшинал)-денс если можно просто грузануть БЕРТ, который уже знает что пидорас это плохое слово и что УБЬЮ ТЕБЯ НАХУЙ это угроза, ты в это запихиваешь "датасет" из 10 примеров и получаешь на 10% выше точность чем ты бы сделал своими руками запихивая 1000 примеров.
Паперы это вкидывания что-то вроде конкатенации трех разных слоев наверх этих тяжелых нейронок как вишенку для получения 0.05% в какой-нибудь фимозной задаче типа распознавания залуп и сосисок на чб фотках
Машоб как профессия или девелоперская специальность - мертворожденное говно, мы просто были в периоде между выпаданием из пизды и пока аппарат поддержания жизни не перестанет работать, дальше весь машоб будут как науку пилить 3 китайца в университете, а работяги максимум делать фит-предикт как это сделано в эппл с createMl или AutoMl, выбираешь задачу что тебе нужна, выбираешь папку с датасетом, получаешь модель на выходе, делаешь импорт модель и ретурнишь струну с % точности и классом что тебе там нужен
Лечащему врачу расскажешь.
Нет там таких утверждений. 50/50 распределяется только идеальная монетка.
Суть не в том, что изучаемый процесс буквально случаен. Суть в том, что мы не знаем (и часто и не можем знать) досконально какой он, потому я и отсылал к Байесу и потому в матералах с приложениями теорвера и прочей стохастики часто есть слова по типу "неопределённость".
Сложно это всё.
>>176235 (Del)
>Материален ли разум/интеллект, состоит ли он из атомов?
А состоит ли из атомов информация? Нет, информация это абстракция с состояния атомов. И не только атомов.
Алсо, если верить Пенроузу, человеческий разум обеспечивается невычислительной физикой, которая ещё не построена, предположительно квантовой гравитацией.
> Ты поди и про теорему Новикова о перцептроне не слышал
Не, не слышал. Но вот щас загуглил, оказывается, суть теоремы в том, что можно применять SGD. Ну заебись, что доказали. А если бы не доказали, но были бы эмпирические данные, что SGD работает, тогда что, его бы не стали применять? Или эта теорема какие-то особые инсайты даёт о количестве шагов или об оптимальном выборе параметров?
Давай как пример симплекс-метод рассмотрим. Он там к чему-то сходится и что-то оптимальное находит. Но вот его верхняя оценка (копипастю из Википедии):
>However, the simplex algorithm has poor worst-case behavior: Klee and Minty constructed a family of linear programming problems for which the simplex method takes a number of steps exponential in the problem size.[9][12][13] In fact, for some time it was not known whether the linear programming problem was solvable in polynomial time, i.e. of complexity class P.
Сейчас, возможно, аспиранты начнут закидывать меня хуями, если вдруг выяснится, что и для него уже что-то доказали чего я пока не знаю, но суть в том, что когда его придумали, опирались не на теоремы. Метод был чисто эмпирическим и так получилось, что он неплохо работал на реальных задачах, поэтому его и применяли.
Или другой пример. Нам ML преподавал правда тогда это еще не называлось ML-ем доктор наук Владимир Данилович Мазуров. И он что-то дохуя фундаментальное доказал, вроде того, что любая аналитическая функция может быть аппроксимирована нейросеткой с какими-то функциями активации с любой точностью. Боюсь соврать опять же, но общая суть теоремы была в том, что нейросетка с фиксированной функцией активации нейрона может в любые другие функции, т.е. её можно использовать для любых задач разумеется, всё это было описано формальным языком, и тебе еще надо быть дохуя доктором, чтобы понять, как твоя задача описывается предложенными формализмами.
Но что это даёт на практике? Да, мы доказали, что что угодно в теории можно решить нейросеткой. Но как именно, как кодировать входной вектор, какую архитектуру брать, как обучать, имеет ли вообще смысл использовать нейросетку?
ML как было эмпирической наукой, так и осталось. Точнее даже не наукой, а инженерным искусством. Вообще, любая инженерия - это не наука, а искусство (да и само слово ingenium именно так и переводится), пусть даже подкреплённое математикой. Математика в инженерии - лишь инструмент. Она тебе поможет понять, правильно ли ты рассчитал ширину колонн когда строишь дом, и не рухнет ли он, но она тебе не скажет, что дизайн дома должен быть именно таким. Так и ML - ты придумываешь что-то, веришь в свою идею, проверяешь, потом математически подтверждаешь результаты. Причем, последний пункт не такой уж обязательный.
> Ты поди и про теорему Новикова о перцептроне не слышал
Не, не слышал. Но вот щас загуглил, оказывается, суть теоремы в том, что можно применять SGD. Ну заебись, что доказали. А если бы не доказали, но были бы эмпирические данные, что SGD работает, тогда что, его бы не стали применять? Или эта теорема какие-то особые инсайты даёт о количестве шагов или об оптимальном выборе параметров?
Давай как пример симплекс-метод рассмотрим. Он там к чему-то сходится и что-то оптимальное находит. Но вот его верхняя оценка (копипастю из Википедии):
>However, the simplex algorithm has poor worst-case behavior: Klee and Minty constructed a family of linear programming problems for which the simplex method takes a number of steps exponential in the problem size.[9][12][13] In fact, for some time it was not known whether the linear programming problem was solvable in polynomial time, i.e. of complexity class P.
Сейчас, возможно, аспиранты начнут закидывать меня хуями, если вдруг выяснится, что и для него уже что-то доказали чего я пока не знаю, но суть в том, что когда его придумали, опирались не на теоремы. Метод был чисто эмпирическим и так получилось, что он неплохо работал на реальных задачах, поэтому его и применяли.
Или другой пример. Нам ML преподавал правда тогда это еще не называлось ML-ем доктор наук Владимир Данилович Мазуров. И он что-то дохуя фундаментальное доказал, вроде того, что любая аналитическая функция может быть аппроксимирована нейросеткой с какими-то функциями активации с любой точностью. Боюсь соврать опять же, но общая суть теоремы была в том, что нейросетка с фиксированной функцией активации нейрона может в любые другие функции, т.е. её можно использовать для любых задач разумеется, всё это было описано формальным языком, и тебе еще надо быть дохуя доктором, чтобы понять, как твоя задача описывается предложенными формализмами.
Но что это даёт на практике? Да, мы доказали, что что угодно в теории можно решить нейросеткой. Но как именно, как кодировать входной вектор, какую архитектуру брать, как обучать, имеет ли вообще смысл использовать нейросетку?
ML как было эмпирической наукой, так и осталось. Точнее даже не наукой, а инженерным искусством. Вообще, любая инженерия - это не наука, а искусство (да и само слово ingenium именно так и переводится), пусть даже подкреплённое математикой. Математика в инженерии - лишь инструмент. Она тебе поможет понять, правильно ли ты рассчитал ширину колонн когда строишь дом, и не рухнет ли он, но она тебе не скажет, что дизайн дома должен быть именно таким. Так и ML - ты придумываешь что-то, веришь в свою идею, проверяешь, потом математически подтверждаешь результаты. Причем, последний пункт не такой уж обязательный.
>По утверждению Жопеншмульцера?
По утверждению Сэра Роджера Пенроуза.
>Суть в том, как можно что то эмулировать не понимая как оно работает, вот.
А кто тебе сказал, что ты эмулируешь «разум» или «интеллект», чем бы они ни были?
Ты просто решаешь конкретные оптимизационные задачи, не более того.
А про разум и интеллект вспоминают только шизики, любящие псевдотермины типа «искусственный интеллект».
>доктор наук Владимир Данилович Мазуров. И он что-то дохуя фундаментальное доказал, вроде того, что любая аналитическая функция может быть аппроксимирована нейросеткой с какими-то функциями активации с любой точностью
Это не он доказал, а собственной персоной Колмогоров.
А вот и нет. Примеров много.
Нютоновская механика дала много предсказаний, вплоть до открытия планет "на кончике пера"
Предсказание красного смещения на основе уравнений ОТО, которое сначала Эйнштейн отрицал и пытался подправить уравнения. Потом появились эмпирические доводы.
Уравнения хромодинамики и слабых взаимодействий, которые трудно проверить и выводы из них проверяются спустя длительное время и постройки дорогих коллайдеров.
Видимо гравитационные поля в мозгах неочень эффективные.
> А вот и нет, пупсик, вся информация хранится на физических носителях или передается в физических средах,
А вот и нет, шизик, информация по определению не может храниться на физических носителях, потому что нематериальна.
Хранятся физические объекты или их состояния.
>а вот твой разум который ее считывает является ли физическим объектом?
Он является физическим процессом, и, судя по всему, невычислимым.
Бля, с вами тут опасно шутки шутить.
>ммм, оптимизации чего?
Да чего хочешь, того и оптимизация.
>Что значит просто, ну создай варп-двигатель все данные у тебя есть.
Тупая лженаука на сегодняшний день.
>И что ты полагаешь выстрелит?
Так шапка треда. Я думаю - GML. Причем это не то, что выстрелит, а то, что уже выстрелило и в ближайшем времени будет на хайпе. А если говорить о том, что еще выстрелить не успело - то я х.з., знал бы прикуп, жил бы в Сочи.
Если рассматривать совсем безумные идеи, то вот на вскидку:
- Spiking neural networks.
Хуета, с которой уже давно непонятно что делать. Биологические нейронные сети гораздо ближе к SNNs, чем к перцептронам. Но тут важно понимать, что биология работает in vivo, а не in silico. То, что биологические нейроны работают иначе, вовсе не значит, что в их детальной компьютерной эмуляции кроется какая-то суть интеллекта. Может быть биология сделала так, потому что из белков рабочую, бегающую и ищущею себе еду нейросеть в голове мышки иначе не построишь. А может быть SNNs действительно хорошо подходят для решения некоторого класса задач реального мира, и их надо позаимствовать по принципам бионики.
- Neuromorphic engineering (сюда же mixed-mode analog/digital VLSI).
Развитие предыдущего пункта. Допустим, мы поняли, что в биологических нейронных сетях что-то есть. Разумеется, эмулировать их на классических цифровых процессорах крайне неэффективно. Почему бы не придумать новую архитектуру?
- Quantum computing.
Это как термояд. Возьми любой участок времени после открытия соответствующих эффектов. Всегда нам скажут, термояд будет через 20 лет. И квантовые вычислители будут через 20 лет. Но они никак не наступают, хотя британские ученые каждый день делают охуенные открытия и уже вот-вот. Возможно, это в принципе не возможно. А, возможно, через 20 лет у нас и правда будут квантовые компьютеры.
- Смесь всего.
Например, quantum machine learning. А почему нет, давайте возьмём еще не изобретенные квантовые компьютеры и подумаем, какие преимущества они нам могут дать в обучении классических нейронных сетей. SNNs over graphs, почему нет? Mixed-mode analog/digital идёт сюда же.
"Если честно, то для меня квантовые вычисления звучит как бредятина" (c) А. Айнштайн
Но ведь понятно что мышление, независимо как оно "реализованно" это эмерджентное свойство мозга. Поэтому бессмыслено говорить что в нейронах нет мышления. Это просто демагогия, чтобы "доказать" что в мозгах вообще нет мышления.
mimo shel
> «Бог не играет в кости», – отстаивая детерминизм, писал неоднократно Эйнштейн своему главному оппоненту, патриарху квантовой механики Нильсу Бору
Чувак, как ты на этой доске оказался? Мне казалось, что здесь интеллектуальный ценз какой-то
> А чем тогда занимался, если не секрет?
Ничем особенным. Думал, что я у мамки самый умный и закодю нейросетку для торгового бота на бирже. Потом как-то быстро осознал, что мамок много и таких же умных у них тоже дохуя и нейросетки так просто не работают. Потом выкатился. Ушел в классическое программирование, постарел. Сейчас вижу, что нейросетки успешно выстрелили с альтернативных направлений.
Я тогда и предположить не мог, что это станет мейнстримом. Тогда нейроускорители были в виде отдельных плат на FPGA, чисто развлекуха для гиков. И тогда еще генетическими алгоритмами увлекались (кстати, а вдруг они стрельнут?)
Сейчас я программер на разработке графовой базы данных. Естественно, она завязана на GML. Сам я не data scientist ни разу, я технический программист, угораю по низкоуровневому кодингу, мои задачи вроде "как разместить 10 миллиардов связей между вершинами в памяти, чтобы было быстрее, чем neo4j". Но data science я тоже люблю.
Есть феноминальные теории, не обясняющие, но позволяющие смоделировать или вычислить изучаемое явление. Например термодинамика обясняет как ведет себя газ при повышении давления и температуры. Нейронная сеть похожа на феноменальную теорию мышления? Усложнение нейронных сетей даст возможность что-то понять о мышлении? О каких-то часных вещах, например о работе памяти?
В ML кроме Python языков нет. Python + С++ (а можно просто С). Тут дело не в твоих языковых предпочтениях, а в том, куда идёт мейнстрим. Ты хоть самый клёвый язык придумай, для карьеры он будет абсолютно бесполезен. Важно не то, на чем ты пишешь, а то, на чем пишут остальные.
>>175352
Хороший заход. Нормальные пацаны действительно выбирают байтоёбство, сам всегда байтоёбом был. Самые нормальные пацаны байтоёбствуют на Хаскелле.
Ты похож на пиздабола больше его. По современным представлениям волнообразно ведут себя микрочастицы. Частица описывается волновой функцией квадрат нормы которой - плотность вероятности нахождения частицы в каком-то состоянии. Сама волновая функция и приводит к волновому поведению частиц, например к интерференции вероятностей, как у волн. Пиздаболить словесным поносом здесь смысла нет, это строгая мат теория.
Чувак, есть очень простое объяснение нетерпимости публичных компаний к речам Гитлера и к 1-D текстовой ЦП. Ты же слышал про "патентный троллинг". Дело в том, что к богатым публичным компаниям постоянно доёбываются всякие нищие безыдейные хуесосы, чтобы нихуя не работать, но отжать у них бабло.
Теперь представь, что ты SEO публичной компании и ты просто создал нейросетку, которая генерирует текст. И в некоторых случаях она может генерировать высказывания Гитлера. И теперь каждый охуевший нищехуесос может харасить твою компанию через суды: мол, я тут написал, "сжигать евреев", а твоя нейросетка ответила - "да, жги", это же ты антисемит, на вот тебе иск, это же ты виноват, твоя нейросетка сгенерировала, или разберёмся в досудебном урегулировании, где ты перечислишь мне бабла!
Понятное дело, нормальным компаниям такое не нужно. Поэтому они и ставят фильтры от хуесосов. Ну что поделать, это мировое зло, оно одинаковое во всех странах.
Твои мозги. Это микрочастица бозон с двумя состояниями
1 Бухать
2 Морду бить
Как у всех бозонов у нее особое поведение: чем больше бозонов находится в определенном состоянии (бухать/морду бить), тем больше вероятность перехода других бозонов в это состояние (бухать/морду бить).
Не.
Из термодинамики следует что при повышении температуры и сохранении объема, будет повышаться давление и крышку чайника сорвет. Она не объясняет ЧТО сорвет крышку чайника. Это уже из молекулярных редставлений ты знаешь что у молекул воды будет расти импульс и количество импульса в секунду передаваемое крышки чайника.
1. Определяешься со своей задачей.
2. Читаешь пейперы под свою задачу (левые пейперы читать осторожно, наука - дело глубокое, можно очень долго разбираться, но абстракты из левых пейперов тоже не бесполезны, нужный пейпер - на уроне понимания, ссылки - на уровне абстрактов)
3. Если мозгов для пейпера не хватает, прорешиваешь заново Демидовича.
4. Если смог закодить пейпер, то поздравляю, ты R&D-программист.
5. Если нихуя не понял, кодируй как умеешь. Если твой код сработает, с тебя самого пейперы напишут.
> Машоб как профессия или девелоперская специальность - мертворожденное говно, мы просто были в периоде между выпаданием из пизды и пока аппарат поддержания жизни не перестанет работать
Этот период равен летам 50-и. Т.е. мы уже сдохнем, пока будет известный нам машоб, а пориджи успеют обучиться и выйти на пенсию, а дети их - обучиться и переобучиться заново.
Ну я в целом тебя понимаю, что машоб - хуета по большому счету, но ты как-то конечность продолжительности человеческой жизни не учел.
Тащем-то математика и развивалась от запросов эмпиристов. Тому же Ньютону интегральное исчисление понадобилось, чтобы объёмы бочек для вина считать ой я сейчас навру, надеюсь, меня говном не заидают. Но суть в том, что наша классическая математика, которая в Демидовиче, пошла от физиков. Типа физики сказали, у нас тут дохуя сложная теория, вообще объяснить ничего не можем, давайте блядь, придумываете теорию, в которой мы калибровочную инвариантность введём. И математики придумали.
Это 20 лет назад было, я уже не помню деталей. Я, возможно, сильно упростил, понятное дело, что аналитическая функция раскладывается в ряд Тейлора по определению и её можно представить хоть хуем с маслом, но этот чувак сделал что-то подобное для нейросеток. Мол, нейросетка может аппроксимировать любую функцию, типа как ряд Тейлора, а то и круче.
Бля, я не ебу, что именно он сделал, но вроде что-то очень значимое с теоретической точки зрения. Не зря же он доктор. Но суть в том, что реальные рабочие нейросетки типа GTP-3 придумали совсем другие люди, которые и не математики, кстати.
Так на данный момент это и есть бредятина.
> суть в том, что реальные рабочие нейросетки типа GTP-3 придумали совсем другие люди, которые и не математики, кстати.
Суть в том, что гпт3 придумали не с нуля, а на основе уже существующих алгоритмов, типа регрессии Надарайи-Уотсона, всё тех же перцептронов итп вещей, родом из математических работ 60х и более ранних. Чтобы гпт3 стала вообще возможной, нужно пройти все промежуточные этапы развития, с нуля нематематики ничего и близко похожего никогда бы не придумали. Кем надо быть, чтобы не понимать этого?
>Есть феноминальные теории
Феноменальные, лол, ахаха.
Феноменологические, возможно, всё-таки, лол?
феноминально!
Ты что, охуел? Как ты смог дожить до 2021? Вы все должны были умереть от старости ещё в середине прошлого века
Сейчас тружусь в финансах на $2.4к и рассматриваю перекат
то, что это лучший курс: https://sberuniversity.ru/learning/programmes/open-programmes/12815/
>На текущий момент только в одной России больше 5 000 компаний находятся в поисках специалистов по Data Science!
>Средняя зарплата в этой профессии составляет ~100 000 рублей и практически не имеет верхних границ
Если по сабжу, то структурирован более-менее нормально, если впадлу гуглить тебе самому. Яндекс Практикум аналогичный +-
Там еще 7000 дата инженеров нужно, причем оба курса срут друг на друга перекрестно
Через года 1.5-2 после вката сможешь прийти на такую же зп.
Если с ds не получится, сможешь вкатиться в аналитики обычные
только надо оно тебе?
https://neural.love/portraits
ГДЕ ОЖИВШИЕ ЖЁЛТЫЕ КОЛОБКИ, СУКА?
которые в котлах ЗАТО померли? там только боевая некромантия поможет
И что тебе не нравится?
и все азиаты получаются
через пару месяцев после курса от сбербанка
конечно, правда. тут все дело в размере данных. Настолько твое лицо отличается от массы других.
Что эта картиночка значит? какие данные использовались? это сервис в Амазоне?
смотря в чем твоя цель.
если бабло зашибать - учи дальше.
если просто понять что тут к чему - погугли курс по Orange от Клейнера.
Искусственному Интеллекту в первую очередь надобно изучать русский и арабский языки потому что все остальные выражаются именно через них.
> русский и арабский языки потому что все остальные выражаются именно через них.
Какая-то на 100% беспруфная херня уровня эфира, плоской земли, чипов от антихриста Билла Гейтса или веры в то, что ЭС может полностью заменить врачей. Узнал тебя по шизоидному посту.
Раньше был жопаскрипт-макакеном, получал 300к/нс за покраску кнопок и тусил, ебал хрюш.
Потом понял, что это всё хуйня — и пошёл в датасцаенс. Проебал год, полысел, вылез геморой, вкатился и уже имею лычку мидла. Работы нихуя нет, за хотя бы ту же зп надо знать примерно в 40 раз больше, но я не унываю — теперь я математик, а не какая-то кодомакака!
В Швятую? Модель перекатиться в ЕПАМ в Прибалтика, если принципиально в цеЕвропе жить
двачую этого
каждый второй "эуропеец" считает своим долгом туда перекатиться и жить с влажными мечтами о блю кард
сейчас офис в Вильнюсе состоит на 80% из СНГшников
Ну не всем же быть сторонником крепкой швабры в жопе, как ты. Есть люди, которым права человека и уровень жизни дороже барина и сказок про калмунизм.
Традиция
Сколько этим эуропейцам плотють?
Ну, всё так.
Среда также влияет на человека, на уровень его жизни. Не зря инженегры и учёные сваливают из РФ даже в нищую Проебалтику - не всем хочется вкалывать за миску гречки или насаживаться жопой на швабру по выдуманному властью поводу. Если вон даже рукопожатого Сачкова обвинили в гос.измене, то что говорить про обычного сотрудника, за которого никто и не вступится.
>Есть люди, которым права человека и уровень жизни дороже барина и сказок про калмунизм.
Странно не любить калмунизм и любить захваченную леваками европу.
>Не зря инженегры и учёные сваливают из РФ даже в нищую Проебалтику - не всем хочется вкалывать за миску гречки или насаживаться жопой на швабру по выдуманному властью поводу
В тех же штатах начинающие ученые получают как грузчики без образования. Охуенно, че.
>Зато интересными вещами занимаются
Основной фокус в науке - это выбивание грантов и увеличение количества публикаций посредством создания ненужного и/или неработающего говна. Исключения есть, но их очень мало.
За интересными вещами по-моему лучше идти в рнд в индустрию.
Потому что его решают такие же вкатуны, как ты.
>Курс GML-бойца: https://www.youtube.com/watch?v=JAB_plj2rbA&list=PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn[РАСКРЫТЬ] (не пугайтесь его английского, чувак из Словении, а сейчас он профессор в Стэнфорде, очередное доказательство, что не важно, насколько хорошо вы говорите, важно, что вы делаете).
Дайте совет как докатиться до таких областей будучи почти нулём даже в линейной алгебре?
Как я понимаю путь такой
- линейная алгебра и алгебра машоба
- машинное обучение
- nlp
- элитлевл типа GML итп
Есть роудмэпы по вкатыванию? Предпочтение стэнфордскому университету, ну может какая годнота с нуля на курсере? Но я глянул на курсере пидорасы всё платным сделали и чтобы пройти полноценное обучение даже в обоссаной ВШЭ нужно плотить 20к зелени (да,я знаю что для СНГ там скидки, но всё-же ценник примерно везде такой).
Программировать умею еличо. Нейронки писал, но это почти не делает погоды тк это были нубовские статьи как работают НС.
Ты не думал что в обычном техническом университете 600 часов математики(учебных всмысле), на математических факультетах наших лучших вузов 900 без разделения и углубленные предметы, в том числе и отдельный по графам, углубленный линал и множество других. Не знаю как у нас машоб, а в оксфорде это 7-8 полугодий предметов по 200 часов каждый(например CV это 3 полноценных курса на полтора года по 4 пары в неделю, т.е. по 250 часов).
РОАДМАПЫ ЫЫЫЫ ГАЙД ПО МАШОБУ ЫЫЫЫ ГАЙД ПО НЛП ЫЫЫЫ КУРСЕРА))))))
В этом то и фишка, писать x=tf.layers.Conv2d может каждый, это даже не навык, это можно вообще не вдупляя с помощью стейт-оф-де-арт моделей весьма эффективно использовать для своих целей в рамках обычного кодинга, но чтобы делать что-то новое наверное ГУИДА С ЮТАБА не хватит как думаешь? Особенно для человека который не знает что такое вектор толком?
Прими нейролептики что-ли. Чего такой злой?
Пишешь же вроде по делу, но потом кидаешь в этот чан говна с кулак.
Я роадмап спросил чисто чтобы не проебаться с белыми пятнами. Твои часы это правда и именно поэтому я сейчас прохожу линейку на курсере и графы втч и прочие околовещи добавил на будущее. То что математики ТАК много проходят в наших ВУЗах - ни о чём не говорит
1. В машобе линейка нужна, а не все возможные теоремы
2. Мир создан западными математиками, а там матан в тех вузах в разы мягче. У нас это изнасилование ради изнасилования. Чтобы только лучшие шизы лезли в области. Ценность коммерциализации практического не оверсложного продукта вообще неосознанна. Осознанно только как создать элиту научную и огородить знание.
>Так никто не знает как работают биологические нейроны.
Так я и не говорил, что кто-то знает, как они работают. Я говорил, что математические работают иначе. А это узнать легко, достаточно сравнить.
> Чтобы гпт3 стала вообще возможной, нужно пройти все промежуточные этапы развития
Конкретно оператору гпт3 их проходить не нужно. Это как сказать, что чтобы стать программистом, нужно разбиться в полупроводниках. Или что психолог должен разбираться в молекулярной биологии, ведь иначе мозг был бы невозможен.
У меня был забавный момент, когда я был студентом. Я нахуячил решение задачи коммивояжёра на ГА. И, так как в тогда нашем ВУЗе царило полное распиздяйство, я принёс эту хуйню своему преподу по дискретной математике и сказал: "Смотри, я написал программу, которая вполне сносно решает задачу коммивояжёра на матрице 500х500 всего за 3 дня непрерывных вычислений на моём пентиуме, засчитай её мне в качестве курсовой! А если ты освободишь меня от контрольной, то я вообще тебе отсосу. Шутка"
Но фишка в том, что в той программе была пара настроек, которые можно было крутить. И ГУЙ был, чтобы это было делать удобно. Типа вероятности мутации, количества точек кроссовера, коррекция сигма-отсечения + красивый график, на котором в реальном времени видно, как меняется среднее и оптимальное значение фитнесс-функции. Короче, буквально параметра 3 для настроек.
Курсовуху мне засчитали даже сосать не пришлось. При этом, я был автором программы и знал её от и до, я все параметры перекрутил по 10 раз. Но преподу UI понравился, он сам решил что-то поднастроить. На следующий день он мне сказал, что программа заебись (сомневаюсь, что он читал мой быдлокод вообще), что он дома покрутил ползунки и получил за 3 часа лучший результат, чем я, будучи автором программы, получал за 3 дня.
Переводя на современный язык - это метаоптимизация. Человек, вообще не зная, что я там набыдлокодил, подобрал лучшие параметры, чем я, при том, что я был автором этого говна. Ну может быть просто потому, что он дохуя проницательный?
Это очень похоже на современный ML. Ты можешь изобрести алгоритм, а мету под него может подобрать совсем другой, который даже особо не в давался в то, как алгоритм работает.
> Чтобы гпт3 стала вообще возможной, нужно пройти все промежуточные этапы развития
Конкретно оператору гпт3 их проходить не нужно. Это как сказать, что чтобы стать программистом, нужно разбиться в полупроводниках. Или что психолог должен разбираться в молекулярной биологии, ведь иначе мозг был бы невозможен.
У меня был забавный момент, когда я был студентом. Я нахуячил решение задачи коммивояжёра на ГА. И, так как в тогда нашем ВУЗе царило полное распиздяйство, я принёс эту хуйню своему преподу по дискретной математике и сказал: "Смотри, я написал программу, которая вполне сносно решает задачу коммивояжёра на матрице 500х500 всего за 3 дня непрерывных вычислений на моём пентиуме, засчитай её мне в качестве курсовой! А если ты освободишь меня от контрольной, то я вообще тебе отсосу. Шутка"
Но фишка в том, что в той программе была пара настроек, которые можно было крутить. И ГУЙ был, чтобы это было делать удобно. Типа вероятности мутации, количества точек кроссовера, коррекция сигма-отсечения + красивый график, на котором в реальном времени видно, как меняется среднее и оптимальное значение фитнесс-функции. Короче, буквально параметра 3 для настроек.
Курсовуху мне засчитали даже сосать не пришлось. При этом, я был автором программы и знал её от и до, я все параметры перекрутил по 10 раз. Но преподу UI понравился, он сам решил что-то поднастроить. На следующий день он мне сказал, что программа заебись (сомневаюсь, что он читал мой быдлокод вообще), что он дома покрутил ползунки и получил за 3 часа лучший результат, чем я, будучи автором программы, получал за 3 дня.
Переводя на современный язык - это метаоптимизация. Человек, вообще не зная, что я там набыдлокодил, подобрал лучшие параметры, чем я, при том, что я был автором этого говна. Ну может быть просто потому, что он дохуя проницательный?
Это очень похоже на современный ML. Ты можешь изобрести алгоритм, а мету под него может подобрать совсем другой, который даже особо не в давался в то, как алгоритм работает.
672x960, 0:41
Кста, обезьяна обходит человека во многих зачах. Что вы думаете об использовании обезьян в задачах ИИ? Есть предположение, что хорошо обученная обезьяна сможет победить пилота истребителя в воздушном бою за счет более хорошей реакции, главное правильно обучить обезьяну.
Посоны, есть готовые маны как распознать обезьяний почерк прописью в тетрадках? Готов вручную обучить модель на нескольких страницах.
У меня 300 страниц ебической прописи на русском. Вручную я буду оцифровывать лет 200.
Может софт готовый есть? Abbyy OCR нихуя не распознаёт пропись и умеет только в обычный текст. Чому кстати? Это же для бизнеса было бы неплохим подспорьем? Или в больницы оцифровывать забористый врачебный почерк. Кстати, а как там обстоят дела? Может кто-то оцифровывает? Кто?
А что тут неясного?
1. Китайцев много
2. Они задрачивают математику
3. Едут получать западное образование
4. Перекатываются назад
5. Развивают свою страну по мировым стандартам
6. ИИ стал главным проектом КПК
7. В образование вливают большие деньги тк это ценится после осознания пиздеца Мао, а в ИИ теперь вкладывают ультра большие ресурсы
8. Рынок больших данных: Китай ебал в сраку заигрывания в прайваси итп (которые на западе все-равно никто не соблюдал)
9. Количество китайских работ и спецов колоссально, а количество перерастет в качество
10. Китайцы очень предприимчивые и доводят теорию в практику (как американцы)
11. Бизнесы реинвестируют в образование и китайскую экосистему стартапов
12. Мне грустно за Россию хотя Путин сам заявлял что обладание сильным ИИ это очень важно
13. Китайцы более усердны
14. Китайцы хотят реванша
в общем запад сейчас может только в запрет технологий и экспорта знания
но я че думаю - пиздец ребята
китайцы в США не могут ассимилироваться - банально даже в сексаче обсуждают инцельство азиатских парней (у девушек ситуация проще)
то есть по факту они чужие и им проще перекотовываться назад в Китай с большим опытом
>12. Мне грустно за Россию хотя Путин сам заявлял что обладание сильным ИИ это очень важно
ИИ это новостной термин, это как робот Федор или еще какая-то срань типа новостей как школьник из Ростова написал ИИ который по телефону определяет есть ли бабло у должника и теперь сбер покупает его патент за 100500 миллионов
С выделением 0.4% бюджета на науку он собственно никакой ИИ не получит, а все кто работают в машобе либо в сбере-яндексе-тинькове-альфе пилят банковские/маркетинговые задачи, а если и есть какие-то люди типа того же патлача из Тинька который пилит свою РЛ-либу, то рано или поздно она станет частью гугла, а он гражданином США. Россия в этом плане даже не начинала, самое лучшее что Путин сделал с образованием - не лез в него и не сломал то что было с совка, оно дико устарело и не работает уже как должно, но еще не омерзительно чтобы никто не шел, хотя через 5 лет уже будет именно так - образование будет гарантировать работу за 30к в ебенях, а без него можно успеть куда-то вкатиться в какой-нибудь диджитал
Глупость, а скорее заказ.
ВСЕ большие инновации в машобе идут из американских компаний и универов. Китайцы из Китая пишут скучные инкрементальные статьи вида "я тут подергал немного и улучшил результат на 0.001%". Пока не начнется поток действительно революционных вещей оттуда, ничего не поменяется.
В свете начинающегося противостояния США с Китаем, непонятно, почему американцы дают китайским студентам доступ к своему образованию и технологиям.
> В свете начинающегося противостояния США с Китаем, непонятно, почему американцы дают китайским студентам доступ к своему образованию и технологиям.
Потому что китаец, сьебавший в США и отучившийся там, видал на хую Китай, социальный рейтинг, товарища Кси, калмунистическую партию Китая и вяликого кормчего Мао заодно. Это уже не ресурс Китая.
Потому что Америка сложная, там нет партии которая всегда права. Тебе не понять.
>Потому что китаец, сьебавший в США и отучившийся там, видал на хую Китай, социальный рейтинг, товарища Кси, калмунистическую партию Китая и вяликого кормчего Мао заодно. Это уже не ресурс Китая.
Какая наивность. Любой китаец за границей находится под наблюдением партии и делает регулярные отчёты. Это фактически шпион. А если он и захочет выебнуться, то его мама и папа на родине потеряют работу а может и анальную девственность. Шантаж через родственников как раз и заставляет отрезать головы в Париже якобы по религиозным соображениям. Просто ставят выбор или ты режешь голову и садишься в тюрьму, либо все твои родственники и тяночка остаются без дома например.
Вот и выходит что проще отсидеть лет 10 за убийство, чем потерять всех на свете.
В более мягкой форме это работает везде где нет демократии.
>китайские коммунисты
Мань, тебе уже обьясняли, что никакого калмунизма там нет и не было. В Китае госкапитализм. А отношение китайцев к калмунизму очень хорошо иллюстрирует факт, что калмунистический термин "товарищ" (тунчжи по-китайски) там давно используется как синоним к слову "пидорас", о чем даже в педивикии написано:
> В 2010 году китайские власти запретили водителям использовать слово «товарищ» в обращении к пассажирам, так как оно используется китайской молодежью для сленгового обозначения геев.[6]
>>181751 (Del)
>Это также похоже на историю с термином "gay"
Да, это именно термин
>который, как гласит распространенная версия его происхождения, является аббревиатурой выражения "good as you"
Ты это с вандерзина спиздил? Или с хабра?
> Мир создан западными математиками, а там матан в тех вузах в разы мягче
Если мы говорим про адерградов -- да. но мир создан не ими, а людьми которые спят несколько часов в сутки и хуярят по пейперу в неделю после того, как 3-6 лет на PhD прошли в своём филде путь от античности до завтрашнего дня
>Сколько получает синьор?
Столько же, сколько и в других областях айти - 200-250к в ДС, 150к в мухосранях.
а чо мало то так? пориджи рынок уронили?
Почему у тебя такие фантазии, ЭС петух? Ты пидорас что ли?
Если ошибся тредом, перенаправьте
Будьте добры, расскажите, где у нас на этой пикче функции активации? Кроме софтмакса никаких? Или после фид форварда всё же имеются какие-то?
Заранее благодарю.
> Будьте добры, расскажите, где у нас на этой пикче функции активации? Кроме софтмакса никаких?
Только в feed-forward элементах. Остальное - нормализация и аттеншены.
В керасе ищи параметр sample_weight в fit.
В пайторче можешь просто лосс домножить на вектор весов перед усреднением по батчу.
Благодарю.
С изображениями я уже понял, что надо пропустить через классификатор, но забрать данные из более близких к выходу слоёв, а не с самого конца и потом сравнивать
С чего лучше всего начать чтобы не проебаться и хорошо знать тему? Критерий: много теории, много прикладного. С чего вы начинали?
Не знаешь ли, в этой книге много нового относительно "Восстановление зависимостей по эмпирическим данным"?
Что с этим акцентом боже
Не знаю, эту не читал.
> в этой книге много нового относительно "Восстановление зависимостей по эмпирическим данным"?
Много. По-сути, законченная теория с примерами применения в виде алгоритмов типа SVM и бустинга. В советских книгах только начальные этапы развития теории.
Это не акцент, это он пересосал слишком много хуев и от изношенности рта испортилась дикция. Потасканный словенский рот и потасканный парень в машобе.
Видео-генерация это логичный следующий шаг. При таком-то качестве картинок, принципиальная возможность должна быть. Но там, видимо, действительно нужно понимание 3д.
Пока что генерация видео не работает.
Ребята с гверновского дискорда обсуждают на реддите как сделать основанную на тегах генерацию ecchi хентай lewd рисунков - как TADNE плюс по желанию соски, вагины, анусы и всё остальное. Трапов тоже можно. Text-to-image генерация
Там предлагают использовать deepdanbooru для кластеризации. Кто-то уже пилит nsfw модель stylegan3, но у него получается хуево, да и сам стайлган отстой если честно. Там походу придется делать новый vqgan по датасету от Гверна, на самом мощном tpu, какой возможен. Если в комьюнити есть миллиардер или мультимиллионер, то пусть его попросят скинуться на аренду суперкомпьютера. Иначе хз как делать
>миллиардер
>помогать бичам генерировать фута-порно, цена за аренду тпу для этой цели стоит дороже чем нанять 10 художников чтобы они высирали НОРМАЛЬНЫЕ а не пикрелейтед арты
Вопрос из любопытство: не так давно пророчили будущее за топологическим анализом данных, а до взлёта популярности нейросетей -- за генетическими алгоритмами.
Откуда берётся утверждение про то, что GML -- это вот прям будущее? Ведь куда вероятнее, что, как и топологический анализ данных, это будет отличный инструмент, но в своей нише.
Ради науки же
Хуёво ищут. Ни одной в тредике
Будет генерировать искусство.
Прочитав статью на хабре, я создал дополнительные признаки. Но как они мне могут помочь предсказывать, если я не смогу их посчитать для новых данных (кроме признаков из даты)?
Это не есть хорошо. Я всегда недолюбливал гуков за то что они едят всякую дрянь и становятся переносчиками инфекций. За то что срут на улицах и тд. А китаёзы вдобавок наглые, ни дать ни взять узкоглазые жиды. И разносят везде свой коммунизм, такими темпами скоро и Тайваню придет пизда.
Почему белые люди не могут сами двигать прогресс? Мы же блядь еблая раса, арийцы. Китайцы еще не так давно в 90-х ковырялись в говне и торговали на российских барахолках. Американцы, европейцы, даже русские - это наоборот сверхчеловеки, создатели всей современной цивилизации и науки, изобретатели компьютеров и интернетов. Почему они отстают от желтожопых-то блять?
>нанять 10 художников
Зачем, если можно за те же деньги имитировать 10 тысяч, причем разнообразных и с самым высочайшим скиллом.
Не трясись, хуйдожник. Лучше начинай осваивать нормальную профессию.
Идёшь нахуй по причине раш хацкер.
ML он блядь захотел как жёлтый белый человек, иди 1С конфигурировай
https://github.com/l4rz/stylegan2-clip-approach
Я правильно понимаю, что берется обученный на чем-то клип, извлекается вектор из входящего текста, и он потом идет на вход стайлгану для модели лиц? Но почему это работает, если клип обучали не только на лицах? А если обучить клип только на датасете лиц?
Не совсем. Нейронка начинает в рандомном месте координат модели gan, затем делает картинку из тензора, clip смотрит на картинку и дает оценку насколько это похоже на введенный текст, и эта оценка возвращается в роли функции потерь. Дальше оптимизатор шагает в сторону где скорее всего оценка будет выше и все по новой.
Ну и нах твою батю забыли спросить?
да а еще мне не нравится их английский
и то что на своем собачьем часто между собой разговаривают
>извлекается вектор из входящего текста, и он потом идет на вход стайлгану для модели лиц?
Нет, там подбирается входной вектор для стайлгана такой, чтобы клип говорил "сгенерированная картинка соответствует тексту"
>Но почему это работает, если клип обучали не только на лицах?
Потому что от клипа нужно только сказать, изображена ли на картинке "девушка в шляпе" и какая из двух картинок лучше под это подходит.
>А если обучить клип только на датасете лиц?
Для начала найди такой датасет из лиц и соответствующих описаний.
>Я всегда недолюбливал гуков за то что они едят всякую дрянь и становятся переносчиками инфекций
Если ты про корону, то хуевый из тебя дата-сатанист если ты в spillover версию веришь. Там десятки фактов которые ее опровергают, но все поверили что:
1)Главная баба-вирусолог китаянка не пиздит
2)Британский проверяющий у которого персональный контракт с вуханьской лабой на 39 млн долларов не пиздит
3)Правительство китая, которое по запросу Австралии сделать перепроверку недавно ввело санкции на торговлю с ней, не пиздит
4)Не знаешь про gain-of-function research, что гигаочевидно и произошло
5)Ни одного ученого из двух других лабораторий того же класса(Калифорния и Техас) не пустили туда
Короче там еще кучи говна, но верить в ебучий спилловер на севере Китая от заразившихся от южных летучих мышей южных панголинов которых вообще никогда не было на вуханьском рынке - надо просто быть дурачком
Но ты прав, гуков при теории что они проебали безопасность и выпустили более заразную созданную версию короны стоит ненавидеть даже сильнее, ведь проебалось не быдло голодное что любит кал жрать, а специалисты и правительство. Правда весь мир поддержал и закрыл глаза
Это когда я spill over лицо твоей мамки. Привет ей кста
Ну извините что русские генетики и вирусологи которых запретил еще Сралин не придумали как назвать явление когда инфекционное заболевание сталкивается с новым видом хостов(извините носителей), мутирует и начинает вызывать заболевание с новыми характеристиками.
Измените, я точно попал в эс-тред?
Какую литературу для этого почитать? Может есть статьи по схожей тематике?
>Хочу
Мало ли что хочешь. Ты здесь никто. Иди в жопу! урод
>литературу для этого почитать
Ахахаххахахах
Не, серьезно чел, ты ёбик
Просто натренируй трансофрмеры, скажем последнюю пиздатую модель nlp типо берта, запиши всю инфу всей команды после токена начала текста, в конце запиши инфу противника, поставь спец токен, "победа/поражение", конец спец токена и токен конца текста, набери такой датасет, и вуаля, ты охуенен.
Ты понимаешь что любое предсказание события выше 50% даже 50.00000001 - это уже бесконечные деньги
это при условии что у тебя уже бесконечное количество денег
Это не так работает. Коэфы разные, у фаворита коэфы всегда ниже чем у аутсайдера
Какая разница? Есть у тебя любой набор событий и ты точно знаешь что выше половины твоих предсказаний верны - ты можешь делать ГАРАНТИРОВАННО деньги, просто разбивая на десятки ставок чтобы сыграла любая и ты был в профите
> Какая разница?
Очень большая. Нужно угадывать сильно больше 50%. Лет 7 назад пробовал угадывать исходы матчей MLB (бейсбол, не БЛМ), получалось предсказывать больше половины, но при имеющихся кэфах всё равно итоговые результаты были в минус (подсчитывал без реальных ставок, оказалось что оно того не стоит, чисто лудомания). Там тоже не дебилы сидят.
Ой блин, как до тебя донести, ты можешь угадывать хоть 95% что собственно и является вполне обычным рейтом не рискового инвестора, но между УГАДАЛ и ТОЧНО ИЗВЕСТНЫЙ РЕЗУЛЬТАТ есть гигантская разница, условно если с рулеткой взять - ты можешь угадать одно из 36 полней и получить 35х своих ставок, из 100 баксов сделав 3500+100, и это будет 100%, второй раз ты уже не угадаешь и проебешь все, это будет 50%, итог при 50% - проебано 100 баксов. Если же ты будешь ставить на 1/3, черное/красное то все упирается в реальный рандом(предположим казино идеально честное), может черное и меньше 18 выпадать хоть 20 раз к ряду, все вероятности возможны.
Но если у тебя есть всегда гарантированное 51% знание того что выпадет, ты можешь играть пока не начнешь умножать свои стартовые 100 баксов до бесконечности не имея шанса все проебать. Вероятности уже не работают, так как у тебя всегда есть возможность выйти с плюсом и играть так пока не посинеешь
>>196913
ладно, хуй с тобой, давай я тебе опишу.
И так, у тебя есть бой двух якодзун, на фаворита коэф 1.2, на второго 2.35
Ты на 75% уверен, что победит фаворит.
Если ты победишь, твоя ставка иксанется на 1.2 (или сделает +20%), если проиграешь — иксанется на 0 (или сделает -100%)
(1.2 - 1) x 0.75 + (0 - 1) x (1 - 0.75) = -0.1
Мат ожидание: -10% от ставки (то же самое, что x0.9)
Тебе нужно заходить только в такие ставки, у которых
X x Y > 1
(где X это иксы победы, а Y это % в абсолютных величинах)
Иначе ты будешь сосать. Хоть на 95% будешь уверен, ты пососёшь, если мат ожидание отрицательное
https://nyaa.si/view/1384820
https://rutracker.org/forum/viewtopic.php?t=6053436
Скачиваешь датасет (пикчи с разметкой по частям тела, охуенно), обрабатываешь этой тулзой https://github.com/Sleepychord/cogdata
Тренируешь вот с этим кодом
https://github.com/THUDM/CogView
Китайский генератор на трансформерах - это лучшее, что было создано в области ML за весь этот год. По сути это DALL-E, опубликованный для широкой публики, проект просто улёт, охулиард параметров и высочайшая связность в пикчах, а к декабрю обещают следующий апдейт с ещё более лучшей генерацией и повышенным разрешением. У CogView открытый исходный код и там возможна подготовка кастомной модели. Чел говорит, для приемлемого результата нужны параллельные вычисления на нескольких A100. На Kaggle с одним GPU такого явно не сделаешь. Поэтому спрашиваю, может у кого из вас есть хотя б подписка на колабе, чтоб погонять кастомную виабу модель и нахуячить как можно больше слоёв.
Было бы охуенно если это так. Это Алиса, - плюшевый медвежонок который превратился в девочку, а до этого превращался в парня т.к. это его реальный гендер.
Чувак, секс это селектор технологий в мире лысых обезьян
>ЭС-шизик, долбич постящий картинки с зумерами и воодушевленный дрочила на синтетический хентай
Вот что бывает, когда технологиями начинают заниматься пориджи.
Слава Дарвину, хотя бы в нормальную науку массово не лезут.
А что он делает? Какой сигнал он подаёт, когда сбрасывает данные?
>Китайский генератор на трансформерах
Китай базированый и редпилленый, за ним будущее. Жлобы openai зажали код dall-e под предлогом того, что юзеры будут цп генерировать. Они просто хотят стричь бабло со своим проектом. Кринж, да и только. А исследователи университета - чеды, выложили модель на вебсайт в открытое тестирование.
Америка и её МЛ индустрия - кринжевые, а китайские эксперты based. Нефритовый стержень, твёрдый уверенный шаг! Не желтый медведь из мультипликации империализма
Это гигачеды машоба. Те, кто развивают науку и создают реальные проекты, а не захламляют arxiv бумагами для подтирания сраки.
Вам до них словно раком до луны, пориджи. Америка капитально всосёт в разработке ИИ, потому что у куколдской америки нет таких гуру (зато есть affirmative actions и Black Lives Matter).
Я тебя сдам тащ майору. Будешь сидеть в сизо, свистеть и пердеть.
Канал об твоей мамке, вон она кстати строчит минет сразу двум казахам
> базированый и редпилленый
> based.
Слова-детекторы плюмодебила.
>>197384
> Вам до них словно раком до луны, пориджи. Америка капитально всосёт в разработке ИИ, потому что у куколдской америки нет таких гуру (зато есть affirmative actions и Black Lives Matter).
Мань, весь современный машоб создан в США. Китай может только доедать за американцами, ни одного алгоритма в Китае не создали.
Какая-то муть, уверен что китайцы потом сделают более выдающийся аналог.
Зумеры придумали мультитаргет? Или в чём там прикол, в распределённости?
> анонсировал
в смысле сказали, что у них есть? или уже выложили спеки? или выложат спеки такого-то числа?
Кто такая, чем знаменита? Чего добилась?
Соглы, нормальная наука должна быть основанной будто красная таблетка.
Забей на этих куколдов, китайцы сделают в сто раз пизже.
Ну ты спросил, братишка. Все зависит от того, какой именно звук тебе нужен. Для речи обычно генерят mel-спектрограммы, потом из них вокодером делают аудио.
А я просто напоминаю, что эпидемия COVID-19 - это спланированная репетиция, это подготовка к Новому Мировому Порядку, принадлежащему владельцам технологий нейроинтерфейсов и ML.
https://www.youtube.com/watch?v=csP3jkSrWL4&t=8090s
> эпидемия COVID-19 - это спланированная репетиция, это подготовка к Новому Мировому Порядку,
ZOG там -> и таблетки пить не забывай.
Для простых смертных - ничего хорошего.
Наиболее вероятна стерилизация через вакцинацию для уничтожения большинства населения.
Разделение человечества на господ - омолаживаемых суперлюдей с суперинтеллектом, усиленным ИИ через нейроинтерфейсы, и рабов, нужных лишь для потехи суперлюдям.
>>198677
>ZOG там -> и таблетки пить не забывай.
Конформистская серая масса порвалась.
> Наиболее вероятна стерилизация через вакцинацию для уничтожения большинства населения.
Наиболее вероятно что ты зумер, наслушавшийся каких-то дегенератов в интернете. Тебе самому не стыдно таким опездолом быть, куропатка?
>Тебе самому не стыдно таким опездолом быть, куропатка?
А тебе не стыдно верить в официальные версии, конформист?
Зум, а кто сказал, что я во что-то верю? Я, в отличие от тебя и тебе подобных, способен различать факты и домыслы. Это для тебя разница неочевидна, потому что ты поридж.
>>197384
Идите сделайте лучше прогноз для онлайн покера, рулетки или хз еще что
Почему у тебя там бомбит от молодости? Ты сельд?
Но ведь китайские бумаги самые содержательные.
А это грядёт оно здесь, в твоей палате?
>расчетов турбин ракетных
>нужно быть взрослым человеком с работой и образованием
И зарплатой 50k рублей)))
https://colab.research.google.com/drive/1y3Vt39A5KSNFRa6Z2bCqDHxteZSVH9NC?usp=sharing#scrollTo=LHLiO56OfwgD
https://agc.platform.baai.ac.cn/CogView/index.html
Вся text-to-image технология на сегодняшний день?
Серьезно????
Хррр-тьфу
Они должны были уже пилить генерацию связных 10-минутных роликов по синопсису. Ссаные пориджи. Обмажутся повесткой, ботинки ниггерам целуют и в жепы с ними ябутся
Да, оказывается и сладкохлебный Улус джучи подсуетился:
https://rudalle.ru/
урусский Dall-e.
По результатам высокий разброс: иногда годные фэйки, иногда хуита голимая.
В веб версии приходится ждать час, ночью укладывалось в пару минут.
Colab с K80 оче медленно, с batch-ем даже не успевает за отведенные 6 часов.
Kaggle вроде работает, пока только начал тестировать.
Могу ли я использовать BERT как энкодер, а декодер при этом соорудить самому? Если да, то:
а) Чем нужно воспользоваться в хаггингфейсе для этого, у какой берт модели есть для этого интерфейс?
б) Как это реализовано? Ведь классически обученный берт никакую информацию для какого-то энкодера не готовит.
Есть только идея атеншн самому написать, и сделать декодер сугубо на нём.
Спасибо.
>>201693
Тут самое смешное то, что технологии вперёд двигают западные энтузиасты или небольшие конторы типа eleutherai, а отечественные ололо айтигиганты способны только доедать за бездуховными сжвблмлгбт пиндосами.
>>200756
> Обмажутся повесткой, ботинки ниггерам целуют и в жепы с ними ябутся
Ага, а наши за ними доедают. Что-то своё сделать в принципе неспособны. Только зафайнтюнить западное на западных видюхах на русскоязычном датасете и выдавать за прогресс.
Там у меня проблема ещё в том, что выборка у меня очень маленькая, поэтому на то чтобы обучить даже один полноценный слой атеншна её не хватит (1000 элементов), мне бы хотя бы простой RNN декодер обучить. Поэтому возникает вопрос - а что бы мне такое передавать в декодер, в качестве hidden state'а.
Быть может просто метку, соответствующую CLS токену?
Заранее спасибо.
>зафайнтюнить западное на западных видюхах на русскоязычном датасете и выдавать за прогресс.
Самое интересное, что говноед Gwern уже собрался файнтюнить именно этот урусский dall-e, для генерации хентай пикч.
Трудно ведь сделать так, чтобы трансформер охватывал сразу все два часа полнометражной ленты? А мы сделаем по-другому, переход от общего к частному. Сначала генерация серий фейковых скриншотов, по паре для каждой сцены - кадр для самого начала, и кадр для конца сцены. Они, разумеется, различаются, но не так чтобы сильно - просто начало сцены и ее же конец. По содержанию сцены тоже различаются: в начале у ленты такие сцены, какие бывают в начале фильма, под конец - такие как бывают в конце фильмов. Затем добавлять промежуточные моменты между первыми и последними кадрами. Потом уже заполнять всё между ними плавным движением, как промежуточные кадры в анимации. Актёры, камера - всё движется и делает что-то. Потом на это накладывается звук в соответствии с картинкой.
Ну и конечно, для одного фильма все сцены более или менее связаны между собой (одни и те же участники, но с вариативностью). Тогда это действительно будет один и тот же фильм, а не просто подборка коротких роликов. Для ранних экспериментов лучше взять самый простой жанр типа японского AV. Я даже не знаю что может быть проще чем сгенерировать JAV кино на два часа, да даже китайский код на трансформере справится с этим на TPU девайсе. Лучше даже сначала делать лоурез, потом апскейл до 720p или еще больше.
Да иди нахуй. Чем математика отличается от других вещей, которые спокойно читаются в онлайне? Только наличием обиженок типа тебя наверно.
У меня TADNE + Clip периодически выдавал почти голых лолей, хотя я всего лишь вводил тег который с ними часто совпадает (micro bikini).
Когда тебя ебали - что на жопе написали?
дошкольник ебаный, иди спатб ложись пока ремня не дали
Ебать ты даунинг-крюгер конечно. Вот ведь все дураки, в вузы идут зачем-то
>дабы вкатываться потом
Вот ключевое отличие
Да меня просто выбешивает состояние материалов по математике в ру сегменте. Википедию открываешь и чувствуешь всю ту ненависть, с которой её заполняли. Где вот эта вся блять гордость россии, мат школы и победы в олимпиадах? Где блять? Нет нахуй, тебе ответят пиздуй в мааскву за знаниями. Да почему вдруг то? Я хочу сам обучаться, но нет. ИЛИТНОЕ ЗНАНИЕ. Да хули там элитного? но спасибо, посмотрю что они предлагают
Да ты заебал
Хуитка какая-то. Написал "nude loli" нейронка начала рисовать какой-то дойкодрочерский пиздец. Решил перефразировать, блокнот упал с ошибкой "Out of memory".
Надо было с санкаку дб брать.
Санкаку это педосайт, удивительно что его до сих пор не пидорнули с хостинга и домена.
>блокнот упал с ошибкой "Out of memory
Проблемы нищенок без про подписки.
> Санкаку это педосайт, удивительно что его до сих пор не пидорнули с хостинга и домена.
Ни законами США, ни законами Японии лоликон не запрещен. Учи законы, чтобы не быть баттхертом.
Я бы сделал так:
1. Сделал бы претрейнинг на общей базе данных.
2. При вводе тегов для генерации искал бы в дб пикчи содержащие данные теги.
3. Дале подавал рандомный результат поиска в автокодеровщик, чтобы он сделал что-то похожее, но не совсем.
Курса мало. Можешь попробовать Mathematics for Machine Learning https://mml-book.github.io/book/mml-book.pdf, но этого тоже мало.
Вот эти вот разговоры о том, что ИИ заменит кого-то на работе, тех же кодомакак- это даже не просто какие-то сказки, которые время опережают, это ведь буквально бред ебучий, если ваши нейросети высирают это.
1 пик - "большой член"
2 пик - "марио"
3 пик - "Путин"
Не пиздел бы.
>>202414
Долбоеб, ты подпиши хоть, по какому описанию она этот бред высирает.
По "древнему городу" можно заключить, что она еще способна высрать что-то отдаленно похожее - мол, какой-то древний булыжник посреди равнины, э-э.. ну, типо, древний город. А может высрать что-то типо первого пика >>202393.
Буквально каловый черный ящик, который рандомно высирает или полнейший бред, или полубред. ВАУ! Скоро нас ИИ заменит-то, с "таким" прогрессом?
Твоя критика не обоснована.
Так нонейм какой-то. Очевидно, что в датасете его примерно нихуя.
>>202442
Шизик, успокойся. 5 лет назад еле-еле смогли черно-белые лица 28х28 генерировать. Если где-то и был прогресс, так это в генерации изображений.
“Академическая чб фотография домов и улиц постсоветского города, лишенного всякой надежды”
>5 лет назад еле-еле смогли черно-белые лица 28х28 генерировать
И? Долбоеб, они сейчас в половине случаев не могут генерировать самые простейшие запросы, что-то немного тяжелее, чем "голубое небо зеленое поле". Да и лица они генерировать толком так и не научились. Пиздец прогресс, ору. Шизоид, угомонись уже, просто прими это как факт, что твоя хуйня - абсолютно сырая, ей нужно несколько десятилетий, чтобы хоть что-то из нее серьезное вышло. Другие бы воспряли духом - значит, есть, над чем работать, что улучшать, но шизик почему-то считает своим долгом копротивляться и называть этот кал "прогрессом", хех.
https://twitter.com/danielrussruss/status/1455972427712765954
Оверфиттинг и плагиат. У рузке вообще руки из жопы растут.
Ну что ж, зато эта херь может генерировать NSFW (пикрелейтед сгенерированы мной). Лоликон я так понимаю тоже сможет.
Вы видите копию треда, сохраненную 16 мая 2022 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.