Двач.hk не отвечает.
Вы видите копию треда, сохраненную 16 мая 2022 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
jure-6.jpeg892 Кб, 1037x1555
НЕЙРОНОЧКИ И МАШОБ ТРЕД №42 /ai/ 2160975 В конец треда | Веб
И я в очередной раз ворую этот тред и в очередной раз доказываю, что GML - это круче, чем просто ML.

Курс GML-бойца: https://www.youtube.com/watch?v=JAB_plj2rbA&list=PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn (не пугайтесь его английского, чувак из Словении, а сейчас он профессор в Стэнфорде, очередное доказательство, что не важно, насколько хорошо вы говорите, важно, что вы делаете).

Aphla Fold: https://deepmind.com/blog/article/AlphaFold-Using-AI-for-scientific-discovery И ведь это был GML.

Data science (общий): https://t.me/opendatascience
GML: https://t.me/graphML
Железо: https://t.me/pdp11ml

Предыдущий >>2143396 (OP)
2 2160979
>>160975 (OP)
Провёл ОПу вялым по губам.
3 2160982
>>160979
Э... я бы принял, но как твой вялый к моим исследованиям вообще относится? Может сразу к собакам со своим вялым, собаки любят вялые.
4 2161268
>>2160961 →

> моя попытка сделать суккуба


ААААА блядь! Гигер изнасиловал Кроненберга! Мне эта хуйня теперь будет сниться по ночам
5 2161277
>>160975 (OP)

>jure-6.jpeg


Что за анальник?
6 2161377
>>161268
Там должна была быть девочка с кожистыми крыльями и рогами. Тогда давай сам и пили норм систему, умник.
Стикер383 Кб, 512x500
7 2161379
>>160975 (OP)
Нихуя у этого чувака из Словении там сантиметров Хирша! Охуеть... А с виду обычный паренек с ломаным потешным английским.. А там - ого-го нахуй!
16296218868380.png449 Кб, 1400x1100
8 2161381
ИТТ
9 2161383
>>161381
Молодцы ребята, о физкультуре не забывают! Не то что их ленивые родители.
16308150083840.jpg119 Кб, 592x532
10 2161385
>>161383
что это за дурацкая каша на завтрак, где мой поридж???
11 2161389
Доел поридж, взял в руку симпл-димпл и спиннер, налил в бутылочку смузи, готов к чтению паперов. Буду саентистом. Мам, подожди, работа подождет. У меня тут паперы.
1632065500105.png57 Кб, 455x311
12 2161395
>>161385
Что сказать-то хотел?
13 2161397
Ого! У него темная тема! Крутыш..
14 2161398
>>161397
Боевые картиночки всё, порридж?
15 2161437
>>161379

>Нихуя у этого чувака из Словении там сантиметров Хирша!


Умеет пиариться.
16 2161451
>>160975 (OP)

>Aphla Fold


А существуют ли вообще доказательства, что Alpha Fold воссоздала структуру реальных белков?
Существуют ли быстрые лабораторные методы проверки вероятной структуры на подлинность?
17 2161456
>>160975 (OP)

>очередное доказательство, что не важно, насколько хорошо вы говорите, важно, что вы делаете


Но если вы чёрная лесбиянка мусульманка, то не важно даже то, что вы делаете.
18 2161483
>>161389
у тебя 5 рук?
19 2161578
Есть ли шанс у русского мл спеца вкатиться в разработку алгоритмов для систем безопасности в китайском санатории для уйгуров?
20 2161591
>>161451

> А существуют ли вообще доказательства, что Alpha Fold воссоздала структуру реальных белков?


Да, все в гугле легко находится. На международном соревновании где была структура нового белка которую нигде не публиковали нейронка воссоздала ее максимально точно.

> Существуют ли быстрые лабораторные методы проверки вероятной структуры на подлинность?


Нет, таких методов нет и в ближайшее время не предвидится, иначе смысла бы в этих соревнованиях и самом alpha fold бы не было. Но есть крайне дорогие и долгие методы, и пока не было ни одного расхождения между предсказанной и реальной структурой.
21 2161602
Долго вчитывался в папер и пытался понять схему.
Потом понял что лучше пойти потеребить своего порнослоника. (такой слоник у которого "уши" это растянутая мошонка, а "хобот" реагирует только на порно и больше ни на что другое). Потеребил. Да нахуй вообще нужен ваш мл. Харэ страдать хуйней, аноны, тред можно закрывать.
22 2161605
>>161379

>ломаным потешным английским



Он, кстати, нормально говорит. В плане построения предложений, словарного запаса, грамотности. Я бы даже сказал, что он гораздо лучше меня знает английский хотя даже залупа коня Будулая лучше меня знает английский. Хоть иногда и строит предложения в стиле Simple English, но зато всегда грамотно.

Его произношение - это лол, конечно. Я раньше думал, что так только в клюквенных голивудских фильмах про СССР бывает. И ведь он постоянно общается с англоязычными, очевидно видит, что они не так говорят.

Короче, хуй знает, почему у него такой акцент. Но быстро привыкаешь, на самом деле, через некоторое время вообще перестаёшь замечать.

>>161437
Так, братишка, кидай ссылки на свои пейперы. Мы тебя бесплатно попиарим, исправим эту несправедливость, чего ты стесняешься?
23 2161607
>>161605
Пишу папер на алгоритм по добавлению хуёв голым бабам. Всовываешь туда фотку, он делает трапа. Пишу с хуем в руке, одной рукой текст набираю а другой подрачиваю? Китайцы тоже задают жару в машин лернинге, ух
24 2161617
>>161451

>А существуют ли вообще доказательства, что Alpha Fold воссоздала структуру реальных белков?



Вопрос немножко некорректно задан. Ты же должен понимать, как устроено машинное обучение. Есть обучающая выборка (в которой реальные и уже открытые белки), есть контрольная выборка (в которой тоже реальные и уже открытые белки).

Если модель, обученная на обучающей выборке, предсказывает результаты контрольной выборки, которая в процессе обучения не использовалась, значит модель не плоха, в чём проблема?

Я даже больше скажу. Даже очень хуёвая модель может воссоздавать структуру реальных белков, если они были в обучающих выборках, она тупо может их "запомнить". Т.е. формально она уже пройдёт твоё требование "воссоздания реальной структуры". Фишка в том, что к рабочим моделям гораздо жестче требования, чем ты только что написал. Они должны корректно предсказывать даже те варианты, которых не было в обучающих выборках.

Или твой вопрос в том, открыла ли AlphaFold фолдинг новых белков, который был не известен до неё? Таких данных у меня нет. Это надо проверять in vitro, это дохуя дорого. Спроси у >>161591, может он подгонит ссылки.

Ну или у тебя совсем тонкий вопрос. Допустим, AlphaFold успешно научилась фолдингу некоторых известных классов белков. И успешно предсказывает фолдинг всех белков из этих классов, пусть даже еще не открытых. Существуют ли другие белки, которые фолдятся принципиально иначе и AlphaFold вообще не в состоянии что-то там предсказать? Ну, бро, это возможно... Но как ты вообще представляешь возможность проверки этого утверждения? Ну, может, умеет, а может вообще не умеет. Проверить это пока мы сами такие белки не открыли, вообще нет никакой возможности.
25 2161631
>>2160995 →
Я готов выслушать конструктивную критику.

Объясняю принцип своей шапки.

В ней ссылка всего на один (пусть даже довольно продолжительный) курс лекций по GML от весьма хорошего преподавателя. Причем, весьма современный курс от 2021, прочитанный в хорошем универе (Стендфорде). Тебе нужны ссылки на 100500 курсов? Когда анон будет всё это читать?

В его курсе по GML есть всё, включая классический ML. Есть ссылки на литературу, ваш божественный backpropagation он тоже рассматривает.

Там есть немного чисто про графы, включая PR и тому подобное. Ну, промотайте, курс. В целом, он про machine learning.

Я добавил ссылки на телеграмм-каналы про:
- ML-общий - там 45 тысяч подписчиков.
- GML для анимуёбов, там такое: https://people.csail.mit.edu/keyulux/pdf/thesis.pdf
- ML-железо.

Чего тебе не хватает, что бы ты хотел подкорректировать в рамках рассматриваемой темы?
26 2161645
Собираюсь пилить PAPER по AV-GAN (генератор видео для взрослых в виде коротких 3-10 минутных роликов, с кастомизацией через текстовую строку с тегами для clip).

Подскажите куда залить pdf чтоб сразу не пидорнули, мне чисто чтоб расшарить.
27 2161648
>>161631
Я на хую вертел твой гмл, даун. Вечно обмажутся графами и в жепы ябутся
image.png907 Кб, 1920x1009
28 2161649
>>161631

>- GML для анимуёбов, там такое


Пиздец
29 2161664
>>161605

>Так, братишка, кидай ссылки на свои пейперы. Мы тебя бесплатно попиарим, исправим эту несправедливость, чего ты стесняешься?


Пососи бибу, Хиршепетушок.
http://www.math.nsc.ru/LBRT/g2/english/ssk/presse.html
Вот тебе для ознакомления одна из многих критик ебучей наукометрии.
У самого Гёделя Хирш ниже, чем у современных ноунейм петушков.
Ах да, тут же написано по-русски, конечно, значит, это долбоёбы всё написали, не верь им, Хиршепетушок.
30 2161711
>>161672 (Del)
Просто эс шиза пидорнули с работы жс макакена и перевели в це европейскую лахту ограничивать развитие искусственного интеллекта, впрочем ничего нового.
31 2161734
>>161733 (Del)
С чего ты взял что нейронки имеют хоть какое то отношение к либерастам или гомунистам? Совсем долбаеб? Технология нейтральна и ее могут использовать и те и те если им религия позволит, конечно же.
32 2161792
>>161737 (Del)
наверное, потому что любой человек с айсикью выше 70 или либерал, или умеренно-левый, а чтоб МЛем заниматься хотя бы двухзначный айсикью нужон
33 2161794
>>161792

>трехзначный



фикс
34 2161808
>>161794

> > четырехзначный



фикс
35 2161811
>>161792
А любой человек с айкью выше 130 сможет понять, что ублюдки леваки уничтожают Европейскую цивилизацию и будет поддерживать правых.
36 2161816
>>161792
>>161794

>а чтоб МЛем заниматься хотя бы трехзначный айсикью нужон


Учитывая процент невоспроизводимых работ по МЛ, который давно уже переплюнул этот же процент даже в психологии, это очень сомнительное утверждение.
Что неудивительно, учитывая такой гиперхайп вокруг нейроёбства, что каждый долбоеб с тремя классами образования считает своим долгом стать МЛщиком.
Имхо, скоро «МЛщик» уже станет оскорблением.
16188095654150.png787 Кб, 2000x2542
37 2161819
>>161811

> ублюдки леваки уничтожают Европейскую цивилизацию и будет поддерживать правых.


Этот ваш ЭС петух помимо всего прочего, ещё и плюмодебил и зигамет? Хоспаде, повидал я ебланов, но чтобы настолько... Барнаул, маня, алтайский край!
38 2161824
>>161819
Нет уж, блевачок ты наш, я не ЭС шизик.

Иди прицел настрой получше и прими в жопу мигрантский хуй, потом отдай ему на проёб свою бабу и попроси, чтоб долго тебя не мучал, когда будет тебе горло перерезать.
39 2161831
>>161816

> Учитывая процент невоспроизводимых работ по МЛ


0%?
>>161824
Семен, ты хоть пытайся в мимикрию, ну глупые ошибки ведь в шизоидности текстов.
А леваки действительно плохо, впрочем как и праваки, однако леваки орудуют постмодерном и методами модерна можно только пердеть а лужу на радость сжв скаму, а для метамодерна действительно нужен трехзначный айкью.
мимо
40 2161840
>>161831

>Семен, ты хоть пытайся в мимикрию, ну глупые ошибки ведь в шизоидности текстов.


Уровень интеллекта - блевачок.
41 2161850
>>161840
Лично я - чад центрист. А пока из пруфов что ты другой шиз только то что ты шиз, что как пруф так себе.
42 2161893
>>161850

> центрист


Омежное говно неуклюже пытающееся усидеть на всех стульях, ты? Ну конечно же ты.
43 2161903
>>161893
Если ты правда считаешь что в гомунизме все было настолько хорошо что он развалился, а страна где его строили до сих пор расхлебывает дерьмо и менталитет говна, то даже продолжать диалог бессмысленно.
И да, левые помойки постепенно перенимают качества того самого гомунизма (власть как бы у людей, но на деле у некоторой группы людей и все мы знаем какой, у жидов, инакомыслие осуждается а рассовая толерантность бьет из всех щелей и так далее), хотя и сами по себе ни чем не лучше.
44 2161922
Хорош разводить порашу. Куда лить папер?
45 2161930
>>160975 (OP)

>GML - это круче, чем просто ML.


Двачую, я сам гуманитарий но мне тоже пришла такая мысль. Я пришел с выборов где отдал голос за Путина, потом устроился попой вверх, прислонившись к спинке дивана, мастурбировал в такой позе и кончил себе в рот. Прям метко выстрелил и попал в рот. Я наслаждался вкусом горьковатой вязкой кончи, потом проглотил ее, облизнулся и понял, что нет ничего лучше граф машин лернинга.
46 2161935
>>161930
Та же хуйня кстати, охуенная штука эти ваши графы.
47 2161944
>>161937 (Del)

> Антикоммунист,


Да

> русофоб,


С хуя ли?

> нейропетух,


Пчел, у если у тебя нет нейронов в мозгах, то это уже крайне серьезный диагноз.

> ммм.


Правда вкусный хуй? Еще будешь?

> Наверное еще и в сказки про срыночек и коклетоглизм веришь?


Хуйня для даунов же, которую к слову ни в сторону коммигнили ни в сторону леводоунов не сделать без перегиба на 180°.
48 2161961
>>161954 (Del)
А что имеет отношение к мышлению, товарищ Преображенский?

мимо Швондер
49 2161963
>>161631
Что тебе даст прослушивание всех лекций? Нужна еще практика, где семинары, примеры кода? Теорию я и сам могу нагуглить.
50 2162007
>>161850

>Лично я - чад центрист.


Ну так хуй-то мигрантский ты в жопу принял?

>А пока из пруфов что ты другой шиз только то что ты шиз, что как пруф так себе.


Лично мне похуй.
51 2162010
>>161951 (Del)
В том понимании коммунизма, которое сложил тот обсер в 20 веке, я антикоммунист. А то, что ты, надеюсь, имеешь ввиду, называется социализмом и путь к нему лежит точно не через коммунизм. И во первых я не против его в идеальной форме, во вторых даже он имеет недостатки, а в третьих на текущем технологическом развитии его не достигнуть. А, и да, на счету третьего, туда входит и отсутствие agi, который нейронки достигнут с большими шансами и с большей скоростью чем все что есть сейчас (включая эс).

>>161954 (Del)
Ладно, допустим теперь я верю что вы два разных шиза, хотя мимикрирование показной тупостью исключать все еще нельзя.
52 2162013
>>162007

> Ну так хуй-то мигрантский ты в жопу принял?


Нет, я хоть и не нацист, но чурок, евреев и умеренно негров ненавижу осуждаю уже за то что они есть.
53 2162027
>>162007
А че за фантазии о мигрантских хуях у тебя, раскрой тему.
54 2162031
>>161922
Очевидные архив и рисёчгейт.
55 2162157
>>162156 (Del)
А потом эта сверхдержава обмякла, просто от факта своей охуенности.
image.png618 Кб, 1031x602
56 2162179
Оказывается, что вопросительные и восклицательные предложения тоже прекрасно поддаются логике и с их помощью можно делать различные выводы вместе с повествовательными. Как-то правда было странно видеть отрицание подобного в различных учебниках логики будто незакрыт какой-то филологический гештальт.

https://youtube.com/watch?v=jVbpAfoBwFI

Развитие систем Искусственного Интеллекта (ИИ) и работу следующего их поколения - Интеллектуальных Систем (ИС) невозможно осуществить без учёта возможности этих систем обеспечивать логически корректный диалог - как с человеком, так и другими ИС. Однако, здесь есть одно серьёзное ограничение: это может быть только диалог, основанный на строгих законах алгебры логики.
- Что мешает созданию полноценных диалоговых систем?
- Каким образом можно свести простые суждения и составленные из них силлогистические конструкции к стандартным конструкциям логических формул?
- Способна ли силлогистика оперировать вопросительными и/или восклицательными суждениями?...
Здесь - ответы на эти и некоторые другие вопросы.
57 2162226
Короче вот папер
https://cloud.mail.ru/public/ZuWw/gtapNZccA
>>162031

У кого есть акк на архиве, залейте плз (у меня не регается, т.к. заблочен айпишник)
58 2162227
Я доволен собой, я проделал научную работу.

Читаем, пориджи, читаем пока мамка спать не погнала.
59 2162234
>>162226

>I propose


>I pertain


>I take up


Сразу видно пориджа, который понятия не имеет, как пишутся пейперы.
60 2162236
>>162234
Ну так предложи свой исправленный вариант документа, дебил, мы тогда и добавим тебя в перечень авторов.
image.png61 Кб, 1362x767
61 2162239
>>162226
>>162234
С формул, вставленных в виде png изображений, вообще проиграл.
>>162236

>Ну так предложи свой исправленный вариант документа


Переправь на множественное число. we propose, we take up, и так далее. Даже если автор один, пишут обычно во множественном числе.
62 2162290
>>162287 (Del)
А ты дрочил, пока срал? Дверь кончой заляпал? А забрызгал анус водой от бултыха какахи?
63 2162294
Когда большая твердая какаха из меня лезет, то представляю что это член негра, он растянул мне анал и вытаскивает а потом будет всаживать обратно и еще рукой меня удушать при этом. От этого у меня стоит как у демона.
64 2162296
>>162294
Типикал ЭСошиза.
65 2162330
>>162156 (Del)

> Из аграрной романовской помойки в сверхдержаву.


Так и запишем, ебланил на уроках истории а после окончания школы не набрал проходной даже в подзалупную коллягу. Продолжай.
До обсера с малой победоносной просранной войной на которую ставил колька, во внешней политике ри была одной из главных политических сил, и осталась ею даже после него. Но по плану других политических сил, которые профинансировали ленина с бригадой гомунистов, шла по пизде внутренняя политика или даже вернее сказать авторитет императора. А до сверхдержавы гомунисты сначала все правление ленина собирали страну по кусочкам под автоматами после обсера с возможностью каждому субъекту выйти из состава страны, а при сталине до 60-х восстанавливались после демилитаризационной политики во время войны по соседству. Гомунисты очень умны, не правда ли?

> Вот это обсер, не то что пендохи там детей своих продавали и дохли с голоду в 30х при швятом срыночке.


Я же уже вроде написал что свободный рынок не работает, ровно как и полный контроль государства, когда палка колбасы и целлофановые пакеты с туалетной бумагой были в дефиците в то время когда во всем мире с этим все было в порядке. Поэтому и нужно сидеть на двух стульях не касаясь резиновых дылдаков в центре каждого.
66 2162338
>>162330
Посоны, начинайте репортить все следующие посты
67 2162345
Тут говорят, выпустили gpt-4. Хуй его разберет для чего он. Я потестировала gpt-3. Сама являюсь трансдевочкой и люблю подеваться в чулочки, в женские трусики и чокер когда мастурбирую. Спросила у генератора текста как он бы рассуждал бы при таком занятии, и вот что он выдал

Ношу чулки и выгляжу сексуально, я всегда стремилась иметь хорошие и удобные ощущения для своего тела. Еще я ношу стринги, которые обычно не предназначены для использования в качестве нижнего белья. Я действительно уверена, что красиво в них выгляжу, так что буду ходить в них несколько недель, а то и несколько месяцев. Я покачиваю грудью и держу руки сложенными под ней. Я такая сексуальная, что мне не надо носить стринги, но они мне очень нравятся. Просто говорю о том, насколько сексуальной я себя чувствую в этих стрингах. Если они так сексуальны, то они просто необходимы! Я не говорю, что вы тоже должны носить стринги, но я говорю, что вы должны иметь их при себе на всякий случай. Я ношу чулки, и это заставляет меня чувствовать себя привлекательной, но не делает меня красивее. Я ношу чулки просто потому, потому что они дают мне больше уверенности и дают мне лучшее представление о том, кто я есть и как я выгляжу. Я знаю что я девочка, но я не стремлюсь к тому, чтобы как можно больше других женщин имели такую уверенность. Я просто не думаю, что буду носить что-то подобное, пока снова не почувствую себя более сексуально.

Такие дела, жду когда будет генератор на gpt-4
68 2162348
>>162345
ywnbaw
69 2162352
>>162348
you will never see next Trump's tweet
70 2162380
Открываешь любой рандомный папер, смотришь авторов:

- Чинг Чонг
- Сунь Хуй в Чай
- Вынь Су хим
- Ли Си Цын
- Сяо Ляо
- Мяо Пяо
и т.д.

Чем объяснить эту поебень?
71 2162385
>>162380
желтоликий супер-айкью
72 2162392
>>162380
Ну хотя бы не евреи
IMG202106011222492.jpg1,4 Мб, 3456x3361
73 2162413

>учишь эту хуйню как осатанелый полгода


>смотришь как с каждой неделей вакансии становятся все пиздецовее и пиздецовее, уже и спарк, хадуп, sql обязательно, желательно и хуй-торч и тензор-хуй, 10 проектов покажи, и чтобы мог как мл-опс все это разместить в гугле, нам похую что разместить модельку на 10 мб стоит 120 баксов, и ты еще аналитиком будешь короче, доменные знания и хуе мое, еще мы начнем образование просить профильное, раз спермбанк захватил кучи магистратур в рашкинских шарагах


>посмотрел вакансии на ios


>Вы знаете что такое классы, покажите туду-лист, если он будет на гитхабе - хрюша отсосет на собесе


>знатно охуевая скачиваешь весь гуглдиск с книгами и курсами


Ебал этот машоб в рыло блядь, каггл этот ебаный дрочил, проекты, да пусть у Валеры хуй от стероидов отвалится
74 2162447
>>162413
Ты че пес, иос, жс, андроидовских и прочих макак скоро заменит ИИ!! Не сейчас, так завтра. Он уже умеет генерировать код связный блин! Выбирая дрочево этого нейроговна - ты выбираешь будущее! А ты посмотри, как Бабушкин устроился, а? А ну в каггл дрочить на грандамстера! Давай-давай, за работу, за паперами и попытом. Ну да, жсбояре и иосаристократы уже за полгода на полквартиры заработали, зато ты ученым будешь, математиком, сознание оцифровывать будешь!
harold.png810 Кб, 1200x630
75 2162455
76 2162470
>>162413

>полгода


Я уже седьмой год вкатываюсь, и ничего - не ною.
77 2162496
>>162413

> разместить модельку на 10 мб стоит 120 баксов


Ты можешь без задней мысли разместить код на гитхабе за нихуя + модельку на гуглодиск до 15 гигов если не даешь в открытый доступ сотне васянов, а если даешь то нет ничего легче чем создать простой торрент.

> рашкинских


Зачем? Ищешь вакансии с работой из дома в европке или щвятой, в резюме указываешь что ты небинарная личность, сидишь на гормонах но так как боишься осуждения мимикрируешь под васяна и профит. 200к/наносек из 300 у тебя уже есть. А потом если хочешь перекатываешься в европку или щвятую и у тебя все 300к/наносек.
Главное знать английский на разговорном уровне, на самом деле уметь в машоб и писать о себе в женском лице чтобы компании выполняли норму по текущей повесточке.
image.png322 Кб, 568x432
78 2162541
>>162496

>Ищешь вакансии с работой из дома в европке или щвятой, в резюме указываешь что ты небинарная личность, сидишь на гормонах но так как боишься осуждения мимикрируешь под васяна и профит

79 2162664
>>162413
На скольких собесах был? 0?
Лучше классические алгоритмы повторяй.
мимо вкатился год назад
80 2162673
>>162664

>мимо вкатился год назад


Расскажи свою роадмапу, разбавь всё это говно в треде
81 2162722
>>162562 (Del)
лол он почти как я! >>162345
based and pinkpilled
82 2162723
Только у меня челюсть не такая массивная и меня реально можно за цис принять
16321517219310.png749 Кб, 690x966
83 2162725
Кстати, есть серьезный вопрос. Каково присутствие трансов, трапов и фембоев в machine learning индустрии - уже дофига или по прежнему не особо? Китайцев вижу много, есть корейцы и индусы, а что насчет pinkpill-движения?
84 2162748
>>162673
Да ничего особенного.
После универа веслал два года обычным разрабом, параллельно ради интереса ковырял нейронки. В какой-то момент решил перекатиться. Благо была база математики/линала/тервера.
Начал с The Hundred-Page Machine Learning Book, которую в прошлом треде упоминали — слишком ужато. Вспомнил питухон, который ковырял в студенчестве. Прошёл несколько разных курсов по классическому мл начал с Ына, потом одс/курс Соколова/текст лекций Воронцова на отдельные темы и нейронкам Стэнфордские курсы. Перепроходил не от начала до конца, а непонятные моменты, так что с каждой итерацией понимал чуть больше. Вкурил доки торча. В какой-то момет начал читать важные пейперы, но на изначальную задумку — реализовать самому — забил. Поковырялся в каггле и понял, что я долго могу заниматься какой-то хуйнёй, а надо искать работу.
Вбил ml interview questions в гугол и надрачивал их, раскидав резюме.

На собесах самыми неприятными были вопросы на теоретическую базу. Они произвольной глубины, а материала много.
Если есть время, лучше сделать один хороший петпроект. Раскатку в облака спрашивают как раз потому, что сейчас это просто гугл ещё и 300 баксов даёт на старте.
Иногда говорили про мои попытки кагглить какую задачу решал, как, почему, и я прям ощущал, как мне петпроекта не хватает.
По git/sql/питону до меня-то не докапывались, для джуна нужен уровень написать код, закоммитить в гит, сделать несложный запрос к бд.
Апачи со спарками на собесах ни разу не видел, разве что как необязательный плюс.
Нашёл работу за месяц до локдауна, но вряд ли ситуация кардинально не поменялась.
85 2162795
>>162413

> ты еще аналитиком будешь короче, доменные знания


А что не так, прости?
86 2162804
Как делается сетап stylegan для модели типа этих???

Я нихуя не понял, понял только что там нихуя не дефолтные настройки и применяется свой собственный GPU. https://twitter.com/l4rz/status/1437824469972705281 Паперы хуяперы - обмажутся паперами и в жопы ябутся
87 2162807
>>162804
Модель на второй пикче хуевая, на фейках какие-то актрисы чешских кастингов. Лучше бы делали японок айдору.
88 2162827
>>162748
Соколова и Воронцова не покрывают теоретическую базу?
89 2162842
>>162827
Конечно покрывают. Но когда тебе надо оперативно вкатиться, а из практики кроме задачек ты 90% классики никак не используешь хотя при понимании концепций обрисовать их в общих чертах труда не составит, материал имеет свойство забываться.
90 2162853
>>162795
Не так то, что вкакиши в МЛ на самом деле неиронично мыслят как в том мемасе "ты че пёс, я математик"
91 2162870
>>162413

> Москва, количество вакансий data scientist - 435


> Москва, количество вакансий iOS - 2226


> Москва, количество вакансий JS - 5328


> Москва, количество вакансий php - 2200


> Москва, количество вакансий Java - 5095


> Москва, количество вакансий 1С - 27360



Тебе видимо изначально не стоило вкатываться в ds/ml/dl если тебе нужно было просто вкатиться. Хочешь относительно большой рынок труда - иди в разработку. Хотя ты туповат малость, твой максимум это пхп-битрикс я считаю.
92 2162876
Раз пошли обсуждения вкатышей, то скажите, реально ли вкатиться сразу на удалёнку? Или это хуйня и нужно сначала пару месяцев перекладывать таблички в офисе?
93 2162881
>>162748

>После универа веслал два года обычным разрабом, параллельно ради интереса ковырял нейронки.



>универ скорее всего айти


>два года стажа разрабом


>два года хоть и вальяжного но изучения машоба



Ты не вкатился, а перекатился.
image.png1 Мб, 1200x675
94 2162893
>>162876

>вкатиться сразу на удалёнку

16322259926540.jpg45 Кб, 675x602
95 2162929
GML изучали еще в СССР. На фото - один из первых советских спецов по GML. Можно сказать, революционер в кибернетике. Нехуёво образованный. Теперь у нас таких полон тред.
96 2162930
>>162881
Тоже заорунькал с этого долбоеба.
97 2162931
Ору с графопидрил
image.png554 Кб, 717x593
98 2162935
Что, чем ты интересуешься? Нейроночки? Машинное обучение? GML? О-о, ну это к нам! Милости прошу к нашему шалашу!
99 2162980
>>162725

> Каково присутствие трансов, трапов и фембоев в machine learning индустрии - уже дофига или по прежнему не особо?


Пиши по-русски, "пидорасов". Никто таких исследований не проводил, да и в США многие предпочтут объявить себя опущенными, лишь бы не доебались и не отменили как цисгендерного угнетателя. Поэтому объективно такая оценка невозможна.
100 2162987
>>162725
Истеричка на гормонах не сможет ни в research, ни в методичную продуктовую разработку. Ваше петушиное гнездо - в языке для шизиков-борщехлёбов Rust, если кто не понял
101 2163007
>>162987
Я могу, у меня есть проект на гитхабе и стаж kaggle
102 2163271
Посоны, там новый код расшарили. Ввод - пикча и название класса, вывод - аналогичные, но новые пикчи (в рамках класса)
Уже тестировал кто-нибудь? Дохуя задач для этого или не очень?
103 2163303
Тестирую на индексированных фотках девушек в бикини. Идея на самом деле крутая, но алгоритм трактует всё вольно и выдает левую хуиту даже с проставленным индексом, с низкой truncation и множеством итераций.
104 2163416
>>163303

>алгоритм трактует всё вольно и выдает левую хуиту


Неужели
105 2163444
>>161664

>У самого Гёделя Хирш ниже, чем у современных ноунейм петушков.


И что? h-индекс - это всего лишь упрощенная метрика, которую можно накрутить, если поставить такую цель. Типа как PageRank, даже ещё примитивнее.

Низкий h-индекс не означает, что ты не продуктивный. Как и любая другая метрика. Как и низкие оценки в школе не означают, что ты тупой. Но если у тебя низкие оценки в школе, это еще не значит, что ты у мамки самый самый умный просто от того, что они, как и любые другие упрощения, не всегда способны адекватно отразить все нюансы.
106 2163473
>>161672 (Del)
В этом треде появились идейные последователи Золотца/Базарова, возводящие нигилизм в абсолют. При том, что Базаров довольно плохо кончел. Но он был воображаемым персонажем, на него похуй. А вот Золотце - вполне реальный человек, не самы глупый (просто с проблемами с башкой, ну да у кого из нет), однако пизданулся на отличненько.

Но пориджи не читают классическую литературу. Ведь Достоевский - моралист позапрошлого века, игрок-картёжник и интриган, писавший развлекательные книги (почти как Пелевин, лол), чтобы отбить свои карточные долги. Что он вообще полезного напишет?

h-индекс - хуйня. Им можно манипулировать. Мировая наука в кризисе. Китайские ученые задирают свой h-индекс, потому что товарищ Xi платит им за KPI. Давайте заодно мочить словаков с высоким хиршом. Кризис воспроизводимости. Кризис оценки фактической значимости. Да, это объективная реальность, я тут как бы отрицать что-ли это буду? Но некоторые Базаровы считают, что это повод послать нахуй вообще всё на свете.

Я уже староватый пердун и туповатый, наверное. Но что-то мне подсказывает, что мамкины отрицатели в конце концов повторят путь Золотца, или воображаемого персонажа Достоевского, и отрицатель h-индекса тоже каким-нибудь фриком в итоге станет из-за своих сверхидей.
107 2163490
>>161792
Не соглашусь. Чтобы выбрать между "добром" и "злом" особый интеллект не нужен. Ведь сразу понятно, что есть добро, а что есть зло. А вот когда тебе нужно выбрать меньшее зло, или хотя бы осознать, какие последствия могут иметь твои стремления к добру в реальной ситуации, там уже всё сложнее.

Для примера. Партия "Единая Россия" - это однозначное зло. Это однозначно и понятно. Но что лучше, быть внесистемным оппозиционером, как Волков, гоняющим пориджей под дубинки, или наоборот, слиться с ЕдРом и модифицировать его изнутри - это большой вопрос.

Легко отрицать систему: "Ваш код - говно, давайте всё перепишем!" Ответ на это - cancelling и посадки. Гораздо сложнее придумать, как её реально можно изменить и как можно добиться своих целей.
108 2163496
>>161963

> Что тебе даст прослушивание всех лекций


Ключевые слова, по которым можно гуглить, горячие темы, интуиция, которую даёт чувак, разобравшийся в теме.

Теория и практика, как ты сам заметил, нахуй не нужна. Чувак задаёт ориентиры, дальше гугль и самостоятельная работа. Ты предлагаешь разместить ссылки на tensorflow или другие конкретные либы? Ну уж нет, пускай програмеры сами решат, что работает.
109 2163501
https://arxiv.org/abs/2109.05070?
Говно без задач.
Первая пикча - input, второй скрин output. Ну вы просто сами сравните, что я ввел и что получил.
Пейпер говно, автор мудак. Если погонять десять часов крошечный датасет в Stylegan, будет точно такое же.
Классом там был suit. Разнообразие в мелких деталях будто бы имеется, но по сути одно и то же и всюду анфас. Если бы было кроме этого сбоку и в три четверти, то я бы еще понял такой алгоритм.
Да, там есть какой-то прогресс от первых пикч к последней, но хуй его разберет сколько надо итераций чтобы получилось что-то годное. Скорее всего ничего годного и не появилось бы.
Я 100% уверен что пейпер и код делали тупорылые чонги, чтобы заработать миску риса и чтоб вертухай бамбуковой палкой не пиздил.
Просто говно без задач как оно есть, надо было пристрелить мамашу автора чтоб он не появился.
110 2163506
>>163473
Китайцы какают, словаки писают, вот и вся разница. Нассали лужу, потом посрали в лужу, потом нассали на говно, потом сверху еще наблевали русня с хохлами и япошки спустили туда кончу.
2021-09-22 004837-.png619 Кб, 1091x496
111 2163508
А вот это классный генератор, хоть я и не знаю что там за код используется.
112 2163534
>>163473
Но ведь Базаров это персонаж не Достоевского, а Тургенева.
113 2163598
>>163501
что в названии файлов на втором скрине? номер поколения?
114 2163611
>>163501
Ты подержал всего 50 итераций?
115 2163612
>>163508
Там stylegan2 с небольшим допилом как я понял + clip.
results419.jpg22 Кб, 512x512
116 2163614
>>2160961 →
А как тебе такой суккуб от guided diffusion? 8к итераций и ровно 8 часов между прочим, но судя по всему детали и на 8к допиливаются.
117 2163759
>>163598
Типа итерации-кадры, там должно было быть видео под конец, но не стал дожидаться.
>>163611
Это половина от default настроек
>>163614
So far лучшую генерацию изображений предоставляет clipit pixeldraw, причем персонажей лучше делать в маленьком квадрате, чтобы их не распидорашивало по более крупной композиции.
118 2163772
>>163508
>>163612
Сделать бы такую же хрень, но с полными фигурами, в разном масштабе с разными позами, и как лишь часть общей композиции.
Clip vqgan может в охуенные пейзажи, но размазывает ебала. А тут классные ебала, но кроме них ничего не умеет.
16321437110872.jpg48 Кб, 500x349
119 2163775
image.png427 Кб, 604x402
120 2163865
Нейрослесари здесь?
121 2163870
>>163759

> default настроек


От click to go настроек, все дефолтные настройки в колабовских нотбуках сделаны для простоты и быстроты, по хорошему нужно все подкручивать вилкой чтобы ровно вписаться в лимиты.
122 2163879
>>163865
Я датасаентистка. Транс. Вставила в попу анальную пробку со стразиком в форме сердечка, сама голая сейчас но поверх натянула колготки (плотно обтягивают письку и попку). И работаю сидя в одних колготках и с пробкой в попе. Совмещаю приятное с полезным. Data сайентист
123 2163905
>>163490
Это да, а ещё большим, недвузначным, iq надо обладать чтобы не вестись на подобную гебешную индоктринацию про "конструктивность" и "политику малых дел". Код переписывать не надо, надо создавать новый продукт, а старое замшелое говно пусть умирает, это естественный цикл.
124 2163910
>>163909 (Del)
Я женщина. Трансженщины это Женщины
125 2163915
>>160975 (OP)

>GML - это круче, чем просто ML.


Не, ни хуя.
ОП, у мужа твоей матери и твоего мужа и у тебя маленький член. И у дочери твоей, членодевки, тоже маленький
126 2163916
>>163913 (Del)
Проверяй свои привилегии, цис сволочь. Коралина-то права, надо всё меритократию отменить и права у вас отобрать.
127 2163970
>>163917 (Del)
В твиттер попробуй запостить
128 2164402
>>164383 (Del)
А вот за это уважаю
129 2164455
>>160975 (OP)

>GML - это круче, чем просто ML.


Пизда твоей мамы круче чем ML и GML. Жаль только что она воняет. передай мамаше чтоб мыла пизду. Дышать невозможно, фуууу нахуй
130 2165215
В датасете есть две подвыборки - на одной таргет честный, а на другой приблизительный (отличается пока что не знаю как, на одной выборке реальная цена квартиры, а на другой цена из объявлений, предсказывать нужно реальную, конечно). Есть идеи что с этим сделать?
У меня есть две идеи - нормализовать таргет из объявлений (привести матожидание и дисперсию к честному таргету), а также модифицировать лосс, чтобы за ошибку на честном таргете сильнее наказывало. Больше идей нет. Поэтому прошу помощи.
131 2165309
>>165215
То есть иногда у тебя известна только цена из объявлений, а иногда только реальная? Тогда никак. Можно цену в объявлении использовать как признак. Можно попробовать что-то из арсенала semi-supervised. Можно даже совместить. Но использовать цену из объявления как таргет нельзя, это смена домена, математика прямо говорит "я умываю руки, нет никаких гарантий, что те результаты, что ты получишь, имеют хоть какой-то смысл".
132 2165315
>>165215
В чем проблема прочистить вилкой в датасете непарные цены? В данной ситуации это единственный выход.
133 2165324
>>165309
Иногда только из объявлений, а иногда только реальная, да.
Semi supervised думаю буду использовать, как часть из базовых моделей в стекинге, думаю можно и как таргет попробовать, с меньшим весом при ошибки и какой-нибудь нормализацией/подгонкой. Мне не принципиально математическое обоснование, нужно чтобы в реальности работало.

>>165315
В том то и дело что там все непарные - такой датасет. Цена из объявлений даётся не как фича, а как изуродованный таргет.
P.s. если что это соревнование, которое многие в треде наверняка пишут, возможно неэтично об этом спрашивать было. но всё равно спасибо за ответы.
134 2165339
>>165324
Математика говорит "пошёл нахуй, пидор, нормально делай, а не хуяк хуяк и в продакшен"
135 2165367
>>165339
Это соревнование, длящееся 36 часов. "нормально делай" тут не подразумевается
136 2165401
>>161816

> невоспроизводимых


Так это показатель чего вообще? Для воспроизводимости нужна хорошо формализуемая и минималистичная база. Считай, всё должно сводиться к математике. Причем, к очень примитивной математике. Всё должно описываться уравнениями, которые имеют аналитические решения (т.е. всё должно описываться механическим применением некоторого набора правил замены символов, буквально). В крайнем случае, должны быть численно-устойчивые методы.

Но математика очень быстро перестаёт работать при минимальном повышении сложности. Задачу трёх тел хотя бы решили математическими методами? А там как бы всего три объекта и всего одна сила, действующая на них.

> психологии


Я рад, что ты упомянул её. Вообще, психология - это то, как электрические импульсы в нашей башке бегают. Казалось бы, бери и считай, есть же физические законы. Но это пример того, как система, построенная на вроде бы известных физических процессах, с увеличением числа переменных становится настолько сложной и непредсказуемой, что математика вообще бессильна. Даже в теории мы не в состоянии что-то формализовать и рассчитать известными на данный момент инструментами в психологии.

И что это означает? Что психология - хуйня для даунов? Или наоборот, что психология - это безумно сложная вещь, для которой нужен стозначный IQ и умение оперировать чем-то, что далеко выходит за рамки современной математики, чтобы выдавать стабильные и воспроизводимые решения в области психологии?
137 2165403
>>165401

> Всё должно описываться уравнениями, которые имеют аналитические решения


Только анальники хотят использовать аналитические решения, когда нормальные люди решают всё численными методами. Аналитическими методами даже sin x + x = 0,8 нормально не решишь, а вид делают ужас какой важный.
138 2165410
>>161816

> гиперхайп вокруг нейроёбства



Лоллирую с пориджей, которые не застали AI-зиму. AI-куриных-мужей чморили буквально 20 лет назад все, кому не лень. Одна теорема об отсутствии бесплатных завтраков чего стоит. Казалось бы, разъебали весь ML одной теоремой. Базировано математически доказали, что ML сосёт. Но нет, сейчас наоборот жалуются, что ML на гиперхайпе.

А с хуёв ли он вдруг стал на гиперхайпе? Да просто потому, что он работает в наших реалиях и приносит деньги.

Чтобы матемакикоёбам стало понятнее. Есть такая штука, как симплекс-метод. Очень хуёвая штука, практически переборный алгоритм с комбинаторным ростом сложности. Казалось бы, он не должен работать и его можно закапывать. Но работает ведь и очень популярен. Как так? А разгадка проста: математика - это успешный инструмент, но не всесильный, есть многие вещи, которые математика пока объяснить не может и есть простор для исследований.
139 2165412
>>161930
>>161935
Хмм.. Никогда не кончал себе в рот. Реально стоит попробовать кончить себе в рот, или это просто подрыв каких-то долбоёбов на ровном месте?
140 2165417
>>161831

> А леваки действительно плохо, впрочем как и праваки, однако леваки орудуют постмодерном и методами модерна можно только пердеть а лужу на радость сжв скаму, а для метамодерна действительно нужен трехзначный айкью.


Ты же вроде умный, да? Вот объясни, что такое постмодерн и что такое метамодерн? Что значит орудовать постмодерном или метамодерном?
141 2165421
>>165401

> И что это означает? Что психология - хуйня для даунов? Или наоборот


А вот это интересный момент кстати. Видимо у некоторых есть синдром methodology neglect (название я только что придумал) - это когда человек считает, что истина ограничена рамками какой-то методологии, и считает ложью и заблуждением всё, что выходит за рамки этой методологии.
Например, науковеры-материалисты-редукционисты: выбранная ими методология ведёт к тому, что они начинают заявлять, что весь мир - это такой большой механизм, а субъективных ощущений не существует.
Или наоборот, какие-нибудь веруны, которые вынуждены отрицать какие-то факты из-за того, что какие-то предположения стали частью догмы.
142 2165428
>>163534
Я - нейросеть, мне можно нести хуйню чисто на статистике и проябываться на простых фактах, разве нет?
143 2165432
>>163905
Говно умирает, но не будем ходить далеко.
Простой вопрос: кто развалил тоталитарный совок и кто был главным бенефициаром?
1. Может быть это были проклятые пендосы с их авианосцами?
2. Или может совок развалили рокеры и деклассированные элементы?
3. Или может быть это были члены ЦК КПСС и сотрудники силовых структур, которые до сих пор у власти?
image.png16 Кб, 998x106
144 2165434
Получил доступ к ГПТ3.
145 2165759
>>165432

>кто был главным бенефициаром


Главным не главным, но бенефициары это в том числе и такая вата как ты, что может в пиндосском интернетике сейчас обсуждать кто развалил совок и прочую ГЕОПОЛИТИКУ отвлекаясь на работу на белого человека и попивать кофеек, вместо того чтоб коммиглистскую правду читать под кипяточек в короткий перерыв между 12часовыми сменами у станка
146 2165895
>>165309

>То есть иногда у тебя известна только цена из объявлений, а иногда только реальная? Тогда никак.


Ещё какак, мультитаргет делаешь просто и всё
image.png333 Кб, 3296x710
147 2166053
ГПТ3 и по-русски умеет шпрехать. За шизов местных пишет, что не отличить от оригинала. Токенов много уходит - каждая буква по токену, видимо, а то и больше.
148 2166064
>>166053
Лучше б умела рисовать CG артворки по-китайский. [title] by сунь хуй в чай trending on artstation
gan.gif5,7 Мб, 800x480
149 2166074
image170 Кб, 326x281
150 2166099
>>166053
Всё ещё не вижу принципиальных отличий от текстов с дорвеев из нулевых, нагенеренных марковскими цепочками, поридж. Разве что с падежами чуть получше.
151 2166120
>>166053
Для полноценного ии нужно чтобы количество токенов устремилось к бесконечности.
152 2166136
>>166120
Ты только что perceiver..
153 2166225
Знает кто какие сервисы для инференса сеток чтобы закинуть модельку и одной кнопкой развернуть, а не пердолиться?
154 2166241
>>166120
Ждемс ГПТ4.
155 2166248
>>166074
Хуйня. Даже как отдельные рисунки лиц это полная хуйня
156 2166255
Откуда вы беретесь, уебаны? Идите лесом.

Мимо съел свой поридж, закинулся тайдом и пожамкал попыт. В понедельник мне в школу.
16325075627110.mp47,1 Мб, mp4,
720x1280, 0:13
157 2166256
Ето я на видео, фапайте на здоровьице
158 2166307
>>166256
за кем он повторяет движения? он явно не мог сам их придумать
159 2166369
Что круче по-вашему для генерации пикч: китайский cogview, dall-e, icgan или банальный clip/vqgan?
160 2166370
>>166369
DALL-E
161 2166371
>>166370
В том виде в котором он сейчас (dall-e mini) это хуйня.
16317185733690.jpg150 Кб, 1200x897
162 2166386

>Самое главное в ИИ это его этика!!! Все люди равны

163 2166387
>>162413

>учишь эту хуйню как осатанелый полгода


>смотришь как с каждой неделей вакансии становятся все пиздецовее и пиздецовее, уже и спарк, хадуп, sql обязательно



Очень интересное наблюдение, особенно для вкатывальщиков в ML, которые и так почти все профессиональные программисты и спарк и хадуп у них как в магазин за овощами сходить.

Ну просто тема на хайпе и слишком много левых долбоёбов появилось, поэтому их и отсевают. В самом деле, какой ML, если ты даже в сраный спарк не можешь, это же значит чувак вообще с улицы пришел.
164 2166389
>>166387

>это же значит чувак вообще с улицы пришел.


Это значит что чувак поридж. Java, php, simple dimple/popit.
165 2166392
>>166387
Проблема не в том что я не могу осилить спарк, там где не спарк - окажется апач, где-то еще волт какой-нибудь, sql будет 20 разных, проблема в том количество этих технологий в вакансии не связанной с дата-инженерством возрастает каждый месяц последние месяцев 5. И проблема повторяюсь не в том чтобы выучить все это, а в том что ты будучи ньюкеком без стажа просто не знаешь что учить, что там действительно нужно на каком уровне и как это все вместе работает.
А на деле в итоге действительно смотришь вакансии веб-макаки или ios и требования после машобских как бальзам, где жабаскрипт или свифт это 80% требований, а в машобе питон - это 10% требований, зарплаты такие же, фирм много, вакансий много, это тебе не выбирать между патлатым очкариком или рыжим гномом-качком
166 2166394
>>162725
Очень много. Как и любая новая и хайповая область, ML привлекает не-таких-как-все. Но, всё же, в ML меньше пидоров, чем в том же Хаскелле.

С другой стороны, чем меньше сообщество, тем более они лояльны ко "своим". Поэтому хаскеллисты вообще никогда не станут гнобить фашистов или педерастов. Там очень надо постараться или проявить открытый харастмент, чтобы вызвать к себе ненависть, им твой код важнее твоей сексуальной ориентации.

ML-шики тоже пока к педикам довольно лояльны. Но никто не гарантирует, что они будут столь же лояльны по мере роста сообщества.
167 2166397
>>166053
Неплохо, но видна недостаточность корпуса.
>>166099
Корпус же маловат. Там русских текстов доли процентов было. Алсо, ГПТ-ха на то и ГПТ-ха, что она закономерности языка ловит. Ну там падежи и правила, как ты указал. Она очень грамотно пиздит по-английски (лучше, чем я, потому что все правила поймала). Но абсолютно безидейно.

И это, что я вам пытаюсь донести, пориджи. Нейросетки - это крутые статистические модели. Они - цепи Маркова на стероидах. А для извлечения знаний нужны формализованные модели представления знаний. Knowledge graphs. Но сам по себе knowledge graph не способен делать каких-то выводов, нужен алгоритм, который сможет по нему ходить и искать закономерности. И нейросетка может быть таким алгоритмом. Поэтому будущее AI в сочетании структурированных моделей (графов знаний) со статистическими алгоритмами (нейросетками), т.е. в GML.
168 2166399
>>166389

> Это значит что чувак поридж. Java


Спарк программируется на Java неотличимо от Scala. И вообще, Спарк - это sql и немного распределёнки. Если чувак не может в Спарк, то он даже не поридж, он тупо не программист и не может в простейшую реляционную алгебру и common sense. Он даже НЕ ГРАЖДАНИН https://www.youtube.com/watch?v=UOkpO--XtH0
169 2166401
>>166392
Проблема в том, что данные для машобучения идут из больших данных и там, лол, как неожиданно, надо иметь хоть какое-то представление об инструментах для обработки больших данных. И это не "проблема", это - требование бизнеса для решения его задач.

>А на деле в итоге действительно смотришь вакансии веб-макаки или ios и требования после машобских как бальзам, где жабаскрипт или свифт это 80% требований



А тебя никто и не заставляет заказываться в машоб. Нравится IOS, пиши под IOS. Нравится писать сайты на PHP, пиши сайты на PHP. Если у заказчиков машоба появятся потребности, они будут повышать зарплаты, чтобы переманить именно тебя. Если они этого не делают и тебе удобнее писать сайты, то в чем проблема вообще, у тебя ведь всё и так нормально, проблемы нет.
170 2166402
>>166397
Зачем это все нужно, когда ГПТ3 и так все знает (на английском)? Весь что называется common sense у нее есть. Безо всяких графов. Задай три вопроса, на знания о мире, я передам, посмотрим. Тренировка там заканчивается на 2019 году.
Со знаниями на графах 40 лет назад мудохались, гугли CYC. Думали, щас ВСЕ забьем руками в базу, ну лет 10 потратим, и заживем. Обосрались.
171 2166408
>>166402

>Зачем это все нужно, когда ГПТ3 и так все знает (на английском)?



Нет, не знает. Давай, я что-нибудь у ГПТ-хи спрошу, на твой выбор. Я там в платных подписках. Я её уже заебался спрашивать, кидал скриншоты в прошлые треды. Она ломается даже на простых вопросах, вроде радиуса Луны и количества нейронов в C. Elegans.

Она может ответить правильно, а может абсолютно бредово ответить. Причем, истину от бреда могу отличить только я, потому что я заранее знаю правильный ответ.

ГПТ - это лингвистичекая модель, обученная на языковых корпусах. Единственное, что она умеет - это рандомно генерировать лингвистичеки корректный текст. Да, она вряд ли ошибётся в правильном применении падежей. Но она нихуя не понимает. Не понимает почему человек может стоять на одной ноге, но не может стоять, подняв обе ноги вверх, потому что у человека всего две ноги и стоять подняв обе вверх - это какой-то бред.

Там всё очень хуёво даже с фактическими знаниям. А с логикой и common sense там не просто хуёво, а вообще никак. ГПТ - это про то, как наиболее вероятно продолжаются тексты, на которых она была обучена, не более.

Ну и главное, сеть, а почему ты сгенерировала такой ответ, назови источники источники, которые привели тебя к такому выводу? Нейронка: юк-пук. Knowledge graph - данные такие-то, загруженны оттуда, вот цепочка вывода. То, что цепочка вывода была именно такая (их ведь дохуя может быть) - это уже проблема системы, никто не гарантирует, что она самая короткая, типа нейронка решала по какому пути иди. Но это хотя бы проверяется.
image.png223 Кб, 1312x1542
172 2166411
>>166408
Вангую у тебя с английским траблы. Нейроночка, видя твои ошибки, думает, что отвечать надо тоже по-даунски.
Про источники знаний это ты уже гоалпостами задвигал. Да и ты сам откуда про ноги знаешь? Приведи-ка мне цитату из учебника про это.
image.png258 Кб, 1000x1000
173 2166433
>>166401

>А тебя никто и не заставляет заказываться в машоб. Нравится IOS, пиши под IOS.


>у тебя ведь всё и так нормально, проблемы нет.

16321247597780.jpg73 Кб, 592x532
174 2166437
>>166408

> Не понимает почему человек может стоять на одной ноге, но не может стоять, подняв обе ноги вверх, потому что у человека всего две ноги и стоять подняв обе вверх - это какой-то бред.


А с какой стати она должна это понимать? У нее нет никакой обратной связи с реальным миром кроме обучающего датасета, у нее нет тела, нет рук и ног, нет органов чувств, никакого их аналога, нихуя нет кроме корпуса текстов, на котором настраивались веса. Такие вещи как обоснование динамики некоего тела в некоем окружении, можно вывести только из опыта взаимодействия с реальностью. Если ты настолько простых вещей не понимаешь - поздравляю, ты дебил. А скорее всего, ты зумер.
175 2166481
>>166369
Очевидно что полноценный dall-e, но так как его нет в открытом доступе, то вопрос довольно сложный. icgqn еще не тестил, а biggan крайне плох, так что скорее всего банальный vqgan.
Когвью по сути тот же dall-e но с меньшим числом параметров так что не в счёт.
176 2166656
>>166408
>>166437
Какие же зумеры далёкие от жизни
https://www.youtube.com/watch?v=Ehs-NNnBc_s
177 2166675
>>166401
Как же все время смешно с этих борщехлебов, которые корчат серьезные ебла и рассуждают о нуждах бизнеса. Ору блять. Борщ стынет, ололош.
178 2166711
>>166402
Если гпт всё знает почему она не может сгенерировать не бредовый текст, или хотя бы такой что читающий не разгадывает за секунду что он был написан нейроговном?
image66 Кб, 968x911
179 2166770
>>166402

>ГПТ3 и так все знает


Эта шиза биттерчухов так и будет из треда в тред продолжаться, несколько тредов же назад обоссали этот фанбойский бред?
180 2166782
>>166770

> ГПТ3


> на скринах GPT-J-6B где в 29 раз меньше параметров и которая сделана группой энтузиастов


> шиза биттерчухов



Ты биттерчух или просто дурачек?
181 2166803
>>166402
Как там потомки, arc dataset уже научились решались лучше кожаных мешков?
182 2166852
>>166782

> а вот в n раз больше параметров и всё получица!


Ну давайте, спросите у наёмных китайцев за полцента
183 2166863
>>166392

>где жабаскрипт или свифт это 80% требований


Тащемта, тебе любой жс/айос-макакен быстро пояснит на любом собесе, что ты зумерок с гипертрофированным манямирком и всё айти развивается таким образом, что кроме БАЗЫ есть ворох технологий около неё, который меняется без остановки. Исключением тут могут быть разве что какие нибудь полусгнившие области, где код с кобола никто не спешит переписывать.
184 2166914
>>166803
Двигай гоалпостами так, как будто ты УЖЕ создал сверхинтеллект. Арк это достойная задача, уровнем гораздо выше того, чего пытаются добиться с ГПТ.
И тем не менее, ГПТ это один из потенциальных путей решения. Потому что это единственная модель, где самоорганизуется процесс few shot learning, что есть суть АРКа. Но ГПТ работает со словами, поэтому сам АРК он не сможет решить. Да и вычислительная интенсивность его великовата.
ГПТ4 обещают мультимодальным - там посмотрим.
185 2167046
>>166392

>жс: хорошие зарплаты, низкий порог вката, фирм много, вакансий много


>машоб: зарплаты на уровне жс, даже ниже, а порог вката довольно высокий, фирм нихуя, вакансий нихуя и их рост только замедляется


Но зато у тебя будет бейджик элитария! Ты же не кодомакака какая-нибудь, ты - ого-го! - математик. И еще тебя не заменит ИИ! Правда, кодомакак он если и заменит, то лет через 50, да и тебя он тоже, скорее всего, заменит, но то такое.. Короче, правильной дорогой идешь, товарисч! Давай, борщ дохлебывай, и за паперы!
186 2167281
>>167046

>ты - ого-го! - математик


Ты, сука, математиков так не обижай.
187 2167350
>>166353 (Del)
Отточеные. Неуверенные, но придуманные заранее
188 2167385
>>166392
Нужны прокачанные софт-скиллы, чтобы приседать на уши кабану, кормя его обещаниями о будущем ии-прорыве. Через полгода намыливаешь лыжи в другую контору, накопив опыт стаж.
189 2167389
Почему вы называете "машинным обучением" обычный вычмат со свёртками?
190 2167393
>>167389
Тя ебёт?
191 2167482
>>167389
Потому что за обычный вычмат не платят 300К\сек и не дают поиграться с новейшими ведьмокартами
192 2167584
>>166392
В общем-то ты прав, хотя в плюсах и питоне средняя встречаемости тега в вакансиях нормализованная к самому популярному тегу еще ниже. Хотя если искать именно по спарку, то это разнообразие сокращается.
{'Python': 0.038750926985712926,
'C%2B%2B': 0.040023200721169896,
'Data scientist': 0.04238972738796154,
'SQL': 0.04577398620667029,
'Java': 0.046159222751719325,
'C%23': 0.047146133794826996,
'Javascript': 0.05521971140283655,
'Frontend': 0.05776091915349929,
'Data': 0.057874939586914594,
'php': 0.06506176575549223,
'Typescript': 0.06689768651943644,
'Golang': 0.06792139354619676,
'DevOps': 0.07429151799994821,
'Spark': 0.08107407390864209,
'Intern': 0.09846736304474563,
'EPAM': 0.12178288697867923}
2021-09-26 163633-Window.png1 Мб, 1230x603
193 2167667
Как по-вашему, каковы перспективы icgan (генерация картинок, подобных вводной, но отличающихся, из латентного пространства)? Может ли такой подход выстрелить, если развивать gan-ы дальше в этом направлении и сращивать с text-to-image (CLIP) методом?
https://replicate.ai/arantxacasanova/ic_gan
194 2167672
Алсо, насчет таких картинок как эти.
Гверн говорил, надо под них тренировать CLIP или хотя б vqgan.
Пока что TADNE CLIP лучшее что есть.
195 2167717
>>167672
Для чего? Это чтобы такие генерить?
Проиграл с выражения лица на третьей
Kajou is prude, Anna is slut
16307790150330.png319 Кб, 720x528
196 2167724
>>167717
Ну да. Это же классно.

>is slut


Я тоже :3
out.png1,7 Мб, 1024x1024
197 2167732
>>167667
Ввел рандомный прон, выдало с десяток около-ЦПшных пикч. Никто не станет такое развивать.
198 2167740
>>167732
ТИХНАЛОГЕЯ БУДУЩИГО
199 2167784
>>167732
отправил куда следует
200 2167823
>>167784
B NeurIPS?
201 2167860
Бля анон я делаю свой поисковый алгоритм людей и мне надо настроить коэффициенты значимости разных параметров, расстояния там, возраста, чтобы выдавало как мне надо примерно. По сути дела это уравнение с неизвестными коэфами. Есть какой то сайт может которому я забью какой результат я хочу видеть и он мне подберёт коэфы которые соответствуют этому?
202 2167861
>>167860
И да я вообще не ебу за дата саенц я просто разработчик
204 2169575
Двачик, ты же все знаешь. Посоветуй мне хитровыебанный бинарный лосс для грязного датасета. Чтобы он выдавал не только true или false, но и «ваши данные говно, предсказывать отказываюсь».
205 2169660
>>169575
Делаешь 3 класса - да/нет/хуета. Обучаешь только на да/нет. Надеешься, что на хуевых объектах "хуета" перевесит остальные варианты или отсеиваешь по какому-нибудь порогу.
Если ещё намайнишь примеров хуеты, то должно вообще замечательно работать.

Ещё можешь изначально обрабатывать данные каким-нибудь детектором аномалий
206 2169672
>>169575
Делаешь три класса:

TF
FD
TD

True, False, Dick. Учишь через вот это. Само собой, там не бинарка, а три нейрона на выходе, с софтмаксом на кончике.
Если TF = 10%, FD = 43%, TD = 47% —> то данные хуита
207 2169722
>>169672
Я изначально не знаю, где у меня плохие данные. Как мне учить третий выход?
208 2169760
>>169722
Чистишь вилкой же.
209 2170262
>>169722
Слышал про обучение с учителем?
210 2170302
>>170262
Ты наверное подразумевал семи-супервайз? Фактически 90% машоба кроме редких случаев является обучением с учителем
16321411893490.jpg149 Кб, 1080x1070
211 2170863
>>170620 (Del)

> , перестанте


> я вам запрещаю смеяться над ЭС

212 2170905
>>170892 (Del)

> ЭС


> ИИ


Да да, мы поняли что ты шиз еще три треда назад, но ты ведь сейчас толстишь, верно? Покажи любой ИИ на ЭС, абсолютно любой, который может хотя бы частично пройти тест Тьюринга либо тест на iq, либо выполнять те же действия что и коженные ИИ с той же точностью. Абсолютно любой.
1633018279270.jpg136 Кб, 636x592
213 2170936
214 2171101
Насколько часто в реальной работе приходится иметь дело с временными рядами?
16303476604430.jpg15 Кб, 300x269
215 2171136
>>171101

>Насколько часто в реальной работе приходится иметь дело с временными рядами?


>реально работе


>машоб

216 2171189
>>169722
Можешь насобирать данных вручную. Можешь нагенерировать. Можешь не учить третий выход и молиться, что модель сама туда скинет неизвестные объекты.
>>171101
Если ты занимаешься аналитикой (строишь дашборды и перекладываешь таблички), то 99% времени. За пределами предсказания оттока/онлайна/фрода никаких временных рядов нет или их количество стремится к нулю.
217 2171528
>>171189

> Можешь не учить третий выход и молиться, что модель сама туда скинет неизвестные объекты


это так не работает
218 2171532
>>170892 (Del)

>акинатор


>вершин ИИ

219 2171808
Clipit pixeldraw генерит стильные пикчи, но распидорашенные и лоурез. Вопрос. Сколько надо захуячить параметров и слоев в модель, чтобы она по точному запросу безошибочно генерировала пикчи как минимум такого уровня?
220 2171819
>>171808
В clip draw проблема в архитектуре. Там не повлияет на качество количество параметров.
По сути у тебя подбираются такие цвета квадратов не пикселей, пиксели в реальном лоурезе бы сглаживались в говно и не было бы угловатости, при которых clip выдает наибольшее количество очков. Это конечно если упрощать, но суть думаю передал.
Основная проблема - нет связи между частями, и у скажем рыцаря вместо руки вполне может вырасти солнце, но если вместе с появлением этого солнца появились детали в других местах, то генератор будет считать что clip повысил оценку в том числе и из за солнца, после чего будет дорисовывать солнце.

То есть проблема комплексная, по крайней мере конкретно с clip draw, и без улучшения архитектуры stack more layers работать не будет. Однако stm это основа трансформеров, того же dall-e или cogview, но там есть свои проблемы, и первая это огромные энерго и время затраты.
Есть еще персивер от глубоких москов, но пояснения к говнокоду нет, а разбираться в нем никто не хочет, ведь его истинные возможности еще не до конца понятны.

Так что, как говорится, it's a only matter of time.
221 2171840
>>171825 (Del)
Кэп, у нас зашкаливает детектор жирноты, проба 2 первых букв расплавила антену. Повторяю, кэп, жирнота вылезает через экран, срочно начинайте эвакуацию из треда в экстренном порядке и ни в коем случае не кормите шиза.
222 2172057
>>160975 (OP)
Чем интересны GML и network analysis в академии понятно, а что насчёт индустрии?
мимо магистрант не айтишник, могу в статистику, но не в машоб
223 2172554
>>172057
Тебе моей диванной аналитики или фактов?

Факт:
- GML используется в AlphaFold. Это вполне ценная задача для индустрии.
- У одной крупной российской компании есть заинтересованность в GML. Правда, как сотрудник этой компании и человек, который в теме, я думаю, что у них завышенные ожидания от технологии и они иногда пытаются применить её не по месту Хотя это мои личные ощущения. В конце концов, это просто одно из R&D подразделений. Ну делают то, что вероятно не принесёт результатов, но это копейки по меркам компании, я х.з. как это выглядит в рамках их общей стратегии.

Диванная аналитика:
- Многие данные имеют естественное представление в виде графов. Особенно хорошо графами описываются базы знаний, социальные сети, сети отношения финансового участия (для задач вроде такой: https://naked-science.ru/article/column/algoritm-rossijskih-uchenyh-nashel). ML хорошо зарекомендовал себя в задачах скоринга, классификации и т.п. Но ML-лю на вход подаются векторы фичей. А GML как раз про то, как использовать в ML-е графовые представления. Есть мнение, что GML сможет повысить качество работы моделей.

- Есть сверхзадача ML - automated feature extraction. И если у тебя есть данные, представленные графом (а это очень общее представление), то, скажем, задача эмбеддинга (сопоставления вершинам графа векторов) - это и есть автоматическое извлечение признаков. Задача эмбеддинга никак не привязана к конкретной предметной области. Она формулируется в абстрактных терминах языка теории графов. Т.е. если ты научился адекватно конвертировать вершины графа в векторы, значит ты сделал автоматическую извлекалку признаков. Почти любые данные можно представить в виде графа, это очень легко сделать. Дальше делается эмбеддинг неким общим алгоритмом, и вуаля, у тебя набор фичей для предметной области, в которой ты даже не разбираешься!

- Есть алгоритмы ML, которые неплохо себя зарекомендовали. Скажем, word2vec. Но они выглядят так, как будто работают над некоторыми представлениями, которые являются подмножеством графовых представлений. Т.е. word2vec работает над цепочками объектов, где каждый объект связан с двумя своими соседями (словами перед и после), они со своими соседями и так далее. Возникает естественное желание, а почему бы не обобщить эти цепочки на граф, где связи могут быть произвольными? Это бы позволило применять подобные алгоритмы к куда большему классу задач.

Теперть про подводные камни:
- Заметание мусора под ковёр. Допустим, у тебя есть граф финансовых транзакций и некий человек, который постоянно ездит на такси, и, стало быть, транзачится с таксистами. В таком эмбеддинге его вектор будет лежать рядом с вектором таксиста по метрике random walk. Но если твоя задача - оценить платежеспособность человека, то что он вообще имеет общего с таксистом в плане этого фактора? А ведь при грамотном анализе графа транзакций о платежеспособности человека можно сказать очень многое. А если ты решил продать человеку тачку - то эта близость к таксистам тебе вообще не подходит. Человек может и ездит на такси потому, что у него прав нет, ему может тачка вообще не нужна, а вот самому таксисту тачка может очень даже пригодится. Это и есть заметание мусора под ковёр. Да, у тебя есть алгоритм, который автоматически эмбеддит вершины. Но твоя задача feature engineering-га никуда не делась, она просто перешла на уровень выбора правильного графа и правильных метрик.

- Брать нахрапом. Слепая вера в то, что если мы обучим модель на всех данных, то интеллетк у неё появится сам собой. Нет, не появится. GTP-3 почти на всём курпусе доступных английских текстов обучили. И чему она обучилась? Обучилась строить синтаксически грамотные, но полностью лишенные смысла английские предложения. GTP-3 даже не понимает, почему человек может стоят подняв одну ногу, но не может поднять другую (потому что у человека всего две ноги, и если он поднимет обе, то упадёт на жопу). GTP-3 - это демонстрация полного провала массированного машинного обучения на больших данных. Не учатся, не понимают, даже если все данные скормить, будет хуйня. Кто-то скажет, может параметров было маловато? Так вот, если в GTP-3 увеличить количство параметров, она тупо начнёт запоминать, у нас просто столько текста нет. К GML всё это тоже относится. У нас пытаются загрузить 5 терабайт в мою графовую базу данных, она трещит, я спрашиваю «Нахуя, разве бывают такие большие графы знаний?», они отвечают «Ну мы всё грузим, типа чем больше инфо, тем лучше» Ну нет, это так не работает.

- Вера в магию AI и стабильность решений. AI просто находит похожие решения, AI полагает, что если две молекулы похожи в заданной метрике, то и действовать они будут примерно одинаково. Но это не так. Оторвав OH ты можешь сделать из нейтральной молекулы йад. AI заточены под какие-то уже известные выборки, а если что-то новое, то они там фейлят.

- Стрельба из пушек по воробьям/один молоток для всех шурупов. Сталкивался с тем, что в графовые базы данных грузят любую хуйню. Тут надо понимать, что GML даст профит только если надо извлекать данные из структуры графа. Допустим, ты вегетарианец. Ну и нам надо искать вегетарианцев. Твои ближайшие связи - это магазин, в который ты идешь. Магазин закупает веган-жрачку у некоторой овощебазы. Нам интересно, что ты как-то косвенно связан с этой овощебазой, сорее нет, скорее нам достаточно просто посмотреть твой профиль продуктов. GML может что-то дать, но примнять его бессмысленно в этом кейсе.
223 2172554
>>172057
Тебе моей диванной аналитики или фактов?

Факт:
- GML используется в AlphaFold. Это вполне ценная задача для индустрии.
- У одной крупной российской компании есть заинтересованность в GML. Правда, как сотрудник этой компании и человек, который в теме, я думаю, что у них завышенные ожидания от технологии и они иногда пытаются применить её не по месту Хотя это мои личные ощущения. В конце концов, это просто одно из R&D подразделений. Ну делают то, что вероятно не принесёт результатов, но это копейки по меркам компании, я х.з. как это выглядит в рамках их общей стратегии.

Диванная аналитика:
- Многие данные имеют естественное представление в виде графов. Особенно хорошо графами описываются базы знаний, социальные сети, сети отношения финансового участия (для задач вроде такой: https://naked-science.ru/article/column/algoritm-rossijskih-uchenyh-nashel). ML хорошо зарекомендовал себя в задачах скоринга, классификации и т.п. Но ML-лю на вход подаются векторы фичей. А GML как раз про то, как использовать в ML-е графовые представления. Есть мнение, что GML сможет повысить качество работы моделей.

- Есть сверхзадача ML - automated feature extraction. И если у тебя есть данные, представленные графом (а это очень общее представление), то, скажем, задача эмбеддинга (сопоставления вершинам графа векторов) - это и есть автоматическое извлечение признаков. Задача эмбеддинга никак не привязана к конкретной предметной области. Она формулируется в абстрактных терминах языка теории графов. Т.е. если ты научился адекватно конвертировать вершины графа в векторы, значит ты сделал автоматическую извлекалку признаков. Почти любые данные можно представить в виде графа, это очень легко сделать. Дальше делается эмбеддинг неким общим алгоритмом, и вуаля, у тебя набор фичей для предметной области, в которой ты даже не разбираешься!

- Есть алгоритмы ML, которые неплохо себя зарекомендовали. Скажем, word2vec. Но они выглядят так, как будто работают над некоторыми представлениями, которые являются подмножеством графовых представлений. Т.е. word2vec работает над цепочками объектов, где каждый объект связан с двумя своими соседями (словами перед и после), они со своими соседями и так далее. Возникает естественное желание, а почему бы не обобщить эти цепочки на граф, где связи могут быть произвольными? Это бы позволило применять подобные алгоритмы к куда большему классу задач.

Теперть про подводные камни:
- Заметание мусора под ковёр. Допустим, у тебя есть граф финансовых транзакций и некий человек, который постоянно ездит на такси, и, стало быть, транзачится с таксистами. В таком эмбеддинге его вектор будет лежать рядом с вектором таксиста по метрике random walk. Но если твоя задача - оценить платежеспособность человека, то что он вообще имеет общего с таксистом в плане этого фактора? А ведь при грамотном анализе графа транзакций о платежеспособности человека можно сказать очень многое. А если ты решил продать человеку тачку - то эта близость к таксистам тебе вообще не подходит. Человек может и ездит на такси потому, что у него прав нет, ему может тачка вообще не нужна, а вот самому таксисту тачка может очень даже пригодится. Это и есть заметание мусора под ковёр. Да, у тебя есть алгоритм, который автоматически эмбеддит вершины. Но твоя задача feature engineering-га никуда не делась, она просто перешла на уровень выбора правильного графа и правильных метрик.

- Брать нахрапом. Слепая вера в то, что если мы обучим модель на всех данных, то интеллетк у неё появится сам собой. Нет, не появится. GTP-3 почти на всём курпусе доступных английских текстов обучили. И чему она обучилась? Обучилась строить синтаксически грамотные, но полностью лишенные смысла английские предложения. GTP-3 даже не понимает, почему человек может стоят подняв одну ногу, но не может поднять другую (потому что у человека всего две ноги, и если он поднимет обе, то упадёт на жопу). GTP-3 - это демонстрация полного провала массированного машинного обучения на больших данных. Не учатся, не понимают, даже если все данные скормить, будет хуйня. Кто-то скажет, может параметров было маловато? Так вот, если в GTP-3 увеличить количство параметров, она тупо начнёт запоминать, у нас просто столько текста нет. К GML всё это тоже относится. У нас пытаются загрузить 5 терабайт в мою графовую базу данных, она трещит, я спрашиваю «Нахуя, разве бывают такие большие графы знаний?», они отвечают «Ну мы всё грузим, типа чем больше инфо, тем лучше» Ну нет, это так не работает.

- Вера в магию AI и стабильность решений. AI просто находит похожие решения, AI полагает, что если две молекулы похожи в заданной метрике, то и действовать они будут примерно одинаково. Но это не так. Оторвав OH ты можешь сделать из нейтральной молекулы йад. AI заточены под какие-то уже известные выборки, а если что-то новое, то они там фейлят.

- Стрельба из пушек по воробьям/один молоток для всех шурупов. Сталкивался с тем, что в графовые базы данных грузят любую хуйню. Тут надо понимать, что GML даст профит только если надо извлекать данные из структуры графа. Допустим, ты вегетарианец. Ну и нам надо искать вегетарианцев. Твои ближайшие связи - это магазин, в который ты идешь. Магазин закупает веган-жрачку у некоторой овощебазы. Нам интересно, что ты как-то косвенно связан с этой овощебазой, сорее нет, скорее нам достаточно просто посмотреть твой профиль продуктов. GML может что-то дать, но примнять его бессмысленно в этом кейсе.
224 2172568
>>172555 (Del)
Чувак, если бы мне хотелось сказать, что всё не работает, я бы так и сказал. Но я в этой теме с нулевых, и я как бы очень даже AI-нигилист и уже не раз посылал нахуй эту тему.

Однако глупо говорить, что "не работает", когда сейчас AI чипы в любой микроволновке. Ну или отъебитесь от моей микроволновки, или ML кому-то нужно и надо с этим как-то жить и адаптироваться.
225 2172573
>>166437

>А с какой стати она должна это понимать?


Не должна. Это ведь лишь более сложная статистическая модель, обученная на большем количестве корпусов. А пориджи с каких хуёв считают, что моделька сама собой чуть ли не разум обретёт.
226 2172636
>>172633 (Del)
Хохлина, хрюкни.
227 2172698
>>172554

>- Брать нахрапом. Слепая вера в то, что если мы обучим модель на всех данных, то интеллетк у неё появится сам собой. Нет, не появится.


Ты оскорбляешь чувства Свидетелей ПидерЛессона.

>- Вера в магию AI и стабильность решений.


Магическое мышление - неотъемлемое свойство завсегдатаев данного треда.
Ведь как ещё убедить себя и кабанчика в собственной интеллектуальной ИЛИТАРНОСТИ и своём высшем предназначении создания будущего, имея три класса образования, мм?
228 2172801
>>172554

>сверхзадача ML - automated feature extraction


Это про поиск всяких подмногообразий? Representation learning?
229 2172847
https://www.youtube.com/watch?v=z64vlgVSQxw

Два Кирилла три часа про Catboost 1.0.0
230 2172888
>>171528
Вроде как начинает "нормально" работать, если хоть сколько-то намайнить примеров этого класса other.
Ещё слышал про какие-то байесовские способы заставить работать, но не найду сейчас.
231 2173148
Допустим есть датасет с категориальными колонками cat1, cat2 и числовыми num1, num2.
Я:
1. Делаю ANOVA для cat1 ~ num1
2. Тестирую две гипотезы, что между двумя конкретными группами в cat2 есть стат.значимая разница в значениях (1) num1, (2) num2.

Правильно ли я понимаю, что в таком случае будет более правильно и для ANOVA и для A/B теста сделать корректировку Бонферрони порогового уровня? Правильно ли я понимаю, что коэффициент корректировки будет 3 (три)?
232 2173160
>>160975 (OP)
Кто-нибудь тут теорию Вапника изучал?
В чём там суть вообще?
Она имеет отношение к разработке реальных архитектур и алгоритмов обучения, или она слишком абстрактная для этого?
image.png1,8 Мб, 1252x1252
233 2173297
>>173160

>теорию Ватника

234 2173521
>>173148
У тебя выполнены условия для корректного применения дисперсионного анализа?
Ты же свои гипотезы post-hoc t-тестами проверяешь?
235 2173530
>>160975 (OP)
Что у этого Leskovec там? Одна теория? Или задачи тоже есть? А то листать эти десятки видео не хочется.
236 2173573
>>173521
Ну сперва anova, потом постхок, если анова говорит, что стат.значимая разница между группами есть. Вопрос в том, нужно ли корректировать p в anova. AB у меня в другой колонке, т.е. анова с ними несвязанна.
237 2173574
>>173573
Т.е. анова и 2 a/b теста по идее - это три независимых друг от друга исследования
238 2173607
>>173574
У тебя две категориальные переменные (cat1 и cat2), ты делаешь анову num1 ~ cat1, затем, как ты пишешь, смотришь на разницу между двумя группами, но не из тех, что в cat1, а в cat2. Это не опечатка?
Кроме того, ты смотришь на разницу по num1 и num2, но анова у тебя только num1 ~ cat1. Это не ошибка?
И еще раз спрошу - у тебя условия для применения ановы выполнены? Есть ли нормальность по группам, одинаковая ли у них дисперсия, независимы ли наблюдения? Иначе (если нет нормальности и одинаковости дисперсий) тебе придётся применять непараметрику.
239 2173690
>>173607

>У тебя две категориальные переменные (cat1 и cat2), ты делаешь анову num1 ~ cat1, затем, как ты пишешь, смотришь на разницу между двумя группами, но не из тех, что в cat1, а в cat2. Это не опечатка?


>Кроме того, ты смотришь на разницу по num1 и num2, но анова у тебя только num1 ~ cat1. Это не ошибка?


Все так. Разве что я про постхок не дописал в первом посте. Итак:

Есть один датасет, категориальные колонки: cat1, cat2; числовые: num1, num2
1. Делаю ANOVA для cat1 по num1. Если ANOVA проходит - делаю постхок (Tukey, например), все группы между собой. (допустим, 4 группы - 6 сравнений)
2. Тестирую две гипотезы, что между двумя конкретными группами в cat2 есть стат.значимая разница в значениях (1) num1, (2) num2.

Вопрос: какой коэффициент в корректировке Бонферрони для ANOVA и A\B тестов из второго пункта, если она нужна?

>И еще раз спрошу - у тебя условия для применения ановы выполнены? Есть ли нормальность по группам, одинаковая ли у них дисперсия, независимы ли наблюдения? Иначе (если нет нормальности и одинаковости дисперсий) тебе придётся применять непараметрику.


Допустим, что да это гипотетическая ситуация, с помощью которой я пытаюсь понять, когда и как нужно применять корректировку Бонферрони, по гайдам не до конца разобрался. Но разве есть разница с точки зрения моего вопроса про корректировку? Для непараметрической ANOVA такой же подход будет же, разве что сам алгоритм другой и постхок тесты тоже надо будет делать непараметрические, по идее.
240 2173694
>>173690
допустим, что в cat2 всего две категории, поэтому для нее я не делаю ANOVA
241 2174200
Есть у кого-нибудь решения курса Шада по нлп? Ну или какого-нибудь другого курса? Очень тяжело самостоятельно решать это (например домашку про доменную адаптацию), хотелось бы иметь что-то с чем можно сверяться.
242 2174210
>>172633 (Del)
Я тут по-человечески пытаюсь общаться, а тебе лишь бы троллить.

Нет, я не жру его 20 лет, я сам оттуда ливнул в нулевых. Потому что тогда думал, что не стоит вскрывать эту тему. Кто тогда мог предположить, что нейроговнго станет мейстримом. А вот стало, кто не вкатился, тот не успел.

Я тут пытаюсь обозначить говна, которые выстрелят в ближайшие несколько лет и попутно сливаю болячки, о которых хайпоёбы предпочитают не говорить. А тебе бы лишь бы самоутвердиться. Ну, продолжай, я не только для тебя пишу.
243 2174212
>>172801
Если сводить к математике, то это вера в то, что большинство решений NP-задач можно найти и так каким-нибудь магическим образом. Ну или в то, что формальное решение - правильное, но и без полного его решения можно достаточно близко подойти на полиномах.
16329056259930.jpg66 Кб, 592x532
244 2174218
>>174212
Вера? Ты поди и про теорему Новикова о перцептроне не слышал, не говоря о чём-то из статической теории обучения, правда же?
245 2174426
>>173694
Ага, теперь ясно.
Коэффициент в поправке Бонферрони равен числу проверяемых гипотез. Анова + постхоки + две гипотезы различий по группам cat2. Только учти, что для постхоков стандартные функции сами часто делают поправку на множественные сравнения тем или иным методом, что может привести к ошибкам в твоём случае - сначала будет поправка к постхокам, потом общая.
Про условия применимости ановы спросил безотносительно поправок откуда же мне знать, что пример гипотетический; на практике обычно нужно что-то делать дополнительно ибо нормальности и равенства дисперсий часто нет. Для непараметрики с поправками все остаётся без изменений.
Я не в дата сайнс, а в науке работаю, судя по чертовой уйме статей, что видел, на поправки обычно кладут болт, это скорее исключение, чем правило.
246 2174427
>>174218

>статической теории обучения


Там есть какие-нибудь фундаментальные ограничения на возможности машоба?
247 2174429
СУКА, ОБСУЖДАЙТЕ ТЕХНОЛОГИИ, ПРОРЫВЫ И ПЕЙПЕРЫ

Что за срань вы обсуждаете?
248 2174430
>>174429

>ПЕЙПЕРЫ


Для этого уже мозги нужны.
249 2174440
>>174429
Прочитал тут одну статью... Идея интересная, заявленные метрики высокие. Правда код не выложили. Да и сам я всё равно не обучил бы, там две недели на сотне тпу обучать надо. Поэтому буду дальше резнет-50 во все поля пихать.
А что вы из последнего читали?
250 2174447
>>174440
1400 TPU-дней... А что бы ты смог скрафтить на них за это время?
251 2174542
>>172568

>я в этой теме с нулевых


А чем тогда занимался, если не секрет? Просто продвинутая статистика на компе, или уже были зачатки всякого computational learning?
252 2174698
https://youtu.be/HgsAne4sXoo

ML Party — 5 октября 2021
253 2174731
>>174426
Спасибо!
image.png904 Кб, 1403x819
254 2174956
Анон, а на сколько пикрил правда? Ну и другие ништяки по ссылке реально так хорошо работают?
255 2174997
>>160975 (OP)
Посоны, там китайцы новую версию онлайн генератора пикч выложили, с повышенным разрешением. Го тестировать https://agc.platform.baai.ac.cn/CogView/index.html
Теперь можно выбрать вид изображения: фото, живопись маслом, китайская живопись, скетч и так далее
Принимается ввод только на упрощенном китайском (используйтe google переводчик)
По-моему охуительно, ведь выдача куда более связная, осмысленная и релевантная чем в clip + vqgan, при этом также и разнообразная. Я рад за успехи Поднебесной.
256 2175001
>>174997

> Принимается ввод только на упрощенном китайском


Даааа? А кто разрабы? 肖叔叔, 廖神父, 孙慧在茶?
257 2175002
>>175001
Тебе какая разница? Сейчас все мировые спецы в машобе это китайцы.
258 2175012
>>174956
Нет, хорошо работает маска/очки у эпла, потому что фейс-айди светит на тебя кучей лазеров и дата по твоему лицу это не картинка, а расстояния между неизменными точками на твоем лице(зрачок - кончик носа, переносица, углы глаз), то есть даже жирея, худея, морщинясь и загорая ты не теряешь способность открыть телефон. Все что по картинке - хуита из под коня и не работает, как и другие говнейронки
259 2175125
>>175114 (Del)
Они и есть на западе, дебил.
260 2175129
>>175127 (Del)
А кто они? Китаец и в Африке китаец.
261 2175344
Как думаете, что лучше из ЯП для DS в карьерном плане (кроме очевидных Python / R) - C++ / C# / Java мб? Работаю продуктовым DS, тут в этом смысла мне не будет, но ведь когда-то буду менять работу, и с С++ попадается относительно много интересных вакансий, например. CV / NLP не рассматриваю, но вот над всякими детекторами аномалий на производстве или RL агентами было бы интересно поработать.
262 2175352
>>175344
Нормальные пацаны выбирают байтоёбство, то есть С++.
263 2175454
>>175114 (Del)
Целует ботинки у негров
264 2175459
>>175114 (Del)

>А как же швятой жапад?


Леваки его уже почти уничтожили.
265 2175461
>>174200
бамп вопросу(
266 2175551
>>174997
Наотрез отказывается принимать промпты на эротику
Примитивные рисунки персонажей в купальниках генерирует кое как со скрипом (надо правильно подбирать иероглифы)
Отказывается генерировать пикчи по диснеевскому аладдину потому что в его имени "а ла динь" два иероглифа "а ла" которые также означают "Аллах" у китайских мусульман
267 2175563
>>175551
Это всё ожидаемо. Винни-Пуха хоть может нарисовать, или это у них сразу идёт как оскорбление товарища Кси?
c.png929 Кб, 722x1004
268 2175565
>>175563
Везде одна политкорректность, что на жопаде что на востоке.
Частично принимает ввод на инглише, все равно выходит хуйня и нет даже намека на nsfw. Я конечно понимаю что Партия борется за скрепы и здоровье нации, но могли бы и отдельно выложить колаб без цензуры "для специалистов" где получится генерировать nude контент.
269 2175785
>>175565
Но зачем им это?
270 2175809
>>175785
Для науки, не?
271 2175859
>>175811 (Del)
Наука бывает разная, Gwern тоже исследует необычные области.
2021-10-06 192848-CogView图文生成 — Mozilla Firefox.png307 Кб, 462x620
272 2175935
>>174997
>>175551

Интересно, вот за такую выдачу заблочат мне ойпи или нет? На самом деле в этом нет ничего особенного - на ютубе полно легальных видосов где маленькие девочки надевают свои купальники и леотарды и позируют в них, а недавно на пляже я видел вживую лоли в купальнике с оголенной спиной и даже украдкой снимал ее на видео
Но самый главный вопрос (не взирая на цензуру на уровне обработки строк) - в дате по которой тренировали алгоритм, ЦП все-таки было??? или нет???
273 2175940
В этом вашем машобе все как всегда: сделали политкорректную модель, вбухав миллиард зеленых, в полном соответствии с этикой ИИ. и ВДРУГ ОНА БЛЯДЬ КАК НАЧНЕТ с нихуя выдавать тонны центральных процессоров!! Просто так, ни с того ни с сего! Как будто там весь даркнет специально выкачали для даты!!! Это и есть вся суть систем "черный ящик" которые неизвестно как обрабатывают вводные данные.
2021-10-06 201322-CogView图文生成 — Mozilla Firefox.png379 Кб, 726x592
274 2175978
Почти NSFW. Чонги всегда обосрутся во всем, даже в вопросах цензуры.
275 2175994
>>175809
Лол. Для науки они опубликовали метод. Демо на сайте для пиара просто.
276 2176000
>>175935
Скоро ты автоматически будешь насажен на швабру за такие съёмки.
277 2176013
>>176000
Ой да не пизди, у меня на харде хранятся закриптованные 10 терабайт фото и видео материалов и всем похуй.
9724c87d20e5169cbd6bb1b5717b29c5.jpg80 Кб, 1013x1433
278 2176026
А вообще у машоба есть ровно одно заветное применение. Это генерация стильных рисунков лоли-героинь. Нарисованные - но чтоб были круглые блики на плечиках, коленках и шишка адски дымилась. На фотореалистичное 3д свинство как-то похуй.
279 2176055
Решил размять мозг и поучить этот ваш ml.

Смотрю курс, слова понимаю, а какие-то сраные формулы - нихрена.
Из всего что препод показывает в курсе, я помню только как матрицы перемножать и транспонировать, а остальное - белый шум. Слишком давно универ закончил, да и стоит признать, у нас, на физике, была не особо углубленная математика.

Как бы максимально лайтово настроиться на восприятие математических письмен, если я не готов сначала прорешивать заново демидовича, а полгода спустя еще столько же тратить на дискретку, потом столько же на линал, а потом столько же на теорию вероятности?

Может коллективный разум уже нашел какое-нибудь сочетание учебника-задачника-решебника, которое поможет погрузиться в это все не тратя оставшуюся жизнь на это?
Другие идеи приветствуются.
280 2176065
>>176055
Читай паперы, поридж
281 2176165
>>176055

>да и стоит признать, у нас, на физике, была не особо углубленная математика


А у них, в мл, математика ещё менее углубленная, чем у вас в физике.

>Другие идеи приветствуются.


Забить на математику и дрочить мануалы по либам, как это делают 95 процентов этого треда.
282 2176195
>>176165

import-fit-predict - неинтересно

хочется разобраться, что там мелят эти умные дядьки
283 2176210
>>176189 (Del)

>Ну там же есть статистика которая хз относится к матиматике или нет?


К математике относится матстатистика, да.
К мл относятся также хотя бы вероятность и оптимизация, помимо матстата, а к ним - линал и матан.

>Мне непонятна сама постановка вопросов в МЛ, что они пытаются эмулировать с помощью математики?


Не беспокойся, они этого тоже не понимают.
Чтобы это понимать, нужно изучать теорию Вапника, а здесь её никто не изучает.
284 2176225
>>176216 (Del)

>Хотя я склоняюсь что это заблуждение в терминологии, должно называться типа риски


Заблуждение в том, что аноны часто путают математику и реальность.
В математике есть конкретное определение вероятности, как и определение случайной величины, например, и эти определения нужно адекватно переносить на реальность, создавая адекватные матмодели.
И вот про это все часто забывают, смешивая математическое и бытовое понимание терминов.
285 2176229
>>176216 (Del)

> нет никакой вероятности


Её и нет в математике. Можно по Байесу интерпретировать: x -- какая-то неизвестная нам величина, x -- реализация этой величины. У неизвестной величины неизвестны конкретные значения, но могут быть известны свойства типа её распределения. Благодаря им мы и можем как-то всё это считать.
Наверное.
16329907548540.jpg10 Кб, 250x247
286 2176232
>>176055
От матана там только термины, если ты для линейной регрессии понимаешь смысл какой-нибудь средней ошибки, градиента, может момента - тебе хватит матана
Сейчас вообще эта хуйня отомрет, потому что все курсы, гайды и книги учат тебя хуярить какие-то нелепые огрызки нейронок в пайторче/тенсорфлоу, когда как повсюду применяются ГИГА трансформеры с 30 миллиардами параметров в тысячи слоев с взаимосвязями, памятью, внутренними подстройками ошибок и предтренированные даже на Аллахе. Зачем тебе тренировать конв2д-Макспул-конв2д-макспул-денс(софтмакс) если ты можешь просто ебануть резнет50, зачем тебе тренировать ЛСТМ-денс-ЛСТМ(бидирекшинал)-денс если можно просто грузануть БЕРТ, который уже знает что пидорас это плохое слово и что УБЬЮ ТЕБЯ НАХУЙ это угроза, ты в это запихиваешь "датасет" из 10 примеров и получаешь на 10% выше точность чем ты бы сделал своими руками запихивая 1000 примеров.
Паперы это вкидывания что-то вроде конкатенации трех разных слоев наверх этих тяжелых нейронок как вишенку для получения 0.05% в какой-нибудь фимозной задаче типа распознавания залуп и сосисок на чб фотках
Машоб как профессия или девелоперская специальность - мертворожденное говно, мы просто были в периоде между выпаданием из пизды и пока аппарат поддержания жизни не перестанет работать, дальше весь машоб будут как науку пилить 3 китайца в университете, а работяги максимум делать фит-предикт как это сделано в эппл с createMl или AutoMl, выбираешь задачу что тебе нужна, выбираешь папку с датасетом, получаешь модель на выходе, делаешь импорт модель и ретурнишь струну с % точности и классом что тебе там нужен
287 2176234
>>176230 (Del)
Лечащему врачу расскажешь.
288 2176239
>>176231 (Del)
Нет там таких утверждений. 50/50 распределяется только идеальная монетка.
289 2176251
>>176245 (Del)
Суть не в том, что изучаемый процесс буквально случаен. Суть в том, что мы не знаем (и часто и не можем знать) досконально какой он, потому я и отсылал к Байесу и потому в матералах с приложениями теорвера и прочей стохастики часто есть слова по типу "неопределённость".
290 2176261
>>176230 (Del)
Сложно это всё.

>>176235 (Del)

>Материален ли разум/интеллект, состоит ли он из атомов?


А состоит ли из атомов информация? Нет, информация это абстракция с состояния атомов. И не только атомов.

Алсо, если верить Пенроузу, человеческий разум обеспечивается невычислительной физикой, которая ещё не построена, предположительно квантовой гравитацией.
291 2176266
>>174218

> Ты поди и про теорему Новикова о перцептроне не слышал


Не, не слышал. Но вот щас загуглил, оказывается, суть теоремы в том, что можно применять SGD. Ну заебись, что доказали. А если бы не доказали, но были бы эмпирические данные, что SGD работает, тогда что, его бы не стали применять? Или эта теорема какие-то особые инсайты даёт о количестве шагов или об оптимальном выборе параметров?

Давай как пример симплекс-метод рассмотрим. Он там к чему-то сходится и что-то оптимальное находит. Но вот его верхняя оценка (копипастю из Википедии):

>However, the simplex algorithm has poor worst-case behavior: Klee and Minty constructed a family of linear programming problems for which the simplex method takes a number of steps exponential in the problem size.[9][12][13] In fact, for some time it was not known whether the linear programming problem was solvable in polynomial time, i.e. of complexity class P.



Сейчас, возможно, аспиранты начнут закидывать меня хуями, если вдруг выяснится, что и для него уже что-то доказали чего я пока не знаю, но суть в том, что когда его придумали, опирались не на теоремы. Метод был чисто эмпирическим и так получилось, что он неплохо работал на реальных задачах, поэтому его и применяли.

Или другой пример. Нам ML преподавал правда тогда это еще не называлось ML-ем доктор наук Владимир Данилович Мазуров. И он что-то дохуя фундаментальное доказал, вроде того, что любая аналитическая функция может быть аппроксимирована нейросеткой с какими-то функциями активации с любой точностью. Боюсь соврать опять же, но общая суть теоремы была в том, что нейросетка с фиксированной функцией активации нейрона может в любые другие функции, т.е. её можно использовать для любых задач разумеется, всё это было описано формальным языком, и тебе еще надо быть дохуя доктором, чтобы понять, как твоя задача описывается предложенными формализмами.

Но что это даёт на практике? Да, мы доказали, что что угодно в теории можно решить нейросеткой. Но как именно, как кодировать входной вектор, какую архитектуру брать, как обучать, имеет ли вообще смысл использовать нейросетку?

ML как было эмпирической наукой, так и осталось. Точнее даже не наукой, а инженерным искусством. Вообще, любая инженерия - это не наука, а искусство (да и само слово ingenium именно так и переводится), пусть даже подкреплённое математикой. Математика в инженерии - лишь инструмент. Она тебе поможет понять, правильно ли ты рассчитал ширину колонн когда строишь дом, и не рухнет ли он, но она тебе не скажет, что дизайн дома должен быть именно таким. Так и ML - ты придумываешь что-то, веришь в свою идею, проверяешь, потом математически подтверждаешь результаты. Причем, последний пункт не такой уж обязательный.
291 2176266
>>174218

> Ты поди и про теорему Новикова о перцептроне не слышал


Не, не слышал. Но вот щас загуглил, оказывается, суть теоремы в том, что можно применять SGD. Ну заебись, что доказали. А если бы не доказали, но были бы эмпирические данные, что SGD работает, тогда что, его бы не стали применять? Или эта теорема какие-то особые инсайты даёт о количестве шагов или об оптимальном выборе параметров?

Давай как пример симплекс-метод рассмотрим. Он там к чему-то сходится и что-то оптимальное находит. Но вот его верхняя оценка (копипастю из Википедии):

>However, the simplex algorithm has poor worst-case behavior: Klee and Minty constructed a family of linear programming problems for which the simplex method takes a number of steps exponential in the problem size.[9][12][13] In fact, for some time it was not known whether the linear programming problem was solvable in polynomial time, i.e. of complexity class P.



Сейчас, возможно, аспиранты начнут закидывать меня хуями, если вдруг выяснится, что и для него уже что-то доказали чего я пока не знаю, но суть в том, что когда его придумали, опирались не на теоремы. Метод был чисто эмпирическим и так получилось, что он неплохо работал на реальных задачах, поэтому его и применяли.

Или другой пример. Нам ML преподавал правда тогда это еще не называлось ML-ем доктор наук Владимир Данилович Мазуров. И он что-то дохуя фундаментальное доказал, вроде того, что любая аналитическая функция может быть аппроксимирована нейросеткой с какими-то функциями активации с любой точностью. Боюсь соврать опять же, но общая суть теоремы была в том, что нейросетка с фиксированной функцией активации нейрона может в любые другие функции, т.е. её можно использовать для любых задач разумеется, всё это было описано формальным языком, и тебе еще надо быть дохуя доктором, чтобы понять, как твоя задача описывается предложенными формализмами.

Но что это даёт на практике? Да, мы доказали, что что угодно в теории можно решить нейросеткой. Но как именно, как кодировать входной вектор, какую архитектуру брать, как обучать, имеет ли вообще смысл использовать нейросетку?

ML как было эмпирической наукой, так и осталось. Точнее даже не наукой, а инженерным искусством. Вообще, любая инженерия - это не наука, а искусство (да и само слово ingenium именно так и переводится), пусть даже подкреплённое математикой. Математика в инженерии - лишь инструмент. Она тебе поможет понять, правильно ли ты рассчитал ширину колонн когда строишь дом, и не рухнет ли он, но она тебе не скажет, что дизайн дома должен быть именно таким. Так и ML - ты придумываешь что-то, веришь в свою идею, проверяешь, потом математически подтверждаешь результаты. Причем, последний пункт не такой уж обязательный.
292 2176272
>>176264 (Del)

>По утверждению Жопеншмульцера?


По утверждению Сэра Роджера Пенроуза.

>Суть в том, как можно что то эмулировать не понимая как оно работает, вот.


А кто тебе сказал, что ты эмулируешь «разум» или «интеллект», чем бы они ни были?
Ты просто решаешь конкретные оптимизационные задачи, не более того.

А про разум и интеллект вспоминают только шизики, любящие псевдотермины типа «искусственный интеллект».
293 2176277
>>176266

>доктор наук Владимир Данилович Мазуров. И он что-то дохуя фундаментальное доказал, вроде того, что любая аналитическая функция может быть аппроксимирована нейросеткой с какими-то функциями активации с любой точностью


Это не он доказал, а собственной персоной Колмогоров.
294 2176278
>>176270 (Del)
А вот и нет. Примеров много.
Нютоновская механика дала много предсказаний, вплоть до открытия планет "на кончике пера"
Предсказание красного смещения на основе уравнений ОТО, которое сначала Эйнштейн отрицал и пытался подправить уравнения. Потом появились эмпирические доводы.
Уравнения хромодинамики и слабых взаимодействий, которые трудно проверить и выводы из них проверяются спустя длительное время и постройки дорогих коллайдеров.
295 2176279
>>175565
>>175551
У ИНСЕКТОИДНОГО СКАМА ОТВАЛИЛАСЬ ЦЕНЗУРА В СЕКЦИИ АКВАРЕЛЬ
ПОВТОРЯЮ, НЕТ ЦЕНЗУРЫ ДЛЯ АКВАРЕЛИ
Какие же чонги дегенераты пиздец просто...
296 2176281
>>176270 (Del)
А я тебя, шизика, помню.
Ты несколько месяцев назад такую же ересь нёс.
297 2176283
machine learning это machine pedolearning, такие дела
298 2176286
>>176284 (Del)
Видимо гравитационные поля в мозгах неочень эффективные.
299 2176289
>>176280 (Del)

> А вот и нет, пупсик, вся информация хранится на физических носителях или передается в физических средах,


А вот и нет, шизик, информация по определению не может храниться на физических носителях, потому что нематериальна.
Хранятся физические объекты или их состояния.

>а вот твой разум который ее считывает является ли физическим объектом?


Он является физическим процессом, и, судя по всему, невычислимым.
300 2176290
>>176288 (Del)
Бля, с вами тут опасно шутки шутить.
301 2176291
>>176275 (Del)

>ммм, оптимизации чего?


Да чего хочешь, того и оптимизация.

>Что значит просто, ну создай варп-двигатель все данные у тебя есть.


Тупая лженаука на сегодняшний день.
302 2176293
>>174354 (Del)

>И что ты полагаешь выстрелит?



Так шапка треда. Я думаю - GML. Причем это не то, что выстрелит, а то, что уже выстрелило и в ближайшем времени будет на хайпе. А если говорить о том, что еще выстрелить не успело - то я х.з., знал бы прикуп, жил бы в Сочи.

Если рассматривать совсем безумные идеи, то вот на вскидку:

- Spiking neural networks.
Хуета, с которой уже давно непонятно что делать. Биологические нейронные сети гораздо ближе к SNNs, чем к перцептронам. Но тут важно понимать, что биология работает in vivo, а не in silico. То, что биологические нейроны работают иначе, вовсе не значит, что в их детальной компьютерной эмуляции кроется какая-то суть интеллекта. Может быть биология сделала так, потому что из белков рабочую, бегающую и ищущею себе еду нейросеть в голове мышки иначе не построишь. А может быть SNNs действительно хорошо подходят для решения некоторого класса задач реального мира, и их надо позаимствовать по принципам бионики.

- Neuromorphic engineering (сюда же mixed-mode analog/digital VLSI).
Развитие предыдущего пункта. Допустим, мы поняли, что в биологических нейронных сетях что-то есть. Разумеется, эмулировать их на классических цифровых процессорах крайне неэффективно. Почему бы не придумать новую архитектуру?

- Quantum computing.
Это как термояд. Возьми любой участок времени после открытия соответствующих эффектов. Всегда нам скажут, термояд будет через 20 лет. И квантовые вычислители будут через 20 лет. Но они никак не наступают, хотя британские ученые каждый день делают охуенные открытия и уже вот-вот. Возможно, это в принципе не возможно. А, возможно, через 20 лет у нас и правда будут квантовые компьютеры.

- Смесь всего.
Например, quantum machine learning. А почему нет, давайте возьмём еще не изобретенные квантовые компьютеры и подумаем, какие преимущества они нам могут дать в обучении классических нейронных сетей. SNNs over graphs, почему нет? Mixed-mode analog/digital идёт сюда же.
image.png163 Кб, 274x360
303 2176299
>>176297 (Del)
"Если честно, то для меня квантовые вычисления звучит как бредятина" (c) А. Айнштайн
304 2176301
>>176296 (Del)
Но ведь понятно что мышление, независимо как оно "реализованно" это эмерджентное свойство мозга. Поэтому бессмыслено говорить что в нейронах нет мышления. Это просто демагогия, чтобы "доказать" что в мозгах вообще нет мышления.

mimo shel
305 2176303
>>176300 (Del)

> «Бог не играет в кости», – отстаивая детерминизм, писал неоднократно Эйнштейн своему главному оппоненту, патриарху квантовой механики Нильсу Бору


Чувак, как ты на этой доске оказался? Мне казалось, что здесь интеллектуальный ценз какой-то
306 2176304
>>174542

> А чем тогда занимался, если не секрет?


Ничем особенным. Думал, что я у мамки самый умный и закодю нейросетку для торгового бота на бирже. Потом как-то быстро осознал, что мамок много и таких же умных у них тоже дохуя и нейросетки так просто не работают. Потом выкатился. Ушел в классическое программирование, постарел. Сейчас вижу, что нейросетки успешно выстрелили с альтернативных направлений.

Я тогда и предположить не мог, что это станет мейнстримом. Тогда нейроускорители были в виде отдельных плат на FPGA, чисто развлекуха для гиков. И тогда еще генетическими алгоритмами увлекались (кстати, а вдруг они стрельнут?)

Сейчас я программер на разработке графовой базы данных. Естественно, она завязана на GML. Сам я не data scientist ни разу, я технический программист, угораю по низкоуровневому кодингу, мои задачи вроде "как разместить 10 миллиардов связей между вершинами в памяти, чтобы было быстрее, чем neo4j". Но data science я тоже люблю.
307 2176308
>>176302 (Del)
Есть феноминальные теории, не обясняющие, но позволяющие смоделировать или вычислить изучаемое явление. Например термодинамика обясняет как ведет себя газ при повышении давления и температуры. Нейронная сеть похожа на феноменальную теорию мышления? Усложнение нейронных сетей даст возможность что-то понять о мышлении? О каких-то часных вещах, например о работе памяти?
308 2176311
>>175344
В ML кроме Python языков нет. Python + С++ (а можно просто С). Тут дело не в твоих языковых предпочтениях, а в том, куда идёт мейнстрим. Ты хоть самый клёвый язык придумай, для карьеры он будет абсолютно бесполезен. Важно не то, на чем ты пишешь, а то, на чем пишут остальные.

>>175352
Хороший заход. Нормальные пацаны действительно выбирают байтоёбство, сам всегда байтоёбом был. Самые нормальные пацаны байтоёбствуют на Хаскелле.
309 2176314
>>176305 (Del)
Ты похож на пиздабола больше его. По современным представлениям волнообразно ведут себя микрочастицы. Частица описывается волновой функцией квадрат нормы которой - плотность вероятности нахождения частицы в каком-то состоянии. Сама волновая функция и приводит к волновому поведению частиц, например к интерференции вероятностей, как у волн. Пиздаболить словесным поносом здесь смысла нет, это строгая мат теория.
310 2176320
>>175940
Чувак, есть очень простое объяснение нетерпимости публичных компаний к речам Гитлера и к 1-D текстовой ЦП. Ты же слышал про "патентный троллинг". Дело в том, что к богатым публичным компаниям постоянно доёбываются всякие нищие безыдейные хуесосы, чтобы нихуя не работать, но отжать у них бабло.

Теперь представь, что ты SEO публичной компании и ты просто создал нейросетку, которая генерирует текст. И в некоторых случаях она может генерировать высказывания Гитлера. И теперь каждый охуевший нищехуесос может харасить твою компанию через суды: мол, я тут написал, "сжигать евреев", а твоя нейросетка ответила - "да, жги", это же ты антисемит, на вот тебе иск, это же ты виноват, твоя нейросетка сгенерировала, или разберёмся в досудебном урегулировании, где ты перечислишь мне бабла!

Понятное дело, нормальным компаниям такое не нужно. Поэтому они и ставят фильтры от хуесосов. Ну что поделать, это мировое зло, оно одинаковое во всех странах.
311 2176328
>>176321 (Del)
Твои мозги. Это микрочастица бозон с двумя состояниями
1 Бухать
2 Морду бить
Как у всех бозонов у нее особое поведение: чем больше бозонов находится в определенном состоянии (бухать/морду бить), тем больше вероятность перехода других бозонов в это состояние (бухать/морду бить).
312 2176329
>>176322 (Del)
Не.
Из термодинамики следует что при повышении температуры и сохранении объема, будет повышаться давление и крышку чайника сорвет. Она не объясняет ЧТО сорвет крышку чайника. Это уже из молекулярных редставлений ты знаешь что у молекул воды будет расти импульс и количество импульса в секунду передаваемое крышки чайника.
313 2176333
>>176055
1. Определяешься со своей задачей.
2. Читаешь пейперы под свою задачу (левые пейперы читать осторожно, наука - дело глубокое, можно очень долго разбираться, но абстракты из левых пейперов тоже не бесполезны, нужный пейпер - на уроне понимания, ссылки - на уровне абстрактов)
3. Если мозгов для пейпера не хватает, прорешиваешь заново Демидовича.
4. Если смог закодить пейпер, то поздравляю, ты R&D-программист.
5. Если нихуя не понял, кодируй как умеешь. Если твой код сработает, с тебя самого пейперы напишут.
314 2176335
>>176232

> Машоб как профессия или девелоперская специальность - мертворожденное говно, мы просто были в периоде между выпаданием из пизды и пока аппарат поддержания жизни не перестанет работать



Этот период равен летам 50-и. Т.е. мы уже сдохнем, пока будет известный нам машоб, а пориджи успеют обучиться и выйти на пенсию, а дети их - обучиться и переобучиться заново.

Ну я в целом тебя понимаю, что машоб - хуета по большому счету, но ты как-то конечность продолжительности человеческой жизни не учел.
315 2176337
>>176270 (Del)
Тащем-то математика и развивалась от запросов эмпиристов. Тому же Ньютону интегральное исчисление понадобилось, чтобы объёмы бочек для вина считать ой я сейчас навру, надеюсь, меня говном не заидают. Но суть в том, что наша классическая математика, которая в Демидовиче, пошла от физиков. Типа физики сказали, у нас тут дохуя сложная теория, вообще объяснить ничего не можем, давайте блядь, придумываете теорию, в которой мы калибровочную инвариантность введём. И математики придумали.
316 2176339
>>176277
Это 20 лет назад было, я уже не помню деталей. Я, возможно, сильно упростил, понятное дело, что аналитическая функция раскладывается в ряд Тейлора по определению и её можно представить хоть хуем с маслом, но этот чувак сделал что-то подобное для нейросеток. Мол, нейросетка может аппроксимировать любую функцию, типа как ряд Тейлора, а то и круче.

Бля, я не ебу, что именно он сделал, но вроде что-то очень значимое с теоретической точки зрения. Не зря же он доктор. Но суть в том, что реальные рабочие нейросетки типа GTP-3 придумали совсем другие люди, которые и не математики, кстати.
317 2176344
>>176297 (Del)
Так на данный момент это и есть бредятина.
318 2176383
>>176339

> суть в том, что реальные рабочие нейросетки типа GTP-3 придумали совсем другие люди, которые и не математики, кстати.


Суть в том, что гпт3 придумали не с нуля, а на основе уже существующих алгоритмов, типа регрессии Надарайи-Уотсона, всё тех же перцептронов итп вещей, родом из математических работ 60х и более ранних. Чтобы гпт3 стала вообще возможной, нужно пройти все промежуточные этапы развития, с нуля нематематики ничего и близко похожего никогда бы не придумали. Кем надо быть, чтобы не понимать этого?
319 2176413
>>176308

>Есть феноминальные теории


Феноменальные, лол, ахаха.

Феноменологические, возможно, всё-таки, лол?
320 2176433
>>176413
феноминально!
321 2176797
>>176383

>Кем надо быть, чтобы не понимать этого?


Пориджем. Любого возраста.
322 2176933
>>176305 (Del)
Ты что, охуел? Как ты смог дожить до 2021? Вы все должны были умереть от старости ещё в середине прошлого века
16333706858730.mp4339 Кб, mp4,
1280x720, 0:02
323 2176940
>>176933

>Ты что, охуел? Как ты смог дожить до 2021?

324 2177186
Аноны, на какую зп можно рассчитывать в DS по грейдам в ДС?
Сейчас тружусь в финансах на $2.4к и рассматриваю перекат
16323989968990.png36 Кб, 167x170
326 2177222
>>177192

>На текущий момент только в одной России больше 5 000 компаний находятся в поисках специалистов по Data Science!

image.png39 Кб, 127x170
327 2177226
>>177222

>Средняя зарплата в этой профессии составляет ~100 000 рублей и практически не имеет верхних границ

328 2177227
>>177192
Если по сабжу, то структурирован более-менее нормально, если впадлу гуглить тебе самому. Яндекс Практикум аналогичный +-
329 2177229
>>177226
Там еще 7000 дата инженеров нужно, причем оба курса срут друг на друга перекрестно
330 2177392
>>177229
>>177222
12 тысяч компаний ищут! Вперед!
331 2177408
>>177186
Через года 1.5-2 после вката сможешь прийти на такую же зп.
Если с ds не получится, сможешь вкатиться в аналитики обычные

только надо оно тебе?
332 2177452
Очередная победа машобчика, встречайте! Теперь из любого мемаса можно получить реалистичный портрет. С зумера просто выпал
https://neural.love/portraits
333 2177524
>>177452
ГДЕ ОЖИВШИЕ ЖЁЛТЫЕ КОЛОБКИ, СУКА?
334 2177592
>>177408
А в США на 10к net когда смогу поехать?
335 2177726
>>177452
Боевых свиней хоть может оживить?
336 2177805
>>177726
которые в котлах ЗАТО померли? там только боевая некромантия поможет
337 2177821
>>176297 (Del)
И что тебе не нравится?
338 2177858
>>177452
и все азиаты получаются
339 2178198
>>177592
через пару месяцев после курса от сбербанка
340 2178242
>>174956
конечно, правда. тут все дело в размере данных. Настолько твое лицо отличается от массы других.

Что эта картиночка значит? какие данные использовались? это сервис в Амазоне?
341 2178273
>>176055
смотря в чем твоя цель.
если бабло зашибать - учи дальше.
если просто понять что тут к чему - погугли курс по Orange от Клейнера.
342 2178410
В машобе много китайцев, но мало мусульман. Им некогда, они ебут ослов.
343 2178503
>>178273

>если бабло зашибать - учи дальше.


Для этого не нужна математика.
344 2178838
>>178410
Искусственному Интеллекту в первую очередь надобно изучать русский и арабский языки потому что все остальные выражаются именно через них.
345 2179137
>>178838

> русский и арабский языки потому что все остальные выражаются именно через них.


Какая-то на 100% беспруфная херня уровня эфира, плоской земли, чипов от антихриста Билла Гейтса или веры в то, что ЭС может полностью заменить врачей. Узнал тебя по шизоидному посту.
346 2179333
Истории успешных перекатов пилите, аноны
347 2179901
>>179333
Раньше был жопаскрипт-макакеном, получал 300к/нс за покраску кнопок и тусил, ебал хрюш.

Потом понял, что это всё хуйня — и пошёл в датасцаенс. Проебал год, полысел, вылез геморой, вкатился и уже имею лычку мидла. Работы нихуя нет, за хотя бы ту же зп надо знать примерно в 40 раз больше, но я не унываю — теперь я математик, а не какая-то кодомакака!
348 2179903
>>179333
В Швятую? Модель перекатиться в ЕПАМ в Прибалтика, если принципиально в цеЕвропе жить
349 2179981
>>179903
двачую этого
каждый второй "эуропеец" считает своим долгом туда перекатиться и жить с влажными мечтами о блю кард
сейчас офис в Вильнюсе состоит на 80% из СНГшников
350 2180163
>>180153 (Del)
Ну не всем же быть сторонником крепкой швабры в жопе, как ты. Есть люди, которым права человека и уровень жизни дороже барина и сказок про калмунизм.
351 2180202
>>180163

>НЕЙРОНОЧКИ И МАШОБ ТРЕД


>права человека


>уровень жизни

352 2180295
>>180202
Традиция
353 2180296
>>179903
Сколько этим эуропейцам плотють?
354 2180302
>>180202
Ну, всё так.
Среда также влияет на человека, на уровень его жизни. Не зря инженегры и учёные сваливают из РФ даже в нищую Проебалтику - не всем хочется вкалывать за миску гречки или насаживаться жопой на швабру по выдуманному властью поводу. Если вон даже рукопожатого Сачкова обвинили в гос.измене, то что говорить про обычного сотрудника, за которого никто и не вступится.
15267448188103.jpg27 Кб, 300x284
355 2180307
356 2180480
>>180163

>Есть люди, которым права человека и уровень жизни дороже барина и сказок про калмунизм.


Странно не любить калмунизм и любить захваченную леваками европу.
357 2180485
>>180302

>Не зря инженегры и учёные сваливают из РФ даже в нищую Проебалтику - не всем хочется вкалывать за миску гречки или насаживаться жопой на швабру по выдуманному властью поводу


В тех же штатах начинающие ученые получают как грузчики без образования. Охуенно, че.
358 2180662
>>180485
Зато интересными вещами занимаются, в отличие от.
359 2180694
>>180662

>Зато интересными вещами занимаются


Основной фокус в науке - это выбивание грантов и увеличение количества публикаций посредством создания ненужного и/или неработающего говна. Исключения есть, но их очень мало.

За интересными вещами по-моему лучше идти в рнд в индустрию.
360 2180793
>>180469 (Del)
Думаешь, у тебя наконец-то появится шанс вкатиться?
Вряд ли.
361 2180802
Почему титаник на каггле решают регрессией, если это бинарная классификация?
image.png333 Кб, 840x774
362 2180808
>>180802
Потому что его решают такие же вкатуны, как ты.
363 2180809
>>160975 (OP)

>Курс GML-бойца: https://www.youtube.com/watch?v=JAB_plj2rbA&list=PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn[РАСКРЫТЬ] (не пугайтесь его английского, чувак из Словении, а сейчас он профессор в Стэнфорде, очередное доказательство, что не важно, насколько хорошо вы говорите, важно, что вы делаете).


Дайте совет как докатиться до таких областей будучи почти нулём даже в линейной алгебре?

Как я понимаю путь такой
- линейная алгебра и алгебра машоба
- машинное обучение
- nlp
- элитлевл типа GML итп

Есть роудмэпы по вкатыванию? Предпочтение стэнфордскому университету, ну может какая годнота с нуля на курсере? Но я глянул на курсере пидорасы всё платным сделали и чтобы пройти полноценное обучение даже в обоссаной ВШЭ нужно плотить 20к зелени (да,я знаю что для СНГ там скидки, но всё-же ценник примерно везде такой).

Программировать умею еличо. Нейронки писал, но это почти не делает погоды тк это были нубовские статьи как работают НС.
imag33344es.jpg11 Кб, 237x212
364 2180828
>>180809
Ты не думал что в обычном техническом университете 600 часов математики(учебных всмысле), на математических факультетах наших лучших вузов 900 без разделения и углубленные предметы, в том числе и отдельный по графам, углубленный линал и множество других. Не знаю как у нас машоб, а в оксфорде это 7-8 полугодий предметов по 200 часов каждый(например CV это 3 полноценных курса на полтора года по 4 пары в неделю, т.е. по 250 часов).
РОАДМАПЫ ЫЫЫЫ ГАЙД ПО МАШОБУ ЫЫЫЫ ГАЙД ПО НЛП ЫЫЫЫ КУРСЕРА))))))
В этом то и фишка, писать x=tf.layers.Conv2d может каждый, это даже не навык, это можно вообще не вдупляя с помощью стейт-оф-де-арт моделей весьма эффективно использовать для своих целей в рамках обычного кодинга, но чтобы делать что-то новое наверное ГУИДА С ЮТАБА не хватит как думаешь? Особенно для человека который не знает что такое вектор толком?
365 2180832
>>180828
Прими нейролептики что-ли. Чего такой злой?

Пишешь же вроде по делу, но потом кидаешь в этот чан говна с кулак.

Я роадмап спросил чисто чтобы не проебаться с белыми пятнами. Твои часы это правда и именно поэтому я сейчас прохожу линейку на курсере и графы втч и прочие околовещи добавил на будущее. То что математики ТАК много проходят в наших ВУЗах - ни о чём не говорит
1. В машобе линейка нужна, а не все возможные теоремы
2. Мир создан западными математиками, а там матан в тех вузах в разы мягче. У нас это изнасилование ради изнасилования. Чтобы только лучшие шизы лезли в области. Ценность коммерциализации практического не оверсложного продукта вообще неосознанна. Осознанно только как создать элиту научную и огородить знание.
366 2180836
>>176296 (Del)

>Так никто не знает как работают биологические нейроны.


Так я и не говорил, что кто-то знает, как они работают. Я говорил, что математические работают иначе. А это узнать легко, достаточно сравнить.
6066438969.jpg198 Кб, 1024x1024
367 2180839
Кому на хуй нужны ваши мл и гмл, когда у меня прямо в руке есть ВОТ ЭТО
368 2180842
>>176383

> Чтобы гпт3 стала вообще возможной, нужно пройти все промежуточные этапы развития



Конкретно оператору гпт3 их проходить не нужно. Это как сказать, что чтобы стать программистом, нужно разбиться в полупроводниках. Или что психолог должен разбираться в молекулярной биологии, ведь иначе мозг был бы невозможен.

У меня был забавный момент, когда я был студентом. Я нахуячил решение задачи коммивояжёра на ГА. И, так как в тогда нашем ВУЗе царило полное распиздяйство, я принёс эту хуйню своему преподу по дискретной математике и сказал: "Смотри, я написал программу, которая вполне сносно решает задачу коммивояжёра на матрице 500х500 всего за 3 дня непрерывных вычислений на моём пентиуме, засчитай её мне в качестве курсовой! А если ты освободишь меня от контрольной, то я вообще тебе отсосу. Шутка"

Но фишка в том, что в той программе была пара настроек, которые можно было крутить. И ГУЙ был, чтобы это было делать удобно. Типа вероятности мутации, количества точек кроссовера, коррекция сигма-отсечения + красивый график, на котором в реальном времени видно, как меняется среднее и оптимальное значение фитнесс-функции. Короче, буквально параметра 3 для настроек.

Курсовуху мне засчитали даже сосать не пришлось. При этом, я был автором программы и знал её от и до, я все параметры перекрутил по 10 раз. Но преподу UI понравился, он сам решил что-то поднастроить. На следующий день он мне сказал, что программа заебись (сомневаюсь, что он читал мой быдлокод вообще), что он дома покрутил ползунки и получил за 3 часа лучший результат, чем я, будучи автором программы, получал за 3 дня.

Переводя на современный язык - это метаоптимизация. Человек, вообще не зная, что я там набыдлокодил, подобрал лучшие параметры, чем я, при том, что я был автором этого говна. Ну может быть просто потому, что он дохуя проницательный?

Это очень похоже на современный ML. Ты можешь изобрести алгоритм, а мету под него может подобрать совсем другой, который даже особо не в давался в то, как алгоритм работает.
368 2180842
>>176383

> Чтобы гпт3 стала вообще возможной, нужно пройти все промежуточные этапы развития



Конкретно оператору гпт3 их проходить не нужно. Это как сказать, что чтобы стать программистом, нужно разбиться в полупроводниках. Или что психолог должен разбираться в молекулярной биологии, ведь иначе мозг был бы невозможен.

У меня был забавный момент, когда я был студентом. Я нахуячил решение задачи коммивояжёра на ГА. И, так как в тогда нашем ВУЗе царило полное распиздяйство, я принёс эту хуйню своему преподу по дискретной математике и сказал: "Смотри, я написал программу, которая вполне сносно решает задачу коммивояжёра на матрице 500х500 всего за 3 дня непрерывных вычислений на моём пентиуме, засчитай её мне в качестве курсовой! А если ты освободишь меня от контрольной, то я вообще тебе отсосу. Шутка"

Но фишка в том, что в той программе была пара настроек, которые можно было крутить. И ГУЙ был, чтобы это было делать удобно. Типа вероятности мутации, количества точек кроссовера, коррекция сигма-отсечения + красивый график, на котором в реальном времени видно, как меняется среднее и оптимальное значение фитнесс-функции. Короче, буквально параметра 3 для настроек.

Курсовуху мне засчитали даже сосать не пришлось. При этом, я был автором программы и знал её от и до, я все параметры перекрутил по 10 раз. Но преподу UI понравился, он сам решил что-то поднастроить. На следующий день он мне сказал, что программа заебись (сомневаюсь, что он читал мой быдлокод вообще), что он дома покрутил ползунки и получил за 3 часа лучший результат, чем я, будучи автором программы, получал за 3 дня.

Переводя на современный язык - это метаоптимизация. Человек, вообще не зная, что я там набыдлокодил, подобрал лучшие параметры, чем я, при том, что я был автором этого говна. Ну может быть просто потому, что он дохуя проницательный?

Это очень похоже на современный ML. Ты можешь изобрести алгоритм, а мету под него может подобрать совсем другой, который даже особо не в давался в то, как алгоритм работает.
попыт.mp46,8 Мб, mp4,
672x960, 0:41
369 2180847
>>180839
Кста, обезьяна обходит человека во многих зачах. Что вы думаете об использовании обезьян в задачах ИИ? Есть предположение, что хорошо обученная обезьяна сможет победить пилота истребителя в воздушном бою за счет более хорошей реакции, главное правильно обучить обезьяну.
370 2180856
https://2ch.hk/po/res/44874303.html (М)
Есть тут эксперты и инсайдеры? Прокомментируйте новость
371 2180862
>>160975 (OP)
Посоны, есть готовые маны как распознать обезьяний почерк прописью в тетрадках? Готов вручную обучить модель на нескольких страницах.

У меня 300 страниц ебической прописи на русском. Вручную я буду оцифровывать лет 200.

Может софт готовый есть? Abbyy OCR нихуя не распознаёт пропись и умеет только в обычный текст. Чому кстати? Это же для бизнеса было бы неплохим подспорьем? Или в больницы оцифровывать забористый врачебный почерк. Кстати, а как там обстоят дела? Может кто-то оцифровывает? Кто?
372 2180863
>>180856
А что тут неясного?
1. Китайцев много
2. Они задрачивают математику
3. Едут получать западное образование
4. Перекатываются назад
5. Развивают свою страну по мировым стандартам
6. ИИ стал главным проектом КПК
7. В образование вливают большие деньги тк это ценится после осознания пиздеца Мао, а в ИИ теперь вкладывают ультра большие ресурсы
8. Рынок больших данных: Китай ебал в сраку заигрывания в прайваси итп (которые на западе все-равно никто не соблюдал)
9. Количество китайских работ и спецов колоссально, а количество перерастет в качество
10. Китайцы очень предприимчивые и доводят теорию в практику (как американцы)
11. Бизнесы реинвестируют в образование и китайскую экосистему стартапов
12. Мне грустно за Россию хотя Путин сам заявлял что обладание сильным ИИ это очень важно
373 2180868
>>180863
13. Китайцы более усердны
14. Китайцы хотят реванша

в общем запад сейчас может только в запрет технологий и экспорта знания
но я че думаю - пиздец ребята
китайцы в США не могут ассимилироваться - банально даже в сексаче обсуждают инцельство азиатских парней (у девушек ситуация проще)
то есть по факту они чужие и им проще перекотовываться назад в Китай с большим опытом
374 2180873
>>180863

>12. Мне грустно за Россию хотя Путин сам заявлял что обладание сильным ИИ это очень важно


ИИ это новостной термин, это как робот Федор или еще какая-то срань типа новостей как школьник из Ростова написал ИИ который по телефону определяет есть ли бабло у должника и теперь сбер покупает его патент за 100500 миллионов
С выделением 0.4% бюджета на науку он собственно никакой ИИ не получит, а все кто работают в машобе либо в сбере-яндексе-тинькове-альфе пилят банковские/маркетинговые задачи, а если и есть какие-то люди типа того же патлача из Тинька который пилит свою РЛ-либу, то рано или поздно она станет частью гугла, а он гражданином США. Россия в этом плане даже не начинала, самое лучшее что Путин сделал с образованием - не лез в него и не сломал то что было с совка, оно дико устарело и не работает уже как должно, но еще не омерзительно чтобы никто не шел, хотя через 5 лет уже будет именно так - образование будет гарантировать работу за 30к в ебенях, а без него можно успеть куда-то вкатиться в какой-нибудь диджитал
375 2180879
>>180856
Глупость, а скорее заказ.
ВСЕ большие инновации в машобе идут из американских компаний и универов. Китайцы из Китая пишут скучные инкрементальные статьи вида "я тут подергал немного и улучшил результат на 0.001%". Пока не начнется поток действительно революционных вещей оттуда, ничего не поменяется.
376 2180987
>>180879
В свете начинающегося противостояния США с Китаем, непонятно, почему американцы дают китайским студентам доступ к своему образованию и технологиям.
377 2180996
>>180987
Потому что расизм!
Блевачки такого не допустят!
378 2181031
>>180987

> В свете начинающегося противостояния США с Китаем, непонятно, почему американцы дают китайским студентам доступ к своему образованию и технологиям.


Потому что китаец, сьебавший в США и отучившийся там, видал на хую Китай, социальный рейтинг, товарища Кси, калмунистическую партию Китая и вяликого кормчего Мао заодно. Это уже не ресурс Китая.
379 2181141
>>180987
Потому что Америка сложная, там нет партии которая всегда права. Тебе не понять.
380 2181154
>>181031

>Потому что китаец, сьебавший в США и отучившийся там, видал на хую Китай, социальный рейтинг, товарища Кси, калмунистическую партию Китая и вяликого кормчего Мао заодно. Это уже не ресурс Китая.


Какая наивность. Любой китаец за границей находится под наблюдением партии и делает регулярные отчёты. Это фактически шпион. А если он и захочет выебнуться, то его мама и папа на родине потеряют работу а может и анальную девственность. Шантаж через родственников как раз и заставляет отрезать головы в Париже якобы по религиозным соображениям. Просто ставят выбор или ты режешь голову и садишься в тюрьму, либо все твои родственники и тяночка остаются без дома например.
Вот и выходит что проще отсидеть лет 10 за убийство, чем потерять всех на свете.
В более мягкой форме это работает везде где нет демократии.
381 2181665
>>181260 (Del)

>китайские коммунисты


Мань, тебе уже обьясняли, что никакого калмунизма там нет и не было. В Китае госкапитализм. А отношение китайцев к калмунизму очень хорошо иллюстрирует факт, что калмунистический термин "товарищ" (тунчжи по-китайски) там давно используется как синоним к слову "пидорас", о чем даже в педивикии написано:

> В 2010 году китайские власти запретили водителям использовать слово «товарищ» в обращении к пассажирам, так как оно используется китайской молодежью для сленгового обозначения геев.[6]

382 2181864
Опять в треде экспертошизик насрал

>>181751 (Del)

>Это также похоже на историю с термином "gay"


Да, это именно термин

>который, как гласит распространенная версия его происхождения, является аббревиатурой выражения "good as you"


Ты это с вандерзина спиздил? Или с хабра?
383 2181886
Сделайте нейросеть типа заменяет слова в тексте на более популярные типа чтобы на дваче не говорили что я шизик, а думали, что я быдло или нормис
384 2182052
>>181886
Для начала, вместо "нейросеть" говори "нейроночка".
двач -> мейлач
быдло -> пердикс
385 2182056
>>180832

> Мир создан западными математиками, а там матан в тех вузах в разы мягче


Если мы говорим про адерградов -- да. но мир создан не ими, а людьми которые спят несколько часов в сутки и хуярят по пейперу в неделю после того, как 3-6 лет на PhD прошли в своём филде путь от античности до завтрашнего дня
386 2182094
Что щас по зарплатам в маштбчике, котаны? Сколько получает синьор?
image225 Кб, 1080x1845
387 2182273
>>174440

>А что вы из последнего читали?


Кажется что-то из этого
388 2182330
>>182273

Блэт, как же жизненно
389 2182592
>>182052

> двач -> мейлач


-> вэкач
>>182094
300к/нс
390 2182959
>>182094

>Сколько получает синьор?


Столько же, сколько и в других областях айти - 200-250к в ДС, 150к в мухосранях.
391 2183075
Кто-нибудь пробовал Genji-python-6B, это gpt-j-6B, файнтюненная на пистоновском коде? По идее, должна норм код писать.
392 2184174
>>182959
а чо мало то так? пориджи рынок уронили?
393 2184821
Собирался вкатиться в мл, но мама вырубила у меня комп, отобрала симпл димпл и поставила в угол, потом оделась в латексный костюм доминатрикс и порола меня в попу страпоном(( в наказание за то что я такой тупой поридж(((((
394 2185046
>>184821
Почему у тебя такие фантазии, ЭС петух? Ты пидорас что ли?
395 2185079
>>184821
А у тебя попа уже разработанная была?
Какие параметры у страпона?
396 2185460
Как фьюзить локальные и глобальные эмбеддинги графа?
397 2186819
Привет, хочу вынимать текстовую транскрипцию из своих видеозаписей лекций, лектор говорит на русском с английскими терминами. Подскажите, что и как заиспользовать, чтобы делать speech-to-text. Я попробовал https://github.com/SergeyShk/Speech-to-Text-Russian , поднял в докере, все ок, но там моделька только с русским языком и на английских терминах она лажает.

Если ошибся тредом, перенаправьте
image.png149 Кб, 1415x804
398 2187290
Пытаюсь понять трансформеры, берты, не зная базовой теории по нейросетям.

Будьте добры, расскажите, где у нас на этой пикче функции активации? Кроме софтмакса никаких? Или после фид форварда всё же имеются какие-то?
Заранее благодарю.
399 2187322
>>187290

> Будьте добры, расскажите, где у нас на этой пикче функции активации? Кроме софтмакса никаких?


Только в feed-forward элементах. Остальное - нормализация и аттеншены.
400 2187406
Допустим, есть данные с многими признаками. И один из признаков вроде важен, но содержит большое число пропусков. Пропуски заполнены специальной меткой. Можно ли при обучении модели как-то делать на это поправку и оценивать ниже/штрафовать выше признак со значением в виде такой метки? Т.е. что-то вроде точечной регуляризации.
401 2187580
>>187406
В керасе ищи параметр sample_weight в fit.
В пайторче можешь просто лосс домножить на вектор весов перед усреднением по батчу.
402 2187637
>>187322
Благодарю.
403 2188007
Надо сравнивать 2 набора данных нейронкой, как это лучше сделать? Будь то текстовые или изображения. Мне кажется, если просто какую-нибудь функцию расстояния применить, то будет работать не так как мне надо, вот и надо веса обучить.
С изображениями я уже понял, что надо пропустить через классификатор, но забрать данные из более близких к выходу слоёв, а не с самого конца и потом сравнивать
404 2188200
А есть кто звук генерит нейроночками (желательно не речь)? Как успехи? В каком домене работаете, вейв, спектр, MFCC? Рекурентные/сверточные, или комбинации юзаете? Какие лоссы для звука больше подходят? Какие архитектуры перспективней по-вашему, автоэнкодеры, ГАН-ы или другие извращения? Курсы, лекции, статьи есть хорошие по этому делу?
405 2188292
Кто что скажет про https://d2l.ai/ ? Стоит новичку начинать с этого или лучше начать со стенфордского курса по машобу (учитывая что там практики почти нет)? Мне показалось что на d2l тоже практики нет, а теории так и подавно или я не прав?

С чего лучше всего начать чтобы не проебаться и хорошо знать тему? Критерий: много теории, много прикладного. С чего вы начинали?
406 2188338
>>188292

>Критерий: много теории


Вапник, "Статистическая теория обучения".
407 2188406
>>188338
Не знаешь ли, в этой книге много нового относительно "Восстановление зависимостей по эмпирическим данным"?
408 2188475
>>160975 (OP)
Что с этим акцентом боже
409 2188476
>>188406
Не знаю, эту не читал.
410 2188479
>>188406

> в этой книге много нового относительно "Восстановление зависимостей по эмпирическим данным"?


Много. По-сути, законченная теория с примерами применения в виде алгоритмов типа SVM и бустинга. В советских книгах только начальные этапы развития теории.
411 2189139
Там завезли новый пейпер про генерацию 2д пикч с учетом 3д пространства (3д форм) чтобы улучшить качество выдачи. Еще, говорят что следующим прорывным шагом будет уже генерация анимации или коротких видосов. Очуметь! Кто что думает?
412 2189144
Я честно пытался разобраться в китайских пейперах, но вскоре понял, что лучше просто надеть нейлоновые чулки и пойти в ванную, лечь попой кверху и баловать попу ребристым дилдой. Обильно харкая на пальцы и смазывая слюнями дилду и разинутый анал, чтобы легче входило и выходило. Когда заканчиваю, то весь с ног до головы в слюнях и изо рта текут слюни. По прежнему ни хуя не понятно в пейперах, но ощущения - улёт, прям будто прирост производительности тренинга с внедрением GML.
413 2189146
>>188475
Это не акцент, это он пересосал слишком много хуев и от изношенности рта испортилась дикция. Потасканный словенский рот и потасканный парень в машобе.
414 2189167
>>189139
Видео-генерация это логичный следующий шаг. При таком-то качестве картинок, принципиальная возможность должна быть. Но там, видимо, действительно нужно понимание 3д.
Пока что генерация видео не работает.
415 2189180
Посоны, там уже выпустили Stylegan3
Ребята с гверновского дискорда обсуждают на реддите как сделать основанную на тегах генерацию ecchi хентай lewd рисунков - как TADNE плюс по желанию соски, вагины, анусы и всё остальное. Трапов тоже можно. Text-to-image генерация
Там предлагают использовать deepdanbooru для кластеризации. Кто-то уже пилит nsfw модель stylegan3, но у него получается хуево, да и сам стайлган отстой если честно. Там походу придется делать новый vqgan по датасету от Гверна, на самом мощном tpu, какой возможен. Если в комьюнити есть миллиардер или мультимиллионер, то пусть его попросят скинуться на аренду суперкомпьютера. Иначе хз как делать
5a9bdf65-1f0c-11ec-8866-1997f83d3bd3.png168 Кб, 256x256
416 2189194
>>189180

>миллиардер


>помогать бичам генерировать фута-порно, цена за аренду тпу для этой цели стоит дороже чем нанять 10 художников чтобы они высирали НОРМАЛЬНЫЕ а не пикрелейтед арты

417 2189213
>>160975 (OP)

Вопрос из любопытство: не так давно пророчили будущее за топологическим анализом данных, а до взлёта популярности нейросетей -- за генетическими алгоритмами.

Откуда берётся утверждение про то, что GML -- это вот прям будущее? Ведь куда вероятнее, что, как и топологический анализ данных, это будет отличный инструмент, но в своей нише.
418 2189355
>>189194
Ради науки же
419 2189464
У кого получалось верифицировать российский телефон на каггле? В чем подводные могут быть? В тех.поддержку вроде сабмиттил, хуй поймешь на их сайте, в ответ тишина.
420 2189769
>>177392
Хуёво ищут. Ни одной в тредике
7blolr4qb8c61.jpg49 Кб, 600x879
421 2189905
>>189180
Будет генерировать искусство.
422 2190023
Есть в трежде GML иксперды? Запилите пейпер для модели, которая делает релевантный и в высоком разрешении результат для строки: "a lewd CG illustration of cute hot 'n' sexy futanari chlenodevka is riding on a huge horse dick while cumming badly, in front of masturbating Donald Trump". С меня сотни нефти.
1634971829112.png32 Кб, 1176x481
423 2191204
Предположим, я хочу предсказывать Значение count.
Прочитав статью на хабре, я создал дополнительные признаки. Но как они мне могут помочь предсказывать, если я не смогу их посчитать для новых данных (кроме признаков из даты)?
424 2191326
В чем разница между рекуррентными и рекурсивными ИНС? Никак не могу понять. Рекуррентная сеть - частный случай рекурсивной?
425 2191937
Вы уже заметили, что в МЛ везде одни чонги? Какой папер ни откроешь - в авторах одни китаёзы, ехал Цао через Цао. Особенно в той области которой я интересуюсь (генерация графики, генерация стилизованных рисунков) - куда ни ткни пальцем, там папер и код непременно писали чонги.
Это не есть хорошо. Я всегда недолюбливал гуков за то что они едят всякую дрянь и становятся переносчиками инфекций. За то что срут на улицах и тд. А китаёзы вдобавок наглые, ни дать ни взять узкоглазые жиды. И разносят везде свой коммунизм, такими темпами скоро и Тайваню придет пизда.
Почему белые люди не могут сами двигать прогресс? Мы же блядь еблая раса, арийцы. Китайцы еще не так давно в 90-х ковырялись в говне и торговали на российских барахолках. Американцы, европейцы, даже русские - это наоборот сверхчеловеки, создатели всей современной цивилизации и науки, изобретатели компьютеров и интернетов. Почему они отстают от желтожопых-то блять?
426 2191969
>>189194

>нанять 10 художников


Зачем, если можно за те же деньги имитировать 10 тысяч, причем разнообразных и с самым высочайшим скиллом.
427 2191983
>>189194
Не трясись, хуйдожник. Лучше начинай осваивать нормальную профессию.
428 2192041
>>189464
Идёшь нахуй по причине раш хацкер.
ML он блядь захотел как жёлтый белый человек, иди 1С конфигурировай
429 2192512
Наткнулся на такую тему:
https://github.com/l4rz/stylegan2-clip-approach
Я правильно понимаю, что берется обученный на чем-то клип, извлекается вектор из входящего текста, и он потом идет на вход стайлгану для модели лиц? Но почему это работает, если клип обучали не только на лицах? А если обучить клип только на датасете лиц?
430 2192665
>>192512
Не совсем. Нейронка начинает в рандомном месте координат модели gan, затем делает картинку из тензора, clip смотрит на картинку и дает оценку насколько это похоже на введенный текст, и эта оценка возвращается в роли функции потерь. Дальше оптимизатор шагает в сторону где скорее всего оценка будет выше и все по новой.
431 2192750
Где перекат? Я конечно могу перекатить, но вам не понравится
432 2192762
>>192750
Пусть умирает и больше не перекатывайте.
433 2192773
>>192762
Одебилевшего ЭС петуха забыли спросить.
434 2192789
>>192773
Ну и нах твою батю забыли спросить?
435 2192802
>>191937
да а еще мне не нравится их английский
и то что на своем собачьем часто между собой разговаривают
436 2193185
>>192512

>извлекается вектор из входящего текста, и он потом идет на вход стайлгану для модели лиц?


Нет, там подбирается входной вектор для стайлгана такой, чтобы клип говорил "сгенерированная картинка соответствует тексту"

>Но почему это работает, если клип обучали не только на лицах?


Потому что от клипа нужно только сказать, изображена ли на картинке "девушка в шляпе" и какая из двух картинок лучше под это подходит.

>А если обучить клип только на датасете лиц?


Для начала найди такой датасет из лиц и соответствующих описаний.
437 2193908
>>191937

>Я всегда недолюбливал гуков за то что они едят всякую дрянь и становятся переносчиками инфекций


Если ты про корону, то хуевый из тебя дата-сатанист если ты в spillover версию веришь. Там десятки фактов которые ее опровергают, но все поверили что:
1)Главная баба-вирусолог китаянка не пиздит
2)Британский проверяющий у которого персональный контракт с вуханьской лабой на 39 млн долларов не пиздит
3)Правительство китая, которое по запросу Австралии сделать перепроверку недавно ввело санкции на торговлю с ней, не пиздит
4)Не знаешь про gain-of-function research, что гигаочевидно и произошло
5)Ни одного ученого из двух других лабораторий того же класса(Калифорния и Техас) не пустили туда
Короче там еще кучи говна, но верить в ебучий спилловер на севере Китая от заразившихся от южных летучих мышей южных панголинов которых вообще никогда не было на вуханьском рынке - надо просто быть дурачком
Но ты прав, гуков при теории что они проебали безопасность и выпустили более заразную созданную версию короны стоит ненавидеть даже сильнее, ведь проебалось не быдло голодное что любит кал жрать, а специалисты и правительство. Правда весь мир поддержал и закрыл глаза
438 2193916
>>193908
испанка тоже?
439 2193925
>>193916
Все кроме русского гриппа - спилловер, но корона явный не спилловер
16334332300910.jpg187 Кб, 869x869
440 2194052
>>193925

> спилловер,


Что это такое? Попытоголовые новое слово придумали опять?
CWf9HMw.gif1,6 Мб, 224x168
441 2194068
>>193925

> спилловер


Вот такой?
442 2194070
>>194052
Это когда я spill over лицо твоей мамки. Привет ей кста
Screenshot 2021-10-26 at 18.15.46.png193 Кб, 739x854
443 2194194
>>194052
Ну извините что русские генетики и вирусологи которых запретил еще Сралин не придумали как назвать явление когда инфекционное заболевание сталкивается с новым видом хостов(извините носителей), мутирует и начинает вызывать заболевание с новыми характеристиками.
444 2194316
>>194194
Измените, я точно попал в эс-тред?
445 2196023
Хочу обмазаться дата аналитикой и скрапить все возможные данные об игроках в мобу не днота из открытых источников (роль, чемпион, состав команды, состав врагов, ирл время матча, луз/вин-стрик и пр.), чтобы потом научить свою железку предсказывать поражение или победу пчелика с точностью хотя бы 0.6.
Какую литературу для этого почитать? Может есть статьи по схожей тематике?
446 2196282
>>196023

>Хочу


Мало ли что хочешь. Ты здесь никто. Иди в жопу! урод

>литературу для этого почитать


Ахахаххахахах
Не, серьезно чел, ты ёбик
447 2196291
>>196023

> с точностью хотя бы 0.6.


Маловероятно. Пробовал такие вещи делать, ничего толком не получается.
>>196282
Официально опущеный закукарекал.
448 2196432
>>196023
Просто натренируй трансофрмеры, скажем последнюю пиздатую модель nlp типо берта, запиши всю инфу всей команды после токена начала текста, в конце запиши инфу противника, поставь спец токен, "победа/поражение", конец спец токена и токен конца текста, набери такой датасет, и вуаля, ты охуенен.
449 2196673
>>196023
Ты понимаешь что любое предсказание события выше 50% даже 50.00000001 - это уже бесконечные деньги
450 2196680
>>196673
это при условии что у тебя уже бесконечное количество денег
451 2196718
>>196673
Это не так работает. Коэфы разные, у фаворита коэфы всегда ниже чем у аутсайдера
452 2196744
>>196718
Какая разница? Есть у тебя любой набор событий и ты точно знаешь что выше половины твоих предсказаний верны - ты можешь делать ГАРАНТИРОВАННО деньги, просто разбивая на десятки ставок чтобы сыграла любая и ты был в профите
453 2196787
>>196744

> Какая разница?


Очень большая. Нужно угадывать сильно больше 50%. Лет 7 назад пробовал угадывать исходы матчей MLB (бейсбол, не БЛМ), получалось предсказывать больше половины, но при имеющихся кэфах всё равно итоговые результаты были в минус (подсчитывал без реальных ставок, оказалось что оно того не стоит, чисто лудомания). Там тоже не дебилы сидят.
454 2196789
>>196787
Ой блин, как до тебя донести, ты можешь угадывать хоть 95% что собственно и является вполне обычным рейтом не рискового инвестора, но между УГАДАЛ и ТОЧНО ИЗВЕСТНЫЙ РЕЗУЛЬТАТ есть гигантская разница, условно если с рулеткой взять - ты можешь угадать одно из 36 полней и получить 35х своих ставок, из 100 баксов сделав 3500+100, и это будет 100%, второй раз ты уже не угадаешь и проебешь все, это будет 50%, итог при 50% - проебано 100 баксов. Если же ты будешь ставить на 1/3, черное/красное то все упирается в реальный рандом(предположим казино идеально честное), может черное и меньше 18 выпадать хоть 20 раз к ряду, все вероятности возможны.
Но если у тебя есть всегда гарантированное 51% знание того что выпадет, ты можешь играть пока не начнешь умножать свои стартовые 100 баксов до бесконечности не имея шанса все проебать. Вероятности уже не работают, так как у тебя всегда есть возможность выйти с плюсом и играть так пока не посинеешь
455 2196913
>>196789

> гарантированное 51% знание того что выпадет


ты реально дебил что ли?
456 2196936
>>196789
>>196913
ладно, хуй с тобой, давай я тебе опишу.

И так, у тебя есть бой двух якодзун, на фаворита коэф 1.2, на второго 2.35
Ты на 75% уверен, что победит фаворит.

Если ты победишь, твоя ставка иксанется на 1.2 (или сделает +20%), если проиграешь — иксанется на 0 (или сделает -100%)

(1.2 - 1) x 0.75 + (0 - 1) x (1 - 0.75) = -0.1
Мат ожидание: -10% от ставки (то же самое, что x0.9)

Тебе нужно заходить только в такие ставки, у которых
X x Y > 1
(где X это иксы победы, а Y это % в абсолютных величинах)

Иначе ты будешь сосать. Хоть на 95% будешь уверен, ты пососёшь, если мат ожидание отрицательное
20.png41 Кб, 634x279
457 2197060
Сап машобач, есть тут у кого колаб про? А то у нас на реддите проклюнулась охуительная идея для ебейшего любительского проекта, суть такова
https://nyaa.si/view/1384820
https://rutracker.org/forum/viewtopic.php?t=6053436
Скачиваешь датасет (пикчи с разметкой по частям тела, охуенно), обрабатываешь этой тулзой https://github.com/Sleepychord/cogdata
Тренируешь вот с этим кодом
https://github.com/THUDM/CogView

Китайский генератор на трансформерах - это лучшее, что было создано в области ML за весь этот год. По сути это DALL-E, опубликованный для широкой публики, проект просто улёт, охулиард параметров и высочайшая связность в пикчах, а к декабрю обещают следующий апдейт с ещё более лучшей генерацией и повышенным разрешением. У CogView открытый исходный код и там возможна подготовка кастомной модели. Чел говорит, для приемлемого результата нужны параллельные вычисления на нескольких A100. На Kaggle с одним GPU такого явно не сделаешь. Поэтому спрашиваю, может у кого из вас есть хотя б подписка на колабе, чтоб погонять кастомную виабу модель и нахуячить как можно больше слоёв.
458 2197072
Возможно ли генерировать (text to image) такие пикчи с помощью машоб модели? Я отвечу: да, возможно, и даже возможны ещё на порядки лучше и детализированнее. Просто stack more layers, и будет такая модель как надо. Сейчас на реждите балуются со stylegan3, но cogview лучше раз в сто.
459 2197125
>>197072
У четвёртой хуй?
16354334147060.jpg112 Кб, 751x980
460 2197135
>>197125
Было бы охуенно если это так. Это Алиса, - плюшевый медвежонок который превратился в девочку, а до этого превращался в парня т.к. это его реальный гендер.
461 2197149
>>197060

> может у кого из вас есть хотя б подписка на колабе


сколько она стоит?
462 2197153
>>197072
>>197060
Машоб-тред 2021
ЭС-шизик, долбич постящий картинки с зумерами и воодушевленный дрочила на синтетический хентай
Ну в принципе ни для чего другого это говно и непригодно
463 2197154
Я хочу потренировать модельку со слоями drop out, я ведь правильно понимаю, что дроп-аут зануляет выходной сигнал? То есть превращает его в ноль? То есть мне нужно создавать такие входные данные, чтобы 0 являлся не минимум, а серединой/медианой?
Penis-size-does-matter-infographic.jpg887 Кб, 2280x1782
464 2197157
>>197153
Чувак, секс это селектор технологий в мире лысых обезьян
465 2197249
>>197153

>ЭС-шизик, долбич постящий картинки с зумерами и воодушевленный дрочила на синтетический хентай


Вот что бывает, когда технологиями начинают заниматься пориджи.
Слава Дарвину, хотя бы в нормальную науку массово не лезут.
466 2197300
>>197154
Неправильно
467 2197308
>>197300
А что он делает? Какой сигнал он подаёт, когда сбрасывает данные?
468 2197372
>>197060

>Китайский генератор на трансформерах


Китай базированый и редпилленый, за ним будущее. Жлобы openai зажали код dall-e под предлогом того, что юзеры будут цп генерировать. Они просто хотят стричь бабло со своим проектом. Кринж, да и только. А исследователи университета - чеды, выложили модель на вебсайт в открытое тестирование.
Америка и её МЛ индустрия - кринжевые, а китайские эксперты based. Нефритовый стержень, твёрдый уверенный шаг! Не желтый медведь из мультипликации империализма
469 2197378
>>197372

> под предлогом того, что юзеры будут цп генерировать


Будем!
470 2197384
>>160975 (OP)
Это гигачеды машоба. Те, кто развивают науку и создают реальные проекты, а не захламляют arxiv бумагами для подтирания сраки.
Вам до них словно раком до луны, пориджи. Америка капитально всосёт в разработке ИИ, потому что у куколдской америки нет таких гуру (зато есть affirmative actions и Black Lives Matter).
471 2197389
>>197378
Я тебя сдам тащ майору. Будешь сидеть в сизо, свистеть и пердеть.
472 2197397
>>197384
Здравствуйте, это канал об аниме?
473 2197398
>>197397
Канал об твоей мамке, вон она кстати строчит минет сразу двум казахам
474 2197426
>>197372

> базированый и редпилленый


> based.


Слова-детекторы плюмодебила.
>>197384

> Вам до них словно раком до луны, пориджи. Америка капитально всосёт в разработке ИИ, потому что у куколдской америки нет таких гуру (зато есть affirmative actions и Black Lives Matter).


Мань, весь современный машоб создан в США. Китай может только доедать за американцами, ни одного алгоритма в Китае не создали.
16340504736370.jpg50 Кб, 604x540
475 2197439
>>197426

>плюмодебила


Ясно всё с тобой. Печке одиноко без тебя
476 2197444
Гугл анонсировал новую архитектуру для ИИ, Pathways.
Какая-то муть, уверен что китайцы потом сделают более выдающийся аналог.
477 2197524
>>197444
Зумеры придумали мультитаргет? Или в чём там прикол, в распределённости?
478 2197592
>>197444

> анонсировал


в смысле сказали, что у них есть? или уже выложили спеки? или выложат спеки такого-то числа?
Кто такая, чем знаменита? Чего добилась?
479 2197711
>>197249

>акинатор


>нормальную науку

480 2197841
>>197711
Соглы, нормальная наука должна быть основанной будто красная таблетка.
481 2197881
>>197153
>>197249
А что вы хотели от харкача? Для биоинформатики и расчетов турбин ракетных нужно быть взрослым человеком с работой и образованием, а здесь манятеоретики и вчерашние студни дрочат хуй на соревнованиях в интернете. Поэтому другой науки не завезли.
482 2198004
>>197592
Забей на этих куколдов, китайцы сделают в сто раз пизже.
483 2198024
>>197711
Иди нахер, ЭСошизикошизик.

>>197881
Примерно про это я и говорю.
image.png49 Кб, 842x336
484 2198063
Что значит "обучение"?
485 2198544
>>188200
Ну ты спросил, братишка. Все зависит от того, какой именно звук тебе нужен. Для речи обычно генерят mel-спектрограммы, потом из них вокодером делают аудио.
486 2198555
>>160975 (OP)
А я просто напоминаю, что эпидемия COVID-19 - это спланированная репетиция, это подготовка к Новому Мировому Порядку, принадлежащему владельцам технологий нейроинтерфейсов и ML.
https://www.youtube.com/watch?v=csP3jkSrWL4&t=8090s
487 2198571
>>198555

> Новому Мировому Порядку


Какие подводные?
488 2198677
>>198555

> эпидемия COVID-19 - это спланированная репетиция, это подготовка к Новому Мировому Порядку,


ZOG там -> и таблетки пить не забывай.
489 2198712
>>198571
Для простых смертных - ничего хорошего.
Наиболее вероятна стерилизация через вакцинацию для уничтожения большинства населения.
Разделение человечества на господ - омолаживаемых суперлюдей с суперинтеллектом, усиленным ИИ через нейроинтерфейсы, и рабов, нужных лишь для потехи суперлюдям.

>>198677

>ZOG там -> и таблетки пить не забывай.


Конформистская серая масса порвалась.
16338031176290.png168 Кб, 400x375
490 2199032
>>198712

> Наиболее вероятна стерилизация через вакцинацию для уничтожения большинства населения.


Наиболее вероятно что ты зумер, наслушавшийся каких-то дегенератов в интернете. Тебе самому не стыдно таким опездолом быть, куропатка?
491 2199232
>>199032

>Тебе самому не стыдно таким опездолом быть, куропатка?


А тебе не стыдно верить в официальные версии, конформист?
16321247597780.jpg73 Кб, 592x532
492 2199517
>>199232
Зум, а кто сказал, что я во что-то верю? Я, в отличие от тебя и тебе подобных, способен различать факты и домыслы. Это для тебя разница неочевидна, потому что ты поридж.
493 2199521
>>199517

>способен различать факты и домыслы


Самомнение у тебя высокое, я смотрю.
494 2199810
Идите нахуй тупые пориджи. Акинатор ваш уровень, вас один только слипи чорд всех сразу сделает в анал и даже не заметит этого
>>197384
Идите сделайте лучше прогноз для онлайн покера, рулетки или хз еще что
495 2199829
>>199810

> прогноз для онлайн покера


Бота в смысле? Ты ведь понимаешь, что такие уже есть?
496 2199845
>>199829
Вот и делайте ботов, парашные зумеро черви.
497 2199848
>>198555
Le zoomer
498 2199869
>>199845
Почему у тебя там бомбит от молодости? Ты сельд?
499 2200004
>>199848
Глупец, опомнись, грядёт Большая Жатва.
500 2200059
>>189144
Но ведь китайские бумаги самые содержательные.
501 2200247
>>200004
А это грядёт оно здесь, в твоей палате?
502 2200432
>>197881

>расчетов турбин ракетных


>нужно быть взрослым человеком с работой и образованием


И зарплатой 50k рублей)))
503 2200708
rudalle.ru — хуйня.
1606154005687.jpg119 Кб, 754x999
504 2200756
https://huggingface.co/spaces/akhaliq/clip-guided-diffusion
https://colab.research.google.com/drive/1y3Vt39A5KSNFRa6Z2bCqDHxteZSVH9NC?usp=sharing#scrollTo=LHLiO56OfwgD
https://agc.platform.baai.ac.cn/CogView/index.html

Вся text-to-image технология на сегодняшний день?
Серьезно????
Хррр-тьфу
Они должны были уже пилить генерацию связных 10-минутных роликов по синопсису. Ссаные пориджи. Обмажутся повесткой, ботинки ниггерам целуют и в жепы с ними ябутся
505 2201693
>>200708
Да, оказывается и сладкохлебный Улус джучи подсуетился:
https://rudalle.ru/
урусский Dall-e.

По результатам высокий разброс: иногда годные фэйки, иногда хуита голимая.
В веб версии приходится ждать час, ночью укладывалось в пару минут.
Colab с K80 оче медленно, с batch-ем даже не успевает за отведенные 6 часов.
Kaggle вроде работает, пока только начал тестировать.
506 2201732
Есть довольно глупый вопрос.
Могу ли я использовать BERT как энкодер, а декодер при этом соорудить самому? Если да, то:
а) Чем нужно воспользоваться в хаггингфейсе для этого, у какой берт модели есть для этого интерфейс?
б) Как это реализовано? Ведь классически обученный берт никакую информацию для какого-то энкодера не готовит.

Есть только идея атеншн самому написать, и сделать декодер сугубо на нём.
Спасибо.
16153787973610.jpg90 Кб, 1610x1068
507 2201756
>>200708
>>201693
Тут самое смешное то, что технологии вперёд двигают западные энтузиасты или небольшие конторы типа eleutherai, а отечественные ололо айтигиганты способны только доедать за бездуховными сжвблмлгбт пиндосами.
>>200756

> Обмажутся повесткой, ботинки ниггерам целуют и в жепы с ними ябутся


Ага, а наши за ними доедают. Что-то своё сделать в принципе неспособны. Только зафайнтюнить западное на западных видюхах на русскоязычном датасете и выдавать за прогресс.
508 2201772
>>201732
Там у меня проблема ещё в том, что выборка у меня очень маленькая, поэтому на то чтобы обучить даже один полноценный слой атеншна её не хватит (1000 элементов), мне бы хотя бы простой RNN декодер обучить. Поэтому возникает вопрос - а что бы мне такое передавать в декодер, в качестве hidden state'а.
Быть может просто метку, соответствующую CLS токену?
Заранее спасибо.
509 2201777
>>201756

>зафайнтюнить западное на западных видюхах на русскоязычном датасете и выдавать за прогресс.


Самое интересное, что говноед Gwern уже собрался файнтюнить именно этот урусский dall-e, для генерации хентай пикч.
16354178683520.jpg68 Кб, 968x544
510 2201781
Есть идея как сделать генератор фильмов.
Трудно ведь сделать так, чтобы трансформер охватывал сразу все два часа полнометражной ленты? А мы сделаем по-другому, переход от общего к частному. Сначала генерация серий фейковых скриншотов, по паре для каждой сцены - кадр для самого начала, и кадр для конца сцены. Они, разумеется, различаются, но не так чтобы сильно - просто начало сцены и ее же конец. По содержанию сцены тоже различаются: в начале у ленты такие сцены, какие бывают в начале фильма, под конец - такие как бывают в конце фильмов. Затем добавлять промежуточные моменты между первыми и последними кадрами. Потом уже заполнять всё между ними плавным движением, как промежуточные кадры в анимации. Актёры, камера - всё движется и делает что-то. Потом на это накладывается звук в соответствии с картинкой.
Ну и конечно, для одного фильма все сцены более или менее связаны между собой (одни и те же участники, но с вариативностью). Тогда это действительно будет один и тот же фильм, а не просто подборка коротких роликов. Для ранних экспериментов лучше взять самый простой жанр типа японского AV. Я даже не знаю что может быть проще чем сгенерировать JAV кино на два часа, да даже китайский код на трансформере справится с этим на TPU девайсе. Лучше даже сначала делать лоурез, потом апскейл до 720p или еще больше.
511 2201792
Там уже давно сделали модель для интерактивной генерации графония из жта 5. Жмешь кнопки и у тебя на экране происходит всё как игре, без всякого кода и без движка. Тупо реалтайм фейк графония. Да, мыльно, но если стакать больше слоев, то и мыла не будет.
512 2201825
А что по голосу? Когда войс актинг завезут?
513 2201835
Когда перекат завезут?
514 2202063
>>197439
Этого в бан. Борда 18+
515 2202067
>>189180
Лоликон генерировать будет интересно?
516 2202071
Что там по генерации музыки? Есть продвижения?
517 2202093
Подскажите норм курс математики для дата саенса/машоба, дабы вкатываться потом не как лох
518 2202106
>>202093
На скилбоксе все есть.
Ну или же Вапника читай.
519 2202245
>>202093

>норм курс математики для дата саенса/машоба


В МФТИ читают, ну или ИТМО хотя бы
520 2202250
>>202245
А онлаен это можно где нибудь увидеть?
521 2202258
>>202250

>дабы вкатываться потом не как лох


>онлаен это можно где нибудь увидеть?

522 2202270
>>202258
Да иди нахуй. Чем математика отличается от других вещей, которые спокойно читаются в онлайне? Только наличием обиженок типа тебя наверно.
523 2202275
>>202067
У меня TADNE + Clip периодически выдавал почти голых лолей, хотя я всего лишь вводил тег который с ними часто совпадает (micro bikini).
16354258898750.png267 Кб, 560x350
524 2202280
>>202063
Когда тебя ебали - что на жопе написали?
дошкольник ебаный, иди спатб ложись пока ремня не дали
525 2202282
>>202270
Ебать ты даунинг-крюгер конечно. Вот ведь все дураки, в вузы идут зачем-то

>дабы вкатываться потом


Вот ключевое отличие
526 2202303
>>202282
Да меня просто выбешивает состояние материалов по математике в ру сегменте. Википедию открываешь и чувствуешь всю ту ненависть, с которой её заполняли. Где вот эта вся блять гордость россии, мат школы и победы в олимпиадах? Где блять? Нет нахуй, тебе ответят пиздуй в мааскву за знаниями. Да почему вдруг то? Я хочу сам обучаться, но нет. ИЛИТНОЕ ЗНАНИЕ. Да хули там элитного? но спасибо, посмотрю что они предлагают
527 2202326
>>202303

>Я хочу сам обучаться


Даннинг и Крюгер спешат на помощь
528 2202356
>>202326
Да ты заебал
529 2202360
>>202275
Хуитка какая-то. Написал "nude loli" нейронка начала рисовать какой-то дойкодрочерский пиздец. Решил перефразировать, блокнот упал с ошибкой "Out of memory".

Надо было с санкаку дб брать.
530 2202363
>>202360
Санкаку это педосайт, удивительно что его до сих пор не пидорнули с хостинга и домена.

>блокнот упал с ошибкой "Out of memory


Проблемы нищенок без про подписки.
531 2202368
>>202363

> Санкаку это педосайт, удивительно что его до сих пор не пидорнули с хостинга и домена.


Ни законами США, ни законами Японии лоликон не запрещен. Учи законы, чтобы не быть баттхертом.
532 2202375
Как автокодеры чувствуют себя для генерации пикч?
Я бы сделал так:
1. Сделал бы претрейнинг на общей базе данных.
2. При вводе тегов для генерации искал бы в дб пикчи содержащие данные теги.
3. Дале подавал рандомный результат поиска в автокодеровщик, чтобы он сделал что-то похожее, но не совсем.
533 2202386
>>202250
Курса мало. Можешь попробовать Mathematics for Machine Learning https://mml-book.github.io/book/mml-book.pdf, но этого тоже мало.
534 2202393
Уважаемые борщехл.. специалисты по нейроночкам и машинному обучению, подскажите, почему "Сбер" (прямо скажем, не самая последняя в РФ компания, то есть по ее высерам хотя бы кое-как можно судить развитие в отрасли) создал нейросеть, которая генерирует изображения по описанию на русском языке, и получился буквально кал?
Вот эти вот разговоры о том, что ИИ заменит кого-то на работе, тех же кодомакак- это даже не просто какие-то сказки, которые время опережают, это ведь буквально бред ебучий, если ваши нейросети высирают это.
1 пик - "большой член"
2 пик - "марио"
3 пик - "Путин"
537 2202442
>>202412
>>202414
Долбоеб, ты подпиши хоть, по какому описанию она этот бред высирает.
По "древнему городу" можно заключить, что она еще способна высрать что-то отдаленно похожее - мол, какой-то древний булыжник посреди равнины, э-э.. ну, типо, древний город. А может высрать что-то типо первого пика >>202393.
Буквально каловый черный ящик, который рандомно высирает или полнейший бред, или полубред. ВАУ! Скоро нас ИИ заменит-то, с "таким" прогрессом?
538 2202446
>>202442
Твоя критика не обоснована.
1635972800189.png571 Кб, 943x626
539 2202453
Гигер в гробу переворачивается.
540 2202485
>>202453
Так нонейм какой-то. Очевидно, что в датасете его примерно нихуя.
>>202442
Шизик, успокойся. 5 лет назад еле-еле смогли черно-белые лица 28х28 генерировать. Если где-то и был прогресс, так это в генерации изображений.

“Академическая чб фотография домов и улиц постсоветского города, лишенного всякой надежды”
541 2202536
>>202485

>5 лет назад еле-еле смогли черно-белые лица 28х28 генерировать


И? Долбоеб, они сейчас в половине случаев не могут генерировать самые простейшие запросы, что-то немного тяжелее, чем "голубое небо зеленое поле". Да и лица они генерировать толком так и не научились. Пиздец прогресс, ору. Шизоид, угомонись уже, просто прими это как факт, что твоя хуйня - абсолютно сырая, ей нужно несколько десятилетий, чтобы хоть что-то из нее серьезное вышло. Другие бы воспряли духом - значит, есть, над чем работать, что улучшать, но шизик почему-то считает своим долгом копротивляться и называть этот кал "прогрессом", хех.
542 2202544
Катитесь, у вас тред мертвый.
>>2202541 (OP)
>>2202541 (OP)
>>2202541 (OP)
results100.png586 Кб, 799x539
543 2202575
Ордынцы обосрались:
https://twitter.com/danielrussruss/status/1455972427712765954
Оверфиттинг и плагиат. У рузке вообще руки из жопы растут.

Ну что ж, зато эта херь может генерировать NSFW (пикрелейтед сгенерированы мной). Лоликон я так понимаю тоже сможет.
Обновить тред
Двач.hk не отвечает.
Вы видите копию треда, сохраненную 16 мая 2022 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски