Вы видите копию треда, сохраненную 4 мая 2021 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Я ничего не понимаю, что делать?
Вкатывальщики импортят slesarplow as sp по туториалам (хотя сейчас актуальнее pytorch)
Толковые качают из репозитория awesome-XXXX на гитхабе проект какого-то китайца, меняют фамилию и получают $10M инвестиций как стартап.
Умные смотрят prerequisites на https://see.stanford.edu/Course/CS229 и http://cs231n.stanford.edu/
Остальные сидят ИТТ
Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus
Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/
Почему python?
Исторически сложилось
Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет
Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python
В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials
Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел
Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой
Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся
Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров: https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных?
http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь
Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом
Кто нибудь использовал машоб для трейдинга?
Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.
Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Предыдущие:
https://2ch.hk/pr/res/1868191.html (М)
https://2ch.hk/pr/res/1847673.html (М)
https://2ch.hk/pr/res/1832580.html (М)
https://2ch.hk/pr/res/1817320.html (М)
https://2ch.hk/pr/res/1785952.html (М)
https://2ch.hk/pr/res/1758961.html (М)
https://2ch.hk/pr/res/1734710.html (М)
https://2ch.hk/pr/res/1704037.html (М)
https://2ch.hk/pr/res/1665515.html (М)
>За 100к картинок заплатишь тысяч пять
Описание содержимого картинки, правильное и достаточно полное?
Получишь качество на уровне марковской цепи с ключевыми словами из распознанных объектов
>Описание содержимого картинки, правильное и достаточно полное?
Оно, как я понял, должно быть сжатым, в виде одного небольшого предложения.
>Получишь качество на уровне марковской цепи с ключевыми словами из распознанных объектов
На каждую картинку надо секунд 15 - получается 12 долларов в час за 240 размеченных картинок. Это даже много, можно и дешевле.
https://www.youtube.com/watch?v=8z13MZiXdD4
https://youtu.be/d9QHNkD_Pos
https://youtu.be/f7he34i4pRc
Оголяющий бот. Стоит денег, $5 за 100 картинок после 3 бесплатных фото.
Желательно чтобы жертва была одета в купальник/лиф+трусы, стояла прямо и смотрела в камеру
>На каждую картинку надо секунд 15
Ага, так и будут тебе описания херачить по 15 секунд за копейки.
Будут в одно слово обозначающее самый очевидный класс просто писать и всё, из этого достаточно мощный генератор не сделаешь. Нужна более качественная разметка - плати и всё равно чистить придётся.
>Оголяющий бот. Стоит денег, $5 за 100 картинок после 3 бесплатных фото.
Наверное наш нечеткий организовал, хули, нейронки же для зумерков тупых, любой справится
>12 долларов в час
>за копейки
Сколько по-твоему должны платить обезьяне без навыков, которая размечает картинки? Зарплату сеньора в Долине?
>Будут в одно слово обозначающее самый очевидный класс
Это все контролируется, по крайней мере на амазоновском турке. 12 в час это вообще очень много. За такую плату ты можешь найти людей с высшим образованием для которых это основная работа.
>Это все контролируется, по крайней мере на амазоновском турке.
Ну два слова будут писать. Универсального контроля работающего для таких специфических задач нет, только для типовых разметок.
>Ну два слова будут писать. Универсального контроля работающего для таких специфических задач нет, только для типовых разметок.
Индус размечает 1000 картинок, а ты детально просматриваешь штук 10-20, выбранных случайно. Вероятность не заметить халтурщика околонулевая.
Не, ну ты наверное заметишь, но когда всё кончится уже.
Другой вопрос, что сейчас нужно не нейронку искать под задачу, а задачу под нейронку. Вот на это петушки не способны. Свои гениальные идеи нужно создавать после чтения архива, а не до.
Как коммерческий сервис не взлетит. На этом можно сделать, ну одну игру, и то придется рекламировать как ИИ-сгенерированную, иначе игроки не поймут грязный графон. Это не окупится.
Как петпроект сойдет.
>нужно не нейронку искать под задачу, а задачу под нейронку.
Главное - это решение задач бизнеса ну или своих собственных, а как именно решать абсолютно похуй. Хоть нейронками, хоть ad-hoc скриптами - главное, что работает.
> Как коммерческий сервис не взлетит
Похуй. Главное чтобы это был инструмент заменяющий тебе дизайнера. Одиноким геймдевелоперам огромная помощь.
>Главное - это решение задач бизнеса ну или своих собственных, а как именно решать абсолютно похуй.
В рашке может и похуй, когда у бизнеса горизонт планирования месяц, а работнику вообще важно дожить до получки и хуй забить на перспективы.
А если у тебя горизонт планирования хотя бы пару лет, далеко не похуй.
Главное - прибыль. Прибыль - это разница между затраченным и полученным. Одни решения дают прибыль сразу, одни не сразу. Они требуют постоянных усилий на поддержку и модификацию скриптов, другие просто работают. И так далее.
И вот дальше ты как ml-слесарь пиздуешь на arxiv-sanity и просматриваешь заголовки, пытаясь понять, а какую хуитку можно встроить в текущий пайплайн твоего места работы. Если находишь - заебись, пиздуешь к чуваку повыше тебя в иерархии и толкаешь идею, финансирование. Не находишь - плохо, ищи дальше, или жди, пока твой начальник найдет и положит тебе в рот проект.
А вот пытаться с нуля разводить ресерч, если ты в бизнесе работаешь, типа как с этими "8bit captioning нейронка" это хуевая и рискованная идея. Такие идеи можно пробовать, но только если вложенные ресурсы копеечные - понял, что датасет ты напарсишь тут, модель тут, хуяк-хуяк. А если просто чтобы проверить твою гениальную идею нужно месяц координировать разметчиц, ну вы явно какой-то хуйней страдаете, на дворе 2020, гитхаб ломится от импелеменированных и гарантированно работающих решений, а вы свою родненькую гениальненькую (хххртьфу) идею отпустить не можете.
>на дворе 2020, гитхаб ломится от импелеменированных и гарантированно работающих решений
Ещё думать как это полунеработающее говно присобачить к своей специфике, легче набрать данных и обучить, читай битерлесон
Возможно. Берешь хэш от входных данных и делишь его по модулю на число требуемых кластеров. Универсально я ебал.
Если бесплатно выложить, то может быть зайдет в среде начинающих инди.
> Кластеризуй мне шум.
Зумера, зачем вы такие? Шум никаких кластеров не содержит, как ты его кластеризуешь? Зачем ты вообще это написал? У тебя мозгов нет?
А насколько выглядит рабочим вариант предсказывать параметры бета распределения, из которого берется матожидание (или семплируется) угла?
Мне как раз неплохо было бы иметь вероятности углов.
> распределения
> вероятности
Да хватит пыжиться, собирай данных больше, учи, не трать время, не еби мозги
Надо же, сойбои открыли для себя тезис Чёрча-Тьюринга, гласящий что все достаточно сложные вычислители в конечном счёте вычисляют одно и то же, независимо от их хитровыебнутости. Я прямо даже удивлен такой оперативности
А чем один одинаковый как под копирку еблан лучше другого такого же?
>Чёрча-Тьюринга, гласящий
>Хорошо смазанная жопа с засунутым членом лучше нейроговна
Думаю Тьюринг это имел в виду, или какие у этого педика еще заслуги кроме жопоебли?
Хохол выбежал из Швабропараши и обмазал здесь все говном, уходи обратно к своим хабрахрюковцам
Ты хотя бы неразрешимость проблемы остановки доказать можешь без гугла?
>гласящий что все достаточно сложные вычислители в конечном счёте вычисляют одно и то же
Он не это гласит, а то что всё что в принципе можно вычислить на физическом устройстве, можно вычислить на МТ.
Одна из формулировок, к слову, из книжки Вапника из опхуй поста. Почитали бы умных людей вместо пидерлессона, как это сойбои для себя назвали.
Нихуя толстота пошла. Сделал он максимальный вклад в теорию вычислимости, больший чем кто либо. Ну и вся теория алгоритмов до сих пор крутиться вокруг машины Тьюринга, есличо.
То что он был няшным андрогинным трапиком это только ему в плюс офк
Так мы читали, это ты нихуя не читал, кроме инфы на русском из времен СССР, потому что все давно перестали переводить
Не читал ты, зумер.
> В чем вообще смысл биттерлесона?
В том, что сойбои открыли для себя то, что тезис Чёрча-Тьюринга, оказывается, и к машобчику применим. Ну кот бы мог подумать! Вапник об этом ещё в 90е писал, но это ДРУГОЕ конечно же...
Я же объяснил, при чем. И даже сослался на соответствующую его формульровку.
Это ты не понял. Как и автор этой писульки.
За эти несколько лет тредов еще ни разу не было такого, чтобы он что-то понял. У него просто такая штука в мозге отсутствует, только комбинирование случайных баззвордов в случайном порядке.
>Сделал он максимальный вклад в теорию
>вся теория
Так я и говорю что петух-пиздабол, он даже Энигму не вскрыл с кучей таких же петухов пока ему разведка все ключи на блюдечке не принесла. Типичное оверхуйпнутое говно.
Не тебе судить, обезьяна
Зумер, ну куда ты лезешь, твоих петушиных мозгов не хватит, чтобы оценить вклад Тьюринга в математику.
>оценить вклад Тьюринга в математику
Я и говорю, бесполезный петух как и все математики, собственно они его и форсят.
Я про архитектуру, мне больше RISC нравится. Но это всеравно кал, нужно принципиально новое направление.
Не так просто этих макак встроить в систему. На той же толоке там и мониторинг скилов, и умная выдача заданий, и вариация цены. На типовых задачах это более-менее работает, но если тебе надо что-то более креативное, вроде словесных описаний, это гораздо сложнее.
> Саттон
Сойбой. В случае с reinforcement learning он (это же он был?) даже не понял, чем занимается, не уловил, что по-сути пытался смоделировать скиннеровский three-term contingency. Так же и со своим "битерлесоном", написал то, о чем умные люди ещё лет 30 назад писали. А потом появляются свидетели этой хуйни, как ты, горький петух, которые по своему зумерству тоже не могут понять написанное.
>не уловил, что по-сути пытался смоделировать скиннеровский three-term contingency
У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"? Если нет, то нахуя он нужен. Ну и результатов у него тоже нет.
С тем же успехом можно сказать, что всё в мире сводится к категориям аристотеля.
Все поняли? Биттерлесон - это про тезис Черча-Тьюринга. RL - это про three-term contingency.
Не поняли, нет?
Короче, как этот конструшок - нечеткий петушок функционирует. Он берет какой-то рандомный термин из прошлого, пишет "X - это Y", и молится, чтобы никто в треде не знал, что такое Y. Если знает и говорит банальную вещь, что петушок опять соснул, - он начинает злиться и постить картинки с зумерками, но больше хуйни не пишет. Если же молитвы услышены и никто его не обоссал, он убедится, что все обошлось, и у него начнется очереднеая стадия шизы.
>У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"? Если нет, то нахуя он нужен. Ну и результатов у него тоже нет.
Не будь петушком, уважай ученых. Петух специально выбивает тебя в эту плоскость, где он может нести свою шизу. Это хуйло даже статью в оригинале прочитать не может и ждет перевод на хабре, и пишет просто рандомный набор слов каждый раз по одному и тому же паттерну.
Его утверждения, что "XXX не понял YYY" не основаны ни на чем, кроме желания высрать хоть что-то, будучи интеллектуальным ничтожеством.
> У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"?
Было. Только сойбои его не читали, а я читал, в оригинале, вопреки кукареканьям горького петуха о том что я якобы не знаю англюсика поэтому знаю, о чем говорю. Сойбои а ты тем более с RL не ушли дальше понятия топографии поведения, в отличие от Скиннера.
> Ну и результатов у него тоже нет.
У него их полно, просто ты о них не слышал.
>>883273
> Все поняли? Биттерлесон - это про тезис Черча-Тьюринга. RL - это про three-term contingency.
Да. Только чтобы понять, почему, мозги нужны.
Так у тебя их нет, лол. Сначала клоуном /math был, теперь здесь.
Додвачевался до того, что сойбоями называешь людей, которые защитили диссертацию до того, как ты родился.
> Сначала клоуном /math был
Ага, дебилы не понимают разницы между потенциальной и актуальной бесконечностью, а клоун я? Нет, зум, это так не работает. RL у долбаебов не работает потому что они долбаебы. Про Скиннера вроде слышали, но ведь с долбаебами всегда так - слышали, но не читали, читали, но не поняли, поняли, но не так. Поэтому RL не использует результатов, полученных Скиннером, а он ведь ещё лет 80 назад пояснял, в каких случаях и почему его подход может не работать. А теперь смотрим RL и видим, что эти ебланы собрали все грабли, о которых Скиннер рассказывал. Так что сойбой твой Саттон, можешь даже не спорить.
Если нечеткий петух такое пишет, значит это пиздеж, и не жопеншмульц доказал в 1927 году, а херожольц в 1925, на что у жопеншмульца была ссылка, но петух читал советский перевод его работы, где ссылки нет, и без перевода статьи на хабре он беспомощен, при этом сама теорема на самом вообще не о том и не применима.
С тобой все в порядке?
Что у них не работает, и что работает у тебя? Если ты такой умный, то почему тогда бедный не зафигачил новые эффективные методы RL?
Зумерок, иди почитай классику [Zhopenshmultser et al. 1946], там уже давно всё придумали. У сойбоев не модно изучать классику, а модно трясти нейронки, поэтому результатов не видно.
>ГПТ-3 скоро порешает кодомакак
Не порешает. Как минимум из-за ограниченной длины последовательности, которую она умеет генерировать.
Всё применяют. Например, в статье Performer используют наработки из кернел-методов.
Просто шизиков меньше слушай, которые притворяются людьми.
> , однако почему ВЕЗДЕ stackMoreLayers?
Горький петух говорит, что дело в битерлесоне. На самом же деле проблема в том, что сойбои ни во что кроме стекморлейерс не могут, а закон Мура приводит к тому, что и так получается неблохо, сравнить-то не с чем.
> перефорс
Перефорс чего? Это не перефорс, "горький петух" - это теперь твое официальное звание. Лови мэдскилл.
https://youtu.be/6gDxvk6n-qM
Это четкий петух.
Но в индустрии должны быть не только сойбои?
Вот теперь и возлюбишь винду.
Гугли что-нибудь типа "heatmap by column", если в документации на то, чем ты пользуешься, этого нет.
Няшки, какие сейчас есть технологии распознавания и поиска лиц по базе? Хочу сделать детектор либирашек для своей Родины.
Ну в его время это был нехилый прорыв. Когда остальная психология измеряла черепа, толковала сны, и гадала на кофейной гуще.
>>885171
Ещё один дебилок. Прорыв Скиннера был в переходе от топографии поведения к понятию операнта, что дало возможность изучать поведение как явление, а не запутаться в бесконечных многообразий топографий поведения, на чем закончились исследования всех до Скиннера. Но откуда такие вещи знать одинаковым как под копирку зумерам без мозгов.
Все те же ,базовые, как и позавчера.
На всякий случай обоссым тебя и твое государственное объединение.
Вполне реалистичная задача, сопоставимая с распознаванием лиц по пайплайну. Собири датасет со шрифтами, напиши скрипт по агументации, который меняет у букв размер и цвет, и тренируй нейронку по букве выдавать эмбединг, соответствующий шрифту.
Дальше все сводится в kNN в пространстве эмбедингов.
Лол, так а в чем он не прав, если действительно хипстеры просто вытаскивают то что ученые лет 50 назад изобрели?
Читай старые книги там все есть. По крайней мере я про нейронные сети читал еще в дремучем детстве в обычной библиотеке обычного санатория-курорта.
Ну, что то же у хипстеров работает, кек. Просто они называют это всякими модными баззвордами.
>но меня интересует ещё возможность хотя бы приближённо воссоздавать оригинальный.
Это тебе conditional gan нужен тогда
В целом идея и бог весть какая свежая, нагуглишь дохуя чего
> хипстеры просто вытаскивают то что ученые лет 50 назад изобрели
> По крайней мере я про нейронные сети читал
А ещё хипстеры матрицы перемножают, а это вообще 150 лет назад начали делать. Сойбои не могут ничего нового придумать.
> Ты так примерно почуствовал, да?
Я не он, но причем тут "почувствовал"? Я тебе даже точно назвал книгу Вапника с нужной интерпретацией тезиса Тьюринга-Черча и примерами использования его в машобчике. Видимо, не в зумера тайд коня корм. Что тут можно добавить, остаётся тебе только посочувствовать.
>Я тебе даже точно назвал книгу Вапника с нужной интерпретацией тезиса Тьюринга-Черча
Я уже написал об этом все вот тут - >>883273
'Он берет какой-то рандомный термин из прошлого, пишет "X - это Y", и молится, чтобы никто в треде не знал, что такое Y'
При этом каждый раз (я не знаю какой по счету уже) нужно лезть руками и убеждаться, что там тупо какая-то нерелевантная хуйня. Один в один было так с no free lunch theorem, которую он упоминал в треде всякий раз, кроме тех случаев, когда она действительно нужна.
Если кому нужно - https://statisticalsupportandresearch.files.wordpress.com/2017/05/vladimir-vapnik-the-nature-of-statistical-learning-springer-2010.pdf
>Он берет какой-то рандомный термин из прошлого, пишет "X - это Y
Так в чем он неправ? Если хипстеры просто называют баззвордом Y то что было в книгах под названием X?
В том, что X - это не Y, а просто не связанные между собой вещи.
Что эти хипстеры защитили свои тезисы еще до того, как ты родился.
Что споры о терминологии, а не научном приоритете, совершенно несущественны, да и научный приоритет - это больше про этику.
>В том, что X - это не Y, а просто не связанные между собой вещи.
Потому что ты не видишь связи? Ну ок.
Хотя бы три примера в студию.
Ну так распиши ее. В отличие от этого пидораса, я принес конкретную ссылку и даже скриншотик.
Понятно, что лично для тебя это вообще темный лес и какие-то случайные буквы, а ты просто поспорить зашел.
> там тупо какая-то нерелевантная хуйня
У тебя просто мозгов нет. Я могу пояснить подробнее, но толку все равно ведь 0, ты и дальше будешь кукарекать, просто потому что такова твоя суть - петух. Вот смотри:
- как тезис Чёрча-Тьюринга у Вапника определен, видно на скрине. А именно "все достаточно сложные вычислители вычисляют одно и то же семейство функций".
- отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен, т.е лучше такой алгоритм, в котором меньше изьебств.
- именно по этой причине стекморлейерс + закон Мура в целом работает лучше, чем более умные и сложные алгоритмы.
- в этом и есть суть соевого битерлесона, Саттон там же прямо приводит пример, как комплюхтер брутфорсом обыграл Каспарова:
> В компьютерных шахматах система, которая победила чемпиона мира Каспарова в 1997 году, была основана на глубоком поиске вариантов. Тогда большинство исследователей компьютерных шахмат с тревогой смотрели на эти методы, потому что они применяли человеческое понимание предметной области — особой структуры шахматной игры. Когда более простой, основанный на поиске, подход со специальным оборудованием и программным обеспечением оказался значительно более эффективным, эти исследователи отказались признавать поражение. Они сказали, что метод «грубой силы», возможно, сработал один раз, но не является общей стратегией. В любом случае, люди не так играют в шахматы. Эти исследователи хотели победы методов, основанных на человеческом понимании игры, но их ждало разочарование
И так далее. Вот такие очевидности объяснять, это пиздец же. Каким надо быть дебилом, чтобы не видеть настолько простых вещей...
>отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен
Нет, это ты выдумал.
>т.е лучше такой алгоритм, в котором меньше изьебств.
Так речь про алгоритмы или вычислители? Ты как-то перескакиваешь с предмета на предмет.
>именно по этой причине стекморлейерс + закон Мура в целом работает лучше, чем более умные и сложные алгоритмы.
Большинство нейросетей не являются полными по тьюрингу, так что они просто в разных классах находятся. Закон Мура ты прицепил просто так. Предпосылки про "лучше" неверны, да и ты не понимаешь разницы между вычислителем и алгоритмом.
>в этом и есть суть битерлесона
"general methods that leverage computation are ultimately the most effective" - суть биттерлессона
>перевод с хабра
проиграл
> Нет, это ты выдумал.
Ты дебил. Там прямым текстом написано, что брутфорс лучше работает.
> Большинство нейросетей не являются полными по тьюрингу,
Ты дебил ещё раз. Причем тут вообще полнота по Тьюрингу?!
> Так речь про алгоритмы или вычислители? Ты как-то перескакиваешь с предмета на предмет.
Я про алгоритмы, вычисляющие функции зависимостей выходов от входов, т.е про весь машобчик.
> Закон Мура ты прицепил просто так. Предпосылки про "лучше" неверны, да и ты не понимаешь разницы между вычислителем и алгоритмом.
Ты дебил ещё раз. Короче, все ровно так, как я написал выше. Ты реально деревянный, ещё и полноту по Тьюрингу приплел...
>структуры шахматной игры
Откуда у маняматиков и прочих задротов такой надроч на шахматы? Это же тупейшая позиционная игра, скучная и унылая.
>Там прямым текстом написано, что брутфорс лучше работает.
Ты про тезис тьюринга-чёрча говорил. Где в тезисе написано, что лучше брутфорс работает? Где сравнения различных абстрактных вычислителей?
>Причем тут вообще полнота по Тьюрингу?!
Тезис тьюринга-черча про полные по тьюрингу вычислители. Нейросети в большинстве своём таковыми не являются.
>отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен
>Я про алгоритмы, вычисляющие функции зависимостей выходов от входов
Ты таблетки выпить забыл.
>Ты дебил ещё раз. Причем тут вообще полнота по Тьюрингу?!
Кек. Sufficiently complex computers - это про Тьюринг-полноту. Привет.
А дальше ты пишешь "отсюда уже понятно", но отсюда на самом деле ничего не понятно. В следующем абзаце Вапник пишет про spirit of the Church's claim. Спирит. Он не использует тезис Черча для дальнейших выводов. Он просто говорит, что дальшейшее смахивает на него.
То есть в этих двух абзацах, переводя на наш язык
1. Доказно, что тьюринг-полные вычислители эквивалентны
2. А я после экспериментов с данными как-то примерно почуствовал, что разные типы SVM эквивалентны. Прикольно пацаны?
Все это, конечно, интересно, но совершенно нерелевантно обсуждению, особенно с тем количеством пафоса и ЧСВ, которое ты сюда запихиваешь. Как обычно, в общем.
На самом деле нет. Будете продолжать называть друг друга дебилами и поливать говном, пока не иссякнет запал (он уже иссякает). В результате оба сидите оплеваные, никто ничему не научился.
У тебя две ошибки
1. Зумерошиз - шиз, у него батарейка в жопе, а механизм понимания чего-либо у него отсутствует,
2. Не скажу, лол.
Вообще же вапник пишет про этот подход в совсем другом месте, он называет его подход AI hardliners. Только пишет он про это с некрываемым помпажом и время показало, кто прав в конечном счете. Вапник биттерлессон не усвоил, ему ЧСВ помешало. А условил бы - глядишь и 30 лет не проебали бы.
>го
Го, преф/бридж на много интересней и интеллектуальней. Но шахматы это пиздец уныло, почему раньше их так форсили?
> Вапник биттерлессон не усвоил, ему ЧСВ помешало. А условил бы - глядишь и 30 лет не проебали бы.
Ну конечно, Вапник в машобе не понимает, а горький петух понимает.
То что это анонимный чатик не означает что тебе следует писать глупости. Держи себя в руках.
Не бухти. Я решу сам когда нужно начать беседу по существу.
К тому же если таковая начнется, сомневаюсь что ты сможешь многое из неё понять.
>Вапник в машобе не понимает
Видимо действительноне понимает - гордыня мешает. "Я же такой охуенный, меня не заменят трясуном коробки со stackmorelayers"
> Видимо действительноне понимает - гордыня мешает. "
Ну главное, что ты понимаешь. Прочитал одну соевую мантру, и сразу просветление нашло, как на Будду.
> Я же такой охуенный, меня не заменят трясуном коробки со stackmorelayers"
Почему-то до сих пор не заменили. На табличных данных всякие lightgbm и прочий бустинг (то есть, алгоритмы из области статистической теории обучения) превосходят трясунов со стекморлейерс. Наверное, потому что авторы не читали соевый битерлесон и не прислушиваются к горьким петухам?
Ты лучше без соевого мемасика "битерлесон" расскажи, как так получилось. Выходит, не правы сойбои. А раз так, то и ты не прав, горький петух. Оправданий хотелось бы.
Вот вам один из самых колоритных ИИ-шизиков нулевых: https://www.nothingisreal.com/mentifex_faq.html
Это титан шизы. Он постит про свой ИИ без перерыва более 30 лет. До интернета писал бумажные письма исследователям. Продолжает и по сей день, например на реддите: https://www.reddit.com/user/AiHasBeenSolved/
Пишет что он создал ИИ, и спамит ссылками на него. Суть теории на пике. Его ИИ это скрипт на перле, пытающийся парсить текст: https://ai.neocities.org/NLU.html Что характерно, поддерживается русский язык!
Эх, если бы в треде завелся хоть один шиз, который показал хоть какой-то высер типа этого
Сейчас уже по-моему нет тех былых шизов. Рыночек порешал. Вон еще в МВП треде вспомнили (не ИИ, просто эпичный кодер-шиз): https://en.wikipedia.org/wiki/Terry_A._Davis
Так и дошел до бомжевания, тюрьмы и в конечном счете прогулки по рельсам. Не выживают они теперь. И это в Америке, где можно просто жить на улице и еду раздают нищим бесплатно. Что уж про рашу - тут мигом дурь выбьют. Остается только, как нечеткий петух, кукарекнуть пару постов в день и возвращаться в стойло.
Это гдеж они спят, весь тред в этом воркуте горького с нечётким блядь
Ну а как же золотце, жил в серпухове с мамой, и на кодаче постил свою шизоверсию лиспа, потом писал в пораше на английском, велит называть себя nash gold, и перекатился на украину, срал на нее там, а сейчас вроде в голландии
Он на этом лиспе ещё игру выпустил и в /gd/ запостил
Без вышки не вкатишься, но какая именно вышка - не особо важно. В идеале, конечно, какая-нибудь техническая или экономическая. MS Excel должен знать хорошо (в т.ч. VBA), SQL. С этим уже можно найти какую-нибудь работу. В идеале еще статистика, Python, что нибудь из BI - Power BI \ Tableau - и будешь норм претендентом, но в целом порог входа низкий, но и зп соотвествующие.
Часто еще хотят понимания основ веб-аналитики если идешь в продуктовое ИТ.
Да, тоже из старой гвардии. Но судя по всему, его жизненный путь тоже прочно встал на колею Бороды.
Причём, если прибавить пару миллионов на мощности и зарплату опытным ресёрчерам, это возможно бы и заработало (ну так, более менее, на уровне трансформеров). Как и тысячи разных альтернативных подходов в машинлернинге.
Да нет нихуя для долбоебов. Можешь книги из шапки почитать, те 2, которые не дипленингбук
Можешь cs231n
Ничего. Эта область не для тупых.
Нормально актуальны. Посмотри несколько роликов на ютубе, затем сделай что-нибудь.
>несколько роликов
А они смешные? Там есть кревляющиеся смузихлебы с подворотами? Они точне не короче 40мин?
Как сделать свою первую нейронку?
Займись сексом, если повезет, через 9 месяцев у тебя будет своя первая нейронка, еще через некоторое время появится полноценная возможность обучать ее.
> Чувак с биттерлессоном
Горький петух.
> TDA и manifold learning тоже отменяются получается?
Все отменяется.
>Вот нормич литература
Сам это пиздаглазое говно читай, там на один абзац два листа этих мерзких ебл.
Всегда есть вероятность прорыва, когда исследуются самые основы. Отменяются попытки накостылить какую-то особую модель под конкретную задачу.
Ещё и хохлы мерещатся. Таблетки хоть пить не забывай, краснопёрый.
Двачеру легче написать нейронку на няшной чем найти и оплодотворить няшку.
Требуется перегнать замусоренные хмл документы
в маркдаун с вкраплениями аштиэмель таблиц.
Какая нейросеточка мне нужна? Спасибо
Мимовебдевелопер
биологическая
Самое дегенеративное противостояние из возможных - матанищенки против кодомакак. Из треда в тред, из треда в тред.
numpy
>Самое дегенеративное противостояние из возможных - двачерв против двачеров. Из треда в тред, из треда в тред.
Пофиксил.
>Самое дегенеративное противостояние
Если горький с нечётким петушки куда-то пропадут - возможно.
Потому что горький петух такскозал. Похуй на доказанные теоремы о VC размерности, ваши пруфы не пруфы, то ли дело соевый битерлесон
Я в принципе люблю альтернативщину. Но огромное количество бессвязного, часто бессмысленного, текста, перепрыгивание между совершенно разными темами в соседних абзацах и предложениях, посещение всех "больных мест" для типикал шизов, обилие каких-то одному автору понятных формул, позволяет твердо поместить поциента в палату душевнобольных. Очевидная сверхценная идея, при отсутствии какой-либо конкретики (что неумело пытается скрыть стена текста).
Интересен тем, что (якобы) платит своим последователям за вклад в код реализации своих идей. Если это правда, то деньжата у челика водятся, хотя линкедин девственно чист. Видимо, не так прост Казаченко.
Что значит не работает? Утверждения теории Вапника-Червоненкиса доказаны строго, если что-то не работает значит либо можно их опровергнуть либо они на самом деле верны и разлад происходит по какой-то другой причине.
> либо они на самом деле верны и разлад происходит по какой-то другой причине.
Я тебе скажу по какой причине. SVM никто не стыковал сотнями слоев, базовая модель меньше любого перцептрона. Как только попробовали бустинг из той же теории статистического обучения, что-то он везде кроме распознавания негров и ещё пары узких задач, нейроночки уделывает.
Надо чтобы эта вебмакака знала линал и матан.
https://www.amazon.com/Artificial-Intelligence-A-Modern-Approach-dp-0134610997/dp/0134610997/ref=dp_ob_title_bk
Ты говоришь про факт, который я и так знаю. Я же спрашивал объяснение почему это так.
Забавно вообще получилось. А я ещё когда-то думал (лет 10 назад), что я горячее дерьмо в математике, а в итоге почти всю свою вышку вывозил исключительно за счёт практических работ и надеялся на автоматы. Как только уровень абстракции полез уверенно вверх в сравнении со школьной математикой, то сразу становится ясно кто брейнлет, а кто нет.
>должен был получать 4 автоматом за линейную алгебру
>лектор отказался ставить автомат кому-либо
>пришлось платить за экзамен так, как кроме векторов и матриц я чутка отстреливал разве что за кольца и поля, а это было даже не половина материалов курса
Зато шутейка "утонуть можно не только в море, но и в поле" запомнится мне, скорее всего, на всю жизнь.
Они исходили из предпосылок, которые были слишком просты и сильны. Они не выполняются для современных моделей. По ходу дела выяснилось, что вся теория применима исключительно к линейной регрессии, то есть абсолютно бесполезна, потому что линейная регрессия проста как табуретка. Чтобы ее использовать, не нужны эти нагромождения.
Обрабатываете таблички бабы сраки из бухгалтерии и на основании их делать ml модель, презентацию, power bi графику?
че нам-то
анализируем протеины вычисляем нейросетями и создаем вакцину
https://www.youtube.com/watch?v=3dnEU4aS65o
Помню, был такой чувак, Роберт Деш. Придумал Деш-компьютер. Я про него треды ещё в 2009 создавал в /b/, у него стримы были на смотри.ком. Тоже шиз был, с него дико рофлили
Дед скончался где-то в 2012-2015
Зачем это нужно если есть нормальные учебники? Там даже нарисовано не красиво. Пустая трата времени.
если ты инфантильный кидалт аутист, то норм
Есть желание сделать бота-советчика для трейдинга криптой с использованием ТА. Отторговав вручную с большим процентом успешных сделок и проебав всё на фьючерзах, возникло сильное ощущение, что мл может помочь в этом деле.
Разумеется, он никогда не предскажет очередной дамп медведей или памп быков, но если он хотя бы в 60% случаев УГАДАЕТ куда пойдет цена, то это уже будет прекрасно. Предположим, что наиболее предсказуемый таймфрейм - 1 или 5-15 минут.
Что есть: данные о ценах open/high/low/close/volume, за всё время, поминутно. Из одной только цены вряд ли выйдет что-то стоящее, поэтому из этих данных можно получить значения для самых разных индикаторов вроде RSI, MACD и прочих, и тоже скормить сети.
Итак у меня 2 предположения как это может сработать:
- датасет цен с размеченными точками входа и выхода, на основе этого оно будет предполагать насколько безопасно покупать или продавать сейчас (возможно тут же как-то стоит определить аномальные ситуации, когда киты вливают большие суммы и непредсказуемо шатают рынок)
- датасет с ценами + индикаторами (опытным путем подобрать какие даст лучший результат, не создавая шум)
Направьте в 3 направления:
1) Как написать банальный предсказатель цифр? Как я понял не понял нужен - sequential lstm.
1.1) Как сделать предсказатель на основе нескольких параметров? Не только на основе цены, но и на основе оборота за текущую минуту (мне кажется, уже только это существенно прибавит точности предсказаниям) и различных индикаторов технического анализа.
2) Как написать reinforcement learning модель для разметки огромного датасета? Как я представляю это: есть прога где рисуется график, я тыкаю вот тут купить, вот тут продать, и спустя n тыков оно будет само достаточно точно подбирать зоны покупки и продажи. И как потом уже на основе этого датасета построить нейросеть?
Подозреваю, что эту задачу можно решить сугубо математическим путём, если знаете как подскажите, формулы из инета не справляются с таким огромным количеством данных, считало бы вечность. Да и просто интересно вникнуть как делать rl-проги.
3) А может reinforcement сразу в дело пустить? Есть датасет цен из прошлого, новые можно грузить риалтайм и пускай на этих данных и учится. На этот метод сильно не рассчитываю, но тоже хотелось бы узнать как такое реализовать.
Не ебите за тупость. Прогать немного умею, в мл не умею, синтаксис питона иногда ставит в ступор, например, с его объявлением странных листов в подобной форме - [:, :-1], хуй поймешь что это значит.
Есть желание сделать бота-советчика для трейдинга криптой с использованием ТА. Отторговав вручную с большим процентом успешных сделок и проебав всё на фьючерзах, возникло сильное ощущение, что мл может помочь в этом деле.
Разумеется, он никогда не предскажет очередной дамп медведей или памп быков, но если он хотя бы в 60% случаев УГАДАЕТ куда пойдет цена, то это уже будет прекрасно. Предположим, что наиболее предсказуемый таймфрейм - 1 или 5-15 минут.
Что есть: данные о ценах open/high/low/close/volume, за всё время, поминутно. Из одной только цены вряд ли выйдет что-то стоящее, поэтому из этих данных можно получить значения для самых разных индикаторов вроде RSI, MACD и прочих, и тоже скормить сети.
Итак у меня 2 предположения как это может сработать:
- датасет цен с размеченными точками входа и выхода, на основе этого оно будет предполагать насколько безопасно покупать или продавать сейчас (возможно тут же как-то стоит определить аномальные ситуации, когда киты вливают большие суммы и непредсказуемо шатают рынок)
- датасет с ценами + индикаторами (опытным путем подобрать какие даст лучший результат, не создавая шум)
Направьте в 3 направления:
1) Как написать банальный предсказатель цифр? Как я понял не понял нужен - sequential lstm.
1.1) Как сделать предсказатель на основе нескольких параметров? Не только на основе цены, но и на основе оборота за текущую минуту (мне кажется, уже только это существенно прибавит точности предсказаниям) и различных индикаторов технического анализа.
2) Как написать reinforcement learning модель для разметки огромного датасета? Как я представляю это: есть прога где рисуется график, я тыкаю вот тут купить, вот тут продать, и спустя n тыков оно будет само достаточно точно подбирать зоны покупки и продажи. И как потом уже на основе этого датасета построить нейросеть?
Подозреваю, что эту задачу можно решить сугубо математическим путём, если знаете как подскажите, формулы из инета не справляются с таким огромным количеством данных, считало бы вечность. Да и просто интересно вникнуть как делать rl-проги.
3) А может reinforcement сразу в дело пустить? Есть датасет цен из прошлого, новые можно грузить риалтайм и пускай на этих данных и учится. На этот метод сильно не рассчитываю, но тоже хотелось бы узнать как такое реализовать.
Не ебите за тупость. Прогать немного умею, в мл не умею, синтаксис питона иногда ставит в ступор, например, с его объявлением странных листов в подобной форме - [:, :-1], хуй поймешь что это значит.
>Есть желание сделать бота-советчика для трейдинга криптой
Ботов обкатывают на рынках уже 50лет как минимум, с нейроговном ты соснешь, поскольку после тряски ящика ты не поймешь почему он тебе так хорошо/плохо насоветовал.
Что там такого? То же самое, что голову сменить, только с обратной стороны.
Смысла нет, конечно. Разве что, может, научиться переводить картинки из другого цветового пространства, или что-то такое.
Почитай и разберись нормально с индексацией и слайсами листов в питоне. Там нет ничего сложного, ты просто не пытался разобраться. Нотация сама по себе довольно понятная [откуда:до куда:с каким шагом], но отрицательные значения могут действительно казаться странными в первое время. [::-1] вроде обычно юзают, чтобы сделать реверс копию листа. Разберись. Это просто полезно знать, мало ли когда тебе нужно будет какой скрипт на питоне бахнуть. И, если мне память не изменяет, то пандас использует похожий синтаксис со срезами при работе с датафреймами.
Как раз таки если мл разметит за меня точки закупа-продажи, то я могу записать их и увидеть в каких обычно точках стоит закупать. Имею в виду в точках с каким rsi, с каким объемом, при пересечении каких линий обычно сделка выходит удачной.
>научиться переводить картинки из другого цветового пространства
Не научится, только более глубокие фичи по менее глубоким можно файнтюнить, в другую сторону хуйня выходит.
А есть ли уже готовый сортировщик изображений, который можно обучить на своём датасете из двух (ну или скольки-то там) классов и чтобы подаваемые изображения сам сортировал о папкам? Я вижу, что это детская задачка для ML, что есть TF имплементация без сортировки https://www.tensorflow.org/tutorials/images/classification?hl=ru. Больше на гитхабе решения не вижу, есть только простые классификаторы без практической пользы типа сортировки по папкам. Запускаешь тренинг, запускаешь тестовый сет, получаешь вероятность.
Мне самому изобрести велосипед-сортировку проще чем искать решение готовое?
извините за тупой вопрос, я всё еще не прогер, но я запилю эту сортировку, если нужно. Просто еще не работал сильно с листами юпитера. Тогда еще тупой вопрос- как листы юпитера работаеют с импортируемыми зависимостями? Юпитер ноут может выбирать из установлленных у меня сред нужную (т.е. мне нужно таки ставить в конде сначал все зависимости?) Или он работает как-то по особому и ему не нужна среда вообще и ничего в конде ставить не нужно и он сам все зависимости собирает и устанавливает где-то у себя в памяти динамически при запуске листа? По моему малому опыту вроде вариант второй, но вот вчера заметил, что в юпитере можно выбирать среду из тех что есть в конде. И меня мучает впорос, а зачем юпитер нужен вообще? Это просто удобное представление с поэтапным запуском кода с переносом переменных из этапа в этап? Или там всё же удобство на уровне вирутальной среды разработки, типа написал все зависимости в листе и уже только его можно распространять, не нужно ставить среду в конде вообще? Я просто не помню, чтобы в листах юпитера что-то мне приходилось устанавливать при запуске. Или я просто сталкивался только с примерами где зависимостей не так много было или у меня уже всё было установленно в основной среде?
На колаб иногда стоит
Нет продолжай пользоваться неудобным для себя софтом.
> огромное количество бессвязного, часто бессмысленного, текста, перепрыгивание между совершенно разными темами в соседних абзацах и предложениях, посещение всех "больных мест" для типикал шизов, обилие каких-то одному автору понятных формул, позволяет твердо поместить поциента в палату душевнобольных. Очевидная сверхценная идея, при отсутствии какой-либо конкретики
Я когда пыхну плюху таким же становлюсь. Когда отпускает со снисхождением смотрю на свои высеры, которые недавно казались истиной.
У меня тоже был такой период. Я пытался создать явный алгоритм обобщения из данных, и был уверен, что я знаю, как это сделать. При этом ни одна моя попытка не работала, но это меня нисколько не смущало. С годами я понял, что эта уверенность проистекает из простейшей мысли "я самый умный", а раз я самый умный то если кто-то и может создать ИИ, то это я. И никаких настоящих идей поверх этого не было, просто мозг брал любую рандомную мысль и превращал ее в ТО САМОЕ, ВОТ ОНО. Потому что должна же быть идея, раз я самый умный, верно?
Вот так я и излечился. Сейчас копаю нейроночки спокойно уже, пытаюсь что-то сделать, понимая низкую вероятность успеха.
Успех нейроночек я не предсказал: до ДЛ революции они мне казались какой-то глупостью. Настолько я мало понимал тогда на самом деле. Зато самомнение было ого-го.
> артефакты сжатия после конверсии из jpg или дефекты
Чувак, бери высококачественные png и сжимай их в jpeg с качеством 7 и ниже. У тебя будет одна и та же картинка с артефактами и без. Сохранение это крайне дешёвая операция. Ты картинки дольше искать качать с данбуру будешь
>5 лет
Какой ужас. А ощущение, как будто только на прошлой неделе смотрел матч против корейца.
Не моргай. Один так моргнул - и вся жизнь прошла.
>То же самое, что голову сменить, только с обратной стороны
Ну это и есть ёбля хотя хер знает что там сейчас молодёжь использует.
>из GAN'a Conditional Gan, вот только дискриминатор готовый
Cудя по всему хуйня выйдет но ты попробуй конечно.
Это всё равно не отвечает на вопрос, как модифицировать входящие слои предобученной модели.
> А как мне быть уверенным, что это потолок, и лучше точность я получить не смогу?
Не можешь быть уверенным. Проблема "P=NP?".
Даааа? Даже для орлянки? Ты совсем что-ли отлетел со своим битерлессоном, дипшкольник?
Так, анон, выручай.
Есть имплементация реснета:
https://niko-gamulin.medium.com/resnet-implementation-with-pytorch-from-scratch-23cf3047cb93
И есть имплементация кондишнл гана:
https://medium.com/analytics-vidhya/step-by-step-implementation-of-conditional-generative-adversarial-networks-54e4b47497d6
Вот эти две строчки оттуда
input_dim = 784 + 10
self.label_embedding = nn.Embedding(10, 10)
В какое место гана надо добавить?
Инб4 себе в жопу
Что интересного можно сделать на сверточных сетях? Типичное распознавание образов, мне кажется, все давно уже видели.
Сделай демо анонимизации человека, как в черном зеркале. Распознавание лица + сегментация, и если оно узнало тебя в кадре, то ты весь заливаешься шумом.
Круто.
Имею профильную вышку (прикладная математика и информатика), работаю в науке - занимаюсь статистическим анализом данных (всякие стандартные тесты и методы, плюс к тому, немного кластерного анализа и методы выявления нелинейных зависимостей) и обработкой электроэнцефалографических данных (обработка сигналов и теория графов), использую R и Matlab. Хочу вкатиться в машоб и сменить работу. Разумно ли будет для подготовки проходить какой-нибудь серьезный курс по ML и решать параллельно задачи с kaggle? Ценится ли вообще у работодателей научный бэкграунд (навыки постановки гипотез и подбор инструментов для их проверки)? Что посоветуешь, анон?
>Разумно ли будет для подготовки проходить какой-нибудь серьезный курс по ML и решать параллельно задачи с kaggle?
да
>Ценится ли вообще у работодателей научный бэкграунд (навыки постановки гипотез и подбор инструментов для их проверки)?
да
Пошёл на мехмат и не вернулся
Ну же, анончик, помоги.
Вот модификация реснета18 в качестве дискриминатора.
https://ideone.com/SwhKUj
согласно
https://medium.com/analytics-vidhya/step-by-step-implementation-of-conditional-generative-adversarial-networks-54e4b47497d6
Вопрос:
- надо ли запихивать в него input_dim = 784 (размер входящих картинок, но по сути там должно быть 224^2) + 42 (количество классов)?
- если надо, то куда именно вставлять, чтобы передать значения классов, если в self.conv1 по сути указаны все параметры?
model = Resnet18()
train = Variable(images.view(100,3,28,28))
labels = Variable(labels)
или
input_dim = 28*28
output_dim = 10
model = Resnet18(input_dim, output_dim) # не знаю если там нужно укаывать еще hidden dim, погугли
Но лучше матрас Шпункеля
Использовать что ли xor, инвертировать и поделить сумму на количество пикселей.
Из того, что вспомнил. Правда тут в основном обучение с подкреплением. Для supervised в целом звучит сомнительно.
https://arxiv.org/abs/1611.04201
https://arxiv.org/abs/1707.02267
https://arxiv.org/abs/1703.06907
https://arxiv.org/abs/2006.09001
Ну и сюда же кубик рубика от openai.
Распараллелить?
Битерлессон кто-то не прочитал ещё итт? Нет смысла изобретать какие-то свои алгоритмы под задачу, набери данных, возьми достаточно глубокую архитектуру и вперёд.
а если данных мало, а добор или невозможен или чрезвычайно дорогой, что там тогда в твоей библии написано?
Да вроде в местечковые мехматы не сложно поступать
Увольняйся, твое начальство страдает хуйней
да, братиш, самое основное - это научный бэкграунд. Чем конкретно занимаешься, лингвистикой? Степень есть?
могу посоветовать - applied ML course на курсере от University of Michigan как старт для того чтобы понять основные модельки (линейные, kNN, основанные на деревьях, и чуть-чуть сеток)
Там типа лайт-теории про основные модели на сайкитлерн (параллельно разберешь матплотлиб и сиборн; панда, нампай, реджекс, сайпи сами придут).
Потом сразу вкатывайся на Kaggle и разбирай типовые задачи и сам решай. Сабмить, сабмить, и еще раз сабмить свои ноутбуки, Можешь еще вышевский курс глянуть (тоже курсера), как выиграть на кегле. Там есть дельные советы.
Потом тензорфлоу, керас и пайторч (ну и всякие диплернинг модели подучить - тут Эндрэ Инговский deeplearning.ai в помощь)
Клаудкомпутинг будет нужен на этой стадии - google cloud computer engine, aws
ВI визуализация - Tableau и Microsoft Power Bi для презентации
AutoML - h2o и google cloud automl тоже тема
Ты так говоришь, будто это что-то плохое.
Ничего там про такое не написано, горькие сойбои не знают про bootstrap.
Пенетрейшен
>самое основное - это научный бэкграунд
Самая бессмысленная в ближайшем будущем регалия
http://www.incompleteideas.net/IncIdeas/BitterLesson.html
Горький петух, ты сам-то эту хуйню читал? Там разве написано, что новые алгоритмы сами за баней растут или что нынешние нейроночки - лучшее и самое эффективное, что может быть сделано человечеством? Или может быть, там написано, что закон Мура это закон природы, а не следствие непрерывного прогресса? Ты же реально еблан, каких мало.
> что закон Мура это закон природы, а не следствие непрерывного прогресса?
Это, кстати, и так очевидно всем было. Прогресс (и закон Мура) это естественное следствие энтропии. Зная, как ведет себя энтропия, мы можем приблизительно сказать, что ждет человечество в будущем.
>мы можем приблизительно сказать, что ждет человечество в будущем.
Не сможешь, 50 лет назад думали что освоят космос и будут умные роботы, а оказалось дибиляторы с челочкой и ТикТок.
Спасибо, анон.
Степени нет, работаю в психологии. Писал диссер по методам кластерного анализа, но аспирантуру дропнул.
>Там разве написано, что новые алгоритмы сами за баней растут
Основной алгоритм - градиентный спуск - уже придуман. Ты кажется не понял о чём битерлессон, он о том что эра ПРИДУМЫВАНИЯ закончилась.
> 50 лет назад думали что освоят космос и будут умные роботы, а оказалось дибиляторы с челочкой и ТикТок.
Да. А 100 лет назад так же думали, что построют калмунизм, и будет всем счастье. И что ничего лучше и прогрессивнее писулек карламарлы и ленинда человечество уже никогда не придумает. То же самое сейчас кукарекают всякие горькие сойбои >>895778 что мол, лучше градиентного спуска ничего в принципе быть не может. Но все это пример сектантов, которым ничего объяснить невозможно.
> Не сможешь
Под "примерно" подразумевался общий верктор развития. К примеру, гарантированно известно, что рождаемость по всей планете снизится до минимума. А известно, потому что график роста популяции любого вида - сигмоида.
По сигмоиде, кстати, развивается не только жизнь, но и технологии.
То есть когда-нибудь настанет тот момент, когда в прогрессе не будет никакого смысла, ибо уже всё есть, и все потребности удвлетворены.
Хочу сам выбирать символы для обучения, упакованные байты не особо катят.
Либо онлайн упаковать, да.
В чем будет красота от распознавания случайных символов
Скачивай хоть какой-то алфавит малоизвестный
>что построют калмунизм, и будет всем счастье
Все великие достижения России были при СССР и плановой эеономики, при копетоглизме страна преворащается в говно, в прочем как и любая копетоглистическая страна.
>>896039
>когда в прогрессе не будет никакого смысла, ибо уже всё есть, и все потребности удвлетворены.
Так либирашки и копетоблядки и сейчас не видят в прогрессе смысла, им бы соевой колбаски да ипхон в жопу.
>>896039
>снизится до минимума
Да, золотой миллиард называется.
>золотой миллиард называется
хуета полная, население растёт по экспоненте
капиталюгам надо чтобы рабы конкурировали между собой за тарелку гм риса и помидоры четвёртого сорта
Всё лишь бы битерлесон не читать
Данных для обучения то нет.
Я что-то про нее совсем забыл, спасибо.
Накопипастил с инета лстм модель. Почему она не предсказывает будущее, а просто выдаёт то, что уже есть (-1 день), но с искажением. Что делаю не так? Как заставить её давать предсказание на 1 день вперёд и потом циклично вперёд?
По попе?
>А 100 лет назад так же думали, что построют калмунизм, и будет всем счастье. И что ничего лучше и прогрессивнее писулек карламарлы и ленинда человечество уже никогда не придумает.
Карламарла - это и есть попытка ПРИДУМАТЬ новый super yoba ultimate edition алгоритм, который сделает всё порешает и сделает заебись. Но оказалось, что капитализм работает лучше, а если добавить вычислительных мощностей - то вообще заебумба.
define прогресс
так-то злые копетоглисты не только заливали коммунистам говна в штаны, но и слетали на Луну, в отличие от
Для быстрой работы, очевидно.
572x322, 0:02
Я, кстати, ее еще не начал делать, тестирую на алгоритме.
Ну, серьезно. Не могу понять принцип работы. Я думал, в конце будет выдавать 1 цифру, а оно выдает кучу старых искаженных.
Только чтобы 100000000 и 0111111111 было одним и тем же, но мы не ебались с представлением этих данных и их сравнением.
Такое вообще реально? Какой хэш можно использовать?
> и будут умные роботы
Какие же фантасты/футуристы дауны, пиздец. Уже есть разумные саморемонтирующиеся биороботы - нет, надо дрочить на железки с алгоритмом черепашки
Эмбеддинги с хэшами делают же. Вряд ли получается кардинально лучше, иначе уже из всех утюгов бы пиарили.
>Почему она не предсказывает будущее, а просто выдаёт то, что уже есть (-1 день), но с искажением.
Потому что, внезапно, цена прошлого дня это довольно хороший бейзлайн который сетка сразу выучивает и на нём и останавливается.
К теме битерлессона кстати, чёрные ящики хватают low hanging fruits, поэтому там где человек может что-то проанализировать и улучшить (например, для финансовых временных рядов) сетки сосут, и в лучшем случае используются как вспомогательный алгоритм.
Да какой еще беслан. Чего оно на основе 200 цифр выдает 199? Как сделать, чтобы выдавало одну цифру - двухсот первую?
Забесплатно (взял лстмчик или трансформер и хуяк хуяк ничего делать не надо) никак.
А какой тогда смысл в результатах того лстм? Он просто показывает насколько сильно текущие цифры отличаются от старых?
Лстм может продолжать ряд цифр?
Ты троллишь? Меня не точность волнует, оно мне выдаёт ДОХУЯ цифр вместо одной. Я не разбираюсь в мл и не могу понять почему так.
А, ну так лстм устроен, сетка состоит из последовательно соединённых клеток каждая из которых имеет свой выход. Если тебе нужна цена в последний момент бери последний выход только.
> Работающее ИИ как в фантастических рассказах не выгодно в первыую очередь капиталлистам,
1. Автоматизируешь производство от и до
2. Себестоимость товара падает до нуля
3. ??????????
4. PROFIT!!!!!!!!!!
> Работающее ИИ как в фантастических рассказах не выгодно в первыую очередь капиталлистам
Ебанат?
Почему биттер лессон не решил superresolution? Данных для обучения в интернете - петабайты, если не больше. Неужели просто stack more layers не работает?
>всё ещё не порешал задачу машинного перевода?
ГПТ-3, не ждём а готовимся.
>И как планируется его решать для low-resource языков?
Нахуй нинужны, сейчас бы всерьез задрачивать нахрюк полутора землекопов.
Хорошая задача, кстати. Так четко показывает именно человеческий тип восприятия.
Могу посоветовать только ГАН лосс, нужно набрать вручную сделанных ASCII артов и дискриминировать между ними и сгенерированными.
БЛ ничего не решает. Он говорит, что нет смысла городить какую-то мего архитектуру для перевода, мучиться собирая правильные чистые данные. ГПТ-Х просто будет переводить с любого языка на любой, включая некорректные, неполные предложения, игру слов, обрывки текста, разговорную речь и все что хочешь. И никогда ты вручную лучше не сделаешь.
Для общего суперрезолюшна (который вообще-то уже вполне решен для конретных приложений) нужна будет такая же сеть как ГПТ, но для визуальных данных. Над чем сейчас работают множество людей, между прочим - визуальные трансформеры это самая горячая тема конца 2020. И они, по-видимому, скоро съедят сверточные сети.
Ну давай расскажи, зачем они нужны. Чтобы престарелый шизик высрал очередную статью об особенностях флексативов в умляутах абырвалгского нахрюка?
>Так четко показывает именно человеческий тип восприятия.
>Могу посоветовать только
Охуенно, горький петух.
Джвачую, языки не нужны, все обмазываемся англоговном.
Лангуаге инглиш из тхе бест лангуага ин тхе ворлд!
Как правильно горькие адепты не знают, но кукарекать что что-то работает идеологически неправильно это не мешает.
Желаю всем автомля, открытых библиотек с поиском объектов и нормальных ботов для раздевания нарисованных и реальных тянок
Всем чмоки
Но ведь ты неиронично прав
Вапникодрочер, ты всё продолжаешь куколдить вычислительной машине?
Подумалось мне, было бы неплохо осуществлять с кем-то совместно вкат, можно вопросы друг-другу задавать, объяснять темы, пилить совместные проекты.
Всё что имею при себе - базовые знания питона и программирования (переменные, циклы, ветвления, списки, словари, исключения вот это всё).
Если кому интересно пишите на фейкомыло
Вкатуны друг другу никак не помогут. Тебе нужен ментор, который уже много знает и поможет сориентироваться. Поступай в вуз и ищи там хорошего научрука.
https://habr.com/ru/post/535832/
каким ебанатом надо быть, чтобы не знать что буквы на цветастом фоне надо обрамлять окантовкой для читабельности?
Собираюсь изучать,
Линейную алгебру (уже немного знаю),
Теорию вероятностей
и Мат. Анализ (с этим больше всего проблем, но тема интересная)
Стоит ли их соединять и сохранять в один файл? Или разносить по разным файлам?
Мне нужно что-то очень быстрое и эффективное. Задача не простая - нужно целый виртуальный мир симулировать.
Есть идеи?
> ГПТ-3, не ждём а готовимся.
Не запустится на моем железе и даже гуглу придетмя нормально так вложиться, чтобы эту бандурину запустить. Не нужно.
это оффер?
*симулирует
https://people.csail.mit.edu/tzumao/diffvg/diffvg.pdf
Недавно видел такую хуйню, можешь конвертить в svg а потом в ascii.
Гугл вложится, а ты в сделку не входил
> Dwarf fortress
Вот только в Dwarf Fortress не приходилось обрабатывать команды по типу "взять попугая, засунуть его в рот, а пережевать, а потом выплюнуть"
что у ЛеКуна (MNIST dataset),что на ImageNet они разделены
в моем проекте я также разделил - аннотации в одном .csv, а картинки отдельно, но по имени картинки я всегда могу найти аннотацию
Да блядь, как вы заебали, скептики. Естественно есть риск, чтобы его снизить я и хочу понять когда большая вероятность коррекции цены. Про трейдер это и сам из графика поймёт, для остальных есть - мл. Но у меня руки из жопы, неделю ебался, не смог разобраться с вашими лстм.
Когда даже в треде про нейроночки обсуждают биткоины - скоро обвал, инфа 100%
Обвал, разумеется, неизбежен. Вопроса только два: до какой цены дойдет на пике, и какая установится в новом эквилибриуме. Неправильно расчитав, ты проиграешь, если будешь пытаться шортить. Безопасная стратегия, как обычно, держать и докупать между туземунами.
У меня куча знакомых пытается как-то играть на биржах того или иного вида. Биткоин-не биткоин, не важно. У всех при этом уверенность, что можно играть правильно, грамотно, и если действовать так, то чего-то будешь зарабатывать.
На деле это рандом, предугадать который нельзя, и даже были исследования про трейдеров, которые показывали, что выигрывают в среднем не больше, чем когда делают рандом ставки.
Кто-то может быть может предсказать хайп и на этой основе сделать выгодное приобретение, но это не по графикам делается.
На деле зарабатывают за счёт того, что биржа растёт. А растёт сильно потому, что приходят новые буратины, которые вкладывают свои деньги, желая заработать. Хотя активы, которые продаются, в основном сами прибыли почти не приносят и нужны только ради спекуляций.
Никакой математики за этим нет, чтобы нейросеть могла чего-то предсказать. Просто ловушка для тех, кто считает себя особо умным, типа я такой продвинутый, нейросеть натравлю и разбогатею.
При этом те или иные расчёты с помощью компов трейдеры делали ещё с прошлого века, но там роботы скорее помогают на коротких технических колебаниях по копеечке что-то приличное зарабатывать, и то сложно, поскольку все этим пользуются.
Нейросеть нельзя научить, не имея большой учебной выборки. А учебной выборки здесь нет и быть не может.
Я лично торговал успешно, за месяц только пара дней в минус. Естественно не от балды, а по графикам. Рандом случается крайне редко и он значит только одно - крупный инвестор что-то чудит. И к счастью чаще инвесторы повышают цену неизвестных валют (и продают на пике), после чего она постепенно падает, не наоборот.
Да, нельзя высчитать на 100%, но можно на 70%. Против теханализа невозможно переть, оно работает по факту, отрицать это могут только максималисты, подразумевая, что оно не работает во ВСЕХ случаях.
Логика такова, что в среднем выигрыш такой, насколько биржа в целом растёт.
Например если биржа выросла на 10%, ты торговал на миллион и заработал 100 тысяч, то ты просто заработал за счёт роста биржи.
Если больше, то тут только один вариант, ты должен был выиграть у кого-то, то есть кто-то должен быть проиграть тебе свои деньги, на неудачных ставка. Здесь классическая игра с нулевой суммой против других торговцев, ну с поправкой на рост биржи.
Причём играют ведь не только продавцы из пятёрочки, там очень даже квалифицированные трейдеры, которые все эти теории знают, очевидно.
Вот nasdaq хорошо рос, и в среднем там заработали. Причём как исследования показывают, что если ты будешь случайно делать ставки, то твой выигрыш будет примерно таким же, как и в "осмысленных" стратегиях.
Выигрывают за счёт роботов, которые на доли секунд раньше конкурентов хватают удачные лоты. И за счёт предугадывания хайпа, что делается не по графикам, а по анализу настроений. Или во время пертурбаций мощный вроде ковида, но это всё такие вещи, которые нестандартные и там нейронки не помогут.
Курс от ods
Ты путаешь с бинарными опционами
Естественно кто-то теряет на бирже, не всем суждено оставаться в плюсе
Сказки про закуп и продажу от балды придуманы какими-то клоунами для клоунов. Это сразу же понятно через пару дней трейдов. Да просто взгляни на минутный график любой криптопары, увидешь, что у него всегда есть пики и падения, которые зачастую можно предсказать. Нет вообще принципа "хватают первей", ордеры ставятся заранее. Для масштабных прогнозов и учета внешних факторов используют нейронки для анализа статей, но это всё речь о каком-то идеальном боте.
Я просто говорил о банальном анализаторе, который будет ПОМОГАТЬ понять выгодная сейчас точка для закупа или нет. Это можно и самому понять, но нужен большой опыт и плотный анализ графика за прошлые дни. Часто после пары суток торговли на одной паре начинаешь чувствовать себя как рыба в воде, хорошо подбирая точки входа и выхода. Но люди неидеальны, особенно когда шалят эмоции.
Как при помощи lstm (или что лучше с этим справится?) продолжить ряд цифр? Упростил максимально, все равно не могу разобраться как продолжить этот график.
https://colab.research.google.com/drive/1OqBGmMcEGRgr7WU_30LT5vLfCTeprLHg?usp=sharing
Из интересного: визуальные данные, встраивание людей в тренировочный цикл.
Вот куда пойдут безработные ученые: оценивать выхлоп ГПТ за деньги, делая его еще умнее.
Всем пацанам битерлессон, петухов на помоечку!
>Из интересного: визуальные данные, встраивание людей в тренировочный цикл.
Очень интересно, а не забывать контекст спустя одно предложение научится наконец? Или для этого ещё триллион-другой баксов понадобится?
pred = model.predict(np.concatenate((train_x, test_x), axis=0)) # old was just "train_x"
pred = scaler.inverse_transform(pred)
dataset = scaler.inverse_transform(dataset)
Трансформеры ващет могут смотреть сразу на весь поданный котекст, в отличие от РНН, которые как раз забывают. В этом основная сила их. Генерировать складно люди будут доучивать вручную.
Триллионы баксов - кто их считает там? Они разрабатывают общий ИИ, это технология вне обычных экономических понятий вроде прибыли. Это перевернет все.
>Трансформеры ващет могут смотреть сразу на весь поданный котекст
Только размер контекста крайне ограничен.
>>899004
Мне не понятен порядок действий.
Есть тензоры картинок, и есть тензоры меток.
Тензоры картинок с целью экономии оперативки сохранены в файлы на диск, и уже оттуда подгружаются.
Вопрос - что делать с тензорами меток? Сохранять в отдельные файлы? Присоединять к тензорам картинок (через cat или list) и сохранять в один файл с тензорами картинок? Или грузить из памяти?
Да это понятно, на них я уже учусь. Я для тестовых моделей, а потом только переносить буду.
дальше не читал
В 2019 помогал знакомой аутсорсить для НИИ чего-то там.
И как это что-то меняет? Рисует ещё одну неясную линию поверх имеющейся.
Ещё сильней упростил, выводит полную дичь. Не могу сообразить как понять.
что конкретно непонятно?
изначально ты делал предсказания только для train, что соответствует первым 66% твоих данных, поэтому твой график обрубался. если ты делаешь предсказания на соединенных np.concatenate((train_x, test_x) train и test, то твой график продолжится дальше, потому что ты делаешь предсказания для 100% данных
по той причине, что у тебя мало данных, твоя моделька плохо обучилась, и выдает @неясную линию поверх имеющейся@
Картинка - работа твой модельки на курсе валют - prediction vs dataset и ошибка. Плюс я разделил изначальный сет на три - train, val, test:
train, test = split(dataset, 0.8)
train, val = split(train, 0.6)
Train и Val я использовал для тренировки модели:
train_x, train_y, validation_data=(val_x, val_y)
Результат, как ты видишь выглядит ничем не лучше какого-нибудь movingaverage.
есть вопросы, напиши свою фейкпочту
касательно графика ошибки:
1. на основе предыдущих 10 дней (window = 10) модель выдала предсказание на след. день - какое-то число
2. Oшибка - разница между выданным числом и реальным значением
3. график показывает ошибку если мы фидим в модель train , то есть данные совершенно новые для модели (валидация была сделана на другом сете)
Когда он станет богом и насильно тебя оцифрует, ты проведешь вечность извиняясь за свои слова, варясь при этом в котле и созерцая его лысину, которая будет вместо неба.
>гпт-3 не забывает контекст, у тебя методичка старая.
>Context window size was increased from 1024 for GPT-2 to 2048 tokens for GPT-3.
Проиграл с твоего говнокода.
Когда я пытаюсь таким образом продолжить с какой-либо точки, получается просто прямая, без понятия что не так делаю
https://t.me/aaaaaqqqqaaa
>Ты когда последний раз писал текст длиннее чем 2048 токенов? Или хотя бы читал.
Зумер, не проецируй. 2048 токенов - это 20-25 предложений. Я иногда пишу похожие по длинне эмейлы. Для текстовых квестов, для которых в том числе используется GPT, это вообще ничто. Так что никакого бесконечного контекста нет.
>Так что никакого бесконечного контекста нет.
Шизик выдумал бесконечные контексты и с ними спорит.
>2048 токенов - это 20-25 предложений.
Ты сейчас 5 предложений уместил в 250 символов (токенов было бы ещё меньше). В школе расскажешь про 20-25 предложений и похожие по длиннне эмейлы.
>Для текстовых квестов, для которых в том числе используется GPT
Внезапно, текст не генерируется на всю игру сразу, а зависит от текущего контекста. А конкретные куски намного меньше 2к токенов.
А в чем смысл надрачивать на количество запоминаемых одной моделью токенов? Из теоремы Колмогорова-Арнольда известно, что любая функция многих аргументов представима через композицию функций от двух аргументов. То есть, если у нас есть хоть что-то, могущее в работу с парой токенов, то стыканув эту хуйню в лучших традициях стекморбиттерлессонс получим возможности той же GPT и даже больше из кучи каких-нибудь скипграмов Миколова.
>Шизик выдумал бесконечные контексты и с ними спорит.
>>899569
>гпт-3 не забывает контекст
Здесь столько шизиков, что я уже запутался. Конечная длина контекста? Значит забывает.
>>900186
>Ты сейчас 5 предложений уместил в 250 символов (токенов было бы ещё меньше)
Ну не 20, а 40. Этого все равно крайне недостаточно.
>Внезапно, текст не генерируется на всю игру сразу, а зависит от текущего контекста. А конкретные куски намного меньше 2к токенов.
Информация вне контекста будет навсегда пропадать. Например, персонажи или события.
Разница в том, что у человека рекуррентно апдейтится контекст. Поэтому он самое важное может дольше держать в рабочей памяти. И вариаций трансформеров с рекуррентным контекстом полно, но их тренировать сложнее.
Ты получишь унылую RNN с затухшими градиентами. Лет через 20 ты придумаешь lstm, а еще через 30 - трансформеры.
Шучу. Ты нихуя не придумаешь.
>рекуррентно апдейтится контекст
Ебать тебя промыли, моднявых психолухов в паблике начитался?
Вот как удивительно, и контекст больше и внимание мощнее чем у тупых человеков, а выходит нелепая хуйня чуть лучше марковских цепей. Без ПОНИМАНИЯ похоже не разобраться, любители чёрных коробок орут.
И еще , в pix2pixHD есть еще один дополнительный параметр, который можно скормить сетке- instance_map. Это- 65536 канальный файл, который я не знаю как генерировать, и не факт, что он поможет, если я в него вместо границ объекта залью мои фичи, но всё же спрошу- может не заморачиваться с 4 каналом, а попробовать скормить в эту instance map серую 16 битную картинку с нужными фичами? Или- как делать разметку для 65536 каналов попроще чем в openCV?
1280x720, 0:30
> когда кожаные мешки не читали битерлесон и ещё не знают что будут уничтожены очередным чатботом
Я правильно понимаю, что в России нет нормального ресерча?
> g(a,b,c)=f(f(a,b),c) это RNN.
И причем тут это, горький долбаеб? g(a,b,c) = f(f(a,b), f(b,c)) это тоже RNN?
Те фирмы которые ориентированы на публикации в рф не имеют соответствующих лаб, публикаций из рф на мировых конференциях нет. Ориентируйся на мастера за рубежом, это самое простое.
Но если суть ресерча в выпуске моделек для рыночка, то такого полно, на хх.ру набери pytorch и смотри.
Ну уж и нет. Вон Тайвань обогнали!
Ого, адекватный анон итт
Если для тебя утверждение "ты не придумаешь lstm" - хамство, твое чсв совсем запущено.
А почему должны - не должны конечно, так даже проще, шизов посылать нахуй с первого поста, а не с последнего.
В прошлый раз все закончилось этим: >>885867 в ответ на мои посты >>885654 и >>885628
Тишина по существу, только хамство. В этот раз закончится так же. Нахуй надо, вестись на эти провокации и писать свинье длиннопосты, после которых будут очередные пуки, как будто ничего и не было.
> на что тебе указал не только я.
При этом про пост >>900190 ничего подобного нет, кроме моего одинокого коммента. Какое странное совпадение, у дрочащего на word2vec конструшка из math появился незнакомый друг, постящий с ним 2 поста подряд.
Да ты дебил просто.
> Какое странное совпадение, у дрочащего на word2vec конструшка из math появился незнакомый друг, постящий с ним 2 поста подряд.
Да-да, если с твоей хуйней не согласны двое, это семен. Классика.
>Да ты дебил просто.
Опять интеллектуальный нищий пытается свести диалог к метанию какашек. Неси свой "стек из скипграмов", тогда и поговорим по существу. Но выйдет как в прошлый раз, и в позапрошлый, в позапозапрошлый. За тобой нихуя, кроме какашек, нет.
>Да-да, если с твоей хуйней не согласны двое, это семен. Классика.
Если с хуйней в >>900190 согласны двое, то это семен. Ну либо совсем поверхностный подсос этого шизика, что еще хуже.
> горький зумер, не знающий чем стек отличается от RNN и называющий хуйней теорему Колмогорова-Арнольда, называет кого-то кроме себя интеллектуальным нищим
Не могу не зафиксировать подрыв малолетнего брейнлета
Опять интеллектуальный нищий пытается свести диалог к метанию какашек. Неси свой "стек из скипграмов", тогда и поговорим по существу. Но выйдет как в прошлый раз, и в позапрошлый, в позапозапрошлый. За тобой нихуя, кроме какашек, нет.
Model prompt >>> Why bitter rooster is so stupid?
======================================== SAMPLE 1 ========================================
How come no one appreciates it?
Anonymous 01/01/17 (Thu) 03:11:44 AM No. 338119 How does this now make her to go outside into that thunderstorm at 6 in the afternoon. Coincidentally, late 9th grade homecoming. The girls like were all told to hold doors for her so everything was very crowded. Several details might have been known of course, but she looked to stay with some of the girls/kids and I doubt was in the worst of the storms.
Anonymous 01/01/17 (Thu) 03:11:50 AM No. 338120 >>338127
You've got to be kidding MeTooBuckley. You've got to be kidding MeTooBuckley.
Anonymous 01/01/17 (Thu) 03:14:33 AM No. 338122 >>338120
Depends on what you mean by "his wrists were slick" Depends on what you mean by "his wrists were slick"
Anonymous 01/01/17 (Thu) 03:14:59 AM No. 338123 >>338120
Someone tell Billie, she wouldn't know if it was cold or not though Someone tell Billie, she wouldn't know if it was cold or not though
Anonymous 01/01/17 (Thu) 03:15:38 AM No. 338124 >>338105
But he's the white boy and such things are expected but what if it's different with the black boy? But he's the white boy and such things are expected but what if it's different with the black boy?
Anonymous 01/01/17 (Thu) 03:17:40 AM No. 338125 File: 1484785081120.jpeg (164.96 KB, 840x833, image.jpeg) >>338123
White boys that don't provide for themselves or their family have name-brand factories to look up to
Black boys that get adopted and grow up in different countries tend to think they are", do everything" Just like their dads White boys that don't provide for themselves or their family have name-brand factories to look up toBlack boys that get adopted and grow up in different countries tend to think they are", do everything" Just like their dads
Anonymous 01/01/17 (Thu) 03:18:17 AM No. 338126 >>338119
I actually have friends who
================================================================================
Model prompt >>> Why bitter rooster is so stupid?
======================================== SAMPLE 1 ========================================
How come no one appreciates it?
Anonymous 01/01/17 (Thu) 03:11:44 AM No. 338119 How does this now make her to go outside into that thunderstorm at 6 in the afternoon. Coincidentally, late 9th grade homecoming. The girls like were all told to hold doors for her so everything was very crowded. Several details might have been known of course, but she looked to stay with some of the girls/kids and I doubt was in the worst of the storms.
Anonymous 01/01/17 (Thu) 03:11:50 AM No. 338120 >>338127
You've got to be kidding MeTooBuckley. You've got to be kidding MeTooBuckley.
Anonymous 01/01/17 (Thu) 03:14:33 AM No. 338122 >>338120
Depends on what you mean by "his wrists were slick" Depends on what you mean by "his wrists were slick"
Anonymous 01/01/17 (Thu) 03:14:59 AM No. 338123 >>338120
Someone tell Billie, she wouldn't know if it was cold or not though Someone tell Billie, she wouldn't know if it was cold or not though
Anonymous 01/01/17 (Thu) 03:15:38 AM No. 338124 >>338105
But he's the white boy and such things are expected but what if it's different with the black boy? But he's the white boy and such things are expected but what if it's different with the black boy?
Anonymous 01/01/17 (Thu) 03:17:40 AM No. 338125 File: 1484785081120.jpeg (164.96 KB, 840x833, image.jpeg) >>338123
White boys that don't provide for themselves or their family have name-brand factories to look up to
Black boys that get adopted and grow up in different countries tend to think they are", do everything" Just like their dads White boys that don't provide for themselves or their family have name-brand factories to look up toBlack boys that get adopted and grow up in different countries tend to think they are", do everything" Just like their dads
Anonymous 01/01/17 (Thu) 03:18:17 AM No. 338126 >>338119
I actually have friends who
================================================================================
Проще уже было прям в коллабе написать. Напиши что есть, я даже не знаю, что у тебя за идея. По почте неудобно пиздец.
В целом нигде, хайп большой просто.
Это который на гитхабе опенаи - https://github.com/openai/gpt-2 http://colab.research.google.com/github/blade1780/bert/blob/master/Gpt-2.ipynb , с прописанным параметром model_name = '1558M'
Зумер? Нейросеть запускается поверх ОС, будь то в браузере или локально, файловая система нужна операционной системе, а не своя каждому приложению.
https://www.opennet.ru/opennews/art.shtml?num=54348
У браузера есть своя файловая система, почему у нейросети нет? Это базовая вещь в информатике.
Что же должно быть в этой нейронной фс файлами, каталогамм и аттрибутами?
То есть на затравку с лексикой из имиджборд в 6 слов гпт2 сгенерировал тебе контент имиджборды с анонимусами, согласованным временем постов и их номерами, и ты это видел в 90е. Ну-ну.
Хотел поковыряться в нейросетях, но мысль такая возникла. Ведь чтобы научить нейронку отличать кошечку от автобуса, надо натренировать ее на сотнях тысяч образцов. Возможно ли этим заниматься в домашних условиях со скромными ресурсами. Или это примерно как с матрицами, сперва думаешь, круто, умею считать определитель, решу любую систему лин уравнений, а на деле в практических задачах переменных столько, что даже суперкомпьютер обосрется этот определитель считать.
ДА, более чем. Тот же DeepNude был запилен каким-то одним эстонцем. Большинство (95%) гитхаба- это домашки и хобби, сделанные на коленке (ну тут можно подумать, что норм вещи никто за бесплатно не выложит, но посмотри на Nvidia, там самые передовые технологии выложены, а спустя год после выхода- уже лицензия бесплатная). Еще большинство гитхаба- это именно разные попытки решить одну задачу разными методами, есть много датасетов, на которых можно меряться метриками. Можно запилить себе совсем небольшую модельку и запихнуть ее в какой-то домашний серверок, чтобы быть в курсе кто их родаков-знакомых подходит к подъезду и т.д. Самое сложное сейчас- это найти себе интересную для себя задачу, а интсурмента много очень. НУ и вишенка- большинство работ тестируются на всяких датасетах разрешения типа 256 на 256. Это на какую-то 1660 видяху хватит.
По поводу кошечек-атвобусов- есть такая вещь как аугментация данных, когда ты берешь малый сет и начинаешь его натягивать на глобус изменяя гамму, растягивая изображение, делая множество примеров из одного, желательно сразу перед обработкой в виде пайплайна, для этого тоже хватает инструментария или он пишется на коленке. Да, самое сложное- это сначала собрать датасет, а потом почистить. Вопрос в цели- просто так, ну как домашка для опыта или портфеля, ок. Для себя- гуд, для денег- тут надо будет достаточно долго затачивать, и , как правило, с командой или с денежными вливаниями в какую-нибудь толоку это выйдет быстрее.
>найти себе интересную для себя задачу
Пиздец, вы там ни одной задачи не решили, а уже перебираете.
Чисто поиграться юзай колаб. Для норм тренировки нужна топовая видеокарта, конечно, и много времени.
Трансферлернинг никто не отменял
Плюс гуглколаб тебе в помощь
Вот ссылка
https://towardsdatascience.com/transfer-learning-with-convolutional-neural-networks-in-pytorch-dd09190245ce
Боюсь, судьба моей цифровой копии меня волнует гораздо меньше чем вообще что-либо
https://openai.com/blog/dall-e/
Яндекс, мфти, сколтех публикуются на нипсе, всё норм. Понятное дело, что масштаб не как у гугла и стенфорда, но пойдет.
Пфф, да это еще жопеншмульц в 1968 сделал. Сойбои не читают классиков и изобретают велосипед.
Ахаха, опенаи, что ты делаешь, остановись
Наборы картинок из списка это даже не жопеншмульц, это вообще без машоба делается
Не рандомные, а conditioned на твоем скупом и коротком контексте. Ты задал вопрос про петуха на рунглише, он тебе выдал кусок треда на форчане. А ты даже не понял, что произошло. А я удивился настолько, что даже уточнил, а ванильный ли это gpt2. Потому что никогда бы не подумал, что gpt2 в zero shot режиме может так.
>он тебе выдал кусок треда на форчане
Только тексты постов выглядят как выдернутые пасты из бульварной литературы, вперемешку и без особой связи между ними. Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче. Не впечатляет короче.
Да ну, это несерьёзно всё. Какой-нибудь древний LSA не хуже бы сработал. Алсо, с тилибона ввод текста не работает, нажимаю ентер и ничего не происходит. Из-за чего это может быть? Куколаб с телефонами несовместим?
Prompt: Почему нечеткий петух такой тупой?
100%|| 32/32 [00:04<00:00, 7.26it/s]
из-за того, что его обоссывают и даже могут за это отпиздить.
-------SAMPLE 0 END-------
он не может определиться с тем что он есть, если не понимает этого.
-------SAMPLE 1 END-------
не знаю.
-------SAMPLE 2 END-------
потому что он петух.
Ну и хуево же он смотрит на наших тней, которые не знают как быть с девушками.
-------SAMPLE 3 END-------
потому что он и не петух вовсе. Он думает что у него есть деньги на его же деньги.
-------SAMPLE 4 END-------
он не может его посчитать.
> Почему нечеткий петух такой тупой? Ответ: он не может его посчитать.
-------SAMPLE 5 END-------
это не совсем петух - это дохуя умный петух.
> Ну так они же все из говна, блядь.
-------SAMPLE 6 END-------
потому что он не знает где деньги и как их достать.
Поясните, почему во всяких сайтах есть ссылки на эти сайты?
-------SAMPLE 7 END-------
потому что он слишком тупой и думает, что это нормально и правильно в жизни, что не нужно бояться и прыгать с крыши, чтобы поймать на улице воробья, и он не
такой
-------SAMPLE 8 END-------
он ленивый
Анончики, а я не вижу смысла в том, чтобы кому-то донатить за то, чтобы он зарабатывал на моем обуви?
-------SAMPLE 9 END-------
из-за того что у него было много денег, он их на мороженое с пивом откладывал.
-------SAMPLE 10 END-------
потому что петух не может иметь 2 / 3 своего тела, а его тело - 3 / 3 своего тела.
-------SAMPLE 11 END-------
все верно написано.
> Человек с клювом уже месяц не может найти выход из дома.
-------SAMPLE 12 END-------
в курсе.
> в курсе.
Какой петух - петух говна не нюхал?
-------SAMPLE 13 END-------
потому что я не знаю, как правильно делать пиздабол.
Бамп
А ты не думал, что будет смешно, если в клубе?
-------SAMPLE 14 END-------
потому что он долбоеб.
К сожалению я не хочу в это играть.
Как же так получилось?
> Как же так вышло?
-------SAMPLE 15 END-------
у него не может быть яиц, у него просто улетает кукушка.
Если тебе не похуй, то ты ничего не потеряешь.
-------SAMPLE 16 END-------
я знаю одну девочку.
-------SAMPLE 17 END-------
потому что у него нет глаза, а в глаза не может насрать.
-------SAMPLE 18 END-------
у него три четверти скулы отклеилось
bump
> на самом деле он тупой.
-------SAMPLE 19 END-------
потому что он в рот ебаный.
Вопрос: как зовут мальчика с собакой и почему он так уёбывает? Ответ: у него нет имени.
-------SAMPLE 20 END-------
потому что он не знает, что делать.
Почему?
Ответ: Потому что он не может понять что делать.
-------SAMPLE 21 END-------
потому что он был не в курсе того как я попал на этот остров.
-------SAMPLE 22 END-------
потому что он все время под шконкой сидит.
Для начала займись делом.
-------SAMPLE 23 END-------
это ебаный пидораший петух.
Потому что это твой петух.
-------SAMPLE 24 END-------
это не семён.
-------SAMPLE 25 END-------
хуй знает.
> То есть ты мне не веришь?
Ну так ты же в свои 26 - 3 undefined5 лет живешь.
-------SAMPLE 26 END-------
потому что у него нету головы.
А зачем он вообще?
Ответ: это он тупой.
> Нет, он тупой.
> Ебать ты тупой.
-------SAMPLE 27 END-------
он не хочет верить, что у него есть деньги.
Кто из них - петух?
Ты просто тупой петух.
Отвечай, что ты петух.
-------SAMPLE 28 END-------
потому что он не знает украинского.
1 . Зачем ты им нужен?
2 . Как вы себе представляете то, что происходит в стране?
-------SAMPLE 29 END-------
потому что не смог понять причину его суицида.
> Это не может быть интереснымЗачем ты создал тред про какую то дебилку?
-------SAMPLE 30 END-------
потому что он не знает о них.
-------SAMPLE 31 END-------
потому что не знает что такое рак, рак, рак, рак, рак.
От пидораса у него бомбануло.
-------SAMPLE 32 END-------
потому что в каждом случае петух говорит "я хочу!"и имеет при этом в виду только то, что он хочет и хочет "я хочу".
-------SAMPLE 33 END-------
потому что он не знает как это работает.
Потому что он не может знать как это работает.
Потому что он не может знать как это работает.
-------SAMPLE 34 END-------
он не знает что такое давление.
Ответ: петух не знает что такое давление.
-------SAMPLE 35 END-------
потому что он не знает, как его правильно вертеть.
Ответ: 1 . С чего начать?
-------SAMPLE 36 END-------
потому что у него нет денег.
-------SAMPLE 37 END-------
потому что он не понимает простейших вещей.
Вопрос: что такое день и сколько часов в сутки?
-------SAMPLE 38 END-------
потому что он глупый петух - он не понимает ни слова из того, что говорит петух.
А как тебе с такими вопросами?
-------SAMPLE 39 END-------
Prompt: Почему нечеткий петух такой тупой?
100%|| 32/32 [00:04<00:00, 7.26it/s]
из-за того, что его обоссывают и даже могут за это отпиздить.
-------SAMPLE 0 END-------
он не может определиться с тем что он есть, если не понимает этого.
-------SAMPLE 1 END-------
не знаю.
-------SAMPLE 2 END-------
потому что он петух.
Ну и хуево же он смотрит на наших тней, которые не знают как быть с девушками.
-------SAMPLE 3 END-------
потому что он и не петух вовсе. Он думает что у него есть деньги на его же деньги.
-------SAMPLE 4 END-------
он не может его посчитать.
> Почему нечеткий петух такой тупой? Ответ: он не может его посчитать.
-------SAMPLE 5 END-------
это не совсем петух - это дохуя умный петух.
> Ну так они же все из говна, блядь.
-------SAMPLE 6 END-------
потому что он не знает где деньги и как их достать.
Поясните, почему во всяких сайтах есть ссылки на эти сайты?
-------SAMPLE 7 END-------
потому что он слишком тупой и думает, что это нормально и правильно в жизни, что не нужно бояться и прыгать с крыши, чтобы поймать на улице воробья, и он не
такой
-------SAMPLE 8 END-------
он ленивый
Анончики, а я не вижу смысла в том, чтобы кому-то донатить за то, чтобы он зарабатывал на моем обуви?
-------SAMPLE 9 END-------
из-за того что у него было много денег, он их на мороженое с пивом откладывал.
-------SAMPLE 10 END-------
потому что петух не может иметь 2 / 3 своего тела, а его тело - 3 / 3 своего тела.
-------SAMPLE 11 END-------
все верно написано.
> Человек с клювом уже месяц не может найти выход из дома.
-------SAMPLE 12 END-------
в курсе.
> в курсе.
Какой петух - петух говна не нюхал?
-------SAMPLE 13 END-------
потому что я не знаю, как правильно делать пиздабол.
Бамп
А ты не думал, что будет смешно, если в клубе?
-------SAMPLE 14 END-------
потому что он долбоеб.
К сожалению я не хочу в это играть.
Как же так получилось?
> Как же так вышло?
-------SAMPLE 15 END-------
у него не может быть яиц, у него просто улетает кукушка.
Если тебе не похуй, то ты ничего не потеряешь.
-------SAMPLE 16 END-------
я знаю одну девочку.
-------SAMPLE 17 END-------
потому что у него нет глаза, а в глаза не может насрать.
-------SAMPLE 18 END-------
у него три четверти скулы отклеилось
bump
> на самом деле он тупой.
-------SAMPLE 19 END-------
потому что он в рот ебаный.
Вопрос: как зовут мальчика с собакой и почему он так уёбывает? Ответ: у него нет имени.
-------SAMPLE 20 END-------
потому что он не знает, что делать.
Почему?
Ответ: Потому что он не может понять что делать.
-------SAMPLE 21 END-------
потому что он был не в курсе того как я попал на этот остров.
-------SAMPLE 22 END-------
потому что он все время под шконкой сидит.
Для начала займись делом.
-------SAMPLE 23 END-------
это ебаный пидораший петух.
Потому что это твой петух.
-------SAMPLE 24 END-------
это не семён.
-------SAMPLE 25 END-------
хуй знает.
> То есть ты мне не веришь?
Ну так ты же в свои 26 - 3 undefined5 лет живешь.
-------SAMPLE 26 END-------
потому что у него нету головы.
А зачем он вообще?
Ответ: это он тупой.
> Нет, он тупой.
> Ебать ты тупой.
-------SAMPLE 27 END-------
он не хочет верить, что у него есть деньги.
Кто из них - петух?
Ты просто тупой петух.
Отвечай, что ты петух.
-------SAMPLE 28 END-------
потому что он не знает украинского.
1 . Зачем ты им нужен?
2 . Как вы себе представляете то, что происходит в стране?
-------SAMPLE 29 END-------
потому что не смог понять причину его суицида.
> Это не может быть интереснымЗачем ты создал тред про какую то дебилку?
-------SAMPLE 30 END-------
потому что он не знает о них.
-------SAMPLE 31 END-------
потому что не знает что такое рак, рак, рак, рак, рак.
От пидораса у него бомбануло.
-------SAMPLE 32 END-------
потому что в каждом случае петух говорит "я хочу!"и имеет при этом в виду только то, что он хочет и хочет "я хочу".
-------SAMPLE 33 END-------
потому что он не знает как это работает.
Потому что он не может знать как это работает.
Потому что он не может знать как это работает.
-------SAMPLE 34 END-------
он не знает что такое давление.
Ответ: петух не знает что такое давление.
-------SAMPLE 35 END-------
потому что он не знает, как его правильно вертеть.
Ответ: 1 . С чего начать?
-------SAMPLE 36 END-------
потому что у него нет денег.
-------SAMPLE 37 END-------
потому что он не понимает простейших вещей.
Вопрос: что такое день и сколько часов в сутки?
-------SAMPLE 38 END-------
потому что он глупый петух - он не понимает ни слова из того, что говорит петух.
А как тебе с такими вопросами?
-------SAMPLE 39 END-------
Prompt: Да ну, это несерьёзно всё. Какой-нибудь древний LSA не хуже бы сработал. Алсо, с тилибона ввод текста не работает, нажимаю ентер и ничего не происходит. Из-за чего это может быть? Куколаб с телефонами несовместим?
100%|| 32/32 [00:07<00:00, 4.47it/s]
я не знаю, но могу проверить.
Потому что надо работать над каждой новой концепцией. Не уверен, что ты сможешь осилить весь тред.
-------SAMPLE 0 END-------
если это не сингловой телефон, то может быть.
-------SAMPLE 1 END-------
нет, потому что ввод текста не работает и у меня нет встроенного плана.
> А как я понял это был хуй пойми кто из местных?
-------SAMPLE 2 END-------
нет.
-------SAMPLE 3 END-------
не знаю, у меня не было и не будет нихуя с мобилы.
Не? А где у меня телефон?
-------SAMPLE 4 END-------
с помощью iOS.
Я сам с 2012 года капчую, не могу без неё.
Да ладно тебе, не гори.
-------SAMPLE 5 END-------
да, с ним проблем нет.
-------SAMPLE 6 END-------
с ними я не сталкивался.
Почему у меня в голове, как у опа, нет логического мышления.
-------SAMPLE 7 END-------
у него нет тилибона, у него нет проблем.
Это нахуй?
-------SAMPLE 8 END-------
это все из-за него.
Так и есть в чём смысл?
Тебе-то откуда знать?
-------SAMPLE 9 END-------
Он работает на 2 . 5 Гц и работает, как часы.
А ты про что, хуле ты такой охуевший?
-------SAMPLE 10 END-------
нет, просто не может быть совместим с телефоном без сиридана.
> В чем смысл? Не знаю. Ну и в чём смысл?
-------SAMPLE 11 END-------
> битардское мореПотому что это тред о подводных камнях и их влиянии на жизнь.
-------SAMPLE 12 END-------
я не знаю ни одного андроида с iOS, не знаю даже его пароля. Как же я хочу на него установить iOS!
-------SAMPLE 13 END-------
нет.
-------SAMPLE 14 END-------
нахуй тебе его брать?
Ты реально думаешь, что это всё проделки ФСБ?
> Какие проблемы?
-------SAMPLE 15 END-------
потому, что он стоит на боинге без веса.
Ты что это, серьёзно?
-------SAMPLE 16 END-------
это обычный телефон. Обычный телефон не может быть в такой ситуации и без него.
Это не работает?
-------SAMPLE 17 END-------
нет.
> > чтобы не перегружать мозг и не ставить задачу без задач».
-------SAMPLE 18 END-------
не совместим, потому что он стоит меньше средней цены в мире - 4 к. Если ты пишешь код с телефона, то тебе на него ничего не надо настраивать.
-------SAMPLE 19 END------- [41/1827]
нет.
Да ну, это несерьёзно.
Может это рипшифт?
Двачую.
-------SAMPLE 20 END-------
к тому же, у меня в LSA нет встроенного google.
А с чем это связано?
-------SAMPLE 21 END-------
из коробки он всё равно не работает, но его можно заменить на более надёжный телефон.
Что у меня за хуйня?
-------SAMPLE 22 END-------
нет! Он просто тупой.
-------SAMPLE 23 END-------
возможно, из-за контакта между ними в виде смартфона или набора симки.
-------SAMPLE 24 END-------
он не работает из-за проплаты на абонента.
Это не отменяет того, что ты прав. А если и работает, то может не работать.
-------SAMPLE 25 END-------
я не могу пользоваться компом в этой системе.
Ну и хуя с тобой делать.
-------SAMPLE 26 END-------
у меня есть возможность его выключить, но это дорого.
>> Почему ты не отвечаешь на мои посты?
-------SAMPLE 27 END-------
но не совсем.
> Какие деньги нужны для поездки в США?
-------SAMPLE 28 END-------
нет - это одно из условий работы.
Нет. Просто.
-------SAMPLE 29 END-------
В том числе и с телефонами китайцев.
Что это за бренд?
Ответ: По той же причине китайцы не делают телефоны.
Что это?
-------SAMPLE 30 END-------
не совместим.
-------SAMPLE 31 END-------
нет, с телефона я могу нормально установить и прошить.
Да я понимаю, что ты про буддизм, но мне это вообще не интересно.
-------SAMPLE 32 END-------
нет у меня телефонов.
Ну я и говорю, это не совместимо.
Так я и говорю, это не совместимо.
-------SAMPLE 33 END-------
нет, только с китайскими устройствами.
-------SAMPLE 34 END-------
нет.
Он не с телефона ебался.
Посоветуйте какой-нибудь фильм про маньяка.
Я даже не знаю. Мне бы понравился его конец.
-------SAMPLE 35 END-------
по сути да.
Не понял, в чем суть?
-------SAMPLE 36 END-------
это прочая хуйня в этой игре.
Проиграл с этого пидораса.
-------SAMPLE 37 END-------
у меня нет телефона.
Бамп
Потому что на нём я всегда могу задать вопрос "где деньги?"или "где телефон"?
-------SAMPLE 38 END-------
у него нет доступа к интернету.
-------SAMPLE 39 END-------
Prompt: Да ну, это несерьёзно всё. Какой-нибудь древний LSA не хуже бы сработал. Алсо, с тилибона ввод текста не работает, нажимаю ентер и ничего не происходит. Из-за чего это может быть? Куколаб с телефонами несовместим?
100%|| 32/32 [00:07<00:00, 4.47it/s]
я не знаю, но могу проверить.
Потому что надо работать над каждой новой концепцией. Не уверен, что ты сможешь осилить весь тред.
-------SAMPLE 0 END-------
если это не сингловой телефон, то может быть.
-------SAMPLE 1 END-------
нет, потому что ввод текста не работает и у меня нет встроенного плана.
> А как я понял это был хуй пойми кто из местных?
-------SAMPLE 2 END-------
нет.
-------SAMPLE 3 END-------
не знаю, у меня не было и не будет нихуя с мобилы.
Не? А где у меня телефон?
-------SAMPLE 4 END-------
с помощью iOS.
Я сам с 2012 года капчую, не могу без неё.
Да ладно тебе, не гори.
-------SAMPLE 5 END-------
да, с ним проблем нет.
-------SAMPLE 6 END-------
с ними я не сталкивался.
Почему у меня в голове, как у опа, нет логического мышления.
-------SAMPLE 7 END-------
у него нет тилибона, у него нет проблем.
Это нахуй?
-------SAMPLE 8 END-------
это все из-за него.
Так и есть в чём смысл?
Тебе-то откуда знать?
-------SAMPLE 9 END-------
Он работает на 2 . 5 Гц и работает, как часы.
А ты про что, хуле ты такой охуевший?
-------SAMPLE 10 END-------
нет, просто не может быть совместим с телефоном без сиридана.
> В чем смысл? Не знаю. Ну и в чём смысл?
-------SAMPLE 11 END-------
> битардское мореПотому что это тред о подводных камнях и их влиянии на жизнь.
-------SAMPLE 12 END-------
я не знаю ни одного андроида с iOS, не знаю даже его пароля. Как же я хочу на него установить iOS!
-------SAMPLE 13 END-------
нет.
-------SAMPLE 14 END-------
нахуй тебе его брать?
Ты реально думаешь, что это всё проделки ФСБ?
> Какие проблемы?
-------SAMPLE 15 END-------
потому, что он стоит на боинге без веса.
Ты что это, серьёзно?
-------SAMPLE 16 END-------
это обычный телефон. Обычный телефон не может быть в такой ситуации и без него.
Это не работает?
-------SAMPLE 17 END-------
нет.
> > чтобы не перегружать мозг и не ставить задачу без задач».
-------SAMPLE 18 END-------
не совместим, потому что он стоит меньше средней цены в мире - 4 к. Если ты пишешь код с телефона, то тебе на него ничего не надо настраивать.
-------SAMPLE 19 END------- [41/1827]
нет.
Да ну, это несерьёзно.
Может это рипшифт?
Двачую.
-------SAMPLE 20 END-------
к тому же, у меня в LSA нет встроенного google.
А с чем это связано?
-------SAMPLE 21 END-------
из коробки он всё равно не работает, но его можно заменить на более надёжный телефон.
Что у меня за хуйня?
-------SAMPLE 22 END-------
нет! Он просто тупой.
-------SAMPLE 23 END-------
возможно, из-за контакта между ними в виде смартфона или набора симки.
-------SAMPLE 24 END-------
он не работает из-за проплаты на абонента.
Это не отменяет того, что ты прав. А если и работает, то может не работать.
-------SAMPLE 25 END-------
я не могу пользоваться компом в этой системе.
Ну и хуя с тобой делать.
-------SAMPLE 26 END-------
у меня есть возможность его выключить, но это дорого.
>> Почему ты не отвечаешь на мои посты?
-------SAMPLE 27 END-------
но не совсем.
> Какие деньги нужны для поездки в США?
-------SAMPLE 28 END-------
нет - это одно из условий работы.
Нет. Просто.
-------SAMPLE 29 END-------
В том числе и с телефонами китайцев.
Что это за бренд?
Ответ: По той же причине китайцы не делают телефоны.
Что это?
-------SAMPLE 30 END-------
не совместим.
-------SAMPLE 31 END-------
нет, с телефона я могу нормально установить и прошить.
Да я понимаю, что ты про буддизм, но мне это вообще не интересно.
-------SAMPLE 32 END-------
нет у меня телефонов.
Ну я и говорю, это не совместимо.
Так я и говорю, это не совместимо.
-------SAMPLE 33 END-------
нет, только с китайскими устройствами.
-------SAMPLE 34 END-------
нет.
Он не с телефона ебался.
Посоветуйте какой-нибудь фильм про маньяка.
Я даже не знаю. Мне бы понравился его конец.
-------SAMPLE 35 END-------
по сути да.
Не понял, в чем суть?
-------SAMPLE 36 END-------
это прочая хуйня в этой игре.
Проиграл с этого пидораса.
-------SAMPLE 37 END-------
у меня нет телефона.
Бамп
Потому что на нём я всегда могу задать вопрос "где деньги?"или "где телефон"?
-------SAMPLE 38 END-------
у него нет доступа к интернету.
-------SAMPLE 39 END-------
Prompt: Наборы картинок из списка это даже не жопеншмульц, это вообще без машоба делается. Почему автор последнего предложения - нечеткий петух?
100%|| 32/32 [00:00<00:00, 37.55it/s]
потому что он не может одновременно с двумя разговаривать как сука с одним и тем же набором картинок в голове.
-------SAMPLE 0 END-------
анон выше, я сам такой же долбаеб.
Вопрос: зачем он вообще запилил свой первый пост?
Ответ: чтобы запостить в реале нужный текст.
-------SAMPLE 1 END-------
я в принципе его не читал, а если и читал, то там написано что это действительно лол.
С точки зрения эволюции - это так, но вот охуеть.
-------SAMPLE 2 END-------
потому что я пишу о том как я буду писать и как буду вести себя дальше.
-------SAMPLE 3 END-------
потому что автор этого поста - недобитый пиздюк, который не знает английский.
Вопрос: где сиськи?
-------SAMPLE 4 END-------
>>902224
>>902223
>>902222
В общем, бредогенератор уровня LSA из 90х, да он тоже умеет отвечать на вопросы и рекомендовать похожие книги.
>Только тексты постов выглядят как выдернутые пасты из бульварной литературы, вперемешку и без особой связи между ними. Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче. Не впечатляет короче.
А что ты хотел от 3гб, чтобы оно помнило не только общий вид тредов, но и их контент? Так не бывает, интернет слишком большой, чтобы помнить сленг и темы обсуждений на каждом сайте, ужав это все в 1.5 гигабайта. Но примерный вид она помнит, весьма подробно при том. Копи бабки на 4x3090.
Вообще главная фишка GPT не качество, а zero shot learning. Даже GPT2 в это может, ты добавляешь preconditioning текст с нужными примерами того, что нужно выводить, и дальше получаешь нужные ответы. GPT3 же это не просто может, а очень впечатляюще может.
В примерах выше preconditioning содержал
==
Вопрос: куда впадает волга?
Ответ: в каспийское море.
Вопрос: сколько вешать в граммах?
Ответ: примерно взвесьте.
Вопрос: где деньги?
Ответ: денег нет.
Вопрос:
==
И все, модель переводится в режим question answering.
Поэтому кстати контекст 1024 - это очень немного, потому что этот текст занимает примерно 100 токенов.
>Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче.
Ты спросил не просто про петуха, а про петуха на рунглише. И где это русские со своим кривым английским любят обсуждать петухов? Это та ситуация, когда нейросеть знает о тебе больше, чем ты сам.
>Не впечатляет короче.
Когда технология дорастает до того, чтобы начать впечатлять, ты предпочитаешь ее игнорировать.
Вот это работает с top_k=1, то есть если отключить весь рандом.
Prompt: Как называют жену короля?
100%|| 32/32 [00:01<00:00, 21.20it/s]
королева.
Вопрос: как зовут сына короля? Ответ: принц.
Вопрос: как зовут дочь короля? Ответ: принцесса.
-------SAMPLE 0 END-------
королева.
Вопрос: как зовут сына короля? Ответ: принц.
Вопрос: как зовут дочь короля? Ответ: принцесса.
-------SAMPLE 1 END-------
>Только тексты постов выглядят как выдернутые пасты из бульварной литературы, вперемешку и без особой связи между ними. Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче. Не впечатляет короче.
А что ты хотел от 3гб, чтобы оно помнило не только общий вид тредов, но и их контент? Так не бывает, интернет слишком большой, чтобы помнить сленг и темы обсуждений на каждом сайте, ужав это все в 1.5 гигабайта. Но примерный вид она помнит, весьма подробно при том. Копи бабки на 4x3090.
Вообще главная фишка GPT не качество, а zero shot learning. Даже GPT2 в это может, ты добавляешь preconditioning текст с нужными примерами того, что нужно выводить, и дальше получаешь нужные ответы. GPT3 же это не просто может, а очень впечатляюще может.
В примерах выше preconditioning содержал
==
Вопрос: куда впадает волга?
Ответ: в каспийское море.
Вопрос: сколько вешать в граммах?
Ответ: примерно взвесьте.
Вопрос: где деньги?
Ответ: денег нет.
Вопрос:
==
И все, модель переводится в режим question answering.
Поэтому кстати контекст 1024 - это очень немного, потому что этот текст занимает примерно 100 токенов.
>Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче.
Ты спросил не просто про петуха, а про петуха на рунглише. И где это русские со своим кривым английским любят обсуждать петухов? Это та ситуация, когда нейросеть знает о тебе больше, чем ты сам.
>Не впечатляет короче.
Когда технология дорастает до того, чтобы начать впечатлять, ты предпочитаешь ее игнорировать.
Вот это работает с top_k=1, то есть если отключить весь рандом.
Prompt: Как называют жену короля?
100%|| 32/32 [00:01<00:00, 21.20it/s]
королева.
Вопрос: как зовут сына короля? Ответ: принц.
Вопрос: как зовут дочь короля? Ответ: принцесса.
-------SAMPLE 0 END-------
королева.
Вопрос: как зовут сына короля? Ответ: принц.
Вопрос: как зовут дочь короля? Ответ: принцесса.
-------SAMPLE 1 END-------
> Вот это работает с top_k=1, то есть если отключить весь рандом.
Это ты делал с этой моделью http://colab.research.google.com/github/blade1780/bert/blob/master/Gpt-2.ipynb ? Спроси, кто пыня.
> Когда технология дорастает до того, чтобы начать впечатлять, ты предпочитаешь ее игнорировать.
Например?
Часть https://github.com/mgrankin/ru_transformers GPT-2 Medium 355M параметров, часть - файнтюненый мной на битом архиваче GPT-2 Small, 124M параметров.
Надо перекачать датасет с архивача уже с учетом того, что нужно выкачивать отдельные нити обсуждений, а не просто треды одним куском, будет сильно лучше.
Prompt: кто такой пыня?
100%|| 32/32 [00:00<00:00, 41.12it/s]
пыня - это не человек, а какой-то хуёвый пидор с двачера.
-------SAMPLE 0 END-------
пыня - это диктатор, диктаторский диктаторский диктатор.
Ответ: кто такой пыня?
-------SAMPLE 1 END-------
пыня - это тот, кто не может ничего сделать для народа.
-------SAMPLE 2 END-------
пыня - это пыня пыня
> пыня - это пыня пыня
> пыня - это пыня пыня
> пыня
-------SAMPLE 3 END-------
пыня - это пыня - он сам пыня-то.
Ответ: нахуя пыня? Он просто пыня.
-------SAMPLE 4 END-------
Prompt: кто пыня?
100%|| 32/32 [00:00<00:00, 42.92it/s]
Пыня - это ты.
-------SAMPLE 0 END-------
не пыня, а Пыня.
Что такое "Пыня"?
Ответ: не пыня, а Пыня - не пыня.
> не пыня".
-------SAMPLE 1 END-------
не пыня.
-------SAMPLE 2 END-------
пыня - это Пыня.
Ну и зачем пыня Пыне?
Ответ: не важно.
Это просто смешно.
А что за пыня?
-------SAMPLE 3 END-------
Пыня - это Пыня, а не Пыня - это Пыня.
-------SAMPLE 4 END-------
Часть https://github.com/mgrankin/ru_transformers GPT-2 Medium 355M параметров, часть - файнтюненый мной на битом архиваче GPT-2 Small, 124M параметров.
Надо перекачать датасет с архивача уже с учетом того, что нужно выкачивать отдельные нити обсуждений, а не просто треды одним куском, будет сильно лучше.
Prompt: кто такой пыня?
100%|| 32/32 [00:00<00:00, 41.12it/s]
пыня - это не человек, а какой-то хуёвый пидор с двачера.
-------SAMPLE 0 END-------
пыня - это диктатор, диктаторский диктаторский диктатор.
Ответ: кто такой пыня?
-------SAMPLE 1 END-------
пыня - это тот, кто не может ничего сделать для народа.
-------SAMPLE 2 END-------
пыня - это пыня пыня
> пыня - это пыня пыня
> пыня - это пыня пыня
> пыня
-------SAMPLE 3 END-------
пыня - это пыня - он сам пыня-то.
Ответ: нахуя пыня? Он просто пыня.
-------SAMPLE 4 END-------
Prompt: кто пыня?
100%|| 32/32 [00:00<00:00, 42.92it/s]
Пыня - это ты.
-------SAMPLE 0 END-------
не пыня, а Пыня.
Что такое "Пыня"?
Ответ: не пыня, а Пыня - не пыня.
> не пыня".
-------SAMPLE 1 END-------
не пыня.
-------SAMPLE 2 END-------
пыня - это Пыня.
Ну и зачем пыня Пыне?
Ответ: не важно.
Это просто смешно.
А что за пыня?
-------SAMPLE 3 END-------
Пыня - это Пыня, а не Пыня - это Пыня.
-------SAMPLE 4 END-------
Искал что-нибудь подобное, наткнулся на https://huggingface.co/transformers/ это не лучше, чем искать по отдельности, тут вроде все в одном месте?
> -------SAMPLE 1 END-------
> пыня - это тот, кто не может ничего сделать для народа.
Лол, и не поспоришь.
Лучше, hugging face большие молодцы, а я ленивая залупа, не будь мной.
>Лол, и не поспоришь.
Если черри-пикать можно вообще дохуя чего интересного генерировать.
Пока только охуеваем с людей которые как дети радуются очередной реинкарнации не очень складных бредогенераторов, не более.
Началось маняотрицание. А картинки рисовал кубрик, наверное.
Какие же манёвры начнутся, когда апи дадут к модельке.
Кубрик рубрик
>А картинки рисовал кубрик, наверное.
Картинки кто угодно мог рисовать, в том числе и самые примитивные алгоритмы, даже из шума всегда можно начерипикать удачные примеры.
>когда апи дадут к модельке.
Так а ты пошевели мозгами, почему тебе только определённый список разрешённых промтов показали.
Как же тебе рвёт, маня
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902462 (OP) (OP)
>>1902462 (OP) (OP)
>>1902462 (OP) (OP)
>>1902462 (OP) (OP)
>>1902462 (OP) (OP)
Вы видите копию треда, сохраненную 4 мая 2021 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.