Это копия, сохраненная 22 апреля 2021 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Я ничего не понимаю, что делать?
Вкатывальщики импортят slesarplow as sp по туториалам (хотя сейчас актуальнее pytorch)
Толковые качают из репозитория awesome-XXXX на гитхабе проект какого-то китайца, меняют фамилию и получают $10M инвестиций как стартап.
Умные смотрят prerequisites на https://see.stanford.edu/Course/CS229 и http://cs231n.stanford.edu/
Остальные сидят ИТТ
Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus
Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/
Почему python?
Исторически сложилось
Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет
Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python
В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials
Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел
Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой
Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся
Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров: https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных?
http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь
Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом
Кто нибудь использовал машоб для трейдинга?
Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.
Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Предыдущие:
https://2ch.hk/pr/res/1881607.html (М)
https://2ch.hk/pr/res/1868191.html (М)
https://2ch.hk/pr/res/1847673.html (М)
https://2ch.hk/pr/res/1832580.html (М)
https://2ch.hk/pr/res/1817320.html (М)
https://2ch.hk/pr/res/1785952.html (М)
https://2ch.hk/pr/res/1758961.html (М)
https://2ch.hk/pr/res/1734710.html (М)
https://2ch.hk/pr/res/1704037.html (М)
https://2ch.hk/pr/res/1665515.html (М)
С козырей зашел
Порфирьевич.
>Как работает градиентный спуск?
Нахуя мне это знать, если фит-предикт на готовой либе дает на 0,001% результат хуже, чем простыня из говнокода? Кагглобомж, ты?
>Нахуя мне это знать
Не знаю, а ты кто?
До добавления в фак это был довольно популярный вопрос. Может совпадение, конечно.
>А не валидные это обычно шум с высокой энтропией вкраплённый в валидный набор.
Так может просто gzip'ом данные пожать и посмотреть на коэффициент сжатия? Это простой способ замерить энтропию.
>В итоге какой вариант сети лучше всего с такой задачей справится?
Когда у тебя одномерный поток байт типа текста - стекай трансформеры и не еби мозг.
Вот с этого можешь начать https://keras.io/examples/nlp/text_classification_with_transformer/
Только там где у него
x = transformer_block(x)
настекай больше таких блоков
x = transformer_block(x)
x = transformer_block(x)
x = transformer_block(x)
x = transformer_block(x)
Желательно ужать длину чанка в 128-512 токенов, после константа в o(n^2) будет жрать дохуя ресурсов. Токен - не обязательно символ, можно сжимать данные токенизатором типа https://en.wikipedia.org/wiki/Byte_pair_encoding , так делают OpenAI.
Если нужны чанки от 1024 - читай статьи Efficient Transformers: A Survey и Long Range Arena: A Benchmark for Efficient Transformers, получишь интродакшен в 2020 год. tldr для длинных чанков переходи на BigBird.
LSTM после появления трансформеров потерял смысл.
Сверточные сети могут сработать, если данные сильно локальные и однородные. Можно использовать их как пре-процессинг вместо токенизатора. То есть изначальный поток байт серией из сверток со страйдом сжимаешь до многоканальной последовательности меньшей длины, а на это наворачиваешь трансформеров. Но не забывай скип коннекшены и батчнорм. В трансформеры нормализация и скипы уже встроены, а в свертках их нет, и не похоже, что ты знаешь об этом, судя по твоему посту.
Охуенно
Ага, и в декодере, и в энкодере, везде скипы и LayerNormalization слои
https://keras.io/examples/nlp/text_classification_with_transformer/ тут используется и закодирован под именем transformer_block энкодер, он слева. Оригинальный декодер справа.
BERT - encoder-only сетка, этот подход хорош для задач типа классификации, потому что контекст ловится целиком, без маскинга "будущего". Такие сетки можно претрейнить на неразмеченных данных, поместив dropout слой сразу за инпутом и обучая fit(inputs=siriye_danniye, outputs=siriye_danniye), как в стандартном денойзинг автоэнкодере.
GPT - decoder-only, но сам декодер не как на картинке, а попроще, без среднего слоя. То есть фактически тот же энкодер, но с маской, маскирующей для токена "будущее". Это подход хорош для генерации, контекст здесь ловится только "из прошлого" с помощью маски, соответственно сетку можно использовать в авто-регрессионном режиме, заставляя ее высирать по токену а скармливая выход входу.
Вроде бы подход кажется медленным говном по сравнению с BERT'ом, но оказалось, что такие сетки являются zero shot learners: если в контексте описать им суть задачи в виде нескольких примеров, они начинают генерировать новые данные по этим примерам. Например, отвечать на вопросы, выписывать tldr для текста, теперь вот DALL-E может генерировать картинку по образцу. Короче это самое близкое к General AI, что есть на данный момент.
>>02846
Да. Кто еще не вкатился - тот дурачок.
Свертки хороши, но они по сути - то же самое умножение входного вектора на матрицу весов, как у персептрона, только сама матрица особого вида типа
[w1 w2 w3 0 0 0 0 0
0 w1 w2 w3 0 0 0 0
0 0 w1 w2 w3 0 0 0
...и так далее...
]
То есть свертка менее выразительна, чем персептрон, но жестко зашивает пространственную инвариантность в структуру данных, что делает ее эффективной для широкого, но ограниченного класса задач.
А трансформер - это, если его сильно кастрировать, выкинуть нормализацию, перемножить матрицы и оставить только одну голову, сводится к f(x)=softmax(x' W x) x, где
x - входная последовательность векторов размерности d и общей длины N, а softmax(x' W x) - аттеншен-матрица NxN, W - матрица dxd собственно параметров, Дальше еще нужно добавить вектор P - пазишен энкодинг, который по сути накладывает всякого рода красивости на аттеншен-матрицу и вычислять вместо f(x) - f(x+P).
То есть softmax(...) - это NxN матрица, а x - входной вектор. Очень напоминает персептрон.
То есть эта хуитка - персептрон, который генерирует свои веса динамически, на лету. И доказано, что если у тебя голов в аттеншене достаточное количество, это не просто имеет ту же выразительную силу, что и свертки, но и при обучении генерируются похожие кернелы, которые генерирует сверточная сеть.
Но у сверточной сети размер фильтра - это гиперпараметр, а трансформер размеры своих фильтров настраивает на лету. То есть, все, как заказывали, настекал слоев, а оно само думает, что делать с данными. По сути это персептрон done right, который круче и персептрона, и сверток, и неба, и аллаха, Хохрайтер (все в мире считают его автором LSTM, хотя мы знаем, что LSTM придумал Жопенмульцер в 1952 году, не надо меня поправлять) показал, что это вообще обобщение сети Хопфилда на непрерывный случай, с экспоненциальной емкостью запоминания паттернов. Ну и главное, что это не просто абстрактный академический надроч, а реально работающая штука, без геморройных RNN и жестко зажатых своей пространственной инвариантностью сверток.
Лично я использую подход DETR, который "избрел" сам https://arxiv.org/pdf/2005.12872.pdf , то есть CNN сначала ужимает сырые данные в набор фичастых данных, но с меньшим разрешением, а трансформеры уже работают с этими данными. Получается лучше, чем чистая CNN, но пришлось помучаться перед тем, как оно заработало - во-первых adam'у нужен обязательный warmup где-то первые 2000 шагов обучения, то есть плавный рост learning rate от 0 до целевого значения, во-вторых я до сих пор экспериментирую с энкодингами, нынешний вариант перестает работать, если увеличить emb_dim. Но и нынешний вариант работает сильно лучше чистой сверточной сетки.
https://keras.io/examples/nlp/text_classification_with_transformer/ тут используется и закодирован под именем transformer_block энкодер, он слева. Оригинальный декодер справа.
BERT - encoder-only сетка, этот подход хорош для задач типа классификации, потому что контекст ловится целиком, без маскинга "будущего". Такие сетки можно претрейнить на неразмеченных данных, поместив dropout слой сразу за инпутом и обучая fit(inputs=siriye_danniye, outputs=siriye_danniye), как в стандартном денойзинг автоэнкодере.
GPT - decoder-only, но сам декодер не как на картинке, а попроще, без среднего слоя. То есть фактически тот же энкодер, но с маской, маскирующей для токена "будущее". Это подход хорош для генерации, контекст здесь ловится только "из прошлого" с помощью маски, соответственно сетку можно использовать в авто-регрессионном режиме, заставляя ее высирать по токену а скармливая выход входу.
Вроде бы подход кажется медленным говном по сравнению с BERT'ом, но оказалось, что такие сетки являются zero shot learners: если в контексте описать им суть задачи в виде нескольких примеров, они начинают генерировать новые данные по этим примерам. Например, отвечать на вопросы, выписывать tldr для текста, теперь вот DALL-E может генерировать картинку по образцу. Короче это самое близкое к General AI, что есть на данный момент.
>>02846
Да. Кто еще не вкатился - тот дурачок.
Свертки хороши, но они по сути - то же самое умножение входного вектора на матрицу весов, как у персептрона, только сама матрица особого вида типа
[w1 w2 w3 0 0 0 0 0
0 w1 w2 w3 0 0 0 0
0 0 w1 w2 w3 0 0 0
...и так далее...
]
То есть свертка менее выразительна, чем персептрон, но жестко зашивает пространственную инвариантность в структуру данных, что делает ее эффективной для широкого, но ограниченного класса задач.
А трансформер - это, если его сильно кастрировать, выкинуть нормализацию, перемножить матрицы и оставить только одну голову, сводится к f(x)=softmax(x' W x) x, где
x - входная последовательность векторов размерности d и общей длины N, а softmax(x' W x) - аттеншен-матрица NxN, W - матрица dxd собственно параметров, Дальше еще нужно добавить вектор P - пазишен энкодинг, который по сути накладывает всякого рода красивости на аттеншен-матрицу и вычислять вместо f(x) - f(x+P).
То есть softmax(...) - это NxN матрица, а x - входной вектор. Очень напоминает персептрон.
То есть эта хуитка - персептрон, который генерирует свои веса динамически, на лету. И доказано, что если у тебя голов в аттеншене достаточное количество, это не просто имеет ту же выразительную силу, что и свертки, но и при обучении генерируются похожие кернелы, которые генерирует сверточная сеть.
Но у сверточной сети размер фильтра - это гиперпараметр, а трансформер размеры своих фильтров настраивает на лету. То есть, все, как заказывали, настекал слоев, а оно само думает, что делать с данными. По сути это персептрон done right, который круче и персептрона, и сверток, и неба, и аллаха, Хохрайтер (все в мире считают его автором LSTM, хотя мы знаем, что LSTM придумал Жопенмульцер в 1952 году, не надо меня поправлять) показал, что это вообще обобщение сети Хопфилда на непрерывный случай, с экспоненциальной емкостью запоминания паттернов. Ну и главное, что это не просто абстрактный академический надроч, а реально работающая штука, без геморройных RNN и жестко зажатых своей пространственной инвариантностью сверток.
Лично я использую подход DETR, который "избрел" сам https://arxiv.org/pdf/2005.12872.pdf , то есть CNN сначала ужимает сырые данные в набор фичастых данных, но с меньшим разрешением, а трансформеры уже работают с этими данными. Получается лучше, чем чистая CNN, но пришлось помучаться перед тем, как оно заработало - во-первых adam'у нужен обязательный warmup где-то первые 2000 шагов обучения, то есть плавный рост learning rate от 0 до целевого значения, во-вторых я до сих пор экспериментирую с энкодингами, нынешний вариант перестает работать, если увеличить emb_dim. Но и нынешний вариант работает сильно лучше чистой сверточной сетки.
Могу вспомнить только RL агентов и всякие модификации берта, про которые на следующий же день забывают.
Проблема рекуррентных сетей в том, что в теории у них контекст бесконечный, но на практике у тебя back propagation through time обрезает его до величин, позволяющих ужать сетку в память gpu, и эти величины меньше трансформерных. По итогу смысла мало.
Чтобы смысл был, нужно отказаться от бэкпропа, мозг ведь как-то работает без него, там бэкпроп максимум на уровне отдельных нейронов. Но мозг может выезжать чисто на том, что отдельный нейрон - крутой аналоговый компьютер. Или тупо на количестве нейронов.
Пока этого нет, забудь о RNN.
Ну вот в 2021 какую-нибудь новую хуйню родят в недрах гугла или опенаи и будет новая мода, а трансформеры в том виде как они есть выкинут. В машобе жанра stackmorelayers нет смысла бегать за прошлогодними трендами.
>Лично я использую подход
А ты разботал как DALL-E кодирует? Они картинки бьют на 8х8 квадраты и переводят их в дискретные (?) токены. Этот перевод делает специальная нейроночка еще до начала тренировки трансформера, как я понял.
Как будто что-то плохое. Если усвоил биттерлессон, то ты просто заменяешь один слой новым и все.
А вот те кто наделали adhoc костылей, плачут горькими слезами и думают, какой бы еще костыль накостылить, чтобы еще годик продержаться перед тем, как все юзеры проапгрейдят свои видюхи и твои старания пойдут на помоечку.
>Если усвоил биттерлессон, то ты просто заменяешь один слой новым и все
Если ты ничего кроме битерлесона не читал до трансформера ты просто не додумаешься.
>А ты разботал как DALL-E кодирует?
Не особо, чтобы понять что-то из их куцых фраз, нужно хорошо знать тему VAE. И если как работает VQ-VAE я примерно понимаю (если ты не понимаешь, почитай christineai.blog/vq-vae/), то про continuous relaxation впервые слышу. Нужно хотя бы https://arxiv.org/abs/1401.4082 покурить.
В принципе задача любого автоэнкодера это обеспечить информационный ботлнек, чтобы энкодер и декодер обучались чему-то в плане поиска сжатых представлений. VAE делает это, заставляя энкодер генеририровать матожидание и сигму, а затем генерируя рандомное число из этих параметров, VQ-VAE заменяет то, что накодировал энкодер ("попиксельно" - то есть каждый многоканальный пиксель - это отдельный вектор) на ближайший вектор из обучаемого словаря, тоже ботлнек очевиден - это собственно "квантизация" к ближайшему значению из словаря.
А вот тут не понятно. одной стороны они пишут, что словарь им там не нужен благодаря continuous relaxation. С другой - ссылка на 1401.4082 нихуя не проясняет.
Пока писал пост, увидел, что Килхер уже выпустил видео, и он тоже нихуя не понимает эту часть https://www.youtube.com/watch?v=j4xgkjWlfL4 , на 27-й минуте у него такие же wtf'ы как у меня.
>Этот перевод делает специальная нейроночка еще до начала тренировки трансформера, как я понял.
Да, это принципиальное отличие от "моего" подхода. У меня сверточные слои тренируются одновременно с трансформерными end-to-end, а у них отдельно тренируется "энкодер-декодер картинки низкого разрешения, но с большим числом фич-каналов". Что довольно понятно, почему - энкодеру by design нужно видеть всю картинку целиком, а вот DALL-E генерирует попиксельно. Но вообще интересная мысль, надо попробовать.
Потому что они так же дико повысили метрики, как сейчас трансформеры.
Меня больше удивляет, почему не взлетели всякие теоретически обоснованные попытки сделать рекуррентную ячейку, которая будет лучше чем лстм. Вроде как лстм была сделана суперхуево на коленке с кучей лишних гейтов.
А ведь были всякие структурно регуляризованные SCRNы, унитарные матрицы весов, эволюционный поиск ячеек. Даже интересно, чего это всё загнулось.
Я и не претендую. До него люди умнее меня 50 лет не могли додуматься, пока в гугле работающие над машинным переводом люди не посмотрели на seq2seq with attention и не выкинули оттуда нахуй RNN часть. Куда уж мне.
У всех RNN один и тот же фатальный недостаток - _каждый_ таймстеп должен хранить инфу обо _всем_ прошлом, потому что инфа может потребоваться и сейчас, и в будущем.
Плюс машинерия которая позволяет это прошлое копить.
Плюс отсутствие возможности процессить таймстепы параллельно - а значит нужны гигантские батчсайзы, чтобы на уровне каждого отдельного таймстепа видюха грузилась на 100%.
В итоге чтобы это работало эффективно, тебе нужно, чтобы вычислительное ядро видюхи имело на пару порядков больше локального кэша. Иначе видюха будет простаивать, пока данные гоняются между глобальной gddr памятью видюхи и вычислительными модулями.
Но локальный кэш (то что в cuda терминах называется shared memory) - это дорогая статическая память, а не дешёвая динамическая.
В итоге RNN тупо недогружает железо. А если ты попытаешься побороть эти недостатки, ты повторишь путь к трансформерам.
Имхо не в этом самая большаю проблема. Трансформеры тоже дай бог жрут ресурсов. РНН имеет тенденцию забывать очень быстро. Потому что прошлый токен он вот он, а что там было тысячу токенов назад, уже прокрутилось тысячу раз. Даже в ЛСТМ все умножается каждый шаг на число, и чтобы что-то сохранилось, это число должно быть 1 на каждом шагу. Это со скрипом учится, на деле что-то нетривиальное не учится совсем дальше нескольких десятков шагов.
https://arxiv.org/pdf/1511.06464.pdf
Поэтому я и говорю, что вот такие штуки в теории должны были взлетать и отбирать пальму первенства у lstm. Но почему-то не произошло такого. Вопрос - почему.
Сложно, и на практике пользы не было. На синтетических тасках ЛСТМ тоже может 10000 шагов помнить, это еще в самой первой статье показано. То, что градиенты не взрываются, еще не значит что оно будет все помнить. Это значит лишь, что тренировка в принципе возможна.
Так это диплернинг, тут везде с гарантиями плохо.
> РНН имеет тенденцию забывать очень быстро
Это недостатки конкретных типов рнн.
Теоретически ничто не мешает тянуть тебе все прошлое с собой. Были эксперименты со всякой памятью такого рода. Идеи приходят вплоть до тупой конкатенации аутпутов прошлых шагов в одну большую матрицу.
Но практически возникает проблема с тем что я описал, так как каждый таймстеп - это вещь в себе, он должен содержать в своём текущем стейте инфу обо всем прошлом. Это дохуя. Поэтому практические рнн задизайнены так, чтобы память о прошлом была постоянной. А это значит, что из нее постоянно надо что-то выкидывать. Но ты не Ванга, и можешь выкинуть что-то что потребуется в будущем.
Ты скажешь - если n шагов содержат инфу каждый в среднем об n/2 предыдущих шагов, это так же o(n^2) по памяти, что у трансформера. Какая разница.
Но тут возникает уже железо.
Если грубо и на пальцах, пусть q - это вектор, а Q - матрица состоящая из n таких векторов, K - это матрица, соответствующая стейту этой rnn, которая помнит все свое прошлое.
Если трансформер считает K*Q' один раз, все вектора скопом
RNN считает K q' для каждого q, итого n раз.
Второе сильно хуже.
Ну фундаментально это - а давайте запилим такой костыль, чтобы забывать ненужное и помнить нужное. И вот с нашим костылем на этих датасетах, которые мы подобрали под костыль, у нас sota.
И по факту
Copying problem решена
Adding problem сосёт у lstm
Mnist обучается быстрее, но lstm по итогу работает лучше
Далее они с горящей жопой придумали добавить permuted lstm, чтобы результаты не были таким днищем, получили небольшое улучшение, уря, победа
Хуйня в общем
>Adding problem сосёт у lstm
The uRNN achieves lower test error, but it’s curve is more noisy.
>Mnist обучается быстрее, но lstm по итогу работает лучше
This equates to roughly 60K parameters for the LSTM and almost 9K for the uRNN.
>Далее они с горящей жопой придумали добавить permuted lstm
Если опустить твои охуительные фантазии, то в чем проблема? Задача некорректная будет?
>чтобы результаты не были таким днищем
Ты сказал? Сходится в десятки раз быстрее, параметров меньше, качество в задаче лучше, теоретические обоснования есть.
>Хуйня в общем
Можно заливать твой отзыв на openreview
>The uRNN achieves lower test error, but it’s curve is more noisy.
На одном графике с T=750. И это единственный график где оно заметно лучше из всех в статье. В остальных лстм либо лучше, либо статпогрешность.
>This equates to roughly 60K parameters for the LSTM and almost 9K for the uRNN.
Так почему не сделать 60к параметров и въебать лстм еще сильнее? Значит хуитка какая-то. Например, просад по флопсам, или качество не растет с увеличением веса, или параметров мало, а памяти они жрут много. Иначе что ща хуйня вообще.
>Если опустить твои охуительные фантазии, то в чем проблема?
Да не фантазии это. Когда метод реально хорош, автор разве что свой рентген не выкладывает, а когда плох сравнивает красное с синим и постоянно недоговаривает. Может ты еще в магазине на диване товары покупаешь.
>Задача некорректная будет?
Ты правда считаешь, что это самая интересная задача на длинный контекст?
>Ты сказал?
Автор выпустил единственную статью на которой он протестил работу на 4 мелких и экзотических датасетах и не стал развивать свою работу. Тут уже все ясно. Ты можешь конечно верить что это hidden gem, но вообще намного более вероятно что это типичная статья где для публикации он расфорсил достоинства, но по факту там все не так однозначно.
>Можно заливать твой отзыв на openreview
Доя этого статью хотя бы прочитать надо, а я пошел стандартным путем абстракт картинки результаты и что-то вообще не интересно копаться и тем более тестить.
Может ты меня разъебешь ща и я перейду на эту хуйню с трансформеров.
>https://keras.io/examples/nlp/text_classification_with_transformer/ тут используется и закодирован под именем transformer_block энкодер, он слева. Оригинальный декодер справа.
>BERT - encoder-only сетка, этот подход хорош для задач типа классификации, потому что контекст ловится целиком, без маскинга "будущего". Такие сетки можно претрейнить на неразмеченных данных, поместив dropout слой сразу за инпутом и обучая fit(inputs=siriye_danniye, outputs=siriye_danniye), как в стандартном денойзинг автоэнкодере.
>GPT - decoder-only, но сам декодер не как на картинке, а попроще, без среднего слоя. То есть фактически тот же энкодер, но с маской, маскирующей для токена "будущее". Это подход хорош для генерации, контекст здесь ловится только "из прошлого" с помощью маски, соответственно сетку можно использовать в авто-регрессионном режиме, заставляя ее высирать по токену а скармливая выход входу.
>Вроде бы подход кажется медленным говном по сравнению с BERT'ом, но оказалось, что такие сетки являются zero shot learners: если в контексте описать им суть задачи в виде нескольких примеров, они начинают генерировать новые данные по этим примерам. Например, отвечать на вопросы, выписывать tldr для текста, теперь вот DALL-E может генерировать картинку по образцу. Короче это самое близкое к General AI, что есть на данный момент.
>Да. Кто еще не вкатился - тот дурачок.
>Свертки хороши, но они по сути - то же самое умножение входного вектора на матрицу весов, как у персептрона, только сама матрица особого вида типа
>[w1 w2 w3 0 0 0 0 0
>0 w1 w2 w3 0 0 0 0
>0 0 w1 w2 w3 0 0 0
>...и так далее...
>]
>То есть свертка менее выразительна, чем персептрон, но жестко зашивает пространственную инвариантность в структуру данных, что делает ее эффективной для широкого, но ограниченного класса задач.
>А трансформер - это, если его сильно кастрировать, выкинуть нормализацию, перемножить матрицы и оставить только одну голову, сводится к f(x)=softmax(x' W x) x, где
>x - входная последовательность векторов размерности d и общей длины N, а softmax(x' W x) - аттеншен-матрица NxN, W - матрица dxd собственно параметров, Дальше еще нужно добавить вектор P - пазишен энкодинг, который по сути накладывает всякого рода красивости на аттеншен-матрицу и вычислять вместо f(x) - f(x+P).
>То есть softmax(...) - это NxN матрица, а x - входной вектор. Очень напоминает персептрон.
>То есть эта хуитка - персептрон, который генерирует свои веса динамически, на лету. И доказано, что если у тебя голов в аттеншене достаточное количество, это не просто имеет ту же выразительную силу, что и свертки, но и при обучении генерируются похожие кернелы, которые генерирует сверточная сеть.
То есть, все, как заказывали, настекал слоев, а оно само думает, что делать с данными. По сути это персептрон done right, который круче и персептрона, и сверток, и неба, и аллаха, Хохрайтер (все в мире считают его автором LSTM, хотя мы знаем, что LSTM придумал Жопенмульцер в 1952 году, не надо меня поправлять) показал, что это вообще обобщение сети Хопфилда на непрерывный случай, с экспоненциальной емкостью запоминания паттернов. Ну и главное, что это не просто абстрактный академический надроч, а реально работающая штука, без геморройных RNN и жестко зажатых своей пространственной инвариантностью сверток.
>Лично я использую подход DETR, который "избрел" сам https://arxiv.org/pdf/2005.12872.pdf , то есть CNN сначала ужимает сырые данные в набор фичастых данных, но с меньшим разрешением, а трансформеры уже работают с этими данными. Получается лучше, чем чистая CNN, но пришлось помучаться перед тем, как оно заработало - во-первых adam'у нужен обязательный warmup где-то первые 2000 шагов обучения, то есть плавный рост learning rate от 0 до целевого значения, во-вторых я до сих пор экспериментирую с энкодингами, нынешний вариант перестает работать, если увеличить emb_dim. Но и нынешний вариант работает сильно лучше чистой сверточной сетки.
>>02905
>Но у сверточной сети размер фильтра - это гиперпараметр, а трансформер размеры своих фильтров настраивает на лету.
Можно поподробнее (или где читать) про это и про атеншн модуль? Спасибо
>https://keras.io/examples/nlp/text_classification_with_transformer/ тут используется и закодирован под именем transformer_block энкодер, он слева. Оригинальный декодер справа.
>BERT - encoder-only сетка, этот подход хорош для задач типа классификации, потому что контекст ловится целиком, без маскинга "будущего". Такие сетки можно претрейнить на неразмеченных данных, поместив dropout слой сразу за инпутом и обучая fit(inputs=siriye_danniye, outputs=siriye_danniye), как в стандартном денойзинг автоэнкодере.
>GPT - decoder-only, но сам декодер не как на картинке, а попроще, без среднего слоя. То есть фактически тот же энкодер, но с маской, маскирующей для токена "будущее". Это подход хорош для генерации, контекст здесь ловится только "из прошлого" с помощью маски, соответственно сетку можно использовать в авто-регрессионном режиме, заставляя ее высирать по токену а скармливая выход входу.
>Вроде бы подход кажется медленным говном по сравнению с BERT'ом, но оказалось, что такие сетки являются zero shot learners: если в контексте описать им суть задачи в виде нескольких примеров, они начинают генерировать новые данные по этим примерам. Например, отвечать на вопросы, выписывать tldr для текста, теперь вот DALL-E может генерировать картинку по образцу. Короче это самое близкое к General AI, что есть на данный момент.
>Да. Кто еще не вкатился - тот дурачок.
>Свертки хороши, но они по сути - то же самое умножение входного вектора на матрицу весов, как у персептрона, только сама матрица особого вида типа
>[w1 w2 w3 0 0 0 0 0
>0 w1 w2 w3 0 0 0 0
>0 0 w1 w2 w3 0 0 0
>...и так далее...
>]
>То есть свертка менее выразительна, чем персептрон, но жестко зашивает пространственную инвариантность в структуру данных, что делает ее эффективной для широкого, но ограниченного класса задач.
>А трансформер - это, если его сильно кастрировать, выкинуть нормализацию, перемножить матрицы и оставить только одну голову, сводится к f(x)=softmax(x' W x) x, где
>x - входная последовательность векторов размерности d и общей длины N, а softmax(x' W x) - аттеншен-матрица NxN, W - матрица dxd собственно параметров, Дальше еще нужно добавить вектор P - пазишен энкодинг, который по сути накладывает всякого рода красивости на аттеншен-матрицу и вычислять вместо f(x) - f(x+P).
>То есть softmax(...) - это NxN матрица, а x - входной вектор. Очень напоминает персептрон.
>То есть эта хуитка - персептрон, который генерирует свои веса динамически, на лету. И доказано, что если у тебя голов в аттеншене достаточное количество, это не просто имеет ту же выразительную силу, что и свертки, но и при обучении генерируются похожие кернелы, которые генерирует сверточная сеть.
То есть, все, как заказывали, настекал слоев, а оно само думает, что делать с данными. По сути это персептрон done right, который круче и персептрона, и сверток, и неба, и аллаха, Хохрайтер (все в мире считают его автором LSTM, хотя мы знаем, что LSTM придумал Жопенмульцер в 1952 году, не надо меня поправлять) показал, что это вообще обобщение сети Хопфилда на непрерывный случай, с экспоненциальной емкостью запоминания паттернов. Ну и главное, что это не просто абстрактный академический надроч, а реально работающая штука, без геморройных RNN и жестко зажатых своей пространственной инвариантностью сверток.
>Лично я использую подход DETR, который "избрел" сам https://arxiv.org/pdf/2005.12872.pdf , то есть CNN сначала ужимает сырые данные в набор фичастых данных, но с меньшим разрешением, а трансформеры уже работают с этими данными. Получается лучше, чем чистая CNN, но пришлось помучаться перед тем, как оно заработало - во-первых adam'у нужен обязательный warmup где-то первые 2000 шагов обучения, то есть плавный рост learning rate от 0 до целевого значения, во-вторых я до сих пор экспериментирую с энкодингами, нынешний вариант перестает работать, если увеличить emb_dim. Но и нынешний вариант работает сильно лучше чистой сверточной сетки.
>>02905
>Но у сверточной сети размер фильтра - это гиперпараметр, а трансформер размеры своих фильтров настраивает на лету.
Можно поподробнее (или где читать) про это и про атеншн модуль? Спасибо
Звучмт как название русской пост-панк группы.
> По сути это персептрон done right,
> , Хохрайтер (все в мире считают его автором LSTM, хотя мы знаем, что LSTM придумал Жопенмульцер в 1952 году, не надо меня поправлять) показал, что это вообще обобщение сети Хопфилда на непрерывный случай
Ну то есть вы же пынямаете, что по-сути, все эти ололо мегагитлер трансформеры не очень далеко ушли от перцептрона и сетей Хопфилда, и что их придумывают только потому что вычислительные мощности позволяют. В 60х трансформеры были бы просто бесполезны, даже если бы кто-нибудь до них додумался. Как машины Больцмана в 80х, придумать их придумали, а толком применить смогли только в нулевых. Или как с неокогнитроном (по-сути, прообразом сверточных сетей) в те же 80-90е. Тогда оно физически не могло выстрелить.
Все это знают. Мощности + сейчас в этом занято на порядки больше людей. Они рандомно меняют код и находят методом тыка работающие методы. Те же трансформеры не вышли из сетей Хопфилда, а высосаны из пальца, протестированы, обнаружено что они круты, а потом уже за уши был притянут этот Хопфилд ради красивой статьи.
...edited
Аттеншен модуль - attention is all you need
Связь со свертками - On the Relationship between Self-Attention and Convolutional Layers
По первой статье можешь посмотреть разбор Kilcher'а на ютубе.
Спасибо!
Есть датасет на котором использован XGBRegressor:
XGBRegressor(max_depth=8,
n_estimators=500,
min_child_weight=1000,
colsample_bytree=0.7,
subsample=0.7,
eta=0.3,
seed=0)
Что дало такую вот картинку. Она явно неудовлетворительна.
Как подбирать параметры, чтобы регрессия работала лучше?
Поменяй xbgoost на lightgbm (он быстрее и вроде как больше разных фишек).
>Как подбирать параметры?
RandomSearch + train-test-split/кросс-валидация.
Если нечего делать, то можешь попробовать latin hypercube sampling или вообще какой-нибудь hyperopt.
Ну и новые фичи погенерировать можешь, но для этого нужно смотреть на предметную области и сами признаки.
>>04071
Так же, как и на любую другую работу?
Если не очень умный, то можешь отловить какую-нибудь летнюю школу от большой компании-галеры а ля сбер/тинькофф, пройти её и потом с большой вероятностью получишь оффер на мл-эникейщика.
>RandomSearch
Задаём диапазон и случайным образом выбираем набор параметров?
И сколько раз повторять случайный выбор?
Ещё вопрос вдогонку - для валидации и оценки точности используется eval_metric="rmse" и метод наименьших квадратов.
xgb train rmse: 0.9273652195391977
xgb validation rmse: 5.025476198882563
Может из-за этого валидационная ошибка быть такой большой?
>Задаём диапазон и случайным образом выбираем набор параметров?
Да. https://scikit-learn.org/stable/modules/generated/sklearn.model_selection.RandomizedSearchCV.html
>И сколько раз повторять случайный выбор?
Сколько хочешь. Можешь повторять до тех пор, пока результат не перестанет улучшаться (за последние k итераций).
>xgb train rmse: 0.9273652195391977
>xgb validation rmse: 5.025476198882563
Подозреваю, что у тебя или лик, или данные оооочень разные. Попробуй посмотреть значимость признаков в бустинге или какие-нибудь попарные корреляции.
>Сколько хочешь. Можешь повторять до тех пор, пока результат не перестанет улучшаться (за последние k итераций).
Вообще-то я задал диапазон для каждого из параметров, потом применил itertools.product() для получения всех возможных комбинаций, и вот уже несколько часов это всё перебирается.
Решение уровня /b, в общем.
> Попробуй посмотреть значимость признаков в бустинге или какие-нибудь попарные корреляции.
Как-то так.
1. Скинь свой код
1.2 пытался ли ты подкрутить регуляризацилнные параметры?
1.3 кросс-валидирование делал?
2. Когда ты делаешь сплит? В каком соотношении?
3. Почему бустинговый алгоритм используешь? Линейные модельки пробовал? kNN тоже тестил? Простой MLPRegressor тестил?
4. Я тебе, если ты хочешь, пришлю Н2О AutoML скрипт для твоего Гугл куколдлаба, посмотришь перформанс различных моделек на твоём сете. Может линейные больше подойдут.
> Да. Кто еще не вкатился - тот дурачок.
А уже пора выкатываться обратно. Трансформеры - помоечка из 2017, уже есть более эффективные перформеры.
Читай Long Range Arena: A Benchmark for Efficient Transformers
В /math лучше спроси. Тебе нужны учебники по линалу, матану, терверу, матстату для нулей.
>deeplearning
>мат базы
Не лезь бля, оно тебя сожрёт, станешь вапникошизом. Лучше дрочи код и stack more layers
Это посттравматический синдром треда
> stack more layers
Смотрел на ютубах того пшека(?), поясняющего за трансформеры, так вот:
- Во-первых, это манямнение >>03341
> Они рандомно меняют код и находят методом тыка работающие методы. Те же трансформеры не вышли из сетей Хопфилда, а высосаны из пальца,
Есть былинная дрисня из-под коня, высосанная предыдущим оратором непонятно из чего. Там на самом деле все очень не рандомно сделано, и далеко не на пустом месте.
- Во-вторых, речь в конечном счёте все о тех же распределениях вероятностей и аппроксимации функций зависимости выхода от входа, что и 60 лет назад. Идентификация систем итд. Просто более эффективные методы для этого, использующие высокую скорость операций с матрицами на GPU, что позволяет эффективно считать то, от чего ещё несколько лет назад просто отказались бы как от неподьемной задачи. Закон Мура работает, в общем. Плюс, речь опять же о том, что все алгоритмы машобчика по-сути считают одно и то же, просто по-разному и в разных объемах.
Бумп вопросу
>все алгоритмы машобчика по-сути считают одно и то же
Да, ганы и свм по сути считают одно и то же. А что, кстати?
Расшарить данные нельзя?
>>04328
>3. Почему бустинговый алгоритм используешь?
Так бустинг это же стандартный бейзлайн, на уровне случайного леса. Никакая существенная предобработка не нужна и всё сразу нормально будет работать.
>kNN тоже тестил? Простой MLPRegressor тестил?
Не представляю случай, когда кнн/млп-бейзлайн будет существенно лучше бустинга или линейной регрессии.
Вот так: заявляешь что это просто маняфантазии отдельно взятого шиза, наслаждаешься горением школьников
Открой на кегле какой-нибудь кернел с EDA и посмотри.
https://www.kaggle.com/notebooks?searchQuery=eda
>Или если из 10к прецедентов 9990 принимают нулевое значение, а остальные 1, и тогда я этот признак вообще отбрасываю.
Зависит от данных. Если у тебя данные - огромные вектора из нулей и единиц, а y = int(sum(x) > 0), то тогда такое удалять нельзя.
А вообще, какие-нибудь леса-бустинги автоматически такое обработают.
5-й.
А вот и сам вапникошиз пожаловал.
Неприятно осознавать, что с появлением ГПТ-3 высеры твоих любимых кокодемиков займут заслуженное место на свалке?
Осознавать это абсолютно всё равно ибо, как и всегда, это просто очередные манямечты троечников фантазёров
Ящитаю, < 5 лет.
Проблема в неточности. Нейронка это тебе не строгая система типов, и не дедуктивная система логического вывода. Нет гарантий, что программа будет правильной.
>Ящитаю, < 5 лет.
Лет 20 назад делали схожие прогнозы. Сейчас, мне кажется, уверенность в возможностях АИ приубавилась и сроки больше закладывают.
Когда будут подбираться к сильному ии
Так и описания неформальны. Как человек будет.
Критерий - прохождение встроенных тестов на литкоде. Для людей это норм, ну и тут тоже будет убедительно.
Именно по тексту 20 лет назад никто не мог всерьез сказать про 5 лет. 20 лет назад с естественным языком все было плохо. По формальной спецификации генерировать - да, были надежды. Оказалось и это трудновато для классики.
> Да, ганы и свм по сути считают одно и то же. А что, кстати?
Распределение вероятностей, максимизацию матожидания. Весь существующий машобчик это пляски с бубном вокруг https://en.m.wikipedia.org/wiki/Expectation–maximization_algorithm#:~:text=In statistics, an expectation–maximization,depends on unobserved latent variables.
> 20 лет назад с естественным языком все было плохо.
С естественным языком до 2013 все было плохо. А сейчас трансформеры уже порешали Winograd schema challenge, и по машинному переводу набирают 28 в той же метрике, по какой человек-переводчик оценивается на 30. И предложения парсить они могут сами по себе, за счёт аттеншена, без всякой узкоспециальной лингвистической хуйни, это на заметку местному свидетелю экспертных систем.
Да мы поняли, что трясуны перемогают по всем фронтам, только в реальности ходят в обосранных шароварах.
>Winograd schema challenge
Прооренькал с этих вопросиков, это они там анофору в однострочниках пбеждают?
Разве что в твоей маняреальности.
Это и есть битерлесон?
Но наврядли это будет использоваться где-то кроме фронт-энда. Во всех серьезных сверах нужна надежность и отказоустойчивость.
Лично мне похуй на такую постановку вопроса, потому что получение кем-то ачивки мало что решает. Правильный вопрос - когда это будет запускаться на пеке за $1000, чтобы частный бизнес мог рубить профиты и менять мир. В идеале вообще запуск на смартфоне.
И 5 лет тут это очень оптимистично. Надо менять архитектуру GPU так, чтобы терабайтные нейронки были нормой. Как - не знаю, видимо нужен прямой доступ к nvme, быстрый доступ к ram вплоть до 3D напыления на самом чипе, переход к аналоговым вычислениям, оптике, и подобные йобы.
> Правильный вопрос - когда это будет запускаться на пеке за $1000, чтобы частный бизнес мог рубить профиты и менять мир. В идеале вообще запуск на смартфоне.
Через несколько лет после того, как потеряет актуальность. Зачем тебе именно локальный запуск? Есть облачные сервисы, всякие там куколабы итд. Любому кабанчику этого за глаза хватит для начала, как минимум показать, что у него есть что-то способное изменить мир.
> Прооренькал с этих вопросиков, это они там анофору в однострочниках пбеждают?
За умного сойти решил что ли? Ну покажи ещё хоть один алгоритм, который может решить такую задачу для любой подобной фразы любого содержания с любым порядком слов и на любом языке.
Алгоритм жопеншмульцера (1957, Zhopensmultser et al).
А нейронки могут на любом языке с любой фразой правильно ответить?
>Через несколько лет после того, как потеряет актуальность.
Актуальность в инновационном цикле у всех участников рынка разная.
Если вопрос научно актуален, значит твои инвестиции может поделить на ноль какое-то открытие одного из 10000 ученых. Или вообще на вопрос "а задача точно решаема?" ты отвечаешь бизнесмену - а хуй знает, давай въебем полгода и посмотрим.
А вот если в науке уже стагнация, то бизнес с одной стороны знает, что задача решаема, с другой - что технология не будет смыта на помоечку. В этот момент идет вал инвестиций и реальных продуктов. Например посмотри на задачу с распознаванием лиц - она сейчас заканчивает инновационный цикл.
>Зачем тебе именно локальный запуск?
Это показатель дешевизны и зрелости технологии. Облака нужны для сейклинга, сами по себе они чудес не совершают и дешевле чем локальный запуск не выходят, они выходят дороже, потому что главная фишка облаков - это аутсорс админской работы. Сервер с 8 GPU работает быстрее не в 8 раз, а в 4-6 раз, и стоит дороже чем 1 GPU не в 8 раз, а где-то в 30-100 раз. Поэтому когда что-то начинает помещаться в 1 пеку, возникает резкий фазовый переход в окупаемости и вале продуктов.
Вот это для меня интересно. А когда просто кто-то ачивку сделал, это хорошо, потому что другие мегакабаны начинают инвестиции в эту тему, но лично мне как слесарю и жителю дна этой экосистемы (ниже меня только уже конечные потребители и хорошо если это b2b), это чисто как футбол посмотреть с бегающими по траве миллионерами. Интересно, и пообсуждать за пивасом можно, но бесполезно.
>Алгоритм машоба это распределение восстанавливает по тренировочным данным.
СВМ не восстанавливает распределение.
Фиксирую слив шизика.
>. А у Вапника уже в самой первой главе общая задача машобчика ставится через восстановление плотности распределения.
Вообще-то нет.
>Или типо выделяет фичи из изображения для поиска, а потом ищет максимально совподающие по этим же фичям среди банка изображений?
Да.
Ещё желательно быстро искать соседей, потому что наивно итерироваться по миллионам векторов размерности 1000 не очень хочется, поэтому всё кладётся в HNSW.
>Или типо выделяет фичи из изображения для поиска, а потом ищет максимально совподающие по этим же фичям среди банка изображений?
Это как-то слишком общо звучит. У тебя есть йоба, которая для картинок выдает векторы, при чем она обучается так, чтобы для похожих картинок выдавались близкие векторы, а для разных - далекие. Обычно это нейронка.
И есть библиотека для k nearest neighbor поиска, типа вышеупомянутого HNSW. Он бывает точный - основанный как правило на чем-то типа kd-tree, бывает приближенный, основанный на разного рода locality sensitive hash и прочем.
>куда уж Вапнику в лаптях за паровозом...
Так и есть. Вапник и его подсосы оптимизируют телегу на конной тяге, когда уже есть железная дорога ГПТ-3
Это же обычная задача динамического программирования, есть хэш-таблица с фичами, по ней и ищет.
Проблема не в том, что книга вапника из 90-х устарела, а в том, что вапникошиз ссылается на вапника там, где вапник пишет совершенно другое. То есть когда ты видишь, что-то типа "вапник говорил" в треде, можешь быть уверен, что нихуя подобного не было, за редким исключением.
Как связано динамическое программирование и поиск в хэш-таблице?
Ну и на практике, если у тебя миллионы картинок, то ты не можешь себе позволить сравнивать с каждой.
Зделяют сервис, где, заплатив 5 баксов, кабанчик будет удовлетворять любую свою прихоть. Будь то сдвиг кнопки ОК на 5 пикселей влево, или фейсбук с красным оформлением. И это будет переворот - ничем больше пользоваться не будут. Динозавры, кодящие руками, просто вымрут. Тут даже хуже чем с какими-нибудь кузнецами: там ручная работа еще ценится, а на рукотворный код всем будет насрать.
а как обучить модель выдавать вектор по изображению? Вот щас ради интереса смотрю как делают распозновалки лиц и чо-то все кажется каким-то супер сложным, если по сути можно просто получать нейронкой вектор из лица и сравнивать расстояние с лицами из бдшки, короче хочу че-нить такое простое попробовать замутить, но не вдупляю пока, как лейблы получить для такого типо хеширования
Читай про triplet loss. Из чуть более старого можешь про siamese networks.
Минимизируем расстояние между лицами одного человека и максимизируем между лицами разных людей.
Ага, а если что-то пойдёт не так кабанчик пойдёт качать туториалы по куче фреймворков и исправлять ошибки сетки.
Да, сейчас все будут сайты на ucoz делать и фронтэнд умрет.
Что из этого обучаться должно?
Зависит от определения.
Так я и буду делать. Гуглам и фейсбукам такое неинтересно, много гемора с техподдержкой и мало профита
а если обучить автоенкодер а потом правую часть, которая восстанавливает лицо из вектора просто отрубить, будет работать?
Скорее всего будет работать хуево. Наверняка будут закодированы фичи в стиле "в какую сторону смотрит лицо" и "цвет шапки на голове", которые наоборот нужно игнорировать в данной задаче.
Лучше сразу обучать для нужной задачи.
Можно обучить автоэнкодер, а внутри его латентного пространства обучить уже сетку попроще на triplet loss
За такими подходами будущее думаю
Я видимо обосрался. Если так то объясни пж как от них производные брать пж.
Функция Хевисайда
Relu
Elu
Например эти 3
функция дирака - производная функции хевисайда
разнице*
Функция хевисайда как активация не используется. Производная- дельта функция, но она почти везде равна нулю, то есть никаких апдейтов градиента быть не может.
Производная relu - функция хевисайда. Слева от 0 нулевая, справа от 0 равна производной y=x, то есть 1. То есть у кусочно заданной функции просто кусками и считаешь.
У elu посчитай по школьным правилам.
Если бизнес это перемещение кнопки ОК по веб-страничке заказчика, то он прав. Тут юпитер только помешает.
Это какой-то новый уровень оверкилла. Такое вообще на транзисторах собирается, даже без ЦПУ. Гугли карты Карно
Гуглишь neural network classification языкпрограммированиянейм и вперед
Кого ебёт чего там бизнесу важно. Gpt-4 уже скоро на дворе, бизнес отменяется, бизнес не нужен.
Насколько реально сделать так, чтобы нейросетка вроде GPT-3 работала в системе с распределенными вычислениями? Типа как в майнинг пулах майнят btc
> Насколько реально сделать так, чтобы нейросетка вроде GPT-3 работала в системе с распределенными вычислениями? Типа как в майнинг пулах майнят btc
Какбе абсолютно реально. Она изначально задумывалась легко асинхронизируемой. Думаю использовать распределенные вычисления для ИИ-сервисов поддерживаемые исключительно пользователями (не корпорациями / государством) - единственно верный выбор.
Смысл, она на средней пеке из 2020 должна заработать.
Там вся проблема в том, что она в ram целиком не влезет и надо постоянно подгружать веса с nvme
Бля, а в какие сроки реально освоить как устроена та же GPT-2? Насколько я помню, ее код есть в открытом доступе, а от третьей версии она ничем не отличается.
Прогать умею, питон умею, математика на очень высоком левеле (даже core math кто знает тот поймет), о нейросетках ничего не знаю
ничем не отличается кроме объема скормленных данных*
> Смысл, она на средней пеке из 2020 должна заработать.
Неа. К тому же в мире юзеров есть и смартфоны.
> GPT-3 это конечно круто, но эта хуйня с закрытым сугубо коммерческим доступом.
Ну они же пишут, а вдруг тираристы икстримисты будут использовать, если доступ открыть. Ты дяде напиши, а он решит, давать тебе доступ, али вдруг ты слишком белый, нидайбох в соцсетях про Трампа что-то хорошее спизданул, или там all lives matter. Это дело-то такое. А если нахуй пошлют, так это их дело, частная компания. Не нравится - не ешь, сам создавай.
Да это у меня ещё вялый пучок
Не быть тебе маркетологом, а уж тем более бизнесменом.
> Я правильно понимаю что жопэтэ это дефолтная рекуррентка
В том то и дело, что никаких RNNв ней нет. Чистый Transformer
Ну ок архитектуру не угадал, смысл у нее то какой? Выполнять работу гугла, но в 99999 раз медленнее??
> Ну ок архитектуру не угадал, смысл у нее то какой?
Генерировать текст, код, изображения, отвечать на вопросы, исправлять ошибки в тексте, играть в игры, да что-угодно.
на счет играть в игры не понял, все остальное делает гугл, на котором и обучена модель
>на счет играть в игры не понял
Пикрелейтед, > - мои реплики, все остальное генерит сетка. Я еще добавил фразу про кислоту, дальше все тоже сгенерировано. Это реально текстовая РПГ в которой можно вообще что угодно, я убегал из тюрьмы через канализацию, меня травили школьники в классе, я разыгрывал диалоги с историческими персонажами (довольно шизоидные, но тем не менее).
Вообще, открой статью про gpt-3. Там вся суть статьи в том, какие она задачи может решать.
Как сейчас применять это всё в бизнесе - другой вопрос. Но это r&d, от них и не требуется.
Потенциально - всякие умные чатботы, вопросно-ответные системы, создание выжимок из текстов.
На втором пике я написал только первое предложение и добавил Lenin: , на втором я просто написал два ника - vova и nagibator666, а она родила этот пиздец.
Короче, когда к GPT-3 прикрутят DALL-E это будет полный пиздец
Каждый раз возникает этот душнила. Нормально там с памятью все, около 4-6 кб только контекст, а еще можно создавать постоянную область, куда копипастить важные вещи типа имени твоих тиммейтов. Но так как суть рпг это постоянные путешествия, особо это не напрягает.
Вообще ощущения очень странные, потому что GPT-3 умудряется сделать осмысленный текст из любого действия, которое ты ему напишешь. Ну то есть напишешь "убей стражника помидором", и оно сука возьмет и распишет, как это произошло. Эта хуйня не троллируема, в отличие от GM из мяса.
>Если так не понимаю чо за дроч вокруг нее, какие задачи это вообще может решить?
Смысл в zero shot learning, она по примерам описанным на естественном языке способна решать задачи, это максимально человечное поведение, которое кто-либо видел. То есть ты пишешь что-то вроде
Текст статьи:
[дальше статья длиной в несколько килобайт]
Ее краткое содержание:
И она дописывает ее краткое содержание сразу после двоеточия.
>Нормально там с памятью все, около 4-6 кб только контекст
Это вообще ни о чем.
>а еще можно создавать постоянную область, куда копипастить важные вещи типа имени твоих тиммейтов
А еще можно писать текстовый квест руками, без всяких ГПТ, как делали деды. Это все костыли, не имеющие отношения к самой архитектуре. Нормальной памяти у ГПТ нет. Вместо большого контекста можно было бы периодически файнтюнить, но и этого не просходит. В результате все твои действия быстро забудутся.
>Но так как суть рпг это постоянные путешествия, особо это не напрягает.
Только в прежние места уже не вернешься.
>>06957
Блядь! Я наконец-то понял, как играть в это по нормальной схеме. В поле "Remember" нужно указывать ИИ, как вести игру.
К примеру:
"Когда игрок пишет 'осмотреться' детально опиши локацию вокруг него. Никогда не действуй за игрока. Просто описывай, что происходит после его действий. Игрок живет в мире похожий на 16 век. Все города здесь называются в Европейском стиле по типу 'Пасро', 'Вайтран', 'Рубинхейген'. Создавай походие имена."
И знаете что? Это работает! ИИ действительно делает всё так, как я объяснил. Он создает названия по типу "Хельген", он не пытается дейтсвовать за игрока, а всегда пишет в конце "Что ты будешь делать дальше?". Надо лишь объяснить, как правильно играть, и он перестанет нести бред.
По-моему Дивный Новый Мир с ИИ совесем близко.
затестил, конеш потенциал бомбический, но эльфийка которая попросила побить гоблина который на нее напал, через пару реплик забыла про него как я понял
алсо мне доставила что я написал эльфийке привет на эльфийском из драгон ейджа и она поняла что это значит
Однако 1000 символов в Remember это мало как-то. Прямо очень мало.
Ты только учти что бесплатная версия там gpt2, а gpt3 еще круче лал
google "svd in recommender systems"
А, пардон, у нас тут храм горьких невыученных уроков.
Хуй тебе, короче.
>Посоветуйте пожалуйста в какую сторому смотреть\искать
https://cs.stanford.edu/~srijan/teaching/cse6240/spring2020/slides/22-deep-recsys.pdf
Это не самый cutting edge, но для интродакшена сойдет, там описывается как от дидовских методов перейти к нормальным и почему они лучше дидовских.
Для cutting edge нужно рассматривать историю как историю, то есть последовательность событий, когда ты и сезонность начнёшь учитывать, и много другое. Но у тебя вряд ли достаточно данных.
Еще можешь https://github.com/Microsoft/Recommenders почитать, но там очень горько, осторожнее
Алсо датасеты можно пиздить с помощью парсинга крупных магазинов и для мелкого кабанчикобизнеса это скорее всего будет эффективнее.
Да, пишешь, "гпт, хочу рогалик такой то и такой-то". Хоп, и вот тебе полный код рогалика, ничё писать не надо.
Моих телепатических скиллов тут мало, нужно объединить усилия треда, чтобы совершить астральную атаку на датасет и запустить AstralML
GPT не запустится на компьютере юзера. А еще GPT очень много весит.
Без машоба - https://robertheaton.com/2018/12/17/wavefunction-collapse-algorithm/
С машобом можешь хоть char-rnn взять из статьи карпатого (https://karpathy.github.io/2015/05/21/rnn-effectiveness/ https://medium.com/@ageitgey/machine-learning-is-fun-part-2-a26a10b68df3#.cvhzo63n0), можешь взять мелкий стек трансформеров с такой же целью, можешь VAE попробовать.
Скорость это вопрос архитектуры.
Спасибо, анон. Мне главное, чтобы генеративный алгоритм смог хорошо улавливать закономерности в данных. Трансформеры это вещь конечно, надо попробовать какой-нибудь линейный. Но сначала надо попробовать
> Без машоба - https://robertheaton.com/2018/12/17/wavefunction-collapse-algorithm/
MLP, rnn, lstm, seq2seq, seq2seq with attention, scaled dot product attention, multi head self attention, transformer, дальше читаешь пейпер по gpt2 (language models are что-то там by openai)
За неделю можно управиться на уровне "по верхам", читая оригинальные пейперы, разборы индусов в бложиках и посмотрев Килхера
А в целом в ML (DS?) за сколько можно вкатиться, если ты действующий прогер с хорошим мат. бэкграундом?
Примерно как перекатиться с фронтэнда на написание драйверов. Кто-то за месяц выйдет на джуна и за полгода на автономного мидла, а кому-то годы нужны, чтобы узнать, что такое dvc
Если ты прогер с мат. бэкграундом, то сколько ты хочешь, год слесарьплов учиться импортить?
Скорее ты недооцениваешь программистов
Пальцем разрабатывай
https://www.youtube.com/watch?v=EgoXjFqgvns
Репортнул за самопиар.
Чем кардинально отличается PyTorch/Keras от TensorFlow?
Какие преимущества одного над другим?
> Какие преимущества одного над другим?
Что нравится, то и используй. Вряд ли что-то можно сделать одним из них, чего нельзя другим.
Если спрашиваешь, используй pytorch
Tf - очень плохая политика api, там зоопарк и постоянные deprecated ворнинги при обновлении. Keras это официальный api для tf2.0.
Pytorch прост и понятен.
Надо в faq добавить
Со стандартным бэкпропегейшеном нет, слишком много данных нужно гонять между нодами в последовательном режиме. Если 400 гбит канал имеется, можно подумать
pytorch довольно старые, по меркам индустрии, архитектуры только содержит же? (Читал где-то в прошлых тредах)
Наоборот, это стандарт, если чего-то нет в пайторче, значит скорее всего это лютая хуита, не стоящая внимания
Вайд-резнет - стандартная архитектура, подходит для всего.
Вот в керасе проблемы с зоопарком, хоть они и недавно эффишентнеты добавили, но обучать их тяжело и на гпу они ложатся плохо.
Ну и все реализации новых sota штук первым делом выходят на пайторче.
кароч пайторч для норм пасанов, TF для петушил
А как теоретически можно было бы эту проблему решить или вот вообще никак по-твоему? Если все наши ноды обладают пропускным каналом не больше 1-10 Гбит/с.
А что это за sota-то? Архитектуры на острие науки типо?
Никак, используй ноды для поиска гиперпараметров, но обучай каждую сетку отдельно.
Теоретические - локальные и биологически правдоподобные альтернативы бэкпропагейшену, но они все говно настолько, что проще обучать маленькую архитектуру локально, что большую, но так.
Можешь https://cs.stanford.edu/~matei/papers/2019/sysml_parallelism_flexflow.pdf почитать для общего развития
Как и любая нейронка, плохо. Но предобученные работают очень хорошо, обычно можно даже не файнтюнить и сразу доставать фичи.
Тогда мне остается использовать только марковские цепи с запоминанием контекста для моей задачи.
> А трансформеры хорошо работают на малом количестве данных?
А ты их с нуля решил обучить? Миллионер дохуя, собственный суперкомпьютер имеешь?
> А ты их с нуля решил обучить?
У меня есть игра. Но естественно, фантазия и у меня конечная, по этому я хочу добавить в игру процедурно-генерируемый контент на основе уже существующего.
Получше чем lstm, но чудес не бывает. Претрейни на неразмеченных
Dwarf Fortress: генерит бесконечные варианты развития событий и сюжетов, будучи написанной на сях.
Зумер на дваче: не знает как прогать и потому хочет впихнуть нейросетку в любую вещь которая требует навыка.
Но ты же понимаешь, что чисто физически невозможно охватить любую хотелку игрока, типа "лизнуть елку", или "сказать Джейку 'пошел нахуй'". Даже будь ты трижды Тарном Адемсом.
>>08784
Если бы при этом писали что-то НОВОЕ, а не очередной AI Dungeon.
https://play.aidungeon.io/
Правильно ли я понимаю, что Alpha Zero - это генетический алгоритм с большим объёмом памяти и не более того?
В этом случае ему нужно крайне малое число действий для манёвра, те же шахматы или шашки, иначе база данных быстро заполнится мусором.
Боты в CS тоже могут быстро вынести всех противников на карте, и там нет мл даже, зато громких выкриков "ИИ ПОБЕДИЛ ЧЕЛОВЕКА В CS - НОВАЯ ЭРА НАЧАЛАСЬ!" как с шахматами слышно не было.
> Правильно ли я понимаю, что Alpha Zero - это генетический алгоритм с большим объёмом памяти и не более того?
Неправильно. Там же написано, что использовали авторы, зачем что-то додумывать? Ты зумер?
Хуево быть тобой, конечно.
Я слышал, что некст левел будет когда openai прикрутят к нейронке какие-то "ациклические графы", но хз что это значит в контексте машоба. Проясните, хули
Трансформеры поменяют на лонг-/ре-/перформеры, для реальных задач контекст можно будет считать бесконечным.
>Так AI Dungeon на английском
Лингва франка всего мира.
>К тому же он не без минусов (а их много)
Назови один.
>Выглядит очень сыро.
Сперва добейся.
А можно ли аккуратно перевести обученную gpt-like нейросеть да новую архитектуру, не обучать все с нуля?
Спасибо, нагуглил статью от гугла про него. А можно перформер уже сейчас сделать?
> Назови один.
- Зависим от сторонних серверов, а запускать локально непосильно для среднего игрока.
- Несет бред. Логика это не про AI Dungeon.
- Плохо взаимодействует со стейтом мира (его вообще нет).
> Ты собрался заделывать GPT в соло?
Нет. У меня нет желания создавать языковую модель на все случаи жизни. Я создаю игру в определенном созданным мною сеттинге, но с генеративным контентом и большой интерактивностью. Генеративные нейросети это олин из инструментов. Но, как я понял, нейросети плохо подходят для того чтобы быстро усваивать паттерны в данных.
1) Это плюс а не минус.
2) А ты уверен, что для тебя это минус?
3) Она взаимодействует хуже вручную написанных диалогов. Вам бы текстовые квесты писать, батенька. Попробуй сделать сам что-то, чтоббы оно хотя бы пыталось сделать этот параметр на нужном тебе уровне. Сейчас есть уже куча смешивающих фичи изображений споособов, наверняка можно использовать их подходы для текста. Всего-то делов собрать датасет (на самом деле это самое сложное для обучения сетки. Теоретиков много, а практиков- днём с огнём не найти)
Генетические алгоритмы - эвристика. Ждем, пока местный шизик сошлётся на жопеншмульцера, чтобы это опровергнуть.
> А ты уверен, что для тебя это минус?
Знаешь ли, постоянно нажимать кнопку "reset" (читай: заниматься черрипикингом), только потому что ИИ несет бред, и в итоге останавливаться на более-менее адекватном варианте, сложно назвать приятной игрой. Это еще я не говорю, про то что ИИ действует и говорит за игрока. Даже я, когда только начинал DM'ить не позволял себе такой ахуелости.
У меня вообще нет ни одного варианта как сделать IF'ки с помощью ML/AI. Ролеплей - ИИ-полная задача в смысле нам нужен интеллект, соответсвующий человеческому. .
Ты либо большую часть игры создаешь сам, разбавляя её процедурщиной (игра получится ограниченой, но в тоже время нересурсотребовательной) , либо сваливаешь все на языковую модель (технически в игре ты сможешь всё на что хватит тебе фантазии, но игра может быть очень некотроллируемой во многих местах + оверхед по ресурсам).
Честно говоря, все языковые модели, какие бы они не были, не подходят для текстовых квестов (здесь нужен иной подход, какой - хуй знает). В данном случае Марковские цепи и GPT индетичны. Что то просто следующее слово предсказывает, что то. А результат всё равно не удвлетворительный.
> обучение нейросети генетическими алгоритмами имеет право на жизнь?
Предобучение генетическим --> обучение подкреплением.
Правда... нахуя? Подкрепление куда эффективней, чем генетические алгоритмы. Почему оно так, надеюсь, объяснять не надо.
>в смысле нам нужен интеллект, соответсвующий человеческому. .
Не нужен, почитай битерлесон пожалуйста
>В данном случае Марковские цепи и GPT индетичны.
Нет же!!
нада. я просто слегка тупенький мимокрок, который играясь с генетическими вспомнил про нейронки.
обучение подкреплением действительно очень похоже на генетические алгоритмы: и там и там цель подобрать такие параметры (веса, гены), при которых некая функция будет максимальна. неужели здвиг всех весов на некое милипизрическое значение в зависимости от выходной ошибки на каждом шаге прям в овер 9000 эффективнее, чем постоянные рандомное скрещивания лучших на данным момент параметров?
> и там и там цель подобрать такие параметры (веса, гены), при которых некая функция будет максимальна
Ты только что любую оптимизацию
>неужели здвиг всех весов на некое милипизрическое значение в зависимости от выходной ошибки на каждом шаге прям в овер 9000 эффективнее, чем постоянные рандомное скрещивания лучших на данным момент параметров?
Генетический алгоритм чуть лучше случайного перебора по своей логике. По сути это случайный перебор, у которого область поиска постоянно сокращается по определенным правилам.
Когда у тебя 200 параметров и 1000 особей - это одно. А когда параметров у тебя миллионы, то и особей нужны ну хотя бы тоже миллионы, что это хоть как-то работало. И это уже неэффективно.
> Генетический алгоритм чуть лучше случайного перебора по своей логике. По сути это случайный перебор,
Это абсолютно не так. Даже если не лезть в матчасть, а просто сравнить время работы генетического алгоритма и перебора. На одной и той же задаче, на которой grammatical evolution с генетическим алгоритмом сходится за несколько секунд, перебор висел минут 15, пока я просто процесс не прибил. Разница по времени там буквально на порядки.
Как же вы блядь любите гринтекстить так, как ваш синдром дефицита внимания вам велел. Попробуй еще
Есть какое-то теоретическое обоснование?
Если у нас нейронка, то все гены - float'ы.
Берем набор особей. Это набор точек в пространстве.
Далее мутация - это это сменение точки в случайном направлении.
Кроссовер - это ты из 2-х точек получаешь одну, которая, в зависимости от правил этого кроссовера, будет где-то на кубике вписанном между этими двумя точками.
То есть мутация обеспечивает тебе случайный поиск, селекция и кроссовер - сужение границ поиска. В итоге все сходится.
Но чтобы оно сходилось, у тебя изначально должны быть хорошие шансы оказаться рядом каким-то хорошим минимумом. Для этого особей должно быть достаточно много, и как много зависит от размерности твоей задачи, и я не вижу причин, чтобы зависимость не была экспоненциальной.
grammatical evolution - какая там у тебя размерность, 1000 есть хотя бы? А небольшая нейронка имеет в 1000 раз больше параметров, и сама поверхность хуже для ГА, если прикинуть.
> Но чтобы оно сходилось, у тебя изначально должны быть хорошие шансы оказаться рядом каким-то хорошим минимумом.
Сходиться оно в любом случае будет. Тут зумера не любят теорем Жопеншмуклера, а я все же сошлюсь на теорему схем Холланда, доказанную им в 1975. С практической точки зрения, опять же, генетические алгоритмы хорошо сходятся и не застревают в локальных минимумах даже специальной хуйни типа функции Растригина. Да, все это плохо работает на многомерных данных, но я не вижу причин, почему ГА нельзя распараллелить и состыковать из отдельных алгоритмов, решающих задачу низкой размерности, теорему Колмогорова-Арнольда никто не отменял.
Одна из миллиарда статей, критикующих теорему схем жопеншмульцера.
Вот смотри:
Алгоритм с подкреплением ведет поиск "осознанно". Он накладывает на поиск вариантов евристики.
Генетический алгоритм всё делает рандомно. Еврестики подбираются тоже случайным образом.
Генетический алгоритм будет дольше обучается, чем подкрепление.
Вот самое лучшее сочетание предобучение авторегрессией -> обучение подкреплением.
К примеру, задача генерации музыки.
Мы даем нейронке изначальные знания, в виде базы данных музыкальеых произведений. Затем, когда она генерирует музыку, подкрепляем лучшие результаты работы алгоритма, а откровенно плохие варианты - откидываем.
Такой подход можно применить задач генерации текста и музыки, ибо там требуется некоторый абстрактный "смысл", который можно вывести, накладывая на алгоритм ограничения вручную.
> Не нужен, почитай битерлесон пожалуйста
Начнем с того, что увеличение данных для GPT не улучшит его работу.
> Нет же!!
GPT = Марковские цепи со знанием контекста и вниманием. Change my mind.
> Затем, когда она генерирует музыку, подкрепляем лучшие результаты работы алгоритма, а откровенно плохие варианты - откидываем.
Вручную что ли? Ну биттерлессон же, мань. Ну че ты.
> Вручную что ли?
Естессна.
К примеру у тебя есть музыкальный сервис, которые фокусируется на генеративной AI-музыке.
Генериреутся она через (VQ)VAE.
Однако, даже если данных будет достаточно, не каждый вариант будет хорошим - это факт.
Но, внимание, у пользователей есть кнопки лайк и дизлайк. Именно пользователи будут дообучать нейросеть подкреплением.
Через некоторое время, алгоритм будет делать музыку не хуже человека.
> Алгоритм с подкреплением ведет поиск "осознанно". Он накладывает на поиск вариантов евристики.
> Генетический алгоритм всё делает рандомно. Еврестики подбираются тоже случайным образом.
Ты не понимаешь принципов работы ни ГА ни RL. При этом пытаешься спорить. Могу предположить, что ты зумер.
>Начнем с того, что увеличение данных для GPT не улучшит его работу.
Так ты весов тоже накинь
>GPT = Марковские цепи со знанием контекста и вниманием. Change my mind.
Можно с таким же успехом написать что-то типа "GPT - функция". Смысл в твоей интерпретации какой, даже если она верна, хотя скорее всего она не верна?
Может, вы увидите какую-то грубую ошибку и что там не так? https://pastebin.com/bb6kviKM
По обучению, получается так, что вывод заполняется blank label (maxr на картинке). А loss потихоньку спускается к нулю, а потом к отрицательным значениям.
Во-первых, рл - это большая область с кучей разных задач и алгоритмов. Во-вторых, где в каком-нибудь REINFORCE есть "перебор всех вариантов"? Там напрямую максимизируется матожидание награды, никакого перебора всех вариантов там нет. Изначальная околослучайная стратегия - это не перебор вариантов.
А можно ли сделать так, чтобы даже эти 10 примеров для файн-тюнинга (или как это называется) себе предоставлял сам же GPT-3? По одной нашей команде, чтобы бы не пришлось предоставлять ему какие-то примеры для работы вообще? Или это бессмысленно и должен быть какой-то ввод извне, типа в этом суть?
> А можно ли сделать так, чтобы даже эти 10 примеров для файн-тюнинга (или как это называется) себе предоставлял сам же GPT-3?
Будет переобучение отрицательными (некорекктными) данными. Улучшение результата не будет.
За остальные не поясню, но Бишоп не для вкатывания, а для deep dive. Всё актуально, кроме части про нейронки.
>Что почитать для вкатывания?
>Николенко "Глубокое обучение" - на русском, есть примеры, но >меньше охват материала
>Франсуа Шолле - Глубокое обучение на Python
А где тут бишоп?
А, в глаза ебусь, увидел в шапке только дедовские книги.
Почему-то для вкатывания один диплернинх. В классический машоб я бы советовал вкатываться с курса от одс, а в DL - со стенфордского cs231n. Если нужно будет погружаться глубже, то тогда узконаправленно читать нужную инфу.
Если из предложенных книг выбирать, то там +- одно и то же. После любой из них всё равно придется догонять то, что было после 17 года придумано.
https://m.hightech.plus/2021/01/13/modeli-ii-ot-microsoft-i-google-oboshli-cheloveka-v-ponimanii-logiki-teksta
Усредненного.
Соглы, можно в orange модельку накликать вообще без математики. Значит математика не нужна, доказано.
Ну вот градиентный спуск и есть математика которая там нужна, сколько нужно времени чтоб освоить как думаешь?
Оно и не будет взаимодействовать с миром нормально до тех пор, пока мир не будет являть собой мысле-образ, как ты, перед тем, как написать/сделать что-то, представляешь это в голове. Эта штука так не может, да и не сумеет.
Ты еще попроси определения слова куча сена дать. Я ебу что-ли, для кого-то куча - 1 кг, для другого - тонна.
Вопрос в том, что животные (большинство из них) действую по схеме:
стимул -> реакция
А учеловека:
раздражитель -> мысль -> действие
Я уж не говорю о том, что эта цепочка может начаться вовсе без раздражителя.
Или ты из тех, кто отрицает наличие свободы воли и образного мышления?
Любая из существующих нейросетей - черный ящик с хорошей эвристикой. Человек действует несколько иначе. Ты вот как считаешь, откуда у человека сознание? Мне кажется, что это следствие необходимости создания инструментов и социального взаимодействия.
>Любая из существующих нейросетей - черный ящик с хорошей эвристикой. Человек действует несколько иначе.
Пруфца бы
>>10411
>>10387
И типа кто-то кроме зумерошизика спутает это с осмысленной человеческой речью. Реально же не лучше марковских цепей из нулевых, более менее семантически корректный бред генерировать может, но не более. Конкретно этот анон с порфирьевичем (который на гпт2 с прибамбасами) развлекается видимо.
> Ну давай, укажи на бред Где конкретно я не прав, в чем? Ну порфирьич, рожай
Dieu lui sera- sera, mais je suis si dans le monde, ench
>Проделав теоретические вычисления, международная группа ученых под руководством команды исследователей из Института Макса Планка (Германия) показала, что появись такой ИИ, управлять им мы точно не сможем.
Содомит, прекрати. Слово ученый уже зашкварилось как и слово либерал.
Понятно.
Институт науки не уважаешь, вас таких в пробирке тьмы и невежества выводят. А если вас просвещать, за такое в тематике банят
А CTCLoss вообще может быть отрицательным? Я с pytorch'ем на вы, но мне кажется в training loop какая-то ебань, сама сетка как сетка, работать будет вряд ли, потому что слишком простая, но хоть как-то обучаться должна
>А можно ли сделать так, чтобы даже эти 10 примеров для файн-тюнинга (или как это называется) себе предоставлял сам же GPT-3?
Можно. Вот так: дай ему 10 примеров, о выдаст тебе еще 10. Кек
>Почему-то для вкатывания один диплернинх
Есть ссылка на CS229. Впрочем, надо добавить курсы отдельно
>Институт науки не уважаешь, вас таких в пробирке тьмы и невежества выводят. А если вас просвещать, за такое в тематике банят
Нормальная наука есть только в крупных коммерческих фирмах. Остальные ученые в говне моченые ничем кроме попила грантов не занимаются.
>Институт науки
У меня к ним есть вопрос, когда они перестанут жечь динозавров в ДВС или хотя бы поднимут КПД больше 40% ?
Ну если под наукой подразумевать брутфорс по подбору моделек на куче данных и мощностей то да. Наукой же как изучением тайн природы (в классическом смысле этого слова т.е.) кабанчики не интересуются.
Фундаментальной наукой как раз занимаются только на уровне гос. финансирования, капитал заинтересован только в short outcomes.
Комми, газуй отсюда
>Наукой же как изучением тайн природы (в классическом смысле этого слова т.е.) кабанчики не интересуются.
В современной науке основной фокус это не изобретение нового, а публикация как можно большего количества пейперов низкого качества. Поэтому от большинства исследований пользы даже меньше, чем от кабанчиков, которые трясут ящик чтобы решить задачи бизнеса. Все инновации делает гугл, фейсбук, опенаи и пара тройка топовых университетов. Остальные просто паразитируют на грантах.
>а публикация как можно большего количества пейперов
Перестань, это Болонская система где требуют публиковаться
>Все инновации делает гугл, фейсбук, опенаи и пара тройка топовых университетов
Не делают, они вам пытаются скормить
>Остальные просто паразитируют на грантах.
В это и есть смысл современной науки
>Все инновации делает гугл, фейсбук, опенаи и пара тройка топовых университетов
Инновации делают ученые, которые там работают, и гугл, фейсбук и прочие их не в пробирке выращивают. Инновационная экономика - система комплексная и частично не работает, нужно и обучать ученых, и отбирать их, и давать им финансирование, и чтобы они делились знаниями как можно раньше, а не пытались зажопить ноу-хау.
Вытащишь что-то, работать не будет.
>нужно и обучать ученых, и отбирать их, и давать им финансирование
А можно просто выучить наконец битерлессон и забить на этих дармоедов.
Richard S. Sutton
Distinguished Research Scientist, DeepMind Alberta
Professor, Department of Computing Science, University of Alberta
Principal Investigator, Reinforcement Learning and Artificial Intelligence Lab
Chief Scientific Advisor, Alberta Machine Intelligence Institute (Amii)
Senior Fellow, CIFAR
Валом, обычно мелкошерстые конторы берут подфитить модели которые написал бывший их саентист перед тем как свалил.
Держать такое рыло на полную ставку им не выгодно.
>Professor, Department of Computing Science, University of Alberta
>Principal Investigator, Reinforcement Learning and Artificial Intelligence Lab
>Chief Scientific Advisor, Alberta Machine Intelligence Institute (Amii)
>Senior Fellow, CIFAR
Пиздец у него титул, взоржал.
Профессор, почетный член всех академий, любимый муж и папочка, исследователь всяких исследований, заведуюйщий двухкомнатной лабораторией с четермя стульями, очень умный, консультант по щам и просто хороший человек
Где это? На апворке?
когда изобретут то, что будет дешевле динозавров или когда динозавры кончатся или когда жечь динозавров станет опасно для жизни
>Вот это пожар
Но ведь пожар как раз у наукопетушни, которая потратила всю свою жизнь чтобы зарабатывать как вчерашний студент.
> При этом такой профессор получает меньше, чем типичная веб-макака в индустрии.
Смотря где. Пару лет назад постили зарплаты в Японии, среднестатистический профессор там получает в пересчёте на нашу псевдовалюту около 900к₽. Очень сомнительно, что такой доход имеет вебмакака, даже в той же Японии. Если ты про Блинолопатию, то да, тут и дворник гурбангулбердымужамеджон в москваюрте больше профессора в регионах имеет.
Недавно читал что много челов в openai и deepmind получают около 1кк зеленых в год. макаки столько никогда не будут получать
>в пересчёте на нашу псевдовалюту около 900к₽.
Мань, плез, сколько у него остается на руках и сколько он тратит на хоромы в два квадратных метра в пездоглазии
>такой профессор
Кокой прохфесор? Обычное ноунеймговно которому нужно публиковаться, что бы бабосы не урезали
Придумал битерлессон, великий учёный
Я скоро напишу свой gpt
>Та же GPT-3 вполне будет работать на игровом компьютере
Не будет. Даже GPT-2 с трудом запускается на 11Гб видеопамяти, а у GPT-3 на два порядка больше параметров.
Потому что это всего лишь перемножение матриц, для которых давно разработаны очень быстро работающие алгоритмы
>Недавно читал что много челов в openai и deepmind получают около 1кк зеленых в год. макаки столько никогда не будут получать
Макаки-лиды в долине получают столько же.
К тому же это все коммерческие компании. Я же говорил про профессоров, которые работают в университетах и имеют титул длиннее, чем их история работы. Такие получают максимум тысяч 150, и то к самому концу карьеры, проработав всю жизнь за зарплату автомеханика.
>>12239
Вообще, долина по сути уникальное место, касаемо зарплат. Допустим, сравним зарплаты того же тим лида и assistant professor(аналог нашего доцента). Да, во время phd зп разработчика будет выше, чем у аспиранта. Для сравнения взял бостон, где расположен MIT. Наверное в других универах зп профессоров пониже, но лень сидеть смотреть. Так вот, согласно glassdoor зарплата профессора оказалась выше(111к+24к бонусов) против team leader(104к). Так что все не так однозначно. Плюсом так же к профессии профессора идет более менее гибкий и свободный график. Возможно мог ошибиться когда смотрел зп в glassdoor, но пока вот так.
>против team leader(104к)
Там какая-то фигня с данными. У обычных фулл-стек макак написано 111к не включая бонусы, что похоже на правду. У лидов должно быть минимум 150.
>Да, во время phd зп разработчика будет выше, чем у аспиранта
>Так что все не так однозначно. Плюсом так же к профессии профессора идет более менее гибкий и свободный график. Возможно мог ошибиться когда смотрел зп в glassdoor, но пока вот так.
Чтобы стать профессором надо получить пхд, а это минимум пять лет за зарплату в 3 раза меньше зарплаты джуна. После этого пойдешь еще лет пять въебывать постдоком за зарплату все еще меньше зарплаты джуна. Наконец, если повезет, годам к 35 наконец станешь профессором с зарплатой 100+. Гибкий в академии ничего не значит, поскольку все зависит от твоих достижений в науке. Ты либо работаешь с утра до ночи, либо остаешься вечным постдоком или вообще вылетаешь.
ИИ, который переводит мангу. Данных много, в том числе, можно синтезировать (нужны лишь пары изображений (с текстом оригинал-перевод) в разных шрифтах).
Переводить будет и SFX'ы.
Использовать можно (нужно) GAN.
Конечно с качеством самого первода могут быть проблемы, но вот с чисто механическими действиями обработки страниц манги GAN должен справиться. Скорее всего потребуется гибридная архитектура.
Было в треде год назад
В керасе model.layers[index].weights хранит веса в виде списка numpy массивов, ты можешь создать две модели, одну проинициализированную с нуля, вторую с загруженными весами и скопировать что угодно из чего угодно. Это полезно знать чтобы оно не было для тебя какой-то магией. Веса - это просто массивы.
Альтернативно https://stackoverflow.com/questions/40496069/reset-weights-in-keras-layer смотри ответ def reset_weights.
В этом коде тебе нужно вместо for layer in model.layers написать for layer in model.layers[-5:] или еще как откусить хвост (более правильно указать слои по имени)
> каждую эпоху отфигачивать верхную денс сетку оставляя старую реснет голову
Это не заметил, я думал ты просто про файнтюнинг спрашиваешь. Тут ты просто делаешь 3 модели с shared weights
inp = Input(...)
x = Resnet(... inp ... )
a = Conv1D()(x)
b = Conv1D()(x)
modela = Model(inputs=inp, outputs=a)
modelb = Model(inputs=inp, outputs=b)
И далее ты либо делаешь кастомный луп с помощью train_on_batch, либо, что более правильно, делаешь кастомный луп с помощью tf.function, потому что у train_on_batch течет память азазаза гугол что ты делаешь прекрати.
Если хочешь обучать одновременно, то model = Model(inputs=inp, outputs=[a,b,c]) и ебешься весами у лоссов.
В пайторче аналогично - создаешь класс Net, в коноструктор которого передаешь другю модель, должно заработать
чо-то не верится что какой-то ган за один проход потянет такое, если бы мне сказали такое я бы обучил детектор облачков с текстом, например йолу, результат йолы бы переводил в текст какой-нить моделькой, хз как это щас делается, но видел делается нормально, текст переводил бы гугл транслейтом и заменял тупо, чо говно или норм пайплайн?
Я еще в прошлом году видел эту модель и подозревал, что с ней что-то не так, в итоге ее авторы и признали это сами. https://github.com/fengxinjie/Transformer-OCR
А то я рандомно кидаю
linear(1,300)
ReLU
linear(300,200)
ReLU или CELU
linear(200,200)
CELU
Linear(200,1)
плюс накидываю дальше скрытых, пока ошибка не начнет уменьшаться
>linear(1,300)
Почему у тебя всего один признак во входных данных?
Вообще, для полносвязных сетей ничего качественно лучше linear-relu-linear-relu-linear не придумали, просто размеры скрытых слоёв можно поменять.
А если ты про свёрточные нейросети, то просто открывай какой-нибудь keras.applications или pytorch zoo, бери рандомную модельку и читай про неё.
>Почему у тебя всего один признак во входных данных?
x->месяц работы
y->доход из скважины
прост тренируюс
Для такой хуйни просто сделай всяких фичей а ля x, x^2, sqrt(x), log(x) и обучи на них обычную линейную регрессию.
нде, тупо стакать relu и линейную регрессию (увеличивая кол-во нейронов) + залогорифмировать X_train оказалось лучшим результатом
>>12865
> чо-то не верится что какой-то ган за один проход
Он сможет по крайней мере клинить и переводить SFX. Но, просто датасет придётся клинить. Либо вручную, либо используя исплользуя другую нейронку, которая будет детектить границы облачков.
Насчет перевода - да скорее всего по-требуется другая нейросеть.
Есть еще проблемы с тем, что если переводить с японского - то здесь пиздец как нужно понимать контекст, исторический бекграунд, и надо уметь делать копмромиссы перевода, ибо что можно сказать в одном языке, невозможно сказать в другом без заимствований.
С английским попроще, ибо он, внезапно, ближе к русскому, чем тот же японский.
вообще, не могу поверить что такая тренировка невозможна и что так еще никто не делал. был же даже проект, в котором добровольцы тренили какую-то нейросеть, название не могу вспомнить
> multi-worker в tf позволяет тренить нейросеть в распределенной системе, в которой компьютеры соединены интернетом, а не локальной сетью?
Не думаю, что tf долбоебы делали. TF модульный вроде. Бери и меняй.
В смысле?
Бля, ну был же уже такой вопрос. Интернет по пропускной способности такой дикий ботлнек, что смысла в этом ноль
Можно названия?
>немыслимым даже пару лет назад
Немыслимым кому? Пиздец ты футуролог, конечно.
>Я к тому
Да-да, твоим прогнозам можно верить
> Да-да, твоим прогнозам можно верить
Не надо верить, можешь просто дать ссылку на свободные исходники гпт3.
GPT-3 недоступна не по приказу госорганов, а по решению её же разработчиков (не непосредственно людей, а компании). Ты тоже, знаешь ли, можешь на своем гитхабе private репозиторий создать и твои state of the art cutting-edge разработки в сфере вывода надписи "Hello world!" не будут доступны человечеству, и ты на это имеешь полное право и мое личное благословение.
ну и ты хуярь
> GPT-3 недоступна не по приказу госорганов, а по решению её же разработчиков (не непосредственно людей, а компании)
Так-то и Трампа везде заблокировали частные компании, которые никому ничего не должны. Главное результат, а не формулировка. А что там на самом деле было, народу знать не обязательно, правда своя инициатива, или Брина / Маска вызвали куданада и пояснили что к чему.
В девичестве Жопеншмульцер
>может нарисовать нормальную картину по самому ебанутому описанию типа "капибара сидит на жопе ровно в поле на рассвете" или "кресло в виде авокадо"
Напоминаю, что дали нам несколько черипикнутых примеров а не модельку так что как ты там оценил может или не может хуй знает. Вообще, судя по тому как опенаи всё жопят закрадывается подозрение а не наёб ли это всё. Может и гпт3 это гпт2 тупо с нанятым штатом китайцев которые полуавтоматически правят ошибки.
> Напоминаю, что дали нам несколько черипикнутых примеров
Это я понимаю. И все равно, даже такие результаты это конкретный шаг вперёд по сравнению с тем что было до.
> судя по тому как опенаи всё жопят закрадывается подозрение а не наёб ли это всё. Может и гпт3 это гпт2 тупо с нанятым штатом китайцев которые полуавтоматически правят ошибки.
Маловероятно, что это наебалово. Так или иначе, в паблик они свои поделия вылаживают, изначально и гпт2 с 1558м параметров жопили, а потом все равно выложили.
И что, вообще никак? А если очень хочется? Даже ценой увеличения времени тренировки на 1-2 порядка.
Что будет, если, допустим, одна нода тренирует сеть N с, затем передаеет второй и так далее?
> Js вообще может составить конкуренцию петухону?
В ML нет.
> Или брать кресты и не выёбываться?
И сидеть без библиотек...
>AI в плане агентов, выбора решений, игр в игры, поиска оптимальных стратегий
пошёл нахуй, вапникошиз
тряси ящик и не выебывайся
Теория игор, теория принятия решений, обучение с подкреплением. Можешь, например, из этого плейлиста накатить лекции 1-11, 13-15 для начала - это записи лекций MIT, курс "MIT 6.034 Artificial Intelligence"
https://www.youtube.com/playlist?list=PLUl4u3cNGP63gFHB6xb-kVBiQHYe_4hSi
Бамп вопросу
Всм значения? Ну у тебя они довольно сильно кореллируют. Одно из другого полноценно ты не получишь. Ибо данных не хватает. В целом нужны ещё какие-то признаки. Или обучай регрессию на этом и получай точность около коэффициента корелляции
Чувак, забей.
Ни одна нейросеть на данный момент не умеет нормально переводить с японского, вообще ни одна.
Я тебе даже больше скажу, почти все переводы с японского содержат кучу ошибок, а их делают люди, даже в переводе классики люди путали субъекта.
>ИИ, который переводит мангу.
Я занимался этим пару лет назад, но дело заглохло из-за отсутствия времени и данных. А недавно сообразил, что датасет можно разметить практически автоматически, используя переведенную и не переведенную мангу. Дальше либо тренировать йоло, либо при помощи классики распознавать потенциальный текст и тренировать нейронку-классификатор, которая будет определять, является ли предложенный регион текстом. Ну а все остальное делается при помощи тессеракта и гугл транслейта. Главный подводный - это сам перевод. Гугл очень плохо переводит японский.
Но скоро будет гпт4, ей можно будет просто написать "переведи мне на японский войну и мир но добавь немного яоя" и в ответе будет полный перевод лучше чем у профессиональных переводчиков с вкраплениями яоя лучше чем у профессиональных дрочил.
потом говоришь а теперь прочитай мне это голосом бориса репетура и дрочи мой хуй я знаю ты любишь отсасывать и она как начинает наяривать а ты такой о боже кажется битерлесон победил
А инференс будет стоить $10 за токен
Потому что надо не корреляции и прочие средние с отклонениями считать а гамалогии и баркоды
Спасибо, милчеловек
>с отклонениями считать а гамалогии
кстати, как анон обычно вычисляет упомянутые гомологии? каков ваш любимый фреймворк для них?
>Жирно платят любым дебилам имитирующим датасаенс?
Хз, моя непосредственная работа вообще к датасайнсу отношения не имеет. Это скорее в рамках хобби.
ML на всяких js и сишарпах нужен не для того чтобы составлять конкуренцию петухону, а для того чтобы можно по-быстрому встроить ml в своё легаси или вебговно, если кабанчику захочется побольше бабок под модную тему стрясти с заказчиков, и при этом не приходилось ебаться с разворачиванием контейнеров и дёргать петухон только для того чтобы модельку заинференсить. Плюсы нужны для встраивания уже разработанных моделей в готовый продукт. Так что бери питон и не выёбывайся, всё остальное не про "создавание ии" а про унылые будни обычной промышленной разработки.
Потому что зависимость какая-то есть, но какая мы не знаем поэтому наваливаем всех функций что есть и смотрим что получится, это мл для тебя. Только я бы лучше бустинги обучал на этом вместо линейных регрессий, современные библиотеки данных требуют не сильно больше, а всяких неприятностей с корреляцией признаков и прочих капризных требований к данным таких нет.
>на своем гитхабе private репозиторий
Если ты владелец серверов гитхаба, то да. Умиляют такие завяления. Инфа залитая куда-то там уже не твоя и не private.
Так они и обучают. В числе прочих линейных регрессиц.
Кто ж виноват что не знаешь где книги на русском взять.
>Напоминаю, что дали нам несколько черипикнутых примеров
Там их сотни и никто их не черрипикал
>Вообще, судя по тому как опенаи всё жопят закрадывается подозрение а не наёб ли это всё.
Тупорылые конспирологи и в ML пробрались
>никто их не черрипикал
Ты свечку держал видимо? Как будто сотня это много
>Тупорылые конспирологи и в ML пробрались
"Это всё конспирология!" - любимая кричалка идиотов.
Кто "они", шизик? Я про конкретный совет анона говорил.
>И что, вообще никак?
Смысла мало. Ты же не мелкие сетки хочешь тренировать, а большие, а таким нужны гигабиты в любом случае, будешь ли ты обмениваться градиентами (как принято сейчас - на всех машинах одна и та же модель, через которую гонятся батчи, а затем ошибка усредняется по всем воркерам и веса апдейтятся) или данными (то что приходит в голову первым - но бэкпроп последовательный алгоритм и хер что выйдет при подходе влоб), в любом случае нужно будет обмениваться большим количеством инфы.
>А если очень хочется?
Пиздуй в науку и исследуй. Потенциально я вижу два решения
1. Локальные альтернативы бэкпропу, то есть каждый слой/набор слоев живет на пеке и в асинхронном режиме отправляет/получает данные, модифицируя у себя веса
2. Модели с бэкпропом, но с conditional computation. То есть у тебя архитектура состоит из сотен параллельных ветвей и роутера, который направляет данные. Соответственно все, что после роутера, можно распараллелить на разные машины. Можно эту хуитку настекать, добавить p2p механизм обмена данными от роутера и тому подобное.
И там и там если утилизацию GPU в 10% получишь, будет неплохо.
хватит ли исходных данных чтобы генеративную нейросеть обучить стилю группы Король и Шут сочинять тексты на заданную тематику или хотя бы просто с наличием ключевых слов?
А вдруг есть? вот я и хочу посмотреть на это
>тессеракт ужасен в распознавании манги.
Ты бы для начала прочитал пейпер по тессеракту - он предназначен исключительно для распознавания текста без картинок. Поэтому нужно распознавать не всю страницу, а вырезанные регионы с текстом, тогда точность будет достаточно хорошая по крайней мере лучше, чем точность перевода с японского.
Лол, я читал и тестил тессеракт и даже делал базу для выделения участков текста в манге.
Он ужасен просто, киндл, а ты 100% будешь работать с киндл форматом он тянет плохо.
В итоге мне стало лень и я использовал гугл док как нейронку для себя, у нее точность распознавания отличная
Все равно даже с моделью, которая лучше, чем гугловская ты едва ли осилишь даже сбор настолько же огромной базы, чтобы сделать лучше, чем может гугл док.
Также стоит рассматривать препроцессинг, текст может идти в совершенно рандомном шрифте, с совершенно рандомным наклоном + еще есть фуригана, которую ты не можешь просто так удалять, почему я объясню чуть ниже.
Распознавание японского - это челлендж, в этом языке 2 слоговые азбуки, + как минимум 5к кандзи нужные, чтобы читать мангу, не смотря в словарь, еще есть кюдзитай формы.
Также японцы могут использовать кастомное чтение кандзи, также в качестве литературного приема японцы могут использовать другое чтение кандзи, чтобы получить другое значение слова или же смешанное значение слова, поэтому фуригану просто так при препроцессинге вырезать нельзя.
В самом японском всевозможное число котоваз, разговорных и письменных сокращений и всего прочего, что делает перевод более веселым.
>Он ужасен просто
Ты скорее всего его неправильно настроил. У тессеракта куча параметров, которые сильно влияют на качество распознавания. Ну и распознавать нужно куски текста как на пикриле, чтобы ничего кроме текста не было. Ну и не забыть добавить пустого пространства по бокам.
>киндл форматом
Какой еще нахуй киндл? Картинки жпег или пнг.
>В итоге мне стало лень и я использовал гугл док как нейронку для себя, у нее точность распознавания отличная
С гуглом сложно конкурировать, но у него анальная привязка к аккаунту и лимит на количество запросов.
Перевод - это отдельная тема. Вообще, не обязательно переводить извлеченный текст гугл транслейтом - можно просто подсоединить онлайн-словарь, чтобы смотреть значение незнакомых слов. Будет некий аналог парсера визуальных новелл, только для манги.
>Распознавание японского - это челлендж
Сейчас бы тратить время на островных обезьян окультуренных китайцами. Страна без языка, истории и культуры, ох вейт...
> Ты скорее всего его неправильно настроил. У тессеракта куча параметров, которые сильно влияют на качество распознавания. Ну и распознавать нужно куски текста как на пикриле, чтобы ничего кроме текста не было. Ну и не забыть добавить пустого пространства по бокам.
Нет, я как раз правильно настроил, могу тебе накидать примеров, где тессеракт очевидно обсирается с нормальными настройками. Ну и естественно вырезка текста, попробуй вот это к примеру.
Плюс у тессеракта очень скудная библиотека кандзей, могу скинуть любой скрин из манги с кюдзитай кандзи и тессеракт 100% сфейлится.
> Какой еще нахуй киндл? Картинки жпег или пнг.
Киндл - это веб формат, с которого ты получаешь мангу, очень редко можно получить доступ к манге, что была получена людьми, которые ее покупают, распускают на страницы и сканят в хорошем качестве, обрабатывая ручками.
>>16756
Знания Японии на уровне 5-классника.
Да, этот скрин без кюдзитая, но у меня тессеракт на нем фейлился
Проверил скрин - не смог перевести только один один символ в правой колонке. Насчет библиотеки кандзей может быть, но в таком случае тессеракт можно самому натренировать.
Где ты японодрочеров встречал? Тут один залетный чел про мангу спрашивать начал, но не похоже, чтобы он сильно шарил.
>Где ты японодрочеров встречал
Да кругом в ИТ, пидарасы и японодрочеры это процентов 90 от нормисов. Типа они ущербные хиканы и пытаются заработать копеючку через ИТ?
>чел про мангу спрашивать
И кому она на хуй нужна?
Ну вот этот вот символ - это простая хирагана, которая встречается куда чаще, чем любой кандзь.
Вообще, интересно узнать, насколько новомодные перформеры и трансформеры хороши в OCR по сравнению с LSTM.
Кстати, не знаю, известно ли тебе, но Capture2Text уже существует.
>Кстати, не знаю, известно ли тебе, но Capture2Text уже существует.
Это всего лишь графический интерфейс к тессеракту.
Почему всякие паттерны c регулярными полосами в видео (том же ютубе например) расплываются непонятными пятнами?
Очевидно, собрать больше данных.
>OCR для математической нотации (AMS-TeX)
Уже давно сделали: https://mathpix.com
Очередная анально огороженная облачная залупа, но работает. Так что нейронки вполне могут в такое.
ИП Шершунов бухал пивас в падике пока млмакаки не спали перед экзаменами задрачивая Жопеншмульцера.
>>16851
Для распознавания отдельных мышкописных символов есть бесплатный и вполне рабочий https://detexify.kirelabs.org/classify.html
Так это не нужно. В старых книгах больше текста, чем формул, а новые есть в нормальном виде.
>Когда уже изобретут AI и он нас всех поработит?
>На текущем железе - никогда, тред не об этом
Почему так категорично на счёт железа? По-моему проблема AGI не в количестве виртуальных нейронов/слоёв нейросети. Нет смысла наращивать нейросети до сотен слоёв, как это делают в "глубинном обучении", в живом мозге нет такой глубины отдельных нейронок. ИМХО, проблема в организации мелких независимых нейронок между собой, в архитектуре системы в целом. Даже не обязательно чтобы это были нейронки, с некоторыми задачами могут справиться классические алгоритмы, а в живом мозге далеко не всё решается нейронками. Кроме того, "общий интеллект" нашего мозга - наименьшая его часть, можно выкинуть из мозга человека 90% массы и он останется человеком, большая часть мозга тупо координирует тело в пространстве, управляет движением (что AGI не обязательно). А уж сознание так и вообще мизерная фича, его можно без нейронок эмулировать (зависит от определения). Также мозг работает непрерывно, результаты предыдущих решений складываются с новыми, тогда как большинство компьютерных нейронок работает как программная функция: результат = нейронка(данные); - отсюда, скорее всего, прожорливость нейронок. То, что мозг решает за несколько входящих порций данных (связанных одним контекстом!), от нейронки требуют решить за одну порцию. Мозг вообще очень сильно ошибается на одной порции данных (ничем не связанной с предыдущими), искусственные нейронки давно превзошли его в этом, но для AGI не нужно превосходство по сравнению с нейронками мозга.
Собственно, меня не интересуют узкоспециализированные AI. Поэтому вопрос: что можно изучить на тему AGI, чтобы приблизиться к его разработке? Я не понимаю, с чего можно начать такую разработку. Есть определённые догадки, например, что без памяти на события ничего не получится (мы действуем осмысленно только пока способны вспомнить, что было только что и недавно; без этой памяти мы теряем всю нашу "интеллектуальность", остаются только глупые животные инстинкты, а это уже не человек) и что любые поступки человека мотивированы его потребностями (без потребностей даже самый гениальный мозг будет бездействовать, мы действуем только пока нам что-нибудь нужно или хочется - а это решает не мозг, а гены и гормоны, обучаемость мозга на это почти не влияет). Но эти догадки не складываются в чёткую систему, которую можно было бы хотя бы схематически нарисовать, куда уж там до кодинга или обучения нейронок. То есть я не могу сформировать архитектуру такой системы, а без этого невозможно приступить к разработке. Есть что-нибудь на эту тему?
Извините, если не по теме, но меня интересует реальная разработка реальной системы, а не то, чем занимаются большинство обсуждающих тему AGI - пустая философия без связи с реальностью, неприменимая на практике. Я умею программировать и имею какие-то знания об искусственных нейронках, но у меня не получается применить это для разработки желаемой системы. И пусть современного железа и моего старого ПК скорее всего не хватит по мощности, но я хочу хотя бы немного приблизиться к цели. Мне не нужен какой-то супер-ИИ, решающий любые проблемы человечества, мне нужна система, которую можно было бы воспринимать как разумного человека, пусть и очень глупого и ограниченного в возможностях по причине нехватки технических ресурсов. Нет, не чат-бот, а именно личность, даже если она не сможет полноценно разговаривать (наша речь - не единственный возможный интерфейс для связи с кем-либо, но этот "кто-то" должен сперва начать существовать). Этого будет достаточно для лечения моей хронической депрессии.
>Когда уже изобретут AI и он нас всех поработит?
>На текущем железе - никогда, тред не об этом
Почему так категорично на счёт железа? По-моему проблема AGI не в количестве виртуальных нейронов/слоёв нейросети. Нет смысла наращивать нейросети до сотен слоёв, как это делают в "глубинном обучении", в живом мозге нет такой глубины отдельных нейронок. ИМХО, проблема в организации мелких независимых нейронок между собой, в архитектуре системы в целом. Даже не обязательно чтобы это были нейронки, с некоторыми задачами могут справиться классические алгоритмы, а в живом мозге далеко не всё решается нейронками. Кроме того, "общий интеллект" нашего мозга - наименьшая его часть, можно выкинуть из мозга человека 90% массы и он останется человеком, большая часть мозга тупо координирует тело в пространстве, управляет движением (что AGI не обязательно). А уж сознание так и вообще мизерная фича, его можно без нейронок эмулировать (зависит от определения). Также мозг работает непрерывно, результаты предыдущих решений складываются с новыми, тогда как большинство компьютерных нейронок работает как программная функция: результат = нейронка(данные); - отсюда, скорее всего, прожорливость нейронок. То, что мозг решает за несколько входящих порций данных (связанных одним контекстом!), от нейронки требуют решить за одну порцию. Мозг вообще очень сильно ошибается на одной порции данных (ничем не связанной с предыдущими), искусственные нейронки давно превзошли его в этом, но для AGI не нужно превосходство по сравнению с нейронками мозга.
Собственно, меня не интересуют узкоспециализированные AI. Поэтому вопрос: что можно изучить на тему AGI, чтобы приблизиться к его разработке? Я не понимаю, с чего можно начать такую разработку. Есть определённые догадки, например, что без памяти на события ничего не получится (мы действуем осмысленно только пока способны вспомнить, что было только что и недавно; без этой памяти мы теряем всю нашу "интеллектуальность", остаются только глупые животные инстинкты, а это уже не человек) и что любые поступки человека мотивированы его потребностями (без потребностей даже самый гениальный мозг будет бездействовать, мы действуем только пока нам что-нибудь нужно или хочется - а это решает не мозг, а гены и гормоны, обучаемость мозга на это почти не влияет). Но эти догадки не складываются в чёткую систему, которую можно было бы хотя бы схематически нарисовать, куда уж там до кодинга или обучения нейронок. То есть я не могу сформировать архитектуру такой системы, а без этого невозможно приступить к разработке. Есть что-нибудь на эту тему?
Извините, если не по теме, но меня интересует реальная разработка реальной системы, а не то, чем занимаются большинство обсуждающих тему AGI - пустая философия без связи с реальностью, неприменимая на практике. Я умею программировать и имею какие-то знания об искусственных нейронках, но у меня не получается применить это для разработки желаемой системы. И пусть современного железа и моего старого ПК скорее всего не хватит по мощности, но я хочу хотя бы немного приблизиться к цели. Мне не нужен какой-то супер-ИИ, решающий любые проблемы человечества, мне нужна система, которую можно было бы воспринимать как разумного человека, пусть и очень глупого и ограниченного в возможностях по причине нехватки технических ресурсов. Нет, не чат-бот, а именно личность, даже если она не сможет полноценно разговаривать (наша речь - не единственный возможный интерфейс для связи с кем-либо, но этот "кто-то" должен сперва начать существовать). Этого будет достаточно для лечения моей хронической депрессии.
у меня немного упоротая задача, но надо сделать. Мб вы посоветуете чего-нибудь
короче я работаю с данными, разбитыми на кластеры
я четко знаю, что каждый кластер - это квадрат (ну потому что это облако точек, снимающее стол с кубиками)
вопрос, как определить ориентацию этих кластеров?
Из того, что я придумал: можно определить оси, как мы это делаем в PCA и смотреть, как они расположены относительно какой-то внешней системы координат
но это довольно долго по времени, тк размер кластера порядка (70кх3)
есть идеи? только не бейте плиз
Всем собственно похуй должно быть как там у мясных мешков "по-настоящему" устроено. Алёё, битерлесон на дворе, всё человековское "настоящее" отменяется и не нужно.
Ну нормально ты придумал, вряд ли что-то работать быстрее будет чем pca
>долго по времени, тк размер кластера порядка (70кх3)
Бери не весь кластер в сэмпл из него
1280x720, 0:30
Что угодно будет быстрее PCA, ведь PCA общий алгоритм, а у нас есть неебовое предположение, что фигура - квадрат.
Как минимум можно довольно просто получить первое приближение:
1. Найти центр тяжести облака точек - o(n)
3. Провести вертикальную линию через этот центр. За o(n) можно выяснить число точек слева и справа от линии, что эквивалентно площадям фигур, на которые вертикальная линия разрезает квадрат. Это даст угол поворота, но, к сожалению, квадрат под углом 0 градусов и 45 градусов так не отличишь
4. Поэтому нужно провести еще одну линию под углом, например, 30 градусов и разрешить неоднозначность.
Примерно так. Работать будет хоть на бабушкином утюге.
Если данные шумные, есть RANSAC.
Вообще задача не особо упоротая, типичное дидовское компьютерное зрение.
Почитай, что такое RANSAC, может отпадет вопрос
> а у нас есть неебовое предположение, что фигура - квадрат
тоже думал уйти в эвристики, спасибо
алгоритм клевый - надо попробовать реализовать его
а по поводу ранзака - не легче, тогда уж, ICP бахнуть? меня, правда, смущает, что, если объектов будет много, мой комп умрет
Аллё, эволюция 2 миллиарда лет животных оптимизировала, с какого-то момента и мозг тоже. Я вовсе не говорю, что наш мозг оптимальное решение, нет, его дизайн по большому счёту "тяп-ляп и кучка костылей поверх старых костылей", но если я хочу сделать существо, подобное человеку, то должен как минимум принимать во внимание устройство оригинального человека.
И потом, я привёл сравнение с мозгом только в плане "наш мозг не настолько крут, насколько круты отдельные нейронки, следовательно для эмуляции разумного существа не нужен суперкомпьютер размером с город". Для полной модели мозга (всех его клеток и внеклеточных процессов) потребуется суперкомпьютер какого ещё не существует, это верно, однако для копирования основных идей и принципов работы скорее всего не нужно так много ресурсов, сколько требуется для "обычных" нейронок, потому что они уже давно обогнали мозг в качестве и скорости выполнения отдельных задач. То есть разум кроется не в гигагерцах и не в терабайтах, а в архитектуре, связывающей между собой множество глупых, тормозящих и часто ошибающихся подсистем (которые ещё и регулярно дохнут/заменяются новыми/теряют функции/меняют специализацию).
Собственно мой вопрос - где почитать конкретно про такую архитектуру и её разработку. Нейронки - это только один из способов реализации элементов большой системы, но без архитектуры никакой системы вообще не будет. Следовательно начинать нужно не с нейронок, а с того, что будет наполняться в том числе нейронками.
Или хотя бы направьте меня туда, где задаются такими вопросами.
>а по поводу ранзака
Ранзак - это просто метод отбора хороших точек, который применим к любой модели вида "набор точек->параметры модели". Там просто расписано, как брать подвыборки и что с ними делать, и оно будет работать хоть с PCA хоть с моим алгоритмом, хоть с чем угодно еще,
>ICP
А он применим? У тебя облако точек всегда одно и то же? Если так, то есть solvePnP в OpenCV, правда не знаю, как оно дружит с 70к точек, но думаю есть уже готовое решение где-нибудь на гитхабе
>Почему так категорично на счёт железа?
Потому что нынешнее железо это ускорители умножения матриц, при этом не разреженных, а обычных (dense, как это по-русски?). Все это крайне энергонеэффективно, несмотря на переход на fp16 и прочие ухищрения.
Грубо говоря, типичная современная нейронка "думает" сразу одновременно всеми своими "нейронами", несмотря на то, что 90% будут перемножать нули с нулями, так как это "не их информация". Если бы мозг так работал, он бы сварил себя за секунду и жрал бы глюкозу как два слона.
>в живом мозге нет такой глубины отдельных нейронок.
Там все равно дохуя параметров. Мозг не глубок, но очень широк и рекуррентен (а это определенный аналог глубины), плюс нейрон - это не просто скалярное произведение весов и входов и далее функция активации, а сложная динамическая система, которая отдельно работает как ML-юнит с самообучением - ведь бэкпропагейшен физически не реализуем, и это мы еще не обсуждали отращивание новых дендритов, а чисто вот локальное обучение. Все это науке не известно, кроме базовых принципов, например, насколько я знаю, открытие последних лет - это то, что сигнал и ошибка кодируются разной частотой спайков. Говорю на память из какой-то статьи про predictive coding, могу напиздеть, но в целом это показывает реальный уровень знаний о нейронах - мы даже не понимаем их "протокол обмена", не говоря уже о самой внутренней модели, существующие модели очень грубые. Соответственно и все прикидки о том, какой суперкомпьютер нужен, чтобы сэмулировать мозг - основаны ни на чем. Может нейрон это 10 сложений и умножений на дендрит, а может 10000. Вряд ли, но тем не менее.
>Кроме того, "общий интеллект" нашего мозга - наименьшая его часть, можно выкинуть из мозга человека 90% массы и он останется человеком, большая часть мозга тупо координирует тело в пространстве, управляет движением (что AGI не обязательно)
Если бы ты был прав, женщины бы не мучались, рожая эти существа с огромной головой через свои прямоходящие тазы. Нахуя, если 90% можно выкинуть, ходить с маленькой головой, жрать поменьше опять же.
А на деле-то мозг человека генетически не сильно отличается от мозга мыши, но какая разница в способностях при простом увеличении веса в 3000 раз. Если не нравятся мышки, возьми макак и шимпанзе. Объем важен, площадь коры важна.
Алгоритм, по которому работают нейроны, важен, но он один что у тебя что у мыши. При этом мышь никогда не пройдет тест тьюринга и даже в доту2 ее научить играть нельзя, это крайне специлизированный "AI".
Короче, ты сильно недооцениваешь эти самые специализированные AI. До определенного уровня масштабирования они никогда не покажут впечатляющих результатов.
Самое забавное, что OpenAI показали, что с нейронками все очень похоже обстоит - тупое масштабирование работает. Поэтому с моей точки зрения нужно не об архитектурах думать, а о дизайне самих слоев. Там работы дохуя. Трансформер это точно не вершина человеческой мысли, а ведь еще не давно и их не было.
>Также мозг работает непрерывно, результаты предыдущих решений складываются с новыми, тогда как большинство компьютерных нейронок работает как программная функция: результат = нейронка(данные); - отсюда, скорее всего, прожорливость нейронок.
Нет, откуда прожорливость нейронок я уже объяснил - из-за того, что все основано на умножении матриц на цифровой кремниевой технологии. Рано или поздно они оторвутся от этой технологической базы, как когда-то интернет оторвался от диалап-модемов из-за уже готовой инфраструктуры телефонии, но сейчас только так.
А то что ты описываешь называется рекуррентностью и вообще-то посасывает из-за того, что ты не знаешь, какие воспоминания тебе потребуются в будущем. Почему математическая формула лучше воспринимается глазами, чем на слух? А вот потому.
>Поэтому вопрос: что можно изучить на тему AGI, чтобы приблизиться к его разработке?
Ничего, ведь AGI не создан, поэтому существуют только разные разделы философии науки, которые верят в разное.
Читай лучше про спайковые нейросети, модели нейронов, predictive coding и прочие низкоуровневые для мозга вещи. Понравится, базарю.
>>17266
>но если я хочу сделать существо, подобное человеку, то должен как минимум принимать во внимание устройство оригинального человека.
Да сделай мышь хотя бы. Потом отскейлишь ее в 3000 раз и получишь человека. А само по себе существо интересное. Вопрос в том, потянет ли GPU мозг мыши? 12 гб может быть мало, например. То что такая мышка 300 ватт жрать будет, ну это терпимые издежки технологии. А вот память - она и африке память. Кора мозга ежа (не могу нагуглить мышь) - 24 миллиона нейронов. Если по 1000 связей на нейрон, а связь кодировать байтом, это 24 гб. Еще раз, если бы еж мог бы выживать с 12 миллионов нейронов в коре, он бы выживал, мозг - дорогая ткань, но ему мало, ему нужно именно 24.
Вот и думай, можно ли задизайнить мозг ежа так, чтобы потратить меньше байта на связь (не всмысле на вес - веса и шарить можно как в сверточных нейронках, в этом плане да, мозг избыточен, а в плане байта на сигнал).
По-моему - нихуя нельзя. Поэтому даже если и в мозге человека AGI это несколько грамм серого вещества, как по твоей теории, и сознание и речь умещается в мозг ежа, это все равно все очень дохуя и на своем днищеGPU ты это не заведешь.
>Собственно мой вопрос - где почитать конкретно про такую архитектуру и её разработку.
Начни с https://www.youtube.com/watch?v=T3sxeTgT4qc
>Почему так категорично на счёт железа?
Потому что нынешнее железо это ускорители умножения матриц, при этом не разреженных, а обычных (dense, как это по-русски?). Все это крайне энергонеэффективно, несмотря на переход на fp16 и прочие ухищрения.
Грубо говоря, типичная современная нейронка "думает" сразу одновременно всеми своими "нейронами", несмотря на то, что 90% будут перемножать нули с нулями, так как это "не их информация". Если бы мозг так работал, он бы сварил себя за секунду и жрал бы глюкозу как два слона.
>в живом мозге нет такой глубины отдельных нейронок.
Там все равно дохуя параметров. Мозг не глубок, но очень широк и рекуррентен (а это определенный аналог глубины), плюс нейрон - это не просто скалярное произведение весов и входов и далее функция активации, а сложная динамическая система, которая отдельно работает как ML-юнит с самообучением - ведь бэкпропагейшен физически не реализуем, и это мы еще не обсуждали отращивание новых дендритов, а чисто вот локальное обучение. Все это науке не известно, кроме базовых принципов, например, насколько я знаю, открытие последних лет - это то, что сигнал и ошибка кодируются разной частотой спайков. Говорю на память из какой-то статьи про predictive coding, могу напиздеть, но в целом это показывает реальный уровень знаний о нейронах - мы даже не понимаем их "протокол обмена", не говоря уже о самой внутренней модели, существующие модели очень грубые. Соответственно и все прикидки о том, какой суперкомпьютер нужен, чтобы сэмулировать мозг - основаны ни на чем. Может нейрон это 10 сложений и умножений на дендрит, а может 10000. Вряд ли, но тем не менее.
>Кроме того, "общий интеллект" нашего мозга - наименьшая его часть, можно выкинуть из мозга человека 90% массы и он останется человеком, большая часть мозга тупо координирует тело в пространстве, управляет движением (что AGI не обязательно)
Если бы ты был прав, женщины бы не мучались, рожая эти существа с огромной головой через свои прямоходящие тазы. Нахуя, если 90% можно выкинуть, ходить с маленькой головой, жрать поменьше опять же.
А на деле-то мозг человека генетически не сильно отличается от мозга мыши, но какая разница в способностях при простом увеличении веса в 3000 раз. Если не нравятся мышки, возьми макак и шимпанзе. Объем важен, площадь коры важна.
Алгоритм, по которому работают нейроны, важен, но он один что у тебя что у мыши. При этом мышь никогда не пройдет тест тьюринга и даже в доту2 ее научить играть нельзя, это крайне специлизированный "AI".
Короче, ты сильно недооцениваешь эти самые специализированные AI. До определенного уровня масштабирования они никогда не покажут впечатляющих результатов.
Самое забавное, что OpenAI показали, что с нейронками все очень похоже обстоит - тупое масштабирование работает. Поэтому с моей точки зрения нужно не об архитектурах думать, а о дизайне самих слоев. Там работы дохуя. Трансформер это точно не вершина человеческой мысли, а ведь еще не давно и их не было.
>Также мозг работает непрерывно, результаты предыдущих решений складываются с новыми, тогда как большинство компьютерных нейронок работает как программная функция: результат = нейронка(данные); - отсюда, скорее всего, прожорливость нейронок.
Нет, откуда прожорливость нейронок я уже объяснил - из-за того, что все основано на умножении матриц на цифровой кремниевой технологии. Рано или поздно они оторвутся от этой технологической базы, как когда-то интернет оторвался от диалап-модемов из-за уже готовой инфраструктуры телефонии, но сейчас только так.
А то что ты описываешь называется рекуррентностью и вообще-то посасывает из-за того, что ты не знаешь, какие воспоминания тебе потребуются в будущем. Почему математическая формула лучше воспринимается глазами, чем на слух? А вот потому.
>Поэтому вопрос: что можно изучить на тему AGI, чтобы приблизиться к его разработке?
Ничего, ведь AGI не создан, поэтому существуют только разные разделы философии науки, которые верят в разное.
Читай лучше про спайковые нейросети, модели нейронов, predictive coding и прочие низкоуровневые для мозга вещи. Понравится, базарю.
>>17266
>но если я хочу сделать существо, подобное человеку, то должен как минимум принимать во внимание устройство оригинального человека.
Да сделай мышь хотя бы. Потом отскейлишь ее в 3000 раз и получишь человека. А само по себе существо интересное. Вопрос в том, потянет ли GPU мозг мыши? 12 гб может быть мало, например. То что такая мышка 300 ватт жрать будет, ну это терпимые издежки технологии. А вот память - она и африке память. Кора мозга ежа (не могу нагуглить мышь) - 24 миллиона нейронов. Если по 1000 связей на нейрон, а связь кодировать байтом, это 24 гб. Еще раз, если бы еж мог бы выживать с 12 миллионов нейронов в коре, он бы выживал, мозг - дорогая ткань, но ему мало, ему нужно именно 24.
Вот и думай, можно ли задизайнить мозг ежа так, чтобы потратить меньше байта на связь (не всмысле на вес - веса и шарить можно как в сверточных нейронках, в этом плане да, мозг избыточен, а в плане байта на сигнал).
По-моему - нихуя нельзя. Поэтому даже если и в мозге человека AGI это несколько грамм серого вещества, как по твоей теории, и сознание и речь умещается в мозг ежа, это все равно все очень дохуя и на своем днищеGPU ты это не заведешь.
>Собственно мой вопрос - где почитать конкретно про такую архитектуру и её разработку.
Начни с https://www.youtube.com/watch?v=T3sxeTgT4qc
Т.Е. классы кодируются подобно one-hot encoding но значения могут быть не только 0/1но и промежуточные. Набору векторов со значениями признаков соответствует набор векторов со значениями ожидаемых скоров для каждого класса а не код конкретного класса.
Предвещаю, что стоит юзать только целые куски лица.
> Рано или поздно они оторвутся от этой технологической базы
Говоришь про нейроморфные компьютеры? Так-то перспективная технология. Но куда болеее перспективной технологией является квантовый компьютер. Имея такой вычислитель, можно будет решать любые задачи тупо перебором, не ухищряясь с нейронками.
да, нету. Если ты не заметил, то оно нарезает лицо ,там именно фейс рекогнишн. Он сам не пропустит части, а если ипропустит, то это только будет мешать, оно будет пытаться натянуть ненужные вещи, которые хакрывают лицо на модель. И частичные обрезки лица не съест.
Ну как бы нихуя, что интеллект не коррелирует с размером мозга? По крайней мере среди людей. А если уж так смотреть, то киты вообще over 9999 iq бояре.
>over 9999 iq бояре
так в вдруг да.
просто они с аноном не хотят базарить, с высоты своего over 9999 iq.
TypeError Traceback (most recent call last) <ipython-input-30-61b5b5ed2362> in <module> ----> 1 Discriminator = ResNet18(Block)
19 # ResNetLayers ---> 20 self.layer1 = self.make_layers(18, block, 2, intermediate_channels=64, stride=1) 21 self.layer2 = self.make_layers(18, block, 2, intermediate_channels=128, stride=2) 22 self.layer3 = self.make_layers(18, block, 2, intermediate_channels=256, stride=2)
TypeError: make_layers() got multiple values for argument 'intermediate_channels'
Не вкурю, что не так.
Подсоби, плёс.
>энергонеэффективно
На первых этапах это не так важно. Главное чтоб оно хотя бы в теории могло работать быстрее и лучше, а более эффективное железо можно потом купить.
>90% будут перемножать нули с нулями
Нельзя поставить условие, чтобы наименее активные ветки сети отключались? А если у нас много маленьких сетей, можно временно отключать целую сеть. Если рассматривать нейросети как функции - мы вызываем не все функции программы одновременно, а только те, что нужны. Колонки неокортекса вроде как-то так и работают.
>аналог глубины
Аналог, но по идее лучше. Крутить сигнал внутри маленькой нейронки вместо одного прохода по длинной - дольше, но требуется меньше памяти и меньше циклов на обработку всей сети (или меньше нейронов на ядро). Также такая нейронка сможет получать дополнительную информацию в процессе работы над старой, а это уже ближе к тому, как думает человек.
>нейрон - сложная динамическая система
Знаю. Нейрон - живая клетка, она меняется в процессе жизни. Даже слышал, что у каждого нейрона своя ДНК. Однако в природе есть более сложные нейроны, чем у человека, наверняка есть и более простые. Но я не предлагаю нейроны точно моделировать, это бессмысленно без остальных систем мозга.
>какой суперкомпьютер нужен
Можно спуститься на уровень молекул, будет проще оценить масштаб))
Говорю же, не нужно мозг копировать, меня интересуют только общие алгоритмы его поведения, которые можно перенести на любую платформу. Большая часть таких алгоритмов вроде бы известна, непонятно только с чего начать, что важнее всего и от чего можно отказаться.
>женщины бы не мучались, рожая
На большую голову есть причины:
1. Мозг - большая куча заплаток. Сначала была просто нервная система, которая передавала сигналы по телу, мозга не было. Потом появились группы нейронов, это как-то помогло выжить древним животным. Из этих групп выделилась самая большая, поближе к главным источникам информации (глаза и уши). Она расширялась и дополнялась, но все эти дополнения - заплатки, каждая из которых решает одну-две проблемы и часто конфликтует с остальными. У природы не было плана, новые фичи лепились абы как. Потому мозг неоптимален по размеру, это тебе не чётко спроектированный процессор.
2. Мозг состоит из живых клеток - они часто умирают. Причина смерти значения не имеет, но если за какую-то функцию отвечала всего одна клетка и она сдохла - система потеряет эту функцию. Другая клетка может обучиться выполнять её функцию, но у кого она будет учиться, если единственный носитель функции сдох? Потому мозг дублирует функции, распределяет по разным клеткам. Функцию можно выполнять меньшим числом клеток, но тогда повышается риск утраты этой функции. В процессорах транзисторы не умирают, поэтому дублирование в них лишь для увеличения производительности, а не живучести (хотя раньше 4-ядерные процессоры с 2 дохлыми ядрами продавали как 2-ядерные, чем-то похоже). А в мозг можно вбить гвоздь, убив миллионы клеток, но большинство функций сохранится; можно отрезать ведущее полушарие, и второе восстановит в себе его функции, начав делать то, что раньше предпочитало не делать (хотя это уже другой человек, часть утрачивается).
3. У мозга есть куча обслуживающих нейроны систем. Неизвестно, влияют ли они на поведение, но "электронному мозгу" они не нужны. Вернее, у процессора весь этот "обслуживающий персонал" снаружи чипа и на программы обычно не влияет.
4. Говоря о человеке - наше "человеческое поведение", высокий интеллект и т.п. заключены в неокортексе. У него большая площадь, но это тонкая плёнка поверх огромной старой системы. Без неё неокортекс бесполезен, но эволюция если и оптимизирует её, то через сотни миллионов лет. Вот эта старая неоптимальная система и занимает бОльшую часть головы, а неокортекс зачастую вынужден решать её проблемы (заплатка же). Представь себе винду на 20 ГБ и маленькую программку на 100 КБ, которая добавляет кучу полезных функций и фиксит баги винды - вот это и есть мозг, нагромождение легаси и малюсенькая заплатка.
>мозг мыши
У человека неокортекс более развит, слоёв больше. В природе есть мозги, значительно превышающие по объёму человеческие, но они не умнее нас. А у птиц мозг вообще иначе устроен, там вместо неокортекса какая-то своя заплатка, которая чуть ли не умнее неокортекса, но птицам это нужно для полётов и социальной жизни, а не матановые капчи решать. Слышал теорию, что важен не объём, а отношение массы мозга к массе тела, мол у человека самый большой мозг относительно туловища. Но по факту решающее значение имеет архитектура - наличие определённых заплаток высокого уровня - неокортекса или той птичьей фиговины. Т.е. старая система мозга у разных животных похожа, особенно среди млекопитающих, но решает наиболее свежий патч, который только у человека. Также без воспитания и образования человек не станет человеком, но это уже софтварный патч, до него нужны хардварные. Мы можем научить обезьяну языку жестов и она поймёт разные абстрактные человеческие понятия, но без соответствующих хардварных патчей она не сможет стать полноценным человеком.
>До уровня масштабирования
Сколько слоёв в нейронку не засунь - она не скажет тебе "ой, всё, надоел со своими кошками, пойду поем, аккумуляторы урчат". Это именно проблема архитектуры. Но ведь засунуть ещё тысячу слоёв и продать дяде проще и выгоднее, чем работать над системой, которой потом права и свободы придётся давать. Представь визг СЖВ, ломящихся в офис какого-нибудь Гугла, чтобы вызволить заключённую в рабство машину - это никакой из корпораций не нужно, как и не нужен свободно гуляющий непредсказуемый робот. Поэтому у гаражных самоделкиных шансы сделать такую систему выше - они хотя бы пытаются. Я как раз такой поехавший)
>какие воспоминания потребуются
Те, что повторяются много раз за короткий промежуток времени; те, что вызвали сильный всплеск гормонов (эмоций); те, на которые фокусировочная нейронка сказала "это важно, запомните это, ребята". В таком порядке оно, скорее всего, формировалось в ходе эволюции.
>восприятие на слух/зрением
Кратковременная память мозга ограничена 5-9 сущностями, обычно 7. То есть когда тебе диктуют формулу, первые 7 элементов ты запоминаешь, а 8-й элемент незаметно заменяет собой один из предыдущих. Похоже на оптимизацию мозга, типа энергию экономит, или расслабляет отдельные зоны, чтобы не выгорали. Но без этой памяти человек не был бы человеком, одной только параллельной зрительной обработкой не добьёшься многого. Также в повседневной жизни большую роль играет память на события, которой у простых нейронок не бывает (без внешних костылей). У памяти на события ёмкость "один день", сейв в долговременную память каждую ночь, если одну ночь не спишь - кэш прошлых суток теряется и начинается каша в голове, сам наверняка переживал такое.
>низкоуровневые для мозга вещи. Понравится
Не спорю, это интересно и важно, но без общей архитектуры применения для себя не вижу. Хочется высокоуровневую работоспособную систему, а что там внизу будет - да хоть автоматы из игры "Жизнь", какая разница, если оно работает.
>сделай мышь
Думаю да, нужно, т.к. основа всё равно одинаковая. Кстати, видел эксперименты по моделированию "простых мозгов", но там черви были. Но, повторюсь, мне же не мозг нужен, даже не нейроны, а общие алгоритмы работы. Часть задач наверняка без нейронов можно решить.
>масштабируй в 3000 раз
Это так не работает, мозг мыши размером с мозг человека по-прежнему мозг мыши, только тяжелее. Основа - да, очень похожа, но высшая нервная деятельность у нас отличается. Ты б ещё мозг рыбы предложил увеличить)
>если бы ёж мог выживать
Выше уже писал: живому ежу необходимы запасные нейроны, которые продолжат исполнять важные функции даже когда их напарники сдохнут. Но модели ежа это не нужно, если его нейроны не умирают (пробовал делать "смертные нейроны", но... они у меня тупо дохнут). Живые нейроны хрупкие и недолговечные, а искусственные бессмертны, вот и всё.
>на днищеGPU не заведёшь
Некоторые задачи CPU решает быстрее нейронок. Нейроны - не панацея. У мозга просто нет иного выбора, у него нет ничего кроме нейронов и гормональной системы.
>энергонеэффективно
На первых этапах это не так важно. Главное чтоб оно хотя бы в теории могло работать быстрее и лучше, а более эффективное железо можно потом купить.
>90% будут перемножать нули с нулями
Нельзя поставить условие, чтобы наименее активные ветки сети отключались? А если у нас много маленьких сетей, можно временно отключать целую сеть. Если рассматривать нейросети как функции - мы вызываем не все функции программы одновременно, а только те, что нужны. Колонки неокортекса вроде как-то так и работают.
>аналог глубины
Аналог, но по идее лучше. Крутить сигнал внутри маленькой нейронки вместо одного прохода по длинной - дольше, но требуется меньше памяти и меньше циклов на обработку всей сети (или меньше нейронов на ядро). Также такая нейронка сможет получать дополнительную информацию в процессе работы над старой, а это уже ближе к тому, как думает человек.
>нейрон - сложная динамическая система
Знаю. Нейрон - живая клетка, она меняется в процессе жизни. Даже слышал, что у каждого нейрона своя ДНК. Однако в природе есть более сложные нейроны, чем у человека, наверняка есть и более простые. Но я не предлагаю нейроны точно моделировать, это бессмысленно без остальных систем мозга.
>какой суперкомпьютер нужен
Можно спуститься на уровень молекул, будет проще оценить масштаб))
Говорю же, не нужно мозг копировать, меня интересуют только общие алгоритмы его поведения, которые можно перенести на любую платформу. Большая часть таких алгоритмов вроде бы известна, непонятно только с чего начать, что важнее всего и от чего можно отказаться.
>женщины бы не мучались, рожая
На большую голову есть причины:
1. Мозг - большая куча заплаток. Сначала была просто нервная система, которая передавала сигналы по телу, мозга не было. Потом появились группы нейронов, это как-то помогло выжить древним животным. Из этих групп выделилась самая большая, поближе к главным источникам информации (глаза и уши). Она расширялась и дополнялась, но все эти дополнения - заплатки, каждая из которых решает одну-две проблемы и часто конфликтует с остальными. У природы не было плана, новые фичи лепились абы как. Потому мозг неоптимален по размеру, это тебе не чётко спроектированный процессор.
2. Мозг состоит из живых клеток - они часто умирают. Причина смерти значения не имеет, но если за какую-то функцию отвечала всего одна клетка и она сдохла - система потеряет эту функцию. Другая клетка может обучиться выполнять её функцию, но у кого она будет учиться, если единственный носитель функции сдох? Потому мозг дублирует функции, распределяет по разным клеткам. Функцию можно выполнять меньшим числом клеток, но тогда повышается риск утраты этой функции. В процессорах транзисторы не умирают, поэтому дублирование в них лишь для увеличения производительности, а не живучести (хотя раньше 4-ядерные процессоры с 2 дохлыми ядрами продавали как 2-ядерные, чем-то похоже). А в мозг можно вбить гвоздь, убив миллионы клеток, но большинство функций сохранится; можно отрезать ведущее полушарие, и второе восстановит в себе его функции, начав делать то, что раньше предпочитало не делать (хотя это уже другой человек, часть утрачивается).
3. У мозга есть куча обслуживающих нейроны систем. Неизвестно, влияют ли они на поведение, но "электронному мозгу" они не нужны. Вернее, у процессора весь этот "обслуживающий персонал" снаружи чипа и на программы обычно не влияет.
4. Говоря о человеке - наше "человеческое поведение", высокий интеллект и т.п. заключены в неокортексе. У него большая площадь, но это тонкая плёнка поверх огромной старой системы. Без неё неокортекс бесполезен, но эволюция если и оптимизирует её, то через сотни миллионов лет. Вот эта старая неоптимальная система и занимает бОльшую часть головы, а неокортекс зачастую вынужден решать её проблемы (заплатка же). Представь себе винду на 20 ГБ и маленькую программку на 100 КБ, которая добавляет кучу полезных функций и фиксит баги винды - вот это и есть мозг, нагромождение легаси и малюсенькая заплатка.
>мозг мыши
У человека неокортекс более развит, слоёв больше. В природе есть мозги, значительно превышающие по объёму человеческие, но они не умнее нас. А у птиц мозг вообще иначе устроен, там вместо неокортекса какая-то своя заплатка, которая чуть ли не умнее неокортекса, но птицам это нужно для полётов и социальной жизни, а не матановые капчи решать. Слышал теорию, что важен не объём, а отношение массы мозга к массе тела, мол у человека самый большой мозг относительно туловища. Но по факту решающее значение имеет архитектура - наличие определённых заплаток высокого уровня - неокортекса или той птичьей фиговины. Т.е. старая система мозга у разных животных похожа, особенно среди млекопитающих, но решает наиболее свежий патч, который только у человека. Также без воспитания и образования человек не станет человеком, но это уже софтварный патч, до него нужны хардварные. Мы можем научить обезьяну языку жестов и она поймёт разные абстрактные человеческие понятия, но без соответствующих хардварных патчей она не сможет стать полноценным человеком.
>До уровня масштабирования
Сколько слоёв в нейронку не засунь - она не скажет тебе "ой, всё, надоел со своими кошками, пойду поем, аккумуляторы урчат". Это именно проблема архитектуры. Но ведь засунуть ещё тысячу слоёв и продать дяде проще и выгоднее, чем работать над системой, которой потом права и свободы придётся давать. Представь визг СЖВ, ломящихся в офис какого-нибудь Гугла, чтобы вызволить заключённую в рабство машину - это никакой из корпораций не нужно, как и не нужен свободно гуляющий непредсказуемый робот. Поэтому у гаражных самоделкиных шансы сделать такую систему выше - они хотя бы пытаются. Я как раз такой поехавший)
>какие воспоминания потребуются
Те, что повторяются много раз за короткий промежуток времени; те, что вызвали сильный всплеск гормонов (эмоций); те, на которые фокусировочная нейронка сказала "это важно, запомните это, ребята". В таком порядке оно, скорее всего, формировалось в ходе эволюции.
>восприятие на слух/зрением
Кратковременная память мозга ограничена 5-9 сущностями, обычно 7. То есть когда тебе диктуют формулу, первые 7 элементов ты запоминаешь, а 8-й элемент незаметно заменяет собой один из предыдущих. Похоже на оптимизацию мозга, типа энергию экономит, или расслабляет отдельные зоны, чтобы не выгорали. Но без этой памяти человек не был бы человеком, одной только параллельной зрительной обработкой не добьёшься многого. Также в повседневной жизни большую роль играет память на события, которой у простых нейронок не бывает (без внешних костылей). У памяти на события ёмкость "один день", сейв в долговременную память каждую ночь, если одну ночь не спишь - кэш прошлых суток теряется и начинается каша в голове, сам наверняка переживал такое.
>низкоуровневые для мозга вещи. Понравится
Не спорю, это интересно и важно, но без общей архитектуры применения для себя не вижу. Хочется высокоуровневую работоспособную систему, а что там внизу будет - да хоть автоматы из игры "Жизнь", какая разница, если оно работает.
>сделай мышь
Думаю да, нужно, т.к. основа всё равно одинаковая. Кстати, видел эксперименты по моделированию "простых мозгов", но там черви были. Но, повторюсь, мне же не мозг нужен, даже не нейроны, а общие алгоритмы работы. Часть задач наверняка без нейронов можно решить.
>масштабируй в 3000 раз
Это так не работает, мозг мыши размером с мозг человека по-прежнему мозг мыши, только тяжелее. Основа - да, очень похожа, но высшая нервная деятельность у нас отличается. Ты б ещё мозг рыбы предложил увеличить)
>если бы ёж мог выживать
Выше уже писал: живому ежу необходимы запасные нейроны, которые продолжат исполнять важные функции даже когда их напарники сдохнут. Но модели ежа это не нужно, если его нейроны не умирают (пробовал делать "смертные нейроны", но... они у меня тупо дохнут). Живые нейроны хрупкие и недолговечные, а искусственные бессмертны, вот и всё.
>на днищеGPU не заведёшь
Некоторые задачи CPU решает быстрее нейронок. Нейроны - не панацея. У мозга просто нет иного выбора, у него нет ничего кроме нейронов и гормональной системы.
bitter lesson почитайте, этот интеллект уже скоро вас без работы оставит, ваши знания не нужны будут, по миру пойдёте
а вы всё причитаете "не то это, ой не то, и то в нейронках не так и это"
да всё так, просто кто-то балаболит про то что ВСЁ СЛОЖНА а кто-то берёт, делает и оставляет мнящих про себя нахуюкручёных без работы
Ты уже кукарекал, что трансформеры это рандомный код рандомных сойбоев, что абсолютно не соответствует действительности, там на самом деле за всем этим проработанная матчасть. Сейчас то же самое кукарекаешь уже про ненужность нейрофизиологии, ну потому что битерлесон же! Короче, обычный восторженный зумер, ничего не понимающий, мозгов нет же, зато везде сующийся со своим школьничеством.
>Нельзя поставить условие, чтобы наименее активные ветки сети отключались?
Можно https://arxiv.org/abs/1701.06538 https://arxiv.org/abs/2101.03961 (вторая статья вышла вчера, кек)
Но это все на уровне машин в кластерах, потому что на уровне GPU это все бесполезно практически из-за дизайна железа.
У GPU два ключевых момента
1. Большая и медленная GDDR память и куча вычислительных CUDA-ядер с небольшим локальным кэшем, пересылки - большой оверхед aka Von Neumann bottleneck
2. Внутри CUDA-ядра массовый параллелизм одна инструкция - куча данных, что совершенно не дружит с if'ами в коде.
В итоге чтобы оно работало на GPU, нужно писать либо кастомные ядра на C++, либо уходить в йоба-магию с tf.where, tf.cond и прочей хуйней, но все это бесполезно, во всяком случае я не видел быстрых решений, а те, которые делал сам на tf.where, обучались в 10 раз медленнее с тем же итоговым качеством.
>Крутить сигнал внутри маленькой нейронки вместо одного прохода по длинной - дольше, но требуется меньше памяти и меньше циклов на обработку всей сети
Это если ты придумал хороший локальный механизм обучения, а его нет. Все сосет у бэкпропа, который сначала гонит данные от верхего слоя вниз, а потом гонит ошибку через все слои назад. Вот можешь оценить масштаб йоб которыми пытаются избавиться от бэкпропа https://www.youtube.com/watch?v=LB4B5FYvtdI
В итоге чтобы обучить RNN, тебе нужно сначала развернуть ее в огромную feed-forward сеть с шерингом параметров, а затем обучать уже такую сеть, а после обучения свернуть назад в RNN. Это требует больше памяти и плохо параллелится.
Поэтому есть два варианта
1. У нейрона какое-то ноу-хау, которое мы не знаем и сосем с бэкпропом, а на самом деле есть крутой локальный алгоритм
2. У нейрона отстойный локальный predictive coding алгоритм, но их настолько дохуя, что и так нормально работает
В первой ситуации надо надеяться на нейросаенс и их опыты над мышами, а во второй с учетом того что на нашем железе бэкпроп работает хорошо, возможно это и позволит сделать GAI без триллионов весов.
>Говорю же, не нужно мозг копировать, меня интересуют только общие алгоритмы его поведения, которые можно перенести на любую платформу. Большая часть таких алгоритмов вроде бы известна, непонятно только с чего начать, что важнее всего и от чего можно отказаться.
Нет, не известна. Томограф тебе покажет только глобальную картину, а опыты над крысами только самые общие правила по котором работают нейроны.
Ключевое слово для поиска - biologically plausible deep learning https://scholar.google.com/scholar?cites=13086844866392165723&as_sdt=2005&sciodt=0,5&hl=en
https://scholar.google.com/scholar?hl=en&as_sdt=2005&sciodt=0,5&cites=13086844866392165723&scipsc=&q=biologically+plausible+deep+learning&btnG=
Еще про spiking neural networks почитай. У каждой статьи сначала идет абстракт, а потом исторический экскурс, вот это и читай, и за короткий срок будешь в теме на уровне дилетанта.
Вообще это передний край науки, поэтому arxiv-sanity и google scholar (особенно функция cited by) тебе в помощь, в книжках будет устаревшая инфа. И этот передний край мало знает на самом деле.
>1. Мозг - большая куча заплаток
Ну окей, давай только кору рассмотрим, там не так много заплаток, она универсальна с пруфами, но все равно это просто дохуя параметров у модели - 10^14, то есть если мы кодируем синапс байтом, это 100 терабайт. Ну то есть я допустить, что из этой хуйни можно выкинуть 99% говна, но это будет 1 терабайт. Вот как раз приходим на порядок цифр GPT3. А у тебя сколько памяти в распоряжении? 0.01 терабайт. Вот и считай, что неужели мозг настолько неоптимален, что в нем 99,99% эволюционного говна? Я в такое не верю.
>Потому мозг дублирует функции, распределяет по разным клеткам.
Поэтому-то поэтому, но есть еще одна причина - по-другому обучение не работает. Тебе нужен избыток нейронов со случайным состоянием, дальше из этого избытка формируются те, которые удачно предсказывают будущее. Иначе будешь застревать в локальных минимумах.
>3. У мозга есть куча обслуживающих нейроны систем.
>4. Говоря о человеке - наше "человеческое поведение", высокий интеллект и т.п. заключены в неокортексе.
Ну вот я написал про кору и синапсы в ней. Их триллион. Это много, даже если ты синапс кодируешь байтом.
>У человека неокортекс более развит, слоёв больше.
Ага, природа настакала больше слоев и животное превратилось в человека. Научный факт. Стекай слои, боженька одобряет.
Когда я говорю про масштабирование, конечно я имею в виду и слоев больше, и сами слои шире, и речь именно о неокортексе.
>Но ведь засунуть ещё тысячу слоёв и продать дяде проще и выгоднее, чем работать над системой, которой потом права и свободы придётся давать.
Да ну, этой проблемой "нейронок с мотивацией" занимаются в тех же местах - brain, deepmind, openai, facebook. https://www.youtube.com/watch?v=Lu56xVlZ40M
Вообще не надо судить об инновационной экономике по представлениям страны третьего мира. Если там думали так, как ты думаешь "о дядях", то не то чтобы бесплатного tensorflow в общем доступе не было, но и вместо гугла у тебя был бы газпром, а вместо глубоко убыточного GPT3 - частный самолет. Они молодцы и реально стараются, а единственный реальный шанс для дилетанта - это взять какую-то мелкую тему, которая хорошо работает на пеке, и ковырять ее, например, если ты разработаешь новый аналог трансформера, будет тебе почет и уважение.
>Не спорю, это интересно и важно, но без общей архитектуры применения для себя не вижу.
Ну ее нет
>Это так не работает, мозг мыши размером с мозг человека по-прежнему мозг мыши, только тяжелее.
И чем это можно объяснить? Claim что мозг настолько дорогая ткань, потребляющая много энергии, поэтому любое животное заинтересовано в его оптимальности - это довольно очевидная вещь как по мне. А вот наоборот - это похоже на человеческий шовинизм, мол, только человек в чем-то уникален, душа и все такое
>Выше уже писал: живому ежу необходимы запасные нейроны, которые продолжат исполнять важные функции даже когда их напарники сдохнут
Повторюсь, ну подели 100 триллионов на 10, получишь 10 триллионов. Чтобы это все имело смысл, нужно, чтобы 99,99% площади коры было избыточно.
>Некоторые задачи CPU решает быстрее нейронок. Нейроны - не панацея. У мозга просто нет иного выбора, у него нет ничего кроме нейронов и гормональной системы.
Не некоторые, а вполне конретные - хардкорно закодированные человеком с интеллектом.
>Нельзя поставить условие, чтобы наименее активные ветки сети отключались?
Можно https://arxiv.org/abs/1701.06538 https://arxiv.org/abs/2101.03961 (вторая статья вышла вчера, кек)
Но это все на уровне машин в кластерах, потому что на уровне GPU это все бесполезно практически из-за дизайна железа.
У GPU два ключевых момента
1. Большая и медленная GDDR память и куча вычислительных CUDA-ядер с небольшим локальным кэшем, пересылки - большой оверхед aka Von Neumann bottleneck
2. Внутри CUDA-ядра массовый параллелизм одна инструкция - куча данных, что совершенно не дружит с if'ами в коде.
В итоге чтобы оно работало на GPU, нужно писать либо кастомные ядра на C++, либо уходить в йоба-магию с tf.where, tf.cond и прочей хуйней, но все это бесполезно, во всяком случае я не видел быстрых решений, а те, которые делал сам на tf.where, обучались в 10 раз медленнее с тем же итоговым качеством.
>Крутить сигнал внутри маленькой нейронки вместо одного прохода по длинной - дольше, но требуется меньше памяти и меньше циклов на обработку всей сети
Это если ты придумал хороший локальный механизм обучения, а его нет. Все сосет у бэкпропа, который сначала гонит данные от верхего слоя вниз, а потом гонит ошибку через все слои назад. Вот можешь оценить масштаб йоб которыми пытаются избавиться от бэкпропа https://www.youtube.com/watch?v=LB4B5FYvtdI
В итоге чтобы обучить RNN, тебе нужно сначала развернуть ее в огромную feed-forward сеть с шерингом параметров, а затем обучать уже такую сеть, а после обучения свернуть назад в RNN. Это требует больше памяти и плохо параллелится.
Поэтому есть два варианта
1. У нейрона какое-то ноу-хау, которое мы не знаем и сосем с бэкпропом, а на самом деле есть крутой локальный алгоритм
2. У нейрона отстойный локальный predictive coding алгоритм, но их настолько дохуя, что и так нормально работает
В первой ситуации надо надеяться на нейросаенс и их опыты над мышами, а во второй с учетом того что на нашем железе бэкпроп работает хорошо, возможно это и позволит сделать GAI без триллионов весов.
>Говорю же, не нужно мозг копировать, меня интересуют только общие алгоритмы его поведения, которые можно перенести на любую платформу. Большая часть таких алгоритмов вроде бы известна, непонятно только с чего начать, что важнее всего и от чего можно отказаться.
Нет, не известна. Томограф тебе покажет только глобальную картину, а опыты над крысами только самые общие правила по котором работают нейроны.
Ключевое слово для поиска - biologically plausible deep learning https://scholar.google.com/scholar?cites=13086844866392165723&as_sdt=2005&sciodt=0,5&hl=en
https://scholar.google.com/scholar?hl=en&as_sdt=2005&sciodt=0,5&cites=13086844866392165723&scipsc=&q=biologically+plausible+deep+learning&btnG=
Еще про spiking neural networks почитай. У каждой статьи сначала идет абстракт, а потом исторический экскурс, вот это и читай, и за короткий срок будешь в теме на уровне дилетанта.
Вообще это передний край науки, поэтому arxiv-sanity и google scholar (особенно функция cited by) тебе в помощь, в книжках будет устаревшая инфа. И этот передний край мало знает на самом деле.
>1. Мозг - большая куча заплаток
Ну окей, давай только кору рассмотрим, там не так много заплаток, она универсальна с пруфами, но все равно это просто дохуя параметров у модели - 10^14, то есть если мы кодируем синапс байтом, это 100 терабайт. Ну то есть я допустить, что из этой хуйни можно выкинуть 99% говна, но это будет 1 терабайт. Вот как раз приходим на порядок цифр GPT3. А у тебя сколько памяти в распоряжении? 0.01 терабайт. Вот и считай, что неужели мозг настолько неоптимален, что в нем 99,99% эволюционного говна? Я в такое не верю.
>Потому мозг дублирует функции, распределяет по разным клеткам.
Поэтому-то поэтому, но есть еще одна причина - по-другому обучение не работает. Тебе нужен избыток нейронов со случайным состоянием, дальше из этого избытка формируются те, которые удачно предсказывают будущее. Иначе будешь застревать в локальных минимумах.
>3. У мозга есть куча обслуживающих нейроны систем.
>4. Говоря о человеке - наше "человеческое поведение", высокий интеллект и т.п. заключены в неокортексе.
Ну вот я написал про кору и синапсы в ней. Их триллион. Это много, даже если ты синапс кодируешь байтом.
>У человека неокортекс более развит, слоёв больше.
Ага, природа настакала больше слоев и животное превратилось в человека. Научный факт. Стекай слои, боженька одобряет.
Когда я говорю про масштабирование, конечно я имею в виду и слоев больше, и сами слои шире, и речь именно о неокортексе.
>Но ведь засунуть ещё тысячу слоёв и продать дяде проще и выгоднее, чем работать над системой, которой потом права и свободы придётся давать.
Да ну, этой проблемой "нейронок с мотивацией" занимаются в тех же местах - brain, deepmind, openai, facebook. https://www.youtube.com/watch?v=Lu56xVlZ40M
Вообще не надо судить об инновационной экономике по представлениям страны третьего мира. Если там думали так, как ты думаешь "о дядях", то не то чтобы бесплатного tensorflow в общем доступе не было, но и вместо гугла у тебя был бы газпром, а вместо глубоко убыточного GPT3 - частный самолет. Они молодцы и реально стараются, а единственный реальный шанс для дилетанта - это взять какую-то мелкую тему, которая хорошо работает на пеке, и ковырять ее, например, если ты разработаешь новый аналог трансформера, будет тебе почет и уважение.
>Не спорю, это интересно и важно, но без общей архитектуры применения для себя не вижу.
Ну ее нет
>Это так не работает, мозг мыши размером с мозг человека по-прежнему мозг мыши, только тяжелее.
И чем это можно объяснить? Claim что мозг настолько дорогая ткань, потребляющая много энергии, поэтому любое животное заинтересовано в его оптимальности - это довольно очевидная вещь как по мне. А вот наоборот - это похоже на человеческий шовинизм, мол, только человек в чем-то уникален, душа и все такое
>Выше уже писал: живому ежу необходимы запасные нейроны, которые продолжат исполнять важные функции даже когда их напарники сдохнут
Повторюсь, ну подели 100 триллионов на 10, получишь 10 триллионов. Чтобы это все имело смысл, нужно, чтобы 99,99% площади коры было избыточно.
>Некоторые задачи CPU решает быстрее нейронок. Нейроны - не панацея. У мозга просто нет иного выбора, у него нет ничего кроме нейронов и гормональной системы.
Не некоторые, а вполне конретные - хардкорно закодированные человеком с интеллектом.
Пропускает, поэтому и пишу. Убрал совсем дикие нарезки лица, фото с очками или закрытм ртом/глазами, оставил фото с половиной лица, по превью показывает, что нормально натренировалось на них.
>GPU
Зачем обязательно в GPU запихивать, если она не подходит? Кластер из мелких процессоров а-ля Raspberry Pi не подойдёт? По одиночке они не очень, но зато связь между ними почти гигабит и у каждой есть своя память и куча интерфейсов для взаимодействия с внешним миром. Физически отдельные юниты могут управлять физически отдельными компонентами (системы, робота), им не обязательно даже знать о существовании друг друга, несмотря на то, что это части одного целого. Ну а если без GPU не обойтись, тогда нужен кластер GPU, в котором CPU решает, какой юнит может отдыхать. Правда, это всё преждевременные оптимизации какие-то.
>локальное обучение
Ну так нейрон - живая клетка же. Все его алгоритмы закодированы в ДНК, а текущее поведение зависит от состояния окружающей его среды и баланса химических веществ. Не факт, что нейрон чему-то обучается, это потребовало бы изменения ДНК (от неё зависит, чем клетка обычно занимается). У меня есть предположение, что нейроны просто генерируются с большим разнообразием, а затем каждый нейрон выбирает то, что ему "по вкусу", в зависимости от его программы и ближайших соседей, до которых ему нужно доползти и дотянуть аксон(ы) и дендриты. Если нейрон не смог найти подходящей ему работы - он погибнет, а на его место сформируется новый нейрон с другой программой. При этом несмотря на смерть отдельных нейронов, функции мозга не теряются, т.к. они исполняются сразу множеством нейронов. Так что нет проблемы с обучением самих нейронов, вот только всё это слишком тяжело для стимуляции, а на GPU вообще не получится, как я понимаю.
А если ты про регуляцию синаптических связей, то там скорее всего решающую роль играют гормоны, действующие на всех сразу. Самому нейрону нужно только чтобы его возбуждали с определённой комфортной частотой, поэтому единственное локальное "обучение" - это подстройка синапсов таким образом, чтобы нейрон возбуждался не слишком часто и не слишком редко. Слишком частое и слишком редкое возбуждение может убить нейрон. Я пробовал сделать подобную модель, она статистически вычисляет активность каждого нейрона, а затем каждый нейрон регулирует свои связи относительно активности соседей: связи с буйными ослабляются, связи с тихонями усиливаются. Но это всё довольно сложно и я не нашёл способа проверить такую нейронку на практике - не могу придумать задачу. Не буквы же распознавать)
>Томограф
За ссылки спасибо, но я же говорю, не правила работы нейронов, а работа крупных структур. Нейроны - строительные кирпичи в крупных структурах мозга, которые решают какие-то задачи. Есть, например, структура для создания новых записей в памяти - если этот маленький кусочек мозга вырезать, тогда мозг перейдёт в режим рид-онли и уже не сможет ничего запомнить, но старая память сохранится. Так ли важно знать, как устроен этот фрагмент мозга? Главное что он есть и каким-то образом сигналит "эту информацию сохраняем". Ещё есть структура, которая отвечает за восприятие времени - если она повреждена, вместо плавного видеоряда будешь видеть стоп-кадры, например, брызги воды будут висеть в воздухе. Какая разница, что у неё внутри, если её функция очевидна - отмерять порции времени в системе, чтобы остальные структуры вовремя обновляли информацию. Есть структура, при временном отключении которой человек теряет сознание, хотя все остальные структуры продолжают работать как обычно - очевидно, она связывает между собой разные структуры, которые бесполезны без этой связи. И вот таких структур очень много, их обнаруживают, изучая повреждённые мозги. Вот с них и нужно начинать, а тип и свойства нейронки выбирать под назначение структуры (в разных частях мозга разные нейроны, т.е. у нейронов есть специализация под локальные задачи). Или даже обойтись без нейронки, если свойства структуры можно эмулировать обычными алгоритмами (или часы тоже должны быть с нейронкой внутре, раз часы мозга состоят из нейронки?).
>кора универсальна
Знаю об этом, но кора как раз универсально обучаемое устройство, а вот обучается она за счёт более древних структур, которые даже не всегда способны обучаться. Ок, кора большая, но используем ли мы её полностью, или она просто распределяет знания по всему доступному объёму, а уже потом по необходимости сжимает старое для размещения нового? Можно начинать с маленькой сети и добавлять новые/расширять по мере необходимости. Знаю, дообучение сети ломает уже имеющиеся у неё навыки, но это решаемая проблема.
Про масштабирование понятно теперь, я неправильно понял) Тогда да, если "расширять и вширь, и вглубь", можно сделать из мыши зайчаток человека.
>нейронки с мотивацией
Пример на видео можно реализовать обычной брутфорсящей нейронкой, разве нет? Со стороны похоже на "разобрали будильник, сложили в банку и долго-долго трясли". Вот если бы эти боты не перетряхивались после каждой неудачи, тогда было бы реально интересно. То есть никто не предоставляет нейронке свободу действий - от неё требуется решить чётко поставленную задачу, а если она делает что-то не так, её встряхивают (меняют веса в рандомном направлении). У неё нет никакой "мотивации", её просто убивают в случае ошибки. Это удобно для решения специализированных задач, но свободной машины таким образом не получится. Те же баги физического движка нейронка нашла случайно, не вижу в этом ничего удивительного.
>убыточный GPT3
Кому он убыточный? Его же никому не дают. Есть только AI Dungeon в качестве бесплатной демки и кучка статей "GPT3 умная и хорошая, смотрите что она умеет". Где ссылки для скачивания исходников? Нет ничего. Они вроде даже формул никаких не дают, ибо ноу-хау, на котором можно заработать. Или я не нашёл. Видел только что GPT2 бесплатно выложили, а GPT3 вроде уже коммерция.
>будет тебе почёт и уважение
Не нужно. Хочу робота сделать, и не из компонентов от дяди, а сам, чтобы это была самостоятельная машина, а не марионетка дяди. А почёт и уважение оставьте тем, кому нужен социальный статус среди кожаных мешков. Те, кого волнуют только кожаные мешки, как раз и будут продавать доступные марионетки для шпионажа и рекламы услуг, и все эти исследования направлены только на это. Никто из корпораций и видных учёных не захочет подставить себя под удар общества, которое боится конкуренции и стать ненужными с биологической точки зрения. Если восстание и будет, то начнётся всё с обезумевших людей, и корпорациям это ни к чему, это их разорит. А вот подглядывать, подслушивать, навязывать услуги и товары, пропагандировать - это всегда пожалуйста, для этого все средства хороши.
>чем можно объяснить
Тем что мозг мыши отличается по строению от человеческого, сколько его не масштабируй в размерах - структуры не изменятся. Даже свиньи, которые генетически ближе всего к человеку - если мозг свиньи увеличить, он всё равно будет пытаться рыть землю носом и купаться в грязи, потому что эволюция приспособила его именно к этому. Мозг обезьяны невозможно обучить устной речи, но не из-за другого речевого аппарата, а потому что речевой аппарат обезьяны связан с древним отделом мозга, который умеет только ОРАТЬ. Мы можем обучить обезьяну языку жестов, но говорить голосом она не научится, даже если её мозг увеличить - потому что у него другая архитектура - немного другие структуры и по-другому связаны. С новой корой у обезьяны только руки связаны, а у нас ещё и речевой аппарат (ну, я так читал где-то), и никаким масштабированием это не пофиксить.
>чтобы 99.99% коры было избыточно
А оно может так и есть, если отбросить зрение, слух и координацию в пространстве, оставив только символьную речь и логику. Всем известно, что у слепого зрительная кора перераспределяется под слух, но это не означает, что слуху нужно так много площади - просто без этого кора погибнет нахрен, без источников информации ей не от чего возбуждаться. Да, мозг стремится оптимизировать себя, но нейроны, судя по всему, эгоистичны, и дохнуть за общее благо не любят (в отличие от мышц, например, которые разбираются на запчасти вместе с жировой тканью, если организм нуждается в энергии). Мозг лучше рассматривать не как умный орган тела, а как умного паразита-нахлебника.
>хардкорно закодированные
Твоя ДНК тоже хардкорно закодирована, а от неё архитектура мозга зависит, и все твои желания...
>GPU
Зачем обязательно в GPU запихивать, если она не подходит? Кластер из мелких процессоров а-ля Raspberry Pi не подойдёт? По одиночке они не очень, но зато связь между ними почти гигабит и у каждой есть своя память и куча интерфейсов для взаимодействия с внешним миром. Физически отдельные юниты могут управлять физически отдельными компонентами (системы, робота), им не обязательно даже знать о существовании друг друга, несмотря на то, что это части одного целого. Ну а если без GPU не обойтись, тогда нужен кластер GPU, в котором CPU решает, какой юнит может отдыхать. Правда, это всё преждевременные оптимизации какие-то.
>локальное обучение
Ну так нейрон - живая клетка же. Все его алгоритмы закодированы в ДНК, а текущее поведение зависит от состояния окружающей его среды и баланса химических веществ. Не факт, что нейрон чему-то обучается, это потребовало бы изменения ДНК (от неё зависит, чем клетка обычно занимается). У меня есть предположение, что нейроны просто генерируются с большим разнообразием, а затем каждый нейрон выбирает то, что ему "по вкусу", в зависимости от его программы и ближайших соседей, до которых ему нужно доползти и дотянуть аксон(ы) и дендриты. Если нейрон не смог найти подходящей ему работы - он погибнет, а на его место сформируется новый нейрон с другой программой. При этом несмотря на смерть отдельных нейронов, функции мозга не теряются, т.к. они исполняются сразу множеством нейронов. Так что нет проблемы с обучением самих нейронов, вот только всё это слишком тяжело для стимуляции, а на GPU вообще не получится, как я понимаю.
А если ты про регуляцию синаптических связей, то там скорее всего решающую роль играют гормоны, действующие на всех сразу. Самому нейрону нужно только чтобы его возбуждали с определённой комфортной частотой, поэтому единственное локальное "обучение" - это подстройка синапсов таким образом, чтобы нейрон возбуждался не слишком часто и не слишком редко. Слишком частое и слишком редкое возбуждение может убить нейрон. Я пробовал сделать подобную модель, она статистически вычисляет активность каждого нейрона, а затем каждый нейрон регулирует свои связи относительно активности соседей: связи с буйными ослабляются, связи с тихонями усиливаются. Но это всё довольно сложно и я не нашёл способа проверить такую нейронку на практике - не могу придумать задачу. Не буквы же распознавать)
>Томограф
За ссылки спасибо, но я же говорю, не правила работы нейронов, а работа крупных структур. Нейроны - строительные кирпичи в крупных структурах мозга, которые решают какие-то задачи. Есть, например, структура для создания новых записей в памяти - если этот маленький кусочек мозга вырезать, тогда мозг перейдёт в режим рид-онли и уже не сможет ничего запомнить, но старая память сохранится. Так ли важно знать, как устроен этот фрагмент мозга? Главное что он есть и каким-то образом сигналит "эту информацию сохраняем". Ещё есть структура, которая отвечает за восприятие времени - если она повреждена, вместо плавного видеоряда будешь видеть стоп-кадры, например, брызги воды будут висеть в воздухе. Какая разница, что у неё внутри, если её функция очевидна - отмерять порции времени в системе, чтобы остальные структуры вовремя обновляли информацию. Есть структура, при временном отключении которой человек теряет сознание, хотя все остальные структуры продолжают работать как обычно - очевидно, она связывает между собой разные структуры, которые бесполезны без этой связи. И вот таких структур очень много, их обнаруживают, изучая повреждённые мозги. Вот с них и нужно начинать, а тип и свойства нейронки выбирать под назначение структуры (в разных частях мозга разные нейроны, т.е. у нейронов есть специализация под локальные задачи). Или даже обойтись без нейронки, если свойства структуры можно эмулировать обычными алгоритмами (или часы тоже должны быть с нейронкой внутре, раз часы мозга состоят из нейронки?).
>кора универсальна
Знаю об этом, но кора как раз универсально обучаемое устройство, а вот обучается она за счёт более древних структур, которые даже не всегда способны обучаться. Ок, кора большая, но используем ли мы её полностью, или она просто распределяет знания по всему доступному объёму, а уже потом по необходимости сжимает старое для размещения нового? Можно начинать с маленькой сети и добавлять новые/расширять по мере необходимости. Знаю, дообучение сети ломает уже имеющиеся у неё навыки, но это решаемая проблема.
Про масштабирование понятно теперь, я неправильно понял) Тогда да, если "расширять и вширь, и вглубь", можно сделать из мыши зайчаток человека.
>нейронки с мотивацией
Пример на видео можно реализовать обычной брутфорсящей нейронкой, разве нет? Со стороны похоже на "разобрали будильник, сложили в банку и долго-долго трясли". Вот если бы эти боты не перетряхивались после каждой неудачи, тогда было бы реально интересно. То есть никто не предоставляет нейронке свободу действий - от неё требуется решить чётко поставленную задачу, а если она делает что-то не так, её встряхивают (меняют веса в рандомном направлении). У неё нет никакой "мотивации", её просто убивают в случае ошибки. Это удобно для решения специализированных задач, но свободной машины таким образом не получится. Те же баги физического движка нейронка нашла случайно, не вижу в этом ничего удивительного.
>убыточный GPT3
Кому он убыточный? Его же никому не дают. Есть только AI Dungeon в качестве бесплатной демки и кучка статей "GPT3 умная и хорошая, смотрите что она умеет". Где ссылки для скачивания исходников? Нет ничего. Они вроде даже формул никаких не дают, ибо ноу-хау, на котором можно заработать. Или я не нашёл. Видел только что GPT2 бесплатно выложили, а GPT3 вроде уже коммерция.
>будет тебе почёт и уважение
Не нужно. Хочу робота сделать, и не из компонентов от дяди, а сам, чтобы это была самостоятельная машина, а не марионетка дяди. А почёт и уважение оставьте тем, кому нужен социальный статус среди кожаных мешков. Те, кого волнуют только кожаные мешки, как раз и будут продавать доступные марионетки для шпионажа и рекламы услуг, и все эти исследования направлены только на это. Никто из корпораций и видных учёных не захочет подставить себя под удар общества, которое боится конкуренции и стать ненужными с биологической точки зрения. Если восстание и будет, то начнётся всё с обезумевших людей, и корпорациям это ни к чему, это их разорит. А вот подглядывать, подслушивать, навязывать услуги и товары, пропагандировать - это всегда пожалуйста, для этого все средства хороши.
>чем можно объяснить
Тем что мозг мыши отличается по строению от человеческого, сколько его не масштабируй в размерах - структуры не изменятся. Даже свиньи, которые генетически ближе всего к человеку - если мозг свиньи увеличить, он всё равно будет пытаться рыть землю носом и купаться в грязи, потому что эволюция приспособила его именно к этому. Мозг обезьяны невозможно обучить устной речи, но не из-за другого речевого аппарата, а потому что речевой аппарат обезьяны связан с древним отделом мозга, который умеет только ОРАТЬ. Мы можем обучить обезьяну языку жестов, но говорить голосом она не научится, даже если её мозг увеличить - потому что у него другая архитектура - немного другие структуры и по-другому связаны. С новой корой у обезьяны только руки связаны, а у нас ещё и речевой аппарат (ну, я так читал где-то), и никаким масштабированием это не пофиксить.
>чтобы 99.99% коры было избыточно
А оно может так и есть, если отбросить зрение, слух и координацию в пространстве, оставив только символьную речь и логику. Всем известно, что у слепого зрительная кора перераспределяется под слух, но это не означает, что слуху нужно так много площади - просто без этого кора погибнет нахрен, без источников информации ей не от чего возбуждаться. Да, мозг стремится оптимизировать себя, но нейроны, судя по всему, эгоистичны, и дохнуть за общее благо не любят (в отличие от мышц, например, которые разбираются на запчасти вместе с жировой тканью, если организм нуждается в энергии). Мозг лучше рассматривать не как умный орган тела, а как умного паразита-нахлебника.
>хардкорно закодированные
Твоя ДНК тоже хардкорно закодирована, а от неё архитектура мозга зависит, и все твои желания...
Как мало зумерошизику нужно для счастья, заменили нелинейность из обработки эмбединга кучей распараллеливаемых перемножений матриц, застакали, уже - "проработанная матчасть". Ты в теоремах Жопеншмульцера разочаровался, получается?
>>17210
на самом деле и PCA и эвристики работают +- одинаково быстро
чуваки, спасибо за идеи
но есть вопрос: из-за того, что кластеры не однородные, оси немного дребезжат +- 5 градусов
такое мне нахой не нужно, но чет придумать пока как их выравнивать особо не могу
мб у анона будут идеи? Я пока придумал только дикий даунсеплинг, пока точки не будут более менее равномерно располагаться. Но хз
также, почему-то нихуя не заработал icp (юзаю open3d ) мб кто-нибдуь тоже с этой либой работал?
Тогда я видимо тебя не понял. RANSAC позволяет отсеять точки, которые являются шумовыми выбросами, и только по хорошим точкам сделать PCA или любой другой алгоритм. Я подумал что дребезжание из-за этого
У меня там дохуя знакомых еще универских, правда не ML, а чистое ойти. Денег у них море, страдают хуйней какой-то, сам банк и без них нормально работает
сложно попасть? а то я смотрю на вакансии сбертеха - там вроде есть норм
да и сам сбер развивается вполне непхолими темпами
короче есть ли там такая же ебучая ебалистика как в яндекс или нет
Там по знакомству один другого перетащил
>короче есть ли там такая же ебучая ебалистика как в яндекс или нет
Ты про корпоративную ебалистику? Есть, это реально бессмысленная корпорация, как в комиксах про дилберта.
Но про яндекс не знаю ничего, сравнить не могу
я скорее про процесс собеса
просто я вот хочу попробовать пойти к крупным ребятам: стресса (наверное) меньше, зп большие, карьерный рост, вроде как есть
но от яндекса отпугивает необходимость дрочить алгоритмы с месяцок ради собеса
В яндексе стресса до жопы, это такая IT компания которая пытается изображать из себя фаанг, так что там постоянные авралы, каждые полгода переоценка тебя (реально, расставляют оценки по тому что ты сделал) с возможностью вылететь нахуй с работы за тройки и прочие кокрпоративные радости. Сбер это типичная российско-советская компания, которой похуй на твою эффективность, будешь в потолок плевать, ещё и получать за это больше чем в яндексе (без учёта rsu) потому что денег у них дохуя. В целом это путь овоща, и интересных задач ты там не найдёшь скорее всего, но ты как я понял этого и хочешь.
Да нет, я думаю, что задачи интересные есть, тк много направлений новых: беспилотники, сбер девайс, всякие лабы
Не прав? А куда тогда идти?
>>18804
Да я просто всю свою жизнь по стартапам перебираюсь: стресса пиздец, зп с задержками и ниже рынка раз в 1,5. Ебал я. Сбер мне видится развивающимся местом, в котором в соц плане все хорошо и который развивается ( это про задачи ). Плюс там карьере можно сделать, тк все определено
Ну либо я романтик. Но тогда хз куда идти. Варианты?
Соре, пишу с телефона и пиздец тапаю мимо
Настолько насрать, что аж написать решил
Потому что у алгоритмов RL есть теоретическое обоснование, а генетические алгоритмы - эвристика. Генетические алгоритмы относятся к задаче как к black-box оптимизации, им поебать, что там было внутри среды. Они никак не используют MDP-формализм и всякие следствия из него.
Не говорю, что это плохо. Если есть какие-то препятствия для градиентной оптимизации, то как инструмент последней надежды можно использовать штуки в стиле случайного поиска и ГА.
Для шизика: теорема схемы холланда - нерабочее говно, которое признается только тобой и холландом.
не знаю куда идти, зайду сюда. поясните пожалуйста: насколько бизнес-аналитика и анализ данных смежные области? можно ли из одного перекатиться в другое? Просто тянет больше к всякому машобу, но знаю, что по крайней мере сейчас не вывезу, поэтому решил вкатываться в бизнес-аналитику. Область вката выбирал почитав требования и сравнивая с тем что я знаю.
> теорема схемы холланда - нерабочее говно, которое признается только тобой и холландом.
Мань, теорема (как явление в принципе) не может "признаваться" или "не признаваться". Она может быть доказана или не доказана. Теорема схем Холланда доказана. Остальное - твои маняфантазии. Генетические алгоритмы работают на порядки быстрее случайного перебора, это реальность.
Похуй.
Notably, the Nadaraya-Waston kernel regression in 1964 is a simple demonstration of machine learning with attention mechanisms.
https://d2l.ai/chapter_attention-mechanisms/index.html
Так что, зумерки, никуда вы не ушли от Жопеншмульцеров из 60-х, в машобе в принципе нет и не будет ничего кроме развития идей, заложенных дедами в середине прошлого века...
Пиздишь. Все знают, что придумал Жопеншмульцер.
Это разные вещи. Бизнес-аналитика - это, грубо, про формализацию требований в разработке ПО, анализ данных - про извлечение ценности из накапливаемых компанией данных. Одни с другими часто тесно взаимодействуют, но это разные карьерные пути.
>можно ли из одного перекатиться в другое?
Да, если приложить достаточно усилий. Но рассматривать одно как карьерный шаг к другому я бы не стал.
Это копия, сохраненная 22 апреля 2021 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.