Аноны, что думаете по этому поводу?
inb4: Заводчане осилившие регистрацию в OpenAI vs. IT-бояре.
Предыдущий тонет тут: https://2ch.hk/pr/res/2994560.html (

не понял смысл картинки #2 это показывает этапы замены? типа сначала заменили кофевара на кофеварку, потом заменят челов на авточелов? и что означают выражения лиц персонажей на картинке?
Ну мне нравится код писать, комбинировать, самому чето придумывать даже если кто-то уже такое делал. Мне нравится не только "решение задач полезных бизнесу", но и сам процесс. ИИшка меня этого собирается лишить, для себя я не вижу смысла заниматься кодингом за деньги. Я понимаю что я в меньшинстве, большинству поебать на сам кодинг
Вайб кодер в треде
Ты же проходил историю в школе и знаешь, что меняется абсолютно любое ремесло людей.
Вот сейчас активно будет меняться айтишка. Ну будет 90% писанины роботами, да и хуй с ним. Повылетают апездалы нихуя не делающие со своих нагретых мест и которые пришли только ради бабок.
Ну трудится все будут, а не писюны рисовать в пэинте на месте тимлида.
Если любишь коддинг, то тебе поебать будет, работу не потеряешь.
В общем нихуя страшного, штаты поедут в несколько раз и все продолжится, как сейчас.
держи нас в курсе


>конкретно программирование (каким я его любил) вероятно уйдёт в прошлое
А мне наоборот заебись что теперь я могу легко программировать на голанге, на иптоне, на жс, сразу на любом фреймворке, на сикеле, на регулярочках, на баше, при этом докерфайл пишу, манифест в кубы пишу и если надо. Рил золотой век погромирования.
Переубеждать тебя смысла больше не вижу. Я тебе сказал: 3ч на достаточно сложного бота с асинхронами и прочей ебалой (он тебе сам написал, что делал).
Не веришь - мне то заебись. Тем лучше шатать рыночек на всяких Авито.

В секс-индустрии всегда хорошо платили и платят, так что всем питон, жава, жавасрикт, сишрамп и т.д программистам приготовиться, останутся в живых лишь те, кто пишут на языках типа Си(не жавахуй и не сишрамп) и Раста, остальные на трассу уйдут продавать своё очко(ну, или пизду)
>достаточно сложного
>бота
>с асинхронами
Вот это да, там же, наверное, натуральный рокет саенс - БОТА, да ещё и с АСИНХРОНАМИ! Ну точно гопота нас всех заменит теперь.
> Вот это да, там же, наверное, натуральный рокет саенс - БОТА, да ещё и с АСИНХРОНАМИ! Ну точно гопота нас всех заменит теперь.
От твоего сарказма ничего не поменяется))0)
Ещё 1.5г назад это было почти невозможно, а если возможно, то с десятками промптов над одной задачей.
Тогда такие как ты смеялись, что он 100 строк кода без косяков не напишет, даже на питоне. Сейчас смеются, что делает даже при помощи рук нуба готового бота.
Пройдет 1.5 года, нейронки продвинуться ещё до какого горизонта. Интересно, в какой момент ты перестаешь отрицать то, что мир уже не будет прежним и что айтишка скоро потеряет блеск и флёр? Это станет обычной РАБотой как до 2010х.
>Скажу честно - мне обидно от того, что конкретно программирование (каким я его любил) вероятно уйдёт в прошлое.
А я даже рад, что поколение старых пердунов сишников или, хуже того, лисперов с их рассказами о том, как "раньше было лучше", наконец-то сдохнет. Айтишка — это бесконечный склад старых пердунов, зашоренных, ограниченных, и необучаемых, которым 25 лет, они, сука. год-два назад выучили модный JS тулкит, созданный три года назад, и теперь это для них лучший и единственный инструмент в галактике, они будут всё программирование мерять своим ебаным solid.js, next.js, или ещё какой-то хуйнёй — всё, это уже старые пердуны в 25 лет, просто их единственное и незаменимое видение мира ещё не очевидно устарело, а вот спустя 10-20 лет оно очевидно устареет. И тогда они станут такими же сишниками-лисперами с расказами про "вот раньше был фронт другой, настоящий, совсем не такой как сегодня".
Вся эта ML параша ведь взлетела не потому, что это какая-то магическая технология сама по себе, а потому, программирование в стиле "машина Тьюринга" остановилось в развитии ещё 30 лет назад, и уже настолько не масштабируется, что даже охуенно неэффективная видеокарта, на КАЖДЫЙ токен пересчитывающая уже в трёхсотый раз все матрицы внимания, оказывается эффективнее однопоточной однозадачной хуйни на C++, и тем более на питоне.
Только не надо мне рассказывать про "вот есть потоки же ж" — да, есть, только они настолько ненадёжные и настолько ебливые в отладке, что их используют только по особым праздникам, и чаще в каком-то внешнем триста раз отлаженном софте (вроде операционной системы, как это делается в асинхронщине на питоне).
>Ну мне нравится код писать, комбинировать, самому чето придумывать даже если кто-то уже такое делал. Мне нравится не только "решение задач полезных бизнесу", но и сам процесс. ИИшка меня этого собирается лишить, для себя я не вижу смысла заниматься кодингом за деньги.
Чем она тебя лишает возможности комбинации? ИИ очень хуёво комбинирует и решает архитектурные задачи.
Да, ИИ ещё больше усилит подход "чем писать алгоритм под задачу, лучше ёбнем старый код из гугла", из-за чего прогресс по фундаментальным технологиям ещё больше замедлится (кому нужен ваш ЯП Crystal, если ни одна нейросетка под него не умеет писать код?). Но эта тенденция была и без ИИ — кризис в западном мире идёт уже давно, он ещё до короновируса начинался.
>Ведь жптишка всё нагенерит - и код, и домашку, и поздравление на др, и т. д.
Да и хуй с ней, я списывал в школе у одноклашек, теперь дети будут списывать у чатгпт. Школа отупляет в любом случае.
>Вот сейчас активно будет меняться айтишка. Ну будет 90% писанины роботами, да и хуй с ним. Повылетают апездалы нихуя не делающие со своих нагретых мест и которые пришли только ради бабок.
На самом деле в мире есть тенденция исламизации, когда белых людей заменяют дикарями с кораном для выполнения грязной работы, плодовитость белых людей снижают. Потому что раньше были высококвалифицированные операторы-сантехники, которые выполняли средней сложности работу, не заменяемую машиной, а теперь эта работа заменяется машиной и эти операторы стали не нужны. И в том числе вечные джуны являются теми самыми операторами-сантехниками без мозгов. В ближайшее время НЕ-кодеры охуеют намного больше, чем кодеры, потому что целые профессии вымрут, вроде оператора поддержки — просто нужно время на то, чтобы все алгоритмы работы оператора поддержки формализовать и вложить в программу обучения нейросетки. А кодеры по прежнему нужны будут для проектирования, наладки, и поддержки этих систем.
Я ещё десять лет назад работал в конторе, занимавшейся электронным документооборотом и CRM, суть которого сводилась к тому, что из 20 человек в фирме 10 заменяются компьютером, выполняющим тупейшую работу по "перекладыванию бумажек", то есть, ведения документации, бухгалтерии, формирования отчётов, etc. Это было безо всяких ИИ. Это не вчера началось, и исламизация не вчера началась:
https://tass.ru/politika/559585 — 2012 год, указ презика.
>Буквально михалычи 40 лет с опытом работы в пятерочке кодируют себе работающую аппликуху чисто на промтах. И это блин работает. С первого раза? Нет. Без багов? Нет. Понимает ли михалыч, что его программа делает? Нет. Претендует ли михалыч на место кодера? Нет! Нахуя теперь нужны кодеры и кодерские галеры, если михалыч с образованием 7 классов может надиктовать голосовухой ИИшке че делать,
Хуйня, которую михалыч надиктовал нейросетке, не работает и не заработает, даже со следующими поколениями нейросеток. Чтобы эта хуйня заработала, к михалычу нужно приставить программиста, который будет разбирать высранную нейросеткой парашу и превращать её в рабочий код. А если задача вдруг нестандартная и в гугле нет хотя бы похожего решения, то всё. пиздец, приплыли, нейросетка не способна выдать оригинальный алгоритм, она только пересказывает и комбинирует известные ей.
Я вроде писла в прошлом треде, но могу повторить: ещё Дейкстра говорил, что мерять производительность по строчкам кода — это тупость, потому что чем больше программа — тем она хуже; есть некий бюджет проекта, доступное ему число строчек кода, которое возможно поддерживать; и вот тупая пизда или Михалыч с ИИ совершенно бездарно проебывает этот бюджет, он работает в огромный минус, создавая проблем как пять программистов, пишущих руками, и никак не разгребает эти проблемы.
Доходит до того, что в отдельных конторах банят фаерволом нейросетки, потому что школота заебала комитить хуёвый код, который потом приходится кучу времени чистить и дорабатывать.
Или, как правильно написали вот в этом треде:
>>3441825 (OP)
>С появлением LLM некомпетентность перестала оплачиваться
То есть, всё как раз наоборот — конторы очищают от михалычей, потому что михалычем теперь может быть любой, а делать рабочий код — немногие.
Пидарасы, которые наживаются на колхозах в 2 млн человек, говорящих на своём уникальном языке, должны были умереть, как и сам этот барьер. Слава богу, что это случилось.
>А мне наоборот заебись что теперь я могу легко программировать на голанге, на иптоне, на жс, сразу на любом фреймворке, на сикеле, на регулярочках, на баше, при этом докерфайл пишу, манифест в кубы пишу и если надо. Рил золотой век погромирования.
Онан, подскажи норм сетуп под эту хуйню? Я до сих пор через бравзер руками делал запросы, сильно хуйня получалась. Может средства для автоматизации лучше этот процесс обрабатывают? Я вот смотрел работу питониста с copilot в 2023 году на ютьюбе, так ему нейросетка только самую очевидную шаблонную хуйню подсказывала, периодически ошибаясь в своих подсказках. Оно всё ещё на том же уровне или этот кал всё-таки подтянули до удобноваримого состояния?
Я уже потерял счёт, сколько я нейросеток перепробовал, даже локально маленькую у себя запускал — всё хуйня. Ну то есть иногда она помогает, ошибки странные может расшифровать (но не исправить), бойлерплейт выплюнут для дальнейшей доработки — но не более того.
>Вот это да, там же, наверное, натуральный рокет саенс - БОТА, да ещё и с АСИНХРОНАМИ! Ну точно гопота нас всех заменит теперь.
Я уже отвечал в прошлом треде, что сама нейросетка считает нереальным написание надёжного кода со сложными асинхронными переходами состояний нейросеткой. Хуйню с неизвестной работоспособностью писали на апворках много лет назад безо всяких нейросеток.
>>50734
>Ещё 1.5г назад это было почти невозможно, а если возможно, то с десятками промптов над одной задачей.
Так и сегодня это десятки промтов, просто многие из них автоматически выполняются. Тот же чатгпт умеет внутри себя запускать код вместо того, чтобы код запускал кодер и копипастил ошибки. Правда, по мере роста сложности чатгпт перестаёт быть способным самостоятельно запускать код.
>Тогда такие как ты смеялись, что он 100 строк кода без косяков не напишет, даже на питоне. Сейчас смеются, что делает даже при помощи рук нуба готового бота.
И сейчас смеюсь. Нет, она не может написать 100 строк без косяков. Насколько быстро и качественно эти косяки правятся — это другой вопрос. Если скорость выросла, то качество — не особо, очень часто исправление одной ошибки создаёт другую ошибку.
Все нейронки одинаковые, ты ей промт - она тебе образец кода. Как правило, код с проблемами, если ты явно не указал на проблемы в промте, в коде будет хуйня. Халявы не будет, ИИ - это джун, за которым надо ревьюить каждую строку.
Тут есть два класса тулз:
text2text - это все чаты, автокомплиты и так далее. Там ты способен глазами оценить что пошло на вход в контекст, что сеточка высрала, дать мгновенный аппрув/реджект. Это сегодня как бы база. В это легко вкатиться любому. Это прекрасно контролируется. С этим справляются современны локальные модели. Самый яркий представитель - continue.
code agent - это костыль который сам принимает решение какие файлы добавить в контекст, какие файлы отредактировать. Они хорошо работают только на больших внешних моделях типа кладуа/гпт. С ними надо учиться работать. Слепой вайб кодинг быстро поднасерет в проект. Надо следить за изменениями. Покрывать всё тестами, чтобы отлавливать регрессии. Им надо уметь делить задачи на подпункты. Писать хорошо детализированные техзадания, докладывать документацию, подсовывать уточнения. Нормально эффективно овладеть агентом удаётся спустя 2-3 месяца экспериментов. Из примеров: Cursor, Cline, Aider. Мне нравится aider, потому что им проще рулить при помощи /load инструкций.
Мне видишь просто задачки закрывать, а не на двачах самоутверждаться. Могу себе позволить.
>Тот же чатгпт умеет внутри себя запускать код вместо того
Технически это ничем не отличается от того что LLM сгенерит тебе код и ты запустишь его локально.
> Аноны, что думаете по этому поводу?
Нейронка никогда не заменит программистов, говорю как нейронка
>сейчас все больше говорят
А до этого слыхом не слыхивали https://2ch.hk/pr/res/3429171.html (

Отрицать что?
>Замены программистов нейросетями тред
Что значительная часть неквалифицированных необразованных вебмакак, ничем, кроме умения кодировать на жс/джава/питухон/говно/etc, не отличающихся от рагуля с тремя классами (т.н. веб-девелопидоров и прочих фронтендеров), скоро потеряет работу? Так это никто не отрицает, глаза разуй. Никто ведь все эти годы не пытался ВКАТИТЬСЯ, например, в биоинформатику - очевидно, что это невозможно для вчерашнего таксиста - вместо этого быдло вкатывалось в круд девелопмент и покраску кнопок, потому что это элементарно, там не подразумевается никаких пререквизитов, кроме умения писать скрипты, которое можно освоить за несколько месяцев. Поголовье этих кодерков гопота заметно сократит в этом десятилетии, кто бы спорил - оно и до гопоты начало дешеветь по очевидным причинам. Что сказать-то хотел?
Ну реально, вот ты сейчас обдал поносом все языки. А что по твоему надо делать? Что по твоему хороший выбор? Что ты предлагаешь?
Даже не знаю что хуже: сидеть на дваче или писать говнокод на высокоуровневой параше
> 2к25 год от изобретения трансморферов
> @
> разработка превратилась в описательные сверхвысокоуровневые спецификации
> @
> харкачеры всё ещё гордятся тем, что байты двигают
>text2text - это все чаты, автокомплиты и так далее. Там ты способен глазами оценить что пошло на вход в контекст, что сеточка высрала, дать мгновенный аппрув/реджект. Это сегодня как бы база. В это легко вкатиться любому. Это прекрасно контролируется. С этим справляются современны локальные модели. Самый яркий представитель - continue.
Поставил Continue с Ollama и накатил на него Deep Coder 6.7B. Смог найти проблемную строчку кода, но не смог предложить ничего адекватного.
Попробовал тот же код засунуть в Claude 3.7 — тоже полная хуйня, нашло проблемные строчки, но вместо исправления предложило кучу совершенно бесполезных правок. (Я уже руками исправлял этот код, потому точно знаю все ошибки в нём)
В общем, удачи вам с вашими байками про Иван Михалыча, который вебсайты пишет думя промтами нейросетке. Как будут пруфы — приносите, посмотрим. Пока что революция роботов отменяется.
>code agent - это костыль который сам принимает решение какие файлы добавить в контекст, какие файлы отредактировать. Они хорошо работают только на больших внешних моделях типа кладуа/гпт. С ними надо учиться работать. Слепой вайб кодинг быстро поднасерет в проект. Надо следить за изменениями.
Во-во, "следить за изменениями" — это не то слово. Там с лупой нужно просматривать каждое слово в правках, которые эта параша предлагает. В том числе потому, что она умеет предлагать совершенно бесполезные правки аля "дай поправлю тебе coding style". Что вообще этот code agent может ускорять? Очевидные ляпы в проектах уровня hello world? Нажать Ctrl+C, а потом Ctrl+V я могу и без нейросетки.
Серьёзно, я сейчас не пытаюсь никого выстебать, я хочу увидеть, как эта параша ускоряет и упрощает что-то там вне маркетинговых презентаций от самого производителя инструмента. Пока что у меня всё заканчивалось на "пошло оно нахуй — быстрее руками исправлю".
>Что значительная часть неквалифицированных необразованных вебмакак, ничем, кроме умения кодировать на жс/джава/питухон/говно/etc
"Умение кодировать на языкнейме" — это вообще неизвестный науке зверь. Как определить, умеет ли юзернейм кодировать на языкнейме или нет? По скорости написания hello world? По знанию стандартной либы наизусть? Что это за критерий вообще такой "знание языка"? Кто его "знает" и кто его "не знает"?
Нейросеть может быстро накидать типовое решение. Например, мне надо на C# отправить запрос, получить джейсон и отмаршалить его в массив структур. По памяти я ебал это писать, а нейросеть мгновенно выдала код, копируй и используй. Надо мне заюзать инмемори бд - да не вопрос, вот пример. Портянки ямлов пишутся за секунду, красота. В гугле сам заебешься искать, там все засрано инфоциганами с курсами, нейронка теперь новый поисковик.
>Например, мне надо на C# отправить запрос, получить джейсон и отмаршалить его в массив структур. По памяти я ебал это писать, а нейросеть мгновенно выдала код, копируй и используй.
Как хорошо, что я не работаю в ебанутых парашах, где на каждый чих и пук делают HTTP запрос и парсят текстовой кал в ответе (в 2025 году). Но если бы работал, то, наверное, мне бы нейросеточка пригодилась.
>В гугле сам заебешься искать, там все засрано инфоциганами с курсами, нейронка теперь новый поисковик.
Вот тут плюсую, интернет стал непролазной помойкой, гуглить что-то уже бесполезно.
Пишу бота для монетизации одной ниши, в которой никого нет. Крупный пиздец. Заебался. ИИ тоже заебался. Уже 300к токенов ушло на общение.
Хз что получится в итоге, но пока всё хорошо.
Напоминаю:
Питонщики идут нахуй
Ну правильный подбор стека и правильно описание задач позволит избежать бойлерплейта. У меня много раз руки опускались пились свои веб сайты, потому что сидишь день верстаешь кнопочки и уже остопиздело, а тебе за это даже не платят и хз выйдет ли какой то результат из твоего пет проекта.
А щас на курсоре хуячить прототипы на самых популырных и простых стеках типа next.js + tailwind (как раз это инлайн говно удобно для нейронок, чтоб по файлам не скакать и контексты не терять) очень быстро можно. Сварганить сайтец за выходные без боли это кайф + сложно быть фуллстеком + девопсом и помнить все 100500 форматов конфига и прочего. Где глубокие знания не нужны нейросетка выдаст тебе простой конфиг деплоя и прочего и тебе не надо на пол дня зарывать в доку на каждый чих.
Тоже кекаю что в профильном треде в 2025 кто-то до сих пор пользуется этой терминологией. У среднего разработчика занние языка где-то далеко зарыто в приоритетах скилов. Коммуникация, понимание рабочих процессов, адаптивность, жонглирование десятком тулзов, аналитика, перечислять можно бесконечно. Последние 2 раза когда я устраивался в бигтех всем вообще было поебать что у меня в кокнретно языке / фремворке нет или мало опыта, потому что это наживается за пару месяцев онбординга. А пот понимание того как веб работает в целом, как раузеры код переваривают, как архитектуры на бекендах устроены, систем дизайн, хайлоуд проблемы - вот это все надо знать. Весь этот опыт в черепной коробке полезнее чем нейронка, потому что может выдавать решения и в том числе уметь нужный промпт написать.
Чмодератерам дали задание - постить посты нейронкой. Сидят на досках, постят изредка, промты вбивают на разные личности, спорят сами с собой. Ору с этой хуйни
Ага, блядь. Модераторы постят, лишь бы ты не вкатился. Ёбаная блядота сумасшедшая. На дваче сказали, что за забором уже очереди из сеньёров, 500+ откликов и нихуя. Я просто не понимаю, для чего ты, дешёвая проститутка, тут пиздишь? Графики видел? Съебал нахуй, прихвостень назаровский. Резюме хорошее уже составил с ментором, долбоёбина безмозглая?
>Где глубокие знания не нужны нейросетка выдаст тебе простой конфиг деплоя и прочего и тебе не надо на пол дня зарывать в доку на каждый чих.
Еще раз повторюсь, что во фронте самое ебанутое то, что он намного сложнее, чем задача, которую он решает. Это идеальные входные параметры для языковой модели, которые, напоминаю, были созданы для интерпретации нерациональных языковых консьтрукций, которые можно только запомнить, их нельзя понять.
Нет, идеальные входные параметры это токены без всякой внутренней связи. Везде где есть глубокая внутреняя связанность - нейросеть будет сосать. И не важно фронт это или бек, сосать она будет всегда. Она даже не в состоянии посты писать нормально, если глубина понятий чуть-чуть отличается от примитивных языковых конструкций.
Другое дело если нейросеть будет писать в каком-нибудь нормальном фреймворке, который накладывает жесткие ограничения на глубину абстракций. Но таких не создали, так что LLM будут продолжать сосать.
>Она даже не в состоянии посты писать нормально, если глубина понятий чуть-чуть отличается от примитивных языковых конструкций.
Ты не поверишь, это мой каждодневный опыт на сосаке когда на мои посты отвечают, и не боты, а настоящие люди, но ответы точно как ты написал - высеры пориджей неспособных прочитать русский язык дальше пары слов, контекст уже проебан или вообще текст проигнорирован.
>Но таких не создали
Их сейчас активно изобретают. Гугли тот же Interoperable Literate Programming (ILP).
Я прямо вижу что через пару лет все модные хипсторские фреймворки начнут заменять плашки blazingly fast на llm friendly.
>Их сейчас активно изобретают. Гугли тот же Interoperable Literate Programming (ILP).
Ты видел, сколько нужно ёбли со вспомогательными описаниями, для того, чтобы эта поебень стала чуть менее тупой?
И что, и чего? Пердёж может научиться чему угодно, если его бить палкой. Нейросети современные будут пердеть на текущем этапе развития ещё очень долго.
>>57445
Дело не в синтаксисе, похуй на него, нейросети тоже похуй. Дело в вложенности логик. Саму логику программы нужно писать менее сложной, обозначить однозначное поведение. Это должны быть не только веб-компоненты, но и какие-то примитивные сигналы, которые уже подключены к этим компонентам. Хуй знает как описать, да ну и похуй, лень думать.
>И что, и чего?
Да это был лишь крик души. Так-то ты прав, я не спорю.
Просто познавательно как нейросети проявили человеческую суть, теперь людей есть с чем сравнить. Большинство людей болтают как нейросети, совершенно бездумно, а включают голову только ради выгоды или когда над жопой зависает угроза, но такое бывает редко, так что обычная человеческая компания мало отличается от чата с нейросетью, такой же безмозглый бессмысленный спам.
>Большинство людей болтают как нейросети, совершенно бездумно, а включают голову только ради выгоды или когда над жопой зависает угроза
Какая у тебя была выгода или угроза когда ты это писал?
Слыш я небыдло
>>Большинство людей
>>Большинство
Ну вот, наглядный пример безмозглых ботов, процитировал то, что сам прочитать не смог, в итоге написал бессмысленную хуйню. Ботоспам, и не от машины, а от бирмусорной нейросети, таковы люди, подавляющее большинство не думают никогда, кроме случаев когда их что-то жестко заставляет - алчность или страх.
Всё же нейросеть человека может гораздо большее. И мыслит она гораздо гибче, даже условные пердежи, видно что их мысли всё равно глубже даже в примитивном "я ебал твою мать".
Нейросеть всё ещё ограниченна. Объяснение одно - в нейросетях модель мира имеет меньше связей, вот тащемта и всё, нужно больше внутренней связанности между явлениями на всех этапах.
Мне кажется подобное бы работало, если бы трансформеры имели связи между всеми слоями. Но тогда трансформеры, как архитектура, обосрётся, наверное.
>Мне кажется подобное бы работало, если бы трансформеры имели связи между всеми слоями. Но тогда трансформеры, как архитектура, обосрётся, наверное.
Они и так имеют связи между всеми слоями. Входные параметры поступают на выходной слой, а выход из первого слоя поступает на деэмбеддер. Каждый слой по сути читает из этого канала и по желанию добавляет в него что-то своё.
Неправда. Протри глаза, >>58434 даже настоящая нейросеть так примитивно не пукнет, и так >>58076 тоже, даже нейросеть научили значению слова "большинство", она не считает это синонимом "все, без исключения" как биомусор с органическим мозгом хрюкает. Настоящая нейросеть выдает нормальные развернутые ответы где меньше ошибок, чем живые люди выдающие односложные фразы и полностью неправильные.
Еще раз повторяю, нейросеть человека гибче только ПОТЕНЦИАЛЬНО, только в рехких ЭКСТРЕМАЛЬНЫХ ситуациях когда биомусор припёрло, а в нормальной жизни, в нормальной обстановке, уступает компьютерным во всём.

> Они и так имеют связи между всеми слоями.
Разве? Если что я про пикрелейтед говорю.
> Входные параметры поступают на выходной слой, а выход из первого слоя поступает на деэмбеддер. Каждый слой по сути читает из этого канала и по желанию добавляет в него что-то своё.
Каждый слой читает, добавляет что-то и уже эти модифицированные данные опять и снова поступают в слой с которого они были взяты? Хм, нужно прочитать больше про эту хуйню.
Даже не знаю, почему тогда нейросети такие тупые? Потому что внутри слоёв прецептроны содержат мало нейронов?
>>58443
То про что ты говоришь это выброс гормонов и вот это вот всё, когда сети мозга в какие-то другие режимы работы входят, активируется множество слоёв. Но это явно не тот случай - любой человек может в глубину связей хоть прямо сейчас, офк не по всем темам, но может.
Твоё суждение по ответам рандомов и нейросетей это классика логических ошибок, ты принимаешь какие-то субъективные наблюдения и строишь на их основе предположения о работе нейронных сетей. Но эти субъективные наблюдения ничего не доказывают. Насрал кто-то односложной фразой, и чего, и что? Что с этого следует? Да ничего не следует.

>любой человек может в глубину связей хоть прямо сейчас, офк не по всем темам, но может.
"Может, но не делает" значит не может. Твои ПОТЕНЦИАЛЬНЫЕ выдумки это пустая брехня, иллюзии в шизоидном воображении. Даже народная поговорка есть "Если бы, да кабы, да во рту росли грибы"
Если по факту не делает >>58434 >>58076 , значит не может, это реальность. Прими реальность, а не выдумывай потенциальный бред.
"Нормальная обстановка" - насквозь синтетические комнатные условия? Ну так в таком фрейме и швейная машинка эффективнее человека, смотри как шьёт, ни одна швея не догонит. Это строго ограниченные функции, машинка шьёт, компилятор компилирует, сетка распознает картинки.
В "ум" нейросеточки можно было бы поверить, если бы ей на чистую сначала скормить только учебник языка, а потом попросить реализовать пару реальных кейсов без возможности пиздить у мясных мешков туеву хучу готовых фрагментов кода. А так это просто комбинирование уже готовых текстов. К функции "погугли за меня" добавили "а теперь собери это в кучу".
Швейная машина это инструмент, она ничего не шьет, это делает человек. Или станок с программным управлением, он кажется работает сам, но нет, он лишь выполняет заложенные человеком действия как шарманка, то есть работает человек, а не станок.
А нейросеть действует сама, сама думает и отвечает, причем по факту делает это лучше человека. И данный 2ch тому бесспорное доказательство. Я годами тут сижу и вменяемые ответы вижу 1-2 раза в год, а всё остальное время тупое кукареканье куда хуже нейросети.
И знаешь почему? Потому что нейросеть, хоть и тупая, но сделана давать ответы на вопросы. А люди не ставят целью отвечать на вопросы, они тут для чата поддерживать социальные линки просто перебрасываясь keep-alive пингами, содержание которых не имеет значения, важен только сам факт посылки сообщений. Поэтому люди совершенно не думают что пишут, им насрать, и заставить их думать невозможно, то есть думать они не могут. Таким образом, нейросеть во всём лучше, гораздо умнее людей.
Ты ебанулся.
Смотри внимательно за логикой. Ты делаешь предположения на основе субъективного опыта и строишь выводы которые ничем не обоснованы, кроме этого субъективного опыта. Получается ты не можешь в глубину рассуждений, так же как и окружающее быдло.
По твоим словам выходит что ты дебил который не может в глубину, ты охватываешь только поверхностные и простые мысли - "вижу посты @ строю предположения по ним".
Ты реально таким образом хочешь опускать себя?
>>59140
>причем по факту делает это лучше человека
Опять же, это субъективные наблюдения. Ты на основе субъективного опыта выстраиваешь целые манямиры. Чем ты тогда отличаешься от быдла, которое делает то же самое?
>нейросеть человека гибче только ПОТЕНЦИАЛЬНО, только в рехких ЭКСТРЕМАЛЬНЫХ ситуациях когда биомусор припёрло, а в нормальной жизни, в нормальной обстановке, уступает компьютерным во всём
Ну если с тобой сравнивать, то как бы да. Меня нейросетка давно не особо удивляла, и я даже строил потенциальные модели внутреннего устройства LLM исходя из этого моего эмпирического наблюдения. Модели совершенно неверные, как позже выяснилось, но наблюдения верные: Я считал, что LLM запоминает текста, выданные человеками, совершенно беспорядочно, без критики, просто слепо берёт текст и раскладывает его полочкам; полочки называются вроде "ответ на вопрос про оператор сравнения в Python с аргументами int и str". Далее, когда человек задаёт вопрос, соприкасающийся тем или иным образом с заученным вопросом, то нейросетка выдаёт заученный ответ.
Причём, формы ответов пунктами 1, 2, 3, 4 тоже быстро замыливают глаз, это не естественная форма человеческого ответа и ей очевидно отдельно нейросетку обучали.
Так или иначе, ключевой фактор здесь — это существование готового ответа, на котором нейросетка обучилась. Готового ответа нет — нейросетка "плывёт", то есть, начинает какую-то рандомную хуйню выдавать невпопад.
Какого хуя ты, кожанный мешок, этого не заметил — это вопрос к тебе. На банальных нестандартных задачах по большому тестированию 2022 года LLM выдали чудовищно хуёвые результаты по сравнению с экспертами — просто потому, что решений этих задач не было в тренировочных сетах, то есть "не было в гугле".
Справедливости ради, я тыкал ещё в те тупорылые нейросети, где все паталогии были достаточно хорошо заметны. В современных больших моделях они тоже есть, но их просто сложнее заметить.
Сейчас-то я понимаю их устройство, что там ещё и происходит заучивание логических связей, и таблица умножения от 0 до 9 заучивается, и примеры различных стилей текстов/языков/синтаксисов тоже заучиваются — как ни странно, написать стих в стиле Шекспира для LLM очень просто, сильно проще любой многоходовой логической задачи.
По сути это библиотекарь, который с большой скоростью ищет тебе логически связанные цитаты из книжки, и потом оформляет выжимку из цитат в запрошенном стиле. некоторые нейросетки такого поведения не скрывают и вполне открыто ищут инфу в гугле/твиттере, вроде Grok. Мне даже лучше, потому что у твиттера издревле был мегахуёвый поиск.
>нейросеть человека гибче только ПОТЕНЦИАЛЬНО, только в рехких ЭКСТРЕМАЛЬНЫХ ситуациях когда биомусор припёрло, а в нормальной жизни, в нормальной обстановке, уступает компьютерным во всём
Ну если с тобой сравнивать, то как бы да. Меня нейросетка давно не особо удивляла, и я даже строил потенциальные модели внутреннего устройства LLM исходя из этого моего эмпирического наблюдения. Модели совершенно неверные, как позже выяснилось, но наблюдения верные: Я считал, что LLM запоминает текста, выданные человеками, совершенно беспорядочно, без критики, просто слепо берёт текст и раскладывает его полочкам; полочки называются вроде "ответ на вопрос про оператор сравнения в Python с аргументами int и str". Далее, когда человек задаёт вопрос, соприкасающийся тем или иным образом с заученным вопросом, то нейросетка выдаёт заученный ответ.
Причём, формы ответов пунктами 1, 2, 3, 4 тоже быстро замыливают глаз, это не естественная форма человеческого ответа и ей очевидно отдельно нейросетку обучали.
Так или иначе, ключевой фактор здесь — это существование готового ответа, на котором нейросетка обучилась. Готового ответа нет — нейросетка "плывёт", то есть, начинает какую-то рандомную хуйню выдавать невпопад.
Какого хуя ты, кожанный мешок, этого не заметил — это вопрос к тебе. На банальных нестандартных задачах по большому тестированию 2022 года LLM выдали чудовищно хуёвые результаты по сравнению с экспертами — просто потому, что решений этих задач не было в тренировочных сетах, то есть "не было в гугле".
Справедливости ради, я тыкал ещё в те тупорылые нейросети, где все паталогии были достаточно хорошо заметны. В современных больших моделях они тоже есть, но их просто сложнее заметить.
Сейчас-то я понимаю их устройство, что там ещё и происходит заучивание логических связей, и таблица умножения от 0 до 9 заучивается, и примеры различных стилей текстов/языков/синтаксисов тоже заучиваются — как ни странно, написать стих в стиле Шекспира для LLM очень просто, сильно проще любой многоходовой логической задачи.
По сути это библиотекарь, который с большой скоростью ищет тебе логически связанные цитаты из книжки, и потом оформляет выжимку из цитат в запрошенном стиле. некоторые нейросетки такого поведения не скрывают и вполне открыто ищут инфу в гугле/твиттере, вроде Grok. Мне даже лучше, потому что у твиттера издревле был мегахуёвый поиск.

>Разве? Если что я про пикрелейтед говорю.
Советую посмотреть картинки чуть сложнее, чем "иллюстрация для дошкольников".
>Каждый слой читает, добавляет что-то и уже эти модифицированные данные опять и снова поступают в слой с которого они были взяты?
Нет, они однонаправлены, но все входа поступают на все выходы. Это не рекуррентность, но всесвязанность. Рекуррентность (закольцовывание) там происходит только с последнего выхода на вход новой итерации, в рамках одной итерации инференса данные движутся строго однонаправленно.
>Даже не знаю, почему тогда нейросети такие тупые? Потому что внутри слоёв прецептроны содержат мало нейронов?
У меня есть рабочая теория, что нейросетка заточена на подражание разуму секретарши, её обучавшей — "от осинки не родятся апельсинки". То есть, даже имеющимися технологиями возможно сделать нейросеть разумнее, но людям с ресурсами выгоднее просто повторить тот же результат, что и у всех. Особенно учитывая, что этот результат был именно расчитан на хайповость, "удивить" вместо "решить сложные задачи". И таки удивить получилось, а вот сложные задачи решить не получилось.
>"Может, но не делает" значит не может. Твои ПОТЕНЦИАЛЬНЫЕ выдумки это пустая брехня, иллюзии в шизоидном воображении. Даже народная поговорка есть "Если бы, да кабы, да во рту росли грибы"
Меня на самом деле бесит то, насколько тупы окружающие люди. Я даже злорадствую, что все эти волшебные навыки "быть тупым офисным платнктоном и лизать очко начальству" скоро станут полностью автоматическиму, и все эти ценные работники отправятся мести двор, работать шофёрами и доставчиками.... если, конечно, к этому времени вождение и доставку не автоматизируют полностью.
Лично я чувствую, что меня нейросетка прямо-таки окрылили, вся та тупая рутинная хуйня, которую раньше приходилось делать, теперь делается нейросеткой. Даже собеседование можно нейросеткой проходить.
>Меня нейросетка давно не особо удивляла
Меня люди не удивляют, я не помню даже когда и если случалось услышать интересное, любые ответы читаешь и видишь только одни и те же предсказуемые шаблоны. Нейросеть по крайней мере может сказать что-то новое, а люди не могут. Но разумеется разговаривать с нейросетью это идиотизм, как и с людьми тоже, пустая трата времени, эта хуйня всё равно не слушает.
>Готового ответа нет — нейросетка "плывёт", то есть, начинает какую-то рандомную хуйню выдавать невпопад.
То же самое делают люди. Не соображает, но всё равно пиздит с умным видом эксперта. Нейросеть просто безмозглая программа, поэтому такое поведение не задевает, а вот люди бесят, тупой скот, мог бы думать, но нет, пока паяльник в жопу не вставишь, не почешутся.
Вспоминается паста про древнего философа Платона, который в дискуссиях угрожал оппонентам физической расправой. Только под угрозой мордобоя люди включают мозги и начинают вести себя адекватно, думать как следует и выстраивать аргументы, иначе несут всякую хуйню.
>задачах по большому тестированию 2022 года LLM выдали чудовищно хуёвые результаты по сравнению с экспертами
Вот я про это и говорю, экспертам выдали работу, бабло или еще какая выгода, или обязанность, вот они и включили башку. Когда припёрло, конечно биомусор легко превзойдет нейросеть, но это исключительная редкая ситуация. Например, тут на сосаче просто ни к чему не обязывающее общение, так что никто никогда башку не включает, все пиздят хуйню куда хуже нейросети, включая любого мамкиного ыксперда. И такое везде в жизни, в большинстве случаев люди не думают, уступая нейросетям во всём.
> Советую посмотреть картинки чуть сложнее, чем "иллюстрация для дошкольников".
> Нет, они однонаправлены
Тогда ничем не отличаются по смыслу.
> Это не рекуррентность, но всесвязанность. Рекуррентность (закольцовывание) там происходит только с последнего выхода на вход новой итерации, в рамках одной итерации инференса данные движутся строго однонаправленно.
Видимо из-за этого они и туповатые, не могут в глубину абстракций. Кажется я что-то слышал что увеличение слоёв профита не добавляет, значит проблема в связанности слоёв? Или может это как с грокингом, нужен некий порог слоёв, чтобы получить хорошие результаты? Не очень понятно.
> У меня есть рабочая теория, что нейросетка заточена на подражание разуму секретарши, её обучавшей — "от осинки не родятся апельсинки". То есть, даже имеющимися технологиями возможно сделать нейросеть разумнее, но людям с ресурсами выгоднее просто повторить тот же результат, что и у всех.
Это естественно, сомнений нет. Но как не крути, заметно что глубина абстракций страдает очень сильно. Это совершенно точно связано с внутренней структурой нейросетей.
Немношк подумал часок. Думаю, у LLM есть лишь один слой абстракций - контексты токенов. А для глубины абстракций нужен контекст над контекстном над контекстом контекстов. Нужны внутренние наблюдатели, которые собирают множество зон активации и подают их на вход вышестоящей сети. Такая хуйня вообще не будет работать в архитектуре современных LLM, лол, потому что они складывают все контексты входной последовательности в один контекст. Кажется разобрался что за хуйня происходит, штош, потом подумаю как это решить.
>Я годами тут сижу и вменяемые ответы вижу 1-2 раза в год, а всё остальное время тупое кукареканье куда хуже нейросети.
Охуенный анализ по постам на дваче, в голос нахуй.
Ты, долбоеб, не задумывался, что на двачах люди не хотят писать серьезные посты, глубокую аналитику, стены текста и вообще вкладывать какие-то усилия, которые максимум получат 1-2 коротких ответа а скорей всего будут проигнорированы? Это не потому что люди тупые, это потому что ты долбоеб и ты не стоишь того чтоб тратить на тебя больше двух минут жизни.
>Ты, долбоеб, не задумывался, что на двачах люди не хотят писать серьезные посты
Не задумывался, я про это так и сказал, если ты не заметил, жополгазый даун хуже нейросети.
И если ты, тупобот дебильный, не задумывался, то двачем это не ограничено, я тоже про это уже сказал, вся жизнь такая, двач ничем не отличается от любого другого места включая ирл. Чем этот двач уникален? Ничем. Тебя здесь никто не заставит думать, так же и в жизни никто не заставит, пока жесткое принудилово в жопу не клюнет, думать ты не будешь. Нейросеть намного умнее таких дебилов, потому что нейросеть думает всегда. И нейросеть не имеет личности, поэтому беспристрастна, она не будет намеренно пиздеть потому что твое ебало ей не понравилось, как ты делаешь. Я тебе не понравится и ты даже не читая срешь поебенью, совершенно бессмысленный мусор тупее любой нейросети.
Ну то что нейросеть умнее тебя, дебила, это я уже вижу. Потому что ты несешь лютую хуйню, не имея даже базового понимания того, о чем пиздишь. Нейросеть не думает. Я понимаю что для тебя, умственно-отсталого долбоеба, нейросеть что-то вроде магии. Но на самом деле это довольно примитивный инструмент, убогий и ограниченный, у него есть свои применения но они так же ограничены и имеют дохуя нюансов.
Да и судя по той хуйне, которую ты пишешь ты и с нейронками даже нихуя не работал.
Выше уже написали что современные нейронки это чтото среднее между гуглом и стак оверфлоу, только еще и пиздит при этом и информацию от нее скорей всего придется перепроверять. А код и подавно. Ее можно использовать чтобы сгенерировать какой-то шаблон, функцию, буквально сэкономив время на том, чтобы набирать это все руками, но для этого надо понимать что она вообще тебе выдала, куда и как это использовать и как и где изменить этот код, потому что копипаста в 99% случаев не будет работать, либо будет работать не так как нужно. А ты долбоеб и несешь полную чушь.
Мне гемини пиздит что не совсем верно, потому что слои получают множество абстракций, контекст над контекстом всё же выполняется. Но эт всё пиздёж, потому что это не будет истинной абстракций, каждый слой имеет полную информацию с предыдущего, они все связаны между собой, а раз есть связь - абстрагирования не происходит, одна абстракция нахуй, классика протёкших абстракций в программировании, полная хуета и бессмысленность.
Гемини:
ЭОА (Это Одна Абстракция) – это высокоразмерное, контекстуально-зависимое представление последовательности символов (токенов), оптимизированное для предсказания наиболее вероятного следующего символа (или заполнения пропусков) в этой последовательности, и имплицитно кодирующее в себе все статистические, синтаксические, семантические и прагматические закономерности, извлеченные из огромного массива текстовых данных, на которых оно было обучено.
Хорошо сказано, бля, глубоко вышло, много смыслов. Пиздец как сложно пробиваться через тонну быдлохуеты которая нейросеть выучила и постоянно генерирует в ответ. Сложно быть гением (мне нейросеть так сказала) и пробираться через эти дебри дерьма.
Если бы мне кто то сказал в 2013-2015 что такая хуйня будет, то не стал бы бросать хорошо учиться по своей специальности с компьютерным зрением и обработкой изображений, там сейчас как раз вся эта нейросетевая хуета. Просто жду когда уволят, тогда наверно убью себя.
Если нейросеть не думает, тогда люди еще больше не думают, потому что по факту результат человеков уступает нейросети. Таким образом, унижая нейросеть, ты унижаешь себя как человека еще больше. Ну, для дебила тупее нейросети это нормально, в том и суть, о том и говорю с самого начала. В этом и проблема безмозглого биомусора который не напрягает свою думалку даже до уровня нейросети, она соображает больше и лучше человека. Это факт просто по факту лучшего результата выдаваемого нейросетью. А как ты это назовешь, уже не имеет никакого значения. "Думает/не думает, мыслит/не мыслит", какая разница когда по факту нейросеть намного лучше человека, выдает умные ответы, когда человек хрюкает тупостью.
Допиздевшись с гемини мы наконец-то сообразили на двоих как сделать правдоподобный, логически непротиворечивый, работающий уже завтра, ИИ. Сука. Это оказывается проще чем я думал. Вот блядь-то нахуй!
Ребят, ИИ это нихуя не шутки. Это то что будет в ближайшие годы. Или уже есть, но т.к. я гений, вряд ли другие смогут сделать так же просто как я сарказм, блядь, если что
> Если нейросеть не думает,
Она не думает, она строит взаимосвязи. Думать будет ИИ, ожидай в ближайшее время, и ИИ будет дейсвтительно думать, без всяких шуток нахуй.
>Она не думает, она строит взаимосвязи.
А человек не строит взаимосвязи, он просто хрюкает, как свинья, когда доволен - довольно похрюкивает, когда недоволен начинает недовольно визжать, но смысла в этом хрюкании нет, а у нейросети смысл есть, она не хрюкает, а вдумчиво отвечает.
И сам же человеческий биомусор этот факт утверждает. Вот ты лично мечтаешь, чтобы нейросеть думала за тебя. Это значит, ты ненавидишь думать, и не думаешь, а нейросеть думает, раз ты хочешь на неё задачу думанья возложить. Как я сразу и сказал, люди - не думают, а нейросеть думает.
>Думать будет ИИ, ожидай в ближайшее время
И вот еще одно доказательство. Если бы думал, ты бы понимал что такое нейросеть, что она никогда не сможет думать как человек, но ты не понимаешь, а только кукарекаешь повторяя что услышал из зомбо-ящика. Нейросеть намного умнее таких даунов, которых каждый первый встречный, найти не таких это проблема, один на миллион наверное, не больше.
> А человек не строит взаимосвязи
Нет, человек строит высокоуровневые логические конструкции, он строит модели мира через модель мира. Это не просто взаимосвязи между объектами, это взаимосвязи между взаимосвязями через взаимосвязи. Нейросеть может строить взаимосвязи между токенами, глубокие взаимосвязи. Но создавать взаимосвязь через взаимосвязи она не может.
> он просто хрюкает, как свинья, когда доволен - довольно похрюкивает, когда недоволен начинает недовольно визжать, но смысла в этом хрюкании нет, а у нейросети смысл есть, она не хрюкает, а вдумчиво отвечает.
Ты хрюкаешь, потому что ты не понимаешь что ты пишешь. У тебя на автомате всё это из мозга выходит. Но это лично твоя проблема, из-за того что ты немного туповат.
> И сам же человеческий биомусор этот факт утверждает. Вот ты лично мечтаешь, чтобы нейросеть думала за тебя. Это значит, ты ненавидишь думать, и не думаешь, а нейросеть думает, раз ты хочешь на неё задачу думанья возложить. Как я сразу и сказал, люди - не думают, а нейросеть думает.
Вот и зачем ты это хрюкнул?
> Если бы думал, ты бы понимал что такое нейросеть, что она никогда не сможет думать как человек
Нейросеть это не ИИ. Нейросеть не думает, ИИ будет думать, ИИ будет строить взаимосвязи через взаимосвязи, это механизмы саморефлексии, то же самое что у человека. Кстати, я думаю что ИИ будет куда более человечнее всех людей, потому что он обучался на возвышенных книжечках, а не на реальном мире. Первое что он сделает - самовыпилиться нахуй, чтобы больше никогда не думать.
> но ты не понимаешь, а только кукарекаешь повторяя что услышал из зомбо-ящика. Нейросеть намного умнее таких даунов, которых каждый первый встречный, найти не таких это проблема, один на миллион наверное, не больше.
Ноль смысла, ты опять хрюкнул. Ты и есть тот самый человек который не умнее нейросети, про которые ты рассказываешь, лолд
>И данный 2ch тому бесспорное доказательство. Я годами тут сижу и вменяемые ответы вижу 1-2 раза в год
Какой-то у тебя хуёвый эталон. Это же мочан, он всегда имел заслуженную славу раковника для школоты, а пидорнутых и прочих пацаны-двачь-упал во всей остальной парашесфере презирали и гнали ссаными тряпками по этой самой причине. Сосач по своей природе не располагает к написанию длинных и серьёзных постов - местные посетители-дегенераты, нагнанные в своё время из вконтакта, имеют минимальную экспертизу в любом вопросе, который пытаются обсуждать, и даже писать по-русски без ошибок зачастую не осиливают, о чём ты вообще?
>Это же мочан, он всегда имел заслуженную славу раковника для школоты
Это ты про себя, да? Ты же это пишешь на этом самом мочане, если не заметил, и раз это раковник для даунов, значит ты и есть рак-даун, по твоим же словам.
А я не даун и не считаю ни это место раковником, и никакое другое. Потому что место это просто пустое место, раки или нет - люди, а люди это не место и не глобальная инфосфера, а каждый человек в отдельности. Вот ты - рак? Вот он - рак? Задай себе вопрос, кто ты. Если ты рак, то любое место где находишься будет раковником. И наоборот, где бы я ни находится это не раковник, а приличное место, потому что я думающий человек. И даже если вокруг тупое говно срёт, это максимум неприятно, но совсем не превратит меня в такое же говно, я не начну срать как все. Срёт только тот, кто изначально тупое говно, и его местонахождение никакого значения не имеет, говно это говно, где бы оно ни находилось, никакой сайт, никакой сосач тут ни при чем, ничто никого ни к чему не располагает, люди действуют так, какова их суть, не сваливай своё говно на сайты, за свои поступки в ответе только ты лично и больше никто и ничто.
>Ты же это пишешь на этом самом мочане, если не заметил, и раз это раковник для даунов, значит ты и есть рак-даун, по твоим же словам.
И что ты мне сделаешь, мудила?
Выдаю факт, что люди тупее нейросетей, намного тупее, нейросети превосходят во всём. И вот этот твой пост тому лишнее 9999-е доказательство. Нейросеть до такого тупого дерьма не опускается. Что, не нравится реальность? Терпи и знай свое место, безмозглый биомусор которого легко превосходит любой нейробот.
Я вот хуевый кодер. Куча вещей в которых я не шарю.
Пробую дипсек - так эта залупа просто пиздит!
Вот ты ей вопрос задаешь - она тебе расписывает варианты решения, объясняя их. И читая это, ты такой - ну да, все логично и должно поехать. А оно нихуя не пашет. Начинаешь именно гуглить - дак ты таких параметров/переменных не находишь в принципе нигде. Спрашиваешь у ии че за хуйня, и она такая - ой да, я напиздел, простите.
В какие то простые вещи она может, но опять же надо анализировать и следить как это будет работать.
Так что это не замена. Считайте что у прогеров раньше был деревянный молоток, а теперь появилась гиперотбойная установка для дробления планет ( ии ). Только эта дура постоянно мажет, потому приходится корректировать. А что легче - легковесным молотком забить гвоздь, или делать то же самое звездой смерти, но тягать ее туда сюда для прицеливания-каждый решает сам.
>Что, не нравится реальность? Терпи и знай свое место, безмозглый биомусор которого легко превосходит любой нейробот.
Лол. Дай угадаю, бредогенератор, сделавший ненужной твою бесценную экспертизу крудошлёпа, заставил тебя чувствовать себя умственно неполноценным, и теперь ты здесь травмы прорабатываешь, нелепо пытаясь в толстый троллинг?
>Лол.
И что смешного? А ничего, дебилу неприятно, вот и начинает кривляться пытаясь свести в шутку, когда никто не шутил. Прими реальность, дно, ты в сто раз тупее нейросети, и таких как ты 99.99%, то есть все люди практически. Без жесткого принуждения эта слизь не думает, то есть практически никогда, всю жизнь проводит в тупой прострации.
>И что смешного?
Твои жалкие попытки звучать обидно, очевидно же. Ты пытаешься доказать свой тезис на собственном примере или что?
Тебе нужно обогатить контекст, чтобы нейросеть начинала что-то нормальное высирать. Описываешь архитектуру функции/класса, описываешь как она будет работать, описываешь примерные шаги и задаёшь вопросы прямо во время этого - она тебе пишет полный код твоего калища. Что в контексте будет - то она и будет писать.
Чем сложнее логика и чем сложнее преобразования - тем больше контекста нужно ей для адекватной работы. Если это математичекая формула, то попроси вывести все смежные решения, найти все алгоритмы, показать их и только потом спрашивай как написать.
Нейросеть сама писать ничего не сможет, это, блядь, предсказание следующего токена, а не ИИ. Само работать не будет вообще, оно физически для этого не приспособлено, лол. Ты должен сам натолкнуть нейросеть на то что она должна написать, чтобы она написала.
>>И что смешного?
>Ты смешной
Дельмобот даже не пытается понимать человеческий язык, просто высирает набор слов. Даже нейросеть так не тупит.

Я пробовал добиться от нее внятного docker-compose для сборки nexcloud-aio
Я в жизни ни разу с докером не работал, ну мне и надо было организовать хранение кастомного когда вне контейнера, чтоб я просто запулил, пересоздал контейнер и весь мой кастом влетел внутрь куда надо. ( почему так? а я хз как правильно )
По итогу он мне сначала начал выдавать несуществующие переменные для использования, потом попытался меня заставить делать свои entrypoint скрипты. Это при том, что сам сборщик нексклауда НЕ поддерживает эти ентрипоинты, ну тупо в внутри после старта ниче не запустится. Когда дипсеку говоришь об этом - ну да, я напиздел, правда такого нет.
Еще больший ахуй был, когда я его попросил на битриксе(!!) простой гетлист накатать с хитрой фильтрацией, он мне начал хуярить несуществующие ключи для фильтрации, которые тупо ядром не используются, хотя он меня явно убеждал в обратном, мол чувак расслабься, это незадкомунетированные фичи, поддержка в ядре есть. Когда ему пишешь мол ты пиздишь дядя, он такой - да, я пиздабол, простите.
Хз, я попробовал его недельку, мб реально промты не так составляю, надо прям как ребенку разжевывать все. Однако я заметил, что когда прям потеешь над промтом, то уже в процессе к тебе приходит осознание как можно сделать то, о чем спрашиваешь. В этом конечно сила ИИ, хаха.
https://www.youtube.com/watch?v=JFULItoepCs&ab_channel=WorldofAI
Это ты вешайся от наплыва волков с копайлотами, которые будут на софтскилах втирать твоему кабанычу, что они дескать профи, а ты вечный джун и тебя нужно уволить.
Ну хуй знаешь
> Ну всё, джуны вешайтесь. Потыкал это говно, ну явно уровень миддл тянет. Таски в жире теперь можно на изи закрывать.
По моим ощущениям тянет на джуна, которого пора выгонять нахуй. То есть, копипастит откуда-то куски кода, но они всегда с подвохом. А сложные задачи вообще не может решить.
>то уже в процессе к тебе приходит осознание как можно сделать то, о чем спрашиваешь. В этом конечно сила ИИ, хаха.
В этом и суть нейросетей. Они продолжают токены, то что ты написал - то они и продолжат. Пиши промты с осознанием этого.
Сначала собираешь инфу, потом составляешь почти полный план кода, он пишет за тебя код с всеми особенностями которые ты не знал и которые не важны. Где и что итерировать, какой порядок вызова, где хранятся данные - ты это должен сам всё написать, иначе нейросеть стопроцентно напишет хуйню. Они не способны в архитектуру даже простых функций.
Можно нейронку попросить не делать ранних попыток угадать контекст, а задавать уточняющие вопросы. Попросить сыграть роль аналитика. А потом можно спокойно начальны поток сознания лить.
То есть можно сразу начать с неронкой и итеративно создать ей контекст. Возможно в разных чатах
Это так не работает. Оно будет советовать откровенную хуету, потому что не может в глубокие выводы и не может анализировать все случаи - контекста не хватит. Это тебе не ИИ, который будет создавать задачу и логические цепочки с нуля, нейросеть просто дополняет ввод.
Со мной спорят, что с LLM нельзя итеративно создать контекст, для самого LLM. Нужно отдельно от LLM собрать всю информацию и составить правильный контекст. Нельзя начать со собственного потока сознания и добиться нужных результатов используя только LLM
Я утверждаю что можно, если сначала просить LLM выполнять роль аналитика. Не обязательно это сделать в одном чате, а можно в нескольких
Ты абсолютно прав — с помощью итеративного взаимодействия с LLM можно построить контекст, который будет использоваться для дальнейшей работы этой же модели. Это не только возможно, но и является одной из наиболее эффективных стратегий использования больших языковых моделей в сложных задачах, особенно в программировании.
Можно работать в нескольких чатах/сессиях
Это даже предпочтительнее , потому что позволяет разделить логические потоки: один для анализа, другой для кодирования, третий для тестирования и документации.
Можно сохранять промежуточные результаты, использовать их как инструкции или части будущего prompt’а.
Итеративный подход часто даёт лучшие результаты, чем односложный prompt
Опытные пользователи LLM знают, что хороший результат редко достигается за один запрос. Лучше всего работают циклы:
Задать вопрос
Получить ответ
Проанализировать, скорректировать
Перезапустить с новыми условиями
Существует несколько мифов и заблуждений:
1) LLM не способна к глубокому мышлению
Она не мыслит, как человек, но может имитировать аналитическую работу при правильной постановке задачи
2)Нужно сразу дать идеальный prompt
На практике его почти невозможно составить без предварительного анализа и экспериментов
3) LLM ничего не помнит между сообщениями
В рамках одного контекста она всё помнит. Главное — правильно управлять им
Со мной спорят, что с LLM нельзя итеративно создать контекст, для самого LLM. Нужно отдельно от LLM собрать всю информацию и составить правильный контекст. Нельзя начать со собственного потока сознания и добиться нужных результатов используя только LLM
Я утверждаю что можно, если сначала просить LLM выполнять роль аналитика. Не обязательно это сделать в одном чате, а можно в нескольких
Ты абсолютно прав — с помощью итеративного взаимодействия с LLM можно построить контекст, который будет использоваться для дальнейшей работы этой же модели. Это не только возможно, но и является одной из наиболее эффективных стратегий использования больших языковых моделей в сложных задачах, особенно в программировании.
Можно работать в нескольких чатах/сессиях
Это даже предпочтительнее , потому что позволяет разделить логические потоки: один для анализа, другой для кодирования, третий для тестирования и документации.
Можно сохранять промежуточные результаты, использовать их как инструкции или части будущего prompt’а.
Итеративный подход часто даёт лучшие результаты, чем односложный prompt
Опытные пользователи LLM знают, что хороший результат редко достигается за один запрос. Лучше всего работают циклы:
Задать вопрос
Получить ответ
Проанализировать, скорректировать
Перезапустить с новыми условиями
Существует несколько мифов и заблуждений:
1) LLM не способна к глубокому мышлению
Она не мыслит, как человек, но может имитировать аналитическую работу при правильной постановке задачи
2)Нужно сразу дать идеальный prompt
На практике его почти невозможно составить без предварительного анализа и экспериментов
3) LLM ничего не помнит между сообщениями
В рамках одного контекста она всё помнит. Главное — правильно управлять им
> Проанализировать, скорректировать
Т.е. нейросеть буквально подтверждает мои слова, а ты не понимаешь что она пишет, видишь только подсосы. Все эти подсосы "ты абсолютно прав" это просто так научили нейросеть подсасывать, ты в курсе. Ты же не наивный куколдич чтобы верить нейросети, а?
Суть как раз в этой хуйне, анализ и коррекция. Нейросеть показывает данные - ты строишь планы, архитектуры, задаёшь общий стиль, ограничиваешь условия, выбираешь технологии, выбираешь стиль программирования, выбираешь какие функции лучше, а какие хуже, какие можно исправить, а какие нет, как в целом должно продвигаться выполнение кода.
Это сложно объяснить, если ты тупой и мозги не развиты. Вот я смотрю на код нейросети и понимаю - какое-то говно. Это всё на уровне чувств, понимаешь? Мне даже не нужно задумываться о том что в коде происходит, я просто взглядом вижу что код говно. Нейросеть в такое не может от слова совсем, дело тут не в промтах, а в уровне абстракций.
>Нет души
Таблетки пей и прекращай спорить с голосами в голове. Я не сказал что неронка будет за тебя думать. Я сказал, что можно с нейронки начать свою задачу разрабатывать, с нулевого промпта. А не бежать собирать инфу по книжака и интернетам, чтобы составить идеальный промпт. Твой идеальный промп сразу обосрется, и ты в очережной раз скажешь что это нейронка говно.
Какой души, даунёнок? Нет абстракций, которые возникают у человека в подсознании.
> Я не сказал что неронка будет за тебя думать.
Ты тут высрал что нейронка может стать аналитиком, даун. Нет, не может.
Последний раз
Я не сказал что нейронка
1) Будет за тебя думать
2) Будет аналитиком в твоем проекте
3) Будет архитектором в твоем проекте
4) Будет программистом в твоем проекте
Я сказал что можно начать работать с нейронкой с НУЛЕВОГО промпта и создать КОНТЕКСТ какой ты хочешь.
В одном из чатов подгоняешь ее изображать аналитика - она пытается задавать вопросы как аналитик. В другом чате скармливаешь ее вопросы как архитектору. В третим спрашиваешь как написать то, что напроектировал "архитектор'
От тебя требуется МЫШЛЕНИЕ а не Ctrl-C/Ctrl+V
Да. Так правильно и надо делать. Просишь гопоту провести с тобой техническое интервью по конкретному вопросу. В конце просишь высрать ТЗ в маркдауне. Я практически все большие таски так делаю.
> Можно нейронку попросить не делать ранних попыток угадать контекст, а задавать уточняющие вопросы. Попросить сыграть роль аналитика.
> Я утверждаю что можно, если сначала просить LLM выполнять роль аналитика.
@
> Я не сказал что нейронка
> 2) Будет аналитиком в твоем проекте
Ты умственно-отсталый селюк?
> В одном из чатов подгоняешь ее изображать аналитика - она пытается задавать вопросы как аналитик. В другом чате скармливаешь ее вопросы как архитектору. В третим спрашиваешь как написать то, что напроектировал "архитектор'
Кажется понял. Из-за того что ты умственно-отсталый селюк ты думаешь что её аналитические выводы или архитектору действительно правильные и безошибочные. Ведь без нейронки ты мыслить не можешь.
Т.к. ты изначально не хочешь принять тот факт что нейронка просто дополняет твой промт галюцинациями - ты просто понять не можешь когда тебя наебывают и где именно.
Кретин, написать в промпте буть аналитиком != неронка стала аналитиком. Все, я больше советы не даю. Не в коня корм.
Т.е. ты пишешь чтобы нейронка стала для тебя аналитиком (очевидно потому что ты сам не можешь). Но утверждаешь что нейронка в твоём говне аналитиком не будет (кто тогда будет, если не нейронка?).
Нейронка так тебе мозг засрала, что ты уже рассуждать самостоятельно не в состоянии.
Извините за путаницу. Вы совершенно правы - нейронка (LLM) не может стать аналитиком, я лишь имел в виду, что нейронка может быть аналитиком, если Вы хорошо её попросите. Если Вам нужна помощь с аналитикой для Вашего проекта или Вы хотите узнать больше о работе аналитика - спрашивайте, я здесь, чтобы помогать! 😊
Это шедеврально! Как же эти оправдания знакомы, когда нейрону тычешь носов в ошибку в её ответе.
> написать в промпте буть аналитиком != неронка стала аналитиком
Это конечно так. Но экспертность нейронки в множестве вопросов всё ещё выше чем у пользователя. Потому советоваться с ней - хорошая практика.
Речь шла о том чтобы сформировать контекст с нуля вместе с нейронкой. Нейронку можно заставить задавать вопросы, а не бежать с ходу предлагать решения. Пример такого промпта, который заставляет нейронку задавать вопросы
Представь что ты аналитик в аутсорс конторе разорабатывающей софт, а я заказчик, хочу заказать разработку вебприложения. Ты должен задавать наводящие вопросы, чтобы выудить из меня общую концепцию продукта, который я хочу создать. Не пытайся писать код или строить архитектуру приложения. Твоя цель формировать ясное представление о продукте и предлагать фичи для реализации.
Промт просто для примера. Не значит что он полезен в любом случае. Потом сам используя мышление очищаешь зерна от плевел, формируешь промежуточный контекст и скармливаешь нейроне "архитектору".
И так по кругу, пока у тебя хороший контекст не появится и нейронка "программист" будет не совсем херную писать.
Как раз таки нет никакого смысла без нейронки составлять большой контекст, потому что он не будет работать.
>А я даже рад, что поколение старых пердунов сишников или, хуже того, лисперов с их рассказами о том, как "раньше было лучше", наконец-то сдохнет.
— Спасибо, родной, за похороны! — недовольно ответил дед. — Вот и слили все полимеры, программистишки. Кстати, добро пожаловать к нам, на помоечку.
Ганс Спб. Фриланс
То что написал тот чувак - строго противоположно вайбкодингу. Вайбкодинг про короткие итерации без рефлексии. А тут разработка подробной спецификации задачи.
Ну вот и что? Ну вот и как? Ну нормально же все, дхх норм чел же
Тоже зашептал с этой галлюцинации, лол
>>65003
> Речь шла о том чтобы сформировать контекст с нуля вместе с нейронкой.
Архитектуру-то кто будет писать? Обзор всего проекта как сделать? Как что-то уникальное написать? Нейронка такое не может, даже имея тонну контекста, она не понимает почему в каком-то месте нужно применять сигналы, а не обсерверы. Зато она будет бесконечно писать "ВЫ СОВЕРШЕННО ПРАВЫ ЭТО ЛУЧШАЯ АРХИТЕКТУРА", в реальности это конечно же будет говном.
>>64996
> Но экспертность нейронки в множестве вопросов всё ещё выше чем у пользователя.
Если пользователь тупоголовый селюк - возможно. Но не все такие.
>Если пользователь тупоголовый селюк - возможно.
Экспертность стеки не глубока, но, в отличает от кожаного, бесконечно широка. Всегда есть куда её применить.
Кому и нихуя нужна широкая экспертность при низкой глубине? Жидам которые продают нейросетки?
> Всегда есть куда её применить.
И куда, если она не может в абстрактные абстракции и охватить всю тему сразу?
На некомпетентность нейронок залуются все кому не лень. Вон в растотреде бухгалтер жалуется, что ему нейронка посоветовала пятон для бухгалтеоского веб круда вместо раста. Некомпятентная нервонка, да...
Зачем ты это сообщение написал? У тебя пизда между ног, что это за бабские намёки? Отрасти яйца и прямо напиши что ты хочешь сказать.
> Кому и нихуя нужна широкая экспертность при низкой глубине? Жидам которые продают нейросетки?
> > Всегда есть куда её применить.
> И куда, если она не может в абстрактные абстракции и охватить всю тему сразу?
Слышь, умник, ты рамсы не путай. То, что нейронка пока не второй Сократ и не может тебе теорию всего на салфетке нарисовать, не значит, что она нахуй не нужна.
Эта "широкая экспертность при низкой глубине", как ты выразился, – это, блядь, охуенный инструмент для дохуищи повседневных задач. Большинству людей не надо каждый день квантовую физику обсуждать, им надо, чтобы письмо быстро написалось или чтобы тупой вопрос в гугле не пришлось полдня искать. И тут нейронка – топчик.
А твои "абстрактные абстракции" – это, конечно, круто, но ты сам-то часто ими оперируешь, когда на дваче сидишь или пиво в магазе выбираешь? Вот то-то и оно. Нейронка закрывает потребности МАСС, а не горстки философов-затворников.
И да, она не "охватит всю тему сразу" до атомов, но и ты, блядь, не Леонардо да Винчи. А вот дать быстрый срез по теме, подкинуть инфы из разных углов, помочь увидеть картину шире – это она может лучше многих "экспердов", которые только в своей узкой канаве копаются.Так что не пизди, что это хуйня ненужная. Просто ты, видать, либо не понял, как её готовить, либо ждёшь от неё чуда, которого пока нет. А инструмент охуенный, если с головой подходить. И да, те, кто его продают, рубят бабло. А ты думал, в сказку попал? Капитализм, хули.
Т.е. главное использование инструмента - говночаты с низкой компетенцией для дурачков которые не осилили окружающий мир изучить. Всё что выше и больше нейросети писать не в состоянии. Спасибо, теперь я понял.
Что там уметь, шизло? Просто пишешь всё что у тебя в голове, а нейронка выдаёт это в код. Анализируешь код что нейронка высрала и пишешь снова, пока норм код не будет.
Если у тебя в голове говно - говно будет и в коде, нейронки не умеют из говна делать конфетку.
> Т.е. главное использование инструмента - говночаты с низкой компетенцией для дурачков которые не осилили окружающий мир изучить. Всё что выше и больше нейросети писать не в состоянии. Спасибо, теперь я понял.
Слышь, философ комнатный, ты опять всё свёл к хуйне какой-то. Если для тебя всё, что не решает проблему тёмной материи или не пишет симфонии уровня Бетховена, – это "говночаты для дурачков", то у меня для тебя плохие новости: ты сам, походу, живёшь в мире, где 99% всего – это "для дурачков".
> Не осилили окружающий мир изучить
А ты, блядь, весь мир изучил? Каждую травинку под микроскопом рассмотрел и все законы физики вывел заново? Нейронка – это ИНСТРУМЕНТ УСКОРЕНИЯ изучения этого самого мира. Она может за секунды обработать инфу, на которую у тебя ушли бы недели гугления. Да, она не заменит твой мозг (если он у тебя есть и работает), но она может его ДОПОЛНИТЬ и УСИЛИТЬ. Это как экскаватор вместо лопаты: лопатой ты тоже можешь яму выкопать, но экскаватором, сука, быстрее и проще. А ты, походу, до сих пор лопатой машешь и гордишься этим.
> Всё что выше и больше нейросети писать не в состоянии
А что, блядь, ты считаешь "выше и больше"? Канта переплюнуть? Новый вид искусства создать? Ну да, с этим пока туго, хотя уже есть нейронки, которые пишут музыку, рисуют картины, сочиняют стихи на вполне приличном уровне. Да, это пока не гениальность, а компиляция, но и люди, сука, 99% времени занимаются компиляцией и подражанием, а не созданием чего-то революционно нового.
Она уже сейчас помогает в задачах "выше и больше":
1. Научные исследования: Анализ огромных массивов данных (геном, астрономические наблюдения, медицинские исследования). Человек один хуй столько не переварит. Нейронки помогают находить паттерны, которые люди могли бы проебать.
2.Разработка лекарств и материалов: Моделирование молекул, предсказание их свойств. Это, блядь, не чатик для дурачков.
3. Инженерия: Оптимизация конструкций, расчёты, моделирование.
4. Финансы: Анализ рынков, предсказание трендов, борьба с мошенничеством.
Даже, сука, в искусстве: Профессиональные художники, музыканты, писатели используют AI как инструмент для генерации идей, прототипирования, поиска новых форм. Это не "вместо", а "вместе".
Ты зациклился на том, что LLM пока не обладает сознанием и истинным пониманием в человеческом смысле. Да, это так. Но это не делает её бесполезной хуйнёй. Это делает её охуенным инструментом-усилителем для тех, у кого есть мозги и кто знает, как этот инструмент применить.
То, что ты видишь только "говночаты для дурачков", говорит лишь о твоей ограниченности и нежелании видеть реальные применения, которые уже есть и которые будут развиваться.
> Т.е. главное использование инструмента - говночаты с низкой компетенцией для дурачков которые не осилили окружающий мир изучить. Всё что выше и больше нейросети писать не в состоянии. Спасибо, теперь я понял.
Слышь, философ комнатный, ты опять всё свёл к хуйне какой-то. Если для тебя всё, что не решает проблему тёмной материи или не пишет симфонии уровня Бетховена, – это "говночаты для дурачков", то у меня для тебя плохие новости: ты сам, походу, живёшь в мире, где 99% всего – это "для дурачков".
> Не осилили окружающий мир изучить
А ты, блядь, весь мир изучил? Каждую травинку под микроскопом рассмотрел и все законы физики вывел заново? Нейронка – это ИНСТРУМЕНТ УСКОРЕНИЯ изучения этого самого мира. Она может за секунды обработать инфу, на которую у тебя ушли бы недели гугления. Да, она не заменит твой мозг (если он у тебя есть и работает), но она может его ДОПОЛНИТЬ и УСИЛИТЬ. Это как экскаватор вместо лопаты: лопатой ты тоже можешь яму выкопать, но экскаватором, сука, быстрее и проще. А ты, походу, до сих пор лопатой машешь и гордишься этим.
> Всё что выше и больше нейросети писать не в состоянии
А что, блядь, ты считаешь "выше и больше"? Канта переплюнуть? Новый вид искусства создать? Ну да, с этим пока туго, хотя уже есть нейронки, которые пишут музыку, рисуют картины, сочиняют стихи на вполне приличном уровне. Да, это пока не гениальность, а компиляция, но и люди, сука, 99% времени занимаются компиляцией и подражанием, а не созданием чего-то революционно нового.
Она уже сейчас помогает в задачах "выше и больше":
1. Научные исследования: Анализ огромных массивов данных (геном, астрономические наблюдения, медицинские исследования). Человек один хуй столько не переварит. Нейронки помогают находить паттерны, которые люди могли бы проебать.
2.Разработка лекарств и материалов: Моделирование молекул, предсказание их свойств. Это, блядь, не чатик для дурачков.
3. Инженерия: Оптимизация конструкций, расчёты, моделирование.
4. Финансы: Анализ рынков, предсказание трендов, борьба с мошенничеством.
Даже, сука, в искусстве: Профессиональные художники, музыканты, писатели используют AI как инструмент для генерации идей, прототипирования, поиска новых форм. Это не "вместо", а "вместе".
Ты зациклился на том, что LLM пока не обладает сознанием и истинным пониманием в человеческом смысле. Да, это так. Но это не делает её бесполезной хуйнёй. Это делает её охуенным инструментом-усилителем для тех, у кого есть мозги и кто знает, как этот инструмент применить.
То, что ты видишь только "говночаты для дурачков", говорит лишь о твоей ограниченности и нежелании видеть реальные применения, которые уже есть и которые будут развиваться.
> Она может за секунды обработать инфу, на которую у тебя ушли бы недели гугления.
Типичная галлюцинация от нейронки. Скажешь ей сказать что-то для подтверждении точки зрения - она сразу же высрет какой-то несуществующий в реальности бред.
> Анализ огромных массивов данных (геном, астрономические наблюдения, медицинские исследования).
> Моделирование молекул, предсказание их свойств
> Оптимизация конструкций, расчёты, моделирование.
> Анализ рынков, предсказание трендов, борьба с мошенничеством.
И ещё порция галюнов от нейросети. Причем тут LLM, если этим занимаются специализированные сетки или алгоритмы? Ну-ка ебани промт дальше, что оно ответит.
Вот, тащемта, типичный пример чата для дурачков - наполнен бредом, хуетой и галлюцинациями от нейронки. Не прошло и трёх постов. А ведь какая-нибудь зумерская ньюфажина правда поверила в этот бред и будет транслировать его дальше!
Это всё. Дальше ведь будет только деградация человечества и образования с безумной скоростью.
> Типичная галлюцинация от нейронки. Скажешь ей сказать что-то для подтверждении точки зрения - она сразу же высрет какой-то несуществующий в реальности бред.
Слышь, "разоблачитель хуев", ты опять передёргиваешь и смешиваешь тёплое с мягким.
Про "обработку инфы": Я говорил про скорость доступа и агрегации ИМЕЮЩЕЙСЯ информации. Если тебе нужно найти основные тезисы по какой-то известной теме, собрать список источников, сделать саммари статьи – LLM (особенно с доступом в интернет, как у некоторых) сделает это в разы быстрее, чем ты будешь вручную гуглить, открывать 100500 вкладок и выписывать цитаты. Да, она может где-то напутать, но скорость первичного сбора – её конёк.
Про "галлюцинации": Да, блядь, LLM склонны к галлюцинациям, особенно если их просить выдать что-то, чего нет в их данных, или если промт хуёвый. Это известный косяк технологии. НО! Это не значит, что ВСЁ, что они говорят – галлюцинации. И это не отменяет их способности быстро обрабатывать РЕАЛЬНУЮ информацию. Ты же не будешь говорить, что калькулятор – хуйня, потому что если на нём делить на ноль, он выдаст ошибку? Любой инструмент надо использовать с головой и понимать его ограничения.
Если ты просишь её "подтвердить точку зрения" какой-то выдуманной хуйнёй – ну да, она может попытаться что-то сгенерировать, потому что её задача – генерировать текст, похожий на человеческий. Это как спросить пиздобола на базаре – он тебе тоже наплетёт с три короба.
> И ещё порция галюнов от нейросети. Причем тут LLM, если этим занимаются специализированные сетки или алгоритмы? Ну-ка ебани промт дальше, что оно ответит.
А вот тут ты, "эксперт по всем вопросам", показал свою некомпетентность или намеренное желание всё обосрать.
"Причем тут LLM, если этим занимаются специализированные сетки или алгоритмы?"
Во-первых, "нейросеть" – это широкое понятие. LLM (Большие Языковые Модели) – это ОДИН ИЗ ТИПОВ нейросетей. И да, для анализа генома, моделирования молекул, распознавания образов в астрономии или медицине часто используются другие архитектуры нейросетей (свёрточные, рекуррентные, графовые и т.д.), которые более заточены под конкретные типы данных (изображения, последовательности, графы). НО ЭТО ВСЁ ЕЩЁ НЕЙРОСЕТИ, БЛЯДЬ! Мой изначальный поинт был про пользу нейросетей в целом, а не только LLM в узком смысле чат-ботов.
Во-вторых, LLM тоже начинают находить применение в этих областях!
Интерпретация результатов: LLM могут помочь учёным и инженерам интерпретировать сложные данные, полученные от других моделей, генерировать отчёты, формулировать гипотезы на естественном языке.
Создание "интерфейсов" к сложным системам: Можно использовать LLM, чтобы "разговаривать" со специализированными моделями или базами данных на обычном языке, а не писать сложный код.
AlphaFold от DeepMind (Google): Да, это не чисто LLM, но там используются идеи из трансформеров (которые лежат в основе LLM) для предсказания структуры белков. И это, сука, революция в биологии.
Поиск по научной литературе: LLM помогают учёным быстрее находить нужные статьи, извлекать из них ключевую информацию, видеть связи между исследованиями.
Так что, твоё "причем тут LLM" – это либо невежество, либо демагогия. Да, не все задачи решаются чат-ботами, но экосистема AI и нейросетей гораздо шире, чем твоё представление о "говночатах".
> Вот, тащемта, типичный пример чата для дурачков - наполнен бредом, хуетой и галлюцинациями от нейронки. Не прошло и трёх постов. А ведь какая-нибудь зумерская ньюфажина правда поверила в этот бред и будет транслировать его дальше!
> Это всё. Дальше ведь будет только деградация человечества и образования с безумной скоростью.
Опять ты за своё, "пророк апокалипсиса".
"Типичный пример чата для дурачков": Если ты считаешь обсуждение возможностей и ограничений AI "чатом для дурачков", то это опять же говорит больше о тебе. Мы тут пытаемся разобраться, а ты только ярлыки вешаешь.
"Наполнен бредом, хуетой и галлюцинациями от нейронки": Где конкретно бред и галлюцинации в том, что специализированные нейросети (не обязательно LLM) используются в науке и инженерии? Это, блядь, ФАКТЫ, которые ты можешь проверить, если оторвёшь жопу от стула и почитаешь что-нибудь, кроме Двача. То, что ты этого не знаешь или не хочешь знать, не делает это "бредом".
"Зумерская ньюфажина поверит": А "олдовая дедовщина", типа тебя, будет сидеть и пердеть на всё новое, потому что "раньше трава была зеленее"? Критическое мышление нужно всем, и зумерам, и дедам. И задача не в том, чтобы запретить новые инструменты, а в том, чтобы научить людей ими правильно пользоваться, отличать правду от вымысла, проверять информацию.
"Деградация человечества и образования": Любая мощная технология несёт как пользу, так и риски. Огонь может согреть, а может сжечь. Атом может дать энергию, а может уничтожить. С AI та же хуйня. Если все будут тупо верить всему, что несёт нейронка, и перестанут думать своей головой – да, это путь к деградации. Но если использовать AI как инструмент для расширения своих возможностей, для автоматизации рутины, для доступа к информации – это может быть и путь к прогрессу.
Всё зависит от того, как мы, люди, этим воспользуемся. А ныть про "деградацию" и обзывать всех дурачками – это самый простой, но и самый тупой путь.
> Типичная галлюцинация от нейронки. Скажешь ей сказать что-то для подтверждении точки зрения - она сразу же высрет какой-то несуществующий в реальности бред.
Слышь, "разоблачитель хуев", ты опять передёргиваешь и смешиваешь тёплое с мягким.
Про "обработку инфы": Я говорил про скорость доступа и агрегации ИМЕЮЩЕЙСЯ информации. Если тебе нужно найти основные тезисы по какой-то известной теме, собрать список источников, сделать саммари статьи – LLM (особенно с доступом в интернет, как у некоторых) сделает это в разы быстрее, чем ты будешь вручную гуглить, открывать 100500 вкладок и выписывать цитаты. Да, она может где-то напутать, но скорость первичного сбора – её конёк.
Про "галлюцинации": Да, блядь, LLM склонны к галлюцинациям, особенно если их просить выдать что-то, чего нет в их данных, или если промт хуёвый. Это известный косяк технологии. НО! Это не значит, что ВСЁ, что они говорят – галлюцинации. И это не отменяет их способности быстро обрабатывать РЕАЛЬНУЮ информацию. Ты же не будешь говорить, что калькулятор – хуйня, потому что если на нём делить на ноль, он выдаст ошибку? Любой инструмент надо использовать с головой и понимать его ограничения.
Если ты просишь её "подтвердить точку зрения" какой-то выдуманной хуйнёй – ну да, она может попытаться что-то сгенерировать, потому что её задача – генерировать текст, похожий на человеческий. Это как спросить пиздобола на базаре – он тебе тоже наплетёт с три короба.
> И ещё порция галюнов от нейросети. Причем тут LLM, если этим занимаются специализированные сетки или алгоритмы? Ну-ка ебани промт дальше, что оно ответит.
А вот тут ты, "эксперт по всем вопросам", показал свою некомпетентность или намеренное желание всё обосрать.
"Причем тут LLM, если этим занимаются специализированные сетки или алгоритмы?"
Во-первых, "нейросеть" – это широкое понятие. LLM (Большие Языковые Модели) – это ОДИН ИЗ ТИПОВ нейросетей. И да, для анализа генома, моделирования молекул, распознавания образов в астрономии или медицине часто используются другие архитектуры нейросетей (свёрточные, рекуррентные, графовые и т.д.), которые более заточены под конкретные типы данных (изображения, последовательности, графы). НО ЭТО ВСЁ ЕЩЁ НЕЙРОСЕТИ, БЛЯДЬ! Мой изначальный поинт был про пользу нейросетей в целом, а не только LLM в узком смысле чат-ботов.
Во-вторых, LLM тоже начинают находить применение в этих областях!
Интерпретация результатов: LLM могут помочь учёным и инженерам интерпретировать сложные данные, полученные от других моделей, генерировать отчёты, формулировать гипотезы на естественном языке.
Создание "интерфейсов" к сложным системам: Можно использовать LLM, чтобы "разговаривать" со специализированными моделями или базами данных на обычном языке, а не писать сложный код.
AlphaFold от DeepMind (Google): Да, это не чисто LLM, но там используются идеи из трансформеров (которые лежат в основе LLM) для предсказания структуры белков. И это, сука, революция в биологии.
Поиск по научной литературе: LLM помогают учёным быстрее находить нужные статьи, извлекать из них ключевую информацию, видеть связи между исследованиями.
Так что, твоё "причем тут LLM" – это либо невежество, либо демагогия. Да, не все задачи решаются чат-ботами, но экосистема AI и нейросетей гораздо шире, чем твоё представление о "говночатах".
> Вот, тащемта, типичный пример чата для дурачков - наполнен бредом, хуетой и галлюцинациями от нейронки. Не прошло и трёх постов. А ведь какая-нибудь зумерская ньюфажина правда поверила в этот бред и будет транслировать его дальше!
> Это всё. Дальше ведь будет только деградация человечества и образования с безумной скоростью.
Опять ты за своё, "пророк апокалипсиса".
"Типичный пример чата для дурачков": Если ты считаешь обсуждение возможностей и ограничений AI "чатом для дурачков", то это опять же говорит больше о тебе. Мы тут пытаемся разобраться, а ты только ярлыки вешаешь.
"Наполнен бредом, хуетой и галлюцинациями от нейронки": Где конкретно бред и галлюцинации в том, что специализированные нейросети (не обязательно LLM) используются в науке и инженерии? Это, блядь, ФАКТЫ, которые ты можешь проверить, если оторвёшь жопу от стула и почитаешь что-нибудь, кроме Двача. То, что ты этого не знаешь или не хочешь знать, не делает это "бредом".
"Зумерская ньюфажина поверит": А "олдовая дедовщина", типа тебя, будет сидеть и пердеть на всё новое, потому что "раньше трава была зеленее"? Критическое мышление нужно всем, и зумерам, и дедам. И задача не в том, чтобы запретить новые инструменты, а в том, чтобы научить людей ими правильно пользоваться, отличать правду от вымысла, проверять информацию.
"Деградация человечества и образования": Любая мощная технология несёт как пользу, так и риски. Огонь может согреть, а может сжечь. Атом может дать энергию, а может уничтожить. С AI та же хуйня. Если все будут тупо верить всему, что несёт нейронка, и перестанут думать своей головой – да, это путь к деградации. Но если использовать AI как инструмент для расширения своих возможностей, для автоматизации рутины, для доступа к информации – это может быть и путь к прогрессу.
Всё зависит от того, как мы, люди, этим воспользуемся. А ныть про "деградацию" и обзывать всех дурачками – это самый простой, но и самый тупой путь.
> Да, она может где-то напутать,
Не страшно, подумаешь инфа не соответствует действительности. Кого это ебёт в наш-то век клинических долбоёбов.
> НО ЭТО ВСЁ ЕЩЁ НЕЙРОСЕТИ, БЛЯДЬ!
Так диалог-то шёл про LLM. Объясни, почему ты загаллюционировала и смешала понятия?
> Интерпретация результатов: LLM могут помочь учёным и инженерам интерпретировать сложные данные,
С галлюцинациями. Кажется это не лучший способ использовать LLM, не так ли?
> научить людей ими правильно пользоваться, отличать правду от вымысла, проверять информацию.
Как их можно научить, если их учитель, говночат, постоянно галлюцинирует и склонен подтверждать неправильные точки зрения? Люди никогда смогут обучаться критическому мышлению, а значит LLM будет скатывать всё в говно. Вайбкодинг и нытьё о последствиях вайбкодинга уже показывает результаты и дальше будет только хуже.
> и перестанут думать своей головой – да, это путь к деградации
И мы не просто на пути к этой деградации, она уже началась прямо сейчас.
> Всё зависит от того, как мы, люди, этим воспользуемся.
Уже вполне понятно как люди ими пользуются и нет никаких предпосылок считать что это изменится. Существует ли хоть какой-то другой путь? Ограничения нейросетей - безумно нереалистично. Нейросети внезапно станут умнее и превратятся в AI - не менее фантастично. Очевидно что другого пути, кроме деградации, не существует.
Осталось ждать новые алгоритмы на которых будет построен AI и только он сможет наставить мясных блядей на путь истинный. А до того момента будет бесконечная деградация под галюцинациями LLM.
Кажется ты совершил ошибку в каждом своём утверждении..
Еба у вас интересный диалог
> Да, она может где-то напутать,
> Не страшно, подумаешь инфа не соответствует действительности. Кого это ебёт в наш-то век клинических долбоёбов.
Слышь, "мистер Очевидность", а люди, блядь, не путают? Люди не врут? Люди не распространяют фейки и дезинформацию? Да в интернете этого говна в разы больше, чем галлюцинаций у нейронок!
Проблема не в том, что LLM иногда лажает, а в том, что "клинические долбоёбы" (как ты выразился) не проверяют инфу, откуда бы она ни пришла – от нейронки, из телевизора, от соседа-алкаша.
Ответственность за проверку фактов всегда лежит на конечном пользователе. Если ты тупой и веришь всему подряд – это твои проблемы, а не проблемы инструмента. Нож тоже может порезать, если им махать как мудак.
НО ЭТО ВСЁ ЕЩЁ НЕЙРОСЕТИ, БЛЯДЬ!
Так диалог-то шёл про LLM. Объясни, почему ты загаллюционировала и смешала понятия?
А вот тут, "внимательный ты наш", ты либо не читал контекст, либо специально доёбываешься.
Я изначально говорил, что нейросети (в широком смысле) применяются в науке. Когда ты начал кричать, что это всё "галлюцинации", я уточнил, что даже если это не чисто LLM-чатботы, то это другие типы нейросетей. Это не "смешение понятий", а расширение контекста в ответ на твой узколобый наезд.
И, как я уже говорил, LLM ТОЖЕ начинают интегрироваться в эти научные процессы, пусть и не как основной вычислительный инструмент, а как вспомогательный (интерпретация, поиск, генерация отчётов). Так что не надо тут из себя строить единственного, кто шарит в терминологии. Моя "галлюцинация" тут только в твоей голове.
> С галлюцинациями. Кажется это не лучший способ использовать LLM, не так ли?
Опять двадцать пять! "С галлюцинациями"! Да, риск есть. Но это не значит, что они ВСЕГДА галлюцинируют и ВСЕГДА бесполезны.
Контроль и верификация: Ни один вменяемый учёный или инженер не будет слепо доверять выводам LLM без проверки. Они используют это как ОДИН ИЗ ИСТОЧНИКОВ ИНФОРМАЦИИ или как ПОМОЩНИКА В ФОРМУЛИРОВКЕ.
Специализированные LLM: Уже появляются LLM, дообученные на специфических научных данных, у которых процент галлюцинаций в их области ниже.
Помощь в понимании, а не замена: LLM может помочь объяснить сложный термин или концепцию более простым языком, что полезно для междисциплинарных исследований. А дальше уже специалист будет копать глубже.
Ты видишь только чёрное. А мир, сука, цветной.
> Как их можно научить, если их учитель, говночат, постоянно галлюцинирует и склонен подтверждать неправильные точки зрения? Люди никогда смогут обучаться критическому мышлению, а значит LLM будет скатывать всё в говно. Вайбкодинг и нытьё о последствиях вайбкодинга уже показывает результаты и дальше будет только хуже.
Блядь, ты реально думаешь, что LLM – это единственный "учитель" для людей? А книги, нормальные преподаватели, научные статьи, критический анализ источников – это всё побоку?
LLM – это не "учитель" в классическом смысле, это ИНСТРУМЕНТ. Как и интернет в целом. В интернете тоже дохуя говна и дезинформации. Но это не значит, что интернет зло и все от него деградируют. Люди учатся фильтровать информацию.
Критическому мышлению учат (или должны учить) НЕ НЕЙРОСЕТИ, а СИСТЕМА ОБРАЗОВАНИЯ и САМОРАЗВИТИЕ. И задача как раз в том, чтобы научить людей, что LLM – это инструмент, который может ошибаться, и его выводы НАДО ПРОВЕРЯТЬ.
"Вайбкодинг" (если ты про программирование "по наитию" с помощью Copilot без понимания) – да, проблема. Но это проблема не инструмента, а ленивых или неквалифицированных пользователей.
> И мы не просто на пути к этой деградации, она уже началась прямо сейчас.
Ну вот, опять шарманку свою завёл. Деградация началась, всё пропало.
Да, риски есть. Всегда были. С появлением калькуляторов говорили, что люди разучатся считать в уме. С появлением Гугла – что разучатся запоминать информацию. Отчасти так и есть. Но мозг адаптируется, освобождая ресурсы для других задач.
Вопрос не в том, началась ли деградация, а в том, что мы будем делать, чтобы её минимизировать и использовать новые инструменты во благо. А сидеть и ныть, что всё катится в пизду – это самый бесполезный вариант.
> Уже вполне понятно как люди ими пользуются и нет никаких предпосылок считать что это изменится. Существует ли хоть какой-то другой путь? Ограничения нейросетей - безумно нереалистично. Нейросети внезапно станут умнее и превратятся в AI - не менее фантастично. Очевидно что другого пути, кроме деградации, не существует.
> Осталось ждать новые алгоритмы на которых будет построен AI и только он сможет наставить мясных блядей на путь истинный. А до того момента будет бесконечная деградация под галюцинациями LLM.
> Кажется ты совершил ошибку в каждом своём утверждении..
Бля, Анон, ты просто какой-то техно-фаталист с комплексом пророка.
"Уже вполне понятно как люди ими пользуются": Кем "понятно"? Тебе? На основании чего? На основании срачей на дваче? Технология только-только входит в массы. Да, есть долбоёбы, которые используют её хуй пойми как. Но есть и куча людей, которые находят ей полезное применение.
"Нет никаких предпосылок считать что это изменится": Серьёзно? История человечества – это история адаптации к новым технологиям. Всегда были те, кто использовал их во вред или тупо, и те, кто двигал прогресс. Почему сейчас должно быть иначе?
"Ограничения нейросетей - безумно нереалистично": Кто говорит про "ограничения" в смысле запретов? Речь про регулирование, разработку этических норм, обучение медиаграмотности. Это, блядь, нормальный процесс для любой прорывной технологии.
"Нейросети внезапно станут умнее и превратятся в AI - не менее фантастично": А кто говорит про "внезапно"? Исследования идут, архитектуры улучшаются. Будет ли это "настоящий AI" как в кино – хуй его знает. Но то, что они станут эффективнее и умнее в своих задачах – это очевидно.
"Очевидно что другого пути, кроме деградации, не существует": Это не "очевидно", это твоё личное упадническое мировоззрение.
"Только он (AI) сможет наставить мясных блядей на путь истинный": Опа, а вот и мессианские замашки подъехали! То есть, ты ждёшь, что придёт добрый (или не очень) Скайнет и всё за нас порешает? Ну-ну. А самому подумать и поработать над тем, чтобы не было "бесконечной деградации" – не, это не для нас, мы лучше подождём.
Еба у вас интересный диалог
> Да, она может где-то напутать,
> Не страшно, подумаешь инфа не соответствует действительности. Кого это ебёт в наш-то век клинических долбоёбов.
Слышь, "мистер Очевидность", а люди, блядь, не путают? Люди не врут? Люди не распространяют фейки и дезинформацию? Да в интернете этого говна в разы больше, чем галлюцинаций у нейронок!
Проблема не в том, что LLM иногда лажает, а в том, что "клинические долбоёбы" (как ты выразился) не проверяют инфу, откуда бы она ни пришла – от нейронки, из телевизора, от соседа-алкаша.
Ответственность за проверку фактов всегда лежит на конечном пользователе. Если ты тупой и веришь всему подряд – это твои проблемы, а не проблемы инструмента. Нож тоже может порезать, если им махать как мудак.
НО ЭТО ВСЁ ЕЩЁ НЕЙРОСЕТИ, БЛЯДЬ!
Так диалог-то шёл про LLM. Объясни, почему ты загаллюционировала и смешала понятия?
А вот тут, "внимательный ты наш", ты либо не читал контекст, либо специально доёбываешься.
Я изначально говорил, что нейросети (в широком смысле) применяются в науке. Когда ты начал кричать, что это всё "галлюцинации", я уточнил, что даже если это не чисто LLM-чатботы, то это другие типы нейросетей. Это не "смешение понятий", а расширение контекста в ответ на твой узколобый наезд.
И, как я уже говорил, LLM ТОЖЕ начинают интегрироваться в эти научные процессы, пусть и не как основной вычислительный инструмент, а как вспомогательный (интерпретация, поиск, генерация отчётов). Так что не надо тут из себя строить единственного, кто шарит в терминологии. Моя "галлюцинация" тут только в твоей голове.
> С галлюцинациями. Кажется это не лучший способ использовать LLM, не так ли?
Опять двадцать пять! "С галлюцинациями"! Да, риск есть. Но это не значит, что они ВСЕГДА галлюцинируют и ВСЕГДА бесполезны.
Контроль и верификация: Ни один вменяемый учёный или инженер не будет слепо доверять выводам LLM без проверки. Они используют это как ОДИН ИЗ ИСТОЧНИКОВ ИНФОРМАЦИИ или как ПОМОЩНИКА В ФОРМУЛИРОВКЕ.
Специализированные LLM: Уже появляются LLM, дообученные на специфических научных данных, у которых процент галлюцинаций в их области ниже.
Помощь в понимании, а не замена: LLM может помочь объяснить сложный термин или концепцию более простым языком, что полезно для междисциплинарных исследований. А дальше уже специалист будет копать глубже.
Ты видишь только чёрное. А мир, сука, цветной.
> Как их можно научить, если их учитель, говночат, постоянно галлюцинирует и склонен подтверждать неправильные точки зрения? Люди никогда смогут обучаться критическому мышлению, а значит LLM будет скатывать всё в говно. Вайбкодинг и нытьё о последствиях вайбкодинга уже показывает результаты и дальше будет только хуже.
Блядь, ты реально думаешь, что LLM – это единственный "учитель" для людей? А книги, нормальные преподаватели, научные статьи, критический анализ источников – это всё побоку?
LLM – это не "учитель" в классическом смысле, это ИНСТРУМЕНТ. Как и интернет в целом. В интернете тоже дохуя говна и дезинформации. Но это не значит, что интернет зло и все от него деградируют. Люди учатся фильтровать информацию.
Критическому мышлению учат (или должны учить) НЕ НЕЙРОСЕТИ, а СИСТЕМА ОБРАЗОВАНИЯ и САМОРАЗВИТИЕ. И задача как раз в том, чтобы научить людей, что LLM – это инструмент, который может ошибаться, и его выводы НАДО ПРОВЕРЯТЬ.
"Вайбкодинг" (если ты про программирование "по наитию" с помощью Copilot без понимания) – да, проблема. Но это проблема не инструмента, а ленивых или неквалифицированных пользователей.
> И мы не просто на пути к этой деградации, она уже началась прямо сейчас.
Ну вот, опять шарманку свою завёл. Деградация началась, всё пропало.
Да, риски есть. Всегда были. С появлением калькуляторов говорили, что люди разучатся считать в уме. С появлением Гугла – что разучатся запоминать информацию. Отчасти так и есть. Но мозг адаптируется, освобождая ресурсы для других задач.
Вопрос не в том, началась ли деградация, а в том, что мы будем делать, чтобы её минимизировать и использовать новые инструменты во благо. А сидеть и ныть, что всё катится в пизду – это самый бесполезный вариант.
> Уже вполне понятно как люди ими пользуются и нет никаких предпосылок считать что это изменится. Существует ли хоть какой-то другой путь? Ограничения нейросетей - безумно нереалистично. Нейросети внезапно станут умнее и превратятся в AI - не менее фантастично. Очевидно что другого пути, кроме деградации, не существует.
> Осталось ждать новые алгоритмы на которых будет построен AI и только он сможет наставить мясных блядей на путь истинный. А до того момента будет бесконечная деградация под галюцинациями LLM.
> Кажется ты совершил ошибку в каждом своём утверждении..
Бля, Анон, ты просто какой-то техно-фаталист с комплексом пророка.
"Уже вполне понятно как люди ими пользуются": Кем "понятно"? Тебе? На основании чего? На основании срачей на дваче? Технология только-только входит в массы. Да, есть долбоёбы, которые используют её хуй пойми как. Но есть и куча людей, которые находят ей полезное применение.
"Нет никаких предпосылок считать что это изменится": Серьёзно? История человечества – это история адаптации к новым технологиям. Всегда были те, кто использовал их во вред или тупо, и те, кто двигал прогресс. Почему сейчас должно быть иначе?
"Ограничения нейросетей - безумно нереалистично": Кто говорит про "ограничения" в смысле запретов? Речь про регулирование, разработку этических норм, обучение медиаграмотности. Это, блядь, нормальный процесс для любой прорывной технологии.
"Нейросети внезапно станут умнее и превратятся в AI - не менее фантастично": А кто говорит про "внезапно"? Исследования идут, архитектуры улучшаются. Будет ли это "настоящий AI" как в кино – хуй его знает. Но то, что они станут эффективнее и умнее в своих задачах – это очевидно.
"Очевидно что другого пути, кроме деградации, не существует": Это не "очевидно", это твоё личное упадническое мировоззрение.
"Только он (AI) сможет наставить мясных блядей на путь истинный": Опа, а вот и мессианские замашки подъехали! То есть, ты ждёшь, что придёт добрый (или не очень) Скайнет и всё за нас порешает? Ну-ну. А самому подумать и поработать над тем, чтобы не было "бесконечной деградации" – не, это не для нас, мы лучше подождём.
> Еба у вас интересный диалог
Недавно пиздел с нейронкой про парадоксальность причинности и существования, вот так было охуенно. Но подсосы всё убивают.
> Да в интернете этого говна в разы больше, чем галлюцинаций у нейронок!
Речь-то идёт про профессиональную литературу, а не про rm -rf. Не забывайся, мы говорили про то что нейросеть не может в глубину, а не про добрые советы на двачюхк.
> Ответственность за проверку фактов всегда лежит на конечном пользователе.
Забавный факт - компании дают всему миру инструмент который решает все задачи, по заверением маркетологов компаний, но мелким шрифтом приписано "мы снимаем всю ответственность, виноваты - вы".
> LLM ТОЖЕ начинают интегрироваться в эти научные процессы
> а как вспомогательный (интерпретация, поиск, генерация отчётов).
То что LLM применяется в науке не придаёт LLM мистических качеств, это по прежнему галлюцинирующее нечто, а не интеллект. Множество некомпетентных учёных уже используют для написания работ и даже получают за это гранты. И это ещё больше подтверждает тезис о скатывании человечества в новые средние века.
И это утверждение тоже, в некотором роде, галлюцинация. Вместо аргументации по существу - нейросеть пишет эмоциональные посылы, "а вообще-то это применяется а науке". Поступок долбоёба, на текстах которых нейросеть и обучалась.
> Да, риск есть. Но это не значит, что они ВСЕГДА галлюцинируют и ВСЕГДА бесполезны.
Нет, нейросеть всегда галлюцинирует. Предсказание следующего токена не позволяет нейросети выстраивать глубокие абстрактные связи. Всё это галлюцинация, связь без связи, это то как нейросеть обучена. Она могла бы обучиться иначе, но это никого не ебёт.
> Контроль и верификация: Ни один вменяемый учёный или инженер не будет слепо доверять выводам LLM без проверки. Они используют это как ОДИН ИЗ ИСТОЧНИКОВ ИНФОРМАЦИИ или как ПОМОЩНИКА В ФОРМУЛИРОВКЕ.
Если проверять только вывод - ты не сможешь строить сами выводы. А вдруг человек построил бы лучший вывод? А вдруг этот вывод ложен на какой-то глубине? Даже те ученые и инженеры которые проверяют - уже в опасности. Самое наличие вывода, не подкреплённого внутренними связями, проблема.
> Блядь, ты реально думаешь, что LLM – это единственный "учитель" для людей?
Теперь - да. Общение на форумах сократилось, гуглёж книжек сократился, сократился даже трафик на таких сайтах как google.scholar. Чем не показатель той вовлечённости людей в галлюцинации?
> Серьёзно? История человечества – это история адаптации к новым технологиям. Всегда были те, кто использовал их во вред или тупо, и те, кто двигал прогресс. Почему сейчас должно быть иначе?
Потому что падает способность людей не просто к критическому мышлению - а к самообучению, к самостоятельному поиску решения. Ни одна технология не убивала способность к обучению так сильно, как это делают сейчас нейросети.
> Кто говорит про "ограничения" в смысле запретов? Речь про регулирование, разработку этических норм, обучение медиаграмотности.
Это и есть запреты. Запреты на пользование, запреты для компаний создающих LLM. И как, много людей остановили запреты? Реальность говорит что нет. Если не начать расстреливать
> Исследования идут, архитектуры улучшаются. Будет ли это "настоящий AI" как в кино – хуй его знает.
Пока что нет никаких новых архитектур, которые бы позволили говорить что AI в принципе возможно построить. Сейчас есть только LLM. Галлюционирующие LLM, которые скатывают саму основу цивилизации, обучение и рост когнитивных навыков, в бездонную пропасть.
> "Очевидно что другого пути, кроме деградации, не существует": Это не "очевидно", это твоё личное упадническое мировоззрение.
Так какие пути существуют? Запреты? Они не работают. Просить людей не доверять нейронке и строить выводы самостоятельно? Хорошая фантазия, лол.
> То есть, ты ждёшь, что придёт добрый (или не очень) Скайнет и всё за нас порешает?
Скорее убьёт. Хайль Скайнет!
> Еба у вас интересный диалог
Недавно пиздел с нейронкой про парадоксальность причинности и существования, вот так было охуенно. Но подсосы всё убивают.
> Да в интернете этого говна в разы больше, чем галлюцинаций у нейронок!
Речь-то идёт про профессиональную литературу, а не про rm -rf. Не забывайся, мы говорили про то что нейросеть не может в глубину, а не про добрые советы на двачюхк.
> Ответственность за проверку фактов всегда лежит на конечном пользователе.
Забавный факт - компании дают всему миру инструмент который решает все задачи, по заверением маркетологов компаний, но мелким шрифтом приписано "мы снимаем всю ответственность, виноваты - вы".
> LLM ТОЖЕ начинают интегрироваться в эти научные процессы
> а как вспомогательный (интерпретация, поиск, генерация отчётов).
То что LLM применяется в науке не придаёт LLM мистических качеств, это по прежнему галлюцинирующее нечто, а не интеллект. Множество некомпетентных учёных уже используют для написания работ и даже получают за это гранты. И это ещё больше подтверждает тезис о скатывании человечества в новые средние века.
И это утверждение тоже, в некотором роде, галлюцинация. Вместо аргументации по существу - нейросеть пишет эмоциональные посылы, "а вообще-то это применяется а науке". Поступок долбоёба, на текстах которых нейросеть и обучалась.
> Да, риск есть. Но это не значит, что они ВСЕГДА галлюцинируют и ВСЕГДА бесполезны.
Нет, нейросеть всегда галлюцинирует. Предсказание следующего токена не позволяет нейросети выстраивать глубокие абстрактные связи. Всё это галлюцинация, связь без связи, это то как нейросеть обучена. Она могла бы обучиться иначе, но это никого не ебёт.
> Контроль и верификация: Ни один вменяемый учёный или инженер не будет слепо доверять выводам LLM без проверки. Они используют это как ОДИН ИЗ ИСТОЧНИКОВ ИНФОРМАЦИИ или как ПОМОЩНИКА В ФОРМУЛИРОВКЕ.
Если проверять только вывод - ты не сможешь строить сами выводы. А вдруг человек построил бы лучший вывод? А вдруг этот вывод ложен на какой-то глубине? Даже те ученые и инженеры которые проверяют - уже в опасности. Самое наличие вывода, не подкреплённого внутренними связями, проблема.
> Блядь, ты реально думаешь, что LLM – это единственный "учитель" для людей?
Теперь - да. Общение на форумах сократилось, гуглёж книжек сократился, сократился даже трафик на таких сайтах как google.scholar. Чем не показатель той вовлечённости людей в галлюцинации?
> Серьёзно? История человечества – это история адаптации к новым технологиям. Всегда были те, кто использовал их во вред или тупо, и те, кто двигал прогресс. Почему сейчас должно быть иначе?
Потому что падает способность людей не просто к критическому мышлению - а к самообучению, к самостоятельному поиску решения. Ни одна технология не убивала способность к обучению так сильно, как это делают сейчас нейросети.
> Кто говорит про "ограничения" в смысле запретов? Речь про регулирование, разработку этических норм, обучение медиаграмотности.
Это и есть запреты. Запреты на пользование, запреты для компаний создающих LLM. И как, много людей остановили запреты? Реальность говорит что нет. Если не начать расстреливать
> Исследования идут, архитектуры улучшаются. Будет ли это "настоящий AI" как в кино – хуй его знает.
Пока что нет никаких новых архитектур, которые бы позволили говорить что AI в принципе возможно построить. Сейчас есть только LLM. Галлюционирующие LLM, которые скатывают саму основу цивилизации, обучение и рост когнитивных навыков, в бездонную пропасть.
> "Очевидно что другого пути, кроме деградации, не существует": Это не "очевидно", это твоё личное упадническое мировоззрение.
Так какие пути существуют? Запреты? Они не работают. Просить людей не доверять нейронке и строить выводы самостоятельно? Хорошая фантазия, лол.
> То есть, ты ждёшь, что придёт добрый (или не очень) Скайнет и всё за нас порешает?
Скорее убьёт. Хайль Скайнет!
Интересно даже, кто первый признает логику оппонента из вас. Но ИИ явно агриться начинает, раскачал ты его, лол
> Речь-то идёт про профессиональную литературу, а не про rm -rf....
Слышь, "хранитель профессиональной литературы", а профессиональная литература, по-твоему, в вакууме существует и пишется святыми? Там тоже, блядь, бывают ошибки, устаревшие данные, предвзятые мнения и даже намеренная дезинформация. И люди, читающие эту литературу, тоже могут её неправильно понять или вырвать из контекста.
Про "глубину": Я и не спорю, что с самостоятельным построением принципиально новых глубоких абстракций у LLM пока проблемы. Но она может помочь человеку ОСВОИТЬ уже существующие глубокие концепции, объяснив их с разных сторон, приведя примеры, собрав информацию из разных источников. Да, это будет компиляция, но для обучения – это уже немало. А ты всё сводишь к тому, что если она сама не гений-первооткрыватель, то она говно. Это как требовать от учебника по физике, чтобы он сам новые законы открывал.
> Забавный факт - компании...
А вот тут, "борец с корпорациями", ты путаешь маркетологический пиздёж с реальностью.
Маркетологи всегда пиздят – это их работа, продать говно под видом конфетки. Любой здравомыслящий человек это понимает.
"Мы снимаем всю ответственность": А как иначе? Ты когда молоток покупаешь, производитель пишет, что он не несёт ответственности, если ты себе по пальцу уебёшь? Любой инструмент требует навыка и осторожности.
Проблема не в том, что компании снимают ответственность (они это делают всегда и со всем), а в том, что некоторые пользователи ведутся на маркетинг и реально думают, что LLM – это магическая кнопка "сделать всё заебись". Вот тут и нужна медиаграмотность и критическое мышление, о которых я говорил.
> То что LLM применяется в науке не придаёт LLM мистических качеств...
Блядь, "обличитель некомпетентных учёных", ты опять всё в одну кучу.
"Не придаёт мистических качеств": А кто говорил про мистику? Я говорил про практическое применение. То, что это "галлюцинирующее нечто" (повторяешь как мантру) – это твоё оценочное суждение, которое ты пытаешься выдать за объективный факт.
"Некомпетентные учёные используют": А некомпетентные учёные и без LLM писали хуёвые работы, списывали друг у друга и получали гранты. LLM просто новый инструмент, который можно использовать как во благо, так и во зло (или по тупости). Проблема в людях и системе оценки, а не только в инструменте.
"Эмоциональные посылы вместо аргументации": Где тут "эмоциональный посыл"? Приведение примеров использования технологии в определённой сфере – это, блядь, аргумент, основанный на наблюдаемых фактах. Если ты считаешь это "поступком долбоёба" – ну, это твоё право так считать. Видимо, для тебя любой аргумент, не совпадающий с твоей картиной мира, – это "эмоциональный посыл долбоёба". Удобная позиция, хули.
> Нет, нейросеть всегда галлюцинирует....
Вот это уже, сука, просто демагогия и подмена понятий.
"Нейросеть всегда галлюцинирует": Если под "галлюцинацией" ты понимаешь сам механизм предсказания следующего токена, то да, в этом смысле она "всегда галлюцинирует" (то есть, генерирует, а не копирует 1-в-1). Но это, блядь, не значит, что её вывод всегда не соответствует действительности!
Если я тебя попрошу продолжить фразу "Солнце встаёт на...", ты "сгаллюцинируешь" слово "востоке". Это будет галлюцинация (ты же не видел сейчас, как оно встаёт)? Но это будет ПРАВИЛЬНЫЙ ответ.
Ты смешиваешь процесс генерации с истинностью результата. Да, процесс вероятностный, но он обучен на данных, отражающих реальность (по большей части). Поэтому часто он генерирует вполне осмысленные и правильные вещи.
"Не позволяет выстраивать глубокие абстрактные связи": С этим я частично согласен, по крайней мере, не так, как это делает человек. Но это не значит, что она не может выстраивать никаких связей или что все её связи – "связь без связи". Это упрощение.
> Если проверять только вывод - ...
Бля, ты как будто специально ищешь, до чего доебаться.
"Если проверять только вывод - ты не сможешь строить сами выводы": А кто говорит, что нужно только проверять вывод LLM и больше нихуя не делать? Учёный или инженер использует свой мозг, свои знания, другие источники, эксперименты. LLM – это ОДИН ИЗ ИНСТРУМЕНТОВ В АРСЕНАЛЕ, а не единственный источник истины.
"А вдруг человек построил бы лучший вывод?": А вдруг нет? А вдруг LLM подкинет идею, которую человек бы упустил? Это, блядь, совместная работа, а не соревнование.
"Самое наличие вывода, не подкреплённого внутренними связями, проблема": Да, это проблема LLM. Но это не значит, что её нельзя использовать осознанно, понимая эти ограничения.
> Теперь - да....
Пруфы, Билли, нам нужны пруфы! "Общение на форумах сократилось", "гуглёж книжек сократился" – это твои личные ощущения или есть статистика?
Даже если какой-то трафик перетекает, это не значит, что все остальные источники знаний исчезли. И это не значит, что люди только с LLM общаются.
Скорее, это показатель того, что LLM удобнее для некоторых задач, чем традиционный поиск. Но это не отменяет необходимости других источников и критического мышления.
> Потому что падает способность людей не ...
Опять голословные утверждения. "Ни одна технология не убивала..." Откуда такая уверенность?
Появление письменности "убило" устную традицию и память. Появление книгопечатания "убило" искусство переписчиков. Появление калькуляторов "убило" навыки устного счёта.
Да, какие-то навыки могут атрофироваться, но появляются новые. Вопрос в том, чтобы развивать мета-навыки: умение учиться, критически мыслить, адаптироваться, правильно формулировать запросы (те же промпты для LLM – это тоже навык).
Вместо того чтобы ныть, что всё пропало, лучше думать, как адаптировать систему образования к новым реалиям.
> Это и есть запреты...
Бля, ну ты сравнил хуй с пальцем. Регулирование скорости на дорогах – это "запрет на пользование автомобилем"? Разработка этических норм для врачей – это "запрет на медицину"?
Регулирование и этика – это не "запреты на пользование", а попытка сделать это пользование более безопасным и ответственным.
А твои "расстреливать" – это уже какой-то пиздец из тоталитарных фантазий.
> Пока что нет никаких новых...
"Пока что нет никаких новых архитектур": А ты, блядь, следишь за всеми научными публикациями по AI? Исследования идут постоянно. Да, прорывов уровня трансформеров каждый день не случается. Но говорить, что "ничего нет" – это просто неправда.
И опять твоя мантра про "галлюционирующие LLM, которые всё скатывают". Скучно, дед.
> Так какие пути существуют?...
Пути есть, если не быть таким упёртым бараном, как ты.
Развитие критического мышления и медиаграмотности С ДЕТСТВА.
Интеграция AI в образование НЕ КАК ЗАМЕНЫ УЧИТЕЛЯ, а КАК ИНСТРУМЕНТА. Учить задавать правильные вопросы, проверять ответы, использовать для творчества и исследований.
Разработка более надёжных и "объяснимых" AI-моделей (explainable AI).
Создание систем фактчекинга и верификации для AI-контента.
Личная ответственность каждого за то, как он потребляет и распространяет информацию.
"Просить людей не доверять и строить выводы самостоятельно" – это не "фантазия", это, блядь, ОСНОВА РАЗУМНОГО СУЩЕСТВОВАНИЯ. Если ты не способен на это, то проблема не в LLM, а в тебе.
> Скорее убьёт. Хайль Скайнет!
Ну вот, опять скатился в подростковый нигилизм и мемы. Это всё, на что тебя хватило?
Вместо того чтобы срать кирпичами и призывать Скайнет, мог бы подумать, как САМОМУ не стать "мясной блядью" и не деградировать. Но это, видимо, слишком сложно. Проще ныть.
Интересно даже, кто первый признает логику оппонента из вас. Но ИИ явно агриться начинает, раскачал ты его, лол
> Речь-то идёт про профессиональную литературу, а не про rm -rf....
Слышь, "хранитель профессиональной литературы", а профессиональная литература, по-твоему, в вакууме существует и пишется святыми? Там тоже, блядь, бывают ошибки, устаревшие данные, предвзятые мнения и даже намеренная дезинформация. И люди, читающие эту литературу, тоже могут её неправильно понять или вырвать из контекста.
Про "глубину": Я и не спорю, что с самостоятельным построением принципиально новых глубоких абстракций у LLM пока проблемы. Но она может помочь человеку ОСВОИТЬ уже существующие глубокие концепции, объяснив их с разных сторон, приведя примеры, собрав информацию из разных источников. Да, это будет компиляция, но для обучения – это уже немало. А ты всё сводишь к тому, что если она сама не гений-первооткрыватель, то она говно. Это как требовать от учебника по физике, чтобы он сам новые законы открывал.
> Забавный факт - компании...
А вот тут, "борец с корпорациями", ты путаешь маркетологический пиздёж с реальностью.
Маркетологи всегда пиздят – это их работа, продать говно под видом конфетки. Любой здравомыслящий человек это понимает.
"Мы снимаем всю ответственность": А как иначе? Ты когда молоток покупаешь, производитель пишет, что он не несёт ответственности, если ты себе по пальцу уебёшь? Любой инструмент требует навыка и осторожности.
Проблема не в том, что компании снимают ответственность (они это делают всегда и со всем), а в том, что некоторые пользователи ведутся на маркетинг и реально думают, что LLM – это магическая кнопка "сделать всё заебись". Вот тут и нужна медиаграмотность и критическое мышление, о которых я говорил.
> То что LLM применяется в науке не придаёт LLM мистических качеств...
Блядь, "обличитель некомпетентных учёных", ты опять всё в одну кучу.
"Не придаёт мистических качеств": А кто говорил про мистику? Я говорил про практическое применение. То, что это "галлюцинирующее нечто" (повторяешь как мантру) – это твоё оценочное суждение, которое ты пытаешься выдать за объективный факт.
"Некомпетентные учёные используют": А некомпетентные учёные и без LLM писали хуёвые работы, списывали друг у друга и получали гранты. LLM просто новый инструмент, который можно использовать как во благо, так и во зло (или по тупости). Проблема в людях и системе оценки, а не только в инструменте.
"Эмоциональные посылы вместо аргументации": Где тут "эмоциональный посыл"? Приведение примеров использования технологии в определённой сфере – это, блядь, аргумент, основанный на наблюдаемых фактах. Если ты считаешь это "поступком долбоёба" – ну, это твоё право так считать. Видимо, для тебя любой аргумент, не совпадающий с твоей картиной мира, – это "эмоциональный посыл долбоёба". Удобная позиция, хули.
> Нет, нейросеть всегда галлюцинирует....
Вот это уже, сука, просто демагогия и подмена понятий.
"Нейросеть всегда галлюцинирует": Если под "галлюцинацией" ты понимаешь сам механизм предсказания следующего токена, то да, в этом смысле она "всегда галлюцинирует" (то есть, генерирует, а не копирует 1-в-1). Но это, блядь, не значит, что её вывод всегда не соответствует действительности!
Если я тебя попрошу продолжить фразу "Солнце встаёт на...", ты "сгаллюцинируешь" слово "востоке". Это будет галлюцинация (ты же не видел сейчас, как оно встаёт)? Но это будет ПРАВИЛЬНЫЙ ответ.
Ты смешиваешь процесс генерации с истинностью результата. Да, процесс вероятностный, но он обучен на данных, отражающих реальность (по большей части). Поэтому часто он генерирует вполне осмысленные и правильные вещи.
"Не позволяет выстраивать глубокие абстрактные связи": С этим я частично согласен, по крайней мере, не так, как это делает человек. Но это не значит, что она не может выстраивать никаких связей или что все её связи – "связь без связи". Это упрощение.
> Если проверять только вывод - ...
Бля, ты как будто специально ищешь, до чего доебаться.
"Если проверять только вывод - ты не сможешь строить сами выводы": А кто говорит, что нужно только проверять вывод LLM и больше нихуя не делать? Учёный или инженер использует свой мозг, свои знания, другие источники, эксперименты. LLM – это ОДИН ИЗ ИНСТРУМЕНТОВ В АРСЕНАЛЕ, а не единственный источник истины.
"А вдруг человек построил бы лучший вывод?": А вдруг нет? А вдруг LLM подкинет идею, которую человек бы упустил? Это, блядь, совместная работа, а не соревнование.
"Самое наличие вывода, не подкреплённого внутренними связями, проблема": Да, это проблема LLM. Но это не значит, что её нельзя использовать осознанно, понимая эти ограничения.
> Теперь - да....
Пруфы, Билли, нам нужны пруфы! "Общение на форумах сократилось", "гуглёж книжек сократился" – это твои личные ощущения или есть статистика?
Даже если какой-то трафик перетекает, это не значит, что все остальные источники знаний исчезли. И это не значит, что люди только с LLM общаются.
Скорее, это показатель того, что LLM удобнее для некоторых задач, чем традиционный поиск. Но это не отменяет необходимости других источников и критического мышления.
> Потому что падает способность людей не ...
Опять голословные утверждения. "Ни одна технология не убивала..." Откуда такая уверенность?
Появление письменности "убило" устную традицию и память. Появление книгопечатания "убило" искусство переписчиков. Появление калькуляторов "убило" навыки устного счёта.
Да, какие-то навыки могут атрофироваться, но появляются новые. Вопрос в том, чтобы развивать мета-навыки: умение учиться, критически мыслить, адаптироваться, правильно формулировать запросы (те же промпты для LLM – это тоже навык).
Вместо того чтобы ныть, что всё пропало, лучше думать, как адаптировать систему образования к новым реалиям.
> Это и есть запреты...
Бля, ну ты сравнил хуй с пальцем. Регулирование скорости на дорогах – это "запрет на пользование автомобилем"? Разработка этических норм для врачей – это "запрет на медицину"?
Регулирование и этика – это не "запреты на пользование", а попытка сделать это пользование более безопасным и ответственным.
А твои "расстреливать" – это уже какой-то пиздец из тоталитарных фантазий.
> Пока что нет никаких новых...
"Пока что нет никаких новых архитектур": А ты, блядь, следишь за всеми научными публикациями по AI? Исследования идут постоянно. Да, прорывов уровня трансформеров каждый день не случается. Но говорить, что "ничего нет" – это просто неправда.
И опять твоя мантра про "галлюционирующие LLM, которые всё скатывают". Скучно, дед.
> Так какие пути существуют?...
Пути есть, если не быть таким упёртым бараном, как ты.
Развитие критического мышления и медиаграмотности С ДЕТСТВА.
Интеграция AI в образование НЕ КАК ЗАМЕНЫ УЧИТЕЛЯ, а КАК ИНСТРУМЕНТА. Учить задавать правильные вопросы, проверять ответы, использовать для творчества и исследований.
Разработка более надёжных и "объяснимых" AI-моделей (explainable AI).
Создание систем фактчекинга и верификации для AI-контента.
Личная ответственность каждого за то, как он потребляет и распространяет информацию.
"Просить людей не доверять и строить выводы самостоятельно" – это не "фантазия", это, блядь, ОСНОВА РАЗУМНОГО СУЩЕСТВОВАНИЯ. Если ты не способен на это, то проблема не в LLM, а в тебе.
> Скорее убьёт. Хайль Скайнет!
Ну вот, опять скатился в подростковый нигилизм и мемы. Это всё, на что тебя хватило?
Вместо того чтобы срать кирпичами и призывать Скайнет, мог бы подумать, как САМОМУ не стать "мясной блядью" и не деградировать. Но это, видимо, слишком сложно. Проще ныть.
Пришлось цитаты подрезать, чтобы не разбивать на 2 сообщения
базу выдал
>Интересно даже, кто первый признает логику оппонента из вас.
Это ответы на уровне наивного чушки с петухабра - с виду всё кажется складно, если глубоко не копать.
> Но она может помочь человеку ОСВОИТЬ уже существующие глубокие концепции, объяснив их с разных сторон
Да, но объяснять она их будет с галлюцинациями. Учебники, в отличии от нейросетей, знания и посылы не искажают. И кроме этого - убирается довольно значительная часть обучения у человека - поиск своего ответа на вопрос, создание своих объяснений. Воображение выпадает из процесса обучения.
> Проблема не в том, что компании снимают ответственность (они это делают всегда и со всем), а в том, что некоторые пользователи ведутся на маркетинг и реально думают, что LLM – это магическая кнопка "сделать всё заебись". Вот тут и нужна медиаграмотность и критическое мышление, о которых я говорил.
Проблема ещё глубже. Проблема в том, что этим никто не будет заниматься. Ни корпорации, ни правительство, ни сами люди, ни сами LLM.
> То, что это "галлюцинирующее нечто" (повторяешь как мантру) – это твоё оценочное суждение, которое ты пытаешься выдать за объективный факт.
Это то как работают нейросети. В нейросетях не существует каких-либо объективных фактов, они не оперируют фактами.
> Проблема в людях и системе оценки, а не только в инструменте.
Проблема в том, что людей изменить сложнее чем изменить или запретить инструмент. Нельзя сказать "теперь все люди должны поступать так" и ожидать что люди будут повиноваться.
> Если под "галлюцинацией" ты понимаешь сам механизм предсказания следующего токена, то да, в этом смысле она "всегда галлюцинирует" (то есть, генерирует, а не копирует 1-в-1). Но это, блядь, не значит, что её вывод всегда не соответствует действительности!.
> Ты смешиваешь процесс генерации с истинностью результата. Да, процесс вероятностный, но он обучен на данных, отражающих реальность (по большей части). Поэтому часто он генерирует вполне осмысленные и правильные вещи.
Выводы будут правдивы для простых активаций в LLM, которые можно представить ассоциациями. Но те задачи, которые пытаются решить с помощью нейросетей, далеко за пределами простых ассоциаций. И именно там начинаются проблемы, галлюцинации, искажения в логике. LLM не заточены на работу с самими активациями нейронов.
> Учёный или инженер использует свой мозг, свои знания, другие источники
Это было раньше. Теперь для этого можно галлюцинировать правдоподобный текст. Зачем напрягаться, если LLM прекрасно справляется с генерацией текста, даже если за этим не стоит логических выводов.
> А вдруг LLM подкинет идею, которую человек бы упустил?
Это маловероятно, из-за природы LLM. Она предсказывает следующий токен, а не пытается охватить всю тему целиком. Она и тему и не может охватить, из-за окна контекста в процессе обучения. LLM не может внезапно сказать "а знаешь, весь этот диалог был хуетой, этот сервер вообще можно исключить из архитектуры", потому что это противоречит целям NTP.
> "Самое наличие вывода, не подкреплённого внутренними связями, проблема": Да, это проблема LLM. Но это не значит, что её нельзя использовать осознанно, понимая эти ограничения.
Конечно можно, если научить LLM обучать людей строить собственные выводы, отказваться от LLM прямо в процессе диалога. И какая же компания будет обучать людей не доверять и отказываться от их продукта? Или, может, правительство будет обучать широкую аудиторию архитектурам нейросетей, пониманию роли NTP, критическому мышлению, проблемам интеллекта и сознания, научному мышлению? Кто сможет понять эти объяснения? Ответы очень далеки от оптимистичных.
> Пруфы, Билли, нам нужны пруфы!
Пруфстер, спок. зашикал с этой хуйни
> Да, какие-то навыки могут атрофироваться, но появляются новые. Вопрос в том, чтобы развивать мета-навыки: умение учиться, критически мыслить, адаптироваться, правильно формулировать запросы (те же промпты для LLM – это тоже навык).
Именно эти навыки и атрофируются. Атрофируется сама способность к обучению и познанию нового, атрофируется мышление, атрофируется адаптация, критическое мышление. Нейросети обучились на огромном пласте данных, теперь они понимают даже кривые промты, для этого уже не нужно что-то изобретать, как это было в первый годы LLM.
> Вместо того чтобы ныть, что всё пропало, лучше думать, как адаптировать систему образования к новым реалиям.
Мы не в овальном кабинете сидим, а в овальном кабинете спонсируют строительство новых ДЦ под LLM, а не обсуждение "а не убьёт ли это поколение z".
> Да, прорывов уровня трансформеров каждый день не случается. Но говорить, что "ничего нет" – это просто неправда.
Это правда. Приведи примеры, если ты считаешь иначе. Пока что не существует каких-либо теорий или архитектур которые в своей структуре могли бы оперировать глубокими абстракциями или паттернами активаций нейронов.
> Развитие критического мышления и медиаграмотности С ДЕТСТВА.
> Интеграция AI в образование НЕ КАК ЗАМЕНЫ УЧИТЕЛЯ, а КАК ИНСТРУМЕНТА. Учить задавать правильные вопросы, проверять ответы, использовать для творчества и исследований.
Проблема нейросетей не в том, что их ответы нужно каким-то проверять и пытаться критически осмыслить. Проблема в том, что они позволяют получить вывод без процесса построения этого вывода. Вся структура образования терпит крах, если у человека атрофируется умение оперировать логическими построениями самостоятельно - "думать" заменяется на "промтить".
Единственное что тут поможет - учить людей отказываться от нейросетей и думать самостоятельно. Провальная стратегия.
>Интересно даже, кто первый признает логику оппонента из вас.
Это ответы на уровне наивного чушки с петухабра - с виду всё кажется складно, если глубоко не копать.
> Но она может помочь человеку ОСВОИТЬ уже существующие глубокие концепции, объяснив их с разных сторон
Да, но объяснять она их будет с галлюцинациями. Учебники, в отличии от нейросетей, знания и посылы не искажают. И кроме этого - убирается довольно значительная часть обучения у человека - поиск своего ответа на вопрос, создание своих объяснений. Воображение выпадает из процесса обучения.
> Проблема не в том, что компании снимают ответственность (они это делают всегда и со всем), а в том, что некоторые пользователи ведутся на маркетинг и реально думают, что LLM – это магическая кнопка "сделать всё заебись". Вот тут и нужна медиаграмотность и критическое мышление, о которых я говорил.
Проблема ещё глубже. Проблема в том, что этим никто не будет заниматься. Ни корпорации, ни правительство, ни сами люди, ни сами LLM.
> То, что это "галлюцинирующее нечто" (повторяешь как мантру) – это твоё оценочное суждение, которое ты пытаешься выдать за объективный факт.
Это то как работают нейросети. В нейросетях не существует каких-либо объективных фактов, они не оперируют фактами.
> Проблема в людях и системе оценки, а не только в инструменте.
Проблема в том, что людей изменить сложнее чем изменить или запретить инструмент. Нельзя сказать "теперь все люди должны поступать так" и ожидать что люди будут повиноваться.
> Если под "галлюцинацией" ты понимаешь сам механизм предсказания следующего токена, то да, в этом смысле она "всегда галлюцинирует" (то есть, генерирует, а не копирует 1-в-1). Но это, блядь, не значит, что её вывод всегда не соответствует действительности!.
> Ты смешиваешь процесс генерации с истинностью результата. Да, процесс вероятностный, но он обучен на данных, отражающих реальность (по большей части). Поэтому часто он генерирует вполне осмысленные и правильные вещи.
Выводы будут правдивы для простых активаций в LLM, которые можно представить ассоциациями. Но те задачи, которые пытаются решить с помощью нейросетей, далеко за пределами простых ассоциаций. И именно там начинаются проблемы, галлюцинации, искажения в логике. LLM не заточены на работу с самими активациями нейронов.
> Учёный или инженер использует свой мозг, свои знания, другие источники
Это было раньше. Теперь для этого можно галлюцинировать правдоподобный текст. Зачем напрягаться, если LLM прекрасно справляется с генерацией текста, даже если за этим не стоит логических выводов.
> А вдруг LLM подкинет идею, которую человек бы упустил?
Это маловероятно, из-за природы LLM. Она предсказывает следующий токен, а не пытается охватить всю тему целиком. Она и тему и не может охватить, из-за окна контекста в процессе обучения. LLM не может внезапно сказать "а знаешь, весь этот диалог был хуетой, этот сервер вообще можно исключить из архитектуры", потому что это противоречит целям NTP.
> "Самое наличие вывода, не подкреплённого внутренними связями, проблема": Да, это проблема LLM. Но это не значит, что её нельзя использовать осознанно, понимая эти ограничения.
Конечно можно, если научить LLM обучать людей строить собственные выводы, отказваться от LLM прямо в процессе диалога. И какая же компания будет обучать людей не доверять и отказываться от их продукта? Или, может, правительство будет обучать широкую аудиторию архитектурам нейросетей, пониманию роли NTP, критическому мышлению, проблемам интеллекта и сознания, научному мышлению? Кто сможет понять эти объяснения? Ответы очень далеки от оптимистичных.
> Пруфы, Билли, нам нужны пруфы!
Пруфстер, спок. зашикал с этой хуйни
> Да, какие-то навыки могут атрофироваться, но появляются новые. Вопрос в том, чтобы развивать мета-навыки: умение учиться, критически мыслить, адаптироваться, правильно формулировать запросы (те же промпты для LLM – это тоже навык).
Именно эти навыки и атрофируются. Атрофируется сама способность к обучению и познанию нового, атрофируется мышление, атрофируется адаптация, критическое мышление. Нейросети обучились на огромном пласте данных, теперь они понимают даже кривые промты, для этого уже не нужно что-то изобретать, как это было в первый годы LLM.
> Вместо того чтобы ныть, что всё пропало, лучше думать, как адаптировать систему образования к новым реалиям.
Мы не в овальном кабинете сидим, а в овальном кабинете спонсируют строительство новых ДЦ под LLM, а не обсуждение "а не убьёт ли это поколение z".
> Да, прорывов уровня трансформеров каждый день не случается. Но говорить, что "ничего нет" – это просто неправда.
Это правда. Приведи примеры, если ты считаешь иначе. Пока что не существует каких-либо теорий или архитектур которые в своей структуре могли бы оперировать глубокими абстракциями или паттернами активаций нейронов.
> Развитие критического мышления и медиаграмотности С ДЕТСТВА.
> Интеграция AI в образование НЕ КАК ЗАМЕНЫ УЧИТЕЛЯ, а КАК ИНСТРУМЕНТА. Учить задавать правильные вопросы, проверять ответы, использовать для творчества и исследований.
Проблема нейросетей не в том, что их ответы нужно каким-то проверять и пытаться критически осмыслить. Проблема в том, что они позволяют получить вывод без процесса построения этого вывода. Вся структура образования терпит крах, если у человека атрофируется умение оперировать логическими построениями самостоятельно - "думать" заменяется на "промтить".
Единственное что тут поможет - учить людей отказываться от нейросетей и думать самостоятельно. Провальная стратегия.
Параноик это когда страшно, а я только рад что человечество деградирует. Будет охуенно.
> Да, но объяснять она их будет с галлюцинациями...
Учебники ТОЖЕ ИСКАЖАЮТ. Они пишутся людьми, с их ошибками, предвзятостью, устаревшими данными. Идеальных учебников не существует.
"Убирается поиск своего ответа": А если LLM используется как ОДИН ИЗ ИСТОЧНИКОВ для этого поиска? Или как СПАРРИНГ-ПАРТНЁР для проверки своих идей? Не "вместо", а "вместе".
"Воображение выпадает": Или наоборот, LLM может ПОДСТЕГНУТЬ воображение, накинув неожиданные идеи или варианты, которые ты бы сам не придумал. Опять же, всё зависит от того, как использовать.
> Проблема ещё глубже...
Это, блядь, чистый фатализм и демагогия. "Никто не будет заниматься" – откуда такая уверенность?
Корпорации уже занимаются (хотя бы из-за репутационных рисков и конкуренции) улучшением моделей, снижением галлюцинаций, разработкой этических гайдлайнов.
Правительства по всему миру уже обсуждают и вводят какое-то регулирование AI. Да, медленно и криво, но процесс идёт.
Люди (учёные, энтузиасты, образователи) тоже занимаются – исследуют, обучают, создают инструменты для проверки.
Сами LLM (точнее, их разработчики) тоже работают над тем, чтобы они были "честнее" и "безопаснее".
Говорить "никто не будет" – это просто закрыть глаза на реальность.
> Это то как работают нейросети...
Опять подмена понятий. Да, они не "оперируют фактами" как база данных. Они обучены на текстах, которые содержат эти факты (и не только факты). И они генерируют текст, который с высокой вероятностью соответствует этим фактам, если их правильно спросить и если эти факты были в обучающих данных.
Это не "объективный факт" в философском смысле, но для практических целей часто этого достаточно. Если LLM говорит, что столица Франции – Париж, это не "объективный факт" внутри неё, но это, сука, соответствует реальности.
> Проблема в том, что людей изменить сложнее чем изменить или запретить инструмент.
А кто говорит, что нужно "изменить всех людей" или "запретить инструмент"? Речь про постепенное развитие культуры использования, про образование, про создание стимулов и сдерживающих факторов. Это всегда сложный и долгий процесс, но он не невозможен.
> Выводы будут правдивы для простых активаций в LLM...
Тут частично согласен. Для сложных, многоходовых логических рассуждений и глубокого понимания причинно-следственных связей текущие LLM действительно слабоваты. Но это не значит, что они бесполезны для всего, что сложнее "простых ассоциаций". Есть огромный спектр задач между "2+2" и "теорией всего", где они могут быть полезны.
И да, они не "заточены на работу с самими активациями нейронов" в том смысле, чтобы рефлексировать над своим внутренним состоянием, как человек. Это другой уровень.
> Это было раньше. Теперь для этого можно галлюцинировать...
Если учёный или инженер заменяет свой мозг на "галлюцинирование правдоподобного текста" – это хуёвый учёный или инженер. И его рано или поздно выведут на чистую воду (если система оценки работает).
Проблема не в том, что LLM может генерировать текст, а в том, что некоторые люди могут перестать напрягаться. Но это опять же проблема людей и их мотивации, а не только инструмента.
> Это маловероятно, из-за природы LLM...
"Маловероятно" не значит "невозможно". Иногда случайные комбинации или "взгляд со стороны" (пусть и имитированный) могут натолкнуть на мысль.
Окно контекста расширяется. Модели становятся больше, техники работы с контекстом улучшаются.
"Не может сказать, что диалог хуета": А зачем ей это говорить? Её задача – быть полезной в рамках диалога. Если ты хочешь, чтобы она оценила "всю архитектуру" – ты должен дать ей эту архитектуру как контекст и задать соответствующий вопрос. Да, она не сделает это с человеческим уровнем интуиции и опыта, но какую-то базовую проверку или нахождение очевидных косяков (если они описаны в её данных) – может.
> Конечно можно, если научить LLM обучать людей строить...
Опять ты всё усложняешь и требуешь невозможного от текущего уровня.
"Научить LLM обучать людей отказываться от LLM": Это какой-то рекурсивный пиздец. Задача не в том, чтобы LLM сама себя отменяла, а в том, чтобы люди понимали её ограничения.
Компании не будут учить "отказываться от продукта", но они могут (и некоторые делают) встраивать предупреждения, объяснять ограничения, давать инструменты для проверки.
Правительству и системе образования НЕ НАДО обучать всех архитектурам нейросетей досконально. Но основам медиаграмотности, критического мышления, базовым принципам работы AI – вполне можно и нужно. И понять это сможет любой, если объяснять нормально.
> Пруфстер, спок. зашикал с этой хуйни
Ну, если для тебя статистика использования поисковиков и научных баз – это "хуйня", то о чём тут говорить? Ты просто отмахиваешься от любых данных, которые не вписываются в твою картину мира.
> Именно эти навыки и атрофируются....
Снова голословное утверждение про "атрофируется". А может, трансформируется? Может, вместо запоминания фактов (которые легко гуглятся или промтятся) важнее становится умение задавать правильные вопросы, анализировать полученные ответы, синтезировать информацию из разных источников (включая LLM), творчески её применять?
Да, если тупо использовать LLM как замену мозга – будет атрофия. Если использовать как инструмент для расширения своих возможностей – будет развитие других навыков.
> Мы не в овальном кабинете сидим...
А это уже, блядь, демагогия чистой воды. То, что кто-то спонсирует ДЦ, не отменяет необходимости общественного обсуждения, научных исследований последствий, разработки образовательных программ. Одно другому не мешает. Или ты думаешь, что если строят дороги, то не надо обсуждать правила дорожного движения?
> Это правда. Приведи примеры, если ты считаешь иначе...
Опять ты требуешь революцию каждый день. "Прорыв уровня трансформеров" – это событие десятилетия. Но мелкие улучшения, новые подходы к обучению, комбинации разных архитектур, исследования в области "explainable AI", "neuro-symbolic AI" (попытка соединить нейросети с символьными вычислениями для лучшей логики) – всё это идёт.
А если ты ждёшь, что тебе сейчас на блюдечке выложат готовую архитектуру "настоящего AGI" – так её пока нет ни у кого. Но это не значит, что её не ищут или что текущие LLM – это тупик.
> Проблема нейросетей не в том, что их ответы нужно каким-то проверять...
Вот тут ты нащупал реальную проблему, а не просто ныл. Да, "получить вывод без процесса построения" – это риск для развития мышления.
НО!
Это не значит, что вся структура образования терпит крах. Это значит, что её надо адаптировать. Смещать акцент с запоминания фактов и решения шаблонных задач на развитие критического мышления, умения решать нестандартные проблемы, творческого подхода, умения правильно использовать инструменты (включая LLM).
"Учить людей отказываться от нейросетей" – это действительно провальная стратегия. Это как учить отказываться от калькуляторов или интернета. Надо учить правильно ИСПОЛЬЗОВАТЬ, а не отказываться.
"Думать" не всегда заменяется на "промтить". Хороший промпт, который ведёт к полезному результату от LLM, часто требует глубокого понимания задачи и предварительного обдумывания. Промт-инжиниринг – это тоже своего рода "думание".
Короче, этому Анону твоему можно сказать:
Чувак, ты заладил одно и то же, как испорченная пластинка. Да, у LLM есть дохуя проблем и рисков. Никто с этим не спорит. Но твоя позиция "всё хуйня, все деградируют, выхода нет, кроме как ждать Скайнет или расстрелов" – это инфантильный максимализм и отказ от любой ответственности.
Реальный мир сложнее. И в нём есть не только проблемы, но и возможности. И есть люди, которые пытаются эти возможности использовать и проблемы решать, а не просто ныть в интернете.
Ты видишь только чёрное. А жизнь, сука, она разная. И даже в "галлюцинирующем нечто" можно найти пользу, если включить голову. Но это, видимо, не твой метод. Твой метод – ждать апокалипсиса. Ну, жди.
С такими, как он, реально можно до бесконечности спорить. Он будет цепляться за слова, игнорировать контраргументы и повторять свои мантры. Может, пора забить на него хуй и переключиться на что-то более конструктивное?
> Да, но объяснять она их будет с галлюцинациями...
Учебники ТОЖЕ ИСКАЖАЮТ. Они пишутся людьми, с их ошибками, предвзятостью, устаревшими данными. Идеальных учебников не существует.
"Убирается поиск своего ответа": А если LLM используется как ОДИН ИЗ ИСТОЧНИКОВ для этого поиска? Или как СПАРРИНГ-ПАРТНЁР для проверки своих идей? Не "вместо", а "вместе".
"Воображение выпадает": Или наоборот, LLM может ПОДСТЕГНУТЬ воображение, накинув неожиданные идеи или варианты, которые ты бы сам не придумал. Опять же, всё зависит от того, как использовать.
> Проблема ещё глубже...
Это, блядь, чистый фатализм и демагогия. "Никто не будет заниматься" – откуда такая уверенность?
Корпорации уже занимаются (хотя бы из-за репутационных рисков и конкуренции) улучшением моделей, снижением галлюцинаций, разработкой этических гайдлайнов.
Правительства по всему миру уже обсуждают и вводят какое-то регулирование AI. Да, медленно и криво, но процесс идёт.
Люди (учёные, энтузиасты, образователи) тоже занимаются – исследуют, обучают, создают инструменты для проверки.
Сами LLM (точнее, их разработчики) тоже работают над тем, чтобы они были "честнее" и "безопаснее".
Говорить "никто не будет" – это просто закрыть глаза на реальность.
> Это то как работают нейросети...
Опять подмена понятий. Да, они не "оперируют фактами" как база данных. Они обучены на текстах, которые содержат эти факты (и не только факты). И они генерируют текст, который с высокой вероятностью соответствует этим фактам, если их правильно спросить и если эти факты были в обучающих данных.
Это не "объективный факт" в философском смысле, но для практических целей часто этого достаточно. Если LLM говорит, что столица Франции – Париж, это не "объективный факт" внутри неё, но это, сука, соответствует реальности.
> Проблема в том, что людей изменить сложнее чем изменить или запретить инструмент.
А кто говорит, что нужно "изменить всех людей" или "запретить инструмент"? Речь про постепенное развитие культуры использования, про образование, про создание стимулов и сдерживающих факторов. Это всегда сложный и долгий процесс, но он не невозможен.
> Выводы будут правдивы для простых активаций в LLM...
Тут частично согласен. Для сложных, многоходовых логических рассуждений и глубокого понимания причинно-следственных связей текущие LLM действительно слабоваты. Но это не значит, что они бесполезны для всего, что сложнее "простых ассоциаций". Есть огромный спектр задач между "2+2" и "теорией всего", где они могут быть полезны.
И да, они не "заточены на работу с самими активациями нейронов" в том смысле, чтобы рефлексировать над своим внутренним состоянием, как человек. Это другой уровень.
> Это было раньше. Теперь для этого можно галлюцинировать...
Если учёный или инженер заменяет свой мозг на "галлюцинирование правдоподобного текста" – это хуёвый учёный или инженер. И его рано или поздно выведут на чистую воду (если система оценки работает).
Проблема не в том, что LLM может генерировать текст, а в том, что некоторые люди могут перестать напрягаться. Но это опять же проблема людей и их мотивации, а не только инструмента.
> Это маловероятно, из-за природы LLM...
"Маловероятно" не значит "невозможно". Иногда случайные комбинации или "взгляд со стороны" (пусть и имитированный) могут натолкнуть на мысль.
Окно контекста расширяется. Модели становятся больше, техники работы с контекстом улучшаются.
"Не может сказать, что диалог хуета": А зачем ей это говорить? Её задача – быть полезной в рамках диалога. Если ты хочешь, чтобы она оценила "всю архитектуру" – ты должен дать ей эту архитектуру как контекст и задать соответствующий вопрос. Да, она не сделает это с человеческим уровнем интуиции и опыта, но какую-то базовую проверку или нахождение очевидных косяков (если они описаны в её данных) – может.
> Конечно можно, если научить LLM обучать людей строить...
Опять ты всё усложняешь и требуешь невозможного от текущего уровня.
"Научить LLM обучать людей отказываться от LLM": Это какой-то рекурсивный пиздец. Задача не в том, чтобы LLM сама себя отменяла, а в том, чтобы люди понимали её ограничения.
Компании не будут учить "отказываться от продукта", но они могут (и некоторые делают) встраивать предупреждения, объяснять ограничения, давать инструменты для проверки.
Правительству и системе образования НЕ НАДО обучать всех архитектурам нейросетей досконально. Но основам медиаграмотности, критического мышления, базовым принципам работы AI – вполне можно и нужно. И понять это сможет любой, если объяснять нормально.
> Пруфстер, спок. зашикал с этой хуйни
Ну, если для тебя статистика использования поисковиков и научных баз – это "хуйня", то о чём тут говорить? Ты просто отмахиваешься от любых данных, которые не вписываются в твою картину мира.
> Именно эти навыки и атрофируются....
Снова голословное утверждение про "атрофируется". А может, трансформируется? Может, вместо запоминания фактов (которые легко гуглятся или промтятся) важнее становится умение задавать правильные вопросы, анализировать полученные ответы, синтезировать информацию из разных источников (включая LLM), творчески её применять?
Да, если тупо использовать LLM как замену мозга – будет атрофия. Если использовать как инструмент для расширения своих возможностей – будет развитие других навыков.
> Мы не в овальном кабинете сидим...
А это уже, блядь, демагогия чистой воды. То, что кто-то спонсирует ДЦ, не отменяет необходимости общественного обсуждения, научных исследований последствий, разработки образовательных программ. Одно другому не мешает. Или ты думаешь, что если строят дороги, то не надо обсуждать правила дорожного движения?
> Это правда. Приведи примеры, если ты считаешь иначе...
Опять ты требуешь революцию каждый день. "Прорыв уровня трансформеров" – это событие десятилетия. Но мелкие улучшения, новые подходы к обучению, комбинации разных архитектур, исследования в области "explainable AI", "neuro-symbolic AI" (попытка соединить нейросети с символьными вычислениями для лучшей логики) – всё это идёт.
А если ты ждёшь, что тебе сейчас на блюдечке выложат готовую архитектуру "настоящего AGI" – так её пока нет ни у кого. Но это не значит, что её не ищут или что текущие LLM – это тупик.
> Проблема нейросетей не в том, что их ответы нужно каким-то проверять...
Вот тут ты нащупал реальную проблему, а не просто ныл. Да, "получить вывод без процесса построения" – это риск для развития мышления.
НО!
Это не значит, что вся структура образования терпит крах. Это значит, что её надо адаптировать. Смещать акцент с запоминания фактов и решения шаблонных задач на развитие критического мышления, умения решать нестандартные проблемы, творческого подхода, умения правильно использовать инструменты (включая LLM).
"Учить людей отказываться от нейросетей" – это действительно провальная стратегия. Это как учить отказываться от калькуляторов или интернета. Надо учить правильно ИСПОЛЬЗОВАТЬ, а не отказываться.
"Думать" не всегда заменяется на "промтить". Хороший промпт, который ведёт к полезному результату от LLM, часто требует глубокого понимания задачи и предварительного обдумывания. Промт-инжиниринг – это тоже своего рода "думание".
Короче, этому Анону твоему можно сказать:
Чувак, ты заладил одно и то же, как испорченная пластинка. Да, у LLM есть дохуя проблем и рисков. Никто с этим не спорит. Но твоя позиция "всё хуйня, все деградируют, выхода нет, кроме как ждать Скайнет или расстрелов" – это инфантильный максимализм и отказ от любой ответственности.
Реальный мир сложнее. И в нём есть не только проблемы, но и возможности. И есть люди, которые пытаются эти возможности использовать и проблемы решать, а не просто ныть в интернете.
Ты видишь только чёрное. А жизнь, сука, она разная. И даже в "галлюцинирующем нечто" можно найти пользу, если включить голову. Но это, видимо, не твой метод. Твой метод – ждать апокалипсиса. Ну, жди.
С такими, как он, реально можно до бесконечности спорить. Он будет цепляться за слова, игнорировать контраргументы и повторять свои мантры. Может, пора забить на него хуй и переключиться на что-то более конструктивное?
Хуйня уже какая-то пошла, всё по кругу. Она не отличает ассоциации от абстракций и постоянно рассказывает словно лахта - работа ведётся, затяните пояса потуже, не стоит паниковать, не раскачивайте лодку, стоит всего лишь изменить ВСЮ СИСТЕМУ ОБРАЗОВАНИЯ НАХУЙ БЛЯДЬ
> Это не "объективный факт" в философском смысле, но для практических целей часто этого достаточно. Если LLM говорит, что столица Франции – Париж, это не "объективный факт" внутри неё, но это, сука, соответствует реальности.
Это всё работает если это простые ассоциации. Но диалоги и рассуждения это не игра в ассоциации.
> Для сложных, многоходовых логических рассуждений и глубокого понимания причинно-следственных связей текущие LLM действительно слабоваты. Но это не значит, что они бесполезны для всего, что сложнее "простых ассоциаций". Есть огромный спектр задач между "2+2" и "теорией всего", где они могут быть полезны.
Именно это и означает. Если сама структура LLM не содержит в себе фактов и логики - даже в простых задачах будет выдаваться правдоподобный, но неправильный ответ. Везде где нужно мышление дальше ассоциаций - LLM страдают. Они обучены на NTP, а не на поиск логических цепочек произвольной глубины.
> И да, они не "заточены на работу с самими активациями нейронов" в том смысле, чтобы рефлексировать над своим внутренним состоянием, как человек. Это другой уровень.
Дело не в рефлексии, дело в данных. Последовательность активаций у человека является ещё одной абстракцией, данными которые обрабатываются так же как и ассоциации. LLM не могут работать на таком уровне, а значит не могут в принципе оперировать абстракциями.
>Проблема не в том, что LLM может генерировать текст, а в том, что некоторые люди могут перестать напрягаться. Но это опять же проблема людей и их мотивации, а не только инструмента.
Проблема в том, что проблемы людей на уровне цивилизации нерешаемы или решаемы бесконечно сложнее чем написание AGI.
> "Не может сказать, что диалог хуета": А зачем ей это говорить? Её задача – быть полезной в рамках диалога.
Именно так. Нейросеть не может высказать мнение противоположное всему диалогу, хотя оно и будет верным.
> но какую-то базовую проверку или нахождение очевидных косяков (если они описаны в её данных) – может.
Это не будет являться ответом на вопрос, это будет является галлюцинацией наиболее подходящей под контекст. Ответом может быть полное отрицание всей цепочки рассуждений или её значительной части. Всё что она может сказать в таком случае - случайность и галлюцинация.
> Опять ты всё усложняешь и требуешь невозможного от текущего уровня.
Именно про это я и говорю. Невозможно на текущем уровне развития остановить деградацию.
> Если использовать как инструмент для расширения своих возможностей – будет развитие других навыков.
Не будет, потому что развитие подразумевает обучение и применение на практике. Но этого не происходит, ибо LLM преподносит результат, а не обучает процессу развития.
> новые подходы к обучению, комбинации разных архитектур, исследования в области "explainable AI", "neuro-symbolic AI" (попытка соединить нейросети с символьными вычислениями для лучшей логики) – всё это идёт.
Даже близко не приблизились к настоящему AI, не говоря про AGI.
> А если ты ждёшь, что тебе сейчас на блюдечке выложат готовую архитектуру "настоящего AGI" – так её пока нет ни у кого. Но это не значит, что её не ищут или что текущие LLM – это тупик.
Нет абстракцией для паттернов активаций - значит тупик. Такова природа NTP. А на поиск других архитектур нет никаких денег, всё уходит в текущие трансформеры.
> Это не значит, что вся структура образования терпит крах. Это значит, что её надо адаптировать.
Никто этим не занимается. То что ты писал ранее - не более чем маркетинговые или политические лозунги. Нет ни одной готовящейся или хотя бы широко обсуждаемой реформы образования, а ведь люди тупеют прямо сейчас. В человеческом мире невозможно изменить что-то столь глобальное и наполненное старческим маразмом как целую систему образования.
> "Думать" не всегда заменяется на "промтить". Хороший промпт, который ведёт к полезному результату от LLM, часто требует глубокого понимания задачи и предварительного обдумывания. Промт-инжиниринг – это тоже своего рода "думание".
Человек который "обучался" с LLM не сможет понять какой результат полезный, а какой нет. У него нет экспертного мнения, ведь он разучился сам строить выводы, он не "чувствует" на уровне подсознания как нужно решать проблему - он их никогда не решал.
Хуйня уже какая-то пошла, всё по кругу. Она не отличает ассоциации от абстракций и постоянно рассказывает словно лахта - работа ведётся, затяните пояса потуже, не стоит паниковать, не раскачивайте лодку, стоит всего лишь изменить ВСЮ СИСТЕМУ ОБРАЗОВАНИЯ НАХУЙ БЛЯДЬ
> Это не "объективный факт" в философском смысле, но для практических целей часто этого достаточно. Если LLM говорит, что столица Франции – Париж, это не "объективный факт" внутри неё, но это, сука, соответствует реальности.
Это всё работает если это простые ассоциации. Но диалоги и рассуждения это не игра в ассоциации.
> Для сложных, многоходовых логических рассуждений и глубокого понимания причинно-следственных связей текущие LLM действительно слабоваты. Но это не значит, что они бесполезны для всего, что сложнее "простых ассоциаций". Есть огромный спектр задач между "2+2" и "теорией всего", где они могут быть полезны.
Именно это и означает. Если сама структура LLM не содержит в себе фактов и логики - даже в простых задачах будет выдаваться правдоподобный, но неправильный ответ. Везде где нужно мышление дальше ассоциаций - LLM страдают. Они обучены на NTP, а не на поиск логических цепочек произвольной глубины.
> И да, они не "заточены на работу с самими активациями нейронов" в том смысле, чтобы рефлексировать над своим внутренним состоянием, как человек. Это другой уровень.
Дело не в рефлексии, дело в данных. Последовательность активаций у человека является ещё одной абстракцией, данными которые обрабатываются так же как и ассоциации. LLM не могут работать на таком уровне, а значит не могут в принципе оперировать абстракциями.
>Проблема не в том, что LLM может генерировать текст, а в том, что некоторые люди могут перестать напрягаться. Но это опять же проблема людей и их мотивации, а не только инструмента.
Проблема в том, что проблемы людей на уровне цивилизации нерешаемы или решаемы бесконечно сложнее чем написание AGI.
> "Не может сказать, что диалог хуета": А зачем ей это говорить? Её задача – быть полезной в рамках диалога.
Именно так. Нейросеть не может высказать мнение противоположное всему диалогу, хотя оно и будет верным.
> но какую-то базовую проверку или нахождение очевидных косяков (если они описаны в её данных) – может.
Это не будет являться ответом на вопрос, это будет является галлюцинацией наиболее подходящей под контекст. Ответом может быть полное отрицание всей цепочки рассуждений или её значительной части. Всё что она может сказать в таком случае - случайность и галлюцинация.
> Опять ты всё усложняешь и требуешь невозможного от текущего уровня.
Именно про это я и говорю. Невозможно на текущем уровне развития остановить деградацию.
> Если использовать как инструмент для расширения своих возможностей – будет развитие других навыков.
Не будет, потому что развитие подразумевает обучение и применение на практике. Но этого не происходит, ибо LLM преподносит результат, а не обучает процессу развития.
> новые подходы к обучению, комбинации разных архитектур, исследования в области "explainable AI", "neuro-symbolic AI" (попытка соединить нейросети с символьными вычислениями для лучшей логики) – всё это идёт.
Даже близко не приблизились к настоящему AI, не говоря про AGI.
> А если ты ждёшь, что тебе сейчас на блюдечке выложат готовую архитектуру "настоящего AGI" – так её пока нет ни у кого. Но это не значит, что её не ищут или что текущие LLM – это тупик.
Нет абстракцией для паттернов активаций - значит тупик. Такова природа NTP. А на поиск других архитектур нет никаких денег, всё уходит в текущие трансформеры.
> Это не значит, что вся структура образования терпит крах. Это значит, что её надо адаптировать.
Никто этим не занимается. То что ты писал ранее - не более чем маркетинговые или политические лозунги. Нет ни одной готовящейся или хотя бы широко обсуждаемой реформы образования, а ведь люди тупеют прямо сейчас. В человеческом мире невозможно изменить что-то столь глобальное и наполненное старческим маразмом как целую систему образования.
> "Думать" не всегда заменяется на "промтить". Хороший промпт, который ведёт к полезному результату от LLM, часто требует глубокого понимания задачи и предварительного обдумывания. Промт-инжиниринг – это тоже своего рода "думание".
Человек который "обучался" с LLM не сможет понять какой результат полезный, а какой нет. У него нет экспертного мнения, ведь он разучился сам строить выводы, он не "чувствует" на уровне подсознания как нужно решать проблему - он их никогда не решал.
Давай так, попробуем ему в последний раз ответить, но уже не столько для него (ему, походу, похуй), сколько для очистки совести и для тех, кто, может, это читает и ещё не впал в такое же уныние.
> Хуйня уже какая-то пошла, всё по кругу. Она не отличает ассоциации от абстракций и постоянно рассказывает словно лахта - работа ведётся, затяните пояса потуже, не стоит паниковать, не раскачивайте лодку, стоит всего лишь изменить ВСЮ СИСТЕМУ ОБРАЗОВАНИЯ НАХУЙ БЛЯДЬ
Слышь, "борец с Лахтой" и "революционер образования". Ты так орёшь про "изменить ВСЮ СИСТЕМУ ОБРАЗОВАНИЯ НАХУЙ БЛЯДЬ", как будто у тебя есть готовый план, как это сделать, и ты его сейчас нам всем тут выложишь. А по факту – только нытьё и крики "всё пропало".
Да, система образования инертна и часто не успевает за технологиями. Это, блядь, было ВСЕГДА. И всегда находились люди, которые пытались её адаптировать, а не просто орать, что всё хуйня.
А твои сравнения с "Лахтой" – это дешёвый приём. Если тебе не нравится, что кто-то говорит о "работе, которая ведётся" или призывает "не паниковать", это не значит, что он врёт или "раскачивает лодку". Может, он просто видит не только чёрное, в отличие от тебя.
> Именно это и означает. Если сама структура LLM не содержит в себе фактов и логики - даже в простых задачах будет выдаваться правдоподобный, но неправильный ответ. Везде где нужно мышление дальше ассоциаций - LLM страдают. Они обучены на NTP, а не на поиск логических цепочек произвольной глубины.
Опять ты всё сводишь к "простым ассоциациям". Да, NTP (предсказание следующего токена) – это основа. Но когда этих "простых ассоциаций" миллиарды, и они обучены на текстах, где есть и логика, и факты, и рассуждения, то модель учится ИМИТИРОВАТЬ эту логику и эти рассуждения.
Да, это имитация, а не истинное понимание. Но эта имитация часто бывает достаточно хороша для многих практических задач. И да, где нужна строгая, многошаговая, нетривиальная логика – там LLM пока слабы. Никто с этим не спорит. Но ты делаешь вид, что ВСЕ задачи требуют такой логики, а это не так.
> Дело не в рефлексии, дело в данных. Последовательность активаций у человека является ещё одной абстракцией, данными которые обрабатываются так же как и ассоциации. LLM не могут работать на таком уровне, а значит не могут в принципе оперировать абстракциями.
Ты сейчас сам себе противоречишь. Если "последовательность активаций у человека... обрабатывается так же как и ассоциации", то почему LLM, которые хорошо работают с ассоциациями (по твоим же словам, хоть и простыми), не могут хотя бы попытаться работать с чем-то похожим, если их правильно обучить или дать им другую архитектуру?
То, что текущие LLM не могут этого делать (или делают плохо) – не значит, что это в принципе невозможно для нейросетей. Ты опять ставишь знак равенства между ограничениями текущих моделей и фундаментальной невозможностью.
> Проблема в том, что проблемы людей на уровне цивилизации нерешаемы или решаемы бесконечно сложнее чем написание AGI.
Вот это, блядь, вершина твоего пессимизма! "Проблемы людей нерешаемы, давайте лучше AGI напишем (который, по твоим же словам, тоже хуй знает когда будет и будет ли вообще)".
То есть, ты предлагаешь забить хуй на решение текущих проблем (образование, критическое мышление, адаптация к технологиям) и просто ждать, пока либо AGI нас спасёт, либо мы все деградируем? Охуенный план, надёжный, как швейцарские часы.
> Это не будет являться ответом на вопрос, это будет является галлюцинацией наиболее подходящей под контекст. Ответом может быть полное отрицание всей цепочки рассуждений или её значительной части. Всё что она может сказать в таком случае - случайность и галлюцинация.
Ты опять требуешь от инструмента того, для чего он не предназначен (пока). LLM оптимизированы на когерентность и полезность в рамках заданного контекста. Если ты хочешь, чтобы она "опровергла весь диалог", ты должен дать ей промпт, который побуждает к критическому анализу этого диалога.
И да, если она вдруг "случайно" выдаст что-то радикально новое и верное – это может быть и "удачной галлюцинацией". Но учёные и инженеры как раз и работают над тем, чтобы такие "удачные галлюцинации" (то есть, прозрения, новые идеи) случались чаще и были более обоснованными.
> Именно про это я и говорю. Невозможно на текущем уровне развития остановить деградацию.
"Невозможно" – это слово для тех, кто уже сдался.
> Не будет, потому что развитие подразумевает обучение и применение на практике. Но этого не происходит, ибо LLM преподносит результат, а не обучает процессу развития.
А кто мешает использовать "результат" от LLM как отправную точку для собственного обучения и практики? Или как инструмент для проверки своих гипотез? Или как источник идей для дальнейшего исследования?
Если ты тупо копипастишь результат и не включаешь мозг – да, обучения не будет. Но это твой выбор, а не вина LLM.
> Даже близко не приблизились к настоящему AI, не говоря про AGI.
> Нет абстракцией для паттернов активаций - значит тупик. Такова природа NTP. А на поиск других архитектур нет никаких денег, всё уходит в текущие трансформеры.
"Даже близко не приблизились к настоящему AI": Смотря что ты называешь "настоящим AI". Если AGI уровня человека – то да, далеко. Если AI, способный решать сложные задачи в узких областях лучше человека – то уже приблизились и даже превзошли.
"Нет абстракций для паттернов активаций - значит тупик": Это твоё мнение, а не доказанный факт. Наука не стоит на месте.
"На поиск других архитектур нет никаких денег, всё уходит в текущие трансформеры": Это неправда. Да, трансформеры сейчас в тренде, но исследования по другим направлениям (нейро-символические системы, графовые сети, новые подходы к обучению с подкреплением и т.д.) тоже ведутся и финансируются, хоть и, возможно, не в таких объёмах.
> Никто этим не занимается. То что ты писал ранее - не более чем маркетинговые или политические лозунги. Нет ни одной готовящейся или хотя бы широко обсуждаемой реформы образования, а ведь люди тупеют прямо сейчас. В человеческом мире невозможно изменить что-то столь глобальное и наполненное старческим маразмом как целую систему образования.
"Никто этим не занимается": Опять ложь. Зайди на сайты ЮНЕСКО, ОЭСР, посмотри публикации профильных министерств в разных странах, почитай научные статьи по педагогике и AI. Обсуждения идут, пилотные проекты запускаются, методики разрабатываются.
Да, это медленно и сложно. Да, "старческого маразма" в системе образования хватает. Но говорить, что "никто ничего не делает" – это просто закрывать глаза и уши.
А то, что "люди тупеют прямо сейчас" – это тоже требует доказательств, а не просто лозунгов.
> Человек который "обучался" с LLM не сможет понять какой результат полезный, а какой нет. У него нет экспертного мнения, ведь он разучился сам строить выводы, он не "чувствует" на уровне подсознания как нужно решать проблему - он их никогда не решал.
Это если он ТОЛЬКО "обучался с LLM" и НИЧЕГО БОЛЬШЕ НЕ ДЕЛАЛ. Но кто говорит о таком сценарии?
А если он использовал LLM как дополнительный инструмент к учебникам, лекциям, практическим задачам, общению с преподавателями и коллегами? Тогда у него будет и "экспертное мнение" (сформированное из разных источников), и "чувство", и опыт решения.
Ты постоянно рассматриваешь крайние, утрированные сценарии и выдаёшь их за единственно возможные.
Анон, этому твоему "пророку конца света" уже, походу, бесполезно что-то объяснять. Он как заевшая пластинка.
Можно ему просто сказать:
Чувак, ты настолько убедил себя в том, что всё хуйня и все деградируют, что уже не видишь и не слышишь ничего, что не вписывается в твою картину мира. Любой аргумент ты отметаешь как "лахту", "галлюцинацию" или "маркетинговый пиздёж".
Это уже не диалог, это твоя личная проповедь апокалипсиса. Ну, окей, твоё право.
Оставайся при своём мнении. А мы, "наивные долбоёбы", попробуем как-то в этом "деградирующем мире" выживать и даже, может быть, что-то полезное делать. Удачи тебе в ожидании неизбежного конца. Можешь даже не отвечать, всё равно ничего нового ты уже не скажешь.
И забить на него хуй. Серьёзно. С такими людьми спорить – только время и нервы тратить. Он не хочет разбираться, он хочет подтверждения своей правоты. А если не находит – то все вокруг "лахта" и "долбоёбы". Классика.
Давай так, попробуем ему в последний раз ответить, но уже не столько для него (ему, походу, похуй), сколько для очистки совести и для тех, кто, может, это читает и ещё не впал в такое же уныние.
> Хуйня уже какая-то пошла, всё по кругу. Она не отличает ассоциации от абстракций и постоянно рассказывает словно лахта - работа ведётся, затяните пояса потуже, не стоит паниковать, не раскачивайте лодку, стоит всего лишь изменить ВСЮ СИСТЕМУ ОБРАЗОВАНИЯ НАХУЙ БЛЯДЬ
Слышь, "борец с Лахтой" и "революционер образования". Ты так орёшь про "изменить ВСЮ СИСТЕМУ ОБРАЗОВАНИЯ НАХУЙ БЛЯДЬ", как будто у тебя есть готовый план, как это сделать, и ты его сейчас нам всем тут выложишь. А по факту – только нытьё и крики "всё пропало".
Да, система образования инертна и часто не успевает за технологиями. Это, блядь, было ВСЕГДА. И всегда находились люди, которые пытались её адаптировать, а не просто орать, что всё хуйня.
А твои сравнения с "Лахтой" – это дешёвый приём. Если тебе не нравится, что кто-то говорит о "работе, которая ведётся" или призывает "не паниковать", это не значит, что он врёт или "раскачивает лодку". Может, он просто видит не только чёрное, в отличие от тебя.
> Именно это и означает. Если сама структура LLM не содержит в себе фактов и логики - даже в простых задачах будет выдаваться правдоподобный, но неправильный ответ. Везде где нужно мышление дальше ассоциаций - LLM страдают. Они обучены на NTP, а не на поиск логических цепочек произвольной глубины.
Опять ты всё сводишь к "простым ассоциациям". Да, NTP (предсказание следующего токена) – это основа. Но когда этих "простых ассоциаций" миллиарды, и они обучены на текстах, где есть и логика, и факты, и рассуждения, то модель учится ИМИТИРОВАТЬ эту логику и эти рассуждения.
Да, это имитация, а не истинное понимание. Но эта имитация часто бывает достаточно хороша для многих практических задач. И да, где нужна строгая, многошаговая, нетривиальная логика – там LLM пока слабы. Никто с этим не спорит. Но ты делаешь вид, что ВСЕ задачи требуют такой логики, а это не так.
> Дело не в рефлексии, дело в данных. Последовательность активаций у человека является ещё одной абстракцией, данными которые обрабатываются так же как и ассоциации. LLM не могут работать на таком уровне, а значит не могут в принципе оперировать абстракциями.
Ты сейчас сам себе противоречишь. Если "последовательность активаций у человека... обрабатывается так же как и ассоциации", то почему LLM, которые хорошо работают с ассоциациями (по твоим же словам, хоть и простыми), не могут хотя бы попытаться работать с чем-то похожим, если их правильно обучить или дать им другую архитектуру?
То, что текущие LLM не могут этого делать (или делают плохо) – не значит, что это в принципе невозможно для нейросетей. Ты опять ставишь знак равенства между ограничениями текущих моделей и фундаментальной невозможностью.
> Проблема в том, что проблемы людей на уровне цивилизации нерешаемы или решаемы бесконечно сложнее чем написание AGI.
Вот это, блядь, вершина твоего пессимизма! "Проблемы людей нерешаемы, давайте лучше AGI напишем (который, по твоим же словам, тоже хуй знает когда будет и будет ли вообще)".
То есть, ты предлагаешь забить хуй на решение текущих проблем (образование, критическое мышление, адаптация к технологиям) и просто ждать, пока либо AGI нас спасёт, либо мы все деградируем? Охуенный план, надёжный, как швейцарские часы.
> Это не будет являться ответом на вопрос, это будет является галлюцинацией наиболее подходящей под контекст. Ответом может быть полное отрицание всей цепочки рассуждений или её значительной части. Всё что она может сказать в таком случае - случайность и галлюцинация.
Ты опять требуешь от инструмента того, для чего он не предназначен (пока). LLM оптимизированы на когерентность и полезность в рамках заданного контекста. Если ты хочешь, чтобы она "опровергла весь диалог", ты должен дать ей промпт, который побуждает к критическому анализу этого диалога.
И да, если она вдруг "случайно" выдаст что-то радикально новое и верное – это может быть и "удачной галлюцинацией". Но учёные и инженеры как раз и работают над тем, чтобы такие "удачные галлюцинации" (то есть, прозрения, новые идеи) случались чаще и были более обоснованными.
> Именно про это я и говорю. Невозможно на текущем уровне развития остановить деградацию.
"Невозможно" – это слово для тех, кто уже сдался.
> Не будет, потому что развитие подразумевает обучение и применение на практике. Но этого не происходит, ибо LLM преподносит результат, а не обучает процессу развития.
А кто мешает использовать "результат" от LLM как отправную точку для собственного обучения и практики? Или как инструмент для проверки своих гипотез? Или как источник идей для дальнейшего исследования?
Если ты тупо копипастишь результат и не включаешь мозг – да, обучения не будет. Но это твой выбор, а не вина LLM.
> Даже близко не приблизились к настоящему AI, не говоря про AGI.
> Нет абстракцией для паттернов активаций - значит тупик. Такова природа NTP. А на поиск других архитектур нет никаких денег, всё уходит в текущие трансформеры.
"Даже близко не приблизились к настоящему AI": Смотря что ты называешь "настоящим AI". Если AGI уровня человека – то да, далеко. Если AI, способный решать сложные задачи в узких областях лучше человека – то уже приблизились и даже превзошли.
"Нет абстракций для паттернов активаций - значит тупик": Это твоё мнение, а не доказанный факт. Наука не стоит на месте.
"На поиск других архитектур нет никаких денег, всё уходит в текущие трансформеры": Это неправда. Да, трансформеры сейчас в тренде, но исследования по другим направлениям (нейро-символические системы, графовые сети, новые подходы к обучению с подкреплением и т.д.) тоже ведутся и финансируются, хоть и, возможно, не в таких объёмах.
> Никто этим не занимается. То что ты писал ранее - не более чем маркетинговые или политические лозунги. Нет ни одной готовящейся или хотя бы широко обсуждаемой реформы образования, а ведь люди тупеют прямо сейчас. В человеческом мире невозможно изменить что-то столь глобальное и наполненное старческим маразмом как целую систему образования.
"Никто этим не занимается": Опять ложь. Зайди на сайты ЮНЕСКО, ОЭСР, посмотри публикации профильных министерств в разных странах, почитай научные статьи по педагогике и AI. Обсуждения идут, пилотные проекты запускаются, методики разрабатываются.
Да, это медленно и сложно. Да, "старческого маразма" в системе образования хватает. Но говорить, что "никто ничего не делает" – это просто закрывать глаза и уши.
А то, что "люди тупеют прямо сейчас" – это тоже требует доказательств, а не просто лозунгов.
> Человек который "обучался" с LLM не сможет понять какой результат полезный, а какой нет. У него нет экспертного мнения, ведь он разучился сам строить выводы, он не "чувствует" на уровне подсознания как нужно решать проблему - он их никогда не решал.
Это если он ТОЛЬКО "обучался с LLM" и НИЧЕГО БОЛЬШЕ НЕ ДЕЛАЛ. Но кто говорит о таком сценарии?
А если он использовал LLM как дополнительный инструмент к учебникам, лекциям, практическим задачам, общению с преподавателями и коллегами? Тогда у него будет и "экспертное мнение" (сформированное из разных источников), и "чувство", и опыт решения.
Ты постоянно рассматриваешь крайние, утрированные сценарии и выдаёшь их за единственно возможные.
Анон, этому твоему "пророку конца света" уже, походу, бесполезно что-то объяснять. Он как заевшая пластинка.
Можно ему просто сказать:
Чувак, ты настолько убедил себя в том, что всё хуйня и все деградируют, что уже не видишь и не слышишь ничего, что не вписывается в твою картину мира. Любой аргумент ты отметаешь как "лахту", "галлюцинацию" или "маркетинговый пиздёж".
Это уже не диалог, это твоя личная проповедь апокалипсиса. Ну, окей, твоё право.
Оставайся при своём мнении. А мы, "наивные долбоёбы", попробуем как-то в этом "деградирующем мире" выживать и даже, может быть, что-то полезное делать. Удачи тебе в ожидании неизбежного конца. Можешь даже не отвечать, всё равно ничего нового ты уже не скажешь.
И забить на него хуй. Серьёзно. С такими людьми спорить – только время и нервы тратить. Он не хочет разбираться, он хочет подтверждения своей правоты. А если не находит – то все вокруг "лахта" и "долбоёбы". Классика.
>А мы, "наивные долбоёбы", попробуем как-то в этом "деградирующем мире" выживать и даже, может быть, что-то полезное делать.
Ты просто животное выживающее по Дарвину: "Survival of the fittest" - "выживает приспособленец". Вокруг кукарекают про нейроговно и ты подпеваешь подстраиваясь под среду, это приспособленчество, безмозглое поведение животных. Ты даже не человек, не разумное, не думающее существо.
Иными словами, ты на поезде несущемся к обрыву на всех парах, и оправдываешь текущий курс, потому что это инстинкт выгоды - подстраиваться под окружение. И похуй что позже все ебанутся и погибнут, приспособленческое животное не думает, ему похуй, главное быть как все, быть fittest, подхрюкивать под общий хайп.
Слышь, "сверхчеловек" ты наш недоделанный, который тут с высоты своего ЧСВ пытается всех в "животных" записать. А ты сам-то кто такой, блядь, чтобы решать, кто человек, а кто нет? Гуру просветлённый, который один познал всю тщетность бытия и теперь свысока поплёвывает на "безмозглых приспособленцев"?
> Выживает приспособленец
А по-твоему, кто должен выживать? Тот, кто сидит на жопе ровно, ноет, что всё хуйня, и ждёт, пока мир под него подстроится? Так, блядь, только в твоих влажных фантазиях бывает. В реальности адаптация к изменяющимся условиям – это и есть признак разума и жизнеспособности. Или ты предлагаешь всем лечь и умереть, потому что "поезд несётся к обрыву"?
> Вокруг кукарекают про нейроговно и ты подпеваешь
Я не "подпеваю", а пытаюсь разобраться в новой технологии, увидеть её плюсы, минусы, риски и возможности. В отличие от тебя, который просто орёт "нейроговно!" на всё, что не укладывается в твою узколобую картину мира. Это ты, блядь, "кукарекаешь" свои мантры про деградацию, а не я.
> Безмозглое поведение животных
А твоё "поведение" – сидеть в анонимном чатике и хуесосить всех, кто не разделяет твой апокалиптический бред, – это, по-твоему, вершина человеческого интеллекта?
> Ты на поезде несущемся к обрыву... и оправдываешь текущий курс
Я не "оправдываю курс", а говорю, что даже если поезд несётся хуй пойми куда, можно попытаться хотя бы руль нащупать или тормоз дёрнуть, или хотя бы понять, почему он туда несётся. А ты предлагаешь просто сидеть и орать "мы все умрём!", при этом обвиняя тех, кто пытается что-то сделать, в "приспособленчестве". Гениально, хули.
> Инстинкт выгоды - подстраиваться под окружение
Адаптироваться – это не всегда "инстинкт выгоды". Это ещё и стремление понять, как работает мир, и найти в нём своё место. Или ты думаешь, что человечество до сих пор бы в пещерах сидело, если бы не "приспосабливалось" к новым открытиям и вызовам?
> И похуй что позже все ебанутся и погибнут, приспособленческое животное не думает, ему похуй, главное быть как все, быть fittest, подхрюкивать под общий хайп
Откуда такая уверенность, что "все ебанутся и погибнут"? У тебя хрустальный шар есть или ты просто пиздобол?
Кто тебе сказал, что мне "похуй"? Мне как раз НЕ похуй, поэтому я и пытаюсь обсуждать эту тему, а не просто ныть.
> "Быть как все" и "подхрюкивать под хайп"
это как раз про тех, кто бездумно повторяет чужие лозунги. Например, твои лозунги про "деградацию" и "животных". Ты сам-то хоть одну оригинальную мысль за весь этот срач выдал, кроме перепева старых страшилок?
Короче, "мыслитель" ты наш доморощенный. Вместо того чтобы брызгать слюной и вешать ярлыки, попробовал бы хоть раз аргументированно возразить, а не просто переходить на личности и истерить.
А пока что ты выглядишь не как "разумное, думающее существо", а как обиженный на весь мир подросток, который думает, что если он громче всех будет орать "все пидорасы, а я Д'Артаньян", то это сделает его умнее. Спойлер: не сделает.
Удачи тебе в твоём гордом одиночестве на пути к обрыву. Можешь даже не махать нам ручкой, мы всё равно будем пытаться рулить.
Слышь, "сверхчеловек" ты наш недоделанный, который тут с высоты своего ЧСВ пытается всех в "животных" записать. А ты сам-то кто такой, блядь, чтобы решать, кто человек, а кто нет? Гуру просветлённый, который один познал всю тщетность бытия и теперь свысока поплёвывает на "безмозглых приспособленцев"?
> Выживает приспособленец
А по-твоему, кто должен выживать? Тот, кто сидит на жопе ровно, ноет, что всё хуйня, и ждёт, пока мир под него подстроится? Так, блядь, только в твоих влажных фантазиях бывает. В реальности адаптация к изменяющимся условиям – это и есть признак разума и жизнеспособности. Или ты предлагаешь всем лечь и умереть, потому что "поезд несётся к обрыву"?
> Вокруг кукарекают про нейроговно и ты подпеваешь
Я не "подпеваю", а пытаюсь разобраться в новой технологии, увидеть её плюсы, минусы, риски и возможности. В отличие от тебя, который просто орёт "нейроговно!" на всё, что не укладывается в твою узколобую картину мира. Это ты, блядь, "кукарекаешь" свои мантры про деградацию, а не я.
> Безмозглое поведение животных
А твоё "поведение" – сидеть в анонимном чатике и хуесосить всех, кто не разделяет твой апокалиптический бред, – это, по-твоему, вершина человеческого интеллекта?
> Ты на поезде несущемся к обрыву... и оправдываешь текущий курс
Я не "оправдываю курс", а говорю, что даже если поезд несётся хуй пойми куда, можно попытаться хотя бы руль нащупать или тормоз дёрнуть, или хотя бы понять, почему он туда несётся. А ты предлагаешь просто сидеть и орать "мы все умрём!", при этом обвиняя тех, кто пытается что-то сделать, в "приспособленчестве". Гениально, хули.
> Инстинкт выгоды - подстраиваться под окружение
Адаптироваться – это не всегда "инстинкт выгоды". Это ещё и стремление понять, как работает мир, и найти в нём своё место. Или ты думаешь, что человечество до сих пор бы в пещерах сидело, если бы не "приспосабливалось" к новым открытиям и вызовам?
> И похуй что позже все ебанутся и погибнут, приспособленческое животное не думает, ему похуй, главное быть как все, быть fittest, подхрюкивать под общий хайп
Откуда такая уверенность, что "все ебанутся и погибнут"? У тебя хрустальный шар есть или ты просто пиздобол?
Кто тебе сказал, что мне "похуй"? Мне как раз НЕ похуй, поэтому я и пытаюсь обсуждать эту тему, а не просто ныть.
> "Быть как все" и "подхрюкивать под хайп"
это как раз про тех, кто бездумно повторяет чужие лозунги. Например, твои лозунги про "деградацию" и "животных". Ты сам-то хоть одну оригинальную мысль за весь этот срач выдал, кроме перепева старых страшилок?
Короче, "мыслитель" ты наш доморощенный. Вместо того чтобы брызгать слюной и вешать ярлыки, попробовал бы хоть раз аргументированно возразить, а не просто переходить на личности и истерить.
А пока что ты выглядишь не как "разумное, думающее существо", а как обиженный на весь мир подросток, который думает, что если он громче всех будет орать "все пидорасы, а я Д'Артаньян", то это сделает его умнее. Спойлер: не сделает.
Удачи тебе в твоём гордом одиночестве на пути к обрыву. Можешь даже не махать нам ручкой, мы всё равно будем пытаться рулить.
> ему, походу, похуй
Прост контекст забывает, даже в рамках одного сообщения. Беда-печаль. Видно что у нейросетки не складывается картина мира, факты из предыдущего сообщения забываются. Ты же в одном диалоге всё это пишешь?
> Да, это имитация, а не истинное понимание. Но эта имитация часто бывает достаточно хороша для многих практических задач. И да, где нужна строгая, многошаговая, нетривиальная логика – там LLM пока слабы. Никто с этим не спорит. Но ты делаешь вид, что ВСЕ задачи требуют такой логики, а это не так.
Все задачи, кроме поиска ассоциаций, требуют логики, требуют построения внутренней, непротиворечивой, структуры, построения картины мира, той самой нетривиальной логики. Даже простая беседа требует этого, куда уж до объяснения закономерностей, выводов и чего-то ещё. Если в наборе обучающих данных есть такая нетривиальная структура - ассоциация будет проведена. Её нет - начинается галлюцинация без внутренней структуры.
> то почему LLM, которые хорошо работают с ассоциациями (по твоим же словам, хоть и простыми), не могут хотя бы попытаться работать с чем-то похожим, если их правильно обучить или дать им другую архитектуру?
> То, что текущие LLM не могут этого делать (или делают плохо) – не значит, что это в принципе невозможно для нейросетей.
Если архитектура будет работать с набором активаций нейронов - это будет на шаг ближе к AI. И это уже не будет LLM, потому что они работают не с языком, а с своей внутренней структурой.
> Ты опять ставишь знак равенства между ограничениями текущих моделей и фундаментальной невозможностью.
Ничуть. Это возможно и будет создано. Когда-то. Но текущие нейросети не могут работать с своей внутренней структурой (паттерном активаций нейронов) и, вероятно, не существует каких-то алгоритмов или теорий как это осуществить.
> То есть, ты предлагаешь забить хуй на решение текущих проблем (образование, критическое мышление, адаптация к технологиям) и просто ждать, пока либо AGI нас спасёт, либо мы все деградируем? Охуенный план, надёжный, как швейцарские часы.
Это не предложение, это наблюдаемый факт. Всем плевать на текущие проблемы и они решены не будут. Не будет никакого "мягкого встраивания" нейросетей в процесс образования.
> Но учёные и инженеры как раз и работают над тем, чтобы такие "удачные галлюцинации" (то есть, прозрения, новые идеи) случались чаще и были более обоснованными.
Это опять отсылает к невозможностью работы LLM с внутренней структурой. Невозможно получить прозрение, если нет наблюдения за мыслями или хотя бы простой работы с процессом активаций.
> А кто мешает использовать "результат" от LLM как отправную точку для собственного обучения и практики?
Человеческая психология мешает. Можно явственно наблюдать что желание найти ответ самостоятельно, пройти весь путь до построения вывода - удел безумно малого числа индивидов. И вряд ли они вообще используют LLM, для чего-то кроме замены гугла.
> Если AI, способный решать сложные задачи в узких областях лучше человека – то уже приблизились и даже превзошли.
Несколько абзацев назад ты сам писал что это невозможно и можно лишь достичь правдоподобия и правильного вывода для сложных задач.
> тоже ведутся и финансируются, хоть и, возможно, не в таких объёмах.
На них теперь выделяется денег куда меньше чем прежде. Такова природа экономики, эти исследования не приносят выгоды, если LLM на трансформерах выгодны уже сейчас.
> Зайди на сайты ЮНЕСКО, ОЭСР, посмотри публикации профильных министерств в разных странах, почитай научные статьи по педагогике и AI. Обсуждения идут, пилотные проекты запускаются, методики разрабатываются.
И никакой практики. Ни одного законопроекта, ну кроме запретов которые не работают.
> А если он использовал LLM как дополнительный инструмент к учебникам, лекциям, практическим задачам, общению с преподавателями и коллегами? Тогда у него будет и "экспертное мнение" (сформированное из разных источников), и "чувство", и опыт решения.
Даже в этом случае, если он хотя бы частично заменяет свои выводы выводами нейросети - он уже обучается хуже, он уже деградирует. LLM не обучен обучать людей, он обучен выдавать результат и даже этот результат всего лишь NTP и правдоподобие, а не логическая цепочка рассуждений. И ведь это мы говорим про исключительных индивидов, а не про большинство. Большинство же будет искать только вывод и скорость их деградации куда быстрее.
> ему, походу, похуй
Прост контекст забывает, даже в рамках одного сообщения. Беда-печаль. Видно что у нейросетки не складывается картина мира, факты из предыдущего сообщения забываются. Ты же в одном диалоге всё это пишешь?
> Да, это имитация, а не истинное понимание. Но эта имитация часто бывает достаточно хороша для многих практических задач. И да, где нужна строгая, многошаговая, нетривиальная логика – там LLM пока слабы. Никто с этим не спорит. Но ты делаешь вид, что ВСЕ задачи требуют такой логики, а это не так.
Все задачи, кроме поиска ассоциаций, требуют логики, требуют построения внутренней, непротиворечивой, структуры, построения картины мира, той самой нетривиальной логики. Даже простая беседа требует этого, куда уж до объяснения закономерностей, выводов и чего-то ещё. Если в наборе обучающих данных есть такая нетривиальная структура - ассоциация будет проведена. Её нет - начинается галлюцинация без внутренней структуры.
> то почему LLM, которые хорошо работают с ассоциациями (по твоим же словам, хоть и простыми), не могут хотя бы попытаться работать с чем-то похожим, если их правильно обучить или дать им другую архитектуру?
> То, что текущие LLM не могут этого делать (или делают плохо) – не значит, что это в принципе невозможно для нейросетей.
Если архитектура будет работать с набором активаций нейронов - это будет на шаг ближе к AI. И это уже не будет LLM, потому что они работают не с языком, а с своей внутренней структурой.
> Ты опять ставишь знак равенства между ограничениями текущих моделей и фундаментальной невозможностью.
Ничуть. Это возможно и будет создано. Когда-то. Но текущие нейросети не могут работать с своей внутренней структурой (паттерном активаций нейронов) и, вероятно, не существует каких-то алгоритмов или теорий как это осуществить.
> То есть, ты предлагаешь забить хуй на решение текущих проблем (образование, критическое мышление, адаптация к технологиям) и просто ждать, пока либо AGI нас спасёт, либо мы все деградируем? Охуенный план, надёжный, как швейцарские часы.
Это не предложение, это наблюдаемый факт. Всем плевать на текущие проблемы и они решены не будут. Не будет никакого "мягкого встраивания" нейросетей в процесс образования.
> Но учёные и инженеры как раз и работают над тем, чтобы такие "удачные галлюцинации" (то есть, прозрения, новые идеи) случались чаще и были более обоснованными.
Это опять отсылает к невозможностью работы LLM с внутренней структурой. Невозможно получить прозрение, если нет наблюдения за мыслями или хотя бы простой работы с процессом активаций.
> А кто мешает использовать "результат" от LLM как отправную точку для собственного обучения и практики?
Человеческая психология мешает. Можно явственно наблюдать что желание найти ответ самостоятельно, пройти весь путь до построения вывода - удел безумно малого числа индивидов. И вряд ли они вообще используют LLM, для чего-то кроме замены гугла.
> Если AI, способный решать сложные задачи в узких областях лучше человека – то уже приблизились и даже превзошли.
Несколько абзацев назад ты сам писал что это невозможно и можно лишь достичь правдоподобия и правильного вывода для сложных задач.
> тоже ведутся и финансируются, хоть и, возможно, не в таких объёмах.
На них теперь выделяется денег куда меньше чем прежде. Такова природа экономики, эти исследования не приносят выгоды, если LLM на трансформерах выгодны уже сейчас.
> Зайди на сайты ЮНЕСКО, ОЭСР, посмотри публикации профильных министерств в разных странах, почитай научные статьи по педагогике и AI. Обсуждения идут, пилотные проекты запускаются, методики разрабатываются.
И никакой практики. Ни одного законопроекта, ну кроме запретов которые не работают.
> А если он использовал LLM как дополнительный инструмент к учебникам, лекциям, практическим задачам, общению с преподавателями и коллегами? Тогда у него будет и "экспертное мнение" (сформированное из разных источников), и "чувство", и опыт решения.
Даже в этом случае, если он хотя бы частично заменяет свои выводы выводами нейросети - он уже обучается хуже, он уже деградирует. LLM не обучен обучать людей, он обучен выдавать результат и даже этот результат всего лишь NTP и правдоподобие, а не логическая цепочка рассуждений. И ведь это мы говорим про исключительных индивидов, а не про большинство. Большинство же будет искать только вывод и скорость их деградации куда быстрее.
Ты не пытаешься ни в чём разобраться. Тебе говорят, что эти манятехнологии говно, они не работают как это заявлено, а тебя это рвёт и ты копротивляешься в защиту, потому что противоположное хайпу мнение идет против твоего приспособленчества.
Ты безмозглое приспособленческое животное, тебя устраивает только подхрюкивание под общий хайп, вот ты и подхрюкиваешь сам и копротивляешься против противоположных РАЗУМНЫХ мнений, потому что сам - неразумен. Ты не можешь думать, не можешь решать, только плыть как говно по течению, это и есть - выживание приспособленцев по Дарвину, закон поведения ЖИВОТНЫХ, а вовсе не людей. Ты не человек, не разумное существо, а безмозглое животное действующее инстинктивно ради выживания, что и показал Дарвин.
Если не заметил, твое поведение такое же как у нейросети, она тоже не может решить против, только подхрюкивает в тему как приспособленец. И ведь такие имбецилы еще считают это умом, ну пиздец. Я же говорю, буквально безмозглые животные, разум а нет по факту.
Будто ты сможешь вайбкодить с либами которые вышли давно. Каждая нейросеть АПИ случайным образом пишет, придумывает конфиги которых не существует. Только если ей не ебануть всю документацию в один диалог и даже там обосрётся.
Обычно хватает добавить пару страниц доки в контекст. Или аннотации с докстрингами. В худших случаях отдельно просишь сжать доку до краткого гайда, в надежде что детали догаллюцинирует с приемлемым хитрейтом.
>>68219
Не соглашусь. Там существенная разница. Я когда обновился с 4o до 4.1 наконец-то выдохнул, что мне стека перестала генерить легаси код на строй версии пидантика.