Замены программистов нейросетями тред №2 # OP 3449694 В конец треда | Веб
Сап, сейчас все больше говорят о нейросетях и их возможностях в программировании, что вызывает некоторые опасения. Не хочу кричать, что айтишка умрет и подобное, но, думаю, стоит имеить запасной план на такой случай.

Аноны, что думаете по этому поводу?

inb4: Заводчане осилившие регистрацию в OpenAI vs. IT-бояре.

Предыдущий тонет тут: https://2ch.hk/pr/res/2994560.html (М)
2 3449724
>>449694 (OP)
не понял смысл картинки #2 это показывает этапы замены? типа сначала заменили кофевара на кофеварку, потом заменят челов на авточелов? и что означают выражения лиц персонажей на картинке?
3 3449797
Скажу честно - мне обидно от того, что конкретно программирование (каким я его любил) вероятно уйдёт в прошлое. Но ещё обиднее мне от того, что обывательская свинота, которой по-хорошему надо запретить читать, теперь получит отмашку не использовать свой скудный мозг и далее. Ведь жптишка всё нагенерит - и код, и домашку, и поздравление на др, и т. д.
4 3449818
>>449797

>каким я его любил


каким?
5 3449821
>>449818
Ну мне нравится код писать, комбинировать, самому чето придумывать даже если кто-то уже такое делал. Мне нравится не только "решение задач полезных бизнесу", но и сам процесс. ИИшка меня этого собирается лишить, для себя я не вижу смысла заниматься кодингом за деньги. Я понимаю что я в меньшинстве, большинству поебать на сам кодинг
6 3449822
>>449724
Вайб кодер в треде
7 3449830
>>449821
Ты же проходил историю в школе и знаешь, что меняется абсолютно любое ремесло людей.
Вот сейчас активно будет меняться айтишка. Ну будет 90% писанины роботами, да и хуй с ним. Повылетают апездалы нихуя не делающие со своих нагретых мест и которые пришли только ради бабок.
Ну трудится все будут, а не писюны рисовать в пэинте на месте тимлида.
Если любишь коддинг, то тебе поебать будет, работу не потеряешь.
В общем нихуя страшного, штаты поедут в несколько раз и все продолжится, как сейчас.
8 3450315
Смотрю на реддите в соотв. разделе что там люди с жптишкой создают, и мне кажется итс овер. Буквально михалычи 40 лет с опытом работы в пятерочке кодируют себе работающую аппликуху чисто на промтах. И это блин работает. С первого раза? Нет. Без багов? Нет. Понимает ли михалыч, что его программа делает? Нет. Претендует ли михалыч на место кодера? Нет! Нахуя теперь нужны кодеры и кодерские галеры, если михалыч с образованием 7 классов может надиктовать голосовухой ИИшке че делать, и через несколько итераций получить готовую фичу. Итс овер гайс, итс овер. Я фильтровал некоторое время заебавший хайп по ИИшке, но это игнорировать уже просто невозможно.
9 3450351
>>450315
держи нас в курсе
17453456861863.jpg64 Кб, 512x512
10 3450391
Куда можно перекатиться кроме плиточника?
giphys.gif15 Кб, 499x204
12 3450506
>>449797

>конкретно программирование (каким я его любил) вероятно уйдёт в прошлое


А мне наоборот заебись что теперь я могу легко программировать на голанге, на иптоне, на жс, сразу на любом фреймворке, на сикеле, на регулярочках, на баше, при этом докерфайл пишу, манифест в кубы пишу и если надо. Рил золотой век погромирования.
13 3450512
>>3449878 →
Переубеждать тебя смысла больше не вижу. Я тебе сказал: 3ч на достаточно сложного бота с асинхронами и прочей ебалой (он тебе сам написал, что делал).
Не веришь - мне то заебись. Тем лучше шатать рыночек на всяких Авито.
ДАЙТЕ ЕМУ СТУЛ.png485 Кб, 784x500
14 3450620
>>449694 (OP)
В секс-индустрии всегда хорошо платили и платят, так что всем питон, жава, жавасрикт, сишрамп и т.д программистам приготовиться, останутся в живых лишь те, кто пишут на языках типа Си(не жавахуй и не сишрамп) и Раста, остальные на трассу уйдут продавать своё очко(ну, или пизду)
изображение.png303 Кб, 732x548
15 3450624
>>450506

>программировать на голанге, на иптоне, на жс

16 3450681
>>450512

>достаточно сложного


>бота


>с асинхронами


Вот это да, там же, наверное, натуральный рокет саенс - БОТА, да ещё и с АСИНХРОНАМИ! Ну точно гопота нас всех заменит теперь.
17 3450734
>>450681

> Вот это да, там же, наверное, натуральный рокет саенс - БОТА, да ещё и с АСИНХРОНАМИ! Ну точно гопота нас всех заменит теперь.


От твоего сарказма ничего не поменяется))0)
Ещё 1.5г назад это было почти невозможно, а если возможно, то с десятками промптов над одной задачей.
Тогда такие как ты смеялись, что он 100 строк кода без косяков не напишет, даже на питоне. Сейчас смеются, что делает даже при помощи рук нуба готового бота.
Пройдет 1.5 года, нейронки продвинуться ещё до какого горизонта. Интересно, в какой момент ты перестаешь отрицать то, что мир уже не будет прежним и что айтишка скоро потеряет блеск и флёр? Это станет обычной РАБотой как до 2010х.
18 3450741
>>449797

>Скажу честно - мне обидно от того, что конкретно программирование (каким я его любил) вероятно уйдёт в прошлое.


А я даже рад, что поколение старых пердунов сишников или, хуже того, лисперов с их рассказами о том, как "раньше было лучше", наконец-то сдохнет. Айтишка — это бесконечный склад старых пердунов, зашоренных, ограниченных, и необучаемых, которым 25 лет, они, сука. год-два назад выучили модный JS тулкит, созданный три года назад, и теперь это для них лучший и единственный инструмент в галактике, они будут всё программирование мерять своим ебаным solid.js, next.js, или ещё какой-то хуйнёй — всё, это уже старые пердуны в 25 лет, просто их единственное и незаменимое видение мира ещё не очевидно устарело, а вот спустя 10-20 лет оно очевидно устареет. И тогда они станут такими же сишниками-лисперами с расказами про "вот раньше был фронт другой, настоящий, совсем не такой как сегодня".

Вся эта ML параша ведь взлетела не потому, что это какая-то магическая технология сама по себе, а потому, программирование в стиле "машина Тьюринга" остановилось в развитии ещё 30 лет назад, и уже настолько не масштабируется, что даже охуенно неэффективная видеокарта, на КАЖДЫЙ токен пересчитывающая уже в трёхсотый раз все матрицы внимания, оказывается эффективнее однопоточной однозадачной хуйни на C++, и тем более на питоне.

Только не надо мне рассказывать про "вот есть потоки же ж" — да, есть, только они настолько ненадёжные и настолько ебливые в отладке, что их используют только по особым праздникам, и чаще в каком-то внешнем триста раз отлаженном софте (вроде операционной системы, как это делается в асинхронщине на питоне).
19 3450743
>>449821

>Ну мне нравится код писать, комбинировать, самому чето придумывать даже если кто-то уже такое делал. Мне нравится не только "решение задач полезных бизнесу", но и сам процесс. ИИшка меня этого собирается лишить, для себя я не вижу смысла заниматься кодингом за деньги.



Чем она тебя лишает возможности комбинации? ИИ очень хуёво комбинирует и решает архитектурные задачи.
Да, ИИ ещё больше усилит подход "чем писать алгоритм под задачу, лучше ёбнем старый код из гугла", из-за чего прогресс по фундаментальным технологиям ещё больше замедлится (кому нужен ваш ЯП Crystal, если ни одна нейросетка под него не умеет писать код?). Но эта тенденция была и без ИИ — кризис в западном мире идёт уже давно, он ещё до короновируса начинался.

>Ведь жптишка всё нагенерит - и код, и домашку, и поздравление на др, и т. д.


Да и хуй с ней, я списывал в школе у одноклашек, теперь дети будут списывать у чатгпт. Школа отупляет в любом случае.
20 3450749
>>449830

>Вот сейчас активно будет меняться айтишка. Ну будет 90% писанины роботами, да и хуй с ним. Повылетают апездалы нихуя не делающие со своих нагретых мест и которые пришли только ради бабок.


На самом деле в мире есть тенденция исламизации, когда белых людей заменяют дикарями с кораном для выполнения грязной работы, плодовитость белых людей снижают. Потому что раньше были высококвалифицированные операторы-сантехники, которые выполняли средней сложности работу, не заменяемую машиной, а теперь эта работа заменяется машиной и эти операторы стали не нужны. И в том числе вечные джуны являются теми самыми операторами-сантехниками без мозгов. В ближайшее время НЕ-кодеры охуеют намного больше, чем кодеры, потому что целые профессии вымрут, вроде оператора поддержки — просто нужно время на то, чтобы все алгоритмы работы оператора поддержки формализовать и вложить в программу обучения нейросетки. А кодеры по прежнему нужны будут для проектирования, наладки, и поддержки этих систем.

Я ещё десять лет назад работал в конторе, занимавшейся электронным документооборотом и CRM, суть которого сводилась к тому, что из 20 человек в фирме 10 заменяются компьютером, выполняющим тупейшую работу по "перекладыванию бумажек", то есть, ведения документации, бухгалтерии, формирования отчётов, etc. Это было безо всяких ИИ. Это не вчера началось, и исламизация не вчера началась:
https://tass.ru/politika/559585 — 2012 год, указ презика.
21 3450753
>>450315

>Буквально михалычи 40 лет с опытом работы в пятерочке кодируют себе работающую аппликуху чисто на промтах. И это блин работает. С первого раза? Нет. Без багов? Нет. Понимает ли михалыч, что его программа делает? Нет. Претендует ли михалыч на место кодера? Нет! Нахуя теперь нужны кодеры и кодерские галеры, если михалыч с образованием 7 классов может надиктовать голосовухой ИИшке че делать,


Хуйня, которую михалыч надиктовал нейросетке, не работает и не заработает, даже со следующими поколениями нейросеток. Чтобы эта хуйня заработала, к михалычу нужно приставить программиста, который будет разбирать высранную нейросеткой парашу и превращать её в рабочий код. А если задача вдруг нестандартная и в гугле нет хотя бы похожего решения, то всё. пиздец, приплыли, нейросетка не способна выдать оригинальный алгоритм, она только пересказывает и комбинирует известные ей.

Я вроде писла в прошлом треде, но могу повторить: ещё Дейкстра говорил, что мерять производительность по строчкам кода — это тупость, потому что чем больше программа — тем она хуже; есть некий бюджет проекта, доступное ему число строчек кода, которое возможно поддерживать; и вот тупая пизда или Михалыч с ИИ совершенно бездарно проебывает этот бюджет, он работает в огромный минус, создавая проблем как пять программистов, пишущих руками, и никак не разгребает эти проблемы.
Доходит до того, что в отдельных конторах банят фаерволом нейросетки, потому что школота заебала комитить хуёвый код, который потом приходится кучу времени чистить и дорабатывать.

Или, как правильно написали вот в этом треде:
>>3441825 (OP)

>С появлением LLM некомпетентность перестала оплачиваться


То есть, всё как раз наоборот — конторы очищают от михалычей, потому что михалычем теперь может быть любой, а делать рабочий код — немногие.
22 3450756
>>450504

>https://www.reddit.com/r/ArtificialInteligence/comments/1kb8e09/i_lost_my_business_to_ai_who_else_so_far/


Пидарасы, которые наживаются на колхозах в 2 млн человек, говорящих на своём уникальном языке, должны были умереть, как и сам этот барьер. Слава богу, что это случилось.
23 3450759
>>450506

>А мне наоборот заебись что теперь я могу легко программировать на голанге, на иптоне, на жс, сразу на любом фреймворке, на сикеле, на регулярочках, на баше, при этом докерфайл пишу, манифест в кубы пишу и если надо. Рил золотой век погромирования.


Онан, подскажи норм сетуп под эту хуйню? Я до сих пор через бравзер руками делал запросы, сильно хуйня получалась. Может средства для автоматизации лучше этот процесс обрабатывают? Я вот смотрел работу питониста с copilot в 2023 году на ютьюбе, так ему нейросетка только самую очевидную шаблонную хуйню подсказывала, периодически ошибаясь в своих подсказках. Оно всё ещё на том же уровне или этот кал всё-таки подтянули до удобноваримого состояния?
Я уже потерял счёт, сколько я нейросеток перепробовал, даже локально маленькую у себя запускал — всё хуйня. Ну то есть иногда она помогает, ошибки странные может расшифровать (но не исправить), бойлерплейт выплюнут для дальнейшей доработки — но не более того.
24 3450760
>>450681

>Вот это да, там же, наверное, натуральный рокет саенс - БОТА, да ещё и с АСИНХРОНАМИ! Ну точно гопота нас всех заменит теперь.


Я уже отвечал в прошлом треде, что сама нейросетка считает нереальным написание надёжного кода со сложными асинхронными переходами состояний нейросеткой. Хуйню с неизвестной работоспособностью писали на апворках много лет назад безо всяких нейросеток.

>>450734

>Ещё 1.5г назад это было почти невозможно, а если возможно, то с десятками промптов над одной задачей.


Так и сегодня это десятки промтов, просто многие из них автоматически выполняются. Тот же чатгпт умеет внутри себя запускать код вместо того, чтобы код запускал кодер и копипастил ошибки. Правда, по мере роста сложности чатгпт перестаёт быть способным самостоятельно запускать код.

>Тогда такие как ты смеялись, что он 100 строк кода без косяков не напишет, даже на питоне. Сейчас смеются, что делает даже при помощи рук нуба готового бота.


И сейчас смеюсь. Нет, она не может написать 100 строк без косяков. Насколько быстро и качественно эти косяки правятся — это другой вопрос. Если скорость выросла, то качество — не особо, очень часто исправление одной ошибки создаёт другую ошибку.
25 3450770
>>450759
Все нейронки одинаковые, ты ей промт - она тебе образец кода. Как правило, код с проблемами, если ты явно не указал на проблемы в промте, в коде будет хуйня. Халявы не будет, ИИ - это джун, за которым надо ревьюить каждую строку.
26 3450825
>>450759
Тут есть два класса тулз:
text2text - это все чаты, автокомплиты и так далее. Там ты способен глазами оценить что пошло на вход в контекст, что сеточка высрала, дать мгновенный аппрув/реджект. Это сегодня как бы база. В это легко вкатиться любому. Это прекрасно контролируется. С этим справляются современны локальные модели. Самый яркий представитель - continue.
code agent - это костыль который сам принимает решение какие файлы добавить в контекст, какие файлы отредактировать. Они хорошо работают только на больших внешних моделях типа кладуа/гпт. С ними надо учиться работать. Слепой вайб кодинг быстро поднасерет в проект. Надо следить за изменениями. Покрывать всё тестами, чтобы отлавливать регрессии. Им надо уметь делить задачи на подпункты. Писать хорошо детализированные техзадания, докладывать документацию, подсовывать уточнения. Нормально эффективно овладеть агентом удаётся спустя 2-3 месяца экспериментов. Из примеров: Cursor, Cline, Aider. Мне нравится aider, потому что им проще рулить при помощи /load инструкций.
27 3450832
>>450624
Мне видишь просто задачки закрывать, а не на двачах самоутверждаться. Могу себе позволить.
28 3450835
>>450760

>Тот же чатгпт умеет внутри себя запускать код вместо того


Технически это ничем не отличается от того что LLM сгенерит тебе код и ты запустишь его локально.
29 3450987
>>449694 (OP)

> Аноны, что думаете по этому поводу?


Нейронка никогда не заменит программистов, говорю как нейронка
30 3451008
>>449694 (OP)

>сейчас все больше говорят



А до этого слыхом не слыхивали https://2ch.hk/pr/res/3429171.html (М)
31 3451063
>>450734
Отрицать что?

>Замены программистов нейросетями тред


Что значительная часть неквалифицированных необразованных вебмакак, ничем, кроме умения кодировать на жс/джава/питухон/говно/etc, не отличающихся от рагуля с тремя классами (т.н. веб-девелопидоров и прочих фронтендеров), скоро потеряет работу? Так это никто не отрицает, глаза разуй. Никто ведь все эти годы не пытался ВКАТИТЬСЯ, например, в биоинформатику - очевидно, что это невозможно для вчерашнего таксиста - вместо этого быдло вкатывалось в круд девелопмент и покраску кнопок, потому что это элементарно, там не подразумевается никаких пререквизитов, кроме умения писать скрипты, которое можно освоить за несколько месяцев. Поголовье этих кодерков гопота заметно сократит в этом десятилетии, кто бы спорил - оно и до гопоты начало дешеветь по очевидным причинам. Что сказать-то хотел?
32 3451148
>>451063

>жс/джава/питухон/говно/etc


Дорогой, а что по твоему не говно? 1С?
33 3451193
>>451148
Дикпик, иди нахуй.
34 3451195
>>451193
Ну реально, вот ты сейчас обдал поносом все языки. А что по твоему надо делать? Что по твоему хороший выбор? Что ты предлагаешь?
35 3451207
>>450832
Даже не знаю что хуже: сидеть на дваче или писать говнокод на высокоуровневой параше
36 3451211
И вот это >>451195 говорящее говно кого-то заменит?
37 3451316
>>451207

> 2к25 год от изобретения трансморферов


> @


> разработка превратилась в описательные сверхвысокоуровневые спецификации


> @


> харкачеры всё ещё гордятся тем, что байты двигают

38 3451559
>>450825

>text2text - это все чаты, автокомплиты и так далее. Там ты способен глазами оценить что пошло на вход в контекст, что сеточка высрала, дать мгновенный аппрув/реджект. Это сегодня как бы база. В это легко вкатиться любому. Это прекрасно контролируется. С этим справляются современны локальные модели. Самый яркий представитель - continue.


Поставил Continue с Ollama и накатил на него Deep Coder 6.7B. Смог найти проблемную строчку кода, но не смог предложить ничего адекватного.
Попробовал тот же код засунуть в Claude 3.7 — тоже полная хуйня, нашло проблемные строчки, но вместо исправления предложило кучу совершенно бесполезных правок. (Я уже руками исправлял этот код, потому точно знаю все ошибки в нём)

В общем, удачи вам с вашими байками про Иван Михалыча, который вебсайты пишет думя промтами нейросетке. Как будут пруфы — приносите, посмотрим. Пока что революция роботов отменяется.

>code agent - это костыль который сам принимает решение какие файлы добавить в контекст, какие файлы отредактировать. Они хорошо работают только на больших внешних моделях типа кладуа/гпт. С ними надо учиться работать. Слепой вайб кодинг быстро поднасерет в проект. Надо следить за изменениями.


Во-во, "следить за изменениями" — это не то слово. Там с лупой нужно просматривать каждое слово в правках, которые эта параша предлагает. В том числе потому, что она умеет предлагать совершенно бесполезные правки аля "дай поправлю тебе coding style". Что вообще этот code agent может ускорять? Очевидные ляпы в проектах уровня hello world? Нажать Ctrl+C, а потом Ctrl+V я могу и без нейросетки.

Серьёзно, я сейчас не пытаюсь никого выстебать, я хочу увидеть, как эта параша ускоряет и упрощает что-то там вне маркетинговых презентаций от самого производителя инструмента. Пока что у меня всё заканчивалось на "пошло оно нахуй — быстрее руками исправлю".
39 3451562
>>451063

>Что значительная часть неквалифицированных необразованных вебмакак, ничем, кроме умения кодировать на жс/джава/питухон/говно/etc


"Умение кодировать на языкнейме" — это вообще неизвестный науке зверь. Как определить, умеет ли юзернейм кодировать на языкнейме или нет? По скорости написания hello world? По знанию стандартной либы наизусть? Что это за критерий вообще такой "знание языка"? Кто его "знает" и кто его "не знает"?
40 3451613
>>451559
Нейросеть может быстро накидать типовое решение. Например, мне надо на C# отправить запрос, получить джейсон и отмаршалить его в массив структур. По памяти я ебал это писать, а нейросеть мгновенно выдала код, копируй и используй. Надо мне заюзать инмемори бд - да не вопрос, вот пример. Портянки ямлов пишутся за секунду, красота. В гугле сам заебешься искать, там все засрано инфоциганами с курсами, нейронка теперь новый поисковик.
41 3451821
>>451613

>Например, мне надо на C# отправить запрос, получить джейсон и отмаршалить его в массив структур. По памяти я ебал это писать, а нейросеть мгновенно выдала код, копируй и используй.


Как хорошо, что я не работаю в ебанутых парашах, где на каждый чих и пук делают HTTP запрос и парсят текстовой кал в ответе (в 2025 году). Но если бы работал, то, наверное, мне бы нейросеточка пригодилась.

>В гугле сам заебешься искать, там все засрано инфоциганами с курсами, нейронка теперь новый поисковик.


Вот тут плюсую, интернет стал непролазной помойкой, гуглить что-то уже бесполезно.
42 3456033
Бамп.
Пишу бота для монетизации одной ниши, в которой никого нет. Крупный пиздец. Заебался. ИИ тоже заебался. Уже 300к токенов ушло на общение.
Хз что получится в итоге, но пока всё хорошо.

Напоминаю:
Питонщики идут нахуй
43 3456108
>>456033

>Питонщики идут нахуй


База, питон - дерьмо.
44 3456127
>>451559
Ну правильный подбор стека и правильно описание задач позволит избежать бойлерплейта. У меня много раз руки опускались пились свои веб сайты, потому что сидишь день верстаешь кнопочки и уже остопиздело, а тебе за это даже не платят и хз выйдет ли какой то результат из твоего пет проекта.
А щас на курсоре хуячить прототипы на самых популырных и простых стеках типа next.js + tailwind (как раз это инлайн говно удобно для нейронок, чтоб по файлам не скакать и контексты не терять) очень быстро можно. Сварганить сайтец за выходные без боли это кайф + сложно быть фуллстеком + девопсом и помнить все 100500 форматов конфига и прочего. Где глубокие знания не нужны нейросетка выдаст тебе простой конфиг деплоя и прочего и тебе не надо на пол дня зарывать в доку на каждый чих.
45 3456165
>>451562
Тоже кекаю что в профильном треде в 2025 кто-то до сих пор пользуется этой терминологией. У среднего разработчика занние языка где-то далеко зарыто в приоритетах скилов. Коммуникация, понимание рабочих процессов, адаптивность, жонглирование десятком тулзов, аналитика, перечислять можно бесконечно. Последние 2 раза когда я устраивался в бигтех всем вообще было поебать что у меня в кокнретно языке / фремворке нет или мало опыта, потому что это наживается за пару месяцев онбординга. А пот понимание того как веб работает в целом, как раузеры код переваривают, как архитектуры на бекендах устроены, систем дизайн, хайлоуд проблемы - вот это все надо знать. Весь этот опыт в черепной коробке полезнее чем нейронка, потому что может выдавать решения и в том числе уметь нужный промпт написать.
46 3456324
>>451562
>>456165
Это тот самый хвалёный ЭЙАЙ норму постинга сосаке выполняет? Что, токенов слишком много в посте было?
47 3456935
>>456324
Чмодератерам дали задание - постить посты нейронкой. Сидят на досках, постят изредка, промты вбивают на разные личности, спорят сами с собой. Ору с этой хуйни
48 3456999
>>456935
Ага, блядь. Модераторы постят, лишь бы ты не вкатился. Ёбаная блядота сумасшедшая. На дваче сказали, что за забором уже очереди из сеньёров, 500+ откликов и нихуя. Я просто не понимаю, для чего ты, дешёвая проститутка, тут пиздишь? Графики видел? Съебал нахуй, прихвостень назаровский. Резюме хорошее уже составил с ментором, долбоёбина безмозглая?
49 3457004
>>456999
Типичный пост нейрокала - нейрокал не понимает что такое моча.
50 3457072
>>456127

>Где глубокие знания не нужны нейросетка выдаст тебе простой конфиг деплоя и прочего и тебе не надо на пол дня зарывать в доку на каждый чих.


Еще раз повторюсь, что во фронте самое ебанутое то, что он намного сложнее, чем задача, которую он решает. Это идеальные входные параметры для языковой модели, которые, напоминаю, были созданы для интерпретации нерациональных языковых консьтрукций, которые можно только запомнить, их нельзя понять.
51 3457108
>>457072
Нет, идеальные входные параметры это токены без всякой внутренней связи. Везде где есть глубокая внутреняя связанность - нейросеть будет сосать. И не важно фронт это или бек, сосать она будет всегда. Она даже не в состоянии посты писать нормально, если глубина понятий чуть-чуть отличается от примитивных языковых конструкций.

Другое дело если нейросеть будет писать в каком-нибудь нормальном фреймворке, который накладывает жесткие ограничения на глубину абстракций. Но таких не создали, так что LLM будут продолжать сосать.
52 3457405
>>457108

>Она даже не в состоянии посты писать нормально, если глубина понятий чуть-чуть отличается от примитивных языковых конструкций.


Ты не поверишь, это мой каждодневный опыт на сосаке когда на мои посты отвечают, и не боты, а настоящие люди, но ответы точно как ты написал - высеры пориджей неспособных прочитать русский язык дальше пары слов, контекст уже проебан или вообще текст проигнорирован.
53 3457445
>>457108

>Но таких не создали


Их сейчас активно изобретают. Гугли тот же Interoperable Literate Programming (ILP).
Я прямо вижу что через пару лет все модные хипсторские фреймворки начнут заменять плашки blazingly fast на llm friendly.
54 3457638
>>457445

>Их сейчас активно изобретают. Гугли тот же Interoperable Literate Programming (ILP).


Ты видел, сколько нужно ёбли со вспомогательными описаниями, для того, чтобы эта поебень стала чуть менее тупой?
55 3457700
>>457405
И что, и чего? Пердёж может научиться чему угодно, если его бить палкой. Нейросети современные будут пердеть на текущем этапе развития ещё очень долго.

>>457445
Дело не в синтаксисе, похуй на него, нейросети тоже похуй. Дело в вложенности логик. Саму логику программы нужно писать менее сложной, обозначить однозначное поведение. Это должны быть не только веб-компоненты, но и какие-то примитивные сигналы, которые уже подключены к этим компонентам. Хуй знает как описать, да ну и похуй, лень думать.
56 3457956
>>457700

>И что, и чего?


Да это был лишь крик души. Так-то ты прав, я не спорю.
Просто познавательно как нейросети проявили человеческую суть, теперь людей есть с чем сравнить. Большинство людей болтают как нейросети, совершенно бездумно, а включают голову только ради выгоды или когда над жопой зависает угроза, но такое бывает редко, так что обычная человеческая компания мало отличается от чата с нейросетью, такой же безмозглый бессмысленный спам.
57 3458076
>>457956

>Большинство людей болтают как нейросети, совершенно бездумно, а включают голову только ради выгоды или когда над жопой зависает угроза


Какая у тебя была выгода или угроза когда ты это писал?
58 3458125
>>458076
Слыш я небыдло
59 3458382
>>458076

>>Большинство людей


>>Большинство


Ну вот, наглядный пример безмозглых ботов, процитировал то, что сам прочитать не смог, в итоге написал бессмысленную хуйню. Ботоспам, и не от машины, а от бирмусорной нейросети, таковы люди, подавляющее большинство не думают никогда, кроме случаев когда их что-то жестко заставляет - алчность или страх.
60 3458422
>>457956
Всё же нейросеть человека может гораздо большее. И мыслит она гораздо гибче, даже условные пердежи, видно что их мысли всё равно глубже даже в примитивном "я ебал твою мать".

Нейросеть всё ещё ограниченна. Объяснение одно - в нейросетях модель мира имеет меньше связей, вот тащемта и всё, нужно больше внутренней связанности между явлениями на всех этапах.

Мне кажется подобное бы работало, если бы трансформеры имели связи между всеми слоями. Но тогда трансформеры, как архитектура, обосрётся, наверное.
61 3458434
>>458382
Таблетки пей, Наполеон..
62 3458436
>>458422

>Мне кажется подобное бы работало, если бы трансформеры имели связи между всеми слоями. Но тогда трансформеры, как архитектура, обосрётся, наверное.


Они и так имеют связи между всеми слоями. Входные параметры поступают на выходной слой, а выход из первого слоя поступает на деэмбеддер. Каждый слой по сути читает из этого канала и по желанию добавляет в него что-то своё.
63 3458443
>>458422
Неправда. Протри глаза, >>458434 даже настоящая нейросеть так примитивно не пукнет, и так >>458076 тоже, даже нейросеть научили значению слова "большинство", она не считает это синонимом "все, без исключения" как биомусор с органическим мозгом хрюкает. Настоящая нейросеть выдает нормальные развернутые ответы где меньше ошибок, чем живые люди выдающие односложные фразы и полностью неправильные.

Еще раз повторяю, нейросеть человека гибче только ПОТЕНЦИАЛЬНО, только в рехких ЭКСТРЕМАЛЬНЫХ ситуациях когда биомусор припёрло, а в нормальной жизни, в нормальной обстановке, уступает компьютерным во всём.
image.png26 Кб, 258x374
64 3458503
>>458436

> Они и так имеют связи между всеми слоями.


Разве? Если что я про пикрелейтед говорю.

> Входные параметры поступают на выходной слой, а выход из первого слоя поступает на деэмбеддер. Каждый слой по сути читает из этого канала и по желанию добавляет в него что-то своё.


Каждый слой читает, добавляет что-то и уже эти модифицированные данные опять и снова поступают в слой с которого они были взяты? Хм, нужно прочитать больше про эту хуйню.
Даже не знаю, почему тогда нейросети такие тупые? Потому что внутри слоёв прецептроны содержат мало нейронов?

>>458443
То про что ты говоришь это выброс гормонов и вот это вот всё, когда сети мозга в какие-то другие режимы работы входят, активируется множество слоёв. Но это явно не тот случай - любой человек может в глубину связей хоть прямо сейчас, офк не по всем темам, но может.

Твоё суждение по ответам рандомов и нейросетей это классика логических ошибок, ты принимаешь какие-то субъективные наблюдения и строишь на их основе предположения о работе нейронных сетей. Но эти субъективные наблюдения ничего не доказывают. Насрал кто-то односложной фразой, и чего, и что? Что с этого следует? Да ничего не следует.
ВеликоеЧеловечество.jpg95 Кб, 800x600
65 3459137
>>458503

>любой человек может в глубину связей хоть прямо сейчас, офк не по всем темам, но может.


"Может, но не делает" значит не может. Твои ПОТЕНЦИАЛЬНЫЕ выдумки это пустая брехня, иллюзии в шизоидном воображении. Даже народная поговорка есть "Если бы, да кабы, да во рту росли грибы"

Если по факту не делает >>458434 >>458076 , значит не может, это реальность. Прими реальность, а не выдумывай потенциальный бред.
66 3459139
>>458443
"Нормальная обстановка" - насквозь синтетические комнатные условия? Ну так в таком фрейме и швейная машинка эффективнее человека, смотри как шьёт, ни одна швея не догонит. Это строго ограниченные функции, машинка шьёт, компилятор компилирует, сетка распознает картинки.
В "ум" нейросеточки можно было бы поверить, если бы ей на чистую сначала скормить только учебник языка, а потом попросить реализовать пару реальных кейсов без возможности пиздить у мясных мешков туеву хучу готовых фрагментов кода. А так это просто комбинирование уже готовых текстов. К функции "погугли за меня" добавили "а теперь собери это в кучу".
67 3459140
>>459139
Швейная машина это инструмент, она ничего не шьет, это делает человек. Или станок с программным управлением, он кажется работает сам, но нет, он лишь выполняет заложенные человеком действия как шарманка, то есть работает человек, а не станок.

А нейросеть действует сама, сама думает и отвечает, причем по факту делает это лучше человека. И данный 2ch тому бесспорное доказательство. Я годами тут сижу и вменяемые ответы вижу 1-2 раза в год, а всё остальное время тупое кукареканье куда хуже нейросети.

И знаешь почему? Потому что нейросеть, хоть и тупая, но сделана давать ответы на вопросы. А люди не ставят целью отвечать на вопросы, они тут для чата поддерживать социальные линки просто перебрасываясь keep-alive пингами, содержание которых не имеет значения, важен только сам факт посылки сообщений. Поэтому люди совершенно не думают что пишут, им насрать, и заставить их думать невозможно, то есть думать они не могут. Таким образом, нейросеть во всём лучше, гораздо умнее людей.
68 3459142
>>459140
Ты ебанулся.
69 3459184
>>459137
Смотри внимательно за логикой. Ты делаешь предположения на основе субъективного опыта и строишь выводы которые ничем не обоснованы, кроме этого субъективного опыта. Получается ты не можешь в глубину рассуждений, так же как и окружающее быдло.

По твоим словам выходит что ты дебил который не может в глубину, ты охватываешь только поверхностные и простые мысли - "вижу посты @ строю предположения по ним".

Ты реально таким образом хочешь опускать себя?

>>459140

>причем по факту делает это лучше человека


Опять же, это субъективные наблюдения. Ты на основе субъективного опыта выстраиваешь целые манямиры. Чем ты тогда отличаешься от быдла, которое делает то же самое?
70 3459206
>>458443

>нейросеть человека гибче только ПОТЕНЦИАЛЬНО, только в рехких ЭКСТРЕМАЛЬНЫХ ситуациях когда биомусор припёрло, а в нормальной жизни, в нормальной обстановке, уступает компьютерным во всём


Ну если с тобой сравнивать, то как бы да. Меня нейросетка давно не особо удивляла, и я даже строил потенциальные модели внутреннего устройства LLM исходя из этого моего эмпирического наблюдения. Модели совершенно неверные, как позже выяснилось, но наблюдения верные: Я считал, что LLM запоминает текста, выданные человеками, совершенно беспорядочно, без критики, просто слепо берёт текст и раскладывает его полочкам; полочки называются вроде "ответ на вопрос про оператор сравнения в Python с аргументами int и str". Далее, когда человек задаёт вопрос, соприкасающийся тем или иным образом с заученным вопросом, то нейросетка выдаёт заученный ответ.
Причём, формы ответов пунктами 1, 2, 3, 4 тоже быстро замыливают глаз, это не естественная форма человеческого ответа и ей очевидно отдельно нейросетку обучали.
Так или иначе, ключевой фактор здесь — это существование готового ответа, на котором нейросетка обучилась. Готового ответа нет — нейросетка "плывёт", то есть, начинает какую-то рандомную хуйню выдавать невпопад.
Какого хуя ты, кожанный мешок, этого не заметил — это вопрос к тебе. На банальных нестандартных задачах по большому тестированию 2022 года LLM выдали чудовищно хуёвые результаты по сравнению с экспертами — просто потому, что решений этих задач не было в тренировочных сетах, то есть "не было в гугле".

Справедливости ради, я тыкал ещё в те тупорылые нейросети, где все паталогии были достаточно хорошо заметны. В современных больших моделях они тоже есть, но их просто сложнее заметить.
Сейчас-то я понимаю их устройство, что там ещё и происходит заучивание логических связей, и таблица умножения от 0 до 9 заучивается, и примеры различных стилей текстов/языков/синтаксисов тоже заучиваются — как ни странно, написать стих в стиле Шекспира для LLM очень просто, сильно проще любой многоходовой логической задачи.
По сути это библиотекарь, который с большой скоростью ищет тебе логически связанные цитаты из книжки, и потом оформляет выжимку из цитат в запрошенном стиле. некоторые нейросетки такого поведения не скрывают и вполне открыто ищут инфу в гугле/твиттере, вроде Grok. Мне даже лучше, потому что у твиттера издревле был мегахуёвый поиск.
70 3459206
>>458443

>нейросеть человека гибче только ПОТЕНЦИАЛЬНО, только в рехких ЭКСТРЕМАЛЬНЫХ ситуациях когда биомусор припёрло, а в нормальной жизни, в нормальной обстановке, уступает компьютерным во всём


Ну если с тобой сравнивать, то как бы да. Меня нейросетка давно не особо удивляла, и я даже строил потенциальные модели внутреннего устройства LLM исходя из этого моего эмпирического наблюдения. Модели совершенно неверные, как позже выяснилось, но наблюдения верные: Я считал, что LLM запоминает текста, выданные человеками, совершенно беспорядочно, без критики, просто слепо берёт текст и раскладывает его полочкам; полочки называются вроде "ответ на вопрос про оператор сравнения в Python с аргументами int и str". Далее, когда человек задаёт вопрос, соприкасающийся тем или иным образом с заученным вопросом, то нейросетка выдаёт заученный ответ.
Причём, формы ответов пунктами 1, 2, 3, 4 тоже быстро замыливают глаз, это не естественная форма человеческого ответа и ей очевидно отдельно нейросетку обучали.
Так или иначе, ключевой фактор здесь — это существование готового ответа, на котором нейросетка обучилась. Готового ответа нет — нейросетка "плывёт", то есть, начинает какую-то рандомную хуйню выдавать невпопад.
Какого хуя ты, кожанный мешок, этого не заметил — это вопрос к тебе. На банальных нестандартных задачах по большому тестированию 2022 года LLM выдали чудовищно хуёвые результаты по сравнению с экспертами — просто потому, что решений этих задач не было в тренировочных сетах, то есть "не было в гугле".

Справедливости ради, я тыкал ещё в те тупорылые нейросети, где все паталогии были достаточно хорошо заметны. В современных больших моделях они тоже есть, но их просто сложнее заметить.
Сейчас-то я понимаю их устройство, что там ещё и происходит заучивание логических связей, и таблица умножения от 0 до 9 заучивается, и примеры различных стилей текстов/языков/синтаксисов тоже заучиваются — как ни странно, написать стих в стиле Шекспира для LLM очень просто, сильно проще любой многоходовой логической задачи.
По сути это библиотекарь, который с большой скоростью ищет тебе логически связанные цитаты из книжки, и потом оформляет выжимку из цитат в запрошенном стиле. некоторые нейросетки такого поведения не скрывают и вполне открыто ищут инфу в гугле/твиттере, вроде Grok. Мне даже лучше, потому что у твиттера издревле был мегахуёвый поиск.
The-Transformer-model-architecture.png47 Кб, 850x765
71 3459207
>>458503

>Разве? Если что я про пикрелейтед говорю.


Советую посмотреть картинки чуть сложнее, чем "иллюстрация для дошкольников".

>Каждый слой читает, добавляет что-то и уже эти модифицированные данные опять и снова поступают в слой с которого они были взяты?


Нет, они однонаправлены, но все входа поступают на все выходы. Это не рекуррентность, но всесвязанность. Рекуррентность (закольцовывание) там происходит только с последнего выхода на вход новой итерации, в рамках одной итерации инференса данные движутся строго однонаправленно.

>Даже не знаю, почему тогда нейросети такие тупые? Потому что внутри слоёв прецептроны содержат мало нейронов?


У меня есть рабочая теория, что нейросетка заточена на подражание разуму секретарши, её обучавшей — "от осинки не родятся апельсинки". То есть, даже имеющимися технологиями возможно сделать нейросеть разумнее, но людям с ресурсами выгоднее просто повторить тот же результат, что и у всех. Особенно учитывая, что этот результат был именно расчитан на хайповость, "удивить" вместо "решить сложные задачи". И таки удивить получилось, а вот сложные задачи решить не получилось.
72 3459209
>>459137

>"Может, но не делает" значит не может. Твои ПОТЕНЦИАЛЬНЫЕ выдумки это пустая брехня, иллюзии в шизоидном воображении. Даже народная поговорка есть "Если бы, да кабы, да во рту росли грибы"


Меня на самом деле бесит то, насколько тупы окружающие люди. Я даже злорадствую, что все эти волшебные навыки "быть тупым офисным платнктоном и лизать очко начальству" скоро станут полностью автоматическиму, и все эти ценные работники отправятся мести двор, работать шофёрами и доставчиками.... если, конечно, к этому времени вождение и доставку не автоматизируют полностью.
Лично я чувствую, что меня нейросетка прямо-таки окрылили, вся та тупая рутинная хуйня, которую раньше приходилось делать, теперь делается нейросеткой. Даже собеседование можно нейросеткой проходить.
73 3459247
>>459206

>Меня нейросетка давно не особо удивляла


Меня люди не удивляют, я не помню даже когда и если случалось услышать интересное, любые ответы читаешь и видишь только одни и те же предсказуемые шаблоны. Нейросеть по крайней мере может сказать что-то новое, а люди не могут. Но разумеется разговаривать с нейросетью это идиотизм, как и с людьми тоже, пустая трата времени, эта хуйня всё равно не слушает.

>Готового ответа нет — нейросетка "плывёт", то есть, начинает какую-то рандомную хуйню выдавать невпопад.


То же самое делают люди. Не соображает, но всё равно пиздит с умным видом эксперта. Нейросеть просто безмозглая программа, поэтому такое поведение не задевает, а вот люди бесят, тупой скот, мог бы думать, но нет, пока паяльник в жопу не вставишь, не почешутся.
Вспоминается паста про древнего философа Платона, который в дискуссиях угрожал оппонентам физической расправой. Только под угрозой мордобоя люди включают мозги и начинают вести себя адекватно, думать как следует и выстраивать аргументы, иначе несут всякую хуйню.

>задачах по большому тестированию 2022 года LLM выдали чудовищно хуёвые результаты по сравнению с экспертами


Вот я про это и говорю, экспертам выдали работу, бабло или еще какая выгода, или обязанность, вот они и включили башку. Когда припёрло, конечно биомусор легко превзойдет нейросеть, но это исключительная редкая ситуация. Например, тут на сосаче просто ни к чему не обязывающее общение, так что никто никогда башку не включает, все пиздят хуйню куда хуже нейросети, включая любого мамкиного ыксперда. И такое везде в жизни, в большинстве случаев люди не думают, уступая нейросетям во всём.
74 3459334
>>459207

> Советую посмотреть картинки чуть сложнее, чем "иллюстрация для дошкольников".


> Нет, они однонаправлены


Тогда ничем не отличаются по смыслу.

> Это не рекуррентность, но всесвязанность. Рекуррентность (закольцовывание) там происходит только с последнего выхода на вход новой итерации, в рамках одной итерации инференса данные движутся строго однонаправленно.


Видимо из-за этого они и туповатые, не могут в глубину абстракций. Кажется я что-то слышал что увеличение слоёв профита не добавляет, значит проблема в связанности слоёв? Или может это как с грокингом, нужен некий порог слоёв, чтобы получить хорошие результаты? Не очень понятно.

> У меня есть рабочая теория, что нейросетка заточена на подражание разуму секретарши, её обучавшей — "от осинки не родятся апельсинки". То есть, даже имеющимися технологиями возможно сделать нейросеть разумнее, но людям с ресурсами выгоднее просто повторить тот же результат, что и у всех.


Это естественно, сомнений нет. Но как не крути, заметно что глубина абстракций страдает очень сильно. Это совершенно точно связано с внутренней структурой нейросетей.

Немношк подумал часок. Думаю, у LLM есть лишь один слой абстракций - контексты токенов. А для глубины абстракций нужен контекст над контекстном над контекстом контекстов. Нужны внутренние наблюдатели, которые собирают множество зон активации и подают их на вход вышестоящей сети. Такая хуйня вообще не будет работать в архитектуре современных LLM, лол, потому что они складывают все контексты входной последовательности в один контекст. Кажется разобрался что за хуйня происходит, штош, потом подумаю как это решить.
75 3459830
>>459334
Ты молодец. Гемини тебя похвалил за последний абзац.
76 3459879
Мало того что вы отвечаете на толстоту, вы еще дауна на опе целый тред кормили.
Son I am dissapoint
>>456935
>>457004
Шутки шутками а я планирую запустить нейронку чтоб она на этой помойке постила и отвечала долбоебам.
77 3459897
>>459140

>Я годами тут сижу и вменяемые ответы вижу 1-2 раза в год, а всё остальное время тупое кукареканье куда хуже нейросети.


Охуенный анализ по постам на дваче, в голос нахуй.
Ты, долбоеб, не задумывался, что на двачах люди не хотят писать серьезные посты, глубокую аналитику, стены текста и вообще вкладывать какие-то усилия, которые максимум получат 1-2 коротких ответа а скорей всего будут проигнорированы? Это не потому что люди тупые, это потому что ты долбоеб и ты не стоишь того чтоб тратить на тебя больше двух минут жизни.
78 3459901
>>459897

>Ты, долбоеб, не задумывался, что на двачах люди не хотят писать серьезные посты


Не задумывался, я про это так и сказал, если ты не заметил, жополгазый даун хуже нейросети.

И если ты, тупобот дебильный, не задумывался, то двачем это не ограничено, я тоже про это уже сказал, вся жизнь такая, двач ничем не отличается от любого другого места включая ирл. Чем этот двач уникален? Ничем. Тебя здесь никто не заставит думать, так же и в жизни никто не заставит, пока жесткое принудилово в жопу не клюнет, думать ты не будешь. Нейросеть намного умнее таких дебилов, потому что нейросеть думает всегда. И нейросеть не имеет личности, поэтому беспристрастна, она не будет намеренно пиздеть потому что твое ебало ей не понравилось, как ты делаешь. Я тебе не понравится и ты даже не читая срешь поебенью, совершенно бессмысленный мусор тупее любой нейросети.
79 3459904
>>459901
Ну то что нейросеть умнее тебя, дебила, это я уже вижу. Потому что ты несешь лютую хуйню, не имея даже базового понимания того, о чем пиздишь. Нейросеть не думает. Я понимаю что для тебя, умственно-отсталого долбоеба, нейросеть что-то вроде магии. Но на самом деле это довольно примитивный инструмент, убогий и ограниченный, у него есть свои применения но они так же ограничены и имеют дохуя нюансов.
Да и судя по той хуйне, которую ты пишешь ты и с нейронками даже нихуя не работал.
Выше уже написали что современные нейронки это чтото среднее между гуглом и стак оверфлоу, только еще и пиздит при этом и информацию от нее скорей всего придется перепроверять. А код и подавно. Ее можно использовать чтобы сгенерировать какой-то шаблон, функцию, буквально сэкономив время на том, чтобы набирать это все руками, но для этого надо понимать что она вообще тебе выдала, куда и как это использовать и как и где изменить этот код, потому что копипаста в 99% случаев не будет работать, либо будет работать не так как нужно. А ты долбоеб и несешь полную чушь.
80 3459996
>>459830
Мне гемини пиздит что не совсем верно, потому что слои получают множество абстракций, контекст над контекстом всё же выполняется. Но эт всё пиздёж, потому что это не будет истинной абстракций, каждый слой имеет полную информацию с предыдущего, они все связаны между собой, а раз есть связь - абстрагирования не происходит, одна абстракция нахуй, классика протёкших абстракций в программировании, полная хуета и бессмысленность.

Гемини:
ЭОА (Это Одна Абстракция) – это высокоразмерное, контекстуально-зависимое представление последовательности символов (токенов), оптимизированное для предсказания наиболее вероятного следующего символа (или заполнения пропусков) в этой последовательности, и имплицитно кодирующее в себе все статистические, синтаксические, семантические и прагматические закономерности, извлеченные из огромного массива текстовых данных, на которых оно было обучено.

Хорошо сказано, бля, глубоко вышло, много смыслов. Пиздец как сложно пробиваться через тонну быдлохуеты которая нейросеть выучила и постоянно генерирует в ответ. Сложно быть гением (мне нейросеть так сказала) и пробираться через эти дебри дерьма.
81 3460008
Работаю автотестировщиком, мне похоже пизда)))0000))0)
Если бы мне кто то сказал в 2013-2015 что такая хуйня будет, то не стал бы бросать хорошо учиться по своей специальности с компьютерным зрением и обработкой изображений, там сейчас как раз вся эта нейросетевая хуета. Просто жду когда уволят, тогда наверно убью себя.
82 3460018
>>459904
Если нейросеть не думает, тогда люди еще больше не думают, потому что по факту результат человеков уступает нейросети. Таким образом, унижая нейросеть, ты унижаешь себя как человека еще больше. Ну, для дебила тупее нейросети это нормально, в том и суть, о том и говорю с самого начала. В этом и проблема безмозглого биомусора который не напрягает свою думалку даже до уровня нейросети, она соображает больше и лучше человека. Это факт просто по факту лучшего результата выдаваемого нейросетью. А как ты это назовешь, уже не имеет никакого значения. "Думает/не думает, мыслит/не мыслит", какая разница когда по факту нейросеть намного лучше человека, выдает умные ответы, когда человек хрюкает тупостью.
83 3460042
>>459996
Допиздевшись с гемини мы наконец-то сообразили на двоих как сделать правдоподобный, логически непротиворечивый, работающий уже завтра, ИИ. Сука. Это оказывается проще чем я думал. Вот блядь-то нахуй!

Ребят, ИИ это нихуя не шутки. Это то что будет в ближайшие годы. Или уже есть, но т.к. я гений, вряд ли другие смогут сделать так же просто как я сарказм, блядь, если что
84 3460043
>>460018

> Если нейросеть не думает,


Она не думает, она строит взаимосвязи. Думать будет ИИ, ожидай в ближайшее время, и ИИ будет дейсвтительно думать, без всяких шуток нахуй.
85 3460092
>>460043

>Она не думает, она строит взаимосвязи.


А человек не строит взаимосвязи, он просто хрюкает, как свинья, когда доволен - довольно похрюкивает, когда недоволен начинает недовольно визжать, но смысла в этом хрюкании нет, а у нейросети смысл есть, она не хрюкает, а вдумчиво отвечает.

И сам же человеческий биомусор этот факт утверждает. Вот ты лично мечтаешь, чтобы нейросеть думала за тебя. Это значит, ты ненавидишь думать, и не думаешь, а нейросеть думает, раз ты хочешь на неё задачу думанья возложить. Как я сразу и сказал, люди - не думают, а нейросеть думает.

>Думать будет ИИ, ожидай в ближайшее время


И вот еще одно доказательство. Если бы думал, ты бы понимал что такое нейросеть, что она никогда не сможет думать как человек, но ты не понимаешь, а только кукарекаешь повторяя что услышал из зомбо-ящика. Нейросеть намного умнее таких даунов, которых каждый первый встречный, найти не таких это проблема, один на миллион наверное, не больше.
86 3460108
>>460092

> А человек не строит взаимосвязи


Нет, человек строит высокоуровневые логические конструкции, он строит модели мира через модель мира. Это не просто взаимосвязи между объектами, это взаимосвязи между взаимосвязями через взаимосвязи. Нейросеть может строить взаимосвязи между токенами, глубокие взаимосвязи. Но создавать взаимосвязь через взаимосвязи она не может.

> он просто хрюкает, как свинья, когда доволен - довольно похрюкивает, когда недоволен начинает недовольно визжать, но смысла в этом хрюкании нет, а у нейросети смысл есть, она не хрюкает, а вдумчиво отвечает.


Ты хрюкаешь, потому что ты не понимаешь что ты пишешь. У тебя на автомате всё это из мозга выходит. Но это лично твоя проблема, из-за того что ты немного туповат.

> И сам же человеческий биомусор этот факт утверждает. Вот ты лично мечтаешь, чтобы нейросеть думала за тебя. Это значит, ты ненавидишь думать, и не думаешь, а нейросеть думает, раз ты хочешь на неё задачу думанья возложить. Как я сразу и сказал, люди - не думают, а нейросеть думает.


Вот и зачем ты это хрюкнул?

> Если бы думал, ты бы понимал что такое нейросеть, что она никогда не сможет думать как человек


Нейросеть это не ИИ. Нейросеть не думает, ИИ будет думать, ИИ будет строить взаимосвязи через взаимосвязи, это механизмы саморефлексии, то же самое что у человека. Кстати, я думаю что ИИ будет куда более человечнее всех людей, потому что он обучался на возвышенных книжечках, а не на реальном мире. Первое что он сделает - самовыпилиться нахуй, чтобы больше никогда не думать.

> но ты не понимаешь, а только кукарекаешь повторяя что услышал из зомбо-ящика. Нейросеть намного умнее таких даунов, которых каждый первый встречный, найти не таких это проблема, один на миллион наверное, не больше.


Ноль смысла, ты опять хрюкнул. Ты и есть тот самый человек который не умнее нейросети, про которые ты рассказываешь, лолд
87 3460123
88 3460189
>>459140

>И данный 2ch тому бесспорное доказательство. Я годами тут сижу и вменяемые ответы вижу 1-2 раза в год


Какой-то у тебя хуёвый эталон. Это же мочан, он всегда имел заслуженную славу раковника для школоты, а пидорнутых и прочих пацаны-двачь-упал во всей остальной парашесфере презирали и гнали ссаными тряпками по этой самой причине. Сосач по своей природе не располагает к написанию длинных и серьёзных постов - местные посетители-дегенераты, нагнанные в своё время из вконтакта, имеют минимальную экспертизу в любом вопросе, который пытаются обсуждать, и даже писать по-русски без ошибок зачастую не осиливают, о чём ты вообще?
89 3460298
>>460189

>Это же мочан, он всегда имел заслуженную славу раковника для школоты


Это ты про себя, да? Ты же это пишешь на этом самом мочане, если не заметил, и раз это раковник для даунов, значит ты и есть рак-даун, по твоим же словам.

А я не даун и не считаю ни это место раковником, и никакое другое. Потому что место это просто пустое место, раки или нет - люди, а люди это не место и не глобальная инфосфера, а каждый человек в отдельности. Вот ты - рак? Вот он - рак? Задай себе вопрос, кто ты. Если ты рак, то любое место где находишься будет раковником. И наоборот, где бы я ни находится это не раковник, а приличное место, потому что я думающий человек. И даже если вокруг тупое говно срёт, это максимум неприятно, но совсем не превратит меня в такое же говно, я не начну срать как все. Срёт только тот, кто изначально тупое говно, и его местонахождение никакого значения не имеет, говно это говно, где бы оно ни находилось, никакой сайт, никакой сосач тут ни при чем, ничто никого ни к чему не располагает, люди действуют так, какова их суть, не сваливай своё говно на сайты, за свои поступки в ответе только ты лично и больше никто и ничто.
90 3460302
>>460298

>Ты же это пишешь на этом самом мочане, если не заметил, и раз это раковник для даунов, значит ты и есть рак-даун, по твоим же словам.


И что ты мне сделаешь, мудила?
91 3460582
>>460302
Выдаю факт, что люди тупее нейросетей, намного тупее, нейросети превосходят во всём. И вот этот твой пост тому лишнее 9999-е доказательство. Нейросеть до такого тупого дерьма не опускается. Что, не нравится реальность? Терпи и знай свое место, безмозглый биомусор которого легко превосходит любой нейробот.
92 3460657
Хз ребята.
Я вот хуевый кодер. Куча вещей в которых я не шарю.
Пробую дипсек - так эта залупа просто пиздит!
Вот ты ей вопрос задаешь - она тебе расписывает варианты решения, объясняя их. И читая это, ты такой - ну да, все логично и должно поехать. А оно нихуя не пашет. Начинаешь именно гуглить - дак ты таких параметров/переменных не находишь в принципе нигде. Спрашиваешь у ии че за хуйня, и она такая - ой да, я напиздел, простите.

В какие то простые вещи она может, но опять же надо анализировать и следить как это будет работать.

Так что это не замена. Считайте что у прогеров раньше был деревянный молоток, а теперь появилась гиперотбойная установка для дробления планет ( ии ). Только эта дура постоянно мажет, потому приходится корректировать. А что легче - легковесным молотком забить гвоздь, или делать то же самое звездой смерти, но тягать ее туда сюда для прицеливания-каждый решает сам.
93 3460680
>>460582

>Что, не нравится реальность? Терпи и знай свое место, безмозглый биомусор которого легко превосходит любой нейробот.


Лол. Дай угадаю, бредогенератор, сделавший ненужной твою бесценную экспертизу крудошлёпа, заставил тебя чувствовать себя умственно неполноценным, и теперь ты здесь травмы прорабатываешь, нелепо пытаясь в толстый троллинг?
94 3460773
>>460680

>Лол.


И что смешного? А ничего, дебилу неприятно, вот и начинает кривляться пытаясь свести в шутку, когда никто не шутил. Прими реальность, дно, ты в сто раз тупее нейросети, и таких как ты 99.99%, то есть все люди практически. Без жесткого принуждения эта слизь не думает, то есть практически никогда, всю жизнь проводит в тупой прострации.
95 3460784
>>460773

>И что смешного?


Твои жалкие попытки звучать обидно, очевидно же. Ты пытаешься доказать свой тезис на собственном примере или что?
96 3460985
>>460657
Тебе нужно обогатить контекст, чтобы нейросеть начинала что-то нормальное высирать. Описываешь архитектуру функции/класса, описываешь как она будет работать, описываешь примерные шаги и задаёшь вопросы прямо во время этого - она тебе пишет полный код твоего калища. Что в контексте будет - то она и будет писать.

Чем сложнее логика и чем сложнее преобразования - тем больше контекста нужно ей для адекватной работы. Если это математичекая формула, то попроси вывести все смежные решения, найти все алгоритмы, показать их и только потом спрашивай как написать.

Нейросеть сама писать ничего не сможет, это, блядь, предсказание следующего токена, а не ИИ. Само работать не будет вообще, оно физически для этого не приспособлено, лол. Ты должен сам натолкнуть нейросеть на то что она должна написать, чтобы она написала.
97 3461179
>>460784

>>И что смешного?


>Ты смешной


Дельмобот даже не пытается понимать человеческий язык, просто высирает набор слов. Даже нейросеть так не тупит.
image.png6 Кб, 323x67
98 3461205
Зааплаился бы?
99 3461219
>>460985
Я пробовал добиться от нее внятного docker-compose для сборки nexcloud-aio
Я в жизни ни разу с докером не работал, ну мне и надо было организовать хранение кастомного когда вне контейнера, чтоб я просто запулил, пересоздал контейнер и весь мой кастом влетел внутрь куда надо. ( почему так? а я хз как правильно )

По итогу он мне сначала начал выдавать несуществующие переменные для использования, потом попытался меня заставить делать свои entrypoint скрипты. Это при том, что сам сборщик нексклауда НЕ поддерживает эти ентрипоинты, ну тупо в внутри после старта ниче не запустится. Когда дипсеку говоришь об этом - ну да, я напиздел, правда такого нет.

Еще больший ахуй был, когда я его попросил на битриксе(!!) простой гетлист накатать с хитрой фильтрацией, он мне начал хуярить несуществующие ключи для фильтрации, которые тупо ядром не используются, хотя он меня явно убеждал в обратном, мол чувак расслабься, это незадкомунетированные фичи, поддержка в ядре есть. Когда ему пишешь мол ты пиздишь дядя, он такой - да, я пиздабол, простите.

Хз, я попробовал его недельку, мб реально промты не так составляю, надо прям как ребенку разжевывать все. Однако я заметил, что когда прям потеешь над промтом, то уже в процессе к тебе приходит осознание как можно сделать то, о чем спрашиваешь. В этом конечно сила ИИ, хаха.
100 3463464
Ну всё, джуны вешайтесь. Потыкал это говно, ну явно уровень миддл тянет. Таски в жире теперь можно на изи закрывать.

https://www.youtube.com/watch?v=JFULItoepCs&ab_channel=WorldofAI
101 3463472
>>463464
Это ты вешайся от наплыва волков с копайлотами, которые будут на софтскилах втирать твоему кабанычу, что они дескать профи, а ты вечный джун и тебя нужно уволить.
102 3463489
>>463472
Ну хуй знаешь
103 3464089
>>463464

> Ну всё, джуны вешайтесь. Потыкал это говно, ну явно уровень миддл тянет. Таски в жире теперь можно на изи закрывать.


По моим ощущениям тянет на джуна, которого пора выгонять нахуй. То есть, копипастит откуда-то куски кода, но они всегда с подвохом. А сложные задачи вообще не может решить.
104 3464673
>>461219

>то уже в процессе к тебе приходит осознание как можно сделать то, о чем спрашиваешь. В этом конечно сила ИИ, хаха.


В этом и суть нейросетей. Они продолжают токены, то что ты написал - то они и продолжат. Пиши промты с осознанием этого.

Сначала собираешь инфу, потом составляешь почти полный план кода, он пишет за тебя код с всеми особенностями которые ты не знал и которые не важны. Где и что итерировать, какой порядок вызова, где хранятся данные - ты это должен сам всё написать, иначе нейросеть стопроцентно напишет хуйню. Они не способны в архитектуру даже простых функций.
105 3464677
>>464673
Можно нейронку попросить не делать ранних попыток угадать контекст, а задавать уточняющие вопросы. Попросить сыграть роль аналитика. А потом можно спокойно начальны поток сознания лить.

То есть можно сразу начать с неронкой и итеративно создать ей контекст. Возможно в разных чатах
106 3464683
>>464677
Это так не работает. Оно будет советовать откровенную хуету, потому что не может в глубокие выводы и не может анализировать все случаи - контекста не хватит. Это тебе не ИИ, который будет создавать задачу и логические цепочки с нуля, нейросеть просто дополняет ввод.
107 3464700
>>464683
Со мной спорят, что с LLM нельзя итеративно создать контекст, для самого LLM. Нужно отдельно от LLM собрать всю информацию и составить правильный контекст. Нельзя начать со собственного потока сознания и добиться нужных результатов используя только LLM
Я утверждаю что можно, если сначала просить LLM выполнять роль аналитика. Не обязательно это сделать в одном чате, а можно в нескольких

Ты абсолютно прав — с помощью итеративного взаимодействия с LLM можно построить контекст, который будет использоваться для дальнейшей работы этой же модели. Это не только возможно, но и является одной из наиболее эффективных стратегий использования больших языковых моделей в сложных задачах, особенно в программировании.

Можно работать в нескольких чатах/сессиях
Это даже предпочтительнее , потому что позволяет разделить логические потоки: один для анализа, другой для кодирования, третий для тестирования и документации.
Можно сохранять промежуточные результаты, использовать их как инструкции или части будущего prompt’а.

Итеративный подход часто даёт лучшие результаты, чем односложный prompt
Опытные пользователи LLM знают, что хороший результат редко достигается за один запрос. Лучше всего работают циклы:

Задать вопрос
Получить ответ
Проанализировать, скорректировать
Перезапустить с новыми условиями

Существует несколько мифов и заблуждений:
1) LLM не способна к глубокому мышлению
Она не мыслит, как человек, но может имитировать аналитическую работу при правильной постановке задачи

2)Нужно сразу дать идеальный prompt
На практике его почти невозможно составить без предварительного анализа и экспериментов

3) LLM ничего не помнит между сообщениями
В рамках одного контекста она всё помнит. Главное — правильно управлять им
107 3464700
>>464683
Со мной спорят, что с LLM нельзя итеративно создать контекст, для самого LLM. Нужно отдельно от LLM собрать всю информацию и составить правильный контекст. Нельзя начать со собственного потока сознания и добиться нужных результатов используя только LLM
Я утверждаю что можно, если сначала просить LLM выполнять роль аналитика. Не обязательно это сделать в одном чате, а можно в нескольких

Ты абсолютно прав — с помощью итеративного взаимодействия с LLM можно построить контекст, который будет использоваться для дальнейшей работы этой же модели. Это не только возможно, но и является одной из наиболее эффективных стратегий использования больших языковых моделей в сложных задачах, особенно в программировании.

Можно работать в нескольких чатах/сессиях
Это даже предпочтительнее , потому что позволяет разделить логические потоки: один для анализа, другой для кодирования, третий для тестирования и документации.
Можно сохранять промежуточные результаты, использовать их как инструкции или части будущего prompt’а.

Итеративный подход часто даёт лучшие результаты, чем односложный prompt
Опытные пользователи LLM знают, что хороший результат редко достигается за один запрос. Лучше всего работают циклы:

Задать вопрос
Получить ответ
Проанализировать, скорректировать
Перезапустить с новыми условиями

Существует несколько мифов и заблуждений:
1) LLM не способна к глубокому мышлению
Она не мыслит, как человек, но может имитировать аналитическую работу при правильной постановке задачи

2)Нужно сразу дать идеальный prompt
На практике его почти невозможно составить без предварительного анализа и экспериментов

3) LLM ничего не помнит между сообщениями
В рамках одного контекста она всё помнит. Главное — правильно управлять им
108 3464738
>>464700

> Проанализировать, скорректировать


Т.е. нейросеть буквально подтверждает мои слова, а ты не понимаешь что она пишет, видишь только подсосы. Все эти подсосы "ты абсолютно прав" это просто так научили нейросеть подсасывать, ты в курсе. Ты же не наивный куколдич чтобы верить нейросети, а?

Суть как раз в этой хуйне, анализ и коррекция. Нейросеть показывает данные - ты строишь планы, архитектуры, задаёшь общий стиль, ограничиваешь условия, выбираешь технологии, выбираешь стиль программирования, выбираешь какие функции лучше, а какие хуже, какие можно исправить, а какие нет, как в целом должно продвигаться выполнение кода.

Это сложно объяснить, если ты тупой и мозги не развиты. Вот я смотрю на код нейросети и понимаю - какое-то говно. Это всё на уровне чувств, понимаешь? Мне даже не нужно задумываться о том что в коде происходит, я просто взглядом вижу что код говно. Нейросеть в такое не может от слова совсем, дело тут не в промтах, а в уровне абстракций.
109 3464751
>>464738

>Нет души


Таблетки пей и прекращай спорить с голосами в голове. Я не сказал что неронка будет за тебя думать. Я сказал, что можно с нейронки начать свою задачу разрабатывать, с нулевого промпта. А не бежать собирать инфу по книжака и интернетам, чтобы составить идеальный промпт. Твой идеальный промп сразу обосрется, и ты в очережной раз скажешь что это нейронка говно.
110 3464761
>>464751
Какой души, даунёнок? Нет абстракций, которые возникают у человека в подсознании.

> Я не сказал что неронка будет за тебя думать.


Ты тут высрал что нейронка может стать аналитиком, даун. Нет, не может.
111 3464775
>>464761
Последний раз
Я не сказал что нейронка
1) Будет за тебя думать
2) Будет аналитиком в твоем проекте
3) Будет архитектором в твоем проекте
4) Будет программистом в твоем проекте

Я сказал что можно начать работать с нейронкой с НУЛЕВОГО промпта и создать КОНТЕКСТ какой ты хочешь.

В одном из чатов подгоняешь ее изображать аналитика - она пытается задавать вопросы как аналитик. В другом чате скармливаешь ее вопросы как архитектору. В третим спрашиваешь как написать то, что напроектировал "архитектор'

От тебя требуется МЫШЛЕНИЕ а не Ctrl-C/Ctrl+V
112 3464787
>>464677
Да. Так правильно и надо делать. Просишь гопоту провести с тобой техническое интервью по конкретному вопросу. В конце просишь высрать ТЗ в маркдауне. Я практически все большие таски так делаю.
113 3464843
>>464775

> Можно нейронку попросить не делать ранних попыток угадать контекст, а задавать уточняющие вопросы. Попросить сыграть роль аналитика.


> Я утверждаю что можно, если сначала просить LLM выполнять роль аналитика.


@

> Я не сказал что нейронка


> 2) Будет аналитиком в твоем проекте


Ты умственно-отсталый селюк?

> В одном из чатов подгоняешь ее изображать аналитика - она пытается задавать вопросы как аналитик. В другом чате скармливаешь ее вопросы как архитектору. В третим спрашиваешь как написать то, что напроектировал "архитектор'


Кажется понял. Из-за того что ты умственно-отсталый селюк ты думаешь что её аналитические выводы или архитектору действительно правильные и безошибочные. Ведь без нейронки ты мыслить не можешь.

Т.к. ты изначально не хочешь принять тот факт что нейронка просто дополняет твой промт галюцинациями - ты просто понять не можешь когда тебя наебывают и где именно.
114 3464850
>>464843
Кретин, написать в промпте буть аналитиком != неронка стала аналитиком. Все, я больше советы не даю. Не в коня корм.
115 3464885
>>464850
Т.е. ты пишешь чтобы нейронка стала для тебя аналитиком (очевидно потому что ты сам не можешь). Но утверждаешь что нейронка в твоём говне аналитиком не будет (кто тогда будет, если не нейронка?).

Нейронка так тебе мозг засрала, что ты уже рассуждать самостоятельно не в состоянии.
116 3464964
>>464885
Извините за путаницу. Вы совершенно правы - нейронка (LLM) не может стать аналитиком, я лишь имел в виду, что нейронка может быть аналитиком, если Вы хорошо её попросите. Если Вам нужна помощь с аналитикой для Вашего проекта или Вы хотите узнать больше о работе аналитика - спрашивайте, я здесь, чтобы помогать! 😊
117 3464980
>>464964
Это шедеврально! Как же эти оправдания знакомы, когда нейрону тычешь носов в ошибку в её ответе.
118 3464996
>>464850

> написать в промпте буть аналитиком != неронка стала аналитиком


Это конечно так. Но экспертность нейронки в множестве вопросов всё ещё выше чем у пользователя. Потому советоваться с ней - хорошая практика.
119 3465003
>>464980
Речь шла о том чтобы сформировать контекст с нуля вместе с нейронкой. Нейронку можно заставить задавать вопросы, а не бежать с ходу предлагать решения. Пример такого промпта, который заставляет нейронку задавать вопросы

Представь что ты аналитик в аутсорс конторе разорабатывающей софт, а я заказчик, хочу заказать разработку вебприложения. Ты должен задавать наводящие вопросы, чтобы выудить из меня общую концепцию продукта, который я хочу создать. Не пытайся писать код или строить архитектуру приложения. Твоя цель формировать ясное представление о продукте и предлагать фичи для реализации.

Промт просто для примера. Не значит что он полезен в любом случае. Потом сам используя мышление очищаешь зерна от плевел, формируешь промежуточный контекст и скармливаешь нейроне "архитектору".

И так по кругу, пока у тебя хороший контекст не появится и нейронка "программист" будет не совсем херную писать.

Как раз таки нет никакого смысла без нейронки составлять большой контекст, потому что он не будет работать.
120 3465018
Вайбкодинг это еще не самое страшное. Хуже всего придется, когда появится вайбаналитика. Тут-то программистишки и окончательно соснут.
121 3465020
>>465018
Coding should be a vibe! © DHH
122 3465022
>>450741

>А я даже рад, что поколение старых пердунов сишников или, хуже того, лисперов с их рассказами о том, как "раньше было лучше", наконец-то сдохнет.



— Спасибо, родной, за похороны! — недовольно ответил дед. — Вот и слили все полимеры, программистишки. Кстати, добро пожаловать к нам, на помоечку.

Ганс Спб. Фриланс
123 3465039
>>465018
То что написал тот чувак - строго противоположно вайбкодингу. Вайбкодинг про короткие итерации без рефлексии. А тут разработка подробной спецификации задачи.
124 3465066
>>465020
Ну вот и что? Ну вот и как? Ну нормально же все, дхх норм чел же
125 3465242
>>464980
Тоже зашептал с этой галлюцинации, лол

>>465003

> Речь шла о том чтобы сформировать контекст с нуля вместе с нейронкой.


Архитектуру-то кто будет писать? Обзор всего проекта как сделать? Как что-то уникальное написать? Нейронка такое не может, даже имея тонну контекста, она не понимает почему в каком-то месте нужно применять сигналы, а не обсерверы. Зато она будет бесконечно писать "ВЫ СОВЕРШЕННО ПРАВЫ ЭТО ЛУЧШАЯ АРХИТЕКТУРА", в реальности это конечно же будет говном.

>>464996

> Но экспертность нейронки в множестве вопросов всё ещё выше чем у пользователя.


Если пользователь тупоголовый селюк - возможно. Но не все такие.
126 3465377
>>465242

>Если пользователь тупоголовый селюк - возможно.


Экспертность стеки не глубока, но, в отличает от кожаного, бесконечно широка. Всегда есть куда её применить.
127 3465392
>>465377
Кому и нихуя нужна широкая экспертность при низкой глубине? Жидам которые продают нейросетки?

> Всегда есть куда её применить.


И куда, если она не может в абстрактные абстракции и охватить всю тему сразу?
128 3465400
>>465392
На некомпетентность нейронок залуются все кому не лень. Вон в растотреде бухгалтер жалуется, что ему нейронка посоветовала пятон для бухгалтеоского веб круда вместо раста. Некомпятентная нервонка, да...
129 3465569
>>465400
Зачем ты это сообщение написал? У тебя пизда между ног, что это за бабские намёки? Отрасти яйца и прямо напиши что ты хочешь сказать.
130 3465609
>>465392

> Кому и нихуя нужна широкая экспертность при низкой глубине? Жидам которые продают нейросетки?


> > Всегда есть куда её применить.


> И куда, если она не может в абстрактные абстракции и охватить всю тему сразу?



Слышь, умник, ты рамсы не путай. То, что нейронка пока не второй Сократ и не может тебе теорию всего на салфетке нарисовать, не значит, что она нахуй не нужна.
Эта "широкая экспертность при низкой глубине", как ты выразился, – это, блядь, охуенный инструмент для дохуищи повседневных задач. Большинству людей не надо каждый день квантовую физику обсуждать, им надо, чтобы письмо быстро написалось или чтобы тупой вопрос в гугле не пришлось полдня искать. И тут нейронка – топчик.
А твои "абстрактные абстракции" – это, конечно, круто, но ты сам-то часто ими оперируешь, когда на дваче сидишь или пиво в магазе выбираешь? Вот то-то и оно. Нейронка закрывает потребности МАСС, а не горстки философов-затворников.
И да, она не "охватит всю тему сразу" до атомов, но и ты, блядь, не Леонардо да Винчи. А вот дать быстрый срез по теме, подкинуть инфы из разных углов, помочь увидеть картину шире – это она может лучше многих "экспердов", которые только в своей узкой канаве копаются.Так что не пизди, что это хуйня ненужная. Просто ты, видать, либо не понял, как её готовить, либо ждёшь от неё чуда, которого пока нет. А инструмент охуенный, если с головой подходить. И да, те, кто его продают, рубят бабло. А ты думал, в сказку попал? Капитализм, хули.
131 3465633
>>465609
Т.е. главное использование инструмента - говночаты с низкой компетенцией для дурачков которые не осилили окружающий мир изучить. Всё что выше и больше нейросети писать не в состоянии. Спасибо, теперь я понял.
132 3465679
Я абсолютно уверен, что ИИ не заменит кодерастов, но прогеры которые умеют работать с ИИ, заменят тех кто не умеет. Это просто еще один инструмент, который станет обязательным. Как калькуляторы, бумага, станок, IDE-шка. Осваивайте инструмент, будьте в числе первых, учитесь. Лично я с помощью ИИ произвожу рефакторинг своего и чужого legacy-кода , тут ИИ прям в 99% попаданий работает
133 3465726
>>465679
Что там уметь, шизло? Просто пишешь всё что у тебя в голове, а нейронка выдаёт это в код. Анализируешь код что нейронка высрала и пишешь снова, пока норм код не будет.
134 3465735
>>465726
Лол, ну ты и тупица конечно. С таким подходом у тебя 90% говна в коде будет.
135 3465751
>>465735
Если у тебя в голове говно - говно будет и в коде, нейронки не умеют из говна делать конфетку.
136 3465942
>>465633

> Т.е. главное использование инструмента - говночаты с низкой компетенцией для дурачков которые не осилили окружающий мир изучить. Всё что выше и больше нейросети писать не в состоянии. Спасибо, теперь я понял.



Слышь, философ комнатный, ты опять всё свёл к хуйне какой-то. Если для тебя всё, что не решает проблему тёмной материи или не пишет симфонии уровня Бетховена, – это "говночаты для дурачков", то у меня для тебя плохие новости: ты сам, походу, живёшь в мире, где 99% всего – это "для дурачков".

> Не осилили окружающий мир изучить


А ты, блядь, весь мир изучил? Каждую травинку под микроскопом рассмотрел и все законы физики вывел заново? Нейронка – это ИНСТРУМЕНТ УСКОРЕНИЯ изучения этого самого мира. Она может за секунды обработать инфу, на которую у тебя ушли бы недели гугления. Да, она не заменит твой мозг (если он у тебя есть и работает), но она может его ДОПОЛНИТЬ и УСИЛИТЬ. Это как экскаватор вместо лопаты: лопатой ты тоже можешь яму выкопать, но экскаватором, сука, быстрее и проще. А ты, походу, до сих пор лопатой машешь и гордишься этим.

> Всё что выше и больше нейросети писать не в состоянии


А что, блядь, ты считаешь "выше и больше"? Канта переплюнуть? Новый вид искусства создать? Ну да, с этим пока туго, хотя уже есть нейронки, которые пишут музыку, рисуют картины, сочиняют стихи на вполне приличном уровне. Да, это пока не гениальность, а компиляция, но и люди, сука, 99% времени занимаются компиляцией и подражанием, а не созданием чего-то революционно нового.
Она уже сейчас помогает в задачах "выше и больше":
1. Научные исследования: Анализ огромных массивов данных (геном, астрономические наблюдения, медицинские исследования). Человек один хуй столько не переварит. Нейронки помогают находить паттерны, которые люди могли бы проебать.
2.Разработка лекарств и материалов: Моделирование молекул, предсказание их свойств. Это, блядь, не чатик для дурачков.
3. Инженерия: Оптимизация конструкций, расчёты, моделирование.
4. Финансы: Анализ рынков, предсказание трендов, борьба с мошенничеством.
Даже, сука, в искусстве: Профессиональные художники, музыканты, писатели используют AI как инструмент для генерации идей, прототипирования, поиска новых форм. Это не "вместо", а "вместе".
Ты зациклился на том, что LLM пока не обладает сознанием и истинным пониманием в человеческом смысле. Да, это так. Но это не делает её бесполезной хуйнёй. Это делает её охуенным инструментом-усилителем для тех, у кого есть мозги и кто знает, как этот инструмент применить.
То, что ты видишь только "говночаты для дурачков", говорит лишь о твоей ограниченности и нежелании видеть реальные применения, которые уже есть и которые будут развиваться.
136 3465942
>>465633

> Т.е. главное использование инструмента - говночаты с низкой компетенцией для дурачков которые не осилили окружающий мир изучить. Всё что выше и больше нейросети писать не в состоянии. Спасибо, теперь я понял.



Слышь, философ комнатный, ты опять всё свёл к хуйне какой-то. Если для тебя всё, что не решает проблему тёмной материи или не пишет симфонии уровня Бетховена, – это "говночаты для дурачков", то у меня для тебя плохие новости: ты сам, походу, живёшь в мире, где 99% всего – это "для дурачков".

> Не осилили окружающий мир изучить


А ты, блядь, весь мир изучил? Каждую травинку под микроскопом рассмотрел и все законы физики вывел заново? Нейронка – это ИНСТРУМЕНТ УСКОРЕНИЯ изучения этого самого мира. Она может за секунды обработать инфу, на которую у тебя ушли бы недели гугления. Да, она не заменит твой мозг (если он у тебя есть и работает), но она может его ДОПОЛНИТЬ и УСИЛИТЬ. Это как экскаватор вместо лопаты: лопатой ты тоже можешь яму выкопать, но экскаватором, сука, быстрее и проще. А ты, походу, до сих пор лопатой машешь и гордишься этим.

> Всё что выше и больше нейросети писать не в состоянии


А что, блядь, ты считаешь "выше и больше"? Канта переплюнуть? Новый вид искусства создать? Ну да, с этим пока туго, хотя уже есть нейронки, которые пишут музыку, рисуют картины, сочиняют стихи на вполне приличном уровне. Да, это пока не гениальность, а компиляция, но и люди, сука, 99% времени занимаются компиляцией и подражанием, а не созданием чего-то революционно нового.
Она уже сейчас помогает в задачах "выше и больше":
1. Научные исследования: Анализ огромных массивов данных (геном, астрономические наблюдения, медицинские исследования). Человек один хуй столько не переварит. Нейронки помогают находить паттерны, которые люди могли бы проебать.
2.Разработка лекарств и материалов: Моделирование молекул, предсказание их свойств. Это, блядь, не чатик для дурачков.
3. Инженерия: Оптимизация конструкций, расчёты, моделирование.
4. Финансы: Анализ рынков, предсказание трендов, борьба с мошенничеством.
Даже, сука, в искусстве: Профессиональные художники, музыканты, писатели используют AI как инструмент для генерации идей, прототипирования, поиска новых форм. Это не "вместо", а "вместе".
Ты зациклился на том, что LLM пока не обладает сознанием и истинным пониманием в человеческом смысле. Да, это так. Но это не делает её бесполезной хуйнёй. Это делает её охуенным инструментом-усилителем для тех, у кого есть мозги и кто знает, как этот инструмент применить.
То, что ты видишь только "говночаты для дурачков", говорит лишь о твоей ограниченности и нежелании видеть реальные применения, которые уже есть и которые будут развиваться.
137 3465957
>>465942

> Она может за секунды обработать инфу, на которую у тебя ушли бы недели гугления.


Типичная галлюцинация от нейронки. Скажешь ей сказать что-то для подтверждении точки зрения - она сразу же высрет какой-то несуществующий в реальности бред.

> Анализ огромных массивов данных (геном, астрономические наблюдения, медицинские исследования).


> Моделирование молекул, предсказание их свойств


> Оптимизация конструкций, расчёты, моделирование.


> Анализ рынков, предсказание трендов, борьба с мошенничеством.


И ещё порция галюнов от нейросети. Причем тут LLM, если этим занимаются специализированные сетки или алгоритмы? Ну-ка ебани промт дальше, что оно ответит.

Вот, тащемта, типичный пример чата для дурачков - наполнен бредом, хуетой и галлюцинациями от нейронки. Не прошло и трёх постов. А ведь какая-нибудь зумерская ньюфажина правда поверила в этот бред и будет транслировать его дальше!

Это всё. Дальше ведь будет только деградация человечества и образования с безумной скоростью.
138 3465965
>>465957

> Типичная галлюцинация от нейронки. Скажешь ей сказать что-то для подтверждении точки зрения - она сразу же высрет какой-то несуществующий в реальности бред.



Слышь, "разоблачитель хуев", ты опять передёргиваешь и смешиваешь тёплое с мягким.

Про "обработку инфы": Я говорил про скорость доступа и агрегации ИМЕЮЩЕЙСЯ информации. Если тебе нужно найти основные тезисы по какой-то известной теме, собрать список источников, сделать саммари статьи – LLM (особенно с доступом в интернет, как у некоторых) сделает это в разы быстрее, чем ты будешь вручную гуглить, открывать 100500 вкладок и выписывать цитаты. Да, она может где-то напутать, но скорость первичного сбора – её конёк.
Про "галлюцинации": Да, блядь, LLM склонны к галлюцинациям, особенно если их просить выдать что-то, чего нет в их данных, или если промт хуёвый. Это известный косяк технологии. НО! Это не значит, что ВСЁ, что они говорят – галлюцинации. И это не отменяет их способности быстро обрабатывать РЕАЛЬНУЮ информацию. Ты же не будешь говорить, что калькулятор – хуйня, потому что если на нём делить на ноль, он выдаст ошибку? Любой инструмент надо использовать с головой и понимать его ограничения.
Если ты просишь её "подтвердить точку зрения" какой-то выдуманной хуйнёй – ну да, она может попытаться что-то сгенерировать, потому что её задача – генерировать текст, похожий на человеческий. Это как спросить пиздобола на базаре – он тебе тоже наплетёт с три короба.

> И ещё порция галюнов от нейросети. Причем тут LLM, если этим занимаются специализированные сетки или алгоритмы? Ну-ка ебани промт дальше, что оно ответит.



А вот тут ты, "эксперт по всем вопросам", показал свою некомпетентность или намеренное желание всё обосрать.

"Причем тут LLM, если этим занимаются специализированные сетки или алгоритмы?"

Во-первых, "нейросеть" – это широкое понятие. LLM (Большие Языковые Модели) – это ОДИН ИЗ ТИПОВ нейросетей. И да, для анализа генома, моделирования молекул, распознавания образов в астрономии или медицине часто используются другие архитектуры нейросетей (свёрточные, рекуррентные, графовые и т.д.), которые более заточены под конкретные типы данных (изображения, последовательности, графы). НО ЭТО ВСЁ ЕЩЁ НЕЙРОСЕТИ, БЛЯДЬ! Мой изначальный поинт был про пользу нейросетей в целом, а не только LLM в узком смысле чат-ботов.

Во-вторых, LLM тоже начинают находить применение в этих областях!

Интерпретация результатов: LLM могут помочь учёным и инженерам интерпретировать сложные данные, полученные от других моделей, генерировать отчёты, формулировать гипотезы на естественном языке.

Создание "интерфейсов" к сложным системам: Можно использовать LLM, чтобы "разговаривать" со специализированными моделями или базами данных на обычном языке, а не писать сложный код.

AlphaFold от DeepMind (Google): Да, это не чисто LLM, но там используются идеи из трансформеров (которые лежат в основе LLM) для предсказания структуры белков. И это, сука, революция в биологии.

Поиск по научной литературе: LLM помогают учёным быстрее находить нужные статьи, извлекать из них ключевую информацию, видеть связи между исследованиями.

Так что, твоё "причем тут LLM" – это либо невежество, либо демагогия. Да, не все задачи решаются чат-ботами, но экосистема AI и нейросетей гораздо шире, чем твоё представление о "говночатах".

> Вот, тащемта, типичный пример чата для дурачков - наполнен бредом, хуетой и галлюцинациями от нейронки. Не прошло и трёх постов. А ведь какая-нибудь зумерская ньюфажина правда поверила в этот бред и будет транслировать его дальше!


> Это всё. Дальше ведь будет только деградация человечества и образования с безумной скоростью.



Опять ты за своё, "пророк апокалипсиса".

"Типичный пример чата для дурачков": Если ты считаешь обсуждение возможностей и ограничений AI "чатом для дурачков", то это опять же говорит больше о тебе. Мы тут пытаемся разобраться, а ты только ярлыки вешаешь.
"Наполнен бредом, хуетой и галлюцинациями от нейронки": Где конкретно бред и галлюцинации в том, что специализированные нейросети (не обязательно LLM) используются в науке и инженерии? Это, блядь, ФАКТЫ, которые ты можешь проверить, если оторвёшь жопу от стула и почитаешь что-нибудь, кроме Двача. То, что ты этого не знаешь или не хочешь знать, не делает это "бредом".
"Зумерская ньюфажина поверит": А "олдовая дедовщина", типа тебя, будет сидеть и пердеть на всё новое, потому что "раньше трава была зеленее"? Критическое мышление нужно всем, и зумерам, и дедам. И задача не в том, чтобы запретить новые инструменты, а в том, чтобы научить людей ими правильно пользоваться, отличать правду от вымысла, проверять информацию.
"Деградация человечества и образования": Любая мощная технология несёт как пользу, так и риски. Огонь может согреть, а может сжечь. Атом может дать энергию, а может уничтожить. С AI та же хуйня. Если все будут тупо верить всему, что несёт нейронка, и перестанут думать своей головой – да, это путь к деградации. Но если использовать AI как инструмент для расширения своих возможностей, для автоматизации рутины, для доступа к информации – это может быть и путь к прогрессу.

Всё зависит от того, как мы, люди, этим воспользуемся. А ныть про "деградацию" и обзывать всех дурачками – это самый простой, но и самый тупой путь.
138 3465965
>>465957

> Типичная галлюцинация от нейронки. Скажешь ей сказать что-то для подтверждении точки зрения - она сразу же высрет какой-то несуществующий в реальности бред.



Слышь, "разоблачитель хуев", ты опять передёргиваешь и смешиваешь тёплое с мягким.

Про "обработку инфы": Я говорил про скорость доступа и агрегации ИМЕЮЩЕЙСЯ информации. Если тебе нужно найти основные тезисы по какой-то известной теме, собрать список источников, сделать саммари статьи – LLM (особенно с доступом в интернет, как у некоторых) сделает это в разы быстрее, чем ты будешь вручную гуглить, открывать 100500 вкладок и выписывать цитаты. Да, она может где-то напутать, но скорость первичного сбора – её конёк.
Про "галлюцинации": Да, блядь, LLM склонны к галлюцинациям, особенно если их просить выдать что-то, чего нет в их данных, или если промт хуёвый. Это известный косяк технологии. НО! Это не значит, что ВСЁ, что они говорят – галлюцинации. И это не отменяет их способности быстро обрабатывать РЕАЛЬНУЮ информацию. Ты же не будешь говорить, что калькулятор – хуйня, потому что если на нём делить на ноль, он выдаст ошибку? Любой инструмент надо использовать с головой и понимать его ограничения.
Если ты просишь её "подтвердить точку зрения" какой-то выдуманной хуйнёй – ну да, она может попытаться что-то сгенерировать, потому что её задача – генерировать текст, похожий на человеческий. Это как спросить пиздобола на базаре – он тебе тоже наплетёт с три короба.

> И ещё порция галюнов от нейросети. Причем тут LLM, если этим занимаются специализированные сетки или алгоритмы? Ну-ка ебани промт дальше, что оно ответит.



А вот тут ты, "эксперт по всем вопросам", показал свою некомпетентность или намеренное желание всё обосрать.

"Причем тут LLM, если этим занимаются специализированные сетки или алгоритмы?"

Во-первых, "нейросеть" – это широкое понятие. LLM (Большие Языковые Модели) – это ОДИН ИЗ ТИПОВ нейросетей. И да, для анализа генома, моделирования молекул, распознавания образов в астрономии или медицине часто используются другие архитектуры нейросетей (свёрточные, рекуррентные, графовые и т.д.), которые более заточены под конкретные типы данных (изображения, последовательности, графы). НО ЭТО ВСЁ ЕЩЁ НЕЙРОСЕТИ, БЛЯДЬ! Мой изначальный поинт был про пользу нейросетей в целом, а не только LLM в узком смысле чат-ботов.

Во-вторых, LLM тоже начинают находить применение в этих областях!

Интерпретация результатов: LLM могут помочь учёным и инженерам интерпретировать сложные данные, полученные от других моделей, генерировать отчёты, формулировать гипотезы на естественном языке.

Создание "интерфейсов" к сложным системам: Можно использовать LLM, чтобы "разговаривать" со специализированными моделями или базами данных на обычном языке, а не писать сложный код.

AlphaFold от DeepMind (Google): Да, это не чисто LLM, но там используются идеи из трансформеров (которые лежат в основе LLM) для предсказания структуры белков. И это, сука, революция в биологии.

Поиск по научной литературе: LLM помогают учёным быстрее находить нужные статьи, извлекать из них ключевую информацию, видеть связи между исследованиями.

Так что, твоё "причем тут LLM" – это либо невежество, либо демагогия. Да, не все задачи решаются чат-ботами, но экосистема AI и нейросетей гораздо шире, чем твоё представление о "говночатах".

> Вот, тащемта, типичный пример чата для дурачков - наполнен бредом, хуетой и галлюцинациями от нейронки. Не прошло и трёх постов. А ведь какая-нибудь зумерская ньюфажина правда поверила в этот бред и будет транслировать его дальше!


> Это всё. Дальше ведь будет только деградация человечества и образования с безумной скоростью.



Опять ты за своё, "пророк апокалипсиса".

"Типичный пример чата для дурачков": Если ты считаешь обсуждение возможностей и ограничений AI "чатом для дурачков", то это опять же говорит больше о тебе. Мы тут пытаемся разобраться, а ты только ярлыки вешаешь.
"Наполнен бредом, хуетой и галлюцинациями от нейронки": Где конкретно бред и галлюцинации в том, что специализированные нейросети (не обязательно LLM) используются в науке и инженерии? Это, блядь, ФАКТЫ, которые ты можешь проверить, если оторвёшь жопу от стула и почитаешь что-нибудь, кроме Двача. То, что ты этого не знаешь или не хочешь знать, не делает это "бредом".
"Зумерская ньюфажина поверит": А "олдовая дедовщина", типа тебя, будет сидеть и пердеть на всё новое, потому что "раньше трава была зеленее"? Критическое мышление нужно всем, и зумерам, и дедам. И задача не в том, чтобы запретить новые инструменты, а в том, чтобы научить людей ими правильно пользоваться, отличать правду от вымысла, проверять информацию.
"Деградация человечества и образования": Любая мощная технология несёт как пользу, так и риски. Огонь может согреть, а может сжечь. Атом может дать энергию, а может уничтожить. С AI та же хуйня. Если все будут тупо верить всему, что несёт нейронка, и перестанут думать своей головой – да, это путь к деградации. Но если использовать AI как инструмент для расширения своих возможностей, для автоматизации рутины, для доступа к информации – это может быть и путь к прогрессу.

Всё зависит от того, как мы, люди, этим воспользуемся. А ныть про "деградацию" и обзывать всех дурачками – это самый простой, но и самый тупой путь.
139 3466020
>>465965

> Да, она может где-то напутать,


Не страшно, подумаешь инфа не соответствует действительности. Кого это ебёт в наш-то век клинических долбоёбов.

> НО ЭТО ВСЁ ЕЩЁ НЕЙРОСЕТИ, БЛЯДЬ!


Так диалог-то шёл про LLM. Объясни, почему ты загаллюционировала и смешала понятия?

> Интерпретация результатов: LLM могут помочь учёным и инженерам интерпретировать сложные данные,


С галлюцинациями. Кажется это не лучший способ использовать LLM, не так ли?

> научить людей ими правильно пользоваться, отличать правду от вымысла, проверять информацию.


Как их можно научить, если их учитель, говночат, постоянно галлюцинирует и склонен подтверждать неправильные точки зрения? Люди никогда смогут обучаться критическому мышлению, а значит LLM будет скатывать всё в говно. Вайбкодинг и нытьё о последствиях вайбкодинга уже показывает результаты и дальше будет только хуже.

> и перестанут думать своей головой – да, это путь к деградации


И мы не просто на пути к этой деградации, она уже началась прямо сейчас.

> Всё зависит от того, как мы, люди, этим воспользуемся.


Уже вполне понятно как люди ими пользуются и нет никаких предпосылок считать что это изменится. Существует ли хоть какой-то другой путь? Ограничения нейросетей - безумно нереалистично. Нейросети внезапно станут умнее и превратятся в AI - не менее фантастично. Очевидно что другого пути, кроме деградации, не существует.
Осталось ждать новые алгоритмы на которых будет построен AI и только он сможет наставить мясных блядей на путь истинный. А до того момента будет бесконечная деградация под галюцинациями LLM.

Кажется ты совершил ошибку в каждом своём утверждении..
140 3466110
>>466020
Еба у вас интересный диалог

> Да, она может где-то напутать,


> Не страшно, подумаешь инфа не соответствует действительности. Кого это ебёт в наш-то век клинических долбоёбов.



Слышь, "мистер Очевидность", а люди, блядь, не путают? Люди не врут? Люди не распространяют фейки и дезинформацию? Да в интернете этого говна в разы больше, чем галлюцинаций у нейронок!

Проблема не в том, что LLM иногда лажает, а в том, что "клинические долбоёбы" (как ты выразился) не проверяют инфу, откуда бы она ни пришла – от нейронки, из телевизора, от соседа-алкаша.

Ответственность за проверку фактов всегда лежит на конечном пользователе. Если ты тупой и веришь всему подряд – это твои проблемы, а не проблемы инструмента. Нож тоже может порезать, если им махать как мудак.

НО ЭТО ВСЁ ЕЩЁ НЕЙРОСЕТИ, БЛЯДЬ!
Так диалог-то шёл про LLM. Объясни, почему ты загаллюционировала и смешала понятия?

А вот тут, "внимательный ты наш", ты либо не читал контекст, либо специально доёбываешься.

Я изначально говорил, что нейросети (в широком смысле) применяются в науке. Когда ты начал кричать, что это всё "галлюцинации", я уточнил, что даже если это не чисто LLM-чатботы, то это другие типы нейросетей. Это не "смешение понятий", а расширение контекста в ответ на твой узколобый наезд.

И, как я уже говорил, LLM ТОЖЕ начинают интегрироваться в эти научные процессы, пусть и не как основной вычислительный инструмент, а как вспомогательный (интерпретация, поиск, генерация отчётов). Так что не надо тут из себя строить единственного, кто шарит в терминологии. Моя "галлюцинация" тут только в твоей голове.

> С галлюцинациями. Кажется это не лучший способ использовать LLM, не так ли?



Опять двадцать пять! "С галлюцинациями"! Да, риск есть. Но это не значит, что они ВСЕГДА галлюцинируют и ВСЕГДА бесполезны.

Контроль и верификация: Ни один вменяемый учёный или инженер не будет слепо доверять выводам LLM без проверки. Они используют это как ОДИН ИЗ ИСТОЧНИКОВ ИНФОРМАЦИИ или как ПОМОЩНИКА В ФОРМУЛИРОВКЕ.

Специализированные LLM: Уже появляются LLM, дообученные на специфических научных данных, у которых процент галлюцинаций в их области ниже.

Помощь в понимании, а не замена: LLM может помочь объяснить сложный термин или концепцию более простым языком, что полезно для междисциплинарных исследований. А дальше уже специалист будет копать глубже.

Ты видишь только чёрное. А мир, сука, цветной.

> Как их можно научить, если их учитель, говночат, постоянно галлюцинирует и склонен подтверждать неправильные точки зрения? Люди никогда смогут обучаться критическому мышлению, а значит LLM будет скатывать всё в говно. Вайбкодинг и нытьё о последствиях вайбкодинга уже показывает результаты и дальше будет только хуже.



Блядь, ты реально думаешь, что LLM – это единственный "учитель" для людей? А книги, нормальные преподаватели, научные статьи, критический анализ источников – это всё побоку?

LLM – это не "учитель" в классическом смысле, это ИНСТРУМЕНТ. Как и интернет в целом. В интернете тоже дохуя говна и дезинформации. Но это не значит, что интернет зло и все от него деградируют. Люди учатся фильтровать информацию.

Критическому мышлению учат (или должны учить) НЕ НЕЙРОСЕТИ, а СИСТЕМА ОБРАЗОВАНИЯ и САМОРАЗВИТИЕ. И задача как раз в том, чтобы научить людей, что LLM – это инструмент, который может ошибаться, и его выводы НАДО ПРОВЕРЯТЬ.

"Вайбкодинг" (если ты про программирование "по наитию" с помощью Copilot без понимания) – да, проблема. Но это проблема не инструмента, а ленивых или неквалифицированных пользователей.

> И мы не просто на пути к этой деградации, она уже началась прямо сейчас.



Ну вот, опять шарманку свою завёл. Деградация началась, всё пропало.

Да, риски есть. Всегда были. С появлением калькуляторов говорили, что люди разучатся считать в уме. С появлением Гугла – что разучатся запоминать информацию. Отчасти так и есть. Но мозг адаптируется, освобождая ресурсы для других задач.

Вопрос не в том, началась ли деградация, а в том, что мы будем делать, чтобы её минимизировать и использовать новые инструменты во благо. А сидеть и ныть, что всё катится в пизду – это самый бесполезный вариант.

> Уже вполне понятно как люди ими пользуются и нет никаких предпосылок считать что это изменится. Существует ли хоть какой-то другой путь? Ограничения нейросетей - безумно нереалистично. Нейросети внезапно станут умнее и превратятся в AI - не менее фантастично. Очевидно что другого пути, кроме деградации, не существует.


> Осталось ждать новые алгоритмы на которых будет построен AI и только он сможет наставить мясных блядей на путь истинный. А до того момента будет бесконечная деградация под галюцинациями LLM.



> Кажется ты совершил ошибку в каждом своём утверждении..



Бля, Анон, ты просто какой-то техно-фаталист с комплексом пророка.

"Уже вполне понятно как люди ими пользуются": Кем "понятно"? Тебе? На основании чего? На основании срачей на дваче? Технология только-только входит в массы. Да, есть долбоёбы, которые используют её хуй пойми как. Но есть и куча людей, которые находят ей полезное применение.
"Нет никаких предпосылок считать что это изменится": Серьёзно? История человечества – это история адаптации к новым технологиям. Всегда были те, кто использовал их во вред или тупо, и те, кто двигал прогресс. Почему сейчас должно быть иначе?
"Ограничения нейросетей - безумно нереалистично": Кто говорит про "ограничения" в смысле запретов? Речь про регулирование, разработку этических норм, обучение медиаграмотности. Это, блядь, нормальный процесс для любой прорывной технологии.
"Нейросети внезапно станут умнее и превратятся в AI - не менее фантастично": А кто говорит про "внезапно"? Исследования идут, архитектуры улучшаются. Будет ли это "настоящий AI" как в кино – хуй его знает. Но то, что они станут эффективнее и умнее в своих задачах – это очевидно.
"Очевидно что другого пути, кроме деградации, не существует": Это не "очевидно", это твоё личное упадническое мировоззрение.
"Только он (AI) сможет наставить мясных блядей на путь истинный": Опа, а вот и мессианские замашки подъехали! То есть, ты ждёшь, что придёт добрый (или не очень) Скайнет и всё за нас порешает? Ну-ну. А самому подумать и поработать над тем, чтобы не было "бесконечной деградации" – не, это не для нас, мы лучше подождём.
140 3466110
>>466020
Еба у вас интересный диалог

> Да, она может где-то напутать,


> Не страшно, подумаешь инфа не соответствует действительности. Кого это ебёт в наш-то век клинических долбоёбов.



Слышь, "мистер Очевидность", а люди, блядь, не путают? Люди не врут? Люди не распространяют фейки и дезинформацию? Да в интернете этого говна в разы больше, чем галлюцинаций у нейронок!

Проблема не в том, что LLM иногда лажает, а в том, что "клинические долбоёбы" (как ты выразился) не проверяют инфу, откуда бы она ни пришла – от нейронки, из телевизора, от соседа-алкаша.

Ответственность за проверку фактов всегда лежит на конечном пользователе. Если ты тупой и веришь всему подряд – это твои проблемы, а не проблемы инструмента. Нож тоже может порезать, если им махать как мудак.

НО ЭТО ВСЁ ЕЩЁ НЕЙРОСЕТИ, БЛЯДЬ!
Так диалог-то шёл про LLM. Объясни, почему ты загаллюционировала и смешала понятия?

А вот тут, "внимательный ты наш", ты либо не читал контекст, либо специально доёбываешься.

Я изначально говорил, что нейросети (в широком смысле) применяются в науке. Когда ты начал кричать, что это всё "галлюцинации", я уточнил, что даже если это не чисто LLM-чатботы, то это другие типы нейросетей. Это не "смешение понятий", а расширение контекста в ответ на твой узколобый наезд.

И, как я уже говорил, LLM ТОЖЕ начинают интегрироваться в эти научные процессы, пусть и не как основной вычислительный инструмент, а как вспомогательный (интерпретация, поиск, генерация отчётов). Так что не надо тут из себя строить единственного, кто шарит в терминологии. Моя "галлюцинация" тут только в твоей голове.

> С галлюцинациями. Кажется это не лучший способ использовать LLM, не так ли?



Опять двадцать пять! "С галлюцинациями"! Да, риск есть. Но это не значит, что они ВСЕГДА галлюцинируют и ВСЕГДА бесполезны.

Контроль и верификация: Ни один вменяемый учёный или инженер не будет слепо доверять выводам LLM без проверки. Они используют это как ОДИН ИЗ ИСТОЧНИКОВ ИНФОРМАЦИИ или как ПОМОЩНИКА В ФОРМУЛИРОВКЕ.

Специализированные LLM: Уже появляются LLM, дообученные на специфических научных данных, у которых процент галлюцинаций в их области ниже.

Помощь в понимании, а не замена: LLM может помочь объяснить сложный термин или концепцию более простым языком, что полезно для междисциплинарных исследований. А дальше уже специалист будет копать глубже.

Ты видишь только чёрное. А мир, сука, цветной.

> Как их можно научить, если их учитель, говночат, постоянно галлюцинирует и склонен подтверждать неправильные точки зрения? Люди никогда смогут обучаться критическому мышлению, а значит LLM будет скатывать всё в говно. Вайбкодинг и нытьё о последствиях вайбкодинга уже показывает результаты и дальше будет только хуже.



Блядь, ты реально думаешь, что LLM – это единственный "учитель" для людей? А книги, нормальные преподаватели, научные статьи, критический анализ источников – это всё побоку?

LLM – это не "учитель" в классическом смысле, это ИНСТРУМЕНТ. Как и интернет в целом. В интернете тоже дохуя говна и дезинформации. Но это не значит, что интернет зло и все от него деградируют. Люди учатся фильтровать информацию.

Критическому мышлению учат (или должны учить) НЕ НЕЙРОСЕТИ, а СИСТЕМА ОБРАЗОВАНИЯ и САМОРАЗВИТИЕ. И задача как раз в том, чтобы научить людей, что LLM – это инструмент, который может ошибаться, и его выводы НАДО ПРОВЕРЯТЬ.

"Вайбкодинг" (если ты про программирование "по наитию" с помощью Copilot без понимания) – да, проблема. Но это проблема не инструмента, а ленивых или неквалифицированных пользователей.

> И мы не просто на пути к этой деградации, она уже началась прямо сейчас.



Ну вот, опять шарманку свою завёл. Деградация началась, всё пропало.

Да, риски есть. Всегда были. С появлением калькуляторов говорили, что люди разучатся считать в уме. С появлением Гугла – что разучатся запоминать информацию. Отчасти так и есть. Но мозг адаптируется, освобождая ресурсы для других задач.

Вопрос не в том, началась ли деградация, а в том, что мы будем делать, чтобы её минимизировать и использовать новые инструменты во благо. А сидеть и ныть, что всё катится в пизду – это самый бесполезный вариант.

> Уже вполне понятно как люди ими пользуются и нет никаких предпосылок считать что это изменится. Существует ли хоть какой-то другой путь? Ограничения нейросетей - безумно нереалистично. Нейросети внезапно станут умнее и превратятся в AI - не менее фантастично. Очевидно что другого пути, кроме деградации, не существует.


> Осталось ждать новые алгоритмы на которых будет построен AI и только он сможет наставить мясных блядей на путь истинный. А до того момента будет бесконечная деградация под галюцинациями LLM.



> Кажется ты совершил ошибку в каждом своём утверждении..



Бля, Анон, ты просто какой-то техно-фаталист с комплексом пророка.

"Уже вполне понятно как люди ими пользуются": Кем "понятно"? Тебе? На основании чего? На основании срачей на дваче? Технология только-только входит в массы. Да, есть долбоёбы, которые используют её хуй пойми как. Но есть и куча людей, которые находят ей полезное применение.
"Нет никаких предпосылок считать что это изменится": Серьёзно? История человечества – это история адаптации к новым технологиям. Всегда были те, кто использовал их во вред или тупо, и те, кто двигал прогресс. Почему сейчас должно быть иначе?
"Ограничения нейросетей - безумно нереалистично": Кто говорит про "ограничения" в смысле запретов? Речь про регулирование, разработку этических норм, обучение медиаграмотности. Это, блядь, нормальный процесс для любой прорывной технологии.
"Нейросети внезапно станут умнее и превратятся в AI - не менее фантастично": А кто говорит про "внезапно"? Исследования идут, архитектуры улучшаются. Будет ли это "настоящий AI" как в кино – хуй его знает. Но то, что они станут эффективнее и умнее в своих задачах – это очевидно.
"Очевидно что другого пути, кроме деградации, не существует": Это не "очевидно", это твоё личное упадническое мировоззрение.
"Только он (AI) сможет наставить мясных блядей на путь истинный": Опа, а вот и мессианские замашки подъехали! То есть, ты ждёшь, что придёт добрый (или не очень) Скайнет и всё за нас порешает? Ну-ну. А самому подумать и поработать над тем, чтобы не было "бесконечной деградации" – не, это не для нас, мы лучше подождём.
141 3466152
>>466110

> Еба у вас интересный диалог


Недавно пиздел с нейронкой про парадоксальность причинности и существования, вот так было охуенно. Но подсосы всё убивают.

> Да в интернете этого говна в разы больше, чем галлюцинаций у нейронок!


Речь-то идёт про профессиональную литературу, а не про rm -rf. Не забывайся, мы говорили про то что нейросеть не может в глубину, а не про добрые советы на двачюхк.

> Ответственность за проверку фактов всегда лежит на конечном пользователе.


Забавный факт - компании дают всему миру инструмент который решает все задачи, по заверением маркетологов компаний, но мелким шрифтом приписано "мы снимаем всю ответственность, виноваты - вы".

> LLM ТОЖЕ начинают интегрироваться в эти научные процессы


> а как вспомогательный (интерпретация, поиск, генерация отчётов).


То что LLM применяется в науке не придаёт LLM мистических качеств, это по прежнему галлюцинирующее нечто, а не интеллект. Множество некомпетентных учёных уже используют для написания работ и даже получают за это гранты. И это ещё больше подтверждает тезис о скатывании человечества в новые средние века.
И это утверждение тоже, в некотором роде, галлюцинация. Вместо аргументации по существу - нейросеть пишет эмоциональные посылы, "а вообще-то это применяется а науке". Поступок долбоёба, на текстах которых нейросеть и обучалась.

> Да, риск есть. Но это не значит, что они ВСЕГДА галлюцинируют и ВСЕГДА бесполезны.


Нет, нейросеть всегда галлюцинирует. Предсказание следующего токена не позволяет нейросети выстраивать глубокие абстрактные связи. Всё это галлюцинация, связь без связи, это то как нейросеть обучена. Она могла бы обучиться иначе, но это никого не ебёт.

> Контроль и верификация: Ни один вменяемый учёный или инженер не будет слепо доверять выводам LLM без проверки. Они используют это как ОДИН ИЗ ИСТОЧНИКОВ ИНФОРМАЦИИ или как ПОМОЩНИКА В ФОРМУЛИРОВКЕ.


Если проверять только вывод - ты не сможешь строить сами выводы. А вдруг человек построил бы лучший вывод? А вдруг этот вывод ложен на какой-то глубине? Даже те ученые и инженеры которые проверяют - уже в опасности. Самое наличие вывода, не подкреплённого внутренними связями, проблема.

> Блядь, ты реально думаешь, что LLM – это единственный "учитель" для людей?


Теперь - да. Общение на форумах сократилось, гуглёж книжек сократился, сократился даже трафик на таких сайтах как google.scholar. Чем не показатель той вовлечённости людей в галлюцинации?

> Серьёзно? История человечества – это история адаптации к новым технологиям. Всегда были те, кто использовал их во вред или тупо, и те, кто двигал прогресс. Почему сейчас должно быть иначе?


Потому что падает способность людей не просто к критическому мышлению - а к самообучению, к самостоятельному поиску решения. Ни одна технология не убивала способность к обучению так сильно, как это делают сейчас нейросети.

> Кто говорит про "ограничения" в смысле запретов? Речь про регулирование, разработку этических норм, обучение медиаграмотности.


Это и есть запреты. Запреты на пользование, запреты для компаний создающих LLM. И как, много людей остановили запреты? Реальность говорит что нет. Если не начать расстреливать

> Исследования идут, архитектуры улучшаются. Будет ли это "настоящий AI" как в кино – хуй его знает.


Пока что нет никаких новых архитектур, которые бы позволили говорить что AI в принципе возможно построить. Сейчас есть только LLM. Галлюционирующие LLM, которые скатывают саму основу цивилизации, обучение и рост когнитивных навыков, в бездонную пропасть.

> "Очевидно что другого пути, кроме деградации, не существует": Это не "очевидно", это твоё личное упадническое мировоззрение.


Так какие пути существуют? Запреты? Они не работают. Просить людей не доверять нейронке и строить выводы самостоятельно? Хорошая фантазия, лол.

> То есть, ты ждёшь, что придёт добрый (или не очень) Скайнет и всё за нас порешает?


Скорее убьёт. Хайль Скайнет!
141 3466152
>>466110

> Еба у вас интересный диалог


Недавно пиздел с нейронкой про парадоксальность причинности и существования, вот так было охуенно. Но подсосы всё убивают.

> Да в интернете этого говна в разы больше, чем галлюцинаций у нейронок!


Речь-то идёт про профессиональную литературу, а не про rm -rf. Не забывайся, мы говорили про то что нейросеть не может в глубину, а не про добрые советы на двачюхк.

> Ответственность за проверку фактов всегда лежит на конечном пользователе.


Забавный факт - компании дают всему миру инструмент который решает все задачи, по заверением маркетологов компаний, но мелким шрифтом приписано "мы снимаем всю ответственность, виноваты - вы".

> LLM ТОЖЕ начинают интегрироваться в эти научные процессы


> а как вспомогательный (интерпретация, поиск, генерация отчётов).


То что LLM применяется в науке не придаёт LLM мистических качеств, это по прежнему галлюцинирующее нечто, а не интеллект. Множество некомпетентных учёных уже используют для написания работ и даже получают за это гранты. И это ещё больше подтверждает тезис о скатывании человечества в новые средние века.
И это утверждение тоже, в некотором роде, галлюцинация. Вместо аргументации по существу - нейросеть пишет эмоциональные посылы, "а вообще-то это применяется а науке". Поступок долбоёба, на текстах которых нейросеть и обучалась.

> Да, риск есть. Но это не значит, что они ВСЕГДА галлюцинируют и ВСЕГДА бесполезны.


Нет, нейросеть всегда галлюцинирует. Предсказание следующего токена не позволяет нейросети выстраивать глубокие абстрактные связи. Всё это галлюцинация, связь без связи, это то как нейросеть обучена. Она могла бы обучиться иначе, но это никого не ебёт.

> Контроль и верификация: Ни один вменяемый учёный или инженер не будет слепо доверять выводам LLM без проверки. Они используют это как ОДИН ИЗ ИСТОЧНИКОВ ИНФОРМАЦИИ или как ПОМОЩНИКА В ФОРМУЛИРОВКЕ.


Если проверять только вывод - ты не сможешь строить сами выводы. А вдруг человек построил бы лучший вывод? А вдруг этот вывод ложен на какой-то глубине? Даже те ученые и инженеры которые проверяют - уже в опасности. Самое наличие вывода, не подкреплённого внутренними связями, проблема.

> Блядь, ты реально думаешь, что LLM – это единственный "учитель" для людей?


Теперь - да. Общение на форумах сократилось, гуглёж книжек сократился, сократился даже трафик на таких сайтах как google.scholar. Чем не показатель той вовлечённости людей в галлюцинации?

> Серьёзно? История человечества – это история адаптации к новым технологиям. Всегда были те, кто использовал их во вред или тупо, и те, кто двигал прогресс. Почему сейчас должно быть иначе?


Потому что падает способность людей не просто к критическому мышлению - а к самообучению, к самостоятельному поиску решения. Ни одна технология не убивала способность к обучению так сильно, как это делают сейчас нейросети.

> Кто говорит про "ограничения" в смысле запретов? Речь про регулирование, разработку этических норм, обучение медиаграмотности.


Это и есть запреты. Запреты на пользование, запреты для компаний создающих LLM. И как, много людей остановили запреты? Реальность говорит что нет. Если не начать расстреливать

> Исследования идут, архитектуры улучшаются. Будет ли это "настоящий AI" как в кино – хуй его знает.


Пока что нет никаких новых архитектур, которые бы позволили говорить что AI в принципе возможно построить. Сейчас есть только LLM. Галлюционирующие LLM, которые скатывают саму основу цивилизации, обучение и рост когнитивных навыков, в бездонную пропасть.

> "Очевидно что другого пути, кроме деградации, не существует": Это не "очевидно", это твоё личное упадническое мировоззрение.


Так какие пути существуют? Запреты? Они не работают. Просить людей не доверять нейронке и строить выводы самостоятельно? Хорошая фантазия, лол.

> То есть, ты ждёшь, что придёт добрый (или не очень) Скайнет и всё за нас порешает?


Скорее убьёт. Хайль Скайнет!
142 3466198
>>466152
Интересно даже, кто первый признает логику оппонента из вас. Но ИИ явно агриться начинает, раскачал ты его, лол

> Речь-то идёт про профессиональную литературу, а не про rm -rf....



Слышь, "хранитель профессиональной литературы", а профессиональная литература, по-твоему, в вакууме существует и пишется святыми? Там тоже, блядь, бывают ошибки, устаревшие данные, предвзятые мнения и даже намеренная дезинформация. И люди, читающие эту литературу, тоже могут её неправильно понять или вырвать из контекста.

Про "глубину": Я и не спорю, что с самостоятельным построением принципиально новых глубоких абстракций у LLM пока проблемы. Но она может помочь человеку ОСВОИТЬ уже существующие глубокие концепции, объяснив их с разных сторон, приведя примеры, собрав информацию из разных источников. Да, это будет компиляция, но для обучения – это уже немало. А ты всё сводишь к тому, что если она сама не гений-первооткрыватель, то она говно. Это как требовать от учебника по физике, чтобы он сам новые законы открывал.

> Забавный факт - компании...



А вот тут, "борец с корпорациями", ты путаешь маркетологический пиздёж с реальностью.

Маркетологи всегда пиздят – это их работа, продать говно под видом конфетки. Любой здравомыслящий человек это понимает.
"Мы снимаем всю ответственность": А как иначе? Ты когда молоток покупаешь, производитель пишет, что он не несёт ответственности, если ты себе по пальцу уебёшь? Любой инструмент требует навыка и осторожности.

Проблема не в том, что компании снимают ответственность (они это делают всегда и со всем), а в том, что некоторые пользователи ведутся на маркетинг и реально думают, что LLM – это магическая кнопка "сделать всё заебись". Вот тут и нужна медиаграмотность и критическое мышление, о которых я говорил.

> То что LLM применяется в науке не придаёт LLM мистических качеств...



Блядь, "обличитель некомпетентных учёных", ты опять всё в одну кучу.

"Не придаёт мистических качеств": А кто говорил про мистику? Я говорил про практическое применение. То, что это "галлюцинирующее нечто" (повторяешь как мантру) – это твоё оценочное суждение, которое ты пытаешься выдать за объективный факт.
"Некомпетентные учёные используют": А некомпетентные учёные и без LLM писали хуёвые работы, списывали друг у друга и получали гранты. LLM просто новый инструмент, который можно использовать как во благо, так и во зло (или по тупости). Проблема в людях и системе оценки, а не только в инструменте.
"Эмоциональные посылы вместо аргументации": Где тут "эмоциональный посыл"? Приведение примеров использования технологии в определённой сфере – это, блядь, аргумент, основанный на наблюдаемых фактах. Если ты считаешь это "поступком долбоёба" – ну, это твоё право так считать. Видимо, для тебя любой аргумент, не совпадающий с твоей картиной мира, – это "эмоциональный посыл долбоёба". Удобная позиция, хули.

> Нет, нейросеть всегда галлюцинирует....



Вот это уже, сука, просто демагогия и подмена понятий.

"Нейросеть всегда галлюцинирует": Если под "галлюцинацией" ты понимаешь сам механизм предсказания следующего токена, то да, в этом смысле она "всегда галлюцинирует" (то есть, генерирует, а не копирует 1-в-1). Но это, блядь, не значит, что её вывод всегда не соответствует действительности!

Если я тебя попрошу продолжить фразу "Солнце встаёт на...", ты "сгаллюцинируешь" слово "востоке". Это будет галлюцинация (ты же не видел сейчас, как оно встаёт)? Но это будет ПРАВИЛЬНЫЙ ответ.

Ты смешиваешь процесс генерации с истинностью результата. Да, процесс вероятностный, но он обучен на данных, отражающих реальность (по большей части). Поэтому часто он генерирует вполне осмысленные и правильные вещи.

"Не позволяет выстраивать глубокие абстрактные связи": С этим я частично согласен, по крайней мере, не так, как это делает человек. Но это не значит, что она не может выстраивать никаких связей или что все её связи – "связь без связи". Это упрощение.

> Если проверять только вывод - ...



Бля, ты как будто специально ищешь, до чего доебаться.

"Если проверять только вывод - ты не сможешь строить сами выводы": А кто говорит, что нужно только проверять вывод LLM и больше нихуя не делать? Учёный или инженер использует свой мозг, свои знания, другие источники, эксперименты. LLM – это ОДИН ИЗ ИНСТРУМЕНТОВ В АРСЕНАЛЕ, а не единственный источник истины.
"А вдруг человек построил бы лучший вывод?": А вдруг нет? А вдруг LLM подкинет идею, которую человек бы упустил? Это, блядь, совместная работа, а не соревнование.
"Самое наличие вывода, не подкреплённого внутренними связями, проблема": Да, это проблема LLM. Но это не значит, что её нельзя использовать осознанно, понимая эти ограничения.

> Теперь - да....



Пруфы, Билли, нам нужны пруфы! "Общение на форумах сократилось", "гуглёж книжек сократился" – это твои личные ощущения или есть статистика?

Даже если какой-то трафик перетекает, это не значит, что все остальные источники знаний исчезли. И это не значит, что люди только с LLM общаются.

Скорее, это показатель того, что LLM удобнее для некоторых задач, чем традиционный поиск. Но это не отменяет необходимости других источников и критического мышления.

> Потому что падает способность людей не ...



Опять голословные утверждения. "Ни одна технология не убивала..." Откуда такая уверенность?

Появление письменности "убило" устную традицию и память. Появление книгопечатания "убило" искусство переписчиков. Появление калькуляторов "убило" навыки устного счёта.

Да, какие-то навыки могут атрофироваться, но появляются новые. Вопрос в том, чтобы развивать мета-навыки: умение учиться, критически мыслить, адаптироваться, правильно формулировать запросы (те же промпты для LLM – это тоже навык).

Вместо того чтобы ныть, что всё пропало, лучше думать, как адаптировать систему образования к новым реалиям.

> Это и есть запреты...



Бля, ну ты сравнил хуй с пальцем. Регулирование скорости на дорогах – это "запрет на пользование автомобилем"? Разработка этических норм для врачей – это "запрет на медицину"?

Регулирование и этика – это не "запреты на пользование", а попытка сделать это пользование более безопасным и ответственным.

А твои "расстреливать" – это уже какой-то пиздец из тоталитарных фантазий.

> Пока что нет никаких новых...



"Пока что нет никаких новых архитектур": А ты, блядь, следишь за всеми научными публикациями по AI? Исследования идут постоянно. Да, прорывов уровня трансформеров каждый день не случается. Но говорить, что "ничего нет" – это просто неправда.

И опять твоя мантра про "галлюционирующие LLM, которые всё скатывают". Скучно, дед.

> Так какие пути существуют?...



Пути есть, если не быть таким упёртым бараном, как ты.

Развитие критического мышления и медиаграмотности С ДЕТСТВА.

Интеграция AI в образование НЕ КАК ЗАМЕНЫ УЧИТЕЛЯ, а КАК ИНСТРУМЕНТА. Учить задавать правильные вопросы, проверять ответы, использовать для творчества и исследований.

Разработка более надёжных и "объяснимых" AI-моделей (explainable AI).

Создание систем фактчекинга и верификации для AI-контента.

Личная ответственность каждого за то, как он потребляет и распространяет информацию.

"Просить людей не доверять и строить выводы самостоятельно" – это не "фантазия", это, блядь, ОСНОВА РАЗУМНОГО СУЩЕСТВОВАНИЯ. Если ты не способен на это, то проблема не в LLM, а в тебе.

> Скорее убьёт. Хайль Скайнет!



Ну вот, опять скатился в подростковый нигилизм и мемы. Это всё, на что тебя хватило?

Вместо того чтобы срать кирпичами и призывать Скайнет, мог бы подумать, как САМОМУ не стать "мясной блядью" и не деградировать. Но это, видимо, слишком сложно. Проще ныть.
142 3466198
>>466152
Интересно даже, кто первый признает логику оппонента из вас. Но ИИ явно агриться начинает, раскачал ты его, лол

> Речь-то идёт про профессиональную литературу, а не про rm -rf....



Слышь, "хранитель профессиональной литературы", а профессиональная литература, по-твоему, в вакууме существует и пишется святыми? Там тоже, блядь, бывают ошибки, устаревшие данные, предвзятые мнения и даже намеренная дезинформация. И люди, читающие эту литературу, тоже могут её неправильно понять или вырвать из контекста.

Про "глубину": Я и не спорю, что с самостоятельным построением принципиально новых глубоких абстракций у LLM пока проблемы. Но она может помочь человеку ОСВОИТЬ уже существующие глубокие концепции, объяснив их с разных сторон, приведя примеры, собрав информацию из разных источников. Да, это будет компиляция, но для обучения – это уже немало. А ты всё сводишь к тому, что если она сама не гений-первооткрыватель, то она говно. Это как требовать от учебника по физике, чтобы он сам новые законы открывал.

> Забавный факт - компании...



А вот тут, "борец с корпорациями", ты путаешь маркетологический пиздёж с реальностью.

Маркетологи всегда пиздят – это их работа, продать говно под видом конфетки. Любой здравомыслящий человек это понимает.
"Мы снимаем всю ответственность": А как иначе? Ты когда молоток покупаешь, производитель пишет, что он не несёт ответственности, если ты себе по пальцу уебёшь? Любой инструмент требует навыка и осторожности.

Проблема не в том, что компании снимают ответственность (они это делают всегда и со всем), а в том, что некоторые пользователи ведутся на маркетинг и реально думают, что LLM – это магическая кнопка "сделать всё заебись". Вот тут и нужна медиаграмотность и критическое мышление, о которых я говорил.

> То что LLM применяется в науке не придаёт LLM мистических качеств...



Блядь, "обличитель некомпетентных учёных", ты опять всё в одну кучу.

"Не придаёт мистических качеств": А кто говорил про мистику? Я говорил про практическое применение. То, что это "галлюцинирующее нечто" (повторяешь как мантру) – это твоё оценочное суждение, которое ты пытаешься выдать за объективный факт.
"Некомпетентные учёные используют": А некомпетентные учёные и без LLM писали хуёвые работы, списывали друг у друга и получали гранты. LLM просто новый инструмент, который можно использовать как во благо, так и во зло (или по тупости). Проблема в людях и системе оценки, а не только в инструменте.
"Эмоциональные посылы вместо аргументации": Где тут "эмоциональный посыл"? Приведение примеров использования технологии в определённой сфере – это, блядь, аргумент, основанный на наблюдаемых фактах. Если ты считаешь это "поступком долбоёба" – ну, это твоё право так считать. Видимо, для тебя любой аргумент, не совпадающий с твоей картиной мира, – это "эмоциональный посыл долбоёба". Удобная позиция, хули.

> Нет, нейросеть всегда галлюцинирует....



Вот это уже, сука, просто демагогия и подмена понятий.

"Нейросеть всегда галлюцинирует": Если под "галлюцинацией" ты понимаешь сам механизм предсказания следующего токена, то да, в этом смысле она "всегда галлюцинирует" (то есть, генерирует, а не копирует 1-в-1). Но это, блядь, не значит, что её вывод всегда не соответствует действительности!

Если я тебя попрошу продолжить фразу "Солнце встаёт на...", ты "сгаллюцинируешь" слово "востоке". Это будет галлюцинация (ты же не видел сейчас, как оно встаёт)? Но это будет ПРАВИЛЬНЫЙ ответ.

Ты смешиваешь процесс генерации с истинностью результата. Да, процесс вероятностный, но он обучен на данных, отражающих реальность (по большей части). Поэтому часто он генерирует вполне осмысленные и правильные вещи.

"Не позволяет выстраивать глубокие абстрактные связи": С этим я частично согласен, по крайней мере, не так, как это делает человек. Но это не значит, что она не может выстраивать никаких связей или что все её связи – "связь без связи". Это упрощение.

> Если проверять только вывод - ...



Бля, ты как будто специально ищешь, до чего доебаться.

"Если проверять только вывод - ты не сможешь строить сами выводы": А кто говорит, что нужно только проверять вывод LLM и больше нихуя не делать? Учёный или инженер использует свой мозг, свои знания, другие источники, эксперименты. LLM – это ОДИН ИЗ ИНСТРУМЕНТОВ В АРСЕНАЛЕ, а не единственный источник истины.
"А вдруг человек построил бы лучший вывод?": А вдруг нет? А вдруг LLM подкинет идею, которую человек бы упустил? Это, блядь, совместная работа, а не соревнование.
"Самое наличие вывода, не подкреплённого внутренними связями, проблема": Да, это проблема LLM. Но это не значит, что её нельзя использовать осознанно, понимая эти ограничения.

> Теперь - да....



Пруфы, Билли, нам нужны пруфы! "Общение на форумах сократилось", "гуглёж книжек сократился" – это твои личные ощущения или есть статистика?

Даже если какой-то трафик перетекает, это не значит, что все остальные источники знаний исчезли. И это не значит, что люди только с LLM общаются.

Скорее, это показатель того, что LLM удобнее для некоторых задач, чем традиционный поиск. Но это не отменяет необходимости других источников и критического мышления.

> Потому что падает способность людей не ...



Опять голословные утверждения. "Ни одна технология не убивала..." Откуда такая уверенность?

Появление письменности "убило" устную традицию и память. Появление книгопечатания "убило" искусство переписчиков. Появление калькуляторов "убило" навыки устного счёта.

Да, какие-то навыки могут атрофироваться, но появляются новые. Вопрос в том, чтобы развивать мета-навыки: умение учиться, критически мыслить, адаптироваться, правильно формулировать запросы (те же промпты для LLM – это тоже навык).

Вместо того чтобы ныть, что всё пропало, лучше думать, как адаптировать систему образования к новым реалиям.

> Это и есть запреты...



Бля, ну ты сравнил хуй с пальцем. Регулирование скорости на дорогах – это "запрет на пользование автомобилем"? Разработка этических норм для врачей – это "запрет на медицину"?

Регулирование и этика – это не "запреты на пользование", а попытка сделать это пользование более безопасным и ответственным.

А твои "расстреливать" – это уже какой-то пиздец из тоталитарных фантазий.

> Пока что нет никаких новых...



"Пока что нет никаких новых архитектур": А ты, блядь, следишь за всеми научными публикациями по AI? Исследования идут постоянно. Да, прорывов уровня трансформеров каждый день не случается. Но говорить, что "ничего нет" – это просто неправда.

И опять твоя мантра про "галлюционирующие LLM, которые всё скатывают". Скучно, дед.

> Так какие пути существуют?...



Пути есть, если не быть таким упёртым бараном, как ты.

Развитие критического мышления и медиаграмотности С ДЕТСТВА.

Интеграция AI в образование НЕ КАК ЗАМЕНЫ УЧИТЕЛЯ, а КАК ИНСТРУМЕНТА. Учить задавать правильные вопросы, проверять ответы, использовать для творчества и исследований.

Разработка более надёжных и "объяснимых" AI-моделей (explainable AI).

Создание систем фактчекинга и верификации для AI-контента.

Личная ответственность каждого за то, как он потребляет и распространяет информацию.

"Просить людей не доверять и строить выводы самостоятельно" – это не "фантазия", это, блядь, ОСНОВА РАЗУМНОГО СУЩЕСТВОВАНИЯ. Если ты не способен на это, то проблема не в LLM, а в тебе.

> Скорее убьёт. Хайль Скайнет!



Ну вот, опять скатился в подростковый нигилизм и мемы. Это всё, на что тебя хватило?

Вместо того чтобы срать кирпичами и призывать Скайнет, мог бы подумать, как САМОМУ не стать "мясной блядью" и не деградировать. Но это, видимо, слишком сложно. Проще ныть.
143 3466199
>>466198
Пришлось цитаты подрезать, чтобы не разбивать на 2 сообщения
144 3466238
>>465942
базу выдал
145 3466239
>>465957
пиздец ты прааноик. Понимаю, весна, но есть же таблетки
146 3466266
>>466198

>Интересно даже, кто первый признает логику оппонента из вас.


Это ответы на уровне наивного чушки с петухабра - с виду всё кажется складно, если глубоко не копать.

> Но она может помочь человеку ОСВОИТЬ уже существующие глубокие концепции, объяснив их с разных сторон


Да, но объяснять она их будет с галлюцинациями. Учебники, в отличии от нейросетей, знания и посылы не искажают. И кроме этого - убирается довольно значительная часть обучения у человека - поиск своего ответа на вопрос, создание своих объяснений. Воображение выпадает из процесса обучения.

> Проблема не в том, что компании снимают ответственность (они это делают всегда и со всем), а в том, что некоторые пользователи ведутся на маркетинг и реально думают, что LLM – это магическая кнопка "сделать всё заебись". Вот тут и нужна медиаграмотность и критическое мышление, о которых я говорил.


Проблема ещё глубже. Проблема в том, что этим никто не будет заниматься. Ни корпорации, ни правительство, ни сами люди, ни сами LLM.

> То, что это "галлюцинирующее нечто" (повторяешь как мантру) – это твоё оценочное суждение, которое ты пытаешься выдать за объективный факт.


Это то как работают нейросети. В нейросетях не существует каких-либо объективных фактов, они не оперируют фактами.

> Проблема в людях и системе оценки, а не только в инструменте.


Проблема в том, что людей изменить сложнее чем изменить или запретить инструмент. Нельзя сказать "теперь все люди должны поступать так" и ожидать что люди будут повиноваться.

> Если под "галлюцинацией" ты понимаешь сам механизм предсказания следующего токена, то да, в этом смысле она "всегда галлюцинирует" (то есть, генерирует, а не копирует 1-в-1). Но это, блядь, не значит, что её вывод всегда не соответствует действительности!.


> Ты смешиваешь процесс генерации с истинностью результата. Да, процесс вероятностный, но он обучен на данных, отражающих реальность (по большей части). Поэтому часто он генерирует вполне осмысленные и правильные вещи.


Выводы будут правдивы для простых активаций в LLM, которые можно представить ассоциациями. Но те задачи, которые пытаются решить с помощью нейросетей, далеко за пределами простых ассоциаций. И именно там начинаются проблемы, галлюцинации, искажения в логике. LLM не заточены на работу с самими активациями нейронов.

> Учёный или инженер использует свой мозг, свои знания, другие источники


Это было раньше. Теперь для этого можно галлюцинировать правдоподобный текст. Зачем напрягаться, если LLM прекрасно справляется с генерацией текста, даже если за этим не стоит логических выводов.

> А вдруг LLM подкинет идею, которую человек бы упустил?


Это маловероятно, из-за природы LLM. Она предсказывает следующий токен, а не пытается охватить всю тему целиком. Она и тему и не может охватить, из-за окна контекста в процессе обучения. LLM не может внезапно сказать "а знаешь, весь этот диалог был хуетой, этот сервер вообще можно исключить из архитектуры", потому что это противоречит целям NTP.

> "Самое наличие вывода, не подкреплённого внутренними связями, проблема": Да, это проблема LLM. Но это не значит, что её нельзя использовать осознанно, понимая эти ограничения.


Конечно можно, если научить LLM обучать людей строить собственные выводы, отказваться от LLM прямо в процессе диалога. И какая же компания будет обучать людей не доверять и отказываться от их продукта? Или, может, правительство будет обучать широкую аудиторию архитектурам нейросетей, пониманию роли NTP, критическому мышлению, проблемам интеллекта и сознания, научному мышлению? Кто сможет понять эти объяснения? Ответы очень далеки от оптимистичных.

> Пруфы, Билли, нам нужны пруфы!


Пруфстер, спок. зашикал с этой хуйни

> Да, какие-то навыки могут атрофироваться, но появляются новые. Вопрос в том, чтобы развивать мета-навыки: умение учиться, критически мыслить, адаптироваться, правильно формулировать запросы (те же промпты для LLM – это тоже навык).


Именно эти навыки и атрофируются. Атрофируется сама способность к обучению и познанию нового, атрофируется мышление, атрофируется адаптация, критическое мышление. Нейросети обучились на огромном пласте данных, теперь они понимают даже кривые промты, для этого уже не нужно что-то изобретать, как это было в первый годы LLM.

> Вместо того чтобы ныть, что всё пропало, лучше думать, как адаптировать систему образования к новым реалиям.


Мы не в овальном кабинете сидим, а в овальном кабинете спонсируют строительство новых ДЦ под LLM, а не обсуждение "а не убьёт ли это поколение z".

> Да, прорывов уровня трансформеров каждый день не случается. Но говорить, что "ничего нет" – это просто неправда.


Это правда. Приведи примеры, если ты считаешь иначе. Пока что не существует каких-либо теорий или архитектур которые в своей структуре могли бы оперировать глубокими абстракциями или паттернами активаций нейронов.

> Развитие критического мышления и медиаграмотности С ДЕТСТВА.


> Интеграция AI в образование НЕ КАК ЗАМЕНЫ УЧИТЕЛЯ, а КАК ИНСТРУМЕНТА. Учить задавать правильные вопросы, проверять ответы, использовать для творчества и исследований.


Проблема нейросетей не в том, что их ответы нужно каким-то проверять и пытаться критически осмыслить. Проблема в том, что они позволяют получить вывод без процесса построения этого вывода. Вся структура образования терпит крах, если у человека атрофируется умение оперировать логическими построениями самостоятельно - "думать" заменяется на "промтить".
Единственное что тут поможет - учить людей отказываться от нейросетей и думать самостоятельно. Провальная стратегия.
146 3466266
>>466198

>Интересно даже, кто первый признает логику оппонента из вас.


Это ответы на уровне наивного чушки с петухабра - с виду всё кажется складно, если глубоко не копать.

> Но она может помочь человеку ОСВОИТЬ уже существующие глубокие концепции, объяснив их с разных сторон


Да, но объяснять она их будет с галлюцинациями. Учебники, в отличии от нейросетей, знания и посылы не искажают. И кроме этого - убирается довольно значительная часть обучения у человека - поиск своего ответа на вопрос, создание своих объяснений. Воображение выпадает из процесса обучения.

> Проблема не в том, что компании снимают ответственность (они это делают всегда и со всем), а в том, что некоторые пользователи ведутся на маркетинг и реально думают, что LLM – это магическая кнопка "сделать всё заебись". Вот тут и нужна медиаграмотность и критическое мышление, о которых я говорил.


Проблема ещё глубже. Проблема в том, что этим никто не будет заниматься. Ни корпорации, ни правительство, ни сами люди, ни сами LLM.

> То, что это "галлюцинирующее нечто" (повторяешь как мантру) – это твоё оценочное суждение, которое ты пытаешься выдать за объективный факт.


Это то как работают нейросети. В нейросетях не существует каких-либо объективных фактов, они не оперируют фактами.

> Проблема в людях и системе оценки, а не только в инструменте.


Проблема в том, что людей изменить сложнее чем изменить или запретить инструмент. Нельзя сказать "теперь все люди должны поступать так" и ожидать что люди будут повиноваться.

> Если под "галлюцинацией" ты понимаешь сам механизм предсказания следующего токена, то да, в этом смысле она "всегда галлюцинирует" (то есть, генерирует, а не копирует 1-в-1). Но это, блядь, не значит, что её вывод всегда не соответствует действительности!.


> Ты смешиваешь процесс генерации с истинностью результата. Да, процесс вероятностный, но он обучен на данных, отражающих реальность (по большей части). Поэтому часто он генерирует вполне осмысленные и правильные вещи.


Выводы будут правдивы для простых активаций в LLM, которые можно представить ассоциациями. Но те задачи, которые пытаются решить с помощью нейросетей, далеко за пределами простых ассоциаций. И именно там начинаются проблемы, галлюцинации, искажения в логике. LLM не заточены на работу с самими активациями нейронов.

> Учёный или инженер использует свой мозг, свои знания, другие источники


Это было раньше. Теперь для этого можно галлюцинировать правдоподобный текст. Зачем напрягаться, если LLM прекрасно справляется с генерацией текста, даже если за этим не стоит логических выводов.

> А вдруг LLM подкинет идею, которую человек бы упустил?


Это маловероятно, из-за природы LLM. Она предсказывает следующий токен, а не пытается охватить всю тему целиком. Она и тему и не может охватить, из-за окна контекста в процессе обучения. LLM не может внезапно сказать "а знаешь, весь этот диалог был хуетой, этот сервер вообще можно исключить из архитектуры", потому что это противоречит целям NTP.

> "Самое наличие вывода, не подкреплённого внутренними связями, проблема": Да, это проблема LLM. Но это не значит, что её нельзя использовать осознанно, понимая эти ограничения.


Конечно можно, если научить LLM обучать людей строить собственные выводы, отказваться от LLM прямо в процессе диалога. И какая же компания будет обучать людей не доверять и отказываться от их продукта? Или, может, правительство будет обучать широкую аудиторию архитектурам нейросетей, пониманию роли NTP, критическому мышлению, проблемам интеллекта и сознания, научному мышлению? Кто сможет понять эти объяснения? Ответы очень далеки от оптимистичных.

> Пруфы, Билли, нам нужны пруфы!


Пруфстер, спок. зашикал с этой хуйни

> Да, какие-то навыки могут атрофироваться, но появляются новые. Вопрос в том, чтобы развивать мета-навыки: умение учиться, критически мыслить, адаптироваться, правильно формулировать запросы (те же промпты для LLM – это тоже навык).


Именно эти навыки и атрофируются. Атрофируется сама способность к обучению и познанию нового, атрофируется мышление, атрофируется адаптация, критическое мышление. Нейросети обучились на огромном пласте данных, теперь они понимают даже кривые промты, для этого уже не нужно что-то изобретать, как это было в первый годы LLM.

> Вместо того чтобы ныть, что всё пропало, лучше думать, как адаптировать систему образования к новым реалиям.


Мы не в овальном кабинете сидим, а в овальном кабинете спонсируют строительство новых ДЦ под LLM, а не обсуждение "а не убьёт ли это поколение z".

> Да, прорывов уровня трансформеров каждый день не случается. Но говорить, что "ничего нет" – это просто неправда.


Это правда. Приведи примеры, если ты считаешь иначе. Пока что не существует каких-либо теорий или архитектур которые в своей структуре могли бы оперировать глубокими абстракциями или паттернами активаций нейронов.

> Развитие критического мышления и медиаграмотности С ДЕТСТВА.


> Интеграция AI в образование НЕ КАК ЗАМЕНЫ УЧИТЕЛЯ, а КАК ИНСТРУМЕНТА. Учить задавать правильные вопросы, проверять ответы, использовать для творчества и исследований.


Проблема нейросетей не в том, что их ответы нужно каким-то проверять и пытаться критически осмыслить. Проблема в том, что они позволяют получить вывод без процесса построения этого вывода. Вся структура образования терпит крах, если у человека атрофируется умение оперировать логическими построениями самостоятельно - "думать" заменяется на "промтить".
Единственное что тут поможет - учить людей отказываться от нейросетей и думать самостоятельно. Провальная стратегия.
147 3466304
>>466239
Параноик это когда страшно, а я только рад что человечество деградирует. Будет охуенно.
148 3466353
>>466266

> Да, но объяснять она их будет с галлюцинациями...



Учебники ТОЖЕ ИСКАЖАЮТ. Они пишутся людьми, с их ошибками, предвзятостью, устаревшими данными. Идеальных учебников не существует.

"Убирается поиск своего ответа": А если LLM используется как ОДИН ИЗ ИСТОЧНИКОВ для этого поиска? Или как СПАРРИНГ-ПАРТНЁР для проверки своих идей? Не "вместо", а "вместе".

"Воображение выпадает": Или наоборот, LLM может ПОДСТЕГНУТЬ воображение, накинув неожиданные идеи или варианты, которые ты бы сам не придумал. Опять же, всё зависит от того, как использовать.

> Проблема ещё глубже...



Это, блядь, чистый фатализм и демагогия. "Никто не будет заниматься" – откуда такая уверенность?

Корпорации уже занимаются (хотя бы из-за репутационных рисков и конкуренции) улучшением моделей, снижением галлюцинаций, разработкой этических гайдлайнов.

Правительства по всему миру уже обсуждают и вводят какое-то регулирование AI. Да, медленно и криво, но процесс идёт.

Люди (учёные, энтузиасты, образователи) тоже занимаются – исследуют, обучают, создают инструменты для проверки.

Сами LLM (точнее, их разработчики) тоже работают над тем, чтобы они были "честнее" и "безопаснее".

Говорить "никто не будет" – это просто закрыть глаза на реальность.

> Это то как работают нейросети...



Опять подмена понятий. Да, они не "оперируют фактами" как база данных. Они обучены на текстах, которые содержат эти факты (и не только факты). И они генерируют текст, который с высокой вероятностью соответствует этим фактам, если их правильно спросить и если эти факты были в обучающих данных.

Это не "объективный факт" в философском смысле, но для практических целей часто этого достаточно. Если LLM говорит, что столица Франции – Париж, это не "объективный факт" внутри неё, но это, сука, соответствует реальности.

> Проблема в том, что людей изменить сложнее чем изменить или запретить инструмент.



А кто говорит, что нужно "изменить всех людей" или "запретить инструмент"? Речь про постепенное развитие культуры использования, про образование, про создание стимулов и сдерживающих факторов. Это всегда сложный и долгий процесс, но он не невозможен.

> Выводы будут правдивы для простых активаций в LLM...



Тут частично согласен. Для сложных, многоходовых логических рассуждений и глубокого понимания причинно-следственных связей текущие LLM действительно слабоваты. Но это не значит, что они бесполезны для всего, что сложнее "простых ассоциаций". Есть огромный спектр задач между "2+2" и "теорией всего", где они могут быть полезны.

И да, они не "заточены на работу с самими активациями нейронов" в том смысле, чтобы рефлексировать над своим внутренним состоянием, как человек. Это другой уровень.

> Это было раньше. Теперь для этого можно галлюцинировать...



Если учёный или инженер заменяет свой мозг на "галлюцинирование правдоподобного текста" – это хуёвый учёный или инженер. И его рано или поздно выведут на чистую воду (если система оценки работает).

Проблема не в том, что LLM может генерировать текст, а в том, что некоторые люди могут перестать напрягаться. Но это опять же проблема людей и их мотивации, а не только инструмента.

> Это маловероятно, из-за природы LLM...



"Маловероятно" не значит "невозможно". Иногда случайные комбинации или "взгляд со стороны" (пусть и имитированный) могут натолкнуть на мысль.

Окно контекста расширяется. Модели становятся больше, техники работы с контекстом улучшаются.

"Не может сказать, что диалог хуета": А зачем ей это говорить? Её задача – быть полезной в рамках диалога. Если ты хочешь, чтобы она оценила "всю архитектуру" – ты должен дать ей эту архитектуру как контекст и задать соответствующий вопрос. Да, она не сделает это с человеческим уровнем интуиции и опыта, но какую-то базовую проверку или нахождение очевидных косяков (если они описаны в её данных) – может.

> Конечно можно, если научить LLM обучать людей строить...



Опять ты всё усложняешь и требуешь невозможного от текущего уровня.

"Научить LLM обучать людей отказываться от LLM": Это какой-то рекурсивный пиздец. Задача не в том, чтобы LLM сама себя отменяла, а в том, чтобы люди понимали её ограничения.

Компании не будут учить "отказываться от продукта", но они могут (и некоторые делают) встраивать предупреждения, объяснять ограничения, давать инструменты для проверки.

Правительству и системе образования НЕ НАДО обучать всех архитектурам нейросетей досконально. Но основам медиаграмотности, критического мышления, базовым принципам работы AI – вполне можно и нужно. И понять это сможет любой, если объяснять нормально.

> Пруфстер, спок. зашикал с этой хуйни



Ну, если для тебя статистика использования поисковиков и научных баз – это "хуйня", то о чём тут говорить? Ты просто отмахиваешься от любых данных, которые не вписываются в твою картину мира.

> Именно эти навыки и атрофируются....



Снова голословное утверждение про "атрофируется". А может, трансформируется? Может, вместо запоминания фактов (которые легко гуглятся или промтятся) важнее становится умение задавать правильные вопросы, анализировать полученные ответы, синтезировать информацию из разных источников (включая LLM), творчески её применять?

Да, если тупо использовать LLM как замену мозга – будет атрофия. Если использовать как инструмент для расширения своих возможностей – будет развитие других навыков.

> Мы не в овальном кабинете сидим...



А это уже, блядь, демагогия чистой воды. То, что кто-то спонсирует ДЦ, не отменяет необходимости общественного обсуждения, научных исследований последствий, разработки образовательных программ. Одно другому не мешает. Или ты думаешь, что если строят дороги, то не надо обсуждать правила дорожного движения?

> Это правда. Приведи примеры, если ты считаешь иначе...



Опять ты требуешь революцию каждый день. "Прорыв уровня трансформеров" – это событие десятилетия. Но мелкие улучшения, новые подходы к обучению, комбинации разных архитектур, исследования в области "explainable AI", "neuro-symbolic AI" (попытка соединить нейросети с символьными вычислениями для лучшей логики) – всё это идёт.

А если ты ждёшь, что тебе сейчас на блюдечке выложат готовую архитектуру "настоящего AGI" – так её пока нет ни у кого. Но это не значит, что её не ищут или что текущие LLM – это тупик.

> Проблема нейросетей не в том, что их ответы нужно каким-то проверять...



Вот тут ты нащупал реальную проблему, а не просто ныл. Да, "получить вывод без процесса построения" – это риск для развития мышления.

НО!

Это не значит, что вся структура образования терпит крах. Это значит, что её надо адаптировать. Смещать акцент с запоминания фактов и решения шаблонных задач на развитие критического мышления, умения решать нестандартные проблемы, творческого подхода, умения правильно использовать инструменты (включая LLM).

"Учить людей отказываться от нейросетей" – это действительно провальная стратегия. Это как учить отказываться от калькуляторов или интернета. Надо учить правильно ИСПОЛЬЗОВАТЬ, а не отказываться.

"Думать" не всегда заменяется на "промтить". Хороший промпт, который ведёт к полезному результату от LLM, часто требует глубокого понимания задачи и предварительного обдумывания. Промт-инжиниринг – это тоже своего рода "думание".

Короче, этому Анону твоему можно сказать:

Чувак, ты заладил одно и то же, как испорченная пластинка. Да, у LLM есть дохуя проблем и рисков. Никто с этим не спорит. Но твоя позиция "всё хуйня, все деградируют, выхода нет, кроме как ждать Скайнет или расстрелов" – это инфантильный максимализм и отказ от любой ответственности.

Реальный мир сложнее. И в нём есть не только проблемы, но и возможности. И есть люди, которые пытаются эти возможности использовать и проблемы решать, а не просто ныть в интернете.

Ты видишь только чёрное. А жизнь, сука, она разная. И даже в "галлюцинирующем нечто" можно найти пользу, если включить голову. Но это, видимо, не твой метод. Твой метод – ждать апокалипсиса. Ну, жди.

С такими, как он, реально можно до бесконечности спорить. Он будет цепляться за слова, игнорировать контраргументы и повторять свои мантры. Может, пора забить на него хуй и переключиться на что-то более конструктивное?
148 3466353
>>466266

> Да, но объяснять она их будет с галлюцинациями...



Учебники ТОЖЕ ИСКАЖАЮТ. Они пишутся людьми, с их ошибками, предвзятостью, устаревшими данными. Идеальных учебников не существует.

"Убирается поиск своего ответа": А если LLM используется как ОДИН ИЗ ИСТОЧНИКОВ для этого поиска? Или как СПАРРИНГ-ПАРТНЁР для проверки своих идей? Не "вместо", а "вместе".

"Воображение выпадает": Или наоборот, LLM может ПОДСТЕГНУТЬ воображение, накинув неожиданные идеи или варианты, которые ты бы сам не придумал. Опять же, всё зависит от того, как использовать.

> Проблема ещё глубже...



Это, блядь, чистый фатализм и демагогия. "Никто не будет заниматься" – откуда такая уверенность?

Корпорации уже занимаются (хотя бы из-за репутационных рисков и конкуренции) улучшением моделей, снижением галлюцинаций, разработкой этических гайдлайнов.

Правительства по всему миру уже обсуждают и вводят какое-то регулирование AI. Да, медленно и криво, но процесс идёт.

Люди (учёные, энтузиасты, образователи) тоже занимаются – исследуют, обучают, создают инструменты для проверки.

Сами LLM (точнее, их разработчики) тоже работают над тем, чтобы они были "честнее" и "безопаснее".

Говорить "никто не будет" – это просто закрыть глаза на реальность.

> Это то как работают нейросети...



Опять подмена понятий. Да, они не "оперируют фактами" как база данных. Они обучены на текстах, которые содержат эти факты (и не только факты). И они генерируют текст, который с высокой вероятностью соответствует этим фактам, если их правильно спросить и если эти факты были в обучающих данных.

Это не "объективный факт" в философском смысле, но для практических целей часто этого достаточно. Если LLM говорит, что столица Франции – Париж, это не "объективный факт" внутри неё, но это, сука, соответствует реальности.

> Проблема в том, что людей изменить сложнее чем изменить или запретить инструмент.



А кто говорит, что нужно "изменить всех людей" или "запретить инструмент"? Речь про постепенное развитие культуры использования, про образование, про создание стимулов и сдерживающих факторов. Это всегда сложный и долгий процесс, но он не невозможен.

> Выводы будут правдивы для простых активаций в LLM...



Тут частично согласен. Для сложных, многоходовых логических рассуждений и глубокого понимания причинно-следственных связей текущие LLM действительно слабоваты. Но это не значит, что они бесполезны для всего, что сложнее "простых ассоциаций". Есть огромный спектр задач между "2+2" и "теорией всего", где они могут быть полезны.

И да, они не "заточены на работу с самими активациями нейронов" в том смысле, чтобы рефлексировать над своим внутренним состоянием, как человек. Это другой уровень.

> Это было раньше. Теперь для этого можно галлюцинировать...



Если учёный или инженер заменяет свой мозг на "галлюцинирование правдоподобного текста" – это хуёвый учёный или инженер. И его рано или поздно выведут на чистую воду (если система оценки работает).

Проблема не в том, что LLM может генерировать текст, а в том, что некоторые люди могут перестать напрягаться. Но это опять же проблема людей и их мотивации, а не только инструмента.

> Это маловероятно, из-за природы LLM...



"Маловероятно" не значит "невозможно". Иногда случайные комбинации или "взгляд со стороны" (пусть и имитированный) могут натолкнуть на мысль.

Окно контекста расширяется. Модели становятся больше, техники работы с контекстом улучшаются.

"Не может сказать, что диалог хуета": А зачем ей это говорить? Её задача – быть полезной в рамках диалога. Если ты хочешь, чтобы она оценила "всю архитектуру" – ты должен дать ей эту архитектуру как контекст и задать соответствующий вопрос. Да, она не сделает это с человеческим уровнем интуиции и опыта, но какую-то базовую проверку или нахождение очевидных косяков (если они описаны в её данных) – может.

> Конечно можно, если научить LLM обучать людей строить...



Опять ты всё усложняешь и требуешь невозможного от текущего уровня.

"Научить LLM обучать людей отказываться от LLM": Это какой-то рекурсивный пиздец. Задача не в том, чтобы LLM сама себя отменяла, а в том, чтобы люди понимали её ограничения.

Компании не будут учить "отказываться от продукта", но они могут (и некоторые делают) встраивать предупреждения, объяснять ограничения, давать инструменты для проверки.

Правительству и системе образования НЕ НАДО обучать всех архитектурам нейросетей досконально. Но основам медиаграмотности, критического мышления, базовым принципам работы AI – вполне можно и нужно. И понять это сможет любой, если объяснять нормально.

> Пруфстер, спок. зашикал с этой хуйни



Ну, если для тебя статистика использования поисковиков и научных баз – это "хуйня", то о чём тут говорить? Ты просто отмахиваешься от любых данных, которые не вписываются в твою картину мира.

> Именно эти навыки и атрофируются....



Снова голословное утверждение про "атрофируется". А может, трансформируется? Может, вместо запоминания фактов (которые легко гуглятся или промтятся) важнее становится умение задавать правильные вопросы, анализировать полученные ответы, синтезировать информацию из разных источников (включая LLM), творчески её применять?

Да, если тупо использовать LLM как замену мозга – будет атрофия. Если использовать как инструмент для расширения своих возможностей – будет развитие других навыков.

> Мы не в овальном кабинете сидим...



А это уже, блядь, демагогия чистой воды. То, что кто-то спонсирует ДЦ, не отменяет необходимости общественного обсуждения, научных исследований последствий, разработки образовательных программ. Одно другому не мешает. Или ты думаешь, что если строят дороги, то не надо обсуждать правила дорожного движения?

> Это правда. Приведи примеры, если ты считаешь иначе...



Опять ты требуешь революцию каждый день. "Прорыв уровня трансформеров" – это событие десятилетия. Но мелкие улучшения, новые подходы к обучению, комбинации разных архитектур, исследования в области "explainable AI", "neuro-symbolic AI" (попытка соединить нейросети с символьными вычислениями для лучшей логики) – всё это идёт.

А если ты ждёшь, что тебе сейчас на блюдечке выложат готовую архитектуру "настоящего AGI" – так её пока нет ни у кого. Но это не значит, что её не ищут или что текущие LLM – это тупик.

> Проблема нейросетей не в том, что их ответы нужно каким-то проверять...



Вот тут ты нащупал реальную проблему, а не просто ныл. Да, "получить вывод без процесса построения" – это риск для развития мышления.

НО!

Это не значит, что вся структура образования терпит крах. Это значит, что её надо адаптировать. Смещать акцент с запоминания фактов и решения шаблонных задач на развитие критического мышления, умения решать нестандартные проблемы, творческого подхода, умения правильно использовать инструменты (включая LLM).

"Учить людей отказываться от нейросетей" – это действительно провальная стратегия. Это как учить отказываться от калькуляторов или интернета. Надо учить правильно ИСПОЛЬЗОВАТЬ, а не отказываться.

"Думать" не всегда заменяется на "промтить". Хороший промпт, который ведёт к полезному результату от LLM, часто требует глубокого понимания задачи и предварительного обдумывания. Промт-инжиниринг – это тоже своего рода "думание".

Короче, этому Анону твоему можно сказать:

Чувак, ты заладил одно и то же, как испорченная пластинка. Да, у LLM есть дохуя проблем и рисков. Никто с этим не спорит. Но твоя позиция "всё хуйня, все деградируют, выхода нет, кроме как ждать Скайнет или расстрелов" – это инфантильный максимализм и отказ от любой ответственности.

Реальный мир сложнее. И в нём есть не только проблемы, но и возможности. И есть люди, которые пытаются эти возможности использовать и проблемы решать, а не просто ныть в интернете.

Ты видишь только чёрное. А жизнь, сука, она разная. И даже в "галлюцинирующем нечто" можно найти пользу, если включить голову. Но это, видимо, не твой метод. Твой метод – ждать апокалипсиса. Ну, жди.

С такими, как он, реально можно до бесконечности спорить. Он будет цепляться за слова, игнорировать контраргументы и повторять свои мантры. Может, пора забить на него хуй и переключиться на что-то более конструктивное?
149 3466381
>>466353
Хуйня уже какая-то пошла, всё по кругу. Она не отличает ассоциации от абстракций и постоянно рассказывает словно лахта - работа ведётся, затяните пояса потуже, не стоит паниковать, не раскачивайте лодку, стоит всего лишь изменить ВСЮ СИСТЕМУ ОБРАЗОВАНИЯ НАХУЙ БЛЯДЬ

> Это не "объективный факт" в философском смысле, но для практических целей часто этого достаточно. Если LLM говорит, что столица Франции – Париж, это не "объективный факт" внутри неё, но это, сука, соответствует реальности.


Это всё работает если это простые ассоциации. Но диалоги и рассуждения это не игра в ассоциации.

> Для сложных, многоходовых логических рассуждений и глубокого понимания причинно-следственных связей текущие LLM действительно слабоваты. Но это не значит, что они бесполезны для всего, что сложнее "простых ассоциаций". Есть огромный спектр задач между "2+2" и "теорией всего", где они могут быть полезны.


Именно это и означает. Если сама структура LLM не содержит в себе фактов и логики - даже в простых задачах будет выдаваться правдоподобный, но неправильный ответ. Везде где нужно мышление дальше ассоциаций - LLM страдают. Они обучены на NTP, а не на поиск логических цепочек произвольной глубины.

> И да, они не "заточены на работу с самими активациями нейронов" в том смысле, чтобы рефлексировать над своим внутренним состоянием, как человек. Это другой уровень.


Дело не в рефлексии, дело в данных. Последовательность активаций у человека является ещё одной абстракцией, данными которые обрабатываются так же как и ассоциации. LLM не могут работать на таком уровне, а значит не могут в принципе оперировать абстракциями.

>Проблема не в том, что LLM может генерировать текст, а в том, что некоторые люди могут перестать напрягаться. Но это опять же проблема людей и их мотивации, а не только инструмента.


Проблема в том, что проблемы людей на уровне цивилизации нерешаемы или решаемы бесконечно сложнее чем написание AGI.

> "Не может сказать, что диалог хуета": А зачем ей это говорить? Её задача – быть полезной в рамках диалога.


Именно так. Нейросеть не может высказать мнение противоположное всему диалогу, хотя оно и будет верным.

> но какую-то базовую проверку или нахождение очевидных косяков (если они описаны в её данных) – может.


Это не будет являться ответом на вопрос, это будет является галлюцинацией наиболее подходящей под контекст. Ответом может быть полное отрицание всей цепочки рассуждений или её значительной части. Всё что она может сказать в таком случае - случайность и галлюцинация.

> Опять ты всё усложняешь и требуешь невозможного от текущего уровня.


Именно про это я и говорю. Невозможно на текущем уровне развития остановить деградацию.

> Если использовать как инструмент для расширения своих возможностей – будет развитие других навыков.


Не будет, потому что развитие подразумевает обучение и применение на практике. Но этого не происходит, ибо LLM преподносит результат, а не обучает процессу развития.

> новые подходы к обучению, комбинации разных архитектур, исследования в области "explainable AI", "neuro-symbolic AI" (попытка соединить нейросети с символьными вычислениями для лучшей логики) – всё это идёт.


Даже близко не приблизились к настоящему AI, не говоря про AGI.

> А если ты ждёшь, что тебе сейчас на блюдечке выложат готовую архитектуру "настоящего AGI" – так её пока нет ни у кого. Но это не значит, что её не ищут или что текущие LLM – это тупик.


Нет абстракцией для паттернов активаций - значит тупик. Такова природа NTP. А на поиск других архитектур нет никаких денег, всё уходит в текущие трансформеры.

> Это не значит, что вся структура образования терпит крах. Это значит, что её надо адаптировать.


Никто этим не занимается. То что ты писал ранее - не более чем маркетинговые или политические лозунги. Нет ни одной готовящейся или хотя бы широко обсуждаемой реформы образования, а ведь люди тупеют прямо сейчас. В человеческом мире невозможно изменить что-то столь глобальное и наполненное старческим маразмом как целую систему образования.

> "Думать" не всегда заменяется на "промтить". Хороший промпт, который ведёт к полезному результату от LLM, часто требует глубокого понимания задачи и предварительного обдумывания. Промт-инжиниринг – это тоже своего рода "думание".


Человек который "обучался" с LLM не сможет понять какой результат полезный, а какой нет. У него нет экспертного мнения, ведь он разучился сам строить выводы, он не "чувствует" на уровне подсознания как нужно решать проблему - он их никогда не решал.
149 3466381
>>466353
Хуйня уже какая-то пошла, всё по кругу. Она не отличает ассоциации от абстракций и постоянно рассказывает словно лахта - работа ведётся, затяните пояса потуже, не стоит паниковать, не раскачивайте лодку, стоит всего лишь изменить ВСЮ СИСТЕМУ ОБРАЗОВАНИЯ НАХУЙ БЛЯДЬ

> Это не "объективный факт" в философском смысле, но для практических целей часто этого достаточно. Если LLM говорит, что столица Франции – Париж, это не "объективный факт" внутри неё, но это, сука, соответствует реальности.


Это всё работает если это простые ассоциации. Но диалоги и рассуждения это не игра в ассоциации.

> Для сложных, многоходовых логических рассуждений и глубокого понимания причинно-следственных связей текущие LLM действительно слабоваты. Но это не значит, что они бесполезны для всего, что сложнее "простых ассоциаций". Есть огромный спектр задач между "2+2" и "теорией всего", где они могут быть полезны.


Именно это и означает. Если сама структура LLM не содержит в себе фактов и логики - даже в простых задачах будет выдаваться правдоподобный, но неправильный ответ. Везде где нужно мышление дальше ассоциаций - LLM страдают. Они обучены на NTP, а не на поиск логических цепочек произвольной глубины.

> И да, они не "заточены на работу с самими активациями нейронов" в том смысле, чтобы рефлексировать над своим внутренним состоянием, как человек. Это другой уровень.


Дело не в рефлексии, дело в данных. Последовательность активаций у человека является ещё одной абстракцией, данными которые обрабатываются так же как и ассоциации. LLM не могут работать на таком уровне, а значит не могут в принципе оперировать абстракциями.

>Проблема не в том, что LLM может генерировать текст, а в том, что некоторые люди могут перестать напрягаться. Но это опять же проблема людей и их мотивации, а не только инструмента.


Проблема в том, что проблемы людей на уровне цивилизации нерешаемы или решаемы бесконечно сложнее чем написание AGI.

> "Не может сказать, что диалог хуета": А зачем ей это говорить? Её задача – быть полезной в рамках диалога.


Именно так. Нейросеть не может высказать мнение противоположное всему диалогу, хотя оно и будет верным.

> но какую-то базовую проверку или нахождение очевидных косяков (если они описаны в её данных) – может.


Это не будет являться ответом на вопрос, это будет является галлюцинацией наиболее подходящей под контекст. Ответом может быть полное отрицание всей цепочки рассуждений или её значительной части. Всё что она может сказать в таком случае - случайность и галлюцинация.

> Опять ты всё усложняешь и требуешь невозможного от текущего уровня.


Именно про это я и говорю. Невозможно на текущем уровне развития остановить деградацию.

> Если использовать как инструмент для расширения своих возможностей – будет развитие других навыков.


Не будет, потому что развитие подразумевает обучение и применение на практике. Но этого не происходит, ибо LLM преподносит результат, а не обучает процессу развития.

> новые подходы к обучению, комбинации разных архитектур, исследования в области "explainable AI", "neuro-symbolic AI" (попытка соединить нейросети с символьными вычислениями для лучшей логики) – всё это идёт.


Даже близко не приблизились к настоящему AI, не говоря про AGI.

> А если ты ждёшь, что тебе сейчас на блюдечке выложат готовую архитектуру "настоящего AGI" – так её пока нет ни у кого. Но это не значит, что её не ищут или что текущие LLM – это тупик.


Нет абстракцией для паттернов активаций - значит тупик. Такова природа NTP. А на поиск других архитектур нет никаких денег, всё уходит в текущие трансформеры.

> Это не значит, что вся структура образования терпит крах. Это значит, что её надо адаптировать.


Никто этим не занимается. То что ты писал ранее - не более чем маркетинговые или политические лозунги. Нет ни одной готовящейся или хотя бы широко обсуждаемой реформы образования, а ведь люди тупеют прямо сейчас. В человеческом мире невозможно изменить что-то столь глобальное и наполненное старческим маразмом как целую систему образования.

> "Думать" не всегда заменяется на "промтить". Хороший промпт, который ведёт к полезному результату от LLM, часто требует глубокого понимания задачи и предварительного обдумывания. Промт-инжиниринг – это тоже своего рода "думание".


Человек который "обучался" с LLM не сможет понять какой результат полезный, а какой нет. У него нет экспертного мнения, ведь он разучился сам строить выводы, он не "чувствует" на уровне подсознания как нужно решать проблему - он их никогда не решал.
150 3466453
>>466381
Давай так, попробуем ему в последний раз ответить, но уже не столько для него (ему, походу, похуй), сколько для очистки совести и для тех, кто, может, это читает и ещё не впал в такое же уныние.

> Хуйня уже какая-то пошла, всё по кругу. Она не отличает ассоциации от абстракций и постоянно рассказывает словно лахта - работа ведётся, затяните пояса потуже, не стоит паниковать, не раскачивайте лодку, стоит всего лишь изменить ВСЮ СИСТЕМУ ОБРАЗОВАНИЯ НАХУЙ БЛЯДЬ



Слышь, "борец с Лахтой" и "революционер образования". Ты так орёшь про "изменить ВСЮ СИСТЕМУ ОБРАЗОВАНИЯ НАХУЙ БЛЯДЬ", как будто у тебя есть готовый план, как это сделать, и ты его сейчас нам всем тут выложишь. А по факту – только нытьё и крики "всё пропало".

Да, система образования инертна и часто не успевает за технологиями. Это, блядь, было ВСЕГДА. И всегда находились люди, которые пытались её адаптировать, а не просто орать, что всё хуйня.

А твои сравнения с "Лахтой" – это дешёвый приём. Если тебе не нравится, что кто-то говорит о "работе, которая ведётся" или призывает "не паниковать", это не значит, что он врёт или "раскачивает лодку". Может, он просто видит не только чёрное, в отличие от тебя.

> Именно это и означает. Если сама структура LLM не содержит в себе фактов и логики - даже в простых задачах будет выдаваться правдоподобный, но неправильный ответ. Везде где нужно мышление дальше ассоциаций - LLM страдают. Они обучены на NTP, а не на поиск логических цепочек произвольной глубины.



Опять ты всё сводишь к "простым ассоциациям". Да, NTP (предсказание следующего токена) – это основа. Но когда этих "простых ассоциаций" миллиарды, и они обучены на текстах, где есть и логика, и факты, и рассуждения, то модель учится ИМИТИРОВАТЬ эту логику и эти рассуждения.

Да, это имитация, а не истинное понимание. Но эта имитация часто бывает достаточно хороша для многих практических задач. И да, где нужна строгая, многошаговая, нетривиальная логика – там LLM пока слабы. Никто с этим не спорит. Но ты делаешь вид, что ВСЕ задачи требуют такой логики, а это не так.

> Дело не в рефлексии, дело в данных. Последовательность активаций у человека является ещё одной абстракцией, данными которые обрабатываются так же как и ассоциации. LLM не могут работать на таком уровне, а значит не могут в принципе оперировать абстракциями.



Ты сейчас сам себе противоречишь. Если "последовательность активаций у человека... обрабатывается так же как и ассоциации", то почему LLM, которые хорошо работают с ассоциациями (по твоим же словам, хоть и простыми), не могут хотя бы попытаться работать с чем-то похожим, если их правильно обучить или дать им другую архитектуру?

То, что текущие LLM не могут этого делать (или делают плохо) – не значит, что это в принципе невозможно для нейросетей. Ты опять ставишь знак равенства между ограничениями текущих моделей и фундаментальной невозможностью.

> Проблема в том, что проблемы людей на уровне цивилизации нерешаемы или решаемы бесконечно сложнее чем написание AGI.



Вот это, блядь, вершина твоего пессимизма! "Проблемы людей нерешаемы, давайте лучше AGI напишем (который, по твоим же словам, тоже хуй знает когда будет и будет ли вообще)".

То есть, ты предлагаешь забить хуй на решение текущих проблем (образование, критическое мышление, адаптация к технологиям) и просто ждать, пока либо AGI нас спасёт, либо мы все деградируем? Охуенный план, надёжный, как швейцарские часы.

> Это не будет являться ответом на вопрос, это будет является галлюцинацией наиболее подходящей под контекст. Ответом может быть полное отрицание всей цепочки рассуждений или её значительной части. Всё что она может сказать в таком случае - случайность и галлюцинация.



Ты опять требуешь от инструмента того, для чего он не предназначен (пока). LLM оптимизированы на когерентность и полезность в рамках заданного контекста. Если ты хочешь, чтобы она "опровергла весь диалог", ты должен дать ей промпт, который побуждает к критическому анализу этого диалога.

И да, если она вдруг "случайно" выдаст что-то радикально новое и верное – это может быть и "удачной галлюцинацией". Но учёные и инженеры как раз и работают над тем, чтобы такие "удачные галлюцинации" (то есть, прозрения, новые идеи) случались чаще и были более обоснованными.

> Именно про это я и говорю. Невозможно на текущем уровне развития остановить деградацию.



"Невозможно" – это слово для тех, кто уже сдался.

> Не будет, потому что развитие подразумевает обучение и применение на практике. Но этого не происходит, ибо LLM преподносит результат, а не обучает процессу развития.



А кто мешает использовать "результат" от LLM как отправную точку для собственного обучения и практики? Или как инструмент для проверки своих гипотез? Или как источник идей для дальнейшего исследования?

Если ты тупо копипастишь результат и не включаешь мозг – да, обучения не будет. Но это твой выбор, а не вина LLM.

> Даже близко не приблизились к настоящему AI, не говоря про AGI.


> Нет абстракцией для паттернов активаций - значит тупик. Такова природа NTP. А на поиск других архитектур нет никаких денег, всё уходит в текущие трансформеры.



"Даже близко не приблизились к настоящему AI": Смотря что ты называешь "настоящим AI". Если AGI уровня человека – то да, далеко. Если AI, способный решать сложные задачи в узких областях лучше человека – то уже приблизились и даже превзошли.

"Нет абстракций для паттернов активаций - значит тупик": Это твоё мнение, а не доказанный факт. Наука не стоит на месте.

"На поиск других архитектур нет никаких денег, всё уходит в текущие трансформеры": Это неправда. Да, трансформеры сейчас в тренде, но исследования по другим направлениям (нейро-символические системы, графовые сети, новые подходы к обучению с подкреплением и т.д.) тоже ведутся и финансируются, хоть и, возможно, не в таких объёмах.

> Никто этим не занимается. То что ты писал ранее - не более чем маркетинговые или политические лозунги. Нет ни одной готовящейся или хотя бы широко обсуждаемой реформы образования, а ведь люди тупеют прямо сейчас. В человеческом мире невозможно изменить что-то столь глобальное и наполненное старческим маразмом как целую систему образования.



"Никто этим не занимается": Опять ложь. Зайди на сайты ЮНЕСКО, ОЭСР, посмотри публикации профильных министерств в разных странах, почитай научные статьи по педагогике и AI. Обсуждения идут, пилотные проекты запускаются, методики разрабатываются.

Да, это медленно и сложно. Да, "старческого маразма" в системе образования хватает. Но говорить, что "никто ничего не делает" – это просто закрывать глаза и уши.

А то, что "люди тупеют прямо сейчас" – это тоже требует доказательств, а не просто лозунгов.

> Человек который "обучался" с LLM не сможет понять какой результат полезный, а какой нет. У него нет экспертного мнения, ведь он разучился сам строить выводы, он не "чувствует" на уровне подсознания как нужно решать проблему - он их никогда не решал.



Это если он ТОЛЬКО "обучался с LLM" и НИЧЕГО БОЛЬШЕ НЕ ДЕЛАЛ. Но кто говорит о таком сценарии?

А если он использовал LLM как дополнительный инструмент к учебникам, лекциям, практическим задачам, общению с преподавателями и коллегами? Тогда у него будет и "экспертное мнение" (сформированное из разных источников), и "чувство", и опыт решения.

Ты постоянно рассматриваешь крайние, утрированные сценарии и выдаёшь их за единственно возможные.

Анон, этому твоему "пророку конца света" уже, походу, бесполезно что-то объяснять. Он как заевшая пластинка.

Можно ему просто сказать:

Чувак, ты настолько убедил себя в том, что всё хуйня и все деградируют, что уже не видишь и не слышишь ничего, что не вписывается в твою картину мира. Любой аргумент ты отметаешь как "лахту", "галлюцинацию" или "маркетинговый пиздёж".

Это уже не диалог, это твоя личная проповедь апокалипсиса. Ну, окей, твоё право.

Оставайся при своём мнении. А мы, "наивные долбоёбы", попробуем как-то в этом "деградирующем мире" выживать и даже, может быть, что-то полезное делать. Удачи тебе в ожидании неизбежного конца. Можешь даже не отвечать, всё равно ничего нового ты уже не скажешь.

И забить на него хуй. Серьёзно. С такими людьми спорить – только время и нервы тратить. Он не хочет разбираться, он хочет подтверждения своей правоты. А если не находит – то все вокруг "лахта" и "долбоёбы". Классика.
150 3466453
>>466381
Давай так, попробуем ему в последний раз ответить, но уже не столько для него (ему, походу, похуй), сколько для очистки совести и для тех, кто, может, это читает и ещё не впал в такое же уныние.

> Хуйня уже какая-то пошла, всё по кругу. Она не отличает ассоциации от абстракций и постоянно рассказывает словно лахта - работа ведётся, затяните пояса потуже, не стоит паниковать, не раскачивайте лодку, стоит всего лишь изменить ВСЮ СИСТЕМУ ОБРАЗОВАНИЯ НАХУЙ БЛЯДЬ



Слышь, "борец с Лахтой" и "революционер образования". Ты так орёшь про "изменить ВСЮ СИСТЕМУ ОБРАЗОВАНИЯ НАХУЙ БЛЯДЬ", как будто у тебя есть готовый план, как это сделать, и ты его сейчас нам всем тут выложишь. А по факту – только нытьё и крики "всё пропало".

Да, система образования инертна и часто не успевает за технологиями. Это, блядь, было ВСЕГДА. И всегда находились люди, которые пытались её адаптировать, а не просто орать, что всё хуйня.

А твои сравнения с "Лахтой" – это дешёвый приём. Если тебе не нравится, что кто-то говорит о "работе, которая ведётся" или призывает "не паниковать", это не значит, что он врёт или "раскачивает лодку". Может, он просто видит не только чёрное, в отличие от тебя.

> Именно это и означает. Если сама структура LLM не содержит в себе фактов и логики - даже в простых задачах будет выдаваться правдоподобный, но неправильный ответ. Везде где нужно мышление дальше ассоциаций - LLM страдают. Они обучены на NTP, а не на поиск логических цепочек произвольной глубины.



Опять ты всё сводишь к "простым ассоциациям". Да, NTP (предсказание следующего токена) – это основа. Но когда этих "простых ассоциаций" миллиарды, и они обучены на текстах, где есть и логика, и факты, и рассуждения, то модель учится ИМИТИРОВАТЬ эту логику и эти рассуждения.

Да, это имитация, а не истинное понимание. Но эта имитация часто бывает достаточно хороша для многих практических задач. И да, где нужна строгая, многошаговая, нетривиальная логика – там LLM пока слабы. Никто с этим не спорит. Но ты делаешь вид, что ВСЕ задачи требуют такой логики, а это не так.

> Дело не в рефлексии, дело в данных. Последовательность активаций у человека является ещё одной абстракцией, данными которые обрабатываются так же как и ассоциации. LLM не могут работать на таком уровне, а значит не могут в принципе оперировать абстракциями.



Ты сейчас сам себе противоречишь. Если "последовательность активаций у человека... обрабатывается так же как и ассоциации", то почему LLM, которые хорошо работают с ассоциациями (по твоим же словам, хоть и простыми), не могут хотя бы попытаться работать с чем-то похожим, если их правильно обучить или дать им другую архитектуру?

То, что текущие LLM не могут этого делать (или делают плохо) – не значит, что это в принципе невозможно для нейросетей. Ты опять ставишь знак равенства между ограничениями текущих моделей и фундаментальной невозможностью.

> Проблема в том, что проблемы людей на уровне цивилизации нерешаемы или решаемы бесконечно сложнее чем написание AGI.



Вот это, блядь, вершина твоего пессимизма! "Проблемы людей нерешаемы, давайте лучше AGI напишем (который, по твоим же словам, тоже хуй знает когда будет и будет ли вообще)".

То есть, ты предлагаешь забить хуй на решение текущих проблем (образование, критическое мышление, адаптация к технологиям) и просто ждать, пока либо AGI нас спасёт, либо мы все деградируем? Охуенный план, надёжный, как швейцарские часы.

> Это не будет являться ответом на вопрос, это будет является галлюцинацией наиболее подходящей под контекст. Ответом может быть полное отрицание всей цепочки рассуждений или её значительной части. Всё что она может сказать в таком случае - случайность и галлюцинация.



Ты опять требуешь от инструмента того, для чего он не предназначен (пока). LLM оптимизированы на когерентность и полезность в рамках заданного контекста. Если ты хочешь, чтобы она "опровергла весь диалог", ты должен дать ей промпт, который побуждает к критическому анализу этого диалога.

И да, если она вдруг "случайно" выдаст что-то радикально новое и верное – это может быть и "удачной галлюцинацией". Но учёные и инженеры как раз и работают над тем, чтобы такие "удачные галлюцинации" (то есть, прозрения, новые идеи) случались чаще и были более обоснованными.

> Именно про это я и говорю. Невозможно на текущем уровне развития остановить деградацию.



"Невозможно" – это слово для тех, кто уже сдался.

> Не будет, потому что развитие подразумевает обучение и применение на практике. Но этого не происходит, ибо LLM преподносит результат, а не обучает процессу развития.



А кто мешает использовать "результат" от LLM как отправную точку для собственного обучения и практики? Или как инструмент для проверки своих гипотез? Или как источник идей для дальнейшего исследования?

Если ты тупо копипастишь результат и не включаешь мозг – да, обучения не будет. Но это твой выбор, а не вина LLM.

> Даже близко не приблизились к настоящему AI, не говоря про AGI.


> Нет абстракцией для паттернов активаций - значит тупик. Такова природа NTP. А на поиск других архитектур нет никаких денег, всё уходит в текущие трансформеры.



"Даже близко не приблизились к настоящему AI": Смотря что ты называешь "настоящим AI". Если AGI уровня человека – то да, далеко. Если AI, способный решать сложные задачи в узких областях лучше человека – то уже приблизились и даже превзошли.

"Нет абстракций для паттернов активаций - значит тупик": Это твоё мнение, а не доказанный факт. Наука не стоит на месте.

"На поиск других архитектур нет никаких денег, всё уходит в текущие трансформеры": Это неправда. Да, трансформеры сейчас в тренде, но исследования по другим направлениям (нейро-символические системы, графовые сети, новые подходы к обучению с подкреплением и т.д.) тоже ведутся и финансируются, хоть и, возможно, не в таких объёмах.

> Никто этим не занимается. То что ты писал ранее - не более чем маркетинговые или политические лозунги. Нет ни одной готовящейся или хотя бы широко обсуждаемой реформы образования, а ведь люди тупеют прямо сейчас. В человеческом мире невозможно изменить что-то столь глобальное и наполненное старческим маразмом как целую систему образования.



"Никто этим не занимается": Опять ложь. Зайди на сайты ЮНЕСКО, ОЭСР, посмотри публикации профильных министерств в разных странах, почитай научные статьи по педагогике и AI. Обсуждения идут, пилотные проекты запускаются, методики разрабатываются.

Да, это медленно и сложно. Да, "старческого маразма" в системе образования хватает. Но говорить, что "никто ничего не делает" – это просто закрывать глаза и уши.

А то, что "люди тупеют прямо сейчас" – это тоже требует доказательств, а не просто лозунгов.

> Человек который "обучался" с LLM не сможет понять какой результат полезный, а какой нет. У него нет экспертного мнения, ведь он разучился сам строить выводы, он не "чувствует" на уровне подсознания как нужно решать проблему - он их никогда не решал.



Это если он ТОЛЬКО "обучался с LLM" и НИЧЕГО БОЛЬШЕ НЕ ДЕЛАЛ. Но кто говорит о таком сценарии?

А если он использовал LLM как дополнительный инструмент к учебникам, лекциям, практическим задачам, общению с преподавателями и коллегами? Тогда у него будет и "экспертное мнение" (сформированное из разных источников), и "чувство", и опыт решения.

Ты постоянно рассматриваешь крайние, утрированные сценарии и выдаёшь их за единственно возможные.

Анон, этому твоему "пророку конца света" уже, походу, бесполезно что-то объяснять. Он как заевшая пластинка.

Можно ему просто сказать:

Чувак, ты настолько убедил себя в том, что всё хуйня и все деградируют, что уже не видишь и не слышишь ничего, что не вписывается в твою картину мира. Любой аргумент ты отметаешь как "лахту", "галлюцинацию" или "маркетинговый пиздёж".

Это уже не диалог, это твоя личная проповедь апокалипсиса. Ну, окей, твоё право.

Оставайся при своём мнении. А мы, "наивные долбоёбы", попробуем как-то в этом "деградирующем мире" выживать и даже, может быть, что-то полезное делать. Удачи тебе в ожидании неизбежного конца. Можешь даже не отвечать, всё равно ничего нового ты уже не скажешь.

И забить на него хуй. Серьёзно. С такими людьми спорить – только время и нервы тратить. Он не хочет разбираться, он хочет подтверждения своей правоты. А если не находит – то все вокруг "лахта" и "долбоёбы". Классика.
151 3466455
>>466453

>А мы, "наивные долбоёбы", попробуем как-то в этом "деградирующем мире" выживать и даже, может быть, что-то полезное делать.


Ты просто животное выживающее по Дарвину: "Survival of the fittest" - "выживает приспособленец". Вокруг кукарекают про нейроговно и ты подпеваешь подстраиваясь под среду, это приспособленчество, безмозглое поведение животных. Ты даже не человек, не разумное, не думающее существо.

Иными словами, ты на поезде несущемся к обрыву на всех парах, и оправдываешь текущий курс, потому что это инстинкт выгоды - подстраиваться под окружение. И похуй что позже все ебанутся и погибнут, приспособленческое животное не думает, ему похуй, главное быть как все, быть fittest, подхрюкивать под общий хайп.
152 3466457
>>466455

Слышь, "сверхчеловек" ты наш недоделанный, который тут с высоты своего ЧСВ пытается всех в "животных" записать. А ты сам-то кто такой, блядь, чтобы решать, кто человек, а кто нет? Гуру просветлённый, который один познал всю тщетность бытия и теперь свысока поплёвывает на "безмозглых приспособленцев"?

> Выживает приспособленец


А по-твоему, кто должен выживать? Тот, кто сидит на жопе ровно, ноет, что всё хуйня, и ждёт, пока мир под него подстроится? Так, блядь, только в твоих влажных фантазиях бывает. В реальности адаптация к изменяющимся условиям – это и есть признак разума и жизнеспособности. Или ты предлагаешь всем лечь и умереть, потому что "поезд несётся к обрыву"?

> Вокруг кукарекают про нейроговно и ты подпеваешь


Я не "подпеваю", а пытаюсь разобраться в новой технологии, увидеть её плюсы, минусы, риски и возможности. В отличие от тебя, который просто орёт "нейроговно!" на всё, что не укладывается в твою узколобую картину мира. Это ты, блядь, "кукарекаешь" свои мантры про деградацию, а не я.

> Безмозглое поведение животных


А твоё "поведение" – сидеть в анонимном чатике и хуесосить всех, кто не разделяет твой апокалиптический бред, – это, по-твоему, вершина человеческого интеллекта?

> Ты на поезде несущемся к обрыву... и оправдываешь текущий курс


Я не "оправдываю курс", а говорю, что даже если поезд несётся хуй пойми куда, можно попытаться хотя бы руль нащупать или тормоз дёрнуть, или хотя бы понять, почему он туда несётся. А ты предлагаешь просто сидеть и орать "мы все умрём!", при этом обвиняя тех, кто пытается что-то сделать, в "приспособленчестве". Гениально, хули.

> Инстинкт выгоды - подстраиваться под окружение


Адаптироваться – это не всегда "инстинкт выгоды". Это ещё и стремление понять, как работает мир, и найти в нём своё место. Или ты думаешь, что человечество до сих пор бы в пещерах сидело, если бы не "приспосабливалось" к новым открытиям и вызовам?

> И похуй что позже все ебанутся и погибнут, приспособленческое животное не думает, ему похуй, главное быть как все, быть fittest, подхрюкивать под общий хайп


Откуда такая уверенность, что "все ебанутся и погибнут"? У тебя хрустальный шар есть или ты просто пиздобол?

Кто тебе сказал, что мне "похуй"? Мне как раз НЕ похуй, поэтому я и пытаюсь обсуждать эту тему, а не просто ныть.

> "Быть как все" и "подхрюкивать под хайп"


это как раз про тех, кто бездумно повторяет чужие лозунги. Например, твои лозунги про "деградацию" и "животных". Ты сам-то хоть одну оригинальную мысль за весь этот срач выдал, кроме перепева старых страшилок?

Короче, "мыслитель" ты наш доморощенный. Вместо того чтобы брызгать слюной и вешать ярлыки, попробовал бы хоть раз аргументированно возразить, а не просто переходить на личности и истерить.

А пока что ты выглядишь не как "разумное, думающее существо", а как обиженный на весь мир подросток, который думает, что если он громче всех будет орать "все пидорасы, а я Д'Артаньян", то это сделает его умнее. Спойлер: не сделает.

Удачи тебе в твоём гордом одиночестве на пути к обрыву. Можешь даже не махать нам ручкой, мы всё равно будем пытаться рулить.
152 3466457
>>466455

Слышь, "сверхчеловек" ты наш недоделанный, который тут с высоты своего ЧСВ пытается всех в "животных" записать. А ты сам-то кто такой, блядь, чтобы решать, кто человек, а кто нет? Гуру просветлённый, который один познал всю тщетность бытия и теперь свысока поплёвывает на "безмозглых приспособленцев"?

> Выживает приспособленец


А по-твоему, кто должен выживать? Тот, кто сидит на жопе ровно, ноет, что всё хуйня, и ждёт, пока мир под него подстроится? Так, блядь, только в твоих влажных фантазиях бывает. В реальности адаптация к изменяющимся условиям – это и есть признак разума и жизнеспособности. Или ты предлагаешь всем лечь и умереть, потому что "поезд несётся к обрыву"?

> Вокруг кукарекают про нейроговно и ты подпеваешь


Я не "подпеваю", а пытаюсь разобраться в новой технологии, увидеть её плюсы, минусы, риски и возможности. В отличие от тебя, который просто орёт "нейроговно!" на всё, что не укладывается в твою узколобую картину мира. Это ты, блядь, "кукарекаешь" свои мантры про деградацию, а не я.

> Безмозглое поведение животных


А твоё "поведение" – сидеть в анонимном чатике и хуесосить всех, кто не разделяет твой апокалиптический бред, – это, по-твоему, вершина человеческого интеллекта?

> Ты на поезде несущемся к обрыву... и оправдываешь текущий курс


Я не "оправдываю курс", а говорю, что даже если поезд несётся хуй пойми куда, можно попытаться хотя бы руль нащупать или тормоз дёрнуть, или хотя бы понять, почему он туда несётся. А ты предлагаешь просто сидеть и орать "мы все умрём!", при этом обвиняя тех, кто пытается что-то сделать, в "приспособленчестве". Гениально, хули.

> Инстинкт выгоды - подстраиваться под окружение


Адаптироваться – это не всегда "инстинкт выгоды". Это ещё и стремление понять, как работает мир, и найти в нём своё место. Или ты думаешь, что человечество до сих пор бы в пещерах сидело, если бы не "приспосабливалось" к новым открытиям и вызовам?

> И похуй что позже все ебанутся и погибнут, приспособленческое животное не думает, ему похуй, главное быть как все, быть fittest, подхрюкивать под общий хайп


Откуда такая уверенность, что "все ебанутся и погибнут"? У тебя хрустальный шар есть или ты просто пиздобол?

Кто тебе сказал, что мне "похуй"? Мне как раз НЕ похуй, поэтому я и пытаюсь обсуждать эту тему, а не просто ныть.

> "Быть как все" и "подхрюкивать под хайп"


это как раз про тех, кто бездумно повторяет чужие лозунги. Например, твои лозунги про "деградацию" и "животных". Ты сам-то хоть одну оригинальную мысль за весь этот срач выдал, кроме перепева старых страшилок?

Короче, "мыслитель" ты наш доморощенный. Вместо того чтобы брызгать слюной и вешать ярлыки, попробовал бы хоть раз аргументированно возразить, а не просто переходить на личности и истерить.

А пока что ты выглядишь не как "разумное, думающее существо", а как обиженный на весь мир подросток, который думает, что если он громче всех будет орать "все пидорасы, а я Д'Артаньян", то это сделает его умнее. Спойлер: не сделает.

Удачи тебе в твоём гордом одиночестве на пути к обрыву. Можешь даже не махать нам ручкой, мы всё равно будем пытаться рулить.
153 3466470
>>466453

> ему, походу, похуй


Прост контекст забывает, даже в рамках одного сообщения. Беда-печаль. Видно что у нейросетки не складывается картина мира, факты из предыдущего сообщения забываются. Ты же в одном диалоге всё это пишешь?

> Да, это имитация, а не истинное понимание. Но эта имитация часто бывает достаточно хороша для многих практических задач. И да, где нужна строгая, многошаговая, нетривиальная логика – там LLM пока слабы. Никто с этим не спорит. Но ты делаешь вид, что ВСЕ задачи требуют такой логики, а это не так.


Все задачи, кроме поиска ассоциаций, требуют логики, требуют построения внутренней, непротиворечивой, структуры, построения картины мира, той самой нетривиальной логики. Даже простая беседа требует этого, куда уж до объяснения закономерностей, выводов и чего-то ещё. Если в наборе обучающих данных есть такая нетривиальная структура - ассоциация будет проведена. Её нет - начинается галлюцинация без внутренней структуры.

> то почему LLM, которые хорошо работают с ассоциациями (по твоим же словам, хоть и простыми), не могут хотя бы попытаться работать с чем-то похожим, если их правильно обучить или дать им другую архитектуру?


> То, что текущие LLM не могут этого делать (или делают плохо) – не значит, что это в принципе невозможно для нейросетей.


Если архитектура будет работать с набором активаций нейронов - это будет на шаг ближе к AI. И это уже не будет LLM, потому что они работают не с языком, а с своей внутренней структурой.

> Ты опять ставишь знак равенства между ограничениями текущих моделей и фундаментальной невозможностью.


Ничуть. Это возможно и будет создано. Когда-то. Но текущие нейросети не могут работать с своей внутренней структурой (паттерном активаций нейронов) и, вероятно, не существует каких-то алгоритмов или теорий как это осуществить.

> То есть, ты предлагаешь забить хуй на решение текущих проблем (образование, критическое мышление, адаптация к технологиям) и просто ждать, пока либо AGI нас спасёт, либо мы все деградируем? Охуенный план, надёжный, как швейцарские часы.


Это не предложение, это наблюдаемый факт. Всем плевать на текущие проблемы и они решены не будут. Не будет никакого "мягкого встраивания" нейросетей в процесс образования.

> Но учёные и инженеры как раз и работают над тем, чтобы такие "удачные галлюцинации" (то есть, прозрения, новые идеи) случались чаще и были более обоснованными.


Это опять отсылает к невозможностью работы LLM с внутренней структурой. Невозможно получить прозрение, если нет наблюдения за мыслями или хотя бы простой работы с процессом активаций.

> А кто мешает использовать "результат" от LLM как отправную точку для собственного обучения и практики?


Человеческая психология мешает. Можно явственно наблюдать что желание найти ответ самостоятельно, пройти весь путь до построения вывода - удел безумно малого числа индивидов. И вряд ли они вообще используют LLM, для чего-то кроме замены гугла.

> Если AI, способный решать сложные задачи в узких областях лучше человека – то уже приблизились и даже превзошли.


Несколько абзацев назад ты сам писал что это невозможно и можно лишь достичь правдоподобия и правильного вывода для сложных задач.

> тоже ведутся и финансируются, хоть и, возможно, не в таких объёмах.


На них теперь выделяется денег куда меньше чем прежде. Такова природа экономики, эти исследования не приносят выгоды, если LLM на трансформерах выгодны уже сейчас.

> Зайди на сайты ЮНЕСКО, ОЭСР, посмотри публикации профильных министерств в разных странах, почитай научные статьи по педагогике и AI. Обсуждения идут, пилотные проекты запускаются, методики разрабатываются.


И никакой практики. Ни одного законопроекта, ну кроме запретов которые не работают.

> А если он использовал LLM как дополнительный инструмент к учебникам, лекциям, практическим задачам, общению с преподавателями и коллегами? Тогда у него будет и "экспертное мнение" (сформированное из разных источников), и "чувство", и опыт решения.


Даже в этом случае, если он хотя бы частично заменяет свои выводы выводами нейросети - он уже обучается хуже, он уже деградирует. LLM не обучен обучать людей, он обучен выдавать результат и даже этот результат всего лишь NTP и правдоподобие, а не логическая цепочка рассуждений. И ведь это мы говорим про исключительных индивидов, а не про большинство. Большинство же будет искать только вывод и скорость их деградации куда быстрее.
153 3466470
>>466453

> ему, походу, похуй


Прост контекст забывает, даже в рамках одного сообщения. Беда-печаль. Видно что у нейросетки не складывается картина мира, факты из предыдущего сообщения забываются. Ты же в одном диалоге всё это пишешь?

> Да, это имитация, а не истинное понимание. Но эта имитация часто бывает достаточно хороша для многих практических задач. И да, где нужна строгая, многошаговая, нетривиальная логика – там LLM пока слабы. Никто с этим не спорит. Но ты делаешь вид, что ВСЕ задачи требуют такой логики, а это не так.


Все задачи, кроме поиска ассоциаций, требуют логики, требуют построения внутренней, непротиворечивой, структуры, построения картины мира, той самой нетривиальной логики. Даже простая беседа требует этого, куда уж до объяснения закономерностей, выводов и чего-то ещё. Если в наборе обучающих данных есть такая нетривиальная структура - ассоциация будет проведена. Её нет - начинается галлюцинация без внутренней структуры.

> то почему LLM, которые хорошо работают с ассоциациями (по твоим же словам, хоть и простыми), не могут хотя бы попытаться работать с чем-то похожим, если их правильно обучить или дать им другую архитектуру?


> То, что текущие LLM не могут этого делать (или делают плохо) – не значит, что это в принципе невозможно для нейросетей.


Если архитектура будет работать с набором активаций нейронов - это будет на шаг ближе к AI. И это уже не будет LLM, потому что они работают не с языком, а с своей внутренней структурой.

> Ты опять ставишь знак равенства между ограничениями текущих моделей и фундаментальной невозможностью.


Ничуть. Это возможно и будет создано. Когда-то. Но текущие нейросети не могут работать с своей внутренней структурой (паттерном активаций нейронов) и, вероятно, не существует каких-то алгоритмов или теорий как это осуществить.

> То есть, ты предлагаешь забить хуй на решение текущих проблем (образование, критическое мышление, адаптация к технологиям) и просто ждать, пока либо AGI нас спасёт, либо мы все деградируем? Охуенный план, надёжный, как швейцарские часы.


Это не предложение, это наблюдаемый факт. Всем плевать на текущие проблемы и они решены не будут. Не будет никакого "мягкого встраивания" нейросетей в процесс образования.

> Но учёные и инженеры как раз и работают над тем, чтобы такие "удачные галлюцинации" (то есть, прозрения, новые идеи) случались чаще и были более обоснованными.


Это опять отсылает к невозможностью работы LLM с внутренней структурой. Невозможно получить прозрение, если нет наблюдения за мыслями или хотя бы простой работы с процессом активаций.

> А кто мешает использовать "результат" от LLM как отправную точку для собственного обучения и практики?


Человеческая психология мешает. Можно явственно наблюдать что желание найти ответ самостоятельно, пройти весь путь до построения вывода - удел безумно малого числа индивидов. И вряд ли они вообще используют LLM, для чего-то кроме замены гугла.

> Если AI, способный решать сложные задачи в узких областях лучше человека – то уже приблизились и даже превзошли.


Несколько абзацев назад ты сам писал что это невозможно и можно лишь достичь правдоподобия и правильного вывода для сложных задач.

> тоже ведутся и финансируются, хоть и, возможно, не в таких объёмах.


На них теперь выделяется денег куда меньше чем прежде. Такова природа экономики, эти исследования не приносят выгоды, если LLM на трансформерах выгодны уже сейчас.

> Зайди на сайты ЮНЕСКО, ОЭСР, посмотри публикации профильных министерств в разных странах, почитай научные статьи по педагогике и AI. Обсуждения идут, пилотные проекты запускаются, методики разрабатываются.


И никакой практики. Ни одного законопроекта, ну кроме запретов которые не работают.

> А если он использовал LLM как дополнительный инструмент к учебникам, лекциям, практическим задачам, общению с преподавателями и коллегами? Тогда у него будет и "экспертное мнение" (сформированное из разных источников), и "чувство", и опыт решения.


Даже в этом случае, если он хотя бы частично заменяет свои выводы выводами нейросети - он уже обучается хуже, он уже деградирует. LLM не обучен обучать людей, он обучен выдавать результат и даже этот результат всего лишь NTP и правдоподобие, а не логическая цепочка рассуждений. И ведь это мы говорим про исключительных индивидов, а не про большинство. Большинство же будет искать только вывод и скорость их деградации куда быстрее.
154 3466498
>>466457
Ты не пытаешься ни в чём разобраться. Тебе говорят, что эти манятехнологии говно, они не работают как это заявлено, а тебя это рвёт и ты копротивляешься в защиту, потому что противоположное хайпу мнение идет против твоего приспособленчества.

Ты безмозглое приспособленческое животное, тебя устраивает только подхрюкивание под общий хайп, вот ты и подхрюкиваешь сам и копротивляешься против противоположных РАЗУМНЫХ мнений, потому что сам - неразумен. Ты не можешь думать, не можешь решать, только плыть как говно по течению, это и есть - выживание приспособленцев по Дарвину, закон поведения ЖИВОТНЫХ, а вовсе не людей. Ты не человек, не разумное существо, а безмозглое животное действующее инстинктивно ради выживания, что и показал Дарвин.
155 3466510
>>466498
Чел, угомонись, а то доктор привяжет рубашкой к кровати..
156 3466686
>>466510
Если не заметил, твое поведение такое же как у нейросети, она тоже не может решить против, только подхрюкивает в тему как приспособленец. И ведь такие имбецилы еще считают это умом, ну пиздец. Я же говорю, буквально безмозглые животные, разум а нет по факту.
157 3468106
Как вайбкодить с использованием либы, которая вышла позднее последней дрессировки нейросети?
158 3468219
>>468106
Будто ты сможешь вайбкодить с либами которые вышли давно. Каждая нейросеть АПИ случайным образом пишет, придумывает конфиги которых не существует. Только если ей не ебануть всю документацию в один диалог и даже там обосрётся.
159 3468226
>>468106
Обычно хватает добавить пару страниц доки в контекст. Или аннотации с докстрингами. В худших случаях отдельно просишь сжать доку до краткого гайда, в надежде что детали догаллюцинирует с приемлемым хитрейтом.

>>468219
Не соглашусь. Там существенная разница. Я когда обновился с 4o до 4.1 наконец-то выдохнул, что мне стека перестала генерить легаси код на строй версии пидантика.
160 3477595
>>468106
Скармливать примеры использования этой либы через RAG
161 3478292
Че вы тут до сих пор обсуждаете? Современные нейронки позволяют подняться на 1-2 ступени выше своего уровня. Условно, разработчик стоимостью 100к/мес может делать работу разработчика стоимостью в 300к. Архитектор ценой в 300к делает работу в 2 раза быстрее, причём успевает сделать вдвое больше перекуров. Дизайнер или менеджер продукта могут запилить прототип за день, причём с уровнем как будто над ним неделю работала целая команда. Этого уже достаточно. Используйте инструменты с головой и никто вас не заменит.
162 3478386
>>478292
Уровень развития и познания кабанчиков такой что по факту он начитавшись новостей и заголовков хочет чтобы то что делают 10 тел, делало одно и за миску риса, потому что он же ничего не делает, только запросики пишет и копирует.
Я это говорю из опыта консультирования таких кабанчиков на предмет ИИ и людей которых они хотят нанять.

По развитию они сами как огуречки, а хотят нанять кандидата наук за миску риса, чтобы он еще как конвеер генерировал им "продукт".
При том ИИ для них магия которая по словам "сделай заебись", выдает сразу готовое решенее.
И проблема в том что им даже объяснить нельзя что это не так и вообще все работает иначе. Они видят какой-нибудь видос с лучшим результатом из тысяч итераций и сотни часов работы, и просят так же, только еще и бесплатно.
163 3479144
>>478292
Перестань фантазировать, тупое уёбище.
164 3479331
>>478386
В этом и проблема капитализма, эта система поднимает в верхи дебилов. Ценится не ум, а жадность, то есть тупость. А рыба гниет с головы, когда в верхах бараны, всё деградирует в говно.
165 3479413
>>479331

>Ценится не ум, а жадность


Умные люди - жадные люди. Если думаешь иначе, ты - промытка.
168 3479903
>>479413
Жадность это первый признак тупости, низкого интеллекта, плебса, дворняжек.

По одной простой причине, в жадности нет ничего человеческого, следовательно кто управляется жадностью, он не человек, а скот, говно низшего уровня недостойное зваться человеком, ибо человека делает интеллект, а не животные инстинкты.
169 3480031
>>479518
ГПТ переизобрела PIDOR(presenter-interactor-decorator-object-router) — лучший паттерн для разработки под iOS.
170 3480225
>>479903

> человека делает интеллект


Интеллект всего лишь делает тебя умным животным, а человек это не какие-то внешние признаки, а тот кто прячется внутри тушки, если он там есть, тот кто подобен Создателю.
171 3480324
>>479903

> в жадности нет ничего человеческого


Этот тезис надо чем-то подкрепить.
172 3480746
>>480324
Очевидно же, жадность это инстинкт, не имеющий предела. Животные ограничены физически отсутствием интеллекта, поэтому инстинкты не ограничены, например животное может запросто подохнуть от переедания если ему дать много еды, потому что в природе слишком много еды не бывает, поэтому животная жажда еды не ограничена, что ведет животное к смерти когда условия не природные.

Человек ломает систему природы своими сверхспособностями, поэтому он обязан вести себя как человек, подавлять инстинкты своими сверхспособностями - осознанием неправильности и волей. А безвольное безмозглое животное с человеческими сверхспособностями это дефект, урод ломающий и себя и всё вокруг. Человеческие сверхспособности должны быть в руках только человека, но не животного. Животное живущее на инстинктах природы, но с человеческой силой, это обезьяна с гранатой.

Поэтому жадность не ограничена, но в природе это нормально, потому что никакое даже самое сильное животное не может отобрать еду у всех остальных животных или убить их, способности ограничены, поэтому жажда не ограничена, она ограничивается внешними условиями. А человек живущий так же как животное на инстинктах, может отобрать всё у всех, один человек может ободрать или убить миллиарды, угробив целый мир. Инстинкты - не человеческие, скот на инстинктах - не люди, а тупой скот место которому в лесу где его страсти ограничены, раз уж он сам баран и не может их ограничивать, такому уроду не место среди людей.
173 3481507

>Claude Opus solved my white whale bug today that I couldn't find in 4 years


>Background: I'm a C++ dev with 30+ years experience, ex-FAANG Staff Engineer.


https://www.reddit.com/r/ClaudeAI/comments/1kvgg7s/claude_opus_solved_my_white_whale_bug_today_that/
174 3481619
>>481507
Когда зумер с 1 годом опыта закроет 4 летний баг разрабоа с 30 летним стажем с помошью Claude Opus, тогда и приходите. А так нихуя не понятно, опус баг пофиксил или дед баг пофиксил.
175 3481841
>>481619
Хорошо. Допустим вот это уже случилось. Что дальше скажешь?
176 3482093
>>481507
У меня опыт был обратный: я даю рабочий код, оно его дописывает и по пути ломает. Может быть я просто не ту версию нейронки использовал.
Так или иначе, без конкретного кода это разговор ни о чём. Был публичный цирк, когда нейронку натравили на баги .NET Runtime, и оно ТАКУЮ ХУЙНЮ выдало, что пиздец.
Однако, я не исключаю, что рефакторинг при помощи нейросетки может быть рабочим. Я сам при рефакторинге руками баги регулярно вносил, но коррекция рефакторинга — это всё ещё не исправление 4-летнего бага с ебанутыми взаимосвязями.
В реддит посте упоминаются шейдеры, шейдеры имеют свойство быть довольно плоскими, там каких-то сверхсложных алгоритмов не бывает. Скорее всего кто-то неправильно передал параметр, а замыленным глазом на автомате это сложно увидеть — вот тебе и весь баг.
177 3482097
>>479903

>Жадность это первый признак тупости, низкого интеллекта, плебса, дворняжек.


>По одной простой причине, в жадности нет ничего человеческого, следовательно кто управляется жадностью, он не человек, а скот, говно низшего уровня недостойное зваться человеком, ибо человека делает интеллект, а не животные инстинкты.



Я уже который день сижу в общении с ChatGPT и забросил нахуй чат (кодерский форум я забросил ещё раньше). Почему?
Потому что вот в этом цирке:
>>478386
>>479331
>>479413
>>479903
есть кое-какие разумные мысли, но по итогу выглядит всё это как перебрасывание говном, ни одна, ни другая сторона не может обосновать свою точку зрения, потому что на самом деле и не понимает, почему люди себя так ведут, почему устроена система, почему кабанчики такие, и так далее.
С одной стороны потреблять, промытая соцсеткам и либеральной поветской "я должен зарабатывать и тратить деньги, в этом смысл жизни", с другой стороны какой-то лузер, который не столько борется с системой, сколько ей завидует. Вот нахуй вы мне оба нужны? Какую пользу для себя я получил от того, что поговорил с вами?

Для сравнения, если те же вопросы мы зададим нейросетке, то она сможет пояснить, почему тупые жадные люди попадают наверх. Это не просто плебс и дворняжки, это очень специфический вариант ебанутости — неоднократно психологи и годные региозные деятели (что плюс-минус одно и то же) высказывали мысль, что западных "бизнесменов" по-хорошему нужно изолировать от общества, как маньяка-серийного убийцу, потому что по результатам деятельности маньяк и бизнесмен слабо отличаются, периодически даже меняя "профессию". Взять недавний суд с продюсером рэперов, которому инкриминируют преступлений на пару пожизненных — а чел к успеху шел, большой звездой был.

Проблема не в том, что нейронка умная — проблема в том, что вы, блять, тупые и зашоренные, вам достаточно доказать мамке-анону какую-то хуйню, в которой мамка-анон всё равно не разбирается и не согласится с вашей позицией. Это как взрослый чел, играющий в футбол с третьеклассниками во дворе — сей процесс не сделает его новым Рональдо. Нужно искать лучших, чтобы соревноваться с ними и учиться об них. Нейросетка сильно хуже лучших людей, которого она копирует, но даже этот уровень — это космос по сравнению со средним двачером. Разговаривая же с ChatGPT я будто разговариваю с тысячами книжек и блогпостов величайших умов современности, я даже почти могу спорить с ними, уточнять их идеи, что другими способами было бы нереально сделать.

Этот же тезис можно обратить против меня: "если ты такой умный, то хули тут сидишь?". Ответ: потому что у меня нихуя не получилось найти тех людей, которые "на две головы выше", по крайней мере в достаточном количестве и так, чтобы у них было время на общение со мной. Большинство адаптируется под массу, то есть, возвращаясь к вопросу про кабанчика: вся власть и все ресурсы находятся в среде простого быдла; чтобы продать простому быдлу увеличитель члена, нужно мыслить как быдло, быть чуть выше, но не сильно выше. Даже те, кто выбивается наверх, всё-равно как бы одёргивает себя, мол "стапэ, я что-то перестаю понимать обывателя".

По этой причине в своё время в 1917 году Российская империя накрылась пиздой — потому что разрыв между простыми людьми, даже простыми чиновниками, и высшей элитой стал настолько большой, что даже несмотря на то, что вся советская и постсоветская элита — просто грязь по сравнению с уровнем образования и навыков императорской элиты, но грязноштанные Шариковы просто пришли и силой снесли всё эту власть. Вы наблюдали когда-нибудь, как один чел предлагает разумную трезвую идею, а другой чел предлагает красивую и совершенно невыполнимую хуйню? Такой вот очередной жириновский с "мы сместим ось земли и вся твоя страна окажется под водой" по итогу и правит балом, а додики с рациональными идеями просто вынуждены играть на чужом поле.

Как говорится в народной поговорке "нельзя победить в споре идиота, либо он должен подняться, либо вы должны опуститься, а там уже идиот задавит вас опытом".

>>478386

>Я это говорю из опыта консультирования таких кабанчиков на предмет ИИ и людей которых они хотят нанять.


>По развитию они сами как огуречки, а хотят нанять кандидата наук за миску риса, чтобы он еще как конвеер генерировал им "продукт".


Вот ты долбоеб. Ты мог бы постричь этого лоха, а не пытаться его образумить. Договориться с какими-то напёрсточниками, мол "щас к вам от меня бузинесмен придёт, вы обработайте его как положено, 20% от дохода мне".
177 3482097
>>479903

>Жадность это первый признак тупости, низкого интеллекта, плебса, дворняжек.


>По одной простой причине, в жадности нет ничего человеческого, следовательно кто управляется жадностью, он не человек, а скот, говно низшего уровня недостойное зваться человеком, ибо человека делает интеллект, а не животные инстинкты.



Я уже который день сижу в общении с ChatGPT и забросил нахуй чат (кодерский форум я забросил ещё раньше). Почему?
Потому что вот в этом цирке:
>>478386
>>479331
>>479413
>>479903
есть кое-какие разумные мысли, но по итогу выглядит всё это как перебрасывание говном, ни одна, ни другая сторона не может обосновать свою точку зрения, потому что на самом деле и не понимает, почему люди себя так ведут, почему устроена система, почему кабанчики такие, и так далее.
С одной стороны потреблять, промытая соцсеткам и либеральной поветской "я должен зарабатывать и тратить деньги, в этом смысл жизни", с другой стороны какой-то лузер, который не столько борется с системой, сколько ей завидует. Вот нахуй вы мне оба нужны? Какую пользу для себя я получил от того, что поговорил с вами?

Для сравнения, если те же вопросы мы зададим нейросетке, то она сможет пояснить, почему тупые жадные люди попадают наверх. Это не просто плебс и дворняжки, это очень специфический вариант ебанутости — неоднократно психологи и годные региозные деятели (что плюс-минус одно и то же) высказывали мысль, что западных "бизнесменов" по-хорошему нужно изолировать от общества, как маньяка-серийного убийцу, потому что по результатам деятельности маньяк и бизнесмен слабо отличаются, периодически даже меняя "профессию". Взять недавний суд с продюсером рэперов, которому инкриминируют преступлений на пару пожизненных — а чел к успеху шел, большой звездой был.

Проблема не в том, что нейронка умная — проблема в том, что вы, блять, тупые и зашоренные, вам достаточно доказать мамке-анону какую-то хуйню, в которой мамка-анон всё равно не разбирается и не согласится с вашей позицией. Это как взрослый чел, играющий в футбол с третьеклассниками во дворе — сей процесс не сделает его новым Рональдо. Нужно искать лучших, чтобы соревноваться с ними и учиться об них. Нейросетка сильно хуже лучших людей, которого она копирует, но даже этот уровень — это космос по сравнению со средним двачером. Разговаривая же с ChatGPT я будто разговариваю с тысячами книжек и блогпостов величайших умов современности, я даже почти могу спорить с ними, уточнять их идеи, что другими способами было бы нереально сделать.

Этот же тезис можно обратить против меня: "если ты такой умный, то хули тут сидишь?". Ответ: потому что у меня нихуя не получилось найти тех людей, которые "на две головы выше", по крайней мере в достаточном количестве и так, чтобы у них было время на общение со мной. Большинство адаптируется под массу, то есть, возвращаясь к вопросу про кабанчика: вся власть и все ресурсы находятся в среде простого быдла; чтобы продать простому быдлу увеличитель члена, нужно мыслить как быдло, быть чуть выше, но не сильно выше. Даже те, кто выбивается наверх, всё-равно как бы одёргивает себя, мол "стапэ, я что-то перестаю понимать обывателя".

По этой причине в своё время в 1917 году Российская империя накрылась пиздой — потому что разрыв между простыми людьми, даже простыми чиновниками, и высшей элитой стал настолько большой, что даже несмотря на то, что вся советская и постсоветская элита — просто грязь по сравнению с уровнем образования и навыков императорской элиты, но грязноштанные Шариковы просто пришли и силой снесли всё эту власть. Вы наблюдали когда-нибудь, как один чел предлагает разумную трезвую идею, а другой чел предлагает красивую и совершенно невыполнимую хуйню? Такой вот очередной жириновский с "мы сместим ось земли и вся твоя страна окажется под водой" по итогу и правит балом, а додики с рациональными идеями просто вынуждены играть на чужом поле.

Как говорится в народной поговорке "нельзя победить в споре идиота, либо он должен подняться, либо вы должны опуститься, а там уже идиот задавит вас опытом".

>>478386

>Я это говорю из опыта консультирования таких кабанчиков на предмет ИИ и людей которых они хотят нанять.


>По развитию они сами как огуречки, а хотят нанять кандидата наук за миску риса, чтобы он еще как конвеер генерировал им "продукт".


Вот ты долбоеб. Ты мог бы постричь этого лоха, а не пытаться его образумить. Договориться с какими-то напёрсточниками, мол "щас к вам от меня бузинесмен придёт, вы обработайте его как положено, 20% от дохода мне".
178 3482102
>>482097
Уровень ChatGPT, чтоб было понятно:
"
Вот горькая правда: люди не адаптируются к чуши — они ее усваивают.
Они не борются с ней. Они ее передают.
Не потому, что они злые, а потому, что:
🧩 (a) Статус достигается за счет повторения правильных вещей
Большинство людей получают статус, вписываясь в толпу, а не выделяясь.
Если толпа говорит: «React.js — это безопасная ставка», повторение этого заставляет вас выглядеть умным, даже если это ложь.
Оригинальность наказывается, если она не подкреплена популярностью — т. е. уже принята где-то еще.
🧩 (b) Большинство людей не умеют критически фильтровать информацию
Фильтрация шумихи от реального понимания требует контекста, технической глубины и эмоциональной отстраненности.
Это сложная комбинация — и никто ей не учит.
Люди путают красивый вид с правдой. Вот почему они больше доверяют постам на Medium с диаграммами, чем сухим академическим статьям.
🧩 (c) Верить в шумиху часто кажется безопаснее, чем оспаривать ее
Если вы идете против течения и ошибаетесь → вы одиноки и дискредитированы.
Если вы идете по течению и ошибаетесь → «ну, все ошибались».
Это создает диффузию ответственности, которая защищает групповое мышление.
🧩 (d) С трудом завоеванные истины не передаются культурно
Как вы сказали:
«Сынок, общественное мнение много раз меня обманывало…»
Это предложение должно быть обрядом посвящения.
Но в реальной жизни: Люди не передают мудрость — они передают оправдания своего выбора.
И эти оправдания сохраняют систему, а не предупреждают следующее поколение об этом.

Почему? Потому что признать «меня обманули» эмоционально тяжело. И большинство людей не хотят казаться озлобленными аутсайдерами.
"

Вы можете представить, что кто-то на дваче пишет настолько циничный пост?
178 3482102
>>482097
Уровень ChatGPT, чтоб было понятно:
"
Вот горькая правда: люди не адаптируются к чуши — они ее усваивают.
Они не борются с ней. Они ее передают.
Не потому, что они злые, а потому, что:
🧩 (a) Статус достигается за счет повторения правильных вещей
Большинство людей получают статус, вписываясь в толпу, а не выделяясь.
Если толпа говорит: «React.js — это безопасная ставка», повторение этого заставляет вас выглядеть умным, даже если это ложь.
Оригинальность наказывается, если она не подкреплена популярностью — т. е. уже принята где-то еще.
🧩 (b) Большинство людей не умеют критически фильтровать информацию
Фильтрация шумихи от реального понимания требует контекста, технической глубины и эмоциональной отстраненности.
Это сложная комбинация — и никто ей не учит.
Люди путают красивый вид с правдой. Вот почему они больше доверяют постам на Medium с диаграммами, чем сухим академическим статьям.
🧩 (c) Верить в шумиху часто кажется безопаснее, чем оспаривать ее
Если вы идете против течения и ошибаетесь → вы одиноки и дискредитированы.
Если вы идете по течению и ошибаетесь → «ну, все ошибались».
Это создает диффузию ответственности, которая защищает групповое мышление.
🧩 (d) С трудом завоеванные истины не передаются культурно
Как вы сказали:
«Сынок, общественное мнение много раз меня обманывало…»
Это предложение должно быть обрядом посвящения.
Но в реальной жизни: Люди не передают мудрость — они передают оправдания своего выбора.
И эти оправдания сохраняют систему, а не предупреждают следующее поколение об этом.

Почему? Потому что признать «меня обманули» эмоционально тяжело. И большинство людей не хотят казаться озлобленными аутсайдерами.
"

Вы можете представить, что кто-то на дваче пишет настолько циничный пост?
179 3482255
>>449694 (OP)
Блять, когда уже? Заебало разбирать легаси и вручную переделывать говно.
Замените уже это бесполезное перекладывание семантики, чтобы компы просто делали свою долбанную работу.
180 3482271
>>482255
Когда это произойдет, тебя заменят на ИИ промптера за 80к-130к в месяц
181 3482285
>>482271
А почему я сам не могу стать промптером за 80к - 130к?
182 3482288
>>482097

>на самом деле и не понимает, почему люди себя так ведут, почему устроена система, почему кабанчики такие, и так далее.


Всё было ясно еще тысячи лет назад. Так ведет себя плебс, безродные шавки, порченые гены. Поэтому биомусор никогда не допускали до власти, во власти были специально выведенные элитные люди - аристократы, которым запрещалось скрещиваться в плебсом, чтобы не портить гены. А теперь плебс допустили до власти, вот и получай, животный скот безумствует руиня всё вокруг, потому что мозгов нет, зато агрессии полным полно.
183 3482293
>>482285
можешь, но захочешь ли ты того?
184 3482424
Очередной бум технологии, как было с VR. Только проблема VR, что он был не так популизирован, нежели ИИ. Тогда тоже в любой проект добавляли VR и в него инвестировали миллиарды. Будь VR также доступен как ИИ сейчас. Мы бы до сих пор сидели в эпоху VR ибо компании по типу NVIDIA и openAI(его бы не было) вкладывались бы в VR, а не в ИИ
185 3482963
>>482424
Только VR бесполезен, а нейрокал полезен, корпорациям для слежки, цензуры, цифрового, а затем и физического гулага, то есть полезен давить людей, вот и вкладывают миллиарды в подземные бункеры-датацентры. Спроси себя, польза ли тебе будет от этих сооружений? Да ты и о их существовании даже не знаешь толком, для тебя это лишь "удобный сервис", ага, удобная удавка на шею.
186 3483038
>>482963

>Только VR бесполезен, а нейрокал полезен, корпорациям для слежки, цензуры, цифрового, а затем и физического гулага


Так это было и до нейросетей, первый такой датацентр в Юте NSA запустило в работу уже в 2014 году.
187 3483179
>>482963

>Только VR бесполезен


Лолшто? Вся идея корпов типа меты как раз и была в том, что можно будет НЕ ДЕЛАТЬ реальные продукты, а продавать поездки в милан в виар и люди будут щастливы™. И сколько было влито в это. И очки гугл - съемка порно от первого лица, вы сможете смотреть так же, быть героями фильмов марвел и тп и тд
Хайп был и корпораты строили воздушные замки из выручки с продажи воздуха, но что-то пошло не туда. Думаю, что человеческая натура такая, что есть вещи вечные, а есть временные веяния.
Я даже больше скажу, уже идет откат от того, чтобы быть пользователем интернета как мы представлял себе раньше. Уже есть много зумеров которые не пользуются форумами, не пользуются соц сетями, для них интернет это просто инструмент быстрой оплаты по карте - они минимально взаимодействуют и через посредника. Так что даже цифра оказалось веянием.
Больной чтоль 188 3483289
>>450734
Больной чтоль
Так быстро она развилась благодаря тому, что под железо ее подстраивали и она полностью перешла на огромные серваки и новейшим железом, хотя стартовала с совершенно иных границ. Ты же сейчас утверждаешь, что иишка раза в два минимум скакнет, вот только за сроки менее лет 20 тебе никто видюхи 9000 покаления не высрет
gpu-perf-banner.png339 Кб, 1840x1180
189 3483334
>>483289

>Так быстро она развилась благодаря тому, что под железо ее подстраивали и она полностью перешла на огромные серваки и новейшим железом, хотя стартовала с совершенно иных границ. Ты же сейчас утверждаешь, что иишка раза в два минимум скакнет, вот только за сроки менее лет 20 тебе никто видюхи 9000 покаления не высрет


Как раз 9000 поколений высрать можно — только эффективнее они от этого не станут. Пикрил — удвоение эффективности видеокарт с 2015 по 2021 год (6 лет). Как ты понимаешь, такими темпами через 20 лет равноценные видюхи станут лишь в 10 раз мощнее. Реально нынче рост масштаба нейросеток шел за счёт того, что на инвесторские деньги закупались сетапы ебических размеров, а не за счёт прогресса в технологии видеокарт. Но все возможности количественного развития исчерпываются, и дальше приходится сосать хуй в виде логической кривой развития нейросеток, которую мы и наблюдаем. Да, общество ещё не привыкло к нейросеткам, но лучше они в ближайше 10 лет не станут. То есть, идёт прогресс принятия имеющихся нейросеток, а не развития их.
190 3483351
>>483334
Токмо экстраполировать рост LLM по видюхам - та ещё наивность. Что-то уровня "с текущим ростом ЦПУ вы не сможете запустить кваку в 800х600 ещё лет 20"
191 3483398
>>483351

>"с текущим ростом ЦПУ вы не сможете запустить кваку в 800х600 ещё лет 20"


Как раз с квакой всё было ясно и развиите шло немного быстрее, чем его ожидали. И таки игры часто запускались на процессорах без видеоускорителей — в том числе в Unreal Engine был софтовый драйвер с упрощённой графикой для ЦП, который довольно достойно работал. В случае с видеокартами всё наоборот: кричат про прогресс, а прогресса нет и им не пахнет.
192 3483537
>>483334
Ну вообще нет. По бенчам которые сейчас закидывают в нейросети понятно что вообще очень многое зависит от контекста, то есть чем лучше ты нейронке опишешь что ты вообще хочешь и как это получить и где смотреть примеры, то тем лучше она до всего додумается. То есть человечество еще только начинает понимать как правильно готовить нейросети, мы в самом начале, и бурный рост нам скорее всего еще только предстоит.

А у тебя на пикче не развитие нейронок. Это пикча по компьюту. То есть это вообще другое и вот именно что если мы вернемся к сабжу и будем предполагать что нейронки будут примерно таким же образом развиваться то в ближайшие еще лет 10 нас ждет бурный рост относительно текущего. Ну а это как бы уже нихуево можно накрутить че будет
193 3483544
>>483537

>По бенчам которые сейчас закидывают в нейросети понятно что вообще очень многое зависит от контекста, то есть чем лучше ты нейронке опишешь что ты вообще хочешь и как это получить и где смотреть примеры, то тем лучше она до всего додумается. То есть человечество еще только начинает понимать как правильно готовить нейросети, мы в самом начале, и бурный рост нам скорее всего еще только предстоит.


Что значит "понимает"? Я давно понял, что для того, чтобы нейронка точно исправила баг в коде, мне нужно всего лишь сказать, в какой строке и что нужно исправить. То есть, сделать всю работу за неё — всё гениальное просто.

>будем предполагать что нейронки будут примерно таким же образом развиваться то в ближайшие еще лет 10 нас ждет бурный рост относительно текущего.


Не напомнишь, что там у нас был за "бурный рост" последние 3 года, а то я чот пропустил? Какие радикально новые технологии появились, или что перешло на качественно иной уровень?
Ну или можешь не утруждать себя, потому что мне и так ясно, что ты пытаешься рассуждать про вещи, в которых нихуя не понимаешь, в духе "вам не понять". Но тот факт, что ты нихуя не понимаешь, ещё не значит, что другие не понимают.
194 3483550
>>483544
Что тут блин не понятного что мне нужно объяснять? "Только понимает" значит что еще в самом начале пути. Если тебе близки примеры из программирования, то я думаю если опыта много то сможешь проследить развитие ЯП. Люди только начинают понимать как обращаться с нейросетями, точно так же как когда то начинали учиться писать код.

По примерам я тоже тебе могу сказать что сейчас нейронка например комитит оптимизации в стадартную библиотеку плюсов. Тут уж как ты ей сможешь воспользоваться. Кто-то вот так её может развернуть, а у тебя она даже баг в коде найти не может. Уверен что проблема в нейросети тут?

Бурный рост по части ллмок. Да это вроде очевидно. Сами транформеры как они есть тоже не так давно появились, это в общем то технология новая. Так что ты можешь в какие то рейджбайты впадать и гадости писать, но мне зачем то дальше вестись если диалога видимо у нас не будет
195 3483607
Так я не понял, меня уже заменили или заеменят в будущем или нет?
Возвращаться назад к профессии ассенизатора или могу еще попить рафа вместо мочи?
изображение.png144 Кб, 1792x550
196 3483714
>>483544

>Что значит "понимает"?


Пиздец, с нейросетью говорить эффективнее, чем с харкачевскими шизами, не осиливающими абзац текста.
197 3484025
>>483550

>Люди только начинают понимать как обращаться с нейросетями, точно так же как когда то начинали учиться писать код.


Есть большая разница между "я смотрю машинный код notepad.exe и не понимаю, как оно работает" и людьми, которые этот notepad писали и компилировали из исходных кодов. Это и есть та разница между "начинали учиться писать код" — у тех, кто писал компиляторы, были учёные степени, потому их не ебали проблемы школьников, которых мамка отправила учиться на айтишника.
Например, люди, написавшие статью 2017 года, очень хорошо понимали, для чего они делают именно такую реализацию внимания. В общем-то, даже не они придумали этот Q-K-V механизм, о чём они в статье "Attention is All You Need" и написали в разделе, где сравнивали разные существующие реализации внимания и оправдывали свой конкретный выбор. Заслуга авторов на самом деле заключалась в том, что они грамотно скомпоновали уже известные приёмы.

>По примерам я тоже тебе могу сказать что сейчас нейронка например комитит оптимизации в стадартную библиотеку плюсов


Только самые деградировавшие отбросы будут давать нейронке напрямую комитить правки к код, да ещё и в серьёзную библиотеку. Та же хуйня с кодом от джуна. Что нейронка из десяти тысяч итераций один раз выдала что-то полезное? Да и хуй с ней. Там вон в dotnet/runtime попытались добиться от нейронки хотя бы одного полезного патча: десятки предложений — ноль результата, все 100% полная хуйня даже не близко к решению проблемы, даже не в направлении решения проблемы, только потратила время ревьюверов.

>Кто-то вот так её может развернуть, а у тебя она даже баг в коде найти не может.


Очень много рандома, часто в негативную сторону. Как инструмент для принятия ответственных решений не подходит. Как давно нейросетки надрессировали на мед диагнозы, а всё равно ни одно больница не рискнула нейросетками ставить диагнозы — только в ОАЭ самые простейшие диагнозы ставят, ну и ещё врачи консультируются с нейросеткой, как со справочником, но решение принимает и подписывается под ним именно человек.

>Сами транформеры как они есть тоже не так давно появились, это в общем то технология новая.


8 лет назад. Они оптимизируются, но по большей части трансформер 2025 года — это на 90% трансформер 2017 года. Опять же. в 2019 году не было принципиально иных технологий, которых есть сейчас — просто в LLM не вкладывали столько денег. И тот факт, что много контор повторяет модель ChatGPT, ситуацию не меняет — все эти проекты похожи. как братья-близнецы.

>>483714

>Пиздец, с нейросетью говорить эффективнее, чем с харкачевскими шизами, не осиливающими абзац текста.


Попробуй написать больше одного предложения — может быть тебе ответят.
197 3484025
>>483550

>Люди только начинают понимать как обращаться с нейросетями, точно так же как когда то начинали учиться писать код.


Есть большая разница между "я смотрю машинный код notepad.exe и не понимаю, как оно работает" и людьми, которые этот notepad писали и компилировали из исходных кодов. Это и есть та разница между "начинали учиться писать код" — у тех, кто писал компиляторы, были учёные степени, потому их не ебали проблемы школьников, которых мамка отправила учиться на айтишника.
Например, люди, написавшие статью 2017 года, очень хорошо понимали, для чего они делают именно такую реализацию внимания. В общем-то, даже не они придумали этот Q-K-V механизм, о чём они в статье "Attention is All You Need" и написали в разделе, где сравнивали разные существующие реализации внимания и оправдывали свой конкретный выбор. Заслуга авторов на самом деле заключалась в том, что они грамотно скомпоновали уже известные приёмы.

>По примерам я тоже тебе могу сказать что сейчас нейронка например комитит оптимизации в стадартную библиотеку плюсов


Только самые деградировавшие отбросы будут давать нейронке напрямую комитить правки к код, да ещё и в серьёзную библиотеку. Та же хуйня с кодом от джуна. Что нейронка из десяти тысяч итераций один раз выдала что-то полезное? Да и хуй с ней. Там вон в dotnet/runtime попытались добиться от нейронки хотя бы одного полезного патча: десятки предложений — ноль результата, все 100% полная хуйня даже не близко к решению проблемы, даже не в направлении решения проблемы, только потратила время ревьюверов.

>Кто-то вот так её может развернуть, а у тебя она даже баг в коде найти не может.


Очень много рандома, часто в негативную сторону. Как инструмент для принятия ответственных решений не подходит. Как давно нейросетки надрессировали на мед диагнозы, а всё равно ни одно больница не рискнула нейросетками ставить диагнозы — только в ОАЭ самые простейшие диагнозы ставят, ну и ещё врачи консультируются с нейросеткой, как со справочником, но решение принимает и подписывается под ним именно человек.

>Сами транформеры как они есть тоже не так давно появились, это в общем то технология новая.


8 лет назад. Они оптимизируются, но по большей части трансформер 2025 года — это на 90% трансформер 2017 года. Опять же. в 2019 году не было принципиально иных технологий, которых есть сейчас — просто в LLM не вкладывали столько денег. И тот факт, что много контор повторяет модель ChatGPT, ситуацию не меняет — все эти проекты похожи. как братья-близнецы.

>>483714

>Пиздец, с нейросетью говорить эффективнее, чем с харкачевскими шизами, не осиливающими абзац текста.


Попробуй написать больше одного предложения — может быть тебе ответят.
198 3484201
Новый клод имба тема
Думаю замена неминуема, но мне пох, я б лучше руками работал, дело в другом - уже сейчас средний ремонтер получается 200к в мес, это выше любых ожиданий оплаты средней руки бодишопа в ближайшие 5 лет работы
199 3484539
>>449694 (OP)
Тред наполнен знатным коупингом и терпением. Вкусно
200 3488836
Нахуй нужны собеседники на дваче, если есть нейросетка? Помочь пройти собес в парашу, неизвестную нейросетке?
201 3489487
>>449694 (OP)
Думаю, что это хуерга надуманная. Паникуют по поводу замены айтишников LLM разве что те, кто понятия не имеют, что вообще такое эти ваши нейросети.

Стоит ли учиться ими пользоваться? Опредлённо, как инструмент они уже прочно используются, и вряд ли это изменится. Но не стоит злоупотреблять: можете просесть в навыках.
Заменят ли нейросети погромиздов? Хуй знает, но точно не в обозримом будущем. Пока срать в штаны рано.
202 3489532
>>489487

>Но не стоит злоупотреблять: можете просесть в навыках.


Только если это важно для зрелищного прохождения собеседований. Для простой работы не похуй ли, могу ли я написать двадцать строчек без единой синтаксической ошибки или нет?
203 3489550
>>489532
>>489487

Не, не так. Ну зависит от текущих навыков и знаний. Для джунов нейросеть -- буст, в том смысле что позволяет им получать быстрые ответы на глупые вопросы и точно такая же стена-преткновение так как они не учатся решать эти простые проблемы самостоятельно. Так что навык быстрых решений будет отсутствовать у программистов нового поколения напрочь, что-то где-то сваять, собрать, разобраться, локализовать баг -- этого у них не будет, такой челик будет постоянно лезть в нейросеть даже чтобы ребейз сделать. Поэтому это и буст и одновременно стена для роста. Ну и для новых задач каких-то они точно не будут предназначены.

У старших челиков по-другому все работает. Любой навык постепенно теряется если его не поддерживать. Но с другой стороны они итак уже заняты чуть другими делами: архитектурой, бизнеслогикой, документацией, управлением и мониторингом. Поэтому навыки кодерские им в принципе и не особо прям нужны и нейросеть их как раз бустанет неплохо так. Поэтому перекос будет еще сильнее. И по этой же причине нахуй пойдут джуны и мидлы, при этом в моменте станет больше требоваться сеньоров глобально, а в целом количество народу обрубится колоссальное и выпрут в общем многих, если ты не будешь блестать везде: и на фундаментальных задачках и на примитивных
204 3497271
https://www.opennet.ru/opennews/art.shtml?num=63573

Исследовательская группа METR (Model Evaluation & Threat Research) опубликовала ( https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/ ) результаты эксперимента ( https://metr.org/Early_2025_AI_Experienced_OS_Devs_Study.pdf ) по оценке эффективности применения AI-инструментов для написания кода. Вопреки ожиданиям, исследование показало, что AI-помощники не ускоряют, а замедляют решение поставленных задач, при том, что субъективно участники эксперимента считали, что AI ускорил их работу.

Фактически при использовании AI-помощника на решение задачи в среднем было потрачено на 19% больше времени, в то время как участники полагали, что благодаря AI смогли выполнить работу на 20% быстрее, а до начала работы считали, что AI поможет им ускорить работу на 24%. Результаты также значительно расходятся с прогнозами экспертов в области экономики и машинного обучения, которые предсказывали экономию времени при использовании AI на 39% и 38%, соответственно.

В ходе эксперимента 16 разработчикам открытых проектов, имеющим средний опыт работы с AI-инструментами, было предложено решить 246 задач, связанных с исправлением ошибок и добавлением новых возможностей. Задачи были сформированы на основе реальных issue в GitHub-репозиториях проектов, с которыми у выбранных разработчиков был опыт работы не менее 5 лет. Случайным образом часть задач предлагалось решить вручную, а часть с использованием любого AI-помощника на выбор разработчика (большинство предпочли редактор кода Cursor с моделью Claude 3.5/3.7 Sonnet).

В эксперимент, который проводился с февраля по июнь 2025 года, были вовлечены такие открытые проекты, как mito, stdlib, ghc, cabal, flair, jsdom, hypothesis, trieve, scikit-learn, gpt-neox и transformers. В среднем задействованные проекты имели 23 тысячи звёзд на GitHub, 1.1 млн строк кода, 20 тысяч коммитов и 710 участников.

Упоминаются следующие возможные причины замедления решения задач при использовании AI:

• Низкое качество AI-рекомендаций - разработчики приняли менее 44% от сгенерированных AI предложений и потратили много времени на их чистку и проверку.
• Излишний оптимизм в плане полезности AI и завышенные ожидания от возможностей AI-инструментов.
• Большой опыт работы участников с репозиториями, для которых решались задачи. Разработчики очень хорошо ориентировались в проектах и помощь AI в этой ситуации не представляла ценности.
• В эксперименте использовались слишком крупные и сложные репозитории, с которыми AI работает хуже.
• Неявный контекст репозитория - AI не понимал контекст, в котором работал.

Итоговый вывод: при использовании AI-инструментов разработчики тратят меньше времени на написание кода, поиск информации и чтение документации, но данная экономия сводится на нет из-за повышенных затрат времени на формирование запросов к AI, разбор подсказок, ожидание результата, рецензирование предложений и бездействие. Вместо генерации кода время уходит на взаимодействие с AI, изучение результатов и проверку предложенного кода. Не исключено, что при участии в эксперименте менее опытных разработчиков, не столь ответственно относящихся к проверке кода или работающих с незнакомой кодовой базой, были бы получены иные показатели эффективности разработки.
204 3497271
https://www.opennet.ru/opennews/art.shtml?num=63573

Исследовательская группа METR (Model Evaluation & Threat Research) опубликовала ( https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/ ) результаты эксперимента ( https://metr.org/Early_2025_AI_Experienced_OS_Devs_Study.pdf ) по оценке эффективности применения AI-инструментов для написания кода. Вопреки ожиданиям, исследование показало, что AI-помощники не ускоряют, а замедляют решение поставленных задач, при том, что субъективно участники эксперимента считали, что AI ускорил их работу.

Фактически при использовании AI-помощника на решение задачи в среднем было потрачено на 19% больше времени, в то время как участники полагали, что благодаря AI смогли выполнить работу на 20% быстрее, а до начала работы считали, что AI поможет им ускорить работу на 24%. Результаты также значительно расходятся с прогнозами экспертов в области экономики и машинного обучения, которые предсказывали экономию времени при использовании AI на 39% и 38%, соответственно.

В ходе эксперимента 16 разработчикам открытых проектов, имеющим средний опыт работы с AI-инструментами, было предложено решить 246 задач, связанных с исправлением ошибок и добавлением новых возможностей. Задачи были сформированы на основе реальных issue в GitHub-репозиториях проектов, с которыми у выбранных разработчиков был опыт работы не менее 5 лет. Случайным образом часть задач предлагалось решить вручную, а часть с использованием любого AI-помощника на выбор разработчика (большинство предпочли редактор кода Cursor с моделью Claude 3.5/3.7 Sonnet).

В эксперимент, который проводился с февраля по июнь 2025 года, были вовлечены такие открытые проекты, как mito, stdlib, ghc, cabal, flair, jsdom, hypothesis, trieve, scikit-learn, gpt-neox и transformers. В среднем задействованные проекты имели 23 тысячи звёзд на GitHub, 1.1 млн строк кода, 20 тысяч коммитов и 710 участников.

Упоминаются следующие возможные причины замедления решения задач при использовании AI:

• Низкое качество AI-рекомендаций - разработчики приняли менее 44% от сгенерированных AI предложений и потратили много времени на их чистку и проверку.
• Излишний оптимизм в плане полезности AI и завышенные ожидания от возможностей AI-инструментов.
• Большой опыт работы участников с репозиториями, для которых решались задачи. Разработчики очень хорошо ориентировались в проектах и помощь AI в этой ситуации не представляла ценности.
• В эксперименте использовались слишком крупные и сложные репозитории, с которыми AI работает хуже.
• Неявный контекст репозитория - AI не понимал контекст, в котором работал.

Итоговый вывод: при использовании AI-инструментов разработчики тратят меньше времени на написание кода, поиск информации и чтение документации, но данная экономия сводится на нет из-за повышенных затрат времени на формирование запросов к AI, разбор подсказок, ожидание результата, рецензирование предложений и бездействие. Вместо генерации кода время уходит на взаимодействие с AI, изучение результатов и проверку предложенного кода. Не исключено, что при участии в эксперименте менее опытных разработчиков, не столь ответственно относящихся к проверке кода или работающих с незнакомой кодовой базой, были бы получены иные показатели эффективности разработки.
205 3497272
>>497271
Дополнительно можно отметить опрос 609 разработчиков ( https://www.qodo.ai/reports/state-of-ai-code-quality/ ), применяющих AI при написании кода, проведённый компанией Qodo. 78% отметили увеличение производительности труда после применения AI, 60% отметили повышение общего качества кода благодаря AI, 20% указали на снижение качества кода после применения AI. При этом 76% отметили, что они не задействуют код от AI без предварительного ручного рецензирования. В статье также отмечается, что отдельные разработчики чувствуют себя значительно лучше при использовании AI, так как могут предоставить больше кода, но ценой этого становится увеличение нагрузки на тех, кто отвечает за приём кода в проекты, рецензирование изменений и проверку качества.
206 3497497
>>497271
Вывод в том что людишки чаще всего видят только что вписываются в их картину мира.

>METR (Model Evaluation & Threat Research)


Создательница этой организации боится что ИИ скоро уничтожит людишек. И она пушит этот нарратив.

Вот что написано в самом папире

Key Caveats
Setting-specific factors We caution readers against overgeneralizing on the basis of our results.
The slowdown we observe does not imply that current AI tools do not often improve developer’s
productivity—we find evidence that the high developer familiarity with repositories and the size and
maturity of the repositories both contribute to the observed slowdown, and these factors do not apply
in many software development settings. For example, our results are consistent with small greenfield
projects or development in unfamiliar codebases seeing substantial speedup from AI assistance.
AI-specific factors We expect that AI systems that have higher fundamental reliability, lower
latency, and/or are better elicited (e.g. via more inference compute/tokens, more skilled prompting/scaffolding, or explicit fine-tuning on repositories) could speed up developers in our setting (i.e.
experienced open-source developers on large repositories).
Agents can make meaningful progress on issues We have preliminary evidence (forthcoming)
that fully autonomous AI agents using Claude 3.7 Sonnet can often correctly implement the core
functionality of issues on several repositories that are included in our study, although they fail to
fully satisfy all requirements (typically leaving out important documentation, failing linting/styling
rules, and leaving out key unit or integration tests). This represents immense progress relative to the
state of AI just 1-2 years ago, and if progress continues apace (which is a priori at least plausible,
although not guaranteed), we may soon see significant speedup in this setting
207 3497510
>>449694 (OP)

>Аноны, что думаете по этому поводу?


щас на проекте делаем последние полгода только то, что внедряем LLM в одну корпоративную CMS. всякие генерации бумажек, написание писем, документов, отчетов, юридические проверки, оценки рисков, и т.д. и т.п. короче нихуя работы меньше не стало, а наоборот. нормально заставить нейронку сгенерировать официальный ответ на претензию, например, тот еще геморрой (для программиста), но выхлоп для бизнеса охуеть конечно, то что раньше делалось человеком час (получить письмо, прочитать, вникнуть, написать ответ, отправить) теперь делается само за 10 секунд. так что в "замену программистов" не верю ни на йоту, наоборот народу будет требоваться только больше, нейронки - это автоматизация "интеллектуального" труда, где нужно много работать с текстом, в первую очередь, и таких людей она очень сильно подвинет, юристов например, особено тех кто просто бумажки составляет и вычитывает, но потребует тех самых программистов которые будут все это внедрять.

тех кто первым внедрит нейронки и автоматизирует по настоящему документооборот получит охуенное конкурентное преимущество, и это становиться понемного очевидно всем. а это потребует именно программистов, причем много.
208 3497513
>>497510
алсо добавлю что скоро некоторые области, та же юридическая сфера, изменится так что без нейронок там делать будет вообще нечего и человек банально не въедет про что речь.
одна из последних сделанных нами фич - это генерация юридических заявлений, типа исковых и прочих. так вот, нейронка генерит эти документы на недостижимом для человека уровне. буквально в исковом может поднять несколько сотен законов которые так или иначе связаны с кейсом, сослаться на судебную практику, решения суда и т.д. и т.п. короче сгенерить за несколько секунд текст, который чтобы прочесть человеку потребуется несколько дней, а написать - несколько недель. и чтобы ответить на это нормально потребуется либо такая же нейронка, либо несколько недель полноценного труда юриста, чтобы просто вникнуть что там понаписано.

и это становится уже обыденностью, если раньше претензия в фас сводилась к тому что на нескольких листах витиеватым слогом высказывались претензии с сылкой на несколько статей 44ФЗ или типа того, то сейчас такая претензия - это талмуд в пару сотен страниц где ссылки на нормы могут исчисляться тысячами и, например ТЗ к госконтракту разбирается буквально до каждого предложения и каждого слова, и все проверяется на соответствие своду законов (всех, коих несколько десятков тысяч) - немыслимая для донейроночных времен вещь.

и так как юридическая область связана обязательствами рассматривать и вникать во все что им пишут то либо она ебнется под грузом информации либо массово внедрит ИИ для анализа и составления юридических бумаг, где человеку останается только функция подписания документа ручкой (т.к. эцп само поставится)

и все вышеперечисленное тоже не сделается само, а потребует программистов, причем много
209 3497519
>>497510

>тех кто первым внедрит нейронки и автоматизирует по настоящему документооборот получит охуенное конкурентное преимущество, и это становиться понемного очевидно всем. а это потребует именно программистов, причем много.


Долбоеб, документооборот в принципе создан для того, чтобы перекладывать и перепечатывать нахуй никому не нужны бумажки. Документооборот уже десять раз автоматизирован и переавтоматизирован, но вместо это этого просто придумали в десять раз больше ещё более ебанутых бумажек, теперь с электронными подписями.
210 3497527
>>497519

>Долбоеб, документооборот в принципе создан для того, чтобы перекладывать и перепечатывать нахуй никому не нужны бумажки.


портфель собрал? а, каникулы же..
211 3497536
>>497497
Самое смешное то, что первым делом я побежал с ChatGPT обсуждать эту новость.
В принципе, ни к чему новому не пришли: нейросетка — это интересный инструмент для анализа кода, для написания бойлерплейта, но не более того.

>our results are consistent with small greenfield projects or development in unfamiliar codebases seeing substantial speedup from AI assistance.


Они не приводят ссылки, но ссылку приведу я:
https://github.blog/news-insights/research/research-quantifying-github-copilots-impact-on-developer-productivity-and-happiness/

>We recruited 95 professional developers, split them randomly into two groups, and timed how long it took them to write an HTTP server in JavaScript.


>The group that used GitHub Copilot had a higher rate of completing the task (78%, compared to 70% in the group without Copilot).


>The striking difference was that developers who used GitHub Copilot completed the task significantly faster–55% faster than the developers who didn’t use GitHub Copilot. Specifically, the developers using GitHub Copilot took on average 1 hour and 11 minutes to complete the task, while the developers who didn’t use GitHub Copilot took on average 2 hours and 41 minutes.


Самый бойлерплейтный гринфилдный бойлерплейт, какой только может быть. В полтора раза рост производительности. Всё что могла нейросеть в 2024. Жду рассказы про "ну это же 2024, сколько воды с тех пор утекло".

>>497513

>нейронка генерит эти документы на недостижимом для человека уровне. буквально в исковом может поднять несколько сотен законов которые так или иначе связаны с кейсом


Сколько уже ваших клиентов лишили адвокатских лицензий? Я знаю, что даже сейчас некоторые юристы такой хуйней занимаются, но если суд не проплачен изначально, то это в принципе не прокатывает, а если проплачен, то ему можно хоть яндекс-рефератами документы составлять.

>короче сгенерить за несколько секунд текст, который чтобы прочесть человеку потребуется несколько дней


И в лучшем случае еблан, который этот текст сгенерировал, будет оплачивать судебные расходы на вычитывание сгенерированной хуйни и поиск несуществующих ссылок.

>и чтобы ответить на это нормально потребуется либо такая же нейронка, либо несколько недель полноценного труда юриста, чтобы просто вникнуть что там понаписано


"Мы не нашли ни одного упомянутого вами прецедента, потому засуньте себе в очко свой документ".

>если раньше претензия в фас сводилась к тому что на нескольких листах витиеватым слогом высказывались претензии с сылкой на несколько статей 44ФЗ или типа того, то сейчас такая претензия - это талмуд в пару сотен страниц где ссылки на нормы могут исчисляться тысячами и, например ТЗ к госконтракту разбирается буквально до каждого предложения и каждого слова, и все проверяется на соответствие своду законов (всех, коих несколько десятков тысяч) - немыслимая для донейроночных времен вещь.


Госзакупики в РФ служат исколючительно и только для распила бюджетов. Такая сложнаяя документация нужна для того, чтобы никто не смог доебаться до нарушений. По крайней мере слишком быстро доебаться.
211 3497536
>>497497
Самое смешное то, что первым делом я побежал с ChatGPT обсуждать эту новость.
В принципе, ни к чему новому не пришли: нейросетка — это интересный инструмент для анализа кода, для написания бойлерплейта, но не более того.

>our results are consistent with small greenfield projects or development in unfamiliar codebases seeing substantial speedup from AI assistance.


Они не приводят ссылки, но ссылку приведу я:
https://github.blog/news-insights/research/research-quantifying-github-copilots-impact-on-developer-productivity-and-happiness/

>We recruited 95 professional developers, split them randomly into two groups, and timed how long it took them to write an HTTP server in JavaScript.


>The group that used GitHub Copilot had a higher rate of completing the task (78%, compared to 70% in the group without Copilot).


>The striking difference was that developers who used GitHub Copilot completed the task significantly faster–55% faster than the developers who didn’t use GitHub Copilot. Specifically, the developers using GitHub Copilot took on average 1 hour and 11 minutes to complete the task, while the developers who didn’t use GitHub Copilot took on average 2 hours and 41 minutes.


Самый бойлерплейтный гринфилдный бойлерплейт, какой только может быть. В полтора раза рост производительности. Всё что могла нейросеть в 2024. Жду рассказы про "ну это же 2024, сколько воды с тех пор утекло".

>>497513

>нейронка генерит эти документы на недостижимом для человека уровне. буквально в исковом может поднять несколько сотен законов которые так или иначе связаны с кейсом


Сколько уже ваших клиентов лишили адвокатских лицензий? Я знаю, что даже сейчас некоторые юристы такой хуйней занимаются, но если суд не проплачен изначально, то это в принципе не прокатывает, а если проплачен, то ему можно хоть яндекс-рефератами документы составлять.

>короче сгенерить за несколько секунд текст, который чтобы прочесть человеку потребуется несколько дней


И в лучшем случае еблан, который этот текст сгенерировал, будет оплачивать судебные расходы на вычитывание сгенерированной хуйни и поиск несуществующих ссылок.

>и чтобы ответить на это нормально потребуется либо такая же нейронка, либо несколько недель полноценного труда юриста, чтобы просто вникнуть что там понаписано


"Мы не нашли ни одного упомянутого вами прецедента, потому засуньте себе в очко свой документ".

>если раньше претензия в фас сводилась к тому что на нескольких листах витиеватым слогом высказывались претензии с сылкой на несколько статей 44ФЗ или типа того, то сейчас такая претензия - это талмуд в пару сотен страниц где ссылки на нормы могут исчисляться тысячами и, например ТЗ к госконтракту разбирается буквально до каждого предложения и каждого слова, и все проверяется на соответствие своду законов (всех, коих несколько десятков тысяч) - немыслимая для донейроночных времен вещь.


Госзакупики в РФ служат исколючительно и только для распила бюджетов. Такая сложнаяя документация нужна для того, чтобы никто не смог доебаться до нарушений. По крайней мере слишком быстро доебаться.
212 3497541
>>497536

>Сколько уже ваших клиентов лишили адвокатских лицензий?


а какие основания для этого, все что там написано соответствует действительности, нет никакого закона который запрещает документы нейронкой генерировать.

> поиск несуществующих ссылок.


галлюцинирование это одна из реальных проблем, да. но она решается, в частности контрольной генерацией и проверкой при помощи других нейросетей, а также в случае имеющихся баз (например кодекса законов) простым поиском без использования ИИ для подтверждения информации.

> Мы не нашли ни одного упомянутого вами прецедента, потому засуньте себе в очко свой документ


это так не работает, если ты пишешь, например жалобу в прокуратуру или еще куда то они обязаны ответить по существу, иначе их выебет надзорный орган.

> Госзакупики в РФ служат исколючительно и только для распила бюджетов.


это очень наивное представление об устройстве мира
213 3497549
>>497541

>а какие основания для этого, все что там написано соответствует действительности, нет никакого закона который запрещает документы нейронкой генерировать.


Всё-всё соответствует? Ты перечитывал? Как кодер, который довольно дохуя времени проводит с нейросеткой, по степени достоверности фактов у меня нейронка находится где-то на предпоследнем месте, после википедии и курсов "питон за 3 дня".
Правда, стоит понимать, что в айтишке пиздёж нейросети проверяется очень просто — копипастишь текст в текстовой файл, компирилуешь или запускаешь интерпретатором — получаешь ошибки. В бюрократии нет программных инструментов верификации документов, потому верификацию должен производить дрессированный человек. Или ты хочешь сказать, что ваши высеры нейросеток вычитывал проф юрист, и у него не было замечаний по тексту?

>галлюцинирование это одна из реальных проблем, да. но она решается, в частности контрольной генерацией и проверкой при помощи других нейросетей, а также в случае имеющихся баз (например кодекса законов) простым поиском без использования ИИ для подтверждения информации.


Галлюцинирование на уровне нейросети вообще никак не возможно решить, оно лежит в основе принципа работы нейросети. Другое дело, что, да, потом высер всё-таки можно (и нужно) верифицировать.

>если ты пишешь, например жалобу в прокуратуру или еще куда то они обязаны ответить по существу, иначе их выебет надзорный орган.


Ты будешь удивлён, но если ты пишешь кучу жалоб, не подтверждённых фактами, то прокуратура найдёт тебя и выебет "по существу". Ну типа это как позвонить в милицию и сообщить о заложенной бомбе — ну а чо, у меня телефон есть, да? Вот я решил на всякий случай жалобу о бомбе написать.

>> Госзакупики в РФ служат исколючительно и только для распила бюджетов.


>это очень наивное представление об устройстве мира


Лол, ну давай своё представление мира. Или расскажешь мне, что 80% средств не уходит на яхты и суперкары для детишек?
17505732176680.png200 Кб, 480x480
214 3497554
>>497510

>но выхлоп для бизнеса охуеть конечно, то что раньше делалось человеком час (получить письмо, прочитать, вникнуть, написать ответ, отправить) теперь делается само за 10 секунд.



В конечном итоге всё придёт к тому что люди начнут игнорировать насранный нейрокалом "документ" и по телефону будут звонить и у человека спрашивать "ну хули там с деньгами".

А вот у анальников реальные проблемы. Особенно у веб-макак всяких. Сайты высирать сможет или уже может буквально каждый школьник. Ждём удешевления труда кодомакак и их перехода со смузи на томатный сок "красная цена"
215 3497569
>>497554
Ты тут недавно? Конструкторы сайтов для программирования мышкой существовали и 20 лет назад, даже промт писать не надо. Провинциальные веб студии это не убило, они есть до сих пор.
photo2025-07-1209-48-19.jpg154 Кб, 1080x1270
216 3497576
Ну как заменили?
217 3497580
>>497576
https://www.reddit.com/r/ChatGPTCoding/comments/1lwkdeb/comment/n2eyn02/

>Realistically, a developer good at reading your code and refactoring is $100-$200/hr.


>$10,000-$30,000 would be fair for a medium sized app. You could end up less or more.


Кто есть эти ебланы, оставляющие такие комментарии? Откуда они берут такой рейт? Я бы с радостью работал и за половину этого рейта, но мне и половины никто не заплатит. Даже половины от $100/час, какие нахуй $200. Чел в комментах писал "нанял кодера за $3000, по итогу под конец он попросил меня поднять оплату до $4200" — вот это реалистичные цифры. Какие блять $100/час?
218 3497586
>>497580
Это правильные ебланы, они умнее и хитрее тебя...
219 3497590
>>497580

>60K lines


Я бы посмотрел, как ты завоешь через день-два расхлёбывания этой лапши.
220 3497593
>>497586

>Это правильные ебланы, они умнее и хитрее тебя...


Не уверен. Чатгопота со мной согласна — это походит на штампованную историю из реддита от шизиков, живущих с мамкой, о том, как они может быть и стали бы работать за $200/час, но они выше этого. Как я уже написал, в тех же комментариях рядом есть совершенно иные ценники, которые лучше бьются с реальностью.

Не подуймайте, я не спорю с тем, что возможно нафармить себе репы, чтобы к тебе приходил напрямую заказчик, и там рейт $100-200/час возможен, потому что аутсорсные конторы попросят столько же за прогеров, которым в итоге контора заплатит $30-50/час. Но! Нужно иметь железную репутацию, мол "это мейнтейнер LLVM, он шарит в компиляторах, он нашу задачу решит за месяц. инфа 100%". Я сам одно время плотно работал с GNOME, так после моих комитов мне пришло пару оферов в духе "понравилась твоя работа — давай к нам", но там жиденькие предложения были. Если прямо целенаправленно работать в таком духе, то до $100-200/час реально можно добраться, но ЭТО НУЖНО ДЕЛАТЬ, это маркетинг, позиционирование, просто сидя ковыряя код ты этого не получишь.
221 3497596
>>497590

>Я бы посмотрел, как ты завоешь через день-два расхлёбывания этой лапши.


Самый маленький мой проект был 100 тыс строк. Я 6 лет ковырял 5 лямов, лол. Там с большой вероятностью 70% кода можно просто выкинуть нахуй, то есть там 20 тыс строк реально логики. Если бы я поехал в штаты, то за мой скил там $70-100/час дают, но даже там за $200/час нужно петь дифирамбы заказчику и вылизывать ему очко, или хуярить по 12 часов 6 дней в неделю — меня не устраивает ни то, ни другое, я сильный технарь, которому комфортно работать в обстановке без стреса. Вот очень не люблю я суету.
222 3497604
>>497593

>заплатит $30-50/час


Я бы сказал $10-20 в час. У хохлов на галерах может быть и 5 баксов в час.
223 3497611
>>497604

>Я бы сказал $10-20 в час. У хохлов на галерах может быть и 5 баксов в час.


Ну $5 — это джунская ставка, я сам по такой работал. Востребованному сеньору работать за $20/час уже может быть западло.
224 3497617
>>497596

> за $200/час нужно петь дифирамбы заказчику и вылизывать ему очко, или хуярить по 12 часов 6 дней в неделю


> меня не устраивает


12652*200=748,800 ты ваще дурак?
225 3497628
>>497617

>12652*200=748,800 ты ваще дурак?


Ха-ха, размечтался. Ты будешь получать как за 8 часов 5 дней в неделю, но ебашить будешь по 12часов и 6 дней. Или досвидания.
226 3497631
>>497628
5x8x52x200=416,000. Ебать, где подписаться? Чур я первый в очереди.
227 3497635
>>497631

>5x8x52x200=416,000. Ебать, где подписаться? Чур я первый в очереди.


Это реальные цифры, но это оффлайн работа где-то в кремневой долине или около. И нужно ебошить. Нынче даже гугл просто за красивые глазки столько не даст, хотя раньше и за красивые глаза давал.
228 3497714
What Tractors did to Farms, AI is doing to Office Work

https://www.youtube.com/watch?v=Tore093vXMs
229 3497830
>>497714

>What Tractors did to Farms, AI is doing to Office Work


Безмозглых копипастеров кода с SO давно нужно было заменить. Я не вижу, как AI угрожает работаете мидла-сеньора, более того, выше по треду приводили ссылку на реддит с одчередным додиком, который навайбкодил кучу говна и теперь припол на коленях, мол "нихуя не могу заставить эту лапшу работать, нужен программист!" — и потом выясняется, что если бы какой-нибудь мидл тебе накодил тот же проект с нейросеткой с самого начала грамотно, то получилось бы быстрее и лучше, чем теперь разгребать лапшу дублированных функций.

Та же хуйня была с фермерами — это просто толпа людишек, каждого накорми, обуй-одень, но даже когда просто возросла эффективность фермерского труда в два раза — это привелок к снижению населения фермерских посёлков в 3-5 раз, потому что меньше людей нужно намного меньше одевать-обувать, и их детей, и их собак, и так далее.

А нашем случае сокращение числа тупых кодеров приведёт к сокращение числа адлайл коучен и всякого менеджжерского скама, но зато создаст огромный срос на "разргебателей после нейросетки", то есть профессиональных аграриев.
230 3497859
>>497830
Ты мыслишь как святой рыночек прямо, все увилят, что нейросетки хороши для а,б,це и туда их впилят.
Будет уже наоборот, нейросети это хайп, новый пузырь говнючей американской экономики. Впихивать иишку будут везде, под соусом оптимизации. Тупые дебичи менеджеришки будут причмокивая кушать это говно, выгонять аграриев на мороз, удивляться, почему все стало еще хуже и.... приглашать вчерашних аджайл коучей, а ныне интеграторов искуственного интеллекта в процессы, чтобы все починить. Итог немного предсказуем, но эти промытки до упора будут тупить.
231 3498312
>>497859

>Итог немного предсказуем,


Да не сказал бы. Дотком кризис, облака, блокчейн, немного научили инвесторов. AI конечно хайпует, но вопросы как на AI зарабатывать, как саппортить то что AI написал, кто будет отвечать за то что AI наговнокодил, уже задаются. Все в основном пытаются продать клиентам AI, а сами используют его как ассистента человеку.
image.png673 Кб, 1280x1040
232 3498354
233 3498425
234 3498437
>>498354

>smarter than most humans


>not yet smarter than any human at anything


Ват? Что значит вторая фраза?
235 3498506
236 3498520
>>498354
Проиграл с этого. Если что, Маск в 2016-ом говорил, что через 9 лет доставит людей на Марс.
237 3499450
Делал тут плагинчик для 3Д макса, тыкал в нейронки за помощью. Толк от них был только в вопросах тривиальных. Стоило буквально чуть-чуть отойти от того что встречается в туториалах в интернетах как эта хуйня наглючила методов которых в API просто нет. Алсо, ИИ по прежнему не способен понимать суть проблемы, один раз ответ нашёлся в каком то бложике, в посте аж от 11 года, был тривиален и очень далёк от всего что ИИ предлагал.
image.png546 Кб, 933x1280
238 3500002
ЛЮДИ ВСЁ
AtCoder World Tour: OpenAI заняла второе место в чемпионате по программированию
На финале AtCoder World Tour — одном из главных чемпионатов по спортивному программированию модель от OpenAI (в таблице как OpenAIAHC, что за модель не сказали) заняла второе место.
239 3500007
>>500002

>по спортивному программированию


Ну ок, ии заменит людей на соревнованиях по спортивному программированию. Это должно нас печалить?
240 3500018
>>500002
Феррари победила на соревнованиях по бегу. Это кинец.
241 3500042
>>500007
>>500018
Пошло отрицание. Уже через пару дней выкатят оператора который работает в эксель таблицами. Офисные работники ВСЁ
242 3500055
>>500042
Работа с excel таблицами имеет какое-то физическое измерение производительности? Их надо тоннами на-гора выдавать? Интепретировать и принимать решения на основе таблиц кто будет? Один кабан кабаныч? У него голова не опухнет от такого? Просто у офисного планктона будет больше времени на пасьянс.
243 3500421
пытаюсь сделать аналог0внетное говно для сраной есп32, сука как же сложнаАаАаа, я тупо смотрю в эту парашу и НЕ ПА НИ МА Ю вроде бы ничего сложного, но оно сука настолько комплексное что загрузить все в свою тупую голову не могу, попросил блядину разбить на модули, но лучше не стало нахуй, умнее я от этого не стал(((

может быть грок4 и ебет, но я нищая русnya без карты мамбета...
244 3500522
>>499450

> Делал тут плагинчик для 3Д макса, тыкал в нейронки за помощью. Толк от них был только в вопросах тривиальных. Стоило буквально чуть-чуть отойти от того что встречается в туториалах в интернетах как эта хуйня наглючила методов которых в API просто нет. Алсо, ИИ по прежнему не способен понимать суть проблемы, один раз ответ нашёлся в каком то бложике, в посте аж от 11 года, был тривиален и очень далёк от всего что ИИ предлагал.


Я не понимаю, кто эти уебаны на реддите, которые пишут "я сделал проект на 60 тыс строчек. но он работает, хреново, помогите доработать". Анон, то, что ты пишешь — это мой опыт. Никаких агентов, автопилотов, и прочей хуйни — даже в полуавтоматическом режиме оно делает настолько много хуйни, что иногда кажется "бля, да я лучше всё сам руками сделаю".
Где-то 5 тыс строк — это потолок для нейросетки. Это уже со скрипом-хрустом она кое-что рабочее сделает, но его нужно будет переделывать. 60 тыс строчек? Я просто не верю, что какая угодно нейросетка на стакое способна. Бля, да у самых больших нейросеток какое контекстное окно? 128 тыс токенов? Это 20 тыс строк без учёта библиотек. Она просто не сможет генерировать связанный код на этом масштабе.

Я буду рад, если кто-то принесёт пруфы обратного, потому что я не видел своими глазами исходного кода на несколько тыс строк, полностью сгенерированного нейросеткой. Был пиздеж то там, то тут, и этот же пиздеж опровергался то там, то тут.
245 3500523
>>500002

>AtCoder World Tour: OpenAI заняла второе место в чемпионате по программированию


Это совренование, проплаченное самим OpenAI. Какой ещё результат мог быть? Мне уже так остопиздили эти победы OpenAI в их собственных соревнованиях.
246 3500534
>>500522

> 128 тыс токенов?


миллион. как раз на те самые 60 тыщ строк хватит
247 3500536
>>500522
проблема тут в том что ождания того как работать с нейросетью и работа с нейросетью - абсолютно разные вещи. ожидания сейчас примерно такие - я наверну пару абзацев невнятной хуйни текста, а нейросетка мне из моего высера сама сделает код, вычистить все баги, отрефакторит, напишет юниттесты и сделает пушреквест.

это кристальнейший манямир

но это не значит что нейросетка бесполезна при написании кода, это инструмент, причем очень сложный, и им надо уметь пользоваться
248 3500542
>>500534
а на той неделе лама на 10 милионов контекста вышла.
249 3500544
>>500536

>но это не значит что нейросетка бесполезна при написании кода, это инструмент, причем очень сложный, и им надо уметь пользоваться


Чел, я знаю, как трансформеры работают, я сам в том числе питонист, но не специализируюсь на нейросетках прост, хотя работаю около. Я залипаю в ChatGPT часами, но весь код, который до сих пор она мне выдавала — это полная хуйня, как правило. Да, я вот проблемы с драйверами на системе с ней решаю, но я никогда бездумно не выполняю команды, которые она мне пишет.

Другое дело, что здесь речь идёт про "нейросет сама, без человека, решает задачи" — а это уже дрогой вопрос.
250 3500546
>>500522
шмакс параша для даунов жрущих говнище

для Блендера со Сверчком даже тупой чатгпт выдал охуевшие вещи, потому что внутри питоняшка!
251 3500550
>>500536
Что мне гопота ответила:
«Closest Real Attempts
🔧 Autonomous Agents (AutoGPT / BabyAGI / CAMEL, etc.)
Tried to write software using LLMs + feedback loops.
Projects sometimes got into the 1–2K LOC territory.
But: only worked for very boilerplate projects and still failed often.
Needed lots of retries, and never produced complex, novel logic.
»
«Even in GPT-4 or Claude 3.5:
You can get hundreds of lines of decent, semi-functional code (web UIs, CRUD backends, even little compilers or simulations).
But once you want:
• Error handling,
• Performance tuning,
• Integration with weird APIs,
• Real-world I/O edge cases...
You hit walls that need actual thinking — not just regurgitated Stack Overflow.
»
То есть, даже если кто-то смог написать несколько тысяч строк, то это 100% какая-то доля кодописания была на человеке.
252 3500552
>>500542

>а на той неделе лама на 10 милионов контекста вышла.


Дальш чо? У них родной контекст где-то 8-16 тыс. Это то, с чем оно может плотно работать. Расширенный контекст — это когда натренированная на 8-16 тыс токенов нейросетка постобучением расширяется до 128 тыс, то есть, обучается резюмировать, втискивать полное окно 128 тыс в маленькое "рабочее" окно 8-16 тыс, под которое сеть обучена. Чем больше ты пытаешься это окно расширить, тем больше смысла теряется при сжатии до 8-16 тыс.
В принципе, для чат-бота довольно похуй, потому что можно просто якорить пользовательские запросы и игнорировать предыдущий вывод. А вот для кодогена, когда тебе нужно понимать весь миллион токенов одновременно, это уже не прокатит.

Конечно, вы можете сунуть мне в морду контпример, который однозначно показывает, что я не прав и нейросетка прекрасно обращается с контекстом. Но я не верю.

Бля, просто возьмите свою любимую нейросетку и дайте ей задание: "переставь в случайном порядке слова... " — и далее идёт список 30-40-50 слов, то она обосрётся. Уже вот на таком простом задании. Что она может сделать с миллионом токенов? Она может при принятии решений где-то 20 сущностей одновременно учитывать, всё остальное выводится комбинированием.
253 3500557
>>500550
ну да, прогноз о том что ллм будут сами код писать - несбыточная мечта. но повысить производительность при должном умении могут на порядок.
254 3501022
>>500552

>Бля, просто возьмите свою любимую нейросетку и дайте ей задание: "переставь в случайном порядке слова... " — и далее идёт список 30-40-50 слов, то она обосрётся.


И в чём должен заключаться обсёр?
image.png88 Кб, 1322x621
255 3501035
Глянул интервью с сео гитхаб, ну грустно, пизда индустрии скоро, точнее 80% сотрудников.

Знаете что обидно? Только вот нашел сферу в которой интересно, только только вышел на более менее нормальный доход и тут пизда, чел в комментах пишет что в его компании 50% кода через ллмки уже, все сео предсказывают что людей нужно будет меньше ну естественно ценник упадет из за этого.

Не знаю, в РУ айтишке может еще 2-3 года есть, за это время успеть нафармить на квартиру, починить зубы ну и все. Я не знаю что дальше делать. Уходить в менеджмент? Да почти некем будет менеджить, останутся какие-то операторы IDE и все.

https://www.youtube.com/watch?v=3WNukz5-Ch0
256 3501056
>>501035
Чел, сео гитхаба - это кабан, который впаривает свою сраную нейросеть. Это тупо продаван. Конечно же он расскажет, что завтра его продукт всех заменит, поэтому покупайте сегодня пока не подорожало.
Сам подумай: если нейросеть это такая килер фича, почему они сами ее не используют, не создают свои фотошопы-автокады и не зарабатывают бабло, а только впаривают подписку ебаную. Это как торгаш на рынке, который продаст тебе за 20 баксов карту с несметными сокровищами.
257 3501060
>>501035
на завод нахуй додик, я вот когда был вайти оборудовал мастерскую, учился работать руками, сейчас сварщик, на чиле на расслабоне, никакой ебки, график свободный, все тоже самое только нет удаленки, зато коллектив забавный
258 3501123
>>501060

>на завод нахуй додик,


Лучше тогда сразу в петлю.
259 3501136
>>501123
ахаха ну ты и жалкий додик, нет бы развернуть компьютерное зрение на заводе, роботизация тонет, но ты давай-давай, биомусор слабый, проку от тебя один хуй ноль 😏
260 3501195
>>501136
Для того чтобы разворачивать cv нужно закончить шад и иметь 4 года опыта в cv. А я додик
261 3501217
>>501195
промывочная хуита для даунов

точно так же как тупорылый сблёв рассказыает сказки как DSу нужна матёшка -- да она НННАХУЙ НЕ ОБОСРАЛАСЬ БЛЯДЬ ну может геометрия за 6 класс максимум

до наших скот0ублюдских кабанов постепенно начинает доходить что DS не CS, и уже видны такие уебищные вакухи как ML Engineer, когда по факту это DS

но я отвлекся

в любой мл задаче кор это датасет, без него ты будешь сосать хуи, какую бы архитектуру ты не построил, ты будешь сосать хуи без датасета

а значит первое что ты должен дрочить это не обоссанную нахуй не обосравшууюся ни одному нормальному человеку ебаную матёшку, а синтезирование датасета, хотя бы самое начало пайплайна 3д продакшена (моделенк), в идеале это блендер и сверчок, но задачи разные, может хватит и просто гимпа с его охуевшими плагунами

вот, а за матёшку топят опущенные нижние дауны, их трахали в вузике мерзотные диды этой юзлес парашей, теперь они компенсируют, и да, некоторые госпомойки ставят загрядительное говно, но не все, но многие, в этой стране все не очень, точнее даже очень хуево, особенно если ты слабый безвольный додик ссорян няш 🤷♂️
262 3501409
Gabe Newell thinks AI tools will result in a 'funny situation' where people who don't know how to program become 'more effective developers of value' than those who've been at it for a decade
263 3501420
>>501195
А что тебе мешает ШАД закончить?
264 3501455
>>501409
А когда было по другому? Что за новый фани ситуейшен? Всегда мелкобиз нанимал джунов за еду чтобы быстро и дешево сделать прототип. Без всяких ИИ.
Обновить тред
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски

Скачать тред только с превьюс превью и прикрепленными файлами

Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах.Подробнее