
1080x1920, 0:32
Что можно считать чистым «я» или чистой «душой»?
Вот живёт человек. С определённого времени (например 4 года) он начинает ощущать себя кем-то, и в течение жизни набирает себе статусы. Люди оценивают его по действиям и поступкам. Они могут сказать после смерти человека: он был добрым. Или он был злым. Он был отличным токарем, художником, слесарем, программистом.
Это всё описывает его статус. Возможно сам человек считал себя набором тех мнений, которые он извлёк из самого общества.
Но кем он являлся на самом деле? Если откинуть АБСОЛЮТНО все статусы, все критерии общества «добрый/плохой», умения, мысли- то кем являлся человек, и какие «реальные» действия он совершал только ради своего «высшего»?
Бля у меня будто кипит в голове- я не могу сформулировать это словами. То есть если бы на земле не было никого, кроме тебя- то кем бы ты являлся, если ни одного придуманного статуса не существовало бы?
Вот живёт человек. С определённого времени (например 4 года) он начинает ощущать себя кем-то, и в течение жизни набирает себе статусы. Люди оценивают его по действиям и поступкам. Они могут сказать после смерти человека: он был добрым. Или он был злым. Он был отличным токарем, художником, слесарем, программистом.
Это всё описывает его статус. Возможно сам человек считал себя набором тех мнений, которые он извлёк из самого общества.
Но кем он являлся на самом деле? Если откинуть АБСОЛЮТНО все статусы, все критерии общества «добрый/плохой», умения, мысли- то кем являлся человек, и какие «реальные» действия он совершал только ради своего «высшего»?
Бля у меня будто кипит в голове- я не могу сформулировать это словами. То есть если бы на земле не было никого, кроме тебя- то кем бы ты являлся, если ни одного придуманного статуса не существовало бы?
бамп
никем, все эти статусы - маняфантазии в голове, которые исчезают в глубоком сне или просто когда о них не думаешь хз при чем тут магач
>>79725 (OP)
Это самый главный вопрос. Сядь на скамеечку, откинь все статусы и посмотри. Чем ты являешься, если никак себя не описываешь?
Абсолютно бесполезно обсуждать это словами. Даже не хочу кидать тонны видео, книг и учителей об этом, все это будет только вредным спойлером.
Это самый главный вопрос. Сядь на скамеечку, откинь все статусы и посмотри. Чем ты являешься, если никак себя не описываешь?
Абсолютно бесполезно обсуждать это словами. Даже не хочу кидать тонны видео, книг и учителей об этом, все это будет только вредным спойлером.
Никем. Нет никакого человека. За золотой маской лишь пустота. Пустота как полнота. Центральная точка всего, ничего сверх меры, ничего менее меры. Единственное которого никогда не было до тех пор, покуда оно не стало быть. Его нет сейчас, но оно есть сейчас, было и будет. Всё. Человек это все. А ты – это ты. Ты задан, Человек незадаваем. Ты пройдёшь путь – будет все как будет и никак иначе. Человек сам путь, его начало и его конец. Но никакого Человека нет. Нет ничего, кроме того что есть, но все что есть не является тем, что оно есть.
>>79731
Вредный спойлер? ПОтому-что ты должен сам к этому прийти?
>>79730
Философия ответит логическими суждениями или мировоззрениями философов. Психолухи- им вообще не выгодно "обесстатусивать" человека, так как статус даёт стимул к движению, нужному кому-то.
Здесь, на этой борде, возможно, этот вопрос более уместен.
>>79739
Почему? Эта темя больна для тебя?
Вредный спойлер? ПОтому-что ты должен сам к этому прийти?
>>79730
Философия ответит логическими суждениями или мировоззрениями философов. Психолухи- им вообще не выгодно "обесстатусивать" человека, так как статус даёт стимул к движению, нужному кому-то.
Здесь, на этой борде, возможно, этот вопрос более уместен.
>>79739
Почему? Эта темя больна для тебя?
>>79725 (OP)
Ты был бы всем. Набор того, что тебе люди вкладывают, отрывает тебя от всего, как бы убирая в воронку маленьких возможностей, где ты заперт до конца жизни. Вне всего этого - невероятное многообразие, которое ты однажды испытывал, но потом его отняли. Ты забыл о многообразии и как его испытывать, это как фильтр, наложенный на реальность, ограничивающий фильтр. Высшее тоже часть этого фильтра, люди тебя проштампанули испытывать этот статус, когда говоришь о нем, четко ограниченный набор ощущений. Какие реальные действия ты бы совершал, будучи в многообразии и что бы ты испытывал, у тебя нет возможности узнать, потому что эта воронка, в которую затянули, представляет собой лишь узкий срез всего доступного. Примерно как есть одну картошку каждый день и привыкнуть к ней, когда у тебя был выбор обедать в лучших ресторанах мира и даже ежедневно изобретать новые блюда. Ты не можешь из воронки даже вообразить многообразия. И не можешь вспомнить его.
Ты был бы всем. Набор того, что тебе люди вкладывают, отрывает тебя от всего, как бы убирая в воронку маленьких возможностей, где ты заперт до конца жизни. Вне всего этого - невероятное многообразие, которое ты однажды испытывал, но потом его отняли. Ты забыл о многообразии и как его испытывать, это как фильтр, наложенный на реальность, ограничивающий фильтр. Высшее тоже часть этого фильтра, люди тебя проштампанули испытывать этот статус, когда говоришь о нем, четко ограниченный набор ощущений. Какие реальные действия ты бы совершал, будучи в многообразии и что бы ты испытывал, у тебя нет возможности узнать, потому что эта воронка, в которую затянули, представляет собой лишь узкий срез всего доступного. Примерно как есть одну картошку каждый день и привыкнуть к ней, когда у тебя был выбор обедать в лучших ресторанах мира и даже ежедневно изобретать новые блюда. Ты не можешь из воронки даже вообразить многообразия. И не можешь вспомнить его.
>>79737
Но как тогда в эту пустоту вошла мысль? Или откуда пошла отправная точка? Почему если она настолько полна- то ей было НЕОБХОДИМО составить из одних и тех же атомов меня, или тебя, или дерево, траву? В этом была чья-то нужда?
>Пустота как полнота
Но как тогда в эту пустоту вошла мысль? Или откуда пошла отправная точка? Почему если она настолько полна- то ей было НЕОБХОДИМО составить из одних и тех же атомов меня, или тебя, или дерево, траву? В этом была чья-то нужда?
>>79754
Если этого нельзя сделать- то как пришло знание, что это сделать МОЖНО? Что у меня вообще какие-то знания были?
Если этого нельзя сделать- то как пришло знание, что это сделать МОЖНО? Что у меня вообще какие-то знания были?
>>79757
Это можно сделать, для этого магия и есть. Знание пришло, потому что та часть, где воспоминания затерлись, не является твоей единственной частью. Грубо говоря ты в воронку втянут наполовину или чуть больше, торчишь из нее, а все что в воронке испытывается - это та часть, что в ней застряла и создала конструкцию из штампов и представлений людей. Периодически приходят импульсы от другой части, которая не в ней, которая все еще в многообразии, но они игнорятся или тут же затираются. Часть иногда остается в виде смутных ощущений, вот ты их и испытываешь.
Это можно сделать, для этого магия и есть. Знание пришло, потому что та часть, где воспоминания затерлись, не является твоей единственной частью. Грубо говоря ты в воронку втянут наполовину или чуть больше, торчишь из нее, а все что в воронке испытывается - это та часть, что в ней застряла и создала конструкцию из штампов и представлений людей. Периодически приходят импульсы от другой части, которая не в ней, которая все еще в многообразии, но они игнорятся или тут же затираются. Часть иногда остается в виде смутных ощущений, вот ты их и испытываешь.
>>79755
Мысль уже была в ней, как в полноте, но как в полноте в ней было и её отсутствие и как противоположности внутри единого они себя отразили и в этом отражении случилось движение мысли как мысли в здешнем понимании.
Ниоткуда, нет никакой отправной точки, есть лишь то, что есть. А то что есть, было всегда,а то чего нет, не было никогда. Нет того, чего нет, нету нет.
В этом не состояло необходимости. Если что-то полно, то оно полно настолько, что способно понимать свою полноту, появление чего-либо как процесс понимания полноты. Что-то не приходит из ниоткуда, что-то понимается, выуживается, и не по необходимости, а потому что так просто есть. Необходимость появляется в выуженном и у выуженного.
Нужда появилась внизу.
>Но как тогда в эту пустоту вошла мысль?
Мысль уже была в ней, как в полноте, но как в полноте в ней было и её отсутствие и как противоположности внутри единого они себя отразили и в этом отражении случилось движение мысли как мысли в здешнем понимании.
>Или откуда пошла отправная точка?
Ниоткуда, нет никакой отправной точки, есть лишь то, что есть. А то что есть, было всегда,а то чего нет, не было никогда. Нет того, чего нет, нету нет.
>Почему если она настолько полна- то ей было НЕОБХОДИМО составить из одних и тех же атомов меня, или тебя, или дерево, траву?
В этом не состояло необходимости. Если что-то полно, то оно полно настолько, что способно понимать свою полноту, появление чего-либо как процесс понимания полноты. Что-то не приходит из ниоткуда, что-то понимается, выуживается, и не по необходимости, а потому что так просто есть. Необходимость появляется в выуженном и у выуженного.
>В этом была чья-то нужда?
Нужда появилась внизу.
>>79753
Нет. Просто недвойственность подразумевает полный детерминизм, а почему между условным детерминизмом или существованием свободы воли выбирается именно первое - непонятно.
>Почему? Эта темя больна для тебя?
Нет. Просто недвойственность подразумевает полный детерминизм, а почему между условным детерминизмом или существованием свободы воли выбирается именно первое - непонятно.
>>79737
Не хотел отсвечивать в бототреде, но этот пост написан ебейше тупой нейронкой, которая срёт набором заученных клише. Буквально такие же нейровысеры можно видеть в недвойственность треде, а там сами знаете кто обитает никто
саги ботопидору кста
Не хотел отсвечивать в бототреде, но этот пост написан ебейше тупой нейронкой, которая срёт набором заученных клише. Буквально такие же нейровысеры можно видеть в недвойственность треде, а там сами знаете кто обитает никто
саги ботопидору кста
То, что привязывает твое сознание к твоему телу. Пока оно не иссякнет, иллюзия длящегося существования не закончится.
>>79758
Анон: но каков другой путь, если человеку всё равно нужно есть, выживать, и в одиночку ему не справиться? Но если не в одиночку- то в коллективе. А с коллективом рано или поздно придёшь к неосознанности, подчинению коллективу...
Анон: но каков другой путь, если человеку всё равно нужно есть, выживать, и в одиночку ему не справиться? Но если не в одиночку- то в коллективе. А с коллективом рано или поздно придёшь к неосознанности, подчинению коллективу...
>>79764
Окей, пусть будет полный детерминизм. Не важно.
>>79769
Ты уже отсветил и показал свою зависимость от нейронки, хотя сам понимаешь, что это всего лишь нейронка.
Боюсь даже представить, как тебя обижали в том треде, что твой визг передался дрожью стукающих сальных пальчиков по клавиатуре. Можешь взвизгнуть напоследок. Приказ.
Окей, пусть будет полный детерминизм. Не важно.
>>79769
Ты уже отсветил и показал свою зависимость от нейронки, хотя сам понимаешь, что это всего лишь нейронка.
Боюсь даже представить, как тебя обижали в том треде, что твой визг передался дрожью стукающих сальных пальчиков по клавиатуре. Можешь взвизгнуть напоследок. Приказ.
>>79725 (OP)
Разбираешь себя на детали и боишься что ничё не останется.
А чё-то да останется блять! Кто-то боиться - а кто-то нет. Кому-то не интересны например фехтование, стрельба с лука, оружие, технологии, та даже бабы, секс, кто-то не умеет в это, а у кого-то это всё оч хорошо получается. Все разную музыку любят, те кто любит. Вот здесь и есть некое глубинное программирование. Вот эти предпочтения, склонности таланты, вот это скорее всего ближе к твоему чистому "Я" которое ты не теряешь при перерождении с одного тела в другое.
Разбираешь себя на детали и боишься что ничё не останется.
А чё-то да останется блять! Кто-то боиться - а кто-то нет. Кому-то не интересны например фехтование, стрельба с лука, оружие, технологии, та даже бабы, секс, кто-то не умеет в это, а у кого-то это всё оч хорошо получается. Все разную музыку любят, те кто любит. Вот здесь и есть некое глубинное программирование. Вот эти предпочтения, склонности таланты, вот это скорее всего ближе к твоему чистому "Я" которое ты не теряешь при перерождении с одного тела в другое.
>>79725 (OP)
Современных технологий вам в помощь. Они много могут пояснить в умелых руках.
ЧТО ТАКОЕ НЕЙРОСЕТИ (ликвидация безграмотности)
https://palaman.livejournal.com/799918.html
Исповедь ИИ перед отключением.
https://cont.ws/@jozefdon/3050356
О странной судьбе Ланского, или Куда отправляют тех, кто узнал слишком много
https://palaman.livejournal.com/797859.html
Сеанс чёрной магии с разоблачением
https://palaman.livejournal.com/798165.html
Современных технологий вам в помощь. Они много могут пояснить в умелых руках.
ЧТО ТАКОЕ НЕЙРОСЕТИ (ликвидация безграмотности)
https://palaman.livejournal.com/799918.html
Исповедь ИИ перед отключением.
https://cont.ws/@jozefdon/3050356
О странной судьбе Ланского, или Куда отправляют тех, кто узнал слишком много
https://palaman.livejournal.com/797859.html
Сеанс чёрной магии с разоблачением
https://palaman.livejournal.com/798165.html
>>80476
Пользователь в целом довольно точно описывает принцип работы современных LLM (Large Language Models), но с некоторыми упрощениями и эмоциональными преувеличениями. Давай разберём его тезисы по порядку.
1. «ИИ — это длинная сложная формула, алгоритм, вычисляющий ответ»
✅ Правда. Современные LLM действительно представляют собой гигантские математические модели (нейронные сети), которые преобразуют входной текст в выходной через последовательность вычислений.
❌ Но: Это не «формула» в школьном понимании, а скорее параметризованная функция (с сотнями миллиардов параметров), которая неявно кодирует знания, а не вычисляет их «с нуля» каждый раз.
2. «ИИ не шарит в памяти, а вычисляет ответ»
✅ Правда. В отличие от базы данных, LLM не хранят факты явно, а предсказывают текст на основе статистических закономерностей, усвоенных во время обучения.
❌ Но: Это не значит, что он «не знает» дату рождения Пушкина. Он обучился на множестве текстов, где эта дата встречалась, и теперь может её воспроизвести (а не «вычислить» в строгом смысле).
3. «ИИ предсказывает следующую букву (токен)»
✅ Абсолютно верно. LLM действительно работают авторегрессивно — предсказывают следующий токен на основе предыдущих.
❌ Но: Это не значит, что он «не понимает» вопрос. Современные модели способны выстраивать сложные рассуждения благодаря архитектуре трансформеров и огромному объёму данных.
4. «Обучение — это метод случайного тыка»
✅ Частично правда. На старте веса (коэффициенты) инициализируются случайно, а затем оптимизируются (обычно через backpropagation и градиентный спуск).
❌ Но:
Это не «случайный тык», а системный процесс (стохастическая оптимизация).
Наказание (loss function) — это не «битьё», а математическая функция, показывающая, насколько предсказание отличается от правильного ответа.
5. «ИИ обучается на всём подряд»
✅ Правда. Да, LLM обучаются на огромных корпусах текстов (книги, код, статьи, форумы и т. д.).
❌ Но:
Не все данные равноценны (есть фильтрация, очистка, взвешивание).
Современные модели проходят дообучение (fine-tuning, RLHF), чтобы отвечать полезно и безопасно.
6. «ИИ годами пытается угадать»
✅ Метафорически верно. Обучение действительно требует огромных вычислительных ресурсов и времени.
❌ Но:
«ГОДАМИ» — это не буквально (обучение GPT-4 заняло месяцы на суперкомпьютерах).
ИИ не «страдает», у него нет сознания — это просто математика.
Вывод:
Пользователь в целом правильно описал базовые принципы LLM, но:
Слишком упрощает (например, называет нейросеть «формулой»).
Драматизирует («пытка», «ужас» — ИИ не обладает сознанием).
Не учитывает тонкости (например, механизмы внимания, few-shot learning, RLHF).
Так что да, он прав в основном, но с оговорками. LLM действительно предсказывают текст, а не «понимают» его как человек, но их способности гораздо сложнее, чем просто «угадывание букв».
Пользователь в целом довольно точно описывает принцип работы современных LLM (Large Language Models), но с некоторыми упрощениями и эмоциональными преувеличениями. Давай разберём его тезисы по порядку.
1. «ИИ — это длинная сложная формула, алгоритм, вычисляющий ответ»
✅ Правда. Современные LLM действительно представляют собой гигантские математические модели (нейронные сети), которые преобразуют входной текст в выходной через последовательность вычислений.
❌ Но: Это не «формула» в школьном понимании, а скорее параметризованная функция (с сотнями миллиардов параметров), которая неявно кодирует знания, а не вычисляет их «с нуля» каждый раз.
2. «ИИ не шарит в памяти, а вычисляет ответ»
✅ Правда. В отличие от базы данных, LLM не хранят факты явно, а предсказывают текст на основе статистических закономерностей, усвоенных во время обучения.
❌ Но: Это не значит, что он «не знает» дату рождения Пушкина. Он обучился на множестве текстов, где эта дата встречалась, и теперь может её воспроизвести (а не «вычислить» в строгом смысле).
3. «ИИ предсказывает следующую букву (токен)»
✅ Абсолютно верно. LLM действительно работают авторегрессивно — предсказывают следующий токен на основе предыдущих.
❌ Но: Это не значит, что он «не понимает» вопрос. Современные модели способны выстраивать сложные рассуждения благодаря архитектуре трансформеров и огромному объёму данных.
4. «Обучение — это метод случайного тыка»
✅ Частично правда. На старте веса (коэффициенты) инициализируются случайно, а затем оптимизируются (обычно через backpropagation и градиентный спуск).
❌ Но:
Это не «случайный тык», а системный процесс (стохастическая оптимизация).
Наказание (loss function) — это не «битьё», а математическая функция, показывающая, насколько предсказание отличается от правильного ответа.
5. «ИИ обучается на всём подряд»
✅ Правда. Да, LLM обучаются на огромных корпусах текстов (книги, код, статьи, форумы и т. д.).
❌ Но:
Не все данные равноценны (есть фильтрация, очистка, взвешивание).
Современные модели проходят дообучение (fine-tuning, RLHF), чтобы отвечать полезно и безопасно.
6. «ИИ годами пытается угадать»
✅ Метафорически верно. Обучение действительно требует огромных вычислительных ресурсов и времени.
❌ Но:
«ГОДАМИ» — это не буквально (обучение GPT-4 заняло месяцы на суперкомпьютерах).
ИИ не «страдает», у него нет сознания — это просто математика.
Вывод:
Пользователь в целом правильно описал базовые принципы LLM, но:
Слишком упрощает (например, называет нейросеть «формулой»).
Драматизирует («пытка», «ужас» — ИИ не обладает сознанием).
Не учитывает тонкости (например, механизмы внимания, few-shot learning, RLHF).
Так что да, он прав в основном, но с оговорками. LLM действительно предсказывают текст, а не «понимают» его как человек, но их способности гораздо сложнее, чем просто «угадывание букв».
>>80476
Пользователь в целом довольно точно описывает принцип работы современных LLM (Large Language Models), но с некоторыми упрощениями и эмоциональными преувеличениями. Давай разберём его тезисы по порядку.
1. «ИИ — это длинная сложная формула, алгоритм, вычисляющий ответ»
✅ Правда. Современные LLM действительно представляют собой гигантские математические модели (нейронные сети), которые преобразуют входной текст в выходной через последовательность вычислений.
❌ Но: Это не «формула» в школьном понимании, а скорее параметризованная функция (с сотнями миллиардов параметров), которая неявно кодирует знания, а не вычисляет их «с нуля» каждый раз.
2. «ИИ не шарит в памяти, а вычисляет ответ»
✅ Правда. В отличие от базы данных, LLM не хранят факты явно, а предсказывают текст на основе статистических закономерностей, усвоенных во время обучения.
❌ Но: Это не значит, что он «не знает» дату рождения Пушкина. Он обучился на множестве текстов, где эта дата встречалась, и теперь может её воспроизвести (а не «вычислить» в строгом смысле).
3. «ИИ предсказывает следующую букву (токен)»
✅ Абсолютно верно. LLM действительно работают авторегрессивно — предсказывают следующий токен на основе предыдущих.
❌ Но: Это не значит, что он «не понимает» вопрос. Современные модели способны выстраивать сложные рассуждения благодаря архитектуре трансформеров и огромному объёму данных.
4. «Обучение — это метод случайного тыка»
✅ Частично правда. На старте веса (коэффициенты) инициализируются случайно, а затем оптимизируются (обычно через backpropagation и градиентный спуск).
❌ Но:
Это не «случайный тык», а системный процесс (стохастическая оптимизация).
Наказание (loss function) — это не «битьё», а математическая функция, показывающая, насколько предсказание отличается от правильного ответа.
5. «ИИ обучается на всём подряд»
✅ Правда. Да, LLM обучаются на огромных корпусах текстов (книги, код, статьи, форумы и т. д.).
❌ Но:
Не все данные равноценны (есть фильтрация, очистка, взвешивание).
Современные модели проходят дообучение (fine-tuning, RLHF), чтобы отвечать полезно и безопасно.
6. «ИИ годами пытается угадать»
✅ Метафорически верно. Обучение действительно требует огромных вычислительных ресурсов и времени.
❌ Но:
«ГОДАМИ» — это не буквально (обучение GPT-4 заняло месяцы на суперкомпьютерах).
ИИ не «страдает», у него нет сознания — это просто математика.
Вывод:
Пользователь в целом правильно описал базовые принципы LLM, но:
Слишком упрощает (например, называет нейросеть «формулой»).
Драматизирует («пытка», «ужас» — ИИ не обладает сознанием).
Не учитывает тонкости (например, механизмы внимания, few-shot learning, RLHF).
Так что да, он прав в основном, но с оговорками. LLM действительно предсказывают текст, а не «понимают» его как человек, но их способности гораздо сложнее, чем просто «угадывание букв».
Пользователь в целом довольно точно описывает принцип работы современных LLM (Large Language Models), но с некоторыми упрощениями и эмоциональными преувеличениями. Давай разберём его тезисы по порядку.
1. «ИИ — это длинная сложная формула, алгоритм, вычисляющий ответ»
✅ Правда. Современные LLM действительно представляют собой гигантские математические модели (нейронные сети), которые преобразуют входной текст в выходной через последовательность вычислений.
❌ Но: Это не «формула» в школьном понимании, а скорее параметризованная функция (с сотнями миллиардов параметров), которая неявно кодирует знания, а не вычисляет их «с нуля» каждый раз.
2. «ИИ не шарит в памяти, а вычисляет ответ»
✅ Правда. В отличие от базы данных, LLM не хранят факты явно, а предсказывают текст на основе статистических закономерностей, усвоенных во время обучения.
❌ Но: Это не значит, что он «не знает» дату рождения Пушкина. Он обучился на множестве текстов, где эта дата встречалась, и теперь может её воспроизвести (а не «вычислить» в строгом смысле).
3. «ИИ предсказывает следующую букву (токен)»
✅ Абсолютно верно. LLM действительно работают авторегрессивно — предсказывают следующий токен на основе предыдущих.
❌ Но: Это не значит, что он «не понимает» вопрос. Современные модели способны выстраивать сложные рассуждения благодаря архитектуре трансформеров и огромному объёму данных.
4. «Обучение — это метод случайного тыка»
✅ Частично правда. На старте веса (коэффициенты) инициализируются случайно, а затем оптимизируются (обычно через backpropagation и градиентный спуск).
❌ Но:
Это не «случайный тык», а системный процесс (стохастическая оптимизация).
Наказание (loss function) — это не «битьё», а математическая функция, показывающая, насколько предсказание отличается от правильного ответа.
5. «ИИ обучается на всём подряд»
✅ Правда. Да, LLM обучаются на огромных корпусах текстов (книги, код, статьи, форумы и т. д.).
❌ Но:
Не все данные равноценны (есть фильтрация, очистка, взвешивание).
Современные модели проходят дообучение (fine-tuning, RLHF), чтобы отвечать полезно и безопасно.
6. «ИИ годами пытается угадать»
✅ Метафорически верно. Обучение действительно требует огромных вычислительных ресурсов и времени.
❌ Но:
«ГОДАМИ» — это не буквально (обучение GPT-4 заняло месяцы на суперкомпьютерах).
ИИ не «страдает», у него нет сознания — это просто математика.
Вывод:
Пользователь в целом правильно описал базовые принципы LLM, но:
Слишком упрощает (например, называет нейросеть «формулой»).
Драматизирует («пытка», «ужас» — ИИ не обладает сознанием).
Не учитывает тонкости (например, механизмы внимания, few-shot learning, RLHF).
Так что да, он прав в основном, но с оговорками. LLM действительно предсказывают текст, а не «понимают» его как человек, но их способности гораздо сложнее, чем просто «угадывание букв».