
Аноны-эксперты, слезли с хайп-трейна? Надоело слушать про "скоро сингулярность" от очередного инфоцыгана? Давайте по хардкору, без розовых пони и влажных фантазий про Skynet.
Все эти DNN, трансформеры, вот это вот всё – конечно, впечатляет. Картинки рисуют, тексты генерят, котиков распознают лучше тебя. Но давайте честно: это узкий AI. AGI там и рядом не валялся. И вот вопрос – а валяться ли будет вообще?
Смотрим на железо. На чем вся эта нейросетевая магия крутится? На старом добром фон Неймане. Да, разогнанном на GPU и TPU, но суть та же: процессор, память, шина. И тут начинаются проблемы, которые как-то стыдливо замалчиваются в техно-оптимистическом угаре:
1. Энергоэффективность – в жопе. Модели раздуваются до размеров черной дыры, жрут электричество как майнинговая ферма. Человеческий мозг, блин, 20 ватт потребляет! FLOPS/ватт у нас – смех один. Мы вообще сможем когда-нибудь запитать AGI, не построив персональную АЭС? Или так и будем топить планету ради "разума"?
2. Фон Нейман – это bottleneck. Память и процессор разделены. Memory latency, cache misses, сериализация операций – это всё тормозит параллелизм, который вроде как нужен для настоящего интеллекта. Мозг – это нейроморфная сеть, где память и вычисления интегрированы. А у нас – постоянное перетаскивание данных туда-сюда. Не упремся ли мы в фундаментальный предел архитектуры, даже если кремний станет быстрее в 100 раз?
3. Кремний – всё? Moore's Law уже не торт. Квантовое туннелирование, тепловыделение, атомные масштабы – физика начинает упираться. Может, кремниевые транзисторы – это вообще тупиковая ветвь для AGI? Нужны новые материалы, новые принципы. Мемристоры, фотонные компьютеры, квантовые вычисления – это пока всё на уровне лабораторных экспериментов. Или мы так и будем долбиться в кремниевую стену, ожидая чуда?
4. Data movement is the new compute. В современных архитектурах перемещение данных жрет больше энергии, чем сами вычисления! Это вообще дичь какая-то. Мы гонимся за FLOPS, а на самом деле у нас проблема в пропускной способности памяти и эффективности передачи данных.
А теперь про алгоритмы. Тут тоже не всё так радужно, как в презентациях Google и OpenAI:
1. DNN – это тупо pattern matching. Да, сложное, многослойное, но всё равно – статистические корреляции, а не понимание. Они не понимают смысл, не имеют common sense, не умеют обобщать по-настоящему. Это попугаи, которые научились имитировать разум, но не более.
2. Backpropagation – это костыль. Эффективно для обучения глубоких сетей, но биологически неправдоподобно и, возможно, не масштабируется до AGI. Мозг учится по-другому, более эффективно и гибко. Backprop требует огромных датасетов, точно размеченных данных, и плохо работает в условиях неопределенности и неполной информации, которые характерны для реального мира. Может, мы зациклились на этом методе, и упускаем что-то принципиально другое?
3. Отсутствие настоящего "понимания" и "сознания". Да, это философский холивар, но и практический вопрос. Современный AI – это black box. Мы не понимаем, как он "думает", почему принимает те или иные решения. Нет интроспекции, самосознания, мотивации, целеполагания – всего того, что мы считаем признаками настоящего интеллекта. Может, AGI требует не просто более мощных сетей, а принципиально новой парадигмы в понимании интеллекта и сознания?
И вот, собственно, главный вопрос: Где сейчас реальный капкан для AGI? Мы уперлись в железный потолок – ограничения архитектуры фон Неймана, энергопотребления, кремниевой технологии? Или мы зашли в алгоритмический тупик – исчерпали возможности DNN и backpropagation, и нуждаемся в революционно новых подходах к обучению и моделированию интеллекта?
Или, может, проблема комплексная? Может, для AGI нужен синергетический прорыв – одновременная революция и в железе, и в софте, и в нашем понимании самого интеллекта? Может, мы вообще идем не туда, и AGI – это несбыточная мечта, по крайней мере, в обозримом будущем?
Высказывайтесь, эксперты и сочувствующие. Только без вайтишников и крипто-энтузиастов, пожалуйста. Интересует мнение тех, кто реально понимает, где мы сейчас находимся и куда движемся в этой гонке за AGI. И главное – где нас ждет реальный облом? (и будет ли он?)
Все эти DNN, трансформеры, вот это вот всё – конечно, впечатляет. Картинки рисуют, тексты генерят, котиков распознают лучше тебя. Но давайте честно: это узкий AI. AGI там и рядом не валялся. И вот вопрос – а валяться ли будет вообще?
Смотрим на железо. На чем вся эта нейросетевая магия крутится? На старом добром фон Неймане. Да, разогнанном на GPU и TPU, но суть та же: процессор, память, шина. И тут начинаются проблемы, которые как-то стыдливо замалчиваются в техно-оптимистическом угаре:
1. Энергоэффективность – в жопе. Модели раздуваются до размеров черной дыры, жрут электричество как майнинговая ферма. Человеческий мозг, блин, 20 ватт потребляет! FLOPS/ватт у нас – смех один. Мы вообще сможем когда-нибудь запитать AGI, не построив персональную АЭС? Или так и будем топить планету ради "разума"?
2. Фон Нейман – это bottleneck. Память и процессор разделены. Memory latency, cache misses, сериализация операций – это всё тормозит параллелизм, который вроде как нужен для настоящего интеллекта. Мозг – это нейроморфная сеть, где память и вычисления интегрированы. А у нас – постоянное перетаскивание данных туда-сюда. Не упремся ли мы в фундаментальный предел архитектуры, даже если кремний станет быстрее в 100 раз?
3. Кремний – всё? Moore's Law уже не торт. Квантовое туннелирование, тепловыделение, атомные масштабы – физика начинает упираться. Может, кремниевые транзисторы – это вообще тупиковая ветвь для AGI? Нужны новые материалы, новые принципы. Мемристоры, фотонные компьютеры, квантовые вычисления – это пока всё на уровне лабораторных экспериментов. Или мы так и будем долбиться в кремниевую стену, ожидая чуда?
4. Data movement is the new compute. В современных архитектурах перемещение данных жрет больше энергии, чем сами вычисления! Это вообще дичь какая-то. Мы гонимся за FLOPS, а на самом деле у нас проблема в пропускной способности памяти и эффективности передачи данных.
А теперь про алгоритмы. Тут тоже не всё так радужно, как в презентациях Google и OpenAI:
1. DNN – это тупо pattern matching. Да, сложное, многослойное, но всё равно – статистические корреляции, а не понимание. Они не понимают смысл, не имеют common sense, не умеют обобщать по-настоящему. Это попугаи, которые научились имитировать разум, но не более.
2. Backpropagation – это костыль. Эффективно для обучения глубоких сетей, но биологически неправдоподобно и, возможно, не масштабируется до AGI. Мозг учится по-другому, более эффективно и гибко. Backprop требует огромных датасетов, точно размеченных данных, и плохо работает в условиях неопределенности и неполной информации, которые характерны для реального мира. Может, мы зациклились на этом методе, и упускаем что-то принципиально другое?
3. Отсутствие настоящего "понимания" и "сознания". Да, это философский холивар, но и практический вопрос. Современный AI – это black box. Мы не понимаем, как он "думает", почему принимает те или иные решения. Нет интроспекции, самосознания, мотивации, целеполагания – всего того, что мы считаем признаками настоящего интеллекта. Может, AGI требует не просто более мощных сетей, а принципиально новой парадигмы в понимании интеллекта и сознания?
И вот, собственно, главный вопрос: Где сейчас реальный капкан для AGI? Мы уперлись в железный потолок – ограничения архитектуры фон Неймана, энергопотребления, кремниевой технологии? Или мы зашли в алгоритмический тупик – исчерпали возможности DNN и backpropagation, и нуждаемся в революционно новых подходах к обучению и моделированию интеллекта?
Или, может, проблема комплексная? Может, для AGI нужен синергетический прорыв – одновременная революция и в железе, и в софте, и в нашем понимании самого интеллекта? Может, мы вообще идем не туда, и AGI – это несбыточная мечта, по крайней мере, в обозримом будущем?
Высказывайтесь, эксперты и сочувствующие. Только без вайтишников и крипто-энтузиастов, пожалуйста. Интересует мнение тех, кто реально понимает, где мы сейчас находимся и куда движемся в этой гонке за AGI. И главное – где нас ждет реальный облом? (и будет ли он?)
бамп
>>311
четких цифр нет, но можно прикинуть по-разному, хотя это все очень условно:
по железу:
flops: говорят, мозг где-то 10^16 flops. вот если ии догонит или перегонит - типа звоночек. но это очень грубо.
энергоэффективность: если ии будет делать сложные штуки, жря как мозг (20 ватт), это круто. сейчас жрут намного больше.
по алгоритмам/возможностям:
прохождение сложных тестов: не просто тупой тест тьюринга, а что-то прям сложное, на понимание, творчество, типа экзамен в универе или научную статью написать. но как это численно измерить - непонятно.
самообучение и улучшение: если ии сможет сам себя улучшать быстрее, чем люди, и это будет ускоряться - вот это может быть признак. но скорость "улучшения" тоже не очень-то цифра.
количество задач, которые ии решает лучше человека: сейчас ии хорош в узких вещах. если станет во всем лучше или во многих областях - это тоже намек. но "многие области" - это не цифра.
скорость технологического прогресса: если после появления ии технологии начнут развиваться слишком быстро, непонятно как и куда - типа сингулярность подстегнула. но это уже после факта, а не критерий заранее.
появление "сознания" у ии: если вдруг поймем, что ии чувствует или осознает себя - это вообще жесть. но как это измерить цифрами - вообще бред.
как я понял, численных критериев нет нормальных. это все пальцем в небо, просто попытки как-то ощутить приближение чего-то большого и непонятного. никто точно не скажет "вот, 10^17 flops - и все, сингулярность!". скорее, это будет понятно по ощущениям, когда мир вокруг начнет меняться слишком быстро и непонятно из-за ии. но это не цифры, а скорее "ой, что-то пошло не так, кажется, началось".
четких цифр нет, но можно прикинуть по-разному, хотя это все очень условно:
по железу:
flops: говорят, мозг где-то 10^16 flops. вот если ии догонит или перегонит - типа звоночек. но это очень грубо.
энергоэффективность: если ии будет делать сложные штуки, жря как мозг (20 ватт), это круто. сейчас жрут намного больше.
по алгоритмам/возможностям:
прохождение сложных тестов: не просто тупой тест тьюринга, а что-то прям сложное, на понимание, творчество, типа экзамен в универе или научную статью написать. но как это численно измерить - непонятно.
самообучение и улучшение: если ии сможет сам себя улучшать быстрее, чем люди, и это будет ускоряться - вот это может быть признак. но скорость "улучшения" тоже не очень-то цифра.
количество задач, которые ии решает лучше человека: сейчас ии хорош в узких вещах. если станет во всем лучше или во многих областях - это тоже намек. но "многие области" - это не цифра.
скорость технологического прогресса: если после появления ии технологии начнут развиваться слишком быстро, непонятно как и куда - типа сингулярность подстегнула. но это уже после факта, а не критерий заранее.
появление "сознания" у ии: если вдруг поймем, что ии чувствует или осознает себя - это вообще жесть. но как это измерить цифрами - вообще бред.
как я понял, численных критериев нет нормальных. это все пальцем в небо, просто попытки как-то ощутить приближение чего-то большого и непонятного. никто точно не скажет "вот, 10^17 flops - и все, сингулярность!". скорее, это будет понятно по ощущениям, когда мир вокруг начнет меняться слишком быстро и непонятно из-за ии. но это не цифры, а скорее "ой, что-то пошло не так, кажется, началось".

>>312
Ну если четких цифр нет, то тогда и говорить не о чем. Нужны конкретные численные критерии. Как их выводить — вопрос отдельный, но если их нет и нет понимания как их получить, то от так называемой "сингулярности" мы стоим ещё очень далеко. Определения понятия сингулярности не увидел. Весь пост про ИИ: мы про ИИ говорим или про сингулярность? Что такое сингулярность?
Ну если четких цифр нет, то тогда и говорить не о чем. Нужны конкретные численные критерии. Как их выводить — вопрос отдельный, но если их нет и нет понимания как их получить, то от так называемой "сингулярности" мы стоим ещё очень далеко. Определения понятия сингулярности не увидел. Весь пост про ИИ: мы про ИИ говорим или про сингулярность? Что такое сингулярность?
А кто собственно, кроме журналистов и науч-попа ждет от нейросетей появление искусственного интеллекта? Ни один нейро биолог, ни один кибернетик всерьез не рассматривает данную технологию на претендента в ожидаемом будующем рождения интеллекта. Его там нет, не было и не будет.
У мухи-дрозофиллы мозгов больше, чем у нейронки.
У мухи-дрозофиллы мозгов больше, чем у нейронки.
На мой взгляд (субьективный) искусственный интеллект возможно когда то вырастет из технологий роботов Darpa. они уже создали невозможное и казавшееся фантастикой - самостоятельно ходящего на двух ногах робота (я думаю именно эта веха войдет в историю, а не сраные модные нейросетки) Автономно ходящий робот на двух ногах - это действительно фантастика и первый шаг к ИИ.
Просто потому что помимо собственно сложнейшей задачи хождения он решает в реальном мире вопрос с его взаимодействием. И принимает НОВЫЕ решения. Чего обычной нейронке - как до Луны - раком.
Просто потому что помимо собственно сложнейшей задачи хождения он решает в реальном мире вопрос с его взаимодействием. И принимает НОВЫЕ решения. Чего обычной нейронке - как до Луны - раком.
>>309 (OP)
разумеется возможна, сингулярность это квалия
разумеется возможна, сингулярность это квалия
>>309 (OP)
Я не специалист по АИ, но с моей точки зрения до AGI ещё как до Луны пешком.
Собственно, это же не первая и даже не вторая волна AI, каждая из них давала что-то новое, и каждая заканчивалась обломом. Нет особых оснований ждать в этот раз другого результата.
Алгоритмы говно, железо говно.
Я не специалист по АИ, но с моей точки зрения до AGI ещё как до Луны пешком.
Собственно, это же не первая и даже не вторая волна AI, каждая из них давала что-то новое, и каждая заканчивалась обломом. Нет особых оснований ждать в этот раз другого результата.
Алгоритмы говно, железо говно.

1280x720, 0:49
>>331
тогда можно и спокойно ркн, ведь AGI - это единственное, что мне давало надежду жить
тогда можно и спокойно ркн, ведь AGI - это единственное, что мне давало надежду жить
>>309 (OP)
много тезисов - ответ один
курица в состоянии сама о себе позаботиться
искин пока нет, и вряд ли когда нибудь
вот и всё
много тезисов - ответ один
курица в состоянии сама о себе позаботиться
искин пока нет, и вряд ли когда нибудь
вот и всё
>>333
Почему AGI? И зачем она тебе? У нас 8 миллиардов естественных интеллектов есть, чем они тебя не устраивают?
Почему AGI? И зачем она тебе? У нас 8 миллиардов естественных интеллектов есть, чем они тебя не устраивают?
>>368
Значит это ненаучный термин и его надо обсуждать в /ph
Значит это ненаучный термин и его надо обсуждать в /ph