Ян Лекун рассказал, почему языковые модели далеки от настоящего интеллекта
Главный ученый Meta (организация запрещена в РФ) Ян Лекун известен своим скепсисом в отношении больших языковых моделей. В разговоре с Адамом Брауном из DeepMind и философом Дэвидом Чалмерсом он объяснил, почему считает нынешний путь тупиковым, и предложил альтернативу. Спор получился принципиальным, ведь Браун видит в LLM стремительно растущий интеллект, а Лекун — лишь виртуозное жонглирование символами, за которым нет понимания мира.
👉 Смотрите оригинальное интервью Яна Лекуна с профессиональным переводом на русский и дикторской озвучкой. VK Видео, Рутуб.
Почему четырехлетний ребенок умнее нейросети
Лекун напоминает простую статистику, что современные LLM обучаются на десятках триллионов слов — это около 10¹⁴ байт текста. Чтобы прочитать такой объем, человеку потребовалось бы полмиллиона лет. Но четырехлетний ребенок за время бодрствования получает через зрение примерно столько же байт, вот только это не абстрактные символы, а многомерная картина реального мира с его физикой, причинно-следственными связями и контекстом.
Методы, которые отлично работают для текста, не работают для сенсорных данных реального мира.
Именно поэтому LLM блестяще сдают экзамены, но не могут управлять роботом, который убирает посуду со стола. А любой подросток учится водить машину за двадцать часов, что для ИИ это до сих пор недостижимо.
💡 Глубоко интересуетесь ИИ? Подпишитесь на канал с разбором идей мировых AI-лидеров и наблюдениями, как ИИ меняет бизнес, работу и жизнь. Подробнее
Обычная кошка как мера вещей
Любой котенок за первые недели жизни осваивает гравитацию, координацию и планирование прыжков. LLM же, даже обученные на миллиардах, не понимают, что если потянуть за скатерть, стакан упадет.

Эффективность обучения на малых выборках — не единственный критерий. Шахматные боты вроде AlphaZero поначалу играют случайно, но благодаря масштабированию вычислений превосходят всех гроссмейстеров.
Кошка учится ходить за неделю, а ребенку нужен год. Но это не значит, что кошка умнее. Важны итоговые возможности.
Лекун соглашается, что LLM имеют сверхчеловеческие способности в узких областях (перевод, знание фактов), но им не хватает фундаментальных вещей вроде модели мира, внимания, рассуждения и планирования.
Принцип JEPA: учиться предсказывать смыслы, а не пиксели
Лекун двадцать лет пытался заставить нейросети предсказывать видео на уровне пикселей и потерпел неудачу. Проблема в том, что в реальном мире число возможных следующих состояний бесконечно, и представить их распределение невозможно.

Его альтернатива — архитектура JEPA (Joint-Embedding Predictive Architecture). Вместо генерации контента система учится предсказывать состояния мира в скрытом пространстве, отбрасывая непредсказуемые детали. Так работают люди и животные: мы строим абстракции, позволяющие прогнозировать, игнорируя шум. Это шаг к управляемому интеллекту, который может планировать действия для достижения целей.
Исторические уроки: как нас снова дурачат
Лекун напоминает, что ажиотаж вокруг ИИ возникает не впервые. В 1950-х Ньюэлл и Саймон обещали «общий решатель задач» через десять лет. Фрэнк Розенблатт верил, что перцептроны приведут к разуму. В 1980-х японский проект компьютеров пятого поколения провалился. Экспертные системы тоже не оправдали надежд.
С тех пор сменилось три поколения ученых, и каждое ошибалось. Нынешнее с LLM не исключение.
При этом он подчеркивает, что LLM полезны как инструменты, но они вовсе не путь к человеческому интеллекту.
Интеллект не означает стремление к власти
Страхи перед «восстанием машин» Лекун называет бессмыслицей. Ведь интеллект и доминирование — разные вещи. Умные люди часто работают на посредственных начальников, так что желание властвовать — продукт биологической эволюции, а не высокого IQ.
Если мы создадим по-настоящему умные системы, то должны строить их управляемыми, с четкими целями и встроенными ограничениями — как эволюция встроила в нас эмпатию.
Безопасность ИИ — инженерная проблема, такая же как надежность турбореактивных двигателей, а не сюжет научной фантастики.
Открытый код как гарантия культурного выживания
В будущем ИИ станет главным посредником между человеком и информацией. Если эти системы останутся в руках горстки корпораций, это будет угрозой культурному разнообразию. Ни одной стране, кроме США и Китая, не понравится, что ее язык и ценности фильтруются чужими алгоритмами.

Открытый код позволяет каждой культуре обучать модели на своих данных. Это не только вопрос безопасности, но и условие сохранения плюрализма, подобно разнообразию прессы.
Сознание — последняя загадка
На вопрос о сознании Лекун отвечает осторожно, что не знает, как его точно определить. Но у будущих систем, способных предсказывать последствия действий, появятся эмоции и субъективный опыт. Сознание, возможно, способность наблюдать себя и перенастраивать для решения задач. И это можно реализовать.

Браун добавляет, что человечество плохо понимает даже собственное сознание. Мы получили модельный организм для изучения этих вопросов и должны быть скромны в выводах. На вопрос «когда» он отвечает, что примерно к 2036 году, если прогресс продолжится. Лекун уточняет, что точно не в ближайшие два года.
2036 год — Новый Ренессанс
Будущее, которое рисует Лекун, — не замена человека, а симбиоз. К 2036 году у каждого появится персональный ИИ-ассистент, умнее нас во многих отношениях, но полностью подконтрольный. Как профессор с аспирантами, которые превосходят его знаниями. Это будет Новый Ренессанс. ИИ ускорит науку и медицину, освободит время для творчества.

Как печатный станок пять веков назад привел к Просвещению, так и ИИ изменит цивилизацию. Но для этого нужно отойти от культа LLM и строить архитектуры, понимающие физический мир.
«Язык — это просто. Понимание мира — вот что сложно».
Смотрите другие видеоинтервью на канале «AI из первых уст»:
YouTube
VK Видео
Рутуб

Подпишитесь на канал «Кеды профессора», чтобы быть в курсе событий мирового ИИ.