Но современные системы ИИ, основанные на больших языковых моделях (LLM), настолько отточены, красноречивы и пугающе компетентны в генерации ответов, что многие люди считают, будто они могут знать и, что ещё лучше, самостоятельно находить знания.
Эта уверенность беспочвенна. Большие языковые модели, такие как ChatGPT или Grok, не думают. Это усовершенствованные системы автозаполнения. Вы вводите запрос, а они предсказывают следующее слово, а затем и следующее, основываясь только на закономерностях в триллионах слов, на которых они обучались. Никаких правил, никакой логики — просто статистические догадки, замаскированные под диалог.
В результате большие языковые модели понятия не имеют, является ли предложение истинным, ложным или хотя бы разумным; они лишь «знают», похоже ли оно на предложения, которые они видели раньше. Вот почему они часто с уверенностью придумывают что-то: судебные дела, исторические события или физические объяснения, которые являются чистой воды выдумкой. В мире ИИ такие результаты называют «галлюцинациями».
Но поскольку речь LLM беглая, пользователи инстинктивно проецируют на модель своё понимание, руководствуясь теми же человеческими «схемами доверия», которые мы используем для оценки интеллекта. Но это ошибочное суждение, сродни тому, как если бы кто-то идеально говорил по-французски, и мы решили, что он также прекрасно разбирается в вине, моде и философии. Мы путаем форму с содержанием и антропоморфизируем говорящего. Это, в свою очередь, подталкивает нас к двум мифическим представлениям:
Миф 1: «Если мы просто увеличим масштаб моделей и дадим им больше возможностей, то в конечном счёте появятся истинные рассуждения».
Более крупные LLM действительно становятся более плавными и впечатляющими. Но их основной трюк — предсказание слов, никогда не меняется. Это по-прежнему имитация, а не понимание. Можно предположить, что разум волшебным образом возникнет из количества, как будто увеличение размеров шин и ускорение их вращения в конечном счёте заставят автомобиль летать. Но препятствие архитектурное, а не скалярное: вы можете сделать имитацию более убедительной (заставить машину спрыгнуть с пандуса), но вы не превратите предсказателя паттернов в правдоискателя, увеличив её масштаб. Вы просто получаете более качественную маскировку и, как показали исследования, даже меньшую достоверность фактов.
Миф 2: «Какая разница, как это делает ИИ? Главное, чтобы он выдавал правду. Высшим арбитром истины является реальность — так что смиритесь!»
Этот аргумент особенно опасен, поскольку он топчет эпистемологию своими бетонными сапогами. Он фактически утверждает, что кажущаяся надёжность обыденных знаний, полученных с помощью больших языковых моделей, должна распространяться и на доверие к непрозрачным методам, с помощью которых эти знания были получены. Но у истины есть правила.
Например, вывод становится эпистемологически достоверным только в том случае, если он получен с помощью: 1) дедуктивного рассуждения (выводы должны быть истинными, если истинны предпосылки); или 2) эмпирической проверки (наблюдения за реальным миром, которые подтверждают или опровергают утверждения).
Большие языковые модели не способны ни на то ни на другое. Они не могут делать логические выводы, потому что в их архитектуре не реализован логический вывод. Они не манипулируют предпосылками и не приходят к выводам, а также не понимают причинно-следственных связей. Они также не могут ничего проверить эмпирическим путём, потому что у них нет доступа к реальности: они не могут проверить погоду или понаблюдать за социальными взаимодействиями.
Пытаясь преодолеть эти структурные препятствия, разработчики ИИ подключают к системе LLM внешние инструменты, такие как калькуляторы, базы данных и поисковые системы. Такие механизмы, якобы направленные на поиск истины, улучшают результаты, но не исправляют базовую архитектуру.
Продавцы «летающих автомобилей», торгующие различными достижениями, такими как результаты тестов на IQ, утверждают, что сегодняшние LLM демонстрируют сверхчеловеческий интеллект. На самом деле тесты LLM IQ нарушают все правила для проведения тестов интеллекта, превращая их в соревнование инженерных навыков под руководством человека, а не в достоверную оценку умственных способностей машин.
Попытки сделать большие языковые модели «ищущими истину» путём промывания им мозгов, чтобы они соответствовали предпочтениям своего «тренера», с помощью таких механизмов, как RLHF, не имеют смысла. Эти попытки устранить предвзятость лишь создают волны в структуре, которая не может поддерживать подлинное мышление. Это регулярно проявляется в таких провалах, как бравада xAI Grok в отношении MechaHitler или представление отцов-основателей Америки в Google Gemini как группы «расифицированных» джентльменов.
Однако существуют и другие подходы, направленные на создание архитектуры ИИ, способной к подлинно творческому мышлению:
- Символьный ИИ: использует явные логические правила; эффективен при решении конкретных задач, но не справляется с неоднозначностью;
- Причинный ИИ: изучает причинно-следственные связи и может отвечать на вопросы «что, если»;
- Нейросимвольный ИИ: сочетает нейронное прогнозирование с логическим мышлением; и
- Агентный ИИ: действует с учётом цели, получает обратную связь и совершенствуется методом проб и ошибок.
К сожалению, текущий прогресс в области ИИ почти полностью зависит от масштабирования LLM. А альтернативные подходы получают гораздо меньше финансирования и внимания — старый добрый принцип «следуй за деньгами». Между тем самый громкий «ИИ» в комнате — это всего лишь очень дорогой попугай.
LLM тем не менее являются удивительными достижениями инженерной мысли и замечательными инструментами, полезными для многих задач. Однако пользователям важно помнить, что все LLM являются и всегда будут оставаться обработчиками лингвистических шаблонов, а не эпистемологическими агентами.
Шумиха о том, что учёные находятся на грани «истинного интеллекта», ошибочно принимает за него беглость мышления. Реальное мышление требует понимания физического мира, постоянной памяти, рассуждений и планирования, с которыми LLM справляются лишь примитивно или не со всеми — факт, который не вызывает споров среди инсайдеров ИИ.
Относитесь к языковым моделям, как к полезным, заставляющим задуматься инструментам, а не как к заслуживающим доверия источникам. И перестаньте ждать, что попугай начнёт философствовать. Этого никогда не произойдёт.
Оригинальная, полная версия этой статьи была недавно опубликована в C2C Journal.
Мнения, высказанные в этой статье, принадлежат автору и не обязательно отражают точку зрения The Epoch Times.
__________
Чтобы оперативно и удобно получать все наши публикации, подпишитесь на канал Epoch Times Russia в Telegram









































