Искусственный интеллект (ИИ) достиг впечатляющих результатов, генерируя тексты, играя в сложные игры и даже создавая изображения. Однако, несмотря на прогресс, ИИ сталкивается с фундаментальным ограничением: отсутствием здравого смысла.
Простой вопрос, сложный ответ
Простейший пример: что происходит, если бросить спичку в кучу дров? Для человека ответ очевиден – огонь. Современные языковые модели, такие как GPT-2 с 1,5 миллиардами параметров (и даже GPT-3 с 175 миллиардами), не справляются с этим вопросом. Эксперимент показал, что вместо ответа «огонь», ИИ генерирует нелепые варианты: «деревянную доску», «кучу листьев», «воду». Почему?
Здравый смысл: «черная материя» ИИ
Отсутствие здравого смысла – основная проблема ИИ. Это «черная материя» искусственного интеллекта – нечто базовое и одновременно неуловимое. Здравый смысл – это неявная информация, широкий набор неписаных допущений и эмпирических правил, которые люди автоматически используют для понимания мира.
Тесты на здравый смысл: за пределами теста Тьюринга
Для оценки прогресса ИИ были разработаны специальные тесты, ориентированные на задачи, сложные для компьютеров. Тест Тьюринга, успешно пройденный в 2014 году, не учитывает здравый смысл. Более современный тест – «Схема винограда» – предназначен именно для проверки этого аспекта интеллекта. Он основан на вопросах с подразумеваемым смысловым субъектом, которые легко решаются людьми, но представляют серьезную проблему для ИИ. Например: «Трофей не поместился в коричневый чемодан, потому что он слишком большой». Для ответа необходимо понимать, что чемоданы предназначены для хранения вещей, а трофеи обычно не являются вещами.
Проблема накопления знаний: проект Cyc и его ограничения
Попытки «закодировать» здравый смысл в ИИ предпринимались много лет. Проект Cyc, начатый в 1984 году, стремился собрать миллионы фактов о мире. Несмотря на десятилетия работы и миллионы закодированных утверждений, Cyc не смог решить проблему здравого смысла. Причина – бесконечное множество исключений из правил. Даже большие базы данных не способны охватить все возможные сценарии. Это «проблема хрупкости»: система, работающая в одном случае, может полностью отказаться работать в другом, даже незначительно отличающемся.
Нейронные сети: мощные, но ограниченные
Нейронные сети – современный подход к созданию ИИ, имитирующий работу биологического мозга. Они добились больших успехов в распознавании образов, обработке речи и других областях. Однако и нейронные сети сталкиваются с проблемой здравого смысла. Они дают вероятностные ответы, не всегда понимая причину своих выводов («проблема черного ящика»). Это ограничивает их применение в критически важных областях, где необходимы точность и понимание причинно-следственных связей.
Фундаментальные различия между ИИ и человеческим разумом
Обучение нейронных сетей требует огромного объема данных, в то время как человек может научиться распознавать объекты на основе небольшого количества примеров. Кроме того, люди способны обобщать знания и применять их в новых ситуациях, чего нейронные сети пока не умеют делать.
Выводы: хайп и реальность
Нынешний хайп вокруг ИИ преувеличен. Нейронные сети – мощный инструмент, но они не решают всех проблем. Проблема здравого смысла остается фундаментальным ограничением ИИ, и ее решение требует прорыва в понимании работы человеческого мозга. Страхи перед «восстанием машин» преждевременны.