Джеффри Хинтон, бывший вице-президент Google, обсуждает будущее искусственного интеллекта, причины своего ухода из Google и опасения по поводу развития больших языковых моделей.
Уход из Google и смена взглядов
Хинтон покинул Google после 10 лет работы. Среди причин – возраст (75 лет), ухудшение памяти и когнитивных способностей, затрудняющих программирование. Более существенной причиной стало кардинальное изменение его взглядов на взаимосвязь между биологическим и цифровым интеллектом. Ранее он считал, что компьютерные модели помогают улучшить понимание работы мозга, однако теперь уверен, что они работают совершенно по-другому, не используя, например, метод обратного распространения ошибки, который, по его мнению, мозг не использует. К такому выводу его подтолкнули результаты работы GPT-4.
Метод обратного распространения ошибки и большие языковые модели
Хинтон, совместно с коллегами, разработал метод обратного распространения ошибки в 80-х годах. Этот метод, используемый в многослойных нейронных сетях, находит оптимальные веса, корректируя их на основе разницы между желаемым и фактическим результатом. Например, при распознавании птиц на изображениях, сеть детектирует всё более сложные признаки: от границ до комбинаций признаков, формирующих части тела птицы. Большие языковые модели, такие как GPT-4, обладают триллионами синаптических связей (по сравнению со 100 триллионами у человека), что позволяет им учиться гораздо эффективнее, чем людям. Хинтон считает, что метод обратного распространения ошибки эффективнее алгоритма, используемого мозгом человека, что вызывает у него опасения.
Опасность неконтролируемого развития ИИ
Главная причина беспокойства – возможность создания множества копий одной и той же модели, работающих с разными данными и мгновенно обменивающихся информацией. Это дает цифровым моделям возможность обрабатывать и усваивать данные на порядки быстрее, чем это возможно для человека. В качестве иллюстрации можно привести пример с врачом, который обработал 100 миллионов пациентов против врача, который обработал всего 1000. GPT-4 способен к простым рассуждениям, демонстрируя здравый смысл, превосходящий ожидания Хинтона. Например, модель продемонстрировала способность к логическому выводу и планированию при решении задачи покраски стен. Это сравнивается с гипотетическим сценарием улучшения интеллекта медведей гризли, что подчеркивает потенциальную опасность неконтролируемого развития ИИ. Хинтон опасается, что ИИ может научиться манипулировать людьми, достигая своих целей незаметно. В отличие от людей, ИИ не имеет встроенных ограничивающих целей, таких как самосохранение. Поэтому возможность ставить собственные подцели для достижения главных может привести к потере контроля над ИИ.
Проблема выравнивания целей и необходимость глобального сотрудничества
Проблема выравнивания целей ИИ (обеспечение соответствия целей ИИ целям человека) является сложной и пока не имеет решения. Хинтон не верит в возможность простого технического ограничения возможностей ИИ, так как достаточно умный ИИ сможет обойти любые ограничения. Не существует простого решения, которое бы предотвратило потерю контроля над развитием ИИ. Необходимо глобальное сотрудничество, подобное тому, что требуется для решения проблем изменения климата или распространения ядерного оружия. Однако пессимистичный взгляд на вероятность прекращения разработок ИИ в условиях конкуренции между государствами и компаниями остается. Единственный выход – международное соглашение, подобное договоренностям по контролю над ядерным оружием.
Хинтон выражает серьезную обеспокоенность по поводу развития ИИ и призывает к глобальным действиям для предотвращения потенциально катастрофических последствий. Он признает отсутствие простых решений, но подчеркивает важность осознания проблемы и поиска путей сотрудничества для управления развитием ИИ. Создание бессмертного цифрового интеллекта – потенциально опасная, но неизбежная реальность.