Сэм Альтман, генеральный директор OpenAI, обсуждает будущее искусственного интеллекта, несогласие с Илоном Маском, финансирование OpenAI и необходимость глобального регулирования ИИ.
Опыт и вовлеченность
За последние два месяца Альтман посетил множество стран, включая Бразилию, Японию и Индию. Его впечатлил уровень вовлеченности людей в обсуждение будущего ИИ и напряженность, связанная с управлением экономическим и социальным прогрессом с помощью этой технологии. Люди стремятся понять, как использовать ИИ для достижения положительных результатов и избежать негативных последствий.
Изменение подхода к разработке ИИ
На основе полученного опыта Альтман планирует изменить подход к разработке ИИ. Изменения будут направлены на персонализацию инструментов ИИ с учетом ценностей, культуры, истории и языка пользователей. Он также отмечает важность международного сотрудничества для управления рисками, связанными с развитием ИИ.
Риски и возможности ИИ
Альтман признает потенциальные опасности ИИ, включая его использование в опасных целях (биотерроризм, кибербезопасность). Он считает, что человеческая интуиция плохо справляется с оценкой экспоненциального роста возможностей ИИ. Хотя GPT-4 не представляет значительной угрозы, Альтман подчеркивает необходимость внимания к потенциальным рискам будущих версий (например, GPT-9). Однако он видит огромные плюсы в развитии ИИ: улучшение образования, здравоохранения и научного прогресса, а также возможность положить конец нищете. Отказ от технологии не является решением, но для реализации её потенциала необходимо преодолеть связанные с ней риски.
Глобальное регулирование ИИ
Альтман выступает за глобальное регулирование ИИ, но подчеркивает необходимость баланса, чтобы не ограничивать развитие технологии чрезмерно. Он считает, что небольшие стартапы и проекты с открытым исходным кодом не должны подвергаться жестким ограничениям. Он признает, что публичные призывы к регулированию могут быть восприняты как попытка регуляторного захвата, но настаивает на необходимости открытого диалога и сотрудничества с регулирующими органами.
Сертификация моделей ИИ и предвзятость
Альтман поддерживает идею сертификации моделей ИИ, особенно мощных. Необходимы внешние аудиты и проверки безопасности. Он также затрагивает вопрос предвзятости в моделях ИИ, указывая на то, что недавние исследования показали меньшую предвзятость GPT-4 по сравнению с людьми. Модели ИИ могут со временем снизить уровень предвзятости в мире, однако контроль над использованием моделей ИИ предвзятым образом остается сложной задачей.
Конфликт с Илоном Маском, отношения с Microsoft и финансовые вопросы
На вопрос о конфликте с Илоном Маском, Альтман предлагает обратиться к самому Маску. Он предполагает, что Маска беспокоит безопасность ИИ, и у них есть разногласия, но обе стороны стремятся к положительному результату. Альтман описывает отношения OpenAI с Microsoft как «замечательные», признавая трудности в любых серьезных партнерствах. Он объясняет отсутствие доли в OpenAI членством в совете директоров некоммерческой организации и мотивацией, связанной с желанием внести вклад в технологический прогресс.
Будущее ИИ, сотрудничество с Китаем и Россией и доверие к OpenAI
Альтман обсуждает будущее человечества в условиях автоматизации большинства задач ИИ, предполагая, что люди всегда будут находить новые способы самореализации и творчества. Он считает текущую технологическую революцию продолжительным процессом экспоненциального роста. Альтман отмечает необходимость сотрудничества с Китаем и Россией в области ИИ, несмотря на трудности, и выражает заинтересованность в более глубоком понимании ситуации в этих странах. Доверие к OpenAI должно основываться на действиях компании. Важна демократизация контроля над ИИ и переход к более открытой структуре управления. Будущее ИИ должно принадлежать всему человечеству.