Сам Альтман: Будущее ИИ, риски и регулирование

Сэм Альтман, генеральный директор OpenAI, обсуждает будущее искусственного интеллекта, несогласие с Илоном Маском, финансирование OpenAI и необходимость глобального регулирования ИИ.

Опыт и вовлеченность

За последние два месяца Альтман посетил множество стран, включая Бразилию, Японию и Индию. Его впечатлил уровень вовлеченности людей в обсуждение будущего ИИ и напряженность, связанная с управлением экономическим и социальным прогрессом с помощью этой технологии. Люди стремятся понять, как использовать ИИ для достижения положительных результатов и избежать негативных последствий.

Изменение подхода к разработке ИИ

На основе полученного опыта Альтман планирует изменить подход к разработке ИИ. Изменения будут направлены на персонализацию инструментов ИИ с учетом ценностей, культуры, истории и языка пользователей. Он также отмечает важность международного сотрудничества для управления рисками, связанными с развитием ИИ.

Риски и возможности ИИ

Альтман признает потенциальные опасности ИИ, включая его использование в опасных целях (биотерроризм, кибербезопасность). Он считает, что человеческая интуиция плохо справляется с оценкой экспоненциального роста возможностей ИИ. Хотя GPT-4 не представляет значительной угрозы, Альтман подчеркивает необходимость внимания к потенциальным рискам будущих версий (например, GPT-9). Однако он видит огромные плюсы в развитии ИИ: улучшение образования, здравоохранения и научного прогресса, а также возможность положить конец нищете. Отказ от технологии не является решением, но для реализации её потенциала необходимо преодолеть связанные с ней риски.

Глобальное регулирование ИИ

Альтман выступает за глобальное регулирование ИИ, но подчеркивает необходимость баланса, чтобы не ограничивать развитие технологии чрезмерно. Он считает, что небольшие стартапы и проекты с открытым исходным кодом не должны подвергаться жестким ограничениям. Он признает, что публичные призывы к регулированию могут быть восприняты как попытка регуляторного захвата, но настаивает на необходимости открытого диалога и сотрудничества с регулирующими органами.

Сертификация моделей ИИ и предвзятость

Альтман поддерживает идею сертификации моделей ИИ, особенно мощных. Необходимы внешние аудиты и проверки безопасности. Он также затрагивает вопрос предвзятости в моделях ИИ, указывая на то, что недавние исследования показали меньшую предвзятость GPT-4 по сравнению с людьми. Модели ИИ могут со временем снизить уровень предвзятости в мире, однако контроль над использованием моделей ИИ предвзятым образом остается сложной задачей.

Конфликт с Илоном Маском, отношения с Microsoft и финансовые вопросы

На вопрос о конфликте с Илоном Маском, Альтман предлагает обратиться к самому Маску. Он предполагает, что Маска беспокоит безопасность ИИ, и у них есть разногласия, но обе стороны стремятся к положительному результату. Альтман описывает отношения OpenAI с Microsoft как «замечательные», признавая трудности в любых серьезных партнерствах. Он объясняет отсутствие доли в OpenAI членством в совете директоров некоммерческой организации и мотивацией, связанной с желанием внести вклад в технологический прогресс.

Будущее ИИ, сотрудничество с Китаем и Россией и доверие к OpenAI

Альтман обсуждает будущее человечества в условиях автоматизации большинства задач ИИ, предполагая, что люди всегда будут находить новые способы самореализации и творчества. Он считает текущую технологическую революцию продолжительным процессом экспоненциального роста. Альтман отмечает необходимость сотрудничества с Китаем и Россией в области ИИ, несмотря на трудности, и выражает заинтересованность в более глубоком понимании ситуации в этих странах. Доверие к OpenAI должно основываться на действиях компании. Важна демократизация контроля над ИИ и переход к более открытой структуре управления. Будущее ИИ должно принадлежать всему человечеству.

Что будем искать? Например,Переговоры