OpenAI: ChatGPT, будущее ИИ и этические риски

Сан-Франциско, неприметное здание в центре города. Здесь один из самых нашумевших стартапов мира делает будущее, основанное на технологиях, более реальным. OpenAI стоит за ChatGPT и DALL-E, опередив технологических гигантов и начав конкурентную гонку. Но как этот стартап добился такого успеха?

Люди и стратегия OpenAI

Миро Муратти, главный архитектор, отвечает за стратегию компании. Логотип OpenAI, изображающий цветок, символизирует, по словам главного ученого Ильи, ИИ, дружелюбный к человечеству. Компания фокусируется на решении проблем, связанных с галлюцинациями, правдивостью, надежностью и согласованностью моделей. Некоторые сотрудники ушли, чтобы основать собственные компании из-за разногласий в стратегии. Однако в OpenAI поддерживается постоянный диалог, позволяющий систематизировать проблемы и находить решения. Работа компании — это сочетание руководства, командной работы, разработки долгосрочной стратегии, выявления пробелов и поддержки команд. Речь идёт о решении сложных задач.

ChatGPT: от идеи к феномену

Решение выпустить ChatGPT было непростым. В OpenAI понимали необходимость получить больше отзывов о пользовательском опыте, рисках и ограничениях. Цель заключалась в изучении технологии и её внедрении в общественное сознание. ChatGPT стал самым быстрорастущим технологическим продуктом в истории, превзойдя все ожидания. Удивила степень вовлечения пользователей.

ChatGPT, основанный на нейронной сети, обучен на огромном массиве данных с помощью суперкомпьютера. Цель обучения – предсказание следующего слова в предложении. С увеличением данных и обучения модель становится мощнее, полезнее и надёжнее.

Рынок, конкуренция и будущее

OpenAI не стремится доминировать в сфере поиска. ChatGPT предлагает иной, более интуитивный способ получения информации, чем поиск по ключевым словам. Мир движется в этом направлении.

Проблема заключается в уверенности, с которой ChatGPT иногда даёт ответы. Цель — не безопасно предсказывать следующее слово, а справляться с ограничениями, например, различать правду и ложь. Некоторые данные необъективны или неверны, что усугубляет проблему дезинформации. Особую тревогу вызывает способность моделей, таких как GPT-4, к «галлюцинациям» — придумыванию несуществующей информации. Нельзя слепо доверять всему, что выдает технология.

Этика, рабочие места и ИИ

Данные для обучения ИИ поступают от писателей и художников. Возникает вопрос о вознаграждении этих людей, опасающихся потери работы. Однако появились и новые профессии, например, инженеры по промтам, зарабатывающие сотни тысяч долларов в год. Ключ к успеху — интуитивное понимание того, как получить от модели максимальную отдачу, давая достаточный контекст и проверяя информацию.

В OpenAI признают использование подрядчиков для масштабирования, и что работа по очистке данных от токсичного контента может быть сложной. Компания подчёркивает наличие стандартов психического здоровья и благополучия для подрядчиков.

ИИ и дети

Важен вопрос взаимодействия ИИ с детьми. Необходимо ограничивать доступ мощных систем к наиболее уязвимым группам населения. Существуют риски и неопределённости, связанные с влиянием ИИ на людей.

Инвестиции и будущее

В Кремниевой долине бум инвестиций в ИИ. Бред Хоффман, ранний инвестор Facebook, считает, что ИИ станет помощником для всех. Проблема нынешнего дискурса — излишняя концентрация на страхе, а не на надежде. Хоффман упоминает «блиц-масштабирование» — приоритет скорости над эффективностью в условиях неопределённости.

Риски и ответственность

Необходимо обращать внимание на опасные области применения ИИ. Не все ответы ИИ оригинальны и экспертны. Вопрос инвестиций в ИИ остаётся открытым, существует риск образования нового пузыря. Разработка ИИ элитной группой людей — не лучший подход. Необходимо вовлечение миллиардов людей в создание технологии, которая будет влиять на миллиарды людей.

Влияние ИИ на технологическую индустрию

ИИ создаст волну перемен, изменит поиск информации и откроет новые возможности для стартапов. Возможен появление новых технологических гигантов, сопоставимых с Google, Facebook, Apple, Amazon и Microsoft.

OpenAI: от некоммерции к коммерции

Переход OpenAI от некоммерческой организации к коммерческой вызвал критику. Однако коммерческая модель позволяет привлекать капитал для поддержки некоммерческих проектов. Выпуск ChatGPT был отложен на 4 месяца для проведения тестов безопасности. OpenAI стремится предотвратить использование технологии в вредоносных целях.

Прозрачность и будущее

Необходима большая прозрачность, но сложно договориться о том, что ИИ должен или не должен делать. Важно строить индустрию будущего ответственно. Риски ускоренного развития ИИ значительны. Обсуждается создание федерального агентства для аудита систем ИИ как способ ответственной инновации. Риск вымирания человечества из-за ИИ существует, но преувеличен. OpenAI осознаёт риски, но верит в потенциал технологии. Мир далёк от сильного ИИ, способного принимать самостоятельные решения. Прогресс в обществе происходит за счёт расширения знаний, но это должно происходить ответственно.

Что будем искать? Например,Переговоры