<

Управление сверхинтеллектом: риски и возможности для будущего.

В ближайшие 10 лет искусственный интеллект будет опережать экспертов, поэтому управление сверхинтеллектом - экзистенциальный риск. OpenAI предлагает три идеи для управления рисками.

В ближайшие 10 лет системы искусственного интеллекта могут опережать экспертов во многих областях и выполнять задачи, эквивалентные работе крупных корпораций. Эта технология представляет экзистенциальный риск, аналогичный ядерной энергии и синтетической биологии. Самуэль Альтман и его коллеги из OpenAI рассматривают управление сверхинтеллектом, который, по их мнению, станет еще более мощным в следующие 10 лет. Сверхинтеллект может принести значительную пользу человечеству, но также несет существенные риски, которые необходимо управлять.

Предлагают три идеи для управления рисками сверхинтеллекта: координацию усилий лучших разработчиков, создание международного органа для регулирования суперинтеллекта и развитие технических возможностей для создания действительно безопасного искусственного интеллекта. Подчеркивают важность общественного контроля и демократического принятия решений в управлении сверхинтеллектом. Возможно, контроль за ИИ станет вызовом, и ИИ с открытым исходным кодом могут оставаться недоступными для такого контроля. В дополнение, будущий регулятор может быть ширмой, за которой будет развиваться настоящий AGI.

Пожертвовать на развития сайта.

Оцените статью
TIMEAI.RU - Новости искусственного интеллекта и нейросетей
Добавить комментарий

Подпишись на наш канал в Telegram и получи доступ к GPT-4