Проекты и инновацииЗа рубежом

Риски ChatGPT: Основатели OpenAI призывают к регулированию, пока искусственный интеллект не уничтожил человечество

25 мая 2023, 11:08Новости303

Цей матеріал також доступний українською

Исследователи десятилетиями предупреждали о потенциальных рисках, связанных с суперинтеллектом, но с развитием ИИ эти риски стали более конкретными

  • Ссылка скопированаlink copied

Компания OpenAI, разрабатывающая ChatGPT, призвала к регулированию “сверхумных” искусственных интеллектов, чтобы защитить человечество от риска случайного создания чего-то, способного его уничтожить.

Как пишет The Guardian, в краткой записке, опубликованной на сайте компании, соучредители Грег Брокман и Илья Суцкевер и генеральный директор Сэм Альтман призывают международного регулятора начать работу над тем, как “проверять системы, требовать проведения аудитов, тестировать на соответствие стандартам безопасности, налагать ограничения на степень развертывания и уровень безопасности”, чтобы снизить “экзистенциальный риск”, который могут составлять такие системы, передает БЦ со ссылкой на LIGA.net.

В краткосрочной перспективе троица призывает к “определенному уровню координации” между компаниями, работающими на передовой исследования в области ИИ, чтобы обеспечить плавную интеграцию разработки все более мощных моделей в общество, предоставляя приоритет безопасности. Такая координация может осуществляться, например, через проект под руководством правительства или коллективное соглашение об ограничении роста возможностей ИИ.

Исследователи десятилетиями предупреждали о потенциальных рисках, связанных с суперинтеллектом, но с развитием ИИ эти риски стали более конкретными. Американский Центр безопасности искусственного интеллекта (CAIS), который работает над тем, чтобы “уменьшить общественные риски от искусственного интеллекта”, описывает восемь категорий “катастрофических” и “экзистенциальных” рисков, которые может представлять развитие ИИ.

Лидеры OpenAI говорят, что эти риски означают, что “люди по всему миру должны демократически решать вопросы о границах и настройках систем ИИ”, но признают, что “мы еще не знаем, как разработать такой механизм”.

Впрочем, они отмечают, что дальнейшее развитие мощных систем стоит риска.

Проблемные долгиОбратите внимание
15 апреля 2026, 16:57 • Новости • Проблемные долги
Проекты и инновации
14 апреля 2026, 15:25 • Новости • Проекты и инновации
Проекты и инновации
14 апреля 2026, 14:44 • Новости • Проекты и инновации
Проблемные долги
9 апреля 2026, 17:49 • Новости • Проблемные долги

Не пропустите важное!
Подписывайтесь и получайте дайжест новостей

Ежедневно или еженедельно – выбираете вы!

Мнение эксперта

Хотите стать автором borg.expert?