В мире, Технологии
В миреТехнологии
2 минуты
ВКонтакте Одноклассники Telegram

США и Китай начали обсуждение мер по регулированию искусственного интеллекта. В США целью этой работы назвали создание систем искусственного интеллекта, которые будут заслуживать доверие.

Ограничивать нейросети могут начать в США и Китае Unsplash.com

Власти США начали обсуждение мер по регулированию сервисов, основанные на искусственном интеллекте (ИИ), такие как ChatGPT. Тем временем в Китае уже опубликовали проект «Методов по управлению службами генеративного искусственного интеллекта».

Национальное управление по телекоммуникациям и информации министерства торговли США 11 апреля 2023 года начало публичные консультации с экспертным и бизнес-сообществами по вопросу «мер ответственности» в области ИИ. Обсуждение будет идти два месяца, затем министерство на основе анализа поступивших предложений выпустит отчёт о мерах государственного регулирования в этой сфере.

Среди возможных мер – введение обязательной сертификации нейросетевых инструментов. В управлении по телекоммуникациям и информации заявили, что цель обсуждения – создавать заслуживающий доверия искусственный интеллект.

В США выразили опасение, что сервисы ИИ могут представлять угрозу, быть использованы для дискриминации и распространения вредной информации. Глава Национального управления по телекоммуникациям и информации Алан Дэвидсон заявил, что его удивляет, на что уже сейчас способны инструменты на основе ИИ.

Управление по вопросам киберпространства Китая, в свою очередь, также 11 апреля 2023 года опубликовало для общественного обсуждения уже готовый проект «Методов по управлению службами генеративного искусственного интеллекта». Согласно документу, сгенерированный нейросетью контент должен быть правдивым и точным, а также отражать основные ценности социализма. Создаваемый материал не должен призывать к экстремизму, терроризму, насилию, дискриминации и иным образом нарушать законодательство. Проект также запрещает использовать для обучения ИИ данные, защищенные авторским правом.