С развитием ИИ правительства по всему миру начинают задумываться не только о технологиях, но и о компаниях, которые активно их разрабатывают. Европейский Союз стал первым, кто одобрил всеобъемлющее законодательство в области регулирования искусственного интеллекта. Недавно ЕС представил начальный проект Кодекса практики, ориентированного на универсальные модели ИИ.
Эти правила будут обязательны для таких компаний, как Meta, Google, OpenAI, Apple и других. Окончательная версия документа ожидается в мае следующего года. Эти рекомендации помогут компаниям управлять рисками и соблюдать законодательство, избегая серьёзных штрафов. Хотя Закон об ИИ в ЕС вступил в силу 1 августа, детали регулирования универсальных моделей были оставлены на более поздний срок. Новый проект предоставляет возможность внести исправления до окончательного принятия.
Что же такое универсальные модели ИИ? Это системы, способные выполнять широкий спектр задач и адаптироваться к различным моделям, используя обширные данные. Под регулирующие нормы ЕС, согласно новому документу, уже подпадают такие компании, как OpenAI, Google, Meta, Apple и другие.
Европейская комиссия подчеркнула важность этого документа для развития безопасных и надёжных универсальных ИИ моделей. Проект охватывает ключевые аспекты, такие как прозрачность, соблюдение авторских прав, оценка рисков, а также управление техническими и стратегическими рисками.
Особое внимание уделяется прозрачности: компании должны раскрывать информацию о веб-сканерах, используемых в обучении моделей. Этот вопрос стал актуальным для ЕС после расследования способа обучения чат-бота Grok.
Риски также играют важную роль в обсуждении, особенно в отношении кибербезопасности, дискриминации и потенциала самоуправления ИИ-систем. Компании разрабатывают Рамку безопасности и защиты для описания стратегий управления рисками в зависимости от их степени.
Технические аспекты также затронуты: компании должны обеспечивать защиту данных моделей, надёжнасць систем контроля доступу и регулярно пересматривать их эффективность. Управленческая часть нацелена на повышение ответственности компаний и привлечение внешних экспертов для непрерывной оценки рисков.
Подобно другим законам ЕС, как, например, DMA, AI Act предусматривает серьёзные штрафы за нарушение: до €35 миллионов или семь процентов от глобальной годовой прибыли компании — что больше.
До 28 ноября участники могут оставить свои отзывы о проекте на платформе Futurium. Окончательные правила вступят в силу 1 мая 2025 года. Несмотря на то, что многие крупные компании, такие как Meta и Apple, выразили недовольство, отказавшись подписать AI Act, Google и Microsoft поддержали соглашение. Однако эти правила необходимы для нас, пользователей, чтобы развитие ИИ — от обучения до практического использования — находилось под более пристальным контролем.