Мой кабинет
Понедельник - Пятница с 10:00 до 19:00
Фильтр
Бренд

От кодекса к поведению: роль регулирования в ответственной разработке ИИ

Keysight
Время на прочтение: 5 мин

al.png

Прорывы в области искусственного интеллекта (ИИ) происходят ускоряющимися темпами, а вместе с ними и огромные экономические и социальные выгоды в широком спектре секторов. Прогнозирующие возможности ИИ наряду с автоматизацией, которую он обеспечивает, помогают в операционной оптимизации, распределении ресурсов и персонализации приложений. Однако преимущества ИИ сопровождаются растущей обеспокоенностью по поводу потенциального злоупотребления, которое необходимо устранить, чтобы обеспечить общественную безопасность и доверие к этой революционной технологии. Правила необходимы для обеспечения того, чтобы ИИ разрабатывался и внедрялся способами, соответствующими общественным ценностям, принципам безопасности и этическим стандартам.

Рекомендации по регулированию искусственного интеллекта

Ведутся дебаты о роли правительства в регулировании ИИ. Сторонники ужесточения регулирования указывают на то, что оно имеет решающее значение для обеспечения доверия потребителей к инструментам ИИ. Недоброжелатели обеспокоены тем, что регулирование создаст невыгодные условия для небольших фирм, у которых нет ресурсов транснациональных технологических гигантов. Эти дебаты идут на фоне стремительных инноваций и все более сложных алгоритмов ИИ, внедряемых во все большее число продуктов в разных секторах. Это заставляет регулирующие органы изо всех сил пытаться найти сбалансированную структуру, которая будет направлять развитие ответственного ИИ, не препятствуя инновациям.

Социальные соображения

Искусственный интеллект имеет значительные последствия для занятости, образования и социального равенства. Правила должны гарантировать, что алгоритмы искусственного интеллекта способствуют справедливости по отношению к общественным ценностям и принятию решений человеком, помогая управлять негативными воздействиями и смягчать их, такими как смена работы из-за автоматизации, продвигая программы переподготовки, обеспечивая равный доступ к технологиям искусственного интеллекта и способствуя инклюзивным процессам развития.

Правила могут обеспечивать соблюдение этических стандартов при разработке ИИ, гарантируя, что системы ИИ разрабатываются с учетом справедливости, подотчетности и прозрачности. Это включает устранение предвзятостей в алгоритмах ИИ, защиту от неправильного использования и обеспечение того, чтобы ИИ уважал права человека и ценности. Правила также необходимы для надзора или ограничения разработки и внедрения систем ИИ, которые могут нанести вред, таких как инвазивные технологии наблюдения, или инструментов, которые могут подорвать демократические процессы.

Соображения конфиденциальности и безопасности данных

Поскольку системы искусственного интеллекта часто полагаются на большие наборы данных, включая личную информацию, нормативные акты могут помочь защитить данные отдельных лиц и конфиденциальность. Они могут обеспечивать соблюдение стандартов защиты данных, требований согласия и ограничений на использование данных, гарантируя, что ИИ не нарушает права людей на неприкосновенность частной жизни.

Нормативные акты имеют решающее значение для обеспечения безопасности систем ИИ. Они могут устанавливать рекомендации по надежности ИИ, минимизируя риски, связанные со сбоями или непреднамеренными последствиями. Это особенно важно в критических областях, таких как здравоохранение, транспорт (например, автономные транспортные средства) и финансы, где сбои в работе ИИ могут иметь серьезные последствия.

Вопросы инноваций и сотрудничества

Технологии искусственного интеллекта выходят за рамки национальных границ, и нормативные акты играют решающую роль в содействии международному сотрудничеству и стандартам. Глобальные совместные инновации жизненно важны для решения глобальных проблем, таких как безопасность искусственного интеллекта, обеспечение совместимости систем искусственного интеллекта и управление глобальным влиянием искусственного интеллекта на рынки труда.

Нормативные акты могут создать равные условия для игры, которые поощряют здоровую конкуренцию и инновации, одновременно укрепляя общественное доверие к технологиям ИИ. Устанавливая четкие стандарты, нормативные акты могут уменьшить неопределенность, которая может препятствовать инвестициям и развитию в ИИ. Доверие имеет важное значение для широкого внедрения технологий искусственного интеллекта, а нормативные акты могут помочь убедить пользователей в безопасности и надежности систем искусственного интеллекта.

Новый глобальный стандарт регулирования искусственного интеллекта

В феврале 2024 года все 27 государств-членов Европейского союза (ЕС) одобрили Закон об искусственном интеллекте (AI Act), который является первым в мире всеобъемлющим законодательством в области искусственного интеллекта. Закон об ИИ устанавливает широкое определение ИИ, которое может применяться к различным организациям, включая поставщиков, развертывателей, импортеров и дистрибьюторов систем ИИ. Этот закон будет использовать систему классификации, основанную на рисках, которая позволит законодательству развиваться вместе с технологиями ИИ. Большинство систем будут относиться к более низким категориям риска, но все они потребуют значительных процедурных обязательств и прозрачности в отношении их использования.

Это новое законодательство также запрещает системы ИИ, которые, как считается, включают “неприемлемые риски”, представляющие угрозы для людей, включая использование подсознательных методов влияния на поведение или тех, которые нацелены на уязвимости в определенных группах. Категория "высокого риска" применяется к 5-15% систем ИИ и представляет собой большинство обязательств в Законе об ИИ.

К ним относятся компоненты и продукты безопасности, которые уже регулируются законодательством ЕС в области безопасности, а также автономные системы ИИ, используемые как в государственном, так и в частном секторах, таких как образование и набор персонала, биометрическая идентификация, определение доступа к основным услугам, а также управление критической инфраструктурой и безопасность границ.

Эксперты-юристы и технологи, придерживающиеся Закона об ИИ, ожидают, что он будет официально принят летом 2024 года, а полное исполнение последует через 2 года. Есть исключения, когда принудительное исполнение вступит в силу раньше. Сюда входят запреты на системы с наибольшим риском, которые вступят в силу через 6 месяцев после принятия закона. Правила, касающиеся ИИ общего назначения (GPAI), вступят в силу через двенадцать месяцев. Проекты законодательства доступны для общественности. Они предоставляют компаниям требования, которым им необходимо соответствовать, чтобы интегрировать ИИ в разработку своих продуктов и операционные процессы.

Готовьтесь заранее

ЕС надеется, что Закон об ИИ послужит глобальным стандартом регулирования искусственного интеллекта. Это надежная лакмусовая бумажка для типов нормативных актов, которые другие страны планируют внедрить в ближайшее время. Технологические компании должны пересмотреть свою нормативно-правовую базу и убедиться, что она соответствует правилам, установленным ЕС. Эти правила будут способствовать укреплению общественного доверия и обеспечат, чтобы общество и промышленность продолжали пользоваться преобразующими преимуществами инноваций в области технологий искусственного интеллекта.


Рассказать друзьям
Мой город
+7 499 685 44 44
Понедельник - Пятница с 10:00 до 19:00
г. Москва
улица Усиевича, 23