ЮНЕСКО приняла рекомендацию об этических аспектах искусственного интеллекта

Генеральная конференция ЮНЕСКО (UNESCO General Conference) приняла во вторник рекомендацию об этических аспектах искусственного интеллекта («recommendation on the ethics of artificial intelligence»), сообщается на сайте организации.

Генеральная конференция ЮНЕСКО Фото: Телеграм-канал «Центр регулирования ИИ»

Документ имеет целью уменьшить риски и трудности, связанные с искусственным интеллектом (ИИ), особенно с точки зрения усугубления существующего неравенства, а также последствий для прав человека, говорится в документе.

В обсуждении проекта Рекомендации приняли участие представители 55 стран, включая Россию и Китай. В итоге проект был поддержан единогласно.

Государствам-членам ООН рекомендовано применять положения рекомендации об этических аспектах ИИ и принять надлежащие меры, в том числе законодательного характера, в соответствии с конституционной практикой и структурами управления каждого государства в целях воплощения в жизнь на их территориях принципов, закреплённых документом.

Структура и содержание рекомендаций

Этичное применение

Под этичным применением ИИ в Рекомендации понимается систематическое нормативное осмысление этических аспектов ИИ на основе эволюционирующей комплексной, всеобъемлющей и многокультурной системы взаимосвязанных ценностных установок, принципов и процедур, способное ориентировать общества в вопросах ответственного учёта известных и неизвестных последствий применения ИИ-технологий для людей, сообществ, окружающей природной среды и экосистем, а также служить основой для принятия решений, касающихся применения или отказа от применения технологий на основе ИИ.

Этические принципы выступают в качестве гибкой основы для нормативной оценки, а также методического руководства в вопросах применения технологий на основе ИИ, «рассматривая человеческое достоинство, благополучие человека и недопущение нанесения вреда как целевой ориентир и уходя корнями в этику науки и технологии».

Определение ИИ

Рекомендация рассматривает ИИ как технологические системы, способные обрабатывать данные и информацию способом, напоминающим разумное поведение и включающим, как правило, такие аспекты, как рассуждение, обучение, распознание, прогнозирование, планирование и контроль.

В системах на основе ИИ могут использоваться различные методы, в частности:

  • самообучение машины, в том числе глубокое обучение и обучение с подкреплением;
  • автоматизированное рассуждение, в том числе планирование, диспетчеризация, представление знаний и формирование рассуждений, поиск и оптимизация;
  • системы на основе ИИ могут использоваться в киберфизических системах, включая системы контроля оборудования через Интернет, робототехническое оборудование, социальную робототехнику и системы человеко-машинного интерфейса, объединяющие в себе функции контроля, распознания, обработки данных, собранных датчиками, а также работу исполнительных элементов в среде функционирования ИИ-систем.

Жизненный цикл ИИ

В документе указывается, что этическая составляющая характерна для всех этапов жизненного цикла искусственной интеллектуальной системы. Жизненный цикл понимается как вся совокупность этапов, начиная с этапов исследования, проектирования и создания и заканчивая этапами развертывания и использования, к которому относятся техническое обслуживание, эксплуатация, сбыт, финансирование, мониторинг и оценка эффективности, контроль работоспособности, вывод из эксплуатации, демонтаж и утилизация.

При этом под субъектами связанной с ИИ деятельности могут пониматься любые заинтересованные стороны, вовлеченные, по меньшей мере, в один их этапов жизненного цикла системы на основе ИИ, – как юридические, так и физические лица, в частности, исследователи, программисты, инженеры, специалисты по обработке данных, конечные пользователи, предприятия частного сектора, университеты, частные и государственные учреждения и т.д.

Ценностные установки

Как сказано в Рекомендации, ценностные установки и принципы деятельности должны, прежде всего, соблюдаться всеми заинтересованными сторонами на протяжении жизненного цикла ИИ-системы и, по мере необходимости и целесообразности, поощряться путем внесения изменений в действующее законодательство и новые законы, нормативные положения и руководящие принципы предпринимательской деятельности. Принимаемые меры должны соответствовать положениям международного права, в том числе уставу ООН, включая обязательства государств-членов в области прав человека.

К ценностным установкам и принципам деятельности отнесено следующее.

1. Уважение, защита и поощрение прав человека и основных свобод и человеческого достоинства

Ни один из этапов жизненного цикла искусственной интеллектуальной системы не должен быть связан с ущербом или зависимостью физического, экономического, социального, политического, культурного или интеллектуального характера для человека или для человеческого сообщества. На протяжении жизненного цикла ИИ-систем необходимо заботиться о повышении качества жизни людей; при этом любой человек или группа лиц вправе самостоятельно трактовать понятие «качество жизни» в той мере, в какой это не ведёт к нарушению или попранию прав человека и основных свобод и не умаляет человеческого достоинства с точки зрения существующего определения.

2. Благополучие окружающей среды и экосистем

Все вовлечённые в жизненный цикл ИИ-систем заинтересованные стороны должны соблюдать положения соответствующих международных и национальных норм, стандартов и правил, включая меры предосторожности, предусмотренные для защиты и восстановления состояния окружающей среды и экосистем, а также обеспечения устойчивого развития.

Они должны стремиться к тому, чтобы снизить оказываемое ИИ-системами на экологию воздействие, в том числе их углеродный след, с тем чтобы минимизировать масштабы изменения климата и влияние факторов экологического риска, а также препятствовать использованию экологически опасных моделей освоения, эксплуатации и переработки природных ресурсов, ведущих к ухудшению состояния окружающей среды и экосистем.

3. Обеспечение разнообразия и инклюзивности

Не должна ограничиваться возможность выбора человеком предпочтительного для него образа жизни, убеждений, взглядов, способов самовыражения или жизненного пути, в том числе возможность факультативного использования ИИ-систем, а также участия в определении их параметров.

4. Жизнь в мирных, справедливых и взаимосвязанных обществах

Процессы в рамках жизненного цикла ИИ не должны вести к дискриминации и обезличиванию людей или ущемлять свободы и независимое принятие решений, а также подрывать безопасность людей и общин, порождать разногласия между отдельными людьми и группами лиц и настраивать их друг против друга или ставить под угрозу сосуществование человека с другими живыми существами и окружающей его природной средой.

5. Соразмерность и непричинение вреда

При наличии потенциальной угрозы причинения вреда людям, правам человека и основным свободам, общинам и обществу в целом или окружающей природе и экосистемам следует предусмотреть соответствующие процедуры оценки рисков, а также принять меры для исключения вероятности причинения такого вреда.

6. Безопасность и защищённость

В интересах обеспечения безопасности и защищённости людей, экологии и экосистем на всех этапах жизненного цикла ИИ-систем следует избегать непреднамеренного причинения вреда (риски для безопасности), а также уязвимости перед кибератаками (риски для защищённости), учитывать, предотвращать и ликвидировать эти риски. Безопасность и защищённость ИИ-систем могут быть повышены посредством разработки надёжных и защищённых от несанкционированного доступа к личной информации комплексных систем, которые обеспечат более эффективный характер обучения и сертификации моделей ИИ на основе качественных данных.

7. Справедливость и отказ от дискриминации

Данное положение подразумевает инклюзивный подход к обеспечению распространения и всеобщего доступа к полученным благодаря ИИ благам с учётом специфических потребностей разных возрастных групп, культурных систем, языковых сообществ, инвалидов, женщин и девочек, малообеспеченных, социально незащищённых и уязвимых категорий населения, либо лиц, находящихся в незащищённом положении.

8. Устойчивость

Оценка людских, социальных, культурных, экономических и экологических аспектов применения технологий на основе ИИ должна неизменно проводиться с должным учётом их влияния на устойчивость развития, под которым понимается набор постоянно меняющихся целей в различных областях деятельности, сформулированных на сегодняшний день в виде целей ООН в области устойчивого развития.

9. Право на неприкосновенность частной жизни и защита данных

Неприкосновенность частной жизни в качестве права, имеющего важнейшее значение для обеспечения защиты человеческого достоинства, личной независимости и способности человека выступать субъектом действия, должна уважаться, защищаться и поощряться на всех этапах жизненного цикла ИИ-систем. Важно, чтобы сбор, использование, передача, архивирование и удаление данных, применяемых в искусственных интеллектуальных системах, осуществлялись в соответствии с международным правом и ценностными установками и принципами, изложенными в настоящей Рекомендации, при одновременном соблюдении соответствующих национальных, региональных и международных правовых норм.

Соответствующие рамочные принципы защиты данных и механизмы управления ими должны разрабатываться на основе подхода с участием многих заинтересованных сторон на национальном уровне, защищаться судебными системами и обеспечиваться на всём протяжении жизненного цикла ИИ-систем. Рамочные принципы защиты данных и любые связанные с ними механизмы должны основываться на международных принципах защиты данных и стандартах, касающихся сбора, использования и раскрытия личных данных, а также реализации субъектами данных своих прав при обеспечении законной цели и надлежащей правовой основы для обработки персональных данных.

ИИ-системы ещё на этапе концептуальной проработки требуют надлежащей оценки последствий на предмет соблюдения неприкосновенности частной жизни, в том числе социальных и этических аспектов их применения, а также инновационных подходов в отношении неприкосновенности частной жизни. Субъекты ИИ должны гарантировать свою подотчётность в рамках разработки и внедрения ИИ-систем, обеспечивая защиту личной информации на протяжении всего жизненного цикла таких систем.

10. Подконтрольность и подчиненность человеку

Государствам-членам следует обеспечить во всех случаях возможность возложения этической и правовой ответственности в отношении любого из этапов жизненного цикла ИИ-системы, а также в случаях применения мер правовой защиты в отношении ИИ-систем, на конкретных физических или действующих юридических лиц. В связи с этим термин «подконтрольность» подразумевает не только контроль со стороны отдельного человека, но и, в необходимых случаях, инклюзивный контроль со стороны общества.

11. Прозрачность и объяснимость

Прозрачность необходима для эффективного применения соответствующего национального и международного законодательства, регулирующего вопросы ответственности. Также люди должны иметь возможность доступа к обоснованию затрагивающего их права и свободы решения и представлять заявления уполномоченным сотрудникам частных компаний или государственных учреждений, которые могут пересмотреть и изменить это решение.

12. Ответственность и подотчётность

Для обеспечения подконтрольности ИИ-систем и их воздействия на всех этапах жизненного цикла необходимо разработать соответствующие механизмы контроля, оценки воздействия, аудита и проверки, включая защиту лиц, сообщающих о нарушениях.

13. Осведомленность и грамотность

Изучение воздействия ИИ-систем должно включать просвещение в области прав человека и основных свобод, с их помощью и в их интересах. Это означает, что отношение к ИИ-системам и их понимание должны зависеть от того, каким образом они воздействуют на сферу прав человека и возможность реализации этих прав, а также на окружающую среду и экосистемы.

14. Многостороннее и адаптивное управление и взаимодействие

Использование данных должно осуществляться на основе международного права и уважения национального суверенитета. Это означает, что государства, руководствуясь нормами международного права, определяют порядок обращения с данными, генерируемыми на их территории или передаваемыми через их территорию, и принимают меры по эффективному правовому регулированию их использования, включая защиту данных, на основе уважения права на неприкосновенность частной жизни в соответствии с нормами международного права и другими нормами и стандартами в области прав человека.

Отечественный опыт

Описание этических аспектов разработки и применения ИИ-систем в «Национальной стратегии развития искусственного интеллекта на период до 2030 года», принятой в России в 2019 году, проекту Рекомендации ЮНЕСКО не противоречит ни в одном из пунктов, напротив, содержит совпадающие этические принципы.

В октябре 2021 в России, напомним, разработан, опубликован и подписан первыми организациями-добровольцами кодекс этики ИИ.

Как и в случае с Рекомендацией ЮНЕСКО, цель кодекса — обеспечение прав граждан, которые могут нарушаться – и на практике уже нарушаются – ИИ-системами, которые применяют компании и государство.

Кодекс соответствует Рекомендации ЮНЕСКО по духу, а местами и буквально – например, в части повышения осведомлённости об этике применения ИИ, непричинении вреда человеку ИИ-системами и пр. Также, как и Рекомендация, кодекс возлагает ответственность за последствия применения ИИ-систем на человека и определяет благо человека и человеческих сообществ целью использования ИИ-систем.

Российский кодекс, однако, представляет собой прежде всего практически применимый документ, рассчитанный на добровольное присоединение к нему новых компаний и организаций. Он больше, чем Рекомендация ЮНЕСКО, напоминает инструкцию по правильному, т.е. этичному, обращению с ИИ. Кодекс содержит не только общие принципы, но и конкретные положения, он определяет, например, что ИИ-системы не должны использоваться за пределами «своей» предметной области, которая была выбрана разработчиками для решения определённых на этапе проектирования ИИ-системы задач, т.п.

Принципиального значения, это, впрочем, не имеет. Напротив, принятые в России документы, имеющие отношение к этике использования ИИ систем, a том числе официальные, совпадают с Рекомендацией ЮНЕСКО в основном и даже в частностях.

Источник: d-russia.ru

Обновлено: 23.11.2021 — 13:43

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *