26 октября «Центр подготовки руководителей и команд цифровой трансформации» ВШГУ РАНХиГС принял участие в форуме «Этика искусственного интеллекта (ИИ) в государстве» в информационном агентстве ТАСС. Эксперты «Центра» провели дискуссию об этике применения ИИ в государстве.
Повестку обсуждения задал вице-премьер РФ Дмитрий Чернышенко, принимавший участие в пленарном заседании форума: ««Технологии искусственного интеллекта постепенно внедряются в самые разные сферы жизни, включая образование, здравоохранение, госуправление. По данным ВЦИОМа, около 48% россиян доверяют ИИ. Это достаточно высокая цифра. Но пока у части общества неоднозначное отношение к таким технологиям, и это то, над чем нам надо работать, — отметил Заместитель Председателя Правительства. — Мы должны это делать, как раз развивая государственное и общественное регулирование, этическое регулирование в этих областях, оно позволит нам с этим справиться».
Вице-премьер отметил важность создания «Кодекса этики искусственного интеллекта», который был разработан с учетом требований «Национальной стратегии развития искусственного интеллекта» на период до 2030 года и подписан на форуме представителями государства и бизнеса. Он также добавил, что в более чем 20 странах есть утвержденные кодексы частных или государственных организаций. Ключевые этические принципы, характерные для всех этих документов: прозрачность и правдивость, ответственное отношение к созданию и использованию ИИ, приоритет защиты человека в развитии технологий ИИ.
Эти принципы обсудили участники сессии «Этика искусственного интеллекта (ИИ) в государстве». Модератором дискуссии выступила Екатерина Потапова, руководитель направления исследований и аналитики «Центра подготовки руководителей и команд цифровой трансформации» ВШГУ РАНХиГС. Она рассказала об этических принципах внедрения технологий ИИ в госсекторе и исследовательской работе «Центра» по вопросам этики.
«Государство как регулятор в первую очередь должно заботиться об интересах граждан — следить за тем, чтобы технологии были этичными, не дискриминирующими. В 2020-21 годах государства и компании собирают данные в таких объемах, которые прежде однозначно выглядели бы как грубое нарушение приватности. С другой стороны, технологии дают слишком много возможностей государству, чтобы их игнорировать. Важно сделать так, чтобы эти возможности не были использованы во вред гражданам», — считает модератор дискуссии.
По словам Екатерины Потаповой, раньше критические решения принимались стандартным путем — в рамках этики и этических дилемм. Сейчас срочные решения могут принимать госслужащие или IT-специалисты, которые не обязаны знать этические нормы и быть знакомы с юриспруденцией. В результате увеличивается риск принятия неэтичных решений.
«Этика, в свою очередь, напрямую связана с доверием, а доверие с успешностью компании или страны в долгосрочной перспективе. Доверие граждан к государству тает, когда технологии используют неэтично, когда их применение вызывает страх и наносит вред гражданам», — добавила эксперт «Центра».
О том, какие риски возникают при принятии решений с помощью ИИ в госуправлении, рассказала Ольга Шепелева, эксперт «Центра подготовки руководителей и команд цифровой трансформации» ВШГУ РАНХиГС, руководитель проектного направления «Цифровое право» ЦПУР. По ее словам, неэтичное использование интеллектуальных систем может привести к дискриминации отдельных групп людей, в том числе неумышленной. Кроме того, существуют риски непрозрачности результатов и склонности пользователей некритично полагаться на рекомендации ИИ. Эксперт перечислила факторы, усиливающие риски — избыточный оптимизм относительно использования ИИ, вопросы к качеству данных и нехватка квалифицированных специалистов.
«Доверие к государству формируется во многом за счет качества конкретных решений, которые принимаются в том числе с помощью ИИ. Одними из ключевых параметров качества принимаемых решений становятся справедливость, отсутствие дискриминации и обоснованность. Решение должно быть понятно и объяснимо для тех, кому оно адресовано», — дополнила Ольга Шепелева.
Андрей Игнатьев, руководитель направления аналитики «Центра Глобальной ИТ-Кооперации», научный сотрудник — исследователь кафедры цифровой экономики и ИИ МГИМО МИД России, рассказал о ключевых направлениях работы правительств в области ИИ в разных странах. Он отметил, что в мировом сообществе сегодня уделяется большое внимание вопросам развития ИИ, защиты национальных рынков и социальной стабильности.
Валерий Карпов, вице-президент «Российской ассоциации искусственного интеллекта», начальник лаборатории робототехники НИЦ «Курчатовский институт», сделал обзор практических аспектов этики ИИ. Он задался вопросом, может ли интеллектуальная система быть моральным агентом, и что из этого может следовать?
«Специфика этики интеллектуальных/автономных систем (И/АС) заключается в том, что мы имеем дело с системой, которая автономно принимает решения, критически важные для человека. Суть этики в том, что такая система должна иметь моральный фильтр, обладать моделью мира. Для этого необходимо сформулировать на уровне стандартов представления о том, что такое хорошо и что такое плохо, создать органы, которые могут провести «моральную экспертизу» принятых И/АС решений, а также начать широкомасштабные исследования в области прикладной экспериментальной этики», — отметил спикер.
Павел Готовцев также выступил с докладом об интеллектуальных и автономных системах и этических вопросах их применения. Он рассмотрел проблему с точки зрения рисков сокращения рабочих мест для людей в связи с развитием ИИ. При анализе этого вопроса эксперт предложил учитывать структурные изменения, связанные не только с внедрением И/АС, но и с развитием других технологий, которые создают новые рабочие места. Например, аддитивное производство, биотехнологии, новые технологии в энергетике и другие.
В завершение дискуссии Екатерина Потапова отметила, что эксперты «Центра подготовки руководителей и команд цифровой трансформации» ВШГУ РАНХиГС уже не первый год изучают вопросы этики ИИ в государстве и их влияние на различные сферы жизни. Поэтому важно, чтобы государство слышало представителей академического сообщества и привлекало их к деятельности в области этики ИИ.