Этика искусственного интеллекта: что это и зачем она нужна?
В 2023 году искусственный интеллект превратился из узкоспециального инструмента в технологию, доступную каждому. Простые люди начали создавать музыку, писать романы и генерировать картины с помощью нейросетей. Развитие и широкая доступность ИИ породили необходимость в этике — системе принципов, которые помогут создавать и развивать безопасный искусственный интеллект. Как регулировать нейросети и какие проблемы могут возникнуть, если мы не будем контролировать ИИ — в нашей статье.
Зачем нужна этика искусственного интеллекта?
ИИ может как для улучшить, так и ухудшить нашу жизнь. Например, усилить социальную дискриминацию. Так, в 2018 году алгоритм рекрутинга, разработанный Amazon, предвзято относился к кандидатам-женщинам. А американская нейросеть для вынесения приговоров чаще обвиняла в преступлениях темнокожих людей.
Еще одна проблема, с которой мы можем столкнуться, если не будем контролировать развитие ИИ, — безработица и экономический спад. Роботы и нейросети уже справляются с некоторыми задачи лучше людей, а значит могут вытеснить сотрудников с рабочих мест.
Этика искусственного интеллект нужна для того, чтобы предотвратить эти проблемы, развивать технологии во благо человечества, а не во вред ему.
Первые попытки урегулирования в ИИ
В 2017 году в Калифорнии прошла конференция, посвященная безопасному применению ИИ. Результатом конференции стали Азиломарские принципы. Это свод правил, согласно которым компании, разрабатывающие ИИ, должны сотрудничать друг с другом и не пренебрегать стандартами безопасности. Азиломарские принципы подписали Илон Маск, Стивен Хокинг и другие эксперты в области IT.
Ключевые Азиломарские принципы:
Польза: ИИ-должен быть полезным для людей и окружающей среды;
Безопасность: использование технологий не должно причинять вред человечеству;
Прозрачность: действия и решения ИИ должны быть понятными, их можно проанализировать;
Конфиденциальность: алгоритмы не могут допустить утечку чувствительной информации;
Справедливость: в ИИ-разработках не должно быть дискриминации;
Человеческий контроль: люди должны иметь возможность контролировать ИИ;
Общая выгода: ИИ должен приносить пользу обществу, а не отдельным группам людей;
Ответственность: люди, разрабатывающие и разворачивающие ИИ-технологии, должны нести ответственность за их влияние на общество;
Отсутствие гонки ИИ-вооружений: технологию нельзя развивать ради военного превосходства одних государств над другими.
Азиломарские принципы — важный шаг к урегулированию ИИ, но, увы, у них есть недостатки. Так, они носят лишь рекомендательных характер и не предлагают конкретных мер для решения проблем.
Регулирование ИИ в России
1 июля 2020 года в Москве ввели экспериментальный правовой режим, который продлится до 1 июля 2025 года. Цель режима — стимулировать внедрение и развитие ИИ, сформировать механизмы регулирования общественных отношений, возникающих при использовании ИИ-технологий. В эксперименте участвуют компании, занимающиеся разработкой и оборотом технологий искусственного интеллекта, а также товаров и услуг на его основе. Ожидаемый результат — создание правовой базы для регулирования ИИ.
В 2021 году в Москве прошел международный форум «Этика искусственного интеллекта: начало доверия». На мероприятии разработали российский Кодекс этики в сфере ИИ, который подписали более 100 отечественных компаний. В основе Кодекса — прозрачность, непричинение вреда, ответственность за действия ИИ и человекоориентированность. Как и Азиломарские приницпы, документ носит рекомендательный характер.
Практическое применение этических принципов
Этические принципы все еще не закреплены на законодательном уровне, но есть и хорошая новость — многие компании уже начали их применять. Сегодня существует 3 подхода, которые помогают предотвращать проблемы, связанные с развитием ИИ:
Ethics by design: суть заключается в том, что потенциальные угрозы можно предупредить еще на этапе создания ИИ-систем;
AI Localism: согласно этому подходу нужно собирать успешные примеры решения этических вопросов в отдельных странах, городах и компаниях;
Сбор обратной связи: нужно проводить опросы среди тех, кто пострадал от ИИ.