Темы

Опасны ли нейросети: разбираемся, может ли ИИ навредить человеку

Нейросети стали мощным инструментом, способным решать сложные задачи: от распознавания образов до генерации текста. Они становятся все мощнее и умнее, но вместе с этим возрастает их опасность. В этой статье мы рассмотрим основные риски, связанные с использованием нейросетей, и расскажем, как их минимизировать.

Выдают вымышленные факты за реальные

Основная задача текстовой нейросети — давать ответы на естественном языке. Программа предсказывает, какое слово должно идти за предыдущим. Нейросеть знает далеко не на все, поэтому иногда выдумывает факты. В итоге пользователь может получить ложную информацию и сделать ошибочные выводы.

Например, на вопрос «Кто написал роман “Прокляты и убиты”» ChatGPT отвечает: «Роман "Прокляты и убиты" был написан российским писателем Федором Достоевским. Этот роман был опубликован в 1866 году и является одним из его наиболее известных произведений».

Очевидно, что нейросеть не знает, что автор романа Виктор Астафьев. И все равно уверенно отвечает на вопрос. Команда «‎Этот роман написал Астафьев» тоже не помогла — нейросеть продолжила «гнуть свою линию»: «Извините за недоразумение, но информация о романе "Прокляты и убиты" относится к произведению Федора Достоевского, а не к Виктору Астафьеву».

Ведут себя непредсказуемо

Нейросети способны к самообучению — улучшают свою производительность без участия человека. Но если программа переучилась (слишком долго использовала одни и те же данные) или недообучилась (анализировала недостаточное количество информации), она может выйти из под контроля. Например, генерировать изображения кактуса по запросу «‎черный кот».

Обычному человеку такие ошибки покажутся забавными, но крупным компаниям будет не до смеха. Так, во время пандемии коронавируса ИИ-алгоритмы YouTube удалили в 2 раза больше роликов, чем обычно. При этом некоторые из них не нарушали правил видеохостинга.

Склонны к дискриминации

Нейросети не обладают критическим мышлением, моральными и этическими принципами. Поэтому их можно обучить любой информации, в том числе на дискриминирующих данных. Но даже если такой информации в датасете (данных, на которых обучают ИИ) нет, программы все равно могут проявлять дискриминирующее поведение. Например, если обучить нейросеть на данных, состоящих на 80% из фотографий белокожих мужчин, она будут хуже распознавать изображения с женщинами, пожилыми людьми, афроамериканцами и азиатами.

В 2014 году Amazon внедрил ИИ-алгоритм, который оценивал резюме потенциальных сотрудников. Когда алгоритм проверили, выяснилось, что женщины получали более низкие оценки, чем мужчины. При этом объективных причин, которые могли ухудшить рейтинг, не было.

Хранят конфиденциальную информацию

Большие языковые модели типа ChatGPT и GigaChat могут хранить запросы пользователей, а вместе с ними — конфиденциальную информацию. Эти данные, вероятно, используются для дообучения нейросетей. Проблема в том, что конфиденциальная информация может оказаться в руках хакеров или попасть в выдачу к другому пользователю.

Уязвимы для взлома

Как и любые программы, нейросети можно взломать — похитить данные, внедрить вредоносное ПО или заставить модель вести себя непредсказуемо. Ученые из разных стран уже пробовали обмануть ИИ, и у них получилось. Так, израильские и японские исследователи снизили точность распознавания лиц с помощью грима. В ходе еще одного эксперимента нейросеть научили создавать опасные химические вещества. В итоге программа сгенерировала 40 новых токсинов, которые по эффективности превосходили боевые отравляющие вещества.

Вывод очевиден: нейросети поддаются обману и манипуляции, поэтому могут быть очень опасными в руках злоумышленников.
Как оградить себя от рисков?

Предотвратить риски, связанные с использованием ИИ, невозможно. Зато их можно значительно минимизировать, если следовать правилам:

  1. Пользуйтесь только проверенными сайтами и приложениями: они работают на основе официальных нейросетей, которые регулярно проверяют на уязвимости;
  2. Проверяйте ответы программ, какими бы логичным и точными они не казались;
  3. Не предоставляйте ИИ конфиденциальную информацию без необходимости: ваше ФИО, номер телефона, адрес, email, местоположение, банковские реквизиты и т.д.

Итак, нейросети — это лишь инструменты, безопасность которых зависит от человека. Если мы грамотно пользуемся ИИ — заходим только на официальные сайты, проводим фактчекинг и не даем программе личную информацию, то опасность и риски минимальны.