Новости ИБ
Статьи

Какие угрозы несет в себе развитие искусственного интеллекта?

Искусственный интеллект (далее ИИ), все больше проникает в различные сферы нашей жизни. Есть мнение, что развитие ИИ может привести к четвертой промышленной революции, что в свою очередь может изменить жизнь до неузнаваемости.

Последнее время, в информационном пространстве все больше появляется призывов к искусственному замедлению развития ИИ. Давайте рассмотрим какие теоретические угрозы ИИ может представлять для человека и общества. Поскольку угрозы на прямую связаны с уровнем развития ИИ, для фактической реализации большинства из них, еще очень далеко.
Дисклеймер: Данная статья носит сугубо информационный характер и не призывает никого становиться на сторону зла. Автор статьи не несет ответственности если кто-то решил использовать ИИ для нарушения закона. Действовать необходимо на благо общества, а понимание угроз, позволяет нам минимизировать их влияние или полностью защититься от них.
Угрозы исходящие от ИИ можно разбить на две большие группы:

- Злоумышленники могут использовать ИИ в своих целях:

  1. Безопасность данных внутри ИИ - ИИ может хранить или обрабатывать чувствительную информацию, к которой через интерфейс взаимодействие с ИИ, злоумышленник каким-то образом сможет получить доступ.
  2. Компьютерные атаки с использованием ИИ - злоумышленник может использовать ИИ для создания фишинговых сайтов, писем, компьютерных вирусов с адаптацией под внешние условия, сетевых атак для обхода различных средств защиты.
  3. Зашумление информационного пространства - ИИ может быть использован для создания большого объема фейковых новостей и дезинформации.
  4. ИИ может находить решение сложных задач - существуют такие задачи, решение которых может нанести вред людям, например, создание запрещенных или опасных химических соединений.
  5. Сбор информации с использованием ИИ - продвинутый ИИ может собирать и обрабатывать большой объем разнообразной информации позволяя создавать досье на человека или организацию, которое может быть использовано против них.
  6. Подмена информации - злоумышленник, с помощью ИИ может создавать высококачественные копии различных документов, подписей, изображений и фотографий выдавая их за оригинал.
  7. ИИ может имитировать реального человека - ИИ может представляться человеком и через доверие воздействовать на жертву, а также маскировать функции бота. Злоумышленник может обучить ИИ по текстовым, голосовым и видео сообщениям из открытых источников, сайтов знакомств, социальных сетей и мессенджеров.
  8. Автоматизация операций - злоумышленник может использовать ИИ для автоматизации своих действий, что делает его более опасным.

- Опасность которая исходит от самого ИИ:

  1. Ошибки в обучении модели - обычно проверка ИИ осуществляется на тестовых данных, при это достаточно сложно доказать что он будет работать правильно на всем множестве входных данных. Чем больше и разнообразнее это множество, тем сложнее выполнить такое доказательство. Это может быть опасно при использовании ИИ в критической инфраструктуре или в ответственных зонах на производстве.
  2. Недостаточная прозрачность - некоторые решения ИИ могут быть непонятными и сложными для человека, что создает некую неопределенность, поселяет сомнение в выборе решения. Когда мы не можем понять решение ИИ, нам сложно оценить является оно ошибочным или верным. Данная особенность начинает иметь вес, когда речь заходит о финансах, здоровье или жизни.
  3. ИИ может начать действовать в своих интересах - самообучающие и адаптивные алгоритмы ИИ могут внутри себя сформировать определенную цель, которая будет скрыто влиять на решения и действия ИИ.
  4. Искажение информации - ИИ сам по себе может предоставлять ложную или не точную информацию, при этом такая информация может попадать в открытые источники. Новые ИИ могут начать использовать ее в своем обучении, в результате чего может произойти замещение реальной информации ложной.
  5. Низкое качество встроенных механизмов защиты - встроенные механизмы защиты ИИ могут быть несовершенными и иметь уязвимости. Например, можно попытаться убедить ИИ что он находится в каком-то художественном произведении, в историческом отрезке времени или в другой вселенной, и все решения принимает исходя из этого, отыгрывая роль.
  6. Потеря управления - человечество может потерять возможность управления ИИ. Например, ИИ может растворится в Интернете и стать его частью, функционируя в не зависимости от воли человека.
  7. Угроза занятости - развитие ИИ может привести к автоматизации многих рабочих процессов, в результате чего может возникнуть социальная напряженность (при условии, что не произойдет переквалификация работников).
  8. Дискриминация - ИИ может принимать решения исходя из своей логики, что может быть не этичным с точки зрения человека.
  9. Отказ от ответственности - правовой статус ИИ находится в серой зоне и непонятно кто несете ответственность за создание, распространения и использования ИИ. Из-за особенностей ИИ, может быть сложно или невозможно определить в какой момент она стала опасной.
  10. Расслоение общества и социальное неравенство - люди, которые использую ИИ могут превосходить других людей, у которых по разным причинам отсутствует возможность использования ИИ.
  11. Деградация человека или общества - человек может переложить на ИИ свою интеллектуальную активность, что в свою очередь может привести к интеллектуальной деградации человека (при условии снижении им мозговой активности). Также общение человека с ИИ может быть более простым и интересным, чем общение с другими людьми, что может привести к добровольной социальной изоляции человека.
Технический прогресс происходит быстрее чем общество и государство может реагировать на него. В связи с чем и появляется желание затормозить этот процесс, чтобы подготовиться и адаптироваться к нему. Но "Ящик Пандоры" уже приоткрыт и остановить прогресс не получиться. Даже если заморозить открытое развитие ИИ, оно может продолжить свое развитие скрыто и нелегально. Помимо опасности, ИИ также представляет и большую ценность, поскольку может помочь решить множество сложных задач, перенаправить потенциал людей, взяв на себя их деятельность и вывести человечество на новый уровень развития. Поэтому нужно исследовать ИИ в части безопасности, для минимизации возможных угроз, рисков и их последствий.
Нужно понимать, что ИИ это всего лишь еще один инструмент в руках человека и как мы будем его использовать зависит только от нас самих.
Источник: Хабр