Новости ИБ

OpenAI и Microsoft заявляют, что перекрыли нескольким хак-группам доступ к ChatGPT

Специалисты Microsoft заявили, что иностранные APT (связанные с Китаем, Россией, Ираном и Северной Кореей) используют ChatGPT для автоматизации поиска уязвимостей, разведки и выполнения различных задач по созданию вредоносного ПО. OpenAI сообщила, что уже заблокировала несколько таких аккаунтов.

В свежем отчете эксперты Microsoft пишут, что тесно сотрудничают с OpenAI и изучают использование больших языковых моделей (LLM) злоумышленниками. Эти исследования показали, что сразу несколько известных APT-группировок экспериментируют с ChatGPT, чтобы получить больше информации потенциальных жертвах, оптимизировать написание вредоносных скриптов, а также анализировать публично доступные бюллетени безопасности и изучать свежие уязвимости.

Хотя специалисты не обнаружили серьезных атак с использованием LLM, Microsoft утверждает, что хакерские группы из России, Китая, Северной Кореи и Ирана, используют ИИ в своих операциях.
«Киберпреступные группы, правительственные хакеры и другие злоумышленники изучают и тестируют различные ИИ-технологии по мере их появления, стремясь понять их потенциальную ценность для своих операций и против средства защиты, которые может понадобиться обойти», — пишут аналитики Microsoft.
К примеру, в одном случае исследователи обнаружили, что группировка Forest Blizzard (она же APT28 и FancyBear), использовала LLM для проведения исследований различных протоколов спутниковой связи и технологий получения радиолокационных изображений.

Среди других приведенных в отчете примеров присутствуют:

  • Emerald Sleet (она же Kimusky): северокорейская группировка использовала LLM для идентификации экспертов, аналитических центров и организаций, занимающихся вопросами обороны в Азиатско-Тихоокеанском регионе, изучения общедоступных уязвимостей, выполнения базовых скриптовых задач и создания контента, который можно использовать в фишинговых кампаниях.
  • Crimson Sandstorm (она же Imperial Kitten): иранская группировка использовала LLM для создания сниппетов, связанных с разработкой приложений и сайтов, генерации фишинговых писем и исследования распространенных способов обхода обнаружения малвари.
  • Charcoal Typhoon (она же Aquatic Panda): китайская хак-группа, которая использовала LLM для изучения различных компаний и уязвимостей, создания скриптов, контента для фишинговых кампаний и анализа методов пост-эксплуатации.
  • Salmon Typhoon (она же Maverick Panda): китайская группировка, применявшая LLM для перевода технических документов, получения открытой информации о различных спецслужбах и региональных угрозах, устранения ошибок в коде и поиска тактик для уклонения от обнаружения.

Представители OpenAI сообщают, что уже заблокировали учетные записи злоумышленников, обнаруженные в сотрудничестве с Microsoft. В компании пишут, что хакеры «стремились использовать сервисы OpenAI для запроса информации из открытых источников, переводов, поиска ошибок в коде и выполнения рутинных задач по написанию кода».

При этом в OpenAI отметили, что ранее уже было установлено, что «GPT-4 предоставляет весьма ограниченные дополнительные возможности для выполнения вредоносных задач, помимо тех, которые и так были достижимы при использовании общедоступных инструментов без применения ИИ».
Источник: Хакер
Новости