|
Microsoft представила доклад, в котором обвинила хакерские группы, предположительно ассоциированные с российской военной разведкой, Ираном, Китаем и Северной Кореей, в использовании своих крупных языковых моделей (LLM) для усовершенствования кибератак. Компания сделала это при введении полного запрета на использование своих искусственных интеллектуальных технологий хакерскими группами, поддерживаемыми государством.
"Независимо от наличия нарушений законов или условий обслуживания, наша цель проста: мы не желаем, чтобы те субъекты, которых мы идентифицируем, отслеживаем и признаем угрозой в различных аспектах, имели доступ к данной технологии"
отметил вице-президент по безопасности клиентов в Microsoft Том Берт в беседе с агентством Reuters перед публикацией отчета.
«Это один из первых, если не первый случай, когда компания, занимающаяся ИИ, публично обсуждает, как субъекты угроз кибербезопасности используют технологии ИИ»
отметил Боб Ротстед (Bob Rotsted), руководитель отдела анализа угроз кибербезопасности в OpenAI.
OpenAI и Microsoft заявили, что использование их ИИ-инструментов хакерами находится на ранней стадии, и пока не замечено значительных прорывов. "Они просто используют эту технологию, как и любой другой пользователь", - отметил Берт.
В отчете Microsoft подчеркнуто, что цели различных хакерских групп при использовании LLM различаются. Например, хакерские группы, связываемые с ГРУ, применяли LLM для изучения "различных спутниковых и радиолокационных технологий, связанных с обычными военными операциями на Украине". Северокорейские хакеры использовали LLM для создания контента, который "вероятно, будет использоваться в целевых фишинговых кампаниях" против региональных экспертов. Иранским хакерам эти модели были нужны для написания более убедительных электронных писем потенциальным жертвам, в то время как китайские хакеры экспериментировали с LLM, например, задавая вопросы о конкурирующих спецслужбах, проблемах кибербезопасности и "известных личностях".
|
|