На протяжении большей части прошлого года около 2,500 военнослужащих США из 15-го морского экспедиционного соединения находились на трех кораблях в Тихом океане, проводя учебные упражнения в водах у Южной Кореи, Филиппин, Индии и Индонезии. В то же время на борту кораблей разворачивался эксперимент: морские пехотинцы, отвечающие за обработку иностранной разведки и уведомление своих командиров о возможных угрозах, впервые использовали генеративный ИИ для этой задачи, тестируя передовой инструмент ИИ, который финансирует Пентагон.
Два офицера сообщили нам, что использовали новую систему для анализа тысяч открытых данных разведки — неclassified статей, отчетов, изображений, видео — собранных в различных странах, где они действовали, и что это происходило значительно быстрее, чем с помощью старого метода ручного анализа. Капитан Кристин Энзенауэр, например, говорит, что использовала большие языковые модели для перевода и подведения итогов иностранных новостных источников, в то время как капитан Уилл Лоудон использовал ИИ для помощи в написании ежедневных и еженедельных отчетов разведки, которые он предоставлял своим командирам.
«Мы все еще должны проверять источники», — говорит Лоудон. Но командиры подразделения поощряли использование больших языковых моделей, утверждает он, «потому что они обеспечивают гораздо большую эффективность в динамичной ситуации».
Инструменты генеративного ИИ, которые они использовали, были разработаны оборонной технологической компанией Vannevar Labs, которая в ноябре получила контракт на производство на сумму до 99 миллионов долларов от ориентированного на стартапы Оборонного инновационного управления Пентагона с целью внедрения своей технологии разведки в更多 военных частей. Компания, основанная в 2019 году ветеранами ЦРУ и американского разведывательного сообщества, присоединилась к таким компаниям, как Palantir, Anduril и Scale AI, как один из основных бенефициаров принятия искусственного интеллекта армией США — не только для физических технологий, таких как дроны и автономные транспортные средства, но и для программного обеспечения, которое революционизирует способ, которым Пентагон собирает, управляет и интерпретирует данные для ведения войны и наблюдения.
Хотя американская армия разрабатывает модели компьютерного зрения и подобные инструменты ИИ, такие как те, что использовались в Проекте Maven с 2017 года, использование генеративного ИИ — инструментов, которые могут вести разговоры, подобно тем, что создала Vannevar Labs — представляет собой новую границу.
Компания применяет существующие крупные языковые модели, включая некоторые от OpenAI и Microsoft, а также несколько собственных моделей для получения открытой разведывательной информации, которую компания собирает с 2021 года. Масштаб, на котором собираются эти данные, трудно представить (и это большая часть того, что отличает продукты Vannevar): каждый день в 180 странах собираются тербайты данных на 80 различных языках. Компания утверждает, что может анализировать профили в социальных сетях и обходить брандмауэры в таких странах, как Китай, чтобы получить трудно доступную информацию; она также использует неclassified данные, которые сложно получить онлайн (собранные человеческими агентами на местах), а также отчеты с физических сенсоров, которые тайно мониторят радиоволны для выявления незаконных перевозок.
Vannevar затем создает модели ИИ для перевода информации, обнаружения угроз и анализа политических настроений, с результатами, доставляемыми через интерфейс чат-бота, который не сильно отличается от ChatGPT. Цель состоит в том, чтобы предоставить клиентам критически важную информацию по таким темам, как международные цепочки поставок фентанила и усилия Китая по обеспечению редкоземельных минералов на Филиппинах.
«Наш настоящий фокус как компании», — говорит Скотт Филипс, технический директор Vannevar Labs, — это «собирать данные, обрабатывать их и помогать США принимать правильные решения».
Этот подход особенно привлекателен для американского разведывательного аппарата, поскольку на протяжении многих лет мир уже переполнен данными, которые человеческие аналитики не могут интерпретировать — проблема, которая способствовала основанию Palantir в 2003 году, компании, сейчас стоящей почти 217 миллиардов долларов и известной своими мощными и противоречивыми инструментами, включая базу данных, которая помогает иммиграционным и таможенным службам «искать и отслеживать информацию о незарегистрированных иммигрантах».
В 2019 году Vannevar увидела возможность использовать большие языковые модели, которые тогда только появились на рынке, как новое решение для проблемы с данными. Эта технология может позволить ИИ не только собирать данные, но и взаимодействовать в процессе анализа с человеком.
Инструменты Vannevar оказались полезны в ходе развертывания в Тихом океане, и Эзенауэр с Лоудоном отмечают, что хотя им было приказано всегда перепроверять работу ИИ, они не обнаружили значительных неточностей. Энзенауэр регулярно использовала инструмент для отслеживания любых иностранных новостных репортажей, в которых упоминались учения подразделения, и для проведения анализа настроений, выявляя эмоции и мнения, выраженные в тексте. Оценить, отражает ли иностранная новость угрожающую или дружелюбную позицию к подразделению — задача, которую ей приходилось решать вручную в ходе предыдущих развертываний.
«Это в основном делалось вручную — исследование, перевод, кодирование и анализ данных», — говорит она. «Это определенно занимало гораздо больше времени, чем с использованием ИИ».
Тем не менее, Эзенауэр с Лоудоном утверждают, что были и некоторые трудности, которые, скорее всего, затронули бы большинство цифровых инструментов: на кораблях в течение большей части времени были нестабильные интернет-соединения, что ограничивало скорость, с которой модель ИИ могла обрабатывать иностранную разведку, особенно если это касалось фото или видео.
По завершении данного первого теста, командующий подразделением полковник Шон Дайнан заявил на звонке с журналистами в феврале, что ожидается более обширное использование генеративного ИИ; этот эксперимент был «только верхушкой айсберга».
Это действительно направление, в котором вся американская армия активно движется вперед. В декабре Пентагон заявил, что в течение следующих двух лет планирует потратить 100 миллионов долларов на пилоты, специально предназначенные для приложений генеративного ИИ. В дополнение к Vannevar, он также обращается к Microsoft и Palantir, которые работают вместе над моделями ИИ, использующими секретные данные. (Американская армия, конечно, не единственная в этом подходе; например, Израиль использовал ИИ для сортировки информации и даже генерации списков целей в своей войне в Газе, что стало предметом широкой критики.)
Возможно, не удивительно, что много людей вне Пентагона предупреждают о потенциальных рисках этого плана, включая Хейди Хлааф, главного ученого по ИИ в Институте AI Now, исследовательской организации, имеющей опыт в проведении аудитов безопасности для систем на базе ИИ. Она говорит, что этот спешащий подход к внедрению генеративного ИИ в военное принятие решений игнорирует более основополагающие недостатки технологии: «Мы уже осознаем, как большие языковые модели имеют высокую степень неточности, особенно в контексте критически важных приложений, требующих точности».
Одним из конкретных случаев использования, который ее беспокоит, является анализ настроений, который она утверждает «является высоко субъективным показателем, который даже людям было бы сложно правильно оценить, основываясь только на СМИ».
Если ИИ воспринимает враждебность к силам США там, где человеческий аналитик этого не делает — или если система пропускает враждебность, которая на самом деле присутствует — армия может принять неправильно информированное решение или ненужно эскалировать ситуацию.
Анализ настроений действительно является задачей, которую ИИ еще не освоил. Филипс, технический директор Vannevar, говорит, что компания создала модели, специально предназначенные для оценки того, является ли статья проамериканской или нет, но MIT Technology Review не смогла их оценить.
Крис Мутон, старший инженер RAND, недавно тестировал, насколько генеративный ИИ подходит для этой задачи. Он оценивал ведущие модели, включая GPT-4 от OpenAI и более старую версию GPT, дообученную для таких разведывательных работ, по тому, насколько точно они выявляют иностранный контент как пропаганду по сравнению с человеческими экспертами. «Это сложно», — говорит он, подчеркивая, что ИИ испытывает трудности с идентификацией более тонких типов пропаганды. Но он добавляет, что модели все равно могут быть полезны в многих других аналитических задачах.
Еще одним ограничением подхода Vannevar, по словам Хлааф, является то, что полезность открытой разведывательной информации спорна. Мутон говорит, что открытые данные могут быть «довольно необычными», но Хлааф указывает на то, что, в отличие от секретной разведки, собранной через развертывание или прослушивание, она подвержена открытым интернет-угрозам, что делает ее намного более уязвимой для кампаний дезинформации, бот-сетей и преднамеренной манипуляции, как предупреждала армия США.
Для Мутона самым важным открытым вопросом сейчас является то, будут ли эти технологии генеративного ИИ просто одним исследовательским инструментом среди многих, которые используют аналитики, или же они будут вызывать субъективный анализ, который будет использоваться и которому будут доверять в принятии решений. «Это центральная дискуссия», — говорит он.
Все согласны с тем, что модели ИИ доступны — вы можете просто задать им вопрос о сложных частях разведки, и они ответят понятным языком. Но все еще ведутся споры о том, какие недостатки будут приемлемыми во имя эффективности.