Меню
  • $ 79.15 +0.96
  • 91.01
  • ¥ 11.50

Как США используют ИИ в военных целях — «тупость исполнителей» довела до скандала

Последствия ударов по Ирану. Фото: Kerry Breen / CBS News

В США разгорелся скандал, связанный с использованием ИИ модели Claude от Anthropic в военных целях, в частности для ударов по Ирану. Президент Дональд Трамп был вынужден наложить запрет на эти модели. Как отмечают российские военкоры, этот случай может стать первым в истории военным преступлением, совершенным по тупости и лени исполнителей.

4 марта Трамп приказал всем госучреждениям прекратить использование ИИ модели Claude от Anthropic. Поводом стало заявление гендиректора компании Дарио Амодеи об отказе смягчить этические ограничения модели для военных целей (снять запрет на применение в полностью автономном режиме оружия и других систем, ведущих к человеческим гибелям и разрушениям).

«Суть проблемы заключается в „галлюцинациях“ ИИ-моделей — когда они выдают ответ, который звучит уверенно, грамматически идеально и правдоподобно, но при этом полностью или частично вымышлен. Это явление является фундаментальным свойством современных ИИ-моделей (в 3−15% сложных запросов), которое до сих не удалось решить полностью», — поясняют авторы телеграм-канала «Два майора».

До запрета американские военные использовали Claude (в рамках проекта Maven) и другие модели при отборе и приоритизации целей для ударов по Ирану.

«Показательно рассмотрение в ходе расследования удара по иранской школе для девочек версии о возможной ошибке ИИ („галлюцинация“), которая могла привести к тому, что школа была неверно включена в список целей», — указывают военкоры.

Несмотря на реальные угрозы, Пентагон продолжил использование других ИИ-моделей ChatGPT и Grok.

«Не исключено, что „светочи“ военного дела из вооружённых сил США и Израиля на деле оказались бестолочами и лентяями, которые вместо того, чтобы планировать операцию исключительно на объективных данных (спутниковой, агентурной и технической разведки) и использовать ИИ для ускорения обработки и проверки большого массива информации, просто доверились ответам чат-ботов о возможных целях и использовали непроверенные результаты, не учитывая реальные риски ошибочных ответов», — комментируют «Два майора».

Как подчеркивают авторы ТК, этот случай может стать первым в истории военным преступлением, совершенным по тупости и лени исполнителей.

«Показательно также, как быстро американские военные перешли от использования ИИ для борьбы с бюрократией к применению в летальных операциях», — резюмируют они.

Как передавало EADaily, по данным CBS Newsсо ссылкой на информированные источники, ошибка в наведении на цель, когда 28 февраля США нанесли удар по школе для девочек в иранском Минабе, произошла из-за использования устаревших разведывательных данных, что привело к ошибке.

Школа фигурировала как часть иранской военной базы. При этом у Вашингтона нет возможностей свалить это военное преступление на израильтян — авиация еврейского государства не действовала в указанном районе 28 февраля. Пресс-секретарь Белого дома Анна Келли с раздражением заявила журналистам, что расследование продолжается и «на данный момент нет никаких выводов, и утверждать обратное было бы безответственно и ложно».

В первый день войны от удара по начальной школе в Минабе погибли более 170 девочек в возрасте от 7 до 12 лет, а также персонал школы. Трамп заявил журналистам, что школу для девочек в Минабе разбомбил сам Иран.

Постоянный адрес новости: eadaily.com/ru/news/2026/03/09/kak-ssha-ispolzuyut-ii-v-voennyh-celyah-tupost-ispolniteley-dovela-do-skandala
Опубликовано 9 марта 2026 в 15:24
Все новости

09.03.2026

Загрузить ещё
Актуальные сюжеты
Март 2026
2324252627281
2345678
9101112131415
16171819202122
23242526272829
303112345