Компания Anthropic решительно отрицает предположения Министерства обороны США о том, что разработчик может манипулировать своими моделями искусственного интеллекта в разгар вооруженного конфликта.
По данным американского военного ведомства, технологическая компания теоретически способна внедрить механизмы удаленного отключения или модификации функциональности своих AI-инструментов в критический момент боевых действий. Такой сценарий рассматривается как потенциальная угроза национальной безопасности, поскольку вооруженные силы все чаще полагаются на системы искусственного интеллекта в своей деятельности.
Руководители Anthropic категорически отвергают подобные предположения, аргументируя свою позицию техническими возможностями и архитектурой своих систем. По их утверждению, развернутые модели функционируют независимо и не предусматривают централизованного управления или механизмов удаленного контроля, которые бы позволили компании вмешиваться в их работу после развертывания.
Этот конфликт интерпретаций отражает более широкую дискуссию в оборонном и технологическом секторах о рисках, связанных с зависимостью от коммерческих разработок искусственного интеллекта. Представители государственных структур обеспокоены вопросами суверенитета и безопасности, тогда как компании подчеркивают важность сохранения баланса между инновациями и нормативными требованиями.
Данное разногласие указывает на необходимость разработки четких стандартов и соглашений между оборонным сектором и компаниями, занимающимися разработкой искусственного интеллекта, чтобы обеспечить как национальную безопасность, так и возможность развития передовых технологий.
Источник: https://www.wired.com/story/anthropic-denies-sabotage-ai-tools-war-claude/