Компания Anthropic решительно отрицает предположения Министерства обороны США о том, что разработчик может манипулировать своими моделями искусственного интеллекта в разгар вооруженного конфликта.

По данным американского военного ведомства, технологическая компания теоретически способна внедрить механизмы удаленного отключения или модификации функциональности своих AI-инструментов в критический момент боевых действий. Такой сценарий рассматривается как потенциальная угроза национальной безопасности, поскольку вооруженные силы все чаще полагаются на системы искусственного интеллекта в своей деятельности.

Руководители Anthropic категорически отвергают подобные предположения, аргументируя свою позицию техническими возможностями и архитектурой своих систем. По их утверждению, развернутые модели функционируют независимо и не предусматривают централизованного управления или механизмов удаленного контроля, которые бы позволили компании вмешиваться в их работу после развертывания.

Этот конфликт интерпретаций отражает более широкую дискуссию в оборонном и технологическом секторах о рисках, связанных с зависимостью от коммерческих разработок искусственного интеллекта. Представители государственных структур обеспокоены вопросами суверенитета и безопасности, тогда как компании подчеркивают важность сохранения баланса между инновациями и нормативными требованиями.

Данное разногласие указывает на необходимость разработки четких стандартов и соглашений между оборонным сектором и компаниями, занимающимися разработкой искусственного интеллекта, чтобы обеспечить как национальную безопасность, так и возможность развития передовых технологий.

Источник: https://www.wired.com/story/anthropic-denies-sabotage-ai-tools-war-claude/

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *