Опубликовано: 26.03.2026, 04:57
Передача права принимать боевые решения системам искусственного интеллекта может привести к отсутствию ответственного лица. Об этом сообщил РИА Новости замдиректора института МГЮА Руслан Рашитханов.
По его словам, в действующей правовой системе ИИ рассматривается как инструмент для анализа и поддержки решений, однако окончательное решение о применении силы должно оставаться за человеком. Если же алгоритмы начинают фактически заменять человека, возникает сложность с определением ответственности за последствия.
Эксперт подчеркнул, что в таком случае появляется правовой пробел, поскольку исчезает конкретный субъект, принимающий решение. Это усложняет как внутреннее регулирование, так и применение норм международного права.
Рашитханов отметил, что при использовании ИИ в военных целях вступают в силу положения международного гуманитарного права, включая Дополнительный протокол к Женевским конвенциям от 1977 года. Документ требует оценивать не только технологии, но и условия их применения, а также соблюдать принципы соразмерности и предосторожности.
Он также добавил, что ни российское законодательство, ни международные нормы не признают системы искусственного интеллекта самостоятельным субъектом, способным принимать юридически значимые решения о применении силы.
Автор: Алексей Смирнов



