Militarization of Artificial Intelligence Systems: Opportunities and Threats


Дәйексөз келтіру

Толық мәтін

Аннотация

The research is devoted to considering the possibilities and risks of using artificial intelligence in military affairs. It is emphasized that at present, when the importance of the factor of military force has significantly increased in the world, artificial intelligence technologies are increasingly being considered as one of the basic tools for strengthening the potential of militarization. Along with other breakthrough innovations, such systems are a priority in the creation of promising weapons, military and special equipment. The conditions of growing tension in the modern confrontation are stimulating an unprecedented increase in the pace of scientific and technical development of “smart” weapons, their serial industrial production, testing and use on the battlefield. The development of artificial intelligence technologies is actively bringing forward a fundamental transformation of the scientific and technical equipment of the defense sector and leading to the emergence of new trends in the development of military art. Analyzing the phenomenon of opacity of artificial intelligence, the author notes the tendency of these systems to turn into a kind of black boxes, which significantly complicates the understanding of the principles, algorithms, sequence of actions on the basis of which the system makes conclusions, decisions, etc. This entails the impossibility of properly monitoring the adequacy of the data obtained using these systems, and even more so of “automatically” trusting them. These circumstances increase potential risks, since the use of weapons equipped with artificial intelligence platforms significantly reduces the operator’s ability to control the situation in the combat area, minimizing the time to comprehend the situation and make a strategic decision. The author believes that the main threat of the transition from robotization to the intellectualization of weapons and military equipment is the removal of humans from decision-making. Going beyond clearly understood and defined algorithms is a danger that cannot be ignored. The cost of an error made as a result of an inadequate decision made by a digital service may turn out to be unacceptably high. The study notes that weapons equipped with artificial intelligence are more dangerous than traditional means of warfare due to speed and elements of unpredictability. Such developments can become a powerful catalyst for the onset of the era of the next technological structure, where the main guideline is the creation of systems of strong (general) artificial intelligence.

Авторлар туралы

Ekaterina Gnatik

RUDN University

Хат алмасуға жауапты Автор.
Email: gnatik-en@rudn.ru
ORCID iD: 0000-0003-0745-5019

DSc in Philosophy, Professor, Professor, Department of Ontology and Epistemology, Faculty of Humanities and Social Sciences

6 Miklukho-Maklaya St., Moscow, 117198, Russian Federation

Әдебиет тізімі

  1. Vilovatykh AV. Artificial intelligence as a factor in the future military policy. Problems of national strategy. 2019;1(52):177–192. (In Russian).
  2. Protasov AA, Shirmanov AV, Radomanov SI. Main directions of using artificial intelligence in automated control systems. Armament and Economics. 2023;4(66):5–16. (In Russian).
  3. Averkin AN. Еxplicable artificial intelligence as part of 3rd generation artificial intelligence. Speech technology. 2023;(1):4–10. (In Russian).
  4. Chereshneva IA. Artificial intelligence in public administration and its transparency: european experience. Public Administration. 2022;(2):80–87. (In Russian). https://doi.org/10.22394/2070-8378-2022-24-2-80-87
  5. Ananny M, Crawford K. Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media & Society. 2018;20(3):973–989.
  6. Hagendorff T. The Ethics of AI Ethics: An Evaluation of Guidelines. Minds & Machines. 2020;(30):99–120.
  7. Zarudnitsky VB. Trends of changes in the system of providing military security of the state in the conditions of the new geopolitical map of the world. Military thought. 2024;(2):6–14. (In Russian).
  8. Bartosh AA. The fog of hybrid war: Uncertainties and risks of conflicts in the 21st century. Moscow: Goriachaya liniya – Telecom; 2019. (In Russian).
  9. Bartosh AA. Russia’s technological sovereignty as a key victory factor in global hybrid warfare. Military thought. 2023;(8):16–32. (In Russian).
  10. Ilnitsky AM. Russia's mental war. Military thought. 2021;(8):19–33. (In Russian).
  11. Gnatik EN. Digital Transformation of Socio-Technological Reality: Problems and Risks. RUDN Journal of Philosophy. 2024;28(1):168–180. (In Russian). https://doi.org/10.22363/2313-2302- 2024-28-1-168-180
  12. Glukhov YE. On legal regulation of artificial intelligence employment in the military sphere. Military thought. 2022;(8):73–85. (In Russian).
  13. Ulanov AS. Prognostic assessment of development trends in armed struggle assets and methods of their employment in future warfare. Military thought. 2022;(8):37–50. (In Russian).
  14. Biryukov AV. Remarks on the impact of science and technology progress on international relations in digital era. Journal of International Analytics. 2015;(3):103–115. (In Russian). https://doi.org/10.46272/2587-8476-2015-0-3-103-115
  15. Ishechkin BB, Ishechkin VB, Yevtikhov SV. Prospects for the application of artificial intelligence in troop command and control. Military thought. 2023;(8):79–84. (In Russian).
  16. Golubenko NYu, Vavrinyuk SA, Ivanov AA. U.S. army automated battle control system development. Military thought. 2023;(8):134–145. (In Russian).
  17. Serzhantov AV, Smolovy AV, Terentyev IA. Transformation of the war content: the outline of future military conflicts. Military thought. 2022;(6):19–30. (In Russian).
  18. Komissina IN. Current state and prospects for the development of artificial intelligence technologies in China. Problems of national strategy. 2019;1(52):137–160. (In Russian).
  19. Burenok VM. Artificial intelligence in the military confrontation of the future. Military thought. 2021;(4):106–112. (In Russian).
  20. Izyumov DB, Kondratyuk EL. Analysis of differences between the United States and China in approaches to the use of artificial intelligence in weapons systems. Innovation and expertise: scientific works. 2022;2(34):228–239. (In Russian).
  21. Falichev O, Galanin Yu. Iron contract soldiers. Military-industrial courier. All-Russian weekly newspaper. 2018;38(751). (In Russian).
  22. Protasov AA, Shirmanov AV, Radomanov SI. Technological advancements in artificial intelligence and deterrence of a potential aggressor. Military thought. 2023;(11):68–82. (In Russian).

Қосымша файлдар

Қосымша файлдар
Әрекет
1. JATS XML

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».