Адаптивный нейросетевой метод многомерного интегрирования для произвольных подобластей


Цитировать

Полный текст

Аннотация

Многомерное интегрирование является фундаментальной задачей вычислительной математики, имеющей многочисленные приложения в физике и инженерии. Традиционные численные методы, такие как квадратура Гаусса--Лежандра и методы Монте-Карло, сталкиваются со значительными трудностями в пространствах высокой размерности из-за «проклятия размерности»: они требуют больших вычислительных ресурсов и часто теряют точность. В данной работе предлагается адаптивный метод многомерного интегрирования, основанный на нейронной сети, для эффективного вычисления интегралов по произвольным подобластям. Подход оптимизирует состав обучающей выборки с помощью параметра балансировки $\rho $, который регулирует долю точек, сгенерированных методом, использующим модификацию алгоритма Метрополиса--Гастингса, по сравнению с равномерным выбором. Это позволяет нейронной сети эффективно определять сложное поведение подынтегральной функции, особенно в областях с резкими изменениями. Ключевым элементом данного метода является принцип «обучи один раз --- интегрируй где угодно»: одна нейронная сеть, обученная на большом домене, может впоследствии вычислять интегралы на любых произвольных подобластях без повторного обучения, что значительно снижает вычислительные затраты. Эксперименты проведены на трёх типах функций --- квадратичной, Corner Peak и синусе суммы квадратов --- в размерностях от 2 до 6. Точность интегрирования оценивалась с помощью метрики Correct Digits (CD). Результаты показывают, что наш метод обеспечивает сравнимую или более высокую точность по сравнению с традиционными методами (Гаусс--Лежандр, Монте-Карло, Халтона) для сложных функций, при этом существенно сокращая время вычислений. Оптимальные диапазоны $\rho $ составляют 0.0--0.2 для гладких функций и 0.3--0.5 для функций с резкими особенностями. В многомерных случаях (4D,6D) метод демонстрирует устойчивость при $\rho = 0.2\text {--}0.6$, превосходя стохастические методы, хотя и немного уступая латинскому гиперкубическому выбору. Предложенный метод представляет собой масштабируемую и эффективную альтернативу классическим методам интегрирования, особенно полезную в задачах высокой размерности и в приложениях, требующих многократного вычисления интегралов на различных подобластях.

Об авторах

М. Р. Щербак

Российский университет дружбы народов

Email: 1032216537@rudn.ru
ORCID iD: 0000-0002-9229-2535

Student of Department of Computational Mathematics and Artificial Intelligence 

Россия, ул. Миклухо-Маклая, д. 6, Москва, 117198, Российская Федерация

Л. Р. Абдуллина

Российский университет дружбы народов

Email: 1032216538@rudn.ru
ORCID iD: 0000-0002-3918-3620

Student of Department of Computational Mathematics and Artificial Intelligence 

Россия, ул. Миклухо-Маклая, д. 6, Москва, 117198, Российская Федерация

С. И. Салпагаров

Российский университет дружбы народов

Email: salpagarov-si@rudn.ru
ORCID iD: 0000-0002-5321-9650
Scopus Author ID: 57201380251

Candidate of Physical and Mathematical Sciences, associate Professor of Department of Computational Mathematics and Artificial Intelligence

Россия, ул. Миклухо-Маклая, д. 6, Москва, 117198, Российская Федерация

В. М. Федорищев

Российский университет дружбы народов

Автор, ответственный за переписку.
Email: 1142230295@rudn.ru
ORCID iD: 0009-0003-5906-9993

Student of Department of Computational Mathematics and Artificial Intelligence 

Россия, ул. Миклухо-Маклая, д. 6, Москва, 117198, Российская Федерация

Список литературы

  1. Press, W. H., Teukolsky, S. A., Vetterling, W. T. & Flannery, B. P. Numerical Recipes: The Art of Scientific Computing 3rd (Cambridge University Press, Cambridge, UK, 2007).
  2. McKay, M. D., Beckman, R. J. & Conover, W. J. A Comparison of Three Methods for Selecting Values of Input Variables in the Analysis of Output from a Computer Code. Technometrics 21, 239–245. doi: 10.1080/00401706.1979.10489755 (1979).
  3. Bassi, H., Zhu, Y., Liang, S., Yin, J., Reeves, C. C., Vlček, V. & Yang, C. Learning nonlinear integral operators via recurrent neural networks and its application in solving integro-differential equations. Machine Learning with Applications 15, 100524. doi: 10.1016/j.mlwa.2023.100524 (Mar. 2024).
  4. Maître, D. & Santos-Mateos, R. Multi-variable integration with a neural network. Journal of High Energy Physics 2023, 221. doi: 10.1007/JHEP03(2023)221 (Mar. 2023).
  5. Li, S., Huang, X., Wang, X., et al. A new reliability analysis approach with multiple correlation neural networks method. Soft Computing 27, 7449–7458. doi: 10.1007/s00500-022-07685-6 (June 2023).
  6. Subr, K. Q-NET: A Network for Low-dimensional Integrals of Neural Proxies. Computer Graphics Forum 40, 61–71. doi: 10.1111/cgf.14341 (2021).
  7. Beck, C., Becker, S., Cheridito, P., Jentzen, A. & Neufeld, A. Deep Splitting Method for Parabolic PDEs. SIAM Journal on Scientific Computing 43, A3135–A3154. doi: 10.1137/19M1297919 (2021).
  8. Wan, M., Pan, Y. & Zhang, Z. A Physics-Informed Neural Network Integration Framework for Efficient Dynamic Fracture Simulation in an Explicit Algorithm. Applied Sciences 15, 10336. doi: 10.3390/app151910336 (2025).
  9. Nowak, A., Kustal, D., Sun, H. & Blaszczyk, T. Neural network approximation of the composition of fractional operators and its application to the fractional Euler-Bernoulli beam equation. Applied Mathematics and Computation 501, 129475. doi: 10.1016/j.amc.2025.129475 (2025).
  10. Brunner, K. J., Fuchert, G., de Amorim Resende, F. B. L., Knauer, J., Hirsch, M., Wolf, R. C. & the W7-X Team. Auto-encoding quadrature components of modulated dispersion interferometers. Plasma Physics and Controlled Fusion 67. Special Issue on the 6th European Conference on Plasma Diagnostics (ECPD 2025), 105007. doi: 10.1088/1361-6587/ae0a80 (Oct. 2025).
  11. Saxena, S., Bastek, J.-H., Spinola, M., Gupta, P. & Kochmann, D. M. GNN-assisted phase space integration with application to atomistics. Mechanics of Materials 182, 104681. doi:10.1016/j. mechmat.2023.104681 (July 2023).
  12. Saz Ulibarrena, V., Horn, P., Portegies Zwart, S., Sellentin, E., Koren, B. & Cai, M. X. A hybrid approach for solving the gravitational N-body problem with Artificial Neural Networks. Journal of Computational Physics 496, 112596. doi: 10.1016/j.jcp.2023.112596 (Jan. 2024).
  13. Hu, Z., Shukla, K., Karniadakis, G. E. & Kawaguchi, K. Tackling the curse of dimensionality with physics-informed neural networks. Neural Networks 176, 106369. doi: 10.1016/j.neunet.2024. 106369 (Aug. 2024).
  14. Cho, J., Nam, S., Yang, H., Yun, S.-B., Hong, Y. & Park, E. Separable PINN: Mitigating the Curse of Dimensionality in Physics-Informed Neural Networks 2023.
  15. Ayriyan, A., Grigorian, H. & Papoyan, V. Sampling of Integrand for Integration Using Shallow Neural Network. Discrete and Continuous Models and Applied Computational Science 32, 38–47 (2024).
  16. Metropolis, N., Rosenbluth, A. W., Rosenbluth, M. N., Teller, A. H. & Teller, E. Equation of State Calculations by Fast Computing Machines. The Journal of Chemical Physics 21, 1087–1092. doi: 10.1063/1.1699114 (1953).
  17. Hastings, W. K. Monte Carlo sampling methods using Markov chains and their applications. Biometrika 57. _eprint: https://academic.oup.com/biomet/article-pdf/57/1/97/23940249/57-197.pdf, 97–109. doi: 10.1093/biomet/57.1.97 (Apr. 1970).
  18. Lloyd, S. Using Neural Networks for Fast Numerical Integration and Optimization. IEEE Access 8, 84519–84531. doi: 10.1109/ACCESS.2020.2991966 (2020).
  19. Cybenko, G. Approximation by superpositions of a sigmoidal function. Mathematics of Control Signals and Systems 2, 303–314. doi: 10.1007/BF02551274 (Dec. 1989).
  20. Marquardt, D. W. An Algorithm for Least-Squares Estimation of Nonlinear Parameters. Journal of the Society for Industrial and Applied Mathematics 11. Publisher: Society for Industrial and Applied Mathematics, 431–441. doi: 10.1137/0111030 (June 1963).
  21. Genz, A. A Package for Testing Multiple Integration Subroutines in Numerical Integration: Recent Developments, Software and Applications (eds Keast, P. & Fairweather, G.) 337–340 (Springer, 1987). doi: 10.1007/978-94-009-3889-2_33.
  22. Anikina, A. et al. Structure and Features of the Software and Information Environment of the HybriLIT Heterogeneous Platform in Distributed Computer and Communication Networks (eds Vishnevsky, V. M., Samouylov, K. E. & Kozyrev, D. V.) 444–457 (Springer Nature Switzerland, Cham, 2025). doi: 10.1007/978-3-031-80853-1_33.
  23. Abadi, M. et al. TensorFlow: Large-Scale Machine Learning on Heterogeneous Systems Software available from tensorflow.org. 2015.
  24. Halton, J. H. On the efficiency of certain quasi-random sequences of points in evaluating multidimensional integrals. Numerische Mathematik 2, 84–90. doi: 10.1007/BF01386213 (1960).

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».