The solution of the task of dynamic interpretation of seismic data using machine learning methods

Cover Page

Cite item

Full Text

Abstract

   This article examines the problem of dynamically interpreting seismic data using machine learning models, which include Extremely Randomized Trees (Extra Trees), Gradient Boosting (GB), and Adaptive Boosting (AdaBoost) for the given problem. The study analyzes some existing solutions of the problem and describes the advantages of these machine learning models. Accuracy is estimated using the root mean square error metric. The authors found that dynamic interpretation and prediction of seismic data using these machine learning methods had not been extensively explored in research on related topics, which became the main focus of the study. The article formalizes the use of the mentioned models and highlights features and advantages for the given problem. Several common machine learning methods were investigated to find functional relationships between input parameters. Computational experiments were conducted to evaluate their applicability and compare the algorithms. The results show that the Extra Trees method is the most suitable for practical use for the given problem, as it demonstrates the highest accuracy in determining functional relationships and dynamic interpretation.

About the authors

V. R. Vokina

Tyumen Petroleum Research Center LLC

Email: vrvokina@tnnc.rosneft.ru
ORCID iD: 0000-0002-9651-1758

A. S. Avdyukov

Tyumen Petroleum Research Center LLC

ORCID iD: 0009-0009-5125-7379

A. A. Lesiv

Tyumen Petroleum Research Center LLC

ORCID iD: 0009-0007-6897-488X

I. A. Krupkin

Tyumen Petroleum Research Center LLC

ORCID iD: 0009-0003-9482-929X

A. N. Emelyanov

Industrial University of Tyumen

ORCID iD: 0009-0008-4153-6174

References

  1. Амани, М. М. М. Применение методов геостатистики в факторно-регрессионном прогнозировании пористости коллекторов по сейсмическим атрибутам / М. М. М. Атамани. – Текст : непосредственный // Молодежь и современные информационные технологии : сборник трудов XVI Международной научно-практической конференции студентов, аспирантов и молодых ученых, 3–7 декабря 2018 года, Томск. – Томск: Томский политехнический университет, 2019. – С. 156–157.
  2. Tarantola, A. Inverse problem theory and methods for model parameter estimation / A. Tarantola. – doi: 10.1137/1.9780898717921. – Direct text. – Philadelphia: Society for industrial and applied mathematics, 2005. – 342 p.
  3. Successful leveraging of image processing and machine learning in seismic structural interpretation : A review / Z. Wang, H. Di, M. A. Shafiq. – doi: 10.1190/tle37060451.1. – Direct text // The Leading Edge. – 2018. – Vol. 37, Issue 6. – P. 451–461.
  4. Obinnaya Chikezie Victor, N. Automated Seismic Interpretation : Machine Learning Technologies are Being used to Develop Automated Seismic Interpretation to Identify Geological Features, Such as Faults and Stratigraphic Horizons / N. Obinnaya Chikezie Victor, L. Oghenechodja Daniel. – doi: 10.51483/IJAIML.3.2.2023.74-98. – Direct text // International Journal of Artificial Intelligence and Machine Learning. – 2023. – Vol. 3, Issue 2. – P. 74–98.
  5. Integration of Multiple Bayesian Optimized Machine Learning Techniques and Conventional Well Logs for Accurate Prediction of Porosity in Carbonate Reservoirs / S. Alatefi, R. Abdel Azim, A. Alkouh, G. Hamada. – doi: 10.3390/pr11051339. – Direct text // Processes. – 2023. – Vol. 11, Issue 5. – P. 1339–1361.
  6. Dietterich, T. G. Ensemble Methods in Machine Learning / T. G. Dietterich. – doi: 10.1007/3-540-45014-9_1. – Direct text // International Workshop on Multiple Classifier Systems. – Berlin, Heidelberg: Springer Berlin Heidelberg, 2000. – P. 1–15.
  7. Polikar, R. Ensemble based systems in decision making / R. Polikar. – doi: 10.1109/MCAS.2006.1688199. – Direct text // IEEE Circuits and Systems Magazine. – 2006. – Vol. 6, Issue 3. – P. 21–45.
  8. Opitz, D. Popular ensemble methods : An empirical study / D. Opitz, R. Maclin. – doi: 10.1613/jair.614. – Direct text // Journal of Artificial Intelligence Research. – 1999. – Vol. 11. – P. 169–198.
  9. Bühlmann, P. Boosting with the L2 Loss : regression and classification / P. Bühlmann, B. Yu. – doi: 10.1198/016214503000125. – Direct text // Journal of the American Statistical Association. – 2003. – Vol. 98, Issue 462. – P. 324–339.
  10. Freund, Y. A Decision-Theoretic Generalization of On-Line Learning and an Application to Boosting / Y. Freund, R. E. Schapire. – doi: 10.1006/jcss.1997.1504. – Direct text // Journal of Computer and System Sciences. – 1997. – Vol. 55, Issue 1. – P. 119–139.
  11. CatBoost : unbiased boosting with categorical features / L. Prokhorenkova, G. Gusev, A. Vorobev. – doi: 10.48550/arXiv.1706.09516. – Direct text // In Advances in Neural Information Processing Systems. – 2018. – Vol. 31. – P. 6638–6648.
  12. Friedman, J. H. Greedy Function Approximation : A Gradient Boosting Machine / J. H. Friedman. – doi: 10.1214/aos/1013203451. – Direct text // The Annals of Statistics. – 2001. – Vol. 1. – P. 1189–1235.
  13. Geurts, P. Extremely randomized trees / P. Geurts, D. Ernst, L. Wehenkel. – doi: 10.1007/s10994-006-6226-1. – Direct text // Machine learning. – 2006. – Vol. 63. – P. 3–42.
  14. Breiman, L. Random Forests / L. Breiman. – doi: 10.1023/A:1010933404324. – Direct text // Machine Learning. – 2001. – Vol. 45. – P. 5–32.
  15. Scikit-learn : Machine learning in Python / F. Pedregosa, G. Varoquaux, A. Gramfort. – doi: 10.5555/1953048.2078195. – Direct text // Journal of Machine Learning research. – 2011. – Vol. 12. – P. 2825–2830.
  16. The Elements of Statistical Learning : Data Mining, Inference, and Prediction / T. Hastie, R. Tibshirani, J. H. Friedman, J. H. Friedman. – Direct text // New York: Springer. – 2009. – Vol. 2. – P. 1–758.
  17. GridSearchCV. – Text : electronic // Scikit-learn : website. – URL: https://scikit-learn.org/stable/modules/generated/sklearn.model_selection.GridSearchCV.html (accessed: 06. 02. 2024).
  18. Biau, G. A random forest guided tour / G. Biau, E. Scornet. – doi: 10.1007/s11749-016-0481-7. – Direct text // Test. – 2016. – Vol. 25. – P. 197–227.
  19. Long, P. M. Random classification noise defeats all convex potential boosters / P. M. Long, R. A. Servedio. – doi: 10.1007/s10994-009-5165-zs. – Direct text // Mach Learn. – 2010. – Vol. 78. – P. 287–304.
  20. Natekin, A. Gradient boosting machines, a tutorial / A. Natekin, A. Knoll. – Text : electronic // Frontiers in Neurorobotics. – 2013. – Vol. 7, Issue 21. – doi: 10.3389/fnbot.2013.00021.

Supplementary files

Supplementary Files
Action
1. JATS XML

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».