Застосування технології збільшення роздільної здатності мігрованих сейсмічних зображень для 2Д сейсмічних зйомок за допомогою нейронної мережі
DOI:
https://doi.org/10.32347/2411-4049.2025.1.139-145Ключові слова:
модель машинного навчання, нейронна мережа, сейсміка, 2D U-net архітектура, функція втратАнотація
В сучасному геологорозвідувальному процесі залучення даних сейсмічної інтерпретації давно стало повсякденною нормою. Якість польових даних та процедури міграції грає ключову роль у визначенні геологічної будови площі та розповсюдженні колекторів. У якості процесу пост-обробки матеріалів сейсмічної зйомки було розроблено і програмно реалізовано математичну модель машинного навчання на базі нейронної мережі архітектури U-net для збільшення роздільної здатності і збільшення значення сигнал/завада для 2D зображень на основі синтетичного набору тренувальних даних. Описано будову моделі, побудовано алгоритм для підготовки мігрованих сейсмічних даних у стандартному форматі SEGY для опрацювання за допомогою моделі і зворотною конвертацією у вхідний формат.
Посилання
M. Hauzan Nabhan (2024). Analysis of Geological Structure based on 3D Virtual Outcrop Model and Physical Properties of Rocks in Wringinanom District, Gresik Regency. IOP Conference Series Earth and Environmental Science, 1307(1):01, 2024. https://doi.org/10.1088/1755-1315/1307/1/012024
Nascimento, A. et al. (2023). Well-velocity variogram sensibility analysis when building geologically constrained velocity models for onshore seismic data. Conference: 18th International Congress of the Brazilian Geophysical Society, 2023. https://www.researchgate.net/publication/374582482_Well-velocity_variogram_sensibility_analysis_when_building_geologically_constrained_velocity_models_for_onshore_seismic_data#full-text
Zhang, Y.-G., Wang, Y., and Yin, J.-J. (2010). Single point high density seismicdata processing analysis and initial evaluation. Shiyou Diqiu Wuli Kantan (Oil Geophys. Prospecting), 45 (2), 201–207. https://www.researchgate.net/publication/289786249_Single_point_high_density_seismic_data_processing_analysis_and_initial_evaluation
Xiao, F.et al. (2014). High-density 3D point receiver seismic acquisition andprocessing – a case study from the Sichuan Basin, China. First Break, 32 (1), 2014. https://doi.org/10.3997/1365-2397.32.1.72598
Rebert, T., Sablon, R., Vidal, N., Charrier, P., and Soubaras, R. (2012). Improving pre-salt imaging with variable-depth streamer data. In Proc. SEG Tech. Program Expanded Abstr., Sep. 2012, (pp. 1–5). https://doi.org/10.1190/segam2012-1067.1
Yang, J., Zhang, Y., Yu, Y. (2021). Nested U-Net Architecture Based Image Segmentation for 3D Neuron Reconstruction. Journal of Medical Imaging and Health Informatics, 2021. https://doi.org/10.1166/jmihi.2021.3379
Wu, X., Liang, L., Shi, Y., and Fomel, S. (2019). FaultSeg3D: Using synthetic data sets to train an end-to-end convolutional neural network for 3Dseismic fault segmentation. Geophysics, 84 (3), IM35–IM45, 2019. https://doi.org/10.1190/geo2018-0646.1
Chao Dong, Chen Change Loy, Kaiming He, Xiaoou Tang (2016). Image Super-Resolution Using Deep Convolutional Networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, (Volume: 38, Issue: 2, 01 February 2016). https://doi.org/10.48550/arXiv.1501.00092
Wu, X., Geng, Z., Shi, Y., Pham, N., Fomel, S., and Caumon, G. (2020). Building realistic structure models to train convolutional neural net-works for seismic structural interpretation. Geophysics, 85(4), WA27–WA39, Jul. 2020. https://doi.org/10.1190/geo2019-0375.1
Wang, Z., Simoncelli, E.P., Bowik, A. (2003). “Multi-scale structural similarity for image quality assessment. The Thrity-Seventh Asilomar Conference on Signals, Systems & Computers, 2003. https://doi.org/10.1109/ACSSC.2003.1292216
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2025 О.В. Носков, М.Л. Миронцов

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Збірник «Екологічна безпека та природокористування» працює у рамках міжнародної ліцензії Creative Commons Attribution («із зазначенням авторства») 4.0 International (CC BY 4.0).
Ліцензійна політика журналу сумісна з переважною більшістю політик відкритого доступу та архівування матеріалів.