Научно-технический журнал
«Автоматизация и информатизация ТЭК»
ISSN 2782-604X
Построение конечно-элементного приближения решения обратной задачи с помощью физически информированных нейронных сетей
УДК: 517.9+519.6+004.032.26
DOI: -
Авторы:
Ключевые слова: физически информированные нейронные сети (PINN), обратные задачи, конечно-элементная аппроксимация, расщепление по пространству (DD), глубокое обучение (DL), полное обращение волнового поля (FWI), волновое уравнение, метод конечных разностей, сверточные нейронные сети (CNN)
Аннотация:
В статье предложены методы и алгоритмы построения конечно-элементного приближения решения обратной коэффициентной задачи с помощью физически информированных нейронных сетей. Ключевая особенность предложенного подхода состоит в независимом предсказании локального приближения искомого параметра кусочно-заданными функциями в каждой части разделенной области с помощью обученной нейронной сети. Усреднение коэффициентов при базисных функциях с общей вершиной на границах подобластей позволяет получить непрерывный глобально определенный коэффициент и скомпенсировать погрешности внутри области. Кодировщик представлен многослойной сверточной архитектурой, построенной по аналогии с EfficientNetV2. Возможности предложенных методов и алгоритмов были продемонстрированы на синтетическом наборе данных распространения волн, описываемых неоднородным двумерным волновым уравнением с переменным коэффициентом скорости. Синтетические решения были получены с помощью метода конечных разностей. Указаны преимущества использования описанного подхода к задаче полного обращения волнового поля (FWI).
Список литературы:
1. Тихонов А.Н. О некорректных задачах линейной алгебры и устойчивом методе их решения // Докл. АН СССР. – 1965. – Т. 163, № 3. – С. 591–594.2. An introduction to full waveform inversion / J. Virieux, A. Asnaashari, R. Brossier [et al.] // Encyclopedia of exploration geophysics. – 2017. – P. R1-1–R1-40. – DOI: 10.1190/1.9781560803027.entry6
3. Physics-informed machine learning / G.E. Karniadakis, I.G. Kevrekidis, Lu Lu [et al.] // Nature Reviews Physics. – 2021. – Vol. 3. – P. 422–440. – DOI: 10.1038/s42254-021-00314-5
4. Scientific Machine Learning Through Physics–Informed Neural Networks: Where we are and What's Next / S. Cuomo, V.S. Di Cola, F. Giampaolo [et al.] // J. of Scientific Computing. – 2022. – Vol. 92. – Article No. 88. – DOI: 10.1007/s10915-022-01939-z
5. InversionNet3D: Efficient and Scalable Learning for 3-D Full-Waveform Inversion / Zeng Qili, Feng Shihang, B. Wohlberg, Lin Youzuo // IEEE Transactions on Geoscience and Remote Sensing. – 2022. – Vol. 60. – P. 1–16. – DOI: 10.1109/TGRS.2021.3135354
6. Solving inverse-PDE problems with physics-aware neural networks / S. Pakravan, P.A. Mistani, M.A. Aragon-Calvo, F. Gibou // J. of Computational Physics. – 2021. – Vol. 440. – DOI: 10.1016/j.jcp.2021.110414
7. Lu P.Y., Kim S., Soljačić M. Extracting Interpretable Physical Parameters from Spatiotemporal Systems Using Unsupervised Learning // Physical Review X. – 2020. – Vol. 10, Issue 3. – P. 031056. – DOI: 10.1103/PhysRevX.10.031056
8. Moseley B., Markham A., Nissen-Meyer T. Finite basis physics-informed neural networks (FBPINNs): a scalable domain decomposition approach for solving differential equations // Advances in Computational Mathematics. – 2023. – Vol. 49. – Article No. 62. – DOI: 10.1007/s10444-023-10065-9
9. Learning nonlinear operators via DeepONet based on the universal approximation theorem of operators / Lu Lu, Jin Pengzhan, Pang Guofei [et al.] // Nature Machine Intelligence. – 2021. – Vol. 3. – P. 218–229. – DOI: 10.1038/s42256-021-00302-5
10. An Expert's Guide to Training Physics-informed Neural Networks / Wang Sifan, S. Sankaran, Wang Hanwen, P. Perdikaris. – 2023. – DOI: 10.48550/arXiv.2308.08468
11. Maurício J., Domingues I., Bernardino J. Comparing Vision Transformers and Convolutional Neural Networks for Image Classification: A Literature Review // Applied Sciences. – 2023. – Vol. 13, Issue 9. – P. 5521. – DOI: 10.3390/app13095521
12. Tan Mingxing, Le Q.V. EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks // ICML. – 2019. – DOI: 10.48550/arXiv.1905.11946
13. Tan Mingxing, Le Q.V. EfficientNetV2: Smaller Models and Faster Training // ICML. – 2021. – DOI: 10.48550/arXiv.2104.00298
14. Dropout: a simple way to prevent neural networks from overfitting / N. Srivastava, G. Hinton, A. Krizhevsky [et al.] // J. of Machine Learning Research. – 2014. – Vol. 15, Issue 1. – P. 1929–1958. – DOI: 10.5555/2627435.2670313
15. Kingma D.P., Ba J. Adam: A Method for Stochastic Optimization // ICLR. – 2015. – DOI: 10.48550/arXiv.1412.6980
16. Арсеньев-Образцов С.С., Плющ Г.О. Применение методов глубокого обучения в актуальных задачах обработки микроКТ образцов керна. Решение обратной задачи, интерполяция разреженных синограмм, фильтрация изображений срезов // Автоматизация и информатизация ТЭК. – 2023. – № 10(603). – С. 48–58. – DOI: 10.33285/2782-604X-2023-10(603)-48-58