Autoren:
(1) Yuxin Meng;
(2) Feng Gao;
(3) Eric Rigall;
(3) Der Vorsitzende;
(3) Johannes B.;
(6) Qian Du.
[1] AF Shchepetkin und JC McWilliams, „Das regionale ozeanische Modellierungssystem (ROMS): Ein geteiltes, explizites, freiflächiges, topographiefolgendes Koordinatenmodell des Ozeans“, Ocean Modeling, Bd. 9, Nr. 4, S. 347–404, 2005.
[2] R. Jacob, C. Schafer, I. Foster, et al. „Computergestütztes Design und Leistung des Fast Ocean Atmosphere Model“, Proceedings der International Conference on Computational Science. 2001, S. 175–184.
[3] C. Chen, RC Beardsley, G. Cowles, et al. „Ein unstrukturiertes Gitter, Finite-Volumen-Küstenozeanmodell: FVCOM-System“, Oceanography, Bd. 19, Nr. 1, S. 78–89, 2015.
[4] EP Chassignet, HE Hurlburt, OM Smedstad, et al. „Das HYCOM (Hybrid Coordinate Ocean Model) Datenassimilationssystem“, Journal of Marine Systems, Bd. 65, Nr. 1, S. 60–83, 2007.
[5] Y. LeCun, Y. Bengio, G. Hinton. „Deep learning“, Nature, Bd. 521, S. 436–444, 2015.
[6] PC Bermant, MM Bronstein, RJ Wood, et al. „Deep Machine Learning-Techniken zur Erkennung und Klassifizierung der Bioakustik von Pottwalen“, Scientific Reports, Bd. 9, Nr. 1, S. 1–10, 2019.
[7] V. Allken V, NO Handegard, S. Rosen, et al. „Fischartenidentifizierung mithilfe eines Convolutional Neural Network, das mit synthetischen Daten trainiert wurde“, ICES Journal of Marine Science, Bd. 76, Nr. 1, S. 342–349, 2019.
[8] E. Lima, X. Sun, J. Dong, et al. „Lernen und Übertragen von Wissen über Convolutional Neural Networks zur Erkennung von Ozeanfronten“, IEEE Geoscience and Remote Sensing Letters, Bd. 14, Nr. 3, S. 354–358, 2017.
[9] L. Xu, X. Wang, X. Wang, „Schiffswrackerkennung basierend auf Deep Generation Network und Transfer Learning mit einer kleinen Anzahl von Sonarbildern“, IEEE Data Driven Control and Learning Systems Conference (DDCLS), 2019, S. 638–643.
[10] Y. Ren, X. Li, W. Zhang, „Ein datengesteuertes Deep-Learning-Modell zur wöchentlichen Vorhersage der Meereiskonzentration in der Panarktis während der Schmelzsaison“, IEEE Transactions on Geoscience and Remote Sensing, Bd. 60, S. 1–19, 2022.
[11] M. Reichstein, G. Camps-Valls, B. Stevens, et al. „Deep Learning und Prozessverständnis für datengesteuerte Erdsystemwissenschaften“, Nature, Bd. 566, Nr. 7743, S. 195–204, 2019.
[12] ND Brenowitz, CS Bretherton. „Prognostische Validierung einer einheitlichen physikalischen Parametrisierung mithilfe eines neuronalen Netzwerks“, Geophysical Research Letters, Bd. 45, Nr. 12, S. 6289–6298, 2018.
[13] O. Pannekoucke und R. Fablet. „PDE-NetGen 1.0: von symbolischen Darstellungen physikalischer Prozesse durch partielle Differentialgleichungen (PDE) zu trainierbaren Darstellungen neuronaler Netze“, Geoscientific Model Development, Bd. 13, Nr. 7, S. 3373–3382, 2020.
[14] K. Patil, MC Deo, M. Ravichandran. „Vorhersage der Meeresoberflächentemperatur durch die Kombination numerischer und neuronaler Techniken“, Journal of Atmospheric and Oceanic Technology, Bd. 33, Nr. 8, S. 1715–1726, 2016.
[15] YG Ham, JH Kim, JJ Luo. „Deep Learning für mehrjährige ENSO-Prognosen“, Nature, Bd. 573, Nr. 7775, S. 568–572, 2019.
[16] I. Goodfellow, J. Pouget-Abadie, M. Mirza, et al. „Generative adversarial nets“, Proceedings of Advances in Neural Information Processing Systems (NeurIPS), 2014.
[17] L. Yang, D. Zhang, GE Karniadakis. „Physik-informierte generative adversarial networks für stochastische Differentialgleichungen“, SIAM Journal on Scientific Computing, Bd. 42, Nr. 1, S. A292–A317, 2020.
[18] B. Lutjens, B. Leshchinskiy, C. Requena-Mesa, et al. „Physik-informierte ¨ GANs zur Visualisierung von Küstenüberschwemmungen“, arXiv-Vorabdruck arXiv:2010.08103, 2020.
[19] Q. Zheng, L. Zeng, GE Karniadakis, „Physik-informiertes semantisches Inpainting: Anwendung in der geostatistischen Modellierung“, Journal of Computational Physics, Bd. 419, S. 1–10, 2020.
[20] X. Shi, Z. Chen, H. Wang, et al. „Convolutional LSTM network: Ein maschineller Lernansatz für die Niederschlagsvorhersage“, Proceedings of Advances in Neural Information Processing Systems (NeurIPS), 2015.
[21] J. Gu, Z. Wang, J. Kuen, et al. „Neueste Fortschritte bei Convolutional Neural Networks“, Pattern Recognition, S. 354–377, 2018.
[22] H. Ge, Z. Yan, W. Yu, et al. „Ein auf Aufmerksamkeitsmechanismen basierendes Convolutional-LSTM-Netzwerk zur Videoaktionserkennung“, „Multimedia Tools and Applications“, Bd. 78, Nr. 14, S. 20533–20556, 2019.
[23] W. Che und S. Peng, „Convolutional LSTM Networks und RGB-D-Video zur Erkennung menschlicher Bewegungen“, Proceedings of IEEE Information Technology and Mechatronics Engineering Conference (ITOEC), 2018, S. 951–955.
[24] ID Lins, M. Araujo, et al. „Vorhersage der Meeresoberflächentemperatur im tropischen Atlantik durch Support Vector Machines“, Computational Statistics and Data Analysis, Bd. 61, S. 187–198, 2013.
[25] Patil K, Deo M C. „Beckenweite Vorhersage der Meeresoberflächentemperatur mit künstlichen neuronalen Netzwerken“, Journal of Atmospheric and Oceanic Technology, Bd. 35, Nr. 7, S. 1441–1455, 2018.
[26] Q. Zhang, H. Wang, J. Dong, et al. „Vorhersage der Meeresoberflächentemperatur unter Verwendung eines langen Kurzzeitgedächtnisses“, IEEE Geoscience and Remote Sensing Letters, Bd. 14, Nr. 10, S. 1745–1749, 2017.
[27] Y. Yang, J. Dong, X. Sun X, et al. „Ein CFCC-LSTM-Modell zur Vorhersage der Meeresoberflächentemperatur“, IEEE Geoscience and Remote Sensing Letters, Bd. 15, Nr. 2, S. 207–211, 2017.
[28] K. Patil, MC Deo, „Vorhersage der täglichen Meeresoberflächentemperatur mithilfe effizienter neuronaler Netzwerke“, Ocean Dynamics, Bd. 67, Nr. 3, S. 357–368, 2017.
[29] S. Ouala, C. Herzet, R. Fablet, „Vorhersage und Rekonstruktion der Meeresoberflächentemperatur mithilfe von Patch-Level-Neuralnetzwerkdarstellungen“, Proceedings of IEEE International Geoscience and Remote Sensing Symposium, 2018, S. 5628–5631.
[30] C. Shorten, TM Khoshgoftaar, „Eine Umfrage zur Bilddatenerweiterung für Deep Learning“, Journal of Big Data, Bd. 6, Nr. 1, S. 1–48, 2017.
[31] H. Bagherinezhad, M. Horton, M. Rastegari, et al. „Label Refinery: Verbesserung der Imagenet-Klassifizierung durch Label Progression“, arXiv Preprint arXiv:1805.02641, 2018.
[32] K. Chatfield, K. Simonyan, A. Vedaldi, et al. „Die Rückkehr des Teufels im Detail: Ein tiefes Eintauchen in Faltungsnetze“, Proceedings of the British Machine Vision Conference (BMVC), 2014.
[33] A. Jurio, M. Pagola, M. Galar, et al. „Eine Vergleichsstudie verschiedener Farbräume in der clusterbasierten Bildsegmentierung“, Proceedings der International Conference on Information Processing and Management of Uncertainty in Knowledge-Based Systems, 2010, S. 532–541.
[34] Q. You, J. Luo, H. Jin, et al. „Robuste Bildstimmungsanalyse mithilfe von progressiv trainierten und domänenübertragenen tiefen Netzwerken“, Proceedings der AAAI-Konferenz über künstliche Intelligenz, 2015, S. 381–388.
[35] Z. Zhong, L. Zheng, G. Kang, et al. „Zufälliges Löschen von Datenaugmentation“, Proceedings der AAAI-Konferenz über künstliche Intelligenz, 2020, S. 13001–13008.
[36] T. DeVries, GW Taylor, „Verbesserte Regularisierung von Convolutional Neural Networks mit Cutout“, arXiv-Preprint arXiv:1708.04552, 2017.
[37] A. Mikołajczyk, M. Grochowski, „Datenerweiterung zur Verbesserung des Deep Learning bei der Bildklassifizierung“, Proceedings of International Interdisciplinary PhD workshop (IIPhDW), 2018, S. 117–122.
[38] SM Moosavi-Dezfooli, A. Fawzi, P. Frossard, „Deepfool: Eine einfache und genaue Methode, um tiefe neuronale Netzwerke zu täuschen“, Proceedings der IEEE-Konferenz über Computer Vision und Mustererkennung, 2016, S. 2574–2582.
[39] J. Su, DV Vargas, K. Sakurai, „Ein-Pixel-Angriff zum Täuschen tiefer neuronaler Netzwerke“, IEEE Transactions on Evolutionary Computation, Bd. 23, Nr. 5, S. 828–841, 2019.
[40] M. Zajac, K. Zołna, N. Rostamzadeh, et al. „Adversarial framing für die Bild- und Videoklassifizierung“, Proceedings der AAAI-Konferenz über künstliche Intelligenz, 2019, S. 10077-10078.
[41] S. Li, Y. Chen, Y. Peng, et al. „Erlernen robusterer Funktionen durch kontroverses Training“, arXiv-Vorabdruck arXiv:1804.07757, 2018.
[42] LA Gatys, AS Ecker, M. Bethge, „Ein neuronaler Algorithmus des künstlerischen Stils“, Journal of Vision Bd. 16, Nr. 12, 2016.
[43] D. Ulyanov, A. Vedaldi, V. Lempitsky, „Instanznormalisierung: Die fehlende Zutat für schnelle Stilisierung“, arXiv-Vorabdruck arXiv:1607.08022, 2016.
[44] P. Jackson, A. Abarghouei, S. Bonner, et al. „Stilerweiterung: Datenerweiterung durch Stilrandomisierung“, Proceedings des IEEE International Conference on Computer Vision and Pattern Recognition (CVPR) Workshop, 2019, S. 83–92.
[45] J. Tobin, R. Fong, A. Ray, et al. „Domänen-Randomisierung für die Übertragung tiefer neuronaler Netzwerke von der Simulation in die reale Welt“, Proceedings der IEEE International Conference on Intelligent Robots and Systems (IROS), 2017, S. 23–30.
[46] C. Summers und M. Dinneen, „Verbesserte Datenerweiterung mit gemischten Beispielen“, Proceedings der IEEE Winter Conference on Applications of Computer Vision (WACV), 2019, S. 1262–1270.
[47] D. Liang, F. Yang, T. Zhang, et al. „Understanding Mixup training methods“, IEEE Access, Bd. 6, S. 58774–58783, 2018.
[48] R. Takahashi, T. Matsubara, K. Uehara, „Augmentation durch zufälliges Zuschneiden und Patchen von Bildern für tiefe CNNs“, IEEE Transactions on Circuits and Systems for Video Technology, Bd. 30, Nr. 9, S. 2917–2931, 2019.
[49] T. Konno und M. Iwazume, „Das Sahnehäubchen: Eine einfache und schnelle Post-Learning-Methode, die Sie nach Deep Learning ausprobieren können“, arXiv-Preprint arXiv:1807.06540, 2018.
[50] T. DeVries und G. Taylor, „Dataset augmentation in feature space“, arXiv-Preprint arXiv:1702.05538, 2017.
[51] F. Moreno-Barea, F. Strazzera, J. Jerez, et al. „Vorwärtsrauschen-Anpassungsschema zur Datenerweiterung“, Proceedings of IEEE Symposium Series on Computational Intelligence (SSCI), 2018, S. 728–734.
[52] M. Frid-Adar, D. Idit, E. Klang, et al. „GAN-basierte synthetische medizinische Bilderweiterung zur Verbesserung der CNN-Leistung bei der Klassifizierung von Leberläsionen“, Neurocomputing, Bd. 321, S. 321-331, 2018.
[53] J. Zhu, Y. Shen, D. Zhao, et al. „In-domain GAN-Inversion für die Bearbeitung realer Bilder“, Proceedings of European Conference on Computer Vision (ECCV), 2020, S. 592–608.
[54] Simonyan K, Zisserman A. „Sehr tiefe Faltungsnetzwerke für die Bilderkennung im großen Maßstab“, Proceedings of International Conference on Learning Representations (ICLR), 2015, S. 1–14.
[55] GHRSST-Daten, https://www.ghrsst.org (abgerufen: 3. Juli 2022)
[56] HYCOM-Daten, https://www.hycom.org (abgerufen: 3. Juli 2022)
[57] Zhu JY, Krahenb ¨ uhl P, Shechtman E, et al. „Generative visual mani- ¨ nipulation on the natural image manifold“, Proceedings of European Conference on Computer Vision (ECCV), 2016, S. 597–613.
[58] A. Larsen, S. Sønderby, H. Larochelle, et al. „Autoencoding über Pixel hinaus mithilfe einer erlernten Ähnlichkeitsmetrik“, Proceedings of International Conference on Machine Learning (ICML), 2016, S. 1558–1566.
Dieses Dokument ist auf Arxiv unter der CC 4.0-Lizenz verfügbar .