paint-brush
Quantification distribuée de l'incertitude de l'interpolation du noyau sur les sphèrespar@interpolation
239 lectures

Quantification distribuée de l'incertitude de l'interpolation du noyau sur les sphères

Trop long; Pour lire

L'article propose l'interpolation à noyau distribué (DKI) comme solution pour gérer l'incertitude dans l'interpolation de données sphériques bruyantes. DKI utilise une stratégie diviser pour régner, optimisant la robustesse et la précision de l'approximation. Des simulations numériques valident son efficacité.
featured image - Quantification distribuée de l'incertitude de l'interpolation du noyau sur les sphères
The Interpolation Publication HackerNoon profile picture

Auteurs:

(1) Sha-Bo Lin, Centre pour la prise de décision intelligente et l'apprentissage automatique, École de gestion, Université Xi'an Jiaotong ;

(2) Xingping Sun, Département de mathématiques, Université d'État du Missouri ;

(3) Di Wang, §Centre pour la prise de décision intelligente et l'apprentissage automatique, École de gestion, Université Xi'an Jiaotong.

Aperçu du contenu

Résumé et introduction

Relation d'incertitude de l'interpolation du noyau sur les sphères

Interpolation du noyau distribué

Différences entre opérateurs via les règles de quadrature

Preuves

Vérifications numériques

Les références

Abstrait

Pour l'interpolation par noyau de fonction de base radiale (RBF) de données dispersées, Schaback [30] a prouvé en 1995 que l'erreur d'approximation atteignable et le numéro de condition de la matrice d'interpolation sous-jacente ne peuvent pas être réduits simultanément. Il a qualifié cette découverte de « relation d’incertitude », dont une conséquence indésirable est que l’interpolation du noyau RBF est sensible aux données bruitées. Dans cet article, nous proposons et étudions une méthode d'interpolation distribuée pour gérer et quantifier l'incertitude provoquée par l'interpolation de données sphériques bruyantes d'ampleur non négligeable. Nous présentons également des résultats de simulation numérique montrant que notre méthode est pratique et robuste en termes de gestion de données bruitées provenant d'environnements informatiques difficiles.


Mots clés. Interpolation du noyau, atténuation distribuée de l'incertitude, données sphériques dispersées






Relation d'incertitude de l'interpolation du noyau sur les sphères









3. Interpolation du noyau distribué.

Le corollaire 2.2 montre que l’interpolation du noyau fonctionne mal face à des données bruitées d’ampleur non négligeable. Pour pallier cet inconvénient majeur, nous proposons et étudions dans cette section une méthode d'interpolation à noyau distribué (DKI), motivée par « l'apprentissage distribué » dans la littérature [37, 19]. Au sens figuré, il s’agit d’une stratégie « diviser pour régner » pour quantifier l’incertitude. Pour élaborer, nous décrivons la méthode en trois étapes.











4. Différences entre opérateurs via les règles de quadrature.

Dans cette section, nous exposons d’abord brièvement une approche d’opérateur intégral initiée dans [8], puis dérivons des limites supérieures strictes pour les différences d’opérateurs qui nous intéressent, obtenant ainsi un certain type d’inégalités d’échantillonnage de Sobolev [12] comme sous-produit. Les points forts de la section incluent la proposition 4.5) et le lemme 4.8.

























6. Vérifications numériques

Quatre simulations sont effectuées dans cette section pour vérifier les excellentes performances du DKI. La première montre que DKI réussit à contourner l’incertitude de l’interpolation du noyau. Le second montre le rôle de m dans DKI. Le troisième se concentre sur le rôle de la stratégie de division au DKI. Le dernier compare DKI avec plusieurs schémas d'ajustement de données sphériques populaires, notamment l'hyperinterpolation filtrée distribuée (DFH) [21], l'esquisse avec des plans s ∗ [20] et la régression de crête à noyau distribué (DKRR) [8].








Simulation 2 : Dans cette simulation, nous montrons le rôle du paramètre m dans DKI. Nous générons 10 014 échantillons de formation (avec 141 conceptions en entrée). Le nombre de divisions, m, varie de {5, 10, · · · , 200}. La figure 6.2 montre la relation entre le RMSE du DKI et le nombre de machines locales sous différents niveaux de bruit gaussien, à condition que le nombre total d'échantillons d'apprentissage soit indiqué. De la figure 6.2, nous pouvons conclure les affirmations suivantes : 1) Pour les échantillons d'apprentissage avec des niveaux de bruit plus élevés, le RMSE des tests diminue généralement au début, puis augmente lentement à mesure que le nombre de machines locales augmente. Des valeurs modérées de m sont plus conductrices d’une bonne propriété d’approximation pour DKI. La raison en est que m trop petit ne résout pas le problème d’incertitude dans l’interpolation du noyau ; un m trop grand augmente l'erreur d'ajustement, ce qui entraîne des performances de généralisation légèrement moins bonnes. 2) Le nombre optimal m avec le RMSE le plus bas augmente avec l'augmentation du bruit gaussien. Cela vérifie l'équation (3.3) du théorème 3.2, dans laquelle l'erreur d'approximation concerne principalement l'erreur d'échantillonnage pour un bruit important (c'est-à-dire un grand M) et peut être réduite en utilisant un grand m.








LES RÉFÉRENCES

[1] R. Bhatia, Analyse matricielle, vol. 169, Springer Science & Business Médias, 2013.


[2] JS Brauchart et K. Hesse, Intégration numérique sur des sphères de dimension arbitraire, Constructive Approximation, 25 (2007), pp. 41-71.


[3] G. Brown et F. Dai, Approximation de fonctions lisses sur des espaces homogènes compacts à deux points, Journal of Functional Analysis, 220 (2005), pp. 401-423.


[4] A. Chernih, IH Sloan et RS Womersley, Wendland, les fonctions avec une douceur croissante convergent vers une gaussienne, Advances in Computational Mathematics, 40 (2014), pp. 185-200.


[5] F. Dai, Inégalités polynomiales multivariées en ce qui concerne le doublement des poids et les poids a∞, Journal of Functional Analysis, 235 (2006), pp.


[6] F. Dai, Sur l'hyperinterpolation généralisée sur la sphère, Proceedings of the American Mathematical Society, 134 (2006), pp. 2931-2941.


[7] HW Engl, M. Hanke et A. Neubauer, Régularisation des problèmes inverses, vol. 375, Springer Science & Business Médias, 1996.


[8] H. Feng, S.-B. Lin et D.-X. Zhou, approximation de la fonction de base radiale avec des données stockées de manière distributive sur des sphères, arXiv :2112.02499, (2021).


[9] T. Hangelbroek, FJ Narcowich, X. Sun et JD Ward, approximation du noyau sur les variétés ii : la norme l∞ du projecteur l2, SIAM Journal on Mathematical Analysis, 43 (2011), pp. 662-684.


[10] T. Hangelbroek, FJ Narcowich et JD Ward, approximation du noyau sur les variétés i : délimitation de la constante de Lebesgue, SIAM Journal on Mathematical Analysis, 42 (2010), pp. 1732-1760.


[11] K. Hesse, IH Sloan et RS Womersley, approximation de la fonction de base radiale des données dispersées bruitées sur la sphère, Numerische Mathematik, 137 (2017), pp.


[12] K. Hesse, IH Sloan et RS Womersley, approximation des moindres carrés pénalisés basée sur rbf locale sur la sphère avec des données dispersées bruitées, Journal of Computational and Applied Mathematics, 382 (2021), p. 113061.


[13] S. Hubbert, QT Le Gia et TM Morton ˆ , Fonctions de base radiale sphérique, théorie et applications, Springer, 2015.


[14] MA King, RJ Bingham, P. Moore, PL Whitehouse, MJ Bentley et GA Milne, Estimations gravimétriques par satellite inférieures de la contribution au niveau de la mer de l'Antarctique, Nature, 491 (2012), pp.


[15] QT Le Gia, FJ Narcowich, JD Ward et H. Wendland, approximation continue et discrète des moindres carrés par fonctions de base radiale sur les sphères, Journal of Approximation Theory, 143 (2006), pp.


[16] P. Leopardi, Une partition de la sphère unitaire en régions de surface égale et de petit diamètre, Electronic Transactions on Numerical Analysis, 25 (2006), pp. 309-327.


[17] J. Levesley, Z. Luo et X. Sun, Estimations normatives des matrices d'interpolation et de leurs inverses associées à des fonctions définies strictement positives, Actes de l'American Mathematical Society, (1999), pp.


[18] S.-B. Lin, X. Chang et X. Sun, Interpolation du noyau de données dispersées de grande dimension, préimpression arXiv arXiv :2009.01514, (2020).


[19] S.-B. Lin, X. Guo et D.-X. Zhou, Apprentissage distribué avec les moindres carrés régularisés, The Journal of Machine Learning Research, 18 (2017), pp. 3202-3232.


[20] S.-B. Lin, D. Wang et D.-X. Zhou, Esquisse avec des dessins sphériques sur des sphères, SIAM Journal on Scientific Computation, sous presse (2023).


[21] S.-B. Lin, YG Wang et D.-X. Zhou, Hyperinterpolation filtrée distribuée pour les données bruyantes sur la sphère, SIAM Journal on Numerical Analysis, 59 (2021), pp.


[22] JD McEwen et Y. Wiaux, Un nouveau théorème d'échantillonnage sur la sphère, IEEE Transactions on Signal Processing, 59 (2011), pp. 5876-5887.


[23] H. Mhaskar, F. Narcowich et J. Ward, Inégalités sphériques de Marcinkiewicz-zygmund et quadrature positive, Mathematics of Computation, 70 (2001), pp.


[24] HN Mhaskar, Formules de quadrature pondérées et approximation par réseaux de fonctions zonales sur la sphère, Journal of Complexity, 22 (2006), pp. 348-370.


[25] C. Muller¨, Harmoniques sphériques, vol. 17, Springer, 1966.


[26] FJ Narcowich, N. Sivakumar et JD Ward, Résultats de stabilité pour l'interpolation de données dispersées sur les sphères euclidiennes, Advances in Computational Mathematics, 8 (1998), pp.


[27] FJ Narcowich, X. Sun, JD Ward et H. Wendland, Estimations d'erreurs Sobolev directes et inverses pour l'interpolation de données dispersées via des fonctions de base sphériques, Foundations of Computational Mathematics, 7 (2007), pp.


[28] FJ Narcowich et JD Ward, Interpolation de données dispersées sur les sphères : estimations d'erreurs et fonctions de base prises en charge localement, SIAM Journal on Mathematical Analysis, 33 (2002), pp.


[29] A. Rudi, R. Camoriano et L. Rosasco, Moins c'est plus : régularisation informatique de Nystr¨om., dans NIPS, 2015, pp.


[30] R. Schaback, Estimations d'erreur et nombres de conditions pour l'interpolation de fonctions de base radiale, Advances in Computational Mathematics, 3 (1995), pp.


[31] S. Smale et D.-X. Zhou, Échantillonnage de Shannon et reconstruction de fonctions à partir de valeurs ponctuelles, Bulletin de l'American Mathematical Society, 41 (2004), pp.


[32] S. Smale et D.-X. Zhou, Shannon sampling ii : Connexions à la théorie de l'apprentissage, Analyse harmonique appliquée et computationnelle, 19 (2005), pp. 285-302.


[33] Y.-T. Tsai et Z.-C. Shih, Transfert de radiance précalculé toutes fréquences utilisant des fonctions de base radiale sphérique et une approximation de tenseur groupé, ACM Transactions on Graphics (TOG), 25 (2006), pp. 967-976.


[34] H. Wendland, approximation de données dispersées, vol. 17, Presse universitaire de Cambridge, 2004.


[35] MA Wieczorek et RJ Phillips, Anomalies potentielles sur une sphère : Applications à l'épaisseur de la croûte lunaire, Journal of Geophysical Research : Planets, 103 (1998), pp.


[36] RS Womersley, Conceptions sphériques efficaces avec de bonnes propriétés géométriques, dans Mathématiques computationnelles contemporaines - Une célébration du 80e anniversaire d'Ian Sloan, Springer, 2018, pp.


[37] Y. Zhang, J. Duchi et M. Wainwright, Diviser et conquérir la régression des crêtes du noyau : un algorithme distribué avec des taux optimaux minimax, The Journal of Machine Learning Research, 16 (2015), pp. 3299-3340.


SM1. Annexe A : Stratégie de sélection et de jugement pour la division des données. Dans cette annexe, nous présentons la mise en œuvre détaillée de la stratégie de sélection et de jugement (SAJ). Notre objectif est de dériver une série de sous-ensembles de cardinalité similaire avec un rayon de séparation non inférieur à une tolérance donnée c0. Il y a deux étapes pour SAJ.






Cet article est disponible sur arxiv sous licence CC0 1.0 DEED.