Autores:
(1) Junwei Su, Departamento de Ciencias de la Computación, Universidad de Hong Kong y [email protected];
(2) Chuan Wu, Departamento de Ciencias de la Computación, Universidad de Hong Kong y [email protected].
5 Un estudio de caso sobre la distancia más corta
6 Conclusión y discusión, y referencias
9 Procedimiento para resolver la ecuación (6)
10 detalles y resultados de experimentos adicionales
11 Otras posibles aplicaciones
Muchos problemas de visión artificial y aprendizaje automático se modelan como tareas de aprendizaje en gráficos, donde las redes neuronales de grafos (GNN) han surgido como una herramienta dominante para el aprendizaje de representaciones de datos estructurados en grafos. Una característica clave de las GNN es su uso de estructuras de grafos como entrada, lo que les permite explotar las propiedades topológicas inherentes de los grafos, conocidas como el conocimiento de la topología de las GNN. A pesar de los éxitos empíricos de las GNN, la influencia del conocimiento de la topología en el rendimiento de generalización sigue sin explorarse, en particular para las tareas a nivel de nodo que divergen del supuesto de que los datos son independientes y están distribuidos de manera idéntica (IID). La definición y caracterización precisas del conocimiento de la topología de las GNN, especialmente en lo que respecta a diferentes características topológicas, aún no están claras. Este documento presenta un marco integral para caracterizar el conocimiento de la topología de las GNN en cualquier característica topológica. Utilizando este marco, investigamos los efectos del conocimiento de la topología en el rendimiento de generalización de las GNN. Contrariamente a la creencia predominante de que mejorar el conocimiento de la topología de las redes neuronales no lineales siempre es ventajoso, nuestro análisis revela una idea fundamental: mejorar el conocimiento de la topología de las redes neuronales no lineales puede conducir inadvertidamente a una generalización injusta entre grupos estructurales, lo que podría no ser deseable en algunos escenarios. Además, realizamos un estudio de caso utilizando la métrica gráfica intrínseca, la distancia de ruta más corta, en varios conjuntos de datos de referencia. Los resultados empíricos de este estudio de caso confirman nuestras ideas teóricas. Además, demostramos la aplicabilidad práctica de nuestro marco al usarlo para abordar el problema del arranque en frío en el aprendizaje activo de gráficos.
Muchos problemas en la visión artificial y el aprendizaje automático se modelan como tareas de aprendizaje en gráficos. Por ejemplo, en la segmentación semántica, los gráficos modelan las relaciones entre diferentes regiones de la imagen, mejorando la precisión y la segmentación consciente del contexto. Las redes neuronales gráficas (GNN) han surgido como una clase dominante de modelos de aprendizaje automático diseñados específicamente para aprender representaciones de datos estructurados en gráficos. Han demostrado un éxito considerable al abordar una amplia gama de problemas relacionados con gráficos en varios dominios, como la química [10], la biología [37], las redes sociales [6, 22], la generación de gráficos de escena [46, 51] y la detección de relaciones visuales [24,43,49]. Una característica definitoria de las GNN es su uso de un enfoque espacial a través del paso de mensajes en la estructura del gráfico para la agregación de características. Esto permite que las GNN preserven la información estructural o las dependencias (lo que se conoce como conciencia de la topología) de la estructura del gráfico subyacente, lo que les permite ser muy eficaces en tareas como la clasificación de nodos. La figura 1 ilustra el proceso de aprendizaje general de las GNN.
A pesar de su practicidad y potencial, sigue habiendo una falta de comprensión teórica sobre las GNN, particularmente en el entorno de clasificación de nodos semisupervisados donde las dependencias entre los datos difieren significativamente de otros modelos de aprendizaje automático [25]. En este entorno, el objetivo es aprovechar las relaciones, tal como las captura la estructura del gráfico, entre los datos y un pequeño conjunto de nodos etiquetados para predecir las etiquetas de los nodos restantes. La mayoría de los estudios teóricos existentes sobre las GNN se han centrado en la conexión entre el mecanismo de paso de mensajes de las GNN y la prueba de isomorfismo de Weisfeiler-Lehman [19], con el objetivo de comprender la capacidad de las GNN para diferenciar diferentes estructuras de gráficos en las representaciones aprendidas, conocida como el poder expresivo de las GNN. Inspirados por los estudios de expresividad, se cree comúnmente que aumentar la conciencia de la topología es universalmente beneficioso y muchos estudios se centran en permitir que las GNN conserven más propiedades estructurales en la representación aprendida [29, 33, 48].
Sin embargo, a medida que las GNN se vuelven más dependientes y sensibles (conscientes) de la estructura del grafo como entrada, pueden exhibir diferentes desempeños de generalización hacia ciertos subgrupos estructurales (subconjuntos de datos distintos agrupados por similitud estructural con el conjunto de entrenamiento) dentro de los datos. La cuantificación de la generalización de GNN a través de subgrupos estructurales distintos se denomina generalización de subgrupos estructurales [25]. Tales consideraciones son vitales en la aplicación y el desarrollo de GNN. Por ejemplo, dentro de las redes de interacción proteína-proteína, estos subgrupos estructurales podrían representar diferentes complejos moleculares, influyendo en la precisión de las predicciones de interacción. De manera similar, comprender cómo el conocimiento de la topología de las GNN influye en la generalización es esencial al diseñar estrategias de muestreo para el entrenamiento. El grado en que el desempeño de generalización de las GNN se ve influenciado por características estructurales específicas de los datos del grafo es fundamental para decidir la composición de los conjuntos de datos de entrenamiento. A pesar de su importancia, aún falta una comprensión de la relación entre el conocimiento de la topología de las GNN y su generalización de subgrupos estructurales. Además, caracterizar el conocimiento de la topología de las GNN plantea un desafío, especialmente si se tiene en cuenta que diferentes dominios y tareas pueden priorizar distintos aspectos estructurales. Por lo tanto, se necesita un marco versátil para evaluar el conocimiento de la topología de las GNN en relación con diversas estructuras.
Para abordar esta brecha, en este artículo, proponemos un nuevo marco basado en la incrustación de métricas aproximadas para estudiar la relación entre la generalización de subgrupos estructurales y el conocimiento de la topología de las GNN en el contexto de la clasificación de nodos semisupervisada. El marco propuesto permite la investigación de la generalización de subgrupos estructurales de las GNN con respecto a diferentes subgrupos estructurales. Más concretamente, las principales contribuciones de este trabajo se resumen a continuación.
1. Proponemos un nuevo marco de trabajo independiente de la estructura que utiliza la incrustación de métricas aproximadas para examinar la interacción entre la generalización de subgrupos estructurales de las redes neuronales globales y el conocimiento de la topología. Este marco de trabajo es versátil, ya que se adapta a diversas medidas estructurales, como la distancia de la ruta más corta, y solo requiere la medida estructural correspondiente. Su simplicidad para estimar los factores clave lo hace aplicable y generalizable a una amplia gama de escenarios.
2. A través del análisis formal dentro de nuestro marco, establecemos un vínculo claro entre el conocimiento de la topología de las GNN y su rendimiento de generalización (Teorema 1). También demostramos que, si bien un mayor conocimiento de la topología aumenta la expresividad de las GNN, puede resultar en un rendimiento de generalización desigual, favoreciendo a los subgrupos estructuralmente más similares al conjunto de entrenamiento (Teorema 2). Dicha propiedad estructural puede ser perjudicial (causando problemas de injusticia) o útil (dando información a las decisiones de diseño) según el escenario. Esto desafía la creencia predominante de que un mayor conocimiento de la topología beneficia universalmente a las GNN [29, 33, 48], lo que enfatiza la importancia de considerar la relación entre el conocimiento de la topología y el rendimiento de generalización.
3. Validamos nuestro marco de trabajo a través de un estudio de caso sobre la distancia de la ruta más corta, destacando su practicidad y relevancia. Los resultados corroboran nuestros hallazgos teóricos, mostrando que las GNN con mayor conciencia de las distancias de la ruta más corta se destacan en la clasificación de grupos de vértices más cercanos al conjunto de entrenamiento. Además, demostramos cómo nuestros hallazgos se pueden aplicar para mitigar el problema del arranque en frío en el aprendizaje activo de grafos [11,15], destacando las implicaciones prácticas de nuestro marco de trabajo y resultados.
Este artículo está disponible en arxiv bajo la licencia CC BY 4.0 DEED.