Autores:
(1) P Aditya Sreekar, Amazon y estos autores contribuyeron igualmente a este trabajo {[email protected]};
(2) Sahil Verm, Amazon y estos autores contribuyeron igualmente a este trabajo {[email protected];}
(3) Varun Madhavan, Instituto Indio de Tecnología, Kharagpur. Trabajo realizado durante la pasantía en Amazon {[email protected]};
(4) Abhishek Persad, Amazon {[email protected]}.
Alexander Amini, Wilko Schwarting, Ava Soleimany y Daniela Rus. Profunda regresión evidencial. CoRR, abs/1910.02600, 2019. URL http://arxiv.org/abs/1910.02600.
Sercan O Arik, Engin Gedik, Kenan Guney y Umut Atilla. Tabnet: Aprendizaje tabular atento e interpretable. En Avances en sistemas de procesamiento de información neuronal, páginas 10951–10961, 2019.
Cristóbal M. Obispo. Reconocimiento de patrones y aprendizaje automático. En Springer, capítulo 2, páginas 36–43. 2006.
Leo Breiman. Bosques aleatorios. Aprendizaje automático, 45(1):5–32, 2001.
Jintai Chen, Kuanlun Liao, Yao Wan, Danny Z Chen y Jian Wu. Danets: redes abstractas profundas para clasificación y regresión de datos tabulares. En Actas de la Conferencia AAAI sobre Inteligencia Artificial, volumen 36, páginas 3930–3938, 2022.
Tianqi Chen y Carlos Guestrin. Xgboost: un sistema de impulso de árboles escalable. Actas de la 22.ª Conferencia internacional ACM SIGKDD sobre descubrimiento de conocimientos y minería de datos, páginas 785–794, 2016.
Jacob Devlin, Ming-Wei Chang, Kenton Lee y Kristina Toutanova. BERT: preentrenamiento de transformadores bidireccionales profundos para la comprensión del lenguaje. En Jill Burstein, Christy Doran y Thamar Solorio, editores, Actas de la Conferencia de 2019 del Capítulo Norteamericano de la Asociación de Lingüística Computacional: Tecnologías del Lenguaje Humano, NAACL-HLT 2019, Minneapolis, MN, EE. UU., 2 al 7 de junio. 2019, volumen 1 (artículos largos y breves), páginas 4171–4186. Asociación de Lingüística Computacional, 2019. doi: 10.18653/v1/n19-1423. URL https://doi.org/10.18653/v1/n19-1423.
Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit y Neil Houlsby. Una imagen vale 16x16 palabras: Transformadores para el reconocimiento de imágenes a escala. ICLR, 2021.
Nick Erickson, Jonas Mueller, Alexander Shirkov, Hang Zhang, Pedro Larroy, Mu Li y Alexander Smola. Autogluon-tabular: Automl robusto y preciso para datos estructurados, 2020.
William Falcon y el equipo PyTorch Lightning. PyTorch Lightning, 3 de 2019. URL https: //github.com/Lightning-AI/lightning.
Jerome H. Friedman. Aproximación de funciones codiciosas: una máquina de impulso de gradiente. Anales de estadísticas, páginas 1189-1232, 2001.
Yuan Gong, Yu-An Chung y James Glass. AST: Transformador de espectrograma de audio. En Proc. Interspeech 2021, páginas 571–575, 2021. doi: 10.21437/Interspeech.2021-698.
Yury Gorishniy, Ivan Rubachev, Valentin Khrulkov y Artem Babenko. Revisando modelos de aprendizaje profundo para datos tabulares. Avances en los sistemas de procesamiento de información neuronal, 34:18932–18943, 2021.
Trevor Hastie, Robert Tibshirani y Jerome Friedman. Los elementos del aprendizaje estadístico: minería de datos, inferencia y predicción. Springer Science & Business Media, 2009.
Hussein Hazimeh, Natalia Ponomareva, Petros Mol, Zhenyu Tan y Rahul Mazumder. La capa de conjunto de árboles: la diferenciabilidad se encuentra con el cálculo condicional. En Conferencia internacional sobre aprendizaje automático, páginas 4138–4148. PMLR, 2020.
Xin Huang, Ashish Khetan, Milan Cvitkovic y Zohar Karnin. Tabtransformer: modelado de datos tabulares mediante incrustaciones contextuales. Preimpresión de arXiv arXiv:2012.06678, 2020.
Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye y Tie-Yan Liu. Lightgbm: un árbol de decisión que impulsa el gradiente altamente eficiente. Avances en los sistemas de procesamiento de información neuronal, 30:3146–3154, 2017.
Diederik P Kingma y Jimmy Ba. Adam: un método para la optimización estocástica. Preimpresión de arXiv arXiv:1412.6980, 2014.
Daniele Micci-Barreca. Un esquema de preprocesamiento para atributos categóricos de alta cardinalidad en problemas de clasificación y predicción. Explorador SIGKDD. Newsl., 3(1):27–32, julio de 2001. ISSN 1931-0145. doi: 10.1145/507533.507538. URL https://doi.org/10.1145/507533. 507538.
Serguei Popov, Stanislav Morozov y Artem Babenko. Conjuntos de decisiones neuronales ajenas para el aprendizaje profundo de datos tabulares. Preimpresión de arXiv arXiv:1909.06312, 2019.
Liudmila Prokhorenkova, Gleb Gusev, Alexey Vorobev, Anna Dorogush y Andrey Gulin. Catboost: impulso imparcial con características categóricas. Avances en los sistemas de procesamiento de información neuronal, 31:6638–6648, 2018.
Gowthami Somepalli, Micah Goldblum, Avi Schwarzschild, C Bayan Bruss y Tom Goldstein. Saint: Redes neuronales mejoradas para datos tabulares mediante atención de filas y preentrenamiento contrastivo. Preimpresión de arXiv arXiv:2106.01342, 2021.
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser e Illia Polosukhin. Atención es todo lo que necesitas. En Avances en sistemas de procesamiento de información neuronal, páginas 5998–6008, 2017.
Este documento está disponible en arxiv bajo licencia CC BY-NC-ND 4.0 DEED.