paint-brush
Revelando el poder de la autoatención para la predicción de costos de envío: referenciaspor@convolution
126 lecturas

Revelando el poder de la autoatención para la predicción de costos de envío: referencias

Demasiado Largo; Para Leer

El nuevo modelo de IA (Rate Card Transformer) analiza los detalles del paquete (tamaño, transportista, etc.) para predecir los costos de envío con mayor precisión.
featured image - Revelando el poder de la autoatención para la predicción de costos de envío: referencias
Convolution: Leading Authority on Signal Processing HackerNoon profile picture
0-item

Autores:

(1) P Aditya Sreekar, Amazon y estos autores contribuyeron igualmente a este trabajo {[email protected]};

(2) Sahil Verm, Amazon y estos autores contribuyeron igualmente a este trabajo {[email protected];}

(3) Varun Madhavan, Instituto Indio de Tecnología, Kharagpur. Trabajo realizado durante la pasantía en Amazon {[email protected]};

(4) Abhishek Persad, Amazon {[email protected]}.

Tabla de enlaces

Referencias

Alexander Amini, Wilko Schwarting, Ava Soleimany y Daniela Rus. Profunda regresión evidencial. CoRR, abs/1910.02600, 2019. URL http://arxiv.org/abs/1910.02600.


Sercan O Arik, Engin Gedik, Kenan Guney y Umut Atilla. Tabnet: Aprendizaje tabular atento e interpretable. En Avances en sistemas de procesamiento de información neuronal, páginas 10951–10961, 2019.


Cristóbal M. Obispo. Reconocimiento de patrones y aprendizaje automático. En Springer, capítulo 2, páginas 36–43. 2006.


Leo Breiman. Bosques aleatorios. Aprendizaje automático, 45(1):5–32, 2001.


Jintai Chen, Kuanlun Liao, Yao Wan, Danny Z Chen y Jian Wu. Danets: redes abstractas profundas para clasificación y regresión de datos tabulares. En Actas de la Conferencia AAAI sobre Inteligencia Artificial, volumen 36, páginas 3930–3938, 2022.


Tianqi Chen y Carlos Guestrin. Xgboost: un sistema de impulso de árboles escalable. Actas de la 22.ª Conferencia internacional ACM SIGKDD sobre descubrimiento de conocimientos y minería de datos, páginas 785–794, 2016.


Jacob Devlin, Ming-Wei Chang, Kenton Lee y Kristina Toutanova. BERT: preentrenamiento de transformadores bidireccionales profundos para la comprensión del lenguaje. En Jill Burstein, Christy Doran y Thamar Solorio, editores, Actas de la Conferencia de 2019 del Capítulo Norteamericano de la Asociación de Lingüística Computacional: Tecnologías del Lenguaje Humano, NAACL-HLT 2019, Minneapolis, MN, EE. UU., 2 al 7 de junio. 2019, volumen 1 (artículos largos y breves), páginas 4171–4186. Asociación de Lingüística Computacional, 2019. doi: 10.18653/v1/n19-1423. URL https://doi.org/10.18653/v1/n19-1423.


Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit y Neil Houlsby. Una imagen vale 16x16 palabras: Transformadores para el reconocimiento de imágenes a escala. ICLR, 2021.


Nick Erickson, Jonas Mueller, Alexander Shirkov, Hang Zhang, Pedro Larroy, Mu Li y Alexander Smola. Autogluon-tabular: Automl robusto y preciso para datos estructurados, 2020.


William Falcon y el equipo PyTorch Lightning. PyTorch Lightning, 3 de 2019. URL https: //github.com/Lightning-AI/lightning.


Jerome H. Friedman. Aproximación de funciones codiciosas: una máquina de impulso de gradiente. Anales de estadísticas, páginas 1189-1232, 2001.


Yuan Gong, Yu-An Chung y James Glass. AST: Transformador de espectrograma de audio. En Proc. Interspeech 2021, páginas 571–575, 2021. doi: 10.21437/Interspeech.2021-698.


Yury Gorishniy, Ivan Rubachev, Valentin Khrulkov y Artem Babenko. Revisando modelos de aprendizaje profundo para datos tabulares. Avances en los sistemas de procesamiento de información neuronal, 34:18932–18943, 2021.


Trevor Hastie, Robert Tibshirani y Jerome Friedman. Los elementos del aprendizaje estadístico: minería de datos, inferencia y predicción. Springer Science & Business Media, 2009.


Hussein Hazimeh, Natalia Ponomareva, Petros Mol, Zhenyu Tan y Rahul Mazumder. La capa de conjunto de árboles: la diferenciabilidad se encuentra con el cálculo condicional. En Conferencia internacional sobre aprendizaje automático, páginas 4138–4148. PMLR, 2020.


Xin Huang, Ashish Khetan, Milan Cvitkovic y Zohar Karnin. Tabtransformer: modelado de datos tabulares mediante incrustaciones contextuales. Preimpresión de arXiv arXiv:2012.06678, 2020.


Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye y Tie-Yan Liu. Lightgbm: un árbol de decisión que impulsa el gradiente altamente eficiente. Avances en los sistemas de procesamiento de información neuronal, 30:3146–3154, 2017.


Diederik P Kingma y Jimmy Ba. Adam: un método para la optimización estocástica. Preimpresión de arXiv arXiv:1412.6980, 2014.


Daniele Micci-Barreca. Un esquema de preprocesamiento para atributos categóricos de alta cardinalidad en problemas de clasificación y predicción. Explorador SIGKDD. Newsl., 3(1):27–32, julio de 2001. ISSN 1931-0145. doi: 10.1145/507533.507538. URL https://doi.org/10.1145/507533. 507538.


Serguei Popov, Stanislav Morozov y Artem Babenko. Conjuntos de decisiones neuronales ajenas para el aprendizaje profundo de datos tabulares. Preimpresión de arXiv arXiv:1909.06312, 2019.


Liudmila Prokhorenkova, Gleb Gusev, Alexey Vorobev, Anna Dorogush y Andrey Gulin. Catboost: impulso imparcial con características categóricas. Avances en los sistemas de procesamiento de información neuronal, 31:6638–6648, 2018.


Gowthami Somepalli, Micah Goldblum, Avi Schwarzschild, C Bayan Bruss y Tom Goldstein. Saint: Redes neuronales mejoradas para datos tabulares mediante atención de filas y preentrenamiento contrastivo. Preimpresión de arXiv arXiv:2106.01342, 2021.


Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser e Illia Polosukhin. Atención es todo lo que necesitas. En Avances en sistemas de procesamiento de información neuronal, páginas 5998–6008, 2017.


Este documento está disponible en arxiv bajo licencia CC BY-NC-ND 4.0 DEED.