paint-brush
Revelando o poder da autoatenção para previsão de custos de envio: referênciaspor@convolution
126 leituras

Revelando o poder da autoatenção para previsão de custos de envio: referências

Muito longo; Para ler

O novo modelo de IA (Rate Card Transformer) analisa os detalhes do pacote (tamanho, transportadora, etc.) para prever os custos de envio com mais precisão.
featured image - Revelando o poder da autoatenção para previsão de custos de envio: referências
Convolution: Leading Authority on Signal Processing HackerNoon profile picture
0-item

Autores:

(1) P Aditya Sreekar, Amazon e estes autores contribuíram igualmente para este trabalho {[email protected]};

(2) Sahil Verm, Amazon e estes autores contribuíram igualmente para este trabalho {[email protected];}

(3) Varun Madhavan, Instituto Indiano de Tecnologia, Kharagpur. Trabalho realizado durante estágio na Amazon {[email protected]};

(4) Abhishek Persad, Amazon {[email protected]}.

Tabela de links

Referências

Alexander Amini, Wilko Schwarting, Ava Soleimany e Daniela Rus. Regressão evidencial profunda. CoRR, abs/1910.02600, 2019. URL http://arxiv.org/abs/1910.02600.


Sercan O Arik, Engin Gedik, Kenan Guney e Umut Atilla. Tabnet: Aprendizagem tabular interpretável atenta. Em Avanços em Sistemas de Processamento de Informação Neural, páginas 10951–10961, 2019.


Cristóvão M Bispo. Reconhecimento de padrões e aprendizado de máquina. Em Springer, capítulo 2, páginas 36–43. 2006.


Léo Breiman. Florestas aleatórias. Aprendizado de máquina, 45(1):5–32, 2001.


Jintai Chen, Kuanlun Liao, Yao Wan, Danny Z Chen e Jian Wu. Danets: Redes abstratas profundas para classificação e regressão de dados tabulares. Em Anais da Conferência AAAI sobre Inteligência Artificial, volume 36, páginas 3930–3938, 2022.


Tianqi Chen e Carlos Guestrin. Xgboost: Um sistema escalonável de aumento de árvore. Anais da 22ª Conferência Internacional ACM SIGKDD sobre Descoberta de Conhecimento e Mineração de Dados, páginas 785–794, 2016.


Jacob Devlin, Ming-Wei Chang, Kenton Lee e Kristina Toutanova. BERT: pré-treinamento de transformadores bidirecionais profundos para compreensão de linguagem. Em Jill Burstein, Christy Doran e Thamar Solorio, editores, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACL-HLT 2019, Minneapolis, MN, EUA, 2 a 7 de junho, 2019, Volume 1 (artigos longos e curtos), páginas 4171–4186. Associação de Lingüística Computacional, 2019. doi: 10.18653/v1/n19-1423. URL https://doi.org/10.18653/v1/n19-1423.


Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit e Neil Houlsby. Uma imagem vale 16x16 palavras: Transformadores para reconhecimento de imagens em escala. ICLR, 2021.


Nick Erickson, Jonas Mueller, Alexander Shirkov, Hang Zhang, Pedro Larroy, Mu Li e Alexander Smola. Autogluon-tabular: Automl robusto e preciso para dados estruturados, 2020.


William Falcon e a equipe PyTorch Lightning. PyTorch Lightning, 3 2019. URL https: //github.com/Lightning-AI/lightning.


Jerome H Friedman. Aproximação de função gananciosa: uma máquina de aumento de gradiente. Anais de estatísticas, páginas 1189–1232, 2001.


Yuan Gong, Yu-An Chung e James Glass. AST: Transformador de espectrograma de áudio. Em Proc. Interspeech 2021, páginas 571–575, 2021. doi: 10.21437/Interspeech.2021-698.


Yury Gorishniy, Ivan Rubachev, Valentin Khrulkov e Artem Babenko. Revisitando modelos de aprendizagem profunda para dados tabulares. Avanços em Sistemas de Processamento de Informação Neural, 34:18932–18943, 2021.


Trevor Hastie, Robert Tibshirani e Jerome Friedman. Os elementos da aprendizagem estatística: mineração de dados, inferência e previsão. Springer Ciência e Mídia de Negócios, 2009.


Hussein Hazimeh, Natalia Ponomareva, Petros Mol, Zhenyu Tan e Rahul Mazumder. A camada de conjunto de árvores: a diferenciabilidade atende à computação condicional. Na Conferência Internacional sobre Aprendizado de Máquina, páginas 4138–4148. PMLR, 2020.


Xin Huang, Ashish Khetan, Milan Cvitkovic e Zohar Karnin. Tabtransformer: modelagem de dados tabulares usando incorporações contextuais. Pré-impressão do arXiv arXiv:2012.06678, 2020.


Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye e Tie-Yan Liu. Lightgbm: Uma árvore de decisão de aumento de gradiente altamente eficiente. Avanços em sistemas de processamento de informação neural, 30:3146–3154, 2017.


Diederik P Kingma e Jimmy Ba. Adam: Um método para otimização estocástica. Pré-impressão do arXiv arXiv:1412.6980, 2014.


Daniele Micci-Barreca. Um esquema de pré-processamento para atributos categóricos de alta cardinalidade em problemas de classificação e previsão. Exploração SIGKDD. Newsl., 3(1):27–32, julho de 2001. ISSN 1931-0145. doi: 10.1145/507533.507538. URL https://doi.org/10.1145/507533. 507538.


Sergei Popov, Stanislav Morozov e Artem Babenko. Conjuntos de decisões neurais inconscientes para aprendizado profundo em dados tabulares. Pré-impressão do arXiv arXiv:1909.06312, 2019.


Liudmila Prokhorenkova, Gleb Gusev, Alexey Vorobev, Anna Dorogush e Andrey Gulin. Catboost: impulso imparcial com recursos categóricos. Avanços em Sistemas de Processamento de Informação Neural, 31:6638–6648, 2018.


Gowthami Somepalli, Micah Goldblum, Avi Schwarzschild, C Bayan Bruss e Tom Goldstein. Saint: Redes neurais aprimoradas para dados tabulares por meio de atenção de linha e pré-treinamento contrastivo. Pré-impressão do arXiv arXiv:2106.01342, 2021.


Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser e Illia Polosukhin. Atenção é tudo que você precisa. Em Avanços em Sistemas de Processamento de Informação Neural, páginas 5998–6008, 2017.


Este artigo está disponível no arxiv sob licença CC BY-NC-ND 4.0 DEED.