paint-brush
揭示自注意力机制在运输成本预测中的作用:参考文献经过@convolution
126 讀數

揭示自注意力机制在运输成本预测中的作用:参考文献

太長; 讀書

新的 AI 模型(Rate Card Transformer)分析包裹的详细信息(尺寸、承运人等),以更准确地预测运费。
featured image - 揭示自注意力机制在运输成本预测中的作用:参考文献
Convolution: Leading Authority on Signal Processing HackerNoon profile picture
0-item

作者:

(1)P Aditya Sreekar、亚马逊和这些作者对本文做出了同等贡献 {[email protected]};

(2)Sahil Verm、亚马逊和这些作者对本文做出了同等贡献 {[email protected];}

(3)Varun Madhavan,印度理工学院,Kharagpur。在亚马逊实习期间完成的工作{[email protected]};

(4)Abhishek Persad,亚马逊{[email protected]}。

链接表

参考

Alexander Amini、Wilko Schwarting、Ava Soleimany 和 Daniela Rus。深度证据回归。CoRR,abs/1910.02600,2019 年。网址 http://arxiv.org/abs/1910.02600。


Sercan O Arik、Engin Gedik、Kenan Guney 和 Umut Atilla。Tabnet:专注的可解释表格学习。《神经信息处理系统进展》,第 10951–10961 页,2019 年。


Christopher M Bishop。模式识别和机器学习。Springer,第 2 章,第 36-43 页。2006 年。


Leo Breiman。随机森林。机器学习,45(1):5–32,2001 年。


Jintai Chen、Kuanlun Liao、Yao Wan、Danny Z Chen 和 Jian Wu。Danets:用于表格数据分类和回归的深度抽象网络。在《AAAI 人工智能会议论文集》第 36 卷,第 3930–3938 页,2022 年。


Tianqi Chen 和 Carlos Guestrin。Xgboost:可扩展的树提升系统。第 22 届 ACM SIGKDD 国际知识发现和数据挖掘会议论文集,第 785–794 页,2016 年。


Jacob Devlin、Ming-Wei Chang、Kenton Lee 和 Kristina Toutanova。BERT:用于语言理解的深度双向转换器的预训练。Jill Burstein、Christy Doran 和 Thamar Solorio 编辑,计算语言学协会北美分会 2019 年会议论文集:人类语言技术,NAACL-HLT 2019,美国明尼苏达州明尼阿波利斯,2019 年 6 月 2 日至 7 日,第 1 卷(长篇和短篇论文),第 4171–4186 页。计算语言学协会,2019 年。doi:10.18653/v1/n19-1423。URL https://doi.org/10.18653/v1/n19-1423。


Alexey Dosovitskiy、Lucas Beyer、Alexander Kolesnikov、Dirk Weissenborn、翟晓华、Thomas Unterthiner、Mostafa Dehghani、Matthias Minderer、Georg Heigold、Sylvain Gelly、Jakob Uszkoreit 和 Neil Houlsby。一张图片胜过 16x16 个单词:用于大规模图像识别的 Transformers。 ICLR,2021 年。


Nick Erickson、Jonas Mueller、Alexander Shirkov、Hang Zhang、Pedro Larroy、Mu Li 和 Alexander Smola。Autogluon-tabular:适用于结构化数据的稳健且准确的 automl,2020 年。


William Falcon 和 PyTorch Lightning 团队。PyTorch Lightning,3 2019。网址 https://github.com/Lightning-AI/lightning。


Jerome H Friedman。贪婪函数逼近:梯度提升机。《统计年鉴》,第 1189-1232 页,2001 年。


Yuan Gong、Yu-An Chung 和 James Glass。AST:音频频谱图转换器。在 Proc. Interspeech 2021 中,第 571-575 页,2021 年。doi:10.21437/Interspeech.2021-698。


Yury Gorishniy、Ivan Rubachev、Valentin Khrulkov 和 Artem Babenko。重新审视表格数据的深度学习模型。神经信息处理系统进展,34:18932–18943,2021 年。


Trevor Hastie、Robert Tibshirani 和 Jerome Friedman。统计学习的要素:数据挖掘、推理和预测。Springer Science & Business Media,2009 年。


Hussein Hazimeh、Natalia Ponomareva、Petros Mol、Zhenyu Tan 和 Rahul Mazumder。树集成层:可微分性满足条件计算。国际机器学习会议,第 4138-4148 页。PMLR,2020 年。


Xin Huang、Ashish Khetan、Milan Cvitkovic 和 Zohar Karnin。Tabtransformer:使用上下文嵌入的表格数据建模。arXiv 预印本 arXiv:2012.06678,2020 年。


Guolin Ke、Qi Meng、Thomas Finley、Taifeng Wang、Wei Chen、Weidong Ma、Qiwei Ye 和 Tie-Yan Liu。Lightgbm:一种高效的梯度提升决策树。神经信息处理系统进展,30:3146–3154,2017 年。


Diederik P Kingma 和 Jimmy Ba。Adam:一种随机优化方法。arXiv preprint arXiv:1412.6980,2014 年。


Daniele Micci-Barreca。分类和预测问题中高基数分类属性的预处理方案。SIGKDD Explor。Newsl.,3(1):27–32,2001 年 7 月。ISSN 1931-0145。doi:10.1145/507533.507538。URL https://doi.org/10.1145/507533。507538。


Sergei Popov、Stanislav Morozov 和 Artem Babenko。用于表格数据深度学习的神经无意识决策集成。arXiv 预印本 arXiv:1909.06312,2019 年。


Liudmila Prokhorenkova、Gleb Gusev、Alexey Vorobev、Anna Dorogush 和 Andrey Gulin。Catboost:使用分类特征的无偏提升。神经信息处理系统进展,31:6638–6648,2018 年。


Gowthami Somepalli、Micah Goldblum、Avi Schwarzschild、C Bayan Bruss 和 Tom Goldstein。Saint:通过行注意和对比预训练改进表格数据的神经网络。arXiv 预印本 arXiv:2106.01342,2021 年。


Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N Gomez、Lukasz Kaiser 和 Illia Polosukhin。注意力就是你所需要的一切。《神经信息处理系统进展》,第 5998–6008 页,2017 年。