paint-brush
配送コスト予測における自己注意の力を明らかにする: 参考文献@convolution
126 測定値

配送コスト予測における自己注意の力を明らかにする: 参考文献

長すぎる; 読むには

新しい AI モデル (Rate Card Transformer) は、パッケージの詳細 (サイズ、運送業者など) を分析して、配送コストをより正確に予測します。
featured image - 配送コスト予測における自己注意の力を明らかにする: 参考文献
Convolution: Leading Authority on Signal Processing HackerNoon profile picture
0-item

著者:

(1)P Aditya Sreekar、Amazonおよびこれらの著者は、この研究に等しく貢献しました{[email protected]}。

(2)Sahil Verm、Amazon、およびこれらの著者は、この研究に等しく貢献しました {[email protected];}

(3)Varun Madhavan、インド工科大学カラグプル校。アマゾンでのインターンシップ中に取り組んだ仕事 {[email protected]}

(4)アビシェーク・ペルサド、Amazon {[email protected]}。

リンク一覧

参考文献

Alexander Amini、Wilko Schwarting、Ava Soleimany、Daniela Rus。Deep evidenceial regression。CoRR、abs/1910.02600、2019年。URL http://arxiv.org/abs/1910.02600。


Sercan O Arik、Engin Gedik、Kenan Guney、Umut Atilla。Tabnet: 注意深い解釈可能な表形式学習。Advances in Neural Information Processing Systems、10951~10961 ページ、2019 年。


Christopher M Bishop. パターン認識と機械学習。Springer、第 2 章、36 ~ 43 ページ。2006 年。


Leo Breiman. ランダムフォレスト. 機械学習, 45(1):5–32, 2001.


Jintai Chen、Kuanlun Liao、Yao Wan、Danny Z Chen、Jian Wu。Danets: 表形式データの分類と回帰のためのディープ抽象ネットワーク。AAAI人工知能会議の議事録、第36巻、3930〜3938ページ、2022年。


Tianqi Chen と Carlos Guestrin。Xgboost: スケーラブルなツリー ブースティング システム。知識発見とデータ マイニングに関する第 22 回 ACM SIGKDD 国際会議の議事録、785 ~ 794 ページ、2016 年。


Jacob Devlin、Ming-Wei Chang、Kenton Lee、Kristina Toutanova。BERT: 言語理解のためのディープ双方向トランスフォーマーの事前トレーニング。Jill Burstein、Christy Doran、Thamar Solorio 編、Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies、NAACL-HLT 2019、ミネアポリス、ミネソタ州、米国、2019 年 6 月 2 ~ 7 日、第 1 巻 (長文および短文論文)、4171 ~ 4186 ページ。Association for Computational Linguistics、2019 年。doi: 10.18653/v1/n19-1423。URL https://doi.org/10.18653/v1/n19-1423。


Alexey Dosovitskiy、Lucas Beyer、Alexander Kolesnikov、Dirk Weissenborn、Xiaohua Zhai、Thomas Unterthiner、Mostafa Dehghani、Matthias Minderer、Georg Heigold、Sylvain Gelly、Jakob Uszkoreit、Neil Houlsby。画像は 16x16 ワードに相当します: 大規模な画像認識のためのトランスフォーマー。 ICLR、2021年。


Nick Erickson、Jonas Mueller、Alexander Shirkov、Hang Zhang、Pedro Larroy、Mu Li、Alexander Smola。Autogluon-tabular: 構造化データのための堅牢で正確な automl、2020 年。


William Falcon と PyTorch Lightning チーム。PyTorch Lightning、2019 年 3 月。URL https://github.com/Lightning-AI/lightning。


ジェローム・H・フリードマン。貪欲関数近似:勾配ブースティングマシン。Annals of Statistics、1189~1232ページ、2001年。


Yuan Gong、Yu-An Chung、James Glass。AST: オーディオスペクトログラムトランスフォーマー。Proc. Interspeech 2021、571〜575ページ、2021年。doi: 10.21437/Interspeech.2021-698。


Yury Gorishniy、Ivan Rubachev、Valentin Khrulkov、Artem Babenko。表形式データ用のディープラーニングモデルの再検討。Advances in Neural Information Processing Systems、34:18932–18943、2021年。


Trevor Hastie、Robert Tibshirani、Jerome Friedman。統計学習の要素: データ マイニング、推論、予測。Springer Science & Business Media、2009 年。


Hussein Hazimeh、Natalia Ponomareva、Petros Mol、Zhenyu Tan、Rahul Mazumder。ツリー アンサンブル レイヤー: 微分可能性と条件付き計算の融合。International Conference on Machine Learning、4138 ~ 4148 ページ。PMLR、2020 年。


Xin Huang、Ashish Khetan、Milan Cvitkovic、Zohar Karnin。Tabtransformer: コンテキスト埋め込みを使用した表形式のデータモデリング。arXiv プレプリント arXiv:2012.06678、2020 年。


Guolin Ke、Qi Meng、Thomas Finley、Taifeng Wang、Wei Chen、Weidong Ma、Qiwei Ye、および Tie-Yan Liu。Lightgbm: 非常に効率的な勾配ブースティング決定木。ニューラル情報処理システムの進歩、30:3146–3154、2017 年。


Diederik P Kingma と Jimmy Ba. Adam: 確率的最適化のための手法。arXiv プレプリント arXiv:1412.6980、2014 年。


Daniele Micci-Barreca. 分類および予測問題における高カーディナリティカテゴリ属性の前処理スキーム。SIGKDD Explor. Newsl., 3(1):27–32, 2001 年 7 月。ISSN 1931-0145。doi: 10.1145/507533.507538。URL https://doi.org/10.1145/507533. 507538。


Sergei Popov、Stanislav Morozov、Artem Babenko。表形式データでのディープラーニングのためのニューラル忘却決定アンサンブル。arXiv プレプリント arXiv:1909.06312、2019 年。


Liudmila Prokhorenkova、Gleb Gusev、Alexey Vorobev、Anna Dorogush、Andrey Gulin。Catboost: カテゴリ特徴による偏りのないブースティング。Advances in Neural Information Processing Systems、31:6638–6648、2018。


Gowthami Somepalli、Micah Goldblum、Avi Schwarzschild、C Bayan Bruss、Tom Goldstein。Saint:行アテンションと対照的事前トレーニングによる表形式データ向けのニューラルネットワークの改善。arXiv プレプリント arXiv:2106.01342、2021 年。


Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N Gomez、Lukasz Kaiser、Illia Polosukhin。「Attention is all you need」。Advances in Neural Information Processing Systems、5998~6008 ページ、2017 年。


この論文は、CC BY-NC-ND 4.0 DEED ライセンスの下でarxiv で公開されています