লেখক:
(1) পি আদিত্য শ্রীকর, আমাজন এবং এই লেখকরা এই কাজে সমানভাবে অবদান রেখেছেন {[email protected]};
(2) সাহিল ভার্ম, আমাজন এবং এই লেখকরা এই কাজে সমানভাবে অবদান রেখেছেন {[email protected];}
(3) বরুণ মাধবন, ইন্ডিয়ান ইনস্টিটিউট অফ টেকনোলজি, খড়গপুর। অ্যামাজন {[email protected]} এ ইন্টার্নশিপের সময় কাজ করা হয়েছে;
(4) অভিষেক প্রসাদ, আমাজন {[email protected]}।
এই বিভাগে, RCT-এর কার্যকারিতা 2022 সালে পাঠানো প্যাকেজগুলির ডেটাসেটে প্রদর্শিত হয়। পূর্বাভাসিত এবং প্রকৃত শিপিং খরচের মধ্যে গড় পরম ত্রুটি (MAE) পারফরম্যান্স মেট্রিক হিসাবে নির্বাচিত হয়, কারণ এটি সম্পূর্ণ ত্রুটির প্রতিনিধিত্ব করে আর্থিক শর্তাবলী এই কাগজে, MAE মানগুলি দিনের 0 হিউরিস্টিক অনুমানের MAE দ্বারা স্বাভাবিক করা হয়, যা MAE শতাংশ (MAE%) হিসাবে প্রকাশ করা হয়। এই মেট্রিক হিউরিস্টিক বেসলাইনের বিরুদ্ধে অর্জিত উন্নতির উপর জোর দেয়।
4.1.1। আর্কিটেকচার এবং হাইপারমিটার
এমবেডিং ডাইমেনশন 128 এ সেট করা হয়েছে এবং 6টি ট্রান্সফরমার এনকোডার লেয়ার ব্যবহার করা হয়েছে, প্রতিটিতে 16টি স্ব-মনোযোগ হেড রয়েছে। অ্যাডাম অপটিমাইজার (কিংমা এবং বা, 2014) 0.0001 এর শুরুর শেখার হার এবং 2048 এর ব্যাচ আকারের সাথে ব্যবহার করা হয়েছিল। কনভারজেন্স উন্নত করার জন্য, প্রতিবার বৈধতা মেট্রিক মালভূমিতে শেখার হার 0.7 এর একটি ফ্যাক্টর দ্বারা হ্রাস করা হয়েছিল। মডেল কোডটি PyTorch (Prokhorenkova et al., 2018) এবং PyTorch Lightning (Falcon and The PyTorch Lightning team, 2019) ফ্রেমওয়ার্ক ব্যবহার করে প্রয়োগ করা হয়েছিল।
4.1.2। ডেটা প্রস্তুতি
10M প্যাকেজগুলির একটি প্রশিক্ষণ ডেটাসেট 2022 সালে 45-দিনের সময়কালে পাঠানো প্যাকেজগুলি থেকে নমুনা করা হয়েছিল৷ ডেটাটি লেবেল এনকোডিং শ্রেণীগত বৈশিষ্ট্য এবং সংখ্যাসূচক বৈশিষ্ট্যগুলির মানককরণের মাধ্যমে প্রিপ্রসেস করা হয়েছিল৷ পরীক্ষার ডেটাসেটে সমস্ত প্যাকেজ রয়েছে (নমুনা ছাড়াই) যেগুলি 2022 থেকে একটি পৃথক, অ-ওভারল্যাপিং সপ্তাহে পাঠানো হয়েছিল।
4.1.3। বেঞ্চমার্ক পদ্ধতি
আমরা জটিলতার ক্রমবর্ধমান স্তরের সাথে বিভিন্ন মডেলের সাথে RCT-এর কর্মক্ষমতা তুলনা করি: GBDT, AWS AutoGluon (Erickson et al., 2020), Feedforward নিউরাল নেটওয়ার্ক, TabTransformer এবং FT-Transformer। GBDT মডেলের জন্য, সংখ্যাসূচক বৈশিষ্ট্যগুলি প্রমিত করা হয়নি, এবং লক্ষ্য এনকোডিং (Micci-Barreca, 2001) লেবেল এনকোডিংয়ের পরিবর্তে শ্রেণীগত বৈশিষ্ট্যগুলিকে এনকোড করতে ব্যবহৃত হয়েছিল। AWS AutoGluon-কে LightGBM (Ke et al., 2017) মডেলের একটি সংকলন শেখার জন্য কনফিগার করা হয়েছে। 5টি স্তর সমন্বিত একটি ফিডফরোয়ার্ড নিউরাল নেটওয়ার্ক ব্যবহার করা হয়েছিল, যে ইনপুটটি এম্বেডিং এবং একত্রিত মাত্রা, রুট এবং পরিষেবা বৈশিষ্ট্য দ্বারা তৈরি করা হয়েছিল। TabTransformer এবং FT-Transformer-এর সর্বজনীনভাবে উপলব্ধ বাস্তবায়ন [1] ব্যবহার করা হয়েছিল, এবং সমস্ত হাইপারপ্যারামিটার RCT-এর সাথে সামঞ্জস্যপূর্ণ করা হয়েছিল। যেহেতু বেসলাইনগুলি আইটেম এবং চার্জের সংগ্রহ পরিচালনা করে না, তাই আমরা শুধুমাত্র মাত্রা, রুট এবং পরিষেবা বৈশিষ্ট্যগুলি ব্যবহার করেছি।
সারণি 1a অধ্যায় 4.1.3 এ আলোচিত বেসলাইন মডেলগুলির সাথে RCT-এর তুলনা করে। টেবিলের মডেলগুলি মডেল জটিলতার ক্রমবর্ধমান ক্রম অনুসারে সংগঠিত হয়। উভয় গাছ ভিত্তিক মডেল, GBDT এবং AutoGluon, একই স্তরে পারফর্ম করছে। গভীর শিক্ষার মডেলগুলি ধারাবাহিকভাবে গাছ ভিত্তিক মডেলগুলিকে ছাড়িয়ে যায়, যা নির্দেশ করে যে প্রস্তাবিত আর্কিটেকচারটি শিপিং খরচের পূর্বাভাসের জন্য দক্ষ৷ ট্রান্সফরমার ভিত্তিক মডেলগুলির ফিডফরোয়ার্ড নিউরাল নেটওয়ার্কের তুলনায় কম MAE% স্কোর রয়েছে, যা দেখায় যে ট্রান্সফরমারগুলি কার্যকর মিথস্ক্রিয়া শিখতে পারে। RCT মডেল উভয় ট্রান্সফরমার মডেলকে ছাড়িয়ে যায় - TabTransformer এবং FT-Transformer (SOTA), প্রস্তাব করে যে একটি কাস্টম আর্কিটেকচার যা রেট কার্ডের সুপ্ত কাঠামোকে এনকোড করে উন্নত কর্মক্ষমতাতে অবদান রাখছে। সারণি 2 বিভিন্ন মডেলের আকারে FT-ট্রান্সফরমার এবং RCT মডেলের কর্মক্ষমতা তুলনা করে। ফলাফলগুলি দেখায় যে RCT সমস্ত পরীক্ষিত মডেলের আকার জুড়ে FT-ট্রান্সফরমারকে ছাড়িয়ে গেছে, এটি ইঙ্গিত করে যে এনকোডিং রেট কার্ড কাঠামো বিভিন্ন মডেলের ক্ষমতা জুড়ে কর্মক্ষমতা সুবিধা প্রদান করে।
ট্রান্সফরমারগুলিকে বিভিন্ন কাজে শক্তিশালী উপস্থাপনা শেখার ক্ষমতা দেখানো হয়েছে। এই পরীক্ষায়, আমরা RCT দ্বারা শেখা রেট কার্ড প্রতিনিধিত্বের কার্যকারিতা তদন্ত করি। এটি মূল্যায়ন করার জন্য, আমরা একটি ইনপুট বৈশিষ্ট্য হিসাবে শেখা রেট কার্ড উপস্থাপনার সাথে এবং ছাড়া আমাদের GBT মডেলের কর্মক্ষমতা তুলনা করি।
চূড়ান্ত ট্রান্সফরমার স্তরের পুল আউটপুটকে রেট কার্ডের শেখা উপস্থাপনা হিসাবে বিবেচনা করা হয়। এই বৈশিষ্ট্যটি যোগ করার ফলে GBDT-এর কর্মক্ষমতা 9.79% উন্নত হয়েছে (সারণী 1b দেখুন)। আরও, এটি দেখা গেছে যে সমস্ত ম্যানুয়ালি ইঞ্জিনিয়ারড বৈশিষ্ট্যগুলি বাদ দেওয়া হলেও, GBDT এখনও 69.21% এর MAE শতাংশের সাথে তুলনামূলকভাবে কাজ করে। এটি ইঙ্গিত দেয় যে রেট কার্ডের শেখা উপস্থাপনাগুলি কেবলমাত্র আরও ভাল বৈশিষ্ট্যের তথ্য ক্যাপচারে কার্যকর নয়, তবে প্যাকেজ রেট কার্ডের যথেষ্ট উপস্থাপনাও। যাইহোক, এমনকি এই বৈশিষ্ট্যের সাথেও, GBDT-তে RCT-এর তুলনায় 13.5% বেশি MAE% রয়েছে। এটি সম্ভবত কারণ RCT এন্ড-টু-এন্ড প্রশিক্ষিত, যখন GBDT একটি পৃথক মডেলের অংশ হিসাবে শেখা বৈশিষ্ট্যগুলি ব্যবহার করে।
অধ্যায় 4.2-এ, এটি দেখা গেছে যে ফিড ফরওয়ার্ড (এফএফ) নিউরাল নেটওয়ার্কগুলি ট্রান্সফরমারগুলির দ্বারা উন্নত ছিল, যা এই অনুমানের দিকে পরিচালিত করে যে স্ব-মনোযোগ একটি উচ্চতর ইন্টারঅ্যাকশন লার্নার। এই বিভাগটির লক্ষ্য হল স্ব-মনোযোগের পরিবর্তে এফএফ ব্যবহার করে মাত্রা, রুট এবং পরিষেবা বৈশিষ্ট্যগুলিকে এনকোড করার জন্য স্ব-মনোযোগের প্রস্থকে শুধুমাত্র আইটেম এবং চার্জ বৈশিষ্ট্যগুলিতে সীমাবদ্ধ করে এই অনুমানকে আরও অন্বেষণ করা। এফএফ এবং স্ব-মনোযোগ উভয়ের আউটপুট এনকোডিংগুলি শিপিং খরচের পূর্বাভাস দিতে একটি এফএফ স্তরে সংযুক্ত এবং খাওয়ানো হয়। স্ব-মনোযোগের প্রস্থ কমে যাওয়ায়, এটি সমস্ত রেট কার্ড বৈশিষ্ট্যের মধ্যে মিথস্ক্রিয়া ক্যাপচার করতে ব্যর্থ হয়। ফলস্বরূপ মডেল RCT এর 55.72% এর তুলনায় 64.73% এর একটি উচ্চ MAE% প্রদর্শন করে। এই ফলাফলগুলি পরামর্শ দেয় যে এফএফ মডেলগুলি ট্রান্সফরমারগুলির তুলনায় নিকৃষ্ট মিথস্ক্রিয়া শিক্ষার্থী।
বিভাগ 3.2-এ, আমরা স্ব-মনোযোগের কারণে বৈশিষ্ট্য একত্রিতকরণে ট্রান্সফরমারের দক্ষতা নিয়ে আলোচনা করেছি। এই বিভাগে, মনোযোগের গভীরতা এবং মনোযোগের মাথা গণনার প্রভাব বিশ্লেষণ করার জন্য অ্যাবেশন পরীক্ষাগুলি পরিচালিত হয়। মনোযোগের মাথার সংখ্যা বৃদ্ধি মডেলটিকে আরও স্বাধীন বৈশিষ্ট্য মিথস্ক্রিয়া শিখতে দেয়। এই পরীক্ষার জন্য,
মডেলের ক্ষমতা 128 মাত্রায় স্থির করা হয়েছে, তাই মাথার সংখ্যা বৃদ্ধির ফলে মাথা পিছু শেখা মিথস্ক্রিয়াগুলির জটিলতাও কমে যায়। এইভাবে, সর্বোত্তম মাথা গণনা বাছাই করা হল স্বাধীন মিথস্ক্রিয়া শেখার এবং প্রতিটি শেখা ইন্টারঅ্যাকশনের জটিলতার মধ্যে একটি ট্রেড-অফ। চিত্র 2a-তে ট্রেড-অফ লক্ষ্য করা যেতে পারে, যেখানে কর্মক্ষমতা 4 হেড থেকে 16 হেডে উন্নতি করে কারণ প্রতিটি হেড দ্বারা শেখা মনোযোগ যথেষ্ট জটিল। যাইহোক, যখন মনোযোগের মাথা 16 থেকে 32 পর্যন্ত বৃদ্ধি করা হয় তখন কর্মক্ষমতা হ্রাস পায় কারণ মাথার জটিলতা উল্লেখযোগ্যভাবে হ্রাস পেয়েছে, আরও স্বাধীন মিথস্ক্রিয়া শেখার সুবিধাকে অস্বীকার করে।
এর পরে, আমরা ট্রান্সফরমার এনকোডার স্তরগুলি যুক্ত করে মনোযোগের গভীরতা বাড়ানোর প্রভাবকে চিত্রিত করি। গভীরতর ট্রান্সফরমার নেটওয়ার্কগুলি আরও জটিল উচ্চ-ক্রম মিথস্ক্রিয়া শিখে, যার ফলে মডেলের কার্যক্ষমতা বৃদ্ধি পায়, যেমনটি চিত্র 2b-এ দেখা গেছে। যাইহোক, 6 থেকে 12-এ স্তরের সংখ্যা বৃদ্ধি করা ওভারফিটিং-এর কারণে মডেলের কর্মক্ষমতা হ্রাস করে, যা শেখার যোগ্য প্যারামিটার সংখ্যা বৃদ্ধির কারণে ঘটে। ওভারফিটিং-এর প্রমাণ চিত্র 2b-তে পাওয়া যাবে, যেখানে 6 থেকে 12টি স্তরে যাওয়ার সময় ট্রেন এবং ভ্যাল MAE-এর মধ্যে ব্যবধান 30% বৃদ্ধি পায়।
অবশেষে, চিত্র 3-এ, আমরা অ্যালগরিদম 1 ব্যবহার করে তৈরি করা তাপ মানচিত্রগুলি প্রদর্শন করি। এই তাপ মানচিত্রগুলি শীর্ষ পাঁচটি সর্বাধিক উপস্থিত বৈশিষ্ট্যের অংশ হিসাবে প্রতিটি বৈশিষ্ট্য কতবার উপস্থিত হয়েছিল তা চিত্রিত করে। প্রতিটি কলাম একটি মাথার সাথে সম্পর্কিত, এবং প্রতিটি সারি একটি বৈশিষ্ট্যের সাথে মিলে যায়। বাম দিকের তাপ মানচিত্রটি nheads = 16 সহ RCT ব্যবহার করে তৈরি করা হয়েছে, এবং ডানদিকের একটি nheads = 4 দিয়ে তৈরি করা হয়েছে। উভয় তাপ মানচিত্র তুলনা করলে দেখা যাবে যে চিত্র 3a-তে প্রতি সক্রিয় বৈশিষ্ট্যের ইন্টারঅ্যাকশনের সংখ্যা কম কলাম, আমাদের হাইপোথিসিস নিশ্চিত করে যে বৃহত্তর সংখ্যক মনোযোগের মাথা প্রতিটি মাথা বৈশিষ্ট্যগুলির মধ্যে স্বাধীন মিথস্ক্রিয়া শেখার দিকে পরিচালিত করে।
পরীক্ষার খরচ কমাতে, এই কাগজের সমস্ত পরীক্ষাগুলি 10 মিলিয়ন আকারের একটি প্রশিক্ষণ ডেটাসেট ব্যবহার করে পরিচালিত হয়েছিল। যাইহোক, সেরা পারফরম্যান্স মডেল ব্যবহার করা গুরুত্বপূর্ণ, সর্বোত্তম কর্মক্ষমতা অর্জনের জন্য প্রশিক্ষণ ডেটাসেটের আকার বাড়ানো যেতে পারে।
ডেটা সহ RCT-এর মাপযোগ্যতা যাচাই করার জন্য, আমরা মডেলটিকে বিভিন্ন প্রশিক্ষণ ডেটাসেট আকারে প্রশিক্ষিত করেছি এবং চিত্র 4-এ ফলাফলগুলি প্লট করেছি৷ ফলাফলগুলি দেখায় যে RCT-এর কর্মক্ষমতা আরও বড় ডেটাসেটের সাথে উন্নত হতে চলেছে৷ অতএব, আমরা আত্মবিশ্বাসের সাথে আশা করতে পারি যে বৃহত্তর ডেটাসেটে প্রশিক্ষিত মডেলগুলি এই কাগজে অন্বেষণ করা মডেলকে ছাড়িয়ে যাবে।
এই কাগজটি CC BY-NC-ND 4.0 DEED লাইসেন্সের অধীনে arxiv-এ উপলব্ধ ।
[১] https://github.com/lucidrains/tab-transformer-pytorc