paint-brush
ডিপ লেক, গভীর শিক্ষার জন্য একটি লেকহাউস: পারফরম্যান্স বেঞ্চমার্কদ্বারা@dataology
206 পড়া

ডিপ লেক, গভীর শিক্ষার জন্য একটি লেকহাউস: পারফরম্যান্স বেঞ্চমার্ক

দ্বারা Dataology: Study of Data in Computer Science4m2024/06/05
Read on Terminal Reader

অতিদীর্ঘ; পড়তে

গবেষকরা ডিপ লেকের সাথে পরিচয় করিয়ে দেন, গভীর শিক্ষার জন্য একটি ওপেন সোর্স লেকহাউস, জটিল ডেটা স্টোরেজ অপ্টিমাইজ করে এবং গভীর শিক্ষার কাঠামোর জন্য স্ট্রিমিং।
featured image - ডিপ লেক, গভীর শিক্ষার জন্য একটি লেকহাউস: পারফরম্যান্স বেঞ্চমার্ক
Dataology: Study of Data in Computer Science HackerNoon profile picture
0-item

লেখক:

(1) Sasun Hambardzumyan, Activeloop, Mountain View, CA, USA;

(2) অভিনব তুলি, অ্যাক্টিভলুপ, মাউন্টেন ভিউ, সিএ, ইউএসএ;

(3) Levon Ghukasyan, Activeloop, Mountain View, CA, USA;

(4) ফারিজ রহমান, অ্যাক্টিভলুপ, মাউন্টেন ভিউ, CA, USA;।

(5) Hrant Topchyan, Activeloop, Mountain View, CA, USA;

(6) ডেভিড ইসায়ান, অ্যাক্টিভলুপ, মাউন্টেন ভিউ, CA, USA;

(7) Mark McQuade, Activeloop, Mountain View, CA, USA;

(8) Mikayel Harutyunyan, Activeloop, Mountain View, CA, USA;

(9) Tatevik Hakobyan, Activeloop, Mountain View, CA, USA;

(10) Ivo Stranic, Activeloop, Mountain View, CA, USA;

(11) Davit Buniatyan, Activeloop, Mountain View, CA, USA.

লিঙ্কের টেবিল

6. পারফরমেন্স বেঞ্চমার্ক

এই বিভাগে, আমরা পরীক্ষামূলকভাবে ডিপ লেকের কর্মক্ষমতা প্রদর্শন করি বিন্যাসে ইনজেশনের বিন্দু থেকে শুরু করে অন্যান্য ডেটালোডার এবং ফর্ম্যাটের বিরুদ্ধে স্কেলে প্রশিক্ষণ পর্যন্ত। আমরা বিভিন্ন স্টোরেজ ব্যাকএন্ড থেকে স্ট্রিমিং ডেটাসেট তুলনা করি এবং ক্লাউডে প্রশিক্ষণের সময় পারফরম্যান্স লাভ এবং স্কেলেবিলিটি প্রদর্শন করি।

6.1 বিভিন্ন ফর্ম্যাটে ইনজেশনের গতি

চিত্র 6: FFHQ [43] ডেটাসেট থেকে বিভিন্ন ফরম্যাটে 10,00 0 ছবি ইনজেস্ট করা (নিম্ন ভাল)


FFHQ [43] ডেটাসেট থেকে 10,000টি ছবি অসঙ্কুচিত এবং NumPy ফর্ম্যাটে সংরক্ষণ করা হয়েছিল। প্রতিটি 1024x1024x3 কাঁচা চিত্র একটি 3MB অ্যারে। তারপর, চিত্রে দেখানো হিসাবে 6 চিত্রগুলি প্রতিটি বিন্যাসে ধারাবাহিকভাবে লেখা হয়েছিল। পারফরম্যান্স বাড়ানোর জন্য, আমরা Zarr [52] এবং N5 [24] ফর্ম্যাটে লেখার জন্য TensorStore [23] ব্যবহার করেছি। পরীক্ষাগুলি AWS c5.9xlarge মেশিনে করা হয়েছিল। ডিপ লেক অ্যারে ফর্ম্যাটের তুলনায় এবং ওয়েবডেটাসেট [১৯] এবং এফএফসিভি বেটন [৩৯] এর মতো বাইনারি ফর্ম্যাটের তুলনায় উল্লেখযোগ্যভাবে দ্রুত লেখার কার্যক্ষমতা অর্জন করে।

6.2 স্থানীয় ডেটালোডারের তুলনা

যেমন চিত্র 7-এ দেখানো হয়েছে ডিপ লেক একটি মডেল ছাড়া পাইটর্চ প্রশিক্ষণ লুপে দ্রুত ডেটা লোডিং অর্জন করে। পরীক্ষাটি একটি Nvidia V100 GPU সহ AWS P3.2x বৃহৎ উদাহরণে করা হয়েছিল


চিত্র 7: অন্যান্য ডেটালোডারের বিপরীতে চিত্রগুলির পুনরাবৃত্তির গতি (উচ্চতর ভাল)


কার্ড ডেটাসেট এলোমেলোভাবে জেপিইজি ফাইল হিসাবে সংরক্ষিত 50,000 250x250x3 চিত্র তৈরি করেছে। লাইব্রেরিগুলির তালিকা যেখানে বেঞ্চমার্কগুলি করা হয়েছিল তা হল ডিপ লেক, এফএফসিভি [৩৯], কাঠবিড়ালি [৭৫], ওয়েবডেটাসেট [১৯] এবং স্থানীয় পাইটর্চ ডেটালোডার [৫৮]।

6.3 বিভিন্ন অবস্থান থেকে প্রবাহযোগ্য ডেটালোডার

চিত্র 8: বিভিন্ন ডেটা স্টোরেজ অবস্থান থেকে স্ট্রিমিং: স্থানীয় ফাইলসিস্টেম, AWS S3, MinIO (নিম্নতর ভাল)


চিত্র 8-এ দেখানো এই পরীক্ষায়, আমরা বিভাগ 6.2-এর মতো একই ডেটাসেট ব্যবহার করে দূরবর্তী স্ট্রিমিংয়ের জন্য বিভিন্ন স্টোরেজ ব্যাকএন্ড অন্বেষণ করি। MinIO [17] একটি স্থানীয় নেটওয়ার্কে অন্য মেশিনে চলছে। উল্লেখযোগ্যভাবে, ডিপ লেক অনুরূপ পারফরম্যান্স অর্জন করে যেন AWS S3 এর তুলনায় ডেটা মেশিনে স্থানীয়। ওয়েবডেটাসেট এবং ডিপ লেক উভয়ই থেকে ডেটা স্ট্রিম করার সময় উল্লেখযোগ্যভাবে ধীর হয়


চিত্র 9: একটি S3 এ ইমেজনেটের প্রশিক্ষণ: AWS ফাইল মোড S3 থেকে ফাইল দ্বারা ফাইল কপি করে; দ্রুত ফাইল মোড ধীর প্রশিক্ষণ সঙ্গে সঙ্গে শুরু হয়; ডিপ লেক এমনভাবে কাজ করে যেন ডেটা স্থানীয়, যদিও এটি স্ট্রিম করা হয় (নিম্ন ভাল)


MinIO AWS S3 এর তুলনায়। আরও বিশদ ডেটালোডার বেঞ্চমার্কের জন্য, আমরা ওফিডিস এট আল দ্বারা একটি সম্পূর্ণ ডেটালোডার ওভারভিউ অধ্যয়নের সুপারিশ করব। [৫৪]।

6.4 ক্লাউডে ইমেজনেট প্রশিক্ষণ

যেহেতু ডিপ লেক ক্লাউড-প্রথম হওয়ার জন্য তৈরি করা হয়েছিল, এই এবং পরবর্তী বিভাগে আমরা ক্লাউডের প্রশিক্ষণ মডেলগুলির জন্য এটির সুবিধাগুলি প্রদর্শন করি৷ আমরা ImageNet ডেটাসেট নিয়ে থাকি [35] এবং এটিকে AWS S3 [1] তে আসল এবং টেনসর স্টোরেজ ফর্ম্যাট হিসাবে সংরক্ষণ করি। ডেটাসেটে মোট 150GB তে 1.2 মিলিয়ন ছবি এবং লেবেল রয়েছে। ডিপ লেক কার্যত অনুরূপ প্রশিক্ষণ কর্মক্ষমতা অর্জন করে যেন ডেটা মেশিনে স্থানীয় ছিল। এটি 4x পর্যন্ত GPU কম্পিউট করার সময় এবং খরচ সাশ্রয় করে যেমন চিত্র 9 এ দেখানো হয়েছে

6.5 একটি বৃহৎ মাল্টি-মডেল ডেটাসেটের বিতরণ করা প্রশিক্ষণ

দ্বিতীয় পরীক্ষা হিসাবে, আমরা 400M ইমেজ-টেক্সট জোড়া এবং ট্রেন CLIP [60] ধারণকারী LAION ডেটাসেট [67] নিই, 1 বিলিয়ন প্যারামিটার সহ ইমেজ-টেক্সট এমবেডিং মডেল। আসল ডেটাসেট হল প্যারকেট ফাইলগুলির একটি টেবিল যার একটি কলাম ইমেজ URL গুলি রয়েছে৷ উৎস থেকে ডেটাসেট ডাউনলোড করতে 100 ঘণ্টা সময় লেগেছে, যখন টেনসর স্টোরেজ ফরম্যাটে ইনজেশন করতে সময় লেগেছে মাত্র 6 ঘণ্টা, মোট আকার 1.9TB। মার্কিন-মধ্য অঞ্চলে GPU মেশিন প্রশিক্ষণের সময় ডেটাসেটটি মার্কিন-পূর্ব অঞ্চলের AWS-এ সংরক্ষণ করা হয়েছে। চিত্র 10-এ যেমন দেখানো হয়েছে ডিপ লেক একই অঞ্চলে প্রতি মেশিনে 80,000 ইমেজ/সেকেন্ড পর্যন্ত মডেল ছাড়াই 16টি Nvidia A100 GPU-তে 5,100টি ছবি/সেকেন্ড স্ট্রিমিং করে উচ্চ GPU ব্যবহার অর্জন করে।


এই কাগজটি CC 4.0 লাইসেন্সের অধীনে arxiv-এ উপলব্ধ