লেখক:
(1) ইউক্সিন মেং;
(2) ফেং গাও;
(3) এরিক রিগাল;
(4) রান ডং;
(5) জুনু ডং;
(6) Qian Du.
সংখ্যাসূচক মডেল SST এর স্থানিক বন্টন এবং এর বিশ্বব্যাপী টেলিযোগাযোগ একসাথে ভবিষ্যদ্বাণী করতে পারে। এটি SST পূর্বাভাসের জন্য শর্ট-লিডগুলিতে ভাল পারফর্ম করে। তবুও, আমরা যুক্তি দিয়েছি যে পর্যবেক্ষণ করা ডেটা থেকে শারীরিক জ্ঞান স্থানান্তর করা SST পূর্বাভাসের জন্য সংখ্যাসূচক মডেলের কর্মক্ষমতা আরও উন্নত করতে পারে। এই লক্ষ্যে, আমরা পর্যবেক্ষণ করা ডেটাতে শারীরিক জ্ঞান শিখতে GAN গ্রহণ করি।
ঝু এট আল। [৫৩] একটি GAN ইনভার্সন পদ্ধতির প্রস্তাব করেছে যা শুধুমাত্র ইনপুট ডেটাকে বিশ্বস্তভাবে পুনর্গঠন করে না, বরং এটি নিশ্চিত করে যে উল্টানো সুপ্ত কোড শব্দার্থগতভাবে অর্থবহ। তারা দেখিয়েছে যে শুধুমাত্র টার্গেট ইমেজের পিক্সেল মান শেখা অপর্যাপ্ত, এবং শেখা বৈশিষ্ট্যগুলি শব্দার্থিক স্তরে চিত্রটিকে উপস্থাপন করতে অক্ষম। এই কাজের দ্বারা অনুপ্রাণিত হয়ে, আমরা GAN-এ একটি এনকোডার ডিজাইন করি পর্যবেক্ষিত ডেটা থেকে শারীরিক জ্ঞান শেখার জন্য, যাকে পূর্বের নেটওয়ার্ক হিসাবে উল্লেখ করা হয়। এই পূর্ববর্তী নেটওয়ার্ক শুধুমাত্র লক্ষ্য পর্যবেক্ষণ করা ডেটার পিক্সেল মান শেখে না, তবে শারীরিক তথ্যও ক্যাপচার করে। এটি কার্যকরভাবে SST পূর্বাভাস নির্ভুলতা উন্নত করে।
এর পরে, আমরা প্রস্তাবিত পদ্ধতিটি নিম্নরূপ উপস্থাপন করি: 1) পদ্ধতির ওভারভিউ, 2) পূর্বের নেটওয়ার্ক, 3) উন্নত ডেটা সহ SST পূর্বাভাস।
A. পদ্ধতির সংক্ষিপ্ত বিবরণ
এই উপধারায়, আমরা প্রস্তাবিত SST পূর্বাভাস পদ্ধতির সংক্ষিপ্তসার এবং প্রতিটি পর্যায়ের ইনপুট এবং আউটপুট বিশদভাবে বর্ণনা করি। চিত্র 2-এ যেমন দেখানো হয়েছে, প্রস্তাবিত SST ভবিষ্যদ্বাণী পদ্ধতি দুটি পর্যায় নিয়ে গঠিত: পূর্বের নেটওয়ার্ক প্রশিক্ষণ এবং উন্নত ডেটা সহ SST পূর্বাভাস।
1) পূর্বের নেটওয়ার্ক প্রশিক্ষণ। এই পর্যায়টি তিনটি ধাপ নিয়ে গঠিত। প্রথম ধাপে, পর্যবেক্ষণ করা SST (GHRST ডেটা) GAN মডেল প্রশিক্ষণের জন্য ব্যবহার করা হয়। দ্বিতীয় ধাপে, পূর্বপ্রশিক্ষিত জেনারেটর এবং GHRSST ডেটা এনকোডারকে প্রশিক্ষণ দিতে ব্যবহার করা হয়। তৃতীয় ধাপে, পূর্বপ্রশিক্ষিত জেনারেটর এবং এনকোডার পূর্বের নেটওয়ার্কে একত্রিত হয়। পূর্বের নেটওয়ার্কটি পর্যবেক্ষিত ডেটা থেকে সংখ্যাসূচক মডেলে শারীরিক জ্ঞান স্থানান্তর করতে ব্যবহৃত হয়। সংখ্যাসূচক মডেল SST (HYCOM ডেটা) এর বৈশিষ্ট্য উপস্থাপনাগুলিকে উন্নত করার জন্য পূর্ববর্তী নেটওয়ার্কে খাওয়ানো হয়।
2) উন্নত ডেটা সহ SST পূর্বাভাস। পদার্থবিদ্যা-উন্নত ডেটা SST পূর্বাভাসের জন্য ConvLSTM মডেলে দেওয়া হয়। পরের দিন, পরবর্তী 3 দিন এবং পরবর্তী 7 দিনের SST আলাদাভাবে পূর্বাভাস দেওয়া হয়েছে৷
এটি উল্লেখ করা উচিত যে বেশিরভাগ বিদ্যমান কাজগুলি [২৬] [২৭] শুধুমাত্র ConvLSTM প্রশিক্ষণের জন্য পর্যবেক্ষণ করা ডেটা ব্যবহার করে। বিপরীতে, আমাদের পদ্ধতি ConvLSTM প্রশিক্ষণের জন্য পদার্থবিদ্যা-বর্ধিত ডেটার সুবিধা নেয়। এর পরে, আমরা বিশদভাবে উন্নত ডেটা সহ পূর্ববর্তী নেটওয়ার্ক প্রশিক্ষণ এবং SST পূর্বাভাস বর্ণনা করি।
B. পর্যায় 1: পূর্বের নেটওয়ার্ক প্রশিক্ষণ
আমরা পর্যবেক্ষিত ডেটাতে শারীরিক জ্ঞান শেখার জন্য একটি পূর্ববর্তী নেটওয়ার্ক তৈরি করি এবং প্রশিক্ষণের পরে এর শব্দার্থগত/শারীরিক তথ্য স্থির রাখি। চিত্র 2-এ যেমন দেখানো হয়েছে, পূর্ববর্তী নেটওয়ার্ক প্রশিক্ষণ তিনটি ধাপ নিয়ে গঠিত: GAN মডেল প্রশিক্ষণ, এনকোডার প্রশিক্ষণ এবং পদার্থবিদ্যা-উন্নত ডেটা তৈরি। পরবর্তী আমরা প্রতিটি ধাপের বিস্তারিত বিবরণ প্রদান করি।
GAN মডেল প্রশিক্ষণ। GAN মডেলটি পর্যবেক্ষণ করা SST থেকে ডেটা বিতরণ শেখার জন্য ব্যবহৃত হয়। উদ্দেশ্য ফাংশন নিম্নরূপ:
GAN মডেলের প্রশিক্ষণ প্রক্রিয়াটি অ্যালগরিদম 1-এ সংক্ষিপ্ত করা হয়েছে। জেনারেটর G পর্যবেক্ষণ করা SST ডেটা থেকে শারীরিক বৈশিষ্ট্যগুলি ক্যাপচার না করা পর্যন্ত আমরা পর্যবেক্ষিত SST এর উপর মডেলটিকে প্রশিক্ষণ দিই।
যেখানে F(·) VGG নেটওয়ার্কের মাধ্যমে বৈশিষ্ট্য নিষ্কাশনের প্রতিনিধিত্ব করে। ভিজিজি নেটওয়ার্ক হল ভিজ্যুয়াল জিওমেট্রি গ্রুপ [৫৪] দ্বারা প্রস্তাবিত নেটওয়ার্কের জন্য, এবং এটি একটি ধ্রুপদী গভীর কনভোল্যুশনাল নিউরাল নেটওয়ার্ক।
এনকোডার প্রশিক্ষণ অ্যালগরিদম 2-এ বর্ণিত হয়েছে। জেনারেটর G-এর পরামিতিগুলি স্থির করা হয়েছে, যখন এনকোডার E এবং বৈষম্যকারী D-এর পরামিতিগুলি Eq-এর উপর ভিত্তি করে আপডেট করা হয়েছে। 2 এবং Eq. 3, যথাক্রমে।
পর্যায় 1 এর অনুপ্রেরণা হল একটি পূর্ববর্তী নেটওয়ার্ক তৈরি করা যা সংখ্যাসূচক মডেল ডেটাতে ভুল উপাদানগুলিকে সংশোধন করতে পারে। এই লক্ষ্যে, আমরা প্রথমে একটি GAN মডেল তৈরি করি যা পর্যবেক্ষণ করা SST থেকে ডেটা বিতরণ ক্যাপচার করে এবং উচ্চ-মানের SST ডেটা তৈরি করতে পারে। পরবর্তীকালে, এনকোডারকে গ্যারান্টি দেওয়ার জন্য প্রশিক্ষিত করা হয় যে উত্পন্ন সুপ্ত কোডগুলি পর্যবেক্ষণ করা SST-তে শব্দার্থগত/শারীরিক তথ্য সংরক্ষণ করে। আমরা যুক্তি দিই যে প্রতিপক্ষ শিক্ষার মাধ্যমে, পূর্ববর্তী নেটওয়ার্ক (এনকোডার এবং জেনারেটর সমন্বিত) ইনপুট ডেটার ভুল অংশগুলি সংশোধন করতে পারে, যেহেতু পূর্বের নেটওয়ার্কে শারীরিক জ্ঞান এমবেড করা হয়েছে। ফলস্বরূপ, তৃতীয় ধাপে, যখন সংখ্যাসূচক মডেল ডেটা পূর্বের নেটওয়ার্কে দেওয়া হয়, এমবেড করা শারীরিক জ্ঞান সংখ্যাসূচক মডেল ডেটার ভুল উপাদানগুলিকে সংশোধন করতে পারে।
C. পর্যায় 2: উন্নত ডেটা সহ SST পূর্বাভাস
কনভিএলএসটিএম স্থানিক টেম্পোরাল ডেটা ভবিষ্যদ্বাণী করার জন্য একটি কার্যকর হাতিয়ার। এটি একটি পুনরাবৃত্ত নিউরাল নেটওয়ার্ক যা ইনপুট-টু-স্টেট এবং স্টেট-টোস্টেট ট্রানজিশন উভয় ক্ষেত্রেই কনভোলিউশনাল ব্লকগুলিকে অন্তর্ভুক্ত করে। প্রথাগত LSTM স্তরের বিপরীতে, ConvLSTM শুধুমাত্র অনুক্রমিক সম্পর্ক রক্ষা করে না বরং ডেটা থেকে স্থানিক বৈশিষ্ট্যও বের করে। এইভাবে, আমরা শক্তিশালী স্থানিক-অস্থায়ী বৈশিষ্ট্যগুলি ক্যাপচার করতে এটির সুবিধা নিতে পারি। ConvLSTM এর উদ্দেশ্যমূলক ফাংশনটি নিম্নরূপ প্রণয়ন করা হয়েছে:
পদার্থবিদ্যা-বর্ধিত SST ডেটা নিম্নরূপ SST পূর্বাভাসের জন্য ConvLSTM মডেলে দেওয়া হয়:
জেনারেটর দ্বারা প্রাপ্ত ওজনগুলি অ্যালগরিদম 2 এ পুনরায় ব্যবহার করা হয়, যেখানে শুধুমাত্র জেনারেটরের ওজন স্থির করা হয়। প্রবর্তিত এনকোডার এবং বৈষম্যকারী পর্যবেক্ষিত SST এর উপর অন্য প্রশিক্ষণ প্রক্রিয়ার মধ্য দিয়ে যায়। তাদের ওজন Eq এর উপর ভিত্তি করে আপডেট করা হয়। 2 এবং Eq. 3, যথাক্রমে। প্রশিক্ষণের পরে, এনকোডার দ্বারা উত্পন্ন কোড শেখা শারীরিক জ্ঞানকে মূর্ত করবে।
অবশেষে, আমরা উপরোক্ত প্রাক-প্রশিক্ষিত মডেল ব্যবহার করে শারীরিক জ্ঞানের উপর ভিত্তি করে চাঙ্গা তথ্য অর্জন করি। এর ওজন
অ্যালগরিদম 2 থেকে জেনারেটর এবং এনকোডার পুনরায় ব্যবহার করা হয় এবং পদার্থবিদ্যা-শক্তিযুক্ত সংখ্যাসূচক মডেল ডেটা তৈরি করতে সংখ্যাসূচক মডেল SST ব্যবহার করা হয়।
অ্যালগরিদম 3-এ, শারীরিক জ্ঞান-বর্ধিত ডেটা SST পূর্বাভাসের জন্য একটি স্থানিক-অস্থায়ী কনভিএলএসটিএম মডেলকে প্রশিক্ষণের জন্য ব্যবহার করা হয়। এই কাগজে, পরের দিনের SST, পরবর্তী 3 দিন এবং পরবর্তী 7 দিনের আলাদাভাবে পূর্বাভাস দেওয়া হয়েছে। এই অংশের জন্য, আমরা কার্যকরীভাবে চাঙ্গা ডেটা ব্যবহার করার জন্য একটি বিমোচন অধ্যয়ন পরিচালনা করেছি।
এই কাগজটি CC 4.0 লাইসেন্সের অধীনে arxiv-এ উপলব্ধ ।