paint-brush
Uniswap V3 में बुद्धिमान तरलता प्रावधान के लिए एक विस्तृत रूपरेखाद्वारा@idrees535
2,550 रीडिंग
2,550 रीडिंग

Uniswap V3 में बुद्धिमान तरलता प्रावधान के लिए एक विस्तृत रूपरेखा

द्वारा Idrees11m2023/12/21
Read on Terminal Reader

बहुत लंबा; पढ़ने के लिए

Uniswap V3 में बुद्धिमान तरलता प्रावधान के लिए एजेंट-आधारित मॉडलिंग और सुदृढीकरण सीखने का लाभ उठाने वाले एक अभिनव ढांचे के साथ विकेंद्रीकृत वित्त (DeFi) के भविष्य की खोज करें। इस क्रांतिकारी दृष्टिकोण का उद्देश्य तरलता प्रावधान रणनीतियों को अनुकूलित करना, उपयोगिता कार्यों को अधिकतम करना और तरलता प्रदाताओं की लाभप्रदता को बढ़ाना है। ढांचे के तीन प्रमुख घटकों, सुदृढीकरण सीखने वाले एजेंट की बारीकियों और डेफी के लगातार विकसित हो रहे दायरे में तरलता प्रबंधन के परिदृश्य को फिर से आकार देने की क्षमता का पता लगाएं।
featured image - Uniswap V3 में बुद्धिमान तरलता प्रावधान के लिए एक विस्तृत रूपरेखा
Idrees HackerNoon profile picture
0-item


Uniswap V3 में तरलता प्रावधान अधिकतम करने के लिए एक अच्छी तरह से परिभाषित उपयोगिता फ़ंक्शन के साथ एक स्टोकेस्टिक इष्टतम नियंत्रण समस्या प्रस्तुत करता है। यह लेख एजेंट-आधारित मॉडलिंग और सुदृढीकरण सीखने के संयोजन का उपयोग करते हुए, बुद्धिमान तरलता प्रावधान के लिए एक अभिनव रूपरेखा पेश करता है। हमारा ढांचा तरलता प्रावधान रणनीतियों को अनुकूलित करने के लिए एक मजबूत और अनुकूली समाधान प्रदान करता है। Uniswap V3 मॉडल वास्तविक दुनिया की बाज़ार स्थितियों की नकल करता है, जबकि एजेंट-आधारित मॉडल (ABM) Uniswap V3 पूल के साथ एजेंट इंटरैक्शन के अनुकरण के लिए एक वातावरण बनाता है। गहन नियतिवादी नीति ग्रेडिएंट्स (डीडीपीजी) का उपयोग करके प्रशिक्षित सुदृढीकरण शिक्षण एजेंट, डेफी भागीदारी को बढ़ाने में मशीन लर्निंग की क्षमता का प्रदर्शन करते हुए, इष्टतम रणनीतियों को सीखता है। इस दृष्टिकोण का उद्देश्य तरलता प्रदाताओं की लाभप्रदता और सीएफएमएम बाजारों की समझ में सुधार करना है।


सामग्री अवलोकन

  • परिचय
  • बुद्धिमान तरलता प्रावधान ढांचा
  • इंटेलिजेंट लिक्विडिटी प्रोविजनिंग फ्रेमवर्क के घटक
  • एजेंट-आधारित सिम्युलेटर
  • सुदृढीकरण सीखना मॉडल
  • सीमाएँ
  • भविष्य का कार्य
  • निष्कर्ष
  • संसाधन
  • संदर्भ


परिचय

बाजार निर्माण पर मेरे पिछले लेख [बाजार निर्माण यांत्रिकी और रणनीतियाँ] में, हमने पारंपरिक वित्तीय बाजारों में बाजार निर्माण की यांत्रिकी और रणनीतियों का पता लगाया। उन अंतर्दृष्टियों के आधार पर, यह लेख Uniswap V3 के संदर्भ में बुद्धिमान तरलता प्रावधान के लिए एक अभिनव रूपरेखा प्रस्तुत करता है। जैसा कि हमारे पूर्व शोध में बताया गया है, हमारा लक्ष्य विकेंद्रीकृत वित्त ( डीएफआई) में बाजार की गतिशीलता और तरलता प्रबंधन की हमारी समझ का विस्तार करना था, विशेष रूप से इंटेलिजेंट लिक्विडिटी प्रोविजनिंग फ्रेमवर्क के विकास के माध्यम से।


विकेंद्रीकृत वित्त (डीएफआई) में उल्लेखनीय वृद्धि हुई है, जिसने वैश्विक दर्शकों के लिए नवीन वित्तीय उत्पादों और सेवाओं को पेश किया है। इस नवाचार में सबसे आगे Uniswap V3 ने अपनी केंद्रित तरलता सुविधा के साथ तरलता प्रावधान में क्रांति ला दी है। हालाँकि, यह प्रगति तरलता प्रदाताओं के लिए जटिल निर्णय लेने की चुनौतियाँ सामने लाती है। यह आलेख इन चुनौतियों का समाधान करने के लिए डिज़ाइन की गई एक व्यापक रूपरेखा प्रस्तुत करता है, जो तरलता प्रावधान रणनीतियों के अध्ययन और अनुकूलन के लिए एक अनुरूपित वातावरण प्रदान करता है।


हमारे ढांचे में तीन प्रमुख घटक शामिल हैं: Uniswap V3 मॉडल, एक एजेंट-आधारित मॉडल (ABM), और एक सुदृढीकरण शिक्षण एजेंट। Uniswap V3 मॉडल पूल का प्रतिनिधित्व प्रदान करता है, जो टोकन और पूल के साथ तैनाती और इंटरैक्शन को सक्षम बनाता है। एबीएम एजेंट इंटरैक्शन और बाजार की गतिशीलता का अनुकरण करके जटिलता का परिचय देता है, जिससे रणनीति मूल्यांकन के लिए एक समृद्ध वातावरण तैयार होता है। सुदृढीकरण सीखने वाला एजेंट, इस वातावरण के भीतर काम करते हुए, तरलता प्रावधान में इष्टतम प्रदर्शन के लक्ष्य के साथ सीखने और रणनीतियों को अनुकूलित करने के लिए एक गहरी नियतात्मक नीति ढाल दृष्टिकोण अपनाता है।



इस शोध का उद्देश्य Uniswap V3 वातावरण के भीतर तरलता को स्वायत्त रूप से प्रबंधित और अनुकूलित करने के लिए सुदृढीकरण सीखने (RL) का उपयोग करके एक बुद्धिमान तरलता प्रावधान (ILP) तंत्र विकसित करना है। सीएफएमएम बाजार की जटिल गतिशीलता को अनुकूलित करते समय तंत्र अर्जित शुल्क, अस्थायी हानि और तरलता प्रदाताओं की प्राथमिकताओं के आधार पर अन्य मेट्रिक्स पर विचार करते हुए उपयोगिता फ़ंक्शन को अधिकतम करना चाहता है।







इंटेलिजेंट लिक्विडिटी प्रोविजनिंग फ्रेमवर्क

आरएल ढांचे में, तरलता प्रावधान समस्या को मार्कोव निर्णय प्रक्रिया (एमडीपी) के रूप में तैयार किया गया है। एमडीपी में राज्य, कार्य और पुरस्कार शामिल हैं।



  • राज्य: राज्य वर्तमान बाजार स्थितियों का प्रतिनिधित्व करते हैं, जिसमें परिसंपत्ति की कीमतें, व्यापार की मात्रा और अन्य प्रासंगिक चर शामिल हैं।


  • क्रियाएँ: क्रियाएँ तरलता प्रदाता द्वारा लिए गए निर्णयों के अनुरूप होती हैं, जैसे कि तरलता आवंटन को समायोजित करना, पोर्टफोलियो को पुनर्संतुलित करना आदि।


  • पुरस्कार: पुरस्कार तरलता प्रदाता के उद्देश्य कार्य, प्राथमिकताओं और बाधाओं के आधार पर परिणामों की वांछनीयता को मापते हैं। वांछनीय परिणामों (जैसे, उच्च रिटर्न) के लिए पुरस्कार सकारात्मक हो सकते हैं और अवांछनीय परिणामों (जैसे, उच्च जोखिम या कम प्रदर्शन) के लिए नकारात्मक हो सकते हैं।


  • उद्देश्य फ़ंक्शन: उद्देश्य फ़ंक्शन तरलता प्रदाता के वांछित परिणाम का प्रतिनिधित्व करता है, जो रिटर्न को अधिकतम करने, जोखिमों को कम करने या दोनों के बीच एक विशिष्ट व्यापार-बंद प्राप्त करने जैसे कारकों का संयोजन हो सकता है। बाधाओं में तरलता आवंटन, पूंजी उपयोग, जोखिम सहनशीलता स्तर, या तरलता प्रदाता द्वारा परिभाषित अन्य प्रतिबंध शामिल हो सकते हैं।


आरएल प्रशिक्षण एक पुनरावृत्तीय प्रक्रिया है जहां एजेंट फीडबैक के आधार पर अपनी नीति को लगातार अद्यतन करता है। एजेंट अपने अनुभवों से सीखता है और समय के साथ अपने निर्णय लेने को परिष्कृत करता है, धीरे-धीरे अधिक इष्टतम तरलता प्रावधान रणनीतियों में परिवर्तित होता है।


एक बार जब आरएल एजेंट को प्रशिक्षित किया जाता है, तो तरलता प्रदाता के उद्देश्य कार्य और बाधाओं के खिलाफ इसके प्रदर्शन का आकलन करने के लिए ऐतिहासिक डेटा या सिम्युलेटेड वातावरण का उपयोग करके इसका परीक्षण और मूल्यांकन किया जा सकता है। एजेंट के प्रदर्शन को रिटर्न, जोखिम उपाय या अन्य प्रासंगिक प्रदर्शन संकेतक जैसे मैट्रिक्स का उपयोग करके मापा जा सकता है।


आरएल एल्गोरिथ्म को लागू करके, तरलता प्रावधान तंत्र बदलती बाजार स्थितियों को सीख और अनुकूलित कर सकता है, इष्टतम तरलता प्रावधान रणनीतियों की पहचान कर सकता है, और तरलता प्रदाता द्वारा निर्दिष्ट बाधाओं और प्राथमिकताओं को संतुलित कर सकता है। आरएल तंत्र को ऐसे समाधान खोजने में सक्षम बनाता है जो स्वायत्त और गतिशील रूप से विभिन्न ट्रेड-ऑफ और बाधाओं पर विचार करते हुए तरलता प्रदाता के उद्देश्य कार्य को अधिकतम करता है।



इंटेलिजेंट लिक्विडिटी प्रोविजनिंग फ्रेमवर्क के घटक

ढांचे में तीन प्रमुख घटक शामिल हैं:

फ़्रेमवर्क घटक




UniswapV3 मॉडल

पायथन में कार्यान्वित Uniswap V3 मॉडल Uniswap V3 प्रोटोकॉल का एक विस्तृत और कार्यात्मक सिमुलेशन प्रदान करता है, इसकी सूक्ष्म यांत्रिकी को कैप्चर करता है और उपयोगकर्ताओं को प्रोटोकॉल के साथ बातचीत करने के लिए एक व्यापक टूलसेट प्रदान करता है। UniswapV3_Model वर्ग टोकन और पूल की तैनाती को संभालता है, पूल को आरंभ करता है, और पूल क्रियाओं और पूल स्थिति पुनर्प्राप्ति के लिए एक इंटरफ़ेस प्रदान करता है।


अवलोकन

Uniswap मॉडल, Uniswap V3 के मुख्य तंत्र को समाहित करते हुए, इंटेलिजेंट लिक्विडिटी प्रोविजनिंग फ्रेमवर्क की नींव के रूप में कार्य करता है। यह यथार्थवादी और इंटरैक्टिव सिमुलेशन बनाने के लिए, ब्राउनी का उपयोग करके स्थानीय गनाचे वातावरण में तैनात Uniswap के V3-Core से संकलित स्मार्ट अनुबंधों का लाभ उठाता है।


अनुबंध संकलन और तैनाती

Uniswap V3 स्मार्ट अनुबंधों को संकलित और तैनात करने के लिए यह ढांचा स्मार्ट अनुबंधों के लिए पायथन-आधारित विकास और परीक्षण ढांचे ब्राउनी के साथ एकीकृत होता है। फिर इन अनुबंधों को स्थानीय गनाचे वातावरण में तैनात किया जाता है, जो परीक्षण और विकास के लिए एक सैंडबॉक्स प्रदान करता है। यह सेटअप सुनिश्चित करता है कि उपयोगकर्ता वास्तविक संपत्ति या नेटवर्क लेनदेन की आवश्यकता के बिना यूनिस्वैप वातावरण के साथ बातचीत कर सकते हैं, जिससे एक सुरक्षित और नियंत्रित प्रयोग स्थान को बढ़ावा मिलता है।



एजेंट-आधारित सिम्युलेटर

टोकनस्पाइस एजेंट-आधारित सिम्युलेटर का उपयोग Uniswap V3 वातावरण को अनुकरण करने के लिए किया जाता है, एजेंट नीतियों को Uniswap बाजार सहभागियों की गतिशीलता को शामिल करने के लिए परिभाषित किया जाता है। गतिशील Uniswap वातावरण का अनुकरण करने के लिए विभिन्न प्रकार के एजेंटों का उपयोग किया जाता है

परिचय

टोकनस्पाइस एजेंट-आधारित मॉडल (एबीएम) यूनिस्वैप V3 पारिस्थितिकी तंत्र के भीतर व्यक्तिगत एजेंटों के कार्यों और इंटरैक्शन का अनुकरण करता है। विभिन्न प्रतिभागियों के जटिल व्यवहारों को मॉडलिंग करके, एबीएम Uniswap V3 गतिशील वातावरण का एक व्यापक इंटरफ़ेस प्रदान करता है, जो तरलता प्रावधान रणनीतियों के विश्लेषण और अनुकूलन को सक्षम करता है।


एजेंट के प्रकार और व्यवहार

एबीएम में विभिन्न एजेंट प्रकार शामिल हैं, जिनमें से प्रत्येक Uniswap V3 पारिस्थितिकी तंत्र के भीतर एक विशिष्ट भूमिका का प्रतिनिधित्व करता है। दो मुख्य एजेंट तरलता प्रदाता एजेंट और स्वैपर एजेंट हैं, जो क्रमशः तरलता प्रदान करने और टोकन स्वैप करने के लिए यूनिस्वैप पूल के साथ बातचीत करते हैं। इन एजेंटों का व्यवहार agents_policies.py फ़ाइल में परिभाषित नीतियों द्वारा निर्धारित होता है, यह सुनिश्चित करते हुए कि उनके कार्य वास्तविक दुनिया की रणनीतियों और बाजार स्थितियों के साथ संरेखित हैं।


  • तरलता प्रदाता एजेंट: यह एजेंट यूनिस्वैप पूल से तरलता जोड़ता और हटाता है। यह नीतियों के एक समूह का पालन करता है जो बाजार की वर्तमान स्थिति और एजेंट की प्राथमिकताओं के आधार पर अपने कार्यों को निर्देशित करता है।


  • स्वैपर एजेंट: स्वैपर एजेंट मूल्य विसंगतियों और मध्यस्थता के अवसरों का लाभ उठाते हुए, यूनिस्वैप पूल के भीतर टोकन स्वैप करता है। इसका व्यवहार उन नीतियों द्वारा निर्देशित होता है जो लेनदेन शुल्क और फिसलन पर विचार करते हुए ट्रेडों की संभावित लाभप्रदता का आकलन करती हैं।


सिमुलेशन कॉन्फ़िगरेशन और निष्पादन

netlist.py फ़ाइल ABM के केंद्र में है, यह कॉन्फ़िगर करती है कि एजेंट एक-दूसरे के साथ और Uniswap पूल के साथ कैसे इंटरैक्ट करते हैं। यह एजेंटों, नीतियों और सिमुलेशन वातावरण के बीच संबंधों को परिभाषित करता है।


SimEngine.py , SimStateBase.py , और SimStrategyBase.py मॉड्यूल सिमुलेशन चलाने के लिए मूलभूत तत्व प्रदान करते हैं। SimEngine सिमुलेशन को व्यवस्थित करता है, समय के प्रवाह को प्रबंधित करता है और एजेंट कार्यों के निष्पादन को प्रबंधित करता है। SimStateBase एजेंट होल्डिंग्स, पूल स्थिति और अन्य प्रासंगिक चर पर डेटा संग्रहीत करते हुए, सिमुलेशन की वर्तमान स्थिति को बनाए रखता है। SimStrategyBase व्यापक रणनीतियों को परिभाषित करता है जो पूरे सिमुलेशन में एजेंट के व्यवहार को निर्देशित करता है।


सुदृढीकरण सीखना मॉडल

परिचय

रीइन्फोर्समेंट लर्निंग (आरएल) एजेंट इंटेलिजेंट लिक्विडिटी प्रोविजनिंग फ्रेमवर्क का एक महत्वपूर्ण घटक है, जिसे एजेंट-आधारित मॉडल Uniswap मॉडल के माध्यम से Uniswap V3 पारिस्थितिकी तंत्र के साथ बातचीत करने के लिए डिज़ाइन किया गया है। यह अनुभाग आरएल एजेंट, उसके वातावरण और प्रशिक्षण के लिए उपयोग किए जाने वाले डीडीपीजी (डीप डिटरमिनिस्टिक पॉलिसी ग्रेडिएंट) एल्गोरिदम पर प्रकाश डालता है।


आरएल एजेंट पर्यावरण

आरएल एजेंट एक कस्टम वातावरण, DiscreteSimpleEnv में काम करता है, जो डेफी बाजार का अनुकरण करने के लिए यूनिस्वैप मॉडल और एजेंट-आधारित मॉडल के साथ इंटरफेस करता है। यह वातावरण यूनिस्वैप पूल के साथ एजेंट की बातचीत को सुविधाजनक बनाता है, जिससे उसे तरलता जोड़ने और हटाने की अनुमति मिलती है, और उसके कार्यों के परिणामों का निरीक्षण होता है। आरएल एजेंट Uniswap V3 में वास्तविक दुनिया की तरलता प्रावधान का अनुकरण करने के लिए Uniswap मॉडल और ABM के साथ इंटरैक्ट करता है। यह एबीएम में परिभाषित नीतियों और सिमुलेशन कॉन्फ़िगरेशन के साथ, यथार्थवादी इंटरैक्शन सुनिश्चित करते हुए, तरलता जोड़ने या हटाने वाली कार्रवाइयों को चुनता है।


  • राज्य स्थान: पर्यावरण के राज्य स्थान में वर्तमान मूल्य, तरलता और शुल्क वृद्धि जैसे विभिन्न बाजार संकेतक शामिल हैं। इन मापदंडों को सामान्यीकृत किया जाता है और प्रत्येक समय-चरण पर एजेंट को प्रदान किया जाता है।


  • एक्शन स्पेस: एजेंट के एक्शन स्पेस में यूनिस्वैप पूल में तरलता जोड़ने के लिए मूल्य सीमा का प्रतिनिधित्व करने वाले निरंतर मूल्य शामिल होते हैं। इन क्रियाओं को Uniswap पूल के साथ बातचीत में परिवर्तित किया जाता है, जिससे पर्यावरण की स्थिति प्रभावित होती है।


  • रिवॉर्ड फ़ंक्शन: आरएल एजेंट को प्रशिक्षित करने के लिए रिवॉर्ड फ़ंक्शन महत्वपूर्ण है। यह शुल्क आय, अस्थायी हानि, पोर्टफोलियो मूल्य और संभावित दंड को ध्यान में रखता है, एजेंट की सीखने की प्रक्रिया को निर्देशित करने के लिए एक स्केलर इनाम संकेत प्रदान करता है।


डीडीपीजी एजेंट

डीडीपीजी एजेंट एक मॉडल-मुक्त, ऑफ-पॉलिसी अभिनेता-आलोचक एल्गोरिदम है जो गहरे फ़ंक्शन सन्निकटन का उपयोग करता है। यह उच्च-आयामी स्थिति वाले स्थानों और निरंतर क्रिया वाले स्थानों को संभाल सकता है, जो इसे हमारे Uniswap V3 वातावरण के लिए उपयुक्त बनाता है।


  • अभिनेता नेटवर्क: यह नेटवर्क किसी राज्य में सर्वोत्तम-विश्वसनीय कार्रवाई प्रदान करने के लिए ज़िम्मेदार है। इसमें एक सिग्मॉइड आउटपुट परत है, जो प्राइस_लोअर और प्राइस_अपर के लिए सापेक्ष मानों को आउटपुट करती है, जिन्हें फिर एजेंट एनवी में वांछित सीमा तक बढ़ाया जाता है, जो तरलता जोड़ने के लिए मूल्य सीमा का प्रतिनिधित्व करता है।
  • क्रिटिक नेटवर्क: यह नेटवर्क एक्शन वैल्यू फ़ंक्शन का मूल्यांकन करता है, किसी दिए गए राज्य में एक्शन लेने के अपेक्षित रिटर्न का अनुमान लगाता है।
  • लक्ष्य नेटवर्क: डीडीपीजी अभिनेता और आलोचक दोनों के लिए लक्ष्य नेटवर्क नियोजित करता है, जिन्हें प्रशिक्षण को स्थिर करने के लिए धीरे-धीरे अद्यतन किया जाता है।
  • अनुभव रीप्ले: इस तकनीक का उपयोग पिछले अनुभवों के रीप्ले बफर को संग्रहीत करने के लिए किया जाता है, जिससे एजेंट को नमूनों के विविध सेट से सीखने, अवलोकनों में सहसंबंध तोड़ने और सीखने को सुचारू बनाने की अनुमति मिलती है।


Uniswap मॉडल और ABM के साथ इंटरेक्शन

आरएल एजेंट Uniswap V3 में वास्तविक दुनिया की तरलता प्रावधान का अनुकरण करने के लिए Uniswap मॉडल और एजेंट-आधारित मॉडल का लाभ उठाता है। यह DiscreteSimpleEnv के माध्यम से Uniswap पूल के साथ इंटरैक्ट करता है, ऐसी क्रियाएं करता है जिसके परिणामस्वरूप तरलता जुड़ती या हटती है। एजेंट की नीतियों और सिमुलेशन कॉन्फ़िगरेशन को एबीएम घटक में परिभाषित किया गया है, जो एक यथार्थवादी और सुसंगत गतिशील वातावरण सुनिश्चित करता है।


  • एजेंट को प्रशिक्षित करें और उसका मूल्यांकन करें: एजेंट को एपिसोड की एक श्रृंखला में प्रशिक्षित किया जाता है, प्रत्येक एपिसोड एक अलग बाजार परिदृश्य (अलग पूल) का प्रतिनिधित्व करता है। तरलता प्रावधान से जुड़े जोखिमों को कम करते हुए रिटर्न को अधिकतम करने की क्षमता के आधार पर एजेंट के प्रदर्शन का मूल्यांकन किया जाता है। इंटेलिजेंट लिक्विडिटी प्रोविजनिंग फ्रेमवर्क की प्रभावशीलता का आकलन सुदृढीकरण शिक्षण (आरएल) एजेंट के प्रदर्शन के मूल्यांकन के माध्यम से किया जाता है।


  • पर्यावरण सेटअप: आरएल एजेंट का मूल्यांकन करने के लिए, हमने एक विशेष मूल्यांकन वातावरण, DiscreteSimpleEnvEval स्थापित किया है, जो आधार वातावरण, DiscreteSimpleEnv का विस्तार करता है। यह वातावरण एजेंट नीतियों के मूल्यांकन के लिए तैयार किया गया है।


  • बेसलाइन एजेंट: हमारे मूल्यांकन सेटअप में, हम आरएल एजेंट के प्रदर्शन की तुलना बेसलाइन एजेंट के प्रदर्शन से करते हैं। बेसलाइन एजेंट की कार्रवाइयां एक बेसलाइन नीति द्वारा निर्धारित की जाती हैं जो तरलता पूल की वर्तमान स्थिति पर निर्भर करती है। इस एजेंट का लक्ष्य आरएल एजेंट के प्रदर्शन के मूल्यांकन के लिए एक संदर्भ बिंदु प्रदान करना है।


परिणाम

प्रशिक्षण






मूल्यांकन



सीमाएँ

  • पूल सिंक्रोनाइज़ेशन: वर्तमान में, फ्रेमवर्क पूल के वास्तविक समय सिंक्रोनाइज़ेशन को पूरी तरह से कैप्चर नहीं करता है, जिससे वास्तविक Uniswap V3 डायनेमिक्स के मॉडलिंग में विसंगतियाँ हो सकती हैं। भविष्य के काम में बेहतर पूल सिंक्रनाइज़ेशन के लिए तंत्र को शामिल करने, यथार्थवाद को बढ़ाने के लिए संभावित रूप से टिक/पोजीशन डेटा या घटनाओं का उपयोग करने पर ध्यान केंद्रित करना चाहिए।


  • अनुभवहीन एजेंट नीतियां: वर्तमान ढांचे में नियोजित एजेंट नीतियां अपेक्षाकृत सरल और अनुभवहीन हैं। अधिक सटीक सिमुलेशन प्राप्त करने के लिए, भविष्य के पुनरावृत्तियों का लक्ष्य अधिक व्यापक एजेंट नीतियों को परिभाषित करना होना चाहिए। ये नीतियां विभिन्न प्रकार के यूनिस्वैप एजेंटों को मॉडल कर सकती हैं, जैसे शोर व्यापारी, सूचित व्यापारी, खुदरा तरलता प्रदाता और संस्थागत तरलता प्रदाता। वैकल्पिक रूप से, ऐतिहासिक पूल डेटा पर प्रशिक्षित सांख्यिकीय मॉडल अधिक यथार्थवादी व्यवहार के लिए एजेंट नीतियों को सूचित कर सकते हैं।


  • विरल अवलोकन स्थान: एजेंटों को प्रदान किए गए अवलोकन स्थान में पूल की स्थिति के बारे में व्यापक जानकारी का अभाव है। निर्णय लेने की क्षमताओं में सुधार करने के लिए, भविष्य के संवर्द्धन में टिक और स्थिति डेटा के साथ-साथ इंजीनियर विशेषताएं शामिल होनी चाहिए जो एजेंटों को पूल की स्थिति की अधिक व्यापक समझ प्रदान करती हैं।


  • सीमित कार्य स्थान: निश्चित तरलता मात्रा और प्रतिबंधित मूल्य सीमा सीमाओं के साथ, एजेंटों के लिए कार्य स्थान वर्तमान में सीमित है। तरलता प्रावधान में अधिक लचीलेपन की अनुमति देने के लिए एक्शन स्पेस का विस्तार करना, साथ ही प्रति चरण कई स्थितियों पर विचार करना, सिमुलेशन की निष्ठा को बढ़ा सकता है।



भविष्य का कार्य

एजेंट पर्यावरण:

  1. सिंक किए गए पूल: Uniswap V3 वातावरण में अधिक यथार्थवादी गतिशीलता बनाने के लिए, संभवतः टिक/स्थिति डेटा या घटनाओं का उपयोग करके, पूल को सिंक्रनाइज़ करने के लिए तंत्र लागू करें।


  2. हाइपरपैरामीटर ट्यूनिंग: अभिनेता/आलोचक नेटवर्क आर्किटेक्चर, अल्फा, बीटा, ताऊ, बैच आकार, चरण, एपिसोड, स्केलिंग पैरामीटर (पुरस्कार, क्रियाएं, अवलोकन स्थान)


  3. व्यापक एजेंट नीतियां: अधिक परिष्कृत विश्लेषणात्मक नीतियों को परिभाषित करें जो विभिन्न यूनिस्वैप एजेंटों को सटीक रूप से मॉडल करती हैं या एजेंट व्यवहार को सूचित करने के लिए ऐतिहासिक पूल डेटा पर प्रशिक्षित सांख्यिकीय मॉडल का उपयोग करती हैं।


  4. जानकारीपूर्ण अवलोकन स्थान: टिक और स्थिति डेटा और इंजीनियर सुविधाओं को शामिल करके अवलोकन स्थान को बढ़ाएं जो एजेंटों को पूल की स्थिति का व्यापक दृश्य प्रदान करते हैं।


  5. बेहतर इनाम फ़ंक्शन: एक बेहतर इनाम फ़ंक्शन विकसित करें जो कारकों की एक विस्तृत श्रृंखला को ध्यान में रखता है, जिससे अधिक प्रभावी एजेंट प्रशिक्षण प्राप्त होता है।


  6. एकाधिक पद: प्रत्येक समय-चरण पर एक निश्चित बजट के साथ एक पद के बजाय, एक अधिक व्यापक तंत्र लागू करें जिसमें एजेंट को सिमुलेशन की शुरुआत में एक बार बजट आवंटित किया जाता है और फिर बाद के चरणों में इस बजट का इष्टतम उपयोग करना सीखता है।


  7. बेसलाइन नीतियां: आरएल एजेंट के प्रदर्शन का मूल्यांकन करने के लिए अधिक व्यापक बेसलाइन नीतियां परिभाषित करें


एजेंट एल्गोरिथम

  • हाइपरपैरामीटर ट्यूनिंग: बेहतर प्रशिक्षण प्रदर्शन के लिए सुदृढीकरण शिक्षण एजेंट के हाइपरपैरामीटर को और अधिक परिष्कृत और अनुकूलित करें।


  • अन्य आरएल एजेंटों के साथ प्रयोग: यह निर्धारित करने के लिए कि क्या वे विशिष्ट परिदृश्यों में लाभ प्रदान करते हैं, वैकल्पिक आरएल एजेंट मॉडल, जैसे प्रॉक्सिमल पॉलिसी ऑप्टिमाइज़ेशन (पीपीओ) या सॉफ्ट एक्टर-क्रिटिक (एसएसी) का पता लगाएं।


  • मल्टी-एजेंट आरएल (एमएआरएल): मल्टी-एजेंट सुदृढीकरण सीखने की तकनीकों के अनुप्रयोग की जांच करें, जो कई तरलता प्रदाताओं और स्वैपर्स के बीच मॉडलिंग इंटरैक्शन के लिए फायदेमंद हो सकता है।


  • ऑनलाइन शिक्षण: ऑनलाइन शिक्षण रणनीतियों को लागू करें जो एजेंटों को वास्तविक समय में बदलती बाजार स्थितियों के अनुकूल होने की अनुमति देती हैं, और अधिक गतिशील और अनुकूली तरलता प्रावधान समाधान प्रदान करती हैं।


निष्कर्ष

विकेंद्रीकृत वित्त (डीएफआई) के तेजी से विकसित हो रहे परिदृश्य में, तरलता प्रावधान कुशल और सुरक्षित व्यापार को सक्षम करने में महत्वपूर्ण भूमिका निभाता है। Uniswap V3 ने अपनी नवोन्मेषी केंद्रित तरलता सुविधा के साथ, DeFi तरलता प्रबंधन में जो संभव है उसकी सीमाओं को आगे बढ़ाया है। हालाँकि, इस गतिशील पारिस्थितिकी तंत्र के भीतर तरलता प्रावधान रणनीतियों को अनुकूलित करने की जटिलताओं के लिए नवीन समाधानों की आवश्यकता है।


हमारा इंटेलिजेंट लिक्विडिटी प्रोविजनिंग फ्रेमवर्क इन चुनौतियों से निपटने की दिशा में एक महत्वपूर्ण कदम का प्रतिनिधित्व करता है। एजेंट-आधारित मॉडलिंग और सुदृढीकरण सीखने के संयोजन से, हमने तरलता प्रदाताओं और बाजार सहभागियों के लिए एक शक्तिशाली टूलकिट बनाया है। यह ढांचा तरलता प्रावधान रणनीतियों को अनुकूलित करने के लिए एक मजबूत और अनुकूली समाधान प्रदान करता है, जिसमें उपयोगिता कार्यों को अधिकतम करने पर ध्यान केंद्रित किया जाता है जिसमें अर्जित शुल्क, अस्थायी हानि शमन और व्यक्तिगत प्राथमिकताओं के अनुरूप अन्य मेट्रिक्स शामिल होते हैं।



संसाधन


संदर्भ

  1. https://kth.diva-portal.org/smash/get/diva2:1695877/FULLTEXT01.pdf
  2. https://arxiv.org/pdf/2305.15821.pdf
  3. https://github.com/KodAgge/Reinforcement-Learning-for-Market-Making/tree/main
  4. https://arxiv.org/ftp/arxiv/papers/2211/2211.01346.pdf
  5. https://arxiv.org/pdf/2004.06985.pdf
  6. https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=9682687
  7. https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0277042
  8. https://deliverypdf.ssrn.com/delivery.php?ID=1041190981020260141200720840141070070420680690030490201260880250871211151030070840280420130550350090000 54122074096068089064070102052026003014069082076098016080066026088066039027093020006122067093104092065070020126069068106118079 127088008098077106031120&EXT=pdf&INDEX=TRUE
  9. https://medium.com/blockapex/market-making-mechanics-and-strategies-4daf2122121c
  10. https://www.gauntlet.xyz/resources/uniswap-user-cohort-analyse
  11. https://gov.uniswap.org/t/uniswap-incentive-design-analyse/21662
  12. https://arxiv.org/pdf/2108.07806.pdf
  13. https://www.researchgate.net/publication/341848292_Market_makers_activity_behavioural_and_agent_आधारित_approach
  14. https://fruct.org/publications/volume-29/fruct29/files/Struc.pdf
  15. https://www.arxiv-vanity.com/papers/1911.03380/
  16. https://insights.glassnode.com/the-week-onchan-week-31-2023/


यहाँ भी प्रकाशित किया गया है.