paint-brush
Ein detailliertes Framework für die intelligente Liquiditätsbereitstellung in Uniswap V3von@idrees535
2,417 Lesungen
2,417 Lesungen

Ein detailliertes Framework für die intelligente Liquiditätsbereitstellung in Uniswap V3

von Idrees11m2023/12/21
Read on Terminal Reader

Zu lang; Lesen

Entdecken Sie die Zukunft des dezentralen Finanzwesens (DeFi) mit einem innovativen Framework, das agentenbasierte Modellierung und verstärkendes Lernen für eine intelligente Liquiditätsbereitstellung in Uniswap V3 nutzt. Dieser revolutionäre Ansatz zielt darauf ab, Liquiditätsbereitstellungsstrategien zu optimieren, Versorgungsfunktionen zu maximieren und die Rentabilität von Liquiditätsanbietern zu steigern. Entdecken Sie die drei Schlüsselkomponenten des Frameworks, die Nuancen des Reinforcement-Learning-Agents und das Potenzial, das er für die Neugestaltung der Liquiditätsmanagementlandschaft im sich ständig weiterentwickelnden Bereich DeFi bietet.
featured image - Ein detailliertes Framework für die intelligente Liquiditätsbereitstellung in Uniswap V3
Idrees HackerNoon profile picture
0-item


Die Liquiditätsbereitstellung in Uniswap V3 stellt ein stochastisches optimales Kontrollproblem mit einer genau definierten Nutzenfunktion zur Maximierung dar. In diesem Artikel wird ein innovatives Framework für die intelligente Liquiditätsbereitstellung vorgestellt, das eine Kombination aus agentenbasierter Modellierung und verstärkendem Lernen nutzt. Unser Framework bietet eine robuste und anpassungsfähige Lösung zur Optimierung von Liquiditätsbereitstellungsstrategien. Das Uniswap V3-Modell ahmt reale Marktbedingungen nach, während das agentenbasierte Modell (ABM) eine Umgebung für die Simulation von Agenteninteraktionen mit Uniswap V3-Pools schafft. Der Reinforcement-Learning-Agent, der mithilfe von Deep Deterministic Policy Gradients (DDPG) trainiert wird, lernt optimale Strategien und zeigt das Potenzial des maschinellen Lernens bei der Verbesserung der DeFi-Teilnahme. Dieser Ansatz zielt darauf ab, die Rentabilität und das Verständnis der Liquiditätsanbieter für CFMM-Märkte zu verbessern.


Inhaltsübersicht

  • Einführung
  • Intelligentes Rahmenwerk zur Liquiditätsbereitstellung
  • Komponenten des Intelligent Liquidity Provisioning Framework
  • Agentenbasierter Simulator
  • Reinforcement-Learning-Modell
  • Einschränkungen
  • Zukünftige Arbeit
  • Abschluss
  • Ressourcen
  • Verweise


Einführung

In meinem vorherigen Artikel über Market Making [Mechaniken und Strategien des Market Makings] haben wir die Mechanismen und Strategien des Market Makings auf traditionellen Finanzmärkten untersucht. Aufbauend auf diesen Erkenntnissen stellt dieser Artikel ein innovatives Framework für die intelligente Liquiditätsbereitstellung im Kontext von Uniswap V3 vor. Wie in unserer früheren Forschung erwähnt, bestand unser Ziel darin, unser Verständnis der Marktdynamik und des Liquiditätsmanagements im dezentralen Finanzwesen ( DeFi) zu erweitern, insbesondere durch die Entwicklung des Intelligent Liquidity Provisioning Framework.


Decentralized Finance (DeFi) hat ein bemerkenswertes Wachstum erlebt und innovative Finanzprodukte und -dienstleistungen eingeführt, die einem globalen Publikum zugänglich sind. Uniswap V3 steht an der Spitze dieser Innovation und hat mit seiner konzentrierten Liquiditätsfunktion die Liquiditätsbereitstellung revolutioniert. Dieser Fortschritt bringt jedoch komplexe Entscheidungsherausforderungen für Liquiditätsanbieter mit sich. In diesem Artikel wird ein umfassender Rahmen vorgestellt, der diese Herausforderungen bewältigen soll und eine simulierte Umgebung für die Untersuchung und Optimierung von Liquiditätsbereitstellungsstrategien bietet.


Unser Framework besteht aus drei Schlüsselkomponenten: dem Uniswap V3-Modell, einem agentenbasierten Modell (ABM) und einem Reinforcement-Learning-Agenten. Das Uniswap V3-Modell stellt eine Darstellung des Pools bereit und ermöglicht die Bereitstellung und Interaktion mit Token und Pools. Das ABM führt Komplexität ein, indem es Agenteninteraktionen und Marktdynamik simuliert und so eine reichhaltige Umgebung für die Strategiebewertung schafft. Der Reinforcement-Learning-Agent, der in dieser Umgebung arbeitet, verfolgt einen tief deterministischen Policy-Gradienten-Ansatz, um Strategien zu erlernen und anzupassen, mit dem Ziel einer optimalen Leistung bei der Liquiditätsbereitstellung.



Diese Forschung zielt darauf ab, einen intelligenten Mechanismus zur Liquiditätsbereitstellung (ILP) zu entwickeln, der Reinforcement Learning (RL) nutzt, um die Liquidität innerhalb der Uniswap V3-Umgebung autonom zu verwalten und zu optimieren. Der Mechanismus zielt darauf ab, die Nutzenfunktion zu maximieren, indem er verdiente Gebühren, vorübergehende Verluste und andere Kennzahlen auf der Grundlage der Präferenzen der Liquiditätsanbieter berücksichtigt und sich gleichzeitig an die komplexe Dynamik des CFMM-Marktes anpasst.







Intelligentes Liquiditätsbereitstellungs-Framework

Im RL-Rahmen wird das Problem der Liquiditätsbereitstellung als Markov-Entscheidungsprozess (MDP) formuliert. Das MDP besteht aus Zuständen, Aktionen und Belohnungen.



  • Staaten: Staaten repräsentieren die aktuellen Marktbedingungen, einschließlich Vermögenspreisen, Handelsvolumina und anderen relevanten Variablen.


  • Aktionen: Aktionen entsprechen den Entscheidungen des Liquiditätsanbieters, wie z. B. Anpassung der Liquiditätszuteilung, Neuausrichtung von Portfolios usw.


  • Belohnungen: Belohnungen quantifizieren die Wünschbarkeit der Ergebnisse auf der Grundlage der Zielfunktion, Präferenzen und Einschränkungen des Liquiditätsanbieters. Die Belohnungen können positiv für wünschenswerte Ergebnisse (z. B. hohe Renditen) und negativ für unerwünschte Ergebnisse (z. B. hohes Risiko oder schlechte Leistung) sein.


  • Zielfunktion: Die Zielfunktion stellt das gewünschte Ergebnis des Liquiditätsanbieters dar, das eine Kombination von Faktoren wie Renditemaximierung, Risikominimierung oder das Erreichen eines bestimmten Kompromisses zwischen beiden sein kann. Zu den Einschränkungen können Beschränkungen der Liquiditätszuteilung, der Kapitalverwendung, der Risikotoleranzniveaus oder andere vom Liquiditätsanbieter festgelegte Beschränkungen gehören.


RL-Training ist ein iterativer Prozess, bei dem der Agent seine Richtlinien basierend auf Feedback kontinuierlich aktualisiert. Der Agent lernt aus seinen Erfahrungen und verfeinert seine Entscheidungsfindung im Laufe der Zeit, wobei er sich schrittweise an optimalere Liquiditätsbereitstellungsstrategien annähert.


Sobald der RL-Agent geschult wurde, kann er anhand historischer Daten oder simulierter Umgebungen getestet und bewertet werden, um seine Leistung anhand der objektiven Funktion und Einschränkungen des Liquiditätsanbieters zu bewerten. Die Leistung des Agenten kann anhand von Kennzahlen wie Renditen, Risikomaßen oder anderen relevanten Leistungsindikatoren gemessen werden.


Durch die Anwendung des RL-Algorithmus kann der Liquiditätsbereitstellungsmechanismus lernen und sich an veränderte Marktbedingungen anpassen, optimale Liquiditätsbereitstellungsstrategien identifizieren und vom Liquiditätsanbieter festgelegte Einschränkungen und Präferenzen ausgleichen. RL ermöglicht es dem Mechanismus, Lösungen zu finden, die die Zielfunktion des Liquiditätsanbieters maximieren und dabei verschiedene Kompromisse und Einschränkungen autonom und dynamisch berücksichtigen.



Komponenten des Intelligent Liquidity Provisioning Framework

Das Framework besteht aus drei Hauptkomponenten:

Framework-Komponenten




UniswapV3-Modell

Das in Python implementierte Uniswap V3-Modell bietet eine detaillierte und funktionale Simulation des Uniswap V3-Protokolls, erfasst seine nuancierten Mechanismen und stellt Benutzern ein umfassendes Toolset für die Interaktion mit dem Protokoll zur Verfügung. Die UniswapV3_Model-Klasse übernimmt die Bereitstellung von Token und Pools, initialisiert Pools und stellt eine Schnittstelle für Poolaktionen und den Poolstatusabruf bereit.


Überblick

Das Uniswap-Modell dient als Grundlage des Intelligent Liquidity Provisioning Framework und kapselt die Kernmechanismen von Uniswap V3. Es nutzt kompilierte Smart Contracts aus dem V3-Core von Uniswap, die mithilfe von Brownie in einer lokalen Ganache-Umgebung bereitgestellt werden, um eine realistische und interaktive Simulation zu erstellen.


Vertragserstellung und -bereitstellung

Das Framework lässt sich in Brownie integrieren, ein Python-basiertes Entwicklungs- und Testframework für Smart Contracts, um die Uniswap V3 Smart Contracts zu kompilieren und bereitzustellen. Diese Verträge werden dann in einer lokalen Ganache-Umgebung bereitgestellt und stellen eine Sandbox für Tests und Entwicklung bereit. Dieser Aufbau stellt sicher, dass Benutzer mit der Uniswap-Umgebung interagieren können, ohne dass reale Vermögenswerte oder Netzwerktransaktionen erforderlich sind, und fördert so einen sicheren und kontrollierten Experimentierraum.



Agentenbasierter Simulator

Der agentenbasierte Tokenspice-Simulator wird zur Simulation der Uniswap V3-Umgebung verwendet. Agentenrichtlinien werden so definiert, dass sie die Dynamik der Uniswap-Marktteilnehmer berücksichtigen. Zur Simulation der dynamischen Uniswap-Umgebung werden verschiedene Arten von Agenten verwendet

Einführung

Das Tokenspice Agent-Based Model (ABM) simuliert die Aktionen und Interaktionen einzelner Agenten innerhalb des Uniswap V3-Ökosystems. Durch die Modellierung des komplexen Verhaltens verschiedener Teilnehmer stellt das ABM eine umfassende Schnittstelle der dynamischen Umgebung von Uniswap V3 bereit und ermöglicht die Analyse und Optimierung von Liquiditätsbereitstellungsstrategien.


Agententypen und -verhalten

Das ABM umfasst verschiedene Agententypen, die jeweils eine bestimmte Rolle innerhalb des Uniswap V3-Ökosystems darstellen. Die beiden Hauptagenten sind der Liquidity Provider Agent und der Swapper Agent, die mit den Uniswap-Pools interagieren, um Liquidität bereitzustellen bzw. Token-Swaps durchzuführen. Das Verhalten dieser Agenten wird durch Richtlinien bestimmt, die in der Datei agents_policies.py definiert sind. Dadurch wird sichergestellt, dass ihre Aktionen mit realen Strategien und Marktbedingungen in Einklang stehen.


  • Liquiditätsanbieter-Agent: Dieser Agent fügt Liquidität zu den Uniswap-Pools hinzu und entfernt sie daraus. Es folgt einer Reihe von Richtlinien, die seine Aktionen auf der Grundlage der aktuellen Marktlage und der Präferenzen des Agenten vorschreiben.


  • Swapper Agent: Der Swapper Agent führt Token-Swaps innerhalb der Uniswap-Pools durch und nutzt dabei Preisunterschiede und Arbitragemöglichkeiten. Sein Verhalten wird von Richtlinien geleitet, die die potenzielle Rentabilität von Geschäften unter Berücksichtigung von Transaktionsgebühren und Slippage bewerten.


Simulationskonfiguration und -ausführung

Die Datei netlist.py ist für das ABM von zentraler Bedeutung und konfiguriert, wie Agenten untereinander und mit den Uniswap-Pools interagieren. Es definiert die Beziehungen zwischen Agenten, Richtlinien und der Simulationsumgebung.


Die Module SimEngine.py , SimStateBase.py und SimStrategyBase.py stellen die Grundelemente für die Ausführung von Simulationen bereit. Die SimEngine orchestriert die Simulation und verwaltet den Zeitablauf und die Ausführung von Agentenaktionen. Die SimStateBase verwaltet den aktuellen Status der Simulation und speichert Daten zu Agentenbeständen, Poolzuständen und anderen relevanten Variablen. Die SimStrategyBase definiert die übergreifenden Strategien, die das Agentenverhalten während der gesamten Simulation steuern.


Reinforcement-Learning-Modell

Einführung

Der Reinforcement Learning (RL) Agent ist eine zentrale Komponente des Intelligent Liquidity Provisioning Framework, das für die Interaktion mit dem Uniswap V3-Ökosystem über das Uniswap-Modell, ein agentenbasiertes Modell, konzipiert ist. Dieser Abschnitt befasst sich mit dem RL-Agenten, seiner Umgebung und dem für das Training verwendeten DDPG-Algorithmus (Deep Deterministic Policy Gradient).


RL-Agent-Umgebung

Der RL-Agent arbeitet in einer benutzerdefinierten Umgebung, DiscreteSimpleEnv , die mit dem Uniswap-Modell und dem agentenbasierten Modell interagiert, um den DeFi-Markt zu simulieren. Diese Umgebung erleichtert die Interaktion des Agenten mit Uniswap-Pools, sodass er Liquidität hinzufügen und entfernen und die Konsequenzen seiner Aktionen beobachten kann. Der RL-Agent interagiert mit dem Uniswap-Modell und ABM, um die Liquiditätsbereitstellung in der realen Welt in Uniswap V3 zu simulieren. Es wählt Aktionen aus, die zu einer Erhöhung oder Entfernung von Liquidität führen, wobei im ABM Richtlinien und Simulationskonfigurationen definiert werden, um realistische Interaktionen sicherzustellen.


  • Zustandsraum: Der Zustandsraum der Umgebung umfasst verschiedene Marktindikatoren wie den aktuellen Preis, die Liquidität und das Gebührenwachstum. Diese Parameter werden normalisiert und dem Agenten in jedem Zeitschritt bereitgestellt.


  • Aktionsraum: Der Aktionsraum des Agenten besteht aus kontinuierlichen Werten, die die Preisgrenzen für das Hinzufügen von Liquidität zu einem Uniswap-Pool darstellen. Diese Aktionen werden in Interaktionen mit den Uniswap-Pools umgesetzt und wirken sich auf den Zustand der Umgebung aus.


  • Belohnungsfunktion: Die Belohnungsfunktion ist entscheidend für die Ausbildung des RL-Agenten. Es berücksichtigt die Gebühreneinnahmen, den vorübergehenden Verlust, den Portfoliowert und potenzielle Strafen und liefert ein skalares Belohnungssignal, das den Lernprozess des Agenten steuert.


DDPG-Agent

Der DDPG-Agent ist ein modellfreier, akteur-kritischer Algorithmus außerhalb der Richtlinien, der tiefe Funktionsnäherungen verwendet. Es kann hochdimensionale Zustandsräume und kontinuierliche Aktionsräume verarbeiten und ist daher gut für unsere Uniswap V3-Umgebung geeignet.


  • Akteursnetzwerk: Dieses Netzwerk ist dafür verantwortlich, in einem bestimmten Staat die bestmögliche Aktion bereitzustellen. Es verfügt über eine Sigmoid-Ausgabeschicht, die relative Werte für „price_lower“ und „price_upper“ ausgibt, die dann in Agent Env auf den gewünschten Bereich skaliert werden und die Preisgrenzen für die Erhöhung der Liquidität darstellen.
  • Kritisches Netzwerk: Dieses Netzwerk wertet die Aktionswertfunktion aus und schätzt den erwarteten Ertrag einer Aktion in einem bestimmten Zustand.
  • Zielnetzwerke: DDPG verwendet Zielnetzwerke sowohl für den Schauspieler als auch für den Kritiker, die langsam aktualisiert werden, um das Training zu stabilisieren.
  • Erfahrungswiedergabe: Diese Technik wird verwendet, um einen Wiedergabepuffer vergangener Erfahrungen zu speichern, sodass der Agent aus einer Vielzahl von Beispielen lernen, Korrelationen in Beobachtungen aufbrechen und das Lernen glätten kann.


Interaktion mit Uniswap-Modell und ABM

Der RL-Agent nutzt das Uniswap-Modell und das agentenbasierte Modell, um die Liquiditätsbereitstellung in der realen Welt in Uniswap V3 zu simulieren. Es interagiert mit den Uniswap-Pools über DiscreteSimpleEnv und führt Aktionen aus, die zum Hinzufügen oder Entfernen von Liquidität führen. Die Richtlinien des Agenten und die Simulationskonfiguration werden in der ABM-Komponente definiert und sorgen so für eine realistische und kohärente dynamische Umgebung.


  • Trainieren und bewerten Sie den Agenten: Der Agent wird über eine Reihe von Episoden geschult, die jeweils ein anderes Marktszenario (einen anderen Pool) repräsentieren. Die Leistung des Agenten wird anhand seiner Fähigkeit bewertet, die Rendite zu maximieren und gleichzeitig die mit der Liquiditätsbereitstellung verbundenen Risiken zu minimieren. Die Wirksamkeit des Intelligent Liquidity Provisioning Framework wird durch die Bewertung der Leistung des Reinforcement Learning (RL)-Agenten beurteilt.


  • Umgebungseinrichtung: Um den RL-Agenten zu evaluieren, richten wir eine spezielle Evaluierungsumgebung ein, DiscreteSimpleEnvEval , die die Basisumgebung DiscreteSimpleEnv erweitert. Diese Umgebung ist auf die Auswertung von Agentenrichtlinien zugeschnitten.


  • Baseline-Agent: In unserem Bewertungsaufbau vergleichen wir die Leistung des RL-Agenten mit der eines Baseline-Agenten. Die Aktionen des Baseline-Agenten werden durch eine Baseline-Richtlinie bestimmt, die auf dem aktuellen Zustand des Liquiditätspools basiert. Dieser Agent soll einen Referenzpunkt für die Bewertung der Leistung des RL-Agenten bieten.


Ergebnisse

Ausbildung






Auswertung



Einschränkungen

  • Pool-Synchronisierung: Derzeit erfasst das Framework die Echtzeit-Synchronisierung von Pools nicht vollständig, was zu Diskrepanzen bei der Modellierung der realen Uniswap V3-Dynamik führen kann. Zukünftige Arbeiten sollten sich auf die Integration von Mechanismen für eine bessere Pool-Synchronisierung konzentrieren und möglicherweise Tick-/Positionsdaten oder Ereignisse nutzen, um den Realismus zu verbessern.


  • Naive Agentenrichtlinien: Die im aktuellen Framework verwendeten Agentenrichtlinien sind relativ einfach und naiv. Um genauere Simulationen zu erreichen, sollten zukünftige Iterationen darauf abzielen, umfassendere Agentenrichtlinien zu definieren. Diese Richtlinien könnten verschiedene Arten von Uniswap-Agenten modellieren, wie z. B. Lärmhändler, informierte Händler, Liquiditätsanbieter für Privatkunden und institutionelle Liquiditätsanbieter. Alternativ können statistische Modelle, die auf historischen Pooldaten trainiert wurden, Agentenrichtlinien für ein realistischeres Verhalten informieren.


  • Spärlicher Beobachtungsraum: Dem den Agenten zur Verfügung gestellten Beobachtungsraum fehlen umfassende Informationen über den Zustand des Pools. Um die Entscheidungsfähigkeit zu verbessern, sollten zukünftige Erweiterungen Tick- und Positionsdaten sowie technische Funktionen umfassen, die den Agenten ein umfassenderes Verständnis des Poolstatus bieten.


  • Begrenzter Handlungsspielraum: Der Handlungsspielraum für Agenten ist derzeit begrenzt, mit festen Liquiditätsbeträgen und eingeschränkten Preisspannengrenzen. Die Erweiterung des Aktionsraums, um mehr Flexibilität bei der Liquiditätsbereitstellung zu ermöglichen, sowie die Berücksichtigung mehrerer Positionen pro Schritt können die Genauigkeit der Simulationen verbessern.



Zukünftige Arbeit

Agentenumgebung:

  1. Synchronisierte Pools: Implementieren Sie Mechanismen zur Synchronisierung von Pools, möglicherweise unter Verwendung von Tick-/Positionsdaten oder Ereignissen, um realistischere Dynamiken in der Uniswap V3-Umgebung zu schaffen.


  2. Hyperparameter-Tuning: Akteur-/Kritiker-Netzwerkarchitektur, Alpha, Beta, Tau, Batch-Größe, Schritte, Episoden, Skalierungsparameter (Belohnungen, Aktionen, Beobachtungsraum)


  3. Umfassende Agentenrichtlinien: Definieren Sie ausgefeiltere Analyserichtlinien, die verschiedene Uniswap-Agenten genau modellieren, oder nutzen Sie statistische Modelle, die auf historischen Pooldaten trainiert wurden, um das Agentenverhalten zu informieren.


  4. Informativer Beobachtungsbereich: Erweitern Sie den Beobachtungsbereich durch die Einbindung von Tick- und Positionsdaten sowie Ingenieurfunktionen, die den Agenten einen umfassenden Überblick über den Zustand des Pools bieten.


  5. Verbesserte Belohnungsfunktion: Entwickeln Sie eine verbesserte Belohnungsfunktion, die ein breiteres Spektrum an Faktoren berücksichtigt und zu einer effektiveren Agentenschulung führt.


  6. Mehrere Positionen: Implementieren Sie anstelle einer Position mit einem festen Budget in jedem Zeitschritt einen umfassenderen Mechanismus, bei dem dem Agenten zu Beginn der Simulation einmalig ein Budget zugewiesen wird und er dann lernt, dieses Budget in nachfolgenden Schritten optimal zu nutzen.


  7. Basisrichtlinien: Definieren Sie umfassendere Basisrichtlinien, um die Leistung des RL-Agenten zu bewerten


Agent-Algorithmus

  • Hyperparameter-Tuning: Verfeinern und optimieren Sie die Hyperparameter des Reinforcement-Learning-Agenten weiter, um eine bessere Trainingsleistung zu erzielen.


  • Experimentieren mit anderen RL-Agenten: Erkunden Sie alternative RL-Agentenmodelle wie Proximal Policy Optimization (PPO) oder Soft Actor-Critic (SAC), um festzustellen, ob sie in bestimmten Szenarien Vorteile bieten.


  • Multi-Agent RL (MARL): Untersuchen Sie die Anwendung von Multi-Agent-Verstärkungslerntechniken, die für die Modellierung von Interaktionen zwischen mehreren Liquiditätsanbietern und Swappern von Vorteil sein können.


  • Online-Lernen: Implementieren Sie Online-Lernstrategien, die es Agenten ermöglichen, sich in Echtzeit an sich ändernde Marktbedingungen anzupassen und so eine dynamischere und anpassungsfähigere Lösung für die Liquiditätsbereitstellung bereitzustellen.


Abschluss

In der sich schnell entwickelnden Landschaft des dezentralen Finanzwesens (DeFi) spielt die Liquiditätsbereitstellung eine entscheidende Rolle bei der Ermöglichung eines effizienten und sicheren Handels. Uniswap V3 hat mit seiner innovativen Funktion für konzentrierte Liquidität die Grenzen dessen, was im DeFi-Liquiditätsmanagement möglich ist, erweitert. Die Komplexität der Optimierung von Strategien zur Liquiditätsbereitstellung in diesem dynamischen Ökosystem erfordert jedoch innovative Lösungen.


Unser Intelligent Liquidity Provisioning Framework stellt einen bedeutenden Schritt vorwärts bei der Bewältigung dieser Herausforderungen dar. Durch die Kombination von agentenbasierter Modellierung und verstärkendem Lernen haben wir ein leistungsstarkes Toolkit für Liquiditätsanbieter und Marktteilnehmer geschaffen. Dieses Framework bietet eine robuste und anpassungsfähige Lösung zur Optimierung von Liquiditätsbereitstellungsstrategien mit Schwerpunkt auf der Maximierung von Nutzenfunktionen, die verdiente Gebühren, vorübergehende Verlustminderung und andere auf individuelle Präferenzen zugeschnittene Kennzahlen umfassen.



Ressourcen


Verweise

  1. https://kth.diva-portal.org/smash/get/diva2:1695877/FULLTEXT01.pdf
  2. https://arxiv.org/pdf/2305.15821.pdf
  3. https://github.com/KodAgge/Reinforcement-Learning-for-Market-Making/tree/main
  4. https://arxiv.org/ftp/arxiv/papers/2211/2211.01346.pdf
  5. https://arxiv.org/pdf/2004.06985.pdf
  6. https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=9682687
  7. https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0277042
  8. https://deliverypdf.ssrn.com/delivery.php?ID=1041190981020260141200720840141070070420680690030490201260880250871211151030070840280420130550350090000 54122074096068089064070102052026003014069082076098016080066026088066039027093020006122067093104092065070020126069068106118079 127088008098077106031120&EXT=pdf&INDEX=TRUE
  9. https://medium.com/blockapex/market-making-mechanics-and-strategies-4daf2122121c
  10. https://www.gauntlet.xyz/resources/uniswap-user-cohort-analysis
  11. https://gov.uniswap.org/t/uniswap-incentive-design-analysis/21662
  12. https://arxiv.org/pdf/2108.07806.pdf
  13. https://www.researchgate.net/publication/341848292_Market_makers_activity_behavioural_and_agent_based_approach
  14. https://fruct.org/publications/volume-29/fruct29/files/Struc.pdf
  15. https://www.arxiv-vanity.com/papers/1911.03380/
  16. https://insights.glassnode.com/the-week-onchain-week-31-2023/


Auch hier veröffentlicht.