paint-brush
Подробная структура интеллектуального предоставления ликвидности в Uniswap V3к@idrees535
2,550 чтения
2,550 чтения

Подробная структура интеллектуального предоставления ликвидности в Uniswap V3

к Idrees11m2023/12/21
Read on Terminal Reader

Слишком долго; Читать

Откройте для себя будущее децентрализованных финансов (DeFi) с помощью инновационной структуры, использующей агентское моделирование и обучение с подкреплением для интеллектуального предоставления ликвидности в Uniswap V3. Этот революционный подход направлен на оптимизацию стратегий предоставления ликвидности, максимизацию функций полезности и повышение прибыльности поставщиков ликвидности. Изучите три ключевых компонента структуры, нюансы агента обучения с подкреплением и его потенциал для изменения ландшафта управления ликвидностью в постоянно развивающейся сфере DeFi.
featured image - Подробная структура интеллектуального предоставления ликвидности в Uniswap V3
Idrees HackerNoon profile picture
0-item


Обеспечение ликвидности в Uniswap V3 представляет собой задачу стохастического оптимального управления с четко определенной функцией полезности, которую необходимо максимизировать. В этой статье представлена инновационная платформа для интеллектуального обеспечения ликвидности, использующая сочетание агентного моделирования и обучения с подкреплением. Наша структура обеспечивает надежное и адаптивное решение для оптимизации стратегий предоставления ликвидности. Модель Uniswap V3 имитирует реальные рыночные условия, а модель на основе агентов (ABM) создает среду для моделирования взаимодействия агентов с пулами Uniswap V3. Агент обучения с подкреплением, обученный с использованием глубоких детерминированных политических градиентов (DDPG), изучает оптимальные стратегии, демонстрируя потенциал машинного обучения в расширении участия в DeFi. Этот подход направлен на повышение прибыльности поставщиков ликвидности и улучшение понимания рынков ОВЛХ.


Обзор контента

  • Введение
  • Интеллектуальная система обеспечения ликвидности
  • Компоненты интеллектуальной системы обеспечения ликвидности
  • Агентский симулятор
  • Модель обучения с подкреплением
  • Ограничения
  • Будущая работа
  • Заключение
  • Ресурсы
  • Рекомендации


Введение

В моей предыдущей статье о маркет-мейкинге [Механика и стратегии маркет-мейкинга] мы исследовали механику и стратегии маркет-мейкинга на традиционных финансовых рынках. Опираясь на эти идеи, в этой статье представлена инновационная платформа для интеллектуального предоставления ликвидности в контексте Uniswap V3. Как упоминалось в нашем предыдущем исследовании, нашей целью было расширить наше понимание динамики рынка и управления ликвидностью в децентрализованных финансах ( DeFi) , в частности, посредством разработки системы интеллектуального обеспечения ликвидности.


Децентрализованные финансы (DeFi) претерпели значительный рост, представив инновационные финансовые продукты и услуги, доступные глобальной аудитории. Uniswap V3, находящийся в авангарде этой инновации, произвел революцию в обеспечении ликвидности благодаря своей функции концентрированной ликвидности. Однако это достижение ставит перед поставщиками ликвидности сложные проблемы с принятием решений. В этой статье представлена комплексная структура, предназначенная для решения этих проблем, предлагающая моделируемую среду для изучения и оптимизации стратегий предоставления ликвидности.


Наша структура состоит из трех ключевых компонентов: модели Uniswap V3, агентной модели (ABM) и агента обучения с подкреплением. Модель Uniswap V3 обеспечивает представление пула, позволяя развертывать токены и пулы и взаимодействовать с ними. ABM усложняет задачу, моделируя взаимодействие агентов и динамику рынка, создавая богатую среду для оценки стратегии. Агент обучения с подкреплением, работающий в этой среде, применяет глубокий детерминированный политический градиентный подход для изучения и адаптации стратегий, стремясь к оптимальной производительности в обеспечении ликвидности.



Это исследование направлено на разработку интеллектуального механизма предоставления ликвидности (ILP) с использованием обучения с подкреплением (RL) для автономного управления и оптимизации ликвидности в среде Uniswap V3. Механизм направлен на максимизацию функции полезности с учетом полученных комиссий, непостоянных потерь и других показателей, основанных на предпочтениях поставщиков ликвидности, при этом адаптируясь к сложной динамике рынка CFMM.







Интеллектуальная система обеспечения ликвидности

В рамках RL проблема обеспечения ликвидности формулируется как марковский процесс принятия решений (MDP). MDP состоит из состояний, действий и вознаграждений.



  • Штаты: Штаты представляют текущие рыночные условия, включая цены на активы, объемы торговли и другие соответствующие переменные.


  • Действия: действия соответствуют решениям, принятым поставщиком ликвидности, например, корректировка распределения ликвидности, ребалансировка портфелей и т. д.


  • Вознаграждения: Вознаграждения количественно определяют желательность результатов на основе целевой функции, предпочтений и ограничений поставщика ликвидности. Вознаграждения могут быть положительными в случае желательных результатов (например, высокая доходность) и отрицательными в случае нежелательных результатов (например, высокий риск или низкая производительность).


  • Целевая функция: Целевая функция представляет собой желаемый результат поставщика ликвидности, который может представлять собой комбинацию таких факторов, как максимизация прибыли, минимизация рисков или достижение определенного компромисса между ними. Ограничения могут включать ограничения на распределение ликвидности, использование капитала, уровни толерантности к риску или другие ограничения, определенные поставщиком ликвидности.


Обучение RL — это итеративный процесс, в котором агент постоянно обновляет свою политику на основе обратной связи. Агент учится на своем опыте и со временем совершенствует свои решения, постепенно переходя к более оптимальным стратегиям предоставления ликвидности.


После обучения агента RL его можно протестировать и оценить с использованием исторических данных или смоделированных сред, чтобы оценить его эффективность в сравнении с целевой функцией и ограничениями поставщика ликвидности. Эффективность агента можно измерить с помощью таких показателей, как доходность, показатели риска или других соответствующих показателей эффективности.


Применяя алгоритм RL, механизм предоставления ликвидности может обучаться и адаптироваться к изменяющимся рыночным условиям, определять оптимальные стратегии предоставления ликвидности и балансировать ограничения и предпочтения, указанные поставщиком ликвидности. RL позволяет механизму находить решения, которые максимизируют целевую функцию поставщика ликвидности, автономно и динамически рассматривая различные компромиссы и ограничения.



Компоненты интеллектуальной системы обеспечения ликвидности

Структура включает в себя три основных компонента:

Компоненты фреймворка




Модель UniswapV3

Модель Uniswap V3, реализованная на Python, предлагает детальное и функциональное моделирование протокола Uniswap V3, отражающее его тонкую механику и предоставляющее пользователям комплексный набор инструментов для взаимодействия с протоколом. Класс UniswapV3_Model управляет развертыванием токенов и пулов, инициализирует пулы и предоставляет интерфейс для действий пула и получения состояния пула.


Обзор

Модель Uniswap служит основой интеллектуальной системы обеспечения ликвидности, инкапсулирующей основную механику Uniswap V3. Он использует скомпилированные смарт-контракты из Uniswap V3-Core, развернутые в локальной среде Ganache с использованием Brownie, для создания реалистичной и интерактивной симуляции.


Составление и развертывание контракта

Платформа интегрируется с Brownie, средой разработки и тестирования смарт-контрактов на основе Python, для компиляции и развертывания смарт-контрактов Uniswap V3. Эти контракты затем развертываются в локальной среде Ganache, предоставляя «песочницу» для тестирования и разработки. Такая настройка гарантирует, что пользователи могут взаимодействовать со средой Uniswap без необходимости использования реальных активов или сетевых транзакций, создавая безопасное и контролируемое пространство для экспериментов.



Агент-ориентированный симулятор

Симулятор на основе агента Tokenspice используется для моделирования среды Uniswap V3, политика агентов определяется с учетом динамики участников рынка Uniswap. Для моделирования динамической среды Uniswap используются различные типы агентов.

Введение

Агент-ориентированная модель Tokenspice (ABM) моделирует действия и взаимодействие отдельных агентов в экосистеме Uniswap V3. Моделируя сложное поведение различных участников, ABM обеспечивает комплексный интерфейс динамической среды Uniswap V3, позволяющий анализировать и оптимизировать стратегии предоставления ликвидности.


Типы и поведение агентов

ABM включает в себя различные типы агентов, каждый из которых представляет определенную роль в экосистеме Uniswap V3. Двумя основными агентами являются агент поставщика ликвидности и агент обмена, которые взаимодействуют с пулами Uniswap для обеспечения ликвидности и выполнения обмена токенов соответственно. Поведение этих агентов определяется политиками, определенными в файле agents_policies.py , что гарантирует соответствие их действий реальным стратегиям и рыночным условиям.


  • Агент поставщика ликвидности: этот агент добавляет и удаляет ликвидность из пулов Uniswap. Он следует набору политик, которые диктуют его действия на основе текущего состояния рынка и предпочтений агента.


  • Агент Swapper: Агент Swapper выполняет обмен токенов внутри пулов Uniswap, используя разницу в ценах и возможности арбитража. Его поведение определяется политикой, которая оценивает потенциальную прибыльность сделок с учетом комиссий за транзакции и проскальзывания.


Конфигурация и выполнение моделирования

Файл netlist.py занимает центральное место в ABM, настраивая взаимодействие агентов друг с другом и с пулами Uniswap. Он определяет отношения между агентами, политиками и средой моделирования.


Модули SimEngine.py , SimStateBase.py и SimStrategyBase.py предоставляют базовые элементы для запуска моделирования. SimEngine организует моделирование, управляет течением времени и выполнением действий агента. SimStateBase поддерживает текущее состояние моделирования, сохраняя данные о наличии агентов, состояниях пулов и других соответствующих переменных. SimStrategyBase определяет всеобъемлющие стратегии, которые определяют поведение агента на протяжении всего моделирования.


Модель обучения с подкреплением

Введение

Агент обучения с подкреплением (RL) — это ключевой компонент платформы интеллектуального обеспечения ликвидности, предназначенный для взаимодействия с экосистемой Uniswap V3 через модель Uniswap Model, основанную на агентах. В этом разделе подробно рассматривается агент RL, его среда и алгоритм DDPG (глубокий детерминированный политический градиент), используемый для обучения.


Среда агента RL

Агент RL работает в специальной среде DiscreteSimpleEnv , которая взаимодействует с моделью Uniswap и моделью на основе агентов для моделирования рынка DeFi. Эта среда облегчает взаимодействие агента с пулами Uniswap, позволяя ему добавлять и удалять ликвидность, а также наблюдать за последствиями своих действий. Агент RL взаимодействует с моделью Uniswap и ABM для имитации реального предоставления ликвидности в Uniswap V3. Он выбирает действия, которые приводят к добавлению или удалению ликвидности, с политикой и конфигурацией моделирования, определенными в ABM, обеспечивая реалистичное взаимодействие.


  • Пространство состояний. Пространство состояний среды включает в себя различные рыночные индикаторы, такие как текущая цена, ликвидность и рост комиссий. Эти параметры нормализуются и предоставляются агенту на каждом временном шаге.


  • Пространство действий: Пространство действий агента состоит из непрерывных значений, представляющих ценовые границы для добавления ликвидности в пул Uniswap. Эти действия преобразуются во взаимодействие с пулами Uniswap, влияя на состояние среды.


  • Функция вознаграждения: Функция вознаграждения имеет решающее значение для обучения агента RL. Он учитывает комиссионный доход, непостоянные убытки, стоимость портфеля и потенциальные штрафы, предоставляя скалярный сигнал вознаграждения для управления процессом обучения агента.


Агент ДДПГ

Агент DDPG — это немодальный алгоритм, не зависящий от политики, использующий аппроксиматоры глубоких функций. Он может обрабатывать многомерные пространства состояний и пространства непрерывных действий, что делает его хорошо подходящим для нашей среды Uniswap V3.


  • Сеть актеров: эта сеть отвечает за обеспечение наиболее вероятных действий в данном состоянии. Он имеет сигмовидный выходной слой, выводящий относительные значения для Price_lower и Price_upper , которые затем масштабируются до желаемого диапазона в среде агента, представляя границы цен для добавления ликвидности.
  • Сеть критиков: эта сеть оценивает функцию ценности действия, оценивая ожидаемую отдачу от выполнения действия в данном состоянии.
  • Целевые сети: DDPG использует целевые сети как для актера, так и для критика, которые медленно обновляются для стабилизации обучения.
  • Воспроизведение опыта: этот метод используется для хранения буфера воспроизведения прошлого опыта, позволяя агенту учиться на разнообразном наборе образцов, разрушая корреляции в наблюдениях и сглаживая обучение.


Взаимодействие с моделью Uniswap и ABM

Агент RL использует модель Uniswap и модель на основе агентов для имитации реального предоставления ликвидности в Uniswap V3. Он взаимодействует с пулами Uniswap через DiscreteSimpleEnv , выполняя действия, которые приводят к добавлению или удалению ликвидности. Политики агента и конфигурация моделирования определяются в компоненте ABM, обеспечивая реалистичную и согласованную динамическую среду.


  • Обучение и оценка агента. Агент обучается в ходе серии эпизодов, каждый из которых представляет отдельный рыночный сценарий (различный пул). Эффективность агента оценивается на основе его способности максимизировать прибыль при минимизации рисков, связанных с предоставлением ликвидности. Эффективность системы интеллектуальной системы обеспечения ликвидности оценивается посредством оценки производительности агента обучения с подкреплением (RL).


  • Настройка среды. Для оценки агента RL мы настроили специализированную среду оценки DiscreteSimpleEnvEval , которая расширяет базовую среду DiscreteSimpleEnv . Эта среда предназначена для оценки политик агентов.


  • Базовый агент. В нашей оценочной настройке мы сравниваем производительность агента RL с производительностью базового агента. Действия базового агента определяются базовой политикой, основанной на текущем состоянии пула ликвидности. Целью этого агента является предоставление контрольной точки для оценки производительности агента RL.


Полученные результаты

Обучение






Оценка



Ограничения

  • Синхронизация пулов. В настоящее время платформа не полностью фиксирует синхронизацию пулов в реальном времени, что может привести к расхождениям в моделировании реальной динамики Uniswap V3. Будущая работа должна быть сосредоточена на внедрении механизмов для лучшей синхронизации пулов, возможно, с использованием данных о тиках/позициях или событиях для повышения реалистичности.


  • Наивная политика агентов. Политики агентов, используемые в текущей структуре, относительно просты и наивны. Чтобы добиться более точного моделирования, будущие итерации должны быть направлены на определение более комплексных политик агентов. Эти политики могут моделировать различные типы агентов Uniswap, такие как шумовые трейдеры, информированные трейдеры, розничные поставщики ликвидности и институциональные поставщики ликвидности. Альтернативно, статистические модели, обученные на исторических данных пула, могут информировать политику агентов для более реалистичного поведения.


  • Разреженное пространство наблюдения. В пространстве наблюдения, предоставленном агентам, отсутствует исчерпывающая информация о состоянии пула. Чтобы улучшить возможности принятия решений, будущие улучшения должны включать данные о тиках и позициях, а также инженерные функции, которые предлагают агентам более полное понимание состояния пула.


  • Ограниченное пространство действий: пространство действий для агентов в настоящее время ограничено фиксированными суммами ликвидности и ограниченным диапазоном цен. Расширение пространства действий для обеспечения большей гибкости в предоставлении ликвидности, а также рассмотрение нескольких позиций на каждом этапе может повысить точность моделирования.



Будущая работа

Среда агента:

  1. Синхронизированные пулы: реализуйте механизмы синхронизации пулов, возможно, с использованием данных или событий тиков/позиций, чтобы создать более реалистичную динамику в среде Uniswap V3.


  2. Настройка гиперпараметров: сетевая архитектура актера/критика, альфа, бета, тау, размер пакета, шаги, эпизоды, параметры масштабирования (награды, действия, пространство наблюдения)


  3. Комплексные политики агентов. Определите более сложные аналитические политики, которые точно моделируют различных агентов Uniswap или используют статистические модели, обученные на исторических данных пула, для информирования о поведении агентов.


  4. Информативное пространство наблюдения. Расширьте пространство наблюдения, включив в него данные о тиках и положении, а также спроектируйте функции, которые предоставляют агентам полное представление о состоянии пула.


  5. Улучшенная функция вознаграждения. Разработайте улучшенную функцию вознаграждения, учитывающую более широкий спектр факторов, что приведет к более эффективному обучению агентов.


  6. Множественные позиции. Вместо одной позиции с фиксированным бюджетом на каждом временном шаге реализуйте более комплексный механизм, в котором агенту выделяется бюджет один раз в начале моделирования, а затем он учится оптимально использовать этот бюджет на последующих этапах.


  7. Базовые политики: определите более комплексные базовые политики для оценки производительности агента RL.


Алгоритм агента

  • Настройка гиперпараметров: дальнейшее уточнение и оптимизация гиперпараметров агента обучения с подкреплением для повышения эффективности обучения.


  • Экспериментируйте с другими агентами RL. Изучите альтернативные модели агентов RL, такие как оптимизация проксимальной политики (PPO) или мягкий актер-критик (SAC), чтобы определить, предлагают ли они преимущества в конкретных сценариях.


  • Многоагентный RL (MARL): изучите применение методов многоагентного обучения с подкреплением, которые могут быть полезны для моделирования взаимодействия между несколькими поставщиками ликвидности и свопперами.


  • Онлайн-обучение. Внедряйте стратегии онлайн-обучения, которые позволяют агентам адаптироваться к меняющимся рыночным условиям в режиме реального времени, обеспечивая более динамичное и адаптивное решение по обеспечению ликвидности.


Заключение

В быстро развивающейся среде децентрализованных финансов (DeFi) предоставление ликвидности играет ключевую роль в обеспечении эффективной и безопасной торговли. Uniswap V3 с инновационной функцией концентрированной ликвидности раздвинул границы возможного в управлении ликвидностью DeFi. Однако сложности оптимизации стратегий предоставления ликвидности в этой динамичной экосистеме требуют инновационных решений.


Наша система интеллектуального обеспечения ликвидности представляет собой значительный шаг вперед в решении этих проблем. Объединив агентное моделирование и обучение с подкреплением, мы создали мощный набор инструментов для поставщиков ликвидности и участников рынка. Эта структура предлагает надежное и адаптивное решение для оптимизации стратегий предоставления ликвидности с упором на максимизацию функций полезности, которые включают полученные комиссии, смягчение непостоянных потерь и другие показатели, адаптированные к индивидуальным предпочтениям.



Ресурсы


Рекомендации

  1. https://kth.diva-portal.org/smash/get/diva2:1695877/FULLTEXT01.pdf
  2. https://arxiv.org/pdf/2305.15821.pdf
  3. https://github.com/KodAgge/Reinforcement-Learning-for-Market-Making/tree/main
  4. https://arxiv.org/ftp/arxiv/papers/2211/2211.01346.pdf
  5. https://arxiv.org/pdf/2004.06985.pdf
  6. https://ieeeexplore.ieee.org/stamp/stamp.jsp?arnumber=9682687
  7. https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0277042
  8. https://deliverypdf.ssrn.com/delivery.php?ID=104119098102026014120072084014107007042068069003049020126088025087121115103007084028042013055035009000 05412207409606808906407010205202600301406908207609801608006602608806603902709302000612206709310409206507002012606906810611807 9127088008098077106031120&EXT=pdf&INDEX=TRUE
  9. https://medium.com/blockapex/market-making-mechanics-and-strategies-4daf2122121c
  10. https://www.gauntlet.xyz/resources/uniswap-user-cohort-anaанализ
  11. https://gov.uniswap.org/t/uniswap-incentive-design-anaлиз/21662
  12. https://arxiv.org/pdf/2108.07806.pdf
  13. https://www.researchgate.net/publication/341848292_Market_makers_activity_behavioural_and_agent_based_approach
  14. https://fruct.org/publications/volume-29/fruct29/files/Struc.pdf
  15. https://www.arxiv-vanity.com/papers/1911.03380/
  16. https://insights.glassnode.com/the-week-onchain-week-31-2023/


Также опубликовано здесь .