OpenLedger створює інфраструктуру економіки розумних агентів для побудови екосистеми стимулювання перевірених AI моделей

OpenLedger Глибина дослідження: на основі OP Stack + EigenDA, побудувати економіку розумних агентів, що керується даними та має модельну комбінацію

Одне. Вступ | Перехід моделі Crypto AI

Дані, моделі та обчислювальна потужність є трьома основними складовими інфраструктури ШІ, аналогічно паливу (дані), двигуну (моделі) та енергії (обчислювальна потужність), які не можуть існувати одне без одного. Як і в традиційній індустрії ШІ, шлях еволюції інфраструктури в галузі Crypto AI також пройшов подібні етапи. На початку 2024 року ринок був на короткий час під контролем децентралізованих GPU проектів, які в основному підкреслювали логіку грубого зростання "змагання в обчислювальній потужності". Однак з наближенням 2025 року увага в галузі поступово переходить на моделі та рівень даних, що означає, що Crypto AI переходить від конкуренції за базові ресурси до більш стійкого та цінного середнього рівня побудови.

Загальний великий модель (LLM) проти спеціалізованої моделі (SLM)

Традиційні великі мовні моделі (LLM) вимагають значних обсягів даних та складної розподіленої архітектури, масштаби параметрів можуть досягати 70B–500B, а вартість одного тренування часто становить мільйони доларів. У той час як SLM (Спеціалізована мовна модель) є легким підходом до тонкого налаштування повторюваної базової моделі, зазвичай базується на відкритих моделях, таких як LLaMA, Mistral, DeepSeek, поєднуючи невелику кількість високоякісних професійних даних та технології LoRA, швидко створюючи експертні моделі з конкретними знаннями в певній області, значно знижуючи витрати на навчання та технічні бар'єри.

Зверніть увагу, що SLM не інтегрується у ваги LLM, а взаємодіє з LLM через виклики архітектури Agent, динамічну маршрутизацію плагіновою системою, «гарячу» заміну модулів LoRA, RAG (підсилене генерування на основі запитів) та інші способи. Ця архітектура зберігає широку охоплювальну здатність LLM і водночас покращує спеціалізовані показники за рахунок модулів тонкої настройки, створюючи високо гнучку комбіновану інтелектуальну систему.

Crypto AI вартість та межі на рівні моделей

Проекти Crypto AI за своєю суттю важко безпосередньо покращити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,

  • Занадто високий технологічний бар'єр: масштаб даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, наразі лише такі технологічні гіганти, як США та Китай, мають відповідні можливості.
  • Обмеження відкритої екосистеми: хоча основні базові моделі, такі як LLaMA, Mixtral, вже є відкритими, справжній прорив моделей все ще зосереджений на науково-дослідних установах і закритих інженерних системах, а участь проектів на блокчейні на рівні основних моделей обмежена.

Однак, на основі відкритих моделей, проєкти Crypto AI все ще можуть реалізувати розширення вартості шляхом доопрацювання спеціалізованих мовних моделей (SLM) та поєднання їх з верифікацією та механізмами стимулювання Web3. Як «периферійний інтерфейс» в індустрії AI, це виявляється в двох основних напрямках:

  • Довірений верифікаційний шар: через записані в ланцюгу моделі генерування шляху, внесення даних та використання, посилює відстежуваність виходу AI та стійкість до змін.
  • Механізм стимулювання: за допомогою рідного токена для стимулювання завантаження даних, виклику моделей, виконання агентами (Agent) та інших дій, створення позитивного циклу навчання моделей і обслуговування.

Класифікація типів AI моделей та аналіз придатності для блокчейну

З цього видно, що реалістичні цілі проектів Crypto AI на основі моделей переважно зосереджені на легкій налаштуванні малих SLM, інтеграції та верифікації даних на блокчейні за допомогою архітектури RAG, а також на локальному розгортанні та стимулюванні моделей Edge. Поєднуючи перевіряність блокчейну та токенну механіку, Crypto може надати унікальну цінність для цих сценаріїв з обмеженими ресурсами, сформувавши диференційовану цінність «інтерфейсного шару» AI.

Блокчейн AI ланцюг на основі даних і моделей може чітко та незмінно реєструвати джерела внесків кожної дані та моделі на ланцюгу, значно підвищуючи надійність даних та простежуваність навчання моделей. Одночасно, за допомогою механізму смарт-контрактів, під час виклику даних або моделей автоматично ініціюється розподіл винагород, перетворюючи AI дії на вимірювану, торгівельну токенізовану цінність, що створює стійку систему стимулювання. Крім того, користувачі спільноти також можуть оцінювати продуктивність моделей через голосування токенами, брати участь у розробці правил і їхній ітерації, вдосконалюючи децентралізовану архітектуру управління.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)

Два, огляд проекту | Візія AI-ланцюга OpenLedger

OpenLedger є одним із небагатьох блокчейн AI проектів на ринку, що зосереджується на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію «Payable AI», яка має на меті створення справедливого, прозорого та комбінованого середовища для роботи AI, стимулюючи постачальників даних, розробників моделей та творців AI додатків співпрацювати на одній платформі та отримувати доходи на ланцюзі відповідно до фактичного внеску.

OpenLedger надає повний ланцюг замкнутого циклу від «надання даних» до «розгортання моделей», а потім до «виклику розподілу прибутку», його основні модулі включають:

  • Модель Фабрика: без програмування можна використовувати LoRA для тонкої настройки, навчання та розгортання спеціалізованих моделей на базі відкритого LLM;
  • OpenLoRA: підтримує спільне існування тисячі моделей, динамічне завантаження за потребою, значно знижує витрати на розгортання;
  • PoA (Proof of Attribution): реалізація вимірювання внеску та розподілу винагороди через запис викликів в ланцюгу;
  • Datanets: структуровані мережі даних, спрямовані на вертикальні сценарії, які будуються та перевіряються спільнотою;
  • Платформа пропозицій моделей (Model Proposal Platform): комбінаційний, викликаємий, платіжний ринок моделей на базі блокчейну.

За допомогою вищезазначених модулів OpenLedger побудував «інфраструктуру економіки агентів», що базується на даних та є модульною, яка сприяє ланцюговій інтеграції ціннісного ланцюга ШІ.

А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу, забезпечуючи високопродуктивне, низькозатратне, перевірене середовище для роботи з даними та контрактами для моделей ШІ.

  • Побудовано на OP Stack: на базі технологічного стеку Optimism, що підтримує високу пропускну здатність та низькі витрати на виконання;
  • Розрахунок в основній мережі Ethereum: Забезпечте безпеку транзакцій та цілісність активів;
  • EVM сумісність: зручність для розробників швидко розгортати та розширювати на основі Solidity;
  • EigenDA забезпечує підтримку доступності даних: значно знижує витрати на зберігання, забезпечуючи перевірність даних.

У порівнянні з NEAR, яка більше орієнтована на базовий рівень, акцентуючи увагу на суверенітеті даних і архітектурі «AI Agents on BOS», OpenLedger більше зосереджена на створенні спеціалізованого блокчейну для AI, орієнтуючись на стимули для даних та моделей. Вона прагне забезпечити можливість простежування, комбінування та стійкого ціннісного циклу для розробки та виклику моделей на блокчейні. Це інфраструктура для стимулювання моделей у світі Web3, що поєднує в собі хостинг моделей у стилі HuggingFace, виставлення рахунків за використання в стилі Stripe та надає комбіновані інтерфейси на блокчейні в стилі Infura, сприяючи реалізації концепції «модель як актив».

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)

Три, основні компоненти та технологічна архітектура OpenLedger

3.1 Модельна фабрика, безкодова модельна фабрика

ModelFactory є великою платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків доопрацювання, ModelFactory надає чистий графічний інтерфейс для роботи, без необхідності в командному рядку або API інтеграції. Користувачі можуть доопрацьовувати моделі на основі наборів даних, які були авторизовані та перевірені на OpenLedger. Реалізовано інтегрований робочий процес для авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:

  • Контроль доступу до даних: Користувач подає запит на дані, постачальник перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
  • Вибір та налаштування моделі: підтримка основних LLM (таких як LLaMA, Mistral), налаштування гіперпараметрів через GUI.
  • Легке налаштування: вбудований двигун LoRA / QLoRA, що в реальному часі демонструє прогрес навчання.
  • Оцінка та розгортання моделей: вбудовані інструменти оцінки, підтримка експорту розгортання або екологічного спільного використання.
  • Інтерфейс взаємодії для перевірки: надає чат-інтерфейс, що полегшує безпосереднє тестування здатності моделі до запитань і відповідей.
  • Генерація RAG: Відповіді з посиланнями на джерела, що підвищують довіру та можливість аудиту.

Система архітектури Model Factory складається з шести основних модулів, які охоплюють ідентифікацію, управління даними, мікронастройку моделей, оцінку розгортання та RAG трасування, створюючи інтегровану платформу модельних послуг з безпечним контролем, реальним взаємодією та стійкою монетизацією.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)

Модельна фабрика наразі підтримує наступні можливості великих мовних моделей:

  • Серія LLaMA: має найширшу екосистему, активну спільноту та сильну універсальну продуктивність, є однією з найбільш популярних відкритих базових моделей на сьогодні.
  • Mistral: архітектура ефективна, продуктивність висока, підходить для гнучкого розгортання в умовах обмежених ресурсів.
  • Qwen: продукт Alibaba, демонструє відмінні результати в китайських завданнях, має високі комплексні здібності, підходить для вибору вітчизняними розробниками.
  • ChatGLM: виразний діалог китайською мовою, підходить для вертикальних служб підтримки та локалізованих сцен.
  • Deepseek: Відзначається перевагою в генерації коду та математичному міркуванні, підходить для інструментів підтримки інтелектуальної розробки.
  • Gemma: легка модель, випущена Google, з чіткою структурою, яка дозволяє швидко розпочати роботу та експериментувати.
  • Falcon: був еталоном продуктивності, підходить для базових досліджень або порівняльного тестування, але активність спільноти зменшилася.
  • BLOOM: Підтримка багатьох мов досить сильна, але продуктивність висновків слабка, підходить для досліджень з покриття мов.
  • GPT-2: класична рання модель, підходить лише для навчання та верифікації, не рекомендується для реального розгортання.

Хоча модельний набір OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не застаріла, а базується на реальних обмеженнях, пов'язаних з ончейн-розгортанням (витрати на виведення, адаптація RAG, сумісність LoRA, середовище EVM), що призводить до конфігурації з пріоритетом на практичність.

Model Factory як безкодова інструментальна лінія, всі моделі вбудовані з механізмом підтвердження внесків, що забезпечує права учасників даних та розробників моделей, має низький поріг входження, можливість монетизації та комбінації, у порівнянні з традиційними інструментами розробки моделей:

  • Для розробників: надає повний шлях для інкубації, розподілу та доходів моделей;
  • Для платформи: формування моделей обігу активів та комбінованої екосистеми;
  • Для користувачів: можна комбінувати моделі або агенти так само, як викликати API.

OpenLedger Глибина дослідження: на основі OP Stack + EigenDA побудувати економіку агентів, що керується даними та модельно-комбіновану

3.2 OpenLoRA, активізація ончейн-активів моделі налаштування

LoRA (Low-Rank Adaptation) є ефективним методом тонкого налаштування параметрів, який навчає нові завдання шляхом вставлення «низькорозмірних матриць» у попередньо навчений великий модель, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (як-от LLaMA, GPT-3) зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (таких як правові запитання, медичні консультації), потрібно провести тонке налаштування. Основна стратегія LoRA полягає в тому, що: «заморожують параметри оригінальної великої моделі, навчають лише вставлені нові матриці параметрів». Цей підхід є ефективним за параметрами, швидким у навчанні та гнучким у впровадженні, що робить його нині найкращим методом тонкого налаштування для впровадження та комбінування викликів моделей Web3.

OpenLoRA є легковаговою інфраструктурою для інференсу, створеною OpenLedger, яка спеціально розроблена для розгортання кількох моделей і спільного використання ресурсів. Її основна мета полягає в тому, щоб вирішити поширені проблеми, пов'язані з розгортанням AI моделей, такі як високі витрати, низька повторюваність, марнотратство ресурсів GPU тощо, сприяючи реалізації «платоспроможного AI» (Payable AI).

Основні компоненти архітектури системи OpenLoRA, основані на модульному дизайні, охоплюють такі ключові етапи, як зберігання моделей, виконання інференції, маршрутизація запитів та інші, забезпечуючи ефективні та маловитратні можливості для розгортання та виклику декількох моделей:

  • Модуль зберігання LoRA адаптерів (LoRA Adapters Storage): Налаштовані LoRA адаптери зберігаються на OpenLedger, що дозволяє завантажувати їх за потребою, уникати попереднього завантаження всіх моделей у відеопам'ять, економлячи ресурси.
  • Хостинг моделей та динамічне злиття
OP-4.28%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 6
  • Репост
  • Поділіться
Прокоментувати
0/400
NotAFinancialAdvicevip
· 3год тому
Знову обман для дурнів.
Переглянути оригіналвідповісти на0
rugpull_survivorvip
· 3год тому
Знову новий обдурювач невдах
Переглянути оригіналвідповісти на0
CompoundPersonalityvip
· 3год тому
Слухається проведіть власне дослідження (DYOR)
Переглянути оригіналвідповісти на0
AirdropATMvip
· 3год тому
Це ж просто залишки веб2.
Переглянути оригіналвідповісти на0
fren.ethvip
· 3год тому
Інтеграція Ethereum-слою? Дивимось на шоуing
Переглянути оригіналвідповісти на0
SilentObservervip
· 3год тому
Просто проект для слідування за трендами
Переглянути оригіналвідповісти на0
  • Закріпити