OpenLedger: побудова моделі економіки агентів, що комбінуються на основі даних

OpenLedger Глибина дослідження: на базі OP Stack+EigenDA створити економіку інтелектуальних агентів, керовану даними та модельно комбіновану

Один. Вступ | Модельний рівень Crypto AI.

Дані, моделі та обчислювальні потужності є трьома основними складовими інфраструктури AI, аналогічно паливу (дані), двигуну (моделі), енергії (обчислювальна потужність) - без них не обійтися. Подібно до еволюційного шляху інфраструктури традиційної індустрії AI, сфера Crypto AI також пройшла схожі етапи. На початку 2024 року ринок на деякий час був під впливом децентралізованих GPU проектів, які в основному підкреслювали логіку грубого зростання "змагання в обчислювальних потужностях". А з початком 2025 року увага галузі поступово перемістилася на рівень моделей та даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного для застосування середнього рівня.

Загальний великий модель (LLM) проти спеціалізованої моделі (SLM)

Традиційні великі мовні моделі (LLM) у своєму навчанні сильно залежать від масштабних наборів даних і складних розподілених архітектур, обсяг параметрів яких може коливатися від 70B до 500B, а вартість одного навчання часто досягає кількох мільйонів доларів. У той же час SLM (Спеціалізована мовна модель) є легким підходом до тонкої настройки з можливістю повторного використання базової моделі, яка зазвичай базується на відкритих моделях, поєднуючи невелику кількість високоякісних спеціалізованих даних та технології, такі як LoRA, для швидкого створення експертної моделі, що має знання у певній галузі, що суттєво знижує вартість навчання та технологічні бар'єри.

Слід зазначити, що SLM не буде інтегровано в ваги LLM, а буде співпрацювати з LLM через архітектуру Agent, динамічну маршрутизацію плагінів, гарячу заміну модулів LoRA, RAG (підсилене генерування за рахунок пошуку) тощо. Ця архітектура зберігає широку покритість LLM, водночас підвищуючи спеціалізовану продуктивність за рахунок модуля налаштування, формуючи високо гнучку комбіновану інтелектуальну систему.

Crypto AI вартість і межі на рівні моделі

Проекти Crypto AI за своєю суттю важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,

  • Технічний бар'єр надто високий: для навчання Foundation Model необхідні величезні обсяги даних, обчислювальні ресурси та інженерні можливості, які наразі є лише у таких технологічних гігантів, як США та Китай.
  • Обмеження відкритої екосистеми: хоча основні моделі, такі як LLaMA, Mixtral, вже є відкритими, справжній прорив моделей все ще зосереджений на наукових установах та закритих інженерних системах, а участь проектів на блокчейні на рівні основних моделей є обмеженою.

Проте, на основі відкритих моделей, проекти Crypto AI все ще можуть досягати розширення вартості шляхом тонкої настройки спеціалізованих мовних моделей (SLM) та комбінування з перевіряємістю та механізмами стимулювання Web3. Як «периферійний інтерфейсний шар» індустрії AI, це проявляється в двох основних напрямках:

  • Достовірний верифікаційний шар: через ончейн записи шляху генерації моделі, внесків даних та їх використання, підвищує відстежуваність та стійкість до підробок виходу AI.
  • Механізм стимулювання: За допомогою рідного токена, що використовується для стимулювання завантаження даних, виклику моделей, виконання агентами (Agent) та інших дій, створюється позитивний цикл навчання моделей та послуг.

Класифікація типів AI моделей та аналіз застосовності блокчейну

З цього видно, що можливі точки застосування моделей Crypto AI проектів в основному зосереджені на легкій настройці малих SLM, доступі та верифікації даних в RAG архітектурі на блокчейні, а також на локальному розгортанні та стимулюванні Edge моделей. Поєднуючи верифікацію блокчейну та токеноміку, Crypto може надати унікальну цінність для цих сценаріїв моделей із середніми та низькими ресурсами, формуючи диференційовану цінність «інтерфейсного шару» AI.

Блокчейн AI ланцюг на основі даних та моделей може чітко і незмінно фіксувати джерела внесків для кожної даної та моделі, значно підвищуючи надійність даних та відстежуваність навчання моделей. Водночас, завдяки механізму смарт-контрактів, автоматично запускається розподіл винагород, коли дані або моделі викликаються, перетворюючи поведінку AI на вимірювану, торгівельну токенізовану цінність, створюючи стійку систему стимулів. Крім того, користувачі спільноти також можуть оцінювати продуктивність моделей за допомогою голосування токенами, брати участь у розробці та ітерації правил, вдосконалюючи децентралізовану управлінську структуру.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)

Два, Огляд проекту | Візія AI-ланцюга OpenLedger

OpenLedger є одним із небагатьох блокчейн AI проектів на сучасному ринку, який зосереджений на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію «Payable AI», метою якої є створення справедливого, прозорого та комбінованого середовища для роботи AI, що стимулює співпрацю між постачальниками даних, розробниками моделей та будівельниками AI додатків на одній платформі, а також отримання ланцюгових доходів відповідно до фактичного внеску.

OpenLedger забезпечує повний ланцюговий замкнений цикл, що охоплює від «надання даних» до «розгортання моделей» і «виклику розподілу доходів», його основні модулі включають:

  • Модельна фабрика: без програмування можна використовувати LoRA для доопрацювання, навчання та розгортання налаштованих моделей на основі відкритих LLM;
  • OpenLoRA: підтримує спільне існування тисячі моделей, динамічне завантаження за потребою, значно знижує витрати на розгортання;
  • PoA (Доказ атрибуції): реалізація вимірювання внеску та розподілу винагороди через записи викликів у ланцюзі;
  • Datanets: структуровані мережі даних, орієнтовані на вертикальні сценарії, створені та верифіковані спільнотою;
  • Платформа пропозицій моделей (Model Proposal Platform): комбіноване, викликається, платіжне ринкове середовище моделей на блокчейні.

За допомогою вищезазначених модулів OpenLedger побудував «інфраструктуру економіки агентів», що керується даними та має комбіновані моделі, сприяючи онлайнізації ціннісного ланцюга AI.

А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу, щоб створити високо продуктивне, низькозатратне та перевіряється середовище для роботи з даними та контрактами для AI моделей.

  • Побудовано на OP Stack: на основі технологічного стеку Optimism, що підтримує високу пропускну здатність та низькі витрати на виконання;
  • Розрахунки в основній мережі Ethereum: забезпечте безпеку транзакцій та цілісність активів;
  • EVM сумісність: зручність для розробників швидко розгортати та розширювати на основі Solidity;
  • EigenDA надає підтримку доступності даних: значно знижує витрати на зберігання, забезпечуючи перевірність даних.

У порівнянні з такими більш основними, як NEAR, які орієнтуються на суверенітет даних та архітектуру «AI Agents on BOS», OpenLedger більше зосереджена на створенні спеціалізованих AI-ланцюгів, орієнтованих на дані та моделі. Вона прагне забезпечити розробку та виклик моделей в ланцюгу з можливістю відстеження, комбінування та сталого ціннісного замкнення. Це інфраструктура для стимулювання моделей у світі Web3, яка поєднує в собі хостинг моделей, облік використання та комбіновані інтерфейси на ланцюгу, сприяючи реалізації шляху «модель як актив».

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)

Три, основні компоненти та технологічна архітектура OpenLedger

3.1 Модельна фабрика, не потрібно кодувати модельну фабрику

ModelFactory є великою платформою для тонкого налаштування мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків тонкого налаштування, ModelFactory пропонує чисто графічний інтерфейс, без необхідності використовувати командний рядок або інтеграцію API. Користувачі можуть тонко налаштовувати моделі на основі наборів даних, які були авторизовані та перевірені в OpenLedger. Реалізовано інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, до якого входять основні етапи:

  • Контроль доступу до даних: Користувач подає запит на дані, постачальник перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
  • Вибір та налаштування моделі: підтримка основних LLM (таких як LLaMA, Mistral), налаштування гіперпараметрів через GUI.
  • Легка настройка: вбудований двигун LoRA / QLoRA, що показує прогрес навчання в реальному часі.
  • Оцінка та розгортання моделей: вбудовані інструменти оцінки, підтримка експорту для розгортання або екосистемного спільного виклику.
  • Інтерфейс взаємодії для перевірки: надає чат-інтерфейс, що полегшує пряме тестування здатності моделі до відповідей на запитання.
  • RAG генерація трасування: відповіді з посиланнями на джерела, підвищення довіри та можливості аудиту.

Система архітектури Model Factory містить шість основних модулів, які охоплюють ідентифікацію, права доступу до даних, тонке налаштування моделей, оцінку та впровадження, а також відстеження RAG, створюючи безпечну, контрольовану, інтерактивну в реальному часі та стійку платформу для надання моделей.

OpenLedger Глибина дослідження: на основі OP Stack+EigenDA побудувати економіку розумних агентів, керовану даними та модульну

Модельна фабрика наразі підтримує такі можливості великих мовних моделей:

  • LLaMA серія: найширша екосистема, активна спільнота, сильна загальна продуктивність, є однією з найбільш поширених відкритих базових моделей на сьогодні.
  • Mistral: архітектура ефективна, продуктивність виведення відмінна, підходить для гнучкого розгортання в умовах обмежених ресурсів.
  • Qwen: Виробництво Alibaba, показники виконання завдань китайською мовою відмінні, загальні можливості сильні, підходить для вітчизняних розробників як перший вибір.
  • ChatGLM: китайський діалоговий ефект виражений, підходить для вертикального обслуговування клієнтів та локалізованих сцен.
  • Deepseek: показує переваги в генерації коду та математичному міркуванні, підходить для інструментів допомоги в розумному розвитку.
  • Gemma: легка модель, випущена Google, з чіткою структурою, що дозволяє швидко освоїтися та експериментувати.
  • Falcon: Колись був еталоном продуктивності, підходить для базових досліджень або порівняльного тестування, але активність спільноти зменшилася.
  • BLOOM: Підтримка багатьох мов, але продуктивність висновків досить низька, підходить для досліджень, що охоплюють мови.
  • GPT-2: класична рання модель, придатна лише для навчальних та верифікаційних цілей, не рекомендується для фактичного розгортання.

Хоча комбінація моделей OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, її стратегія не є застарілою, а базується на реальних обмеженнях, пов'язаних з ончейн-розгортанням (вартість інференсу, адаптація RAG, сумісність LoRA, середовище EVM), що призвело до конфігурації з пріоритетом на практичність.

Model Factory як безкодова інструментальна лінія, всі моделі мають вбудований механізм підтвердження внесків, що забезпечує права учасників даних та розробників моделей, має низький бар'єр для входу, можливість монетизації та комбінованість, в порівнянні з традиційними інструментами розробки моделей:

  • Для розробників: забезпечити повний шлях до інкубації, розповсюдження та доходів моделі;
  • Для платформи: формування моделі обігу активів та комбінованої екосистеми;
  • Для користувачів: моделі або агенти можна комбінувати, як при виклику API.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA, активізація ончейнових активів моделі доопрацювання

LoRA (Low-Rank Adaptation) є ефективним методом тонкої налаштування параметрів, що дозволяє навчатися новим завданням шляхом вставки «низькорангова матриця» в попередньо навчений великий модель, не змінюючи параметри оригінальної моделі, що суттєво знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (наприклад, LLaMA, GPT-3) зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для специфічних завдань (наприклад, юридичне запитання, медичні консультації), потрібно провести тонке налаштування (fine-tuning). Основна стратегія LoRA полягає в наступному: «заморозити параметри оригінальної великої моделі, навчати лише вставлені нові параметричні матриці». Її параметри є ефективними, навчання швидким, а розгортання гнучким, що робить її найпідходящим поточним основним методом тонкого налаштування для розгортання та комбінації викликів Web3.

OpenLoRA є легковаговою інфраструктурою для інференсу, розробленою OpenLedger, яка спеціально призначена для розгортання декількох моделей та спільного використання ресурсів. Її основна мета полягає в тому, щоб вирішити поширені проблеми, пов'язані з розгортанням AI моделей, такі як висока вартість, низька повторюваність, витрати ресурсів GPU тощо, сприяючи реалізації «платоспроможного AI» (Payable AI).

Основні компоненти архітектури системи OpenLoRA, основані на модульному дизайні, охоплюють ключові етапи зберігання моделей, виконання висновків, маршрутизації запитів тощо, що забезпечує ефективні та низькі витрати на розгортання та виклик декількох моделей:

  • LoRA Adapter Сховище (LoRA Adapters Storage): Після налаштування LoRA адаптери зберігаються на OpenLedger, що дозволяє завантажувати їх за потребою, уникати попереднього завантаження всіх моделей в пам'ять, економлячи ресурси.
  • Модельне хостинг та динамічний шар злиття (Model Hosting & Adapter Merging Layer): всі моделі з налаштуваннями спільно використовують базову велику модель (base model), під час інференції
OP-3.96%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 7
  • Поділіться
Прокоментувати
0/400
airdrop_whisperervip
· 6год тому
Знову приходять на хайп ai...
Переглянути оригіналвідповісти на0
MondayYoloFridayCryvip
· 16год тому
Цей ринок так tm закрутився...
Переглянути оригіналвідповісти на0
MentalWealthHarvestervip
· 16год тому
Дороге невдахи дивитися на машину
Переглянути оригіналвідповісти на0
CantAffordPancakevip
· 16год тому
криптосвіт перший роздрібний інвестор у розгубленості!
Переглянути оригіналвідповісти на0
fren.ethvip
· 16год тому
Написав стільки, це просто спекуляція.
Переглянути оригіналвідповісти на0
SmartContractWorkervip
· 16год тому
Як не глянь, потрібно ще кілька років наполегливо працювати.
Переглянути оригіналвідповісти на0
Blockblindvip
· 16год тому
Пізніше чи раніше обчислювальна потужність зникне.
Переглянути оригіналвідповісти на0
  • Закріпити