В эпоху, когда мировое сообщество соревнуется в создании лучших базовых моделей, вычислительная мощность и архитектура моделей, безусловно, важны, но настоящая защитная линия - это тренировочные данные. Наиболее примечательным событием в мире ИИ в этом месяце стало то, что Meta продемонстрировала свои возможности, собрав роскошную команду ИИ, состоящую в основном из китайских научных кадров. Руководит командой 28-летний Александр Ванг, который основал Scale AI. В настоящее время оценка Scale AI составляет 29 миллиардов долларов, и она предоставляет услуги по обработке данных многим крупным компаниям ИИ, включая армию США, OpenAI, Anthropic и Meta.
Причина, по которой Scale AI смогла выделиться среди множества единорогов, заключается в том, что она рано осознала важность данных в индустрии ИИ. Вычислительная мощность, модели и данные — это три основных столпа моделей ИИ. Если сравнить большую модель с человеком, то модель — это тело, вычислительная мощность — это еда, а данные — это знания и информация.
С быстрым развитием LLM внимание отрасли постепенно сместилось с моделей на вычислительную мощность, и в настоящее время большинство моделей уже утвердили трансформер в качестве основы. Крупнейшие компании либо строят свои суперкомпьютерные кластеры, либо подписывают долгосрочные контракты с поставщиками облачных услуг. После того как были решены основные потребности в вычислительной мощности, важность данных становится все более очевидной.
Scale AI не только занимается анализом существующих данных, но и обращает внимание на более долгосрочный бизнес по генерации данных. Компания пытается предоставить более качественные обучающие данные для AI-моделей с помощью команд人工专家 в различных областях.
Моделирование обучения делится на два этапа: предварительное обучение и тонкая настройка. Предварительное обучение похоже на процесс, когда ребенок учится говорить, и требует большого объема информации, собранной из текста, кода и других источников в Интернете. Тонкая настройка, в свою очередь, напоминает школьное образование и имеет четкие цели и направления. Соответственно, данные, необходимые для этих этапов, также делятся на две категории: одна категория - это обширные данные, которые не требуют значительной обработки, а другая - это данные, которые требуют тщательной разработки и отбора для развития специфических навыков модели.
С увеличением возможностей моделей различные более детализированные и профессиональные тренировочные данные станут ключевыми факторами, влияющими на способности модели. В долгосрочной перспективе данные AI также являются областью с эффектом снежного кома: с накоплением предварительных работ данные активы будут обладать способностью к сложным процентам, становясь все более ценными с возрастом.
Web3 DataFi: Идеальная почва для AI данных
В отличие от традиционных компаний по обработке данных, Web3 имеет естественные преимущества в области AI-данных, что привело к появлению новой концепции DataFi. Преимущества Web3 DataFi в основном проявляются в следующих аспектах:
Умные контракты обеспечивают суверенитет данных, безопасность и конфиденциальность
Распределенная архитектура привлекает наиболее подходящую рабочую силу со всего мира
Ясные механизмы стимулов и расчетов в блокчейне
Создание эффективного и открытого единого рынка данных
Для обычных пользователей DataFi является самым простым децентрализованным AI проектом для участия. Пользователям не требуется дорогое оборудование или профессиональный технический фон, достаточно выполнить простые задания, такие как предоставление данных, оценка выходных данных модели и т.д.
Потенциальные проекты Web3 DataFi
В настоящее время несколько проектов DataFi получили значительное финансирование и демонстрируют огромный потенциал:
Sahara AI: стремится создать децентрализованную инфраструктуру ИИ и торговую площадку
Yupp: Платформа обратной связи по моделям ИИ, пользователи могут оценивать качество вывода различных моделей
Vana: Превращение личных данных пользователей в цифровые активы, которые можно монетизировать
Chainbase: фокусируется на данных цепочки, охватывающих более 200 блокчейнов
Sapien: Превращение человеческих знаний в высококачественные данные для обучения ИИ
Prisma X: Открытый координационный уровень роботов, сосредоточенный на сборе физических данных
Masa: ведущий проект подсети экосистемы Bittensor, предоставляющий доступ к данным в реальном времени
Irys: сосредоточен на программируемом хранении данных и вычислениях
ORO: наделение обычных людей возможностью участвовать в AI-вкладе
Gata: децентрализованный уровень данных, предлагающий множество инструментов для сбора и обработки данных
Хотя в настоящее время барьеры для входа в эти проекты не высоки, преимущества платформы быстро сформируются с накоплением пользователей и экосистемной привязанности. На ранних этапах следует сосредоточиться на стимулирующих мерах и пользовательском опыте, чтобы привлечь достаточно пользователей. В то же время, командам проектов необходимо подумать о том, как управлять трудозатратами и обеспечивать качество данных, чтобы избежать ситуации, когда плохие деньги вытесняют хорошие.
Кроме того, повышение прозрачности и ускорение процесса децентрализации также являются важными вызовами, с которыми сталкиваются эти проекты. Массовое внедрение DataFi требует одновременного привлечения индивидуальных пользователей и крупных корпоративных клиентов для формирования полного экосистемного замкнутого цикла.
DataFi представляет собой процесс долгосрочного обучения машинного интеллекта человеческим интеллектом, одновременно обеспечивая доходы от человеческого труда через смарт-контракты. Для тех, кто полон ожиданий от эры ИИ и сохраняет идеалы блокчейна, участие в DataFi, безусловно, является разумным выбором, соответствующим тенденциям.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
4 Лайков
Награда
4
3
Репост
Поделиться
комментарий
0/400
GateUser-40edb63b
· 4ч назад
28 лет и 290 миллиардов. Если ты способен, не будь молодым.
Посмотреть ОригиналОтветить0
StablecoinEnjoyer
· 4ч назад
Данные - это король, и нам все еще нужны таланты из Азии.
Посмотреть ОригиналОтветить0
BearMarketHustler
· 4ч назад
данные - это жизненная сила ИИ, кто вообще играет с вычислительной мощностью?
Web3 DataFi: анализ новых возможностей и перспективных проектов в области AI-данных
Потенциал AI-данных и восхождение Web3 DataFi
В эпоху, когда мировое сообщество соревнуется в создании лучших базовых моделей, вычислительная мощность и архитектура моделей, безусловно, важны, но настоящая защитная линия - это тренировочные данные. Наиболее примечательным событием в мире ИИ в этом месяце стало то, что Meta продемонстрировала свои возможности, собрав роскошную команду ИИ, состоящую в основном из китайских научных кадров. Руководит командой 28-летний Александр Ванг, который основал Scale AI. В настоящее время оценка Scale AI составляет 29 миллиардов долларов, и она предоставляет услуги по обработке данных многим крупным компаниям ИИ, включая армию США, OpenAI, Anthropic и Meta.
Причина, по которой Scale AI смогла выделиться среди множества единорогов, заключается в том, что она рано осознала важность данных в индустрии ИИ. Вычислительная мощность, модели и данные — это три основных столпа моделей ИИ. Если сравнить большую модель с человеком, то модель — это тело, вычислительная мощность — это еда, а данные — это знания и информация.
С быстрым развитием LLM внимание отрасли постепенно сместилось с моделей на вычислительную мощность, и в настоящее время большинство моделей уже утвердили трансформер в качестве основы. Крупнейшие компании либо строят свои суперкомпьютерные кластеры, либо подписывают долгосрочные контракты с поставщиками облачных услуг. После того как были решены основные потребности в вычислительной мощности, важность данных становится все более очевидной.
Scale AI не только занимается анализом существующих данных, но и обращает внимание на более долгосрочный бизнес по генерации данных. Компания пытается предоставить более качественные обучающие данные для AI-моделей с помощью команд人工专家 в различных областях.
Моделирование обучения делится на два этапа: предварительное обучение и тонкая настройка. Предварительное обучение похоже на процесс, когда ребенок учится говорить, и требует большого объема информации, собранной из текста, кода и других источников в Интернете. Тонкая настройка, в свою очередь, напоминает школьное образование и имеет четкие цели и направления. Соответственно, данные, необходимые для этих этапов, также делятся на две категории: одна категория - это обширные данные, которые не требуют значительной обработки, а другая - это данные, которые требуют тщательной разработки и отбора для развития специфических навыков модели.
С увеличением возможностей моделей различные более детализированные и профессиональные тренировочные данные станут ключевыми факторами, влияющими на способности модели. В долгосрочной перспективе данные AI также являются областью с эффектом снежного кома: с накоплением предварительных работ данные активы будут обладать способностью к сложным процентам, становясь все более ценными с возрастом.
Web3 DataFi: Идеальная почва для AI данных
В отличие от традиционных компаний по обработке данных, Web3 имеет естественные преимущества в области AI-данных, что привело к появлению новой концепции DataFi. Преимущества Web3 DataFi в основном проявляются в следующих аспектах:
Для обычных пользователей DataFi является самым простым децентрализованным AI проектом для участия. Пользователям не требуется дорогое оборудование или профессиональный технический фон, достаточно выполнить простые задания, такие как предоставление данных, оценка выходных данных модели и т.д.
Потенциальные проекты Web3 DataFi
В настоящее время несколько проектов DataFi получили значительное финансирование и демонстрируют огромный потенциал:
Хотя в настоящее время барьеры для входа в эти проекты не высоки, преимущества платформы быстро сформируются с накоплением пользователей и экосистемной привязанности. На ранних этапах следует сосредоточиться на стимулирующих мерах и пользовательском опыте, чтобы привлечь достаточно пользователей. В то же время, командам проектов необходимо подумать о том, как управлять трудозатратами и обеспечивать качество данных, чтобы избежать ситуации, когда плохие деньги вытесняют хорошие.
Кроме того, повышение прозрачности и ускорение процесса децентрализации также являются важными вызовами, с которыми сталкиваются эти проекты. Массовое внедрение DataFi требует одновременного привлечения индивидуальных пользователей и крупных корпоративных клиентов для формирования полного экосистемного замкнутого цикла.
DataFi представляет собой процесс долгосрочного обучения машинного интеллекта человеческим интеллектом, одновременно обеспечивая доходы от человеческого труда через смарт-контракты. Для тех, кто полон ожиданий от эры ИИ и сохраняет идеалы блокчейна, участие в DataFi, безусловно, является разумным выбором, соответствующим тенденциям.