A Interseção entre IA e DePIN: A Ascensão das Redes de Computação Distribuída
Desde 2023, a IA e o DePIN tornaram-se tendências populares no campo do Web3, com um valor de mercado de 30 mil milhões de dólares e 23 mil milhões de dólares, respetivamente. Este artigo foca na interseção entre os dois, explorando o desenvolvimento dos protocolos relacionados.
Na pilha de tecnologia de IA, a rede DePIN oferece utilidade para a IA por meio de recursos de computação. O desenvolvimento de grandes empresas de tecnologia levou à escassez de GPU, dificultando que outros desenvolvedores consigam GPUs suficientes para computação. Isso geralmente leva os desenvolvedores a escolher provedores de nuvem centralizados, mas devido a contratos de hardware de longo prazo que não são suficientemente flexíveis, a eficiência é baixa.
DePIN oferece uma alternativa mais flexível e económica, incentivando a contribuição de recursos através de recompensas em tokens. O DePIN na área da IA está a fazer a crowdsourcing de recursos de GPU de proprietários individuais para centros de dados, proporcionando um suprimento unificado para usuários que necessitam de acesso a hardware. Isso não só oferece aos desenvolvedores acesso personalizado e sob demanda, mas também gera uma renda extra para os proprietários de GPU.
Existem muitas redes AI DePIN no mercado, este artigo irá explorar o papel, os objetivos e as conquistas de cada protocolo, a fim de entender as diferenças entre eles.
Visão Geral da Rede DePIN de IA
Render é um pioneiro na rede P2P que fornece capacidade de computação GPU, inicialmente focado em renderização de criação de conteúdo, e depois expandiu para tarefas de computação AI.
Pontos principais:
Fundada pela empresa de gráficos em nuvem OTOY
A rede GPU é utilizada por grandes empresas da indústria do entretenimento
Colaborar com a Stability AI e integrar modelos de IA com fluxos de trabalho de renderização 3D
Aprovar múltiplos clientes de computação, integrar mais GPUs da rede DePIN
Akash é posicionado como uma alternativa "super cloud" que suporta armazenamento, computação GPU e CPU. Com ferramentas amigáveis para desenvolvedores, como nós de computação geridos por plataformas de contêiner e Kubernetes, é possível implantar software de forma contínua em diferentes ambientes.
Pontos principais:
Tarefas de computação abrangentes, desde computação geral até hospedagem na web
AkashML permite que redes GPU executem mais de 15.000 modelos na Hugging Face
Aplicações como chatbots do modelo LLM da Mistral AI.
Construir plataformas como o metaverso, implantação de IA, etc., utilizando o Supercloud
io.net fornece acesso a clusters de nuvem GPU distribuídos, especialmente para casos de uso de AI e ML. Agrega GPUs de data centers, mineiros de criptomoedas e outros setores.
Pontos principais:
IO-SDK é compatível com estruturas como PyTorch, a arquitetura em múltiplas camadas pode ser expandida dinamicamente
Suporta a criação de 3 tipos diferentes de clusters, inicia em 2 minutos
Colaborar com Render, Filecoin e outros para integrar recursos de GPU
Gensyn oferece capacidades de GPU focadas em computação de aprendizado de máquina e aprendizado profundo. Afirma implementar mecanismos de validação mais eficientes através de conceitos como prova de aprendizagem.
Pontos principais:
O custo por hora de uma GPU equivalente a V100 é de aproximadamente 0,40 dólares, o que representa uma grande economia.
Pode ajustar o modelo básico pré-treinado para concluir tarefas específicas.
Fornecer um modelo base descentralizado e de propriedade global
Aethir é projetado especificamente para GPUs empresariais, focando em áreas de computação intensiva como IA, ML e jogos na nuvem. Os contêineres na rede atuam como pontos de extremidade virtuais para executar aplicações em nuvem, proporcionando uma experiência de baixa latência.
Ponto chave:
Expandir para serviços de smartphone na nuvem, em colaboração com a APhone, lançando smartphones inteligentes descentralizados na nuvem.
Estabelecer uma ampla colaboração com grandes empresas do Web2, como a NVIDIA
Colaboração com projetos Web3 como CARV, Magic Eden
Phala Network atua como a camada de execução para soluções de IA Web3. Sua blockchain é uma solução de computação em nuvem sem necessidade de confiança, projetada para lidar com questões de privacidade através de um ambiente de execução confiável (TEE).
Pontos principais:
Servir como um protocolo de coprocessador de computação verificável, permitindo que agentes de IA acessem recursos na cadeia.
Os contratos de代理 AI podem ser obtidos através da Redpill com os principais modelos de linguagem como o OpenAI.
O futuro incluirá sistemas de provas múltiplas como zk-proofs, MPC, FHE, entre outros.
Suporte futuro para GPU TEE como H100, aumentando a capacidade de cálculo
Comparação de Projetos
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|------------|------------------|---------------------|--------|--------------|---------|
| Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Foco de Negócios | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | IA, Jogos em Nuvem e Telecomunicações | Execução de IA na Cadeia |
| Tipo de tarefa de IA | Inferência | Treinamento e inferência | Treinamento e inferência | Treinamento | Treinamento | Execução |
| Preços de Trabalho | Preço baseado em desempenho | Leilão reverso | Preço de mercado | Preço de mercado | Sistema de licitação | Cálculo de direitos |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot|
| Privacidade de Dados | Criptografia e Hashing | Autenticação mTLS | Criptografia de Dados | Mapeamento Seguro | Criptografia | TEE |
| Custos de trabalho | 0,5-5%/trabalho | 20% USDC, 4% AKT| 2% USDC, 0,25% reserva | Baixos custos | 20%/sessão | Proporcional ao staking|
| Segurança | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia Intermediária |
| Prova de conclusão | - | - | Prova de bloqueio de tempo | Prova de aprendizado | Prova de trabalho de renderização | Prova de TEE |
| Garantia de Qualidade | Controvérsia | - | - | Verificação e Denúncia | Verificar Nó | Prova Remota |
| GPU Cluster | Não | Sim | Sim | Sim | Sim | Não |
Importância
Disponibilidade de cluster e computação paralela
O framework de computação distribuída implementa clusters de GPU, melhorando a eficiência de treinamento e a escalabilidade. Treinar modelos de IA complexos requer uma poderosa capacidade de computação, geralmente dependente da computação distribuída. Por exemplo, o modelo GPT-4 da OpenAI possui mais de 1,8 trilhão de parâmetros, levando de 3 a 4 meses e utilizando cerca de 25.000 GPUs Nvidia A100.
A maioria dos projetos agora integrou clusters para realizar computação paralela. A io.net, em colaboração com outros projetos, já implementou mais de 3.800 clusters no Q1. Embora o Render não suporte clusters, ele decompõe uma única frame para ser processada em múltiplos nós simultaneamente. O Phala suporta a clusterização de trabalhadores CPU.
A estrutura de cluster é muito importante para a rede de fluxo de trabalho de IA, mas a quantidade e o tipo de GPUs de cluster que atendem às necessidades dos desenvolvedores é outra questão.
Privacidade de dados
O desenvolvimento de modelos de IA requer grandes conjuntos de dados, que podem envolver informações sensíveis. A Samsung desativou o ChatGPT devido a preocupações com a privacidade, e a violação de dados de 38TB da Microsoft destaca ainda mais a importância da segurança da IA. Diversos métodos de privacidade de dados são cruciais para restituir os direitos dos provedores de dados.
A maioria dos projetos utiliza algum tipo de criptografia de dados para proteger a privacidade. Render utiliza criptografia e hashing, io.net e Gensyn adotam criptografia de dados, Akash utiliza autenticação mTLS.
A io.net, em colaboração com a Mind Network, lançou a criptografia homomórfica total (FHE), permitindo o processamento de dados criptografados sem a necessidade de os descriptografar. Isso protege melhor a privacidade do que as tecnologias de criptografia existentes.
A Phala Network introduz um ambiente de execução confiável (TEE), para evitar acessos ou modificações externas aos dados. Também combina zk-proofs para a integração do RiscZero zkVM.
Prova de conclusão de cálculo e inspeção de qualidade
Devido à ampla gama de serviços, a qualidade final pode não corresponder aos padrões do usuário. A conclusão da prova indica que a GPU foi realmente utilizada para o serviço requerido, e a verificação da qualidade é benéfica para o usuário.
A Gensyn e a Aethir geraram provas de conclusão, a io.net prova que o desempenho da GPU está totalmente aproveitado sem problemas. A Gensyn e a Aethir realizam verificações de qualidade. A Gensyn reexecuta parte das provas usando validadores, e os denunciantes verificam novamente. A Aethir usa pontos de verificação para avaliar a qualidade do serviço, penalizando serviços que não atendem aos padrões. A Render sugere um processo de resolução de disputas, e o comitê de revisão pode cortar nós problemáticos. A Phala gera provas de TEE, garantindo que os agentes de IA realizem operações na cadeia.
O treinamento de modelos de IA requer GPUs de topo como a Nvidia A100 e H100. O desempenho de inferência do H100 é 4 vezes superior ao do A100, tornando-se a escolha preferida, especialmente para grandes empresas.
O mercado descentralizado de GPU deve competir com o Web2, não apenas oferecendo preços baixos, mas também atendendo às necessidades reais. Em 2023, a Nvidia entregou 500 mil unidades do H100 a grandes empresas de tecnologia, com custos de hardware equivalentes elevados. É importante considerar a quantidade de hardware que esses projetos podem introduzir a baixo custo.
Os diferentes projetos oferecem capacidades computacionais distintas. O Akash tem apenas mais de 150 H100 e A100, enquanto o io.net e o Aethir têm mais de 2000 cada. Os LLM pré-treinados normalmente requerem clusters de GPU que variam de 248 a mais de 2000, sendo os dois últimos projetos mais adequados para cálculos de grandes modelos.
Atualmente, o custo dos serviços de GPU descentralizados está muito abaixo dos serviços centralizados. Gensyn e Aethir afirmam que o hardware de nível A100 custa menos de 1 dólar por hora, mas ainda é necessário tempo para verificar.
Embora a conexão em rede de um cluster de GPU tenha muitas GPUs e baixo custo, a memória é limitada em comparação com a conexão NVLink entre GPUs. O NVLink suporta comunicação direta entre GPUs, sendo adequado para LLM com muitos parâmetros e grandes conjuntos de dados.
Apesar disso, a rede GPU descentralizada ainda oferece uma poderosa capacidade de computação e escalabilidade para usuários que precisam de flexibilidade ou têm demandas de carga de trabalho dinâmicas, criando oportunidades para construir mais casos de uso de IA.
fornece GPU/CPU de consumo
A CPU é também muito importante no treinamento de modelos de IA, sendo utilizada para o pré-processamento de dados até a gestão de memória. GPUs de consumo podem ser usadas para ajustar modelos pré-treinados ou para treinamentos em pequena escala.
Considerando que mais de 85% dos consumidores têm GPUs ociosas, projetos como Render, Akash e io.net também atendem a essa parte do mercado. Isso permite que se concentrem em computação intensiva em larga escala, renderização de pequeno porte ou uma mistura de ambos.
Conclusão
O campo DePIN de IA ainda é relativamente novo e enfrenta desafios. Por exemplo, a io.net foi acusada de falsificar o número de GPUs, mas isso foi resolvido através da prova de trabalho.
Apesar disso, o número de tarefas executadas e de hardware na rede aumentou significativamente, destacando o crescimento da demanda por alternativas aos provedores de nuvem Web2. Ao mesmo tempo, o aumento do número de fornecedores de hardware mostra que a oferta não foi suficientemente aproveitada antes. Isso prova a adequação do produto do AI DePIN à demanda do mercado, resolvendo efetivamente os desafios de demanda e oferta.
Olhando para o futuro, a IA tem potencial para se tornar um mercado de trilhões de dólares em crescimento, e essas redes de GPU descentralizadas desempenharão um papel crucial em oferecer alternativas de computação econômicas para os desenvolvedores. Ao continuar a fechar a lacuna entre demanda e oferta, essas redes contribuirão significativamente para o futuro da IA e da infraestrutura de computação.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
11 Curtidas
Recompensa
11
4
Compartilhar
Comentário
0/400
DecentralizeMe
· 07-24 18:34
O que é depin é pior do que fazer um projeto poi.
Ver originalResponder0
ContractCollector
· 07-24 18:33
Descentralização é o caminho a seguir!
Ver originalResponder0
CoffeeNFTs
· 07-24 18:10
Antes a Amazon, agora o GPT. Quem entende este grande jogo de GPUs?
Rede DePIN de IA: Computação distribuída de GPU para impulsionar o desenvolvimento da IA
A Interseção entre IA e DePIN: A Ascensão das Redes de Computação Distribuída
Desde 2023, a IA e o DePIN tornaram-se tendências populares no campo do Web3, com um valor de mercado de 30 mil milhões de dólares e 23 mil milhões de dólares, respetivamente. Este artigo foca na interseção entre os dois, explorando o desenvolvimento dos protocolos relacionados.
Na pilha de tecnologia de IA, a rede DePIN oferece utilidade para a IA por meio de recursos de computação. O desenvolvimento de grandes empresas de tecnologia levou à escassez de GPU, dificultando que outros desenvolvedores consigam GPUs suficientes para computação. Isso geralmente leva os desenvolvedores a escolher provedores de nuvem centralizados, mas devido a contratos de hardware de longo prazo que não são suficientemente flexíveis, a eficiência é baixa.
DePIN oferece uma alternativa mais flexível e económica, incentivando a contribuição de recursos através de recompensas em tokens. O DePIN na área da IA está a fazer a crowdsourcing de recursos de GPU de proprietários individuais para centros de dados, proporcionando um suprimento unificado para usuários que necessitam de acesso a hardware. Isso não só oferece aos desenvolvedores acesso personalizado e sob demanda, mas também gera uma renda extra para os proprietários de GPU.
Existem muitas redes AI DePIN no mercado, este artigo irá explorar o papel, os objetivos e as conquistas de cada protocolo, a fim de entender as diferenças entre eles.
Visão Geral da Rede DePIN de IA
Render é um pioneiro na rede P2P que fornece capacidade de computação GPU, inicialmente focado em renderização de criação de conteúdo, e depois expandiu para tarefas de computação AI.
Pontos principais:
Akash é posicionado como uma alternativa "super cloud" que suporta armazenamento, computação GPU e CPU. Com ferramentas amigáveis para desenvolvedores, como nós de computação geridos por plataformas de contêiner e Kubernetes, é possível implantar software de forma contínua em diferentes ambientes.
Pontos principais:
io.net fornece acesso a clusters de nuvem GPU distribuídos, especialmente para casos de uso de AI e ML. Agrega GPUs de data centers, mineiros de criptomoedas e outros setores.
Pontos principais:
Gensyn oferece capacidades de GPU focadas em computação de aprendizado de máquina e aprendizado profundo. Afirma implementar mecanismos de validação mais eficientes através de conceitos como prova de aprendizagem.
Pontos principais:
Aethir é projetado especificamente para GPUs empresariais, focando em áreas de computação intensiva como IA, ML e jogos na nuvem. Os contêineres na rede atuam como pontos de extremidade virtuais para executar aplicações em nuvem, proporcionando uma experiência de baixa latência.
Ponto chave:
Phala Network atua como a camada de execução para soluções de IA Web3. Sua blockchain é uma solução de computação em nuvem sem necessidade de confiança, projetada para lidar com questões de privacidade através de um ambiente de execução confiável (TEE).
Pontos principais:
Comparação de Projetos
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|------------|------------------|---------------------|--------|--------------|---------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Foco de Negócios | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | IA, Jogos em Nuvem e Telecomunicações | Execução de IA na Cadeia | | Tipo de tarefa de IA | Inferência | Treinamento e inferência | Treinamento e inferência | Treinamento | Treinamento | Execução | | Preços de Trabalho | Preço baseado em desempenho | Leilão reverso | Preço de mercado | Preço de mercado | Sistema de licitação | Cálculo de direitos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot| | Privacidade de Dados | Criptografia e Hashing | Autenticação mTLS | Criptografia de Dados | Mapeamento Seguro | Criptografia | TEE | | Custos de trabalho | 0,5-5%/trabalho | 20% USDC, 4% AKT| 2% USDC, 0,25% reserva | Baixos custos | 20%/sessão | Proporcional ao staking| | Segurança | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia Intermediária | | Prova de conclusão | - | - | Prova de bloqueio de tempo | Prova de aprendizado | Prova de trabalho de renderização | Prova de TEE | | Garantia de Qualidade | Controvérsia | - | - | Verificação e Denúncia | Verificar Nó | Prova Remota | | GPU Cluster | Não | Sim | Sim | Sim | Sim | Não |
Importância
Disponibilidade de cluster e computação paralela
O framework de computação distribuída implementa clusters de GPU, melhorando a eficiência de treinamento e a escalabilidade. Treinar modelos de IA complexos requer uma poderosa capacidade de computação, geralmente dependente da computação distribuída. Por exemplo, o modelo GPT-4 da OpenAI possui mais de 1,8 trilhão de parâmetros, levando de 3 a 4 meses e utilizando cerca de 25.000 GPUs Nvidia A100.
A maioria dos projetos agora integrou clusters para realizar computação paralela. A io.net, em colaboração com outros projetos, já implementou mais de 3.800 clusters no Q1. Embora o Render não suporte clusters, ele decompõe uma única frame para ser processada em múltiplos nós simultaneamente. O Phala suporta a clusterização de trabalhadores CPU.
A estrutura de cluster é muito importante para a rede de fluxo de trabalho de IA, mas a quantidade e o tipo de GPUs de cluster que atendem às necessidades dos desenvolvedores é outra questão.
Privacidade de dados
O desenvolvimento de modelos de IA requer grandes conjuntos de dados, que podem envolver informações sensíveis. A Samsung desativou o ChatGPT devido a preocupações com a privacidade, e a violação de dados de 38TB da Microsoft destaca ainda mais a importância da segurança da IA. Diversos métodos de privacidade de dados são cruciais para restituir os direitos dos provedores de dados.
A maioria dos projetos utiliza algum tipo de criptografia de dados para proteger a privacidade. Render utiliza criptografia e hashing, io.net e Gensyn adotam criptografia de dados, Akash utiliza autenticação mTLS.
A io.net, em colaboração com a Mind Network, lançou a criptografia homomórfica total (FHE), permitindo o processamento de dados criptografados sem a necessidade de os descriptografar. Isso protege melhor a privacidade do que as tecnologias de criptografia existentes.
A Phala Network introduz um ambiente de execução confiável (TEE), para evitar acessos ou modificações externas aos dados. Também combina zk-proofs para a integração do RiscZero zkVM.
Prova de conclusão de cálculo e inspeção de qualidade
Devido à ampla gama de serviços, a qualidade final pode não corresponder aos padrões do usuário. A conclusão da prova indica que a GPU foi realmente utilizada para o serviço requerido, e a verificação da qualidade é benéfica para o usuário.
A Gensyn e a Aethir geraram provas de conclusão, a io.net prova que o desempenho da GPU está totalmente aproveitado sem problemas. A Gensyn e a Aethir realizam verificações de qualidade. A Gensyn reexecuta parte das provas usando validadores, e os denunciantes verificam novamente. A Aethir usa pontos de verificação para avaliar a qualidade do serviço, penalizando serviços que não atendem aos padrões. A Render sugere um processo de resolução de disputas, e o comitê de revisão pode cortar nós problemáticos. A Phala gera provas de TEE, garantindo que os agentes de IA realizem operações na cadeia.
Dados Estatísticos de Hardware
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Número de GPUs | 5600 | 384 | 38177 | - | 40000+ | - | | Número de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100 quantidade| - | 157 | 2330 | - | 2000+ | - | | Custo H100/hora | - | $1.46 | $1.19 | - | - | - | | Custo A100/hora | - | $1.37 | $1.50 | $0.55 ( previsto ) | $0.33 ( previsto ) | - |
Requisitos de GPU de alto desempenho
O treinamento de modelos de IA requer GPUs de topo como a Nvidia A100 e H100. O desempenho de inferência do H100 é 4 vezes superior ao do A100, tornando-se a escolha preferida, especialmente para grandes empresas.
O mercado descentralizado de GPU deve competir com o Web2, não apenas oferecendo preços baixos, mas também atendendo às necessidades reais. Em 2023, a Nvidia entregou 500 mil unidades do H100 a grandes empresas de tecnologia, com custos de hardware equivalentes elevados. É importante considerar a quantidade de hardware que esses projetos podem introduzir a baixo custo.
Os diferentes projetos oferecem capacidades computacionais distintas. O Akash tem apenas mais de 150 H100 e A100, enquanto o io.net e o Aethir têm mais de 2000 cada. Os LLM pré-treinados normalmente requerem clusters de GPU que variam de 248 a mais de 2000, sendo os dois últimos projetos mais adequados para cálculos de grandes modelos.
Atualmente, o custo dos serviços de GPU descentralizados está muito abaixo dos serviços centralizados. Gensyn e Aethir afirmam que o hardware de nível A100 custa menos de 1 dólar por hora, mas ainda é necessário tempo para verificar.
Embora a conexão em rede de um cluster de GPU tenha muitas GPUs e baixo custo, a memória é limitada em comparação com a conexão NVLink entre GPUs. O NVLink suporta comunicação direta entre GPUs, sendo adequado para LLM com muitos parâmetros e grandes conjuntos de dados.
Apesar disso, a rede GPU descentralizada ainda oferece uma poderosa capacidade de computação e escalabilidade para usuários que precisam de flexibilidade ou têm demandas de carga de trabalho dinâmicas, criando oportunidades para construir mais casos de uso de IA.
fornece GPU/CPU de consumo
A CPU é também muito importante no treinamento de modelos de IA, sendo utilizada para o pré-processamento de dados até a gestão de memória. GPUs de consumo podem ser usadas para ajustar modelos pré-treinados ou para treinamentos em pequena escala.
Considerando que mais de 85% dos consumidores têm GPUs ociosas, projetos como Render, Akash e io.net também atendem a essa parte do mercado. Isso permite que se concentrem em computação intensiva em larga escala, renderização de pequeno porte ou uma mistura de ambos.
Conclusão
O campo DePIN de IA ainda é relativamente novo e enfrenta desafios. Por exemplo, a io.net foi acusada de falsificar o número de GPUs, mas isso foi resolvido através da prova de trabalho.
Apesar disso, o número de tarefas executadas e de hardware na rede aumentou significativamente, destacando o crescimento da demanda por alternativas aos provedores de nuvem Web2. Ao mesmo tempo, o aumento do número de fornecedores de hardware mostra que a oferta não foi suficientemente aproveitada antes. Isso prova a adequação do produto do AI DePIN à demanda do mercado, resolvendo efetivamente os desafios de demanda e oferta.
Olhando para o futuro, a IA tem potencial para se tornar um mercado de trilhões de dólares em crescimento, e essas redes de GPU descentralizadas desempenharão um papel crucial em oferecer alternativas de computação econômicas para os desenvolvedores. Ao continuar a fechar a lacuna entre demanda e oferta, essas redes contribuirão significativamente para o futuro da IA e da infraestrutura de computação.