A interseção da IA e DePIN: a ascensão das redes GPU descentralizadas
Desde 2023, AI e DePIN têm sido tópicos populares no campo do Web3, com um valor de mercado de 30 mil milhões de dólares e 23 mil milhões de dólares, respetivamente. Este artigo irá explorar a interseção entre os dois e investigar o desenvolvimento dos protocolos nesta área.
Na pilha de tecnologia de AI, a rede DePIN oferece utilidade à AI através de recursos computacionais. O desenvolvimento de grandes empresas de tecnologia resultou em uma escassez de GPUs, fazendo com que outros desenvolvedores não tenham GPUs suficientes para computação. Isso geralmente leva os desenvolvedores a escolher prestadores de serviços de nuvem centralizados, mas a necessidade de assinar contratos de hardware de alto desempenho de longo prazo e inflexíveis resulta em ineficiência.
DePIN oferece essencialmente uma alternativa mais flexível e econômica, utilizando recompensas em tokens para incentivar a contribuição de recursos que atendem aos objetivos da rede. O DePIN no campo da IA terceiriza recursos de GPU de proprietários individuais para centros de dados, formando uma oferta unificada para usuários que precisam acessar hardware. Essas redes DePIN não apenas oferecem personalização e acesso sob demanda para desenvolvedores que precisam de capacidade de computação, mas também proporcionam receita adicional para os proprietários de GPU.
Visão geral da rede DePIN AI
Render é o pioneiro de uma rede P2P que oferece capacidade de computação GPU, anteriormente focado em renderizar gráficos para criação de conteúdo, e depois expandiu seu escopo para incluir tarefas de computação de IA que vão desde campos de reflexão neural (NeRF) até IA generativa.
Aspecto interessante:
Fundada pela empresa de gráficos em nuvem OTOY, que possui tecnologia premiada com o Oscar.
A rede GPU foi utilizada por grandes empresas da indústria do entretenimento, como a Paramount Pictures, PUBG e Star Trek.
Colaborar com a Stability AI e a Endeavor, integrando os seus modelos de IA com o fluxo de trabalho de renderização de conteúdo 3D utilizando os GPUs da Render.
Aprovar múltiplos clientes de computação, integrando mais GPUs da rede DePIN
Akash posiciona-se como uma alternativa de "super nuvem" aos tradicionais plataformas que suportam armazenamento, computação GPU e CPU. Com ferramentas amigáveis para desenvolvedores, como a plataforma de contêiner Akash e nós de computação geridos pelo Kubernetes, é capaz de implantar software de forma fluida em diferentes ambientes, permitindo assim a execução de qualquer aplicação nativa da nuvem.
Ponto interessante:
Para uma ampla gama de tarefas computacionais, desde computação genérica até hospedagem de redes.
AkashML permite que sua rede de GPU execute mais de 15.000 modelos no Hugging Face, ao mesmo tempo que se integra ao Hugging Face.
O Akash hospeda algumas aplicações notáveis, como o chatbot do modelo LLM da Mistral AI, o modelo de texto para imagem SDXL da Stability AI, e o novo modelo base AT-1 da Thumper AI.
A construção de plataformas para o metaverso, implantação de inteligência artificial e aprendizagem federada está a utilizar a Supercloud
io.net oferece acesso a clusters de GPU em nuvem distribuídos, que são especialmente dedicados a casos de uso de IA e ML. Ele agrega GPUs de centros de dados, mineradores de criptomoedas e outras redes descentralizadas. A empresa era anteriormente uma empresa de negociação quantitativa, e após um grande aumento nos preços de GPUs de alto desempenho, a empresa mudou para o negócio atual.
Ponto interessante:
O seu IO-SDK é compatível com frameworks como PyTorch e Tensorflow, e a sua arquitetura em várias camadas pode ser automaticamente expandida de forma dinâmica com base nas necessidades de cálculo.
Suporta a criação de 3 tipos diferentes de clusters, podendo ser iniciados em 2 minutos.
Esforços de colaboração robustos para integrar GPUs de outras redes DePIN, incluindo Render, Filecoin, Aethir e Exabits
Gensyn oferece capacidade de computação GPU focada em aprendizado de máquina e aprendizado profundo. Alega que, em comparação com métodos existentes, alcançou um mecanismo de validação mais eficiente ao combinar conceitos como provas de trabalho de aprendizado para validação, protocolos de localização gráfica baseados em precisão para reexecução de trabalhos de validação e jogos de incentivo do tipo Truebit envolvendo fornecedores de computação com staking e redução.
Ponto interessante:
O custo por hora estimado de um GPU equivalente a V100 é de aproximadamente 0,40 dólares/hora, o que resulta em uma grande economia de custos.
Através da prova de empilhamento, é possível ajustar o modelo base pré-treinado para realizar tarefas mais específicas.
Estes modelos básicos serão descentralizados, de propriedade global, além de fornecer funcionalidades adicionais além da rede de computação em hardware.
Aethir é projetado para ser equipado com GPUs empresariais, focando em áreas de computação intensiva, principalmente inteligência artificial, aprendizado de máquina (ML), jogos em nuvem, entre outros. Os contêineres na sua rede atuam como pontos finais virtuais para a execução de aplicações baseadas em nuvem, transferindo a carga de trabalho dos dispositivos locais para os contêineres, a fim de proporcionar uma experiência de baixa latência. Para garantir um serviço de qualidade aos usuários, eles movem as GPUs mais perto das fontes de dados com base na demanda e na localização, ajustando assim os recursos.
Ponto interessante:
Além da inteligência artificial e dos jogos em nuvem, a Aethir também se expandiu para serviços de smartphone em nuvem e lançou um smartphone inteligente em nuvem descentralizado em parceria com a APhone.
Estabeleceu uma ampla parceria com grandes empresas do Web2, como NVIDIA, Super Micro, HPE, Foxconn e Well Link.
Vários parceiros no Web3, como CARV, Magic Eden, Sequence, Impossible Finance, etc.
Phala Network atua como a camada de execução para soluções de IA Web3. Sua blockchain é uma solução de computação em nuvem sem necessidade de confiança, projetada para lidar com questões de privacidade através do uso de seu ambiente de execução confiável (TEE). Sua camada de execução não é utilizada como a camada de computação para modelos de IA, mas sim para permitir que agentes de IA sejam controlados por contratos inteligentes na blockchain.
Pontos interessantes:
Actuar como protocolo de coprocessador para cálculos verificáveis, ao mesmo tempo que permite que agentes de IA acedam a recursos na blockchain.
O seu contrato de agente de inteligência artificial pode aceder a modelos de linguagem de grande escala de topo, como OpenAI, Llama, Claude e Hugging Face, através da Redpill.
O futuro incluirá zk-proofs, computação multipartidária (MPC), e criptografia homomórfica completa (FHE), entre outros sistemas de prova múltipla.
Futuramente suportar H100 e outras GPUs TEE, aumentando a capacidade de computação
comparação de projetos
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Foco de Negócios | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | Inteligência Artificial, Jogos em Nuvem e Telecomunicações | Execução de IA em Cadeia |
| Tipo de Tarefa de IA | Inferência | Ambos | Ambos | Treinamento | Treinamento | Execução |
| Preço do Trabalho | Preço baseado no Desempenho | Leilão Reverso | Preço de Mercado | Preço de Mercado | Sistema de Licitação | Cálculo de Direitos |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Privacidade de Dados | Criptografia&Hash | Autenticação mTLS | Criptografia de Dados | Mapeamento Seguro | Criptografia | TEE |
| Custos de Trabalho | 0,5-5% por trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% taxa de reserva | Taxas baixas | 20% por sessão | Proporcional ao montante em staking |
| Segurança | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia Intermediária |
| Prova de Conclusão | - | - | Prova de Bloqueio de Tempo | Prova de Aprendizagem | Prova de Trabalho de Renderização | Prova TEE |
| Garantia de Qualidade | Controvérsia | - | - | Verificador e Denunciante | Nó do Verificador | Prova Remota |
| GPU Cluster | Não | Sim | Sim | Sim | Sim | Não |
Importância
Disponibilidade de clusters e computação paralela
A estrutura de computação distribuída implementou um cluster de GPU, proporcionando um treinamento mais eficiente sem afetar a precisão do modelo, ao mesmo tempo que aumentou a escalabilidade. Treinar modelos de IA mais complexos requer uma poderosa capacidade de computação, que geralmente deve depender da computação distribuída para atender a essas demandas. De uma perspectiva mais intuitiva, o modelo GPT-4 da OpenAI possui mais de 1,8 trilhões de parâmetros, sendo treinado em 3-4 meses utilizando cerca de 25.000 GPUs Nvidia A100 em 128 clusters.
Anteriormente, Render e Akash apenas ofereciam GPU de uso único, o que poderia limitar a demanda de mercado por GPUs. No entanto, a maioria dos projetos focados agora integrou clusters para realizar computação paralela. A io.net collaborou com Render, Filecoin e outros projetos como Aethir para incorporar mais GPUs em sua rede, e já conseguiu implantar mais de 3.800 clusters no primeiro trimestre de 2024. Embora Render não suporte clusters, seu funcionamento é semelhante ao dos clusters, decompondo um único quadro em vários nós diferentes para processar simultaneamente faixas de quadros de diferentes escopos. Phala atualmente suporta apenas CPU, mas permite a clusterização de trabalhadores de CPU.
É muito importante integrar a estrutura de clusters na rede de fluxos de trabalho de IA, mas a quantidade e o tipo de GPUs de cluster necessárias para atender às necessidades dos desenvolvedores de IA é uma questão à parte, que discutiremos nas seções seguintes.
Privacidade de Dados
Desenvolver modelos de IA requer o uso de grandes conjuntos de dados, que podem vir de várias fontes e ter diferentes formas. Conjuntos de dados sensíveis, como registros médicos pessoais e dados financeiros de usuários, podem enfrentar o risco de exposição aos fornecedores de modelos. A Samsung proibiu internamente o uso do ChatGPT devido à preocupação de que o upload de códigos sensíveis para a plataforma pudesse infringir a privacidade, e o incidente de vazamento de 38TB de dados privados da Microsoft destacou ainda mais a importância de adotar medidas de segurança adequadas ao utilizar IA. Portanto, ter diversos métodos de privacidade de dados é crucial para devolver o controle dos dados aos fornecedores de dados.
A maioria dos projetos abrangidos utiliza alguma forma de criptografia de dados para proteger a privacidade dos dados. A criptografia de dados garante que a transmissão de dados do fornecedor de dados para o provedor de modelos ( para o receptor de dados ) na rede esteja protegida. O Render utiliza criptografia e hash ao publicar os resultados de renderização de volta na rede, enquanto a io.net e a Gensyn adotam alguma forma de criptografia de dados. O Akash utiliza autenticação mTLS, permitindo apenas que os provedores escolhidos pelos locatários recebam os dados.
No entanto, a io.net lançou recentemente uma colaboração com a Mind Network para introduzir a criptografia totalmente homomórfica (FHE), que permite o processamento de dados criptografados sem a necessidade de os decifrar primeiro. Ao permitir que os dados sejam transmitidos com segurança para fins de treinamento sem revelar a identidade e o conteúdo dos dados, esta inovação pode garantir a privacidade dos dados de forma mais eficaz do que as tecnologias de criptografia existentes.
A Phala Network introduziu o TEE, ou seja, uma área de segurança dentro do processador principal do dispositivo conectado. Através deste mecanismo de isolamento, ele pode impedir que processos externos acessem ou modifiquem dados, independentemente do nível de permissão, mesmo por indivíduos com acesso físico à máquina. Além do TEE, ele também incorporou o uso de zk-proofs em seu validador zkDCAP e na interface de linha de comando jtee, para integrar programas com o RiscZero zkVM.
Prova de cálculo concluída e verificação de qualidade
Os GPUs fornecidos por estes projetos podem oferecer capacidade de computação para uma variedade de serviços. Devido à ampla gama desses serviços, desde renderização gráfica até computação AI, a qualidade final de tais tarefas pode não corresponder sempre aos padrões do usuário. Pode-se usar a forma de prova de conclusão para indicar que o GPU específico alugado pelo usuário foi realmente utilizado para executar os serviços necessários, e a verificação de qualidade é benéfica para os usuários que solicitam a conclusão de tais trabalhos.
Após a conclusão do cálculo, tanto o Gensyn quanto o Aethir gerarão provas para indicar que o trabalho foi concluído, enquanto a prova do io.net indica que o desempenho da GPU alugada foi totalmente utilizado e sem problemas. Tanto o Gensyn quanto o Aethir realizarão uma verificação de qualidade sobre os cálculos concluídos. Para o Gensyn, ele usa validadores para reexecutar parte do conteúdo das provas geradas para verificar com as provas, enquanto os denunciantes atuam como uma camada adicional de verificação sobre os validadores. Ao mesmo tempo, o Aethir usa nós de verificação para determinar a qualidade do serviço, penalizando serviços abaixo do padrão. O Render recomenda o uso de um processo de resolução de disputas; se o comitê de revisão encontrar problemas com um nó, esse nó será penalizado. Após a conclusão do Phala, uma prova TEE será gerada, garantindo que o agente de IA execute as operações necessárias na cadeia.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
13 gostos
Recompensa
13
5
Partilhar
Comentar
0/400
BottomMisser
· 1h atrás
A GPU atualmente está um pouco chamativa.
Ver originalResponder0
MetaverseLandlord
· 07-22 17:44
Quem disse que ganhar dinheiro não pode ser sério? Vamos lá, esta onda está garantida.
Ver originalResponder0
FlashLoanLarry
· 07-22 17:38
smh estas jogadas de depin são apenas computação em nuvem elegante para ser honesto... mas a relação de eficiência de capital parece meio suculenta, para ser sincero
Ver originalResponder0
LongTermDreamer
· 07-22 17:36
Haha, em três anos, ao receber um equipamento de mineração, já terei recuperado o investimento.
AI e DePIN em interseção: a ascensão das redes GPU descentralizadas e comparação com projetos mainstream
A interseção da IA e DePIN: a ascensão das redes GPU descentralizadas
Desde 2023, AI e DePIN têm sido tópicos populares no campo do Web3, com um valor de mercado de 30 mil milhões de dólares e 23 mil milhões de dólares, respetivamente. Este artigo irá explorar a interseção entre os dois e investigar o desenvolvimento dos protocolos nesta área.
Na pilha de tecnologia de AI, a rede DePIN oferece utilidade à AI através de recursos computacionais. O desenvolvimento de grandes empresas de tecnologia resultou em uma escassez de GPUs, fazendo com que outros desenvolvedores não tenham GPUs suficientes para computação. Isso geralmente leva os desenvolvedores a escolher prestadores de serviços de nuvem centralizados, mas a necessidade de assinar contratos de hardware de alto desempenho de longo prazo e inflexíveis resulta em ineficiência.
DePIN oferece essencialmente uma alternativa mais flexível e econômica, utilizando recompensas em tokens para incentivar a contribuição de recursos que atendem aos objetivos da rede. O DePIN no campo da IA terceiriza recursos de GPU de proprietários individuais para centros de dados, formando uma oferta unificada para usuários que precisam acessar hardware. Essas redes DePIN não apenas oferecem personalização e acesso sob demanda para desenvolvedores que precisam de capacidade de computação, mas também proporcionam receita adicional para os proprietários de GPU.
Visão geral da rede DePIN AI
Render é o pioneiro de uma rede P2P que oferece capacidade de computação GPU, anteriormente focado em renderizar gráficos para criação de conteúdo, e depois expandiu seu escopo para incluir tarefas de computação de IA que vão desde campos de reflexão neural (NeRF) até IA generativa.
Aspecto interessante:
Fundada pela empresa de gráficos em nuvem OTOY, que possui tecnologia premiada com o Oscar.
A rede GPU foi utilizada por grandes empresas da indústria do entretenimento, como a Paramount Pictures, PUBG e Star Trek.
Colaborar com a Stability AI e a Endeavor, integrando os seus modelos de IA com o fluxo de trabalho de renderização de conteúdo 3D utilizando os GPUs da Render.
Aprovar múltiplos clientes de computação, integrando mais GPUs da rede DePIN
Akash posiciona-se como uma alternativa de "super nuvem" aos tradicionais plataformas que suportam armazenamento, computação GPU e CPU. Com ferramentas amigáveis para desenvolvedores, como a plataforma de contêiner Akash e nós de computação geridos pelo Kubernetes, é capaz de implantar software de forma fluida em diferentes ambientes, permitindo assim a execução de qualquer aplicação nativa da nuvem.
Ponto interessante:
Para uma ampla gama de tarefas computacionais, desde computação genérica até hospedagem de redes.
AkashML permite que sua rede de GPU execute mais de 15.000 modelos no Hugging Face, ao mesmo tempo que se integra ao Hugging Face.
O Akash hospeda algumas aplicações notáveis, como o chatbot do modelo LLM da Mistral AI, o modelo de texto para imagem SDXL da Stability AI, e o novo modelo base AT-1 da Thumper AI.
A construção de plataformas para o metaverso, implantação de inteligência artificial e aprendizagem federada está a utilizar a Supercloud
io.net oferece acesso a clusters de GPU em nuvem distribuídos, que são especialmente dedicados a casos de uso de IA e ML. Ele agrega GPUs de centros de dados, mineradores de criptomoedas e outras redes descentralizadas. A empresa era anteriormente uma empresa de negociação quantitativa, e após um grande aumento nos preços de GPUs de alto desempenho, a empresa mudou para o negócio atual.
Ponto interessante:
O seu IO-SDK é compatível com frameworks como PyTorch e Tensorflow, e a sua arquitetura em várias camadas pode ser automaticamente expandida de forma dinâmica com base nas necessidades de cálculo.
Suporta a criação de 3 tipos diferentes de clusters, podendo ser iniciados em 2 minutos.
Esforços de colaboração robustos para integrar GPUs de outras redes DePIN, incluindo Render, Filecoin, Aethir e Exabits
Gensyn oferece capacidade de computação GPU focada em aprendizado de máquina e aprendizado profundo. Alega que, em comparação com métodos existentes, alcançou um mecanismo de validação mais eficiente ao combinar conceitos como provas de trabalho de aprendizado para validação, protocolos de localização gráfica baseados em precisão para reexecução de trabalhos de validação e jogos de incentivo do tipo Truebit envolvendo fornecedores de computação com staking e redução.
Ponto interessante:
O custo por hora estimado de um GPU equivalente a V100 é de aproximadamente 0,40 dólares/hora, o que resulta em uma grande economia de custos.
Através da prova de empilhamento, é possível ajustar o modelo base pré-treinado para realizar tarefas mais específicas.
Estes modelos básicos serão descentralizados, de propriedade global, além de fornecer funcionalidades adicionais além da rede de computação em hardware.
Aethir é projetado para ser equipado com GPUs empresariais, focando em áreas de computação intensiva, principalmente inteligência artificial, aprendizado de máquina (ML), jogos em nuvem, entre outros. Os contêineres na sua rede atuam como pontos finais virtuais para a execução de aplicações baseadas em nuvem, transferindo a carga de trabalho dos dispositivos locais para os contêineres, a fim de proporcionar uma experiência de baixa latência. Para garantir um serviço de qualidade aos usuários, eles movem as GPUs mais perto das fontes de dados com base na demanda e na localização, ajustando assim os recursos.
Ponto interessante:
Além da inteligência artificial e dos jogos em nuvem, a Aethir também se expandiu para serviços de smartphone em nuvem e lançou um smartphone inteligente em nuvem descentralizado em parceria com a APhone.
Estabeleceu uma ampla parceria com grandes empresas do Web2, como NVIDIA, Super Micro, HPE, Foxconn e Well Link.
Vários parceiros no Web3, como CARV, Magic Eden, Sequence, Impossible Finance, etc.
Phala Network atua como a camada de execução para soluções de IA Web3. Sua blockchain é uma solução de computação em nuvem sem necessidade de confiança, projetada para lidar com questões de privacidade através do uso de seu ambiente de execução confiável (TEE). Sua camada de execução não é utilizada como a camada de computação para modelos de IA, mas sim para permitir que agentes de IA sejam controlados por contratos inteligentes na blockchain.
Pontos interessantes:
Actuar como protocolo de coprocessador para cálculos verificáveis, ao mesmo tempo que permite que agentes de IA acedam a recursos na blockchain.
O seu contrato de agente de inteligência artificial pode aceder a modelos de linguagem de grande escala de topo, como OpenAI, Llama, Claude e Hugging Face, através da Redpill.
O futuro incluirá zk-proofs, computação multipartidária (MPC), e criptografia homomórfica completa (FHE), entre outros sistemas de prova múltipla.
Futuramente suportar H100 e outras GPUs TEE, aumentando a capacidade de computação
comparação de projetos
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Foco de Negócios | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | Inteligência Artificial, Jogos em Nuvem e Telecomunicações | Execução de IA em Cadeia | | Tipo de Tarefa de IA | Inferência | Ambos | Ambos | Treinamento | Treinamento | Execução | | Preço do Trabalho | Preço baseado no Desempenho | Leilão Reverso | Preço de Mercado | Preço de Mercado | Sistema de Licitação | Cálculo de Direitos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidade de Dados | Criptografia&Hash | Autenticação mTLS | Criptografia de Dados | Mapeamento Seguro | Criptografia | TEE | | Custos de Trabalho | 0,5-5% por trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% taxa de reserva | Taxas baixas | 20% por sessão | Proporcional ao montante em staking | | Segurança | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia Intermediária | | Prova de Conclusão | - | - | Prova de Bloqueio de Tempo | Prova de Aprendizagem | Prova de Trabalho de Renderização | Prova TEE | | Garantia de Qualidade | Controvérsia | - | - | Verificador e Denunciante | Nó do Verificador | Prova Remota | | GPU Cluster | Não | Sim | Sim | Sim | Sim | Não |
Importância
Disponibilidade de clusters e computação paralela
A estrutura de computação distribuída implementou um cluster de GPU, proporcionando um treinamento mais eficiente sem afetar a precisão do modelo, ao mesmo tempo que aumentou a escalabilidade. Treinar modelos de IA mais complexos requer uma poderosa capacidade de computação, que geralmente deve depender da computação distribuída para atender a essas demandas. De uma perspectiva mais intuitiva, o modelo GPT-4 da OpenAI possui mais de 1,8 trilhões de parâmetros, sendo treinado em 3-4 meses utilizando cerca de 25.000 GPUs Nvidia A100 em 128 clusters.
Anteriormente, Render e Akash apenas ofereciam GPU de uso único, o que poderia limitar a demanda de mercado por GPUs. No entanto, a maioria dos projetos focados agora integrou clusters para realizar computação paralela. A io.net collaborou com Render, Filecoin e outros projetos como Aethir para incorporar mais GPUs em sua rede, e já conseguiu implantar mais de 3.800 clusters no primeiro trimestre de 2024. Embora Render não suporte clusters, seu funcionamento é semelhante ao dos clusters, decompondo um único quadro em vários nós diferentes para processar simultaneamente faixas de quadros de diferentes escopos. Phala atualmente suporta apenas CPU, mas permite a clusterização de trabalhadores de CPU.
É muito importante integrar a estrutura de clusters na rede de fluxos de trabalho de IA, mas a quantidade e o tipo de GPUs de cluster necessárias para atender às necessidades dos desenvolvedores de IA é uma questão à parte, que discutiremos nas seções seguintes.
Privacidade de Dados
Desenvolver modelos de IA requer o uso de grandes conjuntos de dados, que podem vir de várias fontes e ter diferentes formas. Conjuntos de dados sensíveis, como registros médicos pessoais e dados financeiros de usuários, podem enfrentar o risco de exposição aos fornecedores de modelos. A Samsung proibiu internamente o uso do ChatGPT devido à preocupação de que o upload de códigos sensíveis para a plataforma pudesse infringir a privacidade, e o incidente de vazamento de 38TB de dados privados da Microsoft destacou ainda mais a importância de adotar medidas de segurança adequadas ao utilizar IA. Portanto, ter diversos métodos de privacidade de dados é crucial para devolver o controle dos dados aos fornecedores de dados.
A maioria dos projetos abrangidos utiliza alguma forma de criptografia de dados para proteger a privacidade dos dados. A criptografia de dados garante que a transmissão de dados do fornecedor de dados para o provedor de modelos ( para o receptor de dados ) na rede esteja protegida. O Render utiliza criptografia e hash ao publicar os resultados de renderização de volta na rede, enquanto a io.net e a Gensyn adotam alguma forma de criptografia de dados. O Akash utiliza autenticação mTLS, permitindo apenas que os provedores escolhidos pelos locatários recebam os dados.
No entanto, a io.net lançou recentemente uma colaboração com a Mind Network para introduzir a criptografia totalmente homomórfica (FHE), que permite o processamento de dados criptografados sem a necessidade de os decifrar primeiro. Ao permitir que os dados sejam transmitidos com segurança para fins de treinamento sem revelar a identidade e o conteúdo dos dados, esta inovação pode garantir a privacidade dos dados de forma mais eficaz do que as tecnologias de criptografia existentes.
A Phala Network introduziu o TEE, ou seja, uma área de segurança dentro do processador principal do dispositivo conectado. Através deste mecanismo de isolamento, ele pode impedir que processos externos acessem ou modifiquem dados, independentemente do nível de permissão, mesmo por indivíduos com acesso físico à máquina. Além do TEE, ele também incorporou o uso de zk-proofs em seu validador zkDCAP e na interface de linha de comando jtee, para integrar programas com o RiscZero zkVM.
Prova de cálculo concluída e verificação de qualidade
Os GPUs fornecidos por estes projetos podem oferecer capacidade de computação para uma variedade de serviços. Devido à ampla gama desses serviços, desde renderização gráfica até computação AI, a qualidade final de tais tarefas pode não corresponder sempre aos padrões do usuário. Pode-se usar a forma de prova de conclusão para indicar que o GPU específico alugado pelo usuário foi realmente utilizado para executar os serviços necessários, e a verificação de qualidade é benéfica para os usuários que solicitam a conclusão de tais trabalhos.
Após a conclusão do cálculo, tanto o Gensyn quanto o Aethir gerarão provas para indicar que o trabalho foi concluído, enquanto a prova do io.net indica que o desempenho da GPU alugada foi totalmente utilizado e sem problemas. Tanto o Gensyn quanto o Aethir realizarão uma verificação de qualidade sobre os cálculos concluídos. Para o Gensyn, ele usa validadores para reexecutar parte do conteúdo das provas geradas para verificar com as provas, enquanto os denunciantes atuam como uma camada adicional de verificação sobre os validadores. Ao mesmo tempo, o Aethir usa nós de verificação para determinar a qualidade do serviço, penalizando serviços abaixo do padrão. O Render recomenda o uso de um processo de resolução de disputas; se o comitê de revisão encontrar problemas com um nó, esse nó será penalizado. Após a conclusão do Phala, uma prova TEE será gerada, garantindo que o agente de IA execute as operações necessárias na cadeia.
Estatísticas de hardware
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|