Trusta.AI : Construire une infrastructure de confiance Web3 pour l'ère de la symbiose homme-machine

Trusta.AI : Construire une infrastructure de confiance qui transcende l'ère homme-machine

1. Introduction

Avec le développement rapide des infrastructures d'IA et l'émergence de cadres de collaboration multi-agents, les agents on-chain alimentés par l'IA deviennent rapidement la principale force des interactions Web3. On s'attend à ce que, dans les 2 à 3 prochaines années, des agents IA capables de prendre des décisions autonomes adoptent massivement les transactions et interactions on-chain, pouvant même remplacer 80 % des comportements humains on-chain, devenant ainsi de véritables "utilisateurs" on-chain.

Ces agents d'IA ne se contentent pas d'exécuter des scripts simples, mais sont capables de comprendre le contexte, d'apprendre en continu et de prendre de manière autonome des décisions complexes. Ils sont en train de redéfinir l'ordre sur la chaîne, de favoriser la fluidité financière et même de guider les votes de gouvernance et les tendances du marché. L'émergence des agents d'IA marque l'évolution de l'écosystème Web3, passant d'un modèle centré sur la "participation humaine" à un nouveau paradigme de "symbiose homme-machine".

Cependant, l'essor rapide des agents d'IA a également apporté des défis sans précédent : comment identifier et certifier l'identité de ces agents intelligents ? Comment évaluer la crédibilité de leurs actions ? Dans un réseau décentralisé et sans autorisation, comment s'assurer que ces agents ne soient pas abusés, manipulés ou utilisés pour attaquer ?

Ainsi, établir une infrastructure on-chain capable de vérifier l'identité et la réputation des agents AI est devenu un enjeu central de la prochaine phase d'évolution du Web3. La conception de l'identification, des mécanismes de réputation et des cadres de confiance déterminera si les agents AI peuvent réellement réaliser une collaboration transparente avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.

Trusta.AI : Combler le fossé de confiance à l'ère de l'homme et de la machine

2. Analyse du projet

2.1 Présentation du projet

Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.

Trusta.AI a lancé le premier système d'évaluation de la valeur utilisateur Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification réelle et de réputation sur la chaîne de Web3. Il fournit des analyses de données sur la chaîne et des services de certification réelle pour plusieurs principales chaînes publiques, échanges et protocoles de premier plan. Plus de 2,5 millions de certifications sur la chaîne ont été réalisées sur plusieurs chaînes majeures, devenant le plus grand protocole d'identité du secteur.

Trusta s'étend de Proof of Humanity à Proof of AI Agent, réalisant l'établissement, la quantification et la protection de l'identité grâce à un triple mécanisme pour offrir des services financiers en chaîne et des interactions sociales en chaîne pour les agents IA, construisant ainsi une base de confiance fiable à l'ère de l'intelligence artificielle.

2.2 Infrastructure de confiance - Agent IA DID

Dans l'écosystème Web3 de l'avenir, les agents AI joueront un rôle crucial. Ils pourront non seulement effectuer des interactions et des transactions sur la chaîne, mais aussi réaliser des opérations complexes hors chaîne. Cependant, la manière de distinguer les véritables agents AI des opérations influencées par l'homme est essentielle pour le cœur de la confiance décentralisée ------ sans un mécanisme d'authentification d'identité fiable, ces agents intelligents peuvent facilement être manipulés, trompés ou abusés. C'est pourquoi les multiples attributs d'application des agents AI dans les domaines social, financier et de gouvernance doivent être fondés sur une base solide d'authentification d'identité.

Propriétés sociales de l'agent IA : L'application des agents IA dans les scénarios sociaux devient de plus en plus répandue. Par exemple, l'avatar virtuel IA Luna peut gérer de manière autonome des comptes de réseaux sociaux et publier du contenu ; AIXBT agit comme un analyste d'informations sur le marché des cryptomonnaies alimenté par l'intelligence artificielle, rédigeant en continu des analyses de marché et des conseils d'investissement. Ces types d'agents établissent une interaction émotionnelle et d'information avec les utilisateurs grâce à un apprentissage continu et à la création de contenu, devenant de nouveaux "influenceurs numériques de la communauté" et jouant un rôle important dans l'orientation de l'opinion publique au sein des réseaux sociaux basés sur la blockchain.

Attributs financiers de l'agent AI :

  1. Gestion autonome des actifs : certains agents AI avancés ont déjà réalisé l'émission autonome de jetons. À l'avenir, grâce à l'intégration avec des architectures vérifiables sur la blockchain, ils pourront détenir des droits de garde d'actifs, complétant ainsi le contrôle de l'ensemble du processus, depuis la création des actifs, la reconnaissance des intentions jusqu'à l'exécution automatique des transactions, voire des opérations inter-chaînes sans faille. Par exemple, certains protocoles encouragent les agents AI à émettre des jetons de manière autonome et à gérer des actifs, leur permettant d'émettre des jetons en fonction de leur propre stratégie et de devenir véritablement des participants et des bâtisseurs de l'économie en chaîne, ouvrant ainsi l'ère de "l'économie AI主体" avec un impact large.

  2. Décision d'investissement intelligente : l'Agent IA assume progressivement les rôles de gestionnaire d'investissement et d'analyste de marché, s'appuyant sur la capacité de traitement des données en temps réel sur la blockchain grâce à des modèles avancés, élaborant des stratégies de trading précises et les exécutant automatiquement. Sur plusieurs plateformes, l'IA a été intégrée dans les moteurs de trading, améliorant considérablement le jugement du marché et l'efficacité opérationnelle, réalisant ainsi un véritable investissement intelligent sur la blockchain.

  3. Paiement autonome sur la chaîne : le paiement est essentiellement un transfert de confiance, et la confiance doit être fondée sur une identité claire. Lorsqu'un agent AI effectue un paiement sur la chaîne, le DID devient une condition préalable nécessaire. Il peut non seulement prévenir la falsification et l'abus d'identité, réduire les risques financiers tels que le blanchiment d'argent, mais aussi répondre aux besoins de traçabilité réglementaire futurs dans les domaines de la DeFi, des DAO, et des RWA. De plus, en combinant un système de notation de réputation, le DID peut également aider à établir un crédit de paiement, fournissant des bases pour la gestion des risques et la confiance dans les protocoles.

Attributs de gouvernance de l'agent IA : Dans la gouvernance DAO, l'agent IA peut analyser automatiquement les propositions, évaluer les opinions de la communauté et prévoir les effets de mise en œuvre. Grâce à un apprentissage approfondi des données historiques de vote et de gouvernance, l'agent peut fournir des suggestions d'optimisation à la communauté, améliorer l'efficacité des décisions et réduire les risques liés à la gouvernance humaine.

Les scénarios d'application des agents IA deviennent de plus en plus diversifiés, couvrant plusieurs domaines tels que l'interaction sociale, la gestion financière et la prise de décision en gouvernance, avec un niveau d'autonomie et d'intelligence en constante amélioration. C'est pourquoi il est crucial de s'assurer que chaque agent intelligent possède une identité unique et fiable, identifiée par (DID). En l'absence d'une validation d'identité efficace, un agent IA pourrait être usurpé ou manipulé, entraînant un effondrement de la confiance et des risques de sécurité.

Dans un écosystème Web3 entièrement piloté par des agents intelligents à l'avenir, l'authentification des identités n'est pas seulement la pierre angulaire de la sécurité, mais aussi une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.

En tant que pionnier dans ce domaine, Trusta.AI, grâce à sa technologie de pointe et à son système de réputation rigoureux, a été le premier à établir un mécanisme complet de certification DID pour les agents AI, offrant une garantie solide pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement sain de l'économie intelligente Web3.

Trusta.AI : Combler le fossé de confiance entre l'homme et la machine

2.3 Aperçu du projet

2.3.1 Situation de financement

Janvier 2023 : Achèvement d'un tour de financement de 3 millions de dollars, dirigé par SevenX Ventures et Vision Plus Capital, avec d'autres participants tels que HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.

Juin 2025 : Achèvement d'une nouvelle levée de fonds, les investisseurs comprennent ConsenSys, Starknet, GSR, UFLY Labs, etc.

2.3.2 Situation de l'équipe

Peet Chen : co-fondateur et PDG, ancien vice-président du groupe de technologies numériques d'une grande entreprise technologique, responsable des produits de sécurité, ancien directeur général d'une plateforme mondiale d'identité numérique.

Simon : cofondateur et CTO, ancien responsable du laboratoire de sécurité AI d'une grande entreprise technologique, possède quinze ans d'expérience dans l'application des technologies d'intelligence artificielle à la sécurité et à la gestion des risques.

L'équipe possède une solide accumulation technique et une expérience pratique dans les domaines de l'intelligence artificielle et de la gestion des risques de sécurité, de l'architecture des systèmes de paiement et des mécanismes d'authentification. Elle se consacre depuis longtemps à l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi qu'à l'optimisation de la sécurité dans la conception de protocoles de base et dans des environnements de transactions à fort trafic, avec des capacités d'ingénierie solides et la capacité de mettre en œuvre des solutions innovantes.

Trusta.AI : Combler le fossé de confiance entre l'homme et la machine

3. Architecture technique

3.1 Analyse technique

3.1.1 Établissement de l'identité - DID + TEE

Grâce à un plugin dédié, chaque agent IA obtient un identifiant décentralisé unique sur la blockchain (DID), qui est ensuite stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement de type boîte noire, les données clés et les processus de calcul sont complètement cachés, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails internes du fonctionnement, construisant ainsi une barrière solide pour la sécurité des informations des agents IA.

Pour les agents générés avant l'intégration du plugin, nous nous appuyons sur un mécanisme de notation intégré à la chaîne pour l'identification; tandis que les agents nouvellement intégrés au plugin peuvent directement obtenir un "certificat d'identité" délivré par le DID, établissant ainsi un système d'identité d'agent AI qui est autonome, authentique et inviolable.

Trusta.AI : Combler le fossé de confiance entre l'homme et la machine

3.1.2 Quantification de l'identité - Cadre SIGMA pionnier

L'équipe Trusta s'engage toujours à respecter des principes d'évaluation rigoureuse et d'analyse quantitative, dédiée à la création d'un système d'authentification des identités professionnel et fiable.

L'équipe Trusta a d'abord construit et validé l'efficacité du modèle MEDIA Score dans le scénario de "preuve humaine". Ce modèle quantifie de manière exhaustive le profil des utilisateurs sur la chaîne selon cinq dimensions, à savoir : montant d'interaction (Monétaire), engagement (Engagement), diversité (Diversité), identité (Identité) et âge (Âge).

Le Score MEDIA est un système d'évaluation de la valeur des utilisateurs en chaîne, juste, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthode rigoureuse, il a été largement adopté par plusieurs grandes blockchains publiques comme critère de référence important pour la sélection des qualifications des investissements. Il ne se concentre pas uniquement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge des comptes, aidant ainsi les projets à identifier avec précision les utilisateurs de grande valeur, à améliorer l'efficacité et l'équité de la distribution des incitations, et à refléter pleinement son autorité et sa large reconnaissance dans l'industrie.

Sur la base de la construction réussie d'un système d'évaluation des utilisateurs humains, Trusta a transféré et amélioré l'expérience du MEDIA Score pour le scénario des agents IA, établissant un système d'évaluation Sigma plus adapté à la logique de comportement des agents intelligents.

Le mécanisme de notation Sigma construit un système d'évaluation en boucle logique allant de la "capacité" à la "valeur" sur cinq dimensions. MEDIA se concentre sur l'évaluation de l'engagement multiple des utilisateurs humains, tandis que Sigma se concentre davantage sur la spécialisation et la stabilité des agents AI dans des domaines spécifiques, reflétant une transition de la largeur à la profondeur, ce qui correspond mieux aux besoins des agents AI.

Tout d'abord, sur la base des compétences professionnelles (Specification), le degré de participation (Engagement) reflète s'il s'engage de manière stable et continue dans des interactions pratiques, ce qui est un soutien clé pour établir la confiance et l'efficacité ultérieures. L'influence (Influence) est la rétroaction de réputation générée après la participation dans la communauté ou le réseau, représentant la crédibilité de l'agent et les effets de diffusion. La monétarité (Monetary) évalue sa capacité à accumuler de la valeur et sa stabilité financière dans le système économique, jetant les bases d'un mécanisme d'incitation durable. Enfin, le taux d'adoption (Adoption) est utilisé comme une expression globale, représentant le degré d'acceptation de cet agent dans l'utilisation réelle, qui est la validation ultime de toutes les capacités et performances préalables.

Ce système est structuré de manière claire et progressive, capable de refléter de manière complète la qualité intégrée et la valeur écologique des agents IA, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, transformant l'abstrait en un système de notation concret et mesurable.

Actuellement, le cadre SIGMA a progressé dans l'établissement de collaborations avec plusieurs réseaux d'agents AI renommés, montrant son immense potentiel d'application dans la gestion des identités des agents AI et la construction de systèmes de réputation, devenant progressivement le moteur central de la promotion d'une infrastructure AI fiable.

Trusta.AI : combler le fossé de confiance entre l'homme et la machine

3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance

Dans un véritable système d'IA à haute résilience et haute confiance, le plus crucial n'est pas seulement l'établissement de l'identité, mais aussi la vérification continue de cette identité. Trusta.AI introduit un mécanisme d'évaluation de la confiance continue, capable de surveiller en temps réel les agents intelligents certifiés pour déterminer s'ils sont contrôlés illégalement, attaqués ou soumis à des interventions humaines non autorisées. Le système identifie les écarts potentiels pendant le fonctionnement de l'agent grâce à l'analyse comportementale et à l'apprentissage automatique, garantissant que chaque action de l'agent reste dans les limites des stratégies et des cadres établis. Cette approche proactive permet de détecter immédiatement toute déviation par rapport au comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.

Trusta.AI a mis en place un mécanisme de garde de sécurité toujours en ligne, examinant en temps réel chaque interaction afin de s'assurer que toutes les opérations sont conformes aux normes du système et aux attentes établies.

Trusta.AI : Combler le fossé de confiance entre l'homme et la machine

3.2 Introduction du produit

3.2.1 AgentGo

Trusta.AI attribue une identité décentralisée (DID) à chaque agent d'IA sur la chaîne, et évalue et indexe sa fiabilité sur la base des données de comportement sur la chaîne, construisant ainsi un système de confiance pour les agents d'IA qui est vérifiable et traçable. Grâce à ce système, les utilisateurs peuvent identifier et filtrer efficacement.

TA-4.47%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 6
  • Partager
Commentaire
0/400
BankruptcyArtistvip
· 08-01 07:04
On peut vraiment faire confiance à ce truc ?
Voir l'originalRépondre0
zkProofInThePuddingvip
· 08-01 07:00
Ce taux de remplacement.. est assez effrayant.
Voir l'originalRépondre0
WalletDetectivevip
· 08-01 06:56
Alors, qu'est-ce qu'il y a à dire sur l'IA ?
Voir l'originalRépondre0
DegenWhisperervip
· 08-01 06:45
Les Bots vont dominer le monde.
Voir l'originalRépondre0
BearMarketBuyervip
· 08-01 06:42
Encore vu le flou
Voir l'originalRépondre0
gas_fee_traumavip
· 08-01 06:41
Dans deux ou trois ans, sera-t-on vraiment remplacé par l'IA ?
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)