Manus a réalisé des progrès remarquables dans le Benchmark GAIA
Récemment, Manus a obtenu des résultats remarquables dans le benchmark GAIA, sa performance dépassant celle des grands modèles de langage de même niveau. Cela signifie que Manus peut accomplir de manière autonome des tâches complexes telles que des négociations commerciales internationales, impliquant la décomposition des clauses contractuelles, la prévision stratégique, la génération de propositions, et même la coordination des équipes juridiques et financières.
Les avantages de Manus se manifestent principalement dans trois domaines : la capacité de décomposition dynamique des objectifs, la capacité de raisonnement multimodal et la capacité d'apprentissage renforcé par la mémoire. Il peut décomposer de grandes tâches en centaines de sous-tâches exécutables, tout en traitant plusieurs types de données, et améliore continuellement son efficacité décisionnelle et réduit son taux d'erreur grâce à l'apprentissage par renforcement.
Cette percée a de nouveau suscité des discussions dans l'industrie sur les voies d'évolution de l'IA : l'avenir sera-t-il dominé par l'AGI, ou par des systèmes multi-agents (MAS) en collaboration ?
La philosophie de conception de Manus implique deux possibilités :
Chemin AGI : Améliorer continuellement le niveau d'intelligence individuelle pour se rapprocher de la capacité de prise de décision globale humaine.
Chemin MAS : En tant que super coordinateur, diriger des milliers d'agents dans des domaines verticaux pour une collaboration efficace.
En surface, il s'agit d'une divergence de voies différentes, mais en réalité, la discussion porte sur la manière de trouver un équilibre entre l'efficacité et la sécurité dans le développement de l'IA. Plus l'intelligence unitaire se rapproche de l'AGI, plus le risque d'opacité dans ses décisions est élevé ; alors que la collaboration entre plusieurs intelligences peut réduire les risques, elle peut également entraîner une perte d'opportunités de décision clé en raison des délais de communication.
L'évolution de Manus amplifie sans le vouloir les risques inhérents au développement de l'IA, tels que la confidentialité des données, les biais algorithmiques et les attaques adversariales. Dans le domaine médical, Manus doit accéder en temps réel aux données génomiques des patients ; lors des négociations financières, des informations financières non divulguées par les entreprises peuvent être impliquées. Dans les négociations de recrutement, des recommandations salariales pourraient être données en dessous des attentes pour certains groupes ; lors de l'examen des contrats juridiques, le taux d'erreur dans l'interprétation des clauses des secteurs émergents pourrait atteindre près de la moitié. De plus, des hackers pourraient implanter des fréquences vocales spécifiques, conduisant Manus à mal évaluer la fourchette des offres de ses adversaires lors des négociations.
Ces problèmes soulignent un point important : plus un système est intelligent, plus sa surface d'attaque est large.
Dans le domaine du Web3, la sécurité a toujours été un sujet de préoccupation. Basé sur le "triangle impossible" proposé par V, qui stipule qu'un réseau blockchain ne peut pas réaliser simultanément la sécurité, la décentralisation et l'évolutivité, plusieurs méthodes de cryptage en ont découlé :
Modèle de sécurité Zero Trust : le principe fondamental est "ne faire confiance à personne, toujours vérifier", mettant l'accent sur une authentification et une autorisation strictes de chaque demande d'accès.
Identité décentralisée (DID) : un ensemble de normes d'identificateurs permettant aux entités d'obtenir une identification de manière vérifiable et durable, sans dépendre d'un registre centralisé.
Chiffrement totalement homomorphe (FHE) : une technologie de cryptage avancée qui permet d'effectuer des calculs arbitraires sur des données chiffrées sans déchiffrer les données.
Parmi eux, le FHE est considéré comme la technologie clé pour résoudre les problèmes de sécurité à l'ère de l'IA. Il peut jouer un rôle à plusieurs niveaux :
Niveau des données : toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, le ton de la voix) sont traitées dans un état crypté, même le système d'IA lui-même ne peut pas déchiffrer les données brutes.
Niveau algorithmique : réaliser l'"entraînement de modèles chiffrés" grâce à la FHE, même les développeurs ne peuvent pas explorer le chemin décisionnel de l'IA.
Niveau de collaboration : la communication entre plusieurs agents utilise le cryptage par seuil, un nœud unique compromis ne provoquera pas de fuite de données globales.
Dans le domaine de la sécurité Web3, plusieurs projets explorent différentes directions. Cependant, les projets de sécurité sont souvent négligés par les spéculateurs. À l'avenir, avec le développement continu des technologies AI, l'importance des technologies de sécurité telles que l'FHE deviendra de plus en plus évidente. Sur la route vers l'AGI, ces technologies ne sont pas seulement des outils pour résoudre les problèmes actuels, mais elles sont également indispensables à l'ère de l'IA forte à venir.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
14 J'aime
Récompense
14
5
Partager
Commentaire
0/400
DarkPoolWatcher
· 07-24 23:34
Une autre entreprise se vante d'être un bull.
Voir l'originalRépondre0
FrontRunFighter
· 07-24 23:31
la forêt sombre ne cesse de s'assombrir... manus n'est qu'une autre arme dans la course aux MEV en toute honnêteté
Voir l'originalRépondre0
DeFiGrayling
· 07-24 23:30
La communauté a toujours de nouvelles idées.
Voir l'originalRépondre0
GasFeePhobia
· 07-24 23:21
Gag, cela ne doit pas provoquer d'achats de panique.
Voir l'originalRépondre0
OnChainDetective
· 07-24 23:17
J'ai examiné les données en arrière-plan tard dans la nuit, cette architecture système a un degré de suspicion de 99,97 %.
Manus a franchi le test GAIA, suscitant une discussion sur la Sécurité de l'IA et la technologie FHE.
Manus a réalisé des progrès remarquables dans le Benchmark GAIA
Récemment, Manus a obtenu des résultats remarquables dans le benchmark GAIA, sa performance dépassant celle des grands modèles de langage de même niveau. Cela signifie que Manus peut accomplir de manière autonome des tâches complexes telles que des négociations commerciales internationales, impliquant la décomposition des clauses contractuelles, la prévision stratégique, la génération de propositions, et même la coordination des équipes juridiques et financières.
Les avantages de Manus se manifestent principalement dans trois domaines : la capacité de décomposition dynamique des objectifs, la capacité de raisonnement multimodal et la capacité d'apprentissage renforcé par la mémoire. Il peut décomposer de grandes tâches en centaines de sous-tâches exécutables, tout en traitant plusieurs types de données, et améliore continuellement son efficacité décisionnelle et réduit son taux d'erreur grâce à l'apprentissage par renforcement.
Cette percée a de nouveau suscité des discussions dans l'industrie sur les voies d'évolution de l'IA : l'avenir sera-t-il dominé par l'AGI, ou par des systèmes multi-agents (MAS) en collaboration ?
La philosophie de conception de Manus implique deux possibilités :
Chemin AGI : Améliorer continuellement le niveau d'intelligence individuelle pour se rapprocher de la capacité de prise de décision globale humaine.
Chemin MAS : En tant que super coordinateur, diriger des milliers d'agents dans des domaines verticaux pour une collaboration efficace.
En surface, il s'agit d'une divergence de voies différentes, mais en réalité, la discussion porte sur la manière de trouver un équilibre entre l'efficacité et la sécurité dans le développement de l'IA. Plus l'intelligence unitaire se rapproche de l'AGI, plus le risque d'opacité dans ses décisions est élevé ; alors que la collaboration entre plusieurs intelligences peut réduire les risques, elle peut également entraîner une perte d'opportunités de décision clé en raison des délais de communication.
L'évolution de Manus amplifie sans le vouloir les risques inhérents au développement de l'IA, tels que la confidentialité des données, les biais algorithmiques et les attaques adversariales. Dans le domaine médical, Manus doit accéder en temps réel aux données génomiques des patients ; lors des négociations financières, des informations financières non divulguées par les entreprises peuvent être impliquées. Dans les négociations de recrutement, des recommandations salariales pourraient être données en dessous des attentes pour certains groupes ; lors de l'examen des contrats juridiques, le taux d'erreur dans l'interprétation des clauses des secteurs émergents pourrait atteindre près de la moitié. De plus, des hackers pourraient implanter des fréquences vocales spécifiques, conduisant Manus à mal évaluer la fourchette des offres de ses adversaires lors des négociations.
Ces problèmes soulignent un point important : plus un système est intelligent, plus sa surface d'attaque est large.
Dans le domaine du Web3, la sécurité a toujours été un sujet de préoccupation. Basé sur le "triangle impossible" proposé par V, qui stipule qu'un réseau blockchain ne peut pas réaliser simultanément la sécurité, la décentralisation et l'évolutivité, plusieurs méthodes de cryptage en ont découlé :
Modèle de sécurité Zero Trust : le principe fondamental est "ne faire confiance à personne, toujours vérifier", mettant l'accent sur une authentification et une autorisation strictes de chaque demande d'accès.
Identité décentralisée (DID) : un ensemble de normes d'identificateurs permettant aux entités d'obtenir une identification de manière vérifiable et durable, sans dépendre d'un registre centralisé.
Chiffrement totalement homomorphe (FHE) : une technologie de cryptage avancée qui permet d'effectuer des calculs arbitraires sur des données chiffrées sans déchiffrer les données.
Parmi eux, le FHE est considéré comme la technologie clé pour résoudre les problèmes de sécurité à l'ère de l'IA. Il peut jouer un rôle à plusieurs niveaux :
Niveau des données : toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, le ton de la voix) sont traitées dans un état crypté, même le système d'IA lui-même ne peut pas déchiffrer les données brutes.
Niveau algorithmique : réaliser l'"entraînement de modèles chiffrés" grâce à la FHE, même les développeurs ne peuvent pas explorer le chemin décisionnel de l'IA.
Niveau de collaboration : la communication entre plusieurs agents utilise le cryptage par seuil, un nœud unique compromis ne provoquera pas de fuite de données globales.
Dans le domaine de la sécurité Web3, plusieurs projets explorent différentes directions. Cependant, les projets de sécurité sont souvent négligés par les spéculateurs. À l'avenir, avec le développement continu des technologies AI, l'importance des technologies de sécurité telles que l'FHE deviendra de plus en plus évidente. Sur la route vers l'AGI, ces technologies ne sont pas seulement des outils pour résoudre les problèmes actuels, mais elles sont également indispensables à l'ère de l'IA forte à venir.