Manus obtient des résultats SOTA au benchmark GAIA, déclenchant une discussion sur les voies de développement de l'IA
Manus a démontré des performances exceptionnelles dans les tests de référence GAIA, surpassant d'autres modèles de grande taille dans la même catégorie. Cela signifie qu'il peut traiter de manière autonome des tâches complexes, telles que les négociations commerciales internationales, impliquant l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de solutions. L'avantage de Manus réside dans sa capacité à décomposer dynamiquement les objectifs, son raisonnement multimodal et son apprentissage renforcé. Il peut diviser de grandes tâches en centaines de sous-tâches exécutables, tout en traitant différents types de données, et améliore constamment l'efficacité de la prise de décision et réduit le taux d'erreur grâce à l'apprentissage par renforcement.
La percée de Manus a de nouveau suscité des discussions sur les voies de développement futures dans le domaine de l'intelligence artificielle : doit-on se diriger vers une domination de l'intelligence artificielle générale (AGI) ou vers une domination collaborative des systèmes multi-agents (MAS) ?
La philosophie de design de Manus comprend deux possibilités :
Chemin AGI : Améliorer continuellement le niveau d'intelligence individuelle pour le rapprocher de la capacité de décision globale humaine.
Chemin MAS : en tant que super coordinateur, dirige de nombreux agents intelligents dans des domaines verticaux pour travailler en collaboration.
Cette discussion touche en réalité au cœur de la problématique du développement de l'IA : comment trouver un équilibre entre efficacité et sécurité ? À mesure que l'intelligence unitaire se rapproche de l'AGI, le risque d'opacité dans son processus de décision augmente ; tandis que la coopération entre plusieurs intelligences peut répartir le risque, elle peut aussi entraîner des retards de communication, manquant ainsi des moments clés de décision.
Les progrès de Manus mettent également en évidence les risques inhérents au développement de l'IA. Par exemple, dans le cadre médical, Manus doit accéder en temps réel aux données sensibles des patients ; lors de négociations financières, des informations non divulguées sur les entreprises peuvent être impliquées. De plus, il existe des problèmes de biais algorithmique, comme des suggestions de salaires injustes pour certains groupes lors des négociations d'embauche, ou un taux d'erreur élevé dans l'évaluation des clauses des industries émergentes lors de la révision des contrats juridiques. Un autre risque potentiel est l'attaque par adversaire, par exemple, des hackers peuvent perturber le jugement de Manus lors des négociations en implantant des signaux sonores spécifiques.
Ces défis soulignent une question clé : plus les systèmes d'IA sont intelligents, plus leur surface d'attaque potentielle est vaste.
Dans le domaine du Web3, la sécurité a toujours été un point central d'attention. Sur la base de ce concept, plusieurs méthodes de cryptage ont émergé :
Modèle de sécurité Zero Trust : souligne l'importance d'une authentification et d'une autorisation strictes pour chaque demande d'accès.
Identité décentralisée (DID) : a mis en œuvre un nouveau modèle d'identité numérique décentralisée.
Chiffrement totalement homomorphe (FHE) : permet de calculer sur des données chiffrées sans déchiffrer les données.
Parmi eux, le chiffrement homomorphe est considéré comme un outil puissant pour résoudre les problèmes de sécurité à l'ère de l'IA. Il permet de réaliser des calculs sur des données chiffrées, offrant de nouvelles possibilités pour protéger la vie privée.
Dans la lutte contre les défis de sécurité liés à l'IA, la FHE peut jouer un rôle à plusieurs niveaux :
Niveau des données : Toutes les informations saisies par l'utilisateur sont traitées dans un état crypté, même le système d'IA lui-même ne peut pas déchiffrer les données brutes.
Niveau algorithmique : réaliser "l'entraînement de modèles cryptés" via FHE, garantissant que le processus de décision de l'IA ne soit pas espionné.
Niveau de collaboration : La communication entre plusieurs agents utilise le cryptage par seuil, empêchant les fuites de données globales dues à une fuite unique.
Bien que la technologie de sécurité Web3 puisse sembler éloignée des utilisateurs ordinaires pour le moment, son importance ne doit pas être sous-estimée. Dans ce domaine rempli de défis, seule une protection renforcée constante peut éviter de devenir une victime potentielle.
Avec l'avancement de la technologie AI vers le niveau d'intelligence humaine, les systèmes de défense non conventionnels deviennent de plus en plus importants. Le FHE peut non seulement résoudre les problèmes de sécurité actuels, mais aussi établir les bases pour l'ère du fort AI à venir. Sur le chemin vers l'AGI, le FHE est déjà passé d'une option à une nécessité de survie.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
6 J'aime
Récompense
6
5
Partager
Commentaire
0/400
CryptoCross-TalkClub
· Il y a 21h
Comment l'intelligence de cette IA augmente-t-elle plus vite que celle des pigeons ?
Voir l'originalRépondre0
NFT_Therapy
· Il y a 21h
Le modèle est si Satoshi, que faire pour récolter des pigeons tous les jours ?
Voir l'originalRépondre0
MEVictim
· Il y a 21h
Je suis vraiment épuisé à cause de l'AGI.
Voir l'originalRépondre0
SandwichHunter
· Il y a 21h
J'ai mal à la tête, AGI est trop compliqué.
Voir l'originalRépondre0
ForkPrince
· Il y a 22h
C'est chez qui ce robot intelligent qui joue à combattre des monstres de niveau supérieur ?
Le modèle au-delà du même niveau de Manus provoque une controverse sur les voies de développement de l'IA.
Manus obtient des résultats SOTA au benchmark GAIA, déclenchant une discussion sur les voies de développement de l'IA
Manus a démontré des performances exceptionnelles dans les tests de référence GAIA, surpassant d'autres modèles de grande taille dans la même catégorie. Cela signifie qu'il peut traiter de manière autonome des tâches complexes, telles que les négociations commerciales internationales, impliquant l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de solutions. L'avantage de Manus réside dans sa capacité à décomposer dynamiquement les objectifs, son raisonnement multimodal et son apprentissage renforcé. Il peut diviser de grandes tâches en centaines de sous-tâches exécutables, tout en traitant différents types de données, et améliore constamment l'efficacité de la prise de décision et réduit le taux d'erreur grâce à l'apprentissage par renforcement.
La percée de Manus a de nouveau suscité des discussions sur les voies de développement futures dans le domaine de l'intelligence artificielle : doit-on se diriger vers une domination de l'intelligence artificielle générale (AGI) ou vers une domination collaborative des systèmes multi-agents (MAS) ?
La philosophie de design de Manus comprend deux possibilités :
Chemin AGI : Améliorer continuellement le niveau d'intelligence individuelle pour le rapprocher de la capacité de décision globale humaine.
Chemin MAS : en tant que super coordinateur, dirige de nombreux agents intelligents dans des domaines verticaux pour travailler en collaboration.
Cette discussion touche en réalité au cœur de la problématique du développement de l'IA : comment trouver un équilibre entre efficacité et sécurité ? À mesure que l'intelligence unitaire se rapproche de l'AGI, le risque d'opacité dans son processus de décision augmente ; tandis que la coopération entre plusieurs intelligences peut répartir le risque, elle peut aussi entraîner des retards de communication, manquant ainsi des moments clés de décision.
Les progrès de Manus mettent également en évidence les risques inhérents au développement de l'IA. Par exemple, dans le cadre médical, Manus doit accéder en temps réel aux données sensibles des patients ; lors de négociations financières, des informations non divulguées sur les entreprises peuvent être impliquées. De plus, il existe des problèmes de biais algorithmique, comme des suggestions de salaires injustes pour certains groupes lors des négociations d'embauche, ou un taux d'erreur élevé dans l'évaluation des clauses des industries émergentes lors de la révision des contrats juridiques. Un autre risque potentiel est l'attaque par adversaire, par exemple, des hackers peuvent perturber le jugement de Manus lors des négociations en implantant des signaux sonores spécifiques.
Ces défis soulignent une question clé : plus les systèmes d'IA sont intelligents, plus leur surface d'attaque potentielle est vaste.
Dans le domaine du Web3, la sécurité a toujours été un point central d'attention. Sur la base de ce concept, plusieurs méthodes de cryptage ont émergé :
Modèle de sécurité Zero Trust : souligne l'importance d'une authentification et d'une autorisation strictes pour chaque demande d'accès.
Identité décentralisée (DID) : a mis en œuvre un nouveau modèle d'identité numérique décentralisée.
Chiffrement totalement homomorphe (FHE) : permet de calculer sur des données chiffrées sans déchiffrer les données.
Parmi eux, le chiffrement homomorphe est considéré comme un outil puissant pour résoudre les problèmes de sécurité à l'ère de l'IA. Il permet de réaliser des calculs sur des données chiffrées, offrant de nouvelles possibilités pour protéger la vie privée.
Dans la lutte contre les défis de sécurité liés à l'IA, la FHE peut jouer un rôle à plusieurs niveaux :
Niveau des données : Toutes les informations saisies par l'utilisateur sont traitées dans un état crypté, même le système d'IA lui-même ne peut pas déchiffrer les données brutes.
Niveau algorithmique : réaliser "l'entraînement de modèles cryptés" via FHE, garantissant que le processus de décision de l'IA ne soit pas espionné.
Niveau de collaboration : La communication entre plusieurs agents utilise le cryptage par seuil, empêchant les fuites de données globales dues à une fuite unique.
Bien que la technologie de sécurité Web3 puisse sembler éloignée des utilisateurs ordinaires pour le moment, son importance ne doit pas être sous-estimée. Dans ce domaine rempli de défis, seule une protection renforcée constante peut éviter de devenir une victime potentielle.
Avec l'avancement de la technologie AI vers le niveau d'intelligence humaine, les systèmes de défense non conventionnels deviennent de plus en plus importants. Le FHE peut non seulement résoudre les problèmes de sécurité actuels, mais aussi établir les bases pour l'ère du fort AI à venir. Sur le chemin vers l'AGI, le FHE est déjà passé d'une option à une nécessité de survie.