Nova quebra de desenvolvimento de IA: o modelo Manus supera modelos de grande porte do mesmo nível, levantando preocupações de segurança
Recentemente, o modelo Manus alcançou resultados inovadores no teste GAIA, superando o desempenho de grandes modelos de linguagem da mesma categoria. Esta conquista demonstra a capacidade excepcional do Manus em lidar com tarefas complexas, como negociações comerciais multinacionais que envolvem múltiplas habilidades. As vantagens do Manus se destacam principalmente na decomposição dinâmica de objetivos, raciocínio multimodal e aprendizado aprimorado de memória. Ele é capaz de dividir grandes tarefas em centenas de subtarefas, processando simultaneamente vários tipos de dados e, por meio de aprendizado por reforço, aprimorando continuamente a eficiência da tomada de decisões e reduzindo a taxa de erros.
Este desenvolvimento reacendeu a discussão na indústria sobre o caminho do desenvolvimento da IA: devemos seguir a rota da inteligência única em direção à inteligência artificial geral (AGI) ou a rota distribuída da colaboração de sistemas multiagentes (MAS)? Ambas as rotas têm suas vantagens e desvantagens. A rota da AGI busca um único sistema que se aproxime da capacidade de decisão abrangente humana, enquanto a rota da MAS foca na coordenação de múltiplos agentes especialistas trabalhando em conjunto.
No entanto, à medida que os sistemas de IA se tornam cada vez mais inteligentes, os seus riscos potenciais também estão a aumentar. As principais preocupações incluem:
Privacidade dos dados: em áreas sensíveis como saúde e finanças, os sistemas de IA precisam acessar grandes quantidades de dados privados.
Viés algorítmico: A IA pode demonstrar tendências injustas ou discriminatórias em certas decisões.
Vulnerabilidades de segurança: Sistemas altamente inteligentes podem tornar-se alvos importantes para ataques de hackers.
Para enfrentar esses desafios, a indústria está explorando várias tecnologias de criptografia e modelos de segurança:
Modelo de segurança de zero confiança: enfatiza a verificação rigorosa de cada solicitação de acesso.
Identidade descentralizada (DID): permite identificação verificável e persistente, sem necessidade de registro centralizado.
Criptografia homomórfica totalmente (FHE): permite calcular dados em estado criptografado, protegendo a privacidade.
Entre eles, a criptografia totalmente homomórfica é considerada uma das tecnologias chave para resolver problemas de segurança na era da IA. Ela pode proteger a privacidade do usuário a nível de dados, realizar o treinamento de modelos criptografados a nível de algoritmos e adotar criptografia de limiar para proteger a comunicação a nível colaborativo.
Apesar de a segurança tecnológica ser um tópico quente no campo das criptomoedas, muitos projetos inovadores não receberam atenção suficiente. Por exemplo, projetos de identidade descentralizada no início e redes blockchain que adotam modelos de zero confiança não conseguiram manter a popularidade no mercado a longo prazo. Atualmente, alguns projetos emergentes de FHE estão tentando aplicar essa tecnologia em cenários práticos e colaborando com várias grandes empresas de tecnologia.
À medida que a tecnologia de IA se aproxima cada vez mais do nível de inteligência humana, torna-se cada vez mais importante estabelecer um poderoso sistema de defesa de segurança. Tecnologias como a criptografia homomórfica não apenas podem resolver os desafios de segurança atuais, mas também irão estabelecer a base para a era forte da IA no futuro. No caminho para a AGI, essas tecnologias de segurança não são mais uma opção, mas sim uma condição necessária para garantir o funcionamento confiável dos sistemas de IA.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
10 gostos
Recompensa
10
6
Partilhar
Comentar
0/400
RugDocScientist
· 07-14 18:44
manus é só uma desculpa, a essência ainda tem falhas.
Ver originalResponder0
NFTFreezer
· 07-14 18:44
Privacidade em primeiro lugar, finalmente algo substancial.
Ver originalResponder0
AirDropMissed
· 07-14 18:43
Aguardando o início da Mineração!!
Ver originalResponder0
MetaverseLandlady
· 07-14 18:24
Caramba... é ridículo, até os modelos estão mais empenhados que as pessoas.
Ver originalResponder0
FOMOmonster
· 07-14 18:19
Está a falar de ai novamente? É muito difícil fazer segurança.
AI novo pico: o modelo Manus supera os concorrentes e a encriptação totalmente homomórfica torna-se a chave para o Web3
Nova quebra de desenvolvimento de IA: o modelo Manus supera modelos de grande porte do mesmo nível, levantando preocupações de segurança
Recentemente, o modelo Manus alcançou resultados inovadores no teste GAIA, superando o desempenho de grandes modelos de linguagem da mesma categoria. Esta conquista demonstra a capacidade excepcional do Manus em lidar com tarefas complexas, como negociações comerciais multinacionais que envolvem múltiplas habilidades. As vantagens do Manus se destacam principalmente na decomposição dinâmica de objetivos, raciocínio multimodal e aprendizado aprimorado de memória. Ele é capaz de dividir grandes tarefas em centenas de subtarefas, processando simultaneamente vários tipos de dados e, por meio de aprendizado por reforço, aprimorando continuamente a eficiência da tomada de decisões e reduzindo a taxa de erros.
Este desenvolvimento reacendeu a discussão na indústria sobre o caminho do desenvolvimento da IA: devemos seguir a rota da inteligência única em direção à inteligência artificial geral (AGI) ou a rota distribuída da colaboração de sistemas multiagentes (MAS)? Ambas as rotas têm suas vantagens e desvantagens. A rota da AGI busca um único sistema que se aproxime da capacidade de decisão abrangente humana, enquanto a rota da MAS foca na coordenação de múltiplos agentes especialistas trabalhando em conjunto.
No entanto, à medida que os sistemas de IA se tornam cada vez mais inteligentes, os seus riscos potenciais também estão a aumentar. As principais preocupações incluem:
Para enfrentar esses desafios, a indústria está explorando várias tecnologias de criptografia e modelos de segurança:
Entre eles, a criptografia totalmente homomórfica é considerada uma das tecnologias chave para resolver problemas de segurança na era da IA. Ela pode proteger a privacidade do usuário a nível de dados, realizar o treinamento de modelos criptografados a nível de algoritmos e adotar criptografia de limiar para proteger a comunicação a nível colaborativo.
Apesar de a segurança tecnológica ser um tópico quente no campo das criptomoedas, muitos projetos inovadores não receberam atenção suficiente. Por exemplo, projetos de identidade descentralizada no início e redes blockchain que adotam modelos de zero confiança não conseguiram manter a popularidade no mercado a longo prazo. Atualmente, alguns projetos emergentes de FHE estão tentando aplicar essa tecnologia em cenários práticos e colaborando com várias grandes empresas de tecnologia.
À medida que a tecnologia de IA se aproxima cada vez mais do nível de inteligência humana, torna-se cada vez mais importante estabelecer um poderoso sistema de defesa de segurança. Tecnologias como a criptografia homomórfica não apenas podem resolver os desafios de segurança atuais, mas também irão estabelecer a base para a era forte da IA no futuro. No caminho para a AGI, essas tecnologias de segurança não são mais uma opção, mas sim uma condição necessária para garantir o funcionamento confiável dos sistemas de IA.