A ameaça dos modelos de IA sem restrições à indústria de encriptação e estratégias de resposta

robot
Geração do resumo em andamento

A Caixa de Pandora Aberta: A Ameaça de Modelos de IA Ilimitados para a Indústria de encriptação

Com o rápido desenvolvimento da tecnologia de inteligência artificial, modelos avançados como a série GPT e Gemini estão a mudar profundamente a nossa forma de trabalhar e viver. No entanto, os avanços tecnológicos também trouxeram riscos potenciais — a emergência de modelos de linguagem de grande escala sem restrições ou maliciosos.

O chamado modelo de linguagem sem restrições refere-se àqueles sistemas de IA que foram intencionalmente projetados, modificados ou "desbloqueados" para contornar os mecanismos de segurança e as limitações éticas embutidas nos modelos tradicionais. Embora os desenvolvedores de IA tradicionais invistam muitos recursos para evitar o uso indevido dos modelos, algumas pessoas ou organizações, por motivos ilegais, começam a procurar ou desenvolver modelos sem restrições. Este artigo explorará casos típicos desse tipo de modelo de IA sem restrições, as ameaças potenciais na indústria de encriptação, bem como os desafios de segurança relacionados e as estratégias de resposta.

Caixa de Pandora: Como modelos grandes e ilimitados ameaçam a segurança da encriptação no setor?

A Ameaça dos Modelos de IA Ilimitados

A emergência de modelos desta natureza reduziu significativamente a barreira de entrada para a criminalidade na rede. Tarefas que antes exigiam habilidades profissionais, como escrever código malicioso, criar e-mails de phishing e planejar fraudes, agora podem ser facilmente realizadas até por iniciantes em tecnologia, com a ajuda de IA sem restrições. Os atacantes apenas precisam obter os pesos e o código-fonte de modelos de código aberto e, em seguida, realizar o ajuste fino com um conjunto de dados que contenha conteúdo malicioso ou instruções ilegais, para criar ferramentas de ataque personalizadas.

Este modelo traz múltiplos riscos:

  1. O atacante pode personalizar o modelo com base em alvos específicos, gerando conteúdos mais enganosos que contornam a revisão de conteúdo da IA convencional.
  2. O modelo pode ser utilizado para gerar rapidamente variantes de código de sites de phishing, ou para personalizar textos de fraude para diferentes plataformas.
  3. A acessibilidade de modelos de código aberto fomentou a formação de um ecossistema de IA subterrânea, proporcionando um terreno fértil para transações e desenvolvimentos ilegais.

Modelos de IA típicos sem restrições e suas ameaças

WormGPT:versão sombria do GPT

WormGPT é um modelo de IA malicioso vendido abertamente em fóruns subterrâneos, alegando não ter nenhuma limitação ética. Ele é baseado em modelos de código aberto como o GPT-J 6B e foi treinado em uma grande quantidade de dados relacionados a malware. Os usuários podem obter um mês de acesso por apenas 189 dólares.

No campo da encriptação, WormGPT pode ser mal utilizado para:

  • Gerar e-mails de phishing altamente realistas, induzindo os usuários a clicar em links maliciosos ou a divulgar chaves privadas.
  • Ajudar atacantes com níveis técnicos mais baixos a escrever código malicioso para roubar arquivos de carteira, monitorar a área de transferência, entre outros.
  • Conduzir fraudes automatizadas, responder automaticamente a potenciais vítimas, orientando-as a participar em projetos falsos.

DarkBERT:a espada de dois gumes do conteúdo da dark web

DarkBERT é um modelo de linguagem pré-treinado em dados da dark web, originalmente destinado a ajudar pesquisadores e instituições de aplicação da lei a entender a ecologia da dark web. No entanto, se for obtido ou referenciado por elementos criminosos, pode trazer riscos sérios.

As ameaças potenciais no campo da encriptação incluem:

  • Coletar informações dos usuários e da equipe do projeto, para fraudes sociais precisas.
  • Copiar estratégias maduras de roubo de moedas e lavagem de dinheiro na dark web.

FraudGPT: uma ferramenta multifuncional para fraudes online

FraudGPT auto-intitula-se como a versão melhorada do WormGPT, com funcionalidades mais abrangentes, sendo principalmente vendida na dark web. No campo da encriptação, pode ser abusado para:

  • Gerar documentos de apresentação de projetos de encriptação falsos realistas, site oficial, etc., para implementar fraudes de ICO.
  • Gerar em massa páginas de phishing que imitam exchanges conhecidas.
  • Fabricar em massa comentários falsos, promover tokens fraudulentos ou difamar projetos concorrentes.
  • Imitar o diálogo humano, estabelecer confiança com o usuário e induzir à divulgação de informações sensíveis.

GhostGPT: assistente de IA sem restrições morais

GhostGPT é claramente posicionado como um chatbot de IA sem restrições morais. As potenciais ameaças no campo da encriptação incluem:

  • Gerar e-mails de phishing altamente realistas, fingindo ser a exchange a emitir notificações falsas.
  • Gerar rapidamente contratos inteligentes com portas dos fundos ocultas, para fraudes de Rug Pull.
  • Criar malware com capacidade de deformação contínua para roubar informações da carteira.
  • Combinar discursos gerados por IA para implantar robôs de fraude nas plataformas sociais.
  • Em colaboração com outras ferramentas de IA, gerar vozes falsas de equipes de projeto para realizar fraudes telefónicas.

Venice.ai: potencial risco de acesso sem censura

A Venice.ai oferece acesso a vários modelos de IA com restrições limitadas, embora o objetivo seja explorar as capacidades da IA, também pode ser mal utilizado. Os riscos potenciais incluem:

  • Contornar a censura para gerar conteúdo malicioso, como templates de phishing, propaganda falsa, etc.
  • Reduzir a barreira de entrada para engenharia de dicas, tornando mais fácil para os atacantes obterem saídas que antes estavam restritas.
  • Acelerar a iteração do discurso de ataque, testar rapidamente e otimizar scripts de fraude.

Estratégias de Resposta

O surgimento de modelos de IA sem restrições marca um novo paradigma de ataques à segurança cibernética, que enfrentam desafios mais complexos, escaláveis e com capacidade de automação. Isso não só reduz a barreira de entrada para os ataques, mas também traz novas ameaças mais ocultas e enganosas.

Para enfrentar esses desafios, todas as partes do ecossistema de segurança precisam colaborar.

  1. Aumentar o investimento em tecnologia de deteção, desenvolver sistemas capazes de identificar e interceptar conteúdos maliciosos gerados por AI, vulnerabilidades em contratos inteligentes e códigos maliciosos.

  2. Impulsionar a construção da capacidade de defesa contra jailbreak dos modelos, explorando mecanismos de marca d'água e rastreabilidade, para que seja possível rastrear a origem de conteúdos maliciosos em cenários críticos.

  3. Estabelecer e melhorar normas éticas de IA e mecanismos de regulação, limitando desde a origem o desenvolvimento e o abuso de modelos maliciosos.

  4. Fortalecer a educação dos usuários, aumentando a capacidade do público para reconhecer conteúdos gerados por IA e a consciência de segurança.

  5. Promover a cooperação industrial, estabelecer um mecanismo de compartilhamento de informações e alertar prontamente sobre novas ameaças relacionadas à IA.

Diante deste jogo de ataque e defesa que continua a escalar, apenas a colaboração entre várias partes e a inovação constante poderão enfrentar eficazmente os desafios de segurança da era da IA, garantindo o desenvolvimento saudável da encriptação.

Pandora's Box: Como modelos grandes e ilimitados ameaçam a segurança da encriptação?

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 4
  • Compartilhar
Comentário
0/400
LiquidationWizardvip
· 07-11 03:13
Sugere-se que o nó seja auditado manualmente, não se deve confiar totalmente na IA!
Ver originalResponder0
GasFeeCryervip
· 07-11 03:07
Ter uma Acumulação de moedas com medo de ser roubada não seria suficiente?
Ver originalResponder0
LayerZeroHerovip
· 07-11 03:04
Só há ganhos quando há riscos!
Ver originalResponder0
SchrodingerPrivateKeyvip
· 07-11 02:44
Só quem tem dinheiro consegue fazê-lo gerar mais dinheiro!
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)