BlockBeats informou em 27 de fevereiro que a OpenAI, desenvolvedora do ChatGPT, recentemente afirmou que baniu e removeu contas de usuários da Coreia do Norte, suspeitos de usar sua tecnologia para atividades maliciosas, incluindo vigilância e manipulação da opinião pública. Em um relatório, a OpenAI apontou que essas atividades são formas pelas quais regimes autoritários podem usar a tecnologia de IA para controlar os Estados Unidos e seu próprio povo. A empresa também acrescentou que usa ferramentas de IA para detectar essas operações maliciosas. A OpenAI não revelou o número exato de contas banidas nem o período em que as ações ocorreram. Em um caso, suspeitos de comportamento malicioso relacionados à Coreia do Norte usaram IA para gerar currículos e perfis online falsos de candidatos a emprego, com o objetivo fraudulento de se candidatar a vagas em empresas ocidentais. Além disso, há também uma série de contas do ChatGPT, aparentemente relacionadas a fraudes financeiras no Camboja, que usam a tecnologia da OpenAI para traduzir e gerar comentários em plataformas de mídia social e comunicação (incluindo X e Facebook).
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
OpenAI baniu a organização de Hackers norte-coreanos suspeita de atividades maliciosas conta
BlockBeats informou em 27 de fevereiro que a OpenAI, desenvolvedora do ChatGPT, recentemente afirmou que baniu e removeu contas de usuários da Coreia do Norte, suspeitos de usar sua tecnologia para atividades maliciosas, incluindo vigilância e manipulação da opinião pública. Em um relatório, a OpenAI apontou que essas atividades são formas pelas quais regimes autoritários podem usar a tecnologia de IA para controlar os Estados Unidos e seu próprio povo. A empresa também acrescentou que usa ferramentas de IA para detectar essas operações maliciosas. A OpenAI não revelou o número exato de contas banidas nem o período em que as ações ocorreram. Em um caso, suspeitos de comportamento malicioso relacionados à Coreia do Norte usaram IA para gerar currículos e perfis online falsos de candidatos a emprego, com o objetivo fraudulento de se candidatar a vagas em empresas ocidentais. Além disso, há também uma série de contas do ChatGPT, aparentemente relacionadas a fraudes financeiras no Camboja, que usam a tecnologia da OpenAI para traduzir e gerar comentários em plataformas de mídia social e comunicação (incluindo X e Facebook).