BlockBeats informou em 27 de fevereiro que a OpenAI, desenvolvedora do ChatGPT, recentemente afirmou que baniu e removeu contas de usuários da Coreia do Norte, suspeitos de usar sua tecnologia para atividades maliciosas, incluindo vigilância e manipulação da opinião pública. Em um relatório, a OpenAI apontou que essas atividades são formas pelas quais regimes autoritários podem usar a tecnologia de IA para controlar os Estados Unidos e seu próprio povo. A empresa também acrescentou que usa ferramentas de IA para detectar essas operações maliciosas. A OpenAI não revelou o número exato de contas banidas nem o período em que as ações ocorreram. Em um caso, suspeitos de comportamento malicioso relacionados à Coreia do Norte usaram IA para gerar currículos e perfis online falsos de candidatos a emprego, com o objetivo fraudulento de se candidatar a vagas em empresas ocidentais. Além disso, há também uma série de contas do ChatGPT, aparentemente relacionadas a fraudes financeiras no Camboja, que usam a tecnologia da OpenAI para traduzir e gerar comentários em plataformas de mídia social e comunicação (incluindo X e Facebook).
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
OpenAI baniu a organização de Hackers norte-coreanos suspeita de atividades maliciosas conta
BlockBeats informou em 27 de fevereiro que a OpenAI, desenvolvedora do ChatGPT, recentemente afirmou que baniu e removeu contas de usuários da Coreia do Norte, suspeitos de usar sua tecnologia para atividades maliciosas, incluindo vigilância e manipulação da opinião pública. Em um relatório, a OpenAI apontou que essas atividades são formas pelas quais regimes autoritários podem usar a tecnologia de IA para controlar os Estados Unidos e seu próprio povo. A empresa também acrescentou que usa ferramentas de IA para detectar essas operações maliciosas. A OpenAI não revelou o número exato de contas banidas nem o período em que as ações ocorreram. Em um caso, suspeitos de comportamento malicioso relacionados à Coreia do Norte usaram IA para gerar currículos e perfis online falsos de candidatos a emprego, com o objetivo fraudulento de se candidatar a vagas em empresas ocidentais. Além disso, há também uma série de contas do ChatGPT, aparentemente relacionadas a fraudes financeiras no Camboja, que usam a tecnologia da OpenAI para traduzir e gerar comentários em plataformas de mídia social e comunicação (incluindo X e Facebook).