BlockBeats informó el 27 de febrero que OpenAI, el desarrollador de ChatGPT, ha confirmado recientemente que ha prohibido y eliminado las cuentas de usuarios de Corea del Norte, sospechosos de utilizar su tecnología para actividades maliciosas, incluyendo vigilancia y manipulación de la opinión pública. En un informe, OpenAI señaló que estas actividades podrían ser una forma en que regímenes autoritarios utilicen la tecnología de IA para controlar a los estadounidenses y a su propia población. La compañía también mencionó que utilizan herramientas de IA para detectar estas operaciones maliciosas. OpenAI no reveló la cantidad exacta de cuentas prohibidas ni el período de tiempo en el que se llevaron a cabo las acciones. En un caso, los actores malintencionados posiblemente relacionados con Corea del Norte utilizaron la IA para crear currículums y perfiles personales falsos de solicitantes de empleo con el objetivo de solicitar fraudulentamente puestos de trabajo en empresas occidentales. Además, también se identificaron cuentas de ChatGPT sospechosas de estar relacionadas con fraudes financieros en Camboya, que utilizaban la tecnología de OpenAI para traducir y generar comentarios en plataformas de redes sociales y comunicación (incluidos X y Facebook).
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
OpenAI ha prohibido la cuenta del grupo de hackers norcoreanos sospechosos de actividades maliciosas
BlockBeats informó el 27 de febrero que OpenAI, el desarrollador de ChatGPT, ha confirmado recientemente que ha prohibido y eliminado las cuentas de usuarios de Corea del Norte, sospechosos de utilizar su tecnología para actividades maliciosas, incluyendo vigilancia y manipulación de la opinión pública. En un informe, OpenAI señaló que estas actividades podrían ser una forma en que regímenes autoritarios utilicen la tecnología de IA para controlar a los estadounidenses y a su propia población. La compañía también mencionó que utilizan herramientas de IA para detectar estas operaciones maliciosas. OpenAI no reveló la cantidad exacta de cuentas prohibidas ni el período de tiempo en el que se llevaron a cabo las acciones. En un caso, los actores malintencionados posiblemente relacionados con Corea del Norte utilizaron la IA para crear currículums y perfiles personales falsos de solicitantes de empleo con el objetivo de solicitar fraudulentamente puestos de trabajo en empresas occidentales. Además, también se identificaron cuentas de ChatGPT sospechosas de estar relacionadas con fraudes financieros en Camboya, que utilizaban la tecnología de OpenAI para traducir y generar comentarios en plataformas de redes sociales y comunicación (incluidos X y Facebook).