Getting your Trinity Audio player ready...
|
Panorama Tecnología. Un informe de OpenAI advierte que, más allá de los usos legítimos, ChatGPT ha sido empleada para realizar operaciones maliciosas.
Desde febrero del año pasado, OpenAI ha interrumpido la actividad de 40 redes que infringieron los términos de uso de ChatGPT.
Según la compañía en China, Rusia, Corea y Camboya, utilizaron el chatbot para desplegar ciberataques, estafas y operaciones de influencia encubiertas.
Pese a que ChatGPT prohíbe la creación de este tipo de contenido, el informe advierte que, si un usuario logra engañar al sistema, podría generar correos o anuncios con apariencia legítima.
En Corea los ciberdelincuentes desarrollaron malware y una infraestructura de comando y control, mientras que una red en Camboya, Birmania y Nigeria intentó emplear el chatbot para ejecutar campañas fraudulentas dirigidas a engañar a personas.
También, el informe señala que en regímenes autoritarios se ha recurrido a ChatGPT para crear herramientas destinadas a la monitorización masiva de redes sociales.
La IA también ha sido utilizada para generar contenido en plataformas como YouTube y TikTok, con el objetivo de difundir desinformación y manipular la opinión pública mediante información sesgada.
Los expertos en ciberseguridad insisten en que los peligros más relevantes asociados al uso inadecuado de ChatGPT son el phishing y el malvertising.
El primero consiste en el envío de mensajes diseñados para engañar a los usuarios y obtener datos confidenciales, mientras que el segundo hace referencia a anuncios falsos que redirigen a sitios web maliciosos.