Cómo los hackers usan ChatGPT para desarrollar 'malware' peligroso
Cibercriminales usan ChatGPT para crear malware y contenido engañoso en redes sociales, aunque sin generar grandes vulnerabilidades reales.
Los cibercriminales están aprovechando el modelo de lenguaje GPT de OpenAI para desarrollar software malicioso con apoyo de la inteligencia artificial, a pesar de las barreras implementadas por la empresa tecnológica. Además, utilizan la IA para crear y difundir contenido manipulado en redes sociales. Así lo indica el reciente informe de OpenAI sobre operaciones cibernéticas e influencia en línea.
OpenAI ha interrumpido más de 20 redes maliciosas dedicadas a actividades fraudulentas que han tratado de explotar sus modelos. Estas operaciones incluyen desde la creación de malware hasta la redacción de publicaciones engañosas en redes sociales, como detalla la compañía en la actualización de su informe "Influencia y operaciones cibernéticas".
OpenAI toma medidas
El informe de OpenAI busca identificar cómo actores maliciosos utilizan IA para actividades delictivas y planificar medidas preventivas. Hasta octubre de 2024, la compañía ha comprobado que estos delincuentes emplean IA en fases intermedias, como después de adquirir herramientas básicas —cuentas de redes sociales o correos electrónicos—, pero antes de lanzar publicaciones engañosas o software malicioso.
Si bien los cibercriminales usan los modelos de ChatGPT, la empresa asegura que no se han observado avances significativos en la creación de nuevo malware ni en la explotación de vulnerabilidades reales. Sin embargo, sí se ha identificado actividad engañosa en redes sociales con gran alcance, aunque este éxito se debió más al engaño sobre el uso de IA que a la IA en sí.
Un ejemplo relevante es el del grupo chino SweetSpect, que utilizó los modelos de OpenAI para respaldar ciberataques y realizar ataques de phishing. Otro caso es el del grupo iraní STORM-0817, que empleó IA para depurar código y desarrollar malware rudimentario para Android.
En cuanto a la seguridad electoral, OpenAI destaca que en un año con elecciones en 50 países, no se han detectado operaciones de influencia significativas ni audiencias virales creadas a través del uso de sus modelos.
Lo más popular
-
Una docena de ministros y altos cargos de Sánchez, salpicados por tráfico de influencias en la trama Koldo -
Sánchez prorroga un año más el decreto antidesahucios y alarga la agonía de las víctimas de la okupación: "Es inhumano" -
Simoneta Gómez-Acebo reúne a sus hermanos, a la infanta Margarita y a los Zurita en Nochebuena -
Alejandra Rubio comparte el primer regalo de Nochebuena que ha recibido su hijo Carlo -
La unidad de la Guardia Civil que dio de alta como colaborador a Aldama recibió orden de no comunicárselo a la UCO
Ver los comentarios Ocultar los comentarios