Código impenetrable: Los ciberdelincuentes también pueden usar el ChatGPT para crear código impenetrable para analistas de seguridad.
Script Kiddies: Reducción de barreras para la entrada de ciberdelincuentes novatos. Lo cual les permitiría crear código malicioso sin conocimientos técnicos profundos.
Evasión de detección: También puede ayudar a que el código generado por piratas informáticos sea indetectable para antivirus tradicionales.
Protección de datos personales: Aun existe riesgo de que los usuarios revelen información sensible y que esta sea compartida sin su autorización.
Información confidencial: Los atacantes podrían tratar de forzar al ChatGPT a recuperar información confidencial introducida como parte de los datos de entrenamiento de la propia inteligencia artificial.
Vida privada de personas públicas: El chatbot puede ser usado para generar rumores o contenido dañino sobre la vida privada de figuras públicas.
Así, los autores del estudio resaltaron la necesidad de seguir con la investigación, desarrollo y colaboración entre la industria, los profesionales y los legisladores, para abordar estos desafíos y los que vendrán en el futuro.