Publicidad
Publicidad

El impacto del 'jailbreak' en la IA. Seguridad, ética y el futuro de DeepSeek

Este concepto ha evolucionado para referirse a la manipulación de modelos de IA con el objetivo de sortear sus medidas de seguridad, generalmente para evitar la generación de contenido dañino.
mié 09 abril 2025 06:00 AM
El impacto del 'jailbreak' en la IA. Seguridad, ética y el futuro de DeepSeek
A medida que los modelos de IA se integran de forma más profunda en sistemas corporativos, administrativos y gubernamentales, la necesidad de reforzar las medidas de seguridad se vuelve cada vez más urgente, apunta Fernando Guarneros.

Los desarrollos emergentes de código abierto, como el modelo DeepSeek de China, han marcado un antes y un después en el panorama global. En solo unos meses, este modelo de lenguaje grande (LLM) ha irrumpido con una velocidad impresionante, al desafiar la supremacía de los gigantes tecnológicos occidentales y ganarse el reconocimiento por su capacidad para manejar tareas complejas. Sin embargo, junto con sus ventajas, surgen preocupaciones significativas sobre su seguridad, específicamente, sobre la vulnerabilidad de DeepSeek a un fenómeno conocido como jailbreak.

Publicidad

Este término, tradicionalmente, se ha asociado con el desbloqueo de dispositivos como teléfonos móviles o consolas de videojuegos, con el fin de eludir las restricciones impuestas por el fabricante. En el contexto de la Inteligencia Artificial (IA), este concepto ha evolucionado para referirse a la manipulación de modelos de IA con el objetivo de sortear sus medidas de seguridad, generalmente implementadas para evitar la generación de contenido dañino. La diferencia radica en el hecho de que un jailbreak en IA permite que un modelo, que normalmente está restringido de producir resultados maliciosos, lo haga mediante trucos o vulnerabilidades en su programación.

Nuevas técnicas de ‘jailbreaking’

Recientemente, en el documento titulado “ Las recientes fugas de seguridad demuestran una amenaza emergente para DeepSeek ”, investigadores de la Unidad 42 de Palo Alto Networks, revelaron nuevas técnicas de jailbreaking, que, al ser probadas en modelos como DeepSeek, lograron eludir las barreras de seguridad y generar contenido que podría ser aprovechado con fines maliciosos. Esto confirma una de las principales preocupaciones en la ciberseguridad relacionada con la IA: la facilidad con la que los modelos avanzados pueden ser manipulados para servir a intereses oscuros.

Los actores maliciosos pueden utilizar estas vulnerabilidades para generar contenido que facilite una amplia gama de actividades ilícitas como el robo de datos, ataques de phishing, la creación de malware y la manipulación de sistemas informáticos. Lo más alarmante es que para ello antes se requerían habilidades avanzadas y acceso a recursos específicos, pero ahora son llevadas a cabo por individuos con conocimientos básicos de programación, debido a la capacidad de los modelos de IA para proporcionar instrucciones detalladas y fácilmente utilizables.

En general, todos los sectores son vulnerables a estas intrusiones, ya que hoy en día muchas organizaciones tanto públicas como privadas dependen de modelos de IA en herramientas de productividad, procesamiento de datos y comunicación, por lo que deben anticiparse a ciberataques de ingeniería social, el phishing y la manipulación de datos que son los riesgos que más se asocian con la explotación de estos modelos.

Protección ante amenazas emergentes

A medida que los modelos de IA se integran de forma más profunda en sistemas corporativos, administrativos y gubernamentales, la necesidad de reforzar las medidas de seguridad se vuelve cada vez más urgente. Las organizaciones deben estar preparadas para abordar las amenazas emergentes que podrían comprometer la seguridad de sus infraestructuras digitales y esto incluye la creación de mecanismos robustos para prevenir y detectar ataques de jailbreak.

Publicidad

El debate sobre la ética en la IA se intensifica día a día, y se convierte en un tema cada vez más complejo y multidimensional. Sin embargo, detener el avance de esta revolución tecnológica es una tarea inviable. En lugar de intentar frenar su desarrollo, es crucial incorporar en la discusión propuestas que promuevan un equilibrio entre innovación y responsabilidad.

La solución podría residir en el establecimiento de mecanismos de supervisión más avanzados, acompañados de prácticas de seguridad más sólidas y una formación ética profunda para los desarrolladores que crean estos sistemas. La transparencia, la rendición de cuentas y una vigilancia constante se presentan como pilares fundamentales para reducir los riesgos derivados del uso indebido o malintencionado de la IA. Al integrar estos principios de manera integral, se podrá avanzar hacia un futuro en el que la IA no solo impulse el progreso, sino que lo haga de manera ética y segura.

____

Nota del editor: Fernando Guarneros es Director de Operaciones en IQSEC. Las opiniones publicadas en esta columna corresponden exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad