Publicidad

Síguenos en nuestras redes sociales:

Publicidad

La seguridad (e inseguridad) de la IA generativa

A medida que la IA evolucione y se convierta en una parte integral de nuestras vidas, es crucial que seamos responsables de su uso y desarrollo.
mié 31 mayo 2023 06:09 AM
La seguridad (e inseguridad) de la IA generativa
La carrera por la IA generativa y sus capacidades transformadoras nos ha demostrado el potencial tanto para el bien como para el mal, considera Carlos Celaya.

(Expansión) - El reciente lanzamiento de GhatGPT de OpenAI puso a la Inteligencia Artificial (IA) en el centro de atención de la mayoría de la población e invitó a la reflexión a todas las industrias, reflejando un cambio en la estrategia de varias de ellas. Sin importar de qué industria formamos parte, todos contábamos los minutos para generar un texto a partir de un prompt en ChatGPT o una imagen en DALL*E y Midjourney.

Aunado a esto, el subsecuente anuncio de Bard de Google , Copilot 365 de Microsoft y Bedrock de Amazon evidenció que actualmente nos encontramos ante una gran carrera por la IA, particularmente la generativa mediante modelos de lenguajes de gran escala y su capacidad pre-entrenada transformadora.

Publicidad

El desarrollo de la IA generativa ha sido considerada tan revolucionaria como la de la interfaz gráfica de usuario, el microprocesador, en su momento el Internet y recientemente la nube.

Concretamente en los negocios, vemos que la adopción de IA ha experimentado un crecimiento exponencial. Según McKinsey, la IA podría generar hasta 13 billones de dólares en valor económico global para el 2030. Además, la automatización de procesos mediante IA ha permitido a las empresas reducir los costos operativos, mejorar la eficiencia y agilizar los flujos de trabajo, lo que se traduce en una mayor competitividad. O como en la industria manufacturera, donde la IA se utiliza para optimizar la cadena de suministro y predecir fallos en la maquinaria, y en el sector financiero, donde se emplea para detectar fraudes y mejorar la gestión de riesgos.

Debido a la gran cantidad de datos que se necesitan analizar y procesar, el uso del Machine Learning (ML) como un mecanismo de ciberseguridad comenzó a gestarse desde inicios de este siglo a la par del Big Data. Por ejemplo, hoy, gracias al ML, la IA ayuda a detectar actividad inusual en cuentas de usuarios o cargos fuera de lo normal en tarjetas de crédito.

La IA ha permitido a las áreas de TI identificar amenazas con mayor velocidad y efectividad, y resulta muy efectiva en la detección de ataques de seguridad tales como ransomware; sin embargo, es innegable que esta tecnología también tiene el potencial para ser utilizada por ciberdelincuentes.

De acuerdo con una encuesta levantada por BlackBerry en 2023 a especialistas en TI en América del Norte, Australia y Reino Unido, más de la mitad de los encuestadosestimó que en menos de un año se verán casos en los que ciberdelincuentes empleen ChatGPT para generar un código que explote alguna vulnerabilidad. Aunado a lo anterior, con la digitalización y el auge del IoT –la premisa de que cualquier artículo puede ser una computadora capaz de ​​generar, procesar y reportar información– la carga por garantizar la seguridad de cada dispositivo se ha vuelto más grande.

En una entrevista para ABC News, Sam Altman, CEO de OpenAI, sostuvo que una de sus principales preocupaciones era el uso de modelos de este tipo para la desinformación masiva y ciberataques. Por su parte, diversos especialistas en el sector han notado que otro de los puntos de interés y precaución debe ser la privacidad de datos de los usuarios. Tema de interés si recordamos que, en marzo de 2023, OpenAI suspendió las operaciones de ChatGPT por una falla que permitía ver el historial de actividad de algunos usuarios.

Al final de la cadena operativa, tanto del lado de la ciberseguridad como el de la ciberdelincuencia, están las personas. Garantizar el uso ético y transparente de las herramientas de IA es absolutamente indispensable y, como en todo, ello solo será posible mediante un consenso entre las voces expertas que dé pie a un marco regulatorio con conocimiento de causa.

Publicidad

Mientras escribo este artículo, el CEO de OpenAI se encuentra testificando ante el Congreso de Estados Unidos. Frente a los integrantes del Subcomité Judicial del Senado sobre Privacidad, Tecnología y Derecho, Altman llama a crear agencias que regulen el desarrollo y funcionamiento de la IA, así como mitiguen los riesgos.

Cabe recordar que conversaciones similares se están gestando en el Parlamento Europeo. Se prevé que en junio de este año la Eurocámara vote y posiblemente apruebe el proyecto que, por ejemplo, incluye prohibiciones a los sistemas de categorización biométrica y de perfilación para evaluar el riesgo de que una persona o grupo de personas cometa un delito basado en “características sensibles” (género, etnia, religión, entre otros).

Las empresas también requieren adoptar y definir un Código de Ética Digital en donde se considere de manera importante el componente de IA, asegurando tomar la oportunidad de utilizarla para mantenerse competitivos, pero siendo conscientes de evitar caer en temas sensibles como: discriminación, falta de equidad de género, orientación, privacidad de datos, desinformación, entre otros.

A medida que la IA evolucione y se convierta en una parte integral de nuestras vidas, es crucial que seamos responsables de su uso y desarrollo. La carrera por la IA generativa y sus capacidades transformadoras nos ha demostrado el potencial tanto para el bien como para el mal. Las discusiones que se están llevando a cabo tanto en el Congreso de Estados Unidos como en el Parlamento Europeo son pasos en la dirección correcta hacia la creación de regulaciones que protejan a las personas y mitiguen los riesgos.

Al final, debemos recordar que las personas somos los únicos responsables de cómo utilizamos y controlamos esta poderosa tecnología.

Nota del editor: Carlos Celaya VP Cloud & Digital Services T-Systems México. Síguelo en LinkedIn . Las opiniones publicadas en esta columna pertenecen exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad