Expertos revelan el lado obscuro de la inteligencia artificial
Firmas como Google, Facebook, Apple, entre muchas otras se han encargado de resaltar los beneficios que la inteligencia artificial (IA) puede entregar, lo que ha dejado de lado los riesgos que esta misma tecnología representa.
Con el objetivo de sacar a la luz las posibles amenazas de seguridad de la inteligencia artificial, un grupo de expertos e investigadores se dieron a la tarea de realizar un reporte en el que enlistan los riesgos.
CHATBOTS MALICIOS
OS
Uno de los casos que resaltan en el reporte, titulado The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation, es la automatización en ataques de ingeniería social.
Lee: La IA puede predecir crisis financieras
De acuerdo con el informe, ante el avance en el desarrollo de chatbots, hacia el futuro estos sistemas de respuesta automatizada podrían llevar a cabo conversaciones más largas con los usuarios, permitiéndoles imitar a cierta personalidad humana con el objetivo de robar su identidad.
HACKERS AUTÓNOMOS
Otra de las alertas que muestran los expertos es que con la IA, el programar ataques específicos tendría un mejor desempeño, tomando en cuenta que esta tecnología puede funcionar sin descanso en relación con los humanos.
Para los expertos, la inteligencia artificial permitiría que los ataques automatizados analicen vulnerabilidades en cualquier momento, así como que esquiven posibles frenos de estos ataques.
UN MEJOR RECONOCIMIENTO
Machine learning, una tecnología relacionada con la inteligencia artificial, ha comenzado a ser utilizada por atacantes para lograr una mayor identificación de potentes víctimas de los hackeos.
Te puede interesar: Empresa mexicana de chatbots se expande a China
A través de esta tecnología, se pueden analizar grandes cantidades de bases de datos en cuestión de minutos, logrando así hallar a la mejor víctima.
DRONES BOMBA
La inteligencia artificial, que en el mejor de los casos permite la automatización de vehículos, podría ser también aplicada en drones para dejar caer bombas o activar cualquier otra arma por parte de grupos terroristas.
DESINFORMACIÓN HIPERPERSONALIZADA
Otra de las vulnerabilidades en el ámbito político que vislumbró el reporte es la capacidad de crear campañas de desinformación hiperpersonalizadas a través de mensajes en plataformas sociales de acuerdo con cada tipo de usuario con el objetivo de definir o modificar al electorado.