Publicidad
Publicidad

IA en el corazón del sistema financiero pero, la decisión sigue siendo humana

En poco tiempo veremos sistemas capaces de ejecutar decisiones sin intervención humana, interactuar y operar dentro de capas críticas. Pero, con esa autonomía, vendrán también los retos.
mar 07 octubre 2025 06:02 AM
ia-aliada-enemiga-servicios-financieros
Empresas, instituciones financieras y sociedad deben poner su “granito de arena” con campañas de alfabetización digital, concientización, protección de datos y acompañamiento. Digitalizar sin incluir no es transformación, es exclusión disfrazada, considera Samantha Beltrán. (Foto: BlackJack3D/Getty Images)

La Inteligencia Artificial (IA) ya no es un concepto abstracto ni una curiosidad tecnológica. Está aquí, integrada en nuestras decisiones, muchas veces sin que nos demos cuenta. En el sistema financiero, pasó de ser un asistente a convertirse en una infraestructura que acompaña —y a veces, anticipa— lo que hacemos.

Publicidad

Hoy no se trata solo de chatbots que resuelven dudas. Hablamos de sistemas que supervisan operaciones en tiempo real, automatizan tareas repetitivas y analizan patrones de comportamiento de pago. Lo verdaderamente innovador es que no interrumpen los procesos, los entienden, se adaptan, escalan y aprenden… todo, sin frenar la operación.

En otras palabras, la IA está en el corazón del sistema financiero, pero las decisiones todavía dependen de las personas.

Casos de uso, desafío de varias aristas

Muchos bancos ya la incorporan para que supervise y se encargue de tareas operativas y repetitivas, esto libera a los equipos para que se concentren en la toma de decisiones estratégicas, en la resolución de conflictos y en la atención personalizada, el usuario es el que gana.

De este cambio surgen nuevos roles: analistas de modelos, responsables de trazabilidad, gestores de implementación ética, perfiles híbridos que entienden de tecnología y operación. En instituciones como BBVA, Banco Azteca, HSBC o Scotiabank, los modelos de IA ya conviven con los equipos humanos. No los desplazan, los potencian.

Un área donde esto se vuelve especialmente visible es en la evaluación del riesgo crediticio. Algunas instituciones están probando modelos que no solo miran el historial financiero de las personas que solicitan financiamiento, también incorporan hábitos de consumo y puntualidad en el pago de servicios.

Esto, por un lado, reduce los fraudes y los intentos de suplantación de identidad. Pero, por otro, obliga a las instituciones a asumir la responsabilidad por los errores que puedan surgir. La IA aún necesita del criterio humano para tomar decisiones y comprender matices que ningún modelo, por más entrenado que esté, puede interpretar por completo.

Algunas entidades ya ofrecen alternativas de pago personalizadas en tiempo real, un tema que requiere trazabilidad. Si una IA sugiere una solución, necesitamos saber qué datos utilizó y bajo qué lógica. Detrás de cada decisión debe haber alguien con nombre, cargo y responsabilidad.

Regulación ¿pendiente?

No menos importante es el tema de la regulación que aún no reconoce explícitamente a los agentes autónomos como parte del ciclo de decisión. No hay lineamientos de trazabilidad, ni estándares sobre transparencia, ni criterios mínimos de implementación ética.

A eso se suma que las autorizaciones de uso de datos personales aún no contemplan el entrenamiento de modelos de inteligencia artificial. Y el problema apenas empieza. ¿Quién resguarda esa información? ¿Qué ocurre si la IA alucina, sugiere productos de la competencia o emite recomendaciones equivocadas? El riesgo ya no es técnico, es reputacional. Y puede ser irreversible.

Mientras tanto, los “expertos” aparecen por todas partes, vendiendo soluciones sin entender el contexto ni dimensionar los riesgos. En estos casos, dejarse guiar por alguien que no domina el tema puede salir más caro que no adoptar la tecnología. Por eso, la capacitación interna no es opcional, es estratégica. Hay que entrenar modelos, sí, pero también personas capaces de interpretar resultados, detectar desviaciones y activar alertas antes de que el problema escale.

Digitalización no siempre es inclusión

No podemos dejar de lado que no todos pueden interactuar con estos sistemas. Hay millones de adultos mayores, habitantes de zonas rurales, personas con discapacidad o analfabetas digitales que se están quedando fuera. Y no por falta de interés, sino por barreras de acceso.

Aquí, el rol del gobierno es clave, pero no exclusivo. Las empresas, las instituciones financieras y la sociedad deben poner su “granito de arena” con campañas de alfabetización digital, concientización, protección de datos y acompañamiento. Digitalizar sin incluir no es transformación, es exclusión disfrazada.

Publicidad

Auditar, corregir y regular no basta

En poco tiempo veremos sistemas capaces de ejecutar decisiones sin intervención humana, interactuar y operar dentro de capas críticas. Pero, con esa autonomía, vendrán también los retos: reclamos y discriminación por sesgos, exclusiones automáticas, decisiones imposibles de rastrear o fraudes invisibles. No es poca cosa y debemos tenerlo en cuenta.

Por eso, ya no basta con auditar, corregir o regular. Se necesita algo más profundo como gestionar de forma integral. No solo se trata de cuidar el cómo, sino de regular el quién. Quién decide, quién supervisa, quién responde.

Porque el mayor riesgo no es la IA, es dejar que tome decisiones sin que nadie se haga cargo. Pero, ¿estamos listos para asumir esa responsabilidad?

____

Nota del editor: Samantha Beltrán es Head of Sales Operations en YG Consultores. Las opiniones publicadas en esta columna corresponden exclusivamente a la autora.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad