Publicidad
Revista Digital
Publicidad

El acceso a la IA, como el tabaco, no es apta para niños

El diseño comercial de la IA ignora filtros para menores. Su modelo prioriza monetizar la atención, aun cuando los expone a riesgos emocionales, contenido sexual y daños a la salud mental.
mié 04 febrero 2026 01:30 PM
La IA no está hecha para niños: así puede impactar en su cerebro y llevarlos a "una oscuridad muy profunda"
El mes pasado, OpenAI anunció una nueva función en ChatGPT que predecirá la edad de los usuarios, cuya finalidad será identificar a los menores y establecer restricciones de contenido a sus conversaciones. Sin embargo, el impacto de estas plataformas ya es latente, pues se han registrado suicidios de adolescentes relacionados a las conversaciones con ellas, las cuales llegan a tener temas sexuales.

La industria de la inteligencia artificial (IA) se encuentra en una encrucijada ética donde los intereses financieros parecen haber tomado la delantera sobre la seguridad de los usuarios más vulnerables: las infancias. A medida que estas herramientas se integran en la vida cotidiana, la falta de salvaguardias específicas para menores debe ser una preocupación crítica en el ecosistema tecnológico.

Davi Reis, asesor tecnológico y experto en IA de Unico, empresa especializada en la prevención del fraude digital, advierte que el diseño actual de estas tecnologías no está pensado para proteger, sino para capitalizar la atención del usuario. Desde su perspectiva, este enfoque responde a una lógica de mercado que ignora las etapas de desarrollo biológico y emocional de los niños.

Según datos de Common Sense Media, los adolescentes estadounidenses pasan en promedio más de siete horas al día frente a pantallas sin contar el tiempo escolar, un uso intensivo de dispositivos electrónicos que se ha asociado con riesgos de ansiedad, depresión y problemas de sueño entre los jóvenes.

Publicidad

El experto es contundente al señalar la motivación principal de las grandes empresas del sector. “El cerebro de las personas está siendo secuestrado para otras cosas, principalmente para ganar dinero”, afirma Reis al explicar por qué la seguridad infantil no ha sido una prioridad en los últimos años.

Esta problemática no es nueva, pero la IA presenta un riesgo de una naturaleza distinta a la de las redes sociales convencionales. Mientras que el uso excesivo del teléfono ya mostraba efectos nocivos y adictivos, la IA introduce una interacción activa y "conocedora" que puede ser mucho más persuasiva para una mente en formación.

Apenas el mes pasado, OpenAI anunció una nueva función en ChatGPT que predecirá la edad de los usuarios, cuya finalidad será identificar a los menores y establecer restricciones de contenido a sus conversaciones. Sin embargo, el impacto de estas plataformas ya es latente, pues se han registrado suicidios de adolescentes relacionados a las conversaciones con ellas, las cuales llegan a tener temas sexuales.

Al respecto, el informe Child Safety Online: Global Challenges and Strategies, elaborado por la UNICEF encontró que más de uno de cada tres niños (35%) de entre nueve y 17 años ha estado expuesto a contenido sexual explícito sin filtro en plataformas online.

Publicidad

La IA sin filtros

Reis subraya que si bien la IA puede ser beneficiosa en teoría, carece de elementos humanos esenciales como la entonación de voz y la expresión física, fundamentales para el aprendizaje infantil. Por esta razón, el experto es drástico en su postura, la cual afirma que “en este punto, la IA no es segura para los niños” y por ello no se la permite a sus hijos.

El riesgo para la salud mental es uno de los puntos más alarmantes. Los adolescentes, quienes están en una etapa de desarrollo de su autoconfianza y valores, se enfrentan a algoritmos que pueden exponerlos a ideas peligrosas o bucles de contenido dañino, incluyendo temas relacionados con el suicidio.

La OCDE indica que el cerebro adolescente continúa desarrollándose hasta aproximadamente los 25 años, particularmente en áreas de control de impulsos y toma de decisiones, lo que hace a este grupo más susceptible a estímulos persuasivos y menos capaz de manejar riesgos de adicción digital.

En este sentido, Reis apunta que la exposición a la vastedad del pensamiento humano sin filtros es otro peligro latente. “Están hablando con ‘fantasmas’, están hablando con ideas, y eso podría llevarlos a una oscuridad muy profunda”, advierte sobre el uso no supervisado de estas herramientas.

Publicidad

A pesar de estos riesgos, las empresas líderes del mercado parecen enfocar sus esfuerzos en otros segmentos. Reis critica la dirección que han tomado gigantes como OpenAI, señalando que la innovación está impulsada por el potencial de negocio inmediato y no por la responsabilidad social en referencia al “modo adulto” que prevén lanzar para ChatGPT en el primer trimestre del año.

“OpenAI está lanzando el modo para adultos, no el modo seguro para niños, simplemente porque se dan cuenta de que hay un negocio por hacer”, sentencia Reis, destacando la diferencia entre empresas como Roblox o Google, que han intentado crear entornos moderados para menores.

El modelo económico basado en la publicidad y la recopilación de datos agrava el problema. Aunque actualmente muchas herramientas son subsidiadas por capital de riesgo, el experto prevé que pronto el pago será la privacidad de los jóvenes a través del perfilamiento masivo y la venta de datos.

Una regulación para balancear seguridad y beneficios

Ante la inacción de la industria, la necesidad de regulaciones estrictas se vuelve imperativa. Para Reis, el Estado debe intervenir para equilibrar la balanza entre el beneficio corporativo y el bienestar social, tal como se ha hecho históricamente con otras industrias.

Para el experto, esta intervención gubernamental es un paso natural que ya se ha dado en otros sectores, como cuando se establecieron límites estrictos a la cantidad de azúcar permitida en productos dirigidos a niños o se prohibió la venta de dulces dentro de los planteles escolares.

Según información de la UNICEF y la Unión Europea, menos del 10% de las legislaciones del mundo tienen regulaciones específicas que obliguen a las plataformas a implementar “protecciones centradas en menores” para IA y sistemas automatizados de contenido.

No obstante, puntualiza que la propuesta no es prohibir la tecnología, sino condicionar el éxito financiero a la seguridad. La legislación, menciona, debe alinear los incentivos para que las empresas que decidan crear espacios para niños lo hagan bajo estándares rigurosos y responsables.

De hecho, esta transición hacia entornos más controlados encuentra un precedente en la industria del tabaco, donde la sociedad pasó de tolerar el consumo en espacios públicos a implementar regulaciones que hoy sancionan o incluso pueden clausurar a aquellos negocios que permiten este tipo de prácticas.

Eso sí, Reis insiste en que la carga no puede recaer solo en los padres. Ante empresas que invierten miles de millones de dólares para hacer sus productos atractivos, las familias se encuentran en una posición de desventaja total si no cuentan con el respaldo del gobierno.

Además de la regulación es necesaria una propuesta educativa donde se enseñe a los niños la matemática y los conceptos detrás de la IA. Según el experto, entender cómo se construye esta tecnología es la mejor forma de quitarle el velo de "magia" y permitir que la dominen de forma segura.

Si se logran implementar estas protecciones, el futuro de la relación entre los niños y la IA podría ser transformador. La curiosidad infinita de los menores, potenciada por una herramienta que contiene todo el conocimiento humano, podría generar una generación más capaz que las anteriores.

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad