El diseño comercial de la IA ignora filtros para menores. Su modelo prioriza monetizar la atención, aun cuando los expone a riesgos emocionales, contenido sexual y daños a la salud mental
La industria de la inteligencia artificial (IA) se encuentra en una encrucijada ética donde los intereses financieros parecen haber tomado la delantera sobre la seguridad de los usuarios más vulnerables: las infancias.
A medida que estas herramientas se integran en la vida cotidiana, la falta de salvaguardias específicas para menores debe ser una preocupación crítica en el ecosistema tecnológico.
Davi Reis, asesor tecnológico y experto en IA de Unico, empresa especializada en la prevención del fraude digital, advierte que el diseño actual de estas tecnologías no está pensado para proteger, sino para capitalizar la atención del usuario.
Desde su perspectiva, este enfoque responde a una lógica de mercado que ignora las etapas de desarrollo biológico y emocional de los niños.
Según datos de Common Sense Media, los adolescentes estadounidenses pasan en promedio más de siete horas al día frente a pantallas sin contar el tiempo escolar, un uso intensivo de dispositivos electrónicos que se ha asociado con riesgos de ansiedad, depresión y problemas de sueño entre los jóvenes.
El experto es contundente al señalar la motivación principal de las grandes empresas del sector.
“El cerebro de las personas está siendo secuestrado para otras cosas, principalmente para ganar dinero”, afirma Reis al explicar por qué la seguridad infantil no ha sido una prioridad en los últimos años.
Esta problemática no es nueva, pero la IA presenta un riesgo de una naturaleza distinta a la de las redes sociales convencionales.
Mientras que el uso excesivo del teléfono ya mostraba efectos nocivos y adictivos, la IA introduce una interacción activa y “conocedora” que puede ser mucho más persuasiva para una mente en formación.
Apenas el mes pasado, OpenAI anunció una nueva función en ChatGPT que predecirá la edad de los usuarios, cuya finalidad será identificar a los menores y establecer restricciones de contenido a sus conversaciones.
Sin embargo, el impacto de estas plataformas ya es latente, pues se han registrado suicidios de adolescentes relacionados a las conversaciones con ellas, las cuales llegan a tener temas sexuales.
Al respecto, el informe Child Safety Online: Global Challenges and Strategies, elaborado por la UNICEF encontró que más de uno de cada tres niños (35%) de entre nueve y 17 años ha estado expuesto a contenido sexual explícito sin filtro en plataformas online.
LA IA SIN FILTROS
Reis subraya que si bien la IA puede ser beneficiosa en teoría, carece de elementos humanos esenciales como la entonación de voz y la expresión física, fundamentales para el aprendizaje infantil.
Por esta razón, el experto es drástico en su postura, la cual afirma que “en este punto, la IA no es segura para los niños” y por ello no se la permite a sus hijos.
El riesgo para la salud mental es uno de los puntos más alarmantes. Los adolescentes, quienes están en una etapa de desarrollo de su autoconfianza y valores, se enfrentan a algoritmos que pueden exponerlos a ideas peligrosas o bucles de contenido dañino, incluyendo temas relacionados con el suicidio.
La OCDE indica que el cerebro adolescente continúa desarrollándose hasta aproximadamente los 25 años, particularmente en áreas de control de impulsos y toma de decisiones, lo que hace a este grupo más susceptible a estímulos persuasivos y menos capaz de manejar riesgos de adicción digital.
En este sentido, Reis apunta que la exposición a la vastedad del pensamiento humano sin filtros es otro peligro latente.
“Están hablando con ‘fantasmas’, están hablando con ideas, y eso podría llevarlos a una oscuridad muy profunda”, advierte sobre el uso no supervisado de estas herramientas.
A pesar de estos riesgos, las empresas líderes del mercado parecen enfocar sus esfuerzos en otros segmentos.
Reis critica la dirección que han tomado gigantes como OpenAI, señalando que la innovación está impulsada por el potencial de negocio inmediato y no por la responsabilidad social en referencia al “modo adulto” que prevén lanzar para ChatGPT en el primer trimestre del año.
“OpenAI está lanzando el modo para adultos, no el modo seguro para niños, simplemente porque se dan cuenta de que hay un negocio por hacer”, sentencia Reis, destacando la diferencia entre empresas como Roblox o Google, que han intentado crear entornos moderados para menores.
El modelo económico basado en la publicidad y la recopilación de datos agrava el problema. Aunque actualmente muchas herramientas son subsidiadas por capital de riesgo, el experto prevé que pronto el pago será la privacidad de los jóvenes a través del perfilamiento masivo y la venta de datos.









