En un mundo hiperconectado, donde la IA transforma industrias enteras, un proyecto destaca por su enfoque silencioso pero disruptivo: AURA (Adaptive User Risk Analyzer), una herramienta que pone la inteligencia artificial al servicio de la protección infantil online.
El sistema se presentará en el I Congreso de la Red Iberoamericana de Asociaciones de Psicología Jurídica y Forense y el VII Congreso Mundial de Criminología, que se celebrará los días 22, 23 y 24 de noviembre de 2025 en Valencia. Bajo el lema «Delincuencia cibernética y otros desafíos recientes en la criminología y la psicología jurídica», el evento se centrará en nuevas amenazas digitales y modelos de prevención innovadores, como el que propone AURA.
Cristian Luna, AI Solutions Architect en Evidenze, lidera el desarrollo de este sistema. En una breve entrevista, comparte la visión técnica, ética y estratégica que impulsó la creación de AURA.
IA para proteger antes del daño
AURA surgió como respuesta a una realidad alarmante: el proceso de grooming digital podía durar entre 4 y 6 meses antes de ser detectado, y más del 70% de las víctimas menores de edad no lo reportaban. Esta combinación de lentitud institucional y silencio de las víctimas creaba un vacío de protección que AURA buscó llenar.
«Nos obsesionamos con diseñar una arquitectura que pudiera identificar señales de riesgo sin almacenar conversaciones ni analizar información personal de forma directa. Era clave que AURA no se percibiera como una herramienta de vigilancia, sino como un escudo ético», explica Luna. Esa ética de diseño, conocida como privacy by design, fue uno de los pilares de esta tecnología.
Su motor central, el modelo Grooming Detector v1.0, está basado en arquitectura Transformer y entrenado mediante supervised fine-tuning. Detecta patrones de riesgo en tiempo real, permitiendo una intervención antes de que se consuma el daño psicológico o emocional. La tecnología se adapta al contexto sin emitir juicios binarios, trabajando con gradientes de riesgo y priorizando la intervención humana asistida.
Ciberseguridad más allá del firewall
AURA introdujo una nueva categoría en ciberseguridad: la detección contextual de amenazas humanas. Ya no se trata solo de bloquear ataques técnicos, sino de anticipar manipulaciones psicológicas invisibles mediante modelos adaptativos, sensibles y alineados con principios éticos.
«Estamos en el inicio de una nueva etapa, donde el enfoque no será solo bloquear amenazas externas, sino entender dinámicas humanas internas. Ese cambio de mentalidad -de reacción a anticipación- será clave en el futuro cercano», afirma Luna. Esto implica que la ciberseguridad debe evolucionar hacia un enfoque humano-céntrico, donde la IA no sustituye sino que complementa la inteligencia emocional y el juicio profesional.
Hacia un nuevo estándar de prevención digital
El potencial de AURA va más allá de una herramienta puntual. Según su creador, su visión a cinco años es que este enfoque de detección temprana se integre en protocolos educativos, regulaciones tecnológicas y estándares éticos de plataformas que operen con audiencias sensibles.
«Queremos que AURA se convierta en un nuevo estándar de protección digital. Pero también en una conversación que nos lleve a replantear el papel de la IA en la defensa de derechos fundamentales.»
La escalabilidad del modelo también abre la puerta a otras aplicaciones más allá de la infancia: detección de acoso laboral, discursos manipulativos en entornos educativos o señales de riesgo en comunidades vulnerables. La lógica es la misma: intervenir antes de que el contexto se deteriore.
IA con impacto real
Proyectos como AURA abren un camino imprescindible: el de una IA con impacto real, orientada al bien común y construida desde la intersección entre tecnología, ética y bienestar humano.
Este tipo de soluciones serán protagonistas en el Gen AI Summit Europe, donde ya el año pasado Cristian, el creador de AURA y uno de los consultores de IA que colaboran con nuestras formaciones, tuvo la posibilidad de dar una charla, Diseño de arquitecturas IA orientadas a compliance, con gran acogida del publico y donde en 2026 tendremos la posibilidad de enriquecer la charla y abordaremos desde la regulación hasta las aplicaciones críticas de la inteligencia artificial en ciberseguridad, salud, educación y gobernanza.
En My Tech Plan es una consultora que impulsa la innovación mediante experiencias estratégicas y soluciones de inteligencia artificial generativa, acelerando el crecimiento, el posicionamiento y la capacidad operativa de empresas y ecosistemas. ¿Hablamos?
🚀 Descubre el Gen AI Summit Europe, evento líder en el sur de Europa que conecta a expertos en IA, innovación y tecnología en Valencia cada año en Abril.





