Inteligencia artificial en PRL y CAE: lo que ya está pasando (y lo que queda por hacer)

mayo 7, 2026

En abril de 2026, más de 1.000 profesionales de PRL se registraron en el webinar «PRL y CAE en la era de la IA» que organizamos junto a Jorge Arteagabeitia, Director de Zona en Avanta Prevención y técnico con 30 años de experiencia en el sector. 

Durante una hora, Jorge repasó sin filtros qué está cambiando de verdad prevención de riesgos laborales, qué dice la normativa y dónde están los límites reales de la tecnología.

Este artículo recoge las ideas clave de esa sesión, con los clips más relevantes, para que puedas consultarlo cuando lo necesites.

Qué es la inteligencia artificial aplicada a la prevención de riesgos laborales

La inteligencia artificial aplicada a la prevención de riesgos laborales consiste en el uso de sistemas automatizados capaces de analizar datos, identificar patrones y apoyar decisiones para anticipar, reconocer, evaluar y controlar riesgos en el entorno laboral.

La definición es amplia porque las aplicaciones son muy distintas entre sí. No es lo mismo un sistema de visión artificial que detecta si un trabajador lleva el casco puesto que una plataforma que valida automáticamente la documentación de un contratista. Ambos usan IA. Pero el problema que resuelven, el marco normativo que les aplica y el impacto en el día a día del técnico de PRL son completamente diferentes.

Jorge lo planteó así desde el inicio del webinar:

«La IA no viene a sustituir en ningún momento a ningún técnico de prevención. Es una herramienta. La responsabilidad siempre va a ser de la entidad o de la persona que firma ese documento.»

Jorge Arteagabeitia, Director de Zona Aragón, Avanta Prevención

Infografía: IA en PRL y CAE, aplicaciones que ya funcionan y límites según el webinar de Twind 2026

Dónde está cambiando algo real hoy: las 4 aplicaciones que ya funcionan

Hay mucho ruido alrededor de la IA en PRL. En el webinar, Jorge distinguió entre lo que ya funciona en producción y lo que sigue siendo promesa. Esto es lo que ya funciona:

1. Validación documental en CAE

Es la aplicación con impacto más directo para la mayoría de equipos de PRL. Los sistemas de IA leen documentos —certificados de formación, pólizas de responsabilidad civil, aptitudes médicas, cotizaciones a la Seguridad Social— extraen los datos relevantes, verifican su vigencia y alertan cuando algo caduca o no cumple los requisitos.

El resultado práctico: las plataformas CAE con IA automatizan la revisión documental de contratas y subcontratas, reduciendo errores manuales. Lo que antes requería abrir cada PDF y actualizar una hoja de cálculo, lo hace el sistema en segundos.

2. Detección de riesgos con visión artificial

Mediante cámaras conectadas a sistemas de IA, es posible detectar en tiempo real si un trabajador lleva los EPIs reglamentarios, si se produce una caída, si hay acceso no autorizado a una zona de riesgo, o si el aforo de un área supera los límites de seguridad. Esta aplicación lleva más años desarrollándose y tiene más madurez tecnológica. Su adopción es especialmente común en industria pesada, construcción y logística.

En el webinar, Jorge describió un sistema real instalado en empresas que combina cámaras inteligentes, sensores y conectividad con plataformas CAE: cuando el sistema detecta a un trabajador, puede cruzar su identificación con su documentación en tiempo real y determinar si está habilitado para acceder a esa zona concreta.

3. Análisis predictivo de accidentalidad

Con un volumen suficiente de datos históricos de calidad, los modelos de IA pueden identificar patrones y anticipar qué situaciones tienen mayor probabilidad de derivar en accidente. El requisito para que funcione es contar con esa base de datos estructurada: la IA amplifica lo que ya existe.

Jorge lo demostró en directo durante el webinar:

«Le di toda la estadística de siniestralidad de una zona concreta de España para que me hiciera un análisis predictivo de qué tipo de accidentes me podía encontrar en los próximos meses. En cuestión de segundos me hizo un informe que era brutal. Comparé los datos y los había trabajado de manera supercorrecta.»

Jorge Arteagabeitia, Director de Zona Aragón, Avanta Prevención

4. Evaluaciones ergonómicas con sensores y IA

Sistemas de sensores colocados en zonas lumbares, cervicales, hombros y muñecas recogen datos de movimiento en tiempo real. La IA procesa esos datos y genera informes ergonómicos completos que, realizados de forma manual, requieren horas de trabajo con fotogramas y mediciones. Hoy ese proceso se automatiza y el técnico recibe el informe listo para revisar y firmar.

El problema que nadie menciona: el técnico de PRL sigue enterrado en documentación

Las cuatro aplicaciones anteriores son reales. Pero hay un dato que no suele aparecer en los artículos sobre IA y PRL: entre el 30% y el 50% del tiempo de un técnico de PRL se va a gestión documental de contratistas, no a hacer prevención.

Ese tiempo no se recupera con wearables ni con visión artificial. Se recupera automatizando la CAE.

El volumen de documentación que deben intercambiar empresas titulares y contratistas es elevado, bidireccional y continuo. Sin un sistema centralizado, ese flujo se gestiona a mano: correos, hojas de cálculo, carpetas compartidas, llamadas para pedir documentos que ya caducaron.

El proceso manual tiene un coste operativo elevado y un riesgo legal real. El artículo 24 de la Ley 31/1995 y el RD 171/2004 obligan al empresario principal a vigilar el cumplimiento de sus contratistas. Permitir trabajar sin documentación en regla lo convierte en corresponsable de lo que ocurra.

Jorge fue directo sobre el coste de este proceso:

«Tenemos cálculos de entre 500 y 2.000 euros que puede llegar a costar que un contratista no pueda hacer los trabajos para los que se le ha llamado. Ha desplazado a sus técnicos, ha empleado tiempo en ir a las instalaciones y no va a poder entrar.»

Jorge Arteagabeitia, Director de Zona Aragón, Avanta Prevención

Cómo la IA resuelve la carga documental en CAE

Un sistema de gestión documental CAE con IA automatiza tres cosas que hoy se hacen a mano:

1. Lectura y extracción de datos

El sistema lee el documento, identifica de qué tipo es —certificado de formación, póliza, TC2, aptitud médica— y extrae los datos relevantes: fechas de vigencia, nombres de trabajadores, coberturas. Sin que el técnico abra el PDF.

2. Validación automática

Comprueba si el documento cumple los requisitos definidos: si la formación tiene las horas mínimas exigidas, si la póliza cubre el tipo de trabajo contratado, si el trabajador está dado de alta para la fecha de inicio. Si algo no cuadra, lo marca y notifica.

3. Alertas de caducidad y seguimiento proactivo

El sistema mantiene informado al contratista en tiempo real sobre el estado de su documentación y activa alertas antes de que algo caduque. El técnico solo interviene cuando hay un problema real que requiere su criterio.

El resultado: visibilidad completa del estado documental de cada contratista, sin entrar en cadenas de correos ni hacer llamadas para perseguir papeles.

En Twind llevamos varios años validando documentos en automático. La validación empezó con los más estandarizados —TC2, certificados de Hacienda, cotizaciones a la Seguridad Social— y el objetivo es llegar al 80% de toda la documentación validada de forma automática. No para sustituir el criterio del técnico, sino para que ese criterio se aplique donde realmente aporta valor.

Qué dice la normativa: AI Act, RGPD y criterios ITSS

El bloque de normativa fue uno de los más comentados en el chat del webinar. Lo sintetizamos con la misma honestidad con la que lo trató Jorge: hay partes que son terreno firme y partes que todavía se están interpretando.

«La responsabilidad no se delega en el algoritmo. La IA no va a hacer evaluaciones de riesgo, no va a hacer informes. Y ante cualquier fallo, el responsable va a ser la empresa o el empresario. Igual que con cualquier otro tema en la ley de prevención.»

Jorge Arteagabeitia, Director de Zona Aragón, Avanta Prevención

AI Act (Reglamento UE 2024/1689)

El Reglamento entró en vigor el 1 de agosto de 2024. La aplicación plena para sistemas de alto riesgo es el 2 de agosto de 2026. (Fuente: AI Act oficial)

El Anexo III del AI Act clasifica como alto riesgo los sistemas de IA destinados a tomar decisiones que afecten a las condiciones de las relaciones laborales, la supervisión del rendimiento o la finalización de relaciones contractuales.

¿Aplica a la validación documental de CAE? En principio, no. Un sistema que verifica si un documento está vigente no toma decisiones sobre condiciones laborales ni evalúa el rendimiento de ningún trabajador. Sin embargo, no existe todavía guía oficial de clasificación para casos concretos de CAE.

Lo que sí aplica ya: la obligación de alfabetización en IA del artículo 4. Las empresas deben acreditar que el personal que trabaja con sistemas de IA tiene competencia suficiente. Ver guía completa de IA en PRL.

RGPD

En CAE circulan datos personales de trabajadores de empresas terceras: nombres, formaciones, aptitudes médicas, datos de cotización.

La legitimación para tratar esos datos se encuentra en el artículo 6.1.c del RGPD: el tratamiento es necesario para cumplir el Real Decreto 171/2004. No hace falta consentimiento individual para la documentación estrictamente preventiva.

RDL 9/2021 — Criterios ITSS

La modificación del RDL 9/2021 aplica a cualquier empresa, no solo a plataformas de reparto. El comité de empresa tiene derecho a ser informado de los parámetros y la lógica de los algoritmos que afectan a las condiciones de trabajo. En vigor desde agosto de 2021.

Jorge añadió en el webinar que la Inspección de Trabajo puede pedir que se explique cómo funciona el sistema y cómo toma sus decisiones. No el código de programación, pero sí la lógica de la toma de decisiones.

Lo que la IA no puede hacer (todavía)

Esta fue la parte más valiosa del webinar: un experto con 30 años en el sector poniendo el foco en lo que todavía no funciona. Y es también la más importante para tomar decisiones de implantación bien fundamentadas.

IA aplicada a Prevención de Riesgos Laborales - Regístrate en el webinar

La IA no sustituye la evaluación de riesgos. La Ley 31/1995 no ha cambiado. La obligación de evaluar riesgos sigue siendo del técnico y del empresario. Un sistema automatizado la complementa, no la reemplaza.

La IA no elimina la responsabilidad solidaria. Si el sistema falla y el contratista entra con documentación inválida, la responsabilidad es del empresario principal.

La IA no funciona bien sin datos de calidad. Los modelos predictivos requieren bases de datos históricas estructuradas. La IA amplifica lo que ya existe: si los datos son malos, las predicciones también lo serán. Y hay que entrenarla con datos del país y el colectivo concreto que se quiere estudiar.

La IA no gestiona el cambio organizativo. Implantar un sistema sin acompañamiento formativo genera rechazo y subutilización. Hay una brecha digital real en los equipos que va más allá de la tecnología: un técnico de 20 años y uno de 55 no llegan a la misma herramienta de la misma manera.

«Tenemos que conseguir que todos los técnicos seamos más productivos. Pero la IA tiene que ser siempre como ayuda para mejorar cosas. Nunca como sustitución de las personas.»

Jorge Arteagabeitia, Director de Zona Aragón, Avanta Prevención

Conclusión

La inteligencia artificial ya está en la prevención de riesgos laborales. No como promesa de futuro, como realidad operativa en empresas que han decidido dejar de perder tiempo en tareas que un sistema puede hacer mejor y más rápido.

El campo donde el impacto es más inmediato para la mayoría de equipos de PRL es la gestión documental de CAE: automatizar la validación de documentos de contratistas, eliminar la carga administrativa repetitiva y dedicar el tiempo del técnico a lo que realmente importa.

Lo que la normativa exige ya está claro: supervisión humana real, transparencia con la representación legal, minimización de datos y cumplimiento del AI Act antes del 2 de agosto de 2026.

«La inteligencia artificial no viene a ocupar el lugar del técnico de prevención. Viene a devolverle tiempo para hacer prevención de verdad.»
Laura Jiménez, Head of Sales, Twind

Lo que queda por hacer es decidir por dónde empezar.

Checklist: antes de implantar IA en tu gestión de PRL y CAE

Antes de responder estas preguntas, puede ayudarte ver el webinar completo con Jorge Arteagabeitia.

  • ¿Tienes claro qué problema concreto quieres resolver? (documentación CAE, detección de riesgos, formación…)
  • ¿Tienes base de datos histórica suficiente para análisis predictivo?
  • ¿Has revisado qué datos personales va a procesar el sistema y cuál es tu base legal bajo el RGPD?
  • ¿El sistema que evalúas cumplirá los requisitos del AI Act antes del 2 de agosto de 2026?
  • ¿Has informado o planeas informar a la representación legal de los trabajadores? (obligación RDL 9/2021)
  • ¿El proveedor tiene documentación técnica del sistema disponible?
  • ¿Hay supervisión humana real en las decisiones que toma el sistema?
  • ¿Has formado al equipo que va a usar la herramienta?

Preguntas frecuentes

¿Puede la IA sustituir al técnico de prevención de riesgos laborales?

No. La IA automatiza tareas repetitivas —revisar documentos, generar alertas, extraer datos de PDFs— pero la evaluación de riesgos, la toma de decisiones preventivas y la responsabilidad legal siguen siendo del técnico y del empresario.

¿La validación documental con IA cumple con el RGPD?

Sí, si se aplica el principio de minimización. La base legal es el cumplimiento del Real Decreto 171/2004. Solo se pueden tratar los datos de los trabajadores que van a acceder al centro, no de toda la plantilla.

¿Los sistemas de IA en CAE son de alto riesgo según el AI Act?

No. Los sistemas que validan documentos no toman decisiones sobre condiciones laborales. Consulta el Anexo III del AI Act y verifica las funcionalidades concretas del sistema con un especialista.

¿Qué obligaciones tengo como empresa que usa IA en PRL?

Informar a la representación legal (RDL 9/2021), garantizar formación suficiente (AI Act, art. 4), asegurar supervisión humana real, y verificar el cumplimiento del AI Act antes del 2 de agosto de 2026. Ver guía completa.

¿Qué pasa si el sistema comete un error y un contratista entra con documentación inválida?

La responsabilidad sigue siendo del empresario principal. La IA no transfiere la obligación de vigilancia del RD 171/2004 y el artículo 24 de la Ley 31/1995. Es fundamental que haya supervisión humana y trazabilidad completa.

¿Cuánto tiempo tarda en implantarse una plataforma CAE con IA?

Depende del volumen de contratistas y del punto de partida. Puedes ver una comparativa de plataformas CAE para evaluar opciones. Lo relevante no es la velocidad de implantación sino la adopción real por parte del equipo.


También te puede interesar