Archivo de Público
Sábado, 3 de Agosto de 2013

Ironías de la automatización

·03/08/2013 - 12:02h

Pilar Calvo
Psicóloga e investigadora en ESM, Instituto de Seguridad y Factores Humanos

Así se titula el artículo que la doctora Baindridge publicó en 1983, uno de los más leídos y citados desde entonces dentro de la disciplina de la Fiabilidad humana, esa parte de la seguridad de la que no se oye hablar estos días a pesar de la magnitud del accidente ferroviario de Santiago.

Incluso en los sistemas más automatizados se necesitan humanos entrenados cognitivamente

El artículo venía a decir que siendo la ironía una combinación de circunstancias que da como resultado lo contrario de lo que se debería esperar, con cierta frecuencia los ingenieros tienden a conceder poca fiabilidad al operador y procuran suplantarlo por dispositivos automatizados. Esto puede resultar paradójico, por un lado no tiene en cuenta los errores de los diseñadores, dejando al operador las tareas precisamente que fue incapaz de automatizar. Por otro lado, incluso en los sistemas más altamente automatizados se necesitan humanos entrenados cognitivamente para las tareas de supervisión, concluyendo la paradoja con que los sistemas automatizados son realmente sistemas donde la persona juega un papel crucial. Además, el hábito en supervisar sistemas automatizados puede derivar en un agotamiento u olvido de las habilidades del conductor cuando tenga que llevar el tren por ejemplo en modo manual por avería o degradación del sistema automático.

Si bien es cierto que los maquinistas pueden cometer errores no recuperables cuando el sistema ha sido validado sin haber tenido prevista la situación de fallo humano, también es cierto que la mayoría de las causas subyacentes se encontraban en el sistema mucho antes de que los errores activos fuesen cometidos. Por tanto los errores activos son herederos de las "taras del sistema", en palabras de J. Reason.

Reducir el problema de la seguridad al "error activo" del maquinista es contemplar la ilusión de la punta del iceberg creyendo ver el todo al evidenciar una mínima parte e ignorando dónde está el verdadero riesgo.

Los 3.000 kilómetros de Alta Velocidad no son infalibles por el hecho de disponer de sistemas ERTMS

Los intentos típicamente reactivos para minimizar los errores suelen dirigirse a las soluciones tecnológicas, esto es más automatización, volviendo a incidir en las ironías que describe Bainbridge. Si se tiene en cuenta la improbabilidad de que la misma combinación de causas para ese escenario y lugar vuelva a repetirse, los esfuerzos por evitar que se produzcan nuevos accidentes debidos a fallos humanos apenas influirán en la seguridad total del sistema ferroviario.

Es impensable que en breve más de 9.000 kilómetros de vías estén dotados de varias balizas en cada curva, por otra parte los 3.000 kilómetros de Alta Velocidad no son infalibles por el hecho de disponer de sistemas automáticos ERTMS, recordando la Paradoja de la Automatización.

En el Reino Unido tras el accidente del Landbroke Grove en 1999, en el que fallecieron 31 personas, las recomendaciones de la investigación fueron fundamentalmente de carácter organizativo y no sólo tecnológico, dándole un impulso definitivo a la implantación de metodologías de fiabilidad humana en el ferrocarril. En esto a España le quedan muchos kilómetros por recorrer.

La Agencia Ferroviaria Europea dispone de documentos y guías para la mejora de la seguridad incorporando los conocimientos sobre factores humanos y fiabilidad en todas las fases del ciclo ferroviario. Por aquello de no continuar teniendo 9.000 kilómetros de dudas y 3.000 kilómetros de Ironías de Automatización, deberíamos incorporar el conocimiento disponible en factores humanos a cualquier recomendación para la mejora de la Seguridad Ferroviaria.