Considero conveniente
señalar nuevamente que la tecnología es un proceso social. Ésta tiene que ver
con sólidos conocimientos científicos sobre los materiales, dispositivos y
sistemas que se utilizan para resolver una demanda de la sociedad. Sin embargo,
la forma de hacer y de operar un sistema técnico complejo depende de las
culturas de la persona, de la organización y de la sociedad específicas. En
particular, el concepto de seguridad y aversión o no al riesgo depende
fundamentalmente de los principios y valores que nos son imbuidos por la
cultura a la que pertenecemos. Las fallas que causan un siniestro grave en un
sistema técnico complejo siempre están ligadas al error humano.
Nick Pidgeon, profesor de psicología aplicada y director
del Grupo de Investigación para Entender Riesgos, de la Universidad de Cardiff,
en Gales, Reino Unido, escribió un artículo sobre “Las Fallas en Organizaciones
Complejas” en la revista The Bridge, de la Academia Nacional de
Ingeniería, de los Estados Unidos (“Complex Organizational Failures: Culture,
High Reliability, and Lessons from Fukushima”, The Bridge, Volume 42, Number 3,
Fall 2012, 17 -22). El autor describe algunas investigaciones en las
ciencias social y de la ingeniería para entender los desastres del tipo
socio-técnico o hechos por el hombre. Varios estudios muestran que los
accidentes mayores no sucedieron simplemente el día en que se hicieron visibles
para todos, ellos tienen sus antecedentes, su contexto social y cultural y una
historia; también revelan que la complejidad de los sistemas y un entendimiento
incompleto de la propia complejidad pueden derrotar los mejores intentos para
anticipar los riesgos asociados.
En el campo de la ingeniería estructural, según el autor,
se ha acuñado la frase “el ambiente de la ingeniería en los accidentes
estructurales”, que se entiende como la combinación de presiones políticas,
financieras, profesionales e industriales que se ejercen sobre un proyecto para
inducir errores humanos críticos o descuidar asuntos de seguridad fundamentales
que llevan a fallas estructurales mayores. Un evento dramático puede aparecer al
final sólo como de naturaleza técnica -por ejemplo, el colapso de un puente o
un techo, un incendio mayor o la falla catastrófica de una fatiga estructural
en un avión. Sin embargo, los orígenes y causas subyacentes se pueden encontrar
en precondiciones organizacionales y sociales. En la medida que el ambiente de
la ingeniería se degrade, entonces hay una mayor probabilidad de fallas.
El Gobierno de Japón declaró hace unos meses que el
Reporte Independiente sobre el Accidente de Fukushima concluyó que éste se
debió a un desastre hecho por el hombre, comenta el autor. Las centrales
nucleoeléctricas de Fukushima se apagaron de acuerdo a su diseño cuando empezó
el terremoto, también éste causó la pérdida de electricidad en todo el complejo
nuclear y sus alrededores. El subsecuente tsunami superó las defensas contra
inundaciones y destruyó los sistemas de electricidad auxiliar y, asimismo, los
sistemas de seguridad. Sin embargo, dicho Reporte menciona otros factores
importantes y concluye que esta cadena de eventos debería haber sido prevista y
prevenida. Los dos factores fundamentales fueron la actitud defensiva y
prepotente de la compañía operadora, Tokyo Electric Power Company, y la
relación demasiado íntima y relajada entre la compañía y la Comisión Reguladora
de Energía Nuclear Japonesa.
Otros ejemplos de fallas graves en sistemas técnicos
complejos son presentados por el autor: en 1979, el accidente en la planta
nuclear de Three Mile Island, y en 2010, el derrame masivo de petróleo
por el accidente en la plataforma Deepwater Horizon, ambos en Estados
Unidos. En el modelo de desastres hechos por el hombre está implícita una
visión cultural en términos de los símbolos y los sistemas a través de los que
un grupo determinado de profesionales entiende al mundo. Una cultura de
seguridad se construye y se reconstruye repetidamente con supuestos y prácticas
asociadas de acuerdo con el comportamiento natural, obvio e incuestionable de
sus miembros y que contribuye a establecer una visión particular de riesgo,
peligro y tranquilidad.
Para maximizar las oportunidades de que una organización
pueda reconocer y responder adecuadamente a los signos de peligros potenciales
emergentes, una buena cultura de seguridad debe reflejar al menos cuatro
facetas, señala el autor: compromiso de la alta gerencia con la seguridad;
atención y preocupación compartida sobre los peligros y sus impactos en las
personas; normas y reglas realistas y flexibles sobre cómo manejar los riesgos,
y reflexión y mejoras continuas sobre las prácticas establecidas a través del
monitoreo, análisis y retroalimentación. El aprendizaje organizacional es el
componente clave para lograr una buena cultura de seguridad y una alta
confiabilidad institucional.
Evitar desastres involucra dos líneas de pensamiento,
indica el autor: una con definidos marcos de referencia para tratar peligros
bien establecidos que corresponden a la visión general de la organización y
otra fuera de esos marcos que considere la posibilidad de peligros emergentes
que no están bien identificados o que no pertenecen estrictamente a las actividades
de la organización o de la profesión. Así, se han establecido los “Lineamientos
para Impulsar la Imaginación en Seguridad”: intente imaginar la peor situación;
utilice buenas técnicas gerenciales para dilucidar entre diversos puntos de
vista; analice las alternativas de que sucedan peligros potenciales; estudie cómo
se modificarían sus actuales trabajos de seguridad en caso de suspender los
supuestos básicos de ingeniería con que cuenta, y reconozca que deberá
contender con ambigüedades si emergen nuevos temas de seguridad.
En Morelos, la importancia de los factores culturales y
organizacionales nunca debe ser menospreciada. Debemos crear una cultura de la
seguridad sustentada en conocimientos científicos, técnicos, de gestión de
riesgos y de organizaciones con alta confiabilidad, entre otros. Necesitamos
una nueva generación de ingenieros, gerentes industriales y reguladores de
riesgos y protección civil que trabajen de manera conjunta en los sistemas
técnicos complejos, ya que las fallas pueden aparecer en cualquier momento y
lugar.
No hay comentarios:
Publicar un comentario