Download Seguridad del Paciente

Survey
yes no Was this document useful for you?
   Thank you for your participation!

* Your assessment is very important for improving the work of artificial intelligence, which forms the content of this project

Document related concepts
no text concepts found
Transcript
Seguridad del Paciente. Error Médico: Introducción y
Conceptos. Experiencia Hospitalaria
Dr. Fabián Vítolo
Introducción
Todavía hoy, a casi diez años de publicado el informe “Errar es Humano” del Institute of
Medicine (IOM) de Washington (Kohn y col. 1999), se discuten las cifras de norteamericanos que
morirían por año a consecuencia de errores médicos. Independientemente se trate de 44.000 o
98.000 personas, el mérito principal del informe es haber puesto en el centro del debate el
tema de la seguridad en la atención de los pacientes.
Probablemente ningún médico asistencial requiera estas estadísticas para intuir que el índice
de errores en la actividad diaria es alto. Dada la prevalencia de los mismos en nuestro trabajo y
considerando que uno de los postulados hipocráticos básicos es “Primum non nocere” (primero
no dañar), es extraño que dediquemos tan poco tiempo en nuestros hospitales, seminarios y
congresos a hablar sobre el tema. Probablemente se deba a que tendemos a ver a la mayoría
de los errores como fallas humanas, atribuibles a vagancia, incompetencia o inatención por
parte de aquellos que cometieron el error. Como consecuencia de este enfoque, cuando se
aborda el tema, ya sea en ateneos de morbimortalidad o ante la justicia, buscamos establecer
culpas. Culpamos:



Al médico que no recordó o chequeó una alergia medicamentosa en la guardia
Al cirujano que colocó mal una sutura mecánica intestinal
A la enfermera que leyó mal la concentración de epinefrina en la ampolla
Estas conversaciones “culposas” están teñidas por el temor (a sanciones, a juicios, a pérdida
de prestigio, etc.). Si bien privadamente hablamos sin tapujos sobre la negligencia de otros, en
general en lo más íntimo pensamos “por suerte no me pasó a mí…”. Así es que los
profesionales de la salud preferimos hablar de cualquier cosa antes que de nuestros errores. Y
no lo hacemos porque en el fondo pensamos que la sola diligencia personal hubiera prevenido
el error. Su mera existencia daña la imagen que tenemos de nosotros mismos como
profesionales. Hay coincidencia generalizada en que esta visión, si bien puede ser catalogada
como heroica, está equivocada.
Si bien en algunos casos hay franca negligencia del médico o de la enfemera/o, la mayoría de
las veces los errores del efector final (en su inmensa mayoría buenos profesionales) nacen de
procesos y sistemas pobremente diseñados. Tomemos como ejemplo los casos mencionados
previamente:

El médico que falló en recordar la alergia, ¿tenía acceso a la historia clínica del
paciente, o ésta se encontraba bajo llave, exclusivamente visible de 8 a 17 en los
horarios de trabajo del personal de archivo?; ¿tenía algún sistema computarizado que
le obligara a chequear el antecedente alérgico antes de indicar el medicamento?

¿Se produjo la fístula de la anastomosis luego de que el cirujano había estado de
guardia por más de 20 hs. sin un lugar adecuado para descansar, debiendo operar a
la madrugada en un quirófano en el cual los cirujanos, las instrumentadoras y los
anestesistas se encontraban virtualmente en pie de guerra?

¿Se hubiera evitado el error de medicación si las ampollas de epinefrina con distintas
concentraciones fueran de distinto color o forma?
La mayoría de estas situaciones nacen de sistemas pobremente diseñados. Las fallas en estos
sistemas son las raíces de la mayoría de los errores. Es por ello que la culpa y el ocultamiento
deberían ser reemplazados por el abordaje sincero del problema que permita desarrollar
estrategias de prevención focalizadas en los procesos y no en los individuos.
Objetivos de aprendizaje

Comprender la magnitud del problema del error médico en la atención de los pacientes

Conocer los principales métodos de identificación y análisis de los riesgos a los que se
enfrentan los pacientes

Brindar herramientas que aseguren un tratamiento eficaz del riesgo desde una
perspectiva preventiva y sistémica

Describir los factores culturales a tener en cuenta para implementar programas de
seguridad exitosos
Antecedentes
El concepto de error médico es conocido desde hace siglos y ya desde el Código de Hamurabi
en la antigua Babilonia se hace mención al castigo que debían recibir aquellos médicos que
habían cometido errores. Con el correr de los siglos, ya al adquirir la medicina el carácter de
ciencia se comienza a correlacionar los diagnósticos con los hallazgos de las autopsias en los
Ateneos Anátomo-Clínicos, y si bien en los mismos se descubrían errores pocas veces el error
en sí mismo era tema de análisis y discusión.
Los tradicionales ateneos de morbimortalidad tampoco trataban mayormente el tema de los
errores, discutiendo habitualmente sobre complicaciones referidas a la enfermedad o a los
tratamientos. La discusión de casos de pacientes con evolución tórpida ayudó a su vez a poner
de manifiesto errores médicos, los cuales eran atribuidos generalmente a fallas individuales
que podrían ser corregidas con mayor capacitación, entrenamiento o atención.
En el ámbito quirúrgico, tal vez el antecedente más importante sea la publicación por Max
Thorek en Chicago en 1932 de Surgical Errors and Safeguards (Thorek, 1932) , en donde
analiza sus errores y los de otros cirujanos, con la finalidad de prevenirlos o evitarlos,
manteniendo vivos los signos de peligro.
Junto con el desarrollo tecnológico de mediados del siglo XX, comienzan a surgir dos
disciplinas que serían fundamentales para avanzar en la comprensión del error: la psicología
cognitiva y la investigación en factores humanos. Los especialistas en factores humanos,
mayormente ingenieros, están fundamentalmente involucrados en el diseño de interfases
hombre-máquina en ambientes complejos como un cockpit o una central nuclear. La psicología
cognitiva se concentró en desarrollar modelos de respuestas humanas sujetas al examen
empírico. Lecciones de ambas esferas de observación han profundizado nuestra comprensión
de los mecanismos por el cual se cometen errores en todos los ámbitos. La mayoría de los
preceptos aplicados para la seguridad industrial eran absolutamente aplicables al accionar
médico.
En 1983 el British Medical Journal publica el trabajo de Karl Popper (uno de los filósofos más
importantes del siglo XX) y Neil Mac Intyre (médico) en el que señalan: “Aprender de los
errores es un proceso lento, penoso y de alto costo. (McIntyre N ; Popper K, 1983)
En 1991, se publica el estudio de práctica médica de Harvard (Brennan y col, 1991), que fue la
piedra angular sobre la que se basaron infinidad de trabajos posteriores sobre el error médico.
Este estudio investigó la incidencia de eventos adversos, definidos estos como daños
ocasionados a los pacientes por la práctica médica, secundarios a una atención inadecuada o
negligente. De un total de 30.122 historias clínicas seleccionadas al azar, se identificaron
3,7% (1.133) eventos adversos, de los cuales 58% fueron considerados prevenibles. Este
estudio fue replicado luego en UTAH- Colorado (Thomas, 2000) y por varios países.
En 1994, Lucian Leape, de la Escuela de Salud Pública de Harvard y que había liderado el
estudio de práctica médica, publica su trabajo “Error in Medicine” en el Journal of the American
Medical Association (JAMA). En el mismo hace un llamado para que los profesionales de la
salud modifiquen sus percepciones acerca de los errores médicos para reducir la incidencia de
eventos adversos.(Leape, 1994) Hace en el mismo un análisis de la cultura médica,
caracterizada por niveles de prevención muy bajos.
En 1995, en un estudio realizado en Australia (Wilson, 1995), se encontró que, en un total de
14.179 admisiones hospitalarias se observó la ocurrencia de un evento adverso en el
16,6% de los pacientes, con un 13,7 % de incapacidad permanente y un 4,9% de muertes.
Más de la mitad de estos hechos fueron considerados prevenibles.
Sin lugar a dudas, el impulso definitivo para poner el tema en el centro del debate fue el
informe “Errar es Humano”, del Institute of Medicine (IOM) de Estados Unidos en 1999. El
IOM fue creado en 1970 por la Academia nacional de Ciencias de los EE.UU nombrando a
miembros relevantes de las profesiones apropiadas para la evaluación continua de las políticas
de salud pública. Bajo la Constitución de los Estados actúa como asesor del Gobierno federal.
Dicho documento analiza lo publicado hasta el momento sobre el tema y llega a
conclusiones que movilizaron no sólo a profesionales de la salud sino también a toda la
sociedad norteamericana: de cada 33,6 millones de admisiones hospitalarias en ese país
se producirían entre 44.000 y 98.000 muertes evitables. En sus valores más bajos los
eventos adversos prevenibles serían la 8va. causa de muerte más frecuente, por delante
del SIDA, el cáncer de mama y los accidentes vehiculares. La inmensa mayoría de los
errores nacerían de déficit en los sistemas y no en la incapacidad de los individuos.
Estos antecedentes determinaron que en muchos países se destinaran recursos para crear
agencias dedicadas a la investigación del error y al desarrollo de medidas preventivas con el
objetivo de aumentar los márgenes de seguridad en la práctica médica de todos los días.
El tema se trasladó rápidamente al mundo de habla hispana. En la Argentina el académico Dr.
Alberto Agrest motoriza desde el 2001 el estudio local del error desde el punto de vista
sistémico, fundando el Comité de Error Médico de la Academia Nacional de Medicina,
desarrollando foros, seminarios y proyectos piloto en diversas instituciones. El comité investiga
los aspectos epidemiológicos y culturales que hacen a la seguridad de los pacientes. En su
excelente página web (www.errorenmedicina.anm.edu.ar) pueden consultarse los principales
avances sobre esta temática. En el año 2006 se publica en España el Estudio Nacional sobre
los Efectos Adversos ligados a la Hospitalización (ENEAS) (Aranaz Andres, 2006), que incluyó
una muestra de 24 hospitales públicos y 5.624 historias, detectándose un 9,3% de eventos
adversos relacionados con la asistencia sanitaria. Este estudio es el segundo más grande
realizado hasta la fecha en Europa y el quinto en el mundo
En el año 2002 la Organización Mundial de la Salud (OMS) exhorta a prestar atención al tema y
en el 2004 crea la “Alianza Mundial para la Seguridad del Paciente”, que tiene por objeto
coordinar, difundir y acelerar la mejora de la seguridad de los pacientes en todo el mundo.
Parte de este análisis se refleja en el informe publicado en mayo de 2007 por el Centro
Colaborador de la OMS sobre soluciones para la Seguridad del Paciente en donde se abordan
temas concretos: identificación de pacientes, errores de medicación error de lado, traspaso de
pacientes entre otros. Se analiza en dicho documento el impacto del problema, se brindan
sugerencias de prevención y se analiza su aplicabilidad. (OMS, 2007)
Error Humano. Definición
Constituyen errores lo que se hace y no debe hacerse y lo que no se hace y debe hacerse.
El error ha sido definido también como la omisión de una acción apropiada para una
circunstancia determinada, la falla para completar una acción planeada como se intentó
(error de ejecución) o la utilización de un plan equivocado para alcanzar un objetivo
(error de planificación). (Kohn, 1999)
Swain y Gutman, especialistas en factores humanos, definieron en 1983 al error humano como
toda acción o conjunto de acciones humanas cuyo resultado está fuera de la tolerancia
del sistema. Bajo esta definición se entiende al sistema como al conjunto de elementos
relacionados entre sí ordenada y concatenadamente, que contribuyen a cumplir una función
determinada. El sistema estaría entonces integrado por el conjunto de máquinas
(equipamiento) y el conjunto de hombres con sus principios y reglas (grupo humano)
(Swain, 1983)
Los errores pueden ser de práctica, de recursos propiamente dichos o de sistemas.
Son ejemplos de errores de práctica las omisiones de datos relevantes del interrogatorio
o del examen físico en la historia clínica, la incapacidad para interpretar hallazgos, el
desconocimiento de exámenes complementarios, etc.
En ocasiones, el error es consecuencia de la utilización de aparatos mal calibrados o de
reactivos o medicamentos perimidos: estos constituyen los errores de recursos.
Finalmente, se considera como error de sistema a aquel que no resulta de una acción
individual por ignorancia o impericia, sino por una serie de acciones y factores que
dependen de la organización de los procesos diagnósticos y terapéuticos. (Ortiz, 2007)
Luego de investigar el tema del error médico por años, Leape concluye que los errores
producidos por gente incompetente representan, a lo sumo, un 1% del problema. En el 99% de
los casos se trata de buena gente tratando de hacer bien su trabajo y que comete errores
simples.
Son en general los procesos los que los predisponen a cometer estos errores.
“FISIOPATOLOGÍA” DEL ERROR
Gracias al aporte de la psicología cognitiva y de la investigación en factores humanos, hoy
existen teorías razonables y coherentes acerca de por qué los humanos cometemos errores y
se ha avanzado en el diseño de ambientes de trabajo que minimicen la ocurrencia de los
mismos y limiten sus consecuencias.
La mayoría de los errores provienen de aberraciones del funcionamiento mental. Por ello
para comprender por qué se producen los errores debemos primero comprender el
mecanismo cognitivo normal. Si bien hay muchas teorías al respecto y muchos expertos no
concuerdan, James Reason, de la Universidad de Manchester, propone el siguiente esquema
que captura los principales temas de la psicología cognitiva y que es consistente con la
observación empírica (Reason, 2000)
La mayoría del funcionamiento mental es automático, rápido y sin esfuerzo. Una persona
puede dejar su casa, ir a la cochera, encender su auto, manejar hasta el trabajo y entrar a la
oficina sin dedicar mucho pensamiento consciente al centenar de maniobras y decisiones que
esta compleja red de acciones requiere. Este procesamiento automático e inconsciente es
posible porque llevamos “esquemas mentales” que serían “expertos” en algunos aspectos
recurrentes de nuestro mundo. Estos esquemas actúan rápidamente cuando se activan,
procesando información en paralelo sin esfuerzo consciente. Los esquemas son activados sí
por pensamientos conscientes o estímulos sensoriales. El funcionamiento ulterior es
automático.
Además de estos mecanismos automáticos inconscientes, las actividades cognitivas
pueden ser conscientes y controladas. Este modo “atencional” o pensamiento
consciente es utilizado para resolver problemas o para monitorear la función automática.
Esta forma de pensamiento se pone en acción cuando enfrentamos un problema, ya sea
nuevo o como resultado de fallas en el modelo esquemático. En contraste, esta forma es
lenta, secuencial, esforzada y difícil de sostener en el tiempo
Errores de acción o automáticos (“fugas”)
La falla de mecanismos mentales automáticos determina los denominados “slips” o
“fugas”. Las fugas son cortocircuitos en los mecanismos automáticos y son errores de
acción. Este tipo de errores ocurre cuando hay un quiebre en la acción rutinaria por una
desviación en la atención.
La persona posee los requisitos para realizar la tarea, pero los errores ocurren por falta
de un chequeo a tiempo.
Son actos no intencionales en donde falló el monitoreo. Hay infinidad de ejemplos en el
accionar médico de todos los días de errores de este tipo: equivocaciones de lado o de
paciente, errores de medicación, gasas olvidadas (oblitos, etc)
Nadie está exento de cometer este tipo de errores, que por lo general ocurren por la forma
en la cual funcionan nuestros mecanismos mentales, siendo algunas de sus características:
Cautividad al hábito: En estos casos se tiende utilizar el esquema mental más frecuentemente
utilizado por sobre uno menos familiar. Por ej. Si la secuencia habitual de acción es ABCDE,
pero esta vez la secuencia cambia a ABCFG, la atención consciente debe activarse
rápidamente después de C, o se terminará ejecutando el patrón habitual DE. Ejemplo:
En guardia de emergencias está protocolizado que a todo politraumatismo grave se asegura
vía aérea y se coloca sonda nasogátrica y vesical. El personal está automatizado para ello y
siempre hace lo mismo. Un día un paciente politraumatizado se presenta con signos de
traumatismo de base de cráneo (contraindicación de sonda nasogátrica), pero como fallan los
mecanismos conscientes de control, se coloca la sonda y la misma produce un daño cerebral.
Errores de Asociación Asociación mental de ideas, como atender el teléfono cuando suena
el timbre de la puerta. Ej: mala interpretación de las alarmas en terapia intensiva
Pérdida de Activación Son pérdidas temporarias de memoria, como entrar a una habitación y
no recordar para qué entró. Las pérdidas de activación frecuentemente son causadas por
interrupciones. Ej: nos olvidamos de preguntar un dato que era importante porque fuimos
interrumpidos durante la consulta.
Una gran variedad de factores pueden distraer el control de la atención y hacer estas “fugas”
más probables. Dentro de los factores fisiológicos podemos mencionar la fatiga, la falta de
sueño, el alcohol, las drogas y la enfermedad. También pueden atribuirse a factores
psicológicos o sobrecarga de trabajo, como así también a factores emocionales: aburrimiento,
frustración, miedo, ansiedad o enojo. Todos estos factores llevan a preocupaciones que
pueden distraer la atención. Los factores psicológicos, si bien son considerados como internos
o “endógenos” pueden ser también causados por factores externos, como por ej malas
relaciones interpersonales. Los factores ambientales, como ruido, calor, estímulos visuales,
excesivo movimiento u otro fenómeno físico también pueden causar estas “fugas”
Errores de conocimiento o no automáticos
Los errores de mecanismos conscientes no automáticos ya no son “fugas”. Se trata de
equivocaciones
que ocurren durante el proceso de resolución de un problema,
generalmente por una mala percepción de la situación que lleva a aplicar una solución
equivocada.
Este tipo de errores es mucho más complejo. En ellos la persona se encuentra ante una
situación nueva para la cual no tiene en forma “programada” ninguna solución.
Sobrevienen por falta de conocimiento o por una mala interpretación de la situación. Hay
algunos hábitos de pensamiento que son poco reconocidos por la persona pero que lo llevan al
error. Algunos de ellos son:

La memoria sesgada: Basamos nuestras decisiones en lo que hay presente en
nuestra memoria, pero la memoria generalmente está sesgada hacia lo que es común
y general. Se asumen conclusiones que generalmente funcionan. Vemos lo que
conocemos. Paradójicamente, la memoria también tiene una tendencia a desviarse
hacia la discrepancia, dándole a un caso aislado que alguna vez tuvimos una
importancia estadística significativa.

La tendencia a utilizar la primera información que viene a mano

La tendencia a buscar evidencias que apoyen esa hipótesis temprana

Exceso de confianza en el curso de acción iniciado
Los errores de conocimiento son afectados por las mismas influencias psicológicas,
fisiológicas y ambientales que determinan las “fugas”. Hay suficiente investigación acerca
de los efectos del stress sobre el desempeño. Si bien generalmente es difícil establecer un
nexo causal entre el stress y un accidente específico, no hay duda de que ambos tipos de
errores aumentan bajo stress. Por otra parte, cierto grado de stress no es malo. Un poco de
ansiedad puede mejorar el desempeño, el que puede verse afectado tanto por aburrimiento
como por presiones excesivas.
Modelos de Error. Por qué ocurren los accidentes
Uno de los mayores aportes a la comprensión de error humano fue el modelo del “Queso
Suizo” propuesto por James Reason, profesor de psicología de la Universidad de
Manchester en la década del ’90. Según esta teoría, el problema del error humano puede ser
abordado de dos formas: enfocándose en la persona o haciéndolo en el sistema. Cada
modelo tiene visiones muy distintas sobre las causas de los errores y los factores que los
determinan. Es importante comprender las diferencias entre estas dos visiones para poder
trabajar sobre el error y aumentar la seguridad de los pacientes.
El abordaje del error centrado en la persona tiene una larga tradición en la
práctica médica. Según esta visión los errores se producen por olvidos,
desatenciones, pobre motivación, descuidos, negligencia, impericia o
imprudencia de las personas que están en la primera línea de atención: médicos,
enfermeras, anestesistas, farmacéuticos, etc.
La consecuencia natural de esta percepción es apelar a que estos individuos
modifiquen sus conductas.
Se los estimula entonces a que sean más cuidadosos, a entrenarlos más y
eventualmente a castigarlos con medidas disciplinarias. Los adeptos a esta visión
tienden a tratar los errores como temas morales, asumiendo que las cosas malas les
pasan a malos profesionales, lo que los psicólogos han denominado “la
hipótesis del mundo justo”.


El abordaje del error centrado en el sistema tiene como premisa básica que los
humanos son falibles y que deben esperarse errores, aún en las mejores
organizaciones. Según esta visión, los errores son consecuencias más que
causas, y tienen sus orígenes en factores del sistema en el cual nos
desenvolvemos y no en la “perversidad” de la naturaleza humana. Bajo esta
filosofía, las medidas que se deben tomar para minimizar el error y aumentar la
seguridad de los pacientes deben tomarse luego de asumir que no se puede cambiar
la naturaleza humana, pero sí se pueden cambiar las condiciones bajo la cual los
humanos trabajamos.
Dentro de la visión sistémica, juega un rol central el concepto de defensas o barreras. Todas
las organizaciones altamente confiables desarrollan este tipo de salvaguardas. Cuando ocurre
un evento adverso (error de medicación, de lado, etc.), lo importante no es quién se
equivocó, sino cómo y por qué las defensas fallaron.
Obviamente, los sistemas de atención médica han desarrollado varios tipos de defensas para
evitar que los errores produzcan daño. Algunas tienen que ver con normas y procedimientos
institucionales, otras con alarmas o barreras físicas, supervisión, capacitación permanente, etc.
Generalmente estas barreras funcionan muy efectivamente, pero siempre habrá debilidades.
En un mundo ideal, cada barrera defensiva se mantendría intacta. Sin embargo, en el mundo
real las barreras defensivas se comportarían como fetas de queso suizo: están llenas de
agujeros – si bien, a diferencia del queso estos agujeros están continuamente
abriéndose, cerrándose y cambiando de localización-. La presencia de agujeros en
cualquiera de estas fetas no causa normalmente una mala evolución. Usualmente los
accidentes ocurren sólo cuando los agujeros de varias fetas se alinean
momentáneamente para permitir una trayectoria oportuna al accidente llevando a que el
peligro termine dañando al paciente.
Los “agujeros” en las defensas se forman por dos razones: fallas activas y condiciones
latentes. Casi todos los eventos adversos se deben a una combinación de ambos
factores.

Las fallas activas son aquellos actos inseguros cometidos por las personas que
están en contacto directo con el paciente. Pueden tomar una variedad de formas:
fugas, equivocaciones o violaciones de procedimientos. Son generalmente los
errores del efector final: la enfermera que equivocó la medicación, el cirujano que
operó del lado erróneo, etc.
Las fallas activas tienen un impacto directo y generalmente de poca duración en la
integridad de las defensas.
Una vez que han identificado esta falla proximal al accidente, los seguidores del
abordaje personal generalmente no investigan mucho más allá luego de un evento
adverso.
Sin embargo, la mayoría de estos errores finales son el resultado de una cadena
de errores que se extiende hacia atrás en el tiempo y a través de otros niveles
superiores del sistema.

Las condiciones latentes son los inevitables “residentes patógenos” dentro del
sistema.
Se originan en decisiones tomadas a nivel gerencial por los responsables de
diseñar la atención y elaborar las normas y procedimientos. Estas decisiones
pueden estar equivocadas, aunque no es una condición necesaria. Todas estas
decisiones estratégicas tienen el potencial de introducir “patógenos” dentro del
sistema.
Las condiciones latentes tienen dos tipos de efectos adversos: pueden traducirse en
condiciones de trabajo favorables al error (ej: presiones de tiempo, poco
personal, equipamiento inadecuado, fatiga e inexperiencia) o bien pueden crear
agujeros permanentes o debilidades en las defensas (ej: alarmas no confiables,
procedimientos incumplibles, deficiencias de diseño o construcción, etc.).
Las condiciones latentes -como su nombre lo indica- pueden permanecer “dormidos”
dentro del sistema por muchos años antes de que se combinen con una falla
activa que gatille el accidente.
A diferencia de las fallas activas, cuyas formas específicas generalmente son difíciles
de predecir, las condiciones latentes sí pueden ser identificadas y remediadas
antes de que ocurra el evento adverso. Comprender esto lleva a una administración
del riesgo más preactiva.
Reason utiliza otra analogía: las fallas activas son como mosquitos. Se los puede matar
uno a uno con un mosquitero, pero seguirán apareciendo si no drenamos el pantano en
el cual se alimentan. El pantano, en este caso serían las condiciones latentes.
La Notificación de Incidentes, Errores y Eventos Adversos
La reducción de accidentes y errores médicos resulta vital para mejorar la calidad y disminuir
los costos en la atención de la salud. Para desarrollar una estrategia preventiva debemos tener
una acabada comprensión del tipo de accidentes y de sus causas y resulta evidente que la
notificación de los mismos y de los errores serios que no causaron ningún daño debe ser una
parte central de dicha estrategia.
En la práctica habitual los errores médicos son revelados retrospectivamente en los ateneos de
morbimortalidad. El enfoque generalmente es individual y las lecciones aprendidas son
compartidas por pocos. Los juicios por mala praxis tienen también un rol, aunque limitado, para
conocer más acerca de este tipo de eventos. Los más importantes estudios acerca del error
médico utilizaron como método el análisis retrospectivo de las historias clínicas para cuantificar
índices de eventos adversos. Si bien la recolección de datos en esta forma puede brindarnos
importante información epidemiológica, la misma es muy costosa y generalmente no captura
información acerca de las causas del error y sus circunstancias. Muchos errores importantes
que no produjeron lesiones pueden pasar inadvertidos por este método
Otras actividades complejas y de alto riesgo fuera del ámbito de la salud han desarrollado
esquemas de notificación de accidentes y cuasi accidentes que funcionan desde hace muchos
años, entre ellos: la industria aeronáutica, las petroquímicas, la ingeniería nuclear, la
producción de acero y las operaciones militares (Barach, 2000).La seguridad es una prioridad
tanto para los dirigentes como para los trabajadores y se encuentra institucionalizada. ¿Por qué
no hacerlo en medicina?
Algunas Definiciones
Error (Kohn, 1999):
Es la falla para completar una acción tal como fue planeada, o el uso
de un plan equivocado para lograr un objetivo. La acumulación de
errores lleva a accidentes. No todos los errores producen daño o
lesión.
Evento Adverso
(Kohn, 1999)
Injuria o complicación no intencional consecuencia del cuidado de la
salud y no de la enfermedad misma del paciente. En los estudios
epidemiológicos publicados sobre el tema se describen como
significativos sólo aquellos que producen prolongación de la estadía
durante la internación, necesidad de reinternación, secuela transitoria o
definitiva o muerte.
Incidente: (Kohn, 1999) Evento no deseado en la operativa de la institución o en el cuidado del
paciente. Las compañías de seguros de responsabilidad profesionales
suelen definirlo como “cualquier hecho o circunstancia que pueda
derivar en un reclamo”
Accidente :
Evento que produce un daño a un sistema definido y que altera los
resultados en curso o futuros del sistema.
Cuasiaccidente:
Evento o situación que pudo haber terminado en un accidente, pero en
donde una intervención a tiempo (planificada o no) o la casualidad evitó
que se produjera el mismo.
¿A quién notificar?
Una vez identificado el incidente o el error, la notificación puede ser dirigida a personas o
entidades con objetivos que pueden ser distintos pero que resultan complementarios:
a. Notificación Interna
Es la destinada a las autoridades médicas y administrativas de la institución, preocupadas
principalmente por la seguridad y calidad en la atención de sus pacientes y por los costos que
el incidente pueda generar (mayores gastos de internación y medicamentos, posibles acciones
legales, etc).
Un buen sistema de notificación interna en los hospitales y centros de salud asegura que todas
las partes responsables sean conscientes de los peligros mayores. La detección precoz de
eventos adversos hace posible la pronta investigación e intervención destinada a reducir los
daños asociados con dicho evento. La recolección de los informes en forma de base de datos
ayuda al desarrollo de un cuerpo de conocimientos para identificar tendencias sobre las cuales
desarrollar estrategias preventivas.
El objetivo buscado es el aprendizaje a través de la experiencia
Clásicamente se notifican (a través de formularios simples desarrollados a tal propósito)
eventos tales como errores de medicación, caídas, error de sitio quirúrgico o de
paciente, fallas de equipos, etc. Idealmente debe notificar el personal que estuvo
involucrado o que vio el evento en cuestión.
Si no se quiere implementar un formulario, pueden utilizarse mecanismos más informales
como la comunicación franca y frecuente con el personal médico y de enfermería clave en la
búsqueda de estos eventos. Más allá de cuál sea el mecanismo de recolección de datos, lo
importante es que los mismos se centralicen e idealmente se codifiquen para poder generar
una base de datos que permita valorar la frecuencia y severidad de este tipo de eventos.
No es necesario que se haya producido un daño para notificar. De hecho la denuncia de los
cuasiaccidentes (errores que no determinaron ningún daño) debe ser estimulada. Su frecuencia
es hasta 300 veces mayor que la de los eventos adversos (Battles, 1998) -donde sí hay daño-,
hay menos barreras psicológicas para la notificación y no se corren mayores riesgos médicolegales.
Idealmente, una vez notificado el evento adverso o el error a la administración del hospital, se
desencadena una investigación para descubrir las causas sistémicas y se implementan los
cambios necesarios para prevenir recurrencias.
b. Notificación Externa
Los resultados de las investigaciones de los hospitales y centros pueden a su vez ser
notificados a cuerpos independientes externos, quienes reúnen y analizan datos provenientes
de otras instituciones y difunden a su vez la información y las recomendaciones en forma más
amplia.
La notificación externa permite, al concentrar información de distintas fuentes, la detección
precoz de un nuevo peligro aún con pocas notificaciones (por ejemplo complicaciones de una
nueva droga). El análisis central de la información ayuda a identificar tendencias que serían
muy difíciles de detectar individualmente en los hospitales y a desarrollar recomendaciones
generales para todos.
La vigilancia epidemiológica del error se vuelve de esta manera un objetivo de salud pública
tendiente a garantizar la seguridad de los pacientes
La notificación de incidentes en Medicina ha tomado diversas formas. Desde 1975 la FDA de
los EE.UU obliga a denunciar las principales reacciones adversas a las transfusiones
sanguíneas, focalizándose en muertes prevenibles y lesiones graves (FDA, 1997) Existen en la
actualidad en los Estados Unidos cuatro grandes sistemas nacionales de notificación voluntaria
de incidentes (Leape, 2002). Solamente uno, el programa de Eventos Centinela de la Comisión
de Acreditación de Organizaciones de Salud (JCAHO) aborda una gama amplia de eventos
adversos serios. A partir de la notificación se desarrollaron alertas específicas:
Cuadro Nº 1 Alertas publicadas por la JCAHO (Comisión conjunta de Acreditación de
Organizaciones de Salud) de los EE.UU luego del análisis de las notificaciones de
incidentes
Eventos centinela:











Errores de Medicación. Prevención: Cloruro de Potasio
Error de sitio Quirúrgico: Lecciones aprendidas
Suicidio de pacientes internados. Recomendaciones para su prevención
Prevención de muertes por contención de pacientes.
Robo de recién nacidos: Previniendo futuras ocurrencias
Medicaciones de alto riesgo: Alerta y seguridad de los pacientes
Complicaciones operatorias y postoperatorias: Lecciones para el futuro
Caídas fatales: Lecciones para el futuro
Bombas de infusión: previniendo eventos adversos futuros
Lecciones aprendidas: Incendios en establecimientos de cuidados crónicos
Kernicterus: Una amenaza en recién nacidos sanos
Fuente: Wald H. 2001
Otros dos programas se focalizan exclusivamente en los errores de medicación. El restante es
dirigido por el Centro de Prevención y Control de Enfermedades (CDC) y se denomina
Encuesta Nacional de Infecciones Nosocomiales. Dicho programa utiliza personal entrenado en
control de infecciones para notificar infecciones intrahospitalarias. Sobre la base de estas
notificaciones, el CDC establece pautas nacionales y determina los índices de infección
ajustados a servicios específicos en los establecimientos participantes (CDC, 2001) .Se reciben
aproximadamente 40.000 informes por año, un número significativamente mayor que la
cantidad de eventos centinela de la JCAHO (no más de 500 notificaciones anuales). La
evidencia del efecto de estos sistemas voluntarios de notificación es mayormente anecdótica.
El reporte de los eventos centinela habría derivado en medidas concretas como la remoción de
las ampollas de cloruro de potasio de las unidades de enfermería (JCAHO, 2000), y los informes
acerca de errores en la medicación habrían motorizado cambios en la industria farmacéutica
-etiquetas, envases- (Cohen, 2000) la identificación de las drogas con mayores problemas
-insulina, heparina y warfarina- (Pharmacopeia, 2000). El único programa con efectos
demostrados sobre la seguridad de los pacientes mediante estudios controlados es el del CDC:
los índices de infección intranosocomial son 32% más bajos en los hospitales que implementan
el programa completo (Haley, 1985) .Sistemas similares al norteamericano son aplicados por el
Servicio Nacional de Salud Británico (UK Department of Health, 2000) y por la Fundación para la
Seguridad de los Pacientes de Australia (Webb, 1993).
Barreras para la Notificación
Los datos son contundentes: con la excepción mencionada de la notificación de infecciones
intrahospitalarias, la mayoría de los sistemas aplicados fallan en sus objetivos y el subregistro
de efectos adversos, tanto interno como externo es un mal generalizado. Dicho subregistro ha
sido calculado entre un 50% a un 96% anual (Barach, 2003). La mayoría de los sistemas de
reportes de incidentes hospitalarios no captan la mayoría de errores y cuasiaccidentes. Los
estudios de algunos servicios sugieren que sólo el 1,5% de todos los eventos adversos son
notificados (O’Neil, 1993) y que sólo el 6% de eventos adversos por medicación son identificados
(Cullen, 1995). El Colegio Norteamericano de Cirugía estima que las notificaciones de incidentes
sólo reflejan entre un 5 a un 30% de los eventos adversos (Bader, 1985). Más aún: un estudio
sugiere que menos del 20% de las complicaciones de un servicio quirúrgico serían discutidos
en ateneos de morbimortalidad (Wanzel, 2000) ¿Cuáles son las probables barreras? (Lawton,
2002)
La cultura de la seguridad aún no ha sido introducida en la práctica médica, a diferencia por
ejemplo de la actividad aeronáutica, en donde se reciben más de 30.000 notificaciones de
incidentes y cuasiaccidentes por año. La naturaleza de la práctica médica habitual, con su
énfasis en la autonomía profesional, la colegiación y la autorregulación no estimula el informe
de los errores. El clima legal actual, con el aumento alarmante de la litigiosidad tampoco ayuda
y es lógico el temor de notificar eventos que luego puedan derivar en un juicio millonario. Es
difícil que un tipo de sistema así pueda funcionar sin algún tipo de protección legal, como
sucede en Australia y en Nueva Zelanda (Harvard School of Public Health, 2001). Para poder
implementar un programa exitoso es necesario primero resolver los dilemas morales,
científicos, legales y prácticos de los accidentes médicos.
Características de un sistema de notificación exitoso (CDC, 2001)
No Punitivo
Confidencial
Independiente
Análisis Experto
Rapidez
Orientado a
los sistemas
Participativo
Quienes notifican no deben temer consecuencias o castigo como
resultado del informe
Las identidades del paciente, el informante y de la institución nunca son
revelados a terceras partes
El programa es independiente de cualquier autoridad con poder de
castigo sobre el informante o la organización
Las notificaciones son evaluadas por expertos que comprenden las
circunstancias clínicas del evento y que son entrenados para reconocer
las causales sistémicas del error
Las notificaciones son analizadas rápidamente y las recomendaciones
son diseminadas oportunamente a quienes necesitan saber,
especialmente cuando se han identificado peligros serios
Las recomendaciones se concentran en los cambios necesarios en los
sistemas, procesos o productos más que en el desempeño individual
La agencia que recibe la notificación debe poder dar recomendaciones
y las organizaciones participantes deben estar de acuerdo en
implementar las mismas siempre que sea posible
¿Obligatorio y personalizado o Voluntario y anónimo?
Ambos tipos de notificaciones son necesarias y cada una carga con sus beneficios y
limitaciones.
 La mayoría de los sistemas obligatorios están designados para identificar a los
“malos” profesionales o centros con el objetivo de penalizar a los implicados a fines de
que esos hechos no se repitan. El énfasis está puesto en el error en sí mismo y no en
su corrección y el feedback que reciben los que cometieron el error es escaso
(Pharmacopeia, 2000). Evidentemente, esto actúa como freno a los informes y explica
por qué la JCAHO tiene tan pocos “eventos centinela” denunciados. Un beneficio
indudable de este tipo de sistemas es que facilita el establecimiento de
responsabilidades. Los sistemas obligatorios tampoco suelen capturar la información
de los cuasiaccidentes, ya que en general cuando no hay daño no hay obligación de
denunciar.
 La información cualitativa contenida en estos informes suele ser muy pobre, porque la
principal motivación cuando hay que cumplir con un requerimiento es el cumplimiento
de la norma y la autoprotección. El análisis de los sistemas utilizados en otras
actividades sugiere la conveniencia de que las notificaciones, hasta cierto punto, sean
voluntarias y que haya algún tipo de protección para quienes reportan. La forma más
obvia de asegurar la confidencialidad es hacer que las notificaciones sean anónimas.
Por ejemplo, extractos de los sistemas de notificación de errores de la industria
aeronáutica se publican semanalmente en una revista, con una honesta descripción de
acciones que llevaron a situaciones peligrosas. Los críticos puntualizan, sin embargo,
que el anonimato no siempre es posible ni deseable (Barach, 2000). Los analistas del
evento adverso o del error no pueden contactar en estos casos a quienes notificaron
para requerir mayor información. Las notificaciones pierden de esta forma confiabilidad
y en determinadas situaciones (culpa grave, hechos dolosos) es imposible garantizar el
anonimato. El anonimato también ha sido criticado por su amenaza al sentido de
responsabilidad y transparencia que debe primar en la atención de la salud.
Queda entonces claro que ambos sistemas deberían ser complementarios.
Si se quiere reducir el índice de errores en la actividad médica es fundamental estimular
su notificación para su mejor comprensión y el establecimiento de medidas correctivas.
Sin embargo, antes de aplicar un programa se deben remover las barreras culturales que
impiden el desarrollo de estos sistemas. Los programas exitosos en otras actividades se
basan en la protección de quienes notifican, la simpleza (una sola carilla suele bastar) y
en el resultado práctico que tuvo el haber notificado (análisis, recomendaciones, etc.). El
reporte de incidentes es tan sólo una herramienta de las muchas que existen para
mejorar la seguridad de las prestaciones. El éxito de los sistemas de notificación
dependerá de que las Instituciones los utilicen para mejorar la calidad más que para
medir el desempeño individual.
ANÁLISIS DE RIESGOS
Una vez identificados los errores y lo riesgos, los mismos deben ser analizados en función de
su probable frecuencia y severidad. También se deberán estudiar las causas sistémicas que
subyacen en cada error.
Las tres herramientas básicas para analizar riesgos son:
1. Matriz de Riesgos
2. Análisis de Causa Raíz (ACR)
3. Análisis de Modo de Falla y sus Efectos
1. Matriz de Riesgos
El análisis de un riesgo tiene básicamente dos dimensiones: (Svarzman, 2006)

La clasificación o categorización del riesgo, que se refiere a su tipificación (riesgo para
el paciente, para el visitante, para el trabajador de la salud, etc)

La calificación del riesgo, que nos permite valorizar de alguna manera el riesgo. Para
ello hay que determinar la severidad, que es el impacto potencial que produciría la
materialización del riesgo identificado; y además, calcular la probabilidad de
ocurrencia del hecho. Esta probabilidad se basa, en la mayoría de los casos, en el
historial (cuántas veces se produjo el hecho en un período de tiempo, en la
organización o en el mercado)
Normalmente se abren varias categorías de severidad y de probabilidad y las distintas
combinaciones entre esas categorías de una y otra determinan el nivel de riesgo.
CALIFICACIÓN DEL RIESGO POR SU SEVERIDAD (NSW Severity Assessment Code, 2005)
CATASTRÓFICO
•
•
•
•
•
•
•
•
•
MODERADO
MENOR
Pacientes con pérdida
Pacientes con
Pacientes que
mayor y permanente de
reducción permanente requieren mayor nivel
función (sensitiva, motora, y significativa de
de cuidados
fisiológica o psicológica función (sensitiva,
incluyendo:
no relacionada con el
motora, fisiológica o
curso natural de la
psicológica) no
•
Primeros
enfermedad y que difiere relacionada con el
auxilios
de la evolución esperada o curso natural de la
Error de lado o
•
Nueva
cualquiera de las
enfermedad y que
sitio en
evaluación
siguientes circunstancias: difiere de la evolución
procedimiento
•
Estudios
esperada o cualquiera
Cirugía en
adicionales
de las siguientes
paciente
•
Pérdida de
•
Derivación a
circunstancias:
equivocado
miembro
otro médico
Suicidio en
•
Desfiguración
internación
•
Aumento del
Oblito que requirió
tiempo de
remoción
internación
quirúrgica
como
Embolia gaseosa
resultado del
Muerte por error
incidentes
de medicación
•
Se requiere
Reacción
una
hemolítica postintervención
transfusional
quirúrgica
Muerta materna
como
vinculado al parto
resultado del
Daño neurológico
incidente
al recién nacido
Robo de recién
nacido
Muerte no relacionada con
el curso natural de la
enfermedad y que difiere
de la evolución esperada,
o bien cualquiera de estas
circunstancias.
•
MAYOR
INSIGNIFICANTE
Pacientes sin daño ni
aumento del nivel de
cuidados o estadía
IAFRECUENCIA
CALIFICACIÓN DEL RIESGO POR SU FRECUENCIA (NSW Severity Assessment Code, 2005)
CASI SEGUR0
Se espera que ocurra y se repita en cortos períodos de tiempo (todas las
semanas o meses)
PROBABLE
Probablemente ocurrirá y se repetirá en muchas circunstancias (varias veces
al año)
POSIBLE
Puede ocurrir ocasionalmente. Ha ocurrido en el pasado y es posible que
vuelva a pasar (cada uno a dos años)
IMPROBABLE
No se espera que ocurra o que se repita, pero potencialmente podría pasar
(cada 2 a cinco años)
MUY RARO
No se cree que el evento pueda ocurrir. Sólo podría pasar algo así en
circunstancias excepcionales (cada 5 a 30 años)
Combinando ahora ambas categorías se puede armar una verdadera matriz que permita
determinar el nivel de riesgo. Este nivel de riesgo puede adoptar un valor cuantitativo ($), un
valor meramente cualitativo (ej: elevado, bajo) o algún valor semicuantitativo (300, 200, 100),
representado por números y no por $ que permita realizar un ordenamiento por el nivel de
riesgos:
SEVERIDAD
CATASTRÓFICO MAYOR
CASI
SEGURO
PROBABLE
POSIBLE
IMPROBABLE
MUY RARO
(NSW Severity Assessment Code, 2005)
MODERADO
MENOR
INSIGNIFICANTE
De acuerdo a esta matriz se podrán determinar prioridades
RIESGO EXTREMO: Se requiere acción inmediata. El Directorio debe
conocer esta situación y deben implementarse acciones correctivas
urgentes. Si ocurre el incidente el mismo debe ser reportado dentro
de las 24 hs. y se deben analizar causas raíces
RIESGO ALTO: Se requieren acciones lo antes posible y no más allá
de los 6 meses. La Jefatura de Servicio debe conocer esta situación.
RIESGO MODERADO: Se requieren acciones lo antes posible y no
más allá del año.
RIESGO BAJO: Manejo por procedimientos de rutina. Implementar
medidas fáciles y rápidas y soluciones de fondo cuando los recursos lo
permitan
(NSW Severity Assessment Code, 2005)
2.
Análisis de Causa Raíz (JCAHO, 1997)
El análisis de causa raíz es una herramienta que se utiliza para identificar la causas básicas y
los factores que contribuyen a la ocurrencia de un evento indeseado y las contramedidas
necesarias, a nivel de sistemas y procesos.
El análisis progresa desde una causa próxima (especial), a una causa común (sistémica). Más
que focalizarse en el individuo busca conocer por qué sucedió el evento adverso, cuáles fueron
los factores más próximos y qué procesos o sistemas subyacen bajo estos factores..
La causa próxima o especial es la causa directa de un evento adverso, la que se encuentra
más cercana a su origen. Para un evento centinela ésta puede ser un error humano o una falla
de equipo. Generalmente son factores impredecibles, intermitentes y que no son parte del
diseño del sistema.
La causa raíz o sistémica es aquella que subyace en el sistema y que influye en el proceso que
ha producido el evento a estudiar. Son factores inherentes al sistema, producido por la
interacción de las variantes del mismo.
Típicamente el análisis de causa raíz lleva a estudiar los factores humanos, ambientales,
comunicacionales y de equipo que determinaron el error del efector final.
Una misma causa raíz (ej: problemas de comunicación) puede dar origen a distintos tipos de
eventos adversos. Una vez identificada la misma se deberían identificar las potenciales
mejoras al sistema y determinar una estrategia de medición de los progresos.
3.
Análisis de Modos de Fallas y sus Efectos (AMFE) (IHI, 2004)
Es una herramienta analítica, desarrollada en el área de ingeniería, para evaluar en forma
sistemática las distintas formas (modos) en que puede fallar en su funcionamiento cada uno de
los componentes de un sistema, sean tecnológicos (equipamiento, software, etc.) o humanos
(operadores, personal técnico de apoyo o mantenimiento, etc.). El análisis busca identificar
para cada uno de esos “modos de falla” su efecto sobre el funcionamiento seguro del sistema.
A diferencia del análisis de causa raíz, que es reactivo a partir de un evento adverso, el análisis
de modos de fallas es proactivo, incluyendo en el análisis lo siguiente:




Pasos en el proceso
Modos de falla (¿qué puede salir mal?)
Causas de estas fallas (¿por qué pueden producirse las fallas)
Efectos de estas fallas (¿cuál sería el efecto de cada falla?)
Los pasos del AMFE son:
Selección de un proceso de alto riesgo a evaluar con AMFE
Formación de un equipo multidisciplinario
Que el equipo enumere todos los pasos del proceso
Tormenta de ideas para enumerar modos de falla. (Para cada modo de falla identificar
posibles causas)
5. Para cada modo de falla, se debe asignar un valor numérico (NPR: Número de
Prioridad de Riesgo) de acuerdo a la probabilidad de ocurrencia, a la probabilidad de
detección y a la severidad
6. Evaluar los resultados
7. Utilizar el Nº de prioridad de riesgo (NPR) para planificar mejoras al sistema
1.
2.
3.
4.
IMPLEMENTACIÓN DE PROGRAMAS DE SEGURIDAD HOSPITALARIA
El progreso hacia la seguridad es muy lento y la mayoría de los hospitales ha adoptado
medidas aisladas. Para poder implementar un programa abarcativo y exitoso es fundamental
conocer cuál es la cultura de la organización, comprendiendo en profundidad los determinantes
culturales que contribuyen o no en el proceso de reporte y prevención del error y en el
mejoramiento continuo de la seguridad de los pacientes.
La cultura organizacional puede evaluarse mediante encuestas o grupos focales en los cuales
suelen preguntarse aspectos vinculados al liderazgo, las normas y procedimientos, la
composición de la fuerza de trabajo, la comunicación y el reporte de errores. Los dos modelos
de encuestas más difundidas son la preparada por la Agencia de Investigación y Calidad en
Salud (AHRQ, 2007) del Departamento de Salud y Servicios Humanos de los Estados Unidos y
la encuesta desarrollada por la Universidad de Texas (Sexton, 2003).
Suelen describirse tres tipos de culturas organizacionales:
Cultura Organizacional Patológica:
No hay interés por conocer los errores ni sus causas, se” mata al mensajero”, no se asume la
responsabilidad. Es esta cultura el error es castigado severamente o bien es consentido y se
desalienta cualquier nueva idea.
Cultura Organizacional Burocrática:
Quienes tienen que tomar decisiones generalmente no se enteran de los errores. Cuando
finalmente el mensajero llega, la responsabilidad está compartimentalizada. En esta cultura las
fallas llevan a arreglos de coyuntura, locales y las nuevas ideas generalmente representan un
problema.
Cultura Organizacional Generadora:
Se busca conocer activamente los errores y sus causas, se entrena y recompensa a los
mensajeros y la responsabilidad es compartida. En esta cultura las fallas llevan a reformas de
largo alcance y las nuevas ideas son bienvenidas.
Más concretamente estas organizaciones: (Pizzi, 2001)




Reconocen la naturaleza misma de la actividad que desarrollan como propensa a la
ocurrencia de errores o accidentes
Estimulan un ámbito de análisis del error no centrado en el individuo, en el que su
reporte no se acompañe automáticamente de una penalidad o castigo
Promueven la colaboración a distintos niveles para corregir aspectos vulnerables
Destinan recursos para mejorar la seguridad en forma sostenida
EL MODELO AERONÁUTICO
La práctica de la medicina hospitalaria ha sido comparada a la de la industria aeronáutica, otra
actividad complicada y riesgosa pero que parece ser mucho más segura.
Tanto los pilotos como los médicos son profesionales cuidadosamente seleccionados y
altamente entrenados. En ambos casos se trata de individuos usualmente determinados a
mantener altos estándares de eficiencia que le son impuestos tanto internamente como
externamente por la gente a la que sirven. Tanto médicos como pilotos interactúan con equipos
de alta tecnología y funcionan como piezas clave de un equipo de especialistas. Ambos se
ejercitan para resolver situaciones complejas en un medio del cual mucho se conoce pero aún
queda mucho por ser descubierto. Aún pudiendo disentir en algún aspecto, hay muchas cosas
que la medicina puede aprender de la aviación comercial, una empresa que año a año mejora
sus índices de seguridad (diez millones de despegues por año en los EE.UU con sólo cuatro
colisiones). Veamos el enfoque de la industria aeronáutica y el de la medicina frente aspectos
tales como: (Leape, 1994)
a) El error: En aviación de asume que los errores y fallas son inevitables y se diseñan
sistemas para “absorberlos”, creando múltiples buffers, automatización y redundancia. En
la cabina, los sistemas de monitoreo se encuentran duplicados y triplicados. Un estudio
sobre tripulaciones de cabina de vuelos transatlánticos observó un promedio de un error
humano o falla de equipo cada cuatro minutos. Cada evento fue prontamente reconocido y
corregido sin consecuencias desfavorables.En medicina el abordaje clásico confía en que
los individuos no van a cometer errores antes de asumir que los cometerán.
b) Estandarización: En aviación la estandarización es máxima. Se deben seguir protocolos
específicos para la planificación de los vuelos, las operaciones y el mantenimiento. Los
pilotos deben cumplimentar una grilla de chequeos antes de cada despegue. Los requisitos
de mantenimiento son detallados y deben ser realizados regularmente de acuerdo a las
horas de vuelo. Los médicos, en cambio desconfían de los estándares, pensando que
interfieren en lo que la ciencia de la medicina tiene de arte. Si bien no se puede reducir la
actividad médica a un “libro de recetas”, hay muchas actividades que pueden y deben estar
protocolizadas, particularmente aquellas que dependen de la memoria, uno de los
elementos más pobres de la cognición.
c) Certificación: En la industria aeronáutica, el entrenamiento, la evaluación y certificación es
rigurosa. Los pilotos de aerolíneas rinden exámenes de aptitud cada seis meses. Muchas
de estas evaluaciones se basan en temas de seguridad. La educación y el entrenamiento
de los médicos excede en mucho a la de los pilotos en contenidos y duración y pocas
profesiones se comparan con la medicina en este aspecto. Sin embargo, a pesar de que se
está empezando a recertificar, el proceso aparece algo relajado y la idea de medir
realmente el desempeño no termina de ser internalizada en la comunidad médica. Los
profesionales ponen mucho énfasis en su capacitación y entrenamiento pero son renuentes
a que se los examine para demostrar si dicha educación marca alguna diferencia.
d) Seguridad: En la aviación la seguridad se encuentra institucionalizada. Existen dos
agencias independientes con responsabilidades delegadas por el gobierno. La
Administración Federal de Aviación (FAA) regula todos los aspectos del vuelo y prescribe
medidas de seguridad. La Dirección Nacional de Seguridad del Transporte (NTSB)
investiga todos los accidentes y elabora un informe final. Hace ya mucho tiempo que la
FAA reconoció que rara vez los pilotos reportaban un error si el mismo podía desembocar
en una acción disciplinaria. Por ello, en 1975 estableció un sistema confidencial de reporte
no punitivo de errores e infracciones de seguridad, el Aviation Safety Reporting System
(ASRS) que recibe anualmente 36.000 reportes voluntarios de pilotos, controladores de
vuelos, tripulación de cabina y personal de mantenimiento referentes a condiciones
inseguras en los aeropuertos, en la comunicación o en los controles. El sistema garantiza
la confidencialidad de la información. Toda la información identificatoria es destruida una
vez ingresado el evento a una base de datos disponible a todos. No se puede sancionar a
nadie por violaciones no intencionales de las Regulaciones Federales Aeronáuticas si el
informe es remitido dentro de los diez días de ocurrido el incidente. Los accidentes y
actividades criminales no están protegidos y no deben ser remitidos.
En los hospitales, en cambio, el tema de la seguridad es uno más entre tantos. La
investigación de los accidentes suele ser superficial a no ser que se prevea una posible
demanda. Los errores que no produjeron lesiones (“los casi accidentes”) rara vez son
examinados y se teme notificar incidentes por temor a represalias. Cuando son notificados,
invariablemente se apunta al error individual.
EL ABORDAJE SISTÉMICO
El abordaje sistémico busca: (Leape, 1994)
1. Prevenir los errores:









Reduciendo la confianza en la memoria y la vigilancia (funciones cognitivas
débiles)
Simplificando
Estandarizando
Desarrollando “funciones forzosas”
Utilizando protocolos y chequeos
Entrenando en seguridad
Mejorando el acceso a la información
Mejorando la comunicación y el feedback
Evitando la sobrecarga de trabajo y de horas
2. Hacer visibles los errores


Estimulando la notificación de errores y peligros
Focalizándose en los sistemas, no en los individuos
3. Mitigar los efectos del error
Para ello es importante diseñar sistemas redundantes, dobles y triples chequeos, para
lograr interceptar el error y por ende sus consecuencias.
Ejemplos:
 Doble chequeo de medicación pediátrica en donde se calculan dosis/kg
 Triple chequeo de lado en cirugía
 Checklist prequirúrgico
Este tipo de abordaje permite rediseñar sistemas. Algunos ejemplos:






Sistemas de identificación de pacientes y de lado
Desarrollo de sistemas de comunicación estructurada para traspaso de pacientes
Remoción del ClK de los office de enfermería
Programas de prevención de caídas
Sistemas de medicación computarizada
Historias clínicas electrónicas con campos mandatarios
BARRERAS CULTURALES A VENCER
Para implementar programas de seguridad es necesario vencer una serie de barreras muy
arraigadas en muchos sistemas de salud.
1. Falta de compromiso y liderazgo de los dirigentes:
¿Qué lugar ocupa la seguridad de los pacientes en la agenda de trabajo de todos los días? En
general en muchas instituciones se encuentran personas que comienzan a estudiar el tema, a
proponer cambios, pero muchas veces chocan con quienes deben tomar las decisiones. La
seguridad hospitalaria necesita de líderes. Los mayores avances en la Argentina se debieron al
liderazgo de la Academia Nacional de Medicina y al impulso dado por el académico Dr. Alberto
Agrest al Instituto de Investigaciones Epidemiológicas.
2. Privilegio de la productividad por sobre la seguridad
Aquellos sistemas que privilegian la productividad por sobre la seguridad son por definición
inseguros. Seguirán cometiéndose errores si las condiciones de trabajo obligan a que los
médicos deban atender un volumen inapropiado de pacientes por hora, si faltan enfermeros/as,
si los honorarios están pauperizados y los profesionales están obligados a ir de guardia en
guardia, sin descanso. Ya vimos que las principales causas de errores son la fatiga, la
ansiedad y la falta de personal. Se observa en muchas instituciones una gran resistencia a
atacar los problemas de fondo (condiciones de trabajo, procesos deficientes, capacitación del
personal, diseño y mantenimiento de equipos). Hay decisiones tomadas por financiadores,
administrativos y jefes que afectan los márgenes de seguridad de la primera línea de atención.
Quienes toman estas decisiones deberían sentirse tan responsables como quien cometió la
última falla en la cadena
3. Resistencia a invertir tiempo y dinero
Obviamente, para obtener resultados en seguridad hay que invertir. La inversión en
investigaciones de seguridad de los pacientes del Departamento de Salud de los EE.UU es de
aproximadamente 50 millones de dólares, con: (US Department of Health & Human Services, 2001)
 24 proyectos sobre identificación, recolección y análisis de errores médicos (U$S 24,7
M)
 22 proyectos sobre el impacto de la tecnología en la prevención de errores (U$S 5,3 M)
 8 proyectos sobre el impacto de las condiciones de trabajo en la seguridad de los
pacientes (U$S 3 M)
 23 proyectos de investigación y desarrollo de actividades innovadoras para mejorar la
seguridad (U$S 8 M)
 7 proyectos sobre capacitación de losmprofesionales en seguridad (2,4 M)
 10 proyectos de investigación en seguridad adicionales (U$S 6,4)
4. Escepticismo
La inmensa mayoría de los profesionales de la salud no creen en la magnitud del problema. No
creen realmente que el tema de los errores sea serio, por más que haya un cuerpo de
conocimientos que avale esto.
Al respecto resulta interesante el estudio Validar, realizado en 107 hospitales y centros de
salud privados de la Argentina. (Programa Validar, Ministerio de Salud)
El estudio permitió calcular que, si se contara con un programa activo de control de infecciones
podrían evitarse 530 muertes por año y 300 episodios infecciosos y se ahorrarían 7 millones de
pesos, sólo en UTI. Si se considera la totalidad de los hospitales públicos y privados que hay
en el país (3196), las cifras ascienden a 17.000 muertes y 96.000 episodios infecciosos
anuales, representando un ahorro de 224 M.
Muchos de los datos que se dan al hablar de error no se condicen con la experiencia personal
de los médicos, quienes ven a los eventos adversos como eventos marginales en su actividad.
La “tiranía” de los pequeños números impide ver por ejemplo la cantidad total de fracturas de
cadera por caídas de la cama o errores de lado o de medicación.
Por otro el concepto de fallas de sistemas aparece frente a los médicos como algo vago y
complicado, ya que va en contra de todo lo que nos enseñaron y ofende nuestro sentido de
libertad y de responsabilidad frente a los pacientes. Hay una tendencia a pensar que culpar al
sistema significa evadirnos de la responsabilidad individual que tenemos como médicos de
hacer lo mejor para nuestros pacientes con el menor margen de error posible. Ambas cosas
son necesarias: la búsqueda de la excelencia a nivel individual y los cambios en el sistema
para poder aprender de los errores y minimizar el daño.
5. Individualismo
La complejidad de la práctica de la medicina en nuestros días nos hace totalmente
interdependientes y es imposible crear un ambiente seguro si no se trabaja en equipo. La
seguridad depende más de la armonía dinámica entre los actores que de la excelencia a
nivel individual.
La trancisión que se requiere para avanzar en seguridad es muy difícil. Implica ceder algo de
protagonismo para transformarse en un componente más del equipo, aún siendo el más
importante. Es difícil porque atenta contra el ego y la imagen que el médico tiene de sí mismo.
Obviamente hay límites. La ultraestandarización y el principio de actores equivalentes
requieren de condiciones estables. Estas condiciones son alcanzadas más fácilmente en
algunos ámbitos de la medicina, como en radiología, farmacia, laboratorio y anestesia
programada. Hay otros ámbitos en donde esto es mucho más difícil, como en guardia o en
cirugía de urgencia.
6. Discrecionalidad
Cualquier sistema que permite que sus integrantes trabajen en forma ilimitada tomando
decisiones autónomas sin mayor regulación ni imposición de límites es altamente inseguro.
Hoy la acreditación y certificación médica no es lo rigurosa que debiera y se observan falta de
límites y control. Hoy con el título de especialista el límite lo determina el propio profesional. Un
cirujano puede estar operando todo el tiempo que él considere necesario, un médico puede
salir de 24 hs de guardia e ir a operar a otro hospital, etc. El sistema no contempla muchas
veces un freno a estas actitudes, dependiéndose del criterio individual.
Está comprobado que los mayores niveles de inseguridad no se deben a incompetencia. En
ámbitos complejos los mayores riesgos suelen correrlos quienes desafían los límites de su
propio desempeño.
Los sistemas de seguridad desarrollados niegan aún a los más experimentados la absoluta
discrecionalidad. El profesional medio generalmente se siente incómodo cuando se le imponen
límites, regulaciones o evaluaciones de desempeño. Si se quiere avanzar, los profesionales
deberán cede algo de autonomía en pos de la seguridad del sistema.
7. Temor
Todavía está muy arraigada entre los profesionales de la salud la cultura del castigo. Esto hace
muy difícil que los mismos notifiquen errores y sólo salen a la luz aquellos errores que
produjeron daños graves y que son inocultables. Se pierde entonces la oportunidad de
aprender a partir de los mismos.
La excesiva verticalidad de nuestro sistema establece barreras jerárquicas que hacen
inimaginable a una enfermera notificando un error de un médico o a un residente notificando el
error de un jefe. Tampoco es imaginable la discusión abierta de un error en un servicio. En
general, cuando esto sucede, como en algunos ateneos, las discusiones tienen carácter
netamente incriminatorio y el esfuerzo mayor está puesto en deslindar responsabilidades más
que en el estudio de las raíces del problema.
Por otra parte la facilidad para entablar juicios millonarios en nuestro sistema legal desalienta
cualquier intento de discutir abiertamente los errores. El sistema de responsabilidad civil y
penal del médico tiene un abordaje necesariamente individual, punitivo y confrontacional,
buscando establecer culpas. Este sistema pareciera oponerse a los sistemas de seguridad en
donde la culpa no es el eje, el abordaje es necesariamente sistémico y no punitivo. La
resolución del problema no es fácil y en algunos países ha determinado la protección legal del
incidente denunciado impidiendo que se constituya en prueba en casos de responsabilidad
profesional.
8. Tolerancia
Muchos profesionales se han acostumbrado a convivir con el error y condiciones de seguridad
deficientes. Los errores son tomados muchas veces como fatalidades del destino o hechos
fortuitos. ¿Se equivocó de lado?. Le puede pasar a cualquiera… ¿Se cayó de la camilla? Son
cosas que pasan. En los sistemas punitivos hay menos tolerancia con quien cometió el error
que con el error en sí mismo
No debieran asumirse como inevitables o inherentes a la práctica habitual hechos que no
debemos permitir que pasen. Reconocer que los errores son frecuentes y que van a ocurrir
porque somos humanos no debe llevarnos a una insensibilización que nos paralice. Debemos
estudiarlos y buscar la forma de minimizarlos.
9. Falta de consenso
Uno de los principales obstáculos para la implementación de planes de seguridad de
pacientes es la falta de consenso entre los especialistas en la materia y los profesionales
asistenciales acerca de lo que es relevante. Por ejemplo, de acuerdo a una encuesta del 2002
(Blendon 2002), la mayoría de los médicos asistenciales sólo consideran como muy efectivos
para la prevención de errores dos abordajes:
 Que los hospitales desarrollen sistemas para evitar el error médico (55%)
 Aumentar el personal de enfermería (50%)
Menos médicos consideran que otras medidas, importantes para quienes manejan riesgos,
sean efectivas.




Solo el 40% piensa que sería efectivo limitar procedimientos de alto riesgo
Sólo el 34% piensa que sería efectivo que sólo hubiera especialistas en terapia
intensiva en dichas unidades
Sólo el 23% piensa que sería efectivo aumentar los sistemas de prescripción
electrónica
Sólo el 19% piensa que la historia clínica electrónica sería efectiva para disminuir los
errores.
Reflexión Final:
El error médico y la seguridad de los pacientes ocupan desde hace algunos años el centro de
la escena de quienes tienen la responsabilidad de pensar los sistemas de salud en todo el
mundo. Como con los programas de calidad en la atención, los programas de seguridad del
paciente requieren el compromiso y liderazgo de los más altos niveles de las organizaciones
(directores, jefes de servicio). Ningún cambio será posible sin su apoyo.
Si las instituciones de salud quieren realmente tomar medidas efectivas para reducir sus
errores y aumentar la seguridad de los pacientes deberán asumir el desafío del cambio cultural.
Los profesionales de la salud deberán aceptar la noción de que el error es un componente
inevitable de la condición humana, aún tratándose de buenos profesionales acostumbrados a
altos estándares de desempeño. Los errores deberán ser aceptados como evidencias de fallas
de sistemas y no de carácter. Mientras no se den estas condiciones es poco probable que
puedan implementarse progresos significativos. No haremos un sistema más seguro hasta que
no decidamos realmente hacerlo.
Parafraseando a James Reason: “No podemos cambiar la condición humana, pero sí podemos
cambiar los sistemas en los cuales los humanos trabajan”
REFERENCIAS BIBLIOGRÁFICAS
Agency for Healthcare Research and Quality (AHRQ). , Rockville, MD. Patient Safety Culture
Surveys April, 2007. www.ahrq.gov/qual/hospculture/
Aranaz Andrés J., Aibar Remón C., Vitaller Burillo J., Ruiz López P. Estudio Nacional sobre los
Efectos Adversos ligados a la Hospitalización ENEAS 2005. Febrero 2006. Ministerio de
Sanidad y Consumo. Madrid. España
Bader & Associates Patient Safety Manual. Data Sources and coordination In: Surgeons ACo,
editor. Rockville, 1985
Barach P., Small S. Reporting and preventing medical mishaps: lessons from non-medical near
miss reporting systems. BMJ 2000; 320: 759-763
Battles J., Kaplan H., Van der Schaaf T., Shea C. The attributes of medical event-reporting
systems. Arch Pathol Lab Med 1998; 122:231-238
Blendon J., DesRoches C., Brodie M., et al. Views of practicing physicians and the public on
medical errors. New Engl J Med 2002, 2002: 347: 1933-9
Brennan T., Leape L., Laird N, et al. Incidence of adverse events and negligence in hospitalized
patients. Results of the Harvard Medical Practice Study I. N Engl J Med. 1991, 324: 370-6
CDC. Center for Disease Control and Prevention About NNIS. Atlanta:, 2001. www.cdc.gov
Cohen M. Why error reporting systems should be voluntary. BMJ 2000; 320: 728-729 (18
March)
Cullen D., Bates D., Small S. et al. The incident reporting system does not detect adverse
events: a problem for quality improvement. Jt Comm J Qual Improv 1995; 21: 541-548
Food and Drug Administration: Biological products; reporting of errors and accidents in
manufacturing. Federal Register 1997; 62:49642-49648
Haley R., Culver D., White J. et al. The efficacy of infection surveillance and control programs in
preventing nososcomial infections in US hospitals. Am J Epidemiol 1985; 121: 182-205
Harvard School of Public Health. No-Fault Compensation for Medical Injury proposed as
incentive for Reporting and Correcting Hospital Error, Improving Patient Safety. Press Release
July 10, 2001
IHI. Institute for Healthcare Improvement. Failure Modes and Effects Analysis (FMEA). 2004.
www.ihi.org/ihi/workspace/tools/fmea
JCAHO Sentinel Events. American Society for Healthcare Risk Management. 1997 Annual
Conference and Exhibition. October 28, 1997. Atlanta GA
JCAHO. Joint Commission on Accreditation of Healthcare Organizations, 2000. Results of
JCAHO sentinel events reporting. Oakbrook Terrace, Ill.
Kohn L, Corrigan J, Molla S, Donaldson M (editors) To err is Human: building a safer health
system. Washington DC, National Academy Press, 1999
Lawton R., Parker D.,Barriers to incident reporting in a healthcare system Qual Safe Care 2002;
11: 15-18
Leape L. Error in Medicine. JAMA Dec 21, 1994 vol 272 Nº23 p 185-7.
Leape L. Reporting of Adverse Events N Engl J Med, Vol 347, Nº20 1633-1638, November
2002
McIntyre N., Popper K.: The critical attitude in medicine: the need for a new ethics. BMJ 1983;
287: 1919-23
NSW Health (New South Wells. Australia). Severity Assesment Code (SAC). November 2005
O’Neil A., Petersen L., Cook E., Bates D., Lee T., Brennan T. Physician reporting compared
with medical-record review to identify adverse medical events. Ann Intern Med 1993; 119:370376
Organización Mundial de la Salud. Centro colaborador de la OMS sobre soluciones para la
seguridad del paciente. Soluciones para la Seguridad del Paciente. Mayo 2007. Vol 1 (Sol 1-8)
Ortiz, Z y col. Implementación de un programa para el mejoramiento de la seguridad en la
atención médica de los pacientes. . 1º edición. Buenos Aires: Salud Investiga 2007
Pharmacopeia, 2000. Summary of the 1999 information submitted to Med MARx: a national
data base for hospital medication error reporting: Rockville, Md
Pizzi L., Goldfarb N., Nash D. Promoting a Culture of Safety . Agency for Healthcare Research
and Quality. U.S. Department of Health and Human Services. Making Healthcare Safer: A
critical analysis of Patient Safety Practices. Borrad, 2001: 447-57
Reason J. Human error: models and management. BMJ 2000; 320: 768-770 (18 March)
Sexton J., Thomas E. The Safety Climate Survey: Psychometric and Benchmarking
PropertiesTechnical Report 03-03. The University of Texas. Center of Excellence for Patient
Safety Research and Practice
Swain A., Guttman H. (1983). Handbook of human reliability analysis with emphasis on nuclear
power plant applications. (1983).. NUREG/CR-1278 (Washington D.C.).
Thomas E., Studdert D. et al. Incidence and types of adverse events and negligent care in
UTAH and Colorado. Med Care 2000 March; 38 (3): 247-9
Thorek M. Surgical Errors and Safeguards. 1932. London: JB. Pippincot Co. eds.
U.K Department of Health. (Stationery Office, 2000) An organisation with a memory. Report of
an expert group on learning from adverse events in the NHS. Chaired by the Chief Medical
Officer.
United States Department of Health & Human Services. HHS announces $50 million
investment to improve patient safety. Press Release, Thursday, Oct 11, 2001.
www.hhs.gov/news/press/2001pres/20011011.html
Wald H, Shojania, Incident Reporting. Chapter 4. Making Health care Safer: A Critical Analysis
of Patient Safety Practices. AHRQ. US Department of Health July 2001
Wanzel K., Jamieson C., Bohnen J. Complications on a general surgery service: incidence and
reporting. CJS 2000; 43: 113-117
Webb R., Currie M., Morgan C. et al. The Australian Incident Monitoring Study: an analysis of
2000 incident reports. Anaesth Intens Care 1993;21:520-528
Wilson R., Runciman W., et.al. The Quality in Australian Health Care Study. Med J Aust. 1995
Nov 6; 163 (9): 458-71