Mostrando las entradas con la etiqueta errores cognitivos. Mostrar todas las entradas
Mostrando las entradas con la etiqueta errores cognitivos. Mostrar todas las entradas

25 de abril de 2022

Como mitigar los errores cognitivos

Luego de haber comentado una larga lista de errores cognitivos comunes que todos somos propensos a cometer puede ser desalentador pensar que, a pesar de todo nuestro entrenamiento y todo nuestro esfuerzo muchas veces, sino siempre, caemos en alguno de ellosSin embargo, puede haber algunas formas de mitigar nuestros sesgos.

Al proceso de examinar nuestra cognición se lo llama "metacognición", que no es más que reflexionar sobre lo que pensamos y así afrontar nuestros problemas cognitivos. 

Parece ser que esta ciencia de la metacognición, a diferencia de los errores cognitivos, no está tan establecida científicamente como pudiéramos creer, pero aun con poca evidencia puede ser útil para trabajar estos errores. Por cierto de lo que se trata aquí es disminuir al máximo nuestros pensamientos intuitivos y así favorecer nuestro pensamiento analítico. No es fácil y se debe recordar como un mantra aquel aforismo: "no se pongan a pensar si no están acostumbrados". 

Que la evidencia todavía sea poca puede ser porque es un cuerpo de conocimientos relativamente nuevo, no muy explorado, pero no quita que el proceso de "metacognición" no aparezca como naturalmente lógico: evitar en cuanto se pueda este tipo de errores

Una buena noticia parece ser que si leyó la larga lista de sesgos que publiqué antes, entonces será más capaz de reconocerlos y por ende menos probabilidades de caer en uno de ellos. Al menos esa es la idea.

Otra idea es considerar sistemáticamente otra alternativa. Esto podría permitir ir más allá del error de representatividad o el sesgo de disponibilidad. No hay que quedarse con nuestro primer diagnóstico, por más acertado que ese parezca, o con lo primero que nos venga a la cabeza (sesgo de disponibilidad).

Siempre trate de desconfirmar. Preguntándose siempre si hay algo que no encaje. Eso evita el sesgo de anclaje y confirmación, obligándonos a buscar activamente evidencia que pueda refutar nuestro diagnóstico.

Descarga cognitiva. Trate de memorizar menos y así dejar su mente libre al pensamiento crítico. A mi me suena a libro de autoayuda este punto, pero tampoco por eso debo descartarlo. Reglas mnemotécnicas, aplicaciones en el celular o tener un blog para guardar enlaces importantes, son algunas de las estrategias para liberarse de recordar asuntos no importantes. 

Los humanos somos muy pobres en pensamiento probabilístico y estadístico, Gonzalo Casino escribió sobre eso en un artículo llamado "Anuméricos y bayesianos", y por supuesto John A Paulus escribió un magnifico libro hablando de lo mismo, pero aquí disiento y no solo saber sobre probabilidades puede ser suficiente. Ni siquiera les alcanza a expertos jugadores que debieran conocer sobre probabilidades y terminan apostando en la lotería. Saber sobre probabilidades tampoco le alcanzó a Robin Fransman, un economista holandés, que supongo yo que las conocía, pero también era un conocido activista antivacuna que murió a fines de 2021 a sus 53 años y por Covid-19. Aquí sin duda se mezclan otros valores, junto a otros errores como el pensamiento mágico ("no me va a suceder a mi"). La interpretación de los números y la valoración de los mismos también suele hacer la diferencia entre los buenos y malos expertos en probabilidades. Al fin de cuentas los número son técnica pura, pero la interpretación es casi un arte. De todas maneras el entrenamiento en el manejo de las probabilidades sin duda que es un gran acercamiento.

Todos sabemos que nuestros diagnósticos pueden no ser siempre perfectos. Pero escribir el diagnóstico los puede ayudar al diagnóstico diferencial cuando el paciente regrese con las pruebas diagnósticas que le solicitamos.  Esto claramente evita "el cierre prematuro" de un diagnóstico y "nuestra satisfacción en la búsqueda".

Detenerse con cada paciente y re pensar el diagnóstico inicial, agregando diagnósticos diferenciales, parece ser otra forma de disminuir nuestros errores cognitivos. A esto se lo conoce como pausa cognitiva y adquieren más relevancia cuando la evolución del paciente no era la esperada. Aquí hay que asegurarse de que nuestras expectativas no hayan sido desmedidas o que no sean coherentes con lo que las evidencias científicas le indican. 

Establecer una cultura de responsabilidad y retroalimentación. No puedes aprender de tus errores si nunca te enteras de ellos. En lugar de una cultura de la vergüenza, intente desarrollar una cultura que reconozca que todos los humanos cometen errores e intente abordar los problemas sistémicos. Un sistema que fomenta la retroalimentación rápida le permitirá examinar sus sesgos cognitivos y trabajar para mejorar. Las organizaciones que establecen programas de calidad suelen ser más propensas a identificar errores y corregirlos.

Abordar los factores sistémicos que aumentan los errores

  • Aborda la fatigaEste es un tema en sí mismo, pero cada médico debe tener una estrategia, como turnos programados adecuadamente, tiempo libre adecuado, siestas y etcétera, sobre todo los etcéteras.
  • Minimice las interrupcionesNo es fácil pero hay muchas estrategias disponibles. Algunos departamentos han desarrollado un 'cono de silencio', esencialmente un área donde un médico puede sentarse cuando necesita concentrarse y nadie puede interrumpirlo, solo lo menciono porque lo leí, pero yo nunca he visto esto, y con Maxwell Smart no funcionaba. 
  • Minimizar las presiones de tiempoNuevamente, esto no es fácil de hacer, pero trabajar en un lugar con las condiciones adecuadas sin duda es óptimo para que podamos desarrollar nuestros potenciales. 
  • Reconoce tus emocionesTrate de evitar tomar decisiones cuando esté muy comprometido emocionalmente. Reconozca cuándo puede tener sentimientos positivos o negativos hacia un paciente. Si está enojado o abrumado, tome  2 minutos para tomar aire fresco antes de tomar cualquier decisión importante.
Un método que es fácil de recordar e incorpora mucho de lo anterior es hacer 5 preguntas con cada paciente que vea:
  • ¿En qué trampas podría estar cayendo?
  • ¿Qué puede ser?
  • ¿Hay algo que no encaje (desconfirmación)?
  • ¿Puede estar sucediendo más de una cosa?
  • ¿Es este un caso en el que necesito pensar más lento y mejor?

Otra estrategia de forzamiento cognitivo que promueve Morgersten parece muy útil a la hora de enseñar a estudiantes y residentes es el uso del diagnóstico diferencial TIPS. Aquí se debe identificar al máximo:

  • Diagnóstico Tratable
  • Diagnóstico Interesante
  • Diagnóstico Probable
  • Diagnóstico Serio (grave)
El acto de ampliar su diagnóstico diferencial es probablemente la parte más importante de esta estrategia, ya que ayuda a evitar el cierre prematuro, el anclaje y la búsqueda de satisfacción. Considerar la condición más seria o grave lo ayuda a evitar el sesgo de disponibilidad y jugar con las probabilidades. Obligarse a declarar el diagnóstico más probable lo ayuda a concentrarse en las probabilidades previas a la prueba y evitar el descuido de la tasa base. Incluir el diagnóstico más interesante ayuda a que no nos olvidemos de los diagnósticos "raros" (recuerde que nunca pensamos en "cebras", salvo en los "Hospitales Escuela" donde siempre pensamos en ellas). Finalmente, considerar condiciones tratables ayuda a recordar las acciones que debe tomar, evitando errores de omisión. Revisar un listado de diagnósticos lo obliga a buscar evidencia que lo refute, lo que ayuda a combatir el sesgo de confirmación.

Obviamente, algunos de esos objetivos entran en conflicto entre sí. Buscar una enfermedad frecuente a la que vez que un diagnóstico raro puede parecer extraño. Todavía necesita usar su juicio clínico para llegar a una decisión, pero al revisar la lista de diagnósticos que hizo debería tener una mejor idea de por qué tomó la decisión que tomó.

Los sesgos cognitivos son un tema de discusión cada vez más popular en la comunidad médica. Es divertido considerar nuestra falibilidad cuando tan a menudo se espera que seamos perfectos. La mayoría de las descripciones del tema se centran en en lo que hemos hablado: teoría del proceso cognitivo dual  (intuitivo y analítico), sesgos y errores y finalmente posibles soluciones. 

Sin embargo, hay varios problemas con la teoría del proceso dual y su aplicación a la medicina que deben reconocerse.

El mensaje clave es que la cognición humana es increíblemente compleja y que las discusiones simples sobre un sistema rápido y lento probablemente sean inadecuadas. El debate sobre la teoría del proceso dual está muy matizado y es posible que no le esté haciendo justicia aquí, cuando en realidad es mucho más complejo. Sin embargo, hay algunos puntos clave que los médicos deben considerar al enseñar y aplicar la teoría cognitiva en su práctica.

Primero, recuerda que a pesar de ser una teoría popular, la teoría del proceso dual no es la única teoría de la cognición humana. La literatura de la ciencia cognitiva está repleta de teorías alternativas y evidencia de las fallas de la teoría del proceso dual. La teoría del proceso dual es intuitiva y se aplica bien en experimentos psicológicos simples que involucran a estudiantes universitarios, pero no está claro qué tan bien se aplica al razonamiento humano complejo, especialmente a nivel experto. La clara distinción de pensamiento intuitivo y analítico es cuestionable.

Un problema importante con la teoría del proceso dual es la interfaz mal definida entre ambos sistemas de pensamientos. En general, el proceso se simplifica diciendo que el pensamiento intuitivo siempre está activo, inconsciente y rápidamente sorteando el mundo, mientras que el pensamiento analítico monitorea al primero y le hace correcciones según sea necesario. 

Sin embargo, no está claro cómo ocurre ese monitoreo. ¿Qué desencadena la transición del pensamiento intuitivo al analítico? Aunque se supone que el pensamiento analítico monitorea al intuitivo, el acto de monitorear parece requerir un análisis rápido del pensamiento en curso y el reconocimiento de patrones de posibles errores. En otras palabras, el monitoreo del pensamiento intuitivo parece ser sin más un proceso mismo del pensamiento intuitivo que se regularía a sí mismo.

Además, la descripción común de la intuición como inconsciente y el análisis como consciente no encaja bien con la comprensión actual de la neurociencia. Todo pensamiento consciente parece comenzar, aunque sólo sea fracciones de segundo antes, como pensamiento inconsciente. Lo que esto significa para la distinción entre dos sistemas de pensamiento no está claro.

Aunque el comportamiento de los estudiantes universitarios en los experimentos psicológicos está bien descrito por la teoría del proceso dual, no está claro que el razonamiento experto complejo encaje tan claramente en los dos sistemas distintos de razonamiento. Los médicos "expertos" utilizan la heurística para dar forma rápida y eficientemente al pensamiento analítico, un patrón cognitivo que no encaja perfectamente en la teoría clásica del proceso dual.

Además, la valoración del pensamiento analítico como superior o con más precisión que la intuición puede no ser siempre cierta. Varios estudios sobre la toma de decisiones médicas han demostrado que la toma de decisiones rápida suele ser más precisa que el pensamiento deliberado y más lento. Además, aunque se supone que el papel del pensamiento analítico es anular la intuición, hay ejemplos del proceso que ocurre a la inversa con buenos resultados. Todos los médicos nos hemos encontrado con pacientes que se veían bien en "los papeles", o cuando se pensaba en ellos analíticamente, pero que sabíamos que estaban enfermos según nuestra "Gestalt". ¿Nunca solicitaron la internación de alguien simplemente porque algo no les gustaba y no podían explicarlo racionalmente? Seguro que sí. Sería un error descartar el valor de estas heurísticas.

Cuando digo que hay problemas con la teoría del proceso dual, no quiere decir que el pensamiento intuitivo o analítico no existan. Hay una gran cantidad de buenas investigaciones que ilustran estas dos formas de pensamiento. Ciertamente, hay momentos en que utilizamos la intuición y otros momentos en que somos deliberados y analíticos. Sin embargo, la separación completa de los dos procesos puede ser incorrecta. No tengo las respuestas, pero creo que es importante reconocer que la cognición humana es mucho más compleja de lo que los libros médicos populares más recientes sobre el tema nos harían creer.

Esa podría ser más ciencia cognitiva en la que la mayoría de la gente quiere pensar, pero creo que es importante reconocer que no existe una división clara en el pensamiento humano. Arreglar los errores cognitivos no será tan simple como apagar la intuición y dejar que el sistema analítico y racional se haga cargo. Y aunque resulte cansador repetirlo: no hay nada intrínsecamente bueno en el pensamiento analítico, ni hay nada malo en el pensamiento intuitivo.

En medicina, sabemos cuestionar el razonamiento y, en cambio, confiar en la evidencia empírica. Del mismo modo, probablemente deberíamos desconfiar de toda esta teoría cognitiva y, en cambio, preguntarnos: ¿Cuál es la evidencia de que este modelo ayuda a nuestros pacientes? Si la teoría del proceso dual resulta ser incorrecta, pero las herramientas que desarrollamos a partir de ella aún nos ayudan a hacer mejores diagnósticos, deberíamos usarlas. Sin embargo, no importa cuán grande sea la teoría, si ninguna de las prácticas resultantes ayuda a nuestros pacientes.

Lamentablemente, hasta ahora, el análisis empírico de la teoría cognitiva en medicina ha sido decepcionante. Incluso fuera de la medicina, hay muy poca evidencia de que la metacognición ayude a mejorar nuestros sesgos cognitivos. Dentro de la medicina, la mejor respuesta es probablemente que simplemente no sabemos. Jonathan Sherbino y algunos de sus colegas han realizado una serie de pequeños estudios centrados en las estrategias de forzamiento cognitivo y ninguno ha mostrado una mejora en el razonamiento clínico. Por ejemplo, en un ensayo controlado, a los médicos residentes se les presentaron casos de medicina interna y se les dijo que respondieran lo más rápido posible o que fueran cuidadosos, minuciosos y reflexivos. La precisión era idéntica independientemente de las instrucciones. 

En otro estudio, la precisión cuando se presentó un cuadro clínico se correlacionó con la velocidad: cuanto más rápido se respondía (de acuerdo con el uso del pensamiento intuitivo), más precisa era. Incluso 4 semanas de entrenamiento en estrategias de forzamiento cognitivo no cambiaron la precisión del diagnóstico. Sin embargo, todos estos estudios comparten la limitación de que estudiaron a los estudiantes en lugar de a los expertos, quienes sabemos que abordan los procesos de diagnóstico de manera diferente.

También debemos tener cuidado al interpretar la investigación actual que describe los sesgos cognitivos en medicina. Es fácil reconocer un error y analizar retrospectivamente las causas de ese error. Sin embargo, es muy difícil reconocer y analizar una buena toma de decisiones. Por lo tanto, la literatura probablemente esté sesgada por un sesgo retrospectivoPodemos identificar un caso de infarto de miocardio pasado por alto y culpar al sesgo de representatividad porque ocurrió en una mujer sana de 18 años. Sin embargo, no reconoceremos los 100 infartos de miocardio correctamente diagnosticados y, lo que es más importante, los miles de mujeres jóvenes con dolor torácico pero sin infarto de miocardio que fueron todas correctamente diagnosticadas al presentarse con sus típicos estereotipos. 

Es tentador aceptar cualquier estrategia para mitigar los sesgos cognitivos en medicina como inherentemente valiosa, pero probablemente eso es claramente erróneo. Muchos de los sesgos descritos existen en extremos opuestos de un espectro. Por lo tanto, si está corrigiendo conscientemente una forma de sesgo, puede aumentar simultáneamente su probabilidad de caer en otro. Por ejemplo, si reconoce que se está alejando del diagnóstico de una enfermedad rara e intenta activamente corregir su pensamiento, puede cambiar rápidamente a un escenario en el que está ignorando la incidencia basal de esta rara condición. No puedes salvar al paciente con una enfermedad rara a menos que pienses en ello, pero si lo piensas con demasiada frecuencia, dañarás a muchos pacientes con enfermedades comunes.

Las estrategias de forzamiento cognitivo presentadas puede que no sirvan para todos, Este es un proceso continuo de pensamiento, y que no tiene tiene un final, es algo que debemos practicar frente a todos los pacientes, toda la vida.
Por evitar un error aumenta la probabilidad de cometer otro. Cada error evitado también debe recordarnos, aparte de saber que eso es muy bueno, que todos somos falibles. En especial cuanto más seguros y cómodos estamos en nuestros pensamientos. La frase "errare humanum est" expresa que el errar es inherente a nuestra condición humana y que debemos aprender de nuestros errores, no es una frase para consolarnos sino para ser activos, y tratándose de una profesión que trata con personas, mejor hacer todo lo posible por evitarlos. 

Artículos relacionados

18 de abril de 2022

Errores cognitivos en medicina

 En todas las áreas del conocimiento se pueden cometer errores. Es más probable que esos errores ocurran si hay una falta de conocimientos. Seguramente por ello es que la sociedad confía en los médicos para hablar de su salud y sus enfermedades. Pero también nosotros sabemos que el conocimiento es amplio y no solo tenemos déficits de conocimientos, sino también sesgos cognitivos que pueden hacernos cometer un error. 

En la ciencia del conocimiento la palabra "sesgo" es utilizada para calificar una tendencia predecible en el pensamiento que favorece una perspectiva sobre otra. Los sesgos disminuyen la exactitud de una observación pero no necesariamente su precisión. 

¿Pero porqué puede ser importante para un médico saber de esto? Nada más ni nada menos porque nuestra especialidad tiene un alto uso de tecnologías cognitivas (High tech, high touch). Si usted estuviera en una especialidad donde su instrumento de trabajo fuera necesario ser calibrado, entonces seguramente aprendería a hacerlo. Con nuestro cerebro, o mejor dicho con nuestras ideas, no es distinto. 

El primer sesgo parece ser nuestra tendencia a pensar que los sesgos no nos afectan, aun cuando podemos fácilmente reconocerlos en otros. Este escotoma o punto ciego para reconocer esto parece ser casi una condición natural del pensamiento humano. Pero como dice Morgenstern "la tendencia hacia los errores cognitivos no es un comentario sobre la inteligencia. La racionalidad y la inteligencia son diferentes. Así como la inteligencia no te permitirá resolver algoritmos matemáticos avanzados sin formación en matemáticas, no dominarás la racionalidad sin estudiar sus procesos y errores conocidos".


Parece ser que tenemos dos formas de acercarnos a los problemas. La primera es el razonamiento intuitivo, basado en heurísticas o métodos que permiten aumentar el conocimiento. El más conocido es la heurística de recordación, con el que por ejemplo si vimos un paciente con Leucemia Linfocítica Aguda, que es rara en la consulta de atención primaria, seguramente pensaremos en ella ante cada aumento de los linfocitos en el resto de nuestros pacientes. Este es un método rápido, no supone mucho esfuerzo pero también está expuesto a muchos sesgos y errores cognitivos. 

Una segunda forma es el pensamiento analítico. Es un proceso mucho más lento y requiere un mayor esfuerzo, donde aplica el aforismo de "no se metan a pensar si no están acostumbrados", de gran uso en tiempos recientes. En general tendemos a pensar que este pensamiento analítico es menos propenso, aunque no exento, a errores. 


Tener sesgos no es malo. Lo malo es no reconocerlos o pretender que no los tenemos. Sin la intuición nuestra toma de decisiones sería muy lenta y podríamos cometer errores, en especial en escenarios complejos, como es una consulta médica. Uno comete errores por omisión (por no hacer) o por comisión (por hacer). La mayoría de nosotros elegimos a un médico que actúe rápidamente en una emergencia, y no a uno que se detenga a pensar en todos los diagnósticos diferenciales.


Cuando el conocimiento de algo es mayor, entonces este pensamiento analítico se incorpora naturalmente a nuestro pensamiento, haciéndonos creer que es algo intuitivo. En esto se basa la idea de que los entrenamientos médicos son esenciales. Entrenamientos que pueden ser diagnósticos (interpretar electrocardiogramas), de conductas (como realizar una maniobra de intubación), o incluso para leer un ensayo clínico (lectura crítica de la evidencia). 


Por eso cuando uno está muy "entrenado" en algo lo hace de manera cuasi natural, y resulta más difícil explicar racionalmente porque lo hicimos. Se llama experticia. Y es allí donde el conocimiento se expresa como una totalidad. Quienes la tienen en un área seguramente entienden de lo que escribo. Aunque también sabemos, por experiencia, que como esto puede fallar nuestro entrenamiento de médicos solo dura toda la vida. 


Dicho así, los dos tipos de pensamientos, el intuitivo como el analítico, son inherentes a nuestra especie. Y son complementarios. Supongo que nadie soportaría a una persona que se comportara en la vida como el Sr. Spock en "Viaje a las estrellas''. 

Aun así, y hasta en médicos altamente entrenados, nadie está exento de encontrarse ante circunstancias tales como:

Formas iniciales de una enfermedad. Esto es muy común en atención primaria, donde los síntomas pueden ser inespecíficos y se confunden con el de miles de otras enfermedades. 

Formas raras de una enfermedad frecuente.

Una enfermedad rara con síntomas de una enfermedad frecuente.

O puede ser que en una determinada área, supongamos lesiones cutáneas, usted no está lo suficientemente entrenado, y no puede identificar un patrón preciso. Lo malo aquí está en ignorar la lesión cutánea, no en no llegar al diagnóstico. Al fin y al cabo, consultar a otro especialista es otro arte distinto en médicos de atención primaria.

Son las 3 AM y usted lleva 16 horas de guardia, y todos sabemos que la tarea de pensar analíticamente se hace difícil.

Estas circunstancias exigen de las dos formas de pensamiento, por lo que ambas son necesarias. La necesidad de ambos pensamientos se llama "teoría del proceso dual" y no es la única teoría sobre los procesos cognitivos. 


Morgenstern, describió hace algunos años varios sesgos cognitivos comunes en medicina, seguramente hay más, pero este listado no está mal y algunos sesgos se superponen. 


✔  El efecto IKEA:  cuando los consumidores dan un valor desproporcionadamente alto a productos que ellos han contribuido a crear o fabricar. Se basa en una tienda de muebles "para armar", en las que seguramente a la mayoría le sobraría o faltaría una pieza si estuviera en su barrio. 

Error afectivo (también conocido como sesgo de resultado, sesgo de valor, el factor de disgusto).  Esta es la tendencia a convencerse de que lo que quiere que sea verdad es verdad, en lugar de alternativas menos atractivas. Por ejemplo, si ve a un amigo con dolor de cabeza, es más probable que opte por un diagnóstico benigno que someterlo a una punción lumbar para descartar una hemorragia subaracnoidea. De manera similar, cuando no nos agrada un paciente, podemos descartar su dificultad para respirar como ansiedad en lugar de considerar la embolia pulmonar. Es por esto también que no debemos atender a nuestros familiares.

Sesgo agregado (también conocido como falacia ecológica). Cuando se asume que todos los miembros de un grupo tienen las mismas características clínicas que el conjunto. Es decir que de las características del grupo se deduce o infieren las características personales. 

Efecto de ambigüedad.  Tenemos una tendencia a seleccionar opciones (o hacer diagnósticos) para las que se conoce la probabilidad, en lugar de seleccionar opciones para las que se desconoce la probabilidad. Por ejemplo, un paciente puede presentar fiebre y dolores en las articulaciones después de un crucero por el Caribe. Consideras la influenza, pero también recuerdas haber oído hablar de Chikungunya. Sin embargo, realmente no sabe qué tan común es el Chikungunya y no tiene una prueba disponible para confirmarlo, por lo que termina favoreciendo el diagnóstico de influenza (sea o no más probable).

Sesgo de anclaje. Decidirse prematuramente por un solo diagnóstico basado en algunas características importantes de la presentación inicial y no ajustarse a medida que se dispone de nueva información. Esto está estrechamente relacionado y empeorado por el sesgo de confirmación. Algo así puede suceder cuando los reportes iniciales sobre un medicamento son favorables a su uso y luego la evidencia lo contradice. Esto último puede estar sucediendo entre quienes apoyan a la ivermectina como tratamiento del Covid-19, y también puede pasar al revés, que apareciera nueva evidencia a favor y fuera ignorada.

Momento de diagnóstico: Similar al anclaje. Una vez que otra persona ha asignado una etiqueta o rótulo de diagnóstico a un paciente, es muy difícil quitar esa etiqueta e interpretar sus síntomas con nuevos ojos. Se parece al cierre prematuro que veremos más adelante.

Sesgo de verificación. Cuando su pensamiento está formado por expectativas previas (prejuicios). En otras palabras, ves lo que esperas ver. Esta es la categoría general que contiene estereotipos y prejuicios de género. Por ejemplo, un paciente sin hogar con abuso de drogas en el pasado se encuentra inconsciente y se supone que ha tomado una sobredosis, cuando en realidad tiene una hipoglucemia severa. Este es un sesgo muy frecuente y como muchas veces nos ha resultado beneficioso en otras puede entorpecer el diagnóstico.

Sesgo de disponibilidad. La tendencia a juzgar la probabilidad de una enfermedad por la facilidad con la que vienen a la mente ejemplos relevantes. La experiencia reciente con un diagnóstico en particular aumenta la probabilidad de que se vuelva a realizar el mismo diagnóstico. Lo contrario también es cierto, por lo que es menos probable que se haga un diagnóstico que no se ha visto en mucho tiempo. En general, esto conducirá a que las enfermedades raras sean sub diagnosticadas y los diagnósticos comunes sean sobre diagnosticados. Por ejemplo, en medio de la temporada de gripe, es increíblemente fácil diagnosticar que todos los pacientes con dificultad para respirar tienen alguna infección respiratoria, y posiblemente pasen por alto una embolia pulmonar sutil.

El “ sesgo de caso reciente ” o el “ sesgo de caso significativo ” son subtipos del sesgo de disponibilidad. En lugar de que el diagnóstico más común sea el que le viene a la mente, un diagnóstico raro que se haya visto recientemente o que tenga un impacto significativo en usted (por ejemplo, un error que resultó en una demanda) domina el diferencial. Después de detectar una disección aórtica en un paciente que presentó dolor aislado en la pierna, es posible que solicite más tomografías computarizadas en personas con lesiones de tejidos blandos.

Descuido de la incidencia o prevalencia basal. La falta de incorporación de la verdadera prevalencia de una enfermedad en el razonamiento diagnóstico. Por ejemplo, a menudo sobre estimamos la probabilidad previa a la prueba de embolia pulmonar, trabajando en pacientes esencialmente sin riesgo, sesgando nuestro razonamiento probabilístico resultando en mayores costos, falsos positivos y daños directos al paciente. La mentalidad estándar de "lo peor primero" en medicina es una forma de negligencia de la incidencia basal, en la que se nos enseña a considerar (y, a veces, a trabajar) las condiciones peligrosas, sin importar cuán improbables sean. Esto es aún más frecuente en nuestra educación médica de grado, que si hubiera sido en medicina veterinaria seguramente nos hubieran enseñado problemas de cebras y jirafas, cuando nuestros pacientes terminaron siendo gatos y perros. En los hospitales escuela, como he ido yo, créanme que no es diferente.

Sesgo de creencia. La tendencia a aceptar o rechazar datos con base en las creencias personales de uno. Por ejemplo, un individuo puede ser un verdadero creyente en el tPA para el accidente cerebrovascular isquémico y, por lo tanto, rechaza cualquier evidencia que contradiga su creencia. Hay creyentes de la episiotomía en el parto, del Tamiflú para la gripe y hasta de antibióticos en procesos virales. 

Sesgo de punto ciego. A menudo no somos capaces de reconocer nuestras propias debilidades o errores cognitivos, mientras que es mucho más fácil reconocer los errores o debilidades de los demás. Un sesgo relacionado es el efecto Dunning-Kruger , que describe la tendencia de las personas no calificadas a sobreestimar sus habilidades, mientras que las personas altamente calificadas tienden a subestimar sus habilidades. Por ejemplo, casi todo el mundo afirma ser un conductor mejor que el promedio, pero obviamente la mitad de la población en realidad debe ser peor que el promedio. ¿Se comunica mejor con sus pacientes que el médico promedio? ¿Qué cree que piensa el resto de su centro de salud sobre sí mismos?

Sesgos de comisión y omisión. Todos los tenemos, pero a menudo los empleamos en los contextos incorrectos. Cuando trabajamos con pacientes de bajo riesgo, tendemos a cometer errores de comisión al solicitar pruebas en exceso cuando sería mejor no hacer nada. También cuando nuestro paciente es "importante", por ejemplo cuando tratamos a otro colega. Mientras que pudiéramos cometer un error por omisión si nos demoramos en la reanimación de un paciente. 

Sesgo de confirmación. Una vez que se ha formado una opinión, tiende a notar solo la evidencia que lo respalda e ignorar la evidencia contraria. Por ejemplo, un paciente puede presentar un dolor de cabeza palpitante unilateral, fotofobia y náuseas que le hacen pensar en migrañas. Es posible que escuche que hay antecedentes familiares de migrañas, pero inconscientemente descartamos cualquier hecho que nos aleje del diagnóstico inicial.

Intentar la refutación es una estrategia científica esencial. Todos sabemos que no se puede probar la afirmación "todos los cisnes son blancos" simplemente observando cisnes blancos, porque no importa cuántos observes, el siguiente podría demostrar que estás equivocado. Sin embargo, buscar el único cisne negro te permitirá probar definitivamente que “no todos los cisnes son blancos”. Para traducir esto a la medicina, al ver a un paciente obeso con dolor torácico retro esternal ardiente, no deberíamos buscar evidencia que pueda confirmar que se trata de una enfermedad por reflujo gastroesofágico, sino que deberíamos tratar de refutar esa teoría (buscando por ejemplo un Síndrome Coronario Agudo).

Efecto de encuadre o efecto marco. Sus decisiones se ven afectadas por la forma en que formula la pregunta. Por ejemplo, al decidir si pedir una tomografía computarizada, importa si considera la probabilidad de 1/100 de pasar por alto una condición mortal o la probabilidad de 99/100 de que el paciente esté bien.

De manera similar, sus decisiones están influenciadas por el contexto en el que se ve al paciente y la fuente de información. Es más probable que pase por alto un aneurisma de aorta abdominal en un paciente durante la atención ambulatoria que si tuviera que ver exactamente al mismo paciente en una sala de reanimación cardiovascular.

Sesgo de atribución (por ejemplo, estereotipos negativos). Esto sucede cuando sobrevaloramos la personalidad de un individuo como la causa de sus problemas en lugar de considerar factores externos potenciales. En otras palabras, tendemos a culpar a los pacientes por sus enfermedades. Por ejemplo, tendemos a culpar a las personas obesas en lugar de considerar los factores sociales y económicos que impulsan la obesidad. De manera similar, si escucha que un médico no detectó un infarto de miocardio, tiende a pensar que el médico debe haber hecho algo mal, en lugar de considerar el contexto del diagnóstico en el departamento de emergencias y la dificultad de las presentaciones clínicas muy variadas.

Falacia del jugador. Esta me gustó porque me suele pasar a menudo, todas las otras también, pero esta más. Pensamiento mágico puro. La creencia errónea de que el azar se corrige a sí mismo. Por ejemplo, si una persona lanza una moneda al aire y obtiene cara 10 veces seguidas, hay una tendencia a creer que es más probable que el siguiente lanzamiento sea cruz. En un servicio de urgencias, uno podría diagnosticar 3 pacientes seguidos con embolia pulmonar y, por lo tanto, creer que es poco probable que el próximo paciente también tenga una embolia pulmonar, a pesar de que cada evento es independiente del otro. Esto conduce a una forma de descuido de la incidencia basal, en la que la probabilidad previa a la prueba se ajusta de manera inapropiada en función de hechos irrelevantes.

Sesgo retrospectivo. Conocer el resultado puede afectar significativamente nuestra percepción de eventos pasados. Vemos esto con frecuencia en los casos médico-legales, donde los expertos juzgan las acciones del médico pero están influenciados por saber ya el resultado del caso. En este último caso juega también en cuenta una visión utilitarista, en la cual algo está bien o mal según los resultados. 

Sesgo de información. La tendencia a creer que cuanta más información se pueda recopilar para respaldar un diagnóstico, mejor. Esto puede volverse especialmente problemático cuando se consideran los efectos de orden, de modo que la nueva información se valore más que la información obtenida anteriormente, lo que podría sesgar el razonamiento.

Efectos de orden (también conocido como primacía o de actualidad). Esto se refiere al hecho de que la transferencia de información ocurre como una función en forma de U. Tendemos a recordar información desde el comienzo de un encuentro y el final de un encuentro. Esto puede estar relacionado con el anclaje, en el sentido de que nos enfocamos en lo primero que dice un paciente y nos anclamos en esa información, sin importar qué otra información se nos proporcione. Esto también me recuerda que los médicos solemos establecer nuestras hipótesis diagnósticas dentro de los primeros 5 minutos de una consulta.

Jugando a las probabilidades. Esta es la tendencia, ante presentaciones ambiguas, a asumir un diagnóstico benigno. Está confiando en el hecho de que los diagnósticos benignos son comunes para mitigar los daños de un diagnóstico erróneo. Esto es esencialmente lo contrario de la mentalidad estándar de emergencia de "lo peor primero". También es el extremo opuesto del espectro del "descuido de la tasa de incidencia basal". Una vez leí que un médico general tiene una probabilidad de atender a 3 casos de Linfoma de Hodking en su carrera. El hecho de que sea improbable tampoco quita que debamos excluirlo de nuestras probabilidades iniciales.

Error de probabilidad posterior. La probabilidad de un diagnóstico está demasiado influenciada por eventos previos. Es lo opuesto a la falacia del jugador. Por ejemplo, si diagnostica a 12 pacientes con dolor de espalda muscular, hay una tendencia a diagnosticar al 13 como el mismo. Esto está estrechamente relacionado con el sesgo de disponibilidad.

Cierre prematuro. Esta es la tendencia a detenerse demasiado pronto en un proceso de diagnóstico, aceptando un diagnóstico antes de recopilar toda la información necesaria o explorar todas las alternativas importantes. Esta es una categoría general que puede abarcar una serie de otros errores. Esencialmente, cualquier error cognitivo podría dar lugar a la creencia de que ya hemos llegado al diagnóstico correcto y evitar una mayor verificación. La idea es “cuando se hace el diagnóstico, el pensamiento se detiene”.

Restricción de representatividad (también conocido como error prototípico). La tendencia a juzgar la probabilidad de un diagnóstico basado en un prototipo típico del diagnóstico. La probabilidad de la enfermedad se basa completamente en qué tan cerca está representada la presentación actual de la enfermedad por ese prototipo típico. El resultado es que es más probable que se pasen por alto las presentaciones atípicas de las enfermedades. “Si tiene cuatro patas, relincha y no tiene rayas debe ser un caballo". 

Satisfacción de búsqueda. La tendencia a dejar de buscar una vez que ha encontrado algo. Esta es la razón por la que no detectamos la segunda fractura en la radiografía una vez que identificamos la primera.

Falacia del costo hundido. Una vez que uno está invertido en algo, es muy difícil dejarlo ir, incluso si esa inversión original ahora es irrelevante. En medicina, esto puede ocurrir cuando un médico se siente intelectualmente involucrado en un diagnóstico particular. Si, después de un tiempo y energía considerables, un médico llega a un diagnóstico, puede ser difícil pasar por alto esos esfuerzos ("los costos irrecuperables") y reconsiderar el diagnóstico si hay nuevos datos disponibles.

El desliz de Sutton. La ley de Sutton se basa en la historia del ladrón de bancos Willie Sutton, quien cuando se le preguntó por qué robó sus bancos, respondió "porque ahí es donde está el dinero". La idea es que debemos enfocar nuestra estrategia de diagnóstico yendo por lo obvio. Esto se convierte en un error (el desliz de Sutton) cuando las posibilidades distintas a las obvias no se consideran lo suficiente. Por ejemplo, el diagnóstico obvio para el décimo niño con fiebre, mocos y tos del día durante la temporada de gripe es gripe, pero sería un error no considerar otras posibles causas de la fiebre.

Indicaciones de triaje. Cuando las decisiones de diagnóstico están influenciadas por la categoría de triaje original en la que se ubica a un paciente. (Una forma de impulso de diagnóstico: la enfermera de triaje diagnosticó al paciente como "no enfermo", por lo tanto, el paciente no debe estar enfermo). Hay muchas formas de triaje , desde la autoevaluación de los pacientes a diferentes niveles de atención, hasta las referencias que realiza desde el departamento de emergencias que dan indicaciones a sus consultores en función de su evaluación.

Sesgo Ying Yang. La creencia de que un paciente no puede tener un diagnóstico porque ya ha sido sometido a una multitud de pruebas negativas. (Es decir, se han trabajado en el ying-yang). Esta es una combinación de impulso de diagnóstico (con el diagnóstico de 'nada') y descuido de la tasa base (usted sobrevalora las pruebas previamente negativas y asigna una probabilidad previa a la prueba demasiado baja ).

Retirarse de "la cebra". Alejarse de un diagnóstico raro solo porque es raro. Esto ocurre a lo largo de un espectro con sesgo de disponibilidad y descuido de la tasa de incidencia basal. Si nunca está trabajando en diagnósticos raros, eso puede representar un retiro de cebra. Sin embargo, si busca cebras con frecuencia, eso representaría un descuido de la tasa de incidencia basal y resultará en un diagnóstico excesivo y desperdicio de recursos.

Otro error poco citado es que todo paciente tiene derecho a enfermarse de dos o más cosas. Esto sirve para no atribuir todos los problemas a un diagnóstico en particular, ya que nuestros pacientes pueden tener otras enfermedades que todavía no hemos diagnosticado.

Además de estos sesgos cognitivos específicos, hay muchos factores que debemos tener en cuenta que aumenta nuestra probabilidad de cometer errores cognitivos.

  • Sobrecarga cognitiva

  • Gran cantidad de decisiones por tomar

  • Interrupciones o distracciones

  • Privación del sueño (la toma de decisiones cognitivas tiende a alcanzar su punto más bajo entre las 3 y las 4 de la mañana. Algunos estudios equiparan el rendimiento cognitivo en ese momento con estar legalmente intoxicado).

  • Fatiga

  • Perturbaciones emocionales (estado afectivo)


En definitiva debemos conocer estos sesgos para reconocerlos cuando se presentan. Las enfermedades no siempre se presentarán igual y no siempre estaremos en condiciones ideales, por lo que una combinación de intuición y capacidad analítica nunca está de más, algo que se aprende con el entrenamiento, la lectura y la experiencia. 

Basado en un artículo de Morgenstern, J. Cognitive errors in medicine: The common errors, First10EM, September 15, 2015. Disponible en: https://doi.org/10.51684/FIRS.726

Artículos relacionados