Diagnósticos algorítmicos: Cuando una IA te llama loco
Diagnósticos algorítmicos:
Cuando una IA te llama loco
Este artículo pertenece a la sección "Comportamiento Digital", con la que colaboro en el programa de PostApocalipsys Nau de Radio Vallekas. Puedes consultar nuestra sección en El Salto Diario, Ivoox o descargar el podcast entero aquí:
La potencialidad de las IA’s para diagnosticar y tratar enfermedades mentales
Gracias a Julian Estevez, uno de nuestros fieles oyentes hemos encontrado esta noticia. El título es “La potencialidad de las IA’s para diagnosticar y tratar enfermedades mentales”(Garg & Glick, 2018). Y al compartir la noticia pronto alguien comentó en redes sociales: «Bueno, el algoritmo será más confiable que los criterios de un humano.»
Espera, ¿Ser diagnosticado por una máquina? ¿Es ese algoritmo abierto o opaco de nuevo? ¿Bajo qué diagnósticos psiquiátricos?
Yo no puede evitar llevarme las manos a la cabeza, porque si hay un colectivo al que la sociedad les debemos todavía una disculpa pública por todas las torturas, asesinatos, estigmatización e invisibilización son las locas (a quien también denominaré expertas en primera persona). Y el gran avance de estos años ha sido que este colectivo ha conseguido crear una narrativa propia, e ir llevando su discurso a distintas plazas públicas para que los expertos de las ciencias psi (psiquiatría, psicología, enfermería, educación social…) nos paremos a escucharles y nos replanteemos nuestros dogmas de fe científica.
Diferenciando conceptos
Dado a que este tema de los diagnósticos algorítmicos pueden mezclarse muchas cosas (psicoterapia realizada con medios tecnológicos, IA diagnosticando, Ias tratando) solo vamos a centrarnos en la parte de diagnosticar trastornos mentales.
En la mayoría de las referencia a IA que diagnostican que he encontrado hasta la fecha hacen más referencia al reconocimiento de emociones (Corea, 2019; Fosco, 2019; Tieu, 2015; Wierson, 2019). El problema es cuando se haga el salto a hacer diagnósticos de trastornos mentales como sugieren las empresas que están trabajando en ello.
¿Qué sistema diagnóstico utilizarán?
Con alta probabilidad utilizarán el DSM.
El DSM, es “la biblia” de la psiquiatría y la psicología (American Psychiatric Association, 2013). Es un sistema categorial de trastornos, donde agrupa los síntomas más frecuentes que se deben cumplir para ser diagnosticado como X o Y. Está elaborado por una mesa amplia de profesionales en base a estudios de base empírica, se revisa cada pocos años para sacar una nueva versión. La actual es la V (DSM-V)
Saber que alguien está etiquetado con la categoría X o Y nos permite predecir cual el desarrollo más frecuente de ese trastorno, y buscar el tratamiento psicológico (y farmacológico) basado en la evidencia más eficaz. Y sobre todo, permite la comunicación entre profesionales.
Siendo tan científico y aséptico suena genial, y es normal que se haya convertido con los años en una herramienta útil y de uso muy extendido en la profesión.
¿Cuál es el problema de utilizar el DSM-V?
Principalmente el reduccionismo, pues al reducir la experiencia humana a unas categorías, a veces como profesionales nos cuesta escuchar lo que las personas nos cuentan y las narraciones que se escapan de esas categorías rígidas.
En segundo lugar la estigmatización que producen las etiquetas, especialmente algunas que tienen una carga negativa muy fuerte en la sociedad. Y no es difícil escapar de estas etiquetas, pues en el caso de que la etiqueta sea dada en un contexto de intervención terapéutica privada (como lo que yo hago), los datos son tuyos y no son compartidos. Pero si esta etiqueta se diagnostica en el sistema público de salud, acaba en tu historia de salud electrónica, con las implicaciones que eso supone.
Tercero, que la ciencia no es neutra. Arrastra los mismos prejuicios y opresiones sociales que el sistema social donde se desarrolla. Un buen ejemplo de ello es como se han arrastrado los prejuicios transfobos y homófobos llegando a incluir categorías en el DSM que patologizaban estos colectivos (Cambrollé, s. f.; Drescher, 2019; Takahashi & 2016, 2016). Imaginad todos los prejuicios de clase, género etc que quedan por desmontar.
¿Y qué pasará cuando te diagnostique una máquina (o un algoritmo)?
Pues lo mismo que estamos viendo cuando una máquina decide si te mereces una ayuda social, un subsidio de desempleo, entrar como refugiado, recibir apoyo como víctima de violencia de género o una ayuda para combatir la pobreza energética (Belmonte, 2019)
Que esta decisión se aplica de manera unidireccional, sin posibilidad de apelación, bajo criterios opacos, y mostrando toda la presión de la estructura de poder.
Las diagnósticos algorítmicos en salud mental se pueden aplicar como se están tomando las otras decisiones de automatización de la pobreza: Que esta decisión se aplica de manera unidireccional, sin posibilidad de apelación, bajo criterios opacos, y mostrando toda la presión de la estructura de poder.
Y respecto a la posible categorización, no es solo que quieras reducir la complejidad de la experiencia humana a una categorización externa, como es el DSM-V. Es que al hacerlo, niegas la importancia de la experiencia y conocimiento en primera persona, desempoderando a la persona. Y otorgando todo el poder al experto, en este caso un experto etéreo como un algoritmo.
Ya no habrá opción de discutir con el algoritmo, y lo que marque se quedará grabado a fuego en las bases de datos ¿de quien?
¿Quien tendrá esos datos?
¿Los tendrá el sistema sanitario? ¿Las empresas privadas? ¿Te negarán el acceso a los espacios públicos?
Los colectivos que luchan por la Salud Pública Universal (Marea Blanca, 2014) han señalado que uno de los problema que conllevan la privatización de la sanidad es precisamente en manos de quien queda la gestión de las historias clínicas de los pacientes.
Es que no puedo discutir con la máquina.
En una charla sobre salud mental, uno de los activistas en salud mental en primera persona contaba como la inclusión de su diagnóstico en salud mental era visible para todos el personal sanitario que le atendía, y condicionaba toda la atención que recibía.
¿Qué tenía dolor de barriga? Tuviste un brote psicótico hace 20 años, ¿Que no dormía por las noches? Tuviste un brote psicótico hace 20 años. ¿Que tienes callos? Tuviste un brote psicótico hace 20 años.
Y como bien defienden quienes han sido psiquiatrizados, estas etiquetas te colocan difícilmente en una caja, donde ya nada de lo que dices tiene credibilidad.
El caso más evidente de esto ha sido el de Andreas
{Aviso: Contenido sensible}
Andreas era una joven asturiana con meningitis, que murió tras ser atada 75 horas en una unidad psiquiátrica ya que el equipo médico dijo que tenía psicosis en vez de una meningitis(Trujillo, 2019).
Para empezar, ¿Qué tiene de curativo atar a la gente que tiene sufrimiento mental? Nada, y os sugiero pasaron por la campaña de 0 contenciones para saberlo (Colectivo Lo Común, 2019). ¿Porqué el equipo médico no pudo identificar una simple meningitis?
Porque vieron la etiqueta en su historial de antecedentes familiares (una madre etiquetada), le asignaron la etiqueta de salud mental y la ataron a la cama. El avance de la infección que podría haber sido fácilmente tratada le llevó a la muerte.
{Aviso: Fin de contenido sensible}
Este caso, aparte de ser sangrante y exponer la brutalidad de las contenciones mecánicas, explica como una persona estigmatizada y psiquiatrizada deja de escucharse y ser tenida en cuenta.
Gracias a su hermana Aitana, hemos conocido esta historia, y profesionales y activistas de todos los ámbitos se han unido para señalar la injusticia de este caso en particular, y del sistema psiquiátrico en general.
Imaginad si detrás de esta decisión, en vez de personal sanitario al que exigir responsabilidades tuvieras a una máquina. ¿A quien apelas?
Me imagino esas mismas conversaciones absurdas que tengo con los contestadores automáticos cuando intento reservar una cita en el médico, o con la operadora de telefonía.
En resumen.
No, que una máquina te diagnostique como “loco” no es mejor idea que lo haga un humano. Porque los criterios de diagnóstico estarán anclados a las mismas opresiones sociales de las que parten, porque acabaremos aplicando criterios reduccionistas fijándonos en los síntomas (ej. ansiedad) versus las causas que las producen (desahucio por gentrificación), porque descargará la responsabilidad en algo etéreo como un algoritmo, y acabará escribiendo en piedra las desigualdades y problemas del sistema psiquiátrico.
Un pensamiento en “Diagnósticos algorítmicos: Cuando una IA te llama loco”
[…] gente que podemos llamar cibecondríacos tienen un comportamiento digital que se se basa en la búsqueda obsesiva de información sobre salud en internet. Comienza con un […]