“Ese nevo se ve raro, mejor que lo vea el dermatólogo”. Esta frase se escucha todos los días en Atención Primaria. Los médicos tenemos una escasa formación en dermatología, básicamente, porque es una especialidad donde tienes que ver miles de lesiones iguales para aprender y las rotaciones de un médico general por la especialidad es de entre 3 y 6 meses.
La escasa formación para identificar/predecir qué es maligno de qué es benigno es un problema mundial que genera extensísimas colas de espera para ver a un dermatólogo.
¿Y si usamos la tecnología disponible?
Con esa idea en mente, investigadores crearon 3 estudios, uno mejor que el otro.
Link a los estudios
https://doi.org/10.1038/nature21056
https://doi.org/10.1093/annonc/mdy166
https://doi.org/10.1016/j.jid.2018.01.028
¿Qué hicieron?
En el primer trabajo entrenaron algoritmos diagnósticos con 129.450 fotos de lesiones de piel de pacientes (el dataset más grande visto para estos temas) para detectar 2.032 enfermedades dermatológicas diferentes y crearon 1 algoritmo para cada enfermedad. Y después compararon lo que entregaban los algoritmos contra lo que decían 21 reconocidos dermatólogos de USA o contra los resultados de las biopsias realizadas.
El área sobre la curva AUC fue de 0,96 para carcinoma y 0,94 para melanoma (los 2 algoritmos más interesantes que obtuvieron)
AUC = Área bajo la curva (AREA UNDER THE CURVE)
Menos de 0,5: Es como lanzar una moneda.
Entre 0,5 y 0,6: Test malo.
Entre 0,6 y 0,75: Test regular.
Entre 0,75 y 0,9: Test bueno.
Entre 0.9 y 0.97: Test muy bueno.
Más de 0.97: Test excelente.
El resultado fue que, tanto los médicos como el algoritmo hacían una predicción similar a que la foto mostraba un cáncer a la piel (carcinoma o melanoma)
El segundo estudio muestra cuán entusiasmados están los dermatólogos con estos temas. En los congresos médicos iban reclutando dermatólogos de todo el mundo para testear algoritmos diagnósticos. Aquí compararon los algoritmos (1 algoritmo por cada patología) contra 58 reconocidos dermatólogos mundiales.
El AUC de los dermatólogos 0,79 y de los algoritmos 0,86
En el tercer estudio, tomaron otro dataset, de 19.398 fotos de 12 enfermedades a la piel. El algoritmo para melanoma acá era mejor que los 12 dermatólgoos con que los compararon
El algoritmo tenía una AUC de 0.96 para melanoma
Los 3 estudios se basan en ver fotos de la piel, algo similar a lo que se hace en teledermatología hoy. Sin lugar a dudas, que cuando uno va a una consulta con un dermatólogo, éste ve más cantidad de piel y tiene capacidad de encontrar algo que inicialmente no había sido visto. No obstante, siendo que la mayoría de las lesiones de la piel son identificadas, con mucha dificultad, en APS, tiene muchísimo sentido dotar de estas herramientas a la APS y que deriven lo que el algoritmo predice que es maligno o requiere tratamiento por el especialista.
Esto disminuiría considerablemente las listas de espera.
La forma de empaquetar esto, ya está disponible.
Pueden ver esto en DermEngine, SkinVision o Skin IO