¿Por qué homogeneizar las técnicas para diagnosticar el autismo?

Jueves, 19/01/2017

Científicos destacan la gran cantidad de falsos positivos en las áreas cerebrales afectadas por trastorno del espectro autista en los estudios actuales. Su propuesta es alcanzar una mayor precisión en su diagnóstico.

SINC. Investigadores de las universidades de Granada (UGR) y Cambridge (Reino Unido) han advertido de la necesidad de establecer diferentes subclases de trastorno del espectro autista (TEA) más homogéneas que las que se emplean en la actualidad, para alcanzar una mayor precisión en el diagnóstico.

Los científicos han utilizado técnicas de neuroimagen, como la resonancia magnética (RM) para evaluar y mejorar el diagnóstico del TEA, ya que han descubierto que existen ciertas carencias en el método que se utiliza actualmente para tal fin.

El trabajo, realizado por el grupo SiPBA (Signal Processing and Biomedical Applications) de la UGR, destaca la gran cantidad de falsos diagnósticos positivos en las áreas cerebrales afectadas por TEA que se realizan en la actualidad, debido a las limitaciones derivadas del uso de RM para este fin, ya que las imágenes obtenidas en diferentes centros de diagnóstico poseen diferencias sustanciales, lo que hace que no sean comparables.

Los expertos proponen que se subdivida el autismo en subclases para comprenderlo mejor, en lugar de agruparlo como ha hecho el DSM-5 (el manual para diagnóstico de enfermedades psiquiátricas que se emplea en la actualidad).

Pese a todos los intentos por homogeneizar estas bases de datos de imágenes, las diferencias existentes entre tipo de escáner, sesgo de pacientes, modelos y otras características técnicas suelen hacer que el resultado de los análisis se vea afectado por una gran cantidad de falsos positivos. Estos aparecen de forma más evidente cuando las diferencias son sutiles.

Un método estadístico

Para solucionar este problema, los investigadores han desarrollado un método estadístico llamado SWPCA (Significance Weighted Principal Component Analysis), que descompone los escáneres cerebrales como una combinación lineal de unas “componentes” que modelan las posibles fuentes de variabilidad en las imágenes cerebrales.

Después, analizaron cuáles de estas posibles fuentes eran debidas o no al trastorno o a diferencias de adquisición, y eliminaron estas últimas. De esta forma, una vez eliminada esta variabilidad, realizaron un análisis exhaustivo obteniendo resultados mucho más precisos.

Como explica el investigador de la UGR Francisco J. Martínez, del departamento de Teoría de la Señal, Telemática y Telecomunicaciones y uno de los autores del trabajo, “nuestro análisis concluye que, una vez eliminada la variabilidad en la adquisición, las diferencias entre afectados y no afectados por el TEA son muy poco relevantes, o bien que los patrones son demasiado heterogéneos como para poder ser considerada globalmente”.

Los investigadores han conseguido cancelar los efectos del lugar de adquisición en una base de datos de RM de pacientes con TEA, adquirida en varias sedes del Reino Unido, y examinar qué diferencias encontraron en esta base de datos corregida.

Tras ello, han concluido que las diferencias entre afectados y controles no eran relevantes, y que probablemente la mayoría de los estudios realizados con esta y otras bases de datos (como se ha comprobado también por otros estudios) estén afectados por este problema, donde los falsos positivos de TEA tienen como causa, en parte, diferencias entre los lugares de adquisición.

Comentarios