Leo Celi, MIT: “La información ya no está controlada por unos pocos doctores”

Lunes, 21/10/2019
El académico y director del MIT Clinical Data comenta los usos de la IA en la industria de la salud y por qué no compartir los datos de los pacientes es una mala actitud.
Cristián Yáñez W.

La inteligencia artificial (IA) hoy demanda interés de parte de industrias tan diversas como las finanzas o la agricultura, y la salud no es la excepción. Es eso, laboratorios, compañías y médicos están interiorizándose en este tipo de tecnología y buscando cómo aplicarla.

Uno de ellos es Leo Anthony Celi, académico y director del MIT Clinical Data, quien participó del evento “Make Health Chile” en Santiago, organizado por el Centro Nacional en Sistemas de Información en Salud (CENS), quien le da una enorme importancia a la IA en el campo sanitario.

En su conferencia señaló que esta tecnología será el estándar del futuro para la toma de decisiones y que los médicos deberán acoplarse a ella, y que quienes no la utilicen se extinguirán o quedarán obsoletos, “probablemente antes de diez años”, aseguró. Además, indicó que un estudio clínico reciente demostró que la IA tuvo un mejor desempeño que los médicos en pacientes con diabetes y retinopatía. “Y la FDA dio su primera autorización para que un algoritmo entregue diagnósticos”, agregó.

En conversación con Cluster Salud, el experto del MIT explica por qué invertir en IA en salud es menos costoso que desarrollar medicamentos y cómo usar los datos para predecir enfermedades.

- ¿Es necesario contar con mecanismos de evaluación para implementar correctamente la IA?

- Hay que re definir la política alrededor de la IA, porque la de hoy es de 10 o 15 años atrás. Las regulaciones pueden llevar un largo tiempo, sin embargo, debe haber alguna perspectiva de evaluación. Entonces no es solo una cuestión de decir: este algoritmo hace esto... hay que llevarlo a la realidad, necesitamos verlo ahí y testearlo. Es algo similar a la medicación, donde necesitas ensayos clínicos, antes de que tengas la aprobación del organismo regulador.

- ¿Es costoso investigar o hacer desarrollos en IA?

- Creo que es menos costoso que en los medicamentos, pero no es barato. Actualmente se están invirtiendo billones de dólares en este sector. Pero la parte más dura, no tiene que ver con el dinero, sino con la data y los límites que tenga. Existen muchas compañías que están desarrollando algoritmos, pero no tienen acceso a la data.

- ¿Está la inversión en IA bien distribuida?

- Creo que se debe invertir más en infraestructura de data, no puedes sólo invertir en las compañías que construyen estas herramientas sin inversión en los centros de datos. Y la pregunta es quién pagará por esta inversión: si las compañías, los gobiernos o las organizaciones de salud. Creo que hay un desproporcional monto de dinero siendo invertido en la actual tecnología sin inversión en la infraestructura de data y esto esta errado. Con eso no vamos a avanzar, porque la data es lo primordial y sin ella no va a suceder.

- Señalaste que hay mucha data, pero no podemos usarla, porque siempre es muy simple y pequeña. ¿Cómo podemos solucionar esto?

- En el campo de la IA y para este tipo de desarrollos se necesitan millones de datos, especialmente para imágenes, donde cada pixel es una representación. Los ejemplos deberían estar ordenados en torno a magnitud, de otra manera los modelos no pueden ser muy buenos.

- ¿Cómo se debe pensar en los datos para utilizarlos mejor?

- Hay gente que cree que la data es algo que ellos pueden vender, pero eso no debe ser así. Para que haya progreso y avance, esta data debe ser recolectada e integrada. No puedes pensar en la data como una mercancía.

Prevención de cáncer y conductas suicidas

- ¿Los repositorios y sus datos pueden ser usados para prevenir el cáncer o predecir su evolución en pacientes?

- Sí, el problema es que la data es limitada para pacientes y unidades de cuidados intensivos, ya que tenemos muy pocos casos de cáncer (registrados) y solo capturamos el cuidado en las unidades de cuidado intensivo. Por ejemplo, conversé con una compañía chilena y me dijeron que recolectaron data de 9.000 pacientes con síntomas, y ellos tienen los diagnósticos, pero dicen que no quieren compartir su data. Yo les dije que eso es una mala actitud sobre la data, y es que desafortunadamente el valor de los datos es muy limitado. 9.000 no es nada, tenemos que asegurarnos de que todos los modelos que construyamos sean útiles para los 19 millones de chilenos, pero no hay garantía de quienes son esas 9.000 personas, lo que significa que no puedes usarlos para más chilenos. Si no podemos compartir la data, no podemos trabajar con esas personas, porque están contribuyendo al bloqueo de la IA.

- Respecto a tu caso recolectando datos, ¿cómo resguardas la privacidad de los pacientes?

- En nuestra base de datos la identificamos, y entonces removemos la información que pudiera permitir que alguien estuviera disponible para ser identificado. Y si miras la data, no encontrarás ningún cumpleaños, dirección, código postal o números de serie de marcapasos. Sólo ves que medicamentos toman, que pasa con su presión sanguínea, y datos macro. En tres millones de personas, es difícil encontrar algo específico en esos datos. Una forma de asegurarse de que la privacidad de los pacientes esté protegida, es remover información muy sensible.

- ¿Se puede utilizar la IA para predecir conductas suicidas?

- Hace 15 años, cuando teníamos preguntas médicas, necesitábamos ir a un doctor, pero ahora puedes ir a un computador y empezar a estudiar sobre los síntomas del suicidio y cuáles son las posibilidades. Entonces creo que esto va a seguir cambiando en el tiempo. Si antes le hubieras planteado a alguien la posibilidad de que los computadores nos digan que síntomas tenemos, te hubieran dicho que no pasaría, pero ahora está pasando. Entonces la información ya no está controlada por unos pocos doctores. Hay un montón de estas cosas que creemos que están limitadas a los doctores, pero ya no va a ser así.

Comentarios