Coronavirus

Infodemia

Cuidado con la inteligencia artificial en época de pandemia, alertan científicos

Hay otro virus que acompaña al del covid-19: la proliferación de aplicaciones, diagnósticos online, predicciones de muertes e infecciones futuras, estadísticas y aplicaciones que se visten de rigor apelando a la IA. Un alerta de la Fundación Sadosky para no tomarlas por ciertas


A la par de las noticias sobre muertes y contagios, y de las medidas para contener la progresión de la pandemia de covid-19, hay otra virus que circula por medios digitales: aplicaciones, estadísticas, diagnósticos personalizados de riesgo de infección y otros dispositivos que se presentan con un presunto rigor científico basado en “inteligencia artificial”. Una palabra que, así usada, está más cercana a lo mágico. Desde la Fundación Sadosky salieron a advertir sobre el riesgo que implica aceptar sin más toda esa serie de presuntos abordajes serios de la crisis sanitaria global.

La Fundación Sadosky es una institución público privada que preside el ministro de Ciencia, Tecnología e Innovación de la Nación, Roberto Carlos Salvarezza, a quien secundan los titulares de las cámaras de empresas de software y de informática y comunicaciones.

“En las últimas semanas hemos tenido noticias de lanzamientos no oficiales de aplicaciones, plataformas y análisis de todo tipo basados en Inteligencia Artificial (IA), en relación a la pandemia de coronavirus”, pone en contexto una nota de la institución.

Se refiere a las aplicaciones para celular que predicen el riesgo de un individuo a contagiarse con apenas compartir su geolocalización, los algoritmos que prometen diagnosticar covid-19 a partir de imágenes de tomografías o rayos X, los sistemas de diagnóstico a partir de la voz, predicciones sobre futuros números de casos positivos, fallecidos y recuperados o iniciativas que prometen resolver el problema de subdiagnóstico, entre otros proyectos.

“A simple vista, parecería que la IA es una herramienta poderosa en la lucha contra el covid-19. La misma narrativa parece replicarse, cada vez más, en medios de comunicación y redes sociales. Y si bien es cierto que la IA ha tenido un desarrollo destacado en años recientes, y su uso es exitoso y palpable (como por ejemplo cuando se procesan nuestras imágenes en una red social para identificar personas y objetos, cuando hacemos traducciones en línea, filtramos spam, las recomendaciones de productos y otras aplicaciones comerciales), es importante destacar que tales aplicaciones están basadas en la disponibilidad de grandes cantidades de datos y años de desarrollo y perfeccionamiento, sumado a que, en general, son aplicaciones no críticas”, advierte la Fundación.

Y recomienda cautela a la hora de dar credibilidad a algunas de las innumerables aplicaciones que se presentan como rigurosas y prometen resolver problemas, anticipar soluciones o dar descripciones reales de la crisis. “Queremos invitar a la población, y a los medios de comunicación, a ser cautos con el uso y la difusión de esas aplicaciones, plataformas y análisis, debido a que muchos han visto la oportunidad de generar impacto con la pandemia y no dudan en lanzar propuestas, que, en su mayoría, adolecen de una o varias fallas”.

Cuestionamientos al virus de programas y diagnósticos online

≡ Falta de acceso a datos de calidad y en la cantidad que los algoritmos de IA requieren para brindar resultados confiables. Durante una pandemia, con el sistema de salud en alerta y con riesgo de colapso, esa información no resulta fácil de conseguir. Los Estados recién están organizando esfuerzos para recolectar esos datos genuinos y poder ponerlos en manos de la comunidad científica.

≡ No poseen una homologación por parte de los organismos de control, lo que requiere tiempo para que sean validadas por profesionales expertos y testeadas en el ámbito clínico.

≡ Se utilizan heurísticas o recetas oscuras para procesar y comparar los datos, que son de de escaso o nulo rigor matemático y metodológico.

≡ Siguiendo con la falta de rigor, se comparan curvas y se hacen extrapolaciones de otros casos y países en las que los resultados son  extremadamente sensibles a pequeños errores en la recolección de datos y en los protocolos de reporte, lo cual arroja conclusiones carentes de validez.-

≡ Requieren que el usuario ceda información personal sensible, como puede ser su historial de geolocalización, su estado de salud o incluso sus radiografías, sin una política clara de privacidad, ni de protección de datos. Y ésto en desarrollos apresurados e inmaduros, lo que supone un riesgo adicional de filtración de datos.

Sin muchos datos, es verso peligroso

La inteligencia artificial –explica la Fundación Sadoski– es una herramienta con mucho potencial y aplicable a las más diversas áreas, pero requiere acceso a datos confiables, revisiones y pruebas para evitar sesgos. Como cualquier dispositivo aplicado a la salud, además, requiere de homologaciones y aprobación por los organismos de control que aseguren su idoneidad y fiabilidad. Hay que utilizarla de manera crítica porque, de lo contrario, se podría incurrir en conclusiones falaces, toma de decisiones erróneas, crear angustia y preocupaciones innecesarias.

La institución finaliza con un llamado a los medios de comunicación para que no reproduzcan sin más las novedades que se visten de prestigio con la remisión a la IA, y que, de hacerlo, eviten tomar las predicciones que difunden como una verdad.

Comentarios