El Salvador acaba de ceder la gestión de su sistema de salud pública a Google.
- Rommy Artigas

- hace 7 días
- 2 Min. de lectura
Actualizado: hace 7 días
El presidente Bukele lo anunció en cadena nacional con la euforia de quien acaba de descubrir el fuego:
Una aplicación llamada Dr. SV, alojada en Gemini
> CREARÁ expedientes clínicos
> ASIGNARÁ diagnósticos
> GESTIONARÁ tratamientos para enfermedades crónicas y, promete Bukele, "en algún momento estaremos tratando el cáncer".
Mientras instauraba “el mejor sistema de salud del mundo", despidió a 7.700 profesionales del sector sanitario.

El acuerdo con Google tiene una duración de siete años, por un coste de al menos 500 millones de dólares y la información relacionada con el proyecto aún no es pública.
Google tendrá acceso a los datos de salud de toda la población salvadoreña: enfermedades crónicas, hábitos, historiales médicos, vulnerabilidades físicas y mentales, etc.
Tratándose de una empresa cuyo modelo de negocio consiste precisamente en monetizar los datos personales surgen muchas preguntas:
➼ ¿Alimentarán estos datos sanitarios (los más críticos que existen) el perfil de cada usuario en Google, permitiendo que terceros puedan hacer uso de ellos?
➼ ¿Se cruzarán con otros datos de los que dispone la compañía, como los de geolocalización, uso de aplicaciones o contenido de los correos?
➼ ¿Permitirá a aseguradoras que los usen para denegar cobertura o subir el coste?
➼ ¿O a empresas farmacéuticas que diseñan campañas de marketing dirigidas a pacientes con enfermedades específicas?
➼ ¿O a empleadores que filtran candidatos según su historial clínico?
➼ ¿O a gobiernos que los usan para clasificar a su población?
No son escenarios de Black Mirror, sino usos que ya se han documentado con otros tipos de datos personales.
Y mientras tanto, ¿funciona la IA médica?
Esta semana, un estudio publicado en BMJ Open evaluó los cinco modelos de IA más utilizados (entre ellos Gemini, el mismo que sustenta Dr. SV) para responder preguntas médicas basadas en evidencia científica.
> 50% de las respuestas fueron clasificadas como "algo" o "altamente" problemáticas.
El peor clasificado fue Grok, de xAI: el 58% de sus respuestas, altamente problemáticas. Ninguno fue capaz de proporcionar una lista de referencias bibliográficas completamente real, en muchos casos, los modelos inventaron títulos de estudios y nombres de autores.
"Mucha gente tiende a pensar que los chatbots son IA omniscientes con un pozo profundo de conocimiento. Pero no poseen conocimiento en el sentido humano; no saben cosas", explica Nicholas Tiller, investigador principal del estudio.
La tecnología puede ser una herramienta extraordinaria al servicio de la salud. Pero una herramienta en manos de quien vela por el interés público, con supervisión democrática, con transparencia sobre el uso de los datos y con evidencia científica sólida que la respalde.
Por Rommy Artigas




Comentarios