¿Deberíamos dejar de hablar de Big Data en salud para hablar de “Holistic Data”?

Publicidad

Si tuviéramos que citar una plataforma digital que reciba los datos de millones de usuarios al día, algunos se decantarían por YouTube y otros por Twitter. Para hacernos una idea, YouTube tiene más de mil millones de usuarios, lo que equivaldría a un tercio de todos los usuarios de Internet. Esta plataforma se ha convertido en la sustituta de la televisión para miles de estadounidenses. Estos datos han colocado durante años a Youtube y a Twitter como el paradigma del Big Data. Sin embargo, los expertos en la materia predicen que pronto estarían a punto de perder tremendo honor. ¿Su mayor amenaza? El genoma.

No ha habido nada inventado por los seres humanos que produzca tantos datos a diario como el mundo de la salud y, en concreto, el genoma”, asegura el neurólogo Ignacio Hernández Medrano. El genoma es el conjunto de genes contenidos en los cromosomas, lo que puede interpretarse como la totalidad de la información genética que posee un organismo o una especie en particular. En el caso del ratón doméstico, una de las primeras especies en ser descifradas completamente, la información contenida equivale a 2,8 GB, es decir, esta secuencia requeriría el equivalente a 11 veces los 32 tomos de la 15ª edición de la Encyclopædia Britannica para escribirla.

“La cantidad de datos en genoma va a superar a la cantidad de datos en Twitter o en Youtube. El macho alfa del Big Data en sanidad es el genoma; en él está la clave del Big Data”, asegura este experto en Big Data. Esta cuestión aterriza sobre dos especialidades sobre las que se están realizando grandes esfuerzos en investigación: la oncología y la inmunología. “Ellos ya están haciendo genómica, están haciendo medicina personalizada y están haciendo Big Data. Y se van a comer a la medicina tradicional antes de lo que creemos”, advierte Hernández Medrano.

El gran reto del Big Data en salud: la organización de procesos

Para que el Big Data termine consolidándose en el mundo de la Medicina, debe superarse un reto que nada tiene que ver con la cantidad de datos. “Lo primero que necesitamos para hacer Big Data es tener datos. Pero no valen miles de datos, hacen falta cientos de millones de datos. Porque cuando haces BigData, el 90% del tiempo lo tienes que pasar limpiando datos. Para limpiar mucho, necesitas partir con mucho, para que no haya ruido. Pero afortunadamente, tenemos cada vez más datos”, indica Fernández Medrano.

Ignacio Medrano asegura que el reto para utilizar de forma efectiva esta información tiene que ver con la organización de procesos. “No es un problema de tecnología ni de computación. Los ordenadores están listos para analizar lo que hay encima de la mesa. Es un problema de poner los datos en orden y de alinear los intereses de las personas concretas que quieren analizar datos y de para qué quieren analizarlos. Es un tema de leyes, de privacidad, de agregación de plataforma. Es un tema de apuesta humana”, explica Ignacio Hernández Medrano.

Del Big Data al “Holistic Data”

El doctor subraya los importantes recursos humanos y de computación que tiene disponible el sistema para analizar datos: “Por suerte, cada vez tenemos más analistas de datos. Son gente del mundo de las matemáticas, del mundo de la física que entienden de la visualización de datos, entienden de bases de datos y entienden, sobre todo, de algo muy importante, que es que el ordenador piensa diferente al humano. La forma de pensar de un ordenador, la heurística, es distinta a la manera de aproximarse a los datos de un humano. Entonces, mientras un humano mira a una hoja Excel y no ve nada, la máquina puede ver correlaciones. Esto quiere decir que también tenemos poder computacional para analizarlos”.

Sin embargo, reflexiona sobre la complejidad de la naturaleza humana a la hora de correlacionar los datos: “Los chips y los ordenadores es algo que hemos inventado los humanos, con lo cual, sabemos perfectamente donde empieza y donde acaba su potencial. Pero la naturaleza no la hemos inventado los humanos. Entonces tiene lagunas de complejidad que no vemos. Estamos ciegos en ella. Eso hace que cuando suponemos cosas o modelos, las cosas no se reproduzcan”.

Ante tal escenario, propone que los modelos implementados por los expertos en Big Data “sean lo más complejos y completos posibles para que no subestimen la complejidad de lo que está ocurriendo realmente”. “Por eso los modelos matemáticos deben ser muy holísticos, muy complejos que den usabilidad a la experiencia del paciente en el sistema. No vale con la aproximación estadística clásica”, concluye.

Seguiremos informando…

Publicidad
Publicidad
Salir de la versión móvil