En la Tierra a viernes, noviembre 15, 2024

El esfuerzo dedicado al ‘advanced analytics’ es pequeño frente al de circulación posterior de datos

‘Hoy en día el esfuerzo que dedicamos al advanced analytics es pequeño, a lo que sí dedicamos esfuerzo es a que el data fluya’, ha explicado José Luis Flórez, responsable global de Big Data Analytics de Accenture, en el marco del encuentro ‘We speak analytics’.

 

Entre estas dos fases, el desarrollo del advanced analytics y la circulación del data, existe una parte intermedia, ha señalado Flórez, destinada a ‘obtener a partir de los datos insights que sirvan para el negocio’.

 

El directivo ha vaticinado que el modelo futuro de analytics en las empresas ensanchará la segunda parte y disminuirá la tercera. También ha indicado que nos encontramos en un ‘contexto actual de cambio’ en el que ‘el contenido cambia pero la estructura de la información también’. 

 

José Luis Flórez ha distinguido entre lo que una empresa conoce y lo que no conoce y sabe que no lo conoce, dos niveles a los que intenta dar respuesta con el business intelligence, y ha añadido un tercer área, ya que ‘es mucho más lo que no sé que no sé’, refiriéndose a ‘muchas cuestiones que ni siquiera sé que pueden tener un pacto’.

 

El responsable de Big Data ha señalado que cuando no sabemos lo que no sabemos se necesita un proceso de ‘descubriento’ de relaciones y patrones. Junto a este objetivo se encuentra uno posterior de automatización del aprendizaje.

 

La adaptabilidad de los procesos inteligentes hace que no se pueda hablar de un proyecto de tres meses entre empresa y agencia que gestiona su big data, ni de peticiones específicas de ‘cosas que sabes que no sabes’. El directivo afirma que no se trata de un ‘quiero x’ sino de un ‘modelo de relaciones a largo plazo’. 

 

José Luis Flórez ha puesto en relieve que la tendencia actual en forma de trabajo en las empresas es formar una ‘joint venture’ para ‘intentar monetizar el big data’ ante la existencia de datos heterogéneos.

 

El ‘descubriento’ en big data cuenta con cinco fases: en prer lugar, el analista aconseja diferenciar lo que es señal y lo que es acertijo (proceso de ‘filtrado’), en segundo lugar recomienda realizar el ‘tagging’ o etiquetado, posteriormente el ‘modelling’, en cuarto lugar el ‘profiling’ (ver qué algo pasa de una determinada manera) y, últo, el ‘testado’ (comprobar que la causaefecto se confirma mirando otros casos del pasado). 

 

 

Seguiremos informando…

 

Seguir a @nahirvallejos  

 


NOTICIAS RELACIONADAS

Relacionados Posts

Premiados de la XX edición de 'Los mejores de PR'

Noticias recientes

Newsletter
Logo prnoticias

Suscríbete a nuestro newsletter!

Recibirás nuestro boletín de noticias y contenido exclusivo.