Gestionar regularmente grandes cantidades de datos grandes es un desafío que en este momento la mayoría de las organizaciones de TI no van a ser capaces de superar .
Para ayudar a las organizaciones de TI a la altura del desafío , IBM recientemente se mudó al adquirir Daeja Image Systems , un proveedor de software que hace que sea más fácil de ver grandes documentos y archivos , incluso cuando los usuarios no tienen la aplicación en que se creó el documento que reside en su dispositivo .
De acuerdo con IBM Enterprise Content Management Business Leader Doug Hunt, el software de visualización que IBM está ganando a través de su adquisición de Daeja que es parte de una estrategia para la gestión de grandes volúmenes de datos que IBM está en el proceso de formación de gestión del contenido empresarial más grande ( ECM ) .
En el núcleo de esa estrategia, dice Hunt, es primero dar a las organizaciones las herramientas que necesitan para acceder a grandes volúmenes de datos en cualquier formato , y luego proporcionar las herramientas analíticas necesarias para analizar esos datos no estructurados y, en definitiva , los instrumentos de gobernanza necesarios para gestionar todo.
ECM dice que sentará las bases a través del cual se aplicarán todas las políticas para la gestión de grandes volúmenes de datos a escala . Por mucho que se hace hoy en día para los datos de la empresa , dice Hunt el sistemas ECM se ampliará la aplicación de políticas y controles de acceso a grandes volúmenes de datos ,según una publicación del sitio itbusinessedge.com.
De hecho , ECM trabaja en estrecha colaboración con las aplicaciones de análisis de texto , dice Hunt, proporcionará los conocimientos que primero identifiquen qué datos tiene un valor y luego el mecanismo mediante el cual la eliminación de datos que no tiene ningún valor… se puede hacer de manera defendible . Esto significa que en lugar de tener que guardar cada pieza de grandes datos , las organizaciones pueden aplicar políticas a través de cantidades masivas de datos que no sólo cumplen con las directrices de cumplimiento, sino también automatizar gran parte del proceso .
Podría decirse que una de las mejores maneras de manejar grandes volúmenes de datos es mantener los datos integrales y luego deshacerse de la mayor parte del resto de lo que sea posible . Como de echo grandes datos se convierte en una cuestión más importante en toda la empresa , lo que importa no es que cada pieza de información , sino más bien el análisis que la empresa obtiene de los Big Data . Por lo tanto, lo que hay que guardar , compartir y, finalmente, se convierte en hecho recuperable de patrones identificables en los montones de grandes volúmenes de datos que,que en conjunto, tiene un gran valor para el negocio, pero de forma aislada, en realidad parece de poca importancia .
Déjenos su opinión sobre este articulo en los comentarios…