¿Se puede hacer ‘big data’ sin ‘software’ abierto?

15 septiembre, 2017
El equipo de Zylk.

La compañía Zylk apuesta por las soluciones ‘open source’ para la analítica de datos en ámbitos como la Industria 4.0 o las ‘Smart Cities’

 

Según un estudio de IBM, cada día se procesan 2,5 trillones de bytes de datos. Esos datos pueden ser desde simples ‘cookies’ de navegación por Internet hasta complejos informes sobre el proceso de fabricación de una pieza. En los últimos dos años se ha creado más del 90 por ciento de toda la cantidad de datos digitales que existen en el mundo. Esto pone de manifiesto que la analítica de datos está adquiriendo una relevancia cada vez mayor en diferentes sectores de nuestra sociedad.

 

Cuando el volumen de datos que hay que analizar alcanza cierta magnitud pasamos a hablar de ‘big data’. En una analítica de ‘big data’ confluyen diferentes tecnologías y procesos como la captación de datos a través de sensores, su almacenamiento en servidores remotos (‘cloud computing’), su análisis a través de sistemas de Inteligencia Artificial o su transformación en información útil gracias a interfaces y ‘software’ de visualización de datos.

 

Zylk se está convirtiendo en uno de los nombres propios del ‘big data’ en Euskadi. Esta compañía nacida en 2004 vive un momento dulce. En el mes de julio recibió el ‘Premio a la Mejor Empresa de Servicios Open Source de España’ en la OpenExpo, el mayor evento del sector de ‘software’ libre y abierto del Estado. También fue una de las empresas seleccionadas en la primera edición del programa BIND 4.0, lo que le permitió hacer valer su conocimiento en el ámbito del ‘big data’ en una compañía puntera como ITP.

 

Desde sus orígenes, Zylk se especializó en la creación de portales corporativos, la gestión de documentos y la formación de empleados a través de plataformas de ‘elearning’. Todo ello utilizando herramientas de código abierto u ‘open source’ que es una de las señas de identidad de esta compañía. No en vano, el CEO de Zylk, David Olmos, es el vicepresidente de ESLE, la Asociación de Empresas de Tecnologías Libres y Conocimiento Abierto de Euskadi, y presidente de ASOLIF, la Federación española de Empresas de Software Libre.

 

Datos y sensores

En los últimos tres años, la empresa vasca ha evolucionado en su modelo de negocio reorientando su actividad hacia el ‘big data’ en el sector de las telecomunicaciones, la Industria y las ‘Smart Cities’. “Nosotros teníamos experiencia en analizar datos digitales que ya existían previamente. Uno de los problemas del ‘big data’ es tener que implantar sensórica para poder captar esos datos. En los entornos industriales hay cierta información que las máquinas ofrecen, pero se pierde. El sector industrial en este momento no está sacando valor a los datos, bien porque no tiene sensórica implantada o bien porque la tienen, pero no se procesa esa información. Ahí es donde vimos la necesidad de dar valor a esa información que se está generando, pero no se está aprovechando”, explica David Olmos.

 

Uno de los proyectos de referencia de Zylk en los últimos años en cuanto a analítica de datos lo ha llevado a cabo con Euskaltel. Su labor ha sido poner en valor la información que recogen las líneas 3G, 4G o WiFi Kalean del operador vasco para desarrollar estrategias de fidelización, analizar problemas o deficiencias de señal y compilar datos para la realización de auditorías. Pero, sin duda, la colaboración con ITP les ha aportado un conocimiento más profundo del ‘big data’ en entornos industriales como reconoce el CEO de Zylk: “ITP nos ofrecía un proyecto diferente basado en descubrir cómo podemos alargar la vida útil de ciertos componentes con desgaste en el proceso de construcción de sus motores. Se ha planteado el proyecto desde la captación de datos en las propias máquinas, pasando por su procesado hasta la creación de interfaces y modelos predictivos. Todo ello teniendo como objetivo la reducción de costes y mejoras de los procesos. A pesar de que la primera edición de BIND 4.0 ya ha finalizado, seguimos trabajando con ellos, porque se trata de un proyecto a largo plazo”.

 

El ‘big data’ al igual que otras tecnologías disruptivas como la fabricación aditiva o la realidad virtual, todavía está en un proceso de madurez. “Tanto la industria como el sector tecnológico estamos aprendiendo qué podemos hacer con el ‘big data’ y qué beneficios puede tener. A nosotros nos conviene ofrecerle a un cliente algo en el que él gane bastante. Si le ofrezco un reto faraónico en el que hay que esperar dos o tres años para conseguir algo, es difícil que se genere interés y confianza. Las empresas deben de comenzar por proyectos relativamente sencillos. Si tienen algún tipo de dato en digital, empecemos por ahí, porque los despliegues de sensórica son más caros”, recalca David Olmos.

 

El papel de la Inteligencia Artificial

Otra tecnología vinculada con los datos de la que se habla mucho en los últimos meses, la Inteligencia Artificial, tampoco está terminando de cumplir las grandes expectativas que hay puestas en ella, según el responsable de Zylk: “La Inteligencia Artificial es algo que estará presente en el futuro en sistemas predictivos totalmente autónomos. Ahora mismo, solo nos sirve como sistema de apoyo. Para que una empresa saque fruto de los datos hay que identificarlos, tenerlos de calidad y la propia compañía tiene que detectar el valor económico de esos datos para dárselo a los productos que está desarrollando. Pero lo cierto es que sigue habiendo muchos agujeros en los datos. Somos las personas las que tenemos que corregir de forma manual las desviaciones en esos datos porque solo los humanos podemos detectar errores en serie. La mente humana tiene unas habilidades, mientras que la Inteligencia Artificial no es capaz de discriminar ciertos patronajes. La IA va a ser relevante en un futuro, pero a día de hoy tiene un camino bastante largo por recorrer”.

 

Esta compañía vasca va a seguir siendo fiel a sus principios de apostar por el ‘software’ libre y compartido en el que se basan sus productos, también de ‘big data’, toda vez que este tipo de soluciones están liderando el mercado en la actualidad. “Hay sectores en los que existía un ‘software’ privativo que tenia el control del mercado. En el caso del ‘big data’ el ‘software’ libre es un competidor de los más fuertes. Las soluciones de Apache Hadoop, como la distribución Hortonworks que utilizamos, son líderes del mercado y compiten en primera línea. Los lenguajes de programación y el ‘software’ de estadística están bien posicionados y se ha generado una propuesta líder en este ámbito. No se puede hacer ‘big data’ sin ‘software’ abierto. La revolución del ‘big data’ sin ‘software’ abierto no es posible”, sentencia Olmos.

 

De cara al futuro, Zylk ha abierto oficina en Madrid y quiere competir en el mercado estatal con sus diferentes productos. Su nicho de negocio se seguirá enfocando a la gestión y análisis de datos para compañías de telecomunicaciones, Industria 4.0, Ciudades Inteligentes y el sector de la construcción. También está haciendo hincapié en proporcionar formación específica sobre ‘big data’ para los futuros trabajadores de este ámbito. “Queremos impartir formaciones para generar expertos en termas de ‘big data’. Queremos convertirnos en un polo de atracción de talento para que la gente colabore con nosotros”, detalla el responsable de Zylk.

 

 

Artículos relacionados

También te puede interesar

Ver todo arrow