Vivimos, sin lugar a dudas, en la era de la información. Pero al contrario que hace años ya no existe un goteo continuo de datos. La realidad a la que nos enfrentamos es un mundo que a diario genera una cantidad enorme de información, que debemos gestionar y aprovechar de alguna manera, para que no quede, como quien dice, inutilizada en un cajón.
Según un estudio de IBM, sólo el 90% de los datos almacenados en los servidores de todo el mundo se han generado en los dos últimos años. Y no sólo eso, sino que según las previsiones de la consultora IDC, en 2020 habrá 40 zettabytes de información digital; en otras palabras, alcanzaremos la escalofriante cifra de 5.247 GB por cada habitante del planeta.
En este contexto, donde la información se convierte en pieza clave de nuestra actividad diaria en la red, es importante recordar las palabras de la vicepresidenta de la Comisión Europea y Responsable de la Agenda Digital Europea, Neelie Kroes, quien apuesta por «los datos como el oro de la economía digital». Intel calcula que sólo en 2012 se generaron 500 veces más datos que en el período comprendido entre el inicio de la civilización y 2003, y que esta cantidad se triplicaría sólo hasta 2015, teniendo en cuenta toda la información no estructurada generada en la red.
Dado el rápido crecimiento del big data, resulta fundamental contar con herramientas de análisis y gestión que se adapten a este tipo nuevo de datos no estructurados, que conforman una cantidad ingente de información. Ello será crucial para que las compañías puedan adaptarse a los nuevos tiempos. Aquellas que consigan hacerlo podrían tener un 20% de beneficios económicos más que sus competidoras.
La solución está en las tecnologías abiertas
Desde Mozilla aportan algunas de las claves que podrían despejar el camino. Su lema es «We want to move people from using the web to making the web», que puede ser traducido como «Queremos que la gente pase (sólo) de utilizar la web a construirla». Pero no sólo la web, sino el conjunto de conocimiento al que tenemos acceso a diario, pasa en parte por ser abierto. Un movimiento de open source, open innovation y open thinking destinado a hacer frente a los nuevos desafíos del big data.
Las nuevas tecnologías de código abierto pueden permitirnos aprovechar el potencial real del big data. Según datos publicados en 2012, sólo el 0,5% de la información digital estaba siendo analizada, lo que constituía una brecha realmente significativa. Y en el contexto de crisis económica en el que nos encontramos, resultaría clave especializarse en el open source, especialmente en aquel software destinado a proteger y extraer valor de la expansión global de los datos. «La información es poder», y el poder de la competitividad y la innovación pasa por tener la mejor capacidad de adaptación, evolutivamente hablando.
¿Y qué permite la tecnología open source? ¿Cuáles son las ventajas del código abierto y por qué nos ayudará a afrontar más rápido los desafíos del big data y a hacer más pequeña la brecha digital existente?
- Por una parte, las nuevas tecnologías de código abierto permiten acortar los tiempos de comercialización.
- Asimismo, este tipo de software presenta unos menores costes económicos en cuanto a licencias y mantenimiento se refiere.
- Por último, ofrece calidad y funcionalidades parecidas a las tecnologías que no son open source, pero con la enorme ventaja de presentar mayor flexibilidad y rapidez en su implementación.
Imagen | Flickr