Desde la prehistoria hasta el 2003, el ser humano generó cinco mil millones de gigabytes de información. En 2011, se alcanzó esa cifra cada dos días. Y en 2013 será cada diez minutos.
La producción exponencial de información satura la red a la espera de que un visionario aporte una solución a los problemas de almacenamiento y transmisión masiva de datos.
Internet vive en un permanente estado de próximo colapso desde finales de los años noventa. La producción exponencial de información satura los servicios de almacenamiento y transmisión de datos. Las voces de alarma han vuelto a saltar por la alerta del gigante de la informática IBM de que el día fatal está a punto de llegar.
«Internet ha sobrevivido con parches para evitar su colapso»
Internet fue diseñado para la comunicación de extremo a extremo; sin embargo, el mayor tránsito de datos depende ahora del consumo de contenidos, principalmente vídeo. Es decir, se inventó como una red telefónica pero se usa como una televisión. «Internet es deficiente para este uso. Se ha ido degenerando y ha sobrevivido a base de parches para evitar su colapso. De momento, vamos tirando con la evolución del ancho de banda, los avances en almacenamiento y las redes de distribución de contenidos», explica Juan Quemada, catedrático de Ingeniería de Sistemas Telemáticos de la Universidad Politécnica de Madrid.
Los sistemas de almacenamiento de silicio están llegando a su límite máximo. |
Los datos de internet se almacenan en servidores físicos y discos duros con tareas de almacenamiento cada vez más costosas. El vicepresidente de supercomputadoras de IBM, Dave Turek, avisó en un reciente artículo en BusinessWeek de que a medida que los chips de silicio son más pequeños generan más calor y es más caro su mantenimiento. Turek advirtió que el 70% del presupuesto de IBM está destinado al cuidado de las máquinas de almacenamiento de datos. Y el porcentaje aumenta.
Desde la prehistoria hasta el 2003, el ser humano generó cinco mil millones de gigabytes de información. En 2011, se alcanzó esa cifra cada dos días. Y en 2013 será cada diez minutos.
El físico teórico Michio Kaku corrobora la necesidad de un cambio de materia prima. «Hay un límite final impuesto por las leyes de la termodinámica y la mecánica cuántica respecto de cuánto poder computacional puedes lograr con el silicio». La solución podría pasar por la implantación de otros materiales en investigación, como el grafeno, o los computadores cuánticos. Todo depende de la inversión de las empresas para cambiar de material en un contexto de crisis.
Falta de inversión en redes
«No habrá cuello de botella en el almacenamiento de datos porque la capacidad de los dispositivos de almacenamiento aumenta frenéticamente», el problema, según Quemada, está en la transmisión de datos por falta de inversión de las empresas de telecomunicaciones. «Las redes necesitan una mayor inversión: zanjas, tecnología de fibra óptica... Muchas empresas de telecomunicaciones no están invirtiendo lo suficiente, a pesar de que hay tecnología disponible, con un ancho de banda muy avanzado». El último informe de Cisco pronostica que el tráfico global de datos se multiplicará por 18 en los próximos cinco años, impulsado por el consumo de internet móvil.
Internet del futuro
En cualquier caso, estas soluciones solo son parches del remedio definitivo. «La clave de la red pasa por redefinir su estructura para unificar sus dos funciones: distribuir información y establecer comunicación. Modificar los protocolos, ahí está el núcleo de la cuestión», explica el catedrático de Ingeniería de Sistemas Telemáticos de la UPM. «La red podrá sobrevivir diez años más de crecimiento con la tecnología actual. Después, sería antinatural».
Quemada, sin embargo, está tranquilo a pesar de su diagnóstico porque confía en el ingenio humano: «Siempre vamos al colapso, pero siempre surgen soluciones. Con el tiempo aparecen ideas que lo harán más fácil. Surgirá una tecnología que dará la solución».
Filtros para procesar la información
La creación exponencial de datos en internet es difícil de consumir para el ser humano sin perderse en un marasmo de información. Sin embargo, la tecnología sí ha dado ya una respuesta al problema. La solución para el consumo de datos está en los filtros sociales. Los buscadores como Google ordenan la información a partir de un algoritmo basado en la reputación de los contenidos, extraída principalmente de su popularidad. Las redes sociales actúan a su vez como filtros para procesar el volumen ingente de datos que circulan por la red.
Lo peligroso sería que se creen demasiados filtros sobre cierta información en la red, al punto tal que ya nadie tendría acceso a la verdad sobre ciertos temas considerados peligrosos para el establishment. Por eso, hay que estar alertas.
No hay comentarios:
Publicar un comentario