Aunque la red tardó casi cuatro décadas en llegar a su estado actual, algunos investigadores universitarios, con el apoyo del gobierno de EEUU, quieren reestructurar todo y comenzar de nuevo. La iniciativa parece inconcebible, incluso absurda, pero muchos creen que una estrategia de "borrón y cuenta nueva" representa la única manera de atender verdaderamente los desafíos de seguridad, portabilidad y otros temas que han surgido desde que Leonard Kleinrock, un profesor de la UCLA, ayudó a supervisar el primer intercambio de texto significativo entre dos computadoras, el 2 de septiembre de 1969.
Internet "funciona muy bien en muchas situaciones, pero fue diseñada con premisas completamente distintas", dijo Dipankar Raychandhuri, profesor de la Universidad de Rutgers, quien supervisa los proyectos de reestructuración. "Es una suerte de milagro que esto siga funcionando bien hoy". Ahora que internet no está limitada ya por la lentitud en las conexiones o en los procesadores de las computadoras, ni por los altos costos del almacenamiento de datos, los investigadores consideran que ha llegado el momento de replantear la arquitectura subyacente de la red, un paso que implicaría la necesidad de reemplazar el equipo existente y de reprogramar el software para encaminar mejor el tráfico del futuro sobre los canales disponibles.
Incluso Vinton Cerf, uno de los padres fundadores de internet, quien ayudó en el desarrollo e las técnicas para las claves de comunicaciones, dijo que la iniciativa de reforma es "saludable en general", porque la tecnología actual "no satisface todas las necesidades". Pero para cualquier reconstrucción, uno de los desafíos consistirá en alcanzar el equilibrio entre los intereses de varios grupos. La primera vez, los investigadores pudieron trabajar en paz dentro de sus laboratorios. Esta vez, la industria tiene una influencia más importante, y las autoridades quieren que sean tomadas en cuenta sus necesidades de intervención de las comunicaciones.
No hay evidencias de que esos grupos estén actuando ya, pero una vez que cualquier investigación parezca promisoria, "numerosas personas querrán participar en el diseño", dijo Jonathan Zittrain, profesor de derecho afiliado a las universidades de Oxford y Harvard. La Fundación Nacional de Ciencias (NSF) quiere construir una red experimental de investigación conocida como Ambiente Global para Innovaciones en Red (GENI, por sus siglas en inglés), y está financiando varios proyectos en las universidades y en otras instituciones, mediante el proyecto de Diseño de la Red Futura de Internet (FIND).
Las universidades de Rutgers, Stanford, Princeton, Carnegie Mellon y el Instituto Tecnológico de Massachusetts figuran entre las instituciones que han emprendido proyectos individuales. Las dependencias gubernamentales, incluido el Departamento de la Defensa han explorado también el concepto.
La Unión Europea ha apoyado investigaciones de iniciativas semejantes, mediante un programa conocido como Investigación y Experimentación de la Internet Futura (FIRE). Funcionarios e investigadores se reunieron el mes pasado en Zurich, para discutir sus primeros hallazgos y metas. Una nueva red funcionaría paralela a internet actual y la reemplazaría a la postre, o quizás algunos aspectos de la investigación se aplicarían a una reestructuración de la arquitectura existente.
Estas propuestas están todavía en sus etapas tempranas, y no darían frutos en unos 10 o 15 años, en caso de que el Congreso de EEUU aprobara la financiación. Guru Parulkar, quien asumirá la dirección general de la iniciativa de Stanford, tras encabezar los programas de la NSF, estimó que tan sólo la propuesta GENI costará 350 millones de dólares, mientras que el gasto del gobierno, la universidad y la industria en proyectos individuales ascendería en conjunto a 300 millones de dólares. Hasta ahora, el gasto ha sido de unas decenas de millones de dólares. El reemplazo de todos los programas y computadoras para implementar la nueva red podría agregar miles de millones de dólares al costo.
Los defensores del "borrón y cuenta nueva" dicen que el mundo más cómodo de los investigadores en las décadas de 1970 y 1980 no necesariamente se ajusta a las realidades y necesidades de internet comercial. "La red es ahora una herramienta crítica para demasiadas personas, mientras que en sus primeros días era sólo algo experimental", dijo Zittrain.
Los primeros arquitectos de internet construyeron el sistema sobre el principio de la confianza. La mayoría de los investigadores no se conocía entre sí, de modo que se mantuvo apertura y flexibilidad al compartir la red, características que fueron cruciales para su crecimiento rápido. Pero los remitentes de una oleada de correo indeseable y los piratas informáticos llegaron a medida que la red se expandía y pudieron actuar libremente porque la red no tiene mecanismos integrados para saber con certeza quién envió qué.
Los diseñadores de la red supusieron también que las computadoras estarían en lugares fijos y siempre conectadas. Ello no ocurre ya, con la proliferación de las computadoras portátiles y de bolsillo, y los teléfonos celulares provistos cada vez de más funciones. Todos esos sistemas van de un punto a otro de conexión inalámbrica, y pueden perder la señal en ciertos lugares.
Los ingenieros aplicaron mejoras a la seguridad y realizaron cambios para permitir la portabilidad de internet, pero los investigadores señalan que todo ello agrega complejidades, afecta el desempeño y en el caso de la seguridad, se limita a hacer reparaciones, en un riesgoso juego del "gato y el ratón".
Las reparaciones provisionales para los dispositivos celulares "pueden funcionar bien si una pequeña fracción del tráfico es de ese tipo, pero pueden saturar los procesadores de las computadoras y crear fallas de seguridad cuando un 90% o más del tráfico es móvil, dijo Nick McKeown, codirector del programa de Stanford.
Internet seguirá enfrentando retos, mientras las aplicaciones requieren de transmisiones garantizadas, y no de una estrategia que da sólo su "mejor esfuerzo" y que funciona mejor para el correo electrónico y otras tareas menos dependientes del factor del tiempo. Hay que pensar en un médico que utilizará las teleconferencias para practicar una cirugía remota, o en un consumidor de un servicio de telefonía mediante internet que necesita hacer una llamada de emergencia. En esos casos, el retraso más pequeño en el envío de los datos puede ser fatal.
En vez de crear paliativos para cada problema, los investigadores de esta nueva propuesta quieren rediseñar el sistema para albergar fácilmente cualquier tecnología futura, dice Larry Peterson, presidente del consejo de ciencias informáticas en Princeton y jefe del grupo de planificación de GENI. Incluso si los diseñadores originales hubieran sido más visionarios, no habrían podido incorporar estas funciones desde el comienzo. Las computadoras eran mucho más lentas entonces como para realizar los cálculos necesarios para, por ejemplo, autentificar la identidad de un usuario.
Kleinrock, el pionero de internet en UCLA, cuestionó la necesidad de hacer una transición, pero agregó que estas iniciativas resultan útiles para el avance tecnológico. "Algo llamado GENI seguramente no se convertirá en internet, pero algunas partes de esto podrían integrarse a la red mientras progresa", vislumbró.
No hay comentarios:
Publicar un comentario