Internet: Revisión de la red académica

AutorIoannis Maghiros
CargoMaster en Informática por la Universidad de Birmingham.

Internet, la "red de redes" mundial, durante los primeros 15 años de funcionamiento prácticamente no ha estado sometida a ningún control, ha sido gratuita, sin jerarquías y sin adhesión a ninguna estructura reglamentaria, y aún permanece así hoy en día. La red de alta velocidad (NSFNET) creada por NSF (National Science Foundation) a mediados de los 80 para conectar los centros de supercomputación de los EE.UU. fue la plataforma a través de la que se conectaron los campus universitarios y los redes regionales para configurar el núcleo de Internet. La rápida adopción por parte de los usuarios, que en la actualidad pertenecen aproximadamente en un 50% al ámbito académico y en un 50% al de los negocios y hogares, de la interfaz de navegación World Wide Web (WWW), explica el espectacular crecimiento en los últimos 5 años. Los principales factores que han permitido este crecimiento sin precedentes son: (a) la caída de los precios del equipo requerido (ordenadores conectados), (b) la conectividad global conseguida mediante los protocolos y la interoperabilidad de las aplicaciones, (c) la eficiencia resultante de los servicios suministrados a través de este medio.

Tabla 1. Crecimiento de Internet

Crecimiento en la utilización de

Internet

1985

1995

1996

Número de dominios

400

120.000

448.000

Número de servidores Internet

1961

6,6 millones

12,8 millones

Número de usuarios europeos de Web

No existía

4,2 millones

9,6 millones

Número de usuarios estadounidenses de

Web

No existía

11,5 millones

27 millones

Fuente: Network Wizards Survey 1996 (ftp//:ftp.nfs.net/nsfnet/statistics/history.hosts)

Hoy en día, las redes académicas, comerciales y regionales de todo el mundo están interconectadas, por lo que el tráfico puede fluir libremente entre los llamados NAPs (Network Access Points). Es una práctica habitual que los países que no disponen de una infraestructura rápida o de calidad dirijan su tráfico a través de la eficiente red de Internet de los EE.UU . La avalancha de nuevos usuarios por una parte, y el aumento del tráfico en la red, que se ha multiplicado por 500 en los últimos 6 años (aproximadamente un 10% cada mes), por otra parte, explican la congestión a la que se ha llegado, que da lugar a una escasa fiabilidad y a un bajo rendimiento y que ha hecho a la red merecedora del sobrenombre "World Wide Wait".

Falta de ancho de banda: el problema

Internet proporciona un servicio de conmutación de paquetes sin conexiones, que permite un uso muy eficiente de una capacidad dada mediante la multiplexión estadística de las líneas de comunicación. El modelo actual de tarificación supone que la institución paga una tarifa fija a cambio de un uso ilimitado de un ancho de banda dado. Ya que la red se utilizaba principalmente con fines de investigación, no eran necesarias las aplicaciones en tiempo real ni disponer de una gran fiabilidad en la transmisión. Como resultado, al no existir ningún incentivo para economizar su utilización y disponiendo de un equipo relativamente barato que cada vez genera mayor número de bits, surgieron los problemas de la congestión.

Aunque las conexiones de Internet en Estados Unidos han incrementado considerablemente su capacidad -desde 1,5 Mbps/línea Tl a finales de los 80 a 45 Mbps/línea T3 a principios de los 90- el número cada vez mayor de usuarios y proveedores en la red y la creciente utilización de aplicaciones que cada vez necesitan mayor ancho de banda ha sido abrumador, debido precisamente a que la potencia de las estaciones de trabajo conectadas a Internet está aumentando mucho más deprisa que la capacidad de Internet para transportar el tráfico, y a que las aplicaciones estándar utilizadas por toda la red han ido evolucionado desde sólo texto, correo electrónico y transferencia de ficheros, a presentaciones multimedia y videoconferencias. Como consecuencia, el número de bytes que se producen y que es necesario transportar va aumentando rápidamente.

Aunque es fundamental aumentar el ancho de banda para satisfacer las necesidades de los usuarios, también son necesarias otras dotaciones, porque los efectos de la congestión del tráfico son despreciables hasta que el uso se aproxima a la capacidad total, momento en el que todo el tráfico de la red se detiene rápidamente casi por completo. De hecho, AOL (America Online), uno de los mayores proveedores de acceso a Internet, con 8 millones de miembros, avisa de forma regular a sus usuarios para que no utilicen la red durante ciertos periodos de tiempo durante el día, a la vez que destina 350 millones de dólares a mejorar su red física. Puesto que es casi seguro que la demanda de ancho de banda va a aumentar, la capacidad disponible se debe asignar cuidadosamente, tanto a nivel de acceso local como en lo que se refiere a infraestructura de la red a nivel nacional/internacional.

La comunidad científica

Hace más de 10 años, la comunidad académica que estaba conectada a la red trabajaba en cómo posibilitar el acceso a Internet a la totalidad de los investigadores y docentes. Estas acciones finalmente dieron lugar a la aparición de servicios a disposición de toda la sociedad, basados en estándares abiertos y ofrecidos por proveedores que compiten en un entorno comercial. El Web, que también surgió como producto de la investigación, se ha convertido en la "aplicación estrella" que ha llevado a Internet a la fama. Además, el empleo de Internet por parte de la comunidad académica ha ido aumentando constantemente desde entonces, tanto en el número de científicos que la utilizan como en el número de bytes transportados por usuario. El coste por usuario en cuanto a instalaciones y mantenimiento de la LAN del campus, se ha incrementado también, por tanto, considerablemente.

La comunidad científica no es el único sector que podría beneficiarse de una infraestructura de red de elevadas prestaciones. Sobre todo el sector sanitario y las PYMEs, considerados a menudo como el motor del crecimiento económico y del empleo en Europa, también podrían aumentar al máximo su eficacia conectándose a la red. No obstante, la privatización de la red física en los EE.UU. y los frecuentes obstáculos de su sustitución comercial han tenido un impacto negativo para la comunidad académica. Debido, por una parte, a que los investigadores estaban acostumbrados a un nivel de servicios que ya no reciben y, por otra parte, a que sus necesidades en cuanto a servicios de la red han crecido más de lo que hoy se puede ofrecer. Los servicios fiables de alta velocidad tendrían que hacer posible que los investigadores desarrollaran sistemas de aprendizaje a distancia, bibliotecas electrónicas e investigación basada en colaboración en línea (laboratorios virtuales). Cuantos más investigadores estén dispuestos a conectar su producción científica con las necesidades del mundo social y económico, más recursos habrá a disposición de la sociedad en general, es decir, para responder a las demandas de la sociedad en lo que respecta a medio ambiente, energía, sanidad y educación.

Como los retrasos, las interrupciones y las transmisiones no fiables dificultan la actividad de los usuarios de lo que durante los últimos 20 años había sido el vehículo de la excelencia universitaria, las empresas privadas están instalando sus propias "Intranets" y "Extranets", creando enlaces con sus filiales y socios sin hacer uso de la red Internet pública. La mayor comercialización de la red exige tanto fiabilidad en el servicio como algunos medios de prioridad de paso de los diferentes tipos de tráfico. Por tanto, las tecnologías capaces de aportar soluciones al problema de la limitación del ancho de banda y a las diferentes formas de tarificar la utilización se van a convertir en cruciales.

Precio y capacidad: la solución

Puesto que el problema parece ser el ancho de banda, el carácter prácticamente gratuito de Internet no haría más que agravarlo. Analistas de Internet, como los economistas Jeffrey Mackie-Mason y Hal Varian sostienen que las tarifas fijas originan en Internet costes inaceptables en forma de congestión, al estimular el uso ineficiente de la red. Por tanto, con un sistema de tarifas en función de la utilización, el usuario valoraría cada servicio. La preferencia del profesor Varian para poner precios en Internet es un sistema en el que sólo se cobra por el acceso prioritario. No obstante, cualquier esquema que se utilice para cobrar por consumo en Internet también debería tener en cuenta consumos no triviales y costes de contabilidad. De esta manera se podría crear un remanente para gastos generales de la red y contradecir básicamente el modelo de "conexión gratuita" de Internet.

Un sistema de tarifas variables a elección del usuario en el que el precio esté en función de la velocidad a la que se transmiten los paquetes y que se cobre además de la tarifa fija, también sería útil. Además, en un mundo en el que existen muchas Internets mundiales paralelas interconectadas a NAPs, cada una suministrando diferentes niveles de fiabilidad a diferentes precios, la interacción entre precios y estructura de mercado tendrá importantes implicaciones políticas. Se deben estudiar con mayor profundidad los desarrollos tecnológicos actuales y en el futuro, como iPv6, ATM, RSVP así como los diferentes modelos de tarificación. Este estudio debería hacerse en estrecha correlación con los objetivos deseados para satisfacer las diferentes categorías de servicios (distribución fiable de paquetes, asignación de prioridades al tráfico, modelo casi gratuito para transmisiones no urgentes), mientras se intenta al mismo tiempo preservar al máximo la naturaleza dinámica de Internet.

Deben tenerse en cuenta las dos posibles soluciones al problema de la falta de ancho de banda; en primer lugar, potenciar la capacidad de la red (considerando las necesidades en horas punta actuales y previstas) y, en segundo lugar, mejorar los algoritmos de pago y horarios que hagan más eficaz el manejo del ancho de banda y cobrarles a los usuarios en consecuencia. Se espera que la capacidad aumente gracias a la creación de redes paralelas alternativas así como al mayor uso de una combinación de tecnologías de transmisión y conmutación basadas tanto en el cable de cobre como en la fibra óptica. El uso extensivo de "fibra negra" -es decir, fibra óptica exenta de modelos de la tarificación por conmutación perteneciente a proveedores de servicios privados y regionales- unido a las últimas innovaciones tecnológicas en conmutación óptica puede permitir un ancho de banda prácticamente ilimitado. (véase el recuadro). Las nuevas tecnologías digitales sin hilos, mediante satélite, también cobrarían importancia, especialmente en los bucles de acceso local.

Cuadro 1. La red totalmente óptica

--------------------------------------------------------------------------------

Si se utilizase fibra óptica, mediante un sistema denominado acceso y multiplexión por división de longitudes de onda, los cuellos de botella electrónicos podrían superarse todos simultáneamente, ya que con un ancho de banda físico suficiente es posible crear conmutaciones virtuales (no inteligentes). Casi todo el ancho de banda libre permitiría un medio de comunicaciones transparente en el que las asignaciones temporales de canal harían posible la conmutación virtual de circuitos y, por tanto, garantiza el rendimiento. La total utilización de la fibra óptica en las redes hasta niveles de acceso local es probable que se produzca en los próximos 15 años. Por ahora, las redes ópticas, como las creadas por IBM para el proyecto RAINBOW, conectan los ordenadores a velocidades de 1 Gbps.

--------------------------------------------------------------------------------

Una solución "made in USA"

La administración de los EE.UU parece creer que los problemas particulares a los que se enfrenta la comunidad académica se pueden resolver mediante el desarrollo de una red destinada exclusivamente a la investigación, separada de la red Internet actualmente disponible (véase el recuadro 1). Se prevé que la mayor ventaja de tal supuesto sería la rápida adopción, por parte de los proveedores comerciales de Internet, de nuevas tecnologías y de nuevos modelos de distribución de servicios. Esta idea se apoya además en el hecho de que los proveedores de telecomunicaciones siempre se han mostrado muy reacios a acercar la innovación tecnológica al mercado salvo que exista una demanda suficiente -una masa crítica de aplicaciones y de consumidores potenciales en la fase de demostración.

Cuadro 2: INTERNET II: La red Internet de la próxima generación

--------------------------------------------------------------------------------

Un grupo de más de 30 universidades y centros tecnológicos están desarrollando una nueva red mundial de ordenadores que, según manifestó el Presidente Clinton en octubre de 1996, va a ser financiada con 500 millones de dólares de fondos federales durante los próximos cinco años. El proyecto Internet II, como se le conoce, atraerá atención, esfuerzos y recursos para la creación de una nueva familia de aplicaciones avanzadas que impulsará proyectos de investigación basados en la colaboración entre investigadores (similares a Internet en sus comienzos). El proyecto tiene como objetivo los siguientes grandes retos:

  1. crear y mantener una capacidad de red puntera para la comunidad científica nacional

  2. posibilitar una nueva generación de aplicaciones que exploten en su totalidad las capacidades de la red de banda ancha -es decir, integración de medios, interactividad, colaboración en tiempo real, con el fin de satisfacer los objetivos nacionales de enseñanza a distancia y aprendizaje a lo largo de la vida.

  3. también puede permitir una transferencia mucho más rápida de los nuevos servicios y aplicaciones de la red a todos los niveles educativos y a la mayor parte de la comunidad Internet.

--------------------------------------------------------------------------------

Debe observarse que la solución de Internet II para crear capacidad se construirá en paralelo a la ya diseñada y puesta en marcha por el NSF, conocida como vBNS (very high speed Backbone Network Service), que se espera que proporcione una red central que opere a 622 Mbps (1997) para la comunidad científica.

En Europa, la Comisión Europea (DGXIII-B) está desempeñando un importante papel en el análisis de la puesta en funcionamiento de la Iniciativa Paneuropea de la red Internet de la Próxima Generación, que podría terminar siendo el núcleo de una futura Infraestructura Europea de Información. La infraestructura completa sería valiosa como banco de pruebas para redes piloto a pequeña escala que resuelvan temas tales como la interoperabilidad entre redes heterogéneas y ensayen diferentes mecanismos de aplicación de tarifas que garantizarían niveles adecuados de servicio para diferentes tipos de aplicaciones.

Conclusiones

En general, se acepta que la investigación básica requiere financiación pública para avanzar en el conocimiento y así la industria puede crear nuevas oportunidades de comercialización en formas insospechadas. Además, la financiación pública asegura el desarrollo de la tecnología adecuada en ámbitos como la educación o la sanidad, en los que los beneficios sociales pueden ser superiores a los "retornos sobre la inversión" que buscan las empresas privadas.

La comunidad científica desarrollará criterios, como calidad de los servicios, seguridad y posibles soluciones técnicas, que garanticen el rendimiento, así como una metodología para medir y hacer informes durante la fase operativa. También desarrollará una nueva generación de aplicaciones que exploten en su totalidad las capacidades de las redes de banda ancha -integración de medios, interactividad, colaboración en tiempo real- y alimente la industria del futuro reuniendo una masa crítica de consumidores potenciales, así como de aplicaciones en la fase de demostración.

A largo plazo parece probable que las tecnologías de redes totalmente ópticas, una vez que ya estén a disposición del usuario final, proporcionarán un ancho de banda casi ilimitado. A corto plazo y con el fin de luchar contra la congestión, se puede diseñar un plan que incida sobre las metodologías de tarificación adecuadas y sobre las soluciones técnicas que amplíen la capacidad disponible -como ya está haciendo la Comisión Europea. También sería deseable formular proyectos que estimulen el desarrollo de una infraestructura europea de banda ancha comercialmente eficiente mediante programas conjuntos de I+D entre la Universidad y la Industria. En ese caso, la propia industria podría adoptar una visión a largo plazo y considerar si puede soportar los costes de la inversión. Después de todo, lo que obtiene es una prueba a nivel de usuario y la depuración de las redes comerciales de elevado rendimiento del mañana. Mientras este mecanismo garantiza la continuidad de la futura utilización de la red por parte de la comunidad académica, también hay que considerar cierta forma de acceso a largo plazo posiblemente mediante el uso subvencionado de forma inteligente.

--------------------------------------------------------------------------------

Palabras clave

ICTs, Tecnologías de la Información y la Comunicación, Innovación, Competitividad, Tarifas Internet, redes de I+D, Intranets, Extranets

Referencias

Mackie-Mason, J. and Varian, H., Pricing congestible network resources, 1994 http//:www.sims.berkeley.edu/resources/infoecon/Pricing.html

Mackie-Mason, J. and Varian, The Economics of the Internet: Technology is only part of the challenge, Dr. Dobb's Journal, 1995 http//:www.virtualschool.edu/mon/Electronic Property/InternetEconomics.html

Kyriakou, D., Prioritisation In The Information Society: Efficiency and exclusion, The IPTS Report nº 03, 1996; http//:www.jrc.es/iptsreport/

Kyriakou, D., Technology Policy Strategy: Between Research and Development, The IPTS Report nº 12, 1997; http//:www.jrc.es/iptsreport/

The Economics of the Internet: Too cheap to meter, The Economist, 19 octubre 1996

Clinton Proposes $500-Million Plan to Improve the Internet, The Chronicle of Higher Education; octubre 18, 1996; http//:chronicle.com/

Notas

Un servidor es el nombre de un dominio que tiene registrada una dirección IP asociada.

Según estadísticas de NSF -NSF gestionó el servicio de la red hasta 1995- en 1998 se transportó una media mensual de 198 millones de paquetes, 8.450 millones en 1991 y 64.353 millones en 1994.

Como ejemplo, una página A4 de texto ocupa una media de 5 Kb (0,005 Mb) de disco, una imagen A4 en blanco y negro a 300 dpi (1 bit por pixel) ocupa 1 Mb de disco y una página A4 en color a 24 bits (3 x 8 bits) a 600 dpi requiere 102 Mb de disco.

La mayor parte del aumento del volumen intercambiado se atribuye al intercambio de formatos de datos multimedia, sobre todo entre usuarios procedentes de las disciplinas de las ciencias sociales, ya que manejan información cualitativa más que datos factuales.

Notas de James Love en TAP-INFO, 4 de mayo de 1994, sobre la conferencia pronunciada por el profesor Hal Varian el 21 de abril de 1994, acerca de la economía de Internet (listserver@essential.org).

Autor

Ioannis Maghiros, IPTS Tel: +34-5-345-448 281; Fax: +34-5-345-448 339; correo electrónico: ioannis.maghiros@jrc.es

Sobre el autor

--------------------------------------------------------------------------------

Ioannis Maghiros es Master en Informática por la Universidad de Birmingham, Reino Unido. Ha trabajado en IBM en Grecia antes de ingresar en el IPTS-JRC, donde trabaja como colaborador científico y se encarga de la producción del IPTS Report y del desarrollo y puesta en marcha de la Red Europea de Observatorios de Ciencia y Tecnología (ESTO). Está interesado principalmente en las Tecnologías de la Información y la Comunicación y en las herramientas de trabajo en grupo basadas en Web.

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR