04 junio, 2007

Internet es una de las mejores innovaciones del ser humano, según los científicos

 

06/05/2007 - 17:16
NOTICIASDOT, IBLNEWS
Internet es una de las mejores innovaciones del ser humano, según los científicos

Internet, gracias a la cual es posible realizar búsquedas aleatorias de información y que a su vez potencia fenómenos de comunicación a distancia como la radio, es una de las mayores invenciones del hombre junto a la nave espacial o a la manipulación del ADN, aseguraron un grupo de expertos.

Convocados por la revista británica Spiked, un panel compuesto por autoridades en ciencia e información, entre los cuales se hallaban 6 premios nobel, revelaron cuál es para ellos el invento más revolucionario dentro de sus respectivas áreas de trabajo.

De este modo, el bioquímico Tim Hunt, premio nobel de medicina en 2001, señaló a la tecnología para separar el ADN como una innovación sin la cual no podría haber avanzado en su investigación, mientras matemáticos como Benoit Mandelbrot apuntaron a la Teoría del Caos, descubierta por él mismo gracias al uso de los primeros computadores.

En el área de la comunicación, los expertos señalaron aspectos como la posibilidad de editar errores, gracias a la informática, la cual permitió "la confianza de arriesgarse a experimentar", según el periodista de la BBC Paul Parsons. Por su parte el escritor Matt Ridley destacó la importancia de los motores de búsqueda que agilizaron las investigaciones de los estudiantes.

El tema será expuesto durante un evento llamado "¿Cuál es la mayor innovación?", convocado por la misma revista, y que será realizado en junio.

Hay que diseñar una nueva internet partiendo de cero

Aunque Internet ha tardado casi cuatro décadas en llegar a su estado actual, algunos investigadores universitarios, con el auspicio del gobierno federal, quieren reestructurar todo y comenzar de nuevo.

La idea parecería inconcebible, incluso absurda, pero muchos creen que una estrategia de "borrón y cuenta nueva" representa la única manera de atender verdaderamente los desafíos de seguridad, portabilidad y otros temas que han surgido desde que Leonard Kleinrock, un profesor de la UCLA, ayudó a supervisar el primer intercambio de texto significativo entre dos computadoras, el 2 de septiembre de 1969.

Internet "funciona muy bien en muchas situaciones, pero fue diseñada con premisas completamente distintas", dijo Dipankar Raychandhuri, profesor de la Universidad de Rutgers, quien supervisa los proyectos de reestructuración. "Es una suerte de milagro que esto siga funcionando bien hoy", sostuvo.

Ahora que Internet no está limitada ya por la lentitud en las conexiones o en los procesadores de las computadoras, ni por los altos costos del almacenamiento de datos, los investigadores consideran que ha llegado el momento de replantear la arquitectura subyacente de la red, un paso que implicaría la necesidad de reemplazar el equipo existente y de reprogramar el software para encaminar mejor el tráfico del futuro sobre los canales disponibles.

Incluso Vinton Cerf, uno de los padres fundadores de la internet, quien ayudó en el desarrollo e las técnicas para las claves de comunicaciones, dijo que la iniciativa de reforma es "saludable en general", porque la tecnología actual "no satisface todas las necesidades".

Pero para cualquier reconstrucción, uno de los desafíos consistirá en alcanzar el equilibrio entre los intereses de varios grupos. La primera vez, los investigadores pudieron trabajar en paz dentro de sus laboratorios.

Esta vez, la industria tiene una influencia más importante, y las autoridades quieren que sean tomadas en cuenta sus necesidades de intervención de las comunicaciones.

No hay evidencias de que esos grupos estén actuando ya, pero una vez que cualquier investigación parezca promisoria, "numerosas personas querrán participar en el diseño", dijo Jonathan Zittrain, profesor de derecho afiliado a las universidades de Oxford y Harvard.

La Fundación Nacional de Ciencias (NSF) quiere construir una red experimental de investigación conocida como Ambiente Global para Innovaciones en Red (GENI, por sus siglas en inglés), y está financiando varios proyectos en las universidades y en otras instituciones, mediante el proyecto de Diseño de la Red Futura de Internet (FIND).

Las universidades de Rutgers, Stanford, Princeton, Carnegie Mellon y el Instituto Tecnológico de Massachusetts figuran entre las instituciones que han emprendido proyectos individuales. Las dependencias gubernamentales, incluido el Departamento de la Defensa han explorado también el concepto.

La Unión Europea ha apoyado investigaciones de iniciativas semejantes, mediante un programa conocido como Investigación y Experimentación de la Internet Futura (FIRE). Funcionarios e investigadores se reunieron el mes pasado en Zurich, para discutir sus primeros hallazgos y metas.

Una nueva red funcionaría paralela al actual Internet a la postre la reemplazaría, o quizás algunos aspectos de la investigación se aplicarían a una reestructuración de la arquitectura existente.

Estas propuestas están todavía en sus etapas tempranas, y no darían frutos en unos 10 o 15 años, en caso de que el Congreso aprobara la financiación.

Guru Parulkar, quien asumirá la dirección general de la iniciativa de Stanford, tras encabezar los programas de la NSF, estimó que tan sólo la propuesta GENI costará 350 millones de dólares, mientras que el gasto del gobierno, la universidad y la industria en proyectos individuales ascendería en conjunto a 300 millones de dólares.

Hasta ahora, el gasto ha sido de unas decenas de millones de dólares.

El reemplazo de todos los programas y computadoras para implementar la nueva red podría agregar miles de millones de dólares al costo.

Los defensores del "borrón y cuenta nueva" dicen que el mundo más cómodo de los investigadores en las décadas de 1970 y 1980 no necesariamente se ajusta a las realidades y necesidades de la internet comercial.

"La red es ahora una herramienta crítica para demasiadas personas, mientras que en sus primeros días era sólo algo experimental", dijo Zittrain.

Los primeros arquitectos de Internet construyeron el sistema sobre el principio de la confianza. La mayoría de los investigadores no se conocía entre sí, de modo que se mantuvo apertura y flexibilidad al compartir la red, características que fueron cruciales para su crecimiento rápido.

Pero los remitentes de una oleada de correo indeseable y los piratas informáticos llegaron a medida que la red se expandía y pudieron actuar libremente porque la red no tiene mecanismos integrados para saber con certeza quién envió qué.

Los diseñadores de la red supusieron también que las computadoras estarían en lugares fijos y siempre conectadas. Ello no ocurre ya, con la proliferación de las computadoras portátiles y de bolsillo, y los teléfonos celulares provistos cada vez de más funciones. Todos esos sistemas van de un punto a otro de conexión inalámbrica, y pueden perder la señal en ciertos lugares.

Los ingenieros aplicaron mejoras a la seguridad y realizaron cambios para permitir la portabilidad de la internet, pero los investigadores señalan que todo ello agrega complejidades, afecta el desempeño y en el caso de la seguridad, se limita a hacer reparaciones, en un riesgoso juego del "gato y el ratón".

Las reparaciones provisionales para los dispositivos celulares "pueden funcionar bien si una pequeña fracción del tráfico es de ese tipo, pero pueden saturar los procesadores de las computadoras y crear fallas de seguridad cuando un 90% o más del tráfico es móvil, dijo Nick McKeown, codirector del programa de Stanford.

Internet seguirá enfrentando retos, mientras las aplicaciones requieren de transmisiones garantizadas, y no de una estrategia que da sólo su "mejor esfuerzo" y que funciona mejor para el correo electrónico y otras tareas menos dependientes del factor del tiempo.

Hay que pensar en un médico que utilizará las teleconferencias para practicar una cirugía remota, o en un consumidor de un servicio de telefonía mediante la internet que necesita hacer una llamada de emergencia. En esos casos, el retraso más pequeño en el envío de los datos puede ser fatal.

En vez de crear paliativos para cada problema, los investigadores de esta nueva propuesta quieren rediseñar el sistema para albergar fácilmente cualquier tecnología futura, dice Larry Peterson, presidente del consejo de ciencias informáticas en Princeton y jefe del grupo de planificación de GENI.

Incluso si los diseñadores originales hubieran sido más visionarios, no habrían podido incorporar estas funciones desde el comienzo. Las computadoras eran mucho más lentas entonces como para realizar los cálculos necesarios para, por ejemplo, autentificar la identidad de un usuario.

Kleinrock, el pionero de la internet en UCLA, cuestionó la necesidad de hacer una transición, pero agregó que estas iniciativas resultan útiles para el avance tecnológico.

"Algo llamado GENI seguramente no se convertirá en Internet, pero algunas partes de esto podrían integrarse a la red mientras progresa", vislumbró.

No hay comentarios.: