Pesquisadores querem 'reconstruir' a Internet

Ainda que a Internet tenha levado quase quatro décadas para chegar ao seu estado atual, alguns pesquisadores acadêmicos, com o auspício do governo federal norte-americano, querem reestruturar tudo e começar de novo. A idéia pareceria inconcebível, até absurda, mas muitos crêem que a estratégia de "apagar e começar de novo" representa a única maneira de atender verdadeiramente aos desafios de segurança, portabilidade e outros temas que surgiram desde que Leonard Kleinrock, um professor da Universidade da Califórnia (Ucla), ajudou a supervisionar a primeira troca de textos significativa entre dois computadores, em setembro de 1969.

A Internet "funciona muito bem em muitas situações, mas foi desenhada com premissas completamente diferentes", disse Dipankar Raychandhuri, professor da Universidade de Rutgers, que supervisiona os projetos de reestruturação. "É uma espécie de milagre que ela siga funcionando bem hoje".

Agora que a rede não está mais limitada pela lentidão das conexões ou dos processadores nos PCs, nem pelos altos custos de armazenamento de dados, os pesquisadores consideram ter chegado o momento de reformular a arquitetura subjacente da rede, um passo que implicaria a necessidade de substituir os equipamentos existentes e de reprogramar o software para encaminhar melhor o tráfego do futuro sobre os canais disponíveis.

Até mesmo Vinton Cerf, um dos 'pais' fundadores da Internet, que ajudou no desenvolvimento e nas técnicas para as chaves de comunicação, disse que a iniciativa de reforma é "saudável em geral", porque a tecnologia atual "não satisfaz todas as necessidades".

Mas para qualquer reconstrução, um dos desafios consistirá em alcançar o equilíbrio entre os interesses de vários grupos. Na primeira vez, os pesquisadores puderam trabalhar em paz dentro de seus laboratórios. Desta vez, a indústria tem uma influência mais importante, e as autoridades querem que sejam levadas em conta suas necessidades de intervenção.

Não há evidências de que estes grupos já estejam atuando, mas uma vez que qualquer investigação pareça promissória, "inúmeras pessoas vão querer participar no desenho", disse Jonathan Zittrain, professor de Direito afiliado às universidades de Oxford e Harvard.

A Fundação Nacional de Ciências (NSF, na sigla em inglês), quer construir uma rede experimental de investigação conhecida como 'Ambiente Global para Inovações em Rede' (GENI, na sigla em inglês), e está financiando vários projetos nas universidades e em outras instituições mediante o projeto Desenho da Rede Futura de Internet (FIND, na sigla em inglês).

As universidades de Rutgers, Stanford, Princeton, Carnegie Mellon e o Instituto Tecnológico de Massachusetts (MIT) estão entre as instituições que empreenderam projetos individuais. As dependências governamentais, incluído o Departamento de Defesa, também exploraram o conceito. A União Européia apoiou pesquisas de iniciativas semelhantes, mediante um programa conhecido como Investigação e Experimentação da Internet Futura (FIRE, na sigla em inglês). Funcionários e pesquisadores se reuniram no mês passado em Zurique para discutir seus primeiros achados e metas.

Uma nova rede funcionaria paralela à Internet atual e a substituiria posteriormente, ou talvez alguns aspectos da investigação se aplicariam a uma reestruturação da arquitetura existente. Estas propostas estão, entretanto, em suas etapas iniciais, e não dariam frutos senão daqui a dez ou 15 anos, no caso do Congresso aprovar o financiamento.

Guru Parulkar, que assumirá a direção geral da iniciativa de Stanford, depois de encabeçar os programas da NSF, estimou que apenas a proposta GENI custará US$ 350 milhões, enquanto que o gasto do governo, da universidade e da indústria em projetos individuais cresceria em conjunto a US$ 300 milhões. Até agora, o gasto foi de algumas dezenas de milhões de dólares. A substituição de todos os programas e computadores para implementar a nova rede poderia acrescentar bilhões de dólares ao custo.

Os defensores do "apagar e começar de novo" dizem que o mundo mais cômodo dos pesquisadores nas décadas de 1970 e 80 não necessariamente se ajusta às realidades e necessidades da Internet comercial. "A rede é agora uma ferramenta essencial para muitas pessoas, enquanto em seus primeiros dias era apenas algo experimental", disse Zittrain.

Os primeiros arquitetos da Internet construíram o sistema sob o princípio da confiança. A maioria dos pesquisadores não se conhecia entre si, portanto se manteve abertura e flexibilidade ao compartilhar a rede, características que foram cruciais para seu rápido crescimento. Mas à medida que a rede se expandia, chegaram os remetentes de ondas de correio indesejável e os piratas, que puderam atuar livremente porque a rede não tem mecanismos integrados para saber com certeza quem enviou o quê.

Os desenhistas da rede supunham também que os computadores estariam em lugares fixos e sempre conectados. Isto já não acontece, com a proliferação de computadores portáteis e de bolso e os celulares com cada vez mais funções web. Todos esses sistemas vão de um ponto a outro de conexão sem fio e poodem perder o sinal em determinados lugares.

Os engenheiros melhoraram a segurança e fizeram mudanças para permitir a portabilidade da Internet, mas os pesquisadores assinalam que tudo isso agrega complexidades, afeta o desempenho e, no caso da segurança, se limita a fazer reparos, num arriscado jogo de 'gato e rato'. As reparações provisórias para os dispositivos celulares "podem funcionar bem se uma pequena fração do tráfego é desse tipo, mas podem saturar os processadores dos computadores e criar falhas de segurança quando 90% ou mais do tráfego é móvel", explicou Nick Mckeown, co-diretor do programa de Stanford.

A Internet seguirá enfrentando desafios, enquanto as aplicações requerem transmissões garantidas e não uma estratégia que dá apenas seu "melhor esforço" e que funciona melhor para o correio eletrônico e outras tarefas menos dependentes do fator tempo. Deve-se pensar em um médico que utilizará as teleconferências para realizar uma cirurgia remota, ou no consumidor de um serviço de telefonia via Internet que precisa fazer uma chamada de emergência. Nestes casos, um atraso mínimo no envio dos dados pode ser fatal.

Em vez de criar paliativos para cada problema, os pesquisadores desta nova proposta querem redesenhar o sistema para abrigar facilmente qualquer tecnologia futura, diz Larry Peterson, presidente do conselho de ciências da informática de Princeton e chefe do grupo de planejamento de GENI. Inclusive, se os desenhistas originais tivessem sido mais visionários, não teriam podido incorporar estas funções desde o começo. Os computadores eram muito mais lentos, então, para realizar, por exemplo, os cálculos necessários para autentificar a identidade de um usuário.

Kleinrock, o pioneiro da Internet na Ucla, questionou a necessidade de fazer uma transição, mas acrescentou que estas iniciativas resultam úteis para o avanço tecnológico. "Algo chamado GENI seguramente não se converterá na Internet, mas algumas partes disso poderiam ser integradas à rede enquanto evolui", vislumbra ele.

 

Arquivo noticias>> clic

mais noticias do mês... clic

      


E-mail

Copyright© 1996/2007 -  ANO11 -  Netmarket  Internet  Brasil -   Todos os direitos reservados

Home