A era das trocas par-a-par
Na virada do século, o desenho das redes na internet passou por uma grande transformação. Ao invés da subordinados a um servidor, os computadores e seus usuários passaram a falar uns com os outros. A mudança abriria um leque de possibilidades — inclusive no terreno da EducaçãoDalton Martins, Hernani Dimantas
Falar sobre sociedade em rede e ambientes colaborativos de ensino mediados pela tecnologia exige ir além das generalidades. É preciso um recorte técnico com base no problema que se pretende resolver e a contextualização da tecnologia escolhida em meio a um cenário essencialmente multidisciplinar, que toca áreas como a pedagogia e a sociologia.
Construir esse recorte técnico passa necessariamente por compreender o processo de desenvolvimento da tecnologia e os desdobramentos de sua utilização no contexto em que está inserida. Analisando o cenário atual de aplicações voltadas para ambientes colaborativos de ensino, podemos nos deparar com dois paradigmas relacionados à topologia de rede: estrutura cliente-servidor e peer-to-peer.
A estrutura cliente-servidor baseia-se no princípio de que diversas máquinas, chamadas de clientes, conectam-se a uma determinada máquina, chamada de servidor, para receber informações, enviar dados, enfim, possibilitar que toda a comunicação seja mediada pelo papel tecnológico do servidor. Essa estrutura tornou-se muito popular com a explosão do acesso doméstico à Internet na década de 90, com o conseqüente uso intensivo dos protocolos para modems, como o SLIP (Serial Line IP) e o PPP (Point-to-Point Protocol), e o aumento no uso de firewalls de segurança nas corporações. Dessa forma, o servidor adquiriu importância ímpar nas aplicações desenvolvidas sob essa lógica e tornou-se o “ponto de encontro” central dos clientes usuários dessas aplicações. A política de uso de uma rede cliente-servidor e a dinâmica de interação entre os clientes é, portanto, estabelecida pelo servidor, por meio de seus recursos técnicos disponíveis e sua capacidade de gerenciamento de usuários.
Da mesma forma que o crescimento da Internet no uso doméstico trouxe uma enorme quantidade de usuários para dentro da grande rede, também “encaixou a maior parte do tráfego no paradigma de curso descendente já usado pela televisão e pelos jornais” (Oram). Esse paradigma de curso descendente está intimamente relacionado com os hábitos desenvolvidos a partir dessa tecnologia de uso da rede, ou seja, os clientes do sistema conectam-se aos servidores para obterem notícias, a cotação do dólar, os índices da bolsa, a previsão do tempo, os resultados imediatos do campeonato de futebol, simulando algo muito próximo ao assistir uma televisão, derivando daí a expressão, originada também nos anos 90, do “surfe na web” que “é uma derivação do surfe de canais – expressão que se impôs ao mundo com o surgimento dos controles remotos e da multiplicidade de canais por cabo em meados da década de 1980” (Johnson). Configura-se um modelo de acesso à rede baseado no download de informações, onde o usuário, a máquina- cliente, influencia muito pouco as políticas de comunicação e a troca efetiva de informações.
Havia a possibilidade de construir redes não necessariamente mediadas pelo papel de um servidor, “ponto de encontro” central. Era a volta saudável aos tempos de formação da internet
Tais hábitos de uso da rede derivam basicamente de algumas premissas técnicas que são levadas em consideração quando falamos em arquitetura cliente-servidor, como o fato de que “a máquina do cliente da Web não precisa ter um endereço permanente ou conhecido. Ela não necessita de uma conexão contínua com a Internet. Não há a necessidade de conciliar vários usuários. Só é preciso saber como fazer uma pergunta e ouvir a resposta” (Oram). Essas premissas técnicas se refletem em uma tendência de padrão de conexão física à Internet que é o sistema ADSL (Asymmetric Digital Subscribers Line), onde “uma instalação típica de ADSL ou modem a cabo oferece de três a oito vezes mais largura de banda quando obtém dados da Internet do que quando os envia para ela, favorecendo o uso do cliente em relação ao servidor”. Essa limitição é praticamente transparente ao usuário da rede que tem como costume de uso o acesso baseado em download, onde ele é apenas cliente e recebe informações e não “serve” informações para a rede.
Por volta do ano 2000, a ascensão das aplicações P2P (peer-to-peer) chama a atenção de estudiosos da rede e desenvolvedores de novas aplicações. É o período de explosão de uso do Napster, famoso sistema de troca de música entre usuários baseado num sistema híbrido cliente-servidor e P2P. O Napster funcionava basicamente da seguinte forma: usuários disponibilizavam uma lista de arquivos de música que desejavam compartilhar com outros usuários; essa lista era armazenada nos servidores do Napster e quando um usuário realizava uma busca por determinada música, essa busca ocorria dentro do escopo dos servidores; se a busca era bem sucedida, o sistema conectava diretamente o usuário detentor do arquivo e aquele que o desejava. Uma nova revolução de hábitos e costumes iniciava-se na Internet devido a um novo conjunto de premissas técnicas, que possibilitavam colocar usuários em contato diretamente uns com os outros. Vem daí o fato de que “o Napster teve um impacto revolucionário devido a uma escolha básica de projeto: após a pesquisa inicial do material, os clientes se interconectaram e trocaram dados diretamente de seus discos rígidos de um sistema para o outro” (Oram).
A princípio, as questões envolvidas em torno dessas novas possibilidades de conexão poderiam apenas suscitar preocupações em torno de direitos autorais — o que realmente ocorreu, levando a uma das maiores disputas em tribunais da história da Internet, que culminou com o fechamento do Napster nos modelos originais de uso. No entanto, estava em questão algo muito maior que os direitos autorais; havia uma nova possibilidade técnica de construção de redes, não necessariamente mediadas pelo papel de um servidor como “ponto de encontro” central. Inúmeras aplicações, protocolos e serviços começaram a surgir com base nas idéias e nas discussões geradas pelo caso Napster.
A história do P2P não teve, no entanto, seu início com o Napster. Ela remonta aos tempos de formação da Internet, onde ainda não havia a necessidade de servidores centrais e a troca de informações se dava ponto-a-ponto, ou par-a-par.
O Usenet News, um dos pioneiros da Internet no final da década de 60 quando era ainda chamada de ARPANET, “é um sistema que, não usando controle central, copiava arquivos entre computadores” (Oram). Esse sistema era baseado no protocolo UUCP (Unix-to-Unix-Copy Protocol), que basicamente ligava para uma máquina remota, conectava-se automaticamente, trocava informações e depois se desconectava. A idéia por trás do funcionamento desse protocolo é a mesma da troca de arquivos mediada pelo Napster: duas máquinas se conectam, trocam arquivos e depois a conexão é fechada.
São esses usuários, em contato com suas comunidades, que produzem grande quantidade de informações a cada dia; relatos, notícias, experimentações midiáticas, construção de novas soluções
É, portanto, nesse cenário que podemos entender o P2P como alternativa tecnológica para a construção de sistemas colaborativos de ensino que não necessitem da mediação de um “ponto de encontro central”, no papel de um servidor dos recursos da rede. E daí, podemos entender que o “peer-to-peer é uma classe de aplicativos que tira proveito de recursos — armazenamento, ciclos, conteúdo, presença humana — disponíveis nas margens da Internet. Tendo em vista que acessar esses recursos descentralizados significa operar em um ambiente de conectividade instável e endereços IP imprevisíveis, os nós P2P devem operar fora do DNS e ter uma autonomia total ou significativa a partir de servidores centrais” (Oram).
Vale aqui destacar esse aspecto de tirar proveito dos recursos disponíveis nas margens da rede, ou seja, dos recursos periféricos da rede. É nessa periferia topológica que se inclui a quase totalidade dos usuários da Internet: usuários caseiros, redes de acesso público a informação, como Telecentros (programa de Inclusão Digital da Prefeitura Municipal de São Paulo), Infocentros (programa de Inclusão Digital do Governo do Estado de São Paulo), EICs (Escolas de Informática Comunitária, criadas pelo Comitê de Democratização da Informação), entre outros. São esses usuários, em contato com suas comunidades locais, que produzem uma grande quantidade de informações a cada dia; seja em forma de relatos, notícias, experimentações midiáticas, construção de novas soluções e outras possibilidades. Considerar uma estrutura técnica de desenvolvimento de redes de colaboração que possa levar em conta, como premissa técnica, essa capacidade de se relacionar com as bordas da rede é potencializar e criar mecanismos de conexão entre os mais diversos elementos dessa periferia, permitindo assim, o surgimento de conexões entre pessoas e de troca de informação das mais diversas possíveis.
Não menos importante, mas ainda relacionado com a questão do aproveitamento dos recursos “disponíveis nas margens da Internet” é a questão do poder de processamento técnico disponível e subutilizado no cenário cliente-servidor. A maior parte do processamento das aplicações utilizadas e dos serviços de acesso à informação é realizado pelos servidores. Apenas como efeito ilustrativo, podemos considerar os dados fornecidos por Oram (2001): supõe-se que tenhamos em torno de cem milhões de PCs conectados à rede, entre os trezentos milhões de usuários da Internet, e que cada máquina conectada possua um poder médio de processamento de 100MHz e uma unidade de disco de 100MB. Levando-se esses dados em consideração, poderíamos observar que há um poder de processamento nas periferias da rede da ordem de dez bilhões de megahertz e dez mil terabytes de espaço em disco para armazenamento de informação e troca de dados.
Toda mudança ou ruptura estrutural de uma forma de relacionamento através da técnica traz como conseqüência a possibilidade de exploração e experimentação. Os ambientes colaborativos de ensino baseados na tecnologia computacional são fortemente influenciados pelas premissas técnicas adotadas. Os aspectos cognitivos relacionados à troca de informação e a conseqüente validação da mesma como forma de construção do conhecimento torna-se também fortemente enquadrada numa visão oriunda da técnica e de suas topologias de relacionamento. “O estado das técnicas influi efetivamente sobre a topologia da megarrede cognitiva, sobre o tipo de operações que nela são executadas, os modos de associação que nela se desdobram, as velocidades de transformação e de circulação das representações que dão o ritmo a sua perpétua metamorfose” (Levy, 1993).
O que está em jogo nessa constatação de Levy é a maneira como se dá a circulação da informação e a forma como essa circulação permite a apropriação da informação pelo indivíduo, sua conseqüente transformação e reintegração à rede. Sabendo-se que a rede P2P tem como um de seus objetivos a criação de espaços que possam aproveitar os recursos que se encontram nas margens da Internet e que a topologia da rede não se vale necessariamente da mediação de um servidor para que possamos conectar nossas máquinas diretamente com outros computadores de usuários que também se encontram nas margens da rede, começamos a notar que “a topologia da megarrede cognitiva” foi alterada. Daí vem a afirmação de que “essa é uma violação completa do modelo de dados na Web, ’Conteúdo no centro’, e o sucesso do Napster em violá-lo poderia ser chamado de ’Conteúdo nas margens’” (Oram). O P de P2P passa a significar, efetivamente, par, permitindo que uma pessoa encontre um par e, como conseqüência, os recursos que ambas disponibilizam para o uso comunitário pela rede.
Redes de colaboração P2P formam o que Levy chama de tecnologias da inteligência. A rede possa ser vista como um elemento de inteligência coletiva — não apenas um fórum de discussão e encontro
Sabendo-se que numa rede P2P uma máquina que deseja disponibilizar seus recursos deve estar conectada em um dado momento, para que a mesma possa ser acessada e que, muito provavelmente, o usuário se encontra defronte do sistema nesses momentos, ocorre aqui o rompimento efetivo do paradigma da estrutura cliente-servidor. Numa rede P2P, o usuário encontra outro usuário e não apenas os recursos que foram um dia disponibilizados por ele em algum servidor do centro da rede. A mudança ocasionada pela relação conteúdo-pessoa proporciona uma série de possibilidades pedagógicas a serem exploradas pelos sistemas P2P que vierem a ser desenvolvidos com o foco da colaboração entre pares. Essas possibilidades pedagógicas são certamente marcadas pela modificação técnica, que é “ipso facto uma modificação da coletividade cognitiva, implicando novas analogias e classificações, novos mundos práticos, sociais e cognitivos.” (Levy, 1993).
Basicamente, estamos falando que as redes de colaboração P2P formam o que Levy chama de tecnologias da inteligência. Permiem o compartilhamento e o armazenamento da informação de tal forma que a rede em questão possa ser vista como um elemento de inteligência coletiva — não apenas um fórum de discussão e encontro. Surge um mecanismo tecnológico que permite o desenvolvimento do pensamento. É uma espécie de interface mediada pela tecnologia, como uma nova forma de articular o raciocínio, desenvolver a articulação entre elementos icônicos que levam à potencialização de redes cognitivas, permitindo uma nova manipulação e decodificação dos fluxos de informação e o desenvolvimento de uma espécie de memória a longo prazo. Pode-se entender essa memória como sendo um pedaço do ciberespaço onde “a informação não se encontraria empilhada ao acaso, mas sim estruturada em redes associativas e esquemas. Estes esquemas seriam como ’fichas mentais’ sobre as situações, os objetos e os conceitos que nos são úteis no cotidiano” (Levy, 1993).
Falar em elementos emergentes é falar de pequenas estruturas de dimensão local ao contexto no qual estão inseridas e que podem gerar um macrocomportamento observável. Segundo Johnson (2003), a emergência é composta pelo movimento das regras de baixo nível para a sofisticação do nível mais alto. As redes P2P, como vemos, são redes que têm por objetivo o estímulo e desenvolvimento da colaboração em grupos locais. No entanto, o padrão de utilização da tecnologia por esses grupos locais começa a formar uma tendência emergente, ou seja, a colaboração online estimulada pelos dispositivos técnicos locais estimula um macrocomportamento que poderia ser observado no momento em que se inicia o cruzamento das redes locais de colaboração, no momento em que pares de um determinado grupo local iniciam a troca de informações com outras redes de colaboração e tornam-se verdadeiros hubs – pontos de conexão (Barabasi, 2002) entre redes, permitindo a ampliação e efetivação desse macrocomportamento, que em hipótese alguma pode ser previsto ou antecipado por algum mecanismo regulador central.
Mas, também segundo Johnson (2003), “a complexidade sem adaptação é como os intricados cristais formados por um floco de neve: são bonitos, mas não têm função.” Portanto, a mera conexão entre diversos grupos locais ou mesmo a conexão entre diversos pares numa rede só tem sentido quando se busca o compartilhamento de uma realidade comum, seja como objeto de estudo, seja como fórum de discussão para alternativas a problemas classicamente estabelecidos, seja como fonte de pesquisa de uma determinada mídia. É essa adaptação ao contexto, às inúmeras variáveis que fazem a mediação entre a colaboração efetiva e a mera conexão entre pares que se torna a referência do trabalho pedagógico em se tratando da colaboração em redes P2P.
Referências
Steven Jonhson – Emergências
Andy Oram – Redes P2P
Mais:
Dalton Martins e Hernani Dimantas assinam, no Caderno Brasil, a coluna Sociedade em Rede. Edições anteriores:
A cultura hacker
Confundidos propositalmente, pelo pensamento conservador, com invasores de rede, hackers somos todos os que agimos para que informações, cultura e conhecimento circulem livremente. E esta ética de cooperação, pós-capitalista, vai transbordando do software livre para toda a sociedade
Em busca da ativação
Desenvolvido desde 2002, método simples e instigante quebra barreiras em relação às redes sociais on-line e cria, em comunidades e instituições, ambientes de colaboração e compartilhamento. Prática revela como é tênue a diferença entre a presença “virtual” e a que se dá “em carne e osso”
Caminhos da revolução digital
Apesar de dominante, o capitalismo não consegue mais sustentar a lógica de acumulação e trabalho. Seus principais alicerces ? a economia, a ética burocrática e a cultura de massas ? estão em crise. Com a internet florescem, em rede, novas formas de produzir riquezas, diálogos e relações sociais
O desafio do Open Social
Em nova iniciativa supreendente, o Google sugere interconectar as redes sociais como Orkut, Facebook e Ning. Proposta realça sucesso dos sistemas que promovem inteligência coletiva e convida a refletir sobre o papel da individualidade, na era da colaboração e autorias múltiplas
Multidões inteligentes