17 de dezembro de 2004

Notas sobre peer-to-peer, propriedade intelectual, e a liberdade de comunicação na Internet

O professor Edward Felten é uma dessas figuras pouco conhecidas do grande público, mas que vem desempenhando um papel fundamental no estudo sério do impacto da Internet sobre aquilo que conhecemos hoje como propriedade intelectual. O conceito de propriedade intelectual, através dos mecanismos de copyright e patentes, surgiu como uma forma de dar garantias aos autores de novas idéias, protegendo-as contra abusos, de forma a encorajar a publicação de novas invenções. O debate sério hoje centra-se não sobre a questão da propriedade intelectual em si -- cujo valor é notório -- mas dos abusos que atual sistema legal incorporou ao longo dos anos para defender os interesses políticos e econômicos de poucos. Estas restrições ameaçam hoje a própria liberdade de comunicação, além de terem efeito negativo sobre a economia, pois elas se tornaram barreiras à inovação, ao invés de encorajá-la.

Um dos alvos preferidos das associações de empresas de entretenimento, particularmente a MPPA (que reúne os estúdios de Hollywood) e a RIAA (que reúne os selos de música) são as redes de comunicação peer-to-peer. Desde o surgimento do Napster, e com a disponibilidade de banda larga em abundâncias, estas associações tem lutado uma guerra sem tréguas contra as redes de pirataria. O problema é que, ao ver seu próprio modelo de negóciosendo tornado obsoleto pelas novas possibilidades técnicas, elas apontam suas armas muito mais embaixo: a solução é restringir o direito de comunicação, impondo barreiras técnicas e legais ao que pode ser feito na Internet.

No caso das aplicações de transferência de arquivo peer-to-peer, o problema é que elas não apenas mecanismos de pirataria, como querem alguns, mas simples ferramentas de cópia genéricas, muito úteis para outras aplicações como distribuição legal de programas, distribuição de cópias de segurança de arquivos, e até mesmo a distribuição de filmes e músicas de domínio público. O problema é que não há nada que possa ser embutido em um sistema dessa natureza que permita diferenciar, do ponto de vista estritamente técnico, o que é um conteúdo legal ou não. São todos eles apenas sequências arbitrárias de bits e bytes, totalmente transparentes em seu conteúdo ou intenção para o meio de transporte.

Recentemente, uma aplicação popular -- o BitTorrent -- tornou-se o alvo da MPAA, que está processando os sites que armazenam os indicadores de conteúdo. Note bem: o indicador de conteúdo não é um arquivo que possa ser protegido por copyright, é apenas um ponteiro para um local da rede onde alguém colocou aquele conteudo à disposição. A base legal para processar o servidor de trackers é bastante limitada. Mas mesmo assim, a MPAA vai tentar, com seu arsenal jurídico, fechar estes sites.

É neste ponto em que retornamos ao professor Felten. Recentemente, ele publicou um pequeno programa de exmple: uma aplicação completa, cliente e servidor P2P em menos de 15 linhas em Python. O código foi rapidamente publicado via Slashdot, onde disparou repercussões técnicas interessantes. Uma versão com apenas 9 linhas em Perl foi publicada a seguir, e uma outra, ainda menor, de apenas 6 linhas em Ruby, também foi postada.

O argumento do Prof. Felten é que uma aplicação tão fácil de implementar quanto estas não pode ser razoavelmente proibida. A verdade é que a tecnologia deu um salto que invalida o modelo de negócio de todo um setor empresarial. O telégrafo foi substituído pelo telefone, e o telex pela Internet. Empresas que se apoiavam na tecnologia antiga fecharam, enquanto outras surgiram para ocupar o espaço. Da mesma forma, oos grandes estúdios precisam rever seu próprio modelo de negócio. A possibilidade de produzir e distribuir conteúdo de qualidade a baixo custo possibilita o surgimento de um novo modelo de negócios. Estúdios menores podem produzir uma nova banda por um custo muito inferior, e operar em uma escala menor.

Um efeito colateral interessante deste processo é a possibilidade de reduzir o impacto da massificação e do monopólio cultural. No segmento musical, este fenômeno já é possivel. No entanto, do ponto de vista técnico, a indústria do cinema tem muito mais a perder, pois o volume de investimentos necessários -- tanto em termos financeiros como humanos -- para produzir um filme de boa qualidade é muito superior àquela que pode ser obtida pela dedicação de uma banda de rock. Assim, enquanto no cenário musical a fragmentação é possível, e até interessante, no caso do cinema há um desafio muito maior para ser superado. No entanto, nada disso justifica a guerra aberta contra as aplicações peer-to-peer, e nada justifica cercear o direito de comunicação através da Internet.

11 de dezembro de 2004

Novidades: Sistema de Workflow

O blog ficou um bom tempo sem atualização, e por um bom motivo. No momento, estou trabalhando na implementação de uma aplicação Web profissional para gerenciamento de processos, ou seja, workflow. O produto está sendo escrito em Python, e utiliza o CherryPy como servidor de aplicação Web. Para quem programa em Python, ou para aqueles que procuram uma ferramenta leve para aplicações Web, sugiro analisar o CherryPy. O resultado final será publicado como um programa aberto, sendo que a oportunidade de negócios está na customização do sistema para os processos de um cliente específico.

Há várias formas de modelar aplicações de workflow, sendo que as mais difundidas são associadas a alguma metodologia ou notação proprietária, o que dificulta a sua aplicação em um ambiente de software aberto. Ateoria fundamental é bastante consistente, mas existem poucos recursos online que a apresentem de uma forma acessível. A estrutura escolhida se baseia em um formalismo matemático poderoso, que são as redes de Petri. Alguns sistemas abertos de workflow se baseiam em redes de Petri. Uma boa referência em PHP é o artigo An activity based Workflow Engine for PHP. O sistema proposto tem algumas particularidades, mas serve como uma boa introdução ao tema.

No momento, o sistema ainda não tem uma documentação apresentável, apesar de todo cuidado com a estrutura do código fonte. O projeto se baseia em uma filosofia de desenvolvimento rápido: TDD, ou Test Driven Development. A parte mais difícil em adotar o TDD foi descobrir uma forma de separar, ou desacoplar, os módulos. A tendência ao se escrever código com rapidez é usar recursos escusos, como variáveis globais e código estilo spaghetti. A metodologia TDD tem uma vantagem: ela não se presta a esse tipo de código, que acaba assim não tendo muita chance de aparecer no projeto.

Espero que até o começo de janeiro a base do sistema já tenha atingido um patamar de estabilidade suficiente para a produção de um release com qualidade beta, pelo menos. Dúvidas e comentários são bem vindos -- basta mandar um email ou deixar um comentário no blog.

Aplicações Web - Editores de documentos via Internet

Nestes últimos dois meses, colecionei alguns links interessantes, mas não tive ainda tempo de analisar ou escrever nada sobre eles. Particularmente hoje, encontrei uma série de referências sobre editores para conteúdo online. Quem usa webmail, blogs e wikis sabe o quanto é limitada a interface tradicional - uma caixa de entrada de texto, sem possibilidades de formatação ou de comandos mais avançados. A novidade é que há uma série de ferramentas sendo desenvolvidas, algumas das quais muito promissoras:

  • Kupu é um editor de textos multiplataforma (compatível com Internet Explorer e com Mozilla/Firefox). O site contém um demo interativo.

  • O Jalopy é um projeto, baseado no Kupu, para um editor de documentos interativo, multiplataforma. Inclui alguma funcionalidade própria de gerenciamento de conteúdo.

  • Silva (não, nã é o vizinho do Pato Donald) é um CMS, baseado em Zope, que usa o Kupu. Não tive tempo ainda de verificar os detalhes, mas o produto parece bem estruturado.

  • Tibia é um projeto novo, anunciado na c.l.py. É um script CGI que pode ser instalado em um site pré-existente, e que permite editar as páginas de forma estruturada (baseada no modelo DOM).

  • Finalmente, quem precisa apenas de um pequeno "hack" para ativar editores externos usando o Mozilla/Firefox pode usar o mozdev. Não tem a funcionalidade do Kupu, mas é útil par aalgumas situações.

27 de novembro de 2004

A nova revolução

Recebi esta semana um artigo interessante do Jakob Nielsen: Undoing the Industrial Revolution. Para quem não conhece, o Sr. Nielsen é um dos maiores especialistas em usabilidade, ou seja, o estudo científico de como tornar a tecnologia mais acessível e fácil de usar, principalmente para quem não tem conhecimento técnico.

O argumento do artigo repete um ponto que eu já tive oportunidade de discutir: a nova revolução, ou seja, a revolução da Internet, marca o fim de uma era que começou com a Revolução Industrial. Até bem pouco tempo atrás, a receita para o poderio econômico era relativamente simples: massificação, com o ganho de escala industrial trazendo o retorno financeiro desejado.

Atualmente, já há inúmeros sinais de que uma nova forma de trabalhar está surgindo. A tecnologia avança no sentido de permitir a produção de bens e serviços altamente customizados a um preço extremamente competitivo. A customização não se opõe à industrialização em massa, mas permite que novos competidores entrem no mercado oferecendo um produto melhor.

Ainda acho que há muita coisa para acontecer antes que o cenário apresentado pelo artigo se materialize. No entanto, vale a pena torcer. Me parece que um mundo com empresas menores, mais eficientes e mais localizadas, ficará mais próximo da escala humana, e poderá ser uma boa alternativa para a melhoria da qualidade de vida.

1 de novembro de 2004

Adeus tabelas, viva CSS: a evolução do Web design

Desde que eu recomecei a estudar o estado da arte em aplicações Web, um dos temas de maior importância que pude ver foi o crescimento do uso de desenho de páginas web baseadas em CSS, ou "Cascading Style Sheets". As páginas desenhadas usando corretamente os recursos de HTML+CSS tem várias vantagens: o código fica menor, sendo carregado e desenhado com mais rapidez no browser, economizando banda e tempo do usuário. Nesta filosofia de trabalho, não se usam tabelas para definir o layout do site; apenas divisões e estilos CSS. O código resultante fica mais limpo e fácil de manter. Outra grande vantagem está na separação entre a parte visual e o conteúdo do site: é possível mudar o visual do site totalmente sem ter que reescrever o conteúdo da página. Para quem desenvolve aplicações dinâmicas (com ASP ou PHP, por exemplo), isto permite que o visual da página seja modificado sem alterar o programa que gera o conteúdo.

O site css Zen Garden: The Beauty in CSS Design é uma demonstração viva do poder da combinação HTML+CSS. O mesmo site pode ser visto com diferentes folhas de estilo, gerando visuais completamente diferentes. Se você ainda não conhece, visite o site e clique nos exemplos, para ter uma noção da variedade de design que é possível. Os exemplos destacam algumas das vantagens do CSS, e desbancam alguns mitos que ainda persistem:

  • Mudanças radicais de layout. No Zen Garden, algumas folhas de estilo colocam a coluna auxiliar to lado esquerdo. Outros colocam do lado direito.
  • É possível usar gráficos em CSS. Todas as imagens de fundo são especificadas como parte da folha de estilo. Isso inclui imagens de fundo de colunas, preenchimentos automáticos, e desenhos altamente sofisticados de bordas para colunas. Não é necessário codificar estas imagens no código HTML, o que facilita a sua modificação posterior.
  • Uso de colunas flexíveis. As colunas em CSS não são como as colunas de uma tabela. Elas são flexíveis, e podem se ajustar de forma muito mais natural à largura da tela. Em inglês, o termo é conhecido como liquid layout, e é uma das tendências de design atuais.
  • Compatibilidade entre browsers diferentes. Mesmo com todas as particularidades, e com problemas conhecidos (sejam bugs, ou apenas diferentes interpretações das normas do W3C), é possível desenhar sites que aparecem com a mesma formatação em uma ampla gama de browsers. O código escrito à moda antiga (entremeado dentro do conteúdo da página) é quase impossível de ajustar.

Se o desenho baseado em CSS tem tantas vantagens, porque é que ele ainda não é amplamente utilizado? Há várias razões para isso, nenhuma delas boa suficiente para que esta situação se mantenha:
  • Hábito. Muita gente que está no mercado já escreve páginas Web há anos, e não vê motivo para mudar ou aprender novas técnicas.
  • Falta de disciplina. O desenho baseado em CSS exige uma disciplina própria, separando as atribuições do artista gráfico e do programador. Há uma grande tentação de embutir formatação no código que gera as páginas em uma aplicação Web; isto frequentemente previne o artista gráfico de conseguir os efeitos desejados. É preciso disciplina, e uma interface clara para que o trabalho seja complementar, e não ocorram interferências prejudiciais.
  • Falta de designers treinados. Poucos designers conhecem CSS profundamente, e não se sentem confortáveis com o processo muitas vezes não-visual de escrever o código em CSS. No entanto, usando as ferramentas adequadas, e com um pouco de treinamento, é possível superar este problema. As vantagens em termos de liberdade de design compensam as dificuldades de adaptação.
  • Ferramentas defasadas. Este talvez seja o motivo mais sério, e a principal razão pela qual muitas páginas continuam sendo escritas "à moda antiga". Os editores de páginas Web mais tradicionais não oferecem um ambiente que encoraje a separação de conteúdo e de estilo. Pelo contrário, é muito fácil sucumbir à tentação de selecionar elementos visuais e aplicar o estilo diretamente. O código resultante costuma ser complicado, lento e pesado, tanto em termos de tempo de transmissão como de renderização no browser. Finalmente, é quase certo que este tipo de página só será visualizada corretamente em um único tipo de browser, que é aquele que o autor utilizou para testar o visual (na maioria das vezes, o Internet Explorer).


Apesar de todos estes problemas, o uso do desenho baseado em CSS vem crescendo por seus próprios méritos. No caso de aplicações dinâmicas, o seu uso se torna quase uma exigência natural, uma vez ultrapassada uma fase natural de adaptação ao modelo de desenvolvimento. A economia de banda é outra vantagem importante, bem como a possibilidade de atender um universo maior de clientes, com telas variando desde o "pocket" até dimensões de 1280x1024 ou superiores, com um design que se não é idêntico, pelo menos é consistente, e preserva a intenção do designer.

Finalmente, para os céticos de plantão, uma amostra dos benefícios em um caso prático. A equipe da Atípico redesenhou a página do Terra usando CSS. Os resultados imediatos foram uma redução de 50% no tamanho total da página e consequentemente, no uso de banda e no tempo de carga da página (que caiu de cerca de 16 segundos para menos de 10 segundos). Se todo o benefício estético não vale nada, que tal um leve apelo para o bolso?

29 de outubro de 2004

Leve a Internet para a sua empresa

É muito comum, hoje em dia, ouvir empresários dizendo que querem "levar suas empresas para a Internet". Trata-se de um engano. Na visão destas pessoas, a Internet é algo parecido com as Páginas Amarelas: simplesmente um lugar para anunciar. Neste sentido, quanto maior e mais vistoso, melhor. Mas a Internet não funciona assim.

A Internet é acima de tudo comunicação. E, onde existe comunicação, surgem comunidades. Para se ter sucesso em um empreendimento na Internet, não basta colocá-lo em uma página, por mais bem desenhada que esta seja. É importante participar, levando a cultura da Internet para dentro da empresa.

Se você quer que a sua empresa seja bem sucedida na Internet, siga alguns conselhos básicos para começar:

  1. Encontre a comunidade. Os seus clientes usam a Internet para muitas coisas. Tente descobrir o que eles fazem: quais sites frequentam, e principalmente, como eles conversam. Há comunidades que se comunicam por e-mail, outras por meio de ferramentas de instant messaging, como o MSN e o ICQ. Identifique os assuntos e temas relevantes; se for necessário, trate cada segmento de forma particular
  2. Participe da comunidade. Organizar uma lista de contatos por email não basta. Acompanhe as discussões, responda a dúvidas, troque idéias. Acima de tudo: participe como pessoa, não como empresa.
  3. Siga as normas da comunidade. Mantenha uma postura ética em suas respostas. Deixe claro qual a sua relação profissional, enquanto membro da comunidade. Respeite seus concorrentes, e acima de tudo, respeite todo e qualquer outro membro da comunidade.
  4. Seja persistente. O seu compromisso com a comunidade não pode ser um engajamento para as horas vagas. É o seu próprio negócio. Lembre-se: nem todo mundo que entra em uma loja vai fazer uma compra, mas o bom lojista presta atenção em todos, e não deixa ninguém sem ser atendido.
As normas acima parecem simples, mas trazem grandes benefícios. Em primeiro lugar, você terá um entendimento melhor da sua comunidade, e das reais necessidades dos seus clientes. A sua presença contínua transmitirá uma sensação de confiança: seus clientes saberão que podem contar com você. E acima de tudo, mesmo que a lista tenha regras claras contra mensagens de cunho eminentemente comercial, você terá diversas oportunidades para deixar o seu recado de uma forma muito efetiva.

A questão do spam

Muitos empresários se queixam que seus emails são taxados de spam, apesar de alguns cuidados básicos, como enviar somente para pessoas cadastradas. Isso não deveria ser surpresa. As mensagens são padronizadas, e são enviadas em massa, usando servidores desconhecidos ou não devidamente cadastrados para envio de mensagens. Na raiz do problema do spam, está uma questão econômica: é muito fácil sucumbir à tentação de enviar milhares de emails em um só clique, a custo praticamente zero. No entanto, a efetividade desta abordagem é cada vez mais baixa, e compromete a imagem da empresa.

A abordagem das comunidades permite solucionar o impasse do spam. Ao invés de enviar milhares de mensagem de uma única vez, sem aviso prévio para falar de uma promoção ou de um evento, faça o contrário. Opere junto à comunidade de maneira contínua. Com raras exceções, mesmo as listas de email mais fechadas toleram anúncios que sejam interpretados como sendo de interesse público. Assim, se a sua empresa está participando de uma feira ou promovendo o evento, anuncie o fato na lista, de forma ética e personalizada. Dependendo da natureza da lista, sua oferta será amplamente discutida e debatida em público, gerando um efeito multiplicador positivo, sem comprometimento de imagem. O impacto de um anúncio feito desta forma é muito maior do que o envio de uma mensagem que, para os seus clientes, surge de forma inesperada e sem nenhum interesse particular.

Ser um bom membro da comunidade significa mais do que uma oportunidade de fazer novos negócios. Significa inserir sua empresa no universo dos seus clientes, e ter a oportunidade de um contato que de outra forma seria impossível. Significa, acima de tudo, levar a Internet para dentro de sua empresa, e não apenas colocar um anúncio de sua empresa na Internet.

27 de outubro de 2004

Google: como funciona, como utilizar, e como colocar seu site no topo

Estou organizando um curso sobre Google para o Instituto Online, uma empresa de Belo Horizonte especializada em cursos de tecnologia. O Instituto Online tem uma proposta de trabalho ambiciosa, que inclui desenvolvimento de cursos e materiais específicos para ensino à distância.

A idéia do curso de Google surgiu a partir da observação cotidiana. Praticamente todo mundo sabe o que é o Google, e utiliza seus recursos básicos com bastante frequência. Hoje, o Google é responsável por cerca de 75% de todos os acessos indiretos (via link) a sites na Internet. Porém, as pessoas não sabem como utilizar melhor os recursos do Google para resolver suas próprias pesquisas; e principalmente, os proprietários de sites muitas vezes não sabem como fazer para posicionar seus próprios sites de uma forma melhor no Google.

A importância de saber posicionar um site no Google é inegável. A pesquisa típica é simples: cerca de 1,5 palavra, em média. Quase ninguém usa a busca avançada -- em geral, digita-se uma ou duas palavras e ordena-se a busca. E finalmente, quando a lista de resultados é apresentada, o usuário em geral clica no primeiro ou no segundo link; outros links na primeira página ainda tem uma chance, mas dificilmente o usuário pede para ver a segunda página. Aparecer na primeira página é essencial para quem deseja ser encontrado.

Para o curso, optamos inicialmente por ensinar algumas coisas básicas: como funciona o Google, e como ele pode ser utilizado de forma eficiente. Sem este conhecimento básico, é difícil aplicar as regras básicas de otimização de indexação. Finalmente, trataremos das técnicas para melhorar o posicionamento, ou ranking, do site. É importante destacar que este trabalho será apresentado respeitando os limites éticos; ou seja, o objetivo é apenas ensinas as técnicas legítimas, e mostrar os problemas que os abusos do Google (como o Google Bombing) podem causar.

Como sempre, listamos alguns links interessantes sobre o assunto. Todos os links são em inglês. Para quem quiser mais detalhes (em português), que tal se inscrever no curso, assim que ele for anunciado?

  • Google Information for Webmasters: Esta é a referência básica, e fica no próprio Google. Estranhamente, poucas pessoas que procuram informações sobre o assunto sabem que esta página está lá, dentro do próprio Google. Leitura obrigatória.

  • Good Google Listing: Lista dicas para obter um melhor posicionamento na lista de resultados do Google.

  • Google's PageRank Explained (and how to make the most of it): Explica como o algoritmo de PageRank funciona, de acordo com a interpretação externa dos resultados. Não é uma análise oficial, mas apresenta alguns conceitos interessantes de boa aplicabilidade prática.

  • Score Higher in Google Search Engine (and why Google is saving the web): Artigo que, além de apresentar técnicas de otimização interessantes, conta um pouco da história do Google, e das razões pelas quais o conteúdo da página -- leia-se o texto, e os links nela colocados -- são mais importantes para a boa indexação do que qualquer outro elemento individual.

  • Google Dance - The Index Update of the Google Search Engine: Artigo que apresenta algumas informações interessantes sobre o funcionamento do Google. O nome Google Dance se referia uma propriedade interessante do antigo algoritmo de reindexação do Google, que rodava uma vez por mês e causava uma instabilidade nas buscas. O algoritmo atual é contínuo, e não apresenta as mesmas oscilações. Mesmo assim, o artigo ainda é relevante, e apresenta dados interessantes sobre a estrutura do Google.

  • A Survey of Google's PageRank: Série de artigos mais aprofundados sobre o algoritmo de PageRank.

13 de outubro de 2004

A Microsoft e a disputa pela busca na Internet

Ao que parece, o mercado de ferramentas de busca ainda nem começou a esquentar. A Microsoft está desesperadamente tentando recuperar o tempo perdido. Recentemente, veio à tona uma história interessante (e com um lado muito engraçado): a Microsoft tentou, em 1995, comprar a Excite, quando esta ainda era uma pioneira na busca Web, e havia acabado de fechar uma parceria importante com a Netscape. Alguns executivos da Microsoft declaravam que as pessoas não iriam precisar de busca na Internet; depois de encontrar o site desejado uma única vez, guardariam o endereço em seus 'bookmarks'. Hoje, é fácil rir em restrospecto, mas é bom lembrar que nove anos já se passaram, e muitas boas apostas da época deram em nada...

Agora, a briga movimenta muitos setores. O Steve Ballmer declarou recentemente que o Altavista teria sido a "busca 1.0"; o Yahoo, a "busca 2.0"; e o Google, a "busca 3.0". É uma admissão nada ruim para uma empresa que historicamente só acertou a mão depois da versão 3.0 (alguém sequer se lembra do Windows 2.0?). Além disso, a Microsoft agora luta para mostrar que a busca não é um negócio economicamente auto-sustentável. É impressionante como eles lutam pesado. Esta declaração, por exemplo, tem como alvo não a tecnologia, ou os usuários do Google; ela tem como alvo os investidores que apostam no crescimento do Google. Declarações como esta buscam minar a capacidade financeira do concorrente, esvaziando suas ações. É claro que eles não ficam sozinhos nessa -- alguns comentaristas recentemente vem indicando que a Microsoft perdeu o timing da busca, e isso tem impacto financeiro para eles também. Por isso, não há como isolar a guerra pelo mercado de busca da própria fase que a Microsoft vive.

Um grande império como a Microsoft só cresce e se sustenta com uma luta pesada e paranóica contra a concorrência. Mas a longo prazo, a própria teoria da evolução se encarrega de produzir concorrentes cada vez mais bem preparados. Uma coisa que a Microsoft não aprendeu ainda é que, em termos evolutivos, um organismo atinge a sua maioridade quando aprende a conviver bem com o ecosistema do qual faz parte. Um vírus extremamente agressivo mata seu hospedeiro, e isso não é bom para a sua sobrevivência. Com o tempo, o vírus se torna mais atenuado, até que se torne simplesmente um oportunista -- capaz de provocar a doença em casos específicos de baixa resistência, mas também capaz de sobreviver incubado anos a fio sem causar qualquer sintoma.

Para sobreviver, a Microsoft precisa que um mercado exista, e que hajam hospedeiros dispostos a tolerar sua presença, sustentando-a financeiramente. Sua postura paranóica ajudou-a a se posicionar firmemente como a líder. Por outro lado, seu isolamento crescente cria uma situação onde seus concorrentes se tornam cada vez mais preparados para atacá-la. Durante muitos anos, a Microsoft teve muito claro para si quem eram seus ' hospedeiros', e ajudou-os com boas ferramentas, documentação, e suporte. Agora, ela retorna para estes mesmos clientes com ameaças veladas de propriedade intelectual. Não é um parceiro que ninguém queira ter neste momento -- especialmente quando estão em jogo as próprias informações destes clientes, as mesmas que eles desejam ver pesquisadas e classificadas.

17 de setembro de 2004

O dilema da criatividade

A criatividade é um dos dilemas do mundo moderno. Durante muito tempo, acreditou-se que o potencial criativo fosse algo de origem extraordinária, um presente dado a poucas pessoas como um dom especial. Com o desenvolvimento da psicologia, a criatividade passou a ser um dos temas de estudo, em especial nas décadas de 1950 e 1960. Um dos problemas inerentes ao estudo do pensamento criativo é a dificuldade em quantificá-lo. A história do estudo formal da criatividade mostra como esta dificuldade, aliada a uma mentalidade de conformismo social tipicamente americana, levou a uma tentativa de redução da criatividade a uma simples habilidade que pode ser aprendida ou desenvolvida, de forma independente de outros traços da personalidade.

Infelizmente, a questão não é tão simples como pode parecer. É claro que o processo criativo não é um presente dos deuses reservado para poucos eleitos; ele pode ser fomentado e desenvolvido em um ambiente adequado. Porém, separar a criatividade do processo mental como um atributo estritamente independente é impossível. O pensamento criativo pressupõe um grau de liberdade que não pode conviver adequadamente com regras sociais ou comportamentais rígidas. Assim -- mesmo que o processo criativo possa ser domado e exercido dentro de um ambiente restrito -- ele implica em liberdade e capacidade de explorar limites.

A criatividade torna-se então um dilema, à medida em que é necessária para a evolução tecnológica e social da humanidade, mas traz consigo os riscos de um processo que não se enquadra totalmente dentro das regras sociais. Em um ambiente empresarial, o exercício da criatividade é sempre arriscado. Trata-se de forçar limites, pensar "fora da caixa", trazendo para o ambiente interno elementos novos que podem causar tensão por ameaçar a própria estabilidade do meio. Fechar os olhos para estes elementos não resolve o problema; apenas torna o sistema como um todo mais resistente à mudança.

A criatividade também lida com os limites entre o desconhecido e o conhecido. O que não existe -- o desconhecido -- tem um valor intrínseco alto. Aquilo que já é conhecido perde este valor. A revelação do ato criativo contém então a sua própria derrota; através dela, o que possuía valor deixa de possui-lo, por passar a fazer parte de uma experiência comum. Este fator colabora para que o ato criativo muitas vezes seja desprezado, em termos profissionais, como a simples geração de palpites ou idéias mal acabadas. No entanto, sem o insight precioso da criatividade, as coisas ficariam como eram antes. Para que algo aconteça, é preciso que o processo de criação venha primeiro. Como encorajar processo criativo, se o seu próprio resultado é tantas vezes desvalorizado? A resposta a este dilema é a chave para libertar o potencial da criatividade no mundo dos negócios.

13 de setembro de 2004

A evolução do design na Web

Depois de uma evolução inicial acelerada, a tecnologia dos browsers ficou praticamente estagnada nos últimos anos. Recentemente, novas aplicações Web começaram a explorar os limites desta tecnologia com resultados surpreendentes. A aceitação das novas aplicações reabriu o interesse pelo desenvolvimento da tecnologia dos browsers, e uma nova fase de evolução e disputa pelo mercado está sendo anunciada.
É cada vez mais óbvio que as aplicações Web estão lentamente tomando conta do dia a dia pessoal e profissional. Com a exceção de atividades em que a interatividade gráfica é essencial (por exemplo, programas de desenho ou de editoração gráfica), já é possível fazer hoje, via Internet, muita coisa que até bem pouco tempo exigia uma aplicação instalada localmente. Isso é facilmente explicável, porque passamos boa parte do nosso dia nos comunicando. A comunicação é a atividade essencialmente humana; mais do que o raciocínio intensivo, é a comunicação que mais toma espaço nas nossas vidas. E a nova geração de aplicações Web leva este fator em conta, trocando um pouco da interação com o micro por uma outra, muito mais rica, com outras pessoas através da rede.

Avanços significativos vem ocorrendo recentemente na área do projeto visual de aplicações Web. Novas técnicas de programação em Javascript tornaram as aplicações muito mais interativas. O GMail é um exemplo disso, mas há inúmeros outros serviços indo na mesma direção. Da mesma forma, muitas práticas incômodas estão sendo lentamente abandonadas. Por exemplo, os sites mais populares praticamente não usam mais 'pop-ups', aquelas incômodas janelinhas que entopem a tela do usuário. O uso de aplicações interativas em Flash é outro sinal dos tempos: os grandes sites agora usam os recursos visuais e auditivos com mais parcimônia. O mesmo não pode ser ditos de inúmeros outros sites, que continuam usando este tipo de recurso, mas que só vão conseguir afugentar mais e mais pessoas.

Curiosamente, a tecnologia que está sendo utilizada hoje para as aplicações Web é basicamente a mesma que já estava disponível há três ou quatro anos atrás. Durante a fase de transição onde o domínio da Microsoft se firmou, a evolução foi acelerada, mas se estabilizou a partir do momento em que o Internet Explorer se tornou o browser dominante. A estabilidade permitiu uma evolução lenta, associando experiências práticas e muita criatividade para desenvolver um novo modo de entender as aplicações Web. Porém, os excelentes resultados de hoje carregam no seu interior os limites da tecnologia atual. Por isso, novos desenvolvimentos estão sendo anunciados. Podemos indicar algumas vertentes:

  • O What WG, ou Web Hypertext Application Technology Working Group é um grupo que procura desenvolver extensões às linguagens usadas para desenvolvimento Web (HTML, CSS e JavaScript) visando facilitar o desenvolvimento de novas aplicações Web. O grupo opera paralelamente à W3C (World Wide Worb Consortium), com o objetivo de acelerar o desenvolvimento do padrão, mas com a intenção de submetê-lo à aprovação final assim que obtiver uma base sólida.
  • A Macromedia aposta no Flex, uma extensão do Flash orientada para a producão de interfaces visuais ricas. Do Flash, o Flex herda a interatividade e os aspectos mutimídia, mas passa a incluir também a preocupação com o desenvolvedor de aplicações. Infelizmente, o Flex carrega também o preconceito que existe, da parte dos desenvolvedores 'sérios', contra o Flash, que ficou marcado como uma tecnologia de resultados bonitinhos mas incômodos e pouco efetivos.
  • O W3C tem suas próprias apostas, e as principais são XForms e o SVG. O SVG parece já ter nascido meio morto, pois a predominância do Flash torna difícil que um substituto possa se impor. Já o XForms entra na briga direta com o WebForms, defendido pelo WhatWG.
  • E a Microsoft... não poderia ficar de fora desta briga. A aposta da Microsoft não está na Web como a conhecemos hoje; está no LongHorn, a nova geração do Windows, que utilizará extensivamente uma combinação de XML e comunicação em rede embutida no sistema para tentar dominar de vez este mercado com uma tecnologia proprietária.


Vale a pena falar mais um pouco da Microsoft. Um comentário recente anunciou, de forma bastante contundente, que a Microsoft perdeu a guerra das APIs -- e por extensão, pode perder a guerra pelo controle da Web. É uma afirmação bombástica, mas que vem de fonte segura. O autor, Joel Sposky, é um ex-engenheiro da Microsoft e cronista reconhecido na mídia especializada. Os seus argumentos são igualmente fortes. Ele acredita que a Microsoft não conseguirá sustentar sua posição dominante em um mercado baseado em aplicações Web. Ao perceber isso alguns anos atrás, a empresa interrompeu o desenvolvimento do Internet Explorer, e começou o projeto do que hoje é chamado de Longhorn. Porém, o timing parece ruim para a Microsoft. Com criatividade, os desenvolvedores superaram as limitações dos browsers atuais e conseguiram mostrar o poder das aplicações Web. Por outro lado, o Longhorn vai ficando cada vez mais longe. Nada está certo ainda, mas há uma possibilidade alarmante para a Microsoft, de que ela chegue ao mercado tarde demais, em um mercado já acostumado a soluções abertas, e não consiga mais operar uma transição em larga escala para o Longhorn. A resposta para isso, só o tempo dirá.

9 de setembro de 2004

Programando com ferramentas livres

Desde 1981, estive envolvido com programação de computadores. Tive oportunidade de desenvolver trabalhos em áreas distintas, desde software básico até aplicações comerciais, e trabalhar com várias linguagens. Porém, nos últimos dois anos, estive afastado da área técnica, trabalhando com outros tipos de coisa. Continuei acompanhando o desenvolvimento de várias tecnologias, apenas por curiosidade. Desde março, estou voltando para a minha área de origem, que é a programação pura (não análise de sistemas, apesar de ser uma necessidade; mas não há mal nenhum em ser um bom programador). Recentemente, comecei a escrever alguns programas comerciais novamente. Decidi optar por ferramentas livres, devido a algumas questões éticas que considero importantes. Ainda estou engatinhando na escolha do meu kit de ferramentas, mas já pude observar alguns fatores interessantes.

Pela sua própria natureza, há setores da área de desenvolvimento de sistemas que são muito bem servidos de ferramentas livres. Por exemplo, há inúmeras linguagens interessantes, com suporte para múltiplas plataformas. Python e Perl são as mais conhecidas e populares da lista. Ruby e Lua são outras opções que tem ganhado bastante espaço (a propósito, Lua é uma linguagem brasileira, desenvolvida na PUC/RJ mas que já é utilizada em projetos no mundo todo). Todas estas linguagens tem em comum o fato de se afastar bastante do modelo de programação ditado por outras linguagens tradicionais como C, C++ e Java. Elas são interpretadas, permitem a prototipação rápida, são dinâmicas e na sua maioria, muito flexíveis no que diz respeito a tipagem dos objetos. Nem por isso estas linguagens tem desempenho ruim. Primeiramente, o tipo de construção que elas permitem favorece a busca da eficiência no design. O programador fica livre de cuidar de detalhes como administração de memória para se concentrar no funcionamento do programa, e por isso, o desempenho é favorecido. Outro fator importante é a qualidade das bibliotecas de suporte, que são altamente otimizadas, e rodam muito mais rápido que o código equivalente de um programador mediano em C, por exemplo.

Escolhida a linguagem, é preciso montar um bom ambiente de desenvolvimento. E é aí que os problemas se tornam mais evidentes. As alternativas comerciais estão fora de questão -- lembre-se, estamos falando de basear o desenvolvimento todo em ferramentas livres. Apesar de haver inúmeras bibliotecas de excelente qualidade para praticamente qualquer coisa (incluindo suporte a banco de dados e arquiteturas Web avançadas) falta uma coisa básica: um IDE bom, eficiente e estável. Há projetos interessantes em andamento. O Eclipse se propõe a ser um framework extensível para IDEs de múltiplas linguagens. E no caso do Python, o Boa Constructor é um projeto que tem muito potencial, apesar de faltar (na minha opinião) uma maior atenção para detalhe.

Acredito que o problema pode ser parcialmente explicado pelo fato de boa parte dos programadores já terem seus próprios ambientes de desenvolvimento. Os que usam Windows possivelmente já tem o IDEs do compilador C; aqueles que usam Linux tem uma quantidade grande de ferramentas de console, muito produtivas para desenvolvimento de bibliotecas, mas que não oferecem o mesmo grau de facilidade para desenvolvimento de aplicações comerciais. Mesmo assim, é um problema curioso. Parece que este tipo de projeto não funciona bem em termos de open source. O mesmo problema ocorre com as ferramentas de escritório. O que estes projetos tem em comum? São projetos grandes, complexos, geralmente com uma arquitetura monolítica. Ao contrário, os melhores projetos de código livre são altamente modulares. Isso pode ser explicado. Devido à sua amplitude, a visão conceitual necessária para um projeto de maior porte exige um grau de dedicação que a maioria dos desenvolvedores de código livre não pode garantir. Projetos modulares são mais fáceis de coordenar e exigem um tempo menor para sua administração.

Acredito que no final, os projetos de código livre conseguem cobrir estas deficiências com o desenvolvimento gradual dos módulos, até chegar ao produto final. Apenas o tempo necessário é mais longo, mas a qualidade não precisa necessariamente ser inferior. Para quem deseja usar as ferramentas no ponto em que estão agora, é preciso ter em mente estas limitações, e estar disposto a trabalhar junto e colaborar para que o ambiente se torne melhor.

3 de setembro de 2004

Alguém conhece a lei de Parkinson?

Em 1958, C. Northcote Parkinson escreveu um livro chamado "Parkinson's Law: The Pursuit of Progress". O livro tem várias tiradas e frases famosas que hoje são repetidas sem atribuição à fonte original. A lei mais famosa é a seguinte: "Work expands to fill the time allotted to its completion", ou (traduzindo livremente) "o trabalho expande até ocupar todo tempo alocado para sua execução".

Mas a lei que nos interessa aqui, derivada do trabalho de Parkinson, é outra. Ela explica por quê os projetos mais malucos são vendidos, e os mais simples ficam bloqueados em discussões intermináveis. Apesar da idade do livro, a lei se aplica maravilhosamente aos dias de hoje, como mostram as discussões intermináveis[1] em listas de email.

A tese básica é a seguinte: quando um projeto é grande demais ou complicado demais, ninguém se dá ao trabalho de checar os detalhes, partindo do pressuposto de que alguém já deve ter feito isso antes, ou o projeto não chegaria a ficar desse tamanho. Além disso, ficar calado é muitas vezes uma forma de disfarçar a ignorância no tema.

Por outro lado, projetos simples são malhados exaustivamente até a morte, porque todo mundo se sente confortável em fazê-lo. É uma oportunidade para lembrar aos outros que você ainda está ali, e de se posicionar em um tema relativamente tranquilo.

É por isso que a reforma do banheiro da portaria nunca é aprovada, enquanto a implantação de um sistema de gestão empresarial de última geração é aprovada. Simples, não?


[1] Este artigo não poderia nunca ter sido escrito sem a leitura de um email antológico postado por Poul-Henning Kamp na lista de desenvolvimento do FreeBSD, intitulado A bike shed (any colour will do) on greener grass.... Em outras palavras, qualquer que seja a cor da casinha da bicicleta, ela serve.

2 de setembro de 2004

Workflow profissional & pessoal

O termo workflow surgiu durante a década de 90 como uma das buzzwords do mercado. Com o tempo -- como toda moda -- o interesse do mercado aparentemente diminuiu, com o surgimento de outras ondas (ERPs, etc.). Hoje, o conceito já está razoavelmente solidificado, principalmente em grandes empresas. Mas a promessa inicial não se cumpriu em toda sua extensão, principalmente pela falta de ferramentas intuitivas para a configuração e a administração dos processos internos.

Durante este período (em 1996), eu desenhei um sistema de workflow como uma proposta para uma empresa em Belo Horizonte. A empresa fornecia sistemas administrativos e comerciais, baseados em uma interface convencional. A idéia era modificar o funcionamento do sistema, orientando-o para os processos realizados no dia a dia. A interface básica do usuário era uma caixa de afazeres -- similar a uma caixa de mensagens de email, só que ela indicava a sequência de atividades a fazer, de acordo com as prioridades. O objetivo era manter o foco das atividades e permitir uma navegação mais fácil pelas opções do sistema. Recentemente, retomei a pesquisa deste tipo de interface, agora baseada em aplicações Web. A sua aplicação em ambientes comerciais é bastante óbvia, mas o que mais me interessa agora é a sua extensão para a administração da informação pessoal.

É cada vez mais evidente que a Internet supera por uma larga margem a nossa capacidade interna de processamento de informação. Especialistas reconhecidos recebem literalmente milhares de mensagens por dia [1] [2]; mesmo descartando o spam, restam ainda centenas de mensagens válidas. Porém, muitas das mensagens válidas são na realidade notificações simples, enviadas somente para manter-nos à par do andamento de um processo.

O email é utilizado para este tipo de comunicação por absoluta falta de algo melhor. Além disso, as pessoas nitidamente preferem ter uma fonte de informação primária, mesmo que sobrecarregada, a ter que dividir sua atenção entre diversas fontes. O email se encaixa perfeitamente nesta descrição. O que falta é dispor de ferramentas melhores para organizá-lo e transformá-lo efetivamente em um portal de gerenciamento de informações. As principais carências são:

  • Associar contexto às conversações independentes. O GMail oferece uma abordagem interessante, organizando automaticamente as mensagens em conversações lineares, e facilita a pesquisa das mensagens. Outra novidade importante é o uso dos labels no lugar das tradicionais pastas, permitindo a organização das mensagens de uma forma não-hierárquica e multidimensional que é mais rica e intuitiva.

  • Organizar a informação no tempo. Várias das conversações que são mantidas por email se referem a processos que estão em andamento. Uma boa interface de gerenciamento pessoal de processos poderia ser associada automaticamente ao email, permitindo a monitoração do andamento destes sem que houvesse necessidade de gerenciar individualmente cada uma das mensagens.

Para que estas mudanças possam ser feitas, é preciso partir de um ponto de vista novo. Não basta pensar na caixa de correio (o inbox) como uma simples lista de mensagens. O GMail já rompeu com parte dos conceitos existentes, trazendo uma abordagem nova para a contextualização das conversações. Porém, ainda falta dotar o sistema de uma maior capacidade de organização no tempo. Uma ferramenta intuitiva de modelagem de processos é necessária, para que cada usuário possa configurar e gerenciar seus próprios processos. A Esther Dyson chamou este tipo de software de VisiProcess em analogia com o VisiCalc, o software que libertou os usuários da necessidade de contar com especialistas em TI para desenvolver modelos financeiros ou matemáticos. Esta ferramenta ainda não existe, mas a demanda está crescendo; falta acertar a mão em um novo paradigma. Quem conseguir encontrará um novo filão de mercado ainda inexplorado para atacar.

1 de setembro de 2004

A busca de uma estratégia estável: privacidade x transparência

A discussão sobre a privacidade na Internet vem crescendo à medida que a rede permeia cada vez mais nosso cotidiano. Recentemente, um novo elemento foi adicionado à discussão, causando controvérsia: a transparência.

Basicamente, a privacidade representa o direito individual dos cidadãos de controlar o seu próprio espaço individual; aplicada à Internet, representa o direito de escolher quando, como e quais informações pessoais podem ser disponibilizadas para uso de terceiros. Já a transparência, à primeira vista, é um conceito aparentemente oposto; ela representa a possibilidade de saber quais informações estão disponíveis e obter a própria informação -- a qualquer momento, e sem nenhum impedimento, com a confiança de que a informação é confiável e completa.

Surpreendentemente, os dois conceitos não são antagônicos, mas se complementam. Acredito que uma sociedade só pode ser estável se encontrar um ponto de equilíbrio entre a privacidade e a transparência. Isto significa que, aplicados isoladamente, nenhum deles gera um sistema social estável e eficiente; porém, uma combinação adequada forma um sistema que não pode ser facilmente desequilibrado. Em sistemas naturais, este mecanismo é conhecido como uma estratégia evolutiva estável, ou ESS.

Uma ESS é um conjunto de características de uma população que forma uma comunidade estável a longo prazo, resistente a invasões por novas espécies. Em sistemas sociais, o conceito de ESS pode ser utilizado para modelar o comportamento de um grupo à medida que a proporção de diferentes elementos varia dentro da população. No caso em questão, podemos imaginar que diferente tipos de indivíduo podem valorizar de forma independente a sua privacidade e a transparência. A análise da dinâmica social indica se o sistema em questão é evolutivamente estável ou não.

A chave para entender a estabilidade a longo prazo reside no estudo dos aspectos econômicos. Uma sociedade economicamente ineficiente não se sustenta, e é eventualmente substituída por outra mais eficiente com o passar do tempo. A privacidade e a transparência modificam fundamentalmente a dinâmica da economia interna da comunidade; o conhecimento de determinadas informações pode favorecer os negócios, enquanto as barreiras à comunicação impõem custos adicionais que tornam a economia menos eficaz.

A privacidade é tida por alguns como um dos pilares fundamentais de uma sociedade livre. No entanto, a adoção da privacidade plena carrega consigo problemas práticos que reduzem sua eficiência em termos econômicos. Hoje em dia, já estamos relativamente habituados a abrir mão de partes importantes de nossa privacidade em nome da conveniência. Registros de crédito bancário são consultados, com nossa autorização implicita, para fins de concessão de crédito ou simples pagamento de contas. Em uma sociedade onde a respeito à privacidade fosse levada ao extremo, talvez não fosse possível realizar este tipo de consulta. Este tipo de comunidade não seria evolutivamente estável, pois a entrada de indivíduos dispostos a abrir mão de parte da privacidade em troca de benefícios econômicos lhes daria uma vantagem importante sobre os outros membros da sociedade.

O caso oposto também apresenta problemas. Uma comunidade onde todos indivíduos abram mão da privacidade em nome da comunicação livre não é evolutivamente estável, pois um indivíduo que repasse informações falsas também poderia ganhar uma vantagem sobre os outros, desequilibrando o sistema. Este indivíduo teria acesso às informações privativas de todos os outros, mas ninguém teria acesso às suas informações, tornando-o inatingível.

Para que a comunidade atinja um ponto de estabilidade, é importante que ambos os conceitos -- transparência e privacidade -- atinjam um ponto de equilíbrio. Cada indivíduo precisa dispor de um mínimo de privacidade, detendo a opção de revelar ou não suas informações pessoais quando solicitado. Por outro lado, é importante que haja transparência nas relações, para evitar que um indivíduo abuse do sistema. É importante reconhecer que a privacidade tem um custo econômico que a torna inviável a partir de um certo ponto; da mesma forma, a transparência torna-se uma necessidade à medida em que permite que a sociedade se torne economicamente mais eficiente. A longo prazo, há bons motivos para esperar que um ponto de equilíbrio venha a ser atingido, mas certamente ainda teremos muito que caminhar até chegar lá.

O futuro é Wireless LAN

Aplicar a futurologia à previsão de mercado de tecnologia é uma tarefa mais difícil do que parece. A evolução do mercado muitas vezes não parece seguir uma lógica evidente. Não é só uma questão de marketing -- como querem alguns -- ou de méritos técnicos, como acreditam outros. Nem sempre a tecnologia suportada pelos principais players do mercado vence. Nem sempre a melhor tecnologia vence. Nem sempre o primeiro a chegar leva alguma vantagem. Mas há uma lógica, talvez um tanto obscura e longe de ser óbvia, que ajuda a explicar como estas coisas acontecem.

A evolução da tecnologia de Wireless LAN segue, por enquanto, o mesmo caminho difícil e complicado seguido por outras tecnologias. Um exemplo claro é o TCP/IP. Inicialmente o patinho feito das tecnologias de rede, o TCP/IP acabou sendo adotado pela Internet quase por acidente, como uma solução intermediária para resolver os problemas de escalabilidade do NTP (que já era uma evolução do protocolo original da Arpanet), enquanto não se resolviam as questões finais de um projeto muito maior e mais ambicioso: o modelo ISO de redes.

Todo mundo que estudou redes nos anos 80 e 90 conhece o modelo de sete camadas da ISO. O que pouca gente sabe é que o TCP/IP, apesar de estruturado em camadas, não segue o modelo ISO. O modelo TCP/IP é mais simples, e faz uma série de compromissos bastante pragmáticos. Além disso, o modelo ISO era sustentado por uma aliança global de fabricantes de hardware e software, e contava com o apoio das entidades de normatização nacionais de vários países filiados à ISO (caso do Brasil, por exemplo). Porém, mesmo assim, o modelo ISO nunca decolou, e o TCP/IP se firmou. Porquê?

A introdução de novas tecnologias segue um padrão no tempo todo especial. Conceitos como early adopters e massa crítica são adotados para explicar o ritmo de adoção de uma determinada tecnologia. No caso específico das tecnologias de telecomunicação, o efeito multiplicador da base instalada se faz sentir de forma ainda mais acentuada. É este o fator primordial -- o fato de que qualquer pessoa que queira se comunicar com a rede existente precisa de um equipamento compatível. Não há nada mais importante do que isso.

No caso das wireless LANs, o que se vê é uma repetição do mesmo fenômeno. O protocolo 802.11b -- base dos investimentos iniciais em WLAN -- é reconhecidamente limitado em vários aspectos. Porém, o volume de instalações continua crescendo, e os sucessores do 802.11b já começam a fazer estragos em outras opções mais bem nascidas, como é o caso do Bluetooth.

O que leva o 802.11b, com todas suas limitações, a ocupar um espaço tão proeminente no mercado? Primeiramente, ele é uma solução para problemas que já existem. Ele pode ser usado de forma transparente para redes locais ou para links privativos de alta velocidade em distâncias respeitáveis. Segundo, a tecnologia funciona. E finalmente, o custo é imbatível.

O mercado oficial vem tentando entender o motivo deste sucesso, mas segue uma abordagem equivocada. O uso do 802.11b não ocorre apenas por causa do preço, como supõem alguns. O principal charme da tecnologia é resolver problemas que existem de forma prática, e porque não, barata. Por outro lado, o mercado de telecomunicações, de forma geral, vive uma situação totalmente diversa -- a necessidade de estimular demanda de massa por produtos que ainda não existem, para um mercado que ainda não está pronto.

Se aplicarmos a análise convencional às Wireless LANs, vemos uma situação paradoxal. As pessoas não procuram ainda pela mobilidade, banda larga, privacidade, e garantia de serviço -- ao menos, não estão conscientes destas necessidades, ou até mesmo acreditam que ainda estão longe deste ponto. O que elas querem é resolver um problema. A solução do problema imediato pode até trazer outros problemas -- mas estes serão resolvidos um de cada vez. Esta mentalidade pragmática já transformou o TCP/IP, com todas suas limitações, em uma infraestrutura global de transporte. A tecnologia de Wireless LANs segue pelo mesmo caminho. Ainda é cedo para dizer quantas melhorias serão necessárias no futuro, mas nada pode derrotar uma solução simples que funciona.

30 de agosto de 2004

Voz sobre IP + Linux

Meio por acaso, encontrei um site chamado Asterisk. ɉ um PBX digital baseado em Linux. Pensei se esse tipo de solução não poderia ser utilizado, juntamente com um pouco de criatividade e Wireless LANs para prover serviços de voz-sobre-IP para condomínios comerciais e residenciais. Obviamente, para que funcionasse, seria importante ter uma autorização da Anatel -- mas mesmo assim a idéia é tentadora.

27 de agosto de 2004

Enlaces ponto-a-ponto Wireless LAN

Tive uma certa dificuldade em encontrar boas informações sobre enlaces ponto a ponto utilizando tecnologia Wireless LAN -- basicamente, 802.11b. Há muitos sites com informações sobre access points genéricos. Finalmente, acertei esta pesquisa no Google que retornou o tipo de resultado que eu desejava.

Há vários fatores no 802.11b que colaboram para a limitação de distância. O principal é a relação entre distância e atenuação do sinal. Usando boas antenas -- preferencialmente antenas direcionais -- e eventualmente, um amplificador, este tipo de problema pode ser contornado.

Em tese, o 802.11b também impõe um limite de temporização bastante rigoroso, que limitaria a distância máxima a cerca de 3km. No entanto, o limite real é muito mais amplo; usando uma temporização mais relaxada, a maioria dos chipsets existentes permite um delay maior, que resulta em uma distância de cerca de 21km, ou até mesmo 210km, em um cenário mais otimista. Todos estes dados são válidos para a taxa máxima -- se a taxa for reduzida, a distância teórica fica ainda maior.

Conhecimento sobre a experiência de outras instalações também é bem vindo. Um artigo antigo (2001) relata a experiência do pessoal da O'Reilly na implantação de um link 802.11b em Sevastopol, na região norte de São Francisco. Pelo que entendi, o teste foi bem sucedido, indicando que a comunicação é viável. O autor também tem algumas dicas interessantes para compartilhar, apesar de um pouco antigas. Dá para desmistificar um pouco e perder o medo da distância.

Deus nos salve dos analistas de sistemas

Analistas de sistemas são profissionais à parte. Habituados a entender de forma única o linguajar dos computadores, são muitas vezes vistos com uma certa veneração por aqueles que não compartilham de sua visão particular das coisas. Com a presença insidiosa de sistemas em nossa vida cotidiana, o analista de sistemas torna-se cada vez uma figura representativa de um novo paradigma que coordena as relações entre o homem e o mundo ao seu redor.

Atualmente, tudo é pensado em termo de sistemas. A organização lógica requerida para a tradução para os computadores também ajuda a analisar sob uma perspectiva matemática qualquer outro tipo de processo humano. Hoje, tudo é feito em nome de uma meia dúzia de termos comuns no jargão de sistemas: otimização, organização, hierarquias, segurança, fluxo de informações.

O resultado infeliz desta sistematização desenfreada está por toda a parte. Você pode encontrá-lo quando procura por uma informação e não acha. Está tudo lá, armazenado do jeito que o computador pede: em hierarquias bem definidas, com barreiras de acesso criadas em nome da segurança, e por aí vai. Até se chegar no ponto desejado, damos inúmeras voltas, até perdermos a paciência ou perguntarmos para o mestre dos mestres onde está o que desejamos. Dependendo da sua paciência, ele lhe dirá entre um e outro resmungo que basta procurar dentro da pasta x, opção y, e lá está a informação que você deseja. Bingo! Faz sentido para a máquina. Mas porquê então não estruturar as coisas de uma forma que faça sentido para nós, seres humanos?

Felizmente, nós ainda somos seres humanos, e não temos as mesmas restrições das máquinas. Somos capazes de localizar informações dentro de nossa mente muito mais rápido do que qualquer sistema automatizado poderia sonhar em fazer, mesmo se a tecnologia não fosse ainda tão rudimentar. E mesmo assim, somos constantemente obrigados a pensar como máquinas. Neste processo, perdeu-se o sentido do óbvio. O bom senso foi substituído pela sistematização desenfreada. Espero que não demore muito tempo até que alguém perceba que se há sistemas, foram feitos para que nós, seres humanos, os utilizássemos -- não o contrário.

26 de agosto de 2004

A nova ordem mundial

Li com muito interesse o material disponível no site Global Guerrillas, que discute os riscos de uma guerra global contra os novos grupos de guerrilha que estão surgindo desde o ataque ao WTC. O autor argumenta que as novas guerrilhas são muito mais perigosas para a ordem mundial do que se imagina, e que a doutrina vigente de poderio militar não se aplica ao combate contra este tipo de insurgência.

A teoria das guerrilhas globais se baseia em alguns princípios: uma rede de organizações dispersas; ações de ataque contra a infraestrutura existente; e o surgimento de um mercado global da violência. Segundo o autor, este mercado financia a violência diretamente, aproveitando-se da infraestrutura de comunicação existente: telefonia, Internet, sistemas bancários, etc. O financiamento ocorre em escala global, mas depende de ações locais, relativamente pequenas, que são muito mais difíceis de monitorar.

O poder de ataque e de disrupção da ordem destas guerrilhas é desproporcional ao seu tamanho real. Ao atacar a infraestrutura existente, elas multiplicam os efeitos diretos do ataque, afetando setores muito maiores da economia. Os ataques de guerrilha à infraestrutura de produção de petróleo do Iraque mostram claramente este efeito. Estima-se que um ataque combinado aos campos do Iraque e da Arábia Saudita (que não está totalmente fora de questão) poderia fazer o barril de petróleo chegar à marca de US$100.00 -- o suficiente para provocar uma recessão global em larga escala.

O mais preocupante, dentro deste cenário, é a afirmação de que a doutrina militar e política vigente está mal preparada para lidar com este tipo de ameaça. Os ataques ao Iraque e ao Afeganistão foram lançados com o objetivo de derrubar governos que não se alinhavam com a ordem mundial, e que ofereciam perigo através das armas de destruição em massa. Porém -- segundo a teoria das guerrilhas globais -- um estado fraco é pior que um estado inimigo. Os atuais governos do Iraque e do Afeganistão são incapazes de deter a guerrilha interna, e por extensão, criam um ambiente que ajuda a multiplicar esta guerrilha pelos países vizinhos. O processo funciona como um foco de infecção, que sabe identificar e explorar pontos vulneráveis, criando focos que são difíceis de extirpar.

Tenho ainda uma opinião pessoal sobre outro fator que torna o cenário mais complexo. Há uma disparidade muito grande entre a visão local e a visão global do processo. As células de redes como a Al Qaeda operam dentro de uma visão local, e a meu ver, não tem uma visão muito clara do seu impacto global. O processo traz consigo uma grande dose de idealismo, além de uma certa inocência e romantismo -- a capacidade do pequeno de derrotar o grande. Porém, acredito que os próprio membros das células não tem uma noção muito clara do seu impacto global, confiando apenas na mensagem de seus líderes. A falta de uma visão global clara torna o pensamento crítico impossível, e apenas favorece o fortalecimento das células e da sua determinação em ganhar suas próprias batalhas a qualquer custo.

24 de agosto de 2004

Memórias de um acidente radioativo

Um dos filmes mais impressionantes que eu j´ assisti -- capaz de revirar o estômago pelo simples fato de ser baseado em um caso real -- foi o K19 - The Widowmaker. O filme tem lá suas incorreções e usa de algumas licenças cinematográficas para ampliar o drama, especialmente no que toca ao clima da guerra fria. Em um certo sentido, a história real é muito mais dramática, e também mais perturbadora. No entanto, a parte fundamental da história traduz um profundo sentimento humano: a luta de uma tripulação despreparada para enfrentar um acidente nuclear, dentro do ambiente inescapável de um submarino. Cada homem que é designado para trabalhar nas operações de reparo sabe que está assinando a sua própria sentença de morte, mas executa suas funçõ com a consciência do dever cumprido -- não com a Marinha russa, mas com seus companheiros de tripulação.

Lembrei-me disso quando li hoje uma entrevista com um dos engenheiros que estava em Chernobyl no dia do acidente, em 1986. O depoimento é de uma clareza e simplicidade assustadoras. Deixa clara também a impotência dos que ali estavam para lidar com o inesperado. Nã o se trata aqui de fazer juízo da necessidade de se trabalhar com algo tão perigoso como a energia nuclear; trata-se de lembrar da impotência humana frente a um universo muito mais poderoso do que supomos, mas que mesmo assim se traduz em uma imensa capacidade de superação individual. Nesta história, não surgem heróis capazes do impossível. São pessoas comuns que revelam sua grandeza ao fazer o que pode parecer mais simples -- simplesmente sobreviver.

O futuro do email

De um tempo para cá, um debate sobre o email vem ganhando espaço junto a alguns importantes formadores de opinião sobre a Internet. Empresas como a Microsoft vem colocando algum peso em propostas de modificações nos protocolos de email, com extensões proprietárias que incorporam idéias de identificação digital ligadas ao Passport. Até aí, entende-se que a idéia seja puramente comercial. Mas quando se vê pessoas influentes como a Esther Dyson - uma das pioneiras no estudo sobre a influência da Internet - conversando sobre o assunto, fica claro que há algo mais em jogo.

O grande sucesso do email é a sua relativa simplicidade. O email é um mecanismo de atrito praticamente nulo. Por isso, enviar emails é um processo extremamente conveniente - tão fácil quanto ligar um telefone- mas os custos associados são muito mais baixos. A parte econômica, aliada ao potencial de automação, fizeram com que o email se tornasse o alvo predileto dos spammers. O spam é hoje o grande problema do email como ferramenta de produtividade profissional. Além disso, o email carrega consigo um outro problema de nascença: o email é uma ferramenta de comunicação privativa. Toda vez que o email é usado para comunicação em grupo, surgem problemas de escala. No ambiente pessoal, as pessoas podem se dar ao luxo de descartar mensagens dos grupos sem ler; o mesmo não pode acontecer dentro do trabalho, causando acúmulo nas caixas postais dos leitores mais vorazes. A inadequação do email como ferramenta de comunicação comunitária ou pública é uma de suas falhas básicas, somente minimizada pelas excelentes interfaces Web de administração e pesquisa de listas como o Google Groups.

No caso do spam, todas as idéias para eliminar ou minimizar o problema podem ser reduzidas à introdução de "atrito". Os mecanismos podem ser econômicos, como a taxa de envio de email; regulatórios, como a necessidade de registrar endereços válidos e rastreáveis; ou técnicos, como a introdução de protocolos mais sofisticados de autenticação de mensagens. A adoção de qualquer um destes mecanismos implica em uma mudança nos sistemas existentes, que exige consenso entre as inúmeras partes envolvidas. Com interesses econômicos tão grandes, não é de se estranhar que este consenso seja tão difícil. Por esta razão, acredito que a solução não virá de nenhum destes caminhos, mas de alguma solução inovadora oriunda de outra tecnologia.

Há hoje outras ferramentas interessantes que podem ajudar a entender e resolver o problema. Nenhuma delas é uma solução completa, mas todas oferecem abordagem diferente, e são alternativas viáveis para alguns aspectos do mesmo.

  • Os pioneiros no ramo são as ferramentas de IM (Instant Messaging). Elas já passara inúmeras vezes por ondas de spam, e vão sobrevivendo apesar disso. Ironicamente, o fato de todos os principais players operarem com plataformas fechadas tornou-se uma vantagem, pois permitiu que cada uma reagisse individualmente aos desafios de escala, implementando melhorias e mecanismos de proteção. É possível que um protocolo aberto tivesse se mostrado menos eficaz neste caso, por forçar uma busca precipitada de consenso via comitê; a competição pelo mercado se mostrou mais eficaz. Talvez hoje, ou em um futuro próximo, seja finalmente possível desenhar um protocolo aberto que possa incorporar todos os desenvolvimentos recentes.

  • Os blogs já se estabeleceram como a forma padrão de publicação pessoal na Internet. Além da conveniência, eles organizam a informação de uma forma muito mais intuitiva para as pessoas - cronologicamente, e não por 'pastas' ou 'folders' (fora o Greenpeace, somente analistas de sistema pensam em termos de árvores). Além disso, em muitos casos os blogs comunitários superaram as listas de discussão. Novamente, as razões não são somente técnicas - é fato conhecido que comunidades muito grandes se fragmentam, e que há um tamanho ótimo para os grupos humanos (conforme explicado pelo Número de Dunbar). Blogs tornam este processo mais conveniente, e a conveniência é a chave de tudo.

  • O uso do RSS permite aos blogs se transforma em algo que lembra fortemente a Usenet em seus tempos áureos - só que muito mais imune a spam. Protocolos adicionais, como o Atom ou as APIs existentes, aproximam ainda mais este conceito.

  • As redes sociais são a 'bola da vez'. As implementações atuais ainda ficam muito aquém da qualidade necessária para uma aplicações comerciais. Porém, eles estão lidando pela primeira vez na prática, e em grande escala, com conceitos que já vem sendo estudados teoricamente há muito tempo. A delegação de confiança em sistemas de criptografia de chaves públicas é uma das inúmeras aplicações potenciais destes mecanismos. Outras aplicações semelhantes são possíveis.
Acredito que uma nova plataforma de convergência de comunicação digital está prestes a aparecer, complementando e superando o email como ferramenta preferida. Um ambiente que combine a conveniência, a facilidade de publicação e a organização de um blog, com as trocas de mensagens dentro de uma rede de relacionamentos, usando protocolos seguros e confiáveis. Um sistema que acomode naturalmente tanto a publicação aberta de informações como a comunicação privativa, dentro do mesmo framework. É ainda uma idéia embrionária, mas que certamente virá a nascer em breve.

16 de agosto de 2004

Uma questão de perspectiva

Existe uma perspectiva correta para se capturar a essência da Internet? Antes de responder a esta pergunta, um pouco de história.

O conhecimento atual sobre a utilização da Internet é basicamente orientado pelas necessidades do mercado. Muito se escreve sobre a importância de atrair tráfego para um site, e depois manter os usuários lá dentro. O fim dos anos 90 viveu a febre dos portais. A lógica vigente dizia que somente os maiores portais sobreviveriam, retendo os usuários dentro de seus domínios. Todos os grandes sites de pesquisa -- mais notavelmente, Yahoo!, Netscape Netcenter e Altavista entraram nesta onda. Cinco anos depois, somente o Yahoo conseguiu se estabelecer como um portal, e os outros saíram do mercado. Em meio a este movimento, surgiu o Google, mostrando um fato fundamental: em geral, as pessoas não dão a mínima para o conceito de portal, e só querem achar o que precisam o mais rapidamente possível.

Anos depois, o que será que o mercado realmente aprendeu com esta lição? Muito pouco, se pensarmos em termos mais amplos. A visão da Internet continua sendo baseada na perspectiva do lado da oferta, em detrimento da compreensão do lado da demanda. O lema "Build, and they will come" traduz esta inversão notável dos princípios fundamentais de marketing. Nem mesmo o conceito de personalização apregoado pelos especialistas do marketing 1-1 vai longe suficiente; o aspecto central do paradigma continua sendo o site como um ponto focal de interesse. Os clientes são diferenciados pelas suas particularidades, mas no todo, continuam sendo tratados como uma massa uniforme de potenciais compradores.

Voltando à pergunta inicial, qual é a perspectiva correta para entender a Internet? Por menos que isso agrade a quem interessa, não é a visão apregoada pelos grandes geradores de conteúdo. A visão predominante da Internet é a dos seus clientes, e ela não é única; é fragmentada, e tão particular quanto são as diferenças entre as pessoas.

Uma vez entendida, a percepção da Internet como um meio não homogêneo cuja percepção correta depende do ponto de vista do cliente muda completamente a equação. Não se trata de produzir grandes sites, com um processo de navegação que tenta conduzir o cliente ao longo do caminho. É o contrário -- entregar para o cliente aquilo que ele precisa, aquilo que ele pediu, nem mais, nem menos. E acima de tudo, permitir que o cliente possa compor a sua própria visão do que a rede significa, e das suas próprias conexões dentro dela.

A pesquisa na Internet é um dos pontos que poderia se beneficiar imensamente desta conclusão. Não existe um conceito como "resultado mais relevante" para uma busca. O resultado mais relevante depende de contexto, o que inclui a própria identidade de quem pesquisa. Há outras idéias potenciais relativas ao uso de links sensíveis ao contexto, além do entendimento de que a home page do usuário deve ser, acima de tudo, sobre e para o usuário, e não apenas um ponto de partida para a navegação, ou "portal" como (ainda) querem alguns. Os browsers atuais são péssimos em preservar o contexto das sessões de uso. Um portal orientado ao serviço do usuário poderia inverter este processo, dando as ferramentas para que o usuário gerencie o contexto da sua própria navegação de forma transparente. São muitas idéias, e muito o que pensar a respeito ainda...

11 de agosto de 2004

Web Applications, promise or hype?

Web Applications, promise or hype?

Depois de um dia inteiro (literalmente) apanhando das mil e uma incompatibilidades e ajustes proprietários necessários para fazer uma página simples em DHTML funcionar corretamente em dois browsers (Firefox e IE6), nada como ler um pouco de bom senso.

Acho que as Web Applications são uma grande promessa... especialmente porque elas já existem. E, pensando de forma pragmática, qualquer coisa que se pretenda mexer nesse momento só vai servir para confundir as coisas, justamente quando um mínimo de usabilidade começa a se desenhar. Entendo que o modelo de programação vigente - DOM + Javascript + CSS - é complicado e cheio de buracos, mas também não consigo imaginar uma abordagem melhor que não rompa totalmente a compatibilidade com tudo que existe hoje.

O tempo que vai ser gasto na discussão desnecessária poderia ser melhor investido em duas frentes:

1. Fazendo com que os browsers existentes implementassem o que já existe de uma forma consistente. Infelizmente, isso não tem charme nenhum, e não garante vendas adicionais para ninguém.

2. Criando sistemas de template melhores. Minha visão é que boa parte das mágicas que são feitas hoje podem ser convenientemente escondidas por um bom sistema de templates, que cuide de intercalar o código Javascript e CSS necessário automaticamente. Mas isso mexe com uma coisa cara para os autores de páginas; as ferramentas de edição são pessoais, e muitas vezes intocáveis. Vá se entender com eles...

Um exercício de futurologia: Google e a Semantic Web

Em meus passeios, encontrei um legítimo exercício de futurologia: August 2009: How Google beat Amazon and Ebay to the Semantic Web. O artigo já é relativamente antigo -- foi escrito em 2002. Algumas das coisas que ele previa ainda não aconteceram, e provavelmente, não vão acontecer, mas a natureza da proposta é intrigante. Eu não tenho certeza se entendi tudo ainda, preciso ler e reler mais algumas vezes para chegar a uma conclusão.

No momento, acredito que há dois obstáculos sérios para um cenário como o que foi apontado. Primeiro, a importância da localização geográfica, que muitas vezes é esquecida nos exempls da semantic web; a nossa natureza social tem limites ligados à nossa percepção do mundo físico, mesmo que no mundo virtual as distâncias não existam. Por isso, os amigos próximos fisicamente acabam ganhando importância, e preferimos comprar aquilo que podemos tocar antes de fechar negócio. Em segundo lugar, o crescimento dos blogs e dos canais RSS mudou um pouco a equação; acho que o próprio Google ainda não se adequou a esta realidade.

A minha opinião é que a convergência plena entre sistemas de busca, email, e blogs certamente vai acontecer. E ela traz um sentido semântico muito mais natural, pois a informação pode ser melhor rastreada aos indivíduos que a postaram, o que facilita os cruzamentos. Quem viver, verá.

O P2P veio para ficar, e os ISPs que se preparem...

Ao longo dos últimos anos, o tráfego peer to peer (ou P2P, para abreviar) só fez crescer em todo o mundo. Os ISPs, de uma forma geral, foram pegos de surpresa pelo crescimento do tráfego. Para piorar, o aumento do tráfego de material de vídeo fez com que a demanda por banda subisse de forma assustadora. A reação dos ISPs tem sido no sentido de tentar limitar o tráfego P2P. Eles temem não conseguir recuperar seus investimentos em estrutura, pois o preço do acesso é baixo, e a demanda de banda não para de subir.

Como diria Andrew Odlyzko, "content is not the king". As pessoas se conectam à Internet para se comunicar, e obviamente, P2P é o caminho a seguir. No entanto, ao limitar o tráfego, os ISPs estão indo contra o mercado, estabelecendo limites artificiais. O tiro, a médio e longo prazo, pode sair pela culatra.

Os provedores de trânsito de longa distância (como a Sprint e outras do gênero) já perceberam o que está acontecendo. Para eles, o tráfego é tráfego, não interessa de quê, e quanto mais, melhor. Porém, os provedores de acesso locais foram pegos de surpresa, pois construíram suas redes baseadas em uma suposição otimista de tráfego. O oversubscription é alto, e a capacidade dos canais de upstream é limitada. Por isso, teme-se que o aumento do tráfego peer-to-peer sobrecarregue a estrutura a ponto de torná-la inviável.

O problema vem tendo sua importância aumentada na mídia especializada por duas razões que nada tem a ver com engenharia de tráfego. Primeiro, há o medo de que o ISP, de alguma forma, seja responsabilizado pela pirataria. Isso é (ou deveria ser) uma grande bobagem; nenhuma operadora de telefonia do mundo é responsabilizada porque alguém planejou uma conspiração por telefone, e nem os correios o são por entregar correspondências ilícitas. Eles são apenas o meio de transporte. A segunda razão é o mercado - há muitas empresas vendendo soluções de controle de banda, e interessa a elas que os ISPs comprem seus produtos. O que elas fazem? Divulgam números alarmantes, e destacam as questões éticas ligadas à pirataria. O resultado? Manchetes nas revistas especializadas, que alarmam a qualquer um que não estude o tema mais a fundo.

Construir um argumento lógico para combater esta abordagem é difícil. Tenho para mim a certeza de que o tráfego P2P não apenas veio para ficar, mas se tornará a peça fundamental na independência dos ISPs. O oposto do P2P - o modelo de conteúdo central - joga todo poder na mão do provedor de contéudo, e torna o ISP um mero provedor de canais, sem valor agregado. Por isso, não entendo a intransigência em atacar o problema de outra forma, que seria mais produtiva a longo prazo.

9 de agosto de 2004

O futuro dos blogs

Nem bem comecei a me inteirar como os blogs de hoje funcionam, e já estou lendo sobre os blogs do futuro. Pois é, a curiosidade matou o gato. Acho interessante que boa parte da discussão se concentre em detalhes técnicos que a meu ver, não serão tão importantes assim. É como se todo mundo estivesse tão imerso no ambiente atual que tivesse dificuldade em ver o todo; os detalhes começam a ganhar importância, e a visão arquitetônica se perde.

O artigo The perfect weblog system detalha uma série de features que a autora, Anne van Kesteren, considera fundamentais para o "blog perfeito". A discussão também é boa, e cobre uma série de assuntos que eu já vinha estudando. Por exemplo, a estrutura mais ou menos padronizada para URLs, etc. Mas não tenho certeza se gosto de algumas das idéias - já vi argumentos convincentes contra discussões em threads, e acho que é possível criar uma alternativa superior.

Uma das referências dela me levou ao Mark Pilgrim, conhecido anteriormente pelo livro Dive into Python. A citação se refere a uma página mais antiga, How to make a good ID in Atom. Segundo a Anne, o ideal é usar o Atom como um formato de RSS; outros acham que o Atom é complicado demais. Ainda preciso estudar para entender melhor o problema. O Mark aponta algumas características dos permalinks de um blog, e defende o uso de uma ID única para uso com RSS. Também concordo com isso. Saltando de galho em galho, o Mark cita ainda o problema de outro blogger, Phil Ringalda, com a "caixa postal cheia" - não de email, mas de entradas alimentadas pelo RSS.

Aliás, quanto mais eu estudo, mais o esquema de blogs me lembra o antigo Usenet/Netnews. Lá os posts tinham ID, e os newsservers faziam um papel intermediário entre os blogs e os canais RSS. O sistema atual é mais inteligente, melhor distribuído, e me parece também mais simples e robusto. Vamos ver quanto tempo ele resiste ao spam...

Um blog sobre E-learning

eCornell Research Blog: Studies

A Universidade de Cornell está usando efetivamente um blog para divulgar suas pesquisa internas e fomentar a comunicação. Será que outras universidades vão conseguir seguir esta onda?

Porquê as redes sociais crescem de forma diferente em cada cultura?

Joi Ito's Web: Technological diffusion patterns

Acho que eu não sou o único interessado em entender a forma como os blogs crescem e se tornam populares, às vezes muito mais rapidamente em uma área do que em outra. O caso do Orkut no Brasil (citado pelo autor) é interessante; sendo brasileiro, e conhecendo o gosto brasileiro pela conversa, acho que é simplesmente porque o site acertou no gosto local, e teve a sorte de chegar na hora certa, com uma comunidade online razoavelmente bem estruturada. O brasileiro não é muito de escrever páginas longas, o negócio por aqui parece ser o papo rápido, de poucas palavras, muitas imagens, etc. De qualquer forma, a observação das leis diferentes que regem as redes sociais é importante, e precisa ser melhor estudada.

4 de agosto de 2004

Gerenciamento de informações x gerenciamento de projetos

Reforming Project Management Theory and Practice

Tenho muito interesse em gerenciamento de projetos. Admito que em parte, é pela minha própria dificuldade em me manter organizado, mas independente de restrições pessoais, é um tema complexo e interessante. Meu interesse primário é na área de gerenciamento de informações, e o gerenciamento de projetos introduz variáveis extras: tempo e recursos externos. Boa parte das idéias que venho trabalhando a respeito de gerenciamento de informações envolve a relação com o tempo (por exemplo, no caso dos Blogs, ou das agendas pessoais); sem contar com o fato de que um projeto é uma das formas naturais de agrupar e classificar informações.

O autor deste blog já publicou alguns livros e artigos sobre o assunto. No site, há várias idéias que valem uma lida. Se alguém mais visitar o site, pode deixar seus comentários para que possamos discutir o assunto.

Pragmatismo e realização pessoal

Ouch. Eu precisava ler essa aqui: GapingVoid:

"Rather than quitting my current job to go off and do something 'creative'-- write a novel, open a bed & breakfast in Vermont, start a scented candle mail-order business, whatever--frankly I'd prefer just to keep on finding new and creative ways to get more from the job situation I already have."

Achei este posto no Planet Python, um site que antigamente postava resumos de mensagens de listas de discussão, e que se rendeu ao fenômeno Blog. Esta é realmente muito boa... Afinal, porque não tentar ser produtivo (e feliz, diga-se de passagem) aproveitando as oportunidades que temos nas mãos? Isso é que é pragmatismo. Bom, no meu caso, há que se lembrar que não há uma 'job situation' a se falar... mas vale a dica, vale a filosofia de vida.

2 de agosto de 2004

"The cluetrain manifesto"

the cluetrain manifesto - 95 theses

Já havia ouvido falar deste manifesto antes, mas agora só é que eu entendi realmente o que eles queriam dizer. O manifesto é um novo entendimento de como os mercados funcionam. Eles focam no poder da comunicação interpessoal, que segundo eles é o que realmente alavanca os mercados. Na época em que toda comunicação tinha que passar por meios de massa, isso não era possível, mas a comunicação pessoal e direta via Internet rompeu barreiras, permitiu que os mercados (através das comunidades de usuários) se organizassem, se conhecessem e trocassem idéias; e finalmente, que eles começassem a penetrar dentro das próprias empresas por meio de portas que anteriormente ficavam fechadas. É essa revolução que está modificando a forma como os negócios procedem, e que pode ser capitalizada por empresas dinâmicas para se diferenciar.

Mamãe eu quero ser bibliotecário quando crescer!

Librarian Avengers: Why you should fall to your knees and worship a librarian

Esse é o melhor texto que eu já li sobre bibliotecários recentemente. E eu sinceramente espero que o autor esteja certo. Desde os meus tempos de UFMG, já faz uns quinze anos, eu não entendia o que é que a Escola de Biblioteconomia fazia estando ligado exclusivamente à área de Letras, sem nenhum contato com a área de Computação... e muito menos, o que é que eles iam fazer para se atualizar se nenhum dos professores levava a idéa da BITNET, e depois da Internet, muito a sério. Parece que as coisas estão mudando... graças a Deus!

1 de agosto de 2004

Uma visão mais ampla da arquitetura

The Lost Prophet of Architecture

A arquitetura ocupa uma posição diferenciada entre as ciências e as artes. O arquiteto precisa equilibrar a busca do conforto humano, o conhecimento técnico da construção, e um senso estético que lhe permita combinar estes fatores em cada obra. A arquitetura é um ofício antigo, mas a maestria no equilíbrio de suas vertentes é algo difícil de ensinar, em parte pela dificuldade natural em quantificar fatores humanos e estéticos. Assim, como comunicar em palavras a arte de construir bem?

O arquiteto Christopher Alexander fez da sua carreira uma busca pela resposta a uma questão ampla. O que começou com a tentativa de desenvolver uma metodologia para avaliar de forma objetiva a qualidadade de um projeto arquitetônico se tornou a busca de uma vida. A partir do final dos anos 60, Alexander consolidou sua fama como um dos gurus da arquitetura - um mestre um tanto controverso, é verdade, e muitas vezes rejeitado pelos seus próprios pares. Mas o seu trabalho encontrou ressonância em outras áreas, e forneceu uma das grandes ferramentas para expressar verbalmente soluções genéricas para sistemas complexos.

A idéia de gerar padrões - permite expressar uma solução como algo que surge naturalmente a partir de um certo contexto. Em termos de arquitetura, padrões simples representam coisas que nos dão conforto; é como se, de forma intuitiva, estivéssemos intrinsecamente programados para entender e aceitar determinadas soluções. É como se o problema pedisse aquela solução, como se ela fosse a única capaz de satisfazer um conjunto de requerimentos. O padrão carrega nosso conhecimento interior em uma forma verbal, comunicável, e por extensão, quantificável - observando um projeto, é possível verificar se ele possui ou não determinados padrões, e se os problemas que ele apresenta foram adequadamente abordados.

Na área de análise de sistemas, o trabalho de Christopher Alexander deu origem a todo um ramo interessado na pesquisa de padrões de design de software. No entanto, o seu trabalho na área da arquitetura e do planejamento urbano tem um significado muito maior, que penetra também na nossa própria compreensão do que é qualidade de vida, e como ela pode ser obtida. É um trabalho complexo, amplo, às vezes confuso, mas sempre desafiador.

31 de julho de 2004

Museu de Ciências da Califórnia - Ensino à Distância

Distance Learning Home

O Museu de Ciências da Califórnia mantém um site com cursos para acesso via Internet. Li o material referente à climatologia. É um utorial acessível, mas razoavelmente profundo, que cobre o desenvolvimento do modelo teórico atualmente aceito para as grandes flutuações de temperatura, que inclui as idades do gelo. Lendo o material e pesquisando alguns links relacionados. aprendi algumas coisas interessantes; por exemplo, ocorreram algumas anomalias climáticas na história recente, como anos particularmente frios, causados por fenômenos naturais como erupções vulcânicas. Estes eventos (por exemplo, em 1816, e também em 522) podem ter disparado movimentos históricos importantes. O frio de 1816 é dado como uma das razões da 'corrida para o oeste' nos EUA; já o frio de 522 pode ter acelerado do declínio do Império Romano, especialmente porque os povos bárbaros que viviam em áreas mais afetadas pelo frio começaram a migrar em direção às terras mais quentes do Mediterrâneo. Isso mostra, mais uma vez, a importância do debate científico do aquecimento global; e mais ainda, o quanto entendemos pouco do assunto.

29 de julho de 2004

Tipografia & HTML

Sempre achei que os melhores livros impressos tem um tipo particular de elegância, que uma página Web dificilmente consegue imitar. Não estou sozinho nesta percepção: este artigo, Tipografia & HTML, ilustra vários dos problemas que um autor de páginas encontra ao tentar utilizar regras de design tipográficas em textos escritos para a Web. Este tipo de discussão também me lembra as razões que levaram o Knuth a escrever o TeX - cansado de ver os papers de conteúdo matemático mal tipografados, ele decidiu fazer um sistema capaz de apresentá-los com o visual correto. QUem sabe a Web ainda toma jeito...

O futuro dos blogs

BLOG weblog : The future of blogging

O nome do blog (e por extensão, do post) é meio pretencioso. Mas o blog é interessante, se bem que não revolucionário. Um bom ponto para pesquisas sobre o assunto...

Exemplos de Flash, JavaScript, padrões gráficos, etc.

Passei hoje por alguns sites de boa qualidade, com exemplos de código para Flash, JavaScript e DHTML, e também padrões gráficos que podem ser usados para preenchimento de fundos. Fica para registro e pesquisa posterior:

28 de julho de 2004

Google x Microsoft

De um tempo para cá, a mídia (incluindo a não especializada) começou a noticiar os primeiros movimentos de um possível embate próximo entre a Microsoft e o Google. As duas empresas não poderiam ser mais diferentes. A Microsoft vai aos extremos para defender sua posição, e mesmo que o público em geral não reconheça (ou discorde), sempre soube agradar a quem realmente paga as suas contas. Para isso, ela joga pesado dentro das regras do jogo capitalista - mesmo que isso inclua agir de uma maneira quem, para ficar barato, beira o anti-ético.

Já o Google tem um lema interessante: 'Don't be evil'. A empresa começou como outras tantas 'startups', mas evitou o atropelo e soube esperar a hora certa para abrir o capital. Agora, ela não apenas mais uma 'dotcom' querendo dinheiro fácil; é uma empresa estruturada, que segue modelos de negócio pouco usuais, e que se estabeleceu como dominante em um serviço que é cada vez mais importante - diria essencial - para o funcionamento da Internet.

Recentemente, o Google começou a expandir sua atuação. Eles estão se estruturando para ser mais do que uma empresa de busca; eles já entenderam que o filé do mercado estará no gerenciamento de informação, seja ela pessoal ou empresarial. Por isso, os movimentos para adquirir empresas de 'blogging' e o lançamento do serviço de email são pontos fundamentais da estratégia.

A abordagem das empresas também é bem diferente. A Microsoft acredita no 'fat client' - um computador pessoal de grande poder de processamento, para realizar localmente o trabalho pesado. O Google vem apostando em uma estratégia de 'thin client' - onde o micro não precisa de tantos recursos, e a maior parte do processamento é feita no servidor. Obviamente, qualquer tentativa de classificar as coisas em dois grupos como estes é uma simplificação grosseira. Existem aplicações que se prestam melhor ao modelo da Microsoft; o processamento de imagens ou de animações em 3D, por exemplo. Outras aplicações são melhor atendidas por um cliente leve, como um browser.

Mesmo assim, tenho minhas próprias dúvidas sobre qual abordagem funcionará melhor a longo prazo. A aposta do Google é muito simpática, e conta com uma vantagem rara: a Microsoft foi pega de surpresa, coisa que poucos até hoje conseguiram fazer. A Netscape foi uma que conseguiu a vantagem inicial, mas não conseguiu sustentá-la, e foi varrida do mercado. Isto indica que, pelo menos nos primeiros rounds, o Google deve também sustentar a sua vantagem. Porém, para que esta vantagem possa ser capitalizada no médio e longo prazo, precisa também agir de uma forma prática, pragmática, copiando - se preciso for - algumas páginas do livro da Microsoft. Acredito que ela pode fazer isso, mantendo ainda seu lema intacto.

O ponto chave para esta batalha, como já ocorreu em outras, é a capacidade da Microsoft em se apoderar das inovações do concorrente, incorporá-las, e mudar a direção da empresa, sem que para isso tenha que assumir a feição de 'derrotada'. A Microsoft não tem pudor em copiar as inovações, se elas ajudam a empresa a melhorar sua competitividade. Porém, ela faz isso mantendo a feição de líder. Por outro lado, seus concorrentes (como a Apple, e mais recentemente, a Sun) se deixaram prender demasiadamente às suas próprias propostas, engessando a sua própria evolução. Afinal, o futuro não é preto-e-branco, é colorido, e isso a Microsoft sabe usar como ninguém, misturando suas cores às de seus oponentes de forma perfeita.

O que isto tudo significa para o Google? Acredito que a médio prazo, a estratégia de 'thin client' vá começar a mostrar seus limites. Uma das coisas que podem disparar este fenômeno é o crescimento das plataformas de gerenciamento de conhecimento, cujo bom funcionamento depende do contexto da informação. A informação que define o contexto é tipicamente local; em um ambiente de 'thin clients', ela precisa ficar armazenada em servidores, como o do Google. Não sei se as pessoas vão se sentir confortáveis com isso, quando perceberem o que está acontecendo. O importante aqui é perceber que não adianta ter uma boa estratégia, é preciso saber conduzí-la com cuidado, pragmatismo, e sem apego demasiado aos próprios planos. Se o oponente pode nos ensinar algo, que nós aprendamos com ele.