30 de agosto de 2004

Voz sobre IP + Linux

Meio por acaso, encontrei um site chamado Asterisk. ɉ um PBX digital baseado em Linux. Pensei se esse tipo de solução não poderia ser utilizado, juntamente com um pouco de criatividade e Wireless LANs para prover serviços de voz-sobre-IP para condomínios comerciais e residenciais. Obviamente, para que funcionasse, seria importante ter uma autorização da Anatel -- mas mesmo assim a idéia é tentadora.

27 de agosto de 2004

Enlaces ponto-a-ponto Wireless LAN

Tive uma certa dificuldade em encontrar boas informações sobre enlaces ponto a ponto utilizando tecnologia Wireless LAN -- basicamente, 802.11b. Há muitos sites com informações sobre access points genéricos. Finalmente, acertei esta pesquisa no Google que retornou o tipo de resultado que eu desejava.

Há vários fatores no 802.11b que colaboram para a limitação de distância. O principal é a relação entre distância e atenuação do sinal. Usando boas antenas -- preferencialmente antenas direcionais -- e eventualmente, um amplificador, este tipo de problema pode ser contornado.

Em tese, o 802.11b também impõe um limite de temporização bastante rigoroso, que limitaria a distância máxima a cerca de 3km. No entanto, o limite real é muito mais amplo; usando uma temporização mais relaxada, a maioria dos chipsets existentes permite um delay maior, que resulta em uma distância de cerca de 21km, ou até mesmo 210km, em um cenário mais otimista. Todos estes dados são válidos para a taxa máxima -- se a taxa for reduzida, a distância teórica fica ainda maior.

Conhecimento sobre a experiência de outras instalações também é bem vindo. Um artigo antigo (2001) relata a experiência do pessoal da O'Reilly na implantação de um link 802.11b em Sevastopol, na região norte de São Francisco. Pelo que entendi, o teste foi bem sucedido, indicando que a comunicação é viável. O autor também tem algumas dicas interessantes para compartilhar, apesar de um pouco antigas. Dá para desmistificar um pouco e perder o medo da distância.

Deus nos salve dos analistas de sistemas

Analistas de sistemas são profissionais à parte. Habituados a entender de forma única o linguajar dos computadores, são muitas vezes vistos com uma certa veneração por aqueles que não compartilham de sua visão particular das coisas. Com a presença insidiosa de sistemas em nossa vida cotidiana, o analista de sistemas torna-se cada vez uma figura representativa de um novo paradigma que coordena as relações entre o homem e o mundo ao seu redor.

Atualmente, tudo é pensado em termo de sistemas. A organização lógica requerida para a tradução para os computadores também ajuda a analisar sob uma perspectiva matemática qualquer outro tipo de processo humano. Hoje, tudo é feito em nome de uma meia dúzia de termos comuns no jargão de sistemas: otimização, organização, hierarquias, segurança, fluxo de informações.

O resultado infeliz desta sistematização desenfreada está por toda a parte. Você pode encontrá-lo quando procura por uma informação e não acha. Está tudo lá, armazenado do jeito que o computador pede: em hierarquias bem definidas, com barreiras de acesso criadas em nome da segurança, e por aí vai. Até se chegar no ponto desejado, damos inúmeras voltas, até perdermos a paciência ou perguntarmos para o mestre dos mestres onde está o que desejamos. Dependendo da sua paciência, ele lhe dirá entre um e outro resmungo que basta procurar dentro da pasta x, opção y, e lá está a informação que você deseja. Bingo! Faz sentido para a máquina. Mas porquê então não estruturar as coisas de uma forma que faça sentido para nós, seres humanos?

Felizmente, nós ainda somos seres humanos, e não temos as mesmas restrições das máquinas. Somos capazes de localizar informações dentro de nossa mente muito mais rápido do que qualquer sistema automatizado poderia sonhar em fazer, mesmo se a tecnologia não fosse ainda tão rudimentar. E mesmo assim, somos constantemente obrigados a pensar como máquinas. Neste processo, perdeu-se o sentido do óbvio. O bom senso foi substituído pela sistematização desenfreada. Espero que não demore muito tempo até que alguém perceba que se há sistemas, foram feitos para que nós, seres humanos, os utilizássemos -- não o contrário.

26 de agosto de 2004

A nova ordem mundial

Li com muito interesse o material disponível no site Global Guerrillas, que discute os riscos de uma guerra global contra os novos grupos de guerrilha que estão surgindo desde o ataque ao WTC. O autor argumenta que as novas guerrilhas são muito mais perigosas para a ordem mundial do que se imagina, e que a doutrina vigente de poderio militar não se aplica ao combate contra este tipo de insurgência.

A teoria das guerrilhas globais se baseia em alguns princípios: uma rede de organizações dispersas; ações de ataque contra a infraestrutura existente; e o surgimento de um mercado global da violência. Segundo o autor, este mercado financia a violência diretamente, aproveitando-se da infraestrutura de comunicação existente: telefonia, Internet, sistemas bancários, etc. O financiamento ocorre em escala global, mas depende de ações locais, relativamente pequenas, que são muito mais difíceis de monitorar.

O poder de ataque e de disrupção da ordem destas guerrilhas é desproporcional ao seu tamanho real. Ao atacar a infraestrutura existente, elas multiplicam os efeitos diretos do ataque, afetando setores muito maiores da economia. Os ataques de guerrilha à infraestrutura de produção de petróleo do Iraque mostram claramente este efeito. Estima-se que um ataque combinado aos campos do Iraque e da Arábia Saudita (que não está totalmente fora de questão) poderia fazer o barril de petróleo chegar à marca de US$100.00 -- o suficiente para provocar uma recessão global em larga escala.

O mais preocupante, dentro deste cenário, é a afirmação de que a doutrina militar e política vigente está mal preparada para lidar com este tipo de ameaça. Os ataques ao Iraque e ao Afeganistão foram lançados com o objetivo de derrubar governos que não se alinhavam com a ordem mundial, e que ofereciam perigo através das armas de destruição em massa. Porém -- segundo a teoria das guerrilhas globais -- um estado fraco é pior que um estado inimigo. Os atuais governos do Iraque e do Afeganistão são incapazes de deter a guerrilha interna, e por extensão, criam um ambiente que ajuda a multiplicar esta guerrilha pelos países vizinhos. O processo funciona como um foco de infecção, que sabe identificar e explorar pontos vulneráveis, criando focos que são difíceis de extirpar.

Tenho ainda uma opinião pessoal sobre outro fator que torna o cenário mais complexo. Há uma disparidade muito grande entre a visão local e a visão global do processo. As células de redes como a Al Qaeda operam dentro de uma visão local, e a meu ver, não tem uma visão muito clara do seu impacto global. O processo traz consigo uma grande dose de idealismo, além de uma certa inocência e romantismo -- a capacidade do pequeno de derrotar o grande. Porém, acredito que os próprio membros das células não tem uma noção muito clara do seu impacto global, confiando apenas na mensagem de seus líderes. A falta de uma visão global clara torna o pensamento crítico impossível, e apenas favorece o fortalecimento das células e da sua determinação em ganhar suas próprias batalhas a qualquer custo.

24 de agosto de 2004

Memórias de um acidente radioativo

Um dos filmes mais impressionantes que eu j´ assisti -- capaz de revirar o estômago pelo simples fato de ser baseado em um caso real -- foi o K19 - The Widowmaker. O filme tem lá suas incorreções e usa de algumas licenças cinematográficas para ampliar o drama, especialmente no que toca ao clima da guerra fria. Em um certo sentido, a história real é muito mais dramática, e também mais perturbadora. No entanto, a parte fundamental da história traduz um profundo sentimento humano: a luta de uma tripulação despreparada para enfrentar um acidente nuclear, dentro do ambiente inescapável de um submarino. Cada homem que é designado para trabalhar nas operações de reparo sabe que está assinando a sua própria sentença de morte, mas executa suas funçõ com a consciência do dever cumprido -- não com a Marinha russa, mas com seus companheiros de tripulação.

Lembrei-me disso quando li hoje uma entrevista com um dos engenheiros que estava em Chernobyl no dia do acidente, em 1986. O depoimento é de uma clareza e simplicidade assustadoras. Deixa clara também a impotência dos que ali estavam para lidar com o inesperado. Nã o se trata aqui de fazer juízo da necessidade de se trabalhar com algo tão perigoso como a energia nuclear; trata-se de lembrar da impotência humana frente a um universo muito mais poderoso do que supomos, mas que mesmo assim se traduz em uma imensa capacidade de superação individual. Nesta história, não surgem heróis capazes do impossível. São pessoas comuns que revelam sua grandeza ao fazer o que pode parecer mais simples -- simplesmente sobreviver.

O futuro do email

De um tempo para cá, um debate sobre o email vem ganhando espaço junto a alguns importantes formadores de opinião sobre a Internet. Empresas como a Microsoft vem colocando algum peso em propostas de modificações nos protocolos de email, com extensões proprietárias que incorporam idéias de identificação digital ligadas ao Passport. Até aí, entende-se que a idéia seja puramente comercial. Mas quando se vê pessoas influentes como a Esther Dyson - uma das pioneiras no estudo sobre a influência da Internet - conversando sobre o assunto, fica claro que há algo mais em jogo.

O grande sucesso do email é a sua relativa simplicidade. O email é um mecanismo de atrito praticamente nulo. Por isso, enviar emails é um processo extremamente conveniente - tão fácil quanto ligar um telefone- mas os custos associados são muito mais baixos. A parte econômica, aliada ao potencial de automação, fizeram com que o email se tornasse o alvo predileto dos spammers. O spam é hoje o grande problema do email como ferramenta de produtividade profissional. Além disso, o email carrega consigo um outro problema de nascença: o email é uma ferramenta de comunicação privativa. Toda vez que o email é usado para comunicação em grupo, surgem problemas de escala. No ambiente pessoal, as pessoas podem se dar ao luxo de descartar mensagens dos grupos sem ler; o mesmo não pode acontecer dentro do trabalho, causando acúmulo nas caixas postais dos leitores mais vorazes. A inadequação do email como ferramenta de comunicação comunitária ou pública é uma de suas falhas básicas, somente minimizada pelas excelentes interfaces Web de administração e pesquisa de listas como o Google Groups.

No caso do spam, todas as idéias para eliminar ou minimizar o problema podem ser reduzidas à introdução de "atrito". Os mecanismos podem ser econômicos, como a taxa de envio de email; regulatórios, como a necessidade de registrar endereços válidos e rastreáveis; ou técnicos, como a introdução de protocolos mais sofisticados de autenticação de mensagens. A adoção de qualquer um destes mecanismos implica em uma mudança nos sistemas existentes, que exige consenso entre as inúmeras partes envolvidas. Com interesses econômicos tão grandes, não é de se estranhar que este consenso seja tão difícil. Por esta razão, acredito que a solução não virá de nenhum destes caminhos, mas de alguma solução inovadora oriunda de outra tecnologia.

Há hoje outras ferramentas interessantes que podem ajudar a entender e resolver o problema. Nenhuma delas é uma solução completa, mas todas oferecem abordagem diferente, e são alternativas viáveis para alguns aspectos do mesmo.

  • Os pioneiros no ramo são as ferramentas de IM (Instant Messaging). Elas já passara inúmeras vezes por ondas de spam, e vão sobrevivendo apesar disso. Ironicamente, o fato de todos os principais players operarem com plataformas fechadas tornou-se uma vantagem, pois permitiu que cada uma reagisse individualmente aos desafios de escala, implementando melhorias e mecanismos de proteção. É possível que um protocolo aberto tivesse se mostrado menos eficaz neste caso, por forçar uma busca precipitada de consenso via comitê; a competição pelo mercado se mostrou mais eficaz. Talvez hoje, ou em um futuro próximo, seja finalmente possível desenhar um protocolo aberto que possa incorporar todos os desenvolvimentos recentes.

  • Os blogs já se estabeleceram como a forma padrão de publicação pessoal na Internet. Além da conveniência, eles organizam a informação de uma forma muito mais intuitiva para as pessoas - cronologicamente, e não por 'pastas' ou 'folders' (fora o Greenpeace, somente analistas de sistema pensam em termos de árvores). Além disso, em muitos casos os blogs comunitários superaram as listas de discussão. Novamente, as razões não são somente técnicas - é fato conhecido que comunidades muito grandes se fragmentam, e que há um tamanho ótimo para os grupos humanos (conforme explicado pelo Número de Dunbar). Blogs tornam este processo mais conveniente, e a conveniência é a chave de tudo.

  • O uso do RSS permite aos blogs se transforma em algo que lembra fortemente a Usenet em seus tempos áureos - só que muito mais imune a spam. Protocolos adicionais, como o Atom ou as APIs existentes, aproximam ainda mais este conceito.

  • As redes sociais são a 'bola da vez'. As implementações atuais ainda ficam muito aquém da qualidade necessária para uma aplicações comerciais. Porém, eles estão lidando pela primeira vez na prática, e em grande escala, com conceitos que já vem sendo estudados teoricamente há muito tempo. A delegação de confiança em sistemas de criptografia de chaves públicas é uma das inúmeras aplicações potenciais destes mecanismos. Outras aplicações semelhantes são possíveis.
Acredito que uma nova plataforma de convergência de comunicação digital está prestes a aparecer, complementando e superando o email como ferramenta preferida. Um ambiente que combine a conveniência, a facilidade de publicação e a organização de um blog, com as trocas de mensagens dentro de uma rede de relacionamentos, usando protocolos seguros e confiáveis. Um sistema que acomode naturalmente tanto a publicação aberta de informações como a comunicação privativa, dentro do mesmo framework. É ainda uma idéia embrionária, mas que certamente virá a nascer em breve.

16 de agosto de 2004

Uma questão de perspectiva

Existe uma perspectiva correta para se capturar a essência da Internet? Antes de responder a esta pergunta, um pouco de história.

O conhecimento atual sobre a utilização da Internet é basicamente orientado pelas necessidades do mercado. Muito se escreve sobre a importância de atrair tráfego para um site, e depois manter os usuários lá dentro. O fim dos anos 90 viveu a febre dos portais. A lógica vigente dizia que somente os maiores portais sobreviveriam, retendo os usuários dentro de seus domínios. Todos os grandes sites de pesquisa -- mais notavelmente, Yahoo!, Netscape Netcenter e Altavista entraram nesta onda. Cinco anos depois, somente o Yahoo conseguiu se estabelecer como um portal, e os outros saíram do mercado. Em meio a este movimento, surgiu o Google, mostrando um fato fundamental: em geral, as pessoas não dão a mínima para o conceito de portal, e só querem achar o que precisam o mais rapidamente possível.

Anos depois, o que será que o mercado realmente aprendeu com esta lição? Muito pouco, se pensarmos em termos mais amplos. A visão da Internet continua sendo baseada na perspectiva do lado da oferta, em detrimento da compreensão do lado da demanda. O lema "Build, and they will come" traduz esta inversão notável dos princípios fundamentais de marketing. Nem mesmo o conceito de personalização apregoado pelos especialistas do marketing 1-1 vai longe suficiente; o aspecto central do paradigma continua sendo o site como um ponto focal de interesse. Os clientes são diferenciados pelas suas particularidades, mas no todo, continuam sendo tratados como uma massa uniforme de potenciais compradores.

Voltando à pergunta inicial, qual é a perspectiva correta para entender a Internet? Por menos que isso agrade a quem interessa, não é a visão apregoada pelos grandes geradores de conteúdo. A visão predominante da Internet é a dos seus clientes, e ela não é única; é fragmentada, e tão particular quanto são as diferenças entre as pessoas.

Uma vez entendida, a percepção da Internet como um meio não homogêneo cuja percepção correta depende do ponto de vista do cliente muda completamente a equação. Não se trata de produzir grandes sites, com um processo de navegação que tenta conduzir o cliente ao longo do caminho. É o contrário -- entregar para o cliente aquilo que ele precisa, aquilo que ele pediu, nem mais, nem menos. E acima de tudo, permitir que o cliente possa compor a sua própria visão do que a rede significa, e das suas próprias conexões dentro dela.

A pesquisa na Internet é um dos pontos que poderia se beneficiar imensamente desta conclusão. Não existe um conceito como "resultado mais relevante" para uma busca. O resultado mais relevante depende de contexto, o que inclui a própria identidade de quem pesquisa. Há outras idéias potenciais relativas ao uso de links sensíveis ao contexto, além do entendimento de que a home page do usuário deve ser, acima de tudo, sobre e para o usuário, e não apenas um ponto de partida para a navegação, ou "portal" como (ainda) querem alguns. Os browsers atuais são péssimos em preservar o contexto das sessões de uso. Um portal orientado ao serviço do usuário poderia inverter este processo, dando as ferramentas para que o usuário gerencie o contexto da sua própria navegação de forma transparente. São muitas idéias, e muito o que pensar a respeito ainda...

11 de agosto de 2004

Web Applications, promise or hype?

Web Applications, promise or hype?

Depois de um dia inteiro (literalmente) apanhando das mil e uma incompatibilidades e ajustes proprietários necessários para fazer uma página simples em DHTML funcionar corretamente em dois browsers (Firefox e IE6), nada como ler um pouco de bom senso.

Acho que as Web Applications são uma grande promessa... especialmente porque elas já existem. E, pensando de forma pragmática, qualquer coisa que se pretenda mexer nesse momento só vai servir para confundir as coisas, justamente quando um mínimo de usabilidade começa a se desenhar. Entendo que o modelo de programação vigente - DOM + Javascript + CSS - é complicado e cheio de buracos, mas também não consigo imaginar uma abordagem melhor que não rompa totalmente a compatibilidade com tudo que existe hoje.

O tempo que vai ser gasto na discussão desnecessária poderia ser melhor investido em duas frentes:

1. Fazendo com que os browsers existentes implementassem o que já existe de uma forma consistente. Infelizmente, isso não tem charme nenhum, e não garante vendas adicionais para ninguém.

2. Criando sistemas de template melhores. Minha visão é que boa parte das mágicas que são feitas hoje podem ser convenientemente escondidas por um bom sistema de templates, que cuide de intercalar o código Javascript e CSS necessário automaticamente. Mas isso mexe com uma coisa cara para os autores de páginas; as ferramentas de edição são pessoais, e muitas vezes intocáveis. Vá se entender com eles...

Um exercício de futurologia: Google e a Semantic Web

Em meus passeios, encontrei um legítimo exercício de futurologia: August 2009: How Google beat Amazon and Ebay to the Semantic Web. O artigo já é relativamente antigo -- foi escrito em 2002. Algumas das coisas que ele previa ainda não aconteceram, e provavelmente, não vão acontecer, mas a natureza da proposta é intrigante. Eu não tenho certeza se entendi tudo ainda, preciso ler e reler mais algumas vezes para chegar a uma conclusão.

No momento, acredito que há dois obstáculos sérios para um cenário como o que foi apontado. Primeiro, a importância da localização geográfica, que muitas vezes é esquecida nos exempls da semantic web; a nossa natureza social tem limites ligados à nossa percepção do mundo físico, mesmo que no mundo virtual as distâncias não existam. Por isso, os amigos próximos fisicamente acabam ganhando importância, e preferimos comprar aquilo que podemos tocar antes de fechar negócio. Em segundo lugar, o crescimento dos blogs e dos canais RSS mudou um pouco a equação; acho que o próprio Google ainda não se adequou a esta realidade.

A minha opinião é que a convergência plena entre sistemas de busca, email, e blogs certamente vai acontecer. E ela traz um sentido semântico muito mais natural, pois a informação pode ser melhor rastreada aos indivíduos que a postaram, o que facilita os cruzamentos. Quem viver, verá.

O P2P veio para ficar, e os ISPs que se preparem...

Ao longo dos últimos anos, o tráfego peer to peer (ou P2P, para abreviar) só fez crescer em todo o mundo. Os ISPs, de uma forma geral, foram pegos de surpresa pelo crescimento do tráfego. Para piorar, o aumento do tráfego de material de vídeo fez com que a demanda por banda subisse de forma assustadora. A reação dos ISPs tem sido no sentido de tentar limitar o tráfego P2P. Eles temem não conseguir recuperar seus investimentos em estrutura, pois o preço do acesso é baixo, e a demanda de banda não para de subir.

Como diria Andrew Odlyzko, "content is not the king". As pessoas se conectam à Internet para se comunicar, e obviamente, P2P é o caminho a seguir. No entanto, ao limitar o tráfego, os ISPs estão indo contra o mercado, estabelecendo limites artificiais. O tiro, a médio e longo prazo, pode sair pela culatra.

Os provedores de trânsito de longa distância (como a Sprint e outras do gênero) já perceberam o que está acontecendo. Para eles, o tráfego é tráfego, não interessa de quê, e quanto mais, melhor. Porém, os provedores de acesso locais foram pegos de surpresa, pois construíram suas redes baseadas em uma suposição otimista de tráfego. O oversubscription é alto, e a capacidade dos canais de upstream é limitada. Por isso, teme-se que o aumento do tráfego peer-to-peer sobrecarregue a estrutura a ponto de torná-la inviável.

O problema vem tendo sua importância aumentada na mídia especializada por duas razões que nada tem a ver com engenharia de tráfego. Primeiro, há o medo de que o ISP, de alguma forma, seja responsabilizado pela pirataria. Isso é (ou deveria ser) uma grande bobagem; nenhuma operadora de telefonia do mundo é responsabilizada porque alguém planejou uma conspiração por telefone, e nem os correios o são por entregar correspondências ilícitas. Eles são apenas o meio de transporte. A segunda razão é o mercado - há muitas empresas vendendo soluções de controle de banda, e interessa a elas que os ISPs comprem seus produtos. O que elas fazem? Divulgam números alarmantes, e destacam as questões éticas ligadas à pirataria. O resultado? Manchetes nas revistas especializadas, que alarmam a qualquer um que não estude o tema mais a fundo.

Construir um argumento lógico para combater esta abordagem é difícil. Tenho para mim a certeza de que o tráfego P2P não apenas veio para ficar, mas se tornará a peça fundamental na independência dos ISPs. O oposto do P2P - o modelo de conteúdo central - joga todo poder na mão do provedor de contéudo, e torna o ISP um mero provedor de canais, sem valor agregado. Por isso, não entendo a intransigência em atacar o problema de outra forma, que seria mais produtiva a longo prazo.

9 de agosto de 2004

O futuro dos blogs

Nem bem comecei a me inteirar como os blogs de hoje funcionam, e já estou lendo sobre os blogs do futuro. Pois é, a curiosidade matou o gato. Acho interessante que boa parte da discussão se concentre em detalhes técnicos que a meu ver, não serão tão importantes assim. É como se todo mundo estivesse tão imerso no ambiente atual que tivesse dificuldade em ver o todo; os detalhes começam a ganhar importância, e a visão arquitetônica se perde.

O artigo The perfect weblog system detalha uma série de features que a autora, Anne van Kesteren, considera fundamentais para o "blog perfeito". A discussão também é boa, e cobre uma série de assuntos que eu já vinha estudando. Por exemplo, a estrutura mais ou menos padronizada para URLs, etc. Mas não tenho certeza se gosto de algumas das idéias - já vi argumentos convincentes contra discussões em threads, e acho que é possível criar uma alternativa superior.

Uma das referências dela me levou ao Mark Pilgrim, conhecido anteriormente pelo livro Dive into Python. A citação se refere a uma página mais antiga, How to make a good ID in Atom. Segundo a Anne, o ideal é usar o Atom como um formato de RSS; outros acham que o Atom é complicado demais. Ainda preciso estudar para entender melhor o problema. O Mark aponta algumas características dos permalinks de um blog, e defende o uso de uma ID única para uso com RSS. Também concordo com isso. Saltando de galho em galho, o Mark cita ainda o problema de outro blogger, Phil Ringalda, com a "caixa postal cheia" - não de email, mas de entradas alimentadas pelo RSS.

Aliás, quanto mais eu estudo, mais o esquema de blogs me lembra o antigo Usenet/Netnews. Lá os posts tinham ID, e os newsservers faziam um papel intermediário entre os blogs e os canais RSS. O sistema atual é mais inteligente, melhor distribuído, e me parece também mais simples e robusto. Vamos ver quanto tempo ele resiste ao spam...

Um blog sobre E-learning

eCornell Research Blog: Studies

A Universidade de Cornell está usando efetivamente um blog para divulgar suas pesquisa internas e fomentar a comunicação. Será que outras universidades vão conseguir seguir esta onda?

Porquê as redes sociais crescem de forma diferente em cada cultura?

Joi Ito's Web: Technological diffusion patterns

Acho que eu não sou o único interessado em entender a forma como os blogs crescem e se tornam populares, às vezes muito mais rapidamente em uma área do que em outra. O caso do Orkut no Brasil (citado pelo autor) é interessante; sendo brasileiro, e conhecendo o gosto brasileiro pela conversa, acho que é simplesmente porque o site acertou no gosto local, e teve a sorte de chegar na hora certa, com uma comunidade online razoavelmente bem estruturada. O brasileiro não é muito de escrever páginas longas, o negócio por aqui parece ser o papo rápido, de poucas palavras, muitas imagens, etc. De qualquer forma, a observação das leis diferentes que regem as redes sociais é importante, e precisa ser melhor estudada.

4 de agosto de 2004

Gerenciamento de informações x gerenciamento de projetos

Reforming Project Management Theory and Practice

Tenho muito interesse em gerenciamento de projetos. Admito que em parte, é pela minha própria dificuldade em me manter organizado, mas independente de restrições pessoais, é um tema complexo e interessante. Meu interesse primário é na área de gerenciamento de informações, e o gerenciamento de projetos introduz variáveis extras: tempo e recursos externos. Boa parte das idéias que venho trabalhando a respeito de gerenciamento de informações envolve a relação com o tempo (por exemplo, no caso dos Blogs, ou das agendas pessoais); sem contar com o fato de que um projeto é uma das formas naturais de agrupar e classificar informações.

O autor deste blog já publicou alguns livros e artigos sobre o assunto. No site, há várias idéias que valem uma lida. Se alguém mais visitar o site, pode deixar seus comentários para que possamos discutir o assunto.

Pragmatismo e realização pessoal

Ouch. Eu precisava ler essa aqui: GapingVoid:

"Rather than quitting my current job to go off and do something 'creative'-- write a novel, open a bed & breakfast in Vermont, start a scented candle mail-order business, whatever--frankly I'd prefer just to keep on finding new and creative ways to get more from the job situation I already have."

Achei este posto no Planet Python, um site que antigamente postava resumos de mensagens de listas de discussão, e que se rendeu ao fenômeno Blog. Esta é realmente muito boa... Afinal, porque não tentar ser produtivo (e feliz, diga-se de passagem) aproveitando as oportunidades que temos nas mãos? Isso é que é pragmatismo. Bom, no meu caso, há que se lembrar que não há uma 'job situation' a se falar... mas vale a dica, vale a filosofia de vida.

2 de agosto de 2004

"The cluetrain manifesto"

the cluetrain manifesto - 95 theses

Já havia ouvido falar deste manifesto antes, mas agora só é que eu entendi realmente o que eles queriam dizer. O manifesto é um novo entendimento de como os mercados funcionam. Eles focam no poder da comunicação interpessoal, que segundo eles é o que realmente alavanca os mercados. Na época em que toda comunicação tinha que passar por meios de massa, isso não era possível, mas a comunicação pessoal e direta via Internet rompeu barreiras, permitiu que os mercados (através das comunidades de usuários) se organizassem, se conhecessem e trocassem idéias; e finalmente, que eles começassem a penetrar dentro das próprias empresas por meio de portas que anteriormente ficavam fechadas. É essa revolução que está modificando a forma como os negócios procedem, e que pode ser capitalizada por empresas dinâmicas para se diferenciar.

Mamãe eu quero ser bibliotecário quando crescer!

Librarian Avengers: Why you should fall to your knees and worship a librarian

Esse é o melhor texto que eu já li sobre bibliotecários recentemente. E eu sinceramente espero que o autor esteja certo. Desde os meus tempos de UFMG, já faz uns quinze anos, eu não entendia o que é que a Escola de Biblioteconomia fazia estando ligado exclusivamente à área de Letras, sem nenhum contato com a área de Computação... e muito menos, o que é que eles iam fazer para se atualizar se nenhum dos professores levava a idéa da BITNET, e depois da Internet, muito a sério. Parece que as coisas estão mudando... graças a Deus!

1 de agosto de 2004

Uma visão mais ampla da arquitetura

The Lost Prophet of Architecture

A arquitetura ocupa uma posição diferenciada entre as ciências e as artes. O arquiteto precisa equilibrar a busca do conforto humano, o conhecimento técnico da construção, e um senso estético que lhe permita combinar estes fatores em cada obra. A arquitetura é um ofício antigo, mas a maestria no equilíbrio de suas vertentes é algo difícil de ensinar, em parte pela dificuldade natural em quantificar fatores humanos e estéticos. Assim, como comunicar em palavras a arte de construir bem?

O arquiteto Christopher Alexander fez da sua carreira uma busca pela resposta a uma questão ampla. O que começou com a tentativa de desenvolver uma metodologia para avaliar de forma objetiva a qualidadade de um projeto arquitetônico se tornou a busca de uma vida. A partir do final dos anos 60, Alexander consolidou sua fama como um dos gurus da arquitetura - um mestre um tanto controverso, é verdade, e muitas vezes rejeitado pelos seus próprios pares. Mas o seu trabalho encontrou ressonância em outras áreas, e forneceu uma das grandes ferramentas para expressar verbalmente soluções genéricas para sistemas complexos.

A idéia de gerar padrões - permite expressar uma solução como algo que surge naturalmente a partir de um certo contexto. Em termos de arquitetura, padrões simples representam coisas que nos dão conforto; é como se, de forma intuitiva, estivéssemos intrinsecamente programados para entender e aceitar determinadas soluções. É como se o problema pedisse aquela solução, como se ela fosse a única capaz de satisfazer um conjunto de requerimentos. O padrão carrega nosso conhecimento interior em uma forma verbal, comunicável, e por extensão, quantificável - observando um projeto, é possível verificar se ele possui ou não determinados padrões, e se os problemas que ele apresenta foram adequadamente abordados.

Na área de análise de sistemas, o trabalho de Christopher Alexander deu origem a todo um ramo interessado na pesquisa de padrões de design de software. No entanto, o seu trabalho na área da arquitetura e do planejamento urbano tem um significado muito maior, que penetra também na nossa própria compreensão do que é qualidade de vida, e como ela pode ser obtida. É um trabalho complexo, amplo, às vezes confuso, mas sempre desafiador.