É cada vez mais difícil manter-mo-nos a par de toda a informação que nos é relevante/interessante. E a dificuldade é muitíssimo maior se pretendemos obter a informação via Internet.A simples quantidade de sites a gerar, listar e agregar notícias é assustadora.
Para além disso as notícias sobre o próprio meio tecnológico são cada vez mais abundantes e se juntarmos a isso alguns blogs interessantes começamos facilmente a precisar de mais de 24 horas para encontrar e lêr as notícias de um dia apenas!
Claro que nada disto é novo e muita gente já se anda a preocupar com este facto há muito tempo.
A parte boa de haver muita gente interessada neste problema é que os resultados começam a aparecer sob a forma de mecanismos de publicação/partilha de notícias (nomeadamente RSS e outros que tal; ao menos para este fim o XML é de facto uma tecnologia interessante e bem adaptada…).
Ora claro que ter um feed RSS em todas as fontes de informação não resolve problema nenhum pois a quantidade de informação a processar/assimilar continua a ser a mesma, apenas temos ainda mais um meio de a obter; as coisas começam a tornar-se interessantes é quando nos apercebemos que deste modo temos um meio standard de obter notícias e que, como qualquer meio apoiado num standard, este novo formato de notícias pode ser tratado de forma automática.
Ou seja, não é tanto o facto de termos um novo meio de difusão de notícias que é a boa notícia, mas sim os serviços de automatização que se pode construir sobre eles.
Para começar temos os agregadores de notícias. Existem bastantes para Windows, dos quais não conheço nenhum, mas que me dizem serem bastante interessantes.
Para Linux o caso é mais complicado: temos o Straw que parece ser tudo o que se quer num desktop news aggregator mas que precisa de gnome2 e mais uma data de tralhas que não estou para instalar; também não sou nada proficiente em python e isto não funciona à primeira pelo que nem vou tentar (sim, vi um colega meu instalar e sei que não é nada plug-and-play); existem mais um ou dois outros agregadores que não me dizem nada e depois temos o AmphetaDesk que estou a experimentar neste preciso momento e que tem a vantagem de funcionar à base de ter um mini servidor de http e fornecer os resultados num modo legível por qualquer browser.
Outra vantagem de termos as fontes de notícias automatizadas com feed RSS é a possibilidade de se fazer correlação entre feeds de news e da meta-informação que se pode gerar daí.
Coisas como o organica que para já apenas recolhe e compila informação sobre blogs registados no weblogs.com mas que tem planos para começar a correlacionar esta informação e dar dados interessantes sobre ela; ou como o GeoURL que utiliza meta-informação embebida nos blogs para os relacionar em termos geográficos e perceber quem está perto de quem e apontar “vizinhos”; sites que varrem constantemente séries enormes de blogs à procura de referências a livros/filmes/discos/etc e que baseados no número de hits, tipo de informação, etc conseguem inferir interesse das pessoas nesse artigo, etc.
Ou seja, com o RSS e mecanismos semelhantes temos finalmente uma forma standard e mais ou menos universal de exportar informação de uma forma practica e fácil de processar. O que depois fazemos com essa informação é outra história e algoritmos realmente interessantes de a processar procuram-se! mas pelo menos parece-me que se ultrapassou a barreira da recolha da informação, estamos prontos para começar a experimentar a sério formas de a processar.