Sobre a morte de Bin Laden

O regozijo pela morte de Bin Laden enoja-me, mesmo tratando-se de alguém que considero altamente criminoso como o líder da Al-Qaeda.

Consigo compreender o desejo de justiça e até certo ponto o de vingança. Agora, não consigo compreender a satisfação com que se celebra a morte, como se da vitória de um qualquer clube de futebol se tratasse. Celebrar a morte desta forma reduz-nos a animais sem raciocínio, sem elevação, e infelizmente também sem valor.

Para o futuro da sociedade é bom que Bin Laden tenha desaparecido. As suas intolerâncias são intoleráveis. Infelizmente o seu desaparecimento deixa-nos também a todos com o sabor a sangue entre dentes e esse é muito mais difícil de apagar.

O novo sistema de ranking do Google é uma fraude?

O Google anunciou que alterou o seu algoritmo de classificação de sites de forma a melhorar a qualidade dos resultados. Ora há algo que não consigo perceber. Como define o google a qualidade de um site?

Imaginemos que queremos medir a qualidade de um site: A qualidade de um site depende da relevância da informação nele existente para o utilizador que procura essa informação. Portanto, a qualidade tem que ser medida contra a bitola do utilizador. Como o Google tem milhões de utilizadores tem também milhões de bitolas o que torna a tarefa de definir a qualidade algo impossível.

Até agora o google tem-se socorrido de um truque para evitar a questão das inúmeras bitolas: Utilizar uma medida indirecta da qualidade! O algoritmo PageRank, idealizado pelos fundadores do Google e exposto no paper “The Anatomy of a Search Engine” foi o cavalo de batalha do motor de busca durante anos. A medida indirecta da qualidade era a quantidade de links de outros sites que apontavam para o nosso site. Isto indicaria quem os outros considerariam ser uma autoridade em determinada matéria. Claro que apesar de bela, esta ideia só por si não garantiria a qualidade dos resultados.

O Google não pode pesquisar a web de cada vez que se introduz uma pesquisa pelo que o sistema teve que ser acoplado a sistemas de processamento de língua natural, sistemas de classificação de textos, técnicas de machine learning, etc… de forma a que quando uma pessoa introduz um termo de pesquisa o que o motor faz é classificar este termo em categorias já existentes e devolver os resultados pré-classificados.

Para além disso o sistema tornou-se vulnerável a uma estratégia de linkfarming ou seja a criação artificial de links para a nossa página por forma a inflacionar a nossa “autoridade” artificialmente (o que não quer dizer nada acerca da qualidade).

Com estes problemas o google teve que mexer no algoritmo e a solução passou pela incorporação de “afinamentos”. Ou seja, partindo da classificação base o google começou a procurar soluções para as anomalias. Introduziu-se o rel=”nofollow” para tentar evitar o envio de autoridade, tentou-se detectar spam e falso search engine optmization (SEO) e começou a penalizar todos os sites que fizessem “batota”.

Batota no sentido do google era todo o site que usasse estratégias para subir artificialmente nos rankings de autoridade do google. A BMW alemã por exemplo foi penalizada por utilizar uma página cheia de keywords que depois era substituída via javascript por uma página normal aumentando assim a densidade de palavras e a sua autoridade nos tópicos relacionados com automóveis bávaros.

O google entre intervenções humanas, semi-automáticas ou mesmo não supervisionadas entrou numa luta que inevitavelmente perderá: o jogo do gato e do rato. A cada alteração do google os SEO masters alteram as suas estratégias para repor os seus sites novamente online.

Já escrevi 10 parágrafos e a questão de classificação de páginas de qualidade ainda é uma miragem. Como pode o Google fazê-lo? Como disse antes o problema é a definição de qualidade. Não há uma. Há tantas quantos os utilizadores, e aqui é que entra o único parâmetro que pode diferenciar do Google de um qualquer SEO Master para que os resultados sejam significativos. A solução do Google poderá passar pelo Grafo Social de cada um dos seus utilizadores.

O Google pelas enormes quantidade de dados que tem acerca de cada um dos seus utilizadores pode fazer um perfil de cada um de nós. Perante uma query pode analisar o nosso perfil e o perfil dos nosso amigos e seus amigos para perceber a partir do nosso histórico de acções se determinados tipo de sites corresponderão às nossas expectativas.

Um exemplo, se eu pesquisar por “social networks” certamente que não estarei à procura de sites do tipo facebook ou myspace, mas antes estarei interessado em teoria de grafos, detecção de comunidades, k-core analysis. E um artigo interessante para mim poderá vir do arXiv, Nature ou Science. Porquê? porque para mim será mais natural achar que um artigo vindo dessas fontes terá mais qualidade. Como é que o google vai saber isso? Naturalmente pelos meus hábitos de navegação e também pelo perfil dos alters do meu grafo social.

Utilizando os dados do meu grafo social o google pode melhorar os resultados do seu motor de busca para me dar sites de qualidade. Por outro lado baterá também os SEO masters porque estes não terão acesso ao volume de dados sociais que o google tem e portanto não poderão optimizar os seus sites para cada um dos possíveis utilizadores, mas continuarão a ter que optimizar baseado em estratégias de campo médio não podendo individualizar os sites.

Por outro lado, se os dados dos grafos sociais do google forem expostos publicamente…  podemos estar perante um problema e novamente voltaremos à confusão, principalmente porque aí surgirão estratégias para eliminar a diferenciação dos utilizadores por forma a valorizar certos sites. Esta é alias a minha grande reticência em relação ao Facebook e ao seu grafo social que penso ser ainda mais interconectado que o do Google, mas que surgiu de base como uma ferramenta para vender mais aplicações e publicidade aos utilizadores do FB. O google terá um grafo mais esparso e assim talvez mais útil. Aliás, definir qual o threshold óptimo para os pesos das ligações poderá ser o grande desafio no desenho dos grafos sociais destas duas companhias. Como define o FB qual dos nossos 7000 amigos é que são relevantes? O tema da manipulação de grafos é  conversa para outro post…

Concluindo, se o google estiver a implementar um motor de busca que responda a pedidos individuais de forma única e personalizada atendendo ao grafo social, poderá efectivamente ter uma solução interessante. No entanto isto tem um problema, que é precisar de utilizadores e dos seus perfis, e não resolve totalmente a questão da qualidade dos sites. Continua a ser uma medida indirecta da qualidade do site ajustando a bitola da qualidade pelo histórico de cada um. Funcionará melhor do que ultimamente sem dúvida, mas continua a ser uma falsa solução. Não é uma medida de qualidade de um site, por tal ser impossível, mas uma personalização que poderá falhar quando os nossos interesses mudarem. E felizmente mudam!

 

 

ECCS10 – The tools to prepare and run a conference

Now that ECCS’10 preparation is almost finished and we approach Monday morning, I find myself wondering about the tools we used to prepare this conference. I can say the workload would have been much higher if we didn’t have some online colaboration tools. Here is the list of what I think made a significant contribution to success.

  • Dropbox. Dropbox by itself made the life of the team much easier. There was always someone editing some file, sharing some logo of a sponser or archiving emails from participants. I think I’ve seen the Growl notification from Dropbox more than the times I breathed.
  • Google Docs. The capabilities of simultaneous editing made this another power presence on our daily routine pre-ECCS’10.
  • Skype. Meetings made easy. Even during summer when part of the team was three thousand kilometers away we had a way to get work done.
  • On a smaller scale, Inkscape, Textmate and Photoshop where very important.
  • A final note to Drupal. It’s been perfect for what we needed with the versatility to add some other things. Just the right platform.
  • A negative note: The Myreview system for the submission process. IT SUCKS! BIGTIME! Someone needs to develop something that doesn’t require a course in rocket science to work with. Myreview needs an easy to use interface for admins, chairs and reviewers. A general overhaul is needed.

Google Wave: O que é que correu mal?

Google Wave

Não se compreende o que poderá ter corrido mal com o Google Wave. Finalmente quando o produto está estável e pronto para ser utilizado pelas massas não há ninguém (ou há muito poucas pessoas) interessado em utilizar o Google Wave. De novo paradigma que iria substituir o email a projecto pronto a fechar o que é que aconteceu? (more…)

Michael Arrington está errado

Michael Arrington escreveu no seu editorial de domingo que com o fim da privacidade na internet a reputação acabou. Ou pelo menos o conceito de reputação como a concebemos até agora.

Não podia estar mais errado. A reputação de alguém é exactamente aquilo que vai permitir separar os trigo do joio. A reputação será aquilo que dará a credibilidade a uma história que seja publicada. É aquilo que separa um cronista de jornal de um blogger. É algo que faz com que as pessoas prefiram ler um Miguel Esteves Cardoso a um zé da esquina aleatório de um blog do sapo (basta ver o esforço que os senhores do sapo fazem para atrair bloggers com reputação para a plataforma.)

O Michael Arrignton claro que lança este artigo sob o pretexto de falar de uma empresa que se promete lidar com as reputações dos utilizadores da internet. Acontece que no final isto será mais uma forma de ruído, provavelmente sujeita a processos legais em catadupa (afinal está-se a falar da reputação de pessoas) e no fim do dia o que conta ou não é exactamente aquilo que o Michael Arrignton defende que vai acabar: A Reputação vai separar as águas e as pessoas vão continuar a preferir alguns especiais à maioria silenciosa (por mais interessantes que possam ser os seus textos) sobre a qual nada se sabe.

a internet nos próximos 10 anos…

já imaginaram o que será a web daqui a 10 anos? não é preciso tanto. já imaginaram o que será a experiência de utilização do computador daqui a 2 anos? e já pensaram onde é que as empresas actuais estarão? façam um exercício comigo, atendendo às cotas de mercado actuais,

[ad#ad-1]daqui a 2 anos:

  • a microsoft participará nessa experiência com o browser (Internet Explorer em 2008)
  • a apple participará nessa experiência com o melhor local de vendas à distância (iTunes em 2008)
  • o google participará nessa experiência com o melhor sistema de pesquisas (google.com em 2008)

até aqui tudo bem… mas pensem no seguinte: daqui a 2 anos o google terá o sistema de pesquisas a funcionar no browser da microsoft para eventualmente enviar as pessoas que querem gastar dinheiro para a loja da apple.

algo está mal neste cenário. por algum motivo o google anunciou que está a desenvolver um browser chamado “chrome“.

por este triângulo, browser – pesquisa – loja, vai passar o futuro da internet (corrijo, vai passar o futuro do dinheiro da internet). é perfeitamente natural por isso que todos o queiram controlar.

a estratégia da microsoft foi começar pelo browser e agora procurar o sistema de pesquisas e o de vendas. a aquisição do yahoo tinha como objectivo o primeiro mas falhou. agora o google está a tentar entrar no território da microsoft com a produção de um browser. ainda é muito cedo para perceber se terá sucesso ou não, mas no entanto vai agitar as águas dos posicionamentos estratégicos das 3 empresas, porque embora a apple tenha a o sistema de vendas não pode deixar de entrar neste triângulo sob pena de ser encurralada para fatias muito pequenas de dinheiro. aliás foi por isso mesmo que a apple tentou entrar no mercado do browser expandindo a distribuição do safari para windows (com sucesso relativo, é claro)

até agora o que se tem visto é que cada uma das empresas quando tenta sair daquilo em que é especialista não tem conseguido o sucesso que esperaria. se o “chrome” do google efectivamente crescer então a apple que se cuide porque o passo seguinte para o google será acoplar ao “chrome” o tal sistema de vendas de produtos que possa suplantar o sistema da actual da apple.

update: se o meu raciocínio estiver minimamente correcto não esperem uma versão do “chrome” para mac ou linux nos próximos tempos. pelo raciocínio acima tal não é necessário.

Eleições americanas

Foto de kagey_b

Já falei aqui das eleições americanas e apesar de serem mais ou menos como as nossas cá pela chafarica, tem uma coisa interessante: Tudo é proporcionalmente maior. Os gastos, os discursos, os debates, os comentários e os comentadores… Tudo se processa numa escala incompreensível para quem vê a política portuguesa pelo canudo dos mesmos de sempre, chatos, chatérrimos aliás… comentadores (já uma vez apelidados de “paineleiros”) nacionais.

Uma das questões que se coloca agora na campanha para as primárias e depois de 10 vitórias consecutivas de Obama é porque a Hillary ainda não atirou a toalha ao tapete para não prejudicar o partido. Eugene Robinson coloca a pergunta melhor que eu no artigo que escreveu para o Truthdig, pelo que aconselho a passar por lá.

Efectivamente concordo com o ponto de vista do autor do artigo, mas penso ainda que a não desistência da Clinton tem a ver com algo mais profundo nos EUA. A sua resiliência prende-se com o apoio que o seu partido lhe presta e que numa situação de equivalência preferirá a candidata que andou a preparar nos últimos 8 anos, ao novato com o novo discurso. Para além disso nas sondagens Barack contra McCain e Clinton contra McCain parece estar tudo muito equilibrado com ligeira vantagem para Barack. Contudo estas sondagens estão muito equilibradas. Caso no futuro próximo esta sondagem se desequilibre para um dos lados então o partido democrata terá que rapidamente impor um vencedor, caso contrário arrisca-se a depenar os cofres dos patrocinadores para a verdadeira campanha contra o partido republicano. Isto para além de andar a abrir feridas internas… e ninguém pense que os Republicanos vão ficar parados à espera que os Democratas se recomponham…

A Censura à Internet

Foto de NaOH

Ultimamente tem começado a surgir notícias muito preocupantes no que diz respeito ao futuro da internet tal como a conhecemos hoje, principalmente porque os políticos começaram a querer decidir sobre o assunto. Mais sobre isto adiante.

Na Dinamarca um tribunal decidiu obrigar um ISP a bloquear o site thepiratebay.org argumentando que o ISP Tele2 ajudou à violação dos direitos de autor na medida em que quando os seu utilizadores utilizavam o thepiratebay.org haveria cópias de material pirateado nos routers do ISP. Contudo isto vai contra a directiva comunitária Infosoc, que diz claramente que a cópia nos routers é permitida, como excepção e sabendo mesmo que se trata de uma limitação dos direitos dos titulares dos direitos de autor. Mais ainda, esta directiva não é negociável e todos os estados membros tem que a aplicar.

Em França o presidente Sarkozy propôs a criação de uma taxa de acesso à internet. Os detalhes não são muito claros ainda, mas a ideia era de que o acesso à internet iria financiar o canal público de televisão francês sem publicidade. A proposta não é só idiota, mas perigosa. Primeiro, porque se as pessoas estão a mudar os seus hábitos da TV para a Internet, isso diz respeito às pessoas, e à sua liberdade de opção. O facto de as pessoas preferirem agora utilizar a internet como meio de entretenimento e informação não pode significar por si só uma taxa. Parece uma multa à mudança. Por outro lado é perigosa para a própria França uma vez que a taxa torna-se uma limitação na disseminação de uma tecnologia que todos querem ubíqua. As reacções aliás não se fizeram esperar e a comissária europeia para as telecomunicações, Viviane Reding, disse que a proposta ia contra a “visão de uma Europa sem fronteiras e de acesso barato à internet”. Menos politicamente correcto que a comissária europeia, o CEO da rede social Xing, baseada na Alemanha, dissse “Se o Sarkozy quer retirar a França da era Digital, então deve ir em frente”. Como se alguma vez um Alemão se importasse com a França…

Em Inglaterra o governo anda a estudar a possibilidade de bloquear o acesso dos utilizadores de internet que forem apanhados a fazer downloads ilegais de música ou filmes. O rascunho da proposta está em discussão mas implica que os ISPs seriam os responsáveis por monotorizar os tráfego dos seus clientes accionando as expulsões. Os ISPs que não cumprissem poderiam ser processados e a informação privada dos suspeitos de downloads ilegais seria fornecida aos tribunais. A associação de provedores de acesso de internet britânica já veio entretanto a terreno dizer que “os ISPs não tem capacidade de verificar cada pacote tal como os Correios não podem verificar cada carta”. Por detrás desta medida parecem estar novamente as associações de direitos de autor que aplaudem a proposta, mas que mais uma vez tem a noção de que a infra-estrutura da internet está lá para ser governada com os interesses da industria da música e do cinema.

Estas três histórias mostram uma tendência na luta contra a pirataria. Depois de anos a perseguir mães solteiras e jovens de 11 anos, as associações de direitos de autor perceberam que estavam a criar uma má imagem (só agora?). Assim, procuram dar a volta a um problema fundamental que está na definição do que é o “direito de autor” e o que é a “cópia” e decidiram que a melhor acção era atacar os “pipes”, obrigando os fornecedores da estrutura de suporte da internet serem responsáveis pelas acções dos utilizadores. E isto fazendo-se através da pressão legislativa, e portanto convencendo o elo mais fraco (os políticos compram-se facilmente) para tomar medidas. Estes não percebendo nada do assunto estão a cair na cantiga e as medidas legislativas propostas mostram decisões de info-ignorantes.

Talvez pelo andar da carruagem para a semana se proíba de enviar cartas quem enviar uma cópia de um CD pelos correios a uma namorada, ou se responsabilize as “Estradas de Portugal” pelos crimes que os condutores cometerem nas estradas sob sua supervisão. Ou então que tal responsabilizar os Governantes pelos crimes praticados pelos seus cidadãos. Eu cometo o crime, o Primeiro Ministro vai preso?

Referências deste Artigo:

http://www.iht.com/articles/2008/01/21/technology/reding.php http://torrentfreak.com/pirate-bay-blocked-by-isp-080204/ http://news.bbc.co.uk/2/hi/business/7240234.stm