domingo, 30 de novembro de 2008

Navegando na Web 2.0


Navegar na Internet, para alguns, pode ser apenas acessar páginas virtuais sem ter a mínima influência sobre o conteúdo que se é acessado funcionando da seguinte forma: o usuário acessa uma página e lê o seu conteúdo ou baixa algum arquivo; a interação nesse caso é mínima. O ponto mais interativo, talvez, nesse modelo é o preenchimento de formulários, a participação em fóruns de discussão, o expressar de opiniões a respeito de uma notícia ou postagem ou o envio de dados por meio de alguns sites. Acontece que a Internet não é só isso ao ponto de se dizer que ela evolui para um novo modelo cunhado como Web 2.0.

A Web 2.0 é o nome utilizado para se referir à “nova” forma como as pessoas interagem com a Internet. Nessa rede o ponto forte é que são os próprios internautas que colaboram para a criação de conteúdos virtuais e para o avanço da rede mundial. Notadamente, nesse ambiente têm-se os seguintes exemplos: comunidades de relacionamento como o Orkut, comunidades de conteúdo como a Wikipédia, comunidades de informação como blogs e podcasts, comunidades de entretenimento como o YouTube, forma de compartilhamento de informações onde os usuários transformam as suas máquinas em servidores de arquivos torrent, comunidades de comercialização entre usuário como o Mercado Livre, entre outros.

O sucesso desses mecanismos tão utilizados por muitas pessoas é possibilitado pelos usuários que fazem o crescimento desses serviços serem tão promissores e tão divulgados, além de produzirem o conteúdo acessado. O papel das empresas que disponibilizam essas aplicações é fazer com que essas estejam funcionando perfeitamente e que a melhoria contínua do serviço, implícita ou explicitamente sugerida pelos usuários, seja implementada a partir de uma atitude visionária na busca da melhor forma de agradar ao público-alvo.

Outro fator é que a Internet torna-se nesse paradigma uma grande plataforma por abrigar as aplicações que nela são executadas. A dependência do uso de softwares aplicativos e o pagamento de licença de uso “cai por terra” num modelo onde o que importa é a disponibilidade e a gratuidade das aplicações visto que os usuários tornam-se “sócios” das empresas dona da aplicação ao contribuírem com o sucesso do serviço e as organizações precisam do usuário para que o serviço tenha sucesso. Logicamente que a empresas mantenedoras das aplicações ganham quando os seus produtos ficam em destaque na Internet e o usuário “ganha” com a existência da aplicação.

Na Web 2.0 o que importa é o espírito colaborativo e interativo dos usuários. No Mercado Livre, por exemplo, para saber se um vendedor é confiável o comprador vê a positividade do vendedor e os depoimentos que são definidos por quem já comprou produtos daquele fornecedor. Dúvidas podem ser sanadas lendo-se o histórico de perguntas dirimidas ao vendedor ou fazendo-se novos questionamentos. O ganho do site fica por conta dos anúncios nele afixados e por conta do recebimento de pequenas taxas das transações realizadas pelos usuários.

Os blogs também, como produtos da Web 2.0, são grandes oportunidades para que as pessoas possam ir além do conteúdo das mídias tradicionais (jornais, revistas, TV, rádio, etc.). A vantagem é que profissionais podem levar o seu ponto de vista diretamente ao seu público fazendo com que informações profissionais não sejam distorcidas por jornalistas, ou falsos jornalistas leigos ao assunto, tornando o conteúdo publicado algo mais técnico e profissional do que meramente informativo ou descritivo. Um Professor de Medicina, por exemplo, poderia criar um canal de comunicação direto para os seus alunos onde poderia explicitar o conteúdo abordado em sala de aula e, ao mesmo tempo, poderia estar contribuindo com os outros milhões de alunos ou profissionais que se interessassem por aquele assunto. A desvantagem dos blogs seria a desinformação gerada por quem não possui conhecimento levando uma falsa informação aos seus leitores. Um mecanismo regulador são as opiniões dos leitores que deixam o seu parecer a respeito das postagens ou notícias influenciando assim, negativa ou positivamente, na confiabilidade daquela informação.

Outro mecanismo interessante na rede 2.0 são os agregadores de feeds. Essa tecnologia faz com que, ao invés do usuário ir até a informação, a informação vá até ele de uma forma mais organizada, precisa e mais fácil de ser gerenciada. Outros modelos complementam a Web 2.0 como o e-commerce (já comentado no exemplo do Mercado Livre), widgets, aplicativos open-social, etc.

A Web é um “mar” de possibilidades e os horizontes continuam a se ampliar. Nos dias atuais “navegar é preciso” nas fontes de conhecimento virtualmente disponível. Importa termos uma boa bússola para nos orientar nessa empreitada.


Rozenildo Rodrigues Pedroso

Bacharelando em Sistemas de Informação

domingo, 16 de novembro de 2008

Virtualização: Múltiplos Sistemas num Único Hardware

Num determinado dia ao “rodar” mais de um sistema operacional num mesmo computador por meio de “particionamento” (divisão do disco rígido em partes) e dual boot (inicialização com opção de escolha de mais de um sistema operacional), alguém deve ter se sentido maravilhado ao saber que é possível ter mais de um sistema operacional – por exemplo, sistemas operacionais Linux, Windows e Unix – funcionando numa mesma máquina. O encantamento, nesse caso, só foi suplantado quando esse alguém conheceu a virtualização.

A virtualização é uma técnica onde é possível pôr para funcionar dois sistemas operacionais simultaneamente num mesmo computador. É isso mesmo! Numa única máquina pode-se “rodar”, por exemplo, ao mesmo tempo, instalados, um sistema operacional Windows e uma distribuição Linux.

Algum usuário um pouco desinformado poderia perguntar: “Mais por que raios eu gostaria de utilizar dois sistemas operacionais ao mesmo tempo se eu só consigo utilizar um por vez?”. Muitas empresas já encontraram a resposta e as que ainda não encontraram, pelo menos, se não ouviram, vão ouvir falar bastante a respeito disso no futuro. Pois alguns já se aventuram a dizer que o futuro dos servidores passará pela virtualização. (...)

Os benefícios da virtualização estão aparecendo numa hora em que as empresas buscam a velha tarefa de diminuir custos (principalmente devido à crise econômica que estamos vivenciando) aliada a simplificação para realocar recursos computacionais. Por exemplo, uma empresa que tem um servidor de banco de dados na plataforma Windows, um servidor web, e uma aplicação rodando em Linux, tradicionalmente utilizaria três servidores onde, na maior parte do tempo, esses servidores estariam “ociosos” por não consumir toda a estrutura de hardware que lhes foram conferidas. Além do mais, o consumo de energia seria de três máquinas em funcionamento. Outra questão é a redundância (termo utilizado para referenciar a multiplicação – ou duplicação – de disponibilidade de serviço em forma de contingência). No nosso exemplo, se fosse uma aplicação crítica (aplicação que precisasse estar disponível nas 24 horas do dia, nos 7 dias da semana) certamente teria que haver mais servidores funcionando além dos três mencionados, para caso algum deles parasse de funcionar o outro assumisse a dianteira, não comprometendo assim o funcionamento de alguma aplicação.

Com a virtualização do exemplo anterior, apenas um servidor bastaria. O diferencial desse servidor estaria na necessidade dele ser mais “parrudo”, ou seja, ter um hardware robusto o suficiente para suportar os três servidores mencionados funcionando mais a redundância. O ganho começaria pela economia de energia; passaria pela diminuição de espaço físico para abrigar os “servidores”; transitaria pela facilidade que se tem nesse tipo de ambiente para balancear a utilização da carga de cada servidor e terminaria com uma plataforma que suportaria qualquer aplicação ou qualquer sistema para nenhum “xiita” botar defeito.

No Brasil, avalia-se um forte crescimento no uso da virtualização nos próximos anos, principalmente quando houver o crescimento de vendas de processadores com 4, 6 ou mais núcleos (processadores multi-core) com suporte à virtualização e o aumento da utilização da arquitetura Blade (uma nova abordagem na forma de gerenciar ou escalonar recursos computacionais físicos).


Rozenildo Rodrigues Pedroso

Bacharelando em Sistemas de Informação

domingo, 2 de novembro de 2008

Windows 7: Poderá o Windows Vista ser Salvo?

No lançamento do Windows Vista todos achavam que a mais nova versão da Microsoft seria brilhante assim como era a sua interface. Cheia de recursos visuais e de outras maravilhas que encantavam o usuário pelos olhos, a nova versão levou muita gente a abandonar o Windows XP que era reconhecido pela sua robustez. Algumas pessoas no início “chiaram” por ter que disponibilizar 15 gigabytes de espaço em disco para a instalação do sistema, mais uma placa de vídeo para suportar a interface gráfica e, no mínimo, 1 GB de memória para rodar a aplicação porém, aceitaram “numa boa” porque achavam que o upgrade compensava tratando-se daquela nova versão. Algum tempo depois, falhas inaceitáveis como falta de compatibilidade com softwares aplicativos, instabilidade, mudanças estranhas na interface em relação ao XP, tudo isso deixou alguns usuários “loucos da vida” (como foi o caso na mudança do item ‘Adicionar Impressoras’ e a quantidade chata de avisos que apareciam quanto a advertências ou alertas de segurança) e fizeram do Windows Vista um pesadelo para usuários do sistema e para a Microsoft.

O erro, não admitido por quase ninguém mais que aparece nas entrelinhas, é que a Microsoft quis inovar com um novo sistema operacional deixando, assim, de aproveitar as experiências que obteve durante anos até chegar ao Windows XP (considerada a melhor versão da Microsoft até então).

Atualmente se fala no Windows 7, recentemente anunciado, que estará disponível para ser testado, em versão beta, a partir do começo do ano que vem e, em versão para utilização, a partir de 2010. De início, estranha-se um pouco quanto ao por que do lançamento de uma nova versão logo em seguida a um lançamento até então recente. A explicação, de cunho óbvio, admitida até mesmo pelo Colunista da própria Microsoft, é que o Windows Vista, infelizmente, foi um “fiasco”. Palavras de Paul Thurrot, Colunista do Blog do Windows Vista: “Windows 7 is Windows Vista done right” (traduzido: o Windows 7 é o Windows Vista feito direito).

E o Windows 7, embora pouco admitido, é isso mesmo: uma tentativa de salvar o Windows Vista que a cada dia perde a sua popularidade frente às reclamações constantes dos seus usuários. Algumas novidades da nova plataforma é que ela será mais leve que o Vista, será mais estável (é o que a Microsoft diz), mais personalizável e compatível, terá suporte a touch scren (toque em tela) e terá um novo conceito de organização de arquivos chamado Bibliotecas. Se o Windows 7 será melhor? Poucos ou ninguém ainda sabe disso. O que se sabe é que, a partir do Windows Vista a Microsoft está aprendendo a fazer sistemas operacionais novamente. Lamentável é que o Windows XP foi aposentado e que a Microsoft ignorou o aprendizado que obteve com ele, afinal, demonstrou isso numa nova versão – o Windows Vista – que, logicamente, teria que ser melhor e não o contrário.


Rozenildo Rodrigues Pedroso

Bacharelando em Sistemas de Informação