A nova geração dos jogos e consolas já foi praticamente revelada, PS4 e Xbox One já não são segredos pra ninguém, excepto o preço em Angola claro. Mas e agora, como será a geração anterior (PS3 e Xobx 360) na época da nova geração?
VÃO PARAR DE LANÇAR JOGOS PARA A MINHA CONSOLA
Este é, sem dúvidas, um dos maiores pesadelos dos jogadores novatos, pensar que as desenvolvedoras irão parar de lançar jogos para a PS3 ou Xbox 360. A resposta é não, ainda vai durar um bom tempo até que isso aconteça mas alguns recursos dos jogos poderão não existir nas consolas da geração anterior.
Um exemplo de que isso não vai acontecer tão cedo é o caso do tão famosíssimo PlayStation 2 que até ao ano passado ainda recebeu os dois melhores simuladores de futebol que existem: PES 2013 e FIFA 13. Mas naturalmente que com o passar do tempo muitas desenvolvedoras irão se focar na nova geração.
MULTIPLAYER ONLINE VAI FUNCIONAR?
Esta é uma das funcionalidades queridas pelos gamers que começa a ser eliminada nos jogos já existentes no mercado com o passar do tempo, porque os jogos com modo multiplayer online necessitam de uma grande quantidade de servidores potentes para poderem interligar as consolas de vários gamers ao mesmo tempo, o que chega a ser muito dispendioso, então será preferível não mais dar suporte a estas funcionalidades em jogos antigos em detrimento dos novos lançamentos.
VENDER A VELHA PARA ADQUIRIR A NOVA
Isto é um facto real, vender a velha para comprar a nova, este mesmo facto já está a acontecer mesmo antes da nova geração estar disponível nas lojas. Alguns jogadores já reservam dinheiro para adquirir a nova consola, sendo que por isso o número de ofertas de consolas e jogos usados da geração vigente nos sites de compra e venda de usados em Angola tem crescido gradualmente.
Em suma as desenvolvedoras não vão simplesmente se esquecer do PS3 e da Xbox 360 mas se quisermos usufruir do avanço no mundo dos games teremos que estar por dentro da nova geração.
O sistema operativo para dispositivos móveis “Android”, tem uma coisa boa: ele é “livre“, ou seja, open source (código aberto, software livre… escolham um termo). Mas, também tem uma coisa péssima: ele é “livre”, ou seja, open source (código aberto… decerto que deu para entender).
Por ser livre, os fabricantes de hardware, as empresas que apenas montam os dispositivos, começam a pensar em usa-lo nos seus projectos, nem que sejam apenas “projectos teste”. O facto é que se funcionar, terão lucros com certeza, se não funcionar… bem, pelos menos tentaram.
A HP decidiu que é a sua vez de tentar essa estratégia e lançou um computador de secretária – chamado por nós de computador de mesa, ou ainda pelo termo mais comum “Desktop” – com sistema operativo Android. Sim, leram bem, um desktop com Android instalado, como o único sistema operativo.
Esse computador tem um ecrã de 21,5 polegadas, sensível ao toque(touchscreen) e vem no formato All-in-one( tudo em 1, veja a imagem acima). Ele foi apelidado de Slate 21 e na verdade esse computador se comporta como um tablet grande sustentado numa base.
Outras características
Sistema Operativo: Android 4.2.2
Processador: Tegra 4 da Nvidia.
Ecrã: De 21,5 polegadas , tecnologia IPS, com resolução de 1080p
Preço: 399 USD
Com essas características e esse preço, muitos devem estar a pensar em correr para as lojas e conseguir comprar esse computador, mas há uma contrapartida: o Slate 21 não tem bateria embutida, ou seja, teremos de mantê-lo sempre ligado, tal como um computador de secretária comum.
Se ainda assim ficou interessado no Slate 21, aguarde até setembro para ver como o Android se comporta em ecrãs bem maiores.
Este é o primeiro duma serie de artigos que irei publicar, desvendando alguns ‘segredos’ do funcionamento desta espectacular plataforma de serviços que funcionam na Web. Dizemos que são ‘segredos’, porque a maior parte da informação que discutiremos convosco foi providenciada pela Google e está disponível a quem quiser. Óbvio que procuraremos usar uma linguagem mais simples possível, tecnicamente acessível a maior parte de nós. Estamos em crer que é bastante interessante o que temos para vos relatar. A razão porque escolhemos a Google foi por termos verificado que esta corporação que iniciou numa sala dum laboratório universitário em Stanford, tornou-se poderosa, a ponto de consagrar-se um provedor de telecomunicações, publicidade, entretenimento, computação e acima de tudo começa a assumir posições de padronizador/dinamizador em campos de pesquisa absolutamente emergentes hoje em dia, como o BIGData que iremos falar mais adiante.
Eu queria iniciar por contar-vos uma pequena historia: Em 2004/2005 enquanto técnico médio e programador Web freelancer em ASP/ASP.Net/C#/SQL Server fui assistir a conferencia na UCAN que consagrou a já defunta Associaçao Angolana de Software Livre (ASL).
A conferencia estava cheia de gente com bagagem de primeiro grau, como por exemplo Dr Pedro Teta, Eng Dimonekene Ditutala e Msc Mateus Padoca Calado. No entanto o que me chamou mesmo a atenção, foi a declaração do Dr Aires Veloso (um experiente docente de programação), onde ressaltou que um sistema a serio tinha de ser criado com uma framework/linguagem de verdade, tal como .Net ou Java.
Aquelas palavras ficaram-me na mente, ainda mais, porque não possuía conhecimentos sobre computação paralela. Somente anos depois, percebi que fazia todo sentido ele ter dito aquilo. Aquela era a época dominada por linguagens para desenvolvimento dinâmico como Cold Fusion Modules (CFM), ASP e um tal de PHP, lol. Estas eram, na altura, linguagens não orientadas a objectos e sem suporte a computação paralela.
Por isso era somente natural que um serviço de buscas e publicidade como o Google que crescia a todo vapor se sentisse ‘tentado’ a optar por plataformas como ASP.Net e Java. Mas, nem pensar!!! O génio de Sergey Brin e Lauwrence Page ‘permitiu-os’ seguir um outro caminho: Optaram por utilizar uma linguagem que até então era desconhecida para a Web: O Python (esta linguagem que tive oportunidade de aprender enquanto estagiário numa das instituições governamentais).
De facto, Sergey e Larry, não a escolherem por acaso. Esta linguagem tinha suporte a orientação de objectos, sendo fortemente tipada (tipos de dados interessantes, como listas e dicionários) e sobretudo, é software livre. Tiveram ‘apenas’ o desafio de portar para a Web, porque até então não havia conhecimento do uso desta linguagem na Web de forma massiva, senão em desktop e também aí, muito mais em aplicações para administração de sistemas *.NIX.
Este desafio foi vencido recorrendo ao uso de CGI (Common Gateway Interface) sobre o servidor HTTP Apache, ou seja, por meio dessa interface era possível a código não nativo ser executado pelo Apache. Alguns de vocês deverão lembrar que antes de 2000 e um pouco posterior a isso programava-se para a Web até com linguagem C e C++ (na minha opinião algo terrível) justamente porque a CGI do Apache permitia essa versatilidade. Era algo estranho e inúmeros problemas de segurança envolvendo sobreposição de memoria (Buffer Overflow) sobre HTTP foram revelados. Mas isto está fora do nosso contexto.
Esta decisão, longe de ser uma espécie de estilo NERD por parte de Sergey e Larry, foi antes uma estratégia de longo prazo que viria a influenciar toda a politica de crescimento da infra-estrutura da Google, ou seja, seria suportada por produtos de baixo preço, mas de elevado desempenho operacional, o que permitiria que sua infra-estrutura fosse facilmente escalável sobre custos baixos. Se a Google apostasse em desenvolver a sua infra-estrutura sobre frameworks como ASP.Net ou Java, corria o risco de ficar muito dependente de patentes e tecnologias de empresas que sabiam eles, mais cedo ou mais tarde, seriam seus adversários de negócios.
O problema do crescimento
Com o aumento da quantidade de informação produzida via Web, os serviços de indexação da google foram crescendo de tamanho. Por exemplo de 1999 a 2009, ou seja em 10 anos a google passou a indexar de 70 milhões a muitos biliões de documentos, a media da pedidos processados/dia aumentou cerca de 1000 vezes, cada documento passou a ter 3 (três) vezes mais informações nos serviços de indexação.
Gerir tamanha quantidade de informação (índices e documentos) mostrou desde o inicio ser um desafio e tanto para o pessoal da Google.
Como todo projecto vencedor tem uma base forte, a Google não foge a regra. E a sua força encontra-se também na excelente esquematizar da sua arquitectura, simples mas sobretudo inteligente.
A principio a Google adoptou a seguinte arquitectura (1997):
Arquitectura Google em 1997
Apesar da sua aparente simplicidade, era uma arquitectura já aparentemente complexa possuindo elementos que estão a ser utilizados até hoje. Como podemos notar, existem dois grupos de servidores (clusters) que desempenham um papel importante por detrás dos pedidos de pesquisa (query) recebidos pelo servidor que chamaremos frontal (frontend): Os servidores de indexação e de documentação. Os servidores de indexação possuem algumas informações sobre paginas, como por exemplo um índice invertido duma URL, do tipo ‘com.wordpress.snnangola‘. Os servidores de documentação armazenam todos os documentos possíveis existentes na Web e os ordenam aleatoriamente por fragmentos de documentação que falaremos mais abaixo. Cada documento possui propriedades tais como, um ID único conhecido como docid, um conjunto de palavras-chave que permitirão corresponde-lo a uma possível procura, e um Score atribuído pelo algoritmo PageRank.
Quando um pedido de pesquisa é enviado para servidor frontal, este encaminha para o servidor de indexação que mapeia individualmente cada palavra do pedido para uma lista de documentos relevantes. A relevância (Score) ou o grau de importância do documento, é determinada pelo PageRank. Essa relevância determina a ordem de saída dos documentos para a resposta ao pedido do usuário (melhor PageRank sai primeiro).
Essa aparente facilidade, entretanto esconde uma alta complexidade. Como já dissemos, com o aumento do numero de documentos, usuários e mobilidade na Web, o numero de pedidos de pesquisa/segundo aumentou brutalmente, o que perigosamente poderia aumentar o latência (o atraso ou RTT time) na resposta aos pedidos dos usuários, afinal haveria mais pedidos disputando entre si, sobre quem seria atendido primeiro. Felizmente a Google também tem uma solução para este problema, recorrendo a computação paralela. Como assim?
Pela figura acima observamos que tanto os servidores de indexação, como os servidores de documentos, possuem fragmentos (shards). Interessa de facto, falar sobre os fragmentos de indexação, porque estes lidam directamente com os pedidos dos usuários, via servidor frontal, logo os servidores de indexação, estariam em teoria mais sujeitos a estresse. Bom, isto já não é um problema porque os fragmentos possuem aleatoriamente índices para um subconjuntos de documentos do índice total. Esta técnica é conhecida como particionamento da indexação por documento.
Isto constitui inúmeras vantagens, na medida que por exemplo, cada fragmento pode processar cada pedido independentemente, também melhora o desempenho do tráfego da rede, e facilita a gestão da manutenção de informação por documento.
Mas também tem os seus contras, na medida que cada fragmento precisa processar cada pedido, e cada palavra da pesquisa necessita de ser procurada em cada N fragmentos.
Para minimizar estes efeitos, os pedidos feitos a um fragmento são distribuídos a uma pool de servidores. Cada fragmento também está distribuído numa pool de servidores no cluster de indexação.
O processo de pesquisa pode então ser resumido da seguinte forma:
O usuário digita uma única/serie de palavra(s) (como por exemplo: ‘capital de angola‘);
O servidor frontal recebe o pedido e envia para um dos fragmentos localizado numa das pools do cluster de indexação;
O fragmento dado a(s) palavra(s) corresponde a uma lista ordenada de documentos composta por docid, score, etc;
Um dos fragmentos numa das pools do cluster de documentação recebe a mensagem do fragmento de indexação e dado o docid e a(s) palavra(s), gera um conjunto de documentos, composto por titulo e trecho. Claro que com o docid já é mais fácil localizar o documento completo no disco.
No entanto, isso levanta uma outra questão: Se um dos servidores dos cluster‘s de indexação/documentação vai abaixo, por qualquer motivo, a pesquisa é abolida? A reposta encontra-se na estratégia de computação distribuída que a Google adoptou desde o inicio.
Estratégia de computação distribuída
A google sempre adoptou uma estratégia de computação distribuída. Isso mesmo pode ser percebido pela sua arquitectura já descrita na figura acima, mas que actualizaremos já, sobre uma outra perspectiva na figura abaixo:
Arquitectura google 1997 suportando cache e Ad Sense
Podemos facilmente perceber as mudanças ocorridas:
Introdução de replicação
Introdução de caching
O investigador Português Jorge Cardoso no livro ‘Programação de sistemas distribuídos em JAVA, Editora FCA‘ escreveu que ‘o principio da localidade, admite que a comunicação entre computadores segue dois padrões distintos. Primeiro, é mais provável que um computador comunique com computadores que estejam mais próximos do que com computadores que estejam mais longe. Segundo, é provável que um computador comunique com o mesmo conjunto de computadores repetidamente‘.
Se você percebeu, notou claramente que o primeiro padrão é técnica de replicação, e o segundo a técnica de caching. Pela figura acima nota-se claramente a existência dos dois conceitos. Exactamente ao lado do servidor frontal notamos a presença dum conjunto de servidores de caching que não sabemos com toda certeza se pertencem a um cluster. Entretanto, isso é bastante útil, quando os usuários realizam pesquisas que não foram actualizadas. Nesse caso, se elas não mudaram então não é necessário encaminhar a pesquisa para o cluster de indexação, mas sim para o suposto cluster de caching que encaminha os documentos, já anteriormente pesquisados, para o usuário.
Pela figura acima notamos também a existência de replicação vertical nos fragmentos de indexação de de documentação. Isso é muito importante, na medida em que explica porque raramente sentimos uma pesquisa no Google ser abolida ou gerar um erro. Notamos, que ainda que um fragmento vá abaixo por causa dum erro lógico ou físico num dos servidores do cluster, pela capacidade de replicação, automaticamente a tarefa passa para outro fragmento pertencente a outra pool de servidores. Isso é uma maravilha, já que estamos em crer ser difícil que uma pool inteira falhe, mas mesmo que falhe haverá sempre outra pool para a substituir.
Por esta altura já conseguimos perceber porque o Google consegue responder de forma tão rápida as nossas pesquisas. Sim, existem outras técnicas e alguma delas iremos abordar mais adiante, no entanto, isso é em parte porque eles conseguem manter imagens de toda a Web replicadas em seus cluster’s de documentação por todo mundo.
Não existirão teoricamente muitos problemas de paginas armazenadas no cluster mas que já não existem nos servidores onde estavam alojadas. O sistema Google é inteligente o suficiente para verificar isso, e actualizar se possível, da forma mais rápida. Mas isso as vezes não acontecia tão rapidamente, e por um motivo muito simples. Os cluster’s da Google começaram a expandir-se muito rapidamente, até a escala global.
As vezes fazemos uma pesquisa a partir de Angola, e os resultados Web vem da Irlanda, mas os de Video (Youtube) vem do Brasil, o AdSense do Polo Norte (exagerei!!!) no entanto, não existe praticamente latência. Como tudo isso é possível? Se um cluster de documentação nos EUA actualiza os seus documentos, os cluster’s em todo mundo necessitam fazer isso de forma automática com mínimo de atrasos possíveis, sob pena de elevadas receitas serem perdidas.
O próximo artigo falará sobre isso.
Porquê concorrentes do Whatsapp? Isto porque acredito que é o principal serviço de mensagens instantâneas em Angola, e acredito que é o que melhor serve como termo de comparação.
Numa pequena pesquisa pela internet, consegui encontrar alguns dos principais concorrentes ao Whatsapp, que por acaso, alguns deles já são muito bem conhecidos por nós.
Skype, Facebook Messenger, Viber, WeTalk, KakaoTalk e Line são os principais e cada um com alguma particularidade que acaba os diferenciando.
As vezes verifico que as pessoas acabam tendo 2, 3 ou 4 serviços similares no seu smartphone e a primeira pergunta que me vem na mente é “porquê”???
As particularidades destes serviços é que provocam isto, e os usuários acabam por ficar sempre na busca pelo aplicativo mais completo e que tenha mais “amigos” usando, pois não interessa termos o Skype, por exemplo, quando 95% dos meus contactos usam o Viber.
Não há dados exactos de Angola, mas se analisarem no vosso ciclo de amigos, verão que o Whatsapp domina esse mercado de “comunicadores instantâneos”. E no resto do mundo, isso também se verifica?
Se puderem verificar na imagem, confirma-se a tendência tecnológica que Angola tem, em seguir o Brasil e a Europa(nessa imagem representada apenas pela Alemanha).
E vocês, usam o Whatsapp ou preferem um aplicato alternativo?
Todos conhecem aquela velha frase “Quanto maior a subida, maior é a queda…“, pelos vistos a Microsoft não se importa com isso e oferece um verdadeiro desafio aos usuários: “encontre um erro de segurança no Windows 8.1 e ganhe até 100 mil USD”.
É uma prática comum entre as empresas de tecnologia, conseguindo assim corrigir erros graves em tempo recorde. Segundo a Microsoft, quem conseguir encontrar “verdadeiras novas técnicas de exploração” poderá ganhar os tais 100 mi USD. Por outro lado, quem souber ainda como corrigir essas mesmas ameaças, poderá receber até 50 mil USD.
Se isso ainda não for economicamente atraente para si, adiciona-se o bónus especial, que poderá chegar aos 11 mil dólares para quem encontrar vulnerabilidades no Internet Explorer 11.
Não se Esses novos programas de recompensa começam a valer a partir do dia 26 de junho, data em que será disponibilizado o Windows 8.1 Preview. Vale a pena tentar, não?!
A Empresa Interbancária de Serviços – EMIS anunciou em conferência de imprensa na passada sexta-feira (21/06) que está em fase de estudos a implementação de um sistema de pagamentos por telemóvel, em parceria com as operadoras Unitel e Movicel, sob orientação do Banco Nacional de Angola.
A EMIS é a empresa que nasceu da união dos principais bancos de Angola e coordena a rede nacional de caixas automáticas, MultiCaixa, que em 2011 atingiu a marca de 1.629 ATMs, com mais de 1milhão de utilizadores ativos (Relatório EMIS 2011). O objectivo é aumentar a actuação no mercado aproveitando o aumento do número de usuários de telefonia móvel em Angola que em 2010 já ultrapassava os 8 milhões.
Esta “inovação” vai beneficiar não apenas os negócios formais, como acontece com os TPAs do Multicaixa , com serviço de pagamento por telemóvel vai ser possível até pagar a “Magoga” da rua com uma simples SMS. Não acredita? Então leia este artigo e saiba como os Quenianos já utilizam esta tecnologia de pagamentos por telemóvel, com um fluxo total de mais de 13 bilhões de dólares em 2012.
Infelizmente a EMIS ainda não adiantou muitos detalhes sobro o projecto, por isso ficamos por aqui com a promessa de acompanhar cada avanço deste assunto.
Para que fique bem claro, a Samsung não está a reinventar a roda, outros fabricantes já investiram nos Laptops/Tablets ou Tablets/Laptoos, sim, os dispositivos combinados. E quanto ao Android e Windows 8 na mesma máquina? A Acer também desenvolveu dispositivos que usam o mesmo princípio.
Essa metáfora se aplica ao novo Samsung Tablet Ativ Q, que vem instalado com Windows 8 e Android 4.2.2 em simultâneo. Na verdade, chamar de tablet não é o mais aconselhável, o Ativ Q é um híbrido que poderá ser usado como computador portátil para quem necessitar.
Especificações do Ativ Q
Dimensão do ecrã: 13,3 polegadas
Resolução: 3200 x 1800 pixels, com a tecnologia de display qHD.
Processador: Intel Core i5 da nova geração Haswell,
Armazenamento: 128GB em drive SSD e 4GB de RAM
Bateria: 9 horas
Extras: Caneta S Pen.
Quanto ao Software
Voltando ao dual boot, o facto mais interessante é que a transição entre os sistemas é feito usando o botão “home” do dispositivo, basta pressiona-lo e pronto, passados do Windows 8 para o Android e vice-versa. E como se isso não bastasse, os aplicativos Android podem ser inseridos na página inicial do Windows 8.
Agora acabou o dilema dos que não sabiam se avançavam para Android ou Windows 8 (falando de tablets, é claro)…
Ontem, os fundadores das redes sociais mais badaladas momento, decidiram trazer uma novidade. Falo do Facebook e Instagram, e dos seus CEOs, Mark Zuckerberg e Kevin Systrom. A novidade já é por nós conhecida: o Instagram, que antes suportava apenas fotos, entenda-se, um arquivo de 16 bilhões de fotos e 130 milhões de usuários, agora também suportará clipes de vídeo.
Mas não se emocione ainda, a pensar que o Instagram será o novo Youtube. O Instagram permitirá a gravação de vídeos de até 15 segundos (gravamos o nosso vídeo de teste por lá, veja!), que ainda assim, é uma melhoria em relação ao aplicativo Vine, lançado pela concorrência, ou seja, o Twitter, que permite apenas vídeos de 6 segundos (cumpre-se a máxima, no Twitter é tudo mais curto…)
A nova funcionalidade já está disponível, em forma de actualização para os aplicativos oficiais para Android e iOS. Com ela aparecem também 13 filtros exclusivos para os vídeos. Alegrem-se, agora para além de destruírem a qualidade das fotos, poderão também destruir a qualidade dos vídeos
Para o sistema operativo Android, por enquanto, só os utilizadores que tiverem a versão 4.1 (JellyBean) poderão fazer upload de vídeos, enquanto os outros poderão ver os referidos vídeos. O Facebook promete que nos próximos dias as outras versões também poderão usufruir totalmente dessa funcionalidade.
Não tenho dúvidas que já não adianta falar mais sobre o PRISM, porque quase tudo já foi revelado a imprensa sobre ele. Sua capacidade de aceder facilmente aos dados pessoais de quem quer que seja com um ou dois cliques no rato, espantariam até pessoal optimista da craveira de George Orwell.
O PRISM é ‘abastecido’ de informações de diversas fontes diferentes
No entanto, muito mais do que ficar espantado com o PRISM, fiquei mesmo, sim admirado, com o espanto das pessoas perante revelação da existência de tal programa. É que ao que consta daquilo que venho acompanhando desde 2000/2001, o PRISM já existia, embora parece que com outros nomes, ou seja os EUA sempre tiveram os seus sistemas de vigilância electrónica. Vamos então a uma resenha, se você esqueceu, provavelmente lembrará da maior parte deles:
1 – FBI Carnivore
Esse sistema de vigilância electrónica deu que falar no inicio de 2000. Tratava-se entretanto de algo bem simples. Um computador com Windows NT ou 2000 e um software farejador de pacotes em modo promiscuo que ficava estrategicamente posicionado nos provedores Internet de interesse da vigilância do FBI. Como eram muitos dados a serem recebidos em submúltiplos de segundos, o software actuava como um classificador de dados, armazenando e descartando informação. Essa forma de actuação do software, bem como o facto de ter sido revelado a imprensa fizeram o FBI descontinuar o seu uso.
A repercussão dele foi tanta que tive um colega que dizia de pés juntos que conhecia pessoas em Luanda que usavam o Carnivore. Claro que o colega estava a viajar, mas deu para medir o impacto da informação sobre o Carnivore (também, com um nome desses?).
2 – Prosecutor’s Management Information System (PROMIS)
As informações sobre o PROMIS são tão movie style que até hoje me pergunto se realmente chegou a existir. Em 2000/2001 dizia-se que era um software que podia saber o numero da sua conta bancaria, e rastrear suas transacções financeiras em qualquer parte do mundo, aliás este foi o objectivo numero um da sua criação. Diz-se dele que não dependia da Internet para transmissão dos dados colectados, mas sim, ficou teorizado que o PROMIS era vendido e introduzido nas empresas alvo juntamente com hardware. Este ultimo tinha instalado secretamente um sistema de transmissão dos dados recolhidos via espalhamento espectral, o que até faz todo sentido, porque quem leu um bocado de técnicas de modulação CDMA sabe que o sinal aparece como ruído e os códigos de espalhamento pseudo-aleatórios tornam difícil a interpretação da informação.
Entretanto, entre informações ‘enroladas’, como por exemplo, aquele que dava conta que Bin Laden tinha uma copia dele (é, vocês devem lembrar do ‘computadorzeco’ encontrado em Abbottabad, lol), praticamente nunca foram confirmadas, por fonte oficial. Hoje já quase que não existem pessoas interessadas em falar sobre ele.
3 – National Security Agency (NSA) ECHELON/Five Eyes/UKUSA
Esse é o único que eu acredito que podia existir. Trata-se já, dum sistema de maior dimensão e com uma abrangência geográfica bastante interessante, passando pelos USA, UK, New Zealand e Austrália. Diz-se dele como um conjunto de sistemas SIGINT (Signal Intelligence) capazes de interceptar comunicações que envolvam transmissões radio, fax, email e web. Para isso beneficia-se de estar instalado estrategicamente e com recursos tecnológicos de elevada capacidade de intercepção via rádio e via sistemas de comutação de provedores de telefonia e Internet.
Por outro lado, poderosos filtros que actuam em tempo real conseguem classificar a informação de forma mais apurada e ‘disparar alarmes’ para interceptores. Essas características fazem dele algo diferente do ‘modesto’ Carnivore.
4 – National Security Agency (NSA) PRISM
Os anos foram passando, veio o 11 de Setembro, o nível de vigilância electrónica aumentou, mas sobretudo também, apareceu um novo conceito da utilização da Web: As redes sociais. A quantidade de informação que essas redes começaram a gerir era dum espanto brutal. Sempre se disse, e sempre se desconfiou que Microsoft, Google, Facebook, etc, entregavam dados de quem quisessem a quem ‘de direito’ pedisse. Essas informações nunca foram confirmadas por essas empresas e até hoje mesmo com o escândalo do PRISM e que envolve também um outro escândalo recente envolvendo escutas na telefónica Verizon, continuam veementemente a negar qualquer envolvimento. E nós estamos a falar de volumes de dados completamente ‘galácticos’. Só o Facebook possui mais de 50 biliões de fotos e 1 bilião de utilizadores. O Google transacciona milhões de comunicações e pedidos por segundo, portanto gerir e interpretar isto não é brincadeira de crianças. Ou pelo menos não era até a bem poucos anos, porque de um tempo a esta parte foram sendo feitos avanços importantes na interpretação de dados, reconhecimento facial e reconhecimento de voz, ao ponto de termos disponíveis em dispositivos domésticos como Smartphones e televisores inteligentes. São esses avanços que permitiram a Edward Snowden sentar na sua cadeira na sede da NSA e saber da vida de quem ele quisesse saber, sem supervisão de ninguém.
No meu entender só pode se espantar com essas informações quem tem algo a esconder. Quem não tem nada a esconder não tem motivos para estar preocupado com o facto de existir uma rapaziada que gosta de andar ao ‘farejote’ de informações sobre a vida dos outros. Pensar que um país como são os USA se mantém de pé, sem andar ao ‘bisbilhote’ da vida alheia é pura ilusão. E vão continuar independentemente de quem reclamar disso. É a conjuntura dum sistema mundial que está no seu fim e não tarda irá colapsar.
“O vosso feedback conta“, é esse o nome que a Microsoft deu ao anúncio que fez ontem no Xbox Wire, e o título não podia ser melhor. Depois dos milhares de críticas contra alguns dos detalhes mais polémicos da nova Xbox e acima de tudo a forma de como a Sony se aproveitou destes para quase que arrasar com a Xbox One, a empresa de Bill Gates teve que mudar de estratégia e conseguiu transformar parte do desastre publicitário que foi a E3 em publicidade positiva:
Desde que revelamos os nossos planos para a Xbox One, eu e a minha equipa ouvimos directamente de vocês, lemos os vossos comentários e escutamos os vossos feedbacks. Eu gostaria de aproveitar a oportunidade para agradecer o vosso apoio ao ajudarmos a reestruturar o futuro da Xbox One.” escreveu Don Mattrick neste artigo. ” Vocês disseram nos o quanto vocês amam a flexibilidade que vocês têm hoje em dia com jogos em discos. A habilidade de emprestar, partilhar e revender estes jogos da forma que vocês quiserem e da importância incrível que isso tem para vocês. Para vocês também é importante a liberdade de poderem jogar offline, durante qualquer quantidade de tempo, em qualquer lugar do mundo.
Resumidamente a Xbox One :
Não precisará de ser conectada online de 24 em 24 horas. Após da instalação inicial a Xbox One poderá correr jogos em DVD offline normalmente. O mesmo se irá aplicar a jogos digitais , após o seu download e a sua activação
Aceitará a utilização de jogos em segunda mão. Isto significa que poderemos “emprestar, partilhar e revender” os jogos da Xbox One a vontade. Mas isso só poderá ser feito com jogos em DVD visto que os digitais só poderão ter um dono.
Aceitará jogos de outras regiões. Ao contrario do que estava planeado a nova Xbox aceitará jogos de qualquer região, ou seja aqui em Angola poderemos jogar jogos comprados no Dubai por exemplo, o que não seria possível se os planos se tivessem mantido.
Apesar de ser bastante aparente que a Xbox One iria perder a batalha contra a PS4 e podia até chegar a ser ultrapassada pela Wii U, os seus criadores pareciam decididos em manter a sua estratégia contra tudo e contra todos visto que ainda recentemente disse que quem queria jogar Xbox offline que comprasse a Xbox 360. A mudança de discurso em poucos dias é no mínimo curiosa e leva muitos a querer que não tem tanto haver com as vozes dos jogadores que se ergueram contra a consola mas sim com o facto da PS4 não ter aderido também á DRM ( Digital Rights Management ou Gestão de Direitos Digitais em português), o que praticamente deitou abaixo os planos das produtoras de jogos. Felizmente parece ter acabado o período em que a Microsoft ficou do lado das produtoras no que toca ao combate ao tráfego de jogos em segunda mão. Quem ganha com isto somos nós os jogadores que passam a ter no mercado uma forte concorrente a PS4 o que apenas significará um aumento da qualidade dos jogos e dos serviços de ambas as consolas tal como aconteceu quando a PS3 foi lançada para fazer concorrência a Xbox 360.