quarta-feira, 13 de abril de 2011

O QUE É MISSÃO CRÍTICA NA SEGURANÇA PÚBLICA


fonte: site http://www.clubeibm.com.br

Que prejuízos sociais e ocorreriam caso o sistema de telecomunicações da Segurança Pública entrasse em pane e as comunicações das emergências não pudessem ser transmitidas? E se um provedor de acesso à Internet ficasse fora do ar durante 24 horas, que impactos causaria nos sistemas de Missão critica que utilizem o 3G? A sociedade teria sérios prejuízos de milhões de reais, além de ter sua segurança fortemente abalada. Portanto, os serviços da Segurança Pública ou atividades da iniciativa privada, não podem prescindir de um ambiente de missão crítica, ou seja, de uma infra-estrutura tecnológica projetada especificamente para evitar que qualquer falha em alguns dos sistemas chegue a comprometer a continuidade do funcionamento das operações e possa ser rapidamente solucionada.

Os primeiros equipamentos de missão crítica, também chamados de tolerantes a falhas (Fault Tolerance), começaram a ser empregados no Brasil pelo setor militar por volta da década de 60. Mais tarde, nos anos 70 e 80, os bancos e algumas corporações que lidavam com grande volume de informações e precisavam contar com um ambiente extremamente seguro também passaram a utilizar equipamentos tolerantes a falhas.

Esse tipo de equipamento é espelhado, ou seja, é como se fossem dois equipamentos idênticos numa mesma estrutura ou gabinete, sendo que um deles em atividade, enquanto o outro permanece em “stand by”. Caso haja alguma falha no equipamento que está em atividade, o seu “gêmeo” automaticamente assume seu lugar, dando continuidade às operações como se nada tivesse acontecido. Esses equipamentos eram caros, da ordem de milhões de dólares, e somente grandes corporações tinham condição de adquiri-los, mas agora começam a ser disponibilizados com maior abundância mesmo em empresas menores.

Opções válidas

Uma alternativa mais acessível em custos são os equipamentos classificados como de alta disponibilidade (High Availability), que diferem dos tolerantes a falhas em disponibilidade, visto que ela é desenhada e implementada somente nos elementos com mais probabilidade de causarem erro, como os discos, por exemplo. Esses equipamentos não são totalmente espelhados, mas o risco de apresentar falha é extremamente pequeno.

O índice de uptime (tempo em que todo sistema permanece ativo ou disponível) de um sistema de alta disponibilidade fica na faixa de 99,9% a 99,99%, enquanto que os tolerantes a falha apresentam uptime da ordem de 99,999%. A avaliação de disponibilidade também deve incluir a redundância de nós, interconexões, controladoras e proteção de falha de energia (nobreaks e geradores). Também deve ser considerada a redistribuição de carga depois da falha de um nó e a habilidade de todo o sistema operar durante paralisações planejadas ou não.Outra opção disponível para as empresas é a adoção da tecnologia de cluster que pressupõe a aquisição de outro equipamento, não necessariamente igual ao existente e que não precise ficar em stand by, mas executando outras funções, e que pode assumir a operação caso o outro equipamento apresente falha. Essa tecnologia propicia melhorias significativas no ambiente computacional da empresa, tanto em capacidade, quanto em disponibilidade.

Cada nó ou servidor adicional fornece uma escalabilidade quase linear dentro de um sistema em cluster. O mais importante é a capacidade de previsão dessa escalabilidade em relação à capacidade e ao custo, simplificando as operações e as atividades de planejamento. Não apenas o hardware deve ser redundante (duplicado), mas também o software, os aplicativos, o banco de dados e os protocolos.

A infra-estrutura de TI adequada

Por mais qualidade que se imponha aos equipamentos e por maior que seja a robustez aplicada ao software básico ou à qualidade na metodologia de desenvolvimento de aplicativos, os sistemas falham. Dependendo do segmento de atuação da empresa, falhas nos sistemas podem causar prejuízos muito significativos. Para uma empresa saber se precisa de um ambiente mais ou menos crítico, ela deve avaliar quanto perderia por hora se seus sistemas ficassem inoperantes. Se ela pode tolerar algumas horas de paralisação, não precisa de uma infra-estrutura tão crítica.

Independente do quanto a infra-estrutura de TI impacta na forma de atuação, todas as companhias devem tomar alguns cuidados básicos. Um deles é ter em mente que os sistemas não costumam apresentar problemas a toda hora. Com isso, tende-se a relaxar nos procedimentos de contingência e de atualização da documentação nos casos em que o ambiente evolui. O ideal é dispor de uma infra-estrutura sólida, com hardware, software e banco de dados redundantes ou que disponham de uma manutenção sistemática e adequada. Se a empresa não conta com sistema de backup (duplicação dos dados e informações) pode optar por um ambiente de cluster que, se for bem construído, pode não envolver grandes investimentos.

Pessoas também são importantes, principalmente nos ambientes de missão crítica. É fundamental contar com profissionais especializados, internos e de terceiros, para monitorar os sistemas e responsabilizarem-se pelas atualizações e manutenção. É inegável que a cada dia a Tecnologia da Informação se torna mais estratégica para as corporações. Não existe uma receita que se aplique a todos indistintamente. Mas a escolha de soluções deve seguir alguns critérios para garantir o seu desempenho e evolução. É importante observar nos hardware, software e banco de dados itens como: Confiabilidade, Segurança,Escalabilidade,Disponibilidade e Interoperabilidade.

Clustering

A tecnologia já faz parte do cotidiano das corporações. E quanto maior for a dependência das ferramentas de automação dos processos, maior será a necessidade de garantir a continuidade das operações. Uma solução mais econômica e eficiente é a tecnologia denominada como

clustering, em que vários computadores são ligados em rede e passam a se comportar como se fossem um só.

Existem basicamente três tipos de aplicações que justificam a montagem de um cluster: tolerância a falhas, balanceamento de carga e processamento paralelo. A mais utilizada das três é a tolerância a falhas, onde dois ou mais computadores (normalmente servidores) estão ligados entre si. Em geral, um deles responde por todo o trabalho, enquanto o outro permanece em stand by e se limita a manter os dados atualizados em relação ao primeiro e a monitorá-lo constantemente. Caso ocorra algum problema com o primeiro servidor, o segundo assume suas funções de forma automática e imediata.

Também existe a possibilidade de a segunda máquina não ficar em stand by, mas responder a outros serviços e trabalhos, mantendo as atualizações em relação ao primeiro e a capacidade de assumir as suas funções em caso de falha. Outra aplicação do clustering é o balanceamento de carga. Para isso, são necessárias três máquinas, no mínimo, sendo que a primeira recebe todas as requisições e se encarrega de dividi-las entre as demais.

A terceira aplicação é o processamento paralelo, que visa ser uma opção mais viável de computação paralela de alto desempenho. Em vez de utilizar sistemas especialistas de processamento paralelo, que são muito caros e complexos, tanto em hardware como software, pode-se utilizar várias estações de trabalho comuns e conectá-las entre si de forma que se comportem como um único equipamento.

Princípios básicos

Independente da aplicação, todo cluster precisa seguir cinco princípios básicos para ser eficiente. O primeiro deles refere-se à comodidade. Em um cluster os nós devem ser máquinas normais interconectadas por uma rede genérica. O sistema operacional precisa ser padrão, sendo que o software de gerenciamento deve ir acima dele como uma aplicação qualquer.

O segundo princípio refere-se à escalabilidade. Deve ser possível adicionar aplicativos, nós, periféricos e interconexões de rede sem que haja necessidade de interromper a disponibilidade dos serviços do ambiente. A transparência também é fundamental, ou seja, o cluster construído com um grupo de nós independentes e agrupados, deve se apresentar aos clientes externos como um único sistema. As aplicações clientes precisam interagir com o cluster como se esse fosse um único servidor de alta performance ou de alta disponibilidade.

O quarto princípio refere-se à confiabilidade. O cluster precisa ter capacidade de detectar falhas internas, assim como tomar providências para que estas não comprometam o serviço oferecido. E, finalmente, o quinto princípio diz respeito ao gerenciamento e à manutenção. Por serem tarefas complexas e propensas a gerar erros, deve-se adotar um mecanismo de fácil configuração e manutenção do ambiente, de forma a simplificar sua administração.

Nenhum comentário:

Postar um comentário

Obrigado! Sua participação é bem-vinda, contudo para evitar qualquer mal entendido vamos analisar sua opinião de forma democrática.

Loading...

Newsgula Headline Animator

Arquivo do blog