Sistemas Distribuídos, Centralizados e Paralelos
Classificado em Computação
Escrito em em português com um tamanho de 3,13 KB.
Sistemas Centralizados
Os primeiros sistemas funcionavam com uma organização centralizada, onde um único computador detinha o controle do hardware e software. Na década de 1960, com a multiprogramação, sistemas de tempo compartilhado permitiram que vários usuários acessassem os recursos de uma máquina central através de terminais.
A configuração dos sistemas centralizados de tempo compartilhado define a quantidade de usuários e trabalhos que podem ser realizados eficientemente.
Um número maior de usuários reduz a fatia de tempo (time-slice) disponível para cada um, aumenta o número de interrupções e o consumo de recursos do sistema para tarefas de gerenciamento. Além disso, o barramento pode causar um gargalo pela limitação de dados que podem circular nas conexões.
Sistemas Paralelos (Múltiplos Processadores)
A partir da década de 1970, o desenvolvimento dos microprocessadores permitiu obter computadores menores e de grande desempenho, definindo uma tendência para o downsizing dos sistemas computacionais. Essa tendência leva à substituição de sistemas de grande porte por computadores menores interligados e à consequente descentralização.
A visão de sistemas paralelos está associada a sistemas genéricos de processamento, distribuído entre vários nós de processamento (computadores individuais, não necessariamente homogêneos), de modo que um processo de grande consumo possa ser executado em um nó disponível ou subdividido em vários nós.
Com a descentralização, ocorre a distribuição dos dados e processos entre vários ambientes computacionais que mantêm comunicação, podendo estar dispersos geograficamente.
Os sistemas com múltiplos processadores oferecem benefícios como:
- Mais processadores executam mais tarefas em menos tempo, aumentando a produção (throughput);
- Economia, pois o custo do processador é inferior ao custo do computador;
- Maior confiabilidade (sistema tolerante a falhas), uma vez que a degradação pode ser controlada, além de que a falha de um processador não paralisa o sistema.
As características específicas dos sistemas paralelos são definidas pela forma de comunicação entre os processadores e pelo grau de compartilhamento dos recursos:
- Sistemas Fortemente Acoplados (Tightly Coupled): Processadores compartilham memória (único espaço de endereçamento) e são interligados por um barramento;
- Sistemas Fracamente Acoplados (Loosely Coupled): A computação é distribuída entre vários processadores físicos que trocam mensagens através de linhas de comunicação e possuem sua própria memória local.
O compartilhamento de recursos nos sistemas fortemente acoplados se dá através de interrupções, e a comunicação é feita via memória compartilhada. Nos sistemas fracamente acoplados, os processadores possuem seus próprios recursos individuais e estão conectados por barramentos de alta velocidade, linhas telefônicas ou outro meio de comunicação.