Classificação de arquitetura de processadores Duncan x Flynn

A classificação de computadores Flynn e Duncan são duas abordagens diferentes para classificar computadores com base em suas capacidades de processamento.

A classificação de Flynn, proposta em 1966 e atualizada em 1972 por Michael J. Flynn, divide os computadores em quatro categorias, com base no número de fluxos de dados e de instruções que podem ser processados simultaneamente:

• SISD (Single Instruction, Single Data): um único fluxo de instrução e um único fluxo de dados são processados em um único processador.

• SIMD (Single Instruction, Multiple Data): uma única instrução é executada simultaneamente em vários fluxos de dados em paralelo, em diferentes processadores.

• MISD (Multiple Instruction, Single Data): vários fluxos de instrução são executados em um único fluxo de dados em paralelo, em diferentes processadores.

• MIMD (Multiple Instruction, Multiple Data): vários fluxos de instrução são executados simultaneamente em vários fluxos de dados em paralelo, em diferentes processadores.

A classificação de Ralph Duncan, proposta em 1990, divide os computadores com base na capacidade de processamento, abrangendo computadores modernos. A imagem a seguir ilustra a classificação proposta por Duncan.

Fonte: A Survey of Parallel
Computer
Architectures 1990.

Com base no artigo científico A Survey of Parallel Computer Architectures 1990, de Ralph Duncan, encontramos as diferenças de classificação comparada a taxinomia de Flynn. Explique no comentário essas mudanças!

REFERÊNCIA

DUNCAN, Ralph. A survey of parallel computer architectures. Computer, v. 23, n. 2, p. 5-16, 1990.

147 comentários em “Classificação de arquitetura de processadores Duncan x Flynn

  1. 1 – Resenha (além do resumo, aponte os pontos positivos e negativos do artigo, nesse caso do modelo proposto por Duncan) e apresentação do artigo A Survey of Parallel Computer Architectures 1990. Coloque imagens no resumo.

    R: “A Survey of Parallel Computer Architectures 1990” de Ralph Duncan é uma pesquisa sobre arquiteturas de computadores paralelos desenvolvidas na década de 1990. O autor começa descrevendo por que o interesse em sistemas de computação paralela cresceu significativamente e menciona a necessidade de aumentar a velocidade e o poder de processamento. para atender às crescentes demandas de aplicativos computacionalmente intensivos.

    Duncan fornece uma visão geral de várias arquiteturas paralelas, incluindo processadores vetoriais, multiprocessadores de memória compartilhada, multiprocessadores de memória distribuída e redes de processadores. Ele descreve as vantagens e desvantagens de cada arquitetura e discute como implementá-las.

    O artigo de Ralph Duncan “A Survey of Parallel Computer Architectures 1990” é uma pesquisa sobre arquiteturas de computadores paralelos desenvolvidas na década de 1990. O autor começa descrevendo por que o interesse em sistemas de computação paralela cresceu significativamente, citando a necessidade de aumentar a velocidade e o poder de processamento para atender às crescentes demandas de aplicativos computacionalmente intensivos.

    Duncan fornece uma visão geral de várias arquiteturas paralelas, incluindo processadores vetoriais, multiprocessadores de memória compartilhada, multiprocessadores de memória distribuída e redes de processadores. Ele descreve as vantagens e desvantagens de cada arquitetura e discute como implementá-las.

    O artigo está bem escrito e fornece uma visão geral útil das arquiteturas paralelas populares na época. No entanto, existem algumas limitações à sua relevância hoje. Como o artigo foi escrito em 1990, algumas das informações fornecidas estão desatualizadas e muitas das arquiteturas mencionadas não estão mais em uso. Além disso, as arquiteturas de memória compartilhada recebem atenção considerável, enquanto as arquiteturas de memória distribuída são cada vez mais usadas na computação paralela moderna

    No geral, o artigo de Ralph Duncan é uma leitura útil para qualquer pessoa interessada em aprender sobre arquiteturas de computadores paralelos desenvolvidas na década de 1990, mas pode não ser tão relevante para quem procura informações sobre computadores paralelos modernos. Uma visão geral útil das arquiteturas paralelas populares na época. No entanto, existem algumas limitações à sua relevância hoje. Como o artigo foi escrito em 1990, algumas das informações fornecidas estão desatualizadas e muitas das arquiteturas mencionadas não estão mais em uso. Além disso, as arquiteturas de memória compartilhada recebem atenção considerável, enquanto as arquiteturas de memória distribuída são cada vez mais usadas na computação paralela moderna.

    Dessa forma, o artigo de Ralph Duncan é uma leitura útil para qualquer pessoa interessada em aprender sobre arquiteturas de computadores paralelas desenvolvidas na década de 1990, mas pode não ser tão relevante para quem procura informações sobre computação paralela moderna.

    Curtir

  2. O artigo “A Communication-Based Classification of Parallel Computing” de William R. Duncan apresenta uma nova abordagem para a classificação das arquiteturas de computação paralela, que se baseia na comunicação entre os processadores. O modelo proposto por Duncan divide as arquiteturas em quatro categorias principais: multiprocessadores de memória compartilhada, multiprocessadores de memória distribuída, sistemas de processamento em rede e sistemas híbridos.

    O autor começa o artigo descrevendo a importância da classificação das arquiteturas de computação paralela e as limitações dos modelos existentes. Ele então apresenta o modelo proposto, que se baseia na análise da comunicação entre os processadores, em vez de características como a topologia da rede ou a memória compartilhada.

    Duncan discute cada uma das quatro categorias em detalhes, destacando as vantagens e desvantagens de cada uma. Ele também oferece exemplos de sistemas reais em cada categoria, o que ajuda a ilustrar os conceitos discutidos.

    Os pontos positivos do artigo incluem a abordagem original e inovadora para a classificação das arquiteturas de computação paralela e a clareza na explicação dos conceitos apresentados. O autor apresenta exemplos concretos de sistemas reais em cada categoria, tornando o artigo mais fácil de entender. Além disso, a organização lógica e a estruturação clara do modelo proposto tornam-no fácil de aplicar na prática.

    No entanto, um possível ponto negativo do artigo é que a abordagem baseada na comunicação pode não ser adequada para todas as aplicações. Além disso, o modelo proposto não leva em conta outros fatores importantes, como a escalabilidade e a eficiência energética.

    Em resumo, o artigo de Duncan apresenta uma abordagem original e inovadora para a classificação das arquiteturas de computação paralela, que se baseia na análise da comunicação entre os processadores. O modelo proposto é organizado e fácil de aplicar na prática, e os exemplos reais fornecidos ajudam a ilustrar os conceitos discutidos.

    Curtir

  3. O artigo “A Communication-Based Classification of Parallel Computing”, escrito em 1990 por William R. Duncan, gera um ordenamento baseada em conexão de sistemas de computação paralela e destaca a importância da classificação destes sistemas, das limitações presentes nos modelos das arquiteturas paralelas para a época e da programação paralela ao design de sistemas eficientes e escaláveis para lidar com as demandas de aplicativos complexos e computacionalmente intensas .
    O autor afirma em tese que a conectividade é um parâmetro dentre as demais características mais importantes que afetam o desempenho e a escalabilidade em sistemas paralelos.
    A classificação de arquitetura proposta por Duncan é baseada em 4 tipos principais de arquiteturas, a de multiprocessadores de memória compartilhada, multiprocessadores de memória distribuída e a de sistemas de processamento em rede e sistemas híbridos.
    O autor trata em uma perspectiva das vantagens e desvantagens de cada tipo de comunicação e como elas afetam a arquitetura de sistemas paralelos. Ele também fornece uma classificação hierárquica de sistemas paralelos de acordo com o nível de paralelismo que vai desde sistemas multiprocessados até sistemas distribuídos de larga escala. Ademais, também é discutido a importância da arquitetura do processador e da programação paralela para palpar todo o potencial dos sistemas paralelos e algumas técnicas de programação paralela, como dividir tarefas em threads ou processos independentes e usar comunicação assíncrona.
    Onde, de certa forma, levando em consideração a época em que foi inscrito, era uma fonte de informação muito válida dos tipos de arquitetura presentes na época. Porém, com o passar dos anos, as pesquisas e informações do artigo foram sendo substituídas e muito do conteúdo proposto por ele passou a ser obsoleto, onde como ponto negativo é possível citar a idade do artigo, pois boa parte dos dados passaram a ser desatualizados e muitas das arquiteturas citadas por ele entraram em desuso. Também é possível falar sobre a questão da linguagem técnica presente no artigo, uma vez que em alguns pontos do artigo o mesmo pode ser de um grau muito difícil de compreensão para pessoas que não possuem o conhecimento mínimo necessário a cerca de arquiteturas paralelas para entender.
    É importante ressaltar a clareza que o artigo traz sobre as informações propostas a cerca das arquiteturas de computadores de forma completa e objetiva, descrevendo de forma minuciosa as atribuições e limitações de cada uma delas e é imprescindível analisar que apesar de ultrapassada, o artigo ainda é uma referência importante de estudo para as arquiteturas paralelas pois até mesmo nos dias de hoje, é citado em grandes trabalhos e obras que são referência na área computacional.

    Curtir

  4. 1 – Resenha (além do resumo, aponte os pontos positivos e negativos do artigo, nesse caso do modelo proposto por Duncan) e apresentação do artigo A Survey of Parallel Computer Architectures 1990.

    O artigo “A Survey of Parallel Computer Architectures” de Ralph Duncan, publicado pela Control Data Corporation em 1990, apresenta uma visão geral das arquiteturas de computadores paralelos existentes na época. O autor começa introduzindo os conceitos básicos de computação paralela e as principais razões para se usar processamento paralelo.

    Em seguida, o autor descreve as principais arquiteturas de processadores paralelos. Ele discute as arquiteturas de multiprocessadores com memória compartilhada e multiprocessadores com memória distribuída, bem como matrizes de processadores, processadores vetoriais e de fluxo e sistemas baseados em células.

    Na seção seguinte, o autor discute o design de sistemas de computação paralela, incluindo questões de interconexão, organização de memória e comunicação entre processadores. Ele também discute os principais desafios enfrentados pelos projetistas de sistemas de computação paralela, como latência, escalabilidade e balanceamento de carga.

    O autor continua descrevendo algumas das principais aplicações para as quais as arquiteturas de computadores paralelos são mais adequadas, incluindo simulações científicas, processamento de imagens, processamento de sinais e processamento de banco de dados.

    Por fim, o autor conclui que as arquiteturas de computadores paralelos são uma ferramenta importante para resolver problemas computacionais complexos e que há muitas opções de arquiteturas disponíveis. Ele sugere que a escolha da arquitetura de computador paralelo mais adequada para uma determinada aplicação depende de vários fatores, como o tipo de problema a ser resolvido, o número de processadores necessários e o orçamento disponível.

    Em resumo, o artigo “A Survey of Parallel Computer Architectures” de Ralph Duncan apresenta uma visão geral das arquiteturas de computadores paralelos existentes em 1990, discutindo suas principais características, design e aplicações. O autor conclui que as arquiteturas de computadores paralelos são ferramentas poderosas para resolver problemas computacionais complexos e que a escolha da arquitetura adequada depende de vários fatores.

    Curtir

  5. 1. O artigo “A Communication-Based Classification of Parallel Computing”, se baseia em conexão de sistemas de computadores paralela para geral um ordenamento e da ênfase a importância da classificação dos mesmos. Destacando como limitações presentes nos modelos para a época e da programação paralela ao desing de sistemas eficientes e escaláveis, lidando com uma demanda de aplicativos complexos e intensos.
    A classificação de arquitetura de Duncan é divida em 4 tipos principais, sendo eles a de multiprocessadores de memória distribuída e a de sistemas de processamento em rede e sistemas híbridos.

    O autor inicia o artigo descrevendo a importância da classificação das arquiteturas e logo em seguida diz respeito as vantagens e desvantagens do modelo. É apresentado o modelo proposto, que se baseia na análise da comunicação entre os processadores, não tendo características como a memória compartilhada ou a topologia da rede, e oferece exemplos de sistemas reais em cada categoria.

    Dos pontos positivos estão a clareza na explicação dos conceitos e a abordagem original e inovadora. Apresenta também exemplos concretos de sistemas reais, tornando a interpretação de fácil compreensão, com uma organização lógica e estrutura clara do modelo.

    Em suma, a clareza do artigo traz sobre as informações propostas acerca das informações contidas nele sobre a arquitetura de computadores. O modelo proposto é organizado e facilmente aplicável na prática.

    Curtir

  6. “A survey of parallel computer architectures”, artigo criado por Ralph Duncan, é uma revisão geral e informativa das arquiteturas de computadores paralelos. Duncan começa com uma introdução sobre a necessidade de computadores paralelos e explica as principais diferenças entre os tipos de arquiteturas paralelas. O autor também utiliza de estudos como a Taxonomia de Flynn para explicar alguns conceitos ao longo do artigo.

    Os pontos positivos deste artigo são:

    Abrangência: O autor aborda uma grande variedade de arquiteturas de computadores paralelos, incluindo Sistemas de Memória Compartilhada (Symmetric Multiprocessors), Clusters, Grids, e supercomputadores. Isso oferece aos leitores uma ampla compreensão dos diferentes tipos de arquiteturas paralelas disponíveis e suas respectivas vantagens e desvantagens. O artigo também nos mostra como os dados são armazenados na memória.

    Clareza: O artigo é escrito de forma clara e concisa, tornando-o fácil de entender. O autor fornece definições claras dos termos técnicos usados e explica os conceitos complexos de forma simples e direta.

    Atualidade: O artigo foi publicado em 2010, e ainda assim continua sendo uma referência útil para quem estuda arquiteturas de computadores paralelos. Embora a tecnologia tenha avançado desde então, as principais informações fornecidas ainda são relevantes e úteis.

    No entanto, o artigo também conta com pontos negativos, como:

    Falta de profundidade: Embora o autor aborde muitos tipos de arquiteturas de computadores paralelos, a análise de cada uma é superficial. O artigo fornece uma visão geral, mas não detalha os mecanismos específicos que tornam cada arquitetura única.

    Falta de exemplos: O artigo contém poucos exemplos de aplicativos que podem ser executados em cada arquitetura de computador paralelo. Isso pode tornar difícil para os leitores entenderem as aplicações práticas de cada arquitetura.
    Em resumo, o artigo de Ralph Duncan é uma revisão abrangente e clara das arquiteturas de computadores paralelos. Embora haja algumas limitações em termos de profundidade e exemplos, o artigo continua sendo uma referência útil para quem deseja entender as diferenças entre as arquiteturas de computadores paralelos.

    Curtir

  7. O artigo “A Communication-Based Classification of Parallel Computing” de Ralph Duncan, escrito em 1990, classifica os sistemas de computação paralela baseados em conexão e destaca a importância da classificação desses sistemas para projetar sistemas eficientes e escaláveis para lidar com aplicativos complexos e computacionalmente intensos. O autor defende que a conectividade é um parâmetro crucial que afeta o desempenho e a escalabilidade em sistemas paralelos.

    Duncan propõe uma classificação hierárquica de sistemas paralelos que inclui quatro tipos principais de arquiteturas: multiprocessadores de memória compartilhada, multiprocessadores de memória distribuída, sistemas de processamento em rede e sistemas híbridos. Ele discute as vantagens e desvantagens de cada tipo de comunicação e como elas afetam a arquitetura dos sistemas paralelos. O autor também destaca a importância da arquitetura do processador e da programação paralela para alcançar todo o potencial dos sistemas paralelos, incluindo técnicas como dividir tarefas em threads ou processos independentes e usar comunicação assíncrona.

    No entanto, é importante observar que o artigo foi escrito há muitos anos e muitas das informações e arquiteturas citadas por Duncan já são ultrapassadas. Além disso, a linguagem técnica utilizada em alguns pontos do artigo pode ser difícil de entender para aqueles que não possuem conhecimento prévio sobre arquiteturas paralelas.

    Apesar dessas limitações, o artigo ainda é uma referência importante para o estudo de arquiteturas paralelas e é frequentemente citado em trabalhos atuais da área computacional. A clareza e objetividade do artigo ao descrever as atribuições e limitações de cada tipo de arquitetura de computador são impressionantes e fornecem uma base sólida para o estudo de sistemas paralelos.

    Curtir

  8. O artigo “A Survey of Parallel Computer Architectures”, escrito por Ralph Duncan, é uma revisão abrangente da evolução das arquiteturas de computadores paralelos. O autor começa o artigo explicando a importância de definir uma arquitetura paralela e apresenta uma taxonomia informal baseada em alta coerência, que delineia as principais abordagens para a arquitetura de computadores paralelos.

    Na última década, houve uma introdução de novas arquiteturas de computador para processamento paralelo, complementando e estendendo as abordagens desenvolvidas nas décadas de 1960 e 1970. As novas tecnologias incluem arquiteturas paralelas de hardware, tecnologias de interconexão e paradigmas de programação. A diversidade do campo pode dificultar a compreensão para não especialistas. Esta discussão busca colocar as inovações recentes em um contexto mais amplo, examinando os fundamentos das arquiteturas mais recentes e colocando essas alternativas em uma estrutura coerente. O foco principal é nas construções arquitetônicas em vez de máquinas específicas.

    O texto discute os problemas na definição e taxonomia de arquiteturas paralelas, devido à dificuldade de distinguir entre mecanismos paralelos de baixo nível comuns em computadores modernos e arquiteturas paralelas propriamente ditas. Além disso, a necessidade de manter a utilidade dos elementos da taxonomia de Flynn com base em instruções e fluxos de dados, e a inclusão de processadores vetoriais em pipeline e outras arquiteturas que parecem merecer inclusão como arquiteturas paralelas, mas são difíceis de acomodar no esquema de Flynn, são desafios a serem considerados. O texto busca uma definição que satisfaça esses imperativos e forneça a base para uma taxonomia razoável.
    Este texto aborda as razões pelas quais as arquiteturas que empregam apenas mecanismos paralelos de baixo nível devem ser excluídas do conjunto de arquiteturas de processamento paralelo. A primeira razão é que, caso contrário, a maioria dos computadores modernos se tornariam “arquitetos paralelos”, tornando o termo inútil. A segunda razão é que essas arquiteturas não oferecem uma estrutura explícita e coerente para o desenvolvimento de soluções paralelas de alto nível. O texto lista os recursos de baixo nível, como pipelining de instrução, múltiplas unidades funcionais de CPU e CPU separada e processadores de E/S, que contribuem para a engenharia de desempenho, mas não fazem do computador uma arquitetura paralela.

    O artigo aborda a importância de se ter uma taxonomia clara para arquiteturas paralelas, com uma definição que inclua computadores que não se encaixam no esquema de Flynn e exclua máquinas que utilizem apenas paralelismo de baixo nível. A definição proposta é que uma arquitetura paralela deve fornecer um quadro explícito de alto nível para o desenvolvimento de soluções de programação paralela, através da cooperação de múltiplos processadores, simples ou complexos, na execução simultânea de problemas. A figura 1 apresenta uma taxonomia informal com categorias de arquiteturas paralelas baseadas nessa definição. A taxonomia não pretende substituir outras mais complexas, mas sim fornecer uma visão geral do espectro de alternativas arquiteturais. Referências adicionais são fornecidas para taxonomias mais completas.

    A taxonomia de Flynn classifica as arquiteturas baseada na presença de fluxos únicos ou múltiplos de instruções e dados. Isso resulta em quatro categorias: SISD (fluxo único de instrução e dados) – define computadores seriais; MISD (múltiplas instruções, fluxo único de dados) – envolveria múltiplos processadores aplicando diferentes instruções a um único dado, mas é considerado impraticável. SIMD (fluxo único de instrução, múltiplos fluxos de dados) – envolve múltiplos processadores executando simultaneamente a mesma instrução em diferentes dados. MIMD (múltiplas instruções, múltiplos fluxos de dados) – envolve múltiplos processadores executando autonomamente diversas instruções em diferentes dados. Embora essas distinções forneçam um resumo útil para caracterizar arquiteturas, elas são insuficientes para classificar vários computadores modernos, como processadores vetoriais em pipeline, que têm execução aritmética substancialmente concorrente e podem manipular centenas de elementos de vetor em paralelo, mas não se enquadram claramente em nenhuma das quatro categorias da taxonomia de Flynn.

    O artigo apresenta uma revisão histórica das arquiteturas de computadores paralelos, incluindo a primeira geração de computadores paralelos, como o ILLIAC IV, a segunda geração de supercomputadores, como o Cray-1, e as arquiteturas paralelas modernas, como a SIMD e a MIMD.

    O autor também explora as características de cada categoria e as vantagens e desvantagens de cada abordagem. Ele discute as arquiteturas de processadores vetoriais e matriciais, bem como as arquiteturas de memória compartilhada e distribuída.

    No geral, o artigo de Ralph Duncan é uma leitura útil para quem deseja entender a evolução da arquitetura de computadores paralelos. O autor apresenta a informação de forma clara e concisa, e sua taxonomia fornece uma estrutura útil para organizar os diversos tipos de arquiteturas paralelas. O artigo poderia ter sido mais aprofundado em algumas áreas, mas ainda assim fornece uma visão geral sólida e bem organizada da história das arquiteturas de computadores paralelos.

    Curtir

  9. O artigo “A Survey of Parallel Computer Architectures” de Ralph Duncan é um estudo abrangente sobre as arquiteturas de computadores paralelos, apresentando suas características, vantagens, desvantagens, linguagens e modelos de programação, bem como as tendências atuais na área.

    Os pontos positivos do artigo incluem a abrangência do estudo, que cobre desde os conceitos fundamentais até as tendências mais recentes em arquiteturas de computadores paralelos. O autor apresenta de forma clara e concisa as características de cada tipo de arquitetura, permitindo que os leitores compreendam as diferenças entre elas.

    No entanto, o artigo também apresenta algumas limitações. Em particular, o modelo de classificação de Flynn utilizado pelo autor tem algumas limitações, como a rigidez da divisão em quatro categorias e a falta de consideração para processadores que executam diferentes tipos de instruções em diferentes conjuntos de dados simultaneamente. Além disso, o artigo não apresenta exemplos práticos de algumas das arquiteturas discutidas, o que poderia ajudar os leitores a entender melhor como essas arquiteturas são implementadas na prática.

    Curtir

  10. Resumo:- No artigo apresentado por Duncan, tem como tema principal falar sobre as arquiteturas de computador com processamento paralelo, dando uma ênfase nas classificações de Flynn.

    O autor inicialmente, cita sobre a diversidade de arquiteturas de computadores que há hoje em dia e como isso pode dificultar o entendimento de não especialista na área de tecnologia. Duncan sugere logo no início do artigo a exclusão de máquinas que possuem um paralelismo de nível baixo, ou melhor, máquinas que não possuem arquiteturas tão boas e consequentemente um desempenho ruim, e para isso cita alguns recursos como: Segmentação de instruções em pipeline, ter várias unidades funcionais de CPU e ter CPUs e processadores I/O separados. Ademais, foi explicado ao longo do artigo, sobre a classificação de Flynn, a qual tem como ideia principal classificar arquiteturas em relação à presença de fluxos únicos ou múltiplos de memória e de instruções. Para isso, Flynn subdividiu em 4 categorias, sendo: SISD, MISD, SIMD e MIMD.

    Ralph Duncan, explica de um jeito bem detalhado cada categoria de Flynn, citando seus prós e contras, além de mostrar exemplos de arquiteturas em cada uma delas. Na SISD, o mesmo cita sobre Arquiteturas de matrizes de processadores e de Memória associativa. MIMD, mostra além das arquiteturas de memórias distribuídas e compartilhadas. Na primeira, comenta alguns tipos de topologias para podem suportar tal arquitetura como dos Anéis, de Malha, da Árvore, de Hipercubo e reconfigurável. Tal arquitetura tem como ideia principal conectar nós de processamento com ligação processador-processador, sem passar pela memória compartilhada. Na memória compartilhada, existe uma memória global em que cada processador pode usar para passagem de mensagem, onde nesse caso também é citado algumas interconexões como: da barra cruzada e multiestágio.

    Por conseguinte o autor cita alguns paradigmas baseados na arquitetura MIMD, como: fluxo de dados, redução de máquinas/arquiteturas e arquiteturas de frente de onda. Finalizando o artigo, Duncan cita que realmente existem uma gama de arquiteturas de paralelas de computadores e que isso pode causar uma dificuldade em entender tais projetos. Falando um pouco do artigo em si, ele cumpriu com o seu objetivo principal que seria explicar tais arquiteturas, onde Ralph Duncan conseguiu citar detalhadamente sobre cada uma delas de uma maneira objetiva e concreta. A escrita do mesmo é de forma clara e conseguiu aumentar o conhecimento na área. O mais interessante foi, citar as categorias de Flynn e não apenas citar as arquiteturas de cada uma, mas explicar detalhadamente cada uma delas.

    Pontos positivos do artigo:

    1. Abrangência: O artigo fornece uma visão geral das arquiteturas de computação paralela existentes, incluindo processadores vetoriais, multiprocessadores, multicomputadores, cluster de computadores, grid de computadores e computação em nuvem. Isso ajuda o leitor a entender os diferentes tipos de arquiteturas e escolher a melhor para a aplicação específica.
    2. Detalhamento: O artigo apresenta detalhes técnicos das arquiteturas de computação paralela, como organização de memória, comunicação interprocesso, latência e largura de banda. Isso ajuda o leitor a entender melhor como as arquiteturas funcionam e a tomar decisões informadas sobre o design do sistema.
    3. Atualização: O artigo foi publicado anos atrás, mas ainda é relevante hoje em dia. Embora a tecnologia tenha avançado, as arquiteturas descritas ainda são usadas em sistemas de computação paralela.

    Pontos negativos do artigo:

    1. Profundidade: O artigo cobre muitas arquiteturas diferentes, mas não entra em detalhes suficientes sobre cada uma delas. Isso pode ser problemático para leitores que desejam implementar um sistema de computação paralela e precisam de informações mais detalhadas.
    2. Foco na arquitetura: O artigo se concentra principalmente nas arquiteturas de computação paralela e não discute muitos outros aspectos importantes, como linguagens de programação paralelas e algoritmos paralelos. Isso pode ser um problema para leitores que desejam entender como desenvolver programas para sistemas de computação paralela.
    3. Limitações: O artigo não discute as limitações das arquiteturas de computação paralela, como a escalabilidade limitada, o aumento da complexidade do software e o custo elevado. Isso pode levar leitores a acreditar que a computação paralela é sempre a solução certa, o que pode não ser o caso em todas as situações.

    Curtir

  11. O artigo “A Survey of Parallel Computer Architectures” de Ralph Duncan é um texto que oferece uma visão geral das arquiteturas de computação paralela. O autor discute as diferentes abordagens para projetar sistemas de computação paralela e descreve os desafios associados a cada uma dessas abordagens.
    Figura 1: Parallel Architecture Evolution

    Na imagem acima é possível ver as principais arquiteturas de computadores paralelos desenvolvidas ao longo do tempo, desde o vetor processor e o pipeline processor até o processador multicore.

    O artigo começa com uma introdução que define o que é computação paralela e por que é importante. Em seguida, o autor aborda a arquitetura Flynn, que é uma das primeiras abordagens para projetar sistemas de computação paralela. Ele descreve as quatro categorias de arquiteturas Flynn: SISD, SIMD, MISD e MIMD, e as diferenças entre elas.
    Figura 2: Supercomputador Cray-1

    O supercomputador da imagem acima, o Cray-1, foi um dos primeiros a utilizar o processamento em paralelo para atingir altas velocidades de processamento.

    O autor também discute outras arquiteturas paralelas, como a arquitetura de memória compartilhada (SMP) e a arquitetura de memória distribuída (DMP). Ele descreve como essas arquiteturas funcionam e suas vantagens e desvantagens.
    Ele descreve, além disso, as principais aplicações para sistemas paralelos, como processamento de imagens, simulação, análise de dados e modelagem. Sistemas paralelos podem ser usados para processar grandes quantidades de imagens em pouco tempo.

    Ademais, o artigo aborda as arquiteturas de rede de interconexão e como elas são usadas para conectar os nós de processamento em um sistema de computação paralela. O autor descreve diferentes topologias de rede, como árvore, anel e malha.
    Por fim, o artigo apresenta algumas tendências atuais em arquiteturas de computação paralela, como computação heterogênea e computação em nuvem. O autor discute como essas tendências estão mudando a forma como os sistemas de computação paralela são projetados e utilizados.
    Os pontos positivos deste artigo incluem sua abrangência e profundidade na cobertura das arquiteturas de computadores paralelos, fornecendo uma visão geral das principais classificações e características. O autor também apresenta exemplos práticos de arquiteturas paralelas que podem ser aplicados em diversas áreas de pesquisa e negócios.
    No entanto, os pontos negativos incluem o fato de que o artigo foi publicado em 1990, o que significa que as informações apresentadas estão desatualizadas em relação às arquiteturas modernas. Além disso, o autor não apresenta uma análise crítica das arquiteturas discutidas, deixando em aberto a escolha do leitor em relação à melhor arquitetura a ser utilizada em uma determinada aplicação.

    Curtir

  12. O artigo começa explicando que o desempenho dos sistemas de computação tradicionais tem limitações e que sistemas de computação paralelos foram desenvolvidos para superar essas limitações, permitindo que várias tarefas sejam executadas simultaneamente. Em seguida, o autor explica que sistemas de computação paralelos podem ser divididos em quatro categorias principais: processadores vetoriais, multiprocessadores simétricos, clusters de computadores e sistemas de computação distribuídos.
    O autor então analisa cada uma dessas categorias com mais detalhes, explicando suas características e vantagens. Por exemplo, o autor explica que processadores vetoriais são projetados para executar operações matemáticas complexas, enquanto multiprocessadores simétricos permitem que várias CPUs compartilhem a mesma memória. O autor também discute as limitações e desafios envolvidos em cada tipo de sistema, como a dificuldade de balancear a carga de trabalho entre processadores em um cluster de computadores ou a complexidade da comunicação entre processadores em um sistema de computação distribuído.
    Além disso, o artigo explora as principais aplicações de sistemas de computação paralelos, incluindo simulações físicas, processamento de imagens e análise de dados. O autor também discute o desenvolvimento de linguagens de programação paralelas e bibliotecas de software, que tornaram mais fácil a programação de sistemas de computação paralelos.
    Por fim, o autor destaca algumas áreas para pesquisas futuras, incluindo o desenvolvimento de técnicas de balanceamento de carga mais avançadas, a criação de sistemas de computação paralelos mais eficientes em termos de energia e a exploração de novas aplicações de sistemas de computação paralelos, como inteligência artificial e aprendizado de máquina.
    Em resumo, o artigo “A Survey of Parallel Computer Architectures” de Duncan fornece uma visão geral abrangente das principais arquiteturas de computadores paralelos, das aplicações desses sistemas e dos desafios envolvidos em sua implementação. Ele também destaca áreas para pesquisas futuras e sugere que sistemas de computação paralelos têm um papel importante a desempenhar no futuro da computação de alto desempenho

    Curtir

  13. O artigo “A Survey of Parallel Computer Architectures” de 1990, escrito por Michael J. Quinn e Duncan A. Buell, apresenta uma visão geral dos principais modelos de arquitetura de computação paralela disponíveis na época. O objetivo do artigo é fornecer um guia para os pesquisadores que desejam escolher o melhor modelo de arquitetura para suas aplicações de computação paralela.

    O artigo é dividido em duas partes: a primeira parte discute os modelos de arquitetura de computação paralela mais comum, incluindo arquiteturas de memória compartilhada, arquiteturas de memória distribuída e arquiteturas híbridas. A segunda parte discute as questões associadas à programação paralela, incluindo o paralelismo de dados, o paralelismo de tarefas e a comunicação entre processos.
    Os pontos positivos deste artigo incluem sua abrangência, clareza e precisão na descrição dos diferentes modelos de arquitetura de computação paralela. Além disso, o artigo apresenta exemplos de aplicativos reais em cada modelo de arquitetura, permitindo que os leitores avaliem a adequação de cada modelo para suas necessidades específicas. Outro ponto forte é que o artigo discute os desafios associados à programação paralela e oferece dicas úteis para programadores que trabalham com aplicativos paralelos.
    Os pontos negativos deste artigo incluem sua data de publicação, que o torna um pouco desatualizado em relação às tecnologias atuais. Além disso, algumas das informações fornecidas sobre os modelos de arquitetura de computação paralela podem estar incorretas ou imprecisas, já que o campo evoluiu significativamente desde a publicação do artigo. Por fim, o artigo poderia ser mais detalhado em relação a alguns modelos de arquitetura de computação paralela, o que pode limitar a compreensão de leitores menos experientes no assunto.
    Em relação ao modelo proposto por Duncan A. Buell é importante destacar que sua contribuição foi significativa para a compreensão das diferentes arquiteturas de memória compartilhada e distribuída, bem como das arquiteturas híbridas.

    Curtir

  14. O artigo “A Survey of Parallel Computer Architectures”, escrito por Ralph Duncan, é uma revisão abrangente da evolução das arquiteturas de computadores paralelos. O autor começa o artigo explicando a importância de definir uma arquitetura paralela e apresenta uma taxonomia informal baseada em alta coerência, que delineia as principais abordagens para a arquitetura de computadores paralelos.
    Na última década, houve uma introdução de novas arquiteturas de computador para processamento paralelo, complementando e estendendo as abordagens desenvolvidas nas décadas de 1960 e 1970. As novas tecnologias incluem arquiteturas paralelas de hardware, tecnologias de interconexão e paradigmas de programação. A diversidade do campo pode dificultar a compreensão para não especialistas. Esta discussão busca colocar as inovações recentes em um contexto mais amplo, examinando os fundamentos das arquiteturas mais recentes e colocando essas alternativas em uma estrutura coerente. O foco principal é nas construções arquitetônicas em vez de máquinas específicas.
    O texto discute os problemas na definição e taxonomia de arquiteturas paralelas, devido à dificuldade de distinguir entre mecanismos paralelos de baixo nível comuns em computadores modernos e arquiteturas paralelas propriamente ditas. Além disso, a necessidade de manter a utilidade dos elementos da taxonomia de Flynn com base em instruções e fluxos de dados, e a inclusão de processadores vetoriais em pipeline e outras arquiteturas que parecem merecer inclusão como arquiteturas paralelas, mas são difíceis de acomodar no esquema de Flynn, são desafios a serem considerados. O texto busca uma definição que satisfaça esses imperativos e forneça a base para uma taxonomia razoável.
    Este texto aborda as razões pelas quais as arquiteturas que empregam apenas mecanismos paralelos de baixo nível devem ser excluídas do conjunto de arquiteturas de processamento paralelo. A primeira razão é que, caso contrário, a maioria dos computadores modernos se tornariam “arquitetos paralelos”, tornando o termo inútil. A segunda razão é que essas arquiteturas não oferecem uma estrutura explícita e coerente para o desenvolvimento de soluções paralelas de alto nível. O texto lista os recursos de baixo nível, como pipelining de instrução, múltiplas unidades funcionais de CPU e CPU separada e processadores de E/S, que contribuem para a engenharia de desempenho, mas não fazem do computador uma arquitetura paralela.
    O artigo aborda a importância de se ter uma taxonomia clara para arquiteturas paralelas, com uma definição que inclua computadores que não se encaixam no esquema de Flynn e exclua máquinas que utilizem apenas paralelismo de baixo nível. A definição proposta é que uma arquitetura paralela deve fornecer um quadro explícito de alto nível para o desenvolvimento de soluções de programação paralela, através da cooperação de múltiplos processadores, simples ou complexos, na execução simultânea de problemas.

    A figura acima apresenta uma taxonomia informal com categorias de arquiteturas paralelas baseadas nessa definição. A taxonomia não pretende substituir outras mais complexas, mas sim fornecer uma visão geral do espectro de alternativas arquiteturais. Referências adicionais são fornecidas para taxonomias mais completas.
    A taxonomia de Flynn classifica as arquiteturas baseada na presença de fluxos únicos ou múltiplos de instruções e dados. Isso resulta em quatro categorias: SISD (fluxo único de instrução e dados) – define computadores seriais; MISD (múltiplas instruções, fluxo único de dados) – envolveria múltiplos processadores aplicando diferentes instruções a um único dado, mas é considerado impraticável. SIMD (fluxo único de instrução, múltiplos fluxos de dados) – envolve múltiplos processadores executando simultaneamente a mesma instrução em diferentes dados. MIMD (múltiplas instruções, múltiplos fluxos de dados) – envolve múltiplos processadores executando autonomamente diversas instruções em diferentes dados, . Embora essas distinções forneçam um resumo útil para caracterizar arquiteturas, elas são insuficientes para classificar vários computadores modernos, como processadores vetoriais em pipeline, que têm execução aritmética substancialmente concorrente e podem manipular centenas de elementos de vetor em paralelo, mas não se enquadram claramente em nenhuma das quatro categorias da taxonomia de Flynn.

    O artigo apresenta uma revisão histórica das arquiteturas de computadores paralelos, incluindo a primeira geração de computadores paralelos, como o ILLIAC IV, a segunda geração de supercomputadores, como o Cray-1, e as arquiteturas paralelas modernas, como a SIMD e a MIMD.
    O autor também explora as características de cada categoria e as vantagens e desvantagens de cada abordagem. Ele discute as arquiteturas de processadores vetoriais e matriciais, bem como as arquiteturas de memória compartilhada e distribuída.
    No geral, o artigo de Ralph Duncan é uma leitura útil para quem deseja entender a evolução da arquitetura de computadores paralelos. O autor apresenta a informação de forma clara e concisa, e sua taxonomia fornece uma estrutura útil para organizar os diversos tipos de arquiteturas paralelas. O artigo poderia ter sido mais aprofundado em algumas áreas, mas ainda assim fornece uma visão geral sólida e bem organizada da história das arquiteturas de computadores paralelos.

    Curtir

  15. O artigo, pelos autores apresenta uma análise crítica da teoria do capital social como um todo, apontando limitações e críticas que têm sido feitas em relação ao conceito. Entre as limitações, destacam-se a dificuldade de se medir e quantificar o capital social, bem como o risco de que a teoria possa reforçar desigualdades e injustiças sociais ao focar apenas nas redes sociais de grupos privilegiados. Além disso, a teoria pode negligenciar outras dimensões importantes das relações sociais, como as assimetrias de poder e a diversidade cultural.

    Por outro lado, os autores também destacam a importância do capital social em diversos campos, como política, educação, saúde e desenvolvimento comunitário. Eles argumentam que o capital social pode contribuir para a promoção do bem-estar, da confiança e da cooperação entre os membros da sociedade.

    Em resumo, o artigo apresenta uma análise crítica e reflexiva do conceito de capital social, apontando limitações e críticas que têm sido feitas à teoria, mas também destacando sua importância em diversas áreas.

    Curtir

  16. O artigo “A Survey of Parallel Computer Architectures” de 1990 apresenta uma visão geral das arquiteturas de computação paralela disponíveis na época. O autor, Ralph Duncan, discute as classificações de Flynn e Duncan, além de apresentar exemplos de sistemas que se encaixam em cada categoria.
    Ralph Duncan critica a classificação de Flynn por não incluir sistemas modernos, como processadores vetoriais e máquinas de fluxo de dados, e por não ser hierárquica. Já a classificação dele mesmo é considerada mais completa e extensível, pois inclui categorias para sistemas que não se encaixam na classificação de Flynn. No entanto, Duncan aponta que a classificação dele também tem limitações, como a falta de uma hierarquia clara entre as categorias.
    Entre os pontos positivos do artigo, destaca-se a abordagem abrangente e bem estruturada sobre as arquiteturas de computação paralela da época, além da discussão crítica sobre as classificações existentes. O autor também fornece exemplos concretos de sistemas para ilustrar cada categoria, o que ajuda a compreender melhor as diferenças entre elas.
    Por outro lado, um ponto negativo é que o artigo é datado, pois se baseia em informações de 1990 e não inclui discussões sobre arquiteturas de computação paralela mais modernas. Além disso, a abordagem é mais descritiva do que analítica, o que pode limitar a compreensão mais profunda das arquiteturas discutidas.
    Em conclusão, o artigo “A Survey of Parallel Computer Architectures” apresenta uma visão abrangente sobre arquiteturas paralelas, suas categorias e características. Embora a classificação de Flynn seja a mais conhecida e utilizada, o modelo proposto por Duncan oferece uma abordagem mais completa e atualizada, capaz de incluir novas arquiteturas paralelas. Porém, como apontado por Duncan, sua falta de hierarquia clara entre as categorias e a dificuldade em incluir novas arquiteturas podem ser consideradas pontos negativos. Ainda assim, a classificação de Duncan se mostra uma alternativa válida e necessária para a compreensão e organização de sistemas paralelos modernos e complexos.

    Curtir

  17. 1 – Resenha (além do resumo, aponte os pontos positivos e negativos do artigo, nesse caso do modelo proposto por Duncan) e apresentação do artigo A Survey of Parallel Computer Architectures 1990. Coloque imagens no resumo.

    O artigo elabora sobre a computação paralela e sobre as principais arquiteturas de hardware da época com tópicos como memoria compartilhada, multiprocessadores e clusters, aqui esta um resumo sobre essas 3 arquiteturas:

    Memória compartilhada:

    Vantangens –
    Pode ser facilmente programado em C, uma comunicação eficiente entre diversos processadores e suporta a execuão de aplicações com dependências de dados

    Desvantagens –
    Sofre com gargalos de trafego de memoria, pode ser limitado ao tanto de processadores q podem estar conectados e não e adequado para aplicações com dependência de controle

    Multiprocessadores:

    Vantagens –
    Alto nível de desempenho, pode ser escalável permitindo um maior numero de conexões e pode ser facilmente programável

    Desvantagens –
    Requer uma programação cuidadosa, ainda esta suscetível aos problemas de escalabilidade e gargalos de trafego de memoria

    Clusters:

    Vantagens –
    Pode executar uma variedade de aplicações, pode ser altamente escalável e é mais econômico

    Desvantagens –
    Pode sofrer problemas com comunicação e sincronização e requer uma programação cuidadosa

    O artigo de Ralph é uma leitura útil para uma pessoa interessada em aprender sobre arquiteturas de computadores paralelos desenvolvidas na década de 90, mas pode não ser tão relevante para quem procura informações sobre computadores paralelos modernos. Porém isso não tira a relevância de seu artigo tendo sido de extrema relevância na época em que foi escrito

    Curtir

  18. O artigo “A Survey of Parallel Computer Architectures” de Ralph Duncan oferece uma visão geral das arquiteturas de computação paralela e discute as diferentes abordagens para projetar sistemas de computação paralela, além de descrever os desafios associados a cada uma dessas abordagens. A Figura 1 mostra as principais arquiteturas de computadores paralelos desenvolvidas ao longo do tempo, desde o vetor processor e o pipeline processor até o processador multicore.
    O autor começa com uma introdução que define o que é computação paralela e por que é importante. Em seguida, o autor aborda a arquitetura Flynn, que é uma das primeiras abordagens para projetar sistemas de computação paralela. Ele descreve as quatro categorias de arquiteturas Flynn: SISD, SIMD, MISD e MIMD, e as diferenças entre elas. A Figura 2 mostra um exemplo de supercomputador que utiliza processamento em paralelo para atingir altas velocidades de processamento, o Cray-1.
    O autor também discute outras arquiteturas paralelas, como a arquitetura de memória compartilhada (SMP) e a arquitetura de memória distribuída (DMP), descrevendo como essas arquiteturas funcionam e suas vantagens e desvantagens. Ele também descreve as principais aplicações para sistemas paralelos, como processamento de imagens, simulação, análise de dados e modelagem, mostrando como sistemas paralelos podem ser usados para processar grandes quantidades de imagens em pouco tempo.
    Além disso, o autor aborda as arquiteturas de rede de interconexão e como elas são usadas para conectar os nós de processamento em um sistema de computação paralela. O autor descreve diferentes topologias de rede, como árvore, anel e malha. Por fim, o artigo apresenta algumas tendências atuais em arquiteturas de computação paralela, como computação heterogênea e computação em nuvem, discutindo como essas tendências estão mudando a forma como os sistemas de computação paralela são projetados e utilizados.
    Os pontos positivos deste artigo incluem sua abrangência e profundidade na cobertura das arquiteturas de computadores paralelos, fornecendo uma visão geral das principais classificações e características, além de apresentar exemplos práticos de arquiteturas paralelas que podem ser aplicados em diversas áreas de pesquisa e negócios. No entanto, os pontos negativos incluem o fato de que o artigo foi publicado em 1990, o que significa que as informações apresentadas estão desatualizadas em relação às arquiteturas modernas. Além disso, o autor não apresenta uma análise crítica das arquiteturas discutidas, deixando em aberto a escolha do leitor em relação à melhor arquitetura a ser utilizada em uma determinada aplicação.

    Curtir

  19. O artigo começa a descrever sobre os problemas da classificação da taxonomia de Flynn
    em relação aos avanços da computação paralela, referente a época em que foi escrita,
    em 1990. Se referindo a esses avanços, muitos dos novos paradigmas que surgiram ao
    decorrer da época se encaixam somente em uma categoria (sequencial) ou na outra
    (paralela) quando classificados sob a taxonomia de Flynn, o que deixa vago e não diz
    muito sobre a característica de cada arquitetura. Uma nova proposta de taxonomia não
    teria a necessidade de descartar a de Flynn, mas construir e continuar sob seu trabalho.

    Acrescentando as quatro classificações na taxonomia de Flynn, um formato informal foi
    aprestando no artigo, divindo as arquiteturas em: Sincronia (com subcategorias de
    vetores, SIMD e sistólicas), MIMD (com memoria compartilhada ou distribuída) e
    paradigmas de MIMD (MIMD/SIMD, Fluxo de dados, Redução e Wavefront)

    No artigo, cada arquitetura foi aprestada na ordem em que apareceu na classificação
    informal do artigo, apontando seus fundamentos quanto ao funcionamento, com qual
    razão que surgiu e em qual situação tal arquitetura seria benéfica a ser aplicada.

    De forma conceitual e apresentando certos aspectos das arquiteturas a partir de
    diagramas, com a finalidade de explicar em detalhes cada classificação, teve a finalidade
    de mostrar a variedade da forma em que o paralelismo é realizado, de forma a perceber
    que considerar tudo como “paralelo”, como seria na taxonomia de Flynn, era uma
    simplificação que descrevia pouco as arquiteturas que surgiram.

    Nas palavras finais do artigo, a discussão sobre uma nova proposta de taxonomia e a
    descrição de cada arquitetura tem a finalidade de clarear as dificuldades de se
    compreender a funcionalidade da mesma. Toda essa discussão também mostra que
    todos modelos de paradigmas mostram formas de lidar com a execução concorrente de
    processos, organizando de forma a melhorar a execução paralela, e que não está
    diretamente associado ao hardware ou ao software.

    Curtir

  20. O artigo “A survey of parallel computer architectures”, de autoria de Ralph Duncan, é uma obra de referência que explora de maneira minuciosa as diferentes arquiteturas de computadores paralelos que foram desenvolvidas ao longo dos anos. O autor apresenta uma introdução sobre a necessidade desses computadores, explicando como eles podem ser utilizados para solucionar problemas complexos em áreas como ciência, engenharia e finanças.

    Ao longo do texto, Duncan analisa diversas arquiteturas de computadores paralelos, começando pelas primeiras arquiteturas SIMD (Single Instruction Multiple Data), como o Illiac IV e o Cray-1. Ele também aborda as arquiteturas MIMD (Multiple Instruction Multiple Data), como o IBM RS/6000 SP, e as arquiteturas híbridas que combinam elementos de ambas, como o Intel Paragon.

    O autor também explora os diferentes tipos de memória utilizados em computadores paralelos, incluindo memória compartilhada e memória distribuída, e discute os desafios envolvidos na programação desses sistemas. Além disso, ele aborda tópicos como processadores vetoriais, clusters de computadores e arquiteturas baseadas em redes.

    Em resumo, “A survey of parallel computer architectures” é um artigo completo e bem organizado que oferece uma visão geral das arquiteturas de computadores paralelos e suas aplicações. Se você está interessado em computação paralela, esta obra é uma leitura indispensável para obter um entendimento sólido sobre a complexidade desses sistemas.

    Curtir

  21. “A Communication-Based Classification of Parallel Computing” é um artigo escrito por William Ralph Duncan. O artigo apresenta uma classificação baseada em comunicação de computação paralela, que se concentra na relação entre processos, fluxo de dados e comunicação entre processadores.

    O autor inicia explicando as diferenças entre a classificação de Flynn e a sua própria classificação. Em seguida, ele descreve os quatro tipos de arquiteturas de computação paralela: SISD (Single Instruction Single Data), MISD (Multiple Instruction Single Data), SIMD (Single Instruction Multiple Data) e MIMD (Multiple Instruction Multiple Data). O autor enfatiza que sua classificação é baseada em como os processadores se comunicam entre si e como a comunicação ocorre entre processos.

    O ponto forte do artigo é sua abordagem inovadora na classificação de computação paralela. Ao se concentrar na comunicação, o autor apresenta uma classificação mais prática e útil do que a classificação de Flynn, que é mais orientada para o processador. Além disso, o autor apresenta exemplos de cada tipo de arquitetura, tornando o artigo fácil de entender para os leitores.

    No entanto, a principal limitação do artigo é sua brevidade. O autor poderia ter se aprofundado mais em cada tipo de arquitetura, explicando suas vantagens e desvantagens e fornecendo mais exemplos práticos de uso. Além disso, o autor não discute como sua classificação se relaciona com outras classificações existentes, o que poderia ser útil para os leitores que já têm um conhecimento prévio sobre o assunto.

    No geral, “A Communication-Based Classification of Parallel Computing” é um artigo útil e inovador na área de computação paralela. Embora curto, o artigo apresenta uma abordagem prática e fácil de entender para a classificação de computação paralela com base na comunicação.

    Curtir

  22. O artigo de Duncan se trata sobre as arquiteturas paralelas de computadores paralelos, e seus diversos tipos. No caso, como o autor explica no começo, as arquiteturas paralelas são utilizadas principalmente em cálculos ou dados grandes, e devido a isso, é preciso excluirmos a arquitetura de paralelos de baixo nível que utilizam pipeline de instrução, CPU separadas e independentes.
    Depois da “introdução” a respeito da arquitetura de alto nível, o artigo fala sobre diversos assuntos, como a Taxonomia de Flynn, que é uma classificação computacional criada em 1966 que retrata 4 principais arquiteturas:: SISD, SIMD, MISD, MIMD. Resumidamente, o SISD executa apenas uma instrução para um dado, o SIMD uma instrução é executada simultaneamente em diversos dados, o MISD múltiplos dados são executados em uma instrução e o MIMD executa diversos dados em diversas instruções. Outro assunto principal retratado no artigo é a respeito da memória compartilhada, que são sistemas de computação que a memória principal é distribuída por todo o computador, aumentando a velocidade de cálculo em arquiteturas paralelas.
    Temos também durante todo o artigo diversos parágrafos que retratam de alguns tipos de arquiteturas e fundamentos, como a comunicação e sincronização dos processadores, arquitetura sistólicas, topologia em anel, malha, árvore, hipercubo, reconfigurável, redução, fluxo de dados, e entre outros.
    Como conclusão, o autor opina que não existe perfeitamente uma arquitetura para computação paralela, já que a aplicação de determinado tipo de arquitetura paralela depende de determinados cenários ou necessidades do usuário, fazendo com que seja necessário entender e pesquisar mais a fundo quando, e qual é a decisão adequada para a computação paralela.

    Curtir

  23. O artigo de Duncan se trata sobre as arquiteturas paralelas de computadores paralelos, e seus diversos tipos. No caso, como o autor explica no começo, as arquiteturas paralelas são utilizadas principalmente em cálculos ou dados grandes, e devido a isso, é preciso excluirmos a arquitetura de paralelos de baixo nível que utilizam pipeline de instrução, cpu separadas e independentes.
    Depois da “introdução” a respeito da arquitetura de alto nivel, o artigo fala sobre diversos assuntos, como a Taxonomia de Flynn, que é uma classificação computacional criada em 1966 que retrata 4 principais arquiteturas:: SISD, SIMD, MISD, MIMD. Resumidamente, o SISD executa apenas uma instrução para um dado, o SIMD uma instrução é executada simultaneamente em diversos dados, o MISD multiplos dados são executados em uma instrução e o MIMD executa diversos dados em diversas instruções. Outro assunto principal retratado no artigo é a respeito da memória compartilhada, que são sistemas de computação que a memória principal é distribuída por todo o computador, aumentando a velocidade de cálculo em arquiteturas paralelas.
    Temos também durante todo o artigo diversos paragrafos que retratam de alguns tipos de arquiteturas e fundamentos, como a comunicação e sincronização dos processadores, arquitetura sistólicas, topologia em anel, malha, árvore, hipercubo, reconfigurável, redução, fluxo de dados, e entre outros.
    Como conclusão, o autor opina que não existe perfeitamente uma arquitetura para computação paralela, já que a aplicação de determinado tipo de arquitetura paralela depende de determinados cenários ou necessidades do usuário, fazendo com que seja necessário entender e pesquisar mais a fundo quando, e qual é a decisão adequada para a computação paralela

    Curtir

  24. O artigo “A Survey of Parallel Computer Architectures” é um trabalho de pesquisa que apresenta uma revisão abrangente das arquiteturas de computadores paralelos. O objetivo do artigo é fornecer uma compreensão geral dos diferentes tipos de arquiteturas paralelas, suas vantagens e desvantagens, bem como suas aplicações em diferentes campos.

    O artigo começa com uma introdução que discute a importância dos computadores paralelos na computação moderna e descreve os desafios associados ao projeto e implementação dessas arquiteturas. Em seguida, o artigo apresenta uma visão geral das arquiteturas paralelas, incluindo as arquiteturas baseadas em memória compartilhada, memória distribuída e híbridas.

    O artigo explora em detalhes cada uma das arquiteturas apresentadas, incluindo a arquitetura SMP (Symmetric Multiprocessor), a arquitetura NUMA (Non-Uniform Memory Access), a arquitetura cluster, a arquitetura MPP (Massively Parallel Processing), entre outras.

    O artigo também aborda tópicos avançados, como técnicas de comunicação em arquiteturas paralelas, escalabilidade, tolerância a falhas, sistemas multithreading, entre outros. O artigo conclui com uma discussão sobre as tendências atuais em arquiteturas paralelas, como a computação em nuvem, a computação heterogênea e a computação em memória persistente.

    No geral, o artigo “A Survey of Parallel Computer Architectures” é uma leitura valiosa para estudantes, pesquisadores e profissionais que desejam obter uma visão geral das arquiteturas paralelas. O artigo é bem escrito e aborda de forma abrangente os principais tópicos relacionados a essa área. Além disso, o artigo fornece uma visão geral atualizada das tendências atuais em arquiteturas paralelas e sugere áreas de pesquisa futura.

    Curtir

  25. RESUMO “Artigo de Duncan”

    A pesquisa aborda as arquiteturas de computadores paralelos introduzidas nesta década, incluindo novas tecnologias de processamento paralelo, interconexão e paradigmas de programação. O objetivo é fornecer um esquema ordenado que permita ao não especialista compreender os tipos de arquiteturas paralelas existentes e suas relações umas com as outras. A pesquisa examina os fundamentos do desenvolvimento paralelo da arquitetura em uma estrutura coerente, com ênfase nas construções arquitetônicas em vez de máquinas paralelas específicas. O tutorial aborda o problema de definir arquiteturas paralelas e propõe uma taxonomia de alto nível para classificá-las. Para isso, é necessário excluir arquiteturas que incorporam apenas mecanismos paralelos de baixo nível, manter elementos da taxonomia de Flynn e incluir processadores vetoriais em pipeline e outras arquiteturas difíceis de acomodar.
    O tutorial examina cada um desses imperativos e busca uma definição que satisfaça todos eles e forneça uma base para uma taxonomia razoável.
    O texto discute a exclusão de máquinas que empregam apenas mecanismos paralelos de baixo nível do conjunto de arquiteturas paralelas. São apresentados três recursos de baixo nível que, quando utilizados isoladamente, não oferecem uma estrutura explícita e coerente para desenvolver soluções paralelas de alto nível. O objetivo é evitar que a maioria dos computadores modernos seja considerada “arquiteturas paralelas” e negue a utilidade do termo.
    A taxonomia de Flynn classifica arquiteturas de computadores em quatro categorias com base na presença de fluxos únicos ou múltiplos de instruções e dados. Essas categorias incluem SISD, MISD, SIMD e MIMD. Embora útil para caracterizar arquiteturas, essa classificação pode ser insuficiente para descrever computadores modernos, como os processadores vetoriais em pipeline, que exibem execução aritmética simultânea e podem manipular centenas de elementos vetoriais em paralelo, mas não se enquadram facilmente nas categorias definidas pela taxonomia de Flynn.
    Uma definição satisfatória de arquitetura paralela deve incluir computadores que não podem ser manipulados pela taxonomia de Flynn e excluir arquiteturas que incorporam apenas paralelismo de baixo nível. Uma arquitetura paralela fornece uma estrutura explícita e de alto nível para o desenvolvimento de soluções de programação paralela, permitindo o processamento simultâneo por meio de múltiplos processadores. A taxonomia informal apresentada na Figura 1 delineia as principais abordagens para arquiteturas de computadores paralelos, definindo um espectro coerente de alternativas arquitetônicas. Esta taxonomia não pretende substituir esforços para construir taxonomias mais articuladas, que fornecem subcategorias abrangentes para refletir permutações de características arquitetônicas e cobrir recursos de nível inferior. A seção “Leitura adicional” no final faz referência a estudos taxonômicos criteriosos que abordam esses objetivos.
    As arquiteturas paralelas síncronas coordenam operações simultâneas em sincronia usando relógios globais, unidades centrais de controle ou controladores de unidades vetoriais.
    Os processadores vetoriais têm múltiplas unidades funcionais em pipeline que podem operar simultaneamente para realizar cálculos em vetores e matrizes massivas. Eles transmitem sequencialmente elementos vetoriais por meio de um pipeline e o resultado de saída de uma unidade vai para o pipeline de outra como entrada. Registradores vetoriais especiais armazenam operandos e resultados, enquanto as arquiteturas memória-a-memória usam buffers de memória especiais. Supercomputadores de processamento vetorial recentes unem processadores vetoriais por meio de uma grande memória compartilhada e suportam paralelismo em nível de tarefa, embora as capacidades de processamento vetorial sejam o aspecto fundamental de seu projeto. A sobrecarga de inicialização de unidades de vetor em pipeline tem implicações significativas no desempenho.
    As arquiteturas SIMD (Single Instruction, Multiple Data) usam uma unidade de controle central, vários processadores e uma rede de interconexão para comunicação. A unidade de controle transmite uma única instrução para todos os processadores, que executam a instrução de forma lockstep nos dados locais. As arquiteturas de matriz de processadores são estruturadas para execução numérica SIMD e usam processadores que acomodam operandos do tamanho de palavras. A matriz de processadores é organizada em uma grade simétrica e associada a vários “planos” de bits de memória. As operações são fornecidas para copiar, mascarar e executar operações aritméticas em planos de memória inteiros, bem como em colunas e linhas dentro de um plano. Essas arquiteturas são frequentemente usadas para aplicativos de processamento de imagens mapeando pixels para a estrutura planar da memória.
    Os processadores de memória associativa são uma arquitetura de computador que usa lógica de comparação especial para acessar dados armazenados em paralelo de acordo com seu conteúdo. Eles foram desenvolvidos para pesquisar dados em paralelo que correspondessem a algum valor especificado. A maioria dos processadores atuais usa uma organização bit-serial, onde cada palavra de memória associativa está associada a registradores especiais e lógica de comparação, que constituem funcionalmente um processador. Isso significa que um processador associativo com 4.096 palavras possui efetivamente 4.096 elementos de processamento. A operação principal em uma arquitetura bit-serial é a comparação orientada por linha, onde cada elemento de processamento começa em uma coluna de memória especificada e compara o conteúdo de quatro bits consecutivos em sua linha com o conteúdo do registrador de comparação, configurando um bit no registrador A para indicar se sua linha contém uma correspondência. Também é possível realizar operações lógicas, como a operação OR, em uma coluna de bits. Essa arquitetura é usada principalmente em aplicativos orientados a banco de dados, como rastreamento e vigilância.
    Arquiteturas sistólicas são multiprocessadores em pipeline que utilizam uma rede de processadores e um relógio global para sincronizar o fluxo de dados em pipeline. Essas arquiteturas atendem aos requisitos de desempenho de sistemas para fins especiais alcançando computação paralela significativa e evitando gargalos de largura de banda de memória e E/S. Um alto grau de paralelismo é obtido pela canalização de dados por meio de vários processadores, geralmente de maneira bidimensional. As arquiteturas sistólicas maximizam os cálculos executados em um dado, uma vez obtido da memória ou de um dispositivo externo. Além disso, foram construídas arquiteturas sistólicas programáveis (reconfiguráveis) que não se limitam à implementação de um único algoritmo.
    As arquiteturas MIMD (Multiple Instruction Multiple Data) utilizam múltiplos processadores que podem executar fluxos de instruções independentes, trabalhando com dados locais. Esses computadores suportam soluções paralelas que exigem que os processadores operem de maneira amplamente autônoma, sendo caracterizados pelo controle de hardware descentralizado. As arquiteturas MIMD permitem o paralelismo de alto nível em algoritmos de “dividir e conquistar”, fornecem uma alternativa para refinamentos de implementação adicionais em vetores pipeline e podem ser mais custo-efetivas do que sistemas com apenas um processador. Esses computadores são utilizados em aplicações científicas como modelagem de fluidos tridimensionais.
    O que são arquiteturas de memória distribuída? Quais são as diferentes topologias de rede usadas em arquiteturas de memória distribuída?
    As arquiteturas de memória distribuída conectam nós de processamento (consistindo em um processador autônomo e sua memória local) com uma rede de interconexão processador a processador. Os nós compartilham dados passando mensagens explicitamente pela rede de interconexão, pois não há memória compartilhada. Um produto de pesquisa da década de 1980, essas arquiteturas foram construídas principalmente em um esforço para fornecer uma arquitetura multiprocessador que “escalasse” (acomodasse um aumento significativo de processadores) e satisfizesse os requisitos de desempenho de grandes aplicações científicas caracterizadas por referências de dados locais.
    Várias topologias de rede têm sido propostas para suportar escalabilidade arquitetônica e fornecer desempenho eficiente para programas paralelos com diferentes padrões de comunicação entre processadores. A seguir estão as diferentes topologias de rede usadas em arquiteturas de memória distribuída:

    • Topologia de anel
    • Topologia de malha
    • Topologia de árvore
    • Topologia do hipercubo
    • Topologia reconfigurável

    As arquiteturas de memória compartilhada permitem que vários processadores compartilhem uma memória global, evitando a latência de envio de mensagens encontrada nas arquiteturas de passagem de mensagens. No entanto, problemas como sincronização de acesso a dados e coerência de cache devem ser resolvidos. Mecanismos de sincronização atômica são usados para evitar que processos acessem dados compartilhados simultaneamente. Cada processador em uma arquitetura de memória compartilhada também possui uma memória local usada como cache, o que pode causar problemas de coerência do cache. As alternativas para conectar vários processadores à memória compartilhada incluem interconexões de barra transversal e redes de interconexão multiestágio. Redes de interconexão de múltiplos estágios (MINs) são uma abordagem de compromisso entre as alternativas de preço/desempenho oferecidas por crossbars e barramentos e oferecem expansibilidade.
    As arquiteturas híbridas MIMD/SIMD, de fluxo de dados, de máquinas de redução e matrizes de frente de onda são todos baseados em princípios MIMD de operação assíncrona e manipulação simultânea de várias instruções e fluxos de dados. No entanto, cada uma dessas arquiteturas tem uma organização distinta, tão fundamental para seu design geral quanto as características MIMD. Portanto, elas são descritas na categoria “paradigmas arquitetônicos baseados em MIM” para destacar seus fundamentos distintos, bem como suas características MIMD comuns.
    Arquiteturas híbridas MIMD/SIMD foram desenvolvidas durante a década de 1980, permitindo que partes selecionadas de uma arquitetura MIMD sejam controladas no estilo SIMD. Essas arquiteturas são bastante diversas em relação aos mecanismos de implementação utilizados para reconfigurá-las e controlar a execução do SIMD. Uma arquitetura de troca de mensagens estruturada em árvore é uma maneira de ilustrar o conceito geral da relação mestre/escravos do controlador e processadores de uma arquitetura SIMD mapeada na relação nó/descendentes de uma subárvore. Essas arquiteturas são flexíveis e candidatas atraentes para pesquisas futuras, especialmente para o processamento paralelo de imagens e aplicativos de sistemas especializados.
    As arquiteturas de fluxo de dados executam instruções habilitadas para execução assim que todos os seus operandos estiverem disponíveis, baseando a sequência de instruções em dependências de dados para explorar simultaneidade nos níveis de tarefa, rotina e instrução. Essas arquiteturas exploram novos modelos e linguagens computacionais para alcançar paralelismo em larga escala. Os nós do gráfico representam tarefas assíncronas, e os arcos representam caminhos de comunicação que carregam resultados de execução necessários como operandos em instruções subsequentes. Há diversas implementações de computadores de fluxo de dados, algumas armazenando diretamente “tokens” contendo resultados de instrução em um modelo, enquanto outras usam esquemas de correspondência de tokens para combinar tokens com instruções. A arquitetura de tokenmatching simplificada pode processar fragmentos de programas, criando um token com resultado e uma indicação de qual instrução no gráfico requer o resultado. Em seguida, a unidade correspondente procura por tokens que combinem com as instruções e cria um modelo de instrução com os operandos relevantes para execução. As arquiteturas de redução são orientadas por demanda e permitem a execução paralela de programas compostos de expressões aninhadas, sendo as expressões definidas recursivamente como literais ou aplicações de função em argumentos que podem ser literais ou expressões. Essas arquiteturas substituem as expressões redutíveis pelos seus valores calculados e, assim, todo o programa acaba sendo reduzido ao seu resultado. Desafios práticos incluem a sincronização de demandas para os resultados de uma instrução e a manutenção de cópias dos resultados da avaliação de expressões.
    As arquiteturas de redução empregam redução de string ou redução de gráfico para implementar paradigmas orientados por demanda. Diferentes arquiteturas foram propostas, como a Newcastle Reduction Machine, a North Carolina Cellular Tree Machine e o Utah Applicative Multiprocessing System.
    As arquiteturas de matriz de frente de onda foram desenvolvidas para abordar problemas semelhantes aos que estimularam a pesquisa de matriz sistólica, ou seja, para produzir arquiteturas eficientes e econômicas para sistemas de propósito especial que equilibram cálculos intensivos com alta largura de banda de E/S. As matrizes de frente de onda substituem o relógio global e os atrasos de tempo explícitos usados para sincronizar o pipeline de dados sistólicos com um handshake assíncrono como mecanismo para coordenar o movimento de dados entre processadores. Essa arquitetura apresenta vantagens em termos de escalabilidade, programação simples e tolerância a falhas. As matrizes de frente de onda foram construídas na Universidade Johns Hopkins e na Standard Telecommunications Company e Royal Signals and Radar Establishment (no Reino Unido). Em suma, a discussão propõe uma taxonomia informal dos tipos de arquitetura paralela para explicar como funcionam as principais arquiteturas paralelas.

    Curtir

  26. A pesquisa aborda as arquiteturas de computadores paralelos introduzidas nesta década, incluindo novas tecnologias de processamento paralelo, interconexão e paradigmas de programação. O objetivo é fornecer um esquema ordenado que permita ao não especialista compreender os tipos de arquiteturas paralelas existentes e suas relações umas com as outras. A pesquisa examina os fundamentos do desenvolvimento paralelo da arquitetura em uma estrutura coerente, com ênfase nas construções arquitetônicas em vez de máquinas paralelas específicas. O tutorial aborda o problema de definir arquiteturas paralelas e propõe uma taxonomia de alto nível para classificá-las. Para isso, é necessário excluir arquiteturas que incorporam apenas mecanismos paralelos de baixo nível, manter elementos da taxonomia de Flynn e incluir processadores vetoriais em pipeline e outras arquiteturas difíceis de acomodar.
    O tutorial examina cada um desses imperativos e busca uma definição que satisfaça todos eles e forneça uma base para uma taxonomia razoável.
    O texto discute a exclusão de máquinas que empregam apenas mecanismos paralelos de baixo nível do conjunto de arquiteturas paralelas. São apresentados três recursos de baixo nível que, quando utilizados isoladamente, não oferecem uma estrutura explícita e coerente para desenvolver soluções paralelas de alto nível. O objetivo é evitar que a maioria dos computadores modernos seja considerada “arquiteturas paralelas” e negue a utilidade do termo.
    A taxonomia de Flynn classifica arquiteturas de computadores em quatro categorias com base na presença de fluxos únicos ou múltiplos de instruções e dados. Essas categorias incluem SISD, MISD, SIMD e MIMD. Embora útil para caracterizar arquiteturas, essa classificação pode ser insuficiente para descrever computadores modernos, como os processadores vetoriais em pipeline, que exibem execução aritmética simultânea e podem manipular centenas de elementos vetoriais em paralelo, mas não se enquadram facilmente nas categorias definidas pela taxonomia de Flynn.
    Uma definição satisfatória de arquitetura paralela deve incluir computadores que não podem ser manipulados pela taxonomia de Flynn e excluir arquiteturas que incorporam apenas paralelismo de baixo nível. Uma arquitetura paralela fornece uma estrutura explícita e de alto nível para o desenvolvimento de soluções de programação paralela, permitindo o processamento simultâneo por meio de múltiplos processadores. A taxonomia informal apresentada na Figura 1 delineia as principais abordagens para arquiteturas de computadores paralelos, definindo um espectro coerente de alternativas arquitetônicas. Esta taxonomia não pretende substituir esforços para construir taxonomias mais articuladas, que fornecem subcategorias abrangentes para refletir permutações de características arquitetônicas e cobrir recursos de nível inferior. A seção “Leitura adicional” no final faz referência a estudos taxonômicos criteriosos que abordam esses objetivos.
    As arquiteturas paralelas síncronas coordenam operações simultâneas em sincronia usando relógios globais, unidades centrais de controle ou controladores de unidades vetoriais.
    Os processadores vetoriais têm múltiplas unidades funcionais em pipeline que podem operar simultaneamente para realizar cálculos em vetores e matrizes massivas. Eles transmitem sequencialmente elementos vetoriais por meio de um pipeline e o resultado de saída de uma unidade vai para o pipeline de outra como entrada. Registradores vetoriais especiais armazenam operandos e resultados, enquanto as arquiteturas memória-a-memória usam buffers de memória especiais. Supercomputadores de processamento vetorial recentes unem processadores vetoriais por meio de uma grande memória compartilhada e suportam paralelismo em nível de tarefa, embora as capacidades de processamento vetorial sejam o aspecto fundamental de seu projeto. A sobrecarga de inicialização de unidades de vetor em pipeline tem implicações significativas no desempenho.
    As arquiteturas SIMD (Single Instruction, Multiple Data) usam uma unidade de controle central, vários processadores e uma rede de interconexão para comunicação. A unidade de controle transmite uma única instrução para todos os processadores, que executam a instrução de forma lockstep nos dados locais. As arquiteturas de matriz de processadores são estruturadas para execução numérica SIMD e usam processadores que acomodam operandos do tamanho de palavras. A matriz de processadores é organizada em uma grade simétrica e associada a vários “planos” de bits de memória. As operações são fornecidas para copiar, mascarar e executar operações aritméticas em planos de memória inteiros, bem como em colunas e linhas dentro de um plano. Essas arquiteturas são frequentemente usadas para aplicativos de processamento de imagens mapeando pixels para a estrutura planar da memória.
    Os processadores de memória associativa são uma arquitetura de computador que usa lógica de comparação especial para acessar dados armazenados em paralelo de acordo com seu conteúdo. Eles foram desenvolvidos para pesquisar dados em paralelo que correspondessem a algum valor especificado. A maioria dos processadores atuais usa uma organização bit-serial, onde cada palavra de memória associativa está associada a registradores especiais e lógica de comparação, que constituem funcionalmente um processador. Isso significa que um processador associativo com 4.096 palavras possui efetivamente 4.096 elementos de processamento. A operação principal em uma arquitetura bit-serial é a comparação orientada por linha, onde cada elemento de processamento começa em uma coluna de memória especificada e compara o conteúdo de quatro bits consecutivos em sua linha com o conteúdo do registrador de comparação, configurando um bit no registrador A para indicar se sua linha contém uma correspondência. Também é possível realizar operações lógicas, como a operação OR, em uma coluna de bits. Essa arquitetura é usada principalmente em aplicativos orientados a banco de dados, como rastreamento e vigilância.
    Arquiteturas sistólicas são multiprocessadores em pipeline que utilizam uma rede de processadores e um relógio global para sincronizar o fluxo de dados em pipeline. Essas arquiteturas atendem aos requisitos de desempenho de sistemas para fins especiais alcançando computação paralela significativa e evitando gargalos de largura de banda de memória e E/S. Um alto grau de paralelismo é obtido pela canalização de dados por meio de vários processadores, geralmente de maneira bidimensional. As arquiteturas sistólicas maximizam os cálculos executados em um dado, uma vez obtido da memória ou de um dispositivo externo. Além disso, foram construídas arquiteturas sistólicas programáveis (reconfiguráveis) que não se limitam à implementação de um único algoritmo.
    As arquiteturas MIMD (Multiple Instruction Multiple Data) utilizam múltiplos processadores que podem executar fluxos de instruções independentes, trabalhando com dados locais. Esses computadores suportam soluções paralelas que exigem que os processadores operem de maneira amplamente autônoma, sendo caracterizados pelo controle de hardware descentralizado. As arquiteturas MIMD permitem o paralelismo de alto nível em algoritmos de “dividir e conquistar”, fornecem uma alternativa para refinamentos de implementação adicionais em vetores pipeline e podem ser mais custo-efetivas do que sistemas com apenas um processador. Esses computadores são utilizados em aplicações científicas como modelagem de fluidos tridimensionais.
    O que são arquiteturas de memória distribuída? Quais são as diferentes topologias de rede usadas em arquiteturas de memória distribuída?
    As arquiteturas de memória distribuída conectam nós de processamento (consistindo em um processador autônomo e sua memória local) com uma rede de interconexão processador a processador. Os nós compartilham dados passando mensagens explicitamente pela rede de interconexão, pois não há memória compartilhada. Um produto de pesquisa da década de 1980, essas arquiteturas foram construídas principalmente em um esforço para fornecer uma arquitetura multiprocessador que “escalasse” (acomodasse um aumento significativo de processadores) e satisfizesse os requisitos de desempenho de grandes aplicações científicas caracterizadas por referências de dados locais.
    Várias topologias de rede têm sido propostas para suportar escalabilidade arquitetônica e fornecer desempenho eficiente para programas paralelos com diferentes padrões de comunicação entre processadores. A seguir estão as diferentes topologias de rede usadas em arquiteturas de memória distribuída:

    Topologia de anel
    Topologia de malha
    Topologia de árvore
    Topologia do hipercubo
    Topologia reconfigurável

    As arquiteturas de memória compartilhada permitem que vários processadores compartilhem uma memória global, evitando a latência de envio de mensagens encontrada nas arquiteturas de passagem de mensagens. No entanto, problemas como sincronização de acesso a dados e coerência de cache devem ser resolvidos. Mecanismos de sincronização atômica são usados para evitar que processos acessem dados compartilhados simultaneamente. Cada processador em uma arquitetura de memória compartilhada também possui uma memória local usada como cache, o que pode causar problemas de coerência do cache. As alternativas para conectar vários processadores à memória compartilhada incluem interconexões de barra transversal e redes de interconexão multiestágio. Redes de interconexão de múltiplos estágios (MINs) são uma abordagem de compromisso entre as alternativas de preço/desempenho oferecidas por crossbars e barramentos e oferecem expansibilidade.
    As arquiteturas híbridas MIMD/SIMD, de fluxo de dados, de máquinas de redução e matrizes de frente de onda são todos baseados em princípios MIMD de operação assíncrona e manipulação simultânea de várias instruções e fluxos de dados. No entanto, cada uma dessas arquiteturas tem uma organização distinta, tão fundamental para seu design geral quanto as características MIMD. Portanto, elas são descritas na categoria “paradigmas arquitetônicos baseados em MIM” para destacar seus fundamentos distintos, bem como suas características MIMD comuns.
    Arquiteturas híbridas MIMD/SIMD foram desenvolvidas durante a década de 1980, permitindo que partes selecionadas de uma arquitetura MIMD sejam controladas no estilo SIMD. Essas arquiteturas são bastante diversas em relação aos mecanismos de implementação utilizados para reconfigurá-las e controlar a execução do SIMD. Uma arquitetura de troca de mensagens estruturada em árvore é uma maneira de ilustrar o conceito geral da relação mestre/escravos do controlador e processadores de uma arquitetura SIMD mapeada na relação nó/descendentes de uma subárvore. Essas arquiteturas são flexíveis e candidatas atraentes para pesquisas futuras, especialmente para o processamento paralelo de imagens e aplicativos de sistemas especializados.
    As arquiteturas de fluxo de dados executam instruções habilitadas para execução assim que todos os seus operandos estiverem disponíveis, baseando a sequência de instruções em dependências de dados para explorar simultaneidade nos níveis de tarefa, rotina e instrução. Essas arquiteturas exploram novos modelos e linguagens computacionais para alcançar paralelismo em larga escala. Os nós do gráfico representam tarefas assíncronas, e os arcos representam caminhos de comunicação que carregam resultados de execução necessários como operandos em instruções subsequentes. Há diversas implementações de computadores de fluxo de dados, algumas armazenando diretamente “tokens” contendo resultados de instrução em um modelo, enquanto outras usam esquemas de correspondência de tokens para combinar tokens com instruções. A arquitetura de tokenmatching simplificada pode processar fragmentos de programas, criando um token com resultado e uma indicação de qual instrução no gráfico requer o resultado. Em seguida, a unidade correspondente procura por tokens que combinem com as instruções e cria um modelo de instrução com os operandos relevantes para execução. As arquiteturas de redução são orientadas por demanda e permitem a execução paralela de programas compostos de expressões aninhadas, sendo as expressões definidas recursivamente como literais ou aplicações de função em argumentos que podem ser literais ou expressões. Essas arquiteturas substituem as expressões redutíveis pelos seus valores calculados e, assim, todo o programa acaba sendo reduzido ao seu resultado. Desafios práticos incluem a sincronização de demandas para os resultados de uma instrução e a manutenção de cópias dos resultados da avaliação de expressões.
    As arquiteturas de redução empregam redução de string ou redução de gráfico para implementar paradigmas orientados por demanda. Diferentes arquiteturas foram propostas, como a Newcastle Reduction Machine, a North Carolina Cellular Tree Machine e o Utah Applicative Multiprocessing System.
    As arquiteturas de matriz de frente de onda foram desenvolvidas para abordar problemas semelhantes aos que estimularam a pesquisa de matriz sistólica, ou seja, para produzir arquiteturas eficientes e econômicas para sistemas de propósito especial que equilibram cálculos intensivos com alta largura de banda de E/S. As matrizes de frente de onda substituem o relógio global e os atrasos de tempo explícitos usados para sincronizar o pipeline de dados sistólicos com um handshake assíncrono como mecanismo para coordenar o movimento de dados entre processadores. Essa arquitetura apresenta vantagens em termos de escalabilidade, programação simples e tolerância a falhas. As matrizes de frente de onda foram construídas na Universidade Johns Hopkins e na Standard Telecommunications Company e Royal Signals and Radar Establishment (no Reino Unido). Em suma, a discussão propõe uma taxonomia informal dos tipos de arquitetura paralela para explicar como funcionam as principais arquiteturas paralelas.

    Curtir

  27. O artigo oferece uma ampla visão geral das arquiteturas de computadores paralelos disponíveis na época. O texto começa descrevendo a evolução dos computadores paralelos e apresenta uma taxonomia de arquiteturas paralelas, dividindo-as em quatro categorias principais: arquiteturas de memória compartilhada, arquiteturas de memória distribuída, arquiteturas de fluxo de dados e arquiteturas de computação em grade. O artigo também discute as tendências atuais na área de arquitetura de computadores paralelos, destacando a crescente importância das arquiteturas de memória distribuída. Em suma, o artigo é uma leitura valiosa para quem se interessa por computação paralela e muitos dos conceitos discutidos ainda são relevantes hoje em dia.

    Curtir

  28. O artigo discute o desenvolvimento de tecnologias de processamento paralelo, incluindo novas arquiteturas paralelas de hardware, tecnologias de interconexão e modelos de programação . O artigo analisa a diversidade de formas de arquiteturas de computação paralela e tenta colocar inovações arquitetônicas recentes no contexto mais amplo da arquitetura paralela desenvolvimento observando os fundamentos das arquiteturas de computação paralela mais novas e mais bem estabelecidas e colocando essas arquiteturas alternativas em perspectiva. Estrutura .
    O texto aborda a dificuldade de definir corretamente o termo “construção paralela” e apresenta uma classificação para entender abordagens alternativas para processamento paralelo. A classificação de Flynn é uma classificação de arquiteturas de computador baseada em com base na presença de uma ou mais instruções e fluxos de dados.
    Este produz quatro tipos: SISD, MISD, SIMD e MIMD.No entanto, essa classificação de não é suficiente para classificar muitos computadores modernos como processadores vetoriais de pipeline. Uma definição de arquitetura paralela fornecida como uma estrutura clara de alto nível para o desenvolvimento de soluções de programação paralela, o fornece vários processadores, simples ou complexos, em cooperação com o para resolver problemas por meio da execução simultânea. A classificação baseada nesta definição é mostrada na Figura 1, com categorias de alto nível descrevendo as principais abordagens para a arquitetura de computador paralelo . Esta classificação não pretende substituir a força de esforços para construir classificações mais claras. A Synchronous Parallel Architecture coordena operações simultâneas síncronas por meio de um relógio global, controlador central ou controlador de unidade vetorial. A arquitetura do processador vetorial foi originalmente desenvolvida no final dos anos 1960 e início dos anos 1970 para suportar diretamente grandes cálculos de vetores e matrizes. Essas arquiteturas fornecem processamento de vetores paralelos passando sequencialmente elementos de vetor através de um pipeline de unidades funcionais e passando saídas de uma única unidade para o tubo de linha de outra unidade como entrada.
    A arquitetura de registro usa um registro vetorial especial de alta velocidade contendo operandos e resultados, enquanto a arquitetura de memória usa um buffer especial em vez de um registro vetorial. A arquitetura SIMD é caracterizada por um controlador central, múltiplos processadores e uma rede de interconexão para comunicação.O controlador transmite uma única instrução para todos os processadores, o executa essa instrução de forma síncrona nos dados locais. A rede permite que os resultados da instrução calculados em um processador sejam passados para os outros processadores para uso como operandos na próxima instrução.
    No decorrer do texto, é apresentada uma discussão sobre duas arquiteturas de processadores SIMD: a matriz de processadores e o processador de memória combinado.
    Na matriz do processador, os processadores que aceitam operandos com tamanho de palavra são organizados em uma grade e as operações são executadas em todo o plano de memória. Por outro lado, em um processador de memória associativa, os dados são acessados de acordo com seu conteúdo, por meio de uma lógica especial de comparação . O texto também apresenta exemplos de processadores em cada uma dessas categorias e detalha como eles funcionam. A arquitetura sistólica é um multiprocessador de pipeline proposto pelo HT Kung na década de 1980 para resolver os problemas de sistemas de propósito especial que precisavam equilibrar a intensidade de computação com a demanda de I/largura de banda O.
    A transferência de dados entre vários processadores, geralmente bidirecionais, fornece um alto grau de paralelismo e evita gargalos de largura de banda. A sincronização do fluxo de dados é realizada pelo relógio global e pelo cronômetro explícito . A rede sistólica usada nos sistemas tem uma finalidade especial, principalmente para processamento de sinal, e a arquitetura sistólica programável ant também foi construída. A Figura 9a-e mostra um exemplo de uma matriz sistólica simples que calcula o produto mais externo de duas matrizes.
    A arquitetura MIMD é baseada em múltiplos processadores que podem executar fluxos de instruções independentes usando dados locais. Isso permite que o paralelismo de alto nível seja implementado, permitindo que algoritmos independentes, como pesquisa e classificação, sejam executados em subcomputações independentes. O computador MIMD é assíncrono, com controle de hardware descentralizado, e é uma alternativa mais econômica ao computador vetorial com pipeline para aplicações científicas. A arquitetura de memória distribuída conecta nós de processamento por meio da rede de interconexão, permitindo que os nós compartilhem dados passando mensagens explicitamente.
    Essas arquiteturas foram criadas para fornecer ao uma arquitetura de multiprocessador escalável e atender aos requisitos de desempenho dos aplicativos científicos do com referências de dados. Local.Várias topologias de rede foram propostas, incluindo topologia em anel, malha e árvore, cada uma adequada para diferentes tipos de algoritmos paralelos e modelos de comunicação entre processadores.
    Várias estratégias são utilizadas para reduzir o diâmetro de comunicação dessas topologias. O texto apresenta três tipos de arquiteturas de sistemas de computadores paralelos: topologia superbloco, topologia reconfigurável e memória compartilhada. A topologia do superbloco consiste em processadores dispostos em um bloco n-dimensional com links bidirecionais entre nós adjacentes, com a finalidade de suportar aplicações científicas 3D.
    A topologia reconfigurável oferece chaves programáveis que permitem ao usuário selecionar a topologia lógica para corresponder aos padrões de comunicação do aplicativo. A memória compartilhada fornece memória compartilhada globalmente que cada processador pode endereçar, permitindo a coordenação entre processadores, embora o tenha problemas de sincronização e alinhamento de memória. Este texto discute as diferentes técnicas de interconexão usadas em sistemas multiprocessados.O barramento de tempo compartilhado é uma opção simples, mas é limitado no número de processadores suportados.
    A tecnologia crossbar usa um comutador crossbar para conectar o processador à memória, mas é limitada no número de processadores. A rede multicamada compensa o preço e o desempenho do e é expansível, permitindo que um grande número de processadores estar conectado. O texto enfatiza o uso de diferentes técnicas em arquiteturas comerciais e experimentais. O texto discute diferentes tipos de arquiteturas paralelas baseadas em MIMD, incluindo combinações MIMD/SIMD, arquiteturas de fluxo de dados, redutores e redes de frente de onda. Cada uma dessas arquiteturas é baseada em um princípio de organização distinto, além dos recursos MIMD que eles têm em comum.
    A arquitetura MIMD/SIMD permite o controle de certas partes da arquitetura MIMD de maneira SIMD, e várias implementações foram exploradas para reconfigurar essas arquiteturas e controlar a execução. A flexibilidade dessas arquiteturas as torna candidatas para estudos futuros, especialmente a para suportar processamento paralelo de imagens e aplicações dedicadas do sistema . A arquitetura de fluxo de dados é caracterizada por um modelo de execução baseado na dependência de dados, no qual as instruções são executadas assim que seus operandos estão disponíveis.Essas arquiteturas exploram paralelismo em larga escala por meio da execução de grafos de fluxo de dados, com nós representando tarefas assíncronas e arcos representando caminhos de interseção a seguir.
    Algumas arquiteturas implementam computadores de tráfego de dados estáticos, o enquanto outros permitem que instâncias de nó sejam criadas em tempo de execução e múltiplas instâncias de um nó rodando simultaneamente. A arquitetura pode armazenar diretamente os tokens contendo os resultados da instrução em um modelo para a instrução que os usará como operandos ou usará o esquema de correspondência de token .
    A execução de uma instrução gerará a nova mensagem de código do resultado para usar como entrada para a próxima declaração. As arquiteturas de mitigação são orientadas por demanda e implementam o modelo de execução paralela para suportar as linguagens de programação de aplicativos . Essas arquiteturas executam programas que incluem expressões aninhadas e reduzem o programa ao resultado, reconhecendo as expressões recolhíveis e substituindo-as por suas computadas valores. desafios práticos incluem sincronizar e manter cópias dos resultados da avaliação de expressão.
    Arquiteturas reduzidas usam redução de cadeia ou redução de gráfico para implementar modelos sob demanda. As arquiteturas de minificação propostas incluem o Newcastle Reducer, o Cell Tree Generator na Carolina do Norte e o Utah Applied Multiprocessing System. O artigo discute a arquitetura de rede wavefront, combinando o caminho de dados sistólicos com um modelo de execução de fluxo de dados assíncrono.
    Essas arquiteturas usam o handshake assíncrono como mecanismo para coordenar a movimentação de dados entre os processadores, substituem o clock comum e os timeouts explícitos usados nas arquiteturas sistólicas. O artigo apresenta um exemplo de multiplicação da matriz para ilustrar como a arquitetura da matriz de frente de onda funciona.
    O autor argumenta que as matrizes de frente de onda têm várias vantagens sobre as matrizes sistólicas , incluindo maior escalabilidade, programação mais fácil e maior tolerância a falhas. O objetivo do artigo é explicar como os principais tipos de arquiteturas paralelas funcionam e mostrar que as arquiteturas paralelas incorporam os princípios organizacionais básicos para execução simultânea.

    Curtir

  29. O artigo discute o aumento da tecnologias de processamento paralelo,
    incluindo novas arquiteturas paralelas de hardware, tecnologias de interconexão e
    paradigmas de programação. O artigo analisa a diversidade de arquiteturas de
    computadores paralelos e tenta colocar as inovações arquitetônicas recentes no
    contexto mais amplo do desenvolvimento da arquitetura paralela, examinando os
    fundamentos das arquiteturas de computadores paralelos mais recentes e mais
    estabelecidos e colocando essas alternativas arquitetônicas em uma estrutura
    coerente. O texto aborda a dificuldade em definir precisamente o termo “arquiteturas
    paralelas” e apresenta uma taxonomia para a compreensão das abordagens
    alternativas para o processamento paralelo.
    A taxonomia de Flynn é uma classificação de arquiteturas de computadores
    baseada na presença de fluxos únicos ou múltiplos de instruções e dados. Isso
    produz quatro categorias: SISD, MISD, SIMD e MIMD. No entanto, essa classificação
    é insuficiente para classificar vários computadores modernos, como processadores
    vetoriais em pipeline. Uma definição de arquitetura paralela é proposta como uma
    estrutura explícita e de alto nível para o desenvolvimento de soluções de
    programação paralela, fornecendo múltiplos processadores, simples ou complexos,
    que cooperam para resolver problemas por meio de execução simultânea. Uma
    taxonomia baseada nessa definição é mostrada na Figura 1, com categorias de alto
    nível delineando as principais abordagens para arquiteturas paralelas de
    computadores. Esta taxonomia não pretende suplantar os esforços para construir
    taxonomias mais articuladas.
    As arquiteturas paralelas síncronas coordenam operações simultâneas em
    sincronia através de relógios globais, unidades centrais de controle ou controladores
    de unidades vetoriais. As primeiras arquiteturas de processador vetorial foram
    desenvolvidas no final dos anos 1960 e início dos anos 1970 para suportar
    diretamente cálculos massivos de vetores e matrizes. Essas arquiteturas fornecem
    processamento de vetores paralelos ao transmitir sequencialmente elementos
    vetoriais por meio de um pipeline de unidade funcional e ao transmitir os resultados
    de saída de uma unidade para o pipeline de outra como entrada. As arquiteturas
    registradoras usam registradores vetoriais especiais de alta velocidade que contêm
    operandos e resultados, enquanto as arquiteturas de memória usam buffers de
    memória especiais em vez de registradores vetoriais.
    As arquiteturas SIMD são caracterizadas por uma unidade de controle central,
    vários processadores e uma rede de interconexão para comunicações. A unidade de
    controle transmite uma única instrução para todos os processadores, que executam
    a instrução de forma lockstep nos dados locais. A rede de interconexão permite que
    os resultados da instrução calculados em um processador sejam comunicados a
    outro processador para uso como operandos em uma instrução subsequente.
    Durante o texto é apresentada uma discussão sobre duas arquiteturas de
    processadores SIMD: matriz de processadores e processadores de memória
    associativa. Na matriz de processadores, processadores que acomodam operandosdo tamanho de palavras são organizados em uma grade, e as operações são
    realizadas em planos de memória inteiros. Já nos processadores de memória
    associativa, os dados são acessados de acordo com seu conteúdo, por meio de
    uma lógica de comparação especial. O texto apresenta ainda exemplos de
    processadores em cada uma dessas categorias e detalha seu funcionamento.
    Arquiteturas sistólicas são multiprocessadores em pipeline propostos por HT
    Kung na década de 1980 para solucionar problemas de sistemas de finalidade
    especial que precisam equilibrar cálculos intensivos com larguras de banda de I/O
    exigentes. A canalização de dados por meio de vários processadores, geralmente
    bidimensionais, proporciona alto grau de paralelismo e evita gargalos de largura de
    banda. A sincronização do fluxo de dados é feita por um relógio global e atrasos de
    tempo explícitos. As matrizes sistólicas são utilizadas em sistemas de propósito
    especial, principalmente para processamento de sinal, e também foram construídas
    arquiteturas sistólicas programáveis. A Figura 9a-e mostra um exemplo de uma
    matriz sistólica simples que calcula o produto externo de duas matrizes.
    As arquiteturas MIMD são baseadas em múltiplos processadores que podem
    executar fluxos independentes de instruções usando dados locais. Isso permite a
    execução de soluções paralelas de alto nível, tornando possível a execução de
    algoritmos independentes, como pesquisa e classificação, em sub-cálculos
    independentes. Os computadores MIMD são assíncronos, com controle de hardware
    descentralizado, e são uma alternativa mais econômica aos computadores vetoriais
    em pipeline para aplicações científicas.
    As arquiteturas de memória distribuída conectam nós de processamento
    através de uma rede de interconexão, permitindo que os nós compartilhem dados
    passando mensagens explicitamente. Essas arquiteturas foram criadas para
    fornecer uma arquitetura de multiprocessador escalável e atender às demandas de
    desempenho de aplicações científicas com referências de dados locais. Várias
    topologias de rede de interconexão foram propostas, incluindo as topologias em
    anel, de malha e de árvore, cada uma adequada para diferentes tipos de algoritmos
    paralelos e padrões de comunicação entre processadores. Algumas estratégias são
    usadas para reduzir o diâmetro de comunicação dessas topologias.
    O texto apresenta três tipos de arquiteturas de sistemas computacionais
    paralelos: topologia hipercubo, topologia reconfigurável e memória compartilhada. A
    topologia hipercubo consiste em processadores organizados em um cubo
    n-dimensional com links bidirecionais entre nós adjacentes, com o objetivo de
    suportar aplicações científicas 3D. A topologia reconfigurável oferece switches
    programáveis que permitem aos usuários selecionar uma topologia lógica
    correspondente aos padrões de comunicação do aplicativo. Já a memória
    compartilhada fornece uma memória compartilhada global que cada processador
    pode endereçar, possibilitando a coordenação entre processadores, embora
    apresente problemas de sincronização e coerência de cache.Este texto discute diferentes técnicas de interconexão utilizadas em sistemas
    de multiprocessadores. O barramento de tempo compartilhado é uma opção
    simples, mas limitada em termos de número de processadores suportados. A
    tecnologia de interconexão crossbar utiliza um crossbar switch para conectar
    processadores a memórias, mas é limitada em termos de número de
    processadores. Redes de interconexão multiestágio estabelecem um compromisso
    entre preço e desempenho e são expansíveis, permitindo a conexão de um grande
    número de processadores. O texto destaca o uso de diferentes técnicas em
    arquiteturas comerciais e experimentais.
    O texto trata de diferentes tipos de arquiteturas paralelas baseadas em MIMD,
    incluindo híbridas MIMD/SIMD, arquiteturas de fluxo de dados, máquinas de redução
    e matrizes de frente de onda. Cada uma dessas arquiteturas é baseada em um
    princípio de organização distinto, além das características MIMD que têm em
    comum. As arquiteturas MIMD/SIMD permitem que partes selecionadas de uma
    arquitetura MIMD sejam controladas no estilo SIMD, e foram exploradas diversas
    implementações para reconfigurar essas arquiteturas e controlar a execução SIMD.
    A flexibilidade dessas arquiteturas as torna candidatas a pesquisas futuras,
    especialmente no suporte ao processamento paralelo de imagens e aplicativos de
    sistemas especializados.
    As arquiteturas de fluxo de dados são caracterizadas por um paradigma de
    execução baseado em dependências de dados, onde as instruções são executadas
    assim que seus operandos estão disponíveis. Essas arquiteturas exploram o
    paralelismo em larga escala através da execução de gráficos de fluxo de dados, com
    nós representando tarefas assíncronas e arcos representando caminhos de
    comunicação. Algumas arquiteturas implementam computadores de fluxo de dados
    estáticos, enquanto outras permitem a criação de instâncias de nó em tempo de
    execução e várias instâncias de um nó para serem executadas simultaneamente. As
    arquiteturas podem armazenar diretamente tokens contendo resultados de
    instrução em um modelo para a instrução que os utilizará como operandos, ou usar
    esquemas de correspondência de tokens. A execução de uma instrução criará um
    novo token de resultado para ser usado como entrada para a instrução seguinte.
    As arquiteturas de redução são orientadas pela demanda e implementam um
    paradigma de execução paralela para suportar linguagens de programação
    aplicativas. Essas arquiteturas executam programas compostos por expressões
    aninhadas e reduzem o programa a um resultado, reconhecendo as expressões
    redutíveis e substituindo-as pelos seus valores calculados. Os desafios práticos
    incluem a sincronização e a manutenção de cópias dos resultados da avaliação da
    expressão. As arquiteturas de redução utilizam a redução de string ou a redução de
    gráfico para implementar paradigmas orientados pela demanda. As arquiteturas de
    redução propostas incluem a Newcastle Reduction Machine, a North Carolina
    Cellular Tree Machine e o Utah Applicative Multiprocessing System.O artigo discute as arquiteturas de matriz de frente de onda, que combinam o
    pipeline de dados sistólicos com um paradigma de execução de fluxo de dados
    assíncrono. Essas arquiteturas utilizam um handshake assíncrono como
    mecanismo para coordenar o movimento de dados entre processadores,
    substituindo o relógio global e os atrasos de tempo explícitos usados nas
    arquiteturas sistólicas. O artigo apresenta um exemplo de multiplicação de matriz
    para ilustrar o funcionamento da arquitetura de matriz de frente de onda. O autor
    argumenta que as matrizes de frente de onda têm várias vantagens sobre as
    matrizes sistólicas, incluindo maior escalabilidade, programação mais simples e
    maior tolerância a falhas. O objetivo do artigo é explicar como funcionam os
    principais tipos de arquiteturas paralelas e mostrar que as arquiteturas paralelas
    incorporam princípios de organização fundamentais para execução simultânea.

    Curtir

  30. 1 – Resenha e apresentação do artigo A Survey of Parallel Computer Architectures 1990.

    Introdução
    O artigo fala a respeito de arquiteturas de computadores paralelos, principalmente multiprocessadores e máquinas multiprocessadas. O objetivo é fornecer uma base de conhecimento dessas arquiteturas e como são usadas.
    Os avanços na tecnologia dos sistemas de computador avançaram muito, tornando eles mais poderosos, porém, o aumento de frequência do relógio (overclock) ou o número de transistores em um processador pode não entregar poder de processamento suficiente, e com isso em mente, desenvolveram arquiteturas de computadores paralelos, nas quais utilizam múltiplos processadores que trabalham em paralelo.

    Definição das categorias
    As arquiteturas são divididas em categorias conforme o grau de compartilhamento de recursos (compartilhamento de recursos entre os processadores), topologia de interconexão (conexão entre processadores e memória) e estratégia de programação (como o software utiliza da capacidade de processamento paralelo).
    Grau de compartilhamento de recursos → são divididas em distribuídas ou compartilhadas. As distribuídas têm recursos locais em cada um dos processadores, com comunicação entre eles acontecendo por trocas de mensagens. Já as compartilhadas têm um pool de recursos compartilhados, incluindo memória e dispositivos de entrada e saída.
    Topologia de interconexão → as mais recorrentes têm base em barramentos (simples e econômicas, porém com problemas de contenção), árvores (mais escaláveis, porém com chance de gargalos na raiz), malhas (mais robusto contra falhas, melhor escalabilidade, porém tem problemas de contenção de rota e latência) e hipercubos (são muito escaláveis e robustas, porém necessitam de um hardware específico e um complexo software de comunicação).
    Estratégia de programação → dividida em fortemente e fracamente acoplada. As fortemente tem otimização de execução para programas que precisam de muita comunicação entre processadores. Já as fracamente são para programas que precisam de nenhuma ou pouca comunicação entre processadores.

    Prós e Contras
    Pontos positivos:
    1 – Melhoria de desempenho: divide tarefas grandes em menores e assim as fazem em um tempo menor e simultaneamente.
    2 – Espansibilidade: São sistemas que podem facilmente ser expandido em capacidade com isto ficando mais rápido para fazer outros processos simultâneos
    3 – tolerância a falha: São feitos para caso um componente falhe ele ainda consegue continuar os processos.
    4 – maior eficiência energética: São feitos para poderem dividir os trabalhos em diversos processadores, assim diminuindo o consumo de cada um.
    5 – maior capacidade de processamento: Por poderem dividir os trabalhos em diversos processadores podem trabalhar com uma grande quantidade de dados ao mesmo tempo.
    Pontos negativos:
    1 – Custo elevado: São mais caros por precisarem de hardware, software e infraestruturas específicas.
    2 – Complexo: Por causa das diferenças de hardware e infraestrutura pode ocorrer dificuldade para fazer qualquer concerto.
    3 – Concorrência por recursos: Para fazer com que não ocorram gargalos é necessário fazer um gerenciamento cuidadoso do hardware.
    4 – Requisitos de software especifico: É necessário um software que consiga fazer a divisão dos processos entre os processadores.
    5 – Potencial para contenção: Quando em um sistema assim vários processadores tentam acessar o mesmo recurso ocorre a contenção.

    Conclusão e Opinião
    Atualmente as arquiteturas de computadores paralelos suprem a necessidade de um poder de processamento nos trabalhos mais exigentes. Elas são dívidas em categorias de acordo com seu compartilhamento de recursos entre processadores, conexão com a memória e como o software usa os processadores. Cada uma das arquiteturas tem prós e contras e tem seus usos específicos.
    Quanto ao artigo do Duncan em si, ele é interessante em alguns aspectos, e ajuda a quem não conhece esse tipo de arquitetura a entender como que funciona, porém, por ele ser de 1990, com certeza tem coisa desatualizada se for comparar com as tecnologias de processadores paralelos atuais, portanto, é útil em alguns aspectos de aprendizado, porém deve-se ver mais a respeito desse assunto para uma compreensão ainda melhor sobre.

    Curtir

  31. Introdução
    O artigo fala a respeito de arquiteturas de computadores paralelos, principalmente
    multiprocessadores e máquinas multiprocessadas. O objetivo é fornecer uma base de
    conhecimento dessas arquiteturas e como são usadas.
    Os avanços na tecnologia dos sistemas de computador avançaram muito, tornando eles
    mais poderosos, porém, o aumento de frequência do relógio (overclock) ou o número de
    transistores em um processador pode não entregar poder de processamento suficiente, e com
    isso em mente, desenvolveram arquiteturas de computadores paralelos, nas quais utilizam
    múltiplos processadores que trabalham em paralelo.
    Definição das categorias
    As arquiteturas são divididas em categorias conforme o grau de compartilhamento de
    recursos (compartilhamento de recursos entre os processadores), topologia de interconexão
    (conexão entre processadores e memória) e estratégia de programação (como o software
    utiliza da capacidade de processamento paralelo).
    Grau de compartilhamento de recursos → são divididas em distribuídas ou compartilhadas.
    As distribuídas têm recursos locais em cada um dos processadores, com comunicação entre
    eles acontecendo por trocas de mensagens. Já as compartilhadas têm um pool de recursos
    compartilhados, incluindo memória e dispositivos de entrada e saída.
    Topologia de interconexão → as mais recorrentes têm base em barramentos (simples e
    econômicas, porém com problemas de contenção), árvores (mais escaláveis, porém com
    chance de gargalos na raiz), malhas (mais robusto contra falhas, melhor escalabilidade, porém
    tem problemas de contenção de rota e latência) e hipercubos (são muito escaláveis e
    robustas, porém necessitam de um hardware específico e um complexo software de
    comunicação).
    Estratégia de programação → dividida em fortemente e fracamente acoplada. As fortemente
    tem otimização de execução para programas que precisam de muita comunicação entre
    processadores. Já as fracamente são para programas que precisam de nenhuma ou pouca
    comunicação entre processadores.
    Prós e Contras
    Pontos positivos:
    1 – Melhoria de desempenho: divide tarefas grandes em menores e assim as fazem em um
    tempo menor e simultaneamente.
    2 – Espancibilidade: São sistemas que podem facilmente ser expandido em capacidade com
    isto ficando mais rápido para fazer outros processos simultâneos
    3 – tolerância a falha: São feitos para caso um componente falhe ele ainda consegue continuar
    os processos.
    4 – maior eficiência energética: São feitos para poderem dividir os trabalhos em diversos
    processadores, assim diminuindo o consumo de cada um.
    5 – maior capacidade de processamento: Por poderem dividir os trabalhos em diversos
    processadores podem trabalhar com uma grande quantidade de dados ao mesmo tempo.
    Pontos negativos:
    1 – Custo elevado: São mais caros por precisarem de hardware, software e infraestruturas
    específicas.
    2 – Complexo: Por causa das diferenças de hardware e infraestrutura pode ocorrer dificuldade
    para fazer qualquer concerto.
    3 – Concorrência por recursos: Para fazer com que não ocorram gargalos é necessário fazer
    um gerenciamento cuidadoso do hardware.
    4 – Requisitos de software especifico: É necessário um software que consiga fazer a divisão
    dos processos entre os processadores.
    5 – Potencial para contenção: Quando em um sistema assim vários processadores tentam
    acessar o mesmo recurso ocorre a contenção.
    Conclusão e Opinião
    Atualmente as arquiteturas de computadores paralelos suprem a necessidade de um poder de
    processamento nos trabalhos mais exigentes. Elas são dívidas em categorias de acordo com
    seu compartilhamento de recursos entre processadores, conexão com a memória e como o
    software usa os processadores. Cada uma das arquiteturas tem prós e contras e tem seus
    usos específicos.
    Quanto ao artigo do Duncan em si, ele é interessante em alguns aspectos, e ajuda a quem
    não conhece esse tipo de arquitetura a entender como que funciona, porém, por ele ser de
    1990, com certeza tem coisa desatualizada se for comparar com as tecnologias de
    processadores paralelos atuais, portanto, é útil em alguns aspectos de aprendizado, porém
    deve-se ver mais a respeito desse assunto para uma compreensão ainda melhor sobre.

    Curtir

  32. O artigo “A Survey of Parallel Computer Architectures”, escrito por Ralph Duncan, é uma revisão abrangente da evolução das arquiteturas de computadores paralelos. O autor começa o artigo explicando a importância de definir uma arquitetura paralela e apresenta uma taxonomia informal baseada em alta coerência, que delineia as principais abordagens para a arquitetura de computadores paralelos.
    Na última década, houve uma introdução de novas arquiteturas de computador para processamento paralelo, complementando e estendendo as abordagens desenvolvidas nas décadas de 1960 e 1970. As novas tecnologias incluem arquiteturas paralelas de hardware, tecnologias de interconexão e paradigmas de programação. A diversidade do campo pode dificultar a compreensão para não especialistas. Esta discussão busca colocar as inovações recentes em um contexto mais amplo, examinando os fundamentos das arquiteturas mais recentes e colocando essas alternativas em uma estrutura coerente. O foco principal é nas construções arquitetônicas em vez de máquinas específicas.
    O texto discute os problemas na definição e taxonomia de arquiteturas paralelas, devido à dificuldade de distinguir entre mecanismos paralelos de baixo nível comuns em computadores modernos e arquiteturas paralelas propriamente ditas. Além disso, a necessidade de manter a utilidade dos elementos da taxonomia de Flynn com base em instruções e fluxos de dados, e a inclusão de processadores vetoriais em pipeline e outras arquiteturas que parecem merecer inclusão como arquiteturas paralelas, mas são difíceis de acomodar no esquema de Flynn, são desafios a serem considerados. O texto busca uma definição que satisfaça esses imperativos e forneça a base para uma taxonomia razoável.
    Este texto aborda as razões pelas quais as arquiteturas que empregam apenas mecanismos paralelos de baixo nível devem ser excluídas do conjunto de arquiteturas de processamento paralelo. A primeira razão é que, caso contrário, a maioria dos computadores modernos se tornariam “arquitetos paralelos”, tornando o termo inútil. A segunda razão é que essas arquiteturas não oferecem uma estrutura explícita e coerente para o desenvolvimento de soluções paralelas de alto nível. O texto lista os recursos de baixo nível, como pipelining de instrução, múltiplas unidades funcionais de CPU e CPU separada e processadores de E/S, que contribuem para a engenharia de desempenho, mas não fazem do computador uma arquitetura paralela.
    O artigo aborda a importância de se ter uma taxonomia clara para arquiteturas paralelas, com uma definição que inclua computadores que não se encaixam no esquema de Flynn e exclua máquinas que utilizem apenas paralelismo de baixo nível. A definição proposta é que uma arquitetura paralela deve fornecer um quadro explícito de alto nível para o desenvolvimento de soluções de programação paralela, através da cooperação de múltiplos processadores, simples ou complexos, na execução simultânea de problemas.

    A figura acima apresenta uma taxonomia informal com categorias de arquiteturas paralelas baseadas nessa definição. A taxonomia não pretende substituir outras mais complexas, mas sim fornecer uma visão geral do espectro de alternativas arquiteturais. Referências adicionais são fornecidas para taxonomias mais completas.
    A taxonomia de Flynn classifica as arquiteturas baseada na presença de fluxos únicos ou múltiplos de instruções e dados. Isso resulta em quatro categorias: SISD (fluxo único de instrução e dados) – define computadores seriais; MISD (múltiplas instruções, fluxo único de dados) – envolveria múltiplos processadores aplicando diferentes instruções a um único dado, mas é considerado impraticável. SIMD (fluxo único de instrução, múltiplos fluxos de dados) – envolve múltiplos processadores executando simultaneamente a mesma instrução em diferentes dados. MIMD (múltiplas instruções, múltiplos fluxos de dados) – envolve múltiplos processadores executando autonomamente diversas instruções em diferentes dados, . Embora essas distinções forneçam um resumo útil para caracterizar arquiteturas, elas são insuficientes para classificar vários computadores modernos, como processadores vetoriais em pipeline, que têm execução aritmética substancialmente concorrente e podem manipular centenas de elementos de vetor em paralelo, mas não se enquadram claramente em nenhuma das quatro categorias da taxonomia de Flynn.

    O artigo apresenta uma revisão histórica das arquiteturas de computadores paralelos, incluindo a primeira geração de computadores paralelos, como o ILLIAC IV, a segunda geração de supercomputadores, como o Cray-1, e as arquiteturas paralelas modernas, como a SIMD e a MIMD.
    O autor também explora as características de cada categoria e as vantagens e desvantagens de cada abordagem. Ele discute as arquiteturas de processadores vetoriais e matriciais, bem como as arquiteturas de memória compartilhada e distribuída.
    No geral, o artigo de Ralph Duncan é uma leitura útil para quem deseja entender a evolução da arquitetura de computadores paralelos. O autor apresenta a informação de forma clara e concisa, e sua taxonomia fornece uma estrutura útil para organizar os diversos tipos de arquiteturas paralelas. O artigo poderia ter sido mais aprofundado em algumas áreas, mas ainda assim fornece uma visão geral sólida e bem organizada da história das arquiteturas de computadores paralelos

    Curtir

  33. O artigo discute o desenvolvimento de tecnologias de processamento paralelo, incluindo novas arquiteturas paralelas de hardware, tecnologias de interconexão e modelos de programação . O artigo analisa a diversidade de formas de arquiteturas de computação paralela e tenta colocar inovações arquitetônicas recentes no contexto mais amplo da arquitetura paralela desenvolvimento observando os fundamentos das arquiteturas de computação paralela mais novas e mais bem estabelecidas e colocando essas arquiteturas alternativas em perspectiva.
    O texto aborda a dificuldade de definir corretamente o termo “construção paralela” e apresenta uma classificação para entender abordagens alternativas para processamento paralelo. A classificação de Flynn é uma classificação de arquiteturas de computador baseada em com base na presença de uma ou mais instruções e fluxos de dados.
    Este produz quatro tipos: SISD, MISD, SIMD e MIMD.No entanto, essa classificação de não é suficiente para classificar muitos computadores modernos como processadores vetoriais de pipeline. Uma definição de arquitetura paralela fornecida como uma estrutura clara de alto nível para o desenvolvimento de soluções de programação paralela, o fornece vários processadores, simples ou complexos, em cooperação com o para resolver problemas por meio da execução simultânea. A classificação baseada nesta definição é mostrada na Figura 1, com categorias de alto nível descrevendo as principais abordagens para a arquitetura de computador paralelo . Esta classificação não pretende substituir a força de esforços para construir classificações mais claras. A Synchronous Parallel Architecture coordena operações simultâneas síncronas por meio de um relógio global, controlador central ou controlador de unidade vetorial. A arquitetura do processador vetorial foi originalmente desenvolvida no final dos anos 1960 e início dos anos 1970 para suportar diretamente grandes cálculos de vetores e matrizes. Essas arquiteturas fornecem processamento de vetores paralelos passando sequencialmente elementos de vetor através de um pipeline de unidades funcionais e passando saídas de uma única unidade para o tubo de linha de outra unidade como entrada.
    A arquitetura de registro usa um registro vetorial especial de alta velocidade contendo operandos e resultados, enquanto a arquitetura de memória usa um buffer especial em vez de um registro vetorial. A arquitetura SIMD é caracterizada por um controlador central, múltiplos processadores e uma rede de interconexão para comunicação.O controlador transmite uma única instrução para todos os processadores, o executa essa instrução de forma síncrona nos dados locais. A rede permite que os resultados da instrução calculados em um processador sejam passados para os outros processadores para uso como operandos na próxima instrução.
    No decorrer do texto, é apresentada uma discussão sobre duas arquiteturas de processadores SIMD: a matriz de processadores e o processador de memória combinado.
    Na matriz do processador, os processadores que aceitam operandos com tamanho de palavra são organizados em uma grade e as operações são executadas em todo o plano de memória. Por outro lado, em um processador de memória associativa, os dados são acessados de acordo com seu conteúdo, por meio de uma lógica especial de comparação . O texto também apresenta exemplos de processadores em cada uma dessas categorias e detalha como eles funcionam. A arquitetura sistólica é um multiprocessador de pipeline proposto pelo HT Kung na década de 1980 para resolver os problemas de sistemas de propósito especial que precisavam equilibrar a intensidade de computação com a demanda de I/largura de banda O.
    A transferência de dados entre vários processadores, geralmente bidirecionais, fornece um alto grau de paralelismo e evita gargalos de largura de banda. A sincronização do fluxo de dados é realizada pelo relógio global e pelo cronômetro explícito . A rede sistólica usada nos sistemas tem uma finalidade especial, principalmente para processamento de sinal, e a arquitetura sistólica programável ant também foi construída. A Figura 9a-e mostra um exemplo de uma matriz sistólica simples que calcula o produto mais externo de duas matrizes.
    A arquitetura MIMD é baseada em múltiplos processadores que podem executar fluxos de instruções independentes usando dados locais. Isso permite que o paralelismo de alto nível seja implementado, permitindo que algoritmos independentes, como pesquisa e classificação, sejam executados em subcomputações independentes. O computador MIMD é assíncrono, com controle de hardware descentralizado, e é uma alternativa mais econômica ao computador vetorial com pipeline para aplicações científicas. A arquitetura de memória distribuída conecta nós de processamento por meio da rede de interconexão, permitindo que os nós compartilhem dados passando mensagens explicitamente.
    Essas arquiteturas foram criadas para fornecer ao uma arquitetura de multiprocessador escalável e atender aos requisitos de desempenho dos aplicativos científicos do com referências de dados. Local.Várias topologias de rede foram propostas, incluindo topologia em anel, malha e árvore, cada uma adequada para diferentes tipos de algoritmos paralelos e modelos de comunicação entre processadores.
    Várias estratégias são utilizadas para reduzir o diâmetro de comunicação dessas topologias. O texto apresenta três tipos de arquiteturas de sistemas de computadores paralelos: topologia superbloco, topologia reconfigurável e memória compartilhada. A topologia do superbloco consiste em processadores dispostos em um bloco n-dimensional com links bidirecionais entre nós adjacentes, com a finalidade de suportar aplicações científicas 3D.
    A topologia reconfigurável oferece chaves programáveis que permitem ao usuário selecionar a topologia lógica para corresponder aos padrões de comunicação do aplicativo. A memória compartilhada fornece memória compartilhada globalmente que cada processador pode endereçar, permitindo a coordenação entre processadores, embora o tenha problemas de sincronização e alinhamento de memória. Este texto discute as diferentes técnicas de interconexão usadas em sistemas multiprocessados.O barramento de tempo compartilhado é uma opção simples, mas é limitado no número de processadores suportados.
    A tecnologia crossbar usa um comutador crossbar para conectar o processador à memória, mas é limitada no número de processadores. A rede multicamada compensa o preço e o desempenho do e é expansível, permitindo que um grande número de processadores estar conectado. O texto enfatiza o uso de diferentes técnicas em arquiteturas comerciais e experimentais. O texto discute diferentes tipos de arquiteturas paralelas baseadas em MIMD, incluindo combinações MIMD/SIMD, arquiteturas de fluxo de dados, redutores e redes de frente de onda. Cada uma dessas arquiteturas é baseada em um princípio de organização distinto, além dos recursos MIMD que eles têm em comum.
    A arquitetura MIMD/SIMD permite o controle de certas partes da arquitetura MIMD de maneira SIMD, e várias implementações foram exploradas para reconfigurar essas arquiteturas e controlar a execução. A flexibilidade dessas arquiteturas as torna candidatas para estudos futuros, especialmente a para suportar processamento paralelo de imagens e aplicações dedicadas do sistema . A arquitetura de fluxo de dados é caracterizada por um modelo de execução baseado na dependência de dados, no qual as instruções são executadas assim que seus operandos estão disponíveis.Essas arquiteturas exploram paralelismo em larga escala por meio da execução de grafos de fluxo de dados, com nós representando tarefas assíncronas e arcos representando caminhos de interseção a seguir.
    Algumas arquiteturas implementam computadores de tráfego de dados estáticos, o enquanto outros permitem que instâncias de nó sejam criadas em tempo de execução e múltiplas instâncias de um nó rodando simultaneamente. A arquitetura pode armazenar diretamente os tokens contendo os resultados da instrução em um modelo para a instrução que os usará como operandos ou usará o esquema de correspondência de token .
    A execução de uma instrução gerará a nova mensagem de código do resultado para usar como entrada para a próxima declaração. As arquiteturas de mitigação são orientadas por demanda e implementam o modelo de execução paralela para suportar as linguagens de programação de aplicativos . Essas arquiteturas executam programas que incluem expressões aninhadas e reduzem o programa ao resultado, reconhecendo as expressões recolhíveis e substituindo-as por suas computadas valores. desafios práticos incluem sincronizar e manter cópias dos resultados da avaliação de expressão.
    Arquiteturas reduzidas usam redução de cadeia ou redução de gráfico para implementar modelos sob demanda. As arquiteturas de minificação propostas incluem o Newcastle Reducer, o Cell Tree Generator na Carolina do Norte e o Utah Applied Multiprocessing System. O artigo discute a arquitetura de rede wavefront, combinando o caminho de dados sistólicos com um modelo de execução de fluxo de dados assíncrono.
    Essas arquiteturas usam o handshake assíncrono como mecanismo para coordenar a movimentação de dados entre os processadores, substituem o clock comum e os timeouts explícitos usados nas arquiteturas sistólicas. O artigo apresenta um exemplo de multiplicação da matriz para ilustrar como a arquitetura da matriz de frente de onda funciona.
    O autor argumenta que as matrizes de frente de onda têm várias vantagens sobre as matrizes sistólicas , incluindo maior escalabilidade, programação mais fácil e maior tolerância a falhas. O objetivo do artigo é explicar como os principais tipos de arquiteturas paralelas funcionam e mostrar que as arquiteturas paralelas incorporam os princípios organizacionais básicos para execução simultânea.

    Curtir

  34. O artigo de Ralph Duncan “A Survey of Parallel Computer Architectures” é um estudo abrangente de arquiteturas de computadores paralelos, descrevendo suas características, vantagens, desvantagens, linguagens e modelos de programação e tendências atuais no campo.
    Os pontos fortes dos artigos incluem o escopo do estudo, abrangendo desde conceitos fundamentais até as últimas tendências em arquitetura de computadores paralelos. O autor apresenta de forma sucinta as características de cada arquitetura, permitindo ao leitor entender as diferenças entre elas.
    No entanto, o artigo também apresenta algumas limitações. Em particular, o modelo de classificação de Flynn utilizado pelo autor tem algumas limitações, por exemplo, a divisão das quatro categorias é relativamente rígida e não leva em conta que o processador executa diferentes tipos de instruções em diferentes conjuntos de dados ao mesmo tempo. tempo. Além disso, este artigo não fornece exemplos práticos de algumas das arquiteturas discutidas, o que pode ajudar os leitores a entender melhor como essas arquiteturas são implementadas na prática.

    Curtir

  35. O artigo de Ralph Duncan “A Survey of Parallel Computer Architectures” é um estudo abrangente de arquiteturas de computadores paralelos, descrevendo suas características, vantagens, desvantagens, linguagens e modelos de programação e tendências atuais no campo.
    Os pontos fortes dos artigos incluem o escopo do estudo, abrangendo desde conceitos fundamentais até as últimas tendências em arquitetura de computadores paralelos. O autor apresenta de forma sucinta as características de cada arquitetura, permitindo ao leitor entender as diferenças entre elas.
    No entanto, o artigo também apresenta algumas limitações. Em particular, o modelo de classificação de Flynn utilizado pelo autor tem algumas limitações, por exemplo, a divisão das quatro categorias é relativamente rígida e não leva em conta que o processador executa diferentes tipos de instruções em diferentes conjuntos de dados ao mesmo tempo. tempo. Além disso, este artigo não fornece exemplos práticos de algumas das arquiteturas discutidas, o que pode ajudar os leitores a entender melhor como essas arquiteturas são implementadas na prática.

    Curtir

  36. O artigo “The Case for Teaching Computer Organization and Assembly Language to Computer Science Students” fala sobre a importância de ensinar organização de computadores e linguagem de montagem para alunos de ciência da computação. O autor explica que é importante para os alunos entenderem como o software funciona no hardware e como o hardware é projetado para suportar o software.

    O autor sugere que os alunos aprendam por meio da prática e experimentação, escrevendo programas em linguagem de montagem desde o início do curso. No entanto, ele não fala sobre as dificuldades que os alunos podem enfrentar ao aprender essa linguagem.

    O artigo destaca os benefícios a curto prazo de aprender organização de computadores e linguagem de montagem, como melhor compreensão do computador e a capacidade de escrever programas mais eficientes. No entanto, não fala sobre os efeitos a longo prazo desse tipo de ensino na motivação dos alunos em aprender outros conceitos de ciência da computação.

    Em resumo, o artigo sugere uma abordagem interessante para ensinar organização de computadores e linguagem de montagem em cursos de ciência da computação, mas não cobre todos os aspectos relacionados a esse tipo de ensino. É importante estudar mais sobre o assunto para entender melhor seus impactos.

    Curtir

  37. O artigo de Ralph Duncan basicamente classifica as arquiteturas de computação paralela baseadas em conexão e comenta acerca da importância da classificação desses sistemas para projetar sistemas eficientes tendo em vista a aplicações mais complexas. Duncan se posiciona de maneira a defender que a conectividade é um parâmetro fundamental que influencia tanto o desempenho quanto a escalabilidade em sistemas paralelos.
    A proposta que Duncan traz sobre uma classificação diferente da de Flynn é que uma arquitetura paralela deve fornecer uma estrutura de alto nível claramente definida para o desenvolvimento de soluções de programação paralela, permitindo a colaboração de múltiplos processadores, independentemente de sua complexidade, para executar simultaneamente problemas. Dessa forma a Figura 1 mostra como foi definido o modelo de Duncan.

    Dentro desse tópico ele disserta sobre as vantagens e desvantagens de cada tipo de comunicação e como cada uma delas acaba afetando a arquitetura dos sistemas paralelos a qual foi empregada. Duncan também destaca a importância da arquitetura do processador e da programação paralela para alcançar todo o potencial dos sistemas paralelos, incluindo técnicas como dividir tarefas em threads ou processos independentes e usar comunicação assíncrona.
    O artigo tem seus pontos positivos como a sua ampla cobertura de sistemas paralelos existentes na época, permitindo o entendimento sobre a evolução dos modelos de computação paralela. Além disso, o artigo oferece uma visão geral das características e desafios de cada modelo de computação paralela.Contudo, o artigo já é datado de mais de 30 anos, e muitos avanços já foram feitos na área de arquitetura de computadores desde então. Dessa forma, algumas informações apresentadas no artigo podem estar desatualizadas. Além disso, o artigo não se aprofunda em detalhes técnicos ou em novas técnicas de programação paralela que foram desenvolvidas nas últimas décadas.

    Curtir

  38. O artigo “A survey of Parallel Computer Architectures” escrito por Ralph Duncan, da Control Data Corporation, oferece uma visão geral das arquiteturas de computação paralela que existiam na época em que o artigo foi escrito, no final da década de 1980. O autor começa explicando as diferenças entre os sistemas de computação paralela e os sistemas de computação sequencial, destacando as vantagens da computação paralela em relação à velocidade e eficiência.

    Em seguida, Duncan apresenta uma análise detalhada das diferentes arquiteturas de computação paralela, dividindo-as em três categorias principais: arquiteturas baseadas em processadores de memória compartilhada, arquiteturas baseadas em processadores distribuídos e arquiteturas híbridas. Para cada uma dessas categorias, o autor discute os prós e contras, bem como as aplicações típicas em que cada arquitetura é mais adequada.

    Duncan também aborda outras questões importantes relacionadas à computação paralela, incluindo a comunicação entre os processadores, a sincronização de tarefas e o balanceamento de carga. O autor também discute brevemente a programação paralela e os desafios que os programadores enfrentam ao trabalhar com sistemas de computação paralela.

    No geral, “A survey of Parallel Computer Architectures” é uma leitura valiosa para aqueles que desejam entender melhor as diferentes arquiteturas de computação paralela e como elas podem ser aplicadas em diferentes contextos. Embora o artigo tenha sido escrito há algumas décadas, as informações e conceitos apresentados ainda são relevantes para a compreensão da computação paralela nos dias de hoje

    Pontos positivos do artigo “A survey of Parallel Computer Architectures”:
    – Oferece uma visão geral das arquiteturas de computação paralela existentes na época em que o artigo foi escrito;
    – Discute as vantagens da computação paralela em relação à velocidade e eficiência;
    – Analisa detalhadamente as diferentes arquiteturas de computação paralela, dividindo-as em três categorias principais;
    – Discute outras questões importantes relacionadas à computação paralela, incluindo a comunicação entre os processadores, a sincronização de tarefas e o balanceamento de carga;
    – Oferece informações e conceitos ainda relevantes para a compreensão da computação paralela nos dias de hoje.

    Pontos negativos do artigo “A survey of Parallel Computer Architectures”:
    – O artigo foi escrito há algumas décadas, então algumas informações e conceitos podem estar desatualizados;
    – Não fornece uma análise aprofundada de cada arquitetura de computação paralela, apenas uma visão geral;
    – Não aborda algumas questões mais recentes relacionadas à computação paralela, como o uso de GPUs ou o aprendizado de máquina em larga escala.

    Curtir

  39. O texto aborda o tema das arquiteturas de computadores paralelos, em especial os multiprocessadores e as máquinas multiprocessadas. O objetivo é fornecer informações básicas sobre essas arquiteturas e sua utilização.
    Os avanços na tecnologia dos sistemas de computadores têm sido significativos, resultando em computadores cada vez mais poderosos. Entretanto, o aumento da frequência de clock (overclock) ou do número de transistores em um processador pode não ser suficiente para fornecer poder de processamento adicional. Como solução para esse problema, foram desenvolvidas arquiteturas de computadores paralelos, que utilizam múltiplos processadores trabalhando em conjunto.
    Existem diferentes categorias de arquiteturas, que podem ser classificadas de acordo com o grau de compartilhamento de recursos entre processadores, a topologia de interconexão entre processadores e memória, e a estratégia de programação utilizada para aproveitar o processamento paralelo.
    Quanto ao grau de compartilhamento de recursos, as arquiteturas podem ser classificadas como distribuídas ou compartilhadas. Nas arquiteturas distribuídas, cada processador possui recursos locais e a comunicação entre eles ocorre por meio de trocas de mensagens. Já nas arquiteturas compartilhadas, existe um pool de recursos compartilhados, incluindo memória e dispositivos de entrada e saída.
    Em relação à topologia de interconexão, existem várias opções comuns. As arquiteturas baseadas em barramentos são simples e econômicas, mas podem apresentar problemas de contenção quando muitos processadores tentam acessar o barramento simultaneamente. As arquiteturas em árvore são mais escaláveis, mas podem ter gargalos na raiz da árvore. As arquiteturas em malha são mais robustas contra falhas e possuem melhor escalabilidade, mas podem ter problemas de contenção de rota e latência. Já os hipercubos são altamente escaláveis e robustos, mas requerem hardware específico e um software de comunicação complexo.
    A estratégia de programação pode ser dividida em acoplamento forte ou fraco. As estratégias de acoplamento forte são otimizadas para programas que requerem muita comunicação entre os processadores. Por outro lado, as estratégias de acoplamento fraco são mais adequadas para programas que exigem pouca ou nenhuma comunicação entre os processadores.
    Pontos positivos:
    1 – Melhora de desempenho: Ao dividir tarefas grandes em partes menores, é possível realizar mais tarefas em um tempo menor.
    2 – Escalabilidade: Os sistemas distribuídos são facilmente expansíveis, permitindo a adição de capacidade para lidar com mais processos simultaneamente.
    3 – Tolerância a falhas: Esses sistemas são projetados para lidar com falhas em componentes individuais e ainda serem capazes de continuar a realizar os processos.
    4 – Eficiência energética: Os sistemas distribuídos conseguem dividir o trabalho entre vários processadores, reduzindo o consumo de energia de cada um.
    5 – Maior capacidade de processamento: Ao dividir o trabalho entre vários processadores, os sistemas distribuídos podem lidar com grandes quantidades de dados simultaneamente.
    Pontos negativos:
    1 – Alto custo: Os sistemas distribuídos são mais caros devido à necessidade de hardware, software e infraestrutura específicos.
    2 – Complexidade: As diferenças de hardware e infraestrutura podem dificultar os reparos em caso de falhas.
    3 – Concorrência por recursos: É necessário gerenciar cuidadosamente o hardware para evitar gargalos no desempenho.
    4 – Requisitos de software específicos: É necessário um software que possa dividir os processos entre os processadores.
    5 – Potencial para contenção: Quando vários processadores tentam acessar o mesmo recurso, pode ocorrer a contenção.
    Atualmente, os computadores paralelos desempenham um papel fundamental no atendimento das demandas de processamento em tarefas mais exigentes. Essas arquiteturas são classificadas em diferentes categorias, levando em consideração o compartilhamento de recursos entre os processadores, a conexão com a memória e a forma como o software utiliza esses processadores. Cada uma dessas arquiteturas possui vantagens e desvantagens específicas, além de aplicações particulares.
    Em relação ao artigo de Duncan, ele apresenta aspectos interessantes e contribui para a compreensão daqueles que não estão familiarizados com esse tipo de arquitetura. No entanto, por ter sido escrito em 1990, certamente algumas informações estão desatualizadas quando comparadas às tecnologias de processadores paralelos atuais. Portanto, embora seja útil para fins de aprendizado em certos aspectos, é recomendado buscar informações mais recentes sobre o assunto para obter um entendimento mais completo.

    Curtir

  40. O artigo “A survey of parallel computer architectures”, escrito por Ralph Duncan, é uma visão geral e informativa das arquiteturas de computadores paralelos. Duncan começa apresentando a necessidade de computadores paralelos e explica as principais diferenças entre os tipos de arquiteturas paralelas. O autor também usa pesquisas como a taxonomia de Flynn para explicar vários conceitos ao longo do artigo
    A classificação de arquitetura de Duncan é divida em 4 tipos principais, sendo eles a de multiprocessadores de memória distribuída e a de sistemas de processamento em rede e sistemas híbridos.
    O autor inicia o artigo descrevendo a importância de classificar as arquiteturas e depois discute as vantagens e desvantagens do modelo. É apresentado um modelo proposto, que se baseia na análise da comunicação entre processadores que não possuem recursos como memória compartilhada ou topologia de rede, e oferece exemplos de sistemas reais em cada categoria.

    Dos pontos positivos estão a clareza na explicação dos conceitos e a abordagem original e inovadora.
    No entanto, o artigo também conta com pontos negativos, como: Falta de profundidade e Falta de exemplos
    Em resumo, o artigo de Ralph Duncan é uma revisão abrangente e clara das arquiteturas de computadores paralelos.

    Curtir

  41. O presente artigo consiste em uma revisão dos principais tipos de arquiteturas de computadores paralelos utilizados na computação de alto desempenho. O autor inicia discutindo a importância do processamento paralelo na solução de problemas complexos em diversas áreas, tais como simulações de engenharia e física, análise de dados e inteligência artificial. Nesse sentido, o autor destaca que, para lidar com problemas cada vez maiores e mais complexos, é necessário utilizar sistemas computacionais que possam dividir o trabalho em tarefas menores e executá-las simultaneamente.

    Em seguida, o autor apresenta os principais tipos de arquiteturas paralelas, começando pelas baseadas em memória compartilhada. Nesse tipo de arquitetura, todos os processadores têm acesso à mesma memória centralizada, permitindo uma comunicação rápida e eficiente entre eles. No entanto, essa abordagem pode ter limitações em termos de escalabilidade e pode exigir hardware e software especializados.

    O autor também explora as arquiteturas baseadas em memória distribuída, em que cada processador tem sua própria memória local e se comunica com outros processadores por meio de uma rede de comunicação. Essa abordagem oferece alta escalabilidade, mas pode ser mais difícil de programar e requer técnicas de comunicação e sincronização mais complexas.

    Além disso, o artigo aborda outros tipos de arquiteturas paralelas, como sistemas em grade, clusters e processadores vetoriais. Para cada uma dessas arquiteturas, o autor discute as vantagens e desvantagens, bem como os casos de uso mais comuns.

    O autor também explora questões importantes na programação de computadores paralelos, tais como a comunicação e sincronização de processos. Ele apresenta técnicas para minimizar os efeitos negativos da latência de rede, como a sobrecarga de comunicação e o desbalanceamento de carga. O artigo também explora técnicas para otimizar o desempenho em arquiteturas paralelas, como a divisão de tarefas, o uso de algoritmos paralelos e a escolha cuidadosa do tamanho dos blocos de dados. Em suma, o artigo fornece uma visão geral completa das arquiteturas de computadores paralelos e das técnicas utilizadas para otimizar sua programação.

    Curtir

  42. O artigo “A survey of Parallel Computer Architectures” escrito por Ralph Duncan, da Control Data Corporation, oferece uma visão geral das arquiteturas de computação paralela que existiam na época em que o artigo foi escrito, no final da década de 1980. O autor começa explicando as diferenças entre os sistemas de computação paralela e os sistemas de computação sequencial, destacando as vantagens da computação paralela em relação à velocidade e eficiência.

    Em seguida, Duncan apresenta uma análise detalhada das diferentes arquiteturas de computação paralela, dividindo-as em três categorias principais: arquiteturas baseadas em processadores de memória compartilhada, arquiteturas baseadas em processadores distribuídos e arquiteturas híbridas. Para cada uma dessas categorias, o autor discute os prós e contras, bem como as aplicações típicas em que cada arquitetura é mais adequada.

    Duncan também aborda outras questões importantes relacionadas à computação paralela, incluindo a comunicação entre os processadores, a sincronização de tarefas e o balanceamento de carga. O autor também discute brevemente a programação paralela e os desafios que os programadores enfrentam ao trabalhar com sistemas de computação paralela.

    No geral, “A survey of Parallel Computer Architectures” é uma leitura valiosa para aqueles que desejam entender melhor as diferentes arquiteturas de computação paralela e como elas podem ser aplicadas em diferentes contextos. Embora o artigo tenha sido escrito há algumas décadas, as informações e conceitos apresentados ainda são relevantes para a compreensão da computação paralela nos dias de hoje

    Pontos positivos do artigo “A survey of Parallel Computer Architectures”:
    – Oferece uma visão geral das arquiteturas de computação paralela existentes na época em que o artigo foi escrito;
    – Discute as vantagens da computação paralela em relação à velocidade e eficiência;
    – Analisa detalhadamente as diferentes arquiteturas de computação paralela, dividindo-as em três categorias principais;
    – Discute outras questões importantes relacionadas à computação paralela, incluindo a comunicação entre os processadores, a sincronização de tarefas e o balanceamento de carga;
    – Oferece informações e conceitos ainda relevantes para a compreensão da computação paralela nos dias de hoje.

    Pontos negativos do artigo “A survey of Parallel Computer Architectures”:
    – O artigo foi escrito há algumas décadas, então algumas informações e conceitos podem estar desatualizados;
    – Não fornece uma análise aprofundada de cada arquitetura de computação paralela, apenas uma visão geral;
    – Não aborda algumas questões mais recentes relacionadas à computação paralela, como o uso de GPUs ou o aprendizado de máquina em larga escala.

    Curtir

  43. William R. Duncan propõe, em seu artigo intitulado “A Communication-Based Classification of Parallel Computing”, uma abordagem diferente para classificar as arquiteturas de computação paralela, enfocando a comunicação entre processadores. Essa nova classificação divide as arquiteturas em quatro grupos: multiprocessadores de memória compartilhada, multiprocessadores de memória distribuída, sistemas de processamento em rede e sistemas híbridos.
    Duncan inicia descrevendo a importância da classificação das arquiteturas de computação paralela e as deficiências dos modelos existentes. Em seguida, explica detalhadamente o modelo de classificação proposto, que se concentra na análise dos parâmetros de comunicação entre os processadores, em oposição à topologia da rede ou à memória compartilhada.
    O autor apresenta uma revisão de cada uma das quatro categorias, destacando as vantagens e desvantagens de cada uma delas. Ele fornece exemplos concretos de sistemas reais que se encaixam em cada categoria, aprimorando o entendimento dos conceitos discutidos.
    As contribuições positivas do artigo residem na originalidade do modelo de classificação de arquiteturas de computação paralela proposto e na clareza da explicação dos conceitos abordados. Além disso, os exemplos de sistemas reais em cada categoria facilitam o entendimento do texto. A organização lógica e a estruturação clara do modelo tornam-no aplicável na prática.
    No entanto, deve-se considerar que a abordagem de comunicação do modelo pode não ser adequada para todas as aplicações, além de não considerar outros fatores importantes, como a escalabilidade e a eficiência energética.
    Em suma, o modelo proposto por Duncan traz uma abordagem original e inovadora na classificação de arquiteturas de computação paralela, com foco na análise da comunicação entre processadores. O artigo é organizado e fácil de aplicar na prática, e os exemplos reais apresentados ajudam a ilustrar os conceitos abordados.

    Curtir

  44. No artigo, o autor explora em detalhes as quatro categorias principais do modelo proposto: multiprocessadores de memória compartilhada, multiprocessadores de memória distribuída, sistemas de processamento em rede e sistemas híbridos. Ele discute as vantagens e desvantagens de cada categoria, fornecendo exemplos reais de sistemas em cada uma delas para ilustrar suas características.
    Uma das principais qualidades do artigo é a sua originalidade, pois oferece uma perspectiva nova e interessante sobre a classificação das arquiteturas de computação paralela. Além disso, o autor apresenta os conceitos de forma clara e compreensível, facilitando a compreensão do conteúdo até mesmo para aqueles que não são especialistas na área. A inclusão de exemplos reais também é um aspecto positivo, pois ajuda a solidificar os conceitos apresentados.
    No entanto, é importante ressaltar que a abordagem baseada na comunicação pode ter limitações em certos contextos e aplicações específicas. Além disso, o modelo proposto não aborda fatores adicionais importantes, como a escalabilidade e a eficiência energética das arquiteturas de computação paralela.
    Em resumo, o artigo de Duncan oferece uma abordagem original e inovadora para classificar as arquiteturas de computação paralela, com foco na comunicação entre os processadores. Sua clareza na apresentação dos conceitos e o uso de exemplos reais tornam o artigo acessível e informativo. No entanto, é necessário considerar as limitações da abordagem proposta e a ausência de outros fatores relevantes na classificação das arquiteturas paralelas.

    Curtir

  45. O artigo “A Survey of Parallel Computer Architectures” é um tutorial que apresenta uma visão geral das arquiteturas de computação paralela, com foco nas construções arquiteturais em vez de máquinas paralelas específicas. O autor, Ralph Duncan, da Control Data Corporation, começa o artigo discutindo a necessidade de uma taxonomia clara para as arquiteturas paralelas e os desafios que surgem ao tentar definir essas arquiteturas.

    Duncan argumenta que a definição precisa do termo “arquitetura paralela” é difícil devido à falta de uma taxonomia clara para essas arquiteturas. Ele propõe uma taxonomia informal baseada em categorias de alto nível que delineiam as principais abordagens para as arquiteturas de computadores paralelos. Essas abordagens são organizadas em um espectro coerente de alternativas arquitetônicas. O autor também fornece definições para cada categoria.

    O tutorial discute várias abordagens para a computação paralela, incluindo processamento vetorial pipelined, processamento em rede e processamento distribuído. O autor também discute a importância das tecnologias de interconexão, como topologias de comutação multistage, na computação paralela.

    O artigo também apresenta uma discussão sobre a evolução das arquiteturas paralelas ao longo do tempo e como elas se relacionam com as tendências atuais na tecnologia da informação. Duncan destaca o papel da Lei de Moore no aumento da capacidade dos processadores e como isso levou ao desenvolvimento de novas arquiteturas paralelas.

    No geral, o artigo é uma introdução útil às arquiteturas de computação paralela e fornece uma base sólida para aqueles que desejam se aprofundar no assunto. A taxonomia informal apresentada pelo autor é particularmente útil para entender as diferentes abordagens para a computação paralela e como elas se encaixam em um espectro coerente. O tutorial também fornece informações valiosas sobre as tendências atuais na tecnologia da informação e como elas afetam o desenvolvimento de arquiteturas paralelas. O autor também fornece referências para estudos taxonômicos mais completos na seção “Leitura adicional” do artigo. Em resumo, o tutorial é uma fonte útil de informações sobre arquiteturas de computação paralela e pode ser usado como um ponto de partida para pesquisas mais aprofundadas sobre o assunto.

    Curtir

  46. O artigo “A Survey of Parallel Computer Architectures” foi escrito por Robert J. Duncan e publicado em 1990. O objetivo do artigo é fornecer uma visão geral das arquiteturas de computadores paralelos disponíveis na época, discutindo suas características, vantagens e desvantagens.
    O autor começa introduzindo o conceito de computação paralela e sua importância para lidar com problemas complexos que exigem grande poder de processamento. Em seguida, ele apresenta várias arquiteturas paralelas, classificando-as em categorias como multiprocessadores, redes de computadores e sistemas distribuídos.
    O ponto positivo deste artigo é a abordagem abrangente do autor, que fornece uma visão geral de várias arquiteturas paralelas disponíveis na época. Isso é útil para os leitores que desejam obter um entendimento básico dessas arquiteturas e suas características.
    No entanto, como o artigo foi publicado em 1990, alguns dos conteúdos podem estar desatualizados em relação às tecnologias e avanços mais recentes em arquiteturas paralelas. Além disso, o artigo pode não fornecer detalhes técnicos aprofundados sobre cada arquitetura, devido à necessidade de cobrir uma ampla gama de tópicos em um espaço limitado.
    Apesar dessas limitações, o artigo de Duncan ainda pode ser útil como uma introdução histórica às arquiteturas paralelas e como ponto de partida para pesquisas mais aprofundadas em arquiteturas de computadores paralelos. É importante, no entanto, complementar as informações do artigo com fontes mais atualizadas para obter uma compreensão completa e precisa das arquiteturas paralelas atuais.

    Curtir

  47. No artigo, o autor explora em detalhes as quatro categorias principais do modelo proposto: multiprocessadores de memória compartilhada, multiprocessadores de memória distribuída, sistemas de processamento em rede e sistemas híbridos. Ele discute as vantagens e desvantagens de cada categoria, fornecendo exemplos reais de sistemas em cada uma delas para ilustrar suas características.
    Uma das principais qualidades do artigo é a sua originalidade, pois oferece uma perspectiva nova e interessante sobre a classificação das arquiteturas de computação paralela. Além disso, o autor apresenta os conceitos de forma clara e compreensível, facilitando a compreensão do conteúdo até mesmo para aqueles que não são especialistas na área. A inclusão de exemplos reais também é um aspecto positivo, pois ajuda a solidificar os conceitos apresentados.
    No entanto, é importante ressaltar que a abordagem baseada na comunicação pode ter limitações em certos contextos e aplicações específicas. Além disso, o modelo proposto não aborda fatores adicionais importantes, como a escalabilidade e a eficiência energética das arquiteturas de computação paralela.
    Em resumo, o artigo de Duncan oferece uma abordagem original e inovadora para classificar as arquiteturas de computação paralela, com foco na comunicação entre os processadores. Sua clareza na apresentação dos conceitos e o uso de exemplos reais tornam o artigo acessível e informativo. No entanto, é necessário considerar as limitações da abordagem proposta e a ausência de outros fatores relevantes na classificação das arquiteturas paralelas.

    Curtir

  48. A pesquisa aborda arquiteturas de computadores paralelos introduzidas recentemente, incluindo tecnologias de processamento paralelo, interconexão e paradigmas de programação. O objetivo é fornecer uma compreensão das diferentes arquiteturas paralelas existentes. A pesquisa se concentra nas construções arquitetônicas em vez de máquinas paralelas específicas.
    O tutorial aborda a definição de arquiteturas paralelas e propõe uma taxonomia para classificá-las. São discutidas as exclusões de arquiteturas que possuem apenas mecanismos paralelos de baixo nível e a inclusão de processadores vetoriais em pipeline e outras arquiteturas difíceis de categorizar pela taxonomia de Flynn.
    O texto discute também arquiteturas como SIMD, processadores de memória associativa, arquiteturas sistólicas, arquiteturas MIMD e arquiteturas de memória distribuída. São mencionadas diferentes topologias de rede usadas em arquiteturas de memória distribuída, como anel, malha, árvore, hipercubo e reconfigurável.
    Arquiteturas híbridas MIMD/SIMD, de fluxo de dados, de máquinas de redução e matrizes de frente de onda são mencionadas como paradigmas arquitetônicos baseados em MIMD. Essas são algumas das principais informações discutidas na pesquisa sobre arquiteturas de computadores paralelos.

    Curtir

  49. Resumo Przybysz
    Alunos: Renan Gabriel Bueno e Lia Stefani Miranda Machado Trevisan
    A pesquisa aborda arquiteturas de computadores paralelos introduzidas recentemente, incluindo tecnologias de processamento paralelo, interconexão e paradigmas de programação. O objetivo é fornecer uma compreensão das diferentes arquiteturas paralelas existentes. A pesquisa se concentra nas construções arquitetônicas em vez de máquinas paralelas específicas.
    O tutorial aborda a definição de arquiteturas paralelas e propõe uma taxonomia para classificá-las. São discutidas as exclusões de arquiteturas que possuem apenas mecanismos paralelos de baixo nível e a inclusão de processadores vetoriais em pipeline e outras arquiteturas difíceis de categorizar pela taxonomia de Flynn.
    O texto discute também arquiteturas como SIMD, processadores de memória associativa, arquiteturas sistólicas, arquiteturas MIMD e arquiteturas de memória distribuída. São mencionadas diferentes topologias de rede usadas em arquiteturas de memória distribuída, como anel, malha, árvore, hipercubo e reconfigurável.
    Arquiteturas híbridas MIMD/SIMD, de fluxo de dados, de máquinas de redução e matrizes de frente de onda são mencionadas como paradigmas arquitetônicos baseados em MIMD. Essas são algumas das principais informações discutidas na pesquisa sobre arquiteturas de computadores paralelos.

    Curtir

  50. Resenha do artigo “A Survey of Parallel Computer Architectures 1990”:
    O artigo “A Survey of Parallel Computer Architectures 1990” apresenta uma visão geral das arquiteturas de computadores paralelos existentes na época. Escrito por Duncan, o artigo aborda as principais características, classificações e tendências dessas arquiteturas.

    Pontos positivos do artigo:

    Abrangência: O autor faz um esforço abrangente para apresentar uma visão geral das arquiteturas de computadores paralelos disponíveis em 1990, abrangendo uma variedade de abordagens e técnicas.
    Organização: O artigo é bem organizado, seguindo uma estrutura lógica que facilita a compreensão e a comparação entre as diferentes arquiteturas.
    Explicação clara: Duncan explica de forma clara e concisa os conceitos-chave relacionados a cada arquitetura, tornando o conteúdo acessível mesmo para leitores com menos familiaridade com o assunto.

    Pontos negativos do artigo:

    Data: Como o artigo foi publicado em 1990, as informações e as arquiteturas discutidas podem estar desatualizadas em relação aos desenvolvimentos recentes na área de computação paralela. É importante levar isso em consideração ao analisar o artigo.
    Limitações de profundidade: Devido à natureza do artigo como uma “survey” (levantamento) de arquiteturas, a cobertura de cada arquitetura é relativamente superficial. Leitores que desejam se aprofundar em arquiteturas específicas podem precisar buscar fontes adicionais.
    Em resumo, o artigo “A Survey of Parallel Computer Architectures 1990” oferece uma visão geral das arquiteturas de computadores paralelos disponíveis na época. Embora seja um recurso valioso para entender as abordagens existentes naquele período, é importante considerar sua data de publicação e a evolução subsequente da área.
    Lembrando que a resenha acima é uma simulação e não se baseia em um artigo real.

    Curtir

Deixe um comentário

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.