Questões de Gerência do Processador (Sistemas Operacionais)

Limpar Busca

O planejamento da CPU lida com o problema de decidir qual dos processos na fila pronta deve ser alocado ao núcleo da CPU. Selecione o algoritmo de escalonamento de processos no qual a cada processo, é atribuído um tempo fixo, de forma cíclica

  • A Agendamento baseado em prioridade.
  • B Primeiro a chegar, primeiro a servir.
  • C Agendamento de fila multinível.
  • D Menor tarefa primeiro.
  • E Round Robin.

Na maioria dos sistemas, os processos são executados de forma concorrente e podem ser gerados e destruídos dinamicamente. Com uma chamada de sistema do tipo fork podemos criar um novo processo em UNIX, ou CreateProcess() se for utilizado o Windows, por exemplo. Assim, indique a opção dentro da chamada de sistema de gerenciamento de processos que espera que um processo filho seja concluído.

  • A pid = wait(pid, &statloc).
  • B pid = wait_pid(&statloc, options).
  • C pid = wait(pid, &statloc, options).
  • D pid = forkpid(pid, &statloc, options).
  • E pid = waitpid(pid, &statloc, options).

No que diz respeito aos conceitos de criptografia, à assinatura digital, aos conceitos utilizados em sistemas operacionais e às noções de DevOps, julgue o item seguinte. 



Quando um usuário executa um programa, alguns processos são criados e inseridos na lista de prontos, denominando-se despacho o ato de designar um processador ao primeiro processo dessa lista.

  • Certo
  • Errado

Considere a consulta de streaming que conta os cliques dos usuários por país para uma campanha publicitária na web a cada 30 minutos. Ao aplicar o modelo de processamento de micro batch a esta consulta, o fluxo de dados é dividido em duas fases: batching e processing, como mostra a figura a seguir.
Imagem relacionada à questão do Questões Estratégicas

O processamento stream é obtido repetindo as fases de batching e processing para as novas tuplas de dados.

Em relação ao processamento stream em micro-batches, assinale a opção incorreta

  • A As fases de batching e processing não são sobrepostas para quaisquer dois batches consecutivos.
  • B Na fase batching, as tuplas de dados de fluxo são acumuladas por um intervalo de lote predeterminado. Em seguida, o conteúdo do lote é particionado e emitido na forma de blocos de dados para processamento paralelo.
  • C Na fase processing, a consulta é executada na memória como um pipeline dos estágios map e reduce
  • D No estágio map, uma função definida pelo usuário é aplicada em paralelo a cada bloco de dados (por exemplo, um filtro sobre as tuplas clickstream).
  • E O estágio reduce agrega o resultado do estágio map para produzir a saída batch (por exemplo, soma os cliques para cada país).

Cálculos numéricos usam arrays para representar vetores, matrizes e tensores. As operações distribuídas comuns em torno de arrays podem ser encontrados na especificação Message Passing Interface (MPI).
Assinale a opção que não figura como uma das operações MPI.

  • A Broadcast: transmite um array de um processo para muitos outros processos.
  • B Gather/AllGather: coleta arrays de diferentes processos e cria um array maior em um único processo ou em vários processos.
  • C Expand/OneToAll: distribui arrays para diferentes processos.
  • D Scatter/AllToAll: redistribui partes de um array para diferentes processos.
  • E Reduce/AllReduce: redução de arrays elemento a elemento. Operações populares incluem SUM, MIN, MAX, PROD.