4/16/15
Gerência de Memória
1.  Introdução
•  Realocação e Proteção
2.  Gerência básica de Memória
•  Registradores base e limite
•  MMU e troca de contexto
•  Multiprogramação c/ partições fixas
3.  Swapping
4.  Gerência de Memória no Minix
5.  Paginação (Memória Virtual)
•  Algoritmos para troca de páginas
•  Questões de Projeto e Implementação
•  Tabelas de páginas invertidas
6.  Segmentação
1
Gerência de Memória
•  O Gerente de Memória é um componente do Sistema
Operacional (contido inteira-ou parcialmente no kernel)
que aloca memória principal para os processos, e gerencia
a hierarquia de memória (Caches, RAM, e Disco)
•  Suas tarefas:
– 
– 
– 
– 
– 
– 
– 
Garante isolamento mútuo entre processos (proteção)
Mantém o registro das áreas de memória em uso
Aloca memória RAM para novos processos (no fork())
Faz o swapping transparente entre memória principal e disco
Atende a requisições de aumento de memória
Mantém o mapeamento de memória virtual para memoria fisica
Implementa a política de alocação de memória para os processos
2
1
4/16/15
Gerência de Memória
Lei de Parkinson: Programas sempre aumentarão de tamanho,
demandando toda a memória disponível
O ideal seria ter memória:
–  Infinitamente grande, com
acesso infinitamente rápido,
não-volátil e de baixo custo
Hierarquia de memoria
–  0.5-2 MB de caches (L1-L3):
muito rápidos, porém caros
–  0.5- 2 GB de RAM de
velocidade e preço médios
–  101-102 GB de disco: lento,
mas barato
Hierarquia de Caches e memória principal
3
GM para Monoprogramação
(sem swapping ou paginação)‫‏‬
Para S.Os com único usuário e dispositivos simples
(embarcados). Execução de um processo por vez.
•  Ciclo básico: Evento de E/S (p.ex. comando do usuário) è
carregamento programa è execução
•  Baixa utilização de CPU
Fig: Possíveis alocações de memória (monoprogramação)
4
2
4/16/15
Efeito da Multiprogramação
Degree of multiprogramming
Utilização da CPU como função do grau de multiprogramação (=
número de processos na memória)‫‏‬
5
Realocação e Proteção
São dois problemas introduzidos pela Multiprogramação:
•  Realocação: não se sabe de antemão em qual região de memória o
processo vai ser executado
–  Endereço de variáveis e do código não podem ser absolutos
•  Proteção: evitar que um processo acesse uma região usada por
outro processo
Solução 1: modificar endereços quando processo é carregado (o
ligador/carregador precisa ter um bit map sobre quais endereços do
programa precisam ser atualizados)‫‏‬
–  Como endereços são absolutos, seria possível acessar qualquer endereço de
memória, e um programa pode construir dinamicamente instruções
Solução melhor: Mapeamento para a memória física ocorre em tempo
de execução e é relativa a dois registradores: base e limite
–  Qualquer acesso à memória fora desses limites é considerado erro e processo
é abortado
6
3
4/16/15
Registradores Base e Limite
Para cada processo, existe um par, Base Register (BR), e Limit Register (LR),
que determinam a região de memória usada pelo processo
End. Lógico (*)
CPU
≤ LR?
End. Físico
Sim
Não
+
RAM
BR
Falha de acesso
Cabe à MMU (Memory Management Unit) fazer essa conversão.
A cada troca de contexto de processos, o par (BR/LR) precisa ser trocado.
Isso é o “memory map” do processo.
7
Técnicas baseadas em realocação
Questão: Organização espacial da memória:
1.  Memória com partições fixas (isto é, BR e LR só podem
assumir determinados valores)
Alternativas: Fila de espera de processos por tamanho de partição
versus Fila única
2.  Possibilidade de divisão/aglomeracão de partições
Fila única de partições
partições tem 2x bytes (p.ex.: 210 ↔ 2 partições de 29)‫‏‬
3.  Memória RAM sem partições (BR e LR assumem qualquer
valor)‫‏‬
Questão: permanência de processos na memória
a)  Processos/jobs mantém a mesma região durante toda a sua
execução OU
b)  Processos podem ser retirados da memória, e posteriromente
voltar à memória em outra região/partição (swapping)
8
4
4/16/15
Organização espacial de Memória
4 MB
2 MB
2 MB
512 KB
1 MB
1 MB
(a) Partições de tamanho
fixo
(b) Partições de 2i bytes
podem se agurpar e se
dividir
(c) Sem partições
Multiprogramação com partições fixas
Presente nos computadores de 1a. e 2a. geração
Exemplos: IBM OS/360
(+) simples de implementar
Filas de entrada separadas:
(-) processos menores não podem ser colocados em partições grandes
disponíveis.
Fila única:
–  Seleção First-Fit , Best Fit , Worst Fit
10
5
4/16/15
Swapping
Em sistemas com compartilhamento de tempo (timesharing), a memória
principal pode não ser suficiente para todos os processos.
Por exemplo:
•  existem muitos processos interativos (orienatdos a E/S) de muitos
usuários), ou
Ou um processo requisita mais memória para continuar a execução.
Ideia básica: usar espaço em disco como extensão da memória RAM(1), e
colocar lá os processos enquanto estiverem bloqueados (esperando por
E/S), carregando-os de volta para a memória assim que são desbloqueados
Pode ser usado para qualquer organização espacial de memória
(1) Partição de swapping ou paginação
12
Swapping
Main Memory
Disk (swap partition)
Duas alternativas:
•  Copiar a imagem inteira (swapping)
•  Permitir que processo fique parcialmente em memória, e
parcialmente em disco (paginação) è Memória Virtual
6
4/16/15
Swapping
Quando um processo é bloqueado (espera por E/S) ele pode ser swapped
out, e depois swapped in para memória principal.
Permite manter um número maior de processos ativos, aumentando a
utilização da CPU
Fig.: Sequência de alocação de memória usando swapping para 4 processos.
Pode acarretar:
–  Regiões de memória não utilizada (“buracos”) de qualquer tamanho
–  Um mesmo processo pode ocupar diferentes partições ao longo de sua
execução
14
Swapping
Principal problema do swapping com partições de tamanho variável:
•  Manter a informação sobre espaços não utilizados (livres)
•  Evitar uma fragmentação externa da memória (= espaços pequenos
não utilizados)‫‏‬
p1
p3
p4
Fragmentação = parcela da
memória desperdiçada
devido a imagens de
processos não diretamente
adjacentes.
Frag. interna = quando há
partições fixas;
Frag. externa = quando não
há partições
OS
•  Compactação de memória é muito custosa
–  São gastos milisegundos
15
7
4/16/15
Swapping
Também é usado para lidar com processos que aumentam sua
demanda de memória. Algumas alternativas:
a)  alocar uma partição para o processo que é adjacente a uma partição livre
b)  Alocar uma partição conjunta para a pilha e o heap, e faze-los crescer em
sentidos opostos.
Quando processo usa todo espaço de memória disponível, fazer um swap-out, e
um swap-in em uma partição maior (mas, se disco de swap está cheio, processo
precisa ser terminado)‫‏‬
16
Gerenciamento de espaços disponíveis
Idéia: dividir a memória em unidades de alocação de n bytes (1 KB no
Minix) e representar a ocupação de (livre/ocupado) de lotes de unidades
usando um bit map ou então uma lista encadeada
Fig: Representação da ocupação da memória com 5 processos e 3 lacunas em Bit
Map ou Lista encadeada
Bit Map: armazenamento compacto e simples, mas busca por determinado
tamanho de lote livre pode envolver análise de várias palavras (no bit map)
Lista ligada : cada nó contém o endereço inicial e o tamanho de uma partição
ocupada ou livre
17
8
4/16/15
Gerenciamento de Memória com Listas
•  Quando processo é swapped out, a lacuna correspondente precisa ser combinada
com espaços vizinhos livres.
•  Quando processo é swapped in, percorre-se a lista buscando um espaço livre
suficientemente grande (lista geralmente ordenada por endereços de memória)‫‏‬
è
è
è
è
Fig: Quando X é swapped out: quatro combinações de nós na lista
Possíveis critérios de escolha de espaço livre:
•  First Fit – aloca o primeiro espaço encontrado
•  Best Fit – percorre toda a lista e aloca o menor possível espaço è pode deixar
fragmentos muito pequenos para alocação para outros processos
•  Worst Fit – percorre toda a lista e aloca o maior possível espaço
18
Gerenciamento de Memória com Listas
Qualquer um dos algoritmo é mais eficiente se houverem 2 listas:
lista de memória em uso e lista de espaços livres
•  Listas são mantidas ordenadas por tamanho (# de unidades de alocação)‫‏‬
•  Problema: exige um processamento adicional sempre quando ocorre uma
liberação de memória (precisa-se verificar se há espaços adjacentes livres e
inserir o novo espaço na posição correta da lista).
Alternativa:
Quick Fit: mantém listas separadas por tamanho do espaço livre (2K, 4K, 8K, etc.)‫‏‬
•  Problema: ao liberar memória, o novo espaço criado precisa ser inserido na fila
correspondente (possivelmente, após combinação com áreas vizinhas)‫‏‬
4K
8K
16K
32K
64K
other
19
9
4/16/15
Gerenciamento de Memória em Minix3
•  Implementado pelo PM
•  Com swapping e nem paginação (processo carregado
permanece exatamente na partição alocada)
•  Motivos:
–  Ser compatível com processador Intel 8088, que não possui MMU
–  Menor complexidade do código
–  Possibilitar a portabilidade para outras arquiteturas (sist.
embarcados), também sem MMU
•  Memória sem partições
•  Espaços livres em lista encadeada e seleção usando politica
First Fit
•  O mapa de memória (qual segmento está alocado em qual
endereço de memória) é mantido pelo system task (no
núcleo) è separação de política e mecanismo
Gerenciamento de Memória no Minix3
•  Cada processo contém 2 (ou 3) segmentos, que são mapeados para uma
partição contígua de memória
–  Texto (segmento I) , dados (D) e pilha
–  Segmentos I e D podem ser alocados juntos (modo combinado) ou separado
•  Na tabela de processos (mproc.h), campo mp_seg[] é um vetor para os
segmentos de texto, heap e pilha.
•  Cada elemento deste vetor contém os endereços virtual e real de cada
segmento
210K (0x34800)‫‏‬
stack
0x8
208K (0x34000)‫‏‬
207K (0x33c00)‫‏‬
0xd0
0x2
0xc8
0x7
0xc8
data
203K (0x32c00)‫‏‬
Obs: 0 significa
text
200K (0x32000)‫‏‬
segmentos combinados I+D;
Tudo em unidades de Click = 1KB
21
10
4/16/15
Gerenciamento de Memória em Minix3
•  Fork copia endereços de segmentos do pai para o filho
•  Exec libera espaço ocupado (cópia da imagem pai) e procura-se por
espaço livre que comporte a nova imagem
•  Processo não aumenta o tamanho de sua imagem, que é determinado
(estaticamente) no cabeçalho no executável (formato do a.out)
•  Pilha e heap crescem em sentidos opostos.
•  Somente quando heap é atualizado (BRK system
call) o limite da pilha é atualizado
•  Motivo: compatibilidade com 8088 e
processadores mais simples, que não possuem
interrupção que detecta avanço da pilha sobre o
heap
pilha
data
text
22
Chamadas de sistema relacionadas a
gerência de memória
•  fork() - cria processo filho
PM clona a imagem do chamador, que é posicionada na
primeira lacuna disponível.
•  exec() - carrega executável a ser executado por chamador
PM libera a área de memória do chamador e procura outra
lacuna suficentemente grande para o executável indicado
•  exit() - termina o chamdor e libera a memória que estava
alocada a ele
•  wait()‫‏‬
•  brk() – gerado por um malloc()
11
4/16/15
Efeito de um fork() & exec()
Memória Virtual
É necessária, quando o total de memória necessária para um
conjunto de processos excede o tamanho da memória física.
Também aqui, usa-se parte do disco como extensão da
memória RAM.
Usa a técnica de paginação:
•  Espaço de endereçamento lógico de cada processo e memória
física são divididos em partições de mesmo tamanho fixo
(chamados de páginas e quadro de páginas)
•  Em vez de fazer o swap in/out de uma imagem inteira de
processo, cada página pode ser movida do disco para a
memória e vice-versa.
•  Em cada acesso a memória o hardware verifica se a página
correspondente está na memória, e se não for o caso, então um
tratador de páginas faltantes (page-fault) a copia para lá.
•  A espera pela cópia para a memória de uma página é
equivalente a um bloqueio por E/S
38
12
4/16/15
Paginação
Requer da existência de suporte por hardware (Memory
Management Unit -MMU)
–  MMU intercepta qualquer acesso à memória (p/ instruções e dados)
–  Mapeia endereços lógicos para endereços físicos (através de uma tabela
de página)‫‏‬
–  Quando página acessada não está em memória, gera uma interrupção de
falta de página (page fault), que causa a interrupção do processo em
execução e o seu bloqueio até que a página tenha sido copiada
39
Exemplo Memória Virtual
Exemplo: tamanho página = 4KB (varia
de 512 Bytes a 64 KB)‫‏‬
Um espaço de endereçamento virtual de
64K é mapeado em 32KB de
memória RAM
Número da página é usada como índice
para a tabela de páginas (TP)
Cada entrada na TP contém, entre
outros:
•  Bit presença: se página está em
memória
•  Se estiver, o número do quadro
correspondente
Endereço lógico X é mapeado para
endereço físico:
TP(X/ 4K) + X % 4K
40
13
4/16/15
Tabela de Páginas
Exemplo: Operação
interna a uma MMU
com 16 páginas de
tamanho 4 KB cada
Composição do endereço
lógico:
•  Bits mais significativos =
número da página
•  Bits menos significativos =
deslocamento do endereço
dentro de uma página
41
Paginação
• Região de memória física ocupada por um processo não precisa
ser contíguo
• Memória física é particionada em quadros de página (frames) de
tamanho 2x bytes
• Espaço de endereçamento lógico é dividido em páginas de
tamanho 2x bytes
• Cada endereço lógico é composto do par (número-da-página,
deslocamento), onde número-página é usado como índice para
uma entrada na tabela de páginas
Exemplo: páginas de 4 K para endereços de 32 bits:
Número-da-página
20 bits
deslocamento
12 bits
Obs:
- Em paginação, de certa forma, tem-se um registrador de realocação
por página
- Evita fragmentação externa, mas causa fragmentação interna
42
14
4/16/15
Paginação
CPU
pg
o
P0
0
P3
P1
1
P2
P2
2
P1
P3
3
fr
mem—ria
l—gica
pg: no. da página
fr: no. do quadro
o: offset (deslocamento)‫‏‬
o
4
0
6
1
2
2
1
3
0
4
5
6
P0
7
mem—ria
f’sica
tabela de
p‡ginas
Processo pode ser executado, contanto que haja um número mínimo de
páginas na memória (as páginas sendo acessadas)
O espaço de endereçamento lógico é contiguo, mas o espaço físico
respectivo é distribuído/separado.
A tradução é feita de forma transparente pela MMU, que acessa a
TabPaginas, e mantém um cache das páginas recentemente consultadas.
43
Paginação
Cada processo possui a sua tabela de páginas, que precisa ser carregada na
MMU cada vez que ocorre troca de contexto.
Cada entrada na Tabela de Processos contém um ponteiro para a tabela de
páginas do processo. O dispatcher é o encarregado de "carregar" a nova
tabela de páginas na MMU.
Como qualquer acesso à memória ocorre através do mapeamento pela TP. Isso
fornece também automaticamente um mecanismo de proteção...
... contanto que o preenchimento da tabela de página seja feita em modo
privilegiado (supervisor)!!
=> à medida que as páginas vão sendo alocadas, o núcleo preenche as entradas
na tabela de página.
Além disto, kernel precisa manter informações sobre o conjunto de quadros
disponíveis na memória principal:
Para isso, possui uma tabela de quadros (frame-table), com uma entrada por
quadro, informando se o mesmo está alocado, e para qual página de qual
processo.
=> De maneira geral, a paginação aumenta o tempo de troca de contexto. Por
que?
44
15
4/16/15
Controle de acesso
Paginação pode ser estendida para incorporar controle de acesso para
cada página:
• além do número do quadro, cada entrada da TP contém bits para o tipo
de acesso permitido: Por exemplo
somente-leitura(R), leitura-e-escrita(W) ou somente-execução(X)
• se acesso requisitado viola o permitido, a MMU gera a interrupção
“violação de acesso de memória”
• a validade de uma operação sob um endereço lógico pode ser testada
em paralelo com a obtenção do endereço físico correspondente.
Além disto, pode se usar bits valido/inválido para marcar as páginas
lógicas que efetivamente compõem o espaço de endereçamento
lógico do processo
• é útil para espaços de endereçamentos grandes e utilizados de forma
descontínua
• note-se que devido ao problema do não alinhamento de dados com os
limites das páginas, esse tipo de controle de acesso não é muito preciso.
45
Entrada da Tabela de Páginas
Resumo dos campos/flags:
•  Caching: se faz sentido guardar essa entrada da TP no cache
•  Referenced: se houve acesso a algum endereço da página nos
últimos ∆t
•  Modified: se houve acesso de escrita a algum endereço da
página nos últimos ∆t
•  Protection: Controle de acesso
•  Present: se página está na memória
•  Número do quadro na memória física (page frame number)
46
16
4/16/15
Tabela de Páginas (TP)
Possíveis implementações:
1) TP é um conjunto de registradores dedicados, que são carregados
através de instruções privilegiadas (ex. DEC PDP-11)‫‏‬
Pró: não necessita de MMU e tradução é veloz
Contra: número de entradas é pequeno (tipicamente 16-256)‫‏‬
2) TP é mantida em memória principal
- mantém-se um registrador com o endereço base da tabela (Process
Table Base Register, PTBR) e entrada na tabela = PTBR +
#página_virtual
Prós:
•  possibilita tabelas de páginas arbitrariamente grandes
•  a troca de contexto envolve somente PTBR
Contras:
•  tempo de acesso à memória duplica, devido ao acesso inicial à tabela de
páginas
47
A tabela de páginas
Possíveis implementações (cont.):
3) utilização de um Translation Look-aside Buffer (TLB)‫‏‬
- TLB = vetor associativo que permite comparação paralela com suas
entradas (de 8 - 128 entradas)
- é um cache das entradas da TabPaginas recentemente acessadas (è
princípio de localidade)‫‏‬
- quando uma página lógica é acessada e seu mapeamento não está
no TLB (TLB miss) então:
* acesssa-se a TabPaginas e coloca-se a entrada no TLB
* se a página está em memória, operacão é completada; senão
gera-se uma interrpção Page-fault
- a cada troca de contexto, o TLB precisa ser zerado
Vantagem: tradução rápida
Desvantagem: requer gerenciamento do conteúdo do TLB
(substituição de entradas)
48
17
4/16/15
Translation Look-aside Buffer
A razão de (TLB hits/acessos à memória) determina a eficiência da tradução e é
usada para calcular o tempo médio de acesso à memória
Razão de TLB hits depende do tamanho do TLB e da estratégia de troca de
entradas
49
Funcionamento do TLB
Ao receber um novo indice de página (I) todas as entradas do
TLB são comparadas em paralelo:
•  Se I é encontrado e tipo de acesso é válido, então usa-se a
entrada do TLB (è endereço do quadro)
•  Se tipo de acesso é inválido, gera-se uma falha de proteção (e
processo é abortado)
•  Se I não é encontrado na TLB, (TLB miss), faz-se uma consulta
a TabPáginas (TP) em memória, e copia-se a entrada completa
da TP para o TLB (para agilizar acessos futuros)‫‏‬
•  Quando houver acesso p/escrita, copia-se o flag de escrita
(Modify bit) de TLB para a TabPáginas
Obs: Pode-se aumentar a eficiência da paginação, aumentando-se
o tamanho do TLB.
50
18
4/16/15
TLBs – Translation Lookaside Buffers
Possível configuração do TLB para um programa com:
•  Um loop que percorre páginas 19-21, acessando um vetor nas páginas
129-130. O índice do vetor está em pagina 140 e a pilha em 860-861.
void main() {
structX vector[1000]
int I;
…
while (finished) {
…
vector[i] = …
}
}
51
Tabelas de página
•  Principal problema é que a própria TP precisa estar
em memória.
•  E pior, precisa-se manter uma TP por processo em
execução.
•  Então, dependendo do número de entradas de cada
TP (que depende do tamanho da página), pode ser
inviável, manter todas elas na memória do núcleo.
•  O que fazer?
19
4/16/15
Tabela de Páginas de 2 níveis
Resolve o problema de manter
grandes tabelas de página na
memória (para todos os
processos).
Ideia: fazer a TabPaginas ser paginada
(manter apenas as partes da
TabPagina cujo mapeamento
esteja sendo usado.
2 níveis: tabela raiz (de 1o. nível) e
TabelaPagina de 2o. nível
A tabela raiz contém os ponteiros para
essas partes da TabPaginas .
Second-level page tables
Top-level
page table
Offset = 12 bits
Tam. página= 4K
32 bits page number è 220 entries!
54
Tabela de Páginas de 2 níveis
20
4/16/15
Tabela de páginas Invertidas
Para arquiteturas de 64 bits, o espaço de endereçamento lógico é 264 bytes!
Mesmo se o se tamanho de página é 4KB, isso leva a TPs muito grandes, e.g.
252 ≈ alguns Tera Bytes!).
Por isso, em alguns sistemas usa-se uma TP invertida:
•  Uma entrada p/ cada quadro de página (da memória física)
•  Cada entrada contém uma lista de (processID, PresenceBit, no. da página)‫‏‬
Desvantagem: a tradução de endereços lógicos èfíscios fica bem mais lenta, i.e.
para cada página p, precisa-se fazer uma varredura pela TP invertida para
encontrar o quadro correspondente.
Só é viável, se o TLB for usado para guardar as associações correntes. Somente
quando ocorre um TLB miss, a TP invertida precisa ser pesquisada.
Usa-se também uma função de hash para indexar as entradas da TP invertida.
56
Tabela de Páginas Invertidas
L
Se página não está no TLB, então precisa-se percorrer a tabela
invertida procurando pelo PID e indice da página.
57
21
4/16/15
Paginação e Algoritmos de Substituição de Páginas
Qual
página
substituir?
Page-out
?
Page-in
Fig adaptada de Hussein Abdel-Wahab
http://www.cs.odu.edu/~cs471w/spring14/lectures/virtualmemory.htm
Algoritmos de Substituição de Páginas
A cada page-fault:
•  o gerenciador de memória aloca um quadro de páginas para a
página requisitada e
•  precisa escolher qual página (de um quadro de páginas) deve
ser removida da memória.
O Algoritmo de substituição de páginas determina qual página
deve ser removida e usa as informações estatísticas contidas
nas tabelas de páginas.
Nessa seleção deve levar em conta que:
–  uma página modificada precisa ser copiada para disco,mas uma nãomodificada pode ser sobreescrita
–  não é boa idéia tirar uma página que está em uso , pois ela terá que
ser carregada em breve
59
22
4/16/15
Algoritmo de substituição ideal
•  Substitui a página que será acessada no futuro
mais remoto
–  Infelizmente, não é viável na prática, pois exigiria
um conhecimento sobre todos os acessos futuros
•  Usado apenas em simulações para avaliar o
quanto os algoritmos concretos diferem do
algoritmo ideal
60
Algoritmo Página não recentemente Utilizada
(Not Recently Used - NRU)
• 
Cada página tem um bit de acesso (R) e de Modificação (M):
– 
– 
– 
– 
• 
Bits são setados sempre que página é acessada ou modificada
Pagina é carregada com permissão somente para leitura e M=0.
No primeiro acesso para escrita, o mecanismo proteção notifica o
núcleo, que seta M=1, e troca para permissão de escrita
A cada interrupção do relógio, seta-se R = 0
Páginas são classificadas em 4 categorias
1. 
2. 
3. 
4. 
Não referenciada, não modificada
Não referenciada, modificada
referenciada, não modificada
referenciada, modificada
• 
NRU escolhe primeiro qualquer página (em ordem ascendente
de categoria)
è Razão da prioridade de descarte (#2 antes #3): É melhor manter
páginas sendo referenciadas, do que modificadas mas pouco
referenciadas.
61
23
4/16/15
Algoritmo FIFO de substituição
•  Manter uma lista ligada de todas as páginas na ordem em que
foram carregadas na memória
•  A página (mais antiga), no início da fila, é a primeira ser
descartada
•  Principal Vantagem:
–  Simplicidade de implementação.
•  Principal Desvantagem:
–  Não é levado em conta se uma página está sendo frequentemente acessada
não.
–  Por exemplo: a página mais antiga pode estar sendo acessada com alta
frequência.
62
Algoritmo da Segunda Chance
•  Uma variante do algoritmo FIFO que leva em
conta acessos recentes às páginas:
–  Páginas são mantidas em fila FIFO (ordenada por momento
de carregamento)
–  Se página mais antiga possui bit R=0, ela é removida.
–  Se tiver bit R=1, o bit é zerado, e a página é colocada no
final da fila,. Ou seja: dá se uma 2a chance.
Página carregada há mais tempo.
Página carregada mais
recentemente.
R=1
A página é tratada como se fosse
carregada recentemente.
R=0
63
24
4/16/15
Algoritmo do Relógio
Todos as páginas carregadas estão em uma lista circular.
Ponteiro aponta para a próxima a ser testada
Trata-se simplesmente de uma implementação alternativa para o algoritmo
da 2a. Chance (sem a necessidade de manipular a fila)
64
Algoritmo Menos recentemente utilizada
Least Recently Used (LRU)
Assume que páginas usadas recentemente, deverão ser
usadas em breve novamente.
Princípio: descartar a página que ficou sem acesso durante o
periodo de tempo mais longo
•  Implementação ideal, mas impraticável:
–  Lista de páginas ordenadas pelo acesso mais recente
–  É inviável pois demandaria uma manipulação da lista a cada
acesso de memória!!
•  Alternativa (necessita de apoio de hardware):
–  usar um contador que é incrementado por hardware a cada acesso à memória
–  Cada vez que uma página é acessada, atualiza este contador na entrada da TP
correspondente
–  Seleciona a página com o menor contador
–  Periodicamente, zera o contador
65
25
4/16/15
LRU com Hardware especial
Manipular uma matriz n x n (para n entradas na TP) com o registro de
acessos recentes (linha i = contador da página i)
Idéia: Ao acessar página i preencha toda linha i com bit 1 e, em seguida, toda
coluna i com bit 0. A página mais antiga é aquela com menor valor.
Acesso Pág. 0
Acesso Pág. 1
Acesso Pág. 1
Acesso Pág. 0
Acesso Pág. 2
Acesso Pág. 3
Acesso Pág. 3
Acesso Pág. 2
Acesso Pág. 2
Acesso Pág. 3
66
Not Frequently Used (NFU)
Requer um contador por página.
A cada intervalo de tempo (clock tick) todas as páginas
referenciadas no último intervalo de tempo terão o seu
contador incrementado. Assim, a página com o menor contador
é a candidata a ser substituida.
Principal problema: contabiliza-se apenas a frequência de
acesso, mas não leva-se em conta quando foi esse acesso.
Páginas muito acessadas em passado longínquo permanecem
com alto ibope.
26
4/16/15
Algoritmo do envelhecimento Simulando LRU em Software
Manter um contador para cada página;
•  bit R mantém a informação se página foi acessada durante último
período de tempo (cada tick de relógio):
•  faz-se um shift de 1 bit para a direita no contador de cada página e
adiciona-se o R-bit como bit mais significativo no contador
68
Principais limitações do Alg. de
Envelhecimento (comparado ao LRU)‫‏‬
•  Quando duas páginas possuem o mesmo valor de contador
(de idade), não há como saber qual delas foi acessada por
último (no último período de tempo)
t
Pag.X
Pag.Y
•  Os contadores de idade têm um número finito de bits.
Portanto quando o valor atinge 0, não há como distinguir
se a última referência ocorreu há apenas n ticks do relógio
ou há muito mais tempo.
èNormalmente, basta contador com 8 bits e períodos de 20
ms entre ticks. Se uma página não foi acessada a 160 ms,
provavelmente não é mais relavente.
69
27
4/16/15
Questões de projeto de paginação
Quando um programa gera muitas faltas de página para
poucas instruções executadas, ele se encontra em
Ultra-paginação ( thrashing )‫‏‬
Deve-se tentar minimizar a taxa de page faults:
•  para cada processo em execução, manter número
suficiente número de páginas na memória
•  para processos que tenham sido movidos para disco e
estejam retornando (swapped-in), evitar que todas as
páginas sejam requisitadas individualmente, mas tentar
se antecipar
•  Por isso, precisa-se identificar qual é o conjunto de
páginas em uso corrente por cada processo
Ultra-paginação (Thrashing)
Fenômeno que ocorre quando o gerenciador de memória
fica sobrecarregado com cópias de páginas entre
memória e disco.
Alta frequência de faltas de página: ocorre quando um
processo possui muito menos páginas na memória do
que o seu conjunto de páginas em uso (working-set).
# taxa de falta de
páginas por tempo
# de páginas na memória
71
28
4/16/15
O Conjunto de páginas em uso
A maioria dos processsos apresenta uma localidade de referência
(acessa apenas uma fração pequena de suas páginas).
# páginas
Tamanho do conjunto no instante t
t
•  O conjunto de uso (working set) é o conjunto das páginas
acessadas pelas k referências mais recentes. O sistema de
paginação deve gerenciar este conjunto usando envelhecimento.
•  Quando um processo é escolhido para execução seu working-set
pode ser pré-paginado (em vez de fazer paginação por demanda)‫‏‬
72
Algoritmo de substituição baseado no working set
Mantém-se um contador virtual de tempo e periodicamente, atualiza-se o
contador em cada página que tenha o bit R=1.Working Set consiste
das páginas com contador dentro da janela de tempo [t- τ, t] Se R=0, não é feita autalização. Se (R==0 && age ≤ τ ) avança com tempo virtual
e depois verifica novamente. Descarta-se páginas com R=0 e mais antigas do que τ.
73
29
4/16/15
Resumo dos algoritmos de susbtituição de
página
Nome do Algoritmo
Avaliação/ Comentário
Ótimo – prevendo o futuro
Impossível, mas usado como
benchmark
Not Recently Used (NRU)
Pouco preciso
FIFO
Pode descartar páginas em uso
Segunda Chance
Melhoria significativa comparado
com o FIFO
Least Recently Used (LRU)
Excelente, mas requer
implementacão em hardware
Not Frequently Used (NFU)
Aproximacão do LRU
Aging
Excelente algoritmo com efeito
próximo ao LRU
Worsking Set Clock
Excelente algoritmo
75
Politica de Substituição Local vs. Global?
•  O número de quadros de páginas alocados a cada processo deve
variar?
•  A página a ser substituida deve ser do processo que causou a falta
de página (pol. local), ou de qualquer processo (pol. global)?
Processo A
causou o
page-fault
(a) Configuração original
(b) politica local
(c) politica global
80
30
4/16/15
Política de Alocação Local x Global
Prós and Contras de uma Política Global:
(+) consegue uma alocação mais eficiente da memória, pois leva
em conta flutuações no working set (conj. de trabalho) de todos
os processos
(-) favorece os processos com maior prioridade no escalonamento
(geralmente, os mais orientados a E/S) e penaliza processos
mais orientados a CPU
(-) alocação é mais complexa, pois precisa monitorar o conjunto de
trabalho de todos os processos simultaneamente e comparar a
idade do todas as páginas
(-) o conjunto de trabalho de um processo pode variar muito
rapidamente, e o alg. de envelhecimento não reflete isso
imediatamente
(-) pode tornar a execução de um processo inviável se não possuir
número mínimo de quadros de página.
81
Política de Alocação Local x Global
Freqüência de faltas de página como função do número de molduras
de página alocado
(A)= taxa inaceitavelmente alta de page-fault,
(B)= taxa muito baixa de page-faults, pode-se diminuir # de quadros do processo.
82 O Algoritmo Page Fault Frequency (PFF) fica monitorando essas taxas
para decidir de qual processo vai tirar um quadro de página.
31
4/16/15
Controle de Carga
•  Mesmo com um bom projeto, o sistema ainda pode sofrer
paginação excessiva (thrashing)‫‏‬
•  Quando o algoritmo PFF indica
–  alguns processos precisam de mais memória
–  mas nenhum processo executa bem com menos páginas
•  Solução :
Reduzir o grau de multiprogramação: o número de
processos que competem pela memória
–  levar alguns deles para disco e liberar a memória a eles alocada
–  reconsiderar grau de multiprogramação
•  Existem algoritmos orientados a taxa global de faltas de
página.
83 A questão do tamanho de página
Tamanho de página pequenos:
•  Vantagens
–  Melhor aproveitamento da memória físcica: menos
fragmentação interna
–  mais programas usando a memória
–  melhor alinhamento de segmentos de código e de
estruturas de dado às páginas
•  Desvantagens
–  programas precisam de mais páginas, tabelas de
página maiores, mais tempo para carregar entradas de
tabela nos registradores da MMU
–  Transferência de página menor ou maior de/para disco
demanda aproximadamente o mesmo tempo (mas é
feito de forma mais frequente)
84 32
4/16/15
Tamanho de Página
•  Custo associado ao tamanho de
página: tamanho da tabela de páginas
vs. fragmentação interna Espaço da tabela
de páginas
s" e p
custo adicional =
+
p 2
Fragmentação
interna
•  Onde
–  s = tamano médio do processo em bytes
–  p = tamanho da página em bytes
!–  e = tamanho da entrada da tabela de página
O resultado é:
p = 2" s" e
85 !
Questões de Implementação
Quatro momentos em que SO trata de paginação:
1.  Criação do processo
- 
- 
Determinar tamanho do processo
Criação ta TP
Quando processo ganha CPU
2. 
- 
- 
Re-setar MMU para novo processso
Limpar TLB
Interrupção de falta de página
3. 
- 
- 
- 
- 
Identificar qual é o endereço lógico causador da falta
Escolhe página a ser substituida
Carrega página requisitada para memória
Completa a instrução de máquina
Quando processo termina
4. 
- 
Desaloca TP e páginas na memória e na área de swaping
89
33
4/16/15
Bloqueando páginas na memória
Em políticas globais de substituição de páginas, pode haver
uma interferência entre paginação e requisições de E/S,
que requerem a retenção (bloqueio) temporária de
páginas na memória.
Exemplo:
1.  Processo1 faz requisição de leitura de dados de um dispositivo
para um buffer em uma página na memória
2.  Enquanto espera, outro processo 2 causa uma falta de página
3.  Por azar, a página do buffer de propcesso1 foi escolhida para
substituição
4.  Dispositivo não conseguiria copiar dados para o buffer
5.  Logo, há necessidade de manter as páginas que são fonte/destino
de dados de E/S
92
Separação de Política e Mecanismo
•  Paginador em espaço do usuário trata os pedidos de falta
de página e implementa o algoritmo de substituição.
•  O núcleo trata do carregamento de MMU
94
34
4/16/15
Segmentação
Paginação resolveu o problema da fragmentação externa, mas o
espaço de endereçamento (lógico) de um processo é linear.
Segmentação permite visualizar um espaço de endereçamento como
uma coleção de espaços de endereçamento (segmentos)
independentes e de tamanho variável
Segmentos são gerados na compilacão e/ou estão na forma de
bibliotecas
Exemplos:
programa principal, pilha de execução, tabela de símbolos, código
de funções, variáveis não inicializadas, bibliotecas
compartilhadas, vetores & matrizes, blocos de variáveis globais
(common block - Fortran), etc.
95
Segmentação: Exemplo Compilação
•  Espaço Virtual com vários segmentos que podem
crescer (e acabar usando a memória livre reservada)‫‏‬
96
35
4/16/15
Segmentação
Ideia central: Permitir que cada segmento creça independentemente.
è cada segmento constitui um espaço de endereçamento independente.
97
Segmentação
•  Segmento = entidade (parte) lógica do programa que contém um único tipo
de dados e do qual o programador está consciente. Exemplos: código, pilha,
heap, tabelas temporárias, bibliotecas, etc.
Vantagens da segmentação:
•  facilita definir e controlar modos de acesso diferenciados para cada parte do
programa
•  segmentos podem crescer independentemente (tabelas dinâmicas, pilhas de
threads)‫‏‬
•  facilita o compartilhamento de partes do programa (p.ex. shared libraries)‫‏‬
•  Facilita a ligação de código. Por ex.: se em cada segmento existe apenas 1
procedimento (end. 0 do segmento n), pode-se modifica-lo sem que seja
necessário alterar qq referência a este procedimento (isto não acontece
quando vários procedimentos estão em uma mem. virtual contígua)‫‏‬
Segmentação cria um espaço virtual multi-dimensional.
98
36
4/16/15
Segmentação
Processos podem também alocar um novo segmento usando
int shmget(key_t key, size_t size, int shmflg)
que retorna o shmId
E se conectar a ele (para compartilhamento) usando:
void *shmat(int shmid, const void *shmaddr, int shmflg);
99
Segmentação
Alguns sistemas permitem que o programador possa indicar quais
partes do programa devem ser segmentos independentes.
Endereço lógico consiste de:
• nºde segmento (s) e deslocamento no segmento (d)
• cada processo tem uma Tabela de Segmentos (TS), que é
fornecida à MMU para tradução de endereços.
• cada entrada na tabela consiste de par (base, limite), com
endereço base e um limite
• como visto anteriormente:
se (d <= limite[s]) então end-fisico = base[s] + d
senão "acesso não autorizado" (TRAP)‫‏‬
10
0
37
4/16/15
Segmentação
Segment Table of process Pi
Tabela de Segmentos (TS)‫‏‬
mem—ria
CPU
trap
s
d
<
yes
+
base
end. f’sico
translation HW
base +
limit
Segment Table (ST)
limit
base
• idealmente, TS deve ser armazenada em registradores rápidos ou em vetores
associativos que permitam consulta paralela (tipo TLB)‫‏‬
• quando TS é mantida em memória, cada processo tem um ponteiro indicando o
início da tabela (base register - STBR) e um contador do número máximo de
entradas na tabela (length register- STLR).
• antes de cada acesso é verificado se s <= STLR, e só então são consultados
limit[STBR+ s] e base[STBR+ s]
10
2
38
4/16/15
Implementação de Segmentação
Segmentos podem ser carregados em qualquer espaço livre da memória, logo:
•  precisa-se controlar a lista de lacunas disponíveis
•  pode causar fragmentação externa (sequencia a-d)‫‏‬
Pode-se fazer compactação de memoria para agrupar segmentos e criar uma lacuna
maior.
10
3
Segmentação (3)‫‏‬
Comparação entre paginação e segmentação
104 39
4/16/15
Segmentação com Paginação
•  Principal vantagem: Permite segmentos muito grandes
•  Cada segmento é um espaço de endereçamento completo, que é paginado da
mesma forma como um espaço de endereçamento uni-dimensional
•  Somente as partes de cada segmento que estão em uso, precisam estar na
memória física
•  Cada processo tem sua TabSegmentos, composta de Descritores
•  Cada Descritor contém:
–  Ponteiro para endereço da TabPaginas
–  Tamanho do Segmento em páginas
–  Bits de proteção
•  Quando um segmento está sendo usado (acessado), sua tabela de páginas
precisa estar em memória
•  Se o segmento puder ser muito grande (232 endereços), então a propria tab. de
páginas deverá ser paginada
•  Endereço Virtual:
s
p
o
s= indice na tab de segmentos
p= indice na tab de paginas
o= offset na página
10
5
Segmentação com Paginação
40
4/16/15
Segmentação com Paginação
•  Somente as partes de cada segmento que estão em uso, precisam estar na
memória física
S1.p5
p4
S1.p3
p3
S2.p5
p2
S3.p3
p1
S1.p2
Seg 1
Seg 2
Seg 3
RAM
10
7
Segmentação com paginação
no MULTICS
Conversão de um endereço que consiste de 2 partes para um endereço
físico de memória.
Para agilizar o acesso, MULTICS usa um TLB de 16 palavras, em que um
par (s,p) pode ser consultado em paralelo.
11
1
41
Download

Gerência de Memória Gerência de Memória - PUC-Rio