CMS T0
Samir Cury - 25/05/2012

Jan -> Mar 2012
Data taking 2012/1

~3 1/Femtobarns Entregues :

Ao menos 15 estão planejados para este ano.

A taxa está aumentando, média já está
estimada em 150 1/pb por dia.
Data taking 2012/1


O acelerador conseguiu condições melhores antes da
parada técnica
Record do fill de 08/04
Reconstrucao destes dados





Foi provado que o CMSSW_5_X consegue reconstruir um bom
numero de vértices primários muito mais rápido e requisitos
menores (e apropriados de memória)
A T0 voltou a poder usar 100% das CPUs graças a isto.
Idéia do PromptReco (até agora só feito na T0) ser realizado
nas T1, Foi arquivada
Taxa máxima do StreamA (HLT) – Primary Datasets
reconstruídos subiu de 300 para 500 Hz, graças à boa
performance do SW
Problemas com reprocessamento nas T1 não são mais
mencionados nas reuniões
Adicao de um novo Stream (B)


Ate hoje, o stream principal, era o “A”, que basicamente contém
os Primary Datasets principais do CMS (“ElectronHad”,
“MultiJet”, “ElectronHad”)
Foi criado o conceito de “Parking Datasets” -- será gerado
somente o RAW, para Reconstrução posterior nas T1.


Estes dados estão inclusos na certificação do DQM
Além dos ~500 Hz do Stream A (Reconstruido) Temos 300~400
Hz para o Stream B (onde são somente armazenados como
RAW)
Recursos (CPU) @ CERN

O CMS tem um share do Computer Centre de ~6800 CPUs

Destas, 3500 sao dedicadas para a T0



As outras sao utilizadas pelos diversos outros servicos do CERN,
como o CAF (analise para usuarios muito especiais) e as filas
publicas do LXBATCH, como 1nw, 1nd, 2nw, etc...
O uso desta fila dedicata, esta muito baixo, estamos utilizando em
media 30~40% do que temos :
Alan e eu participamos da instalacao de um WMAgent para
submeter MC para as filas do CERN, com o objetivo de preencher
as lacunas do que nao e utilizado.
Desenvolvimento

Participando mais no desenvolvimento do que
falta para a T0 baseada em WMAgent


Novo algoritmo para tratamento de falhas
(necessario para a T0)
Data Quality Monitoring – Adaptar um tipo de
job que roda em várias instancias(não só T0),
contra os dados produzidos, e fornece os plots
de monitoramento para os shifters DQM.
Desenvolvimento


Nao relacionado as minhas atividades no
CERN, mas relevante para o grupo
Condor4web – Remake



NoSQL backend – CouchDB
Simplesmente, o jeito certo de se fazer (esta
aplicação)
SpinOff – Parse::CondorQueue



Módulo Perl que prove informações do Condor
em XML, JSON ou objeto Perl
Indo para o CPAN na próxima semana
Poderá ser utilizado por qualquer outro site que
utiliza Condor
Download

Estes dados estão inclusos na certificação do DQM