Universidade Federal de São Carlos
Centro de Ciências Exatas e Tecnologia
Departamento de Matemática
Tensores, Teorema de Stokes e
Cohomologia de De Rham
Francisco Carlos Caramello Junior
Bacharelado em Matemática
Liane Bordignon
Orientadora
Trabalho de Conclusão de Curso B
Segundo Semestre de 2011
Aluno
Orientadora
Wer nicht von dreitausend Jahren
sich weiß Rechenschaft zu geben,
bleib im Dunkeln unerfahren,
mag von Tag zu Tage leben.
Johann Wolfgang von Goethe,
West-Östlicher Diwan - Buch des Unmuts.
Resumo
Parte da proposta deste trabalho é fazer um estudo aprofundado da álgebra
dos tensores. Primeiramente, portanto, fazemos o tratamento formal da álgebra
tensorial. Em seguida construı́mos a teoria dos tensores alternados. Na sequência
introduzimos es variedades diferenciáveis. Construı́mos algumas das ferramentas
básicas da teoria, como o fibrado tangente. Em seguida introduzimos as formas
diferenciais e uma forma de integra-las, tópico cujo resultado principal é o Teorema
de Stokes. Por fim, estudamos a cohomologia de De Rham.
Abstract
Part of the purpose of this work is to make a thorough study of the algebra of
tensors. First, therefore, we make the formal treatment of the tensor algebra and
the theory of alternating tensors. Next we introduce the smooth manifolds. It’s
made the construction of some basic tools of the theory, such as the tangent bundle.
Then we introduce the differential forms and a way to integrate them, topic whose
main result is the Stokes’s Theorem. Finally, we study the De Rham cohomology.
iv
Prefácio
O presente trabalho foi desenvolvido no decorrer das disciplinas Trabalho de
Conclusão de Curso A e Trabalho de Conclusão de Curso B. Durante a disciplina
Trabalho de Conclusão de Curso A, cursada no primeiro semestre de 2011, desenvolvemos os tópicos em Álgebra Multilinear e Análise em Variedades que se encontram
no capı́tulo 1 e 2, a menos das seções 2.7 e 2.8 deste último.
Na disciplina Trabalho de Conclusão de Curso B, cursada no segundo semestre
de 2011, foi feito o estudo da Cohomologia de De Rham, que se encontra no capı́tulo
3. As seções 2.7 e 2.8 foram estudadas pois trazem pré-requisitos para o pleno
desenvolvimento do capı́tulo 3, além de constituı́rem parte fundamental da teoria
de Variedades Suaves. Também, como era parte de nossa proposta, incluı́mos mais
exemplos e figuras a fim de facilitar o entendimento do texto.
vi
Sumário
Resumo
iv
Prefácio
vi
1 Álgebra Multilinear
1.1 Aplicações Multilineares . . . . . . . . .
1.2 Produto Tensorial . . . . . . . . . . . . .
1.3 Aplicações Lineares . . . . . . . . . . . .
1.4 Produto Tensorial de p Espaços Vetoriais
1.5 Espaços Duais . . . . . . . . . . . . . . .
1.6 Álgebra Tensorial . . . . . . . . . . . . .
1.7 Tensores Mistos . . . . . . . . . . . . . .
1.8 Álgebra das Funções Multilineares . . . .
1.9 Tensores Alternados . . . . . . . . . . .
1.10 Produto Exterior . . . . . . . . . . . . .
1.11 Determinantes . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
9
10
12
13
16
18
20
26
28
2 Análise em Variedades
2.1 Variedades Topológicas . . . . .
2.2 Variedades Diferenciáveis . . . .
2.3 Funções Diferenciáveis . . . . .
2.4 Partições da Unidade . . . . . .
2.5 Vetores Tangentes . . . . . . . .
2.6 Fibrados Tangente e Cotangente
2.7 Integrais de Linha . . . . . . . .
2.8 Mergulhos e Aproximações . . .
2.9 Formas Diferenciais . . . . . . .
2.10 Orientações . . . . . . . . . . .
2.11 Integração . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
31
31
34
38
39
43
50
55
60
69
78
83
3 Cohomologia de De Rham
3.1 Grupos de Cohomologia de De Rham . . . . . . . . . . . . . . . . . .
3.2 Teorema de Mayer-Vietoris . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Cohomologia de De Rham da Esfera . . . . . . . . . . . . . . . . . .
97
97
102
106
.
.
.
.
.
.
.
.
.
.
.
viii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Apêndice
Conjuntos
Topologia
Álgebra .
Análise . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
111
111
114
121
129
Índice Remissivo
137
Referências Bibliográficas
143
ix
Lista de Figuras
1.1
Um elemento de M 3×3×3 . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1
2.2
2.3
Uma carta de coordenadas. . . . . . . . . . . . . . . . . . . . . . . . . 32
Uma mudança de carta. . . . . . . . . . . . . . . . . . . . . . . . . . 34
Uma variedade com bordo. . . . . . . . . . . . . . . . . . . . . . . . . 37
x
6
Capı́tulo 1
Álgebra Multilinear
Neste capı́tulo apresentamos os tensores. Esses objetos são uma generalização
dos vetores e são o caso geral dos tensores alternados, que também introduzimos
aqui. Estudamos a álgebra tensorial, a álgebra exterior e os determinantes. Este
último tópico constitui tanto uma aplicação dos dois primeiros como teoria também
usada no decorrer do trabalho. Os tensores alternados são retomados no capı́tulo 2
ao definirmos as formas diferenciais.
1.1
Aplicações Multilineares
Definição 1.1.1. Sejam p + 1 espaços vetoriais E1 , . . . , Ep e G sobre um corpo Γ.
Uma aplicação f : E1 × · · · × Ep → G é p-linear se, ∀ i, 1 ≤ i ≤ p,
f (x1 , . . . , xi + yi , . . . , xp ) = f (x1 , . . . , xi , . . . , xp ) + f (x1 , . . . , yi , . . . , xp ),
para todo xi , yi ∈ Ei , e
f (x1 , . . . , λxi , . . . , xp ) = λf (x1 , . . . , xi , . . . , xp ),
para todo λ ∈ Γ.
Costumamos chamar uma aplicação 2-linear de bilinear e, mais geralmente, uma
aplicação p-linear de multilinear. Quando G = Γ na definição acima, chamamos f
de funcional p-linear.
O conjunto das aplicações p-lineares f : E1 × · · · × Ep → G será denotado por
L(E1 , . . . , Ep ; G). Definimos a soma e o produto por escalar em L(E1 , . . . , Ep ; G)
respectivamente por
(f + g)(x1 , . . . , xp ) = f (x1 , . . . , xp ) + g(x1 , . . . , xp ),
(λf )(x1 , . . . , xp ) = λf (x1 , . . . , xp ).
Proposição 1.1.2. O conjunto L(E1 , . . . , Ep ; G) munido com as operações acima
tem estrutura de espaço vetorial.
1
1.2
Produto Tensorial
Definição 1.2.1. Sejam E, F e T espaços vetoriais sobre Γ e ⊗ : E × F → T uma
aplicação bilinear. Dizemos que ⊗ tem a propriedade universal se satisfaz:
(1) Os vetores ⊗(x, y) geram T ,
(2) Se ϕ é uma aplicação bilinear de E × F em qualquer espaço vetorial H, então
existe uma aplicação linear f : T → H tal que o diagrama
E×F
⊗
ϕ
/
;H
f
T
comuta.
Daqui em diante denotaremos ⊗(x, y) por x ⊗ y.
Exemplo 1.2.2. Considere a aplicação bilinear Γ × F → F dada por λ ⊗ y = λy.
Como 1 ⊗ y = y, essa aplicação satisfaz (1). Para verificar (2), seja ϕ : Γ × F → H
uma aplicação bilinear qualquer e defina f : F → H por
f (y) = ϕ(1, y).
Então, para todo λ ∈ Γ, y ∈ F
ϕ(λ, y) = λϕ(1, y) = λf (y) = f (λy) = f (λ ⊗ y).
Portanto vale (2).
Proposição 1.2.3. Sejam ai ∈ E, i = 1, . . . , r, vetores linearmente independentes
e bi ∈ F , i = 1, . . . , r, vetores quaisquer. Então a relação
X
ai ⊗ b i = 0
i
implica bi = 0, para todo i.
Demonstração: Como ai são linearmente independentes, podemos tomar r funções
lineares f i : E → Γ tais que
1 se i = j,
i
i
f (aj ) = δj =
0 se i 6= j.
Considere a função bilinear
Φ(x, y) =
r
X
f i (x)g i (y),
i=1
onde x ∈ E, y ∈ F e g i são funções lineares arbitrárias em F . Pela condição (2) da
propriedade universal, existe uma função linear h em T tal que
X
h(x ⊗ y) =
f i (x)g i (y).
i
2
Então
!
X
aj ⊗ b j
=
Como j aj ⊗ bj = 0, temos que
que bi = 0 ∀ i.
P
h
X
j
f i (aj )g i (bj ) =
X
i,j
P
i
g i (bi ).
i
i
g (bi ) = 0. Mas, como g i são arbitrárias, segue
Corolário 1.2.4. Se a 6= 0 e b 6= 0, então a ⊗ b 6= 0.
Proposição 1.2.5. Seja {eα }α∈A uma base de E. Então todo vetor z ∈ T pode ser
escrito na forma
X
z=
eα ⊗ bα ,
α
com bα ∈ F , onde apenas uma quantidade finita de bα é diferente de zero. Além
disso, os bα ficam unicamente determinados por z.
Demonstração: Pela condição (1) da propriedade universal, z é uma soma finita
da forma
X
z=
xν ⊗ y ν ,
ν
com xν ∈ E, yν ∈ F . Escreva xν = α λαν eα , λαν ∈ Γ. Então
X
X
X
z=
λαν eα ⊗ yν =
eα ⊗ λαν yν =
eα ⊗ bα ,
P
ν,α
onde bα =
P
ν
ν,α
α
λαν yν . Para provar a unicidade, suponha que
X
X
eα ⊗ b0α ,
eα ⊗ bα =
α
α
com bα , b0α ∈ F . Então
X
eα ⊗ (bα − b0α ) = 0
α
e, pela Proposicao 1.2.3, bα =
b0α
Proposição 1.2.6. Qualquer vetor z ∈ T , z 6= 0, pode ser escrito na forma
z=
r
X
xi ⊗ y i ,
i=1
onde xi ∈ E, yi ∈ F , {xi } é linearmente independente e {yi } é linearmente independente.
P
Demonstração: Escreva z = ri=1 xi ⊗ yi de forma que r seja mı́nimo. Se r = 1,
pela bilinearidade de ⊗, x1 6= 0 e y1 6= 0. Caso r ≥ 2, se os vetores xi são linearmente
dependentes, podemos assumir que
xr =
r−1
X
i=1
3
λi xi .
Então temos que
z=
r−1
X
xi ⊗ y i +
i=1
r−1
X
i
λ xi ⊗ y r =
i=1
r−1
X
i
xi ⊗ (yi + λ yr ) =
i=1
r−1
X
xi ⊗ yi0 ,
i=1
contrariando a minimalidade de r. Portanto {xi } é linearmente independente.
De forma análoga mostramos que yi são linearmente independentes.
A seguir mostraremos a existência e a unicidade de aplicações bilineares com a
propriedade universal.
Proposição 1.2.7. Suponha que ⊗1 : E × F → T1 e ⊗2 : E × F → T2 são
aplicações bilineares com a propriedade universal. Então existe um isomorfismo
linear f : T1 → T2 tal que
f (x ⊗1 y) = x ⊗2 y
para todo x ∈ E, y ∈ F .
Demonstração: De fato, pela condição (2) da propriedade universal, temos
aplicações lineares f : T1 → T2 e g : T2 → T1 tais que f (x ⊗1 y) = x ⊗2 y
e g(x ⊗2 y) = x ⊗1 y para todo x ∈ E, y ∈ F . Essas relações implicam que
g(f (x ⊗1 y)) = x ⊗1 y e que f (g(x ⊗2 y)) = x ⊗2 y. A condição (1) da propriedade
universal garante que g ◦ f = id = f ◦ g. Logo f e g são isomorfismos lineares
inversos.
Proposição 1.2.8. Sejam E e F espaços vetoriais. Existe um espaço vetorial T e
uma aplicação bilinear ⊗ : E × F → T tais que ⊗ tem a propriedade universal.
Demonstração: Considere o espaço vetorial livre M (E × F ) (veja A.3.11) gerado
por E × F e N (E, F ) o subespaço de M (E × F ) gerado pelos vetores
(λx1 + µx2 , y) − λ(x1 , y) − µ(x2 , y)
e
(x, λy1 + µy2 ) − λ(x, y1 ) − µ(x, y2 ).
Tome T = M (E ×F )/N (E, F ) e π : M (E ×F ) → T a projeção canônica. Defina
⊗ : E × F → T por x ⊗ y = π(x, y). Como π(λx1 + µx2 , y) = λπ(x1 , y) + µπ(x2 , y),
segue que
(λx1 + µx2 ) ⊗ y = π(λx1 + µx2 , y)
= λπ(x1 , y) + µπ(x2 , y)
= λx1 ⊗ y + µx2 ⊗ y.
De forma análoga mostramos a linearidade em y. Note que todo vetor z ∈ T é uma
soma finita
!
X
z=π
λij (xi , yj ) ,
i,j
4
com xi ∈ E, yj ∈ F . Então
!
X
i,j
λij xi ⊗ yj =
X
λij π(xi , yj ) = π
i,j
X
λij (xi , yj )
=z
i,j
e, portanto, ⊗ satisfaz a condição (1) da propriedade universal.
Considere agora uma aplicação bilinear Ψ : E × F → H, onde H é um espaço
vetorial qualquer. Como {(x, y) | x ∈ E , y ∈ F } forma uma base para M (E × F ),
existe uma aplicação linear g : M (E × F ) → H unicamente determinada tal que
g(x, y) = Ψ(x, y). Da bilinearidade de Ψ segue que N (E, F ) ⊂ ker(g). De fato, se
z = (λx1 + µx2 , y) − λ(x1 , y) − µ(x2 , y)
é um gerador de N (E, F ), então
g(z) = g(λx1 + µx2 , y) − λg(x1 , y) − µg(x2 , y)
= Ψ(λx1 + µx2 , y) − λΨ(x1 , y) − µΨ(x2 , y)
= 0.
Analogamente mostramos que g((x, λy1 + µy2 ) − λ(x, y1 ) − µ(x, y2 )) = 0.
Portanto g induz uma aplicação linear f : M (E × F )/N (E, F ) → H tal que
f ◦ π = g. Em particular,
(f ◦ ⊗)(x, y) = f (π(x, y)) = g(x, y) = Ψ(x, y)
e, então, ⊗ satisfaz a condição (2) da propriedade universal.
Definição 1.2.9. O produto tensorial de dois espaços vetoriais E e F é um par
(T, ⊗) onde ⊗ : E × F → T é uma aplicação bilinear com a propriedade universal.
O espaço T determinado por E e F é chamado de produto tensorial de E e F e
denotado por E ⊗ F . Os elementos de E ⊗ F são chamados de tensores e os tensores
da forma e ⊗ f , com e ∈ E, f ∈ F , são ditos decomponı́veis.
Exemplo 1.2.10. O par (M n×m , β), onde β : Γn × Γm → M n×m é a aplicação
bilinear definida por


ξ 1η1 . . . ξ 1ηm

..  ,
(ξ 1 , . . . , ξ n ) × (η 1 , . . . , η m ) 7→  ...
. 
n 1
n m
ξ η ... ξ η
é o produto tensorial de Γn por Γm .
Mais geralmente, temos o seguinte:
Exemplo 1.2.11. Seja M n1 ×···×nk o conjunto das matrizes k-dimensionais com entradas em um corpo Γ, ou seja, um elemento A de M n1 ×···×nk se escreve como (Figura
1.1)
A = (ξ i1 ...ik ),
5
»
213
»
223
Figura 1.1: Um elemento de M 3×3×3 .
onde ξ i1 ...ik ∈ Γ, com ij = 1, . . . , nj . Com a soma e a multiplicação por escalar
A + B = (ξ i1 ...ik + η i1 ...ik ), λA = (λξ i1 ...ik ), M n1 ×···×nk torna-se um espaço vetorial
sobre Γ.
O par (M n1 ×···×nk ×m1 ×···×ml , ⊗), onde
⊗ : M n1 ×···×nk × M m1 ×···×ml → M n1 ×···×nk ×m1 ×···×ml
é a aplicação bilinear definida por
(ξ i1 ...ik ) × (η j1 ...jl ) 7→ (ξ i1 ...ik η j1 ...jl ),
é o produto tensorial de M n1 ×···×nk e M m1 ×···×ml .
Proposição 1.2.12. Sejam E, F e G espaços vetoriais. Existe um isomorfismo
linear
Φ : L(E ⊗ F ; G) → L(E, F ; G).
Demonstração: Dada f ∈ L(E ⊗ F ; G), seja
Φ(f ) = f ◦ ⊗.
A condição (2) da propriedade universal implica que Φ é sobrejetora, uma vez que
afirma que qualquer aplicação bilinear ψ : E × F → G pode ser fatorada sobre o
produto tensorial, ou seja, pode ser escrita como ψ = f ◦ ⊗.
Suponha que f ◦ ⊗ = 0 para alguma aplicação linear f : E ⊗ F → G. Pela
condição (1) da propriedade universal, E ⊗ F é gerado pelos produtos x ⊗ y, e segue
que f = 0.
Lema 1.2.13. Sejam Eα , α ∈ I e Fβ , β ∈ J duas famı́lias de espaços vetoriais sobre
Γ e seja, para cada par (α, β), (Eα ⊗ Fβ , ⊗) o produto tensorial de Eα e Fβ . Sejam
M
M
M
e=
e=
E
Eα ,
Fe =
Fβ ,
G
Eα ⊗ Fβ ,
α
β
α,β
e × Fe → G
e a aplicação bilinear dada por
e seja ϕ : E
X
ϕ(x̃, ỹ) =
iαβ (πα (x̃) ⊗ πβ (ỹ)),
α,β
e → Eα e πβ : Fe → Fβ são as projeções canônicas e iαβ : Eα ⊗ Fβ → G
e é
onde πα : E
e ϕ) é o produto tensorial de E
e e Fe.
a inclusão canônica. Então (G,
6
Demonstração: A condição (1) da propriedade universal é trivialmente satisfeita,
e se escreve, por definição, como soma de elementos de
pois todo elemento de G
e :E
e × Fe → H uma aplicação bilinear
Eα ⊗ Fβ . Para verificar a condição (2), seja Ψ
qualquer. Defina Ψαβ : Eα × Fβ → H por
e α (x), iβ (y)),
Ψαβ = Ψ(i
e e iβ : Fβ → Fe são as inclusões canônicas. Então Ψαβ induz uma
onde iα : Eα → E
aplicação linear fαβ : Eα ⊗ Fβ → H tal que
Ψαβ (x, y) = fαβ (x ⊗ y),
e → Eα ⊗ Fβ a projeção canônica, defina uma
onde x ∈ Eα e y ∈ Fβ . Sendo παβ : G
e → H por
aplicação linear f : G
X
f=
fαβ ◦ παβ .
α,β
Segue que
!
(f ◦ ϕ)(x̃, ỹ) = f
X
iαβ (πα (x̃) ⊗ πβ (ỹ))
α,β
=
X
fαβ (πα (x̃) ⊗ πβ (ỹ))
α,β
=
X
Ψαβ (πα (x̃), πβ (ỹ))
α,β
!
e
= Ψ
X
iα (πα (x̃)),
α
X
iβ (πβ (ỹ))
β
e ỹ).
= Ψ(x̃,
e
Portanto f ◦ ϕ = Ψ.
Lema 1.2.14. Seja
o produto tensorial dos espaços vetoriais E e F e
L(E ⊗ F, ⊗) L
suponha que E = α Eα e F = β Fβ são decomposições em soma direta. Então
M
E⊗F =
Eα ⊗ Fβ .
α,β
Demonstração: Pela condição (1) da propriedade universal,
E ⊗ F é geradoPpelos
P
produtos da forma x ⊗ y, x ∈ E, y ∈ F . Como x = α xα , xα ∈ Eα e y = β yβ ,
yβ ∈ Fβ , segue que
X
x⊗y =
xα ⊗ y β .
α,β
Isso mostra que E ⊗ F é a soma dos subespaços Eα ⊗ Fβ . Para mostrar que a
decomposição é direta, considere as somas diretas
M
M
M
e=
e=
E
Eα ,
Fe =
Fβ ,
G
Eα ⊗ Fβ
α
β
α,β
7
e as inclusões e projeções canônicas iα , iβ , iαβ , πα , πβ e παβ como no Lema 1.2.13.
e × Fe → G
e é a aplicação bilinear dada por
Então, se ϕ : E
X
ϕ(x̃ ⊗ ỹ) =
iα,β (πα (x̃) ⊗ πβ (ỹ)),
α,β
e ϕ) é o produto tensorial de E
e e Fe.
o Lema 1.2.13 mostrou que o par (G,
e
Considere agora os isomorfismos lineares f : E → E e g : F → Fe definidos por
X
X
f (x) =
iα (xα ),
g(x) =
iβ (yβ ),
α
β
P
P
sendo x = α xα , xα ∈ Eα e y = β yβ , yβ ∈ Fβ , e defina uma aplicação linear
e por
Ψ:E×F →G
Ψ(x, y) = ϕ(f (x), g(y)).
Pela condição (2) da propriedade universal, existe uma aplicação linear h : E ⊗ F →
e tal que
G
h(x ⊗ y) = Ψ(x, y) = ϕ(f (x), g(y)).
Se x ∈ Eλ e y ∈ Fµ para algum (λ, µ) fixo, segue das definições de f , g e ϕ que
h(x ⊗ y) = ϕ(f (x), g(y)) = ϕ(iλ (x), iµ (y))
X
=
iαβ (πα (iλ (x)) ⊗ πβ (iµ (y))) = iλµ (x ⊗ y),
α,β
e isso mostra que h leva cada subespaço Eα ⊗Fβ de E ⊗F no subespaço iαβ (Eα ⊗Fβ )
e Como a decomposição G
e = P iαβ (Eα ⊗ Fβ ) é direta, a decomposição
de G.
α,β
P
E ⊗ F = α,β Eα ⊗ Fβ também o é, ou seja,
M
E⊗F =
(Eα ⊗ Fβ ).
α,β
Proposição 1.2.15. Sejam (aα )α∈I e (bβ )β∈J bases, respectivamente dos espaços
vetoriais E e F . Então (aα ⊗ bβ )α∈I,β∈J é uma base de E ⊗ F .
Demonstração: Sejam Eα L
e Fβ os subespaços
de E e F gerados por aα e bβ
L
respectivamente. Então E = α Eα e F = β Fβ e segue do Lema 1.2.14 que
M
E⊗F =
Eα ⊗ Fβ .
α,β
Mostramos no Corolário 1.2.4 que aα 6= 0 e bβ 6= 0 implica aα ⊗ bβ 6= 0. Por outro
lado, a condição (1) da propriedade universal aplicada a Eα e Fβ implica que Eα ⊗Fβ
é gerado por um único elemento aα ⊗ bβ . Então E ⊗ F é soma direta dos subespaços
gerados pelos produtos aα ⊗ bβ , e, portanto, estes formam uma base para E ⊗ F .
Segue também que, se E e F têm dimensão finita, E ⊗ F tem dimensão finita e
dim(E ⊗ F ) = dim(E) dim(F ).
8
1.3
Aplicações Lineares
Dados E, E 0 , F e F 0 espaços vetoriais, considere ϕ : E → E 0 e ψ : F → F 0
aplicações lineares. Definimos uma aplicação bilinear E × F → E 0 ⊗ F 0 por
(x, y) → ϕ(x) ⊗ ψ(y).
Pela condição (2) da propriedade universal, existe uma única aplicação linear χ :
E ⊗ F → E 0 ⊗ F 0 tal que
χ(x ⊗ y) = ϕ(x) ⊗ ψ(y).
A correspondência (ϕ, ψ) → χ define uma aplicação bilinear
β : L(E; E 0 ) × L(F ; F 0 ) → L(E ⊗ F ; E 0 ⊗ F 0 )
Proposição 1.3.1. A aplicação linear
f : L(E; E 0 ) ⊗ L(F ; F 0 ) → L(E ⊗ F ; E 0 ⊗ F 0 )
induzida pela aplicação β é injetora.
Demonstração: Seja w tal que f (w) = 0. Se w 6= 0 podemos escrever, pela
Proposição 1.2.6,
r
X
w=
ϕi ⊗ ψi ,
i=1
0
0
onde ϕi ∈ L(E; E ) e ψi ∈ L(F ; F ), sendo
P ϕi linearmente independentes e ψi
linearmente independentes. Então f (w) = i β(ϕi , ψi ) e, como f (w) = 0,
r
X
ϕi (x) ⊗ ψi (y) = 0,
(1.1)
i=1
para todo par x ∈ E, y ∈ F .
Tome a ∈ E tal que ϕ1 (a) 6= 0 e seja p ≥ 1 o número máximo de vetores linearmente independentes no conjunto {ϕ1 (a), . . . , ϕr (a)}. Suponha que ϕ1 (a), . . . , ϕp (a)
sejam tais vetores linearmente independentes. Temos
ϕj (a) =
p
X
λji ϕi (a),
i=1
j = p + 1, . . . , r, e, por (1.1),
p
X
ϕi (a) ⊗ ψi (y) +
i=1
r
X
p
X
j=p+1
i=1
!
λji ϕi (a)
⊗ ψj (y) = 0,
ou seja,
p
X
i=1
ϕi (a) ⊗
r
X
!
λji ψj (y) + ψi (y)
j=p+1
9
= 0.
Como os vetores ϕ1 (a), . . . , ϕp (a) são linearmente independentes, segue que
ψi (y) +
r
X
λji ψj (y) = 0,
j=p+1
P
com i = 1, . . . , p, para todo y ∈ F . Isto é, ψi + rj=p+1 λji ψj = 0, contradizendo a
hipótese de que ϕj são linearmente independentes. Portanto, f é injetora.
Corolário 1.3.2. O par (im(β), β) é o produto tensorial de L(E; E 0 ) e L(F ; F 0 ).
Corolário 1.3.3. A aplicação bilinear β : L(E) × L(F ) → L(E ⊗ F ) dada por
β(f, g)(x ⊗ y) = f (x)g(y)
é tal que (im(β), β) é o produto tensorial de L(E) e L(F ).
Corolário 1.3.4. Se E e F têm dimensão finita, os elementos β(ϕ, ψ) geram o
espaço L(E ⊗ F ; E 0 ⊗ F 0 ) e então (L(E ⊗ F ; E 0 ⊗ F 0 ), β) é o produto tensorial de
L(E; E 0 ) e L(F ; F 0 ).
Chamamos β(ϕ, ψ) de produto tensorial das aplicações lineares ϕ e ψ e denotamos β(ϕ, ψ) = ϕ ⊗ ψ. A fórmula χ(x ⊗ y) = ϕ(x) ⊗ ψ(y) lê-se, então
(ϕ ⊗ ψ)(x ⊗ y) = ϕ(x) ⊗ ψ(y).
1.4
Produto Tensorial de p Espaços Vetoriais
Definição 1.4.1. Sejam Ei , i = 1, . . . , p, p espaços vetoriais e
⊗ : E1 × · · · × Ep → T
uma aplicação p linear. Dizemos que ⊗ tem a propriedade universal se satisfaz:
(1) Os vetores x1 ⊗ · · · ⊗ xp geram T ,
(2) Toda aplicação p-linear ϕ : E1 × · · · × Ep → H (H um espaço vetorial qualquer)
pode ser escrita na forma
ϕ(x1 , . . . , xp ) = f (x1 ⊗ · · · ⊗ xp ),
onde f : T → H é linear.
A existência e unicidade de aplicações p-lineares com a propriedade universal são
demonstradas da mesma maneira como no caso p = 2.
Definição 1.4.2. O produto tensorial de p espaços Ei , i = 1, . . . , p, é um par
(T, ⊗) onde ⊗ : E1 × · · · × Ep → T é uma aplicação p-linear com a propriedade
universal. O espaço T é chamado de produto tensorial dos espaços Ei e denotado
por E1 ⊗ · · · ⊗ Ep . Os elementos de E1 ⊗ · · · ⊗ Ep são chamados de tensores e os
tensores do tipo x1 ⊗ · · · ⊗ xp , com xi ∈ Ei são ditos decomponı́veis.
10
Analogamente a Proposição 1.2.12, se H é um espaço vetorial qualquer a correspondência ϕ ↔ f expressa pelo diagrama comutativo
ϕ
E × · · · × Ep
⊗
8/
H
f
E1 ⊗ · · · ⊗ Ep
determina um isomorfismo linear
Φ : L(E1 ⊗ · · · ⊗ Ep ; H) → L(E1 , . . . , Ep ; H).
Proposição 1.4.3. Sejam E1 , E2 e E3 três espaços vetoriais. Existe um isomorfismo
linear f : E1 ⊗ E2 ⊗ E3 → (E1 ⊗ E2 ) ⊗ E3 tal que
f (x ⊗ y ⊗ z) = (x ⊗ y) ⊗ z.
Demonstração: Considere a aplicação 3-linear E1 × E2 × E3 → (E1 ⊗ E2 ) ⊗ E3
dada por
(x, y, z) → (x ⊗ y) ⊗ z.
Pela condição (2) da propriedade universal, existe uma aplicação linear induzida
f : E1 ⊗ E2 ⊗ E3 → (E1 ⊗ E2 ) ⊗ E3 tal que
f (x ⊗ y ⊗ z) = (x ⊗ y) ⊗ z.
Por outro lado, para cada z ∈ E3 fixo existe uma aplicação bilinear βz : E1 ×
E2 × E3 → E1 ⊗ E2 ⊗ E3 definida por
βz (x, y) = x ⊗ y ⊗ z,
que induz uma aplicação linear gz : E1 ⊗ E2 → E1 ⊗ E2 ⊗ E3 tal que
gz (x ⊗ y) = x ⊗ y ⊗ z.
Defina Ψ : (E1 ⊗ E2 ) × E3 → E1 ⊗ E2 ⊗ E3 por Ψ(u, z) = gz (u), onde u ∈ E1 ⊗ E2 ,
z ∈ E3 . Então Ψ induz uma aplicação linear
g : (E1 ⊗ E2 ) ⊗ E3 → E1 ⊗ E2 ⊗ E3
tal que Ψ(u, z) = g(u ⊗ z), u ∈ E1 ⊗ E2 , z ∈ E3 .
Temos então que
g((x ⊗ y) ⊗ z) = Ψ(x ⊗ y, z) = gz (x ⊗ y) = x ⊗ y ⊗ z
e, pela definição de f , f (g((x ⊗ y) ⊗ z)) = (x ⊗ y) ⊗ z, mostrando que f é um
isomorfismo linear e g seu inverso.
Da mesma maneira construimos um isomorfismo linear h : E1 ⊗ E2 ⊗ E3 →
E1 ⊗ (E2 ⊗ E3 ) tal que h(x ⊗ y ⊗ z) = x ⊗ (y ⊗ z). Assim, h ◦ f −1 é um isomorfismo
entre (E1 ⊗ E2 ) ⊗ E3 e E1 ⊗ (E2 ⊗ E3 ) com h ◦ f −1 ((x ⊗ y) ⊗ z) = x ⊗ (y ⊗ z).
11
Mais geralmente, se Ei , i = 1, . . . , p + q são p + q espaços vetoriais, existe
exatamente um isomorfismo
f : (E1 ⊗ · · · ⊗ Ep ) ⊗ (Ep+1 ⊗ · · · ⊗ Ep+q ) → E1 ⊗ · · · ⊗ Ep+q
tal que
f ((x1 ⊗ · · · ⊗ xp ) ⊗ (xp+1 ⊗ · · · ⊗ xp+q )) = x1 ⊗ · · · ⊗ xp+q ,
e segue que há uma única aplicação bilinear
β : (E1 ⊗ · · · ⊗ Ep ) × (Ep+1 ⊗ · · · ⊗ Ep+q ) → E1 ⊗ · · · ⊗ Ep+q
tal que
β(x1 ⊗ · · · ⊗ xp , xp+1 ⊗ · · · ⊗ xp+q ) = x1 ⊗ · · · ⊗ xp+q
e que o par (E1 ⊗· · ·⊗Ep+q , β) é o produto tensorial de E1 ⊗· · ·⊗Ep e Ep+1 ⊗· · ·⊗Ep+q .
A teoria para o caso p = 2 se estende ao caso geral, então, de maneira natural.
Em particular, se (aiν ) é uma base para Ei , i = 1, . . . , p, os produtos a1ν1 ⊗ · · · ⊗ apνp
formam uma base para E1 ⊗ · · · ⊗ Ep , e, se os espaços Ei têm dimensão finita,
dim(E1 ⊗ · · · ⊗ Ep ) = dim(E1 ) . . . dim(Ep ).
1.5
Espaços Duais
Proposição 1.5.1. Sejam E, E 0 , E 00 e F , F 0 , F 00 espaços vetoriais sobre Γ e
ϕ : E × E 0 → E 00 ,
ψ : F × F 0 → F 00
aplicações bilineares. Então existe exatamente uma aplicação bilinear χ : (E ⊗ F ) ×
(E 0 ⊗ F 0 ) → E 00 × F 00 tal que
χ(x ⊗ y, x0 ⊗ y 0 ) = ϕ(x, x0 ) ⊗ ψ(y, y 0 ),
com x ∈ E, x0 ∈ E 0 , y ∈ F , y 0 ∈ F 0 .
Demonstração: Como E ⊗ F e E 0 ⊗ F 0 são gerados pelos produtos x ⊗ y e x0 ⊗ y 0
respectivamente, fica claro que se χ existe ela é unicamente determinada por ϕ e ψ.
Para mostrar a existência de χ, considere as aplicações lineares
f : E ⊗ E 0 → E 00 ,
g : F ⊗ F 0 → F 00
induzidas, respectivamente, por ϕ e ψ. Então f ⊗ g : (E ⊗ E 0 ) ⊗ (F ⊗ F 0 ) → E 00 ⊗ F 00
é linear. Tome S : (E ⊗ F ) ⊗ (E 0 ⊗ F 0 ) → (E ⊗ E 0 ) ⊗ (F ⊗ F 0 ) o isomorfismo linear
definido por
S (x ⊗ y) ⊗ (x0 ⊗ y 0 ) = (x ⊗ x0 ) ⊗ (y ⊗ y 0 )
e defina χ(u, v) = (f ⊗ g)S(u ⊗ v) onde u ∈ E ⊗ F , v ∈ E 0 ⊗ F 0 . Segue que
χ(x ⊗ y, x0 ⊗ y 0 ) = (f ⊗ g)((x ⊗ x0 ) ⊗ (y ⊗ y 0 ))
= f (x ⊗ x0 ) ⊗ g(y ⊗ y 0 )
= ϕ(x, x0 )ψ(y, y 0 ).
12
Isso termina a demonstração.
Denotaremos χ por ϕ ⊗ ψ. Em particular, todo par de funções bilineares
Φ : E × E 0 → Γ,
Ψ : F × F0 → Γ
induz uma função bilinear Φ ⊗ Ψ : (E ⊗ F ) × (E 0 ⊗ F 0 ) → Γ tal que
(Φ ⊗ Ψ)(x ⊗ y, x0 ⊗ y 0 ) = Φ(x, x0 )Ψ(y, y 0 ).
Suponha, agora, que E ∗ e F ∗ são os duais de E e F e sejam ambos os produtos
escalares denotados por h·, ·i. O resultado acima mostra que existe exatamente uma
função bilinear h·, ·i : (E ∗ ⊗ F ∗ ) × (E ⊗ F ) → Γ tal que
hx∗ ⊗ y ∗ , x ⊗ yi = hx∗ , xihy ∗ , yi.
Em outras palavras, se E ∗ e F ∗ são os duais de E e F , a dualidade entre E ∗ ⊗ F ∗
e E ⊗ F é induzida.
Sejam Ei∗ , Ei , i = 1, . . . , p, pares de duais onde todos os produtos escalares são
denotados por h·, ·i. Como no caso p = 2, um produto escalar entre E1∗ ⊗ · · · ⊗ En∗
e E1 ⊗ · · · ⊗ En tal que
hx1 ⊗ · · · ⊗ xn , x1 ⊗ · · · ⊗ xn i = hx1 , x1 i . . . hxn , xn i,
onde xi ∈ Ei∗ e xi ∈ Ei , é induzido.
1.6
Álgebra Tensorial
N
Definição 1.6.1. Seja E um espaço vetorial e p ≥ 2. O par ( p (E), ⊗p ), onde
O
p
(E) = E
· · ⊗ E}
| ⊗ ·{z
p
N
é chamado de p-ésima potência tensorial de E e os elementos de p (E) são ditos
tensores de grau p ou p-tensores.
N
0 (E) = Γ e
N Estendemos a definição para os casos p = 0 e p = 1 colocando
1 (E) = E.
Tensores da forma x1 ⊗ · · · ⊗ xp , p ≥ 1, e tensores de grau zero são chamados de
decomponı́veis.
Para todo p e q há uma única aplicação bilinear
O
O
O
β:
(E) ×
(E) →
(E)
p
q
p+q
tal que
β(x1 ⊗ · · · ⊗ xp , xp+1 ⊗ · · · ⊗ xp+q ) = x1 ⊗ · · · ⊗ xp+q
13
N
N
N
e, além disso, o par ( p+q (E), β) é o produto tensorial de p (E) e q (E), como
mostramos na Seção 1.4. Escreveremos, portanto, u ⊗ v ao invés de β(u, v). Assim,
temos
(x1 ⊗ · · · ⊗ xp ) ⊗ (xp+1 ⊗ · · · ⊗ xp+q ) = x1 ⊗ · · · ⊗ xp+q .
(1.2)
O tensor u ⊗ v é chamado de produto dos tensores u e v. O produto (1.2) é
associativo, como segue de sua definição, mas não é comutativo (exceto para o caso
dim E = 1). De fato, se x, y ∈ E são linearmente independentes, os produtos x ⊗ y
e y ⊗ x também o são, e logo, x ⊗ y 6= y ⊗ x.N
N
Note
que
o
produto
λ
⊗
x,
onde
λ
∈
(E)
=
Γ
e
x
∈
0
p (E), é o vetor
N
λx ∈ p (E) obtido pela multiplicação de x pelo escalar λ.
Segue também do que consideramos na Seção 1.4 que,
N se (eν )ν∈N é uma base
de E, os produtos eν1 ⊗ · · · ⊗ eνp formam uma base de p (E). Em particular, se
dim E = n < ∞, e (ei) é umabase de E, os produtos ei1 ⊗ · · · ⊗ eip formam uma
N
N
N
p
base de p (E) e dim
p (E) = n . Nesse caso, todo tensor x ∈
p (E) pode ser
escrito unicamente como
X
λi1 ...ip ei1 ⊗ · · · ⊗ eip ,
x=
i1 ,...,ip
onde ij = 1, . . . , n para todo j = 1, . . . , p.
Os coeficientes λi1 ...ip são chamados de componentes de x em relação à base (ei ).
Definição 1.6.2. Seja (A, +, ·, Γ) um espaço vetorial e : A × A → A. Dizemos
que (A, +, , ·, Γ) é uma álgebra sobre Γ se satisfaz, para todo x, y, z ∈ E e para
todo λ, µ ∈ Γ,
(1) (x + y) z = x z + y z,
(2) x (y + z) = x y + x z,
(3) (λ · x) (µ · y) = (λµ) · (x y).
Quando é associativa, dizemos que a álgebra A é uma álgebra associativa sobre
Γ.
Definição 1.6.3. Uma álgebra graduada é uma álgebra sobre um corpo (A, +, , ·, Γ)
que admite uma decomposição em soma direta
M
A=
Ak
k
tal que o produto satisfaz {xk xl | xk ∈ Ak , xl ∈ Al } ⊂ Ak+l .
Definição 1.6.4. Sejam (A1 , +1 , 1 , ·1 , Γ) e (A2 , +2 , 2 , ·2 , Γ) álgebras sobre Γ e
ϕ : A1 → A2 uma bijeção. Dizemos que ϕ é um isomorfismo entre as álgebras A1 e
A2 se ϕ satisfaz
(1) ϕ(λ ·1 a) = λ ·2 ϕ(a),
(2) ϕ(a +1 b) = ϕ(a) +2 ϕ(b),
14
(3) ϕ(a 1 b) = ϕ(a) 2 ϕ(b).
para todo a, b ∈ A1 , λ ∈ Γ.
N
Seja ( p (E), ⊗p ) a p-ésima potência tensorial de E, e considere a soma direta
!
∞
O
M
O
(E) =
(E) .
p=0
p
N
N
Os elementos de (E) são as sequências do tipo (u0 , u1 , . . . ) com up ∈ p (E) onde
apenas
finito
N um número
N
N de up são não nulos. Definindo uma aplicação bilinear
: (E) × (E) → (E) por
X
uv =
up ⊗ vq ,
p,q
N
P
P
N
onde u, v ∈
(E), u =
(E), +, , ·, Γ) é uma
p up , v =
q vq , temos que (
álgebra graduada associativa.
N
Definição 1.6.5. A quı́ntupla ( (E), +, , ·, Γ) é chamada de álgebra tensorial
sobre o espaço vetorial E.
E e E ∗ são duais com relação ao produto escalar h·, ·i e considere
N Suponha
N que
∗
(E) e (E ) N
as álgebras
sobre E e E ∗ . De acordo com a Seção 1.5,
Ntensoriais
é induzido entre p (E) e p (E ∗ ), para cada p ≥ 1, um único produto escalar tal
que
hx1 ⊗ · · · ⊗ xp , x1 ⊗ · · · ⊗ xp i = hx1 , x1 i . . . hxp , xp i,
N
N
com xi ∈ i (E ∗ ), xi ∈ i (E). Estendemos a definição para p = 0 colocando
hλ, µi = λµ,
N
com λ, µ ∈ 0 (E) = Γ.
N
N
∗
Os produtos escalares entre
p (E ) e
p (E) assim definidos
N ∗ podem
N ser estendidos de maneira única a um produto escalar h·, ·i entre (E ) e (E), dado
por
X
hu∗ , vi =
hup , vp i,
p
∗
P
p
P
onde u = p u e v = p vp .
Se E tem dimensão finita e (ei ), (ei ) são bases para E e E ∗ respectivamente, então
o produto escalar entre os vetores das bases induzidas ei1 ⊗ · · · ⊗ eip e ej1 ⊗ · · · ⊗ ejp
é dado por
j
hej1 ⊗ · · · ⊗ ejp , ei1 ⊗ · · · ⊗ eip i = δij11 . . . δipp
Essa fórmula mostra que as bases (ei1 ⊗ · · · ⊗ eip ) e (ej1 ⊗ · · · ⊗ ejp ) são duais e que
o produto escalar entre dois tensores
X
X
u=
λi1 ...ip ei1 ⊗ · · · ⊗ eip ,
u∗ =
µj1 ...jp ej1 ⊗ · · · ⊗ ejp
i1 ,...,ip
j1 ,...,jp
15
é dado por
hu∗ , ui =
X
λi1 ...ip µi1 ...ip .
i1 ,...,ip
Caso E seja um espaço vetorial e E ∗ o seu dual, denotaremos a partir de agora,
por simplicidade,
as k-ésimas potências
tensoriais de E e E ∗ respectivamente por
N
Nk
N
(E). Os tensores em k (E) são chamados de tensores contravariantes
k (E) e
N
de grau k sobre E e aqueles em k (E) de tensores covariantes de grau k sobre E.
1.7
Tensores Mistos
Definição 1.7.1. Seja E um espaço vetorial e E ∗ o seu dual. Para cada par (p, q),
p ≥ 1, q ≥ 1, definimos
!
!
p
p
O
O
O
(E) ⊗
(E) .
(E) =
q
q
Estendemos a definição para os casos p = 0 e q = 0 colocando
p
p
O
O
(E) =
(E),
0
O
0
(E) =
q
O
(E).
q
Np
Os elementos de
q (E) são chamados tensores mistos sobre o E e são ditos homogêneos
de
bigrau
(p, q). O número p + q é chamado de grau total. Um tensor
Np
ω ∈ q (E) da forma
ω = x1 ⊗ · · · ⊗ xp ⊗ x1 ⊗ · · · ⊗ xq ,
onde xi ∈ E ∗ e xi ∈ E, é chamado de decomponı́vel.
∗
Pelo que vimos
Np na Seção
Nq 1.5, o produto escalar entre E e E induz um produto
escalar entre q (E) e p (E) determinado por
hu∗ ⊗ v, v ∗ ⊗ ui = hu∗ , uihv ∗ , vi.
N
N
Portanto, quaisquer dois espaços pq (E) e qp (E) são duais.
A seguir faremos a construção do produto tensorial de álgebras para, em seguida
definirmos a álgebra tensorial mista.
Definição 1.7.2. Seja A uma álgebra. O produto : A × A → A determina uma
aplicação linear µA : A ⊗ A → A tal que
µA (x ⊗ y) = x y,
chamada de aplicação estrutural.
16
Reciprocamente, se A é um espaço vetorial e µA : A ⊗ A → A é uma aplicação
linear, uma multiplicação em A é induzida por
x y = µA (x ⊗ y)
e, então, A se torna uma álgebra. Isso mostra que há uma bijeção entre os produtos
de A e as aplicações lineares µA : A ⊗ A → A.
Sejam A e B álgebras com aplicações estruturais µA e µB respectivamente, e seja
S : (A ⊗ B) ⊗ (A ⊗ B) → (A ⊗ A) ⊗ (B ⊗ B) o operador definido por
S(x1 ⊗ y1 ⊗ x2 ⊗ y2 ) = x1 ⊗ x2 ⊗ y1 ⊗ y2 .
Então uma aplicação linear µA⊗B : (A ⊗ B) ⊗ (A ⊗ B) → A ⊗ B dada por
µA⊗B = (µA ⊗ µB ) ◦ S
determina uma estrutura de álgebra em A ⊗ B.
Definição 1.7.3. A álgebra A ⊗ B como construı́mos acima é chamada de produto
tensorial canônico das álgebras A e B.
Perceba que o produto em A ⊗ B satisfaz
(x1 ⊗ y1 ) (x2 ⊗ y2 ) =
=
=
=
=
µA⊗B (x1 ⊗ y1 ⊗ x2 ⊗ y2 )
µA ⊗ µB (S(x1 ⊗ y1 ⊗ x2 ⊗ y2 ))
µA ⊗ µB (x1 ⊗ x2 ⊗ y1 ⊗ y2 )
µA (x1 ⊗ x2 ) ⊗ µB (y1 ⊗ y2 )
x1 x2 ⊗ y1 y2 .
Assim, o produto tensorial canônico de duas álgebras associativas é associativo e, se
os elementos unidade de A e B são, respectivamente IA e IB , o elemento unidade
de A ⊗ B é IA ⊗ IB .
Definição 1.7.4. A álgebra tensorial mista sobre N
o par de N
espaços vetoriais E ∗ e
E é N
o produto tensorial canônico entre as álgebras (E ∗ ) e (E) e será denotada
por (E ∗ , E). Ou seja,
O
O
O
(E ∗ , E) =
(E ∗ ) ⊗
(E).
Tome
ip :
p
O
O
(E) →
(E ∗ ),
iq :
O
O
(E) →
(E),
q
p
ipq :
O
(E) →
O
(E ∗ , E)
q
N
N
N
as inclusões canônicas e identifique os espaços p (E), q (E) e pq (E) com suas
respectivas imagens por essas inclusões. Temos então a decomposição
!
p
O
M O
O
(E ∗ , E) =
(E) ⊗
(E) .
p,q
q
17
Se E tem dimensão finita n e (ei ), (ej ), com i, j = 1, . . . , n, são bases de E ∗ e E
respectivamente, então os produtos
i ...i
ej11 ...jpq = ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq
formam uma base de
Np
q (E),
logo, todo tensor w ∈
w=
X
j ...j
Np
q (E)
pode ser escrito como
i ...i
λi11...ipq ej11 ...jpq .
i1 ,...,ip ,j1 ,...,jq
Considere agora p ≥ 1, q ≥ 1, (k, l) um par fixo com 1 ≤ k ≤ p, 1 ≤ l ≤ q, e a
aplicação (p + q)-linear
Φkl
∗
∗
· · × E} →
:E
· · × E} × E
| × ·{z
| × ·{z
p
q
p−1
O
(E)
q−1
dada por
Φkl (x1 , . . . , xp , x1 , . . . , xq ) = hxk , xl ix1 ⊗ · · · ⊗ xbk ⊗ · · · ⊗ xp ⊗ x1 ⊗ · · · ⊗ xbl ⊗ · · · ⊗ xq ,
onde xbk , xbl indicam a omissão de xk , xl .
Definição 1.7.5. Pela propriedade universal, Φkl determina uma única aplicação
linear
p
p−1
O
O
k
Cl :
(E) →
(E).
q
q−1
chamada de operador contração com respeito a (k, l). O tensor Φkl (w) é chamado de
contração de w com respeito a (k, l).
Note que, em particular, C11 (x∗ ⊗ x) = hx∗ , xi.
1.8
Álgebra das Funções Multilineares
Definição 1.8.1. Seja (E, +, ·, Γ) um espaço vetorial, com dim(E) = n < ∞. Para
cada p ≥ 1, denotamos por T p (E) o espaço das funções p-lineares
f : E × · · · × E → Γ.
Estendemos a definição para p = 0 colocando T 0 (E) = Γ.
Definição 1.8.2. O produto de uma função p-linear f ∈ T p (E) por uma função
q-linear g ∈ T q (E) é a função p + q-linear dada por
(f g)(x1 , . . . , xp+q ) = f (x1 , . . . , xp )g(xp+1 , . . . , xp+q ).
18
O conjunto
T • (E) =
∞
M
T p (E)
p=0
munido da multiplicação acima definida torna-se uma álgebra graduada associativa,
pela seguinte proposição:
N
Proposição 1.8.3. Os espaços T p (E) e p (E) são isomorfos.
Demonstração: Considere a aplicação p-linear
ϕ : |E ∗ × ·{z
· · × E}∗ → T p (E)
p
dada por
ϕ(f1 , . . . , fp ) = f1 · · · fp ,
onde fi ∈ E ∗ . Mostremos que ϕ tem a propriedade universal.
Fixe (e1 , . . . , en ) uma base de E e seja (e1 , . . . , en ) a base dual. Então os produtos
da forma ei1 ...ip = ei1 · · ·eip , onde ij = 1, . . . , n, formam uma base para P
T p (E). De
p
fato, Se f ∈ T (E), como todo vetor x ∈ E pode ser escrito na forma x = i ei (x)ei ,
temos que
!
X
X
f (x1 , . . . , xp ) = f
ei (x1 )ei , . . . ,
ei (xp )ei
i
=
X
i
i1
ip
e (x1 ) . . . e (xp )f (ei1 , . . . , eip ),
i1 ,...,ip
que nos dá a equação
f=
X
f (ei1 , . . . , eip )ei1 · · · eip
i1 ,...,ip
e, portanto, os produtos ei1 · · · eip geram T p (E). Se
X
λi1 ...ip ei1 · · · eip = 0,
i1 ,...,ip
então
X
λi1 ...ip hei1 , x1 i . . . heip , xp i = 0
i1 ,...,ip
para todo xi ∈ E. Fixando (j1 , . . . , jp ) e colocando xi = eji , a relação acima implica
λj1 ...jp = 0. Logo os produtos ei1 · · · eip formam uma base para T p (E), e
dim(T p (E)) = np . Pela generalização do Corolário 1.3.4 para o produto tensorial de
p espaços vetoriais, segue que ϕ tem a propriedade
universal.
Np
Considere, então, a aplicação linear α :
(E) → T p (E) induzida por ϕ. Temos
o seguinte diagrama comutativo:
19
ϕ
E∗ × · · · × E∗
⊗p
/
7
T p (E)
α
Np (E)
Em particular, α(ei1 ⊗ · · · ⊗ eip ) = ei1 · · · eip . Como os produtos ei1 · · · eip
formam uma base de T p (E), segue que α é um isomorfismo. Por fim, note que
α(u∗ ⊗ v ∗ ) = α(u∗ ) α(v ∗ ),
portanto α é um isomorfismo de álgebras.
Considerando Tp (E) p ≥ 1 o espaço das funções p-lineares f : E ∗ × · · · × E ∗ → Γ,
considerando T0 (E) = Γ, e aplicando os resultados acima, obtemos uma multiplicação entre os espaços Tp (E), que faz de
T• (E) =
∞
M
Tp (E)
p=0
uma álgebra associativa.
Os espaços T p (E) e Tp (E) são duais com relação ao produto
X
hf, gi =
f (ei1 , . . . , eip )g(ei1 , . . . , eip )
i1 ,...,ip
N
N
pois este é preservado via os isomorfismos p (E) → T p (E) e p (E) → Tp (E).
Esses isomorfismos nos fornecem uma maneira um pouco mais concreta de encarar o produto tensorial. Essencialmente isto se dá pois as operações num espaço
vetorial abstrato E são adimitidas axiomaticamente, enquanto conseguimos explicitar as operações em E ∗ . Por esse motivo, mais o fato de que as construções
envolvendo E ∗ nos serão mais necessárias nos próximos capı́tulos
do que as consNp
truções
envolvendo E, a partir daqui, trabalharemos com
(E) via o isomorfismo
Np
(E) ∼
= T p (E) e com a identificação ⊗ ≡ . Ou seja, definindo, para f ∈ T p (E),
g ∈ T q (E),
f ⊗ g(x1 , . . . , xp+q ) = f (x1 , . . . , xp )g(xp+1 , . . . , xp+q ).
1.9
Tensores Alternados
Esta seção introduz os tensores alternados. Estes nos permitem definir as formas
diferenciais, que serão os integrandos no Teorema de Stokes.
N
Definição 1.9.1. Seja E um espaço vetorial sobre Γ e f ∈ k (E). O tensor f é
dito alternado se
f (x1 , . . . , xk ) = 0
quando xi = xj , para algum par (i, j), i, j = 1, . . . , k.
20
Definição 1.9.2. Seja E um espaço vetorial e f ∈
anti-simétrico se
Nk
(E). O tensor f é dito
f (x1 , . . . , xi , . . . , xj , . . . , xk ) = −f (x1 , . . . , xj , . . . , xi , . . . , xk ),
para quaisquer x1 , . . . , xk ∈ E.
Proposição 1.9.3. Um tensor f ∈
simétrico.
Nk
(E) é alternado se, e somente se, é anti-
Demonstração: Escrevamos, por simplicidade,
f (x1 , . . . , xi , . . . , xj , . . . , xk ) = ϕ(xi , xj ).
Então, se f é alternado,
0 = ϕ(xi + xj , xi + xj ) = ϕ(xi , xi ) + ϕ(xi , xj ) + ϕ(xj , xi ) + ϕ(xj , xj )
= ϕ(xi , xj ) + ϕ(xj , xi )
e, então f é anti-simétrico. Reciprocamente, se f é anti-simétrico, ϕ(xi , xi ) =
−ϕ(xi , xi ), que implica 2ϕ(xi , xi ) = 0, e f é alternado.
V
N
Indicaremos o subespaço de k (E) dos tensores k-lineares alternados por k (E).
V
Proposição 1.9.4. Seja f ∈ k (E). Se x1 , . . . , xk ∈ E são linearmente dependentes, então f (x1 , . . . , xk ) = 0.
Demonstração: Como x1 , . . . , xk ∈ E são linearmente dependentes, ao menos um
deles, xi , se escreve como combinação linear dos anteriores. Ou seja
X
xi =
λj xj .
j<i
Segue que
!
f (x1 , . . . , xk ) = f
x1 , . . . ,
X
λj xj , . . . , xk
j<i
=
X
λj f (x1 , . . . , xj , . . . , xj , . . . , xk ) = 0,
j<i
e terminamos.
Corolário 1.9.5. Se dim(E) < k, então
Vk
(E) = {0}.
Definição 1.9.6. Seja A um conjunto. Uma permutação de A é uma bijeção σ :
A → A.
21
Em vista da definição acima, cada permutação σ admite uma inversa σ −1 dada
por
σ −1 (y) = x ⇔ σ(x) = y,
e temos σ −1 ◦ σ = σ ◦ σ −1 = id.
Como ◦ é associativa, segue que o conjunto das permutações de um conjunto
A com a operação ◦ constitui um grupo, que indicaremos por S(A). Em especial,
denotaremos S({1, . . . , k}) por Sk . Adotaremos também o costume de denotar a
operação ◦ por justaposição.
Definição 1.9.7. Uma permutação τ ∈ Sk chama-se uma transposição quando
existem a, b ∈ N, a, b ≤ k, tais que τ (a) = b, τ (b) = a e τ (i) = i para todo
i ∈ {1, . . . , k} \ {a, b}.
Claramente, se τ é transposição, τ 2 = id.
Lema 1.9.8. Toda permutação σ ∈ Sk pode ser escrita como um produto τ1 . . . τl
de transposições com a paridade de l única.
Como a paridade de l em σ = τ1 . . . τl é única, fazemos a seguinte definição:
Definição 1.9.9. Seja σ ∈ Sk . Dizemos que σ é par se esta se escreve como um
produto de um número par de transposições. Caso contrário, dizemos que σ é ı́mpar.
Definimos ainda
1 se σ é par,
sig(σ) =
−1 se σ é ı́mpar.
Uma permutação σ ∈ Sk induz um homomorfismo
k
k
O
O
σ:
(E) →
(E)
definido por
(σf )(x1 , . . . , xk ) = f (xσ(1) , . . . , xσ(k) ).
É imediato verificar que σf é, de fato, k-linear, e que o operador σ é linear.
N
Proposição 1.9.10. Sejam σ, ρ ∈ Sk e seja f ∈ k (E). Então
σ(ρf ) = (σρ)f.
Demonstração: Dados x1 , . . . , xk ∈ E, escrevamos wi = xσ(i) , i = 1, . . . , k. Então
wρ(i) = xσρ(i) e temos
σ(ρf )(x1 , . . . , xk ) =
=
=
=
e terminamos.
(ρf )(w1 , . . . , wk )
f (wρ(1) , . . . , wρ(k) )
f (xσρ(1) , . . . , xσρ(k) )
((σρ)f )(x1 , . . . , xk ),
22
N
Em particular, para quaisquer
σN
∈ Sk , f ∈ k (E), temos σ −1 (σf ) = (σ −1 σ)f =
Nk
f . O homomorfismo σ :
(E) → k (E) é, portanto, invertı́vel, sendo seu inverso
induzido por σ −1 .
Como vimos no Lema 1.9.8, toda
Nk permutação se escreve como um produto de
transposições. Sendo assim, f ∈
(E) é alternado se, e somente se, para toda
permutação σ ∈ Sk vale
f (xσ(1) , . . . , xσ(k) ) = sig(σ)f (x1 , . . . , xk ).
V
Em outras palavras, f ∈ k (E) se, e somente se, f é k-linear e f = sig(σ)σf para
toda σ ∈ Sk . De fato, se f é alternado e τ ∈ Sk é uma transposição, temos τ f = −f ,
ou seja, f = sig(τ )τ f . Como toda permutação é um produto de transposições, temos
σf = (τ1 . . . τn )f = τ1 (. . . (τn f )) = (−1)n f = sig(σ)f.
Reciprocamente, se f = sig(σ)σf para toda σ ∈ Sk , em particular τ f = −f para
toda transposição τ , e portanto f é alternado.
N
V
Definição 1.9.11. Definimos a projeção alt : k (E) → k (E) por
alt(f ) =
1 X
sig(σ)σf.
k! σ∈S
k
Usaremos no decorrer dessa seção o fato que, fixada ρ ∈ Sk , a aplicação σ → ρσ
é uma bijeção em Sk , ou seja, vale
X
X
sig(σρ)σρf = k! alt(f ).
sig(σ)σf =
σ∈Sk
σ∈Sk
Lema 1.9.12. Seja f ∈
Nk
(E). Então
(1) alt(f ) é alternado,
(2) f é alternado se, e somente se, alt(f ) = f ,
(3) se existe uma permutação ı́mpar ρ ∈ Sk tal que ρf = f , então alt(f ) = 0.
Demonstração: Para qualquer permutação ρ ∈ Sk temos
!
X
1
sig(σ)σf
ρ(alt(f )) = ρ
k! σ∈S
k
1 X
=
sig(σ)ρσf
k! σ∈S
k
1 X
sig(ρσ)ρσf
= sig(ρ)
k! σ∈S
k
= sig(ρ) alt(f )
e, portanto alt(f ) é alternado.
23
V
Para demonstrar (2) note que, se f ∈ k (E) então sig(σ)f = σf para toda
σ ∈ Sk , de modo que alt(f ) = f . Reciprocamente, se alt(f ) = f então f é alternado,
pela parte (1).
Por fim, se tivermos ρf = f com sig(ρ) = −1, então
X
X
alt(f ) =
sig(σ)σρf = −
sig(σρ)σρf = − alt(f )
σ∈Sk
σ∈Sk
e, portanto, alt(f ) = 0.
Proposição 1.9.13. Seja E um espaço vetorial sobre Γ, f 1 , . . . , f k ∈ E ∗ e σ ∈ Sk .
Vale
σ −1 (f 1 ⊗ · · · ⊗ f k ) = f σ(1) ⊗ · · · ⊗ f σ(k) .
Demonstração: Dados v1 , . . . , vk ∈ E, por definição temos
σ −1 (f 1 ⊗ · · · ⊗ f k )(v1 , . . . , vk ) = f 1 ⊗ · · · ⊗ f k (vσ−1 (1) , . . . , vσ−1 (k) )
= f 1 (vσ−1 (1) ) . . . f k (vσ−1 (k) ).
Nesse último produto, o fator que possui ı́ndice superior σ(i) é f σ(i) (vi ). Alterando
a ordem dos produtos,
σ −1 (f 1 ⊗ · · · ⊗ f k )(v1 , . . . , vk ) = f σ(1) (v1 ) ⊗ · · · ⊗ f σ(k) (vk )
= f σ(1) ⊗ · · · ⊗ f σ(k) (v1 , . . . , vk ).
Isso termina a demonstração.
Definição 1.9.14. Seja k ∈ N. Uma k-upla I = (i1 , . . . , ik ), onde ij ∈ N, é chamada
de ı́ndice múltiplo de comprimento k. Caso i1 < · · · < ik , I é um ı́ndice múltiplo
crescente de comprimento k. Dada uma permutação σ ∈ Sk , definimos
Iσ = (iσ(1) , . . . , iσ(k) ).
Os ı́ndices múltiplos nos permitem uma maior simplicidade na notação. Sendo
E um espaço vetorial de dimensão n sobre Γ, (ei ) uma base ordenada
de E ∗ e
V
k
(E) por
I = (i1 , . . . , ik ) um ı́ndice múltiplo de comprimento k, definimos eI ∈
eI = k! alt(ei1 ⊗ · · · ⊗ eik ).
(1.3)
ON
coeficienteVk! é utilizado apenas para anular o coeficiente na definição de
alt : k (E) → k (E). Coeficiente este que, a menos desse caso, simplifica nossa
notação.
Se I e J são ı́ndices múltiplos, generalizamos a notação δij para ı́ndices múltiplos
colocando

se I e J não têm entradas repetidas


sig(σ)


e J = Iσ , para alguma σ ∈ Sk ,

δIJ =


se I ou J têm entradas repetidas


 0
ou se J não é permutação de I.
24
Lema 1.9.15. Seja E um espaço vetorial de dimensão n, (ei ) uma base de E e (ei )
a base dual a (ei ).
(1) Se I tem alguma entrada repetida, então eI = 0,
(2) Se J = Iσ para alguma σ ∈ Sk , então eI = sig(σ)eJ ,
(3) eI (ej1 , . . . , ejk ) = eI (eJ ) = δJI .
Teorema 1.9.16. Seja E um espaço vetorial de dimensão n < ∞ sobre Γ, (ei ) uma
base de E ∗ e
k
^
ϕ = alt ◦ ⊗ : E ∗ × · · · × E ∗ → (E).
Então ϕ é alternada e os tensores da forma eJ = k!ϕ(ej1 , . . . , ejk ), onde J =
(j1 ,V
. . . , jk ) é um ı́ndice múltiplo crescente com ji ∈ {1, . . . , n}, formam uma base
de k (E). Em particular,
! k
^
n
n!
dim
(E) =
=
.
k
k!(n − k)!
Demonstração: Tome f 1 , . . . , f k ∈ E ∗ com f i = f j para algum i 6= j. Considerando a transposição τ ∈ Sk tal que τ (i) = j, temos, pela fórmula 1.3, que
τ (f 1 ⊗ · · · ⊗ f k ) = f 1 ⊗ · · · ⊗ f k .
Como sig(τ ) = −1, segue pelo Lema 1.9.12, que ϕ(f 1 , . . . , f k ) = alt(f 1 ⊗ · · · ⊗ f k ) =
0. Logo ϕ é k-linear alternada.
Para demonstrar a segunda parte,Nrecordemos que os produtos ei1 ⊗N· · · ⊗ eik ,
k
k
(E) →
(E). Como a imagem de alt :
ij = 1, . . . , n, formam uma base de
V
Vk
Vk
k
i1
ik
(E). Além
(E) é todo o
(E), segue que os tensores k!ϕ(e , . . . , e ) geram
disso, como ϕ é alternada, se a sequência i1 , . . . , ik possui elementos repetidos,
ϕ(ei1 , . . . , eik ) = alt(ei1 ⊗ · · · ⊗ eik ) = 0.
Como ϕ(v1 , . . . , vk ) no máximo muda de sinal quando alteramos a ordem de suas
variáveis, concluı́mos que os tensores da forma eJ = k!ϕ(ej1 , . . . , ejk ), onde J =
(j1 , . . .V, jk ) é um ı́ndice múltiplo crescente com ji ∈ {1, . . . , n}, são suficientes para
gerar k (E). Resta mostrar que estes são linearmente independentes.
Ora, temos que
X
eJ = k! alt(ej1 ⊗ · · · ⊗ ejk ) =
sig(σ)ejσ(1) ⊗ · · · ⊗ ejσ(k) .
σ∈Sk
Daı́ vemos que, se denotarmos |I| = {i1 , . . . , ik },
X
eJ =
±ei1 ⊗ · · · ⊗ eik ,
|I|=|J|
onde a soma se estende para todas os ı́ndices múltiplos (i1 , . . . , ik ) que diferem de
(j1 , . . . , jk ) apenas pela ordem dos elementos. Para cada um desses ı́ndices temos
(i1 , . . . , ik ) = (jσ(1) , . . . , jσ(k) ), e o sinal da parcela ei1 ⊗ · · · ⊗ eik fica determinado
por sig(σ). Segue da igualdade acima e do fato de que {ei1 ⊗ · · · ⊗ eik } é linearmente
independente, que os tensores eJ são linearmente independentes.
Vn
Corolário 1.9.17. Se dim(E) = n, então dim ( (E)) = 1.
25
1.10
Produto Exterior
Definição 1.10.1. Seja f ∈
produto exterior de f e g, por
Vk
(E) e g ∈
f ∧g =
Vl
(E). Definimos f ∧ g ∈
Vk+l
(E), o
(k + l)!
alt(f ⊗ g).
k!l!
O coeficiente acima é motivado pela simplicidade na fórmula seguinte.
Lema 1.10.2. Seja E um espaço vetorial de dimensão n < ∞ sobre Γ e (ei ) uma
base de E ∗ . Para quaisquer ı́ndices múltiplos I = (i1 , . . . , ik ) e J = (j1 , . . . , jl ) com
entradas em {1, . . . , n}, temos
eI ∧ eJ = eIJ ,
onde IJ = (i1 , . . . , ik , j1 , . . . , jl ).
Demonstração: Por multilinearidade é suficiente mostrar que
eI ∧ eJ (ep1 , . . . , epk+l ) = eIJ (ep1 , . . . , epk+l )
(1.4)
para qualquer sequência (ep1 , . . . , epk+l ) de vetores da base de E dual a (ei ).
Caso P = (p1 , . . . , pk+l ) tenha alguma entrada repetida, ou P tenha alguma
entrada que não aparece nem em I nem em J, (1.4) nos dá 0 = 0.
Caso P = IJ, e P não tenha entradas repetidas, temos eI ∧ eJ (ep1 , . . . , epk+l ) =
1. Precisamos mostrar que, neste caso, o lado direito de (1.4) também é 1. Por
definição, sendo eI ∧ eJ (ep1 , . . . , epk+l ) = H, temos
(k + l)!
alt(eI ⊗ eJ )(ep1 , . . . , epk+l )
k!l!
1 X
=
sig(σ)eI (epσ(1) , . . . , epσ(k) )eJ (epσ(k+1) , . . . , epσ(k+l) ).
k!l! σ∈S
H =
k+l
Note que as únicas parcelas não nulas da soma acima são aquelas nas quais σ permuta
as primeiras k e as últimas l entradas de P separadamente. Ou seja, σ deve se
escrever como σ = µν, onde µ ∈ Sk e ν ∈ Sl , sendo que µ age sobre {1, . . . , k} e ν
age sobre {k + 1, . . . , k + l}. Como sig(µν) = sig(µ) sig(ν), temos
1 X
H =
sig(µν)eI (epµ(1) , . . . , epµ(k) )eJ (epν(k+1) , . . . , epν(k+l) )
k!l! µ∈S
k
ν∈Sl
=
!
1 X
sig(µ)eI (epµ(1) , . . . , epµ(k) )
k! µ∈S
k
I
!
1X
sig(ν)eJ (epν(k+1) , . . . , epν(k+l) )
l! ν∈S
l
J
= alt(e )(ep1 , . . . , epk ) alt(e )(epk+1 , . . . , epk+l )
= (eI )(ep1 , . . . , epk )(eJ )(epk+1 , . . . , epk+l )
= 1.
Por fim, caso P = σ(IJ) para alguma σ ∈ Sk+l , e P não tenha entradas repetidas,
aplicar σ −1 a P nos leva ao caso anterior. Como o efeito de aplicar tal permutação
é multiplicar ambos os lados de (1.4) pelo sinal sig(σ), o resultado ainda vale. 26
Proposição 1.10.3. Sejam f ∈
Vk
(E), g ∈
Vl
(E), h ∈
Vm
(E) e α, β ∈ Γ, então
(1) (αf + βg) ∧ h = α(f ∧ h) + β(g ∧ h),
h ∧ (αf + βg) = α(h ∧ f ) + β(h ∧ g),
(2) f ∧ (g ∧ h) = (f ∧ g) ∧ h,
(3) f ∧ g = (−1)kl g ∧ f ,
(4) Se (e1 , . . . , en ) é uma base de E ∗ e I = (i1 , . . . , ik ) é um ı́ndice múltiplo qualquer,
então ei1 ∧ · · · ∧ eik = eI .
Demonstração: O item (1) segue diretamente da definição, pois ⊗ é multilinear e
alt é linear.
Temos, pelo Lema 1.10.2,
(eI ∧ eJ ) ∧ eK = eIJ ∧ eK = eIJK = eI ∧ eJK = eI ∧ (eJ ∧ eK ).
O item (2) segue da observação acima e da bilinearidade (item (1)).
Para mostrar o item (3), temos que, também pelo Lema 1.10.2,
eI ∧ eJ = eIJ = sig(σ)eJI = sig(σ)eJ ∧ eI ,
onde σ é a permutação que leva IJ em JI. Note que, σ pode ser escrita como
um produto τ1 . . . τkl de transposições (transpondo cada entrada de I através das
entradas de J). Pelo Lema 1.9.8, a paridade de kl é única. O caso geral segue da
bilinearidade.
Por fim, (4) segue por indução no resultado do Lema 1.10.2.
A propriedade em (3) é chamada de anticomutatividade. Em vista do item (4),
temos que, se (ei ) é base de um espaço vetorial E de dimensão n, os tensores
Vk da
i1
ik
forma e ∧ · · · ∧ e , com i1 < ... < ik , ij ∈ {1, . . . , n} formam uma base de
(E).
Definição 1.10.4. Seja
V E um espaço vetorial de dimensão n < ∞ sobre Γ. Definimos o espaço vetorial (E) por
^
(E) =
n ^
k
M
(E).
k=0
Segue do Teorema 1.9.16 que
dim
^
(E) =
n X
n
k=0
k
= 2n .
V
Pela Proposição 1.10.3, ( (E), +, ∧, ·, Γ) é uma álgebra graduada associativa anticomutativa, que chamamos de álgebra exterior sobre o espaço vetorial E.
A construção do produto exterior pode ser feita, de forma similar à construção
do produto tensorial, via propriedade universal. Mostra-se que o espaço obtido desta
forma é isomorfo ao que construı́mos aqui.
27
1.11
Determinantes
Como aplicação do Corolário 1.9.17, daremos uma definição intrı́nseca do determinante de um operador linear T : E → E.
Sejam E e F espaços vetoriais de dimensão finita sobre Γ. UmaVaplicaçãoVlinear
T : E → F induz, para cada k > 0, uma nova aplicação linear T # : k (F ) → k (E)
definida por
(T # f )(v1 , . . . , vk ) = f (T v1 , . . . , T vk ),
V
onde f ∈ k (F ) e v1 , . . . , vk ∈ E são arbitrários. Verifica-se que,
V
V
(1) Se T = id : E → E, então T # = id : k (E) → k (E),
(2) Se S : E → F e T : F → G são lineares,
#
#
(T ◦ S) = S ◦ T
#
k
k
^
^
: (G) → (E).
Em particular, se S : E → F é um isomorfismo,
(S
−1 #
#
) ◦ S = (S ◦ S
−1 #
#
) = (id) = id :
k
^
(F ) →
k
^
(F ).
V
V
Analogamente, S #V◦ (S −1 )# V
= id : k (E) → k (E). Portanto, se S : E → F é um
isomorfismo, S # : k (F ) → k (E) também o é, e (S # )−1 = (S −1V)# .
Considere
agora V
T : E → E, sendo dim(E) = n. Como dim ( n (E)) = 1, segue
V
n
que T # :
(E) → n (E) é meramente uma
V multiplicação por um escalar, ou seja,
existe λ tal que T # f = λf para todo f ∈ n (E).
Definição 1.11.1. Seja E um espaço vetorial sobre Γ, com dim(E) = n, e T : E →
E linear. Definimos det(T ) o determinante de T por
onde λ é tal que T # f = λf , T #
det(T ) = λ,
V
V
: n (E) → n (E).
Proposição 1.11.2. Seja E um espaço vetorial sobre Γ, com dim(E) = n, e S, T :
E → E lineares. O determinante det(T ) satisfaz:
(1) Se T = id : E → E, então det(T ) = 1,
(2) det(S ◦ T ) = det(S) det(T ),
(3) det(T ) 6= 0 se, e somente se, T é invertı́vel.
Demonstração: O item (1) segue pois (id)# = id. Para mostrar (2), seja f ∈
V
n
(E). Temos
(S ◦ T )# f = T # ◦ (S # f ) = T # (det(S)f ) = det(T ) det(S)f,
logo det(S ◦ T ) = det(S) det(T ). Daı́ segue que, se T é invertı́vel,
1 = det(id) = det(T ◦ T −1 ) = det(T ) det(T −1 ),
28
que implica det(T ) 6= 0 e que det(T −1 ) = det(T )−1 . Reciprocamente,
se det(T ) =
6
V
0, tomando (e1 , . . . , en ) uma base ordenada de E e f = eJ ∈ n (E), com J =
(1, . . . , n), temos f (e1 , . . . , en ) = 1. Por definição,
f (T e1 , . . . , T en ) = det(T ).
Como det(T ) 6= 0, pela Proposição 1.9.4, T e1 , . . . , T en são linearmente independentes e, portanto, constituem uma base de E. Assim T leva base de E em base de E
e é, então, invertı́vel.
Definição 1.11.3. Seja α = (αji ), i, j = 1, . . . , n, αji ∈ Γ uma matriz quadrada.
Definiremos o determinante de α por
det(α) = det(α̃),
onde
α̃ej =
n
X
αji ei ,
i=1
com j = 1, . . . , n.
Ou seja, det(α) é o determinante da transformação linear α̃ : Γn → Γn cuja
matriz em relação à base canônica (e1 , . . . , en ) de Γn é α.
Proposição 1.11.4. Seja Mn×n = Γn × · · · × Γn o espaço vetorial das matrizes n × n
com entradas em Γ. O determinante é o único n-tensor alternado det : Mn×n → Γ
dos vetores coluna de uma matriz que assume o valor 1 na matriz identidade.
V
Demonstração: Seja f0 ∈ n (Γn ) o único n-tensor alternado tal que
f0 (e1 , . . . , en ) = 1,
sendo (e1 , . . . , en ) a base canônica de Γn . Então, dada qualquer matriz α = (αji ) ∈
Mn×n , cujos vetores coluna são α1 , . . . , αn , onde cada αj = (αj1 , . . . , αjn ). Temos
α1 = α̃e1 , . . . , αn = α̃en , e, então
det(α) = det(α̃) = det(α̃)f0 (e1 , . . . , en ) = f0 (α̃e1 , . . . , α̃en ) = f0 (α1 , . . . , αn ).
Temos então que det(α) é uma aplicação n-linear alternada das colunas de α,
que assume o valor 1 na matriz cujas colunas são e1 , . . . , en , ou seja, na matriz
identidade. A unicidade segue da unicidade de f0 .
Lema 1.11.5. Seja E uma espaço vetorial de dimensão finita e T : E → E linear.
Para qualquer matriz α que represente T relativamente a uma base qualquer de E,
vale det(T ) = det(α)
V
Corolário 1.11.6. Seja dim(E) = n. Dados f ∈ n (E), α = (αji ) ∈ Mn×n e
(e1 , . . . , en ) uma base de E. Tem-se
!
n
n
X
X
f
α1i ei , . . . ,
αni en = det(α)f (e1 , . . . , en ).
i=1
i=1
29
Demonstração:
P De fato, α é a matriz, relativa à base (e1 , . . . , en ), de T : E → E
tal que T ej = i αji ei , j = 1, . . . , n. Logo det(α) = det(T ).
Definição 1.11.7. Seja E um espaço vetorial com dim(E) = n e (e1 , . . . , en ) uma
base de E. Dados u1 , . . . , un ∈ E definimos o determinante de u1 , . . . , un em relação
a (e1 , . . . , en ) como o determinante P
da matriz α = (αji ) das coordenadas de u1 , . . . , un
na base (e1 , . . . , en ) (ou seja, uj =
αji ei ), denotado por
det [u1 , . . . , un ].
(e1 ,...,en )
Se E = Γn e a base (e1 , . . . , en ) é a base canônica, denotamos simplesmente
det[u1 , . . . , un ], que se torna o determinante da matriz cujos vetores coluna são
u1 , . . . , u n ∈ Γ n .
Pelo Corolário 1.11.6 acima, dada (e1 , . . . , en ) base de E e u1 , . . . , un ∈ E, sendo
J = (1, . . . , n), temos
det [u1 , . . . , un ] = eJ (u1 , . . . , un ),
(e1 ,...,en )
onde eJ é como em 1.3.
Sejam, agora, α1 , . . . , αn os vetores coluna de α = (αji ) ∈ Mn×n . Temos
α1 = (α11 , . . . , α1n ), . . . , αn = (αn1 , . . . , αnn ).
V
Seja f0 ∈ n (Γn ) o único n-tensor alternado tal que f0 (e1 , . . . , en ) = 1, sendo
(e1 , . . . , en ) a base canônica de Γn . Vimos que
det(α) = f0 (α1 , . . . , αn ).
Temos também que f0 = k! alt(e1 , . . . , en ). Portanto,
X
sig(σ)eσ(1) ⊗ · · · ⊗ eσ(n) .
f0 =
σ∈Sk
Segue, então, que
det(α) =
X
σ(1)
sig(σ)α1
. . . αnσ(n) ,
σ∈Sk
que é uma das expressões geralmente usadas como definição do determinante de uma
matriz.
30
Capı́tulo 2
Análise em Variedades
Neste capı́tulo introduzimos as variedades, que são uma generalização das superfı́cies. Damos uma breve introdução às variedades topológicas e depois focamos
nas variedades suaves. No decorrer do capı́tulo fazemos um breve estudo sobre a
diferenciabilidade de funções entre variedades suaves e apresentamos o ferramental
da teoria, como vetores tangentes, partições da unidade e orientações. Mais à frente
é feita a introdução das formas diferenciais e, por fim, a teoria de integração em
variedades. O Teorema de Stokes fecha o capı́tulo.
2.1
Variedades Topológicas
Aqui definiremos a noção de variedade topológica, caso geral do objeto que será
nosso ambiente nas próximas seções, as variedades diferenciáveis.
Definição 2.1.1. Uma variedade parametrizada de dimensão n sem bordo é uma trie um homeomorfismo,
pla (M, τ, ϕ) onde (M, τ ) é um espaço topológico e ϕ : M → U
e ⊂ Rn .
denominado parametrização de M , entre M e um aberto U
Definição 2.1.2. Seja (M, τ ) um espaço topológico. Um atlas de dimensão n sobre
M é uma famı́lia A de homeomorfismos (denominados parametrizações) ϕλ : Uλ ∈
eλ ⊂ Rn , λ ∈ Γ, com U
eλ abertos, onde
τ →U
[
M=
Uλ .
λ∈Γ
Dizemos que o atlas A é compatı́vel se, ∀ λ, µ ∈ Γ verificando Uλµ = Uλ ∩ Uµ 6= ∅, a
função (denominada mudança de carta)
ϕλµ = ϕµ ◦ ϕ−1
λ : ϕλ (Uλµ ) → ϕµ (Uλµ )
for um homeomorfismo.
Definição 2.1.3. Uma variedade topológica de dimensão n sem bordo é uma tripla
(M, τ, A) onde (M, τ ) é um espaço topológico de Hausdorff com base enumerável e
A é um atlas compatı́vel de dimensão n sobre M .
31
'
n
Figura 2.1: Uma carta de coordenadas.
Quando não houver ambiguidade, escreveremos apenas “M uma variedade topológica de dimensão n”, ao invés de (M, τ, A).
Definição 2.1.4. Dada uma variedade topológica (M, τ, A) de dimensão n, uma
e é um homeomorfismo de A, é
dupla (U, ϕ), onde U é um aberto de M e ϕ : U → U
chamada de carta de coordenadas (Figura 2.1). Chamamos, ainda, ϕ (ou o conjunto
(xi ), onde ϕ(p) = (x1 (p), . . . , xn (p)), p ∈ M ) de função(ões) de coordenadas em U ,
ou simplesmente coordenadas em U .
Pela definição de variedade, todo ponto p de uma variedade topológica M de
dimensão n está contido no domı́nio de alguma carta (U, ϕ) do atlas A de M .
Quando ϕ(p) = 0 dizemos que ϕ é centrada em p.
Exemplo 2.1.5. O espaço Rn com a topologia induzida pela métrica euclideana é
uma variedade de dimensão n pois, de fato, é um espaço topológico de Hausdorff,
por ser um espaço métrico, e o conjunto de todas as bolas abertas de centro e raio
racionais constituem uma base enumerável.
Exemplo 2.1.6. Seja U ⊂ Rn aberto e F : U → Rk uma função contı́nua. Consideremos o gráfico de F , o subconjunto de Rn × Rk
graf(F ) = {(x, y) ∈ Rn × Rk | x ∈ U e y = F (x)}
com a topologia induzida. Seja π1 : Rn × Rk → Rn , π(x, y) = x e φF : graf(F ) → U
a restrição de π1 a graf(F ). Como φF é a restrição de uma função contı́nua, φF é
contı́nua. Além disso φF é um homeomorfismo pois possui inversa contı́nua
φ−1
F (x) = (x, F (x)).
Portanto graf(F ) é uma variedade topológica de dimensão n.
Exemplo 2.1.7. Seja
Sn = {x ∈ Rn+1 | kxk = 1}
a n-esfera munida com a topologia induzida de Rn+1 (portanto Hausdorff e de base
enumerável). Sejam
Ui+ = {(x1 , . . . , xn+1 ) ∈ Sn | xi > 0},
32
Ui− = {(x1 , . . . , xn+1 ) ∈ Sn | xi < 0},
onde i = 1, . . . , n + 1. Tome B n (0, 1) a bola aberta de centro 0 e raio 1 em Rn e
f : B n (0, 1) → R a função
p
f (u) = 1 − kuk2 .
Então, para cada i, Ui+ ∩ Sn é o gráfico da função
xi = f (x1 , . . . , xbi , . . . , xn+1 ),
onde xbi indica que xi é omitido. Analogamente, Ui− ∩ Sn é o gráfico da função
xi = −f (x1 , . . . , xbi , . . . , xn+1 ).
±
n
Logo, sendo φ±
i : Ui → B (0, 1) dada por
φ±
bi , . . . , xn+1 ),
i (x1 , . . . , xn+1 ) = (x1 , . . . , x
temos que cada (Ui± , φi ) é uma carta de coordenadas de Sn . Como cada ponto de
Sn está no domı́nio de pelo menos uma dessas 2n + 2 cartas, Sn é uma variedade
topológica de dimensão n.
Exemplo 2.1.8. Sejam M1 , . . . , Mk variedades topológicas de dimensão
n1 , . . . , nk respectivamente. O produto M1 × · · · × Mk é um espaço de Hausdorff e de
base enumerável (Lema A.2.10). Dado qualquer ponto (p1 , . . . , pk ) ∈ M1 × · · · × Mk
podemos escolher uma carta (Ui , ϕi ) para cada Mi com pi ∈ Ui . A função
ϕ1 × · · · × ϕk : U1 × · · · × Uk → Rn1 +···+nk
é um homeomorfismo sobre o aberto im(ϕ1 × · · · × ϕk ) ⊂ Rn1 +···+nk . Assim, M1 ×
· · · × Mk é uma variedade topológica de dimensão n1 + · · · + nk com cartas da forma
(U1 × · · · × Uk , ϕ1 × · · · × ϕk ).
Exemplo 2.1.9. Para qualquer n ∈ N, n 6= 0, o n-torus é o espaço produto Tn =
S1 × · · · × S1 . Pelo exemplo acima, Tn é uma variedade topológica de dimensão n.
Proposição 2.1.10. Seja M uma variedade topológica. Então:
(1) M é localmente conexa por caminhos,
(2) M é conexa se, e somente se, é conexa por caminhos,
(3) As componentes conexas e conexas por caminhos de M são as mesmas,
(4) M tem no máximo uma quantidade enumerável de componentes conexas, e cada
uma destas é um aberto de M e também uma variedade topológica conexa.
33
¸
¹
'¸
'¹
'¸{1 ± '¹
n
n
¹
¸
Figura 2.2: Uma mudança de carta.
2.2
Variedades Diferenciáveis
Definição 2.2.1. Seja (M, τ ) um espaço topológico. Um atlas diferenciável (de
classe C k ou de classe C ∞ ) de dimensão n sobre M é uma famı́lia A de homeomoreλ ⊂ Rn , λ ∈ Γ, com U
eλ
fismos (denominados parametrizações) ϕλ : Uλ ∈ τ → U
abertos, onde
S
(1) M = λ∈Γ Uλ ,
(2) ∀ λ, µ ∈ Γ verificando Uλµ = Uλ ∩ Uµ 6= ∅, a mudança de carta (Figura 2.2)
ϕλµ = ϕµ ◦ ϕ−1
λ : ϕλ (Uλµ ) → ϕµ (Uλµ )
é um difeomorfismo (de classe C k ou de classe C ∞ ). Neste caso dizemos que as
cartas (Uλ , ϕλ ) e (Uµ , ϕµ ) são compatı́veis.
Um atlas diferenciável A em uma variedade M é maximal quando toda carta (U, ϕ)
compatı́vel com todas as cartas pertencentes a A também pertence a A. Quando
um atlas diferenciável A sobre M é de classe C ∞ , também chamamos A de atlas
suave.
Definição 2.2.2. Uma variedade diferenciável (de classe C k ou de classe C ∞ ) de
dimensão n sem bordo é uma tripla (M, τ, A), onde (M, τ ) é um espaço topológico
de Hausdorff com base enumerável e A é um atlas diferenciável (de classe C k ou de
classe C ∞ ) maximal de dimensão n sobre M .
34
Chamaremos uma variedade sem bordo M munida com um atlas suave A, de
variedade suave. Um atlas suave maximal em uma variedade topológica M de
dimensão n é também chamado de estrutura suave em M .
Proposição 2.2.3. Seja (M, τ ) uma variedade topológica e A um atlas suave sobre
M . Existe um único atlas suave maximal sobre M que contém A.
Demonstração: Seja A um atlas suave sobre M e A o conjunto de todas as
cartas compatı́veis com qualquer carta em A. Precisamos mostrar que quaisquer
duas cartas de A são compatı́veis entre si, ou seja, ∀ (U, ϕ), (V, ψ) ∈ A, a função
ψ ◦ ϕ−1 : ϕ(U ∩ V ) → ψ(U ∩ V ) é um difeomorfismo de classe C ∞ .
Seja x = ϕ(p) ∈ ϕ(U ∩ V ). Como os domı́nios das cartas de A cobrem M , existe
alguma carta (W, θ) ∈ A tal que p ∈ W . Como toda carta em A é compatı́vel
com (W, θ), temos que θ ◦ ϕ−1 e ψ ◦ θ−1 são difeomorfismos de classe C ∞ em seus
respectivos domı́nios. Como p ∈ U ∩ V ∩ W , a função ψ ◦ ϕ−1 = (ψ ◦ θ−1 ) ◦ (θ ◦ ϕ−1 )
é difeomorfismo C ∞ em uma vizinhança de x. Logo ψ ◦ ϕ−1 é difeomorfismo C ∞ em
uma vizinhança de cada ponto de ϕ(U ∩ V ). Portanto A é um atlas suave.
Para mostrar que A é maximal, basta notar que uma carta compatı́vel com qualquer carta de A é, em particular, compatı́vel com qualquer carta de A e, portanto,
por definição pertence a A. Se B é um atlas maximal qualquer contendo A, toda
carta de B é compatı́vel com qualquer carta de A, portanto, B ⊂ A. E, como B é
maximal, B = A.
Definição 2.2.4. Dada uma carta (U, ϕ) de M uma variedade suave sem bordo,
dizemos que U é uma bola de coordenadas se ϕ(U ) = Bρ (x) ⊂ Rn .
Exemplo 2.2.5. Seja (M, τ ) um espaço topológico, com M um conjunto discreto.
Para cada ponto de p ∈ M , ϕp : {p} → R0 determina um homeomorfismo, e o conjunto A = {({p}, ϕp ) | p ∈ M } satisfaz trivialmente a condição de compatibilidade.
Assim, (M, τ, A) é uma variedade suave sem bordo.
Exemplo 2.2.6. O conjunto Rn é uma variedade suave sem bordo quando munido
com o atlas A = {(Rn , IRn )}, onde IRn é a função identidade em Rn .
Note que, se uma variedade topológica M pode ser coberta por uma única carta,
a condição de compatibilidade fica satisfeita trivialmente, portanto qualquer carta
deste tipo determina uma estrutura suave em M .
Exemplo 2.2.7. Seja E um espaço vetorial de dimensão finita n. Qualquer norma
em E determina uma topologia. Com esta topologia, E admite uma estrutura suave
como segue.
Qualquer base ordenada (e1 , . . . , en ) de E define um isomorfismo e : Rn → E,
e(x) =
n
X
xi ei .
i=1
Esta função é um homeomorfismo, portanto o atlas A = {(E, e−1 )} define uma
estrutura suave. Precisamos mostrar que esta estrutura suave é independente
P da
escolha da base. De fato, seja (ẽ1 , . . . ẽn ) qualquer outra base e ẽ(x) =
j xj ẽj
35
P j
j
o isomorfismo correspondente. Então ei =
j Ai ẽj para cada i, e [Ai ] é uma
matriz invertı́vel. A mudança entre duas cartas é dada por (ẽ−1 ◦ e)(x) = x̃ onde
x̃ = (x̃1 , . . . , x̃n ) é determinado por
n
X
j=1
x̃j ẽj =
n
X
xi ei =
i=1
n
X
xi Aji ẽj ,
i,j=1
j
e segue que x̃j =
i Ai xi . Logo, a função x 7→ x̃ é uma transformação linear
invertı́vel e, portanto, um difeomorfismo de classe C ∞ . Assim as cartas são compatı́veis e concluı́mos que todas as bases determinam o mesmo atlas suave.
P
Exemplo 2.2.8. Seja Mm×n (R) o espaço das matrizes m × n com entradas reais.
Com as operações usuais, Mm×n (R) é um espaço vetorial de dimensão mn e, pelo
exemplo acima, uma variedade suave de dimensão mn sem bordo. Analogamente,
Mm×n (C) é um espaço vetorial de dimensão 2mn sobre R, logo, uma variedade
suave de dimensão 2mn sem bordo.
Exemplo 2.2.9. Sejam M1 , . . . , Mk variedades suaves de dimensão n1 , . . . , nk respectivamente. Já vimos que M1 × · · · × Mk é uma variedade topológica de dimensão
n1 + · · · + nk , com cartas da forma (U1 × · · · × Uk , ϕ1 × · · · × ϕk ) (Exemplo 2.1.8).
Quaisquer duas dessas cartas são compatı́veis pois
−1
(ψ1 × · · · × ψk ) ◦ (ϕ1 × · · · × ϕk )−1 = (ψ1 ◦ ϕ−1
1 ) × · · · × (ψk ◦ ϕk )
é um difeomorfismo de classe C k . Isso define uma estrutura natural de variedade
suave em M1 × · · · × Mk .
Lema 2.2.10. Seja M um conjunto, {Uα } uma coleção de subconjuntos de M e
ϕα : Uα → Rn uma coleção de funções injetoras tais que:
(1) Para cada α, ϕα (Uα ) é um aberto de Rn ,
(2) Para cada α e β, ϕα (Uα ∩ Uβ ) e ϕβ (Uα ∩ Uβ ) são abertos de Rn ,
(3) Se Uα ∩ Uβ 6= ∅, ϕα ◦ ϕ−1
β : ϕβ (Uα ∩ Uβ ) → ϕα (Uα ∩ Uβ ) é um difeomorfismo,
(4) Existe uma subcobertura enumerável Uαi de M ,
(5) Se p e q são pontos distintos de M , então existe Uα tal que p, q ∈ Uα , ou existem
Uα , Uβ disjuntos tais que p ∈ Uα e q ∈ Uβ .
Então M admite uma única estrutura de variedade suave sem bordo tal que cada
(Uα , ϕα ) é uma carta.
Em muitas aplicações de variedades, especialmente as que envolvem integração,
lidaremos com espaços que seriam variedades suaves, não fosse por uma espécie de
borda. Para formalizarmos tais espaços precisamos generalizar nossa definição de
variedade. Quando definimos um atlas sobre um espaço topológico, os homeomorfismos do atlas tinham como domı́nio os abertos de Rn . Agora esses homeomorfismos
terão como domı́nio os abertos (com a topologia induzida de Rn ) do conjunto
Hn = {(x1 , . . . , xn ) ∈ Rn | xn ≥ 0}.
36
Figura 2.3: Uma variedade com bordo.
Definição 2.2.11. Uma variedade diferenciável (de classe C k ou de classe C ∞ ) de
dimensão n com bordo é uma tripla (M, τ, A), onde (M, τ ) é um espaço topológico
de Hausdorff com base enumerável e A é um atlas diferenciável (de classe C k ou de
classe C ∞ ) maximal de dimensão n sobre M tal que as parametrizações ϕλ : Uλ ∈
eλ ⊂ Hn , λ ∈ Γ, U
eλ abertos, verificam
τ →U
S
(1) M = λ∈Γ Uλ ,
(2) ∀ λ, µ ∈ Γ verificando Uλµ = Uλ ∩ Uµ 6= ∅ a função (denominada mudança de
carta)
ϕλµ = ϕµ ◦ ϕ−1
λ : ϕλ (Uλµ ) → ϕµ (Uλµ )
é um difeomorfismo (de classe C k ou de classe C ∞ ),
(3) ∀ λ, µ ∈ Γ verificando Uλµ = Uλ ∩ Uµ 6= ∅, a mudança de carta ϕλµ = ϕµ ◦ ϕ−1
λ :
ϕλ (Uλµ ) → ϕµ (Uλµ ) deve verificar
ϕλµ (∂(ϕλ (Uλµ ))) = ∂ (ϕµ (Uλµ )) ,
onde ∂(ϕλ (Uλµ )) = ϕλ (Uλµ ) ∩ ∂(Hn ), ∂(ϕµ (Uλµ )) = ϕµ (Uλµ ) ∩ ∂(Hn ), sendo
∂(Hn ) = {(x1 , . . . , xn ) ∈ Rn | xn = 0}.
Definimos ainda o bordo e o interior de (M, τ, A) respectivamente por
[
e
∂M =
ϕ−1
int M = M \ ∂M,
λ (∂ Uλ ),
λ∈Γ
eλ = U
eλ ∩ ∂(Hn ).
onde ∂ U
Note que decorre diretamente desta definição que o interior de uma variedade
diferenciável de dimensão n com bordo é uma variedade diferenciável de dimensão n
sem bordo. Além disso, se o bordo ∂M de uma variedade diferenciável de dimensão
n com bordo, é, desde que ∂M 6= ∅, uma variedade diferenciável de dimensão n − 1
sem bordo.
Chamaremos uma variedade diferenciável com bordo M munida de um atlas
suave de variedade suave com bordo.
37
2.3
Funções Diferenciáveis
Nesta seção trabalharemos essencialmente com funções entre variedades suaves
sem bordo. Tal escolha se justifica pela maior simplicidade nas demonstrações. O
caso das funções entre variedades com bordo não é, no entanto, de maior complicação, exigindo apenas que trabalhemos com a noção de extensão de uma função,
como indicaremos mais à frente.
Definição 2.3.1. Sejam (M, τ, A) e (N, τ 0 , A0 ) duas variedades suaves sem bordo
e f : M → N uma função. Se (U, ϕ) ∈ A e (V, ψ) ∈ A0 são cartas de M e N
respectivamente, tais que f (U ) ⊂ V , então a função
e → Ve
fϕψ = ψ ◦ f ◦ ϕ−1 : U
é dita uma representação local de f .
Definição 2.3.2. Sejam (M, τ, A) e (N, τ 0 , A0 ) duas variedades suaves sem bordo e
f : M → N uma função. Dizemos que f é diferenciável (de classe C k ou de classe
C ∞ ) em p ∈ M se existem cartas (U, ϕ) ∈ A e (V, ψ) ∈ A0 tais que
(1) p ∈ U ,
(2) f (U ) ⊂ V ,
e.
(3) fϕψ é diferenciável (de classe C k ou de classe C ∞ ) em ϕ(p) ∈ U
Dizemos que f é diferenciável em M se f é diferenciável em todo ponto p ∈ M .
Quando uma função f é diferenciável de classe C ∞ dizemos que f é uma função
suave.
Proposição 2.3.3. Sejam M e N duas variedades suaves sem bordo e f : M → N
uma função suave. Então f é contı́nua.
Demonstração: Como f é suave, para cada p ∈ M podemos tomar (U, ϕ) e (V, ψ)
tais que p ∈ U , f (p) ∈ V , f (U ) ⊂ V e fϕψ : ϕ(U ) → ψ(V ) é suave e, portanto,
contı́nua. Como ϕ e ψ são homeomorfismos, temos que
f |U = ψ −1 ◦ (ψ ◦ f ◦ ϕ−1 ) ◦ ϕ : U → V,
é composição de funções contı́nuas e, portanto, contı́nua. Como f é contı́nua em
cada p, f é contı́nua em M .
Proposição 2.3.4. Sejam (M, τ, {(Uα , ϕα )}) e (N, τ 0 , {(Vβ , ψβ )}) duas variedades
suaves sem bordo e f : M → N uma função contı́nua. Se, para cada α e β,
eα → Veβ é suave em seu domı́nio, então f é suave.
fϕα ψβ : U
Demonstração: Seja p ∈ M e (Uα , ϕα ), (Vβ , ψβ ) tais que p ∈ Uα e f (p) ∈ Vβ . Pela
continuidade de f , o conjunto U = f −1 (Vβ ) ∩ Uα é um aberto de M , e f (U ) ⊂ Vβ .
Logo, as cartas (U, ϕα |U ) e (Vβ , ψβ ) satisfazem as condições da Definição 2.3.2. Como
fϕα ψβ é de classe C ∞ , f é suave.
38
Proposição 2.3.5. Sejam M , N e P variedades suaves sem bordo, f : M → N e
g : N → P funções suaves. Então a função g ◦ f : M → P é suave.
Demonstração: Como g é suave, existem cartas (V, θ) e (W, ψ) tais que f (p) ∈ V ,
g(f (p)) ∈ W , g(V ) ⊂ W e ψ ◦ g ◦ θ−1 ; θ(V ) → ψ(W ) é suave.
Como f é contı́nua, f −1 (V ) é uma vizinhança aberta de p em M , logo existe
uma carta (U, ϕ) tal que p ∈ U ⊂ f −1 (V ) e temos θ ◦ f ◦ ϕ−1 : ϕ(U ) → θ(V ) suave.
Temos então que g◦f (U ) ⊂ g(V ) ⊂ W e ψ◦(g◦f )◦ϕ−1 = (ψ◦g◦θ−1 )◦(θ◦f ◦ϕ−1 ) :
ϕ(U ) → ψ(W ) é suave por ser uma composição de funções suaves entre abertos de
espaços métricos.
Definição 2.3.6. Um difeomorfismo entre duas variedades suaves M , N é uma
bijeção suave f : M → N tal que f −1 : N → M é suave. Quando existe um tal
difeomorfismo, dizemos que M e N são difeomorfas.
2.4
Partições da Unidade
As partições da unidade, que introduzimos agora, são ferramentas para, intuitivamente, “colar” objetos suaves locais formando objetos suaves globais.
Lema 2.4.1. A função f : R → R dada por
−1
e t se t > 0,
f=
0 se t ≤ 0
é suave.
Lema 2.4.2. Existe uma função g : R → R suave tal que

se
t ≤ 1,
 g(t) = 1
0 < g(t) < 1 se 1 < t < 2,

g(t) = 0
se
t ≥ 2.
Demonstração: Uma função g satisfazendo as condições acima é
g(t) =
f (2 − t)
,
f (2 − t) + f (t − 1)
onde f é como no Lema 2.4.1.
Definição 2.4.3. Seja X um espaço topológico e f : X → R contı́nua. Definimos
o suporte de f por
supp(f ) = {x ∈ X | f (x) 6= 0}.
Lema 2.4.4. Existe uma função h : Rn → R suave tal que 0 ≤ h(t) ≤ 1 para todo
t, h(t) = 1 se t ∈ B1 [0] e supp(h) = B2 [0].
39
Demonstração: Uma função h satisfazendo as condições acima é
h(t) = g(ktk),
onde g é como no Lema 2.4.2 e
v
u n
uX
t2 .
ktk = t
i
i=1
Uma função h satisfazendo o Lema 2.4.4 é chamada de função teste suave. Mostraremos a seguir que toda variedade é paracompacta. Para tal, usaremos o seguinte
lema:
Lema 2.4.5. Toda variedade topológica M admite uma cobertura por pré-compactos
abertos enumerável localmente finita.
Definição 2.4.6. Seja M uma variedade suave com bordo. Dizemos que uma cobertura aberta {Wi } de M é regular se satisfaz as seguintes condições:
(1) {Wi } é enumerável e localmente finita,
(2) Cada Wi é domı́nio de uma função de coordenadas ϕi : M → Rn tal que
ϕi (Wi ) = B3 (0) ⊂ Rn ,
(3) A coleção {Ui } cobre M , onde Ui = ϕ−1
i (B1 (0)).
Proposição 2.4.7. Seja M uma variedade suave com bordo. Toda cobertura aberta
de M admite um refinamento regular. Em particular, M é paracompacta.
Demonstração: Seja X uma cobertura aberta qualquer de M e {Vj } uma cobertura
enumerável localmente finita por abertos pré-compactos de M . Para cada p ∈
M , seja Wp uma vizinhança de p que intersecta apenas uma quantidade finita de
elementos de {Vj }. Seja Ẇp = {Wp ∩ Vk | p ∈ Vk }. Então se p ∈ Vk , temos Ẇp ⊂ Vk .
Como X uma cobertura aberta, p ∈ X para algum X ∈ X . Tomando Ẅp =
Ẇp ∩ X, temos Ẅp contido em algum elemento de X .
Podemos ainda restringir Ẅp para que este seja uma bola de coordenadas e
escolher ϕp tal que ϕp (Ẅp ) = B3 (0) com ϕp (p) = 0.
Seja Up = ϕ−1
p (B1 (0)). Para cada k, a coleção {Up | p ∈ Vk } é uma cobertura
aberta de Vk . Por compacidade, Vk é coberto por uma quantidade finita desses aberk
tos, digamos, Uk1 , . . . , Ukmk . Sejam (Wk1 , ϕ1k ), . . . , (Wkmk , ϕm
k ) as respectivas cartas.
i
Variando k e i, temos que a coleção {Wk } é uma cobertura aberta enumerável deM
que refina X e satisfaz (2) e (3) na definição de cobertura regular. Resta mostrar
que {Wki } é localmente finita.
Dado k, por construção, Wk ⊂ Vj para algum j satisfazendo Vk ∩ Vj 6= ∅. O
compacto Vk é coberto por uma coleção finita {Vj }, e cada Vj fixo intersecta no
máximo um número finito de elementos de {Vj }. Segue então que há apenas uma
0
quantidade finita de valores de k para os quais Wki ∩ Wki0 6= ∅. Como há apenas uma
0
quantidade finita de Wki0 para cada k 0 , {Wki } é localmente finita.
40
Definição 2.4.8. Seja M um espaço topológico e X = {Xα }α∈A uma cobertura
aberta de M . Uma partição da unidade com relação à X é uma coleção de funções
contı́nuas {ψα : M → R}α∈A tais que, para todo α ∈ A,
(1) 0 ≤ ψα (x) ≤ 1 para todo x ∈ M ,
(2) supp(ψα ) ⊂ Xα ,
(3) {supp(ψα )}α∈A é localmente finito,
P
(4)
α∈A ψα (x) = 1 para todo x ∈ M .
Se cada ψi é suave, dizemos que X é uma partição suave da unidade com relação
a X.
Pela condição de finitude em (3), a soma em (4) tem apenas uma quantidade
finita de termos não nulos na vizinhança de cada ponto, portanto não temos problemas de convergência.
Teorema 2.4.9. Se M é uma variedade suave com bordo e X = {Xα }α∈A é uma
cobertura aberta de M , existe uma partição suave da unidade com relação a X .
Demonstração: Pela Proposição 2.4.7, seja {Wi } um refinamento regular de X .
Para cada i, seja ϕi : Wi → B3 (0) a função de coordenadas, e
Ui = ϕ−1
i (B1 (0)),
Vi = ϕ−1
i (B2 (0)).
Para cada i, defina fi : M → R por
h ◦ ϕi em Wi ,
fi =
0
em M \ Vi ,
onde h é a função teste suave do Lema 2.4.4. Note que no conjunto Wi \ Vi onde a
definição parece estar conflitante, h ◦ ϕi também fornece fi = 0. Portanto fi está
bem definida, é suave, pois é composição de funções suaves, e supp(fi ) ⊂ Wi .
Defina, agora, para cada i, gi : M → R por
fi (x)
.
gi (x) = P
j fj (x)
Como a cobertura {Wi } é localmente finita, a soma no denominador tem no máximo
uma quantidade finita de termos não nulos. Como fi ≡ 1 em Ui e como todo ponto
x de M está em algum Ui , o denominador é sempre positivo. Então, gi é uma função
suave. além disso, segue da definição que 0 ≤ gi ≤ 1 e que
X
gi ≡ 1.
i
Por {Wi } ser um refinamento de X , para cada i podemos escolher um ı́ndice
a(i) ∈ A tal que Wi ⊂ Xa (i). Assim, para cada α ∈ A defina
X
ψα =
gi .
i|a(i)=α
41
Se não há indices i tais que a(i) = α, ψα deve ser tomada como a função nula. Dessa
maneira cada ψα é suave e satisfaz 0 ≤ ψα ≤ 1 e supp(ψα ) ⊂ Xα . Além disso, o
conjunto {supp(ψα )}α∈A ainda é localmente finito, e
X
X
ψα ≡
gi ≡ 1.
α
i
Então {ψα }α∈A é a partição da unidade procurada.
Os resultados seguintes são aplicações de partições da unidade e constituem
ferramentas que usaremos no decorrer do texto.
Definição 2.4.10. Seja M uma variedade suave com bordo, A ⊂ M fechado, U ⊂
M aberto tal que A ⊂ U e ψ : M → R contı́nua. ψ é chamada de função teste para
A com suporte em U se 0 ≤ φ ≤ 1 em M , ψ ≡ 1 em A e supp(ψ) ⊂ U .
Proposição 2.4.11. Seja M uma variedade suave com bordo, A ⊂ M fechado e
U ⊂ M aberto tal que A ⊂ U . Existe uma função teste suave para A com suporte
em U .
Demonstração: Sejam U0 = U e U1 = M \ A, e {ψ0 , ψ1 } uma partição suave da
unidade com relação à cobertura aberta {U0 , U1 }. Como ψ1 ≡ 0 em A e, portanto,
X
ψ0 =
ψi = 1,
i
a função ψ0 é a função procurada.
Lema 2.4.12. Seja M uma variedade suave com bordo, A ⊂ M fechado e f : A →
Rn uma função suave. Então para todo U aberto tal que A ⊂ U , existe uma função
suave fe : M → Rn tal que fe|A = f e supp(fe) ⊂ U .
Definição 2.4.13. Seja M um espaço topológico. Uma função contı́nua f : M → R
é uma função de exaustão para M se o conjunto
Mc = {p ∈ M | f (p) ≤ c}
é compacto, para todo c.
Por exemplo, a função f : Rn → R dada por f (x) = kxk é uma função de
exaustão para Rn . Observe também que se M é compacta, qualquer função contı́nua
f : M → R é uma função de exaustão para M .
Proposição 2.4.14. Toda variedade suave sem bordo M admite uma função de
exaustão suave.
Demonstração: Seja {Vj }, j = 1, 2, . . . uma cobertura aberta enumerável de M
por pré-compactos e {ψj } uma partição suave da unidade com relação a esta cobertura. Considere f : M → R dada por
f (p) =
∞
X
j=1
42
jψj (p).
Note que f é suave, pois apenas uma quantidade finita de termos da soma é diferente
de zero em uma
P vizinhança de qualquer ponto p ∈ M , e que
Sn f é positiva, uma vez
que f (p) ≥ j ψj (p) = 1. Para qualquer n ∈ N, se p ∈
/ j=1 V j , então ψ(p) = 0
para 1 ≤ j ≤ n, portanto,
f (p) =
∞
X
jψj (p) >
j=n+1
∞
X
nψj (p) = n
j=n+1
∞
X
ψj (p) = n.
j=n+1
S
Logo, se f (p) ≤ n, então p ∈ nj=1 V j . Segue que, para qualquer c ≤ n, Mc é um
S
subconjunto fechado do compacto nj=1 V j e, portanto, compacto.
2.5
Vetores Tangentes
Definição 2.5.1. O espaço tangente geométrico a Rn em um ponto a é o conjunto
Rna = {a} × Rn = {(a, v) | v ∈ Rn }.
Um elemento de Rna é chamado de vetor tangente geométrico em a e denotado por
va ou v|a . Munido com as operações naturais va + wa = (v + w)a e c(va ) = (cv)a ,
Rna possui estrutura de espaço vetorial sobre R.
A definição acima nos permite, por exemplo, pensar no espaço tangente a Sn−1
em um ponto a ∈ Sn−1 como um subespaço de Rna . Porém, com esta definição
não temos condições de definir vetores tangentes a uma variedade suave sem bordo
qualquer “fora” de um ambiente euclideano. Vamos, portanto, buscar uma outra
caracterização para estes vetores.
Todo vetor tangente geométrico va ∈ Rna fornece uma aplicação Dv |a : C ∞ (Rn ) →
R tal que
d Dv |a f = Dv f (a) = f (a + tv).
dt t=0
Essa aplicação é linear e satisfaz a regra do produto
Dv |a (f g) = f (a)Dv |a (g) + g(a)Dv |a (f ).
Se va =
Pn
i=1
v i ei |a , com (ei ) a base canônica, Dv |a f pode ser escrita como
Dv |a f =
n
X
i=1
vi
∂f
(a).
∂xi
Com esta construção em mente, fazemos a seguinte definição:
Definição 2.5.2. Seja a ∈ Rn . Uma aplicação linear X : C ∞ (Rn ) → R é uma
derivação em a se satisfaz a regra de produto
X(gf ) = f (a)X(g) + g(a)X(f ).
43
Seja Ta (Rn ) o conjunto de todas as derivações de C ∞ (Rn ) em a. Munido das
operações
(X + Y )(f ) = X(f ) + Y (f ),
(c · X)(f ) = c(X(f )),
verifica-se que (Ta (Rn ), +, ·, R) é um espaço vetorial.
Lema 2.5.3. Seja a ∈ Rn e X ∈ Ta (Rn ).
(1) Se f é uma função constante, X(f ) = 0,
(2) Se f (a) = g(a) = 0, então X(f g) = 0.
Demonstração: É suficiente mostrar (1) para a função f1 ≡ 1, pois, se f (x) ≡ c
para todo x ∈ Rn , c constante, temos X(f ) = X(cf1 ) = cX(f1 ) = 0, pela linearidade
de X. Então, para f1 , pela regra do produto,
X(f1 ) = X(f1 f1 ) = f1 (a)X(f1 ) + f1 (a)X(f1 ) = 2X(f1 ),
que implica X(f1 ) ≡ 0.
O item (2) também segue diretamente da regra do produto:
X(f g) = f (a)X(g) + g(a)X(f ) = 0 + 0 = 0.
Proposição 2.5.4. Seja a ∈ Rn . A aplicação va 7→ Dv |a é um isomorfismo de Rna
em Ta (Rn ).
Demonstração: A linearidade de va 7→ Dv |a segue diretamente da definição de
Dv |a .
n
Para mostrar a injetividade, suponha que
v |a ≡ 0 para algum va ∈ Ra . EscrePD
vendo va em termos da base canônica, va = ni=1 v i ei |a , e tomando f como a função
j-ésima coordenada, xj : Rn → R, obtemos
n
j
X
∂x
= vj
0 = Dv |a (xj ) =
vi i ∂x i=1
x=a
Como isso vale para qualquer j = 1, . . . , n, temos va = 0.
P
Para mostrar a sobrejetividade, seja X ∈ Ta (Rn ) qualquer. Seja v = ni=1 v i ei ,
onde v 1 , . . . , v n ∈ R são tais que v i = X(xi ). Vamos mostrar que X = Dv |a . Seja f ∈
C ∞ (Rn ). Pela fórmula de Taylor (Teorema A.4.11), existem g1 , . . . , gn ∈ C ∞ (Rn )
tais que gi (a) = 0 e
f (x) = f (a) +
n
n
X
X
∂f
i
i
(a)(x
−
a
)
+
gi (x)(xi − ai ).
i
∂x
i=1
i=1
(2.1)
Note que o último termo na expressão acima é uma soma de funções onde cada
termo é o produto gi (x)(xi − ai ), que é zero se x = a. Aplicando X a (2.1) e usando
44
o Lema 2.5.3 obtemos
X(f ) = X(f (a)) +
n
X
i=1
= 0+
X
X
n
∂f
i
i
(a)(x − a ) +
X(gi (x)(xi − ai ))
i
∂x
i=1
n
X
∂f
(a)(X(xi ) − X(ai )) + 0
i
∂x
i=1
n
X
∂f
(a)v i
=
i
∂x
i=1
= Dv |a (f ),
e segue que X = Dv |a .
Corolário 2.5.5. Para qualquer a ∈ Rn , as n derivações
∂ ∂ ,..., n ,
∂x1 a
∂x a
definidas por
∂f ∂ (f ) =
,
∂xi a
∂xi a
formam uma base para Ta (Rn ) e, portanto, dim(Ta (Rn )) = n.
Demonstração: Segue diretamente da proposição anterior, basta notar que
∂ = Dei |a .
∂xi a
O breve estudo de Ta (Rn ) acima nos indica como definir vetores tangentes a uma
variedade:
Definição 2.5.6. Seja M uma variedade suave sem bordo e p ∈ M . Uma aplicação
linear X : C ∞ (M ) → R é uma derivação em p se satisfaz
X(f g) = f (p)X(g) + g(p)X(f ),
para quaisquer f, g ∈ C ∞ (M ). O espaço vetorial Tp M de todas as derivações de
C ∞ (M ) em p é dito espaço tangente a M em p e um elemento de Tp M é chamado
de vetor tangente em p.
O resultado a seguir é o análogo do Lema 2.5.3 para vetores tangentes a uma
variedade. Sua demonstração é idêntica à do Lema 2.5.3, bastando trocar Ta (Rn )
por Tp M .
Proposição 2.5.7. Sejam M uma variedade suave sem bordo, p ∈ M e X ∈ Tp M .
(1) Se f é uma função constante, X(f ) = 0,
(2) Se f (p) = g(p) = 0, então X(f g) = 0.
45
Definição 2.5.8. Sejam M e N variedades suaves sem bordo e F : M → N uma
função suave. Para cada p ∈ M definimos uma função F∗ : Tp M → TF (p) N , chamada
de pushforward de F , por
(F∗ (X))(f ) = X(f ◦ F ),
onde f ∈ C ∞ (N ).
O operador (F∗ (X)) claramente é linear (X é linear) e é uma derivação em F (p)
pois
(F∗ (X))(f g) =
=
=
=
X(f g ◦ F )
X((f ◦ F )(g ◦ F ))
f ◦ F (p)X(g ◦ F ) + g ◦ F (p)X(f ◦ F )
f (F (p))(F∗ (X))(g) + g(F (p))(F∗ (X))(f ).
Proposição 2.5.9. Sejam M , N e P variedades suaves sem bordo, f : M → N e
g : N → P funções suaves e p ∈ M . Então:
(1) f∗ : Tp M → Tf (p) N é linear,
(2) (g ◦ f )∗ = g∗ ◦ f∗ : Tp M → Tg◦f (p) P ,
(3) (idM )∗ = idTp M : Tp M → Tp M ,
(4) Se f é um difeomorfismo, f∗ : Tp M → Tf (p) N é um isomorfismo.
A proposição a seguir nos mostra que o espaço tangente é uma construção local,
apesar de ser definido em termos de toda a variedade.
Proposição 2.5.10. Seja M uma variedade suave sem bordo, p ∈ M e X ∈ Tp M .
Se f e g são funções em M tais que f (x) = g(x) para todo x em uma vizinhança de
p, então X(f ) = X(g).
Demonstração: Seja h = f − g. Por linearidade, basta mostrar que X(h) = 0 se
h(x) = 0 para todo x em uma vizinhança de p.
Tome φ ∈ C ∞ (M ) uma função teste suave tal que φ(x) = 1 para todo x ∈
supp(h) e que supp(φ) = M \ {p}. Como φ ≡ 1 onde h não zera, φh ≡ h. Como
φ(p) = h(p) = 0, pela Proposição 2.5.7, X(h) = X(φh) = 0.
Proposição 2.5.11. Seja M uma variedade suave sem bordo, U ⊂ M aberto e
i : U → M a inclusão canônica. Para todo p ∈ U , i∗ : Tp U → Tp M é um isomorfismo.
Demonstração: Seja B uma vizinhança de p tal que B ⊂ U . Suponha que X ∈
Tp U e que i∗ (X) = 0 ∈ Tp M . Se f ∈ C ∞ (B), o Lema 2.4.12 garante que existe
fe ∈ C ∞ (M ) tal que f ≡ fe em B. Pela Proposição 2.5.10,
X(f ) = X(fe|U ) = X(fe ◦ i) = (i∗ X)(fe) = 0.
Como f é arbitrária, segue que X = 0 e então i∗ é injetora.
46
Por outro lado, seja Y ∈ Tp M arbitrário. Defina X : C ∞ (U ) → R por X(f ) =
Y (fe), onde fe é qualquer função em M tal que fe = f em B. Pela Proposição 2.5.10
X(f ) independe da escolha de fe, portanto X está bem definido e é uma derivação
em p (pois Y é derivação). Para qualquer g ∈ C ∞ (M ),
(i∗ X)(g) = X(g ◦ i) = Y (gg
◦ i) = Y (g),
pois
g ◦ i(x) = gg
◦ i(x) = g(x),
para todo x ∈ B. Portanto, i∗ é sobrejetora.
Seja (U, ϕ) uma carta de M . Note que ϕ é, em particular, um difeomorfismo
e ⊂ Rn . Combinando as Proposições 2.5.9 e 2.5.11 temos que
de U em um aberto U
ϕ∗ : Tp M → Tφ(p) Rn é um isomorfismo. Pelo Corolário 2.5.5, as derivações
∂ ,
∂xi ϕ(p)
onde i = 1, . . . , n, formam uma base de Tφ(p) Rn . Portanto, o pushforward desses
vetores por (ϕ−1 )∗ formam uma base de Tp M . Usaremos a seguinte notação para
esses pushforwards:
!
∂ ∂ −1
= (ϕ )∗
.
∂xi p
∂xi ϕ(p)
Temos que
∂ ∂ ∂f ◦ ϕ−1
−1
(f
)
=
(f
◦
ϕ
)
=
(ϕ(p)),
∂xi p
∂xi ϕ(p)
∂xi
ou seja, ∂/∂xi |p é a derivação que dá a i-ésima derivada parcial da representação
em coordenadas de f na representação em coordenadas de p. A proposição a seguir
sumariza o que discutimos acima.
Proposição 2.5.12. Seja M uma variedade suave de dimensão n sem bordo. Para
todo p ∈ M , Tp M é um espaço vetorial de dimensão n. Se (U, (xi )) é uma carta
contendo p, os vetores
∂ ∂ ,..., n
∂x1 p
∂x p
formam uma base de Tp M .
Portanto, qualquer vetor X ∈ Tp M escreve-se unicamente como
n
X
i ∂ X=
X
.
i
∂x
p
i=1
Os números X i são chamados de componentes de X. Dado X, suas componentes
podem ser calculadas pela ação de X sobre as funções π j : Tp U → R, como segue:
!
n
n
j
X
X
∂
i ∂π
(π j ) =
X
(p) = X j ,
X(π j ) =
Xi
i
∂x
∂x
i
p
i=1
i=1
47
∂π j
= δij .
∂xi
Exploraremos agora como o pushforward se expressa em coordenadas. Consideremos primeiramente o caso particular de uma função suave f : U ⊂ Rn → V ⊂ Rm ,
U e V abertos. Se (xi ) denotam as coordenadas no domı́nio e (y j ) as na imagem,
usamos a regra da cadeia (Proposição A.4.10) para computar a ação de f∗ em um
vetor da base como segue:
!
m
X
∂ ∂g
∂f j
∂ g =
(g ◦ f ) =
(f (p)) i (p)
f∗
∂xi p
∂xi p
∂y j
∂x
j=1
!
∂f j
∂ =
(p) j g,
∂xi
∂y f (p)
sendo que a última igualdade segue pois
portanto
∂ ∂f j
∂ f∗
=
(p) j .
∂xi p
∂xi
∂y f (p)
Em outras palavras, a matriz de f∗

∂f 1
 ∂x1
 .
 ..

 ∂f m
∂x1
(2.2)
nas bases canônicas é

∂f 1
...
∂xn 
.. 
...
. 
.
m 
∂f
...
∂xn
que nada mais é que a matriz Jacobiana de f .
Considerando o caso geral de uma função suave f : M → N entre variedades
suaves, se (U, ϕ) é carta de M com p ∈ U e (V, ψ) carta de N com f (p) ∈ V , obtemos
a representação em coordenadas de f ,
fb = ψ ◦ f ◦ ϕ : ϕ(U ∩ f −1 (V )) → ψ(V ).
Pelos cálculos acima, fb∗ , é representada nas bases canônicas pela Jacobiana de
fb. Como f ◦ ϕ−1 = ψ −1 ◦ fb, temos
!
!
∂ ∂
∂
−1
−1
b∗
f∗
=
f
(ϕ
)
=
(ψ
)
f
∗
∗
∗
∂xi p
∂xi ϕ(p)
∂xi ϕ(p)
!
m
m
X
X
bj
bj
∂
f
∂
∂
f
∂
−1
= (ψ )∗
(b
p
)
=
(b
p
)
.
i
j
i
j
∂x
∂y
∂x
∂y
b(ϕ(p))
f
f
(p)
j=1
j=1
Portanto f∗ fica representada nessas bases pela matriz Jacobiana da representação
de f em coordenadas.
Sejam (U, ϕ) e (V, ψ) duas cartas de uma variedade M e p ∈ U ∩ V . Denotemos
as funções coordenadas de ϕ e ψ por (xi ) e (e
xi ) respectivamente. Qualquer vetor
tangente em p pode ser representado com relação a cada uma das bases (∂/∂xi |p ) e
(∂/∂e
xi |p ), mas como essas representações se relacionam?
48
Escrevendo a mudança de coordenadas ψ ◦ ϕ−1 como
ψ ◦ ϕ−1 (x) = (e
x1 (x), . . . , x
en (x)),
por (2.2), o pushforward por ψ ◦ ϕ−1 pode ser escrito como
m
X
∂ ∂ ∂e
xj
−1
=
(ϕ(p)) j .
(ψ ◦ ϕ )∗
∂xi ϕ(p) j=1 ∂xi
∂e
x ψ(p)
donde obtemos
∂ ∂ ∂ −1
−1
−1
= (ϕ )∗
= (ϕ )∗ (ψ ◦ ϕ )∗
∂xi p
∂xi ϕ(p)
∂xi ϕ(p)
m
m
X
X
xj
∂ ∂e
xj
∂ −1 ∂e
−1
=
(ψ )∗ i (ϕ(p)) j =
(ϕ(p))(ψ )∗
i
∂x
∂e
x
∂x
∂e
xj ψ(p)
ψ(p)
j=1
j=1
∂e
xj
∂ =
(b
p) j .
∂xi
∂e
x p
P
P
xj |p
Aplicando isso às componentes de um vetor X = i X i ∂/∂xi |p = j X j ∂/∂e
vemos que as componentes de X se transformam da seguinte maneira:
xj
e j = ∂e
X
(b
p)X i .
i
∂x
(2.3)
Até agora trabalhamos apenas com vetores tangentes a uma variedade suave sem
bordo. A definição para variedades suaves com bordo, no entanto, é a mesma. Se
M é uma variedade suave com bordo, o espaço tangente a M em p ∈ M é o espaço
das derivações de C ∞ (M ) em p, denotado por Tp M . Analogamente, se F : M → N
é uma função suave, entre variedades suaves com bordo, o pushforward de F em p
é F∗ : Tp M → TF (p) N dado por
(F∗ X)(f ) = X(f ◦ F ).
Proposição 2.5.13. Se M é uma variedade suave de dimensão n com bordo e
p ∈ ∂M , então Tp M é um espaço vetorial de dimensão n, e
∂ ∂ ,..., n
∂x1 p
∂x p
formam uma base para Tp M .
Outra construção interessante é a dos vetores cotangentes.
Definição 2.5.14. Seja M uma variedade suave sem bordo. Para cada p ∈ M
definimos o espaço cotangente a M em p por
Tp∗ M = (Tp M )∗ .
Um elemento de Tp∗ M é dito um covetor tangente a M em p.
49
Fazemos tal definição pois, como veremos adiante, a diferencial de uma função
f : M → R é naturalmente interpretada como um campo de covetores tangentes.
Se (xi ) são as funções de coordenadas em um aberto U ⊂ M , como Tp∗ M =
(Tp M )∗ , para cada p ∈ U a base
!
∂ ∂xi p
i
de Tp M fornece uma base para Tp∗ M , que denotaremos (λP
|p ). Qualquer covetor
∗
ω ∈ Tp M pode ser, portanto, escrito unicamente como ω = i ωi λi |p , onde
!
∂ ωi = ω
.
∂xi p
e ⊂ M tal
Além disso, se (x̃i ) são funções de coordenadas em um outro aberto U
e , e se (λ̃i |p ) é a base de T ∗ M dual a (∂/∂ x̃i |p ), podemos computar as
que p ∈ U
p
componentes de ω no novo sistema de coordenadas. Temos
X ∂ x̃j
∂ ∂ =
(p) j .
∂xi p
∂xi
∂ x̃ p
j
Escrevendo ω nos dois sistemas,
ω=
X
ωi λi |p =
i
X
ω̃j λ̃j |p ,
j
obtemos
ωi = ω
2.6
!
!
X ∂ x̃j
X ∂ x̃j
∂ ∂ =
ω
=
(p)
(p)ω̃j .
∂xi p
∂xi
∂ x̃j p
∂xi
j
j
(2.4)
Fibrados Tangente e Cotangente
Nesta seção introduzimos o fibrado tangente de uma variedade. Usaremos tal
objeto para definir campos de vetores em variedades, noção que mais à frente generalizaremos para campos de tensores, e o fibrado cotangente, que nos fornece uma
maneira de interpretar a diferencial de funções de variedades em R como um campo
de covetores.
A construção é feita para variedades suaves sem bordo. Para as variedades suaves
com bordo, no entanto, as definições são similares, todos os resultados continuam
valendo e têm demonstrações análogas às dadas.
Definição 2.6.1. Seja M uma variedade suave sem bordo. Definimos o fibrado
tangente de M como a união disjunta
G
TM =
Tp M.
p∈M
Denotaremos um elemento de T M por (p, X), com p ∈ M e X ∈ Tp M .
50
Há uma projeção natural π : T M → M dada por π(p, X) = p. Cometeremos o
pequeno abuso de identificar Tp M com a imagem da injeção canônica X → (p, X).
Proposição 2.6.2. Seja M uma variedade suave de dimensão n sem bordo. O
fibrado tangente T M admite uma topologia e uma estrutura suave natural com as
quais este torna-se uma variedade suave de dimensão 2n sem bordo. Além disso,
com tal estrutura π : T M → M é suave.
Demonstração: Dada (U, ϕ) uma carta de M , sejam (x1 , . . . , xn ) as funções de
coordenadas de ϕ. Seja ϕ
e : π −1 (U ) → R2n por
!
n
X
∂
= (x1 (p), . . . , xn (p), v 1 , . . . , v n ).
ϕ
e
vi
i
∂x
p
i=1
Temos im(ϕ)
e = ϕ(U ) × Rn , que é um aberto de R2n . Além disso, ϕ
e : π −1 (U ) →
n
ϕ(U ) × R é uma bijeção, com inversa
n
X
−1 1
n 1
n
i ∂ .
ϕ
e (x , . . . , x , v , . . . , v ) =
v
∂xi ϕ−1 (x)
i=1
Sejam (U, ϕ) e (V, ψ) cartas de coordenadas de M e sejam (π −1 (U ), ϕ)
e e
−1
e as cartas correspondentes em T M . Então os conjuntos
(π (V ), ψ)
ϕ(π
e −1 (U ) ∩ π −1 (V )) = ϕ(U ∩ V ) × Rn ,
e −1 (U ) ∩ π −1 (V )) = ψ(U ∩ V ) × Rn
ψ(π
são ambos abertos de R2n , e a mudança de carta ψe ◦ ϕ
e−1 : ϕ(U ∩ V ) × Rn →
ψ(U ∩ V ) × Rn pode ser escrita como (vide (2.3))
!
n
n
1
n
X
X
∂e
x
∂e
x
e ϕ
ψ◦
e−1 (x1 , . . . , xn , v 1 , . . . , v n ) = x
e1 (x), . . . , x
en (x),
(x)v j , . . . ,
(x)v j ,
j
j
∂x
∂x
j=1
j=1
onde (e
x1 , . . . x
en ) são as funções coordenadas de ψ. Vê-se, com isso, que ψe ◦ ϕ
e−1 é
suave.
Tomando uma cobertura enumerável {Ui } de M onde cada Ui é domı́nio de uma
carta, obtemos uma cobertura enumerável {π −1 (Ui )} de T M onde cada π −1 (Ui ) é
domı́nio de uma carta satisfazendo as condições (1)-(4) do Lema 2.2.10. Verifiquemos
a condição (5).
Note que quaisquer dois pontos (p, X), (p, Y ) pertencem à um mesmo domı́nio
W de alguma carta de T M , enquanto que se (p, X), (q, Y ) ∈ T M são tais que p 6= q,
existirão U e V domı́nios de cartas de M tais que p ∈ U , q ∈ V e U ∩ V = ∅.
Os conjuntos π −1 (U ) e π −1 (V ) serão, portanto abertos disjuntos contendo (p, X) e
(p, Y ), respectivamente.
Por fim, π é suave pois sua representação em coordenadas com relação à cartas
(U, ϕ) de M e (π −1 (U ), ϕ)
e de T M é π(x, v) = x.
Chamaremos (xi , vi ) de coordenadas-padrão de T M com relação à (xi ). O fibrado
tangente nos permite definir um campo de vetores em M como uma seção de T M .
51
Definição 2.6.3. Uma seção de T M é uma seção da projeção π : T M → M , isto
é, uma função contı́nua Y : M → T M que, a cada p ∈ M associa Y (p) = Yp ∈ T M
e que satisfaz
π ◦ Y = idM .
Uma seção de T M é suave se Y : M → T M é suave.
Assim, definimos:
Definição 2.6.4. Seja M uma variedade suave sem bordo. Uma seção de T M é
chamada de campo de vetores em M . Um campo suave de vetores em M é uma
seção suave de T M .
Intuitivamente, pensamos num campo de vetores em M como setas associadas a
cada ponto de M .
Se Y : M → T M é um campo de vetores em M e (U, (xi )) é uma carta de M ,
podemos escrever o valor de Y em cada ponto p ∈ U como
X
∂ i
Yp =
Y (p) i .
∂x p
i
Ficam, assim, definidas n funções Y i : U → R, que são chamadas funções componentes de Y.
Lema 2.6.5. Seja M uma variedade suave sem bordo, Y : M → T M um campo de
vetores, e (U, (xi )) é uma carta de M . Então Y é suave se, e somente se, as funções
componentes Y i com relação a (U, (xi )) são suaves.
Demonstração: Seja (xi , v i ) as coordenadas-padrão em π −1 (U ) ⊂ T M associadas
à carta (U, (xi )). A representação de Y em coordenadas em U é, então,
Yb (x) = (xi , . . . , xn , Y 1 (x), . . . , Y n (x)),
onde Y i é a i-ésima função componente de Y . O resultado segue da igualdade.
Exemplo 2.6.6. Se (U, (xi )) é uma carta de M ,
∂ p 7−→
∂xi p
define um campo de vetores suaves em U , chamado de campo de vetores da i-ésima
coordenada e denotado por ∂/∂xi .
Em vista do exemplo acima, dada M uma variedade suave de dimensão n e (xi )
coordenadas locais de U ⊂ M , temos n funções
∂
∂
,
.
.
.
,
∂x1
∂xn
que chamaremos de campos de vetores de coordenadas.
Os referenciais locais, que definiremos a seguir, nos serão úteis quando formos
definir orientações em variedades, mais à frente.
52
Uma seção local de T M em U ⊂ M aberto é uma seção η da projeção π : T M →
U . Em outras palavras, um campo de vetores em U .
Seções locais ηi , . . . , ηk de T M em U são ditas independentes em T M se, para
todo p ∈ U , ηi (p), . . . , ηk (p) são elementos linearmente independentes de Tp M . Analogamente, dizemos que ηi , . . . , ηk geram T M se, para todo p ∈ U , ηi (p), . . . , ηk (p)
geram Tp M .
Definição 2.6.7. Um referencial local para M em U é uma k-upla ordenada
(ηi , . . . , ηk ) de seções locais independentes em U que geram T M . Um referencial
local é dito suave se cada ηi é suave.
Exemplo 2.6.8. Seja (U, ϕ) uma carta de M . Os campos de vetores de coordenadas
(∂/∂xi ) formam um referencial local suave para T M em U .
Vejamos agora o caso dual.
Definição 2.6.9. Seja M uma variedade suave sem bordo. Definimos o fibrado
cotangente de M como a união disjunta
G
T ∗M =
Tp∗ M.
p∈M
O espaço cotangente tem uma projeção natural π : T ∗ M → M que, para cada
p, leva ω ∈ Tp∗ M em p. Como na seção anterior, dada uma variedade suave de
dimensão n e coordenadas locais (xi ) em U ⊂ M , denotamos a base de Tp∗ M dual a
(∂/∂xi |p ) por (λi |p ). Isso define n funções λ1 , . . . , λn : U → T ∗ M , chamadas campos
de covetores de coordenadas.
Como no caso do fibrado tangente, o fibrado cotangente T ∗ M admite uma topologia e uma estrutura suave naturais com as quais este torna-se uma variedade
suave de dimensão 2n sem bordo e π : T ∗ M → M é suave.
Coordenadas locais de M fornecem coordenadas locais de T ∗ M . A função de
π −1 (U ) → R2n dada por
ξi λi |p 7−→ (x1 (p), . . . , xn (p), ξ1 , . . . , ξp )
é uma carta de coordenadas de T ∗ M . Chamaremos (xi , ξi ) de coordenadas-padrão
de T ∗ M com relação a (xi ).
Definição 2.6.10. Seja M uma variedade suave sem bordo. Uma seção de T ∗ M é
chamada de campo de covetores em M . Um campo suave de covetores em M é uma
seção suave de T ∗ M .
A seguir veremos a diferencial de uma função como um campo de covetores. Tal
interpretação nos fornece também uma notação mais conveniente à base (λi |p ) de
Tp∗ M .
O lema seguinte nos fornece um critério para decidir a suavidade de um campo
de covetores.
Lema 2.6.11. Seja M uma variedade suave sem bordo e ω um campo de covetores
em M . Então
53
(1) Se ω = ωi λi é a representação de ω em coordenadas em qualquer carta (U, (xi ))
de M , então ω é suave se, e somente se, suas funções componentes ωi são suaves,
(2) ω é suave se, e somente se, para todo campo de vetores suave X em um aberto
U ⊂ M , a função hω, Xi : U → R dada por
hω, Xi(p) = hwp , Xp i = wp (Xp )
é suave.
Definição 2.6.12. Seja M uma variedade suave sem bordo e f : M → R suave.
Definimos df , a diferencial de f , como o campo de covetores dado por
dfp (Xp ) = Xp f,
para todo Xp ∈ Tp M .
Proposição 2.6.13. A diferencial de uma função suave f : M → R é um campo
de covetores suave.
Demonstração: Note que, para cada ponto p ∈ M , dfp (Xp ) depende linearmente
em Xp , portanto dfp é em p, de fato, um campo de covetores. Para qualquer campo
de vetores X em U ⊂ M aberto, hdf, Xi é suave pois
hdf, Xi = Xf.
Pelo Lema 2.6.11 o resultado segue.
Vejamos como a diferencial fica representada em coordenadas. Seja U ⊂ M um
aberto, (xi ) as funções de coordenadas em U e (λi ) as coordenadas P
duais a (xi ),
i
ou seja, λi (xj ) = δji . Escrevendo df em coordenadas como dfp =
i Ai (p)λ |p ,
Ai : U → R, a definição de df implica
!
∂ ∂f
∂ (p),
=
f
=
Ai (p) = dfp
∂xi p
∂xi p
∂xi
que nos fornece
dfp =
X ∂f
(p)λi |p ,
i
∂x
i
(2.5)
ou seja, as funções componentes de df com relação à uma carta de coordenadas são
as derivadas parciais de f com relação àquelas coordenadas. Nesse sentido, podemos
pensar em df como uma análoga ao clássico gradiente de uma função, em uma forma
que não depende de coordenadas.
Tomando f em 2.5 como sendo uma das funções de coordenadas xj : U → R,
obtemos
dxj |p =
X ∂xj
i
∂x
(p)λi |p =
i
X
i
54
δij λi |p = λj |p ,
isto é, o campo de covetores de coordenadas λi nada mais é que dxi . Logo, (2.5)
pode ser reescrita como
X ∂f
dfp =
(p) dxi |p ,
i
∂x
i
ou, ainda, como uma equação entre campos de covetores:
X ∂f
df =
dxi .
i
∂x
i
Em particular, se M tem dimensão 1, temos
df
dx.
dx
Recuperamos, assim, a clássica expressão para a diferencial de uma função. A
partir de agora usaremos a notação (dxi ) no lugar de (λi ).
df =
Proposição 2.6.14. Seja M uma variedade suave sem bordo e sejam f, g ∈ C ∞ (M ).
Então:
(1) Para quaisquer constantes a, b, d(af + bg) = a df + b dg,
(2) d(f g) = f dg + g df ,
(3) Se g 6= 0, d(f /g) = (g df − f dg)/g 2 ,
(4) Se J ∈ R é um intervalo tal que im(f ) ⊂ J e h : J → R é suave, então
d(h ◦ f ) = (h0 ◦ f ) df ,
(5) Se f é constante, df = 0.
Proposição 2.6.15. Seja M uma variedade suave sem bordo e f : M → R suave.
Se df = 0, então f é constante em cada componente de M .
Demonstração: É suficiente supor que M é conexa e mostrar que f é constante.
Seja p ∈ M e K = {q ∈ M | f (q) = f (p)}. Se q é um ponto qualquer de K, tome
U uma bola de coordenadas centrada em q. Da fórmula 2.5 temos, para cada i,
∂f
≡0
∂xi
em U . Portanto f é constante em U . Isso mostra que K é aberto. Por outro lado,
K é fechado, pela continuidade de f . Segue que K = M .
2.7
Integrais de Linha
Uma aplicação de campos de covetores é prover uma noção de integral de linha
independente de coordenadas. Desenvolveremos agora este assunto, que nos dará
uma primeira noção sobre integração em variedades (que discutiremos na Seção 2.11)
e que também nos será útil no Capı́tulo 3.
Seja M uma variedade suave com ou sem bordo. Uma curva em M é uma
aplicação contı́nua γ : J → M , onde J ⊂ R é um intervalo. Uma curva é dita suave
se γ é suave.
55
Definição 2.7.1. Seja M uma variedade suave com ou sem bordo e γ uma curva
suave em M . Definimos o vetor tangente a M em t0 ∈ J como sendo o vetor
!
d
∈ Tγ(t0 ) M,
γ 0 (t0 ) = γ∗
dt t0
onde d/dt|t0 é a base canônica de Tt0 R.
Proposição 2.7.2. Seja M uma variedade suave sem bordo, γ : J → M uma curva
suave e f : M → R uma função suave. A derivada da função f ◦ γ : R → R é dada
por
(f ◦ γ)0 (t) = df |γ(t) (γ 0 (t)).
Demonstração: Segue diretamente das definições de df , γ 0 , γ∗ e d/dt|t0 que
df |γ(t0 ) (γ 0 (t0 )) = γ 0 (t0 )f
= γ∗
=
!
d f
dt t0
d (f ◦ γ)
dt t0
= (f ◦ γ)0 (t0 ).
Isso termina a demonstração.
Como nós vimos, uma função suave f : M → N induz uma aplicação linear
f∗ : Tp M → Tf (p) N chamada de pushforward de f . A aplicação (f∗ )∗ : (Tf (p) N )∗ →
(Tp M )∗ dual a esta (veja A.3.23), que denotaremos apenas por f ∗ , é chamada de
pullback de f . Vê-se sem dificuldade que
(f ∗ ω)(X) = ω(f∗ X),
onde ω ∈ Tf∗(p) N e X ∈ Tp M .
Dada uma função suave f : M → N e um campo suave de covetores ω em N ,
definimos o campo (suave) de covetores f ∗ ω em M por
(f ∗ ω)p = f ∗ (ωf (p) ).
Lema 2.7.3. Se (xi ) e (y i ) são coordenadas locais em M e N , respectivamente, o
pullback f ∗ ω se escreve como
X
X
X
∗
∗
j
f ω=f
ωj dy =
(ωj ◦ f )f ∗ dy j =
(ωj ◦ f )d(y j ◦ f ),
onde f j é a j-ésima componente de f nessas coordenadas.
Os pullbacks de campos de covetores nos permitem definir a integral de linha
independentemente de coordenadas.
Começaremos com o seguinte caso particular: Seja [a, b] ⊂ R um intervalo compacto e ω um campo suave de covetores em [a, b] (o que quer dizer que a função
56
componente de ω admite uma extenção suave em alguma vizinhança aberta de
[a, b]). Denotando por t a coordenada canônica em R, temos que ω pode ser escrita
como ωt = f (t) dt para alguma função suave f : [a, b] → R. Definimos a integral de
ω em [a, b] por
Z
Z b
f (t) dt.
ω=
a
[a,b]
Proposição 2.7.4. Seja ω um campo suave de covetores no intervalo compacto
[a, b] ⊂ R. Se ϕ : [c, d] → [a, b] é um difeomorfismo crescente, então
Z
Z
∗
ϕω=
ω.
[c,d]
[a,b]
Demonstração: Denotemos por s e t as coordenadas padrão em [c, d] e [a, b],
respectivamente. Então ϕ∗ ω se escreve como (ϕ∗ ω)s = f (ϕ(s))ϕ0 (s) ds. Daı́,
Z
∗
d
Z
Z
0
ϕω=
b
f (ϕ(s))ϕ (s) ds =
[c,d]
c
Z
f (t) dt =
a
ω.
[a,b]
Seja M uma variedade suave sem bordo. Um segmento de curva em M é uma
curva γ : [a, b] → M , cujo domı́nio é um intervalo compacto. Um segmento de curva
suave por partes é um segmento de curva γ : [a, b] → M tal que existe uma partição
a = a0 < a1 < · · · < ak = b de [a, b] de forma que γ|[ai−1 ,ai ] é suave, para todo i.
Lema 2.7.5. Se M é uma variedade suave conexa, quaisquer dois pontos de M
podem ser ligados por um segmento de curva suave por partes.
Definição 2.7.6. Se γ : [a, b] → M é uma segmento de curva suave por partes em
uma variedade suave, definimos a integral de linha de ω sobre γ por
Z
ω=
γ
k Z
X
i=1
γ ∗ ω,
[ai−1 ,ai ]
onde [ai−1 , ai ] são os intervalos nos quais γ é suave.
Note que esta definição
dá um sentido rigoroso às integrais de linha clássicas,
R
como, por exemplo, γ P (x, y) dx + Q(x, y) dy em R2 .
Mostra-se sem dificuldade a proposição seguinte.
Proposição 2.7.7. Seja M uma variedade suave, γ : [a, b] → M um segmento de
curva suave por partes em M e ω, ω1 e ω2 campos de covetores suaves em M . Então:
(1) Para quaisquer c1 , c2 ∈ R,
Z
Z
Z
(c1 ω1 + c2 ω2 ) = c1 ω1 + c2 ω2 ,
γ
(2) Se γ é constante, então
γ
R
γ
ω = 0,
57
γ
(3) Se a < c < b, então
Z
Z
Z
ω=
ω+
γ
γ1
ω,
γ2
onde γ1 = γ|[a,c] e γ2 = γ|[c,b] .
Proposição 2.7.8. Se γ : [a, b] → M é um segmento de curva suave por partes e ω
é um campo suave de covetores em M , então
Z
Z b
ωγ(t) (γ 0 (t)) dt.
ω=
a
γ
Demonstração: Primeiramente, suponhamos que γ é suave e que sua imagem
está contida no domı́nio de uma única carta de coordenadas. Escrevendo as representações em coordenadas de γ(t) e ω respectivamente por (γ 1 (t), . . . , γ n (t)) e
ωi dxi , obtemos
ωγ(t) (γ 0 (t)) = ωi (γ(t))dxi (γ 0 (t)) = ωi (γ(t))(γ i )0 (t).
Combinando isso com a fórmula para o pullback em coordenadas,
(γ ∗ ω)t = (ωi ◦ γ)(t)d(γ i )t = ωi (γ(t))(γ i )0 (t) dt = ωγ(t) (γ 0 (t)) dt.
Por definição,
Z
Z
ω=
Z
∗
γ ω=
γ
[a,b]
ωγ(t) (γ 0 (t)) dt.
[a,b]
Se γ é um segmento de curva suave, por compacidade, existe uma partição finita
a = a0 < a1 < · · · < ak = b de [a, b] tal que γ([ai−1 , ai ]) está contido no domı́nio
de uma única carta de coordenadas, para cada i. Assim, podemos aplicar o caso
anteior para cada subintervalo [ai−1 , ai ].
Por fim, se γ é um segmento de curva suave por partes, aplicamos o argumento
acima para cada subintervalo no qual γ é suave.
Teorema 2.7.9. Seja M uma variedade suave sem bordo, f : M → R uma função
suave e γ : [a, b] → M um segmento de curva suave por partes. Então
Z
df = f (γ(b)) − f (γ(a)).
γ
Demonstração: Suponhamos primeiramente que γ é suave. Pelas Proposições
2.7.2 e 2.7.8 e pelo Teorema Fundamental do Cálculo (Teorema A.4.25),
Z
Z b
Z b
0
df =
dfγ(t) (γ (t)) dt =
(f ◦ γ)0 (t) dt = f ◦ γ(b) − f ◦ γ(a).
γ
a
a
Se γ é suave por partes, seja a = a0 < · · · < ak = b a partição que determina
os subintervalos [ai−1 , ai ] nos quais γ é suave. Aplicando o mesmo argumento para
cada subintervalo temos
Z
k
X
df =
(f (γ(ai )) − f (γ(ai−1 ))) = f (γ(b)) − f (γ(a)).
γ
i=1
58
Terminamos a seção discutindo campos conservativos. O Teorema 2.7.9 diz que
a integral de linha de qualquer campo ω que pode ser escrito como uma diferencial
pode ser calculada com facilidade. Por esse motivo, dizemos que um campo ω com
tal propriedade se diz exato (generalizaremos esse conceito no Capı́tulo 3). É interessante desenvolver critérios que decidam quando um campo é exato. O Teorema
2.7.9 mostra que a integral de linha de um campo exato ω sobre um segmento de
curva suave por partes γ : [a, b] → M depende apenas dos pontos inicial e final de
γ. Em particular, se γ é fechada (ou seja, se γ(a) = γ(b)) a integral de df deve ser
zero, onde f ∈ C ∞ (M ) é tal que ω = df .
Dizemos que um campo suave de covetores ω é conservativo se a integral de linha
de ω sobre qualquer segmento de curva suave por partes fechado é zero. O teorema
a seguir nos dá o critério que procuramos.
Lema 2.7.10. Um campo suave de covetores ω é conservativo se, e somente se, a
integral de linha de ω sobre γ depende apenas dos pontos inicial e final de γ.
Teorema 2.7.11. Um campo suave de covetores é conservativo se, e somente se, é
exato.
Demonstração: Se ω é um campo suave de covetores exato em M , o Teorema 2.7.9
mostra que ω é conservativo.
Suponhamos que ω seja conservativo e assumamos que M seja conexa. Como
a integral de linha de Rω sobre γ depende apenas dos pontos inicial e final de γ,
q
adotaremos a notação p ω para a integral de linha de ω sobre qualquer segmento
de curva suave por partes com ponto inicial p e final q. Pela Proposição 2.7.7,
Z p2
Z p3
Z p3
ω+
ω=
ω
(2.6)
p1
p2
p1
para quaisquer p1 , p2 , p3 ∈ M .
Seja p0 ∈ M fixo e f : M → R dada por
Z q
f (q) =
ω.
p0
Temos df = ω. De fato, seja q0 ∈ M qualquer, (U, (xi )) uma carta centrada em q0 e
ω = ωi dxi a representação de ω em coordenadas em U . Mostraremos que
∂f
(q0 ) = ωj (q0 )
∂xj
para todo j = 1, . . . , n, o que implica dfq0 = ωq0 .
Fixemos j e tomemos γ : [−ε, ε] → U o segmento de curva suave por partes dado
em coordenadas por γ(t) = (0, . . . , t, . . . , 0), com t na j-ésima entrada e ε pequeno
o suficiente de forma que γ([−ε, ε]) ⊂ U . Seja p1 = γ(−ε) e fe : M → R dada por
Rq
fe(q) = p1 ω. Então, por (2.6),
Z
q
f (q) − fe(q) =
Z
q
ω−
p0
p1
ω=
p1
59
Z
ω,
p0
que não depende de q. Logo f e fe diferem por uma constante, e, portanto, basta
mostrar que ∂ fe/∂xj (q0 ) = ωj (q0 ).
Agora, γ 0 (t) = ∂/∂xj |γ(t) por construção, logo
!
∂
ωγ(t) (γ 0 (t)) = ωi (γ(t))dxi
= ωj (γ(t)).
j
∂x γ(t)
Como a restrição de γ a [−ε, t] é uma curva suave de p1 a γ(t), temos
Z t
Z t
Z γ(t)
0
ω=
ωγ(s) (γ (s)) ds =
ωj (γ(s)) ds.
fe ◦ γ(t) =
p1
−ε
−ε
Pelo Teorema Fundamental do Cálculo (Teorema A.4.25),
∂ fe
d
0
e = fe ◦ γ(t)
(q
)
=
γ
(0)
f
0
∂xj
dt Z t t=0
d ωj (γ(s)) ds = ωj (γ(0)) = ωj (q0 ).
=
dt t=0 −ε
E isso termina a demonstração para o caso em que M é conexa. Se M não é conexa,
seja {Mi } o conjunto das componentes de M . Pelo caso anterior, para cada i existe
uma função suave fi ∈ C ∞ (Mi ) tal que dfi = ω em Mi . Definindo f : M → R como
sendo igual a fi em Mi temos ω = df .
2.8
Mergulhos e Aproximações
Uma variedade pode ser suavemente mergulhada no espaço euclideano? Esta
seção responde essa pergunta e também traz alguns outros resultados relacionados
que usaremos no capı́tulo seguinte.
Definição 2.8.1. Seja f : M → N uma função suave entre variedades suaves sem
bordo. Definimos o posto de f em p ∈ M , que denotaremos por rank(f )(p), como
sendo o posto da aplicação linear f∗ : Tp M → Tf (p) N , que é simplesmente o posto
da matriz Jacobiana de f em qualquer carta de coordenadas (ou, equivalentemente,
dim(im(f∗ ))).
Se rank(f )(p) = k em todo ponto p ∈ W ⊂ M , dizemos que rank(f ) = k em W .
Definição 2.8.2. Sejam M e N variedades suaves sem bordo. Uma função suave
f : M → N é uma submersão se f∗ : Tp M → Tf (p) N é sobrejetora em cada p ∈ M
(ou, equivalentemente, rank(f ) = dim(N )) e uma imersão se f∗ é injetora em cada
p ∈ M (ou, equivalentemente, rank(f ) = dim(M )).
Quando uma imersão f é também um mergulho topológico (ou seja, quando
f : M → f (M ) é um homeomorfismo, com f (M ) munido da topologia induzida),
dizemos que f é um mergulho suave.
Exemplo 2.8.3. Sejam M1 , . . . , Mk variedades suaves.
(1) Cada pojeção πi : M1 × · · · × Mk → Mi é uma submersão.
60
(2) A função suave f : R2 → R3 dada por
f (φ, θ) = ((2 + cos(φ)) cos(θ), (2 + cos(φ)) sin(θ), sin(φ))
é uma imersão de R2 em R3 cuja imagem é um toro.
(3) Cada aplicação ij : Mj → M1 × · · · × Mk dada por
ij (q) = (p1 , . . . , pj−1 , q, pj+1 , . . . , pk )
é um mergulho suave.
O lema seguinte nos dá condições suficientes para que uma imersão seja um
mergulho suave. Uma função f : M → N é dita uma aplicação própria se, para
todo subconjunto compacto K ⊂ N , f −1 (K) é compacto.
Lema 2.8.4. Seja f : M → N uma imersão injetora. Se M é compacta ou f é uma
aplicação própria, então f é um mergulho suave e f (M ) é fechado.
Demonstração: Segue de ambas hipóteses que f é fechada, pelo Lema A.2.20, o
que implica que f (M ) é fechado em N . Como f é injetora, f : M → f (M ) é bijetora
e, logo, existe f −1 : f (M ) → M . Se U ⊂ M é fechado, então f (U ) = (f −1 )−1 (U )
é fechado em N , e, portanto, em f (M ). Segue que f −1 é contı́nua, logo f é um
homeomorfismo sobre sua imagem, portanto, um mergulho topológico.
A noção de conjuntos de medida nula em Rn (Definição A.4.17) não se estende
automaticamente a variedades porque estas não necessariamente vêm munidas de
uma métrica. O resultado seguinte resolve esse problema mostrando que a noção
de medida nula é invariante por difeomorfismos. Usaremos na demonstração deste
resultado o fato (facilmente verificável) de que podemos enunciar a noção de conjuntos de medida nula usando n-bolas cujo volume é menor que um δ dado, ao invés
de n-cubos.
Lema 2.8.5. Seja A ⊂ Rn um conjunto de medida nula e f : A → Rn uma função
suave. Então f (A) tem medida nula.
Demonstração: Para cada p ∈ A, f pode ser estendida (Lema 2.4.12) a uma
função suave (que também denotaremos por f ) de uma vizinhança aberta de p (que
podemos assumir ser uma bola fechada B[p] centrada em p) em Rn . Como B[p] é
compacta, existe uma constante c tal que kDf (x)k ≤ c para todo x ∈ B[p]. Isso
implica, pelo Lema A.4.28, que
kf (x) − f (y)k ≤ ckx − yk
(2.7)
para todo x, y ∈ B[p].
Como A tem medida nula, dado δ > 0 podemos tomar uma cobertura enumerável
{Bj } de A ∩ B[p] por bolas abertas tais que
X
vol(Bj ) < δ.
j
61
fj cujo raio é menor que
Então, por (2.7), f (B[p] ∩ Bj ) está contido em uma bola B
ou igual a c vezes o raio de Bj . Disso concluı́mos que f (A ∩ B[p]) está contido numa
fj } tal que
coleção de bolas {B
X
fj ) < cn δ.
vol(B
j
Segue, então, que f (A ∩ B[p]) tem medida nula. Como f (A) é a união de uma
quantidade enumerável de conjuntos do tipo f (A ∩ B[p]), concluı́mos que f (A) tem
medida nula.
Lema 2.8.6. Seja U ⊂ Rm aberto e f : U → Rn suave, com m < n. Então f (U )
tem medida nula em Rn .
Demonstração: Seja π : Rn → Rm a projeção nas m primeiras coordenadas e
e = π −1 (U ). Considere fe = f ◦ π : U
e → R. Como f (U ) = fe(U
e ∩ Rm ) é a imagem
U
de um conjunto de medida nula por uma função suave, basta aplicarmos o Lema
2.8.5.
Definição 2.8.7. Um subconjunto A ⊂ M (M uma variedade suave de dimensão n
sem bordo) tem medida nula se para toda carta (U, ϕ) de M , o conjunto ϕ(A ∩ U )
tem medida nula em Rn .
Proposição 2.8.8. Sejam M e N variedades suaves sem bordo tais que m =
dim(M ) < n = dim(N ) e seja f : M → N uma função suave. Então f (M ) tem
medida nula em N .
Demonstração: Seja {(Ui , ϕi )} uma cobertura enumerável de M por cartas. Dada
uma carta (V, ψ) de N , temos que ψ(f (M ) ∩ U ) se escreve como uma união enu−1
merável de conjuntos da forma ψ ◦ f ◦ ϕ−1
(V ) ∩ Ui )), cada um destes tendo
i (ϕi (f
medida nula, pelo Lema 2.8.6.
Proposição 2.8.9. Seja M uma variedade suave de dimensão n sem bordo e f :
M → Rm uma função suave, com 2n ≤ m. Então, dado ε > 0, existe uma imersão
suave fe : M → Rm tal que
sup fe(p) − f (p) ≤ ε.
p∈M
Demonstração: Seja {Wi } uma cobertura aberta regular de M . Então cada Wi
é o domı́nio de uma carta ψi : Wi → B3 (0) e os conjuntos
Sk pré-compactos Ui =
−1
ψi (B1 (0)) ainda cobrem M . Para cada k > 0, seja Mk = i=1 Ui , e convencionemos
que M0 = ∅. Modificaremos f indutivamente em cada Wi .
Para cada i, seja ϕi ∈ C ∞ (M ) uma função teste suave com suporte em Wi e tal
que ϕi (x) = 1 para todo x ∈ Ui . Seja f0 = f e suponhamos por indução que existam
funções suaves fj : M → Rm , j = 0, . . . , k − 1 tais que
(1) supM kfj − f k < ε,
(2) se j ≥ 1, fj (x) = fj−1 (x), a menos que x ∈ Wj ,
62
(3) (fj )∗ é injetora em cada ponto de Mj .
Seja A uma matriz m × n, definimos uma nova aplicação FA : M → Rm como
segue: Em M \supp(ϕk ), FA = fk−1 , e em Wk , FA é a aplicação dada em coordenadas
por
FA (x) = fk−1 (x) + ϕk (x)Ax,
pensando A como uma aplicação linear. Note que ambas as definições nos dão
FA = fk−1 em Wk \ supp(ϕk ), portanto FA é suave. Tomaremos fk = FA para uma
escolha conveniente de A.
Como vale (1) para j = k − 1, existe ε0 < ε tal que |fk−1 (x) − f (x)| ≤ ε0 no
compacto supp(ϕk ). Por continuidade, existe δ > 0 tal que, se kAk < δ então
sup kFA − fk−1 k =
M
kϕk (x)Axk < ε − ε0 ,
sup
x∈supp(ϕk )
e, portanto,
sup kFA − f k ≤ sup kFA − fk−1 k + sup kfk−1 − f k < (ε − ε0 ) + ε0 = ε.
M
M
M
Seja P : Wk ×Mn×m (R) → Mn×m (R) dada por P (x, A) = DFA (x). Pela hipótese
de indução, a matriz P (x, A) tem posto n se (x, A) ∈ supp(ϕk ) ∩ Mk−1 × {0}.
Tomando δ menor se necessário, podemos garantir também que rank(P (x, A)) = n
se x ∈ supp(ϕk ) ∩ Mk−1 e kAk < δ.
A última condição é que rank(FA )∗ = n em Uk , e, portanto, em Mk = Mk−1 ∪ Uk .
Note que DFA = Dfk−1 (x) + A em x ∈ Uk , pois ϕk ≡ 1 em Uk , e, portanto, temos
que DFA tem posto n em Uk se, e somente se, A não é da forma B − Dfk−1 (x),
para qualquer matriz B de posto menor que n. Para garantir isso, seja Q : Wk ×
Mn×m (R) → Mn×m (R) dada por
Q(x, B) = B − Dfk−1 (x).
Precisamos mostrar que existe alguma matriz A, com kAk < δ, que não é da forma
Q(x, B), para qualquer x ∈ Uk e qualquer matriz B de posto menos que n. Para cada
j
j = 0, . . . , n−1, o conjunto Mn×m
(R) das matrizes n×m de posto j é uma variedade
j
mergulhada em Mn×m (R) de codimensão (ou seja, dim(Mn×m (R))−dim(Mn×m
(R)))
j
igual a (m − j)(n − j). Segue pela Proposição 2.8.8 que Q(Wk × Mn×m (R)) tem
j
medida nula em Mn×m (R) se tivermos dim(Wk × Mn×m
(R)) < dim(Mn×m (R)), que
é o mesmo que exigir
n + mn − (m − j)(n − j) < mn,
ou seja,
n − (m − j)(n − j) < 0.
(2.8)
Quando j = n−1, n−(m−j)(n−j) = 2n−m−1 < 0, pois 2n ≤ m. Se j ≤ n−1,
n − (m − j)(n − j) é crescente em j, pois sua derivada é positiva. Portanto (2.8) vale
j
para qualquer j satisfazendo 0 ≤ j ≤ n − 1. Isso implica que Q(Wk × Mn×m
(R))
63
tem medida nula em Mn×m (R) para cada j = 0, . . . , n − 1. Escolhendo A tal que
kAk < δ e
n−1
[
j
Q(Wk × Mn×m
(R)),
A∈
/
j=0
e tomando fk = FA , obtemos fk satisfazendo as três hipóteses de indução para j = k.
Seja agora
fe(x) = lim fk .
k→∞
Como a cobertura {Wi } é localmente finita, para cada k existe n(k) > k tal que
Wk ∩Wj = ∅ para todo j ≥ n(k), e então a condição (2) implica que fn(k) = fn(k)+1 =
· · · = fi em Wk para todo i ≥ n(k). Logo, a sequência {fk (x)} é eventualmente
constante para x em uma vizinhança de cada ponto, e então fe : M → Rm é suave.
Além disso fe é uma imersão pois fe = fn(k) em Mk e, por (3), rank(fn(k) ) = n. Corolário 2.8.10. Toda variedade suave de dimensão n admite uma imersão em
R2n .
Demonstração: Basta aplicar a Proposição 2.8.9 a qualquer função suave f : M →
R2n .
Proposição 2.8.11. Seja M uma variedade suave de dimensão n sem bordo e
f : M → Rm uma imersão, com 2n + 1 ≤ m. Então dado ε > 0 existe uma imersão
injetora fe : M → Rm tal que
sup fe(p) − f (p) ≤ ε.
p∈M
Demonstração: Como toda imersão é localmente um mergulho, existe uma cobertura aberta Wi de M tal que a restrição de f a cada Wi é injetora. Tomando um
refinamento se necessário, podemos assumir que Wi é regular (veja 2.4.6). Como na
demonstração da Proposição 2.8.9, seja ψi : Wi → B3 (0) a função de coordenadas
S
associada a cada Wi , sejam Ui = ψ −1 (B1 (0)) e, para cada k > 0, seja Mk = ki=1 Ui
(convencionando que M0 = ∅). Modificaremos f indutivamente tornando-a injetora
em domı́nios cada vez maiores.
Seja f0 = f e suponhamos por indução que existam funções suaves fj : M → Rm ,
j = 0, . . . , k − 1 satisfazendo
(1) fj é imersão,
(2) supM kfj − f k < ε,
(3) se j ≥ 1, fj (x) = fj−1 (x), a menos que x ∈ Wj ,
(4) fj é injetora em Mj ,
(5) fj é injetora em Wi para todo i.
64
Definimos fk por
fk (x) = fk−1 (x) + ϕk (x)b,
onde b ∈ Rm será determinado de forma a termos fk (x) 6= fk (y) se x 6= y, x, y ∈ Mk .
Por continuidade, existe δ > 0 tal que, se kbk < δ então
sup kfk − f k ≤ sup kfk − fk−1 k + sup kfk−1 − f k ≤ ε.
M
M
supp(ϕk )
Tomando δ menor se necessário, podemos garantir também que (fk )∗ é injetora em
cada ponto de supp(ϕk ). Como (fk )∗ = (fk−1 )∗ é injetora no restante de M , segue
que fk é imersão.
Agora, se fk (x) = fk (y), então exatamente um dos seguintes casos ocorre:
Caso 1: ϕk (x) 6= ϕk (y) e, então
b=−
fk−1 (x) − fk−1 (y)
.
ϕk (x) − ϕk (y)
(2.9)
Caso 2: ϕk (x) = ϕk (y) e, então fk−1 (x) = fk−1 (y).
Seja U ⊂ M × M tal que
U = {(x, y) ∈ M × M | ϕk (x) 6= ϕk (y)},
e seja R : U → Rm a função suave
R(x, y) = −
fk−1 (x) − fk−1 (y)
.
ϕk (x) − ϕk (y)
Como dim(U ) = dim(M × M ) = 2n < m, a Proposição 2.8.8 implica que R(U ) tem
medida nula em Rm . Portanto, existe b ∈ Rm , com kbk < δ, tal que (2.9) não vale
para (x, y) ∈ U . Com tal b, as hipóteses (1)-(3) valem para j = k. Mostremos que
(4) e (5) também valem.
Se fk (x) = fk (y), para x, y ∈ Mk , o Caso 1 não pode ocorrer, dada nossa escolha
de b. Portanto ϕk (x) = ϕk (y) e fk−1 (x) = fk−1 (y). Se ϕk (x) = ϕk (y) = 0, então
x, y ∈ Mk \ Uk ⊂ Mk−1 , o que contradiz o fato de fk−1 ser injetora em Mk−1 , por
hipótese. Por outro lado, se ϕk (x) 6= 0 e ϕk (y) 6= 0, então x, y ∈ supp(ϕk ) ⊂ Wk ,
o que contradiz o fato de fk−1 ser injetora em cada Wi , por hipótese. Portanto (4)
vale para j = k.
Analogamente, se fk (x) = fk (y), para x, y ∈ Wi (para qualquer i), o mesmo
argumento mostra que fk−1 (x) = fk−1 (y), contradizendo a injetividade de fk−1 em
Wi . Isso mostra que fk satisfaz (5).
Considere agora
fe(x) = lim fj (x).
j→∞
Como na Proposição 2.8.9, para j suficientemente grande, a sequência fj é constante
em Wk (para qualquer k), e, portanto, fe é suave. Ainda, se fe(x) = fe(y), basta tomar
k tal que x, y ∈ Mk . Assim, para j suficientemente grande, fe = fj em Mk e segue
da injetividade de fj em Mj ⊃ Mk que x = y.
65
Teorema 2.8.12 (Whitney). Toda variedade suave de dimensão n sem bordo admite um mergulho suave próprio em R2n+1 .
Demonstração: Seja M uma variedade suave de dimensão n sem bordo. Pelo
Lema 2.8.4, uma imersão injetora própria é um mergulho suave.
Seja g : M → R uma função de exaustão suave para M (veja 2.4.14). Vêse claramente que f0 : M → R2n+1 dada por f0 (p) = (g(p), 0, . . . , 0) é suave e
própria. Pela Proposição 2.8.9, existe uma imersão f1 : M → R2n+1 satisfazendo
supM kf1 − f0 k ≤ 1 e, pela Proposição 2.8.11 existe uma imersão injetora f2 : M →
R2n+1 satisfazendo supM kf2 − f1 k ≤ 1.
Se K ⊂ R2n+1 é compacto, K ⊂ Br [0] para algum r ∈ R. Portanto, se f2 (p) ∈ K,
kf0 (p)k ≤ kf0 (p) − f1 (p)k + kf1 (p) − f2 (p)k + kf2 (p)k ≤ 1 + 1 + r,
o que implica que f2−1 (K) é um subconjunto fechado de f0−1 (B2+r [0]), que por sua
vez é compacto, pois f0 é própria. Segue que f2 é uma imersão injetora própria e,
logo, um mergulho suave.
Os resultados a seguir serão de grande utilidade na teoria de cohomologia de
De Rham. Tratam-se de aproximações de funções contı́nuas entre variedades por
funções suaves.
Definição 2.8.13. Seja δ : M → R contı́nua e positiva. Dizemos que duas funções
f, fe : M → Rn são δ-próximas se
kf (p) − fe(p)k ≤ δ(p),
para todo p ∈ M .
Teorema 2.8.14. Sejam M uma variedade suave sem bordo e f : M → Rn uma
função contı́nua. Dada qualquer função δ : M → R contı́nua e positiva, existe uma
função suave fe : M → Rn tal que f e fe são δ-próximas. Se f é suave em um fechado
A ⊂ M , então fe pode ser tomada igual a f em A.
Demonstração: Seja δ : M → R contı́nua e positiva. Se f é suave no fechado A,
então, pelo Lema 2.4.12, existe uma função f0 : M → Rn suave tal que f0 |A = f .
Seja
U0 = {y ∈ M | kf0 (y) − f (y)k < δ(y)}.
Vê-se facilmente que U0 é aberto e que A ⊂ U0 . (Se A = ∅, colocamos U0 = ∅).
Mostraremos que existe apenas uma quantidade enumerável de pontos {xi }, i =
1, 2, . . . , em M \ A, e vizinhanças Ui de xi em M \ A tais que
kf (y) − f (xi )k < δ(y),
(2.10)
para todo y ∈ Ui . Para isso, para qualquer x ∈ M \ A, seja Ux uma vizinhança de
x em M \ A tal que
1
δ(y) > δ(x)
2
e
1
kf (y) − f (x)k < δ(x)
2
66
para todo y ∈ Ux . (Tal vizinhança existe pela continuidade de δ e f ). Então, se
y ∈ Ux , temos
1
kf (y) − f (x)k < δ(x) < δ(y).
2
A coleção de todos os Ux com x variando em M \ A é uma cobertura aberta de
M \ A. Escolhendo uma subcobertura enumerável {Uxi }, i = 1, 2, . . . , e colocando
Ui = Uxi temos (2.10).
Seja {ϕ0 , ϕ1 } uma partição suave da unidade com relação à cobertura aberta
{U0 , Ui } de M , e defina fe : M → Rn por
X
fe(y) = ϕ0 (y)f0 (y) +
ϕi (y)f (xi ).
i≥1
P
Claramente fe é suave e igual a f em A. Para qualquer y em M , como i≥0 ϕi ≡ 1,
temos
!
X
X
e
ϕi (y)f (xi ) − ϕ0 (y) +
ϕi (y) f (y)
f (y) − f (y) = ϕ0 (y)f0 (y) +
i≥1
i≥1
X
≤ ϕ0 (y)kf0 (y) − f (y)k +
ϕi (y)kf (xi ) − f (y)k
i≥1
< ϕ0 (y)δ(y) +
X
ϕi (y)δ(y) = δ(y),
i≥1
e isso termina a demonstração
Definição 2.8.15. Seja M uma variedade suave de dimensão m sem bordo mergulhada em Rn . Para cada p ∈ M definimos o espaço normal a M em p como sendo o
subespaço Np M ⊂ Tp Rn de todos os vetores ortogonais a Tp M com respeito ao produto interno canônico de Rn . O fibrado normal de M é o subconjunto N M ⊂ T Rn
definido por
G
NM =
Np M = {(p, v) ∈ T Rn | p ∈ M e v ∈ Np M }.
p∈M
Há uma projeção natural πN M : N M → M definida pela restrição de π : T Rn →
Rn a N M . Cada fibra Np M é um espaço vetorial de dimensão n − m.
Definamos E : N M → Rn por
E(p, v) = p + v,
onde consideramos v ∈ Np M ⊂ Tp Rn como um vetor de Rn via a identificação
natural Tp Rn ∼
= Rn . A aplicação E leva cada espaço normal Np M no espaço afim
em p e ortogonal a Tp M . Claramente E é suave.
Definição 2.8.16. Uma vizinhança tubular de M é uma vizinhança U de M em Rn
que é a imagem por E de um aberto V ⊂ N M da forma
V = {(p, v) ∈ N M | kvk < δ(p)},
para uma função positiva e contı́nua δ : M → R.
67
Proposição 2.8.17. Toda variedade suave mergulhada em Rn admite uma vizinhança tubular.
Nosso interesse em vizinhanças tubulares é devido à proposição seguinte. Uma
retração de um espaço topológico X em um subespaço M ⊂ X é uma aplicação
contı́nua r : X → M tal que r|M = idM .
Lema 2.8.18. Seja M variedade suave mergulhada em Rn e U uma vizinhança
tubular qualquer de M . Existe uma retração suave de U em M .
Demonstração: Por definição, existe um aberto V ⊂ N M contendo M tal que
E : V → U é um difeomorfismo. Definimos r : U → M por r = π ◦ E −1 , onde
π : N M → M é a projeção natural. Vê-se claramente que r é suave e, para p ∈ M ,
temos E(p, 0) = p, logo
r(p) = π ◦ E −1 (p) = π(p, 0) = p,
portanto r é retração
Os resultados seguintes pressupõem o conhecimento da teoria básica de homotopia. Encontram-se na Seção 3.3 do apêndice as principais definições e resultados.
Proposição 2.8.19. Sejam M e N variedades suaves sem bordo e f : M → N uma
função contı́nua. Então f é homotópica a uma função suave fe : M → N . Ainda,
se f é suave em algum fechado A ⊂ M , então tal homotopia pode ser tomada
relativamente a A.
Demonstração: Pelo Teorema 2.8.12, podemos admitir que M é uma variedade
mergulhada de Rn . Seja U uma vizinhança tubular de M em Rn e seja r : U → M
a retração suave dada pelo Lema 2.8.18. Para todo p ∈ M , considere a função
contı́nua
δ(p) = sup{ε ≤ 1 | Bε (p) ⊂ U },
e difina δe = δ ◦f : N → R. Pelo Teorema 2.8.14, existe uma função suave fe : N → R
que é δ-próxima de f em A (que pode ser o conjunto vazio). Definimos a homotopia
H : N × I → M por
H(p, t) = r (1 − t)f (p) + tfe(p) .
Note que H está bem definida pois para cada p, a condição sobre fe garante que
kfe(p) − f (p)k < δ(p) = δ(f (p)), ou seja, fe(p) está em uma bola de raio δ(f (p))e
centro f (p). Como tal bola está contida em U , o segmento de reta que liga f (p) a
fe(p) também está.
Portanto H é uma homotopia entre H(p, 0) = f (p) e H(p, 1) = r(fe(p)), que é
suave. Ainda, H satisfaz H(p, t) = f (p) para todo p ∈ A, uma vez que f = fe em A.
Terminamos esta seção com uma aplicação à teoria de homotopia, que será usada
no Capı́tulo 3.
68
Definição 2.8.20. Sejam M e N variedades suaves sem bordo e f, g : M → N
funções suaves. Dizemos que f e g são suavemente homotópicas se existe uma
função suave H : M × I → N tal que H é uma homotopia entre f e g.
Lema 2.8.21. Sejam f, g : M → N aplicações suaves homotópicas. Então f e g são
suavemente homotópicas. Além disso, se f é homotópica a g relativamente a algum
fechado A ⊂ M , então f e g são suavemente homotópicas relativamente a A.
Demonstração: Seja H : M × I → N uma homotopia de f em g (relativa a A,
que pode ser o conjunto vazio). Queremos mostrar que H pode ser substituida por
uma homotopia suave.
Como a Proposição 2.8.19 não se aplica diretamente a variedades com bordo,
precisamos primeiramente estender H a uma variedade sem bordo que contenha
M × I. Seja J = (−ε, 1 + ε), para algum ε > 0, e H : M × J → M dada por

t ≤ 0,
 H(p, 0) se
H(p, t) se 0 ≤ t ≤ 1,
H(p, t) =

H(p, 1) se
t ≥ 1.
que claramente é contı́nua. Note que a restrição de H a M × {0} ∪ M × {1} é suave,
pois esta é igual a f ◦ π1 em M × {0} e a g ◦ π1 em M × {1} (onde π1 : M × I → M é
a projeção canônica). Se f ' g (rel A), H é também suave em A × I. Portanto, pela
e : M × J → N cuja restrição a M × {0} ∪ M × {1} ∪ A × I
Proposição 2.8.19, existe H
e M ×I é uma
é igual a H (e, portanto, a H). Restringindo a M × I, vemos que H|
homotopia suave relativa a A entre f e g.
2.9
Formas Diferenciais
As formas diferenciais nada mais são que campos de tensores alternados. Elas
generalizam os campos de vetores e serão nossos integrandos na próxima seção.
Como na Seção 2.6, a construção é feita para variedades suaves sem bordo. Para
as variedades suaves com bordo, no entanto, as definições são similares, todos os
resultados continuam valendo e têm demonstrações análogas às dadas.
Definição 2.9.1. Seja M uma variedade suave sem bordo. Definimos o fibrado
k-tensorial covariante de M como
k
O
M=
k
G O
(Tp M ).
p∈M
Similarmente podemos definir o fibrado l-tensorial contravariante de M e o fibrado (k, l)-tensorial misto de M como
O
l
M=
G O
p∈M
k
O
(Tp M ),
l
l
k
G O
M=
(Tp M ).
p∈M
l
PercebaN
que os fibradosNtangente e cotangente são casos especiais de fibrados
1
tensoriais:
M = T ∗M .
1 M = TM e
69
N
Focaremos agora nosso interesse em k M (as construções
apesar
N que faremos,
N
de não serem de nosso interesse aqui, também servem para l M e kl M ).
N
Há uma projeção natural π : k M → M dada por π(p, τ ) = p.
Proposição 2.9.2. Seja M uma
Nk variedade suave de dimensão n sem bordo. O
fibrado k-tensorial covariante
M admite uma topologia e uma estrutura suave
natural com as quais este torna-se uma N
variedade suave de dimensão n + nk sem
bordo. Além disso, com tal estrutura π : k M → M é suave.
Demonstração: Dada (U, ϕ) uma carta de M , sejam (xi ) as funções coordenadas
k
de ϕ. Considere ϕ
e : π −1 (U ) → Rn+n dada por
!
X
ϕ
e
τI dxI = (x1 (p), . . . , xn (p), τ1...1 , . . . , τ1...n , . . . , τn...1 , . . . , τn...n ).
p
I
k
k
Temos que im(ϕ)
e = ϕ(U ) × Rn , que é um aberto de Rn+n , e que ϕ
e é bijeção
pois
ϕ
e−1 (x1 , . . . , xn , τ1...1 , . . . , τ1...n , . . . , τn...1 , . . . , τn...n ) =
X
τI dxI ϕ−1 (x) .
I
e a correspondente carta de
Se (V, ψ) é outra carta de M e (π −1 (V ), ψ)
então
Nk
M,
k
ϕ(π
e −1 (U ) ∩ π −1 (V )) = ϕ(U ∩ V ) × Rn ,
e −1 (U ) ∩ π −1 (V )) = ψ(U ∩ V ) × Rnk
ψ(π
k
são abertos de Rn+n . Note que, se (p, τ ) ∈ π −1 (U ) ∩ π −1 (V ) e (dxi |p ), (de
xj |p ) são
∗
i
j
bases de Tp M , onde (x ) e (e
x ) são as funções coordenadas de ϕ e ψ respectivamente,
P
então
τ se escreve unicamente em cada uma dessas bases como τ = I τI dxI |p =
P
eJ dxJ |p , onde I = (i1 , . . . , ik ) e J = (j1 , . . . , jk ) são ı́ndices múltiplos. Temos
J τ
que
∂
∂
,..., i
τI = τi1 ...ik = τ
∂xi1
∂x k
!
X ∂e
X ∂e
xj 1
∂ xj k
∂ = τ
(p) j1 , . . . ,
(p) j i1
ik
∂x
∂e
x
∂x
∂e
xk p
p
j
j
1
k
X ∂e
X ∂e
xj1
∂e
xj k
xJ
=
(p)
.
.
.
(p)e
τ
=
(p)e
τJ .
j1 ...jk
i1
ik
I
∂x
∂x
∂x
j ,...,j
J
1
k
k
k
Portanto a mudança de carta ψe ◦ ϕ
e−1 : ϕ(U ∩ V ) × Rn → ψ(U ∩ V ) × Rn se
escreve, denotando ψe ◦ ϕ
e−1 (x1 , . . . , xn , τ1...1 , . . . , τ1...n , . . . , τn...1 , . . . , τn...n ) = I, como
!
J
J
X ∂e
X ∂e
x
x
I =
x
e1 (x), . . . , x
en (x),
(p)e
τJ , . . . ,
(p)e
τJ ,
(1,...,1)
(n,...,n)
∂x
∂x
J
J
70
donde vemos que esta é suave.
Dada, então, uma cobertura
enumerável {Ui } de M , obtemos uma cobertura
Nk
−1
enumerável {π (Ui )} de
M onde cada π −1 (Ui ) é o domı́nio de uma carta ϕ
ei
satisfazendo as condições (1)-(4) do Lema
N 2.2.10. Verifiquemos a condição (5).
Dados quaisquerN(p, τ ) e (p, υ) em k M , claramente (p, τ ) e (p, υ) pertencem
à mesma carta de k M , a saber, (π −1 (U ), ϕ),
e onde p ∈ U . Também, se (p, τ ) e
(q, υ) são tais que p 6= q, existirão U e V abertos de M tais que p ∈ U , q ∈ V e
U ∩ V = ∅. Logo (p, τ ) ∈ π −1 (U ),N
(q, υ) ∈ π −1 (V ) e π −1 (U ) ∩ π −1 (V ) = ∅.
k
Portanto, pelo Lema 2.2.10,
M admite uma única estrutura de variedade
suave tal que (U
,
ϕ
e
)
são
cartas.
Ni i
Por fim, se k M está munida dessa estrutura, π é suave pois sua representação
em coordenadas com relação a (U, ϕ), (π −1 (U ), ϕ)
e é π(x, τ ) = x.
Nk
Nk
Uma seção de
M éN
uma seção da projeção π :
M → M , istoN
é, uma
função contı́nua Y : M → k M que, a cada p ∈ M associa Y (p) = Yp ∈ k M e
que satisfaz
π ◦ Y = idM .
Nk
N
Uma seção de
M é suave se Y : M → k M é suave.
N
Definição 2.9.3. Seja M uma variedade suave sem bordo. Uma seção de k M
é chamada de campo de k-tensores (covariantes) N
em M . Um campo de k-tensores
(covariantes) suave em M é uma seção suave de k M .
Denotaremos o espaço vetorial de todos os campos de k-tensores suaves em M
por T k (M ). Como vimos na Seção 1.4, dada (dxi ) uma base de Tp∗ M , os tensores
Nk
(Tp M ).
da forma dxi1 ⊗ · · · ⊗ dxik , com ij = 1, . . . , n, formam uma base para
Nk
i
Assim, dadas coordenadas locais (x ), qualquer campo de tensores ξ ∈
M pode
ser escrito nessas coordenadas como
X
ξi1 ...ik dxi1 ⊗ · · · ⊗ dxik .
ξ=
i1 ,...,ik
As funções ξi1 ...ik são chamadas de funções componentes de ξ com relação a (xi ).
Nk
Lema
2.9.4.
Seja
M
uma
variedade
suave
sem
bordo
e
ξ
:
M
→
M uma seção
Nk
de
M . São equivalentes:
(1) ξ é suave,
(2) Para qualquer carta de coordenadas em M , as funções componentes de ξ são
suaves,
(3) Seja U ⊂ M aberto. Se Xi , . . . , Xk são campos de vetores suaves em U , a função
ξ(X1 , . . . , Xk ) : U → R dada por
ξ(X1 , . . . , Xk )(p) = ξp (X1 |p , . . . , Xk |p )
é suave.
71
Um campo de 1-tensores nada mais é que um campo de covetores. Como um
0-tensor é simplesmente um número real, um campo de 0-tensores é apenas uma
função contı́nua de M em R.
Definição 2.9.5. Sejam M e N variedades suaves sem bordo, f : M → N uma
função suave e ϑ um campo de k-tensores em N . Definimos o pullback de ϑ por f
como sendo o campo de k-tensores em M dado por
(f ∗ ϑ)p (X1 , . . . , Xk ) = ϑf (p) (f∗ X1 , . . . , f∗ Xk ).
Proposição 2.9.6. Sejam M , N e P variedades suaves sem bordo, f : M → N ,
g : N → P funções suaves e ϑ ∈ T k (N ), ρ ∈ T l (N ). Então
(1) f ∗ (ϑ ⊗ ρ) = f ∗ ϑ ⊗ f ∗ ρ,
(2) f ∗ ϑ é um campo suave de k-tensores,
(3) f ∗ : T k (N ) → T k (M ) é linear sobre R,
(4) (g ◦ f )∗ = f ∗ ◦ g ∗ ,
(5) (idN )∗ ϑ = ϑ.
Definição 2.9.7. Seja MNuma variedade suave de dimensão n sem bordo. Denotaremos o subconjunto de k M dos k-tensores covariantes alternados por
k
^
M=
k
G ^
(Tp M ).
p∈M
V
Mostra-se de maneira análoga à Proposição
2.9.2 que k M tem uma
Vkestrutura
n
natural de variedade suave de dimensão k sem bordo, com a qual π :
M →M
dada por π(p, τ ) =Vp é suave.
V
Uma seção de k M é uma seção da projeção π : k M → M .
V
Definição 2.9.8. Uma seção de k M é chamada de k-forma
Vk diferencial em M .
Uma k-forma diferencial suave em M é uma seção suave de
M.
Vk
Usaremos a notação ω ∈
M . Denotaremos o espaço vetorial das k-formas
diferenciais suaves em M por Ak (M ). Como vimos na Seção 1.10, dada (dxi ) uma
base de Tp∗ M , os tensores da forma dxi1 ∧· · ·∧dxik , com i1 < · · · < ik , ij ∈ {1, . . . , n},
V
formam uma base para k (Tp M ). Assim, em coordenadas locais (xi ), qualquer kforma diferencial ω em M pode ser escrita como
X
ω=
ωi1 ...ik dxi1 ∧ · · · ∧ dxik .
i1 <···<ik
Usaremos como abreviações, quando não houver risco de confusão, ωI = ωi1 ...ik
e dxI = dxi1 ∧ · · · ∧ dxik , ficando claro que I é umPı́ndice múltiplo crescente de
comprimento k com entradas em {1, . . . , n}. Assim, I diz que a soma se estende
72
a todos os possı́veis ı́ndices múltiplos I daquele tipo. Dessa forma, uma k-forma
diferencial ω em M pode ser escrita em coordenadas locais como
X
ω=
ωI dxI .
I
O resultado análogo para formas diferenciais do Lema 1.9.15(3) é
∂
∂
i1
ik
,..., j
= δJI .
dx ∧ · · · ∧ dx
∂xj1
∂x k
Portanto as componentes ωI de ω ficam determinadas por
∂
∂
,..., i .
ωI = ω
∂xi1
∂x k
Exemplo 2.9.9. Exemplos de formas em R3 são
ξ = sin(xy) dx ∧ dy
ζ = x2 dx + y 2 dy + z 2 dz
Exemplo 2.9.10. Qualquer n-forma em Rn é apenas uma função de Rn em R
contı́nua, pois existe apenas um ı́ndice múltiplo crescente de comprimento n com
entradas em {1, . . . , n}.
Uma 0-forma é também apenas uma função contı́nua de Rn em R. Uma 1-forma
é um campo de covetores.
Definição 2.9.11. Seja M uma variedade suave de dimensão n sem bordo, ω uma
k-forma diferencial em M e υ uma l-forma diferencial em M . O produto exterior de
ω e υ é a (k + l)-forma diferencial
(ω ∧ υ)p = ωp ∧ υp
em M .
Se f é uma 0-forma, nós interpretamos o produto f ∧ ω como o produto usual
f ω. Definindo
n
M
∗
A (M ) =
Ak (M ),
k=0
temos que (A∗ (M ), +, ∧, ·, R) se torna uma álgebra graduada associativa anticomutativa.
Definição 2.9.12. Sejam M e N variedades suaves sem bordo, f : M → N suave
e ω uma k-forma diferencial em N . Definimos o pullback de ω por f como sendo a
k-forma diferencial em M dada por
(f ∗ ω)p (X1 , . . . , Xk ) = ωf (p) (f∗ X1 , . . . , f∗ Xk ).
73
Lema 2.9.13. Sejam M e N variedades suaves sem bordo, f : M → N suave, ω
uma k-forma diferencial em N e υ uma l-forma diferencial em N . Então:
(1) f ∗ : Ak (N ) → Ak (M ) é linear,
(2) f ∗ (ω ∧ υ) = f ∗ ω ∧ f ∗ υ,
(3) Em qualquer carta,
!
f∗
X
ωI dxI
=
X
(ωI ◦ f ) d(xI ◦ f ).
I
I
Este lema nos dá uma fórmula para computarmos pullbacks de formas diferenciais. Note que podemos usá-la, em particular, para determinar a expressão de uma
forma em outra carta de coordenadas.
Exemplo 2.9.14. Seja ω a forma diferencial dx ∧ dy em R2 . Encarando a transformação para coordenadas polares
x = r cos(θ),
y = r sin(θ)
como uma expressão para a função identidade com relação a diferentes coordenadas
no domı́nio e na imagem, obtemos
ω =
=
=
=
dx ∧ dy
d(r cos(θ)) ∧ d(r sin(θ))
(cos(θ) dr − r sin(θ) dθ) ∧ (sin(θ) dr + r cos(θ) dθ)
r cos2 (θ) dr ∧ dθ − r sin2 (θ) dθ ∧ dr.
Como dθ ∧ dr = −dr ∧ dθ, temos
dx ∧ dy = r dr ∧ dθ.
Perceba a similaridade dessa fórmula com a fórmula de mudança de coordenadas
cartesianas para coordenadas polares para integrais duplas. A proposição seguinte
generaliza esse resultado.
Proposição 2.9.15. Sejam M e N variedades suaves de dimensão n sem bordo, f :
M → N suave, (xi ) e (y i ) coordenadas em abertos U ⊂ M e V ⊂ N respectivamente
e u : V → R suave. Então, em U ∩ f −1 (V ) vale
f ∗ (u dy 1 ∧ · · · ∧ dy n ) = (u ◦ f ) det(Df ) dx1 ∧ · · · ∧ dxn ,
(2.11)
onde Df denota a matriz das derivadas parciais de f em coordenadas.
V
Demonstração: Como, para cada p ∈ M , n (Tp M ) é gerado por dx1 ∧ · · · ∧ dxn ,
é suficiente mostrar que ambos os lados de (2.11) dão o mesmo resultado quando
calculados em (∂/∂x1 , . . . , ∂/∂xn ). Pelo Lema 2.9.13,
f ∗ (u dy 1 ∧ · · · ∧ dy n ) = (u ◦ f ) df 1 ∧ · · · ∧ df n .
74
Pela Proposição 1.10.3, temos
j
∂
∂
∂f
∂
j
1
n
= det
.
df ∧ · · · ∧ df
, . . . , n = det df
1
i
∂x
∂x
∂x
∂xi
Portanto, o lado esquerdo da equação 2.11 é (u ◦ f ) det(Df ) quando aplicado em
(∂/∂x1 , . . . , ∂/∂xn ).
Por outro lado, o lado direito também é (u ◦ f ) det(Df ), pois
∂
∂
1
n
dx ∧ · · · ∧ dx
, . . . , n = 1.
∂x1
∂x
e , (x̃j )) são cartas com U ∩ (U
e ) 6= ∅, em U ∩ (U
e)
Corolário 2.9.16. Se (U, (xi )) e (U
vale
j
∂ x̃
1
n
dx1 ∧ · · · ∧ dxn .
dx̃ ∧ · · · ∧ dx̃ = det
∂xi
Veremos agora que para qualquer variedade suave M existe um operador diferencial d : Ak (M ) → Ak+1 (M ) tal que d(dw) = 0 para toda ω.
Definição 2.9.17. Seja M uma variedade suave e (U, (xi )) uma carta de coordenadas de M . Definimos d : Ak (U ) → Ak+1 (U ), chamado de k-ésima diferencial
exterior em M , por
!
X
X
d
ωJ dxJ =
dωJ ∧ dxJ ,
J
J
onde J ωJ dxJ é a representação em coordenadas de ω com relação a (xi ) e dωJ é
a diferencial de ωJ .
P
O teorema a seguir mostra que d está bem definido e que essa definição é independente da escolha de coordenadas.
Teorema 2.9.18. Seja M uma variedade suave. Então, para cada k ≥ 0, há um
único operador linear
d : Ak (M ) → Ak+1 (M )
satisfazendo:
(1) Se f : M → R é uma função suave (uma 0-forma), então df é a diferencial de
f , definida por
df (X) = X(f ),
(2) Se ω ∈ Ak (M ) e η ∈ Al (M ), então
d(ω ∧ η) = dω ∧ η + (−1)k ω ∧ dη,
(3) d ◦ d = 0.
Além das propriedades acima, o operador d ainda satisfaz:
75
(2.12)
(4) Para toda carta de coordenadas (U, (xi )) de M , d é dado por
!
X
X
d
ωJ dxJ =
dωJ ∧ dxJ ,
J
J
(5) Se ω = ω 0 em um aberto U ∈ M , então dω = dω 0 em U ,
(6) Se U ⊂ M é aberto, então d(ω|U ) = (dω)|U .
Demonstração: Suponhamos a princı́pio que M pode ser coberta por uma única
carta. Sejam (x1 , . . . , xn ) coordenadas globais em M e d : Ak (M ) → Ak+1 (M ) dado
por
!
X
X
d
ωJ dxJ =
dωJ ∧ dxJ .
J
J
Assim definido, o operador d é claramente linear e satisfaz (1).
Mostraremos agora que d satisfaz d(f dxI ) = df ∧ dxI para qualquer ı́ndice
múltiplo I. De fato, se I tem entradas repetidas, então d(f dxI ) = df ∧ dxI = 0. Se
não, seja σ a permutação que leva I em um ı́ndice múltiplo crescente J = Iσ . Então
d(f dxI ) = sig(σ)d(f dxJ ) = sig(σ)df ∧ dxJ = df ∧ dxI .
Para mostrar (2), por linearidade, basta considerar termos do tipo ω = f dxI e
η = g dxJ . Temos
d(ω ∧ η) =
=
=
=
=
d((f dxI ) ∧ (g dxJ ))
d(f g dxI ∧ dxJ )
(g df + f dg) ∧ dxI ∧ dxJ
(df ∧ dxI ) ∧ (g dxJ ) + (−1)k (f dxI ) ∧ (dg ∧ dxJ )
dω ∧ η + (−1)k ω ∧ dη,
onde o fator (−1)k aparece pois dg ∧ dxI = (−1)k dxI ∧ dg, uma vez que dg é uma
1-forma e dxI uma k-forma.
Provaremos (3) primeiramente para 0-formas, ou seja, funções reais suaves. Neste
caso,
∂ 2f
∂f
j
dx
=
dxi ∧ dxj
d(df ) = d
j
i
j
∂x
∂x ∂x
X ∂ 2f
∂ 2f
− j i dxi ∧ dxj = 0
=
i
j
∂x ∂x
∂x ∂x
i<j
Para o caso geral, usamos o caso acima e o item (2), obtendo
!
X
d(dω) = d
dωJ ∧ dxJ
J
=
X
J
k
XX
d(dωJ ) ∧ dx +
(−1)i dωJ ∧ dxj1 ∧ · · · ∧ d(dxji ) ∧ · · · ∧ dxjk
J
J
i=1
= 0
76
Vejamos que d é único. Seja, para cada k ≥P0, de : Ak (M ) → Ak+1 (M ) outro operador linear satisfazendo (1), (2) e (3) e ω = J ωj dxJ ∈ Ak (M ). Pela linearidade
de de e por (2),
!
X
e = de
dω
ωJ dxJ
J
=
X
e J ∧ dxJ + (−1)0
dω
X
e J ).
ωJ d(dx
J
J
Por (2), o último somatório acima expande-se em uma soma de termos, cada um
e ji ), que, por (1), é igual a d(
e dx
e ji ) e portanto é
contendo um fator da forma d(dx
zero, por (3). Por outro lado, como cada componente ωJ é uma função suave, (1)
e J = dωJ , e segue que dω
e é igual a dω definida por (2.12). Isso implica
implica dω
que obtemos o mesmo operador, independente da carta global que usarmos para
defini-lo.
Os itens (4), (5) e (6) são consequências imediatas da definição de d pois, como
M pode ser coberta por uma única carta, qualquer aberto U de M também pode.
Isso completa a demonstração para esse caso especial.
Seja, agora, M uma variedade suave qualquer. Em qualquer carta (U, (xi )) de
M , o argumento acima se aplica, nos dando um único operador linear dU de k-formas
suaves em (k + 1)-formas suaves satisfazendo (1)-(6). Se U e U 0 são domı́nios de
duas cartas de M e U ∩ U 0 6= ∅, temos, por (6),
(dU ω)|U ∩U 0 = dU ∩U 0 ω = (dU 0 ω)|U ∩U 0 .
Portanto podemos definir d : Ak (M ) → Ak+1 (M ) de forma unı́voca, por (dω)p =
dU (ω|U )p , onde U é qualquer domı́nio de carta contendo p. Assim definido, d satisfaz
os itens (1)-(3) pois dU os satisfaz, e satisfaz (4)-(6) por definição.
Resta-nos mostrar a unicidade. Seja, para cada k, de : Ak (M ) → Ak+1 (M )
outro operador satisfazendo (1)-(3). Mostremos que de satisfaz (5) verificando que,
e = 0 em U , se η = 0 em U . Seja p ∈ U e ϕ ∈ C ∞ (M )
se η = ω − ω 0 , então dη
uma função teste suave com suporte contido em U satisfazendo ϕ(q) ≡ 1 em uma
vizinhança de p. Então ϕη ≡ 0 em M , logo
e
e
e
e
e
0 = d(ϕη)
p = dϕp ∧ ηp + ϕ(p)dηp = dϕp ∧ ηp + ϕ(p)dηp = dηp ,
e =0
pois ϕ(q) ≡ 1 em uma vizinhança de p. Como p ∈ U é arbitrário, segue que dη
em U .
Seja U ⊂ M o domı́nio de uma carta. Para cada k, definimos deU : Ak (U ) →
k+1
A (U ) como segue. Para cada p ∈ U , tomamos uma extensão de ω a uma kforma suave global ω
e ∈ Ak (M ) igual a ω em uma vizinhança de p e colocamos
eω )p . Como de é local, essa definição independe da escolha de ω
(deU ω)p = (de
e , e como
e
e
d satisfaz (1)-(3), dU também as satisfaz. Mas já provamos acima a unicidade para
domı́nios de carta, o que implica deU = dU . Em particular, se ω é a restrição a U de
uma forma global ω
e em M , podemos usar a mesma extensão ω
e para uma vizinhança
e
e
de cada ponto, de forma que dU (e
ω |U ) = dU (e
ω |U ) = (de
ω )|U . Isso mostra que de é igual
a d como definimos acima, e terminamos.
77
Exemplo 2.9.19. Em R3 , qualquer 1-forma suave pode ser escrita como
ω = P dx + Q dy + R dz,
onde P, Q, R : R3 → R são funções suaves. Temos
dω = dP ∧ dx + dQ ∧ dy + dR ∧ dz
∂P
∂P
∂P
=
dx +
dy +
dz ∧ dx
∂x
∂y
∂z
∂Q
∂Q
∂Q
dx +
dy +
dz ∧ dy
+
∂x
∂y
∂z
∂R
∂R
∂R
+
dx +
dy +
dz ∧ dz
∂x
∂y
∂z
∂Q ∂P
∂R ∂P
∂Q ∂R
=
−
dx ∧ dy +
−
dx ∧ dz +
−
dy ∧ dz.
∂x
∂y
∂x
∂z
∂y
∂z
O próximo lema indica como d se comporta em relação a pullbacks.
Lema 2.9.20. Sejam M e N variedades suaves e f : M → N suave. Então, para
toda ω ∈ Ak (N ),
f ∗ (dω) = d(f ∗ ω).
Demonstração: Como d é local (Teorema 2.9.18), segue que se o resultado é válido
para uma vizinhança de cada ponto, ele é válido em M . Em coordenadas locais ω
pode ser escrita como uma soma de termos de tipo g dxi1 ∧ · · · ∧ dxik , portanto, por
linearidade, é suficiente mostrar que o resultado vale para apenas um termo deste
tipo. Temos
f ∗ d(g dxi1 ∧ · · · ∧ dxik ) = f ∗ (dg ∧ dxi1 ∧ · · · ∧ dxik )
= d(g ◦ f ) ∧ (dxi1 ◦ f ) ∧ · · · ∧ (dxik ◦ f ),
enquanto que
df ∗ (g dxi1 ∧ · · · ∧ dxik ) = d((g ◦ f )(dxi1 ◦ f ) ∧ · · · ∧ (dxik ◦ f ))
= d(g ◦ f ) ∧ (dxi1 ◦ f ) ∧ · · · ∧ (dxik ◦ f ),
e o resultado segue.
2.10
Orientações
Grosso modo, dar uma orientação para uma reta é escolher um sentido “preferido” nela. Declaramos assim que uma base orientada para tal reta consiste de um
vetor que aponta para o sentido escolhido. Já uma base ordenada “preferida” para
R2 consiste de vetores cuja rotação do primeiro vetor até o segundo é uma rotação
no sentido anti-horário. Nesta seção nós formalizamos e generalizamos esse conceito.
78
Definição 2.10.1. Seja E um espaço vetorial de dimensão finita n ≥ 1. Dizemos
que duas bases ordenadas (ei ), (ẽi ) de E têm a mesma orientação se
det(Bij ) > 0,
onde (Bij ) é a matriz mudança de base de (ẽi ) para (ei ).
Se (ei ) é uma base de E, denotamos [ei ] a classe de todas as bases (ẽi ) tais
que (ei ) e (ẽi ) têm a mesma orientação. Se dim(E) ≥ 1, uma orientação em E é
uma classe [ei ], para alguma base (ei ) escolhida. Uma dupla (E, [ei ]) é chamada de
espaço vetorial orientado, e, se (ei ) ∈ [ei ], então (ei ) é dita positivamente orientada.
Qualquer base que não pertença à orientação dada é dita negativamente orientada.
Caso dim(E) = 0, uma orientação para E é simplesmente uma escolha entre +1
ou −1.
Exemplo 2.10.2. Seja n > 0. A orientação [e1 , . . . , en ] de Rn determinada pela
base canônica (e1 , . . . , en ) é chamada de orientação canônica de Rn . A orientação
canônica de R0 é definida como sendo +1.
Há uma importante relação entre orientações e tensores alternados, como mostra
a proposição a seguir.
Proposição
2.10.3. Seja E um espaço vetorial de dimensão finita n ≥ 1 e f ∈
Vn
(E), f 6= 0. O conjunto das bases ordenadas (ei ) de E tais que f (e1 , . . . , en ) > 0
é uma orientação em E.
Demonstração: Basta notar que, se f é não nula, como vimos na Seção 1.11, f é
um múltiplo do determinante.
V
Se E é um espaço vetorial orientado e f ∈ n (E) é um tensor que determina
a orientação em E, dizemos que f é um tensor positivamente orientado. O tensor
dx1 ∧ · · · ∧ dxn , por exemplo, é um tensor positivamente orientado de Rn com a
orientação canônica.
Vejamos agora como a noção de orientação se generaliza para variedades. Seja
M uma variedade suave sem bordo. Uma orientação pontual em M é a escolha de
uma orientação para cada Tp M . Note, porém, que este não é um conceito muito útil,
visto que a orientação em pontos em uma vizinhança pode não ter nenhuma relação.
Para haver alguma relação entre uma orientação e a estrutura suave precisamos de
uma condição extra.
Se é dada uma orientação pontual em M , dizemos que um referencial local
(η1 , . . . , ηn ) para M é positivamente orientado se, para todo p ∈ U , (η1 |p , . . . , ηn |p )
é uma base positivamente orientada de Tp M . Um referencial local negativamente
orientado é definido analogamente. Uma orientação pontual em M é dita contı́nua
se cada ponto p ∈ M está contido no domı́nio de um referencial local positivamente
orientado.
Agora temos condições de definir orientações em uma variedade:
Definição 2.10.4. Seja M uma variedade suave sem bordo. Uma orientação em M
é uma orientação pontual contı́nua em M . Uma variedade suave com uma orientação
escolhida é chamada de variedade orientada, e dizemos que uma variedade M é
orientável se existe uma orientação para M .
79
Se M tem dimensão 0, uma orientação em M é simplesmente associação de +1
ou −1 a cada um de seus pontos. Logo, toda variedade de dimensão 0 é orientável.
Seja (U, ϕ) uma carta de coordenadas de uma variedade suave sem bordo M .
Dizemos que (U, ϕ) é positivamente orientada se o referencial local (∂/∂xi ) é positivamente orientado. Caso contrário, (U, ϕ) é negativamente orientada.
Definição 2.10.5. Uma coleção de cartas de coordenadas {(Uα , ϕα )} é dita consistentemente orientada se, para qualquer α, β,
det(D(ϕβ ◦ ϕ−1
α )) > 0
em ϕα (Uα ∩ Uβ ), sendo que D(ϕβ ◦ ϕ−1
α ) denota a matriz das derivadas parciais de
−1
ϕβ ◦ ϕα em coordenadas.
As duas proposições seguintes nos fornecem modos mais práticos para especificar
orientações em variedades.
Proposição 2.10.6. Seja M uma variedade suave de dimensão n > 0 sem bordo.
Dada uma cobertura aberta de M por cartas de coordenadas consistentemente orientadas {(Uα , ϕα )}, há uma única orientação em M tal que cada carta de coordenadas
(Uα , ϕα ) é positivamente orientada.
Demonstração: Seja {(Uα , ϕα )} uma cobertura aberta de M por cartas de coordenadas consistentemente orientadas. Para qualquer p ∈ M , a condição de consistência implica que a matriz mudança de base entre as bases determinadas por
duas quaisquer cartas tem determinante positivo. Assim, as bases para quaisquer
cartas contendo p determinam a mesma orientação em Tp M . Fica, então, definida
uma orientação pontual em M .
Cada p ∈ M está contido no domı́nio de pelo menos uma carta de coordenadas, e
o referencial local correspondente é positivamente orientado por definição, portanto
tal orientação pontual é contı́nua.
Proposição 2.10.7. Seja M uma variedade suave de dimensão n > 0 sem bordo.
Qualquer n-forma ω ∈ An (M ), ω(p) 6= 0 ∀p ∈ M , determina uma única orientação
em M tal que ω é positivamente orientada em cada ponto de M .
Demonstração: A n-forma ω define, pela Proposição 2.10.3, uma orientação pontual em M . Precisamos mostrar que esta é contı́nua.
Sejam (xi ) coordenadas locais em um domı́nio conexo U ⊂ M . Em U , ω se
escreve como
ω = f dx1 ∧ · · · ∧ dxn ,
para alguma função contı́nua f . Como ω é não nula, f é não nula, e segue que
∂
∂
, . . . , n = f 6= 0
ω
∂x1
∂x
em todo ponto de U . Como U é conexo, concluı́mos que essa expressão é sempre
positiva ou sempre negativa em U e, portanto, a carta de coordenadas é positivamente orientada ou negativamente orientada. Caso seja negativamente orientada,
80
substituı́mos xi por −xi , obtendo uma nova carta, para a qual o referencial local é
positivamente orientado. Assim a orientação pontual definida por ω é contı́nua. Devido a esta última proposição, qualquer n-forma que não se anula em uma
variedade suave de dimensão n é chamada de forma de orientação. Se M é uma
variedade orientada e ω é a forma que determina a orientação de M , dizemos que ω
é positivamente orientada. Verifica-se que, se ω e ξ são duas formas positivamente
orientadas em M , então ω = f ξ, para alguma função f : M → R suave estritamente
positiva.
Note, ainda, que o resultado da Proposição 2.10.7 continua válido para variedades
de dimensão 0 se convencionarmos que ω atribui a orientação +1 aos pontos nos quais
ela é positiva e −1 aos pontos nos quais ela é negativa.
Definição 2.10.8. Sejam M e N variedades orientadas de dimensão positiva e
f : U ⊂ M → V ⊂ N um difeomorfismo local. Dizemos que f preserva orientação
se, para cada p ∈ U , f∗ leva bases positivamente orientadas de Tp M em bases
positivamente orientadas de Tf (p) N .
Analogamente, dizemos que f reverte orientação se f∗ leva bases positivamente
orientadas de Tp M em bases negativamente orientadas de Tf (p) N .
Uma orientação em uma variedade suave com bordo pode ser definida exatamente
como fizemos para variedades suaves sem bordo. Se M é uma variedade suave de
dimensão n sem bordo, uma subvariedade D suave, compacta de dimensão n com
bordo mergulhada em M é chamada de domı́nio regular. Uma orientação em M
induz uma orientação em D, por exemplo, restringindo uma forma de orientação em
M a D.
Como já vimos, bordo de uma variedade suave M de dimensão n com bordo,
quando não vazio, é uma variedade suave de dimensão n − 1 sem bordo. Quando
munimos M de uma orientação, esta induz uma orientação em ∂M , chamada de
orientação induzida no bordo. Vejamos como isso ocorre:
Seja M uma variedade suave de dimensão n com bordo. Então, por definição,
para todo p ∈ ∂M existe uma carta de coordenadas (U, ϕ) tal que p ∈ U e que
ϕ(U ∩ ∂M ) = ϕ(U ) ∩ ∂Hn . Seja p ∈ ∂M e (U, (xi )) uma carta de coordenadas com
p ∈ U . Dizemos que um vetor
n
X
i ∂ N=
N
∂xi p
i=1
em Tp M aponta para dentro se a componente N n de N é positiva. Analogamente,
dizemos que N aponta para fora se N n < 0.
Definição 2.10.9. Um campo de vetores sobre ∂M é uma função contı́nua N :
∂M → T M tal que N (p) = Np ∈ Tp M
Note a diferença entre um campo de vetores sobre ∂M e um campo de vetores
em ∂M (este último deveria satisfazer Np ∈ Tp ∂M para todo p ∈ ∂M ). Dizemos
que um campo de vetores N sobre ∂M aponta para fora se Np aponta para fora,
para cada p ∈ ∂M .
81
Lema 2.10.10. Seja M uma variedade suave com bordo. Existe um campo suave
de vetores que aponta para fora sobre ∂M .
Demonstração: Sejam (Uα , ϕα ) cartas de coordenadas em M tais que coleção {Uα }
é uma cobertura de uma vizinhança de ∂M . Em cada uma dessas cartas,
∂ Nα = − n ∂x ∂M ∩Uα
é um campo suave de vetores sobre ∂M ∩ Uα que aponta para fora. Tome {ψα }
uma partição da unidade com relação à cobertura {Uα ∩ ∂M } de ∂M e defina N
um campo suave de vetores sobre ∂M por
X
N=
ψα Nα .
α
Precisamos mostrar que N aponta para fora. Sejam (y 1 , . . . , y n ) coordenadas locais
em uma vizinhança de p ∈ ∂M . Como cada Nα aponta para fora, vale dy n (Nα ) < 0.
Portanto
X
ψα (p)dy n (N α|p ) < 0,
dy n (Np ) =
α
pois cada termo da soma acima é estritamente negativo e pelo menos um deles é
não nulo.
Dada uma n-forma de orientação ω em M , a existência de um campo de vetores
que aponta para fora N sobre ∂M nos permite definir uma (n − 1)-forma iN ω em
M , chamada de contração de ω com relação a N , dada por
iN ω(Y1 , . . . , Yn−1 ) = ω(N, Y1 , . . . , Yn−1 )
p
p
tal que iN ω|∂M é uma forma de orientação em ∂M . Mais precisamente, temos a
proposição seguinte:
Proposição 2.10.11. Seja M uma variedade orientada com bordo. Então ∂M é
orientável, e a orientação determinada por qualquer campo suave de vetores sobre
∂M que aponta para fora é independente da escolha desse campo.
À orientação da proposição acima damos o nome de orientação induzida no
bordo.
Exemplo 2.10.12. Seja Hn munido da orientação canônica. Vamos determinar a
orientação induzida em ∂Hn .
Note que ∂Hn pode ser identificado com Rn−1 via a correspondência
(x1 , . . . , xn−1 , 0) 7→ (x1 , . . . , xn−1 ).
Como o campo de vetores −∂/∂xn sobre ∂Hn aponta para fora, o referencial das
coordenadas padrão para Rn−1 será positivamente orientado para ∂Hn se, e somente
82
se, [−∂/∂xn , ∂/∂x1 , . . . , ∂/∂xn−1 ] é a orientação canônica de Rn . Temos
∂
∂
∂
∂
∂
∂
= −
− n , 1 , . . . , n−1
,
, . . . , n−1
∂x ∂x
∂x
∂xn ∂x1
∂x
∂
∂
n
= (−1)
,..., n .
∂x1
∂x
Portanto, a orientação induzida em ∂Hn é igual à orientação canônica em Rn−1 se
n é par e é a orientação oposta a esta se n é ı́mpar. Em particular, as coordenadas
padrão em ∂Hn são positivamente orientadas se, e somente se, n é par.
Para fins práticos, a forma mais útil de descrever subvariedades é através de
parametrizações locais. O lema seguinte provê uma forma de verificar quando uma
parametrização local de um bordo preserva orientação.
Lema 2.10.13. Seja M uma variedade suave orientada de dimensão n com bordo
e X : U → M uma parametrização local suave de ∂M , onde U ⊂ Rn−1 é um aberto
conexo. Se, para algum b < c ∈ R, X admite uma extensão a uma imersão suave
e : (b, c] × U → M tal que X(c,
e x) = X(x), então X preserva a orientação de ∂M
X
e preserva a orientação de M .
(com a orientação induzida) se, e somente se, X
2.11
Integração
Nesta seção veremos como integrar n-formas diferenciais em variedades suaves
de dimensão n e demonstraremos o Teorema de Stokes em variedades.
Definição 2.11.1. Seja D ⊂ Rn um domı́nio de integração compacto e ω uma
n-forma diferencial em D. Definimos a integral de ω em D como
Z
Z
f,
ω=
D
D
onde f : Rn → R é a função contı́nua tal que
ω = f dx1 ∧ · · · ∧ dxn
A definição acima por ser escrita, de forma mais sugestiva, como
Z
Z
Z
1
n
ω=
f dx ∧ · · · ∧ dx =
f dx1 . . . dxn .
D
D
D
Definição 2.11.2. Seja U ⊂ Rn aberto. Definimos o suporte de uma n-forma
diferencial em U por
supp(ω) = {x ∈ U | ω(x) 6= 0}.
Se supp(ω) é compacto, dizemos que ω tem suporte compacto.
Para que possamos definir a integral em U de uma n-forma diferencial com
suporte compacto, precisamos do seguinte lema:
83
Lema 2.11.3. Sejam K ⊂ U ⊂ Rn tais que U é aberto e K é compacto. Então
existe um domı́nio de integração (Definição A.4.19) D tal que K ⊂ D ⊂ U .
Assim podemos definir:
Definição 2.11.4. Seja U ⊂ Rn aberto e ω uma n-forma diferencial em U com
suporte compacto. Definimos a integral de ω em U por
Z
Z
ω=
ω,
U
D
onde D é qualquer domı́nio de integração tal que supp(ω) ⊂ D ⊂ U .
De forma similar, se V ⊂ Hn é aberto, e ω é uma n-forma diferencial em V com
suporte compacto, definimos
Z
Z
ω=
ω,
V
D∩Hn
onde D é qualquer domı́nio de integração tal que supp(ω) ⊂ D ⊂ V .
Proposição 2.11.5. Sejam D, E ⊂ Rn domı́nios de integração compactos e seja
ω uma n-forma diferencial em E. Se g : D → E é uma função suave tal que
g : int(D) → int(E) é um difeomorfismo que preserva ou reverte orientação, então
 Z

g ∗ ω se g preserva orientação,


Z

D
ω=
Z

E


 −
g ∗ ω se g reverte orientação.
D
Demonstração: Sejam (x1 , . . . , xn ) e (y 1 , . . . , y n ) as coordenadas padrão em D e
E respectivamente e suponha que g preserva orientação. Escrevendo ω = f dy 1 ∧
· · · ∧ dy n , pela formula de mudança de variáveis (Teorema A.4.24) e pela fórmula
(2.11) para pullbacks, temos
Z
Z
ω =
E
f
ZE
(f ◦ g)| det(Dg)|
=
ZD
(f ◦ g)(det(Dg))
=
ZD
=
ZD
=
(f ◦ g)(det(Dg)) dx1 ∧ · · · ∧ dxn
g ∗ ω.
D
Se g reverte orientação, a menos do sinal negativo, que neste caso surge pois
| det(Dg)| = − det(Dg), o cálculo é análogo.
84
Corolário 2.11.6. Sejam U, V ⊂ Rn abertos, g : U → V um difeomorfismo que
preserva orientação e ω é uma n-forma diferencial em V com suporte compacto.
Então
Z
Z
ω=
g ∗ ω.
V
U
Usando os resultados sobre integração de n-formas diferenciais em Rn coletados acima, vamos agora definir integração de n-formas diferenciais em variedades
orientadas.
Se M é uma variedade orientada de dimensão n ≥ 1 sem bordo e ω é uma nforma diferencial em M com suporte compacto e contido no domı́nio de uma única
carta de coordenadas (U, ϕ) de M , definimos a integral de ω em M como
Z
Z
ω=
(ϕ−1 )∗ ω.
M
ϕ(U )
Note que (ϕ−1 )∗ ω é uma n-forma diferencial com suporte compacto e contido em
ϕ(U ) ⊂ Rn .
Proposição 2.11.7. Seja M é uma variedade orientada de dimensão n ≥ 1 sem
bordo e ω é uma n-forma diferencial em M com suporte compacto e contido no
domı́nio de uma única carta de coordenadas orientada (U, ϕ) de M . Então
Z
ω
M
não depende da escolha da carta de coordenadas (U, ϕ).
e , ϕ)
Demonstração: Seja (U
e outra carta de coordenadas orientada satisfazendo
e
e ) → ϕ(U
e ) é um difeomorfismo que
supp(ω) ⊂ U . Como ϕ
e ◦ ϕ−1 : ϕ(U ∩ U
e ∩U
preserva orientação, pelo Corolário 2.11.6,
Z
Z
Z
−1 ∗
−1 ∗
(ϕ
e ◦ ϕ−1 )∗ (ϕ
e−1 )∗ ω
(ϕ
e )ω =
(ϕ
e )ω=
e)
e)
e)
e ∩U
ϕ(U ∩U
ϕ(
eU
Z
Zϕ(U
−1 ∗
∗
−1 ∗
(ϕ−1 )∗ ω.
=
(ϕ ) (ϕ)
e (ϕ
e )ω=
e)
ϕ(U ∩U
Então as duas definições de
R
M
ϕ(U )
ω coincidem.
Se M é uma variedade orientada de dimensão n ≥ 1 com bordo e ω uma n-forma
diferencial em M com suporte compacto
R e contido no domı́nio de uma única carta
de coordenadas de M , a definição de M ω é a mesma, exceto que integraremos em
abertos de Hn . O resultado da Proposição 2.11.7 acima também continua válido
com essa alteração.
Para definirmos a integral de uma n-forma diferencial em uma variedade orientada M de dimensão n, usamos a definição para esse caso especial que vimos,
juntamente com uma partição da unidade.
85
Definição 2.11.8. Seja M uma variedade orientada de dimensão n ≥ 1 com bordo
e ω uma n-forma diferencial em M com suporte compacto. Seja {(Ui , ϕi )} uma cobertura finita de supp(ω) por cartas de coordenadas orientadas e {ψi } uma partição
suave da unidade com relação a {(Ui , ϕi )}. Definimos a integral de ω em M como
Z
XZ
ω=
ψi ω.
M
M
i
Como supp(ψi ω) ⊂ Ui é compacto, cada termo da soma acima está bem definido.
R
Lema 2.11.9. A definição de M ω dada acima não depende da escolha das cartas
de coordenadas nem da partição da unidade.
ej , ϕ
Demonstração: Seja {(U
ej )} uma outra coleção de cartas de coordenadas orientadas cujos domı́nios formam uma cobertura finita de supp(ω) e {ψej } uma partição
ej , ϕ
suave da unidade com relação a {(U
ej )}. Temos, para cada i,
!
Z
Z
X
XZ
ψi ω =
ψej ψi ω =
ψej ψi ω.
M
M
j
j
M
Somando em i,
XZ
i
ψi ω =
M
XZ
i,j
ψej ψi ω.
m
Cada termo nesta última soma é a integral de uma n-forma diferencial com suporte compacto e contido no domı́nio de uma única carta de coordenadas que, pela
Proposição 2.11.7, está bem definida. O mesmo argumento mostra que
XZ
XZ
ψej ω =
ψej ψi ω.
j
M
i,j
m
Portanto ambos os casos fornecem o mesmo valor para
R
M
ω.
Se M tem dimensão 0, definimos a integral de uma 0-forma diferencial (ou seja,
uma função f : M → R) em M por
Z
X
f=
±f (p),
M
p∈M
onde a escolha de ± é de acordo com a orientação em cada p ∈ M . Como f tem
suporte compacto, há apenas uma quantidade finita de termos não nulos na soma,
o que garante que não há problemas de convergência.
Proposição 2.11.10. Sejam M e N variedades orientadas de dimensão n com bordo
e ω, ξ n-formas diferenciais em M .
R
R
R
(1) Se a, b ∈ R, então M (aω + bξ) = a M ω + b M ξ,
R
R
f denota M com a orientação oposta, então f ω = −
(2) Se M
ω,
M
M
86
(3) Se ω é uma forma de orientação para a orientação de M , então
R
ω > 0,
R
(4) RSe f : M → N é um difeomeorfismo que preserva orientação, então M ω =
f ∗ ω.
N
M
Agora estamos em condições de demonstrar o Teorema de Stokes para variedades:
Teorema 2.11.11 (Stokes). Seja M uma variedade orientada de dimensão n ≥ 1
com bordo e ω uma (n − 1)-forma diferencial suave em M com suporte compacto.
Então
Z
Z
dω =
ω.
M
∂M
Observação: Fica subentendido no enunciado que ∂M tem a orientação induzida,
e que ω, no lado direito da equação, deve ser interpretada como ω|∂M . Se ∂M = ∅,
o lado direito da equação deve ser interpretado como 0. Se n = 1, o lado direito da
equação é apenas uma soma finita.
Demonstração: Começaremos com o caso especial em que M = Hn . Como ω tem
suporte compacto, existe R > 0 tal que
supp ⊂ [−R, R] × · · · × [−R, R] × [0, R] = A.
Escrevendo ω nas coordenadas padrão como
ω=
n
X
ci ∧ · · · ∧ dxn ,
ωi dx1 ∧ · · · ∧ dx
i=1
ci significa que dxi está omitido, temos
onde dx
dω =
n
X
ci ∧ · · · ∧ dxn
dωi ∧ dx1 ∧ · · · ∧ dx
i=1
n
X
∂ωi j
ci ∧ · · · ∧ dxn
dx ∧ dx1 ∧ · · · ∧ dx
=
j
∂x
i,j=1
=
n
X
i=1
(−1)i−1
∂ωi 1
dx ∧ · · · ∧ dxn .
∂xi
Portanto,
Z
n
X
∂ωi 1
i−1
dω =
(−1)
dx ∧ · · · ∧ dxn
i
Hn
A ∂x
i=1
Z
Z R
n
RZ R
X
∂ωi
i−1
=
(−1)
...
(x) dx1 . . . dxn .
i
∂x
0
−R
−R
i=1
Z
Podemos rearranjar a ordem de integração em cada termo da soma, a fim de que a
integração em xi seja sempre a primeira a ser feita. Pelo Teorema Fundamental do
87
Cálculo (Teorema A.4.25), os termos em que i 6= n se reduzem a
I =
n−1
X
i=1
n−1
X
i−1
R
Z
R
Z
(−1)
Z
R
...
−R
0
RZ
Z
−R
R
Z
∂ωi
(x) dx1 . . . dxn
∂xi
R
∂ωi
ci ∧ · · · ∧ dxn
(x) dxi dx1 ∧ · · · ∧ dx
i
∂x
−R
0
−R
i=1
xi =R
Z
Z
Z
n−1
R R
R
X
i−1
ci ∧ · · · ∧ dxn
ωi (x)
...
dx1 ∧ · · · ∧ dx
=
(−1)
=
(−1)i−1
...
−R
−R
0
i=1
xi =−R
= 0,
pois escolhemos R grande o bastante, de tal forma que ωi = 0 se xi = ±R. Temos,
então
Z RZ R
Z
Z R
∂ωn
n−1
...
dω = I + (−1)
(x) dxn dx1 . . . dxn−1
n
∂x
n
−R 0
−R
H
xn =R
Z R
Z R
n−1
...
ωn (x)
dx1 . . . dxn−1
= 0 + (−1)
= (−1)n
Z
−R
Z R
R
...
−R
−R
xn =0
ωn (x1 , . . . , xn−1 , 0) dx1 . . . dxn−1 ,
−R
pois ωn = 0 se xn = R. (Note que, se ∂M = ∅, este termo também zera pois, nesse
caso, supp(ω) ∩ ∂Hn = ∅). Por outro lado, temos que
Z
XZ
ci ∧ · · · ∧ dxn .
ωi (x1 , . . . , xn−1 , 0) dx1 ∧ · · · ∧ dx
dω =
∂Hn
A∩∂Hn
i
Como xn = 0 em ∂Hn , dxn |∂Hn ≡ 0. Portanto o único termo não nulo da soma
acima é aquele em que i = n:
Z
Z
ωn (x1 , . . . , xn−1 , 0) dx1 ∧ · · · ∧ dxn−1 .
dω =
∂Hn
A∩∂Hn
Levando em conta que as coordenadas (x1 , . . . , xn−1 ) são positivamente orientadas
se n é par e negativamente orientadas se n é ı́mpar (Exemplo 2.10.12), temos
Z
Z R
Z R
n
dω = (−1)
...
ωn (x1 , . . . , xn−1 , 0) dx1 . . . dxn−1
∂Hn
−R
−R
Z
=
dω,
Hn
e isso termina a demonstração para o caso M = Hn .
Suponha agora que M seja uma variedade orientada de dimensão n ≥ 1 com
bordo e que ω seja uma (n−1)-forma diferencial com suporte compacto e contido no
domı́nio de uma única carta de coordenadas (U, ϕ) de M . Assumindo sem perda de
generalidade que (U, ϕ) é uma carta de coordenadas orientada, temos, por definição,
Z
Z
Z
−1 ∗
−1 ∗
dω =
(ϕ ) dω =
d (ϕ ) ω ,
M
Hn
Hn
88
pois supp (ϕ−1 )∗ dω é compacto em Hn . Pelo caso especial que provamos,
Z
Z
(ϕ−1 )∗ ω,
dω =
∂Hn
M
n
onde ∂H tem a orientação induzida. Como ϕ∗ leva vetores que apontam para fora
de ∂M em vetores que apontam para fora de Hn , segue que ϕ|U ∩∂M : U ∩ ∂M →
ϕ(U ) ∩ ∂Hn é um difeomorfismo que preserva orientação e portanto
Z
Z
Z
−1 ∗
dω =
(ϕ ) ω =
ω.
∂Hn
M
∂M
Isso demonstra o resultado para esse caso.
Por fim, seja M uma variedade orientada de dimensão n ≥ 1 com bordo e que ω
seja uma (n − 1)-forma diferencial com suporte compacto. Tomando uma cobertura
finita de supp(ω) por cartas de coordenadas orientadas (Ui , ϕi ) de M e uma partição
suave da unidade {ψi } com relação à (Ui , ϕi ), aplicamos resultado do caso anterior
para cada ψi ω, obtendo
Z
XZ
XZ
XZ ω =
ψi ω =
d(ψi ω) =
dψi ∧ ω + ψi dω
∂M
∂M
i
=
d
M
pois
P
i
i
M
!
Z
X
ψi
i
!
Z
X
∧ω+
M
i
i
ψi ≡ 1.
ψi
M
Z
dω = 0 +
Z
dω =
M
dω,
M
Exemplo 2.11.12. Seja N uma variedade suave sem bordo e γ : [a, b] → N um
mergulho suave, de forma que M = γ([a, b]) é uma variedade suave de dimensão
1 com bordo mergulhada em N . Dotando M da orientação com a qual γ preserva
orientação, para qualquer f ∈ C ∞ (N ), o Teorema de Stokes nos dá
Z
Z
Z
Z
∗
df =
γ df =
df =
f = f (γ(b)) − f (γ(a)).
γ
[a,b]
M
∂M
Portanto, nesrte caso, o Teorema de Stokes se reduz ao Teorema 2.7.9. Em particular, se γ : [a, b] → R é a inclusão canônica, o Teorema de Stokes é simplesmente o
Teorema Fundamental do Cálculo (Teorema A.4.25).
Corolário 2.11.13. Se M é uma variedade suave compacta sem bordo, a integral
de qualquer forma exata ω (isto é, existe η tal que dη = ω) sobre M é nula:
Z
Z
ω = M η = 0.
M
∂
Corolário 2.11.14. Se M é uma variedade suave compacta com bordo e ω é uma
forma fechada em M (isto é, dω = 0), a integral de ω sobre ∂M é nula:
Z
Z
ω=
dω = 0.
∂M
M
89
Corolário 2.11.15. Seja M uma variedade suave, S ⊂ M uma subvariedade
R suave
compacta de dimensão k sem bordo e ω uma k-forma fechada em M . Se S ω 6= 0,
então ω não é exata e S não é o bordo de uma subvariedade de M suave compacta
com bordo.
As formas fechadas e exatas serão de nosso interesse no Capı́tulo 3. O Teorema
de Stokes também generaliza os teoremas de Green, Gauss e Stokes (clássico) da
análise vetorial clássica. Por exemplo:
Teorema 2.11.16 (Green). Seja D ⊂ R2 um domı́nio regular e f, g : D → R
funções diferenciáveis. Então
Z
Z ∂g ∂f
−
dxdy
f dx + g dy =
∂x ∂y
∂D
D
Demonstração: Basta aplicar o Teorema 2.11.11 à forma diferencial f dx + g dy,
pois
∂g ∂f
d(f dx + g dy) =
−
dx ∧ dy
∂x ∂y
Encerramos a seção com uma pequena generalização do Teorema de Stokes. Isso
se faz necessário pois muitas aplicações desse teorema lidam com objetos geométricos
tais como triângulos, cubos etc, que são variedades topológicas com bordo, mas
não são variedades suaves, pois possuem “cantos”. Para isso, introduziremos as
variedades com cantos.
Seja
Rn+ = {(x1 , . . . , xn ) ∈ Rn | x1 ≥ 0, . . . , xn ≥ 0}.
Esse espaço será o modelo para os tipos de cantos que trabalharemos. Vê-se sem
dificuldades que Rn+ é homeomorfo a Hn = {(x1 , . . . , xn ) ∈ Rn | xn ≥ 0}.
Definição 2.11.17. Seja M uma variedade topológica de dimensão n com bordo.
Um atlas suave com cantos de dimensão n sobre M é uma famı́lia A de homeomoreλ ⊂ Rn+ , λ ∈ Γ, com Uλ e U
eλ abertos, onde
fismos ϕλ : Uλ ⊂ M → U
S
(1) M = λ∈Γ Uλ ,
(2) ∀ λ, µ ∈ Γ verificando Uλµ = Uλ ∩ Uµ 6= ∅, a mudança de carta
ϕλµ = ϕµ ◦ ϕ−1
λ : ϕλ (Uλµ ) → ϕµ (Uλµ )
é suave (ou seja, admite uma extenção suave em uma vizinhança aberta de cada
ponto de Uλ ∩ Uµ ). Neste caso dizemos que as cartas com cantos (Uλ , ϕλ ) e
(Uµ , ϕµ ) são compatı́veis.
Um atlas suave com cantos A em uma variedade M é maximal quando toda carta
com cantos (U, ϕ) compatı́vel com todas as cartas com cantos pertencentes a A
também pertence a A.
Definição 2.11.18. Uma variedade suave de dimensão n com cantos é uma dupla
(M, A), onde M é uma variedade topológica de dimensão n com bordo e A é um
atlas suave de dimensão n com cantos maximal sobre M .
90
Exemplo 2.11.19. Qualquer triângulo fechado em Rn é uma variedade suave de
dimensão n com cantos.
Como Rn+ é homeomorfo a Hn , topologicamente não há diferença entre uma
variedade suave com bordo e uma variedade suave com cantos. A diferença está no
atlas, pois as condições de compatibilidade para as cartas são diferentes.
O bordo de Rn+ em Rn é o conjunto dos pontos com pelo menos uma coordenada
nula. Os pontos de Rn+ com mais de uma coordenada nula são chamados de pontos
de canto.
Lema 2.11.20. Seja M uma variedade suave de dimensão n com cantos, e p ∈ M .
Se ϕ0 (p) é um ponto de canto, para alguma carta com cantos (U0 , ϕ0 ), então ϕ(p) é
ponto de canto para qualquer carta com cantos (U, ϕ), tal que p ∈ U .
Se M é uma variedade suave com cantos, em decorrência do Lema 2.11.20, definimos que um ponto p ∈ M é um ponto de canto de M se ϕ(p) é ponto de canto de
Rn+ para alguma carta com cantos (U, ϕ). Analogamnte, dizemos que p é um ponto
de bordo de M se ϕ(p) ∈ ∂Rn+ para alguma carta com cantos (U, ϕ).
Claramente, toda variedade suave com ou sem bordo é uma variedade suave com
cantos (sem pontos de canto). Reciprocamente, uma variedade suave com cantos é
uma variedade suave com bordo se, e somente se, essa não tiver pontos de canto.
Os objetos usuais que apresentamos até agora para variedades suaves, como
funções suaves, partições da unidade, vetores tangentes, covetores, tensores, formas
diferenciais, orientações e integrais de formas diferenciais podem ser definidos em
variedades suaves com cantos da mesma maneira que definimos para variedades
suaves com e sem bordo, usando cartas com cantos ao invés de cartas de coordenadas
suaves.
Para generalizar o Teorema de Stokes para este objeto, no entanto, precisaremos
de uma definição a mais, uma vez que o bordo de uma variedade suave com cantos,
não é, em geral, uma variedade suave com cantos (o bordo de um cubo, por exemplo).
De fato, nem mesmo o bordo de Rn+ é uma variedade suave com cantos, mas é, porém,
uma união finita destas: ∂Rn+ = H1 ∪ · · · ∪ Hn , onde
Hi = {(x1 , . . . , xn ) ∈ Rn+ | xi = 0}
é uma variedade suave de dimensão (n − 1) com cantos contida no subespaço onde
xi = 0.
Definição 2.11.21. Seja M uma variedade suave com cantos orientada de dimensão
n e ω uma (n − 1)-forma em ∂M com suporte compacto contido no domı́nio de uma
única carta com cantos (U, ϕ). Definimos a integral de ω sobre ∂M por
Z
n Z
X
ω=
(ϕ−1 )∗ ω,
∂M
i=1
Hi
onde cada Hi está munido com a orientação induzida como parte do bordo do
conjunto onde xi ≥ 0.
Se ω é uma (n − 1)-forma em ∂M com suporte compacto, definimos a integral de
ω sobre ∂M usando uma partição da unidade. Seja {(Uj , ϕj )} uma cobertura finita
91
de supp(ω) por cartas de cantos e {ψj } uma partição suave da unidade com relação
a {(Uj , ϕj )}. Definimos a integral de ω em M como
Z
XZ
ω=
ψj ω.
∂M
j
∂M
Embora a definição de integral de formas via partições da unidade seja bastante
conveniente para fins teóricos, ela deixa a desejar quando se trata de calcular integrais de fato. Em geral é bastante complicado explicitar partições da unidade
e, mesmo quando possı́vel, calcular a integral da expressão obtida pode não ser
possı́vel. Na prática, usamos o resultado seguinte.
Lema 2.11.22. Seja M uma variedade suave de dimensão n com cantos. Sejam
E1 , . . . , Ek domı́nios de integração compactos em M , D1 , . . . , Dk domı́nios de integração compactos em Rn e, para cada i = 1, . . . , k, fi : Di → M aplicações suaves
satisfazendo:
(1) fi (Di ) = Ei e fi |int(Di ) é um difeomorfismo de int(Di ) em int(Ei ) que preserva
orientação,
(2) Para todo i 6= j, Ei ∩ Ej contém apenas pontos das fronteiras de Ei e Ej .
Então, para qualquer n-forma ω em M com suporte contido em E1 ∪ · · · ∪ Ek ,
Z
XZ
ω=
fi∗ ω.
M
i
Di
Exemplo 2.11.23. Seja ω a 2-forma em R3 \ {0} dada por
ω = x dy ∧ dz + y dz ∧ dx + z dx ∧ dy.
R
Calculemos S2 ω, com S2 munida da orientação induzida de B3 [0].
Considere o retângulo R = [0, π] × [0, 2π] e f : R → S2 a parametrização em
coordenadas esféricas
f (φ, θ) = (sin(φ) cos(θ), sin(φ) sin(θ), cos(φ)).
Seja U = (0, π) × (0, 2π) = int(R), e considere f |U . Note que f |U é a restrição da
parametrização em coordenadas esféricas tridimensionais fe : (0, 1] × U → R3 dada
por
fe(ρ, φ, θ) = (ρ sin(φ) cos(θ), ρ sin(φ) sin(θ), ρ cos(φ)).
a U . Temos que fe(1, φ, θ) = f (φ, θ) e que
det(Dfe) = ρ2 sin(φ),
que é positivo em (0, 1] × U . Logo, pelo Lema 2.10.13, f preserva orientação em
int(D).
92
Seja D1 = [0, π] × [0, π], D2 = [0, π] × [π, 2π] e fi = f |Di , para i = 1, 2. Então fi ,
i = 1, 2, satisfazem as hipóteses do Lema 2.11.22. Note que
f ∗ dx = cos φ cos θ dφ − sin φ sin θ dθ,
f ∗ dy = cos φ cos θ dφ + sin φ sin θ dθ,
f ∗ dx = − sin φ dφ.
Assim,
Z
Z
f1∗ ω
ω =
S2
=
ZD1
Z
Z
f2∗ ω
+
f ∗ω
=
D2
D
− sin3 φ cos2 θ dθ ∧ dφ + sin3 φ sin2 θ dφ ∧ dθ
D
+ cos φ sin φ cos θ dφ ∧ dθ − cos φ sin φ sin θ dθ ∧ dφ
Z
Z 2π Z π
=
sin φ dφ ∧ dθ =
sin φ dφdθ = 4π.
2
2
D
2
0
2
0
Teorema 2.11.24 (Stokes em Variedades com Cantos). Seja M uma variedade
suave com cantos orientada de dimensão n e ω uma (n − 1)-forma em M com
suporte compacto. Então
Z
Z
dω =
ω.
M
∂M
Demonstração: A demonstração é bastante parecida com a demonstração do Teorema de Stokes para variedades suaves com bordo. Indicaremos as mudanças necessárias. Utilizando cartas com cantos e uma partição da unidade, pordemos reduzir
a demonstração ao caso em que M = Rn+ e ω tem suporte compacto contido no cubo
[0, R]n (exatamente como fizemos na demonstração do Teorema de Stokes). Neste
caso,
Z
dω =
Rn
+
n
X
i=1
n
X
i−1
R
Z
(−1)
R
Z
...
0
0
R
Z
∂ωi
(x) dx1 . . . dxn
∂xi
R
Z
∂ωi
ci . . . dxn
(x) dxi dx1 . . . dx
i
0 ∂x
0
i=1
xi =R
Z R
Z R
n
X
i−1
ci . . . dxn
=
(−1)
...
ωi (x)
dx1 . . . dx
=
=
=
i=1
n
X
i−1
0
(−1)i
i=1
n Z
X
i=1
...
(−1)
Hi
Z
0
R
Z
R
...
0
xi =0
ci . . . dxn
ωi (x1 , . . . , 0, . . . , xn ) dx1 . . . dx
0
Z
ω=
ω.
∂Rn
+
(Note que o fator (−1)i desaparece pois a orientação induzida em Hi é (−1)i vezes
a orientação das coordenadas padrão (x1 , . . . , xbi , . . . , xn )). Com isso terminamos. 93
O resultado a seguir é uma aplicação imediata do Teorema de Stokes para variedades com cantos, que usaremos no Capı́tulo 3.
Proposição 2.11.25. Seja M uma variedade suave e γ0 , γ1 : [a, b] → M segmentos
de curva suaves por partes homotópicos relativamente a {a, b}. Para qualquer 1forma fechada ω em M ,
Z
Z
ω=
γ0
ω.
γ1
Demonstração: Podemos assumir, sem perda de generalidade, que [a, b] = I =
[0, 1]. Suponhamos, a princı́pio, que γ0 e γ1 são suaves. Pelo Lema 2.8.21, γ0 e γ1
são suavemente homotópicas relativamente a {0, 1}. Seja H : I × I → M uma tal
homotopia. Como ω é fechada, temos
Z
Z
∗
d(H ω) =
H ∗ (dω) = 0.
I×I
I×I
Por outro lado, I × I é uma variedade suave com cantos. Pelo Teorema 2.11.24,
Z
Z
∗
0=
d(H ω) =
H ∗ ω.
I×I
∂(I×I)
Considere as parametrizações Fi : I → I × I de ∂(I × I) dadas por
F1 (t) = (t, 0),
F2 (t) = (1, t),
F3 (t) = (1 − t, 1),
F4 (t) = (0, 1 − t).
Usando o Lema 2.11.22 e a invariância das integrais de linha por difeomorfismo,
temos
Z
0 =
H ∗ω
∂(I×I)
Z
Z
Z
Z
∗
∗
∗
=
H ω+
H ω+
H ω+
H ∗ω
ZF1
Z F2
Z F3
Z F4
=
ω+
ω+
ω+
ω.
H◦F1
H◦F2
H◦F3
H◦F4
Como H é uma homotopia relativa a {0, 1}, H ◦ F2 e H ◦ F4 são aplicações
constantes e, pela Proposição 2.7.7, o segundo e o quarto termo da expressão acima
são nulos. O resultado segue pois H ◦ F1 = γ0 e H ◦ F3 é uma reparametrização de
γ1 que inverte o sentido.
Consideremos agora o caso geral. Não podemos simplesmente aplicar o resultado
anterior em cada subintervalo onde γ0 e γ1 são suaves pois as restrições de γ0 e γ1
a estes intervalos podem não ter os mesmos pontos iniciais e finais. Mostraremos a
seguinte (mais geral) afirmação: Sejam γ0 , γ1 : I → M segmentos de curva suaves
por partes e H : I × I → M uma homotopia entre eles. Definamos os segmentos de
curva σ0 , σ1 : I → M por
σ0 (t) = H(0, t),
σ1 (t) = H(1, t).
94
e tomemos, pela Proposição 2.8.19, σe0 e σe1 segmentos suaves de curva homotópicos
a σ0 e σ1 respectivamente, com relação a {0, 1}. Então
Z
Z
Z
Z
ω−
ω=
ω−
ω.
(2.13)
γ1
γ0
σ
f1
σ
f0
(Note que, no caso especial em que γ0 e γ1 são homotópicos relativamente a {0, 1},
a afirmação implica a proposição, pois, neste caso, σ0 e σ1 são constantes.)
Como γ0 e γ1 são suaves por partes, existe apenas uma quantidade finita de
pontos (a1 , . . . , am ) em (0, 1) nos quais γ0 ou γ1 não são suaves. Provaremos a
afirmação por indução em m.
Se m = 0, γ0 e γ1 são ambas suaves e, pelo Lema 2.8.21 podemos substituir
e lembrando (veja a demonstração do Lema 2.8.21)
H por uma homotopia suave H,
e pode, inclusive, ser tomada como sendo homotópica a H relativamente a
que H
e t) é um segmento de
I × {0} ∪ I × {1}. Então, para i = 0, 1, a curva σei (t) = H(i,
curva suave homotópico a σi relativamente a {0, 1}. Note que, nessas circunstâncias,
(2.13) reduz-se a
Z
H ∗ ω = 0.
∂(I×I)
Suponhamos agora que γ0 e γ1 sejam segmentos de curva suaves por partes com m
pontos (a1 , . . . , am ) nos quais γ0 ou γ1 não são suaves, e que a afirmação e verdadeira
para curvas com menos de m pontos de não-suavidade. Para i = 0, 1, sejam γi0 e γi00
as restrições de γi a [0, am ], e [am , 1], respectivamente. Seja σ : I → M o segmento
de curva
σ(t) = H(am , t),
e seja σ
e um segmento de curva suave homotópico a σ relativamente e [0, 1]. Então,
como γi0 e γi00 têm menos de m pontos de não-suavidade, a hipótese de indução
implica
!
!
Z
Z
Z
Z
Z
Z
ω−
γ1
ω−
ω =
ω
Z
ω+
+
Z
ω−
ω +
σ
f0
Z
Z
ω−
ω,
=
Z
=
σ
e
σ
f1
ω
γ100
γ00
γ10
γ0
γ000
ω+
σ
f1
Z
ω
σ
e
σ
f0
e terminamos.
95
Capı́tulo 3
Cohomologia de De Rham
Na Seção 2.9 nós estudamos as formas diferenciais. Uma forma diferencial ω é
dita fechada se dω = 0, e exata se ω = dη, para alguma forma η. Como d ◦ d = 0
(Teorema 2.9.18), toda forma exata é fechada. Neste capı́tulo estudaremos a questão
contrária: toda forma fechada é exata? A resposta para tal pergunta depende de
propriedades topológicas da variedade em questão e nos leva ao estudo dos grupos
de cohomologia de De Rham.
3.1
Grupos de Cohomologia de De Rham
Como d : Ap (M ) → Ap+1 (M ) é linear, seu núcleo e sua imagem são subespaços
lineares.
Definição 3.1.1. Seja M uma variedade suave sem bordo. Definimos
Z p (M ) = ker(d : Ap (M ) → Ap+1 (M )),
B p (M ) = im(d : Ap−1 (M ) → Ap (M )).
Note que Z p (M ) é precisamente o conjunto das formas fechadas em M , enquanto
que B p (M ) é o conjunto das formas exatas em M . Convencionamos que Ap (M ) = [0]
caso p < 0 ou p > dim(M ). Como toda forma exata é fechada, temos que B p (M ) ⊂
Z p (M ). Além disso, Z p (M ) e B p (M ) são grupos abelianos com a operação de soma
de vetores. Faz sentido, então, a definição seguinte.
Definição 3.1.2. Seja M uma variedade suave sem bordo. Definimos o p-ésimo
grupo de cohomologia de De Rham de M como sendo
Z p (M )
.
H (M ) = p
B (M )
p
Para cada forma fechada ω em M , denotaremos por [ω] a classe de equivalência
de ω em Hp (M ).
Como Ap (M ) = [0] se p < 0 ou p > dim(M ), Hp (M ) = [0] nestes casos. Se
[ω] = [ω 0 ] (ou seja, se ω e ω 0 diferem apenas por uma forma exata), dizemos que ω
e ω 0 são cohomólogas.
97
Proposição 3.1.3. Sejam M e N variedades suaves sem bordo. Para qualquer
g : M → N suave, o pullback g ∗ : Ap (N ) → Ap (M ) leva Z p (N ) em Z p (M ) e B p (N )
em B p (M ) e, portanto, induz uma aplicação linear (que também denotaremos por g ∗ )
de Hp (N ) em Hp (M ), chamada de aplicação de cohomologia induzida, que satisfaz:
(1) Se P é uma variedade suave sem bordo e f : N → P é suave, então
(f ◦ g)∗ = g ∗ ◦ f ∗ : Hp (P ) → Hp (M ),
(2) (idM )∗ é a identidade em Hp (M ).
Demonstração: Se ω é fechada, temos d(g ∗ ω) = g ∗ (dω) = 0, portanto g ∗ ω também
é fechada. Se ω = dη é exata, então g ∗ ω = g ∗ (dη) = d(g ∗ η) também o é. Portanto
g ∗ leva Z p (N ) em Z p (M ) e B p (N ) em B p (M ).
Definimos a aplicação de cohomologia induzida g ∗ : Hp (N ) → Hp (M ) por
g ∗ [ω] = [g ∗ ω].
Se ω 0 = ω + dη, temos
g ∗ [ω 0 ] = [g ∗ (ω + dη)] = [g ∗ ω + d(g ∗ η)] = [g ∗ ω],
logo g ∗ está bem definida.
As propriedades (1) e (2) seguem diretamente das propriedades do pullback de
campos de k-tensores (Proposição 2.9.6).
Corolário 3.1.4. Variedades suaves difeomorfas têm grupos de cohomologia de De
Rham isomorfos.
Apresentaremos brevemente algumas definições da teoria das categorias, pois
decorre da Proposição 3.1.3 um interessante fato dessa área.
Definição 3.1.5. Uma categoria C consiste de:
(1) Uma classe de objetos,
(2) Para cada par X, Y de objetos, um conjunto HomC (X, Y ), cujos elementos são
chamados morfismos,
(3) Para cada trio X, Y , Z de objetos, uma aplicação HomC (X, Y )×HomC (Y, Z) →
HomC (X, Z), chamada de composição, denotada por (f, g) 7→ g ◦ f .
Os morfismos satisfazem:
(1) Se f ∈ HomC (X, Y ), g ∈ HomC (Y, Z) e h ∈ HomC (Z, W ), então (h ◦ g) ◦ f =
h ◦ (g ◦ f ),
(2) Para todo f ∈ HomC (X, X), existe idX ∈ HomC (X, X) tal que idX ◦ f = f =
f ◦ idX .
98
Definição 3.1.6. Sejam C e D categorias. Um funtor covariante de C em D é uma
regra F que associa cada objeto X de C a um objeto F(X) em D, e cada morfismo f ∈ HomC (X, Y ) a um morfismo F(f ) ∈ HomD (F(X), F(Y )), preservando
as identidades e a composição:
F(idX ) = idF (X) ,
F(g ◦ f ) = F(g) ◦ F(f ).
Se F satisfaz F(g◦f ) = F(f )◦F(g) em vez de F(g◦f ) = F(g)◦F(f ), chamamos
F de funtor contravariante.
De posse desta nomenclatura, enunciamos a seguinte consequência da Proposição
3.1.3.
Corolário 3.1.7. Para cada p ≥ 0, a associação
M →
7
Hp (M )
f →
7
f∗
é um funtor contravariante da categoria das variedades suaves e funções suaves na
categoria dos espaços vetoriais reais e aplicações lineares.
A seguir veremos que os grupos de cohomologia de De Rham são invariantes
topológicos. Mais que isso, provaremos que eles são invariantes homotópicos, ou
seja, variedades homotopicamente equivalentes têm grupos de De Rham isomorfos.
Definição 3.1.8. Sejam f, g : M → N suaves. Uma coleção de aplicações lineares
h : Ap (N ) → Ap−1 (M ) satisfazendo
d(hω) + h(dω) = g ∗ ω − f ∗ ω
(3.1)
para toda ω ∈ Ap é chamada de operador homotópico entre f ∗ e g ∗ .
Note que (3.1) implica d(hω) = g ∗ ω − f ∗ ω quando ω é fechada.
Proposição 3.1.9. Seja M uma variedade suave sem bordo e, para cada t ∈ [0, 1],
it : M → M × I, a aplicação dada por
it (x) = (x, t).
Existe um operador homotópico entre i∗0 e i∗1 .
Demonstração: Para cada p precisamos de uma aplicação linear h : Ap (M × I) →
Ap−1 (M ) tal que
d(hω) + h(dω) = i∗1 ω − i∗0 ω.
(3.2)
Definimos h por
Z
hω =
1
i∂/∂t ω dt,
0
onde i∂/∂t ω é a contração de ω com relação a ∂/∂t, ou seja, se X1 , . . . , Xp−1 ∈ Tq M ,
Z 1
(hω)q (X1 , . . . , Xp−1 ) =
i∂/∂t ω(q,t) (X1 , . . . , Xp−1 ) dt
0
Z 1
∂
, X1 , . . . , Xp−1 dt.
=
ω(q,t)
∂t
0
99
Para mostrar que h é, de fato, um operador homotópico, sejam (xi ) coordenadas
suaves em M . Consideremos primeiramente o caso em que ω = f (x, t) dt ∧ dxi1 ∧
· · · ∧ dxip−1 , então
Z 1
ip−1
i1
d(hω) = d
f (x, t) dt dx ∧ · · · ∧ dx
0
Z 1
n
X
∂
=
f (x, t) dt dxj ∧ dxi1 ∧ · · · ∧ dxip−1
j
∂x
0
j=1
Z
n
1
X
∂f
=
(x, t) dt dxj ∧ dxi1 ∧ · · · ∧ dxip−1 ,
j
∂x
0
j=1
enquanto
!
n
X
∂f
h(dω) = h
dxj ∧ dt ∧ dxi1 ∧ · · · ∧ dxip−1
j
∂x
j=1
Z 1X
n
∂f
=
(x, t)i∂/∂t (dxj ∧ dt ∧ dxi1 ∧ · · · ∧ dxip−1 ) dt
j
∂x
0 j=1
n Z 1
X
∂f
(x, t) dt dxj ∧ dxi1 ∧ · · · ∧ dxip−1
= −
j
0 ∂x
j=1
= −d(hω).
Portanto d(hω) + h(dω) = 0. O lado direito de (3.2) também zera neste caso, pois
i∗0 ω = i∗0 f dt ∧ dxi1 ∧ · · · ∧ dxip−1
= (f ◦ i0 ) d(t ◦ i0 ) ∧ d(xi1 ◦ i0 ) ∧ · · · ∧ d(xip−1 ◦ i0 ),
i∗1 ω = i∗1 f dt ∧ dxi1 ∧ · · · ∧ dxip−1
= (f ◦ i1 ) d(t ◦ i1 ) ∧ d(xi1 ◦ i1 ) ∧ · · · ∧ d(xip−1 ◦ i1 ),
e temos d(t ◦ i0 ) = d(t ◦ i1 ) = 0 (porque t ◦ i0 e t ◦ i1 são constantes).
Caso ω = f dxi1 ∧ · · · ∧ dxip , temos i∂/∂t ω = 0, que implica d(hω) = 0. Por outro
lado,
∂f
i1
ip
dt ∧ dx ∧ · · · ∧ dx + termos sem dt
h(dω) = h
∂t
Z 1
∂f
=
(x, t)dt dxi1 ∧ · · · ∧ dxip
0 ∂t
= (f (x, 1) − f (x, 0)) dxi1 ∧ · · · ∧ dxip
= i∗1 − i∗0 .
Como h é linear e qualquer p-forma em I × M pode ser escrita localmente como
soma de formas do tipo ω = f (x, t) dt ∧ dxi1 ∧ · · · ∧ dxip−1 e ω = f dxi1 ∧ · · · ∧ dxip ,
100
terminamos.
A seguir mostraremos que aplicações homotópicas induzem a mesma aplicação
de cohomologia e, como consequência, que os grupos de cohomologia de De Rham
são invariantes homotópicos.
Proposição 3.1.10. Sejam f, g : M → N aplicações suaves homotópicas. Para
cada p, as aplicações de cohomologia induzidas f ∗ , g ∗ : Hp (N ) → Hp (M ) são iguais.
Demonstração: Pelo Lema 2.8.21 existe uma homotopia suave H : M × I → N
de f em g, ou seja, H ◦ i0 = f e H ◦ i1 = g. Considere h : Ap (M × I) → Ap−1 (M ),
o operador homotópico que construı́mos na Proposição 3.1.9. Temos o seguinte
diagrama:
∗
Ap (N ) H / Ap (M × I) h / Ap−1 (M ) .
Seja e
h = h ◦ H ∗ : Ap (N ) → Ap−1 (M ). Para qualquer ω ∈ Ap (N ),
e
h(dω) + d(e
hω) =
=
=
=
=
h(H ∗ dω) + d(hH ∗ ω)
h(d(H ∗ ω)) + d(h(H ∗ ω))
i∗1 H ∗ ω − i∗0 H ∗ ω
(H ◦ i1 )∗ ω + (H ◦ i0 )∗ ω
g ∗ ω − f ∗ ω.
Portanto, se ω é fechada,
h
i
g ∗ [ω] − f ∗ [ω] = [g ∗ ω − f ∗ ω] = e
h(dω) − d(e
hω) = 0.
A última igualdade segue porque dω = 0 e porque a classe de cohomologia de
qualquer forma exata é zero.
Teorema 3.1.11. Sejam M e N variedades suaves sem bordo homotopicamente
equivalentes. Então Hp (M ) ∼
= Hp (N ), para todo p.
Demonstração: Seja f : M → N uma equivalência homotópica com inversa g :
N → M . Pela Proposição 2.8.19, existem funções suaves fe : M → N e ge : N →
M homotópicas a f e g, respectivamente. Como a homotopia é preservada por
composições, segue que fe ◦ ge ' f ◦ g ' idN e ge ◦ fe ' g ◦ f ' idM e que, portanto, fe
e ge são homotopias inversas.
Pela Proposição 3.1.10,
∗
fe∗ ◦ ge∗ = ge ◦ fe = (idM )∗ = idHp (M ) .
O mesmo argumento mostra que ge∗ ◦ fe∗ é a identidade em Hp (N ). Segue então
que fe∗ : Hp (N ) → Hp (M ) é um isomorfismo.
É notável o fato acima pois a definição dos grupos de cohomologia de De Rham
de uma variedade é intimamente ligada à estrutura suave desta e, portanto, não
era de se esperar que variedades apenas homeomorfas munidas de atlas diferentes
gerassem os mesmos grupos de cohomologia.
101
3.2
Teorema de Mayer-Vietoris
Definição 3.2.1. Seja R um anel comutativo (veja A.3.28). Uma sequência (Ap , dp ),
p ≥ 0, de R-módulos Ap (veja A.3.29) e aplicações R-lineares dp : Ap → Ap+1 tais
que dp ◦ dp+1 = 0 para todo p é dita um complexo com coeficientes em R. Cada
ap ∈ Ap é chamado de p-cocadeia. Se dp (ap ) = 0, dizemos que ap é um p-cociclo.
Denotaremos uma sequência (Ap , dp ) por A∗ . Uma sequência A∗ é dita exata se
im(dp−1 ) = ker(dp ) para todo p. Claramente, toda sequência exata é um complexo,
mas a recı́proca em geral é falsa.
Se A∗ é um complexo, então para cada p, a imagem de dp está contida no núcleo
de dp+1 . Faz sentido, então a seguinte definição:
Definição 3.2.2. Seja A∗ um complexo. Definimos o p-ésimo grupo de cohomologia
de A∗ por
ker(dp )
.
Hp (A∗ ) =
im(dp−1 )
Pensamos intuitivamente em Hp (A∗ ) como sendo uma espécie de “medida” do
quanto falta para A∗ ser uma sequência exata.
Exemplo 3.2.3. Seja M uma variedade suave de dimensão n sem bordo.
sequência
0
/
A0 (M )
d
/
d
···
/ Ap (M )
d
/ Ap+1 (M )
/
d
···
d
/
An (M )
/
A
0
é um complexo (que chamamos de complexo de De Rham de M , e denotamos por
A∗ (M )), cujos grupos de cohomologia são os grupos de De Rham Hp (M ).
Definição 3.2.4. Sejam A∗ e B ∗ complexos. Uma coleção Fp : Ap → B p de
aplicações lineares tais que o diagrama
/
···
dA
p
Ap
Fp
/ Bp
dB
p
···
/
/
Ap+1
···
Fp+1
/ B p+1
/
···
comuta é chamada de morfismo de A∗ em B ∗ .
B
A
Como Fp+1 ◦ dA
p = dp ◦ Fp , segue que, para cada p, o morfismo F leva ker(dp )
A
B
em ker(dB
p ) e im(dp ) em im(dp ) e, portanto, induz (como na Proposição 3.1.3) uma
aplicação linear F ∗ : Hp (A∗ ) → Hp (B ∗ ) dada por
F ∗ ([a]) = [F (a)] .
Definição 3.2.5. Sejam A∗ , B ∗ e C ∗ complexos e F e G morfismos de A∗ em B ∗ e
de B ∗ em C ∗ respectivamente, tais que, para cada p, a sequência
0
/
Ap
Fp
/
Bp
Gp
/
Cp
/
0
é exata (ou seja, Fp é injetora, Gp é sobrejetora e im(Fp ) = ker(Gp )). A sequência
(A∗ , B ∗ , C ∗ , F, G) é chamada de sequência de complexos exata curta.
102
Lema 3.2.6. Dada uma sequência de complexos exata curta (A∗ , B ∗ , C ∗ , F, G), para
cada p existe uma aplicação linear
δ : Hp (C ∗ ) → Hp+1 (A∗ )
(chamada de homomorfismo conectante) tal que a sequência
···
δ
/
Hp (A∗ )
Fp∗
/
G∗p
Hp (B ∗ )
/
δ
Hp (C ∗ )
/
Hp+1 (A∗ )
∗
Fp+1
/ ···
é exata.
Demonstração: Por hipótese, o diagrama
/
0
Fp
/
/
/
A
/
B
p+1 Gp+1
dp+1
p+2 Fp+2
A
/
B
/
0
/
0
/
0
dp
/ C p+1
dp+1
p+2 Gp+2
/
Cp
dp
p+1 Fp+1
Gp
Bp
dp
0
0
Ap
dp+1
/ C p+2
comuta e cada uma de suas linhas é exata. Seja cp ∈ C p um p-cociclo (ou seja,
dp cp = 0). Como Gp : B p → C p é sobrejetora, existe bp ∈ B p tal que Gp (bp ) = cp .
Como o diagrama acima comuta, Gp+1 (dp bp ) = dp (Gp (bp )) = dp cp = 0 e, então,
dp bp ∈ ker(Gp+1 ) = im(Fp+1 ). Segue, portanto, que existe ap+1 ∈ Ap+1 tal que
Fp+1 (ap+1 ) = dp bp . Novamente, como o diagrama acima comuta, Fp+2 (dp+1 ap+1 ) =
dp+1 (Fp+1 (ap+1 )) = dp+1 (dp bp ) = 0. Como Fp+2 é injetora, segue que dp+1 ap+1 = 0.
Portanto ap+1 é um (p + 1)-cociclo, ou seja, ap+1 representa uma classe de cohomologia em H(A∗ ).
Definimos o homomorfismo conectante δ por
δ([cp ]) = ap+1 ,
para qualquer ap+1 ∈ Ap+1 como acima.
Verifiquemos que δ está bem definido: A escolha mais geral possı́vel de um cociclo
em [cp ] seria cp +dp−1 cp−1 = cp +dp−1 (Gp−1 (bp−1 )) = cp +Gp (dp−1 (bp−1 )), para algum
cp−1 ∈ C p−1 e algum bp−1 ∈ B p−1 tal que Gp−1 (bp−1 ) = cp−1 . Consequentemente, a
escolha mais geral de bp seria da forma bp1 = bp + dp−1 (bp−1 ) + Fp (ap1 ), para algum
ap1 ∈ Ap , de forma que Gp (bp1 ) = cp + dp−1 cp−1 . Neste caso, dp (bp1 ) = Fp+1 (ap+1 ) +
Fp+1 (dp ap1 ) = Fp+1 (ap+1 + dp ap1 ). Portanto, com escolhas diferentes terı́amos ainda
δ cp + dp−1 cp−1 = ap+1 + dp ap1 = ap+1 = δ ([cp ]) .
A verificação de que δ é linear é trivial. Mostremos que a sequência
···
δ
/ Hp (A∗ )
Fp∗
/
Hp (B ∗ )
G∗p
/
é exata. Faremos isso em três etapas:
103
Hp (C ∗ )
δ
/
Hp+1 (A∗ )
∗
Fp+1
/ ···
G∗p
δ
(1) Em Hp (B ∗ ) → Hp (C ∗ ) → Hp+1 (A∗ ), temos ker(δ) = im(G∗p ):
De fato, se [cp ] = G∗p ([bp ]) = [Gp (bp )], com dp bp = 0, então dp bp = Fp+1 (0) e
δ([cp ]) = [0] = 0. Logo im(G∗p ) ⊂ ker(δ). Reciprocamente, se 0 = δ([cp ]) =
[ap+1 ], então ap+1 = dp ap , para algum ap ∈ Ap . Logo, tomando bp ∈ B p tal
que Gp (bp ) = cp , temos dp (bp ) = Fp+1 (ap+1 ) = Fp+1 (dp ap ) = dp (Fp (ap )). Daı́
d(bp − Fp (ap )) = 0, e segue que bp − Fp (ap ) é um cociclo em Bp , com Gp (bp −
Fp (ap )) = Gp (bp )+Gp (Fp (ap )) = Gp (bp ). Logo, G∗p ([bp −Fp (ap )]) = [cp ]. Portanto
ker(δ) ⊂ im(G∗p ).
∗
Fp+1
δ
∗
(2) Em Hp (C ∗ ) → Hp+1 (A∗ ) → Hp+1 (B ∗ ), temos ker(Fp+1
) = im(δ):
Com efeito, para toda classe [cp ] ∈ Hp (C ∗ ) temos δ([cp ]) = [ap+1 ], onde ap+1 é
cociclo em Ap+1 , Fp+1 (ap+1 ) = dp bp e Gp (bp ) = cp . Portanto
∗
∗
(δ([cp ])) = Fp+1
([ap+1 ]) = Fp+1 (ap+1 ) = [dp bp ] = 0 ∈ Hp+1 (B ∗ ).
Fp+1
∗
∗
([ap+1 ]) = [Fp+1 (ap+1 )],
). Reciprocamente, se 0 = Fp+1
Logo im(δ) ⊂ ker(Fp+1
com ap+1 cociclo em Ap+1 , então Fp+1 (ap+1 ) = dp bp , bp ∈ B p . Pondo cp = Gp (bp ),
temos δ([cp ]) = [ap+1 ]. Logo ker(F ∗ ) ⊂ im(δ).
Fp∗
G∗p
(3) Em Hp (A∗ ) → Hp (B ∗ ) → Hp (C ∗ ), temos ker(G∗p ) = im(Fp∗ ):
Como G∗p ◦ Fp∗ = (Gp ◦ Fp )∗ = 0∗ = 0, temos im(Fp∗ ) ⊂ ker(G∗p ). Reciprocamente, se 0 = G∗p ([bp ]) = [Gp (bp )], então existe cp−1 ∈ C p−1 tal que
Gp (bp ) = dp−1 cp−1 . Como Gp−1 é sobrejetora, temos cp−1 = Gp−1 bp−1 para
algum bp−1 ∈ B p−1 . Portanto Gp (bp ) = dp−1 (Gp−1 (bp−1 )) = Gp (dp−1 (bp−1 )), logo
Gp (bp − dp−1 (bp−1 )) = 0. Pela exatidão da sequência (A∗ , B ∗ , C ∗ , F, G), existe
ap ∈ Ap tal que bp − dp−1 (bp−1 ) = Fp (ap ). Como Fp+1 é injetora,
Fp+1 (dp ap ) = dp (Fp (ap )) = dp bp −dp−1 (bp−1 ) = dp bp −dp (dp−1 bp−1 ) = 0−0 = 0
e, então, dp ap = 0. Assim ap é cociclo de Ap e Fp∗ ([ap ]) = [Fp (ap )] = [bp −
dp−1 (bp−1 )] ⊂ [bp ]. Portanto ker(G∗p ) ⊂ im(Fp∗ ).
Isso termina a demonstração.
Usaremos o lema acima na seguinte situação: Sejam U e V abertos de uma
variedade suave M tais que M = U ∪ V , e sejam i, j, k e l as inclusões canônicas
como no diagrama abaixo:
U ∩V i /U
j
V
/
l
k
M
Estas inclusões induzem os pullbacks i∗ , j ∗ , k ∗ e l∗ como no seguinte diagrama:
i∗
Ap (U ∩ V ) o
O
O
j∗
Ap (V ) o
Ap (U )
k∗
l∗
104
Ap (M )
Note que estes pullbacks são meramente restrições (por exemplo, k ∗ (ω) = ω|U ).
Consideraremos a sequência
0
/
Ap (M )
k∗ ⊕l∗/
Ap (U ) ⊕ Ap (V )
i∗ −j ∗
/
Ap (U ∩ V )
/
0,
onde (k ∗ ⊕ l∗ )(ω) = (k ∗ (ω), l∗ (ω)) e (i∗ − j ∗ )(ω, η) = i∗ (ω) − j ∗ (η). Como o pullback
comuta com a diferencial exterior, estas aplicações induzem aplicações lineares entre
os respectivos grupos de cohomologia de De Rham.
Teorema 3.2.7 (Mayer-Vietoris). Seja M uma variedade suave sem bordo e U e
V abertos de M tais que M = U ∪ V . Para cada p existe uma aplicação linear
δ : Hp (U ∩ V ) → Hp+1 (M ) tal que a sequência (chamada de sequência de MayerVietoris para {U, V })
···
δ
/
k∗ ⊕l∗ /
Hp (M )
Hp (U ) ⊕ Hp (V )
i∗ −j ∗
/
Hp (U ∩ V )
δ
/
Hp+1 (M )
k∗ ⊕l∗ /
···
é exata.
Demonstração: Começaremos mostrando que a sequência
0
/
Ap (M )
k∗ ⊕l∗/
Ap (U ) ⊕ Ap (V )
i∗ −j ∗
/
Ap (U ∩ V )
/
0
é exata. Note que, se σ ∈ Ap (M ) satisfaz (k ∗ ⊕ l∗ )(σ) = (0, 0), então σ|U = 0 e
σ|V = 0. Como M = U ∪ V , segue que σ = 0. Portanto k ∗ ⊕ l∗ é injetora. Além
disso, dada σ ∈ Ap (M ),
(i∗ − j ∗ ) ◦ (k ∗ ⊕ l∗ )(σ) = (i∗ − j ∗ )(σ|U , σ|V ) = σ|U ∩V − σ|U ∩V = 0,
o que mostra que im(k ∗ ⊕ l∗ ) ⊂ ker(i∗ − j ∗ ). Reciprocamente, suponha que (η, η 0 ) ∈
Ap (U ) ⊕ Ap (V ) e (i∗ − j ∗ )(η, η 0 ) = 0. Isso implica que η|U ∩V = η 0 |U ∩V e, portanto
η em U,
σ=
η 0 em V
é uma p-forma em M satisfazendo (k ∗ ⊕ l∗ )(σ) = (η, η 0 ). Portanto ker(i∗ − j ∗ ) ⊂
im(k ∗ ⊕ l∗ ).
Resta mostrar que i∗ −j ∗ é sobrejetora. Seja ω ∈ Ap (U ∩V ) e {ϕ, ψ} uma partição
suave da unidade com relação à cobertura {U, V } de M (veja 2.4.8). Definimos
η ∈ Ap (U ) por
ψω em U ∩ V,
η=
(3.3)
0 em U \ supp(ψ).
Note que no conjunto (U ∩ V ) \ supp(ψ), onde a definição é ambı́gua, ψω = 0.
Portanto η está bem definida. De forma análoga, definimos η 0 ∈ Ap (V ) por
−ϕω em U ∩ V,
0
η =
(3.4)
0 em V \ supp(ψ).
Temos então
(i∗ − j ∗ )(η, η 0 ) = i∗ (η) − j ∗ (η 0 ) = η|U ∩V − η 0 |U ∩V
= ψω − (−ϕω) = (ψ + ϕ)ω = ω,
105
portanto i∗ − j ∗ é, de fato, sobrejetora.
Como o pullback comuta com a diferencial exterior, k ∗ ⊕ l∗ : Ap (M ) → Ap (U ) ⊕
Ap (V ) e i∗ − j ∗ : Ap (U ) ⊕ Ap (V ) → Ap (U ∩ V ) são morfismos. Logo
A∗ (M ), A∗ (U ) ⊕ A∗ (V ), A∗ (U ∩ V ), k ∗ ⊕ l∗ , i∗ − j ∗
é uma sequência de complexos exata curta. A existência de δ : Hp (U ∩ V ) →
Hp+1 (M ) segue, então, do Lema 3.2.6.
Corolário 3.2.8. O homomorfismo conectante δ : Hp (U ∩V ) → Hp+1 (M ) é definido
como segue. Para cada ω ∈ Z p (U ∩ V ) existem η ∈ Ap (U ) e η 0 ∈ Ap (V ) tais que
ω = η|U ∩V − η 0 |U ∩V , e portanto δ([ω]) = [dη] (estendendo dη por zero a toda M ).
Se {ϕ, ψ} é uma partição suave da unidade com relação a {U, V } podemos tomar
η = ψω e η 0 = −ϕω (ambas estendidas assumindo o valor zero fora dos suportes de
ϕ e ψ).
Demonstração: Caracterizamos δ na demonstração do Lema 3.2.6. Em particular,
para a sequência
0
/
Ap (M )
k∗ ⊕l∗/
Ap (U ) ⊕ Ap (V )
i∗ −j ∗
/
Ap (U ∩ V )
/
0
temos δ([ω]) = σ, havendo (η, η 0 ) ∈ Ap (U ) ⊕ Ap (V ) tal que
i∗ (η) − j ∗ (η 0 ) = ω,
(k ∗ (σ), l∗ (σ)) = (dη, dη 0 ).
Analogamente à prova do Teorema de Mayer-Vietoris, se {ϕ, ψ} é uma partição
suave da unidade com relação a {U, V }, as fórmulas (3.3) e (3.4) definem η ∈ Ap (U )
e η 0 ∈ Ap (V ) satisfazendo i∗ (η) − j ∗ (η 0 ) = ω. Seja σ a forma suave em M obtida
estendendo-se dη por zero fora de U ∩ V . Como ω é fechada,
σ|U ∩V = dη|U ∩V = d(ω + η 0 )|U ∩V = dη 0 |U ∩V ,
e, como η = 0 em U \V e η 0 = 0 em V \U , segue sem dificuldade que (k ∗ (σ), l∗ (σ)) =
(dη, dη 0 ).
3.3
Cohomologia de De Rham da Esfera
O objetivo principal desta seção é calcular os grupos de cohomologia de De
Rham da n-esfera. Calcularemos também os grupos de cohomologia de alguns outros
espaços.
Proposição 3.3.1. Seja {M
F j }, j = 1, 2, . . . uma coleção enumerável de variedades
suaves sem bordo, e M = j Mj . Para cada
Q p,p as inclusões canônicas ij : Mj → M
p
induzem um isomorfismo entre H (M ) e j H (Mj ) (veja A.3.31).
106
p
p
∗
Demonstração:
Q Osp pullbacks ij : A (M ) → A (Mj ) induzem um isomorfismo
p
entre A (M ) e j A (Mj ), dado por
ω 7→ (i∗1 (ω), i∗2 (ω), . . . ) = (ω|M1 , ω|M2 , . . . ).
Essa aplicação é injetiva pois qualquer p-forma em M cuja restrição à cada Mj
é zero é, de fato, a p-forma nula, e é sobrejetiva pois dada uma p-forma arbitrária
em cada Mj , estas definem uma única p-forma em M .
Por esta proposição, cada grupo de cohomologia de De Rham de uma variedade
desconexa é o produto direto dos grupos de cada uma das componentes conexas
desta. Por isso focaremos nosso estudo no cálculo dos grupos de De Rham de
variedades conexas.
Proposição 3.3.2. Seja M uma variedade suave sem bordo conexa. O grupo de
cohomologia de De Rham H0 (M ) é igual ao espaço das funções constantes e, logo,
tem dimensão 1.
Demonstração: Como não há (−1)-formas, B 0 (M ) = 0. Uma 0-forma fechada
nada mais é que uma função real suave f tal que df = 0 e, então, como M é conexa,
f é constante. Portanto H0 (M ) = Z 0 (M ), sendo este o espaço das funções reais
constantes.
Corolário 3.3.3. Se M é uma variedade de dimensão 0, temos
dim(H0 (M )) = #(M ),
e os outros grupos de De Rham de M são triviais.
Demonstração: Pelas Proposições 3.3.1 e 3.3.2, H0 (M ) é isomorfo ao produto
direto de uma cópia de R para cada componente conexa de M (para cada ponto,
neste caso). Os outros grupos de De Rham são triviais pois a única p-forma em M ,
se p ≥ 1, é a forma nula, como segue do Corolário 1.9.5.
Examinaremos agora a cohomologia de De Rham do espaço euclideano. Dizemos
que um subconjunto U de Rn é estrelado se existe um ponto p ∈ U tal que, para
todo q ∈ U o segmento que liga p a q fica inteiramente contido em U .
Teorema 3.3.4 (Lema de Poincaré). Seja U ⊂ Rn um aberto estrelado. Então
Hp (U ) = 0 para todo p ≥ 1.
Demonstração: Suponha que U ⊂ Rn é um aberto estrelado com respeito a q.
Então U é contrátil (Definição A.2.39). De fato, idU é homotópica à função constante
que leva todo ponto de U em q, pela homotopia
H(x, t) = q + t(x − q).
O resultado segue da invariância homotópica de Hp e do fato de que, pelo Corolário
3.3.3, Hp ({q}) = 0 para p ≥ 1, pois {q} é uma variedade de dimensão 0.
107
Corolário 3.3.5. Para todo p ≥ 1 temos Hp (Rn ) = 0.
Corolário 3.3.6. Seja M uma variedade suave sem bordo e ω uma p-forma fechada
em M , com p ≥ 1. Para todo q ∈ M existe uma vizinhança U de p onde ω é exata.
Demonstração: Pela Proposição 2.4.7, todo ponto q ∈ M tem uma vizinhança
difeomorfa a uma bola aberta em Rn , a qual é estrelada. O resultado segue pela
invariância da cohomologia de De Rham por difeomorfismos (Corolário 3.1.4). Proposição 3.3.7. Seja M uma variedade suave sem bordo simplesmente conexa.
Então H1 (M ) = 0.
Demonstração: Seja ω uma 1-forma fechada em M . Mostremos que ω é exata.
Pelo Teorema 2.7.11, ω é exata se, e somente se, ela for conservativa (isto é, se ω
vista como um campo de covetores é um campo conservativo), ou seja, a integral
de linha de ω sobre qualquer segmento de curva suave fechado é zero. Como M é
simplesmente conexa, todo segmento de curva fechado é homotópico a um segmento
de curva constante. O resultado segue, então, das Proposições 2.11.25 e 2.7.7.
Antes de calcularmos os grupos de De Rham da esfera, vejamos uma projeção
da esfera no espaço euclideano que nos será útil. A aplicação ψ : Rn → Sn \
{(0, . . . , 0, 1)} dada em coordenadas cartesianas por
ψ(x1 , . . . , xn ) =
1
1+
k(x1 , . . . , xn )k2
2x1 , . . . , 2xn , k(x1 , . . . , xn )k2 − 1 .
é chamada de projeção estereográfica. Assim definida, a projeção estereográfica é
suave e bijetiva.
Geometricamente, o que a projeção estereográfica faz é associar a cada ponto
x ∈ Rn o ponto ψ(x), onde {ψ(x)} = Sn \ {(0, . . . , 0, 1)} ∩ r, sendo r a reta que
passa por x e (0, . . . , 0, 1).
Teorema 3.3.8 (Cohomologia da Esfera). Para n ≥ 1 temos
R se p = 0 ou p = n,
p n ∼
H (S ) =
0 se 0 < p < n.
(3.5)
Além disso, a classe de cohomologia de qualquer forma de orientação é uma base
para Hp (Sn ).
Demonstração: Pela Proposição 3.3.2, H0 (Sn ) ∼
= R, logo, precisamos mostrar
(3.5) para p ≥ 1. Faremos isso por indução em n. Para n = 1, seja ω a 1-forma em
R2 \ {0} dada por
x dy − y dx
,
ω=
x2 + y 2
e considere ω0 = ω|S1 e γ : [0, 2π] → R2 \ {0} o segmento de curva
γ(t) = (cos(t), sin(t)).
108
Temos
Z
Z
Z
ω0 = ω =
S1
γ
[0,2π]
cos(t)(cos(t) dt) − sin(t)(− sin(t) dt)
=
sin2 (t) + cos2 (t)
Z
2π
dt = 2π 6= 0,
0
1 1
portanto
R ω0 não é Rexata (Corolário 2.11.13). Se η ∈ A (S ) é qualquer e c =
(1/2π) S1 η, então S 1 (η − cω0 ) = 0, e segue que η − cω0 é exata. Isso quer dizer
que [η] = c[ω0 ], ou seja, [ω0 ] gera H1 (S1 ).
Suponhamos agora que n ≥ 2 e que o teorema vale para Sn−1 . Como Sn é
simplesmente conexa, H1 (Sn ) = 0, pela Proposição 3.3.7. Apliquemos o Teorema de
Mayer-Vietoris, para p > 1, como segue:
Sejam N = (0, . . . , 0, 1) e S = (0, . . . , 0, −1) os polos norte e sul de Sn , respectivamente, e U = Sn \ {S}, V = Sn \ {N }. Pela projeção estereográfica, U e V são
difeomorfos a Rn , e portanto, U ∩ V é difeomorfo a Rn \ {0}. Parte da sequência de
Mayer-Vietoris para {U, V } é
Hp−1 (U ) ⊕ Hp−1 (V ) → Hp−1 (U ∩ V ) → Hp (Sn ) → Hp (U ) ⊕ Hp (V ).
Como U e V são difeomorfos a Rn , os grupos Hp−1 (U )⊕Hp−1 (V ) e Hp (U )⊕Hp (V )
são triviais, para p > 1, o que implica Hp−1 (U ∩ V ) ∼
= Hp (Sn ). Doravante, U ∩ V é
n
difeomorfo a R \ {0} e , logo, tem o mesmo tipo de homotopia de Sp−1 . Concluı́mos
então que Hp (Sn ) ∼
= Hp−1 (Sn−1 ), para p > 1.
Por fim, se ω é uma forma de orientação em Sn , esta não é exata, pois sua integral é não-nula. Como dim(Hn (Sn )) = 1, segue que [ω] gera Hn (Sn ).
Corolário 3.3.9. Se m, n ≥ 1 e m 6= n, então Sm Sn .
Demonstração: Suponhamos sem perda de generalidade que m < n. Temos, pelo
Teorema 3.3.8, Hn (Sm ) ∼
= 0 e Hn (Sn ) ∼
= R. Portanto Hn (Sm ) Hn (Sn ). Pelo
Teorema 3.1.11, Sm Sn .
Corolário 3.3.10. Sejam n ≥ 2 e x ∈ Rn . Os únicos grupos de cohomologia de De
Rham não triviais de Rn \ {x} são H0 (Rn \ {x}) e Hn−1 (Rn \ {x}), sendo ambos de
dimensão 1.
Demonstração: Seja S ⊂ Rn \ {x} uma esfera de dimensão (n − 1) centrada em
x. Como a inclusão i : S → Rn \ {x} é uma equivalência homotópica, pelo Teorema
3.1.11,
i : Hp (Rn \ {x}) → Hp (S)
é um isomorfismo de grupos para cada p.
Corolário 3.3.11. Se m, n ≥ 2 e m 6= n, então Rm Rn .
Demonstração: Seja x0 ∈ Rm e suponhamos por absurdo que existe um homeomorfismo f : Rm → Rn . Então
f |Rm \{x0 } : Rm \ {x0 } → Rn \ {f (x0 )}
é homeomorfismo entre Rm \{x0 } e Rn \{f (x0 )}, o que implica, Pelo Teorema 3.1.11,
que Hp (Rm ) ∼
= Hp (Rn ) para todo p. Como m 6= n, isso contradiz o Corolário 3.3.10.
Logo Rm Rn .
109
Apêndice
Nesta seção fazemos uma breve revisão das definições e dos principais resultados
dos tópicos que são pré-requisito para este trabalho.
Conjuntos
Não pretendemos entrar em detalhes axiomáticos da teoria dos conjuntos, sendo
essa seção destinada mais a fixação de notação do que a considerações teóricas.
Aceitaremos, assim, a noção intuitiva de que um conjunto é qualquer coleção, dentro
de um todo de objetos definidos e distinguı́veis, chamados elementos. Sejam dois
conjuntos A e B. Quando um elemento x pertence a A, denotamos esta relação por
x ∈ A. Se x não pertence a A denotamos x ∈
/ A. Especificaremos um conjunto
listando entre chaves, { }, todos os seus elementos ou um elemento genérico tı́pico e
a condição p que o define. Neste último caso, separaremos tal elemento da condição
p com o sı́mbolo |. A é dito subconjunto de B se todo elemento de A é também
elemento de B, e denotamos A ⊂ B. Dizemos que A e B são iguais se, e somente se,
A ⊂ B e B ⊂ A, e, neste caso, denotamos A = B. Por fim, denotaremos o conjunto
vazio por ∅.
Definição A.1.1. Dados dois conjuntos A e B, definimos a união e a intersecção
entre A e B respectivamente por
A ∪ B = {x | x ∈ A ou x ∈ B},
A ∩ B = {x | x ∈ A e x ∈ B}.
Frequentemente usaremos a generalização destas operações para mais de dois
conjuntos, como segue. Seja Aα , α ∈ J uma coleção de conjuntos. Denotaremos a
união e a intersecção entre todos os conjuntos Aα respectivamente por
[
Aα = {x | x ∈ Aα ∀ α ∈ J},
α∈J
\
Aα = {x | x ∈ Aα para algum α ∈ J}.
α∈J
Caso J seja finito, as seguintes notações também serão usadas:
[
α∈J
Aα =
n
[
i=1
111
Aαi ,
\
Aα =
n
\
Aαi .
i=1
α∈J
Definição A.1.2. Dados dois conjuntos A e B, dizemos que A e B são disjuntos se
A ∩ B = ∅.
Dados dois conjuntos A e B disjuntos, denotaremos sua união pelo o sı́mbolo
AtB, já ficando subentendido, nesse caso, que A e B são disjuntos. Mais geralmente,
dada uma famı́lia qualquer {Aλ }λ∈Γ de conjuntos disjuntos dois a dois, denotaremos
sua união por
G
Aλ .
λ∈Γ
Definição A.1.3. Dados dois conjuntos A e B, a diferença entre A e B é definida
por
A \ B = {x | x ∈ A e x ∈
/ B}.
Um par ordenado consiste de um par de elementos distinguidos como primeiro
elemento e segundo elemento. Tal distinção pode ser feita através da identificação
(a, b) ≡ {a, {a, b}}.
Trivialmente, temos (a, b) = (c, d) ⇔ a = c e b = d.
Definição A.1.4. Dados dois conjuntos A e B, definimos A×B, o produto cartesiano
de A e B por
A × B = {(a, b) | a ∈ A b ∈ B}.
A operação acima pode ser generalizada para uma coleção finita Ai , i ∈ {1, . . . , n}
de conjuntos colocando-se
A1 × · · · × An = {(a1 , . . . , an ) | a1 ∈ A1 , . . . , an ∈ An }.
Definição A.1.5. Dados dois conjuntos A e B, uma relação R de A em B é um
subconjunto de A × B. Denotaremos (a, b) ∈ R por aRb. Definimos também os
conjuntos
dom(R) = {a ∈ A | (a, b) ∈ R para algum b ∈ B},
im(R) = {b ∈ B | (a, b) ∈ R para algum a ∈ A}.
Definição A.1.6. Sejam A um conjunto e R uma relação de A em A. R é chamada
de relação de equivalência quando, ∀ a, b, c ∈ A, satisfaz:
(1) aRa,
(2) aRb ⇒ bRa,
(3) aRb e bRc ⇒ aRc.
112
Definição A.1.7. Seja R uma relação de equivalência em um conjunto não vazio
A. Para cada a ∈ A definimos a classe de equivalência de a por
a/R = {b ∈ A | bRa}.
O conjunto de todas as classes de equivalência em A é denotado por A/R =
{a/R | a ∈ A}.
Definição A.1.8. Seja A um conjunto, A 6= ∅. Uma partição P de A é um conjunto
de subconjuntos não vazios de A satisfazendo:
(1) Se P1 , P2 ∈ P e P1 6= P2 , então P1 ∩ P2 = ∅,
S
(2) P ∈P P = A.
Lema A.1.9. Seja R uma relação de equivalência em um conjunto não vazio A.
Então A/R é uma partição de A.
Demonstração: Como R é reflexiva, a ∈ a/R, ∀ a ∈ A, portanto A/R é uma
famı́lia de subconjuntos não vazios de A. Suponha que (a/R) ∩ (b/R) 6= ∅. Então,
pela transitividade de R, a/R = b/R. Logo, a/R 6= b/R ⇒ (a/R) ∩ (b/R) = ∅.
Finalmente, como a ∈ a/R, ∀ a ∈ A, temos que
[
a/R = A.
a∈A
As funções, definidas a seguir, são um tipo particular de relação.
Definição A.1.10. Dados dois conjuntos A e B, uma função de A em B, é uma
tripla (f, A, B) onde f é uma relação de A em B satisfazendo:
(1) dom(f ) = A,
(2) Se (a, b) ∈ f e (a, c) ∈ f então b = c.
Adotaremos o costume de denotar f : A → B no lugar de (f, A, B), e b = f (a)
em vez de (a, b) ∈ f . Os conjuntos A e B são chamados, respectivamente, domı́nio
e contradomı́nio da função f . O conjunto f (A) = {f (a) | a ∈ A} denomina-se
imagem de f .
Definição A.1.11. Destacamos três tipos de funções:
(1) f : A → B é dita injetora quando, dados a1 , a2 ∈ A, se f (a1 ) = f (a2 ), então
a1 = a2 ,
(2) f : A → B é dita sobrejetora quando, para todo b ∈ B, existe pelo menos um
a ∈ A tal que f (a) = b,
(3) f : A → B é dita bijetora quando for simultaneamente injetora e sobrejetora.
113
Se R é uma relação de A para B, então a sua inversa R−1 = {(b, a) | (a, b) ∈ R}
é uma relação de B para A. Como f : A → B é um tipo particular de relação, é
natural perguntar quando f −1 é também uma função. O lema abaixo responde tal
pergunta.
Lema A.1.12. Seja f : A → B uma função bijetora. Então f −1 : B → A é bijetora.
Demonstração: Como f é sobrejetora, dom(f −1 ) = im(f ) = B. Além disso, se
(b, a1 ), (b, a2 ) ∈ f −1 , então (a1 , b), (a2 , b) ∈ f , e consequentemente f (a1 ) = f (a2 ) = b.
Como f é injetora, decorre que a1 = a2 . Portanto f −1 é função. Sejam b1 , b2 ∈ B,
com f −1 (b1 ) = f −1 (b2 ) = a ∈ A. Então f (a) = b1 e f (a) = b2 , e logo b1 = b2 .
Portanto f −1 é injetora. Por fim, como f é relação, im(f −1 ) = dom(f ) = A, e f −1
é sobrejetora.
Quando f : A → B é bijeção, f −1 : B → A é chamada de função inversa de f .
Definição A.1.13. Sejam f : A → B e g : B → C duas funções. A composição de
f e g é a função g ◦ f : A → C, definida (g ◦ f )(a) = g(f (a)), ∀ a ∈ A.
Definição A.1.14. Seja {Aλ }λ∈Λ Q
uma coleção arbitrária de conjuntos. O produto
cartesiano de {Aλ }, denotado por λ∈Λ Aλ , é definido como o conjunto das funções
[
X:Λ→
Aλ ,
λ∈Λ
satisfazendo X(λ) ∈ Aλ , para todo λ ∈ Λ.
Topologia
Definição A.2.1. Seja X um conjunto. Uma topologia em X é uma coleção τ de
subconjuntos de X, chamados abertos de A, satisfazendo:
(1) X, ∅ ∈ τ ,
S
(2) λ∈Γ Uλ ∈ τ , para qualquer famı́lia (Uλ )λ∈Γ de elementos de τ ,
T
(3) ni=1 Ui ∈ τ para qualquer famı́lia finita U1 , . . . , Un de elementos de τ .
Um espaço topológico é um par (X, τ ), onde X é um conjunto e τ é uma topologia
sobre X.
Definição A.2.2. Seja (X, τ ) um espaço topológico, x ∈ X e S ⊂ X. Definimos
que:
(1) Uma vizinhança de x é qualquer U ∈ τ tal que x ∈ U . Analogamente, uma
vizinhança de S é qualquer U ∈ τ tal que S ⊂ U ,
(2) O conjunto S é fechado se (X \ S) ∈ τ ,
(3) O interior de S é o conjunto int(S) = {
114
S
U ∈τ
U | U ⊂ S},
S
(4) O exterior de S é o conjunto ext(S) = { U ∈τ U | U ⊂ (X \ S)},
T
(5) O fecho de S é o conjunto S = { V ∈X V | S ⊂ V e V é fechado},
(6) A fronteira de S é o conjunto ∂S = {x ∈ X | x ∈
/ int(S) e x ∈
/ ext(S)},
(7) Um ponto x é um ponto de acumulação de S se ∀ U ∈ τ com x ∈ U tem-se
que S ∩ (U \ {x}) 6= ∅. O conjunto de todos os pontos de acumulação de S será
denotado por S 0 ,
(8) O conjunto S é denso em X se S = X.
Definição A.2.3. Seja (X, τ ) um espaço topológico. Uma coleção B de elementos
de τ é uma base para τ se, ∀ U ∈ τ e ∀ x ∈ U , ∃ B ∈ B tal que x ∈ B ⊂ U .
Definição A.2.4. Um espaço topológico é de Hausdorff se para quaisquer pontos
x, y ∈ X existem abertos U, V ∈ τ tais que x ∈ U , y ∈ V e U ∩ V = ∅.
Uma sequência em um conjunto X é uma função x : N → X, x(n) = xn . Por
vezes denotaremos uma sequência por {xn }n∈N .
Definição A.2.5. Seja (X, τ ) um espaço topológico. Uma sequência {xn }n∈N é dita
convergente para um limite a ∈ X se, ∀ U ∈ τ com a ∈ U , ∃ n0 ∈ N tal que xn ∈ U
se n ≥ n0 . Denotamos limn→∞ xn = a, ou xn → a.
Proposição A.2.6. Sejam (X, τ ) um espaço topológico de Hausdorff e {xn }n∈N
uma sequência convergente em X. Então o limite de {xn } é único.
Demonstração: De fato, suponha que {xn } → y1 e {xn } → y2 . Como (X, τ ) é de
Hausdorff, se y1 6= y2 , existem U1 , U2 ∈ τ tais que y1 ∈ U1 , y2 ∈ U2 e U1 ∩ U2 = ∅.
Mas isso implica que {xn } diverge. Logo y1 = y2 .
Definição A.2.7. Seja (X, τ ) um espaço topológico, Y ⊂ X e τ 0 uma topolgia sobre
Y . Dizemos que (Y, τ 0 ) é um subespaço topológico de (X, τ ) e que τ 0 é a topologia
induzida sobre Y por τ se
τ 0 = {U ∩ Y | U ∈ τ }.
Lema A.2.8. Seja (X, τ ) um espaço topológico e (Y, τ 0 ) subespaço de X. Então:
(1) Se B é uma base para τ ,
BY = {B ∩ Y | B ∈ B}
é uma base para τ 0 ,
(2) Se X é de Hausdorff, Y é de Hausdorff,
(3) Se X admite base enumerável, Y admite base enumerável.
115
Definição A.2.9. Sejam (Xi , τi ), i = 1, . . . , n, espaços topológicos. A coleção de
todos os subconjuntos da forma U1 ×· · ·×Un , onde cada Ui é um aberto de Xi forma
uma base para uma topologia em X1 × · · · × Xn , chamada de topologia produto.
Munido desta topologia, X1 × · · · × Xn é chamado de espaço produto de X1 , . . . , Xn .
Lema A.2.10. Seja X1 × · · · × Xn um espaço produto finito. Então:
(1) Se Bi é uma base para τi (τi topologia em Xi ),
B = {B1 × · · · × Bn | Bi ∈ Bi }
é uma base para a topologia de X1 × · · · × Xn ,
(2) Se (Xi , τi ), i = 1, . . . , n, são de Hausdorff, X1 × · · · × Xn é de Hausdorff,
(3) Se (Xi , τi ), i = 1, . . . , n, admitem base enumerável, X1 × · · · × Xn admite base
enumerável.
Definição A.2.11. Sejam (X, τ1 ), (Y, τ2 ) dois espaços topológicos, (A, τA ) um subespaço não vazio de X e a ∈ A0 . Dizemos que l ∈ Y é o limite de uma função
f : A → Y quando x tende a a se, para todo V ∈ τ2 com l ∈ V , existe U ∈ τ1 com
a ∈ U tal que
f ((A ∩ U ) \ {a}) ⊂ V,
e denotamos limx→a f (x) = l.
Definição A.2.12. Sejam (X, τ1 ), (Y, τ2 ) dois espaços topológicos e a ∈ X. Uma
função f : X → Y é contı́nua em a se, para todo V ∈ τ2 com f (a) ∈ V , existe
U ∈ τ1 com a ∈ U tal que
f (U ) ⊂ V.
Dizemos que f é contı́nua quando ela é contı́nua em todos os pontos do seu
domı́nio ou, equivalentemente, quando f −1 (V ) ∈ τ1 para todo V ∈ τ2 .
Um homeomorfismo é uma bijeção contı́nua com inversa contı́nua. Se existe um
homeomorfismo entre dois espaços X e Y , dizemos que estes são homeomorfos e
denotamos X ∼
= Y.
Definição A.2.13. Sejam (X, τ ) um espaço topológico e U, V ∈ τ . O par (U, V ) é
uma cisão de X se U e V são disjuntos e U ∪ V = X. Se U = ∅ ou V = ∅, (U, V )
é dita cisão trivial. Dizemos que X é conexo se não admite cisão não trivial. Caso
contrário X é desconexo.
Lema A.2.14. Sejam (X, τX ), (Y, τY ) dois espaços topológicos, X conexo, e f :
X → Y uma função contı́nua. Então f (X) é conexo.
Um caminho entre dois pontos p e q de um espaço topológico X é uma função
contı́nua f : [0, 1] → X tal que f (0) = p e f (1) = q.
Definição A.2.15. Um espaço topológico X é conexo por caminhos se ∀ p, q ∈ X,
existe um caminho f entre p e q.
116
Lema A.2.16. Sejam (X, τX ), (Y, τY ) espaços topológicos. Então:
(1) Se f : X → Y é contı́nua e X é conexo por caminhos, f (X) é conexo por
caminhos,
(2) Se X é conexo por caminhos, X é conexo.
Definição A.2.17. Seja (X, τ ) um espaço
topológico e K ⊂ X. K é dito compacto
S
se, ∀ Uλ ∈ τ , λ ∈ Γ, verificando K ⊂ λ∈Γ Uλ , ∃ λ1 , . . . , λk ∈ Γ tais que
K⊂
k
[
Uλi .
i=1
Lema A.2.18. Sejam (X, τX ), (Y, τY ) espaços topológicos. Então:
(1) Se f : X → Y é contı́nua e X é compacto, então f (X) é compacto,
(2) Se X é compacto e f : X → R é contı́nua, f é limitada.
Definição A.2.19. Sejam M e N espaços topológicos. Uma função f : M → N é
dita uma aplicação própria se, para todo subconjunto compacto K ⊂ N , f −1 (K) é
compacto.
Lema A.2.20. Seja f : M → N uma aplicação própria contı́nua. Então f é fechada
(ou seja, ∀U ⊂ M fechado tem-se f (U ) ⊂ N fechado).
Se X é um espaço topológico compacto, um subconjunto K ⊂ X é dito précompacto em X se K ⊂ X é compacto.
Definição A.2.21. Uma coleção U de abertos de um espaço topológico X é dita
localmente finita se para todo x ∈ X existe uma vizinhança de x que intersecta no
máximo um número finito de abertos de U.
Definição A.2.22. Sejam U e V coberturas abertas de um espaço topológico X. V
é dita um refinamento de U se, para todo V ∈ V existe U ∈ U tal que
V ⊂ U.
Definição A.2.23. Dizemos que um espaço topológico X é paracompacto se, para
toda cobertura aberta de X admite um refinamento localmente finito.
A seguir definiremos os espaços métricos, que são espaços topológicos cuja topologia é induzida por uma métrica.
Definição A.2.24. Uma métrica sobre um conjunto X é uma função d : X ×X → R
verificando, ∀ x1 , x2 , x3 ∈ X,
(1) d(x1 , x2 ) ≥ 0,
(2) d(x1 , x2 ) = 0 ⇔ x1 = x2 ,
117
(3) d(x1 , x2 ) = d(x2 , x1 ),
(4) d(x1 , x3 ) ≤ d(x1 , x2 ) + d(x2 , x3 ).
Um espaço métrico é um par (X, d) onde X é um conjunto e d uma métrica sobre
X. Se Y ⊂ X e dY uma métrica sobre Y , dizemos que (Y, dY ) é um subespaço
métrico de (X, d) e que dY é a métrica induzida por d sobre Y se, ∀ y1 , y2 ∈ Y ,
dY (y1 , y2 ) = d(y1 , y2 ).
Definição A.2.25. Sejam (X, d) um espaço métrico, x ∈ X e r ∈ R, r > 0.
Definimos os subconjuntos
Br (x0 ) = {x ∈ X | d(x0 , x) < r},
Br [x0 ] = {x ∈ X | d(x0 , x) ≤ r},
denominados, respectivamente, bola aberta e bola fechada de centro x0 e raio r.
Definição A.2.26. Seja (X, d) um espaço métrico e Y ⊂ X. Definimos que:
(1) Y é um aberto de X se, ∀ y ∈ Y , ∃ r = r(y) > 0 tal que Br (y) ⊂ Y ,
(2) Y é um fechado de X se X \ Y é um aberto de X,
(3) Y é limitado se ∃ x ∈ X, r > 0 tais que Y ⊂ Br (x).
Definição A.2.27. Seja (X, d) um espaço métrico e
τd = {Y ⊂ X | Y é aberto de X}.
Dizemos que um espaço topológico é metrizável quando existe uma métrica d sobre
X tal que τd = τ . Neste caso, dizemos que a topologia τ é a topologia induzida pela
métrica d.
Como todo espaço métrico é um espaço topológico, os espaços métricos herdam
todas as propriedades de espaços topológicos da Seção 3.3. Podemos, no entanto,
definir algumas noções topológicas através da distância d explicitamente.
Definição A.2.28. Seja (X, d) um espaço métrico. Uma sequência {xn }n∈N em X
converge pra a ∈ X se, ∀ ε > 0, ∃ n0 ∈ N tal que, se n ≥ n0 ,
d(xn , a) < ε.
Definição A.2.29. Seja (X, d) um espaço métrico. Uma sequência {xn }n∈N em X
é de Cauchy se, ∀ ε > 0, ∃ n0 ∈ N tal que, se m, n ≥ n0 ,
d(xm , xn ) < ε.
118
Definição A.2.30. Seja (X, dX ) e (Y, dY ) espaços métricos, (A, dA ) um subespaço
não vazio de X, f : A → Y uma função e a ∈ A0 . Dizemos que l é o limite de f (x)
quando x tende a se, e somente se, ∀ ε > 0, ∃ δ > 0 tal que, se 0 < dX (x, a) < δ,
dY (f (x), a) < ε.
Definição A.2.31. Sejam (X, dX ) e (Y, dY ) espaços métricos e f : X → Y uma
função. Dizemos que f é contı́nua num ponto a ∈ X se, e somente se, ∀ ε > 0,
∃ δ > 0 tal que, se dX (x, a) < δ,
dY (f (x), f (a)) < ε.
Dizemos que f é contı́nua em X se ela é contı́nua em todos os pontos de X.
Definição A.2.32. Um espaço métrico (X, d) é completo se toda sequência de
Cauchy {xn } é convergente em X e limn→∞ xn ∈ X.
A seguir falamos brevemente sobre homotopia.
Definição A.2.33. Sejam X e Y dois espaços topológicos. Duas aplicações contı́nuas
f, g : X → Y se dizem homotópicas quando existe uma aplicação
H : X × [0, 1] → Y
contı́nua tal que H(x, 0) = f (x) e H(x, 1) = g(x), ∀x ∈ X. A aplicação H chama-se
uma homotopia entre f e g, e denotamos, nesse caso H : f ' g, ou simplesmente
f ' g.
Dada uma homotopia H : f ' g, considere, para cada t ∈ [0, 1], a aplicação
contı́nua Ht : X → Y dada por Ht (x) = H(x, t). Dar a homotopia H equivale a dar
uma famı́lia {Ht }t∈[0,1] contı́nua no parâmetro t de aplicações de X em Y . Assim,
a homotopia H : f ' g pode ser intuitivamente imaginada como um processo de
deformação contı́nua de f em g.
Exemplo A.2.34. Seja E um espaço vetorial e Y ⊂ E. Dadas duas aplicações
contı́nuas f, g : X → Y , suponhamos que, para todo x ∈ X, o segmento [f (x), g(x)]
esteja contido em Y . Então f ' g.
De fato, tome H : X × [0, 1] → Y dada por
H(x, t) = (1 − t)f (x) + tg(x),
que claramente é contı́nua, com H(x, 0) = f (x) e H(x, 1) = g(x), e, logo, uma
homotopia.
Proposição A.2.35. Sejam X e Y espaços topológicos. A relação de homotopia
f ' g é uma relação de equivalência no conjunto das aplicações contı́nuas C(X; Y ).
119
Definição A.2.36. As classes de equivalência segundo a relação de homotopia são
chamadas classes de homotopia. Denotamos a classe f /' de uma aplicação contı́nua
f : X → Y por [f ]. E o conjunto
C(X; Y )
,
'
das classes de homotopia das aplicações contı́nuas de X em Y , por [X, Y ].
Proposição A.2.37. Sejam f , fe, g, ge aplicações contı́nuas de X em Y . Se f ' fe
e g ' ge, então
g ◦ f ' ge ◦ fe.
Definição A.2.38. Sejam f : X → Y e g : Y → Z aplicações contı́nuas. Definimos
a composição de classes de homotopia por
[f ] ◦ [g] = [f ◦ g].
Definição A.2.39. Sejam X e Y espaços topológicos. Uma aplicação contı́nua
f : X → Y é dita uma equivalência homotópica quando existe g : Y → X tal que
g ◦ f ' idX ,
f ◦ g ' idY .
Dize-se então que g é um inverso homotópico de f e que X e Y têm o mesmo
tipo de homotopia. Neste caso denotamos X ≡ Y ou f : X ≡ Y .
Se X tem o mesmo tipo de homotopia de um ponto, dizemos que X é contrátil.
Espaços com o mesmo tipo de homotopia são equivalentes do ponto de vista
homotópico. Dois espaços homeomorfos tem o mesmo tipo de homotopia, pois todo
homeomorfismo é uma equivalência homotópica. A recı́proca, porém, é falsa.
Definição A.2.40. Um par de espaços topológicos é uma dupla (X, A) onde A é
subespaço de X.
Definição A.2.41. Dados pares (X, A) e (Y, B), uma aplicação contı́nua
f : (X, A) → (Y, B)
é uma aplicação contı́nua f : X → Y tal que f (A) ⊂ B.
Definição A.2.42. Dadas aplicações contı́nuas f, g : (X, A) → (Y, B), uma homotopia de pares entre f e g é uma aplicação contı́nua
H : (X × I, A × I) → (Y, B)
tal que H(x, 0) = f (x) e H(x, 1) = g(x) para todo x ∈ X. Isso implica que
Ht (A) ⊂ B para todo t ∈ I.
Se B reduz-se a um único ponto y0 , chamado ponto básico de Y , durante uma
homotopia entre duas aplicações f, g : (X, A) → (Y, y0 ), a aplicação Ht deve ser
constante em A.
120
Exemplo A.2.43. A aplicação identidade id : I → I é homotópica a uma constante,
mas a aplicação de pares id : (I, ∂I) → (I, ∂I) não é. Isso significa que I pode ser
contraı́do continuamente em um ponto, mas durante tal deformação pelo menos um
dos extremos deve passar pelo interior de I. De fato, uma homotopia H entre duas
aplicações f, g : (I, ∂I) → (I, ∂I) deve ser tal que Ht (0) ∈ ∂I e Ht (1) ∈ ∂I para
todo t ∈ I. Como ∂I = {0, 1}, segue que H(0) e H(1) não dependem de t, ou seja,
os extremos de I ficam fixos durante toda a homotopia.
Definição A.2.44. Dadas f, g : X → Y contı́nuas, diz-se que f é homotópica
a g relativamente a A ⊂ X, quando existe uma homotopia H : f ' g tal que
H(x, t) = f (x) = g(x) para todo x ∈ A. Denotaremos f ' g (rel A).
Álgebra
Definição A.3.1. Um grupo é uma dupla (G, ·), onde G é um conjunto, G 6= ∅ e
· : G × G → G é uma operação satistazendo, para todo a, b, c ∈ G,
(1) a · (b · c) = (a · b) · c,
(2) ∃ e ∈ G tal que a · e = e · e = a,
(3) ∃ a−1 ∈ G tal que a · a−1 = a−1 · a = e.
Onde a · b = ·(a, b).
Quando · satisfaz ainda a · b = b · a, para quaisquer a, b ∈ G, dizemos que o
grupo G é abeliano. Por vezes, denotaremos a operação · por justaposição, ou seja,
grafando ab em vez de a · b.
Definição A.3.2. Sejam G e H dois grupos. Uma aplicação f : G → H é dita um
homomorfismo se, ∀a, b ∈ G,
f (ab) = f (a)f (b).
Um homomorfismo f : G → H é um isomorfismo se existe g : H → G tal que
f ◦ g = idH e g ◦ f = idG . Quando existe um isomorfismo entre G e H dizemos que
estes são isomorfos e denotamos G ∼
= H.
Proposição A.3.3. Seja (G, ·) um grupo e a, b ∈ G. Então:
(1) O elemnto neutro e é único,
(2) O elemento inverso a−1 é único,
(3) (a · b)−1 = b−1 · a−1 .
Definição A.3.4. Um corpo é uma tripla (Γ, +, ·) onde Γ é um conjunto qualquer
e + : Γ × Γ → Γ e · : Γ × Γ → Γ são duas operações, chamadas respectivamente de
adição e multiplicação, satisfazendo, para quaisquer a, b, c ∈ Γ:
121
(1) (a + b) + c = a + (b + c),
(2) a + b = b + a,
(3) ∃ 0 ∈ Γ tal que a + 0 = a,
(4) ∃ (−a) ∈ Γ tal que a + (−a) = 0,
(5) (a · b) · c = a · (b · c),
(6) a · b = b · a,
(7) ∃ 1 ∈ Γ tal que a · 1 = a,
(8) Se a 6= 0, ∃ a−1 ∈ Γ tal que a · a−1 = 1,
(9) a · (b + c) = a · b + a · c.
Definição A.3.5. Um espaço vetorial é uma quádrupla (E, +, ·, Γ) onde E é um
conjunto qualquer, Γ é um corpo e + : E×E → E e · : Γ×E → E são duas operações,
chamadas respectivamente de adição e multiplicação por escalar, satisfazendo, para
quaisquer x, y, z ∈ E, λ, µ ∈ Γ:
(1) (x + y) + z = x + (y + z),
(2) x + y = y + x,
(3) ∃ 0 ∈ E tal que x + 0 = x,
(4) ∃ (−x) ∈ E tal que x + (−x) = 0,
(5) λ · (µ · x) = (λ · µ) · x,
(6) 1 · x = x,
(7) (λ + µ) · x = λ · x + µ · x,
(8) λ · (x + y) = λ · x + λ · y.
Os elementos de E são chamados de vetores e os elementos de Γ de escalares.
A operação · por vezes será denotada por justaposição, ou seja, escreveremos λx
no lugar de λ · x.
Definição A.3.6. Seja (E, +, ·, Γ) um espaço vetorial. Um subespaço vetorial de E
é um subconjunto F ⊂ E satisfazendo:
(1) 0 ∈ F ,
(2) Se x, y ∈ F , então x + y ∈ F ,
(3) Se x ∈ F , então λx ∈ F , ∀ λ ∈ Γ.
122
Definição A.3.7. Seja (E, +, ·, Γ) um espaço vetorial. Uma soma da forma
k
X
λi xi ,
i=1
onde λi ∈ Γ e xi ∈ E é chamada de combinação linear. P
Se F ⊂ E, o subespaço gerado
por F é o conjunto de todas as combinações lineares ki=1 λi yi tais que yi ∈ F , e é
denotado por [F ].
Por convenção, [∅] = {0}. Se S e T são subespaços de um espaço vetorial E,
S + T denota o conjunto de todos os vetores do tipo x + y com x ∈ S e y ∈ T .
Nota-se que S + T = [S ∪ T ].
Definição A.3.8. Se S + T = E e S ∩ T = {0}, E é dito a soma direta de S e T ,
e denotamos
E = S ⊕ T.
Analogamente,
se {EαP
}α∈A é uma famı́lia qualquer de subconjuntos de E tais
P
que α Eα = E, e Eα ∩ β6=α Eβ = 0, para todo α ∈ A, dizemos que E é soma
direta dos Eα , e denotamos
M
Eα .
E=
α
Definição A.3.9. Seja E um espaço vetorial e S ⊂ E. S é dito linearmente
dependente se
X
ai xi = 0,
onde xi são elementos distintos de S e ai 6= 0 para pelo menos um i. Caso contrário,
S é dito linearmente independente.
Em outras palavras, S é linearmente independente se, e somente se, toda combinação linear de elementos de S nula é tal que seus coeficientes são todos nulos.
Qualquer subconjunto contendo 0 é linearmente dependente. Por convenção, ∅ é
linearmente independente.
Definição A.3.10. Seja E um espaço vetorial. Uma base de E é um subconjunto
B ∈ E linearmente independente tal que [S] = E.
Se S é uma base de E, todo elemento de E se escreve unicamente como uma
combinação linear dos elementos de S. Se S é finito, E é dito ter dimensão finita.
Seja A um conjunto, Γ um corpo e C(A) o conjunto de todas as funções f : A → Γ
tais que f (a) 6= 0 apenas para uma quantidade finita de elementos a ∈ A. Para
f, g ∈ C(A) e λ ∈ Γ, definimos
(f + g)(s) = f (s) + g(s),
(λf )(s) = λf (s).
Com essas operações C(S) torna-se um espaço vetorial.
123
Para cada a ∈ A definimos fa ∈ C(A) por
1 se x = a,
fa (x) =
0 se x =
6 a.
Se f ∈ C(A), sejam a1 , . . . , an os elementos de A tais que f (ai ) 6= 0. Colocando
λi = f (ai ) obtemos
n
X
f=
λi fai
i=1
e, portanto, {fa }a∈A gera C(A). Além disso, se
n
X
λi fai = 0,
i=1
temos, para cada j,
0=
n
X
!
i
λ fai
(aj ) =
i=1
n
X
fai (aj ) = λj .
i=1
Então {fa }a∈A é uma base de C(A). Por meio da identificação a 7→ fa , A torna-se
uma base de C(A).
Definição A.3.11. Dado A um conjunto, o espaço C(A) construı́do acima é chamado de espaço vetorial livre sobre A.
Lema A.3.12. Seja E um espaço vetorial de dimensão finita. Se E é gerado por
n vetores, então qualquer subconjunto de E com mais de n vetores é linearmente
dependente.
Proposição A.3.13. Seja E um espaço vetorial de dimensão finita. Então todas
as bases de E têm o mesmo número de elementos.
Definição A.3.14. Seja E um espaço vetorial de dimensão finita. Definimos dim(E),
a dimensão de E como sendo o número de elementos em qualquer base de E.
Definição A.3.15. Seja E um espaço vetorial de dimensão finita. Uma base ordenada de E é uma base de E munida de uma ordenação especı́fica dos elementos de
E. Denotaremos uma tal base por (e1 , . . . , en ) ou simplesmente (ei ).
Se (e1 , . . . , en ) é uma base ordenada de E, todo vetor x ∈ E se escreve unicamente
como uma combinação linear
n
X
x=
xi e i .
i=1
Os números xi são chamados de componentes de x em relação a (e1 , . . . , en ).
124
Definição A.3.16. Sejam E e F espaços vetoriais sobre Γ. Uma aplicação T : E →
F é linear se satisfaz, ∀x, y ∈ E e λ, µ ∈ Γ,
T (λx + µy) = λT (x) + µT (y).
Denotamos o conjunto de todas as aplicações lineares de E em F por L(E; F ). Em
particular, se F = Γ denotamos L(E; F ) por L(E).
Definição A.3.17. Definimos o núcleo de T e a imagem de T , repectivamente, por
ker(T ) = {x ∈ E | T (x) = 0},
im(T ) = {y ∈ F | y = t(x) para algum x ∈ E}.
Uma aplicação linear bijetora T : E → F é chamada de isomorfismo. Neste
caso, existe uma única inversa T −1 : F → E, que também é linear. Por isso, uma
aplicação linear bijetora é dita ser invertı́vel. Se existe um isomorfismo T : E → F ,
os espaços E e F são isomorfos.
Definição A.3.18. Sejam E e F espaços vetoriais de dimensão finita, (e1 , . . . , en )
e (f1 , . . . , fm ) bases ordenadas de E e F respectivamente. Se T : E → F é linear, a
matriz de T em relação a (e1 , . . . , en ) e (f1 , . . . , fm ) é a matriz m × n


A11 . . . A1n

..  ,
...
A = (Aij ) =  ...
. 
m
A1 . . . Am
n
na qual a j-ésima coluna consiste das componentes de T (ej ) em relação a (f1 , . . . , fm ):
T (ej ) =
m
X
Aij fi .
i=1
A ação de T em qualquer vetor é, então, dada por
!
n
m X
n
X
X
j
T
x ej =
Aij xj fi .
j=1
i=1 j=1
Escrevendo as componentes dos vetores como uma matriz coluna, a representação
matricial de y = T (x) é dada pela multiplicação matricial



 
y1
A11 . . . A1n
x1
 ..   ..
..   ..  .
...
 . = .
.  . 
m
ym
A1 . . . Am
xn
n
Sejam (ei ) e (ẽi ) bases ordenadas de um espaço vetorial E de dimensão finita.
Cada base pode ser escrita de forma única em relação à outra. Então existe uma
matriz invertı́vel, camada de matriz mudança de base de (ẽi ) para (ei ) tal que
ei =
ẽj =
n
X
j=1
n
X
Bij ẽi ,
(B −1 )ij ei .
i=1
125
Teorema A.3.19. Sejam E e F espaços vetoriais de dimensão finita e T : E → F
linear. Então
dim(E) = dim(im(T )) + dim(ker(T )).
Definição A.3.20. Seja Mn×n (R) o espaço vetorial das matrizes n × n e A ∈
Mn×n (R). Definimos o determinante de A = (Aij ) por
det(A) =
X
σ(1)
sig(σ)A1
. . . Anσ(n) .
σ∈Sk
Definição A.3.21. Sejam E e F espaços vetoriais sobre Γ. Φ : E × F → Γ é
chamada de bilinear se satisfaz, para todo x, x1 , x2 ∈ E, y, y1 , y2 ∈ F , λ, λ0 , µ, µ0 ∈ Γ
Φ(λx1 + µx2 , y) = λΦ(x1 , y) + µΦ(x2 , y),
Φ(x, λ0 y1 + µ0 y2 ) = λ0 Φ(x, y1 ) + µ0 Φ(x, y2 ).
Uma aplicação bilinear Φ : E × F → Γ é dita não degenerada se
ker(Φ) = {x ∈ E | Φ(x, y) = 0} = 0,
E
ker(Φ) = {y ∈ F | Φ(x, y) = 0} = 0.
F
Definição A.3.22. Sejam E e E ∗ espaços vetoriais sobre Γ e h·, ·i : E ∗ × E → Γ
uma aplicação bilinear não degenerada. Então E e E ∗ são ditos duais em relação a
h·, ·i, E ∗ é chamado de dual de E, e h·, ·i é chamada de produto escalar entre E ∗ e
E.
Se E tem dimensão finita e E ∗ = L(E), definimos um produto escalar entre E ∗
e E por
hf, xi = f (x),
onde f ∈ L(E) e x ∈ E. Neste caso, se (ei ) é uma base ordenada de E, uma base
ordenada de E ∗ , chamada de base dual a (ei ) é dada por (f j ), onde
f j (xi ) = δij .
Definição A.3.23. Se f : E → F é uma aplicação linear, f induz uma aplicação
f ∗ : F ∗ → E ∗ , chamada de aplicação dual a f , definida por
f ∗ (ϕ) = ϕ ◦ f,
para todo ϕ ∈ F ∗ . O funcional f ∗ (ϕ) ∈ E ∗ é chamado de pullback de ϕ por f .
Definição A.3.24. Seja E um espaço vetorial sobre R. Um produto interno em E
é uma aplicação h·, ·i : E × E → R bilinear satisfazendo, ∀x, y ∈ E:
(1) hx, yi = hy, xi,
126
(2) hx, xi ≥ 0 sendo que hx, xi = 0 ⇔ x = 0.
Uma dupla (E, h·, ·i) é chamada de espaço com produto interno.
Em um espaço com produto interno (E, h·, ·i) definimos, ∀x ∈ E, o comprimento
de x por
p
kxk = hx, xi.
Para todo x, y ∈ E não nulos, o ângulo entre x e y é definido como o único θ ∈ [0, π]
tal que
hx, yi
.
cos(θ) =
kxkkyk
Dois vetores x, y ∈ E são ortogonais se hx, yi = 0.
Proposição A.3.25. Todo espaço vetorial de dimensão finita com produto interno
(E, h·, ·i) admite uma base ortonormal.
Definição A.3.26. Seja E um espaço vetorial sobre R. Uma norma em E é uma
aplicação k · k : E → R satisfazendo, para todo x, y ∈ E, λ ∈ R:
(1) kxk ≥ 0, sendo kxk = 0 ⇔ x = 0,
(2) kλxk = |λ|kxk,
(3) kx + yk ≤ kxk + kyk.
Uma dupla (E, k · k) é chamada de espaço vetorial normado.
O comprimento de um vetor, como definimos acima, é uma norma. Em tal caso,
dizemos que a norma é proveniente do produto interno. Dado um espaço vetorial
normado (E, k · k), a função distância d : E × E → R dada por
d(x, y) = kx + yk,
faz de E um espaço métrico, fornecendo uma topologia em E, chamada de topologia
da norma.
Definição A.3.27. Seja E um espaço vetorial e k · k1 e k · k2 duas normas em E.
Dizemos que k · k1 e k · k2 são equivalentes se existem λ e µ constantes tais que
λkxk1 ≤ kxk2 ≤ µkxk1 ,
para todo x ∈ E.
Nos será útil trabalhar com R-módulos, pois esta é uma terminologia conveniente
para combinar as noções de grupo e de espaço vetorial.
Definição A.3.28. Um anel é uma tripla (R, +, ·), onde R é um conjunto e + :
R × R → R e · : R × R → R são duas operações binárias satisfazendo, para todo
a, b, c ∈ R,
(1) (a + b) + c = a + (b + c),
127
(2) ∃ 0 ∈ R tal que 0 + a = a + 0 = a,
(3) ∃ a−1 ∈ R tal que a + a−1 = a−1 + a = 0,
(4) a + b = b + a,
(5) (a · b) · c = a · (b · c),
(6) ∃ 1 ∈ R tal que 1 · a = a · 1 = a,
(7) a · (b + c) = (a · b) + (a · c),
(8) (a + b) · c = (a · c) + (b · c).
Se · satisfaz a · b = b · a dizemos que R é um anel comutativo.
Definição A.3.29. Um R-módulo à esquerda é uma quádrupla (M, +, ·, R), onde
M é um conjunto, R é um anel e + : M × M → M e · : R × M → M são duas
operações satisfazendo, para todo x, y, z ∈ M , r, s ∈ R,
(1) (x + y) + z = x + (y + z),
(2) ∃ 0 ∈ R tal que 0 + x = x + 0 = x,
(3) ∃ x−1 ∈ R tal que x + x−1 = x−1 + x = 0,
(4) x + y = y + x,
(5) r · (x + y) = (r · x) + (r · y),
(6) (r + s) · x = (r · x) + (s · x),
(7) (r · s) · x = r · (s · x),
(8) 1 · x = x.
De forma análoga definimos um R-módulo à direita. Se R é comutativo, então
os R-módulos à esquerda e à direita são iguais. Chamamo-los, portanto, apenas de
R-módulos.
Definição A.3.30. Sejam M e N R-módulos. Uma aplicação f : M → N é dita
R-linear se, para todo r, s ∈ R e x, y ∈ M ,
f (rx + sy) = rf (x) + sf (y).
Definição A.3.31.QSeja {Mλ }λ∈Λ uma coleção de R-módulos. O produto direto de
{Mλ } é o conjunto λ∈Λ Mλ (veja A.1.14) munido das operações
(X(λ)) + (Y (λ)) = (X(λ) + Y (λ)),
r(X(λ)) = (rX(λ)).
128
Análise
Definição A.4.1. Sejam V e W espaços vetoriais normados e U ⊂ V aberto.
Uma função f : U → W é diferenciável em a ∈ U se existe uma aplicação linear
L : V → W tal que
kF (a + v) − F (a) − L(v)k
= 0.
(A.6)
lim
v→0
kvk
Se f é diferenciável em todo ponto a ∈ U , f é dita diferenciável em U . Quando
f é diferenciável em a, a aplicação linear L que satisfaz (A.6) é denotada por Df (a)
e chamada de derivada de f em a. A condição (A.6) também pode ser escrita como
f (a + v) = f (a) + Df (a)(v) + R(v),
kR(v)k
= 0,
v→0
kvk
lim
ou seja, Df (a) é a melhor aproximação de f (a + v) − f (a) por uma aplicação linear.
Proposição A.4.2. Sejam V e W espaços vetoriais normados de dimensão finita,
U ⊂ V aberto, a ∈ U , F, G : U → W e f, g : U → R. Então:
(1) Se F é diferenciável em a, então F é contı́nua em a,
(2) Se F e G são diferenciáveis em a, então F + G é diferenciável em a e
D(F + G)(a) = DF (a) + DG(a),
(3) Se f e f são diferenciáveis em a, então f g é diferenciável em a e
D(f g)(a) = f (a)Dg(a) + g(a)Df (a),
(4) Se f é diferenciável em a e f (a) 6= 0, então 1/f é diferenciável em a e
1
−1
D
Df (a),
(a) =
f
f (a)2
(5) Se F é linear, então F é diferenciável em todo ponto de U e DF (a) = F para
qualquer a.
Proposição A.4.3. Sejam V , W e X espaços vetoriais de dimensão finita, U ⊂ V
e ⊂ W abertos, f : U → U
e eg:U
e → X. Se f é diferenciável em a ∈ U e g é
eU
e
diferenciável em f (a) ∈ U , então g ◦ f é diferenciável em a e
D(g ◦ f )(a) = Dg(f (a)) ◦ Df (a).
Definição A.4.4. Seja U ⊂ Rn aberto e f : U → R. Para cada a = (a1 , . . . , an ) ∈ U
e cada j = 1, . . . , n, definimos a j-ésima derivada parcial de f em a por
∂
f (a1 , . . . , aj + h, . . . , an ) − f (a1 , . . . , an )
(a) = lim
h→0
∂xj
h
f (a + hej ) − f (a)
= lim
,
h→0
h
quando tal limite existe.
129
Mais geralmente, se f : U → Rm , podemos escrever f (x) = (f 1 (x), . . . , f n (x)).
Isso define as m funções f i : U → R, chamadas de funções componentes de f .
Definimos então as derivadas parciais de f como sendo as derivadas parciais ∂f i /∂xj
de suas funções componentes. A matriz


∂f 1
∂f 1
i  ∂x1 . . . ∂xm 
 .
∂f
.. 
...
..
=
. 


j
∂x
 ∂f n
∂f n 
...
∂x1
∂xm
é chamada de matriz Jacobiana de f .
Se f : U → Rm é tal que cada derivada parcial de f existe em cada ponto de U ,
e ∂f i /∂xj : U → R então definidas são todas contı́nuas, dizemos que f é de classe
C 1 . Nesse caso podemos tomar, se existirem, as derivadas parciais de cada ∂f i /∂xj ,
chamadas de derivadas parciais de segunda ordem de f :
i
∂f
∂
∂ 2f i
=
.
k
j
k
∂x ∂x
∂x
∂xj
Mais geralmente, para k ≥ 0, dizemos que f : U → Rm é de classe C k se todas
as derivadas parciais de f de ordem l ≤ k existem e são funções contı́nuas em U . Se
f é de classe C k para todo k ≥ 0, dizemos que f é de classe C ∞ ou que f é suave.
Ainda, se U ⊂ Rn e V ⊂ Rm são abertos, f : U → V é uma bijeção de classe C k
(ou de classe C ∞ ) e f −1 : V → U é de classe C k (ou de classe C ∞ ), dizemos que f
é um difeomorfismo de classe C k (ou de classe C ∞ ou, ainda, suave).
Se U ⊂ Rn é aberto, definimos C k (U ) como o conjunto de todas as funções
f : U → R de classe C k em U e C ∞ (U ) como o conjunto de todas as funções
f : U → R de classe C ∞ .
A soma, o produto e o produto por escalar de funções f, g : U → R são definidos
pontualmente:
(f + g)(x) = f (x) + g(x),
(f g)(x) = f (x)g(x),
(λf )(x) = λf (x).
Lema A.4.5. Seja U ⊂ Rn aberto, f e g funções suaves em U e λ ∈ R. Então:
(1) As funções f + g, f g e λ são suaves em U ,
(2) Se g 6= 0 em U , f /g é suave em U ,
(3) Com as operações de soma, produto e o produto por escalar definidas acima
C ∞ (U ) torna-se uma álgebra associativa e comutativa sobre R.
Proposição A.4.6. Seja U ⊂ Rn aberto e f : U → Rm de classe C 2 . Então
∂ 2f i
∂ 2f i
=
.
∂xk ∂xj
∂xj ∂xk
130
Corolário A.4.7. Se f : U → Rm é suave, então, para todo k ≥ 0,
∂kf i
∂kf i
,
=
∂xI
∂xIσ
onde I é um ı́ndice múltiplo de comprimento k (Definição 1.9.14), σ ∈ Sk e ∂xI
denota ∂xi1 . . . ∂xik .
Proposição A.4.8. Seja U ⊂ Rn aberto e f : U → Rn diferenciável em a ∈ U .
Então todas as derivadas parciais de f em a existem e Df (a) é a aplicação linear
cuja matriz na base canônica é a matriz Jacobiana de f em a:
i
∂f
Df (a) =
.
∂xj
Proposição A.4.9. Seja U ⊂ Rn aberto e f : U → Rn de classe C 1 . Então f é
diferenciável em todo ponto de U .
Para funções de Rn em Rm a Proposição A.4.3 pode ser reformulada em termos
de derivadas parciais:
e ⊂ Rm abertos, (xi ) as coordenadas em U
Proposição A.4.10. Sejam U ⊂ Rn e U
e . Então:
e (y i ) as coordenadas em U
e eg:U
e → Rp são de classe C 1 , então g ◦ f ∈ C 1 (U ) e
(1) Se f : U → U
m
X ∂g i
∂f k
∂(g i ◦ f )
(x)
=
(f
(x))
(x),
k
j
∂xj
∂y
∂x
k=1
(2) Se f e g são suaves, então g ◦ f é suave.
Teorema A.4.11. Seja U ⊂ Rn um aberto convexo e a ∈ U fixo. Se f ∈ C k (U ),
com 1 ≤ k ≤ ∞, então
n
n
X
X
∂f
i
i
(a)(x − a ) +
gi (x)(xi − ai ),
f (x) = f (a) +
i
∂x
i=1
i=1
com gi ∈ C k−1 (U ) satisfazendo gi (a) = 0.
A seguir alguns resultados da teoria de integrais (no sentido de Riemann) em
n
R :
Definição A.4.12. Um paralelepı́pedo aberto em Rn é um subconjunto de Rn da
forma
(a1 , b1 ) × · · · × (an , bn ),
com ai , bi ∈ Rn , ai < bi . Analogamente, um paralelepı́pedo fechado em Rn é um
subconjunto de Rn da forma
[a1 , b1 ] × · · · × [an , bn ],
com ai , bi como acima. O volume de um paralelepı́pedo A em Rn é dado por
n
Y
vol(A) =
(bi − ai ).
i=1
131
Definição A.4.13. Seja [a, b] ⊂ R um intervalo. Uma partição de [a, b] é um
conjunto P = {p0 , . . . , pk } de números reais satisfazendo a = p0 < p1 < · · · <
pk = b. Cada intervalo [pi , pi+1 ] é chamado de subintervalo de P . Analogamente,
uma partição de um paralelepı́pedo fechado [a1 , b1 ] × · · · × [an , bn ] é uma n-upla P =
(P1 , . . . , Pn ) onde cada Pi é uma partição de [ai , bi ]. Um paralelepı́pedo da forma
I1 × · · · × In , onde cada Ij é um subintervalo de Pj é chamado de subparalelepı́pedo
de P .
Definição A.4.14. Seja A ⊂ Rn um paralelepı́pedo fechado, P uma partição de A
e f : A → R uma função limitada. Definimos a soma inferior de f com relação à P
por
X
inf f vol(Rj )
S(f, P ) =
Rj
j
(a soma se estendendo a todos os subparalelepı́pedos Rj de P ). Analogamente, a
soma superior de f com relação à P é
!
X
S(f, P ) =
sup f vol(Rj ).
Rj
j
Lema A.4.15. Seja A ⊂ Rn um paralelepı́pedo fechado, P e P 0 duas partições
quaisquer de A e f : A → R limitada. Então
S(f, P ) ≤ S(f, P 0 ).
Se A e f são como no Lema acima, definimos, respectivamente, a integral inferior
de f em A e a integral superior de f em A por
Z
f = sup{S(f, P ) | P é uma partição de A},
A
Z
f = inf{S(f, P ) | P é uma partição de A}.
A
Definição A.4.16. Seja A ⊂ Rn um paralelepı́pedo fechado e f : A → R limitada.
Se a integral inferior de f em A coincide com a integral superior de f em A, dizemos
que f é (Riemann) integrável e definimos a integral de f em A por
Z
Z
Z
f=
A
f=
A
f.
A
Definição A.4.17. Seja S ⊂ Rn um conjunto qualquer. Dizemos que S tem medida
nula se, para qualquer ε > 0 dado existe uma cobertura enumerável de S por
paralelepı́pedos abertos {Ai } tais que
X
vol(Ai ) < ε.
i
132
Proposição A.4.18. Seja A ⊂ Rn um paralelepı́pedo fechado e f : A → R limitada.
Se o conjunto
S = {x ∈ A | f não é contı́nua em x}
tem medida nula, então f é integrável.
Se D ⊂ Rn é limitado e f : D → R é limitada, seja A um paralelepı́pedo qualquer
contendo D. Definimos fD : D → R por
f (x) se x ∈ D,
fd (x) =
0
se x ∈ A \ D.
R
Daı́, se A fD existe, dizemos que f é (Riemann) integrável em D e definimos a
integral de f em D por
Z
Z
fD =
fD .
D
A
Definição A.4.19. Seja D ⊂ Rn . Se D é limitado e ∂D tem medida nula, dizemos
que D é um domı́nio de integração.
Proposição A.4.20. Seja D ⊂ Rn um domı́nio de integração e f : D → R contı́nua
e limitada. Então f é integrável em D.
Note que, se D é compacto, a hipótese de f ser limitada na proposição acima é
desnecessária.
Definição A.4.21. Seja D ⊂ Rn um domı́nio de integração. Definimos o volume
de D por
Z
1.
vol(D) =
D
n
Proposição A.4.22. Seja D ⊂ R um domı́nio de integração. Então:
(1) vol(D) ≥ 0, sendo vol(D) = 0 se, e somente se, D tem medida nula,
S
(2) Se D1 , . . . , Dk são domı́nios de integração tais que ki=1 Di = D, então
vol(D) ≤ vol(D1 ) + · · · + vol(Dk ),
sendo que a igualdade vale se, e somente se, Di ∩ Dj tem medida nula, para
cada i, j.
Proposição A.4.23. Seja D ⊂ Rn um domı́nio de integração e f, g : D → R
funções contı́nuas e limitadas. Então:
(1) Se a, b ∈ R,
Z
Z
af + bg = a
D
(2) Se D tem medida nula,
R
D
f +b
D
f = 0,
133
Z
g,
D
S
(3) Se D1 , . . . , Dk são domı́nios de integração tais que ki=1 Di = D, com Di ∩ Dj
tem medida nula, para cada i, j, então
Z
Z
Z
f=
f + ··· +
f,
D
D1
Dk
R
R
(4) Se f ≥ 0 em D, então D f ≥ 0, sendo D f = 0 se, e somente se, f ≡ 0 em
int(D),
Z
(5) inf f vol(D) ≤
f ≤ sup f vol(D),
D
D
D
Z Z
(6) f ≤
|f |.
D
D
Teorema A.4.24. Sejam D, E ⊂ Rn domı́nios de integração compactos e g : D → E
uma função suave tal que g|int(d) : int(D) → int(E) é um difeomorfismo suave e
f : E → R. Então
Z
Z
f = (f ◦ g)| det(Dg)|.
D
E
Teorema A.4.25. Seja f : [a, b] → R uma função e F : [a, b] → R tal que F 0 (x) =
f (x) para todo x ∈ [a, b]. Se F é integrável em [a, b], então
Z
b
f (x) dx = F (b) − F (a).
a
Teorema A.4.26. Seja E ⊂ Rn um domı́nio de integração compacto, g0 , g1 : E → R
funções contı́nuas tais que g0 ≤ g1 em E e
D = {(x1 , . . . , xn , y) ∈ Rn+1 | x ∈ E e g0 (x) ≤ y ≤ g1 (x)}.
Então D é um domı́nio de integração e
Z
Z
Z
f=
f (x, y) dy .
g0 (x)
E
D
!
g1 (x)
Corolário A.4.27. Seja A = [a1 , b1 ]×· · ·×[an , bn ] ⊂ Rn um paralelepı́pedo fechado
e f : A → R contı́nua. Então
Z
Z bn Z b1
1
n
1
f=
...
f (x , . . . , x ) dx . . . dxn .
A
an
a1
Se D ⊂ Rn é um domı́nio de integração e f : D → Rm é uma função contı́nua e
limitada, definimos a integral de f em D por
Z
Z
Z
1
m
f=
f ,...,
f
,
D
D
D
134
onde f i são as funções componentes de f . Os resultados (1)-(3) e (6) da Proposição
A.4.23 análogos para este caso continuam valendo.
Seja U ⊂ Rn . Uma função f : U → Rm é dita de classe Lipschitz em U se existe
uma constante c ∈ R tal que
kf (x) − f (y)k ≤ ckx − yk,
para todo x, y ∈ U . Tal constante é dita constante de Lipschitz para f .
Lema A.4.28. Seja U ⊂ Rn um aberto e f : U → Rm de classe C 1 . Então f é de
classe Lipschitz em qualquer subconjunto compacto e convexo B ⊂ U , e a constante
de Lipschitz para f pode ser tomada como sendo
c = sup kDf (x)k.
x∈B
135
Índice Remissivo
álgebra
exterior, 27
graduada, 14
sobre um corpo, 14
tensorial, 15
mista, 17
anel, 127
comutativo, 128
aplicação dual, 126
aplicação
bilinear, 1, 126
não degenerada, 126
estrutural, 16
linear, 124
multilinear, 1
R-linear, 128
aplicações
homotópicas, 119
atlas, 31
compatı́vel, 31
diferenciável, 34
maximal, 34
com cantos, 90
suave, 34
com cantos, 90
base
de um espaço topológico, 115
de um espaço vetorial, 123
ordenada, 124
negativamente orientada, 79
positivamente orientada, 79
bola
aberta, 118
de coordenadas, 35
fechada, 118
bordo
de uma variedade, 37
caminho, 116
campo
de covetores, 53
conservativo, 59
de coordenadas, 53
exato, 59
de k-tensores, 71
de vetores, 52
de coordenadas, 52
sobre uma variedade, 81
suave
de covetores, 53
de vetores, 52
carta
com cantos, 90
de coordenadas, 32
positivamente orientada, 80
categoria, 98
cisão
trivial, 116
classe
de equivalência, 112
de homotopia, 120
cobertura
regular, 40
cohomologia de De Rham, 97
coleção
de cartas
consistentemente orientada, 80
linearmente independente, 123
localmente finita, 117
combinação linear, 122
complexo, 102
componente
de um tensor, 14
de um vetor, 47, 124
conjunto, 111
aberto, 114
137
de medida nula, 132
denso, 115
fechado, 114
pré-compacto, 117
conjuntos
disjuntos, 112
contração, 18
de uma forma, 82
contradomı́nio, 113
coordenadas-padrão, 51, 53
corpo, 121
curva, 55
fechada, 59
suave, 55
derivação
em um ponto, 43, 45
derivada
de uma função, 129
parcial, 129
de ordem n, 130
determinante
de uma aplicação linear, 28
de uma matriz, 29, 126
difeomorfismo, 130
entre variedades, 39
que preserva orientação, 81
que reverte orientação, 81
diferencial, 54
exterior, 75
dimensão
de um espaço vetorial, 124
domı́nio, 113
de integração, 133
regular, 81
equivalência
homotópica, 120
espaço
cotangente
a uma variedade, 49
métrico, 118
completo, 119
normal, 67
produto, 115
tangente
a uma variedade, 45
geométrico, 43
topológico, 114
compacto, 117
conexo, 116
conexo por caminhos, 116
contrátil, 120
de Hausdorff, 115
paracompacto, 117
vetorial, 122
dual, 126
livre, 124
normado, 127
orientado, 79
estrutura
suave, 35
exterior
de um conjunto, 115
fecho
de um conjunto, 115
fibrado
cotangente, 53
k-tensorial, 69
contravariante, 69
covariante, 69
misto, 69
normal, 67
tangente, 50
forma
de orientação, 81
diferencial, 72
exata, 97
fechada, 97
positivamente orientada, 81
fórmula de Taylor, 131
fronteira
de um conjunto, 115
função, 113
bijetora, 113
componente, 52, 71, 130
composta, 114
contı́nua, 116, 119
de classe C k , 130
de classe Lipschitz, 135
de coordenadas, 32
de exaustão, 42
δ-próxima, 66
138
diferenciável, 38, 129
distância, 127
injetora, 113
inversa, 114
Riemman integrável, 132, 133
sobrejetora, 113
suave, 38, 130
teste, 40, 42
funtor
contravariante, 99
covariante, 99
grau
de um tensor, 13
misto, 16
grupo, 121
abeliano, 121
de cohomologia, 102
de De Rham, 97
homeomorfismo, 116
homomorfismo
conectante, 103
de grupos, 121
homotopia, 119
de pares, 120
relativa, 121
suave, 68
imagem, 113
de uma aplicação linear, 125
ı́ndice múltiplo, 24
crescente, 24
integral
de um campo de covetores, 57
de uma forma
em um aberto, 84
em um domı́nio, 83
em uma variedade, 85
de uma função, 132, 133
de uma função vetorial, 134
inferior, 132
superior, 132
interior
de um conjunto, 114
de uma variedade, 37
interseção, 111
isomorfismo, 125
de grupos, 121
k-forma diferencial, 72
limite, 118
de uma função, 116
matriz
de uma aplicação linear, 125
jacobiana, 130
mudança de base, 125
métrica, 117
induzida, 118
morfismo, 98
entre cadeias, 102
mudança de carta, 31, 34, 37
norma, 127
equivalente, 127
núcleo
de uma aplicação linear, 125
operador
homotópico, 99
orientação, 78
canônica, 79
em uma variedade, 79
induzida no bordo, 82
pontual, 79
contı́nua, 79
par
de espaços topológicos, 120
ordenado, 112
paralelepı́pedo, 131
partição
da unidade, 40
de um conjunto, 113
de um intervalo, 132
de um paralelepı́pedo, 132
suave
da unidade, 40
permutação, 21
ı́mpar, 22
par, 22
ponto
de acumulação, 115
139
de bordo, 91
de canto, 91
de Rn+ , 91
potência tensorial, 13
produto
cartesiano, 112
arbitrário, 114
de funções multilineares, 18
direto
de R-módulos, 128
escalar, 126
exterior, 26, 73
interno, 126
tensorial
canônico, 17
de aplicações lineares, 10
de dois espaços, 5
de dois tensores, 14
de n espaços, 10
projeção estereográfica, 108
propriedade universal
de uma aplicação p-linear, 10
de uma aplicação bilinear, 2
pullback
de um campo de tensores, 72
de um funcional linear, 126
de uma forma, 73
de uma função suave, 56
pushforward, 45
R-módulo, 128
à direita, 128
à esquerda, 128
referencial
local, 53
positivamente orientado, 79
suave, 53
refinamento
de uma cobertura, 117
relação, 112
de equivalência, 112
representação
local, 38
matricial, 125
retração, 68
seção
de um fibrado, 51, 70
local, 52
independente, 52
segmento de curva, 57
suave por partes, 57
fechado, 59
sequência, 102, 115
convergente, 115, 118
de Cauchy, 118
de Mayer-Vietoris, 105
exata, 102
curta, 102
soma
direta, 123
inferior, 132
superior, 132
subconjunto
aberto, 118
estrelado, 107
fechado, 118
limitado, 118
subespaço
métrico, 118
topológico, 115
vetorial, 122
suporte
de uma forma, 83
de uma função, 39
tensor, 5, 10, 13
alternado, 20
anti-simétrico, 20
contravariante, 16
covariante, 16
decomponı́vel, 5, 10, 13, 16
misto, 16
positivamente orientado, 79
teorema
da mudança de variáveis, 134
de Stokes, 87
do núcleo e da imagem, 125
tipo de homotopia, 120
topologia, 114
da norma, 127
induzida, 118
produto, 115
transposição, 22
140
união, 111
variedade
diferenciável
com bordo, 36
sem bordo, 34
orientada, 79
orientável, 79
parametrizada, 31
suave, 35, 37
topológica, 31
variedades
difeomorfas, 39
vetor, 122
cotangente, 49
que aponta para dentro, 81
que aponta para fora, 81
tangente, 45
geométrico, 43
vizinhança
de um ponto, 114
tubular, 67
volume
de um domı́nio, 133
de um paralelepı́pedo, 131
141
Referências Bibliográficas
[1] Bishop, R. L., Goldberg, S. I., Tensor Analysis on Manifolds, Dover Publications Inc., 1980.
[2] do Carmo, M. P., Differential Forms and Applications, Springer-Verlag, 1994.
[3] Dodson, C. T. J., Tensor Geometry - The Geometric Viewpoint and its Uses,
Springer, 1997.
[4] Greub, W., Multilinear Algebra 2nd Edition, Springer-Verlag, 1978.
[5] Lee, J. M., Introduction to Smooth Manifolds, Springer, 2006.
[6] Lima, E. L., Álgebra Exterior, IMPA, 2005.
[7] Lima, E. L., Curso de Análise Vol. 2, IMPA; 2010.
[8] Lima, E. L., Homologia Básica, IMPA; 2009.
[9] Munkres, J. R., Analysis on Manifolds, Westview Press, 1991.
[10] Spivak, M., Calculus on Manifolds, Addison-Wesley, 1965.
143
Download

Cohomologia de De Rham - Departamento de Matemática