Universidade Federal de São Carlos Centro de Ciências Exatas e Tecnologia Departamento de Matemática Tensores, Teorema de Stokes e Cohomologia de De Rham Francisco Carlos Caramello Junior Bacharelado em Matemática Liane Bordignon Orientadora Trabalho de Conclusão de Curso B Segundo Semestre de 2011 Aluno Orientadora Wer nicht von dreitausend Jahren sich weiß Rechenschaft zu geben, bleib im Dunkeln unerfahren, mag von Tag zu Tage leben. Johann Wolfgang von Goethe, West-Östlicher Diwan - Buch des Unmuts. Resumo Parte da proposta deste trabalho é fazer um estudo aprofundado da álgebra dos tensores. Primeiramente, portanto, fazemos o tratamento formal da álgebra tensorial. Em seguida construı́mos a teoria dos tensores alternados. Na sequência introduzimos es variedades diferenciáveis. Construı́mos algumas das ferramentas básicas da teoria, como o fibrado tangente. Em seguida introduzimos as formas diferenciais e uma forma de integra-las, tópico cujo resultado principal é o Teorema de Stokes. Por fim, estudamos a cohomologia de De Rham. Abstract Part of the purpose of this work is to make a thorough study of the algebra of tensors. First, therefore, we make the formal treatment of the tensor algebra and the theory of alternating tensors. Next we introduce the smooth manifolds. It’s made the construction of some basic tools of the theory, such as the tangent bundle. Then we introduce the differential forms and a way to integrate them, topic whose main result is the Stokes’s Theorem. Finally, we study the De Rham cohomology. iv Prefácio O presente trabalho foi desenvolvido no decorrer das disciplinas Trabalho de Conclusão de Curso A e Trabalho de Conclusão de Curso B. Durante a disciplina Trabalho de Conclusão de Curso A, cursada no primeiro semestre de 2011, desenvolvemos os tópicos em Álgebra Multilinear e Análise em Variedades que se encontram no capı́tulo 1 e 2, a menos das seções 2.7 e 2.8 deste último. Na disciplina Trabalho de Conclusão de Curso B, cursada no segundo semestre de 2011, foi feito o estudo da Cohomologia de De Rham, que se encontra no capı́tulo 3. As seções 2.7 e 2.8 foram estudadas pois trazem pré-requisitos para o pleno desenvolvimento do capı́tulo 3, além de constituı́rem parte fundamental da teoria de Variedades Suaves. Também, como era parte de nossa proposta, incluı́mos mais exemplos e figuras a fim de facilitar o entendimento do texto. vi Sumário Resumo iv Prefácio vi 1 Álgebra Multilinear 1.1 Aplicações Multilineares . . . . . . . . . 1.2 Produto Tensorial . . . . . . . . . . . . . 1.3 Aplicações Lineares . . . . . . . . . . . . 1.4 Produto Tensorial de p Espaços Vetoriais 1.5 Espaços Duais . . . . . . . . . . . . . . . 1.6 Álgebra Tensorial . . . . . . . . . . . . . 1.7 Tensores Mistos . . . . . . . . . . . . . . 1.8 Álgebra das Funções Multilineares . . . . 1.9 Tensores Alternados . . . . . . . . . . . 1.10 Produto Exterior . . . . . . . . . . . . . 1.11 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 9 10 12 13 16 18 20 26 28 2 Análise em Variedades 2.1 Variedades Topológicas . . . . . 2.2 Variedades Diferenciáveis . . . . 2.3 Funções Diferenciáveis . . . . . 2.4 Partições da Unidade . . . . . . 2.5 Vetores Tangentes . . . . . . . . 2.6 Fibrados Tangente e Cotangente 2.7 Integrais de Linha . . . . . . . . 2.8 Mergulhos e Aproximações . . . 2.9 Formas Diferenciais . . . . . . . 2.10 Orientações . . . . . . . . . . . 2.11 Integração . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 31 34 38 39 43 50 55 60 69 78 83 3 Cohomologia de De Rham 3.1 Grupos de Cohomologia de De Rham . . . . . . . . . . . . . . . . . . 3.2 Teorema de Mayer-Vietoris . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Cohomologia de De Rham da Esfera . . . . . . . . . . . . . . . . . . 97 97 102 106 . . . . . . . . . . . viii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Apêndice Conjuntos Topologia Álgebra . Análise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 111 114 121 129 Índice Remissivo 137 Referências Bibliográficas 143 ix Lista de Figuras 1.1 Um elemento de M 3×3×3 . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 2.2 2.3 Uma carta de coordenadas. . . . . . . . . . . . . . . . . . . . . . . . . 32 Uma mudança de carta. . . . . . . . . . . . . . . . . . . . . . . . . . 34 Uma variedade com bordo. . . . . . . . . . . . . . . . . . . . . . . . . 37 x 6 Capı́tulo 1 Álgebra Multilinear Neste capı́tulo apresentamos os tensores. Esses objetos são uma generalização dos vetores e são o caso geral dos tensores alternados, que também introduzimos aqui. Estudamos a álgebra tensorial, a álgebra exterior e os determinantes. Este último tópico constitui tanto uma aplicação dos dois primeiros como teoria também usada no decorrer do trabalho. Os tensores alternados são retomados no capı́tulo 2 ao definirmos as formas diferenciais. 1.1 Aplicações Multilineares Definição 1.1.1. Sejam p + 1 espaços vetoriais E1 , . . . , Ep e G sobre um corpo Γ. Uma aplicação f : E1 × · · · × Ep → G é p-linear se, ∀ i, 1 ≤ i ≤ p, f (x1 , . . . , xi + yi , . . . , xp ) = f (x1 , . . . , xi , . . . , xp ) + f (x1 , . . . , yi , . . . , xp ), para todo xi , yi ∈ Ei , e f (x1 , . . . , λxi , . . . , xp ) = λf (x1 , . . . , xi , . . . , xp ), para todo λ ∈ Γ. Costumamos chamar uma aplicação 2-linear de bilinear e, mais geralmente, uma aplicação p-linear de multilinear. Quando G = Γ na definição acima, chamamos f de funcional p-linear. O conjunto das aplicações p-lineares f : E1 × · · · × Ep → G será denotado por L(E1 , . . . , Ep ; G). Definimos a soma e o produto por escalar em L(E1 , . . . , Ep ; G) respectivamente por (f + g)(x1 , . . . , xp ) = f (x1 , . . . , xp ) + g(x1 , . . . , xp ), (λf )(x1 , . . . , xp ) = λf (x1 , . . . , xp ). Proposição 1.1.2. O conjunto L(E1 , . . . , Ep ; G) munido com as operações acima tem estrutura de espaço vetorial. 1 1.2 Produto Tensorial Definição 1.2.1. Sejam E, F e T espaços vetoriais sobre Γ e ⊗ : E × F → T uma aplicação bilinear. Dizemos que ⊗ tem a propriedade universal se satisfaz: (1) Os vetores ⊗(x, y) geram T , (2) Se ϕ é uma aplicação bilinear de E × F em qualquer espaço vetorial H, então existe uma aplicação linear f : T → H tal que o diagrama E×F ⊗ ϕ / ;H f T comuta. Daqui em diante denotaremos ⊗(x, y) por x ⊗ y. Exemplo 1.2.2. Considere a aplicação bilinear Γ × F → F dada por λ ⊗ y = λy. Como 1 ⊗ y = y, essa aplicação satisfaz (1). Para verificar (2), seja ϕ : Γ × F → H uma aplicação bilinear qualquer e defina f : F → H por f (y) = ϕ(1, y). Então, para todo λ ∈ Γ, y ∈ F ϕ(λ, y) = λϕ(1, y) = λf (y) = f (λy) = f (λ ⊗ y). Portanto vale (2). Proposição 1.2.3. Sejam ai ∈ E, i = 1, . . . , r, vetores linearmente independentes e bi ∈ F , i = 1, . . . , r, vetores quaisquer. Então a relação X ai ⊗ b i = 0 i implica bi = 0, para todo i. Demonstração: Como ai são linearmente independentes, podemos tomar r funções lineares f i : E → Γ tais que 1 se i = j, i i f (aj ) = δj = 0 se i 6= j. Considere a função bilinear Φ(x, y) = r X f i (x)g i (y), i=1 onde x ∈ E, y ∈ F e g i são funções lineares arbitrárias em F . Pela condição (2) da propriedade universal, existe uma função linear h em T tal que X h(x ⊗ y) = f i (x)g i (y). i 2 Então ! X aj ⊗ b j = Como j aj ⊗ bj = 0, temos que que bi = 0 ∀ i. P h X j f i (aj )g i (bj ) = X i,j P i g i (bi ). i i g (bi ) = 0. Mas, como g i são arbitrárias, segue Corolário 1.2.4. Se a 6= 0 e b 6= 0, então a ⊗ b 6= 0. Proposição 1.2.5. Seja {eα }α∈A uma base de E. Então todo vetor z ∈ T pode ser escrito na forma X z= eα ⊗ bα , α com bα ∈ F , onde apenas uma quantidade finita de bα é diferente de zero. Além disso, os bα ficam unicamente determinados por z. Demonstração: Pela condição (1) da propriedade universal, z é uma soma finita da forma X z= xν ⊗ y ν , ν com xν ∈ E, yν ∈ F . Escreva xν = α λαν eα , λαν ∈ Γ. Então X X X z= λαν eα ⊗ yν = eα ⊗ λαν yν = eα ⊗ bα , P ν,α onde bα = P ν ν,α α λαν yν . Para provar a unicidade, suponha que X X eα ⊗ b0α , eα ⊗ bα = α α com bα , b0α ∈ F . Então X eα ⊗ (bα − b0α ) = 0 α e, pela Proposicao 1.2.3, bα = b0α Proposição 1.2.6. Qualquer vetor z ∈ T , z 6= 0, pode ser escrito na forma z= r X xi ⊗ y i , i=1 onde xi ∈ E, yi ∈ F , {xi } é linearmente independente e {yi } é linearmente independente. P Demonstração: Escreva z = ri=1 xi ⊗ yi de forma que r seja mı́nimo. Se r = 1, pela bilinearidade de ⊗, x1 6= 0 e y1 6= 0. Caso r ≥ 2, se os vetores xi são linearmente dependentes, podemos assumir que xr = r−1 X i=1 3 λi xi . Então temos que z= r−1 X xi ⊗ y i + i=1 r−1 X i λ xi ⊗ y r = i=1 r−1 X i xi ⊗ (yi + λ yr ) = i=1 r−1 X xi ⊗ yi0 , i=1 contrariando a minimalidade de r. Portanto {xi } é linearmente independente. De forma análoga mostramos que yi são linearmente independentes. A seguir mostraremos a existência e a unicidade de aplicações bilineares com a propriedade universal. Proposição 1.2.7. Suponha que ⊗1 : E × F → T1 e ⊗2 : E × F → T2 são aplicações bilineares com a propriedade universal. Então existe um isomorfismo linear f : T1 → T2 tal que f (x ⊗1 y) = x ⊗2 y para todo x ∈ E, y ∈ F . Demonstração: De fato, pela condição (2) da propriedade universal, temos aplicações lineares f : T1 → T2 e g : T2 → T1 tais que f (x ⊗1 y) = x ⊗2 y e g(x ⊗2 y) = x ⊗1 y para todo x ∈ E, y ∈ F . Essas relações implicam que g(f (x ⊗1 y)) = x ⊗1 y e que f (g(x ⊗2 y)) = x ⊗2 y. A condição (1) da propriedade universal garante que g ◦ f = id = f ◦ g. Logo f e g são isomorfismos lineares inversos. Proposição 1.2.8. Sejam E e F espaços vetoriais. Existe um espaço vetorial T e uma aplicação bilinear ⊗ : E × F → T tais que ⊗ tem a propriedade universal. Demonstração: Considere o espaço vetorial livre M (E × F ) (veja A.3.11) gerado por E × F e N (E, F ) o subespaço de M (E × F ) gerado pelos vetores (λx1 + µx2 , y) − λ(x1 , y) − µ(x2 , y) e (x, λy1 + µy2 ) − λ(x, y1 ) − µ(x, y2 ). Tome T = M (E ×F )/N (E, F ) e π : M (E ×F ) → T a projeção canônica. Defina ⊗ : E × F → T por x ⊗ y = π(x, y). Como π(λx1 + µx2 , y) = λπ(x1 , y) + µπ(x2 , y), segue que (λx1 + µx2 ) ⊗ y = π(λx1 + µx2 , y) = λπ(x1 , y) + µπ(x2 , y) = λx1 ⊗ y + µx2 ⊗ y. De forma análoga mostramos a linearidade em y. Note que todo vetor z ∈ T é uma soma finita ! X z=π λij (xi , yj ) , i,j 4 com xi ∈ E, yj ∈ F . Então ! X i,j λij xi ⊗ yj = X λij π(xi , yj ) = π i,j X λij (xi , yj ) =z i,j e, portanto, ⊗ satisfaz a condição (1) da propriedade universal. Considere agora uma aplicação bilinear Ψ : E × F → H, onde H é um espaço vetorial qualquer. Como {(x, y) | x ∈ E , y ∈ F } forma uma base para M (E × F ), existe uma aplicação linear g : M (E × F ) → H unicamente determinada tal que g(x, y) = Ψ(x, y). Da bilinearidade de Ψ segue que N (E, F ) ⊂ ker(g). De fato, se z = (λx1 + µx2 , y) − λ(x1 , y) − µ(x2 , y) é um gerador de N (E, F ), então g(z) = g(λx1 + µx2 , y) − λg(x1 , y) − µg(x2 , y) = Ψ(λx1 + µx2 , y) − λΨ(x1 , y) − µΨ(x2 , y) = 0. Analogamente mostramos que g((x, λy1 + µy2 ) − λ(x, y1 ) − µ(x, y2 )) = 0. Portanto g induz uma aplicação linear f : M (E × F )/N (E, F ) → H tal que f ◦ π = g. Em particular, (f ◦ ⊗)(x, y) = f (π(x, y)) = g(x, y) = Ψ(x, y) e, então, ⊗ satisfaz a condição (2) da propriedade universal. Definição 1.2.9. O produto tensorial de dois espaços vetoriais E e F é um par (T, ⊗) onde ⊗ : E × F → T é uma aplicação bilinear com a propriedade universal. O espaço T determinado por E e F é chamado de produto tensorial de E e F e denotado por E ⊗ F . Os elementos de E ⊗ F são chamados de tensores e os tensores da forma e ⊗ f , com e ∈ E, f ∈ F , são ditos decomponı́veis. Exemplo 1.2.10. O par (M n×m , β), onde β : Γn × Γm → M n×m é a aplicação bilinear definida por ξ 1η1 . . . ξ 1ηm .. , (ξ 1 , . . . , ξ n ) × (η 1 , . . . , η m ) 7→ ... . n 1 n m ξ η ... ξ η é o produto tensorial de Γn por Γm . Mais geralmente, temos o seguinte: Exemplo 1.2.11. Seja M n1 ×···×nk o conjunto das matrizes k-dimensionais com entradas em um corpo Γ, ou seja, um elemento A de M n1 ×···×nk se escreve como (Figura 1.1) A = (ξ i1 ...ik ), 5 » 213 » 223 Figura 1.1: Um elemento de M 3×3×3 . onde ξ i1 ...ik ∈ Γ, com ij = 1, . . . , nj . Com a soma e a multiplicação por escalar A + B = (ξ i1 ...ik + η i1 ...ik ), λA = (λξ i1 ...ik ), M n1 ×···×nk torna-se um espaço vetorial sobre Γ. O par (M n1 ×···×nk ×m1 ×···×ml , ⊗), onde ⊗ : M n1 ×···×nk × M m1 ×···×ml → M n1 ×···×nk ×m1 ×···×ml é a aplicação bilinear definida por (ξ i1 ...ik ) × (η j1 ...jl ) 7→ (ξ i1 ...ik η j1 ...jl ), é o produto tensorial de M n1 ×···×nk e M m1 ×···×ml . Proposição 1.2.12. Sejam E, F e G espaços vetoriais. Existe um isomorfismo linear Φ : L(E ⊗ F ; G) → L(E, F ; G). Demonstração: Dada f ∈ L(E ⊗ F ; G), seja Φ(f ) = f ◦ ⊗. A condição (2) da propriedade universal implica que Φ é sobrejetora, uma vez que afirma que qualquer aplicação bilinear ψ : E × F → G pode ser fatorada sobre o produto tensorial, ou seja, pode ser escrita como ψ = f ◦ ⊗. Suponha que f ◦ ⊗ = 0 para alguma aplicação linear f : E ⊗ F → G. Pela condição (1) da propriedade universal, E ⊗ F é gerado pelos produtos x ⊗ y, e segue que f = 0. Lema 1.2.13. Sejam Eα , α ∈ I e Fβ , β ∈ J duas famı́lias de espaços vetoriais sobre Γ e seja, para cada par (α, β), (Eα ⊗ Fβ , ⊗) o produto tensorial de Eα e Fβ . Sejam M M M e= e= E Eα , Fe = Fβ , G Eα ⊗ Fβ , α β α,β e × Fe → G e a aplicação bilinear dada por e seja ϕ : E X ϕ(x̃, ỹ) = iαβ (πα (x̃) ⊗ πβ (ỹ)), α,β e → Eα e πβ : Fe → Fβ são as projeções canônicas e iαβ : Eα ⊗ Fβ → G e é onde πα : E e ϕ) é o produto tensorial de E e e Fe. a inclusão canônica. Então (G, 6 Demonstração: A condição (1) da propriedade universal é trivialmente satisfeita, e se escreve, por definição, como soma de elementos de pois todo elemento de G e :E e × Fe → H uma aplicação bilinear Eα ⊗ Fβ . Para verificar a condição (2), seja Ψ qualquer. Defina Ψαβ : Eα × Fβ → H por e α (x), iβ (y)), Ψαβ = Ψ(i e e iβ : Fβ → Fe são as inclusões canônicas. Então Ψαβ induz uma onde iα : Eα → E aplicação linear fαβ : Eα ⊗ Fβ → H tal que Ψαβ (x, y) = fαβ (x ⊗ y), e → Eα ⊗ Fβ a projeção canônica, defina uma onde x ∈ Eα e y ∈ Fβ . Sendo παβ : G e → H por aplicação linear f : G X f= fαβ ◦ παβ . α,β Segue que ! (f ◦ ϕ)(x̃, ỹ) = f X iαβ (πα (x̃) ⊗ πβ (ỹ)) α,β = X fαβ (πα (x̃) ⊗ πβ (ỹ)) α,β = X Ψαβ (πα (x̃), πβ (ỹ)) α,β ! e = Ψ X iα (πα (x̃)), α X iβ (πβ (ỹ)) β e ỹ). = Ψ(x̃, e Portanto f ◦ ϕ = Ψ. Lema 1.2.14. Seja o produto tensorial dos espaços vetoriais E e F e L(E ⊗ F, ⊗) L suponha que E = α Eα e F = β Fβ são decomposições em soma direta. Então M E⊗F = Eα ⊗ Fβ . α,β Demonstração: Pela condição (1) da propriedade universal, E ⊗ F é geradoPpelos P produtos da forma x ⊗ y, x ∈ E, y ∈ F . Como x = α xα , xα ∈ Eα e y = β yβ , yβ ∈ Fβ , segue que X x⊗y = xα ⊗ y β . α,β Isso mostra que E ⊗ F é a soma dos subespaços Eα ⊗ Fβ . Para mostrar que a decomposição é direta, considere as somas diretas M M M e= e= E Eα , Fe = Fβ , G Eα ⊗ Fβ α β α,β 7 e as inclusões e projeções canônicas iα , iβ , iαβ , πα , πβ e παβ como no Lema 1.2.13. e × Fe → G e é a aplicação bilinear dada por Então, se ϕ : E X ϕ(x̃ ⊗ ỹ) = iα,β (πα (x̃) ⊗ πβ (ỹ)), α,β e ϕ) é o produto tensorial de E e e Fe. o Lema 1.2.13 mostrou que o par (G, e Considere agora os isomorfismos lineares f : E → E e g : F → Fe definidos por X X f (x) = iα (xα ), g(x) = iβ (yβ ), α β P P sendo x = α xα , xα ∈ Eα e y = β yβ , yβ ∈ Fβ , e defina uma aplicação linear e por Ψ:E×F →G Ψ(x, y) = ϕ(f (x), g(y)). Pela condição (2) da propriedade universal, existe uma aplicação linear h : E ⊗ F → e tal que G h(x ⊗ y) = Ψ(x, y) = ϕ(f (x), g(y)). Se x ∈ Eλ e y ∈ Fµ para algum (λ, µ) fixo, segue das definições de f , g e ϕ que h(x ⊗ y) = ϕ(f (x), g(y)) = ϕ(iλ (x), iµ (y)) X = iαβ (πα (iλ (x)) ⊗ πβ (iµ (y))) = iλµ (x ⊗ y), α,β e isso mostra que h leva cada subespaço Eα ⊗Fβ de E ⊗F no subespaço iαβ (Eα ⊗Fβ ) e Como a decomposição G e = P iαβ (Eα ⊗ Fβ ) é direta, a decomposição de G. α,β P E ⊗ F = α,β Eα ⊗ Fβ também o é, ou seja, M E⊗F = (Eα ⊗ Fβ ). α,β Proposição 1.2.15. Sejam (aα )α∈I e (bβ )β∈J bases, respectivamente dos espaços vetoriais E e F . Então (aα ⊗ bβ )α∈I,β∈J é uma base de E ⊗ F . Demonstração: Sejam Eα L e Fβ os subespaços de E e F gerados por aα e bβ L respectivamente. Então E = α Eα e F = β Fβ e segue do Lema 1.2.14 que M E⊗F = Eα ⊗ Fβ . α,β Mostramos no Corolário 1.2.4 que aα 6= 0 e bβ 6= 0 implica aα ⊗ bβ 6= 0. Por outro lado, a condição (1) da propriedade universal aplicada a Eα e Fβ implica que Eα ⊗Fβ é gerado por um único elemento aα ⊗ bβ . Então E ⊗ F é soma direta dos subespaços gerados pelos produtos aα ⊗ bβ , e, portanto, estes formam uma base para E ⊗ F . Segue também que, se E e F têm dimensão finita, E ⊗ F tem dimensão finita e dim(E ⊗ F ) = dim(E) dim(F ). 8 1.3 Aplicações Lineares Dados E, E 0 , F e F 0 espaços vetoriais, considere ϕ : E → E 0 e ψ : F → F 0 aplicações lineares. Definimos uma aplicação bilinear E × F → E 0 ⊗ F 0 por (x, y) → ϕ(x) ⊗ ψ(y). Pela condição (2) da propriedade universal, existe uma única aplicação linear χ : E ⊗ F → E 0 ⊗ F 0 tal que χ(x ⊗ y) = ϕ(x) ⊗ ψ(y). A correspondência (ϕ, ψ) → χ define uma aplicação bilinear β : L(E; E 0 ) × L(F ; F 0 ) → L(E ⊗ F ; E 0 ⊗ F 0 ) Proposição 1.3.1. A aplicação linear f : L(E; E 0 ) ⊗ L(F ; F 0 ) → L(E ⊗ F ; E 0 ⊗ F 0 ) induzida pela aplicação β é injetora. Demonstração: Seja w tal que f (w) = 0. Se w 6= 0 podemos escrever, pela Proposição 1.2.6, r X w= ϕi ⊗ ψi , i=1 0 0 onde ϕi ∈ L(E; E ) e ψi ∈ L(F ; F ), sendo P ϕi linearmente independentes e ψi linearmente independentes. Então f (w) = i β(ϕi , ψi ) e, como f (w) = 0, r X ϕi (x) ⊗ ψi (y) = 0, (1.1) i=1 para todo par x ∈ E, y ∈ F . Tome a ∈ E tal que ϕ1 (a) 6= 0 e seja p ≥ 1 o número máximo de vetores linearmente independentes no conjunto {ϕ1 (a), . . . , ϕr (a)}. Suponha que ϕ1 (a), . . . , ϕp (a) sejam tais vetores linearmente independentes. Temos ϕj (a) = p X λji ϕi (a), i=1 j = p + 1, . . . , r, e, por (1.1), p X ϕi (a) ⊗ ψi (y) + i=1 r X p X j=p+1 i=1 ! λji ϕi (a) ⊗ ψj (y) = 0, ou seja, p X i=1 ϕi (a) ⊗ r X ! λji ψj (y) + ψi (y) j=p+1 9 = 0. Como os vetores ϕ1 (a), . . . , ϕp (a) são linearmente independentes, segue que ψi (y) + r X λji ψj (y) = 0, j=p+1 P com i = 1, . . . , p, para todo y ∈ F . Isto é, ψi + rj=p+1 λji ψj = 0, contradizendo a hipótese de que ϕj são linearmente independentes. Portanto, f é injetora. Corolário 1.3.2. O par (im(β), β) é o produto tensorial de L(E; E 0 ) e L(F ; F 0 ). Corolário 1.3.3. A aplicação bilinear β : L(E) × L(F ) → L(E ⊗ F ) dada por β(f, g)(x ⊗ y) = f (x)g(y) é tal que (im(β), β) é o produto tensorial de L(E) e L(F ). Corolário 1.3.4. Se E e F têm dimensão finita, os elementos β(ϕ, ψ) geram o espaço L(E ⊗ F ; E 0 ⊗ F 0 ) e então (L(E ⊗ F ; E 0 ⊗ F 0 ), β) é o produto tensorial de L(E; E 0 ) e L(F ; F 0 ). Chamamos β(ϕ, ψ) de produto tensorial das aplicações lineares ϕ e ψ e denotamos β(ϕ, ψ) = ϕ ⊗ ψ. A fórmula χ(x ⊗ y) = ϕ(x) ⊗ ψ(y) lê-se, então (ϕ ⊗ ψ)(x ⊗ y) = ϕ(x) ⊗ ψ(y). 1.4 Produto Tensorial de p Espaços Vetoriais Definição 1.4.1. Sejam Ei , i = 1, . . . , p, p espaços vetoriais e ⊗ : E1 × · · · × Ep → T uma aplicação p linear. Dizemos que ⊗ tem a propriedade universal se satisfaz: (1) Os vetores x1 ⊗ · · · ⊗ xp geram T , (2) Toda aplicação p-linear ϕ : E1 × · · · × Ep → H (H um espaço vetorial qualquer) pode ser escrita na forma ϕ(x1 , . . . , xp ) = f (x1 ⊗ · · · ⊗ xp ), onde f : T → H é linear. A existência e unicidade de aplicações p-lineares com a propriedade universal são demonstradas da mesma maneira como no caso p = 2. Definição 1.4.2. O produto tensorial de p espaços Ei , i = 1, . . . , p, é um par (T, ⊗) onde ⊗ : E1 × · · · × Ep → T é uma aplicação p-linear com a propriedade universal. O espaço T é chamado de produto tensorial dos espaços Ei e denotado por E1 ⊗ · · · ⊗ Ep . Os elementos de E1 ⊗ · · · ⊗ Ep são chamados de tensores e os tensores do tipo x1 ⊗ · · · ⊗ xp , com xi ∈ Ei são ditos decomponı́veis. 10 Analogamente a Proposição 1.2.12, se H é um espaço vetorial qualquer a correspondência ϕ ↔ f expressa pelo diagrama comutativo ϕ E × · · · × Ep ⊗ 8/ H f E1 ⊗ · · · ⊗ Ep determina um isomorfismo linear Φ : L(E1 ⊗ · · · ⊗ Ep ; H) → L(E1 , . . . , Ep ; H). Proposição 1.4.3. Sejam E1 , E2 e E3 três espaços vetoriais. Existe um isomorfismo linear f : E1 ⊗ E2 ⊗ E3 → (E1 ⊗ E2 ) ⊗ E3 tal que f (x ⊗ y ⊗ z) = (x ⊗ y) ⊗ z. Demonstração: Considere a aplicação 3-linear E1 × E2 × E3 → (E1 ⊗ E2 ) ⊗ E3 dada por (x, y, z) → (x ⊗ y) ⊗ z. Pela condição (2) da propriedade universal, existe uma aplicação linear induzida f : E1 ⊗ E2 ⊗ E3 → (E1 ⊗ E2 ) ⊗ E3 tal que f (x ⊗ y ⊗ z) = (x ⊗ y) ⊗ z. Por outro lado, para cada z ∈ E3 fixo existe uma aplicação bilinear βz : E1 × E2 × E3 → E1 ⊗ E2 ⊗ E3 definida por βz (x, y) = x ⊗ y ⊗ z, que induz uma aplicação linear gz : E1 ⊗ E2 → E1 ⊗ E2 ⊗ E3 tal que gz (x ⊗ y) = x ⊗ y ⊗ z. Defina Ψ : (E1 ⊗ E2 ) × E3 → E1 ⊗ E2 ⊗ E3 por Ψ(u, z) = gz (u), onde u ∈ E1 ⊗ E2 , z ∈ E3 . Então Ψ induz uma aplicação linear g : (E1 ⊗ E2 ) ⊗ E3 → E1 ⊗ E2 ⊗ E3 tal que Ψ(u, z) = g(u ⊗ z), u ∈ E1 ⊗ E2 , z ∈ E3 . Temos então que g((x ⊗ y) ⊗ z) = Ψ(x ⊗ y, z) = gz (x ⊗ y) = x ⊗ y ⊗ z e, pela definição de f , f (g((x ⊗ y) ⊗ z)) = (x ⊗ y) ⊗ z, mostrando que f é um isomorfismo linear e g seu inverso. Da mesma maneira construimos um isomorfismo linear h : E1 ⊗ E2 ⊗ E3 → E1 ⊗ (E2 ⊗ E3 ) tal que h(x ⊗ y ⊗ z) = x ⊗ (y ⊗ z). Assim, h ◦ f −1 é um isomorfismo entre (E1 ⊗ E2 ) ⊗ E3 e E1 ⊗ (E2 ⊗ E3 ) com h ◦ f −1 ((x ⊗ y) ⊗ z) = x ⊗ (y ⊗ z). 11 Mais geralmente, se Ei , i = 1, . . . , p + q são p + q espaços vetoriais, existe exatamente um isomorfismo f : (E1 ⊗ · · · ⊗ Ep ) ⊗ (Ep+1 ⊗ · · · ⊗ Ep+q ) → E1 ⊗ · · · ⊗ Ep+q tal que f ((x1 ⊗ · · · ⊗ xp ) ⊗ (xp+1 ⊗ · · · ⊗ xp+q )) = x1 ⊗ · · · ⊗ xp+q , e segue que há uma única aplicação bilinear β : (E1 ⊗ · · · ⊗ Ep ) × (Ep+1 ⊗ · · · ⊗ Ep+q ) → E1 ⊗ · · · ⊗ Ep+q tal que β(x1 ⊗ · · · ⊗ xp , xp+1 ⊗ · · · ⊗ xp+q ) = x1 ⊗ · · · ⊗ xp+q e que o par (E1 ⊗· · ·⊗Ep+q , β) é o produto tensorial de E1 ⊗· · ·⊗Ep e Ep+1 ⊗· · ·⊗Ep+q . A teoria para o caso p = 2 se estende ao caso geral, então, de maneira natural. Em particular, se (aiν ) é uma base para Ei , i = 1, . . . , p, os produtos a1ν1 ⊗ · · · ⊗ apνp formam uma base para E1 ⊗ · · · ⊗ Ep , e, se os espaços Ei têm dimensão finita, dim(E1 ⊗ · · · ⊗ Ep ) = dim(E1 ) . . . dim(Ep ). 1.5 Espaços Duais Proposição 1.5.1. Sejam E, E 0 , E 00 e F , F 0 , F 00 espaços vetoriais sobre Γ e ϕ : E × E 0 → E 00 , ψ : F × F 0 → F 00 aplicações bilineares. Então existe exatamente uma aplicação bilinear χ : (E ⊗ F ) × (E 0 ⊗ F 0 ) → E 00 × F 00 tal que χ(x ⊗ y, x0 ⊗ y 0 ) = ϕ(x, x0 ) ⊗ ψ(y, y 0 ), com x ∈ E, x0 ∈ E 0 , y ∈ F , y 0 ∈ F 0 . Demonstração: Como E ⊗ F e E 0 ⊗ F 0 são gerados pelos produtos x ⊗ y e x0 ⊗ y 0 respectivamente, fica claro que se χ existe ela é unicamente determinada por ϕ e ψ. Para mostrar a existência de χ, considere as aplicações lineares f : E ⊗ E 0 → E 00 , g : F ⊗ F 0 → F 00 induzidas, respectivamente, por ϕ e ψ. Então f ⊗ g : (E ⊗ E 0 ) ⊗ (F ⊗ F 0 ) → E 00 ⊗ F 00 é linear. Tome S : (E ⊗ F ) ⊗ (E 0 ⊗ F 0 ) → (E ⊗ E 0 ) ⊗ (F ⊗ F 0 ) o isomorfismo linear definido por S (x ⊗ y) ⊗ (x0 ⊗ y 0 ) = (x ⊗ x0 ) ⊗ (y ⊗ y 0 ) e defina χ(u, v) = (f ⊗ g)S(u ⊗ v) onde u ∈ E ⊗ F , v ∈ E 0 ⊗ F 0 . Segue que χ(x ⊗ y, x0 ⊗ y 0 ) = (f ⊗ g)((x ⊗ x0 ) ⊗ (y ⊗ y 0 )) = f (x ⊗ x0 ) ⊗ g(y ⊗ y 0 ) = ϕ(x, x0 )ψ(y, y 0 ). 12 Isso termina a demonstração. Denotaremos χ por ϕ ⊗ ψ. Em particular, todo par de funções bilineares Φ : E × E 0 → Γ, Ψ : F × F0 → Γ induz uma função bilinear Φ ⊗ Ψ : (E ⊗ F ) × (E 0 ⊗ F 0 ) → Γ tal que (Φ ⊗ Ψ)(x ⊗ y, x0 ⊗ y 0 ) = Φ(x, x0 )Ψ(y, y 0 ). Suponha, agora, que E ∗ e F ∗ são os duais de E e F e sejam ambos os produtos escalares denotados por h·, ·i. O resultado acima mostra que existe exatamente uma função bilinear h·, ·i : (E ∗ ⊗ F ∗ ) × (E ⊗ F ) → Γ tal que hx∗ ⊗ y ∗ , x ⊗ yi = hx∗ , xihy ∗ , yi. Em outras palavras, se E ∗ e F ∗ são os duais de E e F , a dualidade entre E ∗ ⊗ F ∗ e E ⊗ F é induzida. Sejam Ei∗ , Ei , i = 1, . . . , p, pares de duais onde todos os produtos escalares são denotados por h·, ·i. Como no caso p = 2, um produto escalar entre E1∗ ⊗ · · · ⊗ En∗ e E1 ⊗ · · · ⊗ En tal que hx1 ⊗ · · · ⊗ xn , x1 ⊗ · · · ⊗ xn i = hx1 , x1 i . . . hxn , xn i, onde xi ∈ Ei∗ e xi ∈ Ei , é induzido. 1.6 Álgebra Tensorial N Definição 1.6.1. Seja E um espaço vetorial e p ≥ 2. O par ( p (E), ⊗p ), onde O p (E) = E · · ⊗ E} | ⊗ ·{z p N é chamado de p-ésima potência tensorial de E e os elementos de p (E) são ditos tensores de grau p ou p-tensores. N 0 (E) = Γ e N Estendemos a definição para os casos p = 0 e p = 1 colocando 1 (E) = E. Tensores da forma x1 ⊗ · · · ⊗ xp , p ≥ 1, e tensores de grau zero são chamados de decomponı́veis. Para todo p e q há uma única aplicação bilinear O O O β: (E) × (E) → (E) p q p+q tal que β(x1 ⊗ · · · ⊗ xp , xp+1 ⊗ · · · ⊗ xp+q ) = x1 ⊗ · · · ⊗ xp+q 13 N N N e, além disso, o par ( p+q (E), β) é o produto tensorial de p (E) e q (E), como mostramos na Seção 1.4. Escreveremos, portanto, u ⊗ v ao invés de β(u, v). Assim, temos (x1 ⊗ · · · ⊗ xp ) ⊗ (xp+1 ⊗ · · · ⊗ xp+q ) = x1 ⊗ · · · ⊗ xp+q . (1.2) O tensor u ⊗ v é chamado de produto dos tensores u e v. O produto (1.2) é associativo, como segue de sua definição, mas não é comutativo (exceto para o caso dim E = 1). De fato, se x, y ∈ E são linearmente independentes, os produtos x ⊗ y e y ⊗ x também o são, e logo, x ⊗ y 6= y ⊗ x.N N Note que o produto λ ⊗ x, onde λ ∈ (E) = Γ e x ∈ 0 p (E), é o vetor N λx ∈ p (E) obtido pela multiplicação de x pelo escalar λ. Segue também do que consideramos na Seção 1.4 que, N se (eν )ν∈N é uma base de E, os produtos eν1 ⊗ · · · ⊗ eνp formam uma base de p (E). Em particular, se dim E = n < ∞, e (ei) é umabase de E, os produtos ei1 ⊗ · · · ⊗ eip formam uma N N N p base de p (E) e dim p (E) = n . Nesse caso, todo tensor x ∈ p (E) pode ser escrito unicamente como X λi1 ...ip ei1 ⊗ · · · ⊗ eip , x= i1 ,...,ip onde ij = 1, . . . , n para todo j = 1, . . . , p. Os coeficientes λi1 ...ip são chamados de componentes de x em relação à base (ei ). Definição 1.6.2. Seja (A, +, ·, Γ) um espaço vetorial e : A × A → A. Dizemos que (A, +, , ·, Γ) é uma álgebra sobre Γ se satisfaz, para todo x, y, z ∈ E e para todo λ, µ ∈ Γ, (1) (x + y) z = x z + y z, (2) x (y + z) = x y + x z, (3) (λ · x) (µ · y) = (λµ) · (x y). Quando é associativa, dizemos que a álgebra A é uma álgebra associativa sobre Γ. Definição 1.6.3. Uma álgebra graduada é uma álgebra sobre um corpo (A, +, , ·, Γ) que admite uma decomposição em soma direta M A= Ak k tal que o produto satisfaz {xk xl | xk ∈ Ak , xl ∈ Al } ⊂ Ak+l . Definição 1.6.4. Sejam (A1 , +1 , 1 , ·1 , Γ) e (A2 , +2 , 2 , ·2 , Γ) álgebras sobre Γ e ϕ : A1 → A2 uma bijeção. Dizemos que ϕ é um isomorfismo entre as álgebras A1 e A2 se ϕ satisfaz (1) ϕ(λ ·1 a) = λ ·2 ϕ(a), (2) ϕ(a +1 b) = ϕ(a) +2 ϕ(b), 14 (3) ϕ(a 1 b) = ϕ(a) 2 ϕ(b). para todo a, b ∈ A1 , λ ∈ Γ. N Seja ( p (E), ⊗p ) a p-ésima potência tensorial de E, e considere a soma direta ! ∞ O M O (E) = (E) . p=0 p N N Os elementos de (E) são as sequências do tipo (u0 , u1 , . . . ) com up ∈ p (E) onde apenas finito N um número N N de up são não nulos. Definindo uma aplicação bilinear : (E) × (E) → (E) por X uv = up ⊗ vq , p,q N P P N onde u, v ∈ (E), u = (E), +, , ·, Γ) é uma p up , v = q vq , temos que ( álgebra graduada associativa. N Definição 1.6.5. A quı́ntupla ( (E), +, , ·, Γ) é chamada de álgebra tensorial sobre o espaço vetorial E. E e E ∗ são duais com relação ao produto escalar h·, ·i e considere N Suponha N que ∗ (E) e (E ) N as álgebras sobre E e E ∗ . De acordo com a Seção 1.5, Ntensoriais é induzido entre p (E) e p (E ∗ ), para cada p ≥ 1, um único produto escalar tal que hx1 ⊗ · · · ⊗ xp , x1 ⊗ · · · ⊗ xp i = hx1 , x1 i . . . hxp , xp i, N N com xi ∈ i (E ∗ ), xi ∈ i (E). Estendemos a definição para p = 0 colocando hλ, µi = λµ, N com λ, µ ∈ 0 (E) = Γ. N N ∗ Os produtos escalares entre p (E ) e p (E) assim definidos N ∗ podem N ser estendidos de maneira única a um produto escalar h·, ·i entre (E ) e (E), dado por X hu∗ , vi = hup , vp i, p ∗ P p P onde u = p u e v = p vp . Se E tem dimensão finita e (ei ), (ei ) são bases para E e E ∗ respectivamente, então o produto escalar entre os vetores das bases induzidas ei1 ⊗ · · · ⊗ eip e ej1 ⊗ · · · ⊗ ejp é dado por j hej1 ⊗ · · · ⊗ ejp , ei1 ⊗ · · · ⊗ eip i = δij11 . . . δipp Essa fórmula mostra que as bases (ei1 ⊗ · · · ⊗ eip ) e (ej1 ⊗ · · · ⊗ ejp ) são duais e que o produto escalar entre dois tensores X X u= λi1 ...ip ei1 ⊗ · · · ⊗ eip , u∗ = µj1 ...jp ej1 ⊗ · · · ⊗ ejp i1 ,...,ip j1 ,...,jp 15 é dado por hu∗ , ui = X λi1 ...ip µi1 ...ip . i1 ,...,ip Caso E seja um espaço vetorial e E ∗ o seu dual, denotaremos a partir de agora, por simplicidade, as k-ésimas potências tensoriais de E e E ∗ respectivamente por N Nk N (E). Os tensores em k (E) são chamados de tensores contravariantes k (E) e N de grau k sobre E e aqueles em k (E) de tensores covariantes de grau k sobre E. 1.7 Tensores Mistos Definição 1.7.1. Seja E um espaço vetorial e E ∗ o seu dual. Para cada par (p, q), p ≥ 1, q ≥ 1, definimos ! ! p p O O O (E) ⊗ (E) . (E) = q q Estendemos a definição para os casos p = 0 e q = 0 colocando p p O O (E) = (E), 0 O 0 (E) = q O (E). q Np Os elementos de q (E) são chamados tensores mistos sobre o E e são ditos homogêneos de bigrau (p, q). O número p + q é chamado de grau total. Um tensor Np ω ∈ q (E) da forma ω = x1 ⊗ · · · ⊗ xp ⊗ x1 ⊗ · · · ⊗ xq , onde xi ∈ E ∗ e xi ∈ E, é chamado de decomponı́vel. ∗ Pelo que vimos Np na Seção Nq 1.5, o produto escalar entre E e E induz um produto escalar entre q (E) e p (E) determinado por hu∗ ⊗ v, v ∗ ⊗ ui = hu∗ , uihv ∗ , vi. N N Portanto, quaisquer dois espaços pq (E) e qp (E) são duais. A seguir faremos a construção do produto tensorial de álgebras para, em seguida definirmos a álgebra tensorial mista. Definição 1.7.2. Seja A uma álgebra. O produto : A × A → A determina uma aplicação linear µA : A ⊗ A → A tal que µA (x ⊗ y) = x y, chamada de aplicação estrutural. 16 Reciprocamente, se A é um espaço vetorial e µA : A ⊗ A → A é uma aplicação linear, uma multiplicação em A é induzida por x y = µA (x ⊗ y) e, então, A se torna uma álgebra. Isso mostra que há uma bijeção entre os produtos de A e as aplicações lineares µA : A ⊗ A → A. Sejam A e B álgebras com aplicações estruturais µA e µB respectivamente, e seja S : (A ⊗ B) ⊗ (A ⊗ B) → (A ⊗ A) ⊗ (B ⊗ B) o operador definido por S(x1 ⊗ y1 ⊗ x2 ⊗ y2 ) = x1 ⊗ x2 ⊗ y1 ⊗ y2 . Então uma aplicação linear µA⊗B : (A ⊗ B) ⊗ (A ⊗ B) → A ⊗ B dada por µA⊗B = (µA ⊗ µB ) ◦ S determina uma estrutura de álgebra em A ⊗ B. Definição 1.7.3. A álgebra A ⊗ B como construı́mos acima é chamada de produto tensorial canônico das álgebras A e B. Perceba que o produto em A ⊗ B satisfaz (x1 ⊗ y1 ) (x2 ⊗ y2 ) = = = = = µA⊗B (x1 ⊗ y1 ⊗ x2 ⊗ y2 ) µA ⊗ µB (S(x1 ⊗ y1 ⊗ x2 ⊗ y2 )) µA ⊗ µB (x1 ⊗ x2 ⊗ y1 ⊗ y2 ) µA (x1 ⊗ x2 ) ⊗ µB (y1 ⊗ y2 ) x1 x2 ⊗ y1 y2 . Assim, o produto tensorial canônico de duas álgebras associativas é associativo e, se os elementos unidade de A e B são, respectivamente IA e IB , o elemento unidade de A ⊗ B é IA ⊗ IB . Definição 1.7.4. A álgebra tensorial mista sobre N o par de N espaços vetoriais E ∗ e E é N o produto tensorial canônico entre as álgebras (E ∗ ) e (E) e será denotada por (E ∗ , E). Ou seja, O O O (E ∗ , E) = (E ∗ ) ⊗ (E). Tome ip : p O O (E) → (E ∗ ), iq : O O (E) → (E), q p ipq : O (E) → O (E ∗ , E) q N N N as inclusões canônicas e identifique os espaços p (E), q (E) e pq (E) com suas respectivas imagens por essas inclusões. Temos então a decomposição ! p O M O O (E ∗ , E) = (E) ⊗ (E) . p,q q 17 Se E tem dimensão finita n e (ei ), (ej ), com i, j = 1, . . . , n, são bases de E ∗ e E respectivamente, então os produtos i ...i ej11 ...jpq = ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq formam uma base de Np q (E), logo, todo tensor w ∈ w= X j ...j Np q (E) pode ser escrito como i ...i λi11...ipq ej11 ...jpq . i1 ,...,ip ,j1 ,...,jq Considere agora p ≥ 1, q ≥ 1, (k, l) um par fixo com 1 ≤ k ≤ p, 1 ≤ l ≤ q, e a aplicação (p + q)-linear Φkl ∗ ∗ · · × E} → :E · · × E} × E | × ·{z | × ·{z p q p−1 O (E) q−1 dada por Φkl (x1 , . . . , xp , x1 , . . . , xq ) = hxk , xl ix1 ⊗ · · · ⊗ xbk ⊗ · · · ⊗ xp ⊗ x1 ⊗ · · · ⊗ xbl ⊗ · · · ⊗ xq , onde xbk , xbl indicam a omissão de xk , xl . Definição 1.7.5. Pela propriedade universal, Φkl determina uma única aplicação linear p p−1 O O k Cl : (E) → (E). q q−1 chamada de operador contração com respeito a (k, l). O tensor Φkl (w) é chamado de contração de w com respeito a (k, l). Note que, em particular, C11 (x∗ ⊗ x) = hx∗ , xi. 1.8 Álgebra das Funções Multilineares Definição 1.8.1. Seja (E, +, ·, Γ) um espaço vetorial, com dim(E) = n < ∞. Para cada p ≥ 1, denotamos por T p (E) o espaço das funções p-lineares f : E × · · · × E → Γ. Estendemos a definição para p = 0 colocando T 0 (E) = Γ. Definição 1.8.2. O produto de uma função p-linear f ∈ T p (E) por uma função q-linear g ∈ T q (E) é a função p + q-linear dada por (f g)(x1 , . . . , xp+q ) = f (x1 , . . . , xp )g(xp+1 , . . . , xp+q ). 18 O conjunto T • (E) = ∞ M T p (E) p=0 munido da multiplicação acima definida torna-se uma álgebra graduada associativa, pela seguinte proposição: N Proposição 1.8.3. Os espaços T p (E) e p (E) são isomorfos. Demonstração: Considere a aplicação p-linear ϕ : |E ∗ × ·{z · · × E}∗ → T p (E) p dada por ϕ(f1 , . . . , fp ) = f1 · · · fp , onde fi ∈ E ∗ . Mostremos que ϕ tem a propriedade universal. Fixe (e1 , . . . , en ) uma base de E e seja (e1 , . . . , en ) a base dual. Então os produtos da forma ei1 ...ip = ei1 · · ·eip , onde ij = 1, . . . , n, formam uma base para P T p (E). De p fato, Se f ∈ T (E), como todo vetor x ∈ E pode ser escrito na forma x = i ei (x)ei , temos que ! X X f (x1 , . . . , xp ) = f ei (x1 )ei , . . . , ei (xp )ei i = X i i1 ip e (x1 ) . . . e (xp )f (ei1 , . . . , eip ), i1 ,...,ip que nos dá a equação f= X f (ei1 , . . . , eip )ei1 · · · eip i1 ,...,ip e, portanto, os produtos ei1 · · · eip geram T p (E). Se X λi1 ...ip ei1 · · · eip = 0, i1 ,...,ip então X λi1 ...ip hei1 , x1 i . . . heip , xp i = 0 i1 ,...,ip para todo xi ∈ E. Fixando (j1 , . . . , jp ) e colocando xi = eji , a relação acima implica λj1 ...jp = 0. Logo os produtos ei1 · · · eip formam uma base para T p (E), e dim(T p (E)) = np . Pela generalização do Corolário 1.3.4 para o produto tensorial de p espaços vetoriais, segue que ϕ tem a propriedade universal. Np Considere, então, a aplicação linear α : (E) → T p (E) induzida por ϕ. Temos o seguinte diagrama comutativo: 19 ϕ E∗ × · · · × E∗ ⊗p / 7 T p (E) α Np (E) Em particular, α(ei1 ⊗ · · · ⊗ eip ) = ei1 · · · eip . Como os produtos ei1 · · · eip formam uma base de T p (E), segue que α é um isomorfismo. Por fim, note que α(u∗ ⊗ v ∗ ) = α(u∗ ) α(v ∗ ), portanto α é um isomorfismo de álgebras. Considerando Tp (E) p ≥ 1 o espaço das funções p-lineares f : E ∗ × · · · × E ∗ → Γ, considerando T0 (E) = Γ, e aplicando os resultados acima, obtemos uma multiplicação entre os espaços Tp (E), que faz de T• (E) = ∞ M Tp (E) p=0 uma álgebra associativa. Os espaços T p (E) e Tp (E) são duais com relação ao produto X hf, gi = f (ei1 , . . . , eip )g(ei1 , . . . , eip ) i1 ,...,ip N N pois este é preservado via os isomorfismos p (E) → T p (E) e p (E) → Tp (E). Esses isomorfismos nos fornecem uma maneira um pouco mais concreta de encarar o produto tensorial. Essencialmente isto se dá pois as operações num espaço vetorial abstrato E são adimitidas axiomaticamente, enquanto conseguimos explicitar as operações em E ∗ . Por esse motivo, mais o fato de que as construções envolvendo E ∗ nos serão mais necessárias nos próximos capı́tulos do que as consNp truções envolvendo E, a partir daqui, trabalharemos com (E) via o isomorfismo Np (E) ∼ = T p (E) e com a identificação ⊗ ≡ . Ou seja, definindo, para f ∈ T p (E), g ∈ T q (E), f ⊗ g(x1 , . . . , xp+q ) = f (x1 , . . . , xp )g(xp+1 , . . . , xp+q ). 1.9 Tensores Alternados Esta seção introduz os tensores alternados. Estes nos permitem definir as formas diferenciais, que serão os integrandos no Teorema de Stokes. N Definição 1.9.1. Seja E um espaço vetorial sobre Γ e f ∈ k (E). O tensor f é dito alternado se f (x1 , . . . , xk ) = 0 quando xi = xj , para algum par (i, j), i, j = 1, . . . , k. 20 Definição 1.9.2. Seja E um espaço vetorial e f ∈ anti-simétrico se Nk (E). O tensor f é dito f (x1 , . . . , xi , . . . , xj , . . . , xk ) = −f (x1 , . . . , xj , . . . , xi , . . . , xk ), para quaisquer x1 , . . . , xk ∈ E. Proposição 1.9.3. Um tensor f ∈ simétrico. Nk (E) é alternado se, e somente se, é anti- Demonstração: Escrevamos, por simplicidade, f (x1 , . . . , xi , . . . , xj , . . . , xk ) = ϕ(xi , xj ). Então, se f é alternado, 0 = ϕ(xi + xj , xi + xj ) = ϕ(xi , xi ) + ϕ(xi , xj ) + ϕ(xj , xi ) + ϕ(xj , xj ) = ϕ(xi , xj ) + ϕ(xj , xi ) e, então f é anti-simétrico. Reciprocamente, se f é anti-simétrico, ϕ(xi , xi ) = −ϕ(xi , xi ), que implica 2ϕ(xi , xi ) = 0, e f é alternado. V N Indicaremos o subespaço de k (E) dos tensores k-lineares alternados por k (E). V Proposição 1.9.4. Seja f ∈ k (E). Se x1 , . . . , xk ∈ E são linearmente dependentes, então f (x1 , . . . , xk ) = 0. Demonstração: Como x1 , . . . , xk ∈ E são linearmente dependentes, ao menos um deles, xi , se escreve como combinação linear dos anteriores. Ou seja X xi = λj xj . j<i Segue que ! f (x1 , . . . , xk ) = f x1 , . . . , X λj xj , . . . , xk j<i = X λj f (x1 , . . . , xj , . . . , xj , . . . , xk ) = 0, j<i e terminamos. Corolário 1.9.5. Se dim(E) < k, então Vk (E) = {0}. Definição 1.9.6. Seja A um conjunto. Uma permutação de A é uma bijeção σ : A → A. 21 Em vista da definição acima, cada permutação σ admite uma inversa σ −1 dada por σ −1 (y) = x ⇔ σ(x) = y, e temos σ −1 ◦ σ = σ ◦ σ −1 = id. Como ◦ é associativa, segue que o conjunto das permutações de um conjunto A com a operação ◦ constitui um grupo, que indicaremos por S(A). Em especial, denotaremos S({1, . . . , k}) por Sk . Adotaremos também o costume de denotar a operação ◦ por justaposição. Definição 1.9.7. Uma permutação τ ∈ Sk chama-se uma transposição quando existem a, b ∈ N, a, b ≤ k, tais que τ (a) = b, τ (b) = a e τ (i) = i para todo i ∈ {1, . . . , k} \ {a, b}. Claramente, se τ é transposição, τ 2 = id. Lema 1.9.8. Toda permutação σ ∈ Sk pode ser escrita como um produto τ1 . . . τl de transposições com a paridade de l única. Como a paridade de l em σ = τ1 . . . τl é única, fazemos a seguinte definição: Definição 1.9.9. Seja σ ∈ Sk . Dizemos que σ é par se esta se escreve como um produto de um número par de transposições. Caso contrário, dizemos que σ é ı́mpar. Definimos ainda 1 se σ é par, sig(σ) = −1 se σ é ı́mpar. Uma permutação σ ∈ Sk induz um homomorfismo k k O O σ: (E) → (E) definido por (σf )(x1 , . . . , xk ) = f (xσ(1) , . . . , xσ(k) ). É imediato verificar que σf é, de fato, k-linear, e que o operador σ é linear. N Proposição 1.9.10. Sejam σ, ρ ∈ Sk e seja f ∈ k (E). Então σ(ρf ) = (σρ)f. Demonstração: Dados x1 , . . . , xk ∈ E, escrevamos wi = xσ(i) , i = 1, . . . , k. Então wρ(i) = xσρ(i) e temos σ(ρf )(x1 , . . . , xk ) = = = = e terminamos. (ρf )(w1 , . . . , wk ) f (wρ(1) , . . . , wρ(k) ) f (xσρ(1) , . . . , xσρ(k) ) ((σρ)f )(x1 , . . . , xk ), 22 N Em particular, para quaisquer σN ∈ Sk , f ∈ k (E), temos σ −1 (σf ) = (σ −1 σ)f = Nk f . O homomorfismo σ : (E) → k (E) é, portanto, invertı́vel, sendo seu inverso induzido por σ −1 . Como vimos no Lema 1.9.8, toda Nk permutação se escreve como um produto de transposições. Sendo assim, f ∈ (E) é alternado se, e somente se, para toda permutação σ ∈ Sk vale f (xσ(1) , . . . , xσ(k) ) = sig(σ)f (x1 , . . . , xk ). V Em outras palavras, f ∈ k (E) se, e somente se, f é k-linear e f = sig(σ)σf para toda σ ∈ Sk . De fato, se f é alternado e τ ∈ Sk é uma transposição, temos τ f = −f , ou seja, f = sig(τ )τ f . Como toda permutação é um produto de transposições, temos σf = (τ1 . . . τn )f = τ1 (. . . (τn f )) = (−1)n f = sig(σ)f. Reciprocamente, se f = sig(σ)σf para toda σ ∈ Sk , em particular τ f = −f para toda transposição τ , e portanto f é alternado. N V Definição 1.9.11. Definimos a projeção alt : k (E) → k (E) por alt(f ) = 1 X sig(σ)σf. k! σ∈S k Usaremos no decorrer dessa seção o fato que, fixada ρ ∈ Sk , a aplicação σ → ρσ é uma bijeção em Sk , ou seja, vale X X sig(σρ)σρf = k! alt(f ). sig(σ)σf = σ∈Sk σ∈Sk Lema 1.9.12. Seja f ∈ Nk (E). Então (1) alt(f ) é alternado, (2) f é alternado se, e somente se, alt(f ) = f , (3) se existe uma permutação ı́mpar ρ ∈ Sk tal que ρf = f , então alt(f ) = 0. Demonstração: Para qualquer permutação ρ ∈ Sk temos ! X 1 sig(σ)σf ρ(alt(f )) = ρ k! σ∈S k 1 X = sig(σ)ρσf k! σ∈S k 1 X sig(ρσ)ρσf = sig(ρ) k! σ∈S k = sig(ρ) alt(f ) e, portanto alt(f ) é alternado. 23 V Para demonstrar (2) note que, se f ∈ k (E) então sig(σ)f = σf para toda σ ∈ Sk , de modo que alt(f ) = f . Reciprocamente, se alt(f ) = f então f é alternado, pela parte (1). Por fim, se tivermos ρf = f com sig(ρ) = −1, então X X alt(f ) = sig(σ)σρf = − sig(σρ)σρf = − alt(f ) σ∈Sk σ∈Sk e, portanto, alt(f ) = 0. Proposição 1.9.13. Seja E um espaço vetorial sobre Γ, f 1 , . . . , f k ∈ E ∗ e σ ∈ Sk . Vale σ −1 (f 1 ⊗ · · · ⊗ f k ) = f σ(1) ⊗ · · · ⊗ f σ(k) . Demonstração: Dados v1 , . . . , vk ∈ E, por definição temos σ −1 (f 1 ⊗ · · · ⊗ f k )(v1 , . . . , vk ) = f 1 ⊗ · · · ⊗ f k (vσ−1 (1) , . . . , vσ−1 (k) ) = f 1 (vσ−1 (1) ) . . . f k (vσ−1 (k) ). Nesse último produto, o fator que possui ı́ndice superior σ(i) é f σ(i) (vi ). Alterando a ordem dos produtos, σ −1 (f 1 ⊗ · · · ⊗ f k )(v1 , . . . , vk ) = f σ(1) (v1 ) ⊗ · · · ⊗ f σ(k) (vk ) = f σ(1) ⊗ · · · ⊗ f σ(k) (v1 , . . . , vk ). Isso termina a demonstração. Definição 1.9.14. Seja k ∈ N. Uma k-upla I = (i1 , . . . , ik ), onde ij ∈ N, é chamada de ı́ndice múltiplo de comprimento k. Caso i1 < · · · < ik , I é um ı́ndice múltiplo crescente de comprimento k. Dada uma permutação σ ∈ Sk , definimos Iσ = (iσ(1) , . . . , iσ(k) ). Os ı́ndices múltiplos nos permitem uma maior simplicidade na notação. Sendo E um espaço vetorial de dimensão n sobre Γ, (ei ) uma base ordenada de E ∗ e V k (E) por I = (i1 , . . . , ik ) um ı́ndice múltiplo de comprimento k, definimos eI ∈ eI = k! alt(ei1 ⊗ · · · ⊗ eik ). (1.3) ON coeficienteVk! é utilizado apenas para anular o coeficiente na definição de alt : k (E) → k (E). Coeficiente este que, a menos desse caso, simplifica nossa notação. Se I e J são ı́ndices múltiplos, generalizamos a notação δij para ı́ndices múltiplos colocando se I e J não têm entradas repetidas sig(σ) e J = Iσ , para alguma σ ∈ Sk , δIJ = se I ou J têm entradas repetidas 0 ou se J não é permutação de I. 24 Lema 1.9.15. Seja E um espaço vetorial de dimensão n, (ei ) uma base de E e (ei ) a base dual a (ei ). (1) Se I tem alguma entrada repetida, então eI = 0, (2) Se J = Iσ para alguma σ ∈ Sk , então eI = sig(σ)eJ , (3) eI (ej1 , . . . , ejk ) = eI (eJ ) = δJI . Teorema 1.9.16. Seja E um espaço vetorial de dimensão n < ∞ sobre Γ, (ei ) uma base de E ∗ e k ^ ϕ = alt ◦ ⊗ : E ∗ × · · · × E ∗ → (E). Então ϕ é alternada e os tensores da forma eJ = k!ϕ(ej1 , . . . , ejk ), onde J = (j1 ,V . . . , jk ) é um ı́ndice múltiplo crescente com ji ∈ {1, . . . , n}, formam uma base de k (E). Em particular, ! k ^ n n! dim (E) = = . k k!(n − k)! Demonstração: Tome f 1 , . . . , f k ∈ E ∗ com f i = f j para algum i 6= j. Considerando a transposição τ ∈ Sk tal que τ (i) = j, temos, pela fórmula 1.3, que τ (f 1 ⊗ · · · ⊗ f k ) = f 1 ⊗ · · · ⊗ f k . Como sig(τ ) = −1, segue pelo Lema 1.9.12, que ϕ(f 1 , . . . , f k ) = alt(f 1 ⊗ · · · ⊗ f k ) = 0. Logo ϕ é k-linear alternada. Para demonstrar a segunda parte,Nrecordemos que os produtos ei1 ⊗N· · · ⊗ eik , k k (E) → (E). Como a imagem de alt : ij = 1, . . . , n, formam uma base de V Vk Vk k i1 ik (E). Além (E) é todo o (E), segue que os tensores k!ϕ(e , . . . , e ) geram disso, como ϕ é alternada, se a sequência i1 , . . . , ik possui elementos repetidos, ϕ(ei1 , . . . , eik ) = alt(ei1 ⊗ · · · ⊗ eik ) = 0. Como ϕ(v1 , . . . , vk ) no máximo muda de sinal quando alteramos a ordem de suas variáveis, concluı́mos que os tensores da forma eJ = k!ϕ(ej1 , . . . , ejk ), onde J = (j1 , . . .V, jk ) é um ı́ndice múltiplo crescente com ji ∈ {1, . . . , n}, são suficientes para gerar k (E). Resta mostrar que estes são linearmente independentes. Ora, temos que X eJ = k! alt(ej1 ⊗ · · · ⊗ ejk ) = sig(σ)ejσ(1) ⊗ · · · ⊗ ejσ(k) . σ∈Sk Daı́ vemos que, se denotarmos |I| = {i1 , . . . , ik }, X eJ = ±ei1 ⊗ · · · ⊗ eik , |I|=|J| onde a soma se estende para todas os ı́ndices múltiplos (i1 , . . . , ik ) que diferem de (j1 , . . . , jk ) apenas pela ordem dos elementos. Para cada um desses ı́ndices temos (i1 , . . . , ik ) = (jσ(1) , . . . , jσ(k) ), e o sinal da parcela ei1 ⊗ · · · ⊗ eik fica determinado por sig(σ). Segue da igualdade acima e do fato de que {ei1 ⊗ · · · ⊗ eik } é linearmente independente, que os tensores eJ são linearmente independentes. Vn Corolário 1.9.17. Se dim(E) = n, então dim ( (E)) = 1. 25 1.10 Produto Exterior Definição 1.10.1. Seja f ∈ produto exterior de f e g, por Vk (E) e g ∈ f ∧g = Vl (E). Definimos f ∧ g ∈ Vk+l (E), o (k + l)! alt(f ⊗ g). k!l! O coeficiente acima é motivado pela simplicidade na fórmula seguinte. Lema 1.10.2. Seja E um espaço vetorial de dimensão n < ∞ sobre Γ e (ei ) uma base de E ∗ . Para quaisquer ı́ndices múltiplos I = (i1 , . . . , ik ) e J = (j1 , . . . , jl ) com entradas em {1, . . . , n}, temos eI ∧ eJ = eIJ , onde IJ = (i1 , . . . , ik , j1 , . . . , jl ). Demonstração: Por multilinearidade é suficiente mostrar que eI ∧ eJ (ep1 , . . . , epk+l ) = eIJ (ep1 , . . . , epk+l ) (1.4) para qualquer sequência (ep1 , . . . , epk+l ) de vetores da base de E dual a (ei ). Caso P = (p1 , . . . , pk+l ) tenha alguma entrada repetida, ou P tenha alguma entrada que não aparece nem em I nem em J, (1.4) nos dá 0 = 0. Caso P = IJ, e P não tenha entradas repetidas, temos eI ∧ eJ (ep1 , . . . , epk+l ) = 1. Precisamos mostrar que, neste caso, o lado direito de (1.4) também é 1. Por definição, sendo eI ∧ eJ (ep1 , . . . , epk+l ) = H, temos (k + l)! alt(eI ⊗ eJ )(ep1 , . . . , epk+l ) k!l! 1 X = sig(σ)eI (epσ(1) , . . . , epσ(k) )eJ (epσ(k+1) , . . . , epσ(k+l) ). k!l! σ∈S H = k+l Note que as únicas parcelas não nulas da soma acima são aquelas nas quais σ permuta as primeiras k e as últimas l entradas de P separadamente. Ou seja, σ deve se escrever como σ = µν, onde µ ∈ Sk e ν ∈ Sl , sendo que µ age sobre {1, . . . , k} e ν age sobre {k + 1, . . . , k + l}. Como sig(µν) = sig(µ) sig(ν), temos 1 X H = sig(µν)eI (epµ(1) , . . . , epµ(k) )eJ (epν(k+1) , . . . , epν(k+l) ) k!l! µ∈S k ν∈Sl = ! 1 X sig(µ)eI (epµ(1) , . . . , epµ(k) ) k! µ∈S k I ! 1X sig(ν)eJ (epν(k+1) , . . . , epν(k+l) ) l! ν∈S l J = alt(e )(ep1 , . . . , epk ) alt(e )(epk+1 , . . . , epk+l ) = (eI )(ep1 , . . . , epk )(eJ )(epk+1 , . . . , epk+l ) = 1. Por fim, caso P = σ(IJ) para alguma σ ∈ Sk+l , e P não tenha entradas repetidas, aplicar σ −1 a P nos leva ao caso anterior. Como o efeito de aplicar tal permutação é multiplicar ambos os lados de (1.4) pelo sinal sig(σ), o resultado ainda vale. 26 Proposição 1.10.3. Sejam f ∈ Vk (E), g ∈ Vl (E), h ∈ Vm (E) e α, β ∈ Γ, então (1) (αf + βg) ∧ h = α(f ∧ h) + β(g ∧ h), h ∧ (αf + βg) = α(h ∧ f ) + β(h ∧ g), (2) f ∧ (g ∧ h) = (f ∧ g) ∧ h, (3) f ∧ g = (−1)kl g ∧ f , (4) Se (e1 , . . . , en ) é uma base de E ∗ e I = (i1 , . . . , ik ) é um ı́ndice múltiplo qualquer, então ei1 ∧ · · · ∧ eik = eI . Demonstração: O item (1) segue diretamente da definição, pois ⊗ é multilinear e alt é linear. Temos, pelo Lema 1.10.2, (eI ∧ eJ ) ∧ eK = eIJ ∧ eK = eIJK = eI ∧ eJK = eI ∧ (eJ ∧ eK ). O item (2) segue da observação acima e da bilinearidade (item (1)). Para mostrar o item (3), temos que, também pelo Lema 1.10.2, eI ∧ eJ = eIJ = sig(σ)eJI = sig(σ)eJ ∧ eI , onde σ é a permutação que leva IJ em JI. Note que, σ pode ser escrita como um produto τ1 . . . τkl de transposições (transpondo cada entrada de I através das entradas de J). Pelo Lema 1.9.8, a paridade de kl é única. O caso geral segue da bilinearidade. Por fim, (4) segue por indução no resultado do Lema 1.10.2. A propriedade em (3) é chamada de anticomutatividade. Em vista do item (4), temos que, se (ei ) é base de um espaço vetorial E de dimensão n, os tensores Vk da i1 ik forma e ∧ · · · ∧ e , com i1 < ... < ik , ij ∈ {1, . . . , n} formam uma base de (E). Definição 1.10.4. Seja V E um espaço vetorial de dimensão n < ∞ sobre Γ. Definimos o espaço vetorial (E) por ^ (E) = n ^ k M (E). k=0 Segue do Teorema 1.9.16 que dim ^ (E) = n X n k=0 k = 2n . V Pela Proposição 1.10.3, ( (E), +, ∧, ·, Γ) é uma álgebra graduada associativa anticomutativa, que chamamos de álgebra exterior sobre o espaço vetorial E. A construção do produto exterior pode ser feita, de forma similar à construção do produto tensorial, via propriedade universal. Mostra-se que o espaço obtido desta forma é isomorfo ao que construı́mos aqui. 27 1.11 Determinantes Como aplicação do Corolário 1.9.17, daremos uma definição intrı́nseca do determinante de um operador linear T : E → E. Sejam E e F espaços vetoriais de dimensão finita sobre Γ. UmaVaplicaçãoVlinear T : E → F induz, para cada k > 0, uma nova aplicação linear T # : k (F ) → k (E) definida por (T # f )(v1 , . . . , vk ) = f (T v1 , . . . , T vk ), V onde f ∈ k (F ) e v1 , . . . , vk ∈ E são arbitrários. Verifica-se que, V V (1) Se T = id : E → E, então T # = id : k (E) → k (E), (2) Se S : E → F e T : F → G são lineares, # # (T ◦ S) = S ◦ T # k k ^ ^ : (G) → (E). Em particular, se S : E → F é um isomorfismo, (S −1 # # ) ◦ S = (S ◦ S −1 # # ) = (id) = id : k ^ (F ) → k ^ (F ). V V Analogamente, S #V◦ (S −1 )# V = id : k (E) → k (E). Portanto, se S : E → F é um isomorfismo, S # : k (F ) → k (E) também o é, e (S # )−1 = (S −1V)# . Considere agora V T : E → E, sendo dim(E) = n. Como dim ( n (E)) = 1, segue V n que T # : (E) → n (E) é meramente uma V multiplicação por um escalar, ou seja, existe λ tal que T # f = λf para todo f ∈ n (E). Definição 1.11.1. Seja E um espaço vetorial sobre Γ, com dim(E) = n, e T : E → E linear. Definimos det(T ) o determinante de T por onde λ é tal que T # f = λf , T # det(T ) = λ, V V : n (E) → n (E). Proposição 1.11.2. Seja E um espaço vetorial sobre Γ, com dim(E) = n, e S, T : E → E lineares. O determinante det(T ) satisfaz: (1) Se T = id : E → E, então det(T ) = 1, (2) det(S ◦ T ) = det(S) det(T ), (3) det(T ) 6= 0 se, e somente se, T é invertı́vel. Demonstração: O item (1) segue pois (id)# = id. Para mostrar (2), seja f ∈ V n (E). Temos (S ◦ T )# f = T # ◦ (S # f ) = T # (det(S)f ) = det(T ) det(S)f, logo det(S ◦ T ) = det(S) det(T ). Daı́ segue que, se T é invertı́vel, 1 = det(id) = det(T ◦ T −1 ) = det(T ) det(T −1 ), 28 que implica det(T ) 6= 0 e que det(T −1 ) = det(T )−1 . Reciprocamente, se det(T ) = 6 V 0, tomando (e1 , . . . , en ) uma base ordenada de E e f = eJ ∈ n (E), com J = (1, . . . , n), temos f (e1 , . . . , en ) = 1. Por definição, f (T e1 , . . . , T en ) = det(T ). Como det(T ) 6= 0, pela Proposição 1.9.4, T e1 , . . . , T en são linearmente independentes e, portanto, constituem uma base de E. Assim T leva base de E em base de E e é, então, invertı́vel. Definição 1.11.3. Seja α = (αji ), i, j = 1, . . . , n, αji ∈ Γ uma matriz quadrada. Definiremos o determinante de α por det(α) = det(α̃), onde α̃ej = n X αji ei , i=1 com j = 1, . . . , n. Ou seja, det(α) é o determinante da transformação linear α̃ : Γn → Γn cuja matriz em relação à base canônica (e1 , . . . , en ) de Γn é α. Proposição 1.11.4. Seja Mn×n = Γn × · · · × Γn o espaço vetorial das matrizes n × n com entradas em Γ. O determinante é o único n-tensor alternado det : Mn×n → Γ dos vetores coluna de uma matriz que assume o valor 1 na matriz identidade. V Demonstração: Seja f0 ∈ n (Γn ) o único n-tensor alternado tal que f0 (e1 , . . . , en ) = 1, sendo (e1 , . . . , en ) a base canônica de Γn . Então, dada qualquer matriz α = (αji ) ∈ Mn×n , cujos vetores coluna são α1 , . . . , αn , onde cada αj = (αj1 , . . . , αjn ). Temos α1 = α̃e1 , . . . , αn = α̃en , e, então det(α) = det(α̃) = det(α̃)f0 (e1 , . . . , en ) = f0 (α̃e1 , . . . , α̃en ) = f0 (α1 , . . . , αn ). Temos então que det(α) é uma aplicação n-linear alternada das colunas de α, que assume o valor 1 na matriz cujas colunas são e1 , . . . , en , ou seja, na matriz identidade. A unicidade segue da unicidade de f0 . Lema 1.11.5. Seja E uma espaço vetorial de dimensão finita e T : E → E linear. Para qualquer matriz α que represente T relativamente a uma base qualquer de E, vale det(T ) = det(α) V Corolário 1.11.6. Seja dim(E) = n. Dados f ∈ n (E), α = (αji ) ∈ Mn×n e (e1 , . . . , en ) uma base de E. Tem-se ! n n X X f α1i ei , . . . , αni en = det(α)f (e1 , . . . , en ). i=1 i=1 29 Demonstração: P De fato, α é a matriz, relativa à base (e1 , . . . , en ), de T : E → E tal que T ej = i αji ei , j = 1, . . . , n. Logo det(α) = det(T ). Definição 1.11.7. Seja E um espaço vetorial com dim(E) = n e (e1 , . . . , en ) uma base de E. Dados u1 , . . . , un ∈ E definimos o determinante de u1 , . . . , un em relação a (e1 , . . . , en ) como o determinante P da matriz α = (αji ) das coordenadas de u1 , . . . , un na base (e1 , . . . , en ) (ou seja, uj = αji ei ), denotado por det [u1 , . . . , un ]. (e1 ,...,en ) Se E = Γn e a base (e1 , . . . , en ) é a base canônica, denotamos simplesmente det[u1 , . . . , un ], que se torna o determinante da matriz cujos vetores coluna são u1 , . . . , u n ∈ Γ n . Pelo Corolário 1.11.6 acima, dada (e1 , . . . , en ) base de E e u1 , . . . , un ∈ E, sendo J = (1, . . . , n), temos det [u1 , . . . , un ] = eJ (u1 , . . . , un ), (e1 ,...,en ) onde eJ é como em 1.3. Sejam, agora, α1 , . . . , αn os vetores coluna de α = (αji ) ∈ Mn×n . Temos α1 = (α11 , . . . , α1n ), . . . , αn = (αn1 , . . . , αnn ). V Seja f0 ∈ n (Γn ) o único n-tensor alternado tal que f0 (e1 , . . . , en ) = 1, sendo (e1 , . . . , en ) a base canônica de Γn . Vimos que det(α) = f0 (α1 , . . . , αn ). Temos também que f0 = k! alt(e1 , . . . , en ). Portanto, X sig(σ)eσ(1) ⊗ · · · ⊗ eσ(n) . f0 = σ∈Sk Segue, então, que det(α) = X σ(1) sig(σ)α1 . . . αnσ(n) , σ∈Sk que é uma das expressões geralmente usadas como definição do determinante de uma matriz. 30 Capı́tulo 2 Análise em Variedades Neste capı́tulo introduzimos as variedades, que são uma generalização das superfı́cies. Damos uma breve introdução às variedades topológicas e depois focamos nas variedades suaves. No decorrer do capı́tulo fazemos um breve estudo sobre a diferenciabilidade de funções entre variedades suaves e apresentamos o ferramental da teoria, como vetores tangentes, partições da unidade e orientações. Mais à frente é feita a introdução das formas diferenciais e, por fim, a teoria de integração em variedades. O Teorema de Stokes fecha o capı́tulo. 2.1 Variedades Topológicas Aqui definiremos a noção de variedade topológica, caso geral do objeto que será nosso ambiente nas próximas seções, as variedades diferenciáveis. Definição 2.1.1. Uma variedade parametrizada de dimensão n sem bordo é uma trie um homeomorfismo, pla (M, τ, ϕ) onde (M, τ ) é um espaço topológico e ϕ : M → U e ⊂ Rn . denominado parametrização de M , entre M e um aberto U Definição 2.1.2. Seja (M, τ ) um espaço topológico. Um atlas de dimensão n sobre M é uma famı́lia A de homeomorfismos (denominados parametrizações) ϕλ : Uλ ∈ eλ ⊂ Rn , λ ∈ Γ, com U eλ abertos, onde τ →U [ M= Uλ . λ∈Γ Dizemos que o atlas A é compatı́vel se, ∀ λ, µ ∈ Γ verificando Uλµ = Uλ ∩ Uµ 6= ∅, a função (denominada mudança de carta) ϕλµ = ϕµ ◦ ϕ−1 λ : ϕλ (Uλµ ) → ϕµ (Uλµ ) for um homeomorfismo. Definição 2.1.3. Uma variedade topológica de dimensão n sem bordo é uma tripla (M, τ, A) onde (M, τ ) é um espaço topológico de Hausdorff com base enumerável e A é um atlas compatı́vel de dimensão n sobre M . 31 ' n Figura 2.1: Uma carta de coordenadas. Quando não houver ambiguidade, escreveremos apenas “M uma variedade topológica de dimensão n”, ao invés de (M, τ, A). Definição 2.1.4. Dada uma variedade topológica (M, τ, A) de dimensão n, uma e é um homeomorfismo de A, é dupla (U, ϕ), onde U é um aberto de M e ϕ : U → U chamada de carta de coordenadas (Figura 2.1). Chamamos, ainda, ϕ (ou o conjunto (xi ), onde ϕ(p) = (x1 (p), . . . , xn (p)), p ∈ M ) de função(ões) de coordenadas em U , ou simplesmente coordenadas em U . Pela definição de variedade, todo ponto p de uma variedade topológica M de dimensão n está contido no domı́nio de alguma carta (U, ϕ) do atlas A de M . Quando ϕ(p) = 0 dizemos que ϕ é centrada em p. Exemplo 2.1.5. O espaço Rn com a topologia induzida pela métrica euclideana é uma variedade de dimensão n pois, de fato, é um espaço topológico de Hausdorff, por ser um espaço métrico, e o conjunto de todas as bolas abertas de centro e raio racionais constituem uma base enumerável. Exemplo 2.1.6. Seja U ⊂ Rn aberto e F : U → Rk uma função contı́nua. Consideremos o gráfico de F , o subconjunto de Rn × Rk graf(F ) = {(x, y) ∈ Rn × Rk | x ∈ U e y = F (x)} com a topologia induzida. Seja π1 : Rn × Rk → Rn , π(x, y) = x e φF : graf(F ) → U a restrição de π1 a graf(F ). Como φF é a restrição de uma função contı́nua, φF é contı́nua. Além disso φF é um homeomorfismo pois possui inversa contı́nua φ−1 F (x) = (x, F (x)). Portanto graf(F ) é uma variedade topológica de dimensão n. Exemplo 2.1.7. Seja Sn = {x ∈ Rn+1 | kxk = 1} a n-esfera munida com a topologia induzida de Rn+1 (portanto Hausdorff e de base enumerável). Sejam Ui+ = {(x1 , . . . , xn+1 ) ∈ Sn | xi > 0}, 32 Ui− = {(x1 , . . . , xn+1 ) ∈ Sn | xi < 0}, onde i = 1, . . . , n + 1. Tome B n (0, 1) a bola aberta de centro 0 e raio 1 em Rn e f : B n (0, 1) → R a função p f (u) = 1 − kuk2 . Então, para cada i, Ui+ ∩ Sn é o gráfico da função xi = f (x1 , . . . , xbi , . . . , xn+1 ), onde xbi indica que xi é omitido. Analogamente, Ui− ∩ Sn é o gráfico da função xi = −f (x1 , . . . , xbi , . . . , xn+1 ). ± n Logo, sendo φ± i : Ui → B (0, 1) dada por φ± bi , . . . , xn+1 ), i (x1 , . . . , xn+1 ) = (x1 , . . . , x temos que cada (Ui± , φi ) é uma carta de coordenadas de Sn . Como cada ponto de Sn está no domı́nio de pelo menos uma dessas 2n + 2 cartas, Sn é uma variedade topológica de dimensão n. Exemplo 2.1.8. Sejam M1 , . . . , Mk variedades topológicas de dimensão n1 , . . . , nk respectivamente. O produto M1 × · · · × Mk é um espaço de Hausdorff e de base enumerável (Lema A.2.10). Dado qualquer ponto (p1 , . . . , pk ) ∈ M1 × · · · × Mk podemos escolher uma carta (Ui , ϕi ) para cada Mi com pi ∈ Ui . A função ϕ1 × · · · × ϕk : U1 × · · · × Uk → Rn1 +···+nk é um homeomorfismo sobre o aberto im(ϕ1 × · · · × ϕk ) ⊂ Rn1 +···+nk . Assim, M1 × · · · × Mk é uma variedade topológica de dimensão n1 + · · · + nk com cartas da forma (U1 × · · · × Uk , ϕ1 × · · · × ϕk ). Exemplo 2.1.9. Para qualquer n ∈ N, n 6= 0, o n-torus é o espaço produto Tn = S1 × · · · × S1 . Pelo exemplo acima, Tn é uma variedade topológica de dimensão n. Proposição 2.1.10. Seja M uma variedade topológica. Então: (1) M é localmente conexa por caminhos, (2) M é conexa se, e somente se, é conexa por caminhos, (3) As componentes conexas e conexas por caminhos de M são as mesmas, (4) M tem no máximo uma quantidade enumerável de componentes conexas, e cada uma destas é um aberto de M e também uma variedade topológica conexa. 33 ¸ ¹ '¸ '¹ '¸{1 ± '¹ n n ¹ ¸ Figura 2.2: Uma mudança de carta. 2.2 Variedades Diferenciáveis Definição 2.2.1. Seja (M, τ ) um espaço topológico. Um atlas diferenciável (de classe C k ou de classe C ∞ ) de dimensão n sobre M é uma famı́lia A de homeomoreλ ⊂ Rn , λ ∈ Γ, com U eλ fismos (denominados parametrizações) ϕλ : Uλ ∈ τ → U abertos, onde S (1) M = λ∈Γ Uλ , (2) ∀ λ, µ ∈ Γ verificando Uλµ = Uλ ∩ Uµ 6= ∅, a mudança de carta (Figura 2.2) ϕλµ = ϕµ ◦ ϕ−1 λ : ϕλ (Uλµ ) → ϕµ (Uλµ ) é um difeomorfismo (de classe C k ou de classe C ∞ ). Neste caso dizemos que as cartas (Uλ , ϕλ ) e (Uµ , ϕµ ) são compatı́veis. Um atlas diferenciável A em uma variedade M é maximal quando toda carta (U, ϕ) compatı́vel com todas as cartas pertencentes a A também pertence a A. Quando um atlas diferenciável A sobre M é de classe C ∞ , também chamamos A de atlas suave. Definição 2.2.2. Uma variedade diferenciável (de classe C k ou de classe C ∞ ) de dimensão n sem bordo é uma tripla (M, τ, A), onde (M, τ ) é um espaço topológico de Hausdorff com base enumerável e A é um atlas diferenciável (de classe C k ou de classe C ∞ ) maximal de dimensão n sobre M . 34 Chamaremos uma variedade sem bordo M munida com um atlas suave A, de variedade suave. Um atlas suave maximal em uma variedade topológica M de dimensão n é também chamado de estrutura suave em M . Proposição 2.2.3. Seja (M, τ ) uma variedade topológica e A um atlas suave sobre M . Existe um único atlas suave maximal sobre M que contém A. Demonstração: Seja A um atlas suave sobre M e A o conjunto de todas as cartas compatı́veis com qualquer carta em A. Precisamos mostrar que quaisquer duas cartas de A são compatı́veis entre si, ou seja, ∀ (U, ϕ), (V, ψ) ∈ A, a função ψ ◦ ϕ−1 : ϕ(U ∩ V ) → ψ(U ∩ V ) é um difeomorfismo de classe C ∞ . Seja x = ϕ(p) ∈ ϕ(U ∩ V ). Como os domı́nios das cartas de A cobrem M , existe alguma carta (W, θ) ∈ A tal que p ∈ W . Como toda carta em A é compatı́vel com (W, θ), temos que θ ◦ ϕ−1 e ψ ◦ θ−1 são difeomorfismos de classe C ∞ em seus respectivos domı́nios. Como p ∈ U ∩ V ∩ W , a função ψ ◦ ϕ−1 = (ψ ◦ θ−1 ) ◦ (θ ◦ ϕ−1 ) é difeomorfismo C ∞ em uma vizinhança de x. Logo ψ ◦ ϕ−1 é difeomorfismo C ∞ em uma vizinhança de cada ponto de ϕ(U ∩ V ). Portanto A é um atlas suave. Para mostrar que A é maximal, basta notar que uma carta compatı́vel com qualquer carta de A é, em particular, compatı́vel com qualquer carta de A e, portanto, por definição pertence a A. Se B é um atlas maximal qualquer contendo A, toda carta de B é compatı́vel com qualquer carta de A, portanto, B ⊂ A. E, como B é maximal, B = A. Definição 2.2.4. Dada uma carta (U, ϕ) de M uma variedade suave sem bordo, dizemos que U é uma bola de coordenadas se ϕ(U ) = Bρ (x) ⊂ Rn . Exemplo 2.2.5. Seja (M, τ ) um espaço topológico, com M um conjunto discreto. Para cada ponto de p ∈ M , ϕp : {p} → R0 determina um homeomorfismo, e o conjunto A = {({p}, ϕp ) | p ∈ M } satisfaz trivialmente a condição de compatibilidade. Assim, (M, τ, A) é uma variedade suave sem bordo. Exemplo 2.2.6. O conjunto Rn é uma variedade suave sem bordo quando munido com o atlas A = {(Rn , IRn )}, onde IRn é a função identidade em Rn . Note que, se uma variedade topológica M pode ser coberta por uma única carta, a condição de compatibilidade fica satisfeita trivialmente, portanto qualquer carta deste tipo determina uma estrutura suave em M . Exemplo 2.2.7. Seja E um espaço vetorial de dimensão finita n. Qualquer norma em E determina uma topologia. Com esta topologia, E admite uma estrutura suave como segue. Qualquer base ordenada (e1 , . . . , en ) de E define um isomorfismo e : Rn → E, e(x) = n X xi ei . i=1 Esta função é um homeomorfismo, portanto o atlas A = {(E, e−1 )} define uma estrutura suave. Precisamos mostrar que esta estrutura suave é independente P da escolha da base. De fato, seja (ẽ1 , . . . ẽn ) qualquer outra base e ẽ(x) = j xj ẽj 35 P j j o isomorfismo correspondente. Então ei = j Ai ẽj para cada i, e [Ai ] é uma matriz invertı́vel. A mudança entre duas cartas é dada por (ẽ−1 ◦ e)(x) = x̃ onde x̃ = (x̃1 , . . . , x̃n ) é determinado por n X j=1 x̃j ẽj = n X xi ei = i=1 n X xi Aji ẽj , i,j=1 j e segue que x̃j = i Ai xi . Logo, a função x 7→ x̃ é uma transformação linear invertı́vel e, portanto, um difeomorfismo de classe C ∞ . Assim as cartas são compatı́veis e concluı́mos que todas as bases determinam o mesmo atlas suave. P Exemplo 2.2.8. Seja Mm×n (R) o espaço das matrizes m × n com entradas reais. Com as operações usuais, Mm×n (R) é um espaço vetorial de dimensão mn e, pelo exemplo acima, uma variedade suave de dimensão mn sem bordo. Analogamente, Mm×n (C) é um espaço vetorial de dimensão 2mn sobre R, logo, uma variedade suave de dimensão 2mn sem bordo. Exemplo 2.2.9. Sejam M1 , . . . , Mk variedades suaves de dimensão n1 , . . . , nk respectivamente. Já vimos que M1 × · · · × Mk é uma variedade topológica de dimensão n1 + · · · + nk , com cartas da forma (U1 × · · · × Uk , ϕ1 × · · · × ϕk ) (Exemplo 2.1.8). Quaisquer duas dessas cartas são compatı́veis pois −1 (ψ1 × · · · × ψk ) ◦ (ϕ1 × · · · × ϕk )−1 = (ψ1 ◦ ϕ−1 1 ) × · · · × (ψk ◦ ϕk ) é um difeomorfismo de classe C k . Isso define uma estrutura natural de variedade suave em M1 × · · · × Mk . Lema 2.2.10. Seja M um conjunto, {Uα } uma coleção de subconjuntos de M e ϕα : Uα → Rn uma coleção de funções injetoras tais que: (1) Para cada α, ϕα (Uα ) é um aberto de Rn , (2) Para cada α e β, ϕα (Uα ∩ Uβ ) e ϕβ (Uα ∩ Uβ ) são abertos de Rn , (3) Se Uα ∩ Uβ 6= ∅, ϕα ◦ ϕ−1 β : ϕβ (Uα ∩ Uβ ) → ϕα (Uα ∩ Uβ ) é um difeomorfismo, (4) Existe uma subcobertura enumerável Uαi de M , (5) Se p e q são pontos distintos de M , então existe Uα tal que p, q ∈ Uα , ou existem Uα , Uβ disjuntos tais que p ∈ Uα e q ∈ Uβ . Então M admite uma única estrutura de variedade suave sem bordo tal que cada (Uα , ϕα ) é uma carta. Em muitas aplicações de variedades, especialmente as que envolvem integração, lidaremos com espaços que seriam variedades suaves, não fosse por uma espécie de borda. Para formalizarmos tais espaços precisamos generalizar nossa definição de variedade. Quando definimos um atlas sobre um espaço topológico, os homeomorfismos do atlas tinham como domı́nio os abertos de Rn . Agora esses homeomorfismos terão como domı́nio os abertos (com a topologia induzida de Rn ) do conjunto Hn = {(x1 , . . . , xn ) ∈ Rn | xn ≥ 0}. 36 Figura 2.3: Uma variedade com bordo. Definição 2.2.11. Uma variedade diferenciável (de classe C k ou de classe C ∞ ) de dimensão n com bordo é uma tripla (M, τ, A), onde (M, τ ) é um espaço topológico de Hausdorff com base enumerável e A é um atlas diferenciável (de classe C k ou de classe C ∞ ) maximal de dimensão n sobre M tal que as parametrizações ϕλ : Uλ ∈ eλ ⊂ Hn , λ ∈ Γ, U eλ abertos, verificam τ →U S (1) M = λ∈Γ Uλ , (2) ∀ λ, µ ∈ Γ verificando Uλµ = Uλ ∩ Uµ 6= ∅ a função (denominada mudança de carta) ϕλµ = ϕµ ◦ ϕ−1 λ : ϕλ (Uλµ ) → ϕµ (Uλµ ) é um difeomorfismo (de classe C k ou de classe C ∞ ), (3) ∀ λ, µ ∈ Γ verificando Uλµ = Uλ ∩ Uµ 6= ∅, a mudança de carta ϕλµ = ϕµ ◦ ϕ−1 λ : ϕλ (Uλµ ) → ϕµ (Uλµ ) deve verificar ϕλµ (∂(ϕλ (Uλµ ))) = ∂ (ϕµ (Uλµ )) , onde ∂(ϕλ (Uλµ )) = ϕλ (Uλµ ) ∩ ∂(Hn ), ∂(ϕµ (Uλµ )) = ϕµ (Uλµ ) ∩ ∂(Hn ), sendo ∂(Hn ) = {(x1 , . . . , xn ) ∈ Rn | xn = 0}. Definimos ainda o bordo e o interior de (M, τ, A) respectivamente por [ e ∂M = ϕ−1 int M = M \ ∂M, λ (∂ Uλ ), λ∈Γ eλ = U eλ ∩ ∂(Hn ). onde ∂ U Note que decorre diretamente desta definição que o interior de uma variedade diferenciável de dimensão n com bordo é uma variedade diferenciável de dimensão n sem bordo. Além disso, se o bordo ∂M de uma variedade diferenciável de dimensão n com bordo, é, desde que ∂M 6= ∅, uma variedade diferenciável de dimensão n − 1 sem bordo. Chamaremos uma variedade diferenciável com bordo M munida de um atlas suave de variedade suave com bordo. 37 2.3 Funções Diferenciáveis Nesta seção trabalharemos essencialmente com funções entre variedades suaves sem bordo. Tal escolha se justifica pela maior simplicidade nas demonstrações. O caso das funções entre variedades com bordo não é, no entanto, de maior complicação, exigindo apenas que trabalhemos com a noção de extensão de uma função, como indicaremos mais à frente. Definição 2.3.1. Sejam (M, τ, A) e (N, τ 0 , A0 ) duas variedades suaves sem bordo e f : M → N uma função. Se (U, ϕ) ∈ A e (V, ψ) ∈ A0 são cartas de M e N respectivamente, tais que f (U ) ⊂ V , então a função e → Ve fϕψ = ψ ◦ f ◦ ϕ−1 : U é dita uma representação local de f . Definição 2.3.2. Sejam (M, τ, A) e (N, τ 0 , A0 ) duas variedades suaves sem bordo e f : M → N uma função. Dizemos que f é diferenciável (de classe C k ou de classe C ∞ ) em p ∈ M se existem cartas (U, ϕ) ∈ A e (V, ψ) ∈ A0 tais que (1) p ∈ U , (2) f (U ) ⊂ V , e. (3) fϕψ é diferenciável (de classe C k ou de classe C ∞ ) em ϕ(p) ∈ U Dizemos que f é diferenciável em M se f é diferenciável em todo ponto p ∈ M . Quando uma função f é diferenciável de classe C ∞ dizemos que f é uma função suave. Proposição 2.3.3. Sejam M e N duas variedades suaves sem bordo e f : M → N uma função suave. Então f é contı́nua. Demonstração: Como f é suave, para cada p ∈ M podemos tomar (U, ϕ) e (V, ψ) tais que p ∈ U , f (p) ∈ V , f (U ) ⊂ V e fϕψ : ϕ(U ) → ψ(V ) é suave e, portanto, contı́nua. Como ϕ e ψ são homeomorfismos, temos que f |U = ψ −1 ◦ (ψ ◦ f ◦ ϕ−1 ) ◦ ϕ : U → V, é composição de funções contı́nuas e, portanto, contı́nua. Como f é contı́nua em cada p, f é contı́nua em M . Proposição 2.3.4. Sejam (M, τ, {(Uα , ϕα )}) e (N, τ 0 , {(Vβ , ψβ )}) duas variedades suaves sem bordo e f : M → N uma função contı́nua. Se, para cada α e β, eα → Veβ é suave em seu domı́nio, então f é suave. fϕα ψβ : U Demonstração: Seja p ∈ M e (Uα , ϕα ), (Vβ , ψβ ) tais que p ∈ Uα e f (p) ∈ Vβ . Pela continuidade de f , o conjunto U = f −1 (Vβ ) ∩ Uα é um aberto de M , e f (U ) ⊂ Vβ . Logo, as cartas (U, ϕα |U ) e (Vβ , ψβ ) satisfazem as condições da Definição 2.3.2. Como fϕα ψβ é de classe C ∞ , f é suave. 38 Proposição 2.3.5. Sejam M , N e P variedades suaves sem bordo, f : M → N e g : N → P funções suaves. Então a função g ◦ f : M → P é suave. Demonstração: Como g é suave, existem cartas (V, θ) e (W, ψ) tais que f (p) ∈ V , g(f (p)) ∈ W , g(V ) ⊂ W e ψ ◦ g ◦ θ−1 ; θ(V ) → ψ(W ) é suave. Como f é contı́nua, f −1 (V ) é uma vizinhança aberta de p em M , logo existe uma carta (U, ϕ) tal que p ∈ U ⊂ f −1 (V ) e temos θ ◦ f ◦ ϕ−1 : ϕ(U ) → θ(V ) suave. Temos então que g◦f (U ) ⊂ g(V ) ⊂ W e ψ◦(g◦f )◦ϕ−1 = (ψ◦g◦θ−1 )◦(θ◦f ◦ϕ−1 ) : ϕ(U ) → ψ(W ) é suave por ser uma composição de funções suaves entre abertos de espaços métricos. Definição 2.3.6. Um difeomorfismo entre duas variedades suaves M , N é uma bijeção suave f : M → N tal que f −1 : N → M é suave. Quando existe um tal difeomorfismo, dizemos que M e N são difeomorfas. 2.4 Partições da Unidade As partições da unidade, que introduzimos agora, são ferramentas para, intuitivamente, “colar” objetos suaves locais formando objetos suaves globais. Lema 2.4.1. A função f : R → R dada por −1 e t se t > 0, f= 0 se t ≤ 0 é suave. Lema 2.4.2. Existe uma função g : R → R suave tal que se t ≤ 1, g(t) = 1 0 < g(t) < 1 se 1 < t < 2, g(t) = 0 se t ≥ 2. Demonstração: Uma função g satisfazendo as condições acima é g(t) = f (2 − t) , f (2 − t) + f (t − 1) onde f é como no Lema 2.4.1. Definição 2.4.3. Seja X um espaço topológico e f : X → R contı́nua. Definimos o suporte de f por supp(f ) = {x ∈ X | f (x) 6= 0}. Lema 2.4.4. Existe uma função h : Rn → R suave tal que 0 ≤ h(t) ≤ 1 para todo t, h(t) = 1 se t ∈ B1 [0] e supp(h) = B2 [0]. 39 Demonstração: Uma função h satisfazendo as condições acima é h(t) = g(ktk), onde g é como no Lema 2.4.2 e v u n uX t2 . ktk = t i i=1 Uma função h satisfazendo o Lema 2.4.4 é chamada de função teste suave. Mostraremos a seguir que toda variedade é paracompacta. Para tal, usaremos o seguinte lema: Lema 2.4.5. Toda variedade topológica M admite uma cobertura por pré-compactos abertos enumerável localmente finita. Definição 2.4.6. Seja M uma variedade suave com bordo. Dizemos que uma cobertura aberta {Wi } de M é regular se satisfaz as seguintes condições: (1) {Wi } é enumerável e localmente finita, (2) Cada Wi é domı́nio de uma função de coordenadas ϕi : M → Rn tal que ϕi (Wi ) = B3 (0) ⊂ Rn , (3) A coleção {Ui } cobre M , onde Ui = ϕ−1 i (B1 (0)). Proposição 2.4.7. Seja M uma variedade suave com bordo. Toda cobertura aberta de M admite um refinamento regular. Em particular, M é paracompacta. Demonstração: Seja X uma cobertura aberta qualquer de M e {Vj } uma cobertura enumerável localmente finita por abertos pré-compactos de M . Para cada p ∈ M , seja Wp uma vizinhança de p que intersecta apenas uma quantidade finita de elementos de {Vj }. Seja Ẇp = {Wp ∩ Vk | p ∈ Vk }. Então se p ∈ Vk , temos Ẇp ⊂ Vk . Como X uma cobertura aberta, p ∈ X para algum X ∈ X . Tomando Ẅp = Ẇp ∩ X, temos Ẅp contido em algum elemento de X . Podemos ainda restringir Ẅp para que este seja uma bola de coordenadas e escolher ϕp tal que ϕp (Ẅp ) = B3 (0) com ϕp (p) = 0. Seja Up = ϕ−1 p (B1 (0)). Para cada k, a coleção {Up | p ∈ Vk } é uma cobertura aberta de Vk . Por compacidade, Vk é coberto por uma quantidade finita desses aberk tos, digamos, Uk1 , . . . , Ukmk . Sejam (Wk1 , ϕ1k ), . . . , (Wkmk , ϕm k ) as respectivas cartas. i Variando k e i, temos que a coleção {Wk } é uma cobertura aberta enumerável deM que refina X e satisfaz (2) e (3) na definição de cobertura regular. Resta mostrar que {Wki } é localmente finita. Dado k, por construção, Wk ⊂ Vj para algum j satisfazendo Vk ∩ Vj 6= ∅. O compacto Vk é coberto por uma coleção finita {Vj }, e cada Vj fixo intersecta no máximo um número finito de elementos de {Vj }. Segue então que há apenas uma 0 quantidade finita de valores de k para os quais Wki ∩ Wki0 6= ∅. Como há apenas uma 0 quantidade finita de Wki0 para cada k 0 , {Wki } é localmente finita. 40 Definição 2.4.8. Seja M um espaço topológico e X = {Xα }α∈A uma cobertura aberta de M . Uma partição da unidade com relação à X é uma coleção de funções contı́nuas {ψα : M → R}α∈A tais que, para todo α ∈ A, (1) 0 ≤ ψα (x) ≤ 1 para todo x ∈ M , (2) supp(ψα ) ⊂ Xα , (3) {supp(ψα )}α∈A é localmente finito, P (4) α∈A ψα (x) = 1 para todo x ∈ M . Se cada ψi é suave, dizemos que X é uma partição suave da unidade com relação a X. Pela condição de finitude em (3), a soma em (4) tem apenas uma quantidade finita de termos não nulos na vizinhança de cada ponto, portanto não temos problemas de convergência. Teorema 2.4.9. Se M é uma variedade suave com bordo e X = {Xα }α∈A é uma cobertura aberta de M , existe uma partição suave da unidade com relação a X . Demonstração: Pela Proposição 2.4.7, seja {Wi } um refinamento regular de X . Para cada i, seja ϕi : Wi → B3 (0) a função de coordenadas, e Ui = ϕ−1 i (B1 (0)), Vi = ϕ−1 i (B2 (0)). Para cada i, defina fi : M → R por h ◦ ϕi em Wi , fi = 0 em M \ Vi , onde h é a função teste suave do Lema 2.4.4. Note que no conjunto Wi \ Vi onde a definição parece estar conflitante, h ◦ ϕi também fornece fi = 0. Portanto fi está bem definida, é suave, pois é composição de funções suaves, e supp(fi ) ⊂ Wi . Defina, agora, para cada i, gi : M → R por fi (x) . gi (x) = P j fj (x) Como a cobertura {Wi } é localmente finita, a soma no denominador tem no máximo uma quantidade finita de termos não nulos. Como fi ≡ 1 em Ui e como todo ponto x de M está em algum Ui , o denominador é sempre positivo. Então, gi é uma função suave. além disso, segue da definição que 0 ≤ gi ≤ 1 e que X gi ≡ 1. i Por {Wi } ser um refinamento de X , para cada i podemos escolher um ı́ndice a(i) ∈ A tal que Wi ⊂ Xa (i). Assim, para cada α ∈ A defina X ψα = gi . i|a(i)=α 41 Se não há indices i tais que a(i) = α, ψα deve ser tomada como a função nula. Dessa maneira cada ψα é suave e satisfaz 0 ≤ ψα ≤ 1 e supp(ψα ) ⊂ Xα . Além disso, o conjunto {supp(ψα )}α∈A ainda é localmente finito, e X X ψα ≡ gi ≡ 1. α i Então {ψα }α∈A é a partição da unidade procurada. Os resultados seguintes são aplicações de partições da unidade e constituem ferramentas que usaremos no decorrer do texto. Definição 2.4.10. Seja M uma variedade suave com bordo, A ⊂ M fechado, U ⊂ M aberto tal que A ⊂ U e ψ : M → R contı́nua. ψ é chamada de função teste para A com suporte em U se 0 ≤ φ ≤ 1 em M , ψ ≡ 1 em A e supp(ψ) ⊂ U . Proposição 2.4.11. Seja M uma variedade suave com bordo, A ⊂ M fechado e U ⊂ M aberto tal que A ⊂ U . Existe uma função teste suave para A com suporte em U . Demonstração: Sejam U0 = U e U1 = M \ A, e {ψ0 , ψ1 } uma partição suave da unidade com relação à cobertura aberta {U0 , U1 }. Como ψ1 ≡ 0 em A e, portanto, X ψ0 = ψi = 1, i a função ψ0 é a função procurada. Lema 2.4.12. Seja M uma variedade suave com bordo, A ⊂ M fechado e f : A → Rn uma função suave. Então para todo U aberto tal que A ⊂ U , existe uma função suave fe : M → Rn tal que fe|A = f e supp(fe) ⊂ U . Definição 2.4.13. Seja M um espaço topológico. Uma função contı́nua f : M → R é uma função de exaustão para M se o conjunto Mc = {p ∈ M | f (p) ≤ c} é compacto, para todo c. Por exemplo, a função f : Rn → R dada por f (x) = kxk é uma função de exaustão para Rn . Observe também que se M é compacta, qualquer função contı́nua f : M → R é uma função de exaustão para M . Proposição 2.4.14. Toda variedade suave sem bordo M admite uma função de exaustão suave. Demonstração: Seja {Vj }, j = 1, 2, . . . uma cobertura aberta enumerável de M por pré-compactos e {ψj } uma partição suave da unidade com relação a esta cobertura. Considere f : M → R dada por f (p) = ∞ X j=1 42 jψj (p). Note que f é suave, pois apenas uma quantidade finita de termos da soma é diferente de zero em uma P vizinhança de qualquer ponto p ∈ M , e que Sn f é positiva, uma vez que f (p) ≥ j ψj (p) = 1. Para qualquer n ∈ N, se p ∈ / j=1 V j , então ψ(p) = 0 para 1 ≤ j ≤ n, portanto, f (p) = ∞ X jψj (p) > j=n+1 ∞ X nψj (p) = n j=n+1 ∞ X ψj (p) = n. j=n+1 S Logo, se f (p) ≤ n, então p ∈ nj=1 V j . Segue que, para qualquer c ≤ n, Mc é um S subconjunto fechado do compacto nj=1 V j e, portanto, compacto. 2.5 Vetores Tangentes Definição 2.5.1. O espaço tangente geométrico a Rn em um ponto a é o conjunto Rna = {a} × Rn = {(a, v) | v ∈ Rn }. Um elemento de Rna é chamado de vetor tangente geométrico em a e denotado por va ou v|a . Munido com as operações naturais va + wa = (v + w)a e c(va ) = (cv)a , Rna possui estrutura de espaço vetorial sobre R. A definição acima nos permite, por exemplo, pensar no espaço tangente a Sn−1 em um ponto a ∈ Sn−1 como um subespaço de Rna . Porém, com esta definição não temos condições de definir vetores tangentes a uma variedade suave sem bordo qualquer “fora” de um ambiente euclideano. Vamos, portanto, buscar uma outra caracterização para estes vetores. Todo vetor tangente geométrico va ∈ Rna fornece uma aplicação Dv |a : C ∞ (Rn ) → R tal que d Dv |a f = Dv f (a) = f (a + tv). dt t=0 Essa aplicação é linear e satisfaz a regra do produto Dv |a (f g) = f (a)Dv |a (g) + g(a)Dv |a (f ). Se va = Pn i=1 v i ei |a , com (ei ) a base canônica, Dv |a f pode ser escrita como Dv |a f = n X i=1 vi ∂f (a). ∂xi Com esta construção em mente, fazemos a seguinte definição: Definição 2.5.2. Seja a ∈ Rn . Uma aplicação linear X : C ∞ (Rn ) → R é uma derivação em a se satisfaz a regra de produto X(gf ) = f (a)X(g) + g(a)X(f ). 43 Seja Ta (Rn ) o conjunto de todas as derivações de C ∞ (Rn ) em a. Munido das operações (X + Y )(f ) = X(f ) + Y (f ), (c · X)(f ) = c(X(f )), verifica-se que (Ta (Rn ), +, ·, R) é um espaço vetorial. Lema 2.5.3. Seja a ∈ Rn e X ∈ Ta (Rn ). (1) Se f é uma função constante, X(f ) = 0, (2) Se f (a) = g(a) = 0, então X(f g) = 0. Demonstração: É suficiente mostrar (1) para a função f1 ≡ 1, pois, se f (x) ≡ c para todo x ∈ Rn , c constante, temos X(f ) = X(cf1 ) = cX(f1 ) = 0, pela linearidade de X. Então, para f1 , pela regra do produto, X(f1 ) = X(f1 f1 ) = f1 (a)X(f1 ) + f1 (a)X(f1 ) = 2X(f1 ), que implica X(f1 ) ≡ 0. O item (2) também segue diretamente da regra do produto: X(f g) = f (a)X(g) + g(a)X(f ) = 0 + 0 = 0. Proposição 2.5.4. Seja a ∈ Rn . A aplicação va 7→ Dv |a é um isomorfismo de Rna em Ta (Rn ). Demonstração: A linearidade de va 7→ Dv |a segue diretamente da definição de Dv |a . n Para mostrar a injetividade, suponha que v |a ≡ 0 para algum va ∈ Ra . EscrePD vendo va em termos da base canônica, va = ni=1 v i ei |a , e tomando f como a função j-ésima coordenada, xj : Rn → R, obtemos n j X ∂x = vj 0 = Dv |a (xj ) = vi i ∂x i=1 x=a Como isso vale para qualquer j = 1, . . . , n, temos va = 0. P Para mostrar a sobrejetividade, seja X ∈ Ta (Rn ) qualquer. Seja v = ni=1 v i ei , onde v 1 , . . . , v n ∈ R são tais que v i = X(xi ). Vamos mostrar que X = Dv |a . Seja f ∈ C ∞ (Rn ). Pela fórmula de Taylor (Teorema A.4.11), existem g1 , . . . , gn ∈ C ∞ (Rn ) tais que gi (a) = 0 e f (x) = f (a) + n n X X ∂f i i (a)(x − a ) + gi (x)(xi − ai ). i ∂x i=1 i=1 (2.1) Note que o último termo na expressão acima é uma soma de funções onde cada termo é o produto gi (x)(xi − ai ), que é zero se x = a. Aplicando X a (2.1) e usando 44 o Lema 2.5.3 obtemos X(f ) = X(f (a)) + n X i=1 = 0+ X X n ∂f i i (a)(x − a ) + X(gi (x)(xi − ai )) i ∂x i=1 n X ∂f (a)(X(xi ) − X(ai )) + 0 i ∂x i=1 n X ∂f (a)v i = i ∂x i=1 = Dv |a (f ), e segue que X = Dv |a . Corolário 2.5.5. Para qualquer a ∈ Rn , as n derivações ∂ ∂ ,..., n , ∂x1 a ∂x a definidas por ∂f ∂ (f ) = , ∂xi a ∂xi a formam uma base para Ta (Rn ) e, portanto, dim(Ta (Rn )) = n. Demonstração: Segue diretamente da proposição anterior, basta notar que ∂ = Dei |a . ∂xi a O breve estudo de Ta (Rn ) acima nos indica como definir vetores tangentes a uma variedade: Definição 2.5.6. Seja M uma variedade suave sem bordo e p ∈ M . Uma aplicação linear X : C ∞ (M ) → R é uma derivação em p se satisfaz X(f g) = f (p)X(g) + g(p)X(f ), para quaisquer f, g ∈ C ∞ (M ). O espaço vetorial Tp M de todas as derivações de C ∞ (M ) em p é dito espaço tangente a M em p e um elemento de Tp M é chamado de vetor tangente em p. O resultado a seguir é o análogo do Lema 2.5.3 para vetores tangentes a uma variedade. Sua demonstração é idêntica à do Lema 2.5.3, bastando trocar Ta (Rn ) por Tp M . Proposição 2.5.7. Sejam M uma variedade suave sem bordo, p ∈ M e X ∈ Tp M . (1) Se f é uma função constante, X(f ) = 0, (2) Se f (p) = g(p) = 0, então X(f g) = 0. 45 Definição 2.5.8. Sejam M e N variedades suaves sem bordo e F : M → N uma função suave. Para cada p ∈ M definimos uma função F∗ : Tp M → TF (p) N , chamada de pushforward de F , por (F∗ (X))(f ) = X(f ◦ F ), onde f ∈ C ∞ (N ). O operador (F∗ (X)) claramente é linear (X é linear) e é uma derivação em F (p) pois (F∗ (X))(f g) = = = = X(f g ◦ F ) X((f ◦ F )(g ◦ F )) f ◦ F (p)X(g ◦ F ) + g ◦ F (p)X(f ◦ F ) f (F (p))(F∗ (X))(g) + g(F (p))(F∗ (X))(f ). Proposição 2.5.9. Sejam M , N e P variedades suaves sem bordo, f : M → N e g : N → P funções suaves e p ∈ M . Então: (1) f∗ : Tp M → Tf (p) N é linear, (2) (g ◦ f )∗ = g∗ ◦ f∗ : Tp M → Tg◦f (p) P , (3) (idM )∗ = idTp M : Tp M → Tp M , (4) Se f é um difeomorfismo, f∗ : Tp M → Tf (p) N é um isomorfismo. A proposição a seguir nos mostra que o espaço tangente é uma construção local, apesar de ser definido em termos de toda a variedade. Proposição 2.5.10. Seja M uma variedade suave sem bordo, p ∈ M e X ∈ Tp M . Se f e g são funções em M tais que f (x) = g(x) para todo x em uma vizinhança de p, então X(f ) = X(g). Demonstração: Seja h = f − g. Por linearidade, basta mostrar que X(h) = 0 se h(x) = 0 para todo x em uma vizinhança de p. Tome φ ∈ C ∞ (M ) uma função teste suave tal que φ(x) = 1 para todo x ∈ supp(h) e que supp(φ) = M \ {p}. Como φ ≡ 1 onde h não zera, φh ≡ h. Como φ(p) = h(p) = 0, pela Proposição 2.5.7, X(h) = X(φh) = 0. Proposição 2.5.11. Seja M uma variedade suave sem bordo, U ⊂ M aberto e i : U → M a inclusão canônica. Para todo p ∈ U , i∗ : Tp U → Tp M é um isomorfismo. Demonstração: Seja B uma vizinhança de p tal que B ⊂ U . Suponha que X ∈ Tp U e que i∗ (X) = 0 ∈ Tp M . Se f ∈ C ∞ (B), o Lema 2.4.12 garante que existe fe ∈ C ∞ (M ) tal que f ≡ fe em B. Pela Proposição 2.5.10, X(f ) = X(fe|U ) = X(fe ◦ i) = (i∗ X)(fe) = 0. Como f é arbitrária, segue que X = 0 e então i∗ é injetora. 46 Por outro lado, seja Y ∈ Tp M arbitrário. Defina X : C ∞ (U ) → R por X(f ) = Y (fe), onde fe é qualquer função em M tal que fe = f em B. Pela Proposição 2.5.10 X(f ) independe da escolha de fe, portanto X está bem definido e é uma derivação em p (pois Y é derivação). Para qualquer g ∈ C ∞ (M ), (i∗ X)(g) = X(g ◦ i) = Y (gg ◦ i) = Y (g), pois g ◦ i(x) = gg ◦ i(x) = g(x), para todo x ∈ B. Portanto, i∗ é sobrejetora. Seja (U, ϕ) uma carta de M . Note que ϕ é, em particular, um difeomorfismo e ⊂ Rn . Combinando as Proposições 2.5.9 e 2.5.11 temos que de U em um aberto U ϕ∗ : Tp M → Tφ(p) Rn é um isomorfismo. Pelo Corolário 2.5.5, as derivações ∂ , ∂xi ϕ(p) onde i = 1, . . . , n, formam uma base de Tφ(p) Rn . Portanto, o pushforward desses vetores por (ϕ−1 )∗ formam uma base de Tp M . Usaremos a seguinte notação para esses pushforwards: ! ∂ ∂ −1 = (ϕ )∗ . ∂xi p ∂xi ϕ(p) Temos que ∂ ∂ ∂f ◦ ϕ−1 −1 (f ) = (f ◦ ϕ ) = (ϕ(p)), ∂xi p ∂xi ϕ(p) ∂xi ou seja, ∂/∂xi |p é a derivação que dá a i-ésima derivada parcial da representação em coordenadas de f na representação em coordenadas de p. A proposição a seguir sumariza o que discutimos acima. Proposição 2.5.12. Seja M uma variedade suave de dimensão n sem bordo. Para todo p ∈ M , Tp M é um espaço vetorial de dimensão n. Se (U, (xi )) é uma carta contendo p, os vetores ∂ ∂ ,..., n ∂x1 p ∂x p formam uma base de Tp M . Portanto, qualquer vetor X ∈ Tp M escreve-se unicamente como n X i ∂ X= X . i ∂x p i=1 Os números X i são chamados de componentes de X. Dado X, suas componentes podem ser calculadas pela ação de X sobre as funções π j : Tp U → R, como segue: ! n n j X X ∂ i ∂π (π j ) = X (p) = X j , X(π j ) = Xi i ∂x ∂x i p i=1 i=1 47 ∂π j = δij . ∂xi Exploraremos agora como o pushforward se expressa em coordenadas. Consideremos primeiramente o caso particular de uma função suave f : U ⊂ Rn → V ⊂ Rm , U e V abertos. Se (xi ) denotam as coordenadas no domı́nio e (y j ) as na imagem, usamos a regra da cadeia (Proposição A.4.10) para computar a ação de f∗ em um vetor da base como segue: ! m X ∂ ∂g ∂f j ∂ g = (g ◦ f ) = (f (p)) i (p) f∗ ∂xi p ∂xi p ∂y j ∂x j=1 ! ∂f j ∂ = (p) j g, ∂xi ∂y f (p) sendo que a última igualdade segue pois portanto ∂ ∂f j ∂ f∗ = (p) j . ∂xi p ∂xi ∂y f (p) Em outras palavras, a matriz de f∗ ∂f 1 ∂x1 . .. ∂f m ∂x1 (2.2) nas bases canônicas é ∂f 1 ... ∂xn .. ... . . m ∂f ... ∂xn que nada mais é que a matriz Jacobiana de f . Considerando o caso geral de uma função suave f : M → N entre variedades suaves, se (U, ϕ) é carta de M com p ∈ U e (V, ψ) carta de N com f (p) ∈ V , obtemos a representação em coordenadas de f , fb = ψ ◦ f ◦ ϕ : ϕ(U ∩ f −1 (V )) → ψ(V ). Pelos cálculos acima, fb∗ , é representada nas bases canônicas pela Jacobiana de fb. Como f ◦ ϕ−1 = ψ −1 ◦ fb, temos ! ! ∂ ∂ ∂ −1 −1 b∗ f∗ = f (ϕ ) = (ψ ) f ∗ ∗ ∗ ∂xi p ∂xi ϕ(p) ∂xi ϕ(p) ! m m X X bj bj ∂ f ∂ ∂ f ∂ −1 = (ψ )∗ (b p ) = (b p ) . i j i j ∂x ∂y ∂x ∂y b(ϕ(p)) f f (p) j=1 j=1 Portanto f∗ fica representada nessas bases pela matriz Jacobiana da representação de f em coordenadas. Sejam (U, ϕ) e (V, ψ) duas cartas de uma variedade M e p ∈ U ∩ V . Denotemos as funções coordenadas de ϕ e ψ por (xi ) e (e xi ) respectivamente. Qualquer vetor tangente em p pode ser representado com relação a cada uma das bases (∂/∂xi |p ) e (∂/∂e xi |p ), mas como essas representações se relacionam? 48 Escrevendo a mudança de coordenadas ψ ◦ ϕ−1 como ψ ◦ ϕ−1 (x) = (e x1 (x), . . . , x en (x)), por (2.2), o pushforward por ψ ◦ ϕ−1 pode ser escrito como m X ∂ ∂ ∂e xj −1 = (ϕ(p)) j . (ψ ◦ ϕ )∗ ∂xi ϕ(p) j=1 ∂xi ∂e x ψ(p) donde obtemos ∂ ∂ ∂ −1 −1 −1 = (ϕ )∗ = (ϕ )∗ (ψ ◦ ϕ )∗ ∂xi p ∂xi ϕ(p) ∂xi ϕ(p) m m X X xj ∂ ∂e xj ∂ −1 ∂e −1 = (ψ )∗ i (ϕ(p)) j = (ϕ(p))(ψ )∗ i ∂x ∂e x ∂x ∂e xj ψ(p) ψ(p) j=1 j=1 ∂e xj ∂ = (b p) j . ∂xi ∂e x p P P xj |p Aplicando isso às componentes de um vetor X = i X i ∂/∂xi |p = j X j ∂/∂e vemos que as componentes de X se transformam da seguinte maneira: xj e j = ∂e X (b p)X i . i ∂x (2.3) Até agora trabalhamos apenas com vetores tangentes a uma variedade suave sem bordo. A definição para variedades suaves com bordo, no entanto, é a mesma. Se M é uma variedade suave com bordo, o espaço tangente a M em p ∈ M é o espaço das derivações de C ∞ (M ) em p, denotado por Tp M . Analogamente, se F : M → N é uma função suave, entre variedades suaves com bordo, o pushforward de F em p é F∗ : Tp M → TF (p) N dado por (F∗ X)(f ) = X(f ◦ F ). Proposição 2.5.13. Se M é uma variedade suave de dimensão n com bordo e p ∈ ∂M , então Tp M é um espaço vetorial de dimensão n, e ∂ ∂ ,..., n ∂x1 p ∂x p formam uma base para Tp M . Outra construção interessante é a dos vetores cotangentes. Definição 2.5.14. Seja M uma variedade suave sem bordo. Para cada p ∈ M definimos o espaço cotangente a M em p por Tp∗ M = (Tp M )∗ . Um elemento de Tp∗ M é dito um covetor tangente a M em p. 49 Fazemos tal definição pois, como veremos adiante, a diferencial de uma função f : M → R é naturalmente interpretada como um campo de covetores tangentes. Se (xi ) são as funções de coordenadas em um aberto U ⊂ M , como Tp∗ M = (Tp M )∗ , para cada p ∈ U a base ! ∂ ∂xi p i de Tp M fornece uma base para Tp∗ M , que denotaremos (λP |p ). Qualquer covetor ∗ ω ∈ Tp M pode ser, portanto, escrito unicamente como ω = i ωi λi |p , onde ! ∂ ωi = ω . ∂xi p e ⊂ M tal Além disso, se (x̃i ) são funções de coordenadas em um outro aberto U e , e se (λ̃i |p ) é a base de T ∗ M dual a (∂/∂ x̃i |p ), podemos computar as que p ∈ U p componentes de ω no novo sistema de coordenadas. Temos X ∂ x̃j ∂ ∂ = (p) j . ∂xi p ∂xi ∂ x̃ p j Escrevendo ω nos dois sistemas, ω= X ωi λi |p = i X ω̃j λ̃j |p , j obtemos ωi = ω 2.6 ! ! X ∂ x̃j X ∂ x̃j ∂ ∂ = ω = (p) (p)ω̃j . ∂xi p ∂xi ∂ x̃j p ∂xi j j (2.4) Fibrados Tangente e Cotangente Nesta seção introduzimos o fibrado tangente de uma variedade. Usaremos tal objeto para definir campos de vetores em variedades, noção que mais à frente generalizaremos para campos de tensores, e o fibrado cotangente, que nos fornece uma maneira de interpretar a diferencial de funções de variedades em R como um campo de covetores. A construção é feita para variedades suaves sem bordo. Para as variedades suaves com bordo, no entanto, as definições são similares, todos os resultados continuam valendo e têm demonstrações análogas às dadas. Definição 2.6.1. Seja M uma variedade suave sem bordo. Definimos o fibrado tangente de M como a união disjunta G TM = Tp M. p∈M Denotaremos um elemento de T M por (p, X), com p ∈ M e X ∈ Tp M . 50 Há uma projeção natural π : T M → M dada por π(p, X) = p. Cometeremos o pequeno abuso de identificar Tp M com a imagem da injeção canônica X → (p, X). Proposição 2.6.2. Seja M uma variedade suave de dimensão n sem bordo. O fibrado tangente T M admite uma topologia e uma estrutura suave natural com as quais este torna-se uma variedade suave de dimensão 2n sem bordo. Além disso, com tal estrutura π : T M → M é suave. Demonstração: Dada (U, ϕ) uma carta de M , sejam (x1 , . . . , xn ) as funções de coordenadas de ϕ. Seja ϕ e : π −1 (U ) → R2n por ! n X ∂ = (x1 (p), . . . , xn (p), v 1 , . . . , v n ). ϕ e vi i ∂x p i=1 Temos im(ϕ) e = ϕ(U ) × Rn , que é um aberto de R2n . Além disso, ϕ e : π −1 (U ) → n ϕ(U ) × R é uma bijeção, com inversa n X −1 1 n 1 n i ∂ . ϕ e (x , . . . , x , v , . . . , v ) = v ∂xi ϕ−1 (x) i=1 Sejam (U, ϕ) e (V, ψ) cartas de coordenadas de M e sejam (π −1 (U ), ϕ) e e −1 e as cartas correspondentes em T M . Então os conjuntos (π (V ), ψ) ϕ(π e −1 (U ) ∩ π −1 (V )) = ϕ(U ∩ V ) × Rn , e −1 (U ) ∩ π −1 (V )) = ψ(U ∩ V ) × Rn ψ(π são ambos abertos de R2n , e a mudança de carta ψe ◦ ϕ e−1 : ϕ(U ∩ V ) × Rn → ψ(U ∩ V ) × Rn pode ser escrita como (vide (2.3)) ! n n 1 n X X ∂e x ∂e x e ϕ ψ◦ e−1 (x1 , . . . , xn , v 1 , . . . , v n ) = x e1 (x), . . . , x en (x), (x)v j , . . . , (x)v j , j j ∂x ∂x j=1 j=1 onde (e x1 , . . . x en ) são as funções coordenadas de ψ. Vê-se, com isso, que ψe ◦ ϕ e−1 é suave. Tomando uma cobertura enumerável {Ui } de M onde cada Ui é domı́nio de uma carta, obtemos uma cobertura enumerável {π −1 (Ui )} de T M onde cada π −1 (Ui ) é domı́nio de uma carta satisfazendo as condições (1)-(4) do Lema 2.2.10. Verifiquemos a condição (5). Note que quaisquer dois pontos (p, X), (p, Y ) pertencem à um mesmo domı́nio W de alguma carta de T M , enquanto que se (p, X), (q, Y ) ∈ T M são tais que p 6= q, existirão U e V domı́nios de cartas de M tais que p ∈ U , q ∈ V e U ∩ V = ∅. Os conjuntos π −1 (U ) e π −1 (V ) serão, portanto abertos disjuntos contendo (p, X) e (p, Y ), respectivamente. Por fim, π é suave pois sua representação em coordenadas com relação à cartas (U, ϕ) de M e (π −1 (U ), ϕ) e de T M é π(x, v) = x. Chamaremos (xi , vi ) de coordenadas-padrão de T M com relação à (xi ). O fibrado tangente nos permite definir um campo de vetores em M como uma seção de T M . 51 Definição 2.6.3. Uma seção de T M é uma seção da projeção π : T M → M , isto é, uma função contı́nua Y : M → T M que, a cada p ∈ M associa Y (p) = Yp ∈ T M e que satisfaz π ◦ Y = idM . Uma seção de T M é suave se Y : M → T M é suave. Assim, definimos: Definição 2.6.4. Seja M uma variedade suave sem bordo. Uma seção de T M é chamada de campo de vetores em M . Um campo suave de vetores em M é uma seção suave de T M . Intuitivamente, pensamos num campo de vetores em M como setas associadas a cada ponto de M . Se Y : M → T M é um campo de vetores em M e (U, (xi )) é uma carta de M , podemos escrever o valor de Y em cada ponto p ∈ U como X ∂ i Yp = Y (p) i . ∂x p i Ficam, assim, definidas n funções Y i : U → R, que são chamadas funções componentes de Y. Lema 2.6.5. Seja M uma variedade suave sem bordo, Y : M → T M um campo de vetores, e (U, (xi )) é uma carta de M . Então Y é suave se, e somente se, as funções componentes Y i com relação a (U, (xi )) são suaves. Demonstração: Seja (xi , v i ) as coordenadas-padrão em π −1 (U ) ⊂ T M associadas à carta (U, (xi )). A representação de Y em coordenadas em U é, então, Yb (x) = (xi , . . . , xn , Y 1 (x), . . . , Y n (x)), onde Y i é a i-ésima função componente de Y . O resultado segue da igualdade. Exemplo 2.6.6. Se (U, (xi )) é uma carta de M , ∂ p 7−→ ∂xi p define um campo de vetores suaves em U , chamado de campo de vetores da i-ésima coordenada e denotado por ∂/∂xi . Em vista do exemplo acima, dada M uma variedade suave de dimensão n e (xi ) coordenadas locais de U ⊂ M , temos n funções ∂ ∂ , . . . , ∂x1 ∂xn que chamaremos de campos de vetores de coordenadas. Os referenciais locais, que definiremos a seguir, nos serão úteis quando formos definir orientações em variedades, mais à frente. 52 Uma seção local de T M em U ⊂ M aberto é uma seção η da projeção π : T M → U . Em outras palavras, um campo de vetores em U . Seções locais ηi , . . . , ηk de T M em U são ditas independentes em T M se, para todo p ∈ U , ηi (p), . . . , ηk (p) são elementos linearmente independentes de Tp M . Analogamente, dizemos que ηi , . . . , ηk geram T M se, para todo p ∈ U , ηi (p), . . . , ηk (p) geram Tp M . Definição 2.6.7. Um referencial local para M em U é uma k-upla ordenada (ηi , . . . , ηk ) de seções locais independentes em U que geram T M . Um referencial local é dito suave se cada ηi é suave. Exemplo 2.6.8. Seja (U, ϕ) uma carta de M . Os campos de vetores de coordenadas (∂/∂xi ) formam um referencial local suave para T M em U . Vejamos agora o caso dual. Definição 2.6.9. Seja M uma variedade suave sem bordo. Definimos o fibrado cotangente de M como a união disjunta G T ∗M = Tp∗ M. p∈M O espaço cotangente tem uma projeção natural π : T ∗ M → M que, para cada p, leva ω ∈ Tp∗ M em p. Como na seção anterior, dada uma variedade suave de dimensão n e coordenadas locais (xi ) em U ⊂ M , denotamos a base de Tp∗ M dual a (∂/∂xi |p ) por (λi |p ). Isso define n funções λ1 , . . . , λn : U → T ∗ M , chamadas campos de covetores de coordenadas. Como no caso do fibrado tangente, o fibrado cotangente T ∗ M admite uma topologia e uma estrutura suave naturais com as quais este torna-se uma variedade suave de dimensão 2n sem bordo e π : T ∗ M → M é suave. Coordenadas locais de M fornecem coordenadas locais de T ∗ M . A função de π −1 (U ) → R2n dada por ξi λi |p 7−→ (x1 (p), . . . , xn (p), ξ1 , . . . , ξp ) é uma carta de coordenadas de T ∗ M . Chamaremos (xi , ξi ) de coordenadas-padrão de T ∗ M com relação a (xi ). Definição 2.6.10. Seja M uma variedade suave sem bordo. Uma seção de T ∗ M é chamada de campo de covetores em M . Um campo suave de covetores em M é uma seção suave de T ∗ M . A seguir veremos a diferencial de uma função como um campo de covetores. Tal interpretação nos fornece também uma notação mais conveniente à base (λi |p ) de Tp∗ M . O lema seguinte nos fornece um critério para decidir a suavidade de um campo de covetores. Lema 2.6.11. Seja M uma variedade suave sem bordo e ω um campo de covetores em M . Então 53 (1) Se ω = ωi λi é a representação de ω em coordenadas em qualquer carta (U, (xi )) de M , então ω é suave se, e somente se, suas funções componentes ωi são suaves, (2) ω é suave se, e somente se, para todo campo de vetores suave X em um aberto U ⊂ M , a função hω, Xi : U → R dada por hω, Xi(p) = hwp , Xp i = wp (Xp ) é suave. Definição 2.6.12. Seja M uma variedade suave sem bordo e f : M → R suave. Definimos df , a diferencial de f , como o campo de covetores dado por dfp (Xp ) = Xp f, para todo Xp ∈ Tp M . Proposição 2.6.13. A diferencial de uma função suave f : M → R é um campo de covetores suave. Demonstração: Note que, para cada ponto p ∈ M , dfp (Xp ) depende linearmente em Xp , portanto dfp é em p, de fato, um campo de covetores. Para qualquer campo de vetores X em U ⊂ M aberto, hdf, Xi é suave pois hdf, Xi = Xf. Pelo Lema 2.6.11 o resultado segue. Vejamos como a diferencial fica representada em coordenadas. Seja U ⊂ M um aberto, (xi ) as funções de coordenadas em U e (λi ) as coordenadas P duais a (xi ), i ou seja, λi (xj ) = δji . Escrevendo df em coordenadas como dfp = i Ai (p)λ |p , Ai : U → R, a definição de df implica ! ∂ ∂f ∂ (p), = f = Ai (p) = dfp ∂xi p ∂xi p ∂xi que nos fornece dfp = X ∂f (p)λi |p , i ∂x i (2.5) ou seja, as funções componentes de df com relação à uma carta de coordenadas são as derivadas parciais de f com relação àquelas coordenadas. Nesse sentido, podemos pensar em df como uma análoga ao clássico gradiente de uma função, em uma forma que não depende de coordenadas. Tomando f em 2.5 como sendo uma das funções de coordenadas xj : U → R, obtemos dxj |p = X ∂xj i ∂x (p)λi |p = i X i 54 δij λi |p = λj |p , isto é, o campo de covetores de coordenadas λi nada mais é que dxi . Logo, (2.5) pode ser reescrita como X ∂f dfp = (p) dxi |p , i ∂x i ou, ainda, como uma equação entre campos de covetores: X ∂f df = dxi . i ∂x i Em particular, se M tem dimensão 1, temos df dx. dx Recuperamos, assim, a clássica expressão para a diferencial de uma função. A partir de agora usaremos a notação (dxi ) no lugar de (λi ). df = Proposição 2.6.14. Seja M uma variedade suave sem bordo e sejam f, g ∈ C ∞ (M ). Então: (1) Para quaisquer constantes a, b, d(af + bg) = a df + b dg, (2) d(f g) = f dg + g df , (3) Se g 6= 0, d(f /g) = (g df − f dg)/g 2 , (4) Se J ∈ R é um intervalo tal que im(f ) ⊂ J e h : J → R é suave, então d(h ◦ f ) = (h0 ◦ f ) df , (5) Se f é constante, df = 0. Proposição 2.6.15. Seja M uma variedade suave sem bordo e f : M → R suave. Se df = 0, então f é constante em cada componente de M . Demonstração: É suficiente supor que M é conexa e mostrar que f é constante. Seja p ∈ M e K = {q ∈ M | f (q) = f (p)}. Se q é um ponto qualquer de K, tome U uma bola de coordenadas centrada em q. Da fórmula 2.5 temos, para cada i, ∂f ≡0 ∂xi em U . Portanto f é constante em U . Isso mostra que K é aberto. Por outro lado, K é fechado, pela continuidade de f . Segue que K = M . 2.7 Integrais de Linha Uma aplicação de campos de covetores é prover uma noção de integral de linha independente de coordenadas. Desenvolveremos agora este assunto, que nos dará uma primeira noção sobre integração em variedades (que discutiremos na Seção 2.11) e que também nos será útil no Capı́tulo 3. Seja M uma variedade suave com ou sem bordo. Uma curva em M é uma aplicação contı́nua γ : J → M , onde J ⊂ R é um intervalo. Uma curva é dita suave se γ é suave. 55 Definição 2.7.1. Seja M uma variedade suave com ou sem bordo e γ uma curva suave em M . Definimos o vetor tangente a M em t0 ∈ J como sendo o vetor ! d ∈ Tγ(t0 ) M, γ 0 (t0 ) = γ∗ dt t0 onde d/dt|t0 é a base canônica de Tt0 R. Proposição 2.7.2. Seja M uma variedade suave sem bordo, γ : J → M uma curva suave e f : M → R uma função suave. A derivada da função f ◦ γ : R → R é dada por (f ◦ γ)0 (t) = df |γ(t) (γ 0 (t)). Demonstração: Segue diretamente das definições de df , γ 0 , γ∗ e d/dt|t0 que df |γ(t0 ) (γ 0 (t0 )) = γ 0 (t0 )f = γ∗ = ! d f dt t0 d (f ◦ γ) dt t0 = (f ◦ γ)0 (t0 ). Isso termina a demonstração. Como nós vimos, uma função suave f : M → N induz uma aplicação linear f∗ : Tp M → Tf (p) N chamada de pushforward de f . A aplicação (f∗ )∗ : (Tf (p) N )∗ → (Tp M )∗ dual a esta (veja A.3.23), que denotaremos apenas por f ∗ , é chamada de pullback de f . Vê-se sem dificuldade que (f ∗ ω)(X) = ω(f∗ X), onde ω ∈ Tf∗(p) N e X ∈ Tp M . Dada uma função suave f : M → N e um campo suave de covetores ω em N , definimos o campo (suave) de covetores f ∗ ω em M por (f ∗ ω)p = f ∗ (ωf (p) ). Lema 2.7.3. Se (xi ) e (y i ) são coordenadas locais em M e N , respectivamente, o pullback f ∗ ω se escreve como X X X ∗ ∗ j f ω=f ωj dy = (ωj ◦ f )f ∗ dy j = (ωj ◦ f )d(y j ◦ f ), onde f j é a j-ésima componente de f nessas coordenadas. Os pullbacks de campos de covetores nos permitem definir a integral de linha independentemente de coordenadas. Começaremos com o seguinte caso particular: Seja [a, b] ⊂ R um intervalo compacto e ω um campo suave de covetores em [a, b] (o que quer dizer que a função 56 componente de ω admite uma extenção suave em alguma vizinhança aberta de [a, b]). Denotando por t a coordenada canônica em R, temos que ω pode ser escrita como ωt = f (t) dt para alguma função suave f : [a, b] → R. Definimos a integral de ω em [a, b] por Z Z b f (t) dt. ω= a [a,b] Proposição 2.7.4. Seja ω um campo suave de covetores no intervalo compacto [a, b] ⊂ R. Se ϕ : [c, d] → [a, b] é um difeomorfismo crescente, então Z Z ∗ ϕω= ω. [c,d] [a,b] Demonstração: Denotemos por s e t as coordenadas padrão em [c, d] e [a, b], respectivamente. Então ϕ∗ ω se escreve como (ϕ∗ ω)s = f (ϕ(s))ϕ0 (s) ds. Daı́, Z ∗ d Z Z 0 ϕω= b f (ϕ(s))ϕ (s) ds = [c,d] c Z f (t) dt = a ω. [a,b] Seja M uma variedade suave sem bordo. Um segmento de curva em M é uma curva γ : [a, b] → M , cujo domı́nio é um intervalo compacto. Um segmento de curva suave por partes é um segmento de curva γ : [a, b] → M tal que existe uma partição a = a0 < a1 < · · · < ak = b de [a, b] de forma que γ|[ai−1 ,ai ] é suave, para todo i. Lema 2.7.5. Se M é uma variedade suave conexa, quaisquer dois pontos de M podem ser ligados por um segmento de curva suave por partes. Definição 2.7.6. Se γ : [a, b] → M é uma segmento de curva suave por partes em uma variedade suave, definimos a integral de linha de ω sobre γ por Z ω= γ k Z X i=1 γ ∗ ω, [ai−1 ,ai ] onde [ai−1 , ai ] são os intervalos nos quais γ é suave. Note que esta definição dá um sentido rigoroso às integrais de linha clássicas, R como, por exemplo, γ P (x, y) dx + Q(x, y) dy em R2 . Mostra-se sem dificuldade a proposição seguinte. Proposição 2.7.7. Seja M uma variedade suave, γ : [a, b] → M um segmento de curva suave por partes em M e ω, ω1 e ω2 campos de covetores suaves em M . Então: (1) Para quaisquer c1 , c2 ∈ R, Z Z Z (c1 ω1 + c2 ω2 ) = c1 ω1 + c2 ω2 , γ (2) Se γ é constante, então γ R γ ω = 0, 57 γ (3) Se a < c < b, então Z Z Z ω= ω+ γ γ1 ω, γ2 onde γ1 = γ|[a,c] e γ2 = γ|[c,b] . Proposição 2.7.8. Se γ : [a, b] → M é um segmento de curva suave por partes e ω é um campo suave de covetores em M , então Z Z b ωγ(t) (γ 0 (t)) dt. ω= a γ Demonstração: Primeiramente, suponhamos que γ é suave e que sua imagem está contida no domı́nio de uma única carta de coordenadas. Escrevendo as representações em coordenadas de γ(t) e ω respectivamente por (γ 1 (t), . . . , γ n (t)) e ωi dxi , obtemos ωγ(t) (γ 0 (t)) = ωi (γ(t))dxi (γ 0 (t)) = ωi (γ(t))(γ i )0 (t). Combinando isso com a fórmula para o pullback em coordenadas, (γ ∗ ω)t = (ωi ◦ γ)(t)d(γ i )t = ωi (γ(t))(γ i )0 (t) dt = ωγ(t) (γ 0 (t)) dt. Por definição, Z Z ω= Z ∗ γ ω= γ [a,b] ωγ(t) (γ 0 (t)) dt. [a,b] Se γ é um segmento de curva suave, por compacidade, existe uma partição finita a = a0 < a1 < · · · < ak = b de [a, b] tal que γ([ai−1 , ai ]) está contido no domı́nio de uma única carta de coordenadas, para cada i. Assim, podemos aplicar o caso anteior para cada subintervalo [ai−1 , ai ]. Por fim, se γ é um segmento de curva suave por partes, aplicamos o argumento acima para cada subintervalo no qual γ é suave. Teorema 2.7.9. Seja M uma variedade suave sem bordo, f : M → R uma função suave e γ : [a, b] → M um segmento de curva suave por partes. Então Z df = f (γ(b)) − f (γ(a)). γ Demonstração: Suponhamos primeiramente que γ é suave. Pelas Proposições 2.7.2 e 2.7.8 e pelo Teorema Fundamental do Cálculo (Teorema A.4.25), Z Z b Z b 0 df = dfγ(t) (γ (t)) dt = (f ◦ γ)0 (t) dt = f ◦ γ(b) − f ◦ γ(a). γ a a Se γ é suave por partes, seja a = a0 < · · · < ak = b a partição que determina os subintervalos [ai−1 , ai ] nos quais γ é suave. Aplicando o mesmo argumento para cada subintervalo temos Z k X df = (f (γ(ai )) − f (γ(ai−1 ))) = f (γ(b)) − f (γ(a)). γ i=1 58 Terminamos a seção discutindo campos conservativos. O Teorema 2.7.9 diz que a integral de linha de qualquer campo ω que pode ser escrito como uma diferencial pode ser calculada com facilidade. Por esse motivo, dizemos que um campo ω com tal propriedade se diz exato (generalizaremos esse conceito no Capı́tulo 3). É interessante desenvolver critérios que decidam quando um campo é exato. O Teorema 2.7.9 mostra que a integral de linha de um campo exato ω sobre um segmento de curva suave por partes γ : [a, b] → M depende apenas dos pontos inicial e final de γ. Em particular, se γ é fechada (ou seja, se γ(a) = γ(b)) a integral de df deve ser zero, onde f ∈ C ∞ (M ) é tal que ω = df . Dizemos que um campo suave de covetores ω é conservativo se a integral de linha de ω sobre qualquer segmento de curva suave por partes fechado é zero. O teorema a seguir nos dá o critério que procuramos. Lema 2.7.10. Um campo suave de covetores ω é conservativo se, e somente se, a integral de linha de ω sobre γ depende apenas dos pontos inicial e final de γ. Teorema 2.7.11. Um campo suave de covetores é conservativo se, e somente se, é exato. Demonstração: Se ω é um campo suave de covetores exato em M , o Teorema 2.7.9 mostra que ω é conservativo. Suponhamos que ω seja conservativo e assumamos que M seja conexa. Como a integral de linha de Rω sobre γ depende apenas dos pontos inicial e final de γ, q adotaremos a notação p ω para a integral de linha de ω sobre qualquer segmento de curva suave por partes com ponto inicial p e final q. Pela Proposição 2.7.7, Z p2 Z p3 Z p3 ω+ ω= ω (2.6) p1 p2 p1 para quaisquer p1 , p2 , p3 ∈ M . Seja p0 ∈ M fixo e f : M → R dada por Z q f (q) = ω. p0 Temos df = ω. De fato, seja q0 ∈ M qualquer, (U, (xi )) uma carta centrada em q0 e ω = ωi dxi a representação de ω em coordenadas em U . Mostraremos que ∂f (q0 ) = ωj (q0 ) ∂xj para todo j = 1, . . . , n, o que implica dfq0 = ωq0 . Fixemos j e tomemos γ : [−ε, ε] → U o segmento de curva suave por partes dado em coordenadas por γ(t) = (0, . . . , t, . . . , 0), com t na j-ésima entrada e ε pequeno o suficiente de forma que γ([−ε, ε]) ⊂ U . Seja p1 = γ(−ε) e fe : M → R dada por Rq fe(q) = p1 ω. Então, por (2.6), Z q f (q) − fe(q) = Z q ω− p0 p1 ω= p1 59 Z ω, p0 que não depende de q. Logo f e fe diferem por uma constante, e, portanto, basta mostrar que ∂ fe/∂xj (q0 ) = ωj (q0 ). Agora, γ 0 (t) = ∂/∂xj |γ(t) por construção, logo ! ∂ ωγ(t) (γ 0 (t)) = ωi (γ(t))dxi = ωj (γ(t)). j ∂x γ(t) Como a restrição de γ a [−ε, t] é uma curva suave de p1 a γ(t), temos Z t Z t Z γ(t) 0 ω= ωγ(s) (γ (s)) ds = ωj (γ(s)) ds. fe ◦ γ(t) = p1 −ε −ε Pelo Teorema Fundamental do Cálculo (Teorema A.4.25), ∂ fe d 0 e = fe ◦ γ(t) (q ) = γ (0) f 0 ∂xj dt Z t t=0 d ωj (γ(s)) ds = ωj (γ(0)) = ωj (q0 ). = dt t=0 −ε E isso termina a demonstração para o caso em que M é conexa. Se M não é conexa, seja {Mi } o conjunto das componentes de M . Pelo caso anterior, para cada i existe uma função suave fi ∈ C ∞ (Mi ) tal que dfi = ω em Mi . Definindo f : M → R como sendo igual a fi em Mi temos ω = df . 2.8 Mergulhos e Aproximações Uma variedade pode ser suavemente mergulhada no espaço euclideano? Esta seção responde essa pergunta e também traz alguns outros resultados relacionados que usaremos no capı́tulo seguinte. Definição 2.8.1. Seja f : M → N uma função suave entre variedades suaves sem bordo. Definimos o posto de f em p ∈ M , que denotaremos por rank(f )(p), como sendo o posto da aplicação linear f∗ : Tp M → Tf (p) N , que é simplesmente o posto da matriz Jacobiana de f em qualquer carta de coordenadas (ou, equivalentemente, dim(im(f∗ ))). Se rank(f )(p) = k em todo ponto p ∈ W ⊂ M , dizemos que rank(f ) = k em W . Definição 2.8.2. Sejam M e N variedades suaves sem bordo. Uma função suave f : M → N é uma submersão se f∗ : Tp M → Tf (p) N é sobrejetora em cada p ∈ M (ou, equivalentemente, rank(f ) = dim(N )) e uma imersão se f∗ é injetora em cada p ∈ M (ou, equivalentemente, rank(f ) = dim(M )). Quando uma imersão f é também um mergulho topológico (ou seja, quando f : M → f (M ) é um homeomorfismo, com f (M ) munido da topologia induzida), dizemos que f é um mergulho suave. Exemplo 2.8.3. Sejam M1 , . . . , Mk variedades suaves. (1) Cada pojeção πi : M1 × · · · × Mk → Mi é uma submersão. 60 (2) A função suave f : R2 → R3 dada por f (φ, θ) = ((2 + cos(φ)) cos(θ), (2 + cos(φ)) sin(θ), sin(φ)) é uma imersão de R2 em R3 cuja imagem é um toro. (3) Cada aplicação ij : Mj → M1 × · · · × Mk dada por ij (q) = (p1 , . . . , pj−1 , q, pj+1 , . . . , pk ) é um mergulho suave. O lema seguinte nos dá condições suficientes para que uma imersão seja um mergulho suave. Uma função f : M → N é dita uma aplicação própria se, para todo subconjunto compacto K ⊂ N , f −1 (K) é compacto. Lema 2.8.4. Seja f : M → N uma imersão injetora. Se M é compacta ou f é uma aplicação própria, então f é um mergulho suave e f (M ) é fechado. Demonstração: Segue de ambas hipóteses que f é fechada, pelo Lema A.2.20, o que implica que f (M ) é fechado em N . Como f é injetora, f : M → f (M ) é bijetora e, logo, existe f −1 : f (M ) → M . Se U ⊂ M é fechado, então f (U ) = (f −1 )−1 (U ) é fechado em N , e, portanto, em f (M ). Segue que f −1 é contı́nua, logo f é um homeomorfismo sobre sua imagem, portanto, um mergulho topológico. A noção de conjuntos de medida nula em Rn (Definição A.4.17) não se estende automaticamente a variedades porque estas não necessariamente vêm munidas de uma métrica. O resultado seguinte resolve esse problema mostrando que a noção de medida nula é invariante por difeomorfismos. Usaremos na demonstração deste resultado o fato (facilmente verificável) de que podemos enunciar a noção de conjuntos de medida nula usando n-bolas cujo volume é menor que um δ dado, ao invés de n-cubos. Lema 2.8.5. Seja A ⊂ Rn um conjunto de medida nula e f : A → Rn uma função suave. Então f (A) tem medida nula. Demonstração: Para cada p ∈ A, f pode ser estendida (Lema 2.4.12) a uma função suave (que também denotaremos por f ) de uma vizinhança aberta de p (que podemos assumir ser uma bola fechada B[p] centrada em p) em Rn . Como B[p] é compacta, existe uma constante c tal que kDf (x)k ≤ c para todo x ∈ B[p]. Isso implica, pelo Lema A.4.28, que kf (x) − f (y)k ≤ ckx − yk (2.7) para todo x, y ∈ B[p]. Como A tem medida nula, dado δ > 0 podemos tomar uma cobertura enumerável {Bj } de A ∩ B[p] por bolas abertas tais que X vol(Bj ) < δ. j 61 fj cujo raio é menor que Então, por (2.7), f (B[p] ∩ Bj ) está contido em uma bola B ou igual a c vezes o raio de Bj . Disso concluı́mos que f (A ∩ B[p]) está contido numa fj } tal que coleção de bolas {B X fj ) < cn δ. vol(B j Segue, então, que f (A ∩ B[p]) tem medida nula. Como f (A) é a união de uma quantidade enumerável de conjuntos do tipo f (A ∩ B[p]), concluı́mos que f (A) tem medida nula. Lema 2.8.6. Seja U ⊂ Rm aberto e f : U → Rn suave, com m < n. Então f (U ) tem medida nula em Rn . Demonstração: Seja π : Rn → Rm a projeção nas m primeiras coordenadas e e = π −1 (U ). Considere fe = f ◦ π : U e → R. Como f (U ) = fe(U e ∩ Rm ) é a imagem U de um conjunto de medida nula por uma função suave, basta aplicarmos o Lema 2.8.5. Definição 2.8.7. Um subconjunto A ⊂ M (M uma variedade suave de dimensão n sem bordo) tem medida nula se para toda carta (U, ϕ) de M , o conjunto ϕ(A ∩ U ) tem medida nula em Rn . Proposição 2.8.8. Sejam M e N variedades suaves sem bordo tais que m = dim(M ) < n = dim(N ) e seja f : M → N uma função suave. Então f (M ) tem medida nula em N . Demonstração: Seja {(Ui , ϕi )} uma cobertura enumerável de M por cartas. Dada uma carta (V, ψ) de N , temos que ψ(f (M ) ∩ U ) se escreve como uma união enu−1 merável de conjuntos da forma ψ ◦ f ◦ ϕ−1 (V ) ∩ Ui )), cada um destes tendo i (ϕi (f medida nula, pelo Lema 2.8.6. Proposição 2.8.9. Seja M uma variedade suave de dimensão n sem bordo e f : M → Rm uma função suave, com 2n ≤ m. Então, dado ε > 0, existe uma imersão suave fe : M → Rm tal que sup fe(p) − f (p) ≤ ε. p∈M Demonstração: Seja {Wi } uma cobertura aberta regular de M . Então cada Wi é o domı́nio de uma carta ψi : Wi → B3 (0) e os conjuntos Sk pré-compactos Ui = −1 ψi (B1 (0)) ainda cobrem M . Para cada k > 0, seja Mk = i=1 Ui , e convencionemos que M0 = ∅. Modificaremos f indutivamente em cada Wi . Para cada i, seja ϕi ∈ C ∞ (M ) uma função teste suave com suporte em Wi e tal que ϕi (x) = 1 para todo x ∈ Ui . Seja f0 = f e suponhamos por indução que existam funções suaves fj : M → Rm , j = 0, . . . , k − 1 tais que (1) supM kfj − f k < ε, (2) se j ≥ 1, fj (x) = fj−1 (x), a menos que x ∈ Wj , 62 (3) (fj )∗ é injetora em cada ponto de Mj . Seja A uma matriz m × n, definimos uma nova aplicação FA : M → Rm como segue: Em M \supp(ϕk ), FA = fk−1 , e em Wk , FA é a aplicação dada em coordenadas por FA (x) = fk−1 (x) + ϕk (x)Ax, pensando A como uma aplicação linear. Note que ambas as definições nos dão FA = fk−1 em Wk \ supp(ϕk ), portanto FA é suave. Tomaremos fk = FA para uma escolha conveniente de A. Como vale (1) para j = k − 1, existe ε0 < ε tal que |fk−1 (x) − f (x)| ≤ ε0 no compacto supp(ϕk ). Por continuidade, existe δ > 0 tal que, se kAk < δ então sup kFA − fk−1 k = M kϕk (x)Axk < ε − ε0 , sup x∈supp(ϕk ) e, portanto, sup kFA − f k ≤ sup kFA − fk−1 k + sup kfk−1 − f k < (ε − ε0 ) + ε0 = ε. M M M Seja P : Wk ×Mn×m (R) → Mn×m (R) dada por P (x, A) = DFA (x). Pela hipótese de indução, a matriz P (x, A) tem posto n se (x, A) ∈ supp(ϕk ) ∩ Mk−1 × {0}. Tomando δ menor se necessário, podemos garantir também que rank(P (x, A)) = n se x ∈ supp(ϕk ) ∩ Mk−1 e kAk < δ. A última condição é que rank(FA )∗ = n em Uk , e, portanto, em Mk = Mk−1 ∪ Uk . Note que DFA = Dfk−1 (x) + A em x ∈ Uk , pois ϕk ≡ 1 em Uk , e, portanto, temos que DFA tem posto n em Uk se, e somente se, A não é da forma B − Dfk−1 (x), para qualquer matriz B de posto menor que n. Para garantir isso, seja Q : Wk × Mn×m (R) → Mn×m (R) dada por Q(x, B) = B − Dfk−1 (x). Precisamos mostrar que existe alguma matriz A, com kAk < δ, que não é da forma Q(x, B), para qualquer x ∈ Uk e qualquer matriz B de posto menos que n. Para cada j j = 0, . . . , n−1, o conjunto Mn×m (R) das matrizes n×m de posto j é uma variedade j mergulhada em Mn×m (R) de codimensão (ou seja, dim(Mn×m (R))−dim(Mn×m (R))) j igual a (m − j)(n − j). Segue pela Proposição 2.8.8 que Q(Wk × Mn×m (R)) tem j medida nula em Mn×m (R) se tivermos dim(Wk × Mn×m (R)) < dim(Mn×m (R)), que é o mesmo que exigir n + mn − (m − j)(n − j) < mn, ou seja, n − (m − j)(n − j) < 0. (2.8) Quando j = n−1, n−(m−j)(n−j) = 2n−m−1 < 0, pois 2n ≤ m. Se j ≤ n−1, n − (m − j)(n − j) é crescente em j, pois sua derivada é positiva. Portanto (2.8) vale j para qualquer j satisfazendo 0 ≤ j ≤ n − 1. Isso implica que Q(Wk × Mn×m (R)) 63 tem medida nula em Mn×m (R) para cada j = 0, . . . , n − 1. Escolhendo A tal que kAk < δ e n−1 [ j Q(Wk × Mn×m (R)), A∈ / j=0 e tomando fk = FA , obtemos fk satisfazendo as três hipóteses de indução para j = k. Seja agora fe(x) = lim fk . k→∞ Como a cobertura {Wi } é localmente finita, para cada k existe n(k) > k tal que Wk ∩Wj = ∅ para todo j ≥ n(k), e então a condição (2) implica que fn(k) = fn(k)+1 = · · · = fi em Wk para todo i ≥ n(k). Logo, a sequência {fk (x)} é eventualmente constante para x em uma vizinhança de cada ponto, e então fe : M → Rm é suave. Além disso fe é uma imersão pois fe = fn(k) em Mk e, por (3), rank(fn(k) ) = n. Corolário 2.8.10. Toda variedade suave de dimensão n admite uma imersão em R2n . Demonstração: Basta aplicar a Proposição 2.8.9 a qualquer função suave f : M → R2n . Proposição 2.8.11. Seja M uma variedade suave de dimensão n sem bordo e f : M → Rm uma imersão, com 2n + 1 ≤ m. Então dado ε > 0 existe uma imersão injetora fe : M → Rm tal que sup fe(p) − f (p) ≤ ε. p∈M Demonstração: Como toda imersão é localmente um mergulho, existe uma cobertura aberta Wi de M tal que a restrição de f a cada Wi é injetora. Tomando um refinamento se necessário, podemos assumir que Wi é regular (veja 2.4.6). Como na demonstração da Proposição 2.8.9, seja ψi : Wi → B3 (0) a função de coordenadas S associada a cada Wi , sejam Ui = ψ −1 (B1 (0)) e, para cada k > 0, seja Mk = ki=1 Ui (convencionando que M0 = ∅). Modificaremos f indutivamente tornando-a injetora em domı́nios cada vez maiores. Seja f0 = f e suponhamos por indução que existam funções suaves fj : M → Rm , j = 0, . . . , k − 1 satisfazendo (1) fj é imersão, (2) supM kfj − f k < ε, (3) se j ≥ 1, fj (x) = fj−1 (x), a menos que x ∈ Wj , (4) fj é injetora em Mj , (5) fj é injetora em Wi para todo i. 64 Definimos fk por fk (x) = fk−1 (x) + ϕk (x)b, onde b ∈ Rm será determinado de forma a termos fk (x) 6= fk (y) se x 6= y, x, y ∈ Mk . Por continuidade, existe δ > 0 tal que, se kbk < δ então sup kfk − f k ≤ sup kfk − fk−1 k + sup kfk−1 − f k ≤ ε. M M supp(ϕk ) Tomando δ menor se necessário, podemos garantir também que (fk )∗ é injetora em cada ponto de supp(ϕk ). Como (fk )∗ = (fk−1 )∗ é injetora no restante de M , segue que fk é imersão. Agora, se fk (x) = fk (y), então exatamente um dos seguintes casos ocorre: Caso 1: ϕk (x) 6= ϕk (y) e, então b=− fk−1 (x) − fk−1 (y) . ϕk (x) − ϕk (y) (2.9) Caso 2: ϕk (x) = ϕk (y) e, então fk−1 (x) = fk−1 (y). Seja U ⊂ M × M tal que U = {(x, y) ∈ M × M | ϕk (x) 6= ϕk (y)}, e seja R : U → Rm a função suave R(x, y) = − fk−1 (x) − fk−1 (y) . ϕk (x) − ϕk (y) Como dim(U ) = dim(M × M ) = 2n < m, a Proposição 2.8.8 implica que R(U ) tem medida nula em Rm . Portanto, existe b ∈ Rm , com kbk < δ, tal que (2.9) não vale para (x, y) ∈ U . Com tal b, as hipóteses (1)-(3) valem para j = k. Mostremos que (4) e (5) também valem. Se fk (x) = fk (y), para x, y ∈ Mk , o Caso 1 não pode ocorrer, dada nossa escolha de b. Portanto ϕk (x) = ϕk (y) e fk−1 (x) = fk−1 (y). Se ϕk (x) = ϕk (y) = 0, então x, y ∈ Mk \ Uk ⊂ Mk−1 , o que contradiz o fato de fk−1 ser injetora em Mk−1 , por hipótese. Por outro lado, se ϕk (x) 6= 0 e ϕk (y) 6= 0, então x, y ∈ supp(ϕk ) ⊂ Wk , o que contradiz o fato de fk−1 ser injetora em cada Wi , por hipótese. Portanto (4) vale para j = k. Analogamente, se fk (x) = fk (y), para x, y ∈ Wi (para qualquer i), o mesmo argumento mostra que fk−1 (x) = fk−1 (y), contradizendo a injetividade de fk−1 em Wi . Isso mostra que fk satisfaz (5). Considere agora fe(x) = lim fj (x). j→∞ Como na Proposição 2.8.9, para j suficientemente grande, a sequência fj é constante em Wk (para qualquer k), e, portanto, fe é suave. Ainda, se fe(x) = fe(y), basta tomar k tal que x, y ∈ Mk . Assim, para j suficientemente grande, fe = fj em Mk e segue da injetividade de fj em Mj ⊃ Mk que x = y. 65 Teorema 2.8.12 (Whitney). Toda variedade suave de dimensão n sem bordo admite um mergulho suave próprio em R2n+1 . Demonstração: Seja M uma variedade suave de dimensão n sem bordo. Pelo Lema 2.8.4, uma imersão injetora própria é um mergulho suave. Seja g : M → R uma função de exaustão suave para M (veja 2.4.14). Vêse claramente que f0 : M → R2n+1 dada por f0 (p) = (g(p), 0, . . . , 0) é suave e própria. Pela Proposição 2.8.9, existe uma imersão f1 : M → R2n+1 satisfazendo supM kf1 − f0 k ≤ 1 e, pela Proposição 2.8.11 existe uma imersão injetora f2 : M → R2n+1 satisfazendo supM kf2 − f1 k ≤ 1. Se K ⊂ R2n+1 é compacto, K ⊂ Br [0] para algum r ∈ R. Portanto, se f2 (p) ∈ K, kf0 (p)k ≤ kf0 (p) − f1 (p)k + kf1 (p) − f2 (p)k + kf2 (p)k ≤ 1 + 1 + r, o que implica que f2−1 (K) é um subconjunto fechado de f0−1 (B2+r [0]), que por sua vez é compacto, pois f0 é própria. Segue que f2 é uma imersão injetora própria e, logo, um mergulho suave. Os resultados a seguir serão de grande utilidade na teoria de cohomologia de De Rham. Tratam-se de aproximações de funções contı́nuas entre variedades por funções suaves. Definição 2.8.13. Seja δ : M → R contı́nua e positiva. Dizemos que duas funções f, fe : M → Rn são δ-próximas se kf (p) − fe(p)k ≤ δ(p), para todo p ∈ M . Teorema 2.8.14. Sejam M uma variedade suave sem bordo e f : M → Rn uma função contı́nua. Dada qualquer função δ : M → R contı́nua e positiva, existe uma função suave fe : M → Rn tal que f e fe são δ-próximas. Se f é suave em um fechado A ⊂ M , então fe pode ser tomada igual a f em A. Demonstração: Seja δ : M → R contı́nua e positiva. Se f é suave no fechado A, então, pelo Lema 2.4.12, existe uma função f0 : M → Rn suave tal que f0 |A = f . Seja U0 = {y ∈ M | kf0 (y) − f (y)k < δ(y)}. Vê-se facilmente que U0 é aberto e que A ⊂ U0 . (Se A = ∅, colocamos U0 = ∅). Mostraremos que existe apenas uma quantidade enumerável de pontos {xi }, i = 1, 2, . . . , em M \ A, e vizinhanças Ui de xi em M \ A tais que kf (y) − f (xi )k < δ(y), (2.10) para todo y ∈ Ui . Para isso, para qualquer x ∈ M \ A, seja Ux uma vizinhança de x em M \ A tal que 1 δ(y) > δ(x) 2 e 1 kf (y) − f (x)k < δ(x) 2 66 para todo y ∈ Ux . (Tal vizinhança existe pela continuidade de δ e f ). Então, se y ∈ Ux , temos 1 kf (y) − f (x)k < δ(x) < δ(y). 2 A coleção de todos os Ux com x variando em M \ A é uma cobertura aberta de M \ A. Escolhendo uma subcobertura enumerável {Uxi }, i = 1, 2, . . . , e colocando Ui = Uxi temos (2.10). Seja {ϕ0 , ϕ1 } uma partição suave da unidade com relação à cobertura aberta {U0 , Ui } de M , e defina fe : M → Rn por X fe(y) = ϕ0 (y)f0 (y) + ϕi (y)f (xi ). i≥1 P Claramente fe é suave e igual a f em A. Para qualquer y em M , como i≥0 ϕi ≡ 1, temos ! X X e ϕi (y)f (xi ) − ϕ0 (y) + ϕi (y) f (y) f (y) − f (y) = ϕ0 (y)f0 (y) + i≥1 i≥1 X ≤ ϕ0 (y)kf0 (y) − f (y)k + ϕi (y)kf (xi ) − f (y)k i≥1 < ϕ0 (y)δ(y) + X ϕi (y)δ(y) = δ(y), i≥1 e isso termina a demonstração Definição 2.8.15. Seja M uma variedade suave de dimensão m sem bordo mergulhada em Rn . Para cada p ∈ M definimos o espaço normal a M em p como sendo o subespaço Np M ⊂ Tp Rn de todos os vetores ortogonais a Tp M com respeito ao produto interno canônico de Rn . O fibrado normal de M é o subconjunto N M ⊂ T Rn definido por G NM = Np M = {(p, v) ∈ T Rn | p ∈ M e v ∈ Np M }. p∈M Há uma projeção natural πN M : N M → M definida pela restrição de π : T Rn → Rn a N M . Cada fibra Np M é um espaço vetorial de dimensão n − m. Definamos E : N M → Rn por E(p, v) = p + v, onde consideramos v ∈ Np M ⊂ Tp Rn como um vetor de Rn via a identificação natural Tp Rn ∼ = Rn . A aplicação E leva cada espaço normal Np M no espaço afim em p e ortogonal a Tp M . Claramente E é suave. Definição 2.8.16. Uma vizinhança tubular de M é uma vizinhança U de M em Rn que é a imagem por E de um aberto V ⊂ N M da forma V = {(p, v) ∈ N M | kvk < δ(p)}, para uma função positiva e contı́nua δ : M → R. 67 Proposição 2.8.17. Toda variedade suave mergulhada em Rn admite uma vizinhança tubular. Nosso interesse em vizinhanças tubulares é devido à proposição seguinte. Uma retração de um espaço topológico X em um subespaço M ⊂ X é uma aplicação contı́nua r : X → M tal que r|M = idM . Lema 2.8.18. Seja M variedade suave mergulhada em Rn e U uma vizinhança tubular qualquer de M . Existe uma retração suave de U em M . Demonstração: Por definição, existe um aberto V ⊂ N M contendo M tal que E : V → U é um difeomorfismo. Definimos r : U → M por r = π ◦ E −1 , onde π : N M → M é a projeção natural. Vê-se claramente que r é suave e, para p ∈ M , temos E(p, 0) = p, logo r(p) = π ◦ E −1 (p) = π(p, 0) = p, portanto r é retração Os resultados seguintes pressupõem o conhecimento da teoria básica de homotopia. Encontram-se na Seção 3.3 do apêndice as principais definições e resultados. Proposição 2.8.19. Sejam M e N variedades suaves sem bordo e f : M → N uma função contı́nua. Então f é homotópica a uma função suave fe : M → N . Ainda, se f é suave em algum fechado A ⊂ M , então tal homotopia pode ser tomada relativamente a A. Demonstração: Pelo Teorema 2.8.12, podemos admitir que M é uma variedade mergulhada de Rn . Seja U uma vizinhança tubular de M em Rn e seja r : U → M a retração suave dada pelo Lema 2.8.18. Para todo p ∈ M , considere a função contı́nua δ(p) = sup{ε ≤ 1 | Bε (p) ⊂ U }, e difina δe = δ ◦f : N → R. Pelo Teorema 2.8.14, existe uma função suave fe : N → R que é δ-próxima de f em A (que pode ser o conjunto vazio). Definimos a homotopia H : N × I → M por H(p, t) = r (1 − t)f (p) + tfe(p) . Note que H está bem definida pois para cada p, a condição sobre fe garante que kfe(p) − f (p)k < δ(p) = δ(f (p)), ou seja, fe(p) está em uma bola de raio δ(f (p))e centro f (p). Como tal bola está contida em U , o segmento de reta que liga f (p) a fe(p) também está. Portanto H é uma homotopia entre H(p, 0) = f (p) e H(p, 1) = r(fe(p)), que é suave. Ainda, H satisfaz H(p, t) = f (p) para todo p ∈ A, uma vez que f = fe em A. Terminamos esta seção com uma aplicação à teoria de homotopia, que será usada no Capı́tulo 3. 68 Definição 2.8.20. Sejam M e N variedades suaves sem bordo e f, g : M → N funções suaves. Dizemos que f e g são suavemente homotópicas se existe uma função suave H : M × I → N tal que H é uma homotopia entre f e g. Lema 2.8.21. Sejam f, g : M → N aplicações suaves homotópicas. Então f e g são suavemente homotópicas. Além disso, se f é homotópica a g relativamente a algum fechado A ⊂ M , então f e g são suavemente homotópicas relativamente a A. Demonstração: Seja H : M × I → N uma homotopia de f em g (relativa a A, que pode ser o conjunto vazio). Queremos mostrar que H pode ser substituida por uma homotopia suave. Como a Proposição 2.8.19 não se aplica diretamente a variedades com bordo, precisamos primeiramente estender H a uma variedade sem bordo que contenha M × I. Seja J = (−ε, 1 + ε), para algum ε > 0, e H : M × J → M dada por t ≤ 0, H(p, 0) se H(p, t) se 0 ≤ t ≤ 1, H(p, t) = H(p, 1) se t ≥ 1. que claramente é contı́nua. Note que a restrição de H a M × {0} ∪ M × {1} é suave, pois esta é igual a f ◦ π1 em M × {0} e a g ◦ π1 em M × {1} (onde π1 : M × I → M é a projeção canônica). Se f ' g (rel A), H é também suave em A × I. Portanto, pela e : M × J → N cuja restrição a M × {0} ∪ M × {1} ∪ A × I Proposição 2.8.19, existe H e M ×I é uma é igual a H (e, portanto, a H). Restringindo a M × I, vemos que H| homotopia suave relativa a A entre f e g. 2.9 Formas Diferenciais As formas diferenciais nada mais são que campos de tensores alternados. Elas generalizam os campos de vetores e serão nossos integrandos na próxima seção. Como na Seção 2.6, a construção é feita para variedades suaves sem bordo. Para as variedades suaves com bordo, no entanto, as definições são similares, todos os resultados continuam valendo e têm demonstrações análogas às dadas. Definição 2.9.1. Seja M uma variedade suave sem bordo. Definimos o fibrado k-tensorial covariante de M como k O M= k G O (Tp M ). p∈M Similarmente podemos definir o fibrado l-tensorial contravariante de M e o fibrado (k, l)-tensorial misto de M como O l M= G O p∈M k O (Tp M ), l l k G O M= (Tp M ). p∈M l PercebaN que os fibradosNtangente e cotangente são casos especiais de fibrados 1 tensoriais: M = T ∗M . 1 M = TM e 69 N Focaremos agora nosso interesse em k M (as construções apesar N que faremos, N de não serem de nosso interesse aqui, também servem para l M e kl M ). N Há uma projeção natural π : k M → M dada por π(p, τ ) = p. Proposição 2.9.2. Seja M uma Nk variedade suave de dimensão n sem bordo. O fibrado k-tensorial covariante M admite uma topologia e uma estrutura suave natural com as quais este torna-se uma N variedade suave de dimensão n + nk sem bordo. Além disso, com tal estrutura π : k M → M é suave. Demonstração: Dada (U, ϕ) uma carta de M , sejam (xi ) as funções coordenadas k de ϕ. Considere ϕ e : π −1 (U ) → Rn+n dada por ! X ϕ e τI dxI = (x1 (p), . . . , xn (p), τ1...1 , . . . , τ1...n , . . . , τn...1 , . . . , τn...n ). p I k k Temos que im(ϕ) e = ϕ(U ) × Rn , que é um aberto de Rn+n , e que ϕ e é bijeção pois ϕ e−1 (x1 , . . . , xn , τ1...1 , . . . , τ1...n , . . . , τn...1 , . . . , τn...n ) = X τI dxI ϕ−1 (x) . I e a correspondente carta de Se (V, ψ) é outra carta de M e (π −1 (V ), ψ) então Nk M, k ϕ(π e −1 (U ) ∩ π −1 (V )) = ϕ(U ∩ V ) × Rn , e −1 (U ) ∩ π −1 (V )) = ψ(U ∩ V ) × Rnk ψ(π k são abertos de Rn+n . Note que, se (p, τ ) ∈ π −1 (U ) ∩ π −1 (V ) e (dxi |p ), (de xj |p ) são ∗ i j bases de Tp M , onde (x ) e (e x ) são as funções coordenadas de ϕ e ψ respectivamente, P então τ se escreve unicamente em cada uma dessas bases como τ = I τI dxI |p = P eJ dxJ |p , onde I = (i1 , . . . , ik ) e J = (j1 , . . . , jk ) são ı́ndices múltiplos. Temos J τ que ∂ ∂ ,..., i τI = τi1 ...ik = τ ∂xi1 ∂x k ! X ∂e X ∂e xj 1 ∂ xj k ∂ = τ (p) j1 , . . . , (p) j i1 ik ∂x ∂e x ∂x ∂e xk p p j j 1 k X ∂e X ∂e xj1 ∂e xj k xJ = (p) . . . (p)e τ = (p)e τJ . j1 ...jk i1 ik I ∂x ∂x ∂x j ,...,j J 1 k k k Portanto a mudança de carta ψe ◦ ϕ e−1 : ϕ(U ∩ V ) × Rn → ψ(U ∩ V ) × Rn se escreve, denotando ψe ◦ ϕ e−1 (x1 , . . . , xn , τ1...1 , . . . , τ1...n , . . . , τn...1 , . . . , τn...n ) = I, como ! J J X ∂e X ∂e x x I = x e1 (x), . . . , x en (x), (p)e τJ , . . . , (p)e τJ , (1,...,1) (n,...,n) ∂x ∂x J J 70 donde vemos que esta é suave. Dada, então, uma cobertura enumerável {Ui } de M , obtemos uma cobertura Nk −1 enumerável {π (Ui )} de M onde cada π −1 (Ui ) é o domı́nio de uma carta ϕ ei satisfazendo as condições (1)-(4) do Lema N 2.2.10. Verifiquemos a condição (5). Dados quaisquerN(p, τ ) e (p, υ) em k M , claramente (p, τ ) e (p, υ) pertencem à mesma carta de k M , a saber, (π −1 (U ), ϕ), e onde p ∈ U . Também, se (p, τ ) e (q, υ) são tais que p 6= q, existirão U e V abertos de M tais que p ∈ U , q ∈ V e U ∩ V = ∅. Logo (p, τ ) ∈ π −1 (U ),N (q, υ) ∈ π −1 (V ) e π −1 (U ) ∩ π −1 (V ) = ∅. k Portanto, pelo Lema 2.2.10, M admite uma única estrutura de variedade suave tal que (U , ϕ e ) são cartas. Ni i Por fim, se k M está munida dessa estrutura, π é suave pois sua representação em coordenadas com relação a (U, ϕ), (π −1 (U ), ϕ) e é π(x, τ ) = x. Nk Nk Uma seção de M éN uma seção da projeção π : M → M , istoN é, uma função contı́nua Y : M → k M que, a cada p ∈ M associa Y (p) = Yp ∈ k M e que satisfaz π ◦ Y = idM . Nk N Uma seção de M é suave se Y : M → k M é suave. N Definição 2.9.3. Seja M uma variedade suave sem bordo. Uma seção de k M é chamada de campo de k-tensores (covariantes) N em M . Um campo de k-tensores (covariantes) suave em M é uma seção suave de k M . Denotaremos o espaço vetorial de todos os campos de k-tensores suaves em M por T k (M ). Como vimos na Seção 1.4, dada (dxi ) uma base de Tp∗ M , os tensores Nk (Tp M ). da forma dxi1 ⊗ · · · ⊗ dxik , com ij = 1, . . . , n, formam uma base para Nk i Assim, dadas coordenadas locais (x ), qualquer campo de tensores ξ ∈ M pode ser escrito nessas coordenadas como X ξi1 ...ik dxi1 ⊗ · · · ⊗ dxik . ξ= i1 ,...,ik As funções ξi1 ...ik são chamadas de funções componentes de ξ com relação a (xi ). Nk Lema 2.9.4. Seja M uma variedade suave sem bordo e ξ : M → M uma seção Nk de M . São equivalentes: (1) ξ é suave, (2) Para qualquer carta de coordenadas em M , as funções componentes de ξ são suaves, (3) Seja U ⊂ M aberto. Se Xi , . . . , Xk são campos de vetores suaves em U , a função ξ(X1 , . . . , Xk ) : U → R dada por ξ(X1 , . . . , Xk )(p) = ξp (X1 |p , . . . , Xk |p ) é suave. 71 Um campo de 1-tensores nada mais é que um campo de covetores. Como um 0-tensor é simplesmente um número real, um campo de 0-tensores é apenas uma função contı́nua de M em R. Definição 2.9.5. Sejam M e N variedades suaves sem bordo, f : M → N uma função suave e ϑ um campo de k-tensores em N . Definimos o pullback de ϑ por f como sendo o campo de k-tensores em M dado por (f ∗ ϑ)p (X1 , . . . , Xk ) = ϑf (p) (f∗ X1 , . . . , f∗ Xk ). Proposição 2.9.6. Sejam M , N e P variedades suaves sem bordo, f : M → N , g : N → P funções suaves e ϑ ∈ T k (N ), ρ ∈ T l (N ). Então (1) f ∗ (ϑ ⊗ ρ) = f ∗ ϑ ⊗ f ∗ ρ, (2) f ∗ ϑ é um campo suave de k-tensores, (3) f ∗ : T k (N ) → T k (M ) é linear sobre R, (4) (g ◦ f )∗ = f ∗ ◦ g ∗ , (5) (idN )∗ ϑ = ϑ. Definição 2.9.7. Seja MNuma variedade suave de dimensão n sem bordo. Denotaremos o subconjunto de k M dos k-tensores covariantes alternados por k ^ M= k G ^ (Tp M ). p∈M V Mostra-se de maneira análoga à Proposição 2.9.2 que k M tem uma Vkestrutura n natural de variedade suave de dimensão k sem bordo, com a qual π : M →M dada por π(p, τ ) =Vp é suave. V Uma seção de k M é uma seção da projeção π : k M → M . V Definição 2.9.8. Uma seção de k M é chamada de k-forma Vk diferencial em M . Uma k-forma diferencial suave em M é uma seção suave de M. Vk Usaremos a notação ω ∈ M . Denotaremos o espaço vetorial das k-formas diferenciais suaves em M por Ak (M ). Como vimos na Seção 1.10, dada (dxi ) uma base de Tp∗ M , os tensores da forma dxi1 ∧· · ·∧dxik , com i1 < · · · < ik , ij ∈ {1, . . . , n}, V formam uma base para k (Tp M ). Assim, em coordenadas locais (xi ), qualquer kforma diferencial ω em M pode ser escrita como X ω= ωi1 ...ik dxi1 ∧ · · · ∧ dxik . i1 <···<ik Usaremos como abreviações, quando não houver risco de confusão, ωI = ωi1 ...ik e dxI = dxi1 ∧ · · · ∧ dxik , ficando claro que I é umPı́ndice múltiplo crescente de comprimento k com entradas em {1, . . . , n}. Assim, I diz que a soma se estende 72 a todos os possı́veis ı́ndices múltiplos I daquele tipo. Dessa forma, uma k-forma diferencial ω em M pode ser escrita em coordenadas locais como X ω= ωI dxI . I O resultado análogo para formas diferenciais do Lema 1.9.15(3) é ∂ ∂ i1 ik ,..., j = δJI . dx ∧ · · · ∧ dx ∂xj1 ∂x k Portanto as componentes ωI de ω ficam determinadas por ∂ ∂ ,..., i . ωI = ω ∂xi1 ∂x k Exemplo 2.9.9. Exemplos de formas em R3 são ξ = sin(xy) dx ∧ dy ζ = x2 dx + y 2 dy + z 2 dz Exemplo 2.9.10. Qualquer n-forma em Rn é apenas uma função de Rn em R contı́nua, pois existe apenas um ı́ndice múltiplo crescente de comprimento n com entradas em {1, . . . , n}. Uma 0-forma é também apenas uma função contı́nua de Rn em R. Uma 1-forma é um campo de covetores. Definição 2.9.11. Seja M uma variedade suave de dimensão n sem bordo, ω uma k-forma diferencial em M e υ uma l-forma diferencial em M . O produto exterior de ω e υ é a (k + l)-forma diferencial (ω ∧ υ)p = ωp ∧ υp em M . Se f é uma 0-forma, nós interpretamos o produto f ∧ ω como o produto usual f ω. Definindo n M ∗ A (M ) = Ak (M ), k=0 temos que (A∗ (M ), +, ∧, ·, R) se torna uma álgebra graduada associativa anticomutativa. Definição 2.9.12. Sejam M e N variedades suaves sem bordo, f : M → N suave e ω uma k-forma diferencial em N . Definimos o pullback de ω por f como sendo a k-forma diferencial em M dada por (f ∗ ω)p (X1 , . . . , Xk ) = ωf (p) (f∗ X1 , . . . , f∗ Xk ). 73 Lema 2.9.13. Sejam M e N variedades suaves sem bordo, f : M → N suave, ω uma k-forma diferencial em N e υ uma l-forma diferencial em N . Então: (1) f ∗ : Ak (N ) → Ak (M ) é linear, (2) f ∗ (ω ∧ υ) = f ∗ ω ∧ f ∗ υ, (3) Em qualquer carta, ! f∗ X ωI dxI = X (ωI ◦ f ) d(xI ◦ f ). I I Este lema nos dá uma fórmula para computarmos pullbacks de formas diferenciais. Note que podemos usá-la, em particular, para determinar a expressão de uma forma em outra carta de coordenadas. Exemplo 2.9.14. Seja ω a forma diferencial dx ∧ dy em R2 . Encarando a transformação para coordenadas polares x = r cos(θ), y = r sin(θ) como uma expressão para a função identidade com relação a diferentes coordenadas no domı́nio e na imagem, obtemos ω = = = = dx ∧ dy d(r cos(θ)) ∧ d(r sin(θ)) (cos(θ) dr − r sin(θ) dθ) ∧ (sin(θ) dr + r cos(θ) dθ) r cos2 (θ) dr ∧ dθ − r sin2 (θ) dθ ∧ dr. Como dθ ∧ dr = −dr ∧ dθ, temos dx ∧ dy = r dr ∧ dθ. Perceba a similaridade dessa fórmula com a fórmula de mudança de coordenadas cartesianas para coordenadas polares para integrais duplas. A proposição seguinte generaliza esse resultado. Proposição 2.9.15. Sejam M e N variedades suaves de dimensão n sem bordo, f : M → N suave, (xi ) e (y i ) coordenadas em abertos U ⊂ M e V ⊂ N respectivamente e u : V → R suave. Então, em U ∩ f −1 (V ) vale f ∗ (u dy 1 ∧ · · · ∧ dy n ) = (u ◦ f ) det(Df ) dx1 ∧ · · · ∧ dxn , (2.11) onde Df denota a matriz das derivadas parciais de f em coordenadas. V Demonstração: Como, para cada p ∈ M , n (Tp M ) é gerado por dx1 ∧ · · · ∧ dxn , é suficiente mostrar que ambos os lados de (2.11) dão o mesmo resultado quando calculados em (∂/∂x1 , . . . , ∂/∂xn ). Pelo Lema 2.9.13, f ∗ (u dy 1 ∧ · · · ∧ dy n ) = (u ◦ f ) df 1 ∧ · · · ∧ df n . 74 Pela Proposição 1.10.3, temos j ∂ ∂ ∂f ∂ j 1 n = det . df ∧ · · · ∧ df , . . . , n = det df 1 i ∂x ∂x ∂x ∂xi Portanto, o lado esquerdo da equação 2.11 é (u ◦ f ) det(Df ) quando aplicado em (∂/∂x1 , . . . , ∂/∂xn ). Por outro lado, o lado direito também é (u ◦ f ) det(Df ), pois ∂ ∂ 1 n dx ∧ · · · ∧ dx , . . . , n = 1. ∂x1 ∂x e , (x̃j )) são cartas com U ∩ (U e ) 6= ∅, em U ∩ (U e) Corolário 2.9.16. Se (U, (xi )) e (U vale j ∂ x̃ 1 n dx1 ∧ · · · ∧ dxn . dx̃ ∧ · · · ∧ dx̃ = det ∂xi Veremos agora que para qualquer variedade suave M existe um operador diferencial d : Ak (M ) → Ak+1 (M ) tal que d(dw) = 0 para toda ω. Definição 2.9.17. Seja M uma variedade suave e (U, (xi )) uma carta de coordenadas de M . Definimos d : Ak (U ) → Ak+1 (U ), chamado de k-ésima diferencial exterior em M , por ! X X d ωJ dxJ = dωJ ∧ dxJ , J J onde J ωJ dxJ é a representação em coordenadas de ω com relação a (xi ) e dωJ é a diferencial de ωJ . P O teorema a seguir mostra que d está bem definido e que essa definição é independente da escolha de coordenadas. Teorema 2.9.18. Seja M uma variedade suave. Então, para cada k ≥ 0, há um único operador linear d : Ak (M ) → Ak+1 (M ) satisfazendo: (1) Se f : M → R é uma função suave (uma 0-forma), então df é a diferencial de f , definida por df (X) = X(f ), (2) Se ω ∈ Ak (M ) e η ∈ Al (M ), então d(ω ∧ η) = dω ∧ η + (−1)k ω ∧ dη, (3) d ◦ d = 0. Além das propriedades acima, o operador d ainda satisfaz: 75 (2.12) (4) Para toda carta de coordenadas (U, (xi )) de M , d é dado por ! X X d ωJ dxJ = dωJ ∧ dxJ , J J (5) Se ω = ω 0 em um aberto U ∈ M , então dω = dω 0 em U , (6) Se U ⊂ M é aberto, então d(ω|U ) = (dω)|U . Demonstração: Suponhamos a princı́pio que M pode ser coberta por uma única carta. Sejam (x1 , . . . , xn ) coordenadas globais em M e d : Ak (M ) → Ak+1 (M ) dado por ! X X d ωJ dxJ = dωJ ∧ dxJ . J J Assim definido, o operador d é claramente linear e satisfaz (1). Mostraremos agora que d satisfaz d(f dxI ) = df ∧ dxI para qualquer ı́ndice múltiplo I. De fato, se I tem entradas repetidas, então d(f dxI ) = df ∧ dxI = 0. Se não, seja σ a permutação que leva I em um ı́ndice múltiplo crescente J = Iσ . Então d(f dxI ) = sig(σ)d(f dxJ ) = sig(σ)df ∧ dxJ = df ∧ dxI . Para mostrar (2), por linearidade, basta considerar termos do tipo ω = f dxI e η = g dxJ . Temos d(ω ∧ η) = = = = = d((f dxI ) ∧ (g dxJ )) d(f g dxI ∧ dxJ ) (g df + f dg) ∧ dxI ∧ dxJ (df ∧ dxI ) ∧ (g dxJ ) + (−1)k (f dxI ) ∧ (dg ∧ dxJ ) dω ∧ η + (−1)k ω ∧ dη, onde o fator (−1)k aparece pois dg ∧ dxI = (−1)k dxI ∧ dg, uma vez que dg é uma 1-forma e dxI uma k-forma. Provaremos (3) primeiramente para 0-formas, ou seja, funções reais suaves. Neste caso, ∂ 2f ∂f j dx = dxi ∧ dxj d(df ) = d j i j ∂x ∂x ∂x X ∂ 2f ∂ 2f − j i dxi ∧ dxj = 0 = i j ∂x ∂x ∂x ∂x i<j Para o caso geral, usamos o caso acima e o item (2), obtendo ! X d(dω) = d dωJ ∧ dxJ J = X J k XX d(dωJ ) ∧ dx + (−1)i dωJ ∧ dxj1 ∧ · · · ∧ d(dxji ) ∧ · · · ∧ dxjk J J i=1 = 0 76 Vejamos que d é único. Seja, para cada k ≥P0, de : Ak (M ) → Ak+1 (M ) outro operador linear satisfazendo (1), (2) e (3) e ω = J ωj dxJ ∈ Ak (M ). Pela linearidade de de e por (2), ! X e = de dω ωJ dxJ J = X e J ∧ dxJ + (−1)0 dω X e J ). ωJ d(dx J J Por (2), o último somatório acima expande-se em uma soma de termos, cada um e ji ), que, por (1), é igual a d( e dx e ji ) e portanto é contendo um fator da forma d(dx zero, por (3). Por outro lado, como cada componente ωJ é uma função suave, (1) e J = dωJ , e segue que dω e é igual a dω definida por (2.12). Isso implica implica dω que obtemos o mesmo operador, independente da carta global que usarmos para defini-lo. Os itens (4), (5) e (6) são consequências imediatas da definição de d pois, como M pode ser coberta por uma única carta, qualquer aberto U de M também pode. Isso completa a demonstração para esse caso especial. Seja, agora, M uma variedade suave qualquer. Em qualquer carta (U, (xi )) de M , o argumento acima se aplica, nos dando um único operador linear dU de k-formas suaves em (k + 1)-formas suaves satisfazendo (1)-(6). Se U e U 0 são domı́nios de duas cartas de M e U ∩ U 0 6= ∅, temos, por (6), (dU ω)|U ∩U 0 = dU ∩U 0 ω = (dU 0 ω)|U ∩U 0 . Portanto podemos definir d : Ak (M ) → Ak+1 (M ) de forma unı́voca, por (dω)p = dU (ω|U )p , onde U é qualquer domı́nio de carta contendo p. Assim definido, d satisfaz os itens (1)-(3) pois dU os satisfaz, e satisfaz (4)-(6) por definição. Resta-nos mostrar a unicidade. Seja, para cada k, de : Ak (M ) → Ak+1 (M ) outro operador satisfazendo (1)-(3). Mostremos que de satisfaz (5) verificando que, e = 0 em U , se η = 0 em U . Seja p ∈ U e ϕ ∈ C ∞ (M ) se η = ω − ω 0 , então dη uma função teste suave com suporte contido em U satisfazendo ϕ(q) ≡ 1 em uma vizinhança de p. Então ϕη ≡ 0 em M , logo e e e e e 0 = d(ϕη) p = dϕp ∧ ηp + ϕ(p)dηp = dϕp ∧ ηp + ϕ(p)dηp = dηp , e =0 pois ϕ(q) ≡ 1 em uma vizinhança de p. Como p ∈ U é arbitrário, segue que dη em U . Seja U ⊂ M o domı́nio de uma carta. Para cada k, definimos deU : Ak (U ) → k+1 A (U ) como segue. Para cada p ∈ U , tomamos uma extensão de ω a uma kforma suave global ω e ∈ Ak (M ) igual a ω em uma vizinhança de p e colocamos eω )p . Como de é local, essa definição independe da escolha de ω (deU ω)p = (de e , e como e e d satisfaz (1)-(3), dU também as satisfaz. Mas já provamos acima a unicidade para domı́nios de carta, o que implica deU = dU . Em particular, se ω é a restrição a U de uma forma global ω e em M , podemos usar a mesma extensão ω e para uma vizinhança e e de cada ponto, de forma que dU (e ω |U ) = dU (e ω |U ) = (de ω )|U . Isso mostra que de é igual a d como definimos acima, e terminamos. 77 Exemplo 2.9.19. Em R3 , qualquer 1-forma suave pode ser escrita como ω = P dx + Q dy + R dz, onde P, Q, R : R3 → R são funções suaves. Temos dω = dP ∧ dx + dQ ∧ dy + dR ∧ dz ∂P ∂P ∂P = dx + dy + dz ∧ dx ∂x ∂y ∂z ∂Q ∂Q ∂Q dx + dy + dz ∧ dy + ∂x ∂y ∂z ∂R ∂R ∂R + dx + dy + dz ∧ dz ∂x ∂y ∂z ∂Q ∂P ∂R ∂P ∂Q ∂R = − dx ∧ dy + − dx ∧ dz + − dy ∧ dz. ∂x ∂y ∂x ∂z ∂y ∂z O próximo lema indica como d se comporta em relação a pullbacks. Lema 2.9.20. Sejam M e N variedades suaves e f : M → N suave. Então, para toda ω ∈ Ak (N ), f ∗ (dω) = d(f ∗ ω). Demonstração: Como d é local (Teorema 2.9.18), segue que se o resultado é válido para uma vizinhança de cada ponto, ele é válido em M . Em coordenadas locais ω pode ser escrita como uma soma de termos de tipo g dxi1 ∧ · · · ∧ dxik , portanto, por linearidade, é suficiente mostrar que o resultado vale para apenas um termo deste tipo. Temos f ∗ d(g dxi1 ∧ · · · ∧ dxik ) = f ∗ (dg ∧ dxi1 ∧ · · · ∧ dxik ) = d(g ◦ f ) ∧ (dxi1 ◦ f ) ∧ · · · ∧ (dxik ◦ f ), enquanto que df ∗ (g dxi1 ∧ · · · ∧ dxik ) = d((g ◦ f )(dxi1 ◦ f ) ∧ · · · ∧ (dxik ◦ f )) = d(g ◦ f ) ∧ (dxi1 ◦ f ) ∧ · · · ∧ (dxik ◦ f ), e o resultado segue. 2.10 Orientações Grosso modo, dar uma orientação para uma reta é escolher um sentido “preferido” nela. Declaramos assim que uma base orientada para tal reta consiste de um vetor que aponta para o sentido escolhido. Já uma base ordenada “preferida” para R2 consiste de vetores cuja rotação do primeiro vetor até o segundo é uma rotação no sentido anti-horário. Nesta seção nós formalizamos e generalizamos esse conceito. 78 Definição 2.10.1. Seja E um espaço vetorial de dimensão finita n ≥ 1. Dizemos que duas bases ordenadas (ei ), (ẽi ) de E têm a mesma orientação se det(Bij ) > 0, onde (Bij ) é a matriz mudança de base de (ẽi ) para (ei ). Se (ei ) é uma base de E, denotamos [ei ] a classe de todas as bases (ẽi ) tais que (ei ) e (ẽi ) têm a mesma orientação. Se dim(E) ≥ 1, uma orientação em E é uma classe [ei ], para alguma base (ei ) escolhida. Uma dupla (E, [ei ]) é chamada de espaço vetorial orientado, e, se (ei ) ∈ [ei ], então (ei ) é dita positivamente orientada. Qualquer base que não pertença à orientação dada é dita negativamente orientada. Caso dim(E) = 0, uma orientação para E é simplesmente uma escolha entre +1 ou −1. Exemplo 2.10.2. Seja n > 0. A orientação [e1 , . . . , en ] de Rn determinada pela base canônica (e1 , . . . , en ) é chamada de orientação canônica de Rn . A orientação canônica de R0 é definida como sendo +1. Há uma importante relação entre orientações e tensores alternados, como mostra a proposição a seguir. Proposição 2.10.3. Seja E um espaço vetorial de dimensão finita n ≥ 1 e f ∈ Vn (E), f 6= 0. O conjunto das bases ordenadas (ei ) de E tais que f (e1 , . . . , en ) > 0 é uma orientação em E. Demonstração: Basta notar que, se f é não nula, como vimos na Seção 1.11, f é um múltiplo do determinante. V Se E é um espaço vetorial orientado e f ∈ n (E) é um tensor que determina a orientação em E, dizemos que f é um tensor positivamente orientado. O tensor dx1 ∧ · · · ∧ dxn , por exemplo, é um tensor positivamente orientado de Rn com a orientação canônica. Vejamos agora como a noção de orientação se generaliza para variedades. Seja M uma variedade suave sem bordo. Uma orientação pontual em M é a escolha de uma orientação para cada Tp M . Note, porém, que este não é um conceito muito útil, visto que a orientação em pontos em uma vizinhança pode não ter nenhuma relação. Para haver alguma relação entre uma orientação e a estrutura suave precisamos de uma condição extra. Se é dada uma orientação pontual em M , dizemos que um referencial local (η1 , . . . , ηn ) para M é positivamente orientado se, para todo p ∈ U , (η1 |p , . . . , ηn |p ) é uma base positivamente orientada de Tp M . Um referencial local negativamente orientado é definido analogamente. Uma orientação pontual em M é dita contı́nua se cada ponto p ∈ M está contido no domı́nio de um referencial local positivamente orientado. Agora temos condições de definir orientações em uma variedade: Definição 2.10.4. Seja M uma variedade suave sem bordo. Uma orientação em M é uma orientação pontual contı́nua em M . Uma variedade suave com uma orientação escolhida é chamada de variedade orientada, e dizemos que uma variedade M é orientável se existe uma orientação para M . 79 Se M tem dimensão 0, uma orientação em M é simplesmente associação de +1 ou −1 a cada um de seus pontos. Logo, toda variedade de dimensão 0 é orientável. Seja (U, ϕ) uma carta de coordenadas de uma variedade suave sem bordo M . Dizemos que (U, ϕ) é positivamente orientada se o referencial local (∂/∂xi ) é positivamente orientado. Caso contrário, (U, ϕ) é negativamente orientada. Definição 2.10.5. Uma coleção de cartas de coordenadas {(Uα , ϕα )} é dita consistentemente orientada se, para qualquer α, β, det(D(ϕβ ◦ ϕ−1 α )) > 0 em ϕα (Uα ∩ Uβ ), sendo que D(ϕβ ◦ ϕ−1 α ) denota a matriz das derivadas parciais de −1 ϕβ ◦ ϕα em coordenadas. As duas proposições seguintes nos fornecem modos mais práticos para especificar orientações em variedades. Proposição 2.10.6. Seja M uma variedade suave de dimensão n > 0 sem bordo. Dada uma cobertura aberta de M por cartas de coordenadas consistentemente orientadas {(Uα , ϕα )}, há uma única orientação em M tal que cada carta de coordenadas (Uα , ϕα ) é positivamente orientada. Demonstração: Seja {(Uα , ϕα )} uma cobertura aberta de M por cartas de coordenadas consistentemente orientadas. Para qualquer p ∈ M , a condição de consistência implica que a matriz mudança de base entre as bases determinadas por duas quaisquer cartas tem determinante positivo. Assim, as bases para quaisquer cartas contendo p determinam a mesma orientação em Tp M . Fica, então, definida uma orientação pontual em M . Cada p ∈ M está contido no domı́nio de pelo menos uma carta de coordenadas, e o referencial local correspondente é positivamente orientado por definição, portanto tal orientação pontual é contı́nua. Proposição 2.10.7. Seja M uma variedade suave de dimensão n > 0 sem bordo. Qualquer n-forma ω ∈ An (M ), ω(p) 6= 0 ∀p ∈ M , determina uma única orientação em M tal que ω é positivamente orientada em cada ponto de M . Demonstração: A n-forma ω define, pela Proposição 2.10.3, uma orientação pontual em M . Precisamos mostrar que esta é contı́nua. Sejam (xi ) coordenadas locais em um domı́nio conexo U ⊂ M . Em U , ω se escreve como ω = f dx1 ∧ · · · ∧ dxn , para alguma função contı́nua f . Como ω é não nula, f é não nula, e segue que ∂ ∂ , . . . , n = f 6= 0 ω ∂x1 ∂x em todo ponto de U . Como U é conexo, concluı́mos que essa expressão é sempre positiva ou sempre negativa em U e, portanto, a carta de coordenadas é positivamente orientada ou negativamente orientada. Caso seja negativamente orientada, 80 substituı́mos xi por −xi , obtendo uma nova carta, para a qual o referencial local é positivamente orientado. Assim a orientação pontual definida por ω é contı́nua. Devido a esta última proposição, qualquer n-forma que não se anula em uma variedade suave de dimensão n é chamada de forma de orientação. Se M é uma variedade orientada e ω é a forma que determina a orientação de M , dizemos que ω é positivamente orientada. Verifica-se que, se ω e ξ são duas formas positivamente orientadas em M , então ω = f ξ, para alguma função f : M → R suave estritamente positiva. Note, ainda, que o resultado da Proposição 2.10.7 continua válido para variedades de dimensão 0 se convencionarmos que ω atribui a orientação +1 aos pontos nos quais ela é positiva e −1 aos pontos nos quais ela é negativa. Definição 2.10.8. Sejam M e N variedades orientadas de dimensão positiva e f : U ⊂ M → V ⊂ N um difeomorfismo local. Dizemos que f preserva orientação se, para cada p ∈ U , f∗ leva bases positivamente orientadas de Tp M em bases positivamente orientadas de Tf (p) N . Analogamente, dizemos que f reverte orientação se f∗ leva bases positivamente orientadas de Tp M em bases negativamente orientadas de Tf (p) N . Uma orientação em uma variedade suave com bordo pode ser definida exatamente como fizemos para variedades suaves sem bordo. Se M é uma variedade suave de dimensão n sem bordo, uma subvariedade D suave, compacta de dimensão n com bordo mergulhada em M é chamada de domı́nio regular. Uma orientação em M induz uma orientação em D, por exemplo, restringindo uma forma de orientação em M a D. Como já vimos, bordo de uma variedade suave M de dimensão n com bordo, quando não vazio, é uma variedade suave de dimensão n − 1 sem bordo. Quando munimos M de uma orientação, esta induz uma orientação em ∂M , chamada de orientação induzida no bordo. Vejamos como isso ocorre: Seja M uma variedade suave de dimensão n com bordo. Então, por definição, para todo p ∈ ∂M existe uma carta de coordenadas (U, ϕ) tal que p ∈ U e que ϕ(U ∩ ∂M ) = ϕ(U ) ∩ ∂Hn . Seja p ∈ ∂M e (U, (xi )) uma carta de coordenadas com p ∈ U . Dizemos que um vetor n X i ∂ N= N ∂xi p i=1 em Tp M aponta para dentro se a componente N n de N é positiva. Analogamente, dizemos que N aponta para fora se N n < 0. Definição 2.10.9. Um campo de vetores sobre ∂M é uma função contı́nua N : ∂M → T M tal que N (p) = Np ∈ Tp M Note a diferença entre um campo de vetores sobre ∂M e um campo de vetores em ∂M (este último deveria satisfazer Np ∈ Tp ∂M para todo p ∈ ∂M ). Dizemos que um campo de vetores N sobre ∂M aponta para fora se Np aponta para fora, para cada p ∈ ∂M . 81 Lema 2.10.10. Seja M uma variedade suave com bordo. Existe um campo suave de vetores que aponta para fora sobre ∂M . Demonstração: Sejam (Uα , ϕα ) cartas de coordenadas em M tais que coleção {Uα } é uma cobertura de uma vizinhança de ∂M . Em cada uma dessas cartas, ∂ Nα = − n ∂x ∂M ∩Uα é um campo suave de vetores sobre ∂M ∩ Uα que aponta para fora. Tome {ψα } uma partição da unidade com relação à cobertura {Uα ∩ ∂M } de ∂M e defina N um campo suave de vetores sobre ∂M por X N= ψα Nα . α Precisamos mostrar que N aponta para fora. Sejam (y 1 , . . . , y n ) coordenadas locais em uma vizinhança de p ∈ ∂M . Como cada Nα aponta para fora, vale dy n (Nα ) < 0. Portanto X ψα (p)dy n (N α|p ) < 0, dy n (Np ) = α pois cada termo da soma acima é estritamente negativo e pelo menos um deles é não nulo. Dada uma n-forma de orientação ω em M , a existência de um campo de vetores que aponta para fora N sobre ∂M nos permite definir uma (n − 1)-forma iN ω em M , chamada de contração de ω com relação a N , dada por iN ω(Y1 , . . . , Yn−1 ) = ω(N, Y1 , . . . , Yn−1 ) p p tal que iN ω|∂M é uma forma de orientação em ∂M . Mais precisamente, temos a proposição seguinte: Proposição 2.10.11. Seja M uma variedade orientada com bordo. Então ∂M é orientável, e a orientação determinada por qualquer campo suave de vetores sobre ∂M que aponta para fora é independente da escolha desse campo. À orientação da proposição acima damos o nome de orientação induzida no bordo. Exemplo 2.10.12. Seja Hn munido da orientação canônica. Vamos determinar a orientação induzida em ∂Hn . Note que ∂Hn pode ser identificado com Rn−1 via a correspondência (x1 , . . . , xn−1 , 0) 7→ (x1 , . . . , xn−1 ). Como o campo de vetores −∂/∂xn sobre ∂Hn aponta para fora, o referencial das coordenadas padrão para Rn−1 será positivamente orientado para ∂Hn se, e somente 82 se, [−∂/∂xn , ∂/∂x1 , . . . , ∂/∂xn−1 ] é a orientação canônica de Rn . Temos ∂ ∂ ∂ ∂ ∂ ∂ = − − n , 1 , . . . , n−1 , , . . . , n−1 ∂x ∂x ∂x ∂xn ∂x1 ∂x ∂ ∂ n = (−1) ,..., n . ∂x1 ∂x Portanto, a orientação induzida em ∂Hn é igual à orientação canônica em Rn−1 se n é par e é a orientação oposta a esta se n é ı́mpar. Em particular, as coordenadas padrão em ∂Hn são positivamente orientadas se, e somente se, n é par. Para fins práticos, a forma mais útil de descrever subvariedades é através de parametrizações locais. O lema seguinte provê uma forma de verificar quando uma parametrização local de um bordo preserva orientação. Lema 2.10.13. Seja M uma variedade suave orientada de dimensão n com bordo e X : U → M uma parametrização local suave de ∂M , onde U ⊂ Rn−1 é um aberto conexo. Se, para algum b < c ∈ R, X admite uma extensão a uma imersão suave e : (b, c] × U → M tal que X(c, e x) = X(x), então X preserva a orientação de ∂M X e preserva a orientação de M . (com a orientação induzida) se, e somente se, X 2.11 Integração Nesta seção veremos como integrar n-formas diferenciais em variedades suaves de dimensão n e demonstraremos o Teorema de Stokes em variedades. Definição 2.11.1. Seja D ⊂ Rn um domı́nio de integração compacto e ω uma n-forma diferencial em D. Definimos a integral de ω em D como Z Z f, ω= D D onde f : Rn → R é a função contı́nua tal que ω = f dx1 ∧ · · · ∧ dxn A definição acima por ser escrita, de forma mais sugestiva, como Z Z Z 1 n ω= f dx ∧ · · · ∧ dx = f dx1 . . . dxn . D D D Definição 2.11.2. Seja U ⊂ Rn aberto. Definimos o suporte de uma n-forma diferencial em U por supp(ω) = {x ∈ U | ω(x) 6= 0}. Se supp(ω) é compacto, dizemos que ω tem suporte compacto. Para que possamos definir a integral em U de uma n-forma diferencial com suporte compacto, precisamos do seguinte lema: 83 Lema 2.11.3. Sejam K ⊂ U ⊂ Rn tais que U é aberto e K é compacto. Então existe um domı́nio de integração (Definição A.4.19) D tal que K ⊂ D ⊂ U . Assim podemos definir: Definição 2.11.4. Seja U ⊂ Rn aberto e ω uma n-forma diferencial em U com suporte compacto. Definimos a integral de ω em U por Z Z ω= ω, U D onde D é qualquer domı́nio de integração tal que supp(ω) ⊂ D ⊂ U . De forma similar, se V ⊂ Hn é aberto, e ω é uma n-forma diferencial em V com suporte compacto, definimos Z Z ω= ω, V D∩Hn onde D é qualquer domı́nio de integração tal que supp(ω) ⊂ D ⊂ V . Proposição 2.11.5. Sejam D, E ⊂ Rn domı́nios de integração compactos e seja ω uma n-forma diferencial em E. Se g : D → E é uma função suave tal que g : int(D) → int(E) é um difeomorfismo que preserva ou reverte orientação, então Z g ∗ ω se g preserva orientação, Z D ω= Z E − g ∗ ω se g reverte orientação. D Demonstração: Sejam (x1 , . . . , xn ) e (y 1 , . . . , y n ) as coordenadas padrão em D e E respectivamente e suponha que g preserva orientação. Escrevendo ω = f dy 1 ∧ · · · ∧ dy n , pela formula de mudança de variáveis (Teorema A.4.24) e pela fórmula (2.11) para pullbacks, temos Z Z ω = E f ZE (f ◦ g)| det(Dg)| = ZD (f ◦ g)(det(Dg)) = ZD = ZD = (f ◦ g)(det(Dg)) dx1 ∧ · · · ∧ dxn g ∗ ω. D Se g reverte orientação, a menos do sinal negativo, que neste caso surge pois | det(Dg)| = − det(Dg), o cálculo é análogo. 84 Corolário 2.11.6. Sejam U, V ⊂ Rn abertos, g : U → V um difeomorfismo que preserva orientação e ω é uma n-forma diferencial em V com suporte compacto. Então Z Z ω= g ∗ ω. V U Usando os resultados sobre integração de n-formas diferenciais em Rn coletados acima, vamos agora definir integração de n-formas diferenciais em variedades orientadas. Se M é uma variedade orientada de dimensão n ≥ 1 sem bordo e ω é uma nforma diferencial em M com suporte compacto e contido no domı́nio de uma única carta de coordenadas (U, ϕ) de M , definimos a integral de ω em M como Z Z ω= (ϕ−1 )∗ ω. M ϕ(U ) Note que (ϕ−1 )∗ ω é uma n-forma diferencial com suporte compacto e contido em ϕ(U ) ⊂ Rn . Proposição 2.11.7. Seja M é uma variedade orientada de dimensão n ≥ 1 sem bordo e ω é uma n-forma diferencial em M com suporte compacto e contido no domı́nio de uma única carta de coordenadas orientada (U, ϕ) de M . Então Z ω M não depende da escolha da carta de coordenadas (U, ϕ). e , ϕ) Demonstração: Seja (U e outra carta de coordenadas orientada satisfazendo e e ) → ϕ(U e ) é um difeomorfismo que supp(ω) ⊂ U . Como ϕ e ◦ ϕ−1 : ϕ(U ∩ U e ∩U preserva orientação, pelo Corolário 2.11.6, Z Z Z −1 ∗ −1 ∗ (ϕ e ◦ ϕ−1 )∗ (ϕ e−1 )∗ ω (ϕ e )ω = (ϕ e )ω= e) e) e) e ∩U ϕ(U ∩U ϕ( eU Z Zϕ(U −1 ∗ ∗ −1 ∗ (ϕ−1 )∗ ω. = (ϕ ) (ϕ) e (ϕ e )ω= e) ϕ(U ∩U Então as duas definições de R M ϕ(U ) ω coincidem. Se M é uma variedade orientada de dimensão n ≥ 1 com bordo e ω uma n-forma diferencial em M com suporte compacto R e contido no domı́nio de uma única carta de coordenadas de M , a definição de M ω é a mesma, exceto que integraremos em abertos de Hn . O resultado da Proposição 2.11.7 acima também continua válido com essa alteração. Para definirmos a integral de uma n-forma diferencial em uma variedade orientada M de dimensão n, usamos a definição para esse caso especial que vimos, juntamente com uma partição da unidade. 85 Definição 2.11.8. Seja M uma variedade orientada de dimensão n ≥ 1 com bordo e ω uma n-forma diferencial em M com suporte compacto. Seja {(Ui , ϕi )} uma cobertura finita de supp(ω) por cartas de coordenadas orientadas e {ψi } uma partição suave da unidade com relação a {(Ui , ϕi )}. Definimos a integral de ω em M como Z XZ ω= ψi ω. M M i Como supp(ψi ω) ⊂ Ui é compacto, cada termo da soma acima está bem definido. R Lema 2.11.9. A definição de M ω dada acima não depende da escolha das cartas de coordenadas nem da partição da unidade. ej , ϕ Demonstração: Seja {(U ej )} uma outra coleção de cartas de coordenadas orientadas cujos domı́nios formam uma cobertura finita de supp(ω) e {ψej } uma partição ej , ϕ suave da unidade com relação a {(U ej )}. Temos, para cada i, ! Z Z X XZ ψi ω = ψej ψi ω = ψej ψi ω. M M j j M Somando em i, XZ i ψi ω = M XZ i,j ψej ψi ω. m Cada termo nesta última soma é a integral de uma n-forma diferencial com suporte compacto e contido no domı́nio de uma única carta de coordenadas que, pela Proposição 2.11.7, está bem definida. O mesmo argumento mostra que XZ XZ ψej ω = ψej ψi ω. j M i,j m Portanto ambos os casos fornecem o mesmo valor para R M ω. Se M tem dimensão 0, definimos a integral de uma 0-forma diferencial (ou seja, uma função f : M → R) em M por Z X f= ±f (p), M p∈M onde a escolha de ± é de acordo com a orientação em cada p ∈ M . Como f tem suporte compacto, há apenas uma quantidade finita de termos não nulos na soma, o que garante que não há problemas de convergência. Proposição 2.11.10. Sejam M e N variedades orientadas de dimensão n com bordo e ω, ξ n-formas diferenciais em M . R R R (1) Se a, b ∈ R, então M (aω + bξ) = a M ω + b M ξ, R R f denota M com a orientação oposta, então f ω = − (2) Se M ω, M M 86 (3) Se ω é uma forma de orientação para a orientação de M , então R ω > 0, R (4) RSe f : M → N é um difeomeorfismo que preserva orientação, então M ω = f ∗ ω. N M Agora estamos em condições de demonstrar o Teorema de Stokes para variedades: Teorema 2.11.11 (Stokes). Seja M uma variedade orientada de dimensão n ≥ 1 com bordo e ω uma (n − 1)-forma diferencial suave em M com suporte compacto. Então Z Z dω = ω. M ∂M Observação: Fica subentendido no enunciado que ∂M tem a orientação induzida, e que ω, no lado direito da equação, deve ser interpretada como ω|∂M . Se ∂M = ∅, o lado direito da equação deve ser interpretado como 0. Se n = 1, o lado direito da equação é apenas uma soma finita. Demonstração: Começaremos com o caso especial em que M = Hn . Como ω tem suporte compacto, existe R > 0 tal que supp ⊂ [−R, R] × · · · × [−R, R] × [0, R] = A. Escrevendo ω nas coordenadas padrão como ω= n X ci ∧ · · · ∧ dxn , ωi dx1 ∧ · · · ∧ dx i=1 ci significa que dxi está omitido, temos onde dx dω = n X ci ∧ · · · ∧ dxn dωi ∧ dx1 ∧ · · · ∧ dx i=1 n X ∂ωi j ci ∧ · · · ∧ dxn dx ∧ dx1 ∧ · · · ∧ dx = j ∂x i,j=1 = n X i=1 (−1)i−1 ∂ωi 1 dx ∧ · · · ∧ dxn . ∂xi Portanto, Z n X ∂ωi 1 i−1 dω = (−1) dx ∧ · · · ∧ dxn i Hn A ∂x i=1 Z Z R n RZ R X ∂ωi i−1 = (−1) ... (x) dx1 . . . dxn . i ∂x 0 −R −R i=1 Z Podemos rearranjar a ordem de integração em cada termo da soma, a fim de que a integração em xi seja sempre a primeira a ser feita. Pelo Teorema Fundamental do 87 Cálculo (Teorema A.4.25), os termos em que i 6= n se reduzem a I = n−1 X i=1 n−1 X i−1 R Z R Z (−1) Z R ... −R 0 RZ Z −R R Z ∂ωi (x) dx1 . . . dxn ∂xi R ∂ωi ci ∧ · · · ∧ dxn (x) dxi dx1 ∧ · · · ∧ dx i ∂x −R 0 −R i=1 xi =R Z Z Z n−1 R R R X i−1 ci ∧ · · · ∧ dxn ωi (x) ... dx1 ∧ · · · ∧ dx = (−1) = (−1)i−1 ... −R −R 0 i=1 xi =−R = 0, pois escolhemos R grande o bastante, de tal forma que ωi = 0 se xi = ±R. Temos, então Z RZ R Z Z R ∂ωn n−1 ... dω = I + (−1) (x) dxn dx1 . . . dxn−1 n ∂x n −R 0 −R H xn =R Z R Z R n−1 ... ωn (x) dx1 . . . dxn−1 = 0 + (−1) = (−1)n Z −R Z R R ... −R −R xn =0 ωn (x1 , . . . , xn−1 , 0) dx1 . . . dxn−1 , −R pois ωn = 0 se xn = R. (Note que, se ∂M = ∅, este termo também zera pois, nesse caso, supp(ω) ∩ ∂Hn = ∅). Por outro lado, temos que Z XZ ci ∧ · · · ∧ dxn . ωi (x1 , . . . , xn−1 , 0) dx1 ∧ · · · ∧ dx dω = ∂Hn A∩∂Hn i Como xn = 0 em ∂Hn , dxn |∂Hn ≡ 0. Portanto o único termo não nulo da soma acima é aquele em que i = n: Z Z ωn (x1 , . . . , xn−1 , 0) dx1 ∧ · · · ∧ dxn−1 . dω = ∂Hn A∩∂Hn Levando em conta que as coordenadas (x1 , . . . , xn−1 ) são positivamente orientadas se n é par e negativamente orientadas se n é ı́mpar (Exemplo 2.10.12), temos Z Z R Z R n dω = (−1) ... ωn (x1 , . . . , xn−1 , 0) dx1 . . . dxn−1 ∂Hn −R −R Z = dω, Hn e isso termina a demonstração para o caso M = Hn . Suponha agora que M seja uma variedade orientada de dimensão n ≥ 1 com bordo e que ω seja uma (n−1)-forma diferencial com suporte compacto e contido no domı́nio de uma única carta de coordenadas (U, ϕ) de M . Assumindo sem perda de generalidade que (U, ϕ) é uma carta de coordenadas orientada, temos, por definição, Z Z Z −1 ∗ −1 ∗ dω = (ϕ ) dω = d (ϕ ) ω , M Hn Hn 88 pois supp (ϕ−1 )∗ dω é compacto em Hn . Pelo caso especial que provamos, Z Z (ϕ−1 )∗ ω, dω = ∂Hn M n onde ∂H tem a orientação induzida. Como ϕ∗ leva vetores que apontam para fora de ∂M em vetores que apontam para fora de Hn , segue que ϕ|U ∩∂M : U ∩ ∂M → ϕ(U ) ∩ ∂Hn é um difeomorfismo que preserva orientação e portanto Z Z Z −1 ∗ dω = (ϕ ) ω = ω. ∂Hn M ∂M Isso demonstra o resultado para esse caso. Por fim, seja M uma variedade orientada de dimensão n ≥ 1 com bordo e que ω seja uma (n − 1)-forma diferencial com suporte compacto. Tomando uma cobertura finita de supp(ω) por cartas de coordenadas orientadas (Ui , ϕi ) de M e uma partição suave da unidade {ψi } com relação à (Ui , ϕi ), aplicamos resultado do caso anterior para cada ψi ω, obtendo Z XZ XZ XZ ω = ψi ω = d(ψi ω) = dψi ∧ ω + ψi dω ∂M ∂M i = d M pois P i i M ! Z X ψi i ! Z X ∧ω+ M i i ψi ≡ 1. ψi M Z dω = 0 + Z dω = M dω, M Exemplo 2.11.12. Seja N uma variedade suave sem bordo e γ : [a, b] → N um mergulho suave, de forma que M = γ([a, b]) é uma variedade suave de dimensão 1 com bordo mergulhada em N . Dotando M da orientação com a qual γ preserva orientação, para qualquer f ∈ C ∞ (N ), o Teorema de Stokes nos dá Z Z Z Z ∗ df = γ df = df = f = f (γ(b)) − f (γ(a)). γ [a,b] M ∂M Portanto, nesrte caso, o Teorema de Stokes se reduz ao Teorema 2.7.9. Em particular, se γ : [a, b] → R é a inclusão canônica, o Teorema de Stokes é simplesmente o Teorema Fundamental do Cálculo (Teorema A.4.25). Corolário 2.11.13. Se M é uma variedade suave compacta sem bordo, a integral de qualquer forma exata ω (isto é, existe η tal que dη = ω) sobre M é nula: Z Z ω = M η = 0. M ∂ Corolário 2.11.14. Se M é uma variedade suave compacta com bordo e ω é uma forma fechada em M (isto é, dω = 0), a integral de ω sobre ∂M é nula: Z Z ω= dω = 0. ∂M M 89 Corolário 2.11.15. Seja M uma variedade suave, S ⊂ M uma subvariedade R suave compacta de dimensão k sem bordo e ω uma k-forma fechada em M . Se S ω 6= 0, então ω não é exata e S não é o bordo de uma subvariedade de M suave compacta com bordo. As formas fechadas e exatas serão de nosso interesse no Capı́tulo 3. O Teorema de Stokes também generaliza os teoremas de Green, Gauss e Stokes (clássico) da análise vetorial clássica. Por exemplo: Teorema 2.11.16 (Green). Seja D ⊂ R2 um domı́nio regular e f, g : D → R funções diferenciáveis. Então Z Z ∂g ∂f − dxdy f dx + g dy = ∂x ∂y ∂D D Demonstração: Basta aplicar o Teorema 2.11.11 à forma diferencial f dx + g dy, pois ∂g ∂f d(f dx + g dy) = − dx ∧ dy ∂x ∂y Encerramos a seção com uma pequena generalização do Teorema de Stokes. Isso se faz necessário pois muitas aplicações desse teorema lidam com objetos geométricos tais como triângulos, cubos etc, que são variedades topológicas com bordo, mas não são variedades suaves, pois possuem “cantos”. Para isso, introduziremos as variedades com cantos. Seja Rn+ = {(x1 , . . . , xn ) ∈ Rn | x1 ≥ 0, . . . , xn ≥ 0}. Esse espaço será o modelo para os tipos de cantos que trabalharemos. Vê-se sem dificuldades que Rn+ é homeomorfo a Hn = {(x1 , . . . , xn ) ∈ Rn | xn ≥ 0}. Definição 2.11.17. Seja M uma variedade topológica de dimensão n com bordo. Um atlas suave com cantos de dimensão n sobre M é uma famı́lia A de homeomoreλ ⊂ Rn+ , λ ∈ Γ, com Uλ e U eλ abertos, onde fismos ϕλ : Uλ ⊂ M → U S (1) M = λ∈Γ Uλ , (2) ∀ λ, µ ∈ Γ verificando Uλµ = Uλ ∩ Uµ 6= ∅, a mudança de carta ϕλµ = ϕµ ◦ ϕ−1 λ : ϕλ (Uλµ ) → ϕµ (Uλµ ) é suave (ou seja, admite uma extenção suave em uma vizinhança aberta de cada ponto de Uλ ∩ Uµ ). Neste caso dizemos que as cartas com cantos (Uλ , ϕλ ) e (Uµ , ϕµ ) são compatı́veis. Um atlas suave com cantos A em uma variedade M é maximal quando toda carta com cantos (U, ϕ) compatı́vel com todas as cartas com cantos pertencentes a A também pertence a A. Definição 2.11.18. Uma variedade suave de dimensão n com cantos é uma dupla (M, A), onde M é uma variedade topológica de dimensão n com bordo e A é um atlas suave de dimensão n com cantos maximal sobre M . 90 Exemplo 2.11.19. Qualquer triângulo fechado em Rn é uma variedade suave de dimensão n com cantos. Como Rn+ é homeomorfo a Hn , topologicamente não há diferença entre uma variedade suave com bordo e uma variedade suave com cantos. A diferença está no atlas, pois as condições de compatibilidade para as cartas são diferentes. O bordo de Rn+ em Rn é o conjunto dos pontos com pelo menos uma coordenada nula. Os pontos de Rn+ com mais de uma coordenada nula são chamados de pontos de canto. Lema 2.11.20. Seja M uma variedade suave de dimensão n com cantos, e p ∈ M . Se ϕ0 (p) é um ponto de canto, para alguma carta com cantos (U0 , ϕ0 ), então ϕ(p) é ponto de canto para qualquer carta com cantos (U, ϕ), tal que p ∈ U . Se M é uma variedade suave com cantos, em decorrência do Lema 2.11.20, definimos que um ponto p ∈ M é um ponto de canto de M se ϕ(p) é ponto de canto de Rn+ para alguma carta com cantos (U, ϕ). Analogamnte, dizemos que p é um ponto de bordo de M se ϕ(p) ∈ ∂Rn+ para alguma carta com cantos (U, ϕ). Claramente, toda variedade suave com ou sem bordo é uma variedade suave com cantos (sem pontos de canto). Reciprocamente, uma variedade suave com cantos é uma variedade suave com bordo se, e somente se, essa não tiver pontos de canto. Os objetos usuais que apresentamos até agora para variedades suaves, como funções suaves, partições da unidade, vetores tangentes, covetores, tensores, formas diferenciais, orientações e integrais de formas diferenciais podem ser definidos em variedades suaves com cantos da mesma maneira que definimos para variedades suaves com e sem bordo, usando cartas com cantos ao invés de cartas de coordenadas suaves. Para generalizar o Teorema de Stokes para este objeto, no entanto, precisaremos de uma definição a mais, uma vez que o bordo de uma variedade suave com cantos, não é, em geral, uma variedade suave com cantos (o bordo de um cubo, por exemplo). De fato, nem mesmo o bordo de Rn+ é uma variedade suave com cantos, mas é, porém, uma união finita destas: ∂Rn+ = H1 ∪ · · · ∪ Hn , onde Hi = {(x1 , . . . , xn ) ∈ Rn+ | xi = 0} é uma variedade suave de dimensão (n − 1) com cantos contida no subespaço onde xi = 0. Definição 2.11.21. Seja M uma variedade suave com cantos orientada de dimensão n e ω uma (n − 1)-forma em ∂M com suporte compacto contido no domı́nio de uma única carta com cantos (U, ϕ). Definimos a integral de ω sobre ∂M por Z n Z X ω= (ϕ−1 )∗ ω, ∂M i=1 Hi onde cada Hi está munido com a orientação induzida como parte do bordo do conjunto onde xi ≥ 0. Se ω é uma (n − 1)-forma em ∂M com suporte compacto, definimos a integral de ω sobre ∂M usando uma partição da unidade. Seja {(Uj , ϕj )} uma cobertura finita 91 de supp(ω) por cartas de cantos e {ψj } uma partição suave da unidade com relação a {(Uj , ϕj )}. Definimos a integral de ω em M como Z XZ ω= ψj ω. ∂M j ∂M Embora a definição de integral de formas via partições da unidade seja bastante conveniente para fins teóricos, ela deixa a desejar quando se trata de calcular integrais de fato. Em geral é bastante complicado explicitar partições da unidade e, mesmo quando possı́vel, calcular a integral da expressão obtida pode não ser possı́vel. Na prática, usamos o resultado seguinte. Lema 2.11.22. Seja M uma variedade suave de dimensão n com cantos. Sejam E1 , . . . , Ek domı́nios de integração compactos em M , D1 , . . . , Dk domı́nios de integração compactos em Rn e, para cada i = 1, . . . , k, fi : Di → M aplicações suaves satisfazendo: (1) fi (Di ) = Ei e fi |int(Di ) é um difeomorfismo de int(Di ) em int(Ei ) que preserva orientação, (2) Para todo i 6= j, Ei ∩ Ej contém apenas pontos das fronteiras de Ei e Ej . Então, para qualquer n-forma ω em M com suporte contido em E1 ∪ · · · ∪ Ek , Z XZ ω= fi∗ ω. M i Di Exemplo 2.11.23. Seja ω a 2-forma em R3 \ {0} dada por ω = x dy ∧ dz + y dz ∧ dx + z dx ∧ dy. R Calculemos S2 ω, com S2 munida da orientação induzida de B3 [0]. Considere o retângulo R = [0, π] × [0, 2π] e f : R → S2 a parametrização em coordenadas esféricas f (φ, θ) = (sin(φ) cos(θ), sin(φ) sin(θ), cos(φ)). Seja U = (0, π) × (0, 2π) = int(R), e considere f |U . Note que f |U é a restrição da parametrização em coordenadas esféricas tridimensionais fe : (0, 1] × U → R3 dada por fe(ρ, φ, θ) = (ρ sin(φ) cos(θ), ρ sin(φ) sin(θ), ρ cos(φ)). a U . Temos que fe(1, φ, θ) = f (φ, θ) e que det(Dfe) = ρ2 sin(φ), que é positivo em (0, 1] × U . Logo, pelo Lema 2.10.13, f preserva orientação em int(D). 92 Seja D1 = [0, π] × [0, π], D2 = [0, π] × [π, 2π] e fi = f |Di , para i = 1, 2. Então fi , i = 1, 2, satisfazem as hipóteses do Lema 2.11.22. Note que f ∗ dx = cos φ cos θ dφ − sin φ sin θ dθ, f ∗ dy = cos φ cos θ dφ + sin φ sin θ dθ, f ∗ dx = − sin φ dφ. Assim, Z Z f1∗ ω ω = S2 = ZD1 Z Z f2∗ ω + f ∗ω = D2 D − sin3 φ cos2 θ dθ ∧ dφ + sin3 φ sin2 θ dφ ∧ dθ D + cos φ sin φ cos θ dφ ∧ dθ − cos φ sin φ sin θ dθ ∧ dφ Z Z 2π Z π = sin φ dφ ∧ dθ = sin φ dφdθ = 4π. 2 2 D 2 0 2 0 Teorema 2.11.24 (Stokes em Variedades com Cantos). Seja M uma variedade suave com cantos orientada de dimensão n e ω uma (n − 1)-forma em M com suporte compacto. Então Z Z dω = ω. M ∂M Demonstração: A demonstração é bastante parecida com a demonstração do Teorema de Stokes para variedades suaves com bordo. Indicaremos as mudanças necessárias. Utilizando cartas com cantos e uma partição da unidade, pordemos reduzir a demonstração ao caso em que M = Rn+ e ω tem suporte compacto contido no cubo [0, R]n (exatamente como fizemos na demonstração do Teorema de Stokes). Neste caso, Z dω = Rn + n X i=1 n X i−1 R Z (−1) R Z ... 0 0 R Z ∂ωi (x) dx1 . . . dxn ∂xi R Z ∂ωi ci . . . dxn (x) dxi dx1 . . . dx i 0 ∂x 0 i=1 xi =R Z R Z R n X i−1 ci . . . dxn = (−1) ... ωi (x) dx1 . . . dx = = = i=1 n X i−1 0 (−1)i i=1 n Z X i=1 ... (−1) Hi Z 0 R Z R ... 0 xi =0 ci . . . dxn ωi (x1 , . . . , 0, . . . , xn ) dx1 . . . dx 0 Z ω= ω. ∂Rn + (Note que o fator (−1)i desaparece pois a orientação induzida em Hi é (−1)i vezes a orientação das coordenadas padrão (x1 , . . . , xbi , . . . , xn )). Com isso terminamos. 93 O resultado a seguir é uma aplicação imediata do Teorema de Stokes para variedades com cantos, que usaremos no Capı́tulo 3. Proposição 2.11.25. Seja M uma variedade suave e γ0 , γ1 : [a, b] → M segmentos de curva suaves por partes homotópicos relativamente a {a, b}. Para qualquer 1forma fechada ω em M , Z Z ω= γ0 ω. γ1 Demonstração: Podemos assumir, sem perda de generalidade, que [a, b] = I = [0, 1]. Suponhamos, a princı́pio, que γ0 e γ1 são suaves. Pelo Lema 2.8.21, γ0 e γ1 são suavemente homotópicas relativamente a {0, 1}. Seja H : I × I → M uma tal homotopia. Como ω é fechada, temos Z Z ∗ d(H ω) = H ∗ (dω) = 0. I×I I×I Por outro lado, I × I é uma variedade suave com cantos. Pelo Teorema 2.11.24, Z Z ∗ 0= d(H ω) = H ∗ ω. I×I ∂(I×I) Considere as parametrizações Fi : I → I × I de ∂(I × I) dadas por F1 (t) = (t, 0), F2 (t) = (1, t), F3 (t) = (1 − t, 1), F4 (t) = (0, 1 − t). Usando o Lema 2.11.22 e a invariância das integrais de linha por difeomorfismo, temos Z 0 = H ∗ω ∂(I×I) Z Z Z Z ∗ ∗ ∗ = H ω+ H ω+ H ω+ H ∗ω ZF1 Z F2 Z F3 Z F4 = ω+ ω+ ω+ ω. H◦F1 H◦F2 H◦F3 H◦F4 Como H é uma homotopia relativa a {0, 1}, H ◦ F2 e H ◦ F4 são aplicações constantes e, pela Proposição 2.7.7, o segundo e o quarto termo da expressão acima são nulos. O resultado segue pois H ◦ F1 = γ0 e H ◦ F3 é uma reparametrização de γ1 que inverte o sentido. Consideremos agora o caso geral. Não podemos simplesmente aplicar o resultado anterior em cada subintervalo onde γ0 e γ1 são suaves pois as restrições de γ0 e γ1 a estes intervalos podem não ter os mesmos pontos iniciais e finais. Mostraremos a seguinte (mais geral) afirmação: Sejam γ0 , γ1 : I → M segmentos de curva suaves por partes e H : I × I → M uma homotopia entre eles. Definamos os segmentos de curva σ0 , σ1 : I → M por σ0 (t) = H(0, t), σ1 (t) = H(1, t). 94 e tomemos, pela Proposição 2.8.19, σe0 e σe1 segmentos suaves de curva homotópicos a σ0 e σ1 respectivamente, com relação a {0, 1}. Então Z Z Z Z ω− ω= ω− ω. (2.13) γ1 γ0 σ f1 σ f0 (Note que, no caso especial em que γ0 e γ1 são homotópicos relativamente a {0, 1}, a afirmação implica a proposição, pois, neste caso, σ0 e σ1 são constantes.) Como γ0 e γ1 são suaves por partes, existe apenas uma quantidade finita de pontos (a1 , . . . , am ) em (0, 1) nos quais γ0 ou γ1 não são suaves. Provaremos a afirmação por indução em m. Se m = 0, γ0 e γ1 são ambas suaves e, pelo Lema 2.8.21 podemos substituir e lembrando (veja a demonstração do Lema 2.8.21) H por uma homotopia suave H, e pode, inclusive, ser tomada como sendo homotópica a H relativamente a que H e t) é um segmento de I × {0} ∪ I × {1}. Então, para i = 0, 1, a curva σei (t) = H(i, curva suave homotópico a σi relativamente a {0, 1}. Note que, nessas circunstâncias, (2.13) reduz-se a Z H ∗ ω = 0. ∂(I×I) Suponhamos agora que γ0 e γ1 sejam segmentos de curva suaves por partes com m pontos (a1 , . . . , am ) nos quais γ0 ou γ1 não são suaves, e que a afirmação e verdadeira para curvas com menos de m pontos de não-suavidade. Para i = 0, 1, sejam γi0 e γi00 as restrições de γi a [0, am ], e [am , 1], respectivamente. Seja σ : I → M o segmento de curva σ(t) = H(am , t), e seja σ e um segmento de curva suave homotópico a σ relativamente e [0, 1]. Então, como γi0 e γi00 têm menos de m pontos de não-suavidade, a hipótese de indução implica ! ! Z Z Z Z Z Z ω− γ1 ω− ω = ω Z ω+ + Z ω− ω + σ f0 Z Z ω− ω, = Z = σ e σ f1 ω γ100 γ00 γ10 γ0 γ000 ω+ σ f1 Z ω σ e σ f0 e terminamos. 95 Capı́tulo 3 Cohomologia de De Rham Na Seção 2.9 nós estudamos as formas diferenciais. Uma forma diferencial ω é dita fechada se dω = 0, e exata se ω = dη, para alguma forma η. Como d ◦ d = 0 (Teorema 2.9.18), toda forma exata é fechada. Neste capı́tulo estudaremos a questão contrária: toda forma fechada é exata? A resposta para tal pergunta depende de propriedades topológicas da variedade em questão e nos leva ao estudo dos grupos de cohomologia de De Rham. 3.1 Grupos de Cohomologia de De Rham Como d : Ap (M ) → Ap+1 (M ) é linear, seu núcleo e sua imagem são subespaços lineares. Definição 3.1.1. Seja M uma variedade suave sem bordo. Definimos Z p (M ) = ker(d : Ap (M ) → Ap+1 (M )), B p (M ) = im(d : Ap−1 (M ) → Ap (M )). Note que Z p (M ) é precisamente o conjunto das formas fechadas em M , enquanto que B p (M ) é o conjunto das formas exatas em M . Convencionamos que Ap (M ) = [0] caso p < 0 ou p > dim(M ). Como toda forma exata é fechada, temos que B p (M ) ⊂ Z p (M ). Além disso, Z p (M ) e B p (M ) são grupos abelianos com a operação de soma de vetores. Faz sentido, então, a definição seguinte. Definição 3.1.2. Seja M uma variedade suave sem bordo. Definimos o p-ésimo grupo de cohomologia de De Rham de M como sendo Z p (M ) . H (M ) = p B (M ) p Para cada forma fechada ω em M , denotaremos por [ω] a classe de equivalência de ω em Hp (M ). Como Ap (M ) = [0] se p < 0 ou p > dim(M ), Hp (M ) = [0] nestes casos. Se [ω] = [ω 0 ] (ou seja, se ω e ω 0 diferem apenas por uma forma exata), dizemos que ω e ω 0 são cohomólogas. 97 Proposição 3.1.3. Sejam M e N variedades suaves sem bordo. Para qualquer g : M → N suave, o pullback g ∗ : Ap (N ) → Ap (M ) leva Z p (N ) em Z p (M ) e B p (N ) em B p (M ) e, portanto, induz uma aplicação linear (que também denotaremos por g ∗ ) de Hp (N ) em Hp (M ), chamada de aplicação de cohomologia induzida, que satisfaz: (1) Se P é uma variedade suave sem bordo e f : N → P é suave, então (f ◦ g)∗ = g ∗ ◦ f ∗ : Hp (P ) → Hp (M ), (2) (idM )∗ é a identidade em Hp (M ). Demonstração: Se ω é fechada, temos d(g ∗ ω) = g ∗ (dω) = 0, portanto g ∗ ω também é fechada. Se ω = dη é exata, então g ∗ ω = g ∗ (dη) = d(g ∗ η) também o é. Portanto g ∗ leva Z p (N ) em Z p (M ) e B p (N ) em B p (M ). Definimos a aplicação de cohomologia induzida g ∗ : Hp (N ) → Hp (M ) por g ∗ [ω] = [g ∗ ω]. Se ω 0 = ω + dη, temos g ∗ [ω 0 ] = [g ∗ (ω + dη)] = [g ∗ ω + d(g ∗ η)] = [g ∗ ω], logo g ∗ está bem definida. As propriedades (1) e (2) seguem diretamente das propriedades do pullback de campos de k-tensores (Proposição 2.9.6). Corolário 3.1.4. Variedades suaves difeomorfas têm grupos de cohomologia de De Rham isomorfos. Apresentaremos brevemente algumas definições da teoria das categorias, pois decorre da Proposição 3.1.3 um interessante fato dessa área. Definição 3.1.5. Uma categoria C consiste de: (1) Uma classe de objetos, (2) Para cada par X, Y de objetos, um conjunto HomC (X, Y ), cujos elementos são chamados morfismos, (3) Para cada trio X, Y , Z de objetos, uma aplicação HomC (X, Y )×HomC (Y, Z) → HomC (X, Z), chamada de composição, denotada por (f, g) 7→ g ◦ f . Os morfismos satisfazem: (1) Se f ∈ HomC (X, Y ), g ∈ HomC (Y, Z) e h ∈ HomC (Z, W ), então (h ◦ g) ◦ f = h ◦ (g ◦ f ), (2) Para todo f ∈ HomC (X, X), existe idX ∈ HomC (X, X) tal que idX ◦ f = f = f ◦ idX . 98 Definição 3.1.6. Sejam C e D categorias. Um funtor covariante de C em D é uma regra F que associa cada objeto X de C a um objeto F(X) em D, e cada morfismo f ∈ HomC (X, Y ) a um morfismo F(f ) ∈ HomD (F(X), F(Y )), preservando as identidades e a composição: F(idX ) = idF (X) , F(g ◦ f ) = F(g) ◦ F(f ). Se F satisfaz F(g◦f ) = F(f )◦F(g) em vez de F(g◦f ) = F(g)◦F(f ), chamamos F de funtor contravariante. De posse desta nomenclatura, enunciamos a seguinte consequência da Proposição 3.1.3. Corolário 3.1.7. Para cada p ≥ 0, a associação M → 7 Hp (M ) f → 7 f∗ é um funtor contravariante da categoria das variedades suaves e funções suaves na categoria dos espaços vetoriais reais e aplicações lineares. A seguir veremos que os grupos de cohomologia de De Rham são invariantes topológicos. Mais que isso, provaremos que eles são invariantes homotópicos, ou seja, variedades homotopicamente equivalentes têm grupos de De Rham isomorfos. Definição 3.1.8. Sejam f, g : M → N suaves. Uma coleção de aplicações lineares h : Ap (N ) → Ap−1 (M ) satisfazendo d(hω) + h(dω) = g ∗ ω − f ∗ ω (3.1) para toda ω ∈ Ap é chamada de operador homotópico entre f ∗ e g ∗ . Note que (3.1) implica d(hω) = g ∗ ω − f ∗ ω quando ω é fechada. Proposição 3.1.9. Seja M uma variedade suave sem bordo e, para cada t ∈ [0, 1], it : M → M × I, a aplicação dada por it (x) = (x, t). Existe um operador homotópico entre i∗0 e i∗1 . Demonstração: Para cada p precisamos de uma aplicação linear h : Ap (M × I) → Ap−1 (M ) tal que d(hω) + h(dω) = i∗1 ω − i∗0 ω. (3.2) Definimos h por Z hω = 1 i∂/∂t ω dt, 0 onde i∂/∂t ω é a contração de ω com relação a ∂/∂t, ou seja, se X1 , . . . , Xp−1 ∈ Tq M , Z 1 (hω)q (X1 , . . . , Xp−1 ) = i∂/∂t ω(q,t) (X1 , . . . , Xp−1 ) dt 0 Z 1 ∂ , X1 , . . . , Xp−1 dt. = ω(q,t) ∂t 0 99 Para mostrar que h é, de fato, um operador homotópico, sejam (xi ) coordenadas suaves em M . Consideremos primeiramente o caso em que ω = f (x, t) dt ∧ dxi1 ∧ · · · ∧ dxip−1 , então Z 1 ip−1 i1 d(hω) = d f (x, t) dt dx ∧ · · · ∧ dx 0 Z 1 n X ∂ = f (x, t) dt dxj ∧ dxi1 ∧ · · · ∧ dxip−1 j ∂x 0 j=1 Z n 1 X ∂f = (x, t) dt dxj ∧ dxi1 ∧ · · · ∧ dxip−1 , j ∂x 0 j=1 enquanto ! n X ∂f h(dω) = h dxj ∧ dt ∧ dxi1 ∧ · · · ∧ dxip−1 j ∂x j=1 Z 1X n ∂f = (x, t)i∂/∂t (dxj ∧ dt ∧ dxi1 ∧ · · · ∧ dxip−1 ) dt j ∂x 0 j=1 n Z 1 X ∂f (x, t) dt dxj ∧ dxi1 ∧ · · · ∧ dxip−1 = − j 0 ∂x j=1 = −d(hω). Portanto d(hω) + h(dω) = 0. O lado direito de (3.2) também zera neste caso, pois i∗0 ω = i∗0 f dt ∧ dxi1 ∧ · · · ∧ dxip−1 = (f ◦ i0 ) d(t ◦ i0 ) ∧ d(xi1 ◦ i0 ) ∧ · · · ∧ d(xip−1 ◦ i0 ), i∗1 ω = i∗1 f dt ∧ dxi1 ∧ · · · ∧ dxip−1 = (f ◦ i1 ) d(t ◦ i1 ) ∧ d(xi1 ◦ i1 ) ∧ · · · ∧ d(xip−1 ◦ i1 ), e temos d(t ◦ i0 ) = d(t ◦ i1 ) = 0 (porque t ◦ i0 e t ◦ i1 são constantes). Caso ω = f dxi1 ∧ · · · ∧ dxip , temos i∂/∂t ω = 0, que implica d(hω) = 0. Por outro lado, ∂f i1 ip dt ∧ dx ∧ · · · ∧ dx + termos sem dt h(dω) = h ∂t Z 1 ∂f = (x, t)dt dxi1 ∧ · · · ∧ dxip 0 ∂t = (f (x, 1) − f (x, 0)) dxi1 ∧ · · · ∧ dxip = i∗1 − i∗0 . Como h é linear e qualquer p-forma em I × M pode ser escrita localmente como soma de formas do tipo ω = f (x, t) dt ∧ dxi1 ∧ · · · ∧ dxip−1 e ω = f dxi1 ∧ · · · ∧ dxip , 100 terminamos. A seguir mostraremos que aplicações homotópicas induzem a mesma aplicação de cohomologia e, como consequência, que os grupos de cohomologia de De Rham são invariantes homotópicos. Proposição 3.1.10. Sejam f, g : M → N aplicações suaves homotópicas. Para cada p, as aplicações de cohomologia induzidas f ∗ , g ∗ : Hp (N ) → Hp (M ) são iguais. Demonstração: Pelo Lema 2.8.21 existe uma homotopia suave H : M × I → N de f em g, ou seja, H ◦ i0 = f e H ◦ i1 = g. Considere h : Ap (M × I) → Ap−1 (M ), o operador homotópico que construı́mos na Proposição 3.1.9. Temos o seguinte diagrama: ∗ Ap (N ) H / Ap (M × I) h / Ap−1 (M ) . Seja e h = h ◦ H ∗ : Ap (N ) → Ap−1 (M ). Para qualquer ω ∈ Ap (N ), e h(dω) + d(e hω) = = = = = h(H ∗ dω) + d(hH ∗ ω) h(d(H ∗ ω)) + d(h(H ∗ ω)) i∗1 H ∗ ω − i∗0 H ∗ ω (H ◦ i1 )∗ ω + (H ◦ i0 )∗ ω g ∗ ω − f ∗ ω. Portanto, se ω é fechada, h i g ∗ [ω] − f ∗ [ω] = [g ∗ ω − f ∗ ω] = e h(dω) − d(e hω) = 0. A última igualdade segue porque dω = 0 e porque a classe de cohomologia de qualquer forma exata é zero. Teorema 3.1.11. Sejam M e N variedades suaves sem bordo homotopicamente equivalentes. Então Hp (M ) ∼ = Hp (N ), para todo p. Demonstração: Seja f : M → N uma equivalência homotópica com inversa g : N → M . Pela Proposição 2.8.19, existem funções suaves fe : M → N e ge : N → M homotópicas a f e g, respectivamente. Como a homotopia é preservada por composições, segue que fe ◦ ge ' f ◦ g ' idN e ge ◦ fe ' g ◦ f ' idM e que, portanto, fe e ge são homotopias inversas. Pela Proposição 3.1.10, ∗ fe∗ ◦ ge∗ = ge ◦ fe = (idM )∗ = idHp (M ) . O mesmo argumento mostra que ge∗ ◦ fe∗ é a identidade em Hp (N ). Segue então que fe∗ : Hp (N ) → Hp (M ) é um isomorfismo. É notável o fato acima pois a definição dos grupos de cohomologia de De Rham de uma variedade é intimamente ligada à estrutura suave desta e, portanto, não era de se esperar que variedades apenas homeomorfas munidas de atlas diferentes gerassem os mesmos grupos de cohomologia. 101 3.2 Teorema de Mayer-Vietoris Definição 3.2.1. Seja R um anel comutativo (veja A.3.28). Uma sequência (Ap , dp ), p ≥ 0, de R-módulos Ap (veja A.3.29) e aplicações R-lineares dp : Ap → Ap+1 tais que dp ◦ dp+1 = 0 para todo p é dita um complexo com coeficientes em R. Cada ap ∈ Ap é chamado de p-cocadeia. Se dp (ap ) = 0, dizemos que ap é um p-cociclo. Denotaremos uma sequência (Ap , dp ) por A∗ . Uma sequência A∗ é dita exata se im(dp−1 ) = ker(dp ) para todo p. Claramente, toda sequência exata é um complexo, mas a recı́proca em geral é falsa. Se A∗ é um complexo, então para cada p, a imagem de dp está contida no núcleo de dp+1 . Faz sentido, então a seguinte definição: Definição 3.2.2. Seja A∗ um complexo. Definimos o p-ésimo grupo de cohomologia de A∗ por ker(dp ) . Hp (A∗ ) = im(dp−1 ) Pensamos intuitivamente em Hp (A∗ ) como sendo uma espécie de “medida” do quanto falta para A∗ ser uma sequência exata. Exemplo 3.2.3. Seja M uma variedade suave de dimensão n sem bordo. sequência 0 / A0 (M ) d / d ··· / Ap (M ) d / Ap+1 (M ) / d ··· d / An (M ) / A 0 é um complexo (que chamamos de complexo de De Rham de M , e denotamos por A∗ (M )), cujos grupos de cohomologia são os grupos de De Rham Hp (M ). Definição 3.2.4. Sejam A∗ e B ∗ complexos. Uma coleção Fp : Ap → B p de aplicações lineares tais que o diagrama / ··· dA p Ap Fp / Bp dB p ··· / / Ap+1 ··· Fp+1 / B p+1 / ··· comuta é chamada de morfismo de A∗ em B ∗ . B A Como Fp+1 ◦ dA p = dp ◦ Fp , segue que, para cada p, o morfismo F leva ker(dp ) A B em ker(dB p ) e im(dp ) em im(dp ) e, portanto, induz (como na Proposição 3.1.3) uma aplicação linear F ∗ : Hp (A∗ ) → Hp (B ∗ ) dada por F ∗ ([a]) = [F (a)] . Definição 3.2.5. Sejam A∗ , B ∗ e C ∗ complexos e F e G morfismos de A∗ em B ∗ e de B ∗ em C ∗ respectivamente, tais que, para cada p, a sequência 0 / Ap Fp / Bp Gp / Cp / 0 é exata (ou seja, Fp é injetora, Gp é sobrejetora e im(Fp ) = ker(Gp )). A sequência (A∗ , B ∗ , C ∗ , F, G) é chamada de sequência de complexos exata curta. 102 Lema 3.2.6. Dada uma sequência de complexos exata curta (A∗ , B ∗ , C ∗ , F, G), para cada p existe uma aplicação linear δ : Hp (C ∗ ) → Hp+1 (A∗ ) (chamada de homomorfismo conectante) tal que a sequência ··· δ / Hp (A∗ ) Fp∗ / G∗p Hp (B ∗ ) / δ Hp (C ∗ ) / Hp+1 (A∗ ) ∗ Fp+1 / ··· é exata. Demonstração: Por hipótese, o diagrama / 0 Fp / / / A / B p+1 Gp+1 dp+1 p+2 Fp+2 A / B / 0 / 0 / 0 dp / C p+1 dp+1 p+2 Gp+2 / Cp dp p+1 Fp+1 Gp Bp dp 0 0 Ap dp+1 / C p+2 comuta e cada uma de suas linhas é exata. Seja cp ∈ C p um p-cociclo (ou seja, dp cp = 0). Como Gp : B p → C p é sobrejetora, existe bp ∈ B p tal que Gp (bp ) = cp . Como o diagrama acima comuta, Gp+1 (dp bp ) = dp (Gp (bp )) = dp cp = 0 e, então, dp bp ∈ ker(Gp+1 ) = im(Fp+1 ). Segue, portanto, que existe ap+1 ∈ Ap+1 tal que Fp+1 (ap+1 ) = dp bp . Novamente, como o diagrama acima comuta, Fp+2 (dp+1 ap+1 ) = dp+1 (Fp+1 (ap+1 )) = dp+1 (dp bp ) = 0. Como Fp+2 é injetora, segue que dp+1 ap+1 = 0. Portanto ap+1 é um (p + 1)-cociclo, ou seja, ap+1 representa uma classe de cohomologia em H(A∗ ). Definimos o homomorfismo conectante δ por δ([cp ]) = ap+1 , para qualquer ap+1 ∈ Ap+1 como acima. Verifiquemos que δ está bem definido: A escolha mais geral possı́vel de um cociclo em [cp ] seria cp +dp−1 cp−1 = cp +dp−1 (Gp−1 (bp−1 )) = cp +Gp (dp−1 (bp−1 )), para algum cp−1 ∈ C p−1 e algum bp−1 ∈ B p−1 tal que Gp−1 (bp−1 ) = cp−1 . Consequentemente, a escolha mais geral de bp seria da forma bp1 = bp + dp−1 (bp−1 ) + Fp (ap1 ), para algum ap1 ∈ Ap , de forma que Gp (bp1 ) = cp + dp−1 cp−1 . Neste caso, dp (bp1 ) = Fp+1 (ap+1 ) + Fp+1 (dp ap1 ) = Fp+1 (ap+1 + dp ap1 ). Portanto, com escolhas diferentes terı́amos ainda δ cp + dp−1 cp−1 = ap+1 + dp ap1 = ap+1 = δ ([cp ]) . A verificação de que δ é linear é trivial. Mostremos que a sequência ··· δ / Hp (A∗ ) Fp∗ / Hp (B ∗ ) G∗p / é exata. Faremos isso em três etapas: 103 Hp (C ∗ ) δ / Hp+1 (A∗ ) ∗ Fp+1 / ··· G∗p δ (1) Em Hp (B ∗ ) → Hp (C ∗ ) → Hp+1 (A∗ ), temos ker(δ) = im(G∗p ): De fato, se [cp ] = G∗p ([bp ]) = [Gp (bp )], com dp bp = 0, então dp bp = Fp+1 (0) e δ([cp ]) = [0] = 0. Logo im(G∗p ) ⊂ ker(δ). Reciprocamente, se 0 = δ([cp ]) = [ap+1 ], então ap+1 = dp ap , para algum ap ∈ Ap . Logo, tomando bp ∈ B p tal que Gp (bp ) = cp , temos dp (bp ) = Fp+1 (ap+1 ) = Fp+1 (dp ap ) = dp (Fp (ap )). Daı́ d(bp − Fp (ap )) = 0, e segue que bp − Fp (ap ) é um cociclo em Bp , com Gp (bp − Fp (ap )) = Gp (bp )+Gp (Fp (ap )) = Gp (bp ). Logo, G∗p ([bp −Fp (ap )]) = [cp ]. Portanto ker(δ) ⊂ im(G∗p ). ∗ Fp+1 δ ∗ (2) Em Hp (C ∗ ) → Hp+1 (A∗ ) → Hp+1 (B ∗ ), temos ker(Fp+1 ) = im(δ): Com efeito, para toda classe [cp ] ∈ Hp (C ∗ ) temos δ([cp ]) = [ap+1 ], onde ap+1 é cociclo em Ap+1 , Fp+1 (ap+1 ) = dp bp e Gp (bp ) = cp . Portanto ∗ ∗ (δ([cp ])) = Fp+1 ([ap+1 ]) = Fp+1 (ap+1 ) = [dp bp ] = 0 ∈ Hp+1 (B ∗ ). Fp+1 ∗ ∗ ([ap+1 ]) = [Fp+1 (ap+1 )], ). Reciprocamente, se 0 = Fp+1 Logo im(δ) ⊂ ker(Fp+1 com ap+1 cociclo em Ap+1 , então Fp+1 (ap+1 ) = dp bp , bp ∈ B p . Pondo cp = Gp (bp ), temos δ([cp ]) = [ap+1 ]. Logo ker(F ∗ ) ⊂ im(δ). Fp∗ G∗p (3) Em Hp (A∗ ) → Hp (B ∗ ) → Hp (C ∗ ), temos ker(G∗p ) = im(Fp∗ ): Como G∗p ◦ Fp∗ = (Gp ◦ Fp )∗ = 0∗ = 0, temos im(Fp∗ ) ⊂ ker(G∗p ). Reciprocamente, se 0 = G∗p ([bp ]) = [Gp (bp )], então existe cp−1 ∈ C p−1 tal que Gp (bp ) = dp−1 cp−1 . Como Gp−1 é sobrejetora, temos cp−1 = Gp−1 bp−1 para algum bp−1 ∈ B p−1 . Portanto Gp (bp ) = dp−1 (Gp−1 (bp−1 )) = Gp (dp−1 (bp−1 )), logo Gp (bp − dp−1 (bp−1 )) = 0. Pela exatidão da sequência (A∗ , B ∗ , C ∗ , F, G), existe ap ∈ Ap tal que bp − dp−1 (bp−1 ) = Fp (ap ). Como Fp+1 é injetora, Fp+1 (dp ap ) = dp (Fp (ap )) = dp bp −dp−1 (bp−1 ) = dp bp −dp (dp−1 bp−1 ) = 0−0 = 0 e, então, dp ap = 0. Assim ap é cociclo de Ap e Fp∗ ([ap ]) = [Fp (ap )] = [bp − dp−1 (bp−1 )] ⊂ [bp ]. Portanto ker(G∗p ) ⊂ im(Fp∗ ). Isso termina a demonstração. Usaremos o lema acima na seguinte situação: Sejam U e V abertos de uma variedade suave M tais que M = U ∪ V , e sejam i, j, k e l as inclusões canônicas como no diagrama abaixo: U ∩V i /U j V / l k M Estas inclusões induzem os pullbacks i∗ , j ∗ , k ∗ e l∗ como no seguinte diagrama: i∗ Ap (U ∩ V ) o O O j∗ Ap (V ) o Ap (U ) k∗ l∗ 104 Ap (M ) Note que estes pullbacks são meramente restrições (por exemplo, k ∗ (ω) = ω|U ). Consideraremos a sequência 0 / Ap (M ) k∗ ⊕l∗/ Ap (U ) ⊕ Ap (V ) i∗ −j ∗ / Ap (U ∩ V ) / 0, onde (k ∗ ⊕ l∗ )(ω) = (k ∗ (ω), l∗ (ω)) e (i∗ − j ∗ )(ω, η) = i∗ (ω) − j ∗ (η). Como o pullback comuta com a diferencial exterior, estas aplicações induzem aplicações lineares entre os respectivos grupos de cohomologia de De Rham. Teorema 3.2.7 (Mayer-Vietoris). Seja M uma variedade suave sem bordo e U e V abertos de M tais que M = U ∪ V . Para cada p existe uma aplicação linear δ : Hp (U ∩ V ) → Hp+1 (M ) tal que a sequência (chamada de sequência de MayerVietoris para {U, V }) ··· δ / k∗ ⊕l∗ / Hp (M ) Hp (U ) ⊕ Hp (V ) i∗ −j ∗ / Hp (U ∩ V ) δ / Hp+1 (M ) k∗ ⊕l∗ / ··· é exata. Demonstração: Começaremos mostrando que a sequência 0 / Ap (M ) k∗ ⊕l∗/ Ap (U ) ⊕ Ap (V ) i∗ −j ∗ / Ap (U ∩ V ) / 0 é exata. Note que, se σ ∈ Ap (M ) satisfaz (k ∗ ⊕ l∗ )(σ) = (0, 0), então σ|U = 0 e σ|V = 0. Como M = U ∪ V , segue que σ = 0. Portanto k ∗ ⊕ l∗ é injetora. Além disso, dada σ ∈ Ap (M ), (i∗ − j ∗ ) ◦ (k ∗ ⊕ l∗ )(σ) = (i∗ − j ∗ )(σ|U , σ|V ) = σ|U ∩V − σ|U ∩V = 0, o que mostra que im(k ∗ ⊕ l∗ ) ⊂ ker(i∗ − j ∗ ). Reciprocamente, suponha que (η, η 0 ) ∈ Ap (U ) ⊕ Ap (V ) e (i∗ − j ∗ )(η, η 0 ) = 0. Isso implica que η|U ∩V = η 0 |U ∩V e, portanto η em U, σ= η 0 em V é uma p-forma em M satisfazendo (k ∗ ⊕ l∗ )(σ) = (η, η 0 ). Portanto ker(i∗ − j ∗ ) ⊂ im(k ∗ ⊕ l∗ ). Resta mostrar que i∗ −j ∗ é sobrejetora. Seja ω ∈ Ap (U ∩V ) e {ϕ, ψ} uma partição suave da unidade com relação à cobertura {U, V } de M (veja 2.4.8). Definimos η ∈ Ap (U ) por ψω em U ∩ V, η= (3.3) 0 em U \ supp(ψ). Note que no conjunto (U ∩ V ) \ supp(ψ), onde a definição é ambı́gua, ψω = 0. Portanto η está bem definida. De forma análoga, definimos η 0 ∈ Ap (V ) por −ϕω em U ∩ V, 0 η = (3.4) 0 em V \ supp(ψ). Temos então (i∗ − j ∗ )(η, η 0 ) = i∗ (η) − j ∗ (η 0 ) = η|U ∩V − η 0 |U ∩V = ψω − (−ϕω) = (ψ + ϕ)ω = ω, 105 portanto i∗ − j ∗ é, de fato, sobrejetora. Como o pullback comuta com a diferencial exterior, k ∗ ⊕ l∗ : Ap (M ) → Ap (U ) ⊕ Ap (V ) e i∗ − j ∗ : Ap (U ) ⊕ Ap (V ) → Ap (U ∩ V ) são morfismos. Logo A∗ (M ), A∗ (U ) ⊕ A∗ (V ), A∗ (U ∩ V ), k ∗ ⊕ l∗ , i∗ − j ∗ é uma sequência de complexos exata curta. A existência de δ : Hp (U ∩ V ) → Hp+1 (M ) segue, então, do Lema 3.2.6. Corolário 3.2.8. O homomorfismo conectante δ : Hp (U ∩V ) → Hp+1 (M ) é definido como segue. Para cada ω ∈ Z p (U ∩ V ) existem η ∈ Ap (U ) e η 0 ∈ Ap (V ) tais que ω = η|U ∩V − η 0 |U ∩V , e portanto δ([ω]) = [dη] (estendendo dη por zero a toda M ). Se {ϕ, ψ} é uma partição suave da unidade com relação a {U, V } podemos tomar η = ψω e η 0 = −ϕω (ambas estendidas assumindo o valor zero fora dos suportes de ϕ e ψ). Demonstração: Caracterizamos δ na demonstração do Lema 3.2.6. Em particular, para a sequência 0 / Ap (M ) k∗ ⊕l∗/ Ap (U ) ⊕ Ap (V ) i∗ −j ∗ / Ap (U ∩ V ) / 0 temos δ([ω]) = σ, havendo (η, η 0 ) ∈ Ap (U ) ⊕ Ap (V ) tal que i∗ (η) − j ∗ (η 0 ) = ω, (k ∗ (σ), l∗ (σ)) = (dη, dη 0 ). Analogamente à prova do Teorema de Mayer-Vietoris, se {ϕ, ψ} é uma partição suave da unidade com relação a {U, V }, as fórmulas (3.3) e (3.4) definem η ∈ Ap (U ) e η 0 ∈ Ap (V ) satisfazendo i∗ (η) − j ∗ (η 0 ) = ω. Seja σ a forma suave em M obtida estendendo-se dη por zero fora de U ∩ V . Como ω é fechada, σ|U ∩V = dη|U ∩V = d(ω + η 0 )|U ∩V = dη 0 |U ∩V , e, como η = 0 em U \V e η 0 = 0 em V \U , segue sem dificuldade que (k ∗ (σ), l∗ (σ)) = (dη, dη 0 ). 3.3 Cohomologia de De Rham da Esfera O objetivo principal desta seção é calcular os grupos de cohomologia de De Rham da n-esfera. Calcularemos também os grupos de cohomologia de alguns outros espaços. Proposição 3.3.1. Seja {M F j }, j = 1, 2, . . . uma coleção enumerável de variedades suaves sem bordo, e M = j Mj . Para cada Q p,p as inclusões canônicas ij : Mj → M p induzem um isomorfismo entre H (M ) e j H (Mj ) (veja A.3.31). 106 p p ∗ Demonstração: Q Osp pullbacks ij : A (M ) → A (Mj ) induzem um isomorfismo p entre A (M ) e j A (Mj ), dado por ω 7→ (i∗1 (ω), i∗2 (ω), . . . ) = (ω|M1 , ω|M2 , . . . ). Essa aplicação é injetiva pois qualquer p-forma em M cuja restrição à cada Mj é zero é, de fato, a p-forma nula, e é sobrejetiva pois dada uma p-forma arbitrária em cada Mj , estas definem uma única p-forma em M . Por esta proposição, cada grupo de cohomologia de De Rham de uma variedade desconexa é o produto direto dos grupos de cada uma das componentes conexas desta. Por isso focaremos nosso estudo no cálculo dos grupos de De Rham de variedades conexas. Proposição 3.3.2. Seja M uma variedade suave sem bordo conexa. O grupo de cohomologia de De Rham H0 (M ) é igual ao espaço das funções constantes e, logo, tem dimensão 1. Demonstração: Como não há (−1)-formas, B 0 (M ) = 0. Uma 0-forma fechada nada mais é que uma função real suave f tal que df = 0 e, então, como M é conexa, f é constante. Portanto H0 (M ) = Z 0 (M ), sendo este o espaço das funções reais constantes. Corolário 3.3.3. Se M é uma variedade de dimensão 0, temos dim(H0 (M )) = #(M ), e os outros grupos de De Rham de M são triviais. Demonstração: Pelas Proposições 3.3.1 e 3.3.2, H0 (M ) é isomorfo ao produto direto de uma cópia de R para cada componente conexa de M (para cada ponto, neste caso). Os outros grupos de De Rham são triviais pois a única p-forma em M , se p ≥ 1, é a forma nula, como segue do Corolário 1.9.5. Examinaremos agora a cohomologia de De Rham do espaço euclideano. Dizemos que um subconjunto U de Rn é estrelado se existe um ponto p ∈ U tal que, para todo q ∈ U o segmento que liga p a q fica inteiramente contido em U . Teorema 3.3.4 (Lema de Poincaré). Seja U ⊂ Rn um aberto estrelado. Então Hp (U ) = 0 para todo p ≥ 1. Demonstração: Suponha que U ⊂ Rn é um aberto estrelado com respeito a q. Então U é contrátil (Definição A.2.39). De fato, idU é homotópica à função constante que leva todo ponto de U em q, pela homotopia H(x, t) = q + t(x − q). O resultado segue da invariância homotópica de Hp e do fato de que, pelo Corolário 3.3.3, Hp ({q}) = 0 para p ≥ 1, pois {q} é uma variedade de dimensão 0. 107 Corolário 3.3.5. Para todo p ≥ 1 temos Hp (Rn ) = 0. Corolário 3.3.6. Seja M uma variedade suave sem bordo e ω uma p-forma fechada em M , com p ≥ 1. Para todo q ∈ M existe uma vizinhança U de p onde ω é exata. Demonstração: Pela Proposição 2.4.7, todo ponto q ∈ M tem uma vizinhança difeomorfa a uma bola aberta em Rn , a qual é estrelada. O resultado segue pela invariância da cohomologia de De Rham por difeomorfismos (Corolário 3.1.4). Proposição 3.3.7. Seja M uma variedade suave sem bordo simplesmente conexa. Então H1 (M ) = 0. Demonstração: Seja ω uma 1-forma fechada em M . Mostremos que ω é exata. Pelo Teorema 2.7.11, ω é exata se, e somente se, ela for conservativa (isto é, se ω vista como um campo de covetores é um campo conservativo), ou seja, a integral de linha de ω sobre qualquer segmento de curva suave fechado é zero. Como M é simplesmente conexa, todo segmento de curva fechado é homotópico a um segmento de curva constante. O resultado segue, então, das Proposições 2.11.25 e 2.7.7. Antes de calcularmos os grupos de De Rham da esfera, vejamos uma projeção da esfera no espaço euclideano que nos será útil. A aplicação ψ : Rn → Sn \ {(0, . . . , 0, 1)} dada em coordenadas cartesianas por ψ(x1 , . . . , xn ) = 1 1+ k(x1 , . . . , xn )k2 2x1 , . . . , 2xn , k(x1 , . . . , xn )k2 − 1 . é chamada de projeção estereográfica. Assim definida, a projeção estereográfica é suave e bijetiva. Geometricamente, o que a projeção estereográfica faz é associar a cada ponto x ∈ Rn o ponto ψ(x), onde {ψ(x)} = Sn \ {(0, . . . , 0, 1)} ∩ r, sendo r a reta que passa por x e (0, . . . , 0, 1). Teorema 3.3.8 (Cohomologia da Esfera). Para n ≥ 1 temos R se p = 0 ou p = n, p n ∼ H (S ) = 0 se 0 < p < n. (3.5) Além disso, a classe de cohomologia de qualquer forma de orientação é uma base para Hp (Sn ). Demonstração: Pela Proposição 3.3.2, H0 (Sn ) ∼ = R, logo, precisamos mostrar (3.5) para p ≥ 1. Faremos isso por indução em n. Para n = 1, seja ω a 1-forma em R2 \ {0} dada por x dy − y dx , ω= x2 + y 2 e considere ω0 = ω|S1 e γ : [0, 2π] → R2 \ {0} o segmento de curva γ(t) = (cos(t), sin(t)). 108 Temos Z Z Z ω0 = ω = S1 γ [0,2π] cos(t)(cos(t) dt) − sin(t)(− sin(t) dt) = sin2 (t) + cos2 (t) Z 2π dt = 2π 6= 0, 0 1 1 portanto R ω0 não é Rexata (Corolário 2.11.13). Se η ∈ A (S ) é qualquer e c = (1/2π) S1 η, então S 1 (η − cω0 ) = 0, e segue que η − cω0 é exata. Isso quer dizer que [η] = c[ω0 ], ou seja, [ω0 ] gera H1 (S1 ). Suponhamos agora que n ≥ 2 e que o teorema vale para Sn−1 . Como Sn é simplesmente conexa, H1 (Sn ) = 0, pela Proposição 3.3.7. Apliquemos o Teorema de Mayer-Vietoris, para p > 1, como segue: Sejam N = (0, . . . , 0, 1) e S = (0, . . . , 0, −1) os polos norte e sul de Sn , respectivamente, e U = Sn \ {S}, V = Sn \ {N }. Pela projeção estereográfica, U e V são difeomorfos a Rn , e portanto, U ∩ V é difeomorfo a Rn \ {0}. Parte da sequência de Mayer-Vietoris para {U, V } é Hp−1 (U ) ⊕ Hp−1 (V ) → Hp−1 (U ∩ V ) → Hp (Sn ) → Hp (U ) ⊕ Hp (V ). Como U e V são difeomorfos a Rn , os grupos Hp−1 (U )⊕Hp−1 (V ) e Hp (U )⊕Hp (V ) são triviais, para p > 1, o que implica Hp−1 (U ∩ V ) ∼ = Hp (Sn ). Doravante, U ∩ V é n difeomorfo a R \ {0} e , logo, tem o mesmo tipo de homotopia de Sp−1 . Concluı́mos então que Hp (Sn ) ∼ = Hp−1 (Sn−1 ), para p > 1. Por fim, se ω é uma forma de orientação em Sn , esta não é exata, pois sua integral é não-nula. Como dim(Hn (Sn )) = 1, segue que [ω] gera Hn (Sn ). Corolário 3.3.9. Se m, n ≥ 1 e m 6= n, então Sm Sn . Demonstração: Suponhamos sem perda de generalidade que m < n. Temos, pelo Teorema 3.3.8, Hn (Sm ) ∼ = 0 e Hn (Sn ) ∼ = R. Portanto Hn (Sm ) Hn (Sn ). Pelo Teorema 3.1.11, Sm Sn . Corolário 3.3.10. Sejam n ≥ 2 e x ∈ Rn . Os únicos grupos de cohomologia de De Rham não triviais de Rn \ {x} são H0 (Rn \ {x}) e Hn−1 (Rn \ {x}), sendo ambos de dimensão 1. Demonstração: Seja S ⊂ Rn \ {x} uma esfera de dimensão (n − 1) centrada em x. Como a inclusão i : S → Rn \ {x} é uma equivalência homotópica, pelo Teorema 3.1.11, i : Hp (Rn \ {x}) → Hp (S) é um isomorfismo de grupos para cada p. Corolário 3.3.11. Se m, n ≥ 2 e m 6= n, então Rm Rn . Demonstração: Seja x0 ∈ Rm e suponhamos por absurdo que existe um homeomorfismo f : Rm → Rn . Então f |Rm \{x0 } : Rm \ {x0 } → Rn \ {f (x0 )} é homeomorfismo entre Rm \{x0 } e Rn \{f (x0 )}, o que implica, Pelo Teorema 3.1.11, que Hp (Rm ) ∼ = Hp (Rn ) para todo p. Como m 6= n, isso contradiz o Corolário 3.3.10. Logo Rm Rn . 109 Apêndice Nesta seção fazemos uma breve revisão das definições e dos principais resultados dos tópicos que são pré-requisito para este trabalho. Conjuntos Não pretendemos entrar em detalhes axiomáticos da teoria dos conjuntos, sendo essa seção destinada mais a fixação de notação do que a considerações teóricas. Aceitaremos, assim, a noção intuitiva de que um conjunto é qualquer coleção, dentro de um todo de objetos definidos e distinguı́veis, chamados elementos. Sejam dois conjuntos A e B. Quando um elemento x pertence a A, denotamos esta relação por x ∈ A. Se x não pertence a A denotamos x ∈ / A. Especificaremos um conjunto listando entre chaves, { }, todos os seus elementos ou um elemento genérico tı́pico e a condição p que o define. Neste último caso, separaremos tal elemento da condição p com o sı́mbolo |. A é dito subconjunto de B se todo elemento de A é também elemento de B, e denotamos A ⊂ B. Dizemos que A e B são iguais se, e somente se, A ⊂ B e B ⊂ A, e, neste caso, denotamos A = B. Por fim, denotaremos o conjunto vazio por ∅. Definição A.1.1. Dados dois conjuntos A e B, definimos a união e a intersecção entre A e B respectivamente por A ∪ B = {x | x ∈ A ou x ∈ B}, A ∩ B = {x | x ∈ A e x ∈ B}. Frequentemente usaremos a generalização destas operações para mais de dois conjuntos, como segue. Seja Aα , α ∈ J uma coleção de conjuntos. Denotaremos a união e a intersecção entre todos os conjuntos Aα respectivamente por [ Aα = {x | x ∈ Aα ∀ α ∈ J}, α∈J \ Aα = {x | x ∈ Aα para algum α ∈ J}. α∈J Caso J seja finito, as seguintes notações também serão usadas: [ α∈J Aα = n [ i=1 111 Aαi , \ Aα = n \ Aαi . i=1 α∈J Definição A.1.2. Dados dois conjuntos A e B, dizemos que A e B são disjuntos se A ∩ B = ∅. Dados dois conjuntos A e B disjuntos, denotaremos sua união pelo o sı́mbolo AtB, já ficando subentendido, nesse caso, que A e B são disjuntos. Mais geralmente, dada uma famı́lia qualquer {Aλ }λ∈Γ de conjuntos disjuntos dois a dois, denotaremos sua união por G Aλ . λ∈Γ Definição A.1.3. Dados dois conjuntos A e B, a diferença entre A e B é definida por A \ B = {x | x ∈ A e x ∈ / B}. Um par ordenado consiste de um par de elementos distinguidos como primeiro elemento e segundo elemento. Tal distinção pode ser feita através da identificação (a, b) ≡ {a, {a, b}}. Trivialmente, temos (a, b) = (c, d) ⇔ a = c e b = d. Definição A.1.4. Dados dois conjuntos A e B, definimos A×B, o produto cartesiano de A e B por A × B = {(a, b) | a ∈ A b ∈ B}. A operação acima pode ser generalizada para uma coleção finita Ai , i ∈ {1, . . . , n} de conjuntos colocando-se A1 × · · · × An = {(a1 , . . . , an ) | a1 ∈ A1 , . . . , an ∈ An }. Definição A.1.5. Dados dois conjuntos A e B, uma relação R de A em B é um subconjunto de A × B. Denotaremos (a, b) ∈ R por aRb. Definimos também os conjuntos dom(R) = {a ∈ A | (a, b) ∈ R para algum b ∈ B}, im(R) = {b ∈ B | (a, b) ∈ R para algum a ∈ A}. Definição A.1.6. Sejam A um conjunto e R uma relação de A em A. R é chamada de relação de equivalência quando, ∀ a, b, c ∈ A, satisfaz: (1) aRa, (2) aRb ⇒ bRa, (3) aRb e bRc ⇒ aRc. 112 Definição A.1.7. Seja R uma relação de equivalência em um conjunto não vazio A. Para cada a ∈ A definimos a classe de equivalência de a por a/R = {b ∈ A | bRa}. O conjunto de todas as classes de equivalência em A é denotado por A/R = {a/R | a ∈ A}. Definição A.1.8. Seja A um conjunto, A 6= ∅. Uma partição P de A é um conjunto de subconjuntos não vazios de A satisfazendo: (1) Se P1 , P2 ∈ P e P1 6= P2 , então P1 ∩ P2 = ∅, S (2) P ∈P P = A. Lema A.1.9. Seja R uma relação de equivalência em um conjunto não vazio A. Então A/R é uma partição de A. Demonstração: Como R é reflexiva, a ∈ a/R, ∀ a ∈ A, portanto A/R é uma famı́lia de subconjuntos não vazios de A. Suponha que (a/R) ∩ (b/R) 6= ∅. Então, pela transitividade de R, a/R = b/R. Logo, a/R 6= b/R ⇒ (a/R) ∩ (b/R) = ∅. Finalmente, como a ∈ a/R, ∀ a ∈ A, temos que [ a/R = A. a∈A As funções, definidas a seguir, são um tipo particular de relação. Definição A.1.10. Dados dois conjuntos A e B, uma função de A em B, é uma tripla (f, A, B) onde f é uma relação de A em B satisfazendo: (1) dom(f ) = A, (2) Se (a, b) ∈ f e (a, c) ∈ f então b = c. Adotaremos o costume de denotar f : A → B no lugar de (f, A, B), e b = f (a) em vez de (a, b) ∈ f . Os conjuntos A e B são chamados, respectivamente, domı́nio e contradomı́nio da função f . O conjunto f (A) = {f (a) | a ∈ A} denomina-se imagem de f . Definição A.1.11. Destacamos três tipos de funções: (1) f : A → B é dita injetora quando, dados a1 , a2 ∈ A, se f (a1 ) = f (a2 ), então a1 = a2 , (2) f : A → B é dita sobrejetora quando, para todo b ∈ B, existe pelo menos um a ∈ A tal que f (a) = b, (3) f : A → B é dita bijetora quando for simultaneamente injetora e sobrejetora. 113 Se R é uma relação de A para B, então a sua inversa R−1 = {(b, a) | (a, b) ∈ R} é uma relação de B para A. Como f : A → B é um tipo particular de relação, é natural perguntar quando f −1 é também uma função. O lema abaixo responde tal pergunta. Lema A.1.12. Seja f : A → B uma função bijetora. Então f −1 : B → A é bijetora. Demonstração: Como f é sobrejetora, dom(f −1 ) = im(f ) = B. Além disso, se (b, a1 ), (b, a2 ) ∈ f −1 , então (a1 , b), (a2 , b) ∈ f , e consequentemente f (a1 ) = f (a2 ) = b. Como f é injetora, decorre que a1 = a2 . Portanto f −1 é função. Sejam b1 , b2 ∈ B, com f −1 (b1 ) = f −1 (b2 ) = a ∈ A. Então f (a) = b1 e f (a) = b2 , e logo b1 = b2 . Portanto f −1 é injetora. Por fim, como f é relação, im(f −1 ) = dom(f ) = A, e f −1 é sobrejetora. Quando f : A → B é bijeção, f −1 : B → A é chamada de função inversa de f . Definição A.1.13. Sejam f : A → B e g : B → C duas funções. A composição de f e g é a função g ◦ f : A → C, definida (g ◦ f )(a) = g(f (a)), ∀ a ∈ A. Definição A.1.14. Seja {Aλ }λ∈Λ Q uma coleção arbitrária de conjuntos. O produto cartesiano de {Aλ }, denotado por λ∈Λ Aλ , é definido como o conjunto das funções [ X:Λ→ Aλ , λ∈Λ satisfazendo X(λ) ∈ Aλ , para todo λ ∈ Λ. Topologia Definição A.2.1. Seja X um conjunto. Uma topologia em X é uma coleção τ de subconjuntos de X, chamados abertos de A, satisfazendo: (1) X, ∅ ∈ τ , S (2) λ∈Γ Uλ ∈ τ , para qualquer famı́lia (Uλ )λ∈Γ de elementos de τ , T (3) ni=1 Ui ∈ τ para qualquer famı́lia finita U1 , . . . , Un de elementos de τ . Um espaço topológico é um par (X, τ ), onde X é um conjunto e τ é uma topologia sobre X. Definição A.2.2. Seja (X, τ ) um espaço topológico, x ∈ X e S ⊂ X. Definimos que: (1) Uma vizinhança de x é qualquer U ∈ τ tal que x ∈ U . Analogamente, uma vizinhança de S é qualquer U ∈ τ tal que S ⊂ U , (2) O conjunto S é fechado se (X \ S) ∈ τ , (3) O interior de S é o conjunto int(S) = { 114 S U ∈τ U | U ⊂ S}, S (4) O exterior de S é o conjunto ext(S) = { U ∈τ U | U ⊂ (X \ S)}, T (5) O fecho de S é o conjunto S = { V ∈X V | S ⊂ V e V é fechado}, (6) A fronteira de S é o conjunto ∂S = {x ∈ X | x ∈ / int(S) e x ∈ / ext(S)}, (7) Um ponto x é um ponto de acumulação de S se ∀ U ∈ τ com x ∈ U tem-se que S ∩ (U \ {x}) 6= ∅. O conjunto de todos os pontos de acumulação de S será denotado por S 0 , (8) O conjunto S é denso em X se S = X. Definição A.2.3. Seja (X, τ ) um espaço topológico. Uma coleção B de elementos de τ é uma base para τ se, ∀ U ∈ τ e ∀ x ∈ U , ∃ B ∈ B tal que x ∈ B ⊂ U . Definição A.2.4. Um espaço topológico é de Hausdorff se para quaisquer pontos x, y ∈ X existem abertos U, V ∈ τ tais que x ∈ U , y ∈ V e U ∩ V = ∅. Uma sequência em um conjunto X é uma função x : N → X, x(n) = xn . Por vezes denotaremos uma sequência por {xn }n∈N . Definição A.2.5. Seja (X, τ ) um espaço topológico. Uma sequência {xn }n∈N é dita convergente para um limite a ∈ X se, ∀ U ∈ τ com a ∈ U , ∃ n0 ∈ N tal que xn ∈ U se n ≥ n0 . Denotamos limn→∞ xn = a, ou xn → a. Proposição A.2.6. Sejam (X, τ ) um espaço topológico de Hausdorff e {xn }n∈N uma sequência convergente em X. Então o limite de {xn } é único. Demonstração: De fato, suponha que {xn } → y1 e {xn } → y2 . Como (X, τ ) é de Hausdorff, se y1 6= y2 , existem U1 , U2 ∈ τ tais que y1 ∈ U1 , y2 ∈ U2 e U1 ∩ U2 = ∅. Mas isso implica que {xn } diverge. Logo y1 = y2 . Definição A.2.7. Seja (X, τ ) um espaço topológico, Y ⊂ X e τ 0 uma topolgia sobre Y . Dizemos que (Y, τ 0 ) é um subespaço topológico de (X, τ ) e que τ 0 é a topologia induzida sobre Y por τ se τ 0 = {U ∩ Y | U ∈ τ }. Lema A.2.8. Seja (X, τ ) um espaço topológico e (Y, τ 0 ) subespaço de X. Então: (1) Se B é uma base para τ , BY = {B ∩ Y | B ∈ B} é uma base para τ 0 , (2) Se X é de Hausdorff, Y é de Hausdorff, (3) Se X admite base enumerável, Y admite base enumerável. 115 Definição A.2.9. Sejam (Xi , τi ), i = 1, . . . , n, espaços topológicos. A coleção de todos os subconjuntos da forma U1 ×· · ·×Un , onde cada Ui é um aberto de Xi forma uma base para uma topologia em X1 × · · · × Xn , chamada de topologia produto. Munido desta topologia, X1 × · · · × Xn é chamado de espaço produto de X1 , . . . , Xn . Lema A.2.10. Seja X1 × · · · × Xn um espaço produto finito. Então: (1) Se Bi é uma base para τi (τi topologia em Xi ), B = {B1 × · · · × Bn | Bi ∈ Bi } é uma base para a topologia de X1 × · · · × Xn , (2) Se (Xi , τi ), i = 1, . . . , n, são de Hausdorff, X1 × · · · × Xn é de Hausdorff, (3) Se (Xi , τi ), i = 1, . . . , n, admitem base enumerável, X1 × · · · × Xn admite base enumerável. Definição A.2.11. Sejam (X, τ1 ), (Y, τ2 ) dois espaços topológicos, (A, τA ) um subespaço não vazio de X e a ∈ A0 . Dizemos que l ∈ Y é o limite de uma função f : A → Y quando x tende a a se, para todo V ∈ τ2 com l ∈ V , existe U ∈ τ1 com a ∈ U tal que f ((A ∩ U ) \ {a}) ⊂ V, e denotamos limx→a f (x) = l. Definição A.2.12. Sejam (X, τ1 ), (Y, τ2 ) dois espaços topológicos e a ∈ X. Uma função f : X → Y é contı́nua em a se, para todo V ∈ τ2 com f (a) ∈ V , existe U ∈ τ1 com a ∈ U tal que f (U ) ⊂ V. Dizemos que f é contı́nua quando ela é contı́nua em todos os pontos do seu domı́nio ou, equivalentemente, quando f −1 (V ) ∈ τ1 para todo V ∈ τ2 . Um homeomorfismo é uma bijeção contı́nua com inversa contı́nua. Se existe um homeomorfismo entre dois espaços X e Y , dizemos que estes são homeomorfos e denotamos X ∼ = Y. Definição A.2.13. Sejam (X, τ ) um espaço topológico e U, V ∈ τ . O par (U, V ) é uma cisão de X se U e V são disjuntos e U ∪ V = X. Se U = ∅ ou V = ∅, (U, V ) é dita cisão trivial. Dizemos que X é conexo se não admite cisão não trivial. Caso contrário X é desconexo. Lema A.2.14. Sejam (X, τX ), (Y, τY ) dois espaços topológicos, X conexo, e f : X → Y uma função contı́nua. Então f (X) é conexo. Um caminho entre dois pontos p e q de um espaço topológico X é uma função contı́nua f : [0, 1] → X tal que f (0) = p e f (1) = q. Definição A.2.15. Um espaço topológico X é conexo por caminhos se ∀ p, q ∈ X, existe um caminho f entre p e q. 116 Lema A.2.16. Sejam (X, τX ), (Y, τY ) espaços topológicos. Então: (1) Se f : X → Y é contı́nua e X é conexo por caminhos, f (X) é conexo por caminhos, (2) Se X é conexo por caminhos, X é conexo. Definição A.2.17. Seja (X, τ ) um espaço topológico e K ⊂ X. K é dito compacto S se, ∀ Uλ ∈ τ , λ ∈ Γ, verificando K ⊂ λ∈Γ Uλ , ∃ λ1 , . . . , λk ∈ Γ tais que K⊂ k [ Uλi . i=1 Lema A.2.18. Sejam (X, τX ), (Y, τY ) espaços topológicos. Então: (1) Se f : X → Y é contı́nua e X é compacto, então f (X) é compacto, (2) Se X é compacto e f : X → R é contı́nua, f é limitada. Definição A.2.19. Sejam M e N espaços topológicos. Uma função f : M → N é dita uma aplicação própria se, para todo subconjunto compacto K ⊂ N , f −1 (K) é compacto. Lema A.2.20. Seja f : M → N uma aplicação própria contı́nua. Então f é fechada (ou seja, ∀U ⊂ M fechado tem-se f (U ) ⊂ N fechado). Se X é um espaço topológico compacto, um subconjunto K ⊂ X é dito précompacto em X se K ⊂ X é compacto. Definição A.2.21. Uma coleção U de abertos de um espaço topológico X é dita localmente finita se para todo x ∈ X existe uma vizinhança de x que intersecta no máximo um número finito de abertos de U. Definição A.2.22. Sejam U e V coberturas abertas de um espaço topológico X. V é dita um refinamento de U se, para todo V ∈ V existe U ∈ U tal que V ⊂ U. Definição A.2.23. Dizemos que um espaço topológico X é paracompacto se, para toda cobertura aberta de X admite um refinamento localmente finito. A seguir definiremos os espaços métricos, que são espaços topológicos cuja topologia é induzida por uma métrica. Definição A.2.24. Uma métrica sobre um conjunto X é uma função d : X ×X → R verificando, ∀ x1 , x2 , x3 ∈ X, (1) d(x1 , x2 ) ≥ 0, (2) d(x1 , x2 ) = 0 ⇔ x1 = x2 , 117 (3) d(x1 , x2 ) = d(x2 , x1 ), (4) d(x1 , x3 ) ≤ d(x1 , x2 ) + d(x2 , x3 ). Um espaço métrico é um par (X, d) onde X é um conjunto e d uma métrica sobre X. Se Y ⊂ X e dY uma métrica sobre Y , dizemos que (Y, dY ) é um subespaço métrico de (X, d) e que dY é a métrica induzida por d sobre Y se, ∀ y1 , y2 ∈ Y , dY (y1 , y2 ) = d(y1 , y2 ). Definição A.2.25. Sejam (X, d) um espaço métrico, x ∈ X e r ∈ R, r > 0. Definimos os subconjuntos Br (x0 ) = {x ∈ X | d(x0 , x) < r}, Br [x0 ] = {x ∈ X | d(x0 , x) ≤ r}, denominados, respectivamente, bola aberta e bola fechada de centro x0 e raio r. Definição A.2.26. Seja (X, d) um espaço métrico e Y ⊂ X. Definimos que: (1) Y é um aberto de X se, ∀ y ∈ Y , ∃ r = r(y) > 0 tal que Br (y) ⊂ Y , (2) Y é um fechado de X se X \ Y é um aberto de X, (3) Y é limitado se ∃ x ∈ X, r > 0 tais que Y ⊂ Br (x). Definição A.2.27. Seja (X, d) um espaço métrico e τd = {Y ⊂ X | Y é aberto de X}. Dizemos que um espaço topológico é metrizável quando existe uma métrica d sobre X tal que τd = τ . Neste caso, dizemos que a topologia τ é a topologia induzida pela métrica d. Como todo espaço métrico é um espaço topológico, os espaços métricos herdam todas as propriedades de espaços topológicos da Seção 3.3. Podemos, no entanto, definir algumas noções topológicas através da distância d explicitamente. Definição A.2.28. Seja (X, d) um espaço métrico. Uma sequência {xn }n∈N em X converge pra a ∈ X se, ∀ ε > 0, ∃ n0 ∈ N tal que, se n ≥ n0 , d(xn , a) < ε. Definição A.2.29. Seja (X, d) um espaço métrico. Uma sequência {xn }n∈N em X é de Cauchy se, ∀ ε > 0, ∃ n0 ∈ N tal que, se m, n ≥ n0 , d(xm , xn ) < ε. 118 Definição A.2.30. Seja (X, dX ) e (Y, dY ) espaços métricos, (A, dA ) um subespaço não vazio de X, f : A → Y uma função e a ∈ A0 . Dizemos que l é o limite de f (x) quando x tende a se, e somente se, ∀ ε > 0, ∃ δ > 0 tal que, se 0 < dX (x, a) < δ, dY (f (x), a) < ε. Definição A.2.31. Sejam (X, dX ) e (Y, dY ) espaços métricos e f : X → Y uma função. Dizemos que f é contı́nua num ponto a ∈ X se, e somente se, ∀ ε > 0, ∃ δ > 0 tal que, se dX (x, a) < δ, dY (f (x), f (a)) < ε. Dizemos que f é contı́nua em X se ela é contı́nua em todos os pontos de X. Definição A.2.32. Um espaço métrico (X, d) é completo se toda sequência de Cauchy {xn } é convergente em X e limn→∞ xn ∈ X. A seguir falamos brevemente sobre homotopia. Definição A.2.33. Sejam X e Y dois espaços topológicos. Duas aplicações contı́nuas f, g : X → Y se dizem homotópicas quando existe uma aplicação H : X × [0, 1] → Y contı́nua tal que H(x, 0) = f (x) e H(x, 1) = g(x), ∀x ∈ X. A aplicação H chama-se uma homotopia entre f e g, e denotamos, nesse caso H : f ' g, ou simplesmente f ' g. Dada uma homotopia H : f ' g, considere, para cada t ∈ [0, 1], a aplicação contı́nua Ht : X → Y dada por Ht (x) = H(x, t). Dar a homotopia H equivale a dar uma famı́lia {Ht }t∈[0,1] contı́nua no parâmetro t de aplicações de X em Y . Assim, a homotopia H : f ' g pode ser intuitivamente imaginada como um processo de deformação contı́nua de f em g. Exemplo A.2.34. Seja E um espaço vetorial e Y ⊂ E. Dadas duas aplicações contı́nuas f, g : X → Y , suponhamos que, para todo x ∈ X, o segmento [f (x), g(x)] esteja contido em Y . Então f ' g. De fato, tome H : X × [0, 1] → Y dada por H(x, t) = (1 − t)f (x) + tg(x), que claramente é contı́nua, com H(x, 0) = f (x) e H(x, 1) = g(x), e, logo, uma homotopia. Proposição A.2.35. Sejam X e Y espaços topológicos. A relação de homotopia f ' g é uma relação de equivalência no conjunto das aplicações contı́nuas C(X; Y ). 119 Definição A.2.36. As classes de equivalência segundo a relação de homotopia são chamadas classes de homotopia. Denotamos a classe f /' de uma aplicação contı́nua f : X → Y por [f ]. E o conjunto C(X; Y ) , ' das classes de homotopia das aplicações contı́nuas de X em Y , por [X, Y ]. Proposição A.2.37. Sejam f , fe, g, ge aplicações contı́nuas de X em Y . Se f ' fe e g ' ge, então g ◦ f ' ge ◦ fe. Definição A.2.38. Sejam f : X → Y e g : Y → Z aplicações contı́nuas. Definimos a composição de classes de homotopia por [f ] ◦ [g] = [f ◦ g]. Definição A.2.39. Sejam X e Y espaços topológicos. Uma aplicação contı́nua f : X → Y é dita uma equivalência homotópica quando existe g : Y → X tal que g ◦ f ' idX , f ◦ g ' idY . Dize-se então que g é um inverso homotópico de f e que X e Y têm o mesmo tipo de homotopia. Neste caso denotamos X ≡ Y ou f : X ≡ Y . Se X tem o mesmo tipo de homotopia de um ponto, dizemos que X é contrátil. Espaços com o mesmo tipo de homotopia são equivalentes do ponto de vista homotópico. Dois espaços homeomorfos tem o mesmo tipo de homotopia, pois todo homeomorfismo é uma equivalência homotópica. A recı́proca, porém, é falsa. Definição A.2.40. Um par de espaços topológicos é uma dupla (X, A) onde A é subespaço de X. Definição A.2.41. Dados pares (X, A) e (Y, B), uma aplicação contı́nua f : (X, A) → (Y, B) é uma aplicação contı́nua f : X → Y tal que f (A) ⊂ B. Definição A.2.42. Dadas aplicações contı́nuas f, g : (X, A) → (Y, B), uma homotopia de pares entre f e g é uma aplicação contı́nua H : (X × I, A × I) → (Y, B) tal que H(x, 0) = f (x) e H(x, 1) = g(x) para todo x ∈ X. Isso implica que Ht (A) ⊂ B para todo t ∈ I. Se B reduz-se a um único ponto y0 , chamado ponto básico de Y , durante uma homotopia entre duas aplicações f, g : (X, A) → (Y, y0 ), a aplicação Ht deve ser constante em A. 120 Exemplo A.2.43. A aplicação identidade id : I → I é homotópica a uma constante, mas a aplicação de pares id : (I, ∂I) → (I, ∂I) não é. Isso significa que I pode ser contraı́do continuamente em um ponto, mas durante tal deformação pelo menos um dos extremos deve passar pelo interior de I. De fato, uma homotopia H entre duas aplicações f, g : (I, ∂I) → (I, ∂I) deve ser tal que Ht (0) ∈ ∂I e Ht (1) ∈ ∂I para todo t ∈ I. Como ∂I = {0, 1}, segue que H(0) e H(1) não dependem de t, ou seja, os extremos de I ficam fixos durante toda a homotopia. Definição A.2.44. Dadas f, g : X → Y contı́nuas, diz-se que f é homotópica a g relativamente a A ⊂ X, quando existe uma homotopia H : f ' g tal que H(x, t) = f (x) = g(x) para todo x ∈ A. Denotaremos f ' g (rel A). Álgebra Definição A.3.1. Um grupo é uma dupla (G, ·), onde G é um conjunto, G 6= ∅ e · : G × G → G é uma operação satistazendo, para todo a, b, c ∈ G, (1) a · (b · c) = (a · b) · c, (2) ∃ e ∈ G tal que a · e = e · e = a, (3) ∃ a−1 ∈ G tal que a · a−1 = a−1 · a = e. Onde a · b = ·(a, b). Quando · satisfaz ainda a · b = b · a, para quaisquer a, b ∈ G, dizemos que o grupo G é abeliano. Por vezes, denotaremos a operação · por justaposição, ou seja, grafando ab em vez de a · b. Definição A.3.2. Sejam G e H dois grupos. Uma aplicação f : G → H é dita um homomorfismo se, ∀a, b ∈ G, f (ab) = f (a)f (b). Um homomorfismo f : G → H é um isomorfismo se existe g : H → G tal que f ◦ g = idH e g ◦ f = idG . Quando existe um isomorfismo entre G e H dizemos que estes são isomorfos e denotamos G ∼ = H. Proposição A.3.3. Seja (G, ·) um grupo e a, b ∈ G. Então: (1) O elemnto neutro e é único, (2) O elemento inverso a−1 é único, (3) (a · b)−1 = b−1 · a−1 . Definição A.3.4. Um corpo é uma tripla (Γ, +, ·) onde Γ é um conjunto qualquer e + : Γ × Γ → Γ e · : Γ × Γ → Γ são duas operações, chamadas respectivamente de adição e multiplicação, satisfazendo, para quaisquer a, b, c ∈ Γ: 121 (1) (a + b) + c = a + (b + c), (2) a + b = b + a, (3) ∃ 0 ∈ Γ tal que a + 0 = a, (4) ∃ (−a) ∈ Γ tal que a + (−a) = 0, (5) (a · b) · c = a · (b · c), (6) a · b = b · a, (7) ∃ 1 ∈ Γ tal que a · 1 = a, (8) Se a 6= 0, ∃ a−1 ∈ Γ tal que a · a−1 = 1, (9) a · (b + c) = a · b + a · c. Definição A.3.5. Um espaço vetorial é uma quádrupla (E, +, ·, Γ) onde E é um conjunto qualquer, Γ é um corpo e + : E×E → E e · : Γ×E → E são duas operações, chamadas respectivamente de adição e multiplicação por escalar, satisfazendo, para quaisquer x, y, z ∈ E, λ, µ ∈ Γ: (1) (x + y) + z = x + (y + z), (2) x + y = y + x, (3) ∃ 0 ∈ E tal que x + 0 = x, (4) ∃ (−x) ∈ E tal que x + (−x) = 0, (5) λ · (µ · x) = (λ · µ) · x, (6) 1 · x = x, (7) (λ + µ) · x = λ · x + µ · x, (8) λ · (x + y) = λ · x + λ · y. Os elementos de E são chamados de vetores e os elementos de Γ de escalares. A operação · por vezes será denotada por justaposição, ou seja, escreveremos λx no lugar de λ · x. Definição A.3.6. Seja (E, +, ·, Γ) um espaço vetorial. Um subespaço vetorial de E é um subconjunto F ⊂ E satisfazendo: (1) 0 ∈ F , (2) Se x, y ∈ F , então x + y ∈ F , (3) Se x ∈ F , então λx ∈ F , ∀ λ ∈ Γ. 122 Definição A.3.7. Seja (E, +, ·, Γ) um espaço vetorial. Uma soma da forma k X λi xi , i=1 onde λi ∈ Γ e xi ∈ E é chamada de combinação linear. P Se F ⊂ E, o subespaço gerado por F é o conjunto de todas as combinações lineares ki=1 λi yi tais que yi ∈ F , e é denotado por [F ]. Por convenção, [∅] = {0}. Se S e T são subespaços de um espaço vetorial E, S + T denota o conjunto de todos os vetores do tipo x + y com x ∈ S e y ∈ T . Nota-se que S + T = [S ∪ T ]. Definição A.3.8. Se S + T = E e S ∩ T = {0}, E é dito a soma direta de S e T , e denotamos E = S ⊕ T. Analogamente, se {EαP }α∈A é uma famı́lia qualquer de subconjuntos de E tais P que α Eα = E, e Eα ∩ β6=α Eβ = 0, para todo α ∈ A, dizemos que E é soma direta dos Eα , e denotamos M Eα . E= α Definição A.3.9. Seja E um espaço vetorial e S ⊂ E. S é dito linearmente dependente se X ai xi = 0, onde xi são elementos distintos de S e ai 6= 0 para pelo menos um i. Caso contrário, S é dito linearmente independente. Em outras palavras, S é linearmente independente se, e somente se, toda combinação linear de elementos de S nula é tal que seus coeficientes são todos nulos. Qualquer subconjunto contendo 0 é linearmente dependente. Por convenção, ∅ é linearmente independente. Definição A.3.10. Seja E um espaço vetorial. Uma base de E é um subconjunto B ∈ E linearmente independente tal que [S] = E. Se S é uma base de E, todo elemento de E se escreve unicamente como uma combinação linear dos elementos de S. Se S é finito, E é dito ter dimensão finita. Seja A um conjunto, Γ um corpo e C(A) o conjunto de todas as funções f : A → Γ tais que f (a) 6= 0 apenas para uma quantidade finita de elementos a ∈ A. Para f, g ∈ C(A) e λ ∈ Γ, definimos (f + g)(s) = f (s) + g(s), (λf )(s) = λf (s). Com essas operações C(S) torna-se um espaço vetorial. 123 Para cada a ∈ A definimos fa ∈ C(A) por 1 se x = a, fa (x) = 0 se x = 6 a. Se f ∈ C(A), sejam a1 , . . . , an os elementos de A tais que f (ai ) 6= 0. Colocando λi = f (ai ) obtemos n X f= λi fai i=1 e, portanto, {fa }a∈A gera C(A). Além disso, se n X λi fai = 0, i=1 temos, para cada j, 0= n X ! i λ fai (aj ) = i=1 n X fai (aj ) = λj . i=1 Então {fa }a∈A é uma base de C(A). Por meio da identificação a 7→ fa , A torna-se uma base de C(A). Definição A.3.11. Dado A um conjunto, o espaço C(A) construı́do acima é chamado de espaço vetorial livre sobre A. Lema A.3.12. Seja E um espaço vetorial de dimensão finita. Se E é gerado por n vetores, então qualquer subconjunto de E com mais de n vetores é linearmente dependente. Proposição A.3.13. Seja E um espaço vetorial de dimensão finita. Então todas as bases de E têm o mesmo número de elementos. Definição A.3.14. Seja E um espaço vetorial de dimensão finita. Definimos dim(E), a dimensão de E como sendo o número de elementos em qualquer base de E. Definição A.3.15. Seja E um espaço vetorial de dimensão finita. Uma base ordenada de E é uma base de E munida de uma ordenação especı́fica dos elementos de E. Denotaremos uma tal base por (e1 , . . . , en ) ou simplesmente (ei ). Se (e1 , . . . , en ) é uma base ordenada de E, todo vetor x ∈ E se escreve unicamente como uma combinação linear n X x= xi e i . i=1 Os números xi são chamados de componentes de x em relação a (e1 , . . . , en ). 124 Definição A.3.16. Sejam E e F espaços vetoriais sobre Γ. Uma aplicação T : E → F é linear se satisfaz, ∀x, y ∈ E e λ, µ ∈ Γ, T (λx + µy) = λT (x) + µT (y). Denotamos o conjunto de todas as aplicações lineares de E em F por L(E; F ). Em particular, se F = Γ denotamos L(E; F ) por L(E). Definição A.3.17. Definimos o núcleo de T e a imagem de T , repectivamente, por ker(T ) = {x ∈ E | T (x) = 0}, im(T ) = {y ∈ F | y = t(x) para algum x ∈ E}. Uma aplicação linear bijetora T : E → F é chamada de isomorfismo. Neste caso, existe uma única inversa T −1 : F → E, que também é linear. Por isso, uma aplicação linear bijetora é dita ser invertı́vel. Se existe um isomorfismo T : E → F , os espaços E e F são isomorfos. Definição A.3.18. Sejam E e F espaços vetoriais de dimensão finita, (e1 , . . . , en ) e (f1 , . . . , fm ) bases ordenadas de E e F respectivamente. Se T : E → F é linear, a matriz de T em relação a (e1 , . . . , en ) e (f1 , . . . , fm ) é a matriz m × n A11 . . . A1n .. , ... A = (Aij ) = ... . m A1 . . . Am n na qual a j-ésima coluna consiste das componentes de T (ej ) em relação a (f1 , . . . , fm ): T (ej ) = m X Aij fi . i=1 A ação de T em qualquer vetor é, então, dada por ! n m X n X X j T x ej = Aij xj fi . j=1 i=1 j=1 Escrevendo as componentes dos vetores como uma matriz coluna, a representação matricial de y = T (x) é dada pela multiplicação matricial y1 A11 . . . A1n x1 .. .. .. .. . ... . = . . . m ym A1 . . . Am xn n Sejam (ei ) e (ẽi ) bases ordenadas de um espaço vetorial E de dimensão finita. Cada base pode ser escrita de forma única em relação à outra. Então existe uma matriz invertı́vel, camada de matriz mudança de base de (ẽi ) para (ei ) tal que ei = ẽj = n X j=1 n X Bij ẽi , (B −1 )ij ei . i=1 125 Teorema A.3.19. Sejam E e F espaços vetoriais de dimensão finita e T : E → F linear. Então dim(E) = dim(im(T )) + dim(ker(T )). Definição A.3.20. Seja Mn×n (R) o espaço vetorial das matrizes n × n e A ∈ Mn×n (R). Definimos o determinante de A = (Aij ) por det(A) = X σ(1) sig(σ)A1 . . . Anσ(n) . σ∈Sk Definição A.3.21. Sejam E e F espaços vetoriais sobre Γ. Φ : E × F → Γ é chamada de bilinear se satisfaz, para todo x, x1 , x2 ∈ E, y, y1 , y2 ∈ F , λ, λ0 , µ, µ0 ∈ Γ Φ(λx1 + µx2 , y) = λΦ(x1 , y) + µΦ(x2 , y), Φ(x, λ0 y1 + µ0 y2 ) = λ0 Φ(x, y1 ) + µ0 Φ(x, y2 ). Uma aplicação bilinear Φ : E × F → Γ é dita não degenerada se ker(Φ) = {x ∈ E | Φ(x, y) = 0} = 0, E ker(Φ) = {y ∈ F | Φ(x, y) = 0} = 0. F Definição A.3.22. Sejam E e E ∗ espaços vetoriais sobre Γ e h·, ·i : E ∗ × E → Γ uma aplicação bilinear não degenerada. Então E e E ∗ são ditos duais em relação a h·, ·i, E ∗ é chamado de dual de E, e h·, ·i é chamada de produto escalar entre E ∗ e E. Se E tem dimensão finita e E ∗ = L(E), definimos um produto escalar entre E ∗ e E por hf, xi = f (x), onde f ∈ L(E) e x ∈ E. Neste caso, se (ei ) é uma base ordenada de E, uma base ordenada de E ∗ , chamada de base dual a (ei ) é dada por (f j ), onde f j (xi ) = δij . Definição A.3.23. Se f : E → F é uma aplicação linear, f induz uma aplicação f ∗ : F ∗ → E ∗ , chamada de aplicação dual a f , definida por f ∗ (ϕ) = ϕ ◦ f, para todo ϕ ∈ F ∗ . O funcional f ∗ (ϕ) ∈ E ∗ é chamado de pullback de ϕ por f . Definição A.3.24. Seja E um espaço vetorial sobre R. Um produto interno em E é uma aplicação h·, ·i : E × E → R bilinear satisfazendo, ∀x, y ∈ E: (1) hx, yi = hy, xi, 126 (2) hx, xi ≥ 0 sendo que hx, xi = 0 ⇔ x = 0. Uma dupla (E, h·, ·i) é chamada de espaço com produto interno. Em um espaço com produto interno (E, h·, ·i) definimos, ∀x ∈ E, o comprimento de x por p kxk = hx, xi. Para todo x, y ∈ E não nulos, o ângulo entre x e y é definido como o único θ ∈ [0, π] tal que hx, yi . cos(θ) = kxkkyk Dois vetores x, y ∈ E são ortogonais se hx, yi = 0. Proposição A.3.25. Todo espaço vetorial de dimensão finita com produto interno (E, h·, ·i) admite uma base ortonormal. Definição A.3.26. Seja E um espaço vetorial sobre R. Uma norma em E é uma aplicação k · k : E → R satisfazendo, para todo x, y ∈ E, λ ∈ R: (1) kxk ≥ 0, sendo kxk = 0 ⇔ x = 0, (2) kλxk = |λ|kxk, (3) kx + yk ≤ kxk + kyk. Uma dupla (E, k · k) é chamada de espaço vetorial normado. O comprimento de um vetor, como definimos acima, é uma norma. Em tal caso, dizemos que a norma é proveniente do produto interno. Dado um espaço vetorial normado (E, k · k), a função distância d : E × E → R dada por d(x, y) = kx + yk, faz de E um espaço métrico, fornecendo uma topologia em E, chamada de topologia da norma. Definição A.3.27. Seja E um espaço vetorial e k · k1 e k · k2 duas normas em E. Dizemos que k · k1 e k · k2 são equivalentes se existem λ e µ constantes tais que λkxk1 ≤ kxk2 ≤ µkxk1 , para todo x ∈ E. Nos será útil trabalhar com R-módulos, pois esta é uma terminologia conveniente para combinar as noções de grupo e de espaço vetorial. Definição A.3.28. Um anel é uma tripla (R, +, ·), onde R é um conjunto e + : R × R → R e · : R × R → R são duas operações binárias satisfazendo, para todo a, b, c ∈ R, (1) (a + b) + c = a + (b + c), 127 (2) ∃ 0 ∈ R tal que 0 + a = a + 0 = a, (3) ∃ a−1 ∈ R tal que a + a−1 = a−1 + a = 0, (4) a + b = b + a, (5) (a · b) · c = a · (b · c), (6) ∃ 1 ∈ R tal que 1 · a = a · 1 = a, (7) a · (b + c) = (a · b) + (a · c), (8) (a + b) · c = (a · c) + (b · c). Se · satisfaz a · b = b · a dizemos que R é um anel comutativo. Definição A.3.29. Um R-módulo à esquerda é uma quádrupla (M, +, ·, R), onde M é um conjunto, R é um anel e + : M × M → M e · : R × M → M são duas operações satisfazendo, para todo x, y, z ∈ M , r, s ∈ R, (1) (x + y) + z = x + (y + z), (2) ∃ 0 ∈ R tal que 0 + x = x + 0 = x, (3) ∃ x−1 ∈ R tal que x + x−1 = x−1 + x = 0, (4) x + y = y + x, (5) r · (x + y) = (r · x) + (r · y), (6) (r + s) · x = (r · x) + (s · x), (7) (r · s) · x = r · (s · x), (8) 1 · x = x. De forma análoga definimos um R-módulo à direita. Se R é comutativo, então os R-módulos à esquerda e à direita são iguais. Chamamo-los, portanto, apenas de R-módulos. Definição A.3.30. Sejam M e N R-módulos. Uma aplicação f : M → N é dita R-linear se, para todo r, s ∈ R e x, y ∈ M , f (rx + sy) = rf (x) + sf (y). Definição A.3.31.QSeja {Mλ }λ∈Λ uma coleção de R-módulos. O produto direto de {Mλ } é o conjunto λ∈Λ Mλ (veja A.1.14) munido das operações (X(λ)) + (Y (λ)) = (X(λ) + Y (λ)), r(X(λ)) = (rX(λ)). 128 Análise Definição A.4.1. Sejam V e W espaços vetoriais normados e U ⊂ V aberto. Uma função f : U → W é diferenciável em a ∈ U se existe uma aplicação linear L : V → W tal que kF (a + v) − F (a) − L(v)k = 0. (A.6) lim v→0 kvk Se f é diferenciável em todo ponto a ∈ U , f é dita diferenciável em U . Quando f é diferenciável em a, a aplicação linear L que satisfaz (A.6) é denotada por Df (a) e chamada de derivada de f em a. A condição (A.6) também pode ser escrita como f (a + v) = f (a) + Df (a)(v) + R(v), kR(v)k = 0, v→0 kvk lim ou seja, Df (a) é a melhor aproximação de f (a + v) − f (a) por uma aplicação linear. Proposição A.4.2. Sejam V e W espaços vetoriais normados de dimensão finita, U ⊂ V aberto, a ∈ U , F, G : U → W e f, g : U → R. Então: (1) Se F é diferenciável em a, então F é contı́nua em a, (2) Se F e G são diferenciáveis em a, então F + G é diferenciável em a e D(F + G)(a) = DF (a) + DG(a), (3) Se f e f são diferenciáveis em a, então f g é diferenciável em a e D(f g)(a) = f (a)Dg(a) + g(a)Df (a), (4) Se f é diferenciável em a e f (a) 6= 0, então 1/f é diferenciável em a e 1 −1 D Df (a), (a) = f f (a)2 (5) Se F é linear, então F é diferenciável em todo ponto de U e DF (a) = F para qualquer a. Proposição A.4.3. Sejam V , W e X espaços vetoriais de dimensão finita, U ⊂ V e ⊂ W abertos, f : U → U e eg:U e → X. Se f é diferenciável em a ∈ U e g é eU e diferenciável em f (a) ∈ U , então g ◦ f é diferenciável em a e D(g ◦ f )(a) = Dg(f (a)) ◦ Df (a). Definição A.4.4. Seja U ⊂ Rn aberto e f : U → R. Para cada a = (a1 , . . . , an ) ∈ U e cada j = 1, . . . , n, definimos a j-ésima derivada parcial de f em a por ∂ f (a1 , . . . , aj + h, . . . , an ) − f (a1 , . . . , an ) (a) = lim h→0 ∂xj h f (a + hej ) − f (a) = lim , h→0 h quando tal limite existe. 129 Mais geralmente, se f : U → Rm , podemos escrever f (x) = (f 1 (x), . . . , f n (x)). Isso define as m funções f i : U → R, chamadas de funções componentes de f . Definimos então as derivadas parciais de f como sendo as derivadas parciais ∂f i /∂xj de suas funções componentes. A matriz ∂f 1 ∂f 1 i ∂x1 . . . ∂xm . ∂f .. ... .. = . j ∂x ∂f n ∂f n ... ∂x1 ∂xm é chamada de matriz Jacobiana de f . Se f : U → Rm é tal que cada derivada parcial de f existe em cada ponto de U , e ∂f i /∂xj : U → R então definidas são todas contı́nuas, dizemos que f é de classe C 1 . Nesse caso podemos tomar, se existirem, as derivadas parciais de cada ∂f i /∂xj , chamadas de derivadas parciais de segunda ordem de f : i ∂f ∂ ∂ 2f i = . k j k ∂x ∂x ∂x ∂xj Mais geralmente, para k ≥ 0, dizemos que f : U → Rm é de classe C k se todas as derivadas parciais de f de ordem l ≤ k existem e são funções contı́nuas em U . Se f é de classe C k para todo k ≥ 0, dizemos que f é de classe C ∞ ou que f é suave. Ainda, se U ⊂ Rn e V ⊂ Rm são abertos, f : U → V é uma bijeção de classe C k (ou de classe C ∞ ) e f −1 : V → U é de classe C k (ou de classe C ∞ ), dizemos que f é um difeomorfismo de classe C k (ou de classe C ∞ ou, ainda, suave). Se U ⊂ Rn é aberto, definimos C k (U ) como o conjunto de todas as funções f : U → R de classe C k em U e C ∞ (U ) como o conjunto de todas as funções f : U → R de classe C ∞ . A soma, o produto e o produto por escalar de funções f, g : U → R são definidos pontualmente: (f + g)(x) = f (x) + g(x), (f g)(x) = f (x)g(x), (λf )(x) = λf (x). Lema A.4.5. Seja U ⊂ Rn aberto, f e g funções suaves em U e λ ∈ R. Então: (1) As funções f + g, f g e λ são suaves em U , (2) Se g 6= 0 em U , f /g é suave em U , (3) Com as operações de soma, produto e o produto por escalar definidas acima C ∞ (U ) torna-se uma álgebra associativa e comutativa sobre R. Proposição A.4.6. Seja U ⊂ Rn aberto e f : U → Rm de classe C 2 . Então ∂ 2f i ∂ 2f i = . ∂xk ∂xj ∂xj ∂xk 130 Corolário A.4.7. Se f : U → Rm é suave, então, para todo k ≥ 0, ∂kf i ∂kf i , = ∂xI ∂xIσ onde I é um ı́ndice múltiplo de comprimento k (Definição 1.9.14), σ ∈ Sk e ∂xI denota ∂xi1 . . . ∂xik . Proposição A.4.8. Seja U ⊂ Rn aberto e f : U → Rn diferenciável em a ∈ U . Então todas as derivadas parciais de f em a existem e Df (a) é a aplicação linear cuja matriz na base canônica é a matriz Jacobiana de f em a: i ∂f Df (a) = . ∂xj Proposição A.4.9. Seja U ⊂ Rn aberto e f : U → Rn de classe C 1 . Então f é diferenciável em todo ponto de U . Para funções de Rn em Rm a Proposição A.4.3 pode ser reformulada em termos de derivadas parciais: e ⊂ Rm abertos, (xi ) as coordenadas em U Proposição A.4.10. Sejam U ⊂ Rn e U e . Então: e (y i ) as coordenadas em U e eg:U e → Rp são de classe C 1 , então g ◦ f ∈ C 1 (U ) e (1) Se f : U → U m X ∂g i ∂f k ∂(g i ◦ f ) (x) = (f (x)) (x), k j ∂xj ∂y ∂x k=1 (2) Se f e g são suaves, então g ◦ f é suave. Teorema A.4.11. Seja U ⊂ Rn um aberto convexo e a ∈ U fixo. Se f ∈ C k (U ), com 1 ≤ k ≤ ∞, então n n X X ∂f i i (a)(x − a ) + gi (x)(xi − ai ), f (x) = f (a) + i ∂x i=1 i=1 com gi ∈ C k−1 (U ) satisfazendo gi (a) = 0. A seguir alguns resultados da teoria de integrais (no sentido de Riemann) em n R : Definição A.4.12. Um paralelepı́pedo aberto em Rn é um subconjunto de Rn da forma (a1 , b1 ) × · · · × (an , bn ), com ai , bi ∈ Rn , ai < bi . Analogamente, um paralelepı́pedo fechado em Rn é um subconjunto de Rn da forma [a1 , b1 ] × · · · × [an , bn ], com ai , bi como acima. O volume de um paralelepı́pedo A em Rn é dado por n Y vol(A) = (bi − ai ). i=1 131 Definição A.4.13. Seja [a, b] ⊂ R um intervalo. Uma partição de [a, b] é um conjunto P = {p0 , . . . , pk } de números reais satisfazendo a = p0 < p1 < · · · < pk = b. Cada intervalo [pi , pi+1 ] é chamado de subintervalo de P . Analogamente, uma partição de um paralelepı́pedo fechado [a1 , b1 ] × · · · × [an , bn ] é uma n-upla P = (P1 , . . . , Pn ) onde cada Pi é uma partição de [ai , bi ]. Um paralelepı́pedo da forma I1 × · · · × In , onde cada Ij é um subintervalo de Pj é chamado de subparalelepı́pedo de P . Definição A.4.14. Seja A ⊂ Rn um paralelepı́pedo fechado, P uma partição de A e f : A → R uma função limitada. Definimos a soma inferior de f com relação à P por X inf f vol(Rj ) S(f, P ) = Rj j (a soma se estendendo a todos os subparalelepı́pedos Rj de P ). Analogamente, a soma superior de f com relação à P é ! X S(f, P ) = sup f vol(Rj ). Rj j Lema A.4.15. Seja A ⊂ Rn um paralelepı́pedo fechado, P e P 0 duas partições quaisquer de A e f : A → R limitada. Então S(f, P ) ≤ S(f, P 0 ). Se A e f são como no Lema acima, definimos, respectivamente, a integral inferior de f em A e a integral superior de f em A por Z f = sup{S(f, P ) | P é uma partição de A}, A Z f = inf{S(f, P ) | P é uma partição de A}. A Definição A.4.16. Seja A ⊂ Rn um paralelepı́pedo fechado e f : A → R limitada. Se a integral inferior de f em A coincide com a integral superior de f em A, dizemos que f é (Riemann) integrável e definimos a integral de f em A por Z Z Z f= A f= A f. A Definição A.4.17. Seja S ⊂ Rn um conjunto qualquer. Dizemos que S tem medida nula se, para qualquer ε > 0 dado existe uma cobertura enumerável de S por paralelepı́pedos abertos {Ai } tais que X vol(Ai ) < ε. i 132 Proposição A.4.18. Seja A ⊂ Rn um paralelepı́pedo fechado e f : A → R limitada. Se o conjunto S = {x ∈ A | f não é contı́nua em x} tem medida nula, então f é integrável. Se D ⊂ Rn é limitado e f : D → R é limitada, seja A um paralelepı́pedo qualquer contendo D. Definimos fD : D → R por f (x) se x ∈ D, fd (x) = 0 se x ∈ A \ D. R Daı́, se A fD existe, dizemos que f é (Riemann) integrável em D e definimos a integral de f em D por Z Z fD = fD . D A Definição A.4.19. Seja D ⊂ Rn . Se D é limitado e ∂D tem medida nula, dizemos que D é um domı́nio de integração. Proposição A.4.20. Seja D ⊂ Rn um domı́nio de integração e f : D → R contı́nua e limitada. Então f é integrável em D. Note que, se D é compacto, a hipótese de f ser limitada na proposição acima é desnecessária. Definição A.4.21. Seja D ⊂ Rn um domı́nio de integração. Definimos o volume de D por Z 1. vol(D) = D n Proposição A.4.22. Seja D ⊂ R um domı́nio de integração. Então: (1) vol(D) ≥ 0, sendo vol(D) = 0 se, e somente se, D tem medida nula, S (2) Se D1 , . . . , Dk são domı́nios de integração tais que ki=1 Di = D, então vol(D) ≤ vol(D1 ) + · · · + vol(Dk ), sendo que a igualdade vale se, e somente se, Di ∩ Dj tem medida nula, para cada i, j. Proposição A.4.23. Seja D ⊂ Rn um domı́nio de integração e f, g : D → R funções contı́nuas e limitadas. Então: (1) Se a, b ∈ R, Z Z af + bg = a D (2) Se D tem medida nula, R D f +b D f = 0, 133 Z g, D S (3) Se D1 , . . . , Dk são domı́nios de integração tais que ki=1 Di = D, com Di ∩ Dj tem medida nula, para cada i, j, então Z Z Z f= f + ··· + f, D D1 Dk R R (4) Se f ≥ 0 em D, então D f ≥ 0, sendo D f = 0 se, e somente se, f ≡ 0 em int(D), Z (5) inf f vol(D) ≤ f ≤ sup f vol(D), D D D Z Z (6) f ≤ |f |. D D Teorema A.4.24. Sejam D, E ⊂ Rn domı́nios de integração compactos e g : D → E uma função suave tal que g|int(d) : int(D) → int(E) é um difeomorfismo suave e f : E → R. Então Z Z f = (f ◦ g)| det(Dg)|. D E Teorema A.4.25. Seja f : [a, b] → R uma função e F : [a, b] → R tal que F 0 (x) = f (x) para todo x ∈ [a, b]. Se F é integrável em [a, b], então Z b f (x) dx = F (b) − F (a). a Teorema A.4.26. Seja E ⊂ Rn um domı́nio de integração compacto, g0 , g1 : E → R funções contı́nuas tais que g0 ≤ g1 em E e D = {(x1 , . . . , xn , y) ∈ Rn+1 | x ∈ E e g0 (x) ≤ y ≤ g1 (x)}. Então D é um domı́nio de integração e Z Z Z f= f (x, y) dy . g0 (x) E D ! g1 (x) Corolário A.4.27. Seja A = [a1 , b1 ]×· · ·×[an , bn ] ⊂ Rn um paralelepı́pedo fechado e f : A → R contı́nua. Então Z Z bn Z b1 1 n 1 f= ... f (x , . . . , x ) dx . . . dxn . A an a1 Se D ⊂ Rn é um domı́nio de integração e f : D → Rm é uma função contı́nua e limitada, definimos a integral de f em D por Z Z Z 1 m f= f ,..., f , D D D 134 onde f i são as funções componentes de f . Os resultados (1)-(3) e (6) da Proposição A.4.23 análogos para este caso continuam valendo. Seja U ⊂ Rn . Uma função f : U → Rm é dita de classe Lipschitz em U se existe uma constante c ∈ R tal que kf (x) − f (y)k ≤ ckx − yk, para todo x, y ∈ U . Tal constante é dita constante de Lipschitz para f . Lema A.4.28. Seja U ⊂ Rn um aberto e f : U → Rm de classe C 1 . Então f é de classe Lipschitz em qualquer subconjunto compacto e convexo B ⊂ U , e a constante de Lipschitz para f pode ser tomada como sendo c = sup kDf (x)k. x∈B 135 Índice Remissivo álgebra exterior, 27 graduada, 14 sobre um corpo, 14 tensorial, 15 mista, 17 anel, 127 comutativo, 128 aplicação dual, 126 aplicação bilinear, 1, 126 não degenerada, 126 estrutural, 16 linear, 124 multilinear, 1 R-linear, 128 aplicações homotópicas, 119 atlas, 31 compatı́vel, 31 diferenciável, 34 maximal, 34 com cantos, 90 suave, 34 com cantos, 90 base de um espaço topológico, 115 de um espaço vetorial, 123 ordenada, 124 negativamente orientada, 79 positivamente orientada, 79 bola aberta, 118 de coordenadas, 35 fechada, 118 bordo de uma variedade, 37 caminho, 116 campo de covetores, 53 conservativo, 59 de coordenadas, 53 exato, 59 de k-tensores, 71 de vetores, 52 de coordenadas, 52 sobre uma variedade, 81 suave de covetores, 53 de vetores, 52 carta com cantos, 90 de coordenadas, 32 positivamente orientada, 80 categoria, 98 cisão trivial, 116 classe de equivalência, 112 de homotopia, 120 cobertura regular, 40 cohomologia de De Rham, 97 coleção de cartas consistentemente orientada, 80 linearmente independente, 123 localmente finita, 117 combinação linear, 122 complexo, 102 componente de um tensor, 14 de um vetor, 47, 124 conjunto, 111 aberto, 114 137 de medida nula, 132 denso, 115 fechado, 114 pré-compacto, 117 conjuntos disjuntos, 112 contração, 18 de uma forma, 82 contradomı́nio, 113 coordenadas-padrão, 51, 53 corpo, 121 curva, 55 fechada, 59 suave, 55 derivação em um ponto, 43, 45 derivada de uma função, 129 parcial, 129 de ordem n, 130 determinante de uma aplicação linear, 28 de uma matriz, 29, 126 difeomorfismo, 130 entre variedades, 39 que preserva orientação, 81 que reverte orientação, 81 diferencial, 54 exterior, 75 dimensão de um espaço vetorial, 124 domı́nio, 113 de integração, 133 regular, 81 equivalência homotópica, 120 espaço cotangente a uma variedade, 49 métrico, 118 completo, 119 normal, 67 produto, 115 tangente a uma variedade, 45 geométrico, 43 topológico, 114 compacto, 117 conexo, 116 conexo por caminhos, 116 contrátil, 120 de Hausdorff, 115 paracompacto, 117 vetorial, 122 dual, 126 livre, 124 normado, 127 orientado, 79 estrutura suave, 35 exterior de um conjunto, 115 fecho de um conjunto, 115 fibrado cotangente, 53 k-tensorial, 69 contravariante, 69 covariante, 69 misto, 69 normal, 67 tangente, 50 forma de orientação, 81 diferencial, 72 exata, 97 fechada, 97 positivamente orientada, 81 fórmula de Taylor, 131 fronteira de um conjunto, 115 função, 113 bijetora, 113 componente, 52, 71, 130 composta, 114 contı́nua, 116, 119 de classe C k , 130 de classe Lipschitz, 135 de coordenadas, 32 de exaustão, 42 δ-próxima, 66 138 diferenciável, 38, 129 distância, 127 injetora, 113 inversa, 114 Riemman integrável, 132, 133 sobrejetora, 113 suave, 38, 130 teste, 40, 42 funtor contravariante, 99 covariante, 99 grau de um tensor, 13 misto, 16 grupo, 121 abeliano, 121 de cohomologia, 102 de De Rham, 97 homeomorfismo, 116 homomorfismo conectante, 103 de grupos, 121 homotopia, 119 de pares, 120 relativa, 121 suave, 68 imagem, 113 de uma aplicação linear, 125 ı́ndice múltiplo, 24 crescente, 24 integral de um campo de covetores, 57 de uma forma em um aberto, 84 em um domı́nio, 83 em uma variedade, 85 de uma função, 132, 133 de uma função vetorial, 134 inferior, 132 superior, 132 interior de um conjunto, 114 de uma variedade, 37 interseção, 111 isomorfismo, 125 de grupos, 121 k-forma diferencial, 72 limite, 118 de uma função, 116 matriz de uma aplicação linear, 125 jacobiana, 130 mudança de base, 125 métrica, 117 induzida, 118 morfismo, 98 entre cadeias, 102 mudança de carta, 31, 34, 37 norma, 127 equivalente, 127 núcleo de uma aplicação linear, 125 operador homotópico, 99 orientação, 78 canônica, 79 em uma variedade, 79 induzida no bordo, 82 pontual, 79 contı́nua, 79 par de espaços topológicos, 120 ordenado, 112 paralelepı́pedo, 131 partição da unidade, 40 de um conjunto, 113 de um intervalo, 132 de um paralelepı́pedo, 132 suave da unidade, 40 permutação, 21 ı́mpar, 22 par, 22 ponto de acumulação, 115 139 de bordo, 91 de canto, 91 de Rn+ , 91 potência tensorial, 13 produto cartesiano, 112 arbitrário, 114 de funções multilineares, 18 direto de R-módulos, 128 escalar, 126 exterior, 26, 73 interno, 126 tensorial canônico, 17 de aplicações lineares, 10 de dois espaços, 5 de dois tensores, 14 de n espaços, 10 projeção estereográfica, 108 propriedade universal de uma aplicação p-linear, 10 de uma aplicação bilinear, 2 pullback de um campo de tensores, 72 de um funcional linear, 126 de uma forma, 73 de uma função suave, 56 pushforward, 45 R-módulo, 128 à direita, 128 à esquerda, 128 referencial local, 53 positivamente orientado, 79 suave, 53 refinamento de uma cobertura, 117 relação, 112 de equivalência, 112 representação local, 38 matricial, 125 retração, 68 seção de um fibrado, 51, 70 local, 52 independente, 52 segmento de curva, 57 suave por partes, 57 fechado, 59 sequência, 102, 115 convergente, 115, 118 de Cauchy, 118 de Mayer-Vietoris, 105 exata, 102 curta, 102 soma direta, 123 inferior, 132 superior, 132 subconjunto aberto, 118 estrelado, 107 fechado, 118 limitado, 118 subespaço métrico, 118 topológico, 115 vetorial, 122 suporte de uma forma, 83 de uma função, 39 tensor, 5, 10, 13 alternado, 20 anti-simétrico, 20 contravariante, 16 covariante, 16 decomponı́vel, 5, 10, 13, 16 misto, 16 positivamente orientado, 79 teorema da mudança de variáveis, 134 de Stokes, 87 do núcleo e da imagem, 125 tipo de homotopia, 120 topologia, 114 da norma, 127 induzida, 118 produto, 115 transposição, 22 140 união, 111 variedade diferenciável com bordo, 36 sem bordo, 34 orientada, 79 orientável, 79 parametrizada, 31 suave, 35, 37 topológica, 31 variedades difeomorfas, 39 vetor, 122 cotangente, 49 que aponta para dentro, 81 que aponta para fora, 81 tangente, 45 geométrico, 43 vizinhança de um ponto, 114 tubular, 67 volume de um domı́nio, 133 de um paralelepı́pedo, 131 141 Referências Bibliográficas [1] Bishop, R. L., Goldberg, S. I., Tensor Analysis on Manifolds, Dover Publications Inc., 1980. [2] do Carmo, M. P., Differential Forms and Applications, Springer-Verlag, 1994. [3] Dodson, C. T. J., Tensor Geometry - The Geometric Viewpoint and its Uses, Springer, 1997. [4] Greub, W., Multilinear Algebra 2nd Edition, Springer-Verlag, 1978. [5] Lee, J. M., Introduction to Smooth Manifolds, Springer, 2006. [6] Lima, E. L., Álgebra Exterior, IMPA, 2005. [7] Lima, E. L., Curso de Análise Vol. 2, IMPA; 2010. [8] Lima, E. L., Homologia Básica, IMPA; 2009. [9] Munkres, J. R., Analysis on Manifolds, Westview Press, 1991. [10] Spivak, M., Calculus on Manifolds, Addison-Wesley, 1965. 143