Polinomi característic

En àlgebra lineal, el polinomi característic d'una matriu quadrada és un polinomi que és invariant sota la semblança de la matriu i té els valors propis com a arrels. Té el determinant i la traça de la matriu entre els seus coeficients.

El polinomi característic d'un endomorfisme d'un espai vectorial de dimensions finites és el polinomi característic de la matriu d'aquest endomorfisme sobre qualsevol base (és a dir, el polinomi característic no depèn de l'elecció d'una base). L'equació característica, també coneguda com a equació determinant,[1][2][3] és l'equació que s'obté en equiparar el polinomi característic a zero.

En la teoria espectral de grafs, el polinomi característic d'un graf és el polinomi característic de la seva matriu d'adjacència.[4]

Motivació

En àlgebra lineal, els valors propis i els vectors propis tenen un paper fonamental, ja que, donada una transformació lineal, un vector propi és un vector la direcció del qual no es modifica per la transformació, i el valor propi corresponent és la mesura del canvi de magnitud resultant del vector.

Més precisament, si la transformació es representa amb una matriu quadrada A {\displaystyle A} , un vector propi v {\displaystyle \mathbf {v} } , i el valor propi corresponent λ {\displaystyle \lambda } , ha de satisfer l'equació:

A v = λ v , {\displaystyle A\mathbf {v} =\lambda \mathbf {v} ,}
o, de manera equivalent,
( λ I A ) v = 0 {\displaystyle (\lambda I-A)\mathbf {v} =0}
on I {\displaystyle I}  és la matriu identitat, i v 0 {\displaystyle \mathbf {v} \neq \mathbf {0} }  (tot i que el vector zero compleix aquesta equació per a cada λ {\displaystyle \lambda } , no es considera un vector propi).

Es dedueix que la matriu ( λ I A ) {\displaystyle (\lambda I-A)}  ha de ser singular i el seu determinant

det ( λ I A ) = 0 {\displaystyle \det(\lambda I-A)=0}
ha de ser zero.

En altres paraules, els valors propis d' A són les arrels de

det ( x I A ) , {\displaystyle \det(xI-A),}
que és un polinomi mònic en x de grau n si A és una matriu n×n. Aquest polinomi és el polinomi característic d' A.

Definició formal

Considerem una matriu A {\displaystyle A} de n × n {\displaystyle n\times n} . El polinomi característic d' A {\displaystyle A} , denotat per p A ( t ) {\displaystyle p_{A}(t)} , és el polinomi definit per:[5]

p A ( t ) = det ( t I A ) {\displaystyle p_{A}(t)=\det(tI-A)}
on I {\displaystyle I} denota la matriu identitat n × n {\displaystyle n\times n} .

Alguns autors defineixen el polinomi característic per ser det ( A t I ) . {\displaystyle \det(A-tI).} Aquest polinomi difereix del definit aquí per un signe ( 1 ) n , {\displaystyle (-1)^{n},} per tant, no fa cap diferència per a propietats com tenir com a arrels els valors propis d' A {\displaystyle A} ; tanmateix, la definició anterior sempre dóna un polinomi mònic, mentre que la definició alternativa és mònic només quan n {\displaystyle n}  és parell.

Exemples

Per a calcular el polinomi característic de la matriu

A = ( 2 1 1 0 ) . {\displaystyle A={\begin{pmatrix}2&1\\-1&0\end{pmatrix}}.}
es calcula el determinant del següent:
t I A = ( t 2 1 1 t 0 ) {\displaystyle tI-A={\begin{pmatrix}t-2&-1\\1&t-0\end{pmatrix}}}
i es troba que ( t 2 ) t 1 ( 1 ) = t 2 2 t + 1 {\displaystyle (t-2)t-1(-1)=t^{2}-2t+1\,\!} és el polinomi característic d' A {\displaystyle A} .

Un altre exemple utilitza funcions hiperbòliques d'un angle hiperbòlic φ.

Per a la matriu

A = ( cosh ( φ ) sinh ( φ ) sinh ( φ ) cosh ( φ ) ) . {\displaystyle A={\begin{pmatrix}\cosh(\varphi )&\sinh(\varphi )\\\sinh(\varphi )&\cosh(\varphi )\end{pmatrix}}.}
el polinomi característic és
det ( t I A ) = ( t cosh ( φ ) ) 2 sinh 2 ( φ ) = t 2 2 t   cosh ( φ ) + 1 = ( t e φ ) ( t e φ ) . {\displaystyle \det(tI-A)=(t-\cosh(\varphi ))^{2}-\sinh ^{2}(\varphi )=t^{2}-2t\ \cosh(\varphi )+1=(t-e^{\varphi })(t-e^{-\varphi }).}

Propietats

El polinomi característic p A ( t ) {\displaystyle p_{A}(t)} d'una matriu n × n {\displaystyle n\times n} és mònic (el seu coeficient principal és 1 {\displaystyle 1} ) i el seu grau és n . {\displaystyle n.} El fet més important sobre el polinomi característic ja es va esmentar al paràgraf de motivació: els valors propis de A {\displaystyle A} són precisament les arrels de p A ( t ) {\displaystyle p_{A}(t)} ((això també val per al polinomi mínim d' A {\displaystyle A} , però el seu grau pot ser inferior a n {\displaystyle n} ). Tots els coeficients del polinomi característic són expressions polinòmiques a les entrades de la matriu. En particular, el seu coeficient constant p A ( 0 ) {\displaystyle p_{A}(0)} és det ( A ) = ( 1 ) n det ( A ) , {\displaystyle \det(-A)=(-1)^{n}\det(A),} el coeficient de t n {\displaystyle t^{n}} és 1, i el coeficient de t n 1 {\displaystyle t^{n-1}} és tr(−A) = −tr(A), on tr(A) és la traça d' A . {\displaystyle A.} (Els signes que es donen aquí corresponen a la definició formal donada a la secció anterior; per a la definició alternativa aquests serien det ( A ) {\displaystyle \det(A)} i (−1)n – 1 tr(A) respectivament).[6]

Llavors, el polinomi característic de la matriu A {\displaystyle A} de 2 × 2 {\displaystyle 2\times 2} ve donat per:

t 2 tr ( A ) t + det ( A ) . {\displaystyle t^{2}-\operatorname {tr} (A)t+\det(A).}

Utilitzant el llenguatge de l'àlgebra exterior, el polinomi característic d'una matriu A {\displaystyle A} de n × n {\displaystyle n\times n} es pot expressar com:

p A ( t ) = k = 0 n t n k ( 1 ) k tr ( k A ) {\displaystyle p_{A}(t)=\sum _{k=0}^{n}t^{n-k}(-1)^{k}\operatorname {tr} \left(\textstyle \bigwedge ^{k}A\right)}
on tr ( k A ) {\textstyle \operatorname {tr} \left(\bigwedge ^{k}A\right)} és la traça de la k {\displaystyle k} -èsima potència exterior d' A , {\displaystyle A,} que té dimensió ( n k ) . {\textstyle {\binom {n}{k}}.} Aquesta traça es pot calcular com la suma de tots els menors principals d' A {\displaystyle A}  de mida k {\displaystyle k} . L'algorisme recursiu de Fadéiev-LeVerrier calcula aquests coeficients de manera més eficient.

Quan la característica del cos dels coeficients és 0 {\displaystyle 0} , cada traça es pot calcular alternativament com un únic determinant, com el de la matriu k × k {\displaystyle k\times k} ,

tr ( k A ) = 1 k ! | tr A k 1 0 tr A 2 tr A k 2 tr A k 1 tr A k 2 1 tr A k tr A k 1 tr A |   . {\displaystyle \operatorname {tr} \left(\textstyle \bigwedge ^{k}A\right)={\frac {1}{k!}}{\begin{vmatrix}\operatorname {tr} A&k-1&0&\cdots &\\\operatorname {tr} A^{2}&\operatorname {tr} A&k-2&\cdots &\\\vdots &\vdots &&\ddots &\vdots \\\operatorname {tr} A^{k-1}&\operatorname {tr} A^{k-2}&&\cdots &1\\\operatorname {tr} A^{k}&\operatorname {tr} A^{k-1}&&\cdots &\operatorname {tr} A\end{vmatrix}}~.}

El teorema de Cayley-Hamilton afirma que substituint t {\displaystyle t}  per A {\displaystyle A} en el polinomi característic (interpretant les potències resultants com a potències matricials i el terme constant c {\displaystyle c}  com c {\displaystyle c} , com a vegades la matriu d'identitat) dóna la matriu zero. De manera informal, cada matriu compleix la seva pròpia equació característica. Aquesta afirmació equival a dir que el polinomi mínim d' A {\displaystyle A} divideix el polinomi característic d' A {\displaystyle A} .

Dues matrius semblants tenen el mateix polinomi característic. Tanmateix, el contrari no és cert en general: dues matrius amb el mateix polinomi característic no necessiten ser semblants.

La matriu A {\displaystyle A}  i la seva transposada tenen el mateix polinomi característic. A {\displaystyle A} és similar a una matriu triangular si i només si el seu polinomi característic es pot factoritzar completament en factors lineals sobre K {\displaystyle K} (el mateix passa amb el polinomi mínim en lloc del polinomi característic). En aquest cas A {\displaystyle A} és similar a una matriu en la forma normal de Jordan.

Polinomi característic d'un producte de dues matrius

Si A {\displaystyle A} i B {\displaystyle B} sòn dues matrius quadradres n × n {\displaystyle n\times n} , llavors els polinomis característics d' A B {\displaystyle AB} i B A {\displaystyle BA} coincideixen:

p A B ( t ) = p B A ( t ) . {\displaystyle p_{AB}(t)=p_{BA}(t).\,}

Quan A {\displaystyle A} no és singular, aquest resultat es desprèn del fet que A B {\displaystyle AB} i B A {\displaystyle BA} són semblants:

B A = A 1 ( A B ) A . {\displaystyle BA=A^{-1}(AB)A.}

Per al cas en què totes dues matrius ( A {\displaystyle A} i B {\displaystyle B} ) siguin singulars, la identitat desitjada és una igualtat entre polinomis en t {\displaystyle t} i els coeficients de les matrius. Així, per demostrar aquesta igualtat, n'hi ha prou amb demostrar que es verifica en un subconjunt obert no buit (per a la topologia habitual, o, més generalment, per a la topologia de Zariski) de l'espai de tots els coeficients. Com que les matrius no singulars formen un subconjunt tan obert de l'espai de totes les matrius, això demostra el resultat.

Més en general, si A {\displaystyle A} és una matriu d'ordre m × n {\displaystyle m\times n} i B {\displaystyle B} és una matriu d'ordre n × m , {\displaystyle n\times m,} llavors A B {\displaystyle AB} és una matriu m × m {\displaystyle m\times m} i B A {\displaystyle BA} és una matriu n × n {\displaystyle n\times n} , i s'obté

p B A ( t ) = t n m p A B ( t ) . {\displaystyle p_{BA}(t)=t^{n-m}p_{AB}(t).\,}

Per demostrar-ho, es pot suposar n > m , {\displaystyle n>m,} intercanviant, si cal, A {\displaystyle A} i B . {\displaystyle B.} Llavors, per vorejar A {\displaystyle A} a la part inferior per n m {\displaystyle n-m} files de zeros, i B {\displaystyle B} a la dreta, per, n m {\displaystyle n-m} columnes de zeros, s'obté dues matrius ( A {\displaystyle A^{\prime }} i B {\displaystyle B^{\prime }} ) de n × n {\displaystyle n\times n} de tal manera que B A = B A {\displaystyle B^{\prime }A^{\prime }=BA} i A B {\displaystyle A^{\prime }B^{\prime }} és igual a A B {\displaystyle AB} vorejada per n m {\displaystyle n-m} files i columnes de zeros. El resultat es desprèn del cas de les matrius quadrades, comparant els polinomis característics d' A B {\displaystyle A^{\prime }B^{\prime }} i A B . {\displaystyle AB.}

Polinomi característic d'Ak

Si λ {\displaystyle \lambda } és un valor propi d'una matriu quadrada A {\displaystyle A} amb vector propi v , {\displaystyle \mathbf {v} ,} l aleshores λ k {\displaystyle \lambda ^{k}} és un valor propi d' A k {\displaystyle A^{k}} perquè

A k v = A k 1 A v = λ A k 1 v = = λ k v . {\displaystyle A^{k}{\textbf {v}}=A^{k-1}A{\textbf {v}}=\lambda A^{k-1}{\textbf {v}}=\dots =\lambda ^{k}{\textbf {v}}.}

També es pot demostrar que les multiplicitats coincideixen, i això es generalitza a qualsevol polinomi en lloc de x k {\displaystyle x^{k}} :[7]

Sigui A {\displaystyle A} una matriu quadrada n × n {\displaystyle n\times n} i fem que f ( t ) {\displaystyle f(t)} sigui un polinomi. Si el polinomi característic d' A {\displaystyle A} es pot factoritzar

p A ( t ) = ( t λ 1 ) ( t λ 2 ) ( t λ n ) {\displaystyle p_{A}(t)=(t-\lambda _{1})(t-\lambda _{2})\cdots (t-\lambda _{n})}
llavors el polinomi característic de la matriu f ( A ) {\displaystyle f(A)} ve donat per
p f ( A ) ( t ) = ( t f ( λ 1 ) ) ( t f ( λ 2 ) ) ( t f ( λ n ) ) . {\displaystyle p_{f(A)}(t)=(t-f(\lambda _{1}))(t-f(\lambda _{2}))\cdots (t-f(\lambda _{n})).}

És a dir, la multiplicitat algebraica de λ {\displaystyle \lambda } en f ( A ) {\displaystyle f(A)} és igual a la suma de les multiplicitats algebraiques de λ {\displaystyle \lambda '} en A {\displaystyle A} sobre λ {\displaystyle \lambda '} de tal manera que f ( λ ) = λ . {\displaystyle f(\lambda ')=\lambda .}

En particular, tr ( f ( A ) ) = i = 1 n f ( λ i ) {\displaystyle \operatorname {tr} (f(A))=\textstyle \sum _{i=1}^{n}f(\lambda _{i})} i det ( f ( A ) ) = i = 1 n f ( λ i ) . {\displaystyle \operatorname {det} (f(A))=\textstyle \prod _{i=1}^{n}f(\lambda _{i}).}

Aquest polinomi f ( t ) = t 3 + 1 , {\displaystyle f(t)=t^{3}+1,} per exemple, s'avalua en una matriu A {\displaystyle A} senzillament com f ( A ) = A 3 + 1. {\displaystyle f(A)=A^{3}+1.}

El teorema s'aplica a matrius i polinomis sobre qualsevol cos o anell commutatiu.[8] Tanmateix, la suposició que p A ( t ) {\displaystyle p_{A}(t)}  té una factorització en factors lineals no sempre és certa, tret que la matriu estigui sobre un cos algebraicament tancat com els nombres complexos.

Aquesta demostració només s'aplica a matrius i polinomis sobre nombres complexos (o qualsevol cos tancat algebraicament).

En aquest cas, el polinomi característic de qualsevol matriu quadrada sempre es pot factoritzar com a

p A ( t ) = ( t λ 1 ) ( t λ 2 ) ( t λ n ) {\displaystyle p_{A}(t)=\left(t-\lambda _{1}\right)\left(t-\lambda _{2}\right)\cdots \left(t-\lambda _{n}\right)}
on λ 1 , λ 2 , , λ n {\displaystyle \lambda _{1},\lambda _{2},\ldots ,\lambda _{n}} són els valors propis d' A , {\displaystyle A,} possiblement repetida. A més, el teorema de descomposició de Jordan garanteix que qualsevol matriu quadrada A {\displaystyle A} es pugui descompondre com A = S 1 U S , {\displaystyle A=S^{-1}US,} on S {\displaystyle S} és una matriu invertible U {\displaystyle U} és triangular superior amb λ 1 , , λ n {\displaystyle \lambda _{1},\ldots ,\lambda _{n}} a la diagonal (amb cada valor propi repetit segons la seva multiplicitat algebraica). (La forma normal de Jordan té propietats més fortes, però aquestes són suficients; alternativament es pot utilitzar la descomposició de Schur, que és menys popular però una mica més fàcil de demostrar).

Sigui f ( t ) = i α i t i . {\textstyle f(t)=\sum _{i}\alpha _{i}t^{i}.}

llavors

f ( A ) = α i ( S 1 U S ) i = α i S 1 U S S 1 U S S 1 U S = α i S 1 U i S = S 1 ( α i U i ) S = S 1 f ( U ) S . {\displaystyle f(A)=\textstyle \sum \alpha _{i}(S^{-1}US)^{i}=\textstyle \sum \alpha _{i}S^{-1}USS^{-1}US\cdots S^{-1}US=\textstyle \sum \alpha _{i}S^{-1}U^{i}S=S^{-1}(\textstyle \sum \alpha _{i}U^{i})S=S^{-1}f(U)S.}
Per a una matriu triangular superior U {\displaystyle U} amb diagonal λ 1 , , λ n , {\displaystyle \lambda _{1},\dots ,\lambda _{n},} la matriu U i {\displaystyle U^{i}} és triangular superior amb diagonal λ 1 i , , λ n i {\displaystyle \lambda _{1}^{i},\dots ,\lambda _{n}^{i}} en U i , {\displaystyle U^{i},} i per tant f ( U ) {\displaystyle f(U)} és triangular superior amb diagonal f ( λ 1 ) , , f ( λ n ) . {\displaystyle f\left(\lambda _{1}\right),\dots ,f\left(\lambda _{n}\right).} Per tant, els valors propis de f ( U ) {\displaystyle f(U)} són f ( λ 1 ) , , f ( λ n ) . {\displaystyle f(\lambda _{1}),\dots ,f(\lambda _{n}).} A partir de f ( A ) = S 1 f ( U ) S {\displaystyle f(A)=S^{-1}f(U)S} és semblant a f ( U ) , {\displaystyle f(U),} té els mateixos valors propis, amb les mateixes multiplicitats algebraiques.

Funció secular i equació secular

Funció secular

El terme funció secular s'ha utilitzat per al que ara s'anomena polinomi característic (en alguna literatura encara s'utilitza el terme funció secular). El terme prové del fet que el polinomi característic s'utilitzava per calcular les pertorbacions seculars (a una escala de temps d'un segle, és a dir, lent en comparació amb el moviment anual) de les òrbites planetàries, segons la teoria de les oscil·lacions de Lagrange.

Equació secular

L'equació secular pot tenir diversos significats.

  • En àlgebra lineal de vegades s'utilitza en lloc de l'equació característica.
  • En astronomia és l'expressió algebraica o numèrica de la magnitud de les desigualtats en el moviment d'un planeta que romanen després que s'hagin permès les desigualtats d'un període curt.[9]
  • En els càlculs d'orbitals moleculars relacionats amb l'energia de l'electró i la seva funció d'ona també s'utilitza en lloc de l'equació característica.

Per a àlgebres associatives generals

La definició anterior del polinomi característic d'una matriu A M n ( F ) {\displaystyle A\in M_{n}(F)} amb entrades en un cos F {\displaystyle F} generalitza sense cap canvi en el cas quan F {\displaystyle F} és només un anell commutatiu[10] defineix el polinomi característic per als elements d'una àlgebra arbitrària de dimensions finites (associativa, però no necessàriament commutativa) sobre un cos F {\displaystyle F} i demostra les propietats estàndard del polinomi característic en aquesta generalitat.

Referències

  1. Guillemin, 1953, p. 366, 541.
  2. Forsythe i Motzkin, 1952, p. 18-34.
  3. Frank, 1946, p. 144-157.
  4. «Characteristic Polynomial of a Graph» (en anglès). Wolfram MathWorld.
  5. Roman, 1992, p. 137.
  6. «Characteristic polynomials. Test for diagonalizability. Inner products. Inner products and length» (PDF) (en anglès) p. Teorema 4.
  7. Horn i Johnson, 2013, p. 108-109, secció 2.4.2.
  8. Lang, 1993, p. 567, Teorema 3.10.
  9. «secular equation» (en anglès).
  10. Garibaldi, 2004.

BIbliografia

  • Blyth, T. S.; Robertson, E. F.. Basic Linear Algebra (en anglès). Springer, 1998. 
  • Castellet, Manuel; Llerena, Irene. «VIII». A: Álgebra Lineal y geometría (en castellà). Reverté, 1991. ISBN 8429150099. 
  • Forsythe, George E.; Motzkin, Theodore «An Extension of Gauss' Transformation for Improving the Condition of Systems of Linear Equations» (PDF) (en anglès). American Mathematical Society – Mathematics of Computation, 6(37), gener 1952. DOI: 10.1090/S0025-5718-1952-0048162-0.
  • Fraleigh, John B.; Beauregard, Raymond A. Linear Algebra (en anglès). Addison-Wesley, 1990. 
  • Frank, Evelyn «On the zeros of polynomials with complex coefficients» (en anglès). Bulletin of the American Mathematical Society, 52(2), 1946. DOI: 10.1090/S0002-9904-1946-08526-2.
  • Garibaldi, Skip «The characteristic polynomial and determinant are not ad hoc constructions» (en anglès). American Mathematical Monthly, 111(9), 2004, pàg. 761-778. arXiv: math/0203276. DOI: 10.2307/4145188. JSTOR: 4145188.
  • Greub, Werner. Linear Algebra (en anglès). Springer, 1974, p. 120-125. 
  • Guillemin, Ernst. Introductory Circuit Theory (en anglès). Wiley, 1953. 
  • Horn, Roger A.; Johnson, Charles R. Matrix Analysis (en anglès). Cambridge University Press, 2013. ISBN 978-0-521-54823-6. 
  • Lang, Serge. Algebra (en anglès). Nova York: Springer, 1993. ISBN 978-1-4613-0041-0. OCLC 852792828. 
  • Roman, Steven. Advanced linear algebra (en anglès). Springer, 1992. 
  • Shields, Paul C. Elementary Linear Algebra (en anglès). Worth Publishers, 1980. 
  • Strang, Gilbert. Linear Algebra and Its Applications (en anglès). Brooks/Cole, 1988. 

Vegeu també