Artículos

8.6: El problema de valores propios - Ejercicios - Matemáticas


Ejercicio ( PageIndex {1} )

Argumenta como en la Proposición 1 en la discusión de la expansión de fracción parcial de la función de transferencia que si (j ne k ) entonces (D_ {j} P_ {k} = P_ {j} D_ {k} = 0 ).

Ejercicio ( PageIndex {2} )

Argumente a partir de la ecuación de la discusión de la Representación espectral que (D_ {j} P_ {j} = P_ {j} D_ {j} = D_ {j} ).

Ejercicio ( PageIndex {3} )

Los dos ejercicios anteriores son muy útiles para calcular las potencias de las matrices. Por ejemplo, suponga que (B ) es 4 por 4, que (h = 2 ) y (m_ {1} = m_ {2} = 2 ). Usa la representación espectral de (B ) junto con los dos primeros ejercicios para llegar a fórmulas simples para (B ^ {2} ) y (B ^ {3} ).

Calcule la representación espectral de la matriz circulante

[B = begin {pmatrix} {2} & {8} & {6} & {4} {4} & {2} & {8} & {6} {6} & {4} & {2} & {8} {8} & {6} & {4} & {2} end {pmatrix} nonumber ]

Etiquete cuidadosamente todos los autovalores, autoproyecciones y autovectores.


Otros títulos en matemáticas aplicadas

Información del título

Este libro presenta la primera discusión teórica en profundidad, completa y unificada de las dos clases de algoritmos más importantes para resolver problemas de valores propios matriciales: algoritmos similares a QR para problemas densos y métodos del subespacio de Krylov para problemas dispersos. El autor analiza la teoría del algoritmo GR genérico, incluidos casos especiales (por ejemplo, QR, SR, HR) y el desarrollo de métodos subespaciales de Krylov. También se abordan un proceso de Krylov genérico y los algoritmos de Arnoldi y varios Lanczos, que se obtienen como casos especiales. El capítulo sobre problemas de valores propios del producto proporciona una mayor unificación, mostrando que el problema del valor propio generalizado, el problema de la descomposición del valor singular y otros problemas de valores propios del producto pueden considerarse todos como problemas de valores propios estándar.

El autor proporciona ejercicios teóricos y computacionales en los que se guía al alumno, paso a paso, hacia los resultados. Algunos de los ejercicios se refieren a una colección de programas MATLAB® compilados por el autor que están disponibles en un sitio web que complementa el libro.

Los problemas de valores propios son omnipresentes en la ingeniería y la ciencia. Este libro presenta un desarrollo teórico unificado de las dos clases de algoritmos más importantes para resolver problemas de valores propios de matrices: Q R-como algoritmos para problemas densos y métodos subespaciales de Krylov para problemas dispersos. No pretendo que esté completo. Mi elección de temas refleja mis propios intereses, el deseo de mantener la extensión del libro dentro de lo razonable y el deseo de completar el libro dentro de mi vida.

Se espera que los lectores de este libro estén familiarizados con las ideas básicas del álgebra lineal y que hayan tenido algo de experiencia con cálculos matriciales. El estudiante que ha absorbido una buena parte de mi libro. Fundamentos de los cálculos matriciales [221] y desarrollado un poco de madurez matemática estará en una buena posición para apreciar este libro. Se espera que el lector ya conozca la importancia de los cálculos de valores propios.

Los capítulos 1 y 2 contienen material de referencia y no deben leerse linealmente. Le sugiero que comience con el Capítulo 3 y vuelva a consultar los capítulos anteriores según sea necesario. Los capítulos 3, 4, 8 y 9 forman el corazón del libro. Quizás debería incluir el Capítulo 6 sobre el problema de los valores propios generalizados en esta lista también. Lea el Capítulo 5 solo si está interesado en los detalles de la teoría de la convergencia. Lea el Capítulo 7 si tiene ganas de averiguar qué está pasando dentro del bulto.


Ejercicios: autovalores y autovectores (problemas seleccionados)

Problema 9.1
Describe geométricamente la transformación lineal (T_A: mathbb^ 2 flecha derecha mathbb^ 2 ) dado por [A = begin 0 y 1 1 y 0 end] y luego interpretar los significados de los autovalores y autovectores en consecuencia.

Solución. (T_A ) es una reflexión sobre la línea (y = x. ) Por tanto, (v ) es un vector propio de (T_A ) si y solo si (v ) es paralelo u ortogonal al la línea (y = x. ) (T_A ) no cambia la longitud de un vector, por lo tanto, el valor propio es (1 ) o (- 1. )

Problema 9.2
Encuentre uno o más pares de autovalores / autovectores que no sean exponenciales de la forma (Ce ^ < lambda x> ) para el segundo operador derivado (D ^ 2: C ^ < infty> ( mathbb) flecha derecha C ^ < infty> ( mathbb).)

Solución. Considere las funciones (y = sin kx, ) (y = cos kx, ) (y = sin kx + cos kx ) para (k ne 0. ) El valor propio correspondiente a estas funciones son (- k ^ 2. )

Solución. Si (y = Ce ^ < lambda x>, ) entonces (y '= lambda C e ^ < lambda x> ) y (y' '= lambda ^ 2 Ce ^ < lambda x >. ) Por tanto, todo número real no negativo (p ) es un valor propio de (D ^ 2. ) Los vectores propios correspondientes a (p ) son (y = Ce ^ < pm sqrt

x>. ) Si (p = 0, ) entonces el autovector correspondiente a este autovalor es único si (p> 0, ) entonces hay exactamente dos autovectores correspondientes a este autovalor.

Problema 9.3
Demuestre que si (T: V rightarrow V ) es una transformación lineal que no es inyectiva, entonces (0 ) es un valor propio de (T. )

Solución. Dado que (T ) no es uno a uno, ( operatorname(T) ne left < mathbf <0> right >, ) es decir, hay un vector (v in operatorname(T). ) Para este vector (v, ) tenemos (T (v) = mathbf <0> = 0v. ) Por tanto, (0 ) es un valor propio.

Problema 9.4
Encuentre el polinomio característico, los valores propios y los vectores propios correspondientes para la matriz [A = begin 1 y 2 0 y 4 end.]

Solución. [comenzar tI - A & = left [ begin t-1 y -2 0 y t-4 end right], [5pt] p_A (t) & = det (tI-A) = (t-1) (t-4). end] La ecuación (p_A (t) = 0 ) tiene dos soluciones (t = 1 ) y (t = 4. )

Denote dos valores propios ( lambda_1 = 1 ) y ( lambda_2 = 4. ) Los vectores propios correspondientes a estos valores propios son (v_1 = (1, , 0) ) y (v_2 = (2, , 3), ) respectivamente.

Problema 9.5
¿Para qué valores reales de (a ) la matriz [A = left ( begin 2 & a -1 & 1 end right) ] tienen valores propios reales? Expresa tu respuesta como una desigualdad.

Solución. El polinomio característico de (A ) es [p_A (t) = det left [ begin t-2 y -a 1 & t-1 end right] = t ^ 2 - 3t + 2 + a. ] Dado que (t ^ 2 - 3t + 2 + a = 0 ) se cumple para algún número real (t, ) el discriminante tiene que ser no negativo, es decir, [D = 9 - 4 (2 + a) ge 0. ] Por lo tanto, [a le frac <1> <4>. ]

Problema 9.6
Calcule el polinomio característico y los valores propios de la matriz [A = begin 1 y 0 y 0 0 y 4 y 2 0 y 2 y 1 end.]

Solución. Es sencillo. [p_A (t) = det left [ begin t-1 & 0 & 0 - & t-4 & -2 0 & -2 & t-1 end right] = t (t-1) (t-5). ] Por tanto, los valores propios son [ lambda_1 = 0, , , lambda_2 = 1, , , lambda_3 = 5. ] El los vectores propios correspondientes a estos valores propios son [v_1 = left [ begin 0 1 -2 end right], , , v_2 = left [ begin 1 0 0 end right], , , v_3 = left [ begin 0 2 1 endderecho] . ]

Problema 9.7
Muestre que la siguiente matriz no tiene valores propios reales. Interprete esto geométricamente. [A = left ( begin 0 y 1 -1 y 0 endderecho).]

Solución. [A = left [ begin cos frac <3> <2> pi & - sin frac <3> <2> pi sin frac <3> <2> pi & cos frac <3> <2 > pi end right]. ] Por lo tanto, (A ) representa una rotación por (- 90 ^ circ. ) Ningún vector (v ) que no sea el vector cero satisface (T (v) = lambda v ) para algunos escalares ( lambda. )

Problema 9.8
Sea (A in M_n ( mathbb) ) donde (n ) es impar. Demuestre que (A ) tiene al menos un valor propio real.

Solución. Dado que [p_A (t) = det (tI-A), ] (p_A (t) ) es un polinomio de grado (n, ) y el coeficiente de (t ^ n ) es (1. ) Por lo tanto [ lim_ p_A (t) = infty , , text, , lim_ p_A (t) = - infty. ] Según las definiciones de límites, [p_A (t_0) 0 ] para algunos (t_0 ) y (t_1 ). Además (t_0 ne t_1. ) Dado que (p_A (t) ) es una función continua, por el teorema del valor intermedio, (p_A ( lambda) = 0 ) para algunos ( lambda ) entre (t_0 ) y (t_1. ) ( lambda ) es un valor propio real de (A. )

Problema 9.9
Para cualquier (A in M_n ( mathbb), ) muestran que el número de raíces imaginarias del polinomio característico es par. Esto proporciona un enfoque alternativo al problema anterior.

Solución. Sea (p_A (t) ) el polinomio característico de (A. ) If ( lambda = a + bi, ) (a in mathbb, ) (b in mathbb^ times ) y (p_A ( lambda) = 0, ) luego ( overline < lambda> ne lambda ) y (p_A ( overline < lambda>) = 0. ) Tenga en cuenta que si (A ) fuera una matriz compleja, entonces no podríamos derivar este resultado.

Problema 9.10
Sea ( lambda in K ) un valor propio de (A in M_n (K). ) Demuestre que ( lambda ^ r ) es un valor propio de (A ^ r, ) el (r ) la potencia de (A, ) (r ge 0. )

Solución. Introducimos dos soluciones.

Primero, esta es la solución de YC Lee: Sea (v ) un vector propio correspondiente a ( lambda. ) Entonces [A ^ r v = A ^ ( lambda v) = A ^ ( lambda ^ 2 v) = cdots = lambda ^ r v. ] Por tanto, ( lambda ^ r ) es un valor propio de (A ^ r. )

A continuación, esta es la solución de I Seul Bee: Considere [ lambda ^ r I - A ^ r = ( lambda I-A) ( lambda ^ I + lambda ^ A + lambda ^ A ^ 2 + cdots + A ^ ). ] Por lo tanto [p_ ( lambda ^ r) = det ( lambda IA) det ( ast) = 0 times det ( ast) = 0. ] Por lo tanto, ( lambda ^ r ) es un valor propio de ( A ^ r. )

Problema 9.11
Sea (A in M_n (K) ) tal que (A ^ r ) es la matriz cero para alguna (r ge 1. ) (En este caso, (A ^ r ) representa (A ) elevado a la potencia (r. )) Demuestre que todos los valores propios de (A text <'s> ) son (0. )

Solución. Si ( lambda ne 0 ) y ( lambda ) es un valor propio de (A, ) entonces ( lambda ^ r ) es un valor propio de (A ^ r. ) Pero el El valor propio de (O, ) la matriz cero, es solo (0. ) Por lo tanto, ( lambda ) debe ser cero.

Problema 9.12
Demuestre que los valores propios de una matriz triangular son precisamente las entradas diagonales.

Solución. Sea (A = (a_)_) ser una matriz triangular superior. Entonces un_ = 0 ) para (i> j. ) Dado que (tI-A ) también es una matriz triangular superior, el polinomio característico de (A ) es [p_A (t) = det (tI- A) = prod_^ n (t-a_). ] Por lo tanto, los valores propios de (A ) son exactamente (a_ <11>, ) (a_ <22>, ) ( cdots, ) (a_, ) las entradas diagonales de (A. )

Problema 9.13
Encuentre un ejemplo de una matriz (2 times 2 ) real (A ) que no sea diagonalizable como un endomorfismo de ( mathbb^ 2, ) pero es diagonalizable como un endomorfismo de ( mathbb^2.)

Solución. Tome [A = left [ begin 1 y 1 -1 y 1 end right]. ] Entonces el polinomio característico de (A ) es [p_A (t) = (t-1) ^ 2 +1. ] (p_A (t) ) no puede asumir cero a menos que ( t ) es un número imaginario.

Problema 9.14
Encuentre todos los valores propios de la matriz [A = left ( begin 0 y 2 -2 y 4 endderecho).]

Solución. Dado que (p_A (t) = (t-2) ^ 2, ) el valor propio de (A ) es solo (2. )

Problema 9.15
Demuestre que la matriz del problema anterior no es diagonalizable ni sobre el campo real ni sobre el complejo.

Solución. Dado que (v = (1, , 1) ) es el único vector propio de (A, ), el vector propio de (A ) no constituye una base propia. Por tanto, (A ) no es diagonalizable.

Problema 9.16
Encuentra los valores propios de la matriz [A = begin 2 y 1 0 y 5 end.]

Solución. Dado que (p_A (t) = (t-2) (t-5), ) los autovalores son ( lambda_1 = 2 ) y ( lambda_2 = 5, ) y los autovectores correspondientes a estos autovalores son (v_1 = (1, , 0) ) y (v_2 = (1, , 3). )

Problema 9.17
Para la matriz (A ) del problema anterior, encuentre una matriz invertible (P ) tal que (P ^ <-1> AP ) sea una matriz diagonal.

Solución. [ left [ begin 2 y 0 0 y 5 end right] = left [ begin 1 y 1 0 y 3 end right] ^ <-1> left [ begin 2 y 1 0 y 5 end right] left [ begin 1 y 1 0 y 3 endderecho]. ]

Problema 9.18
Deje que una secuencia ( left ) se defina recursivamente por [a_0 = 1, , , a_1 = 1 , , text,, a_ = 5a_ - 6a_n , , texto, , n ge 0. ] Encuentra la fórmula explícita para el término general (a_n. )

Solución. La fórmula recursiva se puede expresar como [ left [ begin a_n a_ fin right] = left [ begin 5 y -6 1 y 0 end right] left [ begin a_ a_ fin right]. ] Por lo tanto [ left [ begin a_n a_ fin right] = left [ begin 5 y -6 1 y 0 end right] ^ left [ begin 1 1 end right]. ] Tome [A = left [ begin 5 y -6 1 y 0 end right]. ] Los autovalores de (A ) son ( lambda_1 = 2 ) y ( lambda_2 = 3, ) y los autovectores correspondientes a estos autovalores son [v_1 = left [ begin 2 1 end right] , , text, , v_2 = left [ begin 3 1 end right]. ] La diagonalización de (A ) es [ left [ begin 5 y -6 1 y 0 end right] = left [ begin 2 y 3 1 y 1 end right] left [ begin 2 y 0 0 y 3 end right] left [ begin 2 y 3 1 y 1 end right] ^ <-1>. ] Por lo tanto, tenemos [ left [ begin a_n a_ fin right] = left [ begin 2 y 3 1 y 1 end right] left [ begin 2^ & 0 \ 0 & 3^ fin right] left [ begin 2 y 3 1 y 1 end right] ^ <-1> left [ begin 1 1 endderecho]. ] Una evaluación nos da la fórmula [a_n = 2 ^ - 3^] para (n ge 0. )

Problema 9.19
Encuentra nuevas coordenadas (x ', ) (y' ) para que las siguientes formas cuadráticas se puedan escribir como ( lambda_1 (x ') ^ 2 + lambda_2 (y') ^ 2. ) Expresa la siguientes formularios en la forma ( lambda_1 (x ') ^ 2 + lambda_2 (y') ^ 2. )
(1) (x ^ 2 + 4xy + y ^ 2 )
(2) (2x ^ 2 + 2xy + 2y ^ 2 )
(3) (x ^ 2 -12xy -4y ^ 2 )
(4) (3x ^ 2 + 2xy + 3y ^ 2 )
(5) (x ^ 2 - 2xy + y ^ 2 )

Solución. (1) La forma (x ^ 2 + 4xy + y ^ 2 ) se puede expresar como [ left [ begin x & y end right] left [ begin 1 y 2 2 y 1 end right] left [ begin x y end right] =: left [ begin x & y end right] A left [ begin x y end right]. ] Los autovalores de (A ) son [ lambda_1 = 3, , , lambda_2 = -1 ] y los autovectores correspondientes son [ left [ begin 1 1 end right], , , left [ begin -1 1 endderecho]. ] Normalizando estos autovectores, tenemos una autobasis ortonormal: [ left [ begin frac <1> < sqrt <2>> frac <1> < sqrt <2>> end right], , , left [ begin - frac <1> < sqrt <2>> frac <1> < sqrt <2>> endderecho]. ] Por tanto, la nueva coordenada es [ left [ begin x y end right] = left [ begin frac <1> < sqrt <2>> & - frac <1> < sqrt <2>> frac <1> < sqrt <2>> & frac <1> < sqrt < 2 >> end right] left [ begin x ' y' end right]. ] Como consecuencia, tenemos [x ^ 2 + 4xy + y ^ 2 = 3 (x ') ^ 2 - (y') ^ 2. ]

(2) La forma (2x ^ 2 + 2xy + 2y ^ 2 ) se puede expresar como [ left [ begin x & y end right] left [ begin 2 y 1 1 y 2 end right] left [ begin x y end right] =: left [ begin x & y end right] A left [ begin x y end right]. ] Los valores propios de (A ) son [ lambda_1 = 3, , , lambda_2 = 1 ] y los vectores propios correspondientes son [ left [ begin 1 1 end right], , , left [ begin -1 1 endderecho]. ] Normalizando estos autovectores, tenemos una autobasis ortonormal: [ left [ begin frac <1> < sqrt <2>> frac <1> < sqrt <2>> end right], , , left [ begin - frac <1> < sqrt <2>> frac <1> < sqrt <2>> endderecho]. ] Por tanto, la nueva coordenada es [ left [ begin x y end right] = left [ begin frac <1> < sqrt <2>> & - frac <1> < sqrt <2>> frac <1> < sqrt <2>> & frac <1> < sqrt < 2 >> end right] left [ begin x ' y' end right]. ] Como consecuencia, tenemos [2x ^ 2 + 2xy + 2y ^ 2 = 3 (x ') ^ 2 + (y') ^ 2. ]

(3) La nueva coordenada es [ left [ begin x y end right] = left [ begin - frac <3> < sqrt <13>> & frac <2> < sqrt <13>> frac <2> < sqrt <13>> & frac <3> < sqrt < 13 >> end right] left [ begin x ' y' end right]. ] Como consecuencia, tenemos [x ^ 2 - 12xy - 4y ^ 2 = 5 (x ') ^ 2 - 8 (y') ^ 2. ]

(4) La nueva coordenada es [ left [ begin x y end right] = left [ begin frac <1> < sqrt <2>> & - frac <1> < sqrt <2>> frac <1> < sqrt <2>> & frac <1> < sqrt < 2 >> end right] left [ begin x ' y' end right]. ] Como consecuencia, tenemos [3x ^ 2 + 2xy + 3y ^ 2 = 4 (x ') ^ 2 +2 (y') ^ 2. ]

(5) La nueva coordenada es [ left [ begin x y end right] = left [ begin - frac <1> < sqrt <2>> & frac <1> < sqrt <2>> frac <1> < sqrt <2>> & frac <1> < sqrt < 2 >> end right] left [ begin x ' y' end right]. ] Como consecuencia, tenemos [x ^ 2 - 2xy + y ^ 2 = 2 (x ') ^ 2. ]


La solución de ecuaciones algebraicas simultáneas con más de dos incógnitas

14.6 Autovalores y autovectores de matrices

Un caso en el que surge un conjunto de ecuaciones lineales homogéneas es el problema de valores propios de la matriz . Este problema es muy similar a una ecuación de valor propio para un operador, como en la Ec. (13,1). El problema es encontrar un vector columna, X y un solo escalar valor propio b, tal que

donde B es la matriz cuadrada para la que queremos encontrar un vector propio y X es el vector propio (un vector de columna). Dado que el lado derecho de la Ec. (14.22) es lo mismo que BEX donde mi es la matriz identidad, podemos reescribir la Ec. (14.22) como

que representa un conjunto de ecuaciones lineales homogéneas. Las ecuaciones deben ser linealmente dependientes para tener una solución.

Ejemplo 14.6

Encuentra los valores de B y X que satisfacen la ecuación de valor propio

La ecuación de valor propio es equivalente a

Ahora buscamos el segundo vector propio, para el cual y = 2, o b = 1 - 2. La sustitución de esto en las ecuaciones simultáneas da

Ejercicio 14.9

Muestre que el segundo vector propio del ejemplo anterior es un vector propio.

Ejercicio 14.10

Encuentre el tercer vector propio del ejemplo anterior.

En varios métodos de química cuántica, las funciones orbitales se representan como combinaciones lineales de funciones básicas. Surge un conjunto de ecuaciones simultáneas lineales homogéneas que debe resolverse para los coeficientes en las combinaciones lineales. La condición determinante se llama ecuación secular, y el valor propio representa la energía orbital. La teoría aproximada más simple que utiliza esta representación para orbitales moleculares es el método de Hückel, 1 que se denomina método semi-empírico porque se basa en datos experimentales para evaluar ciertas integrales que ocurren en la teoría. Se supone que algunas otras integrales desaparecen.

Ejemplo 14.7

Obtenga expresiones para las energías orbitales para el radical alilo CH 2 CHCH 2 en la aproximación de Hückel.

Ejercicio 14.11

La ecuación secular de Hückel para la molécula de hidrógeno es


Introducción y repaso

M8 / 26: Introducción a la clase

W8 / 28: Funciones elementales (39 min, ejercicios): logaritmos, exponenciales, trigonométricas

M9 / 2: ¡Feliz Día del Trabajo!

Serie de Taylor F9 / 6 (29 min, ejercicios) [ Greenberg págs. 629-636 ]

(ver ejemplo de secuencia de comandos de Matlab para obtener sugerencias sobre PS2)

Además, revise las coordenadas cilíndricas y esféricas (por ejemplo, páginas de Simmons)

Ecuaciones diferenciales ordinarias (EDO)

• M9 / 16 EDO lineales de primer orden: [Ch2.2 págs. 18-31 ]

• F9 / 20 EDO lineales de primer orden: Aplicaciones [ Ch2.3 págs. 33-43 ]

• Decaimiento radioactivo (11 min) Ejercicios de video de PS3 y amp que vencen el 20 de septiembre

• F9 / 27 Métodos numéricos [§ 6.1 y amp 6.2 ]

• W10 / 2 Sin video: permite trabajar en los códigos de su computadora en clase.

• F10 / 4 EDO de orden superior [ § 3.1-3.2 ]

• M10 / 7 Parte 1 de mitad de período sobre material para las series de problemas 1-4 (problemas de estudio de mitad de período 1 y objetivos de aprendizaje de amplificación)

• EDO de orden superior W10 / 9 [ § 3.3 ]

• Oscilador armónico F 10/11, oscilación libre

Matrices y álgebra lineal

• M10 / 21 Sistema de ecuaciones lineales [ Ch. 8 ]

No hay clase: *** Por favor, sea voluntario para la jornada de puertas abiertas de SOEST PS8 y ejercicios previstos el 25 de octubre


Ejercicio 1.8.6 - Topología diferencial (Guillemin y Pollack)

1.8.6 - A campo vectorial $ vec$ en un colector $ X $ en $ mathbb^ N $ es un mapa fluido $ vec: X a mathbb^ N $ tal que $ vec(x) $ siempre es tangente a X en x. Verifique que la siguiente definición (que no menciona explícitamente el ambiente $ mathbb^ N $) es equivalente: un campo vectorial $ vec$ en X es un sección transversal de T (X) - es decir, una matemática fluida $ vec: X a T (X) $ tal que $ p circ vec$ es igual al mapa de identidad de $ X $.

(1) $ T (X) $ es el paquete tangente de una variedad $ X $ en $ mathbb^ N $. Los espacios tangentes a $ X $ en varios puntos son subespacios vectoriales de $ mathbb^ N $ que generalmente se superpondrán entre sí. El paquete tangente T (X) es un artificio utilizado para separarlos. Específicamente, $ T (X) $ es un artificio utilizado para separarlos. Específicamente, T (X) es el subconjunto de $ X times mathbb^ N $ definido por $ T (X) = <(x, v) in X times mathbb^ N: v en T_x (X), $ donde $ T_x (X) $ son los espacios tangentes en $ x $ en $ X $.

(2) $ p $ es simplemente el mapa de proyección $ p: T (X) a X $, $ p (x, v) = x $ es una inmersión.

No puedo establecer un vínculo riguroso entre las dos definiciones. Sé que simplemente utilizo las definiciones, pero ¿explicar formalmente cómo es la transición de una a otra?


Ejercicios 8.6

En los siguientes problemas, calcule las aproximaciones de trapezoide y Simpson usando 4 subintervalos y calcule la estimación del error para cada uno. (Encontrar los valores máximos de las derivadas segunda y cuarta puede ser un desafío para algunas de ellas, puede usar una calculadora gráfica o un software de computadora para estimar los valores máximos). Si tiene acceso a Sage o software similar, aproxime cada integral a dos decimales. lugares. Puede usar esta hoja de trabajo de Sage para comenzar.


8.6: El problema de valores propios - Ejercicios - Matemáticas

¡Hoy, 30 de noviembre, es el día de AMS! Únase a nuestra celebración de los miembros de AMS y explore ofertas especiales en publicaciones de AMS, membresía y más. Las ofertas terminan a las 11:59 pm EST.

ISSN 1088-6842 (en línea) ISSN 0025-5718 (impreso)

Una teoría geométrica para la iteración inversa preacondicionada aplicada a un subespacio


Autor: Klaus Neymeyr
Diario: Matemáticas. Comp. 71 (2002), 197-216
MSC (2000): Primario 65N30, 65N25 Secundario 65F10, 65F15
DOI: https://doi.org/10.1090/S0025-5718-01-01357-6
Publicado electrónicamente: 17 de septiembre de 2001
Revisión de MathSciNet: 1862995
Acceso gratuito a PDF de texto completo

Resumen: El objetivo de este artículo es proporcionar un análisis de convergencia para una iteración subespacial preacondicionada, que se designa para determinar un número modesto de los valores propios más pequeños y su correspondiente subespacio invariante de vectores propios de una matriz definida positiva simétrica grande. El algoritmo se basa en una implementación subespacial de iteración inversa preacondicionada, es decir, el conocido procedimiento de iteración inversa, donde el sistema asociado de ecuaciones lineales se resuelve aproximadamente mediante el uso de un preacondicionador. Este paso es seguido por una proyección de Rayleigh-Ritz de modo que la iteración inversa preacondicionada siempre se aplique a los vectores Ritz del subespacio real de autovectores aproximados. La teoría dada proporciona estimaciones de convergencia precisas para los valores de Ritz y se basa principalmente en argumentos que explotan la geometría subyacente a la iteración inversa preacondicionada.

  • James H. Bramble, Joseph E. Pasciak y Andrew V. Knyazev, Un algoritmo de preacondicionamiento del subespacio para el cálculo de vectores propios / valores propios, Adv. Computación. Matemáticas. 6 (1996), núm. 2, 159–189 (1997). SEÑOR 1431791, DOI https://doi.org/10.1007/BF02127702
  • Françoise Chatelin, Autovalores de matrices, John Wiley & amp Sons, Ltd., Chichester, 1993. Con ejercicios de Mario Ahués y el autor. Traducido del francés y con material adicional de Walter Ledermann. SEÑOR 1232655
  • Ernest R. Davidson, El cálculo iterativo de algunos de los valores propios más bajos y los vectores propios correspondientes de matrices simétricas reales grandes, J. Comput. Phys. 17 (1975), 87–94. SEÑOR 381271, DOI https://doi.org/10.1016/0021-9991%2875%2990065-0
  • E. G. D′yakonov, Algunos métodos de iteración en problemas de valores propios, Mat. Zametki 34 (1983), núm. 6, 897–912 (ruso). SEÑOR 731332
  • Eugene G. D′yakonov, Optimización en la resolución de problemas elípticos., CRC Press, Boca Raton, FL, 1996. Traducido de la traducción original rusa de 1989 editada y con un prefacio de Steve McCormick. SEÑOR 1396083
  • E. G. D′yakonov y A. V. Knyazev, Un método de iteración grupal para encontrar los valores propios más bajos, Vestnik Moskov. Univ. Ser. XV Vychisl. Estera. Kibernet. 2 (1982), 29–34, 81 (ruso). SEÑOR 663544
  • E. G. D′yakonov y A. V. Knyazev, Sobre un método iterativo para encontrar valores propios más bajos, Ruso J. Numer. Anal. Matemáticas. Modelado 7 (1992), núm. 6, 473–486. SEÑOR 1202649, DOI https://doi.org/10.1515/rnam.1992.7.6.473
  • E. G. D′jakonov y M. Ju. Orehov, Minimización del trabajo computacional en la búsqueda de los primeros autovalores de operadores diferenciales, Mat. Zametki 27 (1980), no. 5, 795–812, 831 (ruso). SEÑOR 578262
  • S. K. Godunov, V. V. Ogneva y G. P. Prokopov, La convergencia del método de descenso más empinado modificado en el cálculo de valores propios, Ecuaciones diferenciales parciales (Proc. Sympos.) (Ruso), Izdat. “Nauka”, Moscú, 1970, págs. 77–80 (ruso). SEÑOR 0324886
  • Gene H. Golub y Charles F. Van Loan, Cálculos matriciales, 3ª ed., Johns Hopkins Studies in the Mathematical Sciences, Johns Hopkins University Press, Baltimore, MD, 1996. MR 1417720
  • I. Ipsen. Una historia de iteración inversa, volumen en Helmut Wielandt, Mathematische Werke, Mathematical Works, vol. 2: Álgebra lineal y análisis, páginas 464–472. Walter de Gruyter, Berlín, 1996.
  • Ilse C. F. Ipsen, Calcular un vector propio con iteración inversa, SIAM Rev. 39 (1997), núm. 2, 254-291. SEÑOR 1453320, DOI https://doi.org/10.1137/S0036144596300773
  • Andrew V. Knyazev, Eigensolvers preacondicionados: ¿un oxímoron?, Electron. Trans. Numer. Anal. 7 (1998), 104-123. Problemas de valores propios a gran escala (Argonne, IL, 1997). SEÑOR 1667642
  • K. Neymeyr. Estimación del error a posteriori para problemas propios elípticos. Sonderforschungsbereich 382, ​​Universität Tübingen, Informe 132, 1999.
  • K. Neymeyr. Una teoría geométrica para la iteración inversa preacondicionada. I: Extrema del cociente de Rayleigh. Aplicación de álgebra lineal 322 (1–3): 61–85, 2001.
  • K. Neymeyr. Una teoría geométrica para la iteración inversa preacondicionada. II: Estimaciones de convergencia. Aplicación de álgebra lineal 322 (1-3): 87-104, 2001.
  • Beresford N. Parlett, El problema del valor propio simétrico, Prentice-Hall, Inc., Englewood Cliffs, Nueva Jersey, 1980. Serie de Prentice-Hall en Matemáticas Computacionales. SEÑOR 570116
  • W. V. Petryshyn, En el problema de valores propios $ Tu- lambda Su = 0 $ con operadores no acotados y no simétricos $ T $ y $ S $, Philos. Trans. Roy. Soc. London Ser. A 262 (1967/68), 413–458. SEÑOR 222697, DOI https://doi.org/10.1098/rsta.1968.0001
  • LICENCIADO EN LETRAS. Samokish. El método de descenso más empinado para un problema de valores propios con operadores semilimitados. Izv. Vyssh. Uchebn. Zaved. Estera., 5:105–114, 1958.
  • J H. Bramble, J.E. Pasciak y A.V. Knyazev. Un algoritmo de preacondicionamiento subespacial para el cálculo de autovectores / autovalores. Adv. Computación. Matemáticas., 6:159–189, 1996.
  • F. Chatelin. Autovalores de matrices. Wiley, Chichester, 1993.
  • E.R. Davidson. El cálculo iterativo de algunos de los valores propios más bajos y los correspondientes vectores propios de matrices simétricas reales grandes. J. Comput. Phys., 17:87–94, 1975.
  • P.EJ. D′yakonov. Métodos de iteración en problemas de valores propios. Matemáticas. Notas, 34:945–953, 1983.
  • P.EJ. D′yakonov. Optimización en la resolución de problemas elípticos.. CRC Press, Boca Raton, Florida, 1996.
  • P.EJ. D′yakonov y A.V. Knyazev. Método iterativo de grupo para encontrar valores propios de orden inferior. Moscú Univ. Computación. Matemáticas. Cybern., 2:32–40, 1982.
  • P.EJ. D′yakonov y A.V. Knyazev. En un método iterativo para encontrar valores propios más bajos. Ruso J. Numer. Anal. Matemáticas. Modelado, 7(6):473–486, 1992.
  • P.EJ. D′yakonov y M.Y. Orekhov. Minimización del trabajo computacional en la determinación de los primeros autovalores de operadores diferenciales. Matemáticas. Notas, 27:382–391, 1980.
  • S.K. Godunov, V.V. Ogneva y G.P. Prokopov. Sobre la convergencia del método modificado de descenso más pronunciado en el cálculo de valores propios. Amer. Matemáticas. Soc. Transl. Ser. 2, 105:111–116, 1976.
  • G.H. Golub y C.F. Van Loan. Cálculos matriciales. Prensa de la Universidad John Hopkins, Baltimore, MD, tercera edición, 1996.
  • I. Ipsen. Una historia de iteración inversa, volumen en Helmut Wielandt, Mathematische Werke, Mathematical Works, vol. 2: Álgebra lineal y análisis, páginas 464–472. Walter de Gruyter, Berlín, 1996.
  • I. Ipsen. Calcular un vector propio con iteración inversa. SIAM Rev., 39:254–291, 1997.
  • AV. Knyazev. Eigensolvers preacondicionados: ¿un oxímoron? Electrón. Trans. Numer. Anal., 7:104–123, 1998.
  • K. Neymeyr. Estimación del error a posteriori para problemas propios elípticos. Sonderforschungsbereich 382, ​​Universität Tübingen, Informe 132, 1999.
  • K. Neymeyr. Una teoría geométrica para la iteración inversa preacondicionada. I: Extrema del cociente de Rayleigh. Aplicación de álgebra lineal 322 (1–3): 61–85, 2001.
  • K. Neymeyr. Una teoría geométrica para la iteración inversa preacondicionada. II: Estimaciones de convergencia. Aplicación de álgebra lineal 322 (1-3): 87-104, 2001.
  • B.N. Parlett. El problema del valor propio simétrico. Prentice Hall, Englewood Cliffs Nueva Jersey, 1980.
  • Virginia Occidental Petryshyn. En el problema de valores propios $ Tu- lambda Su = 0 $ con operadores ilimitados y no simétricos $ T $ y $ S $. Philos. Trans. Roy. Soc. Matemáticas. Phys. Sci., 262:413–458, 1968.
  • LICENCIADO EN LETRAS. Samokish. El método de descenso más empinado para un problema de valores propios con operadores semilimitados. Izv. Vyssh. Uchebn. Zaved. Estera., 5:105–114, 1958.

Recuperar artículos en Matemáticas de la Computación con MSC (2000): 65N30, 65N25, 65F10, 65F15

Recuperar artículos en todas las revistas con MSC (2000): 65N30, 65N25, 65F10, 65F15

Klaus Neymeyr
Afiliación: Mathematisches Institut der Universität Tübingen, Auf der Morgenstelle 10, 72076 Tübingen, Alemania
MR ID de autor: 672470
Correo electrónico: [email protected]

Palabras clave: problema de valor propio simétrico, iteración subespacial, preacondicionamiento, multigrid, iteración inversa
Recibido por editor (es): 27 de julio de 1999
Publicado electrónicamente: 17 de septiembre de 2001
Copyright del artículo: & copy Copyright 2001 American Mathematical Society


El método QR

Hasta ahora, los métodos que hemos discutido parecen adecuados para encontrar uno o unos pocos valores propios y vectores propios a la vez. Para encontrar más valores propios, tendríamos que hacer una gran cantidad de programación especial. Además, estos métodos seguramente tendrán problemas si la matriz tiene autovalores repetidos, autovalores distintos de la misma magnitud o autovalores complejos. El `` método QR '' es un método que maneja este tipo de problemas de manera uniforme y calcula todos los autovalores, pero no los autovectores, al mismo tiempo.

Resulta que el método QR es equivalente al método de potencia que comienza con una base de vectores y con la ortogonalización de Gram-Schmidt aplicada en cada paso, como lo hizo en el ejercicio 6. Puede encontrar una buena explicación en las notas de clase del profesor Greg Fasshauer . http://www.math.iit.edu/

  1. Dada una matriz, construya su factorización QR y,
  2. Colocar .
  3. Si ha convergido, deténgase; de ​​lo contrario, vuelva al paso 1.
  • Si la matriz es simétrica, la secuencia de matrices converge en una matriz diagonal.
  • Si los valores propios son todos reales, las porciones triangulares inferiores de convergen a cero y las diagonales convergen a valores propios.

En el laboratorio 7, escribió la función gs_factor.m, que usa el método de Gram-Schmidt modificado para convertirlo en el producto de una matriz ortogonal, Q, y una matriz triangular superior, R. Utilizará esta función en esta práctica de laboratorio. Todo en este laboratorio se puede hacer usando la función qr de Matlab o su función h_factor.m del laboratorio 7, pero debe usar gs_factor para este laboratorio.

  1. Recupere su archivo gs_factor.m del laboratorio 7, o descargue mi copia gs_factor.m.
  2. Escriba un archivo m para el método QR para una matriz A. Su archivo debe tener la firma: e es un vector de valores propios de A. Dado que se supone que el triángulo inferior de la matriz converge, finalice la iteración cuando

Las implementaciones serias del método QR no funcionan como funciona nuestra versión. El código se parece al código para la descomposición de valores singulares que verá en la próxima práctica de laboratorio y las matrices Q y R nunca se construyen explícitamente. El algoritmo también utiliza cambios para intentar acelerar la convergencia y cesa la iteración para valores propios que ya han convergido.

En la siguiente sección consideramos la cuestión de la convergencia del algoritmo QR básico.


8.6: El problema de valores propios - Ejercicios - Matemáticas

Todos los artículos publicados por MDPI están disponibles inmediatamente en todo el mundo bajo una licencia de acceso abierto. No se requiere un permiso especial para reutilizar todo o parte del artículo publicado por MDPI, incluidas las figuras y tablas. Para los artículos publicados bajo una licencia Creative Common CC BY de acceso abierto, cualquier parte del artículo puede ser reutilizada sin permiso siempre que el artículo original esté claramente citado.

Los artículos de fondo representan la investigación más avanzada con un potencial significativo de alto impacto en el campo. Los artículos de fondo se envían por invitación individual o recomendación de los editores científicos y se someten a una revisión por pares antes de su publicación.

El artículo de características puede ser un artículo de investigación original, un estudio de investigación novedoso y sustancial que a menudo implica varias técnicas o enfoques, o un artículo de revisión completo con actualizaciones concisas y precisas sobre los últimos avances en el campo que revisan sistemáticamente los avances científicos más interesantes. literatura. Este tipo de artículo ofrece una perspectiva sobre las futuras direcciones de la investigación o sus posibles aplicaciones.

Los artículos de Editor's Choice se basan en las recomendaciones de los editores científicos de las revistas de MDPI de todo el mundo. Los editores seleccionan una pequeña cantidad de artículos publicados recientemente en la revista que creen que serán particularmente interesantes para los autores o importantes en este campo. El objetivo es proporcionar una instantánea de algunos de los trabajos más interesantes publicados en las diversas áreas de investigación de la revista.


Ver el vídeo: Solve eigen value in calculator (Noviembre 2021).