Artículos

4: Comportamiento cerca de trayectorias - Linealización - Matemáticas

4: Comportamiento cerca de trayectorias - Linealización - Matemáticas


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Ahora vamos a discutir un método para analizar la estabilidad que utiliza la linealización sobre el objeto cuya estabilidad es de interés. Por ahora, los "objetos de interés" son soluciones específicas de un campo vectorial. La estructura de las soluciones de sistemas lineales de coeficientes constantes se trata en muchos libros de texto de EDO. El libro de Arnold también es muy bueno, pero la presentación es más compacta, con menos ejemplos.

Comenzamos considerando un campo vectorial no autónomo general:

[ dot {x} = f (x, t), x in mathbb {R} ^ n, label {4.1} ]

y suponemos que

[ bar {x} (t, t_ {0}, x_ {0}), label {4.2} ]

es la solución de la Ecuación ref {4.1} para la cual deseamos determinar sus propiedades de estabilidad. Como cuando introdujimos las definiciones de estabilidad, procedemos localizando el campo vectorial sobre la solución de interés. Hacemos esto introduciendo el cambio de coordenadas.

(x = y + bar {x} )

para la Ecuación ref {4.1} de la siguiente manera:

( dot {x} = dot {y} + dot { bar {x}} = f (y + bar {x}, t) ),

o

( dot {y} = f (y + bar {x}, t) dot { bar {x}} ),

[= f (y + bar {x}, t) f ( bar {x}, t), label {4.3} ]

donde omitimos los argumentos de ( bar {x} (t, t_ {0}, x_ {0}) ) en aras de una notación menos engorrosa. A continuación, Taylor expandimos (f (y + bar {x}, t) ) en (y ) sobre la solución ( bar {x} ), pero solo requeriremos los términos de orden inicial explícitamente

[f (y + bar {x}, t) = f ( bar {x}, t) + Df ( bar {x}, t) y + mathbb {O} (| y | ^ 2), etiqueta {4.4} ]

donde (Df ) denota la derivada (es decir, matriz jacobiana) de la función de valor vectorial f y ( mathbb {O} (| y | ^ 2) ) denota términos de orden superior en la expansión de Taylor que no necesitaremos en forma explícita. Sustituyendo esto en la Ecuación ref {4.4} da:

( dot {y} = f (y + bar {x}, t) - f ( bar {x}, t) ),

(= f ( bar {x}, t) + Df ( bar {x}, t) y + mathbb {O} (| y | ^ 2) f ( bar {x}, t) ),

[= Df ( bar {x}, t) y + mathbb {O} (| y | ^ 2). etiqueta {4.5} ]

Tenga en cuenta que estamos interesados ​​en el comportamiento de las soluciones cercanas a ( bar {x} (t, t_ {0}, x_ {0}) ), es decir, para (y ) pequeño. Por lo tanto, en esa situación parece razonable que descuidar ( mathbb {O} (| y | ^ 2) ) en la Ecuación ref {4.5} sería una aproximación que nos proporcionaría la información particular que buscamos. Por ejemplo, ¿nos proporcionaría suficiente información para determinar la estabilidad? En particular,

[ dot {y} = Df ( bar {x}, t) y, label {4.6} ]

se conoce como la linealización del campo vectorial ( dot {x} = f (x, t) ) sobre la solución ( bar {x} (t, t_ {0}, x_ {0}) ).

Antes de responder a la pregunta de si la ecuación ref {4.1} proporciona o no una aproximación adecuada a las soluciones de la ecuación ref {4.5} para y "pequeño", primero estudiaremos los campos vectoriales lineales por sí mismos.

Los campos vectoriales lineales también se pueden clasificar como no autónomo o autónomo. Los campos vectoriales lineales no autónomos se obtienen linealizando un campo vectorial no autónomo alrededor de una solución (y reteniendo solo los términos lineales). Tienen la forma general:

[ dot {y} = A (t) y, y (0) = y_ {0}, label {4.7} ]

donde

[A (t) equiv Df ( bar {x} (t, t_ {0}, x_ {0}), t) label {4.8} ]

es una matriz de (n veces n ). También se pueden obtener linealizando un campo vectorial autónomo sobre una solución dependiente del tiempo.

Un campo vectorial lineal autónomo se obtiene linealizando un campo vectorial autónomo alrededor de un punto de equilibrio. Más precisamente, supongamos que ( dot {x} = f (x) ) denota un campo vectorial autónomo y que (x = x_ {0} ) denota un punto de equilibrio, es decir, (f (x_ {0}) = 0 ). El campo vectorial autónomo linealizado alrededor de este punto de equilibrio tiene la forma:

[ dot {y} = Df (x_ {0}) y, y (0) = y_ {0}, label {4.9} ]

o

[ dot {y} = Ay, y (0) = y_ {0}, label {4.10} ]

donde (A equiv Df (x_ {0}) ) es una matriz (n veces n ) de números reales. Esto es significativo porque (4.10) se puede resolver usando técnicas de álgebra lineal, pero la ecuación ref {4.7}, generalmente, no se puede resolver de esta manera. Por tanto, ahora describiremos la solución general de (4.10).

La solución general de la Ecuación ref {4.10} está dada por:

[y (t) = e ^ {At} y_ {0}. label {4.11} ]

Para verificar que esta es la solución, simplemente necesitamos sustituir en el lado derecho y el lado izquierdo de (4.10) y demostrar que la igualdad es válida. Sin embargo, primero tenemos que explicar qué es (e ^ {At} ), es decir, el exponencial de la (n times n ) matriz A (al examinar la Ecuación ref {4.11} debería quedar claro que si la Ecuación ref {4.11} tiene sentido matemáticamente, entonces (e ^ {At} ) debe ser una matriz (n veces n )).

Al igual que la exponencial de un escalar, la exponencial de una matriz se define mediante la serie exponencial de la siguiente manera:

(e ^ {At} equiv mathbb {I} + At + frac {1} {2!} A ^ {2} t ^ {2} + ··· + frac {1} {n!} A ^ {n} t ^ {n} + cdots ),

[= sum_ {i = 0} ^ {n} frac {1} {i!} A ^ {i} t ^ {i}, label {4.12} ]

donde ( mathbb {I} ) denota la matriz de identidad (n veces n ). Pero aún debemos responder a la pregunta, "¿tiene sentido matemático esta serie exponencial que involucra productos de matrices"? Ciertamente, podemos calcular productos de matrices y multiplicarlos por escalares. Pero tenemos que dar significado a una suma infinita de tales objetos matemáticos. Hacemos esto definiendo la norma de una matriz y luego considerando la convergencia de la serie en la norma. Cuando se hace esto, el "problema de convergencia" es exactamente el mismo que el del exponencial de un escalar. Por lo tanto, la serie exponencial de una matriz converge absolutamente para todo t, y por lo tanto se puede diferenciar con respecto a t término por término, y la serie resultante de derivadas también converge absolutamente.

A continuación, debemos argumentar que la Ecuación ref {4.11} es una solución de la Ecuación ref {4.10}. Si diferenciamos la serie (4.12) término por término, obtenemos que:

[ frac {d} {dt} e ^ {At} = Ae ^ {At} = e ^ {At} A, label {4.13} ]

donde hemos utilizado el hecho de que las matrices A y (e ^ {At} ) conmutan (esto es fácil de deducir del hecho de que A conmuta con cualquier potencia de A) De este cálculo se deduce entonces que:

[ dot {y} = frac {d} {dt} e ^ {At} y_ {0} = Ae ^ {At} y_ {0} = Ay. etiqueta {4.14} ]

Por tanto, el problema general de resolver (4.10) es equivalente a calcular (e ^ {At} ), y ahora dirigiremos nuestra atención a esta tarea.

Primero, suponga que (A ) es una matriz diagonal, digamos

[A = begin {pmatrix} { lambda_ {1}} & {0} & { cdots} & {0} {0} & { lambda_ {2}} & { cdots} & {0 } {0} & {0} & { cdots} & {0} {0} & {0} & { cdots} & { lambda_ {n}} end {pmatrix} label {4.15 } ]

Entonces es fácil de ver sustituyendo A en la serie exponencial (4.12) que:

[e ^ {At} = begin {pmatrix} {e ^ { lambda_ {1} t}} & {0} & { cdots} & {0} {0} & {e ^ { lambda_ {2} t}} & { cdots} & {0} {0} & {0} & { cdots} & {0} {0} & {0} & { cdots} & {e ^ { lambda} t} end {pmatrix} label {4.16} ]

Por lo tanto, nuestra estrategia será transformar las coordenadas para que en las nuevas coordenadas A se convierta en diagonal (o lo más "cerca posible" de la diagonal, que explicaremos en breve). Entonces (e ^ {At} ) será fácilmente calculable en estas coordenadas. Una vez que se logra, usamos la inversa de la transformación para transformar la solución de nuevo al sistema de coordenadas original.

Ahora hacemos estas ideas precisas. Dejamos

[y = Tu, u in mathbb {R} ^ n, y in mathbb {R} ^ n, label {4.17} ]

donde T es una matriz (n veces n ) cuyas propiedades precisas se desarrollarán a continuación.

Este es un enfoque típico en las EDO. Proponemos una transformación de coordenadas general de la EDO, y luego la construimos de una manera que proporcione las propiedades de la EDO que deseamos. Sustituyendo (4.17) en (4.10) se obtiene:

[ dot {y} = T dot {u} = Ay = ATu, label {4.18} ]

T se construirá de una manera que lo haga invertible, de modo que tengamos:

[ dot {u} = T ^ {- 1} ATu, u (0) = T ^ {- 1} y (0). label {4.19} ]

Para simplificar la notación dejamos:

[T = T ^ {- 1} AT, label {4.20} ]

o

[A = T ^ {- 1} Lambda T. label {4.21} ]

Sustituyendo (4.21) en la serie de la matriz exponencial (4.12) se obtiene:

(e ^ {At} = e ^ {T Lambda T ^ {- 1} t} ),

[= mathbb {1} + T Lambda T ^ {- 1} t + frac {1} {2!} (T Lambda T ^ {- 1}) ^ {2} t ^ 2 + cdots + frac {1} {n!} (T Lambda T ^ {- 1}) ^ {n} t ^ n + cdots label {4.22} ]

Ahora tenga en cuenta que para cualquier número entero positivo n tenemos:

((T Lambda T ^ {- 1}) ^ {n} = underbrace {(T Lambda T ^ {- 1}) (T Lambda T ^ {- 1}) cdots (T Lambda T ^ {- 1}) (T Lambda T ^ {- 1})} _ {n factores} )

[= T Lambda ^ {n} T ^ {- 1} label {4.23} ]

Sustituyendo esto en (4.22) se obtiene:

(e ^ {At} = sum_ {n = 0} ^ { infty} frac {1} {n!} (T Lambda T ^ {- 1}) ^ {n} t ^ n ),

(= T ( sum_ {n = 0} ^ { infty} frac {1} {n!} Lambda ^ {n} t ^ n) T ^ {- 1} ),

[= Te ^ { Lambda t} T ^ {- 1} label {4.24} ]

o

[e ^ {At} = Te ^ { Lambda t} T ^ {- 1} label {4.25} ]

Ahora llegamos a nuestro resultado principal. Si T se construye de modo que

[ Lambda = T ^ {- 1} AT label {4.26} ]

es diagonal, entonces de (4.16) y (4.25) se deduce que (e ^ {At} ) siempre se puede calcular. Por tanto, el problema de la EDO de resolver (4.10) se convierte en un problema de álgebra lineal. Pero, ¿se puede diagonalizar siempre una matriz (n veces n ) general A? Si ha tenido un curso de álgebra lineal, sabe que la respuesta a esta pregunta es "no". Hay una teoría de lo (real) que se aplicará aquí. Sin embargo, eso nos llevaría a un desvío demasiado grande para este curso. En su lugar, consideraremos los tres casos estándar para matrices (2 times 2 ). Eso será suficiente para introducir las ideas principales sin atascarse en el álgebra lineal. Sin embargo, no se puede evitar por completo. Deberá ser capaz de calcular valores propios y vectores propios de matrices (2 times 2 ) y comprender su significado.

Los tres casos de matrices (2 times 2 ) que consideraremos se caracterizan por sus valores propios:

  • dos valores propios reales, diagonalizable A,
  • dos valores propios idénticos, no diagonalizable A,
  • un par conjugado complejo de valores propios.

En la siguiente tabla, resumimos la forma en la que se pueden transformar estas matrices (denominada de A) y la exponencial resultante de esta forma canónica.

Una vez realizada la transformación a ( Lambda ), utilizaremos estos resultados para deducir (e ^ { Lambda} ).


4: Comportamiento cerca de trayectorias - Linealización - Matemáticas

Math 321: Ecuaciones diferenciales Primavera de 2005

Dr. James R. Hughes
Departamento de Ciencias Matemáticas de Elizabethtown College

6.2 Sistemas lineales y casi lineales

  • Revisión de la clasificación de tipo y estabilidad para sistemas lineales de coeficiente constante de 2 por 2
  • Cambio de coordenadas para mover un punto crítico al origen
  • Sistemas casi lineales
    • Definiciones: punto crítico aislado, sistema linealizado, sistema casi lineal
    • Teorema 2: estabilidad de sistemas casi lineales
    • Linealización cerca de un punto crítico aislado (ejemplo)

    Revisión de la clasificación de tipo y estabilidad para sistemas lineales de coeficiente constante de 2 por 2

    x '(t) = a x + b y
    y '(t) = c x + d y

    (donde a, b, cyd son constantes) tiene un solo punto crítico en (0,0), y el tipo y la estabilidad de (0,0) pueden determinarse completamente a partir de los valores propios de la matriz de coeficientes. Específicamente:

    Si hay dos valores propios reales de signo opuesto, el origen es un punto silla (y por lo tanto inestable).

    Si hay dos valores propios positivos reales, el origen es un nodo inestable.

    Si hay dos valores propios negativos reales, el origen es un nodo asintóticamente estable.

    Si los valores propios son complejos con una parte real negativa, el origen es un punto espiral asintóticamente estable.

    Si los valores propios son complejos con una parte real positiva, el origen es un punto espiral inestable.

    Y finalmente, si los autovalores son complejos con una parte real cero, el origen es un centro (y por lo tanto estable).

    El texto hace una distinción entre adecuado y incorrecto nodos. Brevemente, un nodo es adecuado si todas las trayectorias se acercan o retroceden desde el origen a lo largo de diferentes líneas tangentes, y incorrecto si todas las trayectorias se acercan o retroceden a lo largo de la misma línea tangente. La mayoría de los nodos que veremos son incorrectos. Un nodo apropiado solo ocurre en el caso de un autovalor completo de multiplicidad 2 (vea la Figura 6.2.3 en su texto).

    Cambio de coordenadas para mover un punto crítico al origen

    Si un sistema autónomo tiene un punto crítico en (x0, y0), entonces el cambio de variables u = x - x0, v = y - y0 da como resultado un sistema que es equivalente al original, pero trasladado de modo que el punto crítico en (x0, y0) se mueve a (0, 0).

    x '(t) = 3x - 4y - 2
    y '(t) = 2x + y - 5

    tiene un solo punto crítico en (2, 1). Estableciendo u = x - 2 y v = y - 1, tenemos
    u '= x', v '= y', x = u + 2, y y = v + 1, y el sistema se convierte en

    u '(t) = 3 (u + 2) - 4 (v + 1) - 2
    v '(t) = 2 (u + 2) + (v + 1) - 5

    que tiene un solo punto crítico en (0, 0). El tipo y la estabilidad del punto crítico original ahora se pueden determinar a partir del de (0,0) en el nuevo sistema. El polinomio característico del nuevo sistema es
    (3 - r) (1 - r) + 8 = r 2 - 4r + 11, que tiene raíces complejas con parte real positiva, por lo que el punto crítico es un punto espiral inestable. Esto se puede confirmar mirando un retrato de fase generado por Maple para el sistema original:


    Ahora consideraremos el sistema autónomo más general (*) a continuación.

    Un punto crítico (x0, y0) de (*) se llama aislado si algún rectángulo abierto que lo contiene no contiene ningún otro punto crítico.

    Si (x0, y0) es un punto crítico aislado, entonces, como antes, el cambio de variables u = x - x0, v = y - y0 convierte (*) en un sistema en el que el punto crítico en (x0, y0) se convierte en un punto crítico en (0, 0). Además, si el sistema transformado se puede escribir en la forma

    u '(t) = a u + b v + f (u, v)
    v '(t) = c u + d v + g (u, v)

    donde f (u, v) yg (u, v) tienen la propiedad de que los límites cuando (u, v) se acercan a (0, 0) de ambos

    f (u, v) / sqrt (u 2 + v 2) yg (u, v) / sqrt (u 2 + v 2)

    son 0 (como sucedería si fyg constan solo de potencias de uyv mayores que 1),
    entonces el sistema se llama casi lineal y el sistema lineal

    u '(t) = a u + b v
    v '(t) = c u + d v

    se llama el linealización de (*). En la mayoría de las condiciones, el comportamiento cualitativo de las trayectorias cercanas a (0,0) en el sistema linealizado se asemeja al de las trayectorias cercanas a (x0, y0) en el sistema original. Específicamente, tenemos

    Teorema 2 (Estabilidad de sistemas casi lineales)

    (a) Si la matriz de coeficientes de la linealización de (*) tiene un solo valor propio real r de multiplicidad 2, entonces el punto crítico (x0, y0) es un nodo o un punto espiral, y es asintóticamente estable si r negativo, e inestable si r es positivo.

    (b) Si la matriz de coeficientes de la linealización de (*) tiene valores propios imaginarios puros, entonces el punto crítico (x0, y0) es un centro o un punto espiral, y puede ser asintóticamente estable, estable o inestable.

    (c) En todos los demás casos, el tipo y la estabilidad del punto crítico (x0, y0) de (*) es el mismo que el de (0,0) en la linealización de (*).

    x '(t) = x 2 + 3xy + 2y 2
    y '(t) = 4 - x 2.

    Primero encontramos los puntos críticos. Establecer y '= 0 nos dice que x debe ser 2 o -2. Sustituir x = 2 en la primera ecuación y establecer x '= 0, nos dice que y debe ser -1 o -2, por lo que dos puntos críticos son (2, -1) y (2, -2). De manera similar, la sustitución de x = -2 en la primera ecuación nos da dos puntos críticos más, (-2, 1) y (-2, 2).

    Primero linealizamos en (2, -1). Establecemos u = x - 2 y v = y + 1, entonces u '= x', v '= y', x = u + 2, y y = v - 1, y el sistema se transforma en

    u '(t) = (u + 2) 2 + 3 (u + 2) (v - 1) + 2 (v - 1) 2
    v '(t) = 4 - (u + 2) 2.

    Multiplicando los lados derechos, obtenemos

    u '(t) = u + 2v + u 2 + 3uv + 2v 2
    v '(t) = -4u - u 2

    La matriz de coeficientes del sistema linealizado tiene valores propios complejos con una parte real positiva, por lo que (2, -1) es un punto espiral inestable.

    A continuación, linealizamos en (2, -2). Estableciendo u = x - 2 y v = y + 2, el sistema se transforma en

    u '(t) = (u + 2) 2 + 3 (u + 2) (v - 2) + 2 (v - 2) 2
    v '(t) = 4 - (u + 2) 2

    u '(t) = -2u - 2v + u 2 + 3uv + 2v 2
    v '(t) = -4u - u 2,

    Los valores propios de la matriz de coeficientes son 2 y -4 en este caso, por lo que el punto crítico (2, -2) del sistema original es un punto silla inestable.

    La linealización en (-2, 1) produce

    u '(t) = (u - 2) 2 + 3 (u - 2) (v + 1) + 2 (v + 1) 2
    v '(t) = 4 - (u - 2) 2

    u '(t) = -u - 2v + u 2 + 3uv + 2v 2
    v '(t) = 4u - u 2,

    Los valores propios de la matriz de coeficientes son complejos con una parte real negativa en este caso, por lo que el punto crítico (-2, 1) del sistema original es un punto espiral asintóticamente estable.

    Finalmente, linealizamos en (-2, 2). Configuración de u = x + 2 y v = y - 2

    u '(t) = (u - 2) 2 + 3 (u - 2) (v + 2) + 2 (v + 2) 2
    v '(t) = 4 - (u - 2) 2

    u '(t) = 2u + 2v + u 2 + 3uv + 2v 2
    v '(t) = 4u - u 2,

    La matriz de coeficientes tiene valores propios 4 y -2, por lo que una vez más el punto crítico (-2,2) es un punto silla inestable.


    Notas sobre Diffy Qs: ecuaciones diferenciales para ingenieros

    Nota: 1 conferencia, §6.1 – §6.2 en [EP], §9.2 – §9.3 en [BD]

    Excepto por algunos breves desvíos en el Capítulo 1, consideramos principalmente ecuaciones lineales. Las ecuaciones lineales son suficientes en muchas aplicaciones, pero en realidad la mayoría de los fenómenos requieren ecuaciones no lineales. Las ecuaciones no lineales, sin embargo, son notoriamente más difíciles de entender que las lineales, y aparecen muchos fenómenos nuevos extraños cuando permitimos que nuestras ecuaciones no sean lineales.

    No se preocupe, no perdimos todo este tiempo estudiando ecuaciones lineales. Las ecuaciones no lineales a menudo se pueden aproximar mediante ecuaciones lineales si solo necesitamos una solución "localmente", por ejemplo, solo por un período corto de tiempo, o solo para ciertos parámetros. La comprensión de las ecuaciones lineales también nos puede dar una comprensión cualitativa sobre un problema no lineal más general. La idea es similar a lo que hiciste en cálculo al intentar aproximar una función mediante una línea con la pendiente correcta.

    En la Sección 2.4, analizamos el péndulo de longitud (L text <.> ) El objetivo era resolver el ángulo ( theta (t) ) en función del tiempo (t text <. > ) La ecuación para la configuración es la ecuación no lineal

    En lugar de resolver esta ecuación, resolvimos la ecuación lineal bastante más fácil

    Si bien la solución de la ecuación lineal no es exactamente lo que estábamos buscando, está bastante cerca de la original, siempre que el ángulo ( theta ) sea pequeño y el período de tiempo involucrado sea corto.

    Podría preguntar: ¿Por qué no resolvemos simplemente el problema no lineal? Bueno, podría ser muy difícil, impráctico o imposible de resolver analíticamente, dependiendo de la ecuación en cuestión. Es posible que ni siquiera estemos interesados ​​en la solución real, solo podríamos estar interesados ​​en alguna idea cualitativa de lo que está haciendo la solución. Por ejemplo, ¿qué sucede cuando el tiempo se acerca al infinito?

    Subsección 8.1.1 Sistemas autónomos y análisis del plano de fase

    Restringimos nuestra atención a un sistema autónomo bidimensional.

    donde (f (x, y) ) y (g (x, y) ) son funciones de dos variables, y las derivadas se toman con respecto al tiempo (t text <.> ) Las soluciones son funciones (x (t) ) y (y (t) ) tal que

    La forma en que analizaremos el sistema es muy similar a la Sección 1.6, donde estudiamos una única ecuación autónoma. Las ideas en dos dimensiones son las mismas, pero el comportamiento puede ser mucho más complicado.

    Puede ser mejor pensar en el sistema de ecuaciones como la ecuación vectorial simple

    Como en la Sección 3.1, dibujamos el retrato de fase (o diagrama de fases), donde cada punto ((x, y) ) corresponde a un estado específico del sistema. Dibujamos el campo vectorial dado en cada punto ((x, y) ) por el vector ( left [ begin f (x, y) g (x, y) end right] text <.> ) Y como antes, si encontramos soluciones, dibujamos las trayectorias trazando todos los puntos ( bigl (x (t), y (t) bigr) ) para un cierto rango de (t text <.> )

    Ejemplo 8.1.1.

    Considere la ecuación de segundo orden (x '' = - x + x ^ 2 text <.> ) Escriba esta ecuación como un sistema no lineal de primer orden

    El retrato de fase con algunas trayectorias se dibuja en la Figura 8.1.

    Figura 8.1. Retrato de fase con algunas trayectorias de (x '= y text <,> ) (y' = -x + x ^ 2 text <.> )

    A partir del retrato de fase, debería quedar claro que incluso este sistema simple tiene un comportamiento bastante complicado. Algunas trayectorias siguen oscilando alrededor del origen y otras se dirigen hacia el infinito. Volveremos a este ejemplo a menudo y lo analizaremos por completo en esta (y la siguiente) sección.

    Si hacemos zoom en el diagrama cerca de un punto donde ( left [ begin f (x, y) g (x, y) end right] ) no es cero, entonces, cerca de las flechas, generalmente apuntan esencialmente en la misma dirección y tienen esencialmente la misma magnitud. En otras palabras, el comportamiento no es tan interesante cerca de ese punto. Por supuesto, asumimos que (f (x, y) ) y (g (x, y) ) son continuas.

    Concentrémonos en los puntos del diagrama de fase de arriba donde las trayectorias parecen comenzar, terminar o dar la vuelta. Vemos dos de esos puntos: ((0,0) ) y ((1,0) text <.> ) Las trayectorias parecen rodear el punto ((0,0) text <,> ) y parecen entrar o salir del punto ((1,0) text <.> ) Estos puntos son precisamente aquellos puntos donde las derivadas de (x ) y (y ) son cero. Definamos el puntos críticos como los puntos ((x, y) ) tales que

    En otras palabras, estos son los puntos donde tanto (f (x, y) = 0 ) como (g (x, y) = 0 text <.> )

    Los puntos críticos son aquellos en los que el comportamiento del sistema es, en cierto sentido, más complicado. Si ( left [ begin f (x, y) g (x, y) end right] ) es cero, luego cerca, el vector puede apuntar en cualquier dirección. Además, las trayectorias se dirigen hacia, alejándose o alrededor de estos puntos, por lo que si estamos buscando un comportamiento cualitativo a largo plazo del sistema, deberíamos observar lo que está sucediendo cerca de los puntos críticos.

    Los puntos críticos también se denominan a veces equilibrios, ya que tenemos los llamados soluciones de equilibrio en puntos críticos. Si ((x_0, y_0) ) es un punto crítico, entonces tenemos las soluciones

    En el ejemplo 8.1.1, hay dos soluciones de equilibrio:

    Compare esta discusión sobre equilibrios con la discusión de la Sección 1.6. El concepto subyacente es exactamente el mismo.

    Subsección 8.1.2 Linealización

    En la Sección 3.5 estudiamos el comportamiento de un sistema lineal homogéneo de dos ecuaciones cerca de un punto crítico. Para un sistema lineal de dos variables dadas por una matriz invertible, el único punto crítico es el origen ((0,0) text <.> ) Demos un buen uso de la comprensión que obtuvimos en esa sección para comprender lo que sucede cerca de puntos críticos de sistemas no lineales.

    En cálculo aprendimos a estimar una función tomando su derivada y linealizándola. Trabajamos de manera similar con sistemas no lineales de EDO. Suponga que ((x_0, y_0) ) es un punto crítico. Primero cambie las variables a ((u, v) text <,> ) para que ((u, v) = (0,0) ) corresponda a ((x_0, y_0) text <.> ) Eso es,

    A continuación, necesitamos encontrar la derivada. En cálculo multivariable, es posible que haya visto que la versión de varias variables de la derivada es la Matriz jacobiana 1. La matriz jacobiana de la función con valores vectoriales ( left [ begin f (x, y) g (x, y) end right] ) en ((x_0, y_0) ) es

    Esta matriz da la mejor aproximación lineal cuando (u ) y (v ) (y por lo tanto (x ) y (y )) varían. Definimos el linealización de la ecuación (8.1) como el sistema lineal

    Ejemplo 8.1.2.

    Sigamos con las mismas ecuaciones del ejemplo 8.1.1: (x '= y text <,> ) (y' = -x + x ^ 2 text <.> ) Hay dos puntos críticos, ((0,0) ) y ((1,0) text <.> ) La matriz jacobiana en cualquier punto es

    Por lo tanto, en ((0,0) text <,> ) tenemos (u = x ) y (v = y text <,> ) y la linealización es

    En el punto ((1,0) text <,> ) tenemos (u = x-1 ) y (v = y text <,> ) y la linealización es

    Los diagramas de fase de las dos linealizaciones en el punto ((0,0) ) y ((1,0) ) se dan en la figura 8.2. Note que las variables ahora son (u ) y (v text <.> ) Compare la Figura 8.2 con la Figura 8.1, y observe especialmente el comportamiento cerca de los puntos críticos.

    Figura 8.2. Diagrama de fase con algunas trayectorias de linealizaciones en los puntos críticos ((0,0) ) (izquierda) y ((1,0) ) (derecha) de (x '= y text <,> ) (y '= -x + x ^ 2 text <.> )


    Retratos de fase de sistemas no lineales

    Considere un , posiblemente no lineal, sistema autónomo , (autónomo significa que la variable independiente , considerado como una representación del tiempo, no ocurre en el lado derecho de las ecuaciones). Al igual que hicimos con los sistemas lineales, queremos observar las trayectorias del sistema. Dado que en la mayoría de los casos es imposible resolver estos sistemas con exactitud, nos concentraremos en los aspectos cualitativos y, en particular, en cómo esbozar el retrato de fase a mano.
    • Las trayectorias siguen el campo de dirección. El vector de velocidad para una solución en un punto en el avion esta . La dirección de la trayectoria es la dirección de este vector.
    • Las curvas y son las isoclinas en las que la dirección de una trayectoria es vertical y horizontal, respectivamente. Estas isoclinas dividen el plano en regiones. En cada región, los signos de y no cambies, por ejemplo si ambos son positivos, la dirección siempre es hacia arriba y hacia la derecha. Normalmente, al cruzar una isoclina, un componente de la velocidad cambia de signo. Por lo tanto, al conocer la dirección en un punto, puede determinar las direcciones en todas las regiones.
    • Una isoclina (o parte de ella) que es una línea vertical es una trayectoria (o tal vez varias de ellas). Del mismo modo, una isoclina (o parte de ella) que es una línea horizontal es una trayectoria (o varias).
    • Las trayectorias no se encuentran ni se detienen, excepto que en el límite como o pueden acercarse a un punto de equilibrio.
    • Los puntos de equilibrio (también conocidos como puntos críticos o estacionarios) son los puntos donde ambos y . Por lo tanto, están en las intersecciones de esas isoclinas.
    • El comportamiento cerca de los puntos de equilibrio es importante. Las trayectorias cercanas a un punto de equilibrio se aproximan muy bien por las de la linealización del sistema en ese punto, y el punto crítico se puede clasificar utilizando esa linealización (con dos excepciones que veremos).
    • Una separatriz (separatrices plural) es una trayectoria que separa dos regiones en las que el comportamiento de las soluciones como o es diferente. Las trayectorias que entran y salen de un punto de silla son a menudo separatrices. Estas deben estar entre las primeras trayectorias que dibuje.
    • Si el sistema tiene algo de simetría, eso puede ayudar. Los ejemplos de simetría incluyen intercambiar y , o cambiando el signo de y / o .


    La aproximación lineal a una función de dos variables cerca de un punto es

    Queremos hacer esto en particular en un punto de equilibrio, donde . Es útil para hacer un cambio de variables. , , asi que , corresponde al punto de equilibrio. Entonces la linealización de nuestro sistema en este punto de equilibrio es la sistema homogéneo lineal de coeficiente constante

    se llama el jacobiano del campo vectorial .

    Ejemplo: considere el sistema

    Para un punto de equilibrio necesitamos (es decir. o ) y (es decir. o ). Por tanto, hay dos puntos de equilibrio: y .

    Antes de clasificar los puntos de equilibrio, es una buena idea dibujar las isoclinas para y . Trazaré el primero en azul y el segundo en verde. Indico con flechas el campo de dirección en cada región y en las isoclinas. Las intersecciones de las isoclinas azul y verde son los puntos de equilibrio.

    La matriz jacobiana es . En el punto de equilibrio esto es . Que tiene un valor propio doble y dos vectores propios linealmente independientes. Por lo tanto, el punto de equilibrio es un nodo singular y es un atractor.

    En el segundo punto de equilibrio la matriz jacobiana es . Esto tiene valores propios 1 y . Por lo tanto, el punto de equilibrio es una silla de montar. Los vectores propios son por 1 y por . La siguiente imagen muestra el plano de fase con algunas partes de trayectorias cerca de los dos puntos de equilibrio. Tenga en cuenta que las direcciones de estas trayectorias concuerdan con las flechas del campo de dirección de la imagen anterior.

    Ahora esbozamos algunas trayectorias. Hay trayectorias en el y ejes (yendo hacia adentro hasta el punto de equilibrio en el origen), porque Cuándo y Cuándo . A continuación, es una buena idea dibujar las trayectorias que salen y entran al punto de silla. Por ejemplo, uno llega al punto de silla desde abajo y hacia la derecha. Retrocedemos en el tiempo, siguiendo las flechas hacia atrás. Estas flechas apuntan hacia arriba y hacia la izquierda en la región , . La trayectoria debe curvarse para evitar la trayectoria en el positivo. eje. Es de suponer que es asintótico con respecto a ese eje. La trayectoria que sale del punto del sillín hacia abajo y hacia la izquierda debe continuar hacia abajo y hacia la izquierda hasta terminar en el punto de equilibrio. .

    Finalmente, dibujamos algunas trayectorias más, incluyendo al menos una en cada región. Tenga en cuenta que las trayectorias que entran en el punto de equilibrio en puede hacerlo en cualquier ángulo.

    Nuestra imagen es simétrica con respecto a la línea. , debido al hecho de que el sistema de ecuaciones sigue siendo el mismo si intercambia y .

    Las trayectorias que entran y salen del punto de silla son separatrices. Todas las trayectorias debajo y a la izquierda de las dos trayectorias que entran al sillín van al punto de equilibrio como , mientras que los de arriba y de la derecha se van al infinito asintóticos a la línea . Debajo y a la derecha de las trayectorias que salen del sillín, todo entra desde el infinito asintótico a lo positivo. eje (como ), mientras que arriba y a la izquierda de estos todo va desde el infinito asintótico al positivo eje.


    Como mencioné, hay dos excepciones a la regla de que el retrato de fase cerca de un punto de equilibrio puede clasificarse por la linealización en ese punto de equilibrio. El primero es donde 0 es un valor propio de la linealización (¡ni siquiera miramos el sistema lineal en ese caso!). La segunda excepción es donde la linealización es un centro. El sistema lineal tiene soluciones periódicas, correspondientes a trayectorias que son curvas cerradas (elipses). Imagínese comenzar en algún punto y seguir el campo de dirección. Después de recorrer todo el camino alrededor del punto de equilibrio, en el sistema lineal regresa exactamente al punto en el que comenzó. Este es un asunto muy delicado y cualquier efecto no lineal, aunque sea muy pequeño, podría estropearlo. Si en el sistema no lineal regresa un poco más lejos del punto de equilibrio que donde comenzó, entonces su trayectoria no puede ser una curva cerrada. La próxima vez estarás aún más lejos. La trayectoria se alejará en espiral del punto de equilibrio. Si todas las trayectorias cercanas al punto de equilibrio son así, el punto de equilibrio es una espiral inestable. Por otro lado, si después de una vuelta alrededor del punto de equilibrio estás un poco más cerca de donde comenzaste, tu trayectoria gira en espiral hacia adentro. Si todas las trayectorias cercanas al punto de equilibrio son así, el punto de equilibrio es una espiral estable (y un atractor). Aquí hay imágenes de esas dos posibilidades. La tercera posibilidad, por supuesto, es que regrese exactamente al punto donde comenzó, y realmente es un centro.

    Una forma de mostrar que un centro del sistema linealizado sigue siendo un centro en el sistema no lineal es encontrar una ecuación para las trayectorias. Si existe tal ecuación (implícita) donde es una función suave, no constante en ninguna región, y una constante arbitraria, entonces las trayectorias, que son curvas de nivel de esta función, no pueden ser espirales sino curvas cerradas. Esto ocurre tanto en el sistema de depredador-presa como en el péndulo.


    3 respuestas 3

    En general, puede linealizar alrededor de cualquier solución conocida. La idea es que una vez que se conoce una solución $ theta_0 (t) $, las soluciones cercanas $ theta $ siguen aproximadamente una ecuación lineal: es decir, escribir $ theta (t) = theta_0 (t) + h (t) $ obtenemos $ I theta '' + Mgl sin theta approx (I theta_0 '' + Mgl sin theta_0) + Ih '' + (Mgl cos theta_0) h $ que conduce a una ecuación lineal aproximada $ Ih '' + (Mgl cos theta_0) h = 0 $ porque $ (I theta_0 '' + Mgl sin theta_0) = u $.

    El problema es: ¿conoces $ theta_0 $ para empezar? Una solución de equilibrio es fácil de encontrar. Encontrar una solución genérica. bueno, ese es solo el problema original.

    Pero ocasionalmente verá linealización a lo largo de una órbita periódica no constante llamada ciclo límite o incluso una trayectoria arbitraria. This is generally referred to as tracking-control.


    Glosario

    • gramo(X) is an analytic function at the origin (or, more precise, admits the second order Taylor's approximation)
    • as X &rarr 0,

    Example 1: Not almost linear system

    To analyze the trajectories of Eq.eqref, it is convenient to use polar coordinates

    If there exists a &delta: 0 < &delta &le r₀, such that, for any solution path &phi = &langle &phi₁, &phi₂ &rangle of nonlinear system eqref that has at least one point inside the circle 0 < r < &delta, the solution exists over a t half line, and if


    1 respuesta 1

    OK, here's a quick rundown on how I would do this hopefully our OP Mirjan Pecenko can check his own work against what I do here.

    $dot x = xy + 1 = dot y = xy + x = 0 ag 3$

    $xy = -x Longrightarrow -x + 1 = 0 Longrightarrow x = 1, ag 4$

    $xy + 1 = 0 Longrightarrow xy = -1 Longrightarrow y = (1)y = -1 ag 4$

    so it appears the only critical point is at $(1, -1)$. The Jacobean of the vector field

    $vec V(x, y) = egin xy + 1 x + xy end ag 5$

    $J_V(1, -1) = egin (partial(xy + 1)/partial x & (partial(xy + 1)/partial y (partial(xy + x)/partial x & (partial(xy + x)/partial y end_<(1, -1)>$ $= egin y & x y + 1 & x end_ <(1, -1)>= egin -1 & 1 0 & 1 end ag 6$

    it is now obvious that the eigenvalues of $J_V(1, -1)$ are $pm 1$ therefore this point is a saddle the eigenvectors at $(1, -1)$ are $(1, 0)^T$ for $-1$ and $(1/2, 1)^T$ for $1$ it is now easy to sketch a phase portrait for this system, a task I leave to my readers.

    It should be noted that when sketching a phase portrait, it is often helpful to find those curves in $Bbb R^2$ where $dot x = 0$ and/or $dot y = 0$. These curves are useful guides to finding the geometry of the solutions, since they show us where the tangent lines to the integral curves or vertical or horizontal, respectively. When combined with the shapes of the solutions near the critical point provided by the above analysis, we can get a pretty good idea of how the flow will appear. As with any hand-done graphical analysis, care must be taken to ensure that we draw accurately enough to capture only correct features of the trajectories.

    Note Added in Edit, Thursday 14 June 2018 12:35 PM PST: It appears that the notion of isoclines, which proves to be most convenient as a guide to sketching phase portraits, may be generalized in a way which allows the extraction of more information about the integral curves and/or overall shape of the flow of a given vector field. In this problem, isoclines are only exploited in a rather peripheral way, since they are merely mentioned as a sort of after-thought in the comments. Nevertheless, they may be used much more extensively. Indeed, rather than restricting the use of the isocline method to determining the curves on which $dot x = 0$ and/or $dot y = 0$, we may if we so choose deploy it in an attempt to find just where $dot x, dot y$ take on any of their possible values. One technique which can help effect this aim is to use the gradient of the component functions, in this case $xy + 1$ and $xy + x$, to guide us towards regions of greater or lesser component magnitude for example, since

    which indicates the direction in which $dot x$ increases, so that we may, for example, find the directions in which points on the $dot x = 0$ isocline must be moved to make $dot x$ larger. By systematic application of such methodology, quite detailed phase portraits may be had. Unfortunately, at present I lack both the graphics tools and the time to illustrate what I am saying vía pictorial means. End of Note.


    Using basic algebra, we find that the critical points of this system are (0,0), (1,0.25), (1.125,0). These points are marked with red stars on the direction field in part (a).

    Critical Point (0,0)

    Using formula (13) from Section 9.3, we find that the linear system corresponding to the almost linear system at (0,0) is given by the matrix equation

    The eigenvalues and eigenvectors for this linear system are:

    The eigenvalues are real and have opposite signs, so the origin is a saddle point and is thus unstable.

    Critical Point (1.125, 0)

    The almost linear system at (1.125, 0) is given by the matrix equation

    The corresponding eigenvalues for this linear system are:

    The eigenvalues are real and have opposite signs, so this point is also a saddle point and is unstable.

    Critical Point (1, 0.25)

    Again using formula (13) from Section 9.3, we see that linear system that approximates the almost linear system at the critical point (1, 0.25) is:

    This linear system has eigenvalues and eigenvectors:

    The eigenvalues for this linear system are both negative and are unequal, so the point (1, 0.25) is an asymptotically stable node.


    Glosario

    Some situations require more than one differential equation to model a particular situation. We might use a system of differential equations to model two interacting species, say where one species preys on the other. For example, we can model how the population of Canadian lynx (lynx Canadians) interacts with a the population of snowshoe hare (lepus americanis) (see https://www.youtube.com/watch?v=ZWucOrSOdCs).

    A good historical data are known for the populations of the lynx and snowshoe hare from the Hudson Bay Company. This large Canadian retail company, which owns and operates a large number of retail stores in North America and Europe, including Galeria Kaufhof, Hudson's Bay, Home Outfitters, Lord & Taylor, and Saks Fifth Avenue, was originally founded in 1670 as a fur trading company. The Hudson Bay Company kept accurate records on the number of lynx pelts that were bought from trappers from 1821 to 1940. The company noticed that the number of pelts varied from year to year and that the number of lynx pelts reached a peak about every ten years. The ten year cycle for lynx can be best understood using a system of differential equations.

    The primary prey for the Canadian lynx is the snowshoe hare. We will denote the population of hares by H(t) and the population of lynx by L(t), donde t is the time measured in years. We will make the following assumptions for our predator-prey model.

      If no lynx are present, we will assume that the hares reproduce at a rate proportional to their population and are not affected by overcrowding. That is, the hare population will grow exponentially,

    The Lotka--Volterra system of equations is an example of a Kolmogorov model, which is a more general framework that can model the dynamics of ecological systems with predator-prey interactions, competition, disease, and mutualism. The equations which model the struggle for existence of two species (prey and predators) bear the name of two scientists: Lotka (1880--1949) and Volterra (1860--1940). They lived in different countries, had distinct professional and life trajectories, but they are linked together by their interest and results in mathematical modeling.

    The predator–prey model was initially proposed by Alfred J. Lotka in the theory of autocatalytic chemical reactions in 1910. Lotka was born in Lemberg, Austria-Hungary, but his parents immigrated to the US. In 1925, he utilized the equations to analyze predator-prey interactions. Lotka published almost a hundred articles on various themes in chemistry, physics, epidemiology or biology, about half of them being devoted to population issues. He also wrote six books.

    The same set of equations was published in 1926 by Vito Volterra, a mathematician and physicist, who had become interested in mathematical biology because of the impact by the marine biologist Umberto D'Ancona (1896--1964). Vito Volterra was born in Ancona, then part of the Papal States, into a very poor Jewish family. He attended the University of Pisa, where he became professor of rational mechanics in 1883. His most famous work was done on integral equations. In 1892, he became professor of mechanics at the University of Turin and then, in 1900, professor of mathematical physics at the University of Rome La Sapienza. His daughter Luisa married Umberto D’Ancona.

    The predator-prey system of equations was later extended by many researchers, including C. S. Holling, Arditi--Ginzburg model, Rosenzweig-McArthur model, and some others.

    The critical points of the Lotka--Volterra system of equations are the solutions of the algebraic equations

    We may try to find the general solution of the Lotka--Volterra system of equations. From both equations, we get

    Notice that the predator population, L, begins to grow and reaches a peak after the prey population, H reaches its peak. As the prey population declines, the predator population also declines. Once the predator population is smaller, the prey population has a chance to recover that the cycle begins again.

    we can place two plots sude by side:

    1. ( displaystyle 0 < a_1 delta_1 < K left( m_1 - delta_1 ight) ) and
    2. ( displaystyle a_2 delta_2 > K left( m_2 - delta_2 ight) ) or ( b_2 le 1 . )

    Mathematical analysis of the Beddington--DeAngelis system shows that there exist two equilibria (0,0) and ( left( frac , frac ight) = (4,1) , ) being globally stable in the interior of the first quadrant. The eigenvalues of the Jacobian matrix at the origin are ( lambda_1 =1 quadmboxquad lambda_2 =5 , ) and the eigenvalues of the Jacobian at the point (4,1) are given by ( - frac<1> <12>pm <f j>, frac> <12>. )

    1. Barabas, Gyorgy, D'Andrea, Rafael, and Stump, Simon Maccracken, Chesson's coexistence theory, Ecological Monographs, 2018, https://doi.org/10.1002/ecm.1302
    2. Batiha, K., Numerical Solutions of the Multispecies Predator-Prey Model by Variational Iteration Method, Journal of Computer Science, 2007, Vol. 3 (7): 523-527, 2007
    3. Bayliss, A., Nepomnyashchy, A.A., Volpert, V.A., Mathematical modeling of cyclic population dynamics, Physica D: Nonlinear Phenomena, 2019, Volume 394, doi: 10.1016/j.physd.2019.01.010
    4. Dellal, M., Lakrib, M., Sari, T., The operating diagram of a model of two competitors in a chemostat with an external inhibitor, Mathematical Biosciences, 302, No 8, 2018, 27--45.
    5. Dimitrov, D.T. and Kojouharov, H.V., Complete mathematical analysis of predator–prey models with linear prey growth and Beddington–DeAngelis functional response, Applied Mathematics and Computation, 162, (2), 523--538, 2005.
    6. Goel, N.S., Maitra, S.C., and Montroll, E., On the Volterra and other nonlinear models of interacting populations, Reviews of Modern Physics, 1971, Vol. 43, pp. 231-- https://doi.org/10.1103/RevModPhys.43.231
    7. Hsu, S.B., Hubbell, S.P., and Paul Waltman, Competing predators, SIAM Journal on Applied Mathematics, 35, No 4, 1978, 617--625.
    8. Hsu, S.B., Hubbell, S.P., and Paul Waltman, A mathematical theory for single-nutrient competition in continuous cultures of micro-organisms, SIAM Journal on Applied Mathematics, Vol 32, No 2, 1977, 366--383.
    9. Hsu, S.B., Hubbell, S.P., and Paul Waltman, A contribution to the theory of competing predators, Ecological Monographs, Vol 48, No 3, 1978, 337--349.
    10. May, R.M., Leonard, W.J., Nonlinear Aspects of Competition Between Three Species, SIAM Journal on Applied Mathematics, Vol. 29, Issue 2, pp. https://doi.org/10.1137/0129022
    11. Molla, H., Rahman, M.S., Sarwardi, S., Dynamics of a Predator–Prey Model with Holling Type II Functional Response Incorporating a Prey Refuge Depending on Both the Species, International Journal of Nonlinear Sciences and Numerical Simulation, 2018, Vol. 20, No. 1, https://doi.org/10.1515/ijnsns-2017-0224
    12. Olek. S. An accurate solution to the multispecies Lotka-Volterra equations, Revisión SIAM (Society for Industrial and Applied Mathematics), 1994, Vol. 36(3) (1994), 480–488 https://doi.org/10.1137/1036104
    13. Ruan, J., Tan, Y., Zhang, C., A Modified Algorithm for Approximate Solutions of Lotka-Volterra systems, Procedia Engineering, 2011, Volume 15, 2011, Pages 1493-1497 https://doi.org/10.1016/j.proeng.2011.08.277
    14. Scarpello, G.M. and Ritelli, D., A new method for the explicit integration of Lotka--Volterra equations, 2003, Divulgaciones Matematicas, Vol. 11, No. 1, pp. 1--17.
    15. Seo, Gunog and Wolkowicz, Gail S. K., Sensitivity of the dynamics of the general Rosenzweig--MacArthur model to the mathematical form of the functional response: a bifurcation theory approach. Journal of Mathematical Biology, 76, No 7, 2018, 1873--1906.

    Return to Mathematica page
    Return to the main page (APMA0340)
    Return to the Part 1 Matrix Algebra
    Return to the Part 2 Linear Systems of Ordinary Differential Equations
    Return to the Part 3 Non-linear Systems of Ordinary Differential Equations
    Return to the Part 4 Numerical Methods
    Return to the Part 5 Fourier Series
    Return to the Part 6 Partial Differential Equations
    Return to the Part 7 Special Functions


    J. D. Aplevich,Implicit Linear Systems, Lect. Notes in Control & Information Sci No. 152, Springer-Verlag, New York 1991.

    K. E. Brenan, S. L. Campbell and L. R. Petzold,Numerical Solution of Initial-Value Problems in Differential-Algebraic Equations, Elsevier, Amsterdam 1989.

    G. D. Byrne and W. E. Schiesser (eds),Recent Developments in Numerical Methods and Software for ODEs/DAEs/PDEs, World Scientific, Singapore 1991.

    S. L. Campbell,Singular Systems of Differential Equations, Pitman, London 1980.

    S. L. Campbell,Singular Systems of Differential Equations II, Pitman, London 1982.

    S. L. Campbell,The numerical solution of higher index linear time varying singular systems of differential equations, SIAM J. Sci. Stat. Comp. 334–348 (1985).

    S. L. Campbell,Rank deficient least squares and the numerical solution of linear singular implicit systems of differential equations, Contemp. Maths47, 51–63 (1985).

    S. L. Campbell,Consistent initial conditions for linear time varying singular systems, inFrequency Domain and State Space Methods for Linear Systems, Edited by C. I. Byrnes and A. Lindquist, Elsevier Sci Publ, Amsterdam 1986, pp. 313–318.

    S. L. Campbell,A general form for solvable linear time varying singular systems of differential equations, SIAM J. Math. Anal.18, 1101–1115 (1987).

    S. L. Campbell,A computational method for general higher index singular systems of differential equations, 1989 IMACS Transactions Sci. Computing1(2), 555–560 (1989).

    S. L. Campbell,Uniqueness of completions for linear time varying differential algebraic equations, Linear Algebra & Its Appl.161, 55–67 (1992).

    S. L. Campbell,Least squares completions for nonlinear differential algebraic equations, Numer. Matemáticas.65, 77–94 (1993).

    S. L. Campbell and C. W. Gear,The index of general nonlinear DAEs, preprint 1993.

    S. L. Campbell and E. Griepentrog,Solvability of general differential algebraic equations, SIAM J. Sci. Comp., to appear.

    S. L. Campbell and C. D. Meyer, Jr.,Generalized Inverses of Linear Transformations, Dover Press, New York 1991.

    S. L. Campbell and E. Moore,Constraint preserving integrators for general nonlinear higher index DAEs, Numer. Math., to appear.

    S. L. Campbell, E. Moore, and Y. Zhong,Utilization of automatic differentiation in control algorithms, IEEE Trans. Automatic Control39, 1047–1052 (1994).

    S. L. Campbell and W. J. Terrell,Observability of linear time varying descriptor systems, SIAM J. Matrix Analysis12, 484–496 (1991).

    S. L. Campbell, N. K. Nichols, and W. J. Terrell,Duality, observability, and controllability for linear time varying descriptor systems. Circuits Systems & Signal Process.10, 455–470 (1991).

    L. Dai,Singular Control Problems, Springer-Verlag, Berlin 1989.

    E. Griepentrog and R. März,Differential-Algebraic Equations and Their Numerical Treatment, Teubner-Texte zur Mathematik, Band 88, Leipzig 1986.

    E. Hairer, C. Lubich and M. Roche,The Numerical Solution of Differential-Algebraic Systems by Runge-Kutta Methods, Springer-Verlag, New York 1989.

    E. J. Haug and R. C. Deyo, Editors.Real-Time Integration Methods for Mechanical System Simulation, Springer-Verlag Computer & Systems Sci. Vol. 69, 1991.

    H. Krishnan and N. H. McClamroch,Tracking reference inputs in control systems described by a class of nonlinear differential algebraic equations, Proc. 1991 Conf. Dec. & Control.

    R. März,On quasilinear index 2 differential algebraic equations, Seminarberichte Nr. 92-1, Humboldt-Universität zu Berlin, Fachbereich Mathematik 1992, pp. 39–60.

    P. J. Rabier and W. C. Rheinboldt,A general existence and uniqueness theorem for implicit differential algebraic equations, Diff. Int. Eqns.4, 563–582 (1991).

    P. J. Rabier and W. C. Rheinboldt,A geometric treatment of implicit differential-algebraic equations, J. Diff. Eqns. (to appear).

    S. Reich,On a geometric interpretation of differential-algebraic equations, Circuits Systems & Signal Process.9, 367–382 (1990).

    S. Reich,On an existence and uniqueness theory for nonlinear differential-algebraic equations, Circuits Systems & Signal Process.10, 343–359 (1991).

    S. Reich,Symplectic integration of constrained Hamiltonian systems by Runge-Kutta methods, University of British Columbia Dept of Computer Sci. Techn. Rep. 93-13, 1993.

    S. Reich,On the local qualitative behavior of differential-algebraic equations, Circuits Systems & Signal Process, (to appear).

    C. Tischendorf,On stability of solutions of autonomous index-1 tractable and quasilinear index-2-tractable DAEs, Circuits Systems & Signal Process.13, 139–154 (1994).


    Math 216 Demonstrations

    This revisits the 5.2Whales demo, with explicit treatment of the linearization of the system. In scaled variables, we model the populations of krill ((x_1)) and baleen whales ((x_2)) with the system [ egin x_1' &= r_1 x_1 (1 - F_1 - x_1 - u x_2) x_2' &= r_2 x_2 left(1 - F_2 - frac ight), end ] where (r_1), (r_2), (F_1), (F_2) and ( u) are parameters. In this demonstration we take (F_1 = 0.5), (F_2 = 0), ( u = 1), in which case there are the equilibrium solutions ((x_1,x_2) = (1/4,1/4)) and ((x_1,x_2) = (1/2,0)). We consider (r_1 = r_2 = 2/5) and graph the solutions to the problem linearized at the equilibrium points along with trajectories found from the nonlinear system.

    Use Cases

    Lecture: The nonlinear equations may be presented with a minimal explanation of the different terms and used as an example of a system for which critical points and linear behavior there may be found. The demonstrations then graph these behaviors.

    Outside of Lecture: Solve the nonlinear system to find the critical points, and then find the linear systems approximating the nonlinear system at each. Show that the behavior that you see from the linear system is consistent with what the demonstrations show.

    Model Description

    As in 5.2Whales, we consider the interaction between a baleen whale species and its food-source, krill. Baleen whales feed by swimming through seawater in which krill (a crustacean about 5 centimeters long) is found with their mouths open, and then forcing the water out through its baleen, which filters the krill from the water.

    We consider the population of krill to be governed by its growth rate, constrained by environmental resources, and reduced by predation and fishing. Similarly, we take the population of whales to increase with a growth rate and be constrained by an environmental limiting factor inversely proportional to the krill population and reduced by predation.

    ODE Model

    Following 5.2Whales, the krill population (p_1) satisfies a modified logistic equation, [ p_1'(t) = r_1 p_1(t) left( 1 - frac ight) - C p_1(t) p_2(t) - r_1 F_1 p_1(t), ] where (p_2) is the whale population, so that the term (c p_1(t) p_2(t)) is the predation term (predation requires an interaction between the populations, and so is proportional to their product), and (r_1 F_1 p_1(t)) is the fishing term (the amount of krill caught is proportional to their population, and scaled as a fraction (F_1) of their growth rate).

    Similarly, if we assume that the carrying capacity for the whale population is inversely proportional to the krill population, as is suggested in [3], we obtain the equation [ p_2'(t) = r_2 p_2(t) left( 1 - frac ight) - r_2 F_2 p_2(t) ] for (p_2), where the term (r_2 F_2 p_2(t)) is again the fishing term. (This model is developed in [3].)

    We can nondimensionalize the populations (as in [3], [4], or [5]) by taking (x_1(t) = p_1(t)/K) and (x_2(t) = p_2(t)/(alpha K)), that is, by writing the populations as a fraction of their theoretical maxima. Introducing these variables and simplifying, we obtain the system [ egin x_1' &= r_1 x_1 (1 - F_1 - x_1 - u x_2) x_2' &= r_2 x_2 left(1 - F_2 - frac ight), end ] where ( u = Calpha K/r_1). Solving for the equilibrium solutions, we find there is a single non-zero equilibrium at [ x_1 = frac<1 - F_1><1 + u(1 - F_2)>,qquad x_2 = frac<(1 - F_1)(1 - F_2)><1 + u(1 - F_2)>. ] We will consider solutions near this equilibrium solution. There is a second equilibrium with (x_2 = 0), (x_1 = 1 - F_1 = 1/2), which we may consider as well.

    Near the equilibrium solution ((1/4,1/4)), and taking ( u = 1) (as in [3]), (r_2 = 0.4) (which is suggested by [6]), (F_2 = 0) (assuming that the whaling ban is actually observed) and the somewhat arbitrarily chosen value (F_1 = 0.5), we obtain the linearized system [ egin u_1' &= -frac14 r_1 u_1 - frac14 r_1 u_2 u_2' &= frac25 u_1 - frac25 u_2, end ] where (u_1) and (u_2) are the displacements from the equilibrium solution (in the scaled variables, ((1/4, 1/4))). We note that (u_1=0) and (u_2=0) corresponds to (x_1) and (x_2) being equal to their equlibrium values, (1/4). With (r_1 = 0.4) as well, the eigenvalues of the coefficient matrix are (lambda = -frac14pm ifrac><20>).

    Similarly, near ((1/2, 0)), we have the coefficient matrix (egin -r_1/2 & -r_1/2 0 & r_2end), and with (r_1 = r_2 = 0.4), eigenvalues are (lambda = -frac15, frac25).

    Matlab Demos

    Our demonstrations here show the solutions near each equilibrium solution, and those solutions in the full phase plane.

      Whales_Krill_Coexist.m: A demonstration that looks at the solutions near the coexistence point. The solutions to the linearized system are graphed in and the corresponding trajectory shown in the phase plane, along with a number of other representative trajectories. These are compared with the solution to the nonlinear problem, and then numerical solutions to the nonlinear system are shown for a number of initial conditions in the phase plane. Nota: also requires the file plot_localtraj.m. [show figure]

    Looking at the Model

    Some questions that may be worth considering:

    • What do the phase portraits near the equilibrium solutions tell us about the behavior of the system for the full phase plane?
    • How do we determine the direction of the spiral trajectories that occur when there are complex eigenvalues?

    Referencias

    1. Wikipedia, Blue Whale. Wikipedia.org. Retrieved on: 23 Oct 2012
    2. Wikipedia, Fin Whale. Wikipedia.org. Retrieved on: 23 Oct 2012
    3. May, R.M., Beddington, J.R., Clark, C.W., Holt, S.J. and R.M. Laws (July 1979). "Management of Multispecies Fisheries." Science205(4403): 267-277.
    4. Edelstein-Keshet, L. Mathematical Models in Biology, SIAM Classics in Applied Mathematics 46. SIAM, 2005.
    5. Greenwell, R.N. Whales and Krill: A Mathematical Model, UMAP Module 610. COMAP, 1983.
    6. Beddington, J.R., and R.M. May (November 1982). "The Harvesting of Interacting Species in a Natural Ecosystem." Scientific American. November 1982: 62-69.



Comentarios:

  1. Taran

    ¡Realmente util! Y luego cuanto no subes no hay continuo bla bla bla. ¡Pero no aquí, y agrada!

  2. Rufford

    ¿Qué tiene eso de gracioso?

  3. Chepito

    pensamiento muy útil



Escribe un mensaje