Artículos

1.1: Preludio a los vectores en el espacio - Matemáticas


Los observatorios astronómicos modernos a menudo consisten en una gran cantidad de reflectores parabólicos, conectados por computadoras, que se utilizan para analizar ondas de radio. Si la superficie de uno de los reflectores parabólicos se describe mediante la ecuación ( frac {x ^ 2} {100} + frac {y ^ 2} {100} = frac {z} {4}, ) donde Cuál es el punto focal del reflector? (Ver [enlace]).

Ahora estamos a punto de comenzar una nueva parte del curso de cálculo, cuando estudiamos funciones de dos o tres variables independientes en el espacio multidimensional. Muchos de los cálculos son similares a los del estudio de funciones de una sola variable, pero también hay muchas diferencias. En este primer capítulo, examinamos los sistemas de coordenadas para trabajar en un espacio tridimensional, junto con los vectores, que son una herramienta matemática clave para tratar con cantidades en más de una dimensión. Comencemos aquí con las ideas básicas y avancemos hacia las herramientas más generales y poderosas de las matemáticas en capítulos posteriores.

Colaboradores

  • Gilbert Strang (MIT) y Edwin “Jed” Herman (Harvey Mudd) con muchos autores contribuyentes. Este contenido de OpenStax tiene una licencia CC-BY-SA-NC 4.0. Descárguelo gratis en http://cnx.org.


Vector ortogonal & # 8211 Explicación y ejemplos

En el ámbito de la geometría vectorial, hemos cubierto casi todos los conceptos de vectores. Cubrimos vectores normales, ecuaciones vectoriales, productos escalares vectoriales y muchos otros. Pero uno de los conceptos más importantes en este dominio es la comprensión de un vector ortogonal.

Los vectores ortogonales se definen como:

"2 vectores se denominan ortogonales si son perpendiculares entre sí y, después de realizar el análisis del producto escalar, el producto que producen es cero".

En este tema, nos centraremos en las siguientes áreas:

  • ¿Qué es un vector ortogonal?
  • ¿Cómo encontrar el vector ortogonal?
  • ¿Cuáles son las propiedades de un vector ortogonal?
  • Ejemplos de
  • Problemas de práctica

1.1: Preludio a los vectores en el espacio - Matemáticas

Esta sección está destinada a ser un truco para muchos de los conceptos básicos que se utilizan ocasionalmente al trabajar con sistemas de ecuaciones diferenciales. No habrá muchos detalles en esta sección, ni trabajaremos con una gran cantidad de ejemplos. Además, en muchos casos no veremos el caso general, ya que no necesitaremos que los casos generales en nuestro trabajo de ecuaciones diferenciales.

Comencemos con algo de la notación básica para matrices. An (n times m ) (esto a menudo se llama Talla o dimensión de la matriz) matriz es una matriz con (n ) filas y (m ) columnas y la entrada en el (i ^ < text> ) fila y (j ^ < text> ) columna se denota por (a_). Un método abreviado para escribir una matriz (n times m ) general es el siguiente.

El tamaño o dimensión de una matriz se subindica como se muestra si es necesario. Si no es necesario o no se elimina el problema, el tamaño con subíndice a menudo se elimina de la matriz.

Matrices especiales

Existen algunas matrices "especiales" que podemos usar en ocasiones. La primera matriz especial es la matriz cuadrada. Una matriz cuadrada es cualquier matriz cuyo tamaño (o dimensión) es (n por n ). En otras palabras, tiene el mismo número de filas que de columnas. En una matriz cuadrada, la diagonal que comienza en la parte superior izquierda y termina en la parte inferior derecha a menudo se llama diagonal principal.

Las siguientes dos matrices especiales que queremos ver son la matriz cero y la matriz identidad. La matriz cero, denotado (0_), es una matriz cuyas entradas son ceros. La matriz de identidad es una matriz cuadrada (n veces n ), denotada (I_), cuyas diagonales principales son todos unos y todos los demás elementos son cero. Aquí están las matrices de identidad y cero generales.

En aritmética matricial, estas dos matrices actuarán en el trabajo matricial como cero y una actuará en el sistema de números reales.

Las dos últimas matrices especiales que veremos aquí son las matriz de columna y el matriz de filas. Son matrices que constan de una sola columna o una sola fila. En general, son,

A menudo nos referiremos a estos como vectores.

Aritmética

A continuación, debemos echar un vistazo a la aritmética que involucra matrices. Comenzaremos con adición y sustracción de dos matrices. Entonces, suponga que tenemos dos matrices (n times m ), (A ) y (B ). La suma (o diferencia) de estas dos matrices es entonces,

La suma o diferencia de dos matrices del mismo tamaño es una nueva matriz de idéntico tamaño cuyas entradas son la suma o diferencia de las entradas correspondientes de las dos matrices originales. Tenga en cuenta que no podemos sumar ni restar entradas con diferentes tamaños.

A continuación, veamos multiplicación escalar. En la multiplicación escalar vamos a multiplicar una matriz (A ) por una constante (a veces llamada escalar) ( alpha ). En este caso, obtenemos una nueva matriz cuyas entradas se han multiplicado por la constante, ( alpha ).

No hay mucho que hacer aquí aparte del trabajo.

Primero multiplicamos todas las entradas de (B ) por 5 y luego restamos las entradas correspondientes para obtener las entradas en la nueva matriz.

La operación matricial final que veremos es multiplicación de matrices. Aquí comenzaremos con dos matrices, (A_) y B_

). Tenga en cuenta que (A ) debe tener el mismo número de columnas que (B ) tiene filas. Si esto no es cierto, entonces no podemos realizar la multiplicación. Si es cierto, entonces podemos realizar la siguiente multiplicación.

La nueva matriz tendrá un tamaño (n veces m ) y la entrada en el (i ^ < text> ) fila y (j ^ < text> ) columna, (c_), se obtiene multiplicando la fila (i ) de la matriz (A ) por la columna (j ) de la matriz (B ). Esto no siempre tiene sentido en palabras, así que veamos un ejemplo.

La nueva matriz tendrá un tamaño (2 times 4 ). La entrada en la fila 1 y la columna 1 de la nueva matriz se hallará multiplicando la fila 1 de (A ) por la columna 1 de (B ). Esto significa que multiplicamos las entradas correspondientes de la fila de (A ) y la columna de (B ) y luego sumamos los resultados. Aquí hay un par de entradas calculadas hasta el final.

[empezar> & = izquierda (2 derecha) izquierda (1 derecha) + izquierda (<- 1> derecha) izquierda (<- 4> derecha) + izquierda (0 derecha) izquierda (0 derecha) = 6 > & = izquierda (2 derecha) izquierda (<- 1> derecha) + izquierda (<- 1> derecha) izquierda (1 derecha) + izquierda (0 derecha) izquierda (0 right) = - 3 > & = izquierda (<- 3> derecha) izquierda (2 derecha) + izquierda (6 derecha) izquierda (0 derecha) + izquierda (1 derecha) izquierda (<- 2> right) = - 8 end]

Aquí está la solución completa.

En este último ejemplo observe que no podríamos haber hecho el producto licenciado en Letras ya que el número de columnas de (B ) no coincide con el número de filas de (A ). Es importante notar que el hecho de que podamos calcular (AB ) no significa que podamos calcular (BA ). Del mismo modo, incluso si podemos calcular tanto (AB ) como (BA ), pueden ser o no la misma matriz.

Determinante

El siguiente tema que debemos analizar es el determinante de una matriz. El determinante es en realidad una función que toma una matriz cuadrada y la convierte en un número. La fórmula real para la función es algo compleja y definitivamente más allá del alcance de esta revisión.

El método principal para calcular los determinantes de cualquier matriz cuadrada se llama método de cofactores. Dado que vamos a tratar casi exclusivamente con matrices (2 times 2 ) y la matriz ocasional (3 times 3 ), no entraremos en el método aquí. Podemos dar fórmulas sencillas para cada uno de estos casos. La notación estándar para el determinante de la matriz (A ) es.

[ det left (A right) = left | A derecha | ]

Aquí están las fórmulas para el determinante de las matrices (2 times 2 ) y (3 times 3 ).

Para el (2 times 2 ) no hay mucho que hacer más que insertarlo en la fórmula.

[ det left (A right) = left | < comenzar<*<20>> <- 9> & amp <- 18> 2 & amp4 end> derecha | = izquierda (<- 9> derecha) izquierda (4 derecha) - izquierda (<- 18> derecha) izquierda (2 derecha) = 0 ]

Para el caso (3 times 3 ) podríamos insertarlo en la fórmula, sin embargo, a diferencia del caso (2 times 2 ), esta no es una fórmula fácil de recordar. Existe una forma más sencilla de obtener el mismo resultado. Una forma más rápida de obtener el mismo resultado es hacer lo siguiente. Primero escriba la matriz y pegue una copia de las dos primeras columnas al final de la siguiente manera.

Ahora, observe que hay tres diagonales que van de izquierda a derecha y tres diagonales que van de derecha a izquierda. Lo que hacemos es multiplicar las entradas en cada diagonal hacia arriba y si la diagonal corre de izquierda a derecha las sumamos y si la diagonal corre de derecha a izquierda las restamos.

Aquí está el trabajo para esta matriz.

[empezar det left (B right) & = left | < comenzar<*<20>> 2 & amp3 & amp1 <- 1> & amp <- 6> & amp7 4 & amp5 & amp <- 1> end> right | , , , , begin<*<20>> 2 & amp3 <- 1> & amp <- 6> 4 & amp5 end & amp = left (2 right) left (<- 6> right) left (<- 1> right) + left (3 right) left (7 right) left (4 right) + left (1 right) left (<- 1> right) left (5 right) - & amp hspace <0.25in> hspace <0.25in> hspace <0.25in> izquierda (3 derecha) izquierda (<- 1> derecha) izquierda (<- 1> derecha) - izquierda (2 derecha) izquierda (7 derecha) izquierda (5 derecha) - left (1 right) left (<- 6> right) left (4 right) & amp = 42 end]

Puede usar la fórmula o el atajo para obtener el determinante de a (3 times 3 ).

Si el determinante de una matriz es cero, llamamos a esa matriz singular y si el determinante de una matriz no es cero, llamamos a la matriz no singular. La matriz (2 times 2 ) en el ejemplo anterior era singular, mientras que la matriz (3 times 3 ) no es singular.

Matriz inversa

A continuación, debemos echar un vistazo a inverso de una matriz. Dada una matriz cuadrada, (A ), de tamaño norte x (n ) si podemos encontrar otra matriz del mismo tamaño, (B ) tal que,

entonces llamamos (B ) el inverso de (A ) y denotarlo por (B = A ^ <-1> ).

Calcular la inversa de una matriz, (A ), es bastante simple. Primero, formamos una nueva matriz,

y luego use las operaciones de fila de la sección anterior e intente convertir esta matriz en el formulario,

Si podemos, entonces (B ) es el inverso de (A ). Si no podemos, entonces no hay inversa de la matriz (A ).

Primero formamos la nueva matriz agregando la matriz identidad (3 times 3 ) a esta matriz. Esto es

Ahora usaremos operaciones de fila para intentar convertir las primeras tres columnas a la identidad (3 times 3 ). En otras palabras, queremos un 1 en la diagonal que comienza en la esquina superior izquierda y ceros en todas las demás entradas en las primeras tres columnas.

Si lo piensas bien, este proceso es muy similar al proceso que usamos en la última sección para resolver sistemas, solo va un poco más allá. Aquí está el trabajo para este problema.

Entonces, pudimos convertir las primeras tres columnas en la matriz identidad (3 times 3 ), por lo tanto, existe la inversa y es,

Entonces, hubo un ejemplo en el que sí existía lo inverso. Echemos un vistazo a un ejemplo en el que la inversa no existe.

En este caso, agregaremos la identidad (2 times 2 ) para obtener la nueva matriz y luego intentaremos convertir las dos primeras columnas a la matriz identidad (2 times 2 ).

Y no necesitamos ir más lejos. Para que la identidad (2 times 2 ) esté en las dos primeras columnas, debemos tener un 1 en la segunda entrada de la segunda columna y un 0 en la segunda entrada de la primera columna. Sin embargo, no hay forma de obtener un 1 en la segunda entrada de la segunda columna que mantendrá un 0 en la segunda entrada de la primera columna. Por lo tanto, no podemos obtener la identidad (2 times 2 ) en las dos primeras columnas y, por lo tanto, la inversa de (B ) no existe.

Dejaremos esta discusión de inversas con el siguiente hecho.

Dejaré que usted verifique este hecho en los dos ejemplos anteriores.

Sistemas de ecuaciones revisados

Necesitamos hacer una revisión rápida de los sistemas de ecuaciones. Comencemos con un sistema general de ecuaciones.

Ahora, convierta cada lado en un vector para obtener,

El lado izquierdo de esta ecuación se puede considerar como una multiplicación de matrices.

Simplificar un poco la notación da,

donde, ( vec x ) es un vector cuyos componentes son las incógnitas en el sistema original de ecuaciones. Llamamos ( eqref) la forma matricial del sistema de ecuaciones ( eqref) y resolviendo ( eqref) es equivalente a resolver ( eqref). El proceso de resolución es idéntico. La matriz aumentada para ( eqref) es

Una vez que tenemos la matriz aumentada, procedemos como lo hicimos con un sistema que no se ha escrito en forma de matriz.

También tenemos el siguiente hecho sobre las soluciones a ( eqref).

Dado el sistema de ecuación ( eqref) tenemos una de las siguientes tres posibilidades de solución.

    No habrá soluciones.

De hecho, podemos ir un poco más lejos ahora. Dado que asumimos que tenemos el mismo número de ecuaciones que incógnitas, la matriz (A ) en ( eqref) es una matriz cuadrada, por lo que podemos calcular su determinante. Esto da el siguiente hecho.

Dado el sistema de ecuaciones en ( eqref) tenemos lo siguiente.

    Si (A ) no es singular, habrá exactamente una solución para el sistema.

La forma matricial de un sistema homogéneo es

donde ( vec 0 ) es el vector de todos los ceros. En el sistema homogéneo tenemos la garantía de tener una solución, ( vec x = vec 0 ). El hecho anterior para sistemas homogéneos es entonces,

Dado el sistema homogéneo ( eqref) tenemos lo siguiente.

    Si (A ) no es singular, entonces la única solución será ( vec x = vec 0 ).

Independencia lineal / Dependencia lineal

Esta no es la primera vez que vemos este tema. También vimos la independencia lineal y la dependencia lineal cuando buscábamos ecuaciones diferenciales de segundo orden. En esa sección estábamos tratando con funciones, pero el concepto es esencialmente el mismo aquí. Si comenzamos con (n ) vectores,

Si podemos encontrar constantes, (c_ <1> ), (c_ <2> ),…, (c_) con al menos dos distintos de cero tales que

entonces llamamos a los vectores linealmente dependientes. Si las únicas constantes que funcionan en ( eqref) son (c_ <1> = 0 ), (c_ <2> ) = 0,…, (c_= 0 ) entonces llamamos a los vectores linealmente independientes.

Si además asumimos que cada uno de los (n ) vectores tiene (n ) componentes, es decir. cada uno de los vectores se ve así,

podemos obtener una prueba muy simple de independencia lineal y dependencia lineal. Tenga en cuenta que este no tiene por qué ser el caso, pero en todo nuestro trabajo trabajaremos con (n ) vectores, cada uno de los cuales tiene (n ) componentes.

Dados los (n ) vectores, cada uno con (n ) componentes,

Entonces, la matriz (X ) es una matriz cuyo (i ^ < text> ) columna es la (i ^ < text> ) vector, (< vec x_i> ). Luego,

    Si (X ) no es singular (es decir. ( det (X) ) no es cero) entonces los vectores (n ) son linealmente independientes, y

donde ( vec c ) es un vector que contiene las constantes en ( eqref).

Entonces, lo primero que debe hacer es formar (X ) y calcular su determinante.

Esta matriz no es singular, por lo que los vectores son linealmente independientes.

Como en el último ejemplo, primero forme (X ) y calcule su determinante.

Entonces, estos vectores son linealmente dependientes. Ahora necesitamos encontrar la relación entre los vectores. Esto significa que necesitamos encontrar constantes que hagan ( eqref) cierto.

Entonces, necesitamos resolver el sistema

Aquí está la matriz aumentada y el trabajo de solución para este sistema.

Ahora, nos gustaría valores reales para las constantes, así que si usamos ( = 3 ) obtenemos la siguiente solución ( = - 2),( = 1 ) y ( = 3 ). La relación es entonces.

Cálculo con matrices

Realmente no hay mucho en esto más que asegurarnos de que podemos lidiar con el cálculo con matrices.

Primero, hasta este punto solo hemos visto matrices con números como entradas, pero las entradas en una matriz también pueden ser funciones. Entonces, podemos mirar las matrices en la siguiente forma,

Ahora podemos hablar de diferenciar e integrar una matriz de esta forma. Para diferenciar o integrar una matriz de esta forma, todo lo que hacemos es diferenciar o integrar las entradas individuales.

Entonces, cuando nos encontremos con este tipo de cosas, no se emocionen por ello. Simplemente diferencie o integre como lo haríamos normalmente.

En esta sección vimos un conjunto muy condensado de temas del álgebra lineal. Cuando volvamos a las ecuaciones diferenciales, muchos de estos temas aparecerán ocasionalmente y al menos necesitará saber qué significan las palabras.

Sin embargo, el tema principal del álgebra lineal que debes conocer si vas a poder resolver sistemas de ecuaciones diferenciales es el tema de la siguiente sección.


1.1: Preludio a los vectores en el espacio - Matemáticas

Para comprender el concepto detrás del aprendizaje automático, así como del aprendizaje profundo, Álgebra lineal principios, son cruciales. El álgebra lineal es una rama de las matemáticas que permite definir y realizar operaciones sobre coordenadas de dimensiones superiores e interacciones planas de forma concisa. Su enfoque principal está en los sistemas de ecuaciones lineales.

  • ¿Idea detrás del vector base?
  • Definición de vector base
  • Propiedades del vector base
  • Vectores base para un espacio dado
  • Es importante desde el punto de vista de la ciencia de datos

¿Cuál es la idea detrás de los vectores base?
Entonces, la idea aquí es la siguiente,

Tomemos un espacio R-cuadrado que básicamente significa que estamos viendo vectores en 2 dimensiones. Significa que hay 2 componentes en cada uno de estos vectores como hemos tomado en la imagen de arriba. Podemos tomar muchos vectores. Entonces, habrá un número infinito de vectores, que estarán en 2 dimensiones. Entonces, el punto es si podemos representar todos estos vectores usando algunos elementos básicos y luego alguna combinación de estos elementos básicos.

Ahora, consideremos 2 vectores, por ejemplo,

Ahora, si toma cualquier vector dado en el espacio R al cuadrado, digamos tomar
Podemos escribir este vector como una combinación lineal de este vector más este vector de la siguiente manera.

Del mismo modo, si toma

También podemos escribir este vector como una combinación lineal de este vector más este vector de la siguiente manera.

Similar,

Y eso sería cierto para cualquier vector que tenga en este espacio.

Entonces, en cierto sentido, lo que decimos es que estos 2 vectores (v1 y v2) caracterizan el espacio o forman una base para el espacio y cualquier vector en este espacio, puede simplemente escribirse como una combinación lineal de estos 2 vectores. Ahora puedes notar que las combinaciones lineales son en realidad los números mismos. Entonces, por ejemplo, si quiero vector (2, 1) para ser escrito como una combinación lineal de la vector (1, 0) y vector (0, 1), los múltiplos escalares son 2 y 1 que es similar para vector (4, 4) y así.

Entonces, el punto clave es que si bien tenemos un número infinito de vectores aquí, todos se pueden generar como una combinación lineal de solo 2 vectores y hemos visto aquí que estos 2 vectores son vector (1, 0) y vector (0, 1). Ahora, estos 2 vectores se llaman base para todo el espacio.

Definición de vector base: Si puede escribir cada vector en un espacio dado como una combinación lineal de algunos vectores y estos vectores son independientes entre sí, entonces los llamamos vectores base para ese espacio dado.

  1. Los vectores base deben ser linealmente independientes entre sí:
    Si multiplico v1 por cualquier escalar, nunca podré obtener el vector v2. Y eso prueba que v1 y v2 son linealmente independientes entre sí. Queremos que los vectores base sean linealmente independientes entre sí porque queremos que todos los vectores, es decir, que la base genere información única. Si se vuelven dependientes entre sí, entonces este vector no traerá nada único.
  2. Los vectores básicos deben abarcar todo el espacio:
    La palabra span básicamente significa que cualquier vector en ese espacio, puedo escribir como una combinación lineal de los vectores base como vemos en nuestro ejemplo anterior.
  3. Los vectores básicos no son únicos: Se pueden encontrar muchos conjuntos de vectores básicos. Las únicas condiciones son que deben ser linealmente independientes y abarcar todo el espacio. Así que vamos a entender esta propiedad en detalle tomando el mismo ejemplo que hemos tomado antes.

Consideremos otros 2 vectores linealmente independientes entre sí.

Primero tenemos que comprobar si estos 2 vectores obedecen a las propiedades del vector base.
Puede ver que estos 2 vectores son linealmente independientes entre sí al multiplicar v1 por cualquier escalar que nunca haya podido obtener el vector v2. Entonces, por ejemplo, si multiplico v1 por -1 obtendré vector (-1, -1), pero no el vector (1, -1).

Para verificar la segunda propiedad, deje que & # 8217s tome el vector (2, 1). Ahora, veamos si podemos representar este vector (2, 1) como una combinación lineal de la vector (1, 1) y vector (1, -1).

Entonces, si echas un vistazo a esto, hemos representado con éxito este vector (2, 1) como una combinación lineal de la vector (1, 1) y vector (1, -1). Puede notar que en el caso anterior cuando usamos el vector (1, 0) y vector (0, 1), dijimos que esto se puede escribir 2 veces de vector (1, 0) y 1 vez de vector (0, 1) sin embargo, las cifras han cambiado ahora. No obstante, puedo escribir esto como una combinación lineal de estos 2 vectores básicos.

Del mismo modo, si toma el vector (1,3)

Del mismo modo, si toma el vector (4,4)
Entonces, esta es otra combinación lineal de los mismos vectores base. Entonces, el punto clave que quiero señalar aquí es que los vectores base no son únicos. Hay muchas formas en las que puede definir los vectores base, sin embargo, todos comparten la misma propiedad de que, si tengo un conjunto de vectores que llamo como vector base, esos vectores tienen que ser independientes entre sí y deben abarcar todo el espacio.

Punto para recordar:
Una cosa interesante a tener en cuenta aquí es que no podemos tener 2 conjuntos de bases que tengan un número diferente de vectores. Lo que quiero decir aquí es en el ejemplo anterior, aunque los vectores base eran v1 (1, 0) y v2 (0, 1) solo había 2 vectores. De manera similar, en este caso, los vectores base son v1 (1, 1) y v2 (1, -1). Sin embargo, todavía hay solo 2 vectores. Entonces, si bien podría tener muchos conjuntos de vectores básicos, todos ellos equivalentes al número de vectores en cada conjunto serán iguales, no pueden ser diferentes. Entonces algo que debes tener en cuenta que para un mismo espacio no puedes tener 2 conjuntos de bases uno con n vectores y otro con m vectores que no es posible. Entonces, si es un conjunto básico para el mismo espacio, el número de vectores en cada conjunto debería ser el mismo.

Encontrar vectores base:

  • Paso 1: Para encontrar los vectores base del conjunto de vectores dado, organice los vectores en forma de matriz como se muestra a continuación.
  • Paso 2: Encuentre el rango de esta matriz.
    Si identifica el rango de esta matriz, le dará el número de columnas linealmente independientes. El rango de la matriz nos dirá cuántas son fundamentales para explicar todas estas columnas y cuántas columnas necesitamos. Entonces, podemos generar las columnas restantes como una combinación lineal de estas columnas.

Explicación:
Si el rango de la matriz es 1, entonces solo tenemos 1 vector base, si el rango es 2, entonces hay 2 vectores base, si 3, entonces hay 3 vectores base y así sucesivamente. En este caso, dado que el rango de la matriz resulta ser 2, solo hay 2 vectores de columna que necesito para representar cada columna en esta matriz. Entonces, el conjunto base tiene tamaño 2. Entonces, podemos elegir 2 columnas linealmente independientes aquí y luego esas podrían ser los vectores base.

Entonces, por ejemplo, podríamos elegir v1 (6, 5, 8, 11) y v2 (1, 2, 3, 4) y digamos, este es el vector base para todas estas columnas o podríamos elegir v1 (3, -1, -1, -1) y v2 (7, 7, 11, 15) y así. Podemos elegir 2 columnas cualesquiera siempre que sean linealmente independientes entre sí y esto es algo que sabemos desde arriba que los vectores base no necesitan ser únicos. Entonces, elijo 2 columnas linealmente independientes que representen estos datos.

Importante desde el punto de vista de la ciencia de datos
Ahora, déjeme explicarle por qué este concepto de vectores base es muy importante desde el punto de vista de la ciencia de datos. Solo eche un vistazo al ejemplo anterior. Tenemos 10 muestras y queremos almacenar estas 10 muestras ya que cada muestra tiene 4 números, estaríamos almacenando 4 x 10 = 40 números.
Ahora, supongamos que hacemos el mismo ejercicio para estas 10 muestras y luego encontramos que solo tenemos 2 vectores básicos, que serán 2 vectores de este conjunto. Lo que podríamos hacer es almacenar estos 2 vectores base que serían 2 x 4 = 8 números y para las 8 muestras restantes, en lugar de almacenar todas las muestras y todos los números en cada una de estas muestras, lo que podríamos hacer es que para cada muestra podríamos almacenar 2 números, que son las combinaciones lineales que vamos a usar para construir esto. Entonces, en lugar de almacenar estos 4 números, simplemente podríamos almacenar esas 2 constantes y como ya hemos almacenado los vectores base, siempre que queramos reconstruir esto, simplemente podemos tomar la primera constante y multiplicarla por v1 más la segunda constante multiplicar por v2 y obtendremos este número.

Almacenamos 2 vectores básicos que me dan: 4 x 2 = 8 números
Y luego, para las 8 muestras restantes, simplemente almacenamos 2 constantes, por ejemplo: 8 x 2 = 16 números
Entonces, esto nos daría: 8 + 16 = 24 números
Por lo tanto, en lugar de almacenar 4 x 10 = 40 números, podemos almacenar solo 24 números, que es aproximadamente la mitad de la reducción del número. Y podremos reconstruir todo el conjunto de datos almacenando solo 24 números.

Entonces, por ejemplo, si tiene un vector de 30 dimensiones y los vectores base son solo 3, entonces puede ver el tipo de reducción que obtendrá en términos de almacenamiento de datos. Entonces, este es un punto de vista de la ciencia de datos.

  • Puede identificar esta base para identificar un modelo entre estos datos.
  • Puede identificar una base para realizar la reducción de ruido en los datos.

¡Atención lector! Don & rsquot deje de aprender ahora. Obtenga todos los conceptos importantes de aprendizaje automático con el Curso básico de aprendizaje automático a un precio asequible para los estudiantes y prepárese para la industria.


Método de Gram-Schmidt

En cualquier producto Interno espacio, podemos elegir la base sobre la que trabajar.

Un espacio interior del producto es un espacio vectorial real $ V $ con un producto interno. Recuerde que un producto interno lt cdot, cdot & gt $ es una función que, para cada par de vectores $ < bf u>, < bf v> en V $, asigna un número real de tal manera que

A menudo, simplifica enormemente los cálculos para trabajar de forma ortogonal. Por un lado, si $ S = << bf v> _1, < bf v> _2, dots, < bf v> _n > $ es un ortogonal base para un espacio de producto interno $ V $, lo que significa que todos los pares de vectores distintos en S son ortogonales: $ & lt < bf v> _i, < bf v> _j & gt = 0 < small textrm > < bf v> _i, < bf v> _j en S. $
entonces es muy sencillo expresar cualquier vector $ < bf w> en V $ como una combinación lineal de los vectores en $ S $:

$ w = frac < langle < bf w>, < bf v> _1 rangle> < | < bf v> _1 | ^ <2>> < bf v> _1 + frac < langle < bf w>, < bf v> _2 rangle> < | < bf v> _2 | ^ <2>> < bf v> _2 + cdots + frac < langle < bf w>, < bf v> _n rangle> < | < bf v> _n | ^ <2>> < bf v> _n. $ Dada una base arbitraria $ << bf u> _1, < bf u> _2, ldots, < bf u> _n > $ para un espacio de producto interno $ n $ -dimensional $ V $, el Algoritmo de Gram-Schmidt construye una base ortogonal $ << bf v> _1, < bf v> _2, ldots, < bf v> _n > $ para $ V $:

Paso 2 Sea $ < bf v> _2 = < bf u> _2 & # 8211 mbox_> < bf u> _2 = < bf u> _2 & # 8211 frac < langle < bf u> _2, < bf v> _1 rangle> < | < bf v> _1 | ^ <2>> < bf v> _1 $ donde $ W_1 $ es el espacio entre $ < bf v> _1 $ y $ mbox_> < bf u> _2 $ es el proyección ortogonal de $ < bf u> _2 $ en $ W_1 $.

De acuerdo con el Teorema de proyección, si $ W $ es un subespacio de dimensión finita de un espacio de producto interno $ V $, entonces cada vector $ < bf u> en V $ puede expresarse de forma única como $ < bf u> = < bf w> _1 + < bf w> _2, $ donde $ < bf w> _1 en W $ y $ < bf w> _2 $ es ortogonal a $ W $. El vector $ < bf w> _1 $ se llama proyección ortogonal de $ < bf u> $ en $ W $ y se denota por $ < bf w> _1 = textrm_ < bf u> $.

Continúe este proceso hasta $ < bf v> _n $. El conjunto ortogonal resultante $ left << bf v> _1, < bf v> _2, ldots, < bf v> _n right > $ consta de $ n $ vectores linealmente independientes en $ V $ y entonces forma una base ortogonal para $ V $.

Notas

  • Para obtener un ortonormal base, que es un conjunto ortogonal en el que cada vector tiene la norma 1, para un espacio de producto interno $ V $, utilice el algoritmo de Gram-Schmidt para construir una base ortogonal. Luego, simplemente normalice cada vector en la base.

Ejemplo

Sea $ V = R ^ <3> $ con el producto interior euclidiano. Aplicaremos el algoritmo de Gram-Schmidt para ortogonalizar la base $ left <(1, -1,1), (1,0,1), (1,1,2) right > $.

Puede verificar que $ left <(1, -1,1), ( frac <1> <3>, frac <2> <3>, frac <1> <3>), ( frac <-1><2>,0,frac<1> <2>) right > $ forma una base ortogonal para $ R ^ <3> $. Normalizando los vectores en la base ortogonal, obtenemos la base ortonormal $ left < left ( frac < sqrt <3>> <3>, frac <- sqrt <3>> <3>, frac > <3> right), left ( frac < sqrt <6>> <6>, frac < sqrt <6>> <3>, frac < sqrt <6 >> <6> right), left ( frac <- sqrt <2>> <2>, 0, frac < sqrt <2>> <2> right) right >. PS

Conceptos clave

Dada una base arbitraria $ left << bf u> _1, < bf u> _2, ldots, < bf u> _n right > $ para un espacio de producto interno $ n $ -dimensional $ V $ , la

Algoritmo de Gram-Schmidt

construye una base ortogonal $ left << bf v> _1, < bf v> _2, ldots, < bf v> _n right > $ para $ V $:


Distancia de un vector a un subespacio

¿Necesito encontrar un punto $ a $ en el subespacio $ U $ y escribir el vector $ a-v $ y encontrar su longitud?

Sudharaka

Miembro conocido

Encuentre la distancia desde un vector $ v = (2,4,0, -1) $ al subespacio $ U subset R ^ 4 $ dado por el siguiente sistema de ecuaciones lineales:
$ 2x_1 + 2x_2 + x_3 + x_4 = 0 $
$ 2x_1 + 4x_2 + 2x_3 + 4x_4 = 0 $

¿Necesito encontrar un punto $ a $ en el subespacio $ U $ y escribir el vector $ a-v $ y encontrar su longitud?

Sea ((X, , d) ) un espacio métrico y (U subconjunto X ). La distancia entre un punto (a en X ) y (U ) se define como,

En el problema dado (v = (2,4,0, -1) ) y tome cualquier vector (u = (x_1, , x_2, , x_3, , x_4) in U ). Luego,

Esto le daría una función cuadrática con cuatro variables. Dado que (v ) satisface las ecuaciones dadas, puedes reducir eso a una cuadrática con dos variables. Luego, encuentre el mínimo de esa cuadrática (sugerencia: use la prueba de la segunda derivada parcial).

Evgeny.Makarov

Miembro conocido

También puede utilizar el hecho de que el vector más corto que conecta $ v $ con $ U $ es perpendicular a $ U $.

Primero encuentre una base en $ U $. Una forma es restar la primera ecuación de la segunda. Luego, podría elegir cualquier $ x_3 $, $ x_4 $, y $ x_1 $, $ x_2 $ se determinarían de forma única. Por ejemplo, $ x_3 = 2 $, $ x_4 = 0 $ da el vector $ u_1 = (0, -1,2,0) $, y $ x_3 = 0 $, $ x_4 = 2 $ da $ u_2 = (2. -3,0,2) $. Disponemos de los siguientes datos:
empezar
| u_1 | ^ 2 & amp = 9
| u_2 | ^ 2 & amp = 17
(u_1, u_2) & amp = 3
(v, u_1) & amp = -4
(v, u_2) & amp = -10
final
Ahora establezca que el vector de conexión es perpendicular a $ U $:
empezar
(v-y_1u_1-y_2u_2, u_1) & amp = (v, u_1) -y_1 | u_1 | ^ 2-y_2 (u_2, u_1) = 0
(v-y_1u_1-y_2u_2, u_2) & amp = (v, u_2) -y_1 (u_1, u_2) -y_2 | u_2 | ^ 2 = 0
final
Esto da dos ecuaciones en $ y_1 $, $ y_2 $. La respuesta final es $ | v-y_1u_1-y_2u_2 | $.


Área dirigida

Un área dirigida tiene tanto cantidad como dirección. La cantidad representa un área y la dirección representa el plano en el que se encuentra el área.

Esta cantidad es similar a un vector, pero tiene propiedades ligeramente diferentes y se llama bivector.

En esta página hay una discusión sobre áreas dirigidas que usan vectores.

En esta página hay una discusión de áreas dirigidas usando álgebras de Clifford.

Los planos, superficies y áreas se tratan en esta página.


1.1: Preludio a los vectores en el espacio - Matemáticas

En este capítulo comenzaremos a echar un vistazo más detallado al espacio tridimensional (espacio 3-D o (< mathbb^ 3> )). Este es un tema muy importante para Cálculo III, ya que una buena parte de Cálculo III se realiza en un espacio tridimensional (o superior).

Observaremos las ecuaciones de las gráficas en el espacio 3-D, así como las funciones con valores vectoriales y cómo hacemos cálculo con ellas. También echaremos un vistazo a un par de nuevos sistemas de coordenadas para el espacio 3-D.

Este es el único capítulo que existe en dos lugares de las notas. Cuando escribimos originalmente estas notas, todos estos temas estaban cubiertos en Cálculo II, sin embargo, desde entonces hemos trasladado varios de ellos a Cálculo III. Entonces, en lugar de dividir el capítulo, lo mantuvimos en las notas de Cálculo II y también pusimos una copia en las notas de Cálculo III. Many of the sections not covered in Calculus III will be used on occasion there anyway and so they serve as a quick reference for when we need them. In addition this allows those that teach the topic in either place to have the notes quickly available to them.

Here is a list of topics in this chapter.

The 3-D Coordinate System – In this section we will introduce the standard three dimensional coordinate system as well as some common notation and concepts needed to work in three dimensions.

Equations of Lines – In this section we will derive the vector form and parametric form for the equation of lines in three dimensional space. We will also give the symmetric equations of lines in three dimensional space. Note as well that while these forms can also be useful for lines in two dimensional space.

Equations of Planes – In this section we will derive the vector and scalar equation of a plane. We also show how to write the equation of a plane from three points that lie in the plane.

Quadric Surfaces – In this section we will be looking at some examples of quadric surfaces. Some examples of quadric surfaces are cones, cylinders, ellipsoids, and elliptic paraboloids.

Functions of Several Variables – In this section we will give a quick review of some important topics about functions of several variables. In particular we will discuss finding the domain of a function of several variables as well as level curves, level surfaces and traces.

Vector Functions – In this section we introduce the concept of vector functions concentrating primarily on curves in three dimensional space. We will however, touch briefly on surfaces as well. We will illustrate how to find the domain of a vector function and how to graph a vector function. We will also show a simple relationship between vector functions and parametric equations that will be very useful at times.

Calculus with Vector Functions – In this section here we discuss how to do basic calculus, i.e. limits, derivatives and integrals, with vector functions.

Tangent, Normal and Binormal Vectors – In this section we will define the tangent, normal and binormal vectors.

Arc Length with Vector Functions – In this section we will extend the arc length formula we used early in the material to include finding the arc length of a vector function. As we will see the new formula really is just an almost natural extension of one we’ve already seen.

Curvature – In this section we give two formulas for computing the curvature (es decir. how fast the function is changing at a given point) of a vector function.

Velocity and Acceleration – In this section we will revisit a standard application of derivatives, the velocity and acceleration of an object whose position function is given by a vector function. For the acceleration we give formulas for both the normal acceleration and the tangential acceleration.

Cylindrical Coordinates – In this section we will define the cylindrical coordinate system, an alternate coordinate system for the three dimensional coordinate system. As we will see cylindrical coordinates are really nothing more than a very natural extension of polar coordinates into a three dimensional setting.

Spherical Coordinates – In this section we will define the spherical coordinate system, yet another alternate coordinate system for the three dimensional coordinate system. This coordinates system is very useful for dealing with spherical objects. We will derive formulas to convert between cylindrical coordinates and spherical coordinates as well as between Cartesian and spherical coordinates (the more useful of the two).


Base y dimensión

We know that the set of vectors V 1=(1,0. 0), V 2=(0,1. 0), . V norte=(0. 1) in R n is linearly independent and such that every vector in R n is (uniquely) expressible as a linear combination of these vectors. We called these vectors básico because of this property. In this section we will generalize the concept of basis to arbitrary vector spaces.

  1. S is linearly independent and
  2. V =span(S), that is every vector in V is a linear combination of vectors in S.

  1. The set of vectors V1. Vnorte mentioned above is a basis of R n .
  2. The set of vectors (1,2), (2,3) is a basis of R 2 .

Indeed, these vectors are linearly independent because they are not proportional. In order to check that R 2 is spanned by these vectors, it is enough to check that (1,0) and (0,1) are linear combinations of them (theorem about spans):

This matrix is equal to the zero matrix only if a=b=c=d=0 .

Second, we need to show that these 4 matrices span the space of all 2 by 2 matrices. Indeed, every 2 by 2 matrix

  1. Si S is a basis of a vector space V then every vector in V has exactly one representation as a linear combination of elements of S.
  2. Si V has a basis with norte elements then
    1. Every set of vectors in V which has more than norte elements is linearly dependent.
    2. Every set of vectors with fewer than norte elements does not span V .

    Example.
    Vectors (1,2) and (2,3) form a basis of R 2 (we have shown it before). The vector (4,7) is equal to the linear combination 2*(1,2)+(2,3). Thus the vector (4,7) has coordinates 2, 1 in the basis of vectors (1,2) and (2,3). The same vector has coordinates 4 and 7 in the basis of vectors (1,0) and (0,1). Thus a vector has different coordinates in different bases. It is sometimes very important to find a basis where the vectors you are dealing with have the simplest possible coordinates.

    The last condition of the theorem about bases allows us to introduce the following important definition.

    A dimensión of a vector space V (denoted by dim( V ) ), is the number of elements in a basis for V . There is one exception of this definition: the dimension of the zero space (the vector space consisting of one vector, zero) is defined to be 0 and not 1.

    1. Si V is an n-dimension space and S is a set of norte elements from V . Luego S is a basis of V in each of the following cases:
      • S spans V .
      • S is linearly independent.
    2. Si S is a linearly dependent set in an n -dimensional space V y V=span( S ) then by removing some elements of S we can get a basis of V.
    3. Si S is a linearly independent subset of V which is not a basis of V then we can get a basis of V by adding some elements to S.

    This system of equations has the following augmented matrix:

    [ 1 1 0 1 1 ]
    [ 1 2 1 0 2 ]
    [ 0 1 2 0 3 ]
    [ 0 0 3 0 4 ]

    Using the Gauss-Jordan procedure, we get the following matrix:
    [ 1 0 0 0 0 ]
    [ 0 1 0 0 1/3 ]
    [ 0 0 1 0 4/3 ]
    [ 0 0 0 1 2/3 ]

    Thus x1=0, x2=1/3, x3=4/3, x4=2/3 . So the vector (1,2,3,4) can be thrown away. The other vectors, (1,1,0,0), (1,2,1,0),(0,1,2,3), (1,0,0,0), form a basis of R 4 . Indeed, they span R 4 by the theorem about throwing away extra elements, and by the theorem about dimension, every four vectors in a 4-dimensional vector space which span the vector space, form a basis of this vector space.

    has only one, trivial, solution (see the theorem about dimension).

    This is an homogeneous system with 4 equations and 4 unknowns. We know that this system has only one solution if and only if the matrix of coefficients is invertible (see the second theorem about inverses). And we know that a square matrix is invertible if and only if its determinant is not zero (see the third theorem about determinants). Thus we need to check that the determinant of the matrix of coefficients of our system is not zero. Maple says that

    3. Let us prove that the space of functions C [0,1] is not finite dimensional.

    4. Using the theorems about bases and dimension, one can simplify solutions of several problems considered before. For example, let us prove that the range of the linear transformation from R 5 to R 2 with the following standard matrix:

    [ 1 2 3 4 5 ]
    [ 3 4 5 6 7 ]

    coincides with R 2. Indeed, we know that the range of our linear transformation is spanned by the column vectors of the standard matrix: (1,3), (2,4), (3,5), (4,6), (5,7). We need to prove that these vectors span R 2. Notice that vectors (1,3) and (2,4) and non-proportional, so they are linearly independent. By the theorem about dimension, every two linearly independent vectors in a 2-dimensional vector space form a basis of this vector space. Por lo tanto R 2 is spanned by the vectors (1,3) and (2,4). Por lo tanto R 2 is spanned by all the column vectors of our standard matrix.


    La Naturaleza of Code

    This book is all about looking at the world around us and coming up with clever ways to simulate that world with code. Divided into three parts, the book will start by looking at basic physics—how an apple falls from a tree, a pendulum swings in the air, the earth revolves around the sun, etc. Absolutely everything contained within the first five chapters of this book requires the use of the most basic building block for programming motion—the vector. And so this is where we begin our story.

    Now, the word vector can mean a lot of different things. Vector is the name of a New Wave rock band formed in Sacramento, CA in the early 1980s. It’s the name of a breakfast cereal manufactured by Kellogg’s Canada. In the field of epidemiology, a vector is used to describe an organism that transmits infection from one host to another. In the C++ programming language, a vector (std::vector) is an implementation of a dynamically resizable array data structure. While all these definitions are interesting, they’re not what we’re looking for. What we want is called a Euclidean vector (named for the Greek mathematician Euclid and also known as a geometric vector). When you see the term “vector” in this book, you can assume it refers to a Euclidean vector, defined as an entity that has both magnitude and direction.

    A vector is typically drawn as a arrow the direction is indicated by where the arrow is pointing, and the magnitude by the length of the arrow itself.

    Figure 1.1: A vector (drawn as an arrow) has magnitude (length of arrow) and direction (which way it is pointing).

    In the above illustration, the vector is drawn as an arrow from point A to point B and serves as an instruction for how to travel from A to B.

    1.1 Vectors, You Complete Me

    Before we dive into more of the details about vectors, let’s look at a basic Processing example that demonstrates why we should care about vectors in the first place. If you’ve read any of the introductory Processing textbooks or taken a class on programming with Processing (and hopefully you’ve done one of these things to help prepare you for this book), you probably, at one point or another, learned how to write a simple bouncing ball sketch.

    Your browser does not support the canvas tag.

    If you are reading this book as a PDF or in print, then you will only see screenshots of the code. Motion, of course, is a key element of our discussion, so to the extent possible, the static screenshots will include trails to give a sense of the behavior. For more about how to draw trails, see the code examples available for download.


    Ver el vídeo: MATEMÁTICAS II - 04 VECTORES EN EL ESPACIO. 02 Definiciones previas (Noviembre 2021).