3.1 Definición de sistemas de ecuaciones lineales
DEFINICIÓN DE SISTEMA DE ECUACIONES LINEALES.
En matemáticas, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones, es un conjunto de ecuaciones lineales (es decir, un sistema de ecuaciones en donde cada ecuación es de primer grado), definidas sobre un cuerpo o un anillo conmutativo.
El problema consiste en encontrar los valores desconocidos de las variables x1, x2y x3 que satisfacen las tres ecuaciones.
El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señales, análisis estructural, estimación, predicción y más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis numérico. Por eso mismo en esta unidad abordaremos métodos matemáticos que nos permitan una mayor facilidad para la resolución de estos sistemas.
- Operaciones fundamentales
Las operaciones fundamentales que se le pueden efectuar a las ecuaciones (filas) de un sistema lineal de ecuaciones son las siguientes:
a) Intercambio: el orden de las filas puede cambiar.
b) Escalado: multiplicación de una fila por una constante no nula.
c) Sustitución: una fila puede ser remplazada por la suma de esa fila más un múltiplo de cualquier otra fila
Además para que un sistema lineal e ecuaciones algebraicas tenga solución única debe cumplir las siguientes dos condiciones:
3.2. Clasificación de los S.E.L. y tipos de solución
Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que pueden presentar.
Pueden presentar los siguientes casos:
1. Sistema incompatible si no tiene ninguna solución.
2. Sistema compatible si tiene alguna solución, en este caso además puede distinguirse entre:
o Sistema compatible determinado cuando tiene un número finito de soluciones.
o Sistema compatible indeterminado cuando admite un conjunto infinito de soluciones.
Teniendo así la clasificación:
Sabemos que una ecuación lineal o de primer grado es aquella que involucra solamente sumas y restas de variables elevadas a la primera potencia (elevadas a uno, que no se escribe). Son llamadas lineales por que se pueden representar como rectas en el sistema cartesiano.
Se pueden presentar tres tipos de ecuaciones lineales:
a) Ecuaciones lineales propiamente tales
En este tipo de ecuación el denominador de todas las expresiones algebraicas es igual a 1 y no se presentan como fracción, aunque el resultado sí puede serlo.
Para proceder a la resolución se debe:
· Eliminar paréntesis.
· Dejar todos los términos que contengan a "x" en un miembro y los números en el otro.
Luego despejar "x" reduciendo términos semejantes.
Ejemplo:
4x – 2(6x – 5) = 3x + 12(2x + 16)
4x – 12x + 10 = 3x + 24x + 192
4x – 12x – 3x – 24x = 192 – 10
–35x = 182
b) Ecuaciones fraccionarias
En este tipo de ecuación lineal el denominador de a lo menos una de las expresiones algebraicas es diferente de 1 (es una fracción).
Para proceder a la resolución se debe:
Llevar a ecuación lineal (eliminar la fracción) multiplicando la ecuación por el mínimo común múltiplo de los denominadores (m.c.m.)
Ejemplo:
c) Ecuaciones literales:
Pueden ser lineales o fraccionarias. Si son fraccionarias, se llevan al tipo lineal, pero en el paso de reducir términos semejantes se factoriza por "x" para despejarla.
Ejemplo:
3.3 Interpretación geométrica de las soluciones
Los finitos pares ordenados (x; y) que satisfagan a la ecuación lineal a.x + b - y + c=0 corresponden a los infinitos puntos de una recta del plano. Por tanto, el problema de resolver un sistema lineal de dos ecuaciones con dos incognitas es el problema de estudiar la posición de sendas rectas.
· Sistema incompatible (carece de solución) rectas paralelas.
· Sistema compatible y Sistema compatible y determinado (solución única) rectas secantes.
· Sistema compatible e indeterminado (infinitas soluciones) rectas coincidentes.
Un sistema de ecuaciones diferenciales son aquellas que tienen varias posibilidades para su solución. Estas son:
1. Solución única: Sólo es posible obtener una solución única para un sistema de ecuaciones lineales intersectado en un único punto determinado, por lo tanto, el sistema de ecuaciones donde tenemos todas las rectas entrecruzándose en un solo punto, se denomina como la solución única del sistema de ecuaciones. Ese sistema de ecuaciones lineales es llamado sistema de ecuaciones lineales consistente independiente.
2. Sin solución: Es posible que un sistema de ecuaciones lineales no tenga solución cuando ningunas de sus rectas se intersectan entre sí ni siquiera en el infinito, ya que sólo el punto de intersección es la solución para el sistema de ecuaciones lineales Esto sólo puede ocurrir en el caso de las rectas paralelas, por lo tanto, para un sistema con este tipo de ecuación tenemos varias ecuaciones que corresponden a la misma recta y que sólo difieren por la pendiente. Dicho sistema se denomina sistema de ecuaciones lineales inconsistente independiente.
Gráficamente podemos representarlo como:
3. Infinitas soluciones: Sólo en la situación que las rectas de determinado sistema se encuentren unas con otras en un punto infinito, podemos obtener soluciones infinitas. Esto sólo puede suceder si todas las rectas son la misma recta, ya que es en este escenario que se superpondrán unas con otras dándonos puntos infinitos de intersección, es decir, infinitas soluciones. Este sistema es llamado sistema de ecuaciones lineales consistente dependiente.
Gráficamente podemos representarlo como:
Con la ayuda de un ejemplo, vamos a entender las diversas soluciones posibles.
Si tenemos un sistema de ecuaciones lineales dado como:
y = 3x – 2 y = -x – 6
La representación gráfica de las ecuaciones puede darse como:
Ya sabemos que en el caso de una sola recta, todos los puntos que intersecten con esa recta son llamados solución de la ecuación, sin embargo al tratar con un sistema de ecuaciones, la situación es diferente. En tal situación para que un punto sea la solución del sistema de ecuación dado, necesita estar sobre cada recta definida en el sistema de ecuación dado. Por lo tanto, si nos fijamos en el diagrama siguiente:
El punto resaltado con color rojo no puede considerarse como una solución, ya que no se encuentra en ninguna de las rectas definidas en el sistema de ecuaciones.
Tampoco podemos considerar el punto resaltado en color azul como la solución, ya que se encuentra en una sola recta y no en la otra, por lo tanto, puede considerarse como la solución para la recta y =-x - 6, pero no la del sistema dado.
Finalmente, el punto destacado en el color púrpura es la solución del sistema de ecuación, ya que está en ambas rectas definidas para el sistema dado. También ésta es la solución única del sistema dado, porque ambas líneas no se intersectan en algún otro punto. Por tanto, llamamos a este sistema un sistema de ecuaciones lineales consistente independiente.
3.4 Métodos de solución de un sistema de ecuaciones lineales
3.1 Método de eliminación Gaussiana.
El método de eliminación Gaussiana para la solución de sistemas de ecuaciones lineales consiste en convertir a través de operaciones básicas llamadas operaciones de renglón un sistema en otro equivalente más sencillo cuya respuesta pueda leerse de manera directa. El método de eliminación Gaussiana es el mismo para sistemas de ecuaciones 2×2, 3×3, 4×4 y así sucesivamente siempre y cuando se respete la relación de al menos una ecuación por cada variable.
Eliminación gaussiana consta de los siguientes pasos:
1. Determine la primer columna (a la izquierda) no cero.
2. Si el primer elemento de la columna es cero, intercámbielo por un renglón que no tenga cero.
3. Obtenga ceros abajo del elemento delantero sumando múltiplos adecuados a los renglones debajo de él.
4. Cubra el renglón y la columna de trabajo y repita el proceso comenzando en el paso 1. Al termino del ciclo entre el paso 1 al 4 (es decir cuando se han barrido todos los renglones), la matriz deberá tener forma de escalón.
5. Comenzando con el último renglón no cero avance hacia arriba para que en cada renglón tenga un 1 delantero y arriba de él queden solo ceros. Para ello deberá sumar múltiplos adecuados del renglón a los renglones correspondientes.
Ejemplo de la eliminación de Gauss: Terra
Bibliografía:
Steven C. Chapra, Métodos Numéricos para Ingenieros, 6ª ed., Mc Graw Hill.
http://es.wikipedia.org/wiki/Sistema_de_ecuaciones_lineales
3.2 Método de Gauss-Jordan.
Son algoritmos del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que la anterior. Cuando se aplica este proceso, la matriz resultante se conoce como: "forma escalonada". Aquí presentamos los pasos:
Ir a la columna no cero extrema izquierda
Si el primer renglón tiene un cero en esta columna, intercambiarlo con otro que no lo tenga
Luego, obtener ceros debajo de este elemento delantero, sumando múltiplos adecuados del renglón superior a los renglones debajo de él
Cubrir el renglón superior y repetir el proceso anterior con la submatriz restante. Repetir con el resto de los renglones (en este punto la matriz se encuentra en la forma de escalón)
Comenzando con el último renglón no cero, avanzar hacia arriba: para cada renglón obtener un 1 delantero e introducir ceros arriba de éste sumando múltiplos correspondientes a los renglones correspondientes
Una variante interesante de la eliminación de Gauss es la que llamamos eliminación de Gauss-Jordan, esta consiste en ir obteniendo los 1 delanteros durante los pasos uno al cuatro (llamados paso directo) así para cuando estos finalicen ya se obtendrá la matriz en forma escalonada reducida.
Bibliografía:
Steven C. Chapra, Métodos Numéricos para Ingenieros, 6ª ed., Mc Graw Hill.
http://www.mty.itesm.mx/etie/deptos/m/ma95-843/lecturas/l843-12.pdf
http://www.slideshare.net/algebralineal/ejercicios-resueltos-metodo-gauss-jordan
http://es.wikipedia.org/wiki/Eliminaci%C3%B3n_de_Gauss-Jordan
3.3 Estrategias de pivoteo.
Pivoteo trivial:
Puede suceder que en algún paso del proceso de eliminación Gaussiana con sustitución regresiva, se tenga aqq=0, esto naturalmente implica que este elemento, no se puede tomar como elemento pivote, en este caso se usa la estrategia del Pivoteo Trivial, que consiste en escoger de una fila k, k= q + 1, q + 2,..., n en la que akq ≠ 0, esta fila se intercambia con la fila q-ésima, con lo cual se obtiene un pivote no nulo.
Pivoteo Parcial:
Consiste en tomar como pivote el coeficiente de mayor magnitud, y una vez ubicado intercambiar filas a fin de colocarlo en la diagonal, esto es, se comparan todos los coeficientes en la columna q, desde el que está en la diagonal hasta el que está en la ultima fila. Una vez hecho esto se toma el elemento de mayor valor absoluto y esa fila se intercambia con la q- ésima, es decir, si
Entonces se intercambian las filas q-ésima y k -ésima, con esto todos los multiplicadores serán todos menores que 1 en valor absoluto.
Bibliografía:
Steven C. Chapra, Métodos Numéricos para Ingenieros, 6ª ed., Mc Graw Hill.
http://es.scribd.com/doc/52352052/35/ESTRATEGIAS-DE-PIVOTEO
3.5 Método de Gauss-Seidel.
El método de eliminación para resolver ecuaciones simultáneas suministra soluciones suficientemente precisas hasta para 15 o 20 ecuaciones. El número exacto depende de las ecuaciones de que se trate, del número de dígitos que se conservan en el resultado de las operaciones aritméticas, y del procedimiento de redondeo. Utilizando ecuaciones de error, el número de ecuaciones que se pueden manejar se puede incrementar considerablemente a más de 15 o 20, pero este método también es impráctico cuando se presentan, por ejemplo, cientos de ecuaciones que se deben resolver simultáneamente.
Sin embargo, existen varias técnicas que se pueden utilizar, para resolver grandes números de ecuaciones simultáneas. Una de las técnicas más útiles es el método de Gauss-Seidel. Ninguno de los procedimientos alternos es totalmente satisfactorio, y el método de Gauss-Seidel tiene la desventaja de que no siempre converge a una solución o de que a veces converge muy lentamente. Sin embargo, este método convergirá siempre a una solución cuando la magnitud del coeficiente de una incógnita diferente en cada ecuación del conjunto, sea suficientemente dominante con respecto a las magnitudes de los otros coeficientes de esa ecuación.
Un sistema diagonal es condición suficiente para asegurar la convergencia pero no es condición necesaria. Afortunadamente, las ecuaciones simultáneas lineales que se derivan de muchos problemas de ingeniería, son del tipo en el cual existen siempre coeficientes dominantes.
La secuencia de pasos que constituyen el método de Gauss-Seidel es la siguiente:
1. Asignar un valor inicial a cada incógnita que aparezca en el conjunto. Si es posible hacer una hipótesis razonable de éstos valores, hacerla. Si no, se pueden asignar valores seleccionados arbitrariamente. Los valores iniciales utilizados no afectarán la convergencia como tal, pero afectarán el número de iteraciones requeridas para dicha convergencia.
2. Partiendo de la primera ecuación, determinar un nuevo valor para la incógnita que tiene el coeficiente más grande en esa ecuación, utilizando para las otras incógnitas los valores supuestos.
3. Pasar a la segunda ecuación y determinar en ella el valor de la incógnita que tiene el coeficiente más grande en esa ecuación, utilizando el valor calculado para la incógnita del paso 2 y los valores supuestos para las incógnitas restantes.
4. Continuar con las ecuaciones restantes, determinando siempre el valor calculado de la incógnita que tiene el coeficiente más grande en cada ecuación particular, y utilizando siempre los últimos valores calculados para las otras incógnitas de la
ecuación. (Durante la primera iteración, se deben utilizar los valores supuestos para las incógnitas hasta que se obtenga un valor calculado). Cuando la ecuación final ha sido resuelta, proporcionando un valor para la única incógnita, se dice que se ha completado una iteración.
5. Continuar iterando hasta que el valor de cada incógnita, determinado en una iteración particular, difiera del valor obtenido en la iteración previa, en una cantidad menor que cierto
Ɛ seleccionado arbitrariamente. El procedimiento queda entonces completo.
Refiriéndonos al paso 5, mientras menor sea la magnitud del Ɛ seleccionado, mayor será la precisión de la solución. Sin embargo, la magnitud del epsilon no especifica el error que puede existir en los valores obtenidos para las incógnitas, ya que ésta es una función de la velocidad de convergencia. Mientras mayor sea la velocidad de convergencia, mayor será la precisión obtenida en los valores de las incógnitas para un Ɛ dado.
Presentamos este video de como resolver por este método: You tube
Bibliografía:
Steven C. Chapra, Métodos Numéricos para Ingenieros, 6ª ed., Mc Graw Hill.
http://www.slideshare.net/mariacadena/mtodo-de-gauss-seidel
3.6 Método de Krylov.
Los métodos de Krylov solucionan sistemas lineales partiendo de una aproximación inicial r0 := b – Ax0, la cual es llamada error residual o residuo. Después tenemos que aplicar la operación de multiplicación sucesiva de A por r0 hasta que uno de esos vectores obtenidos resulte una combinación lineal de las dos anteriores, o sea, la solución exacta menos la aproximación lineal es una combinación lineal del residuo inicial y de las multiplicaciones de potencias de la matriz A.
Así, se tienen algunas definiciones importantes como espacio de Krylov, que es el conjunto formado por todas las combinaciones lineales de los vectores, y el sub-espacio de Krylov, que es el conjunto formado por todas las combinaciones lineales de k vectores. De esa manera, se tiene como regla general, en aritmética finita, que las secuencias de Krylov no son buenas bases para sub-espacios de Krylov.
Entonces, los métodos de sub-espacio de Krylov forman una base ortogonal de secuencias del residuo inicial y de multiplicaciones de potencias de la matriz A por el residuo. Una aproximación en la solución de este problema es el método de ortogonalización completa (FOM) y el residuo mínimo generalizado (GMRES), ambos basados en la combinación de métodos de Krylov y Arnoldi.
Debido a que estos métodos forman una base, el método debe convergir en N iteraciones, aunque no siempre es así en presencia de error de redondeamiento debiéndose truncar la base manteniendo un tamaño fijo máximo de vectores. El problema de convergencia es importante y permitió que en los últimos 20 años fuesen propuestas diferentes alternativas del GMRES para mejorarlo.
Los métodos de Krylov enfrentan el desafío de implementaciones verdaderamente paralelas, así como nuevos métodos y su respectiva teoría. En conclusión, los métodos de Krylov deben ser usados solamente cuando los métodos directos no sean viables.
3.5 Aplicaciones
Aplicaciones con relación a los sistemas de ecuaciones
Las matrices son utilizadas en aplicaciones de gráficos de geometría, física e informática. La matriz de las cantidades o expresiones definidas por filas y columnas; tratados como un solo elemento y manipulados de acuerdo con las reglas. Cálculos de matriz pueden entenderse como un conjunto de herramientas que incluye el estudio de métodos y procedimientos utilizados para recoger, clasificar y analizar datos. En muchas aplicaciones es necesario calcular la matriz inversa donde esta calculadora en línea matriz inversa puede ayudarle a sin esfuerzo facilitan sus cálculos para las respectivas entradas.
En casos simples, es relativamente fácil resolver una ecuación siempre y cuando se satisfagan ciertas condiciones. Sin embargo, en casos más complicados, es difícil o engorroso obtener expresiones simbólicas para las soluciones, y por ello a veces se utilizan soluciones numéricas aproximadas.
Ejemplos de la aplicación de un método de solución de sistemas de ecuaciones:
1.- En una empresa se fabrica un producto que tiene costo variable de $5 por unidad y costo fijo de $80,000. Cada unidad tiene un precio de venta de $12. Determine el número de unidades que deben venderse para que la compañía obtenga utilidades de $60,000.
Solución: Costo = 5u + 80,000. Venta = 12. Utilidades = 60,000.
Entonces: C = 5u + 80,000. V = 12u. U = 60,000.
U = V - C 60,000 = 12u - (5U+80000) 60,000 = 12u - 5u - 80,000 60,000 + 80,000 = 7u 140,000 = 7u 140,000/7 = u 20,000 = u
Al obtener nuestro coeficiente pasamos a sustituirlo:
C = 5(20,000) + 80,000 = 180,000.
V = 12(20,000) = 240,000.
U = 240,000 - 180,000 = 60,000.
Al terminar nos damos cuenta que por este método de sustitución e igualación se puede llegar al resultado.
2.- La empresa “Organicomputer”, fabrica tres modelos de computadoras personales: cañón, clon, y lenta_pero_segura. Para armar una computadora modelo cañón necesita 12 horas de ensamblado, 2.5 para probarla, y 2 más para instalar sus programas. Para una clon requiere 10 horas de ensamblado, 2 para probarla, y 2 para instalar programas. Y por último, para una lenta_pero_segura requiere 6 para ensamblado, 1.5 para probarla, y 1.5 para instalar programas. Si la fábrica dispone en horas por mes de 556 para ensamble, 120 para pruebas, y 103 horas para instalación de programas, ¿cuántas computadoras se pueden producir por mes?
Solución
En nuestro caso las incógnitas es el número de cada tipo de computadora a producir:
· x = número de computadoras cañón
· y = número de computadoras clon
· z = número de computadoras lenta_pero_segura
Para determinar las ecuaciones debemos utilizar los tiempos de ensamblado pruebas, e instalación de programas.
Nuestras matrices serán:
En esta ocasión se resolverá por Cramer, pero se puede utilizar cualquiera de los métodos (Gauss, Gauss Jordán, Usando la inversa), el resultado debe ser el mismo.
· X = |Δ1|/|A| = -51/-1.5 = 34
· Y = |Δ2|/|A| = -6/-1.5 = 4
· Z = |Δ3|/|A| = -27/-1.5 = 18
Al resolver este sistema obtenemos:
X = 34, Y = 4, Z = 18
34 computadoras Cañón.4 computadoras Clones.18 computadoras lentas pero seguras.
FUENTE DE CONSULTA:
https://sites.google.com/site/sistemasalgebralineal/unidad-3---sistema-de-ecuaciones-lineales
Steven C. Chapra, Métodos Numéricos para Ingenieros, 6ª ed., Mc Graw Hill.
http://es.wikipedia.org/wiki/Sistema_de_ecuaciones_lineales