Introducción a las matrices — guía completa

Aprende los fundamentos de las matrices incluyendo notación, operaciones, determinantes, inversas y aplicaciones en sistemas de ecuaciones, transformaciones y ciencia de datos.

¿Qué es una matriz?

Una matriz es un arreglo rectangular de números organizados en filas y columnas. Una matriz con m filas y n columnas se llama una matriz m x n. Las matrices se denotan con letras mayúsculas (A, B, C) y sus entradas individuales con letras minúsculas con subíndices que indican la posición de fila y columna, como a₁₂ para la entrada en la fila 1, columna 2. Las matrices son fundamentales para el álgebra lineal y se usan extensamente en gráficos por computadora, aprendizaje automático, física, economía e ingeniería. Proporcionan una forma compacta y poderosa de representar y manipular sistemas de ecuaciones lineales, transformaciones geométricas y datos multidimensionales.

Suma de matrices y multiplicación escalar

Dos matrices solo pueden sumarse si tienen las mismas dimensiones. La suma se realiza elemento por elemento: si A y B son ambas matrices m x n, entonces (A + B)ᵢⱼ = aᵢⱼ + bᵢⱼ. Por ejemplo, [[1,2],[3,4]] + [[5,6],[7,8]] = [[6,8],[10,12]]. La multiplicación escalar multiplica cada entrada por un solo número: k * A significa que cada elemento aᵢⱼ se convierte en k * aᵢⱼ. Por ejemplo, 3 * [[1,2],[3,4]] = [[3,6],[9,12]]. Ambas operaciones son directas y siguen las reglas que esperarías al trabajar con números individuales. La resta se define como A - B = A + (-1)B.

Multiplicación de matrices

La multiplicación de matrices es más compleja que la suma. Para multiplicar la matriz A (m x n) por la matriz B (n x p), cada entrada del resultado C (m x p) es el producto punto de una fila de A con una columna de B: cᵢⱼ = suma de (aᵢₖ x bₖⱼ) para k de 1 a n. Es crucial que el número de columnas en A sea igual al número de filas en B. La multiplicación de matrices no es conmutativa: AB generalmente no es igual a BA. Por ejemplo, [[1,2],[3,4]] x [[5,6],[7,8]] = [[19,22],[43,50]]. A pesar de su complejidad, la multiplicación de matrices es la operación más importante en álgebra lineal, permitiendo desde resolver sistemas de ecuaciones hasta entrenar redes neuronales.

El determinante

El determinante es un valor escalar calculado a partir de una matriz cuadrada que codifica propiedades importantes. Para una matriz 2x2 [[a,b],[c,d]], el determinante es ad - bc. Para matrices más grandes, el determinante se calcula usando expansión por cofactores o reducción por filas. El determinante tiene varias interpretaciones clave: representa el factor de escala de la transformación lineal definida por la matriz, y su valor absoluto es igual al área (para 2x2) o volumen (para 3x3) del paralelogramo o paralelepípedo formado por los vectores columna de la matriz. Una matriz con determinante cero es singular (no invertible), lo que significa que sus columnas son linealmente dependientes y el sistema de ecuaciones asociado no tiene solución única o tiene infinitas soluciones.

La inversa de una matriz

La inversa de una matriz cuadrada A, denotada A⁻¹, es la matriz tal que A * A⁻¹ = A⁻¹ * A = I, donde I es la matriz identidad (1 en la diagonal, 0 en el resto). No toda matriz tiene inversa; solo las matrices no singulares (aquellas con determinante distinto de cero) son invertibles. Para una matriz 2x2 [[a,b],[c,d]], la inversa es (1/(ad-bc)) * [[d,-b],[-c,a]]. Para matrices más grandes, las inversas pueden calcularse usando reducción por filas (eliminación de Gauss-Jordan) o la fórmula de la adjunta. Las inversas de matrices son esenciales para resolver sistemas de ecuaciones (X = A⁻¹ * B), deshacer transformaciones y muchos algoritmos en computación numérica.

Resolución de sistemas de ecuaciones con matrices

Un sistema de ecuaciones lineales puede escribirse en forma matricial como AX = B, donde A es la matriz de coeficientes, X es el vector columna de incógnitas y B es el vector columna de constantes. Si A es invertible, la solución única es X = A⁻¹ * B. Alternativamente, la eliminación gaussiana transforma la matriz aumentada [A|B] en forma escalonada por filas, de donde las soluciones se leen por sustitución hacia atrás. Por ejemplo, el sistema 2x + y = 5, x - y = 1 puede escribirse como [[2,1],[1,-1]] * [[x],[y]] = [[5],[1]]. La inversa de la matriz de coeficientes da x = 2, y = 1. Este enfoque matricial escala eficientemente a sistemas con cientos o miles de variables.

Matrices especiales

Varios tipos de matrices tienen propiedades especiales que las hacen importantes. La matriz identidad I tiene 1 en la diagonal y 0 en todas partes; actúa como el número 1 en la multiplicación. Una matriz diagonal tiene entradas distintas de cero solo en la diagonal principal, haciendo la multiplicación e inversión muy eficientes. Una matriz simétrica es igual a su transpuesta (A = Aᵀ), y las matrices simétricas tienen todos los valores propios reales. Una matriz ortogonal tiene su inversa igual a su transpuesta (A⁻¹ = Aᵀ), lo que preserva longitudes y ángulos, haciéndola ideal para representar rotaciones. Una matriz dispersa tiene mayoritariamente entradas cero y se almacena y procesa usando técnicas especiales para ahorrar memoria y tiempo de cálculo.

Aplicaciones de las matrices

Las matrices son indispensables en muchos campos. En gráficos por computadora, las matrices de transformación 4x4 manejan traslación, rotación, escalado y proyección en perspectiva de objetos 3D. En aprendizaje automático, las redes neuronales son esencialmente cadenas de multiplicaciones de matrices seguidas de activaciones no lineales. En física, la mecánica cuántica representa estados y observables como matrices (u operadores en espacios vectoriales). En economía, los modelos de insumo-producto usan matrices para analizar las interdependencias entre industrias. En el algoritmo PageRank de Google, toda la web se modela como una matriz masiva, y la clasificación de las páginas se determina por el vector propio dominante de esa matriz.

Calculadoras Relacionadas