Aproximacion por minimos cuadrados

 Fundamento teórico

El método de mínimos cuadrados es una técnica estadística y matemática para encontrar la curva (o recta) que mejor se ajusta a un conjunto de puntos de datos (xi,yi)(x_i, y_i), minimizando la suma de los cuadrados de los errores entre los valores observados y los valores predichos por el modelo.

Para una regresión lineal (ajuste por recta):

y=a+bxy = a + bx

El objetivo es encontrar los coeficientes aa y bb que minimicen:

S=i=1n(yiabxi)2S = \sum_{i=1}^{n} (y_i - a - bx_i)^2

Esto se resuelve derivando respecto a aa y bb, y resolviendo el sistema resultante:

{na+bxi=yiaxi+bxi2=xiyi\begin{cases} n a + b \sum x_i = \sum y_i \\ a \sum x_i + b \sum x_i^2 = \sum x_i y_i \end{cases}

Pasos del algoritmo

  1. Obtener los datos (xi,yi)(x_i, y_i).

  2. Calcular:

    • xi\sum x_i

    • yi\sum y_i

    • xi2\sum x_i^2

    • xiyi\sum x_i y_i

  3. Sustituir en el sistema de ecuaciones lineales.

  4. Resolver el sistema para obtener aa y bb.

  5. Construir la recta y=a+bxy = a + bx.

  6. (Opcional) Evaluar el modelo o graficarlo.


Ejemplo resuelto paso a paso

Supón que tenemos los datos:

xy1223354456\begin{array}{|c|c|} \hline x & y \\ \hline 1 & 2 \\ 2 & 3 \\ 3 & 5 \\ 4 & 4 \\ 5 & 6 \\ \hline \end{array}

Paso 1: Calcular sumatorias

x=1+2+3+4+5=15\sum x = 1 + 2 + 3 + 4 + 5 = 15
y=2+3+5+4+6=20\sum y = 2 + 3 + 5 + 4 + 6 = 20
x2=12+22+32+42+52=55\sum x^2 = 1^2 + 2^2 + 3^2 + 4^2 + 5^2 = 55
xy=1×2+2×3+3×5+4×4+5×6=2+6+15+16+30=69\sum xy = 1×2 + 2×3 + 3×5 + 4×4 + 5×6 = 2 + 6 + 15 + 16 + 30 = 69

Paso 2: Sistema de ecuaciones

5a+15b=2015a+55b=695a + 15b = 20 \\ 15a + 55b = 69

Resolviendo:

Multiplicamos la primera ecuación por 3:

15a+45b=6015a+55b=6915a + 45b = 60 \\ 15a + 55b = 69

Restamos:

(15a+55b)(15a+45b)=696010b=9b=0.9(15a + 55b) - (15a + 45b) = 69 - 60 \Rightarrow 10b = 9 \Rightarrow b = 0.9

Sustituimos en la primera:

5a+15(0.9)=205a=2013.5=6.5a=1.35a + 15(0.9) = 20 \Rightarrow 5a = 20 - 13.5 = 6.5 \Rightarrow a = 1.3

Resultado:
La recta de mejor ajuste es:

y=1.3+0.9xy = 1.3 + 0.9x

 Código del método (Python)

def minimos_cuadrados(x, y): n = len(x) sum_x = sum(x) sum_y = sum(y) sum_x2 = sum([xi**2 for xi in x]) sum_xy = sum([x[i]*y[i] for i in range(n)]) b = (n * sum_xy - sum_x * sum_y) / (n * sum_x2 - sum_x**2) a = (sum_y - b * sum_x) / n return a, b # Ejemplo x_vals = [1, 2, 3, 4, 5] y_vals = [2, 3, 5, 4, 6] a, b = minimos_cuadrados(x_vals, y_vals) print(f"Recta ajustada: y = {a:.2f} + {b:.2f}x")

Conclusión sobre su uso y aplicación en la vida real

El método de mínimos cuadrados es fundamental para la regresión lineal y es ampliamente utilizado en múltiples disciplinas:

Aplicaciones reales:

  • Ciencia de datos y machine learning.

  • Finanzas (predicción de precios).

  • Física e ingeniería (análisis experimental).

  • Economía (modelado de tendencias).

  • Medicina (ajuste de curvas de crecimiento, dosificación).

Ventajas:

  • Simple y efectivo para modelos lineales.

  • Permite modelar datos ruidosos.

  • Ampliable a polinomios, exponenciales, etc.

Limitaciones:

  • Supone una relación funcional entre variables.

  • Sensible a valores atípicos.

  • Lineal solo si se aplica con modelos lineales.

Comentarios

Entradas más populares de este blog

Métodos Numéricos: Cuando la Matemática se Vuelve Práctica