Primeros pasos con regresión no lineal (nls) con R

La regresión no lineal se da cuando tenemos que estimar $Y$ a partir de una función del tipo $Y = f(X, \beta) + \epsilon$, donde $\beta$ representa un vector de parámetros $\beta_1, \beta_2, \dots, \beta_n$. Unos datos $X$ e $Y$ se relacionan mediante una función no lineal respecto a unos parámetros $\beta$ desconocidos. ¿Cómo obtenemos estos $\beta$ desconocidos? Habitualmente a través de mínimos cuadrados ordinarios o bien con otros métodos como máxima verosimilitud. Este cálculo llevará asociada su inferencia estadística habitual. La función que asocia los pares de datos $(x_1, y_1), (x_2, y_2), \dots, (x_n, y_n)$ será una función conocida. Por eso esta técnica es muy utilizada en ciencias químicas, geodinámica… donde ya se conoce la relación teórica que hay entre las variables, pero es necesario realizar modelos con los pares de datos disponibles de cara a obtener estimaciones de los parámetros. ...

21 de agosto de 2014 · rvaquerizo

Regresión PLS con R

El tema que estoy estudiando estos días es la regresión por mínimos cuadrados parciales, partial least squares (PLS). Para documentarme teóricamente y conocer las principales posibilidades de R estoy empleando este documento. Para argumentar el uso de esta técnica, de nuevo partimos del modelo lineal general $Y = X \cdot \beta + \text{Error}$, donde $\beta = (X’X)^{-1} \cdot X’Y$, y ya analizamos los trastornos que nos provoca la inversa de $X’X$ cuando hay columnas de $X$ que son linealmente dependientes (cuando hay multicolinealidad). En ese caso empleábamos la regresión ridge. Bueno, imaginemos esta situación: tenemos más variables que observaciones. Entonces sí que no somos capaces de tener una solución para $(X’X)^{-1}$. Para este problema contamos con los mínimos cuadrados parciales. ...

18 de agosto de 2014 · rvaquerizo

Regresión ridge o regresión contraída con R

Por lo visto no he estudiado lo suficiente. Tengo que redimirme y estudiar este verano determinadas técnicas avanzadas de predicción. Fundamentalmente tengo que trabajar con R y tener determinados conocimientos teóricos sobre estas técnicas. Así que he pensado que, a la vez que estudio yo, estudian todos mis lectores. Además es probable que genere debate. En esta primera entrega vamos a tratar la regresión contraída o regresión ridge. En el blog ya hablamos del problema que suponía la multicolinealidad; cuando tenemos este problema, una de las posibles soluciones es la regresión contraída o regresión ridge. Como ya dijimos, el modelo lineal se expresa como $Y = X \cdot \beta + \text{Error}$; la estimación de nuestros parámetros $\beta$ por mínimos cuadrados ordinarios es $\beta = \text{inv}(X’X) \cdot X’Y$. Cuando $(X’X)$ no es invertible tenemos un problema. La regresión ridge plantea una solución a este problema con unos parámetros $\beta extbackslash_{\text{contraidos}} = \text{inv}(X’X + \lambda I) \cdot X’Y$; si $\lambda$ es 0 estamos ante mínimos cuadrados ordinarios; en otro caso estamos ante un estimador sesgado de $\beta$. Este estimador sesgado es solución al problema de mínimos cuadrados penalizados y lo que hace es contraer los $\beta$ en torno a 0. En resumen: metemos sesgo pero reducimos varianza. ...

9 de julio de 2014 · rvaquerizo

Determinar la distribución de un vector de datos con R

Para determinar la distribución que sigue un vector de datos en R, contamos con el paquete rriskDistributions. Este paquete de R nos permite realizar un test para las distribuciones siguientes: Normal Logística Uniforme Gamma Lognormal Weibull Cauchy Exponencial Chi-cuadrado F T-Student Todos aquellos que estén trabajando con los modelos de supervisión de riesgos seguramente conocerán este paquete y, si no lo conocen, espero que lean estas líneas porque pueden ser de mucha ayuda para ellos; aunque se trate de software libre, no pasa nada, no receléis de R. La sintaxis es tan sencilla que se puede resumir en: ...

22 de mayo de 2014 · rvaquerizo

Trucos SAS. Calcular una edad

No penséis que restar dos fechas y obtener una diferencia en años entre ellas es un tema baladí. Ejecutad el siguiente código SAS para calcular la diferencia en años: data uno; format fecha1 ddmmyy10.; do fecha1 = 9000 to today(); output; end; run; data uno_edad; set uno; format fecha2 ddmmyy10.; fecha2 = "15MAY2014"d; edad = int((fecha2 - fecha1) / 365.25); run; data uno_filtro; set uno_edad; if month(fecha1) = 5 and day(fecha1) = 15; run; Visualizad el conjunto de datos uno_filtro; la serie de edad asusta: 28, 28, 27, 25, 24, 24… Está claro que algo falla. Hace ya tiempo que hablamos de ello en este mismo blog. Los ceros y los unos con los que guardan estas máquinas las cosas a veces nos juegan estas malas pasadas. Para evitar este problema, os sugiero que empleéis la función de SAS YRDIF con la base 'AGE'. Replicamos el ejemplo: ...

14 de mayo de 2014 · rvaquerizo

Truco SAS. Gráfico de correlaciones

Un truco SAS interesante para representar matrices de correlaciones. El ejemplo es muy sencillo, pero previamente tenéis que crear el conjunto de datos SAS para ilustrar el ejemplo. Así que lo primero que hay que hacer es ir a este enlace y copiar el código necesario para crear el conjunto de datos SAS auto. Una vez tenemos ese conjunto de datos de 74 observaciones y 12 variables, sólo tenemos que emplear el PROC CORR con una sintaxis muy sencilla: ...

12 de mayo de 2014 · rvaquerizo

VI Jornadas de usuarios de R. Ya están en marcha

Buena noticia: http://r-es.org/VI+Jornadas. Este año serán en Santiago de Compostela los días 23 y 24 de octubre y serán retransmitidas por video streaming. Miguel Ángel Rodríguez Muiños debe tener mucha culpa de que este año se vayan a tierras gallegas, donde hace mucho tiempo son referencia en formación sobre el uso de software libre. A que voy…

7 de mayo de 2014 · rvaquerizo

Un nuevo blog sobre SAS en español

Buenas noticias. Tenemos un nuevo blog sobre SAS en español: Utilidades, recursos, ejemplos y documentación sobre la herramienta de BI SAS. Esta buena iniciativa parte de Juan Vidal. Se agradece que la comunidad de programadores de SAS comparta sus conocimientos, algo que no es muy habitual; al contrario de lo que pasa con otras herramientas para la gestión de la información y la estadística. Por supuesto, esta iniciativa tiene su correspondiente enlace en esta web. ...

1 de mayo de 2014 · rvaquerizo

El problema de la multicolinealidad, intuirlo y detectarlo

El modelo lineal se puede escribir de forma matricial como $Y = X \cdot \text{Beta} + \text{Error}$. Donde $Y$ es el vector con nuestra variable dependiente, $X$ la matriz con las variables regresoras, $\text{Beta}$ el vector de parámetros y el «error» esa parte aleatoria que tiene que tener todo modelo. La matriz con nuestras variables regresoras $X$ ha de tener rango completo; es decir, todas sus columnas tienen que ser linealmente independientes. Eso nos garantiza que, a la hora de estimar por mínimos cuadrados ordinarios, $X’X$ es invertible. Si no es invertible, la estimación por mínimos cuadrados ordinarios «se vuelve inestable» ya que $X’X = 0$ y $1/X’X$ será muy complicado de calcular, ya que los $\text{Beta}$ son $\text{inversa}(X’X) \cdot X’Y$; por ello, los resultados que arroja el modelo tienen una alta variabilidad. Cuando esto nos pasa, tenemos colinealidad. ...

19 de marzo de 2014 · rvaquerizo

SQL vs Hadoop. Más que una tendencia

Google Trends, SQL frente a Hadoop. La tendencia es clara: mientras el interés por Hadoop está creciendo, el interés por SQL baja en picado (aunque vaticino un estancamiento de 2-3 años). Y si analizamos el interés por zona geográfica por Hadoop: Ya podéis adivinar quiénes marcarán el ritmo en el sector. Quiénes serán la referencia en Big Data en 3-4 años. Adónde irán los servidores de las principales compañías mundiales. Muy significativo.

18 de marzo de 2014 · rvaquerizo