Page 158 - 71_01
P. 158
AGUSTÍN GARCÍA ASUERO AN. R. ACAD. NAC. FARM.
Se ha despertado un interés considerable en la estadística «no
paramétrica», describiéndose una variedad de métodos robustos de
regresión, válidos frente a violaciones de las suposiciones clásicas.
Tales herramientas requieren sólo simples suposiciones, tales como
aleatoriedad, independencia y simetría. El cálculo de la regresión
robusta conlleva mucho tiempo y está ideado para uso con varios
errores de distribución que pueden presentarse en la práctica, así
como con datos normales contaminados con observaciones indesea-
bles. Los métodos robustos son menos exactos que la estimación por
mínimos cuadrados cuando las suposiciones de éstos son ciertas,
pero más exactos —a veces mucho más— cuando ellas son falsas,
esto es, son insensibles a las violaciones de estas suposiciones. Mé-
todos intensivos de computación de inferencias como «boostrap» o
«jacknife» son, por otra parte, herramientas poderosas con sólo unas
cuantas suposiciones referentes a la distribución.
Independencia
La suposición de independencia implica que las perturbaciones en
diferentes experimentos son independientes unas de otras, esto es, la
perturbación de series separadas no se encuentran sistemáticamente
relacionadas, una suposición que se satisface de manera apropiada
mediante aleatoriedad. Debe también confirmarse que los errores son
independientes o, en otras palabras, no correlacionados con alguna
variable. En muchas situaciones es bastante razonable esperar que las
yi sean independientes si son resultado de medidas aisladas, separa-
das, no interferentes. Sin embargo, en el trabajo de calibración puede
aparecer correlación entre los términos de error si la muestra se lleva
a cabo de forma inapropiada o las condiciones analíticas varían en
función del tiempo (temperatura, degradación, evaporación, disposi-
tivo de deriva, etc.), tal como reconoce Baumann.
La causa más común de dependencia en las respuestas es que
sean tomadas de forma secuencial en el tiempo o de una manera
sistemática, lo que introduce generalmente una correlación positiva
entre las observaciones. La correlación serial o autocorrelación en
los datos representa, de esta manera, una violación en lo que respec-
ta a la independencia de los errores de medida.
160