Page 158 - 71_01
P. 158

AGUSTÍN GARCÍA ASUERO  AN. R. ACAD. NAC. FARM.

    Se ha despertado un interés considerable en la estadística «no
paramétrica», describiéndose una variedad de métodos robustos de
regresión, válidos frente a violaciones de las suposiciones clásicas.
Tales herramientas requieren sólo simples suposiciones, tales como
aleatoriedad, independencia y simetría. El cálculo de la regresión
robusta conlleva mucho tiempo y está ideado para uso con varios
errores de distribución que pueden presentarse en la práctica, así
como con datos normales contaminados con observaciones indesea-
bles. Los métodos robustos son menos exactos que la estimación por
mínimos cuadrados cuando las suposiciones de éstos son ciertas,
pero más exactos —a veces mucho más— cuando ellas son falsas,
esto es, son insensibles a las violaciones de estas suposiciones. Mé-
todos intensivos de computación de inferencias como «boostrap» o
«jacknife» son, por otra parte, herramientas poderosas con sólo unas
cuantas suposiciones referentes a la distribución.

Independencia

    La suposición de independencia implica que las perturbaciones en
diferentes experimentos son independientes unas de otras, esto es, la
perturbación de series separadas no se encuentran sistemáticamente
relacionadas, una suposición que se satisface de manera apropiada
mediante aleatoriedad. Debe también confirmarse que los errores son
independientes o, en otras palabras, no correlacionados con alguna
variable. En muchas situaciones es bastante razonable esperar que las
yi sean independientes si son resultado de medidas aisladas, separa-
das, no interferentes. Sin embargo, en el trabajo de calibración puede
aparecer correlación entre los términos de error si la muestra se lleva
a cabo de forma inapropiada o las condiciones analíticas varían en
función del tiempo (temperatura, degradación, evaporación, disposi-
tivo de deriva, etc.), tal como reconoce Baumann.

    La causa más común de dependencia en las respuestas es que
sean tomadas de forma secuencial en el tiempo o de una manera
sistemática, lo que introduce generalmente una correlación positiva
entre las observaciones. La correlación serial o autocorrelación en
los datos representa, de esta manera, una violación en lo que respec-
ta a la independencia de los errores de medida.

160
   153   154   155   156   157   158   159   160   161   162   163