Programas de monitoreo del medio marino costero

Tekst
0
Recenzje
Przeczytaj fragment
Oznacz jako przeczytane
Czcionka:Mniejsze АаWiększe Aa

DESARROLLO

1. Poder estadístico

Los programas de monitoreo generalmente no son experimentos científicos controlados, y su poder explicativo puede ser débil. Una forma de abordar la cuestión de la precisión adecuada de un programa de monitoreo es incorporando el “análisis de poder estadístico” (e.g., Christensen & Ringvall, 2013; Green, 1989; Nielsen et al., 2009).

El poder estadístico es la probabilidad de detectar un efecto, cuando este efecto existe (Cohen, 1988), esto significa que mientras mayor es el poder estadístico de un diseño de muestreo para detectar un efecto, mayor es la probabilidad de detectarlo cuando este efecto existe. En consecuencia, programas de monitoreo con diseños de muestreo con bajo poder estadístico tienen una alta probabilidad de fallar en detectar cambios ambientales y, por lo tanto, de inducir falsamente al error de que no hay efectos, cuando sí los hay o, por el contrario, que existen efectos cuando no los hay, o se deben a factores de mayor escala que escapan a los alcances (o área de influencia) de la operación misma (Dzul et al., 2013). Es esencial incorporar estimaciones del poder estadístico cuando se debe seleccionar una estructura de diseño de muestreo apropiada, lo que repercute profundamente en los esquemas de monitoreo, con el propósito de asegurar resultados robustos que impacten positivamente la gestión ambiental de la operación y maximicen el tiempo y recursos invertidos en pro de la sostenibilidad de los procesos productivos (Legg & Nagy, 2006; Field et al., 2007).

Hasta cierto punto, en los monitoreos existe un despilfarro de dinero si las herramientas utilizadas para evaluar los efectos ambientales no han definido a priori el poder estadístico del diseño de muestreo. Por muchos recursos que se inviertan, si las herramientas y diseño utilizados tienen un bajo poder estadístico, no será posible detectar un efecto, aun cuando esté ocurriendo. En consecuencia, podemos erradamente concluir que no hay efecto, en circunstancias que en la realidad sí lo hay. Es por esto que, cuando se desarrollan programas nacionales de monitoreo con fondos públicos, es requisito la incorporación de un análisis de poder estadístico para su diseño antes de su implementación (Christensen & Ringvall, 2013).

En términos científicos el poder estadístico es la capacidad de un diseño (modelo estadístico específico) para rechazar una hipótesis nula dado que es falsa (Christensen & Ringvall, 2013). Planteado en términos metafóricos de una investigación judicial de un crimen, es la capacidad de encontrar culpable a una persona que en efecto cometió un crimen. La Tabla 1 muestra en una tabla de doble entrada, los escenarios judiciales a los que se ve enfrentado el jurado al momento de tomar su decisión. En la realidad hay solo dos opciones: el acusado es inocente (hipótesis nula: no hay efecto) o culpable (hipótesis alternativa: hay efecto). Por otra parte, la decisión de los jueces también tiene solo dos opciones, declarar —sobre la base de las pruebas de la fiscalía (los análisis y datos obtenidos mediante un diseño de muestreo)— que el acusado es inocente o culpable. Por tanto, hay cuatro escenarios para la decisión de los jueces. En el primer y cuarto cuadrante las decisiones justas, declarar a un inocente (en la realidad) como inocente, y a un culpable (en la realidad) como culpable. Pero los otros cuadrantes son decisiones injustas que en términos estadísticos se denominan error estadístico.

Tabla 1

Tabla de doble entrada para los escenarios judiciales a los que se ve enfrentado un jurado durante un juicio y su interpretación para la definición de errores estadísticos α y β durante la prueba estadística de hipótesis.


Decisión de los jueces
InocenteCulpable
En la realidad el acusado es:InocenteDecisión correctaError a
CulpableError bDecisión correcta

Declarar a un inocente (en la realidad) como culpable es una gran injusticia. De hecho, cientos de condenados han sido declarados inocentes gracias a la incorporación –posterior a sus condenas– de pruebas de DNA en la justicia criminal (Berger, 2006), donde los más graves son aquellos casos en los que los condenados fueron ejecutados, y las evidencias de DNA demostraron que eran inocentes34. Es el caso que ejemplifica el error Tipo I o error a, esto es, concluir que hay efecto cuando no lo hay (en la realidad). Por otra parte, a un culpable (en la realidad) declararlo inocente, es un peligro, solo piense en las consecuencias para el caso de un asesino serial o ladrón de bancos que es declarado inocente y es liberado. Este caso ejemplifica el error Tipo II o error b, esto es, concluir que no hay efecto cuando en la realidad hay efecto. Si b es la probabilidad de un error tipo II, entonces (1–b) es la probabilidad de que si el acusado –en la realidad– es culpable, los jueces lo declararán culpable: este es el poder estadístico aplicado a un juicio. Una investigación cuyo diseño ha sido bien construido y tiene un alto poder estadístico, entonces da garantía de ejercer una justicia justa, esto es, si existe realmente un efecto se le podrá detectar, o en su defecto se le podrá descartar con un grado de confianza estadística razonable.

En Chile, no se ha incluido en la normativa ambiental, la necesidad de incluir programas de monitoreo con diseños que incluyan la evaluación del poder estadístico en sus protocolos de seguimiento y evaluación, lo cual promueve un sistema a priori con muy bajo poder estadístico, y como consecuencia se genera un gran desperdicio de recursos, dinero y tiempo, puesto que los efectos no podrán ser detectados o descartados con certeza. A modo de ejemplo, en una publicación reciente Lacy et al. (2017) concluyen que en los últimos 20 años de implementación de Estudios de Impacto Ambiental (SEIA) en Chile para gestionar proyectos desarrollados en sistemas acuáticos continentales, estos no han sido muy útiles para fortalecer la conservación de los peces chilenos de agua dulce. Lo que refleja una carencia importante respecto a la exigencia en las consideraciones del diseño experimental de estudios que ingresen al SEIA, y ponen en tela de juicio el rol del sistema como principal herramienta para la protección y gestión de ecosistemas naturales en el país.

1.1. Diseños de monitoreo

Los impactos humanos sobre los ambientes marinos y su biodiversidad raramente son diagnosticados correctamente, y por lo mismo, es fácil sobreestimarlos o subestimarlos, si no se incorpora el poder estadístico de los diseños usados durante la implementación de estudios de línea base y planes de vigilancia ambiental. De igual modo, es necesario poder distinguir y separar los efectos causados por agentes naturales de aquellos causados por perturbaciones de origen antrópico, lo cual no es trivial (Downes et al., 2008; Green, 1979; Osenberg & Schmitt, 1994; Underwood & Chapman, 2003). Para ello se ha desarrollado una variedad de diseños experimentales y modelos estadísticos lineales de varianza que permiten evaluar y detectar apropiadamente los efectos de las actividades antropogénicas (Downes et al., 2008). En los siguientes apartados, se realizará una introducción a los modelos estadísticos lineales de varianza, las hipótesis nulas y alternativas, y lo relacionaremos con la estimación de poder estadístico y su aplicación al diseño de programas de monitoreo ambiental.

1.1.1. Consideraciones estadísticas iniciales

Consideraremos un ejemplo hipotético con cuatro localidades para las que queremos determinar si son distintas, esto es, si hay diferencias significativas en relación con una determinada variable respuesta (como pudiera ser, por ejemplo, la diversidad de especies). La Figura 1b muestra la distribución de la variable respuesta para cada una de las cuatro poblaciones hipotéticas (representando a cada una de las cuatro localidades). Para cada una se muestra su respectivo promedio µi (el subíndice representa cada localidad). Es posible por tanto evidenciar que la localidad 3 tuvo el mayor valor de la variable respuesta, y la 4 el menor valor. Esta figura (Figura 1b) representa la hipótesis alternativa (H1), esto es, que existen diferencias entre el promedio de las cuatro localidades (µ1 ≠ µ2 ≠ µ3 ≠ µ4), debido, por ejemplo, al efecto de una operación determinada. La hipótesis nula (H0) sería por tanto que no existen diferencias significativas entre las localidades, presumiendo entonces que todas las localidades tienen un mismo promedio, igual al promedio total (µ1 = µ2 = µ3 = µ4 = µ), descartando la presencia de un efecto sobre el sistema debido a la operación en estudio. Esto queda representado en la Figura 1a (previa readecuación de la escala), como una sola distribución centrada en el promedio total (µ).

Figura 1

Distribución de la variable respuesta para cuatro poblaciones hipotéticas, para las cuales se representa (a) la distribución de promedio total y (b) su respectivo promedio μi.


Si (hipótesis nula) es la verdadera, entonces la Figura 1a, representa esa situación, en cambio si es falsa y, por tanto, (hipótesis alternativa) es verdadera, entonces la Figura 1b es la correcta.

Para efectos de modelar el escenario de la hipótesis nula H0 (Figura 1a), es útil y conveniente expresar los datos como desviaciones del valor promedio total o media total (µ), de tal modo que cada dato (yj) queda expresado del siguiente modo:

yj = µ + ej [1]

 

donde es el error residual, esto es la desviación del dato a la media, tal que

ej = yj + µ [2]

ej es la diferencia entre el dato j y la media total µ. La ecuación lineal [1], también denominado modelo estadístico lineal o simplemente modelo lineal, representa la hipótesis nula H0, técnicamente denominado como modelo reducido.

Y el escenario de la hipótesis alternativa H1 (Figura 1b), lo representamos por el modelo lineal siguiente:

yij = µi + eij [3]

En este caso, el dato j dentro de la localidad i (yij) lo descomponemos en función de la media de su respectiva localidad (µi) y eij es el error residual, la diferencia entre el dato y la media de su respectiva localidad.

Para esta modelación de los datos, centrado en los respectivos promedios, su distribución en torno al promedio representa la distribución del error residual, que se asume en cada caso, sigue una distribución normal N(µ, σ), con promedio µ y desviación estándar σ, y por cierto varianza σ2.

La Figura 2 corresponde a la misma Figura 1b, pero ahora además de los promedios para cada localidad, se ha incluido el promedio total µ. Esta figura (Figura 2) es la representación gráfica del denominado modelo de efectos de tratamientos, para el cual, realizamos tres presunciones fundamentales:

Figura 2

Descomposición estadística para la distribución de la variable respuesta para cuatro poblaciones hipotéticas, para las cuales se representa su respectivo promedio µi

y promedio total µ.


i) que los residuales tienen distribución normal N(µ, σ) (normalidad de residuales),

ii) que las varianzas de los residuales de las distintas localidades son homogéneas (homocedasticidad),

iii) e independientes de los tratamientos, en este caso localidades (independencia).

Mostramos ahora, respecto de la Figura 2, cómo procedemos a descomponer la diferencia entre cada dato (yij) y la media total (µ) (error residual total), esto es yij – µ (trazo señalado con 3 asteríscos, ***, en la Figura 2) en dos componentes aditivos. Por una parte, la diferencia entre cada dato y la media del grupo de pertenencia (yij – µi) (señalada con un asterisco, *) y la diferencia entre la media del grupo y la media total (µi – µ) (señalada con dos asteriscos, **).

Como es fácilmente demostrable, tenemos que:

(yij – µ) = (µi – µ) + (yij – µi) [4]

Si esta ecuación se eleva al cuadrado, y se divide por los grados de libertad, y se suma recursivamente para todos los datos –dadas las tres presunciones enunciadas arriba– es posible derivar los componentes de varianza σ2, asociados a la ecuación [4] como:

σ2total = σ2tratamientos + σ2error residual [5]

Esto permite destacar que el término (μi – μ), en la ecuación [4] representa el efecto de tratamiento (como la diferencia entre el promedio de tratamiento y la media total), que denominamos como τi, y el término (yij – μi) es el efecto del error residual que denominamos como eij, reemplazando en [4] queda:

(yij – μ) = τi + eij [6]

al sumar a ambos lados de la ecuación queda:

yij = μ + τi + eij [7]

Lo que representa el modelo de efectos de tratamientos; esto es el modelo estadístico matemático de un Análisis de Varianza (ANDEVA) de una Vía, o modelo completo (full model). Cuando se corre este modelo con algún software, representamos su resultado en la típica y conocida Tabla de ANDEVA (Tabla 2).

Resumen del Análisis de Varianza (ANDEVA). El valor de F —de la Tabla 2— se obtiene calculando primero, los Cuadrados Medios de Tratamientos (CMT, la sumatoria del cuadrado de las diferencias entre las medias de cada tratamiento y la media total dividida por los grados de libertad), y los Cuadrados Medios del error residual (CME,). El F observado se estima como CMT dividido por CME (ambos tienen una distribución de χ2). El valor teórico de esta nueva distribución fue denominado F35. La distribución de F36 permite modelar la distribución de la probabilidad de que solo el azar explique los resultados observados (modelo reducido), entonces esta distribución representa a la Hipótesis Nula, bajo la presunción de que es verdadera, y es la que nos permite aceptar o rechazar la hipótesis nula. La probabilidad del error Tipo I (α) se estima usando el valor de F observado, y estimando la Probabilidad (P) como el valor de la probabilidad para ese valor de acuerdo con la distribución esperada de F (usando los grados de libertad del denominador y del nominador). Si el valor de P es igual o menor que 0.05, entonces se rechaza la hipótesis nula (H0), asumiendo que se puede estar equivocado con una probabilidad P de cometer un error (Error Tipo I).

Para modelar la distribución del error tipo II (β) esto es de la hipótesis alternativa, bajo la presunción de que H1 es verdadera, se usa la distribución no-central de F37 desarrollada por Ronald Fisher (Patnaik, 1949), que solo hace poco tiempo ha sido posible de calcular usando algoritmos ejecutables en computadores de alto rendimiento, y software como SAS, R, etc.

Tabla 2


Con esta breve introducción a los modelos lineales, ANDEVA, estimación de las distribuciones de F y F no-central para las H0 y H1, retomamos el tema del análisis de poder y la decisión estadística en modelos lineales. La Figura 3 muestra los mismos escenarios de la Figura 1. La distribución probabilística de la izquierda muestra la distribución de dado que es verdadera. Esta distribución es la probabilidad de que el azar explique el valor de F (bajo los mismos grados de libertad del modelo lineal). Mientras más pequeño es el valor de la Probabilidad, más hacia la derecha de la distribución y más improbable es que el error explique las diferencias observadas entre los tratamientos. El punto de decisión es P = 0.05, por lo que, si ese valor de P observado es menor al valor crítico, se rechaza la H0, con una probabilidad P de cometer un error Tipo I, esto es, condenar a un Inocente.

Figura 3

Distribución probabilística de α (error tipo I) y β (error tipo II) de que H0 y H1 son respectivamente verdaderas.


Por otra parte, la distribución probabilística de la derecha muestra la distribución de β dado que H1 es verdadera. Mientras menor es β (desplazamiento hacia la izquierda), menor es la probabilidad de cometer un error Tipo II (declarar inocente al culpable). Por tanto, (1 – β) es la probabilidad de condenar como culpable al que lo es en la realidad, y es lo que se denomina como poder estadístico. Si para un diseño de monitoreo el valor mínimo de (1 – β) se establece en un valor de 0.80, esto quiere decir que el diseño de monitoreo tendrá al menos una chance de un 80% de detectar correctamente un efecto, si es que en la realidad existe (Antcliffe, 1999). En este caso, la probabilidad del error tipo II (de liberar a un culpable), es bajo valores de β = 0.20.

En algunos programas de monitoreo de largo aliento, el mínimo valor aceptable, se ha establecido en un poder de 0.75 (Levine et al., 2014). En general el poder estadístico es una función proporcional a: la probabilidad del error (usualmente P(α) = 0.05), el número de muestras o tamaño muestral, y el tamaño del efecto, e inversamente proporcional a la desviación estándar de la variable respuesta (σ) (Cohen, 1988), de acuerdo a:

Poder (1-β) ≈ [8]

Mientras menor es el tamaño del efecto esperado de una operación y/o mayor la desviación estándar de la variable respuesta, menor es la probabilidad de detectarlo, situación que puede subsanarse incrementando el tamaño total de muestras (mayor número de localidades, y/o número de réplicas, etc.) para incrementar el poder.

El principal motivo para incrementar el poder estadístico en monitoreos y estudios ambientales es el de reducir las probabilidades de cometer un error Tipo II, esto es, ser capaces de detectar un efecto cuando lo hay con la mayor probabilidad posible. Al no establecer el poder estadístico a priori de un diseño de monitoreo, corremos el riesgo de cometer un desgaste inútil de recursos en monitoreos ineficientes, además de conducir potencialmente a una injustificable degradación de nuestro ambiente (cuando los efectos de la operación son negativos), con consecuencias que pueden ser graves para la salud humana, la pérdida de servicios ecosistémicos y el riesgo que supone para la sostenibilidad operacional de actividades económicas fundamentales para el desarrollo de la sociedad (Antcliffe, 1999; Peterman, 1990a).

Recomendamos explorar el Programa G*power38 (Faul et al., 2009; Faul et al., 2007) de libre acceso que permite realizar análisis de poder estadístico para una serie de pruebas y análisis estadísticos, el que es de fácil uso y muy instructivo para lograr una mejor comprensión del poder estadístico. La Figura 4a muestra el menú inicial, en la cual hemos simulado un análisis de poder a priori, esto es en la fase de diseño del programa de muestreo (Type of power análisis: A priori: Compute required sample size - given, power, and effects size) para un ANDEVA de una vía como el descrito por el modelo de efectos de tratamientos (ecuación[7]) (Test family = F tests / Statistical test = ANDEVA: Fixed effects, omnibus, one-way), para cuatro localidades (number of groups = 4), para un error = 0.05, y un poder estadístico (1 – β) = 0.80. Nos interesa en este caso estimar el número de total de muestras necesario para un poder del 80%. El programa requiere la estimación del tamaño del efecto η2 que se estima como, la proporción de la varianza total que es explicada por varianza entre localidades (tratamientos), esto es η2= SC, (ver Tabla 2). Estos valores se pueden obtener de muestreos pilotos, de información contenida en las líneas base, y/o de la realización del correspondiente ANDEVA con esos datos. También es útil revisar los resultados de análisis de la literatura en comparaciones similares, que permitan hacer una estimación aproximada de η2, e incluso puede realizarse sobre la base de valores estándar sugeridos por el mismo programa G*power, e.g. η2 = 0.40 (en el que se espera que la diferencia entre las localidades sea grande); η2 = 0.25 (para diferencias o efectos medios); y η2 = 0.10 cuando se espera que el efecto o la diferencia sea pequeña. Al ingresar las condiciones establecidas se selecciona el submenú en la parte inferior: Calculate, que para el caso del tamaño del efecto grande (η2 = 0.40), se observa en la Figura 4a, en la parte superior el mismo gráfico de la Figura 3, con las distribuciones teóricas de F y la distribución no-central de F (para las condiciones establecidas), y el valor crítico del estadístico para la decisión estadística. El tamaño muestral total óptimo en este caso es de 76 muestras totales, estos es 19 réplicas por localidad. Con ello se tiene la seguridad de detectar las diferencias cuando en ellas existen tamaños del efecto grande. Para η2 medianos (0.25), el tamaño muestral óptimo es de 45 réplicas por localidad, y para η2 pequeños (0.1) se necesita 274 réplicas por localidad. Al seleccionar el submenú inferior: x-y plot for a range of values, se despliega el gráfico de la Figura 4b, con la relación entre el tamaño muestral total y el poder. En este caso, si se usan 5 réplicas por localidad, esto es un tamaño total de 20 muestras, entonces el poder es del orden del 20%, que significa que existe un 80% de probabilidades de no detectar diferencias aun cuando estas diferencias o efectos existan y sean grandes. Es el típico caso, de un trabajo que se traducirá en un desperdicio de recursos, dinero, tiempo y esfuerzo.

Figura 4

Capturas de pantalla del programa estadístico de libre acceso G*power, para la realización de análisis de poder estadístico (Buchner, A., n.d.).


2. Diseños de monitoreo y modelos lineales

La estructura analítica de un diseño de monitoreo la representamos mediante un modelo estadístico como el de la ecuación [7], que representa las relaciones entre la variable respuesta y una o más variables explicativas en forma matemática, lo que al mismo tiempo permite poner a prueba hipótesis sobre los efectos –significativos o no– de potenciales intervenciones humanas.

 

Para el caso de la ecuación [7], buscamos establecer los efectos de los tratamientos (localidades) sobre la variable respuesta ((e.g. riqueza de especies). En la actualidad se usan programas estadísticos39 para resolver estos modelos y construir estadígrafos que nos permiten tomar decisiones sobre la significancia o no de los efectos de los factores y tratamientos.

El primer diseño en la perspectiva de detectar efectos de intervenciones humanas sobre variables ambientales fue propuesto por Green (1979), cuyo modelo lineal lo podemos ver como modelo 1 en la Figura 5. Su estructura es la misma que el de la ecuación [7], los tratamientos acá son el efecto de ambos períodos (Antes-Después) –que le da el nombre al diseño como Before-After– en una misma localidad, antes y después del inicio de la operación. Cuando se tienen datos antes y después de un impacto en una sola localidad este sería el único diseño posible de aplicar. Para este y otros diseños de ANDEVA, se pueden usar varios programas para estimar el poder estadístico, entre ellos se destaca el programa anteriormente descrito G*Power 3 (Faul et al., 2007), además del programa SAS que tiene una buena introducción al análisis de poder estadístico y tamaño de muestra (SAS Institute, 2008), entre otros programas como MINITAB y R. Se sugiere al lector determinar cuál de estas opciones se ajusta de mejor manera a sus necesidades y profundizar en ellos.

Este modelo puede enriquecerse incluyendo varios muestreos en distintos tiempos dentro de cada período. Sin embargo, aun cuando se logre detectar una diferencia significativa del efecto Antes/Después (AD) de la operación, la inferencia estadística es débil puesto que cualquier diferencia detectada puede deberse a otros efectos y no necesariamente corresponde a un efecto asignable a la operación. Debido a este problema es que Green (1979) propone incorporar una localidad control, dando origen a los diseños BACI (que sugerimos denominar BACO en inglés o ADCO en castellano), y está representado por el modelo 2 (Figura 5). En este se incorpora una localidad control, de tal modo que además del efecto del factor AD (esto es la diferencia entre el promedio de A y D), tenemos un segundo factor: el efecto de Localidad CO (las diferencias entre los promedio de la localidad control vs la de operación), y un tercer factor que denominamos interacción entre AD y CO (AD x COij) con cuatro situaciones ortogonales, (AC, AO, DC, DO, ver figuras en Figura 5) que podemos comparar. Cuando hay efecto significativo de la operación, lo ponemos a prueba estadísticamente a través de la significancia de la interacción AD x COij, que surge de las diferencias entre los promedios de las cuatro situaciones ortogonales.

En este diseño, es necesario que el seguimiento para la evaluación del efecto de una operación considere la toma de muestras u observaciones desde ambos tipos de localidades: Operación y Control, durante ambos períodos Antes y Después del inicio de la operación. La localidad control debiera ser similar y cercana a la de operación, pero lo suficientemente lejana como para no estar expuesta a los efectos de la operación (área de influencia), de tal manera de representar de la mejor manera posible la situación base de la localidad de operación, de no haberla intervenido.

El modelo 3 (Figura 5) es una extensión del modelo 2, denominado como BACIP (Before-After Control-Impact Paired Series Design), pues si bien se tiene una localidad control y una de operación, se ha tenido la posibilidad de tener muestreos en distintos tiempos pareados (simultáneos) antes y después del inicio de la operación (en el modelo se representan años). Mostraremos en la sección Resultados en una planta desaladora, un ejemplo concreto sobre este modelo. Estos diseños BACI y BACIP permiten distinguir entre los cambios naturales ocurridos en ambas localidades (operación/control), de aquellos producidos por las actividades asociadas a la localidad de operación, si es que ocurren. Sin embargo, la debilidad de este tipo de diseño es que no se puede distinguir entre los efectos locales del propio sitio control con relación a los efectos ambientales de escalas mayores, e.g., regionales (Green, 1979; Keough & Mapstone, 1997; Smith, 2002; Stewart-Oate et al., 1986; Underwood, 1991).

A partir de estas propuestas se han desarrollado otros diseños experimentales con sus correspondientes programas de muestreo que han sido revisados por Smith (2006) y Downes et al. (2008). Estos se clasifican en al menos cuatro tipos de diseños: BACI propiamente tal, BACIP, MBACI y beyond-BACI (Green, 1979; Stewart-Oaten et al., 1986; Underwood, 1991; Underwood & Chapman, 2003). Es clave en estos nuevos diseños y modelos la inclusión de dos o más “localidades control”, esto es, localidades que se eligen por ser tan similares, como fuere posible en todos los aspectos, a la localidad que recibirá el efecto de la operación, excepto por la ausencia del efecto putativo. El propósito de usar varias localidades control corresponde a poder capturar los efectos ambientales de mediana escala (e.g., regionales) y separarlos de los efectos locales de cada sitio, y al mismo tiempo aislar el efecto de la actividad humana particular que se estudia, en relación con el rango de procesos naturales del área geográfica en que está inserta la localidad de la operación. La presunción subyacente en estos diseños es que la localidad de operación, esto es, el área de influencia que recibirá los efectos de la actividad evaluada, debiera comportarse aproximadamente igual al promedio de las localidades control en la ausencia de los efectos de la operación (Keough & Mapstone, 1997; Underwood, 1991). Esto significa que los datos obtenidos de las localidades control, para el período “después” del inicio de la operación, son un modo de proveer un substituto o “proxy” en la ausencia de la actividad para la localidad de operación.

Figura 5

Distintos diseños de modelos BACI,

para su implementación en programas de monitoreo ambiental.


Otros dos diseños que solo discutiremos en esta sección de modo muy general dentro de la familia de modelos beyond-BACI, son el 4 y el 5 (Figura 5). En este caso se tiene varias localidades control y una sola de operación. De modo general, los diseños experimentales beyond-BACI usan un modelo estadístico de tres o más factores principales: 1. PERIODO: AD, Antes/Después de efecto fijo; 2. TRATAMIENTO: CI, Control/Impacto de efecto fijo; 3. T(AD) Tiempos de Muestreo como factor anidado dentro de PERIODO, como efectos aleatorios, y que permiten capturar la variabilidad ambiental. Hay una variedad de esquemas de monitoreo que se pueden agregar como se puede apreciar en los modelos 4 y 5 (Figura 5).

En Chile, aun cuando la gran mayoría de programas de monitoreo industriales sometidos a supervisión del Sistema de Evaluación de Impacto Ambiental (SEIA) responden a una lógica BACI, son escasos los trabajos académicos en la materia. Hasta nuestro conocimiento son cinco los estudios publicados: (i) Jaramillo et al. (1996) y Jaramillo et al. (2002) implementaron diseños BACI para el estudio de comunidades submareales en playas de arena en el sur de Chile; (ii) Kong et al. (1998) usaron un diseño de análisis Antes-Después (Green, 1979) (modelo 1) para comparar los efectos de la instalación de un complejo industrial pesquero sobre la actividad pesquera local; (iii) Buschmann et al. (2006) implementaron un diseño “beyond BACI” (modelo 5) para evaluar los efectos de la actividad salmonera; (iv) Sepúlveda & Valdivia (2016) aplican un modelo beyond BACI del estilo del modelo 4 (Figura 5) para evaluar los efectos del mega terremoto de 2010; (v) Halpern et al. (2004) revisan y discuten los resultados de análisis de estudios de reservas marinas que han usado diseños experimentales BACI en la práctica, como los de Castilla & Durán (1985) y Castilla & Bustamante (1989).

En general, todos los modelos pueden ser analizados tanto de modo univariado (para los cuales se aplican tantos análisis como variables respuestas que se incluyen en el diseño experimental implementado; e.g., riqueza de especies, abundancia y cobertura de una especie, salinidad, etc.), como de modo multivariado (Downes et al., 2008) (ver Sepúlveda & Valdivia, 2016).