Gilles Deleuze y Félix Guattari

Tekst
0
Recenzje
Przeczytaj fragment
Oznacz jako przeczytane
Czcionka:Mniejsze АаWiększe Aa

Para resumir todo esto podríamos decir que quien quiera conocer el operador de transformación que posibilitó el paso de la historia natural a la biología, del análisis de las riquezas a la economía política y de la gramática general a la filología histórica, el operador que de ese modo inclinó todos esos sistemas, esos conjuntos de saberes hacia las ciencias de la vida, el trabajo y la producción, hacia las ciencias de las lenguas, deberá buscarlo por el lado de la población2.

Ahora bien, aquí la población constituye la condición real y contingente, que opera como unidad efectiva o positividad que caracteriza las transformaciones discursivas en el seno de la vida, el trabajo y el lenguaje. No se trata, entonces, de considerar la noción de población simplemente como un asunto común abordado desde diversas disciplinas, sino de establecer las múltiples relaciones entre ciertas tecnologías de poder y determinados saberes que en el transcurso de la historia van dibujando el contorno de los fenómenos específicos de la población como campo de realidad: «A partir de la constitución de la población como correlato de las técnicas de poder pudo constatarse la apertura de toda una serie de dominios de objetos para saberes posibles»3.

En dos de sus libros, El surgimiento de la probabilidad, publicado en 1975, y La domesticación del azar, publicado en 1990, Ian Hacking traza la historia que va desde el nacimiento de la teoría de la probabilidad en el siglo XVII hasta los desarrollos más acabados de la estadística a finales del XIX. Es muy significativa la mención que hace Hacking de Leibniz. El filósofo de Leipzig no solo contribuyó, junto a Pascal, a la creación de un cálculo de probabilidad, sino que fue «el padrino filosófico de las estadísticas oficiales prusianas», pues pensaba que «el verdadero poderío de un Estado es su población»4. No es de extrañar que fuera Leibniz mismo, antes de William Petty en Inglaterra, quien recomendara en 1685 la creación de la primera oficina central de estadística. Una población no es solo un grupo de personas en un lugar, se requiere que sea una cantidad mesurable, pues no hay población sin una probabilidad matemática y sin una «aritmética política»5. Hacking considera como Foucault que la biopolítica surge desde el siglo XVIII e incluso un poco antes, además añade que «la biopolítica presenta el rasgo corriente de una carpeta de riesgos, esto es, que casi al mismo tiempo extremos opuestos se presentan como horrendos peligros»6. No en vano Foucault describe el gobierno de la población en términos de dispositivo de seguridad. Hemos hecho referencia a los trabajos de Foucault y a los de Hacking, para señalar cómo las ciencias de la vida, el trabajo y el lenguaje, por un lado, y la ciencia de la esperanza, como fue llamada la probabilidad matemática, por el otro, tienen a la población como correlato de las técnicas del biopoder. El poderío del Estado, como soñaba Leibniz, dependerá en gran medida en haber incorporado efectivamente las tecnologías estadísticas en sus planes y en sus instituciones. Deleuze no estuvo ajeno a estos asuntos respecto a las condiciones que hacen posible las nuevas formaciones históricas en torno a la vida, el trabajo y el lenguaje.

Deleuze y la máquina informática: transformaciones en la vida, el trabajo y el lenguaje

Gilles Deleuze, en un texto consagrado al legado de la obra de Michel Foucault, se refiere a las transformaciones que en nuestra época se han producido en torno a la vida, el trabajo y el lenguaje. Según Deleuze, en el conjunto de estas transformaciones, Foucault le otorga un privilegio al lenguaje sobre la vida y el trabajo, a través de la literatura moderna «el ser del lenguaje» iría más allá de la función de designación y significación. El lenguaje no cesaría de replegarse en un eterno retorno sobre sí mismo, liberando en él una lengua extranjera en la propia lengua. Sin embargo, el propio Deleuze, prolongando el análisis de Foucault, añade, respecto de la vida y el trabajo, movimientos decisivos, si se quiere comprender nuestro presente: «Ha sido necesario que la biología se transforme en biología molecular, o que la vida dispersada se agrupe en el código genético. Ha sido necesario que el trabajo dispersado se agrupe en las máquinas de tercer tipo, cibernéticas e informáticas»7. Habría que agregar, por nuestra parte, que no podríamos comprender hoy la lingüística y la semiótica sin las herramientas de análisis que brinda también la informática (lingüística computacional). A través de la expresión «ha sido necesario que…» el filósofo francés nos da las claves para comprender el desarrollo alcanzado por las ciencias y las tecnologías desde las últimas décadas del siglo XX. Para este desarrollo ha sido necesario que la vida haya sido descifrada en su estructura más elemental agrupándose en el código genético, que el trabajo se organice alrededor de las máquinas informáticas. Por supuesto, ha sido necesaria la simbiosis entre las ciencias de la vida y las ciencias de la información, dando lugar a la bioinformática, para que haya sido posible la secuenciación del código genético de distintas especies y, finalmente, la del ser humano en el 2001. Como se podrá observar, el operador común de tal transformación es aquí la máquina informática. La biología molecular, el trabajo cognitivo o posfordista (en red y por proyectos) y la lingüística computacional se llevan cabo y se articulan en torno a algoritmos cada vez más complejos. Con las nuevas tecnologías se produce un horizonte insospechado de posibilidades tanto de conocimiento como de intervención en la vida misma. «El hombre cargado incluso de animales (un código que puede capturar fragmentos de otros códigos, como en los nuevos esquemas de evolución lateral o retrógrada). Es el hombre cargado de rocas o de lo inorgánico (allí donde reina el silicio)»8.

Esta descripción somera esboza las condiciones que caracterizan el a priori histórico, según la fórmula de Foucault en La arqueología del saber, en que la vida, el trabajo y el lenguaje han de ser pensados en nuestro presente. En este sentido, como es bien sabido, a priori para Foucault no indica universalidad y necesidad como condiciones de validez de determinados juicios, «sino condición de realidad para unos enunciados»9. Se requieren unas condiciones históricas dadas para que surja un objeto de discurso, para que sea posible decir tal o cual cosa sobre tal objeto. Quien quiera realizar una arqueología de la contemporaneidad tendrá que mostrar cómo el desarrollo de la informática ha reunido a partir de sí y ha transformado lo que hoy podemos pensar, decir y hacer en torno a la vida, el trabajo y el lenguaje10. A partir de la indicación de Deleuze bajo la expresión «ha sido necesario que…» consideramos necesario, si se quiere preservar el ethos crítico del pensamiento, interrogar las evidencias y los supuestos en que la vida, el trabajo y el lenguaje se presentan en la actualidad. Sin embargo, nuestro propósito aquí es muy modesto, en una perspectiva más cercana a Deleuze que a Foucault, intentaremos trazar las líneas generales de un esbozo en que vida y trabajo se entretejen.

Como se podrá apreciar en el uso que hacemos de las expresiones: 1) «ha sido necesario que…» y 2) «es necesario que…», necesidad y contingencia no se oponen. Empecemos por el segundo caso, más sencillo de explicar, decimos «necesario» en un sentido más bien retórico, como sinónimo de urgencia, en su lugar habríamos podido afirmar también: el ethos crítico del pensamiento «nos demanda a…». En el primer caso interpretamos la expresión deleuziana en el sentido en que la vida dispersada, esto es, dispersada en las múltiples formas de concebirla, y sin aún encontrar una definición unánime, «solo ha podido agruparse» a partir de su concepción molecular; concepción que nos dice cuáles son los componentes esenciales de la vida en sí misma. Deleuze en 1986, año de la publicación del texto que estamos comentando, toma como referencia de su argumento la estructura de la doble hélice descifrada por Watson y Crick en 1953, los genes reguladores de François Jacob y Jacques Monod en 1958 y la evolución aparalela de Rémy Chauvin en 1969. En este sentido, el filósofo francés ve cómo contingentemente la perspectiva molecular de la vida ha devenido preeminente, y cómo el código genético funciona como operador necesario sobre el cual muchas cosas empiezan a girar. La contingencia, que no es lo mismo que el azar, engendra el acontecimiento o la invención que opera como fuerza aglutinante a partir de la cual se produce un horizonte donde nuevas capacidades empiezan a desplegarse. Después de la muerte del filósofo, el desarrollo del filum bio-tecno-científico proseguirá desde los métodos de secuenciación genómica en 1995, año en que fue secuenciado el genoma de la ilustre bacteria Escherichia coli «con la que se estrenó la biología molecular»11, hasta la secuenciación del genoma humano en el 2001; desde la tecnología del ADN recombinante hasta el desarrollo reciente de tecnologías de modificación genética como CRISPR; desde la clonación de seres vivos hasta las sorprendentes creaciones de Frances Arnold, en Caltech, cuya nueva tecnología en ingeniería de proteínas le ha permitido construir nuevas proteínas, nunca antes presentes en la naturaleza. En Políticas de la vida. Biomedicina, poder y subjetividad, Nikolas Rose describe la emergencia de una nueva forma de vida, la vida molecular, que comporta un modo de pensar, de ver y de actuar. Esta forma de vida implica una transformación de la medicina en biomedicina: las palabras susceptibilidad y optimización dominan ahora su léxico y su ejercicio; la enfermedad ya no solo es diagnosticada en un cuadro clínico a través de sus síntomas, aparece ahora, como resultado de un test genético, el paciente asintomático; la industria farmacéutica invierte en la exploración de conocimiento molecular del que pueda obtener rendimiento (biovalor y biocapitalismo). De este modo, Rose describe toda una cartografía de nuestra época en la que la biopolítica deviene biopolítica molecular12.

 

Hace seis mil años: el filum maquínico y la biotecnología

Hemos hablado de «filum bio-tecno-científico», tal noción requiere explicación. En primer lugar, seguimos el término «tecno-ciencia» utilizado por Gilbert Hottois a mediados de los años setenta. En un artículo más reciente, el filósofo belga nos recuerda el propósito que lo llevó a introducir tal expresión, quería designar el carácter operativo –técnico y matemático– de las ciencias contemporáneas, y conseguir así alejarse de cierta filosofía de la ciencia que concibe la empresa científica tan solo como teórica y discursiva13. En segundo lugar, con el prefijo «bio» queremos referirnos exclusivamente a las tecnociencias de la vida. Y en tercer lugar, «filum» se refiere a filum tecnológico, a una estirpe o línea histórica de evolución técnica. Ahora bien, nos gustaría señalar, como lo hacen Deleuze y Guattari en Mil mesetas, que todo filum tecnológico hace parte y está inscrito en un filum maquínico:

[E]l principio de toda tecnología es mostrar como un elemento técnico continúa siendo abstracto, totalmente indeterminado, mientras que no se le relacione con un agenciamiento que él supone. La máquina es primera con relación al elemento técnico: no la máquina técnica que de por sí es un conjunto de elementos, sino la máquina social o colectiva, el agenciamiento maquínico que va a determinar lo que es elemento técnico en tal o cual momento, cuáles son su uso, su extensión, su comprensión…, etc.14.

Un agenciamiento es una multiplicidad simbiótica de elementos heterogéneos, que se afectan y componen mutuamente15. El modo de su conexión o composición entre los elementos es lo que nos permite decir que «hacen máquina», que hay un cofuncionamiento entre distintas naturalezas. Para mostrarlo, Deleuze y Guattari se remontan hasta la invención del estribo. Tal es, pues, el caso del agenciamiento hombre-caballo-estribo, el cuerpo del hombre, del animal y del artefacto entran en una nueva relación de velocidad, fuerza y potencia, de circulación de afectos, y de flujo de materia y energía. En este sentido, se habla de agenciamiento maquínico de cuerpos, donde el poder de afectar y ser afectado de cada uno depende de la relación con los otros. La invención del estribo, por ejemplo, permite cierta estabilidad y capacidad de maniobra del caballero, pensemos si adicionamos una lanza al agenciamiento, se obtiene, entonces, «una punta inmóvil que se desplaza gracias a la carrera», todo un agenciamiento guerrero16; «y además este conjunto hombre-caballo-estribo varía, y no tiene los mismos efectos, según que forme parte de las condiciones generales del nomadismo, o vuelva a formar parte más tarde de las condiciones sedentarias de la feudalidad»17. Esas condiciones son, pues, las de una máquina social, y, por consiguiente, habrá que afirmar la primacía del agenciamiento maquínico y colectivo sobre la invención técnica. La verdadera invención, más allá de cualquier pretensión ontotecnológica y determinista, se produce en la multiplicidad misma como conjunto de singularidades, que extrae «rasgos materiales de la expresión que constituyen afectos»18. En definitiva, la noción de filum maquínico da cuenta de cómo un flujo de materia-energía entra en relación con un filum tecnológico.

Los autores de Mil mesetas privilegian al artesano-metalúrgico sobre el agricultor y el ganadero. Tal privilegio se debe a que el metalúrgico es el itinerante por excelencia, aquel que «sigue la materia-flujo como productividad pura», de donde desarrollan la idea de una Vida no orgánica o de un vitalismo material19. Por nuestra parte, quisiéramos mostrar la ganadería y el consumo de lácteos como el paradigma que la Antigüedad nos ha legado, en el que cultura y naturaleza se solapan y se entretejen. Esto nos permitirá apreciar una huella somática que aparece como efecto de un agenciamiento maquínico de cuerpos, un filum maquínico en relación con un filum bio-tecnológico.

En su Evolución en cuatro dimensiones Eva Jablonka y Marion Lamb hacen referencia a situaciones poco frecuentes, por cierto, en que la actividad cultural o las conductas aprendidas por un animal afectan la herencia genética de su descendencia, se trataría de la interacción inevitable entre el sistema conductual y el genético. Las biólogas comentan los trabajos del antropólogo norteamericano William Durham sobre ciertos cambios que los estilos de vida humanos ejercen en algunos genes. En este sentido, el caso de los cambios genéticos derivados del consumo de lácteos es ejemplar. Posterior a la domesticación del ganado, hace como seis mil años, los humanos comenzaron a alimentarse de leche fresca. «[P]ara que la leche brinde los azúcares simples que pueden absorberse fácilmente en el torrente sanguíneo, debe degradarse la lactosa de la leche en el intestino delgado. Este proceso requiere la presencia de la enzima lactasa»20. En todos los mamíferos, y en la gran parte de los humanos, después de la época de lactancia, la presencia de la enzima empieza a disminuir y, por consiguiente, en la edad adulta la leche fresca no implica ningún beneficio e incluso provoca indigestión en quien la consume. Sin embargo, en algunas poblaciones humanas, precisamente en aquellas que han domesticado ganado, persiste la presencia de la lactasa en edad adulta. Se ha sugerido, entonces, que la práctica cultural de la domesticación en este caso «habría alterado el ambiente selectivo en que vivían los seres humanos y que […] esa alteración habría llevado a que la capacidad de descomponer la lactosa en la adultez constituyera una ventaja. Por consiguiente, a través de la selección natural habría aumentado la frecuencia del alelo que proporciona esa capacidad»21. En los pueblos del Mediterráneo la práctica de la domesticación de ganado fue acompañada por el procesamiento de productos lácteos como queso y yogur, que contienen mucho menos lactosa que absorber que la leche fresca. En cambio, la persistencia del alelo que expresa la lactasa se hizo más frecuente en el centro y en el norte de Europa. Según Durham, además de la ventaja alimenticia en regiones poco soleadas, la vitamina D, esencial en absorción de calcio y contenida en la leche, habría de suplir el papel que desempeña la luz solar, en asociación con moléculas precursoras de la piel, en la producción de la vitamina. El alelo de la persistencia de la lactasa deviene, pues, una huella genética que la práctica cultural ha dejado al modificar el ambiente selectivo.

Consideramos que este agenciamiento maquínico de cuerpos, consumo de lácteos y persistencia de lactasa, se da a medio camino (intermezzo) entre el estrato orgánico y el estrato aloplástico o antropomórfico, constituyendo así un epiestrato22: una superficie de intermediaciones y superposiciones, de desterritorialización y reterritorialización, de codificación y descodificación. La domesticación como proceso biotecnológico ya presupone la desterritorialización de ciertos rasgos materiales de su esfera natural que se reterritorializan en el nuevo compuesto de cuerpos, dando lugar a un flujo de materia-energía que constituye al agenciamiento concreto; la extracción de lácteos y su consumo, en el ejemplo que hemos seguido, implica una nueva fuente de energía para la supervivencia. En este proceso el cuerpo humano es modificado genéticamente, un rasgo de materia orgánica es ahora desterritorializado y reterritorializado en un agenciamiento maquínico social y colectivo; a su vez, los códigos de conducta cultural intervienen en la expresión del código genético (selección del alelo que expresa la enzima correspondiente).

Para Deleuze y Guattari, el concepto de agenciamiento implica cuatro aspectos conforme a dos ejes transversales. Respecto a uno de ellos, el eje horizontal, podemos distinguir, de una parte, el agenciamiento maquínico de cuerpos (forma del contenido), que ya hemos mencionado; y, de otra, el agenciamiento colectivo de enunciación (forma de la expresión), que ha quedado implícito. Respecto del eje vertical, el agenciamiento presupone, de una parte, componentes territoriales o reterritorializados que lo estabilizan; y, de la otra, «máximos de desterritorialización que lo arrastran»23. Esperamos que de estos procesos de desterritorialización y reterritorialización hayamos dado la debida cuenta en los comentarios que hemos hecho del paradigma que hemos estado siguiendo. Pues bien, resta entonces referirnos a la forma de la expresión, esto es, al agenciamiento colectivo de enunciación. No podemos detenernos aquí en todos los detalles que están en juego en relación con este aspecto del agenciamiento. Diremos tan solo que Deleuze y Guattari no se interesan por el sujeto del enunciado o por el sujeto de enunciación, sino por la enunciación misma en tanto acto, enunciación anónima y colectiva (Mijaíl Bajtín), en la que hacemos cosas que solo podemos hacer con palabras, allí donde el lenguaje implica una fuerza ilocucionaria (John Austin). Volviendo sobre nuestro ejemplo, y de la mano de Durham, se puede comprender el papel del mito como agenciamiento colectivo o forma de la expresión. En el folclore y en los mitos de los pueblos del sur de Europa se puede apreciar el tratamiento discursivo y ritual que recibe el ganado. En este los toros son objeto de sacrificio y de muerte. Por el contrario, en los pueblos del norte las vacas son veneradas como el primer animal de la creación, y no eran objeto de sacrificio y muerte, pues se pensaba que de ellas bebían leche los dioses24. Hemos podido indicar así, al menos para nuestro caso, que el agenciamiento maquínico de cuerpos (forma del contenido) y el agenciamiento colectivo de enunciación (forma de la expresión) son aspectos que pertenecen a un mismo agenciamiento o máquina social, y que entre uno y otro habría lo que Deleuze y Guattari llaman «presuposición recíproca».

El agenciamiento epigenético

Volvamos al Proyecto del Genoma Humano. En el 2001, cuando se dio por terminada su secuenciación, sus resultados no llenaron las expectativas de quienes, aferrados de alguna manera al dogma de la genética clásica («un gen, una enzima»), esperaban el catálogo genético completo de todas las enfermedades. En su lugar se pudo corroborar que un gen puede estar asociado a la codificación de diversas proteínas («un gen, muchas proteínas»). En general, los resultados produjeron más preguntas que respuestas. Uno de los más sorprendentes fue el descubrir que el 98% del ADN en una célula humana no codifica proteínas, este ADN no codificante fue llamado «ADN basura». Lo que ha significado la configuración de nuevos proyectos de investigación, entre ellos resalta el consorcio llamado ENCODE (acrónimo del inglés, Encyclopedia of DNA Elements), proyecto en el que han participado cientos de científicos y diversas instituciones a escala global. A partir del conocimiento sobre la secuenciación del ADN en el genoma humano y de las proteínas que este codifica, y haciendo uso de las herramientas más avanzadas en métodos informáticos, «los investigadores sondearon múltiples características del genoma humano, analizando casi 150 tipos diferentes de células. Integraron los datos de forma consistente, de modo que se pudieron comparar los resultados obtenidos con diferentes técnicas»25. Siguiendo este procedimiento se pudo examinar ese 98% de ADN basura. A partir de los datos obtenidos se llegó a la conclusión de que «una fracción significativa de ADN basura tiene función»26. Es importante subrayar, como lo hace Nessa Carey, un aspecto de la recepción en la comunidad científica de estos resultados, no todo fueron elogios, algunos críticos expresaron su desacuerdo frente a la interpretación que ENCODE hacía de la presión evolutiva a partir de la lectura de los datos obtenidos. Según los críticos, el problema fundamental se sitúa en la relación entre matemática y biología:

Los datos de ENCODE fueron predominantemente interpretados por los autores originales mediante el uso de enfoques matemáticos y estadísticos. Los escépticos argumentaron que esto nos llevaba a un callejón sin salida, porque no se tenían suficientemente en cuenta las relaciones biológicas, que tienen una importancia fundamental. […] Los autores criticaron los métodos analíticos porque consideraban que los equipos que habían participado en el proyecto ENCODE no habían aplicado sus algoritmos de manera consistente27.

La historiadora y filósofa de las ciencias de la vida Evelyn Fox Keller ya había elaborado esta cuestión concerniente a las relaciones entre modelos matemáticos algorítmicos y biología molecular, en su libro Making Sense of Life. Desde la perspectiva de lo que ha llamado «una cultura epistemológica» muestra cómo los desarrollos tecnológicos ligados a la informática y al uso de computadores, incluyendo los sistemas de visualización, han modificado lo que los biólogos entienden por qué sea una «explicación», y del mismo modo han modificado los diversos sentidos de la palabra «teoría»28. Esta cultura epistemológica de la que habla Fox Keller constituye las condiciones materiales de la enunciación colectiva, hablamos de la presuposición recíproca entre el agenciamiento maquínico de cuerpos y el agenciamiento colectivo de enunciación. El desarrollo que ha implicado la informática arrastra y desterritorializa ciertos rasgos materiales del silicio u otro elemento que permiten procesar a altas velocidades una cantidad cada vez mayor e indeterminada de datos; que a su vez podrán ser analizados y comprendidos mediante modelos construidos con ayuda de algoritmos, transformando así las condiciones históricas de enunciación, lo que sea una «explicación» y lo que sea una «teoría».

 

Uno de los campos de investigación que cobró mayor importancia, después del Proyecto del Genoma Humano, fue la epigenética. Esta disciplina se orienta hacia el estudio de la expresión de los genes en respuesta a la influencia del medio ambiente. El término «epigenética» fue acuñado por Conrad Waddington en 1940 a partir de una tradición que le atribuía la palabra epigénesis a Aristóteles. El filósofo griego escribió en Reproducción de los animales II,6:

Así pues, durante el proceso de formación, la parte superior del cuerpo es lo que se distingue en primer lugar, y con el curso del tiempo se desarrolla la parte inferior en los animales sanguíneos. Todo se define primero en sus contornos, y después recibe los colores, la blandura y la dureza, sencillamente como si se tratara de obras creadas por un pintor: la naturaleza. Pues también los pintores pintan con colores la figura, después de haber hecho un bosquejo con líneas (743b 18-25).

Y en Partes de los animales II,9: «Tal como los artistas que modelan una figura de barro o de cualquier otro compuesto húmedo, ponen como soporte un objeto duro y modelan, así, en torno a él; del mismo modo, la naturaleza ha fabricado al animal de carnes» (654b). Seguramente la atribución de la palabra epigénesis a Aristóteles se deba a pasajes como los citados, y cuyo significado reside en las dos raíces del griego que componen la palabra, epi que significa «por encima de» y génesis «nacimiento», «origen» o «constitución». Como se puede apreciar en los pasajes del estagirita, la metáfora del pintor o del artista en uno y otro texto, indica un proceso que va de un primer bosquejo o soporte inicial y que se va desarrollando, agregando sucesivamente elementos unos a los otros. Así, pues, epigénesis designa, para una larga tradición, un proceso embrionario en el que a través del tiempo unas partes nacen y se forman sobre las otras configurando la individualidad de un organismo. Por su parte, Waddington utilizó el término «epigenética» para expresar el campo de estudio que tiene por objeto «la interacción entre la actividad de los genes y la influencia de factores externos a las propias células que los albergan»29. Una de las definiciones actuales más aceptadas aparece en Road Epigenetics Project, que hace parte del Instituto Nacional de Salud de los Estados Unidos, aquí el objeto de la epigenética se entiende como «los cambios heredables en la expresión y actividad génica (en la progenie de células o individuos), así como las alteraciones estables y a largo plazo, no necesariamente heredables, en el potencial transcripcional de una célula». A esta definición Carlos Romá Mateo añade un comentario importante: «Se trata de una definición bastante integradora y cauta en la que “heredabilidad”, el rasgo más debatido y polémico de la epigenética, puede ceñirse únicamente a los linajes celulares»30. No obstante, y aun siendo cautelosas, Eva Jablonka y Marion J. Lamb, desde la publicación de Evolución en cuatro dimensiones en 2005 y en ediciones posteriores, han seguido defendiendo la dimensión epigenética de la evolución, esta posición implica hablar de epigenética transgeneracional. En la edición en español de 2013 sostienen que desde que escribieron el texto en inglés:

se identificaron nuevos tipos de marcas epigenéticas, se amplió nuestra comprensión de cómo se modifica la cromatina y se descubrieron nuevos mecanismos de herencia epigenética […] Una consecuencia importante de estas investigaciones es el marcado aumento en la cantidad de datos disponibles respecto de la extensión y alcance de la herencia epigenética31.

La extensión de datos que estas investigaciones arrojan es mucho mayor en animales y otros seres vivos que en humanos. La razón de esto reside en las obvias restricciones y dificultades en la experimentación con seres humanos. Un problema que frecuentemente aparece es la extrapolación de experimentos con roedores a nosotros, o el hecho de inferir un mecanismo de explicación a partir de correlaciones. «El reto en cuestión es discernir entre una correlación y causalidad»32.

En el caso de los seres humanos, las guerras, las hambrunas, la exposición a ciertos tóxicos (fumigaciones) parecen dejar una impronta epigenética transgeneracional. Algunos estudios señalan que esta impronta se presenta en enfermedades como la diabetes, algunos tipos de cáncer, trastornos metabólicos y cardiovasculares, el estrés postraumático, la esquizofrenia, la adicción y otros. Michael K. Skinner, de la Universidad de Washington, por ejemplo, sostiene que las fumigaciones con DDT, en los años cuarenta y cincuenta del siglo pasado, podrían haber causado epimutaciones que persisten en neonatos hasta hoy33. Por su parte, Rachel Yehuda y Mallory Bowers, del Hospital Mount Sinaí, de Nueva York, quienes centran sus investigaciones en la transmisión transgeneracional del trastorno de estrés postraumático, consideran que la discusión actual gira menos en torno a la existencia de la herencia epigenética, hecho suficientemente documentado, como al mecanismo que la hace posible34. A nosotros nos interesa interrogarnos por las relaciones e interacciones entre naturaleza y cultura: si los acontecimientos sociales e históricos afectan la expresión de los genes al punto que dejan una impronta epigenética, estaríamos hablando de una huella biológica tanto en el cuerpo individual como el de las generaciones posteriores.

Veamos ahora algunas situaciones paradigmáticas que ilustran la cuestión.

«La tormenta perfecta»: conjunción de factores climáticos y circunstancias bélicas

El caso más célebre en la historia de la epigenética es el llamado «invierno del hambre». A finales del año 1944, en las postrimerías de la Segunda Guerra Mundial, ante el avance de los Aliados, el ejército alemán se retiraba de la Holanda invadida. Al norte, en territorio todavía ocupado, los nazis, como represalia a las protestas que exigían el final de la ocupación, decretaron el embargo total de alimentos, dinamitaron diques y cortaron la comunicación por tren y carreteras:

Los hijos e hijas engendrados durante el conocido como «invierno del hambre» demostraron, en la edad adulta, ser especialmente proclives a padecer trastornos metabólicos relacionados con el desarrollo de la diabetes, la obesidad o enfermedades cardiovasculares. No fue hasta 2008 que se hallaron en descendientes de personas nacidas en esas condiciones, seis décadas después, cambios significativos en algunos genes tras compararlos con los de parientes no expuestos a la hambruna. Los cambios no se hallaron en la secuencia de algunos genes, sino en los niveles de metilación. En concreto, alteraciones en las marcas de metilación del gen IGF2, de gran importancia durante el desarrollo embrionario y cuyo patrón de metilaciones se mantiene normalmente inalterado de una generación a la siguiente. En el caso de los sujetos del experimento, el patrón era significativamente divergente del esperado35.