El Gen, la lógica de lo viviente

Inicio » Biología » El Gen, la lógica de lo viviente

Autor: François Jacob

A mediados del siglo xix se produce un cambio profundo en la práctica de la biología. En efecto, en menos de veinte años aparecen la teoría celular en su versión definitiva, la teoría de la evolución, el análisis de las grandes funciones químicas, el estudio de la herencia, el de las fermentaciones y la síntesis total de los primeros compuestos orgánicos. Con las obras de Virchow, Darwin, Claude Bernard, Mendel, Pasteur y Berthelot quedaron definidos los conceptos, los métodos y los objetos de estudio que están en el origen de la biología moderna y que apenas variarán en el transcurso del siglo siguiente. Reducida hasta entonces a la observación, la biología se convierte en una ciencia experimental. Durante la primera mitad del siglo xx, la organización constituía el dato fundamental que caracterizaba lo viviente. Ésta representaba la estructura de segundo orden que mandaba sobre todo lo perceptible en el organismo. Situada en el centro mismo de cada ser vivo, servía de punto de apoyo, de esquema director al que venía a referirse cualquier observación o comparación de la estructura visible de los seres y sus propiedades. En la segunda mitad del siglo, por el contrario, la organización ya no representa el punto de partida del conocimiento de los seres: se convierte en el objeto mismo del conocimiento. Ya no basta sólo con constatar que la organización subyace tras todos los rasgos de un organismo; hay que investigar en qué niveles se fundamenta, cómo se establece y cuáles son las leyes que dirigen su formación y funcionamiento. Este desplazamiento en tomo de la organización pone en evidencia todo un conjunto de posibilidades nuevas de análisis. En lo sucesivo, lo que se cuestionará ya no será la vida en tanto que fuerza surgida de la noche de los tiempos, escondida, irreductible e inaccesible a la vez, sino sus componentes, su historia, su origen, la causalidad, el azar, el funcionamiento. Al organismo considerado en su totalidad vienen a añadirse nuevos objetos de análisis: las células, las reacciones, las partículas.

La biología se divide entonces en dos ramas, cada una de las cuales posee técnicas y materiales propios. Una rama estudia el organismo en su totalidad, contemplándolo como una unidad intangible, como elemento de una población o de una especie. Esta biología, que no tiene contacto con las otras ciencias de la naturaleza, opera con los conceptos de la historia natural. Se puede así describir las costumbres de los animales, su desarrollo, su evolución, las relaciones entre las especies, sin ninguna referencia a la física o la química. La otra rama, por el contrarío, busca reducir el organismo a sus constituyentes. La fisiología lo reclama y el siglo lo autoriza. Toda la naturaleza se ha convertido en historia, pero una historia en la que los seres son la prolongación de las cosas y en la que el hombre se sitúa en el mismo plano que el animal. La introducción de la contingencia en el mundo viviente por Darwin y Wallace representa para la biología el «todo está permitido» de Iván Karamazov.

Ya no existen en los seres vivos zonas vedadas ni sectores a las que no pueda acceder el conocimiento. Ya no existe una ley divina que ponga límites a la experimentación. Ante un universo en el que no existe creación y en el que todo es gratuito, la ambición de la biología no tiene limites. Si el mundo vivo marcha a la deriva y no contiene en sí ninguna finalidad, es al hombre a quien le corresponde dominar la naturaleza. Es él quien debe establecer el orden y la unidad que hasta el momento buscaba en la esencia de la vida. Es así como los esfuerzos de la dialéctica y del positivismo intentan reconstruir el puente entre lo orgánico y lo inorgánico, roto a finales del siglo precedente. De la materia a lo viviente no hay una diferencia de naturaleza, sino de complejidad. La célula es a la molécula lo que la molécula al átomo: un nivel superior de integración. Para hacer esta biología no basta ya la sola observación de los seres vivos. Es preciso analizar las reacciones químicas, estudiar las células, desencadenar los fenómenos. Si el organismo debe ser concebido como un todo es porque la regulación de las reacciones, la coordinación de las células y la integración de los fenómenos permiten la posibilidad de una síntesis.

A finales del siglo xix y principios del xx se individualiza toda una serie de objetos de estudio nuevos. Alrededor de cada uno de ellos se organiza un campo particular de la biología, que de este modo se subdivide progresivamente. El término «biología» llega a abarcar un amplio abanico de disciplinas distintas que se distinguen no solamente por sus fines y sus técnicas, sino por el material y el lenguaje que utilizan. Dos de ellas, surgidas a principios de este siglo, remodelan totalmente la idea que se tiene de los organismos, de su funcionamiento y de su evolución: son la bioquímica y la genética, cada una de las cuales encama una tendencia fundamental de la biología. La bioquímica, que trabaja con extractos, estudia los componentes de los seres vivos y las reacciones del metabolismo; relaciona la estructura y propiedades de los seres con la red de reacciones químicas y con la actividad de ciertas especies moleculares. La genética, por el contrario, examina amplias poblaciones de organismos para analizar la herencia, y atribuye tanto la producción de lo idéntico como la aparición de lo nuevo a las cualidades de una nueva estructura, cuya sede es el núcleo de la célula. Obedeciendo ella misma a leyes rigurosas, esta estructura de tercer orden impera sobre todos los niveles para determinar los caracteres del organismo y sus actividades. Ella dirige el desarrollo del embrión, decide la organización del adulto, sus formas y sus atributos, mantiene las especies a través de las generaciones y hace surgir nuevas especies. En esa estructura reside la «memoria» de la herencia.

La experimentación

Hasta mediados del siglo xix los seres vivos eran objeto de observación, pero nunca se buscó alterar su orden para analizarlo. Se consideraba a los organismos en su totalidad para precisar sus propiedades y sus estructuras. Se los comparaba entre sí para determinar sus analogías y sus diferencias. Tanto para Darwin como para Cuvier, era la naturaleza la que hacía los experimentos por el naturalista. Cuando los anatomistas querían localizar los órganos internos, abrían los cadáveres. Cuando los histólogos querían reducir los animales y las plantas a sus componentes elementales, examinaban sus tejidos al microscopio. Cuando los embriólogos estudiaban el desarrollo del huevo, observaban cómo se dividían las células, cómo se formaban las hojas embrionarias y se constituían los órganos. Sólo los fisiólogos intervenían en ocasiones modificando deliberadamente las condiciones de vida para observar los efectos producidos. Sin embargo, no actuaban sobre órganos o tejidos procedentes de un ser, sino sobre el conjunto del organismo. A pesar de la necesidad, evidente a partir de Lavoisier, de una asociación estrecha entre la fisiología y la química, ambas no concordaban ni en sus métodos ni en sus materiales. La obligación de recurrir a la fuerza vital para justificar las características moleculares de los organismos constituía una barrera insalvable entre la química de lo viviente y la química del laboratorio.

En la segunda mitad del siglo ya no basta con conocer las estructuras de los órganos y determinar sus relaciones en referencia a sus funciones. Se hace necesario analizar el funcionamiento mismo de los cuerpos vivos y de sus componentes. La fisiología asume entonces un papel preponderante, aunque no sin cambiar de naturaleza. En tiempos de Cuvier, la fisiología constituía esencialmente un sistema de referencia para la anatomía que permitía establecer las analogías sobre las que se fundamentaba la comparación entre los seres vivos y su organización. Para Claude Bernard la fisiología es algo completamente distinto. El funcionamiento de un órgano no se interpreta ya en términos de estructura y textura. Se analiza, se descompone en parámetros diversos y se cuantifica hasta donde es posible. Es la anatomía la que se convierte en una ciencia auxiliar de la fisiología. No se trata ya de una fisiología observacional, basada en lo que Claude Bernard llama «experimentación pasiva», en la que el biólogo se limita a constatar las variaciones introducidas espontáneamente en un sistema, sino de una ciencia «activa» en la que el experimentador interviene directamente, extrae un órgano, lo aísla, lo hace funcionar, altera las condiciones del experimento y analiza las variables. La biología se ve entonces en la necesidad de cambiar de lugar de trabajo. Antes se ejercía en la naturaleza, y cuando el naturalista no estaba en el campo observando los seres en su propio medio, trabajaba en un museo, un parque zoológico o un jardín botánico. De ahora en adelante la biología se hará en el laboratorio.

Hay al menos dos razones que justifican abordar el análisis del funcionamiento del ser vivo no ya en su totalidad, sino por partes. Por un lado, a mediados del siglo se atenúa la exigencia de una fuerza vital. Desde Bichot, el ser vivo se consideraba la sede del enfrentamiento entre las fuerzas de la vida y de la muerte, entre la producción, atribuible a un agente específico de lo viviente, y la destrucción, resultante de procesos físicos y químicos. Con la termodinárnica y la síntesis completa de compuestos orgánicos se destruye la barrera existente entre la química de lo viviente y la de la materia inerte. Por otro lado, la teoría celular explica los seres vivos no como totalidades indivisibles, sino como asociaciones de elementos. Sea cual sea su complejidad, un organismo no es más que la suma de sus unidades elementales. «En última instancia», dice Claude Bernard, «es un andamiaje de elementos anatómicos, cada uno de los cuales tiene una existencia, una evolución, un principio y un fin propios; y la vida total no es más que la suma de estas vidas individuales asociadas y armonizadas.» Para hacer fisiología interesa descomponer a la manera cartesiana la complejidad y la dificultad y, en la medida de lo posible, interrogar no al organismo entero, sino a sus componentes tomados por separado. Para Claude Bernard, la fisiología debe adoptar el enfoque de las otras ciencias experimentales: «Así como la física y la química llegan, a través del análisis experimental, a encontrar los elementos minerales que entran a formar parte de los cuerpos químicos, cuando se quieren conocer los fenómenos de la vida en toda su complejidad, es necesario ir a lo más recóndito del organismo, analizar los órganos, los tejidos, llegar hasta los elementos orgánicos». Cuando un animal respira, los que trabajan son los glóbulos rojos de la sangre y los alveolos pulmonares; cuando se desplaza, el trabajo corresponde a las fibras musculares y nerviosas; cuando segrega algo, son las células glandulares las que trabajan. Los órganos y sistemas no existen por sí mismos, sino gracias a las células que los constituyen y que realizan las funciones. Su papel consiste en reunir todas las condiciones, cualitativas y cuantitativas, necesarias para la vida de las células. Los vasos sanguíneos, los nervios y los diversos órganos están dispuestos de modo que puedan crear alrededor de cada célula el medio más propicio para proporcionarle los materiales apropiados, para procurarle alimento, agua, aire y calor. Así, en un organismo, «cada unidad elemental es autónoma en el sentido de que encierra en sí misma, por su naturaleza protoplasmática, las condiciones esenciales de su vida, sin pedirlas prestadas ni tomarlas de las unidades vecinas o del conjunto; por otra parte, está ligada al conjunto por su función o por el producto de esta función». Para describir el organismo vivo, Claude Bernard hace referencia a modelos, sociedades o empresas, en los que, gracias a la división del trabajo, los elementos obran con vistas al interés común. Los órganos «en el cuerpo vivo son como una sociedad avanzada, las manufacturas o los establecimientos industriales que procuran a los diferentes miembros de la sociedad los medios de vestirse, calentarse, alimentarse y alumbrarse». Hacer fisiología equivale a analizar tales sistemas.

Sin embargo, la misma complejidad de los seres vivos comporta dos dificultades. La primera es que, al pretender analizar las unidades elementales en lo más recóndito del organismo, se corre el riesgo de dañarlas gravemente o de perturbar o incluso bloquear su funcionamiento. Así pues, la experimentación debe introducirse en el organismo de manera lenta y progresiva, estudiando primero los sistemas funcionales, luego los órganos, los tejidos y, por último, las células que encierran las propiedades fundamentales de la vida. La otra dificultad deriva de que los fenómenos que tienen lugar en los diferentes órganos no son mutuamente independientes. En las plantas, o en animales inferiores como las hidras y las planarias, los fragmentos cortados del organismo son capaces de sobrevivir de manera autónoma. En los animales superiores, por el contrario, es la subordinación de las partes al todo lo que hace del organismo un sistema unitario, un individuo. El que cada célula posea las propiedades de lo viviente, el que lleve una vida que podríamos llamar autónoma, no significa que deje de trabajar para la comunidad. En consecuencia, el fisiólogo debe, mediante el análisis experimental, descomponer el organismo y separar sus componentes, pero sin contemplarlos como elementos aislados. La fisiología de un órgano sólo puede interpretarse en referencia al conjunto del organismo. «El determinismo de los fenómenos vitales», señala Claude Bernard, «no es sólo un determinismo muy complejo, sino un determinismo armónicamente subordinado.» Los fenómenos de la biología no son más complejos que los de la física por alguna cualidad específica de lo viviente. Su complejidad se debe a la imposibilidad de aislar los fenómenos. Siempre son la resultante de una serie de acontecimientos indisolublemente ligados entre sí y que se generan mutuamente. En fisiología, la complejidad es el producto de la interacción de las funciones, de su íntima solidaridad.

El fisiólogo, lejos de pretender sustraer los seres vivos a las leyes que rigen la materia, debe intentar analizar los fenómenos orgánicos con los métodos de la física y la química. Este modo de proceder se justifica, no porque las ciencias físico-químicas deban resolver todos los problemas de la biología, sino porque para esclarecer lo complejo siempre hay que partir de lo simple, y la física y la química son más simples que la fisiología, La biología, señala Claude Bernard, «debe tomar de las ciencias físico-químicas el método experimental, pero debe conservar sus fenómenos específicos y sus leyes propias». Sólo así la fisiología puede transformarse en una ciencia activa. Hasta entonces penetrar en el organismo suponía alterar su curso y perjudicar su funcionamiento. En lo sucesivo se puede intervenir en el cuerpo vivo, entrar en él para experimentar, sin que las condiciones artificiales creadas por el experimento destruyan la cualidad de lo viviente. Se pueden separar algunos elementos constitutivos del organismo, por medios mecánicos o químicos, estudiar su funcionamiento e incluso, tomando ciertas precauciones, obtener a partir de este análisis conclusiones sobre su función natural en el organismo. Lo que importa es desenmarañar la madeja de las operaciones que se desarrollan simultáneamente en un ser vivo. La experimentación debe llevarse a cabo en unas condiciones lo mejor definidas posible. Se trata de aislar los fenómenos simples. Para Claude Bernard, el fisiólogo debe ser «un inventor de fenómenos, un auténtico capataz de la creación».

Un fenómeno puede derivarse de una observación azarosa o ser la consecuencia lógica de una hipótesis. Aparte de esto, en fisiología hay dos recetas casi infalibles para fabricar fenómenos. La primera consiste en reproducir en el laboratorio lo que la naturaleza efectúa a través de la enfermedad. Fisiología y medicina representan en cierto modo las dos caras de una misma ciencia, no sólo por su objeto de estudio, sino por sus procedimientos metodológicos. En la relación entre lo normal y lo patológico, cada aspecto sirve de guía al otro. La medicina no puede ya contentarse con ser empírica, tiene que basarse en los resultados del análisis fisiológico. Inversamente, el conocimiento de los estados patológicos contribuye al conocimiento del estado fisiológico. La medicina abre el camino a la fisiología, al señalar las líneas de actuación y los resultados que deben obtenerse. No se puede reparar una máquina sin conocer las piezas que la componen y su uso. Por otro lado, la avería deliberada de una pieza permite precisar mejor su función. La patología proporciona así modelos al fisiólogo, quien intenta reproducir la enfermedad provocando lesiones lo más localizadas posible y analizando sus consecuencias. Dañar deliberada y específicamente un elemento determinado del organismo por medios mecánicos o químicos, determinar los efectos de la lesión, precisar las reacciones de los demás componentes, he aquí uno de los métodos más eficaces de la fisiología. Un órgano puede extraerse, como se hace con el riñón, o destruirse sin extirparlo, como puede hacerse con el páncreas mediante una inyección de parafina, o pincharse, como se hace con la. vesícula biliar tras la ligadura del canal colédoco. Los efectos de la lesión pueden deducirse por comparación con el animal sano. Se puede también intentar remediar el daño administrando a los animales heridos ciertas sustancias, o incluso extractos de tejidos. También se puede ensayar la compensación de ciertas perturbaciones mediante lesiones suplementarias en otros órganos. Este método de exploración a través de lesiones mecánicas hace accesibles al análisis numerosas funciones. Resulta posible así distinguir la «excreción» por parte de un tejido que no produce nada, sino que se limita a permitir la evacuación al exterior de sustancias formadas en el interior del organismo, de la «secreción» por parte de una glándula que reúne y combina ciertos compuestos químicos para crear una sustancia nueva. Las secreciones pueden clasificarse a su vez en «externas», cuando el producto es vertido fuera del organismo, e «internas», cuando el producto es vertido dentro del propio organismo para favorecer la digestión o cualquier otra función fisiológica. A lo largo de más de un siglo de investigaciones, este método permitirá precisar algunos aspectos del metabolismo en los seres animales superiores, analizar el proceso de la digestión, descubrir la existencia de las hormonas, determinar el papel de ciertos nervios, localizar las funciones del cerebro, etc.

La intervención por medios mecánicos puede sustituirse por la provocación de lesiones químicas. Por sus efectos, las sustancias tóxicas simulan los estados de enfermedad, actuando además de manera selectiva sobre los órganos. Tras la inyección de una sustancia tóxica, casi siempre se constata la existencia de lesiones en algún tejido, sea cual fuere su localización en el cuerpo. Un cierto tóxico afecta a un cierto elemento histológico. El óxido de carbono, por ejemplo, se fija en los glóbulos rojos, impidiéndoles ejercer su papel en la respiración; ciertas sales metálicas dañan las células renales impidiéndoles evacuar en la orina los desechos que transporta la sangre; el curare ataca las células nerviosas impidiendo la transmisión del impulso nervioso, lo que paraliza al animal. También se pueden buscar los antídotos que neutralizan la acción de un veneno específico y restablecen la funcionalidad del órgano lesionado. Con el amplio arsenal de los venenos, la fisiología dispone de un material inmejorable por su simplicidad de empleo, especificidad de acción, regulación del efecto en función de la dosis y, a veces, reversibilidad de las lesiones. El uso de tóxicos iba a convertirse en uno de los métodos privilegiados de la fisiología durante más de un siglo. Todavía sigue gozando de gran favor tanto en el análisis funcional como en el estudio de las reacciones químicas, ya se desarrollen en el organismo, en la célula o en extractos dentro de tubos de ensayo.La segunda receta para inducir fenómenos fisiológicos se basa en el equilibrio, siempre inestable pero siempre restablecido, entre el organismo y el medio. Tan estrecha es esta interacción que el organismo se ve obligado, por así decirlo, a reaccionar ante cualquier cambio ambiental. Para Claude Bernard, esto es aplicable tanto a los cuerpos vivos como a los cuerpos inanimados. En cualquier fenómeno deben tenerse en cuenta

dos cosas: el objeto observado y las circunstancias externas que actúan sobre el objeto y lo inducen a revelar sus propiedades. Si se suprime el medio, el fenómeno desaparece. Sólo hay atracción en la medida en que observamos el comportamiento de dos cuerpos; sólo se genera electricidad a través de la relación que se establece entre el cobre y el cinc. Si se retira uno de los cuerpos, o se suprime el cobre, ya no puede haber ni atracción ni electricidad: éstas se convierten en ideas abstractas. Lo mismo ocurre con los seres vivos, como señala Claude Bernard: «El fenómeno vital no reside enteramente ni en el organismo ni en el medio; se podría decir que es un efecto producido por el contacto entre el organismo vivo y el medio que lo rodea». Suprimir el medio o alterarlo equivale a eliminar al organismo. En último término, podríamos contemplar el organismo como un «reactivo» de su medio, cosa que ya hizo Lavoisier. Ahora bien, el medio ya no es sólo el fluido, aire o agua, en el que está inmerso el organismo. A partir de Auguste Comte, también es el calor, la presión, la electricidad, la luz, la humedad, la concentración de oxígeno o anhídrido carbónico, la presencia de compuestos químicos, benéficos o tóxicos; en resumen, todo aquello que está en contacto con la superficie externa de un ser vivo y ejerce algún efecto sobre él. Puesto que cada uno de estos factores puede modificarse, se convierten en parámetros experimentales. En el sistema organismo-medio se articulan entonces dos series de variables: unas externas, sobre las que se puede experimentar directamente por medios físicos o químicos, y otras internas, que se expresan en las funciones que se pretende medir con métodos prestados igualmente por la física y la química. Actuando sobre las primeras se llega a las segundas. Para provocar un fenómeno basta con colocar un ser vivo, un órgano, un trozo de tejido, incluso un extracto, en unas condiciones ambientales determinadas y luego variar sistemáticamente cada uno de los parámetros del medio. Se puede afirmar, sin exagerar, que este modo de proceder se ha convertido en la actividad principal de los laboratorios biológicos.

Los seres vivos se clasificaban según su nivel de complejidad. A esta relación estructural se le asoció una relación funcional. Podemos establecer en los seres una correlación entre el nivel de organización y la naturaleza de la interacción entre la organización y su medio. Por un lado están los seres simples, reducidos a un solo elemento anatómico, como los infusorios, o formados por pocas células, como los animales y las plantas inferiores. En ellos todos los elementos constituyentes entran directamente en contacto con el medio aéreo o acuático que los rodea. Por otro lado están los seres más complejos, especialmente los animales superiores, formados por un gran número de células. En ellos sólo los elementos superficiales entran en contacto directo con lo que Claude Bernard llama el «medio cósmico». Los componentes internos del organismo quedan sumergidos en un «medio interno» u «orgánico», que sirve de intermediario con el medio cósmico. En el hombre, por ejemplo, los elementos esenciales, los que cumplen las funciones más importantes, no están expuestos a los caprichos del medio externo, sino que están en contacto con la sangre y los humores que los protegen de toda variación brusca. De hecho, la característica del medio interno es su constancia. Creado por y para los órganos, el medio interno actúa de alguna forma como un amortiguador que protege de los cambios intempestivos los componentes más importantes del cuerpo, los cuales pueden así trabajar en condiciones casi invariables. «Se puede afirmar», constata Claude Bernard, «que el animal aéreo no vive en realidad en el aire atmosférico, ni el pez en el agua, ni la lombriz de tierra en la arena. La atmósfera, las aguas y la tierra constituyen una segunda envoltura que rodea el sustrato vital, protegido ya por el líquido sanguíneo que circula por todas partes y que forma una primera envoltura alrededor de todas las partículas vivientes.» Los animales superiores viven literalmente en su propio interior.

El concepto de medio interno justifica en términos funcionales la repartición en el espacio que Cuvier atribuía a las estructuras del organismo. Si los elementos más importantes de un ser vivo se localizan en la profundidad del cuerpo es porque así están mejor protegidos contra los avatares del medio ambiente y pueden funcionar al abrigo de las variaciones de temperatura, humedad, presión, etc. A la complejidad de la organización responde la libertad funcional. La autonomía respecto del medio ambiente representa, a fin de cuentas, un factor selectivo para la evolución. Se puede entonces modificar la clasificación de los seres vivos y repartirlos según la naturaleza de su medio y de su grado de autonomía en relación al mundo exterior. Se pueden distinguir así tres formas de existencia. En un primer grupo, que comprende los seres inferiores, la dependencia de las condiciones externas es total; cuando son apropiadas, la vida se desarrolla sin problemas, pero cuando se tornan desfavorables el organismo muere, o bien pasa a un estado de «vida latente» es decir, de «indiferencia química»: todo cambio, toda actividad, todo signo vital, quedan suspendidos. En un segundo grupo, que comprende los animales inferiores y las plantas, el medio interno depende menos de las condiciones externas, de manera que las oscilaciones ambientales repercuten en la vida del organismo, atenuándola o exaltándola, pero sin llegar a suprimirla; en general, es la temperatura corporal la que, aún dependiente de la temperatura externa, regula los movimientos de esta «vida oscilante». Por último, en el tercer grupo, el de los animales superiores, todas las actividades son independientes de las condiciones externas; sean cuales fueren las vicisitudes del medio ambiente, estos organismos viven como si estuvieran en un invernadero. La suya es «una vida constante y libre, independiente de las variaciones del medio cósmico». La libertad del organismo es directamente proporcional a su complejidad.

Si el medio interno y su estabilidad tienen tanta importancia es porque subrayan una de las propiedades fundamentales de los seres vivos: la regulación de las funciones. Aportan una medida del grado de integración del ser vivo, haciendo accesibles a la experimentación la coordinación entre los órganos y las funciones. Este análisis conduce a representar el organismo como un sistema en el que todas las actividades están ajustadas hasta el menor detalle. En el siglo precedente se reconocía ya la interacción de ciertas funciones. Para Lavoisier, la maquinaria animal estaba gobernada por tres «reguladores» principales: la respiración, la digestión y la transpiración. Para Claude Bernard, todas las actividades del organismo en su conjunto están sometidas a mecanismos de regulación: «Todos los mecanismos vitales, por variados que sean, no tienen otro objetivo que el de mantener la unidad de las funciones vitales en el medio interno». Encontramos entonces mecanismos «equilibradores», «compensadores», «aislantes», «protectores», que regulan la temperatura, la cantidad de agua, la concentración de oxígeno, las reservas alimentarias, la composición de la sangre, las secreciones externas o internas. Cuanto más compleja es la organización de un animal, tanto más perfeccionados están los sistemas de regulación. De ahí la ventaja de utilizar en fisiología aquellos organismos cuyos sistemas están más perfeccionados, es decir, los animales superiores. Para la biología del siglo xix, la organización de los seres vivos se basa ante todo en la integración de las funciones. La vida es posible, escribe Claude Bernard, porque existe un «equilibrio que es el resultado de una continua y delicada compensación, establecida por la más sensible de las balanzas». Se necesitan mecanismos de regulación para, por un lado, proteger a las células de cualquier variación ambiental intempestiva y, por otro lado, para coordinar las actividades individuales en interés general. El funcionamiento de las partes debe amoldarse a la armonía del todo. Claude Bernard recurre nuevamente al modelo de la fábrica para describir los fenómenos de regulación en los seres vivos: «En el organismo sucede… lo mismo que en una fábrica de fusiles, por ejemplo, donde cada obrero fabrica una pieza con independencia de los demás, sin que nadie conozca el conjunto en el que deben concurrir todas las piezas. Después parece haber un ajustador que armoniza todas las piezas». A mediados del siglo xix, el sistema nervioso es el «gran armonizador funcional» en el animal adulto. Es él quien regula no sólo los latidos del corazón, la respiración, la concentración de oxígeno y la temperatura del cuerpo, sino también el porcentaje de sal y agua, la actividad química del hígado, la secreción de la saliva y del sudor, etc. Al sistema nervioso se sumarán, a principios del siglo xx, otros mecanismos reguladores de carácter químico: las hormonas. A partir de Cannon, esta coordinación, esta constancia del medio interno, recibirá el nombre de «homeostasis». El concepto de regulación es uno de los pilares de la biología moderna. Gracias a él la biología, por una vez, proporcionará un modelo a la física. La cibernética fundada por Wiener se basará en parte en los sistemas observados en los seres vivos.

A mediados del siglo xix se hace posible, gracias a los métodos de la fisiología, intervenir en los seres vivos para analizar su funcionamiento en los dominios más variados. Con una excepción: la reproducción y la herencia. «La herencia», escribe Claude Bernard, «es un elemento que escapa a nuestro poder y del cual no podemos disponer como hacemos con otras propiedades vitales.» La teoría de la evolución hizo de la reproducción el mecanismo encargado tanto de perpetuar las estructuras como de hacerlas variar. La teoría celular situó este mecanismo en la célula, y más concretamente en el huevo. Pero la herencia y la reproducción se resisten a la experimentación fisiológica. Es cierto que se puede intervenir en el embrión dañando ciertas células o tejidos para obstaculizar su desarrollo. Pero lo único que se consigue es matarlo o comprometer gravemente la ordenación. Nunca se llega a desviar la morfogénesis en una dirección contraria a la naturaleza del huevo. Se puede someter un huevo de conejo a todos los tratamientos imaginables. Se conseguirá destruirlo o hacerlo abortar, pero «no se logrará que de él surja un perro u otro mamífero». A la herencia no pueden aplicársele las recetas que se han demostrado eficaces en fisiología. El estudio de las formas ya no pertenece a la química, no depende de sus leyes. Es algo que se sustrae a la experiencia.

Ante la inabordabilidad del problema de la herencia, que puede «contemplar» pero no analizar, la biología se limita a describir la génesis de lo semejante por lo semejante con las imágenes del siglo anterior. Las semillas son sustituidas por los óvulos y los espermatozoides; las moléculas orgánicas por las células; la formación del embrión del que surge el individuo adulto es resultado de la división y la diferenciación celulares. Pero para que el huevo reproduzca el organismo del cual procede, para que se reconstituya lo idéntico a través de las generaciones, se necesita una memoria que guíe las células. «El huevo es un devenir y representa una especie de fórmula orgánica que expresa sintéticamente el ser del que procede y del que ha guardado de alguna forma la memoria evolutiva.» Por evolución se entiende la continuidad de las transformaciones que tienen lugar en el curso del desarrollo embrionario. La memoria expresa una «fuerza hereditaria», un «estado anterior» al mismo huevo, un «impulso primitivo», que pasa cíclicamente de la gallina al huevo y del huevo a la gallina. En lo que se refiere a la naturaleza de esta memoria hereditaria, ésta no se distingue mucho de la que ya propuso el siglo xviii. Al igual que Maupertuis, Darwin y Haeckel hacen también de la memoria una propiedad de las partículas que constituyen el organismo. Para Darwin, cada célula del cuerpo del genitor envía a las células reproductivas un germen, o «gémula», una especie de emisario encargado de representarla y de reconstituirla en las generaciones sucesivas. Para Haeckel, en las células hay partículas, que llama «plástidos», caracterizadas por movimientos específicos y dotadas de memoria, que conservan su movimiento propio, por el cual se manifiesta su actividad, a través de las generaciones.

Claude Bernard, en cambio, siguiendo el ejemplo de Buffon, sitúa la memoria no en las partículas constituyentes del organismo, sino en un sistema particular que guía la multiplicación de las células, su diferenciación y la formación progresiva del organismo. Según esta teoría, el huevo contiene un «diseño» que se transmite por «tradición orgánica» de un ser a otro. La formación del organismo se adecua a «un plan» cuya puesta en práctica representa la ejecución de «consignas» muy estrictas. Este plan no sólo dirige el desarrollo del embrión, sino también el funcionamiento del futuro adulto, su estructura, sus propiedades, hasta en los menores detalles; basta pensar que en el hombre ciertas enfermedades se transmiten de padre a hijo. A partir del huevo todo está coordinado, todo está previsto no sólo para la evolución del nuevo ser, sino para su mantenimiento a lo largo de toda su vida. En un organismo vivo, dice Claude Bernard, «todo acto tiene su fin en el ámbito del propio organismo».

Así pues, la fisiología experimental se encuentra desarmada ante el fenómeno de la reproducción. Sin medios para pasar de las hipótesis a las experiencias, sin técnicas adecuadas ni materiales sobre los que ensayar sus propios métodos, la fisiología no tiene cabida en la herencia. Los procedimientos de hibridación, por muy apropiados que resulten para la ganadería y la agricultura, no parecen convenientes para el análisis de la reproducción. De hecho, a la fisiología le interesa el individuo. Actúa sobre el organismo para observar las propiedades, el comportamiento y las reacciones del mismo en circunstancias diversas. Lo que hará accesible la herencia a la experimentación es la observación no de individuos, sino de poblaciones unidas por lazos de parentesco. Darwin ya había adoptado este enfoque para hacer derivar la variación de las fluctuaciones estadísticas inevitables en las poblaciones grandes. Siguiendo el comportamiento de un número limitado de caracteres en poblaciones grandes a través de las generaciones, Mendel será capaz de producir fenómenos hereditarios medibles y de deducir sus leyes. Pero será fundamentalmente la física la que, para manipular los enormes conjuntos de moléculas que constituyen los cuerpos, hará del azar una ley universal.

El análisis estadístico

Desde su nacimiento, la biología se separó deliberadamente de la física. Pero en la segunda mitad del siglo xix se reanudan los lazos a través de la termodinámica. En primer lugar, porque con los conceptos de equivalencia y de energía desaparecerá una de las singularidades del mundo vivo. En segundo lugar, porque al querer ligar las propiedades de los cuerpos a su estructura interna, la mecánica estadística modificará la manera de considerar las cosas, los seres y los hechos en numerosas actividades humanas. Durante la primera mitad del siglo los fenómenos de la mecánica se analizaban siempre en términos de espacio, tiempo, fuerzas y masas. La fuerza se introducía como causa de un movimiento, preexistente al mismo e independiente de él. Para Carnot, había dos maneras de considerar la mecánica en sus principios: «La primera consiste en considerarla una teoría de las fuerzas, es decir, de las causas que determinan los movimientos. La segunda consiste en considerarla una teoría de los movimientos en sí». Si la materia fuera una, las fuerzas aumentarían sin cesar de número, naturaleza y variedad. Sin embargo, a los movimientos de los cuerpos se asocian cada vez más estrechamente los fenómenos de manifestación del calor. Así es como se constituye un nuevo campo de la física en el que, midiendo las variaciones del calor, se intenta analizar las relaciones existentes entre las propiedades de los cuerpos sin conocer su estructura íntima. Las fuerzas puestas en juego en campos tan distintos corno el movimiento, la electricidad, el magnetismo, el calor, la luz o las reacciones químicas, encuentran un denominador común en el concepto de energía. La energía es todo aquello que es trabajo, que produce trabajo o proviene del trabajo; indestructible en valor absoluto, como la materia, la energía puede sufrir toda clase de transformaciones que la hacen aparecer con los aspectos más variados. El principio de equivalencia transforma cada cambio que se verifica en la naturaleza en una conversión de energía. Considera las diferentes formas de energía como independientes y equivalentes. A cada forma le corresponde un factor de intensidad: la altura para la gravitación, la temperatura para el calor, la diferencia de potencial para la electricidad. Las variaciones en un sistema son producto de las diferencias entre estos factores.

Pero la equivalencia de la energía no explica la contradicción entre ciertos hechos de la física. Los fenómenos de la mecánica o de la electrodinámica son reversibles; se pueden efectuar tanto en un sentido como en otro, y en las ecuaciones de la mecánica el signo de la variable tiempo no tiene relevancia alguna. Los fenómenos térmicos o químicos, por el contrario, son irreversibles. No se puede, por ejemplo, hacer que el calor pase espontáneamente de lo frío a lo caliente. En un sistema aislado a los intercambios con el exterior, la cantidad de energía se mantiene constante. No obstante, esta magnitud no basta para caracterizar el sistema. Es preciso admitir que la energía posee cierta calidad, tanto más elevada cuanto más aprovechable sea, es decir, cuanto más trabajo pueda producir. Hay, por lo tanto, formas de energía nobles como la mecánica, y viles como la calorífica. En un sistema abandonado a sí mismo, la calidad de la energía tiende naturalmente a degradarse, no a mejorar. De ahí el sentido único impuesto a ciertos fenómenos. Cuando el calor circula de lo más caliente a lo más frío, la energía pierde calidad sin cambiar en su cantidad. Como una pelota abandonada en una escalera, tiende siempre a bajar hasta detenerse en el punto más bajo. Este estado de equilibrio es lo que los físicos llaman el nivel de máxima «entropía». La entropía no es un concepto vago; es una cantidad física mensurable del mismo modo que la temperatura de un cuerpo, el calor específico de una sustancia o la longitud de un objeto. La entropía permite describir con precisión la variación del estado de un cuerpo o de un sistema: si un cuerpo recibe calor, su entropía aumenta; si pierde calor, disminuye. Lo que dice la segunda ley de la termodinámica, por la que se rigen los fenómenos físicos del universo, es que en un sistema aislado la energía tiende a degradarse y, por lo tanto, aumenta la entropía. Los movimientos acaban por detenerse, las diferencias de potencial eléctrico o químico por anularse, la temperatura por uniformarse. Sin aporte de energía exterior, todo sistema físico se deteriora y evoluciona hacia la inercia total.Con la termodinámica, la separación radical establecida a priori por la biología entre los seres y las cosas y entre la química de lo vivo y la del laboratorio, se altera radicalmente. Al conectar las diferentes formas de trabajo entre sí, el concepto de energía y el de equivalencia hacen derivar todas las actividades del organismo de su metabolismo. A fin de cuentas, la producción de movimiento, electricidad, luz y sonido por el ser vivo es posible gracias a la conversión de la energía química liberada por la combustión de los alimentos. Existen así dos generalizaciones que reconcilian la biología con la física y la química: los seres vivos y la materia bruta están constituidos por los mismos elementos; la conservación de la energía se aplica tanto a los hechos del mundo vivo como los del mundo inanimado. Para quienes, como Helmholtz, descubren el carácter universal de estos principios, la conclusión es simple: no existe diferencia alguna entre los fenómenos que se verifican en los seres vivos y en el mundo inanimado. A simple vista, por su crecimiento y su desarrollo, por el poder de mantener ciertas estructuras de una generación a otra, los seres vivos parecen desafiar la segunda ley de la termodinámica, responsable del deterioro constante del universo. Sin embargo, si bien la termodinámica impone una trayectoria general a un sistema, no excluye por ello la existencia de excepciones locales. No impide que ciertos

elementos puedan nadar a contracorriente y a expensas de sus vecinos. Lo que se degrada es el conjunto del sistema y no cada una de las partes. Al recibir la energía del medio en forma de alimentos, los seres vivos están en condiciones de preservar a lo largo del tiempo su bajo nivel de entropía. Además, sin contradecir las leyes de la termodinámica, pueden producir constantemente las grandes moléculas específicas que les caracterizan. Los conceptos de energía y equivalencia desempeñan el papel que la biología atribuyó en un principio a la fuerza vital. A principios de siglo, el organismo consumía fuerza vital para efectuar sus tareas de síntesis y de morfogénesis. A finales de siglo, consume energía.

Más importante todavía, tanto para la biología como para las otras ciencias, es la introducción de las poblaciones grandes como objeto de estudio y del método estadístico para su análisis, dos innovaciones cargadas de consecuencias por la manera de considerar los seres y las cosas. En el siglo XIX los gases permitieron relacionar el calor con el movimiento de las partículas, es decir, asociar las propiedades de un cuerpo con su estructura interna. Un gas puede considerarse una colectividad de moléculas que se desplazan libremente. Según Bemoulli, Joule o Clausius, todas las partículas poseían la misma velocidad, lo que permitía establecer una red de relaciones entre ciertas propiedades de los gases, tales como la presión, el calor y la densidad. Para Maxwell, por el contrario, no era posible atribuir la misma velocidad a todas las partículas, puesto que sus movimientos nacen de las colisiones entre ellas. Un gas se convierte en una colección de «pequeñas esferas, duras y perfectamente elásticas, que actúan una sobre otra solamente durante el impacto». Se puede construir un modelo puramente mecánico de este gas: las partículas viajan una cierta distancia, reemprenden su viaje, chocan y recomienzan sin fin. Cada partícula posee entonces características únicas de velocidad y movimiento; cada una, dice Maxwell, «lleva consigo su energía y su movimiento». Y las características de cada partícula varían sin cesar por las colisiones aleatorias. Así pues, es impensable estudiar en detalle el comportamiento siempre cambiante de los miles de millones de partículas individuales que forman un gas. No obstante, podemos considerar el conjunto de la población y analizar el comportamiento aplicando métodos estadísticos. Debemos admitir entonces que las velocidades de las partículas se distribuyen según la famosa curva normal, aplicable a fenómenos tan variados como la talla de los adultos de un país, el número de perros de una camada o la dispersión de un tiro. El comportamiento de los individuos escapa a la descripción, pero no así el de la población. Podemos considerarla formada por moléculas ideales que tienen como parámetros las medias de los valores reales. El modelo puramente mecánico de bolas que chocan entre sí permite describir las propiedades de un gas e incluso interpretar la entropía en términos de agitación molecular. Si el hombre no puede impedir la degradación de la energía, ello se debe a su incapacidad de distinguir cada molécula y observar sus características. Ahora bien, según Maxwell, se puede concebir «un ser cuyas facultades estuvieran lo bastante desarrolladas para poder seguir cada una de las moléculas en su carrera; este ser, cuyos atributos serían, no obstante, finitos como los nuestros, llegaría a ser capaz de hacer lo que nosotros no podemos hacer actualmente».

Imaginemos entonces que este demonio minúsculo, capaz de «discernir con la vista las moléculas individuales», maniobra una puerta corredera que se desliza sin roce alguno por un muro que separa dos compartimientos de un recipiente lleno de gas, dejando pasar sólo las moléculas rápidas de izquierda a derecha y sólo las lentas de derecha a izquierda. Al cabo de un tiempo las partículas rápidas se habrán acumulado en el compartimiento de la derecha, que se habrá calentado, y las lentas en el de la izquierda, que se habrá enfriado. De esta forma, «sin gasto de trabajo», el demonio habrá convertido la energía no utilizable en energía utilizable, es decir, habrá invertido la segunda ley de la termodinámica.

No obstante, en la segunda mitad del siglo, el análisis estadístico y el cálculo de probabilidades cambiarán de función y de estatuto. Para Maxwell no eran más que útiles matemáticos adaptados al análisis de un problema concreto: ante la imposibilidad de observar cada individuo por separado, era preciso considerar la población. Para Boltzmann y Gibbs, por el contrario, el análisis estadístico y el cálculo de probabilidades aportan las reglas de la lógica del mundo. Si nos interesan los grandes números no es sólo por la imposibilidad de acceder al análisis de las unidades, sino, sobre todo, porque el comportamiento de los individuos no tiene ningún interés. Aunque llegáramos a conocer todos los detalles y pudiéramos someterlos a un tratamiento matemático, esto no nos aportaría ninguna información relevante. ¿De qué serviría conocer la distancia recorrida por una molécula concreta, o saber que tal molécula chocará con la pared del recipiente que contiene el gas en tal momento, en tal lugar y en tales circunstancias? Aun suponiendo que fuera posible analizar en detalle el comportamiento de todas y cada una de las unidades, ¿qué otra cosa podríamos hacer con la masa de resultados obtenidos sino compilarlos y tratarlos para extraer de ellos la ley estadística que rige el conjunto de la población? Lo que interesa saber no es qué partículas colisionan en un momento dado, sino cuántas colisiones se producen por término medio y cuál es la probabilidad de colisión de una partícula.

Puede verse cuánto difiere este enfoque de todos los precedentes salvo el de Darwin. Para éste, como para Boltzmann y Gibbs, las leyes de la naturaleza no actúan sobre los individuos, sino sobre las poblaciones. Por muy irregular que sea el comportamiento de las unidades, la magnitud de los números puestos en juego acaba por imponer una regularidad al conjunto. Pero la analogía entre ambas formas de pensar va aún más lejos. En primer lugar, porque la mecánica estadística y la teoría de la evolución introducen la noción de contingencia en el centro mismo de la naturaleza. Desde Newton, toda la física descansaba sobre un determinismo rígido. Se admitía que el comportamiento de todas las moléculas, así como el de todos los cuerpos visibles, estaba estrictamente impuesto por un sistema de causas que la ciencia se esforzaba en incluir en las leyes de la naturaleza. Para que se repitieran con precisión los fenómenos observables, era preciso que los procesos de los cuales procedían los procesos elementales, estuvieran sometidos a un determinismo inflexible. Pero durante la segunda mitad del siglo xix muchas de las llamadas leyes de la naturaleza pasaron a ser leyes estadísticas. Éstas sólo se realizan rigurosamente en la medida en que el número de individuos en juego es muy elevado. Las predicciones derivadas de estas leyes no pueden formularse en virtud de una causalidad estricta, sino que tienen carácter probabilístico y sólo se verifican dentro de unos límites determinados que pueden definirse con precisión. El que esta probabilidad linde con la certeza en los fenómenos observables se debe a que los cuerpos visibles están formados por un enorme número de moléculas. Pero cuando se trata de poblaciones poco numerosas las desviaciones no son en absoluto raras. Son lo que Boltzmann llama las «fluctuaciones estadísticas». Cuando existe un mecanismo particular que las favorece en algún sentido, como es el caso de la selección natural, entonces las excepciones acaban imponiéndose.

La segunda analogía importante entre teoría de la evolución y mecánica estadística reside en el modo de enfocar la irreversibilidad del tiempo. Para la evolución, es el mecanismo de la selección lo que hace irreversible todo el proceso. Cuando un grupo de organismos actúa en un sentido determinado, y cuando se ha operado la selección de ciertas variantes en etapas sucesivas, ya no hay posibilidad de retorno al estado anterior. La selección natural puede acentuar la diferenciación y hasta desviar la dirección, pero no puede recorrer las etapas pasadas en sentido inverso. Para la física, la segunda ley de la termodinámica es la que impone un sentido a los fenómenos. No puede darse ningún evento en sentido opuesto al observado porque ello implicaría una disminución de entropía. Es imposible invertir el curso del universo, como podría hacerse con un sistema puramente mecánico como, por ejemplo, un reloj ideal. Tanto en el mundo orgánico como en el mundo físico, las secuencias de la película que describe la evolución no pueden proyectarse marcha atrás.

Sin embargo, en los procesos de degradación de la energía persistía una cierta aura de misterio, como si la irreversibilidad exigiese algún elemento secreto común a los diferentes mecanismos que operan en la naturaleza. Con la termodinámica estadística desaparece la necesidad de un factor oculto. La irreversibilidad traduce los cambios en la distribución de las moléculas, de su disposición en los cuerpos. El sentido único de los cambios es el resultado de una propiedad inherente a la estructura

misma de la materia, puesto que, a partir de Boltzmann, la segunda ley de la termodinámica, que rige la marcha del universo y anota en su balance un incremento neto de entropía, termina por no ser más que una ley estadística. Incluso se convierte en la ley estadística por excelencia. La mayoría de los fenómenos físicos representa simplemente la tendencia natural de las poblaciones de moléculas a pasar del orden al caos. El orden de las moléculas representa para el físico un valor estadístico medible. El calor almacenado en el Sol, por ejemplo, constituye una enorme provisión de energía, utilizable en la medida en que no se distribuye uniformemente por todas las regiones del universo, sino que se concentra en un espacio limitado. Este calor tiende a dispersarse espontáneamente con el tiempo y la temperatura a uniformizarse, lo que significa un aumento del desorden o de la entropía del universo. El hecho de que el calor fluya siempre de lo más caliente a lo más frío no se debe a ninguna ley secreta que le obligue a hacerlo, sino simplemente a que el proceso inverso es billones de veces menos probable, por lo que nunca se observa en la práctica, aunque no sea imposible en teoría. Decir que las moléculas pasan de un estado menos probable a otro más probable evoca las piedras de un monumento que un terremoto ha transformado en ruinas, o los libros de una biblioteca bien ordenada esparcidos por lectores descuidados. La termodinámica estadística dice que si se mezclan las cartas de una baraja lo más probable es que pasen del orden al caos. Pero no dice que lo contrario sea imposible. Si el número de ensayos es lo bastante elevado, es posible e incluso seguro que se dé una ordenación espontánea. Sin embargo, para obtener este resultado se requeriría un lapso de tiempo enorme, de manera que tales excepciones no pueden perturbar la marcha general del universo. El curso de los acontecimientos discurre por la dirección estadísticamente más probable. La irreversibilidad de la evolución darwiniana deriva de la imposibilidad de volver atrás una vez los organismos han apostado por una determinada especialización. La irreversibilidad de la termodinámica de Boltzmann deriva de la improbabilidad de que las moléculas del universo pasen espontáneamente del desorden al orden.

La mecánica estadística transforma por completo la visión del mundo del siglo xix porque, primeramente, hace derivar las propiedades de los cuerpos de la estructura misma de la materia. A partir de Gibbs, el análisis estadístico no se aplica solamente al comportamiento de las poblaciones grandes, sino al de cualquier «sistema conservativo», con independencia de sus grados de libertad. Esto permite analizar la distribución de posiciones y momentos compatible con la energía de un sistema dado, distribución que al cabo de un tiempo lo bastante largo acaba por recorrer todo el sistema. La mayoría de los eventos que tienen lugar en el mundo físico conciernen al tratamiento estadístico. Todas las reacciones químicas, sus velocidades, sus variaciones con la temperatura, los procesos de fusión y de evaporación, las leyes de la presión, etc., todos estos fenómenos se basan en la hipótesis subyacente de cambios en el orden de las moléculas. Todos se rigen por leyes estadísticas.

Con la mecánica estadística se perfecciona el aparato matemático que permite analizar la estructura y la evolución de cualquier sistema que maneje grandes números. De este modo se hacen accesibles al análisis muchos objetos, hechos e incluso propiedades antes intratables, en la medida en que puedan contarse y clasificarse, es decir, siempre que se trate de un sistema discontinuo. Este tipo de análisis estadístico descansa sobre la distribución de elementos discretos. La discontinuidad, tanto la natural (como en las poblaciones de unidades) como la introducida por los métodos de medición que imponen siempre la elección entre dos valores límites, constituye una condición necesaria para este tipo de análisis. Para analizar lo discontinuo basta echar mano del concepto matemático más simple y más antiguo, el de los números enteros. El arte de aplicar el método estadístico consiste en poder contar números enteros. Cuanto mayor es el número de casos observados, más reproducibles son los resultados. Aun así, el mecanismo estadístico posee tal seguridad, funciona con tal precisión de detalle, que es posible ajustar las condiciones de manera que baste con un número limitado de observaciones. La utilización por Maxwell del método estadístico para analizar fenómenos físicos fue un tanto accidental, pero a partir de Boltzmann y Gibbs la técnica se extiende a los campos más variados, incluso aquellos en los que a primera vista parecía difícil, si no imposible, introducir la discontinuidad necesaria. Se consiguen obtener leyes prácticas a partir de fenómenos de los que se ignora totalmente el determinismo. Ya no se buscan las causas de sucesos aislados, puesto que se hace posible observar un gran número de sucesos de la misma clase, seleccionarlos, componer los resultados y, finalmente, calcular el promedio con ayuda de reglas empíricas. De este modo pueden predecirse sucesos futuros de la misma clase, no con certidumbre, pero con una probabilidad muchas veces cercana a la certeza. Estas predicciones sólo son válidas para un conjunto de sucesos, con exclusión de excepciones y detalles. De hecho, una de las características del método estadístico consiste en ignorar deliberada y sistemáticamente los detalles. Su finalidad no es obtener toda la información posible sobre un evento particular, ni tampoco describir cada circunstancia con minuciosidad, sino la elaboración de una ley que trascienda los casos individuales.

La segunda razón por la que la termodinámica estadística transforma por completo la visión de la naturaleza es que, con objeto de conferirles el mismo estatuto de cantidades mensurables, asocia dos conceptos hasta entonces desconectados, si no opuestos: el orden y el azar. Todo el arsenal de fuerzas e impulsos, todas las cargas y potenciales que conservaban, a pesar de todo, cierto sabor a misterio y arbitrariedad, quedan relegados a la categoría de factores auxiliares. Representan solamente distintos aspectos de un mecanismo más profundo, más universal, que emerge como la ley general del universo: la tendencia natural de las cosas a pasar del orden al desorden por efecto de un azar calculable. Esta ley no pretende proponer una explicación causal de los sucesos. No intenta explicar por qué sobrevienen, sino cómo. La noción misma de causalidad pierde así algo de su significado y, por ende, de su interés. De este modo se atenúa mucho el misterio que todavía impregnaba la representación de la naturaleza durante la primera mitad del siglo xix. El que muchos fenómenos totalmente diferentes y aún no explicados muestren con tanta frecuencia caracteres comunes significa que, de alguna manera, se fundamentan en un mecanismo común. Esto no concierne sólo a los fenómenos que son competencia de la física, sino también, a finales del siglo y principios del siguiente, a los de campos como la astronomía, la geología, la biología, la meteorología, la geografía, la historia, la economía, la política, la industria y el comercio; en suma, los dominios más variados de la actividad humana, y hasta los detalles de la vida cotidiana.

No es exagerado decir que nuestra concepción actual de la naturaleza fue forjada en parte por la termodinámica estadística. Ésta transformó tanto los objetos como la actitud de la ciencia. En ella se basa el cambio de mentalidad del que surgió, a principios del presente siglo, el mundo físico actual. Un mundo de relatividad y de incertidumbre, sometido a las leyes cuánticas y a la teoría de la información, donde materia y fuerza representan dos aspectos de una misma cosa. La termodinámica estadística está en la base de ciencias nuevas como la físico-química, que fundamenta las propiedades químicas de los cuerpos en su estructura física. La experimentación puede hacerse así extensiva a los más variados campos de la biología. En primer lugar, porque las reacciones químicas propias de los seres vivos quedan sometidas a las leyes que rigen la materia. En segundo lugar, y especialmente, porque el método de análisis estadístico transforma la biología en una ciencia cuantitativa. A finales del siglo xix, el estudio de los seres vivos no consiste ya solamente en una ciencia del orden, sino también de la medida.

El nacimiento de la genética

La obra de Mendel es otra demostración de que Darwin, Boltzmann y Gibbs no representan una actitud minoritaria, sino una tendencia que se impone en la segunda mitad del siglo xix. Las observaciones sobre la herencia se habían acumulado desde hacía siglos, pero hasta entonces no se convierte en objeto de estudio científico propiamente dicho. Aun cuando el siglo xix hubiera renunciado ya a hibridar especies distintas, los cruzamientos que se realizaban ponían en juego variedades que diferían en todo un abanico de caracteres. La herencia era un problema reservado a horticultores y criadores. Durante todo el siglo xix las exigencias económicas obligaron al incremento de las cosechas y los rebaños y su adaptación a las condiciones locales de clima, temperatura y recursos. Era preciso aumentar el rendimiento no sólo elevando el número de animales y plantas por hectárea, sino mejorando la calidad del género. Las experiencias prácticas se llevaban a cabo en las huertas y los pastos, en las colmenas y los corrales. Una vez realizados los cruzamientos, se examinaban algunos individuos de la descendencia para hacer una descripción lo más completa posible de ellos, sin omitir ningún detalle. La mayoría de caracteres considerados no se prestaba a una discriminación neta, sino que constituían matices de una serie casi infinita de intermediarios. De hecho, cuanto más se fundían en el híbrido los caracteres de los progenitores, más se ajustaba el resultado a la idea que se tenía de la herencia. Se observaba que los caracteres reaparecían a lo largo de las generaciones. Se constataba la desaparición de alguno de ellos durante un tiempo y su reaparición posterior. Naudin, por ejemplo, señaló la oposición entre la uniformidad de los descendientes en la primera generación híbrida y «la extrema confusión de formas» en la segunda generación: unas imitaban las del padre, otras las de la madre, como si los híbridos fueran «mosaicos vivientes» cuyos elementos no pudieran ser percibidos por el ojo humano. Gartner observó una gran heterogeneidad en la progenitura de los híbridos: mientras que ciertos individuos tenían una descendencia pura, otros producían mezclas. Sin embargo, lo que caracterizaba la herencia era sobre todo su complejidad.

En Mendel convergen las dos corrientes que dan lugar a la constitución de una ciencia de la herencia: el saber práctico de la horticultura y el teórico de la biología. Hijo de granjero, en su infancia veía a su padre plantar, hibridar, injertar, y nunca dejó de preguntarse cómo se formaban las especies, lo que hizo que se interesara por la evolución. Tras ordenarse sacerdote, se le autorizó a cultivar plantas en el jardín de su monasterio. Pero lo que realmente fascinaba a Mendel era la naturaleza de la herencia. Empezó a producir híbridos, no con la finalidad de aumentar el rendimiento, sino para investigar el comportamiento de los caracteres a lo largo de las generaciones. La actitud de Mendel difiere drásticamente de la de sus predecesores. «De todas las experiencias realizadas, ninguna se hizo a una escala lo bastante grande y con la suficiente precisión para permitir determinar el número de las diferentes formas bajo las cuales aparecen los descendientes de los híbridos, ni clasificar estas formas con certidumbre según las generaciones sucesivas o precisar sus relaciones estadísticas.» El enfoque mendeliano comporta sobre todo tres elementos nuevos: la manera de contemplar la experimentación y de elegir el material conveniente; la introducción de una discontinuidad y el manejo de poblaciones grandes, lo que permite expresar los resultados numéricamente y someterlos a un tratamiento matemático; el empleo de un simbolismo simple que permite un diálogo continuo entre la experimentación y la teoría.

De entrada Mendel presta especial atención a la selección del material. Prueba varias plantas antes de decidirse por el guisante. Busca variedades cuya pureza esté garantizada por varios años de cultivo en condiciones rigurosas. Las variedades destinadas a la hibridación deben diferir entre sí por un número limitado de rasgos. Hay que descartar los caracteres que «no permiten una discriminación neta y segura, ya que la diferencia en este caso es del tipo «más o menos», lo que a menudo es difícil de definir». Sólo deben retenerse los rasgos cuya discriminación pueda establecerse sin ambigüedad, como la forma y el color de los granos, de las vainas, la repartición de las flores alrededor del tallo, etcétera. Para evitar una complejidad insuperable de entrada en el análisis de las hibridaciones, es importante olvidar los detalles y limitarse al estudio de un pequeño número de caracteres: primero uno, después dos, después tres, teniendo buen cuidado en cada caso de distinguir todas las combinaciones posibles en la descendencia. Para ello hay que respetar dos condiciones: por un lado, las experiencias deben hacerse a una escala lo bastante amplia para poder ignorar los individuos y preocuparse únicamente de poblaciones; por otro lado, hay que seguir el comportamiento de los caracteres no solamente entre la descendencia de una pareja, sino a través de una larga serie de generaciones sucesivas.Por su propia naturaleza, esta experimentación conduce a expresar los resultados de una manera completamente nueva. Gracias a la discontinuidad introducida deliberadamente en la discriminación de los caracteres, es suficiente contar en cada generación los individuos pertenecientes a cada una de las clases posibles. Cada clase se traduce en un número entero, tanto mayor cuanto más vasta es la escala de la experiencia. Estos números pueden someterse al análisis estadístico para establecer sus relaciones, las cuales acostumbran a ser simples. Así, los híbridos de primera generación, producto de los cruces entre variedades que difieren en un solo carácter, se parecen exclusivamente a uno de los padres y nunca al otro. El carácter que no se expresa se llama «recesivo» en relación al carácter que se expresa, o «dominante». En la generación siguiente, descendiente de los híbridos, las formas recesiva y dominante aparecerán en una relación de 1 a 3. De cada tres portadores del carácter dominante, dos serán también portadores del carácter recesivo. Si las variedades cruzadas difieren no en uno, sino en dos caracteres, los híbridos de la primera generación serán otra vez idénticos. En la generación siguiente, los descendientes de estos híbridos se distribuirán en cuatro clases de proporciones 1:3:3:9. Tres de estas clases pueden subdividirse todavía en dos en la generación siguiente. El número de clases aumenta con el número de caracteres puestos en juego. Dice Mendel: «Los descendientes de los híbridos en los que se combinan varios caracteres diferenciales representan los términos de una serie de combinaciones donde se reúnen las series desarrolladas de cada par de caracteres diferenciales… Si n representa el número de caracteres diferenciales en los dos linajes originales, 3n nos da el número de términos en la serie de combinaciones, 4n el número de individuos pertenecientes a la serie y 2n el número de uniones que permanecen constantes». En otras palabras, los diferentes caracteres se transmiten independientemente unos de otros. En poblaciones lo bastante grandes se puede prever su distribución.

Finalmente, la simplicidad de una elección binaria entre dos formas de un carácter permite una representación simbólica simple. Dice Mendel: «Si designamos por A uno de los caracteres constantes, por ejemplo el dominante, a el recesivo y Aa la forma híbrida combinada, la expresión A + 2Aa + a nos dará los términos de la serie para los descendientes de los híbridos de un sólo carácter». Es en la interpretación simbólica de los resultados donde de alguna manera se articulan la teoría y la experimentación. Por un lado, permite formular hipótesis a partir de las distribuciones observadas. Por otro lado, conduce inmediatamente a predicciones verificables por la experiencia. Así, de las relaciones observadas entre las combinaciones de caracteres pueden extraerse ciertas conclusiones relativas a la formación y constitución del polen y los huevos. Un linaje sólo se mantiene puro y constante en la medida en que los organismos proceden de polen y huevos portadores del mismo carácter, por ejemplo A. Dado que en una planta híbrida se dan las dos formas del mismo carácter, A y a, es razonable concluir que en los ovarios del híbrido Aa se forma la misma cantidad de huevos de cada uno de los tipos A y a. De manera general, cuando entran en juego numerosos caracteres, el híbrido produce tantas clases de polen o huevos como combinaciones pueden darse en la descendencia. La experiencia confirma esta presunción. En un híbrido Aa, señala Mendel, «los emparejamientos entre cada tipo de polen y cada tipo de huevo son cuestión de azar, pero, según la ley de probabilidad, siempre encontraremos que, en promedio, cada tipo de polen A y a se unirá con la misma frecuencia a cada tipo de huevo A y a; en consecuencia, uno de cada dos granos de polen A se unirá a un huevo A y el otro a un huevoa, y lo mismo puede decirse de los granos de polen a». Los resultados de los cruzamientos pueden representarse mediante un gráfico simple. Ahora bien, para representar la condición individual no basta con un solo símbolo; se necesitan dos, que Mendel reúne en forma de fracción. En la descendencia del híbrido A/a se dan cuatro combinaciones, A/AA/aa/Aa/a. Sólo la primera y la última son puras y corresponden a los caracteres de los padres. Al ser la forma A dominante sobre a, las tres primeras poseen el mismo carácter observable, aunque su descendencia tiene una estructura distinta. Esto explica la relación de 1 a 3 entre las formas recesiva y dominante en la segunda generación. Estos valores representan únicamente el promedio de numerosas experiencias que implican la autofecundación de híbridos. En las flores o plantas individuales, los términos de la serie se apartan a menudo del promedio. Los casos individuales, escribe Mendel, «deben necesariamente estar sometidos a fluctuaciones; los verdaderos valores pueden determinarse solamente a partir de la suma de casos individuales en la mayor cantidad posible; cuanto mayor es su número, mejor se eliminan los efectos del azar» .

Con Mendel, los fenómenos de la biología adquieren de golpe el rigor de las matemáticas. La metodología, el tratamiento estadístico y la representación simbólica confieren a la herencia toda una lógica interna. A excepción del episodio preformacionista, la manera de considerar el problema de la herencia apenas había cambiado desde hacía más de veinte siglos. La teoría de la evolución exigía un proceso capaz tanto de reproducir en el hijo los rasgos de los progenitores como de hacerlos variar. Lo que Darwin llamaba «pangénesis» en tiempos de Mendel no se alejaba mucho de lo que ya imaginaron Hipócrates y Aristóteles en la antigüedad o Maupertuis y Buffon en el siglo anterior. Según la pangénesis, cada fragmento del cuerpo, cada célula, producía un pequeño germen de sí mismo, o «gémula», que se instalaba en las células germinales con la misión de reproducir este fragmento en la generación siguiente. Esta teoría tenía la ventaja de admitir tanto la posibilidad de variaciones surgidas espontáneamente, sin la influencia de factores externos, como la inserción de caracteres adquiridos en la herencia. Al igual que Maupertuis y Buffon, Darwin tampoco supo diferenciar entre el cuerpo de los progenitores, sus simientes y el cuerpo del hijo. Transmitidos por los primeros, los mismos elementos pasaban a las segundas para formar el tercero. La herencia sólo podía localizarse en la organización misma, en la estructura secundaria a la que se refería todo lo perceptible de un ser vivo en cuanto a estructuras y funciones. Mendel contempla la herencia de un modo completamente nuevo, a través de fenómenos que se analizan con precisión. Ni la regularidad de las segregaciones ni la dominancia de los caracteres ni la persistencia del estado híbrido concuerdan con la pangénesis. Para representar la condición individual se necesitan dos símbolos. El símbolo, por lo tanto, no puede corresponder ni a un carácter observable ni a su delegada la gémula. De ahí la necesidad de distinguir entre lo que se ve, el carácter, y lo que subyace tras el mismo, los dos aspectos que la genética del siglo xx denominará fenotipo y genotipo. Si bien el primero viene determinado por el segundo, la expresión del genotipo por el fenotipo es sólo parcial. Los caracteres traducen la presencia oculta de partículas unitarias, lo que Mendel llama «factores». Éstos son mutuamente independientes, y cada uno gobierna un carácter observable. La planta posee dos ejemplares de cada factor, uno aportado por el polen y otro por el huevo que la generaron.

Lo que la herencia transmite no es una representación global del individuo, ni tampoco una serie de emisarios procedentes de todos los puntos del cuerpo de los progenitores que se recompone en el hijo como las piedras de un mosaico, sino una colección de unidades discretas, cada una de las cuales rige un carácter. Cada unidad puede existir en diferentes estados que determínan las variantes del carácter correspondiente. Como todo organismo recibe de cada uno de los progenitores un juego completo de unidades, éstas se reajustan al azar a través de las generaciones. La organización que estudian los anatomistas, los histólogos y los fisiólogos, la estructura de segundo orden a la cual se refieren las formas y propiedades de un ser vivo, no es suficiente para explicar la herencia. Hay que apelar a una estructura de orden superior, más oculta, más profundamente enterrada en el cuerpo. La memoria de la herencia se emplaza en una estructura de tercer orden.

El mismo enfoque que condujo a Boltzmann a relacionar las propiedades de los cuerpos con su estructura interna y le permitió deducir la ley que rige la evolución de la materia condujo a Mendel al análisis de la herencia y al conocimiento de sus leyes. Ambos trataron con elementos discontinuos. En ambos casos resulta imposible prever el comportamiento de un solo elemento librado al juego del azar. En ambos casos se logra extraer orden del azar mediante el tratamiento estadístico de poblaciones grandes. El comportamiento concreto de cada unidad carece de importancia, se trate de factores hereditarios o de moléculas de un gas. La combinación de caracteres que se realiza en una planta concreta no tiene para Mendel mayor interés que el que tenía la trayectoria de una molécula concreta para Boltzmann. Fue así como la herencia llegó a convertirse en objeto de análisis. En el método experimental, los humores, las fuerzas oscuras, los designios misteriosos que desde la antigüedad parecían moldear el carácter de los seres vivos, se sustituyen por la materia, por partículas y por leyes. La representación de los seres vivos sufre una transformación total. En buena lógica, toda la práctica de la biología tenía que haberse trastocado, pero no fue así en absoluto. El caso de Mendel es un buen ejemplo de la imposibilidad de trazar una historia lineal de las ideas, de encontrar una sucesión de etapas que se ajuste a la lógica. Si bien la obra de Mendel estaba en consonancia con la física de su tiempo, no tuvo influencia alguna sobre sus contemporáneos. El siglo xx hará de Mendel el creador de la genética y convertirá su documento en la partida de nacimiento de esta ciencia. Hasta bien entrado el siglo, su obra permanecerá ignorada u olvidada. No es que el reverendo Gregor Mendel fuera un desconocido entre los científicos de su época. Aunque no era un profesional, se relacionó con algunos de los biólogos más eminentes del momento, a quienes describió detalladamente sus experiencias en una extensa correspondencia. Pero ninguno le hizo mucho caso. Cuando, en una tarde de febrero de 1865, Mendel leyó su primera comunicación en la sociedad local de ciencias naturales, sólo había unas cuarenta personas en la Realschule de Brno. La asamblea estaba formada por astrónomos, físicos, químicos, en fin, un público experto. Mendel habló durante una hora de la hibridación de los guisantes. Un tanto desconcertados ante la aplicación de la aritmética y el cálculo de probabilidades al problema de la herencia, los presentes escucharon con paciencia y aplaudieron cortésmente cuando Mendel terminó su charla, pero nadie se interesó por el tema. «Tal como esperaba», escribió Mendel a Nágeli, «encontré mucha resistencia; pero, por lo que veo, nadie se ha tomado la molestia de repetir mis experiencias.» Cuando Mendel muere unos años más tarde, es un hombre respetado por su obra social, pero su obra científica sigue ignorada. Cuando se «redescubren» sus resultados a principios del siglo siguiente, muchas de las copias de la memoria de Mendel tienen las páginas aún sin cortar.

¿Cómo puede afirmarse, entonces, que el espíritu está siempre a la espera de ideas nuevas para apoderarse de ellas y explotarlas, o que el desarrollo de las ciencias está guiado por la sola finalidad de la lógica? El pensamiento sólo puede maniobrar dentro del espacio que le otorga el enfoque del momento y en torno a los objetos de análisis que se le ofrecen. La genética se constituye como ciencia tras la transformación del estudio de la célula a finales del siglo xix, cuando se precisa su estructura, se revela la existencia de los cromosomas y sus movimientos acompasados como una danza, y se modifica también su papel al descartarse la pangénesis en favor del «germen», linaje celular reservado para la reproducción y protegido de las vicisitudes a las que están sometidos los cuerpos vivos.

El juego de los cromosomas

En la segunda mitad del siglo xix los biólogos concentraron gran parte de su esfuerzo en el estudio de la célula. Ésta ya no es solamente la unidad elemental del ser vivo, el último término del análisis anatómico, sino que se convierte en el lugar donde se articulan las actividades del organismo, el «hogar de la vida» en palabras de Virchow. En las células se efectúan las reacciones del metabolismo y se elaboran las moléculas características de lo viviente. A través de su diferenciación se forman los órganos y se estructura el cuerpo del adulto. A través de su división se perpetúa la organización. En lo sucesivo toda célula nacerá de otra célula. La reproducción se efectúa por una «excrecencia del individuo», dice Haeckel. Como puede verse con nitidez en los seres unicelulares que se multiplican por división, los fenómenos de la herencia traducen en realidad los del crecimiento. Cada uno de estos minúsculos organismos crece hasta escindirse en dos mitades idénticas, no sólo en tamaño, sino también en cuanto a forma y estructura. Se comprende entonces por qué el vástago se parece a su ancestro: es un fragmento de él. Algo parecido ocurre con los seres pluricelulares que se forman por multiplicación de una sola célula inicial, el huevo. El cuerpo de dicho organismo puede verse como una colonia de células donde la división del trabajo exige la diferenciación de las unidades, de suerte que ciertas células se encargan sólo de las funciones necesarias para la respiración, otras de la reproducción, otras de la locomoción y otras de la digestión. Ya se trate de seres unicelulares o de organismos complejos, la herencia es siempre el resultado de la continuidad de las células. Así pues, es en el espacio celular donde deben situarse tanto las reacciones químicas que dan al organismo su especificidad como el sistema que le confiere la propiedad de producir semejantes. Las células germinales contienen, ya no en efigie, sino en potencia, el esbozo del organismo futuro. Estas gotas albuminosas encierran la especialización de todas las células que se derivarán de ellas. El análisis científico converge, por lo tanto, en el funcionamiento y la división celulares.

No se trata de hacer una zoología de las células, ni de precisar la posición, las relaciones y las propiedades de todas las unidades que componen un organismo, ni de conocer su filiación exacta, ni de trazar un mapa detallado. En realidad, existen pocas posibilidades de que algún día se llegue a desenmarañar el embrollo de las células y fibras de un organismo complejo. Sin embargo, aunque las células de un organismo difieran entre sí en cuanto a forma, posición y función, no por ello dejan de estar cortadas según un mismo patrón. Más allá de su diversidad existe una unidad de estructura. Sea cual fuere su naturaleza y su origen, una célula aparece siempre como un corpúsculo semilíquido constituido por una sustancia albuminosa, el protoplasma. Contiene un núcleo más o menos grande, más o menos redondeado, formado también por una sustancia albuminosa. Está limitada por una membrana, y suele contener numerosas partículas. Pero lo que domina la organización celular es la presencia de dos constituyentes mayores. Dice Haeckel: «Núcleo y protoplasma, núcleo celular interno y sustancia celular externa, he aquí las dos únicas partes esenciales de toda célula verdadera. Todo lo demás es secundario y accesorio». Es necesario, por lo tanto, precisar la composición y la función de ambos constituyentes a fin de determinar lo que la célula transmite a sus descendientes para que se formen a su imagen y semejanza.

La citología, ciencia que intenta explorar el espacio celular, conjuga intereses muy distintos: interesa a la fisiología, al desarrollo embrionario, a la herencia, a la evolución y a la morfología. La unidad la aporta el método, el lenguaje y el material. A finales del siglo xix el microscopio óptico alcanza el máximo poder de resolución que le permite la física, pero gracias al empleo de compuestos químicos que colorean selectivamente las estructuras celulares los citólogos aumentan su capacidad de descriminación e identificación. Se encuentra así una vía de acceso a la composición química de los constituyentes celulares; el núcleo, por ejemplo, se tiñe fácilmente con ciertas sustancias básicas. Poco a poco, el paisaje que se descubre en el fondo del microscopio va adquiriendo relieve. Describir los detalles supone el empleo de un lenguaje nuevo. Hacia el final del siglo se elabora todo un vocabulario inédito yuxtaponiendo (hibridando, podríamos decir) raíces griegas o latinas. El discurso del biólogo pronto se hace impenetrable para el no iniciado. La facilidad de colorear el núcleo, por ejemplo, se evoca simplemente con el radical «cromo». De ahí proceden los términos «cromatina», acuñado por Flemming para la sustancia nuclear, «cromosoma», introducido por Waldeyer para los filamentos distinguibles en el núcleo, «cromómero», propuesto por Balbiani y Van Beneden para las bandas de los cromosomas, y otros (cromátida, cromidio, cromidiogamia, cromiolo, cromocentro, cromonema, cromoplasto, cromospira, etcétera). La precisión en el detalle se mide por la de los nombres. Finalmente, la citología se distingue por el material que emplea. Su libertad de elección es absoluta, puesto que lo que pretende analizar no son las características de ciertos tipos de células, sino los atributos comunes a todas ellas. Esto le permite concentrarse en algunos organismos que por su estructura y propiedades presentan ciertas ventajas para la observación y la experimentación. Ciertos organismos se ven así privilegiados, y sobre ellos converge la atención de especialistas separados por la geografía, la disciplina e incluso los intereses. Existen dos clases de material particularmente favorables. Por un lado están los protistas, seres unicelulares cuyo ciclo reproductivo se parece al de los seres pluricelulares. En vez de unirse en un solo cuerpo, las células de los protistas están separadas y llevan una vida independiente. «Los protozoarios», dice R. Hertwig, «tienen una sola clase de reproducción: la división celular.» Desde el punto de vista fisiológico, un protozoario constituye un individuo, al igual que un metazoario; sin embargo, por su morfología y su modo de formación, es comparable tanto a una célula germinativa como a una célula aislada de un metazoario. Los protozoarios constituyen un material simple e idóneo para el análisis de la división celular en su aspecto más puro y desnudo. Por otro lado, entre la infinita diversidad de los seres pluricelulares encontramos formas particularmente favorables para la observación del núcleo celular, de las células germinativas y del desarrollo embrionario. Entre estos seres privilegiados hay que seleccionar el material de acuerdo con la finalidad perseguida. Si nos interesa la división celular, la morfología del núcleo y su modo de formación, entonces deberemos recurrir al ascáride, gusano parásito del caballo cuyas virtudes destacaron Van Beneden y Boveri: «El ascáride constituye un material insuperable. Sus huevos pueden conservarse durante meses en un lugar frío y seco. Cuando se tiene tiempo para trabajar, se los coloca a la temperatura ambiental y continúan lentamente su desarrollo. Si se quiere acelerar temporalmente su desarrollo se pueden colocar en una estufa de cultivo. Si se quiere detenerlo se vuelven a poner en un lugar frío y siempre se recuperan en el estado en que se dejaron».» Además, el núcleo del ascáride es muy simple, pues sólo contiene de dos a cuatro cromosomas, según la especie, cuya morfología y comportamiento son fácilmente observables. Durante la división celular los cromosomas se dividen y se distribuyen a lo largo de una suerte de huso que los atrae hacia polos opuestos de la célula. El ascáride es el organismo ideal para analizar este proceso. Pero si lo que queremos es estudiar las células germinales, la fecundación y el desarrollo del embrión, entonces hay que recurrir a la rana o, mejor aún, al erizo de mar, cuyas ventajas glosan Hertwig y Boveri: el óvulo es transparente y fácil de observar, y el espermatozoide es pequeño, con un núcleo condensado y fácilmente localizable. Se coloca un óvulo y un poco de esperma en una copa llena de agua de mar y se ve cómo los espermatozoides se fijan al óvulo. No obstante, dice Boveri, «sólo una célula espermática consigue su finalidad, la primera que toca la superficie del huevo». Se puede seguir el trayecto del núcleo masculino que va a unirse al núcleo femenino, y contemplar las divisiones sucesivas del huevo, que siguen un orden riguroso en el tiempo y en el espacio; en suma, se puede observar en detalle esa especie de milagro por el cual unos fragmentos desprendidos de dos individuos, uno macho y otro hembra, penetran el uno en el otro para dar nacimiento a un organismo nuevo e idéntico.

El huevo del erizo de mar permite que el estudio de la célula y del desarrollo embrionario pase de la observación a la experimentación. Se hace posible, en efecto, actuar sobre las células germinales o sobre el huevo en desarrollo, es decir, modificar las condiciones fisicoquímicas de la fecundación artificial. Agitando con fuerza huevos no fecundados, los Hertwig consiguen fragmentarlos en pedazos que pueden ser fecundados por el esperma de la misma especie. Mediante tratamientos químicos, Boveri logra huevos fecundados por más de un espermatozoide, y observa distribuciones anormales de cromosomas en las células en división. Aumentando la concentración salina en el agua de mar o sometiendo los huevos a distintos tratamientos químicos o físicos, Loeb induce la partenogénesis artificial. Aislando una célula de un huevo fecundado que ha empezado ya a segmentarse, Driesch obtiene un desarrollo completo que produce un organismo ciertamente pequeño, pero acabado. La virtuosidad técnica de los embriólogos continuará creciendo durante el siglo xx hasta el punto de permitirles intervenir sobre células seleccionadas del huevo, destruirlas selectivamente, inyectar ciertas sustancias (extractos de otros embriones, por ejemplo) y sustituir el núcleo de un huevo por otro. El efecto se mide por las lesiones que se desarrollan en el embrión, por el grado de desarrollo que alcanza y por las monstruosidades que aparecen. Incluso la formación del embrión se hace así accesible al método experimental.

La citología del siglo xix trata primeramente de discernir el papel que desempeñan en el funcionamiento de la célula sus dos constituyentes principales, el núcleo y el citoplasma. Poco a poco el núcleo adquiere protagonismo, y dentro de él los cromosomas acaparan la atención. La constancia de su número y su morfología, la seguridad de sus movimientos, la precisión de su repartición en los productos de la división celular, todo contribuye a darles un estatuto excepcional. Se observa cómo se engrosan y luego se deshilachan y desaparecen para reaparecer después con la misma forma. Se observa cómo se dividen longitudinalmente en dos partes idénticas, cada una de las cuales es atraída hacia un polo celular, como por un «centro magnético», en palabras de Van Beneden. Los cromosomas manifiestan una continuidad a través del ciclo celular. Poseen una individualidad y una estructura característica en ciertas etapas del ciclo. «Son elementos orgánicos» dice Boveri, «que tienen una existencia autónoma en el interior de la célula». Pero, sobre todo, poseen el poder extraordinario de formar dos núcleos idénticos a aquél del cual derivan, desdoblándose y reagrupándose en cada polo celular. Los cromosomas pueden distinguirse y contarse, y se puede seguir su evolución. Se distribuyen por pares: dos grupos de dos en los ascárides, excepto en las células germinales, cuyos núcleos sólo albergan dos cromosomas diferentes. Al fundirse los núcleos de un óvulo y un espermatozoide en el momento de la fecundación se reconstituye el juego completo de cromosomas. Cualquier anomalía en el número de cromosomas así reconstituido, cualquier exceso o defecto, implica perturbaciones en la evolución del embrión. «El desarrollo normal», dice Boveri, «depende de una combinación particular de cromosomas, y eso sólo puede significar que los cromosomas, considerados individualmente, poseen cualidades distintas.» En la profundidad del núcleo aparece una estructura de propiedades excepcionales, una estructura que tiene la propiedad, única en la célula, de desdoblarse con exactitud.

Al mismo tiempo, la dualidad constitucional observada primero en la célula se hace extensiva al conjunto del organismo. Hasta entonces no se hacía distinción entre los elementos estructurales y los encargados de la reproducción. El hijo representaba una excrecencia de los padres en la cual, a través de las células reproductoras, cada porción del cuerpo delegaba en una suerte de germen su reproducción exacta en la generación siguiente. La misma partícula formaba parte sucesivamente de la composición de un órgano paterno, de una célula reproductora y, finalmente, del mismo órgano en el hijo. «Es probable», decía Huxley, «que cada parte del adulto contenga moléculas procedentes del progenitor macho y del progenitor hembra, y que el organismo entero, considerado como una masa de moléculas, pueda compararse a un tejido en el que la trama deriva de la hembra y la urdimbre del macho.»» Pero la distinción que establece Nágeli entre el «trofoplasma» y el «idioplasma» introduce un dualismo en el conjunto del organismo. El trofoplasma, que constituye la mayor parte del cuerpo, se encarga de las operaciones de nutrición y crecimiento. El idioplasma, un componente comparativamente menor en volumen, desempeña en cambio un papel esencial en la reproducción y el desarrollo: es el sustrato de la herencia. Contenido en el huevo, dirige su evolución y su desarrollo, difundiéndose por todo el organismo para formar una suerte de trama directriz. Si el huevo de gallina difiere del huevo de rana es porque contiene un idioplasma diferente. La especie está contenida en el huevo tanto como en el organismo adulto. El idioplasma se concibe como una sustancia compleja formada por la conjunción de un enorme número de partículas o «micelas». Según un cálculo de Nágeli, un volumen de una milésima de milímetro cúbico contendría cerca de cuatrocientos millones de micelas. La distribución de estas micelas en el idioplasma asegura la especificidad del mismo. La reproducción de las formas a través de las generaciones ya no corre a cargo de delegados de cada parte del cuerpo reunidos en el huevo, sino de una sustancia particular que dirige el desarrollo. Entre los biólogos de la época, Nágeli era, sin duda alguna, uno de los que estaban en mejor disposición para interpretar la obra de Mendel. Es precisamente a él a quien Mendel comunicó sus resultados en una serie de cartas que, sin embargo, no tuvieron ninguna trascendencia.

A partir de Weismann, la distinción introducida por Nágeli no sólo se hace más acusada, sino que cambia de naturaleza. Ya no se refiere a sustancias difundidas en el cuerpo, sino a las células mismas. La reproducción pone en juego células de un tipo particular, las células germinales, que difieren de las que constituyen el cuerpo, las células somáticas, por su función, su estructura e incluso su papel en la evolución. De acuerdo con Weismann, las células germinales contienen una sustancia «cuya constitución físico-química, incluida su naturaleza molecular, le otorga la facultad de convertirse en un nuevo individuo de la misma especie». La calidad de esta sustancia decide si el futuro organismo será lagartija u hombre, grande o pequeño, y si se parecerá a su padre o a su madre. La reproducción se basa enteramente en la naturaleza y las propiedades de las células germinales. Éstas «carecen de importancia para la vida de sus portadores, pero sólo ellas conservan la especie». Esta discriminación entre la naturaleza de las células implica dos consecuencias importantes.

En primer lugar, la idea de que el hijo no es más que un brote de los padres no sólo queda invalidada, sino que se invierte. Según Weismann, mientras que las células somáticas sólo pueden formar células somáticas, las células germinales tienen la capacidad de originar células de los dos tipos. Las células germinales no pueden considerarse un producto del organismo. En las generaciones sucesivas de organismos, se comportan como un linaje de seres unicelulares que se reproducen por escisión. A lo largo de este linaje se diferencian las células somáticas. En cierto modo, los cuerpos de los animales se injertan lateralmente en ellas. Dice Weismann: «En la reproducción de los seres pluricelulares tenemos el mismo proceso que caracteriza la reproducción de los seres unicelulares: una división continua de la célula germinal, la única diferencia es que la célula germinal no forma el individuo entero, sino que está rodeada… por miles de millones de células somáticas, cuyo conjunto forma la unidad superior del individuo». Puesto que las células germinales se reproducen por escisión, como los protozoarios, contienen siempre la misma sustancia hereditaria. Los organismos que se derivan de ellas son necesariamente idénticos entre sí. El linaje germinal forma el esqueleto de la serie en la que se insertan los individuos como excrecencias. Ya no es la gallina la que produce el huevo. Según la frase de Butler, es el huevo el que ha encontrado en la gallina el medio apropiado para rehacer un huevo.

La distinción entre germen y soma tiene otra consecuencia añadida. Si las células germinales derivan directamente de las de la generación precedente, si no son producidas por el cuerpo del progenitor, entonces están resguardadas de cualquier eventualidad somática. Las células germinales (y, por lo tanto, la descendencia) están a salvo de cualquier avatar que pueda sufrir un organismo. ¡Cómo pueden entonces transmitirse hereditariamente los caracteres adquiridos por un ser vivo? De ninguna manera, afirma Weismann: «Todos los cambios debidos a las influencias exteriores son pasajeros y desaparecen con el individuo». Son episodios transitorios que interesan a los organismos particulares, pero no a la especie. Los individuos implicados no tienen influencia sobre la trama de la especie. Al abrigo de cualquier aventura, las células germinales continúan reproduciéndose idénticas a sí mismas. El organismo no puede adquirir ningún carácter al cual no esté hereditariamente predispuesto. En el huevo está determinado todo el futuro del individuo, sus formas y sus propiedades. El margen de maniobra que puedan tener las condiciones externas es «limitado y abarca sólo una pequeña región móvil alrededor de un punto fijo formado por la herencia» .La naturaleza de las células germinales es constante dentro de la especie y varía de una especie a otra. Lo que se transforma y da lugar a la aparición de formas nuevas no son los individuos como tales, sino las «disposiciones hereditarias» contenidas en estas células. «La selección natural», dice Weismann, «opera en apariencia sobre las cualidades del organismo adulto, pero en realidad opera sobre las disposiciones ocultas en la célula germinal.»

La concepción de la herencia sufre así una transformación total. Hasta entonces la posibilidad de heredar caracteres adquiridos nunca se había puesto seriamente en tela de juicio. Desde la antigüedad, todos los textos, ya fueran egipcios, hebreos o griegos, estaban llenos de historias en las que los resultados de incidentes sobrevenidos a los padres se perpetuaban en los hijos. Lamarck sistematizó esta relación para convertirla en el mecanismo de las transformaciones locales, la estratagema de las circunstancias que posibilita la adaptación íntima del organismo a su medio. La herencia de los caracteres adquiridos se entronca en toda una serie de supersticiones, en la generación espontánea, en la fecundidad de las hibridaciones interespecíficas, en fin, en todos los aspectos del viejo mito por el que se fundían en la creación el hombre, los animales y la tierra. Ninguna otra teoría se ha resistido tanto a la experimentación, y ninguna otra ha frenado tanto el análisis de lo viviente en general y de la reproducción en particular. Incluso para Darwin, que basaba la evolución en las fluctuaciones aparecidas espontáneamente en las poblaciones, la pangénesis dejaba sitio a una influencia directa de las condiciones externas sobre los caracteres hereditarios. Para Weismann, por el contrario, el medio no tiene ninguna influencia sobre la herencia. El linaje germinal está al abrigo de cualquier variación individual. Ninguna de las pretendidas transmisiones de caracteres adquiridos resiste un análisis riguroso. Ninguno de los organismos mutilados de generación en generación engendra una descendencia mutilada. Aunque desde su nacimiento se corte sistemáticamente la cola de un linaje de ratones, los centenares de ratones nacidos al cabo de cinco generaciones seguirán teniendo una cola normal con la misma longitud media que la de sus antepasados. Lo que pueda acontecerle a un individuo no tiene influencia en su descendencia. La herencia está separada de cualquier fantasía local, de cualquier influencia, deseo o incidente. Se alberga en la materia y en su disposición. «La esencia de la herencia», dice Weismann, «es la transmisión de una sustancia nuclear de una estructura molecular especifica.» Sólo loS cambios de esta sustancia, sus «oscilaciones», son capaces de provocar cambios duraderos en los seres vivos. El mecanismo de la herencia, de la variación, de la evolución, no se fundamenta en la persistencia de lo adquirido a través de las generaciones, sino en las virtudes de una estructura molecular.

Así pues, a finales del siglo xix vemos aparecer dos elementos nuevos. Por un lado, la citología revela la existencia en el núcleo celular de una estructura con propiedades poco comunes. Por otro, el análisis critico de la estabilidad de las especies y su variación lleva a atribuir la herencia a la transmisión de una sustancia particular. Todo indica que los cromosomas son los mejores candidatos para esta tarea: la constancia de su número y su morfología, la precisión de su división y su repartición durante la división celular, la reducción de su número a la mitad en las células germinales, su fusión en el huevo en el momento de la fecundación, en virtud de la cual el hijo recibe su lote de cromosomas del padre y de la madre a partes iguales. Únicamente la sustancia del núcleo es capaz de transportar la «tendencia hereditaria». Esta tendencia contiene no sólo las disposiciones de los progenitores, sino las de ancestros más lejanos. En efecto, cada una de las células germinales que se unen en la fecundación contiene de hecho cromosomas heredados de los abuelos, bisabuelos, etc. La sustancia heredada de generaciones sucesivas está representada en los cromosomas «proporcionalmente a su distancia en el tiempo, según una razón que va disminuyendo, de acuerdo con el cálculo aplicado hasta ahora por los criadores en el cruce de razas para determinar la fracción de sangre noble que contiene un descendiente determinado». Los cromosomas del padre constituyen la mitad de los del hijo, los del abuelo, una cuarta parte; los de la décima generación ancestral 1/1024, y así sucesivamente. Las cuestiones de la herencia sólo requieren matemáticas elementales. En cada generación se renuevan los cromosomas procedentes de los progenitores. El análisis estadístico permite evaluar la contribución de los diferentes ancestros a la sustancia hereditaria del individuo. «En los fenómenos biológicos», dice de Vries, «la desviación de la media sigue las mismas leyes que las desviaciones de las medias de cualquier otro fenómeno regido por el puro azar.» Todos los cuerpos, vivos o no, obedecen la ley estadística.

Es entonces cuando puede desarrollarse una ciencia de la herencia. Suele decirse que en el tránsito del siglo xix al xx se «redescubrieron» las leyes de Mendel. Sin embargo, lo que se redescubrió es, sobre todo, el enfoque mecánico-estadístico de Mendel: la misma atención centrada en un número limitado de caracteres, con exclusión de los detalles; la misma selección de caracteres lo bastante diferenciados para introducir la discontinuidad; la misma manera de estudiar los descendientes de un cruzamiento, de contar los tipos y distribuirlos en clases finitas; el mismo interés por las poblaciones y no por los individuos cuya genealogía, sin embargo, se consigna; el mismo análisis estadístico de los resultados; la misma representación mediante símbolos factoriales; la misma distinción entre lo visible y lo oculto. En consecuencia, se observaron los mismos fenómenos, se sacaron las mismas conclusiones y se establecieron las mismas leyes. Tanto se generalizó el nuevo enfoque de la herencia que la obra de Mendel, ignorada durante más de treinta años, fue «redescubierta» simultáneamente en Alemania, Austria y Holanda y, algo más tarde, en Inglaterra, Estados Unidos y Francia. El progreso de la genética en los primeros años del presente siglo se debió a su importancia tanto para la biología como para la economía. Además de evolucionistas ínteresados en analizar el mecanismo de la variación, entre los investigadores de la herencia también había quienes buscaban aumentar el rendimiento agrícola y ganadero mejorando las variedades de plantas y animales; pero los métodos y problemas de unos y otros apenas diferían. Al esfuerzo de ganaderos y agrónomos, que disponían de medios considerables, se sumó el de los biólogos. Así se fundaron sociedades tales como la Asociación de Ganaderos Norteamericanos, cuyos objetivos definió así su presidente: «[La asociación] ha sugerido que los biólogos abandonen durante algún tiempo los interesantes problemas de la evolución histórica y centren su atención en las necesidades de la evolución artificial. A los ganaderos, que obtienen beneficios financieros de la cría de seres vivos, les pide que de vez en cuando se paren a estudiar las leyes de la herencia. La asociación invita a ganaderos y biólogos a asociarse para su mutuo beneficio» Desde sus comienzos, el análisis genético se ha aplicado con frecuencia a organismos de gran importancia económica, como el trigo, el maíz, el algodón o los animales de granja.

Las cualidades del material tienen un papel muy importante en genética. Así lo reconoce de Vries: «Para el estudio de las leyes generales de la herencia es preciso excluir completamente los casos complejos y considerar la pureza hereditaria de los padres como una de las primeras condiciones de éxito. Además, es necesario que la progenitura sea numerosa, ya que ni la constancia ni las proporciones exactas en caso de inestabilidad pueden determinarse con un lote pequeño de plantas. Por último, para seleccionar definitivamente el material de investigación no hay que olvidar que el objetivo principal es establecer las relaciones que unen los descendientes con sus padres». Primero fueron los botánicos de Vries, Correns y Tschermak quienes redescubrieron el enfoque mendeliano. Las plantas se prestaban especialmente bien al estudio de la herencia, porque la agricultura producía grandes poblaciones, se podía manipular el proceso de fecundación y sus caracteres eran fáciles de discernir. El análisis se hizo luego extensivo a los animales de laboratorio, como el cobaya, el conejo y la rata. Sin embargo, la experimentación demandaba un material con virtudes excepcionales. Hacía falta un organismo lo bastante poco exigente para poderse criar sin dificultad en el laboratorio, lo bastante pequeño para poder manipular poblaciones importantes en un espacio reducido, y con una velocidad de reproducción lo bastante alta para que fuera posible observar la sucesión de numerosas generaciones en un plazo relativamente corto. Debía tener caracteres fáciles de observar, apareamientos frecuentes y fertilidad elevada. Sus células debían prestarse al examen microscópico y tener un número de cromosomas lo bastante reducido para detectar cualquier particularidad. Esta rara avis existe: es la mosca. Durante más de medio siglo, los genéticos van a examinar con fervor los ojos, alas y pelos de la drosófila, la mosca popularizada por Morgan.

Las técnicas y los métodos adoptados por la genética le permiten analizar, por una parte, los mecanismos de variación en los seres vivos y, por otra, las características de la estructura que subyace tras la herencia. Cuando se consideran no unos cuantos individuos aislados, sino cientos o miles de plantas o animales, se hace posible ver cómo se modifican los caracteres de una población. En la segunda mitad del siglo xix las variaciones nacían de la acumulación progresiva de cambios imperceptibles. Para Darwin, la herencia se transmitía mediante extractos de cada célula; para Weismann, a través de una sustancia nuclear; pero ambos coincidían en que las variaciones y la evolución se originaban en las fluctuaciones de cada carácter. La intensidad de un carácter nunca es rigurosamente idéntica de un individuo a otro en el seno de la especie, sino que puede acentuarse o atenuarse según los casos. En una población siempre habrá fluctuaciones, pero las «oscilaciones» de un carácter siempre giran alrededor de una media. Aun así, estas desviaciones pueden acumularse y generar variaciones importantes producto de una selección deliberada por parte de un criador o de la influencia de las condiciones del medio, siempre que la presión selectiva se ejerza en el mismo sentido. A principios del siglo xx la variación de los caracteres cambia totalmente de mecanismo. Para de Vries, la variación ya no es el producto de una serie de modificaciones insensibles, sino de cambios radicales: «Las especies no se transforman gradualmente, sino que se mantienen inalteradas generación tras generación hasta que, de pronto, surgen formas nuevas que difieren claramente de las paternas y que se mantienen en lo sucesivo tan perfectas, constantes, bien definidas y puras como cabe esperar de una especie». La naturaleza, por lo tanto, sí da saltos. El medio del que se vale para producir variedades y especies nuevas es la mutación.

Al contrario de las fluctuaciones, los cambios insensibles y las gradaciones, las mutaciones son asequibles a la observación y la experimentación. Con un material mínimamente apropiado, que sea una cepa pura, y una población lo bastante numerosa se puede medir la frecuencia de mutación, precisar sus características y establecer las leyes que las rigen. Dichas leyes pueden resumirse con estas palabras: rareza, instantaneidad, discontinuidad, repetición, estabilidad, azar, generalidad. En primer lugar, la mutación es rara; la gran mayoría de individuos no se modifica con el paso de las generaciones. «La posibilidad de encontrar mutantes en número elevado», dice de Vries, «es muy reducida; lo normal es que representen una proporción muy pequeña del cultivo.» Además, las formas mutantes surgen «de manera súbita», «inesperadamente», mostrando «todos los caracteres del nuevo tipo, sin intermediarios», con una «ausencia total de transición entre los individuos normales y las formas mutantes». Tienen una descendencia estable; las mutaciones se heredan y persisten a través de las generaciones. Las formas mutantes no manifiestan ninguna «tendencia a retornar gradualmente a la forma original». No aparecen una sola vez, sino que «los tipos se repiten regularmente en las generaciones sucesivas». Una mutación atañe a un solo carácter. Pero, sea cual sea el material estudiado y el carácter considerado, «las mutaciones son la regla». Por último, en las mutaciones no existe ninguna dirección privilegiada, ninguna relación entre su producción y la influencia de las condiciones externas, ninguna correlación entre su aparición y su utilidad. Sobrevienen por azar y representan tanto una «progresión» como una «regresión». Se dan «en todas las direcciones… ciertos cambios son útiles, otros perjudiciales, pero la mayoría carecen de importancia, no siendo ni ventajosos ni desventajosos». Todas las cualidades varían en todos los sentidos. De esta forma las mutaciones aportan «un material considerable para la criba de la selección natural».

El nuevo carácter de la variación justifica a posteriori el enfoque empírico adoptado en su momento por Mendel para analizar la herencia. La discontinuidad introducida arbitrariamente por comodidad en la experimentación refleja en realidad la marcha de la naturaleza. Si un mismo rasgo puede presentar aspectos bien definidos, si éstos pueden representarse por una serie de símbolos, es porque el factor determinante del carácter adopta estados discretos. La modificación de dicho factor no se realiza a través de una serie de intermediarios, sino mediante cambios de estado bruscos. Al igual que los cambios materiales y energéticos, las variaciones hereditarias se realizan mediante saltos cuánticos. Se puede favorecer estos saltos y aumentar la frecuencia de mutaciones exponiendo el esperma de las drosófilas a los rayos X, como hace Miller, o tratando los organismos con ciertos productos químicos. Pero, tanto si surgen «espontáneamente» como si son «inducidas artificialmente», las mutaciones son siempre aleatorias. Nunca se encuentra una relación entre su producción y las condiciones externas, ninguna dirección impuesta por el medio. Una vez excluida definitivamente toda transmisión de caracteres adquiridos, el análisis de las mutaciones precisa los papeles desempeñados por la herencia y por el medio en la formación de los seres vivos. El medio sólo puede influir en el organismo dentro de los estrechos límites de las fluctuaciones autorizadas por lo que Weismann llamaba la «estructura molecular de la sustancia hereditaria» que se convierte en el «material genético». Fuera de estos límites no existe organismo.

El otro aspecto del que se ocupa la genética es la exploración de la organización y el movimiento de lo que Mendel llamaba «factores», y que el danés Johannsen rebautizó como «genes». La experimentación accede a ellos a través de los fenómenos de hibridación. Pero, lejos de cruzar variedades de procedencia desconocida, en lo sucesivo se trabaja con variedades mutantes derivadas de un mismo linaje puro. Lo que se analiza entonces es el determinismo propio de la variación. A principios del siglo xx los caracteres, estudiados inicialmente en número reducido, dan lugar regularmente a segregaciones independientes, en consonancia con las observaciones de Mendel. Sin embargo, a medida que se amplía el análisis y aumenta el número y la diversidad de las mutaciones estudiadas, se manifiestan anomalías. Ciertos grupos de caracteres parecen «asociados», pues tienden a permanecer unidos a través de las sucesivas generaciones. Otros, por el contrario, parecen «rechazarse» mutuamente. En los cultivos de drosófilas de Morgan aparece toda una serie de mutaciones que modifican el color del ojo, el del cuerpo, o la forma de las alas. En el transcurso de las generaciones, estos caracteres permanecen ligados al sexo de los animales como por un lazo invisible. Para Morgan y sus colaboradores Bridges, Sturtevant y Muller, todo ocurre como si los genes estuvieran fijados en estructuras lineales o «grupos de ligamiento». En la drosófila, la genética distingue cuatro grupos de ligamiento y la citología cuatro cromosomas; combinando las técnicas pueden identificarse los primeros con los segundos. Incluso se puede asociar el sexo del animal con una de tales estructuras. A fin de cuentas, las diferencias hereditarias entre los individuos de una especie se distribuyen mediante el movimiento y reparto de los cromosomas, y por el intercambio de genes entre cromosomas homólogos. Los caracteres, una vez determinadas las frecuencias de ligamiento o separación en el curso de las generaciones, se sitúan en orden lineal a lo largo de los cromosomas como las cuentas de un rosario. Se hace posible estimar las distancias relativas entre los genes y construir los mapas genéticos de las especies.

Para el genético hay tres maneras de analizar la herencia: puede observar la función a través de los caracteres, la mutación en los cambios de éstos y la recombinación en sus reordenaciones. Cada uno de estos métodos le permite reducir el material genético a unidades. Pero, sea cual fuere el tipo de análisis empleado, el resultado final es el mismo: el gen representa a la vez la unidad de función, de mutación y de recombinación. De este modo el material de la herencia se descompone en unidades elementales que no pueden fraccionarse. Los genes se convierten en los átomos de la herencia. Aunque un gen pueda, por mutación, adoptar varios estados discretos, en cada cromosoma sólo está presente uno de ellos. Por su rigor y su formalismo, a los biólogos que observan a diario una suerte de continuidad en la variación les resulta muchas veces difícil admitir esta noción cuántica de la herencia. Sin embargo, concuerda con las concepciones de la física, puesto que las cualidades de lo viviente se encuentran así reducidas a unidades indivisibles y sus combinaciones sometidas a las leyes de probabilidad que rigen el azar. La misma imposibilidad de predecir el movimiento de un átomo o un electrón aislado impide predecir la combinación particular de genes que se formará en un individuo particular. En cierta ocasión, la bailarina Isadora Duncan propuso a Bemard Shaw tener un hijo que podría combinar la belleza de la madre con la inteligencia del padre, a lo que el escritor opuso la otra posibilidad, igualmente probable, de ver nacer un vástago que, por desgracia, combinase la belleza del padre con la inteligencia de la madre. Únicamente pueden medirse distribuciones y calcularse probabilidades referidas a poblaciones grandes.

Entre los constituyentes de los seres vivos, el material genético interpreta un papel privilegiado; ocupa la cima de la pirámide y decide las cualidades del organismo. Los otros componentes se encargan de la ejecución. Sin embargo, sin el citoplasma que lo envuelve, el núcleo no tiene ningún poder. Es la célula entera la que constituye la unidad elemental de lo viviente, la que detenta las propiedades, la que asimila, crece y se reproduce. El gen representa el último término del análisis genético, pero carece de autonomía. Su expresión depende casi siempre de los otros genes que lo acompañan. Lo que determina el desarrollo, la forma y las propiedades de un organismo es la totalidad del material genético, la combinación particular de genes que en él se realiza. La selección natural actúa sobre las poblaciones favoreciendo la reproducción de ciertos individuos, y a través de ello, tras un gran rodeo, termina afectando al propio material genético. Esto lo consigue actuando a tres niveles. En primer lugar sobre el carácter, es decir, sobre el propio gen: se favorece aquel estado que, de alguna manera, confiere alguna ventaja para la reproducción. En segundo lugar sobre el individuo considerado como un conjunto de genes: ciertas combinaciones tienen más posibilidades de tener descendencia. En tercer lugar sobre la especie, que puede concebirse como la suma de todos los genes contenidos en todos los individuos que la constituyen: la aparición de nuevos genes por mutación y de nuevos conjuntos por recombinación dan lugar a formas nuevas de las que la selección natural extrae las especies nuevas. A través de una suerte de ciclo, el sustrato de la herencia acaba siendo también el de la evolución.

La genética clásica pertenece al dominio de la biología que tiene por objeto de estudio el organismo entero o las poblaciones de organismos. No persigue disociar el animal o la planta para identificar sus constituyentes y estudiar su funcionamiento. El método de análisis que utiliza se conoce como el «método de la caja negra». El organismo se considera una caja cerrada que contiene una maquinaria muy compleja y en cuyo interior tienen lugar cadenas de reacciones que se entrecruzan y se superponen en todas las direcciones. Cada una de estas cadenas aflora a la superficie de la caja por una de sus extremidades, el carácter. La genética no intenta abrir la caja para desmontar sus engranajes; se contenta con examinar la superficie para deducir el contenido. A través del carácter visible pretende localizar la extremidad invisible de las cadenas de reacciones, revelar la estructura que, en lo más hondo de la caja, dirige la forma y las propiedades. En cuanto a los engranajes intermediarios que van del gen al carácter, la genética los ignora totalmente. Este tipo de análisis conduce en definitiva a una representación extremadamente simple. Simplicidad en la mecánica a la que está sometido el material genético, como lo simboliza el movimiento de los cromosomas, con su división, su separación y su reordenación. Simplicidad también en la estructura misma, puesto que la disposición de los genes se representa por la figura más elemental: la línea recta. El gen propiamente dicho, el elemento de la herencia, aparece como una estructura tridimensional de una complejidad temible e inaccesible a la experimentación. Sin embargo, para describir lo que sostiene las formas, las propiedades y el funcionamiento de un ser vivo en su conjunto, es difícil imaginar otro modelo más simple que el de un segmento de collar de perlas. Todas las variaciones de caracteres y todas las mutaciones corresponden a cambios en la naturaleza o el orden de las perlas. En pocos años, la teoría del gen transformó la representación del mundo vivo. Tanto las propiedades de los animales y las plantas como su variación reposan en última instancia sobre la permanencia de una estructura alojada en la célula y sobre sus prestaciones. No obstante, el método de la caja negra tiene sus límites. Aunque a principios de siglo permitió formalizar la herencia, representarla por un sistema de signos simples y someterla al tratamiento matemático, al desinteresarse por los engranajes deja un vacío entre el gen y el carácter. A base de símbolos y fórmulas, la genética compone una imagen del organismo cada vez más abstracta. El gen, ente de razón, se presenta como una entidad sin cuerpo, sin densidad, sin sustancia. Se hace necesario sustituir esta concepción abstracta por un contenido concreto. La mecánica de la herencia requiere la presencia en los cromosomas de una sustancia dotada de dos raras virtudes: el poder de reproducirse con exactitud y el de influir a través de su actividad en las propiedades del organismo. Encontrar la naturaleza de esta sustancia, explicar el modo de acción de los genes, llenar el vacío entre gen y carácter, fueron los objetivos que se marcaron los genéticos a mediados de siglo. Sin embargo, ni el enfoque ni el material ni los conceptos de la genética se prestan a dicho análisis. Para acceder a los detalles de la estructura que regula la herencia no basta con observar unos cuantos caracteres, seguir las recombinaciones a través de las generaciones y medir las frecuencias de asociación. Se necesita una cooperación entre la genética y la química.

Las enzimas

En oposición a la genética, la química de los seres vivos pertenece a la rama de la biología que intenta reducir el organismo a sus constituyentes elementales. Durante la segunda mitad del siglo xix, la química orgánica delimitó su dominio. Ahora tiene que definir su posición en relación a la química mineral y precisar la naturaleza de los compuestos que estudia, así como el mecanismo de las reacciones propias de los seres vivos. Hasta entonces, los químicos orgánicos se esforzaban sobre todo por identificar la enorme variedad de compuestos que aislaban y luego analizaban. Todas estas sustancias se caracterizaban por la presencia de carbono. No obstante, todos esos compuestos podían clasificarse de acuerdo con un abanico de criterios: según su tamaño, había moléculas enormes y otras eran muy pequeñas; según su naturaleza, se distinguían los azúcares, las grasas y las sustancias albuminosas; según su papel, se distinguía entre sustancias plásticas y metabólicas; según su función, se distinguían alcoholes, aldehídos, éteres, etc. A la lista, ya larga, se sumaban continuamente sustancias nuevas, como el ácido rico en fósforo aislado por Miescher en la misma época en que Mendel experimentaba sobre la hibridación de los guisantes; su localización en el núcleo celular le valió el nombre de ácido nucleico, pero no se le encontró ninguna función. El análisis se limitaba casi siempre a extraer los compuestos a partir de productos naturales, a aislarlos, a modificar su ordenación para poner en evidencia lo más sutilmente posible los enlaces entre los elementos. Los químicos eran capaces de descomponer las sustancias orgánicas, pero no sabían cómo reconstituirlas. De hecho, se negaban a sí mismos toda posibilidad de síntesis. Las transformaciones que acompañaban el flujo de materia a través de un ser desafiaban las leyes de la química mineral. Para desplazar con tanta precisión los átomos o los radicales, para guiar tan certeramente cada elemento hacia su posición en la molécula, para producir tan fielmente compuestos específicos, se necesitaba algo distinto de las fuerzas que se manejaban en el laboratorio: se necesitaba una fuerza vital. Situada en el límite entre lo viviente y lo inanimado, la química orgánica erigía aquí una barrera que parecía infranqueable.

Sin embargo, poco a poco el enfoque de la bioquímica va cambiando, y la necesidad de recurrir a una fuerza que escapa a las leyes de la física, se va desvaneciendo. Los obstáculos erigidos entre la química orgánica y la química mineral se desmoronan uno tras otro. En primer lugar, los conceptos de energía y de equivalencia asumen el papel que hasta entonces había interpretado la fuerza vital. Hay energía en la estructura misma de un compuesto químico, es decir, en las fuerzas que enlazan los átomos de una molécula. Al romperse estos enlaces y reorganizarse nuevamente los átomos en una estructura nueva con enlaces más débiles, el exceso de energía aparece en forma de calor, luz, electricidad o movimiento. Se puede calcular la energía contenida en un compuesto y medir la cantidad de calor liberada por una reacción. Cuando se quema carbón, por ejemplo, se rompen los lazos que unían los átomos de carbono por un lado y los de oxígeno por otro, de manera que ambas clases de átomos pueden entonces ligarse entre sí. Sin embargo, la energía contenida en los enlaces del gas carbónico así formado es menor que la contenida en los enlaces que unen los átomos de carbono en el carbón. Cuando un organismo consume glucosa, sólo una fracción de ésta se transforma en compuestos orgánicos específicos. El resto se quema, es decir, se combina con el oxígeno liberando, además de gas carbónico y agua, energía. Ésta puede perderse en forma de calor o bien reutilizarse en otras reacciones químicas. En los seres vivos, las transformaciones químicas se realizan a través de reacciones acopladas que permiten una transferencia de energía. Junto al flujo de materia que atraviesa el organismo circula también un flujo de energía. Ya no es necesario, sentencia Helmholtz, recurrir a ninguna fuerza vital: «Existen quizás en el cuerpo vivo otros agentes además de los que actúan en el mundo inorgánico; pero estas fuerzas, en tanto que ejercen una influencia química y mecánica en el cuerpo, deben tener el mismo carácter que las fuerzas inorgánicas … ; no puede haber ninguna elección arbitraria en la dirección de sus acciones». A partir de la termodinámica se constituye una físico-química que calcula la energía utilizable de los compuestos, determina la velocidad de las reacciones y mide sus equilibrios. Poco a poco, las reglas de la química mineral se hacen extensivas a los compuestos orgánicos. Para toda una serie de fenómenos biológicos se verifica el juego del equilibrio químico y de la «acción de masas». Las leyes de la dinámica química son las mismas para todos los cuerpos, tanto en los seres vivos como en el laboratorio.

El segundo tema que contribuye a la unificación de la química orgánica y la química mineral es la síntesis de compuestos orgánicos a partir del carbono. Hay varias maneras posibles de producir un compuesto en el laboratorio. Se puede hacer manipulando otras sustancias, dividiendo un compuesto más complejo o añadiendo fragmentos a un cuerpo más simple. También se puede construir toda la arquitectura de la molécula a partir de sus elementos. Para el químico, sólo se puede hablar de «síntesis completa» en este último caso. Sin embargo, hasta entonces la posibilidad de aplicarla a los constituyentes de los seres vivos parecía quedar excluida. En los compuestos orgánicos se encontraban elementos en cantidad tan limitada, pero en proporciones tan rigurosas y en combinaciones tan variadas que estas sustancias parecían fuera del alcance de una síntesis en el laboratorio. Todos los esfuerzos para reproducir los juegos de la naturaleza con el arte del químico habían fracasado. Es cierto que Wöhler había logrado producir urea y ácido oxálico, y Kolbe los ácidos salicílico y acético; pero, por un lado, se trataba de reacciones excepcionales y no de un método sintético de aplicación general, y, por otro lado, en todos los casos se partía de un compuesto que ya era un derivado del carbono. Incapaz de combinar el carbono con el hidrógeno, la química consideraba infranqueable el obstáculo entre lo orgánico y lo mineral. Sólo la fuerza vital era capaz de oponerse a la corriente de las fuerzas que actuaban sobre la materia. Según Liebig, el químico orgánico no tenía ninguna obligación de verificar por la síntesis los resultados del análisis.

En la segunda mitad del siglo, la cuestión de las síntesis orgánicas se plantea en términos diferentes. Para Berthelot, se hace necesario «formar los compuestos orgánicos a partir de elementos, sobre todo aquellos que poseen funciones particulares distintas de las propias de los compuestos conocidos en química mineral». Ya no se trata de obtener algunos compuestos por procedimientos excepcionales. Lo que interesa es poner a punto un método que permita producir los compuestos orgánicos más diversos, recorrer la serie entera. Esto es posible porque la química orgánica se fundamenta en las propiedades del carbono. «Los compuestos orgánicos», dice Berthelot, «pueden clasificarse según ocho funciones o tipos fundamentales que comprenden todos los compuestos conocidos hasta la fecha y todos los que podemos esperar obtener.» Estas ocho funciones pueden agruparse a su vez según el número de elementos asociados al carbono. Existe así una primera clase formada por los compuestos de dos elementos solamente, los carburos de hidrógeno; una segunda clase de cuerpos con tres elementos —carbono, hidrógeno y oxígeno— que agrupa cuatro funciones: alcoholes, aldehídos, ácidos y éteres; una tercera clase de compuestos nitrogenados que incluye dos funciones: álcalis y amidas; la última clase incluye la función de los «radicales metálicos compuestos», que contienen metales fijados sobre ciertos éteres. El orden de complejidad impone el de la síntesis, puesto que la dificultad principal reside en la primera etapa, cuando se obliga al carbono a establecer nuevas uniones con otros elementos, en particular con el hidrógeno. Una vez formados los carburos de hidrógeno, todas las demás funciones pueden derivarse de ellos. Sin embargo, la asociación del carbón con otros elementos no constituye una operación puramente empírica. Tiene un fundamento teórico que se basa en el concepto de valencia. Según Kékulé, lo que distingue al carbono y le otorga una posición única el el mundo viviente es su «tetravalencia». Cada átomo de carbono tiene capacidad de formar cuatro uniones con otros átomos, uniones que serán «saturadas» o «no saturadas» por otros elementos. Una serie de seis átomos de carbono unidos dos a dos puede formar una cadena que se cierra sobre sí misma en un «ciclo» o «núcleo aromático». La tetravalencia del carbono hace posible precisar la posición respectiva de los átomos en un compuesto, caracterizar los enlaces entre ellos, definir los isómeros según su distribución espacial; en suma, representar cualquier molécula orgánica mediante un sistema de símbolos y predecir sus propiedades químicas. A partir de ahí pueden deducirse las leyes generales que rigen la hidrogenación del carbono y las proporciones de los elementos necesarios para obtener un compuesto dado. Por efecto de una descarga eléctrica o del calor, el carbono se une directamente al hidrógeno para producir los hidrocarburos más simples como el acetileno o el etileno. A través de una serie de sustituciones se puede llegar a sintetizar paso a paso el conjunto de los carburos de hidrógeno. Estos métodos, dice Berthelot, «son generales y permiten formar todos los carburos a partir de sus elementos; se establece así la unión definitiva entre la química orgánica y la química mineral, ambas procedentes de los mismos principios de mecánica molecular». Los hidrocarburos representan los esqueletos carbonados que pueden incorporar, por simple fijación de hidrógeno y agua, las demás funciones, bien directamente transformando un carburo en alcohol, aldehído, ácido, etc., bien indirectamente formando primero un alcohol que enseguida se transforma en aldehído, ácido, etc. De este modo, a partir de los elementos, bajo la sola influencia de las «afinidades químicas» y de fuerzas físicas como la electricidad o el calor, y por métodos de laboratorio, se llega a producir una gran cantidad de compuestos orgánicos naturales. Esta síntesis, que remeda los mecanismos que rigen en vegetales y animales, lleva a Berthelot a afirmar que «en contra de las antiguas opiniones, los efectos químicos de la vida resultan del juego de las fuerzas químicas ordinarias, del mismo modo que los efectos físicos y mecánicos de la vida se derivan de fuerzas puramente físicas y mecánicas. En ambos casos las fuerzas moleculares puestas en juego son las mismas, puesto que tienen como resultado los mismos efectoS». Pero los químicos no se contentan con imitar la naturaleza y reproducir sus compuestos. También pueden crear cuerpos inéditos, sustancias inexistentes pero parecidas a los productos naturales y que participan de sus propiedades. Se materializan así, de alguna manera, las leyes abstractas que persigue la química. Ya no se trata sólo de imaginar las transformaciones que hubieran podido producirse alguna vez en la química de los seres. Podemos pretender, dice Berthelot, «concebir los tipos generales de todas las sustancias posibles y realizarlas…. formar de nuevo todas las materias que se han desarrollado desde el origen de las cosas, en las mismas condiciones, en virtud de las mismas leyes, según las mismas fuerzas de la naturaleza que posibilitaron su formación». Ya no hay límite teórico alguno para la química orgánica.

Finalmente, y como consecuencia de un giro sorprendente que lleva a la química a inmiscuirse en un campo antes reservado a los naturalistas, desaparecerá toda distinción entre reacciones en vivo y reacciones en el laboratorio. En efecto, son los métodos de la química los que revelan el papel de los microorganismos en este mundo, además de borrar las últimas trazas de la generación espontánea. Hasta ese momento las sustancias orgánicas se caracterizaban por su composición y sus funciones químicas. Hacia el fin del siglo aumenta la importancia de la estructura molecular y de la posición relativa de los átomos, ya que ciertos cuerpos, llamados isómeros, aun teniendo idéntica composición se diferencian en sus propiedades. La especie química, dice Pasteur, «es la colección de todos los individuos idénticos en cuanto a naturaleza, proporción y ordenación de sus elementos; todas las propiedades de los cuerpos son una función de estos tres términos». Ciertas características ópticas de los cuerpos se pueden ligar a su «disimetría molecular», con lo que el análisis cuenta con una nueva arma. Pero entonces surge la imposibilidad de reproducir en el laboratorio la disimetría que se observa en los productos naturales. Todos los productos artificiales, dice Pasteur, «tienen imágenes superponibles; por el contrario, la mayoría de productos orgánicos naturales…. los que tienen un papel esencial en los fenómenos de la vida vegetal y animal, son disimétricos». Así pues, los compuestos propios de los organismos poseen una cualidad que los distingue de esos mismos compuestos cuando son producidos en el laboratorio. En todos los seres vivos existe, por lo tanto, una fuerza de origen desconocido que introduce una disimetría en las actividades químicas y que no se puede imitar en el laboratorio. A través de esta disimetría la química se introducirá en el mundo de los seres microscópicos, por mediación de las fermentaciones. Toda fermentación pone en juego dos factores, uno pasivo y otro activo. El primero es la sustancia fermentable (azúcar, por ejemplo) que sufre una transformación bajo la influencia del segundo, el fermento, factor nitrogenado de naturaleza «albuminoide». Para Liebig, el poder fermentador era la propiedad de ciertas sustancias orgánicas en estado de «metamorfosis» y capaces de transmitir este carácter a las sustancias vecinas. Para Berzelius, en cambio, era una propiedad «catalítica» que confería a una sustancia la capacidad de transformar otra sin intervenir ella misma en la transformación. En todos los casos, el papel de fermento correspondía a una sustancia albuminosa a la que alguna fuerza misteriosa confería la capacidad de actuar por contacto sobre los cuerpos fermentables. En todos los casos, el poder fermentador era un carácter no del ser vivo en su totalidad, sino de algunos de sus constituyentes. La interpretación de estos fenómenos cambia completamente a partir de Pasteur. Si los seres vivos introducen en las reacciones químicas una disimetría molecular, ésta, como contrapartida, señala la presencia de un ser vivo. Aquí se invierte el proceder usual de la ciencia. Lo habitual es que la ciencia proceda del conocimiento teórico a las cuestiones prácticas, pero en este caso sigue el camino opuesto. Las industrias productoras de cerveza, vino y licores proporcionan a Pasteur la oportunidad de asociar íntimamente la práctica biológica a la química. Las desviaciones de las fermentaciones, las «enfermedades» de la cerveza o el vino, provocan la formación de compuestos disimétricos, lo que indica la presencia de seres vivos. Para Pasteur, lo anormal, lo patológico, no proporciona un modelo que sirva para reproducir la fisiología, sino que constituye un punto de partida para la experimentación. Señala un fenómeno que el análisis transforma en proceso fisiológico. Las anomalías de una fermentación se convierten simplemente en otras formas de fermentación. Ya sea alcohólica, amílica, «viscosa», acética, láctica, butírica, etc., cualquier fermentación conlleva la multiplicación de seres microscópicos. «Los verdaderos fermentos», dice Pasteur, «son seres organizados.» Además, a cada tipo de fermentación corresponde un tipo particular de organismo que se puede aislar, cultivar y estudiar. Para un sustrato dado, la especificidad del organismo determina la de las reacciones químicas y, en consecuencia, la de la fermentación. Esto no significa que una misma sustancia no pueda fermentar por la acción de organismos diferentes, ni que un mismo organismo no pueda fermentar varias sustancias. De hecho, en una fermentación se produce todo un espectro de compuestos; y es el conjunto del espectro lo que caracteriza al organismo. «Cada fermentación», dice Pasteur, «tiene una ecuación que se le puede asignar de manera general, pero que, en el detalle, está sometida a las mil variaciones que comportan los fenómenos de la vida.» Tanto la fermentación por microorganismos, como la nutrición de los animales reflejan las actividades químicas, el metabolismo, del ser vivo.

Puede verse cuánto difiere esta postura de las precedentes. No sólo modifica la naturaleza de las relaciones entre biología y química, sino también la representación del mundo vivo en general, las relaciones que se tejen entre los seres y el reparto de papeles en las actividades químicas que se desarrollan en este planeta. De pronto, el mundo invisible revelado por la invención del microscopio, inexplorado y casi ignorado desde finales del siglo XVII, tiene ya un sitio, un significado y una función atribuibles. El enfoque de Pasteur se basa en dos factores distintos que desarrolla en paralelo. Por un lado está la especificidad del microorganismo que impone la naturaleza de las reacciones de fermentación, del mismo modo que la causa engendra el efecto. El concepto de especificidad se extiende entonces a un campo imprevisto, el de la patología: toda una serie de enfermedades en el hombre y los animales se convierten en la consecuencia de la invasión del organismo por un «germen» particular. Tal es la confianza en la validez de este principio que se aplica incluso a casos en los que no es posible ver ni cultivar en un tubo de ensayo los agentes causales (que luego se conocerán como virus). No hace falta señalar la importancia que ha tenido desde entonces el concepto de infección por bacterias y de virus en la medicina, humana o veterinaria, y en la agricultura.Por otro lado está la correlación que se establece entre los efectos químicos ejercidos sobre sustancias externas u organismos y el carácter viviente del factor en juego. Podemos entonces dar la vuelta al problema de las fermentaciones y formular la cuestión en otros términos: «Una de las dos cosas es cierta: si sólo el oxígeno, en 

tanto que oxígeno, por su contacto con las materias nitrogenadas, da nacimiento a los fermentos responsables de las fermentaciones propiamente dichas, entonces estos fermentos son generaciones espontáneas; si estos fermentos no son seres espontáneos, entonces este gas no interviene en su formación en tanto que oxígeno, sino como estimulante de un germen que se introduce junto con el oxígeno en las sustancias nitrogenadas o fermentables o que ya estaba presente en ellas». Repitiendo las antiguas experiencias de Spallanzani, perfeccionándolas y ejecutándolas con el rigor del químico, Pasteur excluye definitivamente toda posibilidad de generación espontánea: incluso en el mundo microscópico el ser vivo sólo nace del ser vivo. Si hay bacilos, éstos sólo pueden provenir de al menos un bacilo idéntico.

Sin embargo, aunque se haya exorcizado el demonio de la generación espontánea, queda el del vitalismo, que adquiere un vigor renovado. El final del siglo xix se encuentra frente a una paradoja: por un lado, tanto el análisis de las reacciones y de su equilibrio como las operaciones de síntesis niegan toda singularidad a la química de los seres vivos; por otro lado, la cristalografía otorga una cualidad particular a los constituyentes de lo viviente y la microbiología considera el poder fermentador una propiedad exclusiva de los seres organizados. Este hecho genera polémicas interminables y cargadas de pasión. Por otra parte, se conocía desde hace tiempo la existencia de «diastasas» solubles capaces de provocar, en un tubo de ensayo y en ausencia de cualquier organismo, la degradación de ciertos azúcares o ciertos compuestos albuminosos. Es preciso, por lo tanto, distinguir entre dos clases de fermentos, según estén o no «organizados». Pero al comenzar el siglo xx los químicos están ya en disposición de resolver este problema. Se trituran las células, se obtienen extractos y se investigan los fermentos que contienen. Machacando con arena una masa de levadura seca, Büchner constató, que el «jugo de levadura» extraído de cualquier célula viva por filtración puede aún provocar la fermentación de la glucosa en alcohol. Para Büchner, «esto demuestra que los procesos de fermentación no exigen el complicado equipamiento que supone la célula de levadura. Es verosímil que el agente del jugo activo en la fermentación sea una sustancia soluble y, sin duda, albuminosa».

Todos los fermentos conocidos se comportan, por lo tanto, del mismo modo. Todos son sustancias y no seres vivos. Todos pueden actuar fuera del organismo. A partir de aquí se revelan las actividades catalíticas más variadas: los químicos hallan diastasas que atacan específicamente las grasas, otras sólo ciertos azúcares, y otras sólo las sustancias albuminosas. Con el desarrollo de la físico-química, sin embargo, la catálisis pierde mucho de su misterio. Se miden los parámetros de una reacción química, su velocidad, su equilibrio y su reversibilidad. El efecto catalítico sólo influye en uno de esos parámetros: la velocidad. La catálisis, como la temperatura, incrementa la velocidad de reacción. Ostwald define los procesos catalíticos como «aquellos procesos en los que la velocidad de la reacción cambia, debido a la presencia de cuerpos que se encuentran al final de la reacción en el mismo estado que al principio; estos cuerpos modifican solamente la velocidad de la reacción, pero no intervienen en su fórmula». Los efectos catalíticos no se restringen a la química de lo viviente. Se conocen cuerpos minerales (metales pesados como, por ejemplo, la viruta de platino) que catalizan toda una serie de reacciones en el laboratorio. La diferencia principal entre estos catalizadores minerales y las diastasas es la especificidad de estas últimas, cada una de las cuales cataliza una reacción concreta. Desaparece así el obstáculo que, desde Lavoisier, limitaba el análisis de las reacciones en los seres vivos, y se hace posible someter los procesos del organismo a las leyes de la dinámica química.

La experiencia de Büchner de la fermentación de la glucosa en etanol por un extracto sin células inaugura una nueva química. La importancia del trabajo de Büchner no reside sólo en la nueva luz que aporta a la química de lo viviente sino, sobre todo, en la vía que abre al análisis químico. Cuando se trabaja con tejidos o células enteras resulta muy difícil, a veces imposible, hacer penetrar ciertos compuestos a través de la membrana celular. Con los extractos, en cambio, resulta relativamente fácil intervenir en una reacción: se pueden añadir compuestos susceptibles de influir en la reacción, eliminar otros e investigar inhibidores. No es exagerado decir que, desde entonces, el análisis de extractos celulares se ha convertido en el método principal de los químicos que estudian los seres vivos. De esta forma se individualiza, a principios de siglo, una rama nueva de la química: la química biológica. La química orgánica continúa interesándose por el conjunto de los derivados del carbono, estudiando sus propiedades y produciendo nuevos cuerpos por síntesis. La química biológica, por el contrario, se centra en el análisis de los constituyentes de los seres vivos y sus transformaciones en relación con el funcionamiento del organismo. Situada en el corazón mismo de la biología, la química biológica se relaciona con las otras disciplinas que analizan los diferentes aspectos de los seres. Sin embargo, se distingue de ellas por sus métodos, sus objetivos y su concepción del organismo. Para la química biológica, cuando se destruye la organización de un ser desaparece la vida, pero no en todas sus manifestaciones. La disociación del organismo interrumpe fenómenos como la reproducción o el crecimiento, pero otros, como la fermentación, prosiguen. El papel de la química biológica consiste, dice Loeb, en «distinguir las funciones que dependen de la constitución química de aquellas que suponen además una estructura física particular de la sustancia viva».

En los inicios de la química biológica pueden discernirse dos corrientes. La primera intenta precisar la naturaleza del contenido celular en su conjunto y analizar el «protoplasma» en términos físico-químicos. En esta época, el límite estructural viene dado por el poder resolutivo del microscopio óptico. En la célula se perciben estructuras tales como el núcleo, la membrana, las mitocondrias, etc. El «protoplasma» no tiene una auténtica estructura. Es una especie de emulsión, una suspensión de gránulos o «micelas» en un líquido, un coloide. Así lo afirma Loeb: «Las sustancias que componen la materia viva, ya sean líquidos o sólidos, son coloides».

Los coloides, en oposición a los cristaloides, no son patrimonio de lo viviente, pues se pueden preparar en el laboratorio; una suspensión de partículas de oro o platino en agua, por ejemplo, es un coloide. Este tipo de suspensión posee cualidades especiales —estabilidad, superficie activa, cargas eléctricas — que favorecen las reacciones químicas y contribuyen a la catálisis. Los cuerpos albuminosos y las grasas extraídos de organismos diversos producen fácilmente soluciones coloidales. A fin de cuentas, por encima de la variedad de estructuras visibles en los seres vivos, a simple vista o al microscopio, la naturaleza coloidal del protoplasma es la que da a las células su carácter propio. «La vida», dice Loeb, «está ligada a la persistencia de ciertas soluciones coloidales. Los agentes que hacen pasar todos los coloides al estado de gel acaban también con la vida.» Es lo que ocurre cuando se coagulan las albúminas por la acción del calor o de ciertos metales. Si se pudieran destruir las estructuras visibles respetando la naturaleza coloidal del protoplasma, debería ser posible analizarlo. Sin embargo, los medios de estudio a principios de siglo son todavía insuficientes. Sólo el desarrollo de los métodos físicos, en particular la ultracentrifugación, permitirá interpretar el contenido de la célula no ya en términos de coloides, sino de moléculas.

La segunda corriente de la bioquímica se centra en el análisis de los constituyentes y las reacciones celulares, siguiendo la vía abierta por Büchner. Se trata, en primer lugar, de precisar las diferentes etapas de la degradación de la glucosa por la levadura. Pero muy pronto el estudio se amplía a otras reacciones, y este tipo de análisis bioquímico experimenta un desarrollo considerable a principios de siglo. Una vez identificado un fenómeno, la bioquímica se esfuerza por precisar las reacciones, aislar los constituyentes en juego y purificarlos para analizar su naturaleza y funcionamiento, con vistas a reconstruir el conjunto que ha destruido, reunir los cuerpos que ha separado, para formar un «sistema» del que se puedan estudiar las propiedades, medir los parámetros y precisar las exigencias. La reacción puede representarse entonces con los símbolos de la química. Al reducir los seres vivos a sus constituyentes y estudiar los compuestos aislados, sus características y sus interacciones, la bioquímica se opone a la mayoría de las disciplinas biológicas. Éstas la acusan de estudiar objetos que ya nada tienen que ver con los seres vivos, de crear artefactos y de querer explicar el funcionamiento del todo sólo por el de las partes; en fin, de sacar conclusiones falsas de su análisis. Mal pertrechada para resistir este tipo de críticas, la química biológica se esfuerza no obstante por evitarlas, para lo cual, en cada etapa de su análisis, compara los fenómenos estudiados en el tubo de ensayo con lo que ocurre en el organismo.

Los bioquímicos preparan sus extractos a partir de tejidos animales o cultivos de microorganismos. Ciertos materiales, como el hígado de rata, el músculo de palomo o la suspensión de levaduras, constituyen un material privilegiado por su facilidad de obtención y de manejo. Lo que se busca en los extractos es identificar moléculas y desencadenar reacciones. De acuerdo con su naturaleza, las sustancias que componen los tejidos vivientes pueden clasificarse en tres categorías: azúcares o sacáridos, grasas o lípidos, y albuminoides o proteínas. Dentro de cada clase hay moléculas grandes y pequeñas. Inestables y difíciles de aislar y caracterizar, las moléculas grandes, en particular las proteínas, no son todavía verdaderos objetos de análisis. Ni los medios ni los conceptos disponibles permiten tratarlas de la manera apropiada. Las moléculas pequeñas sí se prestan a los métodos de la química orgánica. Se pueden purificar y analizar, estudiar sus propiedades y seguir su transformación a través del metabolismo. Muchas veces se llega incluso a sintetizarlas. El número y la variedad de estas moléculas aumentan constantemente, al igual que el de las reacciones por las cuales se transforman en el organismo. En el laboratorio y a la temperatura del cuerpo, estas reacciones proceden con una lentitud extrema. No obstante, para cada reacción se encuentra una actividad catalítica particular, una diastasa, una «enzima» como se la llamará después, que aumenta varios millares de veces la velocidad de reacción. Se analizan las cinéticas y se describen sus características. Poco a poco, para cada una de las reacciones que se identifican se descubre la actividad enzimática correspondiente. Cada enzima se designa por el nombre de su sustrato añadiéndole el sufijo asa. Hay enzimas para la degradación de todas las clases de compuestos, sucrasas, lipasas, proteasas. En una clase como la de las sucrasas, existen enzimas particulares para cada tipo de azúcar: una amilasa, una lactasa y una sacarasa. También existen enzimas como la maltasa, capaces no sólo de degradar un azúcar sino, en ciertas condiciones, de resintetizarlo a partir de los productos de su degradación. Hay incluso enzimas encargadas de los procesos de respiración. Desde Lavoisier se sabía que la respiración es una combustión, aunque de un tipo particular, ya que se efectúa lentamente y a baja temperatura, pero a principios del siglo xx la respiración se convierte en el resultado de actividades enzimáticas especializadas que catalizan la oxidación lenta de los alimentos en pasos sucesivos. Primero los alimentos se digieren, y luego los productos de la digestión se oxidan por la extracción de átomos de hidrógeno. Oxidaciones y reducciones se acoplan gracias a unas moléculas pequeñas capaces de oxidarse o reducirse alternativamente a gran velocidad. La respiración se transforma entonces en un juego de reacciones de óxido-reducción, cada una catalizada por una enzima. De esta forma se transfieren electrones a lo largo de una cadena que comienza en los metabolitos y acaba en el oxígeno molecular. En las fermentaciones que tienen lugar en ausencia de oxígeno, éste es reemplazado por ciertos compuestos orgánicos. Pero siempre se encuentra una enzima particular para activar la correspondiente reacción. En esto consiste la especificidad de los efectos catalíticos en la química de lo viviente, que puede describirse con el aforismo: una reacción, una enzima. En consecuencia, una vez precisada su acción, las enzimas proporcionan a la química una nueva arma tanto para el análisis como para la síntesis. Con ayuda de las enzimas que él mismo caracteriza, el bioquímico es capaz de manipular a su antojo las moléculas celulares pequeñas, de cortarlas o agrandarlas con precisión, de reducir un átomo aquí o añadir un radical allá. El bioquímico adquiere de este modo una seguridad y un virtuosismo hasta entonces inimaginables.

Pertrechada de materiales y métodos nuevos, la bioquímica elabora toda una serie de conceptos propios. En primer lugar, la identificación de compuestos y reacciones cada vez más numerosos lleva al concepto de «metabolismo intermediario». Por ello se entiende el conjunto de reacciones por las cuales los alimentos se transforman en compuestos específicos. Era evidente desde antiguo que un alimento no contiene todos los cuerpos que constituyen un organismo o una célula. Así pues, era necesario que estos alimentos fueran descompuestos y luego, con los productos resultantes, se ensamblaran los compuestos específicos. Es lo que ilustran todas las observaciones hechas sobre el crecimiento de los microorganismos desde Pasteur: la levadura, por ejemplo, es capaz de multiplicarse en medios perfectamente definidos que contienen sales minerales y un sólo compuesto orgánico, glucosa u otro azúcar, corno fuente de carbono y de energía. Una vez ha penetrado en la célula, es preciso que la glucosa se transforme para dar nacimiento a todos los compuestos indispensables para el crecimiento y la vida de la levadura. Estas transformaciones no se efectúan de golpe, sino que se descomponen en una serie de etapas, cada una de ellas simple y accesible al análisis. Corresponden, por tanto, a cadenas de reacciones que ponen en juego a toda una serie de intermediarios que casi nunca juegan un papel fisiológico particular, sino que representan cada uno de ellos el producto de una reacción y el sustrato de la siguiente. Los alimentos son tratados primeramente por enzimas específicas que los descomponen, los fragmentan y los transforman en moléculas pequeñas. Éstas sirven luego de sustrato a otras enzimas que las remodelan, añaden átomos, sustituyen radicales, las alargan y sueldan; en otras palabras, fabrican los constituyentes propios del organismo. En esta suerte de factoría química, las cadenas de descomposición producen un enjambre de moléculas pequeñas que es transformado en compuestos específicos por las cadenas de síntesis. Muchas veces se encuentran las mismas cadenas metabólicas en organismos diferentes. La degradación de la glucosa, por ejemplo, durante la fermentación de la levadura o durante la contracción de un músculo en ausencia de oxígeno se realiza a través de las mismas reacciones e intermediarios. Se perfila así la unidad de la química del mundo vivo.

Para la bioquímica, los alimentos deben abastecer al organismo no sólo de materiales de construcción, sino también de energía. Cuando una levadura utiliza un azúcar para crecer, en presencia o en ausencia de aire, por respiración o por fermentación, sólo una parte del azúcar consumido pasa a formar parte de la levadura. El resto proporciona la energía necesaria para su trabajo. Para crecer y multiplicarse, y para mantener su orden a contracorriente de la degradación del universo, los organismos deben recibir energía del exterior. La energía consumida por la mayoría de los seres vivos procede, en última instancia, del Sol. Sin embargo, los distintos tipos de organismos se procuran la energía de varias maneras. Algunos, corno las plantas, obtienen directamente su energía de la luz solar por medio de la fotosíntesis; otros, como ciertas bacterias, la obtienen de la oxidación de compuestos minerales, y otros, como la mayoría de animales, la obtienen de la oxidación de compuestos orgánicos. En cualquier caso, y para que esté disponible en el momento oportuno, la energía se almacena en forma química. Para los bioquímicos, la energía se acumula en ciertos compuestos fosforados con enlaces de «alto potencial energético». A través de la formación, la rotura o la transferencia de estos enlaces se acumula, se libera o se intercambia la energía que contienen. Finalmente, un mismo compuesto, común al conjunto del mundo vivo, hace de acumulador de energía en todos los organismos conocidos. Se trate de bacterias o de mamíferos, de respiración o de fermentación, la degradación de un azúcar se efectúa siempre a través de una serie de operaciones parecidas: las mismas etapas y reacciones que desembocan en la producción del mismo compuesto de alto potencial energético. La noción de una unidad de funcionamiento para el conjunto de los seres vivos adquiere cada vez más fuerza.

Ahora se puede analizar más a fondo la nutrición de los organismos, precisar sus exigencias alimentarias y averiguar lo que es indispensable para su crecimiento y su reproducción. Ciertos compuestos, llamados «vitaminas», resultan ser necesarios para la salud y la vida de los mamíferos. Otros, llamados «factores de crecimiento», son necesarios para la multiplicación de ciertos microbios. Al precisar la naturaleza de los compuestos requeridos por organismos tan diferentes corno las bacterias y los mamíferos, fisiólogos y bioquímicos encuentran analogías singulares: los factores necesarios para las bacterias se identifican a menudo con las vitaminas indispensables para los mamíferos. Además, estos compuestos no se encuentran solamente en los organismos que los obtienen de su alimento, sino en todos los seres vivos. Ciertos organismos son capaces de sintetizar por sí solos estos compuestos, mientras que otros no pueden hacerlo. Estos últimos necesitan incorporar los compuestos que no pueden elaborar. De ahí la noción de «metabolitos esenciales» para la vida de los organismos. La unidad del mundo viviente no se perfila sólo en el funcionamiento de los organismos, sino también en su composición.

Así pues, en la primera mitad de este siglo la experimentación ha encontrado una vía de acceso a la química de lo viviente. Las reacciones se estudian por centenares en los tubos de ensayo. Se analiza un número considerable de compuestos relativamente simples. Se trazan las transformaciones por las cuales se constituyen las reservas de energía y se elaboran los materiales de construcción. Cuanto más se precisan estas reacciones, menos se distinguen de la química de laboratorio. La originalidad de la química de los seres vivos reside sobre todo en las enzimas. Gracias a la especificidad de la catálisis enzimática, a su precisión y eficacia, se ha podido tejer la red de todas las operaciones químicas en el espacio minúsculo de la célula. Esta misma selectividad, que permite a cada enzima escoger uno solo de los isómeros ópticos de un mismo compuesto, imprime una disimetría en la química de lo viviente. Se persigue caracterizar las enzimas y determinar su naturaleza y su modo de acción. Poco a poco, los bioquímicos empiezan a asociar las actividades enzimáticas a la presencia de proteínas. Cada propiedad enzimática particular se convierte en atributo de una proteína particular. El secreto de la química de los seres vivos hay que buscarlo en la naturaleza y las cualidades de las proteínas. Sin embargo, los métodos de la bioquímica que convienen al análisis de moléculas relativamente simples no parecen ser aptos para el análisis de estas enormes arquitecturas moleculares. Frágiles e inestables, las proteínas se desnaturalizan fácilmente. Difíciles de manejar, escapan a los medios clásicos de estudio. Descomponiéndolas de varias maneras se observa que están formadas por unidades moleculares simples, los «aminoácidos», enlazados por centenares en cada molécula de proteína. Poco a poco se ponen a punto métodos nuevos para prepararlas, aislarlas y purificarlas. Se llega incluso a cristalizar ciertas proteínas-enzimas, como si fueran sales metálicas. Otro obstáculo que desaparece entre las dos químicas. No obstante, las proteínas continúan siendo excepcionalmente complejas. La bioquímica no encuentra todavía la manera de acceder a la estructura de estas moléculas ni a la disposición de los aminoácidos que determina el poder de fijar específicamente un metabolito con exclusión de cualquier otro y de catalizar su transformación. El análisis de las proteínas exige técnicas y conceptos nuevos. Éstos no estarán disponibles hasta mediados de este siglo, bajo la influencia conjugada de la física, la química de los polímeros y la teoría de la información.

A principios del siglo xx las dos nuevas ciencias, la genética y la bioquímica, imprimen un giro nuevo a la biología. En primer lugar, porque ambas introducen el rigor hasta entonces desconocido de los métodos cuantitativos: no basta ya con constatar la existencia de un fenómeno; en adelante es preciso valorar los parámetros, medir las velocidades de las reacciones o las frecuencias de recombinación, determinar una constante de equilibrio o una tasa de mutación. En segundo lugar, porque ambas desplazan el centro de actividad en los seres vivos. Éstos ya no se escalonan en profundidad por la sola disposición de órganos y funciones; ya no se enroscan alrededor de un centro vital de donde surge la organización. Para la bioquímica, la actividad del organismo se dispersa en el ámbito de cada célula, en los miles de gotitas coloidales donde se efectúan las reacciones químicas y se construyen las arquitecturas. Para la genética, dicha actividad se concentra en el núcleo celular, en el movimiento de los cromosomas, donde se deciden las formas, se determinan las funciones y se perpetúa la especie. Cada ciencia se refiere a su propio modelo. Los químicos hablan de estructuras moleculares y de catálisis enzimática; explican cómo los organismos obtienen energía del medio y remontan de este modo el curso natural de las cosas; ya no hay sólo un flujo de materia que atraviesa el organismo, sino también un flujo de energía. Los genéticos describen la anatomía y la fisiología de una estructura de tercer orden situada en los cromosomas; atribuyen a su fijeza la memoria de la especie, y a sus cambios la aparición de especies nuevas. Las cualidades de los seres vivos descansan finalmente sobre dos entidades nuevas: lo que los bioquímicos llaman proteína y lo que los genéticos denominan gen. La primera es la unidad de actuación química, que ejecuta las reacciones y da a los cuerpos vivos su estructura. La segunda es la unidad de herencia, que rige a la vez la reproducción de una función y su variación. El gen gobierna, la proteína ejecuta.

A mediados de siglo las dos ciencias se encuentran prácticamente en el mismo punto. Cada una de ellas ha logrado descubrir el elemento unitario que está en el centro de su campo de investigación. Cada una de ellas conoce, por lo tanto, el objeto de los análisis venideros. Pero ambas se encuentran desprovistas de los medios necesarios para emprenderlos. De hecho, antes de la última guerra la biología se convirtió en una ciencia compartimentada. Cada especialista se consagra al estudio de sus problemas con su propio material. En el mismo instituto, a veces incluso en la misma planta, cohabitan a menudo dos colegas que se interesan uno por los genes y el otro por las moléculas. Las conclusiones de la genética exigen la presencia en los cromosomas de una sustancia con dotes poco comunes: por un lado, debe determinar las estructuras y funciones de los cuerpos vivientes; por otro, debe producir copias rigurosamente idénticas de sí misma sin excluir la posibilidad de variaciones ocasionales. La química encuentra en los núcleos celulares dos clases de sustancias: las proteínas y el ácido aislado por Miescher en el siglo pasado y que denominó «nucleico». Pero la estructura de este último todavía se conoce mal. Se sabe que está compuesto por cuatro moléculas particulares, dos «bases púricas» y dos «bases pirimidínicas», unidas cada una de ellas a un azúcar y un grupo fosfato en un «nucleótido». Los cuatro compuestos se asocian en la forma de un «tetranucleótido». Así, el ácido nucleico aparece como una especie molecular sin variedad ni fantasía, y por lo tanto sin ninguna aptitud para ejercer papel alguno en la herencia. Este papel se adjudica a las proteínas, aunque sus propiedades se prestan poco al mismo. Por su complejidad, la herencia parece situarse fuera del alcance de la química experimental. «Cuantos más descubrimientos se hacen sobre la herencia», dice J.B.S. Haldane, «más difícil resulta imaginar en términos físicos o químicos una descripción o una explicación capaz de englobar todos los hechos de una coordinación persistente.»

A finales del siglo xix y principios del xx desapareció el viejo vitalismo al que tuvo que recurrir al principio la biología para adquirir su independencia. Ante el desarrollo de la ciencia experimental, de la genética y la bioquímica, ya no se puede, razones místicas aparte, invocar seriamente ningún principio de origen desconocido, un x cuya esencia escapa a las leyes de la física, para explicar los seres vivos y sus propiedades. Sí la física no está en condiciones de explicar el conjunto de los fenómenos vitales, ello no se debe a la existencia de una fuerza reservada al mundo vivo y situada más allá de todo conocimiento, sino a las limitaciones inherentes a la observación y el análisis, y a la complejidad propia de los seres vivos. Así como ciertas características de los átomos no pueden ya reducirse a la mecánica, podría ser que ciertas particularidades de la célula no puedan interpretarse en los términos de la física atómica. Para Niels Bohr, «constatar la importancia de las propiedades de los átomos en las funciones de los seres vivos no basta para explicar los fenómenos biológicos. El problema consiste, pues, en saber si todavía falta algún dato fundamental. Para analizar los fenómenos naturales antes de comprender la vida sobre la base de la experiencia de la física… En este caso la existencia de la vida debería considerarse como un hecho elemental sin explicación posible, como un punto de partida para la biología, del mismo modo que el cuanto de acción, que aparece corno un elemento irracional para la mecánica clásica, constituye con las partículas elementales el fundamento de la física atómica». Lo que podría entonces imponer un límite al conocimiento del mundo vivo no es ya una diferencia de naturaleza entre lo viviente y lo inanimado. Es la insuficiencia de nuestros medios o, dicho de otro modo, de nuestras posibilidades de análisis. A esto hay que añadir en los constituyentes de los seres vivos una complejidad sin comparación posible con la de las moléculas estudiadas por la física y la química clásicas. Podría darse el hecho de que los seres vivos, lejos de escapar a las leyes de la física, pusieran en juego, como dice Schrödinger, «otras leyes de la física, todavía desconocidas, pero que, una vez descubiertas, formarán parte integrante de esta ciencia». Ya no es necesario, por lo tanto, recurrir a una fuerza misteriosa para justificar el origen, las propiedades y el comportamiento de los seres vivos.Se trata de saber si las leyes descubiertas en el análisis de la materia son suficientes o si hay que seguir buscando. Para constituirse en ciencia, la biología tuvo que separarse radicalmente de la física y de la química. A mediados del siglo xx, para llevar a cabo el análisis de la estructura de los seres vivos y de su funcionamiento, necesita asociarse estrechamente con ellas. De esta unión nacerá la biología molecular.



La Agencia de Marketing Way2net nos provee servicios de Marketing Digital, Posicionamiento Web y SEO, Diseño y actualización de nuestra pagina web.