Texto académico

Autores

 

 

 


Módulo 1. ¿Qué es la vida? 


1.1 Introducción 


La educación científica ayuda a los estudiantes a comprender hechos, principios y teorías científicas, y también a apreciar la ciencia como un proceso continuo de investigación crítica basada en la observación. La exploración científica de la pregunta "¿qué es la vida?" es particularmente útil con respecto a este último objetivo, especialmente porque los estudiantes pueden participar fácilmente en el proceso. Al hacerlo, pueden llegar a apreciar cómo los científicos a menudo prosiguen su investigación frente a una profunda incertidumbre sobre la naturaleza de lo que están estudiando. En el camino, también abordan el objetivo anterior de la educación científica porque la exploración filosófica de la naturaleza de la vida se basa en muchos de los hechos, principios y teorías de una amplia gama de ciencias biológicas, incluidos algunos campos nuevos e importantes como la astrobiología[1] y la vida artificial[2], así como nuevas investigaciones sobre los orígenes de la vida[3]. 


Una respuesta a "¿qué es la vida?" es importante porque puede tener implicaciones prácticas para la investigación biológica en curso. La investigación de la vida misma, que incluye la investigación de los orígenes y la extensión de la vida en el universo y las posibilidades de crear vida en un laboratorio, debió comenzar con al menos una comprensión tentativa de lo que es la vida. Porque sin una cierta comprensión de su esencia, los científicos tendrían dificultades para identificar sus objetivos y planificar sus estrategias de investigación. Dada la importancia de una respuesta a esta pregunta, algunos científicos y filósofos han llegado a proponer definiciones específicas de la vida;  para obtener una lista popular. Sin embargo, argumentamos que confiar en las definiciones para guiar la investigación científica es un error, y sugerimos estrategias alternativas que consideramos apropiadas. Empezamos por explorar las dificultades lógicas y filosóficas asociadas con un enfoque definitorio para comprender la naturaleza de la vida. Como explicamos, confiar en una definición puede hacer más daño que bien porque las definiciones de vida determinan plenamente lo que cuenta como un ser vivo antes de que los científicos hayan reunido suficiente información para justificar tal generalización. Examinando las limitaciones científicas de nuestra comprensión actual de la vida, que se basa en un solo ejemplo de vida, posiblemente no representativo, a saber, la vida familiar en la Tierra. Exploramos una variedad de opciones para expandir nuestro conocimiento de los sistemas vivos, idealmente a través del descubrimiento de formas de vida nuevas o extraterrestres. Nuestra exploración de las limitaciones de un enfoque definitorio para comprender la naturaleza de la vida ilustra una característica importante de la ciencia: la ciencia no es dogmática, sino que es un proceso continuo de exploración que siempre está abierto a revisión.


1.2 Conceptos y definiciones: filosofía de la ciencia 


Para comprender por qué las definiciones no proporcionan buenas respuestas científicas a preguntas sobre fenómenos naturales como la vida, primero debemos aclarar algo de terminología. Las definiciones se relacionan principalmente con el lenguaje y los conceptos, es decir, con las palabras y los “significados” asociados con ellos. Dado que es fundamental que mantengamos la distinción entre una palabra como una cadena de símbolos y el significado de esa palabra, encerraremos la palabra en sí entre comillas simples. Por ejemplo, un diccionario puede definir “línea” como ruta lineal y "causa" como aquello que produce un efecto. Sin embargo, las definiciones de diccionario tienen problemas porque, por lo general, son explícita o implícitamente circulares, definiendo palabras en términos de sinónimos ('lineal' en el caso de 'línea') o cognados cercanos (“efecto” en el caso de “causa”). Como consecuencia, no pueden mejorar la comprensión de alguien que aún no comprende el término que se está definiendo. Las mejores definiciones no son circulares y, por lo tanto, son genuinamente informativas. Una ilustración muy utilizada en las clases de lógica para principiantes en la universidad es la definición de "soltero" como un hombre humano soltero. Esta definición no es circular. El concepto de soltero no está incluido en los conceptos de soltero, humano o masculino; uno puede captar cada uno de los últimos conceptos sin entender la palabra (“soltero”) que se define. Además, la definición (supuestamente) determina completamente la pertenencia de la palabra a la clase de cosas a las que se aplica “soltero”; nada que carezca de estas características puede calificar como soltero y todo lo que las tenga es ipso facto un soltero. Definiciones de este tipo son claramente superiores a las definiciones de diccionario. De hecho, representan un ideal al que se debe aspirar al formular definiciones verdaderamente informativas y conceptualmente rigurosas. De ahora en adelante designaremos tales definiciones como "ideales" para distinguirlas de otras formas de definición.


Una forma diferente de definición que es muy popular entre los científicos es la definición operativa. Las definiciones operativas proporcionan un medio para comprobar si un elemento entra dentro del término que se define sin decir qué es ser una cosa del tipo en cuestión. Un buen ejemplo es definir operativamente “ácido” como un líquido que vuelve rojo el papel tornasol, que se sabe que es un indicador confiable de que un líquido determinado es ácido. Pero este es el caso solo porque los científicos ya conocen las características químicas de los ácidos y por qué los ácidos vuelven rojo el papel tornasol. Por lo tanto, las definiciones operativas no proporcionan buenas respuestas a preguntas como “¿qué es un ácido?” o “¿qué es la vida?” Porque presuponen que uno ya conoce la naturaleza intrínseca de los elementos (por ejemplo, ácidos o seres vivos) en cuestión. Esto es especialmente cierto cuando no comprendemos la naturaleza intrínseca de lo que se define, como es el caso de la vida. 


Los científicos están interesados ??principalmente en las definiciones ideales, y construyen tales definiciones utilizando un proceso de análisis conceptual. La mayoría de los conceptos se construyen a partir de otros conceptos y el análisis científico revela estos conceptos constituyentes. Por ejemplo, al analizar el concepto de martillo, se ve que incluye otros conceptos, como el de clavo, balanceo, golpeteo, peso, etc. Todos estos subconceptos, junto con varios otros, son relevantes para una comprensión adecuada de los martillos.  En conjunto, proporcionan una descripción completa de los elementos (martillos reales) incluidos en el concepto de martillo asociado con la palabra “martillo”. El desafío, entonces, es encontrar una combinación de conceptos que determinen completamente (describan) la extensión de "martillo", donde la extensión es la clase de cosas que caen bajo el concepto. En otras palabras, los científicos intentan encontrar un conjunto de descripciones que sean necesarias y suficientes para que algo sea un martillo. Las condiciones necesarias son aquellas que debe tener un artículo para caer bajo el concepto en cuestión. Por ejemplo, una condición necesaria para ser martillo es ser sólido, ya que ninguna cosa líquida o gaseosa puede ser martillo. Las condiciones suficientes son condiciones que aseguran que el artículo realmente entra dentro del concepto en cuestión. Determinar una condición suficiente para la aplicación de un concepto a menudo es un poco más complicado que encontrar las condiciones necesarias, pero aquí hay un intento inicial de martillos. Quizás para ser un martillo, es suficiente que un objeto sea sólido, duradero, tenga al menos una superficie ancha y una superficie agarrable, y sea lo suficientemente liviano como para empuñarlo pero lo suficientemente pesado como para clavar clavos. Si esta es la definición correcta de martillo, entonces hemos determinado las condiciones individualmente necesarias y conjuntamente suficientes para ser un martillo. Cada martillo tiene (al menos) estas características, y todo lo que tiene estas características es un martillo.


En su mayor parte, el análisis conceptual es un proceso a priori. Por lo general (pero no siempre) se puede hacer simplemente pensando detenidamente en los conceptos que ya poseemos, como en los ejemplos del martillo y el soltero. Entonces, si encontramos las condiciones necesarias y suficientes para la aplicación del concepto, nuestro análisis determina completamente el uso apropiado de ese concepto. Los científicos, por otro lado, por lo general (pero no siempre) se basan más en el conocimiento a posteriori, que es un conocimiento que solo podemos poseer después de explorar la naturaleza. Por ejemplo, la comprensión científica de la naturaleza del agua (es decir, que es H2O) requirió una gran cantidad de investigación empírica; no se descubrió simplemente pensando detenidamente en el concepto humano preteórico (anterior a la teoría molecular) del agua. 


La distinción que acabamos de esbozar entre adquirir una comprensión de una categoría de cosas por medio de análisis conceptuales y adquirirla por medio de una investigación científica se explica mejor en términos de una famosa distinción filosófica entre clases naturales y clases artificiales. Los científicos generalmente estudian los tipos naturales, donde un tipo natural es una categoría de cosas (objetos o procesos) que existe por sí misma, independientemente de cualquier concepción humana de ella. Por ejemplo, se cree que las estrellas constituyen un tipo natural porque incluso si los humanos nunca hubieran existido, todavía habría estrellas y sus propiedades no se verían afectadas por la ausencia de humanos. Los martillos, por el contrario, no constituyen un tipo natural porque fueron diseñados y construidos por humanos para fines humanos. Sin nosotros, y sin nuestra ocasional necesidad de clavar clavos, no existirían los martillos. Al estudiar tipos artificiales como los martillos, solo necesitamos consultar nuestros conceptos a priori porque estamos analizando algo cuyas características dependen exclusivamente de las necesidades y propósitos humanos. Las características de las clases naturales, por el contrario, no las establecen los humanos, por lo que los científicos se basan en información a posteriori. Y dado que los científicos siempre están descubriendo nuevas características de los tipos naturales que estudian, nuestra comprensión a posteriori siempre está sujeta a revisión. De hecho, un científico puede incluso descubrir que lo que ella consideró un tipo natural no lo es después de todo, o que lo que pensó que eran tipos naturales distintos son de hecho un tipo natural único. Una buena ilustración de la primera expresión es la piedra preciosa de jade, que una vez se pensó que formaba parte de un único tipo natural y más tarde se descubrió que consistía en minerales que tienen dos composiciones moleculares diferentes. Sobre la base de sus estructuras moleculares, los geólogos diferencian entre “jadeíta” y “nefrita”, pero los joyeros continúan llamando a ambos minerales “jade” porque comparten las propiedades ornamentales que les interesan. En resumen, los científicos descubrieron que el jade de joyería es en realidad dos tipos naturales distintos (para una discusión sobre los tipos naturales). Los datos empíricos por sí solos no nos dicen cómo es el mundo. Si bien las observaciones cuidadosas en el laboratorio o en el campo pueden mostrar que nuestras ideas preconcebidas son problemáticas, sí lo hacen no muestran necesariamente cómo debería cambiarse nuestra comprensión de una clase de fenómenos naturales. Como consecuencia, los científicos tienen con frecuencia lo que son, en esencia, debates sobre la interpretación adecuada de sus datos y lo que les dice sobre los fenómenos que están estudiando. En un esfuerzo por zanjar tales debates, los científicos a veces proponen definiciones. Para comprender la delicada interacción entre las consideraciones empíricas y conceptuales en la investigación científica y por qué los enfoques definitorios son tan problemáticos, los estudiantes deben comprender cómo se lleva a cabo una investigación a priori de conceptos. La ciencia a menudo se presenta como abstracta y distante, pero los estudiantes pueden participar fácilmente en el análisis, siempre que tengan alguna experiencia con el concepto que se analiza. Considere nuevamente el ejemplo de soltero mencionado anteriormente. Claramente, se trata de un tipo artificial y depende de las preocupaciones humanas. Por lo tanto, siempre que los estudiantes tengan la edad suficiente para comprender la estructura social general del matrimonio, deberían poder participar en una investigación a priori de las características clave de todos los solteros. Por ejemplo, los estudiantes a menudo proponen por sí mismos, después de un pequeño debate, que los solteros son hombres libres. Esta es una buena primera aproximación, ya que ser soltero y ser hombre parecen ser condiciones necesarias para ser soltero, pero una consideración más cuidadosa del concepto revela que se necesita algún refinamiento para proporcionar el conjunto completo de condiciones que son individualmente necesarias y necesarias en conjunto suficiente para ser soltero. La forma más común de refinar un análisis conceptual es considerar qué son los individuos en la extensión del concepto. Como se mencionó anteriormente, la extensión de un concepto incluye todas y solo las cosas que se describen adecuadamente por el concepto, por lo que nuestro análisis de “licenciatura” debe abarcar a todos los licenciados, pero no a los no licenciados. En consecuencia, si los estudiantes sugieren que los solteros son hombres solteros, se les puede pedir que consideren, por ejemplo, si deben incluir a todos los hombres de cualquier especie. De lo contrario, la extensión de su análisis original es demasiado amplia (incluye demasiados individuos) y debe reducirse para incluir solo a los humanos. Anteriormente, dijimos que ser un hombre humano adulto, soltero, determina completamente lo que es ser soltero. Sin embargo, esto no es del todo cierto, porque incluso después de restringir el relato a varones humanos solteros, los estudiantes pueden ser desafiados nuevamente preguntándoles si los varones humanos recién nacidos son solteros. De lo contrario, también se debe incluir una restricción de edad como condición necesaria en el análisis. Pero incluso cuando se restringe a hombres humanos adultos, solteros, el análisis puede ser nuevamente probado por otros casos desafiantes, como viudos, divorciados, hombres solteros en relaciones a largo plazo, hombres que han hecho un voto en contra del matrimonio (como varios líderes religiosos), y otros. Cada nuevo caso desafiante genera un debate adicional sobre las condiciones adicionales necesarias para excluir casos no deseados. Por supuesto, tampoco queremos que nuestro análisis de “soltero” sea tan estrecho que excluya de manera inapropiada a las personas de la extensión que se supone que están allí. Por ejemplo, a veces los estudiantes sugieren que una condición necesaria de los solteros es que sean desordenados. Si bien esto puede ser una característica del estereotipo de soltero, en realidad no es compartido por todos los solteros reales, por lo que la inclusión de “desorden” en el análisis excluye de manera inapropiada a los solteros ordenados. En resumen, el propósito del análisis conceptual es llegar a una descripción que sea, en las palabras frecuentemente citadas de Ricitos de Oro, “justo”, ni demasiado estrecha ni demasiado amplia, y por lo tanto se ajuste a todos y solo a los solteros.


Involucrarse en este proceso puede mostrar a los estudiantes que la investigación crítica a menudo revela que nuestras primeras impresiones a veces no son capaces de captar ni siquiera conceptos relativamente simples como los de licenciatura. Cuando pasamos de la investigación filosófica de tipo artificial a las investigación científica de tipo natural, las limitaciones de nuestras primeras impresiones se vuelven aún más evidentes. Por lo tanto, la práctica de la ciencia (como la práctica de la filosofía) requiere la voluntad de actualizar y refinar la comprensión de uno, incluso cuando esto trastorne creencias arraigadas. La adherencia a una definición rígida del tema de una persona puede socavar esa voluntad y, como resultado, frustrar el avance científico. Un ejemplo científico fructífero es la reciente relegación de Plutón a la categoría de “planeta enano” tras el debate sobre qué es ser un planeta en el contexto de sorprendentes descubrimientos astronómicos. Este es un ejemplo de puente entre la ciencia y la filosofía porque el debate no se centró en lo que es Plutón en sí mismo. El tamaño, la forma, las características orbitales y similares de Plutón no estaban en disputa. En cambio, el debate se centró en si Plutón califica como planeta, por lo que este fue un debate sobre los límites de un tipo natural e involucró una especie de análisis conceptual. Al igual que con el concepto de licenciatura, los estudiantes pueden participar en este proceso tratando de identificar las condiciones necesarias y suficientes para ser un planeta. Al hacerlo, deben tener en cuenta el reciente descubrimiento de que Plutón es solo uno de los muchos cuerpos, incluidos algunos más grandes que Plutón, que ocupan un cinturón de escombros conocido como el cinturón de Kuiper en las regiones exteriores de nuestro sistema solar. La coherencia exige que coloquemos a Plutón en la misma categoría que los objetos similares en su vecindad orbital. Por lo tanto, los estudiantes deben decidir qué es más importante: contar a Plutón junto con muchos otros objetos en el cinturón de Kuiper como planetas, o excluir a Plutón y todo lo demás en el cinturón de Kuiper como planetas; otra posibilidad, por supuesto, sería concluir, ante el descubrimiento de tantos objetos grandes más allá de Plutón, que “planeta” no designa un tipo natural. Al final, la comunidad científica acordó las condiciones necesarias y suficientes para ser un planeta que excluye a Plutón y sus muchos vecinos. Para ser un planeta, un objeto debe orbitalrprincipalmente a una estrella y debe ser lo suficientemente grande como para arrastrarse gravitacionalmente hacia una esfera y despejar su trayectoria orbital de escombros[4]. Plutón cumple el primer criterio, pero no los otros dos. Por lo tanto, los científicos se sintieron obligados a cambiar nuestra antigua creencia de que Plutón es el noveno planeta de nuestro sistema solar. Además de provocar un cambio en todos nuestros libros de texto de astronomía, la degradación de Plutón tiene un efecto potencialmente vergonzoso en nuestros intentos de contactar seres extraterrestres inteligentes. Las naves espaciales Pioneer, lanzadas a principios de la década de 1970 y que acaban de salir de nuestro sistema solar, contienen placas pictóricas que identifican a nuestro sistema solar como uno que tiene nueve planetas. Cualquier extraterrestre que se encuentre con esas placas no podrá encontrar nuestro planeta o quedará un poco desconcertado por nuestra descripción extrañamente inexacta. En este contexto, nos apresuramos a agregar que incluso nuestra descripción actual, más empíricamente adecuada, de los planetas está abierta a revisión. A medida que los científicos continúan descubriendo y estudiando planetas extrasolares, algunos de esos planetas pueden tener propiedades significativamente diferentes de las de los planetas solares. Si es así, es posible que la comunidad científica deba revisar y refinar su relato una vez más. El punto es que incluso las mejores teorías científicas son provisionales y están abiertas a revisión a la luz de nuevos descubrimientos empíricos y avances teóricos. 


Esto nos lleva de vuelta a la pregunta "¿Qué es la vida?" Los estudiantes pueden unirse a científicos y filósofos para debatir esta cuestión, como lo hicieron al considerar qué es ser un planeta. ¿Qué características de la vida parecen necesarias para toda la vida? ¿De qué características de la vida familiar podría faltar algo y, sin embargo, seguir siendo una forma de vida? Algunos investigadores están trabajando para crear vida artificial en forma de robots[5] o modelos de computadora[6], lo que nos lleva a considerar si máquinas de metal o estructuras informativas (patrones de actividad electrónica) en una computadora realmente podría contar como viva, en lugar de simplemente simular la vida[7]? Al igual que con el debate sobre Plutón, las respuestas a estas preguntas requieren una consideración cuidadosa del conocimiento a posteriori que los científicos ya han reunido, y las siguientes secciones pueden usarse para ayudar a guiar las discusiones de los estudiantes a través de ese proceso. Nuestro estado actual de conocimiento biológico es lamentablemente inadecuado para generalizarlo sobre toda la vida. 


1.3 Limitaciones de nuestra comprensión actual de la vida 


Para poder realizar una investigación sobre un tema en particular, los científicos deben tener alguna idea de lo que están estudiando. Por lo tanto, mientras se investiga el origen de la vida o se busca vida en otra parte del sistema solar, o se intenta crear vida en el laboratorio, puede ser tentador comenzar con una "definición" de vida, aunque solo sea tentativa. Sin embargo, si uno usa tal definición para guiar los intentos de "crear" vida en el laboratorio o buscar vida en otros mundos, es probable que produzca o encuentre sólo lo que está buscando, y si nuestra explicación científica actual de la vida no es confiable, entonces es probable que incluso una definición tentativa nos engañe seriamente. Para apreciar mejor la dificultad que enfrentan los enfoques definitorios para comprender la vida, considere un ejemplo análogo, aunque algo artificial, de la historia de la ciencia. Supongamos que un científico del siglo XVII intentara responder la pregunta "¿qué es el agua?" Al "definir" el agua. Esto es antes de que Antoine Lavoisier sentara las bases de la teoría molecular del agua a finales del siglo XVIII[8], por lo que nuestro científico hipotético no sabe nada de moléculas. Su conocimiento del agua se limita a propiedades esenciales como la apariencia, el sabor, el olfato o sus interacciones con otras sustancias. Desafortunadamente, muchas de las sustancias llamadas "agua" por sus contemporáneos del siglo XVII difieren con respecto a una o más de estas propiedades. Por ejemplo, cuando se compara para el agua pura, el agua fangosa no es transparente, el agua salada no es insípida y el agua salubre no es de inodoro. Es difícil para nosotros, empapados en la química del siglo XXI, apreciar plenamente el dilema al que se enfrenta nuestro científico del siglo XVII al seleccionar una o más de las propiedades esenciales asociadas con el agua como esenciales para ella. Los alquimistas, que eran químicos medievales, quedaron impresionados por los poderes del agua como disolvente y, por tanto, eligieron la solvencia para definir el agua. Como consecuencia, clasificaron el ácido nítrico y las mezclas de ácido clorhídrico, que son incluso mejores disolventes que el agua (y comparten muchas de sus otras propiedades esenciales, por ejemplo, ser transparente y líquido), como "agua". Pero, como sabemos ahora, los alquimistas estaban equivocados. El ácido nítrico no es agua y, como el agua fangosa y el agua salada, las mezclas de ácido clorhídrico no son agua pura. Por supuesto, ahora sabemos que el agua se distingue de todas las demás sustancias químicas por su composición química única de H2O. Ser H2O es lo que tienen en común el agua salada, el agua fangosa, el agua salubre, el agua destilada e incluso las soluciones ácidas, a pesar de sus aparentes diferencias. Es lo que distingue al ácido nítrico, cuya composición molecular es HNO3, del agua a pesar de sus similitudes superficiales. ¿Podría haber descubierto esto un científico del siglo XVII? La respuesta claramente es "no". Su comprensión científica del agua se basa en sus propiedades esenciales superficiales, y ninguna cantidad de reflexión o investigación de estas propiedades con el equipo primitivo disponible en ese momento podría revelar que el agua consta de dos átomos de hidrógeno unidos químicamente a un átomo de oxígeno. Para lograr esta comprensión del agua se requirió un nuevo marco teórico para pensar sobre las sustancias químicas: la teoría molecular del agua. Por lo tanto, si nuestro químico del siglo XVII hubiera establecido una definición de agua para guiar su investigación, su comprensión incompleta habría restringido seriamente su capacidad para descubrir qué es realmente el agua. En cierto modo, la situación es peor para los científicos contemporáneos que buscan comprender la naturaleza de la vida que para nuestro científico del siglo XVII que busca comprender la naturaleza del agua. Porque existen razones científicas convincentes para pensar que la vida tal como la conocemos en la Tierra hoy en día representa un solo ejemplo de vida, potencialmente no representativo. Los biólogos moleculares han descubierto que toda la vida conocida en la Tierra desciende de un último ancestro común universal, muy probablemente una comunidad de proto-células primitivas[9]. Desde entonces ha ocurrido mucha evolución y diversificación, pero toda la vida todavía usa los mismos bloques de construcción moleculares básicos, las mismas vías metabólicas clásicas y el mismo código genético. Esto significa que estamos ante un solo ejemplo de vida. Sin ejemplos adicionales de vida, no se pueden discriminar características que son universales para la vida, dondequiera que se encuentre, de características derivadas de meras contingencias físicas y químicas en la Tierra primitiva, o que representan meras peculiaridades de los afortunados bichitos que se convirtieron en los antepasados ??de todos nosotros. ¿Qué tan diferente podría ser la vida de la vida en la Tierra? Los bioquímicos han establecido que algunos de los bloques de construcción moleculares básicos de la vida podrían haber sido al menos modestamente diferentes sin comprometer su funcionalidad biológica[10]. Por ejemplo, la vida en la Tierra podría haber utilizado una colección diferente de aminoácidos para sintetizar sus proteínas; vida familiar emplea los mismos aproximadamente 20 aminoácidos, de más 100 posibilidades. De manera similar, la vida podría haber sintetizado ácidos nucleicos (ADN y ARN) a partir de un conjunto diferente de bases de nitrogenadas o haber utilizado diferentes azúcares para construir las cadenas principales de azúcar-fosfato de los ácidos nucleicos. Cuando miramos el código genético, vemos que toda la vida conocida en la Tierra utiliza un esquema de codificación de tripletes para almacenar información hereditaria sobre ácidos nucleicos y, además, el mismo triplete de bases (conocido como codón) siempre codifica el mismo aminoácido; existe cierta redundancia con la mayoría de los aminoácidos representados por más de un codón, pero el mismo codón nunca representa más de un aminoácido. Hay pocas razones químicas para suponer que la vida no pudo haber mapeado codones para diferentes aminoácidos o haber utilizado un número diferente de bases de nucleótidos (dos o cuatro, por ejemplo, en lugar de tres) para codificar aminoácidos, particularmente si hubiera empleado un diferente número de aminoácidos para construir sus proteínas. Además, el proceso de síntesis de proteínas a partir de la información codificada en el ADN se lleva a cabo en los ribosomas, que son máquinas moleculares minúsculas pero muy complejas compuestas tanto de ARN como de proteína. Es poco probable que las primeras formas de vida en la Tierra utilizaran algo tan sofisticado para construir su material estructural y enzimático, y aún más improbable que los ribosomas representen los únicos mecanismos químicos posibles para realizar esta función biológica crucial. Por lo tanto, parece que estas notables similitudes moleculares entre los organismos terrestres familiares probablemente reflejen características contingentes de su último ancestro común universal, y no son características necesarias de toda la vida. Afirmar que son necesarios para toda la vida o, lo que es peor, definir la vida en el sentido de que sólo tiene estas características, restringiría prematuramente la extensión de la clase de seres vivos y correría el riesgo de excluir formas de vida que difieran de manera crítica de las nuestras. 


Recordando el ejemplo filosófico, esto sería como observar a un soltero que resulta ser desordenado y concluir que el desorden es una condición necesaria para ser soltero. Incluso si estamos convencidos de que las biomoléculas específicas que componen la vida familiar no son necesarias para toda la vida, aún podríamos creer que toda la vida debe tener ciertas características funcionales en común. Por ejemplo, quizás toda la vida debe tener la capacidad de autoorganizarse, de mantener esa autoorganización durante un período prolongado de tiempo frente a perturbaciones internas y externas, y de reproducir y transmitir cambios hereditarios a la progenie. Desafortunadamente, esto no evita realmente el problema porque, por lo que sabemos, estas características funcionales omnipresentes de la vida terrestre contemporánea representan síntomas poco confiables de propiedades de la vida más fundamentales pero aún desconocidas. 


Este tipo de cosas han sucedido antes en la ciencia. Algunos fenómenos naturales que alguna vez fueron identificados como distintos ahora se reconocen como lo mismo en virtud de que fueron causados ??por el mismo fenómeno subyacente: se descubrió que la electricidad y el magnetismo eran manifestaciones de la misma fuerza subyacente; se descubrió que tanto los protones como los neutrones estaban hechos de quarks. De manera similar, como se discutió anteriormente, diferentes sustancias químicas (distintos compuestos moleculares) que comparten algunas de las mismas propiedades sensibles, como ser líquidas, transparentes y un buenos solventes (siendo esta última una propiedad funcional) alguna vez fueron clasificadas erróneamente como agua. Por lo tanto, aunque poseemos una enorme cantidad de información empírica sobre la vida, este cuerpo de información es inadecuado para generalizar más allá de la vida en la Tierra.


Hasta este punto, hemos argumentado que es un error definir la vida en general basándose en el único ejemplo de vida en la Tierra. Nuestro argumento puede extenderse para mostrar que una definición más estrecha restringida solo a la vida común (por lo que nos referimos a la vida que desciende del mismo antepasado común que todas las formas de vida conocidas comparten) enfrentaría problemas similares. Un problema proviene de los casos límite de la vida común que comparten algunas características importantes de la vida prototípica, pero no tienen otras. Por ejemplo, los virus (y, en menor medida, los priones) se reproducen y pueden evolucionar, pero no están encerrados en células y no poseen capacidades metabólicas por sí solos, lo que deja su condición de sistemas vivos  ambiguos en comparación con la vida común prototípica. ¿Qué pasa si, como han sugerido algunos microbiólogos[11], los virus son parásitos que han evolucionado a partir de bacterias unicelulares o de tipo Archea? ¿Deberíamos descartarlos como parte de la vida  simplemente porque no se ajustan a una definición rígida de vida basada en lo que podría resultar ser un prototipo erróneo? Seguramente no. El problema se agrava cuando uno refleja que las definiciones de vida basadas en nuestras experiencias actuales con la vida en la Tierra también enfrentan el riesgo de descartar otras variedades de vida aún no descubiertas que claramente comparten un ancestro común con nosotros. Parece posible que uno o más linajes de vida puedan desarrollar características novedosas que son significativamente diferentes de otros linajes más comunes, y si nuestra definición de vida no permite estas características novedosas, entonces el linaje recién descubierto sería ipso facto excluido de la categoría de vida común. Por ejemplo, alguien que define la vida  en términos de la composición de sus biomoléculas, que algunos bioquímicos han sugerido, no podría admitir que las infames bacterias "amantes del arsénico[12]" vivan si de hecho, sustituyó el fósforo por el arsénico en sus principales biomoléculas (ácidos nucleicos y proteínas). Actualmente se piensa que esto no ocurrió. Sin embargo, no todo el mundo está de acuerdo[13]. Supongamos que los bioquímicos descubren que estas bacterias, que son una cepa de una familia bacteriana conocida (Halomonadaceae), han hecho esto, o que algún otro microbio que comparte un ancestro común con la vida  ha desarrollado tales biomoléculas. ¿Deberíamos excluirlos como vida común solo porque no encajan en una definición bioquímica popular? ¡Seguramente esto sería un error! El punto es que incluso cuando se restringe a la vida conocida, cualquier definición propuesta tiene una posibilidad muy real de excluir incorrectamente variedades desconocidas de la vida familiar simplemente porque han desarrollado características nuevas sorprendentes. Sin embargo, sabemos bastante sobre la vida en la Tierra, y puede haber buenas razones para desarrollar una lista de características comunes a todas las formas de vida conocidas hasta ahora, siempre que la lista no se trate como una definición.  En resumen, desde una perspectiva científica, investigar la naturaleza de la vida mediante una definición de vida es fundamentalmente erróneo. Nuestra experiencia con la vida se limita a un solo ejemplo de que tenemos buenas razones científicas para creer que podría haber sido al menos modestamente diferente. Además, no tenemos idea de lo diferente que podría ser la vida de la vida tal como la conocemos hasta ahora. Hasta que encontremos formas de vida que desciendan de un origen separado, no estaremos en posición de especular sobre las posibilidades de vida consideradas en general.


1.4 Buscando formas de vida alternativas 


Las conclusiones parecen dejarnos en un dilema: ¿Cómo se pueden buscar formas de vida alternativas dado que nuestra experiencia con la vida se limita a un solo ejemplo, posiblemente no representativo? El problema se agrava cuando se considera que es probable que cualquier vida que encontremos sea microbiana[14] y, por lo tanto, mucho más difícil de detectar que organismos grandes y complejos como árboles o mamíferos. Dicho de manera sucinta, para formular una teoría verdaderamente general de los sistemas vivos, necesitamos formas de vida desconocidas y, sin embargo, en ausencia de tal teoría, es poco probable que reconozcamos formas de vida desconocidas como seres vivos, incluso si los encontramos. En este punto, puede resultar tentador pensar que la vida artificial proporcionará una forma de vida adicional que nos ayudará a ampliar nuestra comprensión de la vida en general. Desafortunadamente, este no es el caso porque el estado de vida dura, blanda o húmeda se basa en la suposición de que ciertas características de la vida biológica son verdaderas para toda la vida, y esto es precisamente lo que está en juego. Lo que realmente necesitamos son ejemplos de vida que no sean de nuestra propia creación, y eso nos devuelve a la dificultad de buscar nuevas formas de vida sin estar completamente seguros de lo que estamos buscando. Cleland ha argumentado por otra parte la solución a este enigma no es buscar vida directamente, sino buscar anomalías[15]. En el contexto de la búsqueda de vida alternativa, las anomalías son sistemas físicos que se asemejan a la vida familiar en la Tierra de formas provocativas y, sin embargo, también se diferencian de ella de formas importantes e imprevistas. Pero, ¿cómo se buscan anomalías? La mejor forma de avanzar es utilizar características seleccionadas de la vida terrestre familiar como criterios tentativos para la vida. En la medida en que se interpreten como provisionales, se entiende que tales criterios son incompletos y, lo que es más importante, modificables. No se considera que definan o delimiten la vida. De hecho, como se discutió anteriormente, es posible que algún día descubramos que todas las características que actualmente se consideran esenciales para la vida son poco más que síntomas potencialmente poco confiables de propiedades más fundamentales pero aún desconocidas. 


El propósito de los criterios tentativos para la vida no es resolver la cuestión de si un sistema físico extraño descubierto en Marte, por ejemplo, está vivo, sino más bien centrar la atención científica en los sistemas físicos sospechosos, para identificar los mejores candidatos para más investigaciones científicas. Los criterios provisionales para la vida no deben confundirse con las definiciones. No fijan completamente la clase de seres vivos, sino que representan signos empíricamente accesibles de —pruebas provisionales— de la vida. En lugar de seleccionar una característica aparentemente universal de la vida familiar como más esencial que las otras (por ejemplo, el metabolismo, como en las definiciones metabólicas de la vida, o la capacidad de evolucionar por selección natural, o en las definiciones darwinianas), pueden emplearse conjuntamente y en diferentes combinaciones en la búsqueda de nuevas formas de vida. Porque es importante que los criterios utilizados para buscar formas de vida verdaderamente novedosas incluyan una diversidad de características dispares de la vida familiar, ya que no sabemos qué características de la vida familiar son fundamentales para toda la vida, dondequiera que se encuentre el resultado de meras contingencias físicas y químicas en la Tierra primitiva en el momento del origen de la vida. Además, los criterios provisionales no tienen por qué ser universales para la vida familiar en la Tierra. De hecho, es posible que incluso queramos restar importancia a las características universales de la vida común porque las características que son comunes solo a la vida que se encuentra en ciertos tipos especiales de entornos podrían resultar más útiles para buscar vida en entornos extraterrestres análogos. Reconocer una forma de vida verdaderamente nueva no será fácil porque no se parecerá a la vida tal como la conocemos en aspectos aparentemente importantes, también se diferenciará de ella en aspectos aparentemente importantes, lo que dificulta juzgar si es un ser vivo o una ficción, sistema físico inanimado. En otras palabras, parecerá anómalo con respecto a nuestra comprensión actual de la vida. La investigación de tales anomalías es justo lo que necesitamos para expandir nuestro concepto de vida más allá de la vida familiar en la Tierra, allanando el camino hacia una comprensión de la naturaleza de la vida. De manera algo paradójica, entonces, el propósito de los criterios tentativos para la vida no es identificar casos claros de vida, sino más bien identificar sistemas físico-químicos que son anómalos para propósitos de investigación científica adicional. 


Los geólogos, químicos y otros no biólogos pueden ayudar en la búsqueda de anomalías al ayudar a los biólogos a identificar características de la vida en la Tierra que son inexistentes o muy poco comunes entre los sistemas geoquímicos no vivos en la Tierra o en otros lugares. Tales características constituyen un buen criterio para buscar formas de vida desconocidas porque se destacan en un contexto de procesos inanimados. Así, por ejemplo, los diminutos cristales de magnetita prismáticos químicamente puros (4-100 nm) encontrados en un famoso meteorito marciano (ALH84001), recuperado en 1984 en la Antártida, fueron inicialmente citados como evidencia convincente de microbios marcianos fosilizados[16]. Esta afirmación se basaba en sus sorprendentes similitudes con los cristales de magnetita producidos por una cepa particular de bacterias magnetotácticas (MV1) en la Tierra, y en ese momento nadie conocía un mecanismo abiótico para producir diminutos cristales magnéticos de tal pureza química y forma geométrica uniforme bajo condiciones naturales; de hecho, todavía existe controversia sobre si tal mecanismo existe, e incluso si existe, no está claro que pueda explicar los cristales en ALH84001. Significativamente, la edad estimada de los cristales en ALH84001 coincide con un período (hace unos 3.900 millones de años) en el que se cree que Marte estuvo húmedo y geológicamente activo, con un poderoso campo magnético. Si tales cristales no pueden producirse (o rara vez se producen) de forma abiótica, a pesar de que no son universales para la vida en la Tierra, podrían proporcionar criterios útiles para explorar ciertos entornos extraterrestres en busca de sistemas físicos sospechosos (anómalos). 


Pasemos ahora a un ejemplo contrastante que muestra las limitaciones de un enfoque definitorio o igualmente rígido en comparación con la búsqueda de anomalías: las misiones Viking a Marte, que son la única búsqueda dedicada de vida extraterrestre que se ha realizado hasta ahora. De particular interés para nosotros es el experimento de "liberación etiquetada" (LR), uno de los tres experimentos metabólicos realizados robóticamente en Marte por el módulo de aterrizaje Viking. El experimento LR produjo resultados que inicialmente parecían positivos para la vida, pero rápidamente se volvieron desconcertantes[17] (para una revisión de los tres experimentos, ver Klein 1978). El suelo marciano introducido en la cámara de prueba se inyectó con una solución de nutrientes marcada radiactivamente que comenzó a liberar 14CO2 marcado radiactivamente, justo lo que cabría esperar de los microbios terrestres. Cuando la muestra de suelo marciano fue posteriormente calentado a 160 ° C durante tres horas, más que suficiente para matar los microbios terrestres, la reacción se detuvo, lo que sugiere fuertemente que la respuesta inicial había sido biológica. Pero cuando a otra muestra de suelo marciano se le dio una segunda porción de nutrientes, el estallido anticipado de nueva actividad de microbios marcianos hambrientos no solo no se produjo, sino que aún más misteriosamente, el 14CO2 que quedó de la reacción inicial comenzó a desaparecer. Los científicos estaban desconcertados. Se enfrentaban a una auténtica anomalía. Si bien se asemeja mucho a lo que cabría esperar de los microbios terrestres, los resultados obtenidos por el experimento LR también se desviaron de manera desconcertante. Uno podría pensar que un resultado tan intrigante pero inconcluso provocaría de inmediato una mayor investigación. Sin embargo, debido a que los experimentos de Viking se diseñaron explícitamente en torno a una definición oficialmente aprobada (metabólica química), los resultados del experimento LR se interpretaron como negativos y la falla del espectrómetro de masas del cromatógrafo de gases de Viking (GCMS) para detectar cualquier molécula orgánica fue tratado como no concluyente. Desde entonces se han desarrollado explicaciones no biológicas para los misteriosos resultados de Viking y el consenso actual es que fueron producidos por estados inusuales de hierro. Sin embargo, hasta el día de hoy, no hay evidencia empírica directa de que la superficie marciana se esté oxidando fuertemente y, lo que es más importante, la NASA no ha definido que probar esta hipótesis en misiones futuras sea una alta prioridad. 


Esto ilustra la diferencia entre buscar vida familiar y buscar anomalías. Debido a que no se ajustaban a la definición preferida de vida, los resultados de los experimentos de LR se atribuyeron a un oxidante no biológico, a pesar de que la vida conocida también es un oxidante. Si los experimentos de Viking se hubieran diseñado como una búsqueda de anomalías, la reacción al experimento de LR habría sido bastante diferente. Se habría interpretado como lo que era: un resultado ambiguo digno de una mayor investigación empírica. Hasta ahora, los ejemplos  han involucrado exploración espacial. Sin embargo, la búsqueda de formas de vida alternativas no tiene por qué ir más allá de la Tierra. Aunque puede parecerle muy inverosímil, resulta que hay buenas razones para considerar la posibilidad de formas alternativas de vida aquí en la Tierra, lo que Cleland y Copley llaman una “biosfera en la sombra[18]”. No estamos hablando de formas de vida alternativas grandes y fácilmente identificables. Si existieran en la Tierra, parece poco probable que hubieran pasado desapercibidas. Más bien, estamos considerando la posibilidad de que los descendientes microbianos de un origen alternativo de vida en la Tierra todavía puedan estar con nosotros hoy. Las primeras formas de vida fueron casi con certeza microbianas y hay buenas razones para pensar que la evolución de las grandes formas de vida multicelulares es la excepción y no la regla. Si bien no conocemos los procesos químicos y físicos específicos que dieron lugar a las primeras formas de vida en la Tierra, sí sabemos que en la Tierra primitiva existían variaciones sustanciales en los componentes moleculares de la vida. Hoy en día somos conscientes de muchas posibles fuentes no biológicas de azúcares, aminoácidos y otras moléculas orgánicas que podrían servir como bloques de construcción de proteínas y ácidos nucleicos. Estas fuentes incluyen descargas eléctricas a través de varias mezclas de gases simples[19], procesos hidrotermales en respiraderos volcánicos oceánicos[20], procesos geoquímicos que involucran superficies minerales[21], e incluso meteoritos entrantes[22]. Estas fuentes proporcionan una variedad de pequeñas moléculas orgánicas (p. Ej., Aminoácidos) que no lo son, pero que podrían haberse utilizado para sintetizar biomoléculas alternativas (proteínas). Si las condiciones propicias para el surgimiento de la vida estuvieran presentes en múltiples lugares de la Tierra primitiva y estos lugares contuvieran, como seguramente lo hicieron, variaciones en los bloques de construcción moleculares básicos de la vida, entonces uno esperaría que las primeras protocélulas reflejen estas diferencias en sus composiciones moleculares. En resumen, la hipótesis de que la Tierra albergó múltiples orígenes de vida y que algunos de estos orígenes produjeron variaciones moleculares en la vida familiar es consistente con nuestra comprensión química y biológica actual de la vida. La mayoría de los microbiólogos admiten los puntos anteriores, pero sostienen que (1) cualquier forma alternativa de vida microbiana sería eliminada por nuestra forma de vida en la despiadada competencia darwiniana por los recursos vitales y (2) si tales microbios existieran, ya los habríamos descubierto o al menos encontrado signos reveladores de ellos utilizando las sofisticadas herramientas disponibles para los microbiólogos contemporáneos. 


Como varios investigadores[23] han discutido, sin embargo, estas objeciones a la posibilidad de una biosfera en la sombra no se sostienen bajo un escrutinio cercano. La evolución en el mundo microbiano típicamente no resulta en la eliminación de especies raras por especies dominantes. Las comunidades microbianas son más complejas que eso, con muchas variedades diferentes de microbios raros que existen junto con los más comunes, a menudo participando en la cooperación en lugar de la competencia. Por lo tanto, incluso si la vida microbiana alternativa es bastante rara, aún puede sobrevivir en comunidades microbianas complejas. Sin embargo, si existen microbios alternativos, incluso en pequeñas cantidades, podríamos pensar que los microbiólogos ya los habrían detectado. 


Esto no es necesariamente así. Como los estudiantes descubren rápidamente después de observar una muestra de agua de estanque o alguna otra muestra ambiental bajo un microscopio, las diferentes variedades de microbios pueden ser muy difíciles de distinguir e identificar. Esto hace que ciertas estructuras celulares sean más visibles, pero estas estructuras no son tan útiles para distinguir entre diferentes especies. El descubrimiento de que los procariotas en realidad abarcan dos tipos bastante diferentes de microbios, las bacterias y las arqueas, a pesar de parecerse mucho entre sí en la estructura morfológica general (carecen de orgánulos encerrados en membranas, especialmente un núcleo) subraya lo problemático que es clasificar los microbios sobre la base de consideraciones estructuras[24]. De hecho, el descubrimiento de las Archaea resultó en importantes revisiones a la cima de la jerarquía de clasificación de la biología con los cinco reinos originales de la vida siendo suplantados por tres dominios de la vida (Bacteria, Archaea y Eukaryota). 


El punto es que mientras la vida alternativa tenga aproximadamente la misma forma y estructura interna básica que los microbios conocidos, la microscopía no revelará que sean diferentes de la vida familiar. Esto significa que es posible que ya hayamos observado vida microbiana alternativa sin darnos cuenta. Por supuesto, la microscopía es solo una de las herramientas en la caja de herramientas del microbiólogo. Las variedades individuales de microbios a menudo se pueden separar e identificar cultivando una muestra mixta en una variedad de diferentes condiciones de crecimiento. Las diferentes especies crecen en diferentes condiciones, por lo que el cultivo selectivo puede ser un método confiable para identificar las cepas microbianas presentes en una muestra desconocida. Sin embargo, solo una pequeña fracción de todos los microbios se puede cultivar con éxito, por lo que esta técnica es muy limitada cuando intentamos identificar nuevos microbios[25]. Este problema se agrava cuando consideramos que los requisitos específicos de crecimiento de organismos desconocidos son, por supuesto, desconocidos y pueden requerir nutrientes o fuentes de energía inesperados. Como consecuencia, nuestras posibilidades de cultivar una muestra pura de vida alternativa son muy bajas. Cuando cuando en el cultivo no se logran distinguir e identificar todas las especies presentes en una muestra, los microbiólogos a veces recurren al análisis genético. El aislamiento y la amplificación de variantes genéticas es una gran herramienta para examinar muestras complejas. De hecho, fue el análisis genético el que reveló la gran cantidad y diversidad de microbios que no aparecían en los ensayos de crecimiento[26]. Sin embargo, el aislamiento y amplificación de variantes de genes desconocidos requiere que dichas variantes sean compatibles con enzimas de replicación de ADN conocidas. Es poco probable que las formas de vida alternativas utilicen la misma maquinaria de replicación genética que la vida conocida, por lo que los métodos actuales de análisis genético serían de poca utilidad para aislar o identificar la vida alternativa[27]. En resumen, parece que ninguna de las herramientas que utilizan actualmente los microbiólogos para identificar organismos en muestras ambientales podría detectar una forma alternativa de vida microbiana que difiera incluso modestamente de la vida familiar a nivel molecular. Por lo tanto, el hecho de que no hayamos encontrado ninguna que utilice tales técnicas no cuenta mucho en contra de su existencia. Al igual que con la búsqueda de vida extraterrestre, los científicos que buscan vida alternativa en la Tierra deberían buscar anomalías que no puedan explicarse mediante procesos biológicos o geoquímicos conocidos. Esto hace que la búsqueda parezca más desafiante e incierta, pero es mucho mejor que imponer una definición engañosa y restrictiva para guiar nuestras investigaciones.


1.5 Formar el instinto científico en los estudiantes universitarios


La palabra “ciencia” proviene del término latino scientia, que significa conocimiento o comprensión, interpretado en un sentido filosófico más amplio que en el uso moderno. La palabra “científico” no entró en uso hasta mediados del siglo XIX, cuando fue acuñada por William Whewell, un filósofo historiador, sacerdote episcopal y hombre de ciencia. Previamente los cultivadores de la ciencia se consideraban filósofos naturales[28]. Ese término tenía sentido porque destacaba la ciencia como una filosofía de cómo podemos conocer el mundo natural a través de métodos que se refieren a fenómenos naturales. La filosofía natural contrastaba con la filosofía oculta, que trataba de explicar el mundo en términos de poderes y agencias sobrenaturales. La filosofía natural no floreció realmente hasta la revolución científica del siglo XVII, pero sus raíces se remontan mucho más allá. Se pueden encontrar entre los antiguos griegos, como en la opinión de Hipócrates sobre la epilepsia, esta no debe ser vista como “enfermedad sagrada” causada por la posesión divina, sino como aflicción natural con una causa natural.


Este enfoque natural sobre los causales y los efectos, es una metodología que distingue al pensamiento científico. No es una metafísica aireada, sino una filosofía empírica completamente fundamentada. Las explicaciones científicas pueden ser “ocultas” solo en el sentido arcaico del término, que se refiere a causas que están en lo profundo de la realidad y requieren del arte del diseño experimental para sacarlas a la luz, piense en ello, cómo en años muy atrás antes del descubrimiento del ADN, este no fue "verdadero" hasta la evidencia de su existencia como huella de todas las formas de vida. Parte de las maravillas de la ciencia es descubrir cómo las estructuras secretas, intrincadas y causales del mundo producen los maravillosos efectos que observamos.


Pudo haber sido Sócrates quien originalmente hablara de la filosofía como asombro. Platón le da esta línea en uno de los diálogos importantes donde discutió la epistemología, la naturaleza del conocimiento. Como es típico del diálogo socrático, los lectores se dan cuenta rápidamente de que los conceptos que habían dado por sentados no son tan sencillos después de todo. Lo que significa tener y adquirir conocimiento, que es el objeto de la epistemología, es una cuestión particularmente complicada. La propia respuesta de Platón, —nacemos con conocimiento pero necesitamos usar la razón para burlarnos de él en una forma de memoria— no parece inicialmente muy plausible para nuestra sensibilidad moderna esta frase. Estamos más en el linaje epistemológico de Aristóteles, quien argumentó que todo el conocimiento tiene su fuente de sensación. La ciencia se asienta de manera natural en este espacio empírico. Sin embargo, un Sócrates moderno volvería a señalar que las cosas no son tan simples. Tal vez no nacemos con conocimientos innatos en la forma que Platón imaginó, pero tampoco es que la mente sea una tabla en blanco. Nacemos con recursos axiomáticos para aprender sobre el mundo con una mente parcialmente preformada por la evolución. Somos capaces de reconocer la unidad de cantidad, las dimensiones espaciales, categorizamos en conjuntos las cosas, estimamos probabilidad y lo más importante, aplicamos lógica a las situaciones que se nos presentan. 


En el descenso del hombre evolucionado, Charles Darwin exploró la evolución de los rasgos mentales, incluyendo la atención, la memoria, la imaginación y la razón. Demostró que incluso las características mentales humanas más avanzadas podían encontrase en formas incipientes en otros animales, y ofreció explicaciones de cómo estos instintos podrían haber sido moldeados por la selección natural[29].  Sin instintos (una combinación de lo sensorial y los recursos innatos axiomáticos) que nos preparen para el mundo, los organismos no tendrían tan buena posibilidad de sobrevivir. Un organismo que pudo, por ejemplo, descubrir relaciones causa-efecto críticas en su entorno, no tendría problemas en la dura competencia de la vida. Los seres humanos no somos diferentes. Aunque nuestro poder mental es más evolucionado también estamos obligados a descubrir la estructura causal del mundo. 


Esto nos conduce a un concepto central, la verdad. Darwin es completamente típico en su respuesta, la verdad como un objetivo científico. Pero Sócrates nos advierte que seamos claros sobre lo que queremos decir con verdad. Una respuesta razonable sería decir que la ciencia tiene como objetivo el conocimiento proposicional, que implica nociones de lógica de lo verdadero y lo falso, aunque es posible que no sepamos cual es cuál. Presumiblemente, el trabajo de la ciencia sería averiguarlo. Si las hipótesis científicas son solo declaraciones que expresan proposiciones, entonces tal vez la ciencia es solo para determinar su verdad o falsedad, hipótesis por hipótesis. Los positivistas lógicos hicieron un valiente intento de analizar el conocimiento, pero por razones que no nos conciernen aquí el proyecto final fracaso[30].


Algo que tiene mejor sentido para la ciencia, es la posibilidad de la verdad. Consideremos una noción más amplia de la verdad por la cual podemos referirnos a una semejanza más o menos verdadera. Una imagen es el caso más simple, y a menudo hablamos de la ciencia como la que proporciona una imagen del mundo, tal vez porque en efecto pensamos en la ciencia en términos de observaciones visuales. No hay nada de malo en hablar libremente de esta manera,  siempre y cuando tengamos en cuenta que podemos ser informados sobre el mundo por otros sentidos; hay limitaciones a la metáfora de la imagen, y la ciencia ciertamente no se limita a los modelos visuales. Cuando los científicos hablan de buscar la verdad, se refieren a su búsqueda con los mejores modelos del mundo. Modelar algo significa reproducirlo, producir una semejanza, en mayor o menor grado, de maneras que sean relevantes para los propios intereses. 


Puede ser útil pensar en esto como la diferencia entre un binario (falso o verdadero) y lo que se puede llamar una noción analógica de la verdad. La lógica clásica tiene solo dos estados, verdadero o falso, por lo que si una proposición no es verdadera, tiene que ser falsa.  Los científicos, sin embargo, saben que sus modelos nunca son perfectos, lo que en una noción binaria de la verdad implicaría que todos son falsos. Se podría argumentar que, estrictamente hablando, este es un relato preciso de nuestra situación, y solo necesitamos aprender a vivir con ella, porque solo los dioses podrían saber lo que es verdaderamente cierto. Pero tal punto de vista parece perverso y no esencialmente útil para entender la práctica de la ciencia. 


Tomemos un enfoque diferente. La verdad de la lógica clásica podría considerarse como basada en un extremo de una escala de precisión o semejanza: la verdad es 100 por ciento y la falsedad es cero por ciento. Pero la forma de analizar las cosas de la lógica clásica confundiría algo que es casi correcto, digamos 99.9 por ciento, con algo en el extremo opuesto de la escala. En cambio, ¿qué pasa si tomamos la verdad y la falsedad como estar en los extremos superior e inferior y luego pensamos en cómo una semejanza puede ser más verdadera a medida que algo es más cierto, sino es perfectamente cierto. De manera similar, se puede hablar del grado de fidelidad: ¿qué tan buena semejanza con la realidad es el modelo M? Esto también encaja con formas comunes de hablar, como cuando preguntamos qué tan preciso es un modelo de renderizado M, o cuán fiel es una reproducción de M. 


De esta manera conectamos verdad con la noción de modelado y la idea de fidelidad con la reproducibilidad, pero también debemos comprender otro aspecto clave de la metodología de la ciencia. Concretamente, se refiere a la idea de reproducibilidad en el sentido práctico de ser capaz de replicar (es decir, reproducir) los resultados. Los científicos no confían en los experimentos que no pueden replicar. Como resultado experimental, la reproducibilidad se asume como un asunto robusto, lo que significa que resiste nuevas pruebas, que razonablemente aumenta la confianza en la verdadera creencia de su modelo. Esta es una noción práctica de la verdad. A diferencia de la noción clásica, no está necesariamente ligada al lenguaje. Los modelos más verdaderos, del mismo modo, harán predicciones más precisas con mayor regularidad. Esto muestra una conexión entre la verdad y la replicabilidad. 


Se podría decir mucho más sobre cómo y por qué esto tiene sentido en la ciencia, el punto importante es que cuando los científicos dicen que están buscando verdades sobre el mundo (conocimiento objetivo), están hablando de la verdad empírica que nos ayuda a hacer nuestro camino en el mundo y que necesariamente viene graduada: siempre hay valores p, intervalos de confianza, grados de probabilidad u otros indicadores de precisión asociados a todos los hallazgos científicos. 


Conocimiento. Es el segundo concepto al que Darwin refiere. Filosóficamente analizamos que es el conocimiento dibujándolo cuidadosamente entre varias distinciones importantes, como la diferencia entre saber-cómo y saber-eso. Este estudio de Darwin está dentro de la epistemología. El saber-eso lo llaman conocimiento propositivo o descriptivo, es decir, conocimiento que se puede afirmar en forma de sentencias descriptivas: disertación. Esto es muy diferente de la noción más básica de saber hacer algo, que los filósofos llaman conocimiento procesal; tal vez sepa cómo lanzar una rosa, pero no ser capaz de articular ese conocimiento en ningún tipo de forma descriptiva. La relación entre saber-cómo  y saber-qué es importante, pero por el momento, vamos a quedarnos con esto último y preguntar lo que significa para alguien saber de P (proposición particular). La noción clásica se remonta a Platón, quien sugirió que para que algo contara como conocimiento tenía que ser no solo una verdadera creencia, sino también una justificada, es decir, surge de un proceso de agencia racional. Una suposición afortunada, no cuenta como conocimiento. El conocimiento proviene de la razón de la evidencia apropiada, reflexionada en sus conexiones causales. La epistemología moderna ha encontrado casos en los que incluso creencias que son justificadas, todavía no pueden contar como conocimiento si el proceso por el cual se formuló la creencia del conocedor no era rigurosa. 


El conocimiento científico es un tipo de conocimiento que ha sido justificado por demostraciones científicas dentro del diseño experimental generador de evidencia. Una vez más, no todas las preguntas son científicas o tienen una respuesta científica, pero las metodologías de la ciencia han demostrado ser confiables para responder preguntas empíricas sobre el mundo natural. También debemos reiterar que el conocimiento científico no es absoluto. Decir que la ciencia es un proceso confiable, no es decir que es perfecta o que después de una cierta cantidad de esfuerzo dado llega a la verdad absoluta. El conocimiento empírico de cualquier tipo es falible y la ciencia, no es una excepción. 


A diferencia de la certeza formal deductiva que proporciona la matemática, la ciencia es una empresa inductiva. Esto significa que, aunque que todas las premisas del argumento sean ciertas, todavía existe la posibilidad de que la conclusión sea falsa. El conocimiento siempre viene en cierto grado de confianza. Expresando: ”los datos sugieren; parece probable; por lo que hemos visto hasta ahora” y así sucesivamente, los científicos a menudo consideran frases de este tipo no como signos de equívoco sino como de confesión de ignorancia. De hecho, lo que estos operadores lingüísticos de grado de confianza representan es la epistemología básica de la ciencia, son etiquetas lingüísticas que marcan la fuerza de la evidencia acumulada, y el reconocimiento siempre presente de que más evidencia puede sugerir un cambio. Esa es la naturaleza de la evidencia inductiva y parte de la razón por la que los descubrimientos científicos rara vez se ajustan al momento estereotipado de eureka. 


Esto nos lleva al tercer elemento de la cita de Darwin: el descubrimiento. Cada científico sueña realizar un nuevo paso en la frontera de lo desconocido… el oficio de revelación del funcionamiento natural revela hechos y elabora métodos útiles. Uno puede descubrir no solo X, sino también cómo afecta Y. En cualquier caso, el núcleo de la noción de descubrimiento está en la semántica de la misma palabra;  revelar y hacer relaciones lógicas y traer luz a lo que antes estaba en las sombras. Los descubrimientos suelen darse lentamente con un acumulado de conocimiento que revela algo del mundo y sus posibilidades. Pero un descubrimiento requiere disertación  (comprensión) no solo sobre el qué, sino la razón del por qué. 


Razonamiento. Filosoficamente, sabemos que la razón exige que este estándar de descubrimiento más alto se cumpla antes de que uno explore algo como un verdadero descubrimiento científico. Para poner las bases, devolvamos nuestra atención a nivel precientífico  e instintivo  que Darwin postuló. 


Darwin señaló que los rasgos mentales evolucionaron. Las formas rudimentarias o precursores de los rasgos humanos se encuentran en otros animales. Dado este descubrimiento, debemos esperar igualmente que el conocimiento científico surgiera de formas de conocimiento  más simples que precedieron a las científicas e incluso a la evolución mental de los seres humanos. En este nivel básico, el descubrimiento tiene raíces en el lenguaje desde un punto de vista evolutivo, saber-cómo precede a saber-qué. El primer reto para un organismo es cómo sobrevivir. ¿Cuánto necesita saber para ello? Solo tiene que ser suficientemente bueno en la práctica. ¿Qué también debe razonar? Lo suficiente. A medida que los rasgos mentales axiomáticos innatos (conteo, propiedades del espacio, categorizar, probabilidad y lógica) se vuelven más complejos, los conceptos de conocimiento y razón también se vuelven más estructurados extendiendo la lógica y las herramientas del lenguaje natural. El instinto científico de la razón tiende a manifestarse desde estos axiomas innatos como un impulso a explorar y averiguar realizándonos preguntas y creando conceptos, teorías y planteando problemas. Esto puede experimentarse inicialmente como una vaga sensación de necesidad de saber, una incomodidad de ignorancia, similar a un susurro de la mente hasta una pregunta que desconcierta, sentimos una confusión básica con nuestras creencias más elementales de nuestros axiomas. Para organismos con rasgos mentales superiores lingüísticos como nosotros, las formas de estructurar conceptos, hechos, teorías, evidencia, problemas, preguntas, métodos, técnicas… nuestra racionalidad está limitada, pero en colaboración con sociedades de investigadores, el poder cognitivo se amplifica mejorando nuestros rasgos de estilo de pensamiento. El punto es que los axiomas de nuestra cognición alimentan nuestra curiosidad, es decir la agencia de justificaciones. En resumen la curiosidad es un instinto que Darwin expresó necesario para sobrevivir en el mundo.


La curiosidad es un instinto, y los instintos son respuestas “definidas y uniformes” a sensaciones o asociaciones particulares. Estos instintos impulsan los comportamientos y al menos en su forma más básica no se requieren aprender de la experiencia. Por su puesto, decir que los instintos no requieren aprenderse de la experiencia, no significa que estos no puedan mejorar y ser la diferencia de nuestra actitud a partir del aprendizaje posterior a los instintos básicos. Incluso los cantos característicos de las aves  se modifican en versiones variantes dependiendo de los dialectos que las aves infantiles escuchen a su alrededor. 


Presumiblemente, los complejos entornos y las complejas relaciones con las que los seres humanos tienen que lidiar hicieron que la flexibilidad de la alta inteligencia y el aprendizaje sea más valiosa para nosotros a largo plazo, pero el punto de Darwin es que todos los rasgos mentales tienen que ser adquiridos en grados. Nuestro poder intelectual superior debe haber evolucionado sobre una base de instintos más simples. Sería un error para  nosotros pensar que nuestra inteligencia nos ha alejado del reino del instinto animal. 


Darwin observó los instintos, particularmente en la forma en que se exhiben incluso en los bebés antes de cualquier experiencia. Nadie que haya interactuado con animales jóvenes —mascotas o incluso sus hijos— duda de la evidencia de su interés innato en explorar las novedades en su entorno. La curiosidad se extiende a nuevos estímulos a través de modos sensoriales y también el interés por el mundo. Algunas personas viven la ansiedad de buscar nuevas cosas, mientras otras se adhieren a la cotidiano si pueden, graduando la realidad en capas de abstracción. El instinto de la curiosidad también está sujeto a la selección natural, si la curiosidad siempre o incluso por lo general matará al gato; la evolución habría terminado rápidamente con esta disposición. Pero eso no es lo que observamos y no es difícil ver cómo la curiosidad proporciona una ventaja evolutiva selectiva en muchos entornos.


La curiosidad es un rasgo epistémico ventajoso para un organismo que con su juego de sensores y axiomas, es útil para adquirir conocimiento. La curiosidad y otros rasgos instintivos nos permiten averiguar nuestro único mundo parcialmente predecible. Si el mundo fuera completamente regular en todas las formas que importan a los organismos, no tendrían que ser curiosos. En un mundo con recursos limitados e irregularmente ubicados en el espacio tiempo, su posibilidad de sobrevivir y reproducirse sería una cuestión de desviarse de caminos trillados y ensayar algo nuevo.


En estos mundos, una disposición a investigar las novedades y a salir del camino estándar para probar nuevos conocimientos puede tener una utilidad real, dando a los organismos una ventaja competitiva. Sin tal instinto, el descubrimiento de nuevos recursos sería menos probable. Incluso los mecanismos elementales de investigación podrían proporcionar una ventaja. Freud tenía razón en que también es útil para el sexo. Incluso los organismos bien dotados no irán bien en la competencia evolutiva si no pueden encontrar pareja o cualquier otra cosa necesaria para reproducirse. 


Además, al considerar el valor de la búsqueda de novedades, es importante tener en cuenta que, si bien lo nuevo puede ser útil, también puede ser peligroso. Ese susurro de curiosidad es posible que esté detrás  un depredador. La capacidad de identificar nuevos peligros y aprender a evitarlos también es de valor adaptativo. Tenemos que admitir que la curiosidad a veces mata al gato. Los organismos que siempre se precipitan rápidamente donde otros temían pisar, a veces entran en peligro. Un poco de precaución está en el orden, lo que tal vez explica por qué la curiosidad se experimenta inicialmente como una especie de inquietud… la sensación de que algo no está del todo bien o de que no es. 


Hay dos posibles repuestas a las anomalías percibidas. La respuesta conservadora es ignorar las diferencias y seguir con las generalizaciones establecidas. La respuesta progresista y curiosa es investigar las diferencias con esperanza de descubrir una generación los modelos más amplia y precisa. Este último enfoque tiene la ventaja adaptativa de la autocorrección y el descubrimiento de patrones nuevos o más amplios. Cada una de estas posiciones está confundida, una respuesta intratable podría ser inicialmente más segura, pero una respuesta curiosa proporciona una oportunidad para el aprendizaje. El primer trabajo de un organismo es descubrir las regularidades e irregularidades de su mundo, y esto es ciertamente cierto para los seres humanos. Freud pensó que la curiosidad humana siempre era en última instancia sexual, pero aunque, por supuesto, reconocemos la importancia de la reproducción en un relato evolutivo, hay una ventaja más general que es un requisito previo incluso para esta. Los bebés lo hacen, debemos ser capaces de averiguar la estructura causal del mundo, y esto requiere atender patrones ocultos y notar violaciones a modelos existentes. Esto es lo que hacen los bebés, necesitan ser capaces de hacer cognición inductiva, que es la capacidad de aprender y generalizar a partir de nuevas experiencias. Los datos novedosos alteran las regularidades familiares, a veces el diseño de nuevos experimentos, revelan regularidades más profundas. La previsibilidad es útil, y por tanto una vez que algo ha sido comprobado y es familiar, entonces las cosas se vuelven predecibles de nuevo. La previsibilidad es útil y por lo general se necesita curiosidad para descubrirla. 


1.5.1 De la confusión a la satisfacción 


Cuando un organismo se aparta de un camino regular, ¿cómo podemos saber que está impulsado por la curiosidad en lugar de la confusión? A primera vista, uno parece positivo, activo y adaptativo mientras que el otro parece negativo, pasivo y no adaptativo. Los dos están estrechamente relacionados en que ambos implican una respuesta a una desviación de un patrón esperado. Ambas son reacciones a algo en el entorno que difiere del mapa conceptual (o de algún conflicto dentro del mapa conceptual) e indican una discordancia con las expectativas. Ambos implican una sensación de desconcierto. Estamos desconcertados cuando descubrimos una anomalía en lo que habíamos visto anteriormente como una regularidad. Es como si el flujo de percepción va ¿qué?, ¿porqué? La desviación de la expectativa es confusa. Las anomalías de cualquier tipo se perciben como desconcertantes y también como potencialmente interesantes. 


Prestamos atención a los patrones de similitud y diferencias en nuestro entorno. La aleatoriedad pura no es interesante; si tocamos ruido blanco, después de unos minutos ya ni siquiera lo vemos. La repetición simple también puede ser aburrida. Estamos programados por la evolución para notar las regularidades y las irregularidades y para tratar de averiguar cómo resolver cualquier anomalía. Este interés se mezcla con la emoción, tal vez relacionada con la sensación producida cuando el cuerpo se prepara para un posible peligro, o de otra manera anticipar la acción. 


Además, la curiosidad, como todos los demás rasgos, es variable entre los individuos. Algunos responden solo a la novedad extrema, mientras otros sienten picazón de la curiosidad con más intensidad. Al final, el sentimiento emocional que proviene de la resolución de la tensión inquisitiva es un tipo especial de placer y para las personas que son profundamente curiosas, el sentimiento puede ser profundo. Como cualquier gato que muera de curiosidad lo atestiguaría, la resolución de algún tipo rompecabezas es un sentimiento de máxima satisfacción.


En el sentido moral de Darwin. Hasta ahora, nos hemos centrado en la extraña sugerencia de Darwin de que tenemos un instinto de verdad, conocimiento de descubrimiento, y hemos argumentado que es razonable pensar en la curiosidad como un instinto evolucionado. Pero ahora queremos pasar a la sugerencia aún más asombrosa que hizo, a saber, “algo de la misma naturaleza que el instinto de la virtud”. ¿Qué podría significar decir que la curiosidad es virtud? ¿Y por qué hablar de la virtud misma como instinto? 


La universidad forma científicos, los dota del poder intelectual de pensar, disertar, diseñar experimentos, procesar evidencia, comunicar su literatura, discutir la verdad y hacer felices a estos exploradores aprendices en el difícil camino del lenguaje de los hechos y las inferencias matemáticas de su elegante literatura.


Para ayudar a contar la historia del oficio del científico, veamos primero los propios puntos de vista de Darwin sobre la evolución de lo que él llamó el sentido moral. La moralidad, hipotéticamente, se hizo posible cuando en los animales que habían evolucionado los instintos sociales alcanzaron un grado suficiente de poder intelectual. Por instintos sociales, Darwin tenía en mente aquellos sentimientos que llevan a los animales a disfrutar de la simpatía, como los afectos de los padres. Explicó cómo tales comportamientos de ayuda instintiva podrían proporcionar a los animales una ventaja competitiva en diversas circunstancias, mejorando las posibilidades de supervivencia en un grupo de individuos relacionados. Tales comportamientos podrían ser esencialmente para el cuidado parental de los jóvenes o incluso el aseo mutuo que elimina útilmente los parásitos. A corto plazo, tales instintos podrían ser particularmente poderosos, pero en combinación con la memoria y la imaginación mejoradas, pueden convertirse en sentimientos más fuertes de insatisfacción asociados con instintos incumplidos. Estos sentimientos, sugirió, son la voz incipiente de la conciencia. Ser capaz, con mayor inteligencia, de recordar tales sentimientos del pasado e imaginar el mismo efecto en el futuro, si se descuidaron las conductas de ayuda, proporciona una indicación de lo que deben o no deben hacer —que es el sentido moral—. Darwin no pensaba que pudiéramos atribuir adecuadamente la moralidad a los animales de la misma manera que lo hacemos a los seres humanos, pero hipotetizó que cualquier animal con la capacidad instintiva de empatía, junto con un grado suficiente de inteligencia, llegaría a sentir un imperativo moral para comportarse en consecuencia.


Es necesario tener precaución; el hecho de que necesitamos ciencia evolutiva para ayudar a explicar nuestra capacidad moral no implica que podamos leer reglas éticas directamente de la biología. La supervivencia del más apto es un poderoso principio explicativo para entender el mundo biológico, pero la teoría ética hace que este principio tenga una fractura. Consideren este experimento mental que Darwin propuso: “si los seres humanos fueran criados exactamente en las mismas condiciones que las abejas de colmena, entonces las hembras solteras, como abejas trabajadoras, pensarían que es su deber sagrado matar a sus hermanos y las madres se esforzarían por matar a sus hijas fértiles; y a nadie se le ocurriría interferir[31]”. Si un sentido moral evolutivo funcionara de esta manera, el problema sería obvio: cometer una variación de la falacia que el filósofo escocés del siglo XVIII David Home identificó al tratar de derivar un “debe” moral de un mero “es”. La falacia es obvia una vez que se señala: que algo es el caso no implica por sí mismo que debe ser así. Se necesitará un razonamiento un poco más filosófico para encontrar alguna premisa moral que vincule las afirmaciones fácticas con las conclusiones morales. Darwin mismo dio algunos pasos tentativos con la teoría ética kantiana y utilitaria. 


Este breve panorama, es suficiente para ver cómo Darwin pensó en la evolución del instinto de la virtud y algunas de las complejidades que tendrían que ser resueltas a medida que avanzamos. Algunos teóricos no piensan que la falacia naturalista es una falacia en lo absoluto. Alistair McIntyre, pensó que las declaraciones sobre lo que es bueno, son solo una especie de declaraciones fácticas[32]. Dejando a un lado esta cuestión, como con el sentido moral, no se debe esperar derivar una sólida noción ética de la normatividad de las consideraciones biológicas por sí sola. Sin embargo, el relato evolutivo del origen de la curiosidad como instinto puede recibir importancia normativa cuando se pone en un contexto filosófico. Tanto Darwin como Home lo habrían encontrado atractivo. Los rasgos de carácter, como la curiosidad son esenciales para hacer ciencia. 


Como punto preliminar, no hace falta decir que la virtud no se limita a la moral sexual, que es quizás lo que primero viene a la mente para aquellos que piensan en la mojigata noción victoriana de proteger la virtud de uno. Tampoco debemos pensar en la virtud como pasiva, que es una connotación a la que el término a veces lleva hoy. La virtud no es una estado de reposo del ser. Quiero recordar un elemento más tradicional del concepto de virtud, a saber, la virtud como poder. Conservamos un remanente de este significado en una frase de como “en virtud de lo cual” que, como “sobre la fuerza de”, transmite la idea de una propiedad, poder o capacidad de disposición que haga algo posible o haga que así sea. Moliére tenía esta noción activa de la virtud como un poder cuando se burlaba de las explicaciones triviales: ¿Por qué el opio hace que uno duerma? Porque tiene una “virtud dormida[33]”. Se puede decir razonablemente, por ejemplo, que un material o molécula es fuerte o frágil en virtud de su estructura física o química. Debemos pensar en las virtudes de carácter que son nuestro tema de una manera similar, son rasgos intelectuales que nos disponen a comportarnos de manera confiable y de maneras apropiadas. Están orientadas a la acción, dándonos el poder y la motivación para actuar como lo justifica la situación. En el ámbito mental, la virtud tiene la connotación de referirse no a ningún poder o disposición, sino principalmente a cualidades creativas. De hecho, muchos clásicos aristotélicos traducen “virtud” como excelencia o una vida en el arte.


Aristóteles, consideró que excelencia o virtud es “una disposición asentada en la mente que determina nuestra elección y emoción” que consiste esencialmente en observar un equilibro relativo a nosotros… una medida entre dos vicios, lo que depende de los excesos y lo que depende del defecto. Encontrar equilibrio adecuado, rara vez es una cuestión sencilla de seguir por una regla, por lo general debe ser determinado por un principio racional y el ejercicio del juicio, razón por la cual hablamos de la idea de preguntar cómo una persona con “sabiduría práctica” juzgaría dónde cae el equilibrio en situaciones dadas. 


Esta es una noción general razonable, pero los detalles específicos del relato de Darwin serán de menos uso directo, por la razón obvia de que tenía como objetivo entender la virtud para nosotros como seres humanos, mientras que estamos interesados principalmente para los científicos en su práctica vocacional. Un relato más estrecho y más especializado. Para estos contextos, deseamos introducir la idea de la virtud vocacional como una disposición del oficio de explorador, tejedor de argumentos en su literatura y mentor de nuevas generaciones.


Aunque Darwin ilustró que la curiosidad es un instinto y una virtud científica, es algo con lo que no nacemos, debe ser cultivada. Aristóteles tenía razón en que esto se hace por actitud diaria, uno debe practicar su modo de pensar al leer y escribir, además de someter el diseño experimental a criterio de causalidad y probabilidad en el contexto de datos y evidencia. Esta curiosidad científica tiene una base en el instinto, pero es necesario educarla para aprender a caminar en el espacio de incertidumbre. La curiosidad científica es más exigente que el tipo ordinario con el que todos nacemos. Implicará métodos distintos, criterio sobre lo verdadero y lo que existe, habilidades especializadas de lenguaje matemático.


Aprender a hacerlo bien, esta vocación científica toma años de entrenamiento y son las universidades donde estos aprendices responden a preguntas de su vocación. Debido a que son desafiados con aspectos causales y evolutivos, la virtud puede considerarse un concepto de un artista del pensamiento de disertación y el diseño experimental. Home consideró a esta virtud la posesión de cualidades mentales (intelectuales), útiles o agradables para la persona misma y, lenguaje para hacer consensos sobre los sistemas de argumentos y discusiones. Home no tenía una explicación de cómo esos sentimientos internos podrían llegar a ser, pero la explicación de Darwin de cómo evolucionan los instintos muestra cómo rasgo de carácter la curiosidad instintiva implicada en valores epistémicos de verificación, simplicidad, experimentación, racionalidad, originalidad…, requiere procesamiento intelectual para crecer en el espacio de razones, justificaciones, inferencias, evidencias, teorías comenzando con una explicación de los métodos de la ciencia. 


¿Cuál es el propósito central y orientador de la ciencia?, tiene como objetivo describir verdades sobre el mundo natural, teniendo como herramienta la conciencia, el lenguaje natural (español, inglés, italiano) y el artificial (computacional y matemático). Los científicos buscan la verdad entre sus grados de certeza empírica. Los científicos desean medir una constante a un nuevo grado de precisión, aislar un nuevo compuesto, descubrir una nueva especie o descubrir una nueva ley física, química, biológica. Y estas son las cosas que hacen felices a los científicos hasta el núcleo de lo que es su identidad. Educar a un joven universitario en la ciencia, es desarrollar la excelencia del hábito de escribir y leer disertación, hacerlos capaces del arte de diseño experimental y el procesamiento de datos satisfaciendo la curiosidad por la verdad hipotética inductiva de lo que existe. Las existencias siendo un mundo de capas subyacentes de significado de la realidad, observador y objeto de la realidad, crean comunidades de pensamiento que discuten, justifican y deliberan sobre lo real. 


La virtud de la curiosidad científica, es el cultivo de valores epistémicos, ontológicos y metodológicos de lo más riguroso y elegante en este estilo de pensamiento de disertación. Y estos valores le dan el significado cotidiano de su integridad moral cuando: fundamenta, justifica, explica, demuestra, calcula, describe, categoriza y narra los hechos y evidencias en un cuerpo teórico. La comunicación de los científicos es fundamentalmente por su literatura clara, coherente, rigurosa, elegante y objetiva.


No se puede negar que los científicos tienen los mismos sueños y prejuicios que todos los demás, y tienen puntos de vista que pueden no ser siempre del todo objetivos. Lo que un grupo de científicos llama “consenso”, otros lo ven como “dogma”. Lo que una generación considera un hecho establecido, la próxima generación demuestra ser un malentendido ingenuo. Al igual que en la religión, la política o la educación, los argumentos siempre han estallado en la ciencia. A menudo existe el peligro de que, mientras una cuestión científica sigue sin resolverse, o menos abierta a dudas razonables, las posiciones que ocupan cada lado del argumento pueden convertirse en ideologías arraigadas. Cada punto de vista puede ser matizado y complejo, y sus defensores pueden ser tan inquebrantables como serían en cualquier otro debate ideológico. Y al igual que con las actitudes sociales sobre religión, política o cultura a veces necesitamos una nueva generación para venir, sacudirnos los grilletes del pasado y hacer avanzar el progreso del debate. 


Pero también hay una distinción crucial a la ciencia, en comparación con otras disciplinas. Una sola observación cuidadosa o resultado experimental puede hacer que una visión científica o una teoría de larga data sean obsoletas y reemplazables con una nueva visión del mundo. Esto significa que esas teorías y explicaciones de los fenómenos naturales que ha sobrevivido a la prueba del tiempo son las que más confiamos. La tierra va alrededor del sol y no al revés; el universo está en expansión y no estático; la velocidad de la luz en un vacío siempre mide lo mismo sin importar la velocidad con la que se mueva el observador; y así  sucesivamente.


Ante una nueva idea que se hace de un descubrimiento científico importante, que cambia la forma en que vemos el mundo, no todos los científicos la comprarán en él inmediato tiempo, pero ese es su problema; el progreso científico es inexorable, que, por cierto, siempre es algo bueno: el conocimiento y la iluminación son siempre mejores que la ignorancia. Comenzamos con no saber, pero buscamos averiguar… y aunque podamos discutir en el camino, no podemos ignorar lo que encontramos. Cuando se trata de nuestra comprensión científica de cómo es el mundo, la noción de que la ignorancia es dicha carga tiene sentido. Como dijo Douglas Adams una vez: “yo tomaría el asombro de la compresión sobre el asombro de la ignorancia cualquier día[34]”.


1.5.2 Causalidad 


Dibujar inferencias causales sólidas a partir de datos de observaciones, es un objetivo central en las ciencias. Cómo hacerlo, es controvertido como todo arte. Los enfoques técnicos basados en modelos estadísticos (modelos gráficos, modelos de ecuaciones estructurales no paramétricas, estimadores de variables instrumentales, modelos bayesianos) están proliferando en las nuevas tecnologías de análisis como la Inteligencia Artificial (IA). Los defensores del modelado estadístico a veces afirman que sus métodos pueden salvar un diseño de investigación deficiente o de datos de baja calidad. Algunos sugieren que sus algoritmos son motores de inferencia de propósito general. Las suposiciones de modelado se hacen principalmente por conveniencia matemática, no para la verosimilitud. Las suposiciones pueden ser verdaderas o falsas, normalmente falsas. Cuando las suposiciones son verdaderas, se mantienen los teoremas sobre los métodos. Cuando las suposiciones son falsas, los teoremas no aplican. Desarrollemos esta línea de pensamiento un poco más. En particular, el problema de descripción al conjunto de solución de las ecuaciones de condiciones de optimización que nos exigen una introducción sobre nuestra idea de causal[35].


Las inferencias causales se pueden extraer a partir de datos no experimentales. Sin embargo, no se pueden establecer reglas mecánicas para la actividad. Desde Home, eso es casi truismo. En cambio, la inferencia causal parece requerir una enorme inversión habilidad, inteligencia y duro esfuerzo. Se deben desarrollar muchas líneas convergentes de evidencia. La variación natural debe ser identificada y explorada. Los datos deben ser recogidos. Hay que considerar a los sesgos. Las explicaciones alternativas deben ser exhaustivamente probadas. Antes que nada, la pregunta correcta debe ser enmarcada en la teoría disponible. 


Naturalmente también hay problemas a superar, existe el deseo de sustituir el capital intelectual por el trabajo de aplicación instrumental para aumentar las publicaciones científicas. Es por eso que algunos investigadores tratan de basar la inferencia causal en exclusivamente modelos estadísticos. Las tecnologías son relativamente fáciles de usar, prometen abrir amplia variedad de preguntas al esfuerzo de investigación. Sin embargo, la desaparición del rigor metodológico puede engañarnos. Los propios modelos exigen un escrutinio crítico ontológico y del mejor pensamiento estadístico. Se utilizan ecuaciones matemáticas para ajustarse a los sesgos y otras fuentes de error. Estas ecuaciones pueden parecer demasiado precisas, pero normalmente derivan de muchas opciones algo arbitrarias. ¿Qué variables introducir en la regresión? ¿Qué forma funcional usar? ¿Qué suposiciones hacer sobre los parámetros y los términos de error? Estas opciones rara vez son dictadas por los datos o conocimientos estadísticos previos. Es por ello que el juicio del pensamiento estadístico es tan importante, la oportunidad de error es grande y el número de aplicaciones exitosas tan limitadas. 


La inferencia causal en experimentos controlados aleatorios que utilizan el principio de tratamiento crítico, siempre la inferencia se basa en el modelo de probabilidad subyacente real implícito en la aleatorización. Pero algunos científicos ignoran el diseño y en su lugar usan la regresión para analizar datos de experimentos aleatorios. El tratamiento crítico es un proceso de disertación riguroso, revisión de experimentos que requieren un trabajo de rigor y conocimiento transversal a los estudios reportados. Incluso un científico sin un experimento real o natural, con esta experiencia de disertación puede ser capaz de combinar estudios de casos y otros datos de observaciones para descartar posibles conexiones y hacer inferencias casuales.


Los investigadores que se basan en datos observacionales necesitan evidencias cualitativas y cuantitativas para ser conscientes de los principios estadísticos y alertar sobre posibles sesgos que pudieran sugerir preguntas más agudas de investigación. 


Las matemáticas pueden ser elegantes, pero la idea básica es que las leyes de la naturaleza son solo resúmenes o sistematizaciones de las regularidades que ocurren en el mundo[36].  El problema aquí es que nuestra experiencia de regularidad solo puede ser de lo que es regular hasta ahora en nuestra conciencia. En casos que hemos observado, A han sido seguidos por B, pero dado que nada sobre A hace que B ocurra, entonces no da justificación racional para decir que en el futuro A será seguido por B. Sin embargo hay una debilidad adicional de una visión constante de conjunción de variables oponentes. Podría decirse que la teoría no tiene recursos para distinguir entre causas y coincidencias. ¿No debería haber realmente una distinción entre las regularidades que son realmente causales y las que son meramente accidentales? 


¿Tendemos a distinguir las coincidencias de los casos causales? Ganar una apuesta en carreras de caballos cuando uno usa la camisa roja, podría ser una coincidencia. ¿Qué pasaría si lo mismo sucede al realizar otra apuesta y se usa la camisa roja? ¿Y otra vez? 


Lo que tendría que hacer es mirar el patrón más amplio de eventos, si los eventos del primer tipo se unen constantemente con eventos del segundo tipo. Y aquí no tenemos derecho a hacer ninguna presunción sobre lo que es una coincidencia. En otras palabras Home diría, la causalidad es, a este respecto, una relación totalmente contingente. No hay contradicciones en dos tipos de eventos distintos, ya sean relacionados causalmente o no relacionados causalmente. Podría pensar que sería poco probable que una cosa siguiera a otras muchas veces si fuera pura coincidencia. Eso puede ser cierto, pero Home realmente no puede afirmarlo, se ha pintado a sí mismo en una esquina donde tiene que decir que si A siempre es seguido por B, entonces, A causa B. La teoría implica esto, podría dejar una pregunta abierta. ¿En todos los casos en los que A es seguido por regularidades de B, para cualquier cosa A y B, algunos serán casos de causalidad, tal vez la mayoría de ellos, pero algunos podrían ser accidentales? Se necesita una forma más sofisticada que la que usa Home, si se trata de hacer esta distinción. 


Si uno piensa en el tema de las causas y las coincidencias, saca a la luz un resultado aparentemente contradictorio y paradójico de la teoría de la regularidad de Home[37]. Será más fácil que se produzca una conjunción constante accidental cuantas menos instancias tenga. Si A ocurre solo cinco veces en la historia del mundo y es seguida por B en cada ocasión, que podría ser una coincidencia que los humanos funcionemos así por un causal. Home tendría que admitir que las regularidades, por lo tanto la causalidad, es más probable cuantos menos casos haya de la causa. Esto parece paradójico porque normalmente pensaríamos que es más probable que A sea una causa de B cuantos más casos haya de A seguidos de B.


Hay una versión extrema de este problema. ¿Qué sucede si solo hay una única instancia de A? Por ejemplo, supongamos que hay un universo que contiene solo dos eventos, hay una explosión y luego un resplandor de luz. Ahora la pregunta es ¿el Big Bang causó el resplandor? Si uno sigue un conteo de conjunción constante, parece que uno tiene que decir que sí. El Bang es causal del resplandor siempre, en todos los casos. Pero aún podemos decir que podría ser una mera coincidencia.


Hay que añadir con justicia a Home que él tiene una respuesta a este tipo de objeción. Al discutir si Dios podría haber causado la existencia del universo, en un acto de creación, argumenta que esto nunca podría contar como causalidad. La razón es que este es un evento totalmente único e, insiste, es la repetición lo que nos hace formar nuestra idea de causa. Así que para Home creer en Dios como el que causó el universo, él querría saber cuántas veces es suficiente, pero la idea general es que deberíamos estar más convencidos de que la causalidad ha ocurrido cuanto más casos de su conjunción vemos, en lugar de cuantos menos casos vemos. Eso ciertamente parece un juicio de una parte que es coherente con el sentido común. 


Ahora tenemos lo básico en lugar de una visión de regularidad de Home. Las regularidades no son todo lo que necesitamos para decir que una cosa causa otra. Pero la regularidad es una parte importante de la noción de causa. Y hay que reconocer que en muchas ciencias estamos buscando principalmente correlaciones. Si un ensayo muestra que la tasa de recuperación de una enfermedad mejora con un medicamento, ¿no es suficiente para que pensemos que alguna causalidad está en el trabajo?


A veces se desalientan los que trabajan en las ciencias al preguntar si hay una causalidad “real” detrás de la correlación. Tal vez sea más que la sospecha de metafísica (lenguaje) lo que está detrás de esto. Tal vez también hay una opinión de que la correlación es todo lo que hay. ¿No debemos esperar nada al acecho detrás de la correlación, produciendo la regularidad? Veremos, sin embargo, que hay una serie de otras cuestiones que abordan la causalidad y otras teorías de la causalidad que podrían resultar más atractivas.


Home se dio cuenta de que había más en nuestra idea de causalidad que la simple correlación. Que dos fenómenos que se unen regularmente no serían suficientes por si solos para darnos una idea de causal. Cada vez que nace un niño, sabemos que está correlacionado con un óvulo que se fertilizó, generalmente después del coito. Pero el nacimiento del niño no causó el coito. Eso hace que las cosas se equivoquen de dirección al sacar conclusiones. 


Pensó Home, dos ideas más están involucradas; además de la conjunción constante, Home pensó que nuestra noción de causa incluía las ideas de prioridad temporal y contingencia. La prioridad temporal significa que las causas deben preceder a sus efectos en el tiempo. La contingencia significa que las causas y efectos deben estar en lugares uno al lado del otro (en contacto físico de fuerzas, más…). Existe un atractivo intuitivo en la idea de que tanto prioridad temporal y contingencia son necesarias para una idea de causalidad. Pero vemos que no solo se puede desafiar a ambas, sino que las dos condiciones también están en tensión: una socava a la otra. 


Debemos tener en cuenta que el argumento de Home sobre la causalidad se produce en un contexto de epistemología empírica. Su preocupación es con cuál es nuestra idea de causa y de dónde vino. Si no podemos mostrar ninguna impresión de sentido original o la serie de tales impresiones de sentido original de dónde obtuvimos una idea, entonces Home piensa que es ilegítimo y debe ser rechazada la idea. 


Esto plantea todo tipo de cuestiones de interpretación filosófica: sobre si podemos pensar en algo que no sea nuestra propia experiencia. Hay, sin embargo, algunas preguntas importantes por hacer a cerca de la causalidad, que no son solo preguntas sobre nuestro concepto de causa.


¿Qué es tan atractivo acerca de la prioridad temporal? Nuestra experiencia parece mostrarnos que las causas son lo primero y los efectos un tiempo después. El teclado se golpea primero y luego se imprimen los signos; se toma un fármaco y luego el dolor de cabeza se va; la difamación se hace primero y luego la reputación se daña. Y partir de esto, podemos utilizar el orden temporal de los efectos cuando hay una regularidad. 


Supongamos que íbamos a encontrar que la gente feliz tiende a ser amable. Hay una correlación entre la felicidad y la amabilidad. Podríamos decidir que existe una relación causal entre estos dos factores, pero ¿cuál fue la causa y cuál fue el efecto? Una manera sensata de resolver esto sería investigar que es lo primero. ¿Estas personas fueron felices primero y luego se hicieron amigables? ¿O primero fueron amigables y luego se volvieron felices? Esto no resolvería el asunto de manera concluyente, pero podría ser una buena guía. 


También se podría ver de esta manera. Supongamos que la autoridad acusa a un fabricante de estar enfermando a varios de sus empleados a través de la exposición a alguna sustancia sin una protección adecuada. ¿Qué argumento podría producir una defensa si pudiera demostrar que cada empleado tenía la enfermedad en la misma gravedad de la causa alegada desde antes?, entonces esto parece descartar automáticamente la causalidad. 


Cuando aceptamos que las causas son temporales anteriores a sus efectos, algo útil sale de ellas. Si A causó B, entonces B no causó A. La aceptación de la prioridad temporal podría explicar esta asimetría. Si A causó B, y las causas deben ser anteriores a sus efectos, entonces se deduce que A es antes de B. De ello se deduce una vez más que B no puede, por lo tanto, estar antes de A; y por lo tanto que B no puede ser una causa de A.


La prioridad temporal proporcionaría una asimetría a la causalidad que ni la conjunción constante ni la contigüidad podrían proporcionar. Todavía tenemos que examinar la contigüidad, pero la conjunción constante no haría el trabajo por la siguiente razón. Si bien un A constantemente unido con B no implica que B se una constante con A, tampoco lo excluye. Es posible, por ejemplo, que todos los que están contentos sean amables, pero también que todos los que son amables son felices. Técnicamente hablando, clasificaríamos la conjunción constante como una relación no simétrica (una relación simétrica es aquella que se mantiene en B, entonces B tiene que mantenerla en A, como donde A es la misma altura que B). 


Esta prioridad temporal asimétrica parece muy importante para nuestra noción de causalidad. Añade algo crucial a la regularidad. Le da una dirección. Volvamos ahora a la contigüidad. La opinión de Home fue que si A y B están constantemente unidas y A ocurre antes de B, entonces esto todavía no sería suficiente para que concluyamos que A es una causa de B. La razón de esto es que A y B también tendrían que estar una al lado de la otra; es decir, espacialmente adyacentes. Esto es lo que Home quiere decir con contigüidad. 


Consideremos un ejemplo mundano una vez más. Podemos suponer que hay una regularidad entre las partes que se golpean y la iluminación de esa parte. Ahora hemos añadido que para afirmar que el golpe hizo que se encendiera la luz, debemos decir que el golpe ocurrió antes de la iluminación. Pero, ¿Cuál es el siguiente escenario elegante? Creemos que la causalidad no ocurre a distancia, no inmediatamente, en cualquier caso. La causa de la iluminación, cuando se golpea debe estar en el mismo plano. Del mismo modo, para que una bola de billar haga a otra moverse, debe tocarla, debe ocupar el siguiente lugar disponible para la pelota que se mueve. Y para que una persona se enferme de una bacteria, la bacteria debe entrar en contacto con ella. No se puede estrangular a alguien sin tocarlo, o no puede comer a distancia alguien sus alimentos. 


En todos estos casos, parece plausible que la causa funcione sobre el efecto a través de una cadena de causas y efectos intermedios, donde cada uno de estos eslabones de la cadena de causas y efectos intermedios, implica una acción contigua. No pasa directamente de uno al otro, en cada uno de estos casos podemos encontrar que la causalidad ha viajado de un lugar a otro por efectos de puntos intermedios. La idea de cadena causal es importante. Las causas pueden alinearse en una fila y seguir una tras otra, creando efectos en un momento mucho más tarde y en lugares distantes. Una forma muy sencilla de imaginarlo es lo que sucede cuando alineamos las ficha de dominó. Derriba la primera, golpeando a una segunda y así todas caen a su vez. Es fácil hacer esto y divertido de ver, porque llegamos a ver una cadena causal extendida. El golpe de la primera pieza provoca la caída de la última, algún tiempo después y a cierta distancia. Podemos ver cómo lo hace a través de una serie de transacciones causales individuales. 


Una cadena causal. Si bien vemos que hay un atractivo intuitivo a la noción de que las causas deben preceder a sus efectos, también plantea un problema. ¿Cómo puede una causa afectar algo a menos que exista al mismo tiempo lo que la afecta? Esto sugiere que la causalidad ocurre en el momento en que dos cosas entran en contacto, donde el impulso se pasa de una a otra. No puede ocurrir antes del contacto ni después de haberse separado, de acuerdo con la demanda de contigüidad. 


Simultaneidad. La discusión anterior es un desafío a la afirmación de Home de que las causas deben preceder a sus efectos. Home parecía pensar que esto era parte del concepto mismo de causa. Pero, si se equivoca, ¿qué podríamos decir en su lugar? Una opción, sugerir que para el caso del billar, es decir que las causas y los efectos son simultáneos. Esto nos permitiría conservar el otro compromiso de Home con la contigüidad. Kant, pensó que la idea de causalidad simultánea era creíble. Ahora Home había dicho, por supuesto, que la prioridad temporal era parte de la noción misma de causa. Si tenía razón en esto, ni siquiera podríamos considerar la idea de causalidad simultánea. Sería como una contradicción en sus términos. Pero dado que hay ejemplos perfectamente coherentes, entonces parece más probable que Home estuviera equivocado. La casualidad simultánea es al menos concebible y algunos ejemplos sugieren que es incluso parte de la realidad. Y para reforzar el punto, algunos encuentran que los viajes en el tiempo hacia atrás son concebibles y eso sugiere que las causas podrían ocurrir después de sus efectos. 


Supongamos que un viajero del tiempo aparece en una máquina del tiempo en 1984, pero su aparición fue causada por él movimiento de un interruptor en su máquina del tiempo de 2020. Una vez más, esto parece concebible, incluso si es una fantasía de ciencia ficción, por lo que Home podría estar equivocado de que la prioridad de causa sobre efecto es esencial para la causalidad. Vale la pena señalar, sin embargo, que el argumento de la simultaneidad de causa y efecto, trabaja en contra de cualquier división temporal de causa y efecto, sin importar la dirección de la causalidad.  El verdadero problema en el caso del viaje en el tiempo parece ser el salto directamente de una época a otra. El hecho de que las causas y los efectos puedan ocurrir simultáneamente no significa que ocurran instantáneamente. Algunas causas tienen su efecto durante un largo periodo de tiempo. 


Sin embargo, lo que se podría decir es que cada eslabón de una cadena causal implica solo la simultaneidad de causa y efecto, algunos de los cuales implican procesos temporales extendidos. Por lo tanto, la cadena causal puede llevar tiempo. Y el punto final de cada eslabón de la cadena podría solaparse con el siguiente eslabón de la cadena, existente al mismo tiempo que su vecino. Algunos de esos relatos podrían conciliar la simultaneidad con las cadenas causales temporalmente extendidas. 


No debemos asumir que la noción de contigüidad de Home tampoco es indiscutible. Una vez más, hay un argumento de que se equivocó al insistir en ello como una verdad conceptual. 


Los físicos explican casos en entrelazamiento cuántico. Aquí es donde las propiedades de las partículas se ven conectadas, de modo que una medición en una partícula parece garantizar el resultado de una medición en otra. Lo que está desafiando sobre el caso, es que esto se mantiene inmediatamente e independientemente de la distancia. Supuestamente, cuando se mide una partícula, entonces su compañera gemela entrelazada, no importa cuán lejos, debe tener un cierto valor en ese mismo momento. La física todavía está tratando de interpretar exactamente lo que está pasando en estos casos, pero una interpretación, implica acción instantánea a distancia, sin ninguna cadena intermedia. Esto sería profundamente desconcertante porque parece implicar la causalidad viajando más rápido que la luz, que supuestamente es lo más rápido de todas las cosas. 


Aparte de eso, sin embargo, lo que significa es que parece que somos capaces de concebir que la causalidad ocurre no localmente, es decir, sin contigüidad. Así que la prioridad temporal como la contigüidad pueden ser desafiadas. 


Cuando la causalidad está en juego, el efecto es más que una mera posibilidad entre muchas otras. Hay una buena razón por la que se produce el efecto específico. Causas, se piensa, obligan o hace que sus efectos sucedan. Cuando el azúcar está en el café caliente debe disolverse; cuando una bola es golpeada debe moverse; cuando una cosa es lanzada hacia arriba debe caer en algún momento y cuando un organismo tiene una cierta estructura orgánica, debe desarrollarse de cierta manera. 


Lo que muchos consideran que falta de una visión de regularidad causal, incluso si va acompañada de contigüidad y prioridad temporal, es un sentido de necesidad de las causas. El efecto no es un accidente, dada la ocurrencia de la causa. En su lugar, la causa se considera totalmente suficiente para que produzca el efecto. La filosofía de Home, que es pensada por muchos, contiene demasiada contingencia. Es un mosaico que sugiere que a cualquier cosa podría seguir cualquier cosa. Pero por supuesto que rechazamos esto último. Consideramos que la causalidad, es genuinamente de sus efectos en un sentido más fuerte de lo que Home permite. ¿Qué queremos decir con necesidad y contingencia? Los filósofos tienen diferentes maneras de conceptualizar estas dos opciones. Por necesidad, pueden significar que algo está estrictamente implicado, que tiene que ser el caso, o que es cierto en algunos mundos, pero no en todos los posibles. Se puede pensar que es necesario que 5+3 =8, pero contingente como que Morelia es la capital de Michoacán, México. Pero no hay ninguna posibilidad en lo absoluto dentro de ese sistema aritmético que 5 + 3 no podría ser diferente de 8. 


¿Es necesario que el agua sea H2O, que la velocidad de la luz sea un límite cosmológico, o que un electrón sea de carga negativa. Y dentro de estas categorías discutidas, podemos poner causas. ¿Es una cuestión de necesidad? Home consideró a la necesidad como un posible cuarto elemento de la idea de causa, junto con las tres ideas ya discutidas de regularidad, prioridad temporal y contingencia espacial. Admitimos que la necesidad es a menudo parte de la comprensión común de la causa. Filosóficamente, sin embargo, llegó Home a la conclusión de que no tenía un lugar legítimo.


Su argumento era que un solo caso de causalidad no nos revela ninguna evidencia de necesidad. La opinión de Home es que solo vemos una sucesión de eventos: una cosa después de otra. Nuestra idea de causa viene de ver una repetición del mismo tipo de secuencia de evento. Esto forma en nosotros una perspectiva de que otros casos serán como los que hemos ya visto. Pero no hay necesidad de que así sean. Si un solo caso no muestra ninguna necesidad, entonces no puede provenir de solo otras instancias del mismo. Cada caso no contiene nada más que contingencia; ninguna cantidad de contingencia adicional nos lleva a la necesidad. Eso sería como esperar que las condiciones del número cero eventualmente nos llevarán a uno. 


1.5.3 La vida, mecanismos complejos


Aunque los biólogos saben mucho sobre la vida en la Tierra, todavía no pueden proporcionar una respuesta científicamente convincente a "¿qué es la vida?" Las razones de esto ilustran algunas características importantes de la ciencia que los estudiantes a veces pasan por alto. Explicamos que la respuesta a "¿qué es la vida?" no debe tomar la forma de una definición. La ciencia debe permitir la revisión de nuestra comprensión de los fenómenos naturales a la luz de nuevos descubrimientos empíricos, y la rigidez de las definiciones tiende a desalentar esto. Si los científicos interesados ??en los orígenes de la vida, la astrobiología o la vida se guían por una definición de vida, es probable que pasen por alto las formas de vida que no se ajustan a ella. Explicamos que incluso si los científicos evitan una definición estricta de vida, sus esfuerzos por explicar la vida se ven seriamente obstaculizados por el hecho de que nuestra experiencia con la vida se limita actualmente a un solo ejemplo. Argumentamos que, en lugar de comenzar con una definición de vida, la búsqueda de nuevas formas de vida se sirve mejor mediante el uso de criterios tentativos para identificar anomalías, que son fenómenos que no se explican fácilmente mediante procesos no biológicos conocidos y que, sin embargo, no se explican claramente. biológico tampoco. Una anomalía podría llegar a ser un indicador de una forma de vida imprevista que no coincide con ninguna de nuestras “definiciones” de vida. Es probable que tales fenómenos se pasen por alto en una búsqueda de vida basada en definiciones. Quizás algún día los científicos encuentren suficientes ejemplos independientes de vida para empezar a decidirse por una teoría general de la vida científicamente convincente. Esto ha sucedido con otros dominios de fenómenos naturales como la sustancia química; A modo de ilustración, la teoría molecular distingue el agua de otras sustancias químicas por su composición molecular única, H2O. Por supuesto, siempre debemos permitir revisiones futuras incluso de nuestras teorías más bien establecidas, lo que significa que todas las teorías científicas deben considerarse como provisional. La provisionalidad y la capacidad de revisión a la luz de la nueva información empírica son características de la ciencia tal como se practica y son fundamentales para su desarrollo futuro. Desafortunadamente, los educadores de ciencias, comprensiblemente ansiosos por impartir a los estudiantes hechos y leyes científicas bien aceptadas, a menudo descuidan este aspecto dinámico de la práctica científica. La discusión de los desafíos asociados con la respuesta a la pregunta "¿qué es la vida?" puede ser una herramienta valiosa para introducir a los estudiantes de biología en este importante y emocionante aspecto de la ciencia mientras les imparte una gran cantidad de información científica sobre la vida tal como la conocemos hoy en la Tierra.


1.5.3.1 La explicación biológica  


Uno de los objetivos centrales de la ciencia es la explicación: los científicos buscan descubrir por qué las cosas suceden como suceden. En biología, se han buscado explicaciones de por qué la descendencia generalmente tiene los mismos rasgos que sus padres; por qué un área tiene una mayor variedad de especies que otra; por qué los patrones en las conchas de los caracoles terrestres muestran el tipo de variación que hacen; por qué las poblaciones de tiburones aumentaron en el Mar Adriático durante la Primera Guerra Mundial. Los biólogos también han tratado de comprender el proceso por el cual las células vegetales convierten la luz solar en nutrientes; las influencias genéticas particulares sobre el comportamiento de fumar en los seres humanos; y por qué los caballitos de mar machos, no las hembras, gestan embriones de caballitos de mar. Todos estos —y muchos, muchos más además— son intentos de explicar fenómenos biológicos, fenómenos que van desde los generalizados a los muy específicos y desde los subcelulares hasta los que abarcan vastas franjas de la Tierra. En consecuencia, un proyecto principal en la ciencia es proporcionar una explicación de la naturaleza, de lo que se necesita para explicar algo. Durante más de 100 años, la ciencia ha estado generando explicaciones competitivas: literatura científica. Estas narrativas proporcionan criterios que se supone que son esenciales para la explicación, de modo que cualquier explicación exitosa cumplirá esos criterios. Los relatos están motivados con referencia a ejemplos de explicaciones científicas exitosas. Desde principios hasta mediados del siglo XX, gran parte de la ciencia se centró principalmente en la física. Desde entonces, los tratamientos filosóficos de la explicación se han complicado y se han enriquecido con atención a las estrategias explicativas en biología. Examinemos la influencia de la biología en la explicación científica. Esto resalta características importantes de la práctica explicativa en biología. 


1.5.3.2 Biología y su narrativa de explicación 


Un punto de vista tradicional e históricamente influyente en la filosofía de la ciencia es que las explicaciones científicas se producen al derivar el fenómeno que debe explicarse a partir de las leyes de la naturaleza. Esta explicación nomológica-deductiva (DN) sugiere que las explicaciones siguen un patrón simple: un fenómeno se explica por un conjunto de sentencias verdaderas de las que se puede derivar la descripción del fenómeno, y que contiene al menos una ley de la naturaleza esencial para la derivación[38]. Por ejemplo, la ley de distribución independiente de Mendel y el hecho de que dos genes están ubicados en cromosomas diferentes explican por qué los diferentes alelos de esos dos genes están emparejados entre sí en aproximadamente el mismo número de gametos: según la ley de Mendel, cada emparejamiento es igualmente probable. Una característica de la explicación DN es que este ejemplo viola esta estrategia, solo puede explicar los fenómenos cuando las leyes científicas garantizan su ocurrencia. El fenómeno debe seguirse deductivamente, como cuestión de lógica la ley y las condiciones citadas. Se desarrolló así un complemento de la explicación DN para aplicarlo a casos estadísticos. Esta explicación estadística inductiva (IS) sostiene que los fenómenos también pueden explicarse utilizando una ley estadística aplicable, siempre que la ley confiera una alta probabilidad al fenómeno. Técnicamente, nuestro ejemplo simple de explicar usa la ley de distribución independiente, es una explicación IS. En términos generales, la idea detrás de los enfoques de explicación DN e IS es que un fenómeno se explica especificando cómo lo que sabemos sobre el mundo —nuestras leyes científicas— influye en las circunstancias particulares en cuestión, lo que hace que el fenómeno sea esperable. Las leyes de la naturaleza y las circunstancias garantizan o hacen altamente probable que se explique el fenómeno. Los enfoques de explicación DN e IS han caído en gran medida en desgracia entre los filósofos en las últimas décadas. Una crítica destacada es que parece haber una asimetría en el valor explicativo de las derivaciones que satisfacen las condiciones de explicación DN. Salmon emplea el siguiente ejemplo como ilustración[39]. Derivando la longitud de una sombra a partir de la altura de un asta de bandera y la posición del sol, se explica la longitud de la sombra. Pero se puede derivar igualmente bien la altura del asta de la bandera a partir de la longitud de la sombra y en posición al sol, y parece que esto no hace nada para explicar la altura del asta de la bandera. Ésta y otras críticas se toman para mostrar que la derivación no es en sí misma suficiente para una explicación. Más allá de las dificultades generales con los relatos DN e IS, parece que muchas explicaciones biológicas no se ajustan a este punto de vista de la explicación. Por un lado, algunos fenómenos que se reconocen como improbables, no obstante, se cree que están explicados. Por ejemplo, algunas mutaciones genéticas se explican por daño oxidativo, aunque tales mutaciones son raras y los oxidantes están presentes con frecuencia. Además, hay muchas explicaciones biológicas en las que las leyes, ya sean deterministas o estadísticas, parecen jugar poco o ningún papel[40]. ¿Por qué la anemia de células falciformes produce anemia? Sin duda, la explicación citará características de los glóbulos rojos falciformes anormalmente rígidos que se encuentran en las personas con enfermedad de células falciformes. En el mejor de los casos, sería forzado interpretar cualquier elemento de la explicación resultante como una ley científica. Finalmente, hay mucha incertidumbre con respecto a lo que debería calificar como ley biológica y, por lo tanto, si la biología tiene muchas leyes que ofrecer, o ninguna[41]. Si la "ley" de la variedad independiente de Mendel, usada en el ejemplo de la explicación anterior de DN, calificaría como una ley científica, es en sí mismo dudoso. Dejando de lado las dificultades con el requisito de que cualquier explicación cite una ley científica, así como el requisito de que cualquier explicación confiera una alta probabilidad al fenómeno explicado, los enfoques DN e IS se alinean con algunas intuiciones sobre lo que deben lograr las explicaciones. Friedman (1974) y Kitcher señalaron este punto[42]. Tanto Friedman como Kitcher argumentan que una explicación de un fenómeno “unifica” ese fenómeno con otras creencias científicas en virtud de proporcionar un patrón de argumentación del cual todos pueden derivarse. Según este relato de unificación, el valor de una explicación se deriva de su generalidad, simplicidad y cohesión, ya que estas características juntas generan el poder de unificar fenómenos dispares. Las explicaciones que citan la ley de distribución independiente de Mendel tienen mejores resultados en este razonamiento que DN. Postular la distribución independiente de genes (en diferentes cromosomas) es una explicación simple y cohesiva que es lo suficientemente general como para explicar una variedad de fenómenos, que van desde una planta de guisantes que hereda los guisantes arrugados de un padre, pero no el color amarillento de sus guisantes, hasta que exista un 50% de probabilidad de que una mujer que porta el gen recesivo ligado al sexo de la distrofia muscular de Duchenne tenga un hijo con la enfermedad, independientemente de qué otros rasgos herede o no (no en el cromosoma X). En contraste con los problemas encontrados por los relatos DN e IS, la práctica explicativa en biología ofrece apoyo para una visión filosófica diferente de la explicación, a saber, el relato causal. Desde este punto de vista, un fenómeno se explica por los factores causales que lo provocaron[43]. Ésta es una interpretación natural de, por ejemplo, explicaciones evolutivas que presentan selección natural. El lavandero archipiélago (Tringatotanus), un ave que se alimenta de gusanos en los lodos, muestra preferencia por comer gusanos grandes sobre gusanos pequeños. Esta preferencia se explica por el hecho de que la selección natural favorece los hábitos de alimentación que maximizan la ingesta energética; si los gusanos grandes y los gusanos pequeños están fácilmente disponibles, entonces la ingesta de energía de un playerito rojo se maximiza cuando hay gusanos grandes elegibles, ya que producen más biomasa ingerida[44]. Tenga en cuenta, sin embargo, que aunque la selección natural es una causa importante de la preferencia evolucionada del playerito, la selección no garantiza que la preferencia evolucionará. No es el único determinante, sino una influencia entre muchas (Potochnik 2021). La biología también se ha utilizado para motivar explicaciones mecanicistas[45]. Los mecanismos son “entidades y actividades organizadas de manera que produzcan cambios regulares desde el inicio o el establecimiento hasta las condiciones finales o de terminación[46]”. Explicar citando un mecanismo proporciona, por tanto, información tanto causal como organizativa. Se puede dar una explicación mecanicista en biología para los compuestos orgánicos creados a través de la fotosíntesis. Este estilo de explicación citaría la presencia inicial de dióxido de carbono y luz solar, luego detallaría las sucesivas reacciones entre los compuestos químicos que eventualmente terminan en compuestos orgánicos y, como subproducto, oxígeno. Un debate significativo rodea la cuestión de cuán ampliamente se debe emplear esta concepción de la explicación, por ejemplo, si la selección natural debe considerarse un mecanismo[47]. Otros desacuerdos se refieren al alcance y propósitos adecuados de las explicaciones biológicas. Algunos argumentan que muchas o todas las explicaciones biológicas pronto serán reemplazadas por explicaciones presentadas por la biología molecular; esta es una forma de reduccionismo explicativo. En gran parte, este argumento y su refutación se han centrado en si las explicaciones que presentan la genética molecular reemplazarán por completo a la genética clásica[48]. Uno de los principales argumentos empleados en defensa del valor explicativo de la genética clásica es que las explicaciones que proporciona son generales de la manera correcta para ser máximamente explicativas[49]. Se sugiere un término medio, según el cual algunas explicaciones se benefician de la generalidad —explican agrupando todos los fenómenos similares— mientras que otras explicaciones están diseñadas para ser altamente específicas —explican mostrando qué provocó exactamente el fenómeno específico, en este caso particular, esta distinción entre explicaciones generalmente aplicables y aquellas que rastrean el proceso exacto que provocó un caso particular de un fenómeno evoca otra distinción que se ha hecho en la literatura filosófica sobre explicación. Algunos filósofos distinguen las explicaciones de cómo-posiblemente de las explicaciones de cómo-realmente[50]. Como sugiere la terminología, una explicación de cómo-en realidad rastrea el proceso causal real que provocó un fenómeno, mientras que una explicación de cómo-posiblemente esboza un proceso que podría haber provocado (pero de hecho no lo ha hecho) un fenómeno. La explicación de cuán posible es una forma de concebir el papel de las explicaciones que involucran afirmaciones que no están completamente respaldadas por evidencia[51]. En resumen, parece que algunos patrones de explicación en biología corroboran una comprensión causal de la explicación, mientras que otros patrones de explicación sugieren que los mecanismos, cuando existen, son explicativos. Además, aunque la idea filosófica tradicional de que todas las explicaciones citan leyes de la naturaleza se ve socavada por la biología, algunas explicaciones biológicas corroboran la idea de que citar patrones generales similares a leyes es realmente explicativo. Sin embargo, esto es más complicado para el grado en que las explicaciones biológicas varían en su descripción de un patrón compartido por muchos fenómenos frente a los detalles específicos de un solo fenómeno y, en relación con esto, qué tan cerca se supone que una explicación refleja la realidad real. 


Esta variedad de explicaciones sugiere que no es una cuestión simple encontrar un principio único subyacente a todas las explicaciones que caen dentro del ámbito de la biología (y mucho menos todas las explicaciones en toda la ciencia). Esto introduce la cuestión de cómo conciliar los diferentes puntos que se han planteado sobre la explicación biológica, si es que deben conciliarse. Hay al menos dos tipos de respuestas que uno podría tener a esta pregunta. Una respuesta es simplemente reconocer que una amplia gama de estilos explicativos está presente en biología y luego centrarse en caracterizar con precisión esa gama de estilos y las relaciones entre ellos. Este sería un enfoque pluralista de la explicación científica, ya que no intentaría reconciliar puntos divergentes acerca de la explicación en biología. El resultado final sería un catálogo de diferentes enfoques de la explicación, con la esperanza de que los enfoques descritos juntos capturen toda la práctica explicativa[52]. La costumbre en filosofía es considerar este tipo de pluralismo como una posición de último recurso. Debería evitarse simplemente declarar que hay varios enfoques sin ton ni son que gobiernen la selección entre ellos hasta que se hayan agotado todas las vías para descubrir principios comunes. La alternativa es tratar de acomodar la variedad de prácticas explicativas que se encuentran en la biología, características capturadas actualmente por diferentes versiones de la explicación científica. Esto puede sentar las bases para una explicación unitaria de la explicación biológica, a pesar de la aparente diversidad. De hecho, se han realizado varios intentos de reconciliar diferentes percepciones en la explicación. Kitcher presenta el discurso de unificación como una visión sucesora del relato DN[53], cuya base se supone que está en las propias observaciones de Hempel. Strevens  articula una explicación que asimila las ideas de un enfoque causal de la explicación y un enfoque unificador[54]. Una explicación cita información causal en un nivel de descripción suficientemente general, pero coherente. Existe una variedad de puntos de vista sobre la relación entre explicación mecanicista y explicación causal; Skipper y Millstein las ven como opciones en competencia[55], mientras que Craver sugiere el enfoque mecanicista como una forma de dar sentido al papel explicativo de las relaciones causales[56].  Una comprensión causal de la explicación, en una versión u otra, parece haber ganado dominio en la filosofía de la ciencia, especialmente en la biología. Sin embargo, la investigación en biología demuestra ampliamente que la mayoría de los fenómenos biológicos son el resultado de procesos causales complejos, con muchos factores que se combinan e interactúan en cada paso del proceso. Esto hace impracticable un enfoque causal simple de la explicación, en el que para explicar simplemente cite todas las causas. También crea una oportunidad para completar un enfoque ampliamente causal de la explicación de una manera que se adapte a otras intuiciones sobre la explicación biológica.


Sugerimos adoptar una idea defendida por la narrativa de unificación, el relato causal de Strevens[57] y muchos otras disertaciones filosóficas de explicación. Ésta es la idea de que la generalidad beneficia a una explicación. Aunque las leyes propias de la naturaleza pueden ser pocas y espaciadas en biología, describir patrones causales, es decir, cómo ciertos tipos de causas tienden a producir ciertos tipos de efectos, dadas otras condiciones, es una forma más modesta de generar explicaciones que muestren los principios de la ley de comportamiento. Esto motiva explicaciones que ignoran algunos detalles para representar patrones causales amplios (Potochnik 2021). Un ejemplo de esta característica de la explicación es la diferencia entre las explicaciones del cambio evolutivo a corto y largo plazo. Un enfoque de modelado evolutivo denominado optimización o modelado de optimización da cuenta de la prevalencia de un rasgo en una población al mostrar cómo ese rasgo condujo a una ventaja selectiva (en el entorno en cuestión). Varios biólogos han demostrado que se puede esperar que este enfoque de modelado tenga éxito solo con un cambio evolutivo a largo plazo, es decir, durante un gran número de generaciones[58], mientras que se requiere un enfoque genético de poblaciones para el desarrollo generacional en el cambio evolutivo. Por lo tanto, se podría anticipar que, en virtud de los diferentes patrones causales involucrados en la evolución a corto y largo plazo, se justifican diferentes explicaciones. Se puede establecer un contraste similar entre explicaciones microevolutivas. La microevolución es el cambio evolutivo dentro de una población, mientras que la macroevolución es la evolución de especies. Sterelny sostiene que este es otro caso en el que diferentes tipos de fenómenos justifican diferentes tipos de explicaciones, explicaciones que varían en cuanto a su grado de generalidad[59]. En su opinión, si la macroevolución requiere un tipo distinto de explicación se reduce a si se debe a distintas influencias causales que actúan sobre las especies. 


Esta versión del pluralismo explicativo sugiere una vez más prestar atención al tipo de patrones causales encarnados por un fenómeno. Sin embargo, el punto que mencionamos antes introduce una complicación: muchos fenómenos biológicos son el resultado de procesos causales extremadamente complejos. Considere, por ejemplo, los procesos causales involucrados en producir los largos cuellos de las jirafas. Sin ningún orden en particular, estos incluyen, al menos, características del entorno de las jirafas ancestrales, incluida la presencia de materia foliar nutritiva en lo alto de los árboles altos; diversas influencias genéticas sobre la morfología de las jirafas; procesos de desarrollo, incluidos genes reguladores adicionales, implicados en el desarrollo del cuello de la jirafa; surgen ciertas mutaciones genéticas; competencia por los recursos de tal manera que las jirafas con mayor alcance disfrutaban de mayores tasas de supervivencia; y cambios en los procesos de desarrollo que resultan en cuellos más largos. Toda esta complejidad causal significa que diferentes explicaciones pueden enfocarse en diferentes patrones causales. Por ejemplo, puede haber una explicación del desarrollo del cuello de jirafa y una explicación diferente de la selección para cuellos de jirafa alargados. Qué patrón causal es explicativo y, por lo tanto, qué partes del proceso causal deben mencionarse, depende de lo que generalmente se podría llamar el contexto de explicación. Esto está determinado por los objetivos del programa de investigación para el que se genera la explicación. Recordemos desde arriba el debate sobre el reduccionismo, incluso si todas las explicaciones biológicas incluirán en última instancia la biología molecular. La visión actual es antirreduccionista, ya que sugiere que las explicaciones múltiples y diferentes seguirán siendo valiosas, en la medida en que cada una capture un patrón causal diferente[60]. Para resumir, intentamos integrar diferentes percepciones en la explicación argumentando que las explicaciones biológicas (1) brindan información causal, (2) de una manera que describe un patrón causal amplio que es (3) explicativo dados los objetivos particulares de la investigación en cuestión.  Este enfoque da cabida a gran parte de la diversidad de puntos de vista sobre las explicaciones biológicas que se examinan, pero los une en un solo punto de vista. También cuestiona o descuida algunas afirmaciones, como la idea de que algunas explicaciones se benefician al maximizar su especificidad[61], o la idea de que las explicaciones generalmente describen mecanismos. Finalmente, debemos enfatizar  que el debate en torno a los diferentes puntos de vista de la explicación científica y la explicación en biología no terminará muy pronto.


1.5.3.3 Explicación y práctica científica 


Examinamos la gama de estilos de explicación que se encuentran en biología y consideramos algunos enfoques para dar sentido a esa diversidad. Dejemos ahora a un lado las cuestiones relativas a cómo se formulan las explicaciones biológicas y centrémonos en cambio en cómo los objetivos de la explicación influyen en otras características de la práctica científica en biología. Esto demostrará cómo una comprensión precisa de la práctica explicativa en biología contribuye a la comprensión de otras características del campo. Nos centraremos principalmente en la biología evolutiva, pero también señalaremos puntos de contacto y resonancias con otras áreas de la biología. En la biología evolutiva contemporánea, los genes son importantes. Desde el descubrimiento del ADN hasta el Proyecto Genoma Humano[62] y, más recientemente, el proyecto Thousand Genome[63], la genética, y especialmente la genética molecular, ha recibido mucha atención tanto en la biología como en la sociedad en general. Y los genes son, por supuesto, absolutamente fundamentales para el proceso evolutivo. Aunque la herencia epigenética está bien documentada, la herencia genética sigue siendo fundamental para la mayoría de los procesos evolutivos. A pesar de todo esto, muchos modelos bien considerados de cambio evolutivo ignoran los genes por completo. Un buen ejemplo de esto es la teoría de juego evolutiva. Este enfoque de modelado es aplicable a la evolución a largo plazo de rasgos con aptitud dependiente de la frecuencia, es decir, cuando la aptitud de un rasgo fenotípico depende de los rasgos de otros en la población. Los diferentes fenotipos se representan como diferentes estrategias para jugar un juego, y su aptitud se representa como los "beneficios" de esas estrategias. La teoría de juegos evolutivos se utiliza para calcular el punto de equilibrio para la distribución de fenotipos que resultaría si la selección natural actuara sin obstáculos sobre la población; puede haber uno de esos equilibrios, múltiples o ninguno. Por ejemplo, el rasgo de comportamiento del murciélago vampiro de compartir el botín de caza con otros murciélagos vampiro se concibe como una estrategia, al igual que el comportamiento de no compartir. El primer rasgo tiene una recompensa mayor, un valor de aptitud física mayor, cuando otros murciélagos comparten la comida a cambio. Por tanto, se observa el altruismo recíproco en la forma de compartir la comida entre los murciélagos vampiros[64]. Un uso principal de los modelos en biología es proporcionar explicaciones. Los factores causales, incluidos algunos centrales, se descuidan cuando esos factores no forman parte del patrón causal focal de una explicación. Descuidar los factores causales hace que un modelo sea más general en el siguiente sentido. Un factor causal se representaría en un modelo al incluir una variable adicional o parámetro. Al omitir esa variable o parámetro, el modelo simplemente dice menos sobre el mundo; permanece mudo sobre ese factor, incluso si es un factor. Dicho de otra manera, el modelo se abstrae de cualquier factor causal que descuide; no representa nada con respecto al factor, ni su presencia, su valor ni su ausencia. Por ejemplo, un modelo genético poblacional que no emplea un parámetro para el tamaño efectivo de la población (N) es mudo sobre si y en qué grado la derivación es un factor causal significativo. Esto da como resultado un modelo que es más abstracto que si se hubiera representado el factor causal desatendido, y también más general, ya que el modelo se aplica a sistemas que varían con respecto al factor causal desatendido. Modelos de un fenómeno que representan solo un patrón causal aplicable, descuida otras influencias causales que a veces se simplifican hasta el punto de la irrealidad. Es decir, a veces se incluye una variable o parámetro ficticio en un modelo que nadie espera que represente el mundo con precisión. Este es el uso estratégico de las idealizaciones para ignorar las influencias causales. Esta es, entonces, una característica adicional de la biología que la práctica explicativa ayuda a comprender. Los objetivos de la explicación no son solo el uso continuado de modelos parciales simplificados, sino incluso modelos que son poco realistas en muchos aspectos. Una variedad de filósofos y biólogos han apelado a los objetivos de las explicaciones para dar cuenta del uso continuo de abstracciones e idealizaciones en los modelos. Levins (1966) introdujo la idea de que existen objetivos en competencia para los modelos —predicción, precisión y generalidad— y que cierta precisión y exactitud pueden intercambiarse por una ganancia compensatoria en generalidad[65]. Weisberg sostiene que tal compensación está justificada por el objetivo de utilizar modelos para dar explicaciones[66]. Godfrey-Smith denomina la forma resultante de hacer ciencia en la biología moderna: “ciencia basada en modelos[67]”. Finalmente, Wimsatt analiza el papel de las idealizaciones en particular[68]. Tenga en cuenta que, aunque generar explicaciones motiva la importancia continua de los modelos abstractos e idealizados, esto no garantiza que toda la biología funcione de esta manera. Aunque se puede sacrificar algo de precisión y exactitud al final de la construcción de un modelo general, puede haber situaciones en las que se justifiquen otras compensaciones. Por ejemplo, algunas explicaciones integran más factores causales que otras; un ejemplo son los modelos que integran tanto la teoría de juegos como la genética de poblaciones. Además, algunos modelos se utilizan para fines distintos a generar explicaciones de fenómenos del mundo real; esto es cierto para muchos modelos de genética de poblaciones teóricas. Por último, el modelado matemático puede no ser fundamental para todos los campos de la biología, por ejemplo, para la fisiología.


Dejando de lado las características de los modelos, otro aspecto de la práctica biológica que la práctica explicativa ayuda es el compromiso total de muchos biólogos con uno u otro enfoque metodológico, y los intensos desacuerdos que resultan. Los defensores o críticos de enfoques particulares son propensos a hacer afirmaciones radicales y cargadas de ideología. Se pueden encontrar muchas afirmaciones amplias similares en otras áreas de la biología. El hecho de que las diferencias de enfoque se interpreten con frecuencia como una cuestión de ideologías fundamentalmente opuestas sugiere que los diferentes programas de investigación son incompatibles en la medida en que están comprometidos con diferentes puntos de vista de la realidad biológica. Como hemos discutido aquí, los modelos emplean abstracciones e idealizaciones para enfocarse en características específicas de un fenómeno, a expensas de ignorar o tergiversar otras características. Por lo tanto, los diferentes enfoques de modelado pueden parecer incompatibles, ya que emplean diferentes parámetros/variables y supuestos opuestos. Sin embargo, ocurre exactamente lo contrario. Las limitaciones de tales modelos hacen que el uso de múltiples enfoques sea esencial. Por lo tanto, a pesar de la retórica cargada de ideología que a menudo emplean los biólogos, la pregunta que debemos hacernos acerca de los enfoques de modelado aparentemente competitivos no es qué fundamenta una visión del mundo más exitosa, sino qué método sirve mejor para los objetivos de investigación actuales[69]. Y los objetivos de la investigación están determinados en gran parte por objetivos explicativos, es decir, por qué fenómenos y patrones causales que los influyen son de interés principal[70] . 


Esto no tiene por qué ser el resultado de una cosmovisión; en este punto, los biólogos están de acuerdo en que las influencias no selectivas pueden moldear de manera crucial el proceso evolutivo. En cambio, el uso de la teoría de juegos evolutivos se defiende mejor sobre la base del objetivo de explicar la influencia de la selección en los fenómenos evolutivos. Aunque he argumentado que las posiciones ideológicas no suelen estar justificadas en biología, también sospechamos que la tendencia de los biólogos a adoptar tales posiciones ideológicas indica algo importante sobre los fenómenos biológicos. Preguntémonos: ¿qué permite interpretar las diferencias simples de enfoque explicativo como visiones del mundo completamente diferentes? El hecho de que existan defensores y oponentes tan arraigados de diferentes enfoques indica que una variedad de enfoques tienen algo de apoyo en el proceso evolutivo. En nuestra opinión, esto refleja los complejos procesos causales que operan en los fenómenos biológicos y la infinita variedad de formas en que los factores causales se combinan e interactúan. La explicación biológica debe acomodar la variedad de explicaciones que surgen de enfocarse en diferentes patrones causales. En términos más generales, los objetivos explicativos dan cuenta de la continua diversidad de enfoques en biología, así como las tendencias de los biólogos a adoptar uno o unos pocos enfoques como su principio rector/cosmovisión. Los objetivos explicativos también dan cuenta por qué lidiar con procesos causales extremadamente complejos a menudo no motiva modelos cada vez más complejos. Las explicaciones se enfocan en solo uno de los muchos patrones causales que gobiernan un fenómeno, y esto se logra mediante modelos que abstraen e idealizan lejos de otros factores causales para representar el patrón causal focal. A veces, el modelo resultante se simplifica hasta el punto de la irrealidad, pero aún puede hacer su trabajo de representar un patrón causal importante para la ocurrencia del fenómeno que se explica. 


En conclusión, enseñar acerca de la explicación biológica puede decirnos acerca de  la práctica explicativa en biología y cómo ha influido, y debería influir, en las narrativas  generales de explicación. También hemos explorado algunas características del campo de la biología que solo tienen sentido a la luz del objetivo de generar explicaciones y estrategias explicativas particulares. Por medio de todo esto, esperamos haber demostrado que los enfoques de la explicación biológica y el cómo influyen en la práctica científica son importantes para la educación en biología moderna. 


1.5.4 Modelos en la biología moderna


Otro movimiento que facilita el análisis explícito y crítico de la metodología es un enfoque de enseñanza sobre el papel de los modelos en biología y cómo ese papel varía entre subcampos y programas de investigación. Sugerimos anteriormente que no hay razón para suponer que las leyes son fundamentales para la biología. En contraste con las circunstancias relativas a las leyes, está claro que la construcción de modelos, ya sean matemáticos, físicos o informáticos, es un componente importante de muchos proyectos en biología: teoría de juegos evolutivos y modelos genéticos de poblaciones, modelos depredador-presa, modelos de abundancia de especies, organismos modelo, modelos basados ??en agentes; y la lista podría prolongarse mucho más. Abordar explícitamente el papel de los modelos en biología debería implicar, al menos, considerar los propósitos a los que se destinan los modelos y cómo esos propósitos y las características de los modelos varían entre los diferentes subcampos y programas de investigación. Puede que haya o no mucho que sea común entre los modelos matemáticos, los modelos físicos y las simulaciones por computadora. Otro énfasis principal debería ser la mecánica de la abstracción y la idealización, y los propósitos a los que se destinan. La importancia continua de los modelos simplificados de complejos  fenómenos se debe, al menos en parte, a los objetivos de las explicaciones biológicas. Por tanto, una investigación del papel metodológico prominente de los modelos requerirá tanto más investigaciones sobre el papel de la explicación en biología.


El énfasis en la educación en biología sobre cómo surgen las diferencias metodológicas en el campo de la biología ayudaría a la próxima generación de biólogos a evitar tales argumentos sobre la primacía de uno u otro enfoque, volviendo a centrar la atención en el desarrollo cuidadoso y la crítica de la metodología en lugar de posiciones ideológicas. Sugerimos la idea de que debería evitarse una imagen monolítica de explicación basada en leyes (Sugerencia 1), sustituyendo en su lugar un análisis crítico de la gama de formas comunes de explicación en biología (Sugerencia 2). Ese análisis debe resistir la tentación de simplificar la diversidad de enfoques de las explicaciones o de minimizar las diferencias o aparentes incompatibilidades (sugerencia 3). La atención cuidadosa a las características de las explicaciones biológicas se beneficia y refuerza la consideración del papel de los modelos en biología y su relación con las explicaciones (Sugerencia 4). Todo esto arma al estudiante de biología para interpretar los debates entre biólogos con la mirada puesta en la diversidad de proyectos y la diversidad de métodos que los motivan (Sugerencia 5). Una consecuencia de la implementación de estos componentes en la educación en biología es la lección de que una pluralidad de métodos en biología está aquí para quedarse.


1.6 Diseño experimental


1.6.1 El arte de la experimentación


Una de las primeras preguntas a las que se enfrenta un experimentador es: "¿Cuántas observaciones debo realizar?" o, alternativamente, "Dado mi presupuesto limitado, ¿cómo puedo obtener la mayor cantidad de información posible?" Estas no son preguntas que puedan responderse en un par de frases. Sin embargo, son preguntas fundamentales para lo formación de experiencia en los estudiantes universitarios. Como primer paso para obtener una respuesta, el experimentador debe hacer más preguntas, como "¿Cuál es el objetivo principal de realizar este experimento?" y "¿Qué esperamos poder mostrar?" Normalmente, un experimento se puede ejecutar por uno o más de los siguientes motivos:


(i) para determinar las principales causas de variación en una respuesta medida,

(ii) encontrar las condiciones que dan lugar a una respuesta máxima o mínima,

(iii) comparar las respuestas logradas en diferentes escenarios de variables controlables,

(iv) obtener un modelo matemático para predecir respuestas futuras.


Las observaciones pueden obtenerse tanto de estudios de observación como de experimentos, pero solo un experimento permite sacar conclusiones sobre causa y efecto. Por ejemplo, considere la siguiente situación: La producción de cada máquina en una fábrica es monitoreada constantemente por cualquier empresa de fabricación exitosa. Suponga que en una fábrica en particular, la producción de una máquina en particular es consistentemente de baja calidad. ¿Qué deben hacer los gerentes? Podrían concluir que la máquina necesita ser reemplazada y pagar una gran suma de dinero por una nueva. Podrían decidir que el operador de la máquina tiene la culpa y despedirlo. Podrían concluir que la humedad en esa parte de la fábrica es demasiado alta e instalar un nuevo sistema de aire acondicionado. En otras palabras, el rendimiento de la máquina se ha observado en las condiciones de funcionamiento actuales (un estudio observacional), y aunque ha sido muy eficaz para mostrar a la dirección que existe un problema, les ha dado muy poca idea sobre la causa de la mala calidad. En realidad, sería una cuestión sencilla determinar o descartar algunas de las posibles causas. Por ejemplo, la pregunta sobre el operador podría responderse moviendo a todos los operadores de una máquina a otra durante varios días. Si la salida deficiente sigue al operador, entonces es seguro concluir que el operador es la causa. Si la producción deficiente permanece en la máquina original, entonces el operador es inocente y la máquina en sí o la humedad de fábrica es la causa más probable de la mala calidad.


Este es un "experimento". El experimentador tiene control sobre una posible causa en la diferencia en la calidad de salida entre máquinas. Si se descarta esta causa en particular, entonces el experimentador puede comenzar a variar otros factores como la humedad o la configuración de la máquina. Es más eficiente examinar todas las posibles causas de variación simultáneamente en lugar de una a la vez. Por lo general, se necesitan menos observaciones y se obtiene más información sobre el sistema que se investiga. Este estudio simultáneo se conoce como "experimento factorial". En las primeras etapas de un proyecto, se elabora una lista de todos los factores que posiblemente podrían tener un efecto importante en la respuesta de interés. Esto puede producir un gran número de factores a estudiar, en cuyo caso se necesitan técnicas especiales para obtener la mayor cantidad de información posible examinando solo un subconjunto de posibles configuraciones de factores.


El arte de diseñar un experimento y el arte de analizar un experimento están estrechamente entrelazados y deben estudiarse uno al lado del otro. Al diseñar un experimento, se debe tener en cuenta el análisis que se realizará. A su vez, la eficiencia del análisis dependerá del diseño experimental particular que se utilice para recopilar los datos. Sin estas consideraciones, es posible invertir mucho tiempo, esfuerzo y gastos en la recopilación de datos que parecen relevantes para el propósito en cuestión pero que, de hecho, contribuyen poco a las preguntas de investigación que se plantean. Un principio rector del diseño experimental es "mantenerlo simple". La interpretación y presentación de los resultados de los experimentos son generalmente más claras para los experimentos más simples. Tres técnicas básicas fundamentales para el diseño experimental son la replicación, el bloqueo y la aleatorización. Los dos primeros ayudan a incrementar la precisión en el experimento; el último se utiliza para disminuir el sesgo. 


1.6.2  Replicación


La replicación es la repetición de las condiciones experimentales para que los efectos de interés se puedan estimar con mayor precisión y se pueda estimar la variabilidad asociada. Existe una diferencia entre "replicación" y "mediciones repetidas". Por ejemplo, suponga que se asignan cuatro sujetos a cada uno un fármaco y se toma una medición en cada sujeto. El resultado son cuatro observaciones independientes sobre la droga. Esto es "replicación". Por otro lado, si a un sujeto se le asigna un fármaco y luego se mide cuatro veces, las mediciones no son independientes. Las llamamos "mediciones repetidas". La variación registrada en las mediciones repetidas tomadas al mismo tiempo refleja la variación en el proceso de medición, mientras que la variación registrada en las mediciones repetidas tomadas durante un intervalo de tiempo refleja la variación en la respuesta del sujeto individual al fármaco a lo largo del tiempo. Tampoco refleja la variación en las respuestas de sujetos independientes a la droga. Necesitamos conocer la última variación para generalizar cualquier conclusión sobre el fármaco de modo que sea relevante para todos los sujetos similares.


1.6.3 Bloqueo


Un experimento diseñado implica la aplicación de tratamientos a unidades experimentales para evaluar los efectos de los tratamientos en alguna respuesta. Las "unidades experimentales", que pueden ser sujetos, materiales, condiciones, puntos en el tiempo o alguna combinación de estos, serán variables e inducirán variación en la respuesta, también llamados conceptos operativos. Esta variación en las unidades experimentales puede ser intencionada, ya que las condiciones experimentales en las que se realiza un experimento deben ser representativas de aquellas a las que se aplicarán las conclusiones del experimento. Para que las inferencias sean de amplio alcance, las condiciones experimentales deben variarse adecuadamente. El bloqueo es una técnica que a menudo se puede utilizar para controlar y ajustar algunas de las variaciones en las unidades experimentales.


Bloquear un experimento es dividir, las unidades experimentales en grupos llamados bloques de tal manera que las unidades experimentales en cada bloque estén destinadas a ser relativamente similares, de modo que los tratamientos asignados a las unidades experimentales en el mismo bloque puedan compararse en condiciones experimentales relativamente similares. Si el bloqueo se realiza bien, las comparaciones de dos o más tratamientos se realizan con mayor precisión en el experimento que las comparaciones similares de un diseño no bloqueado. Por ejemplo, en un experimento para comparar los efectos de dos pomadas para la piel para el sarpullido, los dos tratamientos se pueden comparar con más precisión en dos brazos de la misma persona que en los brazos de dos personas diferentes. Cualquiera de las circunstancias se puede replicar, idealmente utilizando sujetos muestreados aleatoriamente o al menos representativos de la población de interés.


1.6.4 Aleatorización


El propósito de la aleatorización es evitar que el experimentador introduzca sesgos sistemáticos y personales en el experimento. Una asignación aleatoria de sujetos o material experimental a los tratamientos antes del inicio del experimento asegura que las observaciones que se ven favorecidas o afectadas negativamente por fuentes desconocidas de variación sean observaciones “seleccionadas en la suerte del sorteo” y no seleccionadas sistemáticamente.


La falta de una asignación aleatoria de material o sujetos experimentales deja el procedimiento experimental abierto al sesgo del experimentador. Por ejemplo, un horticultor puede asignar su variedad favorita de cultivo experimental a las partes del campo que parecen más fértiles, o un médico puede asignar su medicamento preferido a los pacientes con más probabilidades de responder bien. Entonces puede parecer que la variedad o fármaco preferido da mejores resultados, sin importar qué tan bueno o malo sea en realidad.


La falta de asignación aleatoria también puede dejar el procedimiento abierto a un sesgo sistemático. Considere, por ejemplo, un experimento que implica el tiempo de secado de tres pinturas aplicadas a secciones de una tabla de madera, donde cada pintura debe observarse cuatro veces. Si no se hace una asignación aleatoria del orden de observación, muchos experimentadores tomarían las cuatro observaciones en la pintura 1, seguidas de las de la pintura 2, seguidas de las de la pintura 3. Este orden podría ser perfectamente satisfactorio, pero también podría resultar ser desastroso.


Las observaciones tomadas a lo largo del tiempo podrían verse afectadas por diferencias en las condiciones atmosféricas, fatiga del experimentador, diferencias sistemáticas en las secciones del tablero de madera, etc. Todo esto podría conspirar para asegurar que cualquier medida tomada durante la última parte del experimento esté, por ejemplo, subregistrada. con el resultado de que la pintura 3 parece secarse más rápido que las otras pinturas cuando, de hecho, puede ser menos buena. El orden 1, 2, 3, 1, 2, 3, 1, 2, 3, 1, 2, 3 ayuda a resolver el problema, pero no lo elimina por completo (especialmente si el experimentador se toma un descanso después de cada tres observaciones). También hay razones analíticas para apoyar el uso de una asignación aleatoria. Se verá en los capítulos. 3 y 4 que las formas comunes de análisis de los datos dependen de las distribuciones F y t. Se puede demostrar que una asignación aleatoria asegura que estas distribuciones sean las correctas para usar. 


Para comprender el significado de la aleatorización, considere un experimento para comparar los efectos sobre la presión arterial de tres programas de ejercicio, donde cada programa se observa cuatro veces, dando un total de 12 observaciones. Ahora, dadas 12 asignaturas, imagina hacer una lista de todas las asignaciones posibles de las 12 asignaturas a los tres programas de ejercicios de modo que se asignen 4 asignaturas a cada programa. (Hay 12! / (4! 4! 4!), O 34,650 formas de hacer esto.) Si la asignación de asignaturas a los programas se realiza de tal manera que todas las asignaciones posibles tienen la misma probabilidad de ocurrir, entonces la asignación se dice que es  completamente aleatoria.  Por supuesto, es posible que una asignación aleatoria en sí misma pueda llevar al orden 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3. Si el experimentador desea expresamente evitar ciertas asignaciones, entonces se debe utilizar un tipo de diseño diferente. Un experimentador no debería mirar la asignación resultante, decidir que no parece muy aleatoria y cambiarla.


Sin la ayuda de un dispositivo objetivo de aleatorización, un experimentador no puede realizar una asignación aleatoria. De hecho, ni siquiera es posible seleccionar un solo número al azar. Esto se confirma en un estudio realizado en la Universidad de Delaware e informado por el profesor Hoerl en Royal Statistical Society[71]. El estudio, que se llevó a cabo durante varios años, pidió a los estudiantes que eligieran un número al azar entre 0 y 9. Los números 3 y 7 fueron seleccionados por aproximadamente el 40% de los estudiantes. Esto es el doble de lo que se esperaría si los números fueran realmente seleccionados al azar.


El mecanismo objetivo utilizado con más frecuencia para lograr una asignación aleatoria en el diseño experimental es un generador de números aleatorios. Un generador de números aleatorios es un programa de computadora que da como salida una cadena muy larga de dígitos que son números enteros entre 0 y 9 inclusive y que tienen las siguientes propiedades. Todos los números enteros entre 0 y 9 ocurren aproximadamente el mismo número de veces, al igual que todos los pares de números enteros, todos los triples, etc. Además, no hay un patrón discernible en la cadena de dígitos y de ahí el nombre de números "aleatorios".


Los números aleatorios son parte de una cadena de dígitos producidos por un generador de números aleatorios (en una computadora). Muchos experimentadores y consultores estadísticos tendrán acceso directo a su propio generador de números aleatorios en una computadora o calculadora y no necesitarán usar la tabla de números aleatorios. Para usar la tabla, se debe encontrar un lugar de inicio aleatorio. Un experimentador que siempre comienza a leer la tabla en el mismo lugar siempre tiene el mismo conjunto de dígitos, y estos no pueden considerarse aleatorios. La agrupación de los dígitos por seis filas y columnas permite obtener un punto de partida aleatorio utilizando cinco tiradas de un dado justo. 


Los generadores de números aleatorios más comunes en computadoras o calculadoras generan números reales de n dígitos entre cero y uno. Los números aleatorios de un solo dígito se pueden obtener a partir de un número real de n dígitos leyendo el primer dígito después del punto decimal. Se pueden obtener pares de dígitos leyendo los dos primeros dígitos después del punto decimal, y así sucesivamente. 


1.6.5 Análisis: principios y técnicas básicas


En el análisis de datos, es deseable proporcionar análisis gráficos y estadísticos. Los gráficos que ilustran las respuestas relativas de las configuraciones de los factores en estudio permiten al experimentador hacerse una idea de las implicaciones prácticas de los resultados estadísticos y comunicar eficazmente los resultados del experimento a otros. Además, las gráficas de datos permiten verificar el modelo propuesto y ayudan en la identificación de observaciones inusuales. El análisis estadístico cuantifica las respuestas relativas de los factores, aclarando así las conclusiones que pueden ser engañosas o no ser evidentes en los gráficos de los datos. El propósito de un experimento puede variar desde exploratorio (descubrir nuevas fuentes importantes de variabilidad) hasta confirmatorio (confirmar que las fuentes de variabilidad descubiertas previamente son lo suficientemente importantes como para justificar un estudio más a fondo), y el análisis depende del propósito del experimento. En las primeras etapas de la experimentación, el análisis puede ser exploratorio, se trazarían y analizarían los datos de cualquier forma que ayude a identificar fuentes importantes de variación. En etapas posteriores de la experimentación, el análisis suele ser de naturaleza confirmatoria. Se postula un modelo matemático de la respuesta y se prueban hipótesis y se calculan intervalos de confianza. Se pueden usar modelos lineales para modelar nuestra respuesta y el método de mínimos cuadrados para obtener estimaciones de los parámetros en el modelo. También utilizamos la estimación de máxima verosimilitud restringida de los parámetros. Nuestros modelos incluyen “variables de error” aleatorias que abarcan todas las fuentes de variabilidad que no están explícitamente presentes en el modelo. Operamos bajo el supuesto de que los términos de error se distribuyen normalmente. Sin embargo, la mayoría de estos procedimientos son generalmente bastante robustos a la no normalidad, siempre que no haya observaciones extremas entre los datos.


Hoy en día, es raro que los datos experimentales se analicen a mano. La mayoría de los experimentadores y estadísticos tienen acceso a un paquete informático que es capaz de producir, como mínimo, un análisis básico de datos para los experimentos más simples. En la medida de lo posible, para cada diseño discutido, presentaremos gráficos y métodos de análisis útiles que se pueden obtener de la mayoría de los paquetes de software estadístico.


También desarrollaremos muchas de las fórmulas matemáticas que se encuentran detrás del análisis por computadora. Esto permitirá al lector apreciar e interpretar más fácilmente la salida del paquete informático estadístico y los manuales asociados. Los paquetes de computadora varían en sofisticación, flexibilidad y el conocimiento estadístico requerido por el usuario. El software SAS es uno de los mejores paquetes estadísticos comerciales para analizar datos experimentales. El software R es un software de línea de comandos para computación estadística y gráficos que está disponible gratuitamente en la web. Ambos paquetes pueden manejar todos los modelos y aunque requieren algún conocimiento de diseño experimental por parte del usuario, ninguno es difícil de aprender. Proporcionamos algunas declaraciones básicas de R y la salida resultante para ilustrar el análisis de datos.


Un lector que desee utilizar un paquete informático diferente puede ejecutar los análisis equivalentes en su propio paquete y comparar el resultado con los que se muestran. Es importante que cada usuario conozca exactamente las capacidades de su propio paquete y también el tamaño probable de los errores de redondeo. No es nuestra intención enseñar el mejor uso del software R, los lectores pueden encontrar mejores formas de lograr los mismos análisis. R es un entorno de software libre para gráficos y computación estadística. 


Aunque planificar un experimento es un proceso apasionante, lleva mucho tiempo. Esto crea la tentación de comenzar a recopilar datos sin pensar lo suficiente en el diseño experimental. Rara vez este enfoque producirá datos que se hayan recopilado exactamente de la manera correcta y en cantidad suficiente para permitir un buen análisis con la precisión requerida. Este capítulo ofrece una guía paso a paso para el proceso de planificación experimental. Los pasos se analizan e ilustran mediante experimentos. Algunos diseños experimentales estándar se describen brevemente.


1.6.6 Una lista de verificación para la planificación de experimentos


Los pasos de la siguiente lista de verificación resumen una gran cantidad de decisiones que deben tomarse en cada etapa del proceso de planificación experimental. Los pasos no son independientes y, en cualquier etapa, puede ser necesario volver atrás y revisar algunas de las decisiones tomadas en una etapa anterior.


Lista de Verificación


(a) Defina los objetivos del experimento.

(b) Identifique todas las fuentes de variación, incluyendo:

(i) factores de tratamiento y sus niveles,

(ii) unidades experimentales,

(iii) factores de bloqueo, factores de ruido y covariables.

(c) Elija una regla para asignar las unidades experimentales a los tratamientos.

(d) Especifique las mediciones a realizar, el procedimiento experimental y las dificultades anticipadas.

(e) Ejecute un experimento piloto.

(f) Especifique el modelo.

(g) Resuma el análisis.

(h) Calcule el número de observaciones que deben realizarse.

(i) Revise las decisiones anteriores. Revise, si es necesario.


A continuación se ofrece una breve descripción de las decisiones que deben tomarse en cada etapa de la lista de verificación. Solo después de que se hayan tomado todas estas decisiones se deben recopilar los datos.


(a) Defina los objetivos del experimento.


Se debe hacer una lista de las preguntas precisas que se abordarán en el experimento. Es esta lista la que ayuda a determinar las decisiones necesarias en las etapas posteriores de la lista de verificación. Es aconsejable enumerar solo las preguntas esenciales, ya que los aspectos secundarios complicarán innecesariamente el experimento, aumentando tanto el costo como la probabilidad de errores. Por otro lado, las preguntas que se omiten inadvertidamente pueden ser incontestables a partir de los datos. Al compilar la lista de objetivos, a menudo puede ser útil esbozar las conclusiones esperadas del análisis de los datos. Es posible que sea necesario perfeccionar los objetivos a medida que se completen los pasos restantes de la lista de verificación.


(b) Identifique todas las fuentes de variación.


Una fuente de variación es cualquier cosa que pueda hacer que una observación tenga un valor numérico diferente de otra observación. Algunas fuentes de variación son menores y producen solo pequeñas diferencias en los datos. Otras son importantes y deben planificarse en el experimento. Es una buena práctica hacer una lista de todas las fuentes concebibles de variación y luego etiquetar cada una como mayor o menor. Las principales fuentes de variación se pueden dividir en dos tipos: las que son de particular interés para el experimentador, llamados "factores de tratamiento", y los que no son de interés, llamados "factores molestos".


(i) Factores de tratamiento y sus niveles.


Aunque el término factor de tratamiento podría sugerir un fármaco en un experimento médico, se utiliza para referirse a cualquier sustancia o elemento cuyo efecto sobre los datos se vaya a estudiar. En esta etapa de la lista de verificación, se deben seleccionar los factores de tratamiento y sus niveles. Los niveles son los tipos o cantidades específicos del factor de tratamiento que se utilizará realmente en el experimento. Por ejemplo, un factor de tratamiento podría ser un fármaco o un aditivo químico o la temperatura o método de enseñanza, etc. Los niveles de dichos factores de tratamiento podrían ser las diferentes cantidades del fármaco que se estudiará, los diferentes tipos de aditivos químicos que se considerarán, seleccionar ajustes de temperatura en el rango de interés, diferentes métodos de enseñanza a comparar, etc. Pocos experimentos involucran más de cuatro niveles por factor de tratamiento. Si los niveles de un factor de tratamiento son cuantitativos (es decir, se pueden medir), generalmente se eligen para que estén igualmente espaciados. Se necesitan dos niveles para modelar una tendencia lineal, tres niveles para una tendencia cuadrática, y así sucesivamente. Si la respuesta o logaritmo debe estar bien modelada por una función bastante simple del logaritmo del nivel del factor, entonces se puede elegir que los niveles del factor estén igualmente espaciados en una escala logarítmica. Por conveniencia, se pueden codificar los niveles de los factores de tratamiento. Por ejemplo, niveles de temperatura 60, 70, 80º,... podría codificarse como 1, 2, 3,... en el plan del experimento, o como 0, 1, 2 ,... Con la última codificación, el nivel 0 no significa necesariamente la ausencia del factor de tratamiento. Es simplemente una etiqueta. Siempre que el experimentador mantenga un registro claro de la elección original de niveles, no se pierde información al trabajar con los códigos. Cuando un experimento involucra más de un factor de tratamiento, cada observación es una medida en alguna combinación de niveles de los diversos factores de tratamiento. Por ejemplo, si hay dos factores de tratamiento, la temperatura y la presión, siempre que se tome una observación a una determinada presión, necesariamente debe tomarse a alguna temperatura, y viceversa. Suponga que hay cuatro niveles de temperatura codificados 1, 2, 3, 4 y tres niveles de presión codificados 1, 2, 3. Luego hay doce combinaciones de niveles codificados 11, 12,..., 43, donde el primer dígito de cada par se refiere al nivel de temperatura y el segundo dígito al nivel de presión. Los factores de tratamiento a menudo se denominan F1, F2, F3,... o A, B, C,... Las combinaciones de sus niveles se denominan combinaciones de tratamientos y un experimento que involucra dos o más factores de tratamiento se denomina experimento factorial. Usaremos el término tratamiento para referirnos al nivel de un factor de tratamiento en un experimento de un solo factor, o para referirnos a una combinación de tratamiento en un experimento factorial.


(ii) Unidades experimentales.


Las unidades experimentales son el "material" al que se aplican los niveles de los factores de tratamiento. Por ejemplo, en la agricultura serían parcelas de tierra individuales, en medicina serían sujetos humanos o animales, en la industria podrían ser lotes de materia prima, trabajadores de fábricas, etc. Si un experimento tiene que realizarse durante un período de tiempo, si las observaciones se recopilan de forma secuencial, las horas del día también pueden considerarse unidades experimentales. Las unidades experimentales deben ser representativas del material y las condiciones a las que se aplicarán las conclusiones del experimento. Por ejemplo, las conclusiones de un experimento que utiliza a estudiantes universitarios como unidades experimentales pueden no aplicarse a todos los adultos del país. Los resultados de un experimento químico realizado en un laboratorio de 80ºC pueden no aplicarse en una fábrica de 60ºC. Por tanto, es importante considerar cuidadosamente el alcance del experimento al enumerar los objetivos en el paso (a). Es importante distinguir las unidades experimentales de las unidades de observación, es decir, lo que se mide para obtener observaciones. Por ejemplo, en un experimento que implica la alimentación de animales en un corral para evaluar los efectos de la dieta sobre el aumento de peso, puede ser que los corrales de animales alimentados juntos sean las unidades experimentales mientras que los animales individuales sean las unidades de observación. En la mayoría de los experimentos, las unidades experimentales y las unidades de observación son una y la misma. Sin embargo, cuando hay una distinción, es importante que el análisis de datos lo refleje. De lo contrario, tratar erróneamente las unidades de observación como unidades experimentales daría la impresión de que el experimento proporciona más datos o implicaciones de las que realmente están presentes.


(iii) Factores de bloqueo, factores de ruido y covariables.


Una parte importante del diseño de un experimento es permitir que los efectos de los factores molestos se distingan de los de los factores de tratamiento. Existen varias formas de abordar los factores molestos, según su naturaleza. Puede ser conveniente limitar el alcance del experimento y fijar el nivel del factor de molestia. Esta acción puede requerir una revisión de los objetivos enumerados en el paso (a) ya que las conclusiones del experimento no serán tan ampliamente aplicables. Alternativamente, puede ser posible mantener constante el nivel de un factor de molestia para un grupo de unidades experimentales, cambiarlo a un valor fijo diferente para un segundo grupo, cambiarlo nuevamente para un tercero, y así sucesivamente. Tal factor de molestia se denomina factor de bloqueo y se dice que las unidades experimentales medidas por debajo del mismo nivel del factor de bloqueo están en el mismo bloque. Por ejemplo, suponga que se esperaba que la temperatura tuviera un efecto sobre las observaciones en un experimento, pero no era en sí mismo un factor de interés. Todo el experimento podría realizarse a una sola temperatura, limitando así las conclusiones a esa temperatura en particular. Alternativamente, las unidades experimentales podrían dividirse en bloques y cada bloque de unidades se podría medir a una temperatura fija diferente. Incluso cuando no se mide la variación molesta, a menudo es posible dividir las unidades experimentales en bloques de unidades similares. Por ejemplo, las parcelas de tierra o las horas del día que están muy juntas tienen más probabilidades de ser similares que las que están muy separadas. Los sujetos con características similares tienen más probabilidades de responder de manera similar a un fármaco que los sujetos con características diferentes. Es más probable que las observaciones realizadas en la misma fábrica sean similares a las observaciones realizadas en diferentes fábricas. A veces, la variación molesta es una propiedad de las unidades experimentales y se puede medir antes de que se lleve a cabo el experimento (por ejemplo, la presión arterial de un paciente en un experimento médico, el coeficiente intelectual de un alumno en un experimento educativo, la acidez de una parcela de tierra en un experimento agrícola). Esta medida se denomina covariable y puede desempeñar un papel importante en el análisis. Alternativamente, las unidades experimentales se pueden agrupar en bloques, teniendo cada bloque un valor similar de la covariable. La covariable se consideraría entonces como un factor de bloqueo. Si el experimentador está interesado en la variabilidad de la respuesta a medida que varían las condiciones experimentales, los factores molestos se incluyen deliberadamente en el experimento y no se eliminan mediante el bloqueo. Estos factores molestos se denominan factores de ruido, y los experimentos que involucran factores de ruido forman el tema de un diseño robusto.


(d) Especifique las mediciones a realizar, el procedimiento experimental y las dificultades anticipadas.


Los datos (u observaciones) recopilados de un experimento son medidas de una variable de respuesta (por ejemplo, el rendimiento de un cultivo, el tiempo que tarda en ocurrir una reacción química, el rendimiento de una máquina). Deben especificarse las unidades en las que se realizarán las mediciones, que deben reflejar los objetivos del experimento. Por ejemplo, si el experimentador está interesado en detectar una diferencia de 0,5 gramos en la variable de respuesta que surge de dos tratamientos diferentes, no sería sensato tomar las medidas al gramo más cercano. Por otro lado, sería innecesario tomar medidas al 0.01 gramo más cercano. Las mediciones al 0,1 gramo más cercano serían lo suficientemente sensibles para detectar la diferencia requerida, si existe. Por lo general, existen dificultades imprevistas en la recopilación de datos, pero a menudo se pueden identificar tomando algunas medidas prácticas o ejecutando un experimento piloto (consulte el paso (e)). Enumerar las dificultades anticipadas ayuda a identificar las fuentes de variación requeridas por el paso (b) de la lista de verificación y también brinda la oportunidad de simplificar el procedimiento experimental antes de que comience el experimento.


Se deben enumerar instrucciones precisas sobre cómo se realizarán las mediciones. Esto podría incluir detalles de los instrumentos de medición que se utilizarán, el momento en que se realizarán las mediciones y la forma en que se registrarán las mediciones. Es importante que todos los involucrados en la ejecución del experimento sigan estas instrucciones exactamente. Es recomendable confeccionar una hoja de recogida de datos que indique el orden en que se van a realizar las observaciones y también las unidades de medida.


(e) Ejecute un experimento piloto.


Un experimento piloto es un mini experimento que involucra solo unas pocas observaciones. No se esperan necesariamente conclusiones de tal experimento. Se ejecuta para ayudar a completar la lista de verificación. Brinda la oportunidad de practicar la técnica experimental e identificar problemas insospechados en la recolección de datos. Si el experimento piloto es lo suficientemente grande, también puede ayudar en la elección de un modelo adecuado para el experimento principal. El error experimental observado en el experimento piloto puede ayudar en el cálculo del número de observaciones requeridas por el experimento principal (paso (h)). En esta etapa, se deben reevaluar los pasos (a) - (d) de la lista de verificación y realizar los cambios necesarios.


(f) Especifique el modelo.


El modelo debe indicar explícitamente la relación que se cree que existe entre la variable de respuesta y las principales fuentes de variación que se identificaron en el paso (b). Las técnicas utilizadas en el análisis de los datos experimentales dependerán de la forma del modelo. Por lo tanto, es importante que el modelo represente la relación verdadera con una precisión razonable. El tipo de modelo más común es el modelo lineal, que muestra el conjunto de variables de respuesta igual a una combinación lineal de términos que representan las principales fuentes de variación más un término de error que representa todas las fuentes menores de variación en conjunto. Un experimento piloto (paso (e)) puede ayudar a mostrar si los datos están razonablemente bien descritos por el modelo.


Hay dos tipos diferentes de tratamiento o factores de bloqueo que deben distinguirse, ya que conducen a análisis algo diferentes. Se dice que el efecto de un factor es un efecto fijo si los niveles del factor han sido seleccionados específicamente por el experimentador y si el experimentador está interesado en comparar los efectos sobre la variable de respuesta de estos niveles específicos. Este es el tipo de factor más común y es el tipo considerado en los primeros capítulos. El modelo que contiene solo factores de efectos fijos (además de las variables aleatorias de respuesta y error) se denomina modelo de efectos fijos.


De vez en cuando, sin embargo, un factor tiene un número extremadamente grande de niveles posibles, y los niveles incluidos en el experimento son una muestra aleatoria de la población de todos los niveles posibles. Se dice que el efecto de tal factor es un efecto aleatorio. Dado que los niveles no se eligen específicamente, el experimentador tiene poco interés en comparar los efectos sobre la variable de respuesta de los niveles particulares usados ??en el experimento. En cambio, es la variabilidad de la respuesta debida a toda la población de niveles lo que interesa. Los modelos en los que todos los factores son efectos aleatorios se denominan modelos de efectos aleatorios. Los modelos en los que algunos factores son efectos aleatorios y otros efectos fijos se denominan modelos mixtos. 


(g) Resuma el análisis.


El tipo de análisis que se realizará sobre los datos experimentales depende de los objetivos determinados en el paso (a), el diseño seleccionado en el paso (c) y su modelo asociado especificado en el paso (f).


Debe describirse todo el análisis (incluidas las hipótesis que se probarán y los intervalos de confianza que se calcularán). El análisis no solo determina los cálculos en el paso (h), sino que también verifica que el diseño sea adecuado para lograr los objetivos del experimento.


(h) Calcule el número de observaciones necesarias.


En esta etapa de la lista de verificación, se debe hacer un cálculo del número de observaciones que se necesitan para lograr los objetivos del experimento. Si se toman muy pocas observaciones, es posible que el experimento no sea concluyente. Si se toman demasiados, se gasta innecesariamente tiempo, energía y dinero. Las fórmulas para calcular el número de observaciones se tratan para el diseño completamente aleatorio, y en capítulos posteriores para diseños más complejos. Las fórmulas requieren un conocimiento del tamaño de la variabilidad experimental. Esta es la cantidad de variabilidad en los datos causada por las fuentes de variación designadas como menores en el paso (b) (¡más las fuentes que se olvidaron!). No es fácil estimar el tamaño del error experimental antes del experimento, y es aconsejable errar en el lado grande. Los métodos de estimación incluyen el cálculo del error experimental en un experimento piloto (paso (e)) y la experiencia previa de trabajar con experimentos similares.


(i) Revise las decisiones anteriores.


La revisión es necesaria cuando el número de observaciones calculado en el paso (h) excede el número que se puede tomar razonablemente dentro del tiempo o presupuesto disponible. La revisión debe comenzar en el paso (a), ya que el alcance del experimento por lo general tiene que reducirse. Si las revisiones no son necesarias, entonces puede comenzar la recopilación de datos.


Ahora debería ser obvio que una cantidad considerable de pensamiento debe preceder a la ejecución de un experimento. La recopilación de datos suele ser la parte más costosa y la que requiere más tiempo del procedimiento experimental. Dedicar un poco más de tiempo a la planificación ayuda a garantizar que los datos se puedan utilizar con la máxima ventaja. Ningún método de análisis puede salvar un experimento mal diseñado. Aunque es posible que el análisis de experimentos no necesite consultar a un estadístico, por lo general es útil hablar sobre la lista de verificación con alguien que no esté relacionado con el experimento. El paso (a) de la lista de verificación suele ser el más difícil de completar. La primera pregunta de un experto en estadística a un cliente suele ser: "Dígame exactamente por qué está ejecutando el experimento. ¿Exactamente qué quieres mostrar? " Si estas preguntas no se pueden responder, no es sensato que el experimentador se vaya, recopile algunos datos y se preocupe por ellos más tarde. De manera similar, es esencial que un estadístico consultor comprenda razonablemente bien no solo el propósito del experimento sino también la técnica experimental. No es útil decirle a un experimentador que ejecute un experimento piloto que consume la mayor parte del presupuesto. El experimentador debe dar instrucciones claras sobre el procedimiento experimental a todas las personas involucradas en la realización del experimento y en la recopilación de datos. También es necesario verificar que estas instrucciones se sigan exactamente como se prescriben.  Así, el científico prudente no solo debe ser cauteloso con las propiedades de los materiales, sino que debe ser consciente, sobre todo, del comportamiento humano. ¡Esto también se aplica a los experimentadores prudentes!  Desafortunadamente, no existen buenas fórmulas para resumir todo. ¡Tanto el experimentador como el  estadístico deben usar la lista de verificación y mucho sentido común!




[1] Peacock, Tone. (2009). Planets and Life–The Emerging Science of Astrobiology. Sullivan III, W.T., Baross, J.A. (Eds.), Price: £40.00 (US$75.00). ISBN: 9780521531023. Planetary and Space Science - PLANET SPACE SCI. 57. 107-108. 10.1016/j.pss.2008.11.001.

[2] Adams, Josephine & Engel, Jürgen. (2021). Manipulated Evolution and Artificial Life. 10.1007/978-3-030-59075-8_5.

[3] Mulkidjanian, Armen. (2011). On the origin of life in the zinc world: 1. Photosynthesizing, porous edifices built of hydrothermally precipitated zinc sulfide as cradles of life on earth.

[4] Llewellyn, Douglas & Wong, Sissy & Ortega, Irasema. (2015). The Controversy Over Pluto: Planet or Astronomic Oddball?. Science Scope. 39. 10.2505/4/ss15_039_01_18.

[5] Silva, Fernando & Duarte, Miguel & Correia, Luís & Oliveira, Sancho & Christensen, Anders. (2016). Open Issues in Evolutionary Robotics. Evolutionary Computation. 24. 1-32. 10.1162/EVCO_a_00172.

[6] LaBar, Thomas & Adami, Christoph. (2017). Genome size and the extinction of small populations. 10.1101/173690.

[7] Li, Jianhui. (2018). On the Possibility of Strong Artificial Life. Open Journal of Philosophy. 08. 495-505. 10.4236/ojpp.2018.85034.

[8] Dettloff, John. (2003). Trevor H. Levere, Transforming Matter: A History of Chemistry From Alchemy to the Buckyball. Metascience. 12. 89-91. 10.1023/A:1024487720964.

[9] Yeannes, M. & Ameztoy, Irene & Ramirez, Elida & Felix, Mónica. (2011). Culture alternative medium for the growth of extreme halophilic bacteria in fish products. Food Science and Technology (Campinas). 31. 561-566. 10.1590/S0101-20612011000300002.

[10] Kastner, David. (2019). Computational Modelling of Peptides Containing Non-Standard Amino Acids.

[11] Scheid, Patrick. (2015). Viruses in close associations with free-living amoebae. Parasitology research. 114. 10.1007/s00436-015-4731-5.

[12] Molldrem, Stephen & Hussain, Mustafa & Smith, Anthony. (2021). Open science, COVID-19, and the news: Exploring controversies in the circulation of early SARS-CoV-2 genomic epidemiology research. Global Public Health. 16. 1-14. 10.1080/17441692.2021.1896766.

[13] Dhuldhaj, Umesh & Yadav, Ishwar & Singh, Surendra & Sharma, Naveen. (2013). Microbial Interactions in the Arsenic Cycle: Adoptive Strategies and Applications in Environmental Management. Reviews of environmental contamination and toxicology. 224. 1-38. 10.1007/978-1-4614-5882-1_1.

[14] Ward, Peter & Brownlee, Donald. (2021). Rare Earth : why complex life is uncommon in the Universe / P.D. Ward, D. Bronwnlee..

[15] Cleland, C.E., and C.F. Chyba. 2007. Does ‘life’ have a defi nition? In Planets and life , ed. W.T. Sullivan and J.A. Baross, 119–131. Cambridge: Cambridge University Press (Reprinted in Bedau and Cleland, 2010, pp 326–339).

[16] Gurven, Michael. (2018). Review of Shefferson, Jones, and Salguero-Gómez (Eds.), The Evolution of Senescence in the Tree of Life: (Cambridge: Cambridge University Press, 2017). Human Nature. 29. 10.1007/s12110-018-9330-6.

[17] Klein, H.P. 1978. The Viking biological experiments on Mars. Icarus 34: 666–674.

[18] Cleland, C.E., and S.D. Copley. 2005. The possibility of alternative microbial life on earth. International Journal of Astrobiology 2: 165–173 (Reprinted in Bedau and Cleland, 2010, pp 198–209).

[19] Miller, Stanley. (1953). A Production of Amino Acids Under Possible Primitive Earth Conditions. Science (New York, N.Y.). 117. 528-9. 10.1126/science.117.3046.528.

[20] Hagan, William. (2000). A. Brack (ed.), The Molecular Origins of Life: Assembling Pieces of the Puzzle. Origins of Life and Evolution of Biospheres. 30. 501-501. 10.1023/A:1006643817198.

[21] Wächtershäuser, G. 1988. Before enzymes and templates: Theory of surface metabolism. Microbiological Reviews 52: 452–484.

[22] Dirri, Fabrizio & Palomba, Ernesto & Longobardo, Andrea & Zampetti, Emiliano. (2017). Measuring Enthalpy of Sublimation of Volatiles by Means of Piezoelectric Crystal Microbalances. Origins of Life and Evolution of Biospheres. 47. 10.1007/s11084-016-9517-y.

[23] Mariscal, Carlos & Barahona, Ana & Aubert-Kato, Nathanael & Aydinoglu, Arsev & Bartlett, Stuart & Cárdenas, María & Chandru, Kuhan & Cleland, Carol & Cocanougher, Benjamin & Comfort, Nathaniel & Cornish-Bowden, Athel & Deacon, Terrence & Froese, Tom & Giovannelli, Donato & Hernlund, John & Hut, Piet & Kimura, Jun & Maurel, Marie-Christine & Merino, Nancy & Cleaves, Henderson. (2019). Hidden Concepts in the History and Philosophy of Origins-of-Life Studies: a Workshop Report. Origins of Life and Evolution of Biospheres. 49. 10.1007/s11084-019-09580-x.

[24] Pace, Norman. (1997). A Molecular View of Microbial Diversity and the Biosphere. Science (New York, N.Y.). 276. 734-40. 10.1126/science.276.5313.734.

[25] Tambalo, Richard & Raymundo, Asuncion & Grunden, Amy. (2020). Thermostable endoglucanase gene derived by amplification from the genomic DNA of a cellulose-enriched mixed culture from mudspring water of Mt. Makiling, Laguna, Philippines. World Journal of Microbiology and Biotechnology. 36. 51. 10.1007/s11274-020-02825-2.

[26] identification and in situ detection of individual microbial cells without cultivation. Microbiological reviews. 59. 143-169. 10.1128/MR.59.1.143-169.1995.

[27] Amann, R & Ludwig, W & Schleifer, Karl. (1995). Phylogenetic identification and in situ detection of individual microbial cells without cultivation. Microbiological reviews. 59. 143-169. 10.1128/MR.59.1.143-169.1995.

[28] Butts, Robert. (2008). William Whewell: Philosopher of Science, and: William Whewell: A Composite Portrait (review). Journal of the History of Philosophy. 30. 621-623. 10.1353/hph.1992.0088.

[29] Charles Darwin, The Descent of Man, and Selection in Relation to Sex (1871), in From So Simple a Beginning: The Four Great Books of Charles Darwin, ed. Edward O. Wilson (New York: W. W. Norton, 1958), chaps. 3–5.

[30] Frederick Suppe, “The Search for Philosophic Understanding of Scientific Theories,” in The Structure of Scientific Theories, 2nd ed., ed. Frederick Suppe (Urbana: University of Illinois Press, 1977).

[31] Wool, David & Paz, Naomi & Friedman, Leonid. (2020). Darwin: The Descent of Man (1871). 10.1201/9781003023869-18.

[32] MacIntyre, Alasdair. (2007). After Virtue: A Study in Moral Theory.

[33] Halbig, Christoph. (2020). Virtue vs. virtue ethics. Zeitschrift für Ethik und Moralphilosophie. 3. 10.1007/s42048-020-00078-0.

[34] Douglas Adams, The Salmon of Doubt: Hitchhiking the Galaxy One Last Time (New York: Harmony, 2002), 99.

[35] Kinzebulatov, Damir. (2020). Regularity theory of Kolmogorov operator revisited. Canadian Mathematical Bulletin. 1-12. 10.4153/S0008439520000697

[36] Lack, Stephen & Tendas, Giacomo. (2019). Enriched regular theories. Journal of Pure and Applied Algebra. 224. 106268. 10.1016/j.jpaa.2019.106268.

[37] Berofsky, Bernard. (2012). The Regularity Theory I: Homean Supervenience. 10.1093/acprof:oso/9780199640010.003.0010.

[38] Hempel, C.G.. (2021). The theoretician's dilemma," in Aspects of Scientific Explanation.

[39] Salmon, Wesley. (1994). Four Decades of Scientific Explanation. University of Pittsburgh Press Digital Editions.

[40] Kennedy, Ashley. (2010). Models and Scientific Explanation.

[41] Baravalle, Lorenzo & Zaterka, Luciana. (2020). Life and Evolution Latin American Essays on the History and Philosophy of Biology: Latin American Essays on the History and Philosophy of Biology. 10.1007/978-3-030-39589-6.

[42] Potochnik, Angela. (2018). Eight Other Questions about Explanation

[43] Brunet, Tyler. (2021). Local Causation. Synthese. 10.1007/s11229-021-03272-8.

[44] Goss-Custard, J.D. 1977. Predator responses and prey mortality in redshank, Tringatotanus (L.),

and a preferred prey, Corophiumvolutator (Pallas). Journal of Animal Ecology 46: 21–36.

[45] Machamer, Peter & Darden, Lindley & Craver, Carl. (2000). Thinking About Mechanisms. Philosophy of Science. 67. 10.1086/392759 https://www.researchgate.net/publication/240548010_Thinking_About_Mechanisms

[46] Bechtel, William & Bollhagen, Andrew. (2021). Active Biological Mechanisms: Transforming Energy into Motion in Molecular Motors. Synthese. 10.1007/s11229-021-03350-x. https://link.springer.com/article/10.1007/s11229-021-03350-x

[47] Esser, Stephen. (2018). Explaining Stability And Change In Natural Systems.

[48] Huettemann, Andreas & Love, Alan. (2011). Aspects of Reductive Explanation in Biological Science: Intrinsicality, Fundamentality, and Temporality. British Journal for the Philosophy of Science. 62. 519-549. 10.1093/bjps/axr006.

[49] Mulnix, Jennifer. (2011). Explanatory unification and scientific understanding. Acta Philosophica. 20. 383-40

[50] Brunson, Daniel. (2021). Pragmatism’s Evolution: Organism and Environment in American Philosophy. History: Reviews of New Books. 49. 92-94. 10.1080/03612759.2021.1935799.

[51] Lehtinen, Aki. (2016). Allocating confirmation with derivational robustness. Philosophical Studies. 173. 10.1007/s11098-016-0625-3.

[52] Brigandt, Ingo. (2016). Why the Difference Between Explanation and Argument Matters to Science Education. Science & Education. 25. 10.1007/s11191-016-9826-6.

[53] Knowles, Robert. (2021). Unification and mathematical explanation. Philosophical Studies. 1-21. 10.1007/s11098-021-01631-2.

[54] Strevens, Michael. (2011). Depth: An Account of Scientific Explanation. 10.2307/j.ctv1dv0tnw.

[55] Pérez-González, Saúl & Luque, Victor. (2019). Evolutionary causes as mechanisms: a critical analysis. History and Philosophy of the Life Sciences. 41. 10.1007/s40656-019-0250-5.

[56] Craver, Carl. (2007). The Mosaic Unity of Neuroscience. 10.1093/acprof:oso/9780199299317.003.0007.

[57] Lehtinen, Aki. (2021). The epistemic benefits of generalisation in modelling I: Systems and applicability. Synthese. 10.1007/s11229-021-03250-0.

[58] Hammerstein, Peter. (2005). Strategic analysis in evolutionary genetics and the theory of games. Journal of genetics. 84. 7-12. 10.1007/BF0271588

[59] Brown, Rachael. (2013). What Evolvability Really Is. The British Journal for the Philosophy of Science. 65. 549-572. 10.1093/bjps/axt014.

[60] Bursten, Julia. (2020). Surface Tension: Conceptual Challenges in Modeling Nanoscale Material Surfaces.

[61] Potochnik, Angela. (2021). Our World Isn't Organized into Level

[62] https://www.genome.gov/breve-historia-del-proyecto-del-genoma-humano

[63] Armstrong, Joel & Hickey, Glenn & Diekhans, Mark & Fiddes, Ian & Novak, Adam & Deran, Alden & Fang, Qi & Xie, Duo & Feng, Shaohong & Stiller, Josefin & Genereux, Diane & Johnson, Jeremy & Marinescu, Voichita & Alföldi, Jessica & Harris, Robert & Lindblad-Toh, Kerstin & Haussler, David & Karlsson, Elinor & Jarvis, Erich & Paten, Benedict. (2020). Progressive Cactus is a multiple-genome aligner for the thousand-genome era. Nature. 587. 246-251. 10.1038/s41586-020-2871-y.

[64] Crisp, Rachel & Brent, Lauren & Carter, Gerald. (2021). Social dominance and cooperation in female vampire bats. Royal Society Open Science. 8. 210266. 10.1098/rsos.210266.

[65] Holmes, Travis. (2021). Unifying statistically autonomous and mathematical explanations. Biology & Philosophy. 36. 10.1007/s10539-021-09808-z.

[66] Fields, Archie. (2021). Better models of the evolution of cooperation through situated cognition. Biology & Philosophy. 36. 10.1007/s10539-021-09813-2.

[67] Knuuttila, Tarja. (2021). Epistemic artifacts and the modal dimension of modeling. European Journal for Philosophy of Science. 11. 10.1007/s13194-021-00374-5.

[68] Andrews, Mel. (2021). The Math is not the Territory: Navigating the Free Energy Principle. Biology & Philosophy. 36. 10.1007/s10539-021-09807-0.

[69] Potochnik, Angela. (2020). What Constitutes an Explanation in Biology?.

[70] Suárez, Javier & Moreno, Álvaro. (2020). Plurality of Explanatory Strategies in Biology: Mechanisms and Networks. 10.1007/978-3-030-52500-2_8.

[71] Hoerl, A. E. (1988). The 3–7 phenomena. January issue: Royal Statistical Society News and Notes.