Capítulo 6. Un mundo sin experimentación animal

Durante los capítulos anteriores he definido diferentes tipos de experimentación animal y la evolución histórica de los movimientos en su contra. También nos hemos acercado a la cuestión desde la vertiente moral, técnica y legal, y aunque es posible que más o menos ya tengas una opinión propia, me gustaría hacer una pregunta: ¿por qué los científicos utilizan animales?

A lo largo de este libro he hablado de todos los beneficios que puede traer la experimentación animal, pero al mismo tiempo hay una realidad que no deberíamos ignorar: a los científicos tampoco les gusta sacrificar animales. De hecho, aún no he conocido a ningún investigador científico que haga experimentación animal y al mismo tiempo no sienta desasosiego por ese motivo, pero generalmente lo hacen porque entienden que es la única manera de avanzar hacia el futuro que quieren conseguir.

Por eso creo que sería interesante imaginar cómo sería nuestro mundo actual si no hubiéramos usado animales en los laboratorios, ya que si vamos a pensar en renunciar a una herramienta hay que saber exactamente qué estaríamos perdiendo.

En los diferentes puntos de este capítulo iré adentrándome en qué cosas nos ha traído la experimentación animal, y en el apartado de conclusiones utilizaremos todo ese conocimiento para entender cómo sería un mundo sin ella.

John Snow y la epidemiología

Si queremos imaginar cómo sería nuestro presente sin la experimentación animal habrá que viajar hasta el siglo XIX, ya que no existe ningún periodo mejor para entender cómo la ciencia ha cambiado nuestras vidas.

Por aquel entonces la medicina aún estaba en una etapa oscura donde las viejas teorías heredadas de la antigüedad clásica no habían evolucionado. Se creía que las enfermedades eran causadas por desequilibrios internos de cuatro tipos de fluidos, así que no era raro ver a médicos realizar sangrías a los pacientes para intentar curarles de casi cualquier cosa. Por otro lado, también existía la teoría miasmática de la enfermedad, heredada de los griegos y remodelada a lo largo de los siglos posteriores. Esta teoría proponía que las enfermedades se contagiaban y producían por vapores llamados miasmas, pero cuando llegó el siglo XIX una revolución estaba a punto de comenzar en el concepto de enfermedad, y uno de los episodios más importantes ocurrió en medio de una trama detectivesca en el barrio londinense del Soho.

Si os hablara de John Snow, un héroe que luchó contra un enemigo invencible, que tuvo que enfrentarse a los dogmas de su sociedad y que además nació de forma humilde pero que llegó a tener tratos con la realeza, seguramente pensaréis que sabéis de quien hablo, pero la realidad es que no me refiero al personaje de la novela de Canción de hielo y fuego, de George Martin y adaptada a la pequeña pantalla por la HBO como Juego de Tronos, sino a uno de los pioneros de la epidemiología.

John Snow nació en el año 1813. Para situaros en el contexto histórico, Napoleón Bonaparte peleaba contra medio mundo para conquistarlo y, al mismo tiempo, también nacería David Livingstone, una persona que ya desde joven encarnaría la idea del explorador ilustrado que marcaría el siglo XIX. Así pues, John Snow nació en un vecindario pobre y en una familia tremendamente humilde: su padre trabajó, entre otras cosas, en un almacén de carbón y como granjero.

El destino de Snow comenzó a forjarse cuando era un adolescente, ya que a la edad de 14 años fue mandado como aprendiz a la consulta de William Hardcastle, un cirujano. Por aquel entonces la teoría miasmática de la enfermedad era la más aceptada como origen de la enfermedad, pero también existía una corriente de pensamiento llamada contagiosnismo, que proponía que la enfermedad pasaba de un individuo a otro a través del contacto físico. Snow, en ese contexto histórico, comenzó a trabajar como ayudante de otro cirujano en una mina de carbón, y finalmente, en 1836 y a los 23 años, se inscribió en una escuela de medicina. Después de graduarse entró en diversas instituciones médicas de la época, pero pronto destacaría por ser uno de los pioneros de una moderna técnica médica: la anestesia.

Los primeros anestésicos utilizados en el contexto médico para dormir a los pacientes durante intervenciones quirúrgicas fueron el éter y el cloroformo. No obstante, a pesar de que ambos compuestos se utilizaban desde hacía décadas para anestesiar, era una técnica peligrosa porque no se conocían las dosis adecuadas. En esta dirección, John Snow utilizó la experimentación animal para controlar los procedimientos adecuados y las dosis, y además inventó lo que se conocería como la máscara Snow, que servía para administrar con seguridad el éter y el cloroformo a los pacientes.

A pesar de que la anestesia ha sido un gran avance para la medicina —la mayoría de cirugías serían imposibles sin ella—, en el siglo XIX a la gente no le inspiraba grandes pasiones la idea de ser desmayados a voluntad por un médico, con el inconveniente adicional de tener altas probabilidades de morir en el proceso. Pero eso comenzó a cambiar gracias a John Snow, que después de convertir el uso del éter y el cloroformo en algo bastante más seguro, administró personalmente la anestesia a la reina Victoria en el nacimiento del príncipe Leopoldo en 1853. Este hecho hizo que la gente aceptara el uso de la anestesia como algo bastante seguro y práctico. Pero si te estás preguntando si eso es lo más asombroso que hizo John Snow, la historia solo acaba de comenzar.

En 1854 estalló una epidemia de cólera en el barrio londinense del Soho, pero es importante recordar que en aquella época ni se sabía cómo se contagiaba  ni cómo detener a la temible enfermedad. El cólera se produce por la infección de la bacteria Vibrio cholerae, que produce una diarrea intensa que, si no es tratada adecuadamente, puede llevar a una deshidratación mortal.

En el siglo XIX, el cólera se convirtió en un problema de salud humana a nivel global, con una serie de pandemias que azotaron el mundo de punta a punta. Para que te hagas una idea, en 1817 comenzó en Calcuta la primera gran pandemia durante la peregrinación de la Kumbhamela. La festividad fue un hervidero de gente durante unos meses, y cuando todos volvieron a sus hogares diseminaron el cólera por toda la India. No se sabe cuántos indios murieron, pero solamente contando las bajas ocasionadas en el ejército colonial británico estaríamos hablando de 10 000, por lo que el número de indios muertos sería, fácilmente, de centenares de miles. Pero ahí no acabó la cosa; la enfermedad se diseminó por Rusia y China, y gracias a los trenes y los barcos la enfermedad fue viajando por todo el mundo hasta el año 1823, dejando millones de muertos a su paso.

Así que, cuando en 1854 John Snow se encontró enfrente de una epidemia de cólera en el barrio londinense del Soho, había una elevada preocupación, ya que el mundo estaba siendo azotado desde 1852 por la tercera gran pandemia de cólera, que estaba produciendo peores efectos que la de 1817.

Snow era muy escéptico sobre la teoría miasmática de la enfermedad y no creía que el cólera fuera producido por emanaciones fétidas de suelos y aguas impuras. Ahora bien, analizando los datos tampoco parecía que el contacto entre enfermos produjera la enfermedad, tal cual afirmaban los seguidores del contagiosnismo, pero aunque Snow no entendía el mecanismo de trasmisión de la enfermedad descartó ambas explicaciones y decidió investigar la pandemia al más puro estilo Sherlock Holmes.

Anteriormente a la enfermedad, nuestro médico ya había estado recopilando datos, así que basándose en el registro de muertos por cólera vio que el sur de Londres concentraba la gran mayoría de casos. De hecho, la tasa de mortalidad en esa zona era más de tres veces superior. Snow relacionó ese factor con el consumo de agua, ya que las zonas de mayor mortalidad cogían el agua de uso doméstico directamente de las partes más bajas y contaminadas del rio Támesis. En cambio, las zonas por donde el rio hacía su entrada en la ciudad tenían mucha menos tasa de mortalidad. Siguiendo esa pista Snow había desarrollado la teoría de que el cólera se transmitía a través del agua. Sin embargo, su idea fue muy criticada y la comunidad científica afirmaba que la teoría miasmática de la enfermedad era la correcta.

Con estos antecedentes, cuando en 1854 el Soho se vio acorralado por el cólera, John Snow decidió seguir la pista del agua. Como vecino del área afectada, Snow sabía que la mayoría de las personas utilizaban varias bombas situadas en el vecindario para obtener el agua que consumían en sus casas. Junto a su amigo Henry Whitehead, el párroco local, se hicieron a la calle para entrevistar a los vecinos y descubrir de dónde obtenían el agua, y pronto se dieron cuenta de que la mayoría de afectados de cólera la obtenían de la misma bomba situada en Broad Street.

Además había dos datos curiosos: en una fábrica de cerveza del vecindario no había ningún afectado, así como en un hostal. Al entrevistar a las personas de los establecimientos, resultó que los trabajadores de la fábrica solo bebían cerveza cuando estaban trabajando, y que el hostal tenía un suministro propio de agua ajeno a la bomba de Broad Street. Además, Snow logró demostrar que la mayoría de fallecidos fuera del vecindario habían consumido agua de esa bomba en los días previos a contraer la enfermedad.

Después de estas pruebas la autoridad sanitaria creyó la teoría de John Snow de que el cólera se diseminaba a través del agua, y finalmente clausuraron la bomba contaminada y la epidemia cesó.

John Snow identificó por primera vez y de forma correcta el modo de contagio del cólera, y a él se le considera el padre de la epidemiología moderna, es decir, del estudio científico del comportamiento de una enfermedad para intentar detenerla. Otros antes que él lo intentaron, pero no fue posible hasta la llegada de este médico y su amigo, el párroco local. Pero si te estás preguntando qué tiene esto que ver con la experimentación animal, aún tenemos que llegar a la siguiente historia de nuestro viaje a través del siglo XIX.

El nacimiento de una teoría

A lo largo del siglo XIX la enfermedad era un misterio: los miembros gravemente heridos se ponían negros y había que amputarlos, la gente contagiaba a otros sin saber las causas y las heridas se infectaban con facilidad. Poco a poco se entendía mejor que la teoría miasmática de la enfermedad no era correcta, pero aún faltaba descubrir qué es lo que estaba pasando.

Sabiendo todo esto podemos añadir un dato curioso: Anton van Leeuwenhoek construyó el primer microscopio en el s. XVII y ya había observado las primeras bacterias. Ahora bien, para relacionar el mundo microscópico con la enfermedad hacía falta mucho ingenio, y fue entonces cuando llegó el famoso químico Louis Pasteur, quien tras observar que la fermentación del vino tenía lugar gracias a microorganismos y no a meras reacciones químicas —tal y como se pensaba hasta el momento—, demostró que había muchos procesos que en realidad eran ocasionados por organismos microscópicos.

Louis Pasteur nació en 1822, apenas nueve años después que John Snow, y a pesar de que jamás se vieron las caras, ambos estarían llamados a revolucionar el mundo de la medicina.

Louis era el tercer hijo de un curtidor de pieles bastante humilde. Y a pesar de que no se le daban muy bien los estudios de ciencias —de hecho quería ser artista—, finalmente se dedicó a la enseñanza de la química. Pero fue entonces cuando algo sucedió en su carrera que le llevó a obtener un gran reconocimiento científico.

A lo largo del siglo XIX se descubrió que había sustancias químicas que, a pesar de tener la misma composición, se comportaban de manera diferente. Eso desafiaba todo el conocimiento químico del momento y existían muchos ejemplos que nadie sabía explicar. El ácido tartárico, conocido en la industria alimentaria como el corrector de la acidez E-334, era una de esas sustancias: a pesar de que la fórmula química del compuesto siempre era la misma, había dos ácidos tartáricos con propiedades diferentes. En 1848, cuando John Snow ya estaba obsesionándose con el problema del cólera, Louis Pasteur resolvió el misterio del ácido tartárico: al ver al microscopio cristales formados a partir del compuesto, observó que había dos tipos distintos de cristales que eran casi idénticos. Eran imágenes especulares, algo así como mirarte en un espejo y ver que, aunque te pareces mucho a la imagen que ves, tu otro yo tiene la mano derecha donde tú tienes la izquierda, y viceversa. Eso explicaba por qué compuestos de fórmula idéntica tenían propiedades diferentes. Además descubrió que en el mundo biológico solo existía una de las formas, pero que cuando lo sintetizabas en el laboratorio podías encontrar las dos versiones del ácido tartárico. Con tan solo 25 años, el joven que quería ser artista había resuelto el gran misterio, y un año después recibió la Legión de Honor francesa y fue nombrado decano de la Facultad de Ciencias en la Universidad de Lille.

Poco a poco y a pesar de ser químico de formación, Louis Pasteur se hizo una buena fama como microbiólogo[1]. Al ser el primero en proponer que las fermentaciones se producían por microorganismos y no por procesos químicos, también propuso al mismo tiempo el modo de evitar que la leche, el vino y la cerveza se pusieran malos: calentarlos para matar las bacterias y cerrarlos herméticamente, proceso que conocemos como pasteurización en su honor. Así que con esa fama a sus espaldas, en 1865 el gobierno de Francia le propuso un reto: resolver la causa de una enfermedad que provocaba la muerte de los gusanos de seda y que estaba arruinando a las fábricas textiles de media Europa.

Después de cuatro largos años descubrió que en realidad existían dos enfermedades diferentes: una producida por un virus —aunque él no podía saber qué era un virus— y otra por un hongo unicelular. Además de resolver el misterio, seleccionó gusanos sanos y fueron sustituidos todos los que presentaban la infección. La industria de la seda floreció de nuevo y una idea brotó en la mente de Pasteur: las enfermedades humanas eran ocasionadas por microorganismos y no por desequilibrios de fluidos o la presencia de gases miasmáticos, tal y como proponían muchos médicos.

Por esta época John Snow ya había fallecido, pero el médico inglés había sentado las bases para defender de manera científica que había causas físicas que podían trasmitirse por muchos medios diferentes, y el peso de la evidencia recogido por numerosos científicos ayudó a crear el clima necesario para que la idea de Pasteur no fuera tildada de descabellada. Se propuso de manera formal la teoría germinal de las enfermedades infecciosas, que afirmaba que las enfermedades contagiosas se producían por microorganismos. No obstante, muchos médicos tomaron a Pasteur por un loco, así que llegados a ese punto, al químico francés no le quedó más remedio que buscar pruebas más fuertes a favor de su teoría, y aquí es donde entramos de lleno en el terreno de la experimentación animal.

No había muchas formas de demostrar en un laboratorio cómo se contagiaban las enfermedades, así que lo primero que hicieron él y otros científicos fue inyectar bacterias vivas en animales sanos. Cuando estos enfermaron, se demostró que muchas enfermedades sí que estaban ocasionadas por microorganismos. Ese descubrimiento podría parecer un paso de gigante en la comprensión de las dolencias humanas, pero lo más asombroso aún estaba por llegar.

En 1880, Pasteur contaba con un ayudante llamado Charles Chamberland. Juntos inyectaban la bacteria que ocasiona el cólera aviar a pollos para ver el transcurso de la enfermedad. Lo curioso ocurrió cuando el microbiólogo se fue de vacaciones y dejó a su ayudante la orden de inocular la bacteria a unos animales, pero Chamberland lo olvidó por completo y dejó los cultivos bacterianos sin inyectar. Cuando Pasteur llegó de vacaciones, descubrió el descuido y le volvió a pedir a Chamberland que infectara a los animales, pero volvió a meter la pata: en vez de hacer un nuevo cultivo bacteriano, inyectó las bacterias que llevaban un mes sin cuidar y estaban medio muertas. Los pollos desarrollaron la enfermedad, aunque de una manera muy superficial, con pocos síntomas, y en lugar de morir —como era lo habitual— la gran mayoría sobrevivieron.

Pasteur conocía el caso de la inmunización contra la viruela llevada a cabo por el médico inglés Edward Jenner, quien observó que las mujeres que ordeñaban a vacas enfermas de la variedad vacuna de la viruela contraían la enfermedad animal, pero luego no caían enfermas de la variante humana. El médico inglés decidió hacer un experimento: le inyectó pústulas de una mujer que padecía la enfermedad vacuna a un niño, el cual tuvo fiebre leve durante unos días como era de esperar. Cuando el niño ya estaba recuperado, le inyectó pústulas de enfermos de viruela humana, pero no enfermó. El método de inmunización de Jenner se extendió por ser más seguro que las demás opciones, así que la viruela comenzó su camino hacia la erradicación. Pero, volviendo a Pasteur, ¿qué es lo que le llamó la atención de la historia de Jenner?

Si bien el método del médico inglés funcionaba, no se entendía el motivo. Pero a Pasteur se le ocurrió una idea: ¿y si la clave para lograr inmunizar a alguien era exponerlo a cepas debilitadas del microorganismo responsable de la enfermedad? Las bacterias que Chamberland había inyectado a los pollos estaban casi muertas, así que Pasteur les inyectó bacterias jóvenes del cólera aviar para ver si había logrado inmunizarlos. Cuando los pollos no enfermaron, el químico francés confirmó sus sospechas: se habían vuelto inmunes a la enfermedad.

Gracias a este descubrimiento se comprendió que los mismos patógenos que ocasionaban la enfermedad eran, una vez debilitados, la clave para lograr la inmunización. La era moderna de la vacunación había comenzado gracias a Pasteur y al joven y despistado Chamberland —más tarde se convertiría en un eminente microbiólogo que inventaría el autoclave que se usa para esterilizar el material de laboratorio—.

El siguiente paso lógico era intentar crear la vacuna de una enfermedad humana, así que Pasteur se interesó por la rabia. El químico intentó hacer crecer al microorganismo responsable de la enfermedad en cultivos para bacterias, pero aquello no parecía funcionar —de hecho, la rabia es ocasionada por un virus y no por una bacteria—. Además, y por mucho que lo intentaba, no lograba ver con su microscopio ningún microorganismo fuera de lo normal. Aun así, Pasteur siempre mantuvo que el problema debía ser que los microscopios no eran lo suficiente potentes para ver al responsable de la rabia —y no se equivocó—. El científico recurrió a inyectar muestras de animales infectados en el sistema nervioso de perros y conejos sanos, los cuales desarrollaron la enfermedad y demostraron que Pasteur tenía razón.

Cuando consiguió contagiar la rabia a sus animales de laboratorio, los sacrificó y dejó sus tejidos al aire libre para intentar debilitar a los microorganismos que no podía ver. Finalmente, al inocular las muestras en otros animales sanos, estos se volvían inmunes a la enfermedad. Sin embargo, cuando Pasteur estaba en mitad de sus experimentos algo inesperado sucedió: un niño moribundo llamó a su puerta.

El seis de julio de 1885, un niño de nueve años llamado Joseph Meister fue mordido catorce veces por un perro rabioso. Por aquel entonces, ser atacado por un animal contagiado de rabia era sinónimo de muerte asegurada, así que Pasteur se encontró frente a un dilema: él no era médico y tenía un procedimiento que jamás había sido probado en humanos, pero si lograba reproducir lo que había logrado utilizando perros y conejos, entonces podría salvar la vida de aquel niño que ya estaba condenado a muerte.

Después de obtener el respaldo médico necesario, el científico le inyectó al niño cepas debilitadas del virus de la rabia. Finalmente, Joseph no desarrolló la enfermedad y se logró salvar a la primera persona de la tragedia que suponía ser mordido por un animal rabioso. Desde aquel día muchos millones de personas y animales han salvado sus vidas gracias a los experimentos de Pasteur y Chamberland.

Por otro lado, si bien John Snow nos dio herramientas epidemiológicas para entender cómo se propagaba una enfermedad, los experimentos de Pasteur con animales abrieron la puerta a la era de la vacunación: las enfermedades no solo podían ser esquivadas en algunos casos, sino que podían ser vencidas. Y coincidiendo con el éxito de Pasteur, el científico español Jaume Ferran i Clua, seguidor de las ideas de Pasteur, desarrolló en 1885 la primera vacuna contra el cólera humano, que fue realizada gracias a la experimentación con conejillos de indias y probada con éxito por primera vez en Alicante.

La teoría germinal de la enfermedad no solo estaba demostrada, sino que gracias a personas como Pasteur y a la experimentación animal, la ciencia había tenido sus primeros éxitos contra enfermedades que hasta ese momento eran imparables.

La revolución médica: la esterilidad y las vacunas

Si continuamos con la revolución médica en el siglo XIX llegaremos hasta el nombre de Sir Joseph Lister. Durante la época en que Lister estudiaba en la universidad —previa a la teoría germinal de la enfermedad—, el pensamiento mayoritario de la comunidad científica era que las infecciones durante las operaciones se debían a la exposición de aire contaminado, por lo que los cirujanos no se lavaban las manos antes de operar  —de hecho, tener una bata muy sucia era visto por muchos médicos como un signo de experiencia y mostraban sus manchas con orgullo—. Cuando Lister se convirtió en cirujano, tuvo acceso al artículo científico de Louis Pasteur sobre la fermentación del vino, donde también afirmaba que la putrefacción de los alimentos era causada por bacterias que se podían matar con calor y compuestos químicos.

Lister hizo experimentos similares a los de Pasteur para verificar que tenía razón, y entonces pensó que si la putrefacción en los alimentos se debía a bacterias, entonces era altamente probable que la putrefacción de las heridas humanas también lo fuera —al fin y al cabo estamos hechos de carne—. Fue a partir de esa idea cuando el cirujano se obsesionó con esterilizar todo el material que tocara al enfermo durante una cirugía, lavarse las manos y utilizar siempre ropa limpia durante las operaciones. Como quemar las heridas para desinfectarlas no era una opción, el cirujano creyó que la forma más adecuada era utilizar productos químicos, y fue así como introdujo el alcohol fenílico para limpiar las heridas y matar bacterias.

Todas estas innovaciones derivadas de los experimentos de Pasteur nos llevaron a salir de la época oscura de la cirugía medieval y entrar de lleno en la edad moderna de la medicina, donde pasar por un quirófano ya no era algo potencialmente mortal.

Unos años después de que Pasteur y Lister revolucionaran la medicina, el microbiólogo alemán Emil Adolf von Behring descubrió, junto al japonés Shibasaburo Kitasato, el anticuerpo del tétanos. El tétanos es una enfermedad grave provocada por unas neurotoxinas[2] producidas por la bacteria Clostridium tetani, que llega al sistema nervioso humano después de entrar en el cuerpo a través de heridas ocasionadas por material oxidado, mordeduras de animales salvajes o el contacto con estiércol. Una vez infectado y sin un tratamiento moderno, la probabilidad de muerte ronda el 30%.

Behring y Kitasato eran científicos pertenecientes a la era de la revolución de las vacunas, así que descubrieron que si inyectaban suero sanguíneo de un animal con el tétanos a otro sano, el último se volvía inmune a la enfermedad, pero si cogían el suero de animales sanos inmunizados y lo inyectaban en animales no inmunizados, también se conseguía la inmunidad. Fue así como llegaron a la conclusión de que había algo físico más allá de las bacterias que, aunque no pudiera ser visto, permitía al organismo combatir la enfermedad. Ellos lo llamaron antitoxina, aunque hoy en día son más conocidos como anticuerpos.

Behring continuó sus estudios con otra enfermedad. La difteria es producida por una toxina generada por la bacteria Corynebacterium diphtheriae, y entre otros síntomas produce membranas en las vías respiratorias y digestivas, afectando principalmente a la garganta, las amígdalas, la piel y las fibras nerviosas. La tasa de mortalidad por difteria era del 20% en niños y del 10% en adultos. De hecho, en 1930 era la tercera causa de mortalidad infantil en Inglaterra.

Behring había estado investigando un suero de anticuerpos para tratar la difteria, pero en 1891 tuvo una situación muy parecida a la que seis años atrás vivió Pasteur: una niña gravemente enferma y al borde de la muerte llegó a su centro de investigación.

El científico alemán procedió con la niña tal cual había hecho con sus cobayas: le inyectó suero contra la difteria y le salvó la vida. Finalmente, ganó el primer Premio Nobel de Medicina de la historia por su contribución a curar y entender enfermedades como la difteria y el tétanos.

Behring salvó millones de vidas gracias a sus experimentos realizados en cobayas. Es más, desde aquel año casi cualquier otro ganador del Nobel de Medicina también realizó sus avances científicos gracias al uso de animales: Ronald Ross en 1902 utilizando pájaros para descubrir cómo entraba el parásito de la malaria en el organismo humano, Ivan Pavlov en 1904 al utilizar perros para entender cómo funcionaba el proceso de la digestión, Robert Koch en 1905 al usar vacas y ovejas para avanzar en el conocimiento de la tuberculosis y el cólera, Camilo Golgi y Santiago Ramón y Cajal en 1906 por avanzar en el conocimiento de la estructura del sistema nervioso estudiando caballos y perros, Charles Laveran al descubrir el papel de los protozoos en las enfermedades utilizando pájaros, y así un largo etcétera.

Si bien podríamos seguir con la lista de investigadores que ganaron el Premio Nobel utilizando la experimentación animal, creo que sería más útil hacer una breve enumeración de algunos de los avances más importantes que se han realizado en el último siglo y que no podrían haberse hecho sin ella: la comprensión del sistema inmunológico; entender el papel de las proteínas; comprender la insulina y cómo usarla para tratar la diabetes; el descubrimiento de las vitaminas y su papel en el organismo; entender cómo funcionan los impulsos nerviosos y el papel de las neuronas; la quimioterapia para tratar el cáncer; la vacuna contra numerosas enfermedades como la fiebre amarilla, la poliomielitis, algunos tipos de meningitis o el virus del papiloma humano; descubrir el metabolismo del colesterol y los ácidos grasos; los trasplantes de órganos; el conocimiento de las células madre y sus aplicaciones; la fecundación in vitro y la cura para la hepatitis C.

Todas estas cuestiones forman parte de la historia reciente de la ciencia y han cambiado nuestras vidas, y no hay que olvidar que esos avances fueron posible gracias al ingenio de muchas personas que creyeron que merecía la pena utilizar animales para progresar en las aplicaciones del conocimiento humano.

La mortalidad infantil

Puede que algunos de los descubrimientos que he mencionado hubieran llegado décadas más tarde sin la utilización de animales, pero la gran mayoría habrían sido imposibles. Así que si uno quiere entender cómo sería el mundo actual si no hubiera existido la experimentación animal, habría que pensar sobre cómo sería nuestra sociedad sin muchos de esos avances.

La esterilización como estándar en la cirugía sí que habría llegado igualmente sin la experimentación animal, del mismo modo que la epidemiología nos ayudaría a esquivar algunas enfermedades, pero ir a un médico sería muy diferente a lo que entendemos hoy en día: no habría medicamentos modernos ni vacunación, por no hablar de que la mayoría de técnicas de diagnóstico y tratamiento tampoco existirían. Por otro lado, al no haberse desarrollado la vacunación, tendríamos algunas enfermedades como la poliomielitis, el sarampión, la difteria, la neumonía y el tétanos, que en su conjunto harían que la tasa de mortalidad infantil fuera tremendamente alta en comparación con la nuestra. Es difícil hacer una estimación exacta de ese número, pues a pesar de que no existiría la medicina moderna, sí que habría otras medidas que reducirían la transmisión de enfermedades —el alcantarillado o el aumento de la limpieza corporal serían dos buenos ejemplos—.

Ahora bien, si quisiéramos saber cómo sería nuestra vida sin los avances que ha traído la experimentación animal, podríamos fijarnos en lugares con poco acceso a la medicina moderna, pero incluso en ese caso encontraríamos datos engañosos, pues no existe ningún país al que no hayan llegado la vacunación y los antibióticos. De hecho, si consultamos los registros de la Organización Mundial de la Salud, sorprende mucho ver datos de países como Angola, que a pesar de ser muy pobres tienen a más del 90% de la población vacunada contra la hepatitis B, el tétanos, la tuberculosis, la difteria, la poliomielitis y las principales enfermedades que causan elevada mortalidad.

Si seguimos buscando datos entre los países más pobres del planeta, como pueden ser la República Democrática del Congo, Zimbabue, Burundí, Liberia, Eritrea, Niger o Afganistan, nos encontramos situaciones similares: todos rondan el 90% de vacunación excepto la República Democrática del Congo, Niger y Afganistan, que rondan el 70%. De hecho, las zonas del planeta con menor índice de vacunación por habitante son Guinea Ecuatorial, Somalia, Sudán del Sur y Siria, y las cifras están en torno al 50% de vacunados.

Esto se traduce en que la medicina moderna, aunque a primera vista no lo parezca, ha llegado hasta los rincones más insospechados del planeta y nos cuesta mucho saber qué cifras de mortalidad infantil tendríamos sin ella. No obstante, aún nos quedan algunos datos a los que podemos recurrir. En la España de comienzos del siglo XX, la mortalidad infantil en niños menores de cinco años estaba en torno al 18,5%, pero actualmente es del 0,3%. Ahora comparemos ese número con el de países parecidos a la España de comienzos del siglo XX, pero con acceso a la medicina moderna. Si nos fijamos en Birmania —de hecho, su economía se basa al 44% en la agricultura y su Producto Interior Bruto es de los más bajos del planeta—, veremos que su mortalidad infantil es del 5%. Si comparamos el dato de la España rural de comienzos del siglo XX con la de países similares a Birmania, nos daremos cuenta de que la mortalidad infantil del pasado supera en torno a un 10% a la de países pobres de la actualidad.

A pesar de que es un cálculo poco exacto y solo nos sirve como indicador superficial, podemos asumir que es bastante probable que esa diferencia del 10% se deba a la medicina moderna, y eso a pesar de que los avances sanitarios derivados de la experimentación animal son muy básicos en esos lugares del tercer mundo.

Algunas personas podrían argumentar que hay centenares de factores que afectan a la mortalidad infantil que no se están teniendo en cuenta, por ejemplo las guerras, el hambre y la inestabilidad política. No obstante, si repetimos esta comparativa en momentos históricos con estabilidad y sin problemas alimenticios graves, nos daremos cuenta de que es prácticamente imposible encontrar un país avanzado socialmente y estable en el año 1900 que además tuviera tasas de mortalidad infantil inferiores al 15%, como por ejemplo Francia e Inglaterra. En cambio, encontrar países actuales pobres, sin apenas infraestructura y atrasados a nivel tecnológico, pero sin guerras recientes y acceso a la medicina moderna básica, y que al mismo tiempo tengan tasas de mortalidad infantil superiores al 7%, es altamente improbable.

Viendo estos datos podemos concluir que, en un mundo que nunca hubiera conocido la experimentación animal, la tasa de mortalidad infantil de los países desarrollados pasaría del 0,5% al 10%, es decir, seria unas veinte veces superior.

La esperanza y la calidad de vida

Hasta ahora hemos hablado de mortalidad infantil, pero una vez llegados a la vida adulta también notaríamos fuertes diferencias en un mundo que no hubiera conocido la experimentación animal. De hecho, muchas de las enfermedades que elevan la mortalidad infantil también afectarían a los adultos.

La tuberculosis es una enfermedad de la que ya hemos hablado anteriormente. También es cierto que actualmente es un problema grave exclusivamente en el tercer mundo —se estima que mata a un millón y medio de personas al año en las zonas más pobres de planeta—, ya que en las zonas más desarrolladas la mantenemos a raya gracias a los avances médicos. En occidente ya no se vacuna contra la enfermedad y prácticamente ha desaparecido, pero si recuerdas el punto anterior también dijimos que la media de personas vacunadas contra la tuberculosis en el tercer mundo ronda el 90%. Entonces, ¿por qué mueren tantas personas al año?

La respuesta es sencilla: la efectividad de la vacuna solo ronda el 50%, así que a pesar de que la inmunización salva muchas vidas, aún no es suficiente para erradicar la enfermedad. Por eso la forma más fácil de atajarla es el diagnóstico rápido y precoz junto al tratamiento con los antibióticos correspondientes. Esa es la clave por la cual el mundo desarrollado mantiene a raya a la tuberculosis, pero en sitios lejanos donde solo llegan las vacunas y algunos antibióticos, una inmunización efectiva del 50% no es suficiente y la situación sigue siendo desesperada.

Actualmente hay numerosos experimentos con animales para conseguir una vacuna mejor y poder erradicar la enfermedad, pero mientras tanto la tuberculosis se está haciendo resistente a los fármacos, está aún presente en el mundo desarrollado —unos 350 000 casos anuales en Europa— y sigue matando a millones de personas en todo el mundo.

Esa es la situación actual a pesar de que la medicina moderna lleva luchando contra la tuberculosis desde hace más de un siglo: está casi erradicada en el mundo desarrollado, pero se está haciendo resistente y volviendo a la carga. Además, todavía es una lacra que mata millones de vidas en los países en vías de desarrollo. Ahora intentemos imaginar cómo sería la situación sin vacunas y antibióticos.

Ya en el año 460 a. C. Hipócrates de Cos —al cual debemos el famoso juramento hipocrático— definió la tuberculosis como la enfermedad más común y mortal. De hecho no exageraba, pues era bastante común que los médicos se negaran a tratar a tuberculosos porque casi siempre morían y eso les daba mala reputación. También es cierto que, las condiciones higiénicas y el poco conocimiento de la enfermedad, la hacía tremendamente mortal, pero en el caso de la tuberculosis tenemos un dato interesante: la mortalidad en la era de la medicina moderna, pero sin antibióticos contra la enfermedad.

A comienzos del siglo XX y con la mejora de las condiciones de vida, la tuberculosis comenzó a ser controlada. Pero, a pesar de los grandes esfuerzos, era una de las principales causas de mortalidad en los países industrializados. La bacteria ya había sido identificada por Robert Koch a finales del siglo anterior, y el modo de contagio descrito por el médico Jean Antoine Villemin en 1866. Ahora bien, supongamos por un momento que hubiéramos podido conseguir todo el conocimiento de la enfermedad sin la experimentación animal, ¿qué tratamientos ofrecía el conocimiento de la tuberculosis? Más bien pocos.

Conocer la bacteria, su modo de propagación y cómo podía afectar el clima al desarrollo de la enfermedad, permitió a los médicos crear sanatorios para tuberculosos en zonas climatológicas que favorecían el reposo. De aquella época se conservan los registros de pacientes, pero si nos atenemos a las cifras, solía curarse un porcentaje bastante bajo. También había técnicas quirúrgicas que consistían en hacer colapsar al pulmón de manera mecánica para conseguir retraerlo, evacuar su contenido y permitir su cicatrización, pero era tremendamente ineficaz en comparación con los tratamientos modernos y se producían perforaciones, derrames y hemorragias que agravaban la salud.

Si accedemos a los datos que analizan la supervivencia a la enfermedad durante la parte del siglo XX en la que no existía la estreptomicina, nos podemos hacer una idea de la gravedad del asunto: en función de variables como la localización, el país o el estrato social, morían en torno al 70% de los pacientes menores de cincuenta años, siendo la edad y el sexo del enfermo poco relevantes dentro de ese rango. Hoy en día, con el tratamiento antibiótico correcto y si el paciente no tiene otras enfermedades, la mortalidad es prácticamente del 0%.

Hemos hablado de la tuberculosis, pero podríamos haberlo hecho de casi cualquier enfermedad. Si nos fijamos en la mortalidad por enfermedades infecciosas en los Estados Unidos desde el año 1900 hasta el 1996, veremos que pasó de 797 muertes por cada 100 000 habitantes a ser de 59 muertes por cada 100 000, es decir, unas trece veces menor. La neumonía y la gripe fueron las responsables del mayor número de muertes durante todo el siglo, pero la tuberculosis causó tantas muertes como la neumonía y la gripe juntas durante la época previa a la estreptomicina.

Ya hemos hablado de algunas enfermedades que antes eran mortales y que hoy en día resultan fáciles de prevenir o tratar, como por ejemplo la poliomielitis, la difteria o la tuberculosis, pero tal vez te sorprendas al saber que, solamente en los Estados Unidos de América, se producían anualmente 450 muertes asociadas a la varicela, 600 a la meningitis y  9000 a la pertussis —conocida generalmente como tos ferina—. Se han elegido las cifras más conservadoras pertenecientes a la segunda mitad del siglo XX, pero los datos de principio de siglo apuntan a cifras mucho más altas. La lista podría seguir creciendo con muchas más enfermedades, pero creo que el punto está claro.

 Hemos hablado de mortalidad, pero la calidad de vida también es importante. Uno podría pensar que morir es un riesgo asumible —a fin de cuentas es solo una cuestión de tiempo—, no obstante, el mayor problema no sería ese, sino que muchas enfermedades son incapacitantes.

Pondré algunos ejemplos rápidos: la parotiditis —llamada habitualmente paperas y ocasionada por un virus de la familia paramyxoviridae— no tiene una mortalidad muy alta y suele ser una enfermedad leve, pero puede ocasionar inflamación del cerebro y ocasionar daños cerebrales graves. Otro caso similar ocurre con la rubéola —también ocasionada por otro virus—, que suele ser una enfermedad leve pero altamente contagiosa y dañina para mujeres embarazas, pudiendo ocasionar al feto malformaciones, retraso mental y sordera. De hecho, en 1964 hubo una epidemia de rubeola en los Estados Unidos de América, y las cifras hablan por sí solas: 2 100 recién nacidos murieron, y de los supervivientes 11 600 eran sordos, 3 850 ciegos y 1 800 tenían graves retrasos mentales.

En su conjunto y durante el siglo XX, la esperanza de vida media ha pasado de los 47 años a los 77, y si bien algunos de los motivos no están relacionados con la biomedicina —como el aumento de la seguridad vial o la mejora de las condiciones de trabajo—, los especialistas en salud pública sí que están de acuerdo en que la vacunación, la prevención y control de enfermedades infecciosas, la mejora de las técnicas quirúrgicas, la solución de problemas durante el parto y la prevención de enfermedades cardiovasculares, han jugado un papel decisivo. Y lo más relevante de todas esas cuestiones es que habrían sido imposibles de alcanzar sin la experimentación animal.

Toxicidad, transgénicos y células madre

A lo largo de este capítulo he usado ejemplos con finalidad sanitaria, pero ya se ha comentado con anterioridad que ese no es el único tipo de experimentación que requiere animales, ¿cómo sería nuestro mundo sin esas otras investigaciones?

Una de las ramas del conocimiento que requieren el uso de animales son los estudios medioambientales de toxicidad. Por ejemplo, hay muchos destinados a detectar contaminantes para el medio ambiente y proteger la fauna silvestre.

Ahora bien, ¿cómo podemos saber si un compuesto es tóxico? Este es un tema muy complejo, ya que a pesar de que se podría ver qué le ocurre a los humanos después de décadas de exposición a un compuesto y deducir si es tóxico a largo plazo, ¿cómo saber qué variables de la vida diaria le han producido toxicidad? Las personas comen y beben de manera muy diversa, tienen hábitos de vida poco saludables que pueden afectar a su salud —como el tabaco o las drogas—, también se ven expuestos en su vida diaria a miles de cosas diferentes que podrían afectar a su organismo. Por otro lado, hay grandes cantidades de compuestos que de forma irremediable terminan en el medio ambiente, ¿cómo saber que no están afectando a la fauna y la flora local?

Para responder a esa pregunta me gustaría contar una historia. Si existe hoy en día una persona a la cual podríamos considerar un héroe a nivel mundial, ese sería Clair Cameron Patterson, nacido en 1922 e hijo de un cartero local de Mitchellville, Estados Unidos.

Cuando era pequeño su madre le regaló un juego de química, y desde aquel momento tuvo clara su vocación. El niño creció y se convirtió en un buen geoquímico, que viene a ser un químico al que le encanta la composición de las piedras. Cuando Patterson comenzó su tesis doctoral empezó a trabajar en un método que había iniciado Harrison Brown, de la Universidad de Chicago, mediante el cual podía contar isótopos de uranio y plomo en rocas ígneas.

Para quién no sepa qué es un isótopo, se los podría definir como dos átomos de un mismo elemento químico, pero que tienen una cantidad diferente de neutrones. Todo átomo se compone de electrones, protones y neutrones, y en una roca que contiene plomo podemos encontrar algunos átomos de un elemento químico al que le falten o le sobren neutrones. Tal vez puedas pensar que todo esto no sirve para nada, pero algunos de los átomos que tienen un número raro de neutrones se transforman poco a poco y de forma constante en otros elementos químicos, así que contando su cantidad se puede saber qué edad tiene la roca. Patterson creía que los meteoritos eran los restos de la formación del sistema solar, y su objetivo era medir su edad para saber cómo de antigua era la Tierra.

Si te estás preguntando qué tiene que ver todo esto con la experimentación animal, ya falta poco. Patterson consiguió meteoritos, pero cuando midió los isótopos de plomo y uranio se llevó una decepción: al entrar en contacto con el aire las muestras se contaminaban con grandes cantidades de plomo. El geoquímico tuvo que crear uno de los primeros laboratorios estériles del mundo para trabajar con sus muestras, pero finalmente encontró la respuesta: en 1953 descubrió que la edad de la Tierra era de 4 550 millones de años.

Ahora bien, ¿qué causaba la contaminación de plomo? Esa pregunta no dejaba dormir a Patterson. Cuando comenzó a indagar descubrió que había muy pocos estudios sobre los efectos del plomo en el medio ambiente, ¿cuál era el motivo? Que las grandes empresas que fabricaban productos de plomo ejercían una fuerte resistencia.

Patterson descubrió algo alarmante: la atmósfera, los mares, la comida y hasta el agua del grifo, todo estaba lleno de plomo. ¿Y cuál era el problema? Que en la década de los cuarenta se extendió la realización de estudios de toxicidad usando modelos animales, y fue entonces cuando comenzaron a surgir datos preocupantes. Por ejemplo, la revista científica Nature —una de las más prestigiosas del mundo— hizo público en 1947 un estudio realizado por Hugo Chiodi y Rodolfo Sammartino que mostraba un fuerte efecto tóxico en los riñones a causa de ingerir plomo, todo ello utilizando ratones de laboratorio[3]. Otros grupos que también utilizaban ratones se percataron de que el plomo podía acceder al cuerpo no solamente mediante ingestión, sino también mediante el contacto con la piel y la respiración.

Todo estaba contaminado, desde las ciudades al medio ambiente, y poco a poco la evidencia fue haciéndose más grande: el plomo se acumulaba en el organismo y alcanzaba con facilidad el cerebro, el hígado, los riñones y los huesos, ocasionando daños irreparables en el sistema nervioso, demencia, anemia y muchas otras dolencias. Se estima que la exposición al plomo ocasiona al año unos 600 000 casos de discapacidad intelectual infantil y 143 000 muertes.

Todos estos descubrimientos se fueron realizando a partir de los años cincuenta, y mientras tanto Patterson inició una guerra contra la industria del plomo: desde la gasolina hasta las pinturas, las cañerías de agua potable, las latas de conserva, algunos aditivos alimentarios y juguetes para niños. Las multinacionales se defendían diciendo que el plomo de la gasolina y los aditivos no estaban aumentando las cantidades normales en el medio ambiente, pero Patterson se fue hasta Groenlandia para demostrar lo contrario.

En las tierras gélidas la nieve se acumula en capas anuales, así que Patterson fue hasta las zonas más profundas para medir el plomo que contenían y demostrar lo evidente: antes del siglo XX no había casi plomo en la atmósfera y el medio ambiente, y los niveles aumentaban de forma catastrófica cada año.

Le costó décadas conseguir que le creyeran y tuvo que pasar por más comisiones de investigación de las que te puedes imaginar, pero finalmente la industria del plomo tuvo que admitir que estaba envenenando el planeta y dejar de hacerlo. Hoy en día ya no se utiliza plomo en los carburantes —aunque es posible que aún recuerdes cuando en todas las gasolineras se vendía gasolina con plomo—, ni tampoco en las pinturas ni en utensilios de cocina. Los niveles de metal pesado van bajando poco a poco, aunque eliminar toda esa cantidad requerirá muchas décadas. Patterson nos salvó a todos gracias a una lucha que se alargó durante muchos años, pero nadie habría sabido que el plomo era tóxico ni cómo atacaba al organismo sin la experimentación animal.

El problema del plomo no solo hizo peligrar la salud de todos los humanos del planeta, además ha llevado al borde de la extinción a muchas especies, pues se ha demostrado que la intoxicación por plomo afecta de manera alarmante al sistema inmunológico de las aves. De hecho, se estima que esa es la principal causa de que el cóndor de California (Gymnogyps californianus) esté enfrentándose a la extinción. Hoy en día, gracias al conocimiento adquirido en los estudios de toxicidad, se han tomado medidas para evitar su desaparición.

La historia de Patterson y el plomo es aplicable a muchos otros contaminantes que hemos conocido gracias a la experimentación animal. Los efectos sobre el organismo del mercurio, algunos hidrocarburos halogenados (HCH) o los policlorobifenilos (PCBs), han sido descritos gracias a los científicos que estudian su toxicidad. Todo ello está permitiendo buscar soluciones a los problemas de conservación que se han generado en animales como la orca (Orcinus orca), el delfín mular (Tursiops truncatus), la ballena blanca (Delphinapterus leucas) o el oso polar (Ursus maritimus), que están muy en contacto con contaminantes marinos como los PCBs. Estos compuestos están envenenando sus poblaciones, reduciendo su natalidad y causándoles problemas de salud graves, pero la cosa no termina ahí: cada año surgen nuevos compuestos de aplicación industrial, y la única forma de saber si pueden suponer un riesgo ambiental es mediante el uso de animales de laboratorio.

Otro de los campos del conocimiento que depende del uso de animales es el de la creación de transgénicos. Sé que este tema puede ser altamente controvertido, pero no añadiré nada más allá de exponer la realidad científica, a saber, que el hecho de que una planta o animal tenga un gen de otra especie no lo hace peligroso. Más allá de esa cuestión, ¿para qué sirve la experimentación animal destinada a hacer transgénicos?

En primer lugar, una de las aplicaciones más importantes es la producción de modelos animales que puedan ser usados para la investigación científica básica, es decir, aquella que no tiene una finalidad concreta más allá de entender cómo funcionan las cosas. Gran parte de esa investigación será la base de las aplicaciones del futuro, pero otra parte no tendrá una utilidad práctica; esa es la única manera de avanzar que existe. Ahora bien, ¿cómo pueden ayudar los transgénicos a la investigación científica básica?

Los modernos estudios de genética han permitido avanzar mucho en el conocimiento biológico de los seres vivos, pero poder cambiar la composición genética de los animales nos permite avanzar mucho más al permitir inducir mutaciones dirigidas. De hecho, el uso de animales transgénicos en la investigación actual es imprescindible para el estudio de la función de los genes, los mecanismos de regulación inmunitaria o el desarrollo embrionario. Para hacer todo esto se pueden utilizar muchas estrategias diferentes; por ejemplo, introducirle a un animal algún gen de otro organismo con función desconocida para ver qué le ocurre e intentar deducir su función. También se puede hacer de forma inversa, es decir, eliminar un gen y ver qué sucede para intentar ver qué hace cuando está —es lo que se conoce como un animal knockout

Esas estrategias son imprescindibles para poder estudiar la función de los genes que aún no conocemos del todo bien, y al mismo tiempo son procedimientos que requieren experimentación animal. De hecho, dejar de utilizar esa estrategia supondría detener gran parte del progreso en el mundo de la genética, y aunque estemos hablando de ciencia básica no hay que dejarse engañar por su nombre: se la llama así no porque sea prescindible, sino porque es la base del conocimiento y las aplicaciones del futuro.

En un mundo sin experimentación animal, los avances que se han realizado en el conocimiento de la genética habrían sido imposibles, y por consiguiente cualquier aplicación de ese conocimiento tampoco existiría. No podríamos hablar de la relación de los genes con algunas enfermedades ni de los análisis genéticos modernos. Además, la transgénesis animal nos permite estudiar campos tan prometedores como el de las células madre o el de la terapia génica. Esto último consiste en modificar los genes que producen una enfermedad, y actualmente se investiga cómo hacerlo en enfermos de fibrosis quística, cáncer o esclerosis múltiple. Si bien todas esas tecnologías aún no han cobrado mucha importancia, algunas de ellas ya son una realidad que poco a poco se hace más relevante, y con la debida investigación científica en muy poco tiempo toda esa ciencia básica fundamentará la medicina del futuro.

En un mundo sin experimentación animal, todo lo que hemos comentado hasta aquí sería imposible. Así que si mañana se aboliese, estaríamos renunciando a tecnologías que pueden ser la única esperanza para tratar a enfermos que actualmente se consideran incurables, del mismo modo que hace poco lo eran los tuberculosos y los enfermos de hepatitis C.

Mirando al futuro

En el apartado anterior hemos hecho un apunte importante: en el pasado había enfermedades que se consideraban incurables y que hoy no lo son. Esto es relevante porque actualmente también hay dolencias que tienen escasas perspectivas de curación y para las cuales aún se necesita encontrar una vacuna, un tratamiento o cualquier estrategia terapéutica que logre salvar vidas. La lista sería interminable, pero uno de los casos más importantes es el de la malaria, una enfermedad crónica y debilitante causada por parásitos unicelulares y que mató en 2015 a 438 000 personas. Actualmente no existe una vacuna efectiva ni una cura; de hecho, los productos que existen para tratar a los enfermos son paliativos y se usan generalmente para eliminar los síntomas.

Otro caso lo tenemos con la meningitis, una infección caracterizada por la inflamación de las membranas que recubren el sistema nervioso y que reciben el nombre de meninges. Cerca del 80% de los casos ocurren por diversos virus, y el 15% por bacterias. El 5% restante es causado por hongos, intoxicaciones y otras enfermedades. Se estima que unas 30 000 personas fallecen al año de meningitis y, justamente por la diversidad de causas que la provocan, es muy difícil de prevenir y curar. Si el origen está en un virus la enfermedad no es grave, pero si está en una bacteria puede resultar mortal —fallece el 25% de los recién nacidos, el 2% de los niños y el 20% de los adultos—. Además, aproximadamente un tercio de los supervivientes padece secuelas, que pueden ir desde el daño cerebral a la sordera.

Hay vacunas contra la mayoría de meningitis bacterianas, aunque aún están en proceso de investigación e implantación, pero para los otros tipos la prevención es bastante más complicada. Todo esto se traduce en cifras muy preocupantes: mientras que en Europa se producen solo unos 81 000 casos anuales de meningitis bacteriana —la viral es más común pero menos peligrosa—, en el África subsahariana llevan sufriendo contagios masivos desde hace más de un siglo en una zona conocida como el cinturón de la meningitis. Un ejemplo de lo que a veces sucede allí fue la epidemia del año 1997, que dejó 25 000 muertes después de afectar a 250 000 personas y dejar incapacitadas a un gran número de ellas.

También podría ocurrir que, más allá de las enfermedades que conocemos, aparezca una nueva y que no exista un tratamiento inmediato, pero para poner un ejemplo voy a contar una historia que ocurrió en los años ochenta.

El cinco de junio de 1981, el Centro para el Control y Prevención de Enfermedades de Estados Unidos convocó una rueda de prensa: habían detectado algunos casos raros de pacientes homosexuales con neumonía y, al mismo tiempo, un tipo de cáncer de piel llamado sarcoma de Kaposi. La similitud de los síntomas y de tendencia sexual, les hizo sospechar que algo raro estaba sucediendo. Al analizar a los pacientes se constató que tenían un número bajo de un tipo de células inmunitarias, las conocidas como linfocitos T CD4+. A los pocos meses todos habían fallecido.

Al principio se atribuyó la enfermedad a los varones homosexuales, pero al poco tiempo se reportaron casos de personas que abusaban de drogas inyectables como la heroína, prostitutas, y gente que había recibido transfusiones sanguíneas. En 1982 y después de constatar los síntomas en miles de pacientes, se le llamó el síndrome de inmunodeficiencia adquirida —más conocida por su acrónimo, sida—. La enfermedad se caracterizaba por destruir el sistema inmunológico del paciente, que finalmente acababa muriendo al no poder defenderse de enfermedades tan sencillas como un constipado o una neumonía.

Nadie sabía qué causaba la enfermedad y se barajaban numerosas teorías, hasta que finalmente se encontró la respuesta: un virus de transmisión sanguínea y sexual que había dado el salto de primates a humanos en la década de 1920. La enfermedad se había expandido durante sesenta años sin que nadie se diera cuenta, y se estima que actualmente hay 37 millones de personas con sida —otros 43 millones ya han fallecido desde el inicio de la epidemia—.

Hoy en día no existe cura ni vacuna, pero gracias a la disponibilidad de algunos tratamientos los pacientes pueden sobrevivir y llevar una vida normal, o al menos eso es lo que ocurre en los países que pueden permitirse los retrovirales para sus enfermos. La realidad es que la población de los países en vías de desarrollo no tiene acceso a la medicación y millones de personas mueren sin remedio.

Ahora bien, el sida no es la única enfermedad que ha aparecido o se ha extendido en los últimos años. El síndrome de las vacas locas o la gripe aviar son dos buenos ejemplos, y no debemos olvidar que una enfermedad que ya ha sido controlada puede regresar a nuestras vidas. Por ejemplo, en el año 1979, el gobierno japonés dejó de incluir la tos ferina en su calendario de vacunación. Cuando solo el 10% de los niños estaban inmunizados, apareció un brote que infectó a más de 13 000 personas, matando a 41 de ellas. Puede parecer un número bajo de fallecidos, pero la historia puede repetirse con una enfermedad mucho más mortal y contagiosa, o con una que aún no conozcamos.

Como resumen, en un mundo sin experimentación animal, las enfermedades como la malaria, la meningitis o el sida, no podrían ser vencidas, por no hablar de otras muchas como el Parkinson, el mal de Alzheimer o la gran mayoría de tipos de cáncer.

Todo esto me recuerda a una campaña reciente para recaudar dinero contra otra patología que no tiene cura, la esclerosis lateral amiotrófica (ELA), que es una enfermedad degenerativa que se produce porque las neuronas encargadas del contacto muscular mueren poco a poco. El paciente sufre una parálisis progresiva y finalmente fallece en unos cinco años desde el diagnóstico inicial. Se sabe que a veces hay causas genéticas, pero en el 80% de los pacientes no se conoce el motivo que la provoca. Todo ese desconocimiento hace que los enfermos de ELA no tengan opciones y hagan muchos llamamientos para recaudar fondos contra la enfermedad.

Durante el verano de 2014, se hizo famosa la iniciativa de lanzarse por encima un cubo de agua helada, grabarlo en vídeo, hacer una donación para luchar contra la ELA e invitar a otros a hacer lo mismo. Grandes personalidades del mundo hicieron de trampolín para recaudar fondos y pudimos ver mojados hasta los pies a Bill Gates, Steven Spielberg, Lady Gaga, Cristiano Ronaldo, Rafa Nadal y Justin Bieber, entre muchos otros. Gracias a esa campaña se recaudaron 106 millones de euros para la lucha contra la enfermedad, pero todo esto me lleva a una reflexión final.

¿Qué se pretendía conseguir? Si analizamos a dónde fue el dinero recaudado vemos que la gran mayoría se destinó a investigación científica, y la única forma de probar tratamientos contra la ELA es mediante la experimentación animal. De hecho, se ha dado un paso de gigante con la creación de un ratón transgénico con el gen que produce la variedad genética del trastorno.

Puede ser que la solución para la enfermedad llegue tarde para los enfermos actuales, pero al menos los pacientes del futuro tendrán muchas más posibilidades. Así que, en un mundo sin experimentación animal, los pacientes de ELA no tendrían esperanzas aunque todos los famosos del planeta se tiraran un cubo de agua por encima.

Conclusiones

A día de hoy nadie puede poner en duda el papel que ha tenido la investigación científica para construir el mundo actual, pero alguien podría argumentar que ya estamos suficientemente avanzados y que podemos renunciar a la experimentación animal. La realidad es bien diferente.

La sociedad a veces asume que la próxima generación siempre tendrá una vida mejor. El problema es que, al habernos alejado del medio ambiente en el cual evolucionamos, nos hemos olvidado de una realidad universal: la naturaleza y los organismos que viven en ella son cambiantes y se adaptan con gran facilidad. La humanidad jamás estará a salvo de catástrofes y epidemias, y aunque ahora sepamos manejarlas mejor, eso no asegura que podamos eliminar la amenaza.

En los Estados Unidos, la mortalidad causada directamente por enfermedades infecciosas aumentó en un 58% desde el año 1980 al 1992, posiblemente debido a la reaparición de enfermedades del pasado, la disminución de las tasas de vacunación y a la epidemia de sida.

Aquellos que piensan que la experimentación animal ya no es necesaria porque el estado actual de la sanidad es satisfactorio, deben recordar que la guerra contra la enfermedad aún no ha sido ganada. Es más, en la gran mayoría de casos aún no se ha librado la última batalla contra dolencias que llevan acechándonos desde hace milenios.

Otras enfermedades no arrojan perspectivas de curación a corto plazo y requerirán décadas de experimentación animal, como son el sida, la esclerosis múltiple o la distrofia miotónica.

Con todos estos datos, ya solo queda responder en su totalidad a la pregunta que intentábamos responder en este capítulo: ¿cómo sería un mundo sin la experimentación animal? En primer lugar, es muy posible que la esperanza de vida rondara los 55 años en contra de los 77 actuales. Por otro lado, la mortalidad infantil en el mundo desarrollado no estaría situada en el 0,5%, sino en el 10%. Además, nuestra calidad de vida se vería mermada por muchas enfermedades incapacitantes. Es decir, si quieres saber cómo sería un mundo sin la experimentación animal, solo tienes que mirar a tu alrededor y borrar de tu vida al 10% de las personas que conoces —no habrían superado los cinco años de edad— y también tendrías que despedirte de casi todas las personas con más de 55 años. Además, habría muchas probabilidades de que tuvieras secuelas incapacitantes o alguna condición crónica que te impediría hacer una vida normal, y eso también sería aplicable para el resto de personas que conoces. Por otro lado, como la mayoría de medicamentos actuales no existirían, es posible que no hubiera ningún paliativo para los dolores. Pero eso no sería todo: no habría una manera clara de ver qué productos son tóxicos para los humanos y el medio ambiente, así que, seguramente, las tuberías del agua corriente seguirían siendo de plomo y este seguiría usándose en la gasolina. Otro tanto ocurriría con muchos compuestos que han sido retirados con el paso de los años, por lo que las tasas de muertes y discapacidad debida a intoxicaciones serían elevadísimas.

También habría que borrar gran parte de los contenidos de los libros de texto de biología, ya que ese conocimiento nunca habría sido descubierto. Los nombres de personas como Louis Pasteur, Santiago Ramón y Cajal y Alexander Fleming, no te sonarían, ya que sus descubrimientos habrían sido imposibles en un mundo sin la experimentación animal.

Otra de las cosas que desaparecería sería la esperanza para millones de personas que aún esperan que la enfermedad que padecen sea curada, ya que las ciencias biológicas y médicas perderían una de sus herramientas más valiosas para avanzar en el conocimiento.

Con todo lo dicho solo pretendo mostrar una realidad: toda acción tiene un precio. Me atrevo a decir que la gran mayoría de experimentadores detesta tener que usar animales, pero ese es el precio que tenemos que pagar. Puede ser que haya gente que preferiría no pagarlo, pero eso también tendría consecuencias para el resto de la sociedad.

Al final todo se reduce a una pregunta moral que ya enunciamos con anterioridad, ¿vale lo mismo la vida de un animal que la de un ser humano? O, para ser más exactos, ¿vale lo mismo la vida de un animal que la de miles de humanos, la conservación del planeta, el avance del conocimiento y las aplicaciones de la ciencia?

[1] La microbiología es la rama de la biología que se encarga del estudio de los organismos microscópicos, tales como bacterias o levaduras.

[2] Una neurotoxina es una sustancia que daña la función del tejido nervioso.

[3] Nephrotoxic and Renotropic Effects of Lead on White Rats and its Prevention by B.A.L. Hugo Chiodi and Rodolfo Sammartino. Nature. 1947

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *