| ||||
|
CIENCIA Y PSEUDOCIENCIAS 2007 Módulo I: un panorama de la ciencia contemporánea resúmenes de las conferencias y currículos de los conferenciantes Qué es esa cosa llamada Ciencia. Inés Rodríguez Hidalgo Los arquitectos de la Ciencia Moderna. José María Riol Cimas La evolución de los organismos vivos. Carolina Martínez Pulido Paleoantropología: en busca de nuestros orígenes. María Dolores Garralda Benajes El sistema operativo de los seres vivos. Alberto Marín Sanguino El camino hacia el ADN. José María Riol Cimas Transgénicos: Ciencia y opinión pública. Antonio Rodríguez del Castillo ¿Es posible curar con genes? Néstor V. Torres Darias Clonación: Frankenstein redimido. Néstor Torres Darias Neurociencia Cognitiva: mente, cerebro y computación. Horacio Barber Friend A propósito de la energía (positiva, por supuesto). Basilio Ruiz Cobo Rayos X, antenas, móviles y salud. José Hernández Armas Amenazas del cielo. Oswaldo González Sánchez ¿Existe vida en el planeta Tierra? Manuel Vázquez Abeledo Mecánica cuántica para torpes. Luis Vega Martín. Érase una vez en el Atlántico. El origen de las Canarias. Carmen Díaz Vilela Ecólogos y ecologistas. ¿Diferentes caras de la misma moneda? José María Fernández Palacios ¿Estamos cambiando el clima? Manuel Vázquez Abeledo El poder de los números: verdades y mentiras. Antonio Martinón Cejas La comunicación de los resultados científicos. Ramón García López Qué es esa cosa llamada Ciencia. Inés Rodríguez HidalgoDoctora. Profesora Contratada Doctora Tipo I. Departamento de Astrofísica. Universidad de La Laguna (ULL) Investigadora. Instituto de Astrofísica de Canarias Jueves, 8 de marzo de 2007 Vivimos inmersos en la Ciencia, disfrutando sus logros, temiendo sus riesgos, influidos por sus ideas, conceptos y métodos, bombardeados por mensajes publicitarios del tipo 'científicamente probado'... En nuestra sociedad actual coexisten muy diversas opiniones y actitudes ante la Ciencia: hay quienes la critican por encontrarla fría y ajena a toda sensibilidad humana; quienes la temen y rechazan por considerarla origen de todos los males derivados de la tecnología; otros la acusan de rígida e inmovilista, de deshonesta y vendida a intereses políticos o económicos; algunos la idealizan como solución universal, creadora de bienestar, sanadora de enfermedades, portadora de esperanzas, mientras que es considerada por otros como una nueva religión de masas cuyos sacerdotes son esos 'locos científicos de bata blanca'; frecuentemente se la menciona con esa mezcla de temor y admiración que provoca en el común de los mortales lo complejo e inaccesible. Porque curiosa (y lamentablemente) en nuestra sociedad 'de la Ciencia y la Tecnología y la Comunicación', el analfabetismo científico es casi una epidemia, y muchas personas supuestamente cultas, incluyendo líderes sociales o políticos, tienen un paupérrimo conocimiento de la Ciencia y se sienten incómodos ante ella. Parece evidente, sin embargo, que la solución a graves problemas como el hambre, la superpoblación o el déficit de energía requieren la combinación de diversos avances científicos y tecnológicos; y que la formación de la opinión pública acerca de temas de actualidad como la clonación, los transgénicos, la contaminación o la eutanasia implica, además de consideraciones éticas, un mínimo de formación científica. En esta situación, hoy más que nunca es necesario aproximar la realidad científica a toda la sociedad. Y una adecuada forma de comenzar esta tarea divulgativa es tratar de responder a la pregunta: ¿qué es esa cosa llamada Ciencia, componente esencial de la cultura, que invade nuestro mundo, de la que hablamos inevitable y continuamente, pero que tan poco conocemos y comprendemos?, ¿qué tiene de especial, qué le proporciona su prestigio y su éxito? Pues bien, la Ciencia puede definirse como una cuidadosa, disciplinada y lógica búsqueda del conocimiento acerca del mundo que nos rodea, obtenida tras examinar la mejor evidencia disponible, siempre sujeta a refutaciones, correcciones y mejoras si se encuentran pruebas más concluyentes. Ésta es la completa descripción de James Randi, famoso ilusionista fundador en Estados Unidos, junto con Paul Kurtz o Carl Sagan, entre otros, del Commitee for the Scientific Investigation of Claims of the Paranormal, CSICOP. O la asombrosamente precisa definición del célebre médico y divulgador mejicano Dr. Ruy Pérez Tamayo, Ciencia es una actividad creativa cuyo objetivo es la comprensión de la naturaleza y cuyo producto es el conocimiento (es difícil decir más con menos palabras). Conviene insistir en que la Ciencia se define, mucho más que por su contenido o resultados, por su procedimiento: ninguno de los avances científicos y tecnológicos de los que disfrutamos habría sido posible sin antes haber recorrido el camino del método (método significa precisamente camino). Nos referimos, claro, al método científico, característica esencial de cualquier disciplina o actividad que haya de ser calificada como científica. Por eso es natural que cualquier panorama de la Ciencia comience hablando del método científico, que ha demostrado desde hace algo más de cuatrocientos años ser capaz de proporcionar un conocimiento contrastado, veraz y universal cuyas consecuencias filosóficas y prácticas condicionan sin lugar a dudas nuestra vida. La primera parte de la conferencia es una invitación a reflexionar sobre la Ciencia con objeto de definirla, desmitificarla y descubrir sus engranajes. Tras revisar los métodos inductivo y deductivo, se explicará con mayor detenimiento el método hipotético-deductivo, con especial énfasis en el criterio de falsabilidad de las hipótesis y teorías científicas y en el uso de la navaja de Ockham. Hoy día resulta especialmente necesario aprender a distinguir la Ciencia de las pseudociencias (escrito a propósito con minúsculas, para marcar la diferencia), esas variopintas actividades que se hacen pasar por Ciencia sin cumplir sus requisitos ni utilizar su método ni compartir su rigor. Esta delimitación constituye un modo adicional de definir la Ciencia por oposición.
Bibliografía Chalmers, A.F. Qué es esa cosa llamada Ciencia. Tercera edición. Siglo XXI de España Editores. Madrid. 2000 Echeverría, J. Introducción a la Metodología de la Ciencia. Ed. Barcanova Temas Universitarios. Barcelona. 1989 Rodríguez Hidalgo, I., Díaz Vilela, L., Álvarez González, C., Riol Cimas, J.M.: Ciencia y pseudociencias: realidades y mitos. Equipo Sirius. Madrid. 2004
Inés Rodríguez Hidalgo es Doctora en Ciencias Físicas (Astrofísica), profesora del Departamento de Astrofísica de la ULL, divulgadora científica y actual Directora del Museo de la Ciencia y el Cosmos de Tenerife. Es autora de numerosos trabajos de investigación publicados en revistas especializadas y actas de congresos internacionales de Astrofísica, así como de artículos de divulgación. Ha escrito varios capítulos en libros y es editora científica de 'Ciencia y pseudociencias: realidades y mitos' (Equipo Sirius, 2004). Imparte frecuentemente conferencias y cursos de divulgación, algunos de los cuales ha dirigido o coordinado; escribió y presentó durante varios años la sección semanal 'Un tiempo para el espacio' del programa radiofónico Canarias Innova de RNE. Es miembro de ARP-Sociedad para el Avance del Pensamiento Crítico y se implica activamente en la difusión del escepticismo y la lucha contra las pseudociencias. Participa en este curso desde su primera edición como profesora y coordinadora. Los arquitectos de la Ciencia Moderna. José María Riol CimasDoctor. Profesor Titular de Universidad. Departamento de Bioquímica y Biología Molecular. ULL Jueves, 8 de marzo de 2007 Entre los siglos XVI y XVII tuvo lugar, en una buena parte de los países europeos, un proceso social extraordinario que introdujo dos cambios fundamentales para el posterior desarrollo de la humanidad. Por un lado la larga transición desde el feudalismo hasta la implantación del capitalismo, como nuevo y más evolucionado modo de producción, sustentado por la nueva clase emergente: la burguesía. Por otro lado, en el que probablemente ha sido el período revolucionario en el campo de las ideas más fructífero de la historia, tiene lugar el establecimiento de las bases de lo que, posteriormente, conoceríamos como Ciencia Moderna. La íntima relación de ambos cambios, en perfecta simbiosis, hace que no se pueda entender el progreso de uno sin la existencia del otro. Frecuentemente se asocia el comienzo del proceso que dio lugar al nacimiento de la Ciencia moderna, conocido como Revolución Científica, a la publicación por Nicolás Copérnico, en 1543, de un libro fundamental: Sobre las Revoluciones de las Esferas Celestes. Con esta obra se liquidaba la visión geocéntrica del universo, mantenida desde los tiempos de Tolomeo. Asimismo diversos autores dan por concluida la Revolución Científica en 1687, cuando Isaac Newton publica el que, para muchos, sigue siendo el mayor trabajo científico de la historia: Principios Matemáticos de la Filosofía Natural, una obra integradora, unificadora de los grandes descubrimientos de las décadas anteriores, en la que se exponen las tres leyes del movimiento y la ley de la gravitación universal.
Si hay una academia científica que puede considerarse como paradigma de las creadas en el siglo XVII esa es, sin duda, la Royal Society, que fue siempre una sociedad financiada exclusivamente por sus miembros, sin apoyo económico alguno de la corona, de manera que su escasez de recursos les condujo a la asociación con el Gresham College, la institución londinense para la enseñanza de la nueva Ciencia, creada por Sir Thomas Gresham casi un siglo atrás y en cuyos salones se reunían. Y también, en esos salones, los miembros más activos de la Royal Society, como Robert Hooke, el descubridor de las células, impartirían conferencias científicas gratuitas para el público londinense.
Bibliografía: Gribbin, J.: Historia de la ciencia, 1543-2001. Editorial Crítica. Barcelona. 2002 Bernal, J. D.: Historia Social de la Ciencia. Ediciones Península. Barcelona. 1979
José María Riol Cimas es Licenciado y Doctor en Ciencias Biológicas por la Universidad de La Laguna (ULL). Ha sido Investigador postdoctoral en la Universidad Complutense (Madrid), en la Unidad de Metabolismo de los Laboratorios Farmacéuticos Wellcome (Beckenham, Londres) y en la Universidad Técnica de Viena. Autor de publicaciones internacionales sobre el metabolismo de hidratos de carbono y sobre mecanismos de transporte de nutrientes a través de la membrana celular. Ha publicado más de sesenta artículos en libros, revistas y prensa diaria sobre divulgación de la Ciencia y de su historia. Conferenciante en las seis ediciones anteriores de este curso, coordinador en las dos primeras y director de la tercera y la séptima edición. Coeditor del libro Ciencia y pseudociencias: realidades y mitos (Equipo Sirius, Madrid, 2004). Es Profesor Titular de Universidad del Departamento de Bioquímica y Biología Molecular de la ULL y director del Aula Cultural de Divulgación Científica de la ULL. La evolución de los organismos vivos. Carolina Martínez PulidoDoctora. Profesora Titular de Universidad. Departamento de Biología Vegetal. ULL Martes, 13 de marzo de 2007 La publicación, en 1859, del más que célebre trabajo del científico británico Charles Darwin, El origen de las especies, constituyó, como es por todos conocido, un acontecimiento fundamental en la historia de la Biología moderna.
Bibliografía Bowler, P.: Charles Darwin, el hombre y su influencia. Alianza editorial. Madrid. 1995
Martínez Pulido, C.: El papel de la mujer en la evolución humana. Biblioteca Nueva. Madrid. 2003
Carolina Martínez Pulido es Doctora en Biología y Profesora Titular del Departamento de Biología Vegetal. Ha publicado diversos trabajos de investigación en la especialidad de Biotecnología Forestal. Ha estado becada durante dos años en la Universidad de Calgary, Canadá. Ha disfrutado de dos estancias en el Centro de Investigaciones Agrobiológicas de Galicia (CSIC, Santiago de Compostela). Ha impartido diversos Seminarios sobre Biología Evolutiva. Ha impartido diversas conferencias sobre pensamiento biológico e Historia de la Biología y colaborado con la Universidad Nacional de Tucumán, Argentina. Miembro del CEM (Centros de Estudios de la Mujer) de la ULL. Actualmente desarrolla una línea de trabajo acerca del papel de la mujer en las Ciencias Biológicas. Ha publicado cuatro libros de divulgación científica sobre este tema: También en la cocina de la ciencia (2001), Servicio de Publicaciones de la ULL; El papel de la mujer en la evolución humana (2003), Biblioteca Nueva, Madrid; Gestando vidas, alumbrando ideas (2004), Minerva ediciones, Madrid y La presencia femenina en el pensamiento biológico (2006), Minerva ediciones, Madrid. Paleoantropología: en busca de nuestros orígenes. María Dolores Garralda Benajes Doctora. Profesora Titular de Universidad. Departamento de Zoología y Antropología Física. Universidad Complutense. Madrid Martes, 13 de marzo de 2007 El contenido de esta conferencia, respondiendo al marco del curso en el que va a impartirse, va a consistir en una exposición, que contribuya a hacer comprender lo complejo del tema, y a la superación de unas cuantas ideas muy comunes y de gran arraigo popular cuando se habla de Evolución Humana. Pero, a diferencia de otros años, esta vez vamos a exponer brevemente diversos aspectos sobre cómo se aborda, en este siglo XXI, el estudio de la Evolución del Hombre. Aunque extremadamente resumidos, los diferentes puntos expondrán nuestra perspectiva de científicos que disponen de nuevos métodos y de una gran cantidad de información procedente de campos tan distintos como la Prehistoria, la Genética Humana, la Geología, etc... Comenzaremos la exposición insistiendo en la necesaria perspectiva multidisciplinar con que actualmente se enfocan estos temas, pasando luego a explicar dónde se hallan y cómo se obtienen los fósiles, cómo se forman los equipos multidisciplinares, detallando después los distintos tipos de yacimientos (primarios, secundarios, haciendo especial énfasis en las sepulturas) y las cuidadosas técnicas de excavación y manejo de los hallazgos. Posteriormente detallaremos los diversos trabajos que se realizan en los laboratorios, primero de limpieza, consolidación y reconstrucción, para proceder después a los análisis métricos y morfológicos, comparando siempre con otros fósiles o restos bien identificados; todo eso nos permitirá estimar el sexo del individuo o la edad al fallecimiento, así como asignarlo a un grupo taxonómico descrito, o quizás a uno nuevo, Hoy en día tenemos instrumentos cruciales para analizar muchos detalles de los fósiles, como por ejemplo las importantes aportaciones de las antiguas y nuevas técnicas de análisis de imágenes que expondremos con varias fotografías. Otros varios ejemplos ilustrarán sobre la reconstrucción del estado de salud (enfermedades, traumas…) que podemos deducir del estudio de numerosos restos tanto de niños como de adultos, o de las paleodietas, inferidas, sobre todo, mediante las proporciones existentes entre algunos de los componentes químicos o minerales de los huesos. También hablaremos de los estudios que tratan de reconstruir el comportamiento, tanto de los primates ancestrales como de cualquiera de los diferentes grupos humanos a través de su historia inicial; este tipo de trabajos requieren no solo determinados datos que pueden proporcionar los fósiles, sino también de las necesarias aportaciones de la Prehistoria. Cuando se trata, sobre todo, del comportamiento de los homínidos más antiguos, resultan muy importantes los numerosos y ahora bien conocidos datos sobre la etología de los grandes primates en libertad (gorila, orangután y, sobre todos, los chimpancés); y en el caso de la reconstrucción de sociedades humanas, existen muchísimos estudios sobre las poblaciones subactuales o contemporáneas, sobre todo de sociedades cazadoras-recolectoras, que siempre pueden ilustrar siquiera sobre la complejidad del comportamiento humano, muchas veces inexplicable si carecemos de documentos que lo interpreten. Citaremos también la cuestión del origen del lenguaje, tema de una complejidad que supera los análisis de las diferentes regiones de los moldes del cerebro que obtenemos de los fósiles y sobre el que existen muchas más polémicas que puntos claros. Y, por último, abordaremos la problemática de los estudios genéticos, tanto de los realizados sobre muestras de poblaciones actuales, como de los pocos hasta ahora factibles a partir de fragmentos óseos. En la exposición resumiremos no sólo los logros para algunos de los puntos principales, sino que insistiremos también en el hecho de que, en Paleoantropología, hay que ser conscientes de las numerosas lagunas y dudas existentes que aconsejan una prudencia, lejos de ser respetada en el campo profesional, y totalmente ignorada en la divulgación. El tiempo disponible, obliga a tratar sólo algunos temas, como queda indicado, aunque podríamos ampliar cada uno de ellos o abordar muchos más. El interés que las gentes en general tienen por conocer algo sobre la Evolución del Hombre ha causado que haya muchos libritos, panfletos o revistas de divulgación con errores increíbles, y aseveraciones que hacen sonrojar, o enojarse, a los profesionales del tema. Como en otras muchas ciencias del campo de la Biología, actualmente sabemos que hemos avanzado enormemente en los conocimientos sobre nuestra propia historia evolutiva, pero que lo que ignoramos es mucho más de lo que sabemos, y todo lo que hemos aprendido nos permite vislumbrar ante nosotros un panorama mucho más complejo del imaginado hace algún tiempo. En el esfuerzo por seguir desvelando esta historia hay que proseguir con criterios y métodos serios, a la vez que con trabajos multidisciplinares, si queremos realmente hacer Ciencia y no paleopoesía. Bibliografía Boyd, R. y Silk, J.: Cómo evolucionaron los Humanos. Ariel Ciencia. Barcelona. 2001 Cohen, C.: Histoire de la Paléoanthropologie. En : O. Dutour, J. J. Hublin y B. Vandermeersch: Objets et Méthodes en Paleoanthropologie. C.T.H.S. Paris. 2005. pp. 21-50 Reader, J.: Eslabones perdidos. Fondo Educativo Interamericano. 1982 Stringer, C. y Gamble, C.: En busca de los Neandertales: la solución al rompecabezas de los orígenes humanos. Crítica. Barcelona. 1996 María Dolores Garralda Benajes ha impartido cursos de Licenciatura o Doctorado sobre 'Antropología Física', 'Biología de las Poblaciones Humanas', 'Biología Evolutiva del Hombre' y 'El Hombre: Origen y Evolución', en las enseñanzas de la Facultad de Biología, así como cursos o seminarios en diversas universidades españolas o extranjeras. Ha publicado más de 100 trabajos de investigación en revistas internacionales o nacionales, así como en diferentes libros. Los temas abordan siempre el estudio de diversos aspectos de las poblaciones del pasado, desde los neandertales a la Edad Media. Es miembro de diversas sociedades científicas españolas y extranjeras. Ha realizado numerosos viajes de estudios por diversas universidades y museos europeos, americanos, africanos y asiáticos, para analizar el registro fósil del hombre y sus ancestros. Asimismo ha participado en diversas excavaciones arqueológicas como las de los yacimientos clave de las cuevas de El Castillo (Santander), Qafzeh (Israel) o El Salt (Alicante). El sistema operativo de los seres vivos. Alberto Marín SanguinoLicenciado. Investigador. Departamento de Bioquímica y Biología Molecular. ULL Miércoles, 14 de marzo de 2007 El súbito desarrollo de la ingeniería genética durante la segunda mitad del siglo veinte ha causado un gran impacto en la opinión pública y propiciado no pocas polémicas en torno al uso de esta tecnología. La genética ha saltado de las monografías especializadas a la primera plana de los periódicos, las tertulias y hasta el mismo parlamento. Conceptos como clonación, transgénicos, armas biológicas o investigación con células madre, están continuamente en los medios y despiertan agrias discusiones salpicadas de tecnicismos, a menudo difíciles de seguir. La ingeniería genética se presenta como la solución a todos nuestros problemas o la peor amenaza tecnológica desde la invención de las armas nucleares, algo sobre lo que hay que estar a favor o en contra. Pero aún dejando de lado el sensacionalismo, la ciencia-ficción y la simple tecnofobia, resulta indudable que la culminación del Proyecto Genoma constituye el principio de una nueva era para las ciencias de la vida y habrá de influir la concepción misma de la naturaleza humana. Esta charla tiene por objetivo dar una introducción, lo más sencilla posible, a los conceptos básicos de la genética. Pretende orientar al alumno para ayudarle a entender otras conferencias de este mismo ciclo e iniciar su propia búsqueda de información.
Vector: es algún mecanismo que permite la entrada y puesta en funcionamiento del ADN extraño en la célula a modificar. Un ejemplo sería utilizar un virus para 'inyectar' el ADN. Marcadores: no podemos manipular las células ni las moléculas de ADN de una en una y los procedimientos no funcionan siempre. Por esta razón, hace falta algún tipo de marcador que permita distinguir las células que han incorporado el ADN extraño de aquellas que no lo han hecho. Los marcadores son genes que entran con el ADN extraño y permiten su detección. Así pues, una célula se comporta como una máquina muy compleja a cuya programación podemos acceder mediante las herramientas que la ingeniería genética pone a nuestra disposición. Después de más de una década de trabajo, se han creado plantas que brillan en la oscuridad o se defienden más eficientemente de sus predadores, bacterias capaces de producir proteínas humanas que curan enfermedades y muchas otras aplicaciones tecnológicas pero ¿donde está el límite? El mayor desafío de la actualidad está en comprender cómo los genes actúan conjuntamente para realizar tareas complejas. El manual del usuario de ese sistema operativo celular que son los genes aún está por escribir. Bibliografía Freifelder, D.: Fundamentos de Biología Molecular. Editorial Acribia. Zaragoza. 1989
Alberto Marín Sanguino es Licenciado en Ciencias Biológicas por la Universidad de La Laguna (ULL). Ha trabajado en las Universidades Técnica de Viena e Insbruck (Austria), Kosuth Lajos (Hungría) y Warmia-Mazuria (Polonia). Ha participado como ponente en congresos y publicado trabajos de investigación en revistas internacionales, siendo su principal área de interés esa mezcla de Microbiología, Matemáticas e Informática que se ha dado en llamar Biología de Sistemas. Actualmente es el delegado de la empresa CANATEC 35 para la provincia de Las Palmas y realiza su tesis doctoral en el Departamento de Bioquímica y Biología Molecular de la ULL sobre optimización de sistemas biológicos de interés industrial. Su interés por la divulgación científica le ha llevado a participar en este curso desde sus inicios y a hacerse miembro de la asociación Alternativa Racional a las Pseudociencias - Sociedad para el Avance del Pensamiento Crítico. El camino hacia el ADN. José María Riol CimasDoctor. Profesor Titular de Universidad. Departamento de Bioquímica y Biología Molecular. ULL Miércoles, 14 de marzo de 2007 Hace 54 años se proponía un modelo de estructura tridimensional para el ácido desoxirribonucleico (ADN). Este descubrimiento científico, considerado por muchos el más importante del siglo XX, contribuyó decisivamente a la emergencia de la moderna Biología Molecular, que representa la gran revolución científica de nuestros días, equiparable a la provocada por Charles Darwin en 1859 con la publicación de El Origen de las Especies.
Bibliografía Watson, J.: La doble hélice. Plaza y Janés. Barcelona. 1978
José María Riol Cimas es Licenciado y Doctor en Ciencias Biológicas por la Universidad de La Laguna (ULL). Ha sido Investigador postdoctoral en la Universidad Complutense (Madrid), en la Unidad de Metabolismo de los Laboratorios Farmacéuticos Wellcome (Beckenham, Londres) y en la Universidad Técnica de Viena. Autor de publicaciones internacionales sobre el metabolismo de hidratos de carbono y sobre mecanismos de transporte de nutrientes a través de la membrana celular. Ha publicado más de sesenta artículos en libros, revistas y prensa diaria sobre divulgación de la ciencia y de su historia. Conferenciante en las seis ediciones anteriores de este curso, coordinador en las dos primeras y director de la tercera y la séptima edición. Coeditor del libro Ciencia y pseudociencias: realidades y mitos (Equipo Sirius, Madrid, 2004). Es Profesor Titular de Universidad del Departamento de Bioquímica y Biología Molecular de la ULL y director del Aula Cultural de Divulgación Científica de la ULL. Transgénicos: Ciencia y opinión pública. Antonio Rodríguez del CastilloDoctor. Profesor Titular de Universidad. Departamento de Bioquímica y Biología Molecular. ULL Jueves, 15 de marzo de 2007 La era de los alimentos transgénicos para el consumo humano comenzó el 18 de Mayo de 1994 cuando la “Food and Drug Administration” (USA) autorizó la comercialización del primer alimento con un “gen extraño”: el tomate “Flavr Savr” obtenido por la empresa Calgene. Posteriormente, en 1996, Monsanto lanzó al mercado la soja “Roundup Ready”. A partir de aquí, en las sociedades industrializadas hemos sido testigos de una intensa polémica sobre los Organismos Genéticamente Modificados (OGM) o transgénicos; la discusión acerca de los beneficios y riesgos de los cultivos de plantas transgénicas o relacionada con los efectos sobre la salud humana, debido a la ingestión de alimentos obtenidos a partir de ellos ha sido el pan de cada día. Es de destacar que en ocasiones los argumentos utilizados en estos debates han sido de índole emotivo, en lugar de estar basados en evidencias científicas, lo que ha supuesto un terreno abonado para la aparición de teorías catastrofistas que han conseguido tener un gran eco en los medios de comunicación social. Si bien existen numerosos artículos publicados referentes a los OGM, todavía no hay una conciencia clara al respecto de: ¿ qué son estos organismos?, ¿cuáles son sus beneficios? y ¿qué riesgos potenciales pueden presentar para la salud humana y el medio ambiente? Con esta conferencia se pretende divulgar y ofrecer una visión objetiva, fundamentada en criterios técnicos, para obtener la respuesta a estos interrogantes. Un organismo transgénico es aquel al que se le han transferido uno o varios genes de un organismo diferente, el cual pasa a constituir parte de su patrimonio genético. Este nuevo gen le confiere una característica nueva que antes no poseía. Por ejemplo, a una bacteria se le puede insertar el gen de la insulina humana, y a partir de ese momento esa bacteria es transgénica y producirá insulina humana. Actualmente, es técnicamente posible transferir genes entre cualesquiera tipos de organismos: de animales a bacterias, de bacterias a plantas, de plantas a animales, etc. Hay que resaltar que no se crean nuevos organismos. ¿Para qué se usan los organismos transgénicos?: para investigación, para obtener proteínas humanas de interés terapéutico y en la agricultura. Las plantas transgénicas son el grupo de OGM que ha recibido mayor oposición y rechazo por parte de diversos sectores. Actualmente, los cultivos de plantas transgénicas más importantes a nivel mundial son: la soja 50%, algodón 20%, colza 15% y maiz 10 %. Se cultivan principalmente en USA, Canadá, Argentina, China, India, Brasil y Sudáfrica. En la Unión Europea el desarrollo y cultivo de plantas transgénicas estuvo muy limitado por la existencia de moratorias, que fueron retiradas en el 2004. Aunque el número de plantas modificadas supera el centenar, los genes utilizados para la transformación son muy pocos. Un 70% de ellas han recibido un gen que las hace resistentes a los herbicidas, mientras que un 20% han sido transformadas con un gen que les confiere resistencia a los insectos. El 10% se lo reparten genes que dan resistencia a virus, hongos, bacterias, que retrasan la maduración de los frutos, etc. ¿Son peligrosas las plantas transgénicas para la salud o el medio ambiente? La respuesta es clara: no. No plantean ningún peligro especial. En cuanto a la salud humana, una planta transgénica sería peligrosa si: a) la proteína producida es directamente tóxica; b) la proteína produce alergias y c) como resultado de la manipulación genética la planta activa genes silenciosos y se transforma en perjudicial. No ha habido casos ni en cultivos experimentales ni en cultivos comerciales que permitan suponer que estas plantas sean peligrosas. Durante todo el tiempo que llevan en cultivo no se ha presentado un solo caso documentado en el que se hayan encontrado problemas de toxicidad o de alergia, con una excepción en una variante de soja experimental que produjo alergia en una persona sensible a las nueces, y que no se llegó a comercializar. El grado de control de las plantas transgénicas es muy superior al de los cultivos tradicionales: en USA se llevan consumiendo bastantes años, sin que haya habido problemas de ningún tipo. Por consiguiente, la prevención del consumidor europeo frente a estas plantas no tiene justificación científica o sanitaria, y es un ejemplo claro de manipulación de la opinión pública. En este sentido, las recientes actuaciones de la Comisión Europea, permitiendo la comercialización de estos productos con un etiquetado adecuado son lógicas y razonables. En cuanto a sus efectos sobre el medio ambiente o la economía de los países en desarrollo, los problemas que ocasionan -que los hay- son básicamente los mismos de cualquier monocultivo agrícola masivo, sea o no transgénico. Bibliografía Corzo Varillas, J.: Transgénicos: Ciencia y opinión pública. Resumen de la conferencia presentada en el curso Ciencia y Pseudociencias 2006 Información en Internet http://cls.casa.colostate.edu/CultivosTransgenicos/ http://elmundosalud.elmundo.es/elmundosalud/2004/04/19/dieta/1082357695.html. http://www.arp-sapc.org/alojadas/transgenicos.html Antonio Rodríguez del Castillo es Doctor en Ciencias Biológicas por la ULL. Comenzó su formación en investigación en el Departamento de Bioquímica de la Facultad de Veterinaria de la Universidad Complutense de Madrid (1987-88), donde trabajó sobre el metabolismo de los dinucleótidos polifosfatos. A continuación, entre 1989-94, en el Department of Pharmacology, Facullty of Medicine, University of Ottawa, Canada, estudiando los mecanismos moleculares implicados en la exocitosis. Es autor de publicaciones internacionales sobre temas como: regulación de la ingesta, conducta sexual, transporte de iones, metabolismo de dinucleótidos polifosfatos, proteínas reguladoras del citoesqueleto ó genes implicados en el mantenimiento del genoma. Actualmente es profesor Titular de Universidad del Departamento de Bioquímica y Biología Molecular de La ULL. Imparte docencia en las facultades de Biología y Química. En el campo de la investigación está interesado en el estudio del envejecimiento en general, y en los sistemas de reparación del ADN en particular. ¿Es posible curar con genes? Néstor V. Torres DariasDoctor. Profesor Titular de Universidad. Departamento de Bioquímica y Biología Molecular. ULL Jueves, 15 de marzo de 2007 Se denomina Terapia Génica (TG) a aquella técnica de ingeniería genética mediante la cual se introduce material genético exógeno en seres humanos con el fin de corregir deficiencias del material cromosómico (genoma) y proporcionar así alguna ventaja terapéutica. Frente a la terapia tradicional que se basa en el uso de drogas (medicamentos) que actúan sobre los productos de los genes (las proteínas) o son ellos mismos productos de los genes, la TG está dirigida a actuar sobre los genes mismos. Se distinguen distintos tipos de TG. La germinal consiste en la intervención sobre el genoma de las células reproductoras (espermatozoides, óvulos), orientada a la curación de enfermedades hereditarias y que actúa en beneficio de la descendencia, no sobre el individuo sobre el que se actúa. La somática actúa sobre células no reproductoras para restablecer en el tejido una función no operativa debido a algún defecto de los genes responsables de su control. La aplicación de las TG requiere la identificación de los genes implicados en la patología, el desarrollo de técnicas para la clonación de los mismos y disponer de mecanismos eficaces de transferencia y expresión. Por otra parte es necesario garantizar la transferencia de los genes deseados a las células elegidas y que estos se expresen suficientemente. Dado que en general un gen no puede ser directamente insertado en las células de una persona se requiere de un vehículo, el “vector”. Se han desarrollado varios tipos, siendo los más socorridos los virus y los liposomas. Los primeros tienen la capacidad de insertar su ADN en el de una célula mientras que los liposomas consisten en vesículas de grasa que se fusionan con las membranas celulares. Un tercer grupo lo constituyen los retrovirus que son virus con ARN como material genético. Algunas de sus aplicaciones más importantes hasta el momento han sido el tratamiento de la deficiencia en adenosina deaminasa, de la fibrosis cística y de algunos tipos de cáncer. Son numerosos los riesgos que conlleva la utilización de las TG. Los virus pueden infectar a más de un tipo de células causando la modificación de células distintas de las objetivo. La posible inserción errónea del gen en el ADN puede provoca cáncer u otros daños; dado que es imprescindible la eliminación de los genes víricos responsables de su multiplicación existe la posibilidad de mutaciones o de que tomen fragmentos de ADN de la célula huésped e infecten al paciente. Es posible la inserción del gen en las células reproductoras lo que provocaría cambios hereditarios. El exceso de expresión de los genes podría producir un exceso dañino de la proteína. El virus vector puede causar problemas de toxicidad, reacción inmune e inflamación y finalmente existe el riesgo de la transmisión del virus a otras personas o al medio ambiente. Otros problemas que debe afrontar el uso de las TG están relacionados con los retos técnicos que se le plantean. Así se requiere el desarrollo de métodos más sencillos y eficaces de introducir genes en el organismo; disponer de vectores específicos para las células diana; mejorar la eficacia en la inserción de los genes en las posiciones correctas del ADN humano. Pero estas no son las únicas limitaciones que presenta. Los tratamientos repetidos necesarios para que sean eficaces a largo plazo plantea el problema de la respuesta inmune que se produce siempre que un elemento extraño se introduce en un tejido. Por otra parte el ADN terapéutico introducido en las células debe permanecer funcional y las células que lo contienen ser estables y de vida larga. Las interacciones posibles con el genoma celular y la división rápida de las células de muchos tejidos impiden que la TG rinda beneficios a largo plazo. Relacionada con la aplicación de las TG está el concepto de la eugenesia. Esta se define como la aplicación de las leyes biológicas al perfeccionamiento de las cualidades propias de la raza, incluida la especie humana y aquellas que se desarrollan de forma óptima. Existen dos tipos de eugenesia: la negativa, destinada a la eliminación de una descendencia no deseada o que padece graves malformaciones; y la positiva, destinada a la selección de algunas características fisiológicas deseadas. La TG germinal no terapéutica abre la puerta a la eugenesia positiva: la modificación del patrimonio genético no patológico y la manipulación genética con fines no terapéuticos que es considerada inaceptable y contraria a la dignidad humana y debe excluirse expresamente en la legislación. El desarrollo de las técnicas de ingeniería genética (terapias génicas, clonación, transgénicos), plantea los mismos conflictos éticos y morales que cualquier nuevo y poderoso desarrollo tecnológico. Pueden significar un gran bien para la humanidad o grandes males según el uso que se haga de ellas, pero es necesario aumentar los conocimientos actuales sobre transferencia génica y asegurar que los tratamientos no estarán reservados a una minoría privilegiada. Bibliografía Kolata, G.: Clone: The Road to Dolly, and the Path Ahead. William Morrow and Company Inc. New York. 1998
Néstor Torres Darias, Licenciado y Doctor en Química, es Profesor de Bioquímica y Biología Molecular en la Universidad de La Laguna. Ha sido investigador en las universidades de Edimburgo (Gran Bretaña), Complutense (Madrid), Técnica de Viena (Austria) y Michigan (Estados Unidos). Dirige un grupo de investigación dedicado a la ingeniería metabólica mediante el empleo de técnicas de modelización matemática y la optimización de sistemas bioquímicos. Ha sido y es Investigador Principal de varios proyectos de investigación, autor de más de cuarenta trabajos de investigación en revistas especializadas internacionales, autor de un libro sobre modelización matemática y optimización de sistemas biotecnológicos y evaluador de proyectos y artículos de numerosas revistas y agencias de investigación internacionales. Ha dirigido cursos de divulgación científica e impartido conferencias sobre estos temas. Actualmente es el Director de la Agencia Canaria de Evaluación de la Calidad y Acreditación Universitaria. Clonación: Frankenstein redimido. Néstor Torres DariasDoctor. Profesor Titular de Universidad. Departamento de Bioquímica y Biología Molecular. ULL Martes, 20 de marzo de 2007 Un clon es un organismo con idéntica constitución genética que otro, obtenido por métodos asexuales. Clonación es por tanto el proceso de producción de clones. Un caso bien conocido de clones naturales son los gemelos monocigóticos. Pero el hecho de que dos clones sean genéticamente idénticos, no significa que sean idénticos. El medio ambiente, tanto natural como cultural, determinará diferencias entre ellos. Esto quiere decir que un clon de Einstein no tendría por qué tener el mismo coeficiente intelectual, personalidad y carácter que el Einstein original. El clon de Einstein, desarrollado en unas determinadas condiciones, podría llegar a ser más inteligente y genial que el original, o por el contrario, ser un disminuido mental. Para que dos clones sean idénticos deberían desarrollarse exactamente en las mismas condiciones, desde la composición de nutrientes y hormonas en el útero materno hasta la educación o el ambiente familiar. Y puesto que esto no es posible, dos clones nunca serán idénticos.
Es indiscutible que la utilización de embriones clonados como fuente de células madre tiene una utilidad cierta en el desarrollo de terapias regenerativas que permitirán tratar una amplia gama de enfermedades humanas hoy incurables como la diabetes, el cáncer, el SIDA, el Parkinson o el Alzheimer. Igualmente es cierto que la clonación humana reproductiva es prácticamente posible. Ante este panorama compuesto a partes iguales de riesgos y posibilidades, ¿debe la comunidad renunciar a los beneficios potenciales por el rechazo ético que generan las cuestiones asociadas con la clonación humana en cualquiera de sus modalidades? Este es el debate que se ha abierto, en el que todos tenemos derecho a intervenir. Pero la participación exige conocimiento e información. Sólo así estaremos a salvo de las manipulaciones a las que, por motivos religiosos, ideológicos, económicos o por prejuicios basados en la ignorancia vamos a estar expuestos.
Bibliografía Kolata, G.: Clone: The Road to Dolly, and the Path Ahead. William Morrow and Company Inc. New York. 1998
Néstor Torres Darias, Licenciado y Doctor en Química, es Profesor de Bioquímica y Biología Molecular en la Universidad de La Laguna. Ha sido investigador en las universidades de Edimburgo (Gran Bretaña), Complutense (Madrid), Técnica de Viena (Austria) y Michigan (Estados Unidos). Dirige un grupo de investigación dedicado a la ingeniería metabólica mediante el empleo de técnicas de modelización matemática y la optimización de sistemas bioquímicos. Ha sido y es Investigador Principal de varios proyectos de investigación, autor de más de cuarenta trabajos de investigación en revistas especializadas internacionales, autor de un libro sobre modelización matemática y optimización de sistemas biotecnológicos y evaluador de proyectos y artículos de numerosas revistas y agencias de investigación internacionales. Ha dirigido cursos de divulgación científica e impartido conferencias sobre estos temas. Actualmente es el Director de la Agencia Canaria de Evaluación de la Calidad y Acreditación Universitaria. Neurociencia Cognitiva: mente, cerebro y computación. Horacio Barber FriendDoctor. Investigador “Ramón y Cajal”. Departamento de Psicología Cognitiva, Social y Organizacional. ULL Martes, 20 de marzo de 2007 El objetivo último de la Ciencia debe ser no sólo conocer el universo que nos rodea, sino describir y explicar nuestra propia naturaleza. El intento de entender la mente humana es seguramente un elemento intrínsico a su propia existencia. Nuestra capacidad de pensar y comunicarnos depende directamente de nuestra habilidad para reconocernos a nosotros mismos como entes autónomos que pueden interpretar la conducta de sus semejantes. Por lo tanto, podemos decir que desde que el hombre es sapiens, e incluso antes, gran parte de sus pensamientos han ido encaminados a aprehender el origen y la esencia de los mismos. Resulta llamativo entonces que, a pesar de haber sido un desafío central y prioritario en nuestra sed de conocimiento, la mente se haya revelado como un objeto de estudio tan escurridizo y difícil de abordar de forma objetiva. Las razones han sido tanto de tipo pragmático como filosófico. Por un lado, su complejidad ha hecho que la madurez de otros campos del saber sea una conditio sine qua non para el comienzo de su análisis sistemático y cuantitativo. Por otro lado, las implicaciones morales y religiosas que conlleva la aceptación de cualquier axioma relativo a nuestra propia identidad han sido un obstáculo para el acercamiento ingenuo que requiere el método científico. Ambos tipos de razones se relacionan con un hecho que aún hoy no ha sido enteramente asimilado: el hecho de que la mente es el resultado de cambios físicos de carácter bioquímico que tienen lugar en nuestro cerebro. De esta manera, la aceptación de que la mente no es cualitativamente diferente del resto de nuestro mundo conocido, y que por lo tanto se rige por sus mismas leyes físicas, ha sido, o más bien está siendo, la última etapa del lento y doloroso proceso por el cual nos estamos ubicando sin privilegios especiales en nuestro universo. Actualmente, el desarrollo de las diferentes ramas de la Ciencia nos está permitiendo avanzar considerablemente en el estudio de la mente, entendida como reflejo funcional de la actividad cerebral. Para ello, no basta con el desarrollo de una disciplina concreta, sino que se requiere la integración de métodos y conocimientos provenientes de muy diversos campos. Aunque históricamente diferentes subdisciplinas han servido como puente entre la Psicología y la Biología, en las dos últimas décadas ha surgido la Neurociencia Cognitiva como un campo interdisciplinar más amplio en el que se pretenden integrar las diferentes tradiciones que han estudiado la mente y el cerebro, entre las que destacan las Neurociencias, la Psicología Cognitiva y las Ciencias de la Computación. Desde el punto de vista biológico, el cerebro ha sido extensamente estudiado atendiendo a su anatomía, su fisiología, o su desarrollo ontogenético y filogenético. Actualmente el gran reto consiste en integrar los datos sobre funcionamiento molecular y celular en modelos que abarquen sistemas más complejos de procesamiento de la información. Por su parte, la Psicología Cognitiva utiliza métodos experimentales que permiten la validación empírica de modelos teóricos funcionales. En términos generales, dicha experimentación se basa en la medición precisa de las reacciones conductuales que se producen en respuesta a estímulos concretos, manipulados bajo condiciones controladas. Finalmente, las Ciencias de la Computación, y más concretamente la Inteligencia Artificial, diseña programas de ordenador que imitan funciones mentales. Estas simulaciones pueden entenderse como implementaciones lógico-matemáticas de los modelos teóricos cognitivos y biológicos, y por lo tanto constituyen una herramienta muy útil a la hora de validar o refutar dichos modelos. Aunque los avances teóricos en los campos implicados en el estudio del cerebro han abonado el terreno para el nacimiento de la Neurociencia Cognitiva, su desarrollo ha sido finalmente posible gracias a una serie de avances tecnológicos, los cuales han permitido estudiar en tiempo real la actividad cerebral asociada a procesos cognitivos. Técnicas de neuroimagen funcional como la resonancia magnética funcional, o la tomografía por emisión de positrones hacen posible la localización exacta de grandes poblaciones de neuronas que se activan de forma contingente a tareas cognitivas concretas. Estas técnicas de baja resolución temporal se complementan con otras como la electroencefalografía o la magnetoencefalografía que aportan información crucial sobre el curso temporal de los procesos. En esta conferencia, tras algunas consideraciones filosóficas e históricas sobre la Neurociencia Cognitiva, se describirán algunas de las principales técnicas de neuroimagen funcional empleadas en este campo y el tipo de diseño experimental que requieren. Finalmente, y a modo de ejemplo, se expondrá cómo la investigación sobre un proceso cognitivo concreto, el reconocimiento visual de palabras, supone actualmente un esfuerzo conjunto de las diferentes disciplinas citadas anteriormente. Bibliografía Ward, J.: The Student's Guide to Cognitive Neuroscience. J. Ward. Psychology Press. 2006 Driver, J., Haggard, P. and Shallice, T. (Eds): Mental processes in the human brain. Editores: Philosophical Transactions of Royal Society B. 2007 (en prensa) O'Reilly, R. y Munakata, Y.: Computational Explorations in Cognitive Neuroscience: Understanding the Mind by Simulating the Brain. The MIT Press. 2000 Cabeza, R. y Kingstone, A. (Eds): Handbook of Functional Neuroimaging of Cognition. The MIT Press. 2001 Barber, H. y Kutas.: Interplay between Computational Models and Cognitive Electrophysiology in Visual Word Recognition. Brain Research Reviews. 2007. 53 (1). pp 98-123. Información en Internet http://www.pubs.royalsoc.ac.uk/index.cfm?page=1358 Horacio Barber Friend realizó su tesis doctoral en la Universidad de La Laguna. Posteriormente realizó estancias posdoctorales en el departamento de Ciencia Cognitiva de la Universidad de California en San Diego (UCSD), en el Departamento de Psicología de la Universidad Hebrea de Jerusalén, y en el Instituto de Neurociencia Cognitiva del University College of London (UCL). Sus temas de investigación giran en torno a los procesos de comprensión del lenguaje utilizando técnicas electrofisiológicas, y ha publicado sus trabajos en revistas destacadas dentro del campo de la Neurociencia. Actualmente es investigador contratado del programa Ramón y Cajal en la Universidad de La Laguna, y participa en diferentes proyectos que abarcan temas como el procesamiento del lenguaje en bilingües, la percepción parafoveal durante la lectura, o la representación semántica de las palabras en el cerebro. Asimismo, imparte docencia en la Universidad de La Laguna en los programas de doctorado de Neurociencia y Neurociencia Cognitiva. A propósito de la energía (positiva, por supuesto). Basilio Ruiz CoboDoctor. Profesor Titular de Universidad. Departamento de Astrofísica. ULL Investigador. Instituto de Astrofísica de Canarias Miércoles, 21 de marzo de 2007 A finales del siglo XIX se produce la penetración en nuestra cultura de la palabra ‘energía’ y, desde entonces, ha sufrido un fuerte aumento polisémico. Algunos de los conceptos asociados a esta palabra son erróneos y otros simples absurdos amparados en el paraguas de respetabilidad que le da la Ciencia. La presente conferencia tratará de aclarar el significado del concepto de energía. Para ello la dividiré en cuatro partes: la energía en nuestra vida cotidiana; en la Ciencia; en la Filosofía y, finalmente, en la pseudociencia. En la primera parte veremos cómo, para entender nuestro mundo cotidiano, el concepto de energía es de gran utilidad dada la fuerte simplificación que introduce; veremos cómo toda la información que nos llega a través de los sentidos involucra un cambio de energía; que toda actuación sobre nuestro entorno y la vida en sí misma no son más que una serie de intercambios de energía. Veremos el origen de toda la energía de la que podemos disponer: la energía gravitatoria de una inmensa nube de hidrógeno, a través de la formación de estrellas y las reacciones nucleares. En la segunda parte de la conferencia veremos la energía desde el punto de vista de la Física. Clasificaremos todos los tipos de energía en dos grupos: la energía cinética -asociada al movimiento- y la potencial -asociada a la capacidad para realizar trabajo. Veremos cómo uno de los grandes avances de la Ciencia ha consistido por una parte en comprender que el calor es simplemente la energía cinética de los átomos y moléculas y, por otra parte, en agrupar todas las energías potenciales en sólo cuatro grupos asociados a las cuatro fuerzas presentes en la naturaleza: la fuerza gravitatoria, la electromagnética, la fuerza débil y la nuclear fuerte. Así, todo lo que ocurre en nuestro Universo puede explicarse usando estos conceptos. Una comprensión más profunda ha conseguido simplificar aun más esta clasificación agrupando estros tipos en sólo dos -la energía gravitatoria y la unificada fuerte-electrodébil. Intentaremos ver por qué los sistemas evolucionan buscando un mínimo de energía, y trataremos de entender de forma muy simple el primer y segundo principio de la termodinámica y el porqué de la imposibilidad del movimiento perpetuo. Veremos la íntima relación de dos conceptos aparentemente poco relacionados: la energía y el tiempo. El principio de indeterminación nos dice que ambos son complementarios, de tal forma que la cantidad de energía de un sistema está tanto más indefinida cuanto menor sea el intervalo de tiempo considerado. Es más, podremos redefinir la energía como la magnitud complementaria del tiempo de tal forma que de dicha definición se deduce que energía es precisamente aquello que se conserva con el tiempo. Por último veremos, muy brevemente, cual es el significado del concepto de energía oscura introducido al tratar de entender el origen del Universo. En la tercera parte de la conferencia veremos, muy rápidamente, la evolución a lo largo de la historia de la Filosofía del significado asociado a la palabra energía: a pesar de ser introducido por Aristóteles el término no fue usado científicamente hasta Young (1807) para referirse a la energía cinética. A mediados del XIX Kelvin y Joule usan energía como concepto unificador de los procesos térmicos -como la vaporización del agua- y la capacidad para realizar trabajo. Ciertos científicos de finales del XIX -como el Nobel de Química Wilhelm Ostwald- llegaron a plantear que la energía era un concepto metafísico: la sustancia original del universo, algo que no se crea ni se destruye -relacionándose así con Anaximandro (siglo IV aC)- y que es aquello que se intercambia en los diferentes procesos físicos. Hablaremos muy brevemente de la Liga Monista creada por el biólogo Ernst Haeckel y de su concepto de energía como impulso interno inherente a la vida y de su consecuencia en la Filosofía: el vitalismo biológico. En la última parte de la conferencia veremos como los esotéricos occidentales de principios del siglo XX encuentran en la palabra energía un comodín con resplandores de rigor científico, ampliamente aceptado por el público cultivado y con el que se puede justificar prácticamente todo con un poco de habilidad retórica. Así veremos aparecer términos como energía positiva o negativa entendidos como principio vital benefactor o pernicioso. Veremos aparecer tonterías como los secretos de las pirámides -una especie de herramientas para concentrar la energía del cosmos; las energías telúricas de las que uno puede empaparse viajando ciertos días a Machu-Picchu; las energías de los cristales y otras majaderías. Veremos como a la hora de traducir el esoterismo oriental a occidente la palabra energía es un comodín fantástico: así una bobada como el reiki (la sanación por imposición de manos) viene a traducirse como energía vital del Universo, cuando en su concepción original nada tiene que ver con eso. Bibliografía Frumento, A.S.: Desmitificando la energía. El Escéptico. Primavera 1999. pp. 57 y ss. Sánchez Ferrer, J.M.: Génesis de la concepción pseudocientífica de la Energía. El Escéptico nº 20. pp. 14 y ss. Septiembre-diciembre 2005. El Escéptico nº 21. Enero-abril 2006. pp. 76-83 Basilio Ruiz Cobo nació en Los Corrales de Buelna (Santander) en 1960 y reside en Tenerife desde 1985. Es Doctor en Ciencias Físicas, Profesor Titular del Departamento de Astrofísica de la ULL e investigador del IAC dentro de grupo de Física Solar. Autor de más de cuarenta artículos de investigación en revistas internacionales con árbitro, incluyendo uno en la revista Nature y otro en Science. Ha sido evaluador de artículos científicos para las revistas Astronomy & Astrophysics y Astrophysical Journal. Está especializado en espectropolarimetría (la obtención de información del estado de la materia a partir del análisis de la luz, en especial de su polarización) así como en el modelado de atmósferas estelares mediante el uso de códigos de inversión de la ecuación de transporte radiativo, y en el magnetismo solar. Ha dirigido cuatro tesis doctorales en estos campos. Es miembro de ARP-Sociedad para el Avance del Pensamiento Crítico. Rayos X, antenas, móviles y salud. José Hernández ArmasDoctor. Catedrático de Universidad. Departamento de Medicina Física y Farmacología. ULL Miércoles, 21 de marzo de 2007 Las radiaciones electromagnéticas son, esencialmente, energía transportada en forma de ondas electromagnéticas con una velocidad que, en el vacío, es de unos 300.000 km/segundo. Se caracterizan con los valores de unos parámetros propios de las ondas: longitud de onda, frecuencia y periodo, amplitud y velocidad de propagación. Su ordenación, considerando por ejemplo la frecuencia, es el espectro electromagnético. Aunque todas las ondas electromagnéticas tienen la misma naturaleza, el uso que de ellas se hace y los efectos que pueden hacer en la materia que alcanzan, está determinada por la frecuencia que determina la energía que transportan. Una clasificación muy frecuente de las ondas (o radiaciones) electromagnéticas se realiza atendiendo a si son capaces (o no) de producir ionizaciones en los átomos de la materia con la que interaccionan. Así se habla de radiaciones ionizantes y radiaciones no ionizantes. La parte del espectro electromagnético de mayor frecuencia y, consiguientemente, de mayor energía (los rayos X y rayos gamma, y en alguna medida los rayos Ultravioleta de clase C) constituye el grupo de radiaciones ionizantes. Su capacidad de ionizar es la causa de los beneficios que pueden derivarse de su utilización, pero es también la responsable de los daños que estas radiaciones pueden ocasionar en la materia viva. Estas radiaciones ionizantes tienen claros efectos sobre la salud humana, como se conoce desde la fecha, ya algo lejana, en que el hombre descubrió cómo producirlas y aprendió a usarlas de forma masiva, precisamente en el ámbito médico. Aunque se conoce mucho sobre los efectos de la radiación electromagnética ionizante queda aún mucho por conocer. Debido a ello, se puede asegurar que hay un gran bloque de conocimiento científico sobre radiaciones que permite su utilización en multitud de actividades humanas: medicina, investigación, agricultura, industria, etc. Como hay mucho que aún no se conoce, y como las radiaciones se popularizaron con el uso bélico de las mismas (Hiroshima y Nagasaki), se ha generado una actitud no científica ante las radiaciones: radiofobia. Es muy frecuente oír como se achaca a las radiaciones la culpabilidad de efectos que no son debidos a ellas.
Bibliografía
José Hernández Armas es Catedrático de Física Médica (área de Radiología y Medicina Física) de la ULL desde 1989. Fundador y Director del Laboratorio de Física Médica y Radiactividad Ambiental de Canarias, incluido en la Red Espaciada para la Vigilancia Radiológica Ambiental de España del Consejo de Seguridad Nuclear. Fundador y Jefe del Servicio de Física Médica del Hospital Universitario de Canarias (HUC). Jefe de Protección Radiológica del HUC. Facultativo Especialista en Radiofísica Hospitalaria. Director de seis tesinas y nueve tesis doctorales en la ULL. Miembro de los comités editoriales de las revistas españolas Física Médica y Radioprotección. Autor o coautor de 55 trabajos en revistas especializadas y 105 comunicaciones en congresos nacionales e internacionales. Actividad docente universitaria desde 1972, impartiendo enseñanza en Física Médica, Protección Radiológica, Instrumentación Electromédica y Bases Físicas de la Audición y Fonación. Áreas de interés en investigación: radiación natural; Radón en viviendas; dosimetría de pacientes en radiodiagnóstico. Amenazas del cielo. Oswaldo González SánchezLicenciado. Técnico de Planetario. Museo de la Ciencia y el Cosmos (Cabildo de Tenerife – Instituto de Astrofísica de Canarias). La Laguna. Tenerife Jueves, 22 de marzo de 2007 El ser humano siempre ha mirado al cielo con curiosidad, dejando en las estrellas sus alegrías, esperanzas y miedos. Algunos fenómenos astronómicos concretos, como la visión de un eclipse, una lluvia de estrellas o la observación de un cometa, atemorizaron a reyes y plebeyos de todas las épocas. ¿Debemos realmente temerlos en la actualidad, o sólo es una creencia más sin fundamento científico? En la aparentemente relajada vida del siglo XXI donde ya apenas se observan las estrellas, ocultas tras la luz derrochada por nuestras orgullosas ciudades, encontramos que quizás existe algo de razón en estos temores arcaicos.
Bibliografía Clarke, A. C.: El martillo de Dios. Editorial Ediciones B. Colección VIB Nº 17-8. 1997
http://neo.jpl.nasa.gov/index.html http://seds.lpl.arizona.edu/nineplanets/nineplanets/meteorites.html Oswaldo González Sánchez es Licenciado en Física, especialidad Astrofísica, por la Universidad de La Laguna. Astrónomo aficionado desde que empezó a caminar, ha pertenecido a diferentes asociaciones como la Liga Iberoamericana de Astronomía, agrupaciones astronómicas de Sabadell, Gran Canaria y Tenerife, y actualmente al Grupo de Observadores Astronómicos de Tenerife. Descubridor del aspecto arqueoastronómico del Almogaren del Bentayga, en Gran Canaria. Es coautor del libro oficial de texto para la asignatura optativa de Astronomía aprobado por la Consejería de Educación del Gobierno de Canarias. Colabora frecuentemente en programas de radio y televisión. Desde 1995 trabaja en el Museo de la Ciencia y el Cosmos como técnico de planetario y divulgador de Astronomía. Astrofotógrafo y perseguidor de eclipses, colabora en la telemetría de la posición de satélites artificiales. Es un amante de la observación de todo fenómeno celeste, su sueño es descubrir un cometa que impacte con la Luna. ¿Existe vida en el planeta Tierra? Manuel Vázquez AbeledoDoctor. Investigador. Coordinador de Proyectos. Instituto de Astrofísica de Canarias Jueves, 22 de marzo de 2007 En la última década se han descubierto unos 200 planetas girando alrededor de otras estrellas, los llamados exoplanetas. Sin embargo, las técnicas actualmente disponibles tan sólo nos permiten detectar aquellos con masas similares o mayores que las de Júpiter. En estos gigantes gaseosos difícilmente podríamos esperar encontrar vida de algún tipo. La detección de planetas del tipo terrestre, es decir similares al nuestro, tendrá que esperar al menos unos diez años. Mientras tanto hemos de desarrollar técnicas para estudiar sus características, con especial énfasis en la detección de vida. El planeta Tierra visto desde la distancia será un excelente banco de pruebas. Imágenes del Apolo 8 desde la órbita lunar permitieron observar, por primera vez, la Tierra como un cuerpo aislado en el espacio. A estas siguieron otras misiones, destacando las imágenes obtenidas por la Voyager 2 desde el borde del Sistema Solar que muestran a nuestro planeta como “un punto azul pálido” en palabras del recordado Carl Sagan. Recientemente la nave Cassini orbitando Saturno nos ha enviado una imagen similar. Numerosos satélites en órbita terrestre nos proporcionan información sobre el estado de nuestro planeta. Un problema previo a resolver es definir lo que entendemos por vida. A la espera de una respuesta definitiva a tal pregunta, podemos pensar en unas condiciones mínimas para su existencia: a) un elemento que aglutine la formación de moléculas complejas, con el carbono como el principal candidato, b) un medio líquido en cuyo seno se desarrollen las reacciones biológicas, con el agua permaneciendo en tal estado en un amplio rango de temperaturas y c) una fuente de energía, ya sea la radiación de las estrellas u otras de tipo químico. Además necesitamos que la vida a detectar influya en la composición química del planeta. Es razonable considerar la vida como una máquina termodinámica que evoluciona en condiciones de no equilibrio, intercambiando materia y energía con sus alrededores. En los años sesenta James Lovelock propuso que existen varias combinaciones de gases que solo pueden mantenerse mediante la producción biológica de uno de ellos. Tal es el caso del oxígeno y el metano en la atmósfera terrestre. Sin embargo, los intentos de detectar vida en el planeta Marte ya sea in situ con los experimentos biológicos del proyecto Viking o con el análisis de un meteorito marciano en laboratorios terrestres, el ALH84001, nos hablan de la dificultad de detectar vida. El problema radica en la existencia de alternativas no biológicas que puedan explicar las anomalías químicas encontradas. Espectros de la Tierra obtenidos desde el espacio cercano nos dicen que la presencia simultánea de bióxido de carbono, oxígeno y agua (la triple huella) parece ser un indicador preciso de la existencia de algún tipo de actividad biológica. El proceso de la fotosíntesis es utilizado por numerosos seres unicelulares y por las plantas para obtener energía. La absorción de la luz se centra en dos bandas del rango visible del espectro electromagnético, mientras que reflejan la luz fuertemente en el infrarrojo. Ello nos hace pensar que un planeta cubierto por seres fotosintéticos en sus continentes, podría presentar un aumento de radiación en dicha zona espectral. Observaciones de la Tierra desde la nave Galileo parecían confirmarlo, pero sólo en determinadas zonas como el Amazonas. Uno de los problemas es la existencia de nubes que enmascaran la señal biológica. Las simulaciones por ordenador nos están permitiendo en la actualidad visualizar cómo se vería nuestro planeta desde diferentes direcciones, bajo distintas estaciones astronómicas y en distintas épocas. La recepción de mensajes de una civilización extraterrestre sería una verificación ideal de la existencia de vida fuera de nuestro planeta. Razones de economía energética nos inducen a esperar que las ondas de radio seria el canal elegido. Las señales podrían haber sido enviadas deliberadamente o formar parte de su red de comunicaciones. En nuestro planeta los sistemas militares de alerta por radar, el radiotelescopio de Arecibo y las emisiones de televisión son la huella de nuestra tecnología en el espacio exterior. Sin embargo, puede que la vida inteligente sea poco frecuente en el Universo. Bibliografía Margulis, L., Sagan, D.: ¿Qué es la vida? Colección Metatemas. Tusquets. 1996 Sagan, C.: Un punto azul pálido. Editorial Planeta. 2000 Schrödinger, E.: ¿Qué es la vida? Colección Metatemas. Tusquets. 1997 Vázquez, M., Martín Guerrero, E.: La búsqueda de vida extraterrestre. Mc Graw Hill Interamericana. 1999 Manuel Vázquez Abeledo es Doctor en Ciencias Físicas por la ULL y Coordinador de Proyectos de la plantilla del IAC, institución en la que trabaja desde 1970. Su campo de trabajo es la Física Solar. Ha publicado unos setenta trabajos en revistas especializadas, organizado siete conferencias internacionales, liderado diez proyectos de investigación y dirigido ocho tesis doctorales. Fue Coordinador de Investigación del IAC desde 1986 a 1991. Mecánica cuántica para torpes. Luis Vega MartínDoctor. Profesor Titular de Universidad. Departamento de Física Fundamental, Experimental, Electrónica y Sistemas. ULL Martes, 27 de marzo de 2007 La Mecánica Cuántica es la Teoría física que propusieron de modo independiente Werner Heisenberg y Erwin Schrödinger a finales de 1925 y comienzos de 1926, y que ha constituido, desde entonces, la clave para nuestra comprensión del mundo microscópico. Con ella se culmina un periodo de más de 25 años, iniciado con el descubrimiento de Max Planck del 'cuanto de energía', a lo largo del cual la Física Clásica va dejando paso a un nuevo modo de abordar los problemas del mundo molecular, atómico y nuclear.
Una teoría con estas características debería experimentar, y sufrió, un duro proceso de contrastación. La Cúantica no fue aceptada sin pasar un escrutinio minucioso a manos de poderosos científicos de la talla de Einstein o Bhom. Algunos de sus fundamentos no han podido verificarse hasta principios de los años ochenta del pasado siglo. No han tenido reposo los que han intentado sustituir, total o parcialmente, alguno de sus postulados, ni los que han intentado crear teorías alternativas (singularmente las llamadas teorías de variables ocultas). De todas las pruebas, a día de hoy, la teoría ha salido reforzada.
Bibliografía Volpi, J.: En busca de Klingsor. Ed. Seix Barral. Col. Biblioteca Breve. Barcelona. 1999
Luis Vega Martín nace en La Laguna en 1956 y cursa los estudios de Física en la Universidad Complutense de Madrid, licenciándose en 1979. Desde 1981 es profesor de Física en la ULL, donde obtuvo el grado de Doctor en 1985, y una plaza de Titular de Universidad en el área de Física Aplicada en 1987. Es especialista en Física Molecular, con especial interés en el estudio de las interacciones moleculares de sustancias de importancia biológica, especialmente de las que presentan comportamiento quiral. Ha ocupado diversos cargos en la administración universitaria, y desarrolla una notable actividad en el campo de la divulgación de la Ciencia, en particular, en la comprensión y la explicación precisa de las teorías físicas. Ha sido conferenciante en todas las ediciones anteriores del curso sobre Ciencia y pseudociencias de la ULL. Érase una vez en el Atlántico. El origen de las Canarias. Carmen Díaz VilelaLicenciada. Profesora de Enseñanza Secundaria Obligatoria. Departamento de Ciencias de la Naturaleza. Colegio Nuryana. La Laguna. Tenerife Martes, 27 de marzo de 2007 Desde la antigüedad hasta nuestros días se han barajado muchas hipótesis para el origen de nuestras islas. Algunas, relacionadas con mitos como el de la Atlántida, permanecen en la mente de muchos y aún hoy es necesario aclarar con bases científicas la imposibilidad de este hecho. Muchas son las referencias que desde la época de Platón se han hecho al respecto y es posible incluso encontrar textos actuales, generalmente en revistas esotéricas, que hacen referencia a este continente y que, supuestamente, aportan pruebas científicas de su existencia. Sin embargo, la teoría de la Tectónica de Placas, el estudio de los fondos oceánicos, su estructura y composición, y todos los datos disponibles en la actualidad, demuestran claramente la imposibilidad de la existencia de este continente hundido en el océano Atlántico.
Bibliografía Andeweg, B., De Vicente, G., Cloctingh, S. J. y Muñoz, A.: Local stress fiel and intraplate deformation in spatial and temporal interplay of reginal stress sotirces. Tectonophisics. 305. 1999. pp. 153-164
Carmen Díaz Vilela es Licenciada en Biología por la Universidad de La Laguna. Cuenta con 22 años de experiencia en la docencia. Ha trabajado tanto en las aulas del colegio Nuryana (La Laguna, Tenerife) impartiendo clases de Biología y Geología, como en el Museo de Ciencias Naturales, donde realizó varios cursos para la formación del profesorado y publicó informes de trabajo. Forma parte de la directiva de la Asociación de Amigos del Museo de Ciencias Naturales, cuyo principal objetivo es la divulgación científica. Apasionada por la Geología, siempre se ha preocupado por impartir los conocimientos en esta área con el máximo rigor científico y por fomentar el espíritu crítico entre sus alumnos. Ha participado como conferenciante en las tres últimas ediciones de este curso interdisciplinar de la ULL. Ecólogos y ecologistas. ¿Diferentes caras de la misma moneda? José María Fernández PalaciosDoctor. Profesor Titular de Universidad. Departamento de Parasitología, Ecología y Genética. ULL Miércoles, 28 de marzo de 2007 Ecólogo y ecologista son dos conceptos bien diferentes a menudo confundidos por el gran público. Siempre que le preguntaban a Ramón Margalef, uno de los padres de la Ecología en España, la diferencia existente entre unos y otros, utilizaba el mismo símil: ecólogo es a sociólogo lo que ecologista es a socialista. Es decir, si el sociólogo es el profesional que estudia las sociedades, con sus estructuras, flujos, dinámicas, etc., el ecólogo sería el profesional que estudia el funcionamiento de la naturaleza. Por otra parte, mientras que un socialista es una persona, que independientemente de su formación o trabajo, aspira a un determinado modelo de sociedad, en que, por ejemplo, los intereses públicos preponderen sobre los privados, un ecologista es una persona que aspira, también independientemente de su formación, a un modelo de relación del ser humano con la naturaleza donde ambos puedan coexistir en armonía. Es decir, un ecólogo es alguien que requiere necesariamente poseer una formación en Ecología que puede haberse dedicado a profesiones diferentes (por ejemplo, profesor universitario, científico, gestor de la administración, etc.) y que podrá o no tener una determinada sensibilidad ambiental. El ecologista es en cambio una persona que sin formación en Ecología (por ejemplo, un empleado de un hipermercado, un psiquiatra o un militar) posee una determinada sensibilidad ambiental. Es decir, mientras que el primero está interesado en conocer el funcionamiento de la naturaleza, y diseña y ejecuta experimentos utilizando el método científico con tal fin, o utiliza sus conocimientos al respecto para gestionar recursos naturales, el segundo es una persona que, independientemente de su formación, lucha por alcanzar un modelo de relación del ser humano con la naturaleza, basado en su sostenibilidad. Obviamente, de la misma forma que existen sociólogos conservadores y sociólogos socialistas, también habrá que esperar que entre los ecólogos los haya más desarrollistas y más ecologistas, lo que de hecho ocurre. Además, el grado de compromiso de un ecologista puede ser muy diferente, y podría ir desde la mera pertenencia a una organización ecologista (Adena, Sociedad Española de Ornitología, Ecologistas en Acción, Ben Magec, Conservation Internacional, etc.), financiándola, por compartir sus fines, a la participación como activistas en determinadas campañas, como las que desarrollan expertos militantes de organizaciones como Greenpeace, tremendamente llamativas y de gran eco en los medios de comunicación, hasta la participación en las elecciones políticas, de cuyos resultados podrían derivarse responsabilidades de gobierno, como ha ocurrido y ocurre con diferentes Partidos Verdes Europeos, como ocurrió por ejemplo con la nominación de Joschka Fischer, militante de “Die Grünnen”, el Partido Verde Alemán, como Ministro de Asuntos Exteriores de su país.
La presión de un modelo de desarrollo económico insostenible a escala planetaria ha creado por lo tanto las condiciones para que el anterior antagonismo entre ecólogos y ecologistas haya dado lugar a una simbiosis, profundamente enriquecedora para ambos, que podría concretarse en una serie de actitudes, cada vez más frecuentes, como ocurre por ejemplo con el respaldo público por parte de ecólogos consagrados, como voces autorizadas, mediante manifiestos o entrevistas en los medios de comunicación de determinadas campañas de los grupos ecologistas, o como la transmisión de los grupos ecologistas a la opinión pública, a los que suele valorar de una forma alta, de las preocupaciones de los ecólogos, que suelen anticiparse en detectar problemas no percibidos por los ciudadanos y en anunciar sus consecuencias (agujero en la capa de ozono, lluvia ácida, etc.), o sencillamente la utilización de informes preparados por los ecólogos por parte de los grupos ecologistas, como base para sus reivindicaciones. El resultado ha sido que lejos de enfrentarse, los crecientes problemas ambientales que se acumulan sobre la mesa y la profesionalidad cada vez más evidente de los grupos ecologistas ha hecho posible que unos y otros luchen hombro con hombro frente a las administraciones públicas, habituales responsables, por acción u omisión, de muchos de los problemas anteriormente citados. Bibliografía Fernández-Palacios, J.M., Arévalo, J.R., Delgado, J.D. y Otto, R.: Canarias: ecología, medio ambiente y desarrollo. Centro de la Cultura Popular de Canarias. 2004 Ricklefs, R.: Invitación a la Ecología: La economía de la naturaleza. Ed. Médica Panamericana. 1997 Información en Internet www.greenpeace.org www.benmagec.org José María Fernández-Palacios nació en Las Palmas de Gran Canaria (1958) y se doctoró en Ecología en la Universidad de La Laguna (1987). Desde 1982 es profesor de dicha Universidad, impartiendo su docencia en la Facultad de Biología y en el Centro Superior de Ciencias Agrarias. En 1991 disfrutó de una beca post-doctoral del Gobierno Canario en el Instituto de Ecología Vegetal de la Universidad de Uppsala (Suecia). Su investigación se centra en el análisis de los ecosistemas insulares desde diferentes puntos de vista (dinámica forestal, fragmentación, biogeografía). En la actualidad es director del Departamento de Parasitología, Ecología y Genética de la ULL, investigador responsable de varios proyectos y convenios de investigación, así como autor de una treintena de artículos científicos publicados en diferentes revistas internacionales, y autor o editor de diferentes libros acerca de la Ecología de Canarias en particular y de las islas en general. ¿Estamos cambiando el clima? Manuel Vázquez AbeledoDoctor. Investigador. Coordinador de Proyectos. Instituto de Astrofísica de Canarias Miércoles, 28 de marzo de 2007 Desde sus inicios, el progreso de la civilización humana ha venido marcado por el acceso a fuentes de energía cada vez más asequibles y efectivas. Durante muchos siglos las consecuencias de dicha utilización sobre el medio ambiente fueron mínimas, si bien es cierto que la introducción del carbón provocó los primeros problemas ambientales. En el siglo XIX la Revolución Industrial permite la sustitución de una parte importante del trabajo humano por el realizado por máquinas. El creciente uso del carbón y el descubrimiento del petróleo, y después del gas natural, proporcionan lo que entonces se creyó una fuente de energía inagotable. Simultáneamente, la industria química desarrolla nuevos productos que proporcionan cosechas más abundantes y hacen más agradable la vida diaria. Pero a mediados del siglo XX comienzan a oírse las primeras voces de alarma sobre el aumento de temperaturas que sufre nuestro planeta. Ya por entonces se habían iniciado los estudios sobre la absorción de la radiación infrarroja emitida por la superficie terrestre por parte de ciertos gases. Dicho fenómeno es conocido como 'efecto invernadero' y permite que la Tierra disfrute de unas temperaturas compatibles con la existencia de vida en su superficie. Uno de los compuestos gaseosos causantes de dicho efecto es el dióxido de carbono, CO2, que se libera a la atmósfera por la combustión de los mencionados combustibles fósiles. El problema radica no en que en dicho gas esté presente en la atmósfera, sino en su desmesurado ritmo de aumento, que no puede ser compensado por los agentes naturales como los océanos y la biosfera.
a) El aumento del nivel de los océanos, con la subsiguiente repercusión sobre una gran parte de la población mundial que vive en zonas costeras, b) la intensificación de las situaciones de tiempo atmosférico extremo, es decir, tanto el aumento de las olas de calor y de frío, como de los episodios de sequía e inundación, c) desplazamiento hacia latitudes medias de enfermedades y especies tropicales y d) un mayor ritmo de emigración desde los países subdesarrollados al primer mundo. Si el ritmo de emisiones se mantiene en los niveles actuales en la segunda parte de este siglo, nos empezaremos a preocupar por el colapso de las corrientes oceánicas y la liberación de metano de las tundras siberianas. El elevado tiempo de residencia del CO2 en la atmósfera terrestre, unos doscientos años, ocasiona un claro desfase entre la toma de decisiones y la respuesta del sistema climático. Finalmente, se comentan los problemas existentes para una transición gradual de una economía basada en la quema de combustibles fósiles a otra en que prime el ahorro energético y las llamadas energías alternativas. Bibliografía Llebot, J.E.: El cambio climático. Editorial Rubes. 1998 Delibes, M., Delibes de Castro, M.: La Tierra Herida. Ediciones Destino. 2005
Vázquez Abeledo, M.: La historia del Sol y el cambio climático. Mc Graw-Hill Interamericana. 1998 (reimpresión de 2006) Weart, S.: El Calentamiento Global. Editorial Laetoli. 2006 Manuel Vázquez Abeledo es Doctor en Ciencias Físicas por la ULL y Coordinador de Proyectos de la plantilla del IAC, institución en la que trabaja desde 1970. Su campo de trabajo es la Física Solar. Ha publicado unos setenta trabajos en revistas especializadas, organizado siete conferencias internacionales, liderado diez proyectos de investigación y dirigido ocho tesis doctorales. Fue Coordinador de Investigación del IAC desde 1986 a 1991. El poder de los números: verdades y mentiras. Antonio Martinón CejasDoctor. Catedrático de Universidad. Departamento de Análisis Matemático. ULL Jueves, 29 de marzo de 2007 Cuando a una información o a una opinión se le añade una cantidad, un número, cobra mayor credibilidad y verosimilitud. Esta es una de las razones por la que se procura cuantificar todo lo que se pueda. Sin embargo, muchas informaciones utilizan de manera incorrecta los números, lo que produce que el destinatario se haga una incorrecta idea de la situación. En un periódico local se lee en el titular que en determinado documento “el 90% son propuestas del partido A”. Sin embargo, al leer la información detallada se descubre que lo ocurrido es bien diferente: el documento recoge el 90% de las propuestas que ha formulado el partido A, el 70% del partido B… Muchas informaciones incluyen números que expresan la medida de una cierta cantidad. Valorar adecuadamente esas informaciones obliga a estimar si esos números son correctos o no lo son, y para ello es fundamental tener algunas referencias. Por ejemplo, si se nos dice que un automóvil circulaba a 400 kilómetros por hora (km/h), lo natural es pensar que hay algún error, pues la máxima velocidad permitida suele ser 120 km/h y aunque hay quienes conducen a 200 km/h e incluso más, parece prácticamente imposible que se alcance los 400 km/h. Para hacer una correcta valoración, desde luego, juega un papel importante la unidad de medida que se utilice. Afirmar que un camión circula por una carretera a una velocidad de 10 metros por segundo (m/s), ¿es razonable? No es sencillo valorar esa información, pues se está usando una unidad de velocidad poco familiar para referirse a los automóviles. Hay que observar que decir 10 m/s es equivalente a 36 km/h, velocidad que sí resulta creíble. Es muy habitual dar un dato numérico sin precisar que se trata de una estimación y no exactamente el resultado de una medición precisa. Un ejemplo muy frecuente es el número de los asistentes a una manifestación, que varía mucho según la fuente que se consulte. Desde luego, los organizadores suelen ser los que ofrecen los números más altos. Las estadísticas contienen informaciones numéricas, que en muchas ocasiones son indirectas, es decir, son estimaciones. Por ejemplo, es lo que ocurre con las encuestas, en las que se pregunta a una pequeña parte de la población y de los resultados se infiere lo que piensan todos los ciudadanos. “Mentiras, grandes mentiras y estadísticas” es una frase que expresa bien la desconfianza que en algunas personas generan las informaciones estadísticas. El chiste siguiente es un ejemplo: me he comido dos pollos y tú ninguno, así que nos hemos comido un pollo cada uno. También se expresa la probabilidad de un suceso mediante un número comprendido entre 0 y 1, aunque es habitual usar porcentajes. Por ejemplo, se dice que la probabilidad de obtener cara al lanzar una moneda al aire es 0’5, pero también se puede afirmar que la probabilidad es del 50%. En general existe poca formación sobre la probabilidad, de manera que la inmensa mayoría de la población carece de referencias y ha cultivado poco su “intuición probabilística”. Un tipo de razonamiento como el siguiente es poco frecuente, pero hay personas que lo aceptan: la probabilidad de que llueva el sábado es del 50% y de que llueva el domingo también es del 50%, así que la probabilidad de que llueva el fin de semana es del 100%. Hay situaciones en las que viene bien tener una idea de las probabilidades que existen. Un antiguo problema planteado en el siglo XVII es el siguiente: ¿qué es más probable, sacar un 6 al tirar un dado 4 veces o sacar un 12 con 2 dados en 24 tiradas? Es habitual encontrar personas que muestran asombro por algunas coincidencias que son realmente muy razonables. Se piensa que es poco probable, de ahí el asombro, y realmente es muy probable. Que en una sala donde hay 40 personas, dos de ellas celebren su cumpleaños el mismo día tiene una probabilidad alta y, por tanto, no es nada asombroso que eso ocurra. Otro error habitual es confundir causalidad con correlación. Se tienen datos de que la probabilidad de contraer la enfermedad E en los países de la Unión Europea es del 5%, mientras que en los países de África es del 1%, así que en Europa es cinco veces más probable. Sin embargo, esos datos no informan acerca de las razones por las cuales eso es así. Dicho de otro modo, las causas que explican que es cinco veces más probable para un europeo que para un africano tener la enfermedad E pueden ser muchas y sería aventurado decir, si no se dispone de más datos, que eso se produce por la comida, que es tan diferente en Europa y África. Bibliografía Park, R. L.: Ciencia o vudú. Debolsillo (Randon House Mondadori). Barcelona. 2003 Paulos, J. A.: El hombre anumérico. Tusquets. Barcelona. 1990 Paulos, J. A.: Érase una vez un número. Tusquets. Barcelona. 1999 Información en Internet http://www.wikilearning.com/mentiras_medias_verdades_y_estadisticas-wkccp-3976-8.htm Antonio Martinón Cejas es doctor en Ciencias Matemáticas. Ha sido profesor de Bachillerato y en la actualidad es catedrático de Análisis Matemático en la Universidad de La Laguna, especializado en Análisis Funcional. Ha participado de diferentes maneras en actividades de divulgación. Así, fue coordinador del libro Las matemáticas del siglo XX (Editorial Nivola, 2000), en el que numerosos autores ofrecieron una panorámica sobre las matemáticas y su enseñanza en el siglo pasado. También es autor de diversos artículos de divulgación matemática publicados en periódicos, revistas y libros, y ha impartido conferencias en diferentes universidades e instituciones. Su interés por la enseñanza y el aprendizaje le ha llevado a que parte de sus investigaciones se hayan desarrollado en el campo de la Didáctica de las Matemáticas. Ha sido director de la revista Números y en la actualidad es codirector de Unión. La comunicación de los resultados científicos. Ramón García LópezDoctor. Profesor Titular de Universidad. Departamento de Astrofísica. ULL Investigador. Instituto de Astrofísica de Canarias Jueves, 29 de marzo de 2007 El conocimiento científico es un 'suma y sigue'. Por ello resulta interesante preguntarse: ¿cómo se comunican los científicos entre sí para difundir y discutir sus ideas y resultados en el seno de la comunidad en la que trabajan? A diferencia de la divulgación, en la que la comunicación de los resultados científicos debe hacerse de manera que su esencia pueda ser asimilada por una mayoría de la sociedad, en la comunicación interna prima el intercambio de información rigurosa entre colegas con el objetivo de contribuir al aumento del conocimiento en un aspecto determinado del saber.
Bibliografía Esta conferencia está confeccionada a partir de mis propias experiencias como investigador y de mi conocimiento de la divulgación científica que se hace en el entorno en el que trabajo. Como ejemplo de uno de los muchos boletines de divulgación científica que existen en la red puedo citar a Ramón J. García López, licenciado en Ciencias Físicas por la ULL en 1987, presentó su Tesis Doctoral en 1992 obteniendo el Premio Extraordinario de Doctorado en 1993. Ha ocupado varios puestos como investigador en el IAC y en la Universidad de Texas (EEUU), así como en el Departamento de Astrofísica de la ULL, donde es Profesor Titular y ha sido Secretario y Director. Ha sido Coordinador del Área de Enseñanza del IAC y es Coordinador Principal del programa de doctorado 'Física del Cosmos', con Mención de Calidad desde su implantación en 2003. Actualmente es Coordinador del Área de Instrumentación del IAC. Sus líneas de investigación son el estudio de la atmósfera, estructura y evolución estelar, evolución química galáctica, astrofísica de partículas e instrumentación astrofísica. Es autor de más de 60 publicaciones en revistas especializadas y un número similar de contribuciones a congresos científicos, y editor de libros especializados de Astrofísica. |