martes, julio 08, 2014

Relación entre avistamientos OVNI y la densidad de población

Hace ya un año hablábamos de la Ley Horaria de los OVNIs, resultado de analizar las horas de avistamiento de OVNIs. Fue originalmente encontrada por Jacques Vallée, y rápidamente replicada por otros investigadores. No fue el único resultado que encontró, sino que enunció varias leyes con bastante repercusión en los siguientes años, de otra de las cuales vamos a hablar hoy.

Igual que la vez anterior, un artículo extenso sobre el tema se puede encontrar en el siguiente enlace (en inglés), y en esta entrada voy solo a resumir lo más importante.

A review on the geographical distribution of UFO reports

En 1954 hubo una oleada de aterrizajes OVNI en Francia, y Vallée analizó el reparto geográfico de éstos. Concretamente, la relación entre la densidad de población y la cantidad de avistamientos producidos en esa región. Su análisis, basado en el siguiente mapa,

le llevó a enunciar lo que llamó Primera Ley Negativa, según la cual

El reparto geográfico de los lugares de aterrizaje en 1954 está inversamente correlacionado con la densidad de población

Es un enunciado muy particular y para un momento muy concreto, pues en aquel artículo [ref. 1], Vallée estaba principalmente refutando al Dr. Georges Heuyer, quien sostenía que la oleada era fruto de una psicosis. De ser una así, decía Vallée, en las zonas más pobladas habría más avistamientos, pues los rumores se propagarían más rápidamente que en zonas despobladas. El mapa de Francia con los lugares de aterrizajes, mostraba zonas con una densidad de población mayor de 60 habitantes por km2, pero la mayoría de aterrizajes estan en las zonas de menor densidad de población. Incluso, en zonas como Lille, París o Burdeos había muy pocos aterrizajes para la gran concentración de población que hay.

Posteriormente, Vallée reprodujo esta ley negativa en un catálogo de avistamientos en Estados Unidos, mostrando que el número de avistamientos por habitante disminuía con la densidad de población:

La conclusión de este resultado es que detrás del comportamiento de los OVNIs había cierta inteligencia que evitaba aparecer en zonas pobladas.

A partir de aquí, análisis de distintos ufólogos (Vallée, Poher, Saunders, Ballester Olmos, Fernandez Peris, Weiller, Verga, ...) sobre una multitud de catálogos han arrojado resultados contradictorios. Un resumen de tales trabajos y resultados está en esta tabla:

Y como se puede ver hay de todo: correlaciones directas e inversas, catálogos de aterrizajes, de todo tipo de OVNIs, imágenes...

Al ver estudios contradictorios, lo primero que hay que hacer es preguntarse por qué cada estudio llega a una conclusión distinta, y lo primero que salta a la vista es que los estudios usan variables distintas: Numero de informes (N) frente a población (P), N frente de densidad de población (δ), Numero de informes por habitante (N/P) frente a δ ... Variables distintas, aunque relacionadas, pero obviamente se estaban comparando magnitudes distintas y las conclusiones por tanto también son distintas.

Paro cuando se calculan las relaciones entre las mismas variables entonces los estudios dejan de ser contradictorios, y todos muestran los mismos resultados: La correlación entre el número de avistamientos (N) y la densidad de población (δ) es directa. En cambio, es inversa cuando se considera el número de avistamientos por habitante (N/P) frente a la densidad de población (δ).

Podemos retomar ahora el enunciado original de Vallée, donde establecía que la relación entre N y δ es inversa. ¿En qué basa su afirmación? Únicamente en un análisis cualitativo de un mapa de aterrizajes en Francia. Cuando del análisis gráfico pasamos a un análisis cuantitativo, es decir, poniendo números con el mismo procedimiento que con el resto de estudios, de nuevo la correlación que sale es directa. Por los pelos, poco significativa estadísticamente, pero directa. Su enunciado de la Primera Ley Negativa no tenía fundamento.

Conclusiones

Finalmente, lo que se demuestra es que todos los estudios anteriores son coherentes con el hecho de que hay más avistamientos OVNI, cuanta más gente habita una zona. Un detalle curioso es que si bien la relación es "a más gente, más informes OVNI", ocurre que ambas magnitudes no crecen a la misma velocidad. Es decir, si se aumenta la población al doble, el número de avistamientos OVNI no aumenta al doble, sino a un poquito menos. Este es un tipo de crecimiento sublineal, y es un hecho que podría estar relacionado con la mayor cantidad de luz artificial en lugares con mayor población (cerca de cuidades). De hecho, algunos del estudios comentados muestran una correlación entre zonas más y menos luminosas con un menor o mayor número de avistamientos.

Si bien una correlación inversa se asociaba a una "inteligencia" del fenómeno para evitar zonas habitadas, una relación directa tan sólo refleja lo que dicta la intuición. Y que además puede explicarse, como hicieron López, Ares de Blas y Salaverría [ref. 6], suponiendo un fenómeno que se manifiesta aleatoriamente sin ningún tipo de inteligencia o propósito.

Además, este comportamiento es idéntico en catálogos "negativos", es decir, casos que se puden explicar como una confusión con una causa mundana, o un fraude [ref. 8]. Lo cual nos lleva directamente al razonamiento de que si avistamientos sin explicación son indistinguibles de avistamientos con explicación... es probable que los primeros sean también explicables, aunque no sepamos cual es esa causa mundana.

Para más detalles, les recomiendo descargar el artículo y leerlo tranquilamente.

Agradecimientos

Agradezco a Vicente-Juan Ballester Olmos toda la información que me ha proporcionado, así como las interesantes discusiones sobre el tema.

También a Juan P. González, por el catálogo CUCO, analizado en este artículo.

Referencias

[1] J. Vallée. The patterns behind the UFO landings. Flying Saucer Review 1, special issue The Humanoids (1966)
[2] J. Vallée. Analysis of 8260 UFO sightings. Flying Saucer Review,14 (3) (1968)
[3] C. Poher y J. Vallée. Basic Patterns in UFO observations. AIAA Paper, 75-42. 13th Aerospace Sciences Meeting (1975)
[4] C. Poher. Etude statistique des rapports d'observations du phenomene OVNI (1971-1976)
[5] V-J Ballester Olmos. Are UFO Sightings Related to Population? Proceedings of the 1976 CUFOS Conference, Nancy Dornbos (ed.) Center for UFO Studies, Northfield, (1976)
[6] D. G. López, F. Ares de Blas y A. Salaverría. Bases para una modelación teórica del fenómeno OVNI. Actas del primer congreso nacional de ufología. CEI (Barcelona, 1978)
[7] M. Verga. Il punto sulla distribuzione geographica. (1981)
[8] V-J Ballester Olmos y J. A. Fernández Peris. Enciclopedia de los encuentros cercanos con OVNIS. Ed. Plaza y Janés. Barcelona (1987)
[9] V-J Ballester Olmos.UFOs by continent. FOTOCAT (2014)

sábado, mayo 03, 2014

Espejismos, eclipses... y metamateriales

¿Qué tienen en común un espejismo y un eclipse? Pues casi tanto (o casi nada) como Albert Einstein y Víctor Veselago.

Era 1905 cuando Einstein se preguntaba acerca de la propagación de la luz, y qué pasaría si alguien pudiera montarse sobre ella y viajar a su misma velocidad. Un 29 de Mayo 14 años más tarde, Sir Arthur Eddington se hallaba aguantando una tormenta en medio una pequeña isla africana para comprobar los resultados de la curiosidad de Einstein.

Era 1967 cuando Víctor Veselago, físico soviético, se preguntaba acerca de la propagación de la luz, y qué ocurría cuando se encontraba con materiales ciertamente exóticos... Pero para entender cómo de exóticos quizás sea mejor empezar por James Maxwell y las cuatro ecuaciones a su nombre, aunque ninguna sea suya.

Estas cuatro ecuaciones describen todo lo relacionado con la electricidad y el magnetismo, y además, establecen la existencia de ondas electromagnéticas cuya propagación esta determinada por dos constantes que aparecen en ellas:

La constante dieléctrica del vacío, ε0, que habla de las propiedades eléctricas del vacío; y la permitividad magnética del vacío, μ0 que da cuenta las propiedades magnéticas del vacío.

Y de ellas, se obtiene la velocidad a la que las ondas electromagnéticas viajan en el vacío:

c=(ε0·μ0)-1/2=299.792 km/s

Pero cuando la luz se propaga con materia de por medio, las propiedades eléctricas y magnéticas son ligeramente distintas, por lo que hablamos de una constante dieléctrica y una permitividad magnética relativas: εr y μr, de tal forma que la velocidad de la luz en un material es ligeramente más lenta que en el vacío:

c/v=(εr·μr)1/2

La relación c/v es lo que llamamos índice de refracción, n, y que nos sirve para describir las propiedades ópticas de los materiales.

Con esta pequeña introducción, podemos volver a Veselago y su curiosidad acerca de la propagación de ondas en materiales exóticos. ¿Cómo de exóticos?. Para eso tenemos que preguntarnos primero por los valores que pueden tener εr y μr:

Supongamos que tanto ε como μ tienen valores positivos. Esto es lo que ocurre en la mayoría de materiales que llamamos dieléctricos: silicio, zafiro, vidrio... Y esto produce un índice de refracción real. El resultado es que tenemos ondas electromagnéticas que se propagan.

Supongamos que ε es negativo, mientras μ es positivo. Esto es lo que ocurre en la ionosfera, una capa de la atmósfera donde se concentran cargas eléctricas. El índice de refracción en estas condiciones se vuelve un número imaginario. ¿Y esto qué significa? Pues que una onda electromagnética no puede existir en tal medio, lo que provoca su reflexión. Así es como se aprovecha la ionosfera para las comunicaciones por radio. Y esta propiedad también se da en materiales como los metales: aluminio, oro, plata, cobre... ¿A alguien le suenan las jaulas de faraday?

Una situación similar se da cuando μ es negativa, y ε positiva. n es un número imaginario, tampoco pueden existir ondas electromagnéticas en el material, y se reflejan. Son raras las situaciones en las que podría darse este caso en la naturaleza, pero podrían ocurrir.

Sin embargo, el caso más exótico es cuando ε y μ son negativas simultáneamente, empezando porque es una situación que no se ha encontrado nunca en la naturaleza. Y es una situación en la que, matemáticamente al menos, el índice de refracción es un número real. Otra cosa es si tiene sentido físico.

Así pues, Veselago en 1967 se preguntaba por estos materiales, y qué le pasaba a la luz cuando atravesaba una zona con esos valores tan raros. Su conclusión fue que no sólo el índice de refracción es real, sino que además tiene un valor negativo. Y que las ondas electromagnéticas pueden propagarse por un medio así; eso sí, con ciertas particularidades. Veselago bautizó a los materiales con ε y μ negativos como materiales zurdos. Pero posteriormente se les ha llamado metamateriales.

Este gif animado muestra la diferencia de propagación en un dieléctrico y en un material zurdo. Ambas ondas se propagan hacia la misma dirección, pero en la zurda (la de abajo) la fase (o la dirección en que se mueven las oscilaciones) es en dirección contraria.

Veselago fue un poquito más lejos, y elucubró qué pasaría en la intercara entre un material diestro (un dieléctrico) y uno zurdo. Todos sabemos qué es la refracción, y lo que le ocurre a la luz cuando pasa de un material a otro. En el caso de los metamateriales, resulta que la refracción ocurre en la dirección contraria a la que estamos acostumbrados. La refracción inversa es quizás el fenómeno más conocido de los metamateriales, pero Veselago también predijo otros como el efecto doppler inverso, o el efecto Cerenkov inverso.

Usando una lámina planoparalela de metamaterial, se puede conseguir una lente plana, aprovechando la doble refracción negativa en ambas caras.

Sin embargo, como estos materiales no se encuentran en la naturaleza, y Veselago no tenía forma de fabricarlos, hubo que esperar hasta 1999, cuando Sir John Pendry (otro inglés con título, como Eddington) ideó unos anillos resonantes partidos (Split Ring Resonators, SRR) que magnéticamente presentaban una μ negativa (al menos para una banda de frecuencia estrecha). Combinando los SRR con cilindros de metal que presentan de forma natural una ε negativa... ¡se obtiene un metamaterial!. Y lo mejor de todo, con las propiedades que predecía Veselago.

¿Quién no ha visto un espejismo en uno de esos días calurosos de verano? En el suelo aparece el reflejo del cielo, un árbol, un coche... Por qué ocurre esto es fácil de entender: el suelo está muy caliente, y el aire sobre él también se calienta. Más caliente, cuanto más cercano al suelo. Como el índice de refracción del aire depende de la temperatura, cerca del suelo lo que hay es una zona con varias capas de índice de refracción, un gradiente. Cuando la luz pasa por esa zona, se refracta y se curva, de tal forma que al final llega a los ojos de un observador que cree ver una imagen donde en realidad no está.

Algo muy similar buscaba Sir Eddington en medio de un eclipse, sólo que esta vez, en vez de un gradiente de índice de refracción, era una masa (la del Sol) la que estaba curvando la luz que provenía de una estrella, dando la apariencia de que la estrella estaba en un lugar donde en realidad no estaba. Fue una prueba que demostró la validez de la teoría de la relatividad general del Einstein.

Ambos fenómenos tienen un punto en común: la luz no se desplaza siguiendo el camino más corto, sino el camino más rápido. Es lo que se llama el principio de Fermat.

Junto con el desarrollo de los metamateriales, ha surgido lo que se llama la óptica de transformación: una forma de controlar el camino óptico de la luz para ser guiada según interesa. Y el punto de vista está muy ligado a la relatividad general: al modificar ε y μ (el índice de refracción) estamos deformando el espacio, de igual forma que el espacio se deforma por la presencia de una masa... De esta forma, la luz no hace más que seguir el camino más rápido entre dos puntos, pero adaptándose a las propiedades del espacio óptico que tiene que recorrer.

Lo mejor de todo: un formalismo matemático muy similar al usado en relatividad general, es aplicable a la óptica de transformación para calcular el camino de la luz, y el valor de ε y μ necesario en cada punto. Por otro lado, gracias a los metamateriales y la refracción negativa, tenemos herramientas para generar valores de ε y μ de cualquier tipo.

Supongamos que hacemos un agujero en el espacio. Una zona que la luz tiene que rodear, y luego continuar como si no hubiera tenido que variar su camino. Supongamos que ponemos en ese "agujero óptico" un objeto. ¿Qué vería un observador? Nada. Vería la luz que viene, pero no vería el objeto, ni ninguna evidencia de que la luz lo ha rodeado. Vería lo que hay detrás del objeto, pero el objeto estaría oculto. O más bien, el objeto sería invisible. Este tipo de construcciones ópticas son llamadas capas o dispositivos de invisibilidad (en inglés, cloaking device).

Muy curiosas académicamente, que demuestran el potencial de la óptica de transformación, pero de momento poco más. La potencia de esta técnica está en la capacidad de diseñar un espacio óptico que guíe la luz para hacer lo que nos interese: concentración de luz, dispersión de la luz, bloquear una banda de frecuencia, rodear objetos... El único problema es que los valores de ε y μ que se obtienen son tan raros, que es difícil realizarlos experimentalmente. Una cosa es hacer un metamaterial con propiedades homogéneas... y otra una estructura donde hay que tener en cuenta que ε y μ son tensores.

Ahora imagina que diseñamos un espacio tal que la luz que entra en una zona, no puede volver a salir de ella... ¿Alguien ha dicho "agujero negro"?. Sí, uno de los resultados más llamativos e interesantes de la relatividad general son los agujeros negros, zonas del espacio deformadas por una masa tan elevada, que atrapa la luz y no puede salir. Y gracias a la óptica de transformación, se pueden reproducir sus propiedades ópticas en el salón de casa, sin los problemas que ciertamente daría tener la masa del sol concentrada en el tamaño de una cucharilla. De momento en los ordenadores, porque de tecnología andamos escasos.

Ahora supón que en el centro del meta-agujero negro colocas una célula solar, y puedes estar seguro de que toda la luz que entre en el agujero acabará en siendo recogida por el sensor, aumentando su eficiencia.

Y estas son las cosas bonitas de la ciencia: cómo campos totalmente distintos, como son la cosmología y la física aplicada, la relatividad y la óptica electromagnética, acaban confluyendo en un mismo punto.

sábado, marzo 01, 2014

Zahorí 2.0

No. No se me asusten, que esta no es una de esas entradas. Tampoco voy a entrar a detallar qué significan cada una de las ecuaciones de Maxwell, tan sólo decir que sirven para explicar todo lo que se refiere a electromagnetismo. Y como vamos a hablar de algo directamente relacionado con ellas, ahí las dejo como cabecera.

¿Alguien ha oído hablar de la geobiología? Yo no, hasta hace poco. Según wikipedia, es un campo interdisciplinar que explora las interacciones entre la biosfera, la litosfera y/o la atmósfera. Sin embargo, hace unos días que hay un arquitecto-geobiólogo pasando por la radio (1, 2) que la define como:

la ciencia que estudia las energías que emanan de la tierra, y las relaciones entre estas energías y los seres vivos

(traducción libre) y más concretamente, centrado en la "contaminación electromagnética" que hace enfermar a todo el mundo. Sorprende tal definición y campo de actuación, porque claro, uno coge la palabreja, y la disecciona: empezamos por "geo", que nos remite a geología, donde no parece que el electromagnetismo sea una asignatura central. Y por otro lado, "bio" como en biología, donde a bote pronto, la relación entre electromagnetismo y seres vivos más importante que me viene a la mente es la fotosíntesis. Pero igualmente no parece que Maxwell sea un personaje relevante.

Nos cuenta este geobiólogo que su ocupación es estudiar las radiaciones que hay en las casas para proteger la salud, y resulta que estas radiaciones se pueden catalogar en dos tipos: las naturales, que son la que emanan de la tierra; y las artificiales, que son las provocadas por las nuevas tecnologías(ya saben, móvil, radio, wifi...).

Al margen de cómo habría que considerar la radiación del sol (yo sugiero "radiación alienígena"), es llamativa esta tendencia en dividir cualquier cosa entre natural y artificial. Las ecuaciones de Maxwell arriba expuestas son igual de válidas tanto para unas como otras, no son capaces de distinguirlas. Coja un fotón "natural" y otro "artificial", y no será capaz de diferenciarlos, lo que quiere decir que son la misma cosa, y que interactuarán con materia orgánica e inorgánica con idénticos efectos, sean cuales sean.

Eso no quiere decir que no se pueda dividir la radiación entre "natural" y "artificial". Por ejemplo, natural se podría definir como aquella que es emitida de forma espontánea en la naturaleza. Artificial podría ser aquella cuya emisión es provocada aprovechando fenómenos naturales. Y similares definiciones se podrían buscar para cualquier otra cosa que se suele clasificar con tales etiquetas, sin que por ello tenga que suponerse que "natural=chachi" y "artifical=caca". (Por si alguien todavía no se convence, que piense cómo alguien quema gas para generar de forma artificial una llama controlada para asar un pollo, mientras que al recibir una naturalísima y descontrolada erupción solar la menor de nuestras preocupaciones sería si el pollo ha quedado muy hecho)

Así que finalmente, diferenciar entre "natural" y "artificial" no deja de ser una clasificación que podrá ser útil o descriptiva según el contexto, pero también es una distinción totalmente arbitraria... y artificial en definitiva.

Volviendo a nuestro geobiólogo, obviamente lo que él llama radiación artificial es mala. Y la radiación que él llama natural... también afecta a la salud. Lo que lleva a preguntarse cómo es posible que exista la vida, si después de tantos millones de años evolucionando no ha sido capaz de adaptarse a las "radiaciones naturales".

¿Y de dónde salen estas radiaciones naturales? Pues aquí llegamos a la chicha. Por lo visto la Tierra está atravesada por unas rejillas energéticas, llamadas líneas de Hartmann y Curry. Que unas van de Norte a Sur y Este a Oeste, mientras las otras van de NO a SE y de NE a SO. Un detalle menor es saber si están alineadas con el eje geográfico, el eje magnético, o la declinación magnética local, pero estas sutilezas que tiran abajo cualquier castillo de naipes pseudocientífico no suelen tenerse en cuenta. El caso es que si uno se echa a dormir en una intersección de estas líneas, tendrá problemas de salud. Y como la distancia entre intersecciones es de tan sólo 2 metros, eso significa que los jugadores de baloncesto están todos bastante jodidos.

Pero no sólo de líneas imaginarias vive nuestro geobiólogo, porque las radiaciones naturales también son emitidas por aguas subterráneas. Porque

las moléculas de hidrógeno del agua en movimiento que rozan con el subsuelo generan un campo electromagnético

(traducción libre) ¿Y qué tiene de especial el hidrógeno? ¿Y por qué el agua subterránea y no el vapor de agua presente en el aire que nos rodea, que también está en movimiento, que también roza el suelo generando electricidad estática y que en días de tormenta llega a provocar descargas eléctricas? Pues son buenas preguntas que seguro que no tienen contestaciones igual de buenas, pero el caso es que es lo que nos lleva a la conclusión final.

Porque si usted contrata a este geobiólogo, su trabajo consistirá en buscarle corrientes de agua subterráneas para moverle la cama de sitio. Sí, al final estamos hablando simplemente de un zahorí usando tecnobable, que para quien no lo sepa, no es un asturiano hablando de tecnología, sino una forma de complicar conceptos que son muy simples.

Un zahorí 2.0, pero zahorí al fin y al cabo, con doble de pseudociencia .

viernes, enero 10, 2014

Radiofobia y las fundas antirradiación

De vez en cuando se nos bombardea mediáticamente con las temidas radiaciones de alta frecuencia. Principalmente se refieren a las radiaciones de móviles (tanto de teléfonos como de antenas), y ahora cada vez más las antenas wifi. Ya sea en la televisión, radio o a través de internet, no paran de decirnos lo perjudicial que es la radiación para la salud, aunque paradójicamente es difícil que nos concreten en qué nos perjudica exactamente, e incluso es seguido de vez en cuando con un contradictorio "no se han encontrado evidencias... pero por si las moscas". Por ejemplo:

La evidencia científica disponible aconseja adoptar medidas cautelares frente a la exposición a la radiación emitida por los teléfonos móviles e inalámbricos.

Aunque la evidencia obtenida por los estudios científicos realizados hasta la fecha no nos permiten decir en qué grado el uso de los teléfonos móviles pueden provocar efectos nocivos...

Negrita en el original. La falta de evidencia es evidencia de que se necesitan medidas cautelares. Curioso cuando menos.

Toda esta tecnofobia, sin embargo, no lleva a recomendar dejar de usar el teléfono móvil o las redes wifi, que parecería lo lógico. Si tan malas son las radiaciones, apágalo, tíralo y llama desde el teléfono fijo o una cabina como se ha hecho toda la vida, ¿no?

Pues todo lo contrario, lo que nos recomiendan es elegir entre una amplia gama de fundas (una, otra y otra) que nos aseguran que eliminan la "carga negativa" de las ondas electromagnéticas. Y además, te evita llamadas inoportunas:

Coloque el móvil durante el trabajo o en su tiempo libre en el compartimiento grande de su funda xxxxx, doble la solapa exterior y ciérrelo completamente con la cinta de goma, tras medio minuto su móvil quedará sin cobertura y ya nadie le interrumpirá.

Lo que no es sino una excusa muy traída por los pelos para darle una utilidad añadida a la funda. De lo que se trata al final es de meter miedo contra las perjudiciales radiaciones "negativas", pero no tanto como para dejar de usar la tecnología, y poder vender una solución contra un problema inexistente.

La pregunta es obligada: ¿Se tratan estas fundas de un producto milagro?

La afirmación principal es que las fundas reducen la radiación absorbida por la cabeza cuando hablamos con el móvil. En dos de las webs que he enlazado, además lo acompañan de referencias a la Universidad del Ejército Federal en Munich, con medidas hechas según unos procedimientos o normas estándar concretas, que demostrarían la atenuación de la radiación en 50 dB (que viene a significar que la potencia transmitida es el 0.001% respecto de la potencia incidente).

Siempre da lustre que una universidad avale un resultado. Más aún si además está relacionada con el ejército (y no digamos ya una norma militar [.pdf]), aunque esté obsoleta). Pero sin embargo, la prueba realizada no es la más idónea para lo que están afirmando (aunque sí evidencia que lo que dicen podría ser correcto).

Me explico. Las normas en las que está basada la medida dicen que hay que colocar una fuente de radiación alejada de la capa a caracterizar. El haz la atraviesa, y se mide cuanta radiación llega al detector. Siendo la palabra clave aquí "alejada", porque implica que la radiación le llega a la capa de una forma concreta ("ondas planas" es el término técnico).

En cambio, cuando se coloca un móvil en la funda, la radiación que emite el teléfono lo hace "muy cerca" de la funda. La "fuente" no está a la distancia estipulada por la norma,y cuando llega la radiación a la funda lo hace en condiciones distintas a la establecida.

Hubiera sido más correcta una caracterización orientada a conocer la emisión de una antena: ver cuanta radiación se emite en las distintas direcciones (siendo una de ellas la dirección a través de la funda).

O podrían haber hecho las medidas que hicieron en este otro caso [.pdf]. La medida consiste en evaluar la cantidad de radiación absorbida por un tejido biológico, simulando una llamada con un móvil pegado a la oreja. Este tipo de medida también está normalizada, y es la que todos los fabricantes de móviles deben realizar para certificar que sus teléfonos cumplen la normativa vigente. La norma establece las propiedades del tejido simulado, las condiciones de operación del teléfono (a máxima potencia), distancia, cantidad de tejido e incluso inclinación del móvil respecto del tejido.

Y los resultados apoyan la afirmación: sí, la absorción de radiación en la cabeza disminuye muy notablemente al usar la funda. El producto hace básicamente lo que dice.

Pero ahora va la segunda pregunta, la que no aparece en ninguna de estas webs porque si no, no venderían nada: ¿Es realmente necesaria la funda?.

Como decía al principio, nos bombardean con lo perjudicial de las radiaciones, pero es difícil encontrar qué es lo que perjudican concretamente.

La exposición prolongada a luz ultravioleta (tomar el sol en la playa) puede producir cáncer de piel. La exposición al frío sin abrigo, produce hipotermia. Efectos perjudiciales concretos. Las webs radiófobas en cambio no son capaces de concretar cual es el perjuicio de las radiaciones de móvil.

Pero, como todo el mundo sabe (excepto los homeópatas), la diferencia entre algo inocuo y algo que produce un efecto está en la dosis, y obviamente, con las radiaciones pasa lo mismo. Los efectos de la radiación sobre el cuerpo pasan por un calentamiento del tejido del orden de 0.1ºC [.pdf]. El estudio de los efectos de la radiación en función de su intensidad es lo que ha llevado a establecer unos niveles de seguridad máximos que deben cumplir todos los móviles, y de ahí la norma que se usa para certificar que los teléfonos los cumplen.

En la UE, este límite es de un SAR (Specific Absorption Rate) de 2 W/Kg (que es 5 veces menor que el nivel de referencia establecido por expertos de 10 W/Kg para la absorción localizada en la cabeza [.pdf]). Si repasamos las medidas del informe anterior, podemos ver el valor máximo de SAR con y sin funda obtenido después de varias medidas:

- Sin funda: 0.805 W/Kg
- Con funda: 0.032 W/Kg
(Normativa europea: 2 W/kg)

El móvil, sin funda, está un 60% por debajo del límite. Sí, con funda es mucho menos, pero es que sin funda ya estamos muy por debajo del límite en el peor de los casos.

Puede que ahora alguien esté pensando en que la OMS clasificó los campos de radiofrecuencia como potencial cancerigeno [.pdf]. Si no es peligroso, ¿por qué la OMS lo cataloga como cancerígeno? O al menos, tan potencialmente cancerígeno como lo es el café, los polvos de talco, el níquel (como el que hay en las monedas de 1 y 2 €) o la Aloe Vera.

Pues aquí (como en casi todo), hay que leerse la letra pequeña para evaluarlo en su justa medida.

The evidence was reviewed critically, and overall evaluated as being limited(2) among users of wireless telephones for glioma and acoustic neuroma, and inadequate(3) to draw conclusions for other types of cancers. The evidence from the occupational and environmental exposures mentioned above was similarly judged inadequate. The Working Group did not quantitate the risk; however, one study of past cell phone use (up to the year 2004), showed a 40% increased risk for gliomas in the highest category of heavy users (reported average: 30 minutes per day over a 10 year period).

La evidencia fue revisada críticamente, y en general evaluada como limitada(2) entre usuarios de teléfonos inalámbricos para glioma y neuroma acústico, e inadecuada(3) para extraer conclusiones sobre otro tipos de cáncer. La evidencia sobre exposición ocupacional y ambiental mencionadas anteriormente fue igualmente juzgada inadecuada. El Grupo de Trabajo no cuantificó el riesgo; sin embargo, un estudio anterior sobre el uso de móviles (hasta el año 2004), mostró un incremento del riesgo del 40% para glioma en la categoría de usuarios muy frecuentes (media reportada: 30 minutos al día durante un periodo de 10 años)

Siendo aquí las palabras importantes limitada e inadecuada, cuyas definiciones son:

(2) Evidencia limitada de carcinogénesis: Se ha observado una asociación positiva entre la exposición al agente y el cáncer para la que una interpretación de causalidad es creíble para el Grupo de Trabajo, pero el azar, sesgo o confusiones no pueden descartarse con suficiente confianza

(3) Evidencia inadecuada de carcinogénesis: Los estudios disponibles son de calidad, consistencia o potencia estadística insuficiente para permitir una conclusión respecto la presencia o ausencia de una asociación causal entre exposición y cáncer, o no hay disponibles datos de cáncer en humanos.

Es decir, que se han clasificado los campos de radiofrecuencia como potencial agente cancerígeno (en concreto de glioma), en base a una evidencia limitada de la que no se puede descartar el azar y los sesgos, mientras que no hay evidencia válida para cualquier otro tipo de cáncer. Son unos argumentos que se antojan débiles como para preocuparse y meter miedo.

La dichosa funda queda pues como producto de consumo contra un miedo injustificado.

Y para acabar, un poco de materia para pensar: las fundas evitan que la radiación llegue a la cabeza. Pero, ¿qué ocurre con esa radiación? El teléfono no comienza mágicamente a emitir con menor potencia, y si hay algo de lo que no existe excepción conocida es del primer principio de la termodinámica ("la energía ni se crea ni se destruye"). Así pues, ¿qué pasa con la radiación que no llega a la cabeza?

El principio de funcionamiento de las fundas se basa en que la radiación no atraviesa los metales (en teoría y en la práctica, aunque hay matices). Las fundas parecen estar compuestas de un mallado de hilos de plata, que reflejan la radiación incidente. Lo que hacen en realidad es cambiar el patrón de emisión del móvil. El móvil sigue emitiendo la misma energía, pero esta se reparte en el espacio de forma distinta. Por ejemplo, aquí muestro unas simulaciones de propagación de la energía electromagnética (hechas con el software libre MEEP). La primera simula la propagación en espacio libre, de forma simétrica, y más o menos esférica, como se esperaría de una fuente de radiación como un móvil.

La segunda representa la propagación si al lado de la fuente colocáramos una lámina de un metal perfecto.

Nótese cómo cambia el patrón, que reduce (aunque no evita) la propagación en un sentido, pero aumenta en el contrario (y nótense también los efectos de borde). Quizás algún radiófobo se sienta tranquilo y seguro con su funda, evitando recibir radiación... a cambio de lanzársela a los demás, lo cual parece poco ético cuando menos.

Y además ahora tendrá la preocupación extra de colocarse el móvil en el bolsillo del pantalón en la posición correcta, no sea que en vez de freírse la cabeza, se fría los...

Pero en fin, para aquellos que sigan sin fiarse, estaré gustoso de hacerme cargo de sus monedas de 1 y 2 €, tan cancerígenas como la radiofrecuencia según la OMS.

domingo, diciembre 01, 2013

Combate a 20.000 metros

El 11 de Abril de 1980 ocurrió un llamativo incidente OVNI que se relata en este video:

Del evento ya se había hecho eco Iker Jiménez allá por 2007, y existe alguna que otra página web hablando del tema(una, otra).

El resumen básico, es que un piloto de caza peruano, el (hoy) comandante (retirado) Oscar Santamaría, salió en la mañana de 11 de Abril del 80, en persecución de lo que creían era un globo aerostático espía para derribarlo. Al poco de despegar desde la base de La Joya (Arequipa), le disparó una ráfaga sin que el objeto sufriera daño alguno. El objeto comenzó a desplazarse a gran velocidad y en ascenso, siendo perseguido por el caza, hasta que frenó en seco sobre la población de Camaná, a 84 km de distancia. Entonces Santamaría volvió a maniobrar para disparar de nuevo, pero cada vez que se disponía a hacerlo, el objeto parecía hacer un ascenso súbito de forma que perdía la posición de tiro. Finalmente, el piloto tuvo que abortar la misión y regresar a la base ante la falta de combustible, no sin antes echarle un vistazo a la forma del objeto que intentó derribar sin éxito, y que, a pesar estar convencido de que es una nave extraterrestre, describe como un globo.

A pesar de las típicas "maniobras imposibles", lo que le ha dado especial notabilidad al caso, y lo que se ha explotado en su divulgación, es el añadido especial de los disparos que no hacen mella en el objeto. ¡El primer piloto que dispara a un OVNI!... Y también que en E.E.U.U. se hicieran eco del suceso a través del agregado en la embajada. Nada como documentos oficiales (americanos, y además "desclasificados"), para certificar un hecho como cierto, aunque no sea más que información de tercera mano con errores como la fecha del suceso.

Pero visto asépticamente, todo apunta a nada más que una confusión, una estimación errónea de la distancia real al objeto en cuestión, que no sería otra cosa más que un globo estratosférico.

El globo en cuestión, podría haber sido uno lanzado el 2 de Abril de 1980 desde cerca de São Paulo (Brasil), y que aparece listado en la web Stratocat. El globo habría sido arrastrado por el viento, que a una altura de 30 km soplaba principalmente de Este a Oeste, como se puede comprobar con los mapas meteorológicos de aquellos días, preparados por Juan Carlos Victorio. Estas gráficas muestran la situación de la atmósfera a unos 30 km de altura:

Las líneas mostradas en los mapas coinciden con la dirección del viento (principalmente de Este a Oeste) en los días 2/3 y 10/11 de Abril. Las estrellas blancas muestran el lugar de lanzamiento en Brasil, y el lugar del incidente.

-Pero... ¡¡Los globos no son antibalas, ni hacen maniobras, ni ascensos imposibles!!

Correcto, los globos son frágiles y no hacen maniobras imposibles. Pero puede parecer que las hacen, si hay una percepción errónea de la distancia, posición y/o movimiento real del globo, y ayudada por el movimiento propio del observador. Partamos de que el OVNI se vió por primera vez desde La Joya, a una distancia estimada de 6 km, a unos 600 metros de altura estimada, cuando en realidad estaba a casi 90 km, y a más de 20 km de altura. Con esta percepción errónea, el piloto despega y se coloca a lo que aparentemente es el mismo nivel del objeto, y dispara. Obviamente, las balas no van a encontrar ningún objeto, y no van a producir ningún daño.

Santamaría cree que el objeto está más cerca de lo que realmente está. Pero, ¿qué pasa cuando se acerca al punto donde aparentemente debería estar el objeto? Que no está, y el cerebro necesita reinterpretar la situación: el objeto ha tenido que moverse, se ha desplazado súbitamente.

Así, el comandante Santamaría comienza una persecución, que le lleva no solo más lejos, sino también más alto. Hasta que llega por fin a las cercanías del globo. Pero viniendo de una persecución, la interpretación es que el objeto se ha parado en seco. Entonces, el piloto maniobra de nuevo para intentar disparar. Pero el globo en realidad sigue estando mucho más alto de lo que aparenta. Se alinea de forma que visualmente le parece la correcta, pero al acercarse la posición real del globo hace que la línea de visión varíe de forma significativa, dando una apariencia de "ascenso" del globo. Volando cada vez más alto, en el cielo y sin referencias, existe también la posibilidad de perder la noción del propio movimiento y posición. El ángulo de ataque del avión, por ejemplo, puede llevar a la falsa conclusión de estar mirando al frente, cuando en realidad se está mirando ligeramente hacia arriba. Por desgracia, existen casos en los que esta pérdida de la noción de la posición ha estado relacionada con un accidente aéreo.

Así, el piloto intenta tres o cuatro veces colocarse en posición de tiro sin éxito. En la última de ellas, el piloto acelera y asciende hasta los 20.000 metros, pero con idéntico resultado, porque el globo en realidad está todavía mucho más alto.

Al final del video, el piloto comenta que el objeto parecía moverse en dirección contraria al viento. Esta otra gráfica muestra la dirección del viento en función de la altura en las cercanías de Camaná y La Joya el día 11 de Abril:

Por un lado, muestra de nuevo que por encima de los 20.000 el viento iba de Este a Oeste, y en segundo lugar que por debajo el viento iba en dirección contraria. Teniendo en cuenta que Santamaría en todo momento cree erróneamente que se halla a una altura similar a la del globo, es normal que pensara que se desplazaba en dirección contraria al viento. Este último comentario estaria de nuevo de acuerdo con la hipótesis del globo.

El informe anterior del agregado en la embajada ha sido la fuente para algunos investigadores americanos, que han llegado a contactar con la Fuerza Aerea Peruana, y que respondieron que el incidente se trató de una confusión con globos meteorológicos.

- Pero...¡Los pilotos son testigos de élite que nunca se equivocan!

Los pilotos, antes que pilotos son personas con sus cinco sentidos. Los sentidos son falibles, y pueden producir falsas percepciones, más aún si el piloto mismo se halla en movimiento en su avión. Súmese a esto que en las alturas del cielo faltan referencias sobre las que basar estimaciones de distancias y movimientos relativos, y el resultado es un piloto víctima de sus sentidos, como le puede ocurrir a cualquier persona.

En última instancia, a pesar de lo atractivo del caso, con disparos, documentación americana oficial, entorno militar con 1800 testigos potenciales (todo personal de la base que se hallaba en formación en el momento en que apareció el OVNI), el caso está basado en un único testimonio, el del piloto, que sin lugar a dudas es interesante ya que fue quien vivió más de cerca el incidente... Pero se echa en falta testimonios de alguna de esas 1800 personas que describiera desde tierra lo que vio para comparar, ratificar, matizar o corregir lo que vivió Santamaría desde el aire.

La hipótesis de la confusión con un globo explica bastante bien los tiros que no hacen nada, la persecución y los ascensos súbitos. Solo hay un pero: en alguna web se deduce que el primer avistamiento del OVNI fue al final de la pista de la base, hacia el sur. La posterior persecución lleva el evento hacia el oeste de la base, un trayecto que el globo tardaría en recorrer unas 2 horas (el viento a 30 km de altura soplaba en esa dirección). En otras se adelanta la hora del primer avistamiento a los momentos del amanecer (6:30), cuando podría haber estrellas visibles.

Un detalle al que muchos se agarrarán para defender la extrañeza de este caso, pero que podría tener respuesta simple si algún testimonio de esos 1800 potenciales testigos aclarara la dirección del avistamiento, si pudo haber dos estímulos distintos, el lapso de tiempo entre primer avistamiento y despegue, o cómo se vivió el incidente entero desde tierra.


Con la colaboración de: Vicente Juan Ballester Olmos, Juan Carlos Victorio y Manuel Borraz

Nota

Datos meterológicos: NCEP Reanalysis data provided by the NOAA/OAR/ESRL PSD, Boulder, Colorado, USA, from their Web site at http://www.esrl.noaa.gov/psd/

jueves, agosto 29, 2013

Luna hueca

Pongamos por caso que a uno le gusta la literatura inglesa. Pero para disfrutar de una buena lectura tenemos el escollo del idioma, así que compramos un libro que ha sido traducido al español, que es lo que entendemos. Y aquí comienzan los problemas, porque una traducción puede ser buena o mala. El que no sabe inglés tiene que fiarse de que lo que le han traducido es correcto.

Puede ser que este hipotético aficionado a la literatura inglesa quiera realmente entender de primera mano lo que lee. Leer el original, acudir a la fuente. Y entonces decide aprender inglés. Ahora es capaz de ver cuales son malas traducciones, traducciones mejores, buenas y malas obras, ... e incluso truños infumables. Aunque lo mejor de todo, es poder apreciar detalles que son muy complicados o imposibles de traducir, como pueden ser chistes basados en juegos de palabras. Y no satisfecho con ese nivel de entendimiento, a lo mejor quiere indagar en el trasfondo de la crítica económico-social presente en los párrafos más memorables de Harry Potter (por decir algo), y entonces le da por estudiar filología inglesa o similares.

A donde quiero llegar es que cuando a alguien le interesa profundizar, entender, o incluso investigar un tema, necesita hablar y dominar el "lenguaje" propio de ese tema. Pasemos de la literatura a la naturaleza, y de un lector a uno de esos "amantes del misterio". En vez de traducciones de libros, tiene divulgación científica, que puede ser buena o mala. En vez de aprender inglés, necesita aprender el lenguaje de la ciencia (que por ejemplo en el caso concreto de la física son las matemáticas) para poder entender de donde salen ciertas teorías o hipótesis, apreciar detalles interesantes, y/o poder diferenciar entre buenas y malas divulgaciones (o directamente disparates). Y ya en el caso extremo de alquien que quiere desvelar misterios como la estructura interna de la Luna y su origen, no le va a quedar más remedio que sacarse alguna carrera como física o geología.

Así, cuando uno escucha a Carlos Canales y Jesús Callejo (C&C) hablar sobre la Luna (a partir del Min. 14:15)

y decir barbaridades como:

[La sonda] Lunik impactó contra el suelo lunar, y sorprendentemente los científicos rusos comprobaron que la Luna actúa como si fuera una cámara de resonancia.
Carlos Canales (min 21:18)
No es un cuerpo redondo (...) estiman esa capa [superficial de la luna] de Titanio en unos 30 km de espesor que es lo que le daría esa consistencia por una parte circular, y por eso ese sonido a hueco cuando se estrellaron delibradamente esas naves tanto rusas como americanas.
Jesús Callejo(min 22:31)

...siente que le están diciendo que en Dinamarca huele mal, porque lo pone en Hamlet

Por lo visto no es suficiente con tener a defensores de la Tierra Hueca, ahora resulta que la Luna también lo es. Más aún, la Luna es un ingenio artificial extraterrestre que controla nuestros ciclos circadianos, puesta ahí para que no podamos vivir fuera del planeta. Y la principal razón que lo demuetra son... ciertas anomalías que C&C no entienden. O más bien, que otras personas (los rusos Mijail Vasin y Alexander Sherbakov) no entendieron en su momento (allá por los años 60), y que C&C repiten despreciando varias décadas de investigación espacial. Ahora júntelo con otras teorías sobre ciclos circadianos que datan de los años 80, y obtendrá

una de las teorías más avanzadas, vanguardistas y extrañas.
Carlos Canales (min 14:48)

que no deja de ser el típico reciclado de misterios inexistentes. Pero sacudámonos la imagen de un obrero dando golpes a la superficie lunar, como quien golpea los azulejos del cuarto de baño antes de elegir donde taladrar, y entremos en materia.

Como decía, la teoría de la Luna artificial data de los años 60, y ha llovido desde entonces. Y también se ha investigado (por mucho que lo ignoren C&C), para llegar a modelos y teorías sobre la formación y estructura de la Luna.

A estas conclusiones se llega por medio del lenguaje de la ciencia, y para llegar a traducirlo al lenguaje llano se requiere a veces ir traduciendo primero otras cosas. La pseudociencia en cambio va por el camino directo de buscar anomalías, e imaginar respuestas sin pasar por el proceso de entender el problema, o de si la respuesta efectivamente lo soluciona. Mientras hacer ciencia es un proceso complejo, hacer pseudociencia no es más que un atajo para ir al final del libro, saltándose las 1000 páginas entre medias (o inventándoselas si hace falta).

Es por eso que para explicar por qué la Luna no está hueca, hay que empezar por hablar de la Ley de Gravitación Universal (LGU). Que todo el mundo sabe formuló Newton, y tiene una expresión matemática determinada.

Gracias a Cavendish, (y posteriores refinamientos) sabemos el valor de G (G=6.67·10-11Nm2/kg2). También sabemos que un cuerpo en la superficie de la Tierra (RT=6371 Km) se acelera bajo la acción de la gravedad con una aceleración g=9.81 m/s2. Con lo que podemos estimar la masa de la Tierra en MT=5.97·1024 Kg.

Volvemos a la LGU, y deducimos de ella la tercera Ley de Kepler ("el cuadrado del periodo es proporcional al cubo del radio de la órbita"), y con ella podemos estimar ahora la masa de la Luna, mL=6.3·1022 Kg:

Nótese que no se necesita salir del planeta para estimar la masa de la Luna. Basta hacer unas buenas observaciones para conocer su periodo (27 días, 7h y 43 minutos), y triangular la distancia media a la Luna(384400 km). La masa de la Tierra la hemos calculado previamente. Así que no hace falta llegar al siglo XX ni a la era espacial para tener una buena estimación de la masa lunar.

Entrando ya en la era espacial, uno puede precisar más, y colocando una nave en órbita a una distancia conocida de la Luna, y con un periodo igualmente conocido puede calcular de nuevo la masa de la Luna, y afinar más: mL=5.98·1022Kg.(7.64·1022 según wikipedia. Nótese que nuestra estimación "sin salir del planeta" está en los mismos rangos de valores.)

Una de las derivadas o detalles de la LGU, es que no tiene en cuenta cómo está repartida esa masa dentro del volumen que rellena. Es decir, la luna podría estar hueca, ser maciza, o tener forma de berenjena. Eso a la LGU le da igual, lo que importa es que la masa total es la que es. Para hablar de la estructura, tenemos que pasar a hablar de la densidad. La densidad es la cantidad de materia que hay en un volumen dado. Podemos pensar que la Luna es una esfera maciza y homogénea de 1737 km de radio, por lo que tiene una densidad media de 2719 Kg/m3 (3340 Kg/m3 según Wikipedia).

¿Que ocurriría si la Luna estuviera hueca? Que TODA la masa que hemos calculado debería estar contenida en las zonas no huecas, en las paredes. Es decir, pensemos en una Luna hueca de 5.97·1022Kg, con una corteza de 30 km de espesor como de la que hablaba Jesús Callejo. Toda la masa se acumula en esos 30 km. La densidad media (condiderando todo el volumen, incluido el hueco) sigue siendo la misma, pero la densidad de la corteza es mucho mayor: 53403 Kg/m3. Para ilustrar mejor qué significa, piensa en una cubo de 10 cm de lado: contendría 53.4 Kg. Por comparación, el Osmio, el elemento más denso de la tabla periódica, tiene una densidad de 22.6 Kg por cada cubo de 10 cm.

Jesús Callejo en realidad sólo habla de una corteza exterior de Titanio (cuya densidad es de 4.5 Kg en un cubo de 10 cm) de 30 Km. Lo que quiere decir que le quedarían aún 5.4·1022 Kg de materia a repartir como buenamente le parezca por el interior. Teniendo en cuenta que estamos hablando de una nave espacial, que contendrá habitaciones o estancias que estarán principalmente huecas, la densidad de las paredes y estructuras no huecas... no serán de 53 Kg por cada cubo de 10 cm de lado, pero aún así se antojan bastante elevadas. Pero en pseudociencia eso son los detallitos que hay que incluir en las 1000 hojas que uno se salta para ir al final del libro, que no se espera que nadie se lea, y que por eso mismo nunca se escriben.

Hasta ahora sólo hemos abordado un detalle que nos dice que eso de una Luna hueca tiene unos problemas conceptuales serios. Unos problemillas que se podrían conocer sin necesidad de mandar satélites a la Luna, pero que no abordan directamente la cuestión: ¿Cual es la estructura de la luna y cómo podemos saberlo? Desde luego, no con el avanzado método Callejo de golpear con los nudillos y escuchar si suena a hueco. Pero en el fondo son preguntas legítimas y sensatas.

Pues una forma es... tal y como dicen C&C. Sus explicaciones no son las mejores precisamente, y tengo dudas sobre si realmente las entienden y simplemente las leyeron por ahí y las repiten como loros (ok, de acuerdo, tengo pocas dudas de que realmente fue así). Pero a lo que se refieren es que cuando cae sobre la Luna un asteroide o una sonda, se producen perturbaciones que se transmiten por el satélite, como si fueran pequeños lunamotos, selenomotos (o como se diga). Cómo se transmiten estas perturbaciones da información sobre qué regiones atraviesa, cuales no, sus propiedades, y en definitiva, interpretar estas perturbaciones es lo que puede dar información sobre la estructura interna de la Luna.

Varias sondas dejadas allí por los americanos han recogido durante años esta información. El mismo tipo de información en el que dicen C&C que se basaron Vasin y Sherbakov para llegar a su conclusión de la luna hueca. Las expresiones "caja de resonancia" (Canales), o "suena a hueco" (Callejo) serían versiones muy divulgativas (tanto que hasta pierden su significado real) sobre cómo es la transmisión de vibraciones por la Luna. Pero el consenso científico después de 40 años viendo esas cajas de resonancia y sonidos a hueco es justo el contrario. Por ello es bastante sorprendente que se rescate esa teoría tanto tiempo después, despreciando todo lo ya conocido sobre la Luna.

Estudiar la sismología lunar es una forma de conocer su estructura interna. Pero no es la única. Y como de sismología no entiendo, voy a explicar otra que también demuestra que la Luna es maciza. Los objetos tienen una serie de propiedades que afectan a su movimiento. O más concretamente, que afectan a como cambian su estado de movimiento. Una de ellas es la masa: se puede interpretar como la resistencia de un objeto a ser acelerado. Si tenemos dos objetos, con masas M y m, y se les aplica la misma fuerza, al más pesado le costará más ponerse en movimiento. Se acelerará más despacio. Presenta más resistencia para acelerarse y moverse en movimiento rectilíneo. Es una forma de entender la masa, y su relación con el movimiento.

Bueno, pues ahora toca introducir el Momento de Inercia, que es lo mismo que la masa, pero relativo a rotaciones: a mayor momento de inercia, más le cuesta a un objeto ponerse en movimiento de rotación. Es una propiedad que está relacionada con la estructura del objeto, por lo que es directamente relevante a la cuestión que estamos tratando. Aunque tengan la misma masa, no es lo mismo un objeto hueco, que otro macizo, porque su momento de inercia es distinto.

Esta animación, sacada de la wikipedia, ilustra el movimiento de 4 objetos con igual masa, pero distinto momento de inercia. La bola roja es una bola hueca. La naraja, es la sólida. Véase cómo a la maciza le cuesta menos empezar a rodar que a la hueca, se acelera más rápido.

En el caso de cuerpos celestes, se usa el momento de inercia normalizado. No es más que una forma de poder expresar el momento de inercia independiente de la masa, para poder comparar objetos con distinta masa. En particular, para una esfera maciza y homogénea, el momento de inercia normalizado es de 2/5=0.4. Para una esfera hueca, este valor es de 2/3=0.66. Cualquier cosa entre medias tendrá un valor entre estos dos extremos. Por ejemplo, supongamos que la Luna tiene un radio interior, que define el espacio del hueco. En función de este radio se puede calcular el momento de inercia, y se puede ver esta variación entre los dos extremos:

Durante estas décadas, ha habido múltiples sondas orbitando alrededor de la Luna. Y se han usado para obtener datos del campo gravitatorio de ésta. Entre los parámetros que se pueden extraer de estos datos, está el momento de inercia, y el que se ha medido para la Luna es de 0.3932. Para la Tierra, es de 0.33. Lo cual debería zanjar definitvamente el asunto: la Luna (y la Tierra) son macizas.

Quizás sólo haya que explicar a los más curiosos por qué los valores medidos son menores que los teóricos (lo cual, de paso, perjudica aún más a la hipótesis de la Luna hueca). Arriba he señalado el valor teórico para una esfera maciza y homogénea, es decir, si la densidad es constante en todo el volumen. Los cambios de densidad, también afectan al momento de inercia. Pensemos en que disminuimos la densidad del núcleo, y aumentamos la del exterior de una esfera. El caso límite de este supuesto es vaciar el núcleo, ahuecarlo, por lo que el momento de inercia tenderá a aumentar, a parecerse al de una esfera hueca. ¿Y al revés?¿Y si el interior es más denso que el exterior? Pues lo que ocurre es que el momento de inercia disminuye. Tal y como se observa. Lo que demuestran los valores de 0.39 y 0.33 de la Luna y la Tierra, es que sus núcleos son más densos que el exterior.

Actualización 11/9/13

Añado aquí un gráfica del momento de inercia de los planetas del sistema solar, recopilando datos de de aquí:

La línea roja marca lo que parece una tendencia. Viene a colación de alguno de los comentarios, donde se pregunta si alguna estructura específica que incluyera algún hueco en la Luna podría resultar un momento de inercia como el medido. Por poder, podría ser, pero suponiendo una estructura muy concreta y especial. Otra cosa es que luego cuadre con los datos sismológicos. Y como se puede intuir, el valor del momento de inercia parece seguir una tendencia relacionada con el tamaño de los planetas.

Actualización 13/2/14

Prueba de lo poco que pasa gente por el blog, o de que no leen la entrada, es que en 5 meses nadie me ha advertido de que hay una errata en el gráfico: Venus y Marte están intercambiados. Venus tiene un radio ecuatorial similar a la Tierra, mientras que Marte es más pequeño.

Y así es como una "vanguardista" y "novedosa" idea de hace 40 años queda como lo que es: un libro bastante malo escrito en un lenguaje distinto al de la ciencia.

Como pueden ver, ha sido una parrafada para llegar a que la Luna es maciza, y que su núcleo es más denso que su exterior. Una parrafada en la que ha habido que hablar de la Ley de Gravitación Universal, de masa, densidada, sismología y momentos de inercia. Esto es lo que cuesta rebatir ideas felices como que la Luna es hueca. La ciencia no tiene atajos.

¿Qué les ha costado a C&C soltar en la radio que la Luna es una nave espacial? Nada. Sólo reciclar una teoría de hace 40 años, despreciando décadas posteriores de investigación espacial.

Las mentiras pueden dar la vuelta al mundo antes de que la verdad tenga tiempo de calzarse las botas

sábado, agosto 17, 2013

Comunicación cereal

Imagina que una raza extraterrestre quiere entrar en comunicación con nosotros. Para ello, han aprendido nuestra la lengua más extendida (el inglés). Por si fuera poco, aprenden la gramática necesaria para saber usar puntos, comas y símbolos especiales como "&". Y no contentos con ello, destripan nuestra tecnología hasta el punto de conocer el código ASCII. Un juego de niños para estos viajeros interestelares, seguro.

Con todos estos conocimientos, deciden mandarnos un mensaje que reza tal así:

Beware the bearers of FALSE gifts & their BROKEN promises. Much PAIN, but still time. BELIEVE. There is good out there.We opPose deception. COnduit CLOSING\

...Y se van a un sembrado de la campiña inglesa, para dejar un dibujo en el suelo:

Este dibujo apareció en Agosto de 2002 en Crabwood, una localidad inglesa. Que por lo visto está relacionado con el que apareció un año antes en Chilbolton.

que aparenta ser la respuesta a al mandado desde el radiotelescopio de Arecibo y desde el radiotelescopio del mismo Chilbolton.

La imagen muestra bits, secuencias de "1" y "0" donde se proporciona información variada. De igual forma, el dibujo de Crabwood incluye un disco con 1's y 0's, que se pueden agrupar en grupos de 8 bits, y relacionarlos a través del código ASCII con letras y caracteres usados en la escritura.

Impresionante. Después montones de dibujos conteniendo figuras geométricas y fractales "imposibles de hacer" (que no falte nunca el "plus" de misterio), por fin un dibujo con un mensaje claro, que demuestra que los ETs nos vigilan y nos estudian lo suficiente como para entender nuestro idioma y tecnología-

Stop

Tecnología. Me están contando que los ETs, tras aprender nuestro idioma, nuestro sistema de escritura, y descifrar uno de los fundamentos de las telecomunicaciones humanas, se les ocurre responder ¿haciendo un dibujo en el suelo?. ¿Y lo hace justo al lado del mismo elemento tecnológico que hemos usado (y aparentemente con éxito) para iniciar la comunicación?. Y ya puestos a hacer un dibujo, ¿por qué no han dibujado directamente las letras, en vez de andar codificando con ceros y unos?.

¿Por qué los ETs, una vez comprendido nuestro idioma, y entendida nuestra tecnología de telecomunicación, deciden, en vez de usar esa misma tecnología, contestar con un sistema tan rudimentario como hacer un dibujo en el suelo?. Es completamente absurdo.

Mandar mensajes por medio de dibujos en sembrados es una causa perdida. Difícilmente va a demostrar eso que una legión de naves extraterrestres se intentan comunicar con nosotros (mientras que por otra parte, esas mismas naves sólo se dejan ver como discretos puntitos de luz que se confunden con planetas, estrellas, aviones, etc...). Los dibujitos en los sembrados quedan muy monos. Que sean muy complicados, no demuestra que sean de origen extraterrestre. Que un ufólogo no sea capaz de entender cómo se hacen, tampoco demuestra nada.

En cambio, que desde el espacio profundo se reciba una secuencia de pulsos de radio (léase, 0's y 1's) codificando un mensaje, lo que seguro podemos decartar es que unos jóvenes con una cuerda y unas tablas nos estén gastando una broma. Al fin y al cabo, es lo que hicimos nosotros. A ver si ahora resulta que somos más listos que quienes han visto naves arder más allá de Orion...