lunes, 29 de diciembre de 2014

Un simulador matemático predice resultados de béisbol y futbol americano

El razonamiento estratégico y la estadística empleada en la planificación de los partidos del béisbol y futbol americano fueron del interés de un grupo de científicos del Departamento de Computación en el Centro de Investigación y de Estudios Avanzados (Cinvestav), en México, al desarrollar un simulador basado en algoritmos matemáticos para predecir el desarrollo del partido.

El doctor José Matías Alvarado Mentado, titular del proyecto, no es un aficionado a los deportes, pero le ha llamado la atención el uso de razonamiento estratégico empleado en el campo antes y durante un juego, por lo que desarrolló un simulador basado en algoritmos matemáticos.

“Un juego de béisbol y el futbol americano puede analizarse desde un punto de vista matemático. Diseñamos un algoritmo que integra las reglas del juego, la probabilidad de ocurrencia de las jugadas conforme lo indican las estadísticas, las características de cada jugador por posición, y un módulo de estrategias que hace las veces de un manager, al tener la capacidad de tomar decisiones de acuerdo a la circunstancia del encuentro. La programación utiliza la información que se incorpore al simulador, de tal manera que logre un juego lo más parecido a la realidad”, expone Matías Alvarado.

El algoritmo diseñado por los científicos del Cinvestav realiza las acciones de acuerdo con la información que previamente fue incorporada. Esto le permite simular un juego de donde sale victorioso el equipo con la mejor estrategia. “Los resultados que hemos obtenido se asemejan a los de un partido real, donde los equipos incorporan variables estratégicas”, apunta el titular del proyecto, quien pertenece al Sistema Nacional de Investigadores del Conacyt.

Por ejemplo, el simulador elige como los primeros bateadores a los más ágiles, y después coloca a un bateador jonronero, identifica las entradas y las circunstancias del partido, tal como lo hace un manager en la realidad, pero el simulador plantea las estrategias de acuerdo a sistemas matemáticos.

Una de las razones que hace tan preciso al simulador desarrollado en el Cinvestav es que toma en cuenta las variables estructurales y las variables circunstanciales del juego para definir la estrategia durante el encuentro virtual. Para elegir estrategias, por ejemplo, emplea la teoría matemática conocida como el Equilibrio de Nash, para la toma de decisión sobre las acciones de todos y cada uno de los jugadores, es decir, de todo el equipo.

“De acuerdo con nuestro simulador el equipo de emplee el Equilibrio de Nash para seleccionar su estrategia de juego tiene un índice de efectividad alto cuando enfrenta a otra novena que no tiene un método claro para identificar estrategias”, apunta Matías Alvarado.

Si bien este simulador ha sido presentado con éxito en congresos científicos a nivel mundial, hasta ahora no se ha empleado con ningún equipo profesional de béisbol para comprobar su efectividad como alternativa para planificar estrategias de juego.

Para el investigador del Cinvestav este sistema tiene utilidad, además de la esfera deportiva -lo ha aplicado, también, al análisis del futbol americano-, en otras áreas profesionales, porque el tipo de análisis matemático y los algoritmos que se realizaron, pueden sustentar la toma de decisiones en cualquier organización colectiva donde haya conductas de cooperación y competencia, o sea, empresas, pero considerando factores de incertidumbre propios de actividades realizadas por seres humanos.

Un modelo matemático para optimizar el uso de la madera

A lo largo de la historia de la construcción, la madera ha sido uno de los materiales usados por excelencia. Con el paso del tiempo, otros elementos la han desplazado, sin embargo, sigue siendo el material más utilizado en las construcciones de bajo presupuesto. En Chile, la industria forestal se ha desarrollado ampliamente, llegando a un 2,6 por ciento del producto interno bruto (PIB) y la madera se impuso como tercer producto chileno más exportado el 2011, según la Corporación Chilena de la Madera.

Pese a la importancia de este producto a nivel mundial, existen pocas investigaciones sobre la madera, manteniéndose muchas dudas sobre sus propiedades y atributos.

“A la fecha no se entiende completamente, ni en Chile ni el mundo, cómo predecir con exactitud las propiedades mecánicas y capacidades resistentes de la madera. Eso, de alguna forma, se traduce en ciertas deficiencias en el diseño de estructuras, siendo utilizada de forma conservadora, lo que significa un uso de más material que lo óptimo”, señala el académico del Departamento de Ingeniería en Obras Civiles, Dr. Erick Saavedra, indicando que su estudio puede ser un aporte en la materia.

Tras años investigando este material, buscando profundizar y potenciar sus hallazgos, el profesor Saavedra desarrolla actualmente el proyecto Fondecyt Regular “Mecánica computacional multiescala para la descripción de materiales y estructuras de madera”, estudio que se extenderá hasta el 2017.


 
“Esta investigación busca comprender el comportamiento mecánico de la madera, con el fin de determinar sus elementos de falla y de deformación, que ocurren a nivel microscópico, y poder vincularlo a nivel macroscópico”, señala el Dr. Saavedra.


Según explica, la diferencia que se puede observar entre este material biológico y los desarrollados por el ser humano, es su constitución por escalas. Cuando se analiza el acero, por ejemplo, se puede advertir un solo nivel relevante de material, mientras que al examinar la madera, se pueden encontrar cinco distintas escalas, las que están organizadas jerárquicamente.

“Todas estas escalas coexisten simultáneamente en la madera. Así, tenemos una viga de madera que representa una escala estructural o macroscópica. A su vez, la madera está constituida por una serie de anillos de crecimiento que son del orden de los milímetros, esto es, una escala mesoscópica. Luego, en un nivel aún más pequeño, dichos anillos están conformados por fibras de madera del tamaño de unos cuantos micrómetros, o escala microscópica, y así sucesivamente”, explica el especialista.

Otra característica importante que destaca en la madera, es la optimización que ha experimentado durante miles de años de evolución. “La naturaleza se ha encargado de optimizar las características microestructurales de la madera, obteniendo excelentes propiedades mecánicas en relación a su baja densidad. Debido a esto, la madera es muy atractiva para los ingenieros, ya que estas cualidades se traducen en estructuras con bajo peso sísmico”, destaca el profesor.

El Dr. Saavedra ya desarrolló un modelo que trabaja con la nueva información detectada de las escalas, buscando predecir el comportamiento mecánico de la madera. En esta etapa, se busca robustecer dicho patrón matemático, incorporando nueva información sobre estas escalas para predecir el comportamiento de la madera bajo diferentes estados de carga.

“Si no entiendo bien un material, lamentablemente tengo que asignar grandes márgenes de seguridad a mi diseño y eso aumenta la cantidad de material, y por lo tanto los costos. Lo que proponemos es reducir los márgenes de seguridad, siendo el usuario final quien se verá beneficiado con el ahorro. Por esto, hacer más óptimo el uso de la madera podría tener un gran impacto en la sociedad, siendo aún más relevante en construcción de viviendas sociales”, puntualiza Saavedra.

Una fórmula matemática para la felicidad

La felicidad momentánea de más de 18.000 personas de todo el mundo se ha podido predecir con éxito mediante una ecuación matemática ideada por investigadores del University College de Londres (UCL).

Los resultados del trabajo, que ha publicado la revista PNAS, muestran que el estado de ánimo feliz se relaciona no solo con el hecho de que las cosas vayan bien, sino que lo hagan mejor de lo esperado.

La investigación arrancó pidiendo a 26 personas que realizaran una tarea de toma de decisiones, de tal forma que sus respuestas determinaban ganancias o pérdidas monetarias. En cada momento se les preguntaba por su nivel de felicidad, además de medir su actividad neuronal mediante imágenes de resonancia magnética funcional.

Con estos datos se construyó un modelo computacional y una fórmula en la que la felicidad que uno mismo valora en un momento determinado se puede predecir en función de las últimas recompensas recibidas y expectativas experimentadas.

El modelo predictivo se probó con éxito en 18.420 participantes de diversos países que respondieron al juego ¿Qué me hace feliz? mediante una aplicación para móviles desarrollada por la propia UCL, llamada The Great Brain Experiment, donde se ganan puntos en lugar de dinero.

La ecuación incluye varios conceptos, que aclara a Sinc Manuel de León, director del Instituto de Ciencias Matemáticas (ICMAT): “Los autores han simplificado la felicidad a la obtenida por una posible recompensa, y ven que depende de los resultados previos. Por eso, en su fórmula incluyen tres términos, uno para un valor fijado, otro para la recompensa media, y un tercero para la diferencia entre lo recibido y lo esperado; así como un factor de olvido –cuanto más atrás nos vamos en el tiempo se olvida más– , un ‘peso’ para cada sumando y un W0 que viene a ser como un background de la física”.

[Img #21569]

La ecuación considera las expectativas, las recompensas y los resultados pasados para predecir la felicidad. (Foto: UCL)

“Matemáticamente el modelo parece correcto para medir la definición de felicidad que ellos usan, aunque las consecuencias son las que uno esperaría a priori”, señala de León, que añade una crítica: “La definición de felicidad aquí es simplista. No sé cómo se podría extender este concepto basado en una ganancia en medidas más realistas”.

En cualquier caso, los autores se han sorprendido al encontrar que la misma ecuación se puede utilizar para predecir cuán felices son personas de países diferentes mientras participaban en su juego, y cómo las previsiones propias ya influyen en la felicidad. Los premios acumulados durante el experimento por sí solos no fueron buenos predictores de la felicidad.

“Esperábamos ver que las recompensas recientes afectarían la felicidad de cada momento, pero no lo importante, que son las expectativas para determinar la felicidad”, señala el autor principal, Robb Rutledge. “En situaciones reales, los beneficios asociados a decisiones de la vida como iniciar un nuevo trabajo o casarse a menudo no los tenemos en cuenta durante mucho tiempo, pero nuestros resultados indican que las expectativas relacionadas con estas decisiones, buenas y malas, tienen un gran efecto sobre la felicidad”.


“A menudo se dice que eres más feliz si tus expectativas son más bajas, y hay algo de verdad en esto, porque de esta forma es más probable que un resultado supere esas expectativas y tenga un impacto positivo sobre la felicidad”, señala el investigador, “pero las expectativas también influyen en la felicidad, incluso antes de conocer el resultado de una decisión”.

“Por ejemplo, si planeas reunirte con un amigo en tu restaurante favorito, esas expectativas positivas pueden aumentar tu felicidad tan pronto como lo piensas. La nueva ecuación capta estos efectos diferentes de las expectativas y permite predecir la felicidad sobre la base de los valores combinados de muchos acontecimientos del pasado”.

Los científicos creen que la cuantificación de los estados de felicidad subjetivos podría ayudar a los médicos a comprender mejor los trastornos del estado de ánimo, al poder observar cómo fluctúan las valoraciones personales en respuesta a eventos como pequeñas victorias y derrotas en un juego para el móvil. El modelo también podría ayudar a los gobiernos a implementar e informar mejor sobre medidas de bienestar para la población.

El uso de equipos de resonancia magnética funcional también ha servido para demostrar que durante la toma de decisiones y los resultados felices interviene un área del cerebro llamada cuerpo estriado. Es una zona donde abundan las conexiones de neuronas con dopamina, lo que reafirma la relación de este neurotransmisor con la felicidad.

Un nuevo enfoque matemático puede hacer que internet sea entre 5 y 10 veces más rápida

Ciertas ecuaciones pueden hacer que la comunicación por internet, en un ordenador, un teléfono móvil e incluso un satélite, sea mucho más rápida y segura. Así se ha determinado en las pruebas llevadas a cabo con software diseñado sobre la base de tales ecuaciones por el equipo de Frank Fitzek, de la Universidad de Aalborg en Dinamarca, y sus colaboradores de esta institución así como del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, y el Instituto Tecnológico de California (Caltech) en Pasadena, ambos en Estados Unidos.

Para las pruebas se utilizó un vídeo de cuatro minutos de duración. El método utilizado por los investigadores daneses y estadounidenses hizo que el vídeo se descargara cinco veces más rápido que con las tecnologías actuales más eficientes. El vídeo también fue transmitido por streaming sin interrupciones. En comparación, el vídeo original tuvo 13 interrupciones durante su reproducción.

Esto tiene el potencial de cambiar algunos de los fundamentos de internet, que parecían inamovibles, en concreto el de los paquetes de datos.

En la comunicación por internet, los datos son organizados en paquetes. El control de errores asegura que la señal no llegue modificada, pero a menudo esto significa que es necesario enviar varias veces algunos de los paquetes y esto ralentiza la red. En vez de esto, el equipo de Fitzek está resolviendo este problema con un tipo especial de codificación de red que utiliza inteligentes formulaciones matemáticas para almacenar y enviar la señal de manera diferente. La ventaja es que los errores producidos en el camino no hacen que se tenga que enviar el paquete nuevamente. En lugar de ello, se usan los flujos de datos de subida o descarga para reconstruir lo faltante mediante una ecuación matemática.

Con los sistemas anteriores, se enviaría el paquete 1, el paquete 2, el paquete 3 y así sucesivamente. Con el nuevo sistema, no se envían paquetes, sino una ecuación. Eso vuelve mucho más fluido el tráfico en internet. Fitzek compara el cambio a lograr que el tráfico de una ciudad pueda funcionar sin necesidad de semáforos. Obviamente, lograr eso acarrearía que los trayectos serían muchísimo más rápidos, y los atascos, menores y más infrecuentes.

Las matemáticas de la actual epidemia de Ébola

La epidemia de Ébola en África Occidental sigue sin ser aplacada. Las autoridades sanitarias locales y globales quieren saber cómo avanzará y, por encima de todo, cómo impedir que se propague aún más. Ciertos parámetros les pueden ayudar a determinar esto; entre ellos, el número reproductivo, que es la cifra promedio de infecciones causadas por un solo individuo infectado. El período de incubación y el período infeccioso son también relevantes; por ejemplo, el tiempo transcurrido desde la infección hasta la aparición de síntomas, y el tiempo desde esta aparición de síntomas hasta el exterminio total del patógeno.

En la actual epidemia de Ébola, para calcular estas cifras se usaron varias estimaciones basadas en datos oficiales de casos registrados de la enfermedad. Un equipo liderado por la matemática Tanja Stadler, profesora en el Departamento de Ciencia e Ingeniería de Biosistemas en Basilea, perteneciente al Instituto Federal Suizo de Tecnología en Zúrich (también conocido como Escuela Politécnica Federal de Zúrich), ha calculado ahora estos parámetros basándose en la secuencia genética del virus en varias muestras extraídas de pacientes, utilizando un programa informático estadístico desarrollado por el grupo.

Las secuencias del virus fueron obtenidas por investigadores estadounidenses, británicos y de Sierra Leona a partir de muestras de sangre tomadas de pacientes en este último país, durante las primeras semanas después de que la epidemia se extendiera a él procedente de la vecina Guinea en mayo y junio de 2014. Stadler señala que las secuencias más recientes no están actualmente disponibles de forma pública. A partir de los datos, los investigadores han calculado un número reproductivo viral de 2,18. Este valor está dentro del rango de los estimados anteriormente (entre 1,2 y 8,2), basados en la incidencia y predominio de la enfermedad.

Un beneficio principal del método seguido por Stadler y sus colaboradores es que se puede emplear para calcular casos no declarados y por tanto la verdadera escala de la epidemia. Las cifras oficiales de pacientes solo tienen en cuenta los casos declarados a las autoridades sanitarias. El número real de personas infectadas es por regla general bastante mayor. Usando los datos puestos a su disposición, Stadler, Denise Kühnert, David A. Rasmussen y Louis du Plessis han logrado calcular una tasa de casos no declarados del 30 por ciento. Sin embargo, tal como matiza Stadler, esto se aplica solo a la situación analizada en Sierra Leona en mayo y junio. “No tenemos ninguna muestra de sangre desde junio”, enfatiza Stadler.
El equipo de Stadler ha conseguido también calcular el período de incubación para la infección por virus del Ébola (cinco días, aunque este valor está sujeto a un importante margen de incertidumbre) y el tiempo infeccioso. Los pacientes pueden transmitir el virus de 1,2 a 7 días después de ser infectados.

Para obtener estos valores, los investigadores crearon un árbol filogenético basado en secuencias genéticas de las muestras del virus. El virus del Ébola cambia en el cuerpo del paciente día a día, lo que significa que las secuencias del virus varían ligeramente de un paciente a otro.

Tanja Stadler es una matemática que aplica sus conocimientos a problemas materiales prácticos, en su caso, cuestiones relacionadas con la biología. Está interesada en la macroevolución, la filogenética y la epidemiología: investiga cómo evolucionan las especies y cómo se propagan las enfermedades infecciosas.

A pesar de tener solo 33 años, Tanja Stadler ya figura entre los investigadores con mayor liderazgo mundial en el campo de la dinámica filogenética. Desarrollando nuevos modelos matemáticos, ha realizado importantes aportaciones al estudio de la propagación de organismos patógenos en poblaciones. Su trabajo representa un adelanto metodológico decisivo, que permite por primera vez evaluar los parámetros epidemiológicos directamente de los datos de secuencia del ADN.

La Proporción Áurea, usada en el arte, puede ser aplicable a la topología del espacio tiempo

Se cree que la Proporción Áurea, también conocida como la Proporción Divina, el Número Áureo y con otros nombres similares, es una proporción geométrica que, por alguna razón que nunca nadie ha podido explicar de forma satisfactoria, sería la más agradable estéticamente para la percepción visual humana. Se dice que se empleó para guiar la construcción de las pirámides egipcias, la del Partenón en Atenas, y que bastantes pintores, consciente o inconscientemente, la usaron en cuadros, incluyendo algunos tan carismáticos como la Gioconda de Leonardo da Vinci.

A la Proporción Áurea, con un valor matemático de aproximadamente 1,618 (1,61803...), también se la ha considerado como una especie de “constante” natural, presente en infinidad de estructuras biológicas, desde la curvatura de los colmillos de los elefantes, hasta la forma espiral de las conchas de algunos moluscos.

Ha habido intentos de explicar la presencia de esta proporción en la naturaleza, como por ejemplo el que emprendió Adrian Bejan, profesor de ingeniería mecánica en la Escuela Pratt de Ingeniería de la Universidad Duke, en Durham, Carolina del Norte, Estados Unidos, sobre el que los redactores de NCYT de Amazings ya hablamos en un artículo (http://www.amazings.com/ciencia/noticias/120210e.html) publicado el 12 de febrero de 2010.

Ahora, el químico Jan Boeyens, de la Universidad de Pretoria, y el paleontólogo Francis Thackeray, de la Universidad de Witwatersrand en Johannesburgo, ambas instituciones en Sudáfrica, han llegado a la conclusión de que la Proporción Áurea no solo puede estar relacionada con una verdadera constante biológica sino también con la topología del espacio-tiempo.

Los investigadores creen factible que la teoría cuántica y la de la relatividad puedan estar integradas, y enlazadas numéricamente, a través del valor de una constante matemática, que estaría representada por la Proporción Áurea.
Boeyens y Thackeray comparten, desde sus respectivos campos y dilatada experiencia, un interés común sobre cómo se expresa la Proporción Áurea, en cosas aparentemente tan dispares como la estructura espiral de la cóclea (hueso caracol, del oído interno) en un fósil de homínido (concretamente un hominino) de 2 millones de años de antigüedad procedente de la "Cuna de la Humanidad" (un yacimiento paleontológico sudafricano declarado Patrimonio de la Humanidad), las espirales logarítmicas de las galaxias, la estructura del ADN, el crecimiento de muchas plantas, e incluso en la Tabla Periódica de los elementos.

Thackeray investiga si 1,618 está presente en biología como una aproximación al valor medio absoluto de una hipotética constante de las especies, asociada no solo con las especies vivas de mamíferos, aves, reptiles, insectos y otros animales, sino también con especies extintas. Su argumento se basa en análisis estadísticos de mediciones obtenidas de animales de las mismas especies, ya sean vertebrados o invertebrados.

Boeyens investiga cuestiones que se relacionan con la Proporción Áurea en el contexto de la química, la física, el espacio-tiempo, la relatividad y la mecánica cuántica. Argumenta que muchos meteorólogos reconocen al número 1,618 en la estructura espiral de los huracanes, mientras que bastantes astrónomos afirman que la estructura de ciertas galaxias espirales puede ser también identificada con la Proporción Áurea.

Boeyens cree que la notable recurrencia cósmica de este número en referencia al espacio-tiempo, la relatividad o la mecánica cuántica podría significar que los conceptos asociados con estas dos últimas podrían ser integrados a través del número 1,618.

Problema matemático

Una situación simple

Para entender bien el problema, podemos partir de la situación más simple que nos permitan nuestras hipótesis. Los únicos datos de los que disponemos son que el número de bolas rojas y blancas no es mayor que 20 y la probabilidad de dos blancas es 1/2.
Por ser esta probabilidad positiva -mayor que 0- es obvio que al menos debemos tener dos bolas de este color. Además, por ser menor que 1 debemos también tener al menos una bola roja. En esta situación, con tres bolas en total, tenemos dos posibles combinaciones al sacar dos bolas de la caja: o bien sacar las dos blancas o bien una roja y una blanca, pero en este último caso tenemos dos opciones pues la roja se puede combinar con las otras dos. Tres casos, de los cuales, solo uno es favorable, de modo que la probabilidad – casos favorables entre totales – es 1/3, que es menor que 1/2, por lo que debemos aumentar la probabilidad de las bolas blancas.
Al añadir una bola blanca, de modo que en total tenemos cuatro bolas, tres blancas y una roja, las combinaciones son las mismas, o dos blancas o una roja y otra blanca, pero la probabilidad cambia. Ahora tenemos tres maneras de sacar dos blancas (enumerando las bolas de ese color, 1-2, 1-3, 2-3) y otras tres para la combinación roja-blanca (R-1, R-2, R-3). Seis casos, de los cuales, solo tres son favorables, y la probabilidad es 3/6, es decir, 1/2.
Esto demuestra que 3 bolas blancas y 1 roja satisfacen nuestras hipótesis, y es imposible obtener dos rojas de la caja, de ahí la probabilidad 0. Pero ¿es esta la única solución? ¿no podría haber otra combinación añadiendo más bolas?

Solución general

Escribimos B para representar el número de bolas blancas y T para el número total de bolas. Recordamos que las hipótesis de partida son:
T≤ 20 y P(dos bolas blancas)=1/2
Sacar de la caja dos bolas a la vez, o sacar una y luego otra, aquí es equivalente. En la primera extracción, tenemos B bolas blancas por lo que la probabilidad es B/T, mientras que en la segunda extracción tenemos B-1 bolas blancas de un total de T-1 bolas, entonces la probabilidad de dos bolas blancas es:
B(B-1)/T(T-1)
y despejando se tiene:
B(B-1)=T(T-1)/2
Es decir, buscamos que T(T-1)/2 sea producto de dos números consecutivos.
Al dar valores a T -desde 2 hasta 20- se comprueba que la única solución es tomar T=4 (en esa situación, que es la que hemos tratado antes, 3*2=6=4*3/2). Si queremos trabajar un poco menos, podemos observar que en realidad no es necesario comprobar todos los casos. Como la parte izquierda debe ser par, pues es producto de dos números consecutivos (o bien B es par o bien B-1 lo es) entonces, la parte derecha también debe serlo. Es obvio que T(T-1) es par, por la misma razón, pero el factor 1/2 obliga a que T(T-1) sea doblemente par. Por lo tanto, basta comprobar los múltiplos de 4 y sus consecutivos inmediatos, números de la forma 4m o 4m+1 (pues no sabemos si el múltiplo de 4 es T o bien T-1).
Paramos en 20, pues esa era nuestra hipótesis, pero si no tuviéramos ese dato ¿qué ocurriría? Por ejemplo, tomando T=21 podemos escribir 15*14=210=21*20/2, por lo que con 21 bolas, 15 de ellas blancas y 6 rojas, la probabilidad de sacar dos blancas sería 1/2 y la de sacar dos rojas, 1/14. De hecho, se puede probar que existen infinitas soluciones a nuestro desafío si no ponemos restricciones en el número de bolas.

¿Cuál es la probabilidad de que caiga otro rayo en San Pedro?

Cuando el papa Benedicto XVI anunció su renuncia el 11 de febrero pasado, no fue la única noticia que sacudió al Vaticano. También cayó un rayo sobre la Basílica de San Pedro.
Un acto de Dios, concluyeron algunos. Pero ¿cuán probable es que ocurra semejante fenómeno?
En primer lugar, examinemos la basílica.
"Entre los factores de riesgo figuran las dimensiones de la estructura, su ubicación y su posición con respecto a otros edificios a su alrededor", explica Matthew Waldrum, de Omega Red Group, una institución que evalúa el riesgo de que los rayos que caen sobre los edificios.
"El material de construcción del edificio obviamente es también muy importante.
"Es una estructura muy grande. No está exactamente aislada, pero sin duda se eleva sobre su entorno, lo que significa que está más expuesta a la caída de un rayo que cualquiera de los edificios de los alrededores".
El hecho de que la basílica no sufriera daños indica que está muy bien protegida contra los rayos.
Pero Waldrum y sus colegas llevaron a cabo un cálculo teórico del riesgo de perder la vida a causa de un rayo en un edificio similar frecuentado por un gran número de personas, en un entorno similar, suponiendo que la construcción no tuviera protección contra rayos.

Cálculos

"Hemos llevado a cabo un cálculo teórico en base a un edificio como la basílica de San Pedro. El resultado es que, comparado con un nivel de riesgo tolerable de uno en 100.000 (en un año), el riesgo que hallamos es de 1 en 112. Eso es bastante alto".
La realidad es que si hay presencia de rayos, San Pedro tiene una probabilidad razonablemente alta de que le caiga uno.
Otro factor que se debe considerar es el nivel de actividad de rayos a principios de febrero en la región que rodea a Roma. La Oficina de Meteorología de Reino Unido es capaz de monitorearla gracias a un sistema de sensores desplegados por toda Europa.
"Los registros que recopila la Oficina de Meteorología son esencialmente las coordenadas de la caída del rayo y el momento en que el rayo fue recogido por nuestro sistema.
"Eso se puede utilizar para crear mapas de rayos y de su densidad y así saber cuántos rayos cayeron en una región determinada", dice Graeme Anderson, científico de detección de rayos de la institución.
Gracias a las imágenes del evento tomadas por fotógrafos, Anderson fue capaz de identificar el momento exacto de la caída del rayo y de encontrar el registro que este rayo en particular había creado.
"Logramos rastrear nuestros datos y hacer foco en la zona del Vaticano ese día. Había bastante actividad de rayos en la zona en ese momento, y vimos que hubo un rayo en la zona de Roma a las 17 horas, 54 minutos y 24 segundos".
"Teniendo en cuenta el momento de la caída, es muy probable que fuera el mismo rayo que impactó contra San Pedro, recogido por nuestro sistema."
Pero ¿cuán raro fue ese episodio?
"En cuanto a la actividad durante el inicio de febrero, parece que ha habido una actividad mucho más tormentosa en el área que rodea a Roma", dice Anderson, más de lo normal para esta época del año.
"El hecho de que hubiera tormentas en la zona hace que sea más probable que una de esas tormentas pasaran sobre El Vaticano, y que un rayo cayera sobre San Pedro".
Así que parece que, dada la naturaleza de San Pedro como edificio y las condiciones meteorológicas cerca de Roma ese día, la probabilidad de la Basílica fuera golpeada en realidad era bastante alta.
Pero, ¿podemos descartar la intervención divina? ¿Cómo, por ejemplo, podemos explicar el hecho de que había más actividad tormentosa de lo normal?
Tal vez podamos citar la palabra del Vaticano para ello. La oficina de prensa dijo que "por el momento no atribuye" el evento a la intervención divina.

Tienes 8 veces más probabilidades de morir a manos de un policía que de un terrorista

ESTADOS UNIDOS HA PROMOVIDO UNA CULTURA DE PÁNICO ANTE UN POSIBLE ATAQUE TERRORISTA; SIN EMBARGO, EXISTEN MUCHAS COSAS MUCHO MÁS LETALES QUE ESTE IMPROBABLE ATAQUE.

El terrorismo en los últimos años se convirtió en una agenda política, particularmente en el gobierno de Bush, pero también continuado por Obama (ahora con el ciberterror) y en muchos otros países. Un interesante post publicado por Jim Harper en el sitio del Cato Institute hace referencia a una interesante reflexión: “el miedo al terrorismo nos hace estúpidos” y comparte una serie de datos que hace pensar que este temor es más bien ridículo.
Reportes estadísticos del National Safety Council, el National Center for Health Statistics y el Censo de Estados Unidos revelan datos que nos hacen cuestionar la cultura del pánico y la enorme cantidad de recursos que se distribuyen para supuestamente acabar con el terrorismo, una amenaza invisible y a fin de cuentas bastante poco letal en comparación con otros problemas que enfrenta el hombre moderno. Aquí algunas cifras, entre ellas, la escandalizante realidad de que es más probable que la misma policía sea la que determine la muerte de un ciudadano, que un terrorista:
-Tienes 17,600 veces más probabilidades de morir de un ataque al corazón, que de un ataque terrorista.
-Tienes 11 mil ves más probabilidades de morir en un accidente aéreo, que de un ataque terrorista que involucre un avión.
-Tienes 1,048 veces más probabilidades de morir en un accidente de auto, que en un ataque terrorista.
-Tienes 9 veces más probabilidades de morir de asfixia accidental en tu cama, que de un ataque terrorista.
-Tienes 8 veces más probabilidades de morir a manos de un policía, que de un terrorista.
-Tienes 6 veces más probabilidades de morir a consecuencia de un clima cálido, que de un ataque terrorista.
Las cifras anteriores nos hacen reflexionar sobre lo absurdo que es preocuparse por sufrir un ataque terrorista y toda la ridícula maquinaria propagandística en torno a esta amenaza. 

Más probabilidades de ganar con la Lotería del Niño

Los jugadores que estén dispuestos a gastar su dinero estas Navidades en sorteos de Lotería tendrán un 2% más de probabilidades de ganar con la Lotería del Niño y no con el del 'Gordo', según el profesor de Matemática Aplicada de la Universidad CEU San Pablo, Miguel Córdoba Bueno.
Este profesor ha puesto porcentajes a la suerte de los españoles en una entrevista con Europa Press. En concreto, los ciudadanos tienen un 5,68% de probabilidad de "ganar algo" en el sorteo del 22 de diciembre, frente al 5,84% de los sorteos semanales y el 7,82% de probabilidades en el Niño.
Córdoba ha explicado que calcula estos porcentajes en función de "una sencilla fórmula" de probabilidad: casos favorables partidos por casos posibles. "En el caso del Gordo hay 1.787 premios y 85.000 bolas en el bombo. Son probabilidades muy bajas", ha señalado.
Más allá de estas cifras, el experto ha asegurado que el resto de supersticiones que rodean a este evento son "folclore", especialmente en el caso de los números. A su entender, ni existen "números feos" --todos tienen las "mismas probabilidades"-- ni hay "secretos" para las administraciones que reparten suerte --"simplemente, es más fácil que toque en la que compra más números de serie"--.
Por ello, defiende los números como el '00001' o la probabilidad, aunque "remota", de que se pudiera repetir un número. En esta misma línea, ha señalado que La Bruixa D'Or será una candidata a repartir premios antes que "una administración pequeña".
Para el experto, este sorteo es "especial", puesto que, al haber premios altos, la expectativa de beneficio es mayor, aunque finalmente se lo lleve "muy poca gente" y el resto de los participantes "estén condenados" a perder.
EL CASINO, MÁS FAVORABLE
"La Lotería de Navidad es la peor de todas pero, en general, en las loterías hay una probabilidad muy baja", ha explicado Córdoba. El profesor, que próximamente publicará un libro en el que analiza las probabilidades en las diferentes juegos de azar, ha explicado que, en el caso del 'Gordo', el Estado se lleva un 30% de los ingresos.
Por el contrario, ha defendido a los juegos del casino, "muy aproximados" para los participantes y que ofrecen poco beneficio al organizador, como el caso de la ruleta --sólo un 1,5% en contra de los jugadores--. En este caso, los beneficios para la empresa se producen por el "efecto psicológico" de seguir jugando en los participantes.

La probabilidad de que toque el 'Gordo' de la lotería de Navidad es del 0,00001%

En la lotería de Navidad perder es lo fácil: hay un 86% de probabilidades de que "no toque nada" y solo un 0,00001% de ganar el Gordo, por lo que no sirven ni los"números bonitos", ni las estampitas, ni los trucos.
Lo complicado es ganar, porque la probabilidad de que toque alguno de los premios es "sólo" del 5%, ha explicado el profesor de matemática aplicada de la Universidad CEU San Pablo, Miguel Córdoba Bueno. En el tradicional sorteo de Navidad, que se celebra este domingo, es más sencillo recuperar el dinero apostado que "triunfar", porque hay un 9% de probabilidades de que toque el reintegro.
Según el matemático, esta lotería es de las "peores" en cuanto a posibilidades de ganar dinero, pero se compensa con la ilusión del "jugoso" premio gordo de 400.000 euros. Todas las bolas del bombo son iguales y cualquier número tiene las mismas posibilidades de salir, así que la probabilidad de llevarse el Gordo es todavía más "remota", de 1 entre 100.000 (0,00001%).
A pesar de las estadísticas, el profesor ha reconocido que el sorteo de Navidad es un fenómeno social y los trucos y las supersticiones, aunque no funcionen, son parte de la tradición. Frente a la famosa lotería del 22 de diciembre, la probabilidad de ganar en la del Niño aumenta a un 7,82%, y además, este sorteo tiene hasta tres reintegros.
La noticia no es suya, sino de EFE. Y, como es habitual, ello conlleva que no sea Antena 3 el único medio que la ha publicado. Aquí tenéis unos cuantos:
Y podría seguir…
Evidentemente no soy el único que se ha dado cuenta de esto. Por ejemplo, Carlos Chordáhablo sobre ello ayer. Y la verdad es que no comprendo cómo pueden ocurrir estas cosas. ¿No hay nadie en ninguno de esos medios que se dé cuenta de que se está dando un dato falso? No lo entiendo…
Bueno, y para terminar esta entrada sobre la Lotería de Navidad no os voy a hablar del sinsentido de las largas colas que se forman en las administraciones “famosas”, ni de que no hay números bonitos ni números feos, ni de nada parecido. Simplemente os voy a dejar un texto que es bastante descriptivo de lo complicado que es que nos toque el Gordo sacado deLa conquista del azar, de Fernando Corbalán y Gerardo Sanz (que he adaptado cambiando la ciudad por la cantidad de números que se venden ahora):
Juan tiene un amigo, de quien no dice ni el sexo, que vive en Girona, al que hace tiempo que no ve (ya ni conoce su dirección actual) y que en el último encuentro que ambos tuvieron prometió que le mandaría ese libro que tanto le gusta. Hace unos días encontró a otro amigo, Luis, quien le comenta que se va de viaje a Girona. A Juan le vuelven los fantasmas de su promesa incumplida y le da a Luis el libro para su amigo. Para no estropearlo, Luis lo mete dentro de un gran sobre y parte hacia Girona. Al llegar allí deja el coche en una calle en la que por fin encuentra aparcamiento, sale y a la primera persona que ve le entrega el sobre:
“Toma, el libro que te envía tu amigo Juan de Zaragoza.”
Y aquella persona encontrada al azar le contesta:
“¡Qué bien que se haya acordado! ¡Hacía años que lo esperaba!”
Por más que nos aseguren que esta historia es cierta, resulta increíble que ésa sea justamente la persona a la que buscaba, ¿no? Bueno, pues la probabilidad de que suceda es algo mayor de la que a cualquiera de nosotros que hayamos comprado un décimo de lotería nos toque con ese número el Gordo de Navidad.
(He utilizado Girona en vez de Ciudad Real, como venía en el texto inicial, porque Girona tiene censados 96113 habitantes según este enlace, y en la actualidad se venden 100000 números.)
Ha quedado claro, ¿verdad?

Los obesos tienen más probabilidades de morir en colisiones de tráfico

Un equipo de investigadores de la división de Ciencias Medioambientales y Transporte de la Universidad de Berkeley (California, EE UU), ha llevado a cabo un estudio en el que se señala que las personas obesas tienen más posibilidades de morir en colisiones de tráfico que aquellas con un peso normal.
Los investigadores han utilizado datos del Fatality Analysis Reporting System (FARS), en Estados Unidos, desde 1996 a 2008. Durante este periodo, se produjeron un total de 57.491 colisiones de tráfico que quedaron registradas en el sistema.
El trabajo, que se ha publicado esta semana en British Medical Journal, ha analizado colisiones entre dos vehículos en los que viajaba solo el conductor y en los que el impacto produjo la muerte de ambos conductores. En estos accidentes, las dos partes conducían vehículos de tamaños y tipos similares. Y ha seleccionado 3.403 pares de conductores de los que había datos de peso, edad, uso de cinturón de seguridad y activación del airbag.
Casi la mitad de esos conductores (46%) tenían un peso normal; uno de cada tres tenía sobrepeso y cerca de uno de cada cinco (18%) era obeso.
El análisis muestra que el riesgo de muerte se incrementa cuanto más obeso es el conductor
El estudio también ha determinado que dos tercios de los conductores eran hombres y casi uno de cada tres tenían entre 16 y 24 años; un tercio no usó el cinturón de seguridad de manera adecuada (solo la parte superior o la inferior en vez de las dos) y en más de la mitad de los casos (53%) el airbag se activó.
El análisis muestra que el riesgo de muerte se incrementa cuanto más obeso es el conductor. La Organización Mundial de la salud clasifica la obesidad en niveles que van del uno al tres. En el nivel uno, los conductores obesos tiene un 21% más de probabilidad de morir, en el dos el nivel asciende al 51% y en el tres, al 80%.
Los muy delgados también tienen más riesgo
En la diferenciación por género, el estudio determina que las conductoras obesas corren aún más riesgo de morir que los hombres obesos.
Otra conclusión interesante del estudio es que las personas con peso por debajo de lo normal también tienen más riesgo de perder la vida en una colisión que los conductores con peso normal.
El estudio destaca que una buena parte de las víctimas mortales obesas no llevaban bien puesto el cinturón de seguridad. Los autores señalan que hay investigaciones que apuntan a que la parte inferior del cuerpo es impulsado hacia adelante por el impacto antes de que el cinturón de seguridad se acople a la pelvis, debido a que la adiposidad impide que el cinturón se ajuste bien.
Entre las conclusiones del estudio se destaca la necesidad de que los fabricante cambien el diseño de los vehículos para proteger al creciente número de obesos, que en Estados Unidos ya supone un tercio de la población.

jueves, 6 de noviembre de 2014

¡Bienvenidos al blog de las matrices! El blog más divertido del mundo, cuando entréis no podréis dejar de visitar este blog. Un saludo a todos.