viernes, 30 de mayo de 2008

Catálogo de Comparaciones (II)

De existir, el gravitón es la partícula asociada al campo gravitatorio. Sería el equivalente al fotón para el campo electromagnético.

Esta partícula, sumamente esquiva por lo difícil de detectar, se presume muy pequeña.

Tanto, que Leonard Susskind escribe, en "El paisaje cósmico" que:

"Si el gravitón se expandiera tanto hasta que fuera tan grande como la Tierra, un protón se haría cien veces mas grande que todo el Universo conocido".

Queda claro, en el ejemplo, la desproporción de tamaño entre las dos partículas, pero las magnitudes son tan claramente incomparables, que el ejemplo tampoco permite que la mente pueda mejorar su comprensión.

miércoles, 28 de mayo de 2008

Richard Feynman (II)

Puedo vivir con duda e incertidumbre. Creo que es mucho más interesante vivir sin saber que creer tener respuestas que podrían ser erróneas”.

Albert Einstein

"Solo dos cosas son infinitas, el Universo y la estupidez humana, y no estoy seguro de lo primero".

Catálogo de Comparaciones (I)

1 - "Una cucharadita de material de estrella neutrónica pesa tanto como una montaña terrestre".

2 - "El menor tiempo medido, 100 Atosegundos (1 Atosegundo = 10^-18 segundos) es tal que, si los 100 Atosegundos duraran como un segundo, un segundo duraría 300 millones de años".

Comparaciones odiosas

Es muy común que los autores de libros de divulgación científica utilicen comparaciones o ejemplos para explicar mejor alguno de los complejos procesos de la física, química, matemática, etc.

Estas comparaciones o ejemplos son muy útiles, en especial para aquellos de nosotros que no dominamos las complejas matemáticas usualmente necesarias para entender las teorías desde el punto de vista técnico.

Hay algunas comparaciones que, sin embargo, tratan de aclarar pero confunden mas, por lo menos a mi.

Me refiero a aquellas que se refieren a magnitudes muy pequeñas o muy grandes.

Por ejemplo, Ud. podrá leer por ahí que "una cucharadita de material de una estrella de neutrones pesa tanto como una montaña terrestre".

Obviamente, la idea es mostrarnos lo increíblemente densa y pesada que es la materia neutrónica, apelando a algo que podemos captar con nuestra mente.

Pero... sabe Ud. cuánto pesa una montaña terrestre? Y si lo supiera, su mente podría procesar la idea de tamaño peso?

Ud. podría decir, con razón, que esta comparación trata de funcionar por el lado de la exageración. O sea, hacer decir al lector "Guau !!! que pesada es la cucharadita!!!" sin tener que pasar por el trámite de saber, con exactitud, las magnitudes involucradas en el ejemplo.

Y, seguramente, tendrá Ud. razón.

Pero para mí, que cuento con cierto tiempo libre durante estos días, encuentro estas comparaciones simpáticas por lo desubicadas: tratan de comparar algo que está fuera de nuestra experiencia con otra cosa... que también está fuera de nuestra experiencia.

Por ello, usando este tiempo libre que tengo, y haciendo uso de mi pasión por las causas inútiles que no tienen otro propósito que entretenerme, he decidido comenzar a llevar el "Catálogo de Comparaciones que No Aclaran Mucho" (CCNAM desde ahora).

El órden dentro del catálogo será totalmente aleatorio.

Y, por supuesto, valoraré enormemente cualquier aporte que Ud. quiera hacerme llegar!

martes, 27 de mayo de 2008

Bosón de Higgs y el LHC

Recientemente se anunció que comenzarán los experimentos del Gran Colisionador de Hadrones (LHC) en el Centro Europeo de Investigación Nuclear (CERN) buscando la confirmación de la existencia de un importante "ladrillo" en la construcción del Modelo Estandar de la física de partículas: el Bosón de Higgs.

Esto, por supuesto, si como resultado del experimento no ocurren pequeños percances como ser la aparición de aujeros negros, materia extraña o vórtices que conduzcan a Universos paralelos...

La teoría conocida como Modelo Estandar ha podido describir tres fuerzas fundamentales de la Naturaleza: el electromagnetismo, la fuerza nuclear fuerte y la fuerza nuclear débil (hemos hablado de alguna de ellas anteriormente). La cuarta fuerza básica, la gravedad, no ha sido explicada por este modelo.

El Modelo Estandar ha sido exitoso (es exitoso, en realidad) ya que explica la dinámica de las fuerzas entre partículas de una manera relativamente simple. Simpleza no significa, en este caso, reduccionismo: otro éxito del Modelo Estandar está relacionado con la predicción de un gran número de partículas que luego, experimentalmente, fueron encontradas en los laboratorios de altas energías.

Siguiendo con la simplificación, digamos que existen dos grandes clasificaciones de partículas: las que obedecen a la estadística de Fermi (o fermiones) y las que siguen la estadística de Bose-Einstein (o bosones). Muy básicamente, los fermiones están sujetos al principio de exclusión de Pauli, que implica, por ejemplo, que solamente un electrón puede ocupar un determinado estado cuántico dentro de un átomo.

El principio de exclusión de Pauli permite, entre otras cosas, que la materia tal como la conocemos sea "impenetrable", a pesar de estar compuesta de átomos cuyo volúmen es casi todo vacío.

Los bosones, por otro lado, son de alguna manera mas sociables. Pueden, y de hecho lo hacen, trabajar juntos dentro de estados cuánticos iguales sin ningún problema.

De alguna manera, los fermiones son excluyentes y restrictivos. Los bosones no.
(hay fermiones, como los electrones, que bajo ciertas cirscunstancias pueden trabajar como bosones: el caso emblemático con los pares de electrones en los fenómenos superconductivos).

El Modelo Estandar, entonces, permite relacionar a los fermiones con los bosones. Los primeros conforman la materia, los segundos las fuerzas de interacción.

Para estudiar a estas partículas se utilizan microscopios. No del tipo óptico, sino dispositivos mucho mas sofisticados, grandes, caros y fuertes consumidores de energías.

Un acelerador de partículas es, para los fines prácticos, exactamente igual a un microscopio: es la herramienta utilizada para penetrar en los niveles mas básicos y pequeños de la materia.

Asi como el poder de un microscopio puede relacionarse con su capacidad de aumento, el poder de resolución de un acelerador de partículas es proporcional a la energía con la que trabaja. A mayores energías (medidas en múltiplos de electrones-volt o eV), mayor el "poder de resolución".

En realidad debería decir que a mayor energía, mas masivas serán las partículas que podrán "verse" como resultado del experimento.

Esto se explica entendiendo un poco el funcionamiento de un acelerador de partículas. Como su nombre lo indica, y con diferentes técnicas, ciertas partículas son aceleradas dentro de un anillo a velocidades proporcionales al nivel de energía deseado.

Un segundo flujo de partículas es acelerado de la misma manera, pero en sentido opuesto.

En el momendo indicado, los dos haces simplemente se hacen colisionar. Los resultados del experimento se buscan en los "desechos" de las colisiones, que son, en general, partículas diferentes a las que chocaron.

Las colisiones ponen en juego el doble de energía que transporta cada haz individual.

Como Einstein nos contó, la energía y la materia están intimamente relacionadas.

Por ello, como resultado de las colisiones pueden aparecer partículas mucho mas masivas (energéticas) que aquellas que colisionaron.

Para darles una idea, los electrones (y sus antipartículas, los positrones) tienen asociada una masa del orden de los 500 KeV (500.000 eV).

El quark Top tiene asociada una masa del orden de los 170 GeV (170.000.000.000 eV). Es evidente que "ver" a un quark Top es muy difícil, de hecho ha sido una partícula especialmente esquiva por las energías necesarias a poner en juevo para manifestarla.

A los científicos les queda por ver una partícula mas. Los primeros cálculos la situaban poco arriba de los 100 GeV, pero sucesivas correcciones la llevan a un piso en el orden de los 180 GeV y un límite superior de 1 TeV !!!

Esta partícula, conocida como Bosón de Higgs, es importante para ratificar al Modelo Estandar: las matemáticas del mismo implican que, en ausencia del Campo de Higgs (cuyo Bosón de Higgs es "meramente" un cuanto), todas las partículas que conocemos se moverían a la velocidad de la luz y, por consiguiente, no tendrían masa.

Por mecanismos que exceden el objetivo de esta entrada, y relacionado con el párrafo anterior, se especula con que el Campo de Higgs, de existir, es el responsable de que las partículas tengan masa (y, por ende, que Ud. y yo podamos existir).

El Bosón de Higgs es también conocido como la Partícula de Dios o Partícula Divina, de acuerdo con el título del gran libro "The God Particle" de Leon Lederman. Este libro, medio difícil en su segunda mitad, está escrito de una manera ágil y muy divertida, por lo que me parece muy recomendable para quienes puedan leerlo en inglés (desconozco si hay versión traducida al español disponible en la Argentina).

domingo, 25 de mayo de 2008

Conectados (IV)

Los modelos de redes que se forman al azar (aleatorias) confundieron a los estudiosos, al principio, porque aparentan representar una imágen bastante parecida a la realidad.

Si vieron los grafos de la entrada anterior, y los comparan el grafo que Uds. pueden armar con los vínculos entre sus conocidos y/o allegados, encontrarán que el dibujo es bastante comparable.

En el mundo real, generalmente las redes funcionan de otra manera.

Piense Ud. nuevamente en el ejemplo de las relaciones entre personas.

Una red aleatoria implica que Ud. conoce gente (establece un vínculo) totalmente al azar, sin que medie de su parte (o de la otra) una intención o inclinación para ello.

Es lo mismo que suponer que en el comercio, las empresas se relacionan entre sí (o con sus consumidores), siempre, por haber estado en el lugar correcto en el tiempo adecuado.

Resumiendo: un modelo de redes aleatorias es como un paisaje llano, en donde todos los nodos tienen la misma probabilidad de interactuar con todos los otros (o por lo menos, con los mas cercanos), sin que cierta "voluntad" de relacionarse se revele.

Como decía anteriormente, la realidad es diferente.

Todos sabemos, a través de innumerables ejemplos cotidianos, que hay nodos "preferentes" o "concentradores" de vínculos y nodos mas aislados o menos conectados.

A nivel social, hay cierta cantidad de gente que conoce a miles de personas, y otra cantidad que conoce a muchísimos menos.

Hay empresas que tienen millones de clientes y otras, competidoras directas, que tienen muchos menos.

Vea sino el caso de Internet: Ud. conocerá páginas de temas iguales con muchos links y otras con muy pocos.

O, para finalizar con los ejemplos, buscadores que son mucho mas requeridos que otros.

Cuando se comienza a dibujar el grafo de una red real y se manifiestan los nodos concentradores, se empieza a vislumbrar una forma (o topología) bastante diferente respecto a la de las redes aleatorias.

Los nodos concentradores deforman a la red, llevándola a un sistema en donde la densidad de los vínculos es claramente no uniforme.

En ciertas redes, como Internet, no hay un límite virtual a la cantidad de vínculos que un nodo pueda tener.

Si Internet fuera una red aleatoria, con el paso del tiempo todos los nodos tendrían una cantidad promedio de vínculos.

Se ve la diferencia?

Hay una serie de leyes que operan a nivel de los nodos para hacerlos mas concentradores o mas aislados, pero esto será tema de una entrada futura.

Por lo pronto, quiero dejarle planteado el tema de la entrada que viene, y me gustaría hacerlo de la siguiente manera:

Muchos estudiosos estudian fenómenos, estadísticamente, basándose en la "campana de Gauss". Para quien no esté familiarizado con su forma, copio aquí un dibujo extraído de Wikipedia:




Esta forma de distribución de probabilidades es ideal para la descripción estadística de muchos fenómenos, pero muchos expertos (y otros no tanto) abusan de ella al punto de aplicarla erróneamente con mas frecuencia que la lógica.

En la campana de Gauss prevalecen la media y la varianza, dando como resultado la descripción de un mundo caracterizado por los promedios.

Una de estas distribuciones, llamada de Poisson, describe muy bien el comportamiento de las redes aleatorias, y esto es asi desde el momento en que cada nodo (pasado el tiempo suficiente) tendrá una cantidad de vínculos no muy diferente al de los otros.

Ahora bien: si Ud. se aleja del "pico" de la campana de Gauss, encontrará aquellos fenómenos que se alejan del promedio, pero notará que mientras mas lejos esté, menor será la probabilidad de ocurrencia.

Pasado cierto límite, la probabilidad será nula.

Si recuerda lo que le contaba mas arriba, en las redes reales no hay un límite definido en la cantidad de vínculos que un nodo puede tener. Y, de hecho, un promedio no funcionaría bien como descriptor ya que hay nodos con muchísimos mas vínculos que otros.

(para mayor información sobre la distribución de Poisson, le sugiero visitar el siguiente link).

La campana de Gauss (distribución de Poisson en este caso) no sirve para describir a las redes reales. Para ello tenemos que recurrir a otra herramienta estadística, que está ganando cada vez mas popularidad entre los estudiosos de este tipo de fenómenos:

Las leyes de potencias, en donde un señor llamado Pareto tendrá bastante que contarnos.

martes, 13 de mayo de 2008

Conectados (III)

El estudio de las conexiones e interrelaciones utiliza una herramienta llamada grafos.

Los elementos básicos de los grafos son:

vértices (o nodos): objetos que están disponibles para ser conectados.
vínculos (o aristas): línea que representa la conexión.

Simple, no? (de hecho, ahora Ud. sabe de grafos tanto como yo!!).

Para los fines de esta entrada, da lo mismo qué es lo que quiera Ud. colocar como nodo. Puede pensar en personas, computadores, empresas, animales. Verá que, salvando algunas diferencias, el modelo tiene el mismo rango de aplicación para cualquier elemento conectable.

Nosotros, a fin de hacer mas familiar a los ejemplos, trabajaremos con personas, y propondremos al lector que se sitúe en una reunión ficticia. Asisten a la misma otras nueve personas, todas ellas desconocidas entre sí.

Representando esta situación como grafo:

Es probable que, pasado cierto tiempo los invitados comiencen a conversar entre sí, y a presentarse. Para este ejercicio, el hecho de establecer el contacto y conocer el nombre del otro, establecerá un vínculo.

Note Ud. que algún patrón emerge, al haberse formado tres grupos: A-B-C, DG y E-F-J-H. Esto, que en este ejemplo pequeño parece una obviedad nada notable, se manifiesta de manera mas evidente cuando los grupos son mayores.

El patrón emergente al que hago referencia, entonces, es la aparición de estos grupos de objetos (personas, en este caso) conectados entre sí y no necesariamente interconectados entre ellos. Llamemos a estos grupos, utilizando el nombre mas frecuente, "clusters".

Paul Erdős y Alfréd Rényi (nombrados anteriormente en este blog) comenzaron a estudiar la dinámica en la formación de grafos, definiendo como hipótesis que los vínculos se forman de manera aleatoria.

De esta manera, emergen grafos muy regulares desde el punto de vista geométrico, que llegan, en cierto momento, a una cirscunstancia peculiar: que todos los nodos tendrán, al menos, un vínculo.

Esto significará que cada nodo tendrá pertenencia, como mínimo, a un cluster y, por ende, estará relacionado (a través de otros nodos) al resto.

Vemos aquí que el nodo "I" se ha conectado a "J", y que a través de él, puede llegar al resto de los miembros de ese cluster (E, F y H).

La segunda consecuencia del modelo teórico de Erdős y Rényi es que nadie dice cuándo debe cesar la aparición de vínculos. Por ende, tarde o temprano, además de estar todos los nodos perteneciendo a un cluster, cada cluster terminará conectado entre sí formando un "cluster gigante".

(mas adelante en el tiempo, en forma aleatoria, pueden aparecer vínculos adicionales, como por ejemplo G-B o D-C, que no harían mas que reforzar la aparición de caminos que conecten a un nodo con cualquier otro).

El grafo, asi como lo vemos, representa un potencial de transferencia de información.

Supongamos, para seguir con el ejemplo, que el nodo "A" comienza a circular un rumor. No uno cualquiera (aunque podría serlo), sino algo al estilo de que el gobierno piensa apropiarse de los ahorros de los ciudadanos.

El nodo "A" no tiene que estar directamente conectado con todos los otros para asegurarse que el rumor llegue al 100% de los asistentes. El rumor puede seguir cualquiera de los caminos representados en el grafo, para alcanzar a todos y cada uno de los nodos del cluster.

De esta manera, dos nodos "lejanos" se conectan en pocos pasos. En nuestro ejemplo, el rumor puede llegar desde el nodo "D" al "I" en solamente cuatro pasos (D-G, G-H, H-E, E-I).

Si llamamos "grados de separación" a la cantidad de pasos necesarios para hacer llegar un rumor desde un nodo a otro cualquiera, veremos en este ejemplo que el nodo "B" está separado de "E" por un solo paso y que "I" lo está de "F" en tres.

Si no conté mal, el mayor grado de separación de este ejemplo es de cuatro (ayúdeme, lector, a corroborar esto).

Extrapolando este ejemplo a la vida real, verá Ud. que el grafo es mucho mas complicado: de hecho, pertenecemos a una gran cantidad de diferentes clusters con poco contacto entre sí.

La disponibilidad de elementos de comunicación impensados años atrás no afectan la mecánica de formación de clusters, sino mas bien incrementa la cantidad de vínculos y acelera su formación.

Por lo demás, el mecanismo es exactamente el comentado en el ejemplo, y es el que nos comienza a revelar que en el mundo, dos personas cualesquiera pueden establecer un contacto entre ellas a través de un número finito de pasos (o grados de separación).

El modelo de vínculos aleatorios de Erdős y Rényi, comentado muy incompletamente hasta aquí, logra explicar la formación de conexiones dentro de una red, pero tiene un problema:

El mundo no funciona de esa manera.

jueves, 8 de mayo de 2008

El ancho de una hoja de papel

Tome Ud. una hoja de papel común y corriente y mida su grosor. Posiblemente el resultado esté en el orden de una décima de milímetro.

Solamente por curiosidad, Ud. calcula cuántas hojas de papel apiladas sumarían una distancia similar a la que existe entre Buenos Aires y Mar del Plata (408 kilómetros).

El resultado es de 4.080.000.000 de hojas de papel.

A continuación decide doblar la hoja de papel por la mitad. El grosor de la hoja doblada está en el órden de las dos décimas de milímetro.

Toma lápiz y papel, y calcula cuántos dobleces tendría que efectuar sobre la misma hoja, para que el grosor total sea equivalente a los 408 kilómetros.

La respuesta es... solamente 32 dobleces (de hecho el resultado sería 429 kilómetros).

Ligeramente intrigado, calcula que para formar una pila para llegar a la Luna (384000 kilómetros) necesitaría 3.840.000.000.000 de hojas de papel.

Y solamente unos 41 dobleces para lograr 219.000 kilómetros (con un doblez mas alcanzaría los 438.000 kilómetros).

"En fin...", suspira Ud. antes de acostarse...

En definitiva 41 dobleces están relativamente cerca de los 67 necesarios para generar un grosor que supere, con creces, al diámetro de nuestra Galaxia.

miércoles, 7 de mayo de 2008

Principio de Incertidumbre de Flacus

Es conocido el Principio de Incertidumbre de Heisenberg (PIH), como aquel que establece que a mayor precisión para conocer la posición de una partícula, menor será la certeza respecto al valor de su momento.

Y viceversa: conocer el momento con alta precisión implica resignar la certeza sobre la posición de una partícula.

Este principio implica una misma relación entre la energía de una partícula y el tiempo durante el cual se mide el suceso que la tiene como protagonista: mientras mayor sea la precisión con la que conozcamos una de las dos variables, menor será la certeza que podamos tener respecto de la otra.

Estos Principios establecen un límite para nuestra capacidad de medir al mundo de lo muy pequeño. También definen algo que para el mundo clásico es contraintuitivo:

- Si conozco con exactitud el tiempo en el que se desarrolla un suceso a nivel cuántico, la energía involucrada puede ser tan alta como se quiera.

- Si conozo con exactitud la posición de una partícula subatómica, su velocidad (relacionada con el momento) puede ser tan alta como se quiera.

Lo cual implica, yendo a territorios mas profundos, que hay un límite definido para nuestra capacidad de predecir sucesos subatómicos, habida cuenta del conocimiento de alguna de las variables mencionadas anteriormente.

Ahora viene mi planteo.

Será posible que exista un Principio de Incertidumbre similar, pero aplicable al mundo de lo inmensamente grande, casi a la escala del Universo?

Digo: cuando miramos al cielo, a través de cualquier medio disponible, no estamos viendo lo que ocurre actualmente sino lo que pasó tiempo atrás (al momento de emitirse la luz que nos llega).

Podemos conocer la posición actual de una estrella y la dirección en la que se mueve, pero interpolando sus posiciones pasadas.

En realidad, inferimos (con mucha seguridad, la verdad sea dicha) que la estrella estará en donde calculamos (que no es en donde la vemos actualmente) porque confiamos en que nada ha modificado su curso o su existencia.

Pero en realidad, no podemos saber con certeza qué es lo que ocurre allí en el preciso momento en el que estamos observando. De alguna manera, la estrella podría no estar, o estar en otro lado, de haber mediado un suceso suficientemente significativo.

Este pensamiento, tan rebuscado, es el que me hace pensar en que tal vez existirá algún tipo de limitación a nuestra capacidad de conocer lo que pasa en el Universo, relativa a la suma de incertezas derivadas de la distancia y el tiempo que necesita la señal (luz) en llegar a nosotros.

Si tal Principio existiera, me he tomado la libertad de llamarlo, con toda modestia, Principio de Incerteza de Flacus (PIF).

En este estadío, el PIF difiere del de Heisenberg en que no tengo en claro cómo vincular a dos variables de observación, y sobre cual sería el límite de incerteza (en el caso del PIH la precisión en el conocimiento de los valores de las dos variables están relacionada con la constante de Plack).

De todas maneras, la incompletud del PIF no me impide continuar con lo siguiente:

Werner Heisenberg ganó el Premio Nobel de Física en 1932, por sus contribuciones a la mecánica cuántica.

Dado que mi Principio puede tener implicancias similares, doy por descontado (y agradezco por adelantado) el Nobel que merecidamente se me otorgará como corresponde a tamaña contribución a la comprensión del Universo.

Si Ud., lector, tiene a bien hacer comentarios (a favor o en contra del PIF), que ayuden a refinar este Principio, se hará acreedor a que su nombre figure en el mismo como co-autor.

Por supuesto que mencionaré su nombre entre los agradecimientos (luego del de mi esposa y familia en general, of course), con visible y casi sincera emoción.

martes, 6 de mayo de 2008

Conectados (II)

Pareciera ser que muchos sistemas en el Universo tienden a una cierta organización luego de pasar por estados individuales regidos por leyes, en apariencia, desconectadas.
La realidad es que la ciencia estudia el concepto de "auto-organización" desde hace muchos años, y se verifica que es real la emergencia de organizaciones complejas desde partes individuales aparentemente desconectadas.

Abundan los ejemplos: física, matemática, biología, astronomía, sociología, son solamente algunas de las ciencias en donde se evidencia la existencia de sistemas que tienden hacia alguna forma de "organización", como cosa natural, luego de ciertos tiempos de transiciones y en ausencia de estímulos contrarios con suficiente fuerza para romper el proceso.

La "auto-organización" me parece fascinante, entre otras cosas, porque pone de manifiesto el poder de pocas leyes simples por sobre la situación (aparentemente) caótica de partes separadas y sin conciencia unas de otras.

Esto último es importante: las partes del sistema que se "auto-organizará" no tienen (y en muchos casos, no pueden) interactuar con los otros en forma conciente y/o volitiva.

Extremando este concepto: para ciertas formas de organización humana, no es necesario que cada individuo sepa de su participación, ni que tome acciones determinadas en una dirección que favorezca el proceso (digo que no es necesario, aunque definitivamente puede ayudar).

La primera entrega de este trabajo busca ahondar, siquiera un poco, en una de las tantas estructuras "auto-organizantes" que existen en el Universo, tal vez una de las mas sencillas y maravillosas por sus alcances y sus consecuencias.

El planeta cuenta con varios miles de millones de habitantes, número este que ha crecido con el paso de los siglos, y que probablemente seguirá creciendo en la medida en que la humanidad decida no establecer algún tipo de límites.

El crecimiento demográfico es desparejo y (para un observador externo) caótico.

Mientras tanto se generan contactos. Entre individuos, grupos, comunidades, poblaciones, etc., comienzan a verificarse vínculos de tipo social.

Hay un orden subyacente atrás de estas vinculaciones? Hay leyes emergentes del aparente caos manifestado en una población cada vez mayor, con interacciones cada vez mas complejas?

Aparentemente hay un orden, y hay leyes emergentes.

Curiosamente, los mismos patrones que aparecen en la proliferación de clientes en una red informática, en las interacciones químicas a nivel molecular dentro de nuestro cuerpo y en la disposición de las distintas manadas de un mismo tipo de animal dentro de un definido ámbito geográfico se organizan de maneras similares, atendiendo a un mismo patrón que responde a pocas leyes simples.

En la próxima entrada vamos a empezar con la historia, refiriéndonos a uno de los pioneros en el campo del estudio de estas redes, y que fuera mencionado en estas páginas como un genio de las matemáticas del siglo XX.

Paul Erdős, gracias a su prolífica obra y a sus múltiples colaboraciones con otros colegas, es un caso-patrón de cómo estamos conectados y de cómo las ramificaciones crecen hasta parecer, con cierta licencia de mi parte, mágicas...