jueves, 20 de junio de 2013

Criptografía: Entre el lenguaje y las matemáticas

1 comentarios


Durante los últimos años, se ha hablado mucho sobre la seguridad en Internet y los peligros que tiene enviar tus datos. La solución que nos ofrecen: encriptar. Las páginas de los bancos, o de comercio electrónico, vienen encriptadas (lo distinguiréis porque en la barra de la dirección, en vez del típico http, veréis https). Pero ¿Sabemos realmente qué es la encriptación?¿En qué consiste?

Teoría clásica de la comunicación y encriptación

Una visita a la wikipedia ya nos deja una definición bastante exacta: "Criptografía (del griego κρύπτω krypto, «oculto», y γράφως graphos, «escribir», literalmente «escritura oculta») tradicionalmente se ha definido como la parte de la criptología que se ocupa de las técnicas, bien sea aplicadas al arte o la ciencia, que alteran las representaciones lingüísticas de mensajes, mediante técnicas de cifrado y/o codificado, para hacerlos ininteligibles a intrusos (lectores no autorizados) que intercepten esos mensajes."

Para entender bien la definición, primero hay que entender como se produce la comunicación de un mensaje:






Como vemos, en todo mensaje hay un emisor (emite el mensaje), un receptor (quien lo recibe), un canal por el que se envía el mensaje y un código. El código es el sistema común que hace que el receptor entienda el mensaje. Un ejemplo clásico es el propio idioma, que es comprensible por aquellos que lo hablan. En el código es donde entra en marcha la criptografía. De hecho, cuando alguien habla en un idioma que desconocemos, en cierta manera están hablando de forma "cifrada" para nosotros. Este no es un hecho menor, dados casos como el del ejercito norteamericano, que usaron Indios Navajos como operadores de radio, para que los Japoneses no se enteraran de las conversaciones. Pero el objetivo de la criptografía es obtener un método genérico de encriptado, independiente del idioma. Hoy en día, este sistema no tendría mucho éxito, dada la cantidad de buenos traductores que hay por Internet.

Imaginemos un Capitán que quiera enviar información a un General que se encuentre lejos, y teme que al mensajero le atrapen las tropas enemigas. Si leyeran ese mensaje, sería fatal para ellos, pues podrían enterarse de sus planes. Así que lo mejor es escribirlo cifrado.

Los principios: el cifrado de "El Cesar"

Ya los antiguos y belicosos romanos se dieron cuenta, como bien decíamos antes, de lo importante que era que el enemigo no pudiera interceptar sus comunicaciones. Pero como ésto era inevitable, crearon el primer sistema de cifrado, conocido como el cifrado de "El Cesar", por ser las tropas del ejercito romano en usarlo. Aunque el nombre técnico sería el de "Cifrado por Trasposición".

Este sistema de cifrado seguía una lógica muy simple: elegías un coeficiente de trasposición (vamos, eliges un número), por ejemplo el 2. Así que lo añadías a las letras del abecedario. De tal manera que sustituías las letras originales, por la letra que se encontraba dos posiciones más adelante. Por ejemplo, sustituías la A por la C, la B por la D, etc...  Para ver un ejemplo, supongamos el siguiente mensaje: "Saludos a todos". Le aplicamos un coeficiente de trasposición 2, con lo que quedaría: "Tcnwfqt c vqfqt". Algo totalmente ilegible e incongruente para alguien que no conozca dicho coeficiente.

Vulnerabilidades

Este sistema de cifrado se mostró altamente eficiente para textos cortos, pero daba problemas con textos largos. Entonces era más fácil descifrarlos. Esto se debía a que realmente seguía manteniendo la estructura propia del lenguaje. Es decir, la palabra "Saludos" siempre se escribiría "Tcnwfqt " con un coeficiente de trasposición = 2. De tal manera que, si el texto estuviera en español, sabremos que la letra que aparece en mayor número de ocasiones es la 'A' (ver Wikipedia: Frecuencia de aparición de letras). Entonces si vemos que en un texto la letra que más aparece es la 'C',  podemos deducir el coeficiente de trasposición. A este método se le llama "Criptoanálisis Estadístico".

Mediante este método, cuanto más largo es un texto, más fácil es obtener una estadística fiable, que con un texto corto. Aún así, conociendo el método, solo es cuestión de paciencia.

Métodos con Claves: Critografía Simétrica y Asimétrica

Dada la importancia de controlar el tráfico de datos, el cifrado ha ido cogiendo gran importancia hasta nuestros días. De esta manera, se ha buscado formas de encriptar que, aunque sean públicos y conocidos, no permitan hacer un simple criptoanálisis estadístico para obtener el mensaje deseado.

La idea inicial del cifrado es el uso de una palabra clave conocida solamente por el emisor y el receptor (deseado, claro. El que reciba el mensaje va a ser un receptor, pero éste sólo será informativo si es capaz de decodificar la información que el mensaje contiene). De esta manera la palabra clave serviría para encriptar y desencriptar la información.

Una forma sencilla usada en el siglo XVII, fué una variante del método de trasposición. Asignemos un número a cada letra del abecedario, de tal manera que la A = 001, la B = 002, etc... Ahora cojamos el texto: "Saludos". Y elegimos como palabra clave ABETO. Si en vez de escribirlo con palabras, lo pasamos a números, el texto quedaría: '022001013024005018022' y la palabra clave sería '001002006023018'.

Ahora cogemos ambos códigos numéricos y los ponemos uno encima del otro, en grupos de tres, sumando el primer código de la primera letra del texto a la primera letra de la clave, y así, sucesivamente. En caso de que la clave no llegue a cubrir la longitud del texto, la repetimos, hasta donde haga falta...

022 001 013 024 005 018 022
+
001 002 006 023 018 001 002
======================
023 003 019 047 023 019 024

Como vemos la suma de la letra U, sumada a la letra T, se escapa del alcance del abecedario. Que tiene un total de 29 letras (Ver Método DIMQV, que se está tomando como base en este ejemplo, aunque pudiera no ser del todo exacto). En este caso, lo más sencillo es restarle 29 a 47, que daría 18. De tal manera que el texto cifrado quedaria: "TCPOTPU". Cuando se recepcionara el texto, solo tendríamos que hacer la operación inversa para obtener la clave final. Este ejemplo es muy sencillo, dado que hemos asignado simplemente números a las diferenes letras y hemos hecho una simple suma. Los sistemas actuales usan complejas ecuaciones para que el cifrado sea más efectivo.

Este sería un ejemplo de lo que se conoce como Criptografía Simétrica, o de una sola clave. La mayor parte de los sistemas de encriptación actuales están basados en sistemas de Criptografía Asímetrica, de llave pública y llave privada, en la que el programa crea una clave privada (de forma autónoma) que no es conocida más que por él (mediante sistemas matemáticos de cálculo) y el usuario introduce una clave alfanumérica (es decir, formada por números y letras, así como caracteres especiales, como la @ o la #) que puede dar a otras personas (llave pública).

En todos los programas informáticos que se usan actualmente (en webs o en Windows), las contraseñas van encriptadas con Criptografía Simétrica, en ficheros, que después son leídos para hacer la comparación pertinente. En sistemas Unix usan sistemas que llaman de "one way encription", encriptación de una sola vía, que se trata de sistemas de encriptación que no se pueden desencriptar.


Conclusiones

Este texto no ha pretendido ser más que una ligera prospección de un mundo muy complejo en el que, actualmente, se unen el lenguaje y la matemática estadística más compleja posible con el fin de mejorar la seguridad de las comunicaciones. La "escritura oculta" es, y seguirá siendo, un campo apasionante y necesario en nuestra sociedad.

Fdo.: Jose Enrique Carrera


Read more ►

lunes, 3 de junio de 2013

OBSESIONADOS CON LO NATURAL

4 comentarios



Ya desde hace tiempo me llama la atención como desde la publicidad, a las conversaciones de barra de bar, hay una especie de leyenda urbana, o de "saber" popular que asigna a lo "químico" o "artificial" todos los males que podamos pensar y que lo natural es bueno buenísimo, mejor que nada en este mundo. Es curioso, porque el hecho de que la gente considere algo natural o no, no depende de si realmente esa sustancia está en la naturaleza o ha sido creada por el hombre. Lo importante es el nombre que tenga.

Así, Roger Bate demostró que se puede conseguir que el 76% de las personas odie el agua. Solo hay que llamarla "monóxido de dihidrógeno" y se habrá obrado el milagro. 

Imaginemos el siguiente texto: "La industria química utiliza habitualmente una sustancia química llamada 'monóxido de dihidrógeno'. A causa de los vertidos y fugas, es frecuente que esta sustancia esté presente en los ríos y en los alimentos que consumimos. Es el componente principal de la lluvia ácida. Contribuye a la erosión. Disminuye la eficacia de los frenos de los automóviles. En estado gaseoso es uno de los principales causantes del efecto invernadero. Puede ocasionar sudoración excesiva y vómitos. La inhalación accidental puede causar la muerte. Se ha encontrado en tumores de pacientes terminales de cáncer. ¿Debería el gobierno británico o la Unión Europea regular estrictamente o incluso prohibir esta sustancia química?".

Pues este texto lo usó Roger Bate en una encuesta, obteniendo como resultado que el 5% contestó que no, el 19% que no sabía y el resto contestó que sí. 

Via: Aceprensa.

Algo parecido me he encontrado, personalmente, en el caso de otra sustancia común... el antioxidante E-300, también conocido como ácido ascórbico. ¿Si te encuentras esto en un zumo no lo comprarías? Pues que sepas que te estaría indicando que contiene Vitamina C .


Este fenómeno es extensivo a la farmacología, donde la mayor parte de las veces, se aislan sustancias naturales, para dar dosis concretas. Poca gente conoce que el ácido acetilsalicílico (la popular aspirina), se obtiene de la corteza del sauce blanco , o que la atropina (prinicpio activo usado para solucionar arritmias), procede de las bayas negras. La pregunta en este caso es: entonces, ¿porque las farmaceuticas gastan una enorme cantidad de recursos en aislar estas sustancias activas, si podrían venderte directamente estas sustancias naturales en tarritos? Mira, exactamente lo que hace el herbolario de la esquina. Como bien nos recuerdan en per ardua ad astra: "Sólo que nosotros, en ese afán obsesivo de controlar todas las variables para intentar cagarla lo menos posible, no solemos recomendar que te tomes una infusión. Porque unas veces estará más diluida y otras más densa, y las plantas de este prado tienen las sustancias más concentradas y las del aquel monte son más flojitas. Y claro, si se te va la mano con la corteza de sauce quizás tampoco pase nada, pero como desfases con las bayas, lo mismo no lo cuentas… Por estas cuatro tonterías no hacemos como en la Edad Media, y en vez de elixires y cataplasmas en su lugar preferimos recetar un comprimido de Aspirina, medio de Sintrom, una ampolla de atropina o 500 mg de vincristina. Preferimos dártelo en forma de pastillas, con una dosis exacta y controlando que no vaya ninguna otra sustancia que no debiera estar ahí y que pueda tocarnos las narices.". Sin embargo la percepción popular es muy distinta.

Quizá el problema es o que no se enseña bien, o que no se llega a comprender "que" es la química. Así mismo, la mayor parte de las personas tampoco tienen clara cual es la diferencia entre lo natural y lo artificial.

Al contrario de lo que piensa la mayor parte de la población, la ciencia no construye nada, solo describe la realidad que nos rodea, desde un punto de vista concreto. La química, podríamos resumir, es la ciencia que estudia la composición, estructura y propiedades de la materia (aunque encontrareis más completa la definición de wikipedia). Es decir, que todo lo que nos rodea, e incluso nosotros mismos es objeto de estudio de la química (y por lo tanto es química). Así que decir que algo contiene productos químicos es una obviedad. TODO LO QUE EXISTE A NUESTRO ALREDEDOR E, INCLUSO, NOSOTROS MISMOS, ESTÁ FORMADO POR COMPUESTOS QUÍMICOS. Así que la división entre natural y químico carece de sentido, dese cualquier punto de vista: todo es química.

Así que nos quedaría ya, sólo, diferenciar entre natural y artificial, pero sin el recurso de la química. Quizá la definición que más se acerque sea que lo natural es aquello que se encuentra presente sin que sea necesaria la presencia del hombre y lo artifical necesite de la manipulación humana para darse en ese estado concreto en la naturaleza. Pero asumir directamente que algo, por ser modificado por el hombre, es peor, no sería correcto. Como hemos visto, esto nos puede llevar a errores conceptuales graves. Lo mejor, en cualquier caso, es informarse correctamente sobre aquello que nos interese y tomarlo de forma natural o artificial según nos interese o nos convenga, basándonos en información y estudios veraces y no en pura ideología.

Fdo: Jose Enrique Carrera Portillo
Read more ►

martes, 21 de mayo de 2013

Mama ... ¿Porque el cielo es azul?

1 comentarios



¿Porque el cielo es azul durante el día y rojizo durante el amanecer y el atardecer?¿Porque las nubes son blancas y tienden al negro según van teniendo más carga de agua? Estas preguntas tienen, como respuesta, dos nombres propios: John William Strutt, tercer Barón de Rayleigh y Gustav Mie.

Pero para comprender bien el porqué de estos fenomenos, primero deberíamos responder dos preguntas previas. Por un lado ¿que es la luz?, y por el otro ¿que es el color?.

¿Que es la luz?

La luz es una radiación electromagnética, que es posible ser percibida por el ojo humano. Esta radiación electromagnética está producida por unas partículas subatómicas denominadas fotones, que son las responsables de todas las radiaciones electromagnéticas  incluyendo los rayos gamma, los rayos X, la luz ultravioleta, la luz visible, la luz infrarroja, las microondas y las ondas de radio.

Como todas las partículas subatómicas tiene una naturaleza corpusculo-ondulatoria, es decir, que por un lado se comporta como un objeto físico (corpusculo) y por otro, tiene un comportamiento de una onda. El primer comportamiento es fácil de entender: el fotón es una partícula física que se encuentra en un espacio determinado. 

El segundo comportamiento (ondulatorio) viene dado porque los fotones viajan en "grupos" o "paquetes", a los que denominamos "cuanto" (de estos paquetitos, viene el nombre de cuántico, que procede del latín  "quantus" -cuanto-). La distancia entre estos paquetitos, nos da lo que conocemos como longitud de onda.

Ahora ya estamos en disposición de contestar a la segunda cuestión...

¿Que es el color?

Podríamos decir que los colores son el conjunto de las diferentes longitudes de onda de radiación electromagnética que puede percibir el ojo humano. En el gráfico podemos ver las diferentes longitudes de onda y a que tipo de onda que corresponden. A las ondas que se pueden percibir por nuestros ojos, las llamamos "espectro del visible". Dentro del espectro del visible, los paquetitos que viajan más separados entre si (mayor longitud de onda), corresponden con el color rojo, que va poco a poco tendiendo hacia el violeta, según va haciéndose menor esa longitud de onda (los paquetitos viajan más cerca unos de otros). Las ondas que tienen una longitud de onda tan alta que se salen del espectro del visible se denominan "infrarrojas" y las que tienen una longitud de onda tan corta que tampoco las podemos ver, se denominan "ultra violeta".



Hay que poner atención el que el color no es una propiedad de los objetos o de la onda electromagnética, sino que es un fenómeno profundamente psicológico. El hecho de que veamos los objetos de nuestro alrededor de un determinado color, se debe a que nuestro cerebro interpreta así la señal recibida desde los ojos. Es necesario que exista una persona (o animal con visión cromática) para que exista el color. Esto explica enfermedades como el daltonismo o la acromatopsia, por no hablar trastornos como la micropsia, también conocida como "Sindrome de Alicia en el país de las maravillas" .



Y ahora ya si que si, estamos en disposición de responder a la pregunta que da título a nuestro post de hoy...

Dispersión de Rayleigh y Mie

La dispersión de Rayleigh (en honor a Lord Rayleigh) es la dispersión de la luz visible o cualquier otra radiación electromagnética por partículas cuyo tamaño es mucho menor que la longitud de onda de los fotones dispersados. 

El sol, nos envía radiación electromagnética en multitud e longitudes de onda, que al llegar a nuestra atmósfera choca con las diferentes partículas del aire. Parte de la energía que transmiten los fotones se transfiere a estas partículas que vibran y emiten luz en todas las direcciones. Las ondas cortas (como hemos visto antes, las azules y las violetas) son las que tienen una mayor carga energética y, por tanto, mayor difusión. Como la luz blanca contiene más de azul que de violeta y, a lo demás, nuestros ojos son más perceptivos al azul, el color que percibimos de forma genérica en el cielo, es el azul.

En el amanecer y el atardecer, la luz solar no da de forma perpendicular, sino que tiene un mayor ángulo. Esto hace que la luz tenga que recorrer mucha más distancia a través de la atmósfera, lo cual hace que se pierdan las longitudes de onda cortas y permanezcan las largas. Por ese motivo prevalecen los colores rojizos. En este efecto también influye la cantidad de polvo que haya en la atmósfera.




La difusión de Mie es la dispersión de la luz visible o cualquier otra radiación electromagnética por partículas cuyo tamaño es mayuor que la longitud de onda de los fotones dispersados. 

Este fenómeno se aplica, de forma tradicional, a las nubes. Las partículas absorben una parte de la luz y reflejan el resto, como pequeños espejos. Aquí el color depende de la composición de la partícula. En el caso de las nubes, si son poco densas, tienden a reflejar todas las longitudes de onda. Pero si están muy cargadas de agua, este efecto se acentúa y favorece la aparición de colores grises. 



El que haya una gran cantidad de aerosoles en la atmósfera también provoca un acentuamiento de esta dispersión. La dispersión de Mie produce una mayor difusión de la partículas hacia delante o hacia el frente de ella. Conforme aumenta el tamaño de la partícula, la dispersión hacia enfrente también aumenta (el tamaño de la partícula directamente proporcional con la dispersión). Esta característica genera amaneceres más rojos que lo que serían solo por el efecto de la Dispersión de Rayleigh.

El efecto Mie domina la atmósfera de Marte. Su cielo no es azul sino de un plomizo rojo y amarillo. Carl Sagan describe la decepción de la prensa cuando mostraron las primeras fotos del cielo de Marte. Nada comparable a nuestro hermoso cielo azul.

Pd: Parte de la información aquí mostrada, ha sido modificada a partir del gran artículo sobre el Efecto Rayleigh y efecto Mie, publicado en Astromia.com, a quienes es de justicia darles las gracias.

Fdo.: Jose Enrique Carrera Portillo
Read more ►

jueves, 16 de mayo de 2013

LA COMPOSICIÓN DE LA MATERIA (I)

10 comentarios





Aire, agua, tierra y fuego han sido los materiales que, desde la edad de piedra, el ser humano a reconocido y utilizado. No fue hasta el inicio de la ciencia moderna, con la escuela Jónica, en la antigua Grecia, que el ser humano no se planteó cual era la composición básica de todo lo que lo rodeaba.

Fue Leucipo de Mileto(1), maestro de Demócrito, quien en el siglo V e.a.(2) fundó la escuela atomista, la cual afirmaba que la realidad estaba formada por partículas infinitas, indivisibles, de formas variadas y siempre en movimiento llamadas átomos, que significa “indivisible” («ἄτομον» - «sin partes»). Afirmaban que la materia estaba formada por partículas materiales indestructibles, desprovistas de cualidades y que no se distinguen las unas de las otras más que por la forma y dimensión(3).

Siempre su asocia la idea de la primera teoría atómica a John Dalton (4) y, no sin razón. Pero a decir verdad fué Mijail Vasílievich Lomonósov quien, en unos artículos escritos entre 1743 y 1744 ( “Sobre las partículas físicas intangibles que constituyen las sustancias naturales” y “Sobre la adhesión de los corpúsculos”) recupera este concepto de átomo y lo plasma de forma evidente en un tercer artículo donde utiliza en término mónada (acuñado por Leibniz), con el título “Sobre la adhesión y la posición de las mónadas físicas”.

John Dalton (4), alimentandose de las ideas de Leucipo de Mileto y, conocedor de los trabajos de Lomonósov, propone de nuevo una teoría atómica pero, esta vez, con bases científicas. Esta ley fué formulada para explicar porqué ciertas reacciones químicas se daban solamente, en proporciones constantes (la denominada Ley de las proporciones constantes(5) ). Dalton explicó su teoría en base a seis enunciados simples:

  1. La materia está formada por partículas muy pequeñas llamadas átomos, que son indivisibles y no se pueden destruir.
  2. Los átomos de un mismo elemento son iguales entre sí, tienen su propio peso y cualidades propias. Los átomos de diferentes elementos tienen pesos diferentes. Comparando los pesos de los elementos con los del hidrógeno tomado como la unidad propuso el concepto de peso atómico relativo .
  3. Los átomos permanecen sin división, aún cuando se combinen en las reacciones químicas.
  4. Los átomos, al combinarse para formar compuestos guardan relaciones simples.
  5. Los átomos de elementos diferentes se pueden combinar en proporciones distintas y formar más de un compuesto.
  6. Los compuestos químicos se forman al unirse átomos de dos o más elementos distintos.


Dados los conocimientos actuales, el modelo atómico de Dalton puede parecernos insuficiente e, incluso, un poco infantil, pero constituyó el primer intento basado en evidencias y pruebas científicas de explicar como y porqué estaba constituida la materia. Eso sin contar que serviría de base para todos los modelos posteriores que, sin duda, han resultado cruciales en el avance científico y técnico de la actualidad.


Varios átomos y moléculas representados en A New System of Chemical Philosophy (1808 de John Dalton )

A finales del siglo XIX hay dos descubrimientos clave en el avance de nuestro conocimiento de la composición de la materia. Por un lado, en 1896, Henri Becquerel(6) descubriría la radiactividad trabajando con sales de uranio. Descubrió que al colocar sales de uranio sobre una placa fotográfica en una zona oscura, esta se ennegrecía, debido a que la radiación emitida por el uranio atravesaba elementos opacos a la luz ordinaria.

Al año siguiente, Joseph John Thomson(8), descubriría el electrón. Determinó que la materia estaba constituida por una parte positiva y otra negativa. Y en 1898(7), el matrimonio Curie descubrirá el Polonio y el Radio.

Con toda esta serie de eventos, el propio Joseph John Thomson, en 1903, propondrá su propio modelo atómico, en el que se incluyen por primera vez la polaridad de cargas, existiendo una carga positiva y otra carga negativa. Su modelo es popularmente conocido como el “modelo del puding de pasas” ya que propone que el átomo es una esfera de carga positiva, con los electrónes “incrustados” por toda su superficie, de forma uniforme, de forma similar a como veríamos las pasas en un punding.



Modelo atómico de Thomson

Pero este modelo, que aunaba las virtudes del modelo de Dalton, con los resultados obtenidos con los tubos de rayos catódicos (la existencia de una carga negativa), chocaba frontalmente con la teoría de la dispersión de Rutherford(9) (también conocida como dispersión de Couloumb - 1909). Esta teoría explicaba la dispersión de partículas eléctricamente cargadas, al acercarse a un centro de dispersión que también estaba cargado eléctricamente (experimento de Rutherford(10)). Con este experimento se llegó a la conclusión de que la carga positiva y la mayor parte de la masa del átomo debía estar concentrada en un pequeño espacio en el centro del átomo.

Un año después de que Joseph John Thomson desarrollara su teoría atómica, en 1904, Hantaro Nagaoka(11) desarrolló un modelo planetario, en el que consideraba que existia un centro cargado positivamente, muy masivo, mientras que los electrónes lo rodeaban orbitando a una distancia y unidos a él por fuerzas electrostáticas, de forma similar a como veríamos los anillos con Saturno.

El propio Nagaoka desecharía su propia teoría en 1908, pese a que el antes mencionado experimento de Rutherford diera confirmación experimental a su teoría. Nagaoka consideró que los anillos se repelerían entre sí, dando lugar a un modelo inestable.

El propio Rutherford, en el artículo que escribió, proponiendo la existencia de un núcleo atómico, cita a Nagaoka, como base de su teoría. Como veremos más adelante, esta es la base del modelo de Bohr (también conocido como modelo atómico) y que resultaría fundamental para los siguientes modelos actuales.

(Continuará...)

Relacionados:

   - LA COMPOSICIÓN DE LA MATERIA (II) 

Referencias:
  1. - Acrónimo que significa “Era Común” (en inglés se encontrará como c.a. - Common Age). Es el sustitutivo de lo que anteriormente se denominaba d.c. (después de Cristo).
  2. - Ver ref. http://es.wikipedia.org/wiki/Henri_Becquerel
  3. - Ver ref. http://es.wikipedia.org/wiki/Marie_Curie y http://es.wikipedia.org/wiki/Pierre_Curie
  4. - Ver ref. http://es.wikipedia.org/wiki/Modelo_at%C3%B3mico_de_Thomson
  5. - Ver ref. http://es.wikipedia.org/wiki/Dispersi%C3%B3n_de_Rutherford
  6. - Ver ref. http://es.wikipedia.org/wiki/Experimento_de_Rutherford
  7. - Ver ref. http://en.wikipedia.org/wiki/Hantaro_Nagaoka







Read more ►

miércoles, 7 de noviembre de 2012

Cavitación: de la ingeniería naval a los centros de belleza

4 comentarios



No deja de sorprender como algunos descubrimientos o estudios, a veces, pasan de meras curiosidades a problemas serios o a formar parte importante de la estructura de nuestra sociedad. Tal pasa con el álgebra de Boole (de la que ya hablaremos en próximos post) o con nuestra protagonista de hoy: la cavitación.

Definición:
La primera pregunta siempre es la obvia: ¿que es la cavitación?.

Para saberlo primero deberemos de conocer el principio de Bernoulli (Wikipedia). Este principio hidrodinámico nos describe el comportamiento de un flujo laminar moviéndose a lo largo de una corriente de agua y nos dice que un fluido ideal (sin viscosidad ni rozamiento) en régimen de circulación por un conducto cerrado, la energía que posee el fluido permanece constante a lo largo de su recorrido.

La energía de un fluido en cualquier momento consta de tres componentes:

  • Cinética: es la energía debida a la velocidad que posea el fluido.
  • Potencial gravitacional: es la energía debido a la altitud que un fluido posea.
  • Energía de flujo: es la energía que un fluido contiene debido a la presión que posee.

Esto es definido mediante la siguiente ecuación:



donde:
V = velocidad del fluido en la sección considerada.

 = densidad del fluido.

P = presión a lo largo de la línea de corriente.
g = aceleración gravitatoria
z = altura en la dirección de la gravedad desde una cota de referencia.
Para aplicar la ecuación se deben realizar los siguientes supuestos:

Viscosidad (fricción interna) = 0 Es decir, se considera que la línea de corriente sobre la cual se aplica se encuentra en una zona 'no viscosa' del fluido.  
La ecuación se aplica a lo largo de una línea de corriente o en un flujo irrotacional.
Una vez que tenemos el principio de Bernoulli, podemos definir que es la cavitación:
La cavitación o aspiraciones en vacío es un efecto hidrodinámico que se produce cuando el agua o cualquier otro fluido en estado líquido pasa a gran velocidad por una arista afilada, produciendo una descompresión del fluido debido a la conservación de la constante de Bernoulli. Puede ocurrir que se alcance la presión de vapor del líquido de tal forma que las moléculas que lo componen cambian inmediatamente a estado de vapor, formándose burbujas o, más correctamente, cavidades. Las burbujas formadas viajan a zonas de mayor presión e implotan (el vapor regresa al estado líquido de manera súbita, «aplastándose» bruscamente las burbujas) produciendo una estela de gas y un arranque de metal de la superficie en la que origina este fenómeno.

(Fuente: Wikipedia)

Es un porceso fisico que es muy parecido al de la ebullición, la diferencia es que la cavitacion es causada por una caída de la presión local por debajo de la presión de vapor mientras que la ebullicion lo hace por encima de la presion ambiente local.

(Fuente: Mecánica de fluidos)

Ingeniería naval






A la hora de diseñar un barco o un submarino, el fenómeno de la cavitación es tenido muy en cuenta, no como un algo molesto, sino como un elemento crucial que podría acabar en desastre, de no diseñarse correctamente.

En el diseño de barcos, el efecto de la cavitación provoca el desgaste y rotura de hélices y timónes, pudiendo poner en peligro la integridad del pasaje. Y en cualquier caso, acorta la vida útil de estos componentes.

En los submarinos, este efecto es todavía más estudiado, evitado e indeseado, puesto que imposibilita a estos navíos de guerra mantener sus características operativas de silencio e indetectabilidad por las vibraciones y ruidos que la cavitación provoca en el casco y las hélices.

En cualquier caso, el efecto es siempre el mismo. Cuando las burbujas de vapor se implotan se produce una especie de martilleo lo que produce un deterioro en las paredes de la carcasa, de las palas del impulsor, o del material sobre el que se produzca, en el cual el daño esta en función de la proximidad en que se encuentran estas implosiones.

(Fuente: Mecánica de fluidos )




Esto limita a los submarinos y vehículos subacuáticos a velocidades inferiores, siempre, a los 140 km/h.

Actualmente, esta limitación se está resolviendo gracias a la supercavitación, que consiste en rodear el objeto o nave de una nube de gas renovable de forma que el agua casi no esté en contacto con la superficie del objeto, reduciendo así de manera drástica la resistencia al avance que presenta el agua.

“Cuando un fluido se mueve rápidamente alrededor de un objeto, la presión en el flujo disminuye, especialmente en el lado trasero del cuerpo”, explica Marshall P. Tulin, director del Ocean Engineering Laboratory de la Universidad de California, y pionero en la teoría de flujos supercavitacionales.

“Conforme aumenta la velocidad, se llega a un punto en que la presión del flujo iguala la presión de vapor del agua, momento en que el fluido experimenta un cambio de fase y se vuelve gas: vapor de agua”.

 En otras palabras, cuando la presión del agua ya no es suficiente para mantener juntas las moléculas que componen el líquido elemento, éstas se disocian formando un gas.

“Bajo ciertas circunstancias, especialmente en las aristas afiladas, el flujo de agua puede contener cavidades de presión más o menos constante rellenas de vapor de agua y aire en su estela. Es lo que se conoce como cavitación natural,” dice Tulin.

“La cavidad depende de la forma del objeto para que se mantengan las condiciones de presión constante en sus alrededores, pero también depende de la presión interna de la cavidad y de la fuerza de la gravedad,” nos explica.

(fuente: Blogs de Ingenieros industriales de Guipuzcoa)

Estética

Pero esta capacidad corrosiva que tiene la cavitación ha encontrado una vía útil para nosotros, curiosamente, en los centros de estética: la cavitación estética.

Básicamente, en estética, se utilizan máquinas en las que la oscilación provocada por los ultrasonidos de baja frecuencia crea la formación de micro burbujas (o cavidad) que explotan –ó implotan- en el interior de la masa grasa y de los adipocitos, fluidificándola y favoreciendo la salida de los mismos grasos.

Físicamente es el desarrollo de las micro burbujas obtenidas por un empuje ultrasónico a baja frecuencia. Este efecto de micro burbujas va a “trabajar” en el interior del tejido adiposo, golpeando los adipositos, eliminándolos ó reduciéndolos en breve tiempo.

(Fuente: Cavitaciónestetica.com).


Máquina de cavitación Estética

Este método se caracteriza por lograr romper las difíciles estructuras de los depósitos grasos localizados. Estas zonas suelen ser resistentes a las dietas de adelgazamiento, dado su carácter de almacenamiento y no son fáciles de eliminar, tampoco, a través del ejercicio o los masajes. La cavitación consigue actuar sobre estas zonas, liberándolas de la grasa. Es un reafirmante muscular y moldeador del cuerpo que obtiene resultados en pocas sesiones.



Provoca la destrucción de la célula adiposa con la consiguiente transformación de la grasa en una sustancia líquida (diglicérido) que será eliminada a través del sistema linfático y vías urinarias.  Las células grasas se ven expuestas a una sobrepresión, que rompe sus membranas, desencadenando la destrucción de los adipositos. La grasa que contienen ?los triglicéridos- se fragmenta en diglicéridos, pudiendo ser éstos últimos expulsados a través de la orina. A través de una emulsificación de la grasa, se consigue cambiar el estado de los depósitos grasos, pasando de sólido a líquido, convirtiéndolos en una sustancia fácil de eliminar mediante la orina. Se aconseja una dieta hipocalórica y la ingesta de al menos dos litros de agua antes y después de cada tratamiento, dado que es una parte imprescindible para poder eliminar la grasa.

(Fuente: BeautyMarket.es)


Así que la próxima vez que vaya a su centro de estética a eliminar la grasa localizada mediante cavitación, sabrá lo que siente un submarino. ;)

Autor: Jose Enrique Carrera
Read more ►

viernes, 26 de octubre de 2012

Sarampión, Ignorancia y Vacunas

2 comentarios



El 13 de Octubre de este año (2012) algunos medios digitales se hicieron eco de un informe de la Organización Mundial de la Salud  en diciembre de 2011, que alertaba sobre el incremento de casos de sarampión en Europa provocando un total de 9 muertes, 6 de ellas en Francia y 7288 hospitalizaciones (Fuente: WHO - European countries must take action now to prevent continued measles outbreaks in 2012). Ciertamente poca repercusión mediática tuvo este tema, viendose en diarios como "La Verdad"  en su edición de Murcia y otros medios digitales.

Pero este informe no revela, realmente, nada nuevo. Ya el 25 de Noviembre de 2010 los medios se hacían eco de que en Granada un juez tuvo que ordenar la vacunación forzosa de niños en un colegio por un brote de sarampión (Fuente: EuropaPress). Desde entonces no han dejado de sucederse las noticias, quedando casi como meras anecdotas. Pero este informe de la OMS añade un salto cualitativo que ya se veia venir y que era, sólo, cuestión de tiempo. Muertes. Pero anteriormente nos podíamos jactar de no haber tenido ni un caso de sarampión en España en 11 años. Desde entonces hemos sufrido un avanze del sarampión sin precedentes, y ya en 2011 se habían multiplicado los casos de sarampión por 20. Su auge sigue, aún, imparable.

¿Y cual es la causa de que el sarampión haya tenido semejante auge en los últimos años? Una nueva moda: los antivacunas. Todo empezó cuando Andrew Wakefield se inventó un informe donde aseguraba que había relación directa entre la vacuna triple vírica y el autismo con la que, al parecer, pensaba sacar un suculento beneficio. Pese a que el Consejo General Médico (GMC) de Reino Unido prohibió en mayo de 2011 a Wakefield ejercer en el país por su actitud deshonesta e irresponsable en el trabajo citado, el colectivo antivacunas sigue creyendo sus postulados y amplian el espectro: todas las vacunas son nocivas y lo mejor es que los niños se inmunicen solos, pasando las enfermedades. O al menos en Europa y de una forma más o menos racional. Porque entre los integristas religiosos norteamericanos ya existia tradición al respecto.

Lo curioso de este tema es que esta moda se está dando en personas de alta formación, incluso, con carrera universitaria y que están informados. Pero he aquí el problema, que están muy mal informados y, con su altanería y desprecio por las vacunas, no hacen más que confirmar su ignorancia en cuanto a las vacunas se refiere.

La verdad es que resulta raro, ver a gente cualificada, haciendo preguntas tan básicas y de respuesta totalmente conocida. No resulta extraño ver foros de antivacunas usando una y otra vez las mismas http://www.vacunacionlibre.org/:

¿Cuáles son los ingredientes de cada una de las vacunas?
Si se obliga a vacunar y mi hija enferma o muere a causa de la misma, ¿qué juez o estado se hace responsable de esto?
¿Por qué me he de fiar de las farmacéuticas privadas?
¿Me puede alguien asegurar que los descendientes no tendrán secuelas o imperfecciones a causa de inutilizar nuestro cuerpo a base de vacunas?
¿Aquellos que vacunan indagan en estas cuestiones o, simplemente, lo hacen porque les han dicho que lo deben hacer? Quien es más irresponsable, ¿el que después de leer leer y más leer decide no vacunar o el que vacuna porque todos lo hacen sin cuestionarse nada?
¿Por qué se vacuna por sistema de enfermedades erradicadas?
¿Una persona vacunada no queda inmunizada? Si es así, ¿por qué se teme el contagio? Si no es así, ¿para qué se vacuna?
También hay médicos y enfermeros que no vacunan a sus hijos ¿qué ven en la sanidad para desconfiar?
¿Es necesario enfermar a un bebé sano o tal vez se debería esperar a vacunarlos cuando su sistema inmunológico esté maduro para afrontarlas?


Curiosamente todas estas preguntas suelen tener respuestas muy sencillas (Que Atrevida es la ignorancia  || Cosas que dicen contra las vacunas y no son ciertas) y que en su gran mayoría deberían haber sido respondidas en el colegio. Y aún así, molestandose un poco en buscar en google podran ver informes como este del CDC o este otro en el que se ven claramente los beneficios de las vacunas.
El gran problema no es que sean peligrosos para si mismos, sino que suponen un peligro para la población en general, al romper la inmunidad de grupo y convertirse en un vector de infección. Es así de simple, cada vez que te niegas a vacunar a uno de tus hijos, estás poniendo en peligro la vida de los demás niños que hagan vida diaria con él.

Pero voy a ser positivo. Y creeré en que la ignorancia se combate con conocimiento. Este informe del CDC aclarará conceptos: Some Common Misconceptions about vaccination and how to respond to them. Y ya en español, siempre nos vendrá bien saber como se aprueban los medicamentos.

Pero este artículo solo es una prospección de un problema que deberá ser estudiado con detenimiento (Fuente: Pubmed: Understanding those who do not understand: a brief review of the anti-vaccine movement.).

Autor: Jose Enrique Carrera

Read more ►

jueves, 25 de octubre de 2012

La Ciencia detras del Gran Salto

0 comentarios



El domingo día 14 de Octubre de 2012 pasará a la historia. La hazaña lograda por Felix Baumgartner , realizando por primera vez un salto desde la estratosfera, ha mantenido al mundo pendiente de las pantallas de telévisión, ordenadores, tablets, móviles. En definitiva, de cualquier dispositivo que siguiera en directo el evento.
Pero este salto no es sólamente un acto casi heroico, sino que ha sido todo un desafio para los ingenieros que han tenido que preparar el evento. Hoy analizaremos este desafío.


¿Desde donde ha saltado?

Uno de los objetivos del ascenso era batir el record de velocidad por un hombre sin la ayuda de aparatos mecánicos. Sólo un traje especial protegía al saltador. Para ello se optó por subir hasta la estratosfera, a 36.000 km de altura aunque, al final, subieron hasta los 39.000 metros para asegurar el resultado. Pero… un momento, ¿sabemos lo que es la estratosfera?
Como bien sabemos o, al menos, deberíamos intuir, la atmósfera está compuesta por diversas capas: La troposfera, la estratosfera, la mesosfera, la termosfera y la exosfera. Todas estas capas están separadas por las “pausas”, a saber: tropopausa, la estratopausa, la mesopausa y la termopausa.

Para nuestro estudio nos centraremos en las que nos atañen, por orden, la troposfera, la tropopausa y la estratosfera.
La Troposfera es la capa atmosférica en la que vivimos. Sus principales características son:
    - Su espesor alcanza desde la superficie terrestre (tanto terrestre como acuática o marina) hasta una altitud variable entre los 6 km en las zonas polares y los 18 o 20 km en la zona intertropical, por las razones indicadas más adelante.
    – Su temperatura disminuye con la altitud. La troposfera es la capa inferior (más próxima a la superficie terrestre) de la atmósfera de la Tierra. A medida que se sube, disminuye la temperatura en la troposfera, salvo algunos casos de inversión térmica que siempre se deben a causas locales o regionalmente determinadas.
      – La latitud del lugar determina el mayor o menor espesor de la troposfera, siendo mucho mayor en la zona intertropical por la fuerza centrífuga del movimiento de rotación terrestre, y mucho menor en las zonas polares por la fuerza centrípeta (achatamiento polar).
En la troposfera suceden los fenómenos que componen lo que llamamos tiempo meteorológico.
La capa inferior de la troposfera se denomina la capa geográfica, que es donde se producen la mayor proporción de fenómenos geográficos, tanto en el campo de la geografía física como en el campo de la geografía humana.
(fuente: Wikipedia).
La tropopausa, es el espacio que separa la Troposfera de la estratosfera, sobre la cual la temperatura se mantiene constante antes de comenzar nuevamente aumentar sobre los 20 km sobre el nivel del mar. Contiene pequeñas cantidades de los gases de la troposfera en densidades decrecientes proporcional a la altura. Incluye también escasas cantidades de ozono (O3) que filtran el 99% de los rayos ultravioleta (UV) provenientes de las radiaciones solares (Miller, 1991). Es esta absorción de UV la que hace ascender la temperatura hasta cerca de los 0 °C. Este perfil de temperaturas permite que la capa sea muy estable y evite turbulencias, algo que caracteriza a la estratosfera.
(fuente: wikipedia).
La estratosfera: Su nombre obedece a que está dispuesta en capas más o menos horizontales (o estratos). Se extiende entre los 9 o 18 km hasta los 50 km de altitud. La estratosfera es la segunda capa de la atmósfera de la Tierra. A medida que se sube, la temperatura en la estratosfera aumenta. Este aumento de la temperatura se debe a que los rayos ultravioleta transforman al oxígeno en ozono, proceso que involucra calor: al ionizarse el aire, se convierte en un buen conductor de la electricidad y, por ende, del calor. Es por ello que a cierta altura existe una relativa abundancia de ozono (ozonosfera) lo que implica también que la temperatura se eleve a unos -3° C o más. Sin embargo, se trata de una atmósfera muy enrarecida, muy tenue.
(fuente: Wikipedia).
Así bien, Felix Baumgartner se encuentra en la estratosfera, área en la que la temperatura ya comienza a ascender. Como vemos, va a atravesar, en total, tres capas atmosféricas diferentes. Esto implica una dificultad añadida porque, como hemos visto, hay variaciones térmicas importantes entre las diferentes capas que atravesará durante el salto. Debido a esto, el traje de Felix está especialmente diseñado, de manera muy semejante a los trajes espaciales.



El traje está concebido para proteger a su ocupante de temperaturas que van desde los 38 a los -32 grados centígrados, y está diseñado para que en su interior haya una presión constante de 1,58 Kg. por pulgada cuadrada (una pulgada cuadrada equivale a 6,5 cm. cuadrados), lo que más o menos es igual a la presión atmosférica que hay a 10.000 metros de altura.
Algo de una gran importancia, si se tiene en cuenta que a partir de los 19.000 metros de altura los líquidos que contiene el cuerpo humano empiezan a gasificarse y a expandirse peligrosamente. El traje, pues, mantiene en todo momento una presión aceptable alrededor del cuerpo del piloto
Otra característica es el propio material del que está hecho el traje, que es capaz al mismo tiempo de retardar la acción del fuego y de proteger al ocupante de las gélidas temperaturas del exterior. Todas las funciones del traje dependen de un “controlador” electrónico, un pequeño disco de pocos cm. de diámetro que mantiene automáticamente la presión interna a diferentes alturas.
Un sistema interno de ventilación permite insuflar aire caliente o frío en el interior del traje. El primero muy útil durante el ascenso y el segundo para eliminar el vaho del visor, lo que dejaría virtualmente ciego al piloto.
(Fuente ABC)

 La Barrera del sonido

El otro punto importante a la hora de valorar el salto, es el objetivo de alcanzar la barrera del sonido. Para lo cual tenemos que tener en cuenta varios aspectos: como se calcula la velocidad del sonido, que es la onda de choque y el concepto de velocidad terminal.
El concepto de velocidad terminal es importante dado que es, precisamente, el que podría dar al traste con el objetivo de sobrepasar la velocidad del sonido.
En fluidodinámica la velocidad límite o velocidad terminal es la velocidad máxima que alcanzaría un cuerpo moviéndose en el seno de un fluido infinito bajo la acción de una fuerza constante. Un ejemplo es el caso de la velocidad límite alcanzada por un paracaidista en caída libre que cae desde suficiente altura. La diferencia con caída libre es que en este caso existe una fuerza de rozamiento del fluido proporcional a la velocidad del cuerpo, con lo cual llegará un punto límite de velocidad en donde el empuje junto con la fuerza de rozamiento se iguale a la fuerza de movimiento del propio cuerpo.
(Fuente: Wikipedia)

Para un cuerpo moviéndose en un flujo turbulento en el que se producen remolinos alrededor del cuerpo en movimiento la fuerza de rozamiento depende de v2 y es proporcional a la resistencia aerodinámica. En ese caso la velocidad límite viene dada por:

Donde:
F es el peso del objeto que cae, para el caso de caída libre F = mg.
Cd es el coeficiente de resistencia aerodinámica,
? es la densidad del fluido a través del cual se mueve el objeto,
A es la sección del objeto en dirección transversal a la de movimiento.
A objeto de evitar problemas con la velocidad terminal, se ha elegido subir a 39.000 metros de altura, dejando mayor sección de estratosfera en la caida libre, aprovechando la menor densidad de la atmósfera en esta capa y, así, asegurar el resultado. De hecho, como bien se puede ver durante el salto, la velocidad máxima se consigue dentro de los primeros 50 segundos, sufriendo después una fuerte desaceleración (en torno al minuto y medio).
Con respecto a la velocidad del sonido y la consecuente onda de compresión, ocurre justo al contrario: cuanto más baja es la temperatura, menor velocidad hace falta para sobrepasar la velocidad del sonido.
En los gases la ecuación de la velocidad del sonido es la siguiente:



Siendo ? el coeficiente de dilatación adiabática,
R la constante universal de los gases,
T la temperatura en kelvin y
M la masa molar del gas.

Los valores típicos para la atmósfera estándar a nivel del mar son los siguientes:
? = 1,4
R = 8,314 J/mol·K = 8,314 kg·m2/mol·K·s2
T = 293,15 K (20 °C)
M = 0,029 kg/mol para el aire
(Fuente: wikipedia)

Para los cálculos, finalente, tanto la presión del aire como su composición casi son despreciables, así que al final el valor diferencial es la temperatura que recordemos que irá descendiendo según avance hacia la troposfera y que empezará a aumentar según atraviese la tropopausa. De tal manera que su velocidad máxima se dará en la tropopausa descendiendo después a medida que entre en la troposfera. En este caso se calculó que esta velocidad en el medio sería de 1130 km/h (frente a los 1230km/h que serían en la superficie terrestre). La velocidad final fué de 1173km/h, con lo que consiguió un meritorio Mach 1,24.
Uno de los problemas del salto es que al alcanzar Mach 1, se produce una onda de choque, que es una onda de presión abrupta producida por un objeto que viaja más rápido que la velocidad del sonido en dicho medio, que a través de diversos fenómenos produce diferencias de presión extremas y aumento de la temperatura, pero que en este caso, debido a la baja densidad del aire, se hizo prácticamente imperceptible.
(Fuente wikipedia)

El resto es historia.

Autor: Jose Enrique Carrera.


Read more ►
 

Copyright © Enamorados de la ciencia Design by O Pregador | Blogger Theme by Blogger Template de luxo | Powered by Blogger